JP4227257B2 - camera - Google Patents

camera Download PDF

Info

Publication number
JP4227257B2
JP4227257B2 JP22807699A JP22807699A JP4227257B2 JP 4227257 B2 JP4227257 B2 JP 4227257B2 JP 22807699 A JP22807699 A JP 22807699A JP 22807699 A JP22807699 A JP 22807699A JP 4227257 B2 JP4227257 B2 JP 4227257B2
Authority
JP
Japan
Prior art keywords
subject
facial expression
camera
image
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP22807699A
Other languages
Japanese (ja)
Other versions
JP2001051338A (en
JP2001051338A5 (en
Inventor
靖宏 豊田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP22807699A priority Critical patent/JP4227257B2/en
Publication of JP2001051338A publication Critical patent/JP2001051338A/en
Publication of JP2001051338A5 publication Critical patent/JP2001051338A5/ja
Application granted granted Critical
Publication of JP4227257B2 publication Critical patent/JP4227257B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、被写体の状況を画像認識できるカメラに関するものである。
【0002】
【従来の技術】
1)従来、特開平7−128711号に示されているように、被写体となる人が撮影されていることを意識して不自然な表情にならないよう、該被写体である人に悟られず良好な撮影をするために、カメラのファインダを覗かなくともカメラの撮影レンズを正しく被写体に向けたときは、撮影者は音や光等で感知し撮影できる。或はカメラが被写体の方に向いたとき自動的に撮影を行うというものはあった。
【0003】
2)従来、特開平3−252775号,特開平8−249447号,特開平8−249453号,特開平10−255043等、顔の表情を認識する技術はいくつかあったが、カメラの機能に結び付けたものはなかった。
【0004】
3)野生動物撮影等で、カメラのファインダ視野内の特定位置に被写体が入ったときにカメラの撮影動作を行わせるために、この特定位置を挟むように赤外線投・受光装置を設置し、赤外線投・受光装置の間を被写体が横切った際に撮影指令をリモコン信号として発するというものはあった。
【0005】
4)また、特開昭57−115524号に示されるように、予め設定された距離位置へ、移動する被写体が到達したとき、これを自動的に合焦検出してシャッタレリーズ機構を作動させるというものはあった。
【0006】
【発明が解決しようとする課題】
しかしながら、上記1)の従来の技術では、被写体を撮影画面内に捉えることはできても、被写体となる人がしっかりカメラの方を向いているかどうか、また目を閉じていないか、更には目線がカメラの方を向いているかを、カメラの位置からかなりの距離離れた撮影者の目で判断しなくてはならず、直接カメラのファインダを覗いている場合に比べて失敗の確率が高くなってしまうという不都合があった。
【0007】
上記(2)の従来の顔の表情を認識する技術は、カメラの機能に応用されていないため、依然として撮影者が被写体となる人の表情を見て撮影するか否かを判断しなければならず、なるべく手間をかけず自動で撮影したいという人にとっては、煩わしいという不都合があった。また、良い表情を無人撮影したいという要望に答えられないという不都合もあった。更には、顔の表情に合った雰囲気を盛上げる効果を狙った演出も考えられてはいなかった。
【0008】
上記(3)の従来の技術では、赤外線投・受光装置を設置した場所でのみ、自動撮影が可能であり、撮影の自由度が無く、装置が大型化してしまうという不都合があった。
【0009】
上記(4)の従来の技術では、狙った被写体の近く或は急に飛び込んで別の被写体が存在した場合に、別の被写体が先に予め設定された距離位置へ到達してしまうと、狙った被写体にピントが合わず、別の被写体にピントが合った状態で撮影されてしまうという不都合があった。
【0015】
(発明の目的)
本発明の第1の目的は、被写体の顔の表情を認識し、顔の表情の判定結果に応じて、記録画面の明るさを変化させることのできるカメラを提供しようとするものである。
【0017】
本発明の第2の目的は、被写体の顔の表情を認識し、顔の表情の判定結果に応じて、表情に合った色に記録画面を変化させることのできるカメラを提供しようとするものである。
【0018】
【課題を解決するための手段】
上記第1の目的を達成するために、請求項1に記載の発明は、被写界の画像情報を検出する被写界像検出手段と、該被写界像検出手段からの画像情報を基に被写体の顔の表情を認識する表情認識手段と、該表情認識手段からの情報により、該顔の表情を判定する判定手段と、該判定手段の判定結果に応じて記録画面の明るさを変化させる画面明るさ変化手段と、該画面明るさ変化手段により変化された明るさの画面での被写体を記録する記録動作を行わせる制御手段とを有するカメラとするものである。
【0019】
また、上記第2の目的を達成するために、請求項2に記載の発明は、被写界の画像情報を検出する被写界像検出手段と、該被写界像検出手段からの画像情報を基に被写体の顔の表情を認識する表情認識手段と、該表情認識手段からの情報により、該顔の表情を判定する判定手段と、該判定手段の判定結果に応じて記録画面の色を変化させる画面色変化手段と、該画面色変化手段により変化された画面色での被写体を記録する記録動作を行わせる制御手段とを有するカメラとするものである。
【0026】
【発明の実施の形態】
以下、本発明を図面を参照しながら以下の実施の形態に基づいて詳細に説明する。
【0027】
図1は本発明の実施の各形態に共通なカメラを示す中央縦断面図であり、図2は本発明の実施の第1の形態に係る主要部分の構成を示すブロック図である。
【0028】
これらの図において、1はカメラボディ、2は撮影レンズである。3は撮影光軸付近をハーフミラーとした主ミラーであり、主ミラー受板4(撮影光軸付近に開口を設けてある)に接着固定され、主ミラー受板4に設けられた軸4aを中心に図1のミラーダウンした観察状態から不図示のミラーアップした撮影光路外退避状態へ回動可能となっている。ミラーダウンした観察状態では、撮影レンズを通った被写体光は主ミラーで45度上へ反射され、ピント板5に像を結び、ペンタダハプリズム6で正立正像になり接眼レンズ7を通して撮影者に観察される。8はCCD(固体撮像素子)からなる被写界像検出手段であり、測光センサとしての役目もする。9は被写界像検出レンズであり、ピント板5に結ばれた像を被写界像検出手段8のセンサ面に結像させる。
【0029】
10はサブミラーであり、サブミラー受板11に接着支持され、サブミラー受板11の軸11aにより回動自在に支持される。サブミラー10は図1のミラーダウンした観察状態で主ミラー3の撮影光軸付近のハーフミラー部を通過した被写体光をカメラ下方に配置した焦点検出部へ導き、サブミラー受板4は不図示のミラーアップした撮影光路外退避状態で主ミラー受板4の撮影光軸付近の開口を塞ぐように作用する。12は焦点検出光学系のフィールドレンズ、13は反射ミラー、14は焦点検出光学系の二次結像レンズ、15は公知のパッシブオートフォーカス用位相差検出方式の焦点検出センサ、16はフォーカルプレーンシャッタ、17はレンズの絞り、18はフィルムである。
【0030】
図2に示す19は被写界像であり、19aは被写体である人物が正面を向いている状態を、19bは被写体である人物が横を向いている(正面を向いていない)状態を、それぞれ示している。20はカメラ全体を制御するCPUであり、その中に被写界像検出手段8からの画像情報を基に被写体の顔を認識する顔認識手段21や、該顔認識手段21からの情報により、顔が所定方向に向いているかを判定する判定手段22、更には該判定手段22の判定結果に応じて被写体記録動作を行う被写体記録動作制御手段23を有する。24はカメラ露光機能部であり、レンズの絞り17やフォーカルプレーンシャッタ16からなる。
【0031】
図1に示す25は、撮影光学系光軸近傍に設けられ、撮影光軸と同方向に近赤外光を投射するiRED、26は前記iRED25の投射に同期して不図示の進退機構によりCCDからなる被写界像検出手段8の前面に進入する近赤外光透過可視光カットフィルタ、27は日付やキャプションをフィルム背面より写し込ませるための公知のデートモジュールである。28は効果フィルタであり、不図示のアクチュエータと不図示の進退機構により撮影レンズの光束内への進入及び光束外への退避が可能に設けられ、少なくとも異なる2種類のフィルタが選択可能になっている。
【0032】
次に、上記構成におけるカメラの主要部分の動作について、図3のフローチャートにしたがって説明する。
【0033】
ステップ1にて不図示のメインスイッチがONされると、カメラに電源が供給され、撮影準備初期状態となる。そして、ステップ2において、CPU20はカメラの不図示のレリーズボタンが第1ストロークまで押されてスイッチSW−1がONしたかを判定し、ONであればステップ3へ進む。また、スイッチSW−1がOFFであればステップ10まで飛ぶ。
【0034】
ステップ3においては、CPU20はCCDからなる被写界像検出手段8よりの測光出力を取り込み、測光演算を行い、露光制御値を決定する。そして、次のステップ4において、公知の位相差検知方式のパッシブオートフォーカス装置の焦点検出センサ15の出力から焦点検出演算を行い、焦点合わせのための撮影レンズ駆動量を決定する。続くステップ5においては、上記ステップ4にて得られた撮影レンズ駆動量に基づいて撮影レンズ2の焦点調節用レンズ2aを駆動し、焦点調節する。そして、次のステップ6において、CPU20は撮影者が狙ったであろう被写体に焦点が合った被写界像を、CCDよりなる被写界像検出手段8に1フレームを1/30秒のビデオレートで順次取込ませる。
【0035】
次のステップ7においては、顔認識手段21が、取込まれた被写界像から人の顔を認識し、判定手段22により、認識された人の顔が正面を向いているかを判定する。図2の19aのように被写界像の被写体人物が正面を向いているのであればステップ8へ進み、19bのように正面を向いていなければステップ2へ戻る。
【0036】
なお、被写界像の中から正面を向いている人物像を抽出する方法(顔認識手段21と判定手段22によって行われる)は、以下に示す(a)〜(c)の手法が公知となっており、この実施の第1の形態ではそのうちの何れかの手法を用いるものとする。
【0037】
(a)テレビジョン学会誌Vol.49,No.6,pp.787−797(1995) の「顔領域抽出に有効な修正HSV表色系の提案」に示されるように、カラー画像をモザイク画像化し、肌色領域に着目して顔領域を抽出する手法。
【0038】
(b)電子情報通信学会誌Vol.J74−D−II,No.11,pp.1625−1627(1991) の「静止濃淡情景画像からの顔領域を抽出する手法」に示されるように、髪や目や口など正面人物像の頭部を構成する各部分に関する幾何学的な形状特徴を利用して正面人物像の頭部領域を抽出する手法。
【0039】
(c)画像ラボ 1991−11( 1991) の「テレビ電話用顔領域検出とその効果」に示されるように、動画像の場合、フレーム間の人物の微妙な動きによって発生する人物像の輪郭エッジを利用して正面人物像を抽出する手法。
【0040】
ステップ8へ進むと、ここでは上記ステップ3にて決定された露出制御値に基づいて被写体記録動作制御手段23は、絞り17の開口径とフォーカルプレーンシャッタ16のシャッタ秒時を制御し、フィルム18への露光を行う。そして、次のステップ9において、フィルムを1駒巻上げ、次の撮影に備え、前記フィルムの巻上げが終了するとステップ2へ戻る。
【0041】
上記ステップ2にてスイッチSW−1がOFFであるとしてステップ10へ進むと、ここではCPU20は所定時間を計時する測光タイマ(レリーズボタンを押してスイッチSW−1のONを保持せずとも露出設定変更できるよう、測光可能状態を所定時間保持するタイマ)の状態を見に行き、作動中であればステップ2へ戻る。また、所定時間が経過し不作動であればステップ11へ進み、ここでは不図示のメインスイッチの状態を見に行き、ONであればステップ2へ戻り、以下繰り返す。一方、OFFであればステップ12へ進み、カメラへの電源供給を遮断する。
【0042】
上記の実施の第1の形態によれば、被写体の顔の向きを認識し、顔が所定の方向、特に正面を向いた場合に被写体記録動作を行うので、撮影者に負担をかけず、被写体である人物がきちんとカメラの方を向いていないという失敗写真を防ぐ効果がある。
【0043】
(実施の第2の形態)
図4は本発明の実施の第2の形態に係るカメラの主要部分の回路構成を示すブロック図、図5は本発明の実施の第2の形態における主要部分の動作を示すフローチャートである。
【0044】
なお、これらの図において、上記実施の第1の形態と同じ部分はそのままの番号で示し、対応する部分に関しては上記実施の第1の形態の数字に200を加えた番号で示す。そして、ここでは上記実施の第1の形態と異なる個所のみを説明する。
【0045】
図4において、219は被写界像であり、219aは被写体である人物が目を開けてカメラの方に目線を向けている状態を、219bは被写体である人物が目を閉じている状態を、219cは被写体である人物は目を開けてはいるがカメラの方に目線を向けていない状態を、それぞれ示している。220はカメラ全体を制御するCPUであり、その中に被写界像検出手段8からの画像情報を基に被写体の目を認識する目認識手段221や、該目認識手段221からの情報により、目が特定の状態になっているか(例えば、目が開いているか、目線がカメラの方を向いているか)を判定する判定手段222、更には該判定手段222の判定結果に応じて被写体記録動作を行う制御手段223を有する。
【0046】
次に、上記構成におけるカメラの主要部分の動作について、図5のフローチャートにしたがって説明する。
【0047】
ステップ201からステップ205までは、上記実施の第1の形態における図3のステップ1からステップ5までと同じであり、その説明は省略する。
【0048】
ステップ206においては、CPU200は撮影者が狙ったであろう被写体に焦点が合った被写界像を、CCDからなる被写界像検出手段8に1フレームを1/30秒のビデオレートで順次取込ませる。また、瞳孔は入射した光を略同方向に反射する性質を持っており、顔の他の部分に比べて同軸照明状態の輝度が際立って大きく、弱い近赤外光を用いても瞳孔だけは明るく撮像される。従って、iRED25により近赤外光を被写体に投射し、近赤外光透過可視光カットフィルタ26を透過した被写界像を、被写界像検出手段8が1フレームを1/30秒のビデオレートで順次取込むようにさせると、より効果的に目の像が得られる。
【0049】
次のステップ207においては、目認識手段221が、取込まれた被写界像から人の目を認識し、判定手段222により、認識された人の目が開いているか、更には目線がカメラの方を向いているかを判定する。図4の219a或は219cのように、被写界像の被写体である人物の目が開いているのであればステップ208へ進み、219bのように目が閉じていればステップ202へ戻る。または、図4の219aのように被写界像の被写体である人物の目が開いて、しかも目線がカメラの方を向いているのであればステップ208へ進み、219cのように目を開けてはいるが、カメラの方に目線を向けていなかったり、219bのように目が閉じていればステップ202へ戻るようにしてもよい。
【0050】
なお、被写界像の中から人物の目(及び目線(視線)方向)を抽出する方法(目認識手段221と判定手段222によって行われる)は、以下に示す(d)〜(h)の手法が公知となっており、この実施の第2の形態ではそのうちの何れかの手法を用いるものとする。
【0051】
(d)特開平3−17696号に示されるように、目の領域を瞳孔中心を通る垂直線と水平線で分割し、分けられた領域の面積比を特徴量として視点位置を算出する手法。
【0052】
(e)特開平4−255015号に示されるように、視線の相対的な移動量を瞳の輪郭データを抽出し、瞳の中心座標の変化から求める手法。
【0053】
(f)特開平5−300601号に示されるように、赤外光を顔に投射し、特に反射率の高い眼球を抽出する手法。
【0054】
(g)特開平9−21611号に示されるように、近赤外光を撮影レンズと略同軸に被写体である人物に照射し、瞳孔の高輝度反射を検出し目を抽出する手法。
【0055】
(h)特開平9−251342号に示されるように、取得画像に対し領域分割を行い、各領域の色相、彩度の情報から顔領域を見つける。次に色相画像の2値化により、肌色部分とは異なる色属性を持つ目部分と口部分の候補を出し、目や口の濃淡パターンとの照合を行い、目領域と口領域を決める。そして検出した目、口に対してエッジ画像を生成し、エッジ画像を1次元の軸方向に垂直に写像し、目頭と左右の口元を検出する。更に目の切り出し画像を2値化し、黒画素の重心を瞳の重心とし、目頭点とから瞳のベクトルを求める。最後に顔の向きにおける目の位置より注視点を求める。という手法。
【0056】
ステップ208からステップ212までは、上記実施の第1の形態における図3のステップ8からステップ12までと同じであり、その説明は省略する。
【0057】
上記実施の第2の形態によれば、被写体の目の状態を認識し、目が所定の状態になった場合、特に目をしっかり開けて、カメラに目線が向いている場合に被写体記録動作を行うので、撮影者に負担をかけず、被写体である人物が目を閉じていたり、きちんとカメラの方を見ていないという失敗写真を防ぐ効果がある。
【0058】
(実施の第3の形態)
図6は本発明の実施の第3の形態に係るカメラの主要部分の回路構成を示すブロック図、図7は本発明の実施の第3の形態における主要部分の動作を示すフローチャートである。
【0059】
なお、これらの図において、上記実施の第1の形態と同じ部分はそのままの番号で示し、対応する部分に関しては上記実施の第1の形態の数字に300を加えた番号で示す。そして、ここでは上記実施の第1の形態と異なる個所のみを説明する。
【0060】
図6において、319は被写界像であり、319aは被写体である人物が無表情の状態を、319bは被写体である人物が笑っている喜びの状態を、319cは被写体である人物が泣いている悲しみの状態を、319dは被写体である人物の怒りの状態を、319eは被写体である人物の驚きの状態を、それぞれ示している。320はカメラ全体を制御するCPUであり、その中に被写界像検出手段8からの画像情報を基に被写体の表情を認識する表情認識手段321や、該表情認識手段321からの情報により、表情が特定の状態(例えば、喜び、悲しみ、怒り、驚きの状態)になっているかを判定する判定手段322、更には該判定手段322の判定結果に応じて被写体記録動作を行う制御手段323を有する。
【0061】
次に、上記構成におけるカメラの主要部分の動作について、図7のフローチャートにしたがって説明する。
【0062】
ステップ301からステップ306までは、上記実施の第1の形態における図3のステップ1からステップ6までと同様であり、その説明は省略する。
【0063】
ステップ307においては、表情認識手段321が、取込まれた被写界像から人の表情を認識し、判定手段322により、認識された人の表情が特定の状態(例えば、喜び、悲しみ、怒り、驚きの状態)になっているかを判定する。図6の319b〜319eのように、被写界像の被写体である人物の表情が喜び、悲しみ、怒り、驚きのいずれかの状態になっているのであればステップ308へ進み、そうでなければステップ302へ戻る。
【0064】
なお、被写界像の中から人物の表情を認識する方法(表情認識手段321と判定手段322によって行われる)は、以下に示す(i)〜(k)の手法が公知となっており、この実施の第3の形態ではそのうちの何れかの手法を用いるものとする。
【0065】
(i)特開平3−252775号に示されるように、筋肉の動きを測定するモジュールを備えており、このモジュールによって、顔の筋肉の動きの時間的変化のパターンに基づいて、学習モードでは標準表情パターンを学習記憶し、認識モードでは取込んだ画像による表情パターンと学習した標準表情パターンと比較し表情認識をするという手法。
【0066】
(j)特開平8−249447号に示されるように、顔の映像信号をウェーブレット変換し、それにより得られた空間周波数の平均電力を無表情のときの平均電力と比較し表情認識をするという手法。
【0067】
(k)特開平8−249453号,特開平10−255043号に示されるように、表情カテゴリとして、怒り、嫌悪、恐れ、悲しみ、幸福、驚きの合計6種類の基本表情を考え、無表情から各基本表情への時系列画像の処理を行う。例えば、人が相手の表情を読取るときに最も注目している領域である右目と口をそれぞれ含む2つの領域について、人の顔の動画像中の連続する2枚の画像からオプティカルフローアルゴリズムを用いて速度ベクトルを得る。この速度ベクトルの各成分に離散フーリエ変換を施し、フーリエ変換係数の低周波成分を特徴ベクトルとして抽出する。次に、HMM(隠れマルコフモデル)を用いて特徴ベクトルの生成確率を算出し、認識処理を行うという手法。
【0068】
ステップ308からステップ312までは、上記実施の第1の形態における図3のステップ8からステップ12までと同じであり、その説明は省略する。
【0069】
上記実施の第3の形態によれば、被写体の顔の表情を認識し、顔が所定の表情になった場合、特に喜び、悲しみ、怒り、驚きといった写真として面白い特徴的な表情になったときに被写体記録動作を行うので、撮影者に負担をかけず、無表情に近い平凡な写真を撮ることがなくなり、傑作写真が撮れる確率が高くなる効果がある。
【0070】
(実施の第4の形態)
図8は本発明の実施の第4の形態に係るカメラの主要部分の回路構成を示すブロック図、図9は本発明の実施の第2の形態における主要部分の動作を示すフローチャートである。
【0071】
なお、これらの図において、上記実施の第1の形態と同じ部分はそのままの番号で示し、対応する部分に関しては上記実施の第1の形態の数字に400を加えた番号で示す。そして、ここでは上記実施の第1の形態と異なる個所のみを説明する。
【0072】
図8において、419は被写界像であり、419aは被写体である人物が棒立ちの状態を、419bは被写体である人物が頬杖を突いて座っている状態を、419cは被写体である人物が片腕を上げる状態を、それぞれ示している。420はカメラ全体を制御するCPUであり、その中に被写界像検出手段8からの画像情報を基に被写体のポーズを認識するポーズ認識手段421や、該ポーズ認識手段421からの情報により、ポーズが特定の状態(例えば、頬杖を突いて座る、片腕を上げる等の状態)になっているかを判定する判定手段422、更には該判定手段422の判定結果に応じて被写体記録動作を行う制御手段423を有する。
【0073】
次に、上記構成におけるカメラの主要部分の動作について、図9のフローチャートにしたがって説明する。
【0074】
ステップ401からステップ406までは、上記実施の第1の形態における図3のステップ1からステップ6までと同じであり、その説明は省略する。
【0075】
ステップ407においては、ポーズ認識手段421が、取込まれた被写界像から人のポーズを認識し、判定手段422により、認識された人のポーズが特定の状態(例えば、頬杖を突いて座る、片腕を上げる等の状態)になっているかを判別する。図8の419b,419cのように、被写界像の被写体である人物のポーズが頬杖を突いて座る、片腕を上げる等の状態になっているのであればステップ408へ進み、そうでなければステップ402へ戻る。
【0076】
なお、被写界像の中からポーズを認識する方法(ポーズ認識手段421と判定手段422によって行われる)は、以下の(m)の手法が公知となっており、この実施の第4の形態では該手法を用いるものとする。
【0077】
(m)特開平7−57103号に示されるように、撮像された被写体の特定部位の輪郭を抽出し、記憶されたパターンと比較しポーズ認識をするという手法。
【0078】
ステップ408からステップ412までは、上記実施の第1の形態における図3のステップ8からステップ12までと同じであり、その説明は省略する。
【0079】
上記の実施の第4の形態によれば、被写体の姿勢(ポーズ)を認識し、被写体が所定の姿勢(ポーズ)になった場合、特に写真として面白い特徴的なポーズになったときに被写体記録動作を行うので、撮影者に負担をかけず、棒立ちのようなつまらないポーズの写真を撮ることがなくなり、傑作写真が撮れる確率が高くなる効果がある。
【0080】
(実施の第5の形態)
図10は本発明の実施の第5の形態に係るカメラの主要部分の回路構成を示すブロック図、図11は本発明の実施の第5の形態における主要部分の動作を示すフローチャートである。
【0081】
なお、これらの図において、上記実施の第1の形態と同じ部分はそのままの番号で示し、対応する部分に関しては上記実施の第1の形態の数字に500を加えた番号で示す。そして、ここでは上記実施の第1の形態と異なる個所のみを説明する。
【0082】
図10において、519は被写界像であり、519aは被写体である人物が棒立ちで静止している状態を、519bは被写体である人物が走り出した状態を、それぞれ示している。520はカメラ全体を制御するCPUであり、その中に被写界像検出手段8からの画像情報を基に被写体の動作を認識する動作認識手段521や、該動作認識手段521からの情報により、動作が特定の状態(例えば、走り出した状態)になっているかを判定する判定手段522、更には該判定手段522の判定結果に応じて被写体記録動作を行う制御手段523を有する。
【0083】
次に、上記構成におけるカメラの主要部分の動作について、図11のフローチャートにしたがって説明する。
【0084】
ステップ501からステップ506までは、上記実施の第1の形態における図3のステップ1からステップ6までと同じであり、その説明は省略する。
【0085】
ステップ507においては、動作認識手段521が、取込まれた被写界像から人の動作を認識し、判定手段522により、認識された人の動作が特定の状態(例えば、走り出した状態)になっているかを判別する。519bのように被写界像の被写体である人物の動作が走り出した状態になっているのであればステップ508へ進み、そうでなければステップ502へ戻る。
【0086】
なお、被写界像の中から動作を認識する方法(動作認識手段521と判定手段522によって行われる)は、以下に示す(n)の手法が公知となっており、この実施の第5の形態では該手法を用いるものとする。
【0087】
(n)特開平7−57103号に示されるように、撮像された被写体の特定部位の輪郭を抽出し、記憶されたパターンと比較し動作認識をするという手法。
【0088】
ステップ508からステップ512までは、上記実施の第1の形態における図3のステップ8からステップ12までと同じであり、その説明は省略する。
【0089】
上記実施の第5の形態によれば、被写体の動作を認識し、被写体が所定の動作を行った場合、特に写真として面白い特徴的な動作を行ったときに被写体記録動作を行うので、撮影者に負担をかけず、棒立ちに近いつまらない動作の写真を撮ることがなくなり、傑作写真が撮れる確率が高くなる効果がある。
【0090】
(実施の第6の形態)
図12は本発明の実施の第6の形態に係るカメラの主要部分の回路構成を示すブロック図、図13は本発明の実施の第6の形態における主要部分の動作を示すフローチャートである。
【0091】
なお、これらの図において、上記実施の第1の形態と同じ部分はそのままの番号で示し、対応する部分に関しては上記実施の第1の形態の数字に600を加えた番号で示す。そして、ここでは上記実施の第1の形態と異なる個所のみを説明する。
【0092】
図12において、619は被写界像であり、619aは被写体である人物が無表情の状態を、619bは被写体である人物が笑っている喜びの状態を、619cは被写体である人物が泣いている悲しみの状態を、619dは被写体である人物の怒りの状態を、619eは被写体である人物の驚きの状態を、それぞれ示している。620はカメラ全体を制御するCPUであり、その中に被写界像検出手段8からの画像情報を基に被写体の表情を認識する表情認識手段621や、該表情認識手段621からの情報により、表情が特定の状態(例えば、喜び、悲しみの状態)になっているかを判定する判定手段622、更には該判定手段622の判定結果に応じて被写体記録動作を行う制御手段623を有する。
【0093】
次に、上記構成におけるカメラの主要部分の動作について、図13のフローチャートにしたがって説明する。
【0094】
ステップ601からステップ606までは、上記実施の第1の形態における図3のステップ1からステップ6とまでと同じであり、その説明は省略する。
【0095】
ステップ607においては、表情認識手段621が、取込まれた被写界像から人の表情を認識し、判定手段622により、認識された人の表情が特定の状態(例えば、喜びの状態)になっているかを判別する。619bのように被写界像の被写体である人物の表情が喜びの状態になっているのであればステップ608へ進む。そうでなければステップ609へ進む。
【0096】
なお、被写界像の中から人物の表情を認識する方法(表情認識手段621と判定手段622によって行われる)は、上記実施の第3の形態と同じ公知の手法のように行われる。
【0097】
ステップ608においては、上記ステップ603にて決定された露出制御値に対し、撮影画面が明るくなるように(明るい雰囲気を出すように)プラスの露出補正をする。そして、次のステップ609において、表情認識手段621が、取込まれた被写界像から人の表情を認識し、判定手段622により、認識された人の表情が特定の状態(例えば、悲しみの状態)になっているかを判定する。図12の619cのように、被写界像の被写体である人物の表情が悲しみの状態になっているのであればステップ610へ進み、そうでなければステップ602へ戻る。
【0098】
なお、被写界像の中から人物の表情を認識する方法(表情認識手段621と判定手段622によって行われる)は、上記ステップ607での説明と同じく、前述した実施の第3の形態と同じ公知の手法により行うものとする。
【0099】
ステップ610においては、上記ステップ603にて決定された露出制御値に対し、撮影画面が暗くなるように(暗い雰囲気を出すように)マイナスの露出補正をする。
【0100】
ステップ611からステップ615までは、上記実施の第1の形態における図3のステップ8からステップ12とまでと同じであり、その説明は省略する。
【0101】
上記実施の第6の形態によれば、被写体の顔の表情を認識し、顔が所定の表情になった場合、特に喜び、悲しみといった写真の雰囲気として明るい・暗いがはっきりした特徴的な表情になったときに雰囲気に合わせて被写体記録画面の明るさを変化させるので、撮影者に負担をかけず、表情により醸し出される雰囲気を盛上げる効果がある。
【0102】
(実施の第7の形態)
図14は本発明の実施の第7の形態に係るカメラの主要部分の回路構成を示すブロック図、図15は本発明の実施の第7の形態における主要部分の動作を示すフローチャートである。
【0103】
なお、これらの図において、上記実施の第1の形態と同じ部分はそのままの番号で示し、対応する部分に関しては上記実施の第1の形態の数字に700を加えた番号で示す。そして、ここでは上記実施の第1の形態と異なる個所のみを説明する。
【0104】
図14において、719は被写界像であり、719aは被写体である人物が無表情の状態を、719bは被写体である人物が笑っている喜びの状態を、719cは被写体である人物が泣いている悲しみの状態を、719dは被写体である人物の怒りの状態を、719e は被写体である人物の驚きの状態を、それぞれ示している。720はカメラ全体を制御するCPUであり、その中に被写界像検出手段8からの画像情報を基に被写体の表情を認識する表情認識手段721や、表情認識手段721からの情報により、表情が特定の状態(例えば、喜び、悲しみ、怒りの状態)になっているかを判定する判定手段722、更には判定手段722の判定結果に応じて被写体記録動作とテキスト・キャラクタの記録動作を行う制御手段723を有する。27はテキスト・キャラクタ発生手段で日付やキャプションをフィルム背面より写し込ませるための公知のデートモジュールに相当する。729は撮影された被写体記録画像である。
【0105】
次に、上記構成におけるカメラの主要部分の動作について、図15のフローチャートにしたがって説明する。
【0106】
ステップ701からステップ706までは、上記実施の第1の形態における図3のステップ1からステップ6とまでと同じであり、その説明は省略する。
【0107】
ステップ707においては、表情認識手段721が、取込まれた被写界像から人の表情を認識し、判定手段722により、認識された人の表情が特定の状態(例えば、喜びの状態)になっているかを判定する。図14の719bのように、被写界像の被写体である人物の表情が喜びの状態になっているのであればステップ708へ進み、そうでなければステップ709へ進む。
【0108】
なお、被写界像の中から人物の表情を認識する方法(表情認識手段721と判定手段722によって行われる)は、上記実施の第3の形態と同じ公知の手法により行うものとする。
【0109】
ステップ708においては、テキスト・キャラクタ発生手段である日付やキャプションをフィルム背面より写し込ませるための公知のデートモジュール27を駆動し、図14の729bに示す「♪HAPPY♪」のような明るいイメージのテキストやキャラクタをフィルム18に写し込む。
【0110】
ステップ709においては、表情認識手段721が、取込まれた被写界像から人の表情を認識し、判定手段722により、認識された人の表情が特定の状態(例えば、悲しみの状態)になっているかを判定する。図14の719cのように、被写界像の被写体である人物の表情が悲しみの状態になっているのであればステップ710へ進み、そうでなければステップ711へ進む。
【0111】
なお、被写界像の中から人物の表情を認識する方法(表情認識手段721と判定手段722によって行われる)は、上記ステップ707での説明と同じく、実施の第3の形態と同じ公知の手法のように行われる。
【0112】
ステップ710においては、テキスト・キャラクタ発生手段である日付やキャプションをフィルム背面より写し込ませるための公知のデートモジュール27を駆動し、図14の729cに示す「★泣かないで★」のような慰めのテキストや、「…寂しいな…」「悲しいよー」といった悲しげなイメージのテキストやキャラクタをフィルム18に写し込む。
【0113】
ステップ711においては、表情認識手段721が、取込まれた被写界像から人の表情を認識し、判定手段722により、認識された人の表情が特定の状態(例えば、怒りの状態)になっているかを判定する。図14の719dのように、被写界像の被写体である人物の表情が怒りの状態になっているのであればステップ712へ進み、そうでなければステップ702へ戻る。
【0114】
なお、被写界像の中から人物の表情を認識する方法(表情認識手段721と判定手段722によって行われる)は、上記ステップ707での説明と同じく、実施の第3の形態と同じ公知の手法により行うものとする。
【0115】
ステップ712においては、テキスト・キャラクタ発生手段である日付やキャプションをフィルム背面より写し込ませるための公知のデートモジュール27を駆動し、「そんなに怒らないで」のような宥めるテキストや、図14の729dに示す「▲怒ったぞ!▲」といった怒りをイメージするテキストやキャラクタをフィルム18に写し込む。
【0116】
ステップ713からステップ717までは、上記実施の第1の形態における図3のステップ8からステップ12とまでと同じであり、その説明は省略する。
【0117】
上記実施の第7の形態によれば、被写体の顔の表情を認識し、顔が所定の表情になった場合、特に喜び、悲しみ、怒りといった写真の雰囲気がはっきりとした特徴を持った表情になったときに雰囲気に合わせたテキストやキャラクタを被写体と共に記録するので、撮影者に負担をかけず、表情により醸し出される雰囲気を盛上げる効果がある。
【0118】
(実施の第8の形態)
図16は本発明の実施の第8の形態に係るカメラの主要部分の回路構成を示すブロック図、図17は本発明の実施の第8の形態における主要部分の動作を示すフローチャートである。
【0119】
なお、これらの図において、上記実施の第1の形態と同じ部分はそのままの番号で示し、対応する部分に関しては上記実施の第1の形態の数字に800を加えた番号で示す。そして、ここでは上記実施の第1の形態と異なる個所のみを説明する。
【0120】
図16において、819は被写界像であり、819aは被写体である人物が無表情の状態を、819bは被写体である人物が笑っている喜びの状態を、819cは被写体である人物が泣いている悲しみの状態を、819dは被写体である人物の怒りの状態を、819e は被写体である人物の驚きの状態を、それぞれ示している。820はカメラ全体を制御するCPUであり、その中に被写界像検出手段8からの画像情報を基に被写体の表情を認識する表情認識手段821や、該表情認識手段821からの情報により、表情が特定の状態(例えば、喜び、悲しみ、怒りの状態)になっているかを判定する判定手段822、更には該判定手段822の判定結果に応じて被写体記録動作と画面色の記録動作を行う制御手段823を有する。28は画面色変化手段であり、効果フィルタが不図示のアクチュエータと不図示の進退機構により撮影レンズの光束内への進入及び光束外への退避が可能に設けられ、それぞれ黄・青・赤等の異なる色をベースとし、被写体の雰囲気に合った効果を出せるフィルタが選択可能になっている。829は撮影された被写体記録画像である。
【0121】
次に、上記構成におけるカメラの主要部分の動作について、図17のフローチャートにしたがって説明する。
【0122】
ステップ801からステップ806までは、上記実施の第1の形態における図3のステップ1からステップ6とまでと同じであり、その説明は省略する。
【0123】
ステップ807においては、表情認識手段821が、取込まれた被写界像から人の表情を認識し、判定手段822により、認識された人の表情が特定の状態(例えば、喜びの状態)になっているかを判定する。図16の819bのように、被写界像の被写体である人物の表情が喜びの状態になっているのであればステップ808へ進み、そうでなければステップ809へ進む。
【0124】
なお、被写界像の中から人物の表情を認識する方法(表情認識手段821と判定手段822によって行われる)は、上記実施の第3の形態と同じ公知の手法により行うものとする。
【0125】
ステップ808においては、画面色変化手段28の黄色をベースとした効果フィルタを撮影レンズの光束内へ進入させ、図16の829bに示すような太陽が燦燦と降り注ぐような明るいイメージの画面色をフィルム18に写し込む。
【0126】
ステップ809においては、表情認識手段821が、取込まれた被写界像から人の表情を認識し、判定手段822により、認識された人の表情が特定の状態(例えば、悲しみの状態)になっているかを判定する。図16の819cのように、被写界像の被写体である人物の表情が悲しみの状態になっているのであればステップ810へ進み、そうでなければステップ811へ進む。
【0127】
なお、被写界像の中から人物の表情を認識する方法(表情認識手段821と判定手段822によって行われる)は、上記ステップ807での説明と同じく、前述した実施の第3の形態と同じ公知の手法のように行われる。
【0128】
ステップ810においては、画面色変化手段28の青色をベースとした効果フィルタを撮影レンズの光束内へ進入させ、図16の829cに示すような、悲しげでブルーなイメージの画面色をフィルム18に写し込む。
【0129】
ステップ811においては、表情認識手段821が、取込まれた被写界像から人の表情を認識し、判定手段822により、認識された人の表情が特定の状態(例えば、怒りの状態)になっているかを判定する。図16の819dのように、被写界像の被写体である人物の表情が怒りの状態になっているのであればステップ812へ進み、そうでなければステップ802へ戻る。
【0130】
なお、被写界像の中から人物の表情を認識する方法(表情認識手段821と判定手段822によって行われる)は、上記ステップ807での説明と同じく、前述した実施の第3の形態と同じ公知の手法により行うものとする。
【0131】
ステップ812においては、画面色変化手段28の赤色をベースとした効果フィルタを撮影レンズの光束内へ進入させ、図16の829dに示すような、激しく燃え盛る炎の如き怒りをイメージする画面色をフィルム18に写し込む。
【0132】
ステップ813においては、上記ステップ803にて決定された露出制御値に基づいて被写体記録動作と画面色の記録動作を行う制御手段823は、絞り17の開口径とフォーカルプレーンシャッタ16のシャッタ秒時を制御し、フィルム18への露光を行う。そして、次のステップ814において、効果フィルタを撮影レンズの光束外へ退避させた後、フィルムを1駒巻上げ、次の撮影に備える。フィルムの巻上げ終了後はステップ802へ戻る。
【0133】
ステップ815からステップ817までは、上記実施の第1の形態における図3のステップ10からステップ12とまでと同じであり、その説明は省略する。
【0134】
なお、上記実施の第8の形態においては、画面色を変化させたが、同様に表情に合った雰囲気を画面に記録するため、画面を軟調効果にするソフトフォーカスや、霧のかかったようにするフォギーに代表されるような公知の光学フィルタで行われている特殊効果を出すことや、画面に模様を付けたりしても良い。
【0135】
以上の実施の第8の形態によれば、被写体の顔の表情を認識し、顔が所定の表情になった場合、特に喜び、悲しみ、怒りといった写真の雰囲気がはっきりとした特徴を持った表情になったときに雰囲気に合わせて変化させた画面色を被写体と共に記録するので、撮影者に負担をかけず、表情により醸し出される雰囲気を盛上げる効果がある。
【0136】
(変形例)
上記実施の各形態において、フィルム18の代わりにCCD(固体撮像素子)を設け、撮像素子駆動回路やディジタル画像処理回路、更には画像記憶手段等の公知の所謂ディジタルカメラの構成要素を設けることにより、銀塩カメラだけでなく、電子スチルカメラにも適応できる。例えば、上記実施の第6の形態の、被写体記録画面の明るさを変化させる手段として、絞りとシャッタにより露出を変化させる方法以外に、フィルムに代わるCCD(固体撮像素子)のゲインを変化させる方法もある。
【0137】
また、上記実施の第7の形態の、テキスト・キャラクタ発生手段として、テキスト・キャラクタのROMを有し、ディジタル画像処理の間に、公知の画像合成によりROM から読み出したテキストやキャラクタを被写体に重ね合わせて記録動作を行うことが考えられる。
【0138】
同様に、上記実施の第8の形態の、画面色変化手段として、ディジタル画像処理の間に、公知の色調整により画面色を変化させて被写体と共に記録することが考えられる。更には、公知の画像合成により特殊効果を出したり、模様を付けたりすることも可能である。
【0139】
【発明の効果】
以上説明したように、請求項1に記載の発明によれば、被写体の顔の表情を認識し、顔の表情の判定結果に応じて、記録画面の明るさを変化させることができるカメラを提供できるものである。
【0140】
また、請求項2に記載の発明によれば、被写体の顔の表情を認識し、顔の表情の判定結果に応じて、表情に合った色に記録画面を変化させることができるカメラを提供できるものである。
【図面の簡単な説明】
【図1】本発明の実施の各形態に共通なカメラを示す中央縦断面図である。
【図2】本発明の実施の第1の形態におけるカメラの主要部分の回路構成を示すブロック図である。
【図3】本発明の実施の第1の形態におけるカメラの主要部分の動作を示すフローチャートである。
【図4】本発明の実施の第2の形態におけるカメラの主要部分の回路構成を示すブロック図である。
【図5】本発明の実施の第2の形態におけるカメラの主要部分の動作を示すフローチャートである。
【図6】本発明の実施の第3の形態におけるカメラの主要部分の回路構成を示すブロック図である。
【図7】本発明の実施の第3の形態におけるカメラの主要部分の動作を示すフローチャートである。
【図8】本発明の実施の第4の形態におけるカメラの主要部分の回路構成を示すブロック図である。
【図9】本発明の実施の第4の形態におけるカメラの主要部分の動作を示すフローチャートである。
【図10】本発明の実施の第5の形態におけるカメラの主要部分の回路構成を示すブロック図である。
【図11】本発明の実施の第5の形態におけるカメラの主要部分の動作を示すフローチャートである。
【図12】本発明の実施の第6の形態におけるカメラの主要部分の回路構成を示すブロック図である。
【図13】本発明の実施の第6の形態におけるカメラの主要部分の動作を示すフローチャートである。
【図14】本発明の実施の第7の形態におけるカメラの主要部分の回路構成を示すブロック図である。
【図15】本発明の実施の第7の形態におけるカメラの主要部分の動作を示すフローチャートである。
【図16】本発明の実施の第8の形態におけるカメラの主要部分の回路構成を示すブロック図である。
【図17】本発明の実施の第8の形態におけるカメラの主要部分の動作を示すフローチャートである。
【符号の説明】
8 CCDからなる被写界像検出手段
20,220,320,420 CPU
21 顔認識手段
22,222,322,422 判定手段
23,223,323,423 被写体記録動作制御手段
24 カメラ露光機能部
27 テキスト・キャラクタ発生手段(デートモジュール)
28 画面色変化手段(効果フィルタ)
221 目認識手段
321,621,721,821 表情認識手段
421 ポーズ認識手段
520,620,720,820 CPU
521 動作認識手段、
522,622,722,822 判定手段
523,623 被写体記録動作制御手段
723 被写体&テキスト・キャラクタ記録動作制御手段
823 被写体&画面色記録動作制御手段
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a camera capable of recognizing an object situation.
[0002]
[Prior art]
1) Conventionally, as shown in Japanese Patent Laid-Open No. 7-128711, it is good that the person who is the subject is not aware of it so that the person who is the subject is not aware of an unnatural expression. If the camera's shooting lens is correctly pointed at the subject without looking through the camera's viewfinder, the photographer can sense and shoot with sound or light. Or there was one that automatically took a picture when the camera was facing the subject.
[0003]
2) There have been several techniques for recognizing facial expressions, such as JP-A-3-252775, JP-A-8-249447, JP-A-8-249453, and JP-A-10-255043. There was nothing to tie.
[0004]
3) In order to cause the camera to perform shooting operations when a subject enters a specific position within the viewfinder field of the camera, such as for wildlife photography, an infrared projector / receiver is installed so as to sandwich this specific position. In some cases, a shooting command is issued as a remote control signal when a subject crosses between a light projecting / receiving device.
[0005]
4) Also, as disclosed in Japanese Patent Laid-Open No. 57-115524, when a moving subject reaches a preset distance position, it automatically detects the focus and activates the shutter release mechanism. There was a thing.
[0006]
[Problems to be solved by the invention]
However, in the conventional technique of 1) above, although the subject can be captured in the shooting screen, whether the subject person is firmly facing the camera, whether the eyes are closed, and further, The photographer must determine whether the camera is facing the camera with a large distance from the camera position, and the probability of failure is higher than when looking directly into the viewfinder of the camera. There was an inconvenience.
[0007]
The conventional technique for recognizing facial expressions in (2) above has not been applied to camera functions, so the photographer must still determine whether or not to shoot by looking at the facial expressions of the person who is the subject. However, there is an inconvenience that it is troublesome for those who want to shoot automatically without as much trouble as possible. There was also the inconvenience of not being able to answer the request to take a good facial expression unattended. In addition, there was no idea of directing the effect of enlivening the atmosphere that matched the facial expression.
[0008]
In the prior art (3), automatic photographing is possible only at the place where the infrared light projecting / receiving device is installed, and there is a disadvantage that there is no degree of photographing freedom and the apparatus becomes large.
[0009]
In the conventional technique of (4) above, when another subject exists near the target subject or suddenly jumps into the target location, if another subject reaches the previously set distance position, There is an inconvenience that a subject is not in focus and another subject is in focus.
[0015]
  (Object of invention)
  Of the present inventionFirstAn object of the present invention is to provide a camera capable of recognizing the facial expression of a subject and changing the brightness of a recording screen in accordance with the determination result of the facial expression.
[0017]
  Of the present inventionSecondAn object of the present invention is to provide a camera that can recognize the facial expression of a subject and change the recording screen to a color that matches the facial expression according to the determination result of the facial expression.
[0018]
[Means for Solving the Problems]
  In order to achieve the first object, the invention described in claim 1 is based on the object scene image detecting means for detecting the image information of the object scene and the image information from the object scene image detecting means. Subject faceFacial expressionRecognizeFacial expression recognition meansAnd theFacial expression recognition meansWith information fromFacial expressionAccording to the determination means of determining and the determination result of the determination meansScreen brightness changing means for changing the brightness of the recording screen, and a recording operation for recording the subject on the screen with the brightness changed by the screen brightness changing meansThe camera has a control means for performing the above.
[0019]
  In order to achieve the second object, the invention according to claim 2 is characterized in that an object scene image detecting means for detecting image information of the object scene and image information from the object scene image detecting means. Based on the subjectFacial expressionRecognizeFacial expression recognition meansAnd theFacial expression recognition meansWith information fromFacial expressionAccording to the determination means of determining and the determination result of the determination meansScreen color changing means for changing the color of the recording screen, and a recording operation for recording the subject with the screen color changed by the screen color changing meansThe camera has a control means for performing the above.
[0026]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, the present invention will be described.The following with reference to the drawingsThis will be described in detail based on the embodiment.
[0027]
FIG. 1 is a central longitudinal sectional view showing a camera common to each embodiment of the present invention, and FIG. 2 is a block diagram showing a configuration of a main part according to the first embodiment of the present invention.
[0028]
In these figures, 1 is a camera body and 2 is a photographing lens. Reference numeral 3 denotes a main mirror having a half mirror near the photographing optical axis. The main mirror 3 is bonded and fixed to a main mirror receiving plate 4 (an opening is provided near the photographing optical axis), and an axis 4a provided on the main mirror receiving plate 4 is fixed. It is possible to turn from the observation state in which the mirror is lowered in FIG. In the observation state with the mirror down, the subject light passing through the photographing lens is reflected 45 degrees upward by the main mirror, forms an image on the focus plate 5, becomes an erect image by the penta roof prism 6, and is observed by the photographer through the eyepiece 7. Is done. Denoted at 8 is a field image detection means comprising a CCD (solid-state imaging device), which also serves as a photometric sensor. Reference numeral 9 denotes an object scene image detection lens, which forms an image connected to the focus plate 5 on the sensor surface of the object scene image detecting means 8.
[0029]
Reference numeral 10 denotes a sub-mirror, which is bonded and supported by the sub-mirror receiving plate 11 and is rotatably supported by the shaft 11a of the sub-mirror receiving plate 11. The sub mirror 10 guides the subject light that has passed through the half mirror portion near the photographing optical axis of the main mirror 3 in the mirror-down observation state of FIG. 1 to a focus detection unit disposed below the camera, and the sub mirror receiving plate 4 is a mirror (not shown). In the retracted state outside the photographing optical path, the main mirror receiving plate 4 acts so as to close the opening near the photographing optical axis. 12 is a field lens of the focus detection optical system, 13 is a reflection mirror, 14 is a secondary imaging lens of the focus detection optical system, 15 is a focus detection sensor of a known phase difference detection system for passive autofocus, and 16 is a focal plane shutter. , 17 is a lens aperture, and 18 is a film.
[0030]
2 is a scene image, 19a is a state in which the subject person is facing the front, 19b is a state in which the subject person is facing sideways (not facing the front), Each is shown. Reference numeral 20 denotes a CPU that controls the entire camera, and includes a face recognition unit 21 that recognizes the face of the subject based on image information from the object scene image detection unit 8, and information from the face recognition unit 21. A determination unit 22 that determines whether the face is in a predetermined direction, and a subject recording operation control unit 23 that performs a subject recording operation in accordance with the determination result of the determination unit 22 are provided. A camera exposure function unit 24 includes a lens diaphragm 17 and a focal plane shutter 16.
[0031]
1 shown in FIG. 1 is provided in the vicinity of the optical axis of the photographic optical system, iRED projects near infrared light in the same direction as the photographic optical axis, and 26 is a CCD by an advancing / retracting mechanism (not shown) in synchronization with the projection of the iRED 25. A near-infrared light transmitting visible light cut filter 27 entering the front surface of the object scene image detecting means 8 is a known date module for imprinting a date and caption from the back surface of the film. An effect filter 28 is provided so that an imaging lens can enter and retract from the light beam by an actuator (not shown) and an advance / retreat mechanism (not shown), and at least two different types of filters can be selected. Yes.
[0032]
Next, the operation of the main part of the camera in the above configuration will be described with reference to the flowchart of FIG.
[0033]
When a main switch (not shown) is turned on in step 1, power is supplied to the camera, and a shooting preparation initial state is set. In step 2, the CPU 20 determines whether a release button (not shown) of the camera is pressed to the first stroke and the switch SW-1 is turned on. If the switch SW-1 is OFF, the process jumps to step 10.
[0034]
In step 3, the CPU 20 takes in a photometric output from the object scene image detecting means 8 comprising a CCD, performs a photometric calculation, and determines an exposure control value. In the next step 4, focus detection calculation is performed from the output of the focus detection sensor 15 of the known phase difference detection type passive autofocus device to determine the photographing lens driving amount for focusing. In the subsequent step 5, the focus adjustment lens 2a of the photographic lens 2 is driven based on the photographic lens driving amount obtained in the above step 4 to adjust the focus. In the next step 6, the CPU 20 converts the object scene image focused on the subject that the photographer was aiming for into the object image detection means 8 made up of a CCD for 1/30 second video. We let you take in rate sequentially.
[0035]
In the next step 7, the face recognition means 21 recognizes the person's face from the captured object scene image, and the determination means 22 determines whether the recognized person's face is facing the front. If the subject person of the object scene image is facing the front as in 19a of FIG. 2, the process proceeds to step 8, and if not, the process returns to step 2.
[0036]
Note that the following methods (a) to (c) are known as methods for extracting a person image facing the front from the object scene image (performed by the face recognition means 21 and the determination means 22). In the first embodiment, any one of the methods is used.
[0037]
(A) As shown in “Proposal of Modified HSV Color System Effective for Face Area Extraction” in the Journal of the Institute of Television Engineers of Japan, Vol. 49, No. 6, pp. 787-797 (1995) To extract the face area by focusing on the skin color area.
[0038]
(B) As shown in “Method of extracting a face region from a still gray scene image” in the Journal of the Institute of Electronics, Information and Communication Engineers Vol. J74-D-II, No. 11, pp. 1625-1627 (1991) A method for extracting the head region of a front person image using geometric shape features of each part constituting the head part of the front person image such as the eyes and mouth.
[0039]
(C) In the case of a moving image, a contour edge of a person image generated by a subtle motion of a person between frames, as shown in “Video phone face area detection and its effect” in Image Lab 1991-11 (1991) A method to extract a frontal person image using.
[0040]
In Step 8, the subject recording operation control means 23 controls the aperture diameter of the diaphragm 17 and the shutter time of the focal plane shutter 16 based on the exposure control value determined in Step 3 above, and the film 18 To the exposure. Then, in the next step 9, the film is wound up by one frame, and in preparation for the next shooting, when the winding of the film is completed, the process returns to step 2.
[0041]
If the switch SW-1 is OFF in step 2 and the process proceeds to step 10, here, the CPU 20 changes the exposure setting without measuring the photometric timer (which keeps the switch SW-1 ON by pressing the release button). In order to be able to do this, go to see the state of a timer that keeps the metering ready state for a predetermined time), and return to step 2 if it is in operation. Further, if the predetermined time has elapsed and the operation has not been performed, the process proceeds to step 11. Here, the state of the main switch (not shown) is checked, and if it is ON, the process returns to step 2 and the following is repeated. On the other hand, if it is OFF, the process proceeds to step 12 to cut off the power supply to the camera.
[0042]
According to the first embodiment described above, the direction of the face of the subject is recognized, and the subject recording operation is performed when the face is directed in a predetermined direction, particularly the front, so that the subject is not burdened. This has the effect of preventing failure photos where a person is not properly facing the camera.
[0043]
(Second Embodiment)
FIG. 4 is a block diagram showing the circuit configuration of the main part of the camera according to the second embodiment of the present invention, and FIG. 5 is a flowchart showing the operation of the main part in the second embodiment of the present invention.
[0044]
In these drawings, the same parts as those in the first embodiment are indicated by the numbers as they are, and the corresponding parts are indicated by numbers obtained by adding 200 to the numbers in the first embodiment. Only the points different from the first embodiment will be described here.
[0045]
In FIG. 4, 219 is an object scene image, 219a is a state in which the subject person is opening his eyes and looking toward the camera, and 219b is a state in which the subject person is closing his eyes. Reference numeral 219c shows a state where the person who is the subject opens his eyes but does not point his eyes at the camera. A CPU 220 controls the entire camera, and includes an eye recognition unit 221 that recognizes the subject's eyes based on image information from the object scene image detection unit 8, and information from the eye recognition unit 221. Determination means 222 for determining whether the eyes are in a specific state (for example, whether the eyes are open or the line of sight is facing the camera), and subject recording operation according to the determination result of the determination means 222 It has the control means 223 which performs.
[0046]
Next, the operation of the main part of the camera in the above configuration will be described with reference to the flowchart of FIG.
[0047]
Steps 201 to 205 are the same as steps 1 to 5 in FIG. 3 in the first embodiment, and a description thereof is omitted.
[0048]
In step 206, the CPU 200 sequentially converts the object scene image focused on the subject that the photographer was aiming into the object image detection means 8 comprising a CCD at a 1/30 second video rate. Let them be captured. In addition, the pupil has the property of reflecting the incident light in approximately the same direction, and the brightness of the coaxial illumination state is significantly higher than other parts of the face, so even if weak near infrared light is used, only the pupil is Brighter images are taken. Accordingly, the near-infrared light is projected onto the subject by the iRED 25 and the object scene image transmitted by the near-infrared light transmitting visible light cut filter 26 is converted into a 1/30 second video by the object scene image detecting means 8. If images are taken in sequentially at a rate, an eye image can be obtained more effectively.
[0049]
In the next step 207, the eye recognizing means 221 recognizes the human eye from the captured object scene image, and the judging means 222 determines whether the recognized human eye is open or the line of sight is a camera. It is determined whether it is facing. If the eyes of the person who is the subject of the object scene image are open as in 219a or 219c in FIG. 4, the process proceeds to step 208. If the eyes are closed as in 219b, the process returns to step 202. Alternatively, if the eyes of the person who is the subject of the object scene image are opened as in 219a in FIG. 4 and the line of sight is facing the camera, the process proceeds to step 208, and the eyes are opened as in 219c. However, if the eyes are not directed toward the camera or the eyes are closed as in 219b, the process may return to step 202.
[0050]
In addition, a method (performed by the eye recognition unit 221 and the determination unit 222) for extracting a person's eyes (and the line of sight (sight line) direction) from the object scene image is performed in the following (d) to (h). Methods are publicly known, and any one of these methods is used in the second embodiment.
[0051]
(D) A method of dividing the eye region into a vertical line and a horizontal line passing through the center of the pupil and calculating the viewpoint position using the area ratio of the divided regions as a feature amount as disclosed in Japanese Patent Laid-Open No. 3-17696.
[0052]
(E) As disclosed in Japanese Patent Laid-Open No. 4-255015, a method for obtaining the relative movement amount of the line of sight from changes in pupil center coordinates by extracting pupil contour data.
[0053]
(F) A method of projecting infrared light onto a face and extracting an eyeball having a particularly high reflectance as disclosed in Japanese Patent Laid-Open No. 5-300601.
[0054]
(G) As disclosed in Japanese Patent Laid-Open No. 9-21611, a method of irradiating a person who is a subject substantially coaxially with a photographing lens to detect high-intensity reflection of a pupil and extract an eye.
[0055]
(H) As shown in Japanese Patent Laid-Open No. 9-251342, the acquired image is divided into regions, and a face region is found from the hue and saturation information of each region. Next, by binarizing the hue image, candidates for the eye part and the mouth part having color attributes different from those of the skin color part are obtained, and the eye area and the mouth area are determined by collating with the shade patterns of the eyes and mouth. Then, an edge image is generated for the detected eyes and mouth, the edge image is mapped perpendicularly to the one-dimensional axial direction, and the head of the eye and the left and right mouths are detected. Further, the cut-out image of the eye is binarized, the center of gravity of the black pixel is set as the center of gravity of the pupil, and the pupil vector is obtained from the eye point. Finally, the gaze point is obtained from the eye position in the face direction. That technique.
[0056]
Steps 208 to 212 are the same as steps 8 to 12 in FIG. 3 in the first embodiment, and a description thereof is omitted.
[0057]
According to the second embodiment, the subject recording operation is performed when the eye state of the subject is recognized and the eye is in a predetermined state, particularly when the eye is opened firmly and the eye is facing the camera. As a result, the photographer is not burdened, and there is an effect of preventing a failure photograph in which a person who is a subject closes his eyes or does not properly look at the camera.
[0058]
(Third embodiment)
FIG. 6 is a block diagram showing the circuit configuration of the main part of a camera according to the third embodiment of the present invention, and FIG. 7 is a flowchart showing the operation of the main part in the third embodiment of the present invention.
[0059]
In these drawings, the same parts as those in the first embodiment are indicated by the numbers as they are, and the corresponding parts are indicated by numbers obtained by adding 300 to the numbers in the first embodiment. Only the points different from the first embodiment will be described here.
[0060]
In FIG. 6, 319 is an object scene image, 319a is a state in which a person who is a subject has no expression, 319b is a state of joy that a person who is a subject is laughing, and 319c is a person who is a subject crying. 319d shows the anger state of the person who is the subject, and 319e shows the surprise state of the person who is the subject. Reference numeral 320 denotes a CPU that controls the entire camera, and includes a facial expression recognition unit 321 that recognizes a facial expression of a subject based on image information from the object scene image detection unit 8, and information from the facial expression recognition unit 321. A determination unit 322 for determining whether the facial expression is in a specific state (for example, a state of joy, sadness, anger, or surprise), and a control unit 323 for performing a subject recording operation according to the determination result of the determination unit 322 Have.
[0061]
Next, the operation of the main part of the camera in the above configuration will be described with reference to the flowchart of FIG.
[0062]
Steps 301 to 306 are the same as steps 1 to 6 in FIG. 3 in the first embodiment, and description thereof is omitted.
[0063]
In step 307, the facial expression recognition unit 321 recognizes a human facial expression from the captured object scene image, and the determination unit 322 determines that the recognized human facial expression is in a specific state (for example, joy, sadness, anger). , Is in a surprise state). If the facial expression of the person who is the subject of the object scene image is in a state of joy, sadness, anger, or surprise as in 319b to 319e in FIG. Return to step 302.
[0064]
Note that the following methods (i) to (k) are known as methods for recognizing a facial expression of a person from the object scene image (performed by the facial expression recognition means 321 and the determination means 322). In the third embodiment, any one of the methods is used.
[0065]
(I) As shown in Japanese Patent Laid-Open No. 3-252775, a module for measuring muscle movement is provided, and this module is used as a standard in the learning mode based on the temporal change pattern of facial muscle movement. A method that learns and stores facial expression patterns, and recognizes facial expressions in recognition mode by comparing them with the captured facial expression patterns.
[0066]
(J) As shown in Japanese Patent Laid-Open No. 8-249447, the facial image signal is subjected to wavelet transform, and the average power of the spatial frequency obtained thereby is compared with the average power when there is no expression to recognize facial expressions. Technique.
[0067]
(K) As shown in JP-A-8-249453 and JP-A-10-255043, the expression category is considered to be six types of basic facial expressions of anger, disgust, fear, sadness, happiness, and surprise. Process time-series images for each basic facial expression. For example, an optical flow algorithm is used from two consecutive images in a moving image of a person's face for two areas each including a right eye and a mouth, which are areas most noticed when a person reads a partner's facial expression. To get the velocity vector. Discrete Fourier transform is performed on each component of the velocity vector, and the low frequency component of the Fourier transform coefficient is extracted as a feature vector. Next, a method of calculating a feature vector generation probability using an HMM (Hidden Markov Model) and performing recognition processing.
[0068]
Steps 308 to 312 are the same as steps 8 to 12 in FIG. 3 in the first embodiment, and description thereof is omitted.
[0069]
According to the third embodiment, when the facial expression of the subject is recognized and the face becomes a predetermined facial expression, especially when the facial expression is interesting, such as joy, sadness, anger, or surprise. In addition, since the subject recording operation is performed, there is no burden on the photographer, so that it is not necessary to take an ordinary photograph with almost no expression, and the probability that a masterpiece can be taken is increased.
[0070]
(Fourth embodiment)
FIG. 8 is a block diagram showing the circuit configuration of the main part of a camera according to the fourth embodiment of the present invention, and FIG. 9 is a flowchart showing the operation of the main part in the second embodiment of the present invention.
[0071]
In these drawings, the same parts as those in the first embodiment are indicated by the numbers as they are, and the corresponding parts are indicated by numbers obtained by adding 400 to the numbers in the first embodiment. Only the points different from the first embodiment will be described here.
[0072]
In FIG. 8, 419 is an object scene image, 419a is a person standing on a stick, 419b is a person sitting on a cheek cane, and 419c is a person on one arm. Each of these states is shown. A CPU 420 controls the entire camera, and includes a pose recognition unit 421 for recognizing a pose of a subject based on image information from the object scene image detection unit 8 and information from the pose recognition unit 421. Determining means 422 for determining whether the pose is in a specific state (for example, sitting with a cheek cane sitting, raising one arm, etc.), and control for performing the subject recording operation according to the determination result of the determining means 422 Means 423 are included.
[0073]
Next, the operation of the main part of the camera in the above configuration will be described with reference to the flowchart of FIG.
[0074]
Steps 401 to 406 are the same as steps 1 to 6 in FIG. 3 in the first embodiment, and description thereof is omitted.
[0075]
In step 407, the pose recognition unit 421 recognizes a person's pose from the captured object scene image, and the determination unit 422 causes the recognized person's pose to sit in a specific state (for example, poking a cheek cane). Whether one arm is raised). If the pose of the person who is the subject of the object scene is in a state of sitting on the cheek cane, raising one arm, etc. as in 419b and 419c in FIG. Return to step 402.
[0076]
As a method for recognizing a pose from an object scene image (performed by the pose recognizing means 421 and the determining means 422), the following method (m) is well known, and this fourth embodiment Then, this method shall be used.
[0077]
(M) A method of extracting a contour of a specific part of an imaged subject and comparing it with a stored pattern to recognize a pose as disclosed in JP-A-7-57103.
[0078]
Steps 408 to 412 are the same as steps 8 to 12 in FIG. 3 in the first embodiment, and description thereof is omitted.
[0079]
According to the fourth embodiment, the subject is recorded when the posture (pose) of the subject is recognized, and when the subject is in a predetermined posture (pose), particularly when the subject is in an interesting characteristic pose. Since the operation is performed, there is no burden on the photographer, and there is no need to take a picture of a boring pose like a stick standing, and there is an effect that the probability of taking a masterpiece photograph is increased.
[0080]
(Fifth embodiment)
FIG. 10 is a block diagram showing the circuit configuration of the main part of a camera according to the fifth embodiment of the present invention, and FIG. 11 is a flowchart showing the operation of the main part in the fifth embodiment of the present invention.
[0081]
In these drawings, the same parts as those in the first embodiment are indicated by the numbers as they are, and the corresponding parts are indicated by numbers obtained by adding 500 to the numbers in the first embodiment. Only the points different from the first embodiment will be described here.
[0082]
In FIG. 10, 519 is an object scene image, 519a shows a state where a person who is a subject is standing on a stick, and 519b shows a state where a person who is a subject starts running. Reference numeral 520 denotes a CPU that controls the entire camera. The CPU 520 includes a motion recognition unit 521 that recognizes the motion of the subject based on image information from the object scene image detection unit 8, and information from the motion recognition unit 521. A determination unit 522 that determines whether the operation is in a specific state (for example, a state in which the vehicle has started running), and a control unit 523 that performs a subject recording operation according to the determination result of the determination unit 522 are provided.
[0083]
Next, the operation of the main part of the camera in the above configuration will be described with reference to the flowchart of FIG.
[0084]
Steps 501 to 506 are the same as steps 1 to 6 in FIG. 3 in the first embodiment, and a description thereof will be omitted.
[0085]
In step 507, the motion recognition unit 521 recognizes a human motion from the captured object scene image, and the determination unit 522 puts the recognized human motion into a specific state (for example, a state in which the vehicle has started running). Determine whether it is. If the movement of the person who is the subject of the object scene image has started running as in 519b, the process proceeds to step 508, and if not, the process returns to step 502.
[0086]
As a method for recognizing the motion from the object scene image (performed by the motion recognizing means 521 and the determining means 522), the following method (n) is known, and the fifth embodiment In the form, this method is used.
[0087]
(N) As disclosed in Japanese Patent Laid-Open No. 7-57103, a method of extracting a contour of a specific part of an imaged subject and comparing it with a stored pattern to recognize an operation.
[0088]
Steps 508 to 512 are the same as steps 8 to 12 in FIG. 3 in the first embodiment, and description thereof is omitted.
[0089]
According to the fifth embodiment, the subject recording operation is performed when the subject performs a predetermined motion when the subject performs a predetermined motion, and particularly when the subject performs a characteristic motion that is interesting as a photograph. There is no need to take pictures of boring movements that are close to a stick, and the probability of taking a masterpiece is increased.
[0090]
(Sixth embodiment)
FIG. 12 is a block diagram showing the circuit configuration of the main part of a camera according to the sixth embodiment of the present invention, and FIG. 13 is a flowchart showing the operation of the main part in the sixth embodiment of the present invention.
[0091]
In these drawings, the same parts as those in the first embodiment are indicated by the numbers as they are, and the corresponding parts are indicated by numbers obtained by adding 600 to the numbers in the first embodiment. Only the points different from the first embodiment will be described here.
[0092]
In FIG. 12, 619 is an object scene image, 619a is a state in which the person who is the subject has no expression, 619b is a state of joy that the person who is the subject is laughing, and 619c is a person who is crying. 619d shows the anger state of the person who is the subject, and 619e shows the surprise state of the person who is the subject. A CPU 620 controls the entire camera. The CPU 620 includes a facial expression recognition unit 621 for recognizing a facial expression of a subject based on image information from the object scene image detection unit 8, and information from the facial expression recognition unit 621. The determination unit 622 determines whether the facial expression is in a specific state (for example, a state of joy or sadness), and further includes a control unit 623 that performs a subject recording operation according to the determination result of the determination unit 622.
[0093]
Next, the operation of the main part of the camera in the above configuration will be described with reference to the flowchart of FIG.
[0094]
Steps 601 to 606 are the same as steps 1 to 6 in FIG. 3 in the first embodiment, and a description thereof will be omitted.
[0095]
In step 607, the facial expression recognition unit 621 recognizes a human facial expression from the captured object scene image, and the determination unit 622 changes the recognized human facial expression to a specific state (for example, a joyful state). Determine whether it is. If the expression of the person who is the subject of the object scene image is in a joyful state as in 619b, the process proceeds to step 608. Otherwise, go to step 609.
[0096]
Note that a method for recognizing a human facial expression from the object scene image (performed by the facial expression recognizing means 621 and the determining means 622) is performed in the same manner as in the third embodiment.
[0097]
In step 608, positive exposure correction is performed with respect to the exposure control value determined in step 603 so that the photographing screen becomes bright (a bright atmosphere is created). Then, in the next step 609, the facial expression recognition means 621 recognizes the human facial expression from the captured scene image, and the judgment means 622 recognizes the recognized human facial expression in a specific state (for example, sadness). State). If the facial expression of the person who is the subject of the object scene image is in a sad state as indicated by 619c in FIG. 12, the process proceeds to step 610; otherwise, the process returns to step 602.
[0098]
Note that the method for recognizing a human facial expression from the object scene image (performed by the facial expression recognition unit 621 and the determination unit 622) is the same as that in the third embodiment described above, as described in step 607 above. It shall be performed by a well-known method.
[0099]
In step 610, negative exposure correction is performed on the exposure control value determined in step 603 so that the shooting screen becomes dark (a dark atmosphere is created).
[0100]
Steps 611 to 615 are the same as steps 8 to 12 in FIG. 3 in the first embodiment, and description thereof is omitted.
[0101]
According to the sixth embodiment, when the facial expression of the subject is recognized and the facial expression becomes a predetermined facial expression, a bright / dark distinctive facial expression is obtained especially as a photo atmosphere such as joy and sadness. Since the brightness of the subject recording screen is changed according to the atmosphere when it becomes, there is an effect of enlivening the atmosphere created by the expression without placing a burden on the photographer.
[0102]
(Seventh embodiment)
FIG. 14 is a block diagram showing the circuit configuration of the main part of a camera according to the seventh embodiment of the present invention, and FIG. 15 is a flowchart showing the operation of the main part in the seventh embodiment of the present invention.
[0103]
In these drawings, the same parts as those in the first embodiment are indicated by the numbers as they are, and the corresponding parts are indicated by numbers obtained by adding 700 to the numbers in the first embodiment. Only the points different from the first embodiment will be described here.
[0104]
In FIG. 14, 719 is an object scene image, 719a is a state where a person who is a subject has no expression, 719b is a state of joy that a person who is a subject is laughing, and 719c is a person who is a subject crying. 719d shows the anger state of the person who is the subject, and 719e shows the surprise state of the person who is the subject. Reference numeral 720 denotes a CPU that controls the entire camera, and the facial expression recognition means 721 for recognizing the facial expression of the subject based on the image information from the object scene image detection means 8 and the information from the facial expression recognition means 721 Control unit 722 for determining whether or not the subject is in a specific state (for example, a state of joy, sadness, or anger), and further, a control for performing a subject recording operation and a text / character recording operation according to the determination result of determination unit 722 Means 723 are included. A text / character generating means 27 corresponds to a known date module for imprinting the date and caption from the back of the film. Reference numeral 729 denotes a photographed subject recording image.
[0105]
Next, the operation of the main part of the camera in the above configuration will be described with reference to the flowchart of FIG.
[0106]
Steps 701 to 706 are the same as steps 1 to 6 in FIG. 3 in the first embodiment, and a description thereof will be omitted.
[0107]
In step 707, the facial expression recognition unit 721 recognizes the human facial expression from the captured object scene image, and the determination unit 722 changes the recognized human facial expression to a specific state (for example, a joyful state). Judge whether it is. If the facial expression of the person who is the subject of the object scene image is in a joyful state as indicated by 719b in FIG. 14, the process proceeds to step 708; otherwise, the process proceeds to step 709.
[0108]
Note that the method of recognizing a human facial expression from the object scene image (performed by the facial expression recognizing means 721 and the determining means 722) is performed by the same known method as in the third embodiment.
[0109]
In step 708, a known date module 27 for imprinting the date and caption as text / character generating means from the back of the film is driven, and a bright image such as “♪ HAPPY ♪” shown in FIG. Copy text and characters on film 18.
[0110]
In step 709, the facial expression recognition unit 721 recognizes a human facial expression from the captured object scene image, and the determination unit 722 changes the recognized human facial expression to a specific state (for example, a state of sadness). Judge whether it is. If the expression of the person who is the subject of the object scene image is in a sad state as indicated by 719c in FIG. 14, the process proceeds to step 710, and if not, the process proceeds to step 711.
[0111]
Note that the method for recognizing the facial expression of a person from the object scene image (performed by the facial expression recognition means 721 and the determination means 722) is the same as that in the third embodiment, as in the above-described step 707. It is done like a technique.
[0112]
In step 710, a known date module 27 for copying the date and caption as text / character generating means from the back of the film is driven, and the comfort such as “★ don't cry” shown at 729 c in FIG. The text 18 and the text and characters of sad images such as “… I'm lonely…” and “Sad!” Are imprinted on the film 18.
[0113]
In step 711, the facial expression recognition unit 721 recognizes a human facial expression from the captured object scene image, and the determination unit 722 changes the recognized human facial expression to a specific state (for example, an angry state). Judge whether it is. If the expression of the person who is the subject of the object scene image is in an angry state as indicated by 719d in FIG. 14, the process proceeds to step 712. Otherwise, the process returns to step 702.
[0114]
Note that the method for recognizing the facial expression of a person from the object scene image (performed by the facial expression recognition means 721 and the determination means 722) is the same as that in the third embodiment, as in the above-described step 707. It shall be done by a method.
[0115]
In step 712, a known date module 27 for copying the date and caption as text / character generating means from the back side of the film is driven, and the text praising like "Don't get so angry" or 729d in FIG. The text and character that image anger such as “▲ I'm angry! ▲” shown in FIG.
[0116]
Steps 713 to 717 are the same as steps 8 to 12 in FIG. 3 in the first embodiment, and description thereof is omitted.
[0117]
According to the seventh embodiment, when the facial expression of the subject is recognized and the facial expression becomes a predetermined facial expression, the facial expression of the photograph has a distinct characteristic, particularly joy, sadness, and anger. When this happens, text and characters that match the atmosphere are recorded together with the subject, so there is an effect of enlivening the atmosphere created by facial expressions without placing a burden on the photographer.
[0118]
(Eighth embodiment)
FIG. 16 is a block diagram showing the circuit configuration of the main part of the camera according to the eighth embodiment of the present invention, and FIG. 17 is a flowchart showing the operation of the main part in the eighth embodiment of the present invention.
[0119]
In these drawings, the same parts as those in the first embodiment are indicated by the numbers as they are, and the corresponding parts are indicated by numbers obtained by adding 800 to the numbers in the first embodiment. Only the points different from the first embodiment will be described here.
[0120]
In FIG. 16, 819 is an object scene image, 819a is a state where the person who is the subject has no expression, 819b is a state of joy that the person who is the subject is laughing, and 819c is a person who is the subject crying. 819d shows the anger state of the person who is the subject, and 819e shows the surprise state of the person who is the subject. A CPU 820 controls the entire camera. The CPU 820 includes a facial expression recognition unit 821 for recognizing a facial expression of a subject based on image information from the object scene image detection unit 8 and information from the facial expression recognition unit 821. Determination means 822 for determining whether the facial expression is in a specific state (for example, a state of joy, sadness, or anger), and further, subject recording operation and screen color recording operation are performed according to the determination result of the determination means 822. Control means 823 is included. Reference numeral 28 denotes a screen color changing means, and an effect filter is provided so that the photographing lens can enter and retract from the light beam by an actuator (not shown) and a forward / backward mechanism (not shown), and yellow, blue, red, etc., respectively. Filters that can produce effects that match the atmosphere of the subject can be selected. Reference numeral 829 denotes a photographed subject recording image.
[0121]
Next, the operation of the main part of the camera in the above configuration will be described with reference to the flowchart of FIG.
[0122]
Steps 801 to 806 are the same as steps 1 to 6 in FIG. 3 in the first embodiment, and a description thereof will be omitted.
[0123]
In step 807, the facial expression recognition unit 821 recognizes a human facial expression from the captured object scene image, and the determination unit 822 changes the recognized human facial expression to a specific state (for example, a joyful state). Judge whether it is. If the expression of the person who is the subject of the object scene image is in a joyful state as indicated by 819b in FIG. 16, the process proceeds to step 808; otherwise, the process proceeds to step 809.
[0124]
Note that the method of recognizing a human facial expression from the object scene image (performed by the facial expression recognizing means 821 and the determining means 822) is assumed to be performed by the same known method as in the third embodiment.
[0125]
In step 808, the effect filter based on yellow of the screen color changing means 28 is made to enter the luminous flux of the photographing lens, and the screen color of a bright image as the sun shines as shown in 829b of FIG. 18 is imprinted.
[0126]
In step 809, the facial expression recognition unit 821 recognizes a human facial expression from the captured object scene image, and the determination unit 822 changes the recognized human facial expression to a specific state (for example, a sad state). Judge whether it is. If the expression of the person who is the subject of the object scene image is in a sad state as indicated by 819c in FIG. 16, the process proceeds to step 810. Otherwise, the process proceeds to step 811.
[0127]
Note that the method for recognizing a human facial expression from the object scene image (performed by the facial expression recognition unit 821 and the determination unit 822) is the same as that in the third embodiment described above, as described in step 807 above. This is performed as in a known method.
[0128]
In step 810, the blue color-based effect filter of the screen color changing means 28 is caused to enter the luminous flux of the photographing lens, so that the screen color of the sad blue image as shown in 829c of FIG. Copy.
[0129]
In step 811, the facial expression recognition unit 821 recognizes a human facial expression from the captured object scene image, and the determination unit 822 changes the recognized human facial expression to a specific state (for example, an angry state). Judge whether it is. If the expression of the person who is the subject of the object scene image is in an angry state as indicated by 819d in FIG. 16, the process proceeds to step 812, and if not, the process returns to step 802.
[0130]
Note that the method for recognizing a human facial expression from the object scene image (performed by the facial expression recognition unit 821 and the determination unit 822) is the same as that in the third embodiment described above, as described in step 807 above. It shall be performed by a well-known method.
[0131]
In step 812, an effect filter based on red color of the screen color changing means 28 is entered into the light flux of the photographing lens, and a screen color that images an anger like a fiery flame as shown in 829d of FIG. 18 is imprinted.
[0132]
In step 813, the control means 823 that performs the subject recording operation and the screen color recording operation based on the exposure control value determined in step 803 described above determines the aperture diameter of the diaphragm 17 and the shutter time of the focal plane shutter 16. The film 18 is controlled to be exposed. Then, in the next step 814, after the effect filter is retracted out of the light flux of the photographing lens, the film is wound up by one frame to prepare for the next photographing. After the film winding is completed, the process returns to step 802.
[0133]
Steps 815 to 817 are the same as steps 10 to 12 in FIG. 3 in the first embodiment, and a description thereof is omitted.
[0134]
In the eighth embodiment, the screen color is changed. However, in order to record an atmosphere that matches the facial expression on the screen in the same way, the soft focus that softens the screen or the fog appears A special effect performed by a known optical filter represented by foggy or a pattern may be added to the screen.
[0135]
According to the eighth embodiment described above, when the facial expression of the subject is recognized and the face becomes a predetermined facial expression, a facial expression with a distinctive feature such as joy, sadness, and anger. Since the screen color changed in accordance with the atmosphere is recorded together with the subject when the image becomes, there is an effect of enlivening the atmosphere created by the expression without placing a burden on the photographer.
[0136]
(Modification)
In each of the above embodiments, a CCD (solid-state image sensor) is provided in place of the film 18, and a known so-called digital camera component such as an image sensor driving circuit, a digital image processing circuit, or an image storage means is provided. It can be applied not only to silver halide cameras but also to electronic still cameras. For example, as a means for changing the brightness of the subject recording screen in the sixth embodiment, a method for changing the gain of a CCD (solid-state imaging device) instead of a film, in addition to a method for changing the exposure with an aperture and a shutter. There is also.
[0137]
The seventh embodiment has a text / character ROM as the text / character generating means, and during the digital image processing, text and characters read from the ROM by known image composition are superimposed on the subject. It is conceivable to perform a recording operation together.
[0138]
Similarly, as the screen color changing means of the eighth embodiment, it is conceivable that during digital image processing, the screen color is changed by known color adjustment and recorded together with the subject. Furthermore, it is possible to produce a special effect or add a pattern by known image composition.
[0139]
【The invention's effect】
  As described above, according to the first aspect of the present invention, the face of the subjectFacial expressionRecognize the faceFacial expressionDepending on the judgment result ofChanging the brightness of the recording screenIt is possible to provide a camera that can be used.
[0140]
  According to the invention of claim 2, the subjectFacial expressionRecognizeFacial expressionDepending on the judgment result ofChange the recording screen to a color that matches your facial expressionIt is possible to provide a camera that can be used.
[Brief description of the drawings]
FIG. 1 is a central longitudinal cross-sectional view showing a camera common to each embodiment of the present invention.
FIG. 2 is a block diagram showing a circuit configuration of a main part of the camera according to the first embodiment of the present invention.
FIG. 3 is a flowchart showing the operation of the main part of the camera according to the first embodiment of the present invention.
FIG. 4 is a block diagram showing a circuit configuration of a main part of a camera according to a second embodiment of the present invention.
FIG. 5 is a flowchart showing the operation of the main part of the camera according to the second embodiment of the present invention.
FIG. 6 is a block diagram showing a circuit configuration of main parts of a camera according to a third embodiment of the present invention.
FIG. 7 is a flowchart showing the operation of the main part of the camera according to the third embodiment of the present invention.
FIG. 8 is a block diagram showing a circuit configuration of main parts of a camera according to a fourth embodiment of the present invention.
FIG. 9 is a flowchart showing the operation of the main part of the camera according to the fourth embodiment of the present invention.
FIG. 10 is a block diagram showing a circuit configuration of main parts of a camera according to a fifth embodiment of the present invention.
FIG. 11 is a flowchart showing the operation of the main part of the camera according to the fifth embodiment of the present invention.
FIG. 12 is a block diagram showing a circuit configuration of main parts of a camera according to a sixth embodiment of the present invention.
FIG. 13 is a flowchart showing the operation of the main part of the camera according to the sixth embodiment of the present invention.
FIG. 14 is a block diagram showing a circuit configuration of main parts of a camera according to a seventh embodiment of the present invention.
FIG. 15 is a flowchart showing operations of main parts of a camera according to a seventh embodiment of the present invention.
FIG. 16 is a block diagram showing a circuit configuration of main parts of a camera according to an eighth embodiment of the present invention.
FIG. 17 is a flowchart showing the operation of the main part of the camera according to the eighth embodiment of the present invention.
[Explanation of symbols]
8 Field image detection means comprising CCD
20, 220, 320, 420 CPU
21 Face recognition means
22, 222, 322, 422 determination means
23, 223, 323, 423 Subject recording operation control means
24 Camera exposure function section
27 Text / character generation means (date module)
28 Screen color changing means (effect filter)
221 Eye recognition means
321,621,721,821 Facial expression recognition means
421 Pose recognition means
520, 620, 720, 820 CPU
521 motion recognition means,
522, 622, 722, 822 determination means
523,623 Subject recording operation control means
723 Subject & text character recording operation control means
823 Subject & screen color recording operation control means

Claims (2)

被写界の画像情報を検出する被写界像検出手段と、該被写界像検出手段からの画像情報を基に被写体の顔の表情を認識する表情認識手段と、該表情認識手段からの情報により、該顔の表情を判定する判定手段と、該判定手段の判定結果に応じて記録画面の明るさを変化させる画面明るさ変化手段と、該画面明るさ変化手段により変化された明るさの画面での被写体を記録する記録動作を行わせる制御手段とを有することを特徴とするカメラ。And the scene image detection means for detecting the image information of the object scene, and recognizing facial expression recognition means the expression of the face of the subject based on image information from該被Utsushikai image detecting means, from the facial expression recognition unit Determining means for determining facial expression according to information, screen brightness changing means for changing the brightness of the recording screen according to the determination result of the determining means, and brightness changed by the screen brightness changing means And a control means for performing a recording operation for recording a subject on the screen . 被写界の画像情報を検出する被写界像検出手段と、該被写界像検出手段からの画像情報を基に被写体の顔の表情を認識する表情認識手段と、該表情認識手段からの情報により、該顔の表情を判定する判定手段と、該判定手段の判定結果に応じて記録画面の色を変化させる画面色変化手段と、該画面色変化手段により変化された画面色での被写体を記録する記録動作を行わせる制御手段とを有することを特徴とするカメラ。And the scene image detection means for detecting the image information of the object scene, and recognizing facial expression recognition means the expression of the face of the subject based on image information from該被Utsushikai image detecting means, from the facial expression recognition unit Determining means for determining facial expression according to information; screen color changing means for changing the color of the recording screen in accordance with the determination result of the determining means; and subject with the screen color changed by the screen color changing means And a control means for performing a recording operation for recording the camera.
JP22807699A 1999-08-12 1999-08-12 camera Expired - Fee Related JP4227257B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP22807699A JP4227257B2 (en) 1999-08-12 1999-08-12 camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP22807699A JP4227257B2 (en) 1999-08-12 1999-08-12 camera

Publications (3)

Publication Number Publication Date
JP2001051338A JP2001051338A (en) 2001-02-23
JP2001051338A5 JP2001051338A5 (en) 2006-09-21
JP4227257B2 true JP4227257B2 (en) 2009-02-18

Family

ID=16870827

Family Applications (1)

Application Number Title Priority Date Filing Date
JP22807699A Expired - Fee Related JP4227257B2 (en) 1999-08-12 1999-08-12 camera

Country Status (1)

Country Link
JP (1) JP4227257B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022195375A1 (en) 2021-03-17 2022-09-22 Ricoh Company, Ltd. Image processing method, recording medium, image processing apparatus, and image-capturing apparatus

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002122934A (en) * 2000-10-12 2002-04-26 Olympus Optical Co Ltd Camera
JP4675492B2 (en) * 2001-03-22 2011-04-20 本田技研工業株式会社 Personal authentication device using facial images
JP2003057530A (en) * 2001-08-08 2003-02-26 Olympus Optical Co Ltd Focus detection unit and single lens reflex electronic camera
US7298412B2 (en) 2001-09-18 2007-11-20 Ricoh Company, Limited Image pickup device, automatic focusing method, automatic exposure method, electronic flash control method and computer program
EP1650711B1 (en) 2003-07-18 2015-03-04 Canon Kabushiki Kaisha Image processing device, imaging device, image processing method
JP4743823B2 (en) * 2003-07-18 2011-08-10 キヤノン株式会社 Image processing apparatus, imaging apparatus, and image processing method
CN1839410B (en) * 2003-07-18 2015-05-20 佳能株式会社 Image processor, imaging apparatus and image processing method
JP2005060827A (en) * 2003-07-29 2005-03-10 Toshiba Ceramics Co Ltd Plasma resistant member
US7920725B2 (en) 2003-09-09 2011-04-05 Fujifilm Corporation Apparatus, method, and program for discriminating subjects
JP4541806B2 (en) * 2003-09-09 2010-09-08 富士フイルム株式会社 Object identification device and method, and program
JP4492273B2 (en) * 2004-09-22 2010-06-30 株式会社ニコン Imaging apparatus and program
JP5515192B2 (en) * 2005-02-17 2014-06-11 セイコーエプソン株式会社 Image recording apparatus, image recording method, and control program
JP4639869B2 (en) * 2005-03-14 2011-02-23 オムロン株式会社 Imaging apparatus and timer photographing method
JP4635742B2 (en) * 2005-06-27 2011-02-23 株式会社ニコン Imaging apparatus and imaging program
JP4626425B2 (en) 2005-07-11 2011-02-09 富士フイルム株式会社 Imaging apparatus, imaging method, and imaging program
JP2007067560A (en) * 2005-08-29 2007-03-15 Canon Inc Imaging apparatus and its control method, computer program and recording medium
JP4513699B2 (en) * 2005-09-08 2010-07-28 オムロン株式会社 Moving image editing apparatus, moving image editing method and program
EP1962497B1 (en) 2005-11-25 2013-01-16 Nikon Corporation Electronic camera and image processing device
JP5164327B2 (en) * 2005-12-26 2013-03-21 カシオ計算機株式会社 Imaging apparatus and program
JP2007184787A (en) * 2006-01-06 2007-07-19 Fujifilm Corp Digital camera
JP4775066B2 (en) * 2006-03-28 2011-09-21 カシオ計算機株式会社 Image processing device
JP4891674B2 (en) * 2006-06-30 2012-03-07 オリンパスイメージング株式会社 camera
JP4240108B2 (en) 2006-10-31 2009-03-18 ソニー株式会社 Image storage device, imaging device, image storage method, and program
JP4757173B2 (en) 2006-11-17 2011-08-24 キヤノン株式会社 Imaging apparatus, control method thereof, and program
JP2008160280A (en) * 2006-12-21 2008-07-10 Sanyo Electric Co Ltd Imaging apparatus and automatic imaging method
JP4789825B2 (en) * 2007-02-20 2011-10-12 キヤノン株式会社 Imaging apparatus and control method thereof
US7995106B2 (en) 2007-03-05 2011-08-09 Fujifilm Corporation Imaging apparatus with human extraction and voice analysis and control method thereof
JP2008263422A (en) * 2007-04-12 2008-10-30 Yasumasa Muto Imaging apparatus and imaging method
JP4908321B2 (en) * 2007-06-14 2012-04-04 富士フイルム株式会社 Imaging device
EP2015568B1 (en) 2007-06-14 2019-02-13 FUJIFILM Corporation Digital image pickup apparatus
JP4513843B2 (en) 2007-09-10 2010-07-28 カシオ計算機株式会社 Imaging apparatus and program
JP4952462B2 (en) * 2007-09-12 2012-06-13 ソニー株式会社 Imaging apparatus and imaging method
JP4803147B2 (en) * 2007-09-27 2011-10-26 カシオ計算機株式会社 Imaging apparatus, image generation method, and program
KR101396326B1 (en) 2007-10-12 2014-05-16 삼성전자주식회사 Method of controlling digital image processing apparatus for face detection, and image processing apparatus adopting the method
KR100840023B1 (en) * 2007-11-13 2008-06-20 (주)올라웍스 Method and system for adjusting pose at the time of taking photos of himself or herself
JP2012165407A (en) * 2007-12-28 2012-08-30 Casio Comput Co Ltd Imaging apparatus and program
JP4986175B2 (en) 2007-12-28 2012-07-25 カシオ計算機株式会社 Imaging apparatus and program
JP4518157B2 (en) 2008-01-31 2010-08-04 カシオ計算機株式会社 Imaging apparatus and program thereof
JP2009223527A (en) * 2008-03-14 2009-10-01 Seiko Epson Corp Image processor, image processing method, and computer program for image processing
JP5042896B2 (en) * 2008-03-25 2012-10-03 オリンパス株式会社 Image processing apparatus and image processing program
JP2009260630A (en) * 2008-04-16 2009-11-05 Olympus Corp Image processor and image processing program
JP5361547B2 (en) * 2008-08-07 2013-12-04 キヤノン株式会社 Imaging apparatus, imaging method, and program
JP5100621B2 (en) * 2008-11-12 2012-12-19 キヤノン株式会社 Imaging device
JP5402018B2 (en) 2009-01-23 2014-01-29 株式会社ニコン Display device and imaging device
JP2010176224A (en) * 2009-01-27 2010-08-12 Nikon Corp Image processor and digital camera
JP5093178B2 (en) * 2009-04-06 2012-12-05 株式会社ニコン Electronic camera
JP2011097502A (en) * 2009-11-02 2011-05-12 Panasonic Corp Photographing control device, and photographing control method
JP5755012B2 (en) 2011-04-21 2015-07-29 キヤノン株式会社 Information processing apparatus, processing method thereof, program, and imaging apparatus
JP5891874B2 (en) * 2012-03-16 2016-03-23 カシオ計算機株式会社 Imaging apparatus and program
CN109218618A (en) * 2018-10-12 2019-01-15 上海思依暄机器人科技股份有限公司 Video image grasp shoot method and video image capture robot
JP2021057815A (en) 2019-09-30 2021-04-08 キヤノン株式会社 Imaging apparatus, control method of the same, program, and storage medium
JP2021150760A (en) * 2020-03-18 2021-09-27 キヤノン株式会社 Imaging apparatus and method for controlling the same
JP2022070684A (en) 2020-10-27 2022-05-13 キヤノン株式会社 Imaging device, control method thereof, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022195375A1 (en) 2021-03-17 2022-09-22 Ricoh Company, Ltd. Image processing method, recording medium, image processing apparatus, and image-capturing apparatus

Also Published As

Publication number Publication date
JP2001051338A (en) 2001-02-23

Similar Documents

Publication Publication Date Title
JP4227257B2 (en) camera
US9147106B2 (en) Digital camera system
US8180106B2 (en) Image capturing apparatus and image capturing method
JP4196714B2 (en) Digital camera
JP4583527B2 (en) How to determine eye position
US8212894B2 (en) Electronic camera having a face detecting function of a subject
US7248300B1 (en) Camera and method of photographing good image
KR100924685B1 (en) Imaging apparatus and control method thereof
JP4829186B2 (en) Imaging device
US8159561B2 (en) Digital camera with feature extraction device
US20040119851A1 (en) Face recognition method, face recognition apparatus, face extraction method, and image pickup apparatus
KR20100048600A (en) Image photography apparatus and method for proposing composition based person
JP2001330882A (en) Camera with subject recognizing function
JP2004317699A (en) Digital camera
JP2004320286A (en) Digital camera
JP2002153445A (en) Iris recognition device
JP2004320285A (en) Digital camera
JP2003224761A (en) Imaging apparatus
JP2009117975A (en) Image pickup apparatus and method
JP2010273280A (en) Imaging apparatus
JP2000347277A (en) Camera and method of pick up
JP5109864B2 (en) Electronic still camera
JP2010177991A (en) Digital camera
JPH0884280A (en) Head mount type video camera
JP5055569B2 (en) Color imaging apparatus and image processing program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060803

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060803

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081125

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081128

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111205

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121205

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131205

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees