JP4974788B2 - 画像処理装置、画像処理方法、プログラム、及び記憶媒体 - Google Patents

画像処理装置、画像処理方法、プログラム、及び記憶媒体 Download PDF

Info

Publication number
JP4974788B2
JP4974788B2 JP2007173112A JP2007173112A JP4974788B2 JP 4974788 B2 JP4974788 B2 JP 4974788B2 JP 2007173112 A JP2007173112 A JP 2007173112A JP 2007173112 A JP2007173112 A JP 2007173112A JP 4974788 B2 JP4974788 B2 JP 4974788B2
Authority
JP
Japan
Prior art keywords
facial expression
evaluation value
image processing
value
expression evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007173112A
Other languages
English (en)
Other versions
JP2009015372A (ja
JP2009015372A5 (ja
Inventor
雄司 金田
克彦 森
博 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2007173112A priority Critical patent/JP4974788B2/ja
Priority to US12/147,123 priority patent/US8538091B2/en
Priority to EP08159212A priority patent/EP2009577B1/en
Priority to CN2008101261944A priority patent/CN101334839B/zh
Priority to DE602008005958T priority patent/DE602008005958D1/de
Publication of JP2009015372A publication Critical patent/JP2009015372A/ja
Publication of JP2009015372A5 publication Critical patent/JP2009015372A5/ja
Application granted granted Critical
Publication of JP4974788B2 publication Critical patent/JP4974788B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction

Description

本発明は、画像処理装置、画像処理方法、プログラム、及び記憶媒体に関する。
人間の表情の1つである眼の開閉状態を検出する技術が開発されている。例えば特許文献1に開示された技術では、入力画像に対して2値化処理を行い、2値化した画像から瞳孔に相当する黒色領域を抽出し、黒色領域の縦方向の連続画素数に基づいて眼の開閉状態を判定する。また、この技術では、黒色(黒眼)領域の縦方向連続画素数の最大値を複数の画像において参照し、縦方向連続画素数の最大値と最小値に基づき、瞬きの有無を判定する閾値を設定している。
また、特許文献2に開示された技術では、上瞼と下瞼のエッジを検出し、上下瞼エッジ間の距離から眼の開閉状態を判定する。
喜びや怒りなどの喜怒哀楽の表情を検出する技術も開発されている。例えば、特許文献3に開示された技術では、入力画像に対して2次元フーリエ変換をした後、所定の特徴ベクトルを生成する。そして、予め用意しておいた各表情毎の隠れマルコフモデルから、この特徴ベクトルを生成する確率を算出し、最大の確率を算出した隠れマルコフモデルに対応する表情を認識結果として出力する。
一方、対話相手、対話量、状況の違いに基づいて電子秘書の表出する表情と表情の大きさなどを調整する技術も開発されている。例えば、特許文献4に開示された技術は、対話相手、対話量、状況の違いに基づいて、予め記憶されている表出閾値集合の中から特定の表出閾値を読み出すか、あるいは、予め規定されたいくつかの変換式の中から特定の変換式を適用し、表出閾値をセットする。これにより、電子秘書の表情スタイルの設定や変更などを行う。
特開平6−32154号公報 特開2000−137792号公報 特許第02962549号明細書 特開平7−104778号公報 特開2000−30065号公報 特開2003−323622号公報 特開2005−56388号公報 P.Ekman and W.V.Friesen, Facial Action Coding System(FACS): Manual, Palo Alto:Consulting Psychologists Press, 1978。 "Rapid object detection using a Boosted Cascade of Simple Features", Proc. of IEEE Conf.CVPR,1,pp.511-518,2001。 Yann LeCun and Yoshua Bengio, "Convolutinal Networks for Images,Speech,and Time Series", The Handbook of Brain Theory and Neural Networks,pp255-258 1995。 石井健一郎, 上田修功, 前田英作, 村瀬洋 "わかりやすいパターン認識", オーム社。
しかしながら、顔面を構成する眼や口などの各パーツ形状や各パーツの動きは人物によって大きく異なる。例えば、上下瞼間の距離が比較的長い人物は、上下瞼間の距離変化量が大きいが、上下瞼間の距離が短い人物は、上下瞼間距離の変化量が小さい。
また、客観的に表情の動作を記述した非特許文献1では、表情の1つである喜び表情は、(1)頬を持ち上げる、(2)唇の端を引っ張りあげる、のように記載されているが、頬や唇の端の変化量も人物によって大きく異なる。
したがって、表情を判定する際に、すべての人物に対して同じパラメータ(例えば、閾値など)を用いてしまうと、例えば、上下瞼間の距離が小さい特定の人物に対しては、誤って常に眼を閉じている状態であると判定されてしまう可能性がある。また、例えば、眼や口などの各パーツの動きが小さい人物は、常に表情がないと判定されてしまう可能性がある。
本発明は上記の課題に鑑みてなされたものであり、表情認識処理において苦手とされる苦手被写体に対しても、高精度な表情認識を行うことを目的としている。
本発明の一側面によれば、入力した画像から人物の顔領域を抽出する顔領域抽出手段と、抽出された前記顔領域から評価値算出式を用いて表情評価値を算出する算出手段と、算出された前記表情評価値に基づいて前記顔領域の示す表情を判定する判定手段と、所定時間内に算出された前記表情評価値の変化量が所定値に満たない場合、当該変化量が拡大するように前記評価値算出式又はその係数を変更する変更手段とを有することを特徴とする画像処理装置が提供される。
本発明によれば、表情認識のしづらい被写体に対しても高精度な表情認識を行うことができる。
以下、図面を参照して本発明の好適な実施形態について詳細に説明する。なお、本発明は以下の実施形態に限定されるものではなく、本発明の実施に有利な具体例を示すにすぎない。また、以下の実施形態の中で説明されている特徴の組み合わせの全てが本発明の課題解決手段として必須のものであるとは限らない。
(第1の実施形態)
図1は、本実施形態における画像処理装置の構成を示すブロック図である。
画像入力部1000は、画像信号を入力する。被写体検出部1001は、画像入力部1000より入力された画像信号から人物の顔の有無と顔がある場合にはその位置とを検出する。特徴抽出部1002は、被写体検出部1001で検出された人物の顔の位置と、画像入力部1000で生成された画像を用いて表情認識に必要な特徴を抽出する。表情評価値算出部1003は、特徴抽出部1002で抽出された表情認識に必要な特徴を用いて、各被写体毎の表情の種類と、各表情の度合いを表す表情評価値を算出する。表情判定部1004は、表情評価値算出部1003で算出された各被写体の表情評価値を用いて、各被写体の表情を判定する。表情評価値算出式・パラメータ変更部1005は、表情評価値算出部1003で算出される表情評価値に基づいて、表情評価値を算出する算出式又はその係数を変更する。
以下では、人物の表情の一つである目瞑りを例にとって、本実施形態を詳しく説明する。
画像入力部1000は、レンズ、CMOSセンサやCCD等の撮像素子、A/D変換器、画像処理回路などから構成された撮像装置により生成された画像信号を入力する。例えば、図2のような画像2200が入力される。
顔領域抽出手段としての被写体検出部1001は、画像入力部1000で入力された画像信号に対して人物の顔領域の位置を抽出する。これは例えば、多数の矩形のフィルタとIntegral Imageという技術を用いて顔の位置を検出する技術を用いる(非特許文献2)。顔の位置検出に用いる矩形フィルタの種類は、予め大量の顔画像と非顔画像を用意しておき、これらの画像をAdaBoostという学習手法を用いて学習することにより選択する。
また、被写体検出部1001では、顔の位置と左右眼領域の重心位置の3点を用いて、顔の大きさが所定のサイズで、かつ所定の向きとなるように画像の正規化処理を行う。左右眼領域の重心位置の検出方法としては、例えば次のような方法をとる。まず、各人物の顔の位置を基準として上方向に白眼、瞼、瞳孔等を含む眼探索領域を設定する。その後、設定された眼探索領域内で、上記の顔検出と同様に非特許文献2に開示されているような技術を用いて、左右の白眼、瞼、瞳孔等を含む眼領域の重心位置の検出を行う。矩形フィルタの選択方法でも、顔検出と同様に、予め目を大きく開けた画像、視線方向の異なる画像、目を閉じた画像など様々な目のパターン画像を用意し、学習することにより選択する。
したがって、ここでは目を開いた状態だけではなく、眼を閉じた状態の白眼、瞼、瞳孔等を含む領域の重心を検出することができる。顔の位置と左右眼領域の重心位置が検出されると、図2のように画像入力部1000で入力された画像2200から人物の顔領域の切り出し処理をする。そして、図2の正規化画像2201や2202のように、顔が所定のサイズ、所定の向きとなるようにアフィン変換を行い、正規化画像を得る。例えば、入力画像720×480[pixel]から顔領域を抽出し、人物の顔向きを正面向き、左右眼領域の重心位置間の距離を40[pixel]の正規化画像100×100[pixel]を得る。
また、入力画像中の人物の顔のサイズが小さい場合(例えば、左右眼領域の重心位置間距離が20[pixel]以下)や、顔の向きが所定範囲外の方向(例えば、正面向きを0°とした場合の30°以上)を向いている場合には処理を行わないようにするとよい。
部分領域抽出手段としての特徴抽出部1002では、被写体検出部1001で検出した左右眼領域の重心位置を用いて、更に部分領域としての瞳孔領域の抽出を行う。瞳孔領域の検出方法は、まず、被写体検出部1001で検出した左右眼領域の重心位置から左右夫々に対して瞳孔探索領域を設定する。次に、設定した瞳孔探索領域における画像の切り出しを行い、予め学習させておいたConvolutional Neural Network(非特許文献3参照、以下CNN)に投入する。
本実施形態で用いたCNNは図3のように入力層、中間層、出力層の3層構成である。学習において、まず、目を開いた状態(第1の状態)の瞳孔周辺領域である正解画像と、目を閉じた状態(第2の状態)の瞳孔周辺領域である非正解画像とを大量に用意する。
次に、図3のように入力層の入力に正解画像2250を与えた時に、図3の出力値画像2251のように出力層から出力される瞳孔領域に相当するニューロン値が高くなるように、ニューラルネットワーク内の特徴間の荷重係数を調整する。具体的には、最急降下法(非特許文献4参照)を用いて荷重係数を変更する。逆に、不正解画像を与えた時には出力層から出力される瞳孔領域に相当するニューロン値が低くなるように荷重係数を調整する。
このような学習を繰り返し行うことで、図3のように眼を開いた画像を入力すると、出力層では瞳孔領域に相当するニューロン領域の値だけが高く、その他は低くなる。なお、ここでの1つのニューロン出力値は、画像の1画素に相当している。
なお、本実施形態ではCNNは図3のように3階層としたが、本発明はこれに限定されるものではない。また、CNN以外の技術を用いて瞳孔領域に相当する特徴を検出するようにしても良い。
算出手段としての表情評価値算出部1003では、特徴抽出部1002で抽出した瞳孔領域に相当するニューロン値を閾値Th1と比較する。そして、閾値Th1以上のニューロン出力値の個数cをカウントし、この個数cを用いて目瞑りの度合いである表情評価値Exp1を算出する。例えば、特徴抽出部1002で抽出したニューロン出力値が0〜255の間に分布している場合には、例えば図4のように閾値Th1を200に設定し、閾値Th1以上のニューロン出力値の個数cをカウントする。そして、図5のような特性を表す表情評価値算出式を用いて表情評価値Exp1(0-255)を算出する。この表情評価値Exp1は、値が高ければ高いほど目を瞑っている可能性が高いことを示している。図5は、瞳孔領域の各画素のニューロン出力値のうち閾値Th1以上であるニューロン出力値の個数と表情評価値との関係を表すものである。この表情評価値特性は例えば双曲線正接関数で表すことができ、具体的には、表情評価値算出式は次式で表される。
Exp1=A0(tanh(-B0*(c-C0))+D0)
ただし、A0, B0, C0, D0は定数
図6は、人が瞬きをした期間における表情評価値Exp1の時系列変化の例を示している。図示のように、目を開けている時は表情評価値Exp1は低く、目を閉じると表情評価値Exp1が高くなり、再び目を開けると表情評価値Exp1は低い値に戻る。そこで、判定手段としての表情判定部1004では、目瞑りの度合いを示す表情評価値Exp1を閾値Th2と比較することにより、目を開いている状態か目を瞑っている状態かの2値判定を行う。ここでは例えば、閾値Th2を210とする。つまり、表情評価値が閾値Th2以下である、すなわち、Exp1≦210であるならば、目を開いている(第1の状態)と判定する。一方、表情評価値が閾値Th2を超えている、すなわち、Exp1>210ならば、目を閉じている(第2の状態)と判定する。
変更手段としての表情評価値算出式・パラメータ変更部1005では、所定時間t1[s]内に算出される表情評価値Exp1の最大値が255、最小値が0となるように、表情評価値算出式を変更するか、あるいは、表情評価値算出式の係数を変更する。なお、本実施形態では最大値を255、最小値を0としているが、これに限られるわけではない。
特徴抽出部1002で用いているCNNは瞳孔領域を検出するように学習しているため、瞳孔領域の出現が大きければ大きいほど、CNNのニューロン出力値及び出力領域が大きくなる。よって、図7の2300のように平均的な上下瞼間距離を持つ人物では、目を閉じた場合と目を開いた場合のCNNのニューロン出力値及び出力領域の変化量は比較的大きくなる。したがって、表情評価値Exp1の時系列変化は図6のようになり、閾値Th2により目瞑りを正しく判定できる。
しかし、図7の2301のように元々上下瞼間距離が短い細眼の人物では、眼を閉じた場合と眼を開いた場合のCNNのニューロン出力値及び出力領域の変化量は小さくなる。よって、図8のように、ニューロン数cの最大値はcmax1、最小値はcmin1となり、表情評価値Exp1が狭い幅2305内でしか算出されず、表情評価値Exp1の時系列変化は図9のようになる。その結果、実際には目瞑りではないにもかかわらず、目瞑りであると誤って検出されることが頻繁に発生する。これは、検出する特徴として瞳孔領域の面積を用いることに限らず、上下瞼間の距離を用いた目瞑り判定でも同様のことが言える。また、細眼の人物だけでなく、瞳孔の色が異なることによって瞳孔領域が検出しにくい人物に対しても同様のことが言える。
そこで、表情評価値算出式・パラメータ変更部1005では、表情評価値Exp1の最大値と最小値との差が所定値に満たない場合、当該差が拡大するように表情評価値算出式又はその係数を変更する。具体的には、例えば、所定時間t1[s]内に算出される表情評価値Exp1の最大値が255、最小値が0となるように、表情評価値算出式を変更するか、表情評価値算出式の係数を変更する。これにより、目瞑り判定の苦手被写体に対して、より高精度な検出を行う。なお、所定時間t1[s]は、瞬きが行われるのに十分な時間とする。一般的には、人間の瞬きの回数は3秒から10秒に1回と言われているので、例えば、所定時間t1=20[s]とする。
表情評価値算出式の係数の変更方法は、例えば次のとおりである。まず、所定時間t1[s]内で表情評価値Exp1の最小値Exp1min及び最大値Exp1max、ニューロン出力値の最小個数cmin及び最大個数cmaxを求める。次に、これらの値と予め用意しておいたテーブルを用いて表情評価値算出式の係数を決定し、例えば、図10のような特性を表す表情評価値算出式に変更する。
また、表情評価値算出式の係数を変更するかわりに、表情評価値算出式自体を変更する場合には、図11に示されるような線形関数を用いるようにしても良い。
図12は、表情評価値算出式の係数を変更する処理フローチャートである。
ステップS2600では、予め設定しておいた所定時間t1[s]が経過しているか判断する。例えば、t1=20[s]とする。ステップS2600で所定時間t1[s]経過していないと判断されれば、ステップS2603へ進む。ステップS2603では、表情評価値Exp1の最大・最小値と、夫々について閾値Th1以上のニューロン出力値の個数cを記憶した後、ステップS2600へ戻る。
一方、ステップS2600で所定時間t1[s]経過したと判断されれば、ステップS2601へ進む。ステップS2601では、所定時間t1[s]内での表情評価値Exp1の最大値が255、最小値が0であるかどうかを判断する。ステップS2601で表情評価値Exp1の最大値が255、最小値が0でないと判断されれば、ステップS2602へ進む。
ステップS2602では、予め用意しておいたテーブルを用いて表情評価値算出式の係数を変更して、処理を終了する。ステップS2601で表情評価値Exp1の最大値が255、最小値が0であると判断された場合には、そのまま処理を終了する。
なお、以上の処理は、複数人物の夫々に対して行うことが好ましい。
以上のように、表情評価値算出式またはその係数を変更することによって表情評価値の変化量を大きくすることで、苦手被写体に対してもより高精度に目瞑りを検出することができる。
(第2の実施形態)
図13は、第2の実施形態における画像処理装置の構成を示すブロック図である。
画像入力部3000は、画像信号を入力する。被写体検出部3001は、画像入力部3000より入力された画像信号から人物の顔の有無と顔がある場合にはその位置とを検出する。特徴抽出部3002は、被写体検出部3001で検出された人物の顔の位置と、画像入力部3000で生成された画像を用いて表情認識に必要な特徴を抽出する。表情評価値算出部3003は、特徴抽出部3002で抽出された表情認識に必要な特徴を用いて、各被写体毎の表情の種類と、各表情の度合いを表す表情評価値を算出する。表情判定部3004は、表情評価値算出部3003で算出された各被写体の表情評価値を用いて、各被写体の表情を判定する。特徴抽出結果閾値変更部3005は、表情評価値算出部3003で算出される表情評価値に基づいて、特徴抽出部3002で抽出された特徴に用いられる閾値を変更する。
以下では、第1の実施形態と同様、人物の表情の一つである目瞑りを例にとって、本実施形態を詳しく説明する。
画像入力部3000〜表情判定部3004までは第1の実施形態の画像入力部1000〜表情判定部1004と同様の処理を行うので説明を省略する。
特徴抽出結果閾値変更部3005では、第1の実施形態と同様に表情評価値Exp1の最大値が255、最小値が0となるようにCNNのニューロン出力値の閾値Th1を変更する。例えば、図14のように閾値Th1を200から150に変更する。第1の実施形態でも説明したように、上下瞼間距離が比較的短い人物では、出現する瞳孔の領域が小さくなるため、CNNから得られるニューロン出力値が小さくなる傾向がある。よって、上下瞼間距離が比較的短い人物など、CNNから得られるニューロン出力値が全体的に小さい人物に対しては、閾値Th1も小さくする。具体的な閾値Th1の変更方法は、所定時間t1[s]内でのニューロン出力値の最大値Numaxを算出し、最大値Numax×0.8のニューロン出力値を閾値Th1に設定する。例えば、所定時間t1[s]内でのニューロン出力値の最大値が200である場合には、閾値Th1を160に設定する。
図15は、CNNの出力層から出力されるニューロン値の閾値Th1、表情評価値算出式、表情評価値算出式の係数を変更するフローチャートを示している。
ステップS3100では、所定時間t1[s]経過したかどうか判断する。ステップS3100で所定時間t1[s]経過していないと判断されれば、ステップS3103へ進む。ステップS3103では、表情評価値Exp1とCNNから出力されるニューロン出力値を記憶する。ステップS3100で所定時間t1[s]経過したと判断されれば、ステップS3101へ進む。
ステップS3101では、所定時間t1[s]内の表情評価値Exp1の最大値が255、最小値が0であるか判断し、最大値が255、最小値が0でないと判断されるとステップS3102へ進む。ステップS3102では、上記説明したような方法で閾値Th1をTh1'に変更した後、ステップS3104へ進む。
ステップS3104では、再度、ステップS3102で変更した閾値Th1’を用いて所定時間t1[s]までの表情評価値Exp1の最大値と最小値を算出し、最大値が255、最小値が0であるかどうか判断する。ステップS3104で、所定時間t1[s]内の表情評価値Exp1の最大値が255、最小値が0でないと判断されるとステップS3105へ進む。
ステップS3105では、第1の実施形態と同じような方法を用いて、所定時間t1[s]内の表情評価値Exp1の最大値が255、最小値が0となるように表情評価値算出式又は表情評価値算出式の係数の変更を行う。
ステップS3101、ステップS3104で、所定時間t1[s]内の表情評価値Exp1の最大値が255、最小値が0であると判断された場合は、そのまま処理を終了する。
以上のように、CNNのニューロン出力値の閾値Th1を変更することによって、表情評価値の変化量を大きくし、苦手被写体に対してもより高精度に目瞑りを検出することができる。
(第3の実施形態)
図16は第3の実施形態に係る撮像装置の構成を示すブロック図である。
図16において、5000は撮像レンズ群、5001は絞り装置及びシャッタ装置を備えた光量調節装置である。5002は撮像レンズ群を通過した被写体像としての光束を電気信号に変換するCCDやCMOS等の撮像素子である。
5003は撮像素子5002のアナログ信号出力にクランプ処理、ゲイン処理等を行うアナログ信号処理回路である。5004はアナログ信号処理回路5003の出力をデジタル信号に変換するアナログ/デジタル(以下、A/Dとする)変換器である。
5005は画像信処理回路であり、A/D変換器5004からのデータ或いはメモリ制御回路5006からのデータに対して所定の画素補間処理や色変換処理を行う。また、この画像処理回路5005は、撮像した画像データを用いて所定の演算を行う。
システム制御回路5009はこの演算結果に基づいて露出制御回路5011、焦点制御回路5010に対する制御を実行するTTL方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(ストロボプリ発光)処理などを行う。
また、画像処理回路5005は、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理も行っている。更に、その撮像した画像データから、人物の顔検出処理、個人認証処理、表情認識処理なども実行している。顔検出処理、個人認証処理、表情認識処理など所定の画像処理に使用するデータなどは、画像処理回路5005のメモリに記憶されている。
メモリ制御回路5006は、アナログ信号処理回路5003、A/D変換器5004、画像処理回路5005、メモリ5007、デジタル/アナログ(以下、D/Aとする)変換器5012を制御する。これにより、A/D変換器5004でA/D変換されたデータは画像処理回路5005、メモリ制御回路5006を介して、或いはA/D変換器5004でA/D変換されたデータが直接メモリ制御回路5006を介して、メモリ5007に書き込まれる。
メモリ5007は表示装置5013に表示するデータを記憶しており、このメモリ5007に記録されているデータはD/A変換器5012を介してTFT、LCD等の表示装置5013に出力されて表示される。また、メモリ5007は、撮像した静止画象や動画像を格納し、所定枚数の静止画像や所定時間分の動画像を格納するのに十分な記憶容量を備えている。これにより、複数枚の静止画像を連続して撮像する連写撮影やパノラマ撮影の場合にも、高速かつ大量の画像書き込みをメモリ5007に対して行うことが可能となる。また、このメモリ5007はシステム制御回路5009の作業領域としても使用することが可能である。
表示装置5013は、撮像した画像データを逐次表示すれば電子ファインダとしての機能を実現できる。また表示装置5013は、システム制御回路5009の指示により任意に表示をオン/オフすることが可能であり、表示をオフにした場合は、オンにした場合に比較して、撮像装置の電力消費を大幅に低減できる。また、システム制御回路5009でのプログラムの実行に応じて、文字、画像等を用いて動作状態やメッセージ等を表示する。
5008はメモリカードやハードディスク等の記憶媒体とのインタフェースである。このインタフェース5008を用いて、他のコンピュータやプリンタ等の周辺機器との間で画像データや画像データに付属した管理情報を転送し合うことができる。このインタフェース5008をPCMCIAカードやCF(コンパクトフラッシュ(登録商標))カード等の規格に準拠したものを用いて構成した場合、各種通信カードを接続すればよい。この各種通信カードとしては、LANカードやモデムカード、USBカード、IEEE1394カード、P1284カード、SCSIカード、PHS等の通信カード、等があげられる。
システム制御回路5009は撮像装置全体の動作を制御している。システム制御回路5009のメモリに、このシステム制御回路5009の動作用の定数、変数、プログラム等を記憶している。
露出制御回路5011は、光量調節装置5001の絞り装置、シャッタ装置を制御する。焦点制御回路5010は撮像レンズ群5000のフォーカシング、ズーミングを制御する。露出制御回路5011、焦点制御回路5010はTTL方式を用いて制御されている。システム制御回路5009は、撮像した画像データを画像処理回路5005によって演算した演算結果に基づき、露出制御回路5011、焦点制御回路5010に対して制御を行う。
図17のフローチャートを参照して、本実施形態に係る撮像装置の動作を説明する。この処理は、電源投入などにより開始される。まず、ステップS5500で、システム制御回路5009は、内部のメモリの各種フラグや制御変数等を初期化する。ステップS5501でシステム制御回路5009は撮像装置のモード設定状態を検知し、その他のモードに設定されていればステップS5502に進む。ステップS5502では、システム制御回路5009は選択されたモードに応じた処理を実行し、その処理を終えるとステップS5501に戻る。ここでは、撮影のトリガーとなる表情なども設定することができる。本実施形態では表情のうち、笑顔表情を選択する。
システム制御回路5009は、ステップS5501で自動撮影モードが設定されている場合は、ステップS5503に進み、電源の残容量や動作情況が撮像装置の動作に問題があるか否かを判断する。システム制御回路5009は、問題があると判断するとステップS5504に進み、表示装置5013を用いて、画像や音声により所定の警告表示を行い、その後、ステップS5501に戻る。
ステップS5503で、システム制御回路5009は電源に問題が無いと判断するとステップS5505に進む。ステップS5505では、システム制御回路5009は記憶媒体の動作状態が撮像装置の動作、特に記憶媒体に対する画像データの記録再生動作に問題があるか否かを判断する。システム制御回路5009は問題があると判断すると前述のステップS5504に進み、表示装置5013を用いて、画像や音声により所定の警告表示を行った後にステップS5501に戻る。
システム制御回路5009はステップS5505で記憶媒体に問題がないと判断するとステップS5506に進む。ステップS5506では、システム制御回路5009は表示装置5013を用いて、画像や音声により撮像装置の各種設定状態のユーザインタフェース(以下、UIとする)表示を行う。尚、表示装置5013の画像表示がオンであったならば、表示装置5013も用いて画像や音声により撮像装置の各種設定状態のUI表示を行ってもよい。こうしてユーザによる各種設定がなされる。
次にステップS5507で、システム制御回路5009は表示装置5013の画像表示をオン状態に設定する。更に、ステップS5508で、システム制御回路5009は撮像した画像データを逐次表示するスルー表示状態に設定する。このスルー表示状態では、メモリ5007に逐次書き込まれたデータを表示装置5013により逐次表示することにより、電子ファインダ機能を実現している。
ステップS5009では、撮影者などのユーザによってシャッタースイッチが押されたかどうか判定される。シャッタースイッチを押していないならば、ステップS5501に戻る。シャッタースイッチを押したならば、システム制御回路5009は、ステップS5510で顔検出処理を実行する。顔検出処理は第1の実施形態と同様な処理を行うことによって実現される。
ステップS5511では、ステップS5510で検出された顔に合わせてAE・AFを行う。ステップS5512では、ステップS5509でスイッチがONされてからの経過時間の測定を開始する。
ステップS5513では、撮像した画像データだけでなく、ステップS5510で検出された顔の位置も表示装置5013で表示する。
ステップS5514ではステップS5510で検出された夫々の顔毎に個人認証を行う。個人認証技術は、例えば、特許文献5のように相互部分空間法を用いる方法や特許文献6のように顔領域を複数の部分領域に分割し、各部分領域毎に比較を行う方法などがある。本実施形態では、特許文献6の顔領域を複数の部分領域に分割する方法を用いる。なお、認証に用いる画像は予め登録しておかなくとも、撮影直前に登録するようにしても良い。個人認証方法は本実施形態に記載の方法に限定されるわけではない。
ステップS5515では、ステップS5514で認証された特定の人物に対してのみ笑顔表情の認識処理を行う。笑顔表情の認識処理は、特許文献7のように予め用意しておいた無表情データとの差分により認識する手法を用いる。なお、表情認識方法は、本実施形態に記載の方法に限定されるわけではない。
ステップS5516では、所定の撮影条件であるかどうか判定する。例えば、ステップS5501で笑顔撮影モードが選択されていたならば、ステップS5515で判定された表情が笑顔かどうか判定される。ステップS5516で所定の撮影条件、つまり画像内の所定人物の表情が笑顔であると判定されたならば、ステップS5517へ進む。
ステップS5517では、撮影が行われ、ステップS5518では撮影された画像が表示装置5013に表示される。ステップS5519では撮影された画像がIF5008を通して、例えば、CF(コンパクトフラッシュ)などに記憶される。
なお、CF(コンパクトフラッシュ)に撮影画像を記憶する際、撮影画像に画像サイズなどの情報に加えて、表情認識処理に用いたパラメータ(表情判定閾値など)、表情認識結果、個人認証IDなどを記録しておく。例えば、Exif情報に表情認識処理に用いたパラメータ(表情判定閾値など)や個人認証IDなど記録しておく。このように表情認識処理に用いたパラメータ、表情認識結果、個人認証IDなども撮影画像に記録しておくことによって、例えば、ハードディスクに記憶されている大量の画像の中から人物Aで、かつ特定表情の画像を高速に検索することができる。また、表情認識結果が記録されていない画像に対しては、同一人物で表情認識に用いたパラメータが記録されている画像を優先的に検索した後、記録されているパラメータを用いて表情認識結果が記録されていない画像に対して表情認識を行うこともできる。
ステップS5516で所定の撮影条件ではないと判定された場合にはステップS5521へ進む。ステップS5521ではステップS5512でタイマー動作を開始してから所定時間t2[s]経過したかどうかを確認する。ステップS5521で所定時間t2[s]経過したと確認されたならば、ステップS5522へ進む。なお、所定時間t2[s]は、予め各個人毎や各表情毎に設定するようにしても良い。ステップS5522では撮影動作が行われたかどうか確認する。
ステップS5522で撮影動作が一度も行われなかった場合には現在の表情判定閾値は最適ではないと判定し、ステップS5523へ進む。ステップS5523では、表情判定閾値をTh3からTh3'に変更し、ステップS5520へ進む。
ステップS5501において、ユーザが笑顔撮影モードを選択した場合には、ステップS5509でスイッチをOnした後、所定時間内に1度は被写体が笑顔となる可能性が高い。よって、表情判定閾値Th3からTh3'への変更方法は、例えば、図18のように、ある一定時間内の表情評価値Exp2の最大値Exp2maxと最小値Exp2minを算出し、最大値Exp2maxを表情判定閾値Th3'と設定する。
なお、目瞑り表情の場合にも、一般的には人間の瞬きの回数は3秒から10秒に1回と言われているので、所定時間t2=20[s]とした場合には最低でも2回、目瞑りであると判定されるように閾値Th3を設定するようにすれば良い。
また、更に高精度な表情認識を行うために、第1の実施形態や第2の実施形態で説明したように、表情評価値算出式、表情評価値算出式の係数、特徴抽出の時に用いる閾値などを変更するようにしても良い。
ステップS5521で、ステップS5512でタイマー動作を開始してから所定時間t2[s]経過していないと判定された場合は、ステップS5520へ進む。同様に、ステップS5522で撮影動作が行われた回数が所定回数以上、所定回数以下であると判定された場合にも、ステップS5520へ進む。
ステップS5520で自動撮影が終了であれば、処理を終了し、そうでなければステップS5524へ進む。ステップS5524では次のフレーム画像に対して再度顔検出処理を行った後、ステップS5514の個人認証処理に進む。
以上のように、表情判定閾値を変更することによって眼や口など顔面パーツの形状変化の小さい人物などに対しても表情検出が可能となる。
(他の実施形態)
以上、本発明の実施形態を詳述したが、本発明は、複数の機器から構成されるシステムに適用してもよいし、また、一つの機器からなる装置に適用してもよい。
なお、本発明は、前述した実施形態の各機能を実現するプログラムを、システム又は装置に直接又は遠隔から供給し、そのシステム又は装置に含まれるコンピュータがその供給されたプログラムコードを読み出して実行することによっても達成される。
したがって、本発明の機能・処理をコンピュータで実現するために、そのコンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、上記機能・処理を実現するためのコンピュータプログラム自体も本発明の一つである。
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等、プログラムの形態を問わない。
プログラムを供給するためのコンピュータ読み取り可能な記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RWなどがある。また、記録媒体としては、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などもある。
また、プログラムは、クライアントコンピュータのブラウザを用いてインターネットのホームページからダウンロードしてもよい。すなわち、ホームページから本発明のコンピュータプログラムそのもの、もしくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードしてもよい。また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードする形態も考えられる。つまり、本発明の機能・処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明の構成要件となる場合がある。
また、本発明のプログラムを暗号化してコンピュータ読み取り可能なCD−ROM等のコンピュータ読み取り可能な記憶媒体に格納してユーザに配布してもよい。この場合、所定条件をクリアしたユーザにのみ、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせ、その鍵情報で暗号化されたプログラムを復号して実行し、プログラムをコンピュータにインストールしてもよい。
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現されてもよい。なお、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部又は全部を行ってもよい。もちろん、この場合も、前述した実施形態の機能が実現され得る。
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれてもよい。そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行ってもよい。このようにして、前述した実施形態の機能が実現されることもある。
第1の実施形態における画像処理装置の構成を示すブロック図である。 入力画像及び正規化処理後の画像の例を示す図である。 瞳孔領域を検出するConvolutinal Neural Network(CNN)を説明する図である。 CNNのニューロン出力値ヒストグラムの例を示す図である。 表情評価値の特性を例示する図である。 表情評価値の閾値処理を説明する図である。 上下瞼間の距離が長い人と短い人の眼を示す図である。 目瞑りの誤検出を説明する図である。 図8の特性の表情評価値算出式の係数を変更した場合の表情評価値特性の例を示す図である。 図8の表情評価値特性に対して変更された線形特性を有する表情評価値特性の例を示す図である。 第1の実施形態における表情評価値算出式の係数の変更処理を示すフローチャートである。 第2の実施形態における画像処理装置の構成を示すブロック図である。 第2の実施形態におけるニューロン出力値に対する閾値の変更を説明する図である。 第2の実施形態における閾値変更処理に係るフローチャートである。 第3の実施形態に係る撮像装置の構成を示すブロック図である。 第3の実施形態に係る撮像装置の動作を示すフローチャートである。 第3の実施形態における表情評価値に対する閾値の変更を説明する図である
符号の説明
1000:画像入力部
1001:被写体検出部
1002:特徴抽出部
1003:表情評価値算出部
1004:表情判定部
1005:表情評価値算出式・パラメータ変更部

Claims (10)

  1. 入力した画像から人物の顔領域を抽出する顔領域抽出手段と、
    抽出された前記顔領域から評価値算出式を用いて表情評価値を算出する算出手段と、
    算出された前記表情評価値に基づいて前記顔領域の示す表情を判定する判定手段と、
    所定時間内に算出された前記表情評価値の変化量が所定値に満たない場合、当該変化量が拡大するように前記評価値算出式又はそのパラメータを変更する変更手段と、
    を有することを特徴とする画像処理装置。
  2. 前記変更手段は、前記表情評価値の最大値及び最小値が予め定められた値となるように、前記評価値算出式又はそのパラメータを変更することを特徴とする請求項1に記載の画像処理装置。
  3. 抽出された前記顔領域から、前記表情が第1の状態であるときと第2の状態であるときとの間で変化する所定の部分領域を抽出する部分領域抽出手段を更に備え、
    前記算出手段は、抽出された前記部分領域に対して、前記第2の状態である可能性が高いほど高い値となり前記第1の状態である可能性が高いほど低い値となる評価値算出式を用いて前記表情評価値を算出し、
    前記判定手段は、算出された前記表情評価値が閾値を超えたときに、前記表情は前記第2の状態であると判定することを特徴とする請求項1に記載の画像処理装置。
  4. 前記算出手段は、ニューロン出力値が前記第2の状態で高く前記第1の状態で低くなるようなニューラルネットワークを有し、前記評価値算出式は、前記部分領域の各画素のニューロン出力値のうち閾値Th1以上であるニューロン出力値の個数と前記表情評価値との関係を表すものであることを特徴とする請求項3に記載の画像処理装置。
  5. 前記部分領域の各画素のニューロン出力値のうち閾値Th1以上であるニューロン出力値の個数と前記表情評価値との関係は、双曲線正接関数で表されることを特徴とする請求項4に記載の画像処理装置。
  6. 前記変更手段は、前記パラメータとして閾値Th1を変更することを特徴とする請求項4に記載の画像処理装置。
  7. 前記所定の部分領域は、瞳孔領域であり、
    前記第1の状態は目を開いた状態であり、
    前記第2の状態は目を閉じた状態である、
    ことを特徴とする請求項3から6までのいずれか1項に記載の画像処理装置。
  8. 顔領域抽出手段が、入力した画像から人物の顔領域を抽出する顔領域抽出ステップと、
    算出手段が、抽出された前記顔領域から評価値算出式を用いて表情評価値を算出する算出ステップと、
    判定手段が、算出された前記表情評価値に基づいて前記顔領域の示す表情を判定する判定ステップと、
    変更手段が、所定時間内に算出された前記表情評価値の変化量が所定値に満たない場合、当該変化量が拡大するように前記評価値算出式又はそのパラメータを変更する変更ステップと、
    を有することを特徴とする画像処理方法。
  9. 請求項8に記載の画像処理方法をコンピュータに実行させるためのプログラム。
  10. 請求項9に記載のプログラムを格納したコンピュータ読み取り可能な記憶媒体。
JP2007173112A 2007-06-29 2007-06-29 画像処理装置、画像処理方法、プログラム、及び記憶媒体 Active JP4974788B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2007173112A JP4974788B2 (ja) 2007-06-29 2007-06-29 画像処理装置、画像処理方法、プログラム、及び記憶媒体
US12/147,123 US8538091B2 (en) 2007-06-29 2008-06-26 Image processing apparatus and method, and storage medium
EP08159212A EP2009577B1 (en) 2007-06-29 2008-06-27 Image-processing apparatus and method, program, and storage medium
CN2008101261944A CN101334839B (zh) 2007-06-29 2008-06-27 图像处理装置及图像处理方法
DE602008005958T DE602008005958D1 (de) 2007-06-29 2008-06-27 Bildverarbeitungsgerät sowie Verfahren, Programm und Speichmedium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007173112A JP4974788B2 (ja) 2007-06-29 2007-06-29 画像処理装置、画像処理方法、プログラム、及び記憶媒体

Publications (3)

Publication Number Publication Date
JP2009015372A JP2009015372A (ja) 2009-01-22
JP2009015372A5 JP2009015372A5 (ja) 2010-08-12
JP4974788B2 true JP4974788B2 (ja) 2012-07-11

Family

ID=39645597

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007173112A Active JP4974788B2 (ja) 2007-06-29 2007-06-29 画像処理装置、画像処理方法、プログラム、及び記憶媒体

Country Status (5)

Country Link
US (1) US8538091B2 (ja)
EP (1) EP2009577B1 (ja)
JP (1) JP4974788B2 (ja)
CN (1) CN101334839B (ja)
DE (1) DE602008005958D1 (ja)

Families Citing this family (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5262243B2 (ja) * 2008-03-31 2013-08-14 アイシン精機株式会社 眼開閉判別装置、及びプログラム
JP5127067B2 (ja) * 2009-03-06 2013-01-23 パナソニック株式会社 画像検索装置及び画像検索方法
JP5431083B2 (ja) * 2009-09-16 2014-03-05 オリンパスイメージング株式会社 撮影装置および撮影装置の制御方法
JP5385759B2 (ja) * 2009-10-30 2014-01-08 キヤノン株式会社 画像処理装置及び画像処理方法
JP5424819B2 (ja) * 2009-11-04 2014-02-26 キヤノン株式会社 画像処理装置、画像処理方法
US8604772B2 (en) 2010-03-31 2013-12-10 General Electric Company MEMS-based resonant tunneling devices and arrays of such devices for electric field sensing
US10869626B2 (en) * 2010-06-07 2020-12-22 Affectiva, Inc. Image analysis for emotional metric evaluation
US10108852B2 (en) * 2010-06-07 2018-10-23 Affectiva, Inc. Facial analysis to detect asymmetric expressions
JP2012038106A (ja) * 2010-08-06 2012-02-23 Canon Inc 情報処理装置、情報処理方法、およびプログラム
US9008436B2 (en) * 2011-10-28 2015-04-14 Intellectual Ventures Fund 83 Llc Image recomposition from face detection and facial features
US8811747B2 (en) 2011-10-28 2014-08-19 Intellectual Ventures Fund 83 Llc Image recomposition from face detection and facial features
US9025836B2 (en) 2011-10-28 2015-05-05 Intellectual Ventures Fund 83 Llc Image recomposition from face detection and facial features
US8938100B2 (en) 2011-10-28 2015-01-20 Intellectual Ventures Fund 83 Llc Image recomposition from face detection and facial features
US9025835B2 (en) 2011-10-28 2015-05-05 Intellectual Ventures Fund 83 Llc Image recomposition from face detection and facial features
KR101901591B1 (ko) * 2011-11-01 2018-09-28 삼성전자주식회사 얼굴 인식 장치 및 그 제어방법
CN102842033A (zh) * 2012-08-17 2012-12-26 苏州两江科技有限公司 基于人脸识别进行人物表情情感语义识别方法
US9530072B2 (en) * 2013-03-15 2016-12-27 Dropbox, Inc. Duplicate/near duplicate detection and image registration
JP5999013B2 (ja) * 2013-04-12 2016-09-28 株式会社デンソー 開眼状態判定装置
US10176513B1 (en) * 2013-06-26 2019-01-08 Amazon Technologies, Inc. Using gestures and expressions to assist users
US10268983B2 (en) 2013-06-26 2019-04-23 Amazon Technologies, Inc. Detecting item interaction and movement
US9400925B2 (en) * 2013-11-15 2016-07-26 Facebook, Inc. Pose-aligned networks for deep attribute modeling
WO2015078018A1 (en) * 2013-11-30 2015-06-04 Xiaoou Tang Method and system for face image recognition
US9614724B2 (en) 2014-04-21 2017-04-04 Microsoft Technology Licensing, Llc Session-based device configuration
US9639742B2 (en) 2014-04-28 2017-05-02 Microsoft Technology Licensing, Llc Creation of representative content based on facial analysis
US9773156B2 (en) 2014-04-29 2017-09-26 Microsoft Technology Licensing, Llc Grouping and ranking images based on facial recognition data
US9430667B2 (en) 2014-05-12 2016-08-30 Microsoft Technology Licensing, Llc Managed wireless distribution network
US9384334B2 (en) 2014-05-12 2016-07-05 Microsoft Technology Licensing, Llc Content discovery in managed wireless distribution networks
US10111099B2 (en) 2014-05-12 2018-10-23 Microsoft Technology Licensing, Llc Distributing content in managed wireless distribution networks
US9384335B2 (en) 2014-05-12 2016-07-05 Microsoft Technology Licensing, Llc Content delivery prioritization in managed wireless distribution networks
CN103971131A (zh) * 2014-05-13 2014-08-06 华为技术有限公司 一种预设表情识别方法和装置
US9576175B2 (en) * 2014-05-16 2017-02-21 Verizon Patent And Licensing Inc. Generating emoticons based on an image of a face
US9874914B2 (en) 2014-05-19 2018-01-23 Microsoft Technology Licensing, Llc Power management contracts for accessory devices
US10037202B2 (en) 2014-06-03 2018-07-31 Microsoft Technology Licensing, Llc Techniques to isolating a portion of an online computing service
US9367490B2 (en) 2014-06-13 2016-06-14 Microsoft Technology Licensing, Llc Reversible connector for accessory devices
US9373179B2 (en) 2014-06-23 2016-06-21 Microsoft Technology Licensing, Llc Saliency-preserving distinctive low-footprint photograph aging effect
US9717006B2 (en) 2014-06-23 2017-07-25 Microsoft Technology Licensing, Llc Device quarantine in a wireless network
CN104881639B (zh) * 2015-05-14 2018-06-26 江苏大学 一种基于层次tdp模型的人脸检测、分割和表情识别方法
US20160378112A1 (en) * 2015-06-26 2016-12-29 Intel Corporation Autonomous vehicle safety systems and methods
US10007845B2 (en) * 2015-07-06 2018-06-26 Pixart Imaging Inc. Eye state detecting method and eye state detecting system
US20170017841A1 (en) * 2015-07-17 2017-01-19 Nokia Technologies Oy Method and apparatus for facilitating improved biometric recognition using iris segmentation
US10860887B2 (en) 2015-11-16 2020-12-08 Samsung Electronics Co., Ltd. Method and apparatus for recognizing object, and method and apparatus for training recognition model
CN108701323B (zh) 2016-03-21 2023-11-10 宝洁公司 用于提供定制的产品推荐的系统和方法
KR101887637B1 (ko) * 2016-11-15 2018-08-10 주식회사 로보러스 로봇 시스템
CN106599800A (zh) * 2016-11-25 2017-04-26 哈尔滨工程大学 一种基于深度学习的人脸微表情识别方法
KR101910158B1 (ko) * 2016-12-09 2018-12-19 동국대학교 산학협력단 회선 신경망 기반 눈 개폐 분류 장치 및 방법
CN107180225A (zh) * 2017-04-19 2017-09-19 华南理工大学 一种针对卡通人物面部表情的识别方法
JP6932987B2 (ja) * 2017-05-11 2021-09-08 オムロン株式会社 画像処理装置、画像処理プログラム、画像処理システム
EP3635626A1 (en) * 2017-05-31 2020-04-15 The Procter and Gamble Company System and method for guiding a user to take a selfie
US10818007B2 (en) 2017-05-31 2020-10-27 The Procter & Gamble Company Systems and methods for determining apparent skin age
GB201713829D0 (en) * 2017-08-29 2017-10-11 We Are Human Ltd Image data processing system and method
WO2019119396A1 (zh) * 2017-12-22 2019-06-27 中国科学院深圳先进技术研究院 人脸表情识别方法及装置
CN108564007B (zh) * 2018-03-27 2021-10-22 深圳市智能机器人研究院 一种基于表情识别的情绪识别方法和装置
US11373448B2 (en) 2018-04-04 2022-06-28 Panasonic Intellectual Property Management Co., Ltd. Emotion inference device, emotion inference method, and recording medium
US11755905B2 (en) 2018-06-22 2023-09-12 Semiconductor Energy Laboratory Co., Ltd. Data processing method, image display method, data processing device, and image display device
JP6992693B2 (ja) * 2018-07-23 2022-01-13 トヨタ自動車株式会社 乗員状態認識装置
CN109192275A (zh) 2018-08-06 2019-01-11 百度在线网络技术(北京)有限公司 人物精神状态的确定方法、装置及服务器
CN110909561A (zh) * 2018-09-14 2020-03-24 虹软科技股份有限公司 眼睛状态检测系统及眼睛状态检测系统的操作方法
KR20210130724A (ko) * 2019-02-22 2021-11-01 가부시키가이샤 한도오따이 에네루기 켄큐쇼 안경형 전자 기기
CN113785258A (zh) * 2019-03-22 2021-12-10 惠普发展公司,有限责任合伙企业 检测眼睛测量
US10423773B1 (en) * 2019-04-12 2019-09-24 Coupang, Corp. Computerized systems and methods for determining authenticity using micro expressions

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2822799B2 (ja) 1992-07-18 1998-11-11 日産自動車株式会社 運転者の状態検出装置
JP3018865B2 (ja) 1993-10-07 2000-03-13 富士ゼロックス株式会社 感情表出装置
JP3296118B2 (ja) * 1994-11-17 2002-06-24 トヨタ自動車株式会社 顔位置判定装置及び瞬き検出装置
US5909543A (en) * 1994-11-30 1999-06-01 Canon Kabushiki Kaisha Communication conference system and communication conference apparatus
JPH08294100A (ja) * 1995-04-20 1996-11-05 Canon Inc 通信端末及び監視システム
JP3658087B2 (ja) * 1995-07-04 2005-06-08 キヤノン株式会社 端末装置及び端末装置の制御方法
JP2962549B2 (ja) 1997-03-11 1999-10-12 株式会社エイ・ティ・アール知能映像通信研究所 顔動画像からの表情認識方法
JPH10336705A (ja) * 1997-06-02 1998-12-18 Canon Inc 複眼カメラ
JP3556439B2 (ja) * 1997-08-12 2004-08-18 三菱電機株式会社 顔画像処理装置
US6466685B1 (en) * 1998-07-14 2002-10-15 Kabushiki Kaisha Toshiba Pattern recognition apparatus and method
JP4087953B2 (ja) 1998-07-14 2008-05-21 株式会社東芝 パターン認識装置及びその方法
JP2000137792A (ja) 1998-10-30 2000-05-16 Toyota Motor Corp 眼部検出装置
US6704042B2 (en) * 1998-12-10 2004-03-09 Canon Kabushiki Kaisha Video processing apparatus, control method therefor, and storage medium
WO2000044580A1 (en) * 1999-01-27 2000-08-03 Compumedics Sleep Pty. Ltd. Vigilance monitoring system
CN1144166C (zh) * 1999-06-17 2004-03-31 现代自动车株式会社 瞌睡驾驶警告系统的驾驶员瞌睡检测方法
JP4161659B2 (ja) * 2002-02-27 2008-10-08 日本電気株式会社 画像認識システム及びその認識方法並びにプログラム
JP4123050B2 (ja) * 2003-05-16 2008-07-23 日産自動車株式会社 覚醒度レベル判定装置
JP4612806B2 (ja) 2003-07-18 2011-01-12 キヤノン株式会社 画像処理装置、画像処理方法、撮像装置
CN1839410B (zh) * 2003-07-18 2015-05-20 佳能株式会社 图像处理设备、摄像设备、图像处理方法
EP1650711B1 (en) * 2003-07-18 2015-03-04 Canon Kabushiki Kaisha Image processing device, imaging device, image processing method
US7253739B2 (en) 2005-03-10 2007-08-07 Delphi Technologies, Inc. System and method for determining eye closure state
JP2006287749A (ja) * 2005-04-01 2006-10-19 Canon Inc 撮像装置、及びその制御方法
DE602006009191D1 (de) * 2005-07-26 2009-10-29 Canon Kk Bildaufnahmegerät und -verfahren
JP4799104B2 (ja) * 2005-09-26 2011-10-26 キヤノン株式会社 情報処理装置及びその制御方法、コンピュータプログラム、記憶媒体
JP4799105B2 (ja) * 2005-09-26 2011-10-26 キヤノン株式会社 情報処理装置及びその制御方法、コンピュータプログラム、記憶媒体
EP1962497B1 (en) * 2005-11-25 2013-01-16 Nikon Corporation Electronic camera and image processing device
CN1830389A (zh) 2006-04-21 2006-09-13 太原理工大学 疲劳驾驶状态监控装置及方法
JP4845755B2 (ja) * 2007-01-30 2011-12-28 キヤノン株式会社 画像処理装置、画像処理方法、プログラム及び記憶媒体

Also Published As

Publication number Publication date
US20090003709A1 (en) 2009-01-01
CN101334839A (zh) 2008-12-31
EP2009577A1 (en) 2008-12-31
CN101334839B (zh) 2013-08-14
DE602008005958D1 (de) 2011-05-19
JP2009015372A (ja) 2009-01-22
US8538091B2 (en) 2013-09-17
EP2009577B1 (en) 2011-04-06

Similar Documents

Publication Publication Date Title
JP4974788B2 (ja) 画像処理装置、画像処理方法、プログラム、及び記憶媒体
JP4999570B2 (ja) 表情認識装置及び方法、並びに撮像装置
US9258482B2 (en) Facial expression recognition apparatus, image sensing apparatus, facial expression recognition method, and computer-readable storage medium
JP4845755B2 (ja) 画像処理装置、画像処理方法、プログラム及び記憶媒体
US8797448B2 (en) Rapid auto-focus using classifier chains, MEMS and multiple object focusing
US8130281B2 (en) Information processing apparatus, eye open/closed degree determination method, computer-readable storage medium, and image sensing apparatus
US8077215B2 (en) Apparatus for detecting blinking state of eye
US7986346B2 (en) Image capturing apparatus, control method therefor, program, and storage medium
US8942436B2 (en) Image processing device, imaging device, image processing method
KR101539043B1 (ko) 인물 구도 제안 영상 촬영 장치 및 방법
JP2009163555A (ja) 顔照合装置
CN112036311A (zh) 基于眼部状态检测的图像处理方法、装置及存储介质
Dixit et al. SIFRS: Spoof Invariant Facial Recognition System (A Helping Hand for Visual Impaired People)

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100629

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100629

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120312

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120410

R151 Written notification of patent or utility model registration

Ref document number: 4974788

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150420

Year of fee payment: 3