JP2018160791A - 画像解析装置、画像解析システム、画像解析方法及びプログラム - Google Patents
画像解析装置、画像解析システム、画像解析方法及びプログラム Download PDFInfo
- Publication number
- JP2018160791A JP2018160791A JP2017056798A JP2017056798A JP2018160791A JP 2018160791 A JP2018160791 A JP 2018160791A JP 2017056798 A JP2017056798 A JP 2017056798A JP 2017056798 A JP2017056798 A JP 2017056798A JP 2018160791 A JP2018160791 A JP 2018160791A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- facial expression
- image analysis
- data including
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
【課題】表情認識の性能を向上させる。【解決手段】画像解析装置100は、ユーザ(被験者)の顔が含まれる複数の画像データにおける、所定の表情(ニュートラル顔)が含まれている画像データを特定し、特定された画像データに基づき、ユーザの顔の表情を判定する。【選択図】図1
Description
本発明は、表情を推定する画像解析装置、画像解析システム、画像解析方法及びプログラムに関する。
従来、人の顔が含まれる画像を解析することによって、この人の表情を識別する表情認識技術がある。このような表情認識技術では、例えば、笑顔度のログ情報を解析して、評価条件となる笑顔の閾値をユーザ毎に自動的に最適化する技術が開示されている(特許文献1参照)。
しかしながら、上記特許文献1に開示されている技術において、笑顔の閾値は、個人ごとの保存されている笑顔度の平均値を利用しているため、本来、笑顔として判別するべき場合でも笑顔として判別されないケースが起こり得る。
本発明は、このような問題に鑑みてなされたものであり、表情認識の性能を向上させることを目的とする。
上記課題を解決するため、本発明に係る画像解析装置は、
被験者の顔が含まれる複数の画像データにおける、所定の表情が含まれている画像データを特定する特定手段と、
前記特定手段により特定された画像データに基づき、被験者の顔の表情を判定する表情判定手段と、
を備えることを特徴とする。
被験者の顔が含まれる複数の画像データにおける、所定の表情が含まれている画像データを特定する特定手段と、
前記特定手段により特定された画像データに基づき、被験者の顔の表情を判定する表情判定手段と、
を備えることを特徴とする。
本発明によれば、表情識別の性能を向上させることができる。
以下、本発明の画像解析装置、画像解析システム、画像解析方法及びプログラムに係る実施の形態を図面に基づいて説明する。なお、本発明の画像解析装置は、ユーザの顔を撮影して認識することが可能なロボットであるものとして、以下説明を行う。
[画像解析装置100の構成]
図1は、本実施形態の画像解析装置100の機能的構成を示すブロック図である。
図1に示すように、画像解析装置100は、CPU1と、RAM2と、記憶部3と、操作部4と、撮影部5と、音声入出力部6と、通信部7とを備えている。また、画像解析装置100の各部は、バス8を介して接続されている。
図1は、本実施形態の画像解析装置100の機能的構成を示すブロック図である。
図1に示すように、画像解析装置100は、CPU1と、RAM2と、記憶部3と、操作部4と、撮影部5と、音声入出力部6と、通信部7とを備えている。また、画像解析装置100の各部は、バス8を介して接続されている。
CPU(特定手段、表情判定手段、取得手段、補正値算出手段)1は、記憶部3のプログラム記憶部3aに記憶されているシステムプログラムやアプリケーションプログラムを読み出してRAM2のワークエリアに展開し、当該プログラムに従って画像解析装置100の各部の動作を制御する。
RAM2は、例えば、揮発性のメモリであり、CPU1により読み出された各種のプログラムやデータを一時的に格納するワークエリアを有する。
記憶部3は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、EEPROM(Electrically Erasable Programmable Read Only Memory)、フラッシュメモリなどにより構成される。
記憶部3には、プログラム記憶部3aが設けられている。プログラム記憶部3aには、CPU1で実行されるシステムプログラムや、各種処理を実行するための処理プログラム、これらのプログラムの実行に必要なデータ等が記憶されている。
記憶部3には、プログラム記憶部3aが設けられている。プログラム記憶部3aには、CPU1で実行されるシステムプログラムや、各種処理を実行するための処理プログラム、これらのプログラムの実行に必要なデータ等が記憶されている。
また、記憶部3には、表情データログ記憶部3bが設けられている。表情データログ記憶部3bには、ユーザを識別する個人識別IDごとに、撮影部5によりユーザの顔が撮影された動画像の画像データと、当該画像データに含まれるユーザの顔の各表情(例えば、喜び、驚き、恐怖、嫌悪、怒り、悲しみ、ニュートラル顔(平常時の顔))を識別する2クラス識別器である表情識別器(例えば、喜び識別器、驚き識別器、恐怖識別器、嫌悪識別器、怒り識別器、悲しみ識別器、ニュートラル顔識別器)の出力値と、当該動画像の撮影時刻と、後述するニュートラル顔判定処理がなされた画像データについては、当該ニュートラル顔判定処理の判定結果と、が対応付けられた表情データログとして記憶されている。上記の各表情を識別する夫々の表情識別器の出力値は、プログラム記憶部3aに記憶されている個人適応表情認識プログラム(図示省略)がCPU1により実行されることにより、自動的に導出されるようになっている。
また、記憶部3には、バイアス値データ記憶部3cが設けられている。バイアス値データ記憶部3cには、ユーザを識別する個人識別IDごとに、各表情識別器の出力値を補正するための個人適応バイアス値(補正値)が記憶されている。上記の個人適応バイアス値は、プログラム記憶部3aに記憶されている個人適応表情認識プログラム(図示省略)がCPU1により実行されることにより、自動的に導出されるようになっている。
操作部4は、画像解析装置100本体に対して各種指示を入力するためのものである。
具体的には、操作部4は、例えば、画像解析装置100本体の電源のON/OFFに係る電源ボタン、モードや機能等の選択指示に係るカーソルボタンや決定ボタン(何れも図示略)を備えている。
そして、ユーザにより各種ボタンが操作されると、操作部4は、操作されたボタンに応じた操作指示をCPU1に出力する。CPU1は、操作部4から出力され入力された操作指示に従って所定の動作を各部に実行させる。
具体的には、操作部4は、例えば、画像解析装置100本体の電源のON/OFFに係る電源ボタン、モードや機能等の選択指示に係るカーソルボタンや決定ボタン(何れも図示略)を備えている。
そして、ユーザにより各種ボタンが操作されると、操作部4は、操作されたボタンに応じた操作指示をCPU1に出力する。CPU1は、操作部4から出力され入力された操作指示に従って所定の動作を各部に実行させる。
撮影部5は、被写体となるユーザを撮影して撮影画像を生成する。撮影部5は、図示は省略するが、光学系及び撮像素子を備えるカメラと、カメラを制御する撮影制御部とを備えている。撮像素子は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサである。そして、撮像素子は、光学系を通過した光学像を2次元の画像信号に変換する。カメラの光学系は、ロボットである画像解析装置100と向き合っているユーザを正面から撮影可能な方向に向けられている。
音声入出力部6は、マイク、ADコンバーター等の音声入力部と、DAコンバーター、アンプ、スピーカー等の音声出力部と、で構成される。音声入出力部6は、音声入力時に、マイクからユーザの音声の入力を受け付け、音声入力信号をデジタルの音声入力情報に変換してCPU1に出力し、音声出力時に、音声出力信号をアナログの音声出力信号に変換してスピーカーから音声出力する。
通信部7は、例えば、ネットワークカード、モデム、TA、ルータなどにより構成される。また、通信部7は、アンテナ、変復調回路、信号処理回路などを備え無線通信が可能な構成であってもよい。通信部7は、通信ネットワーク上のサーバなどの外部機器と通信接続してデータ送受信を行う。
なお、ロボットとしての画像解析装置100において、駆動部等の他の構成部は図示及び説明を省略している。
なお、ロボットとしての画像解析装置100において、駆動部等の他の構成部は図示及び説明を省略している。
[画像解析装置100の動作]
次に、本実施形態における画像解析装置100の動作について説明する。
次に、本実施形態における画像解析装置100の動作について説明する。
<ニュートラル顔判定処理>
図2は、ニュートラル顔判定処理を示すフローチャートである。ニュートラル顔判定処理は、後述のバイアス値算出処理に用いられるニュートラル顔の画像(フレーム画像)を抽出するための処理である。
図2は、ニュートラル顔判定処理を示すフローチャートである。ニュートラル顔判定処理は、後述のバイアス値算出処理に用いられるニュートラル顔の画像(フレーム画像)を抽出するための処理である。
図2に示すように、CPU1は、先ず、表情データログ記憶部3bから対象となるユーザの個人識別IDに対応する表情データログを読み出す(ステップS101)。次いで、CPU1は、読み出された表情データログに含まれている各フレーム画像のニュートラル顔識別器(ニュートラル顔を識別する表情識別器)の出力値に基づいてヒストグラムを作成し、最頻値(mode)を算出する(ステップS102)。
次いで、CPU1は、各フレーム画像のニュートラル顔識別器の出力値(val_neu)を順次取得し(ステップS103)、取得した当該出力値が|val_neu−mode|<Th(閾値)の条件を満たすか、すなわち当該出力値が最頻値(mode)を含む所定の範囲に含まれるか否かを判定する(ステップS104)。
ステップS104において、取得した出力値が|val_neu−mode|<Th(閾値)の条件を満たすと判定された場合(ステップS104;YES)、CPU1は、当該出力値が導出されたフレーム画像に含まれるユーザの顔がニュートラル顔であると判定し(ステップS105)、当該判定の結果を表情データログ記憶部3bに登録する(ステップS107)。
一方、ステップS104において、取得した出力値が|val_neu−mode|<Th(閾値)の条件を満たさないと判定された場合(ステップS104;NO)、CPU1は、当該出力値が導出されたフレーム画像に含まれるユーザの顔がニュートラル顔でないと判定し(ステップS106)、当該判定の結果を表情データログ記憶部3bに登録する(ステップS107)。
ステップS104において、取得した出力値が|val_neu−mode|<Th(閾値)の条件を満たすと判定された場合(ステップS104;YES)、CPU1は、当該出力値が導出されたフレーム画像に含まれるユーザの顔がニュートラル顔であると判定し(ステップS105)、当該判定の結果を表情データログ記憶部3bに登録する(ステップS107)。
一方、ステップS104において、取得した出力値が|val_neu−mode|<Th(閾値)の条件を満たさないと判定された場合(ステップS104;NO)、CPU1は、当該出力値が導出されたフレーム画像に含まれるユーザの顔がニュートラル顔でないと判定し(ステップS106)、当該判定の結果を表情データログ記憶部3bに登録する(ステップS107)。
次いで、CPU1は、ニュートラル顔であるか否かの判定を行っていないフレーム画像があるか否かを判定する(ステップS108)。
ステップS108において、ニュートラル顔であるか否かの判定を行っていないフレーム画像があると判定された場合(ステップS108;YES)、CPU1は、ステップS103に戻り、それ以降の処理を繰り返し行う。
一方、ステップS108において、ニュートラル顔であるか否かの判定を行っていないフレーム画像がない、すなわち表情データログとして記憶されている動画像の全てのフレーム画像に対して判定がなされた場合(ステップS108;NO)、CPU1は、ニュートラル顔判定処理を終了する。
ステップS108において、ニュートラル顔であるか否かの判定を行っていないフレーム画像があると判定された場合(ステップS108;YES)、CPU1は、ステップS103に戻り、それ以降の処理を繰り返し行う。
一方、ステップS108において、ニュートラル顔であるか否かの判定を行っていないフレーム画像がない、すなわち表情データログとして記憶されている動画像の全てのフレーム画像に対して判定がなされた場合(ステップS108;NO)、CPU1は、ニュートラル顔判定処理を終了する。
<バイアス値算出処理>
図3は、バイアス値算出処理を示すフローチャートである。バイアス値算出処理は、後述の個人適応表情認識処理により導出される各表情識別器の出力値を補正する際に用いられるバイアス値(補正値)を算出する処理である。
図3は、バイアス値算出処理を示すフローチャートである。バイアス値算出処理は、後述の個人適応表情認識処理により導出される各表情識別器の出力値を補正する際に用いられるバイアス値(補正値)を算出する処理である。
図3に示すように、CPU1は、先ず、対象となるユーザの個人識別IDに対応する表情データログから上述のニュートラル顔判定処理によりニュートラル顔であると判定されたフレーム画像を取得する(ステップS201)。次いで、CPU1は、取得した各フレーム画像の各表情識別器での出力値平均を算出する(ステップS202)。次いで、CPU1は、算出された各表情識別器の出力値平均の値を個人適応バイアス値として、対象となるユーザの個人識別IDと対応付けてバイアス値データ記憶部3cに登録し(ステップS203)、バイアス値算出処理を終了する。
<個人適応表情認識処理>
図4は、個人適応表情認識処理を示すフローチャートである。個人適応表情認識処理は、CPU1とプログラム記憶部3aに記憶されているプログラム(例えば、個人適応表情認識プログラム(図示省略))との協働により実行される。また、本実施形態では、個人適応表情認識プログラムの実行を契機として、撮影部5による撮影が開始されるとともに、音声入出力部6を介して画像解析装置100との対話が可能となる対話プログラム(図示省略)が実行されるようになっている。
図4は、個人適応表情認識処理を示すフローチャートである。個人適応表情認識処理は、CPU1とプログラム記憶部3aに記憶されているプログラム(例えば、個人適応表情認識プログラム(図示省略))との協働により実行される。また、本実施形態では、個人適応表情認識プログラムの実行を契機として、撮影部5による撮影が開始されるとともに、音声入出力部6を介して画像解析装置100との対話が可能となる対話プログラム(図示省略)が実行されるようになっている。
図4に示すように、CPU1は、先ず、現在時刻T1を計時部(図示省略)より取得する(ステップS301)。次いで、CPU1は、表情認識処理を行う(ステップS302)。この表情認識処理では、撮影部5より逐次取得される画像データに基づいて、ユーザを識別する個人識別処理が行われるとともに、各表情識別器の出力値が取得されることとなる。そして、個人識別処理により特定されたユーザの個人識別IDに対応する個人適応バイアス値がバイアス値データ記憶部3cから取得され、当該個人適応バイアス値を用いて上記各表情識別器の出力値が補正されることとなる。そして、当該補正された値に基づき表情認識が行われるようになっている。なお、個人識別処理は、顔画像特徴量や音声特徴量を抽出し、顔画像データベースや音声データベースと比較することにより個人識別を行うといった公知の技術を用いているためその詳細な説明は省略する。
次いで、CPU1は、現在時刻T2を計時部(図示省略)より取得する(ステップS303)。そして、CPU1は、現在時刻T2がステップS301で現在時刻T1を取得した時点より所定時間を経過した時刻であるか否かを判定する(ステップS304)。
ステップS304において、現在時刻T2がステップS301で現在時刻T1を取得した時点より所定時間T(例えば3分)を経過した時刻でないと判定された場合(ステップS304;NO)、CPU1は、ステップS302に戻り、それ以降の処理を繰り返し行う。
一方、ステップS304において、現在時刻T2がステップS301で現在時刻T1を取得した時点より所定時間Tを経過した時刻であると判定された場合(ステップS304;YES)、CPU1は、現在時刻T2の所定時間T前から当該現在時刻T2までの期間の表情データログを用いてニュートラル顔判定処理(ステップS305)を実行した後、バイアス値算出処理(ステップS306)を実行する。なお、ニュートラル顔判定処理及びバイアス値算出処理の詳細については、既に説明を行っているためその説明は省略する。
ステップS304において、現在時刻T2がステップS301で現在時刻T1を取得した時点より所定時間T(例えば3分)を経過した時刻でないと判定された場合(ステップS304;NO)、CPU1は、ステップS302に戻り、それ以降の処理を繰り返し行う。
一方、ステップS304において、現在時刻T2がステップS301で現在時刻T1を取得した時点より所定時間Tを経過した時刻であると判定された場合(ステップS304;YES)、CPU1は、現在時刻T2の所定時間T前から当該現在時刻T2までの期間の表情データログを用いてニュートラル顔判定処理(ステップS305)を実行した後、バイアス値算出処理(ステップS306)を実行する。なお、ニュートラル顔判定処理及びバイアス値算出処理の詳細については、既に説明を行っているためその説明は省略する。
次いで、CPU1は、バイアス値データ記憶部3cに記憶されている直近の個人適応バイアス値(classifierBias_i)と、ステップS306で算出された個人適応バイアス値(classifierBias_cur_i)との差(biasDiff=Σ|classifierBias_i- classifierBias_cur_i|)を算出する(ステップS307)。そして、CPU1は、算出された差(biasDiff)の値が所定の閾値(TH_biasDiff)よりも小さいか否かを判定する(ステップS308)。
ステップS308において、算出された差(biasDiff)の値が所定の閾値(TH_biasDiff)よりも小さくない、すなわち所定の閾値以上であると判定された場合(ステップS308;NO)、CPU1は、バイアス値データ記憶部3cに記憶されている直近の個人適応バイアス値を、ステップS306で算出された個人適応バイアス値に更新し(ステップS309)、ステップS301に戻り、それ以降の処理を繰り返し行う。
一方、ステップS308において、算出された差(biasDiff)の値が所定の閾値(TH_biasDiff)よりも小さいと判定された場合(ステップS308;YES)、CPU1は、ステップS309をスキップ、すなわちバイアス値データ記憶部3cに記憶されている直近の個人適応バイアス値を更新せずにステップS301に戻り、それ以降の処理を繰り返し行う。
ステップS308において、算出された差(biasDiff)の値が所定の閾値(TH_biasDiff)よりも小さくない、すなわち所定の閾値以上であると判定された場合(ステップS308;NO)、CPU1は、バイアス値データ記憶部3cに記憶されている直近の個人適応バイアス値を、ステップS306で算出された個人適応バイアス値に更新し(ステップS309)、ステップS301に戻り、それ以降の処理を繰り返し行う。
一方、ステップS308において、算出された差(biasDiff)の値が所定の閾値(TH_biasDiff)よりも小さいと判定された場合(ステップS308;YES)、CPU1は、ステップS309をスキップ、すなわちバイアス値データ記憶部3cに記憶されている直近の個人適応バイアス値を更新せずにステップS301に戻り、それ以降の処理を繰り返し行う。
以上のように、本実施形態の画像解析装置100は、ユーザ(被験者)の顔が含まれる複数の画像データにおける、所定の表情が含まれている画像データを特定し、特定された画像データに基づき、ユーザの顔の表情を判定したこととなる。
このため、各ユーザが有する表情の特性を考慮して当該各ユーザの顔の表情を判定することができるので、表情認識の性能を向上させることができる。
このため、各ユーザが有する表情の特性を考慮して当該各ユーザの顔の表情を判定することができるので、表情認識の性能を向上させることができる。
また、所定の表情が含まれている画像データは、ユーザ(被験者)の平常時の顔(ニュートラル顔)を識別するための画像データである。
このため、最も撮影される頻度が高い表情を基準としてユーザの顔の表情を判定することができるので、表情認識の性能をより一層向上させることができる。
このため、最も撮影される頻度が高い表情を基準としてユーザの顔の表情を判定することができるので、表情認識の性能をより一層向上させることができる。
また、本実施形態の画像解析装置100は、複数の画像データをユーザ(被験者)の平常時の顔を識別する第1の識別器(ニュートラル顔識別器)に入力し、当該第1の識別器より出力される第1の出力値の頻度分布に基づき、所定の表情が含まれている画像データを特定するので、当該画像データの特定を精度良く行うことができる。
また、本実施形態の画像解析装置100は、上記第1の出力値の頻度分布において、第1の識別器(ニュートラル顔識別器)より出力される第1の出力値のうち最も頻度が高い第1の出力値を含む画像データを所定の表情が含まれている画像データとして特定するので、当該画像データの特定の精度を向上させることができる。
また、本実施形態の画像解析装置100は、ユーザ(被験者)の顔が含まれる画像データを当該ユーザの平常時の顔とは異なる特定の表情(例えば、喜び、驚き、恐怖、嫌悪、怒り、悲しみ)を識別する第2の識別器(喜び識別器、驚き識別器、恐怖識別器、嫌悪識別器、怒り識別器、悲しみ識別器)に入力し、当該第2の識別器より出力される第2の出力値を取得したこととなるので、平常時の顔とは異なる特定の表情に関して表情認識を行うことができる。
また、本実施形態の画像解析装置100は、表情の個人差を補正するための個人適応バイアス値(補正値)を算出し、第2の出力値を当該個人適応バイアス値(補正値)によって補正した値に基づき、特定の表情を判定するので、当該特定の表情に関する表情認識の性能を向上させることができる。
また、本実施形態の画像解析装置100は、個人適応バイアス値を算出する際、所定の表情が含まれている画像データに含まれる複数の画像データのみを対象とする第2の出力値に基づき、当該個人適応バイアス値を算出するので、個人適応バイアス値の精度を向上させることができる。
また、本実施形態の画像解析装置100は、個人適応バイアス値を算出する際、上記第2の出力値の平均値を個人適応バイアス値として算出するので、個人適応バイアス値の精度をより向上させることができる。
また、本実施形態の画像解析装置100は、複数の画像データにおける表情の出現頻度に基づいて、所定の表情が含まれている画像データを特定するので、当該画像データの特定を精度良く行うことができる。
以上、本発明の実施形態について説明したが、本発明は、かかる実施形態に限定されず、その要旨を逸脱しない範囲で、種々変形が可能であることは言うまでもない。
例えば、ニュートラル顔判定処理において、ニュートラル顔識別器の出力値が最頻値(mode)を含む所定の範囲(表情識別範囲)に含まれるか否かを、ニュートラル顔であるか否かの判定基準としたが、ニュートラル顔識別器の出力値のうち最も頻度が低い出力値を含まない所定の範囲に含まれるか否かを、ニュートラル顔であるか否かの判定基準としてもよい。また、ニュートラル顔識別器の出力値の頻度に基づき、例えば、当該頻度の平均値や、分散、中央値等を用いることによって、ニュートラル顔であるか否かの判定基準を設けるようにしてもよい。
また、バイアス値算出処理において、当該バイアス値算出処理の対象となる画像データを、ニュートラル顔判定処理においてニュートラル顔であると判定されたフレーム画像に限定したうえで個人適応バイアス値を算出するようにしたが、当該算出の方法は一例に過ぎない。例えば、画像データを構成する全てのフレーム画像を対象とし、各表情識別器で出力される出力値のヒストグラムをそれぞれ作成し、頻度が高い出力値の範囲と、頻度が低い出力値の範囲と、にそれぞれ重み付けを持たせて、個人適応バイアス値を算出するようにしてもよい。このような算出方法を用いた場合、ニュートラル顔であると判定されたフレーム画像に限定する処理を省くことができるので、バイアス値算出処理の負担軽減を図ることができる。
また、ニュートラル顔判定処理において、ニュートラル顔識別器の出力値が最頻値(mode)を含む所定の範囲(表情識別範囲)に含まれるか否かを、ニュートラル顔であるか否かの判定基準としたが、例えば、ニュートラル顔識別器以外の表情識別器(例えば、喜び識別器)において、当該表情識別器の識別対象である表情(例えば、喜びの表情)と識別されなかった範囲を、ニュートラル顔であるか否かの判定基準としてもよい。
また、各表情識別器として2クラス識別器を一例に挙げ説明を行ったが、表情識別器は、2クラス識別器に限らず、表情を識別可能な他の識別器であってもよい。
また、個人適応表情認識処理において用いられる画像データは、撮影部5によって撮影された動画像の画像データを一例として説明を行ったが、当該画像データは記憶部3に記録されている画像データでもよく、また、当該画像データは、静止画像に係る画像データでも動画像に係る画像データであってもよい。
また、表情データログ記憶部3bに記録される表情データログは、動画像が撮影された際の照明条件や、時間帯、場所等の情報をさらに対応付けて記録するようにしてもよい。このような表情データログを記録しておくことによって、バイアス値算出処理を行う場合に、そのときの状況に適した表情データログを選択して用いることができるようになるので、バイアス値の算出の精度を向上させることができる。
また、画像解析装置100は、少なくとも逐次取得されるユーザ(被験者)の顔が含まれる画像データにおける表情の出現比率に基づき、所定の表情を識別するための表情識別範囲を設定し、当該表情識別範囲に含まれる画像データに基づき、表情の個人差を補正するための個人適応バイアス値(補正値)を算出することができればよく、例えば、逐次取得されるユーザの顔が含まれる画像データは、外部のサーバから通信部7を介して取得するようにしてもよい。つまり、画像解析装置100と、ユーザの顔が含まれる画像データを配信するサーバと、を備える画像解析システムにおいて、画像解析装置100が当該サーバから逐次取得される被験者の顔が含まれる画像データにおける表情の出現比率に基づき、所定の表情を識別するための表情識別範囲を設定し、当該画像データのうち表情識別範囲に含まれる画像データに基づき、表情の個人差を補正するための補正値を算出する。
以上、本発明の実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲をその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
<請求項1>
被験者の顔が含まれる複数の画像データにおける、所定の表情が含まれている画像データを特定する特定手段と、
前記特定手段により特定された画像データに基づき、被験者の顔の表情を判定する表情判定手段と、
を備えることを特徴とする画像解析装置。
<請求項2>
前記所定の表情が含まれている画像データは、前記被験者の平常時の顔を識別するための画像データであることを特徴とする請求項1に記載の画像解析装置。
<請求項3>
前記特定手段は、前記複数の画像データを前記被験者の平常時の顔を識別する第1の識別器に入力し、当該第1の識別器より出力される第1の出力値の頻度分布に基づき、前記所定の表情が含まれている画像データを特定することを特徴とする請求項2に記載の画像解析装置。
<請求項4>
前記特定手段は、前記第1の出力値の頻度分布において、前記第1の識別器より出力される第1の出力値のうち最も頻度が高い第1の出力値を含む画像データを前記所定の表情が含まれている画像データとして特定することを特徴とする請求項3に記載の画像解析装置。
<請求項5>
被験者の顔が含まれる前記複数の画像データを前記被験者の平常時の顔とは異なる特定の表情を識別する第2の識別器に入力し、当該第2の識別器より出力される第2の出力値を取得する取得手段をさらに備えることを特徴とする請求項3又は4に記載の画像解析装置。
<請求項6>
表情の個人差を補正するための補正値を算出する補正値算出手段を更に備え、
前記表情判定手段は、前記取得手段により取得される前記第2の出力値を前記補正値算出手段により算出された前記補正値によって補正した値に基づき、前記特定の表情を判定することを特徴とする請求項5に記載の画像解析装置。
<請求項7>
前記補正値算出手段は、前記取得手段により取得される、前記所定の表情が含まれている画像データに含まれる前記複数の画像データのみを対象とする前記第2の出力値に基づき、前記補正値を算出することを特徴とする請求項5又は6に記載の画像解析装置。
<請求項8>
前記補正値算出手段は、前記取得手段により取得される前記第2の出力値の平均値を前記補正値として算出することを特徴とする請求項7に記載の画像解析装置。
<請求項9>
前記特定手段は、前記複数の画像データにおける表情の出現頻度に基づいて、前記所定の表情が含まれている画像データを特定することを特徴とする請求項1〜8のいずれか1項に記載の画像解析装置。
<請求項10>
画像解析装置と、被験者の顔が含まれる複数の画像データを配信するサーバと、を備える画像解析システムであって、
前記画像解析装置は、
前記サーバから取得される被験者の顔が含まれる複数の画像データにおける、所定の表情が含まれている画像データを特定する特定手段と、
前記特定手段により特定された画像データに基づき、被験者の顔の表情を判定する表情判定手段と、
を備えることを特徴とする画像解析システム。
<請求項11>
被験者の顔が含まれる複数の画像データにおける、所定の表情が含まれている画像データを特定する特定ステップと、
前記特定ステップにより特定された画像データに基づき、被験者の顔の表情を判定する表情判定ステップと、
を含むことを特徴とする画像解析方法。
<請求項12>
コンピュータを、
被験者の顔が含まれる複数の画像データにおける、所定の表情が含まれている画像データを特定する特定手段、
前記特定手段により特定された画像データに基づき、被験者の顔の表情を判定する表情判定手段、
として機能させることを特徴とするプログラム。
<請求項1>
被験者の顔が含まれる複数の画像データにおける、所定の表情が含まれている画像データを特定する特定手段と、
前記特定手段により特定された画像データに基づき、被験者の顔の表情を判定する表情判定手段と、
を備えることを特徴とする画像解析装置。
<請求項2>
前記所定の表情が含まれている画像データは、前記被験者の平常時の顔を識別するための画像データであることを特徴とする請求項1に記載の画像解析装置。
<請求項3>
前記特定手段は、前記複数の画像データを前記被験者の平常時の顔を識別する第1の識別器に入力し、当該第1の識別器より出力される第1の出力値の頻度分布に基づき、前記所定の表情が含まれている画像データを特定することを特徴とする請求項2に記載の画像解析装置。
<請求項4>
前記特定手段は、前記第1の出力値の頻度分布において、前記第1の識別器より出力される第1の出力値のうち最も頻度が高い第1の出力値を含む画像データを前記所定の表情が含まれている画像データとして特定することを特徴とする請求項3に記載の画像解析装置。
<請求項5>
被験者の顔が含まれる前記複数の画像データを前記被験者の平常時の顔とは異なる特定の表情を識別する第2の識別器に入力し、当該第2の識別器より出力される第2の出力値を取得する取得手段をさらに備えることを特徴とする請求項3又は4に記載の画像解析装置。
<請求項6>
表情の個人差を補正するための補正値を算出する補正値算出手段を更に備え、
前記表情判定手段は、前記取得手段により取得される前記第2の出力値を前記補正値算出手段により算出された前記補正値によって補正した値に基づき、前記特定の表情を判定することを特徴とする請求項5に記載の画像解析装置。
<請求項7>
前記補正値算出手段は、前記取得手段により取得される、前記所定の表情が含まれている画像データに含まれる前記複数の画像データのみを対象とする前記第2の出力値に基づき、前記補正値を算出することを特徴とする請求項5又は6に記載の画像解析装置。
<請求項8>
前記補正値算出手段は、前記取得手段により取得される前記第2の出力値の平均値を前記補正値として算出することを特徴とする請求項7に記載の画像解析装置。
<請求項9>
前記特定手段は、前記複数の画像データにおける表情の出現頻度に基づいて、前記所定の表情が含まれている画像データを特定することを特徴とする請求項1〜8のいずれか1項に記載の画像解析装置。
<請求項10>
画像解析装置と、被験者の顔が含まれる複数の画像データを配信するサーバと、を備える画像解析システムであって、
前記画像解析装置は、
前記サーバから取得される被験者の顔が含まれる複数の画像データにおける、所定の表情が含まれている画像データを特定する特定手段と、
前記特定手段により特定された画像データに基づき、被験者の顔の表情を判定する表情判定手段と、
を備えることを特徴とする画像解析システム。
<請求項11>
被験者の顔が含まれる複数の画像データにおける、所定の表情が含まれている画像データを特定する特定ステップと、
前記特定ステップにより特定された画像データに基づき、被験者の顔の表情を判定する表情判定ステップと、
を含むことを特徴とする画像解析方法。
<請求項12>
コンピュータを、
被験者の顔が含まれる複数の画像データにおける、所定の表情が含まれている画像データを特定する特定手段、
前記特定手段により特定された画像データに基づき、被験者の顔の表情を判定する表情判定手段、
として機能させることを特徴とするプログラム。
100 画像解析装置
1 CPU
2 RAM
3 記憶部
3a プログラム記憶部
3b 表情データログ記憶部
3c バイアス値データ記憶部
4 操作部
5 撮影部
6 音声入出部
7 通信部
1 CPU
2 RAM
3 記憶部
3a プログラム記憶部
3b 表情データログ記憶部
3c バイアス値データ記憶部
4 操作部
5 撮影部
6 音声入出部
7 通信部
Claims (12)
- 被験者の顔が含まれる複数の画像データにおける、所定の表情が含まれている画像データを特定する特定手段と、
前記特定手段により特定された画像データに基づき、被験者の顔の表情を判定する表情判定手段と、
を備えることを特徴とする画像解析装置。 - 前記所定の表情が含まれている画像データは、前記被験者の平常時の顔を識別するための画像データであることを特徴とする請求項1に記載の画像解析装置。
- 前記特定手段は、前記複数の画像データを前記被験者の平常時の顔を識別する第1の識別器に入力し、当該第1の識別器より出力される第1の出力値の頻度分布に基づき、前記所定の表情が含まれている画像データを特定することを特徴とする請求項2に記載の画像解析装置。
- 前記特定手段は、前記第1の出力値の頻度分布において、前記第1の識別器より出力される第1の出力値のうち最も頻度が高い第1の出力値を含む画像データを前記所定の表情が含まれている画像データとして特定することを特徴とする請求項3に記載の画像解析装置。
- 被験者の顔が含まれる前記複数の画像データを前記被験者の平常時の顔とは異なる特定の表情を識別する第2の識別器に入力し、当該第2の識別器より出力される第2の出力値を取得する取得手段をさらに備えることを特徴とする請求項3又は4に記載の画像解析装置。
- 表情の個人差を補正するための補正値を算出する補正値算出手段を更に備え、
前記表情判定手段は、前記取得手段により取得される前記第2の出力値を前記補正値算出手段により算出された前記補正値によって補正した値に基づき、前記特定の表情を判定することを特徴とする請求項5に記載の画像解析装置。 - 前記補正値算出手段は、前記取得手段により取得される、前記所定の表情が含まれている画像データに含まれる前記複数の画像データのみを対象とする前記第2の出力値に基づき、前記補正値を算出することを特徴とする請求項5又は6に記載の画像解析装置。
- 前記補正値算出手段は、前記取得手段により取得される前記第2の出力値の平均値を前記補正値として算出することを特徴とする請求項7に記載の画像解析装置。
- 前記特定手段は、前記複数の画像データにおける表情の出現頻度に基づいて、前記所定の表情が含まれている画像データを特定することを特徴とする請求項1〜8のいずれか1項に記載の画像解析装置。
- 画像解析装置と、被験者の顔が含まれる複数の画像データを配信するサーバと、を備える画像解析システムであって、
前記画像解析装置は、
前記サーバから取得される被験者の顔が含まれる複数の画像データにおける、所定の表情が含まれている画像データを特定する特定手段と、
前記特定手段により特定された画像データに基づき、被験者の顔の表情を判定する表情判定手段と、
を備えることを特徴とする画像解析システム。 - 被験者の顔が含まれる複数の画像データにおける、所定の表情が含まれている画像データを特定する特定ステップと、
前記特定ステップにより特定された画像データに基づき、被験者の顔の表情を判定する表情判定ステップと、
を含むことを特徴とする画像解析方法。 - コンピュータを、
被験者の顔が含まれる複数の画像データにおける、所定の表情が含まれている画像データを特定する特定手段、
前記特定手段により特定された画像データに基づき、被験者の顔の表情を判定する表情判定手段、
として機能させることを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017056798A JP2018160791A (ja) | 2017-03-23 | 2017-03-23 | 画像解析装置、画像解析システム、画像解析方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017056798A JP2018160791A (ja) | 2017-03-23 | 2017-03-23 | 画像解析装置、画像解析システム、画像解析方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018160791A true JP2018160791A (ja) | 2018-10-11 |
Family
ID=63796883
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017056798A Pending JP2018160791A (ja) | 2017-03-23 | 2017-03-23 | 画像解析装置、画像解析システム、画像解析方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018160791A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020163660A (ja) * | 2019-03-29 | 2020-10-08 | コニカミノルタ株式会社 | 画像形成装置 |
-
2017
- 2017-03-23 JP JP2017056798A patent/JP2018160791A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020163660A (ja) * | 2019-03-29 | 2020-10-08 | コニカミノルタ株式会社 | 画像形成装置 |
JP7211210B2 (ja) | 2019-03-29 | 2023-01-24 | コニカミノルタ株式会社 | 画像形成装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5567853B2 (ja) | 画像認識装置および方法 | |
JP6866889B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
US20200120262A1 (en) | Image processing device, image processing method, and program | |
US20130243328A1 (en) | Registration determination device, control method and control program therefor, and electronic apparatus | |
US9549111B2 (en) | Image capturing apparatus and control program product with speed detection features | |
CN106961556B (zh) | 照相机和电子设备 | |
US20140064577A1 (en) | Image processing device and recording medium storing program | |
JP5963525B2 (ja) | 認識装置、その制御方法、および制御プログラム、並びに撮像装置および表示装置 | |
JP2016123044A (ja) | 被写体追跡装置、その制御方法およびプログラム | |
JP2007067559A (ja) | 画像処理方法、画像処理装置、及び撮像装置の制御方法 | |
JP6554422B2 (ja) | 情報処理装置、情報処理方法、及び、プログラム | |
US10910001B2 (en) | Voice recognition device, robot, voice recognition method, and storage medium | |
WO2012063544A1 (ja) | 画像処理装置、画像処理方法及び記録媒体 | |
US11397874B2 (en) | Image capturing apparatus, generating apparatus, control method, and storage medium | |
JP2010141847A (ja) | 画像処理装置及び画像処理方法 | |
JP2018160791A (ja) | 画像解析装置、画像解析システム、画像解析方法及びプログラム | |
JP2011071925A (ja) | 移動体追尾装置および方法 | |
JP5167236B2 (ja) | 被写体追跡装置及びその制御方法 | |
JP2013218393A (ja) | 撮像装置 | |
EP3886429A1 (en) | Information processing apparatus, image capturing apparatus, method, program and storage medium | |
JP5995610B2 (ja) | 被写体認識装置及びその制御方法、撮像装置、表示装置、並びにプログラム | |
JP6795062B2 (ja) | 検出装置、検出方法及びプログラム | |
JP5222429B2 (ja) | 被写体追跡装置及びその制御方法 | |
US8594371B2 (en) | Subject tracking device and camera | |
JP5146223B2 (ja) | プログラム、カメラ、画像処理装置および画像の輪郭抽出方法 |