JP6075982B2 - 顔しかめ検出システム及び顔しかめ検出方法 - Google Patents

顔しかめ検出システム及び顔しかめ検出方法 Download PDF

Info

Publication number
JP6075982B2
JP6075982B2 JP2012149853A JP2012149853A JP6075982B2 JP 6075982 B2 JP6075982 B2 JP 6075982B2 JP 2012149853 A JP2012149853 A JP 2012149853A JP 2012149853 A JP2012149853 A JP 2012149853A JP 6075982 B2 JP6075982 B2 JP 6075982B2
Authority
JP
Japan
Prior art keywords
person
face
organ
frowned
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012149853A
Other languages
English (en)
Other versions
JP2014013447A (ja
Inventor
泰史 菅野
泰史 菅野
亜矢子 伊東
亜矢子 伊東
瑞基 本間
瑞基 本間
井上 博之
博之 井上
康夫 高橋
康夫 高橋
竜太 西田
竜太 西田
昭啓 小池
昭啓 小池
五月 加藤
五月 加藤
稔 浅田
稔 浅田
石黒 浩
浩 石黒
儀雄 岩井
儀雄 岩井
紀子 武村
紀子 武村
謙典 北村
謙典 北村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Osaka University NUC
Daiwa House Industry Co Ltd
Original Assignee
Osaka University NUC
Daiwa House Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Osaka University NUC, Daiwa House Industry Co Ltd filed Critical Osaka University NUC
Priority to JP2012149853A priority Critical patent/JP6075982B2/ja
Publication of JP2014013447A publication Critical patent/JP2014013447A/ja
Application granted granted Critical
Publication of JP6075982B2 publication Critical patent/JP6075982B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、人が顔をしかめているか否かを検出することが可能な顔しかめ検出システム及び顔しかめ検出方法の技術に関する。
従来、人の顔の特定の表情を検出することが可能なシステムに関する技術は公知となっている。例えば、特許文献1に記載の如くである。
特許文献1に記載の技術では、被写体(人)の表情を検出した後に評価し、当該評価が高いときに当該被写体を撮影することができる。当該技術においては、特に被写体が笑顔である場合に評価が高くなる。これによって、当該被写体の良い表情(笑顔の表情)を撮影することができる。
しかしながら、特許文献1に記載の技術では、表情の評価のために用いられる要素及びその評価段階の数が多く、また複雑であるため、短時間(瞬時)における表情の評価が困難であると考えられる。
特開2006−237803号公報
本発明は以上の如き状況に鑑みてなされたものであり、その解決しようとする課題は、人の特定の表情、特に、顔をしかめているか否かを短時間で検出することができる顔しかめ検出システム及び顔しかめ検出方法を提供するものである。
本発明の解決しようとする課題は以上の如くであり、次にこの課題を解決するための手段を説明する。
即ち、請求項1においては、顔をしかめたか否かを判断する対象となる人の顔を撮像する撮像手段と、照度の変化により人が顔をしかめた時及び顔をしかめていない時の当該顔の器官の位置情報を学習することで顔をしかめたか否かを識別する識別機能を予め作成し、当該予め作成した識別機能及び前記撮像手段により撮像された人の顔の器官の位置情報から、当該撮像手段により撮像された人が顔をしかめたか否かを判断する顔しかめ判断手段と、を具備し、前記顔しかめ判断手段は、前記顔の器官の位置情報として、右眉の内側端部から右目の内側端部までの距離、左眉の内側端部から左目の内側端部までの距離、眉間の距離、右目の上まぶたから下まぶたまでの距離及び左目の上まぶたから下まぶたまでの距離を用い、目を細めた時、眉を寄せて目を細めた時、又は眉を寄せて目を細め、かつ口を横にひいた時の前記顔の器官の位置情報に基づいて、前記顔をしかめた時の顔の器官の位置情報を学習するものである。
請求項2においては、前記顔しかめ判断手段は、前記顔の器官の位置情報を取得した後、右目の内側端部、左目の内側端部及び鼻の下端部を基準として当該顔の器官の位置情報を正規化するものである。
請求項3においては、前記顔しかめ判断手段は、前記撮像手段により撮像された人が顔をしかめたか否かを判断する際、当該人と同一人物の顔の器官の位置情報から作成された識別機能を用いるものである。
請求項4においては、照度の変化により人が顔をしかめた時及び顔をしかめていない時の当該顔の器官の位置情報を学習することで顔をしかめたか否かを識別する識別機能を予め作成する学習工程と、顔をしかめたか否かを判断する対象となる人の顔を撮像する撮像工程と、予め作成した識別機能及び前記撮像工程において撮像された人の顔の器官の位置情報から、当該撮像工程において撮像された人が顔をしかめたか否かを判断する顔しかめ判断工程と、を具備し、前記顔の器官の位置情報として、右眉の内側端部から右目の内側端部までの距離、左眉の内側端部から左目の内側端部までの距離、眉間の距離、右目の上まぶたから下まぶたまでの距離及び左目の上まぶたから下まぶたまでの距離を用い、前記学習工程は、目を細めた時、眉を寄せて目を細めた時、又は眉を寄せて目を細め、かつ口を横にひいた時の前記顔の器官の位置情報に基づいて、前記顔をしかめた時の顔の器官の位置情報を学習するものである。
本発明の効果として、以下に示すような効果を奏する。
請求項1においては、5つの距離のみを顔の器官の位置情報として用いるため、人が顔をしかめているか否かを短時間で検出することができる。
請求項2においては、撮像した人の顔の向きの違いによる当該顔の器官の位置情報の誤差を低減することができる。
請求項3においては、人が顔をしかめているか否かをより精度良く検出することができる。
請求項4においては、5つの距離のみを顔の器官の位置情報として用いるため、人が顔をしかめているか否かを短時間で検出することができる。
不快度推定システムの構成をしめした模式図。 本実施形態に係るベイジアンネットワークの構成を示した図。 目視による顔しかめの判断基準を示した図。 学習工程を示したフローチャート。 顔の器官を座標に変換する様子を示した図。 正規化する際に基準となる座標を示した図。 座標を5次元の距離情報に変換する様子を示した図。 撮像工程及び顔しかめ判断工程を示したフローチャート。 座標を2次元の距離情報に変換する様子を示した図。
以下では、図1を用いて、本実施形態に係る不快度推定システム30の構成について説明する。
不快度推定システム30は、実験設備として設置された部屋10内に存在する人20がどの程度不快であるか(不快度)を推定するものである。不快度推定システム30は、主としてカメラ31、天井照明32、窓照明33、不快度測定ダイヤル34及び制御装置35を具備する。
撮像手段としてのカメラ31は、人20の顔を撮像するものである。カメラ31は、着席して所定の作業を行っている人20の正面に配置され、当該人の顔を常時撮像することができる。
天井照明32は、部屋10の室内空間の照明器具である。天井照明32は、部屋10の天井であって、人20の上方に配置される。天井照明32による照度は変更可能となるように構成される。
窓照明33は、部屋10に設けられた窓を擬似的に再現するための照明器具である。窓照明33は、部屋10の側壁面であって、人20の正面に配置される。窓照明33の輝度は変更可能となるように構成される。窓照明33を発光させることにより、部屋10に設けられた窓から太陽光が差し込む状態を擬似的に再現することができる。
不快度測定ダイヤル34は、人20がどの程度不快であるか(不快度)を測定するためのものである。不快度測定ダイヤル34はダイヤル式のスイッチにより構成され、人20の手が届く範囲に配置される。不快度測定ダイヤル34には所定の数値範囲で不快度を表す目盛が付されている。人20は、不快度測定ダイヤル34が指し示す数値(目盛)が、自らが感じた不快の程度に応じた値となるように当該不快度測定ダイヤル34を操作する。
制御装置35は、種々の情報に基づいて天井照明32や窓照明33の照度及び輝度を制御したり、所定の演算処理や記憶等を行うものである。制御装置35は、RAMやROM等の記憶部、CPU等の演算処理部等により構成される。
制御装置35はカメラ31に接続され、当該カメラ31が撮像した画像データを取得することができる。
制御装置35は天井照明32に接続され、当該天井照明32による照度が任意の照度となるように制御することができる。
制御装置35は窓照明33に接続され、当該窓照明33の輝度が任意の輝度となるように制御することができる。
制御装置35は不快度測定ダイヤル34に接続され、当該不快度測定ダイヤル34が指し示す数値(目盛)を検出することができる。
上述の如く構成された不快度推定システム30は、不快表情検出手段、環境情報検出手段及び不快度判断手段を具備する。以下では上記各手段について説明する。
前記不快表情検出手段は、部屋10の室内空間に存在する人20が当該室内空間の環境変化の際に発する不快な表情(本実施形態においては、顔しかめ及びまばたき)を検出するものである。
本実施形態に係る不快表情検出手段は、主としてカメラ31及び制御装置35により構成される。
さらに、前記不快表情検出手段は、顔しかめ検出手段(顔しかめ検出システム)及びまばたき検出手段を含むものである。
前記顔しかめ検出手段(顔しかめ検出システム)は、人20が顔をしかめたか否かを検出するものである。
本実施形態に係る顔しかめ検出手段(顔しかめ検出システム)は、主としてカメラ31(撮像手段)及び制御装置35(後述する顔しかめ判断手段)により構成される。
前記顔しかめ検出手段(顔しかめ検出システム)による人20の顔しかめの検出方法については、後述する。
前記まばたき検出手段は、人20がまばたきをしたか否かを検出するものである。
本実施形態に係るまばたき検出手段は、主としてカメラ31及び制御装置35により構成される。
前記まばたき検出手段による人20のまばたきの検出方法については、後述する。
前記環境情報検出手段は、部屋10の室内空間の環境変化に関する情報(本実施形態においては、天井照明32から人20に照射される光の照度及び窓照明33の輝度の変化)を検出するものである。
本実施形態に係る環境情報検出手段は、主として天井照明32、窓照明33及び制御装置35により構成される。
さらに、前記環境情報検出手段は、照度検出手段及び輝度検出手段を含むものである。
前記照度検出手段は、天井照明32から人20に照射される光の照度を検出するものである。
本実施形態に係る照度検出手段は、主として天井照明32及び制御装置35により構成される。
制御装置35は、天井照明32から人20に照射される光の照度が任意の照度となるように自ら制御しているため、別途センサ等を用いるまでもなく当該天井照明32による照度を検出することができる。
前記輝度検出手段は、窓照明33の輝度を検出するものである。
本実施形態に係る輝度検出手段は、主として窓照明33及び制御装置35により構成される。
制御装置35は、窓照明33の輝度が任意の輝度となるように自ら制御しているため、別途センサ等を用いるまでもなく当該窓照明33の輝度を検出することができる。
前記不快度判断手段は、人20がどの程度不快であるか(不快度)を推定するものである。
本実施形態に係る不快度判断手段は、主として制御装置35により構成される。
前記不快度判断手段による人20の不快度の推定方法については、後述する。
以下では、図2及び図3を用いて、不快度推定システム30による人20の不快度を推定する方法について説明する。
不快度推定システム30が具備する前記不快度判断手段(すなわち、制御装置35)には、図2に示すように構築されたベイジアンネットワーク(Bayesian Network)が予め記憶され、当該ベイジアンネットワークを利用して人20の不快度が推定される。ベイジアンネットワークとは、複数の変数間の因果関係を非循環有向グラフで表すと共に、個々の変数の関係を条件付き確率で表す確率推論のモデルである。図中の矢印の始点側のノードが原因を、終点側のノードが結果を、それぞれ表している。また、原因が結果に及ぼす影響の度合いは、条件付き確率で定量化される。
図2に示すように、本実施形態に係るベイジアンネットワークは、顔しかめ認識頻度ノードN101と、顔しかめ表出頻度ノードN102と、まばたき認識頻度ノードN201と、まばたき表出頻度ノードN202と、照度(天井)変化前ノードN301と、輝度(窓)変化前ノードN401と、照度(天井)変化後ノードN501と、輝度(窓)変化後ノードN601と、不快度ノードN701と、により構築される。
本実施形態に係るベイジアンネットワークは、制御装置35によって天井照明32及び窓照明33を制御することで人20に対して複数パターンの照明変化(天井照明32による照度、及び窓照明33の輝度の大きな変化)を与える学習実験の結果に基づいて構築され、当該制御装置35に記憶される。具体的には、当該学習実験に基づいて上記各ノードの確率(事前確率又は条件付き確率)が求められ、制御装置35に記憶される。
以下では、本実施形態に係るベイジアンネットワークの各ノードについて説明する。
顔しかめ認識頻度ノードN101は、人20の顔しかめの頻度を表すノードである。当該人20の顔しかめ(顔をしかめたか否か)は、前記顔しかめ検出手段(顔しかめ検出システム)により検出される。前記学習実験において、人20が顔をしかめたか否かが前記顔しかめ検出手段により検出されると共に、制御装置35によって当該人20の顔しかめの頻度(顔しかめの周波数)が算出される。当該顔しかめの頻度は複数の数値範囲に分類され、顔しかめの頻度が各数値範囲に含まれる確率(事前確率)が制御装置35に記憶される。
顔しかめ表出頻度ノードN102は、実際の人20の顔しかめの頻度を表すノードである。前記学習実験において、実際に人20が顔をしかめたか否かが目視等により確認されると共に、当該実際の人20の顔しかめの頻度(顔しかめの周波数)が算出される。
ここで、前記学習実験においては、例えば図3に示すように、顔をしかめていない状態の表情(図3(a))に対して、目Eを細めたり(図3(b))、眉Bを寄せて目Eを細めたり(図3(c))、眉Bを寄せて目Eを細め、かつ口Mを横にひいたり(図3(d))した場合に、人20が顔をしかめたと判断される。
算出された実際の顔しかめの頻度は複数の数値範囲に分類され、顔しかめ認識頻度ノードN101を原因とする当該実際の顔しかめの頻度が各数値範囲に含まれる確率(条件付き確率)が、制御装置35に記憶される。
まばたき認識頻度ノードN201は、人20のまばたきの頻度を表すノードである。当該人20のまばたきは、前記まばたき検出手段により検出される。前記学習実験において、人20がまばたきをしたか否かが前記まばたき検出手段により検出されると共に、制御装置35によって当該人20のまばたきの頻度(まばたきの周波数)が算出される。当該まばたきの頻度は複数の数値範囲に分類され、まばたきの頻度が各数値範囲に含まれる確率(事前確率)が制御装置35に記憶される。
まばたき表出頻度ノードN202は、実際の人20のまばたきの頻度を表すノードである。前記学習実験において、実際に人20がまばたきをしたか否かが目視等により確認されると共に、当該実際の人20のまばたきの頻度(まばたきの周波数)が算出される。当該実際のまばたきの頻度は複数の数値範囲に分類され、まばたき認識頻度ノードN201を原因とする当該実際のまばたきの頻度が各数値範囲に含まれる確率(条件付き確率)が、制御装置35に記憶される。
照度(天井)変化前ノードN301は、天井照明32による照度が大きく変化する前の照度を表すノードである。当該照度は、前記照度検出手段により検出される。前記学習実験において、天井照明32による照度が大きく変化する前の照度は複数の数値範囲に分類され、当該大きく変化する前の照度が各数値範囲に含まれる確率(事前確率)が制御装置35に記憶される。
輝度(窓)変化前ノードN401は、窓照明33の輝度が大きく変化する前の輝度を表すノードである。当該輝度は、前記輝度検出手段により検出される。前記学習実験において、窓照明33の輝度が大きく変化する前の輝度は複数の数値範囲に分類され、当該大きく変化する前の輝度が各数値範囲に含まれる確率(事前確率)が制御装置35に記憶される。
照度(天井)変化後ノードN501は、天井照明32による照度が大きく変化した後の照度を表すノードである。当該照度は、前記照度検出手段により検出される。前記学習実験において、天井照明32による照度が大きく変化した後の照度は複数の数値範囲に分類され、当該大きく変化した後の照度が各数値範囲に含まれる確率(事前確率)が制御装置35に記憶される。
輝度(窓)変化後ノードN601は、窓照明33の輝度が大きく変化した後の輝度を表すノードである。当該輝度は、前記輝度検出手段により検出される。前記学習実験において、窓照明33の輝度が大きく変化した後の輝度は複数の数値範囲に分類され、当該大きく変化した後の輝度が各数値範囲に含まれる確率(事前確率)が制御装置35に記憶される。
不快度ノードN701は、人20がどの程度不快であるか(不快度)を表すノードである。前記学習実験において、実際に人20がどの程度不快であるか(不快度)が測定される。具体的には、前記学習実験において、天井照明32による照度及び窓照明33の輝度が大きく変化した際に、人20が操作した不快度測定ダイヤル34の数値(目盛)を制御装置35が検出することにより、当該人20がどの程度不快であるか(不快度)を測定することができる。当該測定された不快度は複数の数値範囲に分類され、顔しかめ表出頻度ノードN102、まばたき表出頻度ノードN202、照度(天井)変化前ノードN301、輝度(窓)変化前ノードN401、照度(天井)変化後ノードN501及び輝度(窓)変化後ノードN601を原因とする当該測定された不快度が各数値範囲に含まれる確率(条件付き確率)が、制御装置35に記憶される。
以上の如く、前記学習実験によって事前に構築されたベイジアンネットワークを用いて、部屋10の室内空間の環境が変化した(具体的には、天井照明32による照度及び窓照明33の輝度が大きく変化した)際の人20の不快度を、確率論として推定することができる。
具体的には、まず、部屋10の天井照明32による照度及び窓照明33の輝度が変化した際に、前記環境情報検出手段によって当該変化に関する情報を検出する。すなわち、前記環境情報検出手段(前記照度検出手段及び前記輝度検出手段)は、天井照明32による照度が大きく変化する前の照度(照度(天井)変化前ノードN301)、窓照明33の輝度が大きく変化する前の輝度(輝度(窓)変化前ノードN401)、天井照明32による照度が大きく変化した後の照度(照度(天井)変化後ノードN501)及び窓照明33の輝度が大きく変化した後の輝度(輝度(窓)変化後ノードN601)を検出する。
この工程を、以下では環境情報検出工程と記す。
また、部屋10の室内空間の環境(天井照明32による照度及び窓照明33の輝度)が変化した際に人20が発する不快な表情を前記不快表情検出手段によって検出する。すなわち、前記不快表情検出手段(前記顔しかめ検出手段及び前記まばたき検出手段)は、部屋10の室内空間の環境が変化した際の人20の顔しかめ及びまばたきを検出する。
この工程を、以下では不快表情検出工程と記す。
次に、前記不快度判断手段によって、前記不快表情検出手段によって検出された人20が発する不快な表情の頻度(周波数)を算出する。すなわち、前記不快度判断手段(制御装置35)は、前記顔しかめ検出手段によって検出された人20の顔しかめの頻度(顔しかめ認識頻度ノードN101)、及び前記まばたき検出手段によって検出された人20のまばたきの頻度(まばたき認識頻度ノードN201)を算出する。
そして、前記不快度判断手段(制御装置35)は、上記各ノード(顔しかめ認識頻度ノードN101、まばたき認識頻度ノードN201、照度(天井)変化前ノードN301、輝度(窓)変化前ノードN401、照度(天井)変化後ノードN501及び輝度(窓)変化後ノードN601)の条件を用いて、顔しかめ表出頻度ノードN102、まばたき表出頻度ノードN202及び不快度ノードN701の条件付き確率から人20の不快度がとり得る複数の値(数値範囲)及びそれぞれの確率を算出する。前記不快度判断手段(制御装置35)は、人20の不快度がとり得る複数の値それぞれに、当該値となる確率を掛け合わせ、さらにそれらを合算した数値を、人20の不快度として推定する。
この工程を、以下では不快度判断工程と記す。
このように、本実施形態に係る不快度推定システム30は、環境変化に関する情報に加えて人20が発する不快な表情の頻度を用いるため、当該人20の不快度を精度良く推定することができる。
以下では、図3から図8までを用いて、前述の不快表情検出工程で用いた顔しかめ検出手段(顔しかめ検出システム)による人20の顔しかめの検出方法について説明する。
前述の如く、前記顔しかめ検出手段(顔しかめ検出システム)は、人20が顔をしかめたか否か(表出があるか否か)を検出するものである。本実施形態に係る顔しかめ検出手段(顔しかめ検出システム)は、主として撮像手段(カメラ31)及び顔しかめ判断手段(制御装置35)により構成される。
顔しかめ判断手段(制御装置35)は、人20が顔をしかめた時及び顔をしかめていない時の当該顔の器官の位置情報を学習することで顔をしかめたか否かを識別する識別機能を予め作成し、当該予め作成した識別機能及び前記撮像手段(カメラ31)により撮像された人20の顔の器官の位置情報から、当該カメラ31により撮像された人20が顔をしかめたか否か(表出があるか否か)を判断するものである。
まず、図3から図7までを用いて、制御装置35が、人20が顔をしかめた時及び顔をしかめていない時の当該顔の器官の位置情報を学習することで顔をしかめたか否かを識別する識別機能を作成する工程について説明する。
この工程(図4のステップS101からステップS106まで)を、以下では学習工程と記す。
当該学習工程は、人20が顔をしかめたか否か(表出があるか否か)を判断する前に(事前に)行われる。
図4のステップS101において、制御装置35は、上記学習のためにカメラ31により撮像された人20の顔(表情)の画像データを複数取得する。
具体的には、制御装置35は、天井照明32による照度及び窓照明33の輝度を複数パターンに変化させる。この際、制御装置35は、人20が不快(まぶしい)と申告したときの表情の画像データ、及び人20が不快(まぶしい)と申告しないとき(通常時)の表情の画像データをそれぞれ複数取得する。
なお、人20の不快(まぶしい)である旨の申告の有無は、不快度測定ダイヤル34やその他のスイッチ等を用いて判断することが可能である。
ステップS101の処理を行った後、制御装置35はステップS102に移行する。
ステップS102において、制御装置35が取得した人20の表情の複数の画像データを、2種類に分類する。
具体的には、ステップS101で取得された人20の表情の複数の画像データを、(A)人20が不快であると申告し、かつ目視で顔をしかめていると確認される画像、(B)人20が不快であると申告し、かつ目視で顔をしかめていないと確認される画像、又は人20が不快であると申告していないときの画像、の2種類(上記(A)又は(B))に分類する。
人20が顔をしかめているか否かは実験者の目視により確認され、上記(A)又は(B)への分類に関するデータが当該実験者により制御装置35に入力(記憶)される。
ここで、顔をしかめているか否かの判断は、前述と同様に図3に示すような表情の変化に基づいてなされる。
なお、当該分類において、人20がまばたきする際の表情の画像データは省かれる。また、上記(A)及び(B)には同じ数の画像データが分類され、かつできるだけ多くの画像データが分類される。
ステップS102の処理を行った後、制御装置35はステップS103に移行する。
ステップS103において、制御装置35は、取得した各画像データに現された人20の顔の器官(目、眉、鼻)を、位置情報としての座標に変換する。
具体的には、図5に示すように、取得した各画像データに現された人20の顔のうち、右目の最も内側に位置する端部の点を点P1と、右目の上まぶた上に位置する点(より詳細には、上まぶたのうち最も上に位置する端部の点)を点P2と、右目の下まぶた上に位置する点(より詳細には、下まぶたのうち最も下に位置する端部の点)を点P3と、右眉の最も内側に位置する端部の点を点P4と、左目の最も内側に位置する端部の点を点P5と、左目の上まぶた上に位置する点(より詳細には、上まぶたのうち最も上に位置する端部の点)を点P6と、左目の下まぶた上に位置する点(より詳細には、下まぶたのうち最も下に位置する端部の点)を点P7と、左眉の最も内側に位置する端部の点を点P8と、鼻の最も下に位置する端部の点を点P9と、それぞれ決定する。
当該座標化(点P1から点P9までの決定)は、制御装置35に予め記憶されたプログラムによって実行される。
ステップS103の処理を行った後、制御装置35はステップS104に移行する。
ステップS104において、制御装置35は、取得した各画像データに現された人20の顔の器官の座標を正規化する。
具体的には、まず取得した複数の画像データのうち、最も理想的な正面視の顔の画像データを基準となる画像データとして選択する。次に、図6に示すように、両目の内側と鼻の下端の座標(点P1、点P5及び点P9)の合計3点を基準となる座標として選択する。そして、当該3点(基準となる座標)と、他の画像データにおける上記3点(点P1、点P5及び点P9)と、を比較し、当該他の画像データの座標を正規化する。すなわち、アフィン変換等を用いて、当該他の画像データにおける人20の顔の向きや角度の違いが座標(点P1から点P9)に与える影響(測定誤差)を打ち消す。
ステップS104の処理を行った後、制御装置35はステップS105に移行する。
ステップS105において、制御装置35は、取得した各画像データを5次元の位置情報(距離情報)に変換する。
具体的には、図7に示すように、制御装置35は、各画像データの正規化された座標を、5つの距離情報、すなわち(1)点P1から点P4までの距離、(2)点P5から点P8までの距離、(3)点P4から点P8までの距離、(4)点P2から点P3までの距離、及び(5)点P6から点P7までの距離、に変換する。
ステップS105の処理を行った後、制御装置35はステップS106に移行する。
ステップS106において、制御装置35は、人20が顔をしかめたか否か(表出があるか否か)を識別するための識別機能を作成する。
具体的には、制御装置35は、まずステップS105において変換された5次元の距離情報を、ステップS102における分類(上記(A)又は(B))に従ってそれぞれデータベース化する。次に、当該データベースを訓練データとして、人20が顔をしかめたか否かを識別する識別機能を作成する。当該識別機能としては、サポートベクターマシンの多項式カーネル法等を用いることができる。
このようにして、制御装置35は人20が顔をしかめた時及び顔をしかめていない時の当該顔の器官の位置情報を学習し、人20が顔をしかめたか否か(表出があるか否か)を識別するための識別機能を作成する(ステップS101からステップS106まで)。
次に、図4及び図8を用いて、制御装置35が、予め学習した人20の顔の器官の位置情報と、カメラ31により撮像された人20の顔の器官の位置情報と、を比較し、当該カメラ31により撮像された人20が顔をしかめたか否か(表出があるか否か)を判断する様子について説明する。
図8のステップS201において、制御装置35は、カメラ31により撮像された顔をしかめたか否か(表出があるか否か)を判断する対象となる人20の顔(表情)の画像データを取得する。
このステップS201の工程を、以下では撮像工程と記す。
ステップS201の処理(撮像工程)を行った後、制御装置35はステップS202に移行する。
ステップS202において、制御装置35は、取得した画像データに現された人20の顔の器官(目、眉、鼻)を座標化する。
当該座標化の方法は、図4のステップS103と同様であるため、説明を省略する。
ステップS202の処理を行った後、制御装置35はステップS203に移行する。
ステップS203において、制御装置35は、取得した画像データに現された人20の顔の器官の座標を正規化する。
当該正規化の方法は、図4のステップS104と同様であるため、説明を省略する。
ステップS203の処理を行った後、制御装置35はステップS204に移行する。
ステップS204において、制御装置35は、取得した画像データを5次元の距離情報に変換する。
当該距離情報への変換の方法は、図4のステップS105と同様であるため、説明を省略する。
ステップS204の処理を行った後、制御装置35はステップS205に移行する。
ステップS205において、制御装置35は、人20が顔をしかめたか否か(表出があるか否か)を判断する。
具体的には、制御装置35は、ステップS204において変換された5次元の距離情報を、図4のステップS106において作成された識別機能にかけ、人20が顔をしかめたか否か(表出があるか否か)を識別する。
このステップS205の工程を、以下では顔しかめ判断工程と記す。
このようにして、制御装置35は、予め作成した識別機能及びカメラ31により撮像された人の顔の器官の位置情報から、当該カメラ31により撮像された人が顔をしかめたか否かを判断する(ステップS201からステップS205まで)。
以下では、図4、図8及び図9を用いて、前述の不快表情検出工程で用いたまばたき検出手段による人20のまばたきの検出方法について説明する。
前述の如く、前記まばたき検出手段は、人20がまばたきをしたか否かを検出するものである。本実施形態に係るまばたき検出手段は、主としてカメラ31及び制御装置35により構成される。
まず、制御装置35は、カメラ31により撮像されたまばたきをしたか否かを判断する対象となる人20の顔(表情)の画像データを取得する。
次に、制御装置35は、取得した画像データに現された人20の顔の器官(目、眉、鼻)を、位置情報としての座標に変換する。
当該座標化の方法は、図8のステップS202と同様であるため、説明を省略する。
次に、制御装置35は、取得した画像データに現された人20の顔の器官の座標を正規化する。当該正規化には、図4のステップS104で選択された基準となる座標を用いることができる。
当該正規化の方法は、図8のステップS203と同様であるため、説明を省略する。
次に、制御装置35は、取得した画像データを2次元の位置情報(距離情報)に変換する。具体的には、図9に示すように、制御装置35は、画像データの正規化された座標を、2つの距離情報、すなわち(1)点P2から点P3までの距離及び(2)点P6から点P7までの距離に変換する。
最後に、制御装置35は、変換した2次元の距離情報がそれぞれゼロ(又は、ゼロに近い値)であるか否かを識別する。当該2次元の距離情報がゼロ(又は、ゼロに近い値)であれば人20がまばたきをしていると判断できる。
このようにして、制御装置35は2次元の距離情報から人20がまばたきをしたか否かを検出することができる。
以上の如く、本実施形態に係る不快度推定システムは、部屋10の室内空間の環境変化に関する情報を検出する環境情報検出手段と、前記室内空間に存在する人20が前記室内空間の環境変化の際に発する不快な表情(顔しかめ及びまばたき)を検出する不快表情検出手段と、前記室内空間の環境変化の際に人20が発する不快な表情の頻度及びその際当該人20が実際にどの程度不快であるかの情報を予め蓄積することによりベイジアンネットワークを構築した不快度判断手段と、を具備し、前記不快度判断手段は、前記環境情報検出手段により検出された前記室内空間の環境変化に関する情報、及び当該環境変化の際に前記不快表情検出手段により検出された人20が発する不快な表情の頻度を用いて、前記ベイジアンネットワークから人20がどの程度不快であるかを推定するものである。
このように、環境変化に関する情報に加えて人が発する不快な表情の頻度を用いることにより、人の不快度を精度良く推定することができる。
また、前記不快表情検出手段は、人20が顔をしかめたか否かを検出する顔しかめ検出手段を含むものである。
このように構成することにより、特に周囲が明るく(まぶしく)なった際に人20が発すると考えられる顔しかめを、不快な表情として検出することができる。
また、前記環境情報検出手段は、人20に照射される光の照度を検出する照度検出手段を含むものである。
このように構成することにより、光の照度の変化による人20の不快度を検出することができる。
また、前記不快表情検出手段は、前記人がまばたきをしたか否かを検出するまばたき検出手段を含むものである。
このように構成することにより、特に周囲が明るく(まぶしく)なった際、又は暗くなった際に人20が発すると考えられるまばたきを、不快な表情として検出することができる。
また、本実施形態に係る不快度推定方法は、室内空間の環境変化に関する情報を検出する環境情報検出工程と、前記室内空間に存在する人が前記室内空間の環境変化の際に発する不快な表情を検出する不快表情検出工程と、前記環境情報検出手段により検出された前記室内空間の環境変化に関する情報、及び当該環境変化の際に前記不快表情検出手段により検出された前記人が発する不快な表情の頻度を用いて、前記室内空間の環境変化の際に前記人が発する不快な表情の頻度及びその際当該人が実際にどの程度不快であるかの情報を予め蓄積することにより構築されたベイジアンネットワークから前記人がどの程度不快であるかを推定する不快度判断工程と、を具備するものである。
このように、環境変化に関する情報に加えて人が発する不快な表情の頻度を用いることにより、人の不快度を精度良く推定することができる。
また、以上の如く、本実施形態に係る顔しかめ検出手段(顔しかめ検出システム)は、顔をしかめたか否かを判断する対象となる人20の顔を撮像するカメラ31(撮像手段)と、人20が顔をしかめた時及び顔をしかめていない時の当該顔の器官の位置情報を学習することで顔をしかめたか否かを識別する識別機能を予め作成し、当該予め作成した識別機能及びカメラ31により撮像された人20の顔の器官の位置情報から、当該カメラ31により撮像された人20が顔をしかめたか否かを判断する顔しかめ判断手段(制御装置35)と、を具備し、前記顔しかめ判断手段は、前記顔の器官の位置情報として、右眉の内側端部から右目の内側端部まで(点P1から点P4まで)の距離、左眉の内側端部から左目の内側端部まで(点P5から点P8まで)の距離、眉間(点P4から点P8まで)の距離、右目の上まぶたから下まぶたまで(点P2から点P3まで)の距離及び左目の上まぶたから下まぶたまで(点P6から点P7まで)の距離を用いるものである。
このように構成することにより、5つの距離のみを顔の器官の位置情報として用いるため、人20が顔をしかめているか否かを短時間で検出することができる。
また、前記顔しかめ判断手段は、前記顔の器官の位置情報を取得した後、右目の内側端部(点P1)、左目の内側端部(点P5)及び鼻の下端部(点P9)を基準として当該顔の器官の位置情報を正規化するものである。
このように構成することにより、撮像した人20の顔の向きの違いによる当該顔の器官の位置情報の誤差を低減することができる。
また、前記顔しかめ判断手段は、カメラ31により撮像された人20が顔をしかめたか否かを判断する際、当該人20と同一人物の顔の器官の位置情報から作成された識別機能を用いるものである。
このように、当該人20自身のデータに基づいて作成された識別機能を用いるため、人20が顔をしかめているか否かをより精度良く検出することができる。
また、本実施形態に係る顔しかめ検出方法は、人20が顔をしかめた時及び顔をしかめていない時の当該顔の器官の位置情報を学習することで顔をしかめたか否かを識別する識別機能を予め作成する学習工程と、顔をしかめたか否かを判断する対象となる人20の顔を撮像する撮像工程と、予め作成した識別機能及び前記撮像工程において撮像された人20の顔の器官の位置情報から、当該撮像工程において撮像された人20が顔をしかめたか否かを判断する顔しかめ判断工程と、を具備し、前記顔の器官の位置情報として、右眉の内側端部から右目の内側端部まで(点P1から点P4まで)の距離、左眉の内側端部から左目の内側端部まで(点P5から点P8まで)の距離、眉間(点P4から点P8まで)の距離、右目の上まぶたから下まぶたまで(点P2から点P3まで)の距離及び左目の上まぶたから下まぶたまで(点P6から点P7まで)の距離を用いるものである。
このように構成することにより、5つの距離のみを顔の器官の位置情報として用いるため、人20が顔をしかめているか否かを短時間で検出することができる。
なお、本実施形態においては、実験設備として設置された部屋10を例にして説明したが、本発明はこれに限るものではなく、日常生活において使用している部屋を用いて上述の顔しかめの検出や不快度の推定を行うことも可能である。
また、本実施形態においては、撮像手段としてカメラ31を用いたが、本発明はこれに限るものではない。例えば、人20が作業しているパソコンに内臓されたカメラ等を撮像手段として用いることも可能である。
また、本実施形態においては窓照明33を用いたが、本発明はこれに限るものではなく、通常の窓(部屋10の外部の光が入ってくる窓)と当該窓の輝度を検出するセンサを用いて上述の顔しかめの検出や不快度の推定を行うことも可能である。
また、本実施形態において、不快表情検出手段は、人20が発する不快な表情として顔しかめ及びまばたきを検出するものとしたが、本発明はこれに限るものではない。すなわち、その他の不快な表情(例えば、目を長時間閉じる、涙を流す等)を検出する構成とすることも可能である。
また、本実施形態において、環境情報検出手段は、部屋10の室内空間の環境変化に関する情報として、天井照明32人20に照射される光の照度及び窓照明33の輝度を検出するものとしたが、本発明はこれに限るものではない。すなわち、その他の環境変化(例えば、温度の変化、湿度の変化等)を検出する構成とすることも可能である。
10 部屋
20 人
30 不快度推定システム
31 カメラ
32 天井照明
33 窓照明
34 不快度測定ダイヤル
35 制御装置

Claims (4)

  1. 顔をしかめたか否かを判断する対象となる人の顔を撮像する撮像手段と、
    照度の変化により人が顔をしかめた時及び顔をしかめていない時の当該顔の器官の位置情報を学習することで顔をしかめたか否かを識別する識別機能を予め作成し、当該予め作成した識別機能及び前記撮像手段により撮像された人の顔の器官の位置情報から、当該撮像手段により撮像された人が顔をしかめたか否かを判断する顔しかめ判断手段と、
    を具備し、
    前記顔しかめ判断手段は、
    前記顔の器官の位置情報として、右眉の内側端部から右目の内側端部までの距離、左眉の内側端部から左目の内側端部までの距離、眉間の距離、右目の上まぶたから下まぶたまでの距離及び左目の上まぶたから下まぶたまでの距離を用い
    目を細めた時、眉を寄せて目を細めた時、又は眉を寄せて目を細め、かつ口を横にひいた時の前記顔の器官の位置情報に基づいて、前記顔をしかめた時の顔の器官の位置情報を学習することを特徴とする、
    顔しかめ検出システム。
  2. 前記顔しかめ判断手段は、
    前記顔の器官の位置情報を取得した後、
    右目の内側端部、左目の内側端部及び鼻の下端部を基準として当該顔の器官の位置情報を正規化することを特徴とする、
    請求項1に記載の顔しかめ検出システム。
  3. 前記顔しかめ判断手段は、
    前記撮像手段により撮像された人が顔をしかめたか否かを判断する際、当該人と同一人物の顔の器官の位置情報から作成された識別機能を用いることを特徴とする、
    請求項1又は請求項2に記載の顔しかめ検出システム。
  4. 照度の変化により人が顔をしかめた時及び顔をしかめていない時の当該顔の器官の位置情報を学習することで顔をしかめたか否かを識別する識別機能を予め作成する学習工程と、
    顔をしかめたか否かを判断する対象となる人の顔を撮像する撮像工程と、
    予め作成した識別機能及び前記撮像工程において撮像された人の顔の器官の位置情報から、当該撮像工程において撮像された人が顔をしかめたか否かを判断する顔しかめ判断工程と、
    を具備し、
    前記顔の器官の位置情報として、右眉の内側端部から右目の内側端部までの距離、左眉の内側端部から左目の内側端部までの距離、眉間の距離、右目の上まぶたから下まぶたまでの距離及び左目の上まぶたから下まぶたまでの距離を用い
    前記学習工程は、目を細めた時、眉を寄せて目を細めた時、又は眉を寄せて目を細め、かつ口を横にひいた時の前記顔の器官の位置情報に基づいて、前記顔をしかめた時の顔の器官の位置情報を学習することを特徴とする、
    顔しかめ検出方法。
JP2012149853A 2012-07-03 2012-07-03 顔しかめ検出システム及び顔しかめ検出方法 Active JP6075982B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012149853A JP6075982B2 (ja) 2012-07-03 2012-07-03 顔しかめ検出システム及び顔しかめ検出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012149853A JP6075982B2 (ja) 2012-07-03 2012-07-03 顔しかめ検出システム及び顔しかめ検出方法

Publications (2)

Publication Number Publication Date
JP2014013447A JP2014013447A (ja) 2014-01-23
JP6075982B2 true JP6075982B2 (ja) 2017-02-08

Family

ID=50109109

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012149853A Active JP6075982B2 (ja) 2012-07-03 2012-07-03 顔しかめ検出システム及び顔しかめ検出方法

Country Status (1)

Country Link
JP (1) JP6075982B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6852407B2 (ja) * 2017-01-17 2021-03-31 トヨタ自動車株式会社 ドライバ状態検出装置
CN111680538A (zh) * 2020-04-13 2020-09-18 广州播种网络科技有限公司 一种正念冥想稳定性识别方法与装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6931147B2 (en) * 2001-12-11 2005-08-16 Koninklijke Philips Electronics N.V. Mood based virtual photo album
JP4799105B2 (ja) * 2005-09-26 2011-10-26 キヤノン株式会社 情報処理装置及びその制御方法、コンピュータプログラム、記憶媒体
JP5208711B2 (ja) * 2008-12-17 2013-06-12 アイシン精機株式会社 眼開閉判別装置及びプログラム

Also Published As

Publication number Publication date
JP2014013447A (ja) 2014-01-23

Similar Documents

Publication Publication Date Title
JP6079832B2 (ja) ヒューマンコンピュータインタラクションシステム、手と手指示点位置決め方法、及び手指のジェスチャ決定方法
JP6570786B2 (ja) 動作学習装置、技能判別装置および技能判別システム
JP5801237B2 (ja) 部位推定装置、部位推定方法、および部位推定プログラム
CN108985210A (zh) 一种基于人眼几何特征的视线追踪方法及系统
US11298050B2 (en) Posture estimation device, behavior estimation device, storage medium storing posture estimation program, and posture estimation method
Roussel et al. A computational model for C. elegans locomotory behavior: application to multiworm tracking
JP2010231398A (ja) 立体物判定装置、立体物判定方法及び立体物判定プログラム
WO2018163555A1 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP2013242825A (ja) 人物属性推定システム、及び学習用データ生成装置
JP2007257043A (ja) 乗員状態推定装置および乗員状態推定方法
WO2017073520A1 (ja) 対象認識システム、対象認識方法、プログラム及びコンピュータ記憶媒体
Planinc et al. Robust fall detection by combining 3D data and fuzzy logic
Dragan et al. Human activity recognition in smart environments
JP2010123019A (ja) 動作認識装置及び方法
JP6981277B2 (ja) 検出装置、及び検出プログラム
CN111461220B (zh) 图像分析方法、图像分析装置及图像分析系统
JP2016170605A (ja) 姿勢推定装置
JP6651086B1 (ja) 画像分析プログラム、情報処理端末、及び画像分析システム
JP6075982B2 (ja) 顔しかめ検出システム及び顔しかめ検出方法
JP6075983B2 (ja) 不快度推定システム及び不快度推定方法
JP7074174B2 (ja) 識別器学習装置、識別器学習方法およびコンピュータプログラム
KR100998709B1 (ko) 물체의 공간적 의미정보를 이용한 로봇의 자기위치 추정 방법
JP5482412B2 (ja) ロボット、位置推定方法及びプログラム
JP2021033359A (ja) 感情推定装置、感情推定方法、プログラム、情報提示装置、情報提示方法及び感情推定システム
JP2012008949A (ja) 顔表情増幅装置、表情認識装置、顔表情増幅方法、表情認識方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150629

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160824

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170110

R150 Certificate of patent or registration of utility model

Ref document number: 6075982

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250