JP6075983B2 - 不快度推定システム及び不快度推定方法 - Google Patents

不快度推定システム及び不快度推定方法 Download PDF

Info

Publication number
JP6075983B2
JP6075983B2 JP2012149854A JP2012149854A JP6075983B2 JP 6075983 B2 JP6075983 B2 JP 6075983B2 JP 2012149854 A JP2012149854 A JP 2012149854A JP 2012149854 A JP2012149854 A JP 2012149854A JP 6075983 B2 JP6075983 B2 JP 6075983B2
Authority
JP
Japan
Prior art keywords
person
facial expression
unpleasant
information
indoor space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012149854A
Other languages
English (en)
Other versions
JP2014013448A (ja
Inventor
泰史 菅野
泰史 菅野
亜矢子 伊東
亜矢子 伊東
瑞基 本間
瑞基 本間
井上 博之
博之 井上
康夫 高橋
康夫 高橋
竜太 西田
竜太 西田
昭啓 小池
昭啓 小池
五月 加藤
五月 加藤
稔 浅田
稔 浅田
石黒 浩
浩 石黒
儀雄 岩井
儀雄 岩井
紀子 武村
紀子 武村
謙典 北村
謙典 北村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Osaka University NUC
Daiwa House Industry Co Ltd
Original Assignee
Osaka University NUC
Daiwa House Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Osaka University NUC, Daiwa House Industry Co Ltd filed Critical Osaka University NUC
Priority to JP2012149854A priority Critical patent/JP6075983B2/ja
Publication of JP2014013448A publication Critical patent/JP2014013448A/ja
Application granted granted Critical
Publication of JP6075983B2 publication Critical patent/JP6075983B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、人がどの程度不快であるかを推定することが可能な不快度推定システム及び不快度推定方法の技術に関する。
従来、空間の環境に関する情報(特に、照明器具による光の照度)に基づいて照明装置を制御し、当該空間の照度を所望の照度にすることとした技術は公知となっている。例えば、特許文献1に記載の如くである。
特許文献1に記載の技術では、空間内の所望の場所(例えば、人が存在する場所)で計測された照度に対する影響度が大きい照明器具を選択し、当該照明器具を所定の順序で増減制御することにより、当該所望の場所の照度を所望の照度に制御することができる。この際、人が一般的に快適に感じるであろう照度を当該所望の照度として予め設定しておくことで、当該人にとって快適な照明環境を提供することができる。
すなわち、この場合、照度が当該所望の照度となったときに、人が快適に感じているものと推定している。
しかし実際には、快適に感じる照度は人によって異なるため、空間内の照度を所望の照度に制御することができても、必ずしも当該照度が当該人にとって快適な照度であるとは限らない。すなわち、環境に関する情報(上記の例においては、光の照度)だけでは、人がどの程度快適に感じているか(言い換えれば、どの程度不快に感じているか(不快度))を精度良く推定することは困難であった。
特開2008−16291号公報
本発明は以上の如き状況に鑑みてなされたものであり、その解決しようとする課題は、人の不快度を精度良く推定することが可能な不快度推定システム及び不快度推定方法を提供するものである。
本発明の解決しようとする課題は以上の如くであり、次にこの課題を解決するための手段を説明する。
即ち、請求項1においては、室内空間の環境変化に関する情報を検出する環境情報検出手段と、前記室内空間に存在する人が前記室内空間の環境変化の際に発する不快な表情を検出する不快表情検出手段と、前記室内空間の環境変化の際に、前記不快表情検出手段により検出された前記人が発する不快な表情の頻度及び観察者により検出された前記人が発する不快な表情の頻度、並びにその際当該人が実際にどの程度不快であるかの情報を予め蓄積することによりベイジアンネットワークを構築した不快度判断手段と、を具備し、前記不快度判断手段は、前記環境情報検出手段により検出された前記室内空間の環境変化に関する情報、及び当該環境変化の際に前記不快表情検出手段により検出された前記人が発する不快な表情の頻度を用いて、前記ベイジアンネットワークから前記人がどの程度不快であるかを推定するものである。
請求項2においては、前記不快表情検出手段は、前記人が顔をしかめたか否かを検出する顔しかめ検出手段を含むものである。
請求項3においては、前記環境情報検出手段は、前記人に照射される光の照度を検出する照度検出手段を含むものである。
請求項4においては、前記不快表情検出手段は、前記人がまばたきをしたか否かを検出するまばたき検出手段を含むものである。
請求項5においては、室内空間の環境変化に関する情報を検出する環境情報検出工程と、前記室内空間に存在する人が前記室内空間の環境変化の際に発する不快な表情を検出する不快表情検出工程と、前記環境情報検出工程により検出された前記室内空間の環境変化に関する情報、及び当該環境変化の際に前記不快表情検出工程により検出された前記人が発する不快な表情の頻度を用いて、前記室内空間の環境変化の際に、前記不快表情検出工程により検出された前記人が発する不快な表情の頻度及び観察者により検出された前記人が発する不快な表情の頻度、並びにその際当該人が実際にどの程度不快であるかの情報を予め蓄積することにより構築されたベイジアンネットワークから前記人がどの程度不快であるかを推定する不快度判断工程と、を具備するものである。
本発明は、環境変化に関する情報に加えて人が発する不快な表情の頻度を用いることにより、人の不快度を精度良く推定することができる、という効果を奏する。
不快度推定システムの構成をしめした模式図。 本実施形態に係るベイジアンネットワークの構成を示した図。 目視による顔しかめの判断基準を示した図。 学習工程を示したフローチャート。 顔の器官を座標に変換する様子を示した図。 正規化する際に基準となる座標を示した図。 座標を5次元の距離情報に変換する様子を示した図。 撮像工程及び顔しかめ判断工程を示したフローチャート。 座標を2次元の距離情報に変換する様子を示した図。
以下では、図1を用いて、本実施形態に係る不快度推定システム30の構成について説明する。
不快度推定システム30は、実験設備として設置された部屋10内に存在する人20がどの程度不快であるか(不快度)を推定するものである。不快度推定システム30は、主としてカメラ31、天井照明32、窓照明33、不快度測定ダイヤル34及び制御装置35を具備する。
撮像手段としてのカメラ31は、人20の顔を撮像するものである。カメラ31は、着席して所定の作業を行っている人20の正面に配置され、当該人の顔を常時撮像することができる。
天井照明32は、部屋10の室内空間の照明器具である。天井照明32は、部屋10の天井であって、人20の上方に配置される。天井照明32による照度は変更可能となるように構成される。
窓照明33は、部屋10に設けられた窓を擬似的に再現するための照明器具である。窓照明33は、部屋10の側壁面であって、人20の正面に配置される。窓照明33の輝度は変更可能となるように構成される。窓照明33を発光させることにより、部屋10に設けられた窓から太陽光が差し込む状態を擬似的に再現することができる。
不快度測定ダイヤル34は、人20がどの程度不快であるか(不快度)を測定するためのものである。不快度測定ダイヤル34はダイヤル式のスイッチにより構成され、人20の手が届く範囲に配置される。不快度測定ダイヤル34には所定の数値範囲で不快度を表す目盛が付されている。人20は、不快度測定ダイヤル34が指し示す数値(目盛)が、自らが感じた不快の程度に応じた値となるように当該不快度測定ダイヤル34を操作する。
制御装置35は、種々の情報に基づいて天井照明32や窓照明33の照度及び輝度を制御したり、所定の演算処理や記憶等を行うものである。制御装置35は、RAMやROM等の記憶部、CPU等の演算処理部等により構成される。
制御装置35はカメラ31に接続され、当該カメラ31が撮像した画像データを取得することができる。
制御装置35は天井照明32に接続され、当該天井照明32による照度が任意の照度となるように制御することができる。
制御装置35は窓照明33に接続され、当該窓照明33の輝度が任意の輝度となるように制御することができる。
制御装置35は不快度測定ダイヤル34に接続され、当該不快度測定ダイヤル34が指し示す数値(目盛)を検出することができる。
上述の如く構成された不快度推定システム30は、不快表情検出手段、環境情報検出手段及び不快度判断手段を具備する。以下では上記各手段について説明する。
前記不快表情検出手段は、部屋10の室内空間に存在する人20が当該室内空間の環境変化の際に発する不快な表情(本実施形態においては、顔しかめ及びまばたき)を検出するものである。
本実施形態に係る不快表情検出手段は、主としてカメラ31及び制御装置35により構成される。
さらに、前記不快表情検出手段は、顔しかめ検出手段(顔しかめ検出システム)及びまばたき検出手段を含むものである。
前記顔しかめ検出手段(顔しかめ検出システム)は、人20が顔をしかめたか否かを検出するものである。
本実施形態に係る顔しかめ検出手段(顔しかめ検出システム)は、主としてカメラ31(撮像手段)及び制御装置35(後述する顔しかめ判断手段)により構成される。
前記顔しかめ検出手段(顔しかめ検出システム)による人20の顔しかめの検出方法については、後述する。
前記まばたき検出手段は、人20がまばたきをしたか否かを検出するものである。
本実施形態に係るまばたき検出手段は、主としてカメラ31及び制御装置35により構成される。
前記まばたき検出手段による人20のまばたきの検出方法については、後述する。
前記環境情報検出手段は、部屋10の室内空間の環境変化に関する情報(本実施形態においては、天井照明32から人20に照射される光の照度及び窓照明33の輝度の変化)を検出するものである。
本実施形態に係る環境情報検出手段は、主として天井照明32、窓照明33及び制御装置35により構成される。
さらに、前記環境情報検出手段は、照度検出手段及び輝度検出手段を含むものである。
前記照度検出手段は、天井照明32から人20に照射される光の照度を検出するものである。
本実施形態に係る照度検出手段は、主として天井照明32及び制御装置35により構成される。
制御装置35は、天井照明32から人20に照射される光の照度が任意の照度となるように自ら制御しているため、別途センサ等を用いるまでもなく当該天井照明32による照度を検出することができる。
前記輝度検出手段は、窓照明33の輝度を検出するものである。
本実施形態に係る輝度検出手段は、主として窓照明33及び制御装置35により構成される。
制御装置35は、窓照明33の輝度が任意の輝度となるように自ら制御しているため、別途センサ等を用いるまでもなく当該窓照明33の輝度を検出することができる。
前記不快度判断手段は、人20がどの程度不快であるか(不快度)を推定するものである。
本実施形態に係る不快度判断手段は、主として制御装置35により構成される。
前記不快度判断手段による人20の不快度の推定方法については、後述する。
以下では、図2及び図3を用いて、不快度推定システム30による人20の不快度を推定する方法について説明する。
不快度推定システム30が具備する前記不快度判断手段(すなわち、制御装置35)には、図2に示すように構築されたベイジアンネットワーク(Bayesian Network)が予め記憶され、当該ベイジアンネットワークを利用して人20の不快度が推定される。ベイジアンネットワークとは、複数の変数間の因果関係を非循環有向グラフで表すと共に、個々の変数の関係を条件付き確率で表す確率推論のモデルである。図中の矢印の始点側のノードが原因を、終点側のノードが結果を、それぞれ表している。また、原因が結果に及ぼす影響の度合いは、条件付き確率で定量化される。
図2に示すように、本実施形態に係るベイジアンネットワークは、顔しかめ認識頻度ノードN101と、顔しかめ表出頻度ノードN102と、まばたき認識頻度ノードN201と、まばたき表出頻度ノードN202と、照度(天井)変化前ノードN301と、輝度(窓)変化前ノードN401と、照度(天井)変化後ノードN501と、輝度(窓)変化後ノードN601と、不快度ノードN701と、により構築される。
本実施形態に係るベイジアンネットワークは、制御装置35によって天井照明32及び窓照明33を制御することで人20に対して複数パターンの照明変化(天井照明32による照度、及び窓照明33の輝度の大きな変化)を与える学習実験の結果に基づいて構築され、当該制御装置35に記憶される。具体的には、当該学習実験に基づいて上記各ノードの確率(事前確率又は条件付き確率)が求められ、制御装置35に記憶される。
以下では、本実施形態に係るベイジアンネットワークの各ノードについて説明する。
顔しかめ認識頻度ノードN101は、人20の顔しかめの頻度を表すノードである。当該人20の顔しかめ(顔をしかめたか否か)は、前記顔しかめ検出手段(顔しかめ検出システム)により検出される。前記学習実験において、人20が顔をしかめたか否かが前記顔しかめ検出手段により検出されると共に、制御装置35によって当該人20の顔しかめの頻度(顔しかめの周波数)が算出される。当該顔しかめの頻度は複数の数値範囲に分類され、顔しかめの頻度が各数値範囲に含まれる確率(事前確率)が制御装置35に記憶される。
顔しかめ表出頻度ノードN102は、実際の人20の顔しかめの頻度を表すノードである。前記学習実験において、実際に人20が顔をしかめたか否かが目視等により確認されると共に、当該実際の人20の顔しかめの頻度(顔しかめの周波数)が算出される。
ここで、前記学習実験においては、例えば図3に示すように、顔をしかめていない状態の表情(図3(a))に対して、目Eを細めたり(図3(b))、眉Bを寄せて目Eを細めたり(図3(c))、眉Bを寄せて目Eを細め、かつ口Mを横にひいたり(図3(d))した場合に、人20が顔をしかめたと判断される。
算出された実際の顔しかめの頻度は複数の数値範囲に分類され、顔しかめ認識頻度ノードN101を原因とする当該実際の顔しかめの頻度が各数値範囲に含まれる確率(条件付き確率)が、制御装置35に記憶される。
まばたき認識頻度ノードN201は、人20のまばたきの頻度を表すノードである。当該人20のまばたきは、前記まばたき検出手段により検出される。前記学習実験において、人20がまばたきをしたか否かが前記まばたき検出手段により検出されると共に、制御装置35によって当該人20のまばたきの頻度(まばたきの周波数)が算出される。当該まばたきの頻度は複数の数値範囲に分類され、まばたきの頻度が各数値範囲に含まれる確率(事前確率)が制御装置35に記憶される。
まばたき表出頻度ノードN202は、実際の人20のまばたきの頻度を表すノードである。前記学習実験において、実際に人20がまばたきをしたか否かが目視等により確認されると共に、当該実際の人20のまばたきの頻度(まばたきの周波数)が算出される。当該実際のまばたきの頻度は複数の数値範囲に分類され、まばたき認識頻度ノードN201を原因とする当該実際のまばたきの頻度が各数値範囲に含まれる確率(条件付き確率)が、制御装置35に記憶される。
照度(天井)変化前ノードN301は、天井照明32による照度が大きく変化する前の照度を表すノードである。当該照度は、前記照度検出手段により検出される。前記学習実験において、天井照明32による照度が大きく変化する前の照度は複数の数値範囲に分類され、当該大きく変化する前の照度が各数値範囲に含まれる確率(事前確率)が制御装置35に記憶される。
輝度(窓)変化前ノードN401は、窓照明33の輝度が大きく変化する前の輝度を表すノードである。当該輝度は、前記輝度検出手段により検出される。前記学習実験において、窓照明33の輝度が大きく変化する前の輝度は複数の数値範囲に分類され、当該大きく変化する前の輝度が各数値範囲に含まれる確率(事前確率)が制御装置35に記憶される。
照度(天井)変化後ノードN501は、天井照明32による照度が大きく変化した後の照度を表すノードである。当該照度は、前記照度検出手段により検出される。前記学習実験において、天井照明32による照度が大きく変化した後の照度は複数の数値範囲に分類され、当該大きく変化した後の照度が各数値範囲に含まれる確率(事前確率)が制御装置35に記憶される。
輝度(窓)変化後ノードN601は、窓照明33の輝度が大きく変化した後の輝度を表すノードである。当該輝度は、前記輝度検出手段により検出される。前記学習実験において、窓照明33の輝度が大きく変化した後の輝度は複数の数値範囲に分類され、当該大きく変化した後の輝度が各数値範囲に含まれる確率(事前確率)が制御装置35に記憶される。
不快度ノードN701は、人20がどの程度不快であるか(不快度)を表すノードである。前記学習実験において、実際に人20がどの程度不快であるか(不快度)が測定される。具体的には、前記学習実験において、天井照明32による照度及び窓照明33の輝度が大きく変化した際に、人20が操作した不快度測定ダイヤル34の数値(目盛)を制御装置35が検出することにより、当該人20がどの程度不快であるか(不快度)を測定することができる。当該測定された不快度は複数の数値範囲に分類され、顔しかめ表出頻度ノードN102、まばたき表出頻度ノードN202、照度(天井)変化前ノードN301、輝度(窓)変化前ノードN401、照度(天井)変化後ノードN501及び輝度(窓)変化後ノードN601を原因とする当該測定された不快度が各数値範囲に含まれる確率(条件付き確率)が、制御装置35に記憶される。
以上の如く、前記学習実験によって事前に構築されたベイジアンネットワークを用いて、部屋10の室内空間の環境が変化した(具体的には、天井照明32による照度及び窓照明33の輝度が大きく変化した)際の人20の不快度を、確率論として推定することができる。
具体的には、まず、部屋10の天井照明32による照度及び窓照明33の輝度が変化した際に、前記環境情報検出手段によって当該変化に関する情報を検出する。すなわち、前記環境情報検出手段(前記照度検出手段及び前記輝度検出手段)は、天井照明32による照度が大きく変化する前の照度(照度(天井)変化前ノードN301)、窓照明33の輝度が大きく変化する前の輝度(輝度(窓)変化前ノードN401)、天井照明32による照度が大きく変化した後の照度(照度(天井)変化後ノードN501)及び窓照明33の輝度が大きく変化した後の輝度(輝度(窓)変化後ノードN601)を検出する。
この工程を、以下では環境情報検出工程と記す。
また、部屋10の室内空間の環境(天井照明32による照度及び窓照明33の輝度)が変化した際に人20が発する不快な表情を前記不快表情検出手段によって検出する。すなわち、前記不快表情検出手段(前記顔しかめ検出手段及び前記まばたき検出手段)は、部屋10の室内空間の環境が変化した際の人20の顔しかめ及びまばたきを検出する。
この工程を、以下では不快表情検出工程と記す。
次に、前記不快度判断手段によって、前記不快表情検出手段によって検出された人20が発する不快な表情の頻度(周波数)を算出する。すなわち、前記不快度判断手段(制御装置35)は、前記顔しかめ検出手段によって検出された人20の顔しかめの頻度(顔しかめ認識頻度ノードN101)、及び前記まばたき検出手段によって検出された人20のまばたきの頻度(まばたき認識頻度ノードN201)を算出する。
そして、前記不快度判断手段(制御装置35)は、上記各ノード(顔しかめ認識頻度ノードN101、まばたき認識頻度ノードN201、照度(天井)変化前ノードN301、輝度(窓)変化前ノードN401、照度(天井)変化後ノードN501及び輝度(窓)変化後ノードN601)の条件を用いて、顔しかめ表出頻度ノードN102、まばたき表出頻度ノードN202及び不快度ノードN701の条件付き確率から人20の不快度がとり得る複数の値(数値範囲)及びそれぞれの確率を算出する。前記不快度判断手段(制御装置35)は、人20の不快度がとり得る複数の値それぞれに、当該値となる確率を掛け合わせ、さらにそれらを合算した数値を、人20の不快度として推定する。
この工程を、以下では不快度判断工程と記す。
このように、本実施形態に係る不快度推定システム30は、環境変化に関する情報に加えて人20が発する不快な表情の頻度を用いるため、当該人20の不快度を精度良く推定することができる。
以下では、図3から図8までを用いて、前述の不快表情検出工程で用いた顔しかめ検出手段(顔しかめ検出システム)による人20の顔しかめの検出方法について説明する。
前述の如く、前記顔しかめ検出手段(顔しかめ検出システム)は、人20が顔をしかめたか否か(表出があるか否か)を検出するものである。本実施形態に係る顔しかめ検出手段(顔しかめ検出システム)は、主として撮像手段(カメラ31)及び顔しかめ判断手段(制御装置35)により構成される。
顔しかめ判断手段(制御装置35)は、人20が顔をしかめた時及び顔をしかめていない時の当該顔の器官の位置情報を学習することで顔をしかめたか否かを識別する識別機能を予め作成し、当該予め作成した識別機能及び前記撮像手段(カメラ31)により撮像された人20の顔の器官の位置情報から、当該カメラ31により撮像された人20が顔をしかめたか否か(表出があるか否か)を判断するものである。
まず、図3から図7までを用いて、制御装置35が、人20が顔をしかめた時及び顔をしかめていない時の当該顔の器官の位置情報を学習することで顔をしかめたか否かを識別する識別機能を作成する工程について説明する。
この工程(図4のステップS101からステップS106まで)を、以下では学習工程と記す。
当該学習工程は、人20が顔をしかめたか否か(表出があるか否か)を判断する前に(事前に)行われる。
図4のステップS101において、制御装置35は、上記学習のためにカメラ31により撮像された人20の顔(表情)の画像データを複数取得する。
具体的には、制御装置35は、天井照明32による照度及び窓照明33の輝度を複数パターンに変化させる。この際、制御装置35は、人20が不快(まぶしい)と申告したときの表情の画像データ、及び人20が不快(まぶしい)と申告しないとき(通常時)の表情の画像データをそれぞれ複数取得する。
なお、人20の不快(まぶしい)である旨の申告の有無は、不快度測定ダイヤル34やその他のスイッチ等を用いて判断することが可能である。
ステップS101の処理を行った後、制御装置35はステップS102に移行する。
ステップS102において、制御装置35が取得した人20の表情の複数の画像データを、2種類に分類する。
具体的には、ステップS101で取得された人20の表情の複数の画像データを、(A)人20が不快であると申告し、かつ目視で顔をしかめていると確認される画像、(B)人20が不快であると申告し、かつ目視で顔をしかめていないと確認される画像、又は人20が不快であると申告していないときの画像、の2種類(上記(A)又は(B))に分類する。
人20が顔をしかめているか否かは実験者の目視により確認され、上記(A)又は(B)への分類に関するデータが当該実験者により制御装置35に入力(記憶)される。
ここで、顔をしかめているか否かの判断は、前述と同様に図3に示すような表情の変化に基づいてなされる。
なお、当該分類において、人20がまばたきする際の表情の画像データは省かれる。また、上記(A)及び(B)には同じ数の画像データが分類され、かつできるだけ多くの画像データが分類される。
ステップS102の処理を行った後、制御装置35はステップS103に移行する。
ステップS103において、制御装置35は、取得した各画像データに現された人20の顔の器官(目、眉、鼻)を、位置情報としての座標に変換する。
具体的には、図5に示すように、取得した各画像データに現された人20の顔のうち、右目の最も内側に位置する端部の点を点P1と、右目の上まぶた上に位置する点(より詳細には、上まぶたのうち最も上に位置する端部の点)を点P2と、右目の下まぶた上に位置する点(より詳細には、下まぶたのうち最も下に位置する端部の点)を点P3と、右眉の最も内側に位置する端部の点を点P4と、左目の最も内側に位置する端部の点を点P5と、左目の上まぶた上に位置する点(より詳細には、上まぶたのうち最も上に位置する端部の点)を点P6と、左目の下まぶた上に位置する点(より詳細には、下まぶたのうち最も下に位置する端部の点)を点P7と、左眉の最も内側に位置する端部の点を点P8と、鼻の最も下に位置する端部の点を点P9と、それぞれ決定する。
当該座標化(点P1から点P9までの決定)は、制御装置35に予め記憶されたプログラムによって実行される。
ステップS103の処理を行った後、制御装置35はステップS104に移行する。
ステップS104において、制御装置35は、取得した各画像データに現された人20の顔の器官の座標を正規化する。
具体的には、まず取得した複数の画像データのうち、最も理想的な正面視の顔の画像データを基準となる画像データとして選択する。次に、図6に示すように、両目の内側と鼻の下端の座標(点P1、点P5及び点P9)の合計3点を基準となる座標として選択する。そして、当該3点(基準となる座標)と、他の画像データにおける上記3点(点P1、点P5及び点P9)と、を比較し、当該他の画像データの座標を正規化する。すなわち、アフィン変換等を用いて、当該他の画像データにおける人20の顔の向きや角度の違いが座標(点P1から点P9)に与える影響(測定誤差)を打ち消す。
ステップS104の処理を行った後、制御装置35はステップS105に移行する。
ステップS105において、制御装置35は、取得した各画像データを5次元の位置情報(距離情報)に変換する。
具体的には、図7に示すように、制御装置35は、各画像データの正規化された座標を、5つの距離情報、すなわち(1)点P1から点P4までの距離、(2)点P5から点P8までの距離、(3)点P4から点P8までの距離、(4)点P2から点P3までの距離、及び(5)点P6から点P7までの距離、に変換する。
ステップS105の処理を行った後、制御装置35はステップS106に移行する。
ステップS106において、制御装置35は、人20が顔をしかめたか否か(表出があるか否か)を識別するための識別機能を作成する。
具体的には、制御装置35は、まずステップS105において変換された5次元の距離情報を、ステップS102における分類(上記(A)又は(B))に従ってそれぞれデータベース化する。次に、当該データベースを訓練データとして、人20が顔をしかめたか否かを識別する識別機能を作成する。当該識別機能としては、サポートベクターマシンの多項式カーネル法等を用いることができる。
このようにして、制御装置35は人20が顔をしかめた時及び顔をしかめていない時の当該顔の器官の位置情報を学習し、人20が顔をしかめたか否か(表出があるか否か)を識別するための識別機能を作成する(ステップS101からステップS106まで)。
次に、図4及び図8を用いて、制御装置35が、予め学習した人20の顔の器官の位置情報と、カメラ31により撮像された人20の顔の器官の位置情報と、を比較し、当該カメラ31により撮像された人20が顔をしかめたか否か(表出があるか否か)を判断する様子について説明する。
図8のステップS201において、制御装置35は、カメラ31により撮像された顔をしかめたか否か(表出があるか否か)を判断する対象となる人20の顔(表情)の画像データを取得する。
このステップS201の工程を、以下では撮像工程と記す。
ステップS201の処理(撮像工程)を行った後、制御装置35はステップS202に移行する。
ステップS202において、制御装置35は、取得した画像データに現された人20の顔の器官(目、眉、鼻)を座標化する。
当該座標化の方法は、図4のステップS103と同様であるため、説明を省略する。
ステップS202の処理を行った後、制御装置35はステップS203に移行する。
ステップS203において、制御装置35は、取得した画像データに現された人20の顔の器官の座標を正規化する。
当該正規化の方法は、図4のステップS104と同様であるため、説明を省略する。
ステップS203の処理を行った後、制御装置35はステップS204に移行する。
ステップS204において、制御装置35は、取得した画像データを5次元の距離情報に変換する。
当該距離情報への変換の方法は、図4のステップS105と同様であるため、説明を省略する。
ステップS204の処理を行った後、制御装置35はステップS205に移行する。
ステップS205において、制御装置35は、人20が顔をしかめたか否か(表出があるか否か)を判断する。
具体的には、制御装置35は、ステップS204において変換された5次元の距離情報を、図4のステップS106において作成された識別機能にかけ、人20が顔をしかめたか否か(表出があるか否か)を識別する。
このステップS205の工程を、以下では顔しかめ判断工程と記す。
このようにして、制御装置35は、予め作成した識別機能及びカメラ31により撮像された人の顔の器官の位置情報から、当該カメラ31により撮像された人が顔をしかめたか否かを判断する(ステップS201からステップS205まで)。
以下では、図4、図8及び図9を用いて、前述の不快表情検出工程で用いたまばたき検出手段による人20のまばたきの検出方法について説明する。
前述の如く、前記まばたき検出手段は、人20がまばたきをしたか否かを検出するものである。本実施形態に係るまばたき検出手段は、主としてカメラ31及び制御装置35により構成される。
まず、制御装置35は、カメラ31により撮像されたまばたきをしたか否かを判断する対象となる人20の顔(表情)の画像データを取得する。
次に、制御装置35は、取得した画像データに現された人20の顔の器官(目、眉、鼻)を、位置情報としての座標に変換する。
当該座標化の方法は、図8のステップS202と同様であるため、説明を省略する。
次に、制御装置35は、取得した画像データに現された人20の顔の器官の座標を正規化する。当該正規化には、図4のステップS104で選択された基準となる座標を用いることができる。
当該正規化の方法は、図8のステップS203と同様であるため、説明を省略する。
次に、制御装置35は、取得した画像データを2次元の位置情報(距離情報)に変換する。具体的には、図9に示すように、制御装置35は、画像データの正規化された座標を、2つの距離情報、すなわち(1)点P2から点P3までの距離及び(2)点P6から点P7までの距離に変換する。
最後に、制御装置35は、変換した2次元の距離情報がそれぞれゼロ(又は、ゼロに近い値)であるか否かを識別する。当該2次元の距離情報がゼロ(又は、ゼロに近い値)であれば人20がまばたきをしていると判断できる。
このようにして、制御装置35は2次元の距離情報から人20がまばたきをしたか否かを検出することができる。
以上の如く、本実施形態に係る不快度推定システムは、部屋10の室内空間の環境変化に関する情報を検出する環境情報検出手段と、前記室内空間に存在する人20が前記室内空間の環境変化の際に発する不快な表情(顔しかめ及びまばたき)を検出する不快表情検出手段と、前記室内空間の環境変化の際に人20が発する不快な表情の頻度及びその際当該人20が実際にどの程度不快であるかの情報を予め蓄積することによりベイジアンネットワークを構築した不快度判断手段と、を具備し、前記不快度判断手段は、前記環境情報検出手段により検出された前記室内空間の環境変化に関する情報、及び当該環境変化の際に前記不快表情検出手段により検出された人20が発する不快な表情の頻度を用いて、前記ベイジアンネットワークから人20がどの程度不快であるかを推定するものである。
このように、環境変化に関する情報に加えて人が発する不快な表情の頻度を用いることにより、人の不快度を精度良く推定することができる。
また、前記不快表情検出手段は、人20が顔をしかめたか否かを検出する顔しかめ検出手段を含むものである。
このように構成することにより、特に周囲が明るく(まぶしく)なった際に人20が発すると考えられる顔しかめを、不快な表情として検出することができる。
また、前記環境情報検出手段は、人20に照射される光の照度を検出する照度検出手段を含むものである。
このように構成することにより、光の照度の変化による人20の不快度を検出することができる。
また、前記不快表情検出手段は、前記人がまばたきをしたか否かを検出するまばたき検出手段を含むものである。
このように構成することにより、特に周囲が明るく(まぶしく)なった際、又は暗くなった際に人20が発すると考えられるまばたきを、不快な表情として検出することができる。
また、本実施形態に係る不快度推定方法は、室内空間の環境変化に関する情報を検出する環境情報検出工程と、前記室内空間に存在する人が前記室内空間の環境変化の際に発する不快な表情を検出する不快表情検出工程と、前記環境情報検出手段により検出された前記室内空間の環境変化に関する情報、及び当該環境変化の際に前記不快表情検出手段により検出された前記人が発する不快な表情の頻度を用いて、前記室内空間の環境変化の際に前記人が発する不快な表情の頻度及びその際当該人が実際にどの程度不快であるかの情報を予め蓄積することにより構築されたベイジアンネットワークから前記人がどの程度不快であるかを推定する不快度判断工程と、を具備するものである。
このように、環境変化に関する情報に加えて人が発する不快な表情の頻度を用いることにより、人の不快度を精度良く推定することができる。
また、以上の如く、本実施形態に係る顔しかめ検出手段(顔しかめ検出システム)は、顔をしかめたか否かを判断する対象となる人20の顔を撮像するカメラ31(撮像手段)と、人20が顔をしかめた時及び顔をしかめていない時の当該顔の器官の位置情報を学習することで顔をしかめたか否かを識別する識別機能を予め作成し、当該予め作成した識別機能及びカメラ31により撮像された人20の顔の器官の位置情報から、当該カメラ31により撮像された人20が顔をしかめたか否かを判断する顔しかめ判断手段(制御装置35)と、を具備し、前記顔しかめ判断手段は、前記顔の器官の位置情報として、右眉の内側端部から右目の内側端部まで(点P1から点P4まで)の距離、左眉の内側端部から左目の内側端部まで(点P5から点P8まで)の距離、眉間(点P4から点P8まで)の距離、右目の上まぶたから下まぶたまで(点P2から点P3まで)の距離及び左目の上まぶたから下まぶたまで(点P6から点P7まで)の距離を用いるものである。
このように構成することにより、5つの距離のみを顔の器官の位置情報として用いるため、人20が顔をしかめているか否かを短時間で検出することができる。
また、前記顔しかめ判断手段は、前記顔の器官の位置情報を取得した後、右目の内側端部(点P1)、左目の内側端部(点P5)及び鼻の下端部(点P9)を基準として当該顔の器官の位置情報を正規化するものである。
このように構成することにより、撮像した人20の顔の向きの違いによる当該顔の器官の位置情報の誤差を低減することができる。
また、前記顔しかめ判断手段は、カメラ31により撮像された人20が顔をしかめたか否かを判断する際、当該人20と同一人物の顔の器官の位置情報から作成された識別機能を用いるものである。
このように、当該人20自身のデータに基づいて作成された識別機能を用いるため、人20が顔をしかめているか否かをより精度良く検出することができる。
また、本実施形態に係る顔しかめ検出方法は、人20が顔をしかめた時及び顔をしかめていない時の当該顔の器官の位置情報を学習することで顔をしかめたか否かを識別する識別機能を予め作成する学習工程と、顔をしかめたか否かを判断する対象となる人20の顔を撮像する撮像工程と、予め作成した識別機能及び前記撮像工程において撮像された人20の顔の器官の位置情報から、当該撮像工程において撮像された人20が顔をしかめたか否かを判断する顔しかめ判断工程と、を具備し、前記顔の器官の位置情報として、右眉の内側端部から右目の内側端部まで(点P1から点P4まで)の距離、左眉の内側端部から左目の内側端部まで(点P5から点P8まで)の距離、眉間(点P4から点P8まで)の距離、右目の上まぶたから下まぶたまで(点P2から点P3まで)の距離及び左目の上まぶたから下まぶたまで(点P6から点P7まで)の距離を用いるものである。
このように構成することにより、5つの距離のみを顔の器官の位置情報として用いるため、人20が顔をしかめているか否かを短時間で検出することができる。
なお、本実施形態においては、実験設備として設置された部屋10を例にして説明したが、本発明はこれに限るものではなく、日常生活において使用している部屋を用いて上述の顔しかめの検出や不快度の推定を行うことも可能である。
また、本実施形態においては、撮像手段としてカメラ31を用いたが、本発明はこれに限るものではない。例えば、人20が作業しているパソコンに内臓されたカメラ等を撮像手段として用いることも可能である。
また、本実施形態においては窓照明33を用いたが、本発明はこれに限るものではなく、通常の窓(部屋10の外部の光が入ってくる窓)と当該窓の輝度を検出するセンサを用いて上述の顔しかめの検出や不快度の推定を行うことも可能である。
また、本実施形態において、不快表情検出手段は、人20が発する不快な表情として顔しかめ及びまばたきを検出するものとしたが、本発明はこれに限るものではない。すなわち、その他の不快な表情(例えば、目を長時間閉じる、涙を流す等)を検出する構成とすることも可能である。
また、本実施形態において、環境情報検出手段は、部屋10の室内空間の環境変化に関する情報として、天井照明32人20に照射される光の照度及び窓照明33の輝度を検出するものとしたが、本発明はこれに限るものではない。すなわち、その他の環境変化(例えば、温度の変化、湿度の変化等)を検出する構成とすることも可能である。
10 部屋
20 人
30 不快度推定システム
31 カメラ
32 天井照明
33 窓照明
34 不快度測定ダイヤル
35 制御装置

Claims (5)

  1. 室内空間の環境変化に関する情報を検出する環境情報検出手段と、
    前記室内空間に存在する人が前記室内空間の環境変化の際に発する不快な表情を検出する不快表情検出手段と、
    前記室内空間の環境変化の際に、前記不快表情検出手段により検出された前記人が発する不快な表情の頻度及び観察者により検出された前記人が発する不快な表情の頻度、並びにその際当該人が実際にどの程度不快であるかの情報を予め蓄積することによりベイジアンネットワークを構築した不快度判断手段と、
    を具備し、
    前記不快度判断手段は、
    前記環境情報検出手段により検出された前記室内空間の環境変化に関する情報、及び当該環境変化の際に前記不快表情検出手段により検出された前記人が発する不快な表情の頻度を用いて、前記ベイジアンネットワークから前記人がどの程度不快であるかを推定することを特徴とする、
    不快度推定システム。
  2. 前記不快表情検出手段は、
    前記人が顔をしかめたか否かを検出する顔しかめ検出手段を含むことを特徴とする、
    請求項1に記載の不快度推定システム。
  3. 前記環境情報検出手段は、
    前記人に照射される光の照度を検出する照度検出手段を含むことを特徴とする、
    請求項1又は請求項2に記載の不快度推定システム。
  4. 前記不快表情検出手段は、
    前記人がまばたきをしたか否かを検出するまばたき検出手段を含むことを特徴とする、
    請求項1から請求項3までのいずれか一項に記載の不快度推定システム。
  5. 室内空間の環境変化に関する情報を検出する環境情報検出工程と、
    前記室内空間に存在する人が前記室内空間の環境変化の際に発する不快な表情を検出する不快表情検出工程と、
    前記環境情報検出工程により検出された前記室内空間の環境変化に関する情報、及び当該環境変化の際に前記不快表情検出工程により検出された前記人が発する不快な表情の頻度を用いて、
    前記室内空間の環境変化の際に、前記不快表情検出工程により検出された前記人が発する不快な表情の頻度及び観察者により検出された前記人が発する不快な表情の頻度、並びにその際当該人が実際にどの程度不快であるかの情報を予め蓄積することにより構築されたベイジアンネットワークから前記人がどの程度不快であるかを推定する不快度判断工程と、
    を具備する不快度推定方法。
JP2012149854A 2012-07-03 2012-07-03 不快度推定システム及び不快度推定方法 Active JP6075983B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012149854A JP6075983B2 (ja) 2012-07-03 2012-07-03 不快度推定システム及び不快度推定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012149854A JP6075983B2 (ja) 2012-07-03 2012-07-03 不快度推定システム及び不快度推定方法

Publications (2)

Publication Number Publication Date
JP2014013448A JP2014013448A (ja) 2014-01-23
JP6075983B2 true JP6075983B2 (ja) 2017-02-08

Family

ID=50109110

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012149854A Active JP6075983B2 (ja) 2012-07-03 2012-07-03 不快度推定システム及び不快度推定方法

Country Status (1)

Country Link
JP (1) JP6075983B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111881843B (zh) * 2020-07-30 2023-12-29 河南天迈科技有限公司 一种基于人脸检测的出租车载客人数统计方法
WO2023095229A1 (ja) 2021-11-25 2023-06-01 三菱電機株式会社 覚醒度推定装置および覚醒度推定方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4569134B2 (ja) * 2004-03-11 2010-10-27 トヨタ自動車株式会社 感情誘導装置及び感情誘導方法
JP4535274B2 (ja) * 2005-04-04 2010-09-01 株式会社デンソー 自動車用ユーザーもてなしシステム
JP2009046115A (ja) * 2007-07-20 2009-03-05 Denso It Laboratory Inc 車両用空調装置及び車両用空調装置の制御方法

Also Published As

Publication number Publication date
JP2014013448A (ja) 2014-01-23

Similar Documents

Publication Publication Date Title
JP5899472B2 (ja) 人物属性推定システム、及び学習用データ生成装置
KR20180072978A (ko) 홈 로봇 장치의 동작 운용 방법 및 이를 지원하는 홈 로봇 장치
JP6570786B2 (ja) 動作学習装置、技能判別装置および技能判別システム
CN108985210A (zh) 一种基于人眼几何特征的视线追踪方法及系统
US11298050B2 (en) Posture estimation device, behavior estimation device, storage medium storing posture estimation program, and posture estimation method
JP5801237B2 (ja) 部位推定装置、部位推定方法、および部位推定プログラム
JP2007233997A (ja) 顔特徴点検出装置及びその方法
JP2014199584A (ja) 画像処理装置および画像処理方法
JP2008192100A (ja) 瞼検出装置及びプログラム
JP6840697B2 (ja) 視線方向推定装置、視線方向推定方法、及び視線方向推定プログラム
US20210059569A1 (en) Fall risk evaluation method, fall risk evaluation device, and non-transitory computer-readable recording medium in which fall risk evaluation program is recorded
WO2017073520A1 (ja) 対象認識システム、対象認識方法、プログラム及びコンピュータ記憶媒体
KR20160114996A (ko) 사용자 맞춤형 운동 서비스 제공 방법 및 장치
JP6981277B2 (ja) 検出装置、及び検出プログラム
CN104951055B (zh) 设置设备的操作模式的方法和装置、以及空调设备
JP6651086B1 (ja) 画像分析プログラム、情報処理端末、及び画像分析システム
JP6075983B2 (ja) 不快度推定システム及び不快度推定方法
JP6075982B2 (ja) 顔しかめ検出システム及び顔しかめ検出方法
US20210059596A1 (en) Cognitive function evaluation method, cognitive function evaluation device, and non-transitory computer-readable recording medium in which cognitive function evaluation program is recorded
KR100998709B1 (ko) 물체의 공간적 의미정보를 이용한 로봇의 자기위치 추정 방법
JP5482412B2 (ja) ロボット、位置推定方法及びプログラム
JP2021033359A (ja) 感情推定装置、感情推定方法、プログラム、情報提示装置、情報提示方法及び感情推定システム
JP2005258830A (ja) 人物行動理解システム
KR20200098796A (ko) 사용자 참여형 인체 3차원 모델링 장치 및 방법
JP6202882B2 (ja) 表情検出システム及び表情検出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150629

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160824

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170110

R150 Certificate of patent or registration of utility model

Ref document number: 6075983

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250