JP2014013448A - Unpleasantness degree estimation system and unpleasantness degree estimation method - Google Patents

Unpleasantness degree estimation system and unpleasantness degree estimation method Download PDF

Info

Publication number
JP2014013448A
JP2014013448A JP2012149854A JP2012149854A JP2014013448A JP 2014013448 A JP2014013448 A JP 2014013448A JP 2012149854 A JP2012149854 A JP 2012149854A JP 2012149854 A JP2012149854 A JP 2012149854A JP 2014013448 A JP2014013448 A JP 2014013448A
Authority
JP
Japan
Prior art keywords
person
unpleasant
detection means
information
indoor space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012149854A
Other languages
Japanese (ja)
Other versions
JP6075983B2 (en
Inventor
Yasushi Sugano
泰史 菅野
Ayako Ito
亜矢子 伊東
Mizuki Honma
瑞基 本間
Hiroyuki Inoue
博之 井上
Yasuo Takahashi
康夫 高橋
Ryuta Nishida
竜太 西田
Akihiro Koike
昭啓 小池
Satsuki Kato
五月 加藤
Minoru Asada
稔 浅田
Hiroshi Ishiguro
浩 石黒
Yoshio Iwai
儀雄 岩井
Noriko Takemura
紀子 武村
Kanenori Kitamura
謙典 北村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Osaka University NUC
Daiwa House Industry Co Ltd
Original Assignee
Osaka University NUC
Daiwa House Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Osaka University NUC, Daiwa House Industry Co Ltd filed Critical Osaka University NUC
Priority to JP2012149854A priority Critical patent/JP6075983B2/en
Publication of JP2014013448A publication Critical patent/JP2014013448A/en
Application granted granted Critical
Publication of JP6075983B2 publication Critical patent/JP6075983B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an unpleasantness degree estimation system and an unpleasantness degree estimation method capable of accurately estimating the unpleasantness degree of a person.SOLUTION: The unpleasantness degree estimation system includes: environment information detection means for detecting information on the environmental change of the indoor space of a room 10; unpleasant expression detection means for detecting unpleasant expressions (frown and blink) shown by a person 20 who exists in the indoor space when the environment of the indoor space changes; and unpleasantness degree determination means for constructing a Bayesian network by preliminarily accumulating information on the frequency of the unpleasant expressions shown by the person 20 when the environment of the indoor space changes and information on how far the person 20 actually feels unpleasant. The unpleasantness degree determination means estimates how far the person 20 feels unpleasant from the Bayesian network by using the information on the environmental change of the indoor space detected by the environment information detection means and the frequency of the unpleasant expressions shown by the person 20 detected by the unpleasant expression detection means when the environment changes.

Description

本発明は、人がどの程度不快であるかを推定することが可能な不快度推定システム及び不快度推定方法の技術に関する。   The present invention relates to a technique of a discomfort degree estimation system and a discomfort degree estimation method capable of estimating how much a person is uncomfortable.

従来、空間の環境に関する情報(特に、照明器具による光の照度)に基づいて照明装置を制御し、当該空間の照度を所望の照度にすることとした技術は公知となっている。例えば、特許文献1に記載の如くである。   2. Description of the Related Art Conventionally, a technique in which a lighting device is controlled based on information about a space environment (particularly, the illuminance of light from a lighting fixture) to make the illuminance of the space a desired illuminance is publicly known. For example, as described in Patent Document 1.

特許文献1に記載の技術では、空間内の所望の場所(例えば、人が存在する場所)で計測された照度に対する影響度が大きい照明器具を選択し、当該照明器具を所定の順序で増減制御することにより、当該所望の場所の照度を所望の照度に制御することができる。この際、人が一般的に快適に感じるであろう照度を当該所望の照度として予め設定しておくことで、当該人にとって快適な照明環境を提供することができる。
すなわち、この場合、照度が当該所望の照度となったときに、人が快適に感じているものと推定している。
In the technique described in Patent Document 1, a lighting fixture having a large influence on the illuminance measured at a desired place in a space (for example, a place where a person exists) is selected, and the lighting fixture is controlled to increase or decrease in a predetermined order. By doing so, the illuminance at the desired location can be controlled to the desired illuminance. At this time, by setting the illuminance that a person will generally feel comfortable as the desired illuminance in advance, it is possible to provide a comfortable lighting environment for the person.
That is, in this case, when the illuminance reaches the desired illuminance, it is estimated that the person feels comfortable.

しかし実際には、快適に感じる照度は人によって異なるため、空間内の照度を所望の照度に制御することができても、必ずしも当該照度が当該人にとって快適な照度であるとは限らない。すなわち、環境に関する情報(上記の例においては、光の照度)だけでは、人がどの程度快適に感じているか(言い換えれば、どの程度不快に感じているか(不快度))を精度良く推定することは困難であった。   However, in actuality, the illuminance that is felt comfortably varies depending on the person, so even if the illuminance in the space can be controlled to a desired illuminance, the illuminance is not necessarily comfortable for the person. That is, accurately estimate how comfortable a person feels (in other words, how uncomfortable they feel (discomfort level)) with only environmental information (light intensity in the above example). Was difficult.

特開2008−16291号公報JP 2008-16291 A

本発明は以上の如き状況に鑑みてなされたものであり、その解決しようとする課題は、人の不快度を精度良く推定することが可能な不快度推定システム及び不快度推定方法を提供するものである。   The present invention has been made in view of the above situation, and a problem to be solved is to provide a discomfort degree estimation system and a discomfort degree estimation method capable of accurately estimating a person's discomfort degree. It is.

本発明の解決しようとする課題は以上の如くであり、次にこの課題を解決するための手段を説明する。   The problem to be solved by the present invention is as described above. Next, means for solving the problem will be described.

即ち、請求項1においては、室内空間の環境変化に関する情報を検出する環境情報検出手段と、前記室内空間に存在する人が前記室内空間の環境変化の際に発する不快な表情を検出する不快表情検出手段と、前記室内空間の環境変化の際に前記人が発する不快な表情の頻度及びその際当該人が実際にどの程度不快であるかの情報を予め蓄積することによりベイジアンネットワークを構築した不快度判断手段と、を具備し、前記不快度判断手段は、前記環境情報検出手段により検出された前記室内空間の環境変化に関する情報、及び当該環境変化の際に前記不快表情検出手段により検出された前記人が発する不快な表情の頻度を用いて、前記ベイジアンネットワークから前記人がどの程度不快であるかを推定するものである。   That is, according to claim 1, environmental information detecting means for detecting information related to an environmental change in the indoor space, and an unpleasant facial expression for detecting an unpleasant facial expression that occurs when the person existing in the indoor space changes in the environmental environment of the indoor space. Discomfort in which a Bayesian network is constructed by pre-accumulating detection means and information on the frequency of unpleasant facial expressions generated by the person when the environment of the indoor space changes and how much the person is actually uncomfortable at that time Degree judgment means, and the discomfort degree judgment means is detected by the unpleasant expression detection means at the time of the environment change, and information on the environmental change of the indoor space detected by the environment information detection means. The frequency of the unpleasant facial expression that the person emits is used to estimate how unpleasant the person is from the Bayesian network.

請求項2においては、前記不快表情検出手段は、前記人が顔をしかめたか否かを検出する顔しかめ検出手段を含むものである。   According to a second aspect of the present invention, the unpleasant facial expression detection means includes face frowning detection means for detecting whether or not the person has frowned.

請求項3においては、前記環境情報検出手段は、前記人に照射される光の照度を検出する照度検出手段を含むものである。   According to a third aspect of the present invention, the environmental information detection means includes illuminance detection means for detecting the illuminance of light irradiated on the person.

請求項4においては、前記不快表情検出手段は、前記人がまばたきをしたか否かを検出するまばたき検出手段を含むものである。   According to a fourth aspect of the present invention, the unpleasant facial expression detection means includes blink detection means for detecting whether or not the person has blinked.

請求項5においては、室内空間の環境変化に関する情報を検出する環境情報検出工程と、前記室内空間に存在する人が前記室内空間の環境変化の際に発する不快な表情を検出する不快表情検出工程と、前記環境情報検出手段により検出された前記室内空間の環境変化に関する情報、及び当該環境変化の際に前記不快表情検出手段により検出された前記人が発する不快な表情の頻度を用いて、前記室内空間の環境変化の際に前記人が発する不快な表情の頻度及びその際当該人が実際にどの程度不快であるかの情報を予め蓄積することにより構築されたベイジアンネットワークから前記人がどの程度不快であるかを推定する不快度判断工程と、を具備するものである。   In Claim 5, the environmental information detection process which detects the information regarding the environmental change of indoor space, and the unpleasant facial expression detection process which detects the unpleasant facial expression which the person who exists in the said indoor space emits at the time of the environmental change of the said indoor space And the information on the environmental change of the indoor space detected by the environmental information detection means, and the frequency of the unpleasant facial expression emitted by the person detected by the unpleasant facial expression detection means at the time of the environmental change, The frequency of the unpleasant facial expression that the person emits when the environment of the indoor space changes, and how much the person is from the Bayesian network constructed by pre-accumulating information on how uncomfortable the person is An uncomfortable degree determination step for estimating whether it is unpleasant.

本発明は、環境変化に関する情報に加えて人が発する不快な表情の頻度を用いることにより、人の不快度を精度良く推定することができる、という効果を奏する。   The present invention has an effect that it is possible to accurately estimate the degree of discomfort of a person by using the frequency of an unpleasant facial expression that a person emits in addition to information on environmental changes.

不快度推定システムの構成をしめした模式図。The schematic diagram which showed the structure of the discomfort degree estimation system. 本実施形態に係るベイジアンネットワークの構成を示した図。The figure which showed the structure of the Bayesian network which concerns on this embodiment. 目視による顔しかめの判断基準を示した図。The figure which showed the judgment standard of the grimace by visual observation. 学習工程を示したフローチャート。The flowchart which showed the learning process. 顔の器官を座標に変換する様子を示した図。The figure which showed a mode that the organ of the face was converted into a coordinate. 正規化する際に基準となる座標を示した図。The figure which showed the coordinate used as the reference | standard when normalizing. 座標を5次元の距離情報に変換する様子を示した図。The figure which showed a mode that a coordinate was converted into 5-dimensional distance information. 撮像工程及び顔しかめ判断工程を示したフローチャート。The flowchart which showed the imaging process and the frown determination process. 座標を2次元の距離情報に変換する様子を示した図。The figure which showed a mode that a coordinate was converted into two-dimensional distance information.

以下では、図1を用いて、本実施形態に係る不快度推定システム30の構成について説明する。   Below, the structure of the discomfort degree estimation system 30 which concerns on this embodiment is demonstrated using FIG.

不快度推定システム30は、実験設備として設置された部屋10内に存在する人20がどの程度不快であるか(不快度)を推定するものである。不快度推定システム30は、主としてカメラ31、天井照明32、窓照明33、不快度測定ダイヤル34及び制御装置35を具備する。   The discomfort degree estimation system 30 estimates how much the person 20 existing in the room 10 installed as experimental equipment is uncomfortable (discomfort degree). The discomfort level estimation system 30 mainly includes a camera 31, a ceiling light 32, a window light 33, a discomfort level measurement dial 34, and a control device 35.

撮像手段としてのカメラ31は、人20の顔を撮像するものである。カメラ31は、着席して所定の作業を行っている人20の正面に配置され、当該人の顔を常時撮像することができる。   The camera 31 serving as an imaging unit captures the face of the person 20. The camera 31 is placed in front of a person 20 who is seated and performing a predetermined work, and can always capture the face of the person.

天井照明32は、部屋10の室内空間の照明器具である。天井照明32は、部屋10の天井であって、人20の上方に配置される。天井照明32による照度は変更可能となるように構成される。   The ceiling lighting 32 is a lighting device for the indoor space of the room 10. The ceiling illumination 32 is arranged on the ceiling of the room 10 and above the person 20. The illumination by the ceiling lighting 32 is configured to be changeable.

窓照明33は、部屋10に設けられた窓を擬似的に再現するための照明器具である。窓照明33は、部屋10の側壁面であって、人20の正面に配置される。窓照明33の輝度は変更可能となるように構成される。窓照明33を発光させることにより、部屋10に設けられた窓から太陽光が差し込む状態を擬似的に再現することができる。   The window illumination 33 is a luminaire for reproducing a window provided in the room 10 in a pseudo manner. The window illumination 33 is disposed on the side wall surface of the room 10 and in front of the person 20. The brightness of the window illumination 33 is configured to be changeable. By causing the window illumination 33 to emit light, a state in which sunlight is inserted from a window provided in the room 10 can be simulated.

不快度測定ダイヤル34は、人20がどの程度不快であるか(不快度)を測定するためのものである。不快度測定ダイヤル34はダイヤル式のスイッチにより構成され、人20の手が届く範囲に配置される。不快度測定ダイヤル34には所定の数値範囲で不快度を表す目盛が付されている。人20は、不快度測定ダイヤル34が指し示す数値(目盛)が、自らが感じた不快の程度に応じた値となるように当該不快度測定ダイヤル34を操作する。   The discomfort degree measurement dial 34 is for measuring how discomfort the person 20 is (discomfort degree). The discomfort measurement dial 34 is constituted by a dial-type switch, and is disposed in a range that can be reached by a person 20. The discomfort level measurement dial 34 is provided with a scale indicating the discomfort level within a predetermined numerical range. The person 20 operates the discomfort measurement dial 34 so that the numerical value (scale) indicated by the discomfort measurement dial 34 becomes a value corresponding to the degree of discomfort felt by the person 20.

制御装置35は、種々の情報に基づいて天井照明32や窓照明33の照度及び輝度を制御したり、所定の演算処理や記憶等を行うものである。制御装置35は、RAMやROM等の記憶部、CPU等の演算処理部等により構成される。   The control device 35 controls the illuminance and luminance of the ceiling illumination 32 and the window illumination 33 based on various information, and performs predetermined arithmetic processing and storage. The control device 35 includes a storage unit such as a RAM and a ROM, an arithmetic processing unit such as a CPU, and the like.

制御装置35はカメラ31に接続され、当該カメラ31が撮像した画像データを取得することができる。
制御装置35は天井照明32に接続され、当該天井照明32による照度が任意の照度となるように制御することができる。
制御装置35は窓照明33に接続され、当該窓照明33の輝度が任意の輝度となるように制御することができる。
制御装置35は不快度測定ダイヤル34に接続され、当該不快度測定ダイヤル34が指し示す数値(目盛)を検出することができる。
The control device 35 is connected to the camera 31 and can acquire image data captured by the camera 31.
The control device 35 is connected to the ceiling illumination 32 and can control the illuminance by the ceiling illumination 32 to be an arbitrary illuminance.
The control device 35 is connected to the window illumination 33 and can control the luminance of the window illumination 33 to be an arbitrary luminance.
The control device 35 is connected to the discomfort level measurement dial 34 and can detect a numerical value (scale) indicated by the discomfort level measurement dial 34.

上述の如く構成された不快度推定システム30は、不快表情検出手段、環境情報検出手段及び不快度判断手段を具備する。以下では上記各手段について説明する。   The discomfort degree estimation system 30 configured as described above includes an unpleasant expression detection means, an environment information detection means, and a discomfort degree determination means. Below, each said means is demonstrated.

前記不快表情検出手段は、部屋10の室内空間に存在する人20が当該室内空間の環境変化の際に発する不快な表情(本実施形態においては、顔しかめ及びまばたき)を検出するものである。
本実施形態に係る不快表情検出手段は、主としてカメラ31及び制御装置35により構成される。
The unpleasant expression detecting means detects an unpleasant expression (in this embodiment, frowning and blinking) that occurs when the person 20 existing in the indoor space of the room 10 changes the environment of the indoor space.
The unpleasant facial expression detection means according to this embodiment is mainly composed of a camera 31 and a control device 35.

さらに、前記不快表情検出手段は、顔しかめ検出手段(顔しかめ検出システム)及びまばたき検出手段を含むものである。   Further, the unpleasant facial expression detecting means includes a frown detection means (face fringe detection system) and a blink detection means.

前記顔しかめ検出手段(顔しかめ検出システム)は、人20が顔をしかめたか否かを検出するものである。
本実施形態に係る顔しかめ検出手段(顔しかめ検出システム)は、主としてカメラ31(撮像手段)及び制御装置35(後述する顔しかめ判断手段)により構成される。
前記顔しかめ検出手段(顔しかめ検出システム)による人20の顔しかめの検出方法については、後述する。
The frown detection means (face fringe detection system) detects whether or not the person 20 has frowned.
The frowning detection means (face fringe detection system) according to the present embodiment is mainly composed of a camera 31 (imaging means) and a control device 35 (face fringe determination means described later).
A method of detecting the frowning of the person 20 by the frowning detection means (face fringe detection system) will be described later.

前記まばたき検出手段は、人20がまばたきをしたか否かを検出するものである。
本実施形態に係るまばたき検出手段は、主としてカメラ31及び制御装置35により構成される。
前記まばたき検出手段による人20のまばたきの検出方法については、後述する。
The blink detection means detects whether or not the person 20 blinks.
The blink detection unit according to the present embodiment is mainly configured by the camera 31 and the control device 35.
A method for detecting the blink of the person 20 by the blink detection means will be described later.

前記環境情報検出手段は、部屋10の室内空間の環境変化に関する情報(本実施形態においては、天井照明32から人20に照射される光の照度及び窓照明33の輝度の変化)を検出するものである。
本実施形態に係る環境情報検出手段は、主として天井照明32、窓照明33及び制御装置35により構成される。
The environmental information detection means detects information related to the environmental change in the indoor space of the room 10 (in this embodiment, the illuminance of light irradiated on the person 20 from the ceiling lighting 32 and the luminance change of the window lighting 33). It is.
The environmental information detection means according to the present embodiment is mainly composed of a ceiling illumination 32, a window illumination 33, and a control device 35.

さらに、前記環境情報検出手段は、照度検出手段及び輝度検出手段を含むものである。   Furthermore, the environmental information detection means includes illuminance detection means and luminance detection means.

前記照度検出手段は、天井照明32から人20に照射される光の照度を検出するものである。
本実施形態に係る照度検出手段は、主として天井照明32及び制御装置35により構成される。
制御装置35は、天井照明32から人20に照射される光の照度が任意の照度となるように自ら制御しているため、別途センサ等を用いるまでもなく当該天井照明32による照度を検出することができる。
The illuminance detection means detects the illuminance of light emitted from the ceiling illumination 32 to the person 20.
The illuminance detection means according to the present embodiment is mainly composed of the ceiling illumination 32 and the control device 35.
Since the control device 35 controls itself so that the illuminance of the light irradiated to the person 20 from the ceiling illumination 32 becomes an arbitrary illuminance, the illumination by the ceiling illumination 32 is detected without using a separate sensor or the like. be able to.

前記輝度検出手段は、窓照明33の輝度を検出するものである。
本実施形態に係る輝度検出手段は、主として窓照明33及び制御装置35により構成される。
制御装置35は、窓照明33の輝度が任意の輝度となるように自ら制御しているため、別途センサ等を用いるまでもなく当該窓照明33の輝度を検出することができる。
The brightness detecting means detects the brightness of the window illumination 33.
The luminance detection unit according to the present embodiment is mainly configured by the window illumination 33 and the control device 35.
Since the control device 35 controls itself so that the brightness of the window illumination 33 becomes an arbitrary brightness, the brightness of the window illumination 33 can be detected without using a separate sensor or the like.

前記不快度判断手段は、人20がどの程度不快であるか(不快度)を推定するものである。
本実施形態に係る不快度判断手段は、主として制御装置35により構成される。
前記不快度判断手段による人20の不快度の推定方法については、後述する。
The discomfort degree judging means estimates how much the person 20 is uncomfortable (discomfort degree).
The discomfort degree determination unit according to the present embodiment is mainly configured by the control device 35.
A method for estimating the discomfort level of the person 20 by the discomfort level determination means will be described later.

以下では、図2及び図3を用いて、不快度推定システム30による人20の不快度を推定する方法について説明する。   Below, the method of estimating the discomfort degree of the person 20 by the discomfort degree estimation system 30 is demonstrated using FIG.2 and FIG.3.

不快度推定システム30が具備する前記不快度判断手段(すなわち、制御装置35)には、図2に示すように構築されたベイジアンネットワーク(Bayesian Network)が予め記憶され、当該ベイジアンネットワークを利用して人20の不快度が推定される。ベイジアンネットワークとは、複数の変数間の因果関係を非循環有向グラフで表すと共に、個々の変数の関係を条件付き確率で表す確率推論のモデルである。図中の矢印の始点側のノードが原因を、終点側のノードが結果を、それぞれ表している。また、原因が結果に及ぼす影響の度合いは、条件付き確率で定量化される。   In the discomfort degree determination means (that is, the control device 35) provided in the discomfort degree estimation system 30, a Bayesian network constructed as shown in FIG. 2 is stored in advance, and the Bayesian network is used. The discomfort level of the person 20 is estimated. A Bayesian network is a model of probabilistic reasoning in which a causal relationship between a plurality of variables is represented by an acyclic directed graph and a relationship between individual variables is represented by a conditional probability. In the figure, the node on the start point side of the arrow indicates the cause, and the node on the end point side indicates the result. Also, the degree of influence of the cause on the result is quantified with a conditional probability.

図2に示すように、本実施形態に係るベイジアンネットワークは、顔しかめ認識頻度ノードN101と、顔しかめ表出頻度ノードN102と、まばたき認識頻度ノードN201と、まばたき表出頻度ノードN202と、照度(天井)変化前ノードN301と、輝度(窓)変化前ノードN401と、照度(天井)変化後ノードN501と、輝度(窓)変化後ノードN601と、不快度ノードN701と、により構築される。   As shown in FIG. 2, the Bayesian network according to the present embodiment includes a frown recognition frequency node N101, a frown expression frequency node N102, a blink recognition frequency node N201, a blink expression frequency node N202, and illuminance ( It is constructed by a node N301 before the ceiling) change, a node N401 before the change in luminance (window), a node N501 after the change in illuminance (ceiling), a node N601 after the change in luminance (window), and a discomfort level node N701.

本実施形態に係るベイジアンネットワークは、制御装置35によって天井照明32及び窓照明33を制御することで人20に対して複数パターンの照明変化(天井照明32による照度、及び窓照明33の輝度の大きな変化)を与える学習実験の結果に基づいて構築され、当該制御装置35に記憶される。具体的には、当該学習実験に基づいて上記各ノードの確率(事前確率又は条件付き確率)が求められ、制御装置35に記憶される。   In the Bayesian network according to this embodiment, the control device 35 controls the ceiling illumination 32 and the window illumination 33 to change a plurality of patterns of illumination changes (the illuminance due to the ceiling illumination 32 and the luminance of the window illumination 33 are large). Is constructed based on the result of the learning experiment that gives (change), and is stored in the control device 35. Specifically, the probabilities (prior probabilities or conditional probabilities) of the above nodes are obtained based on the learning experiment and stored in the control device 35.

以下では、本実施形態に係るベイジアンネットワークの各ノードについて説明する。   Below, each node of the Bayesian network which concerns on this embodiment is demonstrated.

顔しかめ認識頻度ノードN101は、人20の顔しかめの頻度を表すノードである。当該人20の顔しかめ(顔をしかめたか否か)は、前記顔しかめ検出手段(顔しかめ検出システム)により検出される。前記学習実験において、人20が顔をしかめたか否かが前記顔しかめ検出手段により検出されると共に、制御装置35によって当該人20の顔しかめの頻度(顔しかめの周波数)が算出される。当該顔しかめの頻度は複数の数値範囲に分類され、顔しかめの頻度が各数値範囲に含まれる確率(事前確率)が制御装置35に記憶される。   The frown recognition frequency node N101 is a node representing the frown frequency of the person 20. The frowning of the person 20 (whether or not the face is frowned) is detected by the frowning detection means (face frowning detection system). In the learning experiment, whether or not the person 20 is frowning is detected by the face fringing detection means, and the frequency of fringing of the person 20 (frequing frequency) is calculated by the control device 35. The frequency of the frowning is classified into a plurality of numerical ranges, and the probability (prior probability) that the frequency of frowning is included in each numerical range is stored in the control device 35.

顔しかめ表出頻度ノードN102は、実際の人20の顔しかめの頻度を表すノードである。前記学習実験において、実際に人20が顔をしかめたか否かが目視等により確認されると共に、当該実際の人20の顔しかめの頻度(顔しかめの周波数)が算出される。
ここで、前記学習実験においては、例えば図3に示すように、顔をしかめていない状態の表情(図3(a))に対して、目Eを細めたり(図3(b))、眉Bを寄せて目Eを細めたり(図3(c))、眉Bを寄せて目Eを細め、かつ口Mを横にひいたり(図3(d))した場合に、人20が顔をしかめたと判断される。
算出された実際の顔しかめの頻度は複数の数値範囲に分類され、顔しかめ認識頻度ノードN101を原因とする当該実際の顔しかめの頻度が各数値範囲に含まれる確率(条件付き確率)が、制御装置35に記憶される。
The frowning expression frequency node N102 is a node representing the fringing frequency of the actual person 20. In the learning experiment, whether or not the person 20 actually grimaced is confirmed by visual observation or the like, and the frequency of grimacing (frequency of grimacing) of the actual person 20 is calculated.
Here, in the learning experiment, for example, as shown in FIG. 3, the eye E is narrowed (FIG. 3 (b)) with respect to the expression (FIG. 3 (a)) in which the face is not frowned. If the eye E is narrowed by bringing B close (FIG. 3 (c)), the eye E is narrowed by pulling the eyebrow B, and the mouth M is pulled sideways (FIG. 3 (d)), the person 20 faces It is judged that it was frowned.
The calculated frequency of frowning is classified into a plurality of numerical ranges, and the probability (conditional probability) that the frequency of the actual frowning caused by the face fraud recognition frequency node N101 is included in each numerical range is as follows: It is stored in the control device 35.

まばたき認識頻度ノードN201は、人20のまばたきの頻度を表すノードである。当該人20のまばたきは、前記まばたき検出手段により検出される。前記学習実験において、人20がまばたきをしたか否かが前記まばたき検出手段により検出されると共に、制御装置35によって当該人20のまばたきの頻度(まばたきの周波数)が算出される。当該まばたきの頻度は複数の数値範囲に分類され、まばたきの頻度が各数値範囲に含まれる確率(事前確率)が制御装置35に記憶される。   The blink recognition frequency node N201 is a node representing the blink frequency of the person 20. The blink of the person 20 is detected by the blink detection means. In the learning experiment, whether or not the person 20 blinks is detected by the blink detection means, and the blinking frequency of the person 20 is calculated by the control device 35. The blink frequency is classified into a plurality of numerical ranges, and the probability (prior probability) that the blink frequency is included in each numerical range is stored in the control device 35.

まばたき表出頻度ノードN202は、実際の人20のまばたきの頻度を表すノードである。前記学習実験において、実際に人20がまばたきをしたか否かが目視等により確認されると共に、当該実際の人20のまばたきの頻度(まばたきの周波数)が算出される。当該実際のまばたきの頻度は複数の数値範囲に分類され、まばたき認識頻度ノードN201を原因とする当該実際のまばたきの頻度が各数値範囲に含まれる確率(条件付き確率)が、制御装置35に記憶される。   The blinking expression frequency node N202 is a node representing the blinking frequency of the actual person 20. In the learning experiment, whether or not the person 20 actually blinks is confirmed by visual observation or the like, and the blink frequency of the actual person 20 (blink frequency) is calculated. The actual blink frequency is classified into a plurality of numerical ranges, and the probability (conditional probability) that the actual blink frequency caused by the blink recognition frequency node N201 is included in each numerical range is stored in the control device 35. Is done.

照度(天井)変化前ノードN301は、天井照明32による照度が大きく変化する前の照度を表すノードである。当該照度は、前記照度検出手段により検出される。前記学習実験において、天井照明32による照度が大きく変化する前の照度は複数の数値範囲に分類され、当該大きく変化する前の照度が各数値範囲に含まれる確率(事前確率)が制御装置35に記憶される。   The illuminance (ceiling) pre-change node N301 is a node representing the illuminance before the illuminance by the ceiling illumination 32 changes significantly. The illuminance is detected by the illuminance detection means. In the learning experiment, the illuminance before the illuminance due to the ceiling illumination 32 is largely changed is classified into a plurality of numerical ranges, and the probability (prior probability) that the illuminance before the significant change is included in each numerical range is given to the control device 35. Remembered.

輝度(窓)変化前ノードN401は、窓照明33の輝度が大きく変化する前の輝度を表すノードである。当該輝度は、前記輝度検出手段により検出される。前記学習実験において、窓照明33の輝度が大きく変化する前の輝度は複数の数値範囲に分類され、当該大きく変化する前の輝度が各数値範囲に含まれる確率(事前確率)が制御装置35に記憶される。   The node N401 before change in luminance (window) is a node representing the luminance before the luminance of the window illumination 33 changes greatly. The brightness is detected by the brightness detecting means. In the learning experiment, the luminance before the luminance of the window illumination 33 is largely changed is classified into a plurality of numerical ranges, and the probability that the luminance before the large change is included in each numerical range (prior probability) is given to the control device 35. Remembered.

照度(天井)変化後ノードN501は、天井照明32による照度が大きく変化した後の照度を表すノードである。当該照度は、前記照度検出手段により検出される。前記学習実験において、天井照明32による照度が大きく変化した後の照度は複数の数値範囲に分類され、当該大きく変化した後の照度が各数値範囲に含まれる確率(事前確率)が制御装置35に記憶される。   The illuminance (ceiling) post-change node N501 is a node representing the illuminance after the illuminance by the ceiling illumination 32 has changed significantly. The illuminance is detected by the illuminance detection means. In the learning experiment, the illuminance after the illuminance due to the ceiling illumination 32 is greatly changed is classified into a plurality of numerical ranges, and the probability (prior probability) that the illuminance after the significant change is included in each numerical range is given to the control device 35. Remembered.

輝度(窓)変化後ノードN601は、窓照明33の輝度が大きく変化した後の輝度を表すノードである。当該輝度は、前記輝度検出手段により検出される。前記学習実験において、窓照明33の輝度が大きく変化した後の輝度は複数の数値範囲に分類され、当該大きく変化した後の輝度が各数値範囲に含まれる確率(事前確率)が制御装置35に記憶される。   The post-change luminance (window) node N601 is a node that represents the luminance after the luminance of the window illumination 33 has changed significantly. The brightness is detected by the brightness detecting means. In the learning experiment, the luminance after the luminance of the window lighting 33 is largely changed is classified into a plurality of numerical ranges, and the probability (prior probability) that the luminance after the large change is included in each numerical range is given to the control device 35. Remembered.

不快度ノードN701は、人20がどの程度不快であるか(不快度)を表すノードである。前記学習実験において、実際に人20がどの程度不快であるか(不快度)が測定される。具体的には、前記学習実験において、天井照明32による照度及び窓照明33の輝度が大きく変化した際に、人20が操作した不快度測定ダイヤル34の数値(目盛)を制御装置35が検出することにより、当該人20がどの程度不快であるか(不快度)を測定することができる。当該測定された不快度は複数の数値範囲に分類され、顔しかめ表出頻度ノードN102、まばたき表出頻度ノードN202、照度(天井)変化前ノードN301、輝度(窓)変化前ノードN401、照度(天井)変化後ノードN501及び輝度(窓)変化後ノードN601を原因とする当該測定された不快度が各数値範囲に含まれる確率(条件付き確率)が、制御装置35に記憶される。   The discomfort level node N701 is a node representing how much the person 20 is uncomfortable (discomfort level). In the learning experiment, how much the person 20 is actually uncomfortable (discomfort level) is measured. Specifically, in the learning experiment, the control device 35 detects the numerical value (scale) of the discomfort measurement dial 34 operated by the person 20 when the illuminance by the ceiling lighting 32 and the brightness of the window lighting 33 change greatly. Thus, it is possible to measure how unpleasant (discomfort level) the person 20 is. The measured discomfort level is classified into a plurality of numerical ranges, such as a frowning expression frequency node N102, a blinking expression frequency node N202, an illuminance (ceiling) pre-change node N301, a luminance (window) pre-change node N401, and an illuminance ( A probability (conditional probability) that the measured discomfort level caused by the node N501 after the change in the ceiling and the node N601 after the change in the brightness (window) is included in each numerical value range (conditional probability) is stored in the control device 35.

以上の如く、前記学習実験によって事前に構築されたベイジアンネットワークを用いて、部屋10の室内空間の環境が変化した(具体的には、天井照明32による照度及び窓照明33の輝度が大きく変化した)際の人20の不快度を、確率論として推定することができる。   As described above, the environment of the indoor space of the room 10 has changed using the Bayesian network constructed in advance by the learning experiment (specifically, the illuminance by the ceiling lighting 32 and the luminance of the window lighting 33 have changed greatly). ) The unpleasant degree of the person 20 can be estimated as a probability theory.

具体的には、まず、部屋10の天井照明32による照度及び窓照明33の輝度が変化した際に、前記環境情報検出手段によって当該変化に関する情報を検出する。すなわち、前記環境情報検出手段(前記照度検出手段及び前記輝度検出手段)は、天井照明32による照度が大きく変化する前の照度(照度(天井)変化前ノードN301)、窓照明33の輝度が大きく変化する前の輝度(輝度(窓)変化前ノードN401)、天井照明32による照度が大きく変化した後の照度(照度(天井)変化後ノードN501)及び窓照明33の輝度が大きく変化した後の輝度(輝度(窓)変化後ノードN601)を検出する。
この工程を、以下では環境情報検出工程と記す。
Specifically, first, when the illuminance by the ceiling illumination 32 in the room 10 and the luminance of the window illumination 33 change, the environmental information detection unit detects information related to the change. That is, the environmental information detection means (the illuminance detection means and the luminance detection means) has high illuminance before the illuminance by the ceiling illumination 32 changes significantly (node N301 before illuminance (ceiling) change) and the luminance of the window illumination 33. The luminance before the change (node N401 before luminance (window) change), the illuminance after the illuminance by the ceiling illumination 32 changes greatly (node N501 after the illuminance (ceiling) change), and the luminance of the window illumination 33 after the change greatly The brightness (node N601 after brightness (window) change) is detected.
Hereinafter, this process is referred to as an environmental information detection process.

また、部屋10の室内空間の環境(天井照明32による照度及び窓照明33の輝度)が変化した際に人20が発する不快な表情を前記不快表情検出手段によって検出する。すなわち、前記不快表情検出手段(前記顔しかめ検出手段及び前記まばたき検出手段)は、部屋10の室内空間の環境が変化した際の人20の顔しかめ及びまばたきを検出する。
この工程を、以下では不快表情検出工程と記す。
Further, the unpleasant expression detected by the person 20 when the environment of the indoor space of the room 10 (illuminance by the ceiling illumination 32 and luminance of the window illumination 33) changes is detected by the unpleasant expression detection means. That is, the unpleasant facial expression detection means (the frown detection means and the blink detection means) detects the frown and blink of the person 20 when the environment of the indoor space of the room 10 changes.
Hereinafter, this process is referred to as an unpleasant facial expression detection process.

次に、前記不快度判断手段によって、前記不快表情検出手段によって検出された人20が発する不快な表情の頻度(周波数)を算出する。すなわち、前記不快度判断手段(制御装置35)は、前記顔しかめ検出手段によって検出された人20の顔しかめの頻度(顔しかめ認識頻度ノードN101)、及び前記まばたき検出手段によって検出された人20のまばたきの頻度(まばたき認識頻度ノードN201)を算出する。   Next, the frequency (frequency) of the unpleasant facial expression which the person 20 detected by the unpleasant facial expression detection means emits is calculated by the unpleasant degree judgment means. That is, the discomfort degree determination means (control device 35) is configured to detect the fraud frequency of the person 20 detected by the frown detection means (face fraud recognition frequency node N101) and the person 20 detected by the blink detection means. The blink frequency (blink recognition frequency node N201) is calculated.

そして、前記不快度判断手段(制御装置35)は、上記各ノード(顔しかめ認識頻度ノードN101、まばたき認識頻度ノードN201、照度(天井)変化前ノードN301、輝度(窓)変化前ノードN401、照度(天井)変化後ノードN501及び輝度(窓)変化後ノードN601)の条件を用いて、顔しかめ表出頻度ノードN102、まばたき表出頻度ノードN202及び不快度ノードN701の条件付き確率から人20の不快度がとり得る複数の値(数値範囲)及びそれぞれの確率を算出する。前記不快度判断手段(制御装置35)は、人20の不快度がとり得る複数の値それぞれに、当該値となる確率を掛け合わせ、さらにそれらを合算した数値を、人20の不快度として推定する。
この工程を、以下では不快度判断工程と記す。
Then, the discomfort degree determination means (control device 35) is configured so that each of the above nodes (face fraud recognition frequency node N101, blink recognition frequency node N201, illuminance (ceiling) pre-change node N301, luminance (window) pre-change node N401, illuminance Using the conditions of the (ceiling) post-change node N501 and the luminance (window) post-change node N601), the conditional probability of the frowning expression frequency node N102, the blinking expression frequency node N202, and the discomfort degree node N701 A plurality of values (numerical value ranges) that the discomfort level can take and respective probabilities are calculated. The discomfort degree determination means (control device 35) multiplies each of a plurality of possible values of the discomfort level of the person 20 by the probability of the value, and further estimates the numerical value obtained by adding them as the discomfort degree of the person 20 To do.
Hereinafter, this process is referred to as a discomfort degree determination process.

このように、本実施形態に係る不快度推定システム30は、環境変化に関する情報に加えて人20が発する不快な表情の頻度を用いるため、当該人20の不快度を精度良く推定することができる。   As described above, the discomfort degree estimation system 30 according to the present embodiment uses the frequency of the unpleasant facial expression generated by the person 20 in addition to the information on the environmental change, and therefore can accurately estimate the discomfort degree of the person 20. .

以下では、図3から図8までを用いて、前述の不快表情検出工程で用いた顔しかめ検出手段(顔しかめ検出システム)による人20の顔しかめの検出方法について説明する。   In the following, a method for detecting the frowning of the person 20 by the frowning detection means (face fringing detection system) used in the above-described unpleasant facial expression detection step will be described with reference to FIGS.

前述の如く、前記顔しかめ検出手段(顔しかめ検出システム)は、人20が顔をしかめたか否か(表出があるか否か)を検出するものである。本実施形態に係る顔しかめ検出手段(顔しかめ検出システム)は、主として撮像手段(カメラ31)及び顔しかめ判断手段(制御装置35)により構成される。   As described above, the frown detection means (face fringe detection system) detects whether or not the person 20 has frowned (whether there is an expression). The frown detection means (face fringe detection system) according to the present embodiment is mainly configured by an image pickup means (camera 31) and a face fringe determination means (control device 35).

顔しかめ判断手段(制御装置35)は、人20が顔をしかめた時及び顔をしかめていない時の当該顔の器官の位置情報を学習することで顔をしかめたか否かを識別する識別機能を予め作成し、当該予め作成した識別機能及び前記撮像手段(カメラ31)により撮像された人20の顔の器官の位置情報から、当該カメラ31により撮像された人20が顔をしかめたか否か(表出があるか否か)を判断するものである。   An identification function for identifying whether or not the face is frowned by learning the position information of the organ of the face when the person 20 frowns and when the face is frowned. Whether or not the person 20 imaged by the camera 31 frowns from the identification function created in advance and the positional information of the organ of the face of the person 20 imaged by the imaging means (camera 31). (Whether or not there is an expression).

まず、図3から図7までを用いて、制御装置35が、人20が顔をしかめた時及び顔をしかめていない時の当該顔の器官の位置情報を学習することで顔をしかめたか否かを識別する識別機能を作成する工程について説明する。
この工程(図4のステップS101からステップS106まで)を、以下では学習工程と記す。
当該学習工程は、人20が顔をしかめたか否か(表出があるか否か)を判断する前に(事前に)行われる。
First, using FIG. 3 to FIG. 7, whether or not the control device 35 frowns by learning the position information of the organ of the face when the person 20 frowns and when the face is frowned. A process of creating an identification function for identifying these will be described.
This process (from step S101 to step S106 in FIG. 4) is hereinafter referred to as a learning process.
The learning step is performed (in advance) before determining whether the person 20 has frowned (whether there is an expression).

図4のステップS101において、制御装置35は、上記学習のためにカメラ31により撮像された人20の顔(表情)の画像データを複数取得する。
具体的には、制御装置35は、天井照明32による照度及び窓照明33の輝度を複数パターンに変化させる。この際、制御装置35は、人20が不快(まぶしい)と申告したときの表情の画像データ、及び人20が不快(まぶしい)と申告しないとき(通常時)の表情の画像データをそれぞれ複数取得する。
なお、人20の不快(まぶしい)である旨の申告の有無は、不快度測定ダイヤル34やその他のスイッチ等を用いて判断することが可能である。
ステップS101の処理を行った後、制御装置35はステップS102に移行する。
In step S101 of FIG. 4, the control device 35 acquires a plurality of image data of the face (expression) of the person 20 captured by the camera 31 for the learning.
Specifically, the control device 35 changes the illuminance by the ceiling illumination 32 and the luminance of the window illumination 33 into a plurality of patterns. At this time, the control device 35 acquires a plurality of facial expression image data when the person 20 declares unpleasant (glare) and a plurality of facial expression image data when the person 20 does not declare unpleasant (glare). To do.
Note that the presence or absence of a report indicating that the person 20 is uncomfortable (dazzling) can be determined using the discomfort degree measurement dial 34 or other switches.
After performing the process of step S101, the control device 35 proceeds to step S102.

ステップS102において、制御装置35が取得した人20の表情の複数の画像データを、2種類に分類する。
具体的には、ステップS101で取得された人20の表情の複数の画像データを、(A)人20が不快であると申告し、かつ目視で顔をしかめていると確認される画像、(B)人20が不快であると申告し、かつ目視で顔をしかめていないと確認される画像、又は人20が不快であると申告していないときの画像、の2種類(上記(A)又は(B))に分類する。
人20が顔をしかめているか否かは実験者の目視により確認され、上記(A)又は(B)への分類に関するデータが当該実験者により制御装置35に入力(記憶)される。
ここで、顔をしかめているか否かの判断は、前述と同様に図3に示すような表情の変化に基づいてなされる。
なお、当該分類において、人20がまばたきする際の表情の画像データは省かれる。また、上記(A)及び(B)には同じ数の画像データが分類され、かつできるだけ多くの画像データが分類される。
ステップS102の処理を行った後、制御装置35はステップS103に移行する。
In step S102, the plurality of image data of the facial expression of the person 20 acquired by the control device 35 is classified into two types.
Specifically, a plurality of image data of the facial expression of the person 20 acquired in step S101 are (A) an image that is declared that the person 20 is uncomfortable and that is visually frowned, ( B) Two types of images (the above (A)): an image that is declared that the person 20 is uncomfortable and that is visually confirmed to be frowned, or an image that is not declared that the person 20 is unpleasant Or (B)).
Whether or not the person 20 is frowning is confirmed by the experimenter's visual observation, and data related to the classification (A) or (B) is input (stored) into the control device 35 by the experimenter.
Here, the determination as to whether or not the face is frowned is made based on the change in facial expression as shown in FIG.
In the classification, image data of facial expressions when the person 20 blinks is omitted. Also, the same number of image data is classified into (A) and (B), and as much image data as possible is classified.
After performing the process of step S102, the control device 35 proceeds to step S103.

ステップS103において、制御装置35は、取得した各画像データに現された人20の顔の器官(目、眉、鼻)を、位置情報としての座標に変換する。
具体的には、図5に示すように、取得した各画像データに現された人20の顔のうち、右目の最も内側に位置する端部の点を点P1と、右目の上まぶた上に位置する点(より詳細には、上まぶたのうち最も上に位置する端部の点)を点P2と、右目の下まぶた上に位置する点(より詳細には、下まぶたのうち最も下に位置する端部の点)を点P3と、右眉の最も内側に位置する端部の点を点P4と、左目の最も内側に位置する端部の点を点P5と、左目の上まぶた上に位置する点(より詳細には、上まぶたのうち最も上に位置する端部の点)を点P6と、左目の下まぶた上に位置する点(より詳細には、下まぶたのうち最も下に位置する端部の点)を点P7と、左眉の最も内側に位置する端部の点を点P8と、鼻の最も下に位置する端部の点を点P9と、それぞれ決定する。
当該座標化(点P1から点P9までの決定)は、制御装置35に予め記憶されたプログラムによって実行される。
ステップS103の処理を行った後、制御装置35はステップS104に移行する。
In step S <b> 103, the control device 35 converts the facial organs (eyes, eyebrows, and nose) of the person 20 appearing in each acquired image data into coordinates as position information.
Specifically, as shown in FIG. 5, among the faces of the person 20 shown in each acquired image data, the end point located on the innermost side of the right eye is on the point P1 and the upper eyelid. The point located (more specifically, the end point located at the top of the upper eyelid) is the point P2 and the point located above the lower eyelid of the right eye (more specifically, located at the bottom of the lower eyelid) Point P3, the innermost end point of the right eyebrow is the point P4, the innermost end point of the left eye is the point P5, and the upper eyelid is on the upper eyelid A point (more specifically, a point on the uppermost end of the upper eyelid) is a point P6 and a point located on the lower eyelid of the left eye (more specifically, the lowest point of the lower eyelid) Point P7, the innermost end point of the left eyebrow is the point P8, and the lowermost end point of the nose A point P9, to determine, respectively.
The coordinate conversion (determination from the point P1 to the point P9) is executed by a program stored in the control device 35 in advance.
After performing the process of step S103, the control apparatus 35 transfers to step S104.

ステップS104において、制御装置35は、取得した各画像データに現された人20の顔の器官の座標を正規化する。
具体的には、まず取得した複数の画像データのうち、最も理想的な正面視の顔の画像データを基準となる画像データとして選択する。次に、図6に示すように、両目の内側と鼻の下端の座標(点P1、点P5及び点P9)の合計3点を基準となる座標として選択する。そして、当該3点(基準となる座標)と、他の画像データにおける上記3点(点P1、点P5及び点P9)と、を比較し、当該他の画像データの座標を正規化する。すなわち、アフィン変換等を用いて、当該他の画像データにおける人20の顔の向きや角度の違いが座標(点P1から点P9)に与える影響(測定誤差)を打ち消す。
ステップS104の処理を行った後、制御装置35はステップS105に移行する。
In step S <b> 104, the control device 35 normalizes the coordinates of the facial organ of the person 20 appearing in each acquired image data.
Specifically, first, the most ideal frontal face image data is selected as the reference image data from among the plurality of acquired image data. Next, as shown in FIG. 6, a total of three points including the coordinates of the inside of both eyes and the lower end of the nose (points P1, P5, and P9) are selected as reference coordinates. Then, the three points (reference coordinates) are compared with the three points (points P1, P5, and P9) in the other image data, and the coordinates of the other image data are normalized. That is, using affine transformation or the like, the influence (measurement error) exerted on the coordinates (point P1 to point P9) by the difference in the face direction and angle of the person 20 in the other image data is canceled.
After performing the process of step S104, the control apparatus 35 transfers to step S105.

ステップS105において、制御装置35は、取得した各画像データを5次元の位置情報(距離情報)に変換する。
具体的には、図7に示すように、制御装置35は、各画像データの正規化された座標を、5つの距離情報、すなわち(1)点P1から点P4までの距離、(2)点P5から点P8までの距離、(3)点P4から点P8までの距離、(4)点P2から点P3までの距離、及び(5)点P6から点P7までの距離、に変換する。
ステップS105の処理を行った後、制御装置35はステップS106に移行する。
In step S105, the control device 35 converts each acquired image data into five-dimensional position information (distance information).
Specifically, as shown in FIG. 7, the control device 35 converts the normalized coordinates of each image data into five pieces of distance information, that is, (1) the distance from the point P1 to the point P4, and (2) the point. The distance is converted into the distance from P5 to point P8, (3) the distance from point P4 to point P8, (4) the distance from point P2 to point P3, and (5) the distance from point P6 to point P7.
After performing the process of step S105, the control device 35 proceeds to step S106.

ステップS106において、制御装置35は、人20が顔をしかめたか否か(表出があるか否か)を識別するための識別機能を作成する。
具体的には、制御装置35は、まずステップS105において変換された5次元の距離情報を、ステップS102における分類(上記(A)又は(B))に従ってそれぞれデータベース化する。次に、当該データベースを訓練データとして、人20が顔をしかめたか否かを識別する識別機能を作成する。当該識別機能としては、サポートベクターマシンの多項式カーネル法等を用いることができる。
In step S106, the control device 35 creates an identification function for identifying whether or not the person 20 has frowned (whether or not there is an expression).
Specifically, the control device 35 first creates a database of the five-dimensional distance information converted in step S105 according to the classification (above (A) or (B)) in step S102. Next, using the database as training data, an identification function for identifying whether the person 20 has frowned is created. As the identification function, a support vector machine polynomial kernel method or the like can be used.

このようにして、制御装置35は人20が顔をしかめた時及び顔をしかめていない時の当該顔の器官の位置情報を学習し、人20が顔をしかめたか否か(表出があるか否か)を識別するための識別機能を作成する(ステップS101からステップS106まで)。   In this way, the control device 35 learns the position information of the organ of the face when the person 20 frowns and when the face is frowned, and whether or not the person 20 frowns (there is an expression) Or not) is created (from step S101 to step S106).

次に、図4及び図8を用いて、制御装置35が、予め学習した人20の顔の器官の位置情報と、カメラ31により撮像された人20の顔の器官の位置情報と、を比較し、当該カメラ31により撮像された人20が顔をしかめたか否か(表出があるか否か)を判断する様子について説明する。   Next, using FIG. 4 and FIG. 8, the control device 35 compares the position information of the facial organ of the person 20 learned in advance with the positional information of the facial organ of the person 20 captured by the camera 31. The manner in which it is determined whether or not the person 20 imaged by the camera 31 frowns (whether or not there is an expression) will be described.

図8のステップS201において、制御装置35は、カメラ31により撮像された顔をしかめたか否か(表出があるか否か)を判断する対象となる人20の顔(表情)の画像データを取得する。
このステップS201の工程を、以下では撮像工程と記す。
ステップS201の処理(撮像工程)を行った後、制御装置35はステップS202に移行する。
In step S201 of FIG. 8, the control device 35 obtains image data of the face (expression) of the person 20 to be determined as to whether or not the face imaged by the camera 31 has been grimaced (whether there is an expression). get.
Hereinafter, the step S201 is referred to as an imaging step.
After performing the process of step S201 (imaging process), the control device 35 proceeds to step S202.

ステップS202において、制御装置35は、取得した画像データに現された人20の顔の器官(目、眉、鼻)を座標化する。
当該座標化の方法は、図4のステップS103と同様であるため、説明を省略する。
ステップS202の処理を行った後、制御装置35はステップS203に移行する。
In step S202, the control device 35 coordinates the facial organs (eyes, eyebrows, nose) of the person 20 shown in the acquired image data.
The coordinate method is the same as that in step S103 of FIG.
After performing the process of step S202, the control device 35 proceeds to step S203.

ステップS203において、制御装置35は、取得した画像データに現された人20の顔の器官の座標を正規化する。
当該正規化の方法は、図4のステップS104と同様であるため、説明を省略する。
ステップS203の処理を行った後、制御装置35はステップS204に移行する。
In step S203, the control device 35 normalizes the coordinates of the facial organ of the person 20 shown in the acquired image data.
The normalization method is the same as that in step S104 in FIG.
After performing the process of step S203, the control device 35 proceeds to step S204.

ステップS204において、制御装置35は、取得した画像データを5次元の距離情報に変換する。
当該距離情報への変換の方法は、図4のステップS105と同様であるため、説明を省略する。
ステップS204の処理を行った後、制御装置35はステップS205に移行する。
In step S204, the control device 35 converts the acquired image data into five-dimensional distance information.
The method for converting to the distance information is the same as that in step S105 in FIG.
After performing the process of step S204, the control device 35 proceeds to step S205.

ステップS205において、制御装置35は、人20が顔をしかめたか否か(表出があるか否か)を判断する。
具体的には、制御装置35は、ステップS204において変換された5次元の距離情報を、図4のステップS106において作成された識別機能にかけ、人20が顔をしかめたか否か(表出があるか否か)を識別する。
このステップS205の工程を、以下では顔しかめ判断工程と記す。
In step S205, the control device 35 determines whether or not the person 20 has frowned (whether or not there is an expression).
Specifically, the control device 35 applies the five-dimensional distance information converted in step S204 to the identification function created in step S106 in FIG. Or not).
Hereinafter, the step S205 is referred to as a frown determination step.

このようにして、制御装置35は、予め作成した識別機能及びカメラ31により撮像された人の顔の器官の位置情報から、当該カメラ31により撮像された人が顔をしかめたか否かを判断する(ステップS201からステップS205まで)。   In this way, the control device 35 determines whether or not the person imaged by the camera 31 has frowned from the identification function created in advance and the position information of the organ of the person's face imaged by the camera 31. (From step S201 to step S205).

以下では、図4、図8及び図9を用いて、前述の不快表情検出工程で用いたまばたき検出手段による人20のまばたきの検出方法について説明する。   Hereinafter, a method for detecting the blink of the person 20 by the blink detection unit used in the above-described unpleasant facial expression detection process will be described with reference to FIGS. 4, 8, and 9.

前述の如く、前記まばたき検出手段は、人20がまばたきをしたか否かを検出するものである。本実施形態に係るまばたき検出手段は、主としてカメラ31及び制御装置35により構成される。   As described above, the blink detection means detects whether or not the person 20 has blinked. The blink detection unit according to the present embodiment is mainly configured by the camera 31 and the control device 35.

まず、制御装置35は、カメラ31により撮像されたまばたきをしたか否かを判断する対象となる人20の顔(表情)の画像データを取得する。   First, the control device 35 acquires the image data of the face (expression) of the person 20 to be determined as to whether or not the blink captured by the camera 31 has been made.

次に、制御装置35は、取得した画像データに現された人20の顔の器官(目、眉、鼻)を、位置情報としての座標に変換する。
当該座標化の方法は、図8のステップS202と同様であるため、説明を省略する。
Next, the control device 35 converts the facial organs (eyes, eyebrows, nose) of the person 20 shown in the acquired image data into coordinates as position information.
The coordinate method is the same as that in step S202 of FIG.

次に、制御装置35は、取得した画像データに現された人20の顔の器官の座標を正規化する。当該正規化には、図4のステップS104で選択された基準となる座標を用いることができる。
当該正規化の方法は、図8のステップS203と同様であるため、説明を省略する。
Next, the control device 35 normalizes the coordinates of the facial organ of the person 20 shown in the acquired image data. For the normalization, the reference coordinates selected in step S104 in FIG. 4 can be used.
The normalization method is the same as that in step S203 in FIG.

次に、制御装置35は、取得した画像データを2次元の位置情報(距離情報)に変換する。具体的には、図9に示すように、制御装置35は、画像データの正規化された座標を、2つの距離情報、すなわち(1)点P2から点P3までの距離及び(2)点P6から点P7までの距離に変換する。   Next, the control device 35 converts the acquired image data into two-dimensional position information (distance information). Specifically, as shown in FIG. 9, the control device 35 determines the normalized coordinates of the image data as two pieces of distance information, that is, (1) the distance from the point P2 to the point P3 and (2) the point P6. To the distance from point P7.

最後に、制御装置35は、変換した2次元の距離情報がそれぞれゼロ(又は、ゼロに近い値)であるか否かを識別する。当該2次元の距離情報がゼロ(又は、ゼロに近い値)であれば人20がまばたきをしていると判断できる。   Finally, the control device 35 identifies whether or not the converted two-dimensional distance information is zero (or a value close to zero). If the two-dimensional distance information is zero (or a value close to zero), it can be determined that the person 20 is blinking.

このようにして、制御装置35は2次元の距離情報から人20がまばたきをしたか否かを検出することができる。   In this way, the control device 35 can detect whether or not the person 20 has blinked from the two-dimensional distance information.

以上の如く、本実施形態に係る不快度推定システムは、部屋10の室内空間の環境変化に関する情報を検出する環境情報検出手段と、前記室内空間に存在する人20が前記室内空間の環境変化の際に発する不快な表情(顔しかめ及びまばたき)を検出する不快表情検出手段と、前記室内空間の環境変化の際に人20が発する不快な表情の頻度及びその際当該人20が実際にどの程度不快であるかの情報を予め蓄積することによりベイジアンネットワークを構築した不快度判断手段と、を具備し、前記不快度判断手段は、前記環境情報検出手段により検出された前記室内空間の環境変化に関する情報、及び当該環境変化の際に前記不快表情検出手段により検出された人20が発する不快な表情の頻度を用いて、前記ベイジアンネットワークから人20がどの程度不快であるかを推定するものである。
このように、環境変化に関する情報に加えて人が発する不快な表情の頻度を用いることにより、人の不快度を精度良く推定することができる。
As described above, the discomfort level estimation system according to the present embodiment includes the environment information detection unit that detects information related to the environmental change in the indoor space of the room 10 and the person 20 existing in the indoor space. Unpleasant facial expression detection means for detecting an unpleasant facial expression (face frowning and blinking), frequency of unpleasant facial expression produced by the person 20 when the environment of the indoor space changes, and how much the person 20 actually does Discomfort level determination means that builds a Bayesian network by preliminarily storing information on whether or not it is uncomfortable, and the discomfort level determination means relates to an environmental change of the indoor space detected by the environment information detection means From the Bayesian network, using information and the frequency of the unpleasant facial expression generated by the person 20 detected by the unpleasant facial expression detection means during the environmental change One in which 20 to estimate how much it is uncomfortable.
As described above, by using the frequency of unpleasant facial expressions generated by a person in addition to information on environmental changes, the degree of unpleasantness of the person can be accurately estimated.

また、前記不快表情検出手段は、人20が顔をしかめたか否かを検出する顔しかめ検出手段を含むものである。
このように構成することにより、特に周囲が明るく(まぶしく)なった際に人20が発すると考えられる顔しかめを、不快な表情として検出することができる。
Further, the unpleasant facial expression detection means includes a frown detection means for detecting whether or not the person 20 has frowned.
With this configuration, it is possible to detect a frown that is likely to be generated by the person 20 when the surroundings become bright (blur), as an unpleasant expression.

また、前記環境情報検出手段は、人20に照射される光の照度を検出する照度検出手段を含むものである。
このように構成することにより、光の照度の変化による人20の不快度を検出することができる。
The environmental information detection means includes illuminance detection means for detecting the illuminance of light irradiated on the person 20.
By comprising in this way, the discomfort degree of the person 20 by the change of the illumination intensity of light can be detected.

また、前記不快表情検出手段は、前記人がまばたきをしたか否かを検出するまばたき検出手段を含むものである。
このように構成することにより、特に周囲が明るく(まぶしく)なった際、又は暗くなった際に人20が発すると考えられるまばたきを、不快な表情として検出することができる。
The unpleasant facial expression detection means includes blink detection means for detecting whether or not the person has blinked.
By configuring in this way, it is possible to detect a blink that is considered to be generated by the person 20 particularly when the surroundings become bright (dazzling) or dark, as an unpleasant facial expression.

また、本実施形態に係る不快度推定方法は、室内空間の環境変化に関する情報を検出する環境情報検出工程と、前記室内空間に存在する人が前記室内空間の環境変化の際に発する不快な表情を検出する不快表情検出工程と、前記環境情報検出手段により検出された前記室内空間の環境変化に関する情報、及び当該環境変化の際に前記不快表情検出手段により検出された前記人が発する不快な表情の頻度を用いて、前記室内空間の環境変化の際に前記人が発する不快な表情の頻度及びその際当該人が実際にどの程度不快であるかの情報を予め蓄積することにより構築されたベイジアンネットワークから前記人がどの程度不快であるかを推定する不快度判断工程と、を具備するものである。
このように、環境変化に関する情報に加えて人が発する不快な表情の頻度を用いることにより、人の不快度を精度良く推定することができる。
Also, the discomfort level estimation method according to the present embodiment includes an environment information detection step for detecting information related to an environmental change in the indoor space, and an unpleasant expression that a person existing in the indoor space emits when the environmental change in the indoor space occurs. Uncomfortable facial expression detection step, information on environmental change of the indoor space detected by the environmental information detection means, and unpleasant facial expression generated by the person detected by the unpleasant facial expression detection means at the time of the environmental change Bayesian constructed by pre-accumulating information on the frequency of unpleasant facial expressions that the person emits when the environment of the indoor space changes, and how much the person is actually uncomfortable at that time An uncomfortable degree determination step of estimating how unpleasant the person is from the network.
As described above, by using the frequency of unpleasant facial expressions generated by a person in addition to information on environmental changes, the degree of unpleasantness of the person can be accurately estimated.

また、以上の如く、本実施形態に係る顔しかめ検出手段(顔しかめ検出システム)は、顔をしかめたか否かを判断する対象となる人20の顔を撮像するカメラ31(撮像手段)と、人20が顔をしかめた時及び顔をしかめていない時の当該顔の器官の位置情報を学習することで顔をしかめたか否かを識別する識別機能を予め作成し、当該予め作成した識別機能及びカメラ31により撮像された人20の顔の器官の位置情報から、当該カメラ31により撮像された人20が顔をしかめたか否かを判断する顔しかめ判断手段(制御装置35)と、を具備し、前記顔しかめ判断手段は、前記顔の器官の位置情報として、右眉の内側端部から右目の内側端部まで(点P1から点P4まで)の距離、左眉の内側端部から左目の内側端部まで(点P5から点P8まで)の距離、眉間(点P4から点P8まで)の距離、右目の上まぶたから下まぶたまで(点P2から点P3まで)の距離及び左目の上まぶたから下まぶたまで(点P6から点P7まで)の距離を用いるものである。
このように構成することにより、5つの距離のみを顔の器官の位置情報として用いるため、人20が顔をしかめているか否かを短時間で検出することができる。
Further, as described above, the frowning detection means (face fringing detection system) according to the present embodiment includes the camera 31 (imaging means) that picks up the face of the person 20 to be determined whether or not the face is frowned. An identification function for identifying whether or not the person 20 is frowned by learning positional information of the organ of the face when the person 20 frowns and when the face is frowned is created in advance, and the created identification function And face fringe judging means (control device 35) for judging whether or not the person 20 imaged by the camera 31 is frowned from the position information of the organ of the face of the person 20 imaged by the camera 31. Then, the face freckling determination means uses the distance information from the inner edge of the right eyebrow to the inner edge of the right eye (from point P1 to point P4) as the position information of the facial organ, and from the inner edge of the left eyebrow to the left eye. To the inner edge of (from point P5 P8), eyebrow distance (from point P4 to point P8), right eye from upper eyelid to lower eyelid (from point P2 to point P3), and left eye upper eyelid to lower eyelid (from point P6 to point) Distance to P7).
With this configuration, since only five distances are used as the position information of the facial organ, it can be detected in a short time whether or not the person 20 is frowning.

また、前記顔しかめ判断手段は、前記顔の器官の位置情報を取得した後、右目の内側端部(点P1)、左目の内側端部(点P5)及び鼻の下端部(点P9)を基準として当該顔の器官の位置情報を正規化するものである。
このように構成することにより、撮像した人20の顔の向きの違いによる当該顔の器官の位置情報の誤差を低減することができる。
In addition, after acquiring the position information of the facial organs, the frowning determination means determines the inner end (point P1) of the right eye, the inner end (point P5) of the left eye, and the lower end (point P9) of the nose. As a reference, the position information of the facial organ is normalized.
With this configuration, it is possible to reduce an error in the position information of the facial organ due to the difference in the orientation of the face of the imaged person 20.

また、前記顔しかめ判断手段は、カメラ31により撮像された人20が顔をしかめたか否かを判断する際、当該人20と同一人物の顔の器官の位置情報から作成された識別機能を用いるものである。
このように、当該人20自身のデータに基づいて作成された識別機能を用いるため、人20が顔をしかめているか否かをより精度良く検出することができる。
Further, when determining whether or not the person 20 imaged by the camera 31 is frowning, the face frowning determination means uses an identification function created from position information of the facial organ of the same person as the person 20. Is.
Thus, since the identification function created based on the data of the person 20 itself is used, it is possible to detect more accurately whether the person 20 is frowning.

また、本実施形態に係る顔しかめ検出方法は、人20が顔をしかめた時及び顔をしかめていない時の当該顔の器官の位置情報を学習することで顔をしかめたか否かを識別する識別機能を予め作成する学習工程と、顔をしかめたか否かを判断する対象となる人20の顔を撮像する撮像工程と、予め作成した識別機能及び前記撮像工程において撮像された人20の顔の器官の位置情報から、当該撮像工程において撮像された人20が顔をしかめたか否かを判断する顔しかめ判断工程と、を具備し、前記顔の器官の位置情報として、右眉の内側端部から右目の内側端部まで(点P1から点P4まで)の距離、左眉の内側端部から左目の内側端部まで(点P5から点P8まで)の距離、眉間(点P4から点P8まで)の距離、右目の上まぶたから下まぶたまで(点P2から点P3まで)の距離及び左目の上まぶたから下まぶたまで(点P6から点P7まで)の距離を用いるものである。
このように構成することにより、5つの距離のみを顔の器官の位置情報として用いるため、人20が顔をしかめているか否かを短時間で検出することができる。
Further, the face fraud detection method according to the present embodiment identifies whether or not the face 20 is frowned by learning position information of the organ of the face when the person 20 frowns and when the face is frowned. A learning process for creating an identification function in advance, an imaging process for imaging a face of a person 20 to be judged whether or not a face is grimaced, an identification function created in advance, and the face of the person 20 imaged in the imaging process A frown determination step for determining whether or not the person 20 imaged in the imaging step is frowning from the position information of the organ of the right side of the right eyebrow as the position information of the organ of the face Distance from the inner part to the inner edge of the right eye (from point P1 to point P4), distance from the inner edge of the left eyebrow to the inner edge of the left eye (from point P5 to point P8), between the eyebrows (from point P4 to point P8) Distance), from the upper eyelid to the lower eye It is to use the distance from the upper eyelid of the distance and the left eye in Tama (from point P2 to point P3) to the lower eyelid (from the point P6 to the point P7).
With this configuration, since only five distances are used as the position information of the facial organ, it can be detected in a short time whether or not the person 20 is frowning.

なお、本実施形態においては、実験設備として設置された部屋10を例にして説明したが、本発明はこれに限るものではなく、日常生活において使用している部屋を用いて上述の顔しかめの検出や不快度の推定を行うことも可能である。
また、本実施形態においては、撮像手段としてカメラ31を用いたが、本発明はこれに限るものではない。例えば、人20が作業しているパソコンに内臓されたカメラ等を撮像手段として用いることも可能である。
また、本実施形態においては窓照明33を用いたが、本発明はこれに限るものではなく、通常の窓(部屋10の外部の光が入ってくる窓)と当該窓の輝度を検出するセンサを用いて上述の顔しかめの検出や不快度の推定を行うことも可能である。
また、本実施形態において、不快表情検出手段は、人20が発する不快な表情として顔しかめ及びまばたきを検出するものとしたが、本発明はこれに限るものではない。すなわち、その他の不快な表情(例えば、目を長時間閉じる、涙を流す等)を検出する構成とすることも可能である。
また、本実施形態において、環境情報検出手段は、部屋10の室内空間の環境変化に関する情報として、天井照明32人20に照射される光の照度及び窓照明33の輝度を検出するものとしたが、本発明はこれに限るものではない。すなわち、その他の環境変化(例えば、温度の変化、湿度の変化等)を検出する構成とすることも可能である。
In the present embodiment, the room 10 installed as experimental equipment has been described as an example. However, the present invention is not limited to this, and the above-mentioned frowning is performed using a room used in daily life. It is also possible to perform detection and estimation of discomfort.
In the present embodiment, the camera 31 is used as the imaging means, but the present invention is not limited to this. For example, a camera or the like built in a personal computer on which the person 20 is working can be used as the imaging means.
Further, although the window illumination 33 is used in the present embodiment, the present invention is not limited to this, and a normal window (a window through which light outside the room 10 enters) and a sensor that detects the luminance of the window are used. It is also possible to detect the above-mentioned frowning and estimate the degree of discomfort using.
In the present embodiment, the unpleasant facial expression detection means detects frowning and blinking as an unpleasant facial expression generated by the person 20, but the present invention is not limited to this. That is, other unpleasant facial expressions (for example, closing eyes for a long time, tearing, etc.) may be detected.
In the present embodiment, the environment information detection means detects the illuminance of light irradiated to the ceiling lighting 32 persons 20 and the luminance of the window lighting 33 as information related to the environmental change of the indoor space of the room 10. However, the present invention is not limited to this. That is, other environmental changes (for example, temperature change, humidity change, etc.) can be detected.

10 部屋
20 人
30 不快度推定システム
31 カメラ
32 天井照明
33 窓照明
34 不快度測定ダイヤル
35 制御装置
10 rooms 20 people 30 discomfort estimation system 31 camera 32 ceiling lighting 33 window lighting 34 discomfort measurement dial 35 control device

Claims (5)

室内空間の環境変化に関する情報を検出する環境情報検出手段と、
前記室内空間に存在する人が前記室内空間の環境変化の際に発する不快な表情を検出する不快表情検出手段と、
前記室内空間の環境変化の際に前記人が発する不快な表情の頻度及びその際当該人が実際にどの程度不快であるかの情報を予め蓄積することによりベイジアンネットワークを構築した不快度判断手段と、
を具備し、
前記不快度判断手段は、
前記環境情報検出手段により検出された前記室内空間の環境変化に関する情報、及び当該環境変化の際に前記不快表情検出手段により検出された前記人が発する不快な表情の頻度を用いて、前記ベイジアンネットワークから前記人がどの程度不快であるかを推定することを特徴とする、
不快度推定システム。
Environmental information detection means for detecting information on environmental changes in the indoor space;
Unpleasant facial expression detection means for detecting an unpleasant facial expression that occurs when a person existing in the indoor space changes the environment of the indoor space;
Discomfort level judging means for constructing a Bayesian network by preliminarily storing information on the frequency of an unpleasant facial expression generated by the person at the time of an environmental change of the indoor space and how much the person is actually uncomfortable at that time ,
Comprising
The discomfort level judging means
The Bayesian network using the information on the environmental change of the indoor space detected by the environmental information detecting means and the frequency of the unpleasant facial expression generated by the person detected by the unpleasant facial expression detecting means at the time of the environmental change. Estimating how unpleasant the person is from
Discomfort estimation system.
前記不快表情検出手段は、
前記人が顔をしかめたか否かを検出する顔しかめ検出手段を含むことを特徴とする、
請求項1に記載の不快度推定システム。
The unpleasant facial expression detecting means is
Including a frowning detection means for detecting whether or not the person has frowned;
The discomfort degree estimation system according to claim 1.
前記環境情報検出手段は、
前記人に照射される光の照度を検出する照度検出手段を含むことを特徴とする、
請求項1又は請求項2に記載の不快度推定システム。
The environmental information detection means includes
Including illuminance detection means for detecting the illuminance of the light irradiated to the person,
The discomfort degree estimation system according to claim 1 or 2.
前記不快表情検出手段は、
前記人がまばたきをしたか否かを検出するまばたき検出手段を含むことを特徴とする、
請求項1から請求項3までのいずれか一項に記載の不快度推定システム。
The unpleasant facial expression detecting means is
Including blink detection means for detecting whether or not the person has blinked,
The discomfort degree estimation system according to any one of claims 1 to 3.
室内空間の環境変化に関する情報を検出する環境情報検出工程と、
前記室内空間に存在する人が前記室内空間の環境変化の際に発する不快な表情を検出する不快表情検出工程と、
前記環境情報検出手段により検出された前記室内空間の環境変化に関する情報、及び当該環境変化の際に前記不快表情検出手段により検出された前記人が発する不快な表情の頻度を用いて、
前記室内空間の環境変化の際に前記人が発する不快な表情の頻度及びその際当該人が実際にどの程度不快であるかの情報を予め蓄積することにより構築されたベイジアンネットワークから前記人がどの程度不快であるかを推定する不快度判断工程と、
を具備する不快度推定方法。
An environmental information detection process for detecting information on environmental changes in the indoor space;
An unpleasant facial expression detection step for detecting an unpleasant facial expression that occurs when a person existing in the indoor space changes the environment of the indoor space;
Using information on the environmental change of the indoor space detected by the environmental information detection means, and the frequency of the unpleasant facial expression emitted by the person detected by the unpleasant facial expression detection means at the time of the environmental change,
What is the person from the Bayesian network constructed by pre-accumulating information on the frequency of unpleasant facial expressions that the person emits when the environment of the indoor space changes and how uncomfortable the person is actually at that time? An uncomfortable degree determination process for estimating whether the degree of unpleasantness,
A discomfort level estimation method comprising:
JP2012149854A 2012-07-03 2012-07-03 Discomfort degree estimation system and discomfort degree estimation method Active JP6075983B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012149854A JP6075983B2 (en) 2012-07-03 2012-07-03 Discomfort degree estimation system and discomfort degree estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012149854A JP6075983B2 (en) 2012-07-03 2012-07-03 Discomfort degree estimation system and discomfort degree estimation method

Publications (2)

Publication Number Publication Date
JP2014013448A true JP2014013448A (en) 2014-01-23
JP6075983B2 JP6075983B2 (en) 2017-02-08

Family

ID=50109110

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012149854A Active JP6075983B2 (en) 2012-07-03 2012-07-03 Discomfort degree estimation system and discomfort degree estimation method

Country Status (1)

Country Link
JP (1) JP6075983B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111881843A (en) * 2020-07-30 2020-11-03 河南天迈科技有限公司 Taxi passenger carrying number counting method based on face detection
JP7403729B2 (en) 2021-11-25 2023-12-22 三菱電機株式会社 Awakening level estimation device and arousal level estimation method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005258820A (en) * 2004-03-11 2005-09-22 Toyota Motor Corp Emotion guidance device and emotion guidance method
JP2006282116A (en) * 2005-04-04 2006-10-19 Denso Corp User reception system for automobile
JP2009046115A (en) * 2007-07-20 2009-03-05 Denso It Laboratory Inc Vehicular air conditioner and control method for vehicular air conditioner

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005258820A (en) * 2004-03-11 2005-09-22 Toyota Motor Corp Emotion guidance device and emotion guidance method
JP2006282116A (en) * 2005-04-04 2006-10-19 Denso Corp User reception system for automobile
JP2009046115A (en) * 2007-07-20 2009-03-05 Denso It Laboratory Inc Vehicular air conditioner and control method for vehicular air conditioner

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111881843A (en) * 2020-07-30 2020-11-03 河南天迈科技有限公司 Taxi passenger carrying number counting method based on face detection
CN111881843B (en) * 2020-07-30 2023-12-29 河南天迈科技有限公司 Face detection-based taxi passenger carrying number counting method
JP7403729B2 (en) 2021-11-25 2023-12-22 三菱電機株式会社 Awakening level estimation device and arousal level estimation method

Also Published As

Publication number Publication date
JP6075983B2 (en) 2017-02-08

Similar Documents

Publication Publication Date Title
KR20180072978A (en) Operation Method for activation of Home robot device and Home robot device supporting the same
JP5899472B2 (en) Person attribute estimation system and learning data generation apparatus
JP6570786B2 (en) Motion learning device, skill discrimination device, and skill discrimination system
CN108985210A (en) A kind of Eye-controlling focus method and system based on human eye geometrical characteristic
US11298050B2 (en) Posture estimation device, behavior estimation device, storage medium storing posture estimation program, and posture estimation method
JP5801237B2 (en) Part estimation apparatus, part estimation method, and part estimation program
JP2007233997A (en) Facial feature point detecting system and method thereof
JP2014199584A (en) Image processing apparatus and image processing method
JP2015095164A (en) Gesture recognition device and control method for gesture recognition device
JP2010231398A (en) Device, method and program for determination of three-dimensional object
JP6840697B2 (en) Line-of-sight direction estimation device, line-of-sight direction estimation method, and line-of-sight direction estimation program
WO2017073520A1 (en) Object recognition system, object recognition method, program, and computer storage medium
KR20160114996A (en) personalized sports service providing method and apparatus thereof
US20220207202A1 (en) Systems And Methods To Generate A Floorplan Of A Building
JP6981277B2 (en) Detection device and detection program
CN104951055B (en) The method and apparatus and air-conditioning equipment of the operation mode of equipment are set
JP6651086B1 (en) Image analysis program, information processing terminal, and image analysis system
JP6075983B2 (en) Discomfort degree estimation system and discomfort degree estimation method
JP6075982B2 (en) Face frown detection system and face frown detection method
JP2014106597A (en) Autonomous moving body, object information acquisition device, and object information acquisition method
KR20090113746A (en) A method of robot localization using spatial semantics of objects
JP5482412B2 (en) Robot, position estimation method and program
JP2021033359A (en) Emotion estimation device, emotion estimation method, program, information presentation device, information presentation method and emotion estimation system
JP2005258830A (en) Understanding system on person and action
US11694571B2 (en) Information processing system, information processing apparatus, and non-transitory storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150629

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160824

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170110

R150 Certificate of patent or registration of utility model

Ref document number: 6075983

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250