JP2019126657A - 検出装置、及び検出プログラム - Google Patents

検出装置、及び検出プログラム Download PDF

Info

Publication number
JP2019126657A
JP2019126657A JP2018011792A JP2018011792A JP2019126657A JP 2019126657 A JP2019126657 A JP 2019126657A JP 2018011792 A JP2018011792 A JP 2018011792A JP 2018011792 A JP2018011792 A JP 2018011792A JP 2019126657 A JP2019126657 A JP 2019126657A
Authority
JP
Japan
Prior art keywords
temperature
subject
temperature range
detection
detection device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018011792A
Other languages
English (en)
Other versions
JP6981277B2 (ja
Inventor
一成 小松崎
Kazunari Komatsuzaki
一成 小松崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2018011792A priority Critical patent/JP6981277B2/ja
Priority to US16/166,183 priority patent/US10803303B2/en
Publication of JP2019126657A publication Critical patent/JP2019126657A/ja
Application granted granted Critical
Publication of JP6981277B2 publication Critical patent/JP6981277B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J5/0022Radiation pyrometry, e.g. infrared or optical thermometry for sensing the radiation of moving bodies
    • G01J5/0025Living bodies
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J5/02Constructional details
    • G01J5/08Optical arrangements
    • G01J5/0859Sighting arrangements, e.g. cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J2005/0077Imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J5/48Thermography; Techniques using wholly visual means
    • G01J5/485Temperature profile
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J5/00Radiation pyrometry, e.g. infrared or optical thermometry
    • G01J5/80Calibration
    • G01J5/804Calibration using atmospheric correction

Abstract

【課題】温度画像から物体で覆われている部位を検出する。【解決手段】検出装置4は、可視画像20から特定された被写体9の複数の部位26に対応するそれぞれの温度を、被写体9の部位26の温度を可視化した温度画像30から取得し、被写体9の複数の部位26のうち、部位26毎に予め定められている温度範囲に含まれない部位26を検出する。【選択図】図3

Description

本発明は、検出装置、及び検出プログラムに関する。
特許文献1には、被験者から眠気推定のための温度パラメータを検出して、眠気推定を行う眠気推定装置であって、可視光線の波長域で被験者を撮影することにより得られた可視光線画像データ、及び、被験者の体表面の温度分布を測定することにより得られた体表面温度分布データを取得する取得手段と、可視光線画像データに対して画像処理を行うことで、被験者の眼の中心領域を特定する画像処理手段と、体表面温度分布データにて示される被験者の体表面温度分布のうち、眼の中心領域の温度を検出して、当該中心領域温度を用いて、眠気推定のための温度パラメータに対して補正を施す補正手段と、を備えることを特徴とする眠気推定装置が開示されている。
特許文献2には、撮像手段と、赤外線検出手段と、撮像手段で撮像された画像から画像認識によって測定対象を認識した上で、その測定対象における体温測定部位の位置を求める測定対象決定手段と、赤外線検出手段が体温測定部位から放射される赤外線を検出するように、赤外線検出手段の測定視野を制御する測定視野制御手段と、赤外線検出手段の検出値に基づいて測定対象の体温を算出する体温算出手段と、を備える自動検温装置が開示されている。
特許第6110396号公報 特開2005−237861号公報
従来から赤外線カメラで撮影された温度画像から被写体の温度を計測し、被写体の感情を測定する技術の開発が進められている。
しかしながら、温度を測定したい被写体の部位が必ずしも露出しているとは限らず、被写体が例えばマスク、眼鏡、及び帽子といった体表を覆う物体を装着していたり、被写体の顔が髪の毛で覆われていたりする場合がある。
赤外線カメラは、被写体から放射される赤外線の光量を計測して被写体の温度を計測するため、物体で体表が覆われている部位の温度は、物体で体表が覆われていない部位の温度より温度の計測精度が低くなることがある。
したがって、温度画像から物体で覆われている体の部位を検出し、当該部位の体温は、被写体の感情の測定に用いないようにすることが好ましい。
本発明は、温度画像から物体で覆われている部位を検出することができる検出装置、及び検出プログラムを提供することを目的とする。
上記目的を達成するために、請求項1記載の検出装置の発明は、可視画像から特定された被写体の複数の部位に対応するそれぞれの温度を、前記被写体の部位の温度を可視化した温度画像から取得する取得手段と、前記取得手段によってそれぞれ温度が取得された前記被写体の複数の部位のうち、部位毎に予め定められている温度範囲に含まれない部位を検出する検出手段と、を備える。
請求項2記載の検出装置の発明は、可視画像から特定された被写体の複数の部位に対応するそれぞれの温度を、前記被写体の部位の温度を可視化した温度画像から取得する取得手段と、前記取得手段によってそれぞれ温度が取得された前記被写体の複数の部位のうち、部位毎に予め定められている温度範囲に含まれる部位を検出し、検出された部位以外の部位を前記温度範囲に含まれない部位として更に検出する検出手段と、を備える。
請求項3記載の発明は、前記取得手段によって取得された前記被写体の少なくとも1箇所の部位の温度から推定された前記被写体の感情を報知する報知手段を備える。
請求項4記載の発明は、前記報知手段は、前記取得手段によって取得された前記被写体の複数の部位のうち、前記検出手段によって検出された前記温度範囲に含まれない部位以外の部位の温度を用いて推定された前記被写体の感情を報知する。
請求項5記載の発明は、前記報知手段は、前記検出手段によって検出された前記温度範囲に含まれない部位に隣接する部位の温度を用いて推定された前記被写体の感情を報知する。
請求項6記載の発明は、前記報知手段は、前記検出手段によって検出された前記温度範囲に含まれない部位に隣接する部位の温度を用いて補間された補間後の前記温度範囲に含まれない部位の温度を用いて推定された前記被写体の感情を報知する。
請求項7記載の発明は、前記報知手段は、温度が前記温度範囲に含まれる部位の温度より、温度が補間された部位の温度における前記被写体の感情の推定に関する重み付けが低くなるように推定された前記被写体の感情を報知する。
請求項8記載の発明は、部位毎の前記温度範囲を気温に応じて補正する補正手段を備え、前記検出手段は、前記補正手段によって補正された前記温度範囲を用いて、前記温度範囲に含まれない部位を検出する。
請求項9記載の発明は、前記補正手段は、気温が上昇するに従って前記温度範囲の下限値及び上限値を上昇させるように前記温度範囲を補正する。
請求項10記載の発明は、前記補正手段は、気温が低下するに従って前記温度範囲の下限値及び上限値を低下させるように前記温度範囲を補正する。
請求項11記載の検出プログラムの発明は、コンピュータを、請求項1〜請求項10の何れか1項に記載の検出装置の各手段として機能させる。
請求項1、2、11記載の発明によれば、温度画像から物体で覆われている部位を検出することができる、という効果を有する。
請求項3記載の発明によれば、取得した温度画像に含まれる被写体の部位の温度から被写体の感情を報知することができる、という効果を有する。
請求項4記載の発明によれば、予め定められている温度範囲に含まれない部位の温度を被写体の感情の推定に用いる場合と比較して、報知される被写体の感情の推定精度を高くすることができる、という効果を有する。
請求項5記載の発明によれば、予め定められている温度範囲に含まれない部位の代わりに、当該部位と隣接せず離れた位置にある部位の温度を被写体の感情の推定に用いる場合と比較して、報知される被写体の感情の推定精度を高くすることができる、という効果を有する。
請求項6記載の発明によれば、予め定められている温度範囲に含まれない部位の温度を補間せずそのまま被写体の感情の推定に用いる場合と比較して、報知される被写体の感情の推定精度を高くすることができる、という効果を有する。
請求項7記載の発明によれば、補間した部位の温度と補間していない部位の温度における被写体の感情の推定に関する寄与度合いを同じにする場合と比較して、報知される被写体の感情の推定精度を高くすることができる、という効果を有する。
請求項8記載の発明によれば、部位毎に予め定められている温度範囲の下限値及び上限値を変更しない場合と比較して、気温の変化による感情の推定精度の変動を抑制することができる、という効果を有する。
請求項9記載の発明によれば、部位毎に予め定められている温度範囲の下限値及び上限値を変更しない場合と比較して、気温の上昇に伴う感情の推定精度の変動を抑制することができる、という効果を有する。
請求項10記載の発明によれば、部位毎に予め定められている温度範囲の下限値及び上限値を変更しない場合と比較して、気温の低下に伴う感情の推定精度の変動を抑制することができる、という効果を有する。
第1実施形態に係る検出システムの構成例を示す図である。 第1実施形態に係る検出装置における電気系統の要部構成例を示す図である。 第1実施形態に係る検出処理の流れの一例を示すフローチャートである。 被写体における部位の特定方法の一例を示す図である。 被写体の温度画像の一例を示す図である。 感情の推定方法の一例を示す図である。 第2実施形態に係る検出システムの構成例を示す図である。 第2実施形態に係る検出装置における電気系統の要部構成例を示す図である。 第2実施形態に係る検出処理の流れの一例を示すフローチャートである。
以下、本実施の形態について図面を参照しながら説明する。なお、機能が同じ構成要素及び処理には全図面を通して同じ符合を付与し、重複する説明を省略する。
<第1実施形態>
図1は、第1実施形態に係る検出システム1の一例を示す構成図である。検出システム1は、人物の感情を検出するシステムである。ここで「感情」とは、喜怒哀楽といった基本的な感情の他、不安、緊張、ストレス、及び高揚といった人物の内面状態も含む。
図1に示すように検出システム1は、例えば可視カメラ2、赤外線カメラ3、検出装置4、及び報知ユニット5を含む。
可視カメラ2は、人間の可視域に含まれる波長の光を受光して、受光した各波長の光の強さから画像を生成する撮影装置の一例である。可視カメラ2で撮影される画像は、人間が見ている景色と同じになることから「可視画像20」と呼ばれる。
赤外線カメラ3は、物体から放射される赤外光を受光して、受光した赤外光の強度から物体の温度を計測し、計測した物体の温度を例えば色と対応付けることで物体の温度を可視化する撮影装置の一例である。赤外線カメラ3で撮影される画像は、物体の温度を表すことから「温度画像30」と呼ばれる。
可視カメラ2及び赤外線カメラ3は、可視カメラ2及び赤外線カメラ3のそれぞれの光軸ができるだけ接近するように近接し、かつ、可視カメラ2及び赤外線カメラ3から被写体9までのそれぞれの距離が同じになるように設置される。「光軸」とは、可視カメラ2及び赤外線カメラ3のそれぞれのレンズの中心点を通り、それぞれのレンズに対して垂直な軸である。
また、可視カメラ2及び赤外線カメラ3は、それぞれの画角が同じになるように可視カメラ2及び赤外線カメラ3のズーム倍率が設定されている。「画角」とは、可視カメラ2及び赤外線カメラ3によって撮影される範囲をいう。
すなわち、可視カメラ2で撮影された可視画像20と赤外線カメラ3で撮影された温度画像30を重ね合わせた場合に、可視画像20に含まれる被写体9と温度画像30に含まれる被写体9とが重なり合うように、被写体9に対して可視カメラ2及び赤外線カメラ3が設置される。
検出装置4は可視カメラ2及び赤外線カメラ3と接続され、可視カメラ2から可視画像20を取得すると共に、赤外線カメラ3から温度画像30を取得する。検出装置4は、可視画像20から被写体9の部位を特定し、特定した部位に対応する温度を温度画像30から取得する。「部位」とは、被写体9を複数の領域に分けた場合のそれぞれの領域を表し、例えば被写体9が人間であれば、額、目元、鼻、頬、口、顎等が被写体9の部位に対応する。以降では、被写体9を人間として説明を行うが、被写体9は動物であってもよい。
被写体9の部位には部位が取りうる温度範囲が部位毎に予め設定されており、検出装置4は、予め定められている温度範囲と部位の温度を部位毎に比較して、温度範囲に含まれない部位を検出する。
また、検出装置4は、温度範囲に含まれない部位以外の少なくとも1箇所の部位の温度を用いて、被写体9の感情を推定する。そして、検出装置4は、推定した被写体9の感情を報知ユニット5に通知する。
報知ユニット5は検出装置4から被写体9の感情を受け付けると、検出装置4の利用者に推定した被写体9の感情を報知する。
図1に示した検出システム1では、可視カメラ2及び赤外線カメラ3を個別に検出装置4に接続したが、1つの筺体に可視画像20を撮影する撮影部と温度画像30を撮影する撮影部を備えた、いわゆる「デュアルカメラ」を検出装置4に接続してもよい。デュアルカメラでは、予め可視画像20と温度画像30で同じ画像が得られるようにレンズを含む光学系部材の配置が予め調整されている。したがって、デュアルカメラを用いた場合、可視カメラ2及び赤外線カメラ3をそれぞれ個別に検出装置4に接続する場合と比較して、検出システム1の設置に要する時間が短縮される。
上述した検出システム1の検出装置4は、例えばコンピュータを用いて構成される。図2は、コンピュータ10を用いて構成された検出装置4における電気系統の要部構成例を示す図である。
コンピュータ10は、本実施の形態に係る取得手段、検出手段、及び報知手段として機能するCPU(Central Processing Unit)11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、不揮発性メモリ14、及び入出力インターフェース(I/O)15を備える。そして、CPU11、ROM12、RAM13、不揮発性メモリ14、及びI/O15がバス16を介して各々接続されている。なお、コンピュータ10で用いられるオペレーションシステムに制限はない。
不揮発性メモリ14は、不揮発性メモリ14に供給される電力が遮断されても記憶した情報を維持する記憶装置の一例であり、例えば半導体メモリが用いられるがハードディスクであってもよい。
I/O15には、例えば可視カメラ2、赤外線カメラ3、報知ユニット5、及び通信ユニット6が接続される。
報知ユニット5として、例えばCPU11で処理された情報を視覚的に検出装置4の利用者に報知する液晶ディスプレイ、有機EL(Electro Luminescence)、又はプロジェクタ等の表示装置が用いられる。しかしながら、報知ユニット5の例はこれに限られず、例えばスピーカー、又はプリンタ等、CPU11で処理された情報を検出装置4の利用者に報知するものであれば、どのようなものであってもよい。
通信ユニット6は、例えばインターネット等の通信回線と検出装置4を接続する通信プロトコルを備え、通信回線に接続される他の外部装置と検出装置4との間でデータ通信を行う。通信ユニット6における通信回線への接続形態は有線であっても無線であってもよい。
なお、I/O15に図2に示したユニットの他、例えばユーザの指示を受け付けてCPU11に通知する入力ユニットといった他のユニットを接続してもよい。入力ユニットには、例えばボタン、タッチパネル、キーボード、及びマウス等が含まれる。また、必ずしもI/O15に報知ユニット5及び通信ユニット6を接続する必要はない。
次に、図3を用いて、検出システム1における検出装置4の動作について説明する。
図3は、検出装置4が例えば図示しない入力ユニットを介して、検出装置4の利用者から被写体9の感情の測定を開始する指示を受け付けた場合に、CPU11によって実行される検出処理の流れの一例を示すフローチャートである。
検出処理を規定する検出プログラムは、例えば検出装置4のROM12に予め記憶されている。検出装置4のCPU11は、ROM12に記憶される検出プログラムを読み込み、検出処理を実行する。
まず、ステップS10において、CPU11は、可視カメラ2に対して可視画像20を撮影するよう撮影指示を通知し、可視カメラ2で撮影された可視画像20を取得して、例えばRAM13に記憶する。
ステップS20において、CPU11は、赤外線カメラ3に対して温度画像30を撮影するよう撮影指示を通知し、赤外線カメラ3で撮影された温度画像30を取得して、例えばRAM13に記憶する。
なお、可視カメラ2及び赤外線カメラ3からそれぞれ取得する可視画像20及び温度画像30は、動画であっても静止画であってもよいが、ここでは可視画像20及び温度画像30は静止画として説明を行う。可視画像20及び温度画像30が動画である場合、CPU11は、可視画像20及び温度画像30の撮影開始タイミングが同じになるように、可視カメラ2及び赤外線カメラ3に対して撮影指示を通知する。動画は複数の静止画(「フレーム画像」と呼ばれる)によって構成されるため、可視カメラ2及び赤外線カメラ3から取得した各々の動画に含まれる同じ時刻に撮影されたフレーム画像を、それぞれ可視画像20及び温度画像30として扱えばよい。
ステップS30において、CPU11は、ステップS10で取得した可視画像20を用いて被写体9の部位を特定する。具体的には公知の画像解析手法を用いて被写体9の顔を認識し、被写体9の顔と推定される範囲を顔領域22として設定する。更に、CPU11は、設定した顔領域22を含む範囲から、例えば顔の輪郭、眉毛、目元、鼻筋、及び口元といった顔の特徴部分を示す特徴点24を抽出する。
図4(A)は、ステップS30で可視画像20から顔の特徴点24を抽出した一例を示す図である。設定した顔領域22に必ずしも被写体9の顔全体が含まれるとは限られないため、CPU11は、顔領域22を予め定めた範囲まで拡大した領域から顔の特徴点24を抽出する。
そして、CPU11は、抽出した特徴点24の配置から、可視画像20における被写体9の部位の位置を特定する。
図4(B)は、ステップS30で特定した顔の部位の一例を示す図である。図4の例では顔の部位として、額に対応する部位26−1、右目に対応する部位26−2、左目に対応する部位26−3、右頬に対応する部位26−4、鼻に対応する部位26−5、左頬に対応する部位26−6、口に対応する部位26−7、及び顎に対応する部位26−8を特定している。以降では、顔の各々の部位を区別して説明する必要がない場合、各部位を総称して「部位26」と表すことにする。また、説明の便宜上、部位26−1〜部位26−8を部位i(i=26−1〜26−8)と表す場合もある。
なお、CPU11が特定する被写体9の顔の部位26は図4(B)に示した部位26−1〜部位26−8に限られず、例えば眉毛といった他の部位を特定してもよい。また、例えば鼻に対応する部位26−5を鼻翼、鼻尖、及び鼻背の各部位26にそれぞれ分割して特定する等、図4(B)に示した各部位26を更に細分化して特定するようにしてもよい。
被写体9の感情は体の他の部分に比べて顔に表れやすいため、ここでは一例として顔の部位26を特定する例について説明したが、CPU11は例えば手の甲等、体の他の部分の部位26を特定するようにしてもよい。
CPU11は、特定した各々の部位26の範囲を示す情報を、例えばRAM13に記憶する。部位26の範囲を示す情報とは、例えば可視画像20の左上の頂点を原点とし、可視画像20の左右方向及び上下方向に沿った2つの軸によって表される2次元座標系の座標値が用いられる。各座標には可視画像20の画素がそれぞれ対応付けられている。
なお、温度画像30にも可視画像20と同じ2次元座標系が設定されており、各座標には温度画像30の画素がそれぞれ対応付けられている。
ステップS40において、CPU11は、ステップS20で取得した被写体9が含まれる温度画像30から、ステップS30で特定した被写体9の各々の部位26の温度を取得する。具体的には、CPU11は、ステップS30で特定した被写体9の各々の部位26の範囲を示す情報をRAM13から取得し、当該情報で表される範囲の温度を、対応する部位26の温度として温度画像30から取得する。
部位26に含まれる各画素の温度が同じでない場合には、例えば各画素の温度の平均値を当該部位26の温度とするというように、予め定めた統計処理を行って部位26の温度を取得すればよい。
次に、ステップS50において、CPU11は未選択の部位26を1つ選択する。
ステップS60において、CPU11は、ステップS50で選択した部位26の温度が、選択した部位26に対して予め定められている温度範囲に含まれているか否かを判定する。
各々の部位26の温度は、被写体9の感情に応じて変化する傾向があることが知られているが、被写体9は人間であるため体表の温度の変動範囲は限られており、各々の部位26の温度が無制限に変化することはない。したがって、各々の部位26の温度には上限値及び下限値が存在する。
各々の部位26が取りうる温度範囲は、検出システム1の実機による実験や検出システム1の設計仕様に基づくコンピュータシミュレーション等により予め設定され、例えば不揮発性メモリ14に記憶されている。したがって、CPU11は不揮発性メモリ14を参照することで、各々の部位26が取りうる温度範囲の上限値及び下限値を取得する。
ステップS50で選択した部位26の温度を温度Ti、ステップS50で選択した部位26が取りうる温度範囲の上限値をTiH、ステップS50で選択した部位26が取りうる温度範囲の下限値をTiLとした場合、TiL≦Ti≦TiHであれば、ステップS50で選択した部位26が部位26毎に予め定められている温度範囲に含まれると判定され、ステップS70に移行する。
被写体9が例えばマスク、眼鏡、及び帽子といった体表を覆う物体を装着していたり、被写体9の顔が髪の毛で覆われたりする場合、物体で覆われた部位26の温度は、被写体9の体表が露出していないため赤外線カメラ3で正しく計測されず、物体で覆われた部位26に対して予め定められている温度範囲から外れることになる。
すなわち、ステップS50で選択した部位26が、対応する部位26の温度範囲に含まれる場合、例えば、図5(A)に示すように、選択した部位26が物体で覆われていないと考えられる。
したがって、ステップS50で選択した部位26の温度は被写体9の体表温度であり、被写体9の感情の推定に有効なデータとなるため、ステップS70において、CPU11は、ステップS50で選択した部位26を被写体9の感情の推定に用いてもよい有効部位としてRAM13に記憶する。
一方、ステップS60の判定処理において、ステップS50で選択した部位26が部位26毎に予め定められている温度範囲に含まれない場合、ステップS80に移行する。
この場合、ステップS50で選択した部位26の温度は被写体9の体表を覆う物体の温度と考えられる。図5(B)は、予め定められている温度範囲に含まれない部位26を有する温度画像30の一例を示す図である。図5(B)の例では、被写体9がサングラスをかけているため、例えば右目に対応する部位26−2、及び左目に対応する部位26−3の温度がそれぞれの温度範囲に含まれない。
このように、ステップS50において物体で覆われた部位26が選択された場合、ステップS80において、CPU11は、ステップS50で選択した部位26を被写体9の感情の推定に用いないようにする無効部位としてRAM13に記憶する。
そして、ステップS90において、CPU11は、ステップS30で特定した全ての部位26をステップS50で選択したか否かを判定する。未選択の部位26が存在する場合にはステップS50に移行し、CPU11は未選択の部位26を1つ選択する。
以降、ステップS30で特定した全ての部位26がステップS50で選択されるまで、ステップS50〜S90の処理を繰り返し実行して、ステップS30で特定した部位26の各々を有効部位と無効部位に分類する。
ステップS100において、CPU11は、ステップS70で有効部位として設定された部位26の少なくとも1箇所を用いて被写体9の感情を推定する学習モデルを選択する。
検出装置4で用いられる学習モデルに制約はなく、被写体9の部位26の温度から被写体9の感情が推定されるものであれば、どのような学習モデルであってもよい。例えば、部位26の温度を入力データ、感情を教師データとして、ディープラーニングによってニューロン同士を結びつける結合強度が学習されたニューラルネットワークを学習モデルとして用いてもよい。また、感情を部位26の温度の関数として表した演算式を学習モデルとして用いてもよい。
検出装置4の不揮発性メモリ14には、少なくとも1箇所の部位26の温度から感情を推定する複数の学習モデルが予め記憶されている。各々の学習モデルで感情の推定のために用いられる部位26の種類はそれぞれで異なっており、例えば額に対応する部位26−1、右目に対応する部位26−2、左目に対応する部位26−3、右頬に対応する部位26−4、鼻に対応する部位26−5、左頬に対応する部位26−6、口に対応する部位26−7、及び顎に対応する部位26−8を入力として感情を推定する学習モデルもあれば、鼻に対応する部位26−5を入力として感情を推定する学習モデルもある。
したがって、CPU11は、ステップS70で有効部位に設定された少なくとも1箇所の部位26を用いて被写体9の感情を推定する学習モデルを不揮発性メモリ14から選択する。
なお、学習モデルの記憶場所は検出装置4の不揮発性メモリ14に限られない。例えば、学習モデルを通信回線に接続される他の外部装置に記憶しておき、CPU11は、通信ユニット6を介して外部装置から学習モデルを取得してもよい。
ステップS110において、CPU11は、ステップS100で選択した学習モデルに当該学習モデルの入力として定められている部位26の温度を入力した場合に得られる学習モデルの出力に従って、被写体9の感情を推定する。
ステップS120において、CPU11は報知ユニット5を制御して、ステップS110で推定した感情を検出装置4の利用者に報知する。
以上により、図3に示した検出処理を終了する。
なお、図3に示した検出処理のステップS60では、選択した部位26が部位26毎に予め定められている温度範囲に含まれる部位26か否かを判定し、温度範囲に含まれると検出された部位26以外の部位26を当該温度範囲に含まれない部位26として検出した。これに対して、ステップS60において、CPU11は、選択した部位26が部位26毎に予め定められている温度範囲に含まれない部位26か否かを判定することで、当該温度範囲に含まれない部位26を検出してもよい。何れの判定方法を用いても、検出装置4によって温度範囲に含まれない被写体9の部位26が検出される。
このように第1実施形態に係る検出装置4によれば、可視画像20を用いて特定した被写体9の部位26の温度を温度画像30から取得し、部位26の温度と当該部位26に対応付けられた温度範囲を比較することで、注目している部位26が物体で覆われている部位26か否かを検出する。
また、検出装置4は、物体で覆われている部位26以外の部位26、すなわち、物体で覆われていない少なくとも1箇所の部位26の温度を入力として被写体9の感情を推定する学習モデルを複数の学習モデルから選択し、選択した学習モデルに物体で覆われていない少なくとも1箇所の部位26の温度を入力することで、被写体9の感情を推定する。
<第1実施形態の変形例>
上述した実施形態では、有効部位として設定された部位26の少なくとも1箇所の部位26を用いて被写体9の感情を推定する学習モデルを複数の学習モデルから選択する例について説明した。しかしながら、予め用意されている複数の学習モデルの中に、有効部位として設定された部位26の温度から被写体9の感情を推定する学習モデルが存在しない場合もあり得る。
例えば、何れの学習モデルも被写体9の額の温度を用いる状況において、被写体9の額が髪の毛等で覆われ無効部位に設定されている場合、このままでは選択すべき学習モデルが存在しないことになる。
このような場合、検出装置4は、学習モデルで用いられる部位26で、かつ、無効部位と設定された部位26(以降、「不足部位」という)に隣接する有効部位の温度を、不足部位の温度として代用し、学習モデルに入力してもよい。不足部位に隣接する有効部位の温度は他の有効部位に比べて不足部位からの距離が近いため、他の有効部位の温度よりも不足部位の温度に近い値を示す場合が多い。したがって、不足部位に隣接する有効部位の温度を、不足部位の温度の代わりに学習モデルに入力することで、被写体9の感情が推定される。
具体的には、学習モデルが額の温度を必要とする状況で額が無効部位と設定されている場合、額に隣接する有効部位の温度、例えば右目に対応する部位26−2、又は左目に対応する部位26−3の温度を額の温度として学習モデルに入力し、被写体9の感情を推定してもよい。
また、検出装置4は学習モデルにおける不足部位の温度を、不足部位に隣接する有効部位の温度から推定してもよい。具体的には、不足部位に隣接する有効部位の温度を用いて、不足部位の温度を推定する。
例えば、学習モデルが額の温度を必要とする状況で額が無効部位と設定されている場合、検出装置4は、額に隣接する有効部位である右目に対応する部位26−2、及び左目に対応する部位26−3の温度を用いて、公知の補間手法、例えば最小二乗法等を行いて額の温度を推定する。
したがって、隣接した有効部位の温度から推定した不足部位の温度を学習モデルに入力することで、被写体9の感情が推定される。
なお、隣接した有効部位の温度から推定した不足部位の温度は、温度画像30から直接得られた温度ではないため、温度画像30から温度が直接得られた有効部位よりも温度の精度に関する信頼性が低くなる場合がある。
したがって、隣接した有効部位の温度から推定した不足部位の温度と、有効部位の温度を用いて被写体9の感情を推定する学習モデルを選択した場合、検出装置4は被写体9の感情の推定に対する有効部位の温度の寄与度合い、すなわち重み付けよりも、推定した不足部位の温度の重み付けが低くなるように学習モデルを調整する。
図6に示すように、検出装置4が学習モデルを選択し、選択した学習モデルに入力される部位26の温度のうち、額の温度T1が隣接した有効部位の温度から推定した温度で、他の部位26の温度は図3のステップS40で温度画像30から直接得られた温度である場合、検出装置4は、額の温度T1が感情の推定に与える重み付けが、他の部位26の温度が感情の推定に与える重み付けより低くなるように、選択した学習モデルを調整する。
例えば学習モデルがニューラルネットワークで示される場合、隣接した有効部位の温度から推定した温度が入力される入力ニューロンと、当該入力ニューロンと接続される他のニューロンとの間の結合強度を予め学習された値より低く調整することで、隣接した有効部位の温度から推定した温度が感情の推定に与える重み付けを、他の部位26の温度が感情の推定に与える重み付けより低く調整する。
<第2実施形態>
被写体9の温度は、被写体9が存在する空間の気温によって変化する傾向がある。一方、部位26毎に設定された温度範囲は、予め定められた気温(以降、「基準温度」という)において設定された温度範囲である。したがって、基準温度と赤外線カメラ3で被写体9の温度を計測している期間の気温との差分が大きくなるにつれて、物体で覆われていない部位26であっても無効部位として検出されることがあり、反対に物体で覆われている部位26が有効部位として検出されることもある。
第2実施形態では、被写体9が存在する空間の気温に応じて、部位26毎に予め定められている温度範囲を補正する検出システム1Aについて説明する。
図7は第2実施形態に係る検出システム1Aの一例を示す構成図である。図7に示す検出システム1Aが図1に示した検出システム1と異なる点は、検出装置4が検出装置4Aに置き換えられ、検出装置4Aに温度計7が接続された点であり、他の構成は検出システム1と同じである。
温度計7は、被写体9が存在する空間と同じ空間に設置される。例えば被写体9が室内に存在する場合、温度計7は被写体9が存在する室内に設置される。これにより、温度計7で被写体9が存在する空間の気温が計測される。
上述した検出システム1Aの検出装置4Aは第1実施形態に係る検出装置4と同じく、例えばコンピュータを用いて構成される。図8は、コンピュータ10を用いて構成された検出装置4Aにおける電気系統の要部構成例を示す図である。
本実施の形態に係るCPU11は、取得手段、検出手段、補正手段、及び報知手段として機能する。
図8に示す検出装置4Aの構成例が図2に示した検出装置4の構成例と異なる点は、I/O15に温度計7が接続された点であり、他の構成は検出装置4と同じである。これによりCPU11は、温度計7で計測された気温を取得する。図2で既に説明したように、I/O15に図8に示したユニットの他、例えば入力ユニットのような他のユニットを接続してもよい。また、必ずしもI/O15に報知ユニット5及び通信ユニット6を接続する必要はない。
次に、図9を用いて、検出システム1Aにおける検出装置4Aの動作について説明する。
図9は、検出装置4Aが例えば図示しない入力ユニットを介して、検出装置4Aの利用者から被写体9の感情の測定を開始する指示を受け付けた場合に、CPU11によって実行される検出処理の流れの一例を示すフローチャートである。
検出処理を規定する検出プログラムは、例えば検出装置4AのROM12に予め記憶されている。検出装置4AのCPU11は、ROM12に記憶される検出プログラムを読み込み、検出処理を実行する。
図9に示すフローチャートが図3に示した検出装置4の検出処理におけるフローチャートと異なる点は、ステップS40とステップS50の間にステップS42及びステップS44が追加された点であり、他の処理は検出装置4の検出処理と同じである。
図9に示す検出処理では、ステップS40で被写体9の各々の部位26の温度を取得した後、ステップS42が実行される。
ステップS42において、CPU11は、温度計7から被写体9が存在する空間の気温を取得する。
ステップS44において、CPU11は、各々の部位26に対して予め定められている温度範囲を不揮発性メモリ14から取得し、取得した各々の温度範囲をステップS42で取得した気温に応じて補正する。
例えば、ステップS42で取得した気温が基準温度から上昇するに従って、各々の部位26の温度も上昇する傾向があるため、CPU11は、各々の部位26に対応する温度範囲の下限値及び上限値を上昇させるように、各々の部位26に対応する温度範囲を補正する。
また、ステップS42で取得した気温が基準温度から低下するに従って、各々の部位26の温度も低下する傾向があるため、CPU11は、各々の部位26に対応する温度範囲の下限値及び上限値を低下させるように、各々の部位26に対応する温度範囲を補正する。
この場合、CPU11は、各々の部位26に対応する温度範囲の補正量を、取得した気温と基準温度の差分に応じて一律に設定してもよいし、部位26毎に変えてもよい。
ステップS60では、ステップS44で気温に応じて補正した部位26毎の温度範囲と、ステップS50で選択した部位26の温度を比較して、ステップS50で選択した部位26の温度が、選択した部位26の補正された温度範囲に含まれているか否かを判定する。以降の処理は、既に図3の検出処理で説明した通りである。
なお、被写体9の温度に影響を与える環境属性は気温に限られない。被写体9の温度は湿度によっても変化する傾向がある。例えば同じ気温であっても湿度が高いほど汗が蒸発しにくくなり、被写体9の温度が上昇する。したがって、検出装置4Aに湿度計を接続して被写体9の存在する空間の湿度を取得し、部位26毎の温度範囲を予め設定する際に用いられた予め定めた湿度(「基準湿度」ともいう)と、湿度計から取得した湿度との差分に応じて、気温によって補正した温度範囲を更に補正してもよい。
このように検出装置4Aでは、気温に応じて部位26毎に予め定められている温度範囲を補正し、注目している部位26が物体で覆われている部位26か否かを検出する。
また、検出装置4Aは、物体で覆われている部位26以外の部位26、すなわち、物体で覆われていない少なくとも1箇所の部位26の温度を入力として被写体9の感情を推定する学習モデルを複数の学習モデルから選択し、選択した学習モデルに物体で覆われていない少なくとも1箇所の部位26の温度を入力することで、被写体9の感情を推定する。
なお、図9の検出処理に対して、第1実施形態の変形例で説明した手法を適用して被写体9の感情を推定してもよいことは言うまでもない。
以上、各実施の形態を用いて本発明について説明したが、本発明は各実施の形態に記載の範囲には限定されない。本発明の要旨を逸脱しない範囲で各実施の形態に多様な変更又は改良を加えることができ、当該変更又は改良を加えた形態も本発明の技術的範囲に含まれる。例えば、本発明の要旨を逸脱しない範囲で処理の順序を変更してもよい。
また、各実施の形態では、可視カメラ2及び赤外線カメラ3で人間を撮影し、物体で覆われている部位を検出すると共に、人間の感情を検出する例について説明した。しかしながら、上述した検出システム1、1Aの被写体9は人間等の生物に限られず、可視カメラ2及び赤外線カメラ3で生物とは異なる被写体9を撮影して、被写体9が物体で覆われている部位を検出してもよい。
例えば鋼材を加熱して形を整える成型処理において、鋼材の表面に不純物が付着している場合、不純物で覆われた部位の温度は不純物で覆われていない部位の温度より低下することがある。したがって、可視カメラ2及び赤外線カメラ3で加熱された鋼材を撮影して、可視画像20から鋼材の部位26を特定し、鋼材の表面が不純物で覆われていない場合に取りうる予め定められた温度範囲に含まれない部位26を検出するようにしてもよい。これにより、鋼材における不純物の付着位置が特定される。なお、生物以外の物体を被写体とする場合、被写体に感情は存在しないため、図3及び図9のステップS100〜S120を実行する必要はない。
また、各実施の形態では、一例として検出処理をソフトウエアで実現する形態について説明したが、図3及び図9に示したフローチャートと同等の処理を、例えばASIC(Application Specific Integrated Circuit)に実装し、ハードウエアで処理させるようにしてもよい。この場合、検出処理の高速化が図られる。
また、上述した各実施の形態では、検出プログラムがROM12にインストールされている形態を説明したが、これに限定されるものではない。本発明に係る検出プログラムは、コンピュータ読み取り可能な記憶媒体に記録された形態で提供することも可能である。例えば、本発明に係る検出プログラムを、CD(Compact Disc)−ROM、又はDVD(Digital Versatile Disc)−ROM等の光ディスクに記録した形態で提供してもよい。また、本発明に係る検出プログラムを、USBメモリ及びフラッシュメモリ等の半導体メモリに記録した形態で提供してもよい。更に、検出装置4、4Aはインターネット等の通信回線を介して、通信回線に接続された外部装置から本発明に係る検出プログラムを取得するようにしてもよい。
1(1A)・・・検出システム
2・・・可視カメラ
3・・・赤外線カメラ
4(4A)・・・検出装置
5・・・報知ユニット
6・・・通信ユニット
7・・・温度計
9・・・被写体
10・・・コンピュータ
11・・・CPU
12・・・ROM
13・・・RAM
14・・・不揮発性メモリ
20・・・可視画像
22・・・顔領域
24・・・特徴点
26・・・部位
30・・・温度画像

Claims (11)

  1. 可視画像から特定された被写体の複数の部位に対応するそれぞれの温度を、前記被写体の部位の温度を可視化した温度画像から取得する取得手段と、
    前記取得手段によってそれぞれ温度が取得された前記被写体の複数の部位のうち、部位毎に予め定められている温度範囲に含まれない部位を検出する検出手段と、
    を備えた検出装置。
  2. 可視画像から特定された被写体の複数の部位に対応するそれぞれの温度を、前記被写体の部位の温度を可視化した温度画像から取得する取得手段と、
    前記取得手段によってそれぞれ温度が取得された前記被写体の複数の部位のうち、部位毎に予め定められている温度範囲に含まれる部位を検出し、検出された部位以外の部位を前記温度範囲に含まれない部位として更に検出する検出手段と、
    を備えた検出装置。
  3. 前記取得手段によって取得された前記被写体の少なくとも1箇所の部位の温度から推定された前記被写体の感情を報知する報知手段を備える
    請求項1又は請求項2記載の検出装置。
  4. 前記報知手段は、前記取得手段によって取得された前記被写体の複数の部位のうち、前記検出手段によって検出された前記温度範囲に含まれない部位以外の部位の温度を用いて推定された前記被写体の感情を報知する
    請求項3記載の検出装置。
  5. 前記報知手段は、前記検出手段によって検出された前記温度範囲に含まれない部位に隣接する部位の温度を用いて推定された前記被写体の感情を報知する
    請求項4記載の検出装置。
  6. 前記報知手段は、前記検出手段によって検出された前記温度範囲に含まれない部位に隣接する部位の温度を用いて補間された補間後の前記温度範囲に含まれない部位の温度を用いて推定された前記被写体の感情を報知する
    請求項3記載の検出装置。
  7. 前記報知手段は、温度が前記温度範囲に含まれる部位の温度より、温度が補間された部位の温度における前記被写体の感情の推定に関する重み付けが低くなるように推定された前記被写体の感情を報知する
    請求項6記載の検出装置。
  8. 部位毎の前記温度範囲を気温に応じて補正する補正手段を備え、
    前記検出手段は、前記補正手段によって補正された前記温度範囲を用いて、前記温度範囲に含まれない部位を検出する
    請求項1〜請求項7の何れか1項に記載の検出装置。
  9. 前記補正手段は、気温が上昇するに従って前記温度範囲の下限値及び上限値を上昇させるように前記温度範囲を補正する
    請求項8記載の検出装置。
  10. 前記補正手段は、気温が低下するに従って前記温度範囲の下限値及び上限値を低下させるように前記温度範囲を補正する
    請求項8又は請求項9記載の検出装置。
  11. コンピュータを、請求項1〜請求項10の何れか1項に記載の検出装置の各手段として機能させるための検出プログラム。
JP2018011792A 2018-01-26 2018-01-26 検出装置、及び検出プログラム Active JP6981277B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018011792A JP6981277B2 (ja) 2018-01-26 2018-01-26 検出装置、及び検出プログラム
US16/166,183 US10803303B2 (en) 2018-01-26 2018-10-22 Detection apparatus and non-transitory computer readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018011792A JP6981277B2 (ja) 2018-01-26 2018-01-26 検出装置、及び検出プログラム

Publications (2)

Publication Number Publication Date
JP2019126657A true JP2019126657A (ja) 2019-08-01
JP6981277B2 JP6981277B2 (ja) 2021-12-15

Family

ID=67392221

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018011792A Active JP6981277B2 (ja) 2018-01-26 2018-01-26 検出装置、及び検出プログラム

Country Status (2)

Country Link
US (1) US10803303B2 (ja)
JP (1) JP6981277B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6976498B1 (ja) * 2021-03-15 2021-12-08 三菱電機株式会社 感情推定装置および感情推定方法
WO2022070301A1 (ja) * 2020-09-30 2022-04-07 日本電気株式会社 生体判定システム、生体判定方法、及びコンピュータプログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6872742B2 (ja) * 2016-06-30 2021-05-19 学校法人明治大学 顔画像処理システム、顔画像処理方法及び顔画像処理プログラム
CN111595450B (zh) * 2020-05-15 2022-03-25 北京百度网讯科技有限公司 测量温度的方法、装置、电子设备和计算机可读存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007068620A (ja) * 2005-09-05 2007-03-22 Konica Minolta Holdings Inc 心理状態計測装置
WO2014054293A1 (ja) * 2012-10-05 2014-04-10 パナソニック株式会社 眠気推定装置、眠気推定方法、コンピュータ読み取り可能な非一時的な記録媒体
JP2016057944A (ja) * 2014-09-11 2016-04-21 株式会社デンソー ドライバ状態判定装置
JP2017144222A (ja) * 2015-10-14 2017-08-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 感情推定方法、感情推定装置、及び、プログラムを記録した記録媒体

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57126372A (en) 1981-01-28 1982-08-06 Mitsubishi Electric Corp Emergency stop device for elevator
JP2005237861A (ja) 2004-02-27 2005-09-08 Omron Corp 自動検温装置および自動検温方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007068620A (ja) * 2005-09-05 2007-03-22 Konica Minolta Holdings Inc 心理状態計測装置
WO2014054293A1 (ja) * 2012-10-05 2014-04-10 パナソニック株式会社 眠気推定装置、眠気推定方法、コンピュータ読み取り可能な非一時的な記録媒体
JP2016057944A (ja) * 2014-09-11 2016-04-21 株式会社デンソー ドライバ状態判定装置
JP2017144222A (ja) * 2015-10-14 2017-08-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 感情推定方法、感情推定装置、及び、プログラムを記録した記録媒体

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022070301A1 (ja) * 2020-09-30 2022-04-07 日本電気株式会社 生体判定システム、生体判定方法、及びコンピュータプログラム
JP6976498B1 (ja) * 2021-03-15 2021-12-08 三菱電機株式会社 感情推定装置および感情推定方法
WO2022195661A1 (ja) * 2021-03-15 2022-09-22 三菱電機株式会社 感情推定装置および感情推定方法

Also Published As

Publication number Publication date
US20190236339A1 (en) 2019-08-01
US10803303B2 (en) 2020-10-13
JP6981277B2 (ja) 2021-12-15

Similar Documents

Publication Publication Date Title
KR102362544B1 (ko) 이미지 처리를 위한 방법 및 장치, 및 컴퓨터 판독 가능 저장 매체
JP2019126657A (ja) 検出装置、及び検出プログラム
US9746918B2 (en) Eye tracking
US10580160B2 (en) Device and method for determining a position of a mobile device in relation to a subject
US9998654B2 (en) Information processing device and method for controlling information processing device
EP3091737A2 (en) Digital mirror apparatus
JP4739870B2 (ja) サングラス検出装置及び顔中心位置検出装置
CN113837145A (zh) 用于产生针对所选择识别文档的符合的面部图像的系统
US11232584B2 (en) Line-of-sight estimation device, line-of-sight estimation method, and program recording medium
WO2007046477A1 (ja) 顔中心位置検出装置、顔中心位置検出方法、及び、プログラム
JP2020526735A (ja) 瞳孔距離測定方法、装着型眼用機器及び記憶媒体
JP2017194301A (ja) 顔形状測定装置及び方法
JP2012226645A (ja) 画像処理装置および方法、記録媒体並びにプログラム
US9323981B2 (en) Face component extraction apparatus, face component extraction method and recording medium in which program for face component extraction method is stored
WO2014061294A1 (ja) 瞳孔位置測定方法及び両用レンズの作製方法
JP5092093B2 (ja) 画像処理装置
JP2008250407A (ja) 画像処理プログラムおよび画像処理装置
JP6075983B2 (ja) 不快度推定システム及び不快度推定方法
JP6075982B2 (ja) 顔しかめ検出システム及び顔しかめ検出方法
JP7099809B2 (ja) 画像監視システム
CA2931457C (en) Measuring cervical spine posture using nostril tracking
JP2013210778A (ja) 撮像装置
JP2012227830A (ja) 情報処理装置、その処理方法、プログラム及び撮像装置
US9918662B2 (en) Measuring cervical spine posture using nostril tracking
KR102458065B1 (ko) 안면 인식 체온 측정 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210924

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211019

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211101

R150 Certificate of patent or registration of utility model

Ref document number: 6981277

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150