JP2018147278A - Solitary monitor system and mirror-like terminal - Google Patents

Solitary monitor system and mirror-like terminal Download PDF

Info

Publication number
JP2018147278A
JP2018147278A JP2017042410A JP2017042410A JP2018147278A JP 2018147278 A JP2018147278 A JP 2018147278A JP 2017042410 A JP2017042410 A JP 2017042410A JP 2017042410 A JP2017042410 A JP 2017042410A JP 2018147278 A JP2018147278 A JP 2018147278A
Authority
JP
Japan
Prior art keywords
face
feature point
mirror
data
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017042410A
Other languages
Japanese (ja)
Inventor
▲隆▼一 平出
Ryuichi Hiraide
▲隆▼一 平出
村山 正美
Masami Murayama
正美 村山
誠一 西尾
Seiichi Nishio
誠一 西尾
幹夫 岡崎
Mikio Okazaki
幹夫 岡崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GAIA SYSTEM SOLUTIONS Inc
Original Assignee
GAIA SYSTEM SOLUTIONS Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GAIA SYSTEM SOLUTIONS Inc filed Critical GAIA SYSTEM SOLUTIONS Inc
Priority to JP2017042410A priority Critical patent/JP2018147278A/en
Publication of JP2018147278A publication Critical patent/JP2018147278A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a solitary monitor system capable of satisfactorily monitoring a subject to be watched inexpensively without the necessity of a special skill such as conventional one of manipulating information equipment, and a mirror-like terminal to be employed in the system.SOLUTION: A mirror-like terminal images a solitary's face with a camera so as to acquire feature point data, an engagement value, and pulse rate data. The mirror-like terminal then transmits the data items to a portable wireless terminal of a family member, who resides separately, by way of a server. On receipt of the feature point data, engagement value, and pulse rate data, the server estimates the solitary's expression on the basis of the feature point data, and transmits a result of the expression estimation to the portable wireless terminal together with the feature point data, engagement value, and pulse rate data. The solitary is prompted to perform the work once a day.SELECTED DRAWING: Figure 1

Description

本発明は、特に独居老人の監視に好適な独居者監視システムと、これに使用する鏡型端末に関する。   The present invention relates to a single person monitoring system particularly suitable for monitoring a single person living alone, and a mirror-type terminal used therefor.

近年、我が国では少子高齢化が進み、子や孫の世代が大都市に集中し、親が地方に残される、という家族形態が増加している。このような状況に伴い、独居老人が増加している。そして、地方に住む独居老人と、大都市に住むその子供世代である別居家族とのコミュニケーションに関わる問題が表面化している。特に、高齢者の孤独死等は大きな問題である。   In recent years, in Japan, the aging population is declining and the generation of children and grandchildren is concentrated in large cities, and the form of families is increasing in which parents are left in rural areas. Along with this situation, the number of elderly living alone has increased. And the problems related to communication between the elderly living alone in rural areas and the separated families who are their child generations living in large cities are becoming more apparent. In particular, the lonely death of the elderly is a big problem.

特許文献1には、このような状況を改善するため、高齢者や障害者等の見守り対象者をきめ細やかに見守ることが可能な見守りシステムが開示されている。
特許文献2には、カメラで撮影したユーザの顔の画像データから短時間フーリエ変換(short-time Fourier transform、short-term Fourier transform、STFT)を用いて脈拍を検出する技術が開示されている。
特許文献3には、離散ウェーブレット変換(Discrete wavelet transform, DWT)を用いて脈拍を検出する技術が開示されている。
In order to improve such a situation, Patent Document 1 discloses a monitoring system that can closely monitor a person to be monitored such as an elderly person or a disabled person.
Patent Document 2 discloses a technique for detecting a pulse using short-time Fourier transform (short-time Fourier transform, STFT) from image data of a user's face photographed by a camera.
Patent Document 3 discloses a technique for detecting a pulse using a discrete wavelet transform (DWT).

特開2015−108894号公報JP2015-108894A 特開2015−116368号公報JP, 2015-116368, A 特開平10−216096号公報Japanese Patent Laid-Open No. 10-216096

上述の特許文献1を含め、これまで多種多様な見守りシステムに関する特許出願や情報の開示がなされている。その殆どが、情報機器を用いて、インターネットを介して見守り対象者を監視する態様である。
その多くが情報弱者である見守り対象者に、情報機器の操作を強要することは困難である。
Patent applications and information related to a wide variety of watching systems have been disclosed so far, including the above-mentioned Patent Document 1. Most of them are modes in which an information device is used to monitor a person to watch over the Internet.
It is difficult to force the person to be watched, who are mostly vulnerable to information, to operate the information equipment.

本発明は、かかる課題に鑑みてなされたものであり、従来の情報機器を操作するような特殊なスキルを必要とせずに、見守り対象者を必要かつ十分に監視することができる低価格な独居者監視システムと、これに使用する鏡型端末を提供することを目的とする。   The present invention has been made in view of such a problem, and is a low-priced single person who can monitor a person to be watched as necessary and sufficiently without requiring a special skill for operating a conventional information device. It is an object of the present invention to provide a person monitoring system and a mirror type terminal used therefor.

上記課題を解決するために、本発明の独居者監視システムは、監視対象者の顔を撮影して所定のデータを出力する鏡型端末と、鏡型端末から所定のデータを受信するサーバと、サーバから転送された、鏡型端末が出力したデータを受信する監視用端末よりなる。
鏡型端末は、監視対象者の顔を映すことが可能な鏡と、鏡に組み込まれ、監視対象者の顔を撮影して画像データを出力する撮像装置と、画像データに含まれる監視対象者の顔を検出する顔検出処理部と、顔検出処理部が出力する、監視対象者の顔を抽出した顔抽出画像データから顔の特徴点よりなる特徴点データを生成する特徴点抽出部と、ネットワークに接続され、特徴点データをサーバを経由して監視用端末へ送信する入出力制御部とを具備する。
サーバは、ネットワークを通じて鏡型端末及び監視用端末と接続され、鏡型端末から送信される特徴点データを監視用端末へ転送する入出力制御部とを具備する。
監視用端末は、サーバから転送された特徴点データを受信する入出力制御部と、特徴点データを表示する表示部とを具備する。
In order to solve the above problems, a solitary person monitoring system of the present invention includes a mirror-type terminal that captures a face of a person to be monitored and outputs predetermined data, a server that receives predetermined data from the mirror-type terminal, It consists of a monitoring terminal that receives data output from a mirror type terminal transferred from a server.
The mirror-type terminal includes a mirror that can reflect the face of the monitoring target person, an imaging device that is incorporated in the mirror and captures the face of the monitoring target person and outputs image data, and the monitoring target person included in the image data A face detection processing unit for detecting the face of the subject, a feature point extraction unit for generating feature point data composed of the feature points of the face from the face extraction image data obtained by extracting the face of the person to be monitored output by the face detection processing unit, An input / output control unit connected to the network and transmitting the feature point data to the monitoring terminal via the server.
The server is connected to the mirror type terminal and the monitoring terminal through the network, and includes an input / output control unit that transfers feature point data transmitted from the mirror type terminal to the monitoring terminal.
The monitoring terminal includes an input / output control unit that receives the feature point data transferred from the server, and a display unit that displays the feature point data.

本発明によれば、従来の情報機器を操作するような特殊なスキルを必要とせずに、見守り対象者を必要かつ十分に監視することができる低価格な独居者監視システムと、これに使用する鏡型端末を提供することができる。
上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
According to the present invention, a low-cost single person monitoring system capable of monitoring a person to be watched necessary and sufficiently without requiring special skills to operate a conventional information device, and a system for use in this system. A mirror-type terminal can be provided.
Problems, configurations, and effects other than those described above will be clarified by the following description of embodiments.

本発明の実施形態に係る独居者監視システムを独居者の居宅に設置し稼働させた状態を示す概略図である。It is the schematic which shows the state which installed and operated the single person monitoring system which concerns on embodiment of this invention in the single person's home. 本発明の実施形態に係る独居者監視システムのセンサ端末を構成する鏡型端末の斜視図と正面図である。It is the perspective view and front view of the mirror type terminal which comprise the sensor terminal of the single person monitoring system which concerns on embodiment of this invention. 鏡型端末の一部断面分解図である。It is a partial cross section exploded view of a mirror type terminal. 鏡型端末のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of a mirror type terminal. 鏡型端末のソフトウェア機能を示すブロック図である。It is a block diagram which shows the software function of a mirror type terminal. 撮像装置から出力される画像データストリームの一例を示す概略図と、顔検出処理部が出力する顔抽出画像データの一例を示す概略図と、特徴点抽出部が出力する特徴点データの一例を示す概略図である。Schematic diagram showing an example of an image data stream output from the imaging device, schematic diagram showing an example of face extraction image data output by the face detection processing unit, and an example of feature point data output by the feature point extraction unit FIG. 脈拍検出領域抽出部が、独居者の顔の画像データから部分画像データとして切り出す領域を模式的に示す図である。It is a figure which shows typically the area | region which a pulse detection area extraction part cuts out as partial image data from the image data of a single person's face. サーバのハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of a server. サーバのソフトウェア機能を示すブロック図である。It is a block diagram which shows the software function of a server. 表情推定部905が実施する、感情の分類を説明する概略図である。It is the schematic explaining the classification of the emotion which the facial expression estimation part 905 implements. 携帯型無線端末のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of a portable radio | wireless terminal. 携帯型無線端末のソフトウェア機能を示すブロック図である。It is a block diagram which shows the software function of a portable radio | wireless terminal. 携帯型無線端末の表示部に表示される表示例である。It is the example of a display displayed on the display part of a portable radio | wireless terminal. 携帯型無線端末において独居者の安否が確認できなくなったことを検出した状況から始まる、鏡型端末と携帯型無線端末との間で行われる通信の手順と内容を示す、タイムチャートである。It is a time chart which shows the procedure and content of the communication performed between a mirror type terminal and a portable radio | wireless terminal starting from the condition which detected that it was impossible to confirm the safety of a single person in a portable radio | wireless terminal. 変形例としてのサーバのソフトウェア機能を示すブロック図である。It is a block diagram which shows the software function of the server as a modification. 変形例としての鏡型端末のソフトウェア機能を示すブロック図である。It is a block diagram which shows the software function of the mirror type terminal as a modification.

出願人は、コンテンツを視聴するユーザをカメラで撮影し、ユーザの顔の向き及び視線の向きから集中度を算出する集中度処理システムについて、先に特許出願した(特願2016−124611)。
この集中度処理システムは、ユーザの顔をカメラで撮影して、ユーザの顔と視線の向きを検出し、それらの向きがコンテンツを表示するディスプレイにどの程度向いているかを測定することで、ユーザのコンテンツに対する集中度を算出する。
本発明の実施形態に係る独居者監視システムは、この集中度処理システムを基に、独居者の監視に向けたアプリケーションとして構築したものである。
また、上述の特許出願に記述された集中度処理システムには、ユーザの顔から脈拍を検出する機能も有している。脈拍の情報は独居老人の生存確認に加え、大まかな健康状態の推測にも有用な情報である。本発明の実施形態に係る独居者監視システムも、先の出願の集中度処理システムと同様に、独居者の脈拍を検出する機能を有している。
The applicant has previously filed a patent application for a concentration processing system that captures a user viewing content with a camera and calculates the concentration based on the direction of the user's face and line of sight (Japanese Patent Application No. 2006-124611).
This concentration processing system captures a user's face with a camera, detects the orientation of the user's face and line of sight, and measures how much the orientation is directed to the display that displays the content. Calculate the degree of concentration on the content.
The single person monitoring system according to the embodiment of the present invention is constructed as an application for monitoring a single person based on this concentration processing system.
The concentration processing system described in the above-mentioned patent application also has a function of detecting a pulse from the user's face. The information on the pulse is useful information for estimating the general health status in addition to confirming the survival of the elderly living alone. The single person monitoring system according to the embodiment of the present invention also has a function of detecting a single person's pulse, like the concentration processing system of the previous application.

発明者らはこれまで集中度を測定する機器を開発してきた。そして、機器の開発の過程において、発明者らは、人がある事象に対して集中するという状態は、能動的な要因のみではなく、受動的な要因もあるということに気付いた。
例えば、人がある課題に直面して、その課題を解決するために集中するという行為は、能動的な要因である。つまり、当該行為は「当該事象に集中しなければならない」という意識に起因する。これに対し、人が面白いことや楽しいこと等の事象を見て、興味を惹かれるという行為は、ある意味で受動的な要因である。つまり、当該行為は「当該事象に思わず惹かれてしまう」という感情に起因する。
The inventors have so far developed an apparatus for measuring the degree of concentration. In the process of device development, the inventors have realized that the state where a person concentrates on a certain event includes not only active factors but also passive factors.
For example, the act of confronting a person and concentrating to solve the problem is an active factor. In other words, the act is attributed to the awareness that “we must concentrate on the event”. On the other hand, the act of attracting interest by seeing events such as things that are interesting or fun is a passive factor in a sense. In other words, the act is attributed to the feeling that “the event is unintentionally attracted”.

発明者らは、このように相反する意識や感情に起因する行動を「集中度」という言葉で表現することが必ずしも適切ではないと考えた。そこで発明者らは、ある対象者が、ある事象に対し、能動的または受動的な要因の如何に関わらず、注目している状態を、「エンゲージメント(Engagement)」という言葉で定義することとした。そして、発明者らは、これまで開発してきた機器を、集中度を測定する機器ではなく、エンゲージメントを測定する機器と定義付けた。
本明細書で説明する独居者監視システムは、このエンゲージメントを、独居者の監視に転用することで、端末やサーバ等のハードウェアのコスト、ネットワーク上を行き交うデータ量にかかるコストを低減するシステムである。
The inventors considered that it is not always appropriate to express the behavior caused by the conflicting consciousness and emotion in the word “concentration”. Therefore, the inventors decided to define the state of interest that a subject is interested in for an event, regardless of whether it is an active or passive factor, using the term “engagement”. . The inventors have defined the device that has been developed so far as a device that measures engagement, not a device that measures concentration.
The single person monitoring system described in this specification is a system that reduces the cost of hardware such as terminals and servers and the amount of data traveling on the network by diverting this engagement to single person monitoring. is there.

[設置稼働例]
図1は、本発明の実施形態に係る独居者監視システム101を独居者102の居宅103に設置し稼働させた状態を示す概略図である。
監視対象者である独居者102の居宅103において、独居者102はセンサ端末を構成する鏡型端末104を見ている。監視対象者を監視する監視者である、都市部に在住する独居者102の別居家族105は、独居者102に「一日一回、この鏡を見てね。」と依頼する。独居者102が鏡型端末104を見て、自分の顔を確認すると、鏡型端末104に埋め込まれた撮像装置が、独居者102の顔の存在を認識する。更に、独居者102の顔の画像情報から、脈拍を検出する。そして、独居者102が鏡型端末104の前に来たことを示す情報と、脈拍情報を、インターネット106を介してサーバ107に送信する。
サーバ107は、鏡型端末104から情報を受信すると、内包するデータベースに情報を登録する。そして、鏡型端末104から送られた情報を、独居者102の別居家族105が所有する監視用端末である携帯型無線端末108に転送する。独居者102の別居家族105は、携帯型無線端末108が情報を受信したことを認識し、独居者102の安否及び凡その健康状態等を把握する。
[Installation operation example]
FIG. 1 is a schematic diagram showing a state in which a solitary person monitoring system 101 according to an embodiment of the present invention is installed and operated in a residence 103 of a solitary person 102.
In the home 103 of the solitary person 102 who is the monitoring subject, the solitary person 102 is looking at the mirror type terminal 104 constituting the sensor terminal. A separate family 105 of a solitary person 102 living in an urban area who is a supervising person to be monitored asks the solitary person 102 to “look at this mirror once a day”. When the solitary person 102 looks at the mirror type terminal 104 and confirms his / her face, the imaging device embedded in the mirror type terminal 104 recognizes the existence of the face of the solitary person 102. Furthermore, the pulse is detected from the image information of the face of the solitary person 102. Then, information indicating that the solitary person 102 has come in front of the mirror-type terminal 104 and pulse information are transmitted to the server 107 via the Internet 106.
When the server 107 receives information from the mirror-type terminal 104, the server 107 registers the information in the included database. Then, the information sent from the mirror-type terminal 104 is transferred to the portable wireless terminal 108 which is a monitoring terminal owned by the separated family 105 of the single person 102. The separated family 105 of the solitary person 102 recognizes that the portable wireless terminal 108 has received the information, and grasps the safety of the solitary person 102 and the general health condition.

図2Aは、本発明の実施形態に係る独居者監視システム101のセンサ端末を構成する鏡型端末104の斜視図であり、図2Bは、鏡型端末104の正面図である。
図2Aに示すように、鏡型端末104は、机やテーブル等に載置して使用する卓上鏡を構成する。鏡型端末104は、鏡として使用することを考慮して、凡そ60°前後の傾斜角を有する鏡面部201と、鏡面部201を支持する支持体202を有する。
図2A及び図2Bに示すように、鏡面部201の右上には、LEDが埋め込まれた押釦スイッチ203が設けられている。押釦スイッチ203に埋め込まれたLEDは、別居家族105が所有する携帯型無線端末108またはサーバ107から送信されたアラーム情報を受信すると、点滅あるいは点灯する。
また、鏡面部201の鏡はハーフミラーで構成されており、図2A及び図2Bで示す点線の箇所P204には、撮像装置を有する情報処理部304(図3参照)が埋め込まれている。なお、撮像装置自体は、ハーフミラーの存在により、肉眼では見えにくくなっている。
FIG. 2A is a perspective view of the mirror type terminal 104 constituting the sensor terminal of the single person monitoring system 101 according to the embodiment of the present invention, and FIG. 2B is a front view of the mirror type terminal 104.
As shown in FIG. 2A, the mirror-type terminal 104 constitutes a table mirror used by being placed on a desk or table. The mirror-type terminal 104 includes a mirror surface portion 201 having an inclination angle of about 60 ° and a support body 202 that supports the mirror surface portion 201 in consideration of use as a mirror.
As shown in FIGS. 2A and 2B, a push button switch 203 in which an LED is embedded is provided on the upper right side of the mirror surface portion 201. The LED embedded in the push button switch 203 blinks or lights when alarm information transmitted from the portable wireless terminal 108 or the server 107 owned by the separate family 105 is received.
Further, the mirror of the mirror surface portion 201 is formed of a half mirror, and an information processing portion 304 (see FIG. 3) having an imaging device is embedded in a dotted line portion P204 shown in FIGS. 2A and 2B. The imaging device itself is difficult to see with the naked eye due to the presence of the half mirror.

図3は、鏡型端末104の一部分解断面図である。
透明な天板301にはハーフミラーフィルム302が裏面に張り付けられており、独居者102の顔を写す鏡として機能する。天板301はアクリル、ポリカーボネート、ポリエチレンテレフタレート、硬質塩化ビニール等の透明な樹脂、あるいは強化ガラス等の透明な板であり、相応の強度を備えていればよい。ハーフミラーフィルム302は、アクリルやガラス等の透明な板に張り付けてハーフミラーを形成するためのフィルムであり、誘電多層膜や金属薄膜等の材料で構成される。なお、このフィルムは、マジックミラーとしても周知のものである。
ハーフミラーフィルム302が貼付された天板301は、合成樹脂等で構成されるフレーム303に嵌め込まれる。フレーム303には穴303aが空いており、この穴303aに撮像装置を有する情報処理部304が挿し込まれる。情報処理部304の、穴303aに挿し込まれる部分304aには、撮像装置の光学系が設けられている。
FIG. 3 is a partially exploded sectional view of the mirror-type terminal 104.
A half mirror film 302 is attached to the back surface of the transparent top plate 301 and functions as a mirror that reflects the face of the lonely person 102. The top plate 301 is a transparent resin such as acrylic, polycarbonate, polyethylene terephthalate, or hard vinyl chloride, or a transparent plate such as tempered glass, and may have a corresponding strength. The half mirror film 302 is a film for forming a half mirror by being attached to a transparent plate such as acrylic or glass, and is made of a material such as a dielectric multilayer film or a metal thin film. This film is also known as a magic mirror.
The top plate 301 to which the half mirror film 302 is attached is fitted into a frame 303 made of synthetic resin or the like. A hole 303a is formed in the frame 303, and an information processing unit 304 having an imaging device is inserted into the hole 303a. An optical system of the imaging device is provided in a portion 304a of the information processing unit 304 that is inserted into the hole 303a.

[鏡型端末104:ハードウェア構成]
図4は、鏡型端末104の情報処理部304の、ハードウェア構成を示すブロック図である。
シングルボードコンピュータで構成される鏡型端末104の情報処理部304は、バス408に接続された、CPU401、ROM402、RAM403、不揮発性ストレージ404、現在日時情報を出力するリアルタイムクロック(以下「RTC」)405、無線LANインターフェース406、及び無線通信部407を備える。更に、バス408にはシリアルインターフェース409を介して押釦スイッチ203とLED410とスピーカ411が接続されている。
無線LANインターフェース406は、不図示の無線LANルータを介してインターネット106に接続するためのネットワークインターフェースである。
無線通信部407は、無線通信の送信回路と受信回路を含み、不図示のアクセスポイントを通じてインターネット106に接続するためのネットワークインターフェースであり、例えばLTE(Long Term Evolution)等の通信規格によりアクセスポイントに接続される。また、独居者102の顔を撮影する撮像装置412も、バス408に接続されている。
[Mirror type terminal 104: hardware configuration]
FIG. 4 is a block diagram illustrating a hardware configuration of the information processing unit 304 of the mirror type terminal 104.
The information processing unit 304 of the mirror-type terminal 104 configured by a single board computer includes a CPU 401, a ROM 402, a RAM 403, a non-volatile storage 404, and a real-time clock (hereinafter referred to as “RTC”) that outputs current date and time information. 405, a wireless LAN interface 406, and a wireless communication unit 407. Further, a push button switch 203, an LED 410, and a speaker 411 are connected to the bus 408 via a serial interface 409.
The wireless LAN interface 406 is a network interface for connecting to the Internet 106 via a wireless LAN router (not shown).
The wireless communication unit 407 includes a transmission circuit and a reception circuit for wireless communication, and is a network interface for connecting to the Internet 106 through an access point (not shown). For example, the wireless communication unit 407 is connected to the access point according to a communication standard such as LTE (Long Term Evolution). Connected. An imaging device 412 that captures the face of the solitary person 102 is also connected to the bus 408.

不揮発性ストレージ404には、情報処理部304をネットワークに接続するための、TCP/IPプロトコルスタックを含むネットワークOSと、鏡型端末104として稼働させるためのプログラムが格納されている。
シリアルインターフェース409に接続されたスピーカ411は、不図示のカップリングコンデンサを介して与えられたPWM信号に基づいて、D/A変換器を用いずにアラーム音を発音する。
The non-volatile storage 404 stores a network OS including a TCP / IP protocol stack for connecting the information processing unit 304 to the network, and a program for operating as the mirror terminal 104.
A speaker 411 connected to the serial interface 409 generates an alarm sound without using a D / A converter, based on a PWM signal supplied via a coupling capacitor (not shown).

情報処理部304を構成するシングルボードコンピュータは、例えば英国ラズベリーパイ財団(http://www.raspberrypi.org/)が開発する「Raspberry Pi」等が利用可能である。情報処理部304の演算処理能力は、インターネット106に接続する機能と、後述する画像データの処理を実行する機能を実現するために、例えばLinux(登録商標)等のネットワークOSが実用的な速度で稼働可能な程度であればよい。   For example, “Raspberry Pi” developed by the Raspberry Pi Foundation (http://www.raspberrypi.org/) in the UK can be used as the single board computer constituting the information processing unit 304. The arithmetic processing capability of the information processing unit 304 is such that a network OS such as Linux (registered trademark) is used at a practical speed in order to realize a function of connecting to the Internet 106 and a function of executing processing of image data described later. It is only necessary to be able to operate.

撮像装置412は、監視対象者である独居者102が鏡を覗き込む際に、独居者102の顔を必要十分に撮影できるように、画角等が考慮される。一例としては、画角は28°、XGA(1024×768ビクセル)以上の撮像装置412を使用する。撮像装置412の光学系は、ピント調整を不要にするためパンフォーカス仕様が望ましい。また、ハーフミラーフィルム302によって光量が大幅に減少するため、高感度の撮像装置412が望ましい。   The imaging device 412 takes into consideration the angle of view and the like so that the single person 102 who is the subject of monitoring looks into the mirror and can capture the face of the single person 102 sufficiently and sufficiently. As an example, an imaging device 412 having an angle of view of 28 ° and an XGA (1024 × 768 pixels) or more is used. The optical system of the imaging device 412 preferably has a pan focus specification in order to eliminate the need for focus adjustment. In addition, since the amount of light is greatly reduced by the half mirror film 302, a highly sensitive imaging device 412 is desirable.

[鏡型端末104:ソフトウェア機能]
図5は、本発明の実施形態に係る鏡型端末104の情報処理部304の、ソフトウェア機能を示すブロック図である。
撮像装置412から出力される画像データストリームは、顔検出処理部501に供給される。
顔検出処理部501は、撮像装置412から出力される画像データストリームを時間軸上で連続する静止画として捉え、この時間軸上で連続する静止画の各画像データに対し、例えばViola−Jones法等の周知のアルゴリズムを用いて、独居者102の顔の存在を検出する。そして、独居者102の顔だけを抽出した顔抽出画像データを出力する。
[Mirror type terminal 104: Software function]
FIG. 5 is a block diagram showing software functions of the information processing unit 304 of the mirror-type terminal 104 according to the embodiment of the present invention.
The image data stream output from the imaging device 412 is supplied to the face detection processing unit 501.
The face detection processing unit 501 regards the image data stream output from the imaging device 412 as a still image continuous on the time axis, and performs, for example, the Viola-Jones method on each image data of the still image continuous on the time axis. The presence of the face of the solitary person 102 is detected using a known algorithm such as. And the face extraction image data which extracted only the face of the single person 102 is output.

顔検出処理部501が出力する顔抽出画像データは、特徴点抽出部502に供給される。
特徴点抽出部502は、顔抽出画像データに含まれる独居者102の顔の画像に、ポリゴン解析等の処理を施す。そして、独居者102の顔全体、眉、目、鼻、口等の輪郭と、瞳を示す顔の特徴点よりなる特徴点データを生成する。特徴点データの詳細については図6で後述する。
The face extraction image data output from the face detection processing unit 501 is supplied to the feature point extraction unit 502.
The feature point extraction unit 502 performs processing such as polygon analysis on the face image of the single person 102 included in the face extraction image data. Then, feature point data including the entire face of the solitary person 102, the outlines of the eyebrows, eyes, nose, mouth, and the like and the feature points of the face indicating the pupil is generated. Details of the feature point data will be described later with reference to FIG.

特徴点抽出部502が出力する特徴点データは、ベクトル解析部503に供給される。
ベクトル解析部503は、連続する2枚の顔抽出画像データに基づく特徴点データから、独居者102の顔の向きを示すベクトル(以下「顔方向ベクトル」)と、独居者102の顔における、視線の向きを示すベクトル(以下「視線方向ベクトル」)を生成する。
The feature point data output from the feature point extraction unit 502 is supplied to the vector analysis unit 503.
The vector analysis unit 503 obtains a vector indicating the orientation of the face of the solitary person 102 (hereinafter referred to as “face direction vector”) from the feature point data based on the two consecutive face extraction image data, and the line of sight of the face of the solitary person 102. A vector indicating the direction of the image (hereinafter referred to as a “gaze direction vector”) is generated.

顔方向ベクトルと視線方向ベクトルは、エンゲージメント算出部504に供給される。
エンゲージメント算出部504は、顔方向ベクトルと視線方向ベクトルを加算して、独居者102がコンテンツを表示するディスプレイと撮像装置412を含む3次元空間内の何処を注視しているのかを示す注視方向ベクトルを算出する。そして、独居者102の注視方向がディスプレイに向いているか否かを判定する。この判定結果は、独居者102の注視方向がディスプレイに向いているか(論理の「真」)、あるいは向いていないか(論理の「偽」)のいずれかを示す2値の値である。
エンゲージメント算出部504は、この注視方向判定結果を例えば100msec毎に算出する。そして、例えば直近1秒間の注視方向判定結果の移動平均を算出する。この演算により、2値の注視方向判定結果を疑似アナログ的な値として取得することが可能になる。なお、注視方向判定結果の移動平均値が、エンゲージメント値となる。
The face direction vector and the line-of-sight direction vector are supplied to the engagement calculation unit 504.
The engagement calculation unit 504 adds the face direction vector and the line-of-sight direction vector, and indicates a gaze direction vector indicating where the single person 102 is gazing in the three-dimensional space including the display that displays the content and the imaging device 412. Is calculated. And it is determined whether the gaze direction of the single person 102 is suitable for the display. This determination result is a binary value indicating whether the gaze direction of the solitary person 102 is facing the display (logical “true”) or not (logical “false”).
The engagement calculation unit 504 calculates the gaze direction determination result every 100 msec, for example. Then, for example, the moving average of the gaze direction determination results for the latest one second is calculated. This calculation makes it possible to acquire a binary gaze direction determination result as a pseudo-analog value. The moving average value of the gaze direction determination result is the engagement value.

顔検出処理部501が出力する顔抽出画像データと、特徴点抽出部502が出力する特徴点データは、脈拍検出領域抽出部505にも供給される。
脈拍検出領域抽出部505は、顔検出処理部501から出力される顔抽出画像データと、特徴点抽出部502が出力する特徴点データに基づいて、独居者102の顔の一部に相当する画像データの切り出しを実行し、得られた部分画像データを脈拍算出部506へ出力する。ここで、脈拍検出領域抽出部505が行う、独居者102の顔の一部に相当する画像データの切り出しは、脈拍を検出するための領域として相応しい、独居者102の顔のうち、目の直下、頬骨に該当する領域が好ましい。
The face extraction image data output from the face detection processing unit 501 and the feature point data output from the feature point extraction unit 502 are also supplied to the pulse detection region extraction unit 505.
The pulse detection area extraction unit 505 is an image corresponding to a part of the face of the solitary person 102 based on the face extraction image data output from the face detection processing unit 501 and the feature point data output from the feature point extraction unit 502. Data segmentation is executed, and the obtained partial image data is output to the pulse calculation unit 506. Here, the extraction of image data corresponding to a part of the face of the solitary person 102 performed by the pulse detection area extracting unit 505 is right under the eyes of the face of the solitary person 102, which is suitable as an area for detecting the pulse. A region corresponding to the cheekbone is preferred.

脈拍検出領域抽出部505における、脈拍を検出するための領域としては、唇、眉間の少し上、頬骨付近などが考えられるが、本実施形態では髭や髪の毛に隠れて皮膚が見えなくなる可能性が少ない頬骨付近の領域を用いている。なお、脈拍の検出領域を決定する手法は、様々な応用が考えられる。例えば、唇や、眉間の少し上でも構わない。更に、唇・眉間直上・頬骨付近等の複数の候補領域を解析できるようにして、唇が髭に隠れているようであれば次の候補(例えば眉間直上)、次の候補も隠れているようであればその次の候補(頬骨付近)といった具合に、順次候補を絞り込んで、適切な切出し領域を決めるようにしてもよい。   As a region for detecting a pulse in the pulse detection region extraction unit 505, a region slightly above the lips and the eyebrows and the vicinity of the cheekbone may be considered. A small area near the cheekbone is used. Various methods can be considered for determining the pulse detection region. For example, it may be slightly above the lips or between the eyebrows. Furthermore, it is possible to analyze a plurality of candidate areas such as immediately above the lips and between the eyebrows and the vicinity of the cheekbones. If the lips are hidden in the eyelid, the next candidate (for example, immediately above the eyebrows) and the next candidate are also hidden. If so, the candidates may be narrowed down in order, such as the next candidate (near the cheekbone), and an appropriate cutout area determined.

脈拍算出部506は、脈拍検出領域抽出部505が生成する部分画像データから、緑色の成分を抜粋(フィルタリング)し、ピクセル毎の輝度の平均値を得る。そして、この平均値の変動を、例えば特許文献2等に記載されている短時間フーリエ変換、あるいは特許文献3等に記載されている離散ウェーブレット変換等を用いて、独居者102の脈拍を算出する。なお、本実施形態の脈拍算出部506は、ピクセル毎の輝度の平均値を得るとしているが、平均値以外にも最頻値や中央値を採用してもよい。
血液に含まれるヘモグロビンは、緑色の光を吸収する特性を有することが知られている。周知のパルスオキシメータは、このヘモグロビンの特性を利用して、皮膚に緑色の光を照射して、反射光を検出し、その強度変化を基に脈拍を検出する。脈拍算出部506もこのヘモグロビンの特性を利用する点については同じである。但し、検出する根拠となるデータが画像データである点が、パルスオキシメータと異なる。
The pulse calculation unit 506 extracts (filters) a green component from the partial image data generated by the pulse detection region extraction unit 505, and obtains an average value of luminance for each pixel. Then, the pulse of the solitary person 102 is calculated using the short-time Fourier transform described in Patent Document 2 or the like, or the discrete wavelet transform described in Patent Document 3 or the like, for example, with respect to the fluctuation of the average value. . Note that the pulse calculation unit 506 of the present embodiment obtains an average value of luminance for each pixel, but a mode value or a median value may be adopted in addition to the average value.
It is known that hemoglobin contained in blood has a characteristic of absorbing green light. A known pulse oximeter utilizes the characteristics of this hemoglobin, irradiates the skin with green light, detects reflected light, and detects a pulse based on the intensity change. The pulse calculation unit 506 is the same in that the characteristics of the hemoglobin are used. However, it differs from a pulse oximeter in that the data that becomes the basis for detection is image data.

特徴点抽出部502が出力する特徴点データと、エンゲージメント算出部504が出力するエンゲージメント値と、脈拍算出部506が出力する脈拍データは、入出力制御部507に供給される。
入出力制御部507は、特徴点データとエンゲージメント値と脈拍データに、RTC405が出力する現在日時情報と、サーバアクセス情報508に記憶されている情報を付加して、送信パケットを生成する。
不揮発性ストレージに記憶されているサーバアクセス情報508には、
・情報送信元である独居者102を一意に特定する監視対象ID情報、
・通信セキュリティの確保に必要なパスワード等の、情報送信元における認証情報、
・サーバ107にアクセスするための、サーバ107のFQDN(Full Qualified Domain Name)あるいはIPアドレス、
・情報送信先である別居家族105を一意に特定する監視者ID情報
が含まれる。
The feature point data output from the feature point extraction unit 502, the engagement value output from the engagement calculation unit 504, and the pulse data output from the pulse calculation unit 506 are supplied to the input / output control unit 507.
The input / output control unit 507 adds the current date and time information output by the RTC 405 and the information stored in the server access information 508 to the feature point data, the engagement value, and the pulse data, and generates a transmission packet.
Server access information 508 stored in the non-volatile storage includes
-Monitoring target ID information for uniquely identifying the solitary person 102 who is the information transmission source,
・ Authentication information at the information source, such as passwords necessary for ensuring communication security,
An FQDN (Full Qualified Domain Name) or IP address of the server 107 for accessing the server 107
Monitor information that uniquely identifies the separated family 105 that is the information transmission destination is included.

すなわち、入出力制御部507は、特徴点データ、エンゲージメント値、脈拍データ、現在日時情報、監視対象ID情報、監視者ID情報をメッセージとして形成した後、サーバ107のFQDNを用いてサーバ107にアクセスする。そして、認証情報を用いてサーバ107から認証を得てから、メッセージから生成した送信パケットをサーバ107へ送信する。
送信パケットは、インターフェース選択部509を通じて、無線LANインターフェース406または無線通信部407のHTTP(Hyper Text Transfer Protocol)を用いて、インターネット106に接続されているサーバ107へ送信される。すなわち、入出力制御部507はwebクライアントの機能を有している。
That is, the input / output control unit 507 forms the message of feature point data, engagement value, pulse data, current date / time information, monitoring target ID information, and supervisor ID information, and then accesses the server 107 using the FQDN of the server 107. To do. Then, after obtaining authentication from the server 107 using the authentication information, the transmission packet generated from the message is transmitted to the server 107.
The transmission packet is transmitted through the interface selection unit 509 to the server 107 connected to the Internet 106 using the wireless LAN interface 406 or the HTTP (Hyper Text Transfer Protocol) of the wireless communication unit 407. That is, the input / output control unit 507 has a web client function.

インターフェース選択部509の実体は、OSに備わっているTCP/IPプロトコルスタックとDHCP(Dynamic Host Configuration Protocol)クライアントである。すなわち、インターフェース選択部509は、IPリーチャブルなネットワークに接続されているネットワークインターフェースを選択して、送信パケットをサーバ107へ送信する。
なお、本発明の実施形態に係る鏡型端末104では、ネットワークにおける通信に使用するプロトコルに、最も簡素で扱い易いHTTPを例示しているが、データストリームを送信するプロトコルはこれに限るものではない。例えば、周知のSMTP(Simple Mail Transfer Protocol)、すなわちインターネット106電子メールを用いてもよい。
The substance of the interface selection unit 509 is a TCP / IP protocol stack and a DHCP (Dynamic Host Configuration Protocol) client provided in the OS. That is, the interface selection unit 509 selects a network interface connected to the IP reachable network, and transmits the transmission packet to the server 107.
In the mirror type terminal 104 according to the embodiment of the present invention, the simplest and easy-to-handle HTTP is exemplified as the protocol used for communication in the network, but the protocol for transmitting the data stream is not limited to this. . For example, the well-known SMTP (Simple Mail Transfer Protocol), that is, Internet 106 electronic mail may be used.

入出力制御部507は、サーバ107との接続(TCPコネクション)を切らずに保持することで、サーバ107から送信されたデータを即時に受信できるようになっている。以下、この通信の方法を「プッシュ型通信」(HTTP server push)と略記する。サーバ107からアラームメッセージを受信すると、入出力制御部507に備わっているアラーム検出部510がアラームの受信を検出する。入出力制御部507は、アラーム検出部510がアラームの受信を検出したことを受けて、LED410を発光駆動し、スピーカ411を発音駆動する。そして、独居者102が押釦スイッチ203を操作したことを検出すると、入出力制御部507はLED410の発光駆動を停止する。   The input / output control unit 507 can receive data transmitted from the server 107 immediately by holding the connection (TCP connection) with the server 107 without disconnecting. Hereinafter, this communication method is abbreviated as “push-type communication” (HTTP server push). When an alarm message is received from the server 107, the alarm detection unit 510 provided in the input / output control unit 507 detects the reception of the alarm. In response to the alarm detection unit 510 detecting the reception of the alarm, the input / output control unit 507 drives the LED 410 to emit light and drives the speaker 411 to sound. When it is detected that the single person 102 has operated the push button switch 203, the input / output control unit 507 stops the light emission driving of the LED 410.

[送信データについて]
送信パケットには、100msec毎に測定される特徴点データ、エンゲージメント値及び脈拍データの他、RTC405が出力する現在日時情報、監視対象ID情報、監視者ID情報が含まれる。これらの情報はサーバ107のデータベースに記録される。データベースに記録される情報をなるべく正確なものとするために、RTC405を正確に保つことが好ましい。そのためには、鏡型端末104にNTP(Network Time Protocol)クライアント等の日時情報較正機能を有するプログラムをインストールし、実行することが好ましい。
[About transmission data]
In addition to the feature point data, the engagement value, and the pulse data measured every 100 msec, the transmission packet includes current date and time information, monitoring target ID information, and supervisor ID information output by the RTC 405. Such information is recorded in the database of the server 107. In order to make the information recorded in the database as accurate as possible, it is preferable to keep the RTC 405 accurate. For this purpose, it is preferable to install and execute a program having a date and time information calibration function such as an NTP (Network Time Protocol) client in the mirror type terminal 104.

また、サーバ107は複数の鏡型端末104から情報を受信するため、各々の鏡型端末104について一意に識別する情報が必要である。このため、鏡型端末104及び/または独居者102を一意に識別する監視対象ID情報が設けられている。更に、サーバ107は鏡型端末104から受信した情報を正しい監視者へ転送するために、監視者ID情報が必要である。   Further, since the server 107 receives information from the plurality of mirror-type terminals 104, information for uniquely identifying each mirror-type terminal 104 is necessary. For this reason, monitoring target ID information for uniquely identifying the mirror terminal 104 and / or the single person 102 is provided. Further, the server 107 needs monitor ID information in order to transfer the information received from the mirror type terminal 104 to the correct monitor.

[特徴点データについて]
これより、顔検出処理部501、特徴点抽出部502、そしてベクトル解析部503の動作について説明する。
図6Aは、撮像装置412から出力される画像データストリームの一例を示す概略図である。図6Bは、顔検出処理部501が出力する顔抽出画像データの一例を示す概略図である。図6Cは、特徴点抽出部502が出力する特徴点データの一例を示す概略図である。
先ず、撮像装置412から被撮影者601を含む画像データストリームがリアルタイムで出力される。これが図6Aの画像データP602である。
[About feature point data]
The operations of the face detection processing unit 501, the feature point extraction unit 502, and the vector analysis unit 503 will be described.
FIG. 6A is a schematic diagram illustrating an example of an image data stream output from the imaging device 412. FIG. 6B is a schematic diagram illustrating an example of face extraction image data output by the face detection processing unit 501. FIG. 6C is a schematic diagram illustrating an example of feature point data output by the feature point extraction unit 502.
First, an image data stream including the subject 601 is output from the imaging device 412 in real time. This is the image data P602 in FIG. 6A.

次に、顔検出処理部501は、撮像装置412から出力される画像データP601から、例えばViola−Jones法等の周知のアルゴリズムを用いて、被撮影者601の顔の存在を検出する。そして、被撮影者601の顔だけを抽出した顔抽出画像データを出力する。これが図6Bの顔抽出画像データP603である。
そして、特徴点抽出部502は、顔抽出画像データP603に含まれる被撮影者601の顔の画像に、ポリゴン解析等の処理を施す。そして、被撮影者601の顔全体、眉、目、鼻、口等の輪郭と、瞳を示す顔の特徴点よりなる特徴点データを生成する。これが図6Cの特徴点データP604である。この特徴点データP604は、二次元空間内における座標情報を有する特徴点の集合体で構成される。
Next, the face detection processing unit 501 detects the presence of the face of the subject 601 from the image data P601 output from the imaging device 412 using a known algorithm such as the Viola-Jones method. Then, face extraction image data obtained by extracting only the face of the subject 601 is output. This is the face extraction image data P603 in FIG. 6B.
Then, the feature point extraction unit 502 performs processing such as polygon analysis on the face image of the subject 601 included in the face extraction image data P603. Then, feature point data including the entire face of the subject 601, the contours of the eyebrows, eyes, nose, mouth, and the like and the feature points of the face indicating the pupil is generated. This is the feature point data P604 in FIG. 6C. This feature point data P604 is composed of a collection of feature points having coordinate information in a two-dimensional space.

二次元の特徴点データを、時間軸上で異なるタイミングにて2セット取得すると、被撮影者601の顔が僅かに動くことにより、各々の特徴点データにずれが生じる。このずれを基に、被撮影者601の顔の方向を算出することができる。これが顔方向ベクトルである。
また、目の輪郭に対する瞳の配置は、被撮影者601の顔に対するおおよその視線の方向を算出することができる。これが視線方向ベクトルである。
ベクトル解析部503は、以上のような処理にて、特徴点データから顔方向ベクトルと視線方向ベクトルを生成する。
When two sets of two-dimensional feature point data are acquired at different timings on the time axis, the face of the person to be photographed 601 slightly moves, causing a shift in each feature point data. Based on this deviation, the face direction of the subject 601 can be calculated. This is the face direction vector.
In addition, the arrangement of the pupil with respect to the outline of the eye can calculate the approximate line-of-sight direction with respect to the face of the subject 601. This is the gaze direction vector.
The vector analysis unit 503 generates a face direction vector and a line-of-sight direction vector from the feature point data by the processing as described above.

[脈拍の検出領域について]
図7は、脈拍検出領域抽出部505が、独居者102の顔の画像データから部分画像データとして切り出す領域を模式的に示す図である。
特許文献2にも記載されているが、顔の肌の色から脈拍を正しく検出するためには、顔の画像データのうち、目、鼻の穴、唇、頭髪や髭等の、肌の色とは無関係な要素をできる限り排除する必要がある。特に、目は動きが激しく、また瞼を閉じたり開いたりすることで、画像データ中に瞳が存在したり存在しなかったりという、短時間に急激な輝度の変化が起きる。このため、目の情報は、輝度の平均値を算出する際に悪影響を及ぼす。また、個人差があるものの、頭髪と髭の存在は、肌の色の検出を大きく阻害する要因になる。
以上のことを考慮すると、図7に示すように、目の下の領域701a及び701bは、目、頭髪、髭の存在によって影響を受けにくいので、比較的安定して肌の色を検出可能な領域の例として好適であると考えられる。
本発明の実施形態に係る独居者監視システム101では、独居者102の顔をベクトル化し、独居者102の顔を認識する機能を有しているので、脈拍検出領域抽出部505は、顔特徴点から目の下の領域の座標情報を算出することが可能である。
[About pulse detection area]
FIG. 7 is a diagram schematically showing a region that the pulse detection region extraction unit 505 cuts out as partial image data from the image data of the face of the solitary person 102.
As described in Patent Document 2, in order to correctly detect the pulse from the color of the skin of the face, the color of the skin such as eyes, nostrils, lips, hair and wrinkles in the face image data is included. It is necessary to eliminate as much as possible the elements that are unrelated to. In particular, the eyes move rapidly, and when the eyelids are closed or opened, a rapid luminance change occurs in a short time such as the presence or absence of pupils in the image data. For this reason, the eye information has an adverse effect when calculating the average value of luminance. In addition, although there are individual differences, the presence of hair and wrinkles is a factor that greatly hinders the detection of skin color.
Considering the above, as shown in FIG. 7, the regions 701a and 701b under the eyes are not easily affected by the presence of eyes, hair, and wrinkles. It is considered suitable as an example.
In the solitary person monitoring system 101 according to the embodiment of the present invention, since the face of the solitary person 102 is vectorized and has the function of recognizing the face of the solitary person 102, the pulse detection area extracting unit 505 has the face feature points. It is possible to calculate the coordinate information of the area under the eyes from the eye.

[サーバ107:ハードウェア構成]
図8は、サーバ107のハードウェア構成を示すブロック図である。
サーバ107は、CPU801、ROM802、RAM803、不揮発性ストレージ804、RTC805とNIC806がバス807に接続されている。
不揮発性ストレージ804には、サーバ107をインターネット106に接続するための、TCP/IPプロトコルスタックを含むネットワークOSと、計算機をサーバ107を機能させるためのプログラムが格納されている。
[Server 107: Hardware configuration]
FIG. 8 is a block diagram illustrating a hardware configuration of the server 107.
In the server 107, a CPU 801, a ROM 802, a RAM 803, a nonvolatile storage 804, an RTC 805 and a NIC 806 are connected to a bus 807.
The non-volatile storage 804 stores a network OS including a TCP / IP protocol stack for connecting the server 107 to the Internet 106 and a program for causing the server 107 to function as a computer.

[サーバ107:ソフトウェア機能]
図9は、サーバ107のソフトウェア機能を示すブロック図である。
サーバ107は、鏡型端末104及び携帯型無線端末108とHTTPのメッセージを送受信するwebサーバとしての機能と、鏡型端末104から受信したデータをテーブルに登録するデータベースサーバとしての機能と、鏡型端末104から受信した特徴点データから独居者102の表情を推定する、アプリケーションサーバとしての機能を有する。
入出力制御部901の実体はwebサーバプログラムであり、HTTPクライアントである鏡型端末104や携帯型無線端末108の要求を受信し、要求に応じた応答データを返信する。
[Server 107: Software function]
FIG. 9 is a block diagram illustrating software functions of the server 107.
The server 107 has a function as a web server that transmits and receives HTTP messages to and from the mirror terminal 104 and the portable wireless terminal 108, a function as a database server that registers data received from the mirror terminal 104 in a table, It has a function as an application server that estimates the expression of the solitary person 102 from the feature point data received from the terminal 104.
The entity of the input / output control unit 901 is a web server program, which receives a request from the mirror type terminal 104 or the portable wireless terminal 108 that is an HTTP client, and returns response data corresponding to the request.

入出力制御部901は、鏡型端末104から接続要求を受け取ると、認証処理部902を通じて、ユーザ認証を行う。その際、認証処理部902はユーザマスタ903を参照する。
正常に認証処理が行われた鏡型端末104から送信される、特徴点データとエンゲージメント値と脈拍データを含む情報は、入出力制御部901を経て、不揮発性ストレージ804に設けられるログテーブル904に記録される。
次に、入出力制御部901は、鏡型端末104から受信したデータに含まれている特徴点データを、表情推定部905に引き渡す。表情推定部905は、公知の畳み込みニューラルネットワーク等に代表される、画像認識に好適な学習アルゴリズム(ディープラーニング)を用いて、特徴点データから独居者102の表情を推定する。入出力制御部901は、表情推定部905が推定した表情推定結果を、鏡型端末104から受信したデータと同じく、テーブルの同じレコードに登録する。そして入出力制御部901は、特徴点データ、エンゲージメント値、脈拍データ、そして表情推定結果を含む情報を、別居家族105が所有する携帯型無線端末108へ送信する。
When the input / output control unit 901 receives a connection request from the mirror terminal 104, the input / output control unit 901 performs user authentication through the authentication processing unit 902. At that time, the authentication processing unit 902 refers to the user master 903.
Information including the feature point data, the engagement value, and the pulse data transmitted from the mirror-type terminal 104 that has been successfully authenticated is sent to the log table 904 provided in the nonvolatile storage 804 via the input / output control unit 901. To be recorded.
Next, the input / output control unit 901 passes the feature point data included in the data received from the mirror terminal 104 to the facial expression estimation unit 905. The facial expression estimation unit 905 estimates the facial expression of the solitary person 102 from the feature point data using a learning algorithm (deep learning) suitable for image recognition represented by a known convolutional neural network or the like. The input / output control unit 901 registers the facial expression estimation result estimated by the facial expression estimation unit 905 in the same record of the table as the data received from the mirror terminal 104. The input / output control unit 901 transmits information including the feature point data, the engagement value, the pulse data, and the facial expression estimation result to the portable wireless terminal 108 owned by the separate family 105.

本発明の実施形態に係る独居者監視システム101の、第一の目的は、鏡型端末104が独居者102の顔を検出したら、独居者102の顔画像から脈拍を測定して、然るべき情報を別居家族105が所有する携帯型無線端末108へ送信することである。
ところで、鏡型端末104と携帯型無線端末108は、両方共、インターネット106上におけるクライアントに相当する。特に、居宅103に設置されたクライアント機器は、ネットワークの観点から見ると、無線LANルータ等の機能であるファイアウォールの内側に存在することが多い。ファイアウォールによって隠蔽され、プライベートIPアドレスが付与されたクライアント機器同士の、直接的なP2P接続は極めて困難である。
The first purpose of the solitary person monitoring system 101 according to the embodiment of the present invention is that when the mirror-type terminal 104 detects the face of the solitary person 102, the pulse is measured from the face image of the solitary person 102, and appropriate information is obtained. It is to transmit to the portable wireless terminal 108 owned by the separate family 105.
Incidentally, both the mirror type terminal 104 and the portable wireless terminal 108 correspond to clients on the Internet 106. In particular, client devices installed in the home 103 are often present inside a firewall, which is a function of a wireless LAN router or the like, from the viewpoint of the network. Direct P2P connection between client devices concealed by a firewall and assigned a private IP address is extremely difficult.

したがって、クライアント同士が通信を実現するためには、間にグローバルIPアドレス、そして望ましくは定められたFQDNを持つサーバ107の存在が必要である。
すなわち、サーバ107は、鏡型端末104と携帯型無線端末108との通信を仲介する役割を担う。そして、このクライアント機器同士の通信を迅速に実現するために、サーバ107は鏡型端末104と携帯型無線端末108とのそれぞれに対し、プッシュ型通信を実行する。双方のクライアント機器にプッシュ型通信を実行することで、二つのクライアント機器に対し、即時性の高い通信を実現する。
なお、我が国及び世界中のインターネット106にてIPv6が普及するか、あるいはオーバーレイネットワーク等、何らかの手段でクライアント機器同士のP2P通信が容易に実現できる状況になった場合には、この限りではない。
Therefore, in order for clients to communicate with each other, it is necessary to have a server 107 having a global IP address and preferably a defined FQDN.
That is, the server 107 plays a role of mediating communication between the mirror terminal 104 and the portable wireless terminal 108. Then, in order to quickly realize communication between the client devices, the server 107 executes push-type communication with respect to each of the mirror type terminal 104 and the portable wireless terminal 108. By executing push communication to both client devices, highly immediate communication is realized for the two client devices.
It should be noted that this is not the case when IPv6 spreads over the Internet 106 in Japan and around the world, or when P2P communication between client devices can be easily realized by some means such as an overlay network.

[感情の推定について]
図10は、表情推定部905が実施する、感情の分類を説明する概略図である。
ポール・エクマン(Paul Ekman)によれば、人間はどのような言語圏や文化圏に属していても、普遍的な感情を有しているとされる。またエクマンによる感情の分類は、「エクマンの基本6情動」とも呼ばれる。平常時の無表情(F1001)に対し、驚き(F1002)、恐怖(F1003)、嫌悪(F1004)、怒り(F1005)、喜び(F1006)、悲しみ(F1007)の6感情において、人間の表情は変化する。表情の変化は、顔特徴点の変化となって現れる。表情推定部905は、時間軸上における、顔特徴点の相対的な変動を検出し、これをエクマンの基本6情動にしたがって、独居者102の表情が、どの感情に属するのかを推定する。
[Emotion estimation]
FIG. 10 is a schematic diagram for explaining emotion classification performed by the facial expression estimation unit 905.
According to Paul Ekman, human beings have universal feelings no matter what language or culture they belong to. The classification of emotions by Ekman is also called “Ekman's basic six emotions”. Human expression changes in six emotions: surprise (F1002), fear (F1003), disgust (F1004), anger (F1005), joy (F1006), and sadness (F1007), compared to normal expressionless (F1001). To do. Changes in facial expressions appear as changes in facial feature points. The facial expression estimation unit 905 detects the relative variation of the facial feature points on the time axis, and estimates which emotion the facial expression of the solitary person 102 belongs to according to Ekman's six basic emotions.

画像認識に用いられる公知の学習アルゴリズムは、画像データをそのまま、あるいは所定の色成分のみを抽出した等の前処理を施した上で、演算処理を行う。多くの場合、画素数を大幅に減らす作業は含まれていない。
サーバ107の表情推定部905は、画像データではなく、顔の特徴点データを対象とする。この特徴点データは10〜30個程度の座標情報だけであり、ピクセル毎に輝度の情報が含まれる大量のデータである画像データと比べると、圧倒的にデータ量が少ない。しかし、特徴点データだけでも、図10に示した表情の変化を十分に推定できるだけの情報量を有する。つまり、人の表情の変化は、特徴点データだけでも十分に推定可能である。このため、既存の学習アルゴリズムを用いる画像認識処理にこの特徴点データを投入すると、従来と比べて大幅に演算量が少なくなり、迅速に推定結果を得ることができる。また、サーバ107の負荷も非常に軽い。
A known learning algorithm used for image recognition performs arithmetic processing after performing preprocessing such as extracting image data as it is or only a predetermined color component. In many cases, the work of greatly reducing the number of pixels is not included.
The facial expression estimation unit 905 of the server 107 targets facial feature point data, not image data. This feature point data is only about 10 to 30 pieces of coordinate information, and the amount of data is overwhelmingly small compared to image data which is a large amount of data including luminance information for each pixel. However, the feature point data alone has an information amount enough to sufficiently estimate the change in facial expression shown in FIG. That is, the change in the human facial expression can be sufficiently estimated only by the feature point data. For this reason, if this feature point data is input to image recognition processing using an existing learning algorithm, the amount of calculation is significantly reduced compared to the conventional case, and an estimation result can be obtained quickly. Also, the load on the server 107 is very light.

[携帯型無線端末108:ハードウェア構成]
図11は、携帯型無線端末108のハードウェア構成を示すブロック図である。
監視用端末であるところの携帯型無線端末108は、バス1110に接続された、CPU1101、ROM1102、RAM1103、表示部1104、静電型位置検出装置である操作部1105、不揮発性ストレージ1106、RTC1107、無線LANI/F1108、無線通信部1109を備える。表示部1104と操作部1105は周知のタッチパネルディスプレイを構成する。
不揮発性ストレージ1106には、サーバ107をインターネット106に接続するための、TCP/IPプロトコルスタックを含むネットワークOSと、携帯型無線端末108として稼働させるためのプログラムが格納されている。
なお、本発明の実施形態に係る独居者監視システム101では、別居家族105が使用する監視用端末を携帯型無線端末108としているが、監視用端末は携帯型無線端末108に限らない。一般的なパソコンでもよい。後述する図13では、携帯型無線端末108の表示画面を説明するが、携帯型無線端末108のタッチパネルディスプレイにおけるタップ操作は、パソコンではマウスによるクリック操作に相当する。
[Portable wireless terminal 108: hardware configuration]
FIG. 11 is a block diagram illustrating a hardware configuration of the portable wireless terminal 108.
A portable wireless terminal 108 serving as a monitoring terminal includes a CPU 1101, a ROM 1102, a RAM 1103, a display unit 1104, an operation unit 1105 that is an electrostatic position detection device, a nonvolatile storage 1106, an RTC 1107, connected to a bus 1110. A wireless LAN I / F 1108 and a wireless communication unit 1109 are provided. The display unit 1104 and the operation unit 1105 constitute a known touch panel display.
The nonvolatile storage 1106 stores a network OS including a TCP / IP protocol stack for connecting the server 107 to the Internet 106 and a program for operating as the portable wireless terminal 108.
In the single person monitoring system 101 according to the embodiment of the present invention, the monitoring terminal used by the separate family 105 is the portable wireless terminal 108, but the monitoring terminal is not limited to the portable wireless terminal 108. A general personal computer may be used. In FIG. 13 described later, a display screen of the portable wireless terminal 108 will be described. A tap operation on the touch panel display of the portable wireless terminal 108 corresponds to a click operation with a mouse in a personal computer.

[携帯型無線端末108:ソフトウェア機能]
図12は、携帯型無線端末108のソフトウェア機能を示すブロック図である。
鏡型端末104と同様に、携帯型無線端末108の入出力制御部1201もwebクライアントの機能を有する。入出力制御部1201は、webサーバであるサーバ107に対し、サーバアクセス情報1202に格納されている認証情報を用いて認証を行う。認証が正常に終了したら、入出力制御部1201はサーバ107と接続を確立して、プッシュ型通信を行う。プッシュ型通信を実行することで、鏡型端末104から送信された情報を迅速に受信することができる。
[Portable wireless terminal 108: Software function]
FIG. 12 is a block diagram illustrating software functions of the portable wireless terminal 108.
Similar to the mirror terminal 104, the input / output control unit 1201 of the portable wireless terminal 108 also has a web client function. The input / output control unit 1201 authenticates the server 107, which is a web server, using authentication information stored in the server access information 1202. When the authentication ends normally, the input / output control unit 1201 establishes a connection with the server 107 and performs push-type communication. By executing the push type communication, the information transmitted from the mirror type terminal 104 can be quickly received.

また、鏡型端末104と同様に、携帯型無線端末108の入出力制御部1201も、インターフェース選択部1203を通じて、無線LANI/F1108または無線通信部1109の何れかを用いて、インターネット106にアクセスし、サーバ107との通信を実現する。
鏡型端末104からサーバ107を通じて受信した、独居者102のエンゲージメント値、脈拍データ、表情推定結果、そして日時情報は、不揮発性ストレージ1106に設けられたログテーブル1204に記録される。
Similarly to the mirror type terminal 104, the input / output control unit 1201 of the portable wireless terminal 108 accesses the Internet 106 through the interface selection unit 1203 using either the wireless LAN I / F 1108 or the wireless communication unit 1109. , Communication with the server 107 is realized.
The engagement value, pulse data, facial expression estimation result, and date / time information of the single person 102 received from the mirror type terminal 104 through the server 107 are recorded in a log table 1204 provided in the nonvolatile storage 1106.

不揮発性ストレージ1106に記憶されているサーバアクセス情報1202には、
・情報送信元である別居家族105を一意に特定する監視者ID情報、
・通信セキュリティの確保に必要なパスワード等の、情報送信元における認証情報、
・サーバ107にアクセスするための、サーバ107のFQDN(Full Qualified Domain Name)あるいはIPアドレス、
・情報送信先である独居者102を一意に特定する監視対象ID情報
が含まれる。
入出力制御部1201は、サーバ107との接続を確立してプッシュ型通信を行うために、認証情報を使用する。
The server access information 1202 stored in the nonvolatile storage 1106 includes
Monitor ID information that uniquely identifies the separated family 105 that is the information transmission source,
・ Authentication information at the information source, such as passwords necessary for ensuring communication security,
An FQDN (Full Qualified Domain Name) or IP address of the server 107 for accessing the server 107
Monitoring target ID information that uniquely identifies the solitary person 102 who is the information transmission destination is included.
The input / output control unit 1201 uses authentication information in order to establish a connection with the server 107 and perform push communication.

アラーム送信処理部1205は、サーバ107を通じて鏡型端末104から受信した情報に異常があると認めた場合、または予め設定した日時に鏡型端末104から情報を受信できていないと判断した場合に、アラームを生成し、入出力制御部1201を通じて鏡型端末104へ送信する。このため、アラーム送信処理部1205は、RTC1107が出力する現在日時情報を監視する。   When the alarm transmission processing unit 1205 recognizes that the information received from the mirror type terminal 104 through the server 107 is abnormal, or when determining that the information cannot be received from the mirror type terminal 104 at a preset date and time, An alarm is generated and transmitted to the mirror type terminal 104 through the input / output control unit 1201. Therefore, the alarm transmission processing unit 1205 monitors the current date / time information output by the RTC 1107.

[携帯型無線端末108:表示例]
図13A、図13B及び図13Cは、携帯型無線端末108の表示部1104に表示される表示例である。
図13Aは、独居者102が鏡型端末104の前に来て、鏡型端末104を覗き込んだ時に、別居家族105の携帯型無線端末108のタッチパネルディスプレイに現れる表示例である。
画面の最上部に表示される表示欄は、独居者102の氏名表示欄P1301である。図13A、図13B及び図13C中、氏名表示欄P1301には「おばあちゃん」と表示されているが、実際には独居者102の氏名が表示される。
[Portable wireless terminal 108: display example]
13A, 13B, and 13C are display examples displayed on the display unit 1104 of the portable wireless terminal 108. FIG.
FIG. 13A is a display example that appears on the touch panel display of the portable wireless terminal 108 of the separate family 105 when the single person 102 comes in front of the mirror type terminal 104 and looks into the mirror type terminal 104.
The display field displayed at the top of the screen is the name display field P1301 of the solitary person 102. In FIG. 13A, FIG. 13B, and FIG. 13C, “Grandma” is displayed in the name display column P1301, but the name of the solitary person 102 is actually displayed.

左上の表示欄は、サーバ107を通じて鏡型端末104から受信した、独居者102の顔の特徴点データに基づく、独居者102の顔輪郭を表示する顔輪郭表示欄P1302である。画像データと比べて特徴点データは大幅にデータ量が少ないので、インターネット106の混雑状況に左右され難く、リアルタイムで表示が可能である。
右上の表示欄は、サーバ107から受信した、独居者102の顔の特徴点データを基に推定した、表情推定結果の簡易イラストと表情を表示する表情推定結果表示欄P1303である。
The display field at the upper left is a face outline display field P1302 for displaying the face outline of the solitary person 102 based on the feature point data of the face of the solitary person 102 received from the mirror type terminal 104 through the server 107. Since the feature point data has a significantly smaller data amount than the image data, the feature point data is hardly affected by the congestion state of the Internet 106 and can be displayed in real time.
The display column on the upper right is a facial expression estimation result display column P1303 that displays a simple illustration of facial expression estimation results and facial expressions estimated from the feature point data of the face of the solitary person 102 received from the server 107.

左下の表示欄は、サーバ107を通じて鏡型端末104から受信した、独居者102の脈拍データと脈拍波形を表示する脈拍表示欄P1304である。
右下の表示欄は、サーバ107を通じて鏡型端末104から受信した、独居者102のエンゲージメント値とエンゲージメント値の折れ線グラフを表示するエンゲージメント値表示欄P1305である。
独居者102が正常な状態であれば、図13Aに示すような表示画面が確認できる。これらのデータ量は画像データと比べて極めて少ない。したがって、鏡型端末104及び携帯型無線端末108に要する通信のコストは安価に済む。
The lower left display column is a pulse display column P1304 that displays the pulse data and pulse waveform of the solitary person 102 received from the mirror terminal 104 through the server 107.
The display field in the lower right is an engagement value display field P1305 that displays the engagement value of the solitary person 102 and the line graph of the engagement value received from the mirror terminal 104 through the server 107.
If the single person 102 is in a normal state, a display screen as shown in FIG. 13A can be confirmed. These data amounts are extremely small compared to image data. Therefore, the communication cost required for the mirror type terminal 104 and the portable wireless terminal 108 can be reduced.

図13Bは、独居者102が別居家族105から予め約束していた時間または期間(例えば2日間)に鏡型端末104の前に来なかった場合に、別居家族105の携帯型無線端末108のタッチパネルディスプレイに現れるアラーム画面の表示例である。図13Cは、独居者102の安否が確認できた場合に、別居家族105の携帯型無線端末108のタッチパネルディスプレイに現れる安否確認画面の表示例である。これら図13Bと図13Cについては、図14に示すタイムチャートを伴って、内容を説明する。   FIG. 13B shows the touch panel of the portable wireless terminal 108 of the separated family 105 when the single person 102 does not come in front of the mirror type terminal 104 during the time or period (for example, two days) promised in advance from the separated family 105. It is an example of a display of the alarm screen which appears on a display. FIG. 13C is a display example of a safety confirmation screen that appears on the touch panel display of the portable wireless terminal 108 of the separated family 105 when the safety of the single person 102 can be confirmed. 13B and 13C will be described with reference to the time chart shown in FIG.

図14は、携帯型無線端末108において独居者102の安否が確認できなくなったことを検出した状況から始まる、鏡型端末104と携帯型無線端末108との間で行われる通信の手順と内容を示す、タイムチャートである。
別居家族105の携帯型無線端末108は、予め設定した時間(例えば朝の5時から8時まで)または期間(例えば2日間)を独居者102の監視時間帯として設定している。この監視時間帯の間に、独居者102が鏡型端末104の前に来て、鏡型端末104を覗き込んだ時に、図13Aに示すような内容が携帯型無線端末108のタッチパネルディスプレイに表示される。
FIG. 14 shows the procedure and contents of communication performed between the mirror terminal 104 and the portable wireless terminal 108, starting from the situation where it is detected that the safety of the single person 102 cannot be confirmed in the portable wireless terminal 108. It is a time chart shown.
The portable wireless terminal 108 of the separate family 105 sets a preset time (for example, from 5:00 to 8:00 in the morning) or a period (for example, two days) as the monitoring time zone for the single person 102. During this monitoring period, when the single person 102 comes in front of the mirror terminal 104 and looks into the mirror terminal 104, the contents shown in FIG. 13A are displayed on the touch panel display of the portable wireless terminal 108. Is done.

ある日、携帯型無線端末108が監視時間帯の開始時間に監視を開始して、鏡型端末104から所定のデータの受信を待機する(S1401)。監視時間帯の終了時点になっても(S1402)所定のデータを受信できなかった場合、携帯型無線端末108の入出力制御部1201は、図13Bに示すアラーム画面を表示し(S1403)、携帯型無線端末108のユーザである別居家族105の操作を待つ。そして、別居家族105がCallボタンをタップ操作すると(S1404)、携帯型無線端末108の入出力制御部1201は鏡型端末104に向けてアラームを送信する(S1405)。   One day, the portable wireless terminal 108 starts monitoring at the start time of the monitoring time zone, and waits for reception of predetermined data from the mirror terminal 104 (S1401). If the predetermined data cannot be received even when the monitoring time period ends (S1402), the input / output control unit 1201 of the portable wireless terminal 108 displays the alarm screen shown in FIG. 13B (S1403). It waits for the operation of the separate family 105 who is the user of the type wireless terminal 108. When the separated family 105 taps the Call button (S1404), the input / output control unit 1201 of the portable wireless terminal 108 transmits an alarm to the mirror terminal 104 (S1405).

ここで、図13Bに示すアラーム画面の表示内容を説明する。
図13B中、タッチパネルディスプレイに表示されている警告メッセージ欄P1306には、独居者102がどの程度の期間、鏡型端末104を見ていないのかを示す文章と、CALLボタンB1307とLIVEボタンB1308が表示されている。
CALLボタンB1307をタップすると、携帯型無線端末108は鏡型端末104に向けて、警告メッセージを送信する。鏡型端末104の入出力制御部507は、サーバ107を通じて携帯型無線端末108から警告メッセージを受信すると、押釦スイッチ203に組み込まれたLED410を点滅発光させると共に、アラーム音をスピーカ411から発する。
LIVEボタンB1308をタップすると、携帯型無線端末108は鏡型端末104に向けて、LIVE動作命令を送信する。鏡型端末104の入出力制御部507は、サーバ107を通じて携帯型無線端末108からLIVE動作命令を受信すると、撮像装置412を起動し、撮影した画像データストリームから解像度を落とした動画像データを生成し、サーバ107を通じて携帯型無線端末108へ送信する。すると、図13Bの下側にLIVE動画表示領域P1309が形成され、LIVE動画、すなわち現在の独居者102の居宅103内の様子が表示される。
Here, the display content of the alarm screen shown in FIG. 13B will be described.
In FIG. 13B, a warning message column P1306 displayed on the touch panel display displays text indicating how long the single person 102 has not looked at the mirror-type terminal 104, a CALL button B1307, and a LIVE button B1308. Has been.
When the CALL button B 1307 is tapped, the portable wireless terminal 108 transmits a warning message toward the mirror terminal 104. When the input / output control unit 507 of the mirror-type terminal 104 receives a warning message from the portable wireless terminal 108 through the server 107, the LED 410 incorporated in the pushbutton switch 203 flashes and emits an alarm sound from the speaker 411.
When the LIVE button B 1308 is tapped, the portable wireless terminal 108 transmits a LIVE operation command to the mirror terminal 104. When the input / output control unit 507 of the mirror type terminal 104 receives the LIVE operation command from the portable wireless terminal 108 through the server 107, the input / output control unit 507 activates the imaging device 412 and generates moving image data with reduced resolution from the captured image data stream. And transmitted to the portable wireless terminal 108 through the server 107. Then, a LIVE moving image display area P1309 is formed on the lower side of FIG. 13B, and the LIVE moving image, that is, the state of the current living alone 103 in the home 103 is displayed.

図14に戻って、タイムチャートの説明を続ける。
鏡型端末104の入出力制御部507は、サーバ107を通じて携帯型無線端末108から送信されたアラーム情報を受信する(S1406)と、LED410を点滅制御し、スピーカ411を鳴動させる(S1407)。そして、ユーザである独居者102の操作を待つ。そして、独居者102が押釦スイッチ203を操作すると(S1408)、鏡型端末104の入出力制御部507はスピーカ411の鳴動を停止する(S1409)。そして、携帯型無線端末108に向けてリプライを送信する(S1410)。
Returning to FIG. 14, the description of the time chart will be continued.
When the input / output control unit 507 of the mirror type terminal 104 receives the alarm information transmitted from the portable wireless terminal 108 through the server 107 (S1406), the input / output control unit 507 controls blinking of the LED 410 and rings the speaker 411 (S1407). And it waits for the operation of the single person 102 who is a user. When the solitary person 102 operates the push button switch 203 (S1408), the input / output control unit 507 of the mirror-type terminal 104 stops ringing of the speaker 411 (S1409). Then, a reply is transmitted to the portable wireless terminal 108 (S1410).

携帯型無線端末108の入出力制御部1201は、サーバ107を通じて鏡型端末104から送信されたリプライ情報を受信する(S1411)と、図13Cに示す安否確認画面を表示し(S1412)、別居家族105の操作を待つ。そして、別居家族105が了解ボタンをタップ操作すると(S1413)、携帯型無線端末108の入出力制御部1201は鏡型端末104に向けて確認終了メッセージを送信する(S1414)。
鏡型端末104の入出力制御部507は、サーバ107を通じて携帯型無線端末108から送信された確認終了メッセージを受信する(S1415)と、LED410の点滅を停止させる(S1416)。
When the input / output control unit 1201 of the portable wireless terminal 108 receives the reply information transmitted from the mirror-type terminal 104 through the server 107 (S1411), the safety confirmation screen shown in FIG. 13C is displayed (S1412), and the separated family Wait for operation 105. When the separate family 105 taps the OK button (S1413), the input / output control unit 1201 of the portable wireless terminal 108 transmits a confirmation end message to the mirror terminal 104 (S1414).
When the input / output control unit 507 of the mirror type terminal 104 receives the confirmation end message transmitted from the portable wireless terminal 108 through the server 107 (S1415), the input / output control unit 507 stops the blinking of the LED 410 (S1416).

ここで、図13Cに示す安否確認画面の表示内容を説明する。
図13C中、タッチパネルディスプレイに表示されているメッセージ欄P1310には、独居者102の安否が確認できた旨の文章と、了解ボタンB1311が表示される。
了解ボタンB1311をタップすると、携帯型無線端末108は鏡型端末104に向けて、確認終了メッセージを送信する。鏡型端末104の入出力制御部507は、サーバ107を通じて携帯型無線端末108から確認終了メッセージを受信すると、点滅発光させている、押釦スイッチ203に組み込まれたLED410の点滅発光を停止させる。
Here, the display content of the safety confirmation screen shown in FIG. 13C will be described.
In FIG. 13C, in the message column P1310 displayed on the touch panel display, a text indicating that the safety of the single person 102 has been confirmed and an OK button B1311 are displayed.
When the OK button B1311 is tapped, the portable wireless terminal 108 transmits a confirmation end message to the mirror terminal 104. When the input / output control unit 507 of the mirror-type terminal 104 receives the confirmation end message from the portable wireless terminal 108 through the server 107, the input / output control unit 507 stops the flashing light emission of the LED 410 incorporated in the push button switch 203.

以上に説明した実施形態は、以下に記す応用が可能である。
(1)本発明の実施形態に係る独居者監視システム101の名称は「独居者102を監視する」という意味に取れるが、本システムの監視対象は必ずしも独居者102のみに限らない。監視対象は老夫婦であっても、あるいは被介護者の小規模な団体であってもよい。
(2)図14のタイムチャートでは監視時間帯における独居者102の監視を携帯型無線端末108が実行していたが、監視時間帯における独居者102の監視をサーバ107が実行してもよい。
The embodiment described above can be applied as follows.
(1) Although the name of the solitary person monitoring system 101 according to the embodiment of the present invention can be regarded as “monitoring the solitary person 102”, the monitoring target of this system is not necessarily limited to the solitary person 102 alone. The monitoring target may be an elderly couple or a small group of care recipients.
(2) In the time chart of FIG. 14, the portable wireless terminal 108 performs monitoring of the single person 102 during the monitoring time period, but the server 107 may execute monitoring of the single person 102 during the monitoring time period.

(3)鏡型端末104は、独居者102の顔画像から特徴点データとエンゲージメント値と脈拍データを取得したが、独居者102を監視する、という基本的な目的を満たすのであれば、最低限、顔検出処理部の顔検出結果だけを送信する形態であってもよい。あるいは、特徴点抽出部が出力するだけを送信する形態であってもよい。顔検出結果または特徴点データだけの構成であっても、図13B、図13C及び図14にて説明した安否確認処理は実行できる。
(4)また、鏡型端末104は、独居者102の顔画像から特徴点データとエンゲージメント値と脈拍データを取得したが、独居者102の健康状態を監視する、という目的を満たすのであれば、エンゲージメント値を省略してもよい。
(3) The mirror-type terminal 104 has acquired the feature point data, the engagement value, and the pulse data from the face image of the solitary person 102. Alternatively, only the face detection result of the face detection processing unit may be transmitted. Or the form which only transmits a feature point extraction part may be sufficient. The safety confirmation process described with reference to FIGS. 13B, 13C, and 14 can be executed even with the configuration of only the face detection result or the feature point data.
(4) Further, the mirror-type terminal 104 has acquired the feature point data, the engagement value, and the pulse data from the face image of the solitary person 102, but if the objective of monitoring the health condition of the solitary person 102 is satisfied, The engagement value may be omitted.

(5)更に、鏡型端末104は、血圧計や活動量計等、他の生体情報測定装置からBlueTooth(登録商標)等の近距離無線通信を利用して独居者102の生体情報を収集して、特徴点データとエンゲージメント値と脈拍データと併せてサーバ107へ送信してもよい。
(6)鏡型端末104にマイクを接続し、IP電話機能を備えて、安否確認の際に独居者102が別居家族105と通話できるように構成してもよい。
(7)上述の実施形態では、表情推定部905をサーバ107に設けていた。画像マッチング処理の応用でもある表情推定処理は、計算機の演算処理としてはかなり重い部類である。しかし、鏡型端末104の情報処理部304の演算能力が十分高速であり、また表情推定処理に必要な計算機リソースが低減できれば、鏡型端末104に表情推定部905を設けてもよい。
(5) Furthermore, the mirror-type terminal 104 collects biological information of the lonely person 102 from other biological information measuring devices such as a blood pressure monitor and an activity meter using short distance wireless communication such as BlueTooth (registered trademark). The feature point data, the engagement value, and the pulse data may be transmitted to the server 107 together.
(6) A microphone may be connected to the mirror-type terminal 104 and provided with an IP telephone function so that the solitary person 102 can make a call with the separated family 105 at the time of safety confirmation.
(7) In the above-described embodiment, the facial expression estimation unit 905 is provided in the server 107. Facial expression estimation processing, which is also an application of image matching processing, is a fairly heavy category for computer processing. However, if the computing capability of the information processing unit 304 of the mirror-type terminal 104 is sufficiently high and the computer resources necessary for the facial expression estimation process can be reduced, the facial expression estimation unit 905 may be provided in the mirror-type terminal 104.

(8)また、学習アルゴリズムを用いる表情推定処理は、主に特徴量の演算処理に計算機のリソースが必要となる。そこで、サーバ側で特徴量を作成し、サーバが作成した特徴量を鏡型端末がサーバからダウンロードして、鏡型端末は表情推定処理のみを行う、とすることで、鏡型端末で実用的な速度及び精度の表情推定処理が実現できる。
図15は、変形例としてのサーバ1501のソフトウェア機能を示すブロック図である。
図15に示すサーバ1501の、図9に示したサーバ107との相違点は、表情推定部905の代わりに表情学習部1502と特徴量1503が設けられている点である。
入出力制御部901は、鏡型端末1601(図16参照)から受信したデータに含まれている特徴点データを、表情学習部1502に引き渡す。表情学習部1502は、公知の畳み込みニューラルネットワーク等に代表される、画像認識に好適な学習アルゴリズム(ディープラーニング)を用いて、特徴点データから独居者102の表情を推定ための特徴量1503を作成し、更新する。
特徴量1503は、更新される度に鏡型端末1601がサーバ1501からダウンロードされる。
(8) In addition, facial expression estimation processing using a learning algorithm requires computer resources mainly for feature amount calculation processing. Therefore, a feature value is created on the server side, and the mirror type terminal downloads the feature value created by the server from the server, and the mirror type terminal performs only the facial expression estimation process. Can realize facial expression estimation processing with high speed and accuracy.
FIG. 15 is a block diagram illustrating software functions of the server 1501 as a modification.
The server 1501 shown in FIG. 15 is different from the server 107 shown in FIG. 9 in that a facial expression learning unit 1502 and a feature quantity 1503 are provided instead of the facial expression estimation unit 905.
The input / output control unit 901 delivers the feature point data included in the data received from the mirror-type terminal 1601 (see FIG. 16) to the facial expression learning unit 1502. The facial expression learning unit 1502 creates a feature quantity 1503 for estimating the expression of the solitary person 102 from the feature point data by using a learning algorithm (deep learning) suitable for image recognition represented by a known convolutional neural network or the like. And update.
Each time the feature amount 1503 is updated, the mirror terminal 1601 is downloaded from the server 1501.

図16は、変形例としての鏡型端末1601のソフトウェア機能を示すブロック図である。
図16に示す鏡型端末1601の、図5に示した鏡型端末104との相違点は、特徴量1503と表情推定部1602が設けられている点である。
表情推定部1602は、特徴点抽出部502が出力する特徴点データを読み込み、サーバ1501からダウンロードした特徴量1503を参照して、独居者102の表情を推定する。入出力制御部507は、特徴点データ、エンゲージメント値、脈拍データ、表情推定結果、現在日時情報、監視対象ID情報、監視者ID情報をメッセージとして形成した後、サーバ1501のFQDNを用いてサーバ1501にアクセスする。そして、認証情報を用いてサーバ1501から認証を得てから、メッセージから生成した送信パケットをサーバ1501へ送信する。
FIG. 16 is a block diagram illustrating software functions of a mirror-type terminal 1601 as a modified example.
The mirror type terminal 1601 shown in FIG. 16 is different from the mirror type terminal 104 shown in FIG. 5 in that a feature amount 1503 and a facial expression estimation unit 1602 are provided.
The facial expression estimation unit 1602 reads the feature point data output from the feature point extraction unit 502, refers to the feature amount 1503 downloaded from the server 1501, and estimates the facial expression of the solitary person 102. The input / output control unit 507 forms the feature point data, the engagement value, the pulse data, the facial expression estimation result, the current date / time information, the monitoring target ID information, and the supervisor ID information as a message, and then uses the FQDN of the server 1501 to generate the server 1501. To access. Then, after obtaining authentication from the server 1501 using the authentication information, the transmission packet generated from the message is transmitted to the server 1501.

本実施形態においては、独居者監視システム101を開示した。
鏡型端末104は、独居者102の顔を撮像装置412で撮影すると、特徴点データとエンゲージメント値と脈拍データを取得する。そして、サーバ107を通じて別居家族105の携帯型無線端末108に向けて、これらのデータを送信する。サーバ107は鏡型端末104から特徴点データとエンゲージメント値と脈拍データを受信すると、特徴点データから独居者102の表情を推定し、表情推定結果を特徴点データとエンゲージメント値と脈拍データと共に携帯型無線端末108に送信する。この作業を一日一回、予め設定した監視時間帯か、あるいは時間指定なくいつでも独居者102に実行させる。監視時間帯に独居者102の顔撮影動作がなかった場合、携帯型無線端末108またはサーバ107は異常状態であると認識し、鏡型端末104へアラームを送信する。独居者102が健常状態であれば、アラームを受信した鏡型端末104のLED点滅とアラーム音鳴動によって、独居者102は鏡型端末104を覗き込む。こうすることで、独居者102の安否を確認することができる。
In this embodiment, the single person monitoring system 101 was disclosed.
The mirror-type terminal 104 acquires feature point data, an engagement value, and pulse data when the imaging device 412 captures the face of the solitary person 102. Then, these data are transmitted to the portable wireless terminal 108 of the separated family 105 through the server 107. When the server 107 receives the feature point data, the engagement value, and the pulse data from the mirror type terminal 104, the server 107 estimates the expression of the solitary person 102 from the feature point data, and the facial expression estimation result together with the feature point data, the engagement value, and the pulse data. Transmit to the wireless terminal 108. This operation is performed once a day by a single person 102 at any time during a preset monitoring time period or without specifying a time. When there is no face photographing operation of the solitary person 102 during the monitoring time period, the portable wireless terminal 108 or the server 107 recognizes that it is in an abnormal state, and transmits an alarm to the mirror terminal 104. If the solitary person 102 is in a normal state, the solitary person 102 looks into the mirror-type terminal 104 by the blinking LED and the alarm sound of the mirror-type terminal 104 that has received the alarm. By doing so, the safety of the solitary person 102 can be confirmed.

本実施形態における鏡型端末104の演算処理は従来と比べて極めて軽い。更に、独居者監視システム101が送信するデータは、極めてデータ容量が少ない特徴点データとエンゲージメント値と脈拍データである。したがって、独居者監視システム101がインターネット106に流すデータ量は極めて少ない。
画像データそのものを送信するような従来技術とは異なり、画像データを常時送信せず、代わりにデータ量が極めて少ない特徴点データを送信するため、インターネット106上における独居者102のプライバシーを高度に秘匿することができる。仮にタッピング(Tapping:ネットワーク上における盗聴行為)されても、特徴点データだけでは独居者102を特定することが不可能である。
更に、鏡型端末104及び携帯型無線端末108において送受信するデータ量が少ない、ということは、通信に要するコストが安価に済む。
The arithmetic processing of the mirror type terminal 104 in this embodiment is extremely light compared to the conventional one. Further, the data transmitted by the solitary person monitoring system 101 is feature point data, engagement value, and pulse data with extremely small data capacity. Therefore, the amount of data that the solitary person monitoring system 101 sends to the Internet 106 is extremely small.
Unlike conventional technology that transmits image data itself, image data is not always transmitted, but instead feature point data with a very small amount of data is transmitted, so that the privacy of a single person 102 on the Internet 106 is highly concealed. can do. Even if tapping (tapping: eavesdropping on the network) is performed, it is impossible to specify the solitary person 102 only by the feature point data.
Furthermore, the fact that the amount of data transmitted and received in the mirror type terminal 104 and the portable wireless terminal 108 is small means that the cost required for communication is low.

以上、本発明の実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、特許請求の範囲に記載した本発明の要旨を逸脱しない限りにおいて、他の変形例、応用例を含む。
例えば、上記した実施形態は本発明をわかりやすく説明するために装置及びシステムの構成を詳細かつ具体的に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることは可能であり、更にはある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることも可能である。
The embodiments of the present invention have been described above. However, the present invention is not limited to the above-described embodiments, and other modifications and application examples are provided without departing from the gist of the present invention described in the claims. including.
For example, the above-described embodiment is a detailed and specific description of the configuration of the apparatus and the system in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to one having all the configurations described. Further, a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment. Moreover, it is also possible to add, delete, and replace other configurations for a part of the configuration of each embodiment.

また、上記の各構成、機能、処理部等は、それらの一部又は全部を、例えば集積回路で設計するなどによりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行するためのソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の揮発性あるいは不揮発性のストレージ、または、ICカード、光ディスク等の記録媒体に保持することができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしもすべての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
Each of the above-described configurations, functions, processing units, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit. Further, each of the above-described configurations, functions, and the like may be realized by software for interpreting and executing a program that realizes each function by the processor. Information such as programs, tables, and files that realize each function must be held in a volatile or non-volatile storage such as a memory, hard disk, or SSD (Solid State Drive), or a recording medium such as an IC card or an optical disk. Can do.
In addition, the control lines and information lines are those that are considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other.

101…独居者監視システム、102…独居者、103…居宅、104…鏡型端末、105…別居家族、106…インターネット、107…サーバ、108…携帯型無線端末、201…鏡面部、202…支持体、203…押釦スイッチ、301…天板、302…ハーフミラーフィルム、303…フレーム、304…情報処理部、401…CPU、402…ROM、403…RAM、404…不揮発性ストレージ、405…RTC、406…無線LANインターフェース、407…無線通信部、408…バス、409…シリアルインターフェース、410…LED、411…スピーカ、412…撮像装置、501…顔検出処理部、502…特徴点抽出部、503…ベクトル解析部、504…エンゲージメント算出部、505…脈拍検出領域抽出部、506…脈拍算出部、507…入出力制御部、508…サーバアクセス情報、509…インターフェース選択部、601…被撮影者、801…CPU、802…ROM、803…RAM、804…不揮発性ストレージ、805…RTC、806…NIC、807…バス、901…入出力制御部、902…認証処理部、903…ユーザマスタ、904…ログテーブル、905…表情推定部、1101…CPU、1102…ROM、1103…RAM、1104…表示部、1105…操作部、1106…不揮発性ストレージ、1107…RTC、1109…無線通信部、1110…バス、1201…入出力制御部、1202…サーバアクセス情報、1203…インターフェース選択部、1204…ログテーブル、1205…アラーム送信処理部
DESCRIPTION OF SYMBOLS 101 ... Single person monitoring system, 102 ... Single person, 103 ... Home, 104 ... Mirror type terminal, 105 ... Separate family, 106 ... Internet, 107 ... Server, 108 ... Portable wireless terminal, 201 ... Mirror surface part, 202 ... Support Body, 203 ... push button switch, 301 ... top plate, 302 ... half mirror film, 303 ... frame, 304 ... information processing unit, 401 ... CPU, 402 ... ROM, 403 ... RAM, 404 ... non-volatile storage, 405 ... RTC, 406 ... Wireless LAN interface, 407 ... Wireless communication unit, 408 ... Bus, 409 ... Serial interface, 410 ... LED, 411 ... Speaker, 412 ... Imaging device, 501 ... Face detection processing unit, 502 ... Feature point extraction unit, 503 ... Vector analysis unit, 504 ... Engagement calculation unit, 505 ... Pulse detection area extraction 506 ... Pulse calculation unit, 507 ... Input / output control unit, 508 ... Server access information, 509 ... Interface selection unit, 601 ... Subject, 801 ... CPU, 802 ... ROM, 803 ... RAM, 804 ... Non-volatile storage, 805 ... RTC, 806 ... NIC, 807 ... bus, 901 ... input / output control unit, 902 ... authentication processing unit, 903 ... user master, 904 ... log table, 905 ... expression estimation unit, 1101 ... CPU, 1102 ... ROM, 1103 ... RAM, 1104 ... display unit, 1105 ... operation unit, 1106 ... nonvolatile storage, 1107 ... RTC, 1109 ... wireless communication unit, 1110 ... bus, 1201 ... input / output control unit, 1202 ... server access information, 1203 ... interface selection , 1204 ... log table, 1205 ... alarm transmission processing

Claims (8)

監視対象者の顔を撮影して所定のデータを出力する鏡型端末と、
前記鏡型端末から前記所定のデータを受信するサーバと、
前記サーバから転送された、前記鏡型端末が出力したデータを受信する監視用端末と
よりなる独居者監視システムであり、
前記鏡型端末は、
監視対象者の顔を映すことが可能な鏡と、
前記鏡に組み込まれ、前記監視対象者の顔を撮影して画像データを出力する撮像装置と、
前記画像データに含まれる前記監視対象者の顔を検出する顔検出処理部と、
前記顔検出処理部が出力する、前記監視対象者の顔を抽出した顔抽出画像データから顔の特徴点よりなる特徴点データを生成する特徴点抽出部と、
ネットワークに接続され、前記特徴点データを前記サーバを経由して監視用端末へ送信する入出力制御部と
を具備し、
前記サーバは、
前記ネットワークを通じて前記鏡型端末及び前記監視用端末と接続され、前記鏡型端末から送信される前記特徴点データを前記監視用端末へ転送する入出力制御部と
を具備し、
前記監視用端末は、
前記サーバから転送された前記特徴点データを受信する入出力制御部と、
前記特徴点データを表示する表示部と
を具備する、独居者監視システム。
A mirror-type terminal that captures the face of the person being monitored and outputs predetermined data;
A server that receives the predetermined data from the mirror terminal;
A single person monitoring system comprising a monitoring terminal that receives data output from the mirror type terminal and transferred from the server;
The mirror type terminal is
A mirror that can reflect the face of the person being monitored,
An imaging device that is incorporated in the mirror and captures the face of the person to be monitored and outputs image data;
A face detection processing unit for detecting the face of the monitoring subject included in the image data;
A feature point extracting unit that generates feature point data including face feature points from the face extraction image data obtained by extracting the face of the monitoring target, output by the face detection processing unit;
An input / output control unit connected to a network and transmitting the feature point data to the monitoring terminal via the server;
The server
An input / output control unit that is connected to the mirror terminal and the monitoring terminal through the network and transfers the feature point data transmitted from the mirror terminal to the monitoring terminal;
The monitoring terminal is:
An input / output control unit for receiving the feature point data transferred from the server;
A single person monitoring system comprising a display unit for displaying the feature point data.
前記鏡型端末は更に、
前記特徴点データに基づいて、前記顔抽出画像データに含まれる、前記監視対象者の顔の一部に相当する画像データの切り出しを実行して、得られた部分画像データを出力する脈拍検出領域抽出部と、
前記部分画像データの、特定の色成分の輝度の時間軸上の変動量から前記監視対象者の脈拍を算出する脈拍算出部と
を具備し、
前記鏡型端末の前記入出力制御部は、前記特徴点データに加え、前記脈拍算出部が出力する脈拍データを前記サーバを経由して前記監視用端末へ送信するものであり、
前記監視用端末の入出力制御部は、前記サーバから転送された前記特徴点データに加え、前記脈拍データを受信するものであり、
前記監視用端末の表示部は、前記特徴点データに加え、前記脈拍データを表示するものである、
請求項1に記載の独居者監視システム。
The mirror type terminal further includes
Based on the feature point data, a pulse detection region that performs extraction of image data corresponding to a part of the face of the monitoring subject included in the face extraction image data and outputs the obtained partial image data An extractor;
A pulse calculation unit that calculates the pulse of the monitoring subject from the amount of variation on the time axis of the luminance of the specific color component of the partial image data;
The input / output control unit of the mirror type terminal transmits the pulse data output from the pulse calculation unit to the monitoring terminal via the server, in addition to the feature point data.
The input / output control unit of the monitoring terminal receives the pulse data in addition to the feature point data transferred from the server,
The display unit of the monitoring terminal displays the pulse data in addition to the feature point data.
The single person monitoring system according to claim 1.
前記サーバは更に、
前記鏡型端末から送信される前記特徴点データに基づき、前記監視対象者の表情を推定する表情推定部と
を具備し、
前記監視用端末の入出力制御部は、前記サーバから転送された前記特徴点データと前記脈拍データに加え、前記表情推定部が出力した表情推定結果を受信するものであり、
前記監視用端末の表示部は、前記特徴点データと前記脈拍データに加え、前記表情推定結果を表示するものである、
請求項2に記載の独居者監視システム。
The server further includes:
A facial expression estimation unit that estimates the facial expression of the person to be monitored based on the feature point data transmitted from the mirror-type terminal;
The input / output control unit of the monitoring terminal receives the facial expression estimation result output by the facial expression estimation unit in addition to the feature point data and the pulse data transferred from the server,
The display unit of the monitoring terminal displays the facial expression estimation result in addition to the feature point data and the pulse data.
The single person monitoring system according to claim 2.
前記鏡型端末は更に、
前記特徴点データから、前記監視対象者の顔の向きを示す顔方向ベクトルと、前記監視対象者の顔における視線の向きを示す視線方向ベクトルを生成する、ベクトル解析部と、
前記顔方向ベクトルと前記視線方向ベクトルを加算して、前記監視対象者が3次元空間内の何処を注視しているのかを示す注視方向ベクトルを算出し、前記注視方向ベクトルが所定の事象に向いているのか否かを判定し、判定結果の移動平均を算出してエンゲージメント値を出力する、エンゲージメント算出部と
を具備し、
前記鏡型端末の前記入出力制御部は、前記特徴点データ及び前記脈拍データに加え、前記エンゲージメント算出部が出力する前記エンゲージメント値を前記サーバを経由して前記監視用端末へ送信するものであり、
前記監視用端末の入出力制御部は、前記サーバから転送された前記特徴点データと前記脈拍データに加え、前記エンゲージメント値を受信するものであり、
前記監視用端末の表示部は、前記特徴点データと前記脈拍データに加え、前記エンゲージメント値を表示するものである、
請求項2に記載の独居者監視システム。
The mirror type terminal further includes
A vector analysis unit for generating a face direction vector indicating a direction of the face of the monitoring target person and a line-of-sight direction vector indicating the direction of the line of sight of the face of the monitoring target person from the feature point data;
The face direction vector and the line-of-sight direction vector are added to calculate a gaze direction vector indicating where in the three-dimensional space the target person is gazing, and the gaze direction vector is suitable for a predetermined event. An engagement calculating unit that calculates a moving average of the determination results and outputs an engagement value.
The input / output control unit of the mirror type terminal transmits the engagement value output from the engagement calculation unit to the monitoring terminal via the server in addition to the feature point data and the pulse data. ,
The input / output controller of the monitoring terminal receives the engagement value in addition to the feature point data and the pulse data transferred from the server,
In addition to the feature point data and the pulse data, the display unit of the monitoring terminal displays the engagement value.
The single person monitoring system according to claim 2.
監視対象者の顔を映すことが可能な鏡と、
前記鏡に組み込まれ、前記監視対象者の顔を撮影して画像データを出力する撮像装置と、
前記画像データに含まれる前記監視対象者の顔を検出する顔検出処理部と、
前記顔検出処理部が出力する、前記監視対象者の顔を抽出した顔抽出画像データから顔の特徴点よりなる特徴点データを生成する特徴点抽出部と、
ネットワークに接続され、前記特徴点データを所定の監視用端末へ送信する入出力制御部と
を具備する鏡型端末。
A mirror that can reflect the face of the person being monitored,
An imaging device that is incorporated in the mirror and captures the face of the person to be monitored and outputs image data;
A face detection processing unit for detecting the face of the monitoring subject included in the image data;
A feature point extracting unit that generates feature point data including face feature points from the face extraction image data obtained by extracting the face of the monitoring target, output by the face detection processing unit;
A mirror-type terminal that is connected to a network and includes an input / output control unit that transmits the feature point data to a predetermined monitoring terminal.
更に、
前記特徴点データに基づいて、前記顔抽出画像データに含まれる、前記監視対象者の顔の一部に相当する画像データの切り出しを実行して、得られた部分画像データを出力する脈拍検出領域抽出部と、
前記部分画像データの、特定の色成分の輝度の時間軸上の変動量から前記監視対象者の脈拍を算出する脈拍算出部と
を具備し、
前記入出力制御部は、前記特徴点データに加え、前記脈拍算出部が出力する脈拍データを前記監視用端末へ送信するものである、
請求項5に記載の鏡型端末。
Furthermore,
Based on the feature point data, a pulse detection region that performs extraction of image data corresponding to a part of the face of the monitoring subject included in the face extraction image data and outputs the obtained partial image data An extractor;
A pulse calculation unit that calculates the pulse of the monitoring subject from the amount of variation on the time axis of the luminance of the specific color component of the partial image data;
The input / output control unit transmits pulse data output from the pulse calculation unit to the monitoring terminal in addition to the feature point data.
The mirror type terminal according to claim 5.
更に、
前記特徴点データに基づき、前記監視対象者の表情を推定する表情推定部と
を具備し、
前記入出力制御部は、前記特徴点データ及び前記脈拍データに加え、前記表情推定部が出力する表情推定結果を前記監視用端末へ送信するものである、
請求項6に記載の鏡型端末。
Furthermore,
A facial expression estimation unit that estimates the facial expression of the monitoring subject based on the feature point data;
The input / output control unit transmits the facial expression estimation result output from the facial expression estimation unit to the monitoring terminal in addition to the feature point data and the pulse data.
The mirror type terminal according to claim 6.
更に、
前記特徴点データから、前記監視対象者の顔の向きを示す顔方向ベクトルと、前記監視対象者の顔における視線の向きを示す視線方向ベクトルを生成する、ベクトル解析部と、
前記顔方向ベクトルと前記視線方向ベクトルを加算して、前記監視対象者が3次元空間内の何処を注視しているのかを示す注視方向ベクトルを算出し、前記注視方向ベクトルが所定の事象に向いているのか否かを判定し、判定結果の移動平均を算出してエンゲージメント値を出力する、エンゲージメント算出部と
を具備し、
前記入出力制御部は、前記特徴点データ及び前記脈拍データに加え、前記エンゲージメント算出部が出力する前記エンゲージメント値を前記監視用端末へ送信するものである、
請求項6に記載の鏡型端末。

Furthermore,
A vector analysis unit for generating a face direction vector indicating a direction of the face of the monitoring target person and a line-of-sight direction vector indicating the direction of the line of sight of the face of the monitoring target person from the feature point data;
The face direction vector and the line-of-sight direction vector are added to calculate a gaze direction vector indicating where in the three-dimensional space the target person is gazing, and the gaze direction vector is suitable for a predetermined event. An engagement calculating unit that calculates a moving average of the determination results and outputs an engagement value.
The input / output control unit transmits the engagement value output by the engagement calculation unit to the monitoring terminal in addition to the feature point data and the pulse data.
The mirror type terminal according to claim 6.

JP2017042410A 2017-03-07 2017-03-07 Solitary monitor system and mirror-like terminal Pending JP2018147278A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017042410A JP2018147278A (en) 2017-03-07 2017-03-07 Solitary monitor system and mirror-like terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017042410A JP2018147278A (en) 2017-03-07 2017-03-07 Solitary monitor system and mirror-like terminal

Publications (1)

Publication Number Publication Date
JP2018147278A true JP2018147278A (en) 2018-09-20

Family

ID=63588843

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017042410A Pending JP2018147278A (en) 2017-03-07 2017-03-07 Solitary monitor system and mirror-like terminal

Country Status (1)

Country Link
JP (1) JP2018147278A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102198360B1 (en) * 2019-10-24 2021-01-04 광운대학교 산학협력단 Eye tracking system and method based on face images

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102198360B1 (en) * 2019-10-24 2021-01-04 광운대학교 산학협력단 Eye tracking system and method based on face images

Similar Documents

Publication Publication Date Title
Cristani et al. The visual social distancing problem
KR101803081B1 (en) Robot for store management
KR102553190B1 (en) Automatic control of wearable display device based on external conditions
JP7229174B2 (en) Person identification system and method
US9390561B2 (en) Personal holographic billboard
JP2017527036A (en) System and method for using eye signals in secure mobile communications
US20100060713A1 (en) System and Method for Enhancing Noverbal Aspects of Communication
CN109446947A (en) The face recognition of enhancing in video
JP2015002477A (en) Information processing apparatus, information processing system, and information processing method
CN102902704B (en) Message processing device, phrase output
US20160234461A1 (en) Terminal, system, display method, and recording medium storing a display program
CN111444982A (en) Information processing method and device, electronic equipment and readable storage medium
Khanal et al. Using emotion recognition in intelligent interface design for elderly care
US20180160960A1 (en) Information processing system and information processing method
JP2019175108A (en) Emotional information management server device, emotional information management method, program, terminal device, and information communication system
US20160261826A1 (en) Terminal, system, display method, and recording medium storing a display program
JP2018147278A (en) Solitary monitor system and mirror-like terminal
Heo et al. Nonwearable gaze tracking system for controlling home appliance
JP7266984B2 (en) Server equipment
JP2020130528A (en) Emotion estimation device, emotion estimation method, program, and emotion estimation system
Li et al. A smart eye tracking system for virtual reality
Fuchs et al. SmartLobby: Using a 24/7 remote head-eye-tracking for content personalization
US20160295165A1 (en) Apparatus, system, and method of managing remote communication, and recording medium storing a remote communication management program
JP2017091210A (en) Sight line retention degree calculation system, sight line retention degree calculation method, and sight line retention degree calculation program
CN114766027A (en) Information processing method, information processing apparatus, and control program

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200129