JP2018147278A - Solitary monitor system and mirror-like terminal - Google Patents
Solitary monitor system and mirror-like terminal Download PDFInfo
- Publication number
- JP2018147278A JP2018147278A JP2017042410A JP2017042410A JP2018147278A JP 2018147278 A JP2018147278 A JP 2018147278A JP 2017042410 A JP2017042410 A JP 2017042410A JP 2017042410 A JP2017042410 A JP 2017042410A JP 2018147278 A JP2018147278 A JP 2018147278A
- Authority
- JP
- Japan
- Prior art keywords
- face
- feature point
- mirror
- data
- terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Emergency Alarm Devices (AREA)
- Alarm Systems (AREA)
- Medical Treatment And Welfare Office Work (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、特に独居老人の監視に好適な独居者監視システムと、これに使用する鏡型端末に関する。 The present invention relates to a single person monitoring system particularly suitable for monitoring a single person living alone, and a mirror-type terminal used therefor.
近年、我が国では少子高齢化が進み、子や孫の世代が大都市に集中し、親が地方に残される、という家族形態が増加している。このような状況に伴い、独居老人が増加している。そして、地方に住む独居老人と、大都市に住むその子供世代である別居家族とのコミュニケーションに関わる問題が表面化している。特に、高齢者の孤独死等は大きな問題である。 In recent years, in Japan, the aging population is declining and the generation of children and grandchildren is concentrated in large cities, and the form of families is increasing in which parents are left in rural areas. Along with this situation, the number of elderly living alone has increased. And the problems related to communication between the elderly living alone in rural areas and the separated families who are their child generations living in large cities are becoming more apparent. In particular, the lonely death of the elderly is a big problem.
特許文献1には、このような状況を改善するため、高齢者や障害者等の見守り対象者をきめ細やかに見守ることが可能な見守りシステムが開示されている。
特許文献2には、カメラで撮影したユーザの顔の画像データから短時間フーリエ変換(short-time Fourier transform、short-term Fourier transform、STFT)を用いて脈拍を検出する技術が開示されている。
特許文献3には、離散ウェーブレット変換(Discrete wavelet transform, DWT)を用いて脈拍を検出する技術が開示されている。
In order to improve such a situation,
Patent Document 2 discloses a technique for detecting a pulse using short-time Fourier transform (short-time Fourier transform, STFT) from image data of a user's face photographed by a camera.
Patent Document 3 discloses a technique for detecting a pulse using a discrete wavelet transform (DWT).
上述の特許文献1を含め、これまで多種多様な見守りシステムに関する特許出願や情報の開示がなされている。その殆どが、情報機器を用いて、インターネットを介して見守り対象者を監視する態様である。
その多くが情報弱者である見守り対象者に、情報機器の操作を強要することは困難である。
Patent applications and information related to a wide variety of watching systems have been disclosed so far, including the above-mentioned
It is difficult to force the person to be watched, who are mostly vulnerable to information, to operate the information equipment.
本発明は、かかる課題に鑑みてなされたものであり、従来の情報機器を操作するような特殊なスキルを必要とせずに、見守り対象者を必要かつ十分に監視することができる低価格な独居者監視システムと、これに使用する鏡型端末を提供することを目的とする。 The present invention has been made in view of such a problem, and is a low-priced single person who can monitor a person to be watched as necessary and sufficiently without requiring a special skill for operating a conventional information device. It is an object of the present invention to provide a person monitoring system and a mirror type terminal used therefor.
上記課題を解決するために、本発明の独居者監視システムは、監視対象者の顔を撮影して所定のデータを出力する鏡型端末と、鏡型端末から所定のデータを受信するサーバと、サーバから転送された、鏡型端末が出力したデータを受信する監視用端末よりなる。
鏡型端末は、監視対象者の顔を映すことが可能な鏡と、鏡に組み込まれ、監視対象者の顔を撮影して画像データを出力する撮像装置と、画像データに含まれる監視対象者の顔を検出する顔検出処理部と、顔検出処理部が出力する、監視対象者の顔を抽出した顔抽出画像データから顔の特徴点よりなる特徴点データを生成する特徴点抽出部と、ネットワークに接続され、特徴点データをサーバを経由して監視用端末へ送信する入出力制御部とを具備する。
サーバは、ネットワークを通じて鏡型端末及び監視用端末と接続され、鏡型端末から送信される特徴点データを監視用端末へ転送する入出力制御部とを具備する。
監視用端末は、サーバから転送された特徴点データを受信する入出力制御部と、特徴点データを表示する表示部とを具備する。
In order to solve the above problems, a solitary person monitoring system of the present invention includes a mirror-type terminal that captures a face of a person to be monitored and outputs predetermined data, a server that receives predetermined data from the mirror-type terminal, It consists of a monitoring terminal that receives data output from a mirror type terminal transferred from a server.
The mirror-type terminal includes a mirror that can reflect the face of the monitoring target person, an imaging device that is incorporated in the mirror and captures the face of the monitoring target person and outputs image data, and the monitoring target person included in the image data A face detection processing unit for detecting the face of the subject, a feature point extraction unit for generating feature point data composed of the feature points of the face from the face extraction image data obtained by extracting the face of the person to be monitored output by the face detection processing unit, An input / output control unit connected to the network and transmitting the feature point data to the monitoring terminal via the server.
The server is connected to the mirror type terminal and the monitoring terminal through the network, and includes an input / output control unit that transfers feature point data transmitted from the mirror type terminal to the monitoring terminal.
The monitoring terminal includes an input / output control unit that receives the feature point data transferred from the server, and a display unit that displays the feature point data.
本発明によれば、従来の情報機器を操作するような特殊なスキルを必要とせずに、見守り対象者を必要かつ十分に監視することができる低価格な独居者監視システムと、これに使用する鏡型端末を提供することができる。
上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
According to the present invention, a low-cost single person monitoring system capable of monitoring a person to be watched necessary and sufficiently without requiring special skills to operate a conventional information device, and a system for use in this system. A mirror-type terminal can be provided.
Problems, configurations, and effects other than those described above will be clarified by the following description of embodiments.
出願人は、コンテンツを視聴するユーザをカメラで撮影し、ユーザの顔の向き及び視線の向きから集中度を算出する集中度処理システムについて、先に特許出願した(特願2016−124611)。
この集中度処理システムは、ユーザの顔をカメラで撮影して、ユーザの顔と視線の向きを検出し、それらの向きがコンテンツを表示するディスプレイにどの程度向いているかを測定することで、ユーザのコンテンツに対する集中度を算出する。
本発明の実施形態に係る独居者監視システムは、この集中度処理システムを基に、独居者の監視に向けたアプリケーションとして構築したものである。
また、上述の特許出願に記述された集中度処理システムには、ユーザの顔から脈拍を検出する機能も有している。脈拍の情報は独居老人の生存確認に加え、大まかな健康状態の推測にも有用な情報である。本発明の実施形態に係る独居者監視システムも、先の出願の集中度処理システムと同様に、独居者の脈拍を検出する機能を有している。
The applicant has previously filed a patent application for a concentration processing system that captures a user viewing content with a camera and calculates the concentration based on the direction of the user's face and line of sight (Japanese Patent Application No. 2006-124611).
This concentration processing system captures a user's face with a camera, detects the orientation of the user's face and line of sight, and measures how much the orientation is directed to the display that displays the content. Calculate the degree of concentration on the content.
The single person monitoring system according to the embodiment of the present invention is constructed as an application for monitoring a single person based on this concentration processing system.
The concentration processing system described in the above-mentioned patent application also has a function of detecting a pulse from the user's face. The information on the pulse is useful information for estimating the general health status in addition to confirming the survival of the elderly living alone. The single person monitoring system according to the embodiment of the present invention also has a function of detecting a single person's pulse, like the concentration processing system of the previous application.
発明者らはこれまで集中度を測定する機器を開発してきた。そして、機器の開発の過程において、発明者らは、人がある事象に対して集中するという状態は、能動的な要因のみではなく、受動的な要因もあるということに気付いた。
例えば、人がある課題に直面して、その課題を解決するために集中するという行為は、能動的な要因である。つまり、当該行為は「当該事象に集中しなければならない」という意識に起因する。これに対し、人が面白いことや楽しいこと等の事象を見て、興味を惹かれるという行為は、ある意味で受動的な要因である。つまり、当該行為は「当該事象に思わず惹かれてしまう」という感情に起因する。
The inventors have so far developed an apparatus for measuring the degree of concentration. In the process of device development, the inventors have realized that the state where a person concentrates on a certain event includes not only active factors but also passive factors.
For example, the act of confronting a person and concentrating to solve the problem is an active factor. In other words, the act is attributed to the awareness that “we must concentrate on the event”. On the other hand, the act of attracting interest by seeing events such as things that are interesting or fun is a passive factor in a sense. In other words, the act is attributed to the feeling that “the event is unintentionally attracted”.
発明者らは、このように相反する意識や感情に起因する行動を「集中度」という言葉で表現することが必ずしも適切ではないと考えた。そこで発明者らは、ある対象者が、ある事象に対し、能動的または受動的な要因の如何に関わらず、注目している状態を、「エンゲージメント(Engagement)」という言葉で定義することとした。そして、発明者らは、これまで開発してきた機器を、集中度を測定する機器ではなく、エンゲージメントを測定する機器と定義付けた。
本明細書で説明する独居者監視システムは、このエンゲージメントを、独居者の監視に転用することで、端末やサーバ等のハードウェアのコスト、ネットワーク上を行き交うデータ量にかかるコストを低減するシステムである。
The inventors considered that it is not always appropriate to express the behavior caused by the conflicting consciousness and emotion in the word “concentration”. Therefore, the inventors decided to define the state of interest that a subject is interested in for an event, regardless of whether it is an active or passive factor, using the term “engagement”. . The inventors have defined the device that has been developed so far as a device that measures engagement, not a device that measures concentration.
The single person monitoring system described in this specification is a system that reduces the cost of hardware such as terminals and servers and the amount of data traveling on the network by diverting this engagement to single person monitoring. is there.
[設置稼働例]
図1は、本発明の実施形態に係る独居者監視システム101を独居者102の居宅103に設置し稼働させた状態を示す概略図である。
監視対象者である独居者102の居宅103において、独居者102はセンサ端末を構成する鏡型端末104を見ている。監視対象者を監視する監視者である、都市部に在住する独居者102の別居家族105は、独居者102に「一日一回、この鏡を見てね。」と依頼する。独居者102が鏡型端末104を見て、自分の顔を確認すると、鏡型端末104に埋め込まれた撮像装置が、独居者102の顔の存在を認識する。更に、独居者102の顔の画像情報から、脈拍を検出する。そして、独居者102が鏡型端末104の前に来たことを示す情報と、脈拍情報を、インターネット106を介してサーバ107に送信する。
サーバ107は、鏡型端末104から情報を受信すると、内包するデータベースに情報を登録する。そして、鏡型端末104から送られた情報を、独居者102の別居家族105が所有する監視用端末である携帯型無線端末108に転送する。独居者102の別居家族105は、携帯型無線端末108が情報を受信したことを認識し、独居者102の安否及び凡その健康状態等を把握する。
[Installation operation example]
FIG. 1 is a schematic diagram showing a state in which a solitary
In the
When the
図2Aは、本発明の実施形態に係る独居者監視システム101のセンサ端末を構成する鏡型端末104の斜視図であり、図2Bは、鏡型端末104の正面図である。
図2Aに示すように、鏡型端末104は、机やテーブル等に載置して使用する卓上鏡を構成する。鏡型端末104は、鏡として使用することを考慮して、凡そ60°前後の傾斜角を有する鏡面部201と、鏡面部201を支持する支持体202を有する。
図2A及び図2Bに示すように、鏡面部201の右上には、LEDが埋め込まれた押釦スイッチ203が設けられている。押釦スイッチ203に埋め込まれたLEDは、別居家族105が所有する携帯型無線端末108またはサーバ107から送信されたアラーム情報を受信すると、点滅あるいは点灯する。
また、鏡面部201の鏡はハーフミラーで構成されており、図2A及び図2Bで示す点線の箇所P204には、撮像装置を有する情報処理部304(図3参照)が埋め込まれている。なお、撮像装置自体は、ハーフミラーの存在により、肉眼では見えにくくなっている。
FIG. 2A is a perspective view of the
As shown in FIG. 2A, the mirror-
As shown in FIGS. 2A and 2B, a
Further, the mirror of the
図3は、鏡型端末104の一部分解断面図である。
透明な天板301にはハーフミラーフィルム302が裏面に張り付けられており、独居者102の顔を写す鏡として機能する。天板301はアクリル、ポリカーボネート、ポリエチレンテレフタレート、硬質塩化ビニール等の透明な樹脂、あるいは強化ガラス等の透明な板であり、相応の強度を備えていればよい。ハーフミラーフィルム302は、アクリルやガラス等の透明な板に張り付けてハーフミラーを形成するためのフィルムであり、誘電多層膜や金属薄膜等の材料で構成される。なお、このフィルムは、マジックミラーとしても周知のものである。
ハーフミラーフィルム302が貼付された天板301は、合成樹脂等で構成されるフレーム303に嵌め込まれる。フレーム303には穴303aが空いており、この穴303aに撮像装置を有する情報処理部304が挿し込まれる。情報処理部304の、穴303aに挿し込まれる部分304aには、撮像装置の光学系が設けられている。
FIG. 3 is a partially exploded sectional view of the mirror-
A
The
[鏡型端末104:ハードウェア構成]
図4は、鏡型端末104の情報処理部304の、ハードウェア構成を示すブロック図である。
シングルボードコンピュータで構成される鏡型端末104の情報処理部304は、バス408に接続された、CPU401、ROM402、RAM403、不揮発性ストレージ404、現在日時情報を出力するリアルタイムクロック(以下「RTC」)405、無線LANインターフェース406、及び無線通信部407を備える。更に、バス408にはシリアルインターフェース409を介して押釦スイッチ203とLED410とスピーカ411が接続されている。
無線LANインターフェース406は、不図示の無線LANルータを介してインターネット106に接続するためのネットワークインターフェースである。
無線通信部407は、無線通信の送信回路と受信回路を含み、不図示のアクセスポイントを通じてインターネット106に接続するためのネットワークインターフェースであり、例えばLTE(Long Term Evolution)等の通信規格によりアクセスポイントに接続される。また、独居者102の顔を撮影する撮像装置412も、バス408に接続されている。
[Mirror type terminal 104: hardware configuration]
FIG. 4 is a block diagram illustrating a hardware configuration of the
The
The
The
不揮発性ストレージ404には、情報処理部304をネットワークに接続するための、TCP/IPプロトコルスタックを含むネットワークOSと、鏡型端末104として稼働させるためのプログラムが格納されている。
シリアルインターフェース409に接続されたスピーカ411は、不図示のカップリングコンデンサを介して与えられたPWM信号に基づいて、D/A変換器を用いずにアラーム音を発音する。
The
A
情報処理部304を構成するシングルボードコンピュータは、例えば英国ラズベリーパイ財団(http://www.raspberrypi.org/)が開発する「Raspberry Pi」等が利用可能である。情報処理部304の演算処理能力は、インターネット106に接続する機能と、後述する画像データの処理を実行する機能を実現するために、例えばLinux(登録商標)等のネットワークOSが実用的な速度で稼働可能な程度であればよい。
For example, “Raspberry Pi” developed by the Raspberry Pi Foundation (http://www.raspberrypi.org/) in the UK can be used as the single board computer constituting the
撮像装置412は、監視対象者である独居者102が鏡を覗き込む際に、独居者102の顔を必要十分に撮影できるように、画角等が考慮される。一例としては、画角は28°、XGA(1024×768ビクセル)以上の撮像装置412を使用する。撮像装置412の光学系は、ピント調整を不要にするためパンフォーカス仕様が望ましい。また、ハーフミラーフィルム302によって光量が大幅に減少するため、高感度の撮像装置412が望ましい。
The
[鏡型端末104:ソフトウェア機能]
図5は、本発明の実施形態に係る鏡型端末104の情報処理部304の、ソフトウェア機能を示すブロック図である。
撮像装置412から出力される画像データストリームは、顔検出処理部501に供給される。
顔検出処理部501は、撮像装置412から出力される画像データストリームを時間軸上で連続する静止画として捉え、この時間軸上で連続する静止画の各画像データに対し、例えばViola−Jones法等の周知のアルゴリズムを用いて、独居者102の顔の存在を検出する。そして、独居者102の顔だけを抽出した顔抽出画像データを出力する。
[Mirror type terminal 104: Software function]
FIG. 5 is a block diagram showing software functions of the
The image data stream output from the
The face
顔検出処理部501が出力する顔抽出画像データは、特徴点抽出部502に供給される。
特徴点抽出部502は、顔抽出画像データに含まれる独居者102の顔の画像に、ポリゴン解析等の処理を施す。そして、独居者102の顔全体、眉、目、鼻、口等の輪郭と、瞳を示す顔の特徴点よりなる特徴点データを生成する。特徴点データの詳細については図6で後述する。
The face extraction image data output from the face
The feature
特徴点抽出部502が出力する特徴点データは、ベクトル解析部503に供給される。
ベクトル解析部503は、連続する2枚の顔抽出画像データに基づく特徴点データから、独居者102の顔の向きを示すベクトル(以下「顔方向ベクトル」)と、独居者102の顔における、視線の向きを示すベクトル(以下「視線方向ベクトル」)を生成する。
The feature point data output from the feature
The
顔方向ベクトルと視線方向ベクトルは、エンゲージメント算出部504に供給される。
エンゲージメント算出部504は、顔方向ベクトルと視線方向ベクトルを加算して、独居者102がコンテンツを表示するディスプレイと撮像装置412を含む3次元空間内の何処を注視しているのかを示す注視方向ベクトルを算出する。そして、独居者102の注視方向がディスプレイに向いているか否かを判定する。この判定結果は、独居者102の注視方向がディスプレイに向いているか(論理の「真」)、あるいは向いていないか(論理の「偽」)のいずれかを示す2値の値である。
エンゲージメント算出部504は、この注視方向判定結果を例えば100msec毎に算出する。そして、例えば直近1秒間の注視方向判定結果の移動平均を算出する。この演算により、2値の注視方向判定結果を疑似アナログ的な値として取得することが可能になる。なお、注視方向判定結果の移動平均値が、エンゲージメント値となる。
The face direction vector and the line-of-sight direction vector are supplied to the
The
The
顔検出処理部501が出力する顔抽出画像データと、特徴点抽出部502が出力する特徴点データは、脈拍検出領域抽出部505にも供給される。
脈拍検出領域抽出部505は、顔検出処理部501から出力される顔抽出画像データと、特徴点抽出部502が出力する特徴点データに基づいて、独居者102の顔の一部に相当する画像データの切り出しを実行し、得られた部分画像データを脈拍算出部506へ出力する。ここで、脈拍検出領域抽出部505が行う、独居者102の顔の一部に相当する画像データの切り出しは、脈拍を検出するための領域として相応しい、独居者102の顔のうち、目の直下、頬骨に該当する領域が好ましい。
The face extraction image data output from the face
The pulse detection
脈拍検出領域抽出部505における、脈拍を検出するための領域としては、唇、眉間の少し上、頬骨付近などが考えられるが、本実施形態では髭や髪の毛に隠れて皮膚が見えなくなる可能性が少ない頬骨付近の領域を用いている。なお、脈拍の検出領域を決定する手法は、様々な応用が考えられる。例えば、唇や、眉間の少し上でも構わない。更に、唇・眉間直上・頬骨付近等の複数の候補領域を解析できるようにして、唇が髭に隠れているようであれば次の候補(例えば眉間直上)、次の候補も隠れているようであればその次の候補(頬骨付近)といった具合に、順次候補を絞り込んで、適切な切出し領域を決めるようにしてもよい。
As a region for detecting a pulse in the pulse detection
脈拍算出部506は、脈拍検出領域抽出部505が生成する部分画像データから、緑色の成分を抜粋(フィルタリング)し、ピクセル毎の輝度の平均値を得る。そして、この平均値の変動を、例えば特許文献2等に記載されている短時間フーリエ変換、あるいは特許文献3等に記載されている離散ウェーブレット変換等を用いて、独居者102の脈拍を算出する。なお、本実施形態の脈拍算出部506は、ピクセル毎の輝度の平均値を得るとしているが、平均値以外にも最頻値や中央値を採用してもよい。
血液に含まれるヘモグロビンは、緑色の光を吸収する特性を有することが知られている。周知のパルスオキシメータは、このヘモグロビンの特性を利用して、皮膚に緑色の光を照射して、反射光を検出し、その強度変化を基に脈拍を検出する。脈拍算出部506もこのヘモグロビンの特性を利用する点については同じである。但し、検出する根拠となるデータが画像データである点が、パルスオキシメータと異なる。
The
It is known that hemoglobin contained in blood has a characteristic of absorbing green light. A known pulse oximeter utilizes the characteristics of this hemoglobin, irradiates the skin with green light, detects reflected light, and detects a pulse based on the intensity change. The
特徴点抽出部502が出力する特徴点データと、エンゲージメント算出部504が出力するエンゲージメント値と、脈拍算出部506が出力する脈拍データは、入出力制御部507に供給される。
入出力制御部507は、特徴点データとエンゲージメント値と脈拍データに、RTC405が出力する現在日時情報と、サーバアクセス情報508に記憶されている情報を付加して、送信パケットを生成する。
不揮発性ストレージに記憶されているサーバアクセス情報508には、
・情報送信元である独居者102を一意に特定する監視対象ID情報、
・通信セキュリティの確保に必要なパスワード等の、情報送信元における認証情報、
・サーバ107にアクセスするための、サーバ107のFQDN(Full Qualified Domain Name)あるいはIPアドレス、
・情報送信先である別居家族105を一意に特定する監視者ID情報
が含まれる。
The feature point data output from the feature
The input /
-Monitoring target ID information for uniquely identifying the
・ Authentication information at the information source, such as passwords necessary for ensuring communication security,
An FQDN (Full Qualified Domain Name) or IP address of the
Monitor information that uniquely identifies the separated
すなわち、入出力制御部507は、特徴点データ、エンゲージメント値、脈拍データ、現在日時情報、監視対象ID情報、監視者ID情報をメッセージとして形成した後、サーバ107のFQDNを用いてサーバ107にアクセスする。そして、認証情報を用いてサーバ107から認証を得てから、メッセージから生成した送信パケットをサーバ107へ送信する。
送信パケットは、インターフェース選択部509を通じて、無線LANインターフェース406または無線通信部407のHTTP(Hyper Text Transfer Protocol)を用いて、インターネット106に接続されているサーバ107へ送信される。すなわち、入出力制御部507はwebクライアントの機能を有している。
That is, the input /
The transmission packet is transmitted through the
インターフェース選択部509の実体は、OSに備わっているTCP/IPプロトコルスタックとDHCP(Dynamic Host Configuration Protocol)クライアントである。すなわち、インターフェース選択部509は、IPリーチャブルなネットワークに接続されているネットワークインターフェースを選択して、送信パケットをサーバ107へ送信する。
なお、本発明の実施形態に係る鏡型端末104では、ネットワークにおける通信に使用するプロトコルに、最も簡素で扱い易いHTTPを例示しているが、データストリームを送信するプロトコルはこれに限るものではない。例えば、周知のSMTP(Simple Mail Transfer Protocol)、すなわちインターネット106電子メールを用いてもよい。
The substance of the
In the
入出力制御部507は、サーバ107との接続(TCPコネクション)を切らずに保持することで、サーバ107から送信されたデータを即時に受信できるようになっている。以下、この通信の方法を「プッシュ型通信」(HTTP server push)と略記する。サーバ107からアラームメッセージを受信すると、入出力制御部507に備わっているアラーム検出部510がアラームの受信を検出する。入出力制御部507は、アラーム検出部510がアラームの受信を検出したことを受けて、LED410を発光駆動し、スピーカ411を発音駆動する。そして、独居者102が押釦スイッチ203を操作したことを検出すると、入出力制御部507はLED410の発光駆動を停止する。
The input /
[送信データについて]
送信パケットには、100msec毎に測定される特徴点データ、エンゲージメント値及び脈拍データの他、RTC405が出力する現在日時情報、監視対象ID情報、監視者ID情報が含まれる。これらの情報はサーバ107のデータベースに記録される。データベースに記録される情報をなるべく正確なものとするために、RTC405を正確に保つことが好ましい。そのためには、鏡型端末104にNTP(Network Time Protocol)クライアント等の日時情報較正機能を有するプログラムをインストールし、実行することが好ましい。
[About transmission data]
In addition to the feature point data, the engagement value, and the pulse data measured every 100 msec, the transmission packet includes current date and time information, monitoring target ID information, and supervisor ID information output by the
また、サーバ107は複数の鏡型端末104から情報を受信するため、各々の鏡型端末104について一意に識別する情報が必要である。このため、鏡型端末104及び/または独居者102を一意に識別する監視対象ID情報が設けられている。更に、サーバ107は鏡型端末104から受信した情報を正しい監視者へ転送するために、監視者ID情報が必要である。
Further, since the
[特徴点データについて]
これより、顔検出処理部501、特徴点抽出部502、そしてベクトル解析部503の動作について説明する。
図6Aは、撮像装置412から出力される画像データストリームの一例を示す概略図である。図6Bは、顔検出処理部501が出力する顔抽出画像データの一例を示す概略図である。図6Cは、特徴点抽出部502が出力する特徴点データの一例を示す概略図である。
先ず、撮像装置412から被撮影者601を含む画像データストリームがリアルタイムで出力される。これが図6Aの画像データP602である。
[About feature point data]
The operations of the face
FIG. 6A is a schematic diagram illustrating an example of an image data stream output from the
First, an image data stream including the subject 601 is output from the
次に、顔検出処理部501は、撮像装置412から出力される画像データP601から、例えばViola−Jones法等の周知のアルゴリズムを用いて、被撮影者601の顔の存在を検出する。そして、被撮影者601の顔だけを抽出した顔抽出画像データを出力する。これが図6Bの顔抽出画像データP603である。
そして、特徴点抽出部502は、顔抽出画像データP603に含まれる被撮影者601の顔の画像に、ポリゴン解析等の処理を施す。そして、被撮影者601の顔全体、眉、目、鼻、口等の輪郭と、瞳を示す顔の特徴点よりなる特徴点データを生成する。これが図6Cの特徴点データP604である。この特徴点データP604は、二次元空間内における座標情報を有する特徴点の集合体で構成される。
Next, the face
Then, the feature
二次元の特徴点データを、時間軸上で異なるタイミングにて2セット取得すると、被撮影者601の顔が僅かに動くことにより、各々の特徴点データにずれが生じる。このずれを基に、被撮影者601の顔の方向を算出することができる。これが顔方向ベクトルである。
また、目の輪郭に対する瞳の配置は、被撮影者601の顔に対するおおよその視線の方向を算出することができる。これが視線方向ベクトルである。
ベクトル解析部503は、以上のような処理にて、特徴点データから顔方向ベクトルと視線方向ベクトルを生成する。
When two sets of two-dimensional feature point data are acquired at different timings on the time axis, the face of the person to be photographed 601 slightly moves, causing a shift in each feature point data. Based on this deviation, the face direction of the subject 601 can be calculated. This is the face direction vector.
In addition, the arrangement of the pupil with respect to the outline of the eye can calculate the approximate line-of-sight direction with respect to the face of the subject 601. This is the gaze direction vector.
The
[脈拍の検出領域について]
図7は、脈拍検出領域抽出部505が、独居者102の顔の画像データから部分画像データとして切り出す領域を模式的に示す図である。
特許文献2にも記載されているが、顔の肌の色から脈拍を正しく検出するためには、顔の画像データのうち、目、鼻の穴、唇、頭髪や髭等の、肌の色とは無関係な要素をできる限り排除する必要がある。特に、目は動きが激しく、また瞼を閉じたり開いたりすることで、画像データ中に瞳が存在したり存在しなかったりという、短時間に急激な輝度の変化が起きる。このため、目の情報は、輝度の平均値を算出する際に悪影響を及ぼす。また、個人差があるものの、頭髪と髭の存在は、肌の色の検出を大きく阻害する要因になる。
以上のことを考慮すると、図7に示すように、目の下の領域701a及び701bは、目、頭髪、髭の存在によって影響を受けにくいので、比較的安定して肌の色を検出可能な領域の例として好適であると考えられる。
本発明の実施形態に係る独居者監視システム101では、独居者102の顔をベクトル化し、独居者102の顔を認識する機能を有しているので、脈拍検出領域抽出部505は、顔特徴点から目の下の領域の座標情報を算出することが可能である。
[About pulse detection area]
FIG. 7 is a diagram schematically showing a region that the pulse detection
As described in Patent Document 2, in order to correctly detect the pulse from the color of the skin of the face, the color of the skin such as eyes, nostrils, lips, hair and wrinkles in the face image data is included. It is necessary to eliminate as much as possible the elements that are unrelated to. In particular, the eyes move rapidly, and when the eyelids are closed or opened, a rapid luminance change occurs in a short time such as the presence or absence of pupils in the image data. For this reason, the eye information has an adverse effect when calculating the average value of luminance. In addition, although there are individual differences, the presence of hair and wrinkles is a factor that greatly hinders the detection of skin color.
Considering the above, as shown in FIG. 7, the
In the solitary
[サーバ107:ハードウェア構成]
図8は、サーバ107のハードウェア構成を示すブロック図である。
サーバ107は、CPU801、ROM802、RAM803、不揮発性ストレージ804、RTC805とNIC806がバス807に接続されている。
不揮発性ストレージ804には、サーバ107をインターネット106に接続するための、TCP/IPプロトコルスタックを含むネットワークOSと、計算機をサーバ107を機能させるためのプログラムが格納されている。
[Server 107: Hardware configuration]
FIG. 8 is a block diagram illustrating a hardware configuration of the
In the
The
[サーバ107:ソフトウェア機能]
図9は、サーバ107のソフトウェア機能を示すブロック図である。
サーバ107は、鏡型端末104及び携帯型無線端末108とHTTPのメッセージを送受信するwebサーバとしての機能と、鏡型端末104から受信したデータをテーブルに登録するデータベースサーバとしての機能と、鏡型端末104から受信した特徴点データから独居者102の表情を推定する、アプリケーションサーバとしての機能を有する。
入出力制御部901の実体はwebサーバプログラムであり、HTTPクライアントである鏡型端末104や携帯型無線端末108の要求を受信し、要求に応じた応答データを返信する。
[Server 107: Software function]
FIG. 9 is a block diagram illustrating software functions of the
The
The entity of the input /
入出力制御部901は、鏡型端末104から接続要求を受け取ると、認証処理部902を通じて、ユーザ認証を行う。その際、認証処理部902はユーザマスタ903を参照する。
正常に認証処理が行われた鏡型端末104から送信される、特徴点データとエンゲージメント値と脈拍データを含む情報は、入出力制御部901を経て、不揮発性ストレージ804に設けられるログテーブル904に記録される。
次に、入出力制御部901は、鏡型端末104から受信したデータに含まれている特徴点データを、表情推定部905に引き渡す。表情推定部905は、公知の畳み込みニューラルネットワーク等に代表される、画像認識に好適な学習アルゴリズム(ディープラーニング)を用いて、特徴点データから独居者102の表情を推定する。入出力制御部901は、表情推定部905が推定した表情推定結果を、鏡型端末104から受信したデータと同じく、テーブルの同じレコードに登録する。そして入出力制御部901は、特徴点データ、エンゲージメント値、脈拍データ、そして表情推定結果を含む情報を、別居家族105が所有する携帯型無線端末108へ送信する。
When the input /
Information including the feature point data, the engagement value, and the pulse data transmitted from the mirror-
Next, the input /
本発明の実施形態に係る独居者監視システム101の、第一の目的は、鏡型端末104が独居者102の顔を検出したら、独居者102の顔画像から脈拍を測定して、然るべき情報を別居家族105が所有する携帯型無線端末108へ送信することである。
ところで、鏡型端末104と携帯型無線端末108は、両方共、インターネット106上におけるクライアントに相当する。特に、居宅103に設置されたクライアント機器は、ネットワークの観点から見ると、無線LANルータ等の機能であるファイアウォールの内側に存在することが多い。ファイアウォールによって隠蔽され、プライベートIPアドレスが付与されたクライアント機器同士の、直接的なP2P接続は極めて困難である。
The first purpose of the solitary
Incidentally, both the
したがって、クライアント同士が通信を実現するためには、間にグローバルIPアドレス、そして望ましくは定められたFQDNを持つサーバ107の存在が必要である。
すなわち、サーバ107は、鏡型端末104と携帯型無線端末108との通信を仲介する役割を担う。そして、このクライアント機器同士の通信を迅速に実現するために、サーバ107は鏡型端末104と携帯型無線端末108とのそれぞれに対し、プッシュ型通信を実行する。双方のクライアント機器にプッシュ型通信を実行することで、二つのクライアント機器に対し、即時性の高い通信を実現する。
なお、我が国及び世界中のインターネット106にてIPv6が普及するか、あるいはオーバーレイネットワーク等、何らかの手段でクライアント機器同士のP2P通信が容易に実現できる状況になった場合には、この限りではない。
Therefore, in order for clients to communicate with each other, it is necessary to have a
That is, the
It should be noted that this is not the case when IPv6 spreads over the
[感情の推定について]
図10は、表情推定部905が実施する、感情の分類を説明する概略図である。
ポール・エクマン(Paul Ekman)によれば、人間はどのような言語圏や文化圏に属していても、普遍的な感情を有しているとされる。またエクマンによる感情の分類は、「エクマンの基本6情動」とも呼ばれる。平常時の無表情(F1001)に対し、驚き(F1002)、恐怖(F1003)、嫌悪(F1004)、怒り(F1005)、喜び(F1006)、悲しみ(F1007)の6感情において、人間の表情は変化する。表情の変化は、顔特徴点の変化となって現れる。表情推定部905は、時間軸上における、顔特徴点の相対的な変動を検出し、これをエクマンの基本6情動にしたがって、独居者102の表情が、どの感情に属するのかを推定する。
[Emotion estimation]
FIG. 10 is a schematic diagram for explaining emotion classification performed by the facial
According to Paul Ekman, human beings have universal feelings no matter what language or culture they belong to. The classification of emotions by Ekman is also called “Ekman's basic six emotions”. Human expression changes in six emotions: surprise (F1002), fear (F1003), disgust (F1004), anger (F1005), joy (F1006), and sadness (F1007), compared to normal expressionless (F1001). To do. Changes in facial expressions appear as changes in facial feature points. The facial
画像認識に用いられる公知の学習アルゴリズムは、画像データをそのまま、あるいは所定の色成分のみを抽出した等の前処理を施した上で、演算処理を行う。多くの場合、画素数を大幅に減らす作業は含まれていない。
サーバ107の表情推定部905は、画像データではなく、顔の特徴点データを対象とする。この特徴点データは10〜30個程度の座標情報だけであり、ピクセル毎に輝度の情報が含まれる大量のデータである画像データと比べると、圧倒的にデータ量が少ない。しかし、特徴点データだけでも、図10に示した表情の変化を十分に推定できるだけの情報量を有する。つまり、人の表情の変化は、特徴点データだけでも十分に推定可能である。このため、既存の学習アルゴリズムを用いる画像認識処理にこの特徴点データを投入すると、従来と比べて大幅に演算量が少なくなり、迅速に推定結果を得ることができる。また、サーバ107の負荷も非常に軽い。
A known learning algorithm used for image recognition performs arithmetic processing after performing preprocessing such as extracting image data as it is or only a predetermined color component. In many cases, the work of greatly reducing the number of pixels is not included.
The facial
[携帯型無線端末108:ハードウェア構成]
図11は、携帯型無線端末108のハードウェア構成を示すブロック図である。
監視用端末であるところの携帯型無線端末108は、バス1110に接続された、CPU1101、ROM1102、RAM1103、表示部1104、静電型位置検出装置である操作部1105、不揮発性ストレージ1106、RTC1107、無線LANI/F1108、無線通信部1109を備える。表示部1104と操作部1105は周知のタッチパネルディスプレイを構成する。
不揮発性ストレージ1106には、サーバ107をインターネット106に接続するための、TCP/IPプロトコルスタックを含むネットワークOSと、携帯型無線端末108として稼働させるためのプログラムが格納されている。
なお、本発明の実施形態に係る独居者監視システム101では、別居家族105が使用する監視用端末を携帯型無線端末108としているが、監視用端末は携帯型無線端末108に限らない。一般的なパソコンでもよい。後述する図13では、携帯型無線端末108の表示画面を説明するが、携帯型無線端末108のタッチパネルディスプレイにおけるタップ操作は、パソコンではマウスによるクリック操作に相当する。
[Portable wireless terminal 108: hardware configuration]
FIG. 11 is a block diagram illustrating a hardware configuration of the
A
The
In the single
[携帯型無線端末108:ソフトウェア機能]
図12は、携帯型無線端末108のソフトウェア機能を示すブロック図である。
鏡型端末104と同様に、携帯型無線端末108の入出力制御部1201もwebクライアントの機能を有する。入出力制御部1201は、webサーバであるサーバ107に対し、サーバアクセス情報1202に格納されている認証情報を用いて認証を行う。認証が正常に終了したら、入出力制御部1201はサーバ107と接続を確立して、プッシュ型通信を行う。プッシュ型通信を実行することで、鏡型端末104から送信された情報を迅速に受信することができる。
[Portable wireless terminal 108: Software function]
FIG. 12 is a block diagram illustrating software functions of the
Similar to the
また、鏡型端末104と同様に、携帯型無線端末108の入出力制御部1201も、インターフェース選択部1203を通じて、無線LANI/F1108または無線通信部1109の何れかを用いて、インターネット106にアクセスし、サーバ107との通信を実現する。
鏡型端末104からサーバ107を通じて受信した、独居者102のエンゲージメント値、脈拍データ、表情推定結果、そして日時情報は、不揮発性ストレージ1106に設けられたログテーブル1204に記録される。
Similarly to the
The engagement value, pulse data, facial expression estimation result, and date / time information of the
不揮発性ストレージ1106に記憶されているサーバアクセス情報1202には、
・情報送信元である別居家族105を一意に特定する監視者ID情報、
・通信セキュリティの確保に必要なパスワード等の、情報送信元における認証情報、
・サーバ107にアクセスするための、サーバ107のFQDN(Full Qualified Domain Name)あるいはIPアドレス、
・情報送信先である独居者102を一意に特定する監視対象ID情報
が含まれる。
入出力制御部1201は、サーバ107との接続を確立してプッシュ型通信を行うために、認証情報を使用する。
The
Monitor ID information that uniquely identifies the separated
・ Authentication information at the information source, such as passwords necessary for ensuring communication security,
An FQDN (Full Qualified Domain Name) or IP address of the
Monitoring target ID information that uniquely identifies the
The input /
アラーム送信処理部1205は、サーバ107を通じて鏡型端末104から受信した情報に異常があると認めた場合、または予め設定した日時に鏡型端末104から情報を受信できていないと判断した場合に、アラームを生成し、入出力制御部1201を通じて鏡型端末104へ送信する。このため、アラーム送信処理部1205は、RTC1107が出力する現在日時情報を監視する。
When the alarm
[携帯型無線端末108:表示例]
図13A、図13B及び図13Cは、携帯型無線端末108の表示部1104に表示される表示例である。
図13Aは、独居者102が鏡型端末104の前に来て、鏡型端末104を覗き込んだ時に、別居家族105の携帯型無線端末108のタッチパネルディスプレイに現れる表示例である。
画面の最上部に表示される表示欄は、独居者102の氏名表示欄P1301である。図13A、図13B及び図13C中、氏名表示欄P1301には「おばあちゃん」と表示されているが、実際には独居者102の氏名が表示される。
[Portable wireless terminal 108: display example]
13A, 13B, and 13C are display examples displayed on the
FIG. 13A is a display example that appears on the touch panel display of the
The display field displayed at the top of the screen is the name display field P1301 of the
左上の表示欄は、サーバ107を通じて鏡型端末104から受信した、独居者102の顔の特徴点データに基づく、独居者102の顔輪郭を表示する顔輪郭表示欄P1302である。画像データと比べて特徴点データは大幅にデータ量が少ないので、インターネット106の混雑状況に左右され難く、リアルタイムで表示が可能である。
右上の表示欄は、サーバ107から受信した、独居者102の顔の特徴点データを基に推定した、表情推定結果の簡易イラストと表情を表示する表情推定結果表示欄P1303である。
The display field at the upper left is a face outline display field P1302 for displaying the face outline of the
The display column on the upper right is a facial expression estimation result display column P1303 that displays a simple illustration of facial expression estimation results and facial expressions estimated from the feature point data of the face of the
左下の表示欄は、サーバ107を通じて鏡型端末104から受信した、独居者102の脈拍データと脈拍波形を表示する脈拍表示欄P1304である。
右下の表示欄は、サーバ107を通じて鏡型端末104から受信した、独居者102のエンゲージメント値とエンゲージメント値の折れ線グラフを表示するエンゲージメント値表示欄P1305である。
独居者102が正常な状態であれば、図13Aに示すような表示画面が確認できる。これらのデータ量は画像データと比べて極めて少ない。したがって、鏡型端末104及び携帯型無線端末108に要する通信のコストは安価に済む。
The lower left display column is a pulse display column P1304 that displays the pulse data and pulse waveform of the
The display field in the lower right is an engagement value display field P1305 that displays the engagement value of the
If the
図13Bは、独居者102が別居家族105から予め約束していた時間または期間(例えば2日間)に鏡型端末104の前に来なかった場合に、別居家族105の携帯型無線端末108のタッチパネルディスプレイに現れるアラーム画面の表示例である。図13Cは、独居者102の安否が確認できた場合に、別居家族105の携帯型無線端末108のタッチパネルディスプレイに現れる安否確認画面の表示例である。これら図13Bと図13Cについては、図14に示すタイムチャートを伴って、内容を説明する。
FIG. 13B shows the touch panel of the
図14は、携帯型無線端末108において独居者102の安否が確認できなくなったことを検出した状況から始まる、鏡型端末104と携帯型無線端末108との間で行われる通信の手順と内容を示す、タイムチャートである。
別居家族105の携帯型無線端末108は、予め設定した時間(例えば朝の5時から8時まで)または期間(例えば2日間)を独居者102の監視時間帯として設定している。この監視時間帯の間に、独居者102が鏡型端末104の前に来て、鏡型端末104を覗き込んだ時に、図13Aに示すような内容が携帯型無線端末108のタッチパネルディスプレイに表示される。
FIG. 14 shows the procedure and contents of communication performed between the
The
ある日、携帯型無線端末108が監視時間帯の開始時間に監視を開始して、鏡型端末104から所定のデータの受信を待機する(S1401)。監視時間帯の終了時点になっても(S1402)所定のデータを受信できなかった場合、携帯型無線端末108の入出力制御部1201は、図13Bに示すアラーム画面を表示し(S1403)、携帯型無線端末108のユーザである別居家族105の操作を待つ。そして、別居家族105がCallボタンをタップ操作すると(S1404)、携帯型無線端末108の入出力制御部1201は鏡型端末104に向けてアラームを送信する(S1405)。
One day, the
ここで、図13Bに示すアラーム画面の表示内容を説明する。
図13B中、タッチパネルディスプレイに表示されている警告メッセージ欄P1306には、独居者102がどの程度の期間、鏡型端末104を見ていないのかを示す文章と、CALLボタンB1307とLIVEボタンB1308が表示されている。
CALLボタンB1307をタップすると、携帯型無線端末108は鏡型端末104に向けて、警告メッセージを送信する。鏡型端末104の入出力制御部507は、サーバ107を通じて携帯型無線端末108から警告メッセージを受信すると、押釦スイッチ203に組み込まれたLED410を点滅発光させると共に、アラーム音をスピーカ411から発する。
LIVEボタンB1308をタップすると、携帯型無線端末108は鏡型端末104に向けて、LIVE動作命令を送信する。鏡型端末104の入出力制御部507は、サーバ107を通じて携帯型無線端末108からLIVE動作命令を受信すると、撮像装置412を起動し、撮影した画像データストリームから解像度を落とした動画像データを生成し、サーバ107を通じて携帯型無線端末108へ送信する。すると、図13Bの下側にLIVE動画表示領域P1309が形成され、LIVE動画、すなわち現在の独居者102の居宅103内の様子が表示される。
Here, the display content of the alarm screen shown in FIG. 13B will be described.
In FIG. 13B, a warning message column P1306 displayed on the touch panel display displays text indicating how long the
When the CALL button B 1307 is tapped, the
When the LIVE button B 1308 is tapped, the
図14に戻って、タイムチャートの説明を続ける。
鏡型端末104の入出力制御部507は、サーバ107を通じて携帯型無線端末108から送信されたアラーム情報を受信する(S1406)と、LED410を点滅制御し、スピーカ411を鳴動させる(S1407)。そして、ユーザである独居者102の操作を待つ。そして、独居者102が押釦スイッチ203を操作すると(S1408)、鏡型端末104の入出力制御部507はスピーカ411の鳴動を停止する(S1409)。そして、携帯型無線端末108に向けてリプライを送信する(S1410)。
Returning to FIG. 14, the description of the time chart will be continued.
When the input /
携帯型無線端末108の入出力制御部1201は、サーバ107を通じて鏡型端末104から送信されたリプライ情報を受信する(S1411)と、図13Cに示す安否確認画面を表示し(S1412)、別居家族105の操作を待つ。そして、別居家族105が了解ボタンをタップ操作すると(S1413)、携帯型無線端末108の入出力制御部1201は鏡型端末104に向けて確認終了メッセージを送信する(S1414)。
鏡型端末104の入出力制御部507は、サーバ107を通じて携帯型無線端末108から送信された確認終了メッセージを受信する(S1415)と、LED410の点滅を停止させる(S1416)。
When the input /
When the input /
ここで、図13Cに示す安否確認画面の表示内容を説明する。
図13C中、タッチパネルディスプレイに表示されているメッセージ欄P1310には、独居者102の安否が確認できた旨の文章と、了解ボタンB1311が表示される。
了解ボタンB1311をタップすると、携帯型無線端末108は鏡型端末104に向けて、確認終了メッセージを送信する。鏡型端末104の入出力制御部507は、サーバ107を通じて携帯型無線端末108から確認終了メッセージを受信すると、点滅発光させている、押釦スイッチ203に組み込まれたLED410の点滅発光を停止させる。
Here, the display content of the safety confirmation screen shown in FIG. 13C will be described.
In FIG. 13C, in the message column P1310 displayed on the touch panel display, a text indicating that the safety of the
When the OK button B1311 is tapped, the
以上に説明した実施形態は、以下に記す応用が可能である。
(1)本発明の実施形態に係る独居者監視システム101の名称は「独居者102を監視する」という意味に取れるが、本システムの監視対象は必ずしも独居者102のみに限らない。監視対象は老夫婦であっても、あるいは被介護者の小規模な団体であってもよい。
(2)図14のタイムチャートでは監視時間帯における独居者102の監視を携帯型無線端末108が実行していたが、監視時間帯における独居者102の監視をサーバ107が実行してもよい。
The embodiment described above can be applied as follows.
(1) Although the name of the solitary
(2) In the time chart of FIG. 14, the
(3)鏡型端末104は、独居者102の顔画像から特徴点データとエンゲージメント値と脈拍データを取得したが、独居者102を監視する、という基本的な目的を満たすのであれば、最低限、顔検出処理部の顔検出結果だけを送信する形態であってもよい。あるいは、特徴点抽出部が出力するだけを送信する形態であってもよい。顔検出結果または特徴点データだけの構成であっても、図13B、図13C及び図14にて説明した安否確認処理は実行できる。
(4)また、鏡型端末104は、独居者102の顔画像から特徴点データとエンゲージメント値と脈拍データを取得したが、独居者102の健康状態を監視する、という目的を満たすのであれば、エンゲージメント値を省略してもよい。
(3) The mirror-
(4) Further, the mirror-
(5)更に、鏡型端末104は、血圧計や活動量計等、他の生体情報測定装置からBlueTooth(登録商標)等の近距離無線通信を利用して独居者102の生体情報を収集して、特徴点データとエンゲージメント値と脈拍データと併せてサーバ107へ送信してもよい。
(6)鏡型端末104にマイクを接続し、IP電話機能を備えて、安否確認の際に独居者102が別居家族105と通話できるように構成してもよい。
(7)上述の実施形態では、表情推定部905をサーバ107に設けていた。画像マッチング処理の応用でもある表情推定処理は、計算機の演算処理としてはかなり重い部類である。しかし、鏡型端末104の情報処理部304の演算能力が十分高速であり、また表情推定処理に必要な計算機リソースが低減できれば、鏡型端末104に表情推定部905を設けてもよい。
(5) Furthermore, the mirror-
(6) A microphone may be connected to the mirror-
(7) In the above-described embodiment, the facial
(8)また、学習アルゴリズムを用いる表情推定処理は、主に特徴量の演算処理に計算機のリソースが必要となる。そこで、サーバ側で特徴量を作成し、サーバが作成した特徴量を鏡型端末がサーバからダウンロードして、鏡型端末は表情推定処理のみを行う、とすることで、鏡型端末で実用的な速度及び精度の表情推定処理が実現できる。
図15は、変形例としてのサーバ1501のソフトウェア機能を示すブロック図である。
図15に示すサーバ1501の、図9に示したサーバ107との相違点は、表情推定部905の代わりに表情学習部1502と特徴量1503が設けられている点である。
入出力制御部901は、鏡型端末1601(図16参照)から受信したデータに含まれている特徴点データを、表情学習部1502に引き渡す。表情学習部1502は、公知の畳み込みニューラルネットワーク等に代表される、画像認識に好適な学習アルゴリズム(ディープラーニング)を用いて、特徴点データから独居者102の表情を推定ための特徴量1503を作成し、更新する。
特徴量1503は、更新される度に鏡型端末1601がサーバ1501からダウンロードされる。
(8) In addition, facial expression estimation processing using a learning algorithm requires computer resources mainly for feature amount calculation processing. Therefore, a feature value is created on the server side, and the mirror type terminal downloads the feature value created by the server from the server, and the mirror type terminal performs only the facial expression estimation process. Can realize facial expression estimation processing with high speed and accuracy.
FIG. 15 is a block diagram illustrating software functions of the
The
The input /
Each time the
図16は、変形例としての鏡型端末1601のソフトウェア機能を示すブロック図である。
図16に示す鏡型端末1601の、図5に示した鏡型端末104との相違点は、特徴量1503と表情推定部1602が設けられている点である。
表情推定部1602は、特徴点抽出部502が出力する特徴点データを読み込み、サーバ1501からダウンロードした特徴量1503を参照して、独居者102の表情を推定する。入出力制御部507は、特徴点データ、エンゲージメント値、脈拍データ、表情推定結果、現在日時情報、監視対象ID情報、監視者ID情報をメッセージとして形成した後、サーバ1501のFQDNを用いてサーバ1501にアクセスする。そして、認証情報を用いてサーバ1501から認証を得てから、メッセージから生成した送信パケットをサーバ1501へ送信する。
FIG. 16 is a block diagram illustrating software functions of a mirror-
The
The facial expression estimation unit 1602 reads the feature point data output from the feature
本実施形態においては、独居者監視システム101を開示した。
鏡型端末104は、独居者102の顔を撮像装置412で撮影すると、特徴点データとエンゲージメント値と脈拍データを取得する。そして、サーバ107を通じて別居家族105の携帯型無線端末108に向けて、これらのデータを送信する。サーバ107は鏡型端末104から特徴点データとエンゲージメント値と脈拍データを受信すると、特徴点データから独居者102の表情を推定し、表情推定結果を特徴点データとエンゲージメント値と脈拍データと共に携帯型無線端末108に送信する。この作業を一日一回、予め設定した監視時間帯か、あるいは時間指定なくいつでも独居者102に実行させる。監視時間帯に独居者102の顔撮影動作がなかった場合、携帯型無線端末108またはサーバ107は異常状態であると認識し、鏡型端末104へアラームを送信する。独居者102が健常状態であれば、アラームを受信した鏡型端末104のLED点滅とアラーム音鳴動によって、独居者102は鏡型端末104を覗き込む。こうすることで、独居者102の安否を確認することができる。
In this embodiment, the single
The mirror-
本実施形態における鏡型端末104の演算処理は従来と比べて極めて軽い。更に、独居者監視システム101が送信するデータは、極めてデータ容量が少ない特徴点データとエンゲージメント値と脈拍データである。したがって、独居者監視システム101がインターネット106に流すデータ量は極めて少ない。
画像データそのものを送信するような従来技術とは異なり、画像データを常時送信せず、代わりにデータ量が極めて少ない特徴点データを送信するため、インターネット106上における独居者102のプライバシーを高度に秘匿することができる。仮にタッピング(Tapping:ネットワーク上における盗聴行為)されても、特徴点データだけでは独居者102を特定することが不可能である。
更に、鏡型端末104及び携帯型無線端末108において送受信するデータ量が少ない、ということは、通信に要するコストが安価に済む。
The arithmetic processing of the
Unlike conventional technology that transmits image data itself, image data is not always transmitted, but instead feature point data with a very small amount of data is transmitted, so that the privacy of a
Furthermore, the fact that the amount of data transmitted and received in the
以上、本発明の実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、特許請求の範囲に記載した本発明の要旨を逸脱しない限りにおいて、他の変形例、応用例を含む。
例えば、上記した実施形態は本発明をわかりやすく説明するために装置及びシステムの構成を詳細かつ具体的に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることは可能であり、更にはある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることも可能である。
The embodiments of the present invention have been described above. However, the present invention is not limited to the above-described embodiments, and other modifications and application examples are provided without departing from the gist of the present invention described in the claims. including.
For example, the above-described embodiment is a detailed and specific description of the configuration of the apparatus and the system in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to one having all the configurations described. Further, a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment. Moreover, it is also possible to add, delete, and replace other configurations for a part of the configuration of each embodiment.
また、上記の各構成、機能、処理部等は、それらの一部又は全部を、例えば集積回路で設計するなどによりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行するためのソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の揮発性あるいは不揮発性のストレージ、または、ICカード、光ディスク等の記録媒体に保持することができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしもすべての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
Each of the above-described configurations, functions, processing units, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit. Further, each of the above-described configurations, functions, and the like may be realized by software for interpreting and executing a program that realizes each function by the processor. Information such as programs, tables, and files that realize each function must be held in a volatile or non-volatile storage such as a memory, hard disk, or SSD (Solid State Drive), or a recording medium such as an IC card or an optical disk. Can do.
In addition, the control lines and information lines are those that are considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other.
101…独居者監視システム、102…独居者、103…居宅、104…鏡型端末、105…別居家族、106…インターネット、107…サーバ、108…携帯型無線端末、201…鏡面部、202…支持体、203…押釦スイッチ、301…天板、302…ハーフミラーフィルム、303…フレーム、304…情報処理部、401…CPU、402…ROM、403…RAM、404…不揮発性ストレージ、405…RTC、406…無線LANインターフェース、407…無線通信部、408…バス、409…シリアルインターフェース、410…LED、411…スピーカ、412…撮像装置、501…顔検出処理部、502…特徴点抽出部、503…ベクトル解析部、504…エンゲージメント算出部、505…脈拍検出領域抽出部、506…脈拍算出部、507…入出力制御部、508…サーバアクセス情報、509…インターフェース選択部、601…被撮影者、801…CPU、802…ROM、803…RAM、804…不揮発性ストレージ、805…RTC、806…NIC、807…バス、901…入出力制御部、902…認証処理部、903…ユーザマスタ、904…ログテーブル、905…表情推定部、1101…CPU、1102…ROM、1103…RAM、1104…表示部、1105…操作部、1106…不揮発性ストレージ、1107…RTC、1109…無線通信部、1110…バス、1201…入出力制御部、1202…サーバアクセス情報、1203…インターフェース選択部、1204…ログテーブル、1205…アラーム送信処理部
DESCRIPTION OF
Claims (8)
前記鏡型端末から前記所定のデータを受信するサーバと、
前記サーバから転送された、前記鏡型端末が出力したデータを受信する監視用端末と
よりなる独居者監視システムであり、
前記鏡型端末は、
監視対象者の顔を映すことが可能な鏡と、
前記鏡に組み込まれ、前記監視対象者の顔を撮影して画像データを出力する撮像装置と、
前記画像データに含まれる前記監視対象者の顔を検出する顔検出処理部と、
前記顔検出処理部が出力する、前記監視対象者の顔を抽出した顔抽出画像データから顔の特徴点よりなる特徴点データを生成する特徴点抽出部と、
ネットワークに接続され、前記特徴点データを前記サーバを経由して監視用端末へ送信する入出力制御部と
を具備し、
前記サーバは、
前記ネットワークを通じて前記鏡型端末及び前記監視用端末と接続され、前記鏡型端末から送信される前記特徴点データを前記監視用端末へ転送する入出力制御部と
を具備し、
前記監視用端末は、
前記サーバから転送された前記特徴点データを受信する入出力制御部と、
前記特徴点データを表示する表示部と
を具備する、独居者監視システム。 A mirror-type terminal that captures the face of the person being monitored and outputs predetermined data;
A server that receives the predetermined data from the mirror terminal;
A single person monitoring system comprising a monitoring terminal that receives data output from the mirror type terminal and transferred from the server;
The mirror type terminal is
A mirror that can reflect the face of the person being monitored,
An imaging device that is incorporated in the mirror and captures the face of the person to be monitored and outputs image data;
A face detection processing unit for detecting the face of the monitoring subject included in the image data;
A feature point extracting unit that generates feature point data including face feature points from the face extraction image data obtained by extracting the face of the monitoring target, output by the face detection processing unit;
An input / output control unit connected to a network and transmitting the feature point data to the monitoring terminal via the server;
The server
An input / output control unit that is connected to the mirror terminal and the monitoring terminal through the network and transfers the feature point data transmitted from the mirror terminal to the monitoring terminal;
The monitoring terminal is:
An input / output control unit for receiving the feature point data transferred from the server;
A single person monitoring system comprising a display unit for displaying the feature point data.
前記特徴点データに基づいて、前記顔抽出画像データに含まれる、前記監視対象者の顔の一部に相当する画像データの切り出しを実行して、得られた部分画像データを出力する脈拍検出領域抽出部と、
前記部分画像データの、特定の色成分の輝度の時間軸上の変動量から前記監視対象者の脈拍を算出する脈拍算出部と
を具備し、
前記鏡型端末の前記入出力制御部は、前記特徴点データに加え、前記脈拍算出部が出力する脈拍データを前記サーバを経由して前記監視用端末へ送信するものであり、
前記監視用端末の入出力制御部は、前記サーバから転送された前記特徴点データに加え、前記脈拍データを受信するものであり、
前記監視用端末の表示部は、前記特徴点データに加え、前記脈拍データを表示するものである、
請求項1に記載の独居者監視システム。 The mirror type terminal further includes
Based on the feature point data, a pulse detection region that performs extraction of image data corresponding to a part of the face of the monitoring subject included in the face extraction image data and outputs the obtained partial image data An extractor;
A pulse calculation unit that calculates the pulse of the monitoring subject from the amount of variation on the time axis of the luminance of the specific color component of the partial image data;
The input / output control unit of the mirror type terminal transmits the pulse data output from the pulse calculation unit to the monitoring terminal via the server, in addition to the feature point data.
The input / output control unit of the monitoring terminal receives the pulse data in addition to the feature point data transferred from the server,
The display unit of the monitoring terminal displays the pulse data in addition to the feature point data.
The single person monitoring system according to claim 1.
前記鏡型端末から送信される前記特徴点データに基づき、前記監視対象者の表情を推定する表情推定部と
を具備し、
前記監視用端末の入出力制御部は、前記サーバから転送された前記特徴点データと前記脈拍データに加え、前記表情推定部が出力した表情推定結果を受信するものであり、
前記監視用端末の表示部は、前記特徴点データと前記脈拍データに加え、前記表情推定結果を表示するものである、
請求項2に記載の独居者監視システム。 The server further includes:
A facial expression estimation unit that estimates the facial expression of the person to be monitored based on the feature point data transmitted from the mirror-type terminal;
The input / output control unit of the monitoring terminal receives the facial expression estimation result output by the facial expression estimation unit in addition to the feature point data and the pulse data transferred from the server,
The display unit of the monitoring terminal displays the facial expression estimation result in addition to the feature point data and the pulse data.
The single person monitoring system according to claim 2.
前記特徴点データから、前記監視対象者の顔の向きを示す顔方向ベクトルと、前記監視対象者の顔における視線の向きを示す視線方向ベクトルを生成する、ベクトル解析部と、
前記顔方向ベクトルと前記視線方向ベクトルを加算して、前記監視対象者が3次元空間内の何処を注視しているのかを示す注視方向ベクトルを算出し、前記注視方向ベクトルが所定の事象に向いているのか否かを判定し、判定結果の移動平均を算出してエンゲージメント値を出力する、エンゲージメント算出部と
を具備し、
前記鏡型端末の前記入出力制御部は、前記特徴点データ及び前記脈拍データに加え、前記エンゲージメント算出部が出力する前記エンゲージメント値を前記サーバを経由して前記監視用端末へ送信するものであり、
前記監視用端末の入出力制御部は、前記サーバから転送された前記特徴点データと前記脈拍データに加え、前記エンゲージメント値を受信するものであり、
前記監視用端末の表示部は、前記特徴点データと前記脈拍データに加え、前記エンゲージメント値を表示するものである、
請求項2に記載の独居者監視システム。 The mirror type terminal further includes
A vector analysis unit for generating a face direction vector indicating a direction of the face of the monitoring target person and a line-of-sight direction vector indicating the direction of the line of sight of the face of the monitoring target person from the feature point data;
The face direction vector and the line-of-sight direction vector are added to calculate a gaze direction vector indicating where in the three-dimensional space the target person is gazing, and the gaze direction vector is suitable for a predetermined event. An engagement calculating unit that calculates a moving average of the determination results and outputs an engagement value.
The input / output control unit of the mirror type terminal transmits the engagement value output from the engagement calculation unit to the monitoring terminal via the server in addition to the feature point data and the pulse data. ,
The input / output controller of the monitoring terminal receives the engagement value in addition to the feature point data and the pulse data transferred from the server,
In addition to the feature point data and the pulse data, the display unit of the monitoring terminal displays the engagement value.
The single person monitoring system according to claim 2.
前記鏡に組み込まれ、前記監視対象者の顔を撮影して画像データを出力する撮像装置と、
前記画像データに含まれる前記監視対象者の顔を検出する顔検出処理部と、
前記顔検出処理部が出力する、前記監視対象者の顔を抽出した顔抽出画像データから顔の特徴点よりなる特徴点データを生成する特徴点抽出部と、
ネットワークに接続され、前記特徴点データを所定の監視用端末へ送信する入出力制御部と
を具備する鏡型端末。 A mirror that can reflect the face of the person being monitored,
An imaging device that is incorporated in the mirror and captures the face of the person to be monitored and outputs image data;
A face detection processing unit for detecting the face of the monitoring subject included in the image data;
A feature point extracting unit that generates feature point data including face feature points from the face extraction image data obtained by extracting the face of the monitoring target, output by the face detection processing unit;
A mirror-type terminal that is connected to a network and includes an input / output control unit that transmits the feature point data to a predetermined monitoring terminal.
前記特徴点データに基づいて、前記顔抽出画像データに含まれる、前記監視対象者の顔の一部に相当する画像データの切り出しを実行して、得られた部分画像データを出力する脈拍検出領域抽出部と、
前記部分画像データの、特定の色成分の輝度の時間軸上の変動量から前記監視対象者の脈拍を算出する脈拍算出部と
を具備し、
前記入出力制御部は、前記特徴点データに加え、前記脈拍算出部が出力する脈拍データを前記監視用端末へ送信するものである、
請求項5に記載の鏡型端末。 Furthermore,
Based on the feature point data, a pulse detection region that performs extraction of image data corresponding to a part of the face of the monitoring subject included in the face extraction image data and outputs the obtained partial image data An extractor;
A pulse calculation unit that calculates the pulse of the monitoring subject from the amount of variation on the time axis of the luminance of the specific color component of the partial image data;
The input / output control unit transmits pulse data output from the pulse calculation unit to the monitoring terminal in addition to the feature point data.
The mirror type terminal according to claim 5.
前記特徴点データに基づき、前記監視対象者の表情を推定する表情推定部と
を具備し、
前記入出力制御部は、前記特徴点データ及び前記脈拍データに加え、前記表情推定部が出力する表情推定結果を前記監視用端末へ送信するものである、
請求項6に記載の鏡型端末。 Furthermore,
A facial expression estimation unit that estimates the facial expression of the monitoring subject based on the feature point data;
The input / output control unit transmits the facial expression estimation result output from the facial expression estimation unit to the monitoring terminal in addition to the feature point data and the pulse data.
The mirror type terminal according to claim 6.
前記特徴点データから、前記監視対象者の顔の向きを示す顔方向ベクトルと、前記監視対象者の顔における視線の向きを示す視線方向ベクトルを生成する、ベクトル解析部と、
前記顔方向ベクトルと前記視線方向ベクトルを加算して、前記監視対象者が3次元空間内の何処を注視しているのかを示す注視方向ベクトルを算出し、前記注視方向ベクトルが所定の事象に向いているのか否かを判定し、判定結果の移動平均を算出してエンゲージメント値を出力する、エンゲージメント算出部と
を具備し、
前記入出力制御部は、前記特徴点データ及び前記脈拍データに加え、前記エンゲージメント算出部が出力する前記エンゲージメント値を前記監視用端末へ送信するものである、
請求項6に記載の鏡型端末。
Furthermore,
A vector analysis unit for generating a face direction vector indicating a direction of the face of the monitoring target person and a line-of-sight direction vector indicating the direction of the line of sight of the face of the monitoring target person from the feature point data;
The face direction vector and the line-of-sight direction vector are added to calculate a gaze direction vector indicating where in the three-dimensional space the target person is gazing, and the gaze direction vector is suitable for a predetermined event. An engagement calculating unit that calculates a moving average of the determination results and outputs an engagement value.
The input / output control unit transmits the engagement value output by the engagement calculation unit to the monitoring terminal in addition to the feature point data and the pulse data.
The mirror type terminal according to claim 6.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017042410A JP2018147278A (en) | 2017-03-07 | 2017-03-07 | Solitary monitor system and mirror-like terminal |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017042410A JP2018147278A (en) | 2017-03-07 | 2017-03-07 | Solitary monitor system and mirror-like terminal |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018147278A true JP2018147278A (en) | 2018-09-20 |
Family
ID=63588843
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017042410A Pending JP2018147278A (en) | 2017-03-07 | 2017-03-07 | Solitary monitor system and mirror-like terminal |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018147278A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102198360B1 (en) * | 2019-10-24 | 2021-01-04 | 광운대학교 산학협력단 | Eye tracking system and method based on face images |
-
2017
- 2017-03-07 JP JP2017042410A patent/JP2018147278A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102198360B1 (en) * | 2019-10-24 | 2021-01-04 | 광운대학교 산학협력단 | Eye tracking system and method based on face images |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Cristani et al. | The visual social distancing problem | |
KR101803081B1 (en) | Robot for store management | |
KR102553190B1 (en) | Automatic control of wearable display device based on external conditions | |
JP7229174B2 (en) | Person identification system and method | |
US9390561B2 (en) | Personal holographic billboard | |
JP2017527036A (en) | System and method for using eye signals in secure mobile communications | |
US20100060713A1 (en) | System and Method for Enhancing Noverbal Aspects of Communication | |
CN109446947A (en) | The face recognition of enhancing in video | |
JP2015002477A (en) | Information processing apparatus, information processing system, and information processing method | |
CN102902704B (en) | Message processing device, phrase output | |
US20160234461A1 (en) | Terminal, system, display method, and recording medium storing a display program | |
CN111444982A (en) | Information processing method and device, electronic equipment and readable storage medium | |
Khanal et al. | Using emotion recognition in intelligent interface design for elderly care | |
US20180160960A1 (en) | Information processing system and information processing method | |
JP2019175108A (en) | Emotional information management server device, emotional information management method, program, terminal device, and information communication system | |
US20160261826A1 (en) | Terminal, system, display method, and recording medium storing a display program | |
JP2018147278A (en) | Solitary monitor system and mirror-like terminal | |
Heo et al. | Nonwearable gaze tracking system for controlling home appliance | |
JP7266984B2 (en) | Server equipment | |
JP2020130528A (en) | Emotion estimation device, emotion estimation method, program, and emotion estimation system | |
Li et al. | A smart eye tracking system for virtual reality | |
Fuchs et al. | SmartLobby: Using a 24/7 remote head-eye-tracking for content personalization | |
US20160295165A1 (en) | Apparatus, system, and method of managing remote communication, and recording medium storing a remote communication management program | |
JP2017091210A (en) | Sight line retention degree calculation system, sight line retention degree calculation method, and sight line retention degree calculation program | |
CN114766027A (en) | Information processing method, information processing apparatus, and control program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20200129 |