JP2018013929A - Wake-up monitoring device - Google Patents

Wake-up monitoring device Download PDF

Info

Publication number
JP2018013929A
JP2018013929A JP2016142689A JP2016142689A JP2018013929A JP 2018013929 A JP2018013929 A JP 2018013929A JP 2016142689 A JP2016142689 A JP 2016142689A JP 2016142689 A JP2016142689 A JP 2016142689A JP 2018013929 A JP2018013929 A JP 2018013929A
Authority
JP
Japan
Prior art keywords
face
wake
elderly person
subject
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2016142689A
Other languages
Japanese (ja)
Inventor
幹夫 岡崎
Mikio Okazaki
幹夫 岡崎
村山 正美
Masami Murayama
正美 村山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GAIA SYSTEM SOLUTIONS Inc
Original Assignee
GAIA SYSTEM SOLUTIONS Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GAIA SYSTEM SOLUTIONS Inc filed Critical GAIA SYSTEM SOLUTIONS Inc
Priority to JP2016142689A priority Critical patent/JP2018013929A/en
Publication of JP2018013929A publication Critical patent/JP2018013929A/en
Ceased legal-status Critical Current

Links

Images

Landscapes

  • Alarm Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Emergency Alarm Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a wake-up monitoring device that is light in calculation processing as light as it can excellently operate on a low resource device, causes light traffic on a network, and can be constructed at low cost.SOLUTION: A wake-up monitoring device 104 is placed at a position where it can photograph an elderly person's face in a state where the elderly person, a subject, wakes up. When the elderly person wakes up, the device detects a face direction vector and a line of sight direction vector of the elderly person from an image data stream output from the imaging device, and transmits an email and/or SNS message of a warning message to a smart phone of an employee in charge of monitoring if it determines that the elderly person is opening their eyes.SELECTED DRAWING: Figure 4

Description

本発明は、特に高齢者の徘徊予防に好適な、起床監視装置に関する。   The present invention relates to a wake-up monitoring device particularly suitable for preventing wrinkles of elderly people.

我が国が高齢化社会を迎えていることは周知の事実である。そして、高齢者が深夜に徘徊して、交通事故等に巻き込まれる事件が多発し、社会問題となっている。このような背景のもと、高齢者を監視し、必要に応じて保護するサービスとして、いわゆる「見守りサービス」という言葉が用いられ、このための様々な高齢者監視システムが提案されている。   It is a well-known fact that Japan is facing an aging society. In addition, there are many incidents involving elderly people in the middle of the night and involved in traffic accidents, which is a social problem. Against this background, the term “watching service” is used as a service for monitoring the elderly and protecting them when necessary, and various elderly monitoring systems have been proposed for this purpose.

本発明に一部が関係すると思われる技術内容を先行技術文献として挙げる。
特許文献1には、顔認証照合装置を用いて、徘徊する虞がある保護対象者を効果的に保護する、徘徊防止システムが開示されている。
The technical contents that are considered to be partially related to the present invention are listed as prior art documents.
Patent Document 1 discloses a wrinkle prevention system that effectively protects a person to be protected who has a risk of wandering using a face authentication collation apparatus.

特開2016−110308号公報Japanese Patent Laid-Open No. 2006-110308

上述の、特許文献1に開示される技術は、予め監視対象となる高齢者の顔をシステムに登録する必要がある。また、この技術では、顔認証に要する演算処理は膨大になるため、システム全体のコスト増の要因にもなっている。
そこで、今後の「見守りサービス」を実行する上で、組み込み用途のマイコン等の低資源装置を利用するシステムの登場が期待されており、これを実現するため、演算処理能力が乏しいハードウェアでも実現可能な、演算処理の負荷が軽いソフトウェアを用いた高齢者監視システムが求められている。
The technique disclosed in Patent Document 1 described above needs to register the face of an elderly person to be monitored in advance in the system. In addition, with this technique, the computation processing required for face authentication becomes enormous, which is a factor in increasing the cost of the entire system.
Therefore, it is expected that a system using a low-resource device such as a microcomputer for embedded applications will be used in the future “monitoring service”. To realize this, it will be realized even with hardware that has poor computing power. There is a need for an elderly monitoring system that uses software that has a light processing load.

本発明はかかる課題に鑑みてなされたものであり、本発明の目的は、演算処理の負荷が軽く、低価格な低資源装置で実現可能であり、高齢者の就寝時における「見守りサービス」として利用することができる、起床監視装置を提供することにある。   The present invention has been made in view of such problems, and the object of the present invention is to realize a low-cost low-resource device that is light in arithmetic processing and can be realized as a “watching service” when an elderly person goes to bed. The object is to provide a wake-up monitoring device that can be used.

上記課題を解決するために、本発明の起床監視装置は、近赤外線に照らされる被撮影者の顔を撮影可能な撮像装置と、撮像装置から出力される画像データストリームから被撮影者の顔の存在を検出し、被撮影者の顔を抽出した顔抽出画像データを出力する顔検出処理部と、顔抽出画像データから、被撮影者の顔の輪郭を含む、二次元空間内における座標情報を有する特徴点の集合体である特徴点データを出力する特徴点抽出部とを具備する。更に、特徴点データから、被撮影者の顔の向きを示す顔方向ベクトルと、被撮影者の顔における視線の向きを示す視線方向ベクトルを生成する、ベクトル解析部と、顔方向ベクトルと視線方向ベクトルが共に有効である場合に、被撮影者が目を開けた状態であると判定する目瞑り判定部と、目瞑り判定部が、被撮影者が目を開けた状態であると判定した判定出力結果に呼応して、警告メッセージを作成し、所定の機器に送信する警告送信部とを具備する。   In order to solve the above-described problems, the wake-up monitoring device of the present invention includes an imaging device capable of capturing a face of a subject illuminated by near infrared rays, and an image data stream output from the imaging device. A face detection processing unit that detects presence and outputs face-extracted image data obtained by extracting the face of the subject, and coordinate information in the two-dimensional space including the contour of the face of the subject from the face-extracted image data. And a feature point extraction unit that outputs feature point data that is a collection of feature points. Furthermore, a vector analysis unit that generates a face direction vector indicating the direction of the face of the subject and a line-of-sight direction vector indicating the direction of the line of sight on the face of the subject from the feature point data, the face direction vector and the direction of the line of sight When the vector is both valid, the eye-meditation determination unit that determines that the subject is in an open state and the eye-meditation determination unit determines that the subject is in an open state In response to the output result, a warning message is generated and transmitted to a predetermined device.

本発明によれば、演算処理の負荷が軽く、低価格な低資源装置で実現可能であり、高齢者の就寝時における「見守りサービス」として利用することが可能な、起床監視装置を提供することができる。
上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
According to the present invention, there is provided a wake-up monitoring device that can be implemented with a low-resource device that is light in arithmetic processing and low in cost, and that can be used as a “watching service” when an elderly person goes to bed. Can do.
Problems, configurations, and effects other than those described above will be clarified by the following description of embodiments.

本発明の実施形態に係る起床監視装置の実施態様を示す概略図である。It is the schematic which shows the embodiment of the wake-up monitoring apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る起床監視装置を含む、高齢者監視システムの全体像を示す概略図である。It is the schematic which shows the whole image of an elderly person monitoring system including the wake-up monitoring apparatus which concerns on embodiment of this invention. 起床監視装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the wake-up monitoring apparatus. 起床監視装置のソフトウェア機能を示すブロック図である。It is a block diagram which shows the software function of the wake-up monitoring apparatus. 撮像装置から出力される画像データストリームの一例を示す概略図と、顔検出処理部が出力する顔抽出画像データの一例を示す概略図と、特徴点抽出部が出力する特徴点データの一例を示す概略図である。Schematic diagram showing an example of an image data stream output from the imaging device, schematic diagram showing an example of face extraction image data output by the face detection processing unit, and an example of feature point data output by the feature point extraction unit FIG. 被写体が目を開けている状態における特徴点データの例と、被写体が目を閉じている状態における特徴点データの例を示す図である。It is a figure which shows the example of the feature point data in the state in which the subject has opened eyes, and the example of the feature point data in the state in which the subject has closed eyes.

出願人は、コンテンツを視聴するユーザをカメラで撮影し、ユーザの顔の向き及び視線の向きから集中度を算出する、集中度処理システムを開発している(特願2016−124611)。
集中度処理システムは、ユーザの顔をカメラで撮影し、ユーザの顔と視線の向きを検出し、それらの向きがコンテンツを表示するディスプレイにどの程度向いているかを測定することで、ユーザのコンテンツに対する集中度を算出する。この時、集中度処理システムは、カメラで撮影したユーザの顔の画像から、ユーザの顔の向きと、ユーザの視線の向きをそれぞれベクトルデータとして生成する。
The applicant has developed a concentration processing system that takes a user who views content with a camera and calculates a concentration based on the direction of the user's face and line of sight (Japanese Patent Application No. 2006-124611).
The concentration processing system captures the user's content by photographing the user's face with a camera, detecting the orientation of the user's face and line of sight, and measuring how much the orientation is directed to the display that displays the content. The degree of concentration with respect to is calculated. At this time, the concentration processing system generates the user's face direction and the user's line-of-sight direction as vector data from the user's face image captured by the camera.

発明者は、この先に出願した上記集中度処理システムが、高齢者の監視用システムに応用できることに注目した。すなわち、監視対象である高齢者が就寝するベッドまたは布団に対し、高齢者が就寝する状態では高齢者の顔が見えず、高齢者が起床した状態では高齢者の顔が見える位置に、上記集中度処理システムを配置する。すると、この集中度処理システムが高齢者の起床監視装置としての役割を果たすことになる。この起床監視装置は、集中度処理システムの機能縮小版とも呼べるものであり、高齢者が就寝するベッドまたは布団を、高齢者の足の方向から高齢者に向けて配置される。   The inventor paid attention to the fact that the above-mentioned concentration processing system filed earlier can be applied to a monitoring system for elderly people. That is, for the bed or bedding on which the elderly person who is to be monitored sleeps, the above-mentioned concentration is performed at a position where the elderly person's face cannot be seen when the elderly person sleeps and the elderly person's face is visible when the elderly person gets up Deploy degree processing system. Then, this concentration processing system plays a role as an elderly person's wake-up monitoring device. This wake-up monitoring device can also be called a reduced function version of the concentration processing system, and a bed or a futon on which an elderly person goes to sleep is arranged from the direction of the elderly person's feet toward the elderly person.

この状態で、近赤外線LED照明装置で部屋を照らし、高齢者の顔の向きを示すベクトルデータが得られれば、高齢者が起床したか否かの確認をすることができる。更に、高齢者の視線の向きを示すベクトルデータが得られれば、高齢者は目を開けた状態であると推測することもできる。   In this state, if the near infrared LED lighting device illuminates the room and vector data indicating the face direction of the elderly person is obtained, it can be confirmed whether or not the elderly person has woken up. Furthermore, if vector data indicating the direction of gaze of an elderly person is obtained, it can be estimated that the elderly person is in an open state.

[設置稼働例]
図1は、本発明の実施形態に係る起床監視装置104を所定の施設に設置し稼働させた状態を示す概略図である。
老人ホームや病院等の高齢者施設101において、高齢者102が所定の部屋103で就寝する。この部屋103には、本発明の実施形態に係る起床監視装置104が複数台設置されている。起床監視装置104は、図3にて後述する撮像装置308と、図4以降にて後述する起床判定機能を備える。
また、部屋103の壁には近赤外線LED照明装置105が設置され、高齢者102たちが就寝する状態において、部屋103の照明が消灯されると近赤外線LED照明装置105が点灯し、就寝している高齢者102たちを照らす。言うまでもなく、近赤外線は肉眼では見えないので、高齢者102たちの就寝を妨げない。
[Installation operation example]
FIG. 1 is a schematic view showing a state in which a wake-up monitoring device 104 according to an embodiment of the present invention is installed and operated in a predetermined facility.
An elderly person 102 goes to bed in a predetermined room 103 at an elderly person facility 101 such as a nursing home or a hospital. In this room 103, a plurality of wake-up monitoring devices 104 according to the embodiment of the present invention are installed. The wake-up monitoring device 104 includes an imaging device 308, which will be described later with reference to FIG. 3, and a wake-up determination function, which will be described later with reference to FIG.
In addition, a near infrared LED illumination device 105 is installed on the wall of the room 103. When the elderly people 102 go to sleep, when the illumination of the room 103 is turned off, the near infrared LED illumination device 105 is turned on and goes to sleep. Illuminate the elderly 102. Needless to say, near-infrared light cannot be seen with the naked eye, so it does not prevent the elderly 102 from going to bed.

起床監視装置104は、部屋103の壁に設置され、ほぼ真横に向けられている。高齢者102がベッドにて就寝する状態では、起床監視装置104は被撮影者である高齢者102の顔を捉えることができない。高齢者102がベッドから起床した状態になると、起床監視装置104は高齢者102の顔を捉えることができる。   The wake-up monitoring device 104 is installed on the wall of the room 103 and is directed almost to the side. In the state where the elderly person 102 goes to bed, the wake-up monitoring device 104 cannot capture the face of the elderly person 102 who is the subject. When the elderly person 102 gets up from the bed, the wake-up monitoring device 104 can capture the face of the elderly person 102.

本発明の実施形態に係る起床監視装置104は、既存の監視カメラ107とは大きく異なり、通常の設定では、動画像データを生成したり、動画像データを所定のホストに向けて送信するような動作は行わない。監視対象となる高齢者102達が静かに就寝している状態では、何の警告メッセージや画像等の情報を外部には送信しない。高齢者102が起床すると、起床監視装置104はこれを検出し、警告メッセージの生成と、警告メッセージを含む電子メールの送信を行う。   The wake-up monitoring device 104 according to the embodiment of the present invention is significantly different from the existing monitoring camera 107, and in normal settings, it generates moving image data or transmits moving image data to a predetermined host. No action is taken. When the elderly people 102 to be monitored are sleeping quietly, no warning message, information such as an image is transmitted to the outside. When the elderly person 102 gets up, the wake-up monitoring device 104 detects this, generates a warning message, and transmits an e-mail containing the warning message.

起床監視装置104は、起床した高齢者102の顔を捉えると、監視対象の高齢者102が起床した可能性がある旨を示す「警告」メッセージを含む電子メールを、無線LANルータ106等を通じて、インターネットに接続されているメールサーバに向けて送信する。電子メールはナースステーション108に詰めている職員109のスマートフォン110が受信する。スマートフォン110が電子メールを受信する際に所定のメール着信音を発音することで、スマートフォン110を携帯する職員109は、高齢者102が起床し、徘徊する可能性が高いことを知ることができる。   When the wake-up monitoring device 104 captures the face of the elderly person 102 who gets up, an e-mail including a “warning” message indicating that the elderly person 102 to be monitored may have woken up is transmitted through the wireless LAN router 106 or the like. Send to a mail server connected to the Internet. The e-mail is received by the smartphone 110 of the staff member 109 packed in the nurse station 108. When the smartphone 110 receives the e-mail, the staff 109 carrying the smartphone 110 can know that the elderly person 102 is likely to wake up and hesitate.

起床監視装置104は、高齢者102が起床したことを検出して、警告メッセージを含む電子メールを作成する際、起床した高齢者102を撮影し、その静止画像データを電子メールに添付する。職員109は、電子メールに添付された画像をスマートフォン110のディスプレイで閲覧することで、どの高齢者102が起床したのかを確認することができる。また、職員109は、通常の監視カメラ107が徘徊する高齢者の姿をモニタ111に表示するより前に、起床監視装置104によって高齢者の起床を検出することができるので、高齢者の徘徊を見落とす可能性を大幅に下げることができる。   When the wake-up monitoring device 104 detects that the elderly person 102 has woken up and creates an e-mail including a warning message, the wake-up monitoring apparatus 104 photographs the elderly person 102 who has woken up and attaches the still image data to the e-mail. The staff member 109 can check which elderly person 102 got up by browsing the image attached to the e-mail on the display of the smartphone 110. In addition, the staff 109 can detect the elderly person's waking by the wake-up monitoring device 104 before displaying the figure of the elderly person who the ordinary monitoring camera 107 wrinkles on the monitor 111. The possibility of oversight can be greatly reduced.

[全体構成]
図2は、本発明の実施形態に係る起床監視装置104の概略構成を示す図である。
一台以上の起床監視装置104は、無線LANルータ106等によって、IPリーチャブルな状態である。すなわち、起床監視装置104はインターネット201に接続される。
起床監視装置104は、起床した高齢者102の顔を捉えると、監視対象の高齢者102が起床した可能性がある旨を示す「警告」メッセージを含む電子メールを、無線LANルータ106等を通じて、インターネット201に接続されているメールサーバ202に向けて送信する。このために、起床監視装置104には職員109のメールアドレスとメールサーバ202のFQDN(Full Qualified Domain Name:完全修飾ドメイン名)が記憶されている。職員109は、スマートフォン110によって、メールサーバ202から電子メールを受信することにより、高齢者102が起床した可能性が高いことを認識する。
[overall structure]
FIG. 2 is a diagram showing a schematic configuration of the wake-up monitoring device 104 according to the embodiment of the present invention.
One or more wake-up monitoring devices 104 are in an IP reachable state by the wireless LAN router 106 or the like. That is, the wake-up monitoring device 104 is connected to the Internet 201.
When the wake-up monitoring device 104 captures the face of the elderly person 102 who gets up, an e-mail including a “warning” message indicating that the elderly person 102 to be monitored may have woken up is transmitted through the wireless LAN router 106 or the like. Transmission is performed toward the mail server 202 connected to the Internet 201. For this purpose, the wake-up monitoring device 104 stores the mail address of the staff member 109 and the FQDN (Full Qualified Domain Name) of the mail server 202. The staff member 109 recognizes that the elderly person 102 is likely to wake up by receiving an e-mail from the mail server 202 by the smartphone 110.

なお、起床監視装置104が接続される無線LANルータ106等に簡易webサーバ機能を有するパソコンを接続して、電子メールに代えて、あるいは電子メールと共に、警告メッセージをパソコンのディスプレイに表示させるようにしてもよい。また、起床監視装置104とスマートフォン110にそれぞれP2P(Peer to Peer)アプリケーションをインストールし、起床監視装置104が直接スマートフォン110へメッセージを送信してもよい。すなわち、起床監視装置104がメッセージを送信する対象は、サーバに限らない。   In addition, a personal computer having a simple web server function is connected to the wireless LAN router 106 or the like to which the wake-up monitoring device 104 is connected, and a warning message is displayed on the personal computer display instead of or together with the electronic mail. May be. Further, a P2P (Peer to Peer) application may be installed in each of the wake-up monitoring device 104 and the smartphone 110, and the wake-up monitoring device 104 may directly transmit a message to the smartphone 110. That is, the target to which the wake-up monitoring device 104 transmits a message is not limited to the server.

[起床監視装置104:ハードウェア構成]
図3は、本発明の実施形態に係る起床監視装置104のハードウェア構成を示すブロック図である。
起床監視装置104は一般的なマイコンであり、CPU301、ROM302、RAM303、不揮発性ストレージ304、無線LANルータ106等に接続するための無線LANインターフェース305とNIC(Network Interface Card)306がバス307に接続されている。
そして、起床監視装置104において重要な役割を持つ撮像装置308もバス307に接続されている。撮像装置308は例えば市販のCMOSカメラである。CMOSカメラには近赤外線を検出できるものもあるので、そのような市販のCMOSカメラをそのまま本実施形態の起床監視装置104に使用することもできる。
不揮発性ストレージ304には、マイコンをネットワークに接続するための、TCP/IPプロトコルスタックを含むネットワークOSと、起床監視装置104として稼働させるためのプログラムが格納されている。
[Wake-up monitoring device 104: hardware configuration]
FIG. 3 is a block diagram showing a hardware configuration of the wake-up monitoring device 104 according to the embodiment of the present invention.
The wake-up monitoring device 104 is a general microcomputer, and a wireless LAN interface 305 and a NIC (Network Interface Card) 306 for connecting to a CPU 301, a ROM 302, a RAM 303, a nonvolatile storage 304, a wireless LAN router 106, and the like are connected to a bus 307. Has been.
An imaging device 308 having an important role in the wake-up monitoring device 104 is also connected to the bus 307. The imaging device 308 is a commercially available CMOS camera, for example. Since some CMOS cameras can detect near-infrared rays, such a commercially available CMOS camera can be used as it is in the wake-up monitoring device 104 of this embodiment.
The nonvolatile storage 304 stores a network OS including a TCP / IP protocol stack for connecting the microcomputer to the network and a program for operating as the wake-up monitoring device 104.

[起床監視装置104:ソフトウェア機能]
図4は、本発明の実施形態に係る起床監視装置104のソフトウェア機能を示すブロック図である。
撮像装置308から出力される画像データストリームは、顔検出処理部401に供給される。
顔検出処理部401は、撮像装置308から出力される画像データストリームを時間軸上で連続する静止画として捉え、この時間軸上で連続する静止画の各画像データに対し、例えばViola−Jones法等の周知のアルゴリズムを用いて、高齢者102の顔の存在を検出する。そして、高齢者102の顔だけを抽出した顔抽出画像データを出力する。
顔検出処理部401が出力する顔抽出画像データは、特徴点抽出部402に供給される。
特徴点抽出部402は、顔抽出画像データに含まれる高齢者102の顔の画像に、ポリゴン解析等の処理を施す。そして、高齢者102の顔全体、眉、目、鼻、口等の輪郭と、瞳を示す顔の特徴点よりなる特徴点データを生成する。特徴点データの詳細については図5で後述する。
[Wake-up monitoring device 104: Software function]
FIG. 4 is a block diagram illustrating software functions of the wakeup monitoring device 104 according to the embodiment of the present invention.
The image data stream output from the imaging device 308 is supplied to the face detection processing unit 401.
The face detection processing unit 401 regards the image data stream output from the imaging device 308 as a still image continuous on the time axis, and performs, for example, the Viola-Jones method on each image data of the still image continuous on the time axis. The presence of the face of the elderly person 102 is detected using a known algorithm such as the above. And the face extraction image data which extracted only the face of elderly person 102 is output.
The face extraction image data output by the face detection processing unit 401 is supplied to the feature point extraction unit 402.
The feature point extraction unit 402 performs processing such as polygon analysis on the face image of the elderly person 102 included in the face extraction image data. Then, feature point data including the entire face of the elderly person 102, the outlines of the eyebrows, eyes, nose, mouth, and the like and the feature points of the face indicating the pupil is generated. Details of the feature point data will be described later with reference to FIG.

特徴点抽出部402が出力する特徴点データは、ベクトル解析部403に供給される。
ベクトル解析部403は、連続する2枚の顔抽出画像データに基づく特徴点データから、高齢者102の顔の向きを示すベクトル(以下「顔方向ベクトル」)と、高齢者102の顔における、視線の向きを示すベクトル(以下「視線方向ベクトル」)を生成する。
なお、出願人が開発している集中度処理システムを実現する場合では、この後に顔方向ベクトルと視線方向ベクトルを加算して、最終的に高齢者102がコンテンツを表示するディスプレイと撮像装置308を含む3次元空間内の何処を注視しているのかを示す、注視方向ベクトルを算出して、最終的にユーザの注視方向がディスプレイに向いているのか否かを判定するが、本実施形態ではこのベクトル加算処理は行わない。
The feature point data output from the feature point extraction unit 402 is supplied to the vector analysis unit 403.
The vector analysis unit 403 obtains a vector indicating the orientation of the face of the elderly person 102 (hereinafter referred to as “face direction vector”) from the feature point data based on the two consecutive face extraction image data, and the line of sight of the face of the elderly person 102. A vector indicating the direction of the image (hereinafter referred to as a “gaze direction vector”) is generated.
In the case of realizing the concentration processing system developed by the applicant, the face direction vector and the line-of-sight direction vector are added after this, and the display for the elderly person 102 to display the content and the imaging device 308 are finally provided. The gaze direction vector that indicates where in the three-dimensional space including the gaze is calculated is calculated, and finally it is determined whether or not the gaze direction of the user is facing the display. Vector addition processing is not performed.

ベクトル解析部403が出力する顔方向ベクトルと視線方向ベクトルは、目瞑り判定部404に供給される。
目瞑り判定部404は、ベクトル解析部403から出力される顔方向ベクトルの有無と、視線ベクトルの有無を検出して、警告情報を作成する。警告情報は、顔方向ベクトルがなければ「安全(Safety)」、顔方向ベクトルはあるが、視線ベクトルがなければ「注意(Warning)」、顔方向ベクトルと視線ベクトルが共にあれば「危険(Emergency)」の3種類である。視線ベクトルが得られていないことは、目を閉じた状態であることを意味しており、ここでは、「注意」をする必要があるが、「危険」ではないと判断するようにしている。
The face direction vector and the line-of-sight direction vector output from the vector analysis unit 403 are supplied to the eye meditation determination unit 404.
The eye meditation determination unit 404 detects the presence / absence of the face direction vector output from the vector analysis unit 403 and the presence / absence of the line-of-sight vector, and creates warning information. The warning information is “Safety” if there is no face direction vector, “Warning” if there is a face direction vector but no gaze vector, and “Danger” if both the face direction vector and the gaze vector are present. ) ”. The fact that the line-of-sight vector is not obtained means that the eyes are closed. Here, it is necessary to be careful, but it is determined that it is not “dangerous”.

目瞑り判定部404が出力する警告情報は、警告送信部405に供給される。
警告送信部405は、目瞑り判定部404から「注意」または「危険」の警告情報を受信すると、撮像装置から出力される画像データストリームから、警告情報を受信した時点の静止画像データを取得する。
一方、警告送信情報406には、警告を送信するためのプロトコル(SMTP(Simple Mail Transfer Protocol)及び/またはHTTP(Hypertext Transfer Protocol))、警告が電子メールである場合には警告を送信する対象のメールアドレス、メールサーバ202のFQDN、警告がSNS(social networking service)等のwebメッセージである場合にはSNSを提供するwebサーバのFQDNまたはIPアドレス、SNSにおける職員109のアカウント情報等の情報が記憶されている。
The warning information output from the eye meditation determination unit 404 is supplied to the warning transmission unit 405.
When the warning transmission unit 405 receives the warning information “CAUTION” or “DANGER” from the eye meditation determination unit 404, the warning transmission unit 405 acquires still image data at the time of receiving the warning information from the image data stream output from the imaging device. .
On the other hand, the warning transmission information 406 includes a protocol for sending a warning (SMTP (Simple Mail Transfer Protocol) and / or HTTP (Hypertext Transfer Protocol)), and a warning transmission target if the warning is an e-mail. Stores information such as the mail address, FQDN of the mail server 202, and the FQDN or IP address of the web server that provides the SNS if the warning is a web message such as SNS (social networking service). Has been.

警告送信部405は、この警告送信情報406を参照して、警告情報に基づく警告メッセージを作成し、警告送信情報406に指定されたプロトコルにしたがって警告メッセージを出力する。すなわち、警告送信情報406に指定されたプロトコルが電子メール(SMTP)であれば、警告送信部405は電子メールクライアント(MUA:Mail User Agent)として動作する。同様に、警告送信情報406に指定されたプロトコルがweb(HTTP)であれば、警告送信部405はwebクライアントとして動作する。なお、警告送信部405がwebクライアントである場合は、SNSメッセージを投稿する対象となるSNSが独自に定めるプロトコルにも従う必要があり、そのための手順は警告送信情報406または警告送信部405に実装する必要がある。   The warning transmission unit 405 refers to the warning transmission information 406, creates a warning message based on the warning information, and outputs the warning message according to the protocol specified in the warning transmission information 406. That is, if the protocol specified in the warning transmission information 406 is electronic mail (SMTP), the warning transmission unit 405 operates as an electronic mail client (MUA: Mail User Agent). Similarly, if the protocol specified in the warning transmission information 406 is web (HTTP), the warning transmission unit 405 operates as a web client. When the warning transmission unit 405 is a web client, it is necessary to follow a protocol uniquely defined by the SNS to which the SNS message is posted, and the procedure for that is implemented in the warning transmission information 406 or the warning transmission unit 405. There is a need to.

警告送信部405が出力する警告メッセージは、インターフェース選択部407を通じて、無線LANインターフェース305またはNIC306の、ネットワークに接続されている、所定のメールサーバ202及び/またはwebサーバへ送信される。
インターフェース選択部407の実体は、OSに備わっているTCP/IPプロトコルスタックとDHCP(Dynamic Host Configuration Protocol)クライアントである。すなわち、インターフェース選択部407は、IPリーチャブルなネットワークに接続されているネットワークインターフェースを選択して、警告メッセージをメールサーバ202及び/またはwebサーバへ送信する。
The warning message output by the warning transmission unit 405 is transmitted through the interface selection unit 407 to a predetermined mail server 202 and / or web server connected to the network of the wireless LAN interface 305 or the NIC 306.
The entity of the interface selection unit 407 is a TCP / IP protocol stack and a DHCP (Dynamic Host Configuration Protocol) client provided in the OS. That is, the interface selection unit 407 selects a network interface connected to the IP reachable network, and transmits a warning message to the mail server 202 and / or the web server.

[特徴点データについて]
以下、顔検出処理部401、特徴点抽出部402、そしてベクトル解析部403の動作について説明する。
図5Aは、撮像装置308から出力される画像データストリームの一例を示す概略図である。図5Bは、顔検出処理部401が出力する顔抽出画像データの一例を示す概略図である。図5Cは、特徴点抽出部402が出力する特徴点データの一例を示す概略図である。
先ず、撮像装置308から被撮影者を含む画像データストリームがリアルタイムで出力される。これが図5Aの画像データP501である。
[About feature point data]
Hereinafter, operations of the face detection processing unit 401, the feature point extraction unit 402, and the vector analysis unit 403 will be described.
FIG. 5A is a schematic diagram illustrating an example of an image data stream output from the imaging device 308. FIG. 5B is a schematic diagram illustrating an example of face extraction image data output by the face detection processing unit 401. FIG. 5C is a schematic diagram illustrating an example of feature point data output by the feature point extraction unit 402.
First, an image data stream including a subject is output from the imaging device 308 in real time. This is the image data P501 in FIG. 5A.

次に、顔検出処理部401は、撮像装置308から出力される画像データP501から、例えばViola−Jones法等の周知のアルゴリズムを用いて、被撮影者の顔の存在を検出する。そして、被撮影者の顔だけを抽出した顔抽出画像データを出力する。これが図5Bの顔抽出画像データP502である。
そして、特徴点抽出部402は、顔抽出画像データP502に含まれる被撮影者の顔の画像に、ポリゴン解析等の処理を施す。そして、被撮影者の顔全体、眉、目、鼻、口等の輪郭と、瞳を示す顔の特徴点よりなる特徴点データを生成する。これが図5Cの特徴点データP503である。この特徴点データP503は、二次元空間内における座標情報を有する特徴点の集合体で構成される。
Next, the face detection processing unit 401 detects the presence of the face of the subject from the image data P501 output from the imaging device 308 using a known algorithm such as the Viola-Jones method. Then, face extraction image data obtained by extracting only the face of the subject is output. This is the face extraction image data P502 of FIG. 5B.
Then, the feature point extraction unit 402 performs processing such as polygon analysis on the face image of the subject included in the face extraction image data P502. Then, feature point data including the entire face of the subject, the contours of the eyebrows, eyes, nose, mouth, and the like and the feature points of the face indicating the pupil is generated. This is the feature point data P503 in FIG. 5C. This feature point data P503 is composed of a collection of feature points having coordinate information in a two-dimensional space.

二次元の特徴点データを、時間軸上で異なるタイミングにて2セット取得すると、被撮影者の顔が僅かに動くことにより、各々の特徴点データにずれが生じる。このずれを基に、被撮影者の顔の方向を算出することができる。これが顔方向ベクトルである。
また、目の輪郭に対する瞳の配置は、被撮影者の顔に対するおおよその視線の方向を算出することができる。これが視線方向ベクトルである。
ベクトル解析部403は、以上のような処理にて、特徴点データから顔方向ベクトルと視線方向ベクトルを生成する。
When two sets of two-dimensional feature point data are acquired at different timings on the time axis, the face of the person to be photographed slightly moves, causing a shift in each feature point data. Based on this deviation, the direction of the face of the subject can be calculated. This is the face direction vector.
Moreover, the arrangement of the pupil with respect to the outline of the eye can calculate the approximate line-of-sight direction with respect to the face of the subject. This is the gaze direction vector.
The vector analysis unit 403 generates a face direction vector and a line-of-sight direction vector from the feature point data by the processing as described above.

前述の通り、起床監視装置104は、高齢者102が就寝するベッドまたは布団を、高齢者102の足の方向から高齢者102に向けて配置される。このため、起床監視装置104の視点は、高齢者102が就寝する状態では高齢者102の顔が見えず、高齢者102が起床した状態になると高齢者102の顔が見える。高齢者102の顔が見えない状態とは、特徴点データを生成することができない状態である。すると、この状態においてベクトル解析部403は顔方向ベクトルを生成できないこととなる。
すなわち、ベクトル解析部403が顔方向ベクトルを生成できているか否かを確認することで、起床監視装置104は、高齢者102が起床しているか否かを検出することができる。
As described above, in the wake-up monitoring device 104, the bed or the futon on which the elderly person 102 goes to sleep is arranged from the direction of the legs of the elderly person 102 toward the elderly person 102. For this reason, from the viewpoint of the wake-up monitoring device 104, the face of the elderly person 102 cannot be seen when the elderly person 102 goes to bed, and the face of the elderly person 102 can be seen when the elderly person 102 gets up. The state where the face of the elderly person 102 cannot be seen is a state where feature point data cannot be generated. Then, in this state, the vector analysis unit 403 cannot generate a face direction vector.
That is, the wake-up monitoring device 104 can detect whether or not the elderly person 102 is getting up by checking whether or not the vector analysis unit 403 can generate the face direction vector.

[目瞑り判定部404について]
図6Aは、ユーザが目を開けている状態における特徴点データのうち、目の部分を抜粋した図である。
図6Bは、ユーザが目を閉じている状態における特徴点データのうち、目の部分を抜粋した図である。
図6Aの特徴点データにおいて、特徴点の一部は、開いたまぶたによって生じる目の輪郭と瞳を示している。すなわち、図6Aの特徴点データには、目の領域A601、A602が存在する。このため、ベクトル解析部403は、瞳を示す点P603、P604が目の領域A601、A602の何処に存在するのかを検出して、視線方向ベクトルを生成することができる。
[Regarding eye-meditation determination unit 404]
FIG. 6A is a diagram in which the eye portion is extracted from the feature point data in a state in which the user opens the eye.
FIG. 6B is a diagram in which the eye portion is extracted from the feature point data in a state where the user closes the eye.
In the feature point data of FIG. 6A, some of the feature points indicate the outline of the eye and the pupil caused by the open eyelid. That is, the eye area A601 and A602 exist in the feature point data of FIG. 6A. For this reason, the vector analysis unit 403 can detect where the pupil points P603 and P604 exist in the eye regions A601 and A602, and generate a line-of-sight direction vector.

これに対し、図6Bに示す特徴点データでは、特徴点は閉じたまぶたによって生じるまぶたの切れ目L605、L606を表しており、目の領域が存在しない。このため、ベクトル解析部403は、瞳を示す点が目の領域の何処に存在するのかを検出することができない。したがって、ベクトル解析部403は視線方向ベクトルを生成することができない。
このように、ベクトル解析部403が視線方向ベクトルを生成できているか否かを確認することで、起床監視装置104は、高齢者102が目を開けたか否かを検出することができる。
On the other hand, in the feature point data shown in FIG. 6B, the feature points represent the eyelid breaks L605 and L606 generated by the closed eyelid, and there is no eye region. For this reason, the vector analysis unit 403 cannot detect where the point indicating the pupil exists in the eye region. Therefore, the vector analysis unit 403 cannot generate a gaze direction vector.
Thus, the wake-up monitoring device 104 can detect whether the elderly person 102 has opened his eyes by checking whether or not the vector analysis unit 403 can generate the gaze direction vector.

本実施形態においては、起床監視装置104を開示した。
起床監視装置104は、被写体である高齢者102が起床している状態で高齢者102の顔の撮影が可能な位置に配置される。そして、高齢者102が起床すると、近赤外線カメラを構成する撮像装置308と近赤外線LED照明装置105にて撮影する。そして、起床監視装置104は撮像装置308から出力される画像データストリームから、高齢者102の顔方向ベクトルと視線方向ベクトルを検出して、高齢者102が目を開けた状態であると判断したら、監視担当である職員109のスマートフォン110に警告メッセージの電子メール及び/またはSNSメッセージを送信する。
In the present embodiment, the wake-up monitoring device 104 has been disclosed.
The wake-up monitoring device 104 is disposed at a position where the face of the elderly person 102 can be photographed while the elderly person 102 who is the subject is getting up. When the elderly person 102 gets up, the imaging device 308 and the near-infrared LED illuminating device 105 constituting the near-infrared camera take a picture. Then, when the wake-up monitoring device 104 detects the face direction vector and the gaze direction vector of the elderly person 102 from the image data stream output from the imaging device 308, and determines that the elderly person 102 is in an open state, An email and / or SNS message of a warning message is transmitted to the smartphone 110 of the staff member 109 who is in charge of monitoring.

本実施形態における起床監視装置104は、特許文献1等に開示されるような、顔認証照合の技術を使用していない。したがって、演算処理は従来と比べて極めて軽く、また、顔認証に必要な、事前に監視対象者の顔をシステムに登録する等の手間も不要になる。更に、起床監視装置104が送信するデータは、静止画像データが添付される電子メール及び/またはSNSメッセージである。したがって、従来技術のような、動画像データを常時送信し続けるシステムと比べると、起床監視装置104がLAN及び/またはインターネット201に流すデータ量は極めて少ない。   The wake-up monitoring device 104 in this embodiment does not use the face authentication collation technique disclosed in Patent Document 1 or the like. Therefore, the calculation processing is extremely light compared to the conventional method, and the need for prior registration of the face of the person being monitored in the system is unnecessary. Furthermore, the data transmitted by the wake-up monitoring device 104 is an e-mail and / or SNS message to which still image data is attached. Therefore, the amount of data that the wake-up monitoring device 104 sends to the LAN and / or the Internet 201 is extremely small as compared with a system that continuously transmits moving image data as in the prior art.

以上、本発明の実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、特許請求の範囲に記載した本発明の要旨を逸脱しない限りにおいて、他の変形例、応用例を含む。
例えば、上記した実施形態は本発明をわかりやすく説明するために装置及びシステムの構成を詳細かつ具体的に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることは可能であり、更にはある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることも可能である。
The embodiments of the present invention have been described above. However, the present invention is not limited to the above-described embodiments, and other modifications and application examples are provided without departing from the gist of the present invention described in the claims. including.
For example, the above-described embodiment is a detailed and specific description of the configuration of the apparatus and the system in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to one having all the configurations described. Further, a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment. Moreover, it is also possible to add, delete, and replace other configurations for a part of the configuration of each embodiment.

また、上記の各構成、機能、処理部等は、それらの一部又は全部を、例えば集積回路で設計するなどによりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行するためのソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の揮発性あるいは不揮発性のストレージ、または、ICカード、光ディスク等の記録媒体に保持することができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしもすべての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
Each of the above-described configurations, functions, processing units, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit. Further, each of the above-described configurations, functions, and the like may be realized by software for interpreting and executing a program that realizes each function by the processor. Information such as programs, tables, and files that realize each function must be held in a volatile or non-volatile storage such as a memory, hard disk, or SSD (Solid State Drive), or a recording medium such as an IC card or an optical disk. Can do.
In addition, the control lines and information lines are those that are considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other.

101…高齢者施設、102…高齢者、103…部屋、104…起床監視装置、105…近赤外線LED照明装置、106…無線LANルータ、107…監視カメラ、108…ナースステーション、109…職員、110…スマートフォン、111…モニタ、201…インターネット、202…メールサーバ、301…CPU、302…ROM、303…RAM、304…不揮発性ストレージ、305…無線LANインターフェース、306…NIC、307…バス、308…撮像装置、401…顔検出処理部、402…特徴点抽出部、403…ベクトル解析部、404…目瞑り判定部、405…警告送信部、406…警告送信情報、407…インターフェース選択部
DESCRIPTION OF SYMBOLS 101 ... Elderly person facility, 102 ... Elderly person, 103 ... Room, 104 ... Wake-up monitoring device, 105 ... Near infrared LED lighting device, 106 ... Wireless LAN router, 107 ... Surveillance camera, 108 ... Nurse station, 109 ... Staff, 110 ... Smartphone, 111 ... Monitor, 201 ... Internet, 202 ... Mail server, 301 ... CPU, 302 ... ROM, 303 ... RAM, 304 ... Non-volatile storage, 305 ... Wireless LAN interface, 306 ... NIC, 307 ... Bus, 308 ... Imaging device 401 ... face detection processing unit 402 ... feature point extraction unit 403 ... vector analysis unit 404 ... eye-meditation determination unit 405 ... warning transmission unit 406 ... warning transmission information 407 ... interface selection unit

Claims (2)

近赤外線に照らされる被撮影者の顔を撮影可能な撮像装置と、
前記撮像装置から出力される画像データストリームから前記被撮影者の顔の存在を検出し、前記被撮影者の顔を抽出した顔抽出画像データを出力する顔検出処理部と、
前記顔抽出画像データから、前記被撮影者の顔の輪郭を含む、二次元空間内における座標情報を有する特徴点の集合体である特徴点データを出力する特徴点抽出部と、
前記特徴点データから、前記被撮影者の顔の向きを示す顔方向ベクトルと、前記被撮影者の顔における視線の向きを示す視線方向ベクトルを生成する、ベクトル解析部と、
前記顔方向ベクトルと視線方向ベクトルが共に有効である場合に、前記被撮影者が目を開けた状態であると判定する目瞑り判定部と、
前記目瞑り判定部が、前記被撮影者が目を開けた状態であると判定した判定出力結果に呼応して、警告メッセージを作成し、所定の機器に送信する警告送信部と
を具備する、起床監視装置。
An imaging device capable of photographing the face of the subject illuminated by near infrared rays;
A face detection processing unit that detects the presence of the face of the person to be photographed from an image data stream output from the imaging device, and outputs face extraction image data obtained by extracting the face of the person to be photographed;
A feature point extraction unit that outputs feature point data, which is a collection of feature points having coordinate information in a two-dimensional space, including the contour of the face of the subject, from the face extraction image data;
A vector analysis unit that generates, from the feature point data, a face direction vector indicating a direction of the face of the subject and a line-of-sight vector indicating the direction of the line of sight of the face of the subject;
When both the face direction vector and the line-of-sight direction vector are valid, an eye meditation determination unit that determines that the subject is in an open state;
The eye meditation determination unit includes a warning transmission unit that creates a warning message and transmits it to a predetermined device in response to the determination output result determined that the subject is in an open state. Wake-up monitoring device.
前記警告送信部は、前記警告メッセージを作成する際、前記画像データストリームから前記被撮影者の静止画像データを前記警告メッセージに添付する、
請求項1に記載の起床監視装置。
The warning transmission unit attaches still image data of the subject to the warning message from the image data stream when creating the warning message.
The wake-up monitoring device according to claim 1.
JP2016142689A 2016-07-20 2016-07-20 Wake-up monitoring device Ceased JP2018013929A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016142689A JP2018013929A (en) 2016-07-20 2016-07-20 Wake-up monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016142689A JP2018013929A (en) 2016-07-20 2016-07-20 Wake-up monitoring device

Publications (1)

Publication Number Publication Date
JP2018013929A true JP2018013929A (en) 2018-01-25

Family

ID=61020411

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016142689A Ceased JP2018013929A (en) 2016-07-20 2016-07-20 Wake-up monitoring device

Country Status (1)

Country Link
JP (1) JP2018013929A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109766779A (en) * 2018-12-20 2019-05-17 深圳云天励飞技术有限公司 It hovers personal identification method and Related product
CN110865790A (en) * 2019-11-21 2020-03-06 京东方科技集团股份有限公司 Working method of electronic painted screen and electronic painted screen

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11249064A (en) * 1998-03-04 1999-09-17 Omron Corp Head mounted display device
JP2005199078A (en) * 2005-02-07 2005-07-28 Toshiba Corp State monitoring device
JP2015133608A (en) * 2014-01-14 2015-07-23 株式会社国際電気通信基礎技術研究所 Wake-up notification system, wake-up notification program, wake-up notification method, and wake-up notification device
JP2015186532A (en) * 2014-03-26 2015-10-29 富士通株式会社 Monitoring method, monitoring device, and monitoring program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11249064A (en) * 1998-03-04 1999-09-17 Omron Corp Head mounted display device
JP2005199078A (en) * 2005-02-07 2005-07-28 Toshiba Corp State monitoring device
JP2015133608A (en) * 2014-01-14 2015-07-23 株式会社国際電気通信基礎技術研究所 Wake-up notification system, wake-up notification program, wake-up notification method, and wake-up notification device
JP2015186532A (en) * 2014-03-26 2015-10-29 富士通株式会社 Monitoring method, monitoring device, and monitoring program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109766779A (en) * 2018-12-20 2019-05-17 深圳云天励飞技术有限公司 It hovers personal identification method and Related product
CN109766779B (en) * 2018-12-20 2021-07-20 深圳云天励飞技术有限公司 Loitering person identification method and related product
CN110865790A (en) * 2019-11-21 2020-03-06 京东方科技集团股份有限公司 Working method of electronic painted screen and electronic painted screen

Similar Documents

Publication Publication Date Title
JP7138931B2 (en) Posture analysis device, posture analysis method, and program
Kwolek et al. Human fall detection on embedded platform using depth maps and wireless accelerometer
US9863660B2 (en) Sensing method and sensing system, and air conditioning device having the same
Le et al. Secured WSN-integrated cloud computing for u-life care
US20150213317A1 (en) Intelligent Monitoring System
AU2018299893B2 (en) Method and system for integration of electronic sensors with thermal cooling system
Ghose et al. UbiHeld: ubiquitous healthcare monitoring system for elderly and chronic patients
JP6915421B2 (en) Watching support system and its control method
Hayashida et al. The use of thermal ir array sensor for indoor fall detection
TW201137795A (en) System and method for detecting baby sleeping
JP6852733B2 (en) Living body monitoring device and living body monitoring method
US20200051251A1 (en) Systems and methods for use in detecting falls utilizing thermal sensing
JP7138619B2 (en) Monitoring terminal and monitoring method
Joshi et al. A fall detection and alert system for an elderly using computer vision and Internet of Things
JP2018013929A (en) Wake-up monitoring device
TWI474291B (en) Somatosensory fall-detection method
Rachakonda et al. Good-eye: a combined computer-vision and physiological-sensor based device for full-proof prediction and detection of fall of adults
Mohamed et al. Assisting people with disabilities through Kinect sensors into a smart house
JP6870514B2 (en) Watching support system and its control method
Kasturi et al. Classification of human fall in top Viewed kinect depth images using binary support vector machine
JP6822326B2 (en) Watching support system and its control method
WO2022070301A1 (en) Biological determination system, biological determination method, and computer program
JP7380576B2 (en) Monitoring system, monitoring program, and monitoring method
Hing et al. Development of home monitoring system with integration of safety and security modules
Kumar et al. Development of COVID-19 detection smart doorbell based on IoT

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160729

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190704

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200526

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200616

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20210302