JP2016067641A - Fall detection processing apparatus and fall detection system - Google Patents

Fall detection processing apparatus and fall detection system Download PDF

Info

Publication number
JP2016067641A
JP2016067641A JP2014200762A JP2014200762A JP2016067641A JP 2016067641 A JP2016067641 A JP 2016067641A JP 2014200762 A JP2014200762 A JP 2014200762A JP 2014200762 A JP2014200762 A JP 2014200762A JP 2016067641 A JP2016067641 A JP 2016067641A
Authority
JP
Japan
Prior art keywords
fall
person
image
fall detection
detection processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014200762A
Other languages
Japanese (ja)
Inventor
孝志 梶丸
Takashi Kajimaru
孝志 梶丸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Electron Device Ltd
Original Assignee
Tokyo Electron Device Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Electron Device Ltd filed Critical Tokyo Electron Device Ltd
Priority to JP2014200762A priority Critical patent/JP2016067641A/en
Publication of JP2016067641A publication Critical patent/JP2016067641A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To enhance reliability in fall detection of a person.SOLUTION: A fall detection processing apparatus comprises: an acquisition unit for acquiring a distance image of a space of a fall detection target and an IR image from a TOF sensor; a determination unit for determining a size of the target, a motion of the target for a predetermined period of time, and a pattern, color, or gradation of the target based on the acquired distance image and IR image; and an estimation unit for estimating whether the motion of the target is falling of a person according to the size of the target, the motion of the target for the predetermined period of time, and the pattern, color, or gradation of the target, which have been determined.SELECTED DRAWING: Figure 7

Description

本発明は、転倒検知処理装置及び転倒検知システムに関する。   The present invention relates to a fall detection processing apparatus and a fall detection system.

高齢化社会においては、介護施設にいる高齢者や在宅介護が必要な高齢者が健康で、かつ安心して生活できる環境整備に対する要望は高い。例えば、高齢者の場合、ちょっとした怪我や病気が後の生活に重大な影響を及ぼすことがある。このため、高齢者が転倒したような場合にそのことを早急に家族や介助者、その他の関係者に通報する必要がある。そこで、高齢者の転倒を自動で検知し、通報する方法が提案されている(例えば、特許文献1〜3を参照)。
特開2011−113406号公報 特開2009−268854号公報 特開2002−232870号公報
In an aging society, there is a high demand for an environment that allows elderly people in nursing homes and elderly people who need home care to be healthy and live safely. For example, in the elderly, minor injuries and illnesses can have a significant impact on later life. For this reason, when an elderly person falls, it is necessary to notify the family, a caregiver, and other related parties immediately. Then, the method of detecting automatically and reporting the fall of an elderly person is proposed (for example, refer patent documents 1-3).
JP 2011-113406 A JP 2009-268854 A JP 2002-232870 A

しかしながら、上記特許文献に記載されている検知方法では、人が転倒したかを判断するために使用されるセンサの特性や配置により、人とそれ以外の動体の区別が難しく、人が転倒したかの判断が困難になる場合がある。人が転倒したかの判断結果が正しくない場合、誤報となり、結局そのシステムの信頼が疑われ使われなくなってしまう。   However, in the detection method described in the above patent document, it is difficult to distinguish a person from other moving objects due to the characteristics and arrangement of sensors used to determine whether a person has fallen. It may be difficult to judge. If the result of a person's fall is not correct, it will be misreported, and the trust of the system will eventually be suspected and not used.

上記課題に対して、一側面では、本発明は、人の転倒検知の信頼性を高めることを目的とする。   In view of the above problem, in one aspect, the present invention aims to improve the reliability of human fall detection.

上記課題を解決するために、一の態様によれば、転倒を検知する対象の空間の距離画像及びIR画像をTOFセンサから取得する取得部と、取得した前記距離画像及び前記IR画像に基づき、前記対象物の大きさと、該対象物の所定時間の動きと、該対象物の模様、色又は濃淡とを判定する判定部と、判定した前記対象物の大きさと、該対象物の所定時間の動きと、該対象物の模様、色又は濃淡とに応じて該対象物の動きが人の転倒であるかを推定する推定部と、を有する、転倒検知処理装置が提供される。   In order to solve the above-mentioned problem, according to one aspect, based on the acquired distance image and the IR image, an acquisition unit that acquires a distance image and an IR image of a space to be detected from a TOF sensor, A determination unit configured to determine the size of the target object, movement of the target object for a predetermined period of time, a pattern, a color, or a shade of the target object; a size of the determined target object; and a predetermined time of the target object A fall detection processing device is provided that includes a motion and an estimation unit that estimates whether the motion of the object is a person's fall according to the pattern, color, or shade of the object.

一の側面によれば、人の転倒検知の信頼性を高め、誤報を減らすことができる。   According to one aspect, it is possible to improve the reliability of human fall detection and reduce false alarms.

一実施形態に係る転倒検知システムの一例を示す図。The figure which shows an example of the fall detection system which concerns on one Embodiment. 一実施形態に係る転倒検知処理装置の機能構成の一例を示す図。The figure which shows an example of a function structure of the fall detection processing apparatus which concerns on one Embodiment. 一実施形態に係る通知先登録テーブルの一例を示す図。The figure which shows an example of the notification destination registration table which concerns on one Embodiment. 一実施形態に係るログ情報テーブルの一例を示す図。The figure which shows an example of the log information table which concerns on one Embodiment. 一実施形態に係る特徴/健康情報テーブルの一例を示す図。The figure which shows an example of the characteristic / health information table which concerns on one Embodiment. 一実施形態に係る例外情報テーブルの一例を示す図。The figure which shows an example of the exception information table which concerns on one Embodiment. 一実施形態に係る転倒検知の条件を説明するための図。The figure for demonstrating the conditions of the fall detection which concerns on one Embodiment. 一実施形態に係る転倒検知処理の一例を示すフローチャート。The flowchart which shows an example of the fall detection process which concerns on one Embodiment. 一実施形態に係る転倒検知を説明するための図。The figure for demonstrating the fall detection which concerns on one Embodiment. 一実施形態に係る監視処理の一例を示すフローチャート。The flowchart which shows an example of the monitoring process which concerns on one Embodiment. 一実施形態に係る転倒検知処理装置の転倒検知システムの一例を示す図。The figure which shows an example of the fall detection system of the fall detection processing apparatus which concerns on one Embodiment.

以下、本発明を実施するための形態について図面を参照して説明する。なお、本明細書及び図面において、実質的に同一の構成については、同一の符号を付することにより重複した説明を省く。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. In addition, in this specification and drawing, about the substantially same structure, the duplicate description is abbreviate | omitted by attaching | subjecting the same code | symbol.

[転倒検知システムの全体構成]
まず、本発明の一実施形態に係る転倒検知システム1について、図1を参照しながら説明する。本実施形態に係る転倒検知システム1は、高齢者が居住する介護施設Aや在宅介護が必要な高齢者の住宅(在宅介護宅B)などにおいて転倒を検知する対象の高齢者等が出入りする空間に適用される。本実施形態に係る転倒検知システム1において、介護施設Aや在宅介護宅Bには、転倒を検知する対象を撮影するセンサとしてTOF(Time Of Flight)センサ9が使用される。TOFセンサ9は、転倒を検知する対象の空間(例えば高齢者の部屋)の例えば天井部に設置され、その空間の距離画像やIR(Infrared)画像やカラー画像を撮影する。TOFセンサ9は、赤外線を投光するプロジェクタの機能とカメラの機能とを有する。TOFセンサ9のカメラ機能を用いてカラー画像又は白黒画像を撮影できる。
[Overall configuration of fall detection system]
First, a fall detection system 1 according to an embodiment of the present invention will be described with reference to FIG. The fall detection system 1 according to the present embodiment is a space in which elderly persons who are to detect falls in a care facility A where the elderly live or an elderly home (home care home B) that requires home care, etc. Applies to In the fall detection system 1 according to the present embodiment, a TOF (Time Of Flight) sensor 9 is used in the care facility A or the home care home B as a sensor for photographing an object to be detected for fall. The TOF sensor 9 is installed on, for example, a ceiling portion of a space (for example, an elderly person's room) to detect a fall, and takes a distance image, an IR (Infrared) image, and a color image of the space. The TOF sensor 9 has a projector function for projecting infrared rays and a camera function. A color image or a black and white image can be taken using the camera function of the TOF sensor 9.

また、TOFセンサ9は赤外線を投光する。TOFセンサ9は、出力された赤外光と、その赤外光が対象物を反射して戻ってくる赤外光との時間差から物体の距離を検知する。このようにしてTOFセンサ9は、赤外光が対象まで往復するのにかかる時間から距離を計測することで距離画像を撮ることができる。また、TOFセンサ9は、赤外線を投光してIR画像を撮影できる。   The TOF sensor 9 projects infrared rays. The TOF sensor 9 detects the distance of the object from the time difference between the output infrared light and the infrared light that reflects back from the object. In this way, the TOF sensor 9 can take a distance image by measuring the distance from the time required for the infrared light to travel back and forth to the target. Further, the TOF sensor 9 can project an IR image by projecting infrared rays.

TOFセンサ9は、人の転倒が発生し易いバスルームや人が集まりやすい談話室等の転倒検知を行う対象の空間に設置される。TOFセンサ9は、転倒を検知する対象の空間内の天井部や側壁部に設置される。TOFセンサ9は、転倒を検知する対象の空間内のいずれに置いてもよい。ただし、TOFセンサ9を空間内の天井部の中央に置くと、TOFセンサ9により検知できる物体の範囲が広がり好ましい(図7を参照)。TOFセンサ9を空間内の側壁部に置くと、TOFセンサ9により検知できる物体の範囲が狭まり障害物も多くなって、対象物を検知し難くなる。TOFセンサ9は、複数設置されてもよい。   The TOF sensor 9 is installed in a target space for detecting a fall, such as a bathroom in which a person is likely to fall or a common room where people are likely to gather. The TOF sensor 9 is installed on a ceiling part or a side wall part in a space where a fall is detected. The TOF sensor 9 may be placed in any space in which a fall is detected. However, if the TOF sensor 9 is placed at the center of the ceiling in the space, the range of objects that can be detected by the TOF sensor 9 is increased (see FIG. 7). When the TOF sensor 9 is placed on the side wall in the space, the range of objects that can be detected by the TOF sensor 9 is narrowed and the number of obstacles increases, making it difficult to detect the object. A plurality of TOF sensors 9 may be installed.

TOFセンサ9は、USB(Universal Serial Bus)を介して転倒検知処理装置10と接続されている。転倒検知処理装置10は、TOFセンサ9から取得した距離画像及びIR画像を処理し、これらの画像に基づき対象物が人であるか否かの判定や、対象物が人であると判定された場合にその動きが人の転倒であるか否かの推定を行う。転倒検知処理装置10は、対象物の動きが人の転倒であると推定した場合、所定の機器に通報する。所定の機器は、TOFセンサ9が設置された空間内の機器(転倒検知処理装置10を含む)であってもよいし、通知先としてあらかじめ登録され、ネットワーク30により通信可能な機器であってもよい。図1には、ネットワーク30により通信可能な通報先の機器の一例として、スマートフォン40、固定電話機器41、PC(デスクトップ、ノート、タブレット等)42、携帯電話機器50が示されている。ただし、通知先の機器はこれらの機器に限られず、通信可能な家電機器や自動者に搭載されたナビゲーション機器、その他の電子機器であってもよい。固定電話機器41の場合、転倒通報時には音声データのみが通知されるようにしてもよい。通知先の機器の所持者は、例えば転倒検知の対象となる空間に住む高齢者の家族や親せきや高齢者の介助者であり得る。   The TOF sensor 9 is connected to the fall detection processing device 10 via a USB (Universal Serial Bus). The fall detection processing device 10 processes the distance image and the IR image acquired from the TOF sensor 9, and determines whether or not the object is a person based on these images, and determines that the object is a person. In this case, it is estimated whether the movement is a person's fall. The fall detection processing device 10 notifies a predetermined device when it is estimated that the movement of the object is a fall of a person. The predetermined device may be a device in the space where the TOF sensor 9 is installed (including the fall detection processing device 10), or a device that is registered in advance as a notification destination and can communicate with the network 30. Good. FIG. 1 shows a smartphone 40, a fixed telephone device 41, a PC (desktop, notebook, tablet, etc.) 42, and a mobile phone device 50 as examples of report destination devices that can communicate via the network 30. However, the notification destination device is not limited to these devices, and may be a household electrical appliance capable of communication, a navigation device mounted on an automated person, or other electronic devices. In the case of the fixed telephone device 41, only voice data may be notified at the time of falling notification. The owner of the notification destination device can be, for example, an elderly family member, a relative, or an elderly caregiver who lives in a space that is subject to fall detection.

転倒検知処理装置10は、介護施設Aや在宅介護宅Bに1台又は複数台設けられ得る。転倒検知処理装置10は、ネットワーク30を介して監視サーバ20と接続されている。例えば、転倒検知処理装置10は、ワイファイや3G(3rd. Generation)やブルーツゥースを使用して監視サーバ20と接続されてもよい。監視サーバ20は、クラウドサーバであってもよい。   One or a plurality of the fall detection processing devices 10 may be provided in the care facility A or the home care home B. The fall detection processing device 10 is connected to the monitoring server 20 via the network 30. For example, the fall detection processing device 10 may be connected to the monitoring server 20 using WiFi, 3G (3rd. Generation), or Bluetooth. The monitoring server 20 may be a cloud server.

転倒検知処理装置10は、人が転倒したと判定した場合、通知先の機器40,50や監視サーバ20に通報する。監視サーバ20は、介護施設A等の対象の空間の画像データ及び音声データを記憶し、記憶したデータのうちの、転倒を推定した人の転倒時刻の状態を含む画像データ及び音声データの少なくともいずれかを予め通知先として登録されている機器に送信する。これにより、例えば通知先のスマートフォン40の所持者は、転倒した人の状況を判断でき、転倒した人に関する対応を迅速に行うことができる。監視サーバ20は、救急センター等に配置されてもよい。これにより、転倒した人に対する救急車の手配や外傷の手当て等の医療行為を迅速に行うことができる。   When the fall detection processing device 10 determines that a person has fallen, the fall detection processing device 10 notifies the notification destination devices 40 and 50 and the monitoring server 20. The monitoring server 20 stores image data and sound data of a target space such as a care facility A, and of the stored data, at least any of image data and sound data including the state of the fall time of the person who estimated the fall Is transmitted to a device registered in advance as a notification destination. Thereby, for example, the owner of the smartphone 40 that is the notification destination can determine the situation of the person who has fallen, and can quickly deal with the person who has fallen. The monitoring server 20 may be arranged at an emergency center or the like. Thereby, medical practices such as arranging an ambulance for a fallen person and taking care of an injury can be quickly performed.

なお、画像データや音声データのうち、個人情報の保護や著作権の見地から転送することが適切でないデータがある。特に、可視画像は、距離画像よりも人物の特定が容易であるため、通知先に転送するデータとして適さない場合がある。よって、通知先に画像データを転送する場合には、可視画像は送信せず、IR画像又はIR画像に人物の特定が容易でないように加工を施した上で送信することが好ましい。IR画像とともに距離画像を送信してもよい。また、予め登録されている家族等の特定の通知先には、可視画像を送信してもよい。   Among image data and audio data, there is data that is not appropriate to be transferred from the viewpoint of protection of personal information or copyright. In particular, since a visible image is easier to identify a person than a distance image, it may not be suitable as data to be transferred to a notification destination. Therefore, when transferring the image data to the notification destination, it is preferable not to transmit the visible image, but to transmit the IR image or the IR image after performing processing so that it is not easy to identify a person. A distance image may be transmitted together with the IR image. Further, a visible image may be transmitted to a specific notification destination such as a family registered in advance.

人が転倒したという情報は、周知の通信手段によって、高齢者の近親者が所有するスマートフォン40や携帯電話機器50などに通報することができる。周知の通信手段としては、公衆電話回線網やインターネット通信網などを適宜用いることができる。   Information that a person has fallen can be reported to the smartphone 40, the mobile phone device 50, and the like owned by a close relative of the elderly by a known communication means. As publicly known communication means, a public telephone line network, an Internet communication network, or the like can be used as appropriate.

これまでの転倒検知では、必ずしも人の転倒を正しく検知できず、例えば静止物の落下を人の転倒と検知する等、人の転倒検知に誤りがある場合があった。これまでのカメラによる転倒検知は、カメラで取得された画像データに基づき高齢者等の移動体を検知し、その移動体が一定期間同じ場所に留まる場合に転倒検知の可能性がある、と判断していた。   In the conventional fall detection, it is not always possible to correctly detect a person's fall. For example, there is an error in the person's fall detection, such as detecting a fall of a stationary object as a person's fall. Conventional camera fall detection detects a moving body such as an elderly person based on image data acquired by the camera, and determines that there is a possibility of falling detection when the moving body stays in the same place for a certain period of time. Was.

しかし、この転倒検知では、本当に「人」の転倒なのか又は物が倒れたのかをシステムが区別することは困難であった。このため、これまでの技術では、高齢者の転倒に関する誤報を介助者に通知する場合が多く発生していた。これに対して、本実施形態に係る転倒検知処理装置10では、TOFセンサ9から取得した距離画像及びIR画像に基づき、介護施設Aや在宅介護宅Bにおける転倒検知の精度を良くすることができる。これにより、高齢者の転倒に関する誤報を介助者に通知することを低減させ、実効性のある転倒検知システム1を高齢者及びその介助者に提供することができる。これにより、介護施設にいる高齢者や在宅介護が必要な高齢者が健康で安心して生活できる環境整備を実現できる。以下、転倒検知を精度よく検出可能な転倒検知処理装置10の機能及び動作について順に説明する。   However, in this fall detection, it was difficult for the system to distinguish whether a “person” fell or an object fell. For this reason, in the conventional technology, there have been many cases of notifying a caregiver of misinformation regarding the fall of an elderly person. In contrast, the fall detection processing device 10 according to the present embodiment can improve the accuracy of the fall detection in the care facility A or the home care home B based on the distance image and the IR image acquired from the TOF sensor 9. . Thereby, it is possible to reduce the notification of the misinformation regarding the fall of the elderly person to the assistant, and to provide the elderly person and his assistant with the effective fall detection system 1. As a result, it is possible to realize an environment in which an elderly person in a care facility or an elderly person who needs home care can live in a healthy and safe manner. Hereinafter, functions and operations of the fall detection processing apparatus 10 capable of accurately detecting fall detection will be described in order.

[転倒検知処理装置の機能構成]
本発明の一実施形態に係る転倒検知処理装置10の機能構成の一例について、図2を参照しながら説明する。本実施形態に係る転倒検知処理装置10は、検知部11、取得部12、記憶部13、判定部14、推定部15、通報部16、通信部17、録音部18及び音声認識部19を有する。
[Functional configuration of the fall detection processing device]
An example of the functional configuration of the fall detection processing apparatus 10 according to an embodiment of the present invention will be described with reference to FIG. The fall detection processing apparatus 10 according to the present embodiment includes a detection unit 11, an acquisition unit 12, a storage unit 13, a determination unit 14, an estimation unit 15, a notification unit 16, a communication unit 17, a recording unit 18, and a voice recognition unit 19. .

検知部11は、TOFセンサ9と接続され、TOFセンサ9を用いて対象物を検知し、対象物の距離画像及びIR画像を得る。検知部11は、TOFセンサ9の代わりに、距離画像を得るためのセンサとIR画像を撮るためのセンサとに別々に接続され、各センサを用いて対象物を検知し、対象物の距離画像及びIR画像を得るようにしてもよい。   The detection unit 11 is connected to the TOF sensor 9, detects the object using the TOF sensor 9, and obtains a distance image and an IR image of the object. The detection unit 11 is separately connected to a sensor for obtaining a distance image and a sensor for taking an IR image instead of the TOF sensor 9, detects the object using each sensor, and detects the distance image of the object. And an IR image may be obtained.

取得部12は、転倒を検知する対象の空間における距離画像及びIR画像を検知部11から取得する。   The acquisition unit 12 acquires a distance image and an IR image in the space to be detected from falling from the detection unit 11.

記憶部13は、通知先登録テーブル21、ログ情報テーブル22、特徴/健康情報テーブル23及び例外情報テーブル24に所定の情報を記憶する。通知先登録テーブル21は、図3に一例を示すように、転倒を検知する対象の人を示すID211に対応付けて通知先の機器情報212を記憶する。通知先の機器情報212は、例えば、ID211により識別される人の家族、親せき、介助者が所持する機器である。例えば、ID211が「M1」の人の転倒が推定された場合、転倒の通報は機器a及び機器bに送信される。ID211が「M2」の人の転倒が推定された場合、転倒の通報は機器cに送信される。ID211が「M3」の人の転倒が推定された場合、転倒の通報は機器d及び機器eに送信される。通知先登録テーブル21に記憶された情報は、監視サーバ20に転送され、監視サーバ20に保存される。転倒の通報は、このように通知先登録テーブル21に登録された通知先の機器の他、監視サーバ20にも送信される。   The storage unit 13 stores predetermined information in the notification destination registration table 21, log information table 22, feature / health information table 23, and exception information table 24. As illustrated in FIG. 3, the notification destination registration table 21 stores notification destination device information 212 in association with an ID 211 indicating a person who is to be detected to fall. The notification destination device information 212 is, for example, a device possessed by the family, relatives, and caregivers of the person identified by the ID 211. For example, when the fall of the person whose ID 211 is “M1” is estimated, the fall notification is transmitted to the devices a and b. When the fall of the person whose ID 211 is “M2” is estimated, the fall notification is transmitted to the device c. When the fall of the person whose ID 211 is “M3” is estimated, the fall notification is transmitted to the device d and the device e. The information stored in the notification destination registration table 21 is transferred to the monitoring server 20 and stored in the monitoring server 20. The fall notification is transmitted to the monitoring server 20 in addition to the notification destination device registered in the notification destination registration table 21 in this way.

ログ情報テーブル22は、取得部12が取得した距離画像及びIR画像等のログ情報を記憶する。録音部18は、対象の空間に取り付けられたスピーカ(図7のスピーカ8aを参照)から音声を取得する。音声認識部19は、スピーカ8aから取得した音声を音声認識処理する。音声認識処理後のデータを、以下「音声データ」ともいう。   The log information table 22 stores log information such as distance images and IR images acquired by the acquisition unit 12. The recording unit 18 acquires sound from a speaker (see the speaker 8a in FIG. 7) attached to the target space. The voice recognition unit 19 performs voice recognition processing on the voice acquired from the speaker 8a. The data after the voice recognition process is hereinafter also referred to as “voice data”.

記憶部13は、ログ情報テーブル22にその音声データを記憶してもよい。ログ情報テーブル22には、図4に一例を示すように、取得時刻情報221に画像データや音声データを取得した日時が記憶され、取得場所情報222に画像データや音声データを取得した場所が記憶される。また、ログ情報テーブル22には、画像/音声情報223に画像データや音声データが記憶される。画像/音声情報223に記憶される画像データとしては、距離画像及びIR画像の少なくともいずれかのデータが記憶される。これに加えて、画像/音声情報223に可視画像データが記憶されてもよい。例えば、取得時刻情報221が「2014.9.10.10:50」の日時に、取得場所情報222が「(介護施設)A1」の部屋において撮られた画像データ及び音声データが、画像/音声1としてログ情報テーブル22の画像/音声情報223に記憶される。その後、10秒間隔で同じ場所「A1」において画像及び音声が撮られ、画像/音声データ2〜5として画像/音声情報223に記憶される。また、ログ情報テーブル22には、取得場所情報222が示す他の取得場所情報「(介護施設)A2」の部屋において、取得時刻情報221「2014.9.10.14:00」に録音された音声データ6が画像/音声情報223に記憶される。このように、ログ情報テーブル22には、取得時刻情報221及び取得場所情報222に示す時刻及び場所で取得された画像データ及び音声データの少なくともいずれかが記憶される。ログ情報テーブル22に記憶された情報は、監視サーバ20に転送され、監視サーバ20の記憶領域又はクラウド上の記憶領域に保存される。転倒検知処理装置10のログ情報テーブル22に記憶された情報は、記憶されてから所定時間が経過した後に消去されてもよい。   The storage unit 13 may store the audio data in the log information table 22. In the log information table 22, as shown in an example in FIG. 4, the acquisition time information 221 stores the date and time when the image data and audio data were acquired, and the acquisition location information 222 stores the location where the image data and audio data were acquired. Is done. In the log information table 22, image data and audio data are stored in the image / audio information 223. As image data stored in the image / audio information 223, at least one of a distance image and an IR image is stored. In addition to this, visible image data may be stored in the image / audio information 223. For example, image data and audio data taken in a room where the acquisition time information 221 is “2014.9.10.10:50” and the acquisition location information 222 is “(care facility) A1” are image / audio. 1 is stored in the image / audio information 223 of the log information table 22. Thereafter, images and sounds are taken at the same place “A1” at intervals of 10 seconds, and stored in the image / audio information 223 as image / audio data 2 to 5. In the log information table 22, in the room of the other acquisition location information “(care facility) A 2” indicated by the acquisition location information 222, the acquisition time information 221 “2014.9.1.10.14: 00” is recorded. Audio data 6 is stored in the image / audio information 223. As described above, the log information table 22 stores at least one of the image data and the sound data acquired at the time and location indicated by the acquisition time information 221 and the acquisition location information 222. Information stored in the log information table 22 is transferred to the monitoring server 20 and stored in a storage area of the monitoring server 20 or a storage area on the cloud. The information stored in the log information table 22 of the fall detection processing device 10 may be deleted after a predetermined time has elapsed since being stored.

特徴/健康情報テーブル23は、転倒を検知する対象の人を示すID231に対応付けてその人の特徴及び健康状態に関する情報を記憶する。特徴/健康情報テーブル23には、図5に一例を示すように、ID231、身長/体重232、服(模様、色、濃淡)233、歩行速度234及び健康状態情報235が記憶される。例えば、特徴/健康情報テーブル23には、ID211が「M1」の人の特徴や健康状態に関する情報として、身長/体重232に「150cm/40kg」、服(模様、色、濃淡)233に「赤色の水玉模様」、歩行速度234に「2km/h」、健康状態情報235に「認知症初期」が記憶される。特徴/健康情報テーブル23には、図5に示す項目の他に、性別や動作パターンやその他の特徴(メガネの着用の有無等)を記憶することができる。なお、特徴/健康情報テーブル23には、対象物の服の模様、色、濃淡だけでなく、靴や帽子やメガネ等の装着品を装着した状態での対象物の(服を含めた)模様、色、濃淡の情報を記憶してもよい。   The feature / health information table 23 stores information related to the feature and health status of the person in association with the ID 231 indicating the person who is to detect the fall. The feature / health information table 23 stores an ID 231, height / weight 232, clothes (pattern, color, shading) 233, walking speed 234, and health condition information 235 as shown in FIG. 5 as an example. For example, in the feature / health information table 23, “150 cm / 40 kg” for the height / weight 232 and “red” for the clothes (pattern, color, shading) 233 as information on the feature and health status of the person whose ID 211 is “M1”. ”Polka dot pattern”, “2 km / h” is stored in the walking speed 234, and “initial dementia” is stored in the health state information 235. In the feature / health information table 23, in addition to the items shown in FIG. 5, sex, operation pattern, and other features (whether glasses are worn, etc.) can be stored. In the feature / health information table 23, not only the pattern, color, and shade of the clothes of the object, but also the pattern (including clothes) of the object in the state of wearing shoes, a hat, glasses, and the like. Color, shading information may be stored.

例外情報テーブル24は、転倒を検知する対象の空間に存在する動体であっても転倒を検知する対象物から除外する条件情報を記憶する。例外情報テーブル24には、図6に一例を示すように、転倒を検知する対象の施設や住宅を示すID241に対応付けて、例外領域242及び例外時間243の各情報が記憶される。例えば、ID241が「介護施設A」では、例外領域242に設定された「ベッドの番号1〜20が置かれた場所」に存在する物体を、転倒を検知する対象物から除外する。また、この除外条件が適用される例外時間243は「全時間」と記憶されている。つまり、例外情報テーブル24は、介護施設A内のベッドの番号1〜20が置かれた場所に居る人が座っている状態から寝ている状態になった場合、すべての時間においてその動作を転倒と検知しない。   The exception information table 24 stores condition information that is excluded from an object for detecting a fall even if it is a moving object that exists in the space for which the fall is detected. As shown in FIG. 6, the exception information table 24 stores information on an exception area 242 and an exception time 243 in association with an ID 241 that indicates a facility or a house whose fall is to be detected. For example, when the ID 241 is “care facility A”, an object that exists in “the place where the bed numbers 1 to 20 are placed” set in the exception area 242 is excluded from the objects for detecting the fall. The exception time 243 to which this exclusion condition is applied is stored as “all time”. That is, when the person in the place where the numbers 1 to 20 of the beds in the care facility A are placed goes to the sleeping state, the exception information table 24 falls over its operation at all times. Not detected.

また、ID241が「介護施設A」では、例外領域242に設定された「たたみの部屋」に存在する物体を、転倒を検知する対象物から除外する。この除外条件が適用される例外時間243は「9:00P.M.〜8:00A.M.」である。つまり、例外情報テーブル24は、介護施設A内のたたみの部屋に居る人が座っている状態から寝ている状態になった場合、夜の9時から朝の8時までの間はその動作を転倒と検知しない。   In addition, when the ID 241 is “care facility A”, an object existing in the “tatami room” set in the exception area 242 is excluded from objects to be detected to fall. The exception time 243 to which this exclusion condition is applied is “9:00 PM to 8:00 AM”. In other words, when the person in the tatami room in the care facility A changes from the sitting state to the sleeping state, the exception information table 24 performs the operation from 9 o'clock in the evening to 8 o'clock in the morning. Does not detect a fall.

判定部14は、取得した距離画像及びIR画像に基づき、転倒を検知する空間内に存在する対象物の大きさと、その対象物の所定時間の動きと、その対象物の模様、色又は濃淡とを判定する。以下では、一例として対象物の服(模様、色、濃淡)と画像とを比較するが、対象物の服の模様、色、濃淡だけでなく、靴や帽子やメガネ等の装着品を装着した状態での対象物の(服を含めた)模様、色、濃淡を比較対象とすることができる。   Based on the acquired distance image and IR image, the determination unit 14 determines the size of the object existing in the space where the fall is detected, the movement of the object for a predetermined time, and the pattern, color, or shade of the object. Determine. In the following, as an example, the clothing (pattern, color, shading) of the object is compared with the image, but not only the clothing, pattern, color, shading of the object but also wearing items such as shoes, hats, and glasses. The pattern, color, and shade of the object (including clothes) in the state can be used as comparison targets.

判定部14は、距離画像に基づき、何も動きがないときの部屋の状態を示す画像データを予め取得しておく。そして、判定部14は、何も動きがないときの部屋の状態を示す画像データと部屋の内部の状態が変化したことを示す画像データとをいわゆる背景差分方式により解析することで、静止物と動物(人を含む)とを区別する。これにより、判定部14は、対象物の大きさと、その対象物の所定時間の動きを判定することができる。また、判定部14は、IR画像に基づき、対象物の服装の模様、濃淡、色、服装の上下の濃淡差や色差を判定する。   The determination unit 14 acquires in advance image data indicating the state of the room when there is no movement based on the distance image. And the determination part 14 analyzes the image data which shows the state of the room when there is no movement, and the image data which shows that the state of the interior of the room has changed by a so-called background difference method, Distinguish from animals (including humans). Thereby, the determination unit 14 can determine the size of the object and the movement of the object for a predetermined time. Further, the determination unit 14 determines the pattern, shade, color, and shade difference between the top and bottom of the clothing and the color difference based on the IR image.

推定部15は、判定した対象物の大きさと、その対象物の所定時間の動きと、その対象物の服(模様、色又は濃淡)とに応じてその対象物の動きが人の転倒であるかを推定する。その際、推定部15は、距離画像及びIR画像に基づき、(1)〜(3)の条件がすべて満たされるとき、人が転倒したと推定する。
(1)対象物の大きさが所定以上であること
例えば、推定部15は、動物と判定した対象物の大きさが所定以上(例えば1m以上)である場合、対象物は人の可能性があると推定する。例えば、図7に示す対象物OJ1の大きさは1m以上であるため、対象物OJ1は人の可能性があると推定される。一方、対象物OJ3の大きさは1m未満であるため、対象物OJ3は人でないと判定される。動物と判定した対象物の大きさが人の大きさであることを推定するための閾値は「1m」に限られず、例えば、男性の場合と女性の場合と子供の場合を分けて設定してもよい。
The estimation unit 15 determines that the movement of the object is a person's fall according to the size of the determined object, the movement of the object for a predetermined time, and the clothes (pattern, color, or shade) of the object. Estimate. At that time, the estimation unit 15 estimates that the person has fallen when all the conditions (1) to (3) are satisfied based on the distance image and the IR image.
(1) The size of the target object is greater than or equal to a predetermined value. For example, when the size of the target object determined as an animal is equal to or greater than the predetermined value (for example, 1 m or greater), the target object may be a human being. Presume that there is. For example, since the size of the object OJ1 shown in FIG. 7 is 1 m or more, it is estimated that the object OJ1 may be human. On the other hand, since the size of the object OJ3 is less than 1 m, it is determined that the object OJ3 is not a person. The threshold for estimating that the size of the object determined to be an animal is the size of a person is not limited to “1 m”. For example, a case of a man, a case of a woman, and a case of a child are set separately. Also good.

TOFセンサ9を天井部に配置した場合、図7に点線にて示すように、視野角により部屋の中央から外れるほどTOFセンサ9が取得する距離画像及びIR画像に写される対象物の上部側が切れて見えない状態となる。例えば、部屋の端にいる対象物OJ2の上半身は、TOFセンサ9から取得される距離画像及びIR画像には写されない。この場合、画像データ上の対象物OJ2の大きさは1m未満となるため、対象物OJ2は人でないと判定されてしまう。以上から、本実施形態では、対象物の大きさが人と判定されるための閾値は、視野角に応じて図7に示すように変化して設定される。これによれば、部屋の端側にいる対象物に対する閾値は、部屋の中心側にいる対象物に対する閾値よりも小さくなる。これにより、推定部15は、対象物OJ2の大きさは閾値と同じ値となるため、対象物OJ2は人の可能性があると推定できる。
ただし、部屋の端側では画像データから人の上半身が切れて見えないため、動物との区別がつきにくい。実際に対象物OJ2が人であるか人以外の動体であるかは、(1)の条件のみでは推定しにくい。また、部屋の中央においても、(1)の条件のみで対象物が人であるかそれ以外の動体であるかを推定すると間違いが生じやすく、人の転倒の検知の精度を高めることは難しい。よって、本実施形態では、推定部15は、(1)の条件を満たすだけでなく、次の(2)の条件も満たす場合に人が転倒したと推定するようになっている。
(2)(1)を満たす所定の高さ以上で動きがある対象物が、低い状態に移行し、所定時間動かない状態又は所定時間動きが少ない状態になったこと
推定部15は、(1)を満たす所定の高さ以上で動きがある対象物が、低い状態に移行し、所定時間動かない状態又は所定時間動きが少ない状態になったとき、対象物は人であり、かつ人が転倒したと推定する。推定部15は、例えば所定の時間以上静止していない1m以上の高さの対象物が、動いている状態から、歩行したり、立ったり、座ったりする日常の動きのときの人の高さよりも低くなった状態(例えば1m以下)で一定時間(例えば、10〜15秒以上)動かない、又は前記低くなった状態に移行して一定時間(例えば、10〜15秒)以上経過した場合、対象物が動いている状態から動かない状態又は動きが少ない状態に変化したと推定する。
When the TOF sensor 9 is arranged on the ceiling, as shown by a dotted line in FIG. 7, the distance image acquired by the TOF sensor 9 and the upper side of the object to be captured in the IR image become closer to the center of the room depending on the viewing angle. It is cut and invisible. For example, the upper body of the object OJ2 at the end of the room is not copied to the distance image and the IR image acquired from the TOF sensor 9. In this case, since the size of the object OJ2 on the image data is less than 1 m, it is determined that the object OJ2 is not a person. From the above, in the present embodiment, the threshold value for determining that the size of the object is a person is set by changing as shown in FIG. 7 according to the viewing angle. According to this, the threshold value for the object located on the end side of the room is smaller than the threshold value for the object located on the center side of the room. Thereby, since the magnitude | size of the target object OJ2 becomes the same value as a threshold value, the estimation part 15 can estimate that the target object OJ2 may be a person.
However, since the upper body of a person is cut off from the image data and cannot be seen at the end of the room, it is difficult to distinguish it from animals. Whether the object OJ2 is actually a person or a moving body other than a person is difficult to estimate only under the condition (1). Even in the center of the room, it is easy to make an error if it is estimated whether the object is a person or a moving body other than the condition (1), and it is difficult to improve the accuracy of detecting a person's fall. Therefore, in the present embodiment, the estimation unit 15 estimates that a person has fallen when not only satisfying the condition (1) but also satisfying the following condition (2).
(2) An object that moves at or above a predetermined height satisfying (1) has shifted to a low state and has not moved for a predetermined time or has moved less for a predetermined time. When an object that moves above a certain height that satisfies () goes to a low state and does not move for a specified time or moves less for a specified time, the object is a person and the person falls It is estimated that For example, the estimation unit 15 is based on the height of a person at the time of an everyday movement in which a target object having a height of 1 m or more that has not been stationary for a predetermined time or longer is walking, standing, or sitting from a moving state. In a low state (for example, 1 m or less) for a certain period of time (for example, 10 to 15 seconds or more), or when a certain period of time (for example, 10 to 15 seconds) or more has passed after moving to the low state, It is estimated that the object has changed from a moving state to a non-moving state or a state with little movement.

ただし、動かない状態又は動きが少ない状態に変化した後、再び動きが上記所定の動き所以上に大きくなった場合、推定部15は、人が通常状態に復帰したと推定し、人が転倒したとの推定を撤回する。   However, if the movement again becomes larger than the predetermined moving place after changing to a state that does not move or moves less, the estimation unit 15 estimates that the person has returned to the normal state, and the person falls Withdraw the estimate.

以上、人が転倒したと判定する際の必須の要件について説明した。更に、次の(3)〜(6)は、人が転倒したと判定する際の必須の条件ではないが、転倒検知の精度をより高めるために人が転倒したかを検知する際の条件とすることができる。   The essential requirements for determining that a person has fallen have been described above. Further, the following (3) to (6) are not indispensable conditions for determining that a person has fallen, but for detecting whether a person has fallen in order to further improve the accuracy of fall detection, can do.

(3)対象物の服(模様、色又は濃淡)が予め登録されている服(模様、色又は濃淡)と一致又は類似していること
推定部15は、(1)及び(2)の条件を満たす対象物の服(模様、色又は濃淡)が、予め登録されている服(模様、色又は濃淡)と少なくとも一部において一致又は類似している場合、人が転倒したと推定してもよい。推定部15は、特徴/健康情報テーブル23に記憶されている身長/体重232、服(模様、色又は濃淡)233、歩行速度234及び健康状態情報235の各情報に基づき、対象物の服(模様、色又は濃淡)が予め登録されている服(模様、色又は濃淡)と一致又は類似するかを判定してもよい。たとえば、(3)の条件の一例としては、IR画像から抽出される対象物の服(模様、色又は濃淡)が、介護施設で着用する服(模様、色又は濃淡)に服全体又は服の上下の一部において一致又は類似していることが挙げられる。
(3) The clothing (pattern, color, or shade) of the object matches or resembles pre-registered clothing (pattern, color, or shade). The estimation unit 15 satisfies the conditions of (1) and (2) Even if it is estimated that a person has fallen if the clothes (patterns, colors, or shades) of the object that satisfy the condition are at least partially matched or similar to pre-registered clothes (patterns, colors, or shades) Good. The estimator 15 uses the information on the height / weight 232, clothes (pattern, color or shade) 233, walking speed 234, and health condition information 235 stored in the feature / health information table 23 to determine the clothes ( It may be determined whether the pattern (color, color, or shade) matches or resembles pre-registered clothes (pattern, color, or shade). For example, as an example of the condition of (3), the clothes (pattern, color, or shade) of the object extracted from the IR image are the same as the clothes (pattern, color, or shade) that are worn in the care facility. It is mentioned that it is coincident or similar in the upper and lower parts.

(4)対象物が3つの部位(頭、胴体、足)からなっていること
推定部15は、対象物が3つの部位(頭、胴体、足)からなっている場合、人が転倒したと推定してもよい。これにより、転倒した動体が人であるとの一応の心証を形成することができる。
(4) The object consists of three parts (head, torso, legs) The estimation unit 15 assumes that a person has fallen when the object consists of three parts (head, torso, legs). It may be estimated. This makes it possible to form a temporary proof that the fallen moving object is a person.

(5)他の動物の特徴がない(例えば尻尾がない)こと
推定部15は、他の動物の特徴がない(例えば尻尾がない)場合、人が転倒したと推定してもよい。これにより、転倒した動体が人以外の動物であるとの一応の心証を形成することができる。
(5) No other animal features (for example, no tail) The estimation unit 15 may estimate that a person has fallen if there is no other animal feature (for example, no tail). Thereby, a temporary proof that the fallen moving body is an animal other than a human can be formed.

(6)活動量が少ない又はないこと
推定部15は、特徴/健康情報テーブル23に記憶されている歩行速度234やその他の日常の行動を記憶した情報に基づき、対象物の歩行速度が遅い、活動量が少ない又はないことを判定した場合、転倒の予兆と推定してもよい。さらにこの予兆から転倒と判定する時間を短くしてもよい。
(6) The amount of activity is small or absent The estimation unit 15 is based on the walking speed 234 stored in the feature / health information table 23 and other information storing daily activities, and the walking speed of the object is slow. If it is determined that the amount of activity is small or not, it may be estimated that the fall is a sign. Further, it may be possible to shorten the time for determining that the vehicle falls from this sign.

このように、推定部15は、IR画像に基づき、健康状態、身長、体重等を把握して人の転倒を推定することで、人の転倒検知の精度を高めることができる。例えば、推定部15は、特徴/健康情報テーブル23に記憶されている歩行速度234に基づき、対象物の歩くスピードが遅くなってきたと判定した場合に、健康状態が悪いために転倒しやすい状態になっていると推定してもよい。推定部15が、特徴/健康情報テーブル23に記憶されている歩行速度234や健康状態情報235に基づき、転倒した人の健康状態が悪いことを検出した場合、人の転倒の通報のタイミングを早めるように通報部16に要求してもよい。   As described above, the estimation unit 15 can improve the accuracy of human fall detection by grasping the health state, height, weight, and the like and estimating the human fall based on the IR image. For example, when the estimation unit 15 determines that the walking speed of the object has slowed based on the walking speed 234 stored in the feature / health information table 23, the estimation unit 15 is in a state in which it is likely to fall over due to poor health. It may be estimated that If the estimation unit 15 detects that the person who has fallen has a bad health condition based on the walking speed 234 or the health condition information 235 stored in the feature / health information table 23, the timing of the person's fall notification is advanced. You may request | require to the report part 16 as follows.

なお、推定部15は、例外情報テーブル24に記憶されている例外領域及び例外時間において検知された対象物を、転倒を検知する対象物から除く。これにより、例えば高齢者がベッドの上や畳の部屋に布団を敷いて寝る動作やくつろいでいる動作が人の転倒と推定されることを防止できる。   The estimation unit 15 excludes the objects detected in the exception area and the exception time stored in the exception information table 24 from the objects for detecting the fall. Thereby, for example, it is possible to prevent an elderly person from presuming that a person falls on a bed or a tatami room with a futon lying on the bed or a relaxing action is a person falling.

通報部16は、対象物の動きが人の転倒であると推定された場合、記憶部13がログ情報テーブル22に記憶したログ情報のうちの、転倒を推定した人の転倒時刻の状態を示すデータを含む画像データ及び音声データの少なくともいずれかを所定の機器に通報する。例えば、通報部16は、転倒を推定した人の転倒時刻とその前後の状態を含む画像データ及び音声データの少なくともいずれかを送信してもよい。例えば、図4のログ情報テーブル22に記憶されているログ情報のうち、取得時刻情報221が「2014.9.10.11:10」の時刻に人の転倒が推定された場合、通報部16は、転倒が起きたと推定されたときの画像/音声データ3を含むデータを送信する。これにより、通知された者は、人が転倒したか否かを判断することができる。また、通知された者は、人の転倒であると判断した場合にどのような対応をすべきかを早急に監視サーバ20やその他の然るべき医療機関に指示することができる。   When it is estimated that the movement of the object is a person's fall, the reporting unit 16 indicates the state of the fall time of the person who estimated the fall out of the log information stored in the log information table 22 by the storage unit 13. Report at least one of image data including data and audio data to a predetermined device. For example, the reporting unit 16 may transmit at least one of image data and audio data including the fall time of the person who estimated the fall and the states before and after the fall time. For example, when the fall of a person is estimated at the time when the acquisition time information 221 is “2014.9.10.11:10” among the log information stored in the log information table 22 of FIG. Transmits data including image / sound data 3 when it is estimated that a fall has occurred. Thereby, the notified person can determine whether or not the person has fallen. In addition, the notified person can promptly instruct the monitoring server 20 and other appropriate medical institutions what to do when it is determined that the person has fallen.

通報部16が、転倒を推定した人の転倒時刻とその前後の状態を含む画像データ及び音声データの少なくともいずれかを送信する場合、例えば、取得時刻情報221が「2014.9.10.11:10」の時刻の画像/音声データ3とその前後の画像/音声データを送信してもよい。これにより、通知された者は、転倒が起きたときの画像/音声データ3だけでなく、その前の画像/音声データ1,2やその後の画像/音声データ4,5に基づき人が転倒したか否かの判断をより容易に行うことができる。これにより、通知された者は、転倒時の状態だけでなく、転倒前の状態や転倒後の状態を知ることができ、転倒時の状況把握が容易になるため、正確な対応を迅速に行うことが可能となる。通報部16は、特徴/健康情報テーブル23に基づき、上記データに加えて転倒した人のID231に対応付けて記憶された健康状態情報235や服の情報233等を通知してもよい。   In a case where the reporting unit 16 transmits at least one of image data and audio data including the fall time of the person who estimated the fall and the states before and after the fall time, the acquisition time information 221 is “2014.9.10.11: The image / sound data 3 at the time “10” and the image / sound data before and after that may be transmitted. As a result, the person who has been notified falls down based not only on the image / sound data 3 at the time of the fall, but also on the previous image / sound data 1, 2 and the subsequent image / sound data 4, 5 Whether or not can be determined more easily. As a result, the notified person can know not only the state at the time of the fall but also the state before the fall and the state after the fall, and the situation at the time of the fall can be easily grasped, so that an accurate response is promptly performed. It becomes possible. Based on the feature / health information table 23, the reporting unit 16 may notify health information 235, clothing information 233, and the like stored in association with the ID 231 of the fallen person in addition to the above data.

なお、通報部16が通知する転倒検知の通知先となる所定の機器は、転倒が起きた現場の部屋及び予め登録された通知先の少なくともいずれかであってもよい。通報部16は、転倒の通報と同時に通報した機器と通話可能な状態にし、呼びかけに対して無事であるとの応答があるか否かを確認するようにしてもよい。なお、人の転倒を通報する通知先は、転倒検知処理装置10が通知先登録テーブル21に基づき決定してもよい。また、人の転倒を通報する通知先は、通報部16からの通報を受信した監視サーバ20が決定し、監視サーバ20から必要な情報を通知するようにしてもよい。   Note that the predetermined device that is the notification destination of the fall detection notified by the reporting unit 16 may be at least one of a room at the site where the fall occurred and a notification destination registered in advance. The reporting unit 16 may make it possible to make a call with the device that has been reported at the same time as the report of the fall, and check whether there is a response that the call is safe. In addition, the fall detection processing device 10 may determine the notification destination for reporting the fall of a person based on the notification destination registration table 21. Moreover, the monitoring server 20 that has received the notification from the reporting unit 16 may determine the notification destination for reporting the fall of a person, and notify the necessary information from the monitoring server 20.

通信部17は、必要な情報や通報を監視サーバ20や通知先のスマートフォン40や携帯電話機器50に送信したり、監視サーバ20から所定の情報を受信したりする。   The communication unit 17 transmits necessary information and reports to the monitoring server 20, the notification destination smartphone 40 and the mobile phone device 50, and receives predetermined information from the monitoring server 20.

[転倒検知処理]
次に、以上のように構成される本実施形態の転倒検知処理装置10における制御及び処理について説明する。図8は、本発明の一実施形態に係る転倒検知処理装置10が実行する転倒検知処理のフローチャートを示す。
[Fall detection processing]
Next, control and processing in the fall detection processing device 10 of the present embodiment configured as described above will be described. FIG. 8 shows a flowchart of the fall detection process executed by the fall detection processing apparatus 10 according to an embodiment of the present invention.

本処理が開始されると、取得部12は、TOFセンサ9を用いて距離画像とIR画像とを取得する(ステップS10)。取得部12は、カラー画像や白黒画像を取得してもよい。次に、判定部14は、距離画像とIR画像とに基づき、対象物の大きさ、対象物の動き及び対象物の模様や色や濃淡を判定する。推定部15は、距離画像から抽出される対象物の大きさから対象物が閾値以上の高さの動体である場合、対象物を人と推定し、閾値未満の高さの動体(例えばペット)と区別して認識する(ステップS12)。推定部15は、人と推定された対象物の高さ方向の変化を検出する(ステップS12)。   When this process is started, the acquisition unit 12 acquires a distance image and an IR image using the TOF sensor 9 (step S10). The acquisition unit 12 may acquire a color image or a black and white image. Next, the determination unit 14 determines the size of the target object, the movement of the target object, and the pattern, color, and shade of the target object based on the distance image and the IR image. When the target is a moving object having a height equal to or higher than the threshold based on the size of the target extracted from the distance image, the estimating unit 15 estimates the target as a person, and a moving object having a height lower than the threshold (for example, a pet). (Step S12). The estimation unit 15 detects a change in the height direction of the object estimated to be a person (step S12).

次に、推定部15は、転倒が生じた時刻の距離画像及びその後に取得した距離画像に基づき、転倒状態のTOFセンサ9と対象物との距離から転倒している人の状態を推定し、対象物の大きさや動作を確認する(ステップS14)。推定部15は、この結果、静止物と推定した対象物や、ペット等の人以外の動体と推定した対象物を人の転倒の検知対象から除外する(ステップS14)。たとえば、推定部15は、上記(1)の条件に従い、対象物が予め定められた閾値(1m等)以上の場合、対象物は人と推定し、対象物が閾値未満の場合、対象物は人以外の動体と推定する。また、推定部15は、上記(2)の条件に従い、対象物の高さ方向の変化を検出し、これにより対象物が人の転倒であるかを推定する。   Next, the estimation unit 15 estimates the state of the person who has fallen from the distance between the TOF sensor 9 in the fall state and the object based on the distance image at the time when the fall occurred and the distance image acquired thereafter, The size and operation of the object are confirmed (step S14). As a result, the estimation unit 15 excludes an object estimated as a stationary object or an object estimated as a moving body other than a person such as a pet from a person's fall detection target (step S14). For example, in accordance with the condition (1), the estimation unit 15 estimates that the object is a person when the object is equal to or greater than a predetermined threshold (such as 1 m), and if the object is less than the threshold, the object is Presumed to be a non-human moving body. Moreover, the estimation part 15 detects the change of the height direction of a target object according to the conditions of said (2), and estimates whether a target object is a person's fall by this.

次に、推定部15は、IR画像を確認し、対象物の服装や服の濃淡差や服の上下の濃淡差、服の色差、模様の差異等の対象物の外観上の特徴を確認する(ステップS16)。たとえば、推定部15は、上記(3)の条件に従い、特徴/健康情報テーブル23に記憶されている情報に基づき、IR画像から抽出された対象物の外観上の特徴を確認し、対象物が人であるか、及び人が転倒したか否かを推定する。なお、(1)及び(2)の条件は、人の転倒検知を判定する際に必須の要件であるが、(3)の条件は人の転倒検知を判定する際に必須の要件としなくてもよい。つまり、本実施形態に係る転倒検知処理では、ステップS16は省略できる。   Next, the estimation unit 15 confirms the IR image, and confirms the appearance features of the object such as the clothes of the object, the shade difference of the clothes, the shade difference between the top and bottom of the clothes, the color difference of the clothes, and the difference of the pattern. (Step S16). For example, the estimation unit 15 confirms the feature on the appearance of the object extracted from the IR image based on the information stored in the feature / health information table 23 according to the condition (3). It is estimated whether the person is a person and whether the person has fallen. The conditions (1) and (2) are indispensable requirements for determining human fall detection, but the condition (3) must not be an indispensable requirement for determining human fall detection. Also good. That is, step S16 can be omitted in the fall detection process according to the present embodiment.

次に、推定部15は、人の転倒を推定してから一定時間の動きが所定の閾値よりも少ないかを判定する(ステップS18)。推定部15は、人の転倒を推定してから一定時間の動きが所定の閾値以上であると判定した場合、人の転倒は発生していないと判断し、本処理を終了する。一方、推定部15は、人の転倒を推定してから一定時間の動きが所定の閾値よりも少ないと判定した場合、判定部14は、閾値(例えば1m)以上の高さの動体を検出したかを判定する(ステップS20)。   Next, the estimation unit 15 determines whether or not the movement for a certain period of time after estimating the fall of a person is less than a predetermined threshold (step S18). If the estimation unit 15 determines that the person's fall has been equal to or greater than a predetermined threshold after estimating the person's fall, the estimator 15 determines that no person has fallen and ends this process. On the other hand, when the estimation unit 15 determines that the movement for a certain period of time after estimating a human fall is less than a predetermined threshold, the determination unit 14 detects a moving object having a height equal to or higher than a threshold (for example, 1 m). Is determined (step S20).

判定部14は、閾値(例えば1m)以上の高さの動体を検出したと判定した場合、転倒した人が復帰したと判断し、本処理を終了する。一方。判定部14は、閾値(例えば1m)以上の高さの動体を検出していないと判定した場合、通報部16は、人の転倒を通報し(ステップS22)、本処理を終了する。   If the determination unit 14 determines that a moving object having a height equal to or higher than a threshold (for example, 1 m) has been detected, the determination unit 14 determines that the person who has fallen has returned, and ends the process. on the other hand. If the determination unit 14 determines that a moving object having a height equal to or higher than a threshold (for example, 1 m) has not been detected, the notification unit 16 reports a person's fall (step S22), and ends the process.

例えば、通報部16は、人の転倒を通報する際、図7に示すスピーカ8aから「大丈夫ですか?」、「どうしましたか?」と自動的に問いかけてもよい。これに応じて、人が、「大丈夫」、「問題ない」、「助けて」などの応答を示した場合、マイク8bがこの応答又は無応答をキャッチする。通報部16は、通報時、上記問いかけとそれに対する回答を記憶した音声ファイルを通知先のスマートフォン40等に送信する。この様に現場の状況を把握できる情報を入れることにより、関係者は緊急度を把握することができ効率の良い対応が可能となる。また、応答に対し音声認識機能などを活用することにより問題がないことを自動的に判断するようにしてもよい。これにより、人の転倒検知の精度を高め、誤報を減らして関係者の心配を和らげることができる。   For example, when reporting the fall of a person, the reporting unit 16 may automatically ask the speaker 8a shown in FIG. 7 "Are you all right?" In response to this, when a person shows a response such as “OK”, “NO PROBLEM”, “HELP”, etc., the microphone 8b catches this response or no response. At the time of reporting, the reporting unit 16 transmits a voice file storing the above question and an answer thereto to the notification destination smartphone 40 or the like. By putting information that can grasp the situation at the site in this way, the person concerned can grasp the degree of urgency and can efficiently respond. Further, it may be automatically determined that there is no problem by utilizing a voice recognition function or the like for the response. As a result, the accuracy of human fall detection can be improved, and false alarms can be reduced to alleviate concerns of related parties.

以上に説明したように、本実施形態の転倒検知システム1によれば、転倒検知処理装置10が人の転倒を判定する条件をすべて満足するか否かを、距離画像及びIR画像に基づき判定する。これにより、人の転倒検知の信頼性を高め、誤報を低減させた転倒検知システム1を提供することができる。   As described above, according to the fall detection system 1 of the present embodiment, it is determined based on the distance image and the IR image whether or not the fall detection processing device 10 satisfies all the conditions for determining a person's fall. . Thereby, the fall detection system 1 which raised the fall reliability of the person and reduced the misinformation can be provided.

特に、本実施形態の転倒検知システム1によれば、TOFセンサ9を用いて距離画像及びIR画像を得る。これにより、距離画像及びIR画像が写す対象物の位置ずれが生じないため、これらの両画像に基づき対象物が人であるかの判定と、人が転倒したかの判定を精度よく推定することができる。例えば、図9に示すように、TOFセンサ9を用いて得た距離画像及びIR画像に基づき、転倒した人の部位や転倒状態やその人の外観上の特徴(服の模様、色、濃淡等)を抽出することで、抽出した画像データに基づき人が転倒したことの推定の精度を高めることができる。これにより、人の転倒に関する誤報を減らすことができる。   In particular, according to the fall detection system 1 of the present embodiment, the distance image and the IR image are obtained using the TOF sensor 9. As a result, since there is no positional shift of the object captured by the distance image and the IR image, it is possible to accurately estimate whether the object is a person and whether the person has fallen based on these images. Can do. For example, as shown in FIG. 9, based on the distance image and the IR image obtained using the TOF sensor 9, the part of the person who fell and the fall state and the appearance characteristics of the person (clothing pattern, color, shading, etc. ) Is extracted, it is possible to improve the accuracy of estimation that a person has fallen based on the extracted image data. Thereby, the misinformation about a person's fall can be reduced.

[監視処理]
次に、本実施形態の監視サーバ20における制御及び処理について説明する。図10は、本発明の一実施形態に係る監視サーバ20が実行する監視処理のフローチャートを示す。
[Monitoring process]
Next, control and processing in the monitoring server 20 of this embodiment will be described. FIG. 10 shows a flowchart of the monitoring process executed by the monitoring server 20 according to the embodiment of the present invention.

本処理が開始されると、監視サーバ20は、転倒検知処理装置10からの通報を受信したかを判定する(ステップS30)。監視サーバ20は、転倒検知処理装置10からの通報を受信していないと判定した場合、本処理を終了する。   When this process is started, the monitoring server 20 determines whether a report from the fall detection processing device 10 has been received (step S30). If the monitoring server 20 determines that the report from the fall detection processing device 10 has not been received, the process ends.

一方、監視サーバ20は、転倒検知処理装置10からの通報を受信したと判定した場合、人の転倒が推定された時刻における画像データ及び音声データとその前後の画像データ及び音声データを通知先に送信する(ステップS32)。   On the other hand, when the monitoring server 20 determines that the report from the fall detection processing device 10 has been received, the image data and the voice data at the time when the person's fall is estimated and the image data and the voice data before and after that are notified to the notification destination. Transmit (step S32).

次に、監視サーバ20は、人の転倒に対する指示又は所定時間が経過したかを判定する(ステップS34)。監視サーバ20は、人の転倒に対する指示を受信したか、又は所定時間が経過したと判定した場合、本処理を終了し、それ以外の場合、ステップS32に戻り、ステップS34の判定処理にて「Yes」と判定されるまで、ステップS32、S34の処理を繰り返す。   Next, the monitoring server 20 determines whether an instruction for a person's falling or a predetermined time has elapsed (step S34). If the monitoring server 20 receives an instruction for a person's fall or determines that a predetermined time has elapsed, the monitoring server 20 ends the process. Otherwise, the process returns to step S32, and the determination process in step S34 indicates “ The processes of steps S32 and S34 are repeated until “Yes” is determined.

以上に説明したように、本実施形態の転倒検知システム1によれば、監視サーバ20が、転倒検知処理装置10からの通報に応じて転倒が起きた時刻の画像データ及び音声データとその前後の画像データ及び音声データを送信する。これにより、通知された者は、転倒が起きたときの画像データ及び音声データだけでなく、その前の画像データ及び音声データやその後の画像データ及び音声データに基づき人の転倒についての情報を得る。これにより、通知された者は、転倒時の人の状態だけでなく、転倒前の人の状態や転倒後の人の状態を知ることができ、人の転倒時の状況把握が容易になるため、正確な対応を迅速に行うことが可能となる。   As described above, according to the fall detection system 1 of the present embodiment, the monitoring server 20 detects the image data and audio data at the time when the fall occurred in response to the report from the fall detection processing device 10 and the data before and after that. Transmit image data and audio data. As a result, the notified person obtains not only the image data and audio data when the fall occurs, but also information on the person's fall based on the previous image data and audio data, and the subsequent image data and audio data. . As a result, the notified person can know not only the state of the person at the time of the fall but also the state of the person before the fall and the state of the person after the fall, and the situation at the time of the fall of the person becomes easy to understand. It is possible to perform an accurate response promptly.

ただし、ステップS32では、人の転倒が推定された時刻とその前後の画像データ及び音声データが通知先に送信されたが、これに限らず、人の転倒が推定された時刻の画像データ及び音声データの少なくともいずれかを含むデータが通知先に送信されればよい。   However, in step S32, the time when the person's fall was estimated and the image data and sound data before and after the time were transmitted to the notification destination, but the present invention is not limited to this, and the image data and sound at the time when the person's fall was estimated. Data including at least one of the data may be transmitted to the notification destination.

(転倒検知を補完する方法)
以上、本実施形態に係る転倒検知処理装置10が行う転倒検知方法について説明したが、この転倒検知方法を補完する以下の方法と転倒検知方法とを組み合わせることができる。これにより、転倒検知の精度をより高めることができる。
(Method to complement fall detection)
As described above, the fall detection method performed by the fall detection processing device 10 according to the present embodiment has been described. However, the following method that complements the fall detection method and the fall detection method can be combined. Thereby, the precision of fall detection can be raised more.

例えば、転倒検知処理装置10は、取得部12が取得した画像データから転倒したと推定される人の心拍数を演算してもよい。これにより、心拍数から転倒した人の状況をより詳しく知ることができる。例えば、転倒した人の心拍数の情報を含めて通知先に転知を通報することができる。   For example, the fall detection processing device 10 may calculate the heart rate of a person estimated to have fallen from the image data acquired by the acquisition unit 12. Thereby, the situation of the person who falls from the heart rate can be known in more detail. For example, the information about the heart rate of the person who falls can be notified to the notification destination.

また、例えば加速度センサをベッドに配置している場合、取得部12は、加速度センサが検知する3軸の加速度を取得する。この場合、転倒検知処理装置10は、3軸の加速度に基づき、転倒した人の心拍数と身体の動作の情報を得ることができる。これにより、心拍数や身体の動作から人が転倒したか否かの推定や、転倒したと推定した人の状況をより詳しく知ることができる。   For example, when the acceleration sensor is arranged on the bed, the acquisition unit 12 acquires the triaxial acceleration detected by the acceleration sensor. In this case, the fall detection processing device 10 can obtain information on the heart rate and physical motion of the fallen person based on the triaxial acceleration. Thereby, it is possible to estimate in detail whether or not the person has fallen from the heart rate and the movement of the body, and to know in more detail the situation of the person who has been estimated to have fallen.

更に、例えば転倒した人が振動センサを所持している場合、取得部12は、振動センサが検知する振動値を取得する。この場合、転倒検知処理装置10は、振動値に基づき人が転倒したときに振動が生じたかを判定することができる。   Furthermore, for example, when a person who falls down possesses a vibration sensor, the acquisition unit 12 acquires a vibration value detected by the vibration sensor. In this case, the fall detection processing device 10 can determine whether vibration has occurred when a person falls based on the vibration value.

以上のように、本実施形態に係る転倒検知処理装置10は、本実施形態の転倒検知方法を上記方法により補完することで、人の転倒の精度を更に高めることができる。   As described above, the fall detection processing device 10 according to the present embodiment can further improve the accuracy of human fall by complementing the fall detection method of the present embodiment with the above method.

(転倒検知システム例)
最後に、本実施形態に係る転倒検知処理装置10の転倒検知システム例について、図11を参照して説明する。図11は、本実施形態に係る転倒検知処理装置10の転倒検知システム例を示す図である。
(Example of fall detection system)
Finally, an example of the fall detection system of the fall detection processing apparatus 10 according to the present embodiment will be described with reference to FIG. FIG. 11 is a diagram illustrating a fall detection system example of the fall detection processing device 10 according to the present embodiment.

転倒検知処理装置10は、入力装置101、表示装置102、外部I/F103、RAM(Random Access Memory)104、ROM(Read Only Memory)105、CPU(Central Processing Unit)106、通信I/F107、及びHDD(Hard Disk Drive)108を備える。各部はバスBで相互に接続されている。   The fall detection processing device 10 includes an input device 101, a display device 102, an external I / F 103, a RAM (Random Access Memory) 104, a ROM (Read Only Memory) 105, a CPU (Central Processing Unit) 106, a communication I / F 107, and An HDD (Hard Disk Drive) 108 is provided. Each part is connected to each other by a bus B.

入力装置101は、キーボードやマウスなどを含み、転倒検知処理装置10に各操作信号を入力するのに用いられる。表示装置102は、ディスプレイ等を含み、各種の処理結果を表示する。   The input device 101 includes a keyboard and a mouse and is used to input each operation signal to the fall detection processing device 10. The display device 102 includes a display and displays various processing results.

通信I/F107は、転倒検知処理装置10をネットワークに接続するインタフェースである。これにより、転倒検知処理装置10は、通信I/F107を介して、監視サーバ20や通知先の機器とデータ通信を行うことができる。   The communication I / F 107 is an interface that connects the fall detection processing device 10 to a network. Thereby, the fall detection processing device 10 can perform data communication with the monitoring server 20 and the notification destination device via the communication I / F 107.

HDD108は、プログラムやデータを格納している不揮発性の記憶装置である。格納されるプログラムやデータには、装置全体を制御する基本ソフトウェア及びアプリケーションソフトウェアがある。例えば、HDD108には、各種のDB情報やプログラム等が格納されている。   The HDD 108 is a non-volatile storage device that stores programs and data. The stored programs and data include basic software and application software that control the entire apparatus. For example, the HDD 108 stores various DB information, programs, and the like.

外部I/F103は、外部装置とのインタフェースである。外部装置には、記録媒体103aなどがある。これにより、転倒検知処理装置10は、外部I/F103を介して記録媒体103aの読み取り及び/又は書き込みを行うことができる。記録媒体103aには、CD(Compact Disk)、及びDVD(Digital Versatile Disk)、ならびに、SDメモリカード(SD Memory card)やUSBメモリ(Universal Serial Bus memory)などがある。   The external I / F 103 is an interface with an external device. The external device includes a recording medium 103a. Thereby, the fall detection processing device 10 can read and / or write the recording medium 103 a via the external I / F 103. Examples of the recording medium 103a include a CD (Compact Disk), a DVD (Digital Versatile Disk), an SD memory card, a USB memory (Universal Serial Bus memory), and the like.

ROM105は、電源を切っても内部データを保持することができる不揮発性の半導体メモリ(記憶装置)である。ROM105には、ネットワーク設定などのプログラムやデータが格納されている。RAM104は、プログラムやデータを一時保持する揮発性の半導体メモリ(記憶装置)である。CPU106は、上記記憶装置(例えば「HDD108」や「ROM105」など)から、プログラムやデータをRAM104上に読み出し、処理を実行することで、装置全体の制御や搭載機能を実現する演算装置である。   The ROM 105 is a nonvolatile semiconductor memory (storage device) that can retain internal data even when the power is turned off. The ROM 105 stores programs and data such as network settings. The RAM 104 is a volatile semiconductor memory (storage device) that temporarily stores programs and data. The CPU 106 is an arithmetic unit that realizes control of the entire apparatus and mounting functions by reading programs and data from the storage device (for example, “HDD 108”, “ROM 105”, etc.) onto the RAM 104 and executing processing.

上記転倒検知システムにより、本実施形態に係る転倒検知処理装置10は、転倒検知処理を行うことができる。例えば、CPU106が、ROM105やHDD108内に格納されたデータ及びプログラムを用いて転倒検知処理を実行する。この結果、本実施形態では、人が転倒したことを予め登録されている機器の所持者に提供することができる。なお、通知先登録テーブル21、ログ情報テーブル22、特徴/健康情報テーブル23及び例外情報テーブル24の情報は、RAM104、HDD108、又はネットワーク30を介して転倒検知処理装置10に接続されるクラウド上のサーバ等に格納され得る。   With the above-described fall detection system, the fall detection processing device 10 according to the present embodiment can perform a fall detection process. For example, the CPU 106 executes a fall detection process using data and programs stored in the ROM 105 and the HDD 108. As a result, in the present embodiment, it is possible to provide the owner of a device registered in advance that a person has fallen. The information in the notification destination registration table 21, log information table 22, feature / health information table 23, and exception information table 24 is stored on the cloud connected to the fall detection processing device 10 via the RAM 104, the HDD 108, or the network 30. It can be stored in a server or the like.

以上、転倒検知処理装置及び転倒検知システムを上記実施形態により説明したが、本発明にかかる転倒検知処理装置及び転倒検知システムは上記実施形態に限定されるものではなく、本発明の範囲内で種々の変形及び改良が可能である。上記複数の実施形態に記載された事項は、矛盾しない範囲で組み合わせることができる。   As mentioned above, although the fall detection processing device and the fall detection system have been described in the above embodiment, the fall detection processing device and the fall detection system according to the present invention are not limited to the above embodiment, and various within the scope of the present invention. Modifications and improvements are possible. The matters described in the above embodiments can be combined within a consistent range.

例えば、上記実施形態に係る転倒検知システムの構成は一例であり、本発明の範囲を限定するものではなく、用途や目的に応じて様々なシステム構成例があることは言うまでもない。例えば、転倒検知処理装置10及監視サーバ20がネットワーク30を介して互いに接続されているシステム形態は、本実施形態に係る転倒検知システムの一態様であり、これに限定されない。例えば、本実施形態に係る転倒検知システムに含まれる監視サーバ20の台数は、1台又は2台以上であり得る。複数台の監視サーバ20が設置される場合、通知先への通報処理は、複数台の監視サーバ20で分散処理され得る。なお、用途や目的に応じて、複数台のうち1台の監視サーバ20に選択的にそれら処理機能を集約させてもよい。   For example, the configuration of the fall detection system according to the above-described embodiment is an example, and does not limit the scope of the present invention, and it goes without saying that there are various system configuration examples depending on applications and purposes. For example, the system configuration in which the fall detection processing device 10 and the monitoring server 20 are connected to each other via the network 30 is an aspect of the fall detection system according to the present embodiment, and is not limited thereto. For example, the number of monitoring servers 20 included in the fall detection system according to the present embodiment may be one or two or more. When a plurality of monitoring servers 20 are installed, the notification processing to the notification destination can be distributed by the plurality of monitoring servers 20. Note that these processing functions may be selectively aggregated in one monitoring server 20 among a plurality of units according to the purpose and purpose.

また、本発明に係る転倒検知処理装置10の各部の機能は、ハードウェアにより構成されてもよく、ソフトウェアにより構成されてもよく、ハードウェアとソフトウェアとを組み合わせて構成されてもよい。   Moreover, the function of each part of the fall detection processing apparatus 10 according to the present invention may be configured by hardware, may be configured by software, or may be configured by combining hardware and software.

また、例えば、上記実施形態に係る転倒検知処理装置10は、距離画像とIR画像とに基づき人の転倒を推定した。しかしながら、本発明に係る転倒検知処理装置10は、これに限らず、距離画像とIR画像とに加えて取得可能なカラー画像や白黒画像を用いて人の転倒を推定することができる。   Further, for example, the fall detection processing device 10 according to the above-described embodiment estimates a person's fall based on the distance image and the IR image. However, the fall detection processing device 10 according to the present invention is not limited to this, and can estimate a person's fall using a color image or a monochrome image that can be acquired in addition to the distance image and the IR image.

1:転倒検知システム
9:TOFセンサ
10:転倒検知処理装置
11:検知部
12:取得部
13:記憶部
14:判定部
15:推定部
16:通報部
17:通信部
21:通知先登録テーブル
22:ログ情報テーブル
23:特徴/健康情報テーブル
24:例外情報テーブル
A:介護施設
B:在宅介護宅
1: fall detection system 9: TOF sensor 10: fall detection processing device 11: detection unit 12: acquisition unit 13: storage unit 14: determination unit 15: estimation unit 16: notification unit 17: communication unit 21: notification destination registration table 22 : Log information table 23: Feature / health information table 24: Exception information table A: Care facility B: Home care home

Claims (8)

転倒を検知する対象の空間の距離画像及びIR画像をTOFセンサから取得する取得部と、
取得した前記距離画像及び前記IR画像に基づき、前記対象物の大きさと、該対象物の所定時間の動きと、該対象物の模様、色又は濃淡とを判定する判定部と、
判定した前記対象物の大きさと、該対象物の所定時間の動きと、該対象物の模様、色又は濃淡とに応じて該対象物の動きが人の転倒であるかを推定する推定部と、
を有する、転倒検知処理装置。
An acquisition unit that acquires from the TOF sensor a distance image and an IR image of a target space to detect a fall;
A determination unit that determines the size of the object, the movement of the object for a predetermined time, and the pattern, color, or shade of the object based on the acquired distance image and the IR image;
An estimation unit that estimates whether the movement of the object is a fall of a person according to the determined size of the object, the movement of the object for a predetermined time, and the pattern, color, or shade of the object; ,
A fall detection processing apparatus.
前記対象の空間の画像データ及び音声データの少なくともいずれかのデータを記憶する記憶部と、
前記対象物の動きが人の転倒であると推定された場合、前記記憶部が記憶したデータのうちの、前記転倒を推定した人の転倒時刻の状態を含む画像データ及び音声データの少なくともいずれかを送信することで所定の機器に通報する通報部を有する、
請求項1に記載の転倒検知処理装置。
A storage unit for storing at least one of image data and audio data of the target space;
When it is estimated that the movement of the object is a person's fall, at least one of image data and audio data including the state of the fall time of the person who estimated the fall out of the data stored in the storage unit Has a reporting unit that reports to the specified device by sending
The fall detection processing device according to claim 1.
前記通報部は、
前記転倒を推定した人の転倒時刻の前後の状態を含む画像データ及び音声データの少なくともいずれかを送信する、
請求項2に記載の転倒検知処理装置。
The reporting unit
Transmitting at least one of image data and audio data including states before and after the fall time of the person who estimated the fall,
The fall detection processing device according to claim 2.
一又は複数の人の特徴及び健康状態の少なくともいずれかを示す情報を記憶する記憶部を有し、
前記推定部は、
取得した前記距離画像及び前記IR画像と、前記記憶部が記憶した人の特徴及び健康状態の少なくともいずれかと、に基づき、前記対象物の動きが人の転倒であるか、又は前記所定の機器に人の転倒を通報する必要があるかを推定する、
請求項1〜3のいずれか一項に記載の転倒検知処理装置。
A storage unit that stores information indicating at least one of the characteristics and health status of one or more persons;
The estimation unit includes
Based on the acquired distance image and the IR image, and at least one of the characteristics and health status of the person stored in the storage unit, the movement of the object is a person's fall, or the predetermined device Estimate whether it is necessary to report a person's fall,
The fall detection processing device according to any one of claims 1 to 3.
前記判定部は、取得した前記距離画像及び前記IR画像のうちの、対象物が撮られている距離画像及びIR画像と、前記対象物が撮られていない距離画像及びIR画像と、に基づき、前記対象物の大きさと、該対象物の所定時間の動きと、該対象物の模様、色又は濃淡とを判定する、
請求項1〜4のいずれか一項に記載の転倒検知処理装置。
The determination unit is based on the acquired distance image and IR image of the distance image and the IR image, and the distance image and IR image where the object is not captured. Determining the size of the object, the movement of the object for a predetermined time, and the pattern, color or shade of the object;
The fall detection processing device according to any one of claims 1 to 4.
前記対象の空間のうちの例外領域及び例外時間の少なくともいずれかを記憶する記憶部を有し、
前記推定部は、
前記例外領域及び例外時間において検知された前記対象物を、転倒を検知する対象物から除く、
請求項1〜5に記載の転倒検知処理装置。
A storage unit that stores at least one of the exception area and the exception time in the target space;
The estimation unit includes
The object detected in the exception area and the exception time is removed from the object to detect a fall,
The fall detection processing device according to claim 1.
人の転倒を検知する転倒検知処理装置と人の転倒を監視する監視サーバとが通信可能な転倒検知システムであって、
前記転倒検知処理装置は、
転倒を検知する対象の空間の距離画像及びIR画像をTOFセンサから取得する取得部と、
取得した前記距離画像及び前記IR画像に基づき、前記対象物の大きさと、該対象物の所定時間の動きと、該対象物の模様、色又は濃淡とを判定する判定部と、
判定した前記対象物の大きさと、該対象物の所定時間の動きと、該対象物の模様、色又は濃淡とに応じて該対象物の動きが人の転倒であるかを推定する推定部と、
前記対象物の動きが人の転倒であると推定された場合、前記監視サーバを含む所定の機器に通報する通報部と、
を有し、
前記監視サーバは、
前記対象の空間の画像データ及び音声データの少なくともいずれかのデータを記憶し、
前記記憶したデータのうちの、前記転倒を推定した人の転倒時刻の状態を含む画像データ及び音声データの少なくともいずれかを予め通知先として登録されている機器に送信する、
転倒検知システム。
A fall detection system in which a fall detection processing device that detects a fall of a person and a monitoring server that monitors the fall of a person can communicate,
The fall detection processing device is
An acquisition unit that acquires from the TOF sensor a distance image and an IR image of a target space to detect a fall;
A determination unit that determines the size of the object, the movement of the object for a predetermined time, and the pattern, color, or shade of the object based on the acquired distance image and the IR image;
An estimation unit that estimates whether the movement of the object is a fall of a person according to the determined size of the object, the movement of the object for a predetermined time, and the pattern, color, or shade of the object; ,
When it is estimated that the movement of the object is a human fall, a reporting unit that reports to a predetermined device including the monitoring server;
Have
The monitoring server is
Storing at least one of image data and audio data of the target space;
Of the stored data, at least one of image data and sound data including the state of the fall time of the person who estimated the fall is transmitted to a device registered in advance as a notification destination,
Fall detection system.
前記監視サーバは、
前記転倒が推定された人の転倒時刻の前後の状態を含む画像データ及び音声データの少なくともいずれかを送信する、
請求項7に記載の転倒検知システム。
The monitoring server is
Transmitting at least one of image data and audio data including states before and after the fall time of the person estimated to fall.
The fall detection system according to claim 7.
JP2014200762A 2014-09-30 2014-09-30 Fall detection processing apparatus and fall detection system Pending JP2016067641A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014200762A JP2016067641A (en) 2014-09-30 2014-09-30 Fall detection processing apparatus and fall detection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014200762A JP2016067641A (en) 2014-09-30 2014-09-30 Fall detection processing apparatus and fall detection system

Publications (1)

Publication Number Publication Date
JP2016067641A true JP2016067641A (en) 2016-05-09

Family

ID=55863373

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014200762A Pending JP2016067641A (en) 2014-09-30 2014-09-30 Fall detection processing apparatus and fall detection system

Country Status (1)

Country Link
JP (1) JP2016067641A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018030024A1 (en) * 2016-08-08 2018-02-15 コニカミノルタ株式会社 Watch-over system, watch-over device, watch-over method, and watch-over program
JP2018106437A (en) * 2016-12-27 2018-07-05 積水化学工業株式会社 Behavioral assessment system and behavioral assessment method
WO2018151004A1 (en) * 2017-02-16 2018-08-23 パナソニックIpマネジメント株式会社 Anomaly notification system and anomaly notification method
JP2018151808A (en) * 2017-03-13 2018-09-27 三菱電機株式会社 Notification device, notification method, and program
CN108710822A (en) * 2018-04-04 2018-10-26 燕山大学 Personnel falling detection system based on infrared array sensor
JP2019028890A (en) * 2017-08-02 2019-02-21 株式会社木村技研 Security management system
JP2019168950A (en) * 2018-03-23 2019-10-03 株式会社Ihi Object detection device and object detection method
JP2020119038A (en) * 2019-01-18 2020-08-06 トヨタ自動車株式会社 Vehicle allocation service system, vehicle allocation service method, program, and moving body
CN111601092A (en) * 2020-06-10 2020-08-28 路邦科技授权有限公司 Intelligent first-aid identification rescue system, monitoring method thereof and behavior identification method thereof
JP2021103850A (en) * 2019-12-25 2021-07-15 エヌ・ティ・ティ・コミュニケーションズ株式会社 Monitoring terminal and monitoring method
TWI764410B (en) * 2020-12-01 2022-05-11 大陸商業成科技(成都)有限公司 Fall down detection system and method therefor

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018030024A1 (en) * 2016-08-08 2018-02-15 コニカミノルタ株式会社 Watch-over system, watch-over device, watch-over method, and watch-over program
JPWO2018030024A1 (en) * 2016-08-08 2019-06-06 コニカミノルタ株式会社 Watch system, watch device, watch method, and watch program
JP2018106437A (en) * 2016-12-27 2018-07-05 積水化学工業株式会社 Behavioral assessment system and behavioral assessment method
JP7065460B2 (en) 2017-02-16 2022-05-12 パナソニックIpマネジメント株式会社 Incident notification system and incident notification method
WO2018151004A1 (en) * 2017-02-16 2018-08-23 パナソニックIpマネジメント株式会社 Anomaly notification system and anomaly notification method
JPWO2018151004A1 (en) * 2017-02-16 2019-12-12 パナソニックIpマネジメント株式会社 Anomaly notification system and anomaly notification method
JP2018151808A (en) * 2017-03-13 2018-09-27 三菱電機株式会社 Notification device, notification method, and program
JP2019028890A (en) * 2017-08-02 2019-02-21 株式会社木村技研 Security management system
US11348372B2 (en) 2017-08-02 2022-05-31 Kimura Corporation Security management system
JP2019168950A (en) * 2018-03-23 2019-10-03 株式会社Ihi Object detection device and object detection method
CN108710822A (en) * 2018-04-04 2018-10-26 燕山大学 Personnel falling detection system based on infrared array sensor
CN108710822B (en) * 2018-04-04 2022-05-13 燕山大学 Personnel falling detection system based on infrared array sensor
JP2020119038A (en) * 2019-01-18 2020-08-06 トヨタ自動車株式会社 Vehicle allocation service system, vehicle allocation service method, program, and moving body
JP7259343B2 (en) 2019-01-18 2023-04-18 トヨタ自動車株式会社 Vehicle dispatch service system, vehicle dispatch service method, and program
JP2021103850A (en) * 2019-12-25 2021-07-15 エヌ・ティ・ティ・コミュニケーションズ株式会社 Monitoring terminal and monitoring method
CN111601092A (en) * 2020-06-10 2020-08-28 路邦科技授权有限公司 Intelligent first-aid identification rescue system, monitoring method thereof and behavior identification method thereof
TWI764410B (en) * 2020-12-01 2022-05-11 大陸商業成科技(成都)有限公司 Fall down detection system and method therefor

Similar Documents

Publication Publication Date Title
JP2016067641A (en) Fall detection processing apparatus and fall detection system
JP7281457B2 (en) Vital Signs with Contactless Activity Detection Networks for Elderly Care
US20220157145A1 (en) Daily Activity Sensor and System
JP2017503566A (en) Infant monitoring device
US10959646B2 (en) Image detection method and image detection device for determining position of user
JP7138619B2 (en) Monitoring terminal and monitoring method
US10706706B2 (en) System to determine events in a space
JP6737645B2 (en) Monitoring device, monitoring system, monitoring method, and monitoring program
JP2020522828A (en) Computer vision based surveillance system and method
JP6791731B2 (en) Posture judgment device and reporting system
JP7468350B2 (en) Condition monitoring device and control method for condition monitoring device
WO2020075675A1 (en) Care system management method, management device and program
JP7342863B2 (en) Computer-executed programs, information processing systems, and computer-executed methods
WO2022036624A1 (en) Monitoring method and apparatus, electronic device, and storage medium
JP7255359B2 (en) Program, Information Notification Apparatus, and Computer Implemented Method for Posting Information
US11257246B2 (en) Image detection method and image detection device for selecting representative image of user
US11087157B2 (en) Image detection method and image detection device utilizing dual analysis
TWM625774U (en) Care-giving detection system based on deep image-based behavior analysis of care recipients
WO2020003952A1 (en) Computer executable program, information processing device, and computer execution method
O'Brien et al. Design and implementation of an embedded system for monitoring at-home solitary Alzheimer's patients
Kashyap Activity recognition and resident identification in smart home environment
JP7310327B2 (en) Behavior detection device, system provided with same, behavior detection method, and program
JP7215481B2 (en) Computer Executed Programs, Information Processing Devices, and Computer Executed Methods
WO2020003955A1 (en) Program executed by computer, information processing device, and method executed by computer
WO2020137061A1 (en) Information display method, program, and information display device