JP2016067641A - Fall detection processing apparatus and fall detection system - Google Patents
Fall detection processing apparatus and fall detection system Download PDFInfo
- Publication number
- JP2016067641A JP2016067641A JP2014200762A JP2014200762A JP2016067641A JP 2016067641 A JP2016067641 A JP 2016067641A JP 2014200762 A JP2014200762 A JP 2014200762A JP 2014200762 A JP2014200762 A JP 2014200762A JP 2016067641 A JP2016067641 A JP 2016067641A
- Authority
- JP
- Japan
- Prior art keywords
- fall
- person
- image
- fall detection
- detection processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、転倒検知処理装置及び転倒検知システムに関する。 The present invention relates to a fall detection processing apparatus and a fall detection system.
高齢化社会においては、介護施設にいる高齢者や在宅介護が必要な高齢者が健康で、かつ安心して生活できる環境整備に対する要望は高い。例えば、高齢者の場合、ちょっとした怪我や病気が後の生活に重大な影響を及ぼすことがある。このため、高齢者が転倒したような場合にそのことを早急に家族や介助者、その他の関係者に通報する必要がある。そこで、高齢者の転倒を自動で検知し、通報する方法が提案されている(例えば、特許文献1〜3を参照)。
しかしながら、上記特許文献に記載されている検知方法では、人が転倒したかを判断するために使用されるセンサの特性や配置により、人とそれ以外の動体の区別が難しく、人が転倒したかの判断が困難になる場合がある。人が転倒したかの判断結果が正しくない場合、誤報となり、結局そのシステムの信頼が疑われ使われなくなってしまう。 However, in the detection method described in the above patent document, it is difficult to distinguish a person from other moving objects due to the characteristics and arrangement of sensors used to determine whether a person has fallen. It may be difficult to judge. If the result of a person's fall is not correct, it will be misreported, and the trust of the system will eventually be suspected and not used.
上記課題に対して、一側面では、本発明は、人の転倒検知の信頼性を高めることを目的とする。 In view of the above problem, in one aspect, the present invention aims to improve the reliability of human fall detection.
上記課題を解決するために、一の態様によれば、転倒を検知する対象の空間の距離画像及びIR画像をTOFセンサから取得する取得部と、取得した前記距離画像及び前記IR画像に基づき、前記対象物の大きさと、該対象物の所定時間の動きと、該対象物の模様、色又は濃淡とを判定する判定部と、判定した前記対象物の大きさと、該対象物の所定時間の動きと、該対象物の模様、色又は濃淡とに応じて該対象物の動きが人の転倒であるかを推定する推定部と、を有する、転倒検知処理装置が提供される。 In order to solve the above-mentioned problem, according to one aspect, based on the acquired distance image and the IR image, an acquisition unit that acquires a distance image and an IR image of a space to be detected from a TOF sensor, A determination unit configured to determine the size of the target object, movement of the target object for a predetermined period of time, a pattern, a color, or a shade of the target object; a size of the determined target object; and a predetermined time of the target object A fall detection processing device is provided that includes a motion and an estimation unit that estimates whether the motion of the object is a person's fall according to the pattern, color, or shade of the object.
一の側面によれば、人の転倒検知の信頼性を高め、誤報を減らすことができる。 According to one aspect, it is possible to improve the reliability of human fall detection and reduce false alarms.
以下、本発明を実施するための形態について図面を参照して説明する。なお、本明細書及び図面において、実質的に同一の構成については、同一の符号を付することにより重複した説明を省く。 Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. In addition, in this specification and drawing, about the substantially same structure, the duplicate description is abbreviate | omitted by attaching | subjecting the same code | symbol.
[転倒検知システムの全体構成]
まず、本発明の一実施形態に係る転倒検知システム1について、図1を参照しながら説明する。本実施形態に係る転倒検知システム1は、高齢者が居住する介護施設Aや在宅介護が必要な高齢者の住宅(在宅介護宅B)などにおいて転倒を検知する対象の高齢者等が出入りする空間に適用される。本実施形態に係る転倒検知システム1において、介護施設Aや在宅介護宅Bには、転倒を検知する対象を撮影するセンサとしてTOF(Time Of Flight)センサ9が使用される。TOFセンサ9は、転倒を検知する対象の空間(例えば高齢者の部屋)の例えば天井部に設置され、その空間の距離画像やIR(Infrared)画像やカラー画像を撮影する。TOFセンサ9は、赤外線を投光するプロジェクタの機能とカメラの機能とを有する。TOFセンサ9のカメラ機能を用いてカラー画像又は白黒画像を撮影できる。
[Overall configuration of fall detection system]
First, a
また、TOFセンサ9は赤外線を投光する。TOFセンサ9は、出力された赤外光と、その赤外光が対象物を反射して戻ってくる赤外光との時間差から物体の距離を検知する。このようにしてTOFセンサ9は、赤外光が対象まで往復するのにかかる時間から距離を計測することで距離画像を撮ることができる。また、TOFセンサ9は、赤外線を投光してIR画像を撮影できる。
The
TOFセンサ9は、人の転倒が発生し易いバスルームや人が集まりやすい談話室等の転倒検知を行う対象の空間に設置される。TOFセンサ9は、転倒を検知する対象の空間内の天井部や側壁部に設置される。TOFセンサ9は、転倒を検知する対象の空間内のいずれに置いてもよい。ただし、TOFセンサ9を空間内の天井部の中央に置くと、TOFセンサ9により検知できる物体の範囲が広がり好ましい(図7を参照)。TOFセンサ9を空間内の側壁部に置くと、TOFセンサ9により検知できる物体の範囲が狭まり障害物も多くなって、対象物を検知し難くなる。TOFセンサ9は、複数設置されてもよい。
The
TOFセンサ9は、USB(Universal Serial Bus)を介して転倒検知処理装置10と接続されている。転倒検知処理装置10は、TOFセンサ9から取得した距離画像及びIR画像を処理し、これらの画像に基づき対象物が人であるか否かの判定や、対象物が人であると判定された場合にその動きが人の転倒であるか否かの推定を行う。転倒検知処理装置10は、対象物の動きが人の転倒であると推定した場合、所定の機器に通報する。所定の機器は、TOFセンサ9が設置された空間内の機器(転倒検知処理装置10を含む)であってもよいし、通知先としてあらかじめ登録され、ネットワーク30により通信可能な機器であってもよい。図1には、ネットワーク30により通信可能な通報先の機器の一例として、スマートフォン40、固定電話機器41、PC(デスクトップ、ノート、タブレット等)42、携帯電話機器50が示されている。ただし、通知先の機器はこれらの機器に限られず、通信可能な家電機器や自動者に搭載されたナビゲーション機器、その他の電子機器であってもよい。固定電話機器41の場合、転倒通報時には音声データのみが通知されるようにしてもよい。通知先の機器の所持者は、例えば転倒検知の対象となる空間に住む高齢者の家族や親せきや高齢者の介助者であり得る。
The
転倒検知処理装置10は、介護施設Aや在宅介護宅Bに1台又は複数台設けられ得る。転倒検知処理装置10は、ネットワーク30を介して監視サーバ20と接続されている。例えば、転倒検知処理装置10は、ワイファイや3G(3rd. Generation)やブルーツゥースを使用して監視サーバ20と接続されてもよい。監視サーバ20は、クラウドサーバであってもよい。
One or a plurality of the fall
転倒検知処理装置10は、人が転倒したと判定した場合、通知先の機器40,50や監視サーバ20に通報する。監視サーバ20は、介護施設A等の対象の空間の画像データ及び音声データを記憶し、記憶したデータのうちの、転倒を推定した人の転倒時刻の状態を含む画像データ及び音声データの少なくともいずれかを予め通知先として登録されている機器に送信する。これにより、例えば通知先のスマートフォン40の所持者は、転倒した人の状況を判断でき、転倒した人に関する対応を迅速に行うことができる。監視サーバ20は、救急センター等に配置されてもよい。これにより、転倒した人に対する救急車の手配や外傷の手当て等の医療行為を迅速に行うことができる。
When the fall
なお、画像データや音声データのうち、個人情報の保護や著作権の見地から転送することが適切でないデータがある。特に、可視画像は、距離画像よりも人物の特定が容易であるため、通知先に転送するデータとして適さない場合がある。よって、通知先に画像データを転送する場合には、可視画像は送信せず、IR画像又はIR画像に人物の特定が容易でないように加工を施した上で送信することが好ましい。IR画像とともに距離画像を送信してもよい。また、予め登録されている家族等の特定の通知先には、可視画像を送信してもよい。 Among image data and audio data, there is data that is not appropriate to be transferred from the viewpoint of protection of personal information or copyright. In particular, since a visible image is easier to identify a person than a distance image, it may not be suitable as data to be transferred to a notification destination. Therefore, when transferring the image data to the notification destination, it is preferable not to transmit the visible image, but to transmit the IR image or the IR image after performing processing so that it is not easy to identify a person. A distance image may be transmitted together with the IR image. Further, a visible image may be transmitted to a specific notification destination such as a family registered in advance.
人が転倒したという情報は、周知の通信手段によって、高齢者の近親者が所有するスマートフォン40や携帯電話機器50などに通報することができる。周知の通信手段としては、公衆電話回線網やインターネット通信網などを適宜用いることができる。
Information that a person has fallen can be reported to the
これまでの転倒検知では、必ずしも人の転倒を正しく検知できず、例えば静止物の落下を人の転倒と検知する等、人の転倒検知に誤りがある場合があった。これまでのカメラによる転倒検知は、カメラで取得された画像データに基づき高齢者等の移動体を検知し、その移動体が一定期間同じ場所に留まる場合に転倒検知の可能性がある、と判断していた。 In the conventional fall detection, it is not always possible to correctly detect a person's fall. For example, there is an error in the person's fall detection, such as detecting a fall of a stationary object as a person's fall. Conventional camera fall detection detects a moving body such as an elderly person based on image data acquired by the camera, and determines that there is a possibility of falling detection when the moving body stays in the same place for a certain period of time. Was.
しかし、この転倒検知では、本当に「人」の転倒なのか又は物が倒れたのかをシステムが区別することは困難であった。このため、これまでの技術では、高齢者の転倒に関する誤報を介助者に通知する場合が多く発生していた。これに対して、本実施形態に係る転倒検知処理装置10では、TOFセンサ9から取得した距離画像及びIR画像に基づき、介護施設Aや在宅介護宅Bにおける転倒検知の精度を良くすることができる。これにより、高齢者の転倒に関する誤報を介助者に通知することを低減させ、実効性のある転倒検知システム1を高齢者及びその介助者に提供することができる。これにより、介護施設にいる高齢者や在宅介護が必要な高齢者が健康で安心して生活できる環境整備を実現できる。以下、転倒検知を精度よく検出可能な転倒検知処理装置10の機能及び動作について順に説明する。
However, in this fall detection, it was difficult for the system to distinguish whether a “person” fell or an object fell. For this reason, in the conventional technology, there have been many cases of notifying a caregiver of misinformation regarding the fall of an elderly person. In contrast, the fall
[転倒検知処理装置の機能構成]
本発明の一実施形態に係る転倒検知処理装置10の機能構成の一例について、図2を参照しながら説明する。本実施形態に係る転倒検知処理装置10は、検知部11、取得部12、記憶部13、判定部14、推定部15、通報部16、通信部17、録音部18及び音声認識部19を有する。
[Functional configuration of the fall detection processing device]
An example of the functional configuration of the fall
検知部11は、TOFセンサ9と接続され、TOFセンサ9を用いて対象物を検知し、対象物の距離画像及びIR画像を得る。検知部11は、TOFセンサ9の代わりに、距離画像を得るためのセンサとIR画像を撮るためのセンサとに別々に接続され、各センサを用いて対象物を検知し、対象物の距離画像及びIR画像を得るようにしてもよい。
The detection unit 11 is connected to the
取得部12は、転倒を検知する対象の空間における距離画像及びIR画像を検知部11から取得する。
The
記憶部13は、通知先登録テーブル21、ログ情報テーブル22、特徴/健康情報テーブル23及び例外情報テーブル24に所定の情報を記憶する。通知先登録テーブル21は、図3に一例を示すように、転倒を検知する対象の人を示すID211に対応付けて通知先の機器情報212を記憶する。通知先の機器情報212は、例えば、ID211により識別される人の家族、親せき、介助者が所持する機器である。例えば、ID211が「M1」の人の転倒が推定された場合、転倒の通報は機器a及び機器bに送信される。ID211が「M2」の人の転倒が推定された場合、転倒の通報は機器cに送信される。ID211が「M3」の人の転倒が推定された場合、転倒の通報は機器d及び機器eに送信される。通知先登録テーブル21に記憶された情報は、監視サーバ20に転送され、監視サーバ20に保存される。転倒の通報は、このように通知先登録テーブル21に登録された通知先の機器の他、監視サーバ20にも送信される。
The
ログ情報テーブル22は、取得部12が取得した距離画像及びIR画像等のログ情報を記憶する。録音部18は、対象の空間に取り付けられたスピーカ(図7のスピーカ8aを参照)から音声を取得する。音声認識部19は、スピーカ8aから取得した音声を音声認識処理する。音声認識処理後のデータを、以下「音声データ」ともいう。
The log information table 22 stores log information such as distance images and IR images acquired by the
記憶部13は、ログ情報テーブル22にその音声データを記憶してもよい。ログ情報テーブル22には、図4に一例を示すように、取得時刻情報221に画像データや音声データを取得した日時が記憶され、取得場所情報222に画像データや音声データを取得した場所が記憶される。また、ログ情報テーブル22には、画像/音声情報223に画像データや音声データが記憶される。画像/音声情報223に記憶される画像データとしては、距離画像及びIR画像の少なくともいずれかのデータが記憶される。これに加えて、画像/音声情報223に可視画像データが記憶されてもよい。例えば、取得時刻情報221が「2014.9.10.10:50」の日時に、取得場所情報222が「(介護施設)A1」の部屋において撮られた画像データ及び音声データが、画像/音声1としてログ情報テーブル22の画像/音声情報223に記憶される。その後、10秒間隔で同じ場所「A1」において画像及び音声が撮られ、画像/音声データ2〜5として画像/音声情報223に記憶される。また、ログ情報テーブル22には、取得場所情報222が示す他の取得場所情報「(介護施設)A2」の部屋において、取得時刻情報221「2014.9.10.14:00」に録音された音声データ6が画像/音声情報223に記憶される。このように、ログ情報テーブル22には、取得時刻情報221及び取得場所情報222に示す時刻及び場所で取得された画像データ及び音声データの少なくともいずれかが記憶される。ログ情報テーブル22に記憶された情報は、監視サーバ20に転送され、監視サーバ20の記憶領域又はクラウド上の記憶領域に保存される。転倒検知処理装置10のログ情報テーブル22に記憶された情報は、記憶されてから所定時間が経過した後に消去されてもよい。
The
特徴/健康情報テーブル23は、転倒を検知する対象の人を示すID231に対応付けてその人の特徴及び健康状態に関する情報を記憶する。特徴/健康情報テーブル23には、図5に一例を示すように、ID231、身長/体重232、服(模様、色、濃淡)233、歩行速度234及び健康状態情報235が記憶される。例えば、特徴/健康情報テーブル23には、ID211が「M1」の人の特徴や健康状態に関する情報として、身長/体重232に「150cm/40kg」、服(模様、色、濃淡)233に「赤色の水玉模様」、歩行速度234に「2km/h」、健康状態情報235に「認知症初期」が記憶される。特徴/健康情報テーブル23には、図5に示す項目の他に、性別や動作パターンやその他の特徴(メガネの着用の有無等)を記憶することができる。なお、特徴/健康情報テーブル23には、対象物の服の模様、色、濃淡だけでなく、靴や帽子やメガネ等の装着品を装着した状態での対象物の(服を含めた)模様、色、濃淡の情報を記憶してもよい。
The feature / health information table 23 stores information related to the feature and health status of the person in association with the
例外情報テーブル24は、転倒を検知する対象の空間に存在する動体であっても転倒を検知する対象物から除外する条件情報を記憶する。例外情報テーブル24には、図6に一例を示すように、転倒を検知する対象の施設や住宅を示すID241に対応付けて、例外領域242及び例外時間243の各情報が記憶される。例えば、ID241が「介護施設A」では、例外領域242に設定された「ベッドの番号1〜20が置かれた場所」に存在する物体を、転倒を検知する対象物から除外する。また、この除外条件が適用される例外時間243は「全時間」と記憶されている。つまり、例外情報テーブル24は、介護施設A内のベッドの番号1〜20が置かれた場所に居る人が座っている状態から寝ている状態になった場合、すべての時間においてその動作を転倒と検知しない。
The exception information table 24 stores condition information that is excluded from an object for detecting a fall even if it is a moving object that exists in the space for which the fall is detected. As shown in FIG. 6, the exception information table 24 stores information on an
また、ID241が「介護施設A」では、例外領域242に設定された「たたみの部屋」に存在する物体を、転倒を検知する対象物から除外する。この除外条件が適用される例外時間243は「9:00P.M.〜8:00A.M.」である。つまり、例外情報テーブル24は、介護施設A内のたたみの部屋に居る人が座っている状態から寝ている状態になった場合、夜の9時から朝の8時までの間はその動作を転倒と検知しない。
In addition, when the
判定部14は、取得した距離画像及びIR画像に基づき、転倒を検知する空間内に存在する対象物の大きさと、その対象物の所定時間の動きと、その対象物の模様、色又は濃淡とを判定する。以下では、一例として対象物の服(模様、色、濃淡)と画像とを比較するが、対象物の服の模様、色、濃淡だけでなく、靴や帽子やメガネ等の装着品を装着した状態での対象物の(服を含めた)模様、色、濃淡を比較対象とすることができる。
Based on the acquired distance image and IR image, the
判定部14は、距離画像に基づき、何も動きがないときの部屋の状態を示す画像データを予め取得しておく。そして、判定部14は、何も動きがないときの部屋の状態を示す画像データと部屋の内部の状態が変化したことを示す画像データとをいわゆる背景差分方式により解析することで、静止物と動物(人を含む)とを区別する。これにより、判定部14は、対象物の大きさと、その対象物の所定時間の動きを判定することができる。また、判定部14は、IR画像に基づき、対象物の服装の模様、濃淡、色、服装の上下の濃淡差や色差を判定する。
The
推定部15は、判定した対象物の大きさと、その対象物の所定時間の動きと、その対象物の服(模様、色又は濃淡)とに応じてその対象物の動きが人の転倒であるかを推定する。その際、推定部15は、距離画像及びIR画像に基づき、(1)〜(3)の条件がすべて満たされるとき、人が転倒したと推定する。
(1)対象物の大きさが所定以上であること
例えば、推定部15は、動物と判定した対象物の大きさが所定以上(例えば1m以上)である場合、対象物は人の可能性があると推定する。例えば、図7に示す対象物OJ1の大きさは1m以上であるため、対象物OJ1は人の可能性があると推定される。一方、対象物OJ3の大きさは1m未満であるため、対象物OJ3は人でないと判定される。動物と判定した対象物の大きさが人の大きさであることを推定するための閾値は「1m」に限られず、例えば、男性の場合と女性の場合と子供の場合を分けて設定してもよい。
The
(1) The size of the target object is greater than or equal to a predetermined value. For example, when the size of the target object determined as an animal is equal to or greater than the predetermined value (for example, 1 m or greater), the target object may be a human being. Presume that there is. For example, since the size of the object OJ1 shown in FIG. 7 is 1 m or more, it is estimated that the object OJ1 may be human. On the other hand, since the size of the object OJ3 is less than 1 m, it is determined that the object OJ3 is not a person. The threshold for estimating that the size of the object determined to be an animal is the size of a person is not limited to “1 m”. For example, a case of a man, a case of a woman, and a case of a child are set separately. Also good.
TOFセンサ9を天井部に配置した場合、図7に点線にて示すように、視野角により部屋の中央から外れるほどTOFセンサ9が取得する距離画像及びIR画像に写される対象物の上部側が切れて見えない状態となる。例えば、部屋の端にいる対象物OJ2の上半身は、TOFセンサ9から取得される距離画像及びIR画像には写されない。この場合、画像データ上の対象物OJ2の大きさは1m未満となるため、対象物OJ2は人でないと判定されてしまう。以上から、本実施形態では、対象物の大きさが人と判定されるための閾値は、視野角に応じて図7に示すように変化して設定される。これによれば、部屋の端側にいる対象物に対する閾値は、部屋の中心側にいる対象物に対する閾値よりも小さくなる。これにより、推定部15は、対象物OJ2の大きさは閾値と同じ値となるため、対象物OJ2は人の可能性があると推定できる。
ただし、部屋の端側では画像データから人の上半身が切れて見えないため、動物との区別がつきにくい。実際に対象物OJ2が人であるか人以外の動体であるかは、(1)の条件のみでは推定しにくい。また、部屋の中央においても、(1)の条件のみで対象物が人であるかそれ以外の動体であるかを推定すると間違いが生じやすく、人の転倒の検知の精度を高めることは難しい。よって、本実施形態では、推定部15は、(1)の条件を満たすだけでなく、次の(2)の条件も満たす場合に人が転倒したと推定するようになっている。
(2)(1)を満たす所定の高さ以上で動きがある対象物が、低い状態に移行し、所定時間動かない状態又は所定時間動きが少ない状態になったこと
推定部15は、(1)を満たす所定の高さ以上で動きがある対象物が、低い状態に移行し、所定時間動かない状態又は所定時間動きが少ない状態になったとき、対象物は人であり、かつ人が転倒したと推定する。推定部15は、例えば所定の時間以上静止していない1m以上の高さの対象物が、動いている状態から、歩行したり、立ったり、座ったりする日常の動きのときの人の高さよりも低くなった状態(例えば1m以下)で一定時間(例えば、10〜15秒以上)動かない、又は前記低くなった状態に移行して一定時間(例えば、10〜15秒)以上経過した場合、対象物が動いている状態から動かない状態又は動きが少ない状態に変化したと推定する。
When the
However, since the upper body of a person is cut off from the image data and cannot be seen at the end of the room, it is difficult to distinguish it from animals. Whether the object OJ2 is actually a person or a moving body other than a person is difficult to estimate only under the condition (1). Even in the center of the room, it is easy to make an error if it is estimated whether the object is a person or a moving body other than the condition (1), and it is difficult to improve the accuracy of detecting a person's fall. Therefore, in the present embodiment, the
(2) An object that moves at or above a predetermined height satisfying (1) has shifted to a low state and has not moved for a predetermined time or has moved less for a predetermined time. When an object that moves above a certain height that satisfies () goes to a low state and does not move for a specified time or moves less for a specified time, the object is a person and the person falls It is estimated that For example, the
ただし、動かない状態又は動きが少ない状態に変化した後、再び動きが上記所定の動き所以上に大きくなった場合、推定部15は、人が通常状態に復帰したと推定し、人が転倒したとの推定を撤回する。
However, if the movement again becomes larger than the predetermined moving place after changing to a state that does not move or moves less, the
以上、人が転倒したと判定する際の必須の要件について説明した。更に、次の(3)〜(6)は、人が転倒したと判定する際の必須の条件ではないが、転倒検知の精度をより高めるために人が転倒したかを検知する際の条件とすることができる。 The essential requirements for determining that a person has fallen have been described above. Further, the following (3) to (6) are not indispensable conditions for determining that a person has fallen, but for detecting whether a person has fallen in order to further improve the accuracy of fall detection, can do.
(3)対象物の服(模様、色又は濃淡)が予め登録されている服(模様、色又は濃淡)と一致又は類似していること
推定部15は、(1)及び(2)の条件を満たす対象物の服(模様、色又は濃淡)が、予め登録されている服(模様、色又は濃淡)と少なくとも一部において一致又は類似している場合、人が転倒したと推定してもよい。推定部15は、特徴/健康情報テーブル23に記憶されている身長/体重232、服(模様、色又は濃淡)233、歩行速度234及び健康状態情報235の各情報に基づき、対象物の服(模様、色又は濃淡)が予め登録されている服(模様、色又は濃淡)と一致又は類似するかを判定してもよい。たとえば、(3)の条件の一例としては、IR画像から抽出される対象物の服(模様、色又は濃淡)が、介護施設で着用する服(模様、色又は濃淡)に服全体又は服の上下の一部において一致又は類似していることが挙げられる。
(3) The clothing (pattern, color, or shade) of the object matches or resembles pre-registered clothing (pattern, color, or shade). The
(4)対象物が3つの部位(頭、胴体、足)からなっていること
推定部15は、対象物が3つの部位(頭、胴体、足)からなっている場合、人が転倒したと推定してもよい。これにより、転倒した動体が人であるとの一応の心証を形成することができる。
(4) The object consists of three parts (head, torso, legs) The
(5)他の動物の特徴がない(例えば尻尾がない)こと
推定部15は、他の動物の特徴がない(例えば尻尾がない)場合、人が転倒したと推定してもよい。これにより、転倒した動体が人以外の動物であるとの一応の心証を形成することができる。
(5) No other animal features (for example, no tail) The
(6)活動量が少ない又はないこと
推定部15は、特徴/健康情報テーブル23に記憶されている歩行速度234やその他の日常の行動を記憶した情報に基づき、対象物の歩行速度が遅い、活動量が少ない又はないことを判定した場合、転倒の予兆と推定してもよい。さらにこの予兆から転倒と判定する時間を短くしてもよい。
(6) The amount of activity is small or absent The
このように、推定部15は、IR画像に基づき、健康状態、身長、体重等を把握して人の転倒を推定することで、人の転倒検知の精度を高めることができる。例えば、推定部15は、特徴/健康情報テーブル23に記憶されている歩行速度234に基づき、対象物の歩くスピードが遅くなってきたと判定した場合に、健康状態が悪いために転倒しやすい状態になっていると推定してもよい。推定部15が、特徴/健康情報テーブル23に記憶されている歩行速度234や健康状態情報235に基づき、転倒した人の健康状態が悪いことを検出した場合、人の転倒の通報のタイミングを早めるように通報部16に要求してもよい。
As described above, the
なお、推定部15は、例外情報テーブル24に記憶されている例外領域及び例外時間において検知された対象物を、転倒を検知する対象物から除く。これにより、例えば高齢者がベッドの上や畳の部屋に布団を敷いて寝る動作やくつろいでいる動作が人の転倒と推定されることを防止できる。
The
通報部16は、対象物の動きが人の転倒であると推定された場合、記憶部13がログ情報テーブル22に記憶したログ情報のうちの、転倒を推定した人の転倒時刻の状態を示すデータを含む画像データ及び音声データの少なくともいずれかを所定の機器に通報する。例えば、通報部16は、転倒を推定した人の転倒時刻とその前後の状態を含む画像データ及び音声データの少なくともいずれかを送信してもよい。例えば、図4のログ情報テーブル22に記憶されているログ情報のうち、取得時刻情報221が「2014.9.10.11:10」の時刻に人の転倒が推定された場合、通報部16は、転倒が起きたと推定されたときの画像/音声データ3を含むデータを送信する。これにより、通知された者は、人が転倒したか否かを判断することができる。また、通知された者は、人の転倒であると判断した場合にどのような対応をすべきかを早急に監視サーバ20やその他の然るべき医療機関に指示することができる。
When it is estimated that the movement of the object is a person's fall, the
通報部16が、転倒を推定した人の転倒時刻とその前後の状態を含む画像データ及び音声データの少なくともいずれかを送信する場合、例えば、取得時刻情報221が「2014.9.10.11:10」の時刻の画像/音声データ3とその前後の画像/音声データを送信してもよい。これにより、通知された者は、転倒が起きたときの画像/音声データ3だけでなく、その前の画像/音声データ1,2やその後の画像/音声データ4,5に基づき人が転倒したか否かの判断をより容易に行うことができる。これにより、通知された者は、転倒時の状態だけでなく、転倒前の状態や転倒後の状態を知ることができ、転倒時の状況把握が容易になるため、正確な対応を迅速に行うことが可能となる。通報部16は、特徴/健康情報テーブル23に基づき、上記データに加えて転倒した人のID231に対応付けて記憶された健康状態情報235や服の情報233等を通知してもよい。
In a case where the
なお、通報部16が通知する転倒検知の通知先となる所定の機器は、転倒が起きた現場の部屋及び予め登録された通知先の少なくともいずれかであってもよい。通報部16は、転倒の通報と同時に通報した機器と通話可能な状態にし、呼びかけに対して無事であるとの応答があるか否かを確認するようにしてもよい。なお、人の転倒を通報する通知先は、転倒検知処理装置10が通知先登録テーブル21に基づき決定してもよい。また、人の転倒を通報する通知先は、通報部16からの通報を受信した監視サーバ20が決定し、監視サーバ20から必要な情報を通知するようにしてもよい。
Note that the predetermined device that is the notification destination of the fall detection notified by the
通信部17は、必要な情報や通報を監視サーバ20や通知先のスマートフォン40や携帯電話機器50に送信したり、監視サーバ20から所定の情報を受信したりする。
The
[転倒検知処理]
次に、以上のように構成される本実施形態の転倒検知処理装置10における制御及び処理について説明する。図8は、本発明の一実施形態に係る転倒検知処理装置10が実行する転倒検知処理のフローチャートを示す。
[Fall detection processing]
Next, control and processing in the fall
本処理が開始されると、取得部12は、TOFセンサ9を用いて距離画像とIR画像とを取得する(ステップS10)。取得部12は、カラー画像や白黒画像を取得してもよい。次に、判定部14は、距離画像とIR画像とに基づき、対象物の大きさ、対象物の動き及び対象物の模様や色や濃淡を判定する。推定部15は、距離画像から抽出される対象物の大きさから対象物が閾値以上の高さの動体である場合、対象物を人と推定し、閾値未満の高さの動体(例えばペット)と区別して認識する(ステップS12)。推定部15は、人と推定された対象物の高さ方向の変化を検出する(ステップS12)。
When this process is started, the
次に、推定部15は、転倒が生じた時刻の距離画像及びその後に取得した距離画像に基づき、転倒状態のTOFセンサ9と対象物との距離から転倒している人の状態を推定し、対象物の大きさや動作を確認する(ステップS14)。推定部15は、この結果、静止物と推定した対象物や、ペット等の人以外の動体と推定した対象物を人の転倒の検知対象から除外する(ステップS14)。たとえば、推定部15は、上記(1)の条件に従い、対象物が予め定められた閾値(1m等)以上の場合、対象物は人と推定し、対象物が閾値未満の場合、対象物は人以外の動体と推定する。また、推定部15は、上記(2)の条件に従い、対象物の高さ方向の変化を検出し、これにより対象物が人の転倒であるかを推定する。
Next, the
次に、推定部15は、IR画像を確認し、対象物の服装や服の濃淡差や服の上下の濃淡差、服の色差、模様の差異等の対象物の外観上の特徴を確認する(ステップS16)。たとえば、推定部15は、上記(3)の条件に従い、特徴/健康情報テーブル23に記憶されている情報に基づき、IR画像から抽出された対象物の外観上の特徴を確認し、対象物が人であるか、及び人が転倒したか否かを推定する。なお、(1)及び(2)の条件は、人の転倒検知を判定する際に必須の要件であるが、(3)の条件は人の転倒検知を判定する際に必須の要件としなくてもよい。つまり、本実施形態に係る転倒検知処理では、ステップS16は省略できる。
Next, the
次に、推定部15は、人の転倒を推定してから一定時間の動きが所定の閾値よりも少ないかを判定する(ステップS18)。推定部15は、人の転倒を推定してから一定時間の動きが所定の閾値以上であると判定した場合、人の転倒は発生していないと判断し、本処理を終了する。一方、推定部15は、人の転倒を推定してから一定時間の動きが所定の閾値よりも少ないと判定した場合、判定部14は、閾値(例えば1m)以上の高さの動体を検出したかを判定する(ステップS20)。
Next, the
判定部14は、閾値(例えば1m)以上の高さの動体を検出したと判定した場合、転倒した人が復帰したと判断し、本処理を終了する。一方。判定部14は、閾値(例えば1m)以上の高さの動体を検出していないと判定した場合、通報部16は、人の転倒を通報し(ステップS22)、本処理を終了する。
If the
例えば、通報部16は、人の転倒を通報する際、図7に示すスピーカ8aから「大丈夫ですか?」、「どうしましたか?」と自動的に問いかけてもよい。これに応じて、人が、「大丈夫」、「問題ない」、「助けて」などの応答を示した場合、マイク8bがこの応答又は無応答をキャッチする。通報部16は、通報時、上記問いかけとそれに対する回答を記憶した音声ファイルを通知先のスマートフォン40等に送信する。この様に現場の状況を把握できる情報を入れることにより、関係者は緊急度を把握することができ効率の良い対応が可能となる。また、応答に対し音声認識機能などを活用することにより問題がないことを自動的に判断するようにしてもよい。これにより、人の転倒検知の精度を高め、誤報を減らして関係者の心配を和らげることができる。
For example, when reporting the fall of a person, the
以上に説明したように、本実施形態の転倒検知システム1によれば、転倒検知処理装置10が人の転倒を判定する条件をすべて満足するか否かを、距離画像及びIR画像に基づき判定する。これにより、人の転倒検知の信頼性を高め、誤報を低減させた転倒検知システム1を提供することができる。
As described above, according to the
特に、本実施形態の転倒検知システム1によれば、TOFセンサ9を用いて距離画像及びIR画像を得る。これにより、距離画像及びIR画像が写す対象物の位置ずれが生じないため、これらの両画像に基づき対象物が人であるかの判定と、人が転倒したかの判定を精度よく推定することができる。例えば、図9に示すように、TOFセンサ9を用いて得た距離画像及びIR画像に基づき、転倒した人の部位や転倒状態やその人の外観上の特徴(服の模様、色、濃淡等)を抽出することで、抽出した画像データに基づき人が転倒したことの推定の精度を高めることができる。これにより、人の転倒に関する誤報を減らすことができる。
In particular, according to the
[監視処理]
次に、本実施形態の監視サーバ20における制御及び処理について説明する。図10は、本発明の一実施形態に係る監視サーバ20が実行する監視処理のフローチャートを示す。
[Monitoring process]
Next, control and processing in the
本処理が開始されると、監視サーバ20は、転倒検知処理装置10からの通報を受信したかを判定する(ステップS30)。監視サーバ20は、転倒検知処理装置10からの通報を受信していないと判定した場合、本処理を終了する。
When this process is started, the monitoring
一方、監視サーバ20は、転倒検知処理装置10からの通報を受信したと判定した場合、人の転倒が推定された時刻における画像データ及び音声データとその前後の画像データ及び音声データを通知先に送信する(ステップS32)。
On the other hand, when the
次に、監視サーバ20は、人の転倒に対する指示又は所定時間が経過したかを判定する(ステップS34)。監視サーバ20は、人の転倒に対する指示を受信したか、又は所定時間が経過したと判定した場合、本処理を終了し、それ以外の場合、ステップS32に戻り、ステップS34の判定処理にて「Yes」と判定されるまで、ステップS32、S34の処理を繰り返す。
Next, the monitoring
以上に説明したように、本実施形態の転倒検知システム1によれば、監視サーバ20が、転倒検知処理装置10からの通報に応じて転倒が起きた時刻の画像データ及び音声データとその前後の画像データ及び音声データを送信する。これにより、通知された者は、転倒が起きたときの画像データ及び音声データだけでなく、その前の画像データ及び音声データやその後の画像データ及び音声データに基づき人の転倒についての情報を得る。これにより、通知された者は、転倒時の人の状態だけでなく、転倒前の人の状態や転倒後の人の状態を知ることができ、人の転倒時の状況把握が容易になるため、正確な対応を迅速に行うことが可能となる。
As described above, according to the
ただし、ステップS32では、人の転倒が推定された時刻とその前後の画像データ及び音声データが通知先に送信されたが、これに限らず、人の転倒が推定された時刻の画像データ及び音声データの少なくともいずれかを含むデータが通知先に送信されればよい。 However, in step S32, the time when the person's fall was estimated and the image data and sound data before and after the time were transmitted to the notification destination, but the present invention is not limited to this, and the image data and sound at the time when the person's fall was estimated. Data including at least one of the data may be transmitted to the notification destination.
(転倒検知を補完する方法)
以上、本実施形態に係る転倒検知処理装置10が行う転倒検知方法について説明したが、この転倒検知方法を補完する以下の方法と転倒検知方法とを組み合わせることができる。これにより、転倒検知の精度をより高めることができる。
(Method to complement fall detection)
As described above, the fall detection method performed by the fall
例えば、転倒検知処理装置10は、取得部12が取得した画像データから転倒したと推定される人の心拍数を演算してもよい。これにより、心拍数から転倒した人の状況をより詳しく知ることができる。例えば、転倒した人の心拍数の情報を含めて通知先に転知を通報することができる。
For example, the fall
また、例えば加速度センサをベッドに配置している場合、取得部12は、加速度センサが検知する3軸の加速度を取得する。この場合、転倒検知処理装置10は、3軸の加速度に基づき、転倒した人の心拍数と身体の動作の情報を得ることができる。これにより、心拍数や身体の動作から人が転倒したか否かの推定や、転倒したと推定した人の状況をより詳しく知ることができる。
For example, when the acceleration sensor is arranged on the bed, the
更に、例えば転倒した人が振動センサを所持している場合、取得部12は、振動センサが検知する振動値を取得する。この場合、転倒検知処理装置10は、振動値に基づき人が転倒したときに振動が生じたかを判定することができる。
Furthermore, for example, when a person who falls down possesses a vibration sensor, the
以上のように、本実施形態に係る転倒検知処理装置10は、本実施形態の転倒検知方法を上記方法により補完することで、人の転倒の精度を更に高めることができる。
As described above, the fall
(転倒検知システム例)
最後に、本実施形態に係る転倒検知処理装置10の転倒検知システム例について、図11を参照して説明する。図11は、本実施形態に係る転倒検知処理装置10の転倒検知システム例を示す図である。
(Example of fall detection system)
Finally, an example of the fall detection system of the fall
転倒検知処理装置10は、入力装置101、表示装置102、外部I/F103、RAM(Random Access Memory)104、ROM(Read Only Memory)105、CPU(Central Processing Unit)106、通信I/F107、及びHDD(Hard Disk Drive)108を備える。各部はバスBで相互に接続されている。
The fall
入力装置101は、キーボードやマウスなどを含み、転倒検知処理装置10に各操作信号を入力するのに用いられる。表示装置102は、ディスプレイ等を含み、各種の処理結果を表示する。
The
通信I/F107は、転倒検知処理装置10をネットワークに接続するインタフェースである。これにより、転倒検知処理装置10は、通信I/F107を介して、監視サーバ20や通知先の機器とデータ通信を行うことができる。
The communication I /
HDD108は、プログラムやデータを格納している不揮発性の記憶装置である。格納されるプログラムやデータには、装置全体を制御する基本ソフトウェア及びアプリケーションソフトウェアがある。例えば、HDD108には、各種のDB情報やプログラム等が格納されている。
The
外部I/F103は、外部装置とのインタフェースである。外部装置には、記録媒体103aなどがある。これにより、転倒検知処理装置10は、外部I/F103を介して記録媒体103aの読み取り及び/又は書き込みを行うことができる。記録媒体103aには、CD(Compact Disk)、及びDVD(Digital Versatile Disk)、ならびに、SDメモリカード(SD Memory card)やUSBメモリ(Universal Serial Bus memory)などがある。
The external I /
ROM105は、電源を切っても内部データを保持することができる不揮発性の半導体メモリ(記憶装置)である。ROM105には、ネットワーク設定などのプログラムやデータが格納されている。RAM104は、プログラムやデータを一時保持する揮発性の半導体メモリ(記憶装置)である。CPU106は、上記記憶装置(例えば「HDD108」や「ROM105」など)から、プログラムやデータをRAM104上に読み出し、処理を実行することで、装置全体の制御や搭載機能を実現する演算装置である。
The
上記転倒検知システムにより、本実施形態に係る転倒検知処理装置10は、転倒検知処理を行うことができる。例えば、CPU106が、ROM105やHDD108内に格納されたデータ及びプログラムを用いて転倒検知処理を実行する。この結果、本実施形態では、人が転倒したことを予め登録されている機器の所持者に提供することができる。なお、通知先登録テーブル21、ログ情報テーブル22、特徴/健康情報テーブル23及び例外情報テーブル24の情報は、RAM104、HDD108、又はネットワーク30を介して転倒検知処理装置10に接続されるクラウド上のサーバ等に格納され得る。
With the above-described fall detection system, the fall
以上、転倒検知処理装置及び転倒検知システムを上記実施形態により説明したが、本発明にかかる転倒検知処理装置及び転倒検知システムは上記実施形態に限定されるものではなく、本発明の範囲内で種々の変形及び改良が可能である。上記複数の実施形態に記載された事項は、矛盾しない範囲で組み合わせることができる。 As mentioned above, although the fall detection processing device and the fall detection system have been described in the above embodiment, the fall detection processing device and the fall detection system according to the present invention are not limited to the above embodiment, and various within the scope of the present invention. Modifications and improvements are possible. The matters described in the above embodiments can be combined within a consistent range.
例えば、上記実施形態に係る転倒検知システムの構成は一例であり、本発明の範囲を限定するものではなく、用途や目的に応じて様々なシステム構成例があることは言うまでもない。例えば、転倒検知処理装置10及監視サーバ20がネットワーク30を介して互いに接続されているシステム形態は、本実施形態に係る転倒検知システムの一態様であり、これに限定されない。例えば、本実施形態に係る転倒検知システムに含まれる監視サーバ20の台数は、1台又は2台以上であり得る。複数台の監視サーバ20が設置される場合、通知先への通報処理は、複数台の監視サーバ20で分散処理され得る。なお、用途や目的に応じて、複数台のうち1台の監視サーバ20に選択的にそれら処理機能を集約させてもよい。
For example, the configuration of the fall detection system according to the above-described embodiment is an example, and does not limit the scope of the present invention, and it goes without saying that there are various system configuration examples depending on applications and purposes. For example, the system configuration in which the fall
また、本発明に係る転倒検知処理装置10の各部の機能は、ハードウェアにより構成されてもよく、ソフトウェアにより構成されてもよく、ハードウェアとソフトウェアとを組み合わせて構成されてもよい。
Moreover, the function of each part of the fall
また、例えば、上記実施形態に係る転倒検知処理装置10は、距離画像とIR画像とに基づき人の転倒を推定した。しかしながら、本発明に係る転倒検知処理装置10は、これに限らず、距離画像とIR画像とに加えて取得可能なカラー画像や白黒画像を用いて人の転倒を推定することができる。
Further, for example, the fall
1:転倒検知システム
9:TOFセンサ
10:転倒検知処理装置
11:検知部
12:取得部
13:記憶部
14:判定部
15:推定部
16:通報部
17:通信部
21:通知先登録テーブル
22:ログ情報テーブル
23:特徴/健康情報テーブル
24:例外情報テーブル
A:介護施設
B:在宅介護宅
1: fall detection system 9: TOF sensor 10: fall detection processing device 11: detection unit 12: acquisition unit 13: storage unit 14: determination unit 15: estimation unit 16: notification unit 17: communication unit 21: notification destination registration table 22 : Log information table 23: Feature / health information table 24: Exception information table A: Care facility B: Home care home
Claims (8)
取得した前記距離画像及び前記IR画像に基づき、前記対象物の大きさと、該対象物の所定時間の動きと、該対象物の模様、色又は濃淡とを判定する判定部と、
判定した前記対象物の大きさと、該対象物の所定時間の動きと、該対象物の模様、色又は濃淡とに応じて該対象物の動きが人の転倒であるかを推定する推定部と、
を有する、転倒検知処理装置。 An acquisition unit that acquires from the TOF sensor a distance image and an IR image of a target space to detect a fall;
A determination unit that determines the size of the object, the movement of the object for a predetermined time, and the pattern, color, or shade of the object based on the acquired distance image and the IR image;
An estimation unit that estimates whether the movement of the object is a fall of a person according to the determined size of the object, the movement of the object for a predetermined time, and the pattern, color, or shade of the object; ,
A fall detection processing apparatus.
前記対象物の動きが人の転倒であると推定された場合、前記記憶部が記憶したデータのうちの、前記転倒を推定した人の転倒時刻の状態を含む画像データ及び音声データの少なくともいずれかを送信することで所定の機器に通報する通報部を有する、
請求項1に記載の転倒検知処理装置。 A storage unit for storing at least one of image data and audio data of the target space;
When it is estimated that the movement of the object is a person's fall, at least one of image data and audio data including the state of the fall time of the person who estimated the fall out of the data stored in the storage unit Has a reporting unit that reports to the specified device by sending
The fall detection processing device according to claim 1.
前記転倒を推定した人の転倒時刻の前後の状態を含む画像データ及び音声データの少なくともいずれかを送信する、
請求項2に記載の転倒検知処理装置。 The reporting unit
Transmitting at least one of image data and audio data including states before and after the fall time of the person who estimated the fall,
The fall detection processing device according to claim 2.
前記推定部は、
取得した前記距離画像及び前記IR画像と、前記記憶部が記憶した人の特徴及び健康状態の少なくともいずれかと、に基づき、前記対象物の動きが人の転倒であるか、又は前記所定の機器に人の転倒を通報する必要があるかを推定する、
請求項1〜3のいずれか一項に記載の転倒検知処理装置。 A storage unit that stores information indicating at least one of the characteristics and health status of one or more persons;
The estimation unit includes
Based on the acquired distance image and the IR image, and at least one of the characteristics and health status of the person stored in the storage unit, the movement of the object is a person's fall, or the predetermined device Estimate whether it is necessary to report a person's fall,
The fall detection processing device according to any one of claims 1 to 3.
請求項1〜4のいずれか一項に記載の転倒検知処理装置。 The determination unit is based on the acquired distance image and IR image of the distance image and the IR image, and the distance image and IR image where the object is not captured. Determining the size of the object, the movement of the object for a predetermined time, and the pattern, color or shade of the object;
The fall detection processing device according to any one of claims 1 to 4.
前記推定部は、
前記例外領域及び例外時間において検知された前記対象物を、転倒を検知する対象物から除く、
請求項1〜5に記載の転倒検知処理装置。 A storage unit that stores at least one of the exception area and the exception time in the target space;
The estimation unit includes
The object detected in the exception area and the exception time is removed from the object to detect a fall,
The fall detection processing device according to claim 1.
前記転倒検知処理装置は、
転倒を検知する対象の空間の距離画像及びIR画像をTOFセンサから取得する取得部と、
取得した前記距離画像及び前記IR画像に基づき、前記対象物の大きさと、該対象物の所定時間の動きと、該対象物の模様、色又は濃淡とを判定する判定部と、
判定した前記対象物の大きさと、該対象物の所定時間の動きと、該対象物の模様、色又は濃淡とに応じて該対象物の動きが人の転倒であるかを推定する推定部と、
前記対象物の動きが人の転倒であると推定された場合、前記監視サーバを含む所定の機器に通報する通報部と、
を有し、
前記監視サーバは、
前記対象の空間の画像データ及び音声データの少なくともいずれかのデータを記憶し、
前記記憶したデータのうちの、前記転倒を推定した人の転倒時刻の状態を含む画像データ及び音声データの少なくともいずれかを予め通知先として登録されている機器に送信する、
転倒検知システム。 A fall detection system in which a fall detection processing device that detects a fall of a person and a monitoring server that monitors the fall of a person can communicate,
The fall detection processing device is
An acquisition unit that acquires from the TOF sensor a distance image and an IR image of a target space to detect a fall;
A determination unit that determines the size of the object, the movement of the object for a predetermined time, and the pattern, color, or shade of the object based on the acquired distance image and the IR image;
An estimation unit that estimates whether the movement of the object is a fall of a person according to the determined size of the object, the movement of the object for a predetermined time, and the pattern, color, or shade of the object; ,
When it is estimated that the movement of the object is a human fall, a reporting unit that reports to a predetermined device including the monitoring server;
Have
The monitoring server is
Storing at least one of image data and audio data of the target space;
Of the stored data, at least one of image data and sound data including the state of the fall time of the person who estimated the fall is transmitted to a device registered in advance as a notification destination,
Fall detection system.
前記転倒が推定された人の転倒時刻の前後の状態を含む画像データ及び音声データの少なくともいずれかを送信する、
請求項7に記載の転倒検知システム。 The monitoring server is
Transmitting at least one of image data and audio data including states before and after the fall time of the person estimated to fall.
The fall detection system according to claim 7.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014200762A JP2016067641A (en) | 2014-09-30 | 2014-09-30 | Fall detection processing apparatus and fall detection system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014200762A JP2016067641A (en) | 2014-09-30 | 2014-09-30 | Fall detection processing apparatus and fall detection system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016067641A true JP2016067641A (en) | 2016-05-09 |
Family
ID=55863373
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014200762A Pending JP2016067641A (en) | 2014-09-30 | 2014-09-30 | Fall detection processing apparatus and fall detection system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016067641A (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018030024A1 (en) * | 2016-08-08 | 2018-02-15 | コニカミノルタ株式会社 | Watch-over system, watch-over device, watch-over method, and watch-over program |
JP2018106437A (en) * | 2016-12-27 | 2018-07-05 | 積水化学工業株式会社 | Behavioral assessment system and behavioral assessment method |
WO2018151004A1 (en) * | 2017-02-16 | 2018-08-23 | パナソニックIpマネジメント株式会社 | Anomaly notification system and anomaly notification method |
JP2018151808A (en) * | 2017-03-13 | 2018-09-27 | 三菱電機株式会社 | Notification device, notification method, and program |
CN108710822A (en) * | 2018-04-04 | 2018-10-26 | 燕山大学 | Personnel falling detection system based on infrared array sensor |
JP2019028890A (en) * | 2017-08-02 | 2019-02-21 | 株式会社木村技研 | Security management system |
JP2019168950A (en) * | 2018-03-23 | 2019-10-03 | 株式会社Ihi | Object detection device and object detection method |
JP2020119038A (en) * | 2019-01-18 | 2020-08-06 | トヨタ自動車株式会社 | Vehicle allocation service system, vehicle allocation service method, program, and moving body |
CN111601092A (en) * | 2020-06-10 | 2020-08-28 | 路邦科技授权有限公司 | Intelligent first-aid identification rescue system, monitoring method thereof and behavior identification method thereof |
JP2021103850A (en) * | 2019-12-25 | 2021-07-15 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | Monitoring terminal and monitoring method |
TWI764410B (en) * | 2020-12-01 | 2022-05-11 | 大陸商業成科技(成都)有限公司 | Fall down detection system and method therefor |
-
2014
- 2014-09-30 JP JP2014200762A patent/JP2016067641A/en active Pending
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018030024A1 (en) * | 2016-08-08 | 2018-02-15 | コニカミノルタ株式会社 | Watch-over system, watch-over device, watch-over method, and watch-over program |
JPWO2018030024A1 (en) * | 2016-08-08 | 2019-06-06 | コニカミノルタ株式会社 | Watch system, watch device, watch method, and watch program |
JP2018106437A (en) * | 2016-12-27 | 2018-07-05 | 積水化学工業株式会社 | Behavioral assessment system and behavioral assessment method |
JP7065460B2 (en) | 2017-02-16 | 2022-05-12 | パナソニックIpマネジメント株式会社 | Incident notification system and incident notification method |
WO2018151004A1 (en) * | 2017-02-16 | 2018-08-23 | パナソニックIpマネジメント株式会社 | Anomaly notification system and anomaly notification method |
JPWO2018151004A1 (en) * | 2017-02-16 | 2019-12-12 | パナソニックIpマネジメント株式会社 | Anomaly notification system and anomaly notification method |
JP2018151808A (en) * | 2017-03-13 | 2018-09-27 | 三菱電機株式会社 | Notification device, notification method, and program |
JP2019028890A (en) * | 2017-08-02 | 2019-02-21 | 株式会社木村技研 | Security management system |
US11348372B2 (en) | 2017-08-02 | 2022-05-31 | Kimura Corporation | Security management system |
JP2019168950A (en) * | 2018-03-23 | 2019-10-03 | 株式会社Ihi | Object detection device and object detection method |
CN108710822A (en) * | 2018-04-04 | 2018-10-26 | 燕山大学 | Personnel falling detection system based on infrared array sensor |
CN108710822B (en) * | 2018-04-04 | 2022-05-13 | 燕山大学 | Personnel falling detection system based on infrared array sensor |
JP2020119038A (en) * | 2019-01-18 | 2020-08-06 | トヨタ自動車株式会社 | Vehicle allocation service system, vehicle allocation service method, program, and moving body |
JP7259343B2 (en) | 2019-01-18 | 2023-04-18 | トヨタ自動車株式会社 | Vehicle dispatch service system, vehicle dispatch service method, and program |
JP2021103850A (en) * | 2019-12-25 | 2021-07-15 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | Monitoring terminal and monitoring method |
CN111601092A (en) * | 2020-06-10 | 2020-08-28 | 路邦科技授权有限公司 | Intelligent first-aid identification rescue system, monitoring method thereof and behavior identification method thereof |
TWI764410B (en) * | 2020-12-01 | 2022-05-11 | 大陸商業成科技(成都)有限公司 | Fall down detection system and method therefor |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2016067641A (en) | Fall detection processing apparatus and fall detection system | |
JP7281457B2 (en) | Vital Signs with Contactless Activity Detection Networks for Elderly Care | |
US20220157145A1 (en) | Daily Activity Sensor and System | |
JP2017503566A (en) | Infant monitoring device | |
US10959646B2 (en) | Image detection method and image detection device for determining position of user | |
JP7138619B2 (en) | Monitoring terminal and monitoring method | |
US10706706B2 (en) | System to determine events in a space | |
JP6737645B2 (en) | Monitoring device, monitoring system, monitoring method, and monitoring program | |
JP2020522828A (en) | Computer vision based surveillance system and method | |
JP6791731B2 (en) | Posture judgment device and reporting system | |
JP7468350B2 (en) | Condition monitoring device and control method for condition monitoring device | |
WO2020075675A1 (en) | Care system management method, management device and program | |
JP7342863B2 (en) | Computer-executed programs, information processing systems, and computer-executed methods | |
WO2022036624A1 (en) | Monitoring method and apparatus, electronic device, and storage medium | |
JP7255359B2 (en) | Program, Information Notification Apparatus, and Computer Implemented Method for Posting Information | |
US11257246B2 (en) | Image detection method and image detection device for selecting representative image of user | |
US11087157B2 (en) | Image detection method and image detection device utilizing dual analysis | |
TWM625774U (en) | Care-giving detection system based on deep image-based behavior analysis of care recipients | |
WO2020003952A1 (en) | Computer executable program, information processing device, and computer execution method | |
O'Brien et al. | Design and implementation of an embedded system for monitoring at-home solitary Alzheimer's patients | |
Kashyap | Activity recognition and resident identification in smart home environment | |
JP7310327B2 (en) | Behavior detection device, system provided with same, behavior detection method, and program | |
JP7215481B2 (en) | Computer Executed Programs, Information Processing Devices, and Computer Executed Methods | |
WO2020003955A1 (en) | Program executed by computer, information processing device, and method executed by computer | |
WO2020137061A1 (en) | Information display method, program, and information display device |