JP7436257B2 - 行動認識サーバ、行動認識システム、および、行動認識方法 - Google Patents

行動認識サーバ、行動認識システム、および、行動認識方法 Download PDF

Info

Publication number
JP7436257B2
JP7436257B2 JP2020054435A JP2020054435A JP7436257B2 JP 7436257 B2 JP7436257 B2 JP 7436257B2 JP 2020054435 A JP2020054435 A JP 2020054435A JP 2020054435 A JP2020054435 A JP 2020054435A JP 7436257 B2 JP7436257 B2 JP 7436257B2
Authority
JP
Japan
Prior art keywords
behavior
sensor information
observed person
sensor
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020054435A
Other languages
English (en)
Other versions
JP2021157275A (ja
Inventor
健太郎 佐野
昭義 大平
佐知 田中
卓男 姚
浩平 京谷
優佑 円谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2020054435A priority Critical patent/JP7436257B2/ja
Priority to CN202080064882.1A priority patent/CN114402575B/zh
Priority to PCT/JP2020/042057 priority patent/WO2021192399A1/ja
Publication of JP2021157275A publication Critical patent/JP2021157275A/ja
Application granted granted Critical
Publication of JP7436257B2 publication Critical patent/JP7436257B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/04Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using a single signalling line, e.g. in a closed loop
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H80/00ICT specially adapted for facilitating communication between medical practitioners or patients, e.g. for collaborative diagnosis, therapy or health monitoring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M11/00Telephonic communication systems specially adapted for combination with other electrical systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/38Services specially adapted for particular environments, situations or purposes for collecting sensor information

Description

本発明は、行動認識サーバ、行動認識システム、および、行動認識方法に関する。
近年、インターネットに接続された高性能なセンサが、IоT(Internet of Things)機器として普及している。そして、家庭内などの環境に設置した多数のセンサから大量のセンサ情報をビッグデータとして収集し、それらのビッグデータを分析することで、有益な情報を抽出する試みが行われている。
センサ情報の測定頻度として、一般的には人間の行動期間よりも非常に短期間に測定可能である。よって、センサの1反応をそのまま人間の1行動に置き換えると、「1秒間に3回も立ち上がった」などの非現実的な行動が認識されてしまうこともある。
そこで、特許文献1には、あらかじめ用意したセンサ反応定義に従って、1秒以内に複数回センサが反応した場合でも、それらの反応を平滑化して1回分の行動に対応づける方法が記載されている。
特開2004-145820公報
各種センサには、実際には検知対象の人間などが存在しているにもかかわらず、非検知として計測してしまう誤検出が発生する。例えば、人感センサから発光させる検知用の赤外線が、部屋内の照明光などの加減により遮られてしまうなどの誤検出の要因がある。その結果、人感センサが静止している人間を見逃してしまうことで、リラックスしている人間が存在しても不在と誤認識されることもある。
よって、家庭内で生活する被介護者の老人などを監視対象とする場合などで、センサが瞬間的に誤動作してもその老人の行動を認識する精度を高める必要がある。しかし、特許文献1などの従来の技術では、センサの誤動作の影響については考慮されていない。
そこで、本発明は、誤検出データを含むセンサ情報から、認識精度の低減を抑制することを、主な課題とする。
前記課題を解決するために、本発明の行動認識サーバは、以下の特徴を有する。
本発明は、被観察者を検知するセンサの集合から、前記センサごとの検知結果を示すセンサ情報を取得するセンサ情報取得部と、
時系列の前記センサ情報のうちの前記被観察者が検知された反応時刻をもとに、その反応時刻を最大値とする時間方向の確率密度関数に前記センサ情報を変換するセンサ情報変換部と、
変換された前記センサ情報をもとに、各時刻での前記被観察者の行動を分類する行動分類部と、
分類した前記被観察者の行動をデータ化して出力する行動出力部と、を有することを特徴とする。
その他の手段は、後記する。
本発明によれば、誤検出データを含むセンサ情報から、認識精度の低減を抑制することができる。
本発明の一実施形態に関する行動認識システムの構成図である。 本発明の一実施形態に関する行動認識システムのハードウェア構成図である。 本発明の一実施形態に関する行動認識サーバの詳細を示す構成図である。 本発明の一実施形態に関する行動認識サーバの処理を示すフローチャートである。 本発明の一実施形態に関する検出漏れがない状態でのセンサ情報の時系列グラフである。 本発明の一実施形態に関する図5の時系列グラフから、一部の検出漏れが発生した状態での時系列グラフである。 本発明の一実施形態に関する曲線以外の確率密度関数を適用した場合の時系列グラフである。 本発明の一実施形態に関する空間軸に確率密度関数を適用した場合のグラフである。 本発明の一実施形態に関する図8のグラフが適用される空間の具体例を示す平面図である。 本発明の一実施形態に関するレイアウトデータの一例を示す説明図である。 本発明の一実施形態に関するレイアウトデータの説明用テーブルである。 本発明の一実施形態に関する画像データの説明図である。 本発明の一実施形態に関する行動補正部の処理内容を示す時系列グラフである。
以下、本発明の一実施形態について、図面を参照しながら説明する。
図1は、行動認識システムの構成図である。
行動認識システムは、自宅2hで生活する被観察者2uの生活状態を、観察者3uが観察者端末3を用いて遠隔から見守るように構成される。行動認識サーバ1は、各種センサ2から取得したセンサ情報をもとに被観察者2uの生活状態を認識し、その認識結果を観察者端末3に通知する。これにより、観察者端末3の表示画面を見た観察者3uが、被観察者2uの生活状態を把握できる。
被観察者2uは例えば要介護者であり、観察者3uは例えば要介護者の家族である。または、自宅2hの代わりに病院や介護施設に行動認識システムを導入してもよく、その場合、観察者3uは医師やケアマネージャとなる。
自宅2hには、被観察者2uの行動を監視するためのさまざまなセンサ2がネットワークに接続されている。センサ2は、例えば、冷蔵庫2aや自律移動型の掃除機2bなどの家電機器に組み込まれたセンサでもよいし、人感センサ2cなどの単体のセンサでもよい。
なお、人感センサ2cなどのセンサ2は、その測定領域が部屋の入口に対向しない方向に設置されていることが望ましい。この設置により、人感センサ2cが部屋外の廊下をすれ違う被観察者2uとは別人を誤検出してしまうことを抑制できる。
図2は、行動認識システムのハードウェア構成図である。
センサ2は、検知部122が検知したセンサ情報などを他装置に通知する通信部121と、被観察者2uを検知する検知部122と、観察者3uからのメッセージなどを被観察者2uに報知する報知部123とを有する。
行動認識サーバ1は、センサ2からセンサ情報を受け、そのセンサ情報からの認識結果を観察者端末3に通知する通信部111と、被観察者2uの生活状態を認識する制御部112と、制御部112の処理に用いられるデータを格納する記憶部113とを有する。
観察者端末3は、被観察者2uの認識結果を受信する通信部131と、被観察者2uの認識結果を観察者3uに報知する報知部132と、被観察者2uからのメッセージなどを入力させる入力部133とを有する。
行動認識サーバ1は演算装置(制御部112)としてのCPU(Central Processing Unit)、主記憶装置としてのメモリ、および、外部記憶装置(記憶部113)としてのハードディスクを有する計算機として構成される。
この計算機は、CPUが、メモリ上に読み込んだプログラム(アプリケーションや、その略のアプリとも呼ばれる)を実行することにより、各処理部により構成される制御部(制御手段)を動作させる。
図3は、行動認識サーバ1の詳細を示す構成図である。
行動認識サーバ1の制御部112(図2)は、センサ情報取得部11と、センサ情報変換部11Tと、時刻情報取得部12と、画像変換部13と、行動分類部14と、行動補正部15と、現在行動蓄積部16と、行動出力部17とを有する。
行動認識サーバ1の記憶部113(図2)は、レイアウトデータ13Lと、分類モデル14mとを格納する。
以下、図3の構成要素の詳細について、図4のフローチャートに沿って説明する。
図4は、行動認識サーバ1の処理を示すフローチャートである。
センサ情報取得部11は、自宅2hに設置されたセンサ2(冷蔵庫2a、掃除機2b、人感センサ2c)からのセンサ情報を取得する(S101)。センサ情報は、センサ2の種類ごとにデータ形式が異なることもある。
センサ情報変換部11Tは、0または1という離散値のデータ形式のセンサ情報をセンサ情報取得部11から受け、その離散値のセンサ情報を確率密度関数のセンサ情報に変換する(S102、図5~図9で後記)。
センサ情報変換部11Tは、確率密度関数の関数値として、例えば、センサが反応した時刻tにおいて離散値「1」の入力データから、時刻tにおける関数値を最大値(例えば「1」)とし、その前後の時間方向にも最大値未満の関数値を追加した出力データを作成する(図5)。最大値未満の関数値とは、時刻tからの時間差が大きくなるほど関数値が小さくなるようにセンサ情報変換部11Tが計算したものである。
一方、センサ情報変換部11Tは、離散値以外のデータ形式である入力データは、変換せずにそのまま出力データとする。
画像変換部13は、センサ情報変換部11Tの出力データであるセンサ2ごとのセンサ情報をもとに、所定時刻におけるセンサ情報の集合を画像化する(S103)。なお、画像変換部13が変換時に参照するレイアウトデータ13Lには、あらかじめどのセンサ2のセンサ情報を画像内のどの部分に配置するかという画像内のレイアウトに関する情報が定義されている(図10,図11)。
また、画像変換部13は、センサ情報の集合に加えて、そのセンサ情報の計測時刻である所定時刻を示す時刻情報を時刻情報取得部12を介して取得し、その時刻情報を画像化対象に含めてもよい。時刻情報取得部12は、センサ2がセンサ情報にタイムスタンプを含めている場合はその時刻を取得し、タイムスタンプが無い場合はセンサ情報の受信時刻を画像化対象とする。
なお、画像変換部13によるセンサ情報の画像化処理を省略して、行動分類部14は、画像化されていないセンサ情報や時刻情報を受け付けてもよい。
行動分類部14は、センサ情報を示す画像データから、その時刻情報における被観察者2uの行動を分類する(S104)。この分類処理のために、あらかじめ画像データを入力すると、対応する行動をデータ化して出力する分類モデル14mが用意されている。分類モデル14mは、例えば、深層学習などの機械学習アルゴリズムによって訓練されている。
行動補正部15は、行動分類部14が出力する個々の行動に対して、時間的に前後の行動を参照することで、瞬間的に発生してしまった不自然な行動を補正する(図13で後記)。
そのため、行動補正部15は、今回着目する行動(現在の行動)に対してその前後の行動からの局所的な変化が存在するときには(S111,Yes)、その局所的な行動を前後の行動に整合させるように補正してから、補正後の行動を現在行動蓄積部16に蓄積する(S112)。一方、局所的な変化が存在しないときには(S111,No)、その自然な行動をそのまま現在行動蓄積部16に蓄積する(S113)。
行動出力部17は、現在行動蓄積部16に蓄積された行動認識結果を外部(観察者端末3)に出力する。行動認識結果の出力先は、顧客環境(観察者端末3)に限らず、データベースシステムやクラウドシステムなどの他システムに出力してもよい。
以下、図5~図9を参照して、センサ情報変換部11Tの処理(S102)の具体例を説明する。
図5は、検出漏れがない状態でのセンサ情報の時系列グラフを示す。
グラフ211は、センサ情報取得部11からセンサ情報変換部11Tに入力されるセンサ情報である。反応時刻t1~t5でそれぞれ被観察者2uの検知を示す離散値「1」がグラフ211に含まれる。
グラフ212は、センサ情報変換部11Tがグラフ211を入力データとして、離散値のセンサ情報を確率密度関数に変換した結果である。センサ情報変換部11Tは、反応時刻t1の離散値「1」を受け、反応時刻t1をピークとした曲線m1の確率密度関数に変換する。同様に、センサ情報変換部11Tは、反応時刻t2の曲線m2と、反応時刻t3の曲線m3と、反応時刻t4の曲線m4と、反応時刻t5の曲線m5とをそれぞれ作成する。
センサ情報変換部11Tは、センサ情報を確率密度関数にした分布として、例えば、正規分布、スチューデントτ分布、U(Universal)分布、および、その他の統計分野で用いられる任意の分布を適用することができる。
グラフ213は、グラフ212の曲線間の重複区間を統合したものである。ここでは、同じ時刻に複数の曲線が存在する場合、センサ情報変換部11Tは、それらの曲線の最大値を採用したが、曲線の総和を採用してもよい。これにより、グラフ213は各時刻の確率密度関数の値が一意に求まる。
このように、センサ情報変換部11Tの変換後においても各反応時刻t1~t5の関数値は「0」ではないので、正しい検出結果がセンサ情報変換部11Tによって削除されることはない。
図6は、図5の時系列グラフから、一部の検出漏れが発生した状態での時系列グラフを示す。
グラフ221は、センサ情報取得部11からセンサ情報変換部11Tに入力されるセンサ情報である。時刻t2,t4でそれぞれ被観察者2uが実際には自宅2hに存在するにもかかわらず、検知漏れのため離散値「0」となってしまった。残りの反応時刻t1,t3,t5では図5と同様に正しく離散値「1」が検知されている。
グラフ222は、センサ情報変換部11Tがグラフ221を入力データとして、離散値のセンサ情報を確率密度関数に変換した結果である。このグラフ222では、図5のグラフ212から、時刻t2での曲線m2と、時刻t4での曲線m4とが欠落してしまった。
グラフ223は、図5のグラフ213と同様に、グラフ222の曲線間の重複区間を統合したものである。ここで、時刻t2に着目すると、時刻t2のセンサ情報(関数値)は、「0」ではなく、時間的に近傍の時刻t1,t3からの確率密度関数(曲線m1,m3)の影響を受ける。同様に、時刻t4の関数値も、時間的に近傍の時刻t5からの確率密度関数(曲線m5)の影響を受ける。
このように、時刻t2,t4でそれぞれ検出漏れが発生しても、時間的に近傍の他信号を確率密度関数にすることで、検出漏れを救済できる。
図7は、図5の時系列グラフと同じ入力データから、曲線以外の確率密度関数を適用した場合の時系列グラフを示す。
グラフ231は、グラフ211と同様に、時刻t1~t5でそれぞれ被観察者2uの検知を示す離散値「1」がに含まれる。
グラフ232は、センサ情報変換部11Tがグラフ231を入力データとして、離散値「1」の各時刻t1~t5をピークとした直線近似の確率密度関数に変換した結果である。
直線近似は計算量が少なくて済む。また、直線近似の方程式近似の他にも、センサ情報変換部11Tは、図5で示した曲線近似や、図示しない多項式近似などを用いてもよい。
グラフ233は、センサ情報変換部11Tがグラフ231を入力データとして、所定範囲の乱数値に変換した結果である。以下に示すように、入力データの離散値「0」の場合と、「1」の場合とで、それぞれ乱数値の取り得る範囲が異なる。
・入力データの離散値「0」→出力データ「0~0.3の範囲での乱数値」
・入力データの離散値「1」→出力データ「0.7~1.0の範囲での乱数値」
これにより、時間的に近傍の離散値「1」が存在しない期間でも、検出漏れを救済できることもある。
図8は、空間軸に確率密度関数を適用した場合のグラフである。
図5~図7では、センサ情報変換部11Tは、時間軸に確率密度関数を適用することで、入力データの離散値「1」が発生した時刻周辺にも検出信号を擬似的に作成していた。
同様に、図8でセンサ情報変換部11Tは、空間軸に確率密度関数を適用することで、入力データの離散値「1」が発生した場所(リビング)の周辺に位置する場所(寝室、キッチン)も検出信号を擬似的に作成してもよい。
図9は、図8のグラフが適用される空間の具体例を示す平面図である。
入力データの離散値「1」が発生したリビングを、被観察者2uの存在確率「1(100%)」とすると、センサ情報変換部11Tは、その近傍の部屋にも存在確率を波及させる。
例えば、キッチンや寝室には、入力データの離散値「1」が発生せず、被観察者2uが検知されていない。しかし、センサ情報変換部11Tは、リビングに近い順に、キッチン(存在確率=0.7)、寝室(存在確率=0.5)を波及させる。
図10は、画像変換部13が画像化処理に使用するレイアウトデータ13Lの一例を示す説明図である。レイアウトデータ13Lは、縦方向に12マス、横方向に12マスの正方形の画像データ内の各位置に書き込むデータ内容が、「T」や「ACC1」などの図中記号として配置されている。なお、「マス」とは画像領域を細分化した最小単位であり、センサ情報や時刻情報には、最低1マスの書き込み領域が割り当てられる。
図11は、図10のレイアウトデータ13Lの説明用テーブルである。例えば、図10の最上部「T」は、図11の第1行「時刻」の図中記号「T」に対応する。なお、図10の最上部「T」の場所に配置される画像データは、時刻情報取得部12が取得した時刻データである。つまり、図12に示す1枚の画像は、各場所に配置されたセンサ2から同じ計測時刻(「T」の時刻データ)において計測されたセンサ情報の集合を、1つに集約して可視化した結果である。
なお、S102でセンサ情報変換部11Tが確率密度関数に変換するセンサ2の種類は、例えば、加速度センサ、(ドア)開閉センサなどの被観察者2uの動作を検出するものや、人感センサなどの被観察者2uの存在を検出するものが挙げられる。
説明用テーブルの第3列「マス数」とは、書き込み領域の大きさを示す。なお、書き込み領域が表現可能なデータ量よりも書き込むデータ量が少ないときには、書き込み領域が余ってしまう。そのときには、画像変換部13は、同じデータ内容を複数の場所にコピーして書き込むことで、画像内のマス数を埋める。
なお、レイアウトデータ13Lのマス数は書き込む情報間の重みを示し、多くのマス数が割り当てられるほど行動への影響が大きい。このマス数の配分は、例えば、以下のポリシにより決定される。
・昼間は外出し夜は寝るなど、人間の生活は時刻によって取る行動が習慣化されているので、時刻情報「T」は、他のセンサ情報よりも多くのマス数(24マス)を配分する。
・人間は居る場所によって取り得る行動がある程度絞り込まれるので、人感センサ「HM1~HM5」のセンサ情報(居場所情報)は他のセンサ情報よりも多くのマス数(12マス)を配分する。
・平日は出勤し休日は家で休むなど、人間の生活は曜日によっても同じ行動を取る習慣があるので、曜日情報「DoW」は、自宅2hの環境を測定するセンサ情報よりも多くのマス数(12マス)を配分する。
・人間の動作を検知するセンサ情報として、加速度センサ「ACC1~ACC4」および開閉センサ「OC1~OC3」は、自宅2hの環境を測定するセンサ情報よりも多くのマス数(4マス)を配分する。
説明用テーブルの第4列「値」とは、書き込み領域に書き込むデータ内容を示す。例えば、画像データの色深度がグレースケールの8bitであるときには、書き込み領域が表現可能なデータ量は、2の8乗=256通りの数値となる。なお,画像データの色深度は任意に設定可能であるため,表現可能なデータ量は256通りに限定されることは無い。従って,例えば8bitのグレースケールと16bitのカラーでは,同じセンサの反応値でも異なる値,精度に変換されることがある。本実施形態では、0.00~1.00の範囲を0.01の精度で記載することとした。
例えば、時刻「T」の値「0.31」とは、0時0分を値「0.00」とし、23時59分を値「1.00」としたときには、午前7時40分を示す。一方、曜日は、月曜日を値「0.00」とし、日曜日を値「1.00」としたときの7通りの中から選択される。
なお、上記「値」とは、各センサ情報の値に基づいた任意の範囲の値のことである。上述したように各センサ情報の値に応じた色をいう場合の他、各センサ情報の値そのままをいう場合も含む。
なお、図11の「湿度」の行「HUM」では、マス数「5(=1x5)」とは、湿度センサの書き込み領域の大きさが、1センサで1マス分ありセンサ数が5個なので、合計5マス分という意味である。また「湿度」の値「0.66,0.57,0.64,0.58,0.7」は、左から順に第1湿度センサの値「0.66」、第2湿度センサの値「0.57」、…、第5湿度センサの値「0.7」を示す。
以上説明したレイアウトデータ13Lは、同じ種類のセンサ情報を画像内の近接にまとめて配置する一例を説明した。一方、センサの設置場所(部屋)が同じセンサ情報ごとに、画像内の近接にまとめて配置してもよい。
図12は、図10のレイアウトデータ13Lに対して、図11の「値」を書き込んだ結果の画像データの説明図である。図12では説明をわかりやすくするために「T」や「ACC1」などの図中記号も併記したが、実際は図中記号は画像からは省略される。
例えば、画像変換部13は、「ACC1」の書き込み領域には、値「0」を示す黒色を書き込む。一方、画像変換部13は、「HM4」の書き込み領域には、値「1」を示す白色を書き込む。つまり、書き込む値が大きいほど白色に近づく。
さらに、画像変換部13が作成した画像データに対して、その画像データが示すシチュエーションを示す被観察者2uの行動「帰宅」を対応づけることにより、分類モデル14mが定義される。
行動分類部14は、過去に登録された分類モデル14mを参照することで、分類モデル14mの画像データと一致または類似する画像データが現在の被観察者2uから検知された場合には、分類モデル14mで対応する行動「帰宅」を分類結果として出力する(S104)。
なお、分類モデル14mの定義は、観察者3uなどの人間が「帰宅」、「休憩」などの意味のある行動ラベルを教えてもよい。一方、機械学習により自動分類した「行動A」、「行動B」などの意味を持たないが類似する行動をグループ化しただけの行動ラベルを用いてもよい。
図13は、行動補正部15の処理内容を示す時系列グラフである。
グラフ241は、補正前の行動分類部14の出力データを示す。グラフ241では、基本的には被観察者2uが外出中であることが検知されているが、10:00に5分間(ΔT1)の入浴行動と、15:00に3分間(ΔT2)の掃除行動が検知されたとする。
グラフ242は、補正後の行動補正部15の出力データを示す。行動補正部15は、時間的に前後の行動とは異なる行動が突発的に検知されたときに、前後の行動と同じ行動になるように、異なる行動を補正する(S112)。
そのため、行動補正部15は各行動の期間(ΔT1、ΔT2)が、所定期間Th=10分より短いときに、補正対象となる不自然な行動と判定する。これにより、10:00の入浴行動と、15:00の掃除行動とが、それぞれ前後の「外出中」と同じ行動に補正される。
また、行動補正部15は、補正対象となる不自然な行動の検知方法として、行動の期間だけでなく、行動の種類を参照してもよい。例えば、行動補正部15は、前の行動(リラックス)に対して、その直後に(1分後に)発生すること自体が不自然な行動(外出)を補正対象としてもよい。
なお、行動補正部15は、前後とは異なる行動を補正するか否かについて、異なる行動の種類によって、比較する所定期間Thを変更してもよい。例えば、入浴行動は20分(所定期間Th1)未満の場合には不自然な行動として補正する一方、掃除行動は5分(所定期間Th2)未満の場合には不自然な行動として補正する。
一方、比較例として、行動検知の時間間隔を短くすることで行動認識の精度を向上させる方法もあるが、この方法では制御の煩雑さが発生してしまう。
以上説明した本実施形態では、センサ情報取得部11がセンサ情報を取得し、そのセンサ情報が瞬間的な誤動作により被観察者2uを見逃してしまった場合でも、センサ情報変換部11Tが時間軸または空間軸で近傍のセンサ情報をもとに確率密度関数にすることで、検出漏れを救済できる。これにより、誤検出データを含むセンサ情報から、認識精度の低減を抑制することができる。
なお、本発明は前記した実施例に限定されるものではなく、さまざまな変形例が含まれる。例えば、前記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。
また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。
また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。また、上記の各構成、機能、処理部、処理手段などは、それらの一部または全部を、例えば集積回路で設計するなどによりハードウェアで実現してもよい。
また、前記の各構成、機能などは、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。
各機能を実現するプログラム、テーブル、ファイルなどの情報は、メモリや、ハードディスク、SSD(Solid State Drive)などの記録装置、または、IC(Integrated Circuit)カード、SDカード、DVD(Digital Versatile Disc)などの記録媒体におくことができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際にはほとんど全ての構成が相互に接続されていると考えてもよい。
さらに、各装置を繋ぐ通信手段は、無線LANに限定せず、有線LANやその他の通信手段に変更してもよい。
1 行動認識サーバ
2 センサ
2u 被観察者
3 観察者端末
11 センサ情報取得部
11T センサ情報変換部
12 時刻情報取得部
13 画像変換部
13L レイアウトデータ
14 行動分類部
14m 分類モデル
15 行動補正部
16 現在行動蓄積部
17 行動出力部

Claims (6)

  1. 被観察者を検知するセンサの集合から、前記センサごとの検知結果を示すセンサ情報を取得するセンサ情報取得部と、
    時系列の前記センサ情報のうちの前記被観察者が検知された反応時刻をもとに、その反応時刻を最大値とする時間方向の確率密度関数に前記センサ情報を変換するセンサ情報変換部と、
    変換された前記センサ情報をもとに、各時刻での前記被観察者の行動を分類する行動分類部と、
    分類した前記被観察者の行動をデータ化して出力する行動出力部と、を有することを特徴とする
    行動認識サーバ。
  2. 前記センサ情報変換部は、前記センサ情報のうちの前記被観察者が検知された反応場所をもとに、その反応場所を最大値の確率値とし、その反応場所からの距離が長くなる場所ほど前記確率値が小さくなる確率密度関数に前記センサ情報を変換することを特徴とする
    請求項1に記載の行動認識サーバ。
  3. 前記行動認識サーバは、さらに、縦方向に所定数のマス数と、横方向に所定数のマス数を有する格子状のレイアウトデータに基づいて前記センサ情報を画像にする画像変換部を備えており、
    前記レイアウトデータには、どのセンサの前記センサ情報を画像内のどの部分に配置するかという画像内のレイアウトに関する情報が定義されており、
    前記マス数は、前記被観察者の行動への影響が大きいセンサの前記センサ情報ほど、画像内に前記マス数が多くなるように配分され、
    前記画像変換部は、前記配分されたマス数のレイアウトデータに従って、前記各センサ情報の値に基づいたグレースケールの濃度を、画像内の各マスに書き込むことで前記各センサ情報を画像化し、その画像を前記行動分類部に入力する前記センサ情報として用いることを特徴とする
    請求項1に記載の行動認識サーバ。
  4. 前記行動認識サーバは、さらに、行動補正部を備えており、
    前記行動補正部は、前記行動分類部が分類した前記被観察者の行動について、時間的に前後の行動とは異なる行動が突発的に検知されたときに、前後の行動と同じ行動になるように、異なる行動を補正することを特徴とする
    請求項1に記載の行動認識サーバ。
  5. 被観察者の生活する部屋の入口に対向しない方向に設置されているセンサを含む前記被観察者を検知する前記センサの集合と、
    前記被観察者の行動を認識する行動認識サーバとを有する行動認識システムであって、
    前記行動認識サーバは、
    前記被観察者を検知する前記センサの集合から、前記センサごとの検知結果を示すセンサ情報を取得するセンサ情報取得部と、
    時系列の前記センサ情報のうちの前記被観察者が検知された反応時刻をもとに、その反応時刻を最大値とする時間方向の確率密度関数に前記センサ情報を変換するセンサ情報変換部と、
    変換された前記センサ情報をもとに、各時刻での前記被観察者の行動を分類する行動分類部と、
    分類した前記被観察者の行動をデータ化して出力する行動出力部と、を有することを特徴とする
    行動認識システム。
  6. 行動認識サーバは、センサ情報取得部と、センサ情報変換部と、行動分類部と、行動出力部と、を有しており、
    前記センサ情報取得部は、被観察者を検知するセンサの集合から、前記センサごとの検知結果を示すセンサ情報を取得し、
    前記センサ情報変換部は、時系列の前記センサ情報のうちの前記被観察者が検知された反応時刻をもとに、その反応時刻を最大値とする時間方向の確率密度関数に前記センサ情報を変換し、
    前記行動分類部は、変換された前記センサ情報をもとに、各時刻での前記被観察者の行動を分類し、
    前記行動出力部は、分類した前記被観察者の行動をデータ化して出力することを特徴とする
    行動認識方法。
JP2020054435A 2020-03-25 2020-03-25 行動認識サーバ、行動認識システム、および、行動認識方法 Active JP7436257B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020054435A JP7436257B2 (ja) 2020-03-25 2020-03-25 行動認識サーバ、行動認識システム、および、行動認識方法
CN202080064882.1A CN114402575B (zh) 2020-03-25 2020-11-11 行动识别服务器、行动识别系统和行动识别方法
PCT/JP2020/042057 WO2021192399A1 (ja) 2020-03-25 2020-11-11 行動認識サーバ、行動認識システム、および、行動認識方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020054435A JP7436257B2 (ja) 2020-03-25 2020-03-25 行動認識サーバ、行動認識システム、および、行動認識方法

Publications (2)

Publication Number Publication Date
JP2021157275A JP2021157275A (ja) 2021-10-07
JP7436257B2 true JP7436257B2 (ja) 2024-02-21

Family

ID=77891272

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020054435A Active JP7436257B2 (ja) 2020-03-25 2020-03-25 行動認識サーバ、行動認識システム、および、行動認識方法

Country Status (3)

Country Link
JP (1) JP7436257B2 (ja)
CN (1) CN114402575B (ja)
WO (1) WO2021192399A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003256957A (ja) 2001-12-25 2003-09-12 Matsushita Electric Ind Co Ltd 異常検知装置及び異常検知システム
US20030229471A1 (en) 2002-01-22 2003-12-11 Honeywell International Inc. System and method for learning patterns of behavior and operating a monitoring and response system based thereon
JP2004145820A (ja) 2002-10-28 2004-05-20 Nippon Telegr & Teleph Corp <Ntt> 生活動作検出方法、装置、プログラム、および該プログラムを記録した記録媒体
JP2016006611A (ja) 2014-06-20 2016-01-14 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2018029671A (ja) 2016-08-22 2018-03-01 学校法人慶應義塾 行動検知システム、情報処理装置、プログラム
JP2019087179A (ja) 2017-11-10 2019-06-06 富士通株式会社 分析装置、分析方法およびプログラム
JP2020013334A (ja) 2018-07-18 2020-01-23 株式会社Z−Works 生活習慣分析システム、生活習慣分析方法及びプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1322465C (zh) * 2005-08-15 2007-06-20 阜阳师范学院 自动指纹识别方法中的图像分割及指纹纹路距离提取方法
JP2011232871A (ja) * 2010-04-26 2011-11-17 Sony Corp 情報処理装置、テキスト選択方法及びプログラム
JP2012058780A (ja) * 2010-09-03 2012-03-22 Toyota Motor Corp 環境マップ作成装置及び方法、行動予測装置及び方法
JP5593486B2 (ja) * 2012-10-18 2014-09-24 独立行政法人産業技術総合研究所 センサネットワークシステム
EP3243554B1 (en) * 2015-01-05 2022-07-20 Sony Group Corporation Information processing device, information processing method, and program
DE102015207415A1 (de) * 2015-04-23 2016-10-27 Adidas Ag Verfahren und Gerät zum Verknüpfen von Bildern in einem Video einer Aktivität einer Person mit einem Ereignis
KR20170084445A (ko) * 2016-01-12 2017-07-20 삼성에스디에스 주식회사 시계열 데이터를 이용한 이상 감지 방법 및 그 장치
JP2017224174A (ja) * 2016-06-15 2017-12-21 シャープ株式会社 情報取得端末、情報収集装置、行動観察システム、情報取得端末の制御方法、および、情報収集装置の制御方法
CN106644436B (zh) * 2016-12-16 2019-02-01 中国西电电气股份有限公司 一种断路器机械特性的评定方法
JP6795093B2 (ja) * 2017-06-02 2020-12-02 富士通株式会社 判定装置、判定方法及び判定プログラム
JP2019054333A (ja) * 2017-09-13 2019-04-04 株式会社東芝 無線端末、無線通信システム、無線通信方法及び無線通信プログラム
CN108764059B (zh) * 2018-05-04 2021-01-01 南京邮电大学 一种基于神经网络的人体行为识别方法及系统
JP2019213030A (ja) * 2018-06-04 2019-12-12 凸版印刷株式会社 看視システム
CN109362066B (zh) * 2018-11-01 2021-06-25 山东大学 一种基于低功耗广域物联网和胶囊网络的实时行为识别系统及其工作方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003256957A (ja) 2001-12-25 2003-09-12 Matsushita Electric Ind Co Ltd 異常検知装置及び異常検知システム
US20030229471A1 (en) 2002-01-22 2003-12-11 Honeywell International Inc. System and method for learning patterns of behavior and operating a monitoring and response system based thereon
JP2004145820A (ja) 2002-10-28 2004-05-20 Nippon Telegr & Teleph Corp <Ntt> 生活動作検出方法、装置、プログラム、および該プログラムを記録した記録媒体
JP2016006611A (ja) 2014-06-20 2016-01-14 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2018029671A (ja) 2016-08-22 2018-03-01 学校法人慶應義塾 行動検知システム、情報処理装置、プログラム
JP2019087179A (ja) 2017-11-10 2019-06-06 富士通株式会社 分析装置、分析方法およびプログラム
JP2020013334A (ja) 2018-07-18 2020-01-23 株式会社Z−Works 生活習慣分析システム、生活習慣分析方法及びプログラム

Also Published As

Publication number Publication date
CN114402575B (zh) 2023-12-12
JP2021157275A (ja) 2021-10-07
WO2021192399A1 (ja) 2021-09-30
CN114402575A (zh) 2022-04-26

Similar Documents

Publication Publication Date Title
Monekosso et al. Behavior analysis for assisted living
Ghayvat et al. Smart aging system: uncovering the hidden wellness parameter for well-being monitoring and anomaly detection
Aran et al. Anomaly detection in elderly daily behavior in ambient sensing environments
Dahmen et al. Smart secure homes: a survey of smart home technologies that sense, assess, and respond to security threats
JP4936662B2 (ja) 人間の行動の確率的モデル化によるビデオ監視
US10378936B2 (en) Identification of failed sensors in a system of interconnected devices
McNaull et al. Data and information quality issues in ambient assisted living systems
US20180174671A1 (en) Cognitive adaptations for well-being management
JP6794692B2 (ja) センサデータ学習方法、センサデータ学習プログラム、及びセンサデータ学習装置
EP3163545A1 (en) Abnormal activity detection for elderly and handicapped individuals
Shahid et al. Detecting anomalies in daily activity routines of older persons in single resident smart homes: Proof-of-concept study
JP2019155071A (ja) 事象予測システム、センサ信号処理システム、事象予測方法及びプログラム
Bijlani et al. An unsupervised data-driven anomaly detection approach for adverse health conditions in people living with dementia: Cohort study
JP7436257B2 (ja) 行動認識サーバ、行動認識システム、および、行動認識方法
Vildjiounaite et al. Unsupervised illness recognition via in-home monitoring by depth cameras
JP7366820B2 (ja) 行動認識サーバ、および、行動認識方法
Payandeh et al. Application of modified pagerank algorithm for anomaly detection in movements of older adults
Jiang et al. Recognising activities at home: Digital and human sensors
Akbarzadeh et al. Smart aging system
EP3163546A1 (en) Method and device for detecting anomalous behavior of a user
El-Khadiri et al. Sleep activity recognition using binary motion sensors
Floeck Activity monitoring and automatic alarm generation in AAL-enabled homes
TWI665609B (zh) 住戶行為辨識系統與住戶行為辨識方法
Eldib et al. Behavior analysis for aging-in-place using similarity heatmaps
JP2019158426A (ja) 在不在判定方法、プログラム、センサ処理システム、及びセンサシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240208

R150 Certificate of patent or registration of utility model

Ref document number: 7436257

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150