JP2004157614A - Behavior analysis system - Google Patents

Behavior analysis system Download PDF

Info

Publication number
JP2004157614A
JP2004157614A JP2002320317A JP2002320317A JP2004157614A JP 2004157614 A JP2004157614 A JP 2004157614A JP 2002320317 A JP2002320317 A JP 2002320317A JP 2002320317 A JP2002320317 A JP 2002320317A JP 2004157614 A JP2004157614 A JP 2004157614A
Authority
JP
Japan
Prior art keywords
accident
behavior
matrix
subject
nurse
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002320317A
Other languages
Japanese (ja)
Inventor
Haruo Noma
春生 野間
Norihiro Hagita
紀博 萩田
Shinji Tetsuya
信二 鉄谷
Hiroshi Izeki
洋 伊関
Noriaki Kuwabara
教彰 桑原
Kiyoshi Kogure
潔 小暮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2002320317A priority Critical patent/JP2004157614A/en
Publication of JP2004157614A publication Critical patent/JP2004157614A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a behavior analysis system that can prevent an accident and can analyze a factor in an accident, in a behavior analysis system for analyzing behavior of a subject such as a doctor, a nurse or a factory worker. <P>SOLUTION: The behavior analysis system 10 includes a computer 12, to which data on the number of steps and the lean angle (angle of upper body lean) of a nurse measured by a measuring device 30 are transmitted. From the measured number of steps and lean angle, behavioral feature vectors of the nurse are created, and from behavioral feature vectors including accidents, for example, dictionary data on particular accidents are created. After the dictionary data creation, the creation of behavioral feature data on the nurse at a certain time point (current time point) and their comparison with the dictionary data determines whether an accident may possibly occur or not. If there is a possibility of an accident, an alarm is raised to avoid it. The prediction and avoidance of accident occurrence can prevent an accident. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【産業上の利用分野】
この発明は行動分析装置に関し、特にたとえば、医師、看護師、工員などの被験者の行動を分析する、行動分析装置に関する。
【0002】
【従来の技術】
この種の行動分析装置の一例が、特許文献1に開示される。この特許文献1の行動検知システムでは、人体に個人情報端末が取り付けられ、人体の姿勢や動作、体動、行動・活動状態や位置、生理信号が検知される。検知・収集されたセンサ信号は、基地局へ無線通信によって送信される。基地局へ無線通信された個人情報端末からのセンサ情報は、他のセンサと接続されているセンサ信号処理手段に送信され、情報が統合化される。統合化された人体の行動情報はデータ蓄積手段に蓄積される。次に、センサ信号処理手段から得られた人体の行動情報は、データ蓄積手段によって蓄積された構造化データをもとに行動評価手段によって比較・評価される。この行動評価手段から得られた人体の行動状態のうち、状態判定手段によって異常と判定されたり、また、将来的に異常となり得ることが予測されたら、その内容が個人情報端末やネットワークによって接続された他の端末に通報される。たとえば、他の端末を医者が使用している場合には、適切なアドバイスを、異常と判定された人やその補助者に対して行うことができる。
【0003】
【特許文献1】
特開2002−149824号公報(第4頁および第1図)
【0004】
【発明が解決しようとする課題】
しかし、このような検知システムは、老人や患者などの行動情報を収集するものであり、老人や患者を介護したり、看護したりする者に起因して発生する医療ミスのような事故を未然に防止することはできなかった。
【0005】
それゆえに、この発明の主たる目的は、事故を未然に防止できる、行動分析装置を提供することである。
【0006】
この発明の他の目的は、事故の発生要因を分析できる、行動分析装置を提供することである。
【0007】
【課題を解決するための手段】
第1の発明は、特定の業務を行う被験者の行動を分析する行動分析装置であって、少なくとも被験者の運動量を計測する運動量計測手段、運動量計測手段によって計測された運動量に基づいて被験者の行動特徴を作成する特徴作成手段、アクシデントが発生したときの行動特徴が登録されたデータベース、現時点における被験者の行動特徴とデータベースに登録された行動特徴とを比較する比較手段、比較手段の比較結果に基づいてアクシデントが発生する可能性の有無を判断する判断手段、および判断手段によってアクシデントが発生する可能性があると判断されたとき、警告を発する警告手段を備える、行動分析装置である。
【0008】
第2の発明は、特定の業務を行う被験者の行動を分析する行動分析装置であって、少なくとも被験者の運動量を計測する運動量計測手段、運動量計測手段によって計測された運動量に基づいて被験者の行動特徴を作成する特徴作成手段、アクシデントが発生したときの行動特徴をデータベースに登録する登録手段、現時点における被験者の行動特徴とデータベースに登録された行動特徴とを比較する比較手段、比較手段の比較結果に基づいてアクシデントが発生する可能性の有無を判断する判断手段、および判断手段によってアクシデントが発生する可能性があると判断されたとき、警告を発する警告手段を備える、行動分析装置である。
【0009】
第3の発明は、特定の業務を行う被験者の行動を分析する行動分析装置であって、少なくとも被験者の運動量を計測する運動量計測手段、運動量計測手段によって計測された運動量に基づいて被験者の行動特徴を作成する特徴作成手段、アクシデントが発生したときの行動特徴が登録されたデータベース、およびデータベースに登録された行動特徴を分析してアクシデントの発生要因を抽出する分析手段を備える、行動分析装置である。
【0010】
第4の発明は、特定の業務を行う被験者の行動を分析する行動分析装置であって、少なくとも被験者の運動量を計測する運動量計測手段、運動量計測手段によって計測された運動量に基づいて被験者の行動特徴を作成する特徴作成手段、アクシデントが発生したときの行動特徴をデータベースに登録する登録手段、およびデータベースに登録された行動特徴を分析してアクシデントの発生要因を抽出する分析手段を備える、行動分析装置である。
【0011】
【作用】
第1の発明の行動分析装置では、運動量計測手段によって、特定の業務を行う被験者の運動量が計測される。この計測された運動量に基づいて被験者の行動特徴が作成され、アクシデント(事故)が発生したときの行動特徴が予め登録されたデータベースが設けられる。たとえば、或る時点(現時点)における被験者の行動特徴が作成され、データベースに登録された行動特徴と比較される。比較した結果、アクシデントが発生する可能性の有無が判断され、アクシデントが発生する可能性がある場合には、警告が発せられる。つまり、アクシデントの発生を予測して、事前に回避される。
【0012】
第2の発明は、第1の発明のように、アクシデントが発生したときの行動特徴が予め登録されたデータベースを備えるのではなく、登録手段がそのような行動特徴をデータベースに登録するようにしたものであり、それ以外の構成は同じである。
【0013】
たとえば、第1の発明または第2の発明では、近似度算出手段によって、現時点における被験者の行動特徴とデータベースに登録された行動特徴との近似度が算出されるので、判断手段は近似度が所定の閾値よりも大きいとき、アクシデントが発生する可能性があると判断する。つまり、アクシデントが発生したときの行動特徴と近似する行動特徴を取得したときに、警告を発することができるのである。
【0014】
また、運動量としては、歩数計測手段や角度計測手段によって、被験者の歩数や上体の傾斜角が計測されるので、これらを要素とする特徴ベクトルを作成することができる。
【0015】
したがって、少なくともデータベースに登録されたすべての特徴ベクトルの平均値を含む第1辞書を作成しておけば、現時点における被験者の特徴ベクトルとその平均値のユークリッド距離を求めて近似度を算出することができる。
【0016】
また、データベースに登録されたすべての特徴ベクトルの平均値、共分散行列、この共分散行列についての固有値行列およびこの固有値行列の固有ベクトルを含む第2辞書を作成しておけば、現時点における被験者の特徴ベクトルとその平均値、共分散行列、固有値行列および固有ベクトルとの尤度を求めて近似度を算出することもできる。
【0017】
第3の発明の行動分析装置では、運動量計測手段によって、特定の業務を行う被験者の運動量が計測される。この計測された運動量に基づいて被験者の行動特徴が作成され、アクシデント(事故)が発生したときの行動特徴が登録されたデータベースが設けられる。分析手段は、アクシデントが発生したときの行動特徴を分析して当該アクシデントの要因を抽出する。
【0018】
第4の発明は、第3の発明のように、アクシデントが発生したときの行動特徴が予め登録されたデータベースを備えるのではなく、登録手段がそのような行動特徴をデータベースに登録するようにしたものであり、それ以外の構成は同じである。
【0019】
たとえば、第3の発明または第4の発明では、運動量としては、歩数計測手段や角度計測手段によって、被験者の歩数や上体の傾斜角が計測されるので、これらを要素とする特徴ベクトルを作成することができる。
【0020】
したがって、データベースに登録されるすべての特徴ベクトルの第1平均値とアクシデントの第1出現確率とを用いて第1散乱行列および第1分散行列を求め、この第1散乱行列の逆行列と第1分散行列との積で求められた行列についての第1固有ベクトルの係数の大きさに基づいてアクシデントの発生要因を抽出することができる。つまり、発生し易いアクシデントおよびその要因を知ることができるので、これに基づいて人員配置や勤務シフトの見直しなどの業務改善を図ることができるのである。
【0021】
なお、複数の被験者が存在する場合には、特徴ベクトルと被験者とを関連づけておけば、特定の被験者についての特徴ベクトルを抽出して、上述したように被験者別のアクシデントの発生要因を抽出することもできる。つまり、特定の被験者において発生し易いアクシデントおよびその要因を知ることができる。
【0022】
また、被験者の音声を記録する音声記録手段や被験者を撮影するカメラを備えておけば、記録した音声や撮影した映像から被験者の業務内容を特定することができる。したがって、運動量に基づいて作成された特徴ベクトルと特定した業務内容とを関連づけてデータベースに登録することができる。
【0023】
このため、特定の業務についての特徴ベクトルについての第2平均値と特定の業務内容におけるアクシデントの第2出現確率とを用いて第2散乱行列および第2分散行列を求め、この第2散乱行列の逆行列と第2分散行列との積で求められた行列についての第2固有ベクトルの係数の大きさに基づいて特定の業務内容におけるアクシデントの発生要因を抽出することができる。つまり、特定の業務内容において発生し易いアクシデントおよびその要因を知ることができる。
【0024】
【発明の効果】
この発明によれば、アクシデントの発生を予測してこれを回避するので、アクシデントの発生を防止することができる。
【0025】
他の発明によれば、アクシデントの要因を知ることができるので、これを無くすように業務改善を行うことができる。
【0026】
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
【0027】
【実施例】
図1を参照して、この実施例の行動分析装置10は業務(この実施例では、看護業務)を行う看護師(看護婦,看護士)の行動を分析するものであり、パーソナルコンピュータ或いはワークステーションのようなコンピュータ12を含む。コンピュータ12には、複数の触覚センサ14および複数のカメラ16が接続される。図示は省略するが、この実施例では、複数の触覚センサ14は、体温計、血圧計、注射器、点滴注射器、血液採取用試験管、検尿コップなどの医療器具を格納してある格納箱の取り出し部分やナースコール端末などに取り付けられ、それらの医療器具等の使用(取り出し)の有無を検知する。また、複数のカメラ16は、入院患者を収容する病棟内であり、廊下、病室(ベッド)および看護師の詰所などに設置され、看護業務を行う看護師の行動を撮影する。
【0028】
なお、図示は省略するが、カメラ16としては、映像(および音声)のディジタルデータを、直接コンピュータ12のハードディスク(図示せず)に記録できる監視カメラを用いることができる。
【0029】
また、コンピュータ12には、複数のデータベース(DB)が接続される。具体的には、看護師DB18、病棟イベントDB20、行動特徴ベクトルDB22および看護業務行動辞書DB24が接続される。
【0030】
看護師DB18は、図2(A)に示すような看護師の1日の業務における行動についてのデータ(看護師データ)を看護師毎に記録する。図2(A)に示すように、看護師データには、ラベルとして看護師名が記述され、看護師名の横に日付が記述される。看護師名および日付の下側には、当該看護師の看護業務に関する項目(内容)が記述される。つまり、看護業務の開始時刻、看護業務の対象患者、看護業務の内容、看護業務における歩数、看護業務における傾斜(上半身(上体)を傾ける)回数および医療ミス等の業務における事故(アクシデント・インシデント)がそれぞれ記述される。
【0031】
このような看護師データでは、アクシデント・インシデント以外の内容は、後述する計測装置30(図5参照)で計測されるデータや病棟イベントDB20に記録される病棟イベントデータから取得される。
【0032】
また、アクシデント・インシデントの欄には、当該看護師が業務日報などに記述した医療ミスなどの事故の内容や医療ミス等は発生していないがひやりと(はっと)した出来事の内容が別途入力(記述)される。つまり、この実施例では、アクシデント・インシデントは、事故だけでなく、ひやりとした出来事を含む概念である。たとえば、ひやりとした出来事としては、患者の転倒などが該当する。
【0033】
たとえば、図2(A)に示す看護師データからは、看護師(○○夏子)が、2002年10月25日(金)の10時20分から2分5秒の間、患者(△△冬男)に対して検温を行い、その間の歩数は456歩であり、傾斜回数は35回であり、そして、検温に際して何ら医療ミス等がなかったことが分かる。
【0034】
ただし、この実施例では、後述する行動特徴ベクトルや看護業務行動辞書のデータを作成する便宜上、図2(B)に示すように、看護師、患者、看護業務およびアクシデント・インシデントの内容については、カテゴリ番号を記述するようにしてある。つまり、コンピュータ12のハードディスク(図示せず)には、図3(A),(B)および図4(A),(B)に示すようなテーブルが記録され、看護師、患者、看護業務およびアクシデント・インシデントがそれぞれカテゴリ分類されている。
【0035】
図3(A)は看護師カテゴリのテーブルを示す図解図であり、看護師カテゴリ番号(n=1,2,…,N)に対応して看護師名(**春子,○○夏子,…,△△冬子)が記述される。また、図3(B)は患者カテゴリのテーブルを示す図解図であり、患者カテゴリ番号(k=1,2,…,K)に対応して患者名(**春男,○○夏男,…,△△冬男)が記述される。さらに、図4(A)は看護業務カテゴリのテーブルを示す図解図であり、看護業務カテゴリ番号(z=1,2,…,Z)に対応して看護業務の内容(患者訪問,病状観察,…,退院指導)が記述される。さらにまた、図4(B)はアクシデント・インシデントカテゴリのテーブルを示す図解図であり、アクシデント・インシデントカテゴリ番号(h=1,2,…,H)に対応してアクシデント・インシデントの内容(アクシデント・インシデントなし,患者転倒,…,注射ミス)が記述される。
【0036】
また、病棟イベントDB20は、複数のセンサすなわち上述した複数の触覚センサ14および複数のカメラ16(イメージセンサ)のそれぞれから得られる検知データおよびイメージデータ(これらをまとめて「病棟イベントデータ」という。)を記録する。検知データには、検知する対象となる医療器具等の名称のような識別情報がラベルとして付され、イメージデータには、カメラ16の設置場所やカメラの向きなどの識別情報がラベルとして付される。つまり、検知データやイメージデータのラベルから検知対象物や撮影対象(撮影区域)を特定することができる。さらに、コンピュータ12は、病棟イベントデータを取得した時間(時間データ)を、内蔵される時計回路12aから取得して、当該病棟イベントデータに付加する。
【0037】
たとえば、検知データの入力があった時に、コンピュータ12は当該検知データに時間データを付加して、病棟イベントDB20に記録する。また、イメージデータは、連続するフレーム間の差分がコンピュータ12で検出され、画像に動きがあったときのイメージデータに時間データを付加して、病棟イベントDB20に記録する。ただし、イメージデータの解析処理は、コンピュータ12の負担が大きくなるため、別途専用のコンピュータ等を設けるようにしてもよい。
【0038】
さらに、行動特徴ベクトルDB22は、上述した看護師データに基づいて作成される行動特徴ベクトルFのデータを記録する。この実施例では、行動特徴ベクトルFは、看護師データに含まれる(計測装置30で計測される)歩数と傾斜角とを用いて作成され、具体的には数1で示される。ただし、図2(A)および図2(B)に示した看護師データには、傾斜角は含まれていないが、この傾斜角は傾斜回数の各回数に対応して別途看護師DB18に記録される。
【0039】
【数1】
F=(p,p,…,p,…p,θ,θ,…,θ,…θ
,s,…,s,…s
ここで、p、θおよびsは、時間t=tからt=t+Tまでの区間を予め設定したI個に等分割した場合における、分割区間内の歩数を単位時間当たりで平均化した歩数周波数(p)、分割区間内の傾斜角を単位時間当たりで平均化した傾斜角の平均値(θ)および分割区間内の傾斜角の標準偏差(s)のそれぞれを示す。
【0040】
なお、この実施例では、看護師の疲労度が上がると、歩数の区間平均値にばらつきが起きるとともに、身体の傾斜角の単位時間当たりの変化に発生するばらつきが大きくとなると仮定して、歩数周波数、傾斜角の平均値および傾斜角の標準偏差を行動特徴ベクトルの要素としてある。
【0041】
さらに、看護業務行動辞書DB24には、すべての看護師についての行動特徴ベクトルに基づいて作成される複数種類(この実施例では、5種類)の辞書データが記録される。具体的な作成方法については後述するが、看護業務行動辞書DB24には、特定のアクシデント・インシデントについての辞書(以下、「特定アクシデント辞書」という。)データ、特定患者についての特定アクシデント辞書データ、特定看護師についての特定アクシデント辞書データ、特定業務についての特定アクシデント辞書データおよび発生時刻別の特定アクシデント辞書データが記録される。
【0042】
図5は計測装置30の具体的な構成を示すブロック図であり、この図5を参照して、計測装置30はICレコーダ32を含む。ICレコーダ32には、変調回路34、変調回路36、マイク38および非接触センサ40が接続される。また、変調回路34には歩数計42が接続され、変調回路36には傾斜角センサ42が接続される。さらに、ICレコーダ32には、時計回路32aが内蔵される。
【0043】
このような構成の計測装置30は、各被験者(看護師)に装着される。たとえば、図6に示すように、ICレコーダ32、変調回路34および変調回路36は、1つのボックス(筐体)50内に収容され、ボックス50は看護師の腰部(ベルト部分)に装着される。また、マイク38および傾斜角センサ44は看護師の胸元(襟部分または襟近傍)に装着され、歩数計42は上述のボックス50と同様に看護師の腰部に装着される。非接触センサ40は、マグネットスイッチ、ホール素子或いはMR素子を用いた磁気センサであり、たとえば、看護師の手首に装着され、看護師の上着の袖部分に磁石52が埋め込まれる。
【0044】
なお、図6においては、分かり易く示すため、磁石52を袖の外側に記載してある。また、図6においては省略するが、マイク38および非接触センサ40は接続線を用いて筐体50内のICレコーダ32に接続され、歩数計42および傾斜角センサ44は接続線を用いて筐体内の変調回路34および変調回路36にそれぞれ接続される。
【0045】
たとえば、看護師の操作によって、ICレコーダ32で記録が開始されると、非接触センサ40の入力に応じて、マイク38、歩数計42および傾斜角センサ44の入力が有効化/無効化される。具体的には、非接触センサ40からの入力がある場合には、つまり看護師が手を伸ばした状態で非接触センサ40が磁石52を検出してオンの状態である場合には、看護師の状態(上半身の傾斜角および歩数)を計測する計測モードが設定される。つまり、歩数計42および傾斜角センサ44の入力が有効化され、マイク38の入力が無効化される。
【0046】
一方、看護師が手を曲げた状態で非接触センサ40が磁石52を検出していないオフの状態である場合には、看護師の発する音声を記録する音声記録モードが設定される。つまり、マイク38の入力が有効化され、歩数計42および傾斜角センサ44の入力すなわち変調回路34および変調回路36の入力が無効化される。
【0047】
ただし、音声記録モードが設定された場合には、所定時間(この実施例では、10秒間)が経過するか、または再度非接触センサ40がオンされたときに、計測モードに復帰される。
【0048】
したがって、ICレコーダ32では、マイク38から入力される看護師の音声信号や歩数計42および傾斜角センサ44からの入力に変調を施した音声信号が、ディジタルデータに変換され、メモリカードやフラッシュメモリなどの半導体メモリ(図示せず)に記録される。ただし、音声、歩数、傾斜角度の別で、それぞれに対応する音声信号のディジタルデータ(音声データ)が記録される。その後、看護師の操作によって、ICレコーダ32の記録動作が終了される。
【0049】
また、ICレコーダ32は、録音が開始された時点の時間情報(時間データ)および録音が終了された時点の時間データをそれぞれ時計回路32aから取得し、上述のようにして取得された音声、歩数および傾斜角度についての音声データに付加する。
【0050】
なお、ICレコーダ32の具体的な構成や音声信号の記録については、既に周知であるため、この実施例では、その詳細な説明については省略することにする。
【0051】
また、この実施例では、ICレコーダ32を用いて音声信号を記録するようにしてあるが、MDやMOのようなディスク記録媒体に音声信号を記録する記録装置を用いるようにしてもよい。
【0052】
たとえば、看護師(n)が患者kさんの患者訪問を行なう場合には、看護師(看護師カテゴリ番号n)が「患者kさんの(患者)訪問に行ってきます。」と発話した内容、患者kさんの病室を往復する間の歩数および当該病室を往復する間に上半身を傾斜した際の角度(傾斜角度)のそれぞれについての音声データが記録される。また、この音声データに、録音開始時刻および録音終了時刻の時間データが付加される。
【0053】
このような音声、歩数および傾斜角度についての音声データおよびこれらに付加される時間データ(以下、これらを「計測データ」という場合がある。)は、看護師(n)の1日の業務のすべてについて取得される。図1に示すように、コンピュータ12と計測装置30(厳密にはICレコーダ32)とは、たとえば無線LANによって接続され、したがって、上述のようにして取得された1日の業務についての計測データ(業務計測データ)は、計測装置30(ICレコーダ32)からコンピュータ12に送信(転送)することができる。
【0054】
コンピュータ12は、転送された業務計測データに基づいて、アクシデント・インシデントを除く看護師データを作成する。つまり、看護師を特定し、その後、各計測データからアクシデント・インシデントを除く看護データの項目を特定(決定)して、記録する。
【0055】
たとえば、特定の看護師に特定の(同じ)ICレコーダ32を使用させるようにしておけば、ICレコーダ32の半導体メモリに割り当てられるMACアドレスから看護師を特定することができる。つまり、予めコンピュータ12のハードディスク内に、上述した各テーブルと同様に、MACアドレスに対応して看護師名(或いは看護師カテゴリ番号n)を記述したテーブルを記録しておき、業務計測データの転送を受けたときにMACアドレスを取得すれば、簡単に看護師を特定することができる。
【0056】
また、各計測データに含まれる看護師の音声についての音声データは、アナログの音声信号に変換された後、音声認識処理を施され、認識した音声から患者名や当該患者に対して行った看護業務が特定される。つまり、コンピュータ12は音声認識機能を備えており、また、音声認識のための辞書すなわち複数の発話(音声)に対応する音声信号を記録したメモリ(たとえば、ハードディスクやROM)を有している。
【0057】
なお、この実施例では、複数の発話は看護業務に関する発話であり、予め看護師が音声入力することにより、複数の看護業務に関する発話の音声信号が記録(収録)される。ただし、個々の発話を効率良く認識するようにするため、看護師毎に音声認識のための辞書が設けられる。
【0058】
したがって、コンピュータ12は、看護師の音声についての音声データをアナログに変換した音声信号とメモリに記録された音声信号とを、DPマッチング法やHMM(隠れマルコフモデル)法により比較し、看護師が発話した内容を認識(特定)する。具体的には、「患者kさんの検尿に行ってきます。」という発話を認識すると、患者名「患者k」および当該患者に対する看護業務の内容「検尿」を特定することができる。
【0059】
ただし、患者名および看護業務の内容については正確に特定する必要があるため、DPマッチング法等による比較結果から近似度が一番高い(第1位の)発話と次に近似度が高い(第2位の)発話とを抽出し、第1位の発話と第2位の発話とに基づいて第1位の発話の認識の妥当性(信頼度)を判断するようにしてある。
【0060】
つまり、第1位の発話から特定される患者名(第1患者名)と看護業務の内容(第1看護業務)とのそれぞれを抽出するとともに、第2位の発話から特定される患者名(第2患者名)と看護業務の内容(第2看護業務)とのそれぞれを抽出する。次に、第1患者名と第2患者名との近似度(距離値)および第1看護業務と第2看護業務との距離値をそれぞれ計算する。ここで、距離値とは、言葉(単語)の発音が近似している度合いをいう。たとえば、“伊藤(いとう)”と“紀藤(きとう)”とでは近似度が高い(距離値が小さい)が、“伊藤(いとう)”と“田中(たなか)”とでは近似度が低い(距離値が大きい)。
【0061】
したがって、患者名同士の距離値と看護業務同士の距離値とが予め設定した閾値(第1閾値)よりも小さい場合には、第1位の発話と第2位の発話とが近似しているため、認識結果の信頼度が低いと言える。一方、患者名同士の距離値と看護業務同士の距離値とが第1閾値よりも大きい場合には、第1位の発話と第2位の発話とが近似していないため、認識結果の信頼度が高いと言える。
【0062】
なお、この実施例では、患者名同士の距離値と看護業務同士の距離値との両方が小さい場合に、第1位の発話と第2位の発話とが近似しているとして、認識結果の信頼度が低いと考えるようにしてあるが、いずれか一方の距離値が小さい場合に、認識結果の信頼度が低いと考えるようにしてもよい。
【0063】
認識結果の信頼度が高い場合には、第1位の発話に含まれる患者名および看護業務の内容を抽出(採用)して、看護師データの作成に使用する。一方、認識結果の信頼度が低い場合には、第1位の発話に含まれる患者名および看護業務の内容を排除(リジェクト)して、病棟イベントDB20に記録される病棟イベントデータに基づいて患者名と看護業務の内容とを特定する。
【0064】
ただし、音声認識により、患者名と看護業務の内容とを個別に特定するようにする場合には、音声認識の結果から距離値が第1閾値よりも小さいもののみを、病棟イベントデータに基づいて特定するようにすればよい。
【0065】
つまり、ICレコーダ32から転送された時間データが示す時間における病棟イベントデータすなわち触覚センサ14およびカメラ16から得られる検知データおよびイメージデータを病棟イベントDB20から読み出し、イメージデータから看護師および患者を特定するとともに、検知データとイメージデータとに基づいて看護業務の内容を特定する。
【0066】
患者(名)の特定は、イメージデータに付されたラベルに記述されるカメラ16の設置場所およびカメラ16の向きから容易に特定することができる。看護師の特定は、予め看護師の顔を正面や側面から撮影したデータを記憶しておき、イメージデータと比較することにより行うことができる。
【0067】
ただし、このような画像処理による特定では、データ量が膨大であり、しかも時間がかかるため、たとえば、看護師が身につけている衣服等に看護師毎に異なる印をつけておき、その印をイメージデータから識別して、看護師を特定するようにすればよい。かかる場合には、看護師の衣服と印とのコントラストを大きくすれば、高い認識率が得られる。
【0068】
また、検知データとイメージデータとから看護師が行なった看護業務の内容が特定される。たとえば、検知データに基づいて体温計の使用を検出し、イメージデータに基づいて看護師が患者に体温計を手渡したり、患者から体温計を受け取ったりする動作を検出することにより、看護業務の内容「検温」が特定される。
【0069】
なお、イメージデータから看護師業務の内容を特定するためには、予め看護師が様々な看護業務を行なう際の映像を撮影しておき、撮影した映像と病棟イベントデータに含まれるイメージデータとの対比を行なうことにより看護業務の内容を推定することができ、また、検知データに基づいてそのときに使用された器具等から看護業務の内容を確定(特定)することができる。
【0070】
このようにして、病棟イベントデータから患者名および看護業務の内容を特定することができるが、手順としては、コンピュータ12は、まず、作成する看護師データに対応する看護師が撮影されたイメージデータ(病棟イメージデータ)を特定し、続いて、当該イメージデータに付されたラベルの記述から患者(患者名)を特定し、そして、当該検知データおよび当該イメージデータから看護師の看護業務の内容を特定する。
【0071】
また、各計測データに含まれる歩数および傾斜角度についての音声データは、コンピュータ12によって復調される。歩数はそのまま看護師データの作成に用いられるが、傾斜センサ44によって検出された傾斜角度の個数から傾斜回数が決定される。
【0072】
さらに、看護師データに含まれる時刻および時間の項目に入力すべきデータについては、音声データに付加された時間データから決定される。つまり、時刻の欄には時間データに含まれる録音開始時刻が記述され、時間の欄には録音終了時刻から録音開始時刻を減算した値(時間)が記述される。
【0073】
その後、業務日報からアクシデント・インシデントの情報を取得して、看護師DB18或いは行動分析装置10(コンピュータ12)の管理者が図示しない入力装置(キーボードやコンピュータマウス)を用いて、看護師データに追加する。
【0074】
具体的には、コンピュータ10は、図7に示すフロー図に従って看護師データの作成処理を実行する。図7に示すように、看護師データの作成処理を開始すると、ステップS1で、ICレコーダ32から業務計測データを受信したかどうかを判断する。ステップS1で“NO”であれば、つまり業務計測データを受信していなければ、そのまま同じステップS1に戻る。
【0075】
一方、ステップS1で“YES”であれば、つまり業務計測データを受信すれば、ステップS3では、上述したように、ICレコーダ32に設けられる半導体メモリのMACアドレスを取得し、これに基づいて看護師(看護師カテゴリ番号n)を特定する。
【0076】
続くステップS5では、1番目の(この実施例では、時刻が一番早い)計測データを抽出する。続いて、ステップS7では、音声認識処理を実行する。つまり、抽出した計測データに含まれる看護師の音声についての音声データをアナログ変換して、看護師の発話内容を認識する。
【0077】
看護師の発話内容が認識されると、ステップS9では、認識結果から第1位の発話と第2位の発話とに含まれる患者名同士および看護業務同士のそれぞれについての距離値を検出し、リジェクトがあるかどうかを判断する。
【0078】
ステップS9で“YES”であれば、つまりリジェクトがあれば、ステップS11で、当該計測データに含まれる時間データを参照して、当該計測データと同じ時間帯における病棟イベントデータを病棟イベントDB20から読み出す。そして、ステップS13で、読み出した病棟イベントデータ(検知データおよびイメージデータ)に基づいて、上述したように、患者名および看護業務の内容を特定して、ステップS17に進む。一方、ステップS9で“NO”であれば、つまりリジェクトがなければ、ステップS15で音声認識の結果から患者名および看護業務の内容を特定して、ステップS17に進む。
【0079】
ステップS17では、看護師データの各項目が入力される。つまり、看護師名(看護師カテゴリ番号)、日付、時刻、患者名(患者カテゴリ)、看護業務の内容(看護業務カテゴリ番号)、歩数、傾斜回数および時間が入力される。
【0080】
ただし、看護師カテゴリ番号および日付は初回に入力されればよく、それ以降では、看護師カテゴリ番号および日付を除く項目が随時入力(追加)される。
【0081】
なお、歩数および傾斜回数は、計測データに含まれる音声データを復調して取得されるが、このステップS17の処理の際に復調すればよい。または、ステップS5で計測データを取得してからステップS17の処理を実行するまでの間に復調するようにしてもよい。
【0082】
続くステップS19では、次の(この実施例では、次に時刻が早い)計測データがあるかどうかを判断する。ステップS19で“YES”であれば、つまり次の計測データがあれば、ステップS21で次の計測データを業務計測データから抽出し、ステップS7に戻る。つまり、ステップS7からステップS21の処理を繰り返すことにより、図2(B)に示したような看護データが作成される。
【0083】
一方、ステップS19で“NO”であれば、つまり次の計測データがなければ、当該看護師についての看護師データの作成が終了したと判断し、ステップS23で、作成した看護師データを看護師DB18に記録(登録)してから処理を終了する。
【0084】
その後、看護師DB18の管理者等の操作によって、看護師データにアクシデント・インシデントの項目が入力され、看護師データが完成される。
【0085】
なお、この実施例では、音声認識により患者名および看護業務の内容を特定できない場合には、病棟イベントデータに基づいて患者名および看護業務の内容を特定するようにしてあるが、さらに病棟イベントデータに基づいて患者名および看護業務の内容を特定することができない場合には、アクシデント・インシデントの項目と同様に、看護師DB18の管理者等が業務日報を参照して患者名(患者カテゴリ番号)および看護業務の内容(看護業務カテゴリ番号)を手入力する。
【0086】
このようにして、或る看護師についての看護師データが作成され、同様の方法により他の看護師についての看護師データも作成される。その後、コンピュータ12は、看護師データのそれぞれについて、上述したような行動特徴ベクトルを作成する。
【0087】
具体的には、コンピュータ12は、図8に示すフロー図に従って行動特徴ベクトルの作成処理を実行する。図8に示すように、行動特徴ベクトルの作成処理を開始すると、ステップS31で看護師カテゴリ番号(1)の看護師データを看護師DB18から読み出す。
【0088】
続くステップS33では、読み出した看護師データに含まれる1番目の業務データを抽出する。ここで、業務データとは、図2(B)に示した看護師データの1の業務についての(一列分の)各項目のデータをいう。また、この実施例では、時刻が早い順番で業務データを抽出するようにするため、ステップS33においては、時刻の欄に10:20が記述された列の業務データが抽出される。また、このとき、当該業務データに含まれる傾斜回数のデータに対応して記録される傾斜角度のデータも読み出される。
【0089】
次に、ステップS35では、抽出した業務データに含まれる歩数のデータ、傾斜回数のデータを所定間隔(時間間隔)で分割するとともに、業務データとともに読み出された傾斜角度のデータを所定間隔で分割する。そして、ステップS37では、数1に示したように、歩数、傾斜回数および傾斜角度から行動特徴ベクトルFx(xは自然数であり、初回は1である。)を作成する。その他、行動特徴ベクトルの成分として、間隔内の傾斜角の分散、前後の間隔での歩数の差分、傾斜角の分散の差分を追加することも考えられる。
【0090】
続くステップS39では、次の業務データがあるかどうかを判断する。つまり、看護師データに含まれる業務データで時間的に次の業務データがあるかどうかを判断する。ステップS39で“YES”であれば、つまり次の業務データがあれば、ステップS41で、看護師データから次の業務データを抽出して、ステップS35に戻る。つまり、ステップS35からステップS41の処理を繰り返すことにより、看護師カテゴリ番号(n)の全業務データについての行動特徴ベクトルF1,F2,…,Fx,…,FXを作成することができる。
【0091】
一方、ステップS39で“NO”であれば、つまり次の業務データがなければ、ステップS43で、生成した行動特徴ベクトルF1,F2,…,Fx,…,FXを行動特徴ベクトルDB22に記録する。
【0092】
続いて、ステップS45では、次の看護師データがあるかどうかを判断する。ステップS45で“NO”であれば、つまり次の看護師データがなければ、すべての看護師データについて行動特徴ベクトルを作成したと判断して、処理を終了する。一方、ステップS45で“YES”であれば、つまり次の看護師データがあれば、当該次の看護師データを看護師DB18から読み出して、ステップS33に戻る。
【0093】
このようにして、看護師データのそれぞれについて行動特徴ベクトルFxが作成されるが、行動特徴ベクトルFxのデータには、さらに、看護師カテゴリ番号n、看護業務カテゴリ番号z、患者カテゴリ番号kおよびアクシデント・インシデントカテゴリ番号hの情報がラベルとして付される。このような情報は、看護師データから得られるため、上述したステップS37において行動特徴ベクトルFxを作成するときに、付加することができる。或いは、行動特徴ベクトルFxの作成処理が終了した後に、行動特徴ベクトルDB22(分析装置10)の管理者等がラベルを追加(付加)するようにしてもよい。したがって、厳密には、行動特徴ベクトルF(F1,F2,F3,…,Fx)は、Fx|n,k,z,hのようにラベルが付加された状態で行動特徴ベクトルDB22に記録される。
【0094】
行動特徴ベクトルDB22に記録されるすべての行動特徴ベクトルFx|n,k,z,hを用いて、上述したような各辞書データがたとえばコンピュータ12によって作成される。具体的な作成方法については以下に説明する。
【0095】
<特定アクシデント辞書データ>
特定のアクシデント・インシデント(以下、単に「アクシデント」という。)カテゴリ番号h(h≠1)のラベルが付加された特徴ベクトルFxが行動特徴ベクトルDB22から取得され、取得された行動特徴ベクトルFxを用いて、数2、数3、数4および数5に従って、平均ベクトルM、共分散行列Σ、固有ベクトルΦおよびΣの固有値行列Λがそれぞれ求められる。これらは、すべてのアクシデントカテゴリ番号h(=2,3,…,H)のそれぞれについて求められる。
【0096】
【数2】
=[(x11+x21+…+xn1)/N,(x12+x22+…+xn2)/N,…,(x1m+x2m+…+xnm)/N]
ただし、行動特徴ベクトルをm次元(この実施例では、3次元)とし、アクシデント・カテゴリ番号hに属するn個(数1ではI個)の標本X1〜Xnに対してX1=[x11,x12,…,x1m],…,Xn=[xn1,xn2,…,xnm]とする。また、添え字の“T”は行列の転置を意味する。以下、この実施例において同じである。
【0097】
【数3】
Σ=[X1−M]×[X1−M+[X2−M]×[X2−M+…+[Xn−M]×[Xn−M
【0098】
【数4】
det|Σ−λE|=0
ただし、Eは単位行列である。
【0099】
この数4で得られる解すなわち固有ベクトルΦ=(λ,λ,…,λ)のスカラ成分を対角成分として並べると、数5に示すように、固有値行列Λが得られる。
【0100】
【数5】

Figure 2004157614
【0101】
また、すべてのアクシデントカテゴリ番号hについて、アクシデントカテゴリ内の散乱行列Wとアクシデントカテゴリ間の分散行列Bが数6および数7に従ってそれぞれ求められる。
【0102】
【数6】
Figure 2004157614
【0103】
【数7】
Figure 2004157614
【0104】
ただし、アクシデントの出現確率は、該当する(特定の)アクシデントhのラベルを有する行動特徴ベクトルの数を、アクシデントh(h≠1)のラベルを有するすべての行動特徴ベクトルの数で除算することにより算出することができる。以下、この実施例において、同じである。
【0105】
つまり、特定アクシデントの辞書データとしては、アクシデントh毎の平均ベクトルM、共分散行列Σ、固有ベクトルΦ、Σの固有値行列Λおよびすべてのアクシデントカテゴリ番号hについてのアクシデントカテゴリ内の散乱行列Wとアクシデントカテゴリ間の分散行列Bとが記録される。
【0106】
<特定患者についての特定アクシデント辞書データ>
特定の患者kのラベルを有する行動特徴ベクトルFxが行動特徴ベクトルDB22から取得され、取得された行動特徴ベクトルFxを用いて、アクシデントカテゴリ(h)別に、上述した数2〜数5に従って、平均ベクトルMkh、共分散行列Σkh、固有ベクトルΦkhおよびΣkhの固有値行列Λkhのそれぞれが求められる。
【0107】
また、すべての患者kについて、患者カテゴリ内の散乱行列Wと患者カテゴリ間の分散行列Bとが数8および数9に従ってそれぞれ求められる。
【0108】
【数8】
Figure 2004157614
【0109】
【数9】
Figure 2004157614
【0110】
つまり、特定患者についての特定アクシデント辞書データとしては、患者別の平均ベクトルMkh、共分散行列Σkh、固有ベクトルΦkh、Σkhの固有値行列Λkh、患者カテゴリ内の散乱行列Wおよび患者カテゴリ間の分散行列Bが記録される。
【0111】
<特定看護師についての特定アクシデント辞書データ>
特定の看護師(n)のラベルを有する行動特徴ベクトルFxが行動特徴ベクトルDB22から取得され、取得された行動特徴ベクトルFxを用いて、アクシデントカテゴリ(h)別に、上述した数2〜数5に従って、平均ベクトルMnh、共分散行列Σnh、固有ベクトルΦnhおよびΣnhの固有値行列Λnhのそれぞれが求められる。
【0112】
また、すべての看護師(n)について、看護師カテゴリ内の散乱行列Wと看護師カテゴリ間の分散行列Bとが数10および数11に従ってそれぞれ求められる。
【0113】
【数10】
Figure 2004157614
【0114】
【数11】
Figure 2004157614
【0115】
つまり、特定看護師についての特定アクシデント辞書データとしては、看護師別の平均ベクトルMnh、共分散行列Σnh、固有ベクトルΦnh、Σnhの固有値行列Λnh、看護師カテゴリ内の散乱行列Wおよび看護師カテゴリ間の分散行列Bが記録される。
【0116】
<特定業務についての特定アクシデント辞書データ>
特定の看護業務zのラベルを有する行動特徴ベクトルFxが行動特徴ベクトルDB22から取得され、取得された行動特徴ベクトルを用いて、アクシデントカテゴリ(h)別に、上述した数2〜数5に従って、平均ベクトルMzh、共分散行列Σzh、固有ベクトルΦzhおよびΣzhの固有値行列Λzhがそれぞれ求められる。
【0117】
また、すべての看護業務zについて、看護業務カテゴリ内の散乱行列Wと看護業務カテゴリ間の分散行列Bとが数12および数13に従ってそれぞれ求められる。
【0118】
【数12】
Figure 2004157614
【0119】
【数13】
Figure 2004157614
【0120】
つまり、看護業務についての特定アクシデント辞書データとしては、看護業務別の平均ベクトルMzh、共分散行列Σzh、固有ベクトルΦzh、Σzhの固有値行列Λzh、看護業務カテゴリ内の散乱行列Wおよび看護業務カテゴリ間の分散行列Bが記録される。
【0121】
<発生時刻別の特定アクシデント辞書データ>
アクシデントh(h≠1)のラベルを有する行動特徴ベクトルFが行動特徴ベクトルDB22から取得され、取得された行動特徴ベクトルFについて、24時間(1日)をJ個の区間(時間区間)に分けて、第j区間(j=1,2,…,j,…,J)に含まれる平均ベクトルMhj、共分散行列Σhj、固有ベクトルΦhjおよびΣhjの固有値行列Λhjが、それぞれ、上述した数2〜数5に従って求められる。
【0122】
また、第j区間について、時間区間カテゴリ内の散乱行列Wと時間区間カテゴリ間の分散行列Bとが数14および数15に従ってそれぞれ求められる。
【0123】
【数14】
Figure 2004157614
【0124】
【数15】
Figure 2004157614
【0125】
つまり、発生時刻別の特定アクシデント辞書データとしては、アクシデントの発生時刻別の平均ベクトルMhj、共分散行列Σhj、固有ベクトルΦhj、Σhjの固有値行列Λhj、時間区間カテゴリ内の散乱行列Wおよび時間区間カテゴリ間の分散行列Bが記録される。
【0126】
このように、各看護師について作成した行動特徴ベクトルに基づいて様々な辞書データを作成することができる。
【0127】
たとえば、このような辞書データを作成した後では、これらの辞書データを用いて、或る時点における看護師(n)の行動特徴ベクトルを抽出して、アクシデントが起こる可能性があるか否かを判断し、アクシデントが起こる可能性がある場合には、当該看護師(n)への直接の警告または婦長のようなマネージャへの警告或いはその両方を行い、当該看護師(n)の交代や休憩を促すことができる。つまり、未然にアクシデントの発生を防止することができるのである。なお、警告は看護師の詰所に発するようにしてもよい。
【0128】
簡単に説明すると、ICレコーダ32は、取得された音声データおよび時間データすなわち計測データを半導体メモリに記録せずに、所定のタイミングで(この実施例では、計測データが取得される度に)、そのままコンピュータ12側に送信する。図示は省略するが、たとえば、ICレコーダ32とコンピュータ12とを無線LANで接続すれば、簡単に計測データを送信することができる。
【0129】
コンピュータ12は、受信した計測データに基づいて、特徴ベクトルFを作成し、辞書データ(この実施例では、特定アクシデント辞書データ)を参照し、アクシデントが近い将来に発生する可能性があるかどうかを判断する。そして、アクシデントが発生する可能性があると判断すると、上述したように警告を発する。
【0130】
警告を発する方法としては、看護師に直接警告する場合(婦長に直接警告する場合も同様)には、計測装置30に加え、ICレコーダ32に接続したイヤフォン、ブザ或いはバイブレータを看護師に装着させておき、無線LANにより接続されるコンピュータ12からの指示に従って、音声や音(警告音)で警告を知らせたり、振動で警告を知らせたりすることができる。
【0131】
また、看護師や婦長に間接的に警告を発する場合や看護師の詰所に警告を発す場合には、コンピュータ12と有線または無線で接続されるディスプレイやスピーカのような出力装置を病棟内(廊下、病室、詰所等)に配置しておき、警告メッセージ(文字または音声)を発するようにしてもよい。ただし、婦長に間接的に警告を発する場合には、婦長が所有するパーソナルコンピュータのような端末に電子メールを送信するようにしてもよい。
【0132】
具体的には、コンピュータ12は、図9に示すようなフロー図に従ってアクシデントの分析処理を実行する。図9に示すように、ステップS51で、計測データを受信したかどうかを判断する。ステップS51で“NO”であれば、つまり計測データを受信していなければ、同じステップS51に戻る。一方、ステップS51で“YES”であれば、つまり計測データを受信すれば、ステップS53でMACアドレスから看護師(n)を特定する。
【0133】
なお、上述したように、辞書データを作成した後では、ICレコーダ32から計測データをそのままコンピュータ12に送信するようにしてあるため、計測データとともに、MACアドレスを送信するようにすれば、簡単に看護師(n)を特定できる。
【0134】
続くステップS55では、歩数、傾斜角度についての音声データおよび時間データを抽出し、ステップS57で歩数、傾斜回数および傾斜角度から数1に示したような行動特徴ベクトルFを作成する。
【0135】
次のステップS59では、看護業務行動辞書DB24を参照して、近似するアクシデント(h)を特定する。この実施例では、ステップS57において作成した行動特徴ベクトルFと上述した特定アクシデント辞書データに含まれる各アクシデント(h)に対する平均ベクトルMとのユークリッド距離d(F)を数16に従ってそれぞれ計算し、距離d(F)が最小(最小距離)となるアクシデント(h)を決定(特定)する。
【0136】
【数16】
(F)=||F−M||
ただし、||・||はノルムを表す。
【0137】
または、ステップS57において作成した行動特徴ベクトルFと特定アクシデント辞書データに含まれる各アクシデント(h)に対する平均ベクトルM、共分散行列Σ、固有ベクトルΦ、Σの固有値行列Λとを比較して、尤度g(F)を数17に従ってそれぞれ算出し、尤度g(F)が最大となるアクシデントhを特定するようにしてもよい。
【0138】
【数17】
Figure 2004157614
【0139】
なお、上述したように、ステップS59においては、アクシデント(h)を特定するために、ユークリッド距離や尤度を計算するようにしてあるが、これらは設計者やプログラマによって選択的に採用される。たとえば、アクシデント(h)を特定する時間を短時間にしたい場合には、ユークリッド距離の計算が採用され、アクシデント(h)を特定する精度を高くしたい場合には、尤度の計算が採用される。
【0140】
そして、ステップS61では、アクシデントが発生する可能性があるかどうかを判断する。つまり、ステップS59において特定したアクシデントhとの距離(最小距離)が予め設定した閾値(第2閾値)以下であるかどうかを判断して、アクシデントが発生する可能性があるかどうかを判断する。または、特定したアクシデントhとの尤度(最大尤度)が予め設定した閾値(第3閾値)を超えるかどうかを判断して、アクシデントが発生する可能性があるかどうかを判断する。
【0141】
なお、閾値2や閾値3は、設計者やプログラマによって決定(設定)される値である。たとえば、アクシデントが発生したときの業務データから作成される行動特徴ベクトルと当該業務データの直前または2つ前の業務データから作成される行動特徴ベクトルとの距離値を算出して、閾値2を決定することができる。
【0142】
ステップS61で“NO”であれば、つまりアクシデントが発生する可能性がないと判断すると、そのまま処理を終了する。一方、ステップS61で“YES”であれば、つまりアクシデントが発生する可能性があると判断すると、ステップS63で看護師または婦長或いはその両方に警告を発してから処理を終了する。
【0143】
なお、このアクシデントの分析処理においては、特定アクシデント辞書データを用いた場合についてのみ説明したが、他の辞書データを用いた場合にも同様の処理を実行することができる。
【0144】
また、各辞書データを用いてアクシデントが発生する要因を分析することもできる。具体的には、コンピュータ12が図10に示すようなフロー図に従ってアクシデント要因の分析処理を実行する。
【0145】
ただし、アクシデント要因の分析処理はいずれの辞書データを用いた場合であっても同じであるため、この実施例では、特定アクシデント辞書データを用いた場合の処理のみを説明することとし、他の辞書データを用いた場合の処理についての説明は省略することにする。
【0146】
図10に示すように、アクシデント要因の分析処理を開始すると、ステップS71で特定アクシデント辞書データに含まれるアクシデントカテゴリ内の散乱行列Wとアクシデントカテゴリ分散行列Bとを用いて、行列W−1B(都合上、下付きの添え字“h”を省略する。)の固有値行列Γと固有ベクトルΨとを算出する。ただし、上付きの添え字“−1”は、逆行列を意味する。
【0147】
この固有値行列Γおよび固有ベクトルΨの算出方法については、Keisuke Fukunaga: 「Introduction to Statistical Pattern Recognition Second Edition」,Academic Press,pp.446−450,1990 に詳細に開示されているため、この実施例では、説明を省略することにする。
【0148】
続くステップS73では、固有値行列Γの中で、絶対値が最大の固有値γ1に対応する固有ベクトル行列Φの固有ベクトルφ1を主成分として選択する。ここで、固有ベクトル行列Φに含まれる固有ベクトルφ1は大きさ(φ1の二乗)が1になるように正規化されて(正規直交ベクトルという。)いるため、φ1の各係数(正負または0値)で絶対値が大きい要素iの固有ベクトルφ1(i)があれば、その固有ベクトルφ1(i)はアクシデントを起こす/起こさない要因であると言える。つまり、固有ベクトルを導出する手法に応じて、固有ベクトルφ1の向きが反転される場合があるので、要素φ1(i)の正負は問題でなく、その大きさが重要である。
【0149】
続いて、ステップS75では、因子負荷量Lを算出する。つまり、固有ベクトルφ1=[φ11,φ12,…,φ1n]とした場合に、数18に従って因子負荷量Lが算出される。
【0150】
【数18】
Figure 2004157614
【0151】
そして、ステップS77では、因子負荷量Lの絶対値が大きい特徴ベクトル空間の軸Fiを抽出して、これをたとえばコンピュータ12に接続されたディスプレイ(図示せず)に出力する。
【0152】
つまり、因子負荷量Lからは、もとの観測ベクトル(固有ベクトルφ1)の変数の中で、主成分の因子に最も寄与している変数が何かを知ることができる。これにより、アクシデントの要因が寄与する観測ベクトルの変数を知ることができる。したがって、観測ベクトルの変数を減らしたり増やしたりする、すなわち因子負荷量の要素L1iの絶対値が大きい特徴ベクトル成分を小さくするように、業務(環境)改善提案を考えることができる。
【0153】
なお、このようなアクシデント要因の分析処理を各辞書データを用いて実行した場合には、次のようなアクシデントの要因を知ることができる。特定アクシデント辞書データを用いた場合には、看護師が誰かに拘わらず院内で発生し易いアクシデントとその要因を知ることができる。また、特定患者についての特定アクシデント辞書データを用いた場合には、患者毎に発生し易いアクシデントとその要因を知ることができる。さらに、特定看護師についての特定アクシデント辞書データを用いた場合には、看護師毎に発生し易いアクシデントとその要因を知ることができる。さらにまた、特定業務についての特定アクシデント辞書データを用いた場合には、看護業務毎に発生し易いアクシデントとその要因を知ることができる。また、発生時刻別の特定アクシデント辞書データを用いた場合には、院内においてアクシデントが発生し易い時刻、当該アクシデントとその要因を知ることができる。
【0154】
たとえば、アクシデントの要因が歩数や勤務時間などであると分析された場合には、病室の配置や看護師の勤務シフトを見直すような業務改善を図ることができる。つまり、看護業務の改善、人員配置の見直し、医療設備の改善等を図ることができる。
【0155】
この実施例によれば、各看護師についての行動特徴を予め取得し、或る時点における行動特徴との比較によりアクシデントの発生を予測してこれを回避するので、医療事故を未然に防止することができる。
【0156】
また、看護師の行動特徴から医療事故などのアクシデントの発生要因を分析するので、当該要因を回避するような業務改善を図ることができる。
【0157】
なお、この実施例では、看護師の疲労度を客観的に知るために、看護師の歩数および傾斜角を検出し、これに基づいて行動特徴ベクトルを作成するようにしたが、さらに脈拍、心拍数、血糖値などを検出して、これらも行動特徴ベクトルの要素に加えるようにしてもよい。
【0158】
また、この実施例では、行動分析装置を看護師業務に適用した場合についてのみ説明したが、このような行動分析装置は他の業務にも適用することができる。たとえば、医療行為を行う医師、原子力発電所の保守保安員、工場の工員、ホームケア業のヘルパ(介護者)の行動などを分析することもできる。一例を上げると、工場の工員の行動を分析する場合には、工場に触覚センサやカメラを配置し、計測装置を工員に装着して行動特徴を取得することができ、また、或る時点における工員の行動特徴を取得し、交代や休憩を促して、アクシデントの発生を未然に回避することができる。また、取得した行動特徴から辞書データを作成および分析して、業務の改善、人員配置の見直し、工場設備の改善等を図ることができる。
【図面の簡単な説明】
【図1】この発明の分析装置の構成の一例を示すブロック図である。
【図2】図1実施例に示す看護師DBに記録される看護師データの一例を図解図である。
【図3】(A)は看護師カテゴリの分類を示す図解図であり、(B)は患者カテゴリの分類を示す図解図である。
【図4】(A)は看護業務カテゴリの分類を示す図解図であり、(B)はアクシデント・インシデントカテゴリの分類を示す図解図である。
【図5】看護師に装着される計測装置の構成の一例を示すブロック図である。
【図6】図3に示す計測装置を看護師に装着した様子を示す図解図である。
【図7】図1実施例に示すコンピュータの看護師データの作成処理を示すフロー図である。
【図8】図1実施例に示すコンピュータの行動特徴ベクトルの作成処理を示すフロー図である。
【図9】図1実施例に示すコンピュータのアクシデントの分析処理を示すフロー図である。
【図10】図1実施例に示すコンピュータのアクシデント要因の分析処理を示すフロー図である。
【符号の説明】
10 …行動分析装置
12 …コンピュータ
14 …触覚センサ
16 …カメラ
18 …看護師DB
20 …病棟イベントDB
22 …行動特徴ベクトルDB
24 …看護業務行動辞書DB
30 …計測装置
32 …ICレコーダ
38 …マイク
40 …非接触センサ
42 …歩数計
44 …傾斜角センサ[0001]
[Industrial applications]
The present invention relates to a behavior analysis device, and more particularly to a behavior analysis device that analyzes the behavior of a subject such as a doctor, a nurse, or a worker.
[0002]
[Prior art]
An example of this type of behavior analysis device is disclosed in Patent Document 1. In the behavior detection system of this patent document 1, a personal information terminal is attached to a human body, and the posture, movement, body movement, behavior / activity state, position, and physiological signal of the human body are detected. The detected and collected sensor signals are transmitted to the base station by wireless communication. The sensor information from the personal information terminal wirelessly communicated to the base station is transmitted to sensor signal processing means connected to another sensor, and the information is integrated. The integrated human body behavior information is stored in the data storage unit. Next, the behavior information of the human body obtained from the sensor signal processing means is compared and evaluated by the behavior evaluation means based on the structured data accumulated by the data accumulation means. Of the human body behavior states obtained from the behavior evaluation means, if the state is determined to be abnormal by the state determination means, or if it is predicted that the state may become abnormal in the future, the contents are connected by a personal information terminal or a network. Other terminals. For example, when another terminal is used by a doctor, appropriate advice can be given to a person determined to be abnormal or their assistant.
[0003]
[Patent Document 1]
JP-A-2002-149824 (page 4 and FIG. 1)
[0004]
[Problems to be solved by the invention]
However, such a detection system collects behavioral information of the elderly and patients, and prevents accidents such as medical mistakes caused by those who care or care for the elderly or patients. Could not be prevented.
[0005]
Therefore, a main object of the present invention is to provide a behavior analysis device that can prevent an accident from occurring.
[0006]
Another object of the present invention is to provide a behavior analysis device that can analyze the cause of an accident.
[0007]
[Means for Solving the Problems]
A first invention is a behavior analysis device that analyzes the behavior of a subject performing a specific task, and includes at least a momentum measuring unit that measures a subject's momentum, a behavior characteristic of the subject based on the momentum measured by the momentum measuring unit. Based on a comparison result of the feature creating means for creating the event, a database in which the behavioral features when the accident occurred are registered, a behavioral feature of the subject at the present time and the behavioral features registered in the database, The behavior analysis device includes: a determination unit that determines whether an accident may occur; and a warning unit that issues a warning when the determination unit determines that an accident may occur.
[0008]
A second invention is a behavior analysis device for analyzing the behavior of a subject performing a specific task, wherein the behavior characteristic of the subject is determined based on at least the amount of exercise measured by the at least one subject. A feature creating means for creating an event, a registering means for registering a behavioral feature when an accident occurs in a database, a comparing means for comparing a subject's behavioral feature with the behavioral feature registered in the database at the present time, and a comparison result of the comparing means. The behavior analysis device includes: a determination unit configured to determine whether or not an accident may occur based on the determination unit; and a warning unit that issues a warning when the determination unit determines that an accident may occur.
[0009]
A third aspect of the present invention is a behavior analysis device for analyzing the behavior of a subject performing a specific task, wherein the behavior analysis device measures at least the activity of the subject, and the behavior characteristics of the subject based on the amount of exercise measured by the activity measurement means. A behavior analysis device comprising: a feature creation unit that creates a database; a database in which behavior characteristics when an accident occurs are registered; and an analysis unit that analyzes the behavior characteristics registered in the database to extract an accident occurrence factor. .
[0010]
A fourth invention is a behavior analysis device for analyzing the behavior of a subject performing a specific task, wherein the behavior analysis device analyzes the activity of the subject based on at least the amount of exercise measured by the at least one subject. A behavior analysis apparatus, comprising: a feature creation unit that creates an event, a registration unit that registers a behavior feature when an accident occurs in a database, and an analysis unit that analyzes the behavior feature registered in the database and extracts a factor that caused the accident. It is.
[0011]
[Action]
In the behavior analysis device according to the first aspect, the exercise amount of the subject performing a specific task is measured by the exercise amount measurement unit. A behavior characteristic of the subject is created based on the measured amount of exercise, and a database in which the behavior characteristic when an accident (accident) occurs is registered in advance is provided. For example, the behavior characteristics of the subject at a certain time point (current time) are created and compared with the behavior characteristics registered in the database. As a result of the comparison, it is determined whether or not an accident is likely to occur, and if an accident is likely to occur, a warning is issued. That is, occurrence of an accident is predicted and avoided in advance.
[0012]
According to the second invention, unlike the first invention, the database does not include a database in which the behavior characteristics when an accident occurs are registered in advance, but the registration means registers such behavior characteristics in the database. The other configuration is the same.
[0013]
For example, in the first invention or the second invention, the approximation degree calculating means calculates the approximation degree between the current behavioral characteristic of the subject and the behavioral characteristic registered in the database. When the threshold value is larger than the threshold value, it is determined that an accident may occur. That is, a warning can be issued when an action feature similar to the action feature at the time of the occurrence of the accident is acquired.
[0014]
In addition, as the amount of exercise, the number of steps and the inclination angle of the body of the subject are measured by the number-of-steps measuring means and the angle measuring means, so that a feature vector including these as elements can be created.
[0015]
Therefore, if the first dictionary including at least the average value of all the feature vectors registered in the database is created, it is possible to calculate the similarity by calculating the Euclidean distance between the subject's feature vector and the average value at the present time. it can.
[0016]
In addition, if a second dictionary including an average value, a covariance matrix, an eigenvalue matrix of the covariance matrix, and an eigenvector of the eigenvalue matrix of all the feature vectors registered in the database is created, the characteristics of the subject at the present time can be obtained. It is also possible to calculate the degree of approximation by obtaining the likelihood between a vector and its average value, covariance matrix, eigenvalue matrix, and eigenvector.
[0017]
In the behavior analysis device of the third invention, the exercise amount of the subject who performs a specific task is measured by the exercise amount measuring means. A behavior characteristic of the subject is created based on the measured amount of exercise, and a database is provided in which the behavior characteristic when an accident (accident) occurs is registered. The analysis means analyzes a behavior characteristic when an accident occurs and extracts a factor of the accident.
[0018]
According to a fourth aspect, unlike the third aspect, the database does not include a database in which the behavior characteristics when an accident occurs are registered in advance, but the registration means registers such behavior characteristics in the database. The other configuration is the same.
[0019]
For example, in the third invention or the fourth invention, as the amount of exercise, the number of steps and the inclination angle of the body of the subject are measured by the number-of-steps measuring means and the angle measuring means. can do.
[0020]
Therefore, the first scatter matrix and the first variance matrix are obtained using the first average value of all the feature vectors registered in the database and the first occurrence probability of the accident, and the inverse matrix of the first scatter matrix and the first scatter matrix are obtained. An accident occurrence factor can be extracted based on a magnitude of a coefficient of a first eigenvector of a matrix obtained by a product with a variance matrix. That is, it is possible to know the accidents that are likely to occur and the causes thereof, and based on this, it is possible to improve the work such as reviewing the staffing and the work shift.
[0021]
When there are a plurality of subjects, if a feature vector is associated with a subject, a feature vector for a specific subject is extracted, and as described above, an accident generation factor for each subject is extracted. You can also. In other words, it is possible to know an accident that is likely to occur in a specific subject and the cause thereof.
[0022]
In addition, if a voice recording means for recording the voice of the subject and a camera for photographing the subject are provided, the work content of the subject can be specified from the recorded voice and the captured video. Therefore, the feature vector created based on the amount of exercise and the identified task content can be associated and registered in the database.
[0023]
For this reason, the second scattering matrix and the second variance matrix are obtained by using the second average value of the feature vector for the specific task and the second occurrence probability of an accident in the specific task content, and the second scattering matrix is calculated. Based on the magnitude of the coefficient of the second eigenvector for the matrix obtained by the product of the inverse matrix and the second variance matrix, it is possible to extract the cause of the accident in the specific business content. That is, it is possible to know an accident that is likely to occur in a specific job content and its cause.
[0024]
【The invention's effect】
According to the present invention, occurrence of an accident is predicted and avoided, so that occurrence of an accident can be prevented.
[0025]
According to another aspect of the present invention, the cause of the accident can be known, so that the business can be improved so as to eliminate the cause.
[0026]
The above and other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
[0027]
【Example】
Referring to FIG. 1, a behavior analysis apparatus 10 of this embodiment analyzes the behavior of nurses (nurses, nurses) performing work (in this embodiment, nursing work), and includes a personal computer or a work computer. It includes a computer 12 such as a station. A plurality of tactile sensors 14 and a plurality of cameras 16 are connected to the computer 12. Although not shown, in this embodiment, the plurality of tactile sensors 14 are provided in a take-out portion of a storage box storing medical instruments such as a thermometer, a sphygmomanometer, a syringe, a drip syringe, a blood collection test tube, and a urine test cup. Or a nurse call terminal to detect the use (removal) of such medical instruments. The plurality of cameras 16 are installed in a corridor, a sickroom (bed), a nurse's house, and the like in a ward accommodating an inpatient, and photograph an action of a nurse performing nursing work.
[0028]
Although not shown, a surveillance camera that can record digital data of video (and audio) directly on a hard disk (not shown) of the computer 12 can be used as the camera 16.
[0029]
Further, a plurality of databases (DB) are connected to the computer 12. Specifically, a nurse DB 18, a ward event DB 20, a behavior feature vector DB 22, and a nursing service behavior dictionary DB 24 are connected.
[0030]
The nurse DB 18 records data (nurse data) on the behavior of a nurse in one day's work as shown in FIG. 2A for each nurse. As shown in FIG. 2A, in the nurse data, a nurse name is described as a label, and a date is described next to the nurse name. Below the nurse name and date, items (contents) related to the nurse's nursing work are described. In other words, the start time of the nursing service, the target patient of the nursing service, the content of the nursing service, the number of steps in the nursing service, the number of inclines (tilting the upper body (upper body)) in the nursing service, and the accident (accident / incident) ) Is described respectively.
[0031]
In such nurse data, contents other than the accident / incident are acquired from data measured by the measuring device 30 (see FIG. 5) described later or ward event data recorded in the ward event DB 20.
[0032]
In the accident / incident column, the details of an accident such as a medical error described by the nurse in the daily work report, etc., and the details of an incident that did not cause a medical error, but did not occur, were separately input (description). ) Is done. That is, in this embodiment, the incident is a concept including not only an accident but also a chilled event. For example, a fallen event corresponds to a fall of a patient.
[0033]
For example, from the nurse data shown in FIG. 2 (A), the nurse (Natsuko OO) indicates that the patient (△△ Winter) has been on the date of October 25, 2002 (Friday) from 10:20 to 2:05. Man), the number of steps was 456 steps, the number of inclines was 35, and it was found that there was no medical mistake or the like at the time of temperature measurement.
[0034]
However, in this embodiment, as shown in FIG. 2 (B), for the convenience of creating the behavior feature vector and the data of the nursing service behavior dictionary described later, the contents of the nurse, patient, nursing service, and incident / incident are as follows. The category number is described. That is, tables such as those shown in FIGS. 3A and 3B and FIGS. 4A and 4B are recorded on a hard disk (not shown) of the computer 12, and nurses, patients, nursing services, Accidents and incidents are categorized.
[0035]
FIG. 3A is an illustrative view showing a table of nurse categories, and nurse names (** Haruko, OO Natsuko,...) Corresponding to nurse category numbers (n = 1, 2,..., N). , △△ Toko) are described. FIG. 3B is an illustrative view showing a table of patient categories, and the patient names (** Haruo, OO Natsuo,...) Corresponding to the patient category numbers (k = 1, 2,..., K). Δ △ Fuyuo) is described. FIG. 4A is an illustrative view showing a table of the nursing service category, and the contents of the nursing service (patient visits, observation of medical conditions, and the like) corresponding to the nursing service category numbers (z = 1, 2,..., Z). …, Discharge guidance) is described. FIG. 4B is an illustrative view showing a table of an incident / incident category, and the contents of the incident / incident (accident / accident) corresponding to the incident / incident category number (h = 1, 2,..., H). No incident, patient fall, ..., injection mistake).
[0036]
The ward event DB 20 includes detection data and image data obtained from each of the plurality of sensors, that is, the plurality of tactile sensors 14 and the plurality of cameras 16 (image sensors) (these are collectively referred to as “ward event data”). Record Identification information such as the name of a medical device to be detected is attached as a label to the detection data, and identification information such as the installation location of the camera 16 and the orientation of the camera is attached to the image data as a label. . That is, it is possible to specify the detection target or the imaging target (imaging area) from the label of the detection data or the image data. Further, the computer 12 acquires the time (time data) at which the ward event data was acquired from the built-in clock circuit 12a and adds the acquired time to the ward event data.
[0037]
For example, when the detection data is input, the computer 12 adds time data to the detection data and records it in the ward event DB 20. As for the image data, the difference between successive frames is detected by the computer 12, and time data is added to the image data when the image has moved, and is recorded in the ward event DB 20. However, since the load on the computer 12 increases in the analysis of the image data, a dedicated computer or the like may be separately provided.
[0038]
Further, the behavior feature vector DB 22 records data of a behavior feature vector F created based on the above-mentioned nurse data. In this embodiment, the behavior feature vector F is created using the number of steps and the inclination angle (measured by the measuring device 30) included in the nurse data, and is specifically expressed by Expression 1. However, the nurse data shown in FIGS. 2 (A) and 2 (B) does not include a tilt angle, but this tilt angle is separately recorded in the nurse DB 18 corresponding to each number of times of tilt. Is done.
[0039]
(Equation 1)
F = (p1, P2, ..., pi, ... pI, Θ1, Θ2,…, Θi, ... θI,
s1, S2, ..., si, ... sI)
Where pi, ΘiAnd siIs the time t = t1From t = t1In the case where the section up to + T is equally divided into I pieces set in advance, the step frequency (p) obtained by averaging the number of steps in the divided section per unit timei), The average value of the inclination angles obtained by averaging the inclination angles in the divided section per unit time (θi) And the standard deviation (si).
[0040]
Note that, in this embodiment, as the degree of fatigue of the nurse increases, the average value of the number of steps will vary, and the variation in the change in the body inclination angle per unit time will increase. The frequency, the average value of the inclination angle, and the standard deviation of the inclination angle are used as the elements of the behavior feature vector.
[0041]
Further, the nursing service behavior dictionary DB 24 records a plurality of types (five types in this embodiment) of dictionary data created based on the behavior feature vectors of all nurses. Although a specific creation method will be described later, the nursing service behavior dictionary DB 24 includes dictionary data (hereinafter, referred to as “specific incident dictionary”) for a specific incident / incident, specific incident dictionary data for a specific patient, and specific incident dictionary data. Specific accident dictionary data for a nurse, specific accident dictionary data for a specific job, and specific incident dictionary data for each occurrence time are recorded.
[0042]
FIG. 5 is a block diagram showing a specific configuration of the measuring device 30. Referring to FIG. 5, the measuring device 30 includes an IC recorder 32. The modulation circuit 34, the modulation circuit 36, the microphone 38, and the non-contact sensor 40 are connected to the IC recorder 32. Further, a pedometer 42 is connected to the modulation circuit 34, and an inclination angle sensor 42 is connected to the modulation circuit 36. Further, the IC recorder 32 has a built-in clock circuit 32a.
[0043]
The measuring device 30 having such a configuration is mounted on each subject (nurse). For example, as shown in FIG. 6, the IC recorder 32, the modulation circuit 34, and the modulation circuit 36 are housed in one box (housing) 50, and the box 50 is attached to the waist (belt portion) of a nurse. . The microphone 38 and the tilt angle sensor 44 are mounted on the nurse's chest (at or near the collar), and the pedometer 42 is mounted on the nurse's waist in the same manner as the box 50 described above. The non-contact sensor 40 is a magnetic sensor using a magnet switch, a Hall element, or an MR element. For example, the non-contact sensor 40 is mounted on a nurse's wrist, and a magnet 52 is embedded in a sleeve portion of a nurse's jacket.
[0044]
In FIG. 6, the magnet 52 is shown outside the sleeve for easy understanding. Although not shown in FIG. 6, the microphone 38 and the non-contact sensor 40 are connected to the IC recorder 32 in the housing 50 using a connection line, and the pedometer 42 and the inclination angle sensor 44 are connected using the connection line. It is connected to the modulation circuit 34 and the modulation circuit 36 in the body, respectively.
[0045]
For example, when recording is started by the IC recorder 32 by the operation of the nurse, the inputs of the microphone 38, the pedometer 42, and the inclination sensor 44 are enabled / disabled in accordance with the input of the non-contact sensor 40. . Specifically, when there is an input from the non-contact sensor 40, that is, when the non-contact sensor 40 detects the magnet 52 and is on when the nurse reaches out, the nurse A measurement mode is set to measure the state (tilt angle of upper body and number of steps). That is, the inputs of the pedometer 42 and the inclination angle sensor 44 are enabled, and the inputs of the microphone 38 are disabled.
[0046]
On the other hand, if the non-contact sensor 40 is in the off state in which the magnet 52 is not detected while the nurse bends his / her hand, the voice recording mode for recording the voice emitted by the nurse is set. That is, the input of the microphone 38 is enabled, and the input of the pedometer 42 and the inclination angle sensor 44, that is, the input of the modulation circuit 34 and the input of the modulation circuit 36 are disabled.
[0047]
However, when the voice recording mode is set, the mode is returned to the measurement mode when a predetermined time (10 seconds in this embodiment) elapses or when the non-contact sensor 40 is turned on again.
[0048]
Therefore, in the IC recorder 32, the voice signal of the nurse input from the microphone 38 and the voice signal obtained by modulating the input from the pedometer 42 and the tilt angle sensor 44 are converted into digital data, and are converted into digital data. Recorded in a semiconductor memory (not shown). However, digital data (voice data) of a voice signal corresponding to each of the voice, the number of steps, and the inclination angle is recorded. Thereafter, the recording operation of the IC recorder 32 is terminated by the operation of the nurse.
[0049]
Further, the IC recorder 32 acquires time information (time data) at the time when the recording is started and time data at the time when the recording is ended from the clock circuit 32a, respectively, and obtains the voice and the number of steps acquired as described above. And audio data about the inclination angle.
[0050]
Since the specific configuration of the IC recorder 32 and the recording of the audio signal are already well known, a detailed description thereof will be omitted in this embodiment.
[0051]
In this embodiment, the audio signal is recorded using the IC recorder 32. However, a recording device that records the audio signal on a disk recording medium such as an MD or MO may be used.
[0052]
For example, when the nurse (n) visits the patient k, the content of the nurse (nurse category number n) saying "I am going to visit the patient (patient)." Voice data is recorded for each of the number of steps while the patient k reciprocates in the hospital room and the angle (tilt angle) when the upper body is tilted while reciprocating in the hospital room. Further, time data of the recording start time and the recording end time are added to the audio data.
[0053]
Such voice data, voice data on the number of steps and the angle of inclination, and time data added thereto (hereinafter, these may be referred to as “measurement data”) are used for all the daily tasks of the nurse (n). Is obtained about. As shown in FIG. 1, the computer 12 and the measuring device 30 (strictly speaking, the IC recorder 32) are connected, for example, by a wireless LAN, and therefore, the measurement data (for the daily work) acquired as described above for one day. The business measurement data) can be transmitted (transferred) from the measuring device 30 (IC recorder 32) to the computer 12.
[0054]
The computer 12 creates nurse data excluding the accident / incident based on the transferred task measurement data. In other words, a nurse is specified, and then items of nursing data excluding an accident / incident from each measurement data are specified (determined) and recorded.
[0055]
For example, if a specific nurse is made to use a specific (same) IC recorder 32, the nurse can be specified from the MAC address assigned to the semiconductor memory of the IC recorder 32. That is, a table describing the nurse name (or nurse category number n) corresponding to the MAC address is recorded in advance in the hard disk of the computer 12 in the same manner as the above-described tables, and the transfer of the task measurement data is performed. If a MAC address is obtained when the information is received, a nurse can be easily specified.
[0056]
The voice data of the nurse's voice included in each measurement data is converted into an analog voice signal, and then subjected to voice recognition processing. Business is specified. That is, the computer 12 has a voice recognition function, and has a dictionary for voice recognition, that is, a memory (for example, a hard disk or a ROM) that stores voice signals corresponding to a plurality of utterances (voices).
[0057]
Note that, in this embodiment, the plurality of utterances are utterances related to nursing work, and voice signals of the utterances related to the plurality of nursing work are recorded (recorded) by a nurse inputting speech in advance. However, in order to efficiently recognize individual utterances, a dictionary for speech recognition is provided for each nurse.
[0058]
Therefore, the computer 12 compares the voice signal obtained by converting the voice data of the voice of the nurse into analog and the voice signal recorded in the memory by the DP matching method or the HMM (Hidden Markov Model) method, and the nurse 12 Recognize (specify) the uttered content. Specifically, when recognizing the utterance “I'm going to urine the patient k,” the patient name “patient k” and the content of nursing work “urine test” for the patient can be specified.
[0059]
However, since it is necessary to accurately specify the patient name and the contents of the nursing service, the utterance having the highest degree of approximation (first) and the next highest degree of approximation (first The second utterance is extracted, and the validity (reliability) of recognition of the first utterance is determined based on the first utterance and the second utterance.
[0060]
That is, the patient name (first patient name) specified from the first utterance and the contents of the nursing service (first nursing service) are extracted, and the patient name specified from the second utterance (first patient name) is extracted. Each of the second patient name) and the content of the nursing service (second nursing service) is extracted. Next, the degree of approximation (distance value) between the first patient name and the second patient name and the distance value between the first nursing service and the second nursing service are calculated. Here, the distance value refers to the degree to which the pronunciation of a word (word) is approximated. For example, "Ito" and "Kito" have a high degree of approximation (small distance value), but "Ito" and "Tanaka" have a low degree of approximation (distance Value is large).
[0061]
Therefore, when the distance value between patient names and the distance value between nursing services are smaller than a preset threshold value (first threshold value), the first utterance and the second utterance are similar. Therefore, it can be said that the reliability of the recognition result is low. On the other hand, when the distance value between the patient names and the distance value between the nursing services are larger than the first threshold, the utterance of the first place and the utterance of the second place are not approximate, and the reliability of the recognition result is low. It can be said that the degree is high.
[0062]
In this embodiment, when both the distance value between the patient names and the distance value between the nursing services are small, it is determined that the first utterance and the second utterance are similar, and the recognition result Although the reliability is considered to be low, the reliability of the recognition result may be considered to be low when one of the distance values is small.
[0063]
When the reliability of the recognition result is high, the patient name and the contents of the nursing work included in the first-ranked utterance are extracted (adopted) and used for creating nurse data. On the other hand, when the reliability of the recognition result is low, the patient name and the contents of the nursing service included in the first-ranked utterance are excluded (rejected), and based on the ward event data recorded in the ward event DB 20, Identify your name and the content of your nursing practice.
[0064]
However, when the patient name and the contents of the nursing work are individually specified by voice recognition, only the distance value smaller than the first threshold value from the voice recognition result is determined based on the ward event data. What is necessary is just to specify.
[0065]
That is, the ward event data at the time indicated by the time data transferred from the IC recorder 32, that is, the detection data and image data obtained from the tactile sensor 14 and the camera 16 are read from the ward event DB 20, and the nurse and the patient are specified from the image data. At the same time, the content of nursing work is specified based on the detection data and the image data.
[0066]
The patient (name) can be easily specified from the installation location of the camera 16 and the orientation of the camera 16 described on a label attached to the image data. The identification of the nurse can be performed by storing data obtained by photographing the face of the nurse from the front and side in advance and comparing the data with the image data.
[0067]
However, in such identification by image processing, the data amount is enormous and it takes time. For example, a mark different for each nurse is attached to clothes worn by the nurse, and the mark is marked. What is necessary is just to identify from the image data and to identify a nurse. In such a case, a high recognition rate can be obtained by increasing the contrast between the nurse's clothes and the mark.
[0068]
Further, the contents of the nursing operation performed by the nurse are specified from the detection data and the image data. For example, by detecting the use of a thermometer based on the detection data and detecting the operation of the nurse handing the thermometer to the patient or receiving the thermometer from the patient based on the image data, the content of the nursing work "temperature measurement" Is specified.
[0069]
In order to identify the contents of the nurse's work from the image data, images of the nurses performing various nursing work are taken in advance, and the image of the taken image and the image data included in the ward event data are taken. By performing the comparison, the content of the nursing service can be estimated, and the content of the nursing service can be determined (specified) from the instrument used at that time based on the detection data.
[0070]
In this way, the patient name and the contents of the nursing service can be specified from the ward event data. As a procedure, the computer 12 firstly stores the image data of the nurse corresponding to the nurse data to be created. (Ward image data), then identify the patient (patient name) from the description of the label attached to the image data, and identify the contents of the nurse's nursing work from the detected data and the image data. Identify.
[0071]
The sound data about the number of steps and the inclination angle included in each measurement data is demodulated by the computer 12. The number of steps is used as it is to create nurse data, but the number of inclinations is determined from the number of inclination angles detected by the inclination sensor 44.
[0072]
Further, the data to be input in the items of time and time included in the nurse data is determined from the time data added to the voice data. That is, the time column describes the recording start time included in the time data, and the time column describes a value (time) obtained by subtracting the recording start time from the recording end time.
[0073]
After that, information on the incident / incident is obtained from the daily work report, and added to the nurse data using an input device (keyboard or computer mouse) not shown by the administrator of the nurse DB 18 or the behavior analysis device 10 (computer 12). I do.
[0074]
Specifically, the computer 10 executes a nurse data creation process according to the flowchart shown in FIG. As shown in FIG. 7, when the process of creating nurse data is started, it is determined whether or not business measurement data has been received from the IC recorder 32 in step S1. If “NO” in the step S1, that is, if the task measurement data is not received, the process returns to the same step S1 as it is.
[0075]
On the other hand, if “YES” in the step S1, that is, if the task measurement data is received, in a step S3, as described above, the MAC address of the semiconductor memory provided in the IC recorder 32 is obtained, and based on the acquired MAC address, The nurse (nurse category number n) is specified.
[0076]
In the following step S5, the first (in this embodiment, the earliest time) measurement data is extracted. Subsequently, in step S7, a voice recognition process is performed. That is, the voice data on the voice of the nurse included in the extracted measurement data is converted into an analog signal to recognize the contents of the utterance of the nurse.
[0077]
When the content of the utterance of the nurse is recognized, in step S9, distance values for each of the patient names and nursing tasks included in the first and second utterances are detected from the recognition result, Determine if there is a reject.
[0078]
If “YES” in the step S9, that is, if there is a reject, in a step S11, the ward event data in the same time zone as the measured data is read from the ward event DB 20 by referring to the time data included in the measured data. . Then, in step S13, based on the read ward event data (detection data and image data), the patient name and the contents of the nursing service are specified as described above, and the process proceeds to step S17. On the other hand, if “NO” in the step S9, that is, if there is no rejection, in a step S15, the patient name and the contents of the nursing work are specified from the result of the voice recognition, and the process proceeds to a step S17.
[0079]
In step S17, each item of the nurse data is input. That is, a nurse name (nurse category number), date, time, patient name (patient category), contents of nursing work (nursing work category number), number of steps, number of inclines and time are input.
[0080]
However, the nurse category number and date need only be input for the first time, and thereafter, items other than the nurse category number and date are input (added) as needed.
[0081]
Note that the number of steps and the number of inclines are obtained by demodulating the audio data included in the measurement data, and may be demodulated in the process of step S17. Alternatively, demodulation may be performed after the measurement data is obtained in step S5 and before the processing in step S17 is performed.
[0082]
In a succeeding step S19, it is determined whether or not there is next measurement data (in this embodiment, the next earlier time). If "YES" in the step S19, that is, if there is the next measurement data, the next measurement data is extracted from the business measurement data in a step S21, and the process returns to the step S7. That is, by repeating the processing from step S7 to step S21, nursing data as shown in FIG. 2B is created.
[0083]
On the other hand, if “NO” in the step S19, that is, if there is no next measurement data, it is determined that the creation of the nurse data for the nurse has been completed, and in step S23, the created nurse data is After recording (registering) in the DB 18, the process ends.
[0084]
After that, the items of the incident / incident are input to the nurse data by the operation of the administrator or the like of the nurse DB 18, and the nurse data is completed.
[0085]
In this embodiment, when the patient name and the contents of the nursing service cannot be specified by voice recognition, the patient name and the contents of the nursing service are specified based on the ward event data. If it is not possible to specify the patient name and the contents of the nursing work based on the information, the manager of the nurse DB 18 refers to the work daily report and obtains the patient name (patient category number) in the same manner as the accident incident item. And the contents of the nursing service (nursing service category number) are manually input.
[0086]
In this way, nurse data for a certain nurse is created, and nurse data for another nurse is created in the same manner. Thereafter, the computer 12 creates an action feature vector as described above for each of the nurse data.
[0087]
Specifically, the computer 12 executes a process of creating an action feature vector according to the flowchart shown in FIG. As shown in FIG. 8, when the action feature vector creation process is started, the nurse data of the nurse category number (1) is read from the nurse DB 18 in a step S31.
[0088]
In a succeeding step S33, the first job data included in the read nurse data is extracted. Here, the work data refers to the data of each item (for one row) for one work of the nurse data shown in FIG. 2 (B). Further, in this embodiment, in order to extract the business data in the order of earlier time, in step S33, the business data in the column where 10:20 is described in the time column is extracted. At this time, data of the inclination angle recorded corresponding to the data of the number of times of inclination included in the business data is also read.
[0089]
Next, in step S35, the data of the number of steps and the data of the number of inclines included in the extracted business data are divided at predetermined intervals (time intervals), and the data of the inclination angle read together with the business data are divided at predetermined intervals. I do. In step S37, an action feature vector Fx (where x is a natural number and the first time is 1) is created from the number of steps, the number of times of inclination, and the angle of inclination, as shown in Expression 1. In addition, it is also conceivable to add, as the components of the action feature vector, the variance of the inclination angle within the interval, the difference in the number of steps between the front and rear intervals, and the difference in the variance of the inclination angle.
[0090]
In a succeeding step S39, it is determined whether or not there is next business data. That is, it is determined whether there is temporally next business data in the business data included in the nurse data. If “YES” in the step S39, that is, if there is the next task data, in a step S41, the next task data is extracted from the nurse data, and the process returns to the step S35. That is, by repeating the processing from step S35 to step S41, it is possible to create the action feature vectors F1, F2, ..., Fx, ..., FX for all the work data of the nurse category number (n).
[0091]
On the other hand, if “NO” in the step S39, that is, if there is no next business data, the generated action feature vectors F1, F2,..., Fx,.
[0092]
Subsequently, in a step S45, it is determined whether or not there is the next nurse data. If “NO” in the step S45, that is, if there is no next nurse data, it is determined that the action feature vectors have been created for all the nurse data, and the process is ended. On the other hand, if “YES” in the step S45, that is, if there is the next nurse data, the next nurse data is read from the nurse DB 18, and the process returns to the step S33.
[0093]
In this manner, the behavior feature vector Fx is created for each of the nurse data. The data of the behavior feature vector Fx further includes a nurse category number n, a nursing service category number z, a patient category number k, and an accident. -Information on the incident category number h is attached as a label. Since such information is obtained from the nurse data, it can be added when the action feature vector Fx is created in step S37 described above. Alternatively, a manager or the like of the behavior feature vector DB 22 (the analyzer 10) may add (add) a label after the creation processing of the behavior feature vector Fx is completed. Therefore, strictly speaking, the action feature vector F (F1, F2, F3,..., Fx) is recorded in the action feature vector DB 22 in a state where a label is added as Fx | n, k, z, h. .
[0094]
The dictionary data described above is created by, for example, the computer 12 using all the action feature vectors Fx | n, k, z, h recorded in the action feature vector DB 22. A specific creation method will be described below.
[0095]
<Specific accident dictionary data>
A feature vector Fx to which a label of a specific accident / incident (hereinafter simply referred to as “accident”) category number h (h ≠ 1) is added is obtained from the action feature vector DB 22, and the obtained action feature vector Fx is used. According to Equations 2, 3, 4, and 5, the average vector Mh, The covariance matrix Σh, The eigenvector ΦhAnd ΣhEigenvalue matrix ΛhAre required respectively. These are obtained for each of the accident category numbers h (= 2, 3,..., H).
[0096]
(Equation 2)
Mh= [(X11 + x21 + ... + xn1) / N, (x12 + x22 + ... + xn2) / N, ..., (x1m + x2m + ... + xnm) / N]
However, the behavior feature vector is m-dimensional (three-dimensional in this embodiment), and X1 = [x11, x12, x1] for n (I in Example 1) samples X1 to Xn belonging to the accident category number h. ..., x1m]T, ..., Xn = [xn1, xn2, ..., xnm]TAnd The subscript “T” means transposition of a matrix. Hereinafter, the same applies to this embodiment.
[0097]
(Equation 3)
Σh= [X1-Mh] X [X1-Mh]T+ [X2-Mh] X [X2-Mh]T+ ... + [Xn-Mh] X [Xn-Mh]T
[0098]
(Equation 4)
det | Σh−λhE | = 0
Here, E is a unit matrix.
[0099]
The solution obtained by equation (4), that is, the eigenvector Φh= (Λ1, Λ2,…, Λm) Are arranged as diagonal components, as shown in Equation 5, the eigenvalue matrix ΛhIs obtained.
[0100]
(Equation 5)
Figure 2004157614
[0101]
In addition, for all accident category numbers h, the scattering matrix W in the accident categoryhMatrix B between と and the accident categoryhIs obtained according to Equations 6 and 7, respectively.
[0102]
(Equation 6)
Figure 2004157614
[0103]
(Equation 7)
Figure 2004157614
[0104]
However, the probability of occurrence of an accident is obtained by dividing the number of action feature vectors having the label of the corresponding (specific) accident h by the number of all action feature vectors having the label of the accident h (h ≠ 1). Can be calculated. Hereinafter, the same applies to this embodiment.
[0105]
That is, the dictionary data of the specific accident includes the average vector M for each accident h.h, The covariance matrix Σh, The eigenvector Φh, ΣhEigenvalue matrix ΛhAnd the scattering matrix W in the accident category and the variance matrix B between the accident categories for all accident category numbers hhIs recorded.
[0106]
<Specific accident dictionary data for specific patients>
The behavior feature vector Fx having the label of the specific patient k is acquired from the behavior feature vector DB22, and using the acquired behavior feature vector Fx, for each accident category (h), the average vector is calculated according to Equations 2 to 5 described above. Mkh, The covariance matrix Σkh, The eigenvector ΦkhAnd ΣkhEigenvalue matrix ΛkhIs required.
[0107]
Also, for all patients k, the scattering matrix W in the patient categorykMatrix B between the patient category andkAre obtained according to Equations 8 and 9, respectively.
[0108]
(Equation 8)
Figure 2004157614
[0109]
(Equation 9)
Figure 2004157614
[0110]
That is, the specific accident dictionary data for the specific patient includes the average vector M for each patient.kh, The covariance matrix Σkh, The eigenvector Φkh, ΣkhEigenvalue matrix Λkh, The scattering matrix W in the patient categorykAnd variance matrix B between patient categorieskIs recorded.
[0111]
<Specific accident dictionary data for specific nurses>
An action feature vector Fx having a label of a specific nurse (n) is obtained from the action feature vector DB22, and by using the obtained action feature vector Fx, for each accident category (h), , The average vector Mnh, The covariance matrix Σnh, The eigenvector ΦnhAnd ΣnhEigenvalue matrix ΛnhIs required.
[0112]
Also, for all nurses (n), the scattering matrix W in the nurse categorynMatrix B between the nurse category andnAre obtained according to Equations 10 and 11, respectively.
[0113]
(Equation 10)
Figure 2004157614
[0114]
[Equation 11]
Figure 2004157614
[0115]
That is, the specific accident dictionary data for the specific nurse includes the average vector M for each nurse.nh, The covariance matrix Σnh, The eigenvector Φnh, ΣnhEigenvalue matrix Λnh, The scattering matrix W in the nurse categorynMatrix B between nurse and nurse categoriesnIs recorded.
[0116]
<Specific accident dictionary data for specific tasks>
The behavior feature vector Fx having the label of the specific nursing task z is acquired from the behavior feature vector DB22, and by using the acquired behavior feature vector, for each accident category (h), the average vector Mzh, The covariance matrix Σzh, The eigenvector ΦzhAnd ΣzhEigenvalue matrix ΛzhAre required respectively.
[0117]
For all nursing services z, the scattering matrix W in the nursing service categoryzMatrix B between the medical and nursing business categorieszAre obtained according to Equations 12 and 13, respectively.
[0118]
(Equation 12)
Figure 2004157614
[0119]
(Equation 13)
Figure 2004157614
[0120]
That is, the specific accident dictionary data on the nursing service includes the average vector M for each nursing service.zh, The covariance matrix Σzh, The eigenvector Φzh, ΣzhEigenvalue matrix Λzh, The scattering matrix W in the nursing business categoryzMatrix B between healthcare and nursing business categorieszIs recorded.
[0121]
<Specific accident dictionary data by occurrence time>
An action feature vector F having a label of an accident h (h ≠ 1) is obtained from the action feature vector DB 22, and the obtained action feature vector F is divided into 24 sections (1 day) into J sections (time sections). Mean vector M included in the j-th section (j = 1, 2,..., J,.hj, The covariance matrix Σhj, The eigenvector ΦhjAnd ΣhjEigenvalue matrix ΛhjAre obtained in accordance with the above-described equations 2 to 5, respectively.
[0122]
For the j-th section, the scattering matrix W in the time section categoryjMatrix B between the time interval category andjAre obtained according to Equations 14 and 15, respectively.
[0123]
[Equation 14]
Figure 2004157614
[0124]
[Equation 15]
Figure 2004157614
[0125]
That is, the specific accident dictionary data for each occurrence time includes the average vector M for each occurrence time of the accident.hj, The covariance matrix Σhj, The eigenvector Φhj, ΣhjEigenvalue matrix Λhj, The scattering matrix W in the time interval categoryjAnd variance matrix B between time interval categoriesjIs recorded.
[0126]
In this way, various dictionary data can be created based on the behavior feature vector created for each nurse.
[0127]
For example, after creating such dictionary data, an action feature vector of the nurse (n) at a certain time point is extracted using these dictionary data to determine whether an accident may occur. Judge and, if there is a possibility of an accident, give a warning directly to the nurse (n) and / or a manager such as a nurse, and change or break the nurse (n) Can be encouraged. That is, it is possible to prevent the occurrence of an accident beforehand. Note that the warning may be issued at the nurse's office.
[0128]
In brief, the IC recorder 32 does not record the acquired audio data and time data, that is, the measurement data in the semiconductor memory, but at a predetermined timing (in this embodiment, every time the measurement data is obtained). It is transmitted to the computer 12 as it is. Although illustration is omitted, for example, if the IC recorder 32 and the computer 12 are connected by a wireless LAN, measurement data can be easily transmitted.
[0129]
The computer 12 creates a feature vector F based on the received measurement data, refers to the dictionary data (in this embodiment, the specific accident dictionary data), and determines whether an accident may occur in the near future. to decide. When it is determined that an accident may occur, a warning is issued as described above.
[0130]
As a method of issuing a warning, when a nurse is directly warned (the same is true when a nurse is directly warned), in addition to the measuring device 30, the nurse is equipped with an earphone, buzzer or vibrator connected to the IC recorder 32. In advance, according to an instruction from the computer 12 connected by the wireless LAN, the warning can be notified by voice or sound (warning sound), or the warning can be notified by vibration.
[0131]
When a warning is issued indirectly to a nurse or a nurse or when a warning is issued to a nurse's house, an output device such as a display or a speaker connected to the computer 12 by wire or wirelessly is provided in a hospital ward (corridor). , A hospital room, a packing room, etc.), and a warning message (character or voice) may be issued. However, when an indirect warning is issued to the nurse, the electronic mail may be transmitted to a terminal such as a personal computer owned by the nurse.
[0132]
Specifically, the computer 12 executes an accident analysis process according to a flowchart as shown in FIG. As shown in FIG. 9, in a step S51, it is determined whether or not the measurement data is received. If “NO” in the step S51, that is, if the measurement data is not received, the process returns to the same step S51. On the other hand, if “YES” in the step S51, that is, if the measurement data is received, the nurse (n) is specified from the MAC address in a step S53.
[0133]
Note that, as described above, after the dictionary data is created, the measurement data is transmitted from the IC recorder 32 to the computer 12 as it is. Therefore, if the MAC address is transmitted together with the measurement data, it is easy. Nurse (n) can be specified.
[0134]
In the following step S55, voice data and time data on the number of steps and the inclination angle are extracted, and in step S57, the action feature vector F as shown in Expression 1 is created from the number of steps, the number of inclinations and the inclination angle.
[0135]
In the next step S59, referring to the nursing service behavior dictionary DB 24, an approximate accident (h) is specified. In this embodiment, the behavior feature vector F created in step S57 and the average vector M for each accident (h) included in the specific accident dictionary data described above.hEuclidean distance dh(F) is calculated according to Equation 16, and the distance d is calculated.hThe accident (h) in which (F) becomes the minimum (minimum distance) is determined (specified).
[0136]
(Equation 16)
dh(F) = || FMh||2
Here, || · || represents a norm.
[0137]
Alternatively, the action feature vector F created in step S57 and the average vector M for each accident (h) included in the specific accident dictionary datah, The covariance matrix Σh, The eigenvector Φh, ΣhEigenvalue matrix ΛhAnd the likelihood gh(F) is calculated according to Equation 17, and the likelihood ghThe accident h that maximizes (F) may be specified.
[0138]
[Equation 17]
Figure 2004157614
[0139]
As described above, in step S59, the Euclidean distance and the likelihood are calculated in order to specify the accident (h), but these are selectively adopted by a designer or a programmer. For example, when the time for specifying the accident (h) is to be shortened, the calculation of the Euclidean distance is employed, and when the accuracy for specifying the accident (h) is to be increased, the calculation of the likelihood is employed. .
[0140]
Then, in a step S61, it is determined whether or not an accident may occur. That is, it is determined whether or not the distance (minimum distance) from the accident h specified in step S59 is equal to or smaller than a preset threshold (second threshold), and whether or not an accident may occur is determined. Alternatively, it is determined whether or not the likelihood (maximum likelihood) with the specified accident h exceeds a preset threshold (third threshold) to determine whether or not an accident may occur.
[0141]
The thresholds 2 and 3 are values determined (set) by a designer or a programmer. For example, a threshold value 2 is determined by calculating a distance value between an activity feature vector created from business data when an accident occurs and an activity feature vector created from business data immediately before or two business data before the business data. can do.
[0142]
If “NO” in the step S61, that is, if it is determined that there is no possibility that an accident occurs, the process is ended as it is. On the other hand, if “YES” in the step S61, that is, if it is determined that there is a possibility that an accident may occur, a warning is issued to a nurse or a nurse or both in a step S63, and the process ends.
[0143]
In this accident analysis process, only the case where specific accident dictionary data is used has been described. However, the same process can be performed when other dictionary data is used.
[0144]
In addition, the cause of the accident can be analyzed using each dictionary data. Specifically, the computer 12 executes an accident factor analysis process according to a flow chart as shown in FIG.
[0145]
However, since the analysis process of the accident factor is the same regardless of which dictionary data is used, in this embodiment, only the process using the specific accident dictionary data will be described. A description of the processing using data will be omitted.
[0146]
As shown in FIG. 10, when the accident factor analysis process is started, in step S71, the scattering matrix W in the accident category included in the specific accident dictionary data is obtained.hAnd accident category variance matrix BhAnd the matrix W-1The eigenvalue matrix の and the eigenvector の of B (for convenience, the subscript “h” is omitted) are calculated. However, the superscript “−1” means an inverse matrix.
[0147]
The method of calculating the eigenvalue matrix Γ and the eigenvector Ψ is described in Keisuke Fukunaga: “Introduction to Statistical Pattern Recognition Second Edition”, Academic Press, pp. 146-64. 446-450, 1990, the description of which is omitted in this embodiment.
[0148]
In a succeeding step S73, the eigenvector φ1 of the eigenvector matrix Φ corresponding to the largest eigenvalue γ1 in the eigenvalue matrix Γ is selected as a main component. Here, since the eigenvector φ1 included in the eigenvector matrix Φ is normalized (referred to as an orthonormal vector) so that the magnitude (square of φ1) becomes 1, each coefficient (positive or negative or 0 value) of φ1 is used. If there is an eigenvector φ1 (i) of an element i having a large absolute value, it can be said that the eigenvector φ1 (i) is a factor that causes or does not cause an accident. In other words, the direction of the eigenvector φ1 may be inverted depending on the method of deriving the eigenvector, so that the sign of the element φ1 (i) does not matter and its magnitude is important.
[0149]
Subsequently, in step S75, a factor load L is calculated. That is, when the eigenvector φ1 = [φ11, φ12,..., Φ1n], the factor load L is calculated according to Expression 18.
[0150]
(Equation 18)
Figure 2004157614
[0151]
Then, in step S77, the axis Fi of the feature vector space in which the absolute value of the factor load L is large is extracted and output to, for example, a display (not shown) connected to the computer 12.
[0152]
That is, from the factor load L, it is possible to know which of the variables of the original observation vector (eigenvector φ1) most contributes to the factor of the principal component. Thereby, it is possible to know the variable of the observation vector to which the factor of the accident contributes. Therefore, a business (environment) improvement proposal can be considered so as to reduce or increase the variables of the observation vector, that is, to reduce a feature vector component having a large absolute value of the factor L1i of the factor load.
[0153]
When such an accident factor analysis process is performed using each dictionary data, the following accident factors can be known. When the specific accident dictionary data is used, it is possible to know the accidents and the factors that are likely to occur in the hospital regardless of who the nurse is. In addition, when specific accident dictionary data for a specific patient is used, it is possible to know the accidents that are likely to occur for each patient and the factors thereof. Furthermore, when the specific accident dictionary data for the specific nurse is used, it is possible to know the accident that is likely to occur for each nurse and the cause thereof. Furthermore, when specific accident dictionary data for a specific job is used, it is possible to know the accidents that are likely to occur for each nursing job and the factors thereof. In addition, when the specific accident dictionary data for each occurrence time is used, it is possible to know the time when the accident is likely to occur in the hospital, the accident and the cause thereof.
[0154]
For example, when it is analyzed that the factor of the accident is the number of steps, working hours, and the like, it is possible to improve the work such as reviewing the arrangement of the hospital rooms and the shift of nurses. That is, it is possible to improve nursing work, review staffing, and improve medical facilities.
[0155]
According to this embodiment, the behavioral characteristics of each nurse are acquired in advance, and the occurrence of accidents is predicted and avoided by comparison with the behavioral characteristics at a certain point in time, so that medical accidents can be prevented beforehand. Can be.
[0156]
In addition, since the cause of the occurrence of an accident such as a medical accident is analyzed from the behavioral characteristics of the nurse, it is possible to improve business operations to avoid the cause.
[0157]
In this embodiment, in order to objectively know the degree of fatigue of the nurse, the number of steps and the inclination angle of the nurse are detected, and the behavior feature vector is created based on the detected steps. The number, the blood sugar level, and the like may be detected, and these may be added to the element of the behavior feature vector.
[0158]
Further, in this embodiment, only the case where the behavior analysis device is applied to a nurse job has been described, but such a behavior analysis device can be applied to other jobs. For example, it is possible to analyze the behavior of doctors performing medical activities, maintenance guards at nuclear power plants, factory workers, and helpers (caregivers) in the home care industry. To give an example, when analyzing the behavior of a factory worker, a tactile sensor or camera can be placed in the factory, a measurement device can be attached to the worker, and behavior characteristics can be acquired. By acquiring the behavior characteristics of the workers, it is possible to prompt a change or a break, thereby avoiding the occurrence of an accident. Also, dictionary data can be created and analyzed from the acquired behavioral features to improve operations, review staffing, and improve factory equipment.
[Brief description of the drawings]
FIG. 1 is a block diagram showing an example of a configuration of an analyzer according to the present invention.
FIG. 2 is an illustrative view showing one example of nurse data recorded in a nurse DB shown in FIG. 1 embodiment;
FIG. 3A is an illustrative view showing classification of a nurse category, and FIG. 3B is an illustrative view showing classification of a patient category;
FIG. 4A is an illustrative view showing classification of a nursing service category, and FIG. 4B is an illustrative view showing classification of an accident / incident category;
FIG. 5 is a block diagram showing an example of a configuration of a measuring device mounted on a nurse.
FIG. 6 is an illustrative view showing a state where the measuring device shown in FIG. 3 is mounted on a nurse.
FIG. 7 is a flowchart showing a process of creating nurse data by the computer shown in FIG. 1 embodiment.
FIG. 8 is a flowchart showing a process of creating a behavior feature vector by the computer shown in FIG. 1 embodiment.
FIG. 9 is a flowchart showing an accident analysis process of the computer shown in FIG. 1 embodiment.
FIG. 10 is a flowchart showing an accident factor analysis process of the computer shown in FIG. 1 embodiment.
[Explanation of symbols]
10 ... behavior analyzer
12… Computer
14… Tactile sensor
16… Camera
18 ... Nurse DB
20… ward event DB
22 ... action feature vector DB
24… Nursing business action dictionary DB
30… Measuring device
32… IC recorder
38… Microphone
40 ... non-contact sensor
42… Pedometer
44… Inclination angle sensor

Claims (12)

特定の業務を行う被験者の行動を分析する行動分析装置であって、
少なくとも前記被験者の運動量を計測する運動量計測手段、
前記運動量計測手段によって計測された運動量に基づいて前記被験者の行動特徴を作成する特徴作成手段、
アクシデントが発生したときの前記行動特徴が登録されたデータベース、
現時点における前記被験者の行動特徴と前記データベースに登録された行動特徴とを比較する比較手段、
前記比較手段の比較結果に基づいてアクシデントが発生する可能性の有無を判断する判断手段、および
前記判断手段によってアクシデントが発生する可能性があると判断されたとき、警告を発する警告手段を備える、行動分析装置。
A behavior analysis device for analyzing the behavior of a subject performing a specific task,
Exercise amount measuring means for measuring at least the exercise amount of the subject,
Feature creating means for creating behavioral features of the subject based on the amount of exercise measured by the exercise amount measuring means,
A database in which the behavior characteristics when an accident occurs are registered,
Comparing means for comparing the behavior characteristics of the subject at the present time with the behavior characteristics registered in the database;
Determining means for determining the possibility of an accident based on the comparison result of the comparing means, and warning means for issuing a warning when it is determined that the possibility of an accident is determined by the determining means, Behavior analysis device.
特定の業務を行う被験者の行動を分析する行動分析装置であって、
少なくとも前記被験者の運動量を計測する運動量計測手段、
前記運動量計測手段によって計測された運動量に基づいて前記被験者の行動特徴を作成する特徴作成手段、
アクシデントが発生したときの前記行動特徴をデータベースに登録する登録手段、
現時点における前記被験者の行動特徴と前記データベースに登録された行動特徴とを比較する比較手段、
前記比較手段の比較結果に基づいてアクシデントが発生する可能性の有無を判断する判断手段、および
前記判断手段によってアクシデントが発生する可能性があると判断されたとき、警告を発する警告手段を備える、行動分析装置。
A behavior analysis device for analyzing the behavior of a subject performing a specific task,
Exercise amount measuring means for measuring at least the exercise amount of the subject,
Feature creating means for creating behavioral features of the subject based on the amount of exercise measured by the exercise amount measuring means,
Registration means for registering the behavior characteristic when an accident occurs in a database,
Comparing means for comparing the behavior characteristics of the subject at the present time with the behavior characteristics registered in the database;
Determining means for determining the possibility of an accident based on the comparison result of the comparing means, and warning means for issuing a warning when it is determined that the possibility of an accident is determined by the determining means, Behavior analysis device.
前記比較手段は、現時点における前記被験者の行動特徴と前記データベースに登録された行動特徴との近似度を算出する近似度算出手段を含み、
前記判断手段は、前記近似度算出手段によって算出された近似度が所定の閾値よりも大きいとき、アクシデントが発生する可能性があると判断する、請求項1または2記載の行動分析装置。
The comparing means includes an approximation degree calculating means for calculating an approximation degree between the behavior characteristic of the subject at the present time and the behavior characteristic registered in the database,
The behavior analysis device according to claim 1, wherein the determination unit determines that an accident may occur when the degree of approximation calculated by the degree of approximation calculation unit is greater than a predetermined threshold.
前記運動量計測手段は、前記被験者の歩数を計測する歩数計測手段、および前記被験者の上体の傾斜角を計測する角度計測手段を含み、
前記特徴作成手段は、少なくとも前記歩数計測手段によって計測される歩数および前記角度計測手段によって計測される傾斜角を要素とする特徴ベクトルを作成するベクトル作成手段を含む、請求項1ないし3のいずれかに記載の記載の行動分析装置。
The exercise amount measurement unit includes a step number measurement unit that measures the number of steps of the subject, and an angle measurement unit that measures an inclination angle of the body of the subject,
4. The method according to claim 1, wherein the feature creating unit includes a vector creating unit that creates a feature vector having at least the number of steps measured by the step counting unit and the inclination angle measured by the angle measuring unit as elements. The behavior analysis device according to the above.
少なくとも前記データベースに登録されたすべての前記特徴ベクトルの平均値を含む第1辞書を作成する第1辞書作成手段をさらに備え、
前記近似度算出手段は、現時点における前記被験者の特徴ベクトルと前記平均値とのユークリッド距離を求めて前記近似度を算出する、請求項4記載の行動分析装置。
A first dictionary creating unit that creates a first dictionary including at least an average value of all the feature vectors registered in the database,
The behavior analysis device according to claim 4, wherein the approximation degree calculating means calculates the approximation degree by obtaining a Euclidean distance between the subject's feature vector and the average value at the present time.
前記データベースに登録されたすべての前記特徴ベクトルの平均値、共分散行列、前記共分散行列についての固有値行列および前記固有値行列についての固有ベクトルを含む第2辞書を作成する第2辞書作成手段をさらに備え、
前記近似度算出手段は、現時点における前記被験者の特徴ベクトルと前記平均値、前記共分散行列、前記固有値行列および前記固有ベクトルとの尤度を求めて前記近似度を算出する、請求項4記載の行動分析装置。
A second dictionary creating unit that creates a second dictionary including an average value of all the feature vectors registered in the database, a covariance matrix, an eigenvalue matrix for the covariance matrix, and an eigenvector for the eigenvalue matrix. ,
The behavior according to claim 4, wherein the approximation degree calculating means calculates the degree of approximation by obtaining a likelihood between the subject's feature vector and the average value, the covariance matrix, the eigenvalue matrix, and the eigenvector at the present time. Analysis equipment.
特定の業務を行う被験者の行動を分析する行動分析装置であって、
少なくとも前記被験者の運動量を計測する運動量計測手段、
前記運動量計測手段によって計測された運動量に基づいて前記被験者の行動特徴を作成する特徴作成手段、
アクシデントが発生したときの前記行動特徴が登録されたデータベース、および
前記データベースに登録された前記行動特徴を分析して前記アクシデントの発生要因を抽出する分析手段を備える、行動分析装置。
A behavior analysis device for analyzing the behavior of a subject performing a specific task,
Exercise amount measuring means for measuring at least the exercise amount of the subject,
Feature creating means for creating behavioral features of the subject based on the amount of exercise measured by the exercise amount measuring means,
A behavior analysis device, comprising: a database in which the behavior characteristics at the time of occurrence of an accident are registered; and analysis means for analyzing the behavior characteristics registered in the database to extract the cause of the accident.
特定の業務を行う被験者の行動を分析する行動分析装置であって、
少なくとも前記被験者の運動量を計測する運動量計測手段、
前記運動量計測手段によって計測された運動量に基づいて前記被験者の行動特徴を作成する特徴作成手段、
アクシデントが発生したときの前記行動特徴をデータベースに登録する登録手段、および
前記データベースに登録された前記行動特徴を分析して前記アクシデントの発生要因を抽出する分析手段を備える、行動分析装置。
A behavior analysis device for analyzing the behavior of a subject performing a specific task,
Exercise amount measuring means for measuring at least the exercise amount of the subject,
Feature creating means for creating behavioral features of the subject based on the amount of exercise measured by the exercise amount measuring means,
A behavior analysis device, comprising: a registration unit that registers the behavior feature when an accident occurs in a database; and an analysis unit that analyzes the behavior feature registered in the database and extracts a cause of the accident.
前記運動量計測手段は、前記被験者の歩数を計測する歩数計測手段、および前記被験者の上体の傾斜角を計測する角度計測手段を含み、
前記特徴作成手段は、少なくとも前記歩数計測手段によって計測される歩数および前記角度計測手段によって計測される傾斜角を要素とする特徴ベクトルを作成するベクトル作成手段を含む、請求項7または8記載の行動分析装置。
The exercise amount measurement unit includes a step number measurement unit that measures the number of steps of the subject, and an angle measurement unit that measures an inclination angle of the body of the subject,
9. The action according to claim 7, wherein the feature creating unit includes a vector creating unit that creates a feature vector having at least the number of steps measured by the step counting unit and the inclination angle measured by the angle measuring unit as elements. Analysis equipment.
前記データベースに登録されるすべての前記特徴ベクトルの第1平均値とアクシデントの第1出現確率とを用いて第1散乱行列および第1分散行列を求める第1行列作成手段、および
前記第1行列作成手段によって作成された第1散乱行列の逆行列と第1分散行列との積を算出する第1行列積手段をさらに備え、
前記分析手段は、前記第1行列積手段によって算出された行列についての第1固有ベクトルの係数の大きさに基づいてアクシデントの発生要因を抽出する、請求項9記載の行動分析装置。
First matrix creation means for finding a first scattering matrix and a first variance matrix using first average values of all the feature vectors registered in the database and first occurrence probabilities of accidents, and creation of the first matrix First matrix multiplying means for calculating a product of the inverse matrix of the first scattering matrix created by the means and the first variance matrix,
The behavior analysis device according to claim 9, wherein the analysis unit extracts an accident occurrence factor based on a magnitude of a coefficient of a first eigenvector of the matrix calculated by the first matrix product unit.
前記被験者の音声を記録する音声記録手段、前記被験者を撮影するカメラ、および前記音声記録手段によって記録される音声または前記カメラによって撮影される映像のいずれか一方に基づいて前記被験者の業務内容を特定する内容特定手段をさらに備え、
ベクトル作成手段によって作成された特徴ベクトルと前記内容特定手段によって特定された業務内容とが関連づけて前記データベースに登録される、請求項9または10記載の行動分析装置。
Voice recording means for recording the voice of the subject, a camera for photographing the subject, and specifying the task content of the subject based on one of the voice recorded by the voice recording means or the video taken by the camera Further comprising a content specifying means for
11. The behavior analysis device according to claim 9, wherein the feature vector created by the vector creation unit and the task content specified by the content specification unit are registered in the database in association with each other.
前記データベースに登録されるかつ特定の前記業務内容に関連づけられた前記特徴ベクトルの第2平均値とアクシデントの第2出現確率とを用いて第2散乱行列および第2分散行列を求める第2行列作成手段、および
前記第2行列作成手段によって作成された第2散乱行列の逆行列と第2分散行列との積を算出する第2行列積手段をさらに備え、
前記分析手段は、前記第2行列積手段によって算出された行列についての第2固有ベクトルの係数の大きさに基づいてアクシデントの発生要因を抽出する、請求項11記載の行動分析装置。
Creation of a second matrix for obtaining a second scatter matrix and a second variance matrix using a second average value of the feature vector registered in the database and associated with the specific job content and a second occurrence probability of an accident Means, and further comprising second matrix product means for calculating a product of an inverse matrix of the second scattering matrix created by the second matrix creation means and a second variance matrix,
The behavior analysis device according to claim 11, wherein the analysis unit extracts an accident occurrence factor based on a magnitude of a coefficient of a second eigenvector of the matrix calculated by the second matrix product unit.
JP2002320317A 2002-11-01 2002-11-01 Behavior analysis system Pending JP2004157614A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002320317A JP2004157614A (en) 2002-11-01 2002-11-01 Behavior analysis system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002320317A JP2004157614A (en) 2002-11-01 2002-11-01 Behavior analysis system

Publications (1)

Publication Number Publication Date
JP2004157614A true JP2004157614A (en) 2004-06-03

Family

ID=32801261

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002320317A Pending JP2004157614A (en) 2002-11-01 2002-11-01 Behavior analysis system

Country Status (1)

Country Link
JP (1) JP2004157614A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006031445A (en) * 2004-07-16 2006-02-02 Advanced Telecommunication Research Institute International Accident, incident report analysis system
JP2006059054A (en) * 2004-08-19 2006-03-02 Advanced Telecommunication Research Institute International Nursing accident warning system
JP2006164251A (en) * 2004-11-09 2006-06-22 Toshiba Corp Medical information system, medical information system program, and medical information processing method for performing information processing for management of medical practice
JP2006215680A (en) * 2005-02-02 2006-08-17 Advanced Telecommunication Research Institute International Erroneous work warning system
JP2008009822A (en) * 2006-06-30 2008-01-17 Advanced Telecommunication Research Institute International Warning system and warning method
WO2009047983A1 (en) 2007-10-10 2009-04-16 Toshibainformationsystems(Japan)Corporation Data processing device
JP2009146345A (en) * 2007-12-18 2009-07-02 Mitsubishi Electric Information Systems Corp Electronic medical chart system
JP2011197759A (en) * 2010-03-17 2011-10-06 Railway Technical Research Institute Incident information display device, incident information display method and program
JP2012226449A (en) * 2011-04-15 2012-11-15 Toshiba Corp Job cooperation support system and job cooperation support method
JP2015097565A (en) * 2013-11-18 2015-05-28 富士通株式会社 Posture classification method, information processing apparatus, and program
JP2018047088A (en) * 2016-09-23 2018-03-29 ソニー株式会社 Control device, control method, and medical system
WO2019021781A1 (en) 2017-07-24 2019-01-31 Sony Corporation Surgical support system, information processing method, and information processing apparatus
JP7363780B2 (en) 2018-06-26 2023-10-18 コニカミノルタ株式会社 Report output program, report output method, and report output device

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06285046A (en) * 1993-03-31 1994-10-11 Res Dev Corp Of Japan System for monitoring living activity
JPH07334479A (en) * 1994-06-08 1995-12-22 Adoin Kenkyusho:Kk Pattern sorting device and state monitoring system utilizing the device
JPH10113343A (en) * 1996-07-03 1998-05-06 Hitachi Ltd Method, device and system for recognizing action and behavior
JP2000305940A (en) * 1999-04-21 2000-11-02 Nippon Telegr & Teleph Corp <Ntt> Method and device for retrieving time series data and storage medium storing time series data retrieval program
JP2000354943A (en) * 1999-06-09 2000-12-26 Nippon Telegr & Teleph Corp <Ntt> Work management and support method and device, and recording medium having program therefor recorded
JP2001325363A (en) * 2000-05-15 2001-11-22 Hitachi Plant Eng & Constr Co Ltd Care operation support device and portable communication terminal
JP2002024470A (en) * 2000-07-06 2002-01-25 Railway Technical Res Inst Human error analyzing and diagnosing system and storage medium
JP2002263086A (en) * 2001-03-06 2002-09-17 Microstone Corp Motion measuring instrument
JP2002279119A (en) * 2001-03-19 2002-09-27 Toshiba Corp Business analyzing system and business analyzing method for workflow management system
JP2002297182A (en) * 2001-03-29 2002-10-11 Sanyo Electric Co Ltd Device and method for voice recognition

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06285046A (en) * 1993-03-31 1994-10-11 Res Dev Corp Of Japan System for monitoring living activity
JPH07334479A (en) * 1994-06-08 1995-12-22 Adoin Kenkyusho:Kk Pattern sorting device and state monitoring system utilizing the device
JPH10113343A (en) * 1996-07-03 1998-05-06 Hitachi Ltd Method, device and system for recognizing action and behavior
JP2000305940A (en) * 1999-04-21 2000-11-02 Nippon Telegr & Teleph Corp <Ntt> Method and device for retrieving time series data and storage medium storing time series data retrieval program
JP2000354943A (en) * 1999-06-09 2000-12-26 Nippon Telegr & Teleph Corp <Ntt> Work management and support method and device, and recording medium having program therefor recorded
JP2001325363A (en) * 2000-05-15 2001-11-22 Hitachi Plant Eng & Constr Co Ltd Care operation support device and portable communication terminal
JP2002024470A (en) * 2000-07-06 2002-01-25 Railway Technical Res Inst Human error analyzing and diagnosing system and storage medium
JP2002263086A (en) * 2001-03-06 2002-09-17 Microstone Corp Motion measuring instrument
JP2002279119A (en) * 2001-03-19 2002-09-27 Toshiba Corp Business analyzing system and business analyzing method for workflow management system
JP2002297182A (en) * 2001-03-29 2002-10-11 Sanyo Electric Co Ltd Device and method for voice recognition

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006031445A (en) * 2004-07-16 2006-02-02 Advanced Telecommunication Research Institute International Accident, incident report analysis system
JP2006059054A (en) * 2004-08-19 2006-03-02 Advanced Telecommunication Research Institute International Nursing accident warning system
JP4613277B2 (en) * 2004-08-19 2011-01-12 株式会社国際電気通信基礎技術研究所 Nursing accident warning system
JP2006164251A (en) * 2004-11-09 2006-06-22 Toshiba Corp Medical information system, medical information system program, and medical information processing method for performing information processing for management of medical practice
JP2006215680A (en) * 2005-02-02 2006-08-17 Advanced Telecommunication Research Institute International Erroneous work warning system
JP2008009822A (en) * 2006-06-30 2008-01-17 Advanced Telecommunication Research Institute International Warning system and warning method
US8396911B2 (en) 2007-10-10 2013-03-12 Toshiba Information Systems (Japan) Corporation Data processing device
WO2009047983A1 (en) 2007-10-10 2009-04-16 Toshibainformationsystems(Japan)Corporation Data processing device
JP2009146345A (en) * 2007-12-18 2009-07-02 Mitsubishi Electric Information Systems Corp Electronic medical chart system
JP4585565B2 (en) * 2007-12-18 2010-11-24 三菱電機インフォメーションシステムズ株式会社 Electronic medical record system
JP2011197759A (en) * 2010-03-17 2011-10-06 Railway Technical Research Institute Incident information display device, incident information display method and program
JP2012226449A (en) * 2011-04-15 2012-11-15 Toshiba Corp Job cooperation support system and job cooperation support method
JP2015097565A (en) * 2013-11-18 2015-05-28 富士通株式会社 Posture classification method, information processing apparatus, and program
JP2018047088A (en) * 2016-09-23 2018-03-29 ソニー株式会社 Control device, control method, and medical system
CN109715106A (en) * 2016-09-23 2019-05-03 索尼公司 Control device, control method and medical system
JP7073618B2 (en) 2016-09-23 2022-05-24 ソニーグループ株式会社 Control devices, control methods and medical systems
CN109715106B (en) * 2016-09-23 2022-06-24 索尼公司 Control device, control method, and medical system
US11419696B2 (en) 2016-09-23 2022-08-23 Sony Corporation Control device, control method, and medical system
WO2019021781A1 (en) 2017-07-24 2019-01-31 Sony Corporation Surgical support system, information processing method, and information processing apparatus
JP7363780B2 (en) 2018-06-26 2023-10-18 コニカミノルタ株式会社 Report output program, report output method, and report output device

Similar Documents

Publication Publication Date Title
US10080513B2 (en) Activity analysis, fall detection and risk assessment systems and methods
WO2019239813A1 (en) Information processing method, information processing program, and information processing system
CN110838118B (en) System and method for anomaly detection in medical procedures
US6540674B2 (en) System and method for supervising people with mental disorders
US20090312660A1 (en) Recognition and localisation of pathologic animal and human sounds
JP2004157614A (en) Behavior analysis system
CN110050276B (en) Patient identification system and method
JP2022168070A (en) person detection system
US11170894B1 (en) Access and temperature monitoring system (ATMs)
WO2020121308A9 (en) Systems and methods for diagnosing a stroke condition
CN108882853A (en) Measurement physiological parameter is triggered in time using visual context
CN115797868A (en) Behavior early warning method, system, device and medium for monitoring object
JP5143780B2 (en) Monitoring device and monitoring method
JP2005092440A (en) Warning device
CN113569671A (en) Abnormal behavior alarm method and device
Richter et al. Activity recognition for elderly care by evaluating proximity to objects and human skeleton data
WO2021241293A1 (en) Action-subject specifying system
CN111710402B (en) Face recognition-based ward round processing method and device and computer equipment
JP2019152914A (en) Nursing facility child watching system and information processing method
JP2007219974A (en) Individual position recognition apparatus and tracking and monitoring apparatus using same
US11313962B2 (en) Presence/absence detection method, non-transitory storage medium, sensor processing system, and sensor system
Baskaran et al. Using facial landmark detection on thermal images as a novel prognostic tool for emergency departments
JP2006031445A (en) Accident, incident report analysis system
KR102410650B1 (en) Untact Comprehensive MANAGEMENT SYSTEM) Health Care Service Providing Method
Yaying et al. Respiratory rate estimation via simultaneously tracking and segmentation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040817

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070426

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20071002