JP2004157614A - Behavior analysis system - Google Patents
Behavior analysis system Download PDFInfo
- Publication number
- JP2004157614A JP2004157614A JP2002320317A JP2002320317A JP2004157614A JP 2004157614 A JP2004157614 A JP 2004157614A JP 2002320317 A JP2002320317 A JP 2002320317A JP 2002320317 A JP2002320317 A JP 2002320317A JP 2004157614 A JP2004157614 A JP 2004157614A
- Authority
- JP
- Japan
- Prior art keywords
- accident
- behavior
- matrix
- subject
- nurse
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Medical Treatment And Welfare Office Work (AREA)
Abstract
Description
【0001】
【産業上の利用分野】
この発明は行動分析装置に関し、特にたとえば、医師、看護師、工員などの被験者の行動を分析する、行動分析装置に関する。
【0002】
【従来の技術】
この種の行動分析装置の一例が、特許文献1に開示される。この特許文献1の行動検知システムでは、人体に個人情報端末が取り付けられ、人体の姿勢や動作、体動、行動・活動状態や位置、生理信号が検知される。検知・収集されたセンサ信号は、基地局へ無線通信によって送信される。基地局へ無線通信された個人情報端末からのセンサ情報は、他のセンサと接続されているセンサ信号処理手段に送信され、情報が統合化される。統合化された人体の行動情報はデータ蓄積手段に蓄積される。次に、センサ信号処理手段から得られた人体の行動情報は、データ蓄積手段によって蓄積された構造化データをもとに行動評価手段によって比較・評価される。この行動評価手段から得られた人体の行動状態のうち、状態判定手段によって異常と判定されたり、また、将来的に異常となり得ることが予測されたら、その内容が個人情報端末やネットワークによって接続された他の端末に通報される。たとえば、他の端末を医者が使用している場合には、適切なアドバイスを、異常と判定された人やその補助者に対して行うことができる。
【0003】
【特許文献1】
特開2002−149824号公報(第4頁および第1図)
【0004】
【発明が解決しようとする課題】
しかし、このような検知システムは、老人や患者などの行動情報を収集するものであり、老人や患者を介護したり、看護したりする者に起因して発生する医療ミスのような事故を未然に防止することはできなかった。
【0005】
それゆえに、この発明の主たる目的は、事故を未然に防止できる、行動分析装置を提供することである。
【0006】
この発明の他の目的は、事故の発生要因を分析できる、行動分析装置を提供することである。
【0007】
【課題を解決するための手段】
第1の発明は、特定の業務を行う被験者の行動を分析する行動分析装置であって、少なくとも被験者の運動量を計測する運動量計測手段、運動量計測手段によって計測された運動量に基づいて被験者の行動特徴を作成する特徴作成手段、アクシデントが発生したときの行動特徴が登録されたデータベース、現時点における被験者の行動特徴とデータベースに登録された行動特徴とを比較する比較手段、比較手段の比較結果に基づいてアクシデントが発生する可能性の有無を判断する判断手段、および判断手段によってアクシデントが発生する可能性があると判断されたとき、警告を発する警告手段を備える、行動分析装置である。
【0008】
第2の発明は、特定の業務を行う被験者の行動を分析する行動分析装置であって、少なくとも被験者の運動量を計測する運動量計測手段、運動量計測手段によって計測された運動量に基づいて被験者の行動特徴を作成する特徴作成手段、アクシデントが発生したときの行動特徴をデータベースに登録する登録手段、現時点における被験者の行動特徴とデータベースに登録された行動特徴とを比較する比較手段、比較手段の比較結果に基づいてアクシデントが発生する可能性の有無を判断する判断手段、および判断手段によってアクシデントが発生する可能性があると判断されたとき、警告を発する警告手段を備える、行動分析装置である。
【0009】
第3の発明は、特定の業務を行う被験者の行動を分析する行動分析装置であって、少なくとも被験者の運動量を計測する運動量計測手段、運動量計測手段によって計測された運動量に基づいて被験者の行動特徴を作成する特徴作成手段、アクシデントが発生したときの行動特徴が登録されたデータベース、およびデータベースに登録された行動特徴を分析してアクシデントの発生要因を抽出する分析手段を備える、行動分析装置である。
【0010】
第4の発明は、特定の業務を行う被験者の行動を分析する行動分析装置であって、少なくとも被験者の運動量を計測する運動量計測手段、運動量計測手段によって計測された運動量に基づいて被験者の行動特徴を作成する特徴作成手段、アクシデントが発生したときの行動特徴をデータベースに登録する登録手段、およびデータベースに登録された行動特徴を分析してアクシデントの発生要因を抽出する分析手段を備える、行動分析装置である。
【0011】
【作用】
第1の発明の行動分析装置では、運動量計測手段によって、特定の業務を行う被験者の運動量が計測される。この計測された運動量に基づいて被験者の行動特徴が作成され、アクシデント(事故)が発生したときの行動特徴が予め登録されたデータベースが設けられる。たとえば、或る時点(現時点)における被験者の行動特徴が作成され、データベースに登録された行動特徴と比較される。比較した結果、アクシデントが発生する可能性の有無が判断され、アクシデントが発生する可能性がある場合には、警告が発せられる。つまり、アクシデントの発生を予測して、事前に回避される。
【0012】
第2の発明は、第1の発明のように、アクシデントが発生したときの行動特徴が予め登録されたデータベースを備えるのではなく、登録手段がそのような行動特徴をデータベースに登録するようにしたものであり、それ以外の構成は同じである。
【0013】
たとえば、第1の発明または第2の発明では、近似度算出手段によって、現時点における被験者の行動特徴とデータベースに登録された行動特徴との近似度が算出されるので、判断手段は近似度が所定の閾値よりも大きいとき、アクシデントが発生する可能性があると判断する。つまり、アクシデントが発生したときの行動特徴と近似する行動特徴を取得したときに、警告を発することができるのである。
【0014】
また、運動量としては、歩数計測手段や角度計測手段によって、被験者の歩数や上体の傾斜角が計測されるので、これらを要素とする特徴ベクトルを作成することができる。
【0015】
したがって、少なくともデータベースに登録されたすべての特徴ベクトルの平均値を含む第1辞書を作成しておけば、現時点における被験者の特徴ベクトルとその平均値のユークリッド距離を求めて近似度を算出することができる。
【0016】
また、データベースに登録されたすべての特徴ベクトルの平均値、共分散行列、この共分散行列についての固有値行列およびこの固有値行列の固有ベクトルを含む第2辞書を作成しておけば、現時点における被験者の特徴ベクトルとその平均値、共分散行列、固有値行列および固有ベクトルとの尤度を求めて近似度を算出することもできる。
【0017】
第3の発明の行動分析装置では、運動量計測手段によって、特定の業務を行う被験者の運動量が計測される。この計測された運動量に基づいて被験者の行動特徴が作成され、アクシデント(事故)が発生したときの行動特徴が登録されたデータベースが設けられる。分析手段は、アクシデントが発生したときの行動特徴を分析して当該アクシデントの要因を抽出する。
【0018】
第4の発明は、第3の発明のように、アクシデントが発生したときの行動特徴が予め登録されたデータベースを備えるのではなく、登録手段がそのような行動特徴をデータベースに登録するようにしたものであり、それ以外の構成は同じである。
【0019】
たとえば、第3の発明または第4の発明では、運動量としては、歩数計測手段や角度計測手段によって、被験者の歩数や上体の傾斜角が計測されるので、これらを要素とする特徴ベクトルを作成することができる。
【0020】
したがって、データベースに登録されるすべての特徴ベクトルの第1平均値とアクシデントの第1出現確率とを用いて第1散乱行列および第1分散行列を求め、この第1散乱行列の逆行列と第1分散行列との積で求められた行列についての第1固有ベクトルの係数の大きさに基づいてアクシデントの発生要因を抽出することができる。つまり、発生し易いアクシデントおよびその要因を知ることができるので、これに基づいて人員配置や勤務シフトの見直しなどの業務改善を図ることができるのである。
【0021】
なお、複数の被験者が存在する場合には、特徴ベクトルと被験者とを関連づけておけば、特定の被験者についての特徴ベクトルを抽出して、上述したように被験者別のアクシデントの発生要因を抽出することもできる。つまり、特定の被験者において発生し易いアクシデントおよびその要因を知ることができる。
【0022】
また、被験者の音声を記録する音声記録手段や被験者を撮影するカメラを備えておけば、記録した音声や撮影した映像から被験者の業務内容を特定することができる。したがって、運動量に基づいて作成された特徴ベクトルと特定した業務内容とを関連づけてデータベースに登録することができる。
【0023】
このため、特定の業務についての特徴ベクトルについての第2平均値と特定の業務内容におけるアクシデントの第2出現確率とを用いて第2散乱行列および第2分散行列を求め、この第2散乱行列の逆行列と第2分散行列との積で求められた行列についての第2固有ベクトルの係数の大きさに基づいて特定の業務内容におけるアクシデントの発生要因を抽出することができる。つまり、特定の業務内容において発生し易いアクシデントおよびその要因を知ることができる。
【0024】
【発明の効果】
この発明によれば、アクシデントの発生を予測してこれを回避するので、アクシデントの発生を防止することができる。
【0025】
他の発明によれば、アクシデントの要因を知ることができるので、これを無くすように業務改善を行うことができる。
【0026】
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
【0027】
【実施例】
図1を参照して、この実施例の行動分析装置10は業務(この実施例では、看護業務)を行う看護師(看護婦,看護士)の行動を分析するものであり、パーソナルコンピュータ或いはワークステーションのようなコンピュータ12を含む。コンピュータ12には、複数の触覚センサ14および複数のカメラ16が接続される。図示は省略するが、この実施例では、複数の触覚センサ14は、体温計、血圧計、注射器、点滴注射器、血液採取用試験管、検尿コップなどの医療器具を格納してある格納箱の取り出し部分やナースコール端末などに取り付けられ、それらの医療器具等の使用(取り出し)の有無を検知する。また、複数のカメラ16は、入院患者を収容する病棟内であり、廊下、病室(ベッド)および看護師の詰所などに設置され、看護業務を行う看護師の行動を撮影する。
【0028】
なお、図示は省略するが、カメラ16としては、映像(および音声)のディジタルデータを、直接コンピュータ12のハードディスク(図示せず)に記録できる監視カメラを用いることができる。
【0029】
また、コンピュータ12には、複数のデータベース(DB)が接続される。具体的には、看護師DB18、病棟イベントDB20、行動特徴ベクトルDB22および看護業務行動辞書DB24が接続される。
【0030】
看護師DB18は、図2(A)に示すような看護師の1日の業務における行動についてのデータ(看護師データ)を看護師毎に記録する。図2(A)に示すように、看護師データには、ラベルとして看護師名が記述され、看護師名の横に日付が記述される。看護師名および日付の下側には、当該看護師の看護業務に関する項目(内容)が記述される。つまり、看護業務の開始時刻、看護業務の対象患者、看護業務の内容、看護業務における歩数、看護業務における傾斜(上半身(上体)を傾ける)回数および医療ミス等の業務における事故(アクシデント・インシデント)がそれぞれ記述される。
【0031】
このような看護師データでは、アクシデント・インシデント以外の内容は、後述する計測装置30(図5参照)で計測されるデータや病棟イベントDB20に記録される病棟イベントデータから取得される。
【0032】
また、アクシデント・インシデントの欄には、当該看護師が業務日報などに記述した医療ミスなどの事故の内容や医療ミス等は発生していないがひやりと(はっと)した出来事の内容が別途入力(記述)される。つまり、この実施例では、アクシデント・インシデントは、事故だけでなく、ひやりとした出来事を含む概念である。たとえば、ひやりとした出来事としては、患者の転倒などが該当する。
【0033】
たとえば、図2(A)に示す看護師データからは、看護師(○○夏子)が、2002年10月25日(金)の10時20分から2分5秒の間、患者(△△冬男)に対して検温を行い、その間の歩数は456歩であり、傾斜回数は35回であり、そして、検温に際して何ら医療ミス等がなかったことが分かる。
【0034】
ただし、この実施例では、後述する行動特徴ベクトルや看護業務行動辞書のデータを作成する便宜上、図2(B)に示すように、看護師、患者、看護業務およびアクシデント・インシデントの内容については、カテゴリ番号を記述するようにしてある。つまり、コンピュータ12のハードディスク(図示せず)には、図3(A),(B)および図4(A),(B)に示すようなテーブルが記録され、看護師、患者、看護業務およびアクシデント・インシデントがそれぞれカテゴリ分類されている。
【0035】
図3(A)は看護師カテゴリのテーブルを示す図解図であり、看護師カテゴリ番号(n=1,2,…,N)に対応して看護師名(**春子,○○夏子,…,△△冬子)が記述される。また、図3(B)は患者カテゴリのテーブルを示す図解図であり、患者カテゴリ番号(k=1,2,…,K)に対応して患者名(**春男,○○夏男,…,△△冬男)が記述される。さらに、図4(A)は看護業務カテゴリのテーブルを示す図解図であり、看護業務カテゴリ番号(z=1,2,…,Z)に対応して看護業務の内容(患者訪問,病状観察,…,退院指導)が記述される。さらにまた、図4(B)はアクシデント・インシデントカテゴリのテーブルを示す図解図であり、アクシデント・インシデントカテゴリ番号(h=1,2,…,H)に対応してアクシデント・インシデントの内容(アクシデント・インシデントなし,患者転倒,…,注射ミス)が記述される。
【0036】
また、病棟イベントDB20は、複数のセンサすなわち上述した複数の触覚センサ14および複数のカメラ16(イメージセンサ)のそれぞれから得られる検知データおよびイメージデータ(これらをまとめて「病棟イベントデータ」という。)を記録する。検知データには、検知する対象となる医療器具等の名称のような識別情報がラベルとして付され、イメージデータには、カメラ16の設置場所やカメラの向きなどの識別情報がラベルとして付される。つまり、検知データやイメージデータのラベルから検知対象物や撮影対象(撮影区域)を特定することができる。さらに、コンピュータ12は、病棟イベントデータを取得した時間(時間データ)を、内蔵される時計回路12aから取得して、当該病棟イベントデータに付加する。
【0037】
たとえば、検知データの入力があった時に、コンピュータ12は当該検知データに時間データを付加して、病棟イベントDB20に記録する。また、イメージデータは、連続するフレーム間の差分がコンピュータ12で検出され、画像に動きがあったときのイメージデータに時間データを付加して、病棟イベントDB20に記録する。ただし、イメージデータの解析処理は、コンピュータ12の負担が大きくなるため、別途専用のコンピュータ等を設けるようにしてもよい。
【0038】
さらに、行動特徴ベクトルDB22は、上述した看護師データに基づいて作成される行動特徴ベクトルFのデータを記録する。この実施例では、行動特徴ベクトルFは、看護師データに含まれる(計測装置30で計測される)歩数と傾斜角とを用いて作成され、具体的には数1で示される。ただし、図2(A)および図2(B)に示した看護師データには、傾斜角は含まれていないが、この傾斜角は傾斜回数の各回数に対応して別途看護師DB18に記録される。
【0039】
【数1】
F=(p1 ,p2 ,…,pi ,…pI ,θ1 ,θ2 ,…,θi ,…θI ,
s1 ,s2 ,…,si ,…sI )
ここで、pi 、θi およびsi は、時間t=t1 からt=t1 +Tまでの区間を予め設定したI個に等分割した場合における、分割区間内の歩数を単位時間当たりで平均化した歩数周波数(pi )、分割区間内の傾斜角を単位時間当たりで平均化した傾斜角の平均値(θi )および分割区間内の傾斜角の標準偏差(si )のそれぞれを示す。
【0040】
なお、この実施例では、看護師の疲労度が上がると、歩数の区間平均値にばらつきが起きるとともに、身体の傾斜角の単位時間当たりの変化に発生するばらつきが大きくとなると仮定して、歩数周波数、傾斜角の平均値および傾斜角の標準偏差を行動特徴ベクトルの要素としてある。
【0041】
さらに、看護業務行動辞書DB24には、すべての看護師についての行動特徴ベクトルに基づいて作成される複数種類(この実施例では、5種類)の辞書データが記録される。具体的な作成方法については後述するが、看護業務行動辞書DB24には、特定のアクシデント・インシデントについての辞書(以下、「特定アクシデント辞書」という。)データ、特定患者についての特定アクシデント辞書データ、特定看護師についての特定アクシデント辞書データ、特定業務についての特定アクシデント辞書データおよび発生時刻別の特定アクシデント辞書データが記録される。
【0042】
図5は計測装置30の具体的な構成を示すブロック図であり、この図5を参照して、計測装置30はICレコーダ32を含む。ICレコーダ32には、変調回路34、変調回路36、マイク38および非接触センサ40が接続される。また、変調回路34には歩数計42が接続され、変調回路36には傾斜角センサ42が接続される。さらに、ICレコーダ32には、時計回路32aが内蔵される。
【0043】
このような構成の計測装置30は、各被験者(看護師)に装着される。たとえば、図6に示すように、ICレコーダ32、変調回路34および変調回路36は、1つのボックス(筐体)50内に収容され、ボックス50は看護師の腰部(ベルト部分)に装着される。また、マイク38および傾斜角センサ44は看護師の胸元(襟部分または襟近傍)に装着され、歩数計42は上述のボックス50と同様に看護師の腰部に装着される。非接触センサ40は、マグネットスイッチ、ホール素子或いはMR素子を用いた磁気センサであり、たとえば、看護師の手首に装着され、看護師の上着の袖部分に磁石52が埋め込まれる。
【0044】
なお、図6においては、分かり易く示すため、磁石52を袖の外側に記載してある。また、図6においては省略するが、マイク38および非接触センサ40は接続線を用いて筐体50内のICレコーダ32に接続され、歩数計42および傾斜角センサ44は接続線を用いて筐体内の変調回路34および変調回路36にそれぞれ接続される。
【0045】
たとえば、看護師の操作によって、ICレコーダ32で記録が開始されると、非接触センサ40の入力に応じて、マイク38、歩数計42および傾斜角センサ44の入力が有効化/無効化される。具体的には、非接触センサ40からの入力がある場合には、つまり看護師が手を伸ばした状態で非接触センサ40が磁石52を検出してオンの状態である場合には、看護師の状態(上半身の傾斜角および歩数)を計測する計測モードが設定される。つまり、歩数計42および傾斜角センサ44の入力が有効化され、マイク38の入力が無効化される。
【0046】
一方、看護師が手を曲げた状態で非接触センサ40が磁石52を検出していないオフの状態である場合には、看護師の発する音声を記録する音声記録モードが設定される。つまり、マイク38の入力が有効化され、歩数計42および傾斜角センサ44の入力すなわち変調回路34および変調回路36の入力が無効化される。
【0047】
ただし、音声記録モードが設定された場合には、所定時間(この実施例では、10秒間)が経過するか、または再度非接触センサ40がオンされたときに、計測モードに復帰される。
【0048】
したがって、ICレコーダ32では、マイク38から入力される看護師の音声信号や歩数計42および傾斜角センサ44からの入力に変調を施した音声信号が、ディジタルデータに変換され、メモリカードやフラッシュメモリなどの半導体メモリ(図示せず)に記録される。ただし、音声、歩数、傾斜角度の別で、それぞれに対応する音声信号のディジタルデータ(音声データ)が記録される。その後、看護師の操作によって、ICレコーダ32の記録動作が終了される。
【0049】
また、ICレコーダ32は、録音が開始された時点の時間情報(時間データ)および録音が終了された時点の時間データをそれぞれ時計回路32aから取得し、上述のようにして取得された音声、歩数および傾斜角度についての音声データに付加する。
【0050】
なお、ICレコーダ32の具体的な構成や音声信号の記録については、既に周知であるため、この実施例では、その詳細な説明については省略することにする。
【0051】
また、この実施例では、ICレコーダ32を用いて音声信号を記録するようにしてあるが、MDやMOのようなディスク記録媒体に音声信号を記録する記録装置を用いるようにしてもよい。
【0052】
たとえば、看護師(n)が患者kさんの患者訪問を行なう場合には、看護師(看護師カテゴリ番号n)が「患者kさんの(患者)訪問に行ってきます。」と発話した内容、患者kさんの病室を往復する間の歩数および当該病室を往復する間に上半身を傾斜した際の角度(傾斜角度)のそれぞれについての音声データが記録される。また、この音声データに、録音開始時刻および録音終了時刻の時間データが付加される。
【0053】
このような音声、歩数および傾斜角度についての音声データおよびこれらに付加される時間データ(以下、これらを「計測データ」という場合がある。)は、看護師(n)の1日の業務のすべてについて取得される。図1に示すように、コンピュータ12と計測装置30(厳密にはICレコーダ32)とは、たとえば無線LANによって接続され、したがって、上述のようにして取得された1日の業務についての計測データ(業務計測データ)は、計測装置30(ICレコーダ32)からコンピュータ12に送信(転送)することができる。
【0054】
コンピュータ12は、転送された業務計測データに基づいて、アクシデント・インシデントを除く看護師データを作成する。つまり、看護師を特定し、その後、各計測データからアクシデント・インシデントを除く看護データの項目を特定(決定)して、記録する。
【0055】
たとえば、特定の看護師に特定の(同じ)ICレコーダ32を使用させるようにしておけば、ICレコーダ32の半導体メモリに割り当てられるMACアドレスから看護師を特定することができる。つまり、予めコンピュータ12のハードディスク内に、上述した各テーブルと同様に、MACアドレスに対応して看護師名(或いは看護師カテゴリ番号n)を記述したテーブルを記録しておき、業務計測データの転送を受けたときにMACアドレスを取得すれば、簡単に看護師を特定することができる。
【0056】
また、各計測データに含まれる看護師の音声についての音声データは、アナログの音声信号に変換された後、音声認識処理を施され、認識した音声から患者名や当該患者に対して行った看護業務が特定される。つまり、コンピュータ12は音声認識機能を備えており、また、音声認識のための辞書すなわち複数の発話(音声)に対応する音声信号を記録したメモリ(たとえば、ハードディスクやROM)を有している。
【0057】
なお、この実施例では、複数の発話は看護業務に関する発話であり、予め看護師が音声入力することにより、複数の看護業務に関する発話の音声信号が記録(収録)される。ただし、個々の発話を効率良く認識するようにするため、看護師毎に音声認識のための辞書が設けられる。
【0058】
したがって、コンピュータ12は、看護師の音声についての音声データをアナログに変換した音声信号とメモリに記録された音声信号とを、DPマッチング法やHMM(隠れマルコフモデル)法により比較し、看護師が発話した内容を認識(特定)する。具体的には、「患者kさんの検尿に行ってきます。」という発話を認識すると、患者名「患者k」および当該患者に対する看護業務の内容「検尿」を特定することができる。
【0059】
ただし、患者名および看護業務の内容については正確に特定する必要があるため、DPマッチング法等による比較結果から近似度が一番高い(第1位の)発話と次に近似度が高い(第2位の)発話とを抽出し、第1位の発話と第2位の発話とに基づいて第1位の発話の認識の妥当性(信頼度)を判断するようにしてある。
【0060】
つまり、第1位の発話から特定される患者名(第1患者名)と看護業務の内容(第1看護業務)とのそれぞれを抽出するとともに、第2位の発話から特定される患者名(第2患者名)と看護業務の内容(第2看護業務)とのそれぞれを抽出する。次に、第1患者名と第2患者名との近似度(距離値)および第1看護業務と第2看護業務との距離値をそれぞれ計算する。ここで、距離値とは、言葉(単語)の発音が近似している度合いをいう。たとえば、“伊藤(いとう)”と“紀藤(きとう)”とでは近似度が高い(距離値が小さい)が、“伊藤(いとう)”と“田中(たなか)”とでは近似度が低い(距離値が大きい)。
【0061】
したがって、患者名同士の距離値と看護業務同士の距離値とが予め設定した閾値(第1閾値)よりも小さい場合には、第1位の発話と第2位の発話とが近似しているため、認識結果の信頼度が低いと言える。一方、患者名同士の距離値と看護業務同士の距離値とが第1閾値よりも大きい場合には、第1位の発話と第2位の発話とが近似していないため、認識結果の信頼度が高いと言える。
【0062】
なお、この実施例では、患者名同士の距離値と看護業務同士の距離値との両方が小さい場合に、第1位の発話と第2位の発話とが近似しているとして、認識結果の信頼度が低いと考えるようにしてあるが、いずれか一方の距離値が小さい場合に、認識結果の信頼度が低いと考えるようにしてもよい。
【0063】
認識結果の信頼度が高い場合には、第1位の発話に含まれる患者名および看護業務の内容を抽出(採用)して、看護師データの作成に使用する。一方、認識結果の信頼度が低い場合には、第1位の発話に含まれる患者名および看護業務の内容を排除(リジェクト)して、病棟イベントDB20に記録される病棟イベントデータに基づいて患者名と看護業務の内容とを特定する。
【0064】
ただし、音声認識により、患者名と看護業務の内容とを個別に特定するようにする場合には、音声認識の結果から距離値が第1閾値よりも小さいもののみを、病棟イベントデータに基づいて特定するようにすればよい。
【0065】
つまり、ICレコーダ32から転送された時間データが示す時間における病棟イベントデータすなわち触覚センサ14およびカメラ16から得られる検知データおよびイメージデータを病棟イベントDB20から読み出し、イメージデータから看護師および患者を特定するとともに、検知データとイメージデータとに基づいて看護業務の内容を特定する。
【0066】
患者(名)の特定は、イメージデータに付されたラベルに記述されるカメラ16の設置場所およびカメラ16の向きから容易に特定することができる。看護師の特定は、予め看護師の顔を正面や側面から撮影したデータを記憶しておき、イメージデータと比較することにより行うことができる。
【0067】
ただし、このような画像処理による特定では、データ量が膨大であり、しかも時間がかかるため、たとえば、看護師が身につけている衣服等に看護師毎に異なる印をつけておき、その印をイメージデータから識別して、看護師を特定するようにすればよい。かかる場合には、看護師の衣服と印とのコントラストを大きくすれば、高い認識率が得られる。
【0068】
また、検知データとイメージデータとから看護師が行なった看護業務の内容が特定される。たとえば、検知データに基づいて体温計の使用を検出し、イメージデータに基づいて看護師が患者に体温計を手渡したり、患者から体温計を受け取ったりする動作を検出することにより、看護業務の内容「検温」が特定される。
【0069】
なお、イメージデータから看護師業務の内容を特定するためには、予め看護師が様々な看護業務を行なう際の映像を撮影しておき、撮影した映像と病棟イベントデータに含まれるイメージデータとの対比を行なうことにより看護業務の内容を推定することができ、また、検知データに基づいてそのときに使用された器具等から看護業務の内容を確定(特定)することができる。
【0070】
このようにして、病棟イベントデータから患者名および看護業務の内容を特定することができるが、手順としては、コンピュータ12は、まず、作成する看護師データに対応する看護師が撮影されたイメージデータ(病棟イメージデータ)を特定し、続いて、当該イメージデータに付されたラベルの記述から患者(患者名)を特定し、そして、当該検知データおよび当該イメージデータから看護師の看護業務の内容を特定する。
【0071】
また、各計測データに含まれる歩数および傾斜角度についての音声データは、コンピュータ12によって復調される。歩数はそのまま看護師データの作成に用いられるが、傾斜センサ44によって検出された傾斜角度の個数から傾斜回数が決定される。
【0072】
さらに、看護師データに含まれる時刻および時間の項目に入力すべきデータについては、音声データに付加された時間データから決定される。つまり、時刻の欄には時間データに含まれる録音開始時刻が記述され、時間の欄には録音終了時刻から録音開始時刻を減算した値(時間)が記述される。
【0073】
その後、業務日報からアクシデント・インシデントの情報を取得して、看護師DB18或いは行動分析装置10(コンピュータ12)の管理者が図示しない入力装置(キーボードやコンピュータマウス)を用いて、看護師データに追加する。
【0074】
具体的には、コンピュータ10は、図7に示すフロー図に従って看護師データの作成処理を実行する。図7に示すように、看護師データの作成処理を開始すると、ステップS1で、ICレコーダ32から業務計測データを受信したかどうかを判断する。ステップS1で“NO”であれば、つまり業務計測データを受信していなければ、そのまま同じステップS1に戻る。
【0075】
一方、ステップS1で“YES”であれば、つまり業務計測データを受信すれば、ステップS3では、上述したように、ICレコーダ32に設けられる半導体メモリのMACアドレスを取得し、これに基づいて看護師(看護師カテゴリ番号n)を特定する。
【0076】
続くステップS5では、1番目の(この実施例では、時刻が一番早い)計測データを抽出する。続いて、ステップS7では、音声認識処理を実行する。つまり、抽出した計測データに含まれる看護師の音声についての音声データをアナログ変換して、看護師の発話内容を認識する。
【0077】
看護師の発話内容が認識されると、ステップS9では、認識結果から第1位の発話と第2位の発話とに含まれる患者名同士および看護業務同士のそれぞれについての距離値を検出し、リジェクトがあるかどうかを判断する。
【0078】
ステップS9で“YES”であれば、つまりリジェクトがあれば、ステップS11で、当該計測データに含まれる時間データを参照して、当該計測データと同じ時間帯における病棟イベントデータを病棟イベントDB20から読み出す。そして、ステップS13で、読み出した病棟イベントデータ(検知データおよびイメージデータ)に基づいて、上述したように、患者名および看護業務の内容を特定して、ステップS17に進む。一方、ステップS9で“NO”であれば、つまりリジェクトがなければ、ステップS15で音声認識の結果から患者名および看護業務の内容を特定して、ステップS17に進む。
【0079】
ステップS17では、看護師データの各項目が入力される。つまり、看護師名(看護師カテゴリ番号)、日付、時刻、患者名(患者カテゴリ)、看護業務の内容(看護業務カテゴリ番号)、歩数、傾斜回数および時間が入力される。
【0080】
ただし、看護師カテゴリ番号および日付は初回に入力されればよく、それ以降では、看護師カテゴリ番号および日付を除く項目が随時入力(追加)される。
【0081】
なお、歩数および傾斜回数は、計測データに含まれる音声データを復調して取得されるが、このステップS17の処理の際に復調すればよい。または、ステップS5で計測データを取得してからステップS17の処理を実行するまでの間に復調するようにしてもよい。
【0082】
続くステップS19では、次の(この実施例では、次に時刻が早い)計測データがあるかどうかを判断する。ステップS19で“YES”であれば、つまり次の計測データがあれば、ステップS21で次の計測データを業務計測データから抽出し、ステップS7に戻る。つまり、ステップS7からステップS21の処理を繰り返すことにより、図2(B)に示したような看護データが作成される。
【0083】
一方、ステップS19で“NO”であれば、つまり次の計測データがなければ、当該看護師についての看護師データの作成が終了したと判断し、ステップS23で、作成した看護師データを看護師DB18に記録(登録)してから処理を終了する。
【0084】
その後、看護師DB18の管理者等の操作によって、看護師データにアクシデント・インシデントの項目が入力され、看護師データが完成される。
【0085】
なお、この実施例では、音声認識により患者名および看護業務の内容を特定できない場合には、病棟イベントデータに基づいて患者名および看護業務の内容を特定するようにしてあるが、さらに病棟イベントデータに基づいて患者名および看護業務の内容を特定することができない場合には、アクシデント・インシデントの項目と同様に、看護師DB18の管理者等が業務日報を参照して患者名(患者カテゴリ番号)および看護業務の内容(看護業務カテゴリ番号)を手入力する。
【0086】
このようにして、或る看護師についての看護師データが作成され、同様の方法により他の看護師についての看護師データも作成される。その後、コンピュータ12は、看護師データのそれぞれについて、上述したような行動特徴ベクトルを作成する。
【0087】
具体的には、コンピュータ12は、図8に示すフロー図に従って行動特徴ベクトルの作成処理を実行する。図8に示すように、行動特徴ベクトルの作成処理を開始すると、ステップS31で看護師カテゴリ番号(1)の看護師データを看護師DB18から読み出す。
【0088】
続くステップS33では、読み出した看護師データに含まれる1番目の業務データを抽出する。ここで、業務データとは、図2(B)に示した看護師データの1の業務についての(一列分の)各項目のデータをいう。また、この実施例では、時刻が早い順番で業務データを抽出するようにするため、ステップS33においては、時刻の欄に10:20が記述された列の業務データが抽出される。また、このとき、当該業務データに含まれる傾斜回数のデータに対応して記録される傾斜角度のデータも読み出される。
【0089】
次に、ステップS35では、抽出した業務データに含まれる歩数のデータ、傾斜回数のデータを所定間隔(時間間隔)で分割するとともに、業務データとともに読み出された傾斜角度のデータを所定間隔で分割する。そして、ステップS37では、数1に示したように、歩数、傾斜回数および傾斜角度から行動特徴ベクトルFx(xは自然数であり、初回は1である。)を作成する。その他、行動特徴ベクトルの成分として、間隔内の傾斜角の分散、前後の間隔での歩数の差分、傾斜角の分散の差分を追加することも考えられる。
【0090】
続くステップS39では、次の業務データがあるかどうかを判断する。つまり、看護師データに含まれる業務データで時間的に次の業務データがあるかどうかを判断する。ステップS39で“YES”であれば、つまり次の業務データがあれば、ステップS41で、看護師データから次の業務データを抽出して、ステップS35に戻る。つまり、ステップS35からステップS41の処理を繰り返すことにより、看護師カテゴリ番号(n)の全業務データについての行動特徴ベクトルF1,F2,…,Fx,…,FXを作成することができる。
【0091】
一方、ステップS39で“NO”であれば、つまり次の業務データがなければ、ステップS43で、生成した行動特徴ベクトルF1,F2,…,Fx,…,FXを行動特徴ベクトルDB22に記録する。
【0092】
続いて、ステップS45では、次の看護師データがあるかどうかを判断する。ステップS45で“NO”であれば、つまり次の看護師データがなければ、すべての看護師データについて行動特徴ベクトルを作成したと判断して、処理を終了する。一方、ステップS45で“YES”であれば、つまり次の看護師データがあれば、当該次の看護師データを看護師DB18から読み出して、ステップS33に戻る。
【0093】
このようにして、看護師データのそれぞれについて行動特徴ベクトルFxが作成されるが、行動特徴ベクトルFxのデータには、さらに、看護師カテゴリ番号n、看護業務カテゴリ番号z、患者カテゴリ番号kおよびアクシデント・インシデントカテゴリ番号hの情報がラベルとして付される。このような情報は、看護師データから得られるため、上述したステップS37において行動特徴ベクトルFxを作成するときに、付加することができる。或いは、行動特徴ベクトルFxの作成処理が終了した後に、行動特徴ベクトルDB22(分析装置10)の管理者等がラベルを追加(付加)するようにしてもよい。したがって、厳密には、行動特徴ベクトルF(F1,F2,F3,…,Fx)は、Fx|n,k,z,hのようにラベルが付加された状態で行動特徴ベクトルDB22に記録される。
【0094】
行動特徴ベクトルDB22に記録されるすべての行動特徴ベクトルFx|n,k,z,hを用いて、上述したような各辞書データがたとえばコンピュータ12によって作成される。具体的な作成方法については以下に説明する。
【0095】
<特定アクシデント辞書データ>
特定のアクシデント・インシデント(以下、単に「アクシデント」という。)カテゴリ番号h(h≠1)のラベルが付加された特徴ベクトルFxが行動特徴ベクトルDB22から取得され、取得された行動特徴ベクトルFxを用いて、数2、数3、数4および数5に従って、平均ベクトルMh 、共分散行列Σh 、固有ベクトルΦh およびΣh の固有値行列Λh がそれぞれ求められる。これらは、すべてのアクシデントカテゴリ番号h(=2,3,…,H)のそれぞれについて求められる。
【0096】
【数2】
Mh =[(x11+x21+…+xn1)/N,(x12+x22+…+xn2)/N,…,(x1m+x2m+…+xnm)/N]
ただし、行動特徴ベクトルをm次元(この実施例では、3次元)とし、アクシデント・カテゴリ番号hに属するn個(数1ではI個)の標本X1〜Xnに対してX1=[x11,x12,…,x1m]T ,…,Xn=[xn1,xn2,…,xnm]T とする。また、添え字の“T”は行列の転置を意味する。以下、この実施例において同じである。
【0097】
【数3】
Σh =[X1−Mh ]×[X1−Mh ]T +[X2−Mh ]×[X2−Mh ]T +…+[Xn−Mh ]×[Xn−Mh ]T
【0098】
【数4】
det|Σh −λh E|=0
ただし、Eは単位行列である。
【0099】
この数4で得られる解すなわち固有ベクトルΦh =(λ1 ,λ2 ,…,λm )のスカラ成分を対角成分として並べると、数5に示すように、固有値行列Λh が得られる。
【0100】
【数5】
【0101】
また、すべてのアクシデントカテゴリ番号hについて、アクシデントカテゴリ内の散乱行列Wh とアクシデントカテゴリ間の分散行列Bh が数6および数7に従ってそれぞれ求められる。
【0102】
【数6】
【0103】
【数7】
【0104】
ただし、アクシデントの出現確率は、該当する(特定の)アクシデントhのラベルを有する行動特徴ベクトルの数を、アクシデントh(h≠1)のラベルを有するすべての行動特徴ベクトルの数で除算することにより算出することができる。以下、この実施例において、同じである。
【0105】
つまり、特定アクシデントの辞書データとしては、アクシデントh毎の平均ベクトルMh 、共分散行列Σh 、固有ベクトルΦh 、Σh の固有値行列Λh およびすべてのアクシデントカテゴリ番号hについてのアクシデントカテゴリ内の散乱行列Wとアクシデントカテゴリ間の分散行列Bh とが記録される。
【0106】
<特定患者についての特定アクシデント辞書データ>
特定の患者kのラベルを有する行動特徴ベクトルFxが行動特徴ベクトルDB22から取得され、取得された行動特徴ベクトルFxを用いて、アクシデントカテゴリ(h)別に、上述した数2〜数5に従って、平均ベクトルMkh、共分散行列Σkh、固有ベクトルΦkhおよびΣkhの固有値行列Λkhのそれぞれが求められる。
【0107】
また、すべての患者kについて、患者カテゴリ内の散乱行列Wk と患者カテゴリ間の分散行列Bk とが数8および数9に従ってそれぞれ求められる。
【0108】
【数8】
【0109】
【数9】
【0110】
つまり、特定患者についての特定アクシデント辞書データとしては、患者別の平均ベクトルMkh、共分散行列Σkh、固有ベクトルΦkh、Σkhの固有値行列Λkh、患者カテゴリ内の散乱行列Wk および患者カテゴリ間の分散行列Bk が記録される。
【0111】
<特定看護師についての特定アクシデント辞書データ>
特定の看護師(n)のラベルを有する行動特徴ベクトルFxが行動特徴ベクトルDB22から取得され、取得された行動特徴ベクトルFxを用いて、アクシデントカテゴリ(h)別に、上述した数2〜数5に従って、平均ベクトルMnh、共分散行列Σnh、固有ベクトルΦnhおよびΣnhの固有値行列Λnhのそれぞれが求められる。
【0112】
また、すべての看護師(n)について、看護師カテゴリ内の散乱行列Wn と看護師カテゴリ間の分散行列Bn とが数10および数11に従ってそれぞれ求められる。
【0113】
【数10】
【0114】
【数11】
【0115】
つまり、特定看護師についての特定アクシデント辞書データとしては、看護師別の平均ベクトルMnh、共分散行列Σnh、固有ベクトルΦnh、Σnhの固有値行列Λnh、看護師カテゴリ内の散乱行列Wn および看護師カテゴリ間の分散行列Bn が記録される。
【0116】
<特定業務についての特定アクシデント辞書データ>
特定の看護業務zのラベルを有する行動特徴ベクトルFxが行動特徴ベクトルDB22から取得され、取得された行動特徴ベクトルを用いて、アクシデントカテゴリ(h)別に、上述した数2〜数5に従って、平均ベクトルMzh、共分散行列Σzh、固有ベクトルΦzhおよびΣzhの固有値行列Λzhがそれぞれ求められる。
【0117】
また、すべての看護業務zについて、看護業務カテゴリ内の散乱行列Wz と看護業務カテゴリ間の分散行列Bz とが数12および数13に従ってそれぞれ求められる。
【0118】
【数12】
【0119】
【数13】
【0120】
つまり、看護業務についての特定アクシデント辞書データとしては、看護業務別の平均ベクトルMzh、共分散行列Σzh、固有ベクトルΦzh、Σzhの固有値行列Λzh、看護業務カテゴリ内の散乱行列Wz および看護業務カテゴリ間の分散行列Bz が記録される。
【0121】
<発生時刻別の特定アクシデント辞書データ>
アクシデントh(h≠1)のラベルを有する行動特徴ベクトルFが行動特徴ベクトルDB22から取得され、取得された行動特徴ベクトルFについて、24時間(1日)をJ個の区間(時間区間)に分けて、第j区間(j=1,2,…,j,…,J)に含まれる平均ベクトルMhj、共分散行列Σhj、固有ベクトルΦhjおよびΣhjの固有値行列Λhjが、それぞれ、上述した数2〜数5に従って求められる。
【0122】
また、第j区間について、時間区間カテゴリ内の散乱行列Wj と時間区間カテゴリ間の分散行列Bj とが数14および数15に従ってそれぞれ求められる。
【0123】
【数14】
【0124】
【数15】
【0125】
つまり、発生時刻別の特定アクシデント辞書データとしては、アクシデントの発生時刻別の平均ベクトルMhj、共分散行列Σhj、固有ベクトルΦhj、Σhjの固有値行列Λhj、時間区間カテゴリ内の散乱行列Wj および時間区間カテゴリ間の分散行列Bj が記録される。
【0126】
このように、各看護師について作成した行動特徴ベクトルに基づいて様々な辞書データを作成することができる。
【0127】
たとえば、このような辞書データを作成した後では、これらの辞書データを用いて、或る時点における看護師(n)の行動特徴ベクトルを抽出して、アクシデントが起こる可能性があるか否かを判断し、アクシデントが起こる可能性がある場合には、当該看護師(n)への直接の警告または婦長のようなマネージャへの警告或いはその両方を行い、当該看護師(n)の交代や休憩を促すことができる。つまり、未然にアクシデントの発生を防止することができるのである。なお、警告は看護師の詰所に発するようにしてもよい。
【0128】
簡単に説明すると、ICレコーダ32は、取得された音声データおよび時間データすなわち計測データを半導体メモリに記録せずに、所定のタイミングで(この実施例では、計測データが取得される度に)、そのままコンピュータ12側に送信する。図示は省略するが、たとえば、ICレコーダ32とコンピュータ12とを無線LANで接続すれば、簡単に計測データを送信することができる。
【0129】
コンピュータ12は、受信した計測データに基づいて、特徴ベクトルFを作成し、辞書データ(この実施例では、特定アクシデント辞書データ)を参照し、アクシデントが近い将来に発生する可能性があるかどうかを判断する。そして、アクシデントが発生する可能性があると判断すると、上述したように警告を発する。
【0130】
警告を発する方法としては、看護師に直接警告する場合(婦長に直接警告する場合も同様)には、計測装置30に加え、ICレコーダ32に接続したイヤフォン、ブザ或いはバイブレータを看護師に装着させておき、無線LANにより接続されるコンピュータ12からの指示に従って、音声や音(警告音)で警告を知らせたり、振動で警告を知らせたりすることができる。
【0131】
また、看護師や婦長に間接的に警告を発する場合や看護師の詰所に警告を発す場合には、コンピュータ12と有線または無線で接続されるディスプレイやスピーカのような出力装置を病棟内(廊下、病室、詰所等)に配置しておき、警告メッセージ(文字または音声)を発するようにしてもよい。ただし、婦長に間接的に警告を発する場合には、婦長が所有するパーソナルコンピュータのような端末に電子メールを送信するようにしてもよい。
【0132】
具体的には、コンピュータ12は、図9に示すようなフロー図に従ってアクシデントの分析処理を実行する。図9に示すように、ステップS51で、計測データを受信したかどうかを判断する。ステップS51で“NO”であれば、つまり計測データを受信していなければ、同じステップS51に戻る。一方、ステップS51で“YES”であれば、つまり計測データを受信すれば、ステップS53でMACアドレスから看護師(n)を特定する。
【0133】
なお、上述したように、辞書データを作成した後では、ICレコーダ32から計測データをそのままコンピュータ12に送信するようにしてあるため、計測データとともに、MACアドレスを送信するようにすれば、簡単に看護師(n)を特定できる。
【0134】
続くステップS55では、歩数、傾斜角度についての音声データおよび時間データを抽出し、ステップS57で歩数、傾斜回数および傾斜角度から数1に示したような行動特徴ベクトルFを作成する。
【0135】
次のステップS59では、看護業務行動辞書DB24を参照して、近似するアクシデント(h)を特定する。この実施例では、ステップS57において作成した行動特徴ベクトルFと上述した特定アクシデント辞書データに含まれる各アクシデント(h)に対する平均ベクトルMh とのユークリッド距離dh (F)を数16に従ってそれぞれ計算し、距離dh (F)が最小(最小距離)となるアクシデント(h)を決定(特定)する。
【0136】
【数16】
dh (F)=||F−Mh ||2
ただし、||・||はノルムを表す。
【0137】
または、ステップS57において作成した行動特徴ベクトルFと特定アクシデント辞書データに含まれる各アクシデント(h)に対する平均ベクトルMh 、共分散行列Σh 、固有ベクトルΦh 、Σh の固有値行列Λh とを比較して、尤度gh (F)を数17に従ってそれぞれ算出し、尤度gh (F)が最大となるアクシデントhを特定するようにしてもよい。
【0138】
【数17】
【0139】
なお、上述したように、ステップS59においては、アクシデント(h)を特定するために、ユークリッド距離や尤度を計算するようにしてあるが、これらは設計者やプログラマによって選択的に採用される。たとえば、アクシデント(h)を特定する時間を短時間にしたい場合には、ユークリッド距離の計算が採用され、アクシデント(h)を特定する精度を高くしたい場合には、尤度の計算が採用される。
【0140】
そして、ステップS61では、アクシデントが発生する可能性があるかどうかを判断する。つまり、ステップS59において特定したアクシデントhとの距離(最小距離)が予め設定した閾値(第2閾値)以下であるかどうかを判断して、アクシデントが発生する可能性があるかどうかを判断する。または、特定したアクシデントhとの尤度(最大尤度)が予め設定した閾値(第3閾値)を超えるかどうかを判断して、アクシデントが発生する可能性があるかどうかを判断する。
【0141】
なお、閾値2や閾値3は、設計者やプログラマによって決定(設定)される値である。たとえば、アクシデントが発生したときの業務データから作成される行動特徴ベクトルと当該業務データの直前または2つ前の業務データから作成される行動特徴ベクトルとの距離値を算出して、閾値2を決定することができる。
【0142】
ステップS61で“NO”であれば、つまりアクシデントが発生する可能性がないと判断すると、そのまま処理を終了する。一方、ステップS61で“YES”であれば、つまりアクシデントが発生する可能性があると判断すると、ステップS63で看護師または婦長或いはその両方に警告を発してから処理を終了する。
【0143】
なお、このアクシデントの分析処理においては、特定アクシデント辞書データを用いた場合についてのみ説明したが、他の辞書データを用いた場合にも同様の処理を実行することができる。
【0144】
また、各辞書データを用いてアクシデントが発生する要因を分析することもできる。具体的には、コンピュータ12が図10に示すようなフロー図に従ってアクシデント要因の分析処理を実行する。
【0145】
ただし、アクシデント要因の分析処理はいずれの辞書データを用いた場合であっても同じであるため、この実施例では、特定アクシデント辞書データを用いた場合の処理のみを説明することとし、他の辞書データを用いた場合の処理についての説明は省略することにする。
【0146】
図10に示すように、アクシデント要因の分析処理を開始すると、ステップS71で特定アクシデント辞書データに含まれるアクシデントカテゴリ内の散乱行列Wh とアクシデントカテゴリ分散行列Bh とを用いて、行列W−1B(都合上、下付きの添え字“h”を省略する。)の固有値行列Γと固有ベクトルΨとを算出する。ただし、上付きの添え字“−1”は、逆行列を意味する。
【0147】
この固有値行列Γおよび固有ベクトルΨの算出方法については、Keisuke Fukunaga: 「Introduction to Statistical Pattern Recognition Second Edition」,Academic Press,pp.446−450,1990 に詳細に開示されているため、この実施例では、説明を省略することにする。
【0148】
続くステップS73では、固有値行列Γの中で、絶対値が最大の固有値γ1に対応する固有ベクトル行列Φの固有ベクトルφ1を主成分として選択する。ここで、固有ベクトル行列Φに含まれる固有ベクトルφ1は大きさ(φ1の二乗)が1になるように正規化されて(正規直交ベクトルという。)いるため、φ1の各係数(正負または0値)で絶対値が大きい要素iの固有ベクトルφ1(i)があれば、その固有ベクトルφ1(i)はアクシデントを起こす/起こさない要因であると言える。つまり、固有ベクトルを導出する手法に応じて、固有ベクトルφ1の向きが反転される場合があるので、要素φ1(i)の正負は問題でなく、その大きさが重要である。
【0149】
続いて、ステップS75では、因子負荷量Lを算出する。つまり、固有ベクトルφ1=[φ11,φ12,…,φ1n]とした場合に、数18に従って因子負荷量Lが算出される。
【0150】
【数18】
【0151】
そして、ステップS77では、因子負荷量Lの絶対値が大きい特徴ベクトル空間の軸Fiを抽出して、これをたとえばコンピュータ12に接続されたディスプレイ(図示せず)に出力する。
【0152】
つまり、因子負荷量Lからは、もとの観測ベクトル(固有ベクトルφ1)の変数の中で、主成分の因子に最も寄与している変数が何かを知ることができる。これにより、アクシデントの要因が寄与する観測ベクトルの変数を知ることができる。したがって、観測ベクトルの変数を減らしたり増やしたりする、すなわち因子負荷量の要素L1iの絶対値が大きい特徴ベクトル成分を小さくするように、業務(環境)改善提案を考えることができる。
【0153】
なお、このようなアクシデント要因の分析処理を各辞書データを用いて実行した場合には、次のようなアクシデントの要因を知ることができる。特定アクシデント辞書データを用いた場合には、看護師が誰かに拘わらず院内で発生し易いアクシデントとその要因を知ることができる。また、特定患者についての特定アクシデント辞書データを用いた場合には、患者毎に発生し易いアクシデントとその要因を知ることができる。さらに、特定看護師についての特定アクシデント辞書データを用いた場合には、看護師毎に発生し易いアクシデントとその要因を知ることができる。さらにまた、特定業務についての特定アクシデント辞書データを用いた場合には、看護業務毎に発生し易いアクシデントとその要因を知ることができる。また、発生時刻別の特定アクシデント辞書データを用いた場合には、院内においてアクシデントが発生し易い時刻、当該アクシデントとその要因を知ることができる。
【0154】
たとえば、アクシデントの要因が歩数や勤務時間などであると分析された場合には、病室の配置や看護師の勤務シフトを見直すような業務改善を図ることができる。つまり、看護業務の改善、人員配置の見直し、医療設備の改善等を図ることができる。
【0155】
この実施例によれば、各看護師についての行動特徴を予め取得し、或る時点における行動特徴との比較によりアクシデントの発生を予測してこれを回避するので、医療事故を未然に防止することができる。
【0156】
また、看護師の行動特徴から医療事故などのアクシデントの発生要因を分析するので、当該要因を回避するような業務改善を図ることができる。
【0157】
なお、この実施例では、看護師の疲労度を客観的に知るために、看護師の歩数および傾斜角を検出し、これに基づいて行動特徴ベクトルを作成するようにしたが、さらに脈拍、心拍数、血糖値などを検出して、これらも行動特徴ベクトルの要素に加えるようにしてもよい。
【0158】
また、この実施例では、行動分析装置を看護師業務に適用した場合についてのみ説明したが、このような行動分析装置は他の業務にも適用することができる。たとえば、医療行為を行う医師、原子力発電所の保守保安員、工場の工員、ホームケア業のヘルパ(介護者)の行動などを分析することもできる。一例を上げると、工場の工員の行動を分析する場合には、工場に触覚センサやカメラを配置し、計測装置を工員に装着して行動特徴を取得することができ、また、或る時点における工員の行動特徴を取得し、交代や休憩を促して、アクシデントの発生を未然に回避することができる。また、取得した行動特徴から辞書データを作成および分析して、業務の改善、人員配置の見直し、工場設備の改善等を図ることができる。
【図面の簡単な説明】
【図1】この発明の分析装置の構成の一例を示すブロック図である。
【図2】図1実施例に示す看護師DBに記録される看護師データの一例を図解図である。
【図3】(A)は看護師カテゴリの分類を示す図解図であり、(B)は患者カテゴリの分類を示す図解図である。
【図4】(A)は看護業務カテゴリの分類を示す図解図であり、(B)はアクシデント・インシデントカテゴリの分類を示す図解図である。
【図5】看護師に装着される計測装置の構成の一例を示すブロック図である。
【図6】図3に示す計測装置を看護師に装着した様子を示す図解図である。
【図7】図1実施例に示すコンピュータの看護師データの作成処理を示すフロー図である。
【図8】図1実施例に示すコンピュータの行動特徴ベクトルの作成処理を示すフロー図である。
【図9】図1実施例に示すコンピュータのアクシデントの分析処理を示すフロー図である。
【図10】図1実施例に示すコンピュータのアクシデント要因の分析処理を示すフロー図である。
【符号の説明】
10 …行動分析装置
12 …コンピュータ
14 …触覚センサ
16 …カメラ
18 …看護師DB
20 …病棟イベントDB
22 …行動特徴ベクトルDB
24 …看護業務行動辞書DB
30 …計測装置
32 …ICレコーダ
38 …マイク
40 …非接触センサ
42 …歩数計
44 …傾斜角センサ[0001]
[Industrial applications]
The present invention relates to a behavior analysis device, and more particularly to a behavior analysis device that analyzes the behavior of a subject such as a doctor, a nurse, or a worker.
[0002]
[Prior art]
An example of this type of behavior analysis device is disclosed in
[0003]
[Patent Document 1]
JP-A-2002-149824 (
[0004]
[Problems to be solved by the invention]
However, such a detection system collects behavioral information of the elderly and patients, and prevents accidents such as medical mistakes caused by those who care or care for the elderly or patients. Could not be prevented.
[0005]
Therefore, a main object of the present invention is to provide a behavior analysis device that can prevent an accident from occurring.
[0006]
Another object of the present invention is to provide a behavior analysis device that can analyze the cause of an accident.
[0007]
[Means for Solving the Problems]
A first invention is a behavior analysis device that analyzes the behavior of a subject performing a specific task, and includes at least a momentum measuring unit that measures a subject's momentum, a behavior characteristic of the subject based on the momentum measured by the momentum measuring unit. Based on a comparison result of the feature creating means for creating the event, a database in which the behavioral features when the accident occurred are registered, a behavioral feature of the subject at the present time and the behavioral features registered in the database, The behavior analysis device includes: a determination unit that determines whether an accident may occur; and a warning unit that issues a warning when the determination unit determines that an accident may occur.
[0008]
A second invention is a behavior analysis device for analyzing the behavior of a subject performing a specific task, wherein the behavior characteristic of the subject is determined based on at least the amount of exercise measured by the at least one subject. A feature creating means for creating an event, a registering means for registering a behavioral feature when an accident occurs in a database, a comparing means for comparing a subject's behavioral feature with the behavioral feature registered in the database at the present time, and a comparison result of the comparing means. The behavior analysis device includes: a determination unit configured to determine whether or not an accident may occur based on the determination unit; and a warning unit that issues a warning when the determination unit determines that an accident may occur.
[0009]
A third aspect of the present invention is a behavior analysis device for analyzing the behavior of a subject performing a specific task, wherein the behavior analysis device measures at least the activity of the subject, and the behavior characteristics of the subject based on the amount of exercise measured by the activity measurement means. A behavior analysis device comprising: a feature creation unit that creates a database; a database in which behavior characteristics when an accident occurs are registered; and an analysis unit that analyzes the behavior characteristics registered in the database to extract an accident occurrence factor. .
[0010]
A fourth invention is a behavior analysis device for analyzing the behavior of a subject performing a specific task, wherein the behavior analysis device analyzes the activity of the subject based on at least the amount of exercise measured by the at least one subject. A behavior analysis apparatus, comprising: a feature creation unit that creates an event, a registration unit that registers a behavior feature when an accident occurs in a database, and an analysis unit that analyzes the behavior feature registered in the database and extracts a factor that caused the accident. It is.
[0011]
[Action]
In the behavior analysis device according to the first aspect, the exercise amount of the subject performing a specific task is measured by the exercise amount measurement unit. A behavior characteristic of the subject is created based on the measured amount of exercise, and a database in which the behavior characteristic when an accident (accident) occurs is registered in advance is provided. For example, the behavior characteristics of the subject at a certain time point (current time) are created and compared with the behavior characteristics registered in the database. As a result of the comparison, it is determined whether or not an accident is likely to occur, and if an accident is likely to occur, a warning is issued. That is, occurrence of an accident is predicted and avoided in advance.
[0012]
According to the second invention, unlike the first invention, the database does not include a database in which the behavior characteristics when an accident occurs are registered in advance, but the registration means registers such behavior characteristics in the database. The other configuration is the same.
[0013]
For example, in the first invention or the second invention, the approximation degree calculating means calculates the approximation degree between the current behavioral characteristic of the subject and the behavioral characteristic registered in the database. When the threshold value is larger than the threshold value, it is determined that an accident may occur. That is, a warning can be issued when an action feature similar to the action feature at the time of the occurrence of the accident is acquired.
[0014]
In addition, as the amount of exercise, the number of steps and the inclination angle of the body of the subject are measured by the number-of-steps measuring means and the angle measuring means, so that a feature vector including these as elements can be created.
[0015]
Therefore, if the first dictionary including at least the average value of all the feature vectors registered in the database is created, it is possible to calculate the similarity by calculating the Euclidean distance between the subject's feature vector and the average value at the present time. it can.
[0016]
In addition, if a second dictionary including an average value, a covariance matrix, an eigenvalue matrix of the covariance matrix, and an eigenvector of the eigenvalue matrix of all the feature vectors registered in the database is created, the characteristics of the subject at the present time can be obtained. It is also possible to calculate the degree of approximation by obtaining the likelihood between a vector and its average value, covariance matrix, eigenvalue matrix, and eigenvector.
[0017]
In the behavior analysis device of the third invention, the exercise amount of the subject who performs a specific task is measured by the exercise amount measuring means. A behavior characteristic of the subject is created based on the measured amount of exercise, and a database is provided in which the behavior characteristic when an accident (accident) occurs is registered. The analysis means analyzes a behavior characteristic when an accident occurs and extracts a factor of the accident.
[0018]
According to a fourth aspect, unlike the third aspect, the database does not include a database in which the behavior characteristics when an accident occurs are registered in advance, but the registration means registers such behavior characteristics in the database. The other configuration is the same.
[0019]
For example, in the third invention or the fourth invention, as the amount of exercise, the number of steps and the inclination angle of the body of the subject are measured by the number-of-steps measuring means and the angle measuring means. can do.
[0020]
Therefore, the first scatter matrix and the first variance matrix are obtained using the first average value of all the feature vectors registered in the database and the first occurrence probability of the accident, and the inverse matrix of the first scatter matrix and the first scatter matrix are obtained. An accident occurrence factor can be extracted based on a magnitude of a coefficient of a first eigenvector of a matrix obtained by a product with a variance matrix. That is, it is possible to know the accidents that are likely to occur and the causes thereof, and based on this, it is possible to improve the work such as reviewing the staffing and the work shift.
[0021]
When there are a plurality of subjects, if a feature vector is associated with a subject, a feature vector for a specific subject is extracted, and as described above, an accident generation factor for each subject is extracted. You can also. In other words, it is possible to know an accident that is likely to occur in a specific subject and the cause thereof.
[0022]
In addition, if a voice recording means for recording the voice of the subject and a camera for photographing the subject are provided, the work content of the subject can be specified from the recorded voice and the captured video. Therefore, the feature vector created based on the amount of exercise and the identified task content can be associated and registered in the database.
[0023]
For this reason, the second scattering matrix and the second variance matrix are obtained by using the second average value of the feature vector for the specific task and the second occurrence probability of an accident in the specific task content, and the second scattering matrix is calculated. Based on the magnitude of the coefficient of the second eigenvector for the matrix obtained by the product of the inverse matrix and the second variance matrix, it is possible to extract the cause of the accident in the specific business content. That is, it is possible to know an accident that is likely to occur in a specific job content and its cause.
[0024]
【The invention's effect】
According to the present invention, occurrence of an accident is predicted and avoided, so that occurrence of an accident can be prevented.
[0025]
According to another aspect of the present invention, the cause of the accident can be known, so that the business can be improved so as to eliminate the cause.
[0026]
The above and other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
[0027]
【Example】
Referring to FIG. 1, a
[0028]
Although not shown, a surveillance camera that can record digital data of video (and audio) directly on a hard disk (not shown) of the
[0029]
Further, a plurality of databases (DB) are connected to the
[0030]
The
[0031]
In such nurse data, contents other than the accident / incident are acquired from data measured by the measuring device 30 (see FIG. 5) described later or ward event data recorded in the
[0032]
In the accident / incident column, the details of an accident such as a medical error described by the nurse in the daily work report, etc., and the details of an incident that did not cause a medical error, but did not occur, were separately input (description). ) Is done. That is, in this embodiment, the incident is a concept including not only an accident but also a chilled event. For example, a fallen event corresponds to a fall of a patient.
[0033]
For example, from the nurse data shown in FIG. 2 (A), the nurse (Natsuko OO) indicates that the patient (△△ Winter) has been on the date of October 25, 2002 (Friday) from 10:20 to 2:05. Man), the number of steps was 456 steps, the number of inclines was 35, and it was found that there was no medical mistake or the like at the time of temperature measurement.
[0034]
However, in this embodiment, as shown in FIG. 2 (B), for the convenience of creating the behavior feature vector and the data of the nursing service behavior dictionary described later, the contents of the nurse, patient, nursing service, and incident / incident are as follows. The category number is described. That is, tables such as those shown in FIGS. 3A and 3B and FIGS. 4A and 4B are recorded on a hard disk (not shown) of the
[0035]
FIG. 3A is an illustrative view showing a table of nurse categories, and nurse names (** Haruko, OO Natsuko,...) Corresponding to nurse category numbers (n = 1, 2,..., N). , △△ Toko) are described. FIG. 3B is an illustrative view showing a table of patient categories, and the patient names (** Haruo, OO Natsuo,...) Corresponding to the patient category numbers (k = 1, 2,..., K). Δ △ Fuyuo) is described. FIG. 4A is an illustrative view showing a table of the nursing service category, and the contents of the nursing service (patient visits, observation of medical conditions, and the like) corresponding to the nursing service category numbers (z = 1, 2,..., Z). …, Discharge guidance) is described. FIG. 4B is an illustrative view showing a table of an incident / incident category, and the contents of the incident / incident (accident / accident) corresponding to the incident / incident category number (h = 1, 2,..., H). No incident, patient fall, ..., injection mistake).
[0036]
The
[0037]
For example, when the detection data is input, the
[0038]
Further, the behavior
[0039]
(Equation 1)
F = (p1, P2, ..., pi, ... pI, Θ1, Θ2,…, Θi, ... θI,
s1, S2, ..., si, ... sI)
Where pi, ΘiAnd siIs the time t = t1From t = t1In the case where the section up to + T is equally divided into I pieces set in advance, the step frequency (p) obtained by averaging the number of steps in the divided section per unit timei), The average value of the inclination angles obtained by averaging the inclination angles in the divided section per unit time (θi) And the standard deviation (si).
[0040]
Note that, in this embodiment, as the degree of fatigue of the nurse increases, the average value of the number of steps will vary, and the variation in the change in the body inclination angle per unit time will increase. The frequency, the average value of the inclination angle, and the standard deviation of the inclination angle are used as the elements of the behavior feature vector.
[0041]
Further, the nursing service
[0042]
FIG. 5 is a block diagram showing a specific configuration of the measuring
[0043]
The measuring
[0044]
In FIG. 6, the
[0045]
For example, when recording is started by the
[0046]
On the other hand, if the
[0047]
However, when the voice recording mode is set, the mode is returned to the measurement mode when a predetermined time (10 seconds in this embodiment) elapses or when the
[0048]
Therefore, in the
[0049]
Further, the
[0050]
Since the specific configuration of the
[0051]
In this embodiment, the audio signal is recorded using the
[0052]
For example, when the nurse (n) visits the patient k, the content of the nurse (nurse category number n) saying "I am going to visit the patient (patient)." Voice data is recorded for each of the number of steps while the patient k reciprocates in the hospital room and the angle (tilt angle) when the upper body is tilted while reciprocating in the hospital room. Further, time data of the recording start time and the recording end time are added to the audio data.
[0053]
Such voice data, voice data on the number of steps and the angle of inclination, and time data added thereto (hereinafter, these may be referred to as “measurement data”) are used for all the daily tasks of the nurse (n). Is obtained about. As shown in FIG. 1, the
[0054]
The
[0055]
For example, if a specific nurse is made to use a specific (same)
[0056]
The voice data of the nurse's voice included in each measurement data is converted into an analog voice signal, and then subjected to voice recognition processing. Business is specified. That is, the
[0057]
Note that, in this embodiment, the plurality of utterances are utterances related to nursing work, and voice signals of the utterances related to the plurality of nursing work are recorded (recorded) by a nurse inputting speech in advance. However, in order to efficiently recognize individual utterances, a dictionary for speech recognition is provided for each nurse.
[0058]
Therefore, the
[0059]
However, since it is necessary to accurately specify the patient name and the contents of the nursing service, the utterance having the highest degree of approximation (first) and the next highest degree of approximation (first The second utterance is extracted, and the validity (reliability) of recognition of the first utterance is determined based on the first utterance and the second utterance.
[0060]
That is, the patient name (first patient name) specified from the first utterance and the contents of the nursing service (first nursing service) are extracted, and the patient name specified from the second utterance (first patient name) is extracted. Each of the second patient name) and the content of the nursing service (second nursing service) is extracted. Next, the degree of approximation (distance value) between the first patient name and the second patient name and the distance value between the first nursing service and the second nursing service are calculated. Here, the distance value refers to the degree to which the pronunciation of a word (word) is approximated. For example, "Ito" and "Kito" have a high degree of approximation (small distance value), but "Ito" and "Tanaka" have a low degree of approximation (distance Value is large).
[0061]
Therefore, when the distance value between patient names and the distance value between nursing services are smaller than a preset threshold value (first threshold value), the first utterance and the second utterance are similar. Therefore, it can be said that the reliability of the recognition result is low. On the other hand, when the distance value between the patient names and the distance value between the nursing services are larger than the first threshold, the utterance of the first place and the utterance of the second place are not approximate, and the reliability of the recognition result is low. It can be said that the degree is high.
[0062]
In this embodiment, when both the distance value between the patient names and the distance value between the nursing services are small, it is determined that the first utterance and the second utterance are similar, and the recognition result Although the reliability is considered to be low, the reliability of the recognition result may be considered to be low when one of the distance values is small.
[0063]
When the reliability of the recognition result is high, the patient name and the contents of the nursing work included in the first-ranked utterance are extracted (adopted) and used for creating nurse data. On the other hand, when the reliability of the recognition result is low, the patient name and the contents of the nursing service included in the first-ranked utterance are excluded (rejected), and based on the ward event data recorded in the
[0064]
However, when the patient name and the contents of the nursing work are individually specified by voice recognition, only the distance value smaller than the first threshold value from the voice recognition result is determined based on the ward event data. What is necessary is just to specify.
[0065]
That is, the ward event data at the time indicated by the time data transferred from the
[0066]
The patient (name) can be easily specified from the installation location of the
[0067]
However, in such identification by image processing, the data amount is enormous and it takes time. For example, a mark different for each nurse is attached to clothes worn by the nurse, and the mark is marked. What is necessary is just to identify from the image data and to identify a nurse. In such a case, a high recognition rate can be obtained by increasing the contrast between the nurse's clothes and the mark.
[0068]
Further, the contents of the nursing operation performed by the nurse are specified from the detection data and the image data. For example, by detecting the use of a thermometer based on the detection data and detecting the operation of the nurse handing the thermometer to the patient or receiving the thermometer from the patient based on the image data, the content of the nursing work "temperature measurement" Is specified.
[0069]
In order to identify the contents of the nurse's work from the image data, images of the nurses performing various nursing work are taken in advance, and the image of the taken image and the image data included in the ward event data are taken. By performing the comparison, the content of the nursing service can be estimated, and the content of the nursing service can be determined (specified) from the instrument used at that time based on the detection data.
[0070]
In this way, the patient name and the contents of the nursing service can be specified from the ward event data. As a procedure, the
[0071]
The sound data about the number of steps and the inclination angle included in each measurement data is demodulated by the
[0072]
Further, the data to be input in the items of time and time included in the nurse data is determined from the time data added to the voice data. That is, the time column describes the recording start time included in the time data, and the time column describes a value (time) obtained by subtracting the recording start time from the recording end time.
[0073]
After that, information on the incident / incident is obtained from the daily work report, and added to the nurse data using an input device (keyboard or computer mouse) not shown by the administrator of the
[0074]
Specifically, the
[0075]
On the other hand, if “YES” in the step S1, that is, if the task measurement data is received, in a step S3, as described above, the MAC address of the semiconductor memory provided in the
[0076]
In the following step S5, the first (in this embodiment, the earliest time) measurement data is extracted. Subsequently, in step S7, a voice recognition process is performed. That is, the voice data on the voice of the nurse included in the extracted measurement data is converted into an analog signal to recognize the contents of the utterance of the nurse.
[0077]
When the content of the utterance of the nurse is recognized, in step S9, distance values for each of the patient names and nursing tasks included in the first and second utterances are detected from the recognition result, Determine if there is a reject.
[0078]
If “YES” in the step S9, that is, if there is a reject, in a step S11, the ward event data in the same time zone as the measured data is read from the
[0079]
In step S17, each item of the nurse data is input. That is, a nurse name (nurse category number), date, time, patient name (patient category), contents of nursing work (nursing work category number), number of steps, number of inclines and time are input.
[0080]
However, the nurse category number and date need only be input for the first time, and thereafter, items other than the nurse category number and date are input (added) as needed.
[0081]
Note that the number of steps and the number of inclines are obtained by demodulating the audio data included in the measurement data, and may be demodulated in the process of step S17. Alternatively, demodulation may be performed after the measurement data is obtained in step S5 and before the processing in step S17 is performed.
[0082]
In a succeeding step S19, it is determined whether or not there is next measurement data (in this embodiment, the next earlier time). If "YES" in the step S19, that is, if there is the next measurement data, the next measurement data is extracted from the business measurement data in a step S21, and the process returns to the step S7. That is, by repeating the processing from step S7 to step S21, nursing data as shown in FIG. 2B is created.
[0083]
On the other hand, if “NO” in the step S19, that is, if there is no next measurement data, it is determined that the creation of the nurse data for the nurse has been completed, and in step S23, the created nurse data is After recording (registering) in the
[0084]
After that, the items of the incident / incident are input to the nurse data by the operation of the administrator or the like of the
[0085]
In this embodiment, when the patient name and the contents of the nursing service cannot be specified by voice recognition, the patient name and the contents of the nursing service are specified based on the ward event data. If it is not possible to specify the patient name and the contents of the nursing work based on the information, the manager of the
[0086]
In this way, nurse data for a certain nurse is created, and nurse data for another nurse is created in the same manner. Thereafter, the
[0087]
Specifically, the
[0088]
In a succeeding step S33, the first job data included in the read nurse data is extracted. Here, the work data refers to the data of each item (for one row) for one work of the nurse data shown in FIG. 2 (B). Further, in this embodiment, in order to extract the business data in the order of earlier time, in step S33, the business data in the column where 10:20 is described in the time column is extracted. At this time, data of the inclination angle recorded corresponding to the data of the number of times of inclination included in the business data is also read.
[0089]
Next, in step S35, the data of the number of steps and the data of the number of inclines included in the extracted business data are divided at predetermined intervals (time intervals), and the data of the inclination angle read together with the business data are divided at predetermined intervals. I do. In step S37, an action feature vector Fx (where x is a natural number and the first time is 1) is created from the number of steps, the number of times of inclination, and the angle of inclination, as shown in
[0090]
In a succeeding step S39, it is determined whether or not there is next business data. That is, it is determined whether there is temporally next business data in the business data included in the nurse data. If “YES” in the step S39, that is, if there is the next task data, in a step S41, the next task data is extracted from the nurse data, and the process returns to the step S35. That is, by repeating the processing from step S35 to step S41, it is possible to create the action feature vectors F1, F2, ..., Fx, ..., FX for all the work data of the nurse category number (n).
[0091]
On the other hand, if “NO” in the step S39, that is, if there is no next business data, the generated action feature vectors F1, F2,..., Fx,.
[0092]
Subsequently, in a step S45, it is determined whether or not there is the next nurse data. If “NO” in the step S45, that is, if there is no next nurse data, it is determined that the action feature vectors have been created for all the nurse data, and the process is ended. On the other hand, if “YES” in the step S45, that is, if there is the next nurse data, the next nurse data is read from the
[0093]
In this manner, the behavior feature vector Fx is created for each of the nurse data. The data of the behavior feature vector Fx further includes a nurse category number n, a nursing service category number z, a patient category number k, and an accident. -Information on the incident category number h is attached as a label. Since such information is obtained from the nurse data, it can be added when the action feature vector Fx is created in step S37 described above. Alternatively, a manager or the like of the behavior feature vector DB 22 (the analyzer 10) may add (add) a label after the creation processing of the behavior feature vector Fx is completed. Therefore, strictly speaking, the action feature vector F (F1, F2, F3,..., Fx) is recorded in the action
[0094]
The dictionary data described above is created by, for example, the
[0095]
<Specific accident dictionary data>
A feature vector Fx to which a label of a specific accident / incident (hereinafter simply referred to as “accident”) category number h (h ≠ 1) is added is obtained from the action
[0096]
(Equation 2)
Mh= [(X11 + x21 + ... + xn1) / N, (x12 + x22 + ... + xn2) / N, ..., (x1m + x2m + ... + xnm) / N]
However, the behavior feature vector is m-dimensional (three-dimensional in this embodiment), and X1 = [x11, x12, x1] for n (I in Example 1) samples X1 to Xn belonging to the accident category number h. ..., x1m]T, ..., Xn = [xn1, xn2, ..., xnm]TAnd The subscript “T” means transposition of a matrix. Hereinafter, the same applies to this embodiment.
[0097]
(Equation 3)
Σh= [X1-Mh] X [X1-Mh]T+ [X2-Mh] X [X2-Mh]T+ ... + [Xn-Mh] X [Xn-Mh]T
[0098]
(Equation 4)
det | Σh−λhE | = 0
Here, E is a unit matrix.
[0099]
The solution obtained by equation (4), that is, the eigenvector Φh= (Λ1, Λ2,…, Λm) Are arranged as diagonal components, as shown in
[0100]
(Equation 5)
[0101]
In addition, for all accident category numbers h, the scattering matrix W in the accident categoryhMatrix B between と and the accident categoryhIs obtained according to
[0102]
(Equation 6)
[0103]
(Equation 7)
[0104]
However, the probability of occurrence of an accident is obtained by dividing the number of action feature vectors having the label of the corresponding (specific) accident h by the number of all action feature vectors having the label of the accident h (h ≠ 1). Can be calculated. Hereinafter, the same applies to this embodiment.
[0105]
That is, the dictionary data of the specific accident includes the average vector M for each accident h.h, The covariance matrix Σh, The eigenvector Φh, ΣhEigenvalue matrix ΛhAnd the scattering matrix W in the accident category and the variance matrix B between the accident categories for all accident category numbers hhIs recorded.
[0106]
<Specific accident dictionary data for specific patients>
The behavior feature vector Fx having the label of the specific patient k is acquired from the behavior feature vector DB22, and using the acquired behavior feature vector Fx, for each accident category (h), the average vector is calculated according to
[0107]
Also, for all patients k, the scattering matrix W in the patient categorykMatrix B between the patient category andkAre obtained according to
[0108]
(Equation 8)
[0109]
(Equation 9)
[0110]
That is, the specific accident dictionary data for the specific patient includes the average vector M for each patient.kh, The covariance matrix Σkh, The eigenvector Φkh, ΣkhEigenvalue matrix Λkh, The scattering matrix W in the patient categorykAnd variance matrix B between patient categorieskIs recorded.
[0111]
<Specific accident dictionary data for specific nurses>
An action feature vector Fx having a label of a specific nurse (n) is obtained from the action feature vector DB22, and by using the obtained action feature vector Fx, for each accident category (h), , The average vector Mnh, The covariance matrix Σnh, The eigenvector ΦnhAnd ΣnhEigenvalue matrix ΛnhIs required.
[0112]
Also, for all nurses (n), the scattering matrix W in the nurse categorynMatrix B between the nurse category andnAre obtained according to
[0113]
(Equation 10)
[0114]
[Equation 11]
[0115]
That is, the specific accident dictionary data for the specific nurse includes the average vector M for each nurse.nh, The covariance matrix Σnh, The eigenvector Φnh, ΣnhEigenvalue matrix Λnh, The scattering matrix W in the nurse categorynMatrix B between nurse and nurse categoriesnIs recorded.
[0116]
<Specific accident dictionary data for specific tasks>
The behavior feature vector Fx having the label of the specific nursing task z is acquired from the behavior feature vector DB22, and by using the acquired behavior feature vector, for each accident category (h), the average vector Mzh, The covariance matrix Σzh, The eigenvector ΦzhAnd ΣzhEigenvalue matrix ΛzhAre required respectively.
[0117]
For all nursing services z, the scattering matrix W in the nursing service categoryzMatrix B between the medical and nursing business categorieszAre obtained according to
[0118]
(Equation 12)
[0119]
(Equation 13)
[0120]
That is, the specific accident dictionary data on the nursing service includes the average vector M for each nursing service.zh, The covariance matrix Σzh, The eigenvector Φzh, ΣzhEigenvalue matrix Λzh, The scattering matrix W in the nursing business categoryzMatrix B between healthcare and nursing business categorieszIs recorded.
[0121]
<Specific accident dictionary data by occurrence time>
An action feature vector F having a label of an accident h (h ≠ 1) is obtained from the action
[0122]
For the j-th section, the scattering matrix W in the time section categoryjMatrix B between the time interval category andjAre obtained according to
[0123]
[Equation 14]
[0124]
[Equation 15]
[0125]
That is, the specific accident dictionary data for each occurrence time includes the average vector M for each occurrence time of the accident.hj, The covariance matrix Σhj, The eigenvector Φhj, ΣhjEigenvalue matrix Λhj, The scattering matrix W in the time interval categoryjAnd variance matrix B between time interval categoriesjIs recorded.
[0126]
In this way, various dictionary data can be created based on the behavior feature vector created for each nurse.
[0127]
For example, after creating such dictionary data, an action feature vector of the nurse (n) at a certain time point is extracted using these dictionary data to determine whether an accident may occur. Judge and, if there is a possibility of an accident, give a warning directly to the nurse (n) and / or a manager such as a nurse, and change or break the nurse (n) Can be encouraged. That is, it is possible to prevent the occurrence of an accident beforehand. Note that the warning may be issued at the nurse's office.
[0128]
In brief, the
[0129]
The
[0130]
As a method of issuing a warning, when a nurse is directly warned (the same is true when a nurse is directly warned), in addition to the measuring
[0131]
When a warning is issued indirectly to a nurse or a nurse or when a warning is issued to a nurse's house, an output device such as a display or a speaker connected to the
[0132]
Specifically, the
[0133]
Note that, as described above, after the dictionary data is created, the measurement data is transmitted from the
[0134]
In the following step S55, voice data and time data on the number of steps and the inclination angle are extracted, and in step S57, the action feature vector F as shown in
[0135]
In the next step S59, referring to the nursing service
[0136]
(Equation 16)
dh(F) = || FMh||2
Here, || · || represents a norm.
[0137]
Alternatively, the action feature vector F created in step S57 and the average vector M for each accident (h) included in the specific accident dictionary datah, The covariance matrix Σh, The eigenvector Φh, ΣhEigenvalue matrix ΛhAnd the likelihood gh(F) is calculated according to Equation 17, and the likelihood ghThe accident h that maximizes (F) may be specified.
[0138]
[Equation 17]
[0139]
As described above, in step S59, the Euclidean distance and the likelihood are calculated in order to specify the accident (h), but these are selectively adopted by a designer or a programmer. For example, when the time for specifying the accident (h) is to be shortened, the calculation of the Euclidean distance is employed, and when the accuracy for specifying the accident (h) is to be increased, the calculation of the likelihood is employed. .
[0140]
Then, in a step S61, it is determined whether or not an accident may occur. That is, it is determined whether or not the distance (minimum distance) from the accident h specified in step S59 is equal to or smaller than a preset threshold (second threshold), and whether or not an accident may occur is determined. Alternatively, it is determined whether or not the likelihood (maximum likelihood) with the specified accident h exceeds a preset threshold (third threshold) to determine whether or not an accident may occur.
[0141]
The
[0142]
If “NO” in the step S61, that is, if it is determined that there is no possibility that an accident occurs, the process is ended as it is. On the other hand, if “YES” in the step S61, that is, if it is determined that there is a possibility that an accident may occur, a warning is issued to a nurse or a nurse or both in a step S63, and the process ends.
[0143]
In this accident analysis process, only the case where specific accident dictionary data is used has been described. However, the same process can be performed when other dictionary data is used.
[0144]
In addition, the cause of the accident can be analyzed using each dictionary data. Specifically, the
[0145]
However, since the analysis process of the accident factor is the same regardless of which dictionary data is used, in this embodiment, only the process using the specific accident dictionary data will be described. A description of the processing using data will be omitted.
[0146]
As shown in FIG. 10, when the accident factor analysis process is started, in step S71, the scattering matrix W in the accident category included in the specific accident dictionary data is obtained.hAnd accident category variance matrix BhAnd the matrix W-1The eigenvalue matrix の and the eigenvector の of B (for convenience, the subscript “h” is omitted) are calculated. However, the superscript “−1” means an inverse matrix.
[0147]
The method of calculating the eigenvalue matrix Γ and the eigenvector Ψ is described in Keisuke Fukunaga: “Introduction to Statistical Pattern Recognition Second Edition”, Academic Press, pp. 146-64. 446-450, 1990, the description of which is omitted in this embodiment.
[0148]
In a succeeding step S73, the eigenvector φ1 of the eigenvector matrix Φ corresponding to the largest eigenvalue γ1 in the eigenvalue matrix Γ is selected as a main component. Here, since the eigenvector φ1 included in the eigenvector matrix Φ is normalized (referred to as an orthonormal vector) so that the magnitude (square of φ1) becomes 1, each coefficient (positive or negative or 0 value) of φ1 is used. If there is an eigenvector φ1 (i) of an element i having a large absolute value, it can be said that the eigenvector φ1 (i) is a factor that causes or does not cause an accident. In other words, the direction of the eigenvector φ1 may be inverted depending on the method of deriving the eigenvector, so that the sign of the element φ1 (i) does not matter and its magnitude is important.
[0149]
Subsequently, in step S75, a factor load L is calculated. That is, when the eigenvector φ1 = [φ11, φ12,..., Φ1n], the factor load L is calculated according to
[0150]
(Equation 18)
[0151]
Then, in step S77, the axis Fi of the feature vector space in which the absolute value of the factor load L is large is extracted and output to, for example, a display (not shown) connected to the
[0152]
That is, from the factor load L, it is possible to know which of the variables of the original observation vector (eigenvector φ1) most contributes to the factor of the principal component. Thereby, it is possible to know the variable of the observation vector to which the factor of the accident contributes. Therefore, a business (environment) improvement proposal can be considered so as to reduce or increase the variables of the observation vector, that is, to reduce a feature vector component having a large absolute value of the factor L1i of the factor load.
[0153]
When such an accident factor analysis process is performed using each dictionary data, the following accident factors can be known. When the specific accident dictionary data is used, it is possible to know the accidents and the factors that are likely to occur in the hospital regardless of who the nurse is. In addition, when specific accident dictionary data for a specific patient is used, it is possible to know the accidents that are likely to occur for each patient and the factors thereof. Furthermore, when the specific accident dictionary data for the specific nurse is used, it is possible to know the accident that is likely to occur for each nurse and the cause thereof. Furthermore, when specific accident dictionary data for a specific job is used, it is possible to know the accidents that are likely to occur for each nursing job and the factors thereof. In addition, when the specific accident dictionary data for each occurrence time is used, it is possible to know the time when the accident is likely to occur in the hospital, the accident and the cause thereof.
[0154]
For example, when it is analyzed that the factor of the accident is the number of steps, working hours, and the like, it is possible to improve the work such as reviewing the arrangement of the hospital rooms and the shift of nurses. That is, it is possible to improve nursing work, review staffing, and improve medical facilities.
[0155]
According to this embodiment, the behavioral characteristics of each nurse are acquired in advance, and the occurrence of accidents is predicted and avoided by comparison with the behavioral characteristics at a certain point in time, so that medical accidents can be prevented beforehand. Can be.
[0156]
In addition, since the cause of the occurrence of an accident such as a medical accident is analyzed from the behavioral characteristics of the nurse, it is possible to improve business operations to avoid the cause.
[0157]
In this embodiment, in order to objectively know the degree of fatigue of the nurse, the number of steps and the inclination angle of the nurse are detected, and the behavior feature vector is created based on the detected steps. The number, the blood sugar level, and the like may be detected, and these may be added to the element of the behavior feature vector.
[0158]
Further, in this embodiment, only the case where the behavior analysis device is applied to a nurse job has been described, but such a behavior analysis device can be applied to other jobs. For example, it is possible to analyze the behavior of doctors performing medical activities, maintenance guards at nuclear power plants, factory workers, and helpers (caregivers) in the home care industry. To give an example, when analyzing the behavior of a factory worker, a tactile sensor or camera can be placed in the factory, a measurement device can be attached to the worker, and behavior characteristics can be acquired. By acquiring the behavior characteristics of the workers, it is possible to prompt a change or a break, thereby avoiding the occurrence of an accident. Also, dictionary data can be created and analyzed from the acquired behavioral features to improve operations, review staffing, and improve factory equipment.
[Brief description of the drawings]
FIG. 1 is a block diagram showing an example of a configuration of an analyzer according to the present invention.
FIG. 2 is an illustrative view showing one example of nurse data recorded in a nurse DB shown in FIG. 1 embodiment;
FIG. 3A is an illustrative view showing classification of a nurse category, and FIG. 3B is an illustrative view showing classification of a patient category;
FIG. 4A is an illustrative view showing classification of a nursing service category, and FIG. 4B is an illustrative view showing classification of an accident / incident category;
FIG. 5 is a block diagram showing an example of a configuration of a measuring device mounted on a nurse.
FIG. 6 is an illustrative view showing a state where the measuring device shown in FIG. 3 is mounted on a nurse.
FIG. 7 is a flowchart showing a process of creating nurse data by the computer shown in FIG. 1 embodiment.
FIG. 8 is a flowchart showing a process of creating a behavior feature vector by the computer shown in FIG. 1 embodiment.
FIG. 9 is a flowchart showing an accident analysis process of the computer shown in FIG. 1 embodiment.
FIG. 10 is a flowchart showing an accident factor analysis process of the computer shown in FIG. 1 embodiment.
[Explanation of symbols]
10 ... behavior analyzer
12… Computer
14… Tactile sensor
16… Camera
18 ... Nurse DB
20… ward event DB
22 ... action feature vector DB
24… Nursing business action dictionary DB
30… Measuring device
32… IC recorder
38… Microphone
40 ... non-contact sensor
42… Pedometer
44… Inclination angle sensor
Claims (12)
少なくとも前記被験者の運動量を計測する運動量計測手段、
前記運動量計測手段によって計測された運動量に基づいて前記被験者の行動特徴を作成する特徴作成手段、
アクシデントが発生したときの前記行動特徴が登録されたデータベース、
現時点における前記被験者の行動特徴と前記データベースに登録された行動特徴とを比較する比較手段、
前記比較手段の比較結果に基づいてアクシデントが発生する可能性の有無を判断する判断手段、および
前記判断手段によってアクシデントが発生する可能性があると判断されたとき、警告を発する警告手段を備える、行動分析装置。A behavior analysis device for analyzing the behavior of a subject performing a specific task,
Exercise amount measuring means for measuring at least the exercise amount of the subject,
Feature creating means for creating behavioral features of the subject based on the amount of exercise measured by the exercise amount measuring means,
A database in which the behavior characteristics when an accident occurs are registered,
Comparing means for comparing the behavior characteristics of the subject at the present time with the behavior characteristics registered in the database;
Determining means for determining the possibility of an accident based on the comparison result of the comparing means, and warning means for issuing a warning when it is determined that the possibility of an accident is determined by the determining means, Behavior analysis device.
少なくとも前記被験者の運動量を計測する運動量計測手段、
前記運動量計測手段によって計測された運動量に基づいて前記被験者の行動特徴を作成する特徴作成手段、
アクシデントが発生したときの前記行動特徴をデータベースに登録する登録手段、
現時点における前記被験者の行動特徴と前記データベースに登録された行動特徴とを比較する比較手段、
前記比較手段の比較結果に基づいてアクシデントが発生する可能性の有無を判断する判断手段、および
前記判断手段によってアクシデントが発生する可能性があると判断されたとき、警告を発する警告手段を備える、行動分析装置。A behavior analysis device for analyzing the behavior of a subject performing a specific task,
Exercise amount measuring means for measuring at least the exercise amount of the subject,
Feature creating means for creating behavioral features of the subject based on the amount of exercise measured by the exercise amount measuring means,
Registration means for registering the behavior characteristic when an accident occurs in a database,
Comparing means for comparing the behavior characteristics of the subject at the present time with the behavior characteristics registered in the database;
Determining means for determining the possibility of an accident based on the comparison result of the comparing means, and warning means for issuing a warning when it is determined that the possibility of an accident is determined by the determining means, Behavior analysis device.
前記判断手段は、前記近似度算出手段によって算出された近似度が所定の閾値よりも大きいとき、アクシデントが発生する可能性があると判断する、請求項1または2記載の行動分析装置。The comparing means includes an approximation degree calculating means for calculating an approximation degree between the behavior characteristic of the subject at the present time and the behavior characteristic registered in the database,
The behavior analysis device according to claim 1, wherein the determination unit determines that an accident may occur when the degree of approximation calculated by the degree of approximation calculation unit is greater than a predetermined threshold.
前記特徴作成手段は、少なくとも前記歩数計測手段によって計測される歩数および前記角度計測手段によって計測される傾斜角を要素とする特徴ベクトルを作成するベクトル作成手段を含む、請求項1ないし3のいずれかに記載の記載の行動分析装置。The exercise amount measurement unit includes a step number measurement unit that measures the number of steps of the subject, and an angle measurement unit that measures an inclination angle of the body of the subject,
4. The method according to claim 1, wherein the feature creating unit includes a vector creating unit that creates a feature vector having at least the number of steps measured by the step counting unit and the inclination angle measured by the angle measuring unit as elements. The behavior analysis device according to the above.
前記近似度算出手段は、現時点における前記被験者の特徴ベクトルと前記平均値とのユークリッド距離を求めて前記近似度を算出する、請求項4記載の行動分析装置。A first dictionary creating unit that creates a first dictionary including at least an average value of all the feature vectors registered in the database,
The behavior analysis device according to claim 4, wherein the approximation degree calculating means calculates the approximation degree by obtaining a Euclidean distance between the subject's feature vector and the average value at the present time.
前記近似度算出手段は、現時点における前記被験者の特徴ベクトルと前記平均値、前記共分散行列、前記固有値行列および前記固有ベクトルとの尤度を求めて前記近似度を算出する、請求項4記載の行動分析装置。A second dictionary creating unit that creates a second dictionary including an average value of all the feature vectors registered in the database, a covariance matrix, an eigenvalue matrix for the covariance matrix, and an eigenvector for the eigenvalue matrix. ,
The behavior according to claim 4, wherein the approximation degree calculating means calculates the degree of approximation by obtaining a likelihood between the subject's feature vector and the average value, the covariance matrix, the eigenvalue matrix, and the eigenvector at the present time. Analysis equipment.
少なくとも前記被験者の運動量を計測する運動量計測手段、
前記運動量計測手段によって計測された運動量に基づいて前記被験者の行動特徴を作成する特徴作成手段、
アクシデントが発生したときの前記行動特徴が登録されたデータベース、および
前記データベースに登録された前記行動特徴を分析して前記アクシデントの発生要因を抽出する分析手段を備える、行動分析装置。A behavior analysis device for analyzing the behavior of a subject performing a specific task,
Exercise amount measuring means for measuring at least the exercise amount of the subject,
Feature creating means for creating behavioral features of the subject based on the amount of exercise measured by the exercise amount measuring means,
A behavior analysis device, comprising: a database in which the behavior characteristics at the time of occurrence of an accident are registered; and analysis means for analyzing the behavior characteristics registered in the database to extract the cause of the accident.
少なくとも前記被験者の運動量を計測する運動量計測手段、
前記運動量計測手段によって計測された運動量に基づいて前記被験者の行動特徴を作成する特徴作成手段、
アクシデントが発生したときの前記行動特徴をデータベースに登録する登録手段、および
前記データベースに登録された前記行動特徴を分析して前記アクシデントの発生要因を抽出する分析手段を備える、行動分析装置。A behavior analysis device for analyzing the behavior of a subject performing a specific task,
Exercise amount measuring means for measuring at least the exercise amount of the subject,
Feature creating means for creating behavioral features of the subject based on the amount of exercise measured by the exercise amount measuring means,
A behavior analysis device, comprising: a registration unit that registers the behavior feature when an accident occurs in a database; and an analysis unit that analyzes the behavior feature registered in the database and extracts a cause of the accident.
前記特徴作成手段は、少なくとも前記歩数計測手段によって計測される歩数および前記角度計測手段によって計測される傾斜角を要素とする特徴ベクトルを作成するベクトル作成手段を含む、請求項7または8記載の行動分析装置。The exercise amount measurement unit includes a step number measurement unit that measures the number of steps of the subject, and an angle measurement unit that measures an inclination angle of the body of the subject,
9. The action according to claim 7, wherein the feature creating unit includes a vector creating unit that creates a feature vector having at least the number of steps measured by the step counting unit and the inclination angle measured by the angle measuring unit as elements. Analysis equipment.
前記第1行列作成手段によって作成された第1散乱行列の逆行列と第1分散行列との積を算出する第1行列積手段をさらに備え、
前記分析手段は、前記第1行列積手段によって算出された行列についての第1固有ベクトルの係数の大きさに基づいてアクシデントの発生要因を抽出する、請求項9記載の行動分析装置。First matrix creation means for finding a first scattering matrix and a first variance matrix using first average values of all the feature vectors registered in the database and first occurrence probabilities of accidents, and creation of the first matrix First matrix multiplying means for calculating a product of the inverse matrix of the first scattering matrix created by the means and the first variance matrix,
The behavior analysis device according to claim 9, wherein the analysis unit extracts an accident occurrence factor based on a magnitude of a coefficient of a first eigenvector of the matrix calculated by the first matrix product unit.
ベクトル作成手段によって作成された特徴ベクトルと前記内容特定手段によって特定された業務内容とが関連づけて前記データベースに登録される、請求項9または10記載の行動分析装置。Voice recording means for recording the voice of the subject, a camera for photographing the subject, and specifying the task content of the subject based on one of the voice recorded by the voice recording means or the video taken by the camera Further comprising a content specifying means for
11. The behavior analysis device according to claim 9, wherein the feature vector created by the vector creation unit and the task content specified by the content specification unit are registered in the database in association with each other.
前記第2行列作成手段によって作成された第2散乱行列の逆行列と第2分散行列との積を算出する第2行列積手段をさらに備え、
前記分析手段は、前記第2行列積手段によって算出された行列についての第2固有ベクトルの係数の大きさに基づいてアクシデントの発生要因を抽出する、請求項11記載の行動分析装置。Creation of a second matrix for obtaining a second scatter matrix and a second variance matrix using a second average value of the feature vector registered in the database and associated with the specific job content and a second occurrence probability of an accident Means, and further comprising second matrix product means for calculating a product of an inverse matrix of the second scattering matrix created by the second matrix creation means and a second variance matrix,
The behavior analysis device according to claim 11, wherein the analysis unit extracts an accident occurrence factor based on a magnitude of a coefficient of a second eigenvector of the matrix calculated by the second matrix product unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002320317A JP2004157614A (en) | 2002-11-01 | 2002-11-01 | Behavior analysis system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002320317A JP2004157614A (en) | 2002-11-01 | 2002-11-01 | Behavior analysis system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004157614A true JP2004157614A (en) | 2004-06-03 |
Family
ID=32801261
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002320317A Pending JP2004157614A (en) | 2002-11-01 | 2002-11-01 | Behavior analysis system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004157614A (en) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006031445A (en) * | 2004-07-16 | 2006-02-02 | Advanced Telecommunication Research Institute International | Accident, incident report analysis system |
JP2006059054A (en) * | 2004-08-19 | 2006-03-02 | Advanced Telecommunication Research Institute International | Nursing accident warning system |
JP2006164251A (en) * | 2004-11-09 | 2006-06-22 | Toshiba Corp | Medical information system, medical information system program, and medical information processing method for performing information processing for management of medical practice |
JP2006215680A (en) * | 2005-02-02 | 2006-08-17 | Advanced Telecommunication Research Institute International | Erroneous work warning system |
JP2008009822A (en) * | 2006-06-30 | 2008-01-17 | Advanced Telecommunication Research Institute International | Warning system and warning method |
WO2009047983A1 (en) | 2007-10-10 | 2009-04-16 | Toshibainformationsystems(Japan)Corporation | Data processing device |
JP2009146345A (en) * | 2007-12-18 | 2009-07-02 | Mitsubishi Electric Information Systems Corp | Electronic medical chart system |
JP2011197759A (en) * | 2010-03-17 | 2011-10-06 | Railway Technical Research Institute | Incident information display device, incident information display method and program |
JP2012226449A (en) * | 2011-04-15 | 2012-11-15 | Toshiba Corp | Job cooperation support system and job cooperation support method |
JP2015097565A (en) * | 2013-11-18 | 2015-05-28 | 富士通株式会社 | Posture classification method, information processing apparatus, and program |
JP2018047088A (en) * | 2016-09-23 | 2018-03-29 | ソニー株式会社 | Control device, control method, and medical system |
WO2019021781A1 (en) | 2017-07-24 | 2019-01-31 | Sony Corporation | Surgical support system, information processing method, and information processing apparatus |
JP7363780B2 (en) | 2018-06-26 | 2023-10-18 | コニカミノルタ株式会社 | Report output program, report output method, and report output device |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06285046A (en) * | 1993-03-31 | 1994-10-11 | Res Dev Corp Of Japan | System for monitoring living activity |
JPH07334479A (en) * | 1994-06-08 | 1995-12-22 | Adoin Kenkyusho:Kk | Pattern sorting device and state monitoring system utilizing the device |
JPH10113343A (en) * | 1996-07-03 | 1998-05-06 | Hitachi Ltd | Method, device and system for recognizing action and behavior |
JP2000305940A (en) * | 1999-04-21 | 2000-11-02 | Nippon Telegr & Teleph Corp <Ntt> | Method and device for retrieving time series data and storage medium storing time series data retrieval program |
JP2000354943A (en) * | 1999-06-09 | 2000-12-26 | Nippon Telegr & Teleph Corp <Ntt> | Work management and support method and device, and recording medium having program therefor recorded |
JP2001325363A (en) * | 2000-05-15 | 2001-11-22 | Hitachi Plant Eng & Constr Co Ltd | Care operation support device and portable communication terminal |
JP2002024470A (en) * | 2000-07-06 | 2002-01-25 | Railway Technical Res Inst | Human error analyzing and diagnosing system and storage medium |
JP2002263086A (en) * | 2001-03-06 | 2002-09-17 | Microstone Corp | Motion measuring instrument |
JP2002279119A (en) * | 2001-03-19 | 2002-09-27 | Toshiba Corp | Business analyzing system and business analyzing method for workflow management system |
JP2002297182A (en) * | 2001-03-29 | 2002-10-11 | Sanyo Electric Co Ltd | Device and method for voice recognition |
-
2002
- 2002-11-01 JP JP2002320317A patent/JP2004157614A/en active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06285046A (en) * | 1993-03-31 | 1994-10-11 | Res Dev Corp Of Japan | System for monitoring living activity |
JPH07334479A (en) * | 1994-06-08 | 1995-12-22 | Adoin Kenkyusho:Kk | Pattern sorting device and state monitoring system utilizing the device |
JPH10113343A (en) * | 1996-07-03 | 1998-05-06 | Hitachi Ltd | Method, device and system for recognizing action and behavior |
JP2000305940A (en) * | 1999-04-21 | 2000-11-02 | Nippon Telegr & Teleph Corp <Ntt> | Method and device for retrieving time series data and storage medium storing time series data retrieval program |
JP2000354943A (en) * | 1999-06-09 | 2000-12-26 | Nippon Telegr & Teleph Corp <Ntt> | Work management and support method and device, and recording medium having program therefor recorded |
JP2001325363A (en) * | 2000-05-15 | 2001-11-22 | Hitachi Plant Eng & Constr Co Ltd | Care operation support device and portable communication terminal |
JP2002024470A (en) * | 2000-07-06 | 2002-01-25 | Railway Technical Res Inst | Human error analyzing and diagnosing system and storage medium |
JP2002263086A (en) * | 2001-03-06 | 2002-09-17 | Microstone Corp | Motion measuring instrument |
JP2002279119A (en) * | 2001-03-19 | 2002-09-27 | Toshiba Corp | Business analyzing system and business analyzing method for workflow management system |
JP2002297182A (en) * | 2001-03-29 | 2002-10-11 | Sanyo Electric Co Ltd | Device and method for voice recognition |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006031445A (en) * | 2004-07-16 | 2006-02-02 | Advanced Telecommunication Research Institute International | Accident, incident report analysis system |
JP2006059054A (en) * | 2004-08-19 | 2006-03-02 | Advanced Telecommunication Research Institute International | Nursing accident warning system |
JP4613277B2 (en) * | 2004-08-19 | 2011-01-12 | 株式会社国際電気通信基礎技術研究所 | Nursing accident warning system |
JP2006164251A (en) * | 2004-11-09 | 2006-06-22 | Toshiba Corp | Medical information system, medical information system program, and medical information processing method for performing information processing for management of medical practice |
JP2006215680A (en) * | 2005-02-02 | 2006-08-17 | Advanced Telecommunication Research Institute International | Erroneous work warning system |
JP2008009822A (en) * | 2006-06-30 | 2008-01-17 | Advanced Telecommunication Research Institute International | Warning system and warning method |
US8396911B2 (en) | 2007-10-10 | 2013-03-12 | Toshiba Information Systems (Japan) Corporation | Data processing device |
WO2009047983A1 (en) | 2007-10-10 | 2009-04-16 | Toshibainformationsystems(Japan)Corporation | Data processing device |
JP2009146345A (en) * | 2007-12-18 | 2009-07-02 | Mitsubishi Electric Information Systems Corp | Electronic medical chart system |
JP4585565B2 (en) * | 2007-12-18 | 2010-11-24 | 三菱電機インフォメーションシステムズ株式会社 | Electronic medical record system |
JP2011197759A (en) * | 2010-03-17 | 2011-10-06 | Railway Technical Research Institute | Incident information display device, incident information display method and program |
JP2012226449A (en) * | 2011-04-15 | 2012-11-15 | Toshiba Corp | Job cooperation support system and job cooperation support method |
JP2015097565A (en) * | 2013-11-18 | 2015-05-28 | 富士通株式会社 | Posture classification method, information processing apparatus, and program |
JP2018047088A (en) * | 2016-09-23 | 2018-03-29 | ソニー株式会社 | Control device, control method, and medical system |
CN109715106A (en) * | 2016-09-23 | 2019-05-03 | 索尼公司 | Control device, control method and medical system |
JP7073618B2 (en) | 2016-09-23 | 2022-05-24 | ソニーグループ株式会社 | Control devices, control methods and medical systems |
CN109715106B (en) * | 2016-09-23 | 2022-06-24 | 索尼公司 | Control device, control method, and medical system |
US11419696B2 (en) | 2016-09-23 | 2022-08-23 | Sony Corporation | Control device, control method, and medical system |
WO2019021781A1 (en) | 2017-07-24 | 2019-01-31 | Sony Corporation | Surgical support system, information processing method, and information processing apparatus |
JP7363780B2 (en) | 2018-06-26 | 2023-10-18 | コニカミノルタ株式会社 | Report output program, report output method, and report output device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10080513B2 (en) | Activity analysis, fall detection and risk assessment systems and methods | |
WO2019239813A1 (en) | Information processing method, information processing program, and information processing system | |
CN110838118B (en) | System and method for anomaly detection in medical procedures | |
US6540674B2 (en) | System and method for supervising people with mental disorders | |
US20090312660A1 (en) | Recognition and localisation of pathologic animal and human sounds | |
JP2004157614A (en) | Behavior analysis system | |
CN110050276B (en) | Patient identification system and method | |
JP2022168070A (en) | person detection system | |
US11170894B1 (en) | Access and temperature monitoring system (ATMs) | |
WO2020121308A9 (en) | Systems and methods for diagnosing a stroke condition | |
CN108882853A (en) | Measurement physiological parameter is triggered in time using visual context | |
CN115797868A (en) | Behavior early warning method, system, device and medium for monitoring object | |
JP5143780B2 (en) | Monitoring device and monitoring method | |
JP2005092440A (en) | Warning device | |
CN113569671A (en) | Abnormal behavior alarm method and device | |
Richter et al. | Activity recognition for elderly care by evaluating proximity to objects and human skeleton data | |
WO2021241293A1 (en) | Action-subject specifying system | |
CN111710402B (en) | Face recognition-based ward round processing method and device and computer equipment | |
JP2019152914A (en) | Nursing facility child watching system and information processing method | |
JP2007219974A (en) | Individual position recognition apparatus and tracking and monitoring apparatus using same | |
US11313962B2 (en) | Presence/absence detection method, non-transitory storage medium, sensor processing system, and sensor system | |
Baskaran et al. | Using facial landmark detection on thermal images as a novel prognostic tool for emergency departments | |
JP2006031445A (en) | Accident, incident report analysis system | |
KR102410650B1 (en) | Untact Comprehensive MANAGEMENT SYSTEM) Health Care Service Providing Method | |
Yaying et al. | Respiratory rate estimation via simultaneously tracking and segmentation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040817 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070104 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070227 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070426 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20071002 |