JP7127905B1 - 機械学習を用いて対象者の体位を判定する装置、方法及びプログラム - Google Patents

機械学習を用いて対象者の体位を判定する装置、方法及びプログラム Download PDF

Info

Publication number
JP7127905B1
JP7127905B1 JP2021116775A JP2021116775A JP7127905B1 JP 7127905 B1 JP7127905 B1 JP 7127905B1 JP 2021116775 A JP2021116775 A JP 2021116775A JP 2021116775 A JP2021116775 A JP 2021116775A JP 7127905 B1 JP7127905 B1 JP 7127905B1
Authority
JP
Japan
Prior art keywords
subject
data
biosignal
determining
ballistocardiographic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021116775A
Other languages
English (en)
Other versions
JP2023012969A (ja
Inventor
耕平 細川
健二 藤田
康裕 田中
芳政 後藤
Original Assignee
株式会社フューチャーインク
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社フューチャーインク filed Critical 株式会社フューチャーインク
Priority to JP2021116775A priority Critical patent/JP7127905B1/ja
Application granted granted Critical
Publication of JP7127905B1 publication Critical patent/JP7127905B1/ja
Publication of JP2023012969A publication Critical patent/JP2023012969A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

Figure 0007127905000001
【課題】 機械学習を用いて対象者の体位を判定する装置を提供する。
【解決手段】 本発明の一実施形態によれば、対象者の生体信号を検出するセンサ120と、検出された生体信号に基づいて対象者の体位を判定する制御部110とを有する体位判定装置100が提供される。制御部110は、生体信号から、対象者の心弾動波形を示す生体信号データを生成することと、種々の心弾動波形を含む信号データを学習データとし、各々の前記心弾動波形にそれぞれ関連付けられた体位情報を教師データとして予め機械学習して生成された学習済みモデルを用いて、生体信号データに含まれる心弾動波形に基づいて対象者の体位を判定することと、を実行するように構成されている。
【選択図】 図2

Description

本発明は、機械学習を用いて対象者の体位を判定する装置、方法及びプログラムに関する。
患者や要看護者等の対象者がベッド上で長時間にわたって同じ体位で寝ていると、褥瘡が生じるおそれがある。そのため医療や介護の現場では、対象者に褥瘡が生じるのを予防するために、対象者がどの体位で何時間寝ていたかを把握したいという要望がある。
また、対象者がベッドから離床する際には、寝ていた状態から座位姿勢に姿勢を一旦変えてから立ち上がる離床前行動を経るのが一般的である。そのため、座位姿勢を離床前に検知することは、対象者が離床時に転倒するおそれを事前に検知する上で有用である。
特許文献1には、患者の姿勢を判定することが可能な姿勢判定装置が開示されている。特許文献1の姿勢判定装置は、患者の臥床時の体振動を振動センサで検出し、検出した体振動に基づいて生体情報値(呼吸数、心拍数、活動量)を算出し、その生体情報値を用いて患者の臥床姿勢を判定する。
特開2019-98069号公報
特許文献1には、姿勢判定装置が行う患者の姿勢判定に呼吸数、心拍数及び活動量を用いることは開示されているが、心臓によって拍出される血液の勢いに起因する振動の波形である心弾動波形を用いて患者の姿勢判定を行うことについては何ら示唆されていない。
なお、患者に加速度センサや傾きセンサを装着して患者の体位をモニタリングする手法も可能ではあるが、この場合は患者に加速度センサを常時装着し続ける必要がある。そのため、患者が不快感を持ったり、患者が寝返りを繰り返すうちに加速度センサに接続されたケーブル線が絡まったり、患者がベッドから離床する際に加速度センサを一旦取り外す必要があるなどの不都合が生じ得ることから、加速度センサ等を用いた体位のモニタリングは医療や介護の現場では敬遠される傾向にある。
本発明の一態様によれば、対象者の生体信号を検出するセンサと、検出された生体信号に基づいて対象者の体位を判定する制御部とを有する体位判定装置であって、制御部は、生体信号から、対象者の心弾動波形を示す生体信号データを生成することと、種々の心弾動波形を含む信号データを学習データとし、各々の心弾動波形にそれぞれ関連付けられた体位情報を教師データとして予め機械学習して生成された学習済みモデルを用いて、生体信号データに含まれる心弾動波形に基づいて対象者の体位を判定することと、を実行するように構成されている、体位判定装置が提供される。
また、本発明の他の態様によれば、センサによって対象者の生体信号を検出することと、体位判定装置の制御部により、検出された生体信号に基づいて対象者の体位を判定することとを含む、対象者の体位を判定する方法であって、対象者の体位を判定することは、制御部により、生体信号から、対象者の心弾動波形を示す生体信号データを生成することと、種々の心弾動波形を含む信号データを学習データとし、各々の心弾動波形にそれぞれ関連付けられた体位情報を教師データとして予め機械学習して生成された学習済みモデルを用いて、生体信号データに含まれる心弾動波形に基づいて対象者の体位を判定することと、を含む、対象者の体位を判定する方法が提供される。
さらに、本発明の他の態様によれば、少なくとも1つのコンピュータを対象者の体位を判定する装置として機能させる少なくとも1つのコンピュータプログラムであって、少なくとも1つのコンピュータプログラムは、少なくとも1つのコンピュータに、センサによって対象者の生体信号を検出することと、検出された生体信号に基づいて対象者の体位を判定することと、を実行させるように構成されており、対象者の体位を判定することは、生体信号から、対象者の心弾動波形を示す生体信号データを生成することと、種々の心弾動波形を含む信号データを学習データとし、各々の心弾動波形にそれぞれ関連付けられた体位情報を教師データとして予め機械学習して生成された学習済みモデルを用いて、生体信号データに含まれる心弾動波形に基づいて対象者の体位を判定することと、を含む、コンピュータプログラムが提供される。
本発明の更に他の態様によれば、種々の心弾動波形を含む信号データを学習データとし、各々の心弾動波形にそれぞれ関連付けられた体位情報を教師データとして、入力される対象者の心弾動波形を示す生体信号データに含まれる心弾動波形に基づいて対象者の体位を判定するための学習済みモデルを機械学習により生成する機械学習部を有する、学習装置が提供される。
本発明の他の特徴事項および利点は、例示的且つ非網羅的に与えられている以下の説明及び添付図面から理解することができる。
対象者の体位と、その対象者の心臓及び大動脈弓部の向きとの関係例を示す概略図である。 本発明の実施の形態に係る体位判定装置のブロック構成図である。 図2に示した体位判定装置の概略構成を示す模式図である。 本実施形態の体位判定装置を用いて学習済みモデルを生成する方法を示すフローチャートである。 本実施形態の体位判定装置より対象者の体位を判定する方法を示すフローチャートである。 本実施形態の体位判定装置により対象者の体位を判定した結果の一例を示す図である。 本実施形態の第1の変形例に係るシステム構成を示す図である。 図7に示した体位判定装置のブロック構成図である。 図7に示したサーバ装置のブロック構成図である。 本実施形態の第2の変形例による、体位判定用の最適な学習済みモデルを選択するための学習済みモデルを生成する方法を示すフローチャートである。
以下、本発明の実施形態について図面を参照して説明する。なお、以下に説明する実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また、実施形態に示される構成要素のすべてが、本発明の必須の構成要素であるとは限らない。
最初に、本発明の実施の形態に係る体位判定装置の概要について説明する。
上述した特許文献1は、患者や要看護者等の対象者の体位の検出に呼吸数、心拍数、活動量を生体情報として用いることを開示している。そして、特許文献1の段落0076に「姿勢により、心臓の位置とセンサの位置との関係が異なるため、その間にある体の組織(筋肉、脂肪、骨、内臓等)が異なる。したがって、振動の伝わり方も変わるため、計測される周波数成分に違いが現れる。」と記載されているように、特許文献1ではセンサで計測される生体情報の周波数成分に着目して患者の姿勢判定を行う手段を提供している。その具体例として、特許文献1の段落0077及び0078には、患者の臥位姿勢の種類(仰臥位、側臥位)によって検出される周波数成分が異なるため、姿勢毎に周波数分布を記憶させておき、実際に抽出された周波数分布と、姿勢毎に記憶された周波数分布とを比較することにより姿勢を判定することができる旨が記載されている。
心弾動波形は、心臓によって吐出される血液の移動によって生じる振動の波形である。心臓から吐出された血液は上行大動脈に送り出され、その後、大部分が大動脈弓部に流入して血流の方向が変わる。その際に発生する振動が心弾動波形における特徴的な波形であるが、さらにその先の動脈の形状などにより様々な波形が現れる。心弾動波形は、観測対象者と振動センサとの位置関係に大きな影響を受けるため、本発明の発明者らはそれを解析することにより、本実施形態に係る体位判別が可能な体位判定装置を成すに至った。
図1は、対象者の体位と、その対象者の心臓及び大動脈弓部の向きとの関係例を示す概略図である。
同図(a)に示すように対象者Sが仰臥位の体位にあるとき、その心臓及び大動脈弓部Aはそれらの前側部分が上向きになり、心臓から図示右から左へ向かって水平方向に出た血液は、大動脈弓部Aに沿って図示手前から奥へ向かって水平方向に流れ方向を変えて、図示左から右へ向かって水平方向に流れる。
同図(b)に示すように対象者Sが右側臥位の体位にあるとき、その心臓及び大動脈弓部Aはそれらの左側部分が上向きになり、心臓から図示右から左へ向かって水平方向に出た血液は、大動脈弓部Aに沿って図示下から上へ向かって上下方向に流れ方向を変えて、図示左から右へ向かって水平方向に流れる。
同図(c)に示すように対象者Sが座位の体位にあるとき、その心臓及び大動脈弓部Aはそれらの上側部分が上向きになり、心臓から図示下から上へ向かって上下方向に出た血液は、大動脈弓部Aに沿って図示手前から奥へ水平方向に流れ方向を変えて、図示上から下へ向かって上下直方向に流れる。
このように、対象者の体位に応じてその心臓及び大動脈弓部の向きが異なるため、大動脈弓部に沿って流れる血液の流れ方向も対象者の体位に応じて異なる。したがって、振動センサで検出した心弾動波形に基づいて、大動脈弓部を流れる血液の流れ方向を判定することで、対象者の体位を種々の臥位のみならず座位も含めて判定することが可能となる。そして、多数の対象者について各々の体位の間に検出される生体信号を取得して、それらをディープラーニング等の機械学習にかけることで、学習済みモデルを生成することができる。その後は、対象者から検出される生体信号を、学習済みモデルを用いて判定することにより、その対象者の体位を判定することができる。
本実施形態に係る体位判定装置は、このような原理に基づいて対象者の体位を判定するものである。
次に、本発明の実施の形態に係る体位判定装置の構成について説明する。
図2は、本発明の実施の形態に係る体位判定装置のブロック構成図である。図3は、図2に示した体位判定装置の概略構成を示す模式図である。
図2に示すように、本発明の実施の形態に係る体位判定装置100は、制御部110と、振動センサ120と、記憶部130と、入出力部140とを備えている。
制御部110は、記憶部130に記憶されているコンピュータプログラムを実行することにより、体位判定装置100の全体の動作を制御するものであり、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等から構成される。本実施形態における制御部110は、その機能モジュールとして、生体信号処理判定部115と、機械学習部118とを有している。
生体信号処理判定部115は、生体信号処理部112、体位信号取得部114および体位判定部116を含む。生体信号処理判定部115の生体信号処理部112、体位信号取得部114及び体位判定部(機械学習の学習済みモデルとしての体位推論器)116並びに機械学習部118による各機能は、記憶部130に記憶されているコンピュータプログラムにより起動されて実行される。制御部110は、特に、図4及び図5を参照して説明するような体位判定装置100が行う処理やその機能を実現するように動作する。
振動センサ120は、患者や要看護者等の対象者の生体信号(特に、心弾動)を検出する検出器である。本実施形態における振動センサ120としては、例えば、ピエゾ素子からなるシート状の圧電センサを用いることができる。本実施形態の体位判定装置100は、少なくとも1つの振動センサ120を用いて対象者の生体信号を検出することができる。
図3に示すように、振動センサ120は、一例として、ベッドBの上で寝ているあるいは座っている対象者Sの生体信号を検出できるようにベッドBと対象者Sとの間に配置される。振動センサ120は、ベッドBとその上のマットMとの間に配置して、マットMを伝達してきた対象者Sの生体信号を検出することが可能である。あるいは、振動センサ120をマットM上に対象者Sに接触するように配置してもよい。
振動センサ120は任意の有線あるいは無線による通信手段によって体位判定装置100の通信インターフェース(不図示)に接続され、振動センサ120が検出した対象者Sの生体信号はその通信インターフェースを介して体位判定装置100に取り込まれるようになっている。
記憶部130は、OS(Operating System)プログラム、制御部110に後述する各種制御処理や各機能を実行させるための種々のコンピュータプログラム、入出力部140からの入力データ、振動センサ120で検出した生体信号データ、制御部110での処理により取得された体位信号データ等を記憶する。特に、記憶部130は記憶モジュールとして、振動センサ120で検出された生体信号を記憶する生体信号記憶部132と、生体信号に基づいて制御部110によって取得された体位信号を記憶する体位信号記憶部134とを備えている。
記憶部130は、体位判定装置100の電源がオフにされても記憶状態が保持される不揮発性の記憶媒体を備えていることが好ましく、例えば、ハードディスクドライブ(HDD)、固体記憶装置(SSD)、不揮発性ランダムアクセスメモリ(NVRAM)、EPROM(Erasable Programmable Read Only Memory)、フラッシュメモリ等の不揮発性ストレージを備えている。なお、記憶部130はスタティックランダムアクセスメモリ(SRAM)等の揮発性ストレージをさらに備えていてもよいが、少なくとも上述したコンピュータプログラムは記憶部130のうち不揮発性の(非一時的な)記憶媒体に記憶される。また、上記各記憶モジュール(生体信号記憶部132、体位信号記憶部134)は記憶部130のうち不揮発性の(非一時的な)記憶媒体によって構成されることが好ましい。
入出力部140は、入力部142と出力部144とを含む。入力部142は、例えば、キーボード、マウスやジョイスティック等のポインティングデバイス、タッチパネル、又は、それらの組合せで構成することができる。出力部144は、ディスプレイ・モニター、コンピュータ・タブレット装置(タッチパネル式のディスプレイを備えたものを含む)等の任意の形態の表示装置、スピーカーやバイブレータ等の音声・振動発生装置等を含む。出力部144の表示装置がタッチパネル式のディスプレイ・デバイスである場合には、そのタッチパネルを入力部142としても用いることができる。
上述したように、本実施形態の体位判定装置100は、予め生成された学習済みモデルとしての体位判定部(推論器)116を用いて対象者の体位を判定する。本実施形態の体位判定装置100は制御部110の1つの機能モジュールとして機械学習部118を備えているので、振動センサ120で取得した生体信号を用いて機械学習を実行して、学習済みモデルを生成することができる。
ここで、図4を参照して、本実施形態の体位判定装置100を用いて学習済みモデルを生成する方法を説明する。図4は、本実施形態の体位判定装置を用いて学習済みモデルを生成する方法を示すフローチャートである。
本実施形態の体位判定装置100を用いて学習済みモデルを生成する方法は、学習データの作成と教師データの作成とを含む。
学習データの作成においては、最初に、体位判定装置100の振動センサ120を用いて、種々の対象者の各種体位時(仰臥位・右側臥位・左側臥位・伏臥位・座位・体動・離床)の信号を含む生体信号の取得が行われる(ステップS101)。取得された生体信号は、制御部110の生体信号処理部112により100Hz以上のサンプリング周波数でデジタル化(アナログ-デジタル変換)の処理が行われた後、記憶部130の生体信号記憶部132に少なくとも一時的に記憶される。生体信号処理部112は、デジタル化された生体信号データにタイムスタンプを付与する。
次に、ステップS102において、制御部110の生体信号処理部112により上記生体信号のフィルタリング処理が行われる。フィルタリング処理は、生体信号を0.5~10Hzの帯域のバンドパスフィルタにかけて、その帯域のフィルタを通過したフィルタリング済み生体信号データを生成することを含む。心臓によって吐出される血液の移動によって生じる振動(心弾動に起因する振動)は、0.5~10Hzの帯域に出現することが文献等において知られている。そのため本来的には、生体信号からフィルタリングによって抽出したこの周波数帯域の信号を用いることで、心弾動波形に基づく対象者の体位判定のための学習済みモデルを生成することが可能である。
しかしながら、0.5~10Hzの帯域の信号波形からは連続する心弾動の1拍毎の心拍信号を特定することが困難であるため、0.5~10Hzの帯域の信号のみからは連続する心弾動波形を1拍毎の心弾動波形に分離することは難しい。そこで本実施形態では、好ましくは、元の生体信号を、0.5~10Hzの帯域のバンドパスフィルタに加え、さらにそれよりも高い周波数帯域のバンドパスフィルタにかけて、その帯域のフィルタを通過したフィルタリング済み生体信号データも生成することを含む。ある文献によれば、15~30Hz付近に発生する振動は心拍によって生じる大動脈の振動であり大動脈派と呼ばれている。さらに、それよりも高周波域の50Hz付近では、心音の中でもI音と呼ばれる僧帽弁と三尖弁の閉鎖時に発生する振動が観測されることが知られている。本実施形態では、生体信号を、上述した心弾動に起因する0.5~10Hzの帯域のバンドパスフィルタと、好ましくは、生体信号をそれよりも高周波である15~50Hzの帯域のうちの少なくとも1つの帯域のバンドパスフィルタとにかけて、それらの帯域のフィルタを通過した複数のフィルタリング済み生体信号データを生成することを含む。0.5~10Hzの帯域よりも高い15~50Hzの周波数帯域の信号では連続する心弾動の1拍毎の心拍信号が比較的明確に出現し得るため、この15~50Hzの周波数帯域の信号は0.5~10Hzの帯域における信号から1拍毎の心弾動波形を分離するためのトリガーとして用いることができる。
15~50Hzの帯域のうちの少なくとも1つの帯域のバンドパスフィルタとしては、例えば、15~20Hzの帯域の1つのバンドパスフィルタ、15~20Hzの帯域と25~30Hzの帯域との2つのバンドパスフィルタ、あるいは15~20Hzの帯域と26~30Hzの帯域と47~50Hzの帯域との3つのバンドパスフィルタなどの種々の態様を含むことができる。このように、15~50Hzの帯域に関して設けることができるバンドパスフィルタの数および各バンドパスフィルタの周波数帯域および帯域幅は、適宜設定することが可能である。なお、心拍信号が明確に現れる周波数帯は対象者の個人差や体位等の測定環境によって変化するため、心拍信号をより正確に取得するためには複数帯域のバンドパスフィルタを設けることが好ましい。
バンドパスフィルタとして上述した複数の帯域を選択することで、振動センサ120で検出した生体信号データから特に心弾動波形に起因する信号を選択的に取得できるという利点を得ることができる。上記のように生成された複数のフィルタリング済み生体信号データは、生体信号記憶部132に少なくとも一時的に記憶される。
次に、ステップS103において、制御部110の体位信号取得部114により、上記のように生成された複数のフィルタリング済み生体信号データの各々をデータ解析時間(2~10秒程度)毎に分割する。データ解析時間は、生体信号データに含まれる各体位の継続時間に概ね対応している。分割された各々の生体信号データは、記憶部130の体位信号記憶部134に少なくとも一時的に記憶される。
最後に、ステップS104において、各々の分割済み生体信号データの振幅を最大±20%の範囲でランダムに増減させることで、それらの分割データに意図的にノイズを印加する。このように分割データに意図的にノイズを印加するのは、主に、分割データを用いた機械学習において過学習(オーバーフィッティング)を防ぎ汎化性能を向上させるため、ならびに、機械学習に用いる学習データを増量するため(データ拡張)である。このようにノイズを印加された各々の分割データは、記憶部130の体位信号記憶部134に少なくとも一時的に記憶される。
教師データの作成においては、体位判定装置100の制御部110により、学習データ作成のステップS101で取得した生体信号中の各時間間隔に対応する対象者の体位データを取得する(ステップS201)。対象者の体位データの取得は、一例として、教師データ作成のために対象者に加速度センサや傾きセンサを装着した状態で生体信号の取得(ステップS101)を行い、対象者の体位データを生体信号と同期させて取得するようにして行うことができる。これにより、生体信号データと体位データとを共通のタイムスタンプで管理することが可能となり、例えば、体位データから仰臥位の時間間隔(開始時刻と終了時刻)を取得することで、生体信号データのそれに対応する時間間隔の部分を、仰臥位を示す生体信号であると特定することができる。
次に、ステップS202において、体位判定装置100の制御部110により、学習データ作成のステップS104で生成された各々の分割データに対して、タイムスタンプに基づいてそれらの分割データが示す体位の情報(仰臥位・右側臥位・左側臥位・伏臥位・座位・体動・離床等)を関連付けることにより、教師データのラベル付け(アノテーション)を行う。各々の分割データは、体位情報が関連付けられた状態で記憶部130の体位信号記憶部134に少なくとも一時的に記憶される。
なお、本例では分割されてノイズ印加がされた生体信号データに対してステップS202において体位情報を関連付ける場合について説明したが、上記のステップS201において説明したように対象者の生体信号データと体位データとを同期させて取得している場合には、ステップS103において生体信号データを分割する際に体位データを参照することにより、生体信号データの分割と、各々の分割データへの体位データの関連付けとを併せて実行することも可能である。
次に、ステップS203において、制御部110の機械学習部118により、ステップS104において生成された分割済みの個々の生体情報データを学習データとし、ステップS201で取得された体位情報データを教師データとして、各層にニューロンを含む複数の層で構成されるニューラルネットワークで機械学習を実行し、学習済みモデルを生成する。このようにして生成された学習済みモデルは、体位判定装置100の体位判定部(体位推論器)116(図2参照)に機能モジュールとして実装される。
本実施形態では、そのようなニューラルネットワークとして、好ましくは20層以上を備えた畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)のようなディープニューラルネットワークを用いてもよい。このようなディープニューラルネットワークを用いた機械学習は、ディープラーニングと称される。
ステップS102において説明したように、取得された生体情報データが複数のバンドパスフィルタにかけられて、複数のフィルタリング済み生体信号データが生成されている。そのため、学習データとして用いられる各体位に対応する生体信号データは、それぞれ、複数のフィルタリング済み生体信号データの各々の複数の分割データを含む。したがって、上記機械学習においては、各バンドパスフィルタに対応するフィルタリング済み生体信号データの個々の分割データ毎に、その分割データの波形に含まれる特徴点の抽出が行われ、それらの特徴点に基づいてその分割データの波形が示す体位の学習が行われる。
最後に、ステップS204において、体位判定装置100の制御部110により、上記のように生成された学習済みモデルの圧縮を行う。本実施形態の例では、ステップS203において生成される学習済みモデルの量子化ビット数は32ビットであり、これを用いて体位判定(推論)を行うとすると制御部110の体位判定部116による処理量が多くなる。そのため、体位判定(推論)時の体位判定部116による処理量低減のため、学習済みモデルの量子化ビット数は32ビットから8ビットへ圧縮することが好ましい。体位判定部116の処理能力によってはステップS204の学習済みモデルの圧縮は必ずしも必要ではないので、ステップS204は必要に応じて任意に実施することができる。
以上により、実施形態の体位判定装置100を用いて学習済みモデルとしての体位判定部(推論器)116が生成される。
次に、図5を参照して、本実施形態の体位判定装置100により対象者の体位を判定する方法について説明する。図5は、本実施形態の体位判定装置より対象者の体位を判定する方法を示すフローチャートである。
対象者の体位判定においては、最初に、体位判定装置100の振動センサ120を用いて対象者の生体信号の取得が行われる(ステップS301)。取得された生体信号は、制御部110の生体信号処理部112により、好ましくは学習データ作成時のサンプリング周波数と同じである100Hz以上のサンプリング周波数でデジタル化(アナログ-デジタル変換)の処理が行われた後、記憶部130の生体信号記憶部132に少なくとも一時的に記憶される。生体信号処理部112は、デジタル化された生体信号データにタイムスタンプを付与する。
次に、ステップS302において、制御部110の生体信号処理部112により上記生体信号のフィルタリング処理が行われる。フィルタリング処理は、生体信号を好ましくは学習データ作成時に用いた帯域と同じく0.5~10Hzの帯域のバンドパスフィルタと、好ましくはさらに15~50Hzの帯域のうちの少なくとも1つの帯域のバンドパスフィルタとの複数の帯域のバンドパスフィルタにかけて、それら複数の帯域をそれぞれ通過した複数のフィルタリング済み生体信号データを生成することを含む。生成された複数のフィルタリング済み生体信号データは、生体信号記憶部132に少なくとも一時的に記憶される。
続いて、ステップS303において、学習済みモデルである制御部110の体位判定部(推論器)116により、複数のフィルタリング済み生体信号データの波形に含まれる特徴点に基づいて対象者の体位を順次判定する。
本実施形態の体位判定装置100では、上述したように、振動センサ120で取得した対象者の生体信号データが0.5~10Hzの帯域のバンドパスフィルタと、好ましくはさらに15~50Hzの帯域のうちの少なくとも1つの帯域のバンドパスフィルタとの複数の帯域のバンドパスフィルタでフィルタリングされて複数のフィルタリング済み生体信号データが生成され、それらの各々のフィルタリング済み生体信号データについて体位判定部(推論器)116による体位判定が行われる。0.5~10Hzの帯域のバンドパスフィルタを通過したフィルタリング済み生体信号データは、心臓によって吐出される血液の移動によって生じる振動周波数(心弾動に起因する振動周波数)を含むため、このフィルタリング済み生体信号データを体位判定部(推論器)116で推論させることにより、心弾動波形に基づく対象者の体位の判定を行うことができる。さらに、連続する心弾動の1拍毎の心拍信号が比較的明確に出現し得る15~50Hzの帯域のうちの少なくとも1つの帯域のバンドパスフィルタを通過した少なくとも1つのフィルタリング済み生体信号データを併せて体位判定部(推論器)116で推論させることにより、体位判定部(推論器)116において0.5~10Hzの帯域における信号から1拍毎の心弾動波形を分離して対象者の体位判定を行うことが可能となるため、判定結果の精度をより高めることができる。体位判定部(推論器)116により体位判定の結果が推論されると、その判定結果が体位判定部(推論器)116から出力される。
上記のステップS301~S303の処理を、体位判定装置100の振動センサ120で対象者の生体信号を取得している間繰り返し行うことで、体位判定装置100は対象者の体位を実質的にリアルタイムにモニタリングすることができる。
図6に、本実施形態の体位判定装置100により対象者の体位を判定した結果の一例を示す。
図6に示す例では、機械学習に用いた生体信号データとは異なる評価用の生体信号データを用いて、体位判定装置100による体位判定の評価を行った。評価用の生体信号データには、対象者が仰臥位→右側臥位→左側臥位→伏臥位→座位→離床の順番で2分(120秒)毎に体位変換を行った際の生体信号データを記録したものを用いた。
図6(a)は、振動センサ120により検出された上記評価用生体信号データの生データ(高速フーリエ変換等により周波数成分が抽出された信号ではない)の波形を示す図であり、その横軸は時間[秒]を示し、縦軸はその信号強度レベルを示している。図6(a)に示されているように、評価用生体信号データには、上記のように仰臥位→右側臥位→左側臥位→伏臥位→座位→離床の順に遷移する各体位を示す信号波形が記録されており、各体位の間には体位変換に伴う体動を示す信号波形が記録されている。
図6(b)は、上記の評価用生体信号データに対して体位判定装置100による体位判定を実行し、仰臥位、右側臥位、左側臥位、伏臥位、座位、体動及び離床の7つの分類について体位判定部(推論器)116により推論された確率値(0~1の値)を示している。さらに、下記の表1は仰臥位、右側臥位、左側臥位、伏臥位、座位、体動及び離床のそれぞれについて体位判定部(推論器)116により推論された確率値を示している。
Figure 0007127905000002
図6(b)及び表1に示されているように、本実施形態の体位判定装置100によれば、対象者の上記のいずれの体位ないし状態について100%もしくは極めて100%に近い確率で正しい体位を判定することができた。
以上説明したように、本実施形態の体位判定装置100によれば、振動センサで検出された生体情報データのうち上述した0.5~10Hzの帯域のバンドパスフィルタと、好ましくはさらに15~50Hzの帯域のうちの少なくとも1つの帯域のバンドパスフィルタとを通過したフィルタリング済み生体信号データを用いて、予め機械学習により生成されている学習済みモデルに基づいて対象者の体位を判定するように構成されているため、生体情報データに含まれる心弾動波形に基づき機械学習を用いて対象者の体位判定をより高い精度で行うことができる。
本実施形態において体位判定に用いられる生体情報データは、上記のように0.5~10Hzの帯域のバンドパスフィルタと、好ましくはさらに15~50Hzの帯域のうちの少なくとも1つの帯域のバンドパスフィルタとを通過させたものであるが、高速フーリエ変換等により周波数成分の抽出が行われたものではない。したがって、生体情報データ内に時系列的に含まれる元の波形成分情報が高速フーリエ変換等の処理に伴って除去されることはなく、生体情報データ内に含まれているより多くの情報に基づいて学習済みモデルの生成及び体位判定を行うことができる。
また、機械学習により学習済みモデルを予め生成する際に、多数の検体対象者から学習データ用の生体情報データを取得してそれらを用いて機械学習により学習済みモデルを生成することにより、対象者の個人差に起因して異なり得る生体情報データのばらつきも反映した学習済みモデルが生成されるため、体位を判定する対象者の個人差に起因して異なり得る生体情報データの違いが体位判定に及ぼす影響を低減することができる。
ここで、本実施形態の各変形例について説明する。
(第1の変形例)
上記では、体位判定装置100の制御部110が機械学習部118を備え、体位判定装置100が学習済みモデル(体位推論器116)の生成もできる場合について説明したが、体位判定装置100を体位判定にのみ使用する場合には体位判定装置100は機械学習部118を備えていなくてもよい。この場合は、他の装置によって生成された学習済みモデルが体位推論器116として体位判定装置100の制御部110に実装される。
本実施形態の第1の変形例について、主に図7~図9を参照して以下に説明する。
図7は、本実施形態の第1の変形例に係るシステム構成を示す図である。図7に示すように、本変形例に係るシステムは、通信ネットワークNWを介して接続される体位判定装置100’とサーバ装置200とを含む。通信ネットワークNWは、インターネット、イントラネット、無線LAN(Local Area Network)やWAN(Wide Area Network)等によって構成され得る。
図8は、図7に示した体位判定装置のブロック構成図である。本変形例の体位判定装置100’を図2を参照して説明した体位判定装置100との対比において説明すると、本変形例の体位判定装置100’は、制御部110に機械学習部を含まない点、および、通信部150を明示的に備える点において、図2に示した体位判定装置100と相違する。本変形例の体位判定装置100’のその他の各構成は図2に示した体位判定装置100の各構成と同様であり、同一の参照符号を付して示している。
本変形例の体位判定装置100’が備える通信部150は、通信ネットワークNWを介してサーバ装置200と通信を行うための通信インターフェースであり、例えばTCP/IP(Transmission Control Protocol/Internet Protocol)等の種々の通信プロトコルを採用することが可能である。
図9は、図7に示したサーバ装置のブロック構成図である。図9に示すように、サーバ装置200は、制御部210と、記憶部220と、通信部230とを備えている。
制御部210は、記憶部220に記憶されているコンピュータプログラムを実行することにより、サーバ装置200の全体の動作を制御するものであり、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等から構成される。制御部210は、その機能モジュールとして機械学習部212を有している。機械学習部212による機能は、記憶部220に記憶されているコンピュータプログラムにより起動されて実行される。制御部210は、特に、図4のステップS203及びS204を参照して説明した処理やその機能を実現するように動作する。
記憶部220は、各種制御処理や制御部210内の各機能を実行するためのプログラム、入力データ等を記憶するものであり、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)等のストレージ等から構成される。また、記憶部220は、体位判定装置100’から送信されたデータおよび制御部210が処理を実行した結果として生成されたデータ等を少なくとも一時的に記憶する。
通信部230は、通信ネットワークNWを介して体位判定装置100’と通信を行うための通信インターフェースであり、例えばTCP/IP(Transmission Control Protocol/Internet Protocol)等の種々の通信プロトコルを採用することが可能である。
このように本変形例では、体位判定装置100’に機械学習部が備えられておらず、代わりにサーバ装置200に機械学習部212が備えられている。したがって本変形例では、サーバ装置200が備える機械学習部212によって学習済みモデルが生成される。
より具体的に説明すると、本変形例の体位判定装置100’は、図4を参照して説明した学習データ作成処理の各ステップS101~S104、および教師データ作成処理のうちステップS201及びS202までを実行する。本変形例の体位判定装置100’はステップS202おいて、制御部110により、学習データ作成のステップS104で生成された各々の分割データに対して、タイムスタンプに基づいてそれらの分割データが示す体位の情報(仰臥位・右側臥位・左側臥位・伏臥位・座位・体動・離床等)を関連付けることにより、教師データのラベル付け(アノテーション)を行い、各々の分割データを体位情報が関連付けられた状態で記憶部130の体位信号記憶部134に少なくとも一時的に記憶する。このように生成された体位情報が関連付けられた状態の各々の分割データは、本変形例の体位判定装置100’の制御部110によって、通信部150から通信ネットワークNWを介してサーバ装置200に送信される。
サーバ装置200は、体位情報が関連付けられた状態の各々の分割データを通信部230で受信し、記憶部220に少なくとも一時的に記憶する。そしてサーバ装置200の制御部210は、図4を参照して説明した処理のうちステップS203及びS204を実行する。
サーバ装置200の制御部210は、ステップS203において、制御部110の機械学習部212により、体位判定装置100’によりステップS104において生成されて上記のようにサーバ装置200に送信された分割済みの個々の生体情報データを学習データとし、同じく体位判定装置100’によりステップS201で取得されて上記のようにサーバ装置200に送信された体位情報データを教師データとして、各層にニューロンを含む複数の層で構成されるニューラルネットワークで機械学習を実行し、学習済みモデルを生成する。このように生成された学習済みモデルは、サーバ装置200の制御部210により、オプションでステップS204において圧縮処理を行ってもよい。このようにして生成された学習済みモデルは、サーバ装置200の記憶部220に少なくとも一時的に記憶された後、通信部230から通信ネットワークNWを介して体位判定装置100’に送信される。
その学習済みモデルは体位判定装置100’の通信部150で受信され、体位判定装置100’の体位判定部(体位推論器)116(図8参照)において機能モジュールとして実装される。
このように、本変形例のサーバ装置200は、機械学習部212を備え、体位判定装置100’から送信されたデータに基づいて機械学習を実行して学習済みモデルを生成し、生成された学習済みモデルを体位判定装置100’に提供するように構成されており、各々の体位判定装置100’に代わって機械学習を実行して学習済みモデルを生成する学習装置としての役割を担う。これにより、体位判定装置100’は機械学習部を備える必要がなくなるため、体位判定装置100’の制御部110は機械学習の実行に必要とされる程の高い処理能力を備えることを要しない。
なお、本変形例ではサーバ装置200が機械学習部212を備えているが、機械学習部212は、サーバ装置200に限らず他の任意のコンピュータ装置に備えられてもよい。ただし、機械学習部212では高いデータ処理能力が要求されることから、サーバ装置200が機械学習部212を備えることが好ましい。
(第2の変形例)
上述したように、本開示の実施形態によれば、機械学習により学習済みモデルを予め生成する際に、多数の検体対象者から学習データ用の生体情報データを取得してそれらを用いて機械学習により学習済みモデルを生成することにより、対象者の個人差に起因して異なり得る生体情報データのばらつきも反映した学習済みモデルが生成されるため、体位を判定する対象者の個人差に起因して異なり得る生体情報データの違いが体位判定に及ぼす影響を低減することができる。しかしながら、単一の学習済みモデルを用いた運用では、対象者の個人差等の要因により体位の判定精度が異なる場合が生じ得る。
本変形例は、学習済モデルの分類手法に関するものであり、体位判定のための複数の異なる学習済みモデルを生成し、かつ体位判定に用いるべき学習済みモデルを対象者毎に選択するための学習済みモデルを生成し、対象者に応じて適切な学習済みモデルを選択して体位判定を行うことで、体位判定の精度をより高める手段を提供する。
図10は、本実施形態の第2の変形例による、体位判定用の最適な学習済みモデルを選択するための学習済みモデルを生成する方法を示すフローチャートである。
本変形例による学習済みモデルを生成する方法においては、最初に、各サンプリング対象者から学習データ用のサンプルデータを取得する(ステップS401)。サンプルデータの取得は、図2あるいは図8を参照して説明した体位判定装置100,100’の振動センサ120を用いて、種々の対象者の各種体位時(臥位・座位)の信号を含む生体信号を取得することにより実行することができる。このステップS401の処理は、図4を参照して説明した方法のステップS101の処理(生体信号の取得)に相当する。
本変形例では、一例として、12人のサンプリング対象者(A~L)から、それぞれ、臥位10分のサンプルデータと座位10分のサンプルデータとを取得する。この場合、1回あたりの体位推論時間を3秒とすると、対象者1人あたり臥位および座位それぞれ200サンプル分のデータを取得できることとなる。
次に、12人のサンプリング対象者(A~L)のうちの6人のサンプリング対象者(A~F)の学習データおよび教師データを用いて、それら6人のサンプリング対象者(A~F)の各人のデータについて機械学習を実行して、各サンプリング対象者の学習済みモデル(Model(A)~Model(F))を生成する(ステップS402)。このステップS402において、各対象者の学習データの作成は、上記ステップS401で取得したサンプルデータについて、体位判定装置100,100’の制御部110が図4を参照して説明した方法のステップS102~S104の各処理に相当する処理を実行することにより実施される。さらにこのステップS402において、各対象者の教師データおよび学習済みモデル(Model(A)~Model(F))の作成は、体位判定装置100,100’の制御部110(もしくはサーバ装置200が備える制御部210)が、図4を参照して説明した方法のステップS201~S204の各処理に相当する処理を実行することにより実施される。
次に、上記の6人のサンプリング対象者(A~F)の各対象者のサンプルデータを対象者当人以外の他の5人の学習済みモデルで推論して、それぞれの体位判定精度を算出する(ステップS403)。このステップS403の処理は体位判定装置100,100’の制御部110によって実行される。
例えば、対象者Aのデータを対象者A自身の学習済みモデルModel(A)以外の学習済みモデルModel(B)~(F)で推論して、それぞれの体位判定精度を算出する。また、対象者Bのデータを対象者B自身の学習済みモデルModel(B)以外の学習済みモデルModel(A),(C)~(F)で推論して、それぞれの体位判定精度を算出する。対象者C~Fのデータについても同様にして推論および体位判定精度の算出を実行する。以下の表2に、各対象者に関して推論に用いた学習済みモデル及び体位判定精度を示す。
Figure 0007127905000003
次に、上記表2に示した6人のサンプリング対象者(A~F)に関する体位判定精度に基づき、それら6人のサンプリング対象者を体位判定に関してデータの特徴に関連性が存在すると認められる2つのグループに分ける(ステップS404)。このステップS404の処理は体位判定装置100,100’の制御部110によって実行される。
複数のサンプリング対象者をグループ分けする処理としては様々な手法が考えられるが、本変形例では一例として下記の基準に従ってグループ分けする処理を実行する。
1)6人のサンプリング対象者を半数の3人ずつの2つのグループに分ける
2)各対象者について推論した体位判定精度の計スコアの合計が最大値をとるようにグループ分けを行う
表2に示した結果に上記基準を適用すると、例えば対象者Aについて体位判定精度のスコアが最も高い2つの学習済みモデルはModel(B)及び(E)であり、それらのスコア値を加算した計スコア値が最大値191となる。このようにして以下の表3に示すように各々の計スコアが算出され、6人のサンプリング対象者(A~F)は、対象者A,B,Eからなるグループ1(G1)と、対象者C,D,Fからなるグループ2(G2)とに分けられる。
Figure 0007127905000004
次に、ステップS404においてグループ分けされた各グループの学習済みモデルを生成する(ステップS405)。このステップS405の処理は、体位判定装置100,100’の制御部110もしくはサーバ装置200の制御部210によって実行される。
本変形例では、グループ1(G1)について、その対象者A,B,Eのデータを結合して学習データおよび教師データを作成し、それらを機械学習させてグループ1の学習済みモデルModel(G1)を生成するとともに、グループ2(G2)について、その対象者C,D,Fのデータを結合した学習データおよび教師データを作成し、それらを機械学習させてグループ2の学習済みモデルModel(G2)を生成する。
次に、上記の6人とは別の6人のサンプリング対象者(G~L)の各対象者のサンプルデータを上記2つの学習済みモデルG1,G2でそれぞれ推論して、それぞれの体位判定精度を算出する(ステップS406)。このステップS406の処理は体位判定装置100,100’の制御部110によって実行される。
以下の表4に、各対象者に関して推論に用いた学習済みモデル及び体位判定精度と、その結果として各対象者に対して最適と推論される学習済みモデルを示す。
Figure 0007127905000005
最後に、体位判定用の最適な学習済みモデルを選択するための学習済みモデルを生成する(ステップS407)。このステップS407の処理は、体位判定装置100,100’の制御部110もしくはサーバ装置200の制御部210によって実行される。
一例として本変形例では、6人のサンプリング対象者(G~L)の各々について、各対象者から取得した60秒間の臥位姿勢のサンプルデータ(生体信号データ)を学習データとし、ステップS406で求められた最適モデル(Model(G1)又はModel(G2))を教師データとするデータセットを生成し、当該6人分のデータセットを機械学習させて、体位判定用の最適な学習済みモデルを選択するための学習済みモデルModel(select)を生成する。
以上により、最適な学習済みモデルを選択するための学習済みモデルModel(select)が生成される。生成された学習済みモデルModel(select)は、体位判定装置100,100’の体位判定部(体位推論器)116の機能モジュールの一部として実装される。
続いて、このように生成された学習済みモデルModel(select)の運用例について説明する。
まず初期設定として、一例として、体位判定装置100,100’を用いて対象者の60秒間の臥位のサンプルデータを取得し、そのデータを学習済みモデルModel(select)を実装した体位判定部(体位推論器)116で推論し、その対象者の体位判定に用いるのに適した最適モデル(Model(G1)又はModel(G2))を判定する。
その後、体位判定装置100,100’を用いて対象者の3秒毎の生体信号データを取得し、その生体信号データを上記で選択された最適モデル(Model(G1)又はModel(G2))を実装した体位判定部(体位推論器)116で推論し、対象者の体位が臥位であるか座位であるかを判定する。
本変形例によれば、対象者の体位判定に用いるべき最適モデルが学習済みモデルModel(select)によって選択され、最適と判断された学習済みモデルを用いて体位判定を行うことができる。よって、対象者の個人差に応じた最適な学習済みモデルを用いて体位判定をすることが可能になるため、体位判定の精度をより高めることができる。
なお、本変形例では12名のサンプリング対象者を2つのグループに分けて2つの体位判定用の学習済みモデルG1,G2を生成し、それらの学習済みモデルG1,G2に基づいて体位判定用の最適な学習済みモデルを選択するための学習済みモデルModel(select)を生成する例を説明したが、サンプリング対象者の人数、グループ分けするグループ数は上記に限られず、したがってグループ毎に生成する学習済みモデルModel(G)の数も上記に限られないことに留意されたい。
また、本変形例では説明の簡素化のため、臥位か座位かを判定する学習済みモデルG1,G2と、それらのうち最適な学習済みモデルを選択するための学習済みモデルModel(select)とを生成する例について説明したが、判定可能な体位は臥位か座位かに限られない。本変形例においても、例えば上述した本実施形態のように、対象者の各種体位時(仰臥位・右側臥位・左側臥位・伏臥位・座位・体動・離床)の信号を含む生体信号を取得し、そのような生体信号データを用いて機械学習を実行して学習済みモデルを生成するとともに、仰臥位、右側臥位、左側臥位、伏臥位、座位、体動及び離床のそれぞれについて体位判定部(推論器)116により判定できるようにしてもよい。
本変形例では、学習済モデルの分類手法について、体位判定のための学習済みモデルを例に挙げて説明したが、上述した手法は、体位判定に限らず様々な用途の学習済モデルに適用することができる。
以上、本発明に係る実施形態および変形例について説明したが、これらはその他の様々な形態で実施することが可能であり、種々の省略、置換および変更を行なって実施することが出来る。これらの実施形態および変形例ならびに省略、置換および変更を行なったものは、特許請求の範囲の技術的範囲とその均等の範囲に含まれる。
100 体位判定装置
110 制御部
120 振動センサ
130 記憶部
140 入出力部

Claims (20)

  1. 寝具上の対象者の生体信号を検出するセンサと、前記検出された前記生体信号に基づいて前記対象者の体位を判定する制御部とを有する、寝具上の対象者の体位を判定する体位判定装置であって、
    前記制御部は、
    前記生体信号から、前記対象者の心弾動波形を示す生体信号データを生成することと、
    種々の心弾動波形を含む信号データを学習データとし、各々の前記心弾動波形にそれぞれ関連付けられた体位情報を教師データとして予め機械学習して生成された学習済みモデルを用いて、前記生体信号データに含まれる心弾動波形に基づいて前記対象者の体位を判定することと、
    を実行するように構成されており、
    前記体位情報は仰臥位、右側臥位、左側臥位、伏臥位、座位、体動及び離床を含み、
    前記対象者の体位を判定することは、前記対象者の前記体位として前記仰臥位、前記右側臥位、前記左側臥位、前記伏臥位、前記座位、前記体動及び前記離床のうちの1つを特定することを含む、体位判定装置。
  2. 前記生体信号データを生成することは、心弾動に起因する周波数を含む帯域のバンドパスフィルタに前記生体信号を通してフィルタリング済み生体信号データを生成することを含む、請求項1に記載の体位判定装置。
  3. 前記心弾動に起因する周波数を含む帯域は0.5~10Hzである、請求項2に記載の体位判定装置。
  4. 前記生体信号データを生成することは、前記生体信号を複数の帯域のバンドパスフィルタに通して複数のフィルタリング済み生体信号データを生成することを含む、請求項2または3に記載の体位判定装置。
  5. 前記複数の帯域のバンドパスフィルタは、前記心弾動に起因する周波数を含む帯域のバンドパスフィルタと、15~50Hzから選択される少なくとも1つの帯域のバンドパスフィルタとを含む、請求項4に記載の体位判定装置。
  6. センサによって寝具上の対象者の生体信号を検出することと、
    体位判定装置の制御部により、前記検出された前記生体信号に基づいて前記対象者の体位を判定することとを含む、寝具上の対象者の体位を判定する方法であって、
    前記対象者の体位を判定することは、前記制御部により、
    前記生体信号から、前記対象者の心弾動波形を示す生体信号データを生成することと、
    種々の心弾動波形を含む信号データを学習データとし、各々の前記心弾動波形にそれぞれ関連付けられた体位情報を教師データとして予め機械学習して生成された学習済みモデルを用いて、前記生体信号データに含まれる心弾動波形に基づいて前記対象者の体位を判定することと、
    を含み、
    前記体位情報は仰臥位、右側臥位、左側臥位、伏臥位、座位、体動及び離床を含み、
    前記対象者の体位を判定することは、前記対象者の前記体位として前記仰臥位、前記右側臥位、前記左側臥位、前記伏臥位、前記座位、前記体動及び前記離床のうちの1つを特定することを含む、対象者の体位を判定する方法。
  7. 前記生体信号データを生成することは、心弾動に起因する周波数を含む帯域のバンドパスフィルタに前記生体信号を通してフィルタリング済み生体信号データを生成することを含む、請求項6に記載の方法。
  8. 前記心弾動に起因する周波数を含む帯域は0.5~10Hzである、請求項7に記載の方法。
  9. 前記生体信号データを生成することは、前記生体信号を複数の帯域のバンドパスフィルタに通して複数のフィルタリング済み生体信号データを生成することを含む、請求項7または8に記載の方法。
  10. 前記複数の帯域のバンドパスフィルタは、前記心弾動に起因する周波数を含む帯域のバンドパスフィルタと、15~50Hzから選択される少なくとも1つの帯域のバンドパスフィルタとを含む、請求項9に記載の方法。
  11. 少なくとも1つのコンピュータを寝具上の対象者の体位を判定する装置として機能させる少なくとも1つのコンピュータプログラムであって、
    当該少なくとも1つのコンピュータプログラムは、前記少なくとも1つのコンピュータに、
    センサによって寝具上の対象者の生体信号を検出することと、
    前記検出された前記生体信号に基づいて前記対象者の体位を判定することと、
    を実行させるように構成されており、
    前記対象者の体位を判定することは、
    前記生体信号から、前記対象者の心弾動波形を示す生体信号データを生成することと、
    種々の心弾動波形を含む信号データを学習データとし、各々の前記心弾動波形にそれぞれ関連付けられた体位情報を教師データとして予め機械学習して生成された学習済みモデルを用いて、前記生体信号データに含まれる心弾動波形に基づいて前記対象者の体位を判定することと、
    を含み、
    前記体位情報は仰臥位、右側臥位、左側臥位、伏臥位、座位、体動及び離床を含み、
    前記対象者の体位を判定することは、前記対象者の前記体位として前記仰臥位、前記右側臥位、前記左側臥位、前記伏臥位、前記座位、前記体動及び前記離床のうちの1つを特定することを含む、コンピュータプログラム。
  12. 前記生体信号データを生成することは、心弾動に起因する周波数を含む帯域のバンドパスフィルタに前記生体信号を通してフィルタリング済み生体信号データを生成することを含む、請求項11に記載のコンピュータプログラム。
  13. 前記心弾動に起因する周波数を含む帯域は0.5~10Hzである、請求項12に記載のコンピュータプログラム。
  14. 前記生体信号データを生成することは、前記生体信号を複数の帯域のバンドパスフィルタに通して複数のフィルタリング済み生体信号データを生成することを含む、請求項12または13に記載のコンピュータプログラム。
  15. 前記複数の帯域のバンドパスフィルタは、前記心弾動に起因する周波数を含む帯域のバンドパスフィルタと、15~50Hzから選択される少なくとも1つの帯域のバンドパスフィルタとを含む、請求項14に記載のコンピュータプログラム。
  16. 種々の心弾動波形を含む信号データを学習データとし、各々の心弾動波形にそれぞれ関連付けられた体位情報を教師データとして、入力される寝具上の対象者の心弾動波形を示す生体信号データに含まれる前記心弾動波形に基づいて寝具上の前記対象者の体位を判定するための学習済みモデルを機械学習により生成する機械学習部を有する、学習装置であって、
    前記体位情報は仰臥位、右側臥位、左側臥位、伏臥位、座位、体動及び離床を含み、
    前記対象者の体位を判定することは、前記対象者の前記体位として前記仰臥位、前記右側臥位、前記左側臥位、前記伏臥位、前記座位、前記体動及び前記離床のうちの1つを特定することを含む、学習装置
  17. 前記信号データは、センサによって検出された対象者の生体信号を心弾動に起因する周波数を含む帯域のバンドパスフィルタに通して生成されたフィルタリング済み信号データである、請求項16記載の学習装置。
  18. 前記心弾動に起因する周波数を含む帯域は0.5~10Hzである、請求項17に記載の学習装置。
  19. 前記信号データは、前記生体信号を複数の帯域のバンドパスフィルタに通して生成された複数のフィルタリング済み信号データからなる、請求項17または18に記載の学習装置。
  20. 前記複数の帯域のバンドパスフィルタは、前記心弾動に起因する周波数を含む帯域のバンドパスフィルタと、15~50Hzから選択される少なくとも1つの帯域のバンドパスフィルタとを含む、請求項19に記載の学習装置。
JP2021116775A 2021-07-14 2021-07-14 機械学習を用いて対象者の体位を判定する装置、方法及びプログラム Active JP7127905B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021116775A JP7127905B1 (ja) 2021-07-14 2021-07-14 機械学習を用いて対象者の体位を判定する装置、方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021116775A JP7127905B1 (ja) 2021-07-14 2021-07-14 機械学習を用いて対象者の体位を判定する装置、方法及びプログラム

Publications (2)

Publication Number Publication Date
JP7127905B1 true JP7127905B1 (ja) 2022-08-30
JP2023012969A JP2023012969A (ja) 2023-01-26

Family

ID=83103217

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021116775A Active JP7127905B1 (ja) 2021-07-14 2021-07-14 機械学習を用いて対象者の体位を判定する装置、方法及びプログラム

Country Status (1)

Country Link
JP (1) JP7127905B1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006263454A (ja) 2005-02-23 2006-10-05 Matsushita Electric Works Ltd 生体情報検出装置及び該方法
JP2009240661A (ja) 2008-03-31 2009-10-22 Toyota Motor Corp 健康管理ネットワークシステム
US20100298656A1 (en) 2009-05-20 2010-11-25 Triage Wireless, Inc. Alarm system that processes both motion and vital signs using specific heuristic rules and thresholds
US20120215076A1 (en) 2009-08-18 2012-08-23 Ming Young Biomedical Corp. Product, method and system for monitoring physiological function and posture
US20160374619A1 (en) 2015-06-23 2016-12-29 Rochester Institute Of Technology Apparatus, System and Method for Medical Analyses of Seated Individual
JP2019098069A (ja) 2017-12-07 2019-06-24 パラマウントベッド株式会社 姿勢判定装置
JP2019134953A (ja) 2015-10-01 2019-08-15 ヘルスセンシング株式会社 生体情報取得装置及び信号処理方法
JP3231429U (ja) 2020-01-22 2021-04-01 楊章明 ルームウェア型ウェアラブル装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE9604319D0 (sv) * 1996-11-25 1996-11-25 Pacesetter Ab Medical detecting system

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006263454A (ja) 2005-02-23 2006-10-05 Matsushita Electric Works Ltd 生体情報検出装置及び該方法
JP2009240661A (ja) 2008-03-31 2009-10-22 Toyota Motor Corp 健康管理ネットワークシステム
US20100298656A1 (en) 2009-05-20 2010-11-25 Triage Wireless, Inc. Alarm system that processes both motion and vital signs using specific heuristic rules and thresholds
US20120215076A1 (en) 2009-08-18 2012-08-23 Ming Young Biomedical Corp. Product, method and system for monitoring physiological function and posture
US20160374619A1 (en) 2015-06-23 2016-12-29 Rochester Institute Of Technology Apparatus, System and Method for Medical Analyses of Seated Individual
JP2019134953A (ja) 2015-10-01 2019-08-15 ヘルスセンシング株式会社 生体情報取得装置及び信号処理方法
JP2019098069A (ja) 2017-12-07 2019-06-24 パラマウントベッド株式会社 姿勢判定装置
JP3231429U (ja) 2020-01-22 2021-04-01 楊章明 ルームウェア型ウェアラブル装置

Also Published As

Publication number Publication date
JP2023012969A (ja) 2023-01-26

Similar Documents

Publication Publication Date Title
JP7261811B2 (ja) 訓練された予測モデルに基づく血圧降下の非侵襲的決定のためのシステム及び方法
JP5961235B2 (ja) 睡眠/覚醒状態評価方法及びシステム
JP6097495B2 (ja) 生体状態分析装置及びコンピュータプログラム
US20150230756A1 (en) Determining physiological characteristics from sensor signals including motion artifacts
RU2704787C1 (ru) Система и способ определения для определения стадии сна субъекта
CN111867450A (zh) 睡眠呼吸暂停检测系统和方法
CN112739259A (zh) 基于光电容积描记术检测受试者在清醒、困倦和睡眠阶段之间的转变
JP6627112B2 (ja) 生体機能検査装置、生体機能検査装置の作動方法及びプログラム
CN112617747B (zh) 状态推定装置、状态推定方法以及存储介质
KR100699042B1 (ko) 카오스론적 뇌기능 진단장치
CN113473910A (zh) 睡眠监测系统和方法
CN111417343A (zh) 姿势判定装置
EP3897355B1 (en) System and method for detecting fluid accumulation
KR102634498B1 (ko) 수면 생리의 평가를 위한 카디오 키네틱 크로스 스펙트럼 밀도
JP7510515B2 (ja) Ecg信号の生成方法、及びそれを用いてなるecg信号生成システム
Taebi et al. An adaptive feature extraction algorithm for classification of seismocardiographic signals
CA3197468A1 (en) Method for classifying a polysomnography recording into defined sleep stages
JP7127905B1 (ja) 機械学習を用いて対象者の体位を判定する装置、方法及びプログラム
Park et al. Ballistocardiography
CN210446992U (zh) 一种身体机能检查装置
Liu et al. Using Ballistocardiography for Sleep Stage Classification
KR20220162767A (ko) 원격 환자 검진 및 분류를 위한 시스템 및 방법
Enayati Data-driven methods for analyzing ballistocardiograms in longitudinal cardiovascular monitoring
JP7121893B1 (ja) 信号処理装置、信号処理システムおよび信号処理プログラム
JP2022136066A (ja) 睡眠段階推定システム、睡眠段階推定方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220107

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220519

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220810

R150 Certificate of patent or registration of utility model

Ref document number: 7127905

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150