JP2021060867A - 吸入動作推定装置、コンピュータプログラム及び吸入動作推定方法 - Google Patents

吸入動作推定装置、コンピュータプログラム及び吸入動作推定方法 Download PDF

Info

Publication number
JP2021060867A
JP2021060867A JP2019185351A JP2019185351A JP2021060867A JP 2021060867 A JP2021060867 A JP 2021060867A JP 2019185351 A JP2019185351 A JP 2019185351A JP 2019185351 A JP2019185351 A JP 2019185351A JP 2021060867 A JP2021060867 A JP 2021060867A
Authority
JP
Japan
Prior art keywords
inhalation
subject
unit
image
posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019185351A
Other languages
English (en)
Other versions
JP7353605B2 (ja
Inventor
寛樹 吉原
Hiroki Yoshihara
寛樹 吉原
靖寿 松葉
Yasuhisa Matsuba
靖寿 松葉
安藤 真理
Mari Ando
真理 安藤
靖弘 瀬戸口
Yasuhiro Setoguchi
靖弘 瀬戸口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Tokyo Medical and Dental University NUC
Original Assignee
Dai Nippon Printing Co Ltd
Tokyo Medical and Dental University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd, Tokyo Medical and Dental University NUC filed Critical Dai Nippon Printing Co Ltd
Priority to JP2019185351A priority Critical patent/JP7353605B2/ja
Publication of JP2021060867A publication Critical patent/JP2021060867A/ja
Application granted granted Critical
Publication of JP7353605B2 publication Critical patent/JP7353605B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

【課題】吸入薬の吸入動作が正しく行われているかを推定することができる吸入動作推定装置、コンピュータプログラム及び吸入動作推定方法を提供する。【解決手段】吸入動作推定装置は、対象者を撮像して得られた画像を取得する取得部と、取得部で取得した画像に基づいて、対象者の姿勢及び/又は前記対象者の人体の所定部位を判定する姿勢判定部と、姿勢判定部で判定した姿勢、対象者の所定部位の特徴量又は動きの変化量の少なくともいずれか1つに基づいて対象者による吸入薬の吸入動作を推定する動作推定部とを備える。【選択図】図3

Description

本発明は、吸入動作推定装置、コンピュータプログラム及び吸入動作推定方法に関する。
気管支喘息やCOPD(慢性閉塞性肺疾患)の治療には吸入薬が必要不可欠であり、医師による処方の際には吸入薬の説明、吸入容器(吸入器具)の取り扱いや吸入動作などの説明が患者に対して行われる。処方された薬を決められた通りに服用することは疾患の治療には重要なことである。
特許文献1には、サーバが薬の服用予定時刻になった場合に患者が保持する端末に対して薬の服用を促す情報を送信し、患者の入力操作に応じて、端末は薬の服用を知らせる情報をサーバに送信することにより、患者に薬の適切な服用を促す医療情報処理システムが開示されている。
実用新案登録第3208257号公報
しかし、吸入薬の場合、一般的な飲み薬と違って吸入容器を使った吸入動作が必要である。患者は吸入薬の処方の際に吸入動作の正しいやり方の指導を受けたとしても、吸入容器に不慣れな患者や高齢の患者などにとっては、正しい吸入動作の習得が容易ではなく、処方通りの吸入が実施されないおそれがある。
本発明は、斯かる事情に鑑みてなされたものであり、吸入薬の吸入動作が正しく行われているかを推定することができる吸入動作推定装置、コンピュータプログラム及び吸入動作推定方法を提供することを目的とする。
本発明の実施の形態に係る吸入動作推定装置は、対象者を撮像して得られた画像を取得する取得部と、前記取得部で取得した画像に基づいて、前記対象者の姿勢及び/又は前記対象者の人体の所定部位を判定する姿勢判定部と、前記姿勢判定部で判定した姿勢、前記対象者の所定部位の特徴量又は動きの変化量の少なくともいずれか1つに基づいて前記対象者による吸入薬の吸入動作を推定する動作推定部とを備える。
本発明の実施の形態に係るコンピュータプログラムは、コンピュータに、対象者を撮像して得られた画像を取得する処理と、取得した画像に基づいて、前記対象者の姿勢及び/又は前記対象者の人体の所定部位を判定する処理と、判定した姿勢、前記対象者の所定部位の特徴量又は動きの変化量の少なくともいずれか1つに基づいて前記対象者による吸入薬の吸入動作を推定する処理とを実行させる。
本発明の実施の形態に係る吸入動作推定方法は、対象者を撮像して得られた画像を取得し、取得された画像に基づいて、前記対象者の姿勢及び/又は前記対象者の人体の所定部位を判定し、判定された姿勢、前記対象者の所定部位の特徴量又は動きの変化量の少なくともいずれか1つに基づいて前記対象者による吸入薬の吸入動作を推定する。
本発明によれば、吸入薬の吸入動作が正しく行われているかを推定することができる。
本実施の形態の吸入動作推定システムの構成の一例を示す模式図である。 対象者装置の構成の一例を示すブロック図である。 サーバの構成の一例を示すブロック図である。 対象者装置の処理手順の一例を示すフローチャートである。 吸入容器の種類の一例を示す説明図である。 音声案内の一例を示す説明図である。 音声案内に基づく吸入容器のトラッキングの様子の一例を示す模式図である。 音声案内に基づく姿勢判定の様子の一例を示す模式図である。 サーバによる吸入動作推定の処理手順の一例を示すフローチャートである。 サーバによる吸入動作推定における特徴判定の処理手順の一例を示すフローチャートである。 胸鎖乳突筋周辺の陰影判定の処理の一例を示す模式図である。 切出画像の一例を示す模式図である。 判定対象フレームの抽出例を示す説明図である。 肩の移動量判定の処理の一例を示す模式図である。 上体の移動量判定の処理の一例を示す模式図である。 評価指標の算出時の重み付け係数の第1例を示す説明図である。
以下、本発明の実施の形態を図面に基づいて説明する。図1は本実施の形態の吸入動作推定システムの構成の一例を示す模式図である。吸入動作推定システムは、吸入動作推定装置としてのサーバ50を備える。吸入動作推定システムは、対象者が使用する対象者装置10、医師や薬剤師などの医療指導者が使用する指導者装置20、指導者装置20に接続されるカメラ(動画を撮影可能)などを備えて、指導者装置20で吸入動作の撮影を行ってもよい。対象者装置10は、動画を撮影できる内蔵カメラ(不図示)を備える。指導者装置20及びカメラ21は、病院や診療所などに設置されている。サーバ50、対象者装置10及び指導者装置20は、通信ネットワーク1を介して接続されている。図1では、対象者装置10を2台図示しているが、対象者装置10の数は2台に限定されない。
対象者装置10及び指導者装置20それぞれは、例えば、スマートフォン、タブレット端末、ノート型パーソナルコンピュータ等で構成することができる。指導者装置20は、デスクトップ型のパーソナルコンピュータでもよい。サーバ50、対象者装置10及び指導者装置20との間の情報の授受を制御し、管理することができる。
図2は対象者装置10の構成の一例を示すブロック図である。対象者装置10は、対象者装置10全体を制御する制御部11、通信部12、記憶部13、出力部14を備える。
制御部11は、CPU、ROM及びRAMなどで構成することができる。制御部11は、吸入動作推定ソフトウエアを実行することができる。
通信部12は、通信ネットワーク1を介して対象者装置10とサーバ50との間の通信機能を提供する。通信部12は、例えば、対象者を撮像して得られた複数のフレームを含む画像(動画)をサーバ50へ送信できる。
記憶部13は、カメラ21から取得した対象者の画像(動画)、アプリの使用履歴などを記憶することができる。
出力部14は、表示パネル、スピーカなどで構成され、ガイダンス動画、音声案内などを出力することができる。
図3はサーバ50の構成の一例を示すブロック図である。サーバ50は、サーバ50全体を制御する制御部51、通信部52、姿勢判定部53、動作推定部54、支援情報提供部55、対象者DB56、記憶部57、特徴判定部58及び評価指標算出部59を備える。特徴判定部58は、画像切出部581、陰影判定部582、肩移動量判定部583及び上体移動量判定部584を備える。サーバ50は、吸入動作の成否判定結果を推定し、対象者装置10に送信する機能、指導者装置20から吸入動作の成否判定結果を記録したレポートの要求信号を取得する機能、吸入動作の成否判定結果を記録したレポートを指導者装置20に送信する機能などを有する。
制御部51は、CPU、ROM及びRAMなどで構成することができる。制御部51は、吸入動作推定ソフトウエアを実行することができる。
通信部52は、通信ネットワーク1を介して対象者装置10及び指導者装置20との間の通信機能を提供する。通信部52を介して取得した情報(例えば、対象者を撮像して得られた複数のフレームを含む画像(動画))は、記憶部57に保存される。対象者の撮像には、対象者装置10を使用することができる。より具体的には、対象者装置10の内蔵カメラが対象者の方を向くようにし、かつ、対象者の吸入動作時の姿勢を判定しやすくするため、対象者の右側や左側(対象者から見て横方向90°程度)に対象者装置10を設置することができる。
姿勢判定部53は、通信部52を介して取得した画像に基づいて対象者の姿勢を判定することができる。より具体的には、姿勢判定部53は、通信部52で取得した画像に基づいて対象者の人体の所定部位の位置を判定することができる。所定部位は、例えば、右目、左目、鼻、右耳、左耳、首、右肩、左肩、右手首、左手首、右肘、左肘、右腰、左腰、右膝、左膝、右足首、左足首とすることができる。なお、所定部位は、これらの部位の一部でもよい。
姿勢判定には、例えば、2D画像(動画像)に基づいて人体の姿勢の特徴点をディープラーニングに利用して検知する技術(例えば、OpenPose)を用いることができる。取得した画像に基づいて人体の複数の所定部位(関節など)の位置を推定し、推定した所定部位の位置に基づいて対象者の姿勢を判定することができる。
動作推定部54は、姿勢判定部53で判定した姿勢に基づいて対象者による吸入薬の吸入動作を推定することができる。通信部52を介して取得した画像に基づく対象者の姿勢と、予め定められた吸入動作時の正しい姿勢とを比較することにより、吸入動作を推定することができる。吸入動作の推定には、例えば、吸入動作を行っていることの確からしさを示す評価値を用いることができる。この場合、評価値が大きいほど、吸入動作を行っていると推定できる確率が高い。これにより、吸入薬の吸入動作を推定することができる。
より具体的には、動作推定部54は、姿勢判定部53で判定した所定部位の位置に基づいて吸入動作を推定することができる。例えば、鼻の位置と手首(右手首又は左手首)の位置との距離が所定範囲内であれば、対象者が吸入容器を手で掴み、吸入容器を口で咥えたと判定できるので、対象者が吸入動作をしようとしている、あるいは吸入動作を行っていると推定できる。また、例えば、鼻の位置と腰(右腰又は左腰)の位置とを結ぶ直線と水平線とのなす角度が所定範囲内であれば、対象者が吸入動作を行うときの正しい姿勢になっていると判定できるので、対象者が吸入動作をしようとしている、あるいは吸入動作を行っていると推定できる。
支援情報提供部55は、提供部としての機能を有し、対象者の対象者装置10からの要求に基づいて吸入動作を支援する支援情報を対象者装置10へ提供することができる。支援情報は、通信部52を介して対象者装置10へ送信することができる。支援情報は、例えば、吸入動作のやり方を説明するガイダンス動画や音声案内などを含む。これにより、対象者が吸入容器の取り扱いに不慣れであっても、正しい吸引動作を行えるように支援することができる。
対象者DB56は、対象者毎に、対象者名、対象者の属性、対象者のカルテ情報、対象者の吸入動作を行った日時や吸入動作の評価結果などを記録している。対象者の属性は、例えば、対象者の体型や年齢とすることができるが、これに限定されるものではなく、例えば、性別、身長、体重、胸囲、筋力、筋肉量、体脂肪率、血圧、肥満度、運動能力など様々な特性を含めてもよい。カルテ情報は、吸入薬の処方箋(吸入薬の使用条件を含む)を含む。対象者DB56に記録される情報は、対象者装置10や指導者装置20などから入力することができる。
記憶部57は、通信部52を介して取得した対象者の画像(動画)、支援情報提供部55で提供する支援情報、吸入動作推定結果(レポートを含む)などの所要の情報を記憶することができる。
特徴判定部58は、通信部52を介して取得した画像に基づいて対象者の所定筋肉周辺の特徴、対象者の肩の動きの特徴及び上体の動きの特徴を判定することができる。所定筋肉は、例えば、補助吸気筋(胸鎖乳突筋や斜角筋等)とすることができ、本明細書では所定筋肉は頸部にある胸鎖乳突筋として説明する。胸鎖乳突筋は、吸入動作を行うと、吸気動作で収縮し浮き出て胸鎖乳突筋の周辺に陰影が現れる。吸入動作を行うと、肩の位置が移動する。また、姿勢によって肩の上がり方に特徴があり、姿勢が良いとややそるような動きで肩が上がる傾向がある。上体の動きは、例えば、上半身全体の動きとすることができ、対象者が椅子などに座って吸入動作を行うと、上半身全体が移動する。特徴判定部58の詳細は後述する。
評価指標算出部59は、特徴判定部58で判定した陰影、肩の移動量及び上体の移動量それぞれを表す評価値に所要の重み付け係数を付与して評価指標を算出する。評価指標算出の詳細は後述する。
次に、対象者装置10が実行する処理について説明する。
図4は対象者装置10の処理手順の一例を示すフローチャートである。以下では、便宜上、処理の主体を制御部11として説明する。制御部11は、対象者が予め設定されている時刻(例えば毎日20時等)になるとアプリ(吸入動作推定アプリ)の利用を開始したか否か、すなわち、対象者が吸入を忘れているか否かを判定する(S11)。アプリの利用を忘れていないか否かの判定は、例えば、処方箋に基づいて対象者が設定されたタイミングでアプリを起動したり、入力を行ったか否かによって判定できる。例えば、対象者に対する指示が、朝、昼、夜の3回吸入薬を吸入することである場合に、昼を過ぎてもアプリが起動されない場合には、対象者は吸入を忘れていると判定することができる。
吸入を忘れたと判定された場合(S11でYES)、制御部11は、警告を出力し(S12)、吸入動作が行われるまで待機する。対象者が吸入動作を忘れていると判定される場合、出力部14は、警告音を出力(送信)することができる。これにより、対象者に指示通りの吸入動作を行うように注意喚起することができる。
吸入を忘れていない場合(S11でNO)、制御部11は、アプリの使用履歴の有無を判定することができる(S13)。なお、対象者が初めてアプリを利用する場合、ユーザ情報(例えば、氏名、年齢、体型、メールアドレスなどを含む)を登録するようにしてもよい。アプリの使用履歴がある場合(S13でYES)、対象者は過去に吸入動作を行っているので、制御部11は、通信部12を介してサーバ50と通信を行い、サーバ50の記憶部57に記憶した吸入動作推定結果を参照して、前回の吸入動作の評価を出力し(S14)、後述のステップS17の処理を行う。出力する評価は、例えば、前回の吸入動作が失敗していた時は、「今回は前回より強く吸ってみましょう」の如く内容を音声で出力又は文字で表示することができ、前回の吸入動作が成功していた時は、「前回と同じように吸ってみましょう」の如く内容を音声で出力又は文字で表示することができる。
アプリの使用履歴がない場合(S13でNO)、制御部11は、対象者装置10に内蔵されたカメラを用いて吸入容器を撮影する(S15)。吸入容器を撮影した画像は、通信部12を介してサーバ50に送信され、吸入容器の種類を判定する(S16)。この場合、容器情報は、例えば、吸入容器のタイプ(種類)を含む。例えば、対象者が対象者装置10に内蔵されたカメラで吸入容器を撮像し、撮像して得られた画像を、通信部12を介してサーバ50に送信する。サーバ50は画像を取得し、取得した画像に対して所定の画像処理を行って吸入容器のタイプをディープラーニング等の認識技術を用いて判定することができる。あるいは、対象者が吸入容器のタイプを示す文字や記号などを対象者装置10で入力し、入力した情報をサーバ50に送信することで対応する文字列等を有する容器を特定することが可能である。なお、対象者装置10の記憶部13に特徴量を含む各種容器の情報を備える場合は、サーバに問い合わせることなく、容器の判定が可能である。容器の判定結果は記憶部13に記憶することができる。
制御部11は、ガイダンス動画の要求の有無を判定することができる(S17)。ガイダンス動画の要求がある場合(S17でYES)、制御部11は、出力部14を介してガイダンス動画を出力し(S18)、後述のステップS19の処理を行う。ガイダンス動画は、吸入動作のやり方を説明する動画であり、対象者の吸入動作を撮像するため、対象者装置のカメラの向きや対象者装置の設置方法などの説明も含まれる。これにより、対象者は、自身をほぼ真横(90°)から撮像できるように対象者装置10を机上等に設置することができる。ガイダンス動画は、サーバ50へアクセスして対象者毎に予め設定された対象動画をストリーミング配信して出力することもできるし、予め対象者装置10の記憶部13にダウンロードしておいた動画を出力することもできる。なお、対象動画は予め対象者と対応付けて決められていてもよいし、後述の吸入容器の判定結果から対応する動画を決定し出力することもできる。
ガイダンス動画の要求がない場合(S17でNO)、制御部11は、ステップS16で特定した吸入容器の種類に応じた音声案内を、出力部14を介して出力し(S19)、撮像部を用いて画像(動画)を取得し(S20)、処理を終了する。
図5は吸入容器の種類の一例を示す説明図である。吸入容器のA、B、C、…とする。吸入容器Aは、ドライパウダー吸入器であり、対象者は使用する吸入容器がAである場合、音声案内Aを出力する。吸入容器Bは、噴霧吸入器であり、対象者は使用する吸入容器がBである場合、音声案内Bを出力する。吸入容器Cは、ミスト吸入器であり、対象者は使用する吸入容器がCである場合、音声案内Cを出力する。このように、支援情報提供部55は、通信部52で取得した容器情報に応じた音声案内を対象者装置10へ提供することができる。これにより、吸入容器のタイプに応じて吸入容器の取り扱い方が異なる場合でも、対象者が使用する吸入容器に合わせて最適な支援情報を提供することができる。
図6は音声案内の一例を示す説明図である。音声案内は、例えば、以下に示すG1からG5の音声ガイダンスで構成することができるが、これに限定されない。G1では、例えば、「吸入容器を持って口元に持っていき、咥えて下さい」という音声ガイドを流す。その際、実際に吸入動作が音声ガイダンスとともに行われているかを判定するために吸入容器のトラッキングを行ってもよい。
図7は音声案内に基づく吸入容器のトラッキングの様子の一例を示す模式図である。図中、符号P1は鼻の位置を示し、符号P2は手首(又は吸入容器でもよい)の位置を示す。吸入容器の位置の特定は、一般的な画像認識処理を用いればよい。音声ガイドG1を流す前においては、左図に示すように対象者は手首を膝の上に置いているとする。音声ガイドG1を流すことにより、右図に示すように、対象者は吸入容器を持って口元に持っていき、咥えるので、鼻の位置と手首(又は吸入容器)の位置とは近づく。
音声ガイドG1によって、対象者は、吸入容器を咥える。対象者を撮像して得られた画像に対して姿勢判定部53及び動作推定部54が所定の処理を行い、鼻の位置と手首の位置との距離が所定範囲内であれば、対象者が吸入容器を口で咥えたと判定できるので、対象者が吸入動作をしようとしている、あるいは吸入動作を行っていると推定できる。
G2では、例えば、「咥えたまま姿勢を画面に表示されているガイドに合わせてください」という音声ガイド及び画像ガイドを流す。これにより、対象者の姿勢を正しい姿勢に誘導することができる。
図8は音声案内に基づく姿勢判定の様子の一例を示す模式図である。図中、符号P1、P2、P3は、それぞれ鼻、手首(又は吸入容器)、腰の位置を示す。左図は、正しい姿勢を示し、右図は、対象者を撮像して得られた現在の姿勢を示す。図8では、便宜上、正しい姿勢と現在の姿勢とを分けて表示しているが、両方の姿勢を同じ画面上で重ねて表示してもよい。重ねて表示する場合には、正しい姿勢と現在の姿勢とが明瞭に区別できるように、例えば、正しい姿勢をスケルトン表示で表示するなど表示態様を異ならせて表示することができる。
左図に示すように、正しい姿勢では、鼻の位置P1と腰の位置P3とを結ぶ直線と水平線とのなす角度をαとする。なお、角度αは、一の数値でもよく、ある数値範囲でもよい。右図に示すように、対象者の現在の姿勢では、鼻の位置P1と腰の位置P3とを結ぶ直線と水平線とのなす角度をα′とする。この場合にも、姿勢判定部53及び動作推定部54による処理によって、角度α′と角度αとの差が所定範囲内であれば、対象者が吸入動作を行うときの正しい姿勢になっていると判定し、対象者が吸入動作をしようとしている、あるいは吸入動作を行っていると推定してもよい。
図8の右図に示すように、対象者の体が前に傾いている場合、背筋を伸ばすように、画面上で、あるいは音声で誘導することができる。また、図示していないが、対象者の体が後ろに傾いている場合、背筋を丸めるように、画面上で、あるいは音声で誘導することができる。
G3では、例えば、「大きく息を吐いてから息を吸い込んでください」という音声ガイドを流し、G4では、「そのまま5秒間息を止めてください」という音声ガイドを流し、5秒経過後に、G5では、「楽にしてください。吸入動作は終了です」という音声ガイドを流す。音声案内が出力されている間、対象者装置10のカメラは、対象者の吸入動作を撮像することができる。なお、音声ガイドG3の発声から所定時間の間、対象者装置10のカメラで撮像した画像(動画)を用いて吸入動作の推定を行うことができ、各部の認識や推定は、対象者装置10でもサーバ50でもそれぞれに認識や推定用のデータを保有させることで適宜処理を行わせることが可能である。また、吸入動作の推定を行った後に、正しい吸入動作が行われたと推定される場合には、「次回もこの調子で吸入してください」の如く音声ガイドを流すことができ、逆に、正しい吸入動作ができなかったと推定される場合には、「次回はもう少し強めに吸入してみましょう」の如く音声ガイドを流すことができる。
次に、サーバ50による処理について説明する。
図9はサーバ50による吸入動作推定の処理手順の一例を示すフローチャートである。以下では、便宜上、処理の主体を制御部51として説明する。なお、システム構成はこれに限ることなく、各種プログラム等を対象者装置10に保持することによって本処理を対象者装置10にて実行することも可能である。制御部51は、対象者の人体の所定部位の位置を判定し(S31)、吸入容器の位置を判定する(S32)。所定部位の位置の判定は、例えば、OpenPoseなどを用いることができ、吸入容器の位置の判定は、通常の画像認識処理を用いることができる。なお、ステップS31において、所定部位として手首の位置を含めて判定する場合、ステップS32の処理は不要であるが、ステップS31において、所定部位として手首の位置を含めない場合には、ステップS32の処理は必要である。
制御部51は、対象者は吸入容器を咥えたか否かを判定し(S33)、吸入容器を咥えていない場合(S33でNO)、ステップS33の処理を続ける。吸入容器を咥えたか否かは、鼻の位置と手首(又は吸入容器)の位置との距離が所定範囲内であるか否かに応じて判定できる。
吸入容器を咥えた場合(S33でYES)、制御部51は、対象者の姿勢が正しい吸入動作姿勢であるか否かを判定し(S34)、正しい吸入動作姿勢でない場合(S34でNO)、姿勢の修正を案内し(S35)、ステップS34の処理を続ける。ステップS35の姿勢の修正の案内は、前述の音声ガイドG2に加えることができる。なお、ステップS35の処理を行わずに、正しい吸入動作姿勢でない場合、ステップS34の処理を続けてもよい。
正しい吸入動作姿勢である場合(S34でYES)、制御部51は、吸入動作を推定し(S36)、推定結果を出力し(S37)、処理を終了する。吸入動作推定の特徴判定の詳細は後述する。推定結果は、対象者装置10、指導者装置20へ出力(送信)することができる。また、推定結果は、対象者DB56に記録することができる。
図10はサーバ50による吸入動作推定における特徴判定の処理手順の一例を示すフローチャートである。制御部51は、対象者の画像(動画)を取得し(S41)、取得した画像に基づいて対象者の人体の所定部位の位置を判定する(S42)。なお、ステップS42の処理は、図9のステップ31の処理で代用することができる。
制御部51は、胸鎖乳突筋を含む所定領域を特定し(S43)、特定した所定領域を切出画像として抽出し(S44)、胸鎖乳突筋周辺の陰影を判定する(S45)。ステップS43からS45の処理は、胸鎖乳突筋周辺の陰影を特徴として判定する処理であり、以下、当該処理の詳細について説明する。
図11は胸鎖乳突筋周辺の陰影判定の処理の一例を示す模式図であり、図12は切出画像の一例を示す模式図である。図11に示すように、対象者が吸入動作を行っているときに撮像して得られた画像(撮像画像)の各フレームを、フレーム1、2、…、i、…、Nとする。
画像切出部581は、抽出部としての機能を有し、取得した画像に基づいて所定筋肉を含む領域の切出画像(領域画像)を抽出する。図11の例では、取得した画像のフレーム1、2、…、Nそれぞれに対応して、N個の切出画像が抽出されている。本明細書では、所定筋肉を胸鎖乳突筋として説明する。切出画像は、図11に示すように、例えば、胸鎖乳突筋を含む所定の大きさの画像とすることができる。胸鎖乳突筋の位置は、例えば、所定部位としての首、耳などの位置から胸鎖乳突筋の位置を推定することができる。所定部位の判定は、例えば、OpenPoseなどを用いることができ、胸鎖乳突筋の位置は所定部位の直線で結んだ中心点を中心とした任意の領域を切出画像とすることができる。
陰影判定部582(特徴判定部)は、画像切出部581で抽出した切出画像の輝度又は色相等、各種特徴量に基づいて胸鎖乳突筋周辺の陰影を特徴として判定する。陰影の特徴は、陰影の有無でもよく、陰影の程度でもよい。陰影の特徴は指標として表すことができ、例えば、陰影なしと判定した場合には、指標=0とし、陰影ありと判定した場合には、指標=1とすることができる。図11の例では、ケース1として、切出画像1、2、…、Nのうち、切出画像iは、陰影ありと判定され、指標=1がセットされ、その他の切出画像については、陰影なしと判定され、指標=0がセットされている。この場合、指標(スコア)=1がセットされた切出画像iに陰影ありと判定することができる。
また、陰影を程度で判定する場合には、陰影の程度に応じて、指標を0から1の範囲の数値で表すことができる。図11の例では、ケース2として、切出画像1、2、…、Nのうち、切出画像(i−1)は、指標=0.7がセットされ、切出画像(i)は、指標=0.9がセットされ、切出画像(i+1)は、指標=0.6がセットされ、その他の切出画像については、指標=0がセットされている。この場合、値が最も大きい指標(0.9)がセットされた切出画像iに陰影ありと判定することができる。
吸入動作を行うと、胸鎖乳突筋が浮き出て胸鎖乳突筋の周辺に陰影が現れる。陰影の有無や程度は、例えば、領域画像内の所要領域間や画素間の輝度又は色相の差として捉えることができる。これにより、所定筋肉周辺の陰影を特徴として判定することができる。
制御部51は、OpenPoseなどを用いて取得したボーンから手首と鼻の特徴点が一定の距離以内にあるフレームを判定対象フレームとして抽出し(S46)、判定対象フレームの所要フレーム間での肩の移動量を判定する(S47)。ステップS46からS47の処理は、肩の移動量を特徴として判定する処理であり、以下、当該処理の詳細について説明する。
図13は判定対象フレームの抽出例を示す説明図であり、図14は肩の移動量判定の処理の一例を示す模式図である。図13に示すように、OpenPoseなどを用いて取得したボーンから手首と鼻の特徴点が一定の距離以内にあるフレームを判定対象フレームとする。例えば、手首と鼻の特徴点の距離が100ピクセル以内のフレームを判定対象としたとき、フレーム1〜7は判定対象フレームである。なお、手首と鼻の特徴点の距離は100に限定されるものではなく、他の数でもよい。
肩移動量判定部583(特徴判定部)は、OpenPoseなどを用いて取得したボーンから手首と鼻の特徴点が一定の距離以内にあるフレームを含む画像に基づいて、所要のフレーム間での肩の移動量を特徴として判定する。判定対象フレーム(図ではフレーム1〜7)では、吸入動作が行われていると推定できるので、当該フレーム内では、吸入動作に伴う肩の動きがあると考えられる。図14では、フレーム1〜7それぞれの撮像画像上で、肩の位置を符号S1〜S7で示す。所要のフレーム間とは、ある基準のフレームと他の複数のフレームそれぞれとの間でもよく、時間的に隣り合うフレーム間でもよい。
図14のケース1では、フレーム1を基準のフレームとし、フレーム1と2との間での肩の移動ベクトルを<L12>とし、フレーム1と3との間での肩の移動ベクトルを<L13>とし、以下、同様にして、フレーム1と7との間での肩の移動ベクトルを<L17>としている。なお、図面では、ベクトルを矢印で表記するが、明細書では、便宜上、ベクトルをかっこ(<>)で表す。肩の移動ベクトルのベクトル成分は、画像内の座標値の距離(例えば、ユークリッド距離等)及び移動の向き(例えば、ラジアン又は角度等)を使用する。これらを肩の移動量判定の入力値(移動量ベクトル)として扱う。移動量ベクトル<L>は、<L>=(<L12><L13>…<L17>で表すことができる。肩の移動量をスカラで表す場合には、画像内の座標値の距離又は移動の向きの最大値又は平均値で算出することができる。
図14のケース2は、時間的に隣り合うフレーム間での移動量を求める場合であり、フレーム1と2との間での肩の移動ベクトルを<L12>とし、フレーム2と3との間での肩の移動ベクトルを<L23>とし、以下、同様にして、フレーム6と7との間での肩の移動移動ベクトルを<L67>としている。肩の移動ベクトルのベクトル成分は、画像内の座標値の距離(例えば、ユークリッド距離等)及び移動の向き(例えば、ラジアン又は角度等)を使用する。これらを肩の移動量判定の入力値(移動量ベクトル)として扱う。
移動量ベクトル<L>は、<L>=(<L12><L23>…<L67>)で表すことができる。肩の移動量をスカラで表す場合には、画像内の座標値の距離又は移動の向きの最大値又は平均値で算出することができる。なお、図14において、フレーム数が多い場合には、一部のフレームを間引いて移動量を求めてもよい。
なお、肩の移動量ベクトルに代えて、スカラを用いる場合には、分類器583aに代えて、ルールベースの判別器を用いることができる。この場合、肩の移動量スカラと所定の閾値との差に応じて指標を算出することができる。
制御部51は、判定対象フレームの所要フレーム間での上体の移動量を判定する(S48)。ステップS48の処理は、腰の角度の変化量を特徴として判定する処理であり、以下、当該処理の詳細について説明する。
図15は上体の移動量判定の処理の一例を示す模式図である。図14の場合と同様、フレーム1〜7は判定対象フレームである。上体移動量判定部584(特徴判定部)は、OpenPoseなどを用いて取得したボーンから手首と鼻の特徴点が一定の距離以内にあるフレームを含む画像に基づいて、所要のフレーム間での腰の角度の変化量を特徴として判定する。
所要のフレーム間とは、時間的に隣り合うフレーム間とすることができるが、フレーム数が多い場合には、一部のフレームを間引いて変化量を求めてもよい。
腰の変化量は、腰の角度の変化量とすることができる。例えば、判定対象フレーム内でOpenPoseなどを用いて取得したボーンから首と腰の特徴点を直線で結んだ際、水平と直線の角度を腰の角度とする。上体の移動量は、腰の角度の変化量として捉えることができる。
図15に示すように、フレーム1を基準のフレームとし、フレーム1と2との間での腰の角度の変化量をΔA12とし、フレーム1と3の間での腰の角度の変化量をΔA13とし、以下、同様にしてフレーム1と7の間で腰の角度の変化量をΔA17としている。腰の角度の変化量をベクトルで表す場合には変化量ベクトル<A>は、<A>=(ΔA12、ΔA13、…、ΔA17)で表すことができ、腰の角度の移動量をスカラで表す場合には、例えば、腰の角度の変化量の最大値又は平均値で表すことができる。
動作推定部54は、特徴判定部58で判定した特徴に基づいて吸入動作を推定することができる。吸入動作が行われると、胸鎖乳突筋の周辺の陰影、肩の動き、上体の動きなどが特徴として表れるので、当該特徴に基づいて吸入動作を推定することができる。
制御部51は、陰影、肩の移動量及び上体の移動量それぞれに所要の重み付け係数を付与して評価指標を算出し(S49)、吸入動作を推定し(S50)、処理を終了する。以下、評価指標の算出の詳細について説明する。
動作推定部54は、評価指標算出部59で算出した評価指標に基づいて吸入動作を推定する。例えば、評価指標Eの値が大きいほど、吸入動作をしている可能性が高いと推定でき、逆に、評価指標Eの値が小さいほど、吸入動作をしている可能性が低いと推定できる。医師は、評価指標Eの値に基づいて、対象者が吸入動作を行っているか否かの判断を行うことができる。
図16は評価指標の算出時の重み付け係数の第1例を示す説明図である。評価指標算出部59は、対象者の体型を含む属性に応じて異なる重み付け係数を付与して評価指標を算出することができる。例えば、肥満型の人よりもやせ型の人の方が、吸入動作時に胸鎖乳突筋の周辺に陰影が現れやすい傾向があり、また、やせ型の人よりも肥満型の人方が、吸入動作時に肩の動きが大きくなる傾向がある。そこで、図16に示すように、対象者がやせ型である場合、陰影のスコアに対する重み付け係数w1を大きい値とし、肩の移動量のスコアに対する重み付け係数w2を小さい値とし、上体の移動量のスコアに対する重み付け係数w3を中くらいの値とする。また、対象者が肥満型である場合、陰影のスコアに対する重み付け係数w1を小さい値とし、肩の移動量のスコアに対する重み付け係数w2を大きい値とし、上体の移動量のスコアに対する重み付け係数w3を中くらいの値とする。属性には、体型だけでなく、年齢などを含めることができる。これにより、対象者の属性に応じて精度よく吸引動作を推定することができる。
評価指標算出部59は、設定部としての機能を有し、医師の指導に基づいて吸入動作を行ったとき等の正しい吸入動作が行われていると客観的に判断可能な際の動作を予め記憶しておくことで、対象者を撮像して得られた複数のフレームを含む画像に基づいてガイドの指標に用いることや、特徴判定部58が判定した特徴を用いて所要の重み付け係数を設定することができる。対象者の属性は、体型や年齢だけでなく、性別、身長、体重、筋力、血圧、肥満度、運動能力など様々な特性が考えられ、一律に数値で表せない場合もある。そこで、医師による吸引動作の指導の際に対象者の吸引動作を撮影し、判定した特徴(胸鎖乳突筋の周辺の陰影、肩の移動量、上体の移動量)を表す個々の指標E1、E2、E3にどのような重み付け係数w1、w2、w3を付与すれば、正しい吸引動作を表す評価指標Eとなるかを逆算して、重み付け係数w1、w2、w3を設定することができる。
評価指標算出部59は、自宅などで処方箋に基づいて吸入動作を行う際に撮像した画像に基づいて得られた指標E1、E2、E3に、設定した重み付け係数を付与して評価指標を算出することができる。重み付け係数は、対象者が医師の指導の下、正しい吸引動作を行ったときの評価指標が得られるように設定されているので、評価指標が大きい場合には、正しい吸引動作が行われていると精度よく推定でき、逆に、評価指標が小さい場合には、誤った吸引動作が行われていると精度よく推定できる。
対象者DB56は、記憶部としての機能を有し、対象者に対して指示された吸入薬の使用条件を記憶することができる。使用条件は、例えば、1日の吸入回数、次の吸入までの時間間隔などの医師による処方箋に基づく吸入薬の使用条件である。
制御部51は、出力部としての機能を有し、動作推定部54で吸入動作が推定されない場合、または推定した吸入動作が使用条件と一致しない場合、通信部52を介して対象者装置10へ警告を出力することができる。例えば、対象者が吸入動作を忘れていると判定される場合、あるいは指示された1日の吸入回数や、次の吸入までの時間間隔を守っていないと判定される場合には、警告を出力することにより、対象者に指示通りの吸入動作を行うように注意喚起することができる。
サーバ50は、CPU(プロセッサ)、RAMなどを備えたコンピュータを用いて実現することもできる。図9及び図10に示すような処理の手順を定めたコンピュータプログラム(記録媒体に記録可能)をコンピュータに備えられた記録媒体読取部で読み取り、読み取ったコンピュータプログラムをRAMにロードし、コンピュータプログラムをCPU(プロセッサ)で実行することにより、コンピュータ上でサーバ50を実現することができる。
本実施の形態の吸入動作推定装置は、対象者を撮像して得られた画像を取得する取得部と、前記取得部で取得した画像に基づいて、前記対象者の姿勢及び/又は前記対象者の人体の所定部位を判定する姿勢判定部と、前記姿勢判定部で判定した姿勢、前記対象者の所定部位の特徴量又は動きの変化量の少なくともいずれか1つに基づいて前記対象者による吸入薬の吸入動作を推定する動作推定部とを備える。
本実施の形態のコンピュータプログラムは、コンピュータに、対象者を撮像して得られた画像を取得する処理と、取得した画像に基づいて、前記対象者の姿勢及び/又は前記対象者の人体の所定部位を判定する処理と、判定した姿勢、前記対象者の所定部位の特徴量又は動きの変化量の少なくともいずれか1つに基づいて前記対象者による吸入薬の吸入動作を推定する処理とを実行させる。
本実施の形態の吸入動作推定方法は、対象者を撮像して得られた画像を取得し、取得された画像に基づいて、前記対象者の姿勢及び/又は前記対象者の人体の所定部位を判定し、判定された姿勢、前記対象者の所定部位の特徴量又は動きの変化量の少なくともいずれか1つに基づいて前記対象者による吸入薬の吸入動作を推定する。
取得部は、対象者を撮像して得られた画像を取得する。対象者の撮像には、例えば、カメラ等の動画像を撮像できる対象者装置を使用することができる。対象者を撮像する場合、対象者の吸入動作時の姿勢を判定しやすくするため、対象者の右側面や左側面から撮影することができる。
姿勢判定部は、取得部で取得した画像に基づいて対象者の姿勢及び/又は前記対象者の人体の所定部位を判定する。姿勢判定には、例えば、2D画像に基づいて人体の姿勢の特徴点をディープラーニングに利用して検知する技術(例えば、OpenPose)を用いることができる。取得した画像に基づいて人体の複数の関節の位置を推定し、推定した関節の位置に基づいて対象者の姿勢を判定することができる。
姿勢判定部は、取得部で取得した画像に基づいて対象者の人体の所定部位を判定する。所定部位は、例えば、鼻、手首、腰などを含むことができる。
動作推定部は、姿勢判定部で判定した姿勢、対象者の所定部位の特徴量又は動きの変化量の少なくともいずれか1つに基づいて対象者による吸入薬の吸入動作を推定する。取得した画像に基づく対象者の姿勢と、予め定められた吸入動作時の正しい姿勢とを比較することにより、吸入動作を推定することができる。吸入動作の推定には、例えば、吸入動作を行っていることの確からしさを示す評価値を用いることができる。例えば、評価値が大きいほど、吸入動作を行っていると推定できる確率が高い。
所定部位は、例えば、鼻、手首、腰などを含む。例えば、鼻の位置と手首の位置との距離が所定範囲内であれば、対象者が吸入容器を手で掴み、吸入容器を口で咥えたと判定できるので、対象者が吸入動作をしようとしている、あるいは吸入動作を行っていると推定できる。また、例えば、鼻の位置と腰の位置とを結ぶ直線と水平線とのなす角度が所定範囲内であれば、対象者が吸入動作を行うときの正しい姿勢になっていると判定できるので、対象者が吸入動作をしようとしている、あるいは吸入動作を行っていると推定できる。
上述の構成により、吸入薬の吸入動作を推定することができる。
本実施の形態の吸入動作推定装置は、前記取得部で取得した画像に基づいて前記対象者の所定筋肉周辺の特徴、前記対象者の肩の動きの特徴及び上体の動きの特徴を判定する特徴判定部を備え、前記動作推定部は、前記特徴判定部で判定した特徴に基づいて吸入動作を推定する。
特徴判定部は、取得部で取得した画像に基づいて対象者の所定筋肉周辺の特徴、対象者の肩の動きの特徴及び上体の動きの特徴を判定する。所定筋肉は、例えば、頸部にある胸鎖乳突筋とすることができ、吸入動作を行うと、胸鎖乳突筋が浮き出て胸鎖乳突筋の周辺に陰影が現れる。吸入動作を行うと、肩の位置が移動する。対象者が椅子などに座って吸入動作を行うと、上体が移動する。上体の動きは、例えば、腰の角度の変化量として捉えることができる。
動作推定部は、特徴判定部で判定した特徴に基づいて吸入動作を推定する。吸入動作が行われると、胸鎖乳突筋の周辺の陰影、肩の動き、上体の動きなどが特徴として表れるので、当該特徴に基づいて吸入動作を推定することができる。
本実施の形態の吸入動作推定装置は、前記取得部で取得した画像に基づいて前記所定筋肉を含む領域の領域画像を抽出する抽出部を備え、前記特徴判定部は、前記抽出部で抽出した領域画像の輝度又は色相に基づいて前記所定筋肉周辺の陰影を前記特徴として判定する。
抽出部は、取得部で取得した画像に基づいて所定筋肉を含む領域の領域画像を抽出する。領域画像は、例えば、胸鎖乳突筋を含む所定の大きさの画像とすることができる。胸鎖乳突筋の位置は、例えば、所定部位としての首、耳などの位置から胸鎖乳突筋の位置を推定することができる。
特徴判定部は、抽出部で抽出した領域画像の輝度又は色相に基づいて所定筋肉周辺の陰影を特徴として判定する。陰影の特徴は、陰影の有無でもよく、陰影の程度でもよい。陰影の特徴は指標として表すことができ、例えば、陰影なしと判定した場合には、指標=0とし、陰影ありと判定した場合には、指標=1とすることができる。また、陰影を程度で判定する場合には、陰影の程度に応じて、指標を0から1の範囲の数値で表すことができる。吸入動作を行うと、胸鎖乳突筋が浮き出て胸鎖乳突筋の周辺に陰影が現れる。陰影の有無や程度は、例えば、領域画像内の所要領域間や画素間の輝度又は色相の差として捉えることができる。これにより、所定筋肉周辺の陰影を特徴として判定することができる。
本実施の形態の吸入動作推定装置において、吸入の初期動作を検知した際の複数の吸入動作判定対象フレームを含む画像に基づいて、所要のフレーム間での前記肩の移動量を前記特徴として判定する。
吸入の初期動作を検知した際に、例えば、OpenPoseなどを用いて取得したボーンから手首と鼻の特徴点が一定の距離以内にあるフレームを吸入動作判定対象フレーム(判定対象フレーム)として抽出できる。特徴判定部は、判定対象フレームを含む画像に基づいて、所要のフレーム間での肩の移動量を特徴として判定する。移動量に応じて、指標を0から1の範囲の数値で表すことができる。判定対象フレームでは、吸入動作が行われていると推定できるので、当該フレーム内のフレームでは、吸入動作に伴う肩の動きがあると考えられる。所要のフレーム間とは、ある基準のフレームと他の複数のフレームそれぞれとの間でもよく、時間的に隣り合うフレーム間でもよい。これにより、当該フレームの前後それぞれの複数のフレームでの肩の位置を特定して得られた肩の移動量を特徴として判定することができる。
本実施の形態の吸入動作推定装置において、前記特徴判定部は、吸入の初期動作を検知した際の複数の吸入動作判定対象フレームを含む画像に基づいて、所要のフレーム間での前記上体の移動量を前記特徴として判定する。
吸入の初期動作を検知した際に、例えば、OpenPoseなどを用いて取得したボーンから手首と鼻の特徴点が一定の距離以内にあるフレームを吸入動作判定対象フレーム(判定対象フレーム)として抽出できる。特徴判定部は、判定対象フレーム含む画像に基づいて、所要のフレーム間での上体の移動量を特徴として判定する。上体の移動量は、腰の角度の変化量として捉えることができる。腰の角度の変化量に応じて、指標を0から1の範囲の数値で表すことができる。判定対象フレームでは、吸入動作が行われていると推定できるので、当該フレーム内のフレームでは、吸入動作に伴う上体の移動(例えば、腰の角度の変化)があると考えられる。所要のフレーム間とは、時間的に隣り合うフレーム間とすることができる。これにより、当該フレーム内の複数のフレームでの上体の位置を特定して得られた腰の角度の変化量を特徴として判定することができる。
本実施の形態の吸入動作推定装置は、前記特徴判定部で判定した陰影、肩の移動量及び上体の移動量それぞれに所要の重み付け係数を付与して評価指標を算出する評価指標算出部を備え、前記動作推定部は、前記評価指標算出部で算出した評価指標に基づいて吸入動作を推定する。
評価指標算出部は、特徴判定部で判定した陰影、肩の移動量及び上体の移動量それぞれに所要の重み付け係数を付与して評価指標を算出する。例えば、陰影の特徴を指標E1で表し、肩の移動量の特徴を指標E2で表し、上体の移動量の特徴を指標E3で表すとする。陰影、肩の移動量及び上体の移動量それぞれに対する重み付け係数をw1、w2、w3とする。評価指標Eは、E=w1×E1+w2×E2+w3×E3という式で算出することができる。重み付け係数w1、w2、w3は、予め決定しておくことができる。
動作推定部は、評価指標算出部で算出した評価指標に基づいて吸入動作を推定する。例えば、評価指標Eの値が大きいほど、吸入動作をしている可能性が高いと推定でき、逆に、評価指標Eの値が小さいほど、吸入動作をしている可能性が低いと推定できる。医師は、評価指標Eの値に基づいて、対象者が吸入動作を行っているか否かの判断を行うことができる。
本実施の形態の吸入動作推定装置は、前記評価指標算出部は、前記対象者の体型を含む属性に応じて異なる重み付け係数を付与して評価指標を算出する。
評価指標算出部は、対象者の体型を含む属性に応じて異なる重み付け係数を付与して評価指標を算出する。例えば、肥満型の人よりもやせ型の人の方が、吸入動作時に胸鎖乳突筋の周辺に陰影が現れやすい傾向があり、また、やせ型の人よりも肥満型の人方が、吸入動作時に肩の動きが大きくなる傾向がある。そこで、対象者がやせ型である場合、重み付け係数w1、w2、w3を、それぞれ大きい値、小さい値、中くらいの値とし、対象者が肥満型である場合、重み付け係数w1、w2、w3を、それぞれ小さい値、大きい値、中くらいの値とすることができる。属性には、体型だけでなく、年齢などを含めることができる。これにより、対象者の属性に応じて、精度よく吸引動作を推定することができる。
本実施の形態の吸入動作推定装置は、医師の指導に基づいて吸入動作を行ったときの前記対象者を撮像して得られた複数のフレームを含む画像に基づいて前記特徴判定部が判定した特徴を用いて所要の重み付け係数を設定する設定部を備え、前記評価指標算出部は、前記設定部で設定した重み付け係数を付与して評価指標を算出する。
設定部は、医師の指導に基づいて吸入動作を行ったときの対象者を撮像して得られた複数のフレームを含む画像に基づいて特徴判定部が判定した特徴を用いて所要の重み付け係数を設定する。対象者の属性は、体型や年齢だけでなく、性別、身長、体重、筋力、血圧、肥満度、運動能力など様々な特性が考えられ、一律に数値で表せない場合もある。そこで、医師による吸引動作の指導の際に対象者の吸引動作を撮影し、判定した特徴(胸鎖乳突筋の周辺の陰影、肩の移動量、上体の移動量)を表す個々の指標にどのような重み付け係数w1、w2、w3を付与すれば、正しい吸引動作を表す評価指標となるかを逆算して、重み付け係数w1、w2、w3を設定することができる。
評価指標算出部は、設定部で設定した重み付け係数を付与して評価指標を算出する。重み付け係数は、対象者が医師の指導の下、正しい吸引動作を行ったときの評価指標が得られるように設定されているので、評価指標が大きい場合には、正しい吸引動作が行われていると精度よく推定でき、逆に、評価指標が小さい場合には、誤った吸引動作が行われていると精度よく推定できる。
本実施の形態の吸入動作推定装置は、前記対象者に対して指示された吸入薬の使用条件を記憶する記憶部と、前記動作推定部で吸入動作が推定されない場合、または推定した吸入動作が前記使用条件と一致しない場合、警告を出力する出力部とを備える。
記憶部は、対象者に対して指示された吸入薬の使用条件を記憶する。使用条件は、例えば、1日の吸入回数、次の吸入までの時間間隔などの医師による処方箋に基づく吸入薬の使用条件である。
出力部は、動作推定部で吸入動作が推定されない場合、または推定した吸入動作が使用条件と一致しない場合、警告を出力する。例えば、対象者が吸入動作を忘れていると判定される場合、あるいは指示された1日の吸入回数や、次の吸入までの時間間隔を守っていないと判定される場合には、警告を出力することにより、対象者に指示通りの吸入動作を行うように注意喚起することができる。
本実施の形態の吸入動作推定装置は、前記対象者の対象者装置からの要求に基づいて吸入動作を支援する支援情報を前記対象者装置へ提供する提供部を備える。
提供部は、対象者の対象者装置からの要求に基づいて吸入動作を支援する支援情報を対象者装置へ提供する。支援情報は、例えば、吸入動作のやり方を説明するガイダンス動画や音声案内などを含む。これにより、対象者が吸入容器の取り扱いに不慣れであっても、正しい吸引動作を行えるように支援することができる。
本実施の形態の吸入動作推定装置は、前記対象者が使用する吸入容器に関する容器情報を取得する容器情報取得部を備え、前記提供部は、前記容器情報取得部で取得した容器情報に応じた支援情報を提供する。
容器情報取得部は、対象者が使用する吸入容器に関する容器情報を取得する。容器情報は、例えば、吸入容器のタイプ(種類)を含む。容器情報の取得は、例えば、対象者が吸入容器をカメラで撮像して得られた画像に基づいて、吸入容器のタイプを判定して取得してもよく、あるいは対象者が吸入容器のタイプを入力して得られた情報に基づいて、吸入容器のタイプを判定して取得してもよい。
提供部は、容器情報取得部で取得した容器情報に応じた支援情報を提供する。これにより、吸入容器のタイプに応じて吸入容器の取り扱い方が異なる場合でも、対象者が使用する吸入容器に合わせて最適な支援情報を提供することができる。
1 通信ネットワーク
10 対象者装置
11 制御部
12 通信部
13 記憶部
14 出力部
20 指導者装置
21 カメラ
50 サーバ
51 制御部
52 通信部
53 姿勢判定部
54 動作推定部
55 支援情報提供部
56 対象者DB
57 記憶部
58 特徴判定部
581 画像切出部
582 陰影判定部
583 肩移動量判定部
583a 分類器
584 上体移動量判定部
584a 分類器
59 評価指標算出部

Claims (13)

  1. 対象者を撮像して得られた画像を取得する取得部と、
    前記取得部で取得した画像に基づいて、前記対象者の姿勢及び/又は前記対象者の人体の所定部位を判定する姿勢判定部と、
    前記姿勢判定部で判定した姿勢、前記対象者の所定部位の特徴量又は動きの変化量の少なくともいずれか1つに基づいて前記対象者による吸入薬の吸入動作を推定する動作推定部と
    を備える吸入動作推定装置。
  2. 前記取得部で取得した画像に基づいて前記対象者の所定筋肉周辺の特徴、前記対象者の肩の動きの特徴及び上体の動きの特徴を判定する特徴判定部を備え、
    前記動作推定部は、
    前記特徴判定部で判定した特徴に基づいて吸入動作を推定する請求項1に記載の吸入動作推定装置。
  3. 前記取得部で取得した画像に基づいて前記所定筋肉を含む領域の領域画像を抽出する抽出部を備え、
    前記特徴判定部は、
    前記抽出部で抽出した領域画像の輝度又は色相に基づいて前記所定筋肉周辺の陰影を前記特徴として判定する請求項2に記載の吸入動作推定装置。
  4. 前記特徴判定部は、
    吸入の初期動作を検知した際の複数の吸入動作判定対象フレームを含む画像に基づいて、所要のフレーム間での前記肩の移動量を前記特徴として判定する請求項3に記載の吸入動作推定装置。
  5. 前記特徴判定部は、
    吸入の初期動作を検知した際の複数の吸入動作判定対象フレームを含む画像に基づいて、所要のフレーム間での前記上体の移動量を前記特徴として判定する請求項3又は請求項4に記載の吸入動作推定装置。
  6. 前記特徴判定部で判定した陰影、肩の移動量及び上体の移動量それぞれに所要の重み付け係数を付与して評価指標を算出する評価指標算出部を備え、
    前記動作推定部は、
    前記評価指標算出部で算出した評価指標に基づいて吸入動作を推定する請求項3から請求項5のいずれか一項に記載の吸入動作推定装置。
  7. 前記評価指標算出部は、
    前記対象者の体型を含む属性に応じて異なる重み付け係数を付与して評価指標を算出する請求項6に記載の吸入動作推定装置。
  8. 医師の指導に基づいて吸入動作を行ったときの前記対象者を撮像して得られた複数のフレームを含む画像に基づいて前記特徴判定部が判定した特徴を用いて所要の重み付け係数を設定する設定部を備え、
    前記評価指標算出部は、
    前記設定部で設定した重み付け係数を付与して評価指標を算出する請求項6に記載の吸入動作推定装置。
  9. 前記対象者に対して指示された吸入薬の使用条件を記憶する記憶部と、
    前記動作推定部で吸入動作が推定されない場合、または推定した吸入動作が前記使用条件と一致しない場合、警告を出力する出力部と
    を備える請求項1から請求項8のいずれか一項に記載の吸入動作推定装置。
  10. 前記対象者の対象者装置からの要求に基づいて吸入動作を支援する支援情報を前記対象者装置へ提供する提供部を備える請求項1から請求項9のいずれか一項に記載の吸入動作推定装置。
  11. 前記対象者が使用する吸入容器に関する容器情報を取得する容器情報取得部を備え、
    前記提供部は、
    前記容器情報取得部で取得した容器情報に応じた支援情報を提供する請求項10に記載の吸入動作推定装置。
  12. コンピュータに、
    対象者を撮像して得られた画像を取得する処理と、
    取得した画像に基づいて、前記対象者の姿勢及び/又は前記対象者の人体の所定部位を判定する処理と、
    判定した姿勢、前記対象者の所定部位の特徴量又は動きの変化量の少なくともいずれか1つに基づいて前記対象者による吸入薬の吸入動作を推定する処理と
    を実行させるコンピュータプログラム。
  13. 対象者を撮像して得られた画像を取得し、
    取得された画像に基づいて、前記対象者の姿勢及び/又は前記対象者の人体の所定部位を判定し、
    判定された姿勢、前記対象者の所定部位の特徴量又は動きの変化量の少なくともいずれか1つに基づいて前記対象者による吸入薬の吸入動作を推定する吸入動作推定方法。
JP2019185351A 2019-10-08 2019-10-08 吸入動作推定装置、コンピュータプログラム及び吸入動作推定方法 Active JP7353605B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019185351A JP7353605B2 (ja) 2019-10-08 2019-10-08 吸入動作推定装置、コンピュータプログラム及び吸入動作推定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019185351A JP7353605B2 (ja) 2019-10-08 2019-10-08 吸入動作推定装置、コンピュータプログラム及び吸入動作推定方法

Publications (2)

Publication Number Publication Date
JP2021060867A true JP2021060867A (ja) 2021-04-15
JP7353605B2 JP7353605B2 (ja) 2023-10-02

Family

ID=75381407

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019185351A Active JP7353605B2 (ja) 2019-10-08 2019-10-08 吸入動作推定装置、コンピュータプログラム及び吸入動作推定方法

Country Status (1)

Country Link
JP (1) JP7353605B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07124126A (ja) * 1993-11-05 1995-05-16 Ken Ishihara 医療用生体情報検出装置、診断装置および治療装置
WO2019122315A1 (en) * 2017-12-21 2019-06-27 Visionhealth Gmbh Inhaler training system and method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07124126A (ja) * 1993-11-05 1995-05-16 Ken Ishihara 医療用生体情報検出装置、診断装置および治療装置
WO2019122315A1 (en) * 2017-12-21 2019-06-27 Visionhealth Gmbh Inhaler training system and method

Also Published As

Publication number Publication date
JP7353605B2 (ja) 2023-10-02

Similar Documents

Publication Publication Date Title
US11857726B2 (en) Mask sizing tool using a mobile application
US11633659B2 (en) Systems and methods for assessing balance and form during body movement
US10352962B2 (en) Systems and methods for real-time data quantification, acquisition, analysis and feedback
US11069144B2 (en) Systems and methods for augmented reality body movement guidance and measurement
US20200245900A1 (en) Systems and methods for real-time data quantification, acquisition, analysis, and feedback
US9600934B2 (en) Augmented-reality range-of-motion therapy system and method of operation thereof
US11679300B2 (en) Systems and methods for real-time data quantification, acquisition, analysis, and feedback
JP4594157B2 (ja) 運動支援システムとその利用者端末装置及び運動支援プログラム
JP6801028B2 (ja) Rgb−dカメラを利用したリハビリ訓練システム及び方法
US20110021317A1 (en) System and method for displaying anonymously annotated physical exercise data
EP2873027A2 (en) Patient interface identification system
KR102320960B1 (ko) 사용자 신체 맞춤형 홈 트레이닝 동작 안내 및 교정 시스템
US20190099573A1 (en) Providing a mask for a patient based on a temporal model generated from a plurality of facial scans
US20230098579A1 (en) Mask sizing tool using a mobile application
JP7353605B2 (ja) 吸入動作推定装置、コンピュータプログラム及び吸入動作推定方法
CN114191787B (zh) 用于交互式呼吸训练的服务器以及该服务器的使用方法
JP2023524416A (ja) 患者の2dの正面画像から患者の3dの顔情報の決定
US20240046510A1 (en) Approaches to independently detecting presence and estimating pose of body parts in digital images and systems for implementing the same
CN117396976A (zh) 患者定位自适应引导系统
WO2018161894A1 (zh) 一种用于远程康复系统的动作指示处理方法及装置
CN116612857A (zh) 用于肩颈康复的运动监测系统、方法及存储介质
JP2015202120A (ja) 解析装置、解析方法及びプログラム
JP2019166238A (ja) 動作模倣支援システム及び動作模倣支援装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220623

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230703

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230829

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230911

R150 Certificate of patent or registration of utility model

Ref document number: 7353605

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150