JP7477033B1 - 歩容解析システムおよびその学習手法 - Google Patents

歩容解析システムおよびその学習手法 Download PDF

Info

Publication number
JP7477033B1
JP7477033B1 JP2023143241A JP2023143241A JP7477033B1 JP 7477033 B1 JP7477033 B1 JP 7477033B1 JP 2023143241 A JP2023143241 A JP 2023143241A JP 2023143241 A JP2023143241 A JP 2023143241A JP 7477033 B1 JP7477033 B1 JP 7477033B1
Authority
JP
Japan
Prior art keywords
acquisition unit
movement amount
gait analysis
analysis system
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023143241A
Other languages
English (en)
Inventor
克彦 西澤
裕馬 小屋松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2023143241A priority Critical patent/JP7477033B1/ja
Application granted granted Critical
Publication of JP7477033B1 publication Critical patent/JP7477033B1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

【課題】歩幅の算出アルゴリズムについて言及しているものはなく、低精度であった。また、移動する歩行車や移動体が備えるカメラでは、カメラ自体が移動するため、歩幅の取得は困難であった。【解決手段】歩容解析システムにおいて、歩幅推定アルゴリズムは、少なくとも、被測定者の脚部位置情報と、移動量取得部が取得した移動量と、を入力とし、進行方向における任意の脚部の左右間距離の時間推移を示す曲線を用いることを特徴とした歩容解析システムが提供される。【選択図】図11

Description

本発明は、高精度な歩幅推定を可能とする歩容解析システムおよびその学習手法に関するものである。
特許文献1から3には、距離センサや加速度センサ等を利用して歩行者の歩幅を推定する技術が開示されている。
特許文献4および特許文献5には、カメラで撮像したリハビリ患者の画像に基づいて、リハビリ患者の姿勢を推定し、リハビリの支援を行う技術が開示されている。
非特許文献1には、歩行車に搭載されたRGB-Dカメラによる深度画像に基づいて、深層学習による使用者の姿勢推定を行い、歩容解析を行う歩行車型歩容解析システムの技術が開示されている。
特開2017-205213号公報 特開2019-219187号公報 特開2019-179456号公報 特開2015-089412号公報 特許7042956号公報
Palermo、 M.、 Moccia、 S.、 Migliorelli、 L.、 Frontoni、 E. and Santos、 C. P.、 「Real-time human pose estimation on a smart walker using convolutional neural networks」、 Expert Systems with Applications Vol.184 (2021)、 DOI:10.1016/j.eswa.2021.115498.
特許文献1~3に開示の距離センサや加速度センサは高価であり、より安価な方法で歩幅や歩行速度を推定することが求められている。そこで、深層学習を用いた簡易な技術が、特許文献4および特許文献5に開示されている。しかし、歩幅の算出アルゴリズムについて言及しているものはない。さらに、非特許文献1に記載の技術では、歩行車に取り付けられたカメラの移動量が考慮されていないため、歩幅や歩行速度を推定することができない。
本開示は、上述した従来の状況を鑑みて、人間の歩幅や歩行速度を簡易なシステムで推定することを目的とする。
本開示は、前記課題を解決するもので、例えば安価なwebカメラなどの画像取得部と、姿勢推定アルゴリズムと、歩幅推定アルゴリズムと、歩行速度推定アルゴリズムとから、歩幅や歩行速度を高精度に推定する歩容解析システムを提供する。
本開示の一態様に係る歩容解析システムは、
歩行を行う被測定者の画像を取得する画像取得部と、
前記画像の前記被測定者の骨格情報を推定する姿勢推定アルゴリズムと、歩幅を推定する歩幅推定アルゴリズムとを有する演算部と、
を備える歩容解析システムにおいて、
前記歩幅推定アルゴリズムは、
少なくとも、前記被測定者の脚部位置情報を入力とし、
進行方向における任意の脚部の左右間距離の時間推移を示す曲線を用いる。
本開示の一態様に係る歩容解析システムは、
歩行を行う使用者を補助する歩行車と
前記歩行車に設けた使用者の画像を取得する画像取得部と、
前記歩行車の移動量を取得する移動量取得部と、
前記画像の前記使用者の骨格情報を推定する姿勢推定アルゴリズムと、歩幅を推定する歩幅推定アルゴリズムとを有する演算部と、
を備える歩容解析システムにおいて、
前記歩幅推定アルゴリズムは、
少なくとも、前記被測定者の脚部位置情報と、
前記移動量取得部が取得した移動量と、
を入力とし、
進行方向における任意の脚部の左右間距離の時間推移を示す曲線を用いる。
本開示の一態様に係る歩容解析システムは、
歩行を行う被測定者の画像を取得する画像取得部と、
前記画像取得部の移動量を取得する移動量取得部と、
前記画像の前記使用者の骨格情報を推定する姿勢推定アルゴリズムと、歩幅を推定する歩幅推定アルゴリズムとを有する演算部と、
を備える歩容解析システムにおいて、
前記歩幅推定アルゴリズムは、
少なくとも、前記被測定者の脚部位置情報と、
前記移動量取得部が取得した移動量と、
を入力とし、
進行方向における任意の脚部の左右間距離の時間推移を示す曲線を用いる。
以上のように、本開示の歩容解析システムによれば、安価に高精度な歩幅を推定することができる。
図1は、本開示の実施例1におけるシステムの全体構成図である。 図2は、本開示の実施例1における外観図である。 図3は、姿勢推定アルゴリズムの出力の一例である。 図4は、歩幅の定義を示す図である。 図5は、健常歩行時と非健常歩行時における、足首の推定位置の時間推移の一例である。 図6は、本開示の実施例1における足首の進行方向の時間推移を直接利用して歩幅を推定する手法のフローチャートを示す図である。 図7は、本開示の実施例1における進行方向における足首の左右間距離の時間推移を示す曲線を説明する図である。 図8は、本開示の実施例1における進行方向における足首の左右間距離の時間推移を示す曲線を利用して歩幅を推定する手法のフローチャートを示す図である。 図9は、本開示の実施例2におけるシステムの全体構成図である。 図10は、本開示の実施例2における外観図である。 図11は、本開示の実施例2における進行方向における足首の左右間距離の時間推移を示す曲線を推定する手法を示す図である。 図12は、本開示の実施例2における学習データ取得時の外観図である。 図13は、本開示の実施例3におけるシステムの全体構成図である。 図14は、本開示の実施例3における外観図である。 図15は、本開示の実施例3における派生例を示す図である。
(本開示に至った経緯)
近年、高齢化によってリハビリテーションの重要性が増しており、歩行リハビリテーションもその一つである。歩行の定量的な解析(歩容解析)が可能になることによって、効果的なリハビリテーションが実現できる。歩容解析の中でも、歩幅の解析は、両足が着地(立脚期)しているタイミングを抽出し、かつ左右の足の距離を求める必要があるため、難しいタスクである。
例えば、特許文献1によれば、複数の距離センサを下肢に取り付けることによって歩幅を取得可能であるが複数のセンサを体に装着する必要がある。そこで、特許文献2によれば、一つの加速度センサで歩幅を取得可能であるが、加速度センサの二重積分による移動距離の算出は誤差が大きいことが知られている。特許文献3によれば、移動体に設けた距離センサで脚部を測定することで歩幅が取得可能である。体にセンサを装着する必要はないが、距離センサを設けた移動体が必要となり、システムが複雑化し、高コストとなる。
近年、深層機械学習の進化により、特許文献4ないし5のようなカメラとパソコンやスマートフォンのみといった簡易な方法で、歩容解析ができるシステムが開発されている。これらは、人間の骨格情報を推定する姿勢推定技術が用いられている。しかし、これらの姿勢推定による骨格情報を単純に用いるだけでは、前述の両足が着地(立脚期)しているタイミングの抽出と、左右の足の距離の推定が難しく、歩幅を高精度に求めることはできない。また、これらの開示には、歩幅の推定方法に関して特段の記載がない。
加えて、歩行車を用いたときの歩容解析も重要である。そこで、非特許文献1によると、2台のカメラを用いて全身の歩容解析を行っている。しかしながら、歩行車に搭載されたカメラは、カメラ自体が移動するために、歩幅や歩行速度といった移動量に関する情報は取得できない。また、2台のカメラを用いることはカメラ間の位置関係に変更があった際に再学習が生じるなど、量産を考えると現実的ではない。
本発明者らは、姿勢推定アルゴリズムから得られた骨格情報において、歩行者が歩く方向(進行方向)の情報を用いることで。高精度に歩幅を推定できることを見出した。また、歩行車や、手持ちカメラなど、移動するカメラ撮像においても、その移動量と、骨格情報を統合したマルチモーダル学習によって、任意の脚部の左右間距離の時間推移を示す曲線を推定することで、高精度に歩幅を推定できることを見出した。
そこで、本発明者らは、以下の発明に至った。
第1の発明は、歩行を行う被測定者の画像を取得する画像取得部と、前記画像の前記被測定者の骨格情報を推定する姿勢推定アルゴリズムと、歩幅を推定する歩幅推定アルゴリズムとを有する演算部と、を備える歩容解析システムにおいて、前記歩幅推定アルゴリズムは、前記被測定者の進行方向における脚部の時系列位置情報を入力とし、左右の脚部の特定部位の進行方向の速度が第一閾値以下となる区間を抽出するステップと、前記区間の統計量を取得するステップと、時系列に並んだ前記統計量の前後の情報(差分等)から歩幅を推定するステップと、を有することである。
これにより、足が鉛直方向に上がらない非健常者においても歩幅の抽出が容易となる。また、人間の方向は鉛直方向よりも進行方向の方が大きい為に、姿勢推定アルゴリズムの誤差に対してロバスト性が向上し、歩幅の抽出が容易となる。
第2の発明は、歩行を行う被測定者の画像を取得する画像取得部と、前記画像の前記被測定者の骨格情報を推定する姿勢推定アルゴリズムと、歩幅を推定する歩幅推定アルゴリズムとを有する演算部とを備える歩容解析システムにおいて、前記歩幅推定アルゴリズムは、少なくとも、前記被測定者の脚部位置情報を入力とし、進行方向における任意の脚部の左右間距離の時間推移を示す曲線を用いることである。
これにより、被測定者の下肢に麻痺がある際の引きずり歩行など異常歩行においても、歩幅を容易に検出でき、リハビリテーションにおける歩容解析に有用である。加えて、周期的な運動である歩行を、周期的である任意の脚部の左右間距離の時間推移を示す曲線で表現することができる。周期的な表現により、歩幅曲線の符号で左右の足の判定など、人間による可読性、コンピューターによる処理性に優れる。
第3の発明は、歩行を行う使用者を補助する歩行車と、前記歩行車に設けた使用者の画像を取得する画像取得部と、前記歩行車の移動量を取得する移動量取得部と、前記画像の前記使用者の骨格情報を推定する姿勢推定アルゴリズムと、歩幅を推定する歩幅推定アルゴリズムとを有する演算部とを備える歩容解析システムにおいて、前記歩幅推定アルゴリズムは、少なくとも、前記被測定者の脚部位置情報と、前記移動量取得部が取得した移動量とを入力とし、進行方向における任意の脚部の左右間距離の時間推移を示す曲線を用いることである。
これにより、歩行車を使用する使用者の歩幅も推定することができる。移動量取得部により、移動量を取得することで、歩行車に搭載され画像取得部が移動する環境においても、歩幅を推定することができる。
第4の発明は、前記画像取得部と、前記移動量取得部は、既存の歩行車に脱着可能としたことである。
これにより、例えば安価なwebカメラと、エンコーダと小型コンピューターを既存の歩行車に取り付けるだけで、歩容解析が可能な歩行車にすることができる。歩行車を含めて既製品で構成できるため、従来の歩行解析システムに比べて安価に提供可能である。
第5の発明は、歩行を行う被測定者の画像を取得する画像取得部と、前記画像取得部の移動量を取得する移動量取得部と、前記画像の前記使用者の骨格情報を推定する姿勢推定アルゴリズムと、歩幅を推定する歩幅推定アルゴリズムとを有する演算部とを備える歩容解析システムにおいて、前記歩幅推定アルゴリズムは、少なくとも、前記被測定者の脚部位置情報と、前記移動量取得部が取得した移動量とを入力とし、進行方向における任意の脚部の左右間距離の時間推移を示す曲線を用いることである。
これにより、移動する画像取得部からの画像であっても、歩幅を推定することができる。これにより、移動量を取得できれば歩幅が推定可能となり、画像取得部を備える移動体や、スマートフォンやタブレットで歩幅の推定が可能となる。特にスマートフォンやタブレットで歩幅の推定が可能になることは、臨床現場において、簡便な歩容解析手段を提供できる。スマートフォンやタブレットのような端末において、移動量データを取得し、その移動量データと骨格情報を統合して、被測定者の動作解析を行う手法はすでに開示されているが、進行方向における任意の脚部の左右間距離の時間推移を示す曲線を用いることにより、より高精度に歩幅を推定することができる。
第6の発明は、前記歩幅推定アルゴリズムは、前記任意の脚部の左右間距離の時間推移を示す曲線の微分値が第二閾値以下であるときにおける、前記進行方向における任意の脚部の左右間距離の時間推移を示す曲線の統計量から歩幅を推定することである。
これにより、両足接地区間の抽出が容易となり、歩幅の推定が容易となる。
第7の発明は、歩行を行う使用者を補助する歩行車と前記歩行車に設けた使用者の画像を取得する画像取得部と、前記歩行車の移動量を取得する移動量取得部と、少なくとも、前記画像取得部から取得した画像と、前記移動量取得部から取得した移動量とを入力とする演算部とから構成される歩容解析システムにおいて、進行方向における任意の脚部の左右間距離の時間推移を示す曲線を教師データとする教師あり学習を行うことである。
これにより、歩行する被測定者の骨格情報と、移動量取得部が取得した移動量を統合し、マルチモーダルな機械学習により歩幅曲線が推定可能になる。このことにより、歩行車のような移動体に搭載された画像取得部であっても、歩幅を推定することができる。
第8の発明は、歩行を行う被測定者の画像を取得する画像取得部と、前記画像取得部の移動量を取得する移動量取得部と、少なくとも、前記画像取得部から取得した画像と、前記移動量取得部から取得した移動量とを入力とする演算部とから構成される歩容解析システムにおいて、進行方向における任意の脚部の左右間距離の時間推移を示す曲線を教師データとする教師あり学習を行うことである。
これにより、歩行する被測定者の骨格情報と、移動量取得部が取得した移動量を統合し、マルチモーダルな機械学習により歩幅曲線が推定可能になる。このことにより、移動体に搭載された画像取得部であっても、歩幅を推定することができる。スマートフォンやタブレット端末などの、画像取得部、移動量取得部、演算部、解析結果提示部の全てを有する1つの汎用端末で、歩容解析(歩幅推定)が可能になる。
以上のように、本開示の歩容解析システムによれば、安価に高精度に歩幅を推定することができる。
以下、本発明の実施の形態について、図面を参照しながら説明する。なお、この実施の形態によって本発明が限定されるものではない。
図1、図2はシステムを構成する図、図3から図8はシステムの処理を説明する図である。これらを用いて、実施例1を説明する。
(1.歩容解析システムの全体構成)
まず図1、図2を用いて歩容解析システム11の全体構成を説明する。
図1はシステム全体の構成を示す図である。歩容解析システム11は、画像取得部12と、演算部13と、解析結果提示部14とから構成されている。演算部13は、姿勢推定アルゴリズム13a、歩幅推定アルゴリズム13b、歩行速度推定アルゴリズム13c、その他歩容解析アルゴリズム13dを有する。画像取得部12は、被測定者21の画像データ15を取得し、演算部13は被測定者21の歩行を解析し、解析結果提示部14は歩容解析結果20を提示する。解析処理に関しては後述する。
図2は歩容解析システム11の外観図である。画像取得部12は、被測定者21が歩行する画像を撮像できるようにスタンド22によって配置されている。画像取得部12は、一般的なwebカメラや、RGB-Dカメラ(深度カメラ)、スマートフォン、産業用カメラ、ビデオカメラ等の画像を取得できる装置であればよい。また、画像には、フレームごとの画像に分解可能な動画も含まれる。スタンド22に関しては、カメラが適切な位置に配置されればよく、机や、手持ちによってスタンド22を用いずともよい。本実施例では、webカメラが三脚によって固定されている。
演算部13は、後述するアルゴリズムを処理するための処理装置である。演算部13は、画像取得部12が取得した画像を処理可能であれば、画像取得部12と別体あるいは、スマートフォンのような同一端末でもよい。画像取得部12と別体である場合は、画像取得部12が取得した画像を画像保存装置(図示せず)に保存した後に、転送してもよい。転送には、USBフラッシュメモリを使う方法や、ローカルネットワークによる無線転送等の転送手段が用いられる。また、画像取得部12と、演算部13とをUSBケーブル等の通信手段によって、直接接続しても良い。本実施例では、webカメラと演算部13がUSBケーブルによって接続されており、撮像データが保存された後に、人間の指示によって解析が実行される。
(2.歩容解析システムの解析処理)
演算部13が有する骨格情報16を推定する姿勢推定アルゴリズム13aは、図3のように画像取得部12が取得した被測定者21の画像を基に、被測定者21の骨格情報16を推定するアルゴリズムである。画像から深層学習を用いて、画像に写る人間の関節中心位置や、部位の中心や端点(目や鼻の中心)などの位置をキーポイント31として推定する。近年の深層学習により、画像のみで姿勢推定が可能であるが、画像に加えて、深度情報を用いても良い。姿勢推定により、被測定者21の歩容を解析する。
一般的に姿勢推定アルゴリズムには、撮像された画像平面の2次元のキーポイント位置を推定する2D姿勢推定と、画像平面に加えてその奥行き情報も推定する3D姿勢推定が存在する。本実施例では、3D姿勢推定を使用する。歩行する被測定者の側面から画像を撮像可能な場合においては、2D姿勢推定でも、進行方向の情報が取得でき、本発明は適用可能である。
ここで、両足接地時を図4に示す。両足接地時の左足41、右足42の左右踵間距離43を歩幅17と定義する。歩幅17を推定するためには両足が接地しているタイミングを抽出する必要がある。そこで、姿勢推定アルゴリズム13aより推定した、足首の位置の時間推移を図5に示す。足首を用いたのは、使用した姿勢推定アルゴリズム13aに踵のキーポイント31が存在しなかったためであり、使用するキーポイント31は踵やつま先など足の任意位置で構わない。
図5(a)の健常歩行の足首の上下方向の位置の時間推移をよると、足が接地するタイミングを抽出するのに必要な極小区間(接地時)51や、遊脚時の足が接地していない区間52が分かりやすく、両足が接地しているタイミングの抽出が容易である。(図中の51、52は右足にのみ記載。左足も同様)しかし、図5(b)の非健常歩行の足首の上下方向の位置の時間推移を見ると、左足の極小区間(接地時)は明確であるが、右足の極小区間(接地時)53は曖昧であり、両踵が接地しているタイミングの抽出が困難となり、歩幅17の推定が困難である。
そこで、本実施例では、図5(c)、図5(d)のように足首の進行方向の位置の時間推移を利用する。進行方向の位置の時間推移によると、健常歩行、非健常歩行ともに、左右の足の動き(立脚・遊脚期)が分かりやすく、両足が接地しているタイミングの抽出が容易であり、歩幅17の推定が容易である。
足首の進行方向の位置の時間推移は、接地している足(立脚期の足)が移動せず、接地していない足(遊脚期の足)が進行方向に移動する。そのため、移動していない区間、すなわち進行方向の時間推移の平坦な区間54が、接地しているタイミングであり、その区間の前後の距離55が歩幅17とほぼ一致する。この進行方向に時間推移のグラフの特徴は非健常歩行であっても変わらない。つまり、足首の進行方向の時間推移を利用することにより、歩幅17を容易に推定できる。
ここで、図6に歩幅17を推定する処理を記載する。前述の理由から、一般的に足の接地を表す上下方向の位置情報ではなく、進行方向の位置情報を用いる。
まず初めに、左足の解析を行う。ステップST61では、左足首の進行方向の位置61を時系列にプロットする。歩幅17を推定するのに必要である、足が接地している区間を算出するために、進行方向の時間推移の平坦な区間である抽出区間62を求める必要がある。
そこで、ステップST62では、抽出区間62を進行方向の時間推移の微分値(速度)が第1閾値以下となる区間とし、これを抽出する。
次に、ステップST63では、抽出した区間の統計量を取得する。本実施例では、統計量は平均値を用いた。ただし、中央値のほか、平均値に係数をかけた値など、抽出した区間を取得する手段であればよい。
最後に、ステップST64では、時系列に並んだ区間の統計量の差分を歩幅17とすることで、各n歩目の歩幅17を推定する。本実施例では、時系列に並んだ区間の統計量の差分を歩幅としたが、差分以外に、時系列に並んだ区間の統計量を用いた統計処理や、機械学習手法を用いてもよい。
右足についても、同様の解析手法で行う。左右の処理の順番が入れ替わってもよいことは言うまでもない。
しかし、歩幅17は周期的運動である為、周期的な解析を行う事ができるとより解析が簡易となる。
そこで、図7に示す、進行方向における任意の脚部の左右間距離の時間推移を示す曲線を用いる。本実施例では、左足首のキーポイント71に対する右足首のキーポイント72の進行方向の左右間距離73の時間推移を示す曲線74を用いる。この曲線の左右間距離73は、立脚期、遊脚期(両足の接地状態)に関わらず、常に左右の足首間の進行方向の距離である。本実施例では、足首のキーポイント71、72を用いたが、使用するキーポイントは踵やつま先など足の任意位置で構わない。以後、足首の左右間距離73の時間推移を示す曲線74を歩幅曲線74と定義する。
歩幅曲線74は、歩行に応じて周期的な曲線であり、解析が簡便になる。両足接地時付近では、歩幅曲線74の変化量が減少し、歩幅曲線74の微分値75の絶対値がある閾値内に入ることから、両足接地区間76の抽出が可能となる。閾値には、第二閾値77を用いる。そして、その区間内における歩幅曲線74の平均値を歩幅17の推定値とすることによって、歩幅17の推定が可能となる。また、歩幅曲線74の符号で左右の足の判定を行い、歩幅17を検出した順番で何歩目かを判断可能である。本実施例の第二閾値77は100mm/sを使用した。第二閾値77は、システムの構成により適宜調整すべきパラメータであるが、歩幅曲線74の変化量が減少する区間を抽出する値として、20mm/sから300mm/s程度の範囲が妥当である。
歩幅曲線74は、図5(e)、図5(f)に示すように、健常歩行、非健常歩行によって傾向が変化することなく、非健常方向の歩幅17を推定するのに有用である。
図8を用いて、本実施例における歩幅曲線74を用いて歩幅17を推定する方法を詳細に説明する。
最初に、ステップST81において、進行方向の左右の足首間の距離(歩幅曲線74)を時系列にプロットする。
次に、ステップST82において、進行方向の左右の足首間の距離の時系列データを時間で微分する。
次に、ステップST83において、進行方向の左右の足首間の距離の時系列データを時間微分値(歩幅曲線74の微分値75)が、第二閾値77以下となる区間を抽出する。
次に、ステップST84において、抽出した区間における進行方向の左右の足首間の距離(歩幅曲線74)の平均値を歩幅17として取得する。
最後に、ステップST85において、取得した歩幅17の符号に応じて、左右の足を判定し、1歩目から順に歩幅17とし歩容解析の結果とする。
本実施例では、区間内の歩幅曲線74の平均値を用いたが、区間内の中央値や、平均値に係数をかけた値など区間内のその他の統計値を用いてもよい。
歩行速度推定アルゴリズム13cは、歩行速度18を骨格情報16から推定する。また、その他歩容解析アルゴリズム13dを設けて、その他の所望の歩容解析を行ってもよい。
(3.歩容解析システムの解析結果の提示)
演算部13が処理した各解析結果は、解析結果提示部14によって、被測定者21や、理学療法士(図示せず)などに提示される。提示方法は、モニタ(図示せず)に表示してもよく、印刷物に記載してもよい。また各解析アルゴリズムの結果を基に、歩行自立度や転倒リスクなどの総合的な指標を提示してもよい。
以上のように構成した歩容解析システム11について、以下、その動作と効果を説明する。
骨格情報16を推定する姿勢推定アルゴリズム13aを用いた歩幅推定において、被測定者21の上下方向(足の接地の有無)ではなく、進行方向の位置情報を用いて、歩幅17を推定する。推定には、左右の脚部の特定部位の進行方向の速度が第一閾値以下となる区間を抽出するステップST62と、前記区間の統計量を取得するステップST63と、時系列に並んだ前記統計量の前後の距離から歩幅17を推定するステップST64と、を設ける。このことにより、被測定者21の下肢に麻痺がある際の引きずり歩行など異常歩行においても、歩幅17を容易に検出でき、リハビリテーションにおける歩容解析に有用である。
次に、任意の脚部の左右間距離73の時間推移を示す曲線(歩幅曲線74)を用いることにより、被測定者21の下肢に麻痺がある際の引きずり歩行など異常歩行においても、歩幅17を容易に検出でき、リハビリテーションにおける歩容解析に有用である。加えて、周期的な運動である歩行を、周期的な歩幅曲線74で表現することができ、歩幅曲線74の符号で左右の足の判定など、人間がデータを見たときの可読性、コンピューターによる処理性に優れる。
図9、図10はシステムを構成する図、図11はシステムの処理を説明する図、図12は歩幅曲線の学習データ収集時の外観を説明する図である。これらを用いて、実施例2を説明する。実施例1と重複する内容は省略することもある。
(1.歩容解析システムの全体構成)
図9、図10のシステムを構成する図を用いて、歩容解析システム11の全体構成を説明する。
図9はシステム全体の構成を示す図である。歩容解析システム11は、歩行車91と、演算部13と、解析結果提示部14とから構成されている。歩行車91は、画像取得部12と移動量取得部92とを備える。演算部13は、姿勢推定アルゴリズム13a、歩幅推定アルゴリズム13b、歩行速度推定アルゴリズム13c、その他歩容解析アルゴリズム13dを有する。画像取得部12は使用者101の画像データ15を取得し、移動量取得部92は歩行車91の移動量データ93を取得し、演算部13は使用者101の歩行を解析し、解析結果提示部14はその解析結果を提示する。画像データ15と、移動量データ93は、計測した時間情報を有し、2つのデータを同期させて解析可能であるとよい。解析処理に関しては後述する。
図10は歩行車91を用いる歩容解析システム11の外観図である。使用者101を補助する歩行車91に画像取得部12と移動量取得部92が設けられている。これら、画像取得部12と移動量取得部92は脱着可能に設けられていてもよく、既存の歩行車91に後付け可能であってもよい。
画像取得部12は、一般的なwebカメラや、RGB-Dカメラ(深度カメラ)、スマートフォン、産業用カメラ、ビデオカメラ等の画像を取得できる装置であればよい。また、画像には、フレームごとの画像に分解可能な動画も含まれる。
歩行車91に取り付けた画像取得部12と、使用者101はその距離が近いために被写体距離が近くなる。そのため、通常のカメラでは使用者101の体の一部しか撮像することができず、使用者101の全身の歩容解析ができない。歩行は全身動作であり、全身の歩容解析が重要である。そこで、画像取得部12には広角カメラ1台を用いるとよい。特に160度以上の広角カメラを用いることで、1台で全身が撮像可能になり、複数台カメラによるデメリットもなく、全身の歩容解析が可能になる。
歩行車91には、移動量取得部92が設けられ、移動量データ93を取得可能である。歩行車91の走行輪には、移動量取得部92として、エンコーダが設けられている。移動量取得部92は、そのほかに、床面に光を照射しその反射をセンサで検出する手法でもよく、回転体を床面に接地させロータリーエンコーダがその回転を検出する手法でもよく、自己位置推定から得られる手法でもよく、歩行者自立航法測位を用いた手法等、移動量を取得可能であればよい。
演算部13は、後述するアルゴリズムを処理するための処理装置である。演算部13は、画像取得部12が取得した画像データ15と、移動量取得部92が取得した移動量データ93を処理可能であれば、歩行車91と別体あるいは、歩行車91に搭載した同一体でもよい。歩行車91と別体である場合は、画像取得部12が取得した画像と、移動量取得部92が取得した移動量データ93を保存装置(図示せず)に保存した後に、転送してもよい。転送には、USBフラッシュメモリを使う方法や、ローカルネットワークによる無線転送等の転送手段が用いられる。また、画像取得部12と、移動量取得部92と、演算部13とをUSBケーブル等の通信手段によって、直接接続しても良い。
(2.歩容解析システムの解析処理)
本実施例では、実施の形態1と同様に歩幅曲線74を用いて、歩幅17を推定する。姿勢推定に関しては、使用者101を前方から測定する場合においては3D姿勢推定のみが使用可能である。本実施例においては、画像取得部12は歩行車91に設けられているために、画像取得部12が移動する。そのため、歩幅曲線74を画像からの姿勢推定のみで、推定することは不可能である。歩幅曲線74は実施の形態1で説明しているため省略する。
そこで、図11に示す機械学習手法を用いて、歩行する使用者101の骨格情報16と、移動量取得部92が取得した移動量データ93を統合し、歩幅曲線74を推定する。機械学習手法には、使用者101の骨格情報16の一部である足首のキーポイント71、72の位置情報111と移動量データ93を入力とし、計測機による歩幅曲線74の真値を教師データとする教師あり学習を用いて、モデルを構築する。
本実施例では、多層パーセプトロン(Multi-layer perceptron、 MLP)112を用いた。入力データは、時系列データの推移を学習するために、推定フレームと前後40フレームの81フレームのデータを使用した。81フレームにわたる中央(41フレーム目)の歩幅曲線74の値を出力(推定値)とした。
教師あり学習における学習データの収集には、図12に示すように、使用者101や歩行車91に取り付けた再帰性反射マーカ121と3次元位置測定機122とを用いて、使用者101が歩行する際の測定機によるデータ(真値)と、画像データ15、移動量データ93を収集した。3次元位置測定機122は、複数の赤外線カメラ123で、測定範囲を囲み、再帰性反射マーカ121の位置を計測する装置である。歩容解析システム11は、学習データ収集時に、3次元位置測定機122と、時間同期するために、赤外線発光体124を備えているとよい。
足首のキーポイント71、72の位置情報111は、足首である必要はなく脚部の任意のキーポイント31でよい。また、位置情報111は、上下方向と進行方向の両方を用いてもよいし、その一方であってもよい。また、左右1セットのキーポイント31だけでなく、複数のキーポイント31を入力としてもよい。さらに、微分して速度に変換してもよい。移動量データ93は、移動量データ93を基に速度に変換した値を用いてもよい。
本実施例では、機械学習手法にMLP112を用いたが、再帰型ニューラルネットワーク(Recurrent Neural Network)や、Transformerを用いてもよい。
本実施例では、教師データとなる歩幅曲線74の真値の取得には、3次元位置測定機122を用いた。真値の取得手段には、その他に、脚部や全身に加速度センサを装着するモーションキャプチャーシステムや、2Dライダー・3Dライダーを用いる手法、歩行路に複数のセンサを並べて歩容を取得する手法等、進行方向における任意の脚部の左右間距離73を測定できる手段であればよい。
以上のように構成した歩容解析システム11について、以下、その動作と効果を説明する。
姿勢推定アルゴリズム13aが推定した歩行する使用者101の骨格情報16と、移動量取得部92が取得した移動量データ93を統合し、マルチモーダルな機械学習により歩幅曲線74を推定する。従来の開示では、このように歩行車91のような移動体に搭載された画像取得部12の骨格情報16から、歩幅17や歩行速度18を推定することは難しかった。また、歩幅17に関して、詳細な推定アルゴリズムは開示されていない。本開示の歩幅曲線74を用いることによって、歩行車91のような移動体に搭載された画像取得部12であっても、歩幅17を推定することができる。
画像取得部12と移動量取得部92は脱着可能に設けられていてもよく、既存の歩行車91に後付け可能である。このことにより、例えば安価なwebカメラと、エンコーダと小型コンピューターを既存の歩行車91に取り付けるだけで、歩容解析が可能な歩行車91にすることができる。歩行車91を含めて既製品で構成できるため、従来の歩容解析システムに比べて安価に提供可能である。
図13、図14はシステムを構成する図、図15はシステムの派生を示す図である。これらを用いて、実施例3を説明する。実施例1、実施例2と重複する内容は省略することもある。なお、被測定者21と使用者101は、歩行車91の使用の有無で表記が異なるが、歩容解析(歩幅解析)の処理においては、同様に処理される。
(1.歩容解析システムの全体構成)
図13、図14のシステムを構成する図を用いて、歩容解析システム11の全体構成を説明する。
図13はシステム全体の構成を示す図である。歩容解析システム11は画像取得部12と、演算部13と、解析結果提示部14とから構成されている。画像取得部12は、移動量取得部92を備える。演算部13は、姿勢推定アルゴリズム13a、歩幅推定アルゴリズム13b、歩行速度推定アルゴリズム13c、その他歩容解析アルゴリズム13dを有する。画像取得部12は使用者101の画像データ15を取得し、演算部13は被測定者21の歩行を解析し、解析結果提示部14はその解析結果を提示する。画像取得部12、移動量取得部92、演算部13、解析結果提示部14は、その機能を有していれば同一の端末で構成されていてもよく、スマートフォンやタブレットなどがその一例である。
図14において、画像取得部12は、被測定者21が歩行する画像を撮像する。画像取得部12は、一般的なwebカメラや、RGB-Dカメラ(深度カメラ)、スマートフォン、産業用カメラ、ビデオカメラ等の画像を取得できる装置であればよい。また、画像には、フレームごとの画像に分解可能な動画も含まれる。
画像取得部12は、移動量データ93を取得する移動量取得部92を備える。図14の実施例では、移動量取得部92を備える移動体141に画像取得部12が搭載されている。この場合、移動体141は、理学療法士などの測定者142によって、被測定者21が測定できるように移動される。
その他の画像取得部12と移動量取得部92の構成を図15の派生例に示す。
図15(a)のスマートフォン等を移動させる手法では、スマートフォンやタブレットのような端末151を用いて、画像取得部12は端末151が有するカメラ等とし、移動量取得部92には自己位置推定や歩行者自立航法測位を用いることができる。端末151を保持した、理学療法士などの測定者142が、被測定者21を測定することで、画像データ15と移動量データ93が取得可能である。これによって、歩容解析ができる。
図15(b)の移動体が自走する手法では、移動量取得部92を備える移動体141に画像取得部12が搭載されている。移動体141は被測定者21との相対距離に応じて、駆動手段152によって自動で走行し、歩容解析ができる。
図15(c)の被測定者が移動体を押す手法では、移動量取得部92を備える移動体141に画像取得部12が搭載されている。移動体141を被測定者21が、バー153を用いて押すことで歩容解析ができる。
(2.歩容解析システムの解析処理)
本実施例では、実施例2と同様に歩幅曲線74を用いて、歩幅17を推定する。歩幅曲線74に関しては実施の形態1で説明しているため省略する。実施例2と同じく、本実施例では、画像取得部12が移動する。そのため、歩幅曲線74を姿勢推定アルゴリズム13aからの骨格情報16のみで、推定することは不可能である。
そこで、歩行する被測定者21の骨格情報16と、移動量取得部92が取得した移動量データ93を統合し、歩幅曲線74を推定する。歩幅曲線74の推定には、被測定者21の足首のキーポイント71、72の位置情報111と移動量データ93を入力とし、計測機による歩幅曲線74の真値を教師データとする機械学習手法を用いる。以降は、実施例2と同様であるため省略する。
以上のように構成した歩容解析システム11について、以下、その動作と効果を説明する。
歩行する被測定者21の骨格情報16と、移動量取得部92が取得した移動量データ93を統合し、マルチモーダルな機械学習により歩幅曲線74を推定する。このことにより、移動する画像取得部12からの画像データ15であっても、歩幅17を推定することができる。これにより、移動量データ93を取得できれば歩幅17が推定可能となり、画像取得部12を備える移動体141や、スマートフォンやタブレットのような端末151で歩幅17の推定が可能となる。
スマートフォンやタブレットのような端末151において、自己位置推定機能等によって移動量データ93を取得し、その移動量データ93と骨格情報16を統合して、被測定者21の動作解析を行う手法はすでに開示されているが、本発明の歩幅曲線74とその処理を用いることにより、高精度に歩幅17を推定することができる。
以上、本発明に係る歩容解析システム11について、上記実施の形態により説明したが、本発明は、これに限定されるものではない。本発明の目的を達成する範囲内で変更可能であることは言うまでもない。すなわち、今回開示した実施の形態はすべての点において例示であって制限的なものではないと考えられるべきである。つまり、本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。
本開示は、リハビリテーションにおける歩容解析、特に歩幅の評価に適用可能である。
11 歩容解析システム
12 画像取得部
13 演算部
13a 姿勢推定アルゴリズム
13b 歩幅推定アルゴリズム
13c 歩行速度推定アルゴリズム
13d その他歩容解析アルゴリズム
14 解析結果提示部
15 画像データ
16 骨格情報
17 歩幅
18 歩行速度
19 左右ブレ、関節角度など
20 歩容解析結果
21 被測定者
22 スタンド
31 キーポイント
41 左足
42 右足
43 左右踵間距離
51 健常歩行における極小区間(接地時)
52 足が接地していない区間
53 非健常者歩行における極小区間(接地時)
54 時間推移の平坦な区間
55 区間の前後の距離
61 左足首の進行方向の位置情報
62 抽出区間
71 左足首のキーポイント
72 右足首のキーポイント
73 左右間距離
74 歩幅曲線
75 歩幅曲線の微分値
76 両踵接地区間
77 第二閾値
91 歩行車
92 移動量取得部
93 移動量データ
101 使用者
111 足首のキーポイントの位置情報
112 多層パーセプトロン(Multi-layer perceptron、 MLP)
121 再帰性反射マーカ
122 3次元位置測定機
123 赤外線カメラ
124 赤外線発光体
141 移動体
142 測定者
151 スマートフォンやタブレットのような端末
152 駆動手段
153 バー

Claims (8)

  1. 歩行を行う被測定者の画像を取得する画像取得部と、
    前記画像取得部の移動量を取得する移動量取得部と、
    前記画像の前記被測定者の骨格情報を推定する姿勢推定アルゴリズムと、歩幅を推定する歩幅推定アルゴリズムとを有する演算部と、
    を備える歩容解析システムにおいて、
    前記歩幅推定アルゴリズムは、
    少なくとも、
    前記被測定者の進行方向における脚部の時系列位置情報と、
    前記移動量取得部が取得した前記移動量と、
    を入力として、
    前記進行方向における任意の脚部の左右間距離の時間推移を示す曲線を推定し、
    前記任意の脚部の左右間距離の時間推移を示す曲線が、両足接地と判定できる区間を抽出し、
    前記区間内における、前記任意の脚部の左右間距離の時間推移を示す曲線の統計値から歩幅を推定すること
    を特徴とした歩容解析システム。
  2. 前記歩容解析システムは、
    歩行車を使用する使用者の歩容解析を行うために、
    前記画像取得部と、
    前記移動量取得部と、
    は前記歩行車に搭載され、
    前記移動量取得部は前記歩行車の移動量を取得すること
    を特徴とした請求項1記載の歩容解析システム。
  3. 前記画像取得部と、前記移動量取得部は、
    既存の歩行車に脱着可能としたこと
    を特徴とした請求項2記載の歩容解析システム。
  4. 請求項1に記載の歩容解析システムにおいて、
    請求項1における移動量取得部が取得する移動量は、
    測定者が移動させる移動体または、使用者が移動させる移動体または、自走する移動体が取得する移動量であること
    を特徴とした請求項1記載の歩容解析システム。
  5. 請求項1に記載の歩容解析システムにおいて、
    請求項1における移動量取得部が取得する移動量は、
    画像取得部を有する端末が取得する移動量であること
    を特徴とした請求項1記載の歩容解析システム。
  6. 前記歩幅推定アルゴリズムは、
    前記進行方向における任意の脚部の左右間距離の時間推移を示す曲線の微分値が第二閾値以下である区間を両足接地区間として、
    前記両足接地区間中における、前記任意の脚部の左右間距離の時間推移を示す曲線の平均値や中央値などの統計値を用いて、
    歩幅を推定すること
    を特徴とした請求項1または請求項4ないし5記載の歩容解析システム。
  7. 歩行を行う使用者を補助する歩行車と
    前記歩行車に設けた使用者の画像を取得する画像取得部と、
    前記歩行車の移動量を取得する移動量取得部と、
    少なくとも、前記画像取得部から取得した画像と、前記移動量取得部から取得した移動量とを入力とする演算部と、
    から構成される歩容解析システムにおいて、
    少なくとも、
    前記使用者の進行方向における脚部の時系列位置情報と、
    前記移動量取得部が取得した前記移動量と、
    を入力として、
    進行方向における任意の脚部の左右間距離の時間推移を示す曲線を教師データとする教師あり学習を行うこと
    を特徴とした学習手法。
  8. 歩行を行う被測定者の画像を取得する画像取得部と、
    前記画像取得部の移動量を取得する移動量取得部と、
    少なくとも、前記画像取得部から取得した画像と、前記移動量取得部から取得した移動量とを入力とする演算部と、
    から構成される歩容解析システムにおいて、
    少なくとも、
    前記被測定者の進行方向における脚部の時系列位置情報と、
    前記移動量取得部が取得した前記移動量と、
    を入力として、
    進行方向における任意の脚部の左右間距離の時間推移を示す曲線を教師データとする教師あり学習を行うこと
    を特徴とした学習手法。
JP2023143241A 2023-09-04 2023-09-04 歩容解析システムおよびその学習手法 Active JP7477033B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023143241A JP7477033B1 (ja) 2023-09-04 2023-09-04 歩容解析システムおよびその学習手法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023143241A JP7477033B1 (ja) 2023-09-04 2023-09-04 歩容解析システムおよびその学習手法

Publications (1)

Publication Number Publication Date
JP7477033B1 true JP7477033B1 (ja) 2024-05-01

Family

ID=90827087

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023143241A Active JP7477033B1 (ja) 2023-09-04 2023-09-04 歩容解析システムおよびその学習手法

Country Status (1)

Country Link
JP (1) JP7477033B1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015042241A (ja) 2013-01-18 2015-03-05 株式会社東芝 動作情報処理装置及び方法
JP2015219216A (ja) 2014-05-21 2015-12-07 公益財団法人ヒューマンサイエンス振興財団 歩行位置計測方法、歩行位置計測プログラム及び記録媒体
US20170004631A1 (en) 2015-07-01 2017-01-05 Grafty, Inc. Method and system for visual pedometry
CN110731784A (zh) 2019-10-23 2020-01-31 广东智爱机器人科技有限公司 一种基于移动平台的步态测量系统及其步态测量方法
JP2022032103A (ja) 2020-08-11 2022-02-25 トヨタ自動車株式会社 歩行推定システム、歩行推定方法、及びプログラム
WO2022216233A1 (en) 2021-04-08 2022-10-13 Nanyang Technological University Gait monitoring method and robot

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015042241A (ja) 2013-01-18 2015-03-05 株式会社東芝 動作情報処理装置及び方法
JP2015219216A (ja) 2014-05-21 2015-12-07 公益財団法人ヒューマンサイエンス振興財団 歩行位置計測方法、歩行位置計測プログラム及び記録媒体
US20170004631A1 (en) 2015-07-01 2017-01-05 Grafty, Inc. Method and system for visual pedometry
CN110731784A (zh) 2019-10-23 2020-01-31 广东智爱机器人科技有限公司 一种基于移动平台的步态测量系统及其步态测量方法
JP2022032103A (ja) 2020-08-11 2022-02-25 トヨタ自動車株式会社 歩行推定システム、歩行推定方法、及びプログラム
WO2022216233A1 (en) 2021-04-08 2022-10-13 Nanyang Technological University Gait monitoring method and robot

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
西澤克彦, 他3名,歩行車使用時の被歩行補助者を対象とした画像によるモデルベース姿勢推定,第22回計測自動制御学会システムインテグレーション部門講演会,2021年12月15日,pp.1599-1602

Similar Documents

Publication Publication Date Title
Clark et al. Three-dimensional cameras and skeleton pose tracking for physical function assessment: A review of uses, validity, current developments and Kinect alternatives
CN107080540B (zh) 用于分析人的步态和姿势平衡的系统和方法
KR102292683B1 (ko) 보행 환경 인식 방법 및 장치
Prakash et al. Passive marker based optical system for gait kinematics for lower extremity
KR101118654B1 (ko) 모션캡쳐 기반의 자세분석을 통한 재활 장치 및 이에 따른 재활 방법
CN102679964B (zh) 步态参数测量系统及其数据处理装置和方法
CN112438724A (zh) 跌倒风险评估方法、跌倒风险评估装置以及记录介质
KR102128268B1 (ko) 발 특성 정보를 이용한 보행 능력 예측 방법 및 시스템
Wang et al. Gait analysis and validation using voxel data
JP7477033B1 (ja) 歩容解析システムおよびその学習手法
Ahmed et al. Kalman filter-based noise reduction framework for posture estimation using depth sensor
KR20160035497A (ko) 스켈레톤 추출정보를 이용한 동작분석 기반의 체형분석 시스템
Yang et al. Empowering a gait feature-rich timed-up-and-go system for complex ecological environments
US11497962B2 (en) System and method for human motion detection and tracking
Dao et al. Kinect-based non-intrusive human gait analysis and visualization
Martins et al. Real-time gait assessment with an active depth sensor placed in a walker
CN115530815A (zh) 一种基于角速度传感器的步态时相识别方法
KR20230120341A (ko) 2차원 영상을 이용한 3차원 인체 관절 각도 예측 방법 및 시스템
JP7473354B2 (ja) サルコペニア評価方法、サルコペニア評価装置及びサルコペニア評価プログラム
Barone et al. A markerless system based on smartphones and webcam for the measure of step length, width and duration on treadmill
KR20220042631A (ko) 보행 영상 기반의 보행 측정 방법 및 이의 장치
CN108885087A (zh) 测量装置、测量方法和计算机可读记录介质
Serrano et al. Automated feet detection for clinical gait assessment
Maruyama et al. Accuracy evaluation of human gait estimation by a sparse set of inertial measurement units
CN112107290A (zh) 预测对象的多个步态周期的kam的系统、方法和软件应用程序

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20230905

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240401

R150 Certificate of patent or registration of utility model

Ref document number: 7477033

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150