JP2022115705A - Motion analysis data acquisition method and motion analysis data acquisition system - Google Patents

Motion analysis data acquisition method and motion analysis data acquisition system Download PDF

Info

Publication number
JP2022115705A
JP2022115705A JP2021012431A JP2021012431A JP2022115705A JP 2022115705 A JP2022115705 A JP 2022115705A JP 2021012431 A JP2021012431 A JP 2021012431A JP 2021012431 A JP2021012431 A JP 2021012431A JP 2022115705 A JP2022115705 A JP 2022115705A
Authority
JP
Japan
Prior art keywords
subject
data
motion
analysis data
data acquisition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021012431A
Other languages
Japanese (ja)
Inventor
利幸 永井
Toshiyuki Nagai
元基 中尾
Motoki Nakao
貴弘 小川
Takahiro Ogawa
健司 平田
Kenji Hirata
邦弘 千代
Kunihiro Chiyo
学 大津
Manabu Otsu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hokkaido University NUC
Infocom Corp
Original Assignee
Hokkaido University NUC
Infocom Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hokkaido University NUC, Infocom Corp filed Critical Hokkaido University NUC
Priority to JP2021012431A priority Critical patent/JP2022115705A/en
Publication of JP2022115705A publication Critical patent/JP2022115705A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a motion analysis data acquisition method and a motion analysis data acquisition system capable of acquiring data that appropriately reflects the motion of a subject so that direct and detailed analysis of the motion of the subject can be performed for evaluation of human body functions, etc.SOLUTION: A motion analysis data acquisition method comprises imaging a subject during the following test with a camera of a mobile terminal, and generating data indicating the coordinates of a plurality of feature points on the subject's body on the basis of the imaging result. The subject is made to stand up from sitting on a chair 41 at a position P1, and is moved along markers 42 to 44 to a position P2 separated to the right side from the position P1. Consequently, for the imaged right half of the subject, data indicating the coordinates of the feature points and how the feature points are connected is acquired during the motion of standing up from the chair at the position P1 and during the motion from the position P1 to the position P2.SELECTED DRAWING: Figure 5

Description

本発明は、人の移動時の動作を解析するためのデータを取得する動作解析データ取得
方法及び動作解析データ取得システムに関する。
The present invention relates to a motion analysis data acquisition method and a motion analysis data acquisition system for acquiring data for analyzing motions of people when they move.

従来、人の身体機能の医学的な評価等の目的で歩行等の動作を行わせ、これを検証す
る場合がある。非特許文献1の「タイムドアップアンドゴー(TUG)テスト」はその
一例である。被験者に、椅子に座った状態から立ち上がらせ、3m歩行させた後、向き
を変えて元の椅子まで歩行させ、再び椅子に座らせる。非特許文献1では、この一連の
動作に掛かる時間と被験者のバランス、歩行速度及び機能的能力との相関性が議論されている。
Conventionally, for the purpose of medical evaluation of a person's bodily functions, there is a case where a motion such as walking is performed and verified. The “Timed Up and Go (TUG) Test” in Non-Patent Document 1 is one example. The subject was asked to stand up from a chair, walk 3m, then turn around, walk back to the original chair, and sit on the chair again. Non-Patent Document 1 discusses the correlation between the time taken for this series of movements and the subject's balance, walking speed, and functional ability.

ポドシアドロ,D、リチャードソン,S(Podsiadlo D and Rich ardson S.)「時間計測された「アップ&ゴー」:虚弱な高齢者のための基本的な機能 的可動性のテスト(The Timed "Up & Go": A Test of Basic Functional Mobility for Frail Elderly Persons)」、J Am Geriatr Soc. 1991;39: 142-148Podsiadlo D and Richardson S. The Timed "Up & Go": A Basic Functional Mobility Test for Frail Older Adults. Go": A Test of Basic Functional Mobility for Frail Elderly Persons", J Am Geriatr Soc. 1991;39:142-148.

非特許文献1のTUGテストでは、被験者に実施させる一連の動作に掛かる時間のみ
を評価の指標としている。一方、本発明者らは、被験者の一連の動作をより直接的且つ
詳細に解析できれば、人の身体機能の医学的な評価等のために重要な情報が得られると
考えた。そこで、被験者の動作の直接的且つ詳細な解析を可能にするため、被験者の一
連の動作を適切に反映した動作解析用のデータの取得を目指すこととした。
In the TUG test of Non-Patent Document 1, only the time required for a series of actions performed by the subject is used as an evaluation index. On the other hand, the inventors thought that if a series of motions of a subject could be analyzed more directly and in detail, important information could be obtained for medical evaluation of a person's bodily functions. Therefore, in order to enable direct and detailed analysis of the subject's motion, we aimed to acquire data for motion analysis that appropriately reflected the series of motions of the subject.

本発明の目的は、人の身体機能の評価等のために被験者の動作の直接的且つ詳細な解
析が可能となるように被験者の動作を適切に反映したデータを取得できる動作解析デー
タ取得方法及び動作解析データ取得システムを提供することにある。
An object of the present invention is to acquire motion analysis data that can acquire data that appropriately reflects the motion of a subject so that direct and detailed analysis of the motion of the subject can be performed for evaluation of human body functions. The object is to provide a method and a motion analysis data acquisition system.

本発明の動作解析データ取得方法は、被写体像をデータに変換して出力する撮像手段
と、前記撮像手段から出力されたデータに基づいて、当該データが示す被写体に含まれ
る人の身体における複数の特徴点の座標を示すデータを生成する特徴点導出手段とを使
用して、人の移動時の動作を解析するためのデータを取得する方法であって、被験者を
、第1位置において物体に座った状態から立ち上がらせると共に、前記撮像手段の光軸
と交差し且つ水平方向に平行な方向に関して前記第1位置から離隔した第2位置まで歩
行させる、又は走らせる被験者動作ステップと、前記被験者動作ステップにおける動作
中の前記被験者の左半身及び右半身の少なくともいずれかを前記撮像手段に連続的に撮
像させる撮像ステップと、前記撮像ステップにおいて実行される撮像に関して前記撮像
手段から出力されたデータに基づいて、前記物体から立ち上がる動作中及び前記第1位
置から前記第2位置に移動するまでの動作中の前記被験者の各タイミングにおける前記
複数の特徴点の座標を示す第1解析用データを前記特徴点導出手段に生成させる特徴点
生成ステップとを備えている。
A motion analysis data acquisition method of the present invention comprises imaging means for converting an image of a subject into data and outputting the data; and a feature point deriving means for generating data indicating the coordinates of the feature points of the subject, and a method of obtaining data for analyzing a motion of a person during movement, comprising: a subject motion step of standing up from a sitting state and walking or running to a second position separated from the first position in a direction parallel to the horizontal direction and intersecting the optical axis of the imaging means; an imaging step of causing the imaging means to continuously image at least one of the left half of the body and the right half of the subject during movement in the subject movement step; first analysis data representing the coordinates of the plurality of feature points at each timing of the subject during the motion of standing up from the object and during the motion of moving from the first position to the second position, based on the data; and a feature point generating step of causing the feature point deriving means to generate

本発明の動作解析データ取得方法によると、被験者を撮像手段の光軸と交差する方向
に沿って第1位置から第2位置まで移動させる。そして、その被験者の右半身及び左半
身の少なくともいずれかを撮像手段に連続的に撮像させる。このため、被験者が歩行又
は走る姿を進行方向に対して側方から連続的に捉えた被写体像が得られる。そして、そ
の被写体像に基づき、人の身体における複数の特徴点の座標を示すデータを取得する。
このため、かかるデータには、被験者の側方から見た動作の状況、例えば、被験者の前
傾姿勢の度合い、足の振り出し速度、手を振る速度、膝の上がり具合等の状況を適切に
反映させることが可能である。人の身体機能の強弱はこれらの要素に表れることが多い
。例えば、虚弱な身体状況にある被験者においては、前傾姿勢となる傾向があったり手
の振りが弱かったりする。このように、被験者の側方から見た動作の状況は、人の身体
機能の評価等にとって重要な判断要素となり得る。本発明では、かかる重要な判断要素
を示す情報を身体における特徴点の座標として数値的に取得できる。このため、数値を
解析することで、直接的且つ詳細に身体機能等の評価を実施することが可能である。以
上のように、本発明によると、人の身体機能の評価等のために被験者の動作の直接的且
つ詳細な解析が可能となるようなデータを取得することができる。
According to the motion analysis data acquisition method of the present invention, the subject is moved from the first position to the second position along the direction intersecting the optical axis of the imaging means. Then, at least one of the right half of the body and the left half of the subject's body is continuously imaged by the imaging means. For this reason, subject images can be obtained in which the subject's walking or running appearance is continuously captured from the side of the direction of travel. Then, based on the image of the subject, data indicating the coordinates of a plurality of feature points on the human body are obtained.
For this reason, such data should appropriately reflect the status of the subject's movements as seen from the side, such as the degree of the subject's forward leaning posture, the speed at which the leg is swung, the speed at which the hand is waved, and the degree to which the knee is raised. It is possible to The strength and weakness of a person's bodily functions often appear in these elements. For example, subjects in a frail physical condition tend to lean forward and have weak hand movements. In this way, the state of motion seen from the side of the subject can be an important factor in determining the person's physical function. In the present invention, information indicating such important determination factors can be numerically acquired as the coordinates of feature points on the body. Therefore, by analyzing numerical values, it is possible to directly and in detail evaluate physical functions. As described above, according to the present invention, it is possible to acquire data that enable direct and detailed analysis of the motion of a subject for the purpose of evaluating a person's bodily functions.

また、本発明においては、前記被験者動作ステップにおいて、前記第2位置で前記撮
像手段に向かって方向転換させると共に、前記第2位置より前記撮像手段に近い第3位
置まで前記撮像手段に向かって歩行させ、又は走らせ、前記撮像ステップにおいて、前
記被験者動作ステップでの動作中の前記被験者の正面を前記撮像手段に連続的に撮像さ
せ、前記特徴点生成ステップにおいて、前記撮像ステップで実行される撮像に関して前
記撮像手段から出力されたデータに基づいて、前記第2位置から前記第3位置に移動す
るまでの動作中の前記被験者の各タイミングにおける前記複数の特徴点の座標を示す第
2解析用データを前記特徴点導出手段に生成させることが好ましい。これによると、例
えば、歩行による体幹の左右ぶれ等、被験者の正面から見た動作の状況にも基づいて身
体機能の評価等を実施するためのデータを取得できる。
Further, in the present invention, in the subject operation step, the direction is changed at the second position toward the imaging means, and the subject moves toward the imaging means from the second position to a third position closer to the imaging means. in the imaging step, causing the imaging means to continuously image the front of the subject during the motion in the subject motion step; and in the feature point generating step, executed in the imaging step. coordinates of the plurality of feature points at each timing of the subject during movement from the second position to the third position, based on the data output from the imaging means regarding the imaging to be performed; It is preferable to cause the feature point deriving means to generate the second analysis data. According to this, it is possible to obtain data for evaluating the physical function based on the movement of the subject as seen from the front, such as the lateral movement of the trunk due to walking.

また、本発明においては、前記被験者動作ステップにおいて、前記被験者が移動経路
を認識するための視認可能なマーカが設置されており、前記マーカが、前記第2位置及
び前記第3位置をそれぞれ指示する位置マーカと、前記被験者が通る想定直線経路を指
示する線分に沿って延びた経路マーカとの少なくともいずれかを含んでいることが好ま
しい。これによると、被験者がマーカを視認することにより正確に移動経路を認識可能
である。よって、身体機能の評価等を正確に行うためのデータを取得できる。
Further, in the present invention, in the subject movement step, visible markers are installed for the subject to recognize the moving route, and the markers indicate the second position and the third position, respectively. and/or a path marker extending along a line segment indicating an assumed straight path through which the subject passes. According to this, the subject can recognize the moving route accurately by visually recognizing the marker. Therefore, it is possible to obtain data for accurately evaluating the physical function.

また、本発明においては、前記経路マーカが、前記想定直線経路を挟むように前記想
定直線経路と平行に延びた2本の線分に沿って延びていることが好ましい。例えば想定
直線経路を1本の線分のみによって示すと、被験者がその1本の線分に両足を揃えて移
動するおそれがあり、移動しにくく感じる可能性がある。これに対し、想定直線経路を
挟む2本の線分を形成することで、被験者にとって足を置く幅を確保できるため移動し
やすいと感じさせることができる。
Further, in the present invention, it is preferable that the route marker extends along two line segments that extend parallel to the assumed straight route so as to sandwich the assumed straight route. For example, if an assumed straight path is indicated by only one line segment, the subject may move with both feet aligned on that one line segment, which may make it difficult for the subject to move. On the other hand, by forming two line segments sandwiching the assumed straight path, it is possible to secure a width for the subject to put their feet on, so that the subject can feel that it is easy to move.

また、本発明においては、前記撮像ステップにおいて実行される撮像に関して前記撮
像手段から出力されたデータに基づいて前記マーカの座標を導出する導出ステップを備
えていることが好ましい。これによると、導出されたマーカの座標を基準として被験者
の位置を把握することができる。
Also, in the present invention, it is preferable to include a deriving step of deriving the coordinates of the marker based on the data output from the imaging means regarding the imaging performed in the imaging step. According to this, the subject's position can be grasped based on the derived coordinates of the marker.

また、本発明においては、前記導出ステップにおいて、前記マーカに関して物体検知
を行うように学習済みのニューラルネットワークを使用することが好ましい。これによ
ると、ニューラルネットワークを使用するので、マーカの座標を検知する精度が高くな
る。
Further, in the present invention, it is preferable that the deriving step uses a neural network that has been trained to detect an object with respect to the marker. According to this method, since a neural network is used, the accuracy of detecting the coordinates of the marker is increased.

また、本発明においては、前記特徴点導出手段が、前記被写体中の人の身体ごとに、
前記複数の特徴点の座標を示すデータを個別に生成し、前記導出ステップにおいて導出
された前記マーカの座標及び前記特徴点生成ステップにおいて生成された前記第1解析
用データ及び第2解析用データに基づいて、前記人の身体のそれぞれについて、前記複
数の特徴点と前記想定直線経路との位置関係を評価する評価ステップと、前記評価ステ
ップにおける評価結果に基づいて、前記人の身体のうちのいずれが前記被験者であるか
を判定する判定ステップとを備えていることが好ましい。これによると、被写体として
複数の人物が存在した場合にもどの人物が被験者であるかを判定可能である。よって、
撮像の際に複数の人物が映り込んでも被験者に関するデータを適切に取得できる。
Further, in the present invention, the feature point derivation means may, for each human body in the subject,
data indicating the coordinates of the plurality of feature points are individually generated, and the coordinates of the marker derived in the derivation step and the first analysis data and the second analysis data generated in the feature point generation step an evaluation step of evaluating the positional relationship between the plurality of feature points and the assumed straight path for each of the person's body, based on the results of the evaluation; and a determination step of determining which one of them is the subject. According to this, it is possible to determine which person is the subject even when there are a plurality of persons as subjects. Therefore,
Data on a subject can be appropriately acquired even if a plurality of persons are captured during imaging.

また、本発明の別の観点に係る動作解析データ取得システムは、被写体像をデータに
変換して出力する撮像手段と、前記撮像手段から出力されたデータに基づいて、当該デ
ータが示す被写体に含まれる人の身体における複数の特徴点の座標を示すデータを生成
する特徴点導出手段と、第1位置に設置された被験者が座る物体と、前記第1位置から
、前記撮像手段の光軸と交差する方向に関して前記第1位置から離隔した第2位置まで
移動する経路を前記被験者に認識させるための視認可能なマーカとを備えており、前記
被験者が前記物体に座った状態から立ち上がると共に前記第1位置から前記第2位置ま
で移動した際に、当該被験者の左半身及び右半身の少なくともいずれかを前記撮像手段
に撮像させると共に、この際に前記撮像手段から出力されたデータに基づいて、前記物
体から立ち上がる動作中及び前記第1位置から前記第2位置に移動するまでの動作中の
前記被験者の各タイミングにおける前記複数の特徴点の座標を示す解析用データを前記
特徴点導出手段に生成させる。
A motion analysis data acquisition system according to another aspect of the present invention includes imaging means for converting an image of a subject into data and outputting the data; a feature point deriving means for generating data indicating the coordinates of a plurality of feature points on a person's body included in a subject; an object placed at a first position on which a subject sits; a visible marker for allowing the subject to recognize a path to travel from the first position to a second position spaced apart in a direction intersecting the causing the imaging means to image at least one of the left half of the body and the right half of the subject when the subject moves from the first position to the second position, and based on the data output from the imaging means at this time; and the feature point deriving means generates data for analysis indicating the coordinates of the plurality of feature points at each timing of the subject during the motion of standing up from the object and during the motion of moving from the first position to the second position. to generate

本発明の動作解析データ取得システムによると、被験者がマーカによって移動経路を
認識することで、撮像手段の光軸と交差する方向に沿って第1位置から第2位置まで移
動する。そして、その被験者の右半身及び左半身の少なくともいずれかを撮像手段に連
続的に撮像させる。このため、被験者が歩行又は走る姿を進行方向に対して側方から連
続的に捉えた被写体像が得られる。そして、その被写体像に基づき、人の身体における
複数の特徴点の座標を示すデータを取得する。このため、かかるデータには、被験者の
側方から見た動作の状況、例えば、被験者の前傾姿勢の度合い、足の振り出し速度、手
を振る速度、膝の上がり具合等の状況を適切に反映させることが可能である。人の身体
機能の強弱はこれらの要素に表れることが多い。例えば、虚弱な身体状況にある被験者
においては、前傾姿勢となる傾向があったり手の振りが弱かったりする。このように、
被験者の側方から見た動作の状況は、人の身体機能の評価等にとって重要な判断要素と
なり得る。本発明では、かかる重要な判断要素を示す情報を身体における特徴点の座標
として数値的に取得できる。このため、数値を解析することで、直接的且つ詳細に身体
機能等の評価を実施することが可能である。以上のように、本発明によると、人の身体
機能の評価等のために被験者の動作の直接的且つ詳細な解析が可能となるようなデータ
を取得することができる。
According to the motion analysis data acquisition system of the present invention, the subject recognizes the movement path by the marker, and moves from the first position to the second position along the direction intersecting the optical axis of the imaging means. Then, at least one of the right half of the body and the left half of the subject's body is continuously imaged by the imaging means. For this reason, subject images can be obtained in which the subject's walking or running figure is continuously captured from the side with respect to the direction of travel. Then, based on the image of the subject, data indicating the coordinates of a plurality of feature points on the human body is obtained. For this reason, such data should appropriately reflect the state of the subject's movements as seen from the side, such as the degree of the subject's forward leaning posture, the speed at which the leg is swung, the speed at which the hand is waved, and the degree to which the knee is raised. It is possible to The strength and weakness of a person's bodily functions often appear in these elements. For example, subjects in a frail physical condition tend to lean forward and have weak hand movements. in this way,
The state of movement seen from the side of the subject can be an important decision factor for the evaluation of a person's physical function. In the present invention, information indicating such important determination factors can be numerically obtained as coordinates of feature points on the body. Therefore, by analyzing numerical values, it is possible to directly and in detail evaluate physical function. As described above, according to the present invention, it is possible to acquire data that enable direct and detailed analysis of the motion of a subject for the purpose of evaluating a person's bodily functions.

また、本発明においては、携帯端末並びに第1及び第2のコンピュータを備えており
、前記撮像手段として機能した前記携帯端末から有線接続を介して被写体像から変換さ
れたデータが前記第1のコンピュータへと出力され、前記特徴点導出手段として機能し
た前記第1のコンピュータから有線接続を介して前記複数の特徴点の座標を示すデータ
が前記第2のコンピュータへと出力されることが好ましい。出力データは被験者が移動
する姿を反映しているため、被験者にとって個人的な情報が含まれることになる。これ
に対し、携帯端末並びに第1及び第2のコンピュータ同士のデータ出力が有線接続を介
して行われる。したがって、個人的な情報に係るデータが外部に流出するリスクを抑制
できる。
Further, in the present invention, a mobile terminal and first and second computers are provided, and data converted from a subject image via a wired connection from the mobile terminal functioning as the imaging means is transferred to the first computer. It is preferable that data indicating the coordinates of the plurality of feature points is output to the computer and output from the first computer functioning as the feature point deriving means to the second computer via a wired connection. . Since the output data reflects the movement of the subject, it contains information that is personal to the subject. On the other hand, data output between the mobile terminal and the first and second computers is performed via a wired connection. Therefore, it is possible to reduce the risk of data related to personal information being leaked to the outside.

また、本発明においては、前記第1のコンピュータが、前記携帯端末からのデータを
記録するデータ記録部を備えており、前記複数の特徴点の座標を示すデータを生成した
後に前記データ記録部に記録した前記携帯端末からのデータを削除することが好ましい
。これによると、使用済みのデータが削除される。このため、個人的な情報に係るデー
タが外部に流出するリスクをさらに抑制できる。
Further, in the present invention, the first computer includes a data recording unit for recording data from the portable terminal, and after generating data indicating the coordinates of the plurality of characteristic points, It is preferable to delete the recorded data from the portable terminal. According to this, used data is deleted. Therefore, it is possible to further reduce the risk of data related to personal information leaking to the outside.

本発明の一実施形態に係る解析データ取得システムの構成の一部を示すブロ ック図である。1 is a block diagram showing part of the configuration of an analysis data acquisition system according to one embodiment of the present invention; FIG. 図1のデータ取得装置が取得するデータの内容を示す図であって、被験者の 身体の概形を表す複数の特徴点及びこれらの特徴点の結びつき方を表す線分を示す図で ある。FIG. 2 is a diagram showing the content of data acquired by the data acquisition device of FIG. 1, showing a plurality of feature points representing the general shape of a subject's body and line segments representing how these feature points are connected. 図1のデータ取得装置が取得するデータの内容を示す図であって、時間的に 連続する複数の時刻における、歩行する被験者の身体の概形を表す図2の特徴点及びそ れらを結ぶ線分を示す図である。FIG. 2 is a diagram showing the contents of data acquired by the data acquisition device of FIG. 1, showing the feature points of FIG. It is a figure which shows a line segment. 本実施形態において被験者に実施させる試験で用いられるコースの平面図で ある。FIG. 2 is a plan view of a course used in a test conducted by a subject in this embodiment; 被験者が図4のコースを移動する状況を示す図である。5 is a diagram showing a situation in which a subject travels the course of FIG. 4; FIG. 図1のシステム及び図4のコースを用いて実施される本発明の一実施形態に 係る解析データ取得方法のフロー図である。FIG. 5 is a flow diagram of an analysis data acquisition method according to an embodiment of the present invention implemented using the system of FIG. 1 and the course of FIG. 4; 図1の携帯端末のディスプレイに表示される画面を示す図である。2 is a diagram showing a screen displayed on the display of the mobile terminal in FIG. 1; FIG. 図1のPCのディスプレイに表示される画面を示す図である。2 is a diagram showing a screen displayed on the display of the PC in FIG. 1; FIG. 図6のステップS7において図1のデータ取得装置が実行する動作解析デー タの取得処理のフロー図である。FIG. 7 is a flowchart of motion analysis data acquisition processing executed by the data acquisition device of FIG. 1 in step S7 of FIG. 6; 図9の位置評価ステップ及び被験者判定ステップにおいて図1のデータ取 得装置が実行する処理を説明するための図である。FIG. 10 is a diagram for explaining the processing executed by the data acquisition device of FIG. 1 in the position evaluation step and subject determination step of FIG. 9;

本発明の一実施形態に係る解析データ取得システム1について図1~図10を参照し
つつ説明する。解析データ取得システム1は、所定の動作を行う被験者を連続的に撮像
した結果に基づき、被験者の動作を解析するために用いる解析用データを取得する。以
下、その詳細について説明する。
An analysis data acquisition system 1 according to one embodiment of the present invention will be described with reference to FIGS. 1 to 10. FIG. The analysis data acquisition system 1 acquires analysis data used for analyzing the motion of the subject based on the results of continuously imaging the subject performing a predetermined motion. The details are described below.

解析データ取得システム1は、図1に示すように携帯端末10(本発明における撮像
手段)、データ取得装置20(本発明における第1のコンピュータ及び特徴点導出手段
)及びPC30(本発明における第2のコンピュータ)を備えている。携帯端末10及
びデータ取得装置20間、並びに、データ取得装置20及びPC30間は、それぞれ、
USB(Universal Serial Bus)方式等の有線接続によって接続
されている。これにより、携帯端末10及びデータ取得装置20間、並びに、データ取
得装置20及びPC30間のそれぞれにおいてデータ通信がなされる。携帯端末10、
データ取得装置20及びPC30のいずれも、コンピュータ等のハードウェアと、メモ
リデバイス(以下、メモリという。)に格納されたプログラムデータ等のソフトウェア
とによって構築されている。これらのソフトウェアは各種の記録媒体に記録して配布可
能である。コンピュータは、CPU(Central Processing Uni
t)、ROM(Read-Only Memory)及びRAM(Random Ac
cess Memory)等のメモリ、ハードディスクドライブ、並びに、入出力イン
タフェース等の各種インタフェース等のハードウェアを含んでいる。携帯端末10、デ
ータ取得装置20及びPC30のそれぞれにおいて、ハードウェアがソフトウェアに従
って演算処理、入出力処理等の各種の情報処理を実行する。これにより、これらの装置
における以下の機能が実現されている。
As shown in FIG. 1, the analysis data acquisition system 1 includes a mobile terminal 10 (imaging means in the present invention), a data acquisition device 20 (first computer and feature point derivation means in the present invention), and a PC 30 (second computer in the present invention). computers). Between the mobile terminal 10 and the data acquisition device 20, and between the data acquisition device 20 and the PC 30,
It is connected by a wired connection such as a USB (Universal Serial Bus) method. Thereby, data communication is performed between the mobile terminal 10 and the data acquisition device 20 and between the data acquisition device 20 and the PC 30 . mobile terminal 10,
Both the data acquisition device 20 and the PC 30 are constructed by hardware such as a computer and software such as program data stored in a memory device (hereinafter referred to as memory). These software can be recorded on various recording media and distributed. The computer has a CPU (Central Processing Uni
t), ROM (Read-Only Memory) and RAM (Random Ac
cess Memory), a hard disk drive, and hardware such as various interfaces such as an input/output interface. In each of the portable terminal 10, the data acquisition device 20 and the PC 30, hardware executes various types of information processing such as arithmetic processing and input/output processing according to software. As a result, the following functions are realized in these devices.

携帯端末10には、タッチパネルディスプレイが設けられている。タッチパネルディ
スプレイの画面には、写真画像やユーザ入力のためのコントロール画像等が表示される
。ユーザがタッチパネルディスプレイの画面に指等を接触させることで、各種のユーザ
入力処理が実行される。
The mobile terminal 10 is provided with a touch panel display. A photographic image, a control image for user input, and the like are displayed on the screen of the touch panel display. Various user input processes are executed when the user touches the screen of the touch panel display with a finger or the like.

携帯端末10にはカメラが搭載されている。カメラは、光学系、光電変換素子及び各
種の電子回路を有し、以下のように被写体像をデータに変換して出力する。光学系は、
レンズやスリット等を含んでおり、これらを通じて光電変換素子上に被写体像を結ぶ。
光電変換素子は、被写体像をアナログ電気信号に変換する。電子回路は、光電変換素子
が生成したアナログ電気信号をデジタル電気信号に変換して出力する。携帯端末10は
、カメラから出力されたデジタル電気信号に基づき、被写体の動画を示す動画データフ
ァイルを生成する。本実施形態における動画とは、各時点の被写体像を示す画像が時間
的に複数連続して並んだ画像群を含むことで被写体の動きを表したものをいう。携帯端
末10のカメラは、後述の通り、被験者の動作を撮像するために用いられる。被験者の
動作を撮像する際、携帯端末10はデータ取得装置20に接続されていない状態で用い
られる。被験者の動作の撮像後、携帯端末10とデータ取得装置20が接続され、携帯
端末10からデータ取得装置20へと動画データファイルが送信される。
The mobile terminal 10 is equipped with a camera. A camera has an optical system, a photoelectric conversion element, and various electronic circuits, and converts a subject image into data as described below and outputs the data. The optical system
It includes lenses, slits, etc., and an object image is formed on the photoelectric conversion element through these.
A photoelectric conversion element converts a subject image into an analog electrical signal. The electronic circuit converts the analog electrical signal generated by the photoelectric conversion element into a digital electrical signal and outputs the digital electrical signal. The mobile terminal 10 generates a moving image data file representing a moving image of a subject based on the digital electrical signal output from the camera. A moving image in the present embodiment refers to an image that represents the movement of a subject by including a group of images in which a plurality of images showing subject images at respective points in time are consecutively arranged in time. The camera of the mobile terminal 10 is used to capture the motion of the subject, as will be described later. When imaging the motion of the subject, the portable terminal 10 is used without being connected to the data acquisition device 20 . After imaging the motion of the subject, the mobile terminal 10 and the data acquisition device 20 are connected, and the moving image data file is transmitted from the mobile terminal 10 to the data acquisition device 20 .

また、携帯端末10には、ウェブブラウザアプリケーション(以下、「ブラウザ」と
いう。)がインストールされている。携帯端末10においてブラウザが起動されると、
指定されたIP(Internet Protocol)アドレス又はURL(Uni
form Resource Locator)に従ってデータ通信処理が実行される
。例えば、ブラウザの機能によってタッチパネルディスプレイに表示される画像(図7
の画像C1参照)において、データ取得装置20に対応するIPアドレスが入力される
と、携帯端末10とデータ取得装置20との間でデータ通信が開始される。このデータ
通信には、TCP/IP(Transmission Control Protoc
ol/Internet Protocol)が用いられる。かかるブラウザの機能に従
って、携帯端末10とデータ取得装置20の間で動画データファイルを含むデータが送
受信される。
A web browser application (hereinafter referred to as “browser”) is installed in the mobile terminal 10 . When the browser is activated on the mobile terminal 10,
Specified IP (Internet Protocol) address or URL (Uni
Data communication processing is executed according to the form Resource Locator. For example, the image displayed on the touch panel display by the function of the browser (Fig. 7
3), when the IP address corresponding to the data acquisition device 20 is input, data communication is started between the mobile terminal 10 and the data acquisition device 20 . TCP/IP (Transmission Control Protocol) is used for this data communication.
ol/Internet Protocol) is used. Data including moving image data files are transmitted and received between the mobile terminal 10 and the data acquisition device 20 according to the function of the browser.

データ取得装置20は、携帯端末10から送信された動画データファイルに基づき、
被験者の動作解析用データを生成する。データ生成の詳細な方法については後述する。
動作解析用データは、各時点の被験者の身体を示すデータを含んでいる。このデータは
、図2に示す通り、被験者の身体に含まれる各部の位置を示す複数の特徴点の座標及び
これらの特徴点の結び付き方を表している。例えば、特徴点F1は被験者の鼻に対応す
る点である。特徴点F2は被験者の右肩に対応する点である。特徴点F3は被験者の左
膝に対応する点である。特徴点F4は被験者の右踵に対応する点である。特徴点F5は
被験者の首に対応する点である。また、図2において、これらの特徴点は互いに線分に
よって結ばれている。例えば、線分L1は特徴点F1と特徴点F5を結ぶ線分である。
線分L2は特徴点F2と特徴点F5を結ぶ線分である。これらの線分は、特徴点同士の
結び付き方を示し、全体として頭部、頚部、胴部、腕部、脚部といった被験者の身体の
概形を表している。動作解析用データには、図2に示すような特徴点及び特徴点同士の
結び付き方を示すデータが時間的に連続して含まれている。これにより、被験者の動作
における各時点での身体の各部の配置が動作解析用データによって示されると共に、身
体の各部の配置が時間の経過によってどのように変化していくかが動作解析用データに
よって示される。例えば、図3は、歩行する被験者に関する動画データファイルに基づ
いて生成される動作解析用データが表す特徴点の座標及び特徴点同士の結びつき方を示
している。図3に示すように、時間的に連続する時刻T1、T2、T3、T4、T5、
T6及びT7のそれぞれにおける、歩行する被験者の身体の概形が、特徴点及びそれら
を結ぶ線分によって表されている。動作解析用データは、例えば、特徴点の座標値及び
それらの結び付け方を示すベクトル値を表すデータであってもよいし、特徴点に対応す
る丸及びそれらを結ぶ線分の画像を表すデータであってもよい。また、これら両方のデ
ータが動作解析用データに含まれていてもよい。
Based on the video data file transmitted from the mobile terminal 10, the data acquisition device 20
Generate motion analysis data for subjects. A detailed method of data generation will be described later.
The motion analysis data includes data indicating the subject's body at each time point. This data, as shown in FIG. 2, represents the coordinates of a plurality of feature points indicating the position of each part included in the subject's body and how these feature points are connected. For example, feature point F1 is a point corresponding to the subject's nose. A feature point F2 is a point corresponding to the subject's right shoulder. A feature point F3 is a point corresponding to the subject's left knee. A feature point F4 is a point corresponding to the subject's right heel. A feature point F5 is a point corresponding to the subject's neck. Also, in FIG. 2, these feature points are connected to each other by line segments. For example, line segment L1 is a line segment connecting feature point F1 and feature point F5.
A line segment L2 is a line segment connecting the feature points F2 and F5. These line segments show how the feature points are connected to each other, and represent the general shape of the subject's body including the head, neck, torso, arms, and legs as a whole. The motion analysis data includes feature points as shown in FIG. 2 and data indicating how the feature points are connected in a temporally continuous manner. As a result, the position of each part of the body at each point in the subject's movement is indicated by the motion analysis data, and how the position of each part of the body changes over time is also displayed as the motion analysis data. indicated by . For example, FIG. 3 shows coordinates of feature points represented by motion analysis data generated based on a moving image data file of a walking subject and how the feature points are connected. As shown in FIG. 3, temporally consecutive times T1, T2, T3, T4, T5,
The outline of the body of the walking subject at each of T6 and T7 is represented by characteristic points and line segments connecting them. Motion analysis data may be, for example, data representing coordinate values of feature points and vector values indicating how to connect them, or data representing images of circles corresponding to feature points and line segments connecting them. may be Also, both of these data may be included in the motion analysis data.

PC30は、データ取得装置20から動作解析用データを受け取るパーソナルコンピ
ュータである。PC30として、デスクトップパソコン、ノートパソコン、タブレット
PC等が用いられる。PC30にはディスプレイが設けられ、キーボードやマウス等の
ユーザ入力用の入力デバイスが接続又は搭載されている。ディスプレイの画面には、写
真画像やユーザ入力のためのコントロール画像等が表示される。PC30には、ブラウ
ザがインストールされている。PC30においてブラウザが起動されると、指定された
IPアドレス又はURLに従ってデータ通信処理が実行される。例えば、ブラウザの機
能によってディスプレイに表示される画像において、データ取得装置20に対応するI
Pアドレスが入力されると、PC30とデータ取得装置20との間でデータ通信が開始
される。このデータ通信には、TCP/IP(Transmission Contr
ol Protocol/Internet Protocol)が用いられる。かかる
ブラウザの機能に従って、PC30とデータ取得装置20の間で動作解析用データを含
むデータが送受信される。
The PC 30 is a personal computer that receives motion analysis data from the data acquisition device 20 . As the PC 30, a desktop personal computer, a notebook personal computer, a tablet PC, or the like is used. The PC 30 is provided with a display and connected or mounted with input devices for user input such as a keyboard and a mouse. The display screen displays photographic images, control images for user input, and the like. A browser is installed in the PC 30 . When the browser is activated on the PC 30, data communication processing is executed according to the designated IP address or URL. For example, in the image displayed on the display by the function of the browser, the I corresponding to the data acquisition device 20
When the P address is input, data communication is started between the PC 30 and the data acquisition device 20 . This data communication uses TCP/IP (Transmission Control
ol Protocol/Internet Protocol) is used. Data including motion analysis data is transmitted and received between the PC 30 and the data acquisition device 20 according to the function of the browser.

次に、解析用データの取得対象となる被験者の動作について説明する。被験者の動作
は、図4に示すL字型のコース40(本発明における移動経路)を用いた試験によって
実施される。コース40は、屋内の床上に設定されており、図4のX方向に沿った第1
直線経路40a(本発明における想定直線経路)及び図4のY方向に沿った第2直線経
路40b(本発明における想定直線経路)からなる。X方向及びY方向は、床に沿った
互いに直交する方向である。第1直線経路40aは、X方向に互いに離隔した位置P1
(本発明における第1位置に対応)と位置P2(本発明における第2位置に対応)を結
んでいる。第2直線経路40bは、Y方向に互いに離隔した位置P2と位置P3(本発
明における第3位置に対応)を結んでいる。位置P1には、動作の開始時点において被
験者が着座する椅子41が設置されている。位置P3から所定の距離だけY方向に離隔
した位置には携帯端末10が設置されている。携帯端末10は、カメラの光軸LXが平
面視においてY方向に沿って位置P2及びP3を通るように配置されている。携帯端末
10は、その撮像範囲内に椅子41及びコース40の全体が含まれるように配置されて
いる。携帯端末10のカメラによる撮影シーンのイメージは図5の通りである。また、
携帯端末10は、カメラスタンド等を用いて位置が固定されている。
Next, the motion of the subject from whom analysis data is acquired will be described. The movement of the subject is carried out by a test using an L-shaped course 40 (moving route in the present invention) shown in FIG. The course 40 is set on an indoor floor, and is the first course along the X direction in FIG.
It consists of a straight path 40a (assumed straight path in the present invention) and a second straight path 40b along the Y direction in FIG. 4 (assumed straight path in the present invention). The X and Y directions are orthogonal directions along the floor. The first linear paths 40a are located at positions P1 separated from each other in the X direction.
(corresponding to the first position in the present invention) and the position P2 (corresponding to the second position in the present invention) are connected. The second straight path 40b connects a position P2 and a position P3 (corresponding to the third position in the present invention) separated from each other in the Y direction. A chair 41 on which the subject sits at the start of the movement is installed at position P1. A mobile terminal 10 is installed at a position separated from the position P3 by a predetermined distance in the Y direction. The mobile terminal 10 is arranged such that the optical axis LX of the camera passes through positions P2 and P3 along the Y direction in plan view. The mobile terminal 10 is arranged so that the chair 41 and the entire course 40 are included within its imaging range. An image of a scene photographed by the camera of the mobile terminal 10 is shown in FIG. again,
The position of the mobile terminal 10 is fixed using a camera stand or the like.

コース40が設定される部屋の床には、被験者にコース40を認識させるためのマー
カ42~48が形成されている。マーカ42~46(本発明における経路マーカ)は直
線状の形状を有している。これらは、例えば、着色された細長い粘着テープを床面に線
分状に貼り付けることで形成されてもよいし、塗料等で床面に描画することで形成され
てもよい。このうち、マーカ42は、位置P1から第1直線経路40aに沿って位置P
2まで延びている。マーカ43及び44は、Y方向に関して第1直線経路40aを互い
の間に挟むように第1直線経路40aと平行に延びている。マーカ42とマーカ43の
Y方向に関する距離はマーカ42とマーカ44のY方向に関する距離と等しい。マーカ
45は、位置P2においてマーカ42の端点と繋がっており、そこから第2直線経路4
0bに沿って位置P3まで延びている。マーカ46及び47は、マーカ43及び44の
端点と繋がっており、そこから第2直線経路40bと平行に延びている。マーカ46及
び47は、X方向に関して第1直線経路40aを互いの間に挟んでいる。マーカ45と
マーカ46のX方向に関する距離はマーカ45とマーカ47のX方向に関する距離と等
しい。これらにより、マーカ42~46は、第1直線経路40a及び第2直線経路40
bからなるコース40全体を指示している。マーカ48及び49(本発明における位置
マーカ)は、所定の色で塗りつぶされた丸の形状を有している。これらは、例えば、所
定の色で塗りつぶされた丸い粘着テープを床面に貼り付けることで形成されてもよいし
、塗料等で床面に描画することで形成されてもよい。マーカ48は位置P2に配置され
、マーカ49は位置P3に配置されている。これにより、マーカ48は位置P2を、マ
ーカ49は位置P3をそれぞれ指示している。
Markers 42 to 48 are formed on the floor of the room in which the course 40 is set for the subject to recognize the course 40 . The markers 42-46 (route markers in the present invention) have linear shapes. These may be formed, for example, by sticking a colored elongated adhesive tape on the floor surface in a line segment, or may be formed by drawing on the floor surface with paint or the like. Among them, the marker 42 is positioned from the position P1 along the first linear path 40a to the position P
extends up to 2. The markers 43 and 44 extend parallel to the first linear path 40a so as to sandwich the first linear path 40a between them in the Y direction. The distance between the markers 42 and 43 in the Y direction is equal to the distance between the markers 42 and 44 in the Y direction. Marker 45 connects with the endpoint of marker 42 at position P2, from which second linear path 4
It extends along 0b to position P3. Markers 46 and 47 are connected to the endpoints of markers 43 and 44 and extend therefrom parallel to second straight path 40b. Markers 46 and 47 sandwich the first linear path 40a between each other with respect to the X direction. The distance between the markers 45 and 46 in the X direction is equal to the distance between the markers 45 and 47 in the X direction. With these, the markers 42 to 46 are aligned with the first straight path 40a and the second straight path 40
The entire course 40 consisting of b is indicated. The markers 48 and 49 (position markers in the present invention) have the shape of circles filled with a predetermined color. These may be formed, for example, by attaching a round adhesive tape filled with a predetermined color to the floor surface, or may be formed by drawing on the floor surface with paint or the like. Marker 48 is placed at position P2 and marker 49 is placed at position P3. As a result, the marker 48 points to the position P2 and the marker 49 points to the position P3.

コース40を用いた試験は以下の通りである。図5に示すように、被験者は、まず、
位置P1の椅子41に着座した状態から動作を開始する。次に、椅子41から立ち上が
り、マーカ43とマーカ44の間の領域をマーカ42に沿って位置P2まで歩行する。
位置P2において、位置P3に向けて方向転換し、マーカ46とマーカ47の間の領域
をマーカ45に沿って位置P3まで歩行する。被験者が位置P3に到達すると動作終了
となる。動作開始から動作終了までの被験者の様子は携帯端末10によって撮像される
The test using course 40 is as follows. As shown in FIG. 5, the subject first
The operation is started from the state of being seated on the chair 41 at the position P1. Next, the subject stands up from the chair 41 and walks along the marker 42 in the area between the markers 43 and 44 to the position P2.
At position P2, it turns to position P3 and walks the area between markers 46 and 47 along marker 45 to position P3. When the subject reaches position P3, the motion ends. The state of the subject from the start of the motion to the end of the motion is imaged by the mobile terminal 10 .

次に、解析データ取得システム1を使用した、本発明の一実施形態に係る解析データ
取得方法の全体の流れについて、図6に基づいて説明する。まず、図4に示すようにコ
ース40、椅子41及び携帯端末10が設置される(ステップS1)。次に、被験者が
椅子41に着座し、携帯端末10の前方にID記録ボードが置かれた状態で、携帯端末
10による撮像が開始される(ステップS2)。ID記録ボードには、あらかじめ設定
された被験者のID番号と撮像年月日が記録されている(図7参照)。次に、コース4
0を用いた上記試験を被験者に実施させると共に、被験者の動作の開始から終了までを
携帯端末10に動画として撮像させる(ステップS3)。なお、ステップS3は本発明
における被験者動作ステップ及び撮像ステップに対応する。これにより、位置P1から
位置P2までの移動経路である第1直線経路40aに沿って歩行する被験者の右半身(
図3参照)が撮像されると共に、位置P2から位置P3までの移動経路である第2直線
経路40bに沿って歩行する被験者の正面(図3参照)が撮像される。撮像結果を示す
動画データファイルは、携帯端末10内のメモリ等に保存される。次に、携帯端末10
とデータ取得装置20とが接続される(ステップS4)。
Next, the overall flow of the analysis data acquisition method according to one embodiment of the present invention using the analysis data acquisition system 1 will be described with reference to FIG. First, as shown in FIG. 4, a course 40, a chair 41 and a mobile terminal 10 are installed (step S1). Next, with the subject sitting on the chair 41 and the ID recording board placed in front of the mobile terminal 10, imaging by the mobile terminal 10 is started (step S2). The subject's ID number and imaging date set in advance are recorded on the ID recording board (see FIG. 7). Next, course 4
0, and the portable terminal 10 is caused to take a moving image of the subject's movement from start to finish (step S3). Note that step S3 corresponds to the subject operation step and imaging step in the present invention. As a result, the right half of the subject's body (
3) is imaged, and the front (see FIG. 3) of the subject walking along the second straight path 40b, which is the movement path from position P2 to position P3, is imaged. A moving image data file indicating the imaging result is stored in a memory or the like in the mobile terminal 10 . Next, the mobile terminal 10
and the data acquisition device 20 are connected (step S4).

次に、携帯端末10においてブラウザが起動され、携帯端末10とデータ取得装置2
0の間でデータ通信が開始される(ステップS5)。携帯端末10にはデータ取得装置
20から送信されるデータに基づき、携帯端末10のタッチパネルディスプレイに図7
に示す画面IM1が表示される。画面IM1は、ステップS3において携帯端末10内
のメモリに保存された動画データファイルをデータ取得装置20に転送するための画像
である。画面IM1には、IPアドレスやURLを指定するためのコントロール画像C
1、ID番号を入力するためのコントロール画像C2、転送対象となる動画データファ
イルを選択するためのコントロール画像C3及び転送を開始するためのコントロール画
像C4(以下、「画像C1」「画像C2」「画像C3」「画像C4」とする。)が含ま
れている。タッチパネルディスプレイにおけるこれらのコントロール画像の位置にユー
ザが指等を接触させると、接触位置に対応するコントロール画像が選択された状態にな
ると共に、文字や数字を入力する処理や、リストから項目を選択する処理等が実行され
る。図7の画像C1には、データ取得装置20に対応するIPアドレスが入力された結
果が表示されている。画像C2を通じて入力されるID番号は、ステップS2において
ID記録ボードに記録されるID番号と対応している。画像C3を通じてファイルリス
トから動画データファイルが選択されると、選択された動画データファイルの冒頭部分
に対応する画像Vが画像C3の下に表示される。ステップS2において、撮像開始直後
にはID記録ボードが撮像されるので、図7の画像Vを通じてボードに記録されたID
番号が視認可能である。ユーザは、画像C3を通じた動画データファイルの選択により
、画像Vとして表示されるID番号を確認の上、画像C2を通じてID番号を入力した
り、入力したID番号の内容を確認したりできる。画像C2を通じたID番号の入力及
び画像C3を通じた動画データファイルの選択後、画像C4を選択することで、携帯端
末10からデータ取得装置20への動画ファイルデータ及びID番号の転送が開始され
る(ステップS6)。データ取得装置20において、ID番号と共に転送された動画フ
ァイルデータがそのID番号と関連付けてメモリ等に保存される。
Next, a browser is activated on the mobile terminal 10, and the mobile terminal 10 and the data acquisition device 2 are connected.
0, data communication is started (step S5). 7 on the touch panel display of the mobile terminal 10 based on the data transmitted from the data acquisition device 20 to the mobile terminal 10.
is displayed. The screen IM1 is an image for transferring the moving image data file stored in the memory in the mobile terminal 10 to the data acquisition device 20 in step S3. A control image C for specifying an IP address or URL is displayed on the screen IM1.
1. Control image C2 for inputting the ID number, control image C3 for selecting the moving image data file to be transferred, and control image C4 for starting transfer (hereinafter referred to as “image C1”, “image C2 ”, “Image C3” and “Image C4”.) are included. When the user touches the position of these control images on the touch panel display with a finger or the like, the control image corresponding to the touch position is selected, and the process of inputting characters and numbers and selecting items from the list are performed. Selecting processing, etc. are executed. The image C1 in FIG. 7 shows the result of inputting the IP address corresponding to the data acquisition device 20 . The ID number input through the image C2 corresponds to the ID number recorded on the ID recording board in step S2. When a moving image data file is selected from the file list through image C3, image V corresponding to the beginning of the selected moving image data file is displayed below image C3. In step S2, since the ID recording board is imaged immediately after the imaging is started, the ID recorded on the board through the image V in FIG.
The number is visible. By selecting a moving image data file through the image C3, the user can check the ID number displayed as the image V, enter the ID number through the image C2, or confirm the contents of the entered ID number. After inputting the ID number through the image C2 and selecting the moving image data file through the image C3, by selecting the image C4, transfer of the moving image file data and the ID number from the portable terminal 10 to the data acquisition device 20 is started. (step S6). In the data acquisition device 20, the moving image file data transferred together with the ID number is associated with the ID number and stored in a memory or the like.

次に、データ取得装置20において、携帯端末10から転送された動画データファイ
ルに基づき、動作解析用データの取得処理が実行される(ステップS7)。この処理の
詳細は後述する。なお、ステップS7は本発明における特徴点生成ステップに対応する
。動作解析用データの取得処理が完了すると、データ取得装置20は、その動作解析用
データの取得に用いた動画データファイルをメモリやハードディスクドライブ等(本発
明におけるデータ記録部)から削除する。
Next, in the data acquisition device 20, a motion analysis data acquisition process is executed based on the moving image data file transferred from the portable terminal 10 (step S7). The details of this processing will be described later. Note that step S7 corresponds to the feature point generating step in the present invention. When the motion analysis data acquisition process is completed, the data acquisition device 20 deletes the moving image data file used to acquire the motion analysis data from the memory, hard disk drive, or the like (data recording unit in the present invention).

次に、データ取得装置20に接続されたPC30において、データ取得装置20が生
成した動作解析用データのダウンロード処理を実行する(ステップS8)。PC30に
おいてブラウザが起動され、データ取得装置20に対応するIPアドレス等が指定され
る。これにより、データ取得装置20から送信されるデータに基づき、図8に示す画面
IM2がPC30のディスプレイに表示される。画面IM2は、ステップS7において
データ取得装置20が生成した動作解析用データをPC30に転送するための画像であ
る。
Next, in the PC 30 connected to the data acquisition device 20, download processing of the motion analysis data generated by the data acquisition device 20 is executed (step S8). A browser is activated on the PC 30 and an IP address or the like corresponding to the data acquisition device 20 is specified. As a result, the screen IM2 shown in FIG. The screen IM2 is an image for transferring the motion analysis data generated by the data acquisition device 20 in step S7 to the PC30.

画面IM2には、ファイルの情報を示す情報表示Tが含まれている。また、画面IM
2には、データ取得装置20から送信されるデータに基づき、ダウンロードを開始する
ためのコントロール画像C11及びファイルを削除するためのコントロール画像C12
(以下、「画像C11」「画像C12」という。)が含まれている。情報表示T並びに
画像C11及びC12は、複数の文字列やアイコン画像が表形式で表示されている。情
報表示Tには、ID番号、ファイルの登録日時及びステータスを示す文字列が含まれて
いる。これらの文字列は、縦横方向に並んだ表形式で表示されており、これによってI
D番号並びにID番号に対応するファイルの登録日時及びステータス同士の関連付けが
示されている。ステータスは、「取得済」「変換中」「完了」「エラー」の4つがある
。「取得済」は、PC30への動作解析用データの転送が済んでいることを示す。「変
換中」は、データ取得装置20において動画ファイルデータから動作解析用データへの
変換処理が進行中であることを示す。「完了」は、データ取得装置20において動画フ
ァイルデータから動作解析用データへの変換処理が完了済みであることを示す。「エラ
ー」は、データ取得装置20において動画ファイルデータから動作解析用データへの変
換処理に何らかの原因でエラーが生じ、変換処理が未完であることを示す。
The screen IM2 includes an information display T showing file information. Also, the screen IM
2, based on the data transmitted from the data acquisition device 20, a control image C11 for starting download and a control image C12 for deleting the file.
(hereinafter referred to as “image C11” and “image C12”). The information display T and the images C11 and C12 display a plurality of character strings and icon images in tabular form. The information display T includes a character string indicating the ID number, file registration date and time, and status. These strings are displayed in a horizontal and vertical tabular format, which gives the I
The relationship between the file registration dates and statuses corresponding to the D numbers and ID numbers is shown. There are four statuses: "Acquired", "Converting", "Completed", and "Error". “Obtained” indicates that the motion analysis data has been transferred to the PC 30 . “Converting” indicates that the data acquisition device 20 is in the process of converting the moving image file data into motion analysis data. "Completed" indicates that the data acquisition device 20 has completed the conversion process from the moving image file data to the motion analysis data. "Error" indicates that an error has occurred for some reason in the conversion processing from the moving image file data to the motion analysis data in the data acquisition device 20, and the conversion processing has not been completed.

画像C11には、ダウンロードを開始するためのアイコン画像が含まれている。アイ
コン画像は、縦方向に関して、情報表示T中のID番号と対応する各位置に表示されて
いる。なお、動画ファイルデータから動作解析用データへの変換処理が未完であるID
番号と対応する位置には、アイコン画像の代わりに「準備中」の文字列が表示される。
マウス等の入力デバイスを用いてアイコン画像が選択されると、そのアイコン画像に対
応するID番号と関連付けられた動作解析用データがデータ取得装置20からPC30
にダウンロードされる。
The image C11 includes an icon image for starting download. The icon image is displayed at each position corresponding to the ID number in the information display T in the vertical direction. In addition, an ID for which conversion processing from video file data to motion analysis data has not been completed
At the position corresponding to the number, the character string "under preparation" is displayed instead of the icon image.
When an icon image is selected using an input device such as a mouse, motion analysis data associated with the ID number corresponding to the icon image is transferred from the data acquisition device 20 to the PC 30.
downloaded to.

画像C12には、ファイルを削除するためのアイコン画像が含まれている。アイコン
画像は、縦方向に関して、情報表示T中のID番号と対応する各位置に表示されている
。入力デバイスを用いてアイコン画像が選択されると、そのアイコン画像に対応するI
D番号と関連付けられた動作解析用データがデータ取得装置20においてメモリ等から
削除される(ステップS9)。なお、本実施形態において、データ取得装置20は、動
作解析用データへの変換処理開始前に、動作解析用データへの変換処理が開始してから
所定の長さ(例えば、10分)の時間が経過した動画データファイルをメモリ等から削
除するように構成されている。データ取得装置20がこのように構成されていることに
より、変換処理が異常終了または停止してしまった場合に動画データファイルが装置内
に残ることを回避できる。
Image C12 includes an icon image for deleting a file. The icon images are displayed at respective positions corresponding to the ID numbers in the information display T in the vertical direction. When an icon image is selected using an input device, an I
The motion analysis data associated with the D number is deleted from the memory or the like in the data acquisition device 20 (step S9). Note that, in the present embodiment, the data acquisition device 20 waits for a predetermined length (for example, 10 minutes) from the start of the conversion process to the motion analysis data before the start of the conversion process to the motion analysis data. It is configured to delete video data files that have passed time from memory or the like. By configuring the data acquisition device 20 in this way, it is possible to prevent the moving image data file from remaining in the device when the conversion process ends abnormally or is stopped.

以下、図6のステップS7において、動画データファイルから動作解析用データを取
得するデータ取得装置20の処理について、図9に基づき説明する。まず、データ取得
装置20は、動画データファイル中の特定のフレーム画像に基づき、マーカ48及び4
9の画像中の位置を検出する処理を実行する(ステップS11)。フレーム画像は、各
タイミングにおける被写体の静止画像に対応する。マーカ48及び49の画像中の位置
を検出するのは、当該位置に基づき、動画データファイルが示す撮像に映り込んだコー
ス40に対する被写体の正確な位置を把握できるからである(ステップS15参照)。
なお、ステップS11は本発明における導出ステップに対応する。
The processing of the data acquisition device 20 for acquiring the motion analysis data from the moving image data file in step S7 of FIG. 6 will be described below with reference to FIG. First, the data acquisition device 20 extracts the markers 48 and 4 based on specific frame images in the moving image data file.
9 is executed to detect the position in the image (step S11). A frame image corresponds to a still image of the subject at each timing. The reason why the positions of the markers 48 and 49 in the image are detected is that it is possible to grasp the accurate position of the subject with respect to the course 40 reflected in the imaging indicated by the moving image data file based on the positions (see step S15). .
Note that step S11 corresponds to the derivation step in the present invention.

本実施形態では、ステップS11の処理として「SSD」物体検知(Liu, W., Angue
lov, D., Erhan, D., Szegedy, C., Reed, S., Fu, C. Y., & Berg, A. C. (2016, Oct
ober). SSD: Single shot multibox detector. In European conference on computer
vision (pp. 21-37))が採用されている。「SSD」物体検知による画像処理の概要は
以下の通りである。「SSD」物体検知によって、処理対象となる原画像中のどの位置
に検出対象となる物体が含まれているかを示す情報が得られる。この情報は、検出対象
の物体が存在する領域を示す矩形の枠であるバウンディングボックス(図5の枠B1及
びB2に対応)の四隅の座標として取得される。この情報を取得するため、処理対象と
なる原画像中の各位置に対し、形や大きさが互いに異なる複数種類の矩形の枠であるデ
フォルトボックスが設定される。そして、ニューラルネットワークとして、原画像が入
力されると、デフォルトボックスごとに、そのデフォルトボックスとバウンディングボ
ックスの差分と、そのデフォルトボックスに含まれる被写体の分類を示す値とを出力す
るように学習されたネットワークが用いられる。デフォルトボックスとバウンディング
ボックスの差分は、例えば、ボックスの中心同士のX位置の差及びY位置の差並びにボ
ックス同士の幅の差及び高さの差として得られる。デフォルトボックスに含まれる被写
体の分類を示す値は、あらかじめ設定された種類ごとに、デフォルトボックスに含まれ
る被写体がその種類に該当するもっともらしさを示す値として得られる。本実施形態で
は、検出対象がマーカ48及び49に限定されるので、ニューラルネットワークとして
、マーカ48及び49に該当するそれぞれのもっともらしさを高い精度で出力するよう
に特に学習されたものが用いられている。そして、本実施形態においては、マーカ48
及び49のそれぞれについてもっともらしさが最も高いデフォルトボックスが物体検出
の候補として抽出される。抽出されたデフォルトボックスを示す座標とその差分から、
マーカ48及び49を示す枠B1及びB2の座標として、バウンディングボックスの予
測座標が得られる。
In this embodiment, "SSD" object detection (Liu, W., Angue
lov, D., Erhan, D., Szegedy, C., Reed, S., Fu, CY, & Berg, AC (2016, Oct.
ober). SSD: Single shot multibox detector.
vision (pp. 21-37)) is adopted. The outline of image processing by “SSD” object detection is as follows. "SSD" object detection provides information indicating which locations in the raw image to be processed contain the object to be detected. This information is acquired as the coordinates of the four corners of a rectangular bounding box (corresponding to frames B1 and B2 in FIG. 5) indicating the area where the object to be detected exists. To obtain this information, default boxes, which are rectangular frames of different shapes and sizes, are set for each position in the original image to be processed. Then, as a neural network, when the original image is input, for each default box, the difference between the default box and the bounding box and the value indicating the classification of the subject included in the default box are output. A trained network is used. The differences between the default box and the bounding box are obtained, for example, as the X and Y position differences between the centers of the boxes and the width and height differences between the boxes. The value indicating the classification of the subject included in the default box is obtained as a value indicating the likelihood that the subject included in the default box corresponds to that type for each preset type. In this embodiment, since the detection targets are limited to the markers 48 and 49, a neural network that has been specially trained to output the likelihood of corresponding to the markers 48 and 49 with high accuracy is used. ing. And, in this embodiment, the marker 48
and 49, the default box with the highest likelihood is extracted as a candidate for object detection. From the coordinates indicating the extracted default box and their difference,
As the coordinates of the boxes B1 and B2 showing the markers 48 and 49, the predicted coordinates of the bounding box are obtained.

次に、データ取得装置20は、各フレーム画像に関し、被写体に含まれる人ごとにそ
の身体の特徴点及びこれらの結び付き方の導出処理を実行する(ステップS12)。本
実施形態では、この処理として、「OpenPose」(Zhe Cao and Tomas Simon an
d Shih-En Wei and Yaser Sheikh. Realtime Multi-Person 2D Pose Estimation using
Part Affinity Fields. In CVPR, 2017.)が採用されている。「OpenPose」
に用いられるニューラルネットワークは以下の第1~第3の処理を主に実行するように
構成されている。第1の処理は、原画像に含まれる被写体の特徴を大まかに抽出した画
像である特徴マップ画像を生成する処理である。第2の処理は、入力画像中の人に対応
する領域における身体の部位に対応する位置同士を結ぶ方向を示すベクトルマップに対
応する画像を生成する処理である。例えば、図2に示すように、被験者の首を示す特徴
点F1と右肩を示す特徴点F5の間の領域では、ベクトルマップにおいて、特徴点F1
と特徴点F5を結ぶ方向を指示するベクトルが分布することになる。第3の処理は、入
力画像中の人に対応する領域における身体の各部位(例えば、被験者の首を示す特徴点
F1や、右肩を示す特徴点F5等)が存在する確率の2次元的な分布を示す信頼性マッ
プに対応する画像を生成する処理である。このニューラルネットワークは、第1~第3
の処理で生成される画像を入力とした第2及び第3の処理をそれぞれ複数回繰り返すこ
とで、最終的に得られる出力が、原画像が示す人の特徴点の座標及び特徴点同士の結び
付き方を示すデータ(つまり、図2に示すような身体の概形を表すデータ)となるよう
に、ディープラーニングを用いて学習されている。画像中に複数の人物が含まれる場合
、特徴点同士の結び付き方は、人物を区別しつつ各人物について導出される。つまり、
特徴点及び特徴点同士の結び付き方を示すデータは、人物ごとに個別に生成される。ま
た、このニューラルネットワークは、各特徴点のもっともらしさを示す数値を特徴点ご
とに導出する。なお、ニューラルネットワークは、人のみならず、人状の物体について
も特徴点及び結び付き方を導出するように構成されていてもよい。
Next, the data acquisition device 20 performs a derivation process of the feature points of the body of each person included in the subject and how they are connected with respect to each frame image (step S12). In this embodiment, as this process, "OpenPose" (Zhe Cao and Tomas Simon
d Shih-En Wei and Yaser Sheikh. Realtime Multi-Person 2D Pose Estimation using
Part Affinity Fields. In CVPR, 2017.) has been adopted. "Open Pose"
The neural network used in is configured to mainly execute the following first to third processes. The first process is a process of generating a feature map image, which is an image obtained by roughly extracting the features of the subject included in the original image. The second process is a process of generating an image corresponding to a vector map indicating directions connecting positions corresponding to body parts in a region corresponding to a person in the input image. For example, as shown in FIG. 2, in the region between the feature point F1 indicating the subject's neck and the feature point F5 indicating the right shoulder, the feature point F1
and the feature point F5 are distributed. The third process is a two-dimensional calculation of the probability that each part of the body (for example, the feature point F1 indicating the subject's neck, the feature point F5 indicating the right shoulder, etc.) exists in the region corresponding to the person in the input image. This process generates an image corresponding to a reliability map showing a typical distribution. This neural network has the first to third
By repeating the second and third processes a plurality of times using the image generated by the process 1 as an input, the finally obtained output is the coordinates of the feature points of the person indicated by the original image and the distance between the feature points. It is learned using deep learning so that it becomes data indicating how to connect (that is, data representing the general shape of the body as shown in Fig. 2). When a plurality of persons are included in the image, how the feature points are connected is derived for each person while distinguishing the persons. in short,
Data indicating feature points and how the feature points are connected is generated individually for each person. The neural network also derives a numerical value indicating the likelihood of each feature point for each feature point. Note that the neural network may be configured to derive feature points and connection methods not only for people but also for human-like objects.

次に、データ取得装置20は、ステップS12において導出された特徴点の座標及び
特徴点同士の結び付き方が示す人物のうち、被験者の候補を抽出する(ステップS13
)。画像中に複数の人物が含まれる場合、ステップS12で導出されるのは、特徴点の
座標及び特徴点同士の結び付き方を複数の人物について示すデータとなる。そこで、ス
テップS13では、ステップS12にて抽出された特徴点のもっともらしさを示す数値
のうち、もっともらしさが所定の高さである数値(例えば、数値が0~1の範囲で導出
される場合における0.4)以上の特徴点が所定の個数(例えば、5つ)以上存在する
人物を被験者候補として抽出する。
Next, the data acquisition device 20 extracts subject candidates from among persons indicated by the coordinates of the feature points derived in step S12 and the manner of connection between the feature points (step S13).
). If a plurality of persons are included in the image, the data derived in step S12 are data indicating the coordinates of the feature points and how the feature points are connected to each other for the plurality of persons. Therefore, in step S13, out of the numerical values indicating the plausibility of the feature points extracted in step S12, the numerical value at which the plausibility has a predetermined height (for example, when the numerical value is derived in the range of 0 to 1 A person having a predetermined number (for example, 5) or more of feature points of 0.4) or more in is extracted as a subject candidate.

次に、データ取得装置20は、ステップS13において抽出された各被験者候補につ
いて、人物とコース40との位置関係を評価する(ステップS14)。なお、ステップ
S14は、本発明における評価ステップに対応する。具体的には、所定のフレーム(例
えば、被験者が歩行している様子が表れたフレーム)における特徴点の座標に基づき、
以下の処理を実行する。各人物において、特徴点のX座標値について算出した平均値と
、特徴点のY座標値の最大値(画像において最も下に位置する特徴点のY座標値)とを
その人物の代表位置とする。データ取得装置20は、この代表位置とコース40との直
線距離を導出する。直線距離の導出には、ステップS11において取得されたマーカ4
8及び49の画像中の位置(座標)が用いられる。つまり、マーカ48及び49の位置
に基づき、図10に示すマーカ42及び43に沿った各線分の画像中の位置が取得され
る。これに基づき、代表位置と線分との直線距離が算出されることで、代表位置とコー
ス40との直線距離が算出される。
Next, the data acquisition device 20 evaluates the positional relationship between the person and the course 40 for each subject candidate extracted in step S13 (step S14). Note that step S14 corresponds to the evaluation step in the present invention. Specifically, based on the coordinates of feature points in a predetermined frame (for example, a frame in which the subject is walking),
Execute the following process. For each person, the average value calculated for the X coordinate value of the feature points and the maximum value of the Y coordinate values of the feature points (the Y coordinate value of the lowest feature point in the image) are taken as the representative position of the person. . The data acquisition device 20 derives the linear distance between this representative position and the course 40 . For deriving the straight-line distance, the marker 4 obtained in step S11
8 and 49 image positions (coordinates) are used. That is, based on the positions of the markers 48 and 49, the position in the image of each line segment along the markers 42 and 43 shown in FIG. 10 is obtained. By calculating the linear distance between the representative position and the line segment based on this, the linear distance between the representative position and the course 40 is calculated.

そして、データ取得装置20は、ステップS14において導出した直線距離が最も小
さい人物を被験者であると判定する(ステップS15)。なお、ステップS15は、本
発明における判定ステップに対応する。例えば、図10には、人物M1に関する代表位
置R1(X1,Y1)及び人物M2に関する代表位置R2(X2,Y2)が示されてい
る。この場合、データ取得装置20は、人物M1に関するR1とコース40との直線距
離D1が人物M2に関するR2とコース40との直線距離D2より小さいため、人物M
1を被験者であると判定する。ステップS15において判定された被験者に係る特徴点
の座標及び特徴点同士の結び付き方を示すデータが、図9のステップS7で取得される
動作解析用データに対応する。動作解析用データには、被験者の右半身像について、位
置P1において椅子から立ち上がる動作中及び位置P1から位置2に移動するまでの動
作中の特徴点の座標及び特徴点同士の結び付き方を示すデータ(本発明における第1解
析用データ)と、被験者の正面像について、位置P2から位置3に移動するまでの動作
中の特徴点の座標及び特徴点同士の結び付き方を示すデータ(本発明における第2解析
用データ)とが含まれている。
Then, the data acquisition device 20 determines that the person with the shortest linear distance derived in step S14 is the subject (step S15). Note that step S15 corresponds to the determination step in the present invention. For example, FIG. 10 shows representative position R1 (X1, Y1) for person M1 and representative position R2 (X2, Y2) for person M2. In this case, the data acquisition device 20 determines that the straight line distance D1 between R1 regarding the person M1 and the course 40 is smaller than the straight line distance D2 between the R2 regarding the person M2 and the course 40.
1 is determined to be a subject. The data indicating the coordinates of the feature points of the subject determined in step S15 and how the feature points are connected to each other correspond to the motion analysis data acquired in step S7 of FIG. The data for motion analysis includes the coordinates of the feature points and the connection between the feature points during the motion of standing up from the chair at position P1 and during the motion from position P1 to position 2 for the right half of the body image of the subject. data (first analysis data in the present invention) and data indicating the coordinates of feature points during movement from position P2 to position 3 and how the feature points are connected to each other in the front image of the subject (this data). data for second analysis in the invention).

以上説明した本実施形態によると、図4に示すコース40を用いた試験において、被
験者を位置P1から位置P2まで、X方向に沿って、つまり、携帯端末10のカメラの
光軸LXと直交する方向に沿って歩行させる。そして、その被験者の右半身を携帯端末
10のカメラに動画として連続的に撮像させる。このため、被験者が歩行する姿を進行
方向に対して側方から連続的に捉えた動画が得られる。そして、その動画に基づき、デ
ータ取得装置20が人の身体における複数の特徴点の座標及び特徴点同士の結び付き方
を示す動作解析用データを取得する。このため、かかるデータには、被験者の側方から
見た動作の状況、例えば、被験者の前傾姿勢の度合い、足の振り出し速度、手を振る速
度、膝の上がり具合等の状況を適切に反映させることが可能である。人の身体機能の強
弱はこれらの要素に表れることが多い。例えば、虚弱な身体状況にある被験者において
は、前傾姿勢となる傾向があったり手の振りが弱かったりする。このように、被験者の
側方から見た動作の状況は、人の身体機能の評価等にとって重要な判断要素となり得る
。本実施形態は、かかる重要な判断要素を示す情報を身体における特徴点の座標として
数値的に取得できる。このため、数値を解析することで、直接的且つ詳細に身体機能等
の評価を実施することが可能である。以上のように、本実施形態によると、人の身体機
能の評価等のために被験者の動作の直接的且つ詳細な解析が可能となるような動作解析
用データを取得することができる。
According to the present embodiment described above, in the test using the course 40 shown in FIG. walk along the direction to Then, the right half of the subject's body is continuously imaged as a moving image by the camera of the mobile terminal 10 . As a result, a moving image of the subject walking can be obtained continuously from the side of the direction of travel. Then, based on the moving image, the data acquisition device 20 acquires motion analysis data indicating the coordinates of a plurality of feature points on the human body and how the feature points are connected to each other. For this reason, such data should include the conditions of the subject's movements as seen from the side, such as the degree of the subject's forward leaning posture, the speed of swinging the leg, the speed of waving the hand, and the degree to which the knee is raised. It is possible to reflect The strength and weakness of a person's bodily functions often appear in these elements. For example, frail subjects tend to lean forward and have weak hand movements. In this way, the state of motion seen from the side of the subject can be an important factor in determining the person's physical function. This embodiment can numerically acquire information indicating such important determination factors as the coordinates of feature points on the body. Therefore, by analyzing numerical values, it is possible to directly and in detail evaluate physical functions. As described above, according to the present embodiment, it is possible to acquire motion analysis data that enables direct and detailed analysis of the motion of a subject for evaluation of a person's bodily functions.

また、本実施形態においては、図4に示すコース40を用いた試験において、位置P
2で携帯端末10に向かって方向転換させると共に、そこから位置P3まで携帯端末1
0に向かって歩行させる。そして、その被験者の正面を携帯端末10のカメラに動画と
して連続的に撮像させる。このため、被験者が歩行する姿をその正面から連続的に捉え
た動画が得られる。そして、その動画に基づき、データ取得装置20が人の身体におけ
る複数の特徴点の座標及び特徴点同士の結び付き方を示す動作解析用データを取得する
。これによると、例えば、歩行による体幹の左右ぶれ等、被験者の正面から見た動作の
状況にも基づいて身体機能の評価等を実施するための動作解析用データを取得できる。
Further, in the present embodiment, in the test using the course 40 shown in FIG.
2, the direction is changed toward the mobile terminal 10, and from there to the position P3, the mobile terminal 1
Walk towards 0. Then, the camera of the mobile terminal 10 continuously captures the front of the subject as a moving image. For this reason, we can obtain a moving image that continuously captures the subject walking from the front. Then, based on the moving image, the data acquisition device 20 acquires motion analysis data indicating the coordinates of a plurality of feature points on the human body and how the feature points are connected to each other. According to this, it is possible to acquire motion analysis data for evaluating physical function, etc., based on the state of the motion seen from the front of the subject, such as left-to-right sway of the trunk due to walking, for example.

また、本実施形態においては、被験者にとって視認可能にコース40を示すマーカ4
2~49が設置されている。これによると、被験者がこれらのマーカを視認することに
より正確に移動経路を認識可能である。よって、身体機能の評価等を正確に行うための
動作解析用データを取得できる。これらのマーカのうち、マーカ43及び44は、第1
直線経路40aに沿ったマーカ42を互いの間に挟むように形成されている。同様に、
マーカ46及び47は、第2直線経路40bに沿ったマーカ45を互いの間に挟むよう
に形成されている。例えば仮に、移動経路をマーカ42及び45のみによって示したと
すると、被験者がマーカ42及び45に両足を揃えて(平均台上を移動するかのように
)歩行するおそれがあり、歩行しにくく感じる可能性がある。これに対し、マーカ42
及び45を挟むようにマーカ43及び44並びに46及び47を形成することで、被験
者にとっては、これらの間に足を置く幅を確保できるため、歩行しやすいと感じさせる
ことができる。
Further, in the present embodiment, the marker 4 that visually indicates the course 40 for the subject
2 to 49 are installed. According to this, the subject can recognize the moving route accurately by visually recognizing these markers. Therefore, it is possible to acquire motion analysis data for accurately evaluating body functions. Of these markers, markers 43 and 44 are the first
They are formed so as to sandwich the markers 42 along the straight path 40a. Similarly,
Markers 46 and 47 are formed such that they sandwich marker 45 along second linear path 40b. For example, if the movement path is indicated only by the markers 42 and 45, the subject may walk with both feet aligned with the markers 42 and 45 (as if moving on a balance beam), and may find it difficult to walk. have a nature. On the other hand, marker 42
By forming the markers 43 and 44 and 46 and 47 so as to sandwich the markers 43 and 44 and 45, the subject can secure a width for placing the foot between them, so that the subject can feel that walking is easy.

また、本実施形態においては、携帯端末10及びデータ取得装置20間、並びに、デ
ータ取得装置20及びPC30間は、それぞれ、USB方式等の有線接続によって接続
されている。これらの装置間でやり取りされる動画データファイルや動画解析用データ
は、被験者が歩行する姿を反映しているため、被験者にとって個人的な情報が含まれる
ことになる。これに対し、上記の通りデータのやり取りが有線接続を介して行われる。
したがって、個人的な情報に係るデータが外部に流出するリスクを抑制できる。さらに
、本実施形態においては、動作解析用データの取得処理が完了すると、データ取得装置
20が、その動作解析用データの取得に用いた動画データファイルをメモリ等から削除
する。また、データ取得装置20は、データ取得装置20の電源が一旦オフにされ、そ
の後に再度オンにされた段階で自動的に全ての動画データファイルをメモリ等から削除
する。このため、個人的な情報に係るデータが外部に流出するリスクをさらに抑制でき
る。
Further, in this embodiment, the mobile terminal 10 and the data acquisition device 20, and the data acquisition device 20 and the PC 30 are connected by a wired connection such as a USB system. The moving image data files and moving image analysis data exchanged between these devices reflect the subject's walking appearance, so they contain information that is personal to the subject. On the other hand, as described above, data is exchanged via a wired connection.
Therefore, it is possible to reduce the risk of data related to personal information leaking to the outside. Furthermore, in this embodiment, when the motion analysis data acquisition process is completed, the data acquisition device 20 deletes the moving image data file used for acquiring the motion analysis data from the memory or the like. In addition, the data acquisition device 20 automatically deletes all moving image data files from the memory or the like when the power of the data acquisition device 20 is once turned off and then turned on again. Therefore, it is possible to further reduce the risk of data related to personal information leaking to the outside.

<その他の変形例>
以上は、本発明の好適な実施形態についての説明であるが、本発明は上述の実施形態
に限られるものではなく、課題を解決するための手段に記載された範囲の限りにおいて
様々な変更が可能なものである。
<Other Modifications>
The above is a description of preferred embodiments of the present invention, but the present invention is not limited to the above-described embodiments, and various modifications can be made within the scope described in Means for Solving the Problems. It is possible.

例えば、上述の実施形態では、被験者が歩行する経路が第1直線経路40a及び第2
直線経路40bとして設定されている。しかし、必ずしも直線経路でなくてもよい。蛇
行する経路やカーブする経路として設定されてもよい。また、第1直線経路40aが携
帯端末10のカメラの光軸と直交するX方向に沿って設定されている。これによって、
第1直線経路40aに沿って歩行する被験者の右半身に係る動画を取得できる。しかし
、第1直線経路40aは、被験者の右半身又は左半身に係る動画を取得できるのであれ
ば、カメラの光軸と直交していなくてもよい。例えば、第1直線経路40aがカメラの
光軸と90°以外の角度で交差するように設定されてもよい。また、被験者を歩行させ
るのでなく、走らせてもよい。また、位置P1→位置P2→位置P3の経路のみならず
、位置P3に到達した後、位置P3→位置P2→位置P1の経路で被験者を歩行させて
もよい。この場合、被験者の右半身及び正面のみならず、左半身及び背面に係る動画を
取得できる。
For example, in the above-described embodiment, the path along which the subject walks is the first straight path 40a and the second straight path 40a.
It is set as a straight path 40b. However, it does not necessarily have to be a straight path. It may be set as a meandering path or a curving path. A first straight path 40 a is set along the X direction orthogonal to the optical axis of the camera of the mobile terminal 10 . by this,
A moving image of the right half of the subject walking along the first straight path 40a can be acquired. However, the first straight path 40a does not have to be orthogonal to the optical axis of the camera as long as a moving image of the subject's right or left half can be obtained. For example, the first straight path 40a may be set to intersect the optical axis of the camera at an angle other than 90°. Also, the subject may run rather than walk. Further, the subject may be allowed to walk not only through the route of position P1→position P2→position P3, but also through the route of position P3→position P2→position P1 after reaching position P3. In this case, not only the right half of the body and the front, but also the left half of the body and the back of the subject can be acquired.

また、上述の実施形態では、マーカ48及び49の位置の検出を、ニューラルネット
ワークを用いて行っている。しかし、その他の方法で検出してもよい。例えば、画像中
の画素の色情報に基づいて検出してもよい。
Further, in the above-described embodiment, detection of the positions of the markers 48 and 49 is performed using a neural network. However, other methods may be used for detection. For example, it may be detected based on color information of pixels in the image.

また、上述の実施形態では、ステップS15において、ステップS13で抽出された
被験者の候補のうち、ステップS14で導出された代表位置とコース40との直線距離
が最も小さい人物を被験者であると判定している。しかしながら、被験者の判定が、代
表位置とコース40との直線距離ではなく、代表位置とコース40に対する特定位置と
の距離に基づいてなされてもよい。特定位置とは、コース40と所定の位置関係にある
位置であり、例えば、X方向に関してマーカ42の中点と同じ位置且つY方向に関して
マーカ45の中点と同じ位置であってもよい。
Further, in the above-described embodiment, in step S15, among the candidates for the subject extracted in step S13, the person with the shortest linear distance between the representative position derived in step S14 and the course 40 is determined to be the subject. ing. However, the determination of the subject may be made based on the distance between the representative position and the specific position on the course 40 instead of the linear distance between the representative position and the course 40 . The specific position is a position having a predetermined positional relationship with the course 40, and may be, for example, the same position as the midpoint of the marker 42 in the X direction and the same position as the midpoint of the marker 45 in the Y direction.

1 解析データ取得システム
10 携帯端末
20 データ取得装置
30 PC



1 analysis data acquisition system 10 portable terminal 20 data acquisition device 30 PC



Claims (10)

被写体像をデータに変換して出力する撮像手段と、前記撮像手段から出力されたデー
タに基づいて、当該データが示す被写体に含まれる人の身体における複数の特徴点の座
標を示すデータを生成する特徴点導出手段とを使用して、人の移動時の動作を解析する
ためのデータを取得する方法であって、
被験者を、第1位置において物体に座った状態から立ち上がらせると共に、前記撮像
手段の光軸と交差し且つ水平方向に平行な方向に関して前記第1位置から離隔した第2
位置まで歩行させる、又は走らせる被験者動作ステップと、
前記被験者動作ステップにおける動作中の前記被験者の左半身及び右半身の少なくと
もいずれかを前記撮像手段に連続的に撮像させる撮像ステップと、
前記撮像ステップにおいて実行される撮像に関して前記撮像手段から出力されたデー
タに基づいて、前記物体から立ち上がる動作中及び前記第1位置から前記第2位置に移
動するまでの動作中の前記被験者の各タイミングにおける前記複数の特徴点の座標を示
す第1解析用データを前記特徴点導出手段に生成させる特徴点生成ステップとを備えて
いることを特徴とする動作解析データ取得方法。
an imaging means for converting an image of a subject into data and outputting the data; and data indicating coordinates of a plurality of characteristic points on a human body included in the subject indicated by the data, based on the data output from the imaging means. A method for obtaining data for analyzing the movement of a person using a feature point derivation means to generate, comprising:
The subject is caused to stand up from sitting on the object in a first position, and a second position spaced apart from the first position in a direction parallel to the horizontal and intersecting the optical axis of the imaging means.
a subject motion step of walking or running to a position;
an imaging step of causing the imaging means to continuously image at least one of the left half and right half of the subject during movement in the subject movement step;
Based on the data output from the image capturing means regarding the image capturing performed in the image capturing step, the subject's motion of standing up from the object and moving from the first position to the second position. and a feature point generating step for causing the feature point deriving means to generate first analysis data indicating the coordinates of the plurality of feature points at each timing.
前記被験者動作ステップにおいて、前記第2位置で前記撮像手段に向かって方向転換
させると共に、前記第2位置より前記撮像手段に近い第3位置まで前記撮像手段に向か
って歩行させ、又は走らせ、
前記撮像ステップにおいて、前記被験者動作ステップでの動作中の前記被験者の正面
を前記撮像手段に連続的に撮像させ、
前記特徴点生成ステップにおいて、前記撮像ステップで実行される撮像に関して前記
撮像手段から出力されたデータに基づいて、前記第2位置から前記第3位置に移動する
までの動作中の前記被験者の各タイミングにおける前記複数の特徴点の座標を示す第2
解析用データを前記特徴点導出手段に生成させることを特徴とする請求項1に記載の動
作解析データ取得方法。
In the subject movement step, the subject is caused to change direction toward the imaging means at the second position and walk or run toward the imaging means from the second position to a third position closer to the imaging means;
In the imaging step, causing the imaging means to continuously image the front of the subject during the motion in the subject motion step,
In the feature point generation step, each timing of the subject during movement from the second position to the third position based on the data output from the imaging means regarding the imaging performed in the imaging step. indicating the coordinates of the plurality of feature points in the second
2. The motion analysis data acquisition method according to claim 1, wherein the analysis data is generated by the feature point deriving means.
前記被験者動作ステップにおいて、前記被験者が移動経路を認識するための視認可能
なマーカが設置されており、
前記マーカが、前記第2位置及び前記第3位置をそれぞれ指示する位置マーカと、前
記被験者が通る想定直線経路を指示する線分に沿って延びた経路マーカとの少なくとも
いずれかを含んでいることを特徴とする請求項2に記載の動作解析データ取得方法。
In the subject movement step, a visible marker is installed for the subject to recognize the moving route,
The markers include at least one of position markers respectively indicating the second position and the third position, and path markers extending along a line segment indicating an assumed straight path through which the subject passes. 3. The motion analysis data acquisition method according to claim 2, wherein:
前記経路マーカが、前記想定直線経路を挟むように前記想定直線経路と平行に延びた
2本の線分に沿って延びていることを特徴とする請求項3に記載の動作解析データ取得
方法。
4. The motion analysis data acquisition method according to claim 3, wherein the path marker extends along two line segments extending parallel to the assumed straight path so as to sandwich the assumed straight path.
前記撮像ステップにおいて実行される撮像に関して前記撮像手段から出力されたデー
タに基づいて前記マーカの座標を導出する導出ステップを備えていることを特徴とする
請求項3又は4に記載の動作解析データ取得方法。
5. The motion analysis data according to claim 3, further comprising a deriving step of deriving the coordinates of the marker based on data output from the imaging means regarding the imaging performed in the imaging step. Acquisition method.
前記導出ステップにおいて、前記マーカに関して物体検知を行うように学習済みのニ
ューラルネットワークを使用することを特徴とする請求項5に記載の動作解析データ取
得方法。
6. The motion analysis data acquisition method according to claim 5, wherein the derivation step uses a neural network that has been trained to detect objects with respect to the markers.
前記特徴点導出手段が、前記被写体中の人の身体ごとに、前記複数の特徴点の座標を
示すデータを個別に生成し、
前記導出ステップにおいて導出された前記マーカの座標及び前記特徴点生成ステップ
において生成された前記第1解析用データ及び第2解析用データに基づいて、前記人の
身体のそれぞれについて、前記複数の特徴点と前記想定直線経路との位置関係を評価す
る評価ステップと、
前記評価ステップにおける評価結果に基づいて、前記人の身体のうちのいずれが前記
被験者であるかを判定する判定ステップとを備えていることを特徴とする請求項5又は
6に記載の動作解析データ取得方法。
wherein the feature point deriving means individually generates data indicating the coordinates of the plurality of feature points for each human body in the subject;
The plurality of feature points for each of the body of the person based on the coordinates of the marker derived in the derivation step and the first analysis data and the second analysis data generated in the feature point generation step. and an evaluation step of evaluating the positional relationship between the assumed straight path and
7. The motion analysis data according to claim 5, further comprising a determination step of determining which part of the person's body is the subject based on the evaluation result of the evaluation step. Acquisition method.
被写体像をデータに変換して出力する撮像手段と、
前記撮像手段から出力されたデータに基づいて、当該データが示す被写体に含まれる
人の身体における複数の特徴点の座標を示すデータを生成する特徴点導出手段と、
第1位置に設置された被験者が座る物体と、
前記第1位置から、前記撮像手段の光軸と交差する方向に関して前記第1位置から離
隔した第2位置まで移動する経路を前記被験者に認識させるための視認可能なマーカと
を備えており、
前記被験者が前記物体に座った状態から立ち上がると共に前記第1位置から前記第2
位置まで移動した際に、当該被験者の左半身及び右半身の少なくともいずれかを前記撮
像手段に撮像させると共に、この際に前記撮像手段から出力されたデータに基づいて、
前記物体から立ち上がる動作中及び前記第1位置から前記第2位置に移動するまでの動
作中の前記被験者の各タイミングにおける前記複数の特徴点の座標を示す解析用データ
を前記特徴点導出手段に生成させることを特徴とする動作解析データ取得システム。
imaging means for converting a subject image into data and outputting the data;
feature point deriving means for generating, based on the data output from the imaging means, data indicating the coordinates of a plurality of feature points on a human body included in the subject indicated by the data;
an object on which the subject sits, placed in a first position;
a visible marker for making the subject recognize a route from the first position to a second position spaced apart from the first position in a direction intersecting the optical axis of the imaging means,
As the subject stands up from sitting on the object, the subject moves from the first position to the second position.
At the time of moving to the position, at least one of the left half of the body and the right half of the subject is imaged by the imaging means, and based on the data output from the imaging means at this time,
Analysis data indicating the coordinates of the plurality of feature points at each timing of the subject during the motion of standing up from the object and during the motion of moving from the first position to the second position to the feature point deriving means. A motion analysis data acquisition system characterized by generating.
携帯端末並びに第1及び第2のコンピュータを備えており、
前記撮像手段として機能した前記携帯端末から有線接続を介して被写体像から変換さ
れたデータが前記第1のコンピュータへと出力され、
前記特徴点導出手段として機能した前記第1のコンピュータから有線接続を介して前
記複数の特徴点の座標を示すデータが前記第2のコンピュータへと出力されることを特
徴とする請求項8に記載の動作解析データ取得システム。
comprising a mobile terminal and first and second computers;
data converted from the subject image is output to the first computer via a wired connection from the portable terminal functioning as the imaging means;
8. Data indicating the coordinates of the plurality of feature points is output from the first computer functioning as the feature point deriving means to the second computer via a wired connection. The motion analysis data acquisition system described in .
前記第1のコンピュータが、前記携帯端末からのデータを記録するデータ記録部を備
えており、前記複数の特徴点の座標を示すデータを生成した後に前記データ記録部に記
録した前記携帯端末からのデータを削除することを特徴とする請求項8又は9に記載の
動作解析データ取得システム。




The first computer has a data recording section for recording data from the mobile terminal, and from the mobile terminal recorded in the data recording section after generating the data indicating the coordinates of the plurality of characteristic points. 10. The motion analysis data acquisition system according to claim 8 or 9, wherein the data of is deleted.




JP2021012431A 2021-01-28 2021-01-28 Motion analysis data acquisition method and motion analysis data acquisition system Pending JP2022115705A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021012431A JP2022115705A (en) 2021-01-28 2021-01-28 Motion analysis data acquisition method and motion analysis data acquisition system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021012431A JP2022115705A (en) 2021-01-28 2021-01-28 Motion analysis data acquisition method and motion analysis data acquisition system

Publications (1)

Publication Number Publication Date
JP2022115705A true JP2022115705A (en) 2022-08-09

Family

ID=82747475

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021012431A Pending JP2022115705A (en) 2021-01-28 2021-01-28 Motion analysis data acquisition method and motion analysis data acquisition system

Country Status (1)

Country Link
JP (1) JP2022115705A (en)

Similar Documents

Publication Publication Date Title
US11182599B2 (en) Motion state evaluation system, motion state evaluation device, motion state evaluation server, motion state evaluation method, and motion state evaluation program
Viswakumar et al. Human gait analysis using OpenPose
US11468612B2 (en) Controlling display of a model based on captured images and determined information
US9928411B2 (en) Image processing apparatus, image processing system, image processing method, and computer program product
Le et al. Human posture recognition using human skeleton provided by Kinect
CN109299659A (en) A kind of human posture recognition method and system based on RGB camera and deep learning
KR101118654B1 (en) rehabilitation device using motion analysis based on motion capture and method thereof
KR101930652B1 (en) Gait analysis system and computer program recorded on recording medium
KR20150079585A (en) System and method for deriving accurate body size measures from a sequence of 2d images
JP2019125057A (en) Image processing apparatus, method thereof and program
CN107930048B (en) Space somatosensory recognition motion analysis system and motion analysis method
JP2000251078A (en) Method and device for estimating three-dimensional posture of person, and method and device for estimating position of elbow of person
Anilkumar et al. Pose estimated yoga monitoring system
JP6773829B2 (en) Object recognition device, object recognition method, and object recognition program
KR20200066405A (en) Device and method for measuring three-dimensional body model
JP2020141806A (en) Exercise evaluation system
KR20160076488A (en) Apparatus and method of measuring the probability of muscular skeletal disease
Nakamura et al. Estimation method of clothes size for virtual fitting room with kinect sensor
JP5416489B2 (en) 3D fingertip position detection method, 3D fingertip position detection device, and program
JP6773825B2 (en) Learning device, learning method, learning program, and object recognition device
KR101447958B1 (en) Method and apparatus for recognizing body point
JP2022115705A (en) Motion analysis data acquisition method and motion analysis data acquisition system
US20210286983A1 (en) Estimation method, and computer-readable recording medium recording estimation program
JP7259313B2 (en) Attribute determination device, attribute determination system, attribute determination method, program and recording medium
KR20220120731A (en) Methods and apparatus for providing the contents of the affordance health care using mirror display

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20210212

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20210217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210217

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231113