JP2022115705A - Motion analysis data acquisition method and motion analysis data acquisition system - Google Patents
Motion analysis data acquisition method and motion analysis data acquisition system Download PDFInfo
- Publication number
- JP2022115705A JP2022115705A JP2021012431A JP2021012431A JP2022115705A JP 2022115705 A JP2022115705 A JP 2022115705A JP 2021012431 A JP2021012431 A JP 2021012431A JP 2021012431 A JP2021012431 A JP 2021012431A JP 2022115705 A JP2022115705 A JP 2022115705A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- data
- motion
- analysis data
- data acquisition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 131
- 238000004458 analytical method Methods 0.000 title claims abstract description 86
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000003384 imaging method Methods 0.000 claims abstract description 59
- 238000011156 evaluation Methods 0.000 claims abstract description 14
- 239000003550 marker Substances 0.000 claims description 31
- 230000003287 optical effect Effects 0.000 claims description 11
- 238000013528 artificial neural network Methods 0.000 claims description 10
- 238000009795 derivation Methods 0.000 claims description 8
- 230000006870 function Effects 0.000 abstract description 16
- 238000012360 testing method Methods 0.000 abstract description 10
- 238000012545 processing Methods 0.000 description 15
- 238000006243 chemical reaction Methods 0.000 description 11
- 230000003863 physical function Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 238000001514 detection method Methods 0.000 description 7
- 210000003127 knee Anatomy 0.000 description 4
- 210000002414 leg Anatomy 0.000 description 4
- 239000002390 adhesive tape Substances 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000003973 paint Substances 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- FFBHFFJDDLITSX-UHFFFAOYSA-N benzyl N-[2-hydroxy-4-(3-oxomorpholin-4-yl)phenyl]carbamate Chemical compound OC1=C(NC(=O)OCC2=CC=CC=C2)C=CC(=C1)N1CCOCC1=O FFBHFFJDDLITSX-UHFFFAOYSA-N 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
Images
Abstract
Description
本発明は、人の移動時の動作を解析するためのデータを取得する動作解析データ取得
方法及び動作解析データ取得システムに関する。
The present invention relates to a motion analysis data acquisition method and a motion analysis data acquisition system for acquiring data for analyzing motions of people when they move.
従来、人の身体機能の医学的な評価等の目的で歩行等の動作を行わせ、これを検証す
る場合がある。非特許文献1の「タイムドアップアンドゴー(TUG)テスト」はその
一例である。被験者に、椅子に座った状態から立ち上がらせ、3m歩行させた後、向き
を変えて元の椅子まで歩行させ、再び椅子に座らせる。非特許文献1では、この一連の
動作に掛かる時間と被験者のバランス、歩行速度及び機能的能力との相関性が議論されている。
Conventionally, for the purpose of medical evaluation of a person's bodily functions, there is a case where a motion such as walking is performed and verified. The “Timed Up and Go (TUG) Test” in
非特許文献1のTUGテストでは、被験者に実施させる一連の動作に掛かる時間のみ
を評価の指標としている。一方、本発明者らは、被験者の一連の動作をより直接的且つ
詳細に解析できれば、人の身体機能の医学的な評価等のために重要な情報が得られると
考えた。そこで、被験者の動作の直接的且つ詳細な解析を可能にするため、被験者の一
連の動作を適切に反映した動作解析用のデータの取得を目指すこととした。
In the TUG test of Non-Patent
本発明の目的は、人の身体機能の評価等のために被験者の動作の直接的且つ詳細な解
析が可能となるように被験者の動作を適切に反映したデータを取得できる動作解析デー
タ取得方法及び動作解析データ取得システムを提供することにある。
An object of the present invention is to acquire motion analysis data that can acquire data that appropriately reflects the motion of a subject so that direct and detailed analysis of the motion of the subject can be performed for evaluation of human body functions. The object is to provide a method and a motion analysis data acquisition system.
本発明の動作解析データ取得方法は、被写体像をデータに変換して出力する撮像手段
と、前記撮像手段から出力されたデータに基づいて、当該データが示す被写体に含まれ
る人の身体における複数の特徴点の座標を示すデータを生成する特徴点導出手段とを使
用して、人の移動時の動作を解析するためのデータを取得する方法であって、被験者を
、第1位置において物体に座った状態から立ち上がらせると共に、前記撮像手段の光軸
と交差し且つ水平方向に平行な方向に関して前記第1位置から離隔した第2位置まで歩
行させる、又は走らせる被験者動作ステップと、前記被験者動作ステップにおける動作
中の前記被験者の左半身及び右半身の少なくともいずれかを前記撮像手段に連続的に撮
像させる撮像ステップと、前記撮像ステップにおいて実行される撮像に関して前記撮像
手段から出力されたデータに基づいて、前記物体から立ち上がる動作中及び前記第1位
置から前記第2位置に移動するまでの動作中の前記被験者の各タイミングにおける前記
複数の特徴点の座標を示す第1解析用データを前記特徴点導出手段に生成させる特徴点
生成ステップとを備えている。
A motion analysis data acquisition method of the present invention comprises imaging means for converting an image of a subject into data and outputting the data; and a feature point deriving means for generating data indicating the coordinates of the feature points of the subject, and a method of obtaining data for analyzing a motion of a person during movement, comprising: a subject motion step of standing up from a sitting state and walking or running to a second position separated from the first position in a direction parallel to the horizontal direction and intersecting the optical axis of the imaging means; an imaging step of causing the imaging means to continuously image at least one of the left half of the body and the right half of the subject during movement in the subject movement step; first analysis data representing the coordinates of the plurality of feature points at each timing of the subject during the motion of standing up from the object and during the motion of moving from the first position to the second position, based on the data; and a feature point generating step of causing the feature point deriving means to generate
本発明の動作解析データ取得方法によると、被験者を撮像手段の光軸と交差する方向
に沿って第1位置から第2位置まで移動させる。そして、その被験者の右半身及び左半
身の少なくともいずれかを撮像手段に連続的に撮像させる。このため、被験者が歩行又
は走る姿を進行方向に対して側方から連続的に捉えた被写体像が得られる。そして、そ
の被写体像に基づき、人の身体における複数の特徴点の座標を示すデータを取得する。
このため、かかるデータには、被験者の側方から見た動作の状況、例えば、被験者の前
傾姿勢の度合い、足の振り出し速度、手を振る速度、膝の上がり具合等の状況を適切に
反映させることが可能である。人の身体機能の強弱はこれらの要素に表れることが多い
。例えば、虚弱な身体状況にある被験者においては、前傾姿勢となる傾向があったり手
の振りが弱かったりする。このように、被験者の側方から見た動作の状況は、人の身体
機能の評価等にとって重要な判断要素となり得る。本発明では、かかる重要な判断要素
を示す情報を身体における特徴点の座標として数値的に取得できる。このため、数値を
解析することで、直接的且つ詳細に身体機能等の評価を実施することが可能である。以
上のように、本発明によると、人の身体機能の評価等のために被験者の動作の直接的且
つ詳細な解析が可能となるようなデータを取得することができる。
According to the motion analysis data acquisition method of the present invention, the subject is moved from the first position to the second position along the direction intersecting the optical axis of the imaging means. Then, at least one of the right half of the body and the left half of the subject's body is continuously imaged by the imaging means. For this reason, subject images can be obtained in which the subject's walking or running appearance is continuously captured from the side of the direction of travel. Then, based on the image of the subject, data indicating the coordinates of a plurality of feature points on the human body are obtained.
For this reason, such data should appropriately reflect the status of the subject's movements as seen from the side, such as the degree of the subject's forward leaning posture, the speed at which the leg is swung, the speed at which the hand is waved, and the degree to which the knee is raised. It is possible to The strength and weakness of a person's bodily functions often appear in these elements. For example, subjects in a frail physical condition tend to lean forward and have weak hand movements. In this way, the state of motion seen from the side of the subject can be an important factor in determining the person's physical function. In the present invention, information indicating such important determination factors can be numerically acquired as the coordinates of feature points on the body. Therefore, by analyzing numerical values, it is possible to directly and in detail evaluate physical functions. As described above, according to the present invention, it is possible to acquire data that enable direct and detailed analysis of the motion of a subject for the purpose of evaluating a person's bodily functions.
また、本発明においては、前記被験者動作ステップにおいて、前記第2位置で前記撮
像手段に向かって方向転換させると共に、前記第2位置より前記撮像手段に近い第3位
置まで前記撮像手段に向かって歩行させ、又は走らせ、前記撮像ステップにおいて、前
記被験者動作ステップでの動作中の前記被験者の正面を前記撮像手段に連続的に撮像さ
せ、前記特徴点生成ステップにおいて、前記撮像ステップで実行される撮像に関して前
記撮像手段から出力されたデータに基づいて、前記第2位置から前記第3位置に移動す
るまでの動作中の前記被験者の各タイミングにおける前記複数の特徴点の座標を示す第
2解析用データを前記特徴点導出手段に生成させることが好ましい。これによると、例
えば、歩行による体幹の左右ぶれ等、被験者の正面から見た動作の状況にも基づいて身
体機能の評価等を実施するためのデータを取得できる。
Further, in the present invention, in the subject operation step, the direction is changed at the second position toward the imaging means, and the subject moves toward the imaging means from the second position to a third position closer to the imaging means. in the imaging step, causing the imaging means to continuously image the front of the subject during the motion in the subject motion step; and in the feature point generating step, executed in the imaging step. coordinates of the plurality of feature points at each timing of the subject during movement from the second position to the third position, based on the data output from the imaging means regarding the imaging to be performed; It is preferable to cause the feature point deriving means to generate the second analysis data. According to this, it is possible to obtain data for evaluating the physical function based on the movement of the subject as seen from the front, such as the lateral movement of the trunk due to walking.
また、本発明においては、前記被験者動作ステップにおいて、前記被験者が移動経路
を認識するための視認可能なマーカが設置されており、前記マーカが、前記第2位置及
び前記第3位置をそれぞれ指示する位置マーカと、前記被験者が通る想定直線経路を指
示する線分に沿って延びた経路マーカとの少なくともいずれかを含んでいることが好ま
しい。これによると、被験者がマーカを視認することにより正確に移動経路を認識可能
である。よって、身体機能の評価等を正確に行うためのデータを取得できる。
Further, in the present invention, in the subject movement step, visible markers are installed for the subject to recognize the moving route, and the markers indicate the second position and the third position, respectively. and/or a path marker extending along a line segment indicating an assumed straight path through which the subject passes. According to this, the subject can recognize the moving route accurately by visually recognizing the marker. Therefore, it is possible to obtain data for accurately evaluating the physical function.
また、本発明においては、前記経路マーカが、前記想定直線経路を挟むように前記想
定直線経路と平行に延びた2本の線分に沿って延びていることが好ましい。例えば想定
直線経路を1本の線分のみによって示すと、被験者がその1本の線分に両足を揃えて移
動するおそれがあり、移動しにくく感じる可能性がある。これに対し、想定直線経路を
挟む2本の線分を形成することで、被験者にとって足を置く幅を確保できるため移動し
やすいと感じさせることができる。
Further, in the present invention, it is preferable that the route marker extends along two line segments that extend parallel to the assumed straight route so as to sandwich the assumed straight route. For example, if an assumed straight path is indicated by only one line segment, the subject may move with both feet aligned on that one line segment, which may make it difficult for the subject to move. On the other hand, by forming two line segments sandwiching the assumed straight path, it is possible to secure a width for the subject to put their feet on, so that the subject can feel that it is easy to move.
また、本発明においては、前記撮像ステップにおいて実行される撮像に関して前記撮
像手段から出力されたデータに基づいて前記マーカの座標を導出する導出ステップを備
えていることが好ましい。これによると、導出されたマーカの座標を基準として被験者
の位置を把握することができる。
Also, in the present invention, it is preferable to include a deriving step of deriving the coordinates of the marker based on the data output from the imaging means regarding the imaging performed in the imaging step. According to this, the subject's position can be grasped based on the derived coordinates of the marker.
また、本発明においては、前記導出ステップにおいて、前記マーカに関して物体検知
を行うように学習済みのニューラルネットワークを使用することが好ましい。これによ
ると、ニューラルネットワークを使用するので、マーカの座標を検知する精度が高くな
る。
Further, in the present invention, it is preferable that the deriving step uses a neural network that has been trained to detect an object with respect to the marker. According to this method, since a neural network is used, the accuracy of detecting the coordinates of the marker is increased.
また、本発明においては、前記特徴点導出手段が、前記被写体中の人の身体ごとに、
前記複数の特徴点の座標を示すデータを個別に生成し、前記導出ステップにおいて導出
された前記マーカの座標及び前記特徴点生成ステップにおいて生成された前記第1解析
用データ及び第2解析用データに基づいて、前記人の身体のそれぞれについて、前記複
数の特徴点と前記想定直線経路との位置関係を評価する評価ステップと、前記評価ステ
ップにおける評価結果に基づいて、前記人の身体のうちのいずれが前記被験者であるか
を判定する判定ステップとを備えていることが好ましい。これによると、被写体として
複数の人物が存在した場合にもどの人物が被験者であるかを判定可能である。よって、
撮像の際に複数の人物が映り込んでも被験者に関するデータを適切に取得できる。
Further, in the present invention, the feature point derivation means may, for each human body in the subject,
data indicating the coordinates of the plurality of feature points are individually generated, and the coordinates of the marker derived in the derivation step and the first analysis data and the second analysis data generated in the feature point generation step an evaluation step of evaluating the positional relationship between the plurality of feature points and the assumed straight path for each of the person's body, based on the results of the evaluation; and a determination step of determining which one of them is the subject. According to this, it is possible to determine which person is the subject even when there are a plurality of persons as subjects. Therefore,
Data on a subject can be appropriately acquired even if a plurality of persons are captured during imaging.
また、本発明の別の観点に係る動作解析データ取得システムは、被写体像をデータに
変換して出力する撮像手段と、前記撮像手段から出力されたデータに基づいて、当該デ
ータが示す被写体に含まれる人の身体における複数の特徴点の座標を示すデータを生成
する特徴点導出手段と、第1位置に設置された被験者が座る物体と、前記第1位置から
、前記撮像手段の光軸と交差する方向に関して前記第1位置から離隔した第2位置まで
移動する経路を前記被験者に認識させるための視認可能なマーカとを備えており、前記
被験者が前記物体に座った状態から立ち上がると共に前記第1位置から前記第2位置ま
で移動した際に、当該被験者の左半身及び右半身の少なくともいずれかを前記撮像手段
に撮像させると共に、この際に前記撮像手段から出力されたデータに基づいて、前記物
体から立ち上がる動作中及び前記第1位置から前記第2位置に移動するまでの動作中の
前記被験者の各タイミングにおける前記複数の特徴点の座標を示す解析用データを前記
特徴点導出手段に生成させる。
A motion analysis data acquisition system according to another aspect of the present invention includes imaging means for converting an image of a subject into data and outputting the data; a feature point deriving means for generating data indicating the coordinates of a plurality of feature points on a person's body included in a subject; an object placed at a first position on which a subject sits; a visible marker for allowing the subject to recognize a path to travel from the first position to a second position spaced apart in a direction intersecting the causing the imaging means to image at least one of the left half of the body and the right half of the subject when the subject moves from the first position to the second position, and based on the data output from the imaging means at this time; and the feature point deriving means generates data for analysis indicating the coordinates of the plurality of feature points at each timing of the subject during the motion of standing up from the object and during the motion of moving from the first position to the second position. to generate
本発明の動作解析データ取得システムによると、被験者がマーカによって移動経路を
認識することで、撮像手段の光軸と交差する方向に沿って第1位置から第2位置まで移
動する。そして、その被験者の右半身及び左半身の少なくともいずれかを撮像手段に連
続的に撮像させる。このため、被験者が歩行又は走る姿を進行方向に対して側方から連
続的に捉えた被写体像が得られる。そして、その被写体像に基づき、人の身体における
複数の特徴点の座標を示すデータを取得する。このため、かかるデータには、被験者の
側方から見た動作の状況、例えば、被験者の前傾姿勢の度合い、足の振り出し速度、手
を振る速度、膝の上がり具合等の状況を適切に反映させることが可能である。人の身体
機能の強弱はこれらの要素に表れることが多い。例えば、虚弱な身体状況にある被験者
においては、前傾姿勢となる傾向があったり手の振りが弱かったりする。このように、
被験者の側方から見た動作の状況は、人の身体機能の評価等にとって重要な判断要素と
なり得る。本発明では、かかる重要な判断要素を示す情報を身体における特徴点の座標
として数値的に取得できる。このため、数値を解析することで、直接的且つ詳細に身体
機能等の評価を実施することが可能である。以上のように、本発明によると、人の身体
機能の評価等のために被験者の動作の直接的且つ詳細な解析が可能となるようなデータ
を取得することができる。
According to the motion analysis data acquisition system of the present invention, the subject recognizes the movement path by the marker, and moves from the first position to the second position along the direction intersecting the optical axis of the imaging means. Then, at least one of the right half of the body and the left half of the subject's body is continuously imaged by the imaging means. For this reason, subject images can be obtained in which the subject's walking or running figure is continuously captured from the side with respect to the direction of travel. Then, based on the image of the subject, data indicating the coordinates of a plurality of feature points on the human body is obtained. For this reason, such data should appropriately reflect the state of the subject's movements as seen from the side, such as the degree of the subject's forward leaning posture, the speed at which the leg is swung, the speed at which the hand is waved, and the degree to which the knee is raised. It is possible to The strength and weakness of a person's bodily functions often appear in these elements. For example, subjects in a frail physical condition tend to lean forward and have weak hand movements. in this way,
The state of movement seen from the side of the subject can be an important decision factor for the evaluation of a person's physical function. In the present invention, information indicating such important determination factors can be numerically obtained as coordinates of feature points on the body. Therefore, by analyzing numerical values, it is possible to directly and in detail evaluate physical function. As described above, according to the present invention, it is possible to acquire data that enable direct and detailed analysis of the motion of a subject for the purpose of evaluating a person's bodily functions.
また、本発明においては、携帯端末並びに第1及び第2のコンピュータを備えており
、前記撮像手段として機能した前記携帯端末から有線接続を介して被写体像から変換さ
れたデータが前記第1のコンピュータへと出力され、前記特徴点導出手段として機能し
た前記第1のコンピュータから有線接続を介して前記複数の特徴点の座標を示すデータ
が前記第2のコンピュータへと出力されることが好ましい。出力データは被験者が移動
する姿を反映しているため、被験者にとって個人的な情報が含まれることになる。これ
に対し、携帯端末並びに第1及び第2のコンピュータ同士のデータ出力が有線接続を介
して行われる。したがって、個人的な情報に係るデータが外部に流出するリスクを抑制
できる。
Further, in the present invention, a mobile terminal and first and second computers are provided, and data converted from a subject image via a wired connection from the mobile terminal functioning as the imaging means is transferred to the first computer. It is preferable that data indicating the coordinates of the plurality of feature points is output to the computer and output from the first computer functioning as the feature point deriving means to the second computer via a wired connection. . Since the output data reflects the movement of the subject, it contains information that is personal to the subject. On the other hand, data output between the mobile terminal and the first and second computers is performed via a wired connection. Therefore, it is possible to reduce the risk of data related to personal information being leaked to the outside.
また、本発明においては、前記第1のコンピュータが、前記携帯端末からのデータを
記録するデータ記録部を備えており、前記複数の特徴点の座標を示すデータを生成した
後に前記データ記録部に記録した前記携帯端末からのデータを削除することが好ましい
。これによると、使用済みのデータが削除される。このため、個人的な情報に係るデー
タが外部に流出するリスクをさらに抑制できる。
Further, in the present invention, the first computer includes a data recording unit for recording data from the portable terminal, and after generating data indicating the coordinates of the plurality of characteristic points, It is preferable to delete the recorded data from the portable terminal. According to this, used data is deleted. Therefore, it is possible to further reduce the risk of data related to personal information leaking to the outside.
本発明の一実施形態に係る解析データ取得システム1について図1~図10を参照し
つつ説明する。解析データ取得システム1は、所定の動作を行う被験者を連続的に撮像
した結果に基づき、被験者の動作を解析するために用いる解析用データを取得する。以
下、その詳細について説明する。
An analysis
解析データ取得システム1は、図1に示すように携帯端末10(本発明における撮像
手段)、データ取得装置20(本発明における第1のコンピュータ及び特徴点導出手段
)及びPC30(本発明における第2のコンピュータ)を備えている。携帯端末10及
びデータ取得装置20間、並びに、データ取得装置20及びPC30間は、それぞれ、
USB(Universal Serial Bus)方式等の有線接続によって接続
されている。これにより、携帯端末10及びデータ取得装置20間、並びに、データ取
得装置20及びPC30間のそれぞれにおいてデータ通信がなされる。携帯端末10、
データ取得装置20及びPC30のいずれも、コンピュータ等のハードウェアと、メモ
リデバイス(以下、メモリという。)に格納されたプログラムデータ等のソフトウェア
とによって構築されている。これらのソフトウェアは各種の記録媒体に記録して配布可
能である。コンピュータは、CPU(Central Processing Uni
t)、ROM(Read-Only Memory)及びRAM(Random Ac
cess Memory)等のメモリ、ハードディスクドライブ、並びに、入出力イン
タフェース等の各種インタフェース等のハードウェアを含んでいる。携帯端末10、デ
ータ取得装置20及びPC30のそれぞれにおいて、ハードウェアがソフトウェアに従
って演算処理、入出力処理等の各種の情報処理を実行する。これにより、これらの装置
における以下の機能が実現されている。
As shown in FIG. 1, the analysis
It is connected by a wired connection such as a USB (Universal Serial Bus) method. Thereby, data communication is performed between the
Both the
t), ROM (Read-Only Memory) and RAM (Random Ac
cess Memory), a hard disk drive, and hardware such as various interfaces such as an input/output interface. In each of the
携帯端末10には、タッチパネルディスプレイが設けられている。タッチパネルディ
スプレイの画面には、写真画像やユーザ入力のためのコントロール画像等が表示される
。ユーザがタッチパネルディスプレイの画面に指等を接触させることで、各種のユーザ
入力処理が実行される。
The
携帯端末10にはカメラが搭載されている。カメラは、光学系、光電変換素子及び各
種の電子回路を有し、以下のように被写体像をデータに変換して出力する。光学系は、
レンズやスリット等を含んでおり、これらを通じて光電変換素子上に被写体像を結ぶ。
光電変換素子は、被写体像をアナログ電気信号に変換する。電子回路は、光電変換素子
が生成したアナログ電気信号をデジタル電気信号に変換して出力する。携帯端末10は
、カメラから出力されたデジタル電気信号に基づき、被写体の動画を示す動画データフ
ァイルを生成する。本実施形態における動画とは、各時点の被写体像を示す画像が時間
的に複数連続して並んだ画像群を含むことで被写体の動きを表したものをいう。携帯端
末10のカメラは、後述の通り、被験者の動作を撮像するために用いられる。被験者の
動作を撮像する際、携帯端末10はデータ取得装置20に接続されていない状態で用い
られる。被験者の動作の撮像後、携帯端末10とデータ取得装置20が接続され、携帯
端末10からデータ取得装置20へと動画データファイルが送信される。
The
It includes lenses, slits, etc., and an object image is formed on the photoelectric conversion element through these.
A photoelectric conversion element converts a subject image into an analog electrical signal. The electronic circuit converts the analog electrical signal generated by the photoelectric conversion element into a digital electrical signal and outputs the digital electrical signal. The
また、携帯端末10には、ウェブブラウザアプリケーション(以下、「ブラウザ」と
いう。)がインストールされている。携帯端末10においてブラウザが起動されると、
指定されたIP(Internet Protocol)アドレス又はURL(Uni
form Resource Locator)に従ってデータ通信処理が実行される
。例えば、ブラウザの機能によってタッチパネルディスプレイに表示される画像(図7
の画像C1参照)において、データ取得装置20に対応するIPアドレスが入力される
と、携帯端末10とデータ取得装置20との間でデータ通信が開始される。このデータ
通信には、TCP/IP(Transmission Control Protoc
ol/Internet Protocol)が用いられる。かかるブラウザの機能に従
って、携帯端末10とデータ取得装置20の間で動画データファイルを含むデータが送
受信される。
A web browser application (hereinafter referred to as “browser”) is installed in the
Specified IP (Internet Protocol) address or URL (Uni
Data communication processing is executed according to the form Resource Locator. For example, the image displayed on the touch panel display by the function of the browser (Fig. 7
3), when the IP address corresponding to the
ol/Internet Protocol) is used. Data including moving image data files are transmitted and received between the
データ取得装置20は、携帯端末10から送信された動画データファイルに基づき、
被験者の動作解析用データを生成する。データ生成の詳細な方法については後述する。
動作解析用データは、各時点の被験者の身体を示すデータを含んでいる。このデータは
、図2に示す通り、被験者の身体に含まれる各部の位置を示す複数の特徴点の座標及び
これらの特徴点の結び付き方を表している。例えば、特徴点F1は被験者の鼻に対応す
る点である。特徴点F2は被験者の右肩に対応する点である。特徴点F3は被験者の左
膝に対応する点である。特徴点F4は被験者の右踵に対応する点である。特徴点F5は
被験者の首に対応する点である。また、図2において、これらの特徴点は互いに線分に
よって結ばれている。例えば、線分L1は特徴点F1と特徴点F5を結ぶ線分である。
線分L2は特徴点F2と特徴点F5を結ぶ線分である。これらの線分は、特徴点同士の
結び付き方を示し、全体として頭部、頚部、胴部、腕部、脚部といった被験者の身体の
概形を表している。動作解析用データには、図2に示すような特徴点及び特徴点同士の
結び付き方を示すデータが時間的に連続して含まれている。これにより、被験者の動作
における各時点での身体の各部の配置が動作解析用データによって示されると共に、身
体の各部の配置が時間の経過によってどのように変化していくかが動作解析用データに
よって示される。例えば、図3は、歩行する被験者に関する動画データファイルに基づ
いて生成される動作解析用データが表す特徴点の座標及び特徴点同士の結びつき方を示
している。図3に示すように、時間的に連続する時刻T1、T2、T3、T4、T5、
T6及びT7のそれぞれにおける、歩行する被験者の身体の概形が、特徴点及びそれら
を結ぶ線分によって表されている。動作解析用データは、例えば、特徴点の座標値及び
それらの結び付け方を示すベクトル値を表すデータであってもよいし、特徴点に対応す
る丸及びそれらを結ぶ線分の画像を表すデータであってもよい。また、これら両方のデ
ータが動作解析用データに含まれていてもよい。
Based on the video data file transmitted from the
Generate motion analysis data for subjects. A detailed method of data generation will be described later.
The motion analysis data includes data indicating the subject's body at each time point. This data, as shown in FIG. 2, represents the coordinates of a plurality of feature points indicating the position of each part included in the subject's body and how these feature points are connected. For example, feature point F1 is a point corresponding to the subject's nose. A feature point F2 is a point corresponding to the subject's right shoulder. A feature point F3 is a point corresponding to the subject's left knee. A feature point F4 is a point corresponding to the subject's right heel. A feature point F5 is a point corresponding to the subject's neck. Also, in FIG. 2, these feature points are connected to each other by line segments. For example, line segment L1 is a line segment connecting feature point F1 and feature point F5.
A line segment L2 is a line segment connecting the feature points F2 and F5. These line segments show how the feature points are connected to each other, and represent the general shape of the subject's body including the head, neck, torso, arms, and legs as a whole. The motion analysis data includes feature points as shown in FIG. 2 and data indicating how the feature points are connected in a temporally continuous manner. As a result, the position of each part of the body at each point in the subject's movement is indicated by the motion analysis data, and how the position of each part of the body changes over time is also displayed as the motion analysis data. indicated by . For example, FIG. 3 shows coordinates of feature points represented by motion analysis data generated based on a moving image data file of a walking subject and how the feature points are connected. As shown in FIG. 3, temporally consecutive times T1, T2, T3, T4, T5,
The outline of the body of the walking subject at each of T6 and T7 is represented by characteristic points and line segments connecting them. Motion analysis data may be, for example, data representing coordinate values of feature points and vector values indicating how to connect them, or data representing images of circles corresponding to feature points and line segments connecting them. may be Also, both of these data may be included in the motion analysis data.
PC30は、データ取得装置20から動作解析用データを受け取るパーソナルコンピ
ュータである。PC30として、デスクトップパソコン、ノートパソコン、タブレット
PC等が用いられる。PC30にはディスプレイが設けられ、キーボードやマウス等の
ユーザ入力用の入力デバイスが接続又は搭載されている。ディスプレイの画面には、写
真画像やユーザ入力のためのコントロール画像等が表示される。PC30には、ブラウ
ザがインストールされている。PC30においてブラウザが起動されると、指定された
IPアドレス又はURLに従ってデータ通信処理が実行される。例えば、ブラウザの機
能によってディスプレイに表示される画像において、データ取得装置20に対応するI
Pアドレスが入力されると、PC30とデータ取得装置20との間でデータ通信が開始
される。このデータ通信には、TCP/IP(Transmission Contr
ol Protocol/Internet Protocol)が用いられる。かかる
ブラウザの機能に従って、PC30とデータ取得装置20の間で動作解析用データを含
むデータが送受信される。
The
When the P address is input, data communication is started between the
ol Protocol/Internet Protocol) is used. Data including motion analysis data is transmitted and received between the
次に、解析用データの取得対象となる被験者の動作について説明する。被験者の動作
は、図4に示すL字型のコース40(本発明における移動経路)を用いた試験によって
実施される。コース40は、屋内の床上に設定されており、図4のX方向に沿った第1
直線経路40a(本発明における想定直線経路)及び図4のY方向に沿った第2直線経
路40b(本発明における想定直線経路)からなる。X方向及びY方向は、床に沿った
互いに直交する方向である。第1直線経路40aは、X方向に互いに離隔した位置P1
(本発明における第1位置に対応)と位置P2(本発明における第2位置に対応)を結
んでいる。第2直線経路40bは、Y方向に互いに離隔した位置P2と位置P3(本発
明における第3位置に対応)を結んでいる。位置P1には、動作の開始時点において被
験者が着座する椅子41が設置されている。位置P3から所定の距離だけY方向に離隔
した位置には携帯端末10が設置されている。携帯端末10は、カメラの光軸LXが平
面視においてY方向に沿って位置P2及びP3を通るように配置されている。携帯端末
10は、その撮像範囲内に椅子41及びコース40の全体が含まれるように配置されて
いる。携帯端末10のカメラによる撮影シーンのイメージは図5の通りである。また、
携帯端末10は、カメラスタンド等を用いて位置が固定されている。
Next, the motion of the subject from whom analysis data is acquired will be described. The movement of the subject is carried out by a test using an L-shaped course 40 (moving route in the present invention) shown in FIG. The
It consists of a
(corresponding to the first position in the present invention) and the position P2 (corresponding to the second position in the present invention) are connected. The second
The position of the
コース40が設定される部屋の床には、被験者にコース40を認識させるためのマー
カ42~48が形成されている。マーカ42~46(本発明における経路マーカ)は直
線状の形状を有している。これらは、例えば、着色された細長い粘着テープを床面に線
分状に貼り付けることで形成されてもよいし、塗料等で床面に描画することで形成され
てもよい。このうち、マーカ42は、位置P1から第1直線経路40aに沿って位置P
2まで延びている。マーカ43及び44は、Y方向に関して第1直線経路40aを互い
の間に挟むように第1直線経路40aと平行に延びている。マーカ42とマーカ43の
Y方向に関する距離はマーカ42とマーカ44のY方向に関する距離と等しい。マーカ
45は、位置P2においてマーカ42の端点と繋がっており、そこから第2直線経路4
0bに沿って位置P3まで延びている。マーカ46及び47は、マーカ43及び44の
端点と繋がっており、そこから第2直線経路40bと平行に延びている。マーカ46及
び47は、X方向に関して第1直線経路40aを互いの間に挟んでいる。マーカ45と
マーカ46のX方向に関する距離はマーカ45とマーカ47のX方向に関する距離と等
しい。これらにより、マーカ42~46は、第1直線経路40a及び第2直線経路40
bからなるコース40全体を指示している。マーカ48及び49(本発明における位置
マーカ)は、所定の色で塗りつぶされた丸の形状を有している。これらは、例えば、所
定の色で塗りつぶされた丸い粘着テープを床面に貼り付けることで形成されてもよいし
、塗料等で床面に描画することで形成されてもよい。マーカ48は位置P2に配置され
、マーカ49は位置P3に配置されている。これにより、マーカ48は位置P2を、マ
ーカ49は位置P3をそれぞれ指示している。
extends up to 2. The
It extends along 0b to position P3.
The
コース40を用いた試験は以下の通りである。図5に示すように、被験者は、まず、
位置P1の椅子41に着座した状態から動作を開始する。次に、椅子41から立ち上が
り、マーカ43とマーカ44の間の領域をマーカ42に沿って位置P2まで歩行する。
位置P2において、位置P3に向けて方向転換し、マーカ46とマーカ47の間の領域
をマーカ45に沿って位置P3まで歩行する。被験者が位置P3に到達すると動作終了
となる。動作開始から動作終了までの被験者の様子は携帯端末10によって撮像される
。
The
The operation is started from the state of being seated on the
At position P2, it turns to position P3 and walks the area between
次に、解析データ取得システム1を使用した、本発明の一実施形態に係る解析データ
取得方法の全体の流れについて、図6に基づいて説明する。まず、図4に示すようにコ
ース40、椅子41及び携帯端末10が設置される(ステップS1)。次に、被験者が
椅子41に着座し、携帯端末10の前方にID記録ボードが置かれた状態で、携帯端末
10による撮像が開始される(ステップS2)。ID記録ボードには、あらかじめ設定
された被験者のID番号と撮像年月日が記録されている(図7参照)。次に、コース4
0を用いた上記試験を被験者に実施させると共に、被験者の動作の開始から終了までを
携帯端末10に動画として撮像させる(ステップS3)。なお、ステップS3は本発明
における被験者動作ステップ及び撮像ステップに対応する。これにより、位置P1から
位置P2までの移動経路である第1直線経路40aに沿って歩行する被験者の右半身(
図3参照)が撮像されると共に、位置P2から位置P3までの移動経路である第2直線
経路40bに沿って歩行する被験者の正面(図3参照)が撮像される。撮像結果を示す
動画データファイルは、携帯端末10内のメモリ等に保存される。次に、携帯端末10
とデータ取得装置20とが接続される(ステップS4)。
Next, the overall flow of the analysis data acquisition method according to one embodiment of the present invention using the analysis
0, and the
3) is imaged, and the front (see FIG. 3) of the subject walking along the second
and the
次に、携帯端末10においてブラウザが起動され、携帯端末10とデータ取得装置2
0の間でデータ通信が開始される(ステップS5)。携帯端末10にはデータ取得装置
20から送信されるデータに基づき、携帯端末10のタッチパネルディスプレイに図7
に示す画面IM1が表示される。画面IM1は、ステップS3において携帯端末10内
のメモリに保存された動画データファイルをデータ取得装置20に転送するための画像
である。画面IM1には、IPアドレスやURLを指定するためのコントロール画像C
1、ID番号を入力するためのコントロール画像C2、転送対象となる動画データファ
イルを選択するためのコントロール画像C3及び転送を開始するためのコントロール画
像C4(以下、「画像C1」「画像C2」「画像C3」「画像C4」とする。)が含ま
れている。タッチパネルディスプレイにおけるこれらのコントロール画像の位置にユー
ザが指等を接触させると、接触位置に対応するコントロール画像が選択された状態にな
ると共に、文字や数字を入力する処理や、リストから項目を選択する処理等が実行され
る。図7の画像C1には、データ取得装置20に対応するIPアドレスが入力された結
果が表示されている。画像C2を通じて入力されるID番号は、ステップS2において
ID記録ボードに記録されるID番号と対応している。画像C3を通じてファイルリス
トから動画データファイルが選択されると、選択された動画データファイルの冒頭部分
に対応する画像Vが画像C3の下に表示される。ステップS2において、撮像開始直後
にはID記録ボードが撮像されるので、図7の画像Vを通じてボードに記録されたID
番号が視認可能である。ユーザは、画像C3を通じた動画データファイルの選択により
、画像Vとして表示されるID番号を確認の上、画像C2を通じてID番号を入力した
り、入力したID番号の内容を確認したりできる。画像C2を通じたID番号の入力及
び画像C3を通じた動画データファイルの選択後、画像C4を選択することで、携帯端
末10からデータ取得装置20への動画ファイルデータ及びID番号の転送が開始され
る(ステップS6)。データ取得装置20において、ID番号と共に転送された動画フ
ァイルデータがそのID番号と関連付けてメモリ等に保存される。
Next, a browser is activated on the
0, data communication is started (step S5). 7 on the touch panel display of the
is displayed. The screen IM1 is an image for transferring the moving image data file stored in the memory in the
1. Control image C2 for inputting the ID number, control image C3 for selecting the moving image data file to be transferred, and control image C4 for starting transfer (hereinafter referred to as “image C1”, “image C2 ”, “Image C3” and “Image C4”.) are included. When the user touches the position of these control images on the touch panel display with a finger or the like, the control image corresponding to the touch position is selected, and the process of inputting characters and numbers and selecting items from the list are performed. Selecting processing, etc. are executed. The image C1 in FIG. 7 shows the result of inputting the IP address corresponding to the
The number is visible. By selecting a moving image data file through the image C3, the user can check the ID number displayed as the image V, enter the ID number through the image C2, or confirm the contents of the entered ID number. After inputting the ID number through the image C2 and selecting the moving image data file through the image C3, by selecting the image C4, transfer of the moving image file data and the ID number from the
次に、データ取得装置20において、携帯端末10から転送された動画データファイ
ルに基づき、動作解析用データの取得処理が実行される(ステップS7)。この処理の
詳細は後述する。なお、ステップS7は本発明における特徴点生成ステップに対応する
。動作解析用データの取得処理が完了すると、データ取得装置20は、その動作解析用
データの取得に用いた動画データファイルをメモリやハードディスクドライブ等(本発
明におけるデータ記録部)から削除する。
Next, in the
次に、データ取得装置20に接続されたPC30において、データ取得装置20が生
成した動作解析用データのダウンロード処理を実行する(ステップS8)。PC30に
おいてブラウザが起動され、データ取得装置20に対応するIPアドレス等が指定され
る。これにより、データ取得装置20から送信されるデータに基づき、図8に示す画面
IM2がPC30のディスプレイに表示される。画面IM2は、ステップS7において
データ取得装置20が生成した動作解析用データをPC30に転送するための画像であ
る。
Next, in the
画面IM2には、ファイルの情報を示す情報表示Tが含まれている。また、画面IM
2には、データ取得装置20から送信されるデータに基づき、ダウンロードを開始する
ためのコントロール画像C11及びファイルを削除するためのコントロール画像C12
(以下、「画像C11」「画像C12」という。)が含まれている。情報表示T並びに
画像C11及びC12は、複数の文字列やアイコン画像が表形式で表示されている。情
報表示Tには、ID番号、ファイルの登録日時及びステータスを示す文字列が含まれて
いる。これらの文字列は、縦横方向に並んだ表形式で表示されており、これによってI
D番号並びにID番号に対応するファイルの登録日時及びステータス同士の関連付けが
示されている。ステータスは、「取得済」「変換中」「完了」「エラー」の4つがある
。「取得済」は、PC30への動作解析用データの転送が済んでいることを示す。「変
換中」は、データ取得装置20において動画ファイルデータから動作解析用データへの
変換処理が進行中であることを示す。「完了」は、データ取得装置20において動画フ
ァイルデータから動作解析用データへの変換処理が完了済みであることを示す。「エラ
ー」は、データ取得装置20において動画ファイルデータから動作解析用データへの変
換処理に何らかの原因でエラーが生じ、変換処理が未完であることを示す。
The screen IM2 includes an information display T showing file information. Also, the screen IM
2, based on the data transmitted from the
(hereinafter referred to as “image C11” and “image C12”). The information display T and the images C11 and C12 display a plurality of character strings and icon images in tabular form. The information display T includes a character string indicating the ID number, file registration date and time, and status. These strings are displayed in a horizontal and vertical tabular format, which gives the I
The relationship between the file registration dates and statuses corresponding to the D numbers and ID numbers is shown. There are four statuses: "Acquired", "Converting", "Completed", and "Error". “Obtained” indicates that the motion analysis data has been transferred to the
画像C11には、ダウンロードを開始するためのアイコン画像が含まれている。アイ
コン画像は、縦方向に関して、情報表示T中のID番号と対応する各位置に表示されて
いる。なお、動画ファイルデータから動作解析用データへの変換処理が未完であるID
番号と対応する位置には、アイコン画像の代わりに「準備中」の文字列が表示される。
マウス等の入力デバイスを用いてアイコン画像が選択されると、そのアイコン画像に対
応するID番号と関連付けられた動作解析用データがデータ取得装置20からPC30
にダウンロードされる。
The image C11 includes an icon image for starting download. The icon image is displayed at each position corresponding to the ID number in the information display T in the vertical direction. In addition, an ID for which conversion processing from video file data to motion analysis data has not been completed
At the position corresponding to the number, the character string "under preparation" is displayed instead of the icon image.
When an icon image is selected using an input device such as a mouse, motion analysis data associated with the ID number corresponding to the icon image is transferred from the
downloaded to.
画像C12には、ファイルを削除するためのアイコン画像が含まれている。アイコン
画像は、縦方向に関して、情報表示T中のID番号と対応する各位置に表示されている
。入力デバイスを用いてアイコン画像が選択されると、そのアイコン画像に対応するI
D番号と関連付けられた動作解析用データがデータ取得装置20においてメモリ等から
削除される(ステップS9)。なお、本実施形態において、データ取得装置20は、動
作解析用データへの変換処理開始前に、動作解析用データへの変換処理が開始してから
所定の長さ(例えば、10分)の時間が経過した動画データファイルをメモリ等から削
除するように構成されている。データ取得装置20がこのように構成されていることに
より、変換処理が異常終了または停止してしまった場合に動画データファイルが装置内
に残ることを回避できる。
Image C12 includes an icon image for deleting a file. The icon images are displayed at respective positions corresponding to the ID numbers in the information display T in the vertical direction. When an icon image is selected using an input device, an I
The motion analysis data associated with the D number is deleted from the memory or the like in the data acquisition device 20 (step S9). Note that, in the present embodiment, the
以下、図6のステップS7において、動画データファイルから動作解析用データを取
得するデータ取得装置20の処理について、図9に基づき説明する。まず、データ取得
装置20は、動画データファイル中の特定のフレーム画像に基づき、マーカ48及び4
9の画像中の位置を検出する処理を実行する(ステップS11)。フレーム画像は、各
タイミングにおける被写体の静止画像に対応する。マーカ48及び49の画像中の位置
を検出するのは、当該位置に基づき、動画データファイルが示す撮像に映り込んだコー
ス40に対する被写体の正確な位置を把握できるからである(ステップS15参照)。
なお、ステップS11は本発明における導出ステップに対応する。
The processing of the
9 is executed to detect the position in the image (step S11). A frame image corresponds to a still image of the subject at each timing. The reason why the positions of the
Note that step S11 corresponds to the derivation step in the present invention.
本実施形態では、ステップS11の処理として「SSD」物体検知(Liu, W., Angue
lov, D., Erhan, D., Szegedy, C., Reed, S., Fu, C. Y., & Berg, A. C. (2016, Oct
ober). SSD: Single shot multibox detector. In European conference on computer
vision (pp. 21-37))が採用されている。「SSD」物体検知による画像処理の概要は
以下の通りである。「SSD」物体検知によって、処理対象となる原画像中のどの位置
に検出対象となる物体が含まれているかを示す情報が得られる。この情報は、検出対象
の物体が存在する領域を示す矩形の枠であるバウンディングボックス(図5の枠B1及
びB2に対応)の四隅の座標として取得される。この情報を取得するため、処理対象と
なる原画像中の各位置に対し、形や大きさが互いに異なる複数種類の矩形の枠であるデ
フォルトボックスが設定される。そして、ニューラルネットワークとして、原画像が入
力されると、デフォルトボックスごとに、そのデフォルトボックスとバウンディングボ
ックスの差分と、そのデフォルトボックスに含まれる被写体の分類を示す値とを出力す
るように学習されたネットワークが用いられる。デフォルトボックスとバウンディング
ボックスの差分は、例えば、ボックスの中心同士のX位置の差及びY位置の差並びにボ
ックス同士の幅の差及び高さの差として得られる。デフォルトボックスに含まれる被写
体の分類を示す値は、あらかじめ設定された種類ごとに、デフォルトボックスに含まれ
る被写体がその種類に該当するもっともらしさを示す値として得られる。本実施形態で
は、検出対象がマーカ48及び49に限定されるので、ニューラルネットワークとして
、マーカ48及び49に該当するそれぞれのもっともらしさを高い精度で出力するよう
に特に学習されたものが用いられている。そして、本実施形態においては、マーカ48
及び49のそれぞれについてもっともらしさが最も高いデフォルトボックスが物体検出
の候補として抽出される。抽出されたデフォルトボックスを示す座標とその差分から、
マーカ48及び49を示す枠B1及びB2の座標として、バウンディングボックスの予
測座標が得られる。
In this embodiment, "SSD" object detection (Liu, W., Angue
lov, D., Erhan, D., Szegedy, C., Reed, S., Fu, CY, & Berg, AC (2016, Oct.
ober). SSD: Single shot multibox detector.
vision (pp. 21-37)) is adopted. The outline of image processing by “SSD” object detection is as follows. "SSD" object detection provides information indicating which locations in the raw image to be processed contain the object to be detected. This information is acquired as the coordinates of the four corners of a rectangular bounding box (corresponding to frames B1 and B2 in FIG. 5) indicating the area where the object to be detected exists. To obtain this information, default boxes, which are rectangular frames of different shapes and sizes, are set for each position in the original image to be processed. Then, as a neural network, when the original image is input, for each default box, the difference between the default box and the bounding box and the value indicating the classification of the subject included in the default box are output. A trained network is used. The differences between the default box and the bounding box are obtained, for example, as the X and Y position differences between the centers of the boxes and the width and height differences between the boxes. The value indicating the classification of the subject included in the default box is obtained as a value indicating the likelihood that the subject included in the default box corresponds to that type for each preset type. In this embodiment, since the detection targets are limited to the
and 49, the default box with the highest likelihood is extracted as a candidate for object detection. From the coordinates indicating the extracted default box and their difference,
As the coordinates of the boxes B1 and B2 showing the
次に、データ取得装置20は、各フレーム画像に関し、被写体に含まれる人ごとにそ
の身体の特徴点及びこれらの結び付き方の導出処理を実行する(ステップS12)。本
実施形態では、この処理として、「OpenPose」(Zhe Cao and Tomas Simon an
d Shih-En Wei and Yaser Sheikh. Realtime Multi-Person 2D Pose Estimation using
Part Affinity Fields. In CVPR, 2017.)が採用されている。「OpenPose」
に用いられるニューラルネットワークは以下の第1~第3の処理を主に実行するように
構成されている。第1の処理は、原画像に含まれる被写体の特徴を大まかに抽出した画
像である特徴マップ画像を生成する処理である。第2の処理は、入力画像中の人に対応
する領域における身体の部位に対応する位置同士を結ぶ方向を示すベクトルマップに対
応する画像を生成する処理である。例えば、図2に示すように、被験者の首を示す特徴
点F1と右肩を示す特徴点F5の間の領域では、ベクトルマップにおいて、特徴点F1
と特徴点F5を結ぶ方向を指示するベクトルが分布することになる。第3の処理は、入
力画像中の人に対応する領域における身体の各部位(例えば、被験者の首を示す特徴点
F1や、右肩を示す特徴点F5等)が存在する確率の2次元的な分布を示す信頼性マッ
プに対応する画像を生成する処理である。このニューラルネットワークは、第1~第3
の処理で生成される画像を入力とした第2及び第3の処理をそれぞれ複数回繰り返すこ
とで、最終的に得られる出力が、原画像が示す人の特徴点の座標及び特徴点同士の結び
付き方を示すデータ(つまり、図2に示すような身体の概形を表すデータ)となるよう
に、ディープラーニングを用いて学習されている。画像中に複数の人物が含まれる場合
、特徴点同士の結び付き方は、人物を区別しつつ各人物について導出される。つまり、
特徴点及び特徴点同士の結び付き方を示すデータは、人物ごとに個別に生成される。ま
た、このニューラルネットワークは、各特徴点のもっともらしさを示す数値を特徴点ご
とに導出する。なお、ニューラルネットワークは、人のみならず、人状の物体について
も特徴点及び結び付き方を導出するように構成されていてもよい。
Next, the
d Shih-En Wei and Yaser Sheikh. Realtime Multi-Person 2D Pose Estimation using
Part Affinity Fields. In CVPR, 2017.) has been adopted. "Open Pose"
The neural network used in is configured to mainly execute the following first to third processes. The first process is a process of generating a feature map image, which is an image obtained by roughly extracting the features of the subject included in the original image. The second process is a process of generating an image corresponding to a vector map indicating directions connecting positions corresponding to body parts in a region corresponding to a person in the input image. For example, as shown in FIG. 2, in the region between the feature point F1 indicating the subject's neck and the feature point F5 indicating the right shoulder, the feature point F1
and the feature point F5 are distributed. The third process is a two-dimensional calculation of the probability that each part of the body (for example, the feature point F1 indicating the subject's neck, the feature point F5 indicating the right shoulder, etc.) exists in the region corresponding to the person in the input image. This process generates an image corresponding to a reliability map showing a typical distribution. This neural network has the first to third
By repeating the second and third processes a plurality of times using the image generated by the
Data indicating feature points and how the feature points are connected is generated individually for each person. The neural network also derives a numerical value indicating the likelihood of each feature point for each feature point. Note that the neural network may be configured to derive feature points and connection methods not only for people but also for human-like objects.
次に、データ取得装置20は、ステップS12において導出された特徴点の座標及び
特徴点同士の結び付き方が示す人物のうち、被験者の候補を抽出する(ステップS13
)。画像中に複数の人物が含まれる場合、ステップS12で導出されるのは、特徴点の
座標及び特徴点同士の結び付き方を複数の人物について示すデータとなる。そこで、ス
テップS13では、ステップS12にて抽出された特徴点のもっともらしさを示す数値
のうち、もっともらしさが所定の高さである数値(例えば、数値が0~1の範囲で導出
される場合における0.4)以上の特徴点が所定の個数(例えば、5つ)以上存在する
人物を被験者候補として抽出する。
Next, the
). If a plurality of persons are included in the image, the data derived in step S12 are data indicating the coordinates of the feature points and how the feature points are connected to each other for the plurality of persons. Therefore, in step S13, out of the numerical values indicating the plausibility of the feature points extracted in step S12, the numerical value at which the plausibility has a predetermined height (for example, when the numerical value is derived in the range of 0 to 1 A person having a predetermined number (for example, 5) or more of feature points of 0.4) or more in is extracted as a subject candidate.
次に、データ取得装置20は、ステップS13において抽出された各被験者候補につ
いて、人物とコース40との位置関係を評価する(ステップS14)。なお、ステップ
S14は、本発明における評価ステップに対応する。具体的には、所定のフレーム(例
えば、被験者が歩行している様子が表れたフレーム)における特徴点の座標に基づき、
以下の処理を実行する。各人物において、特徴点のX座標値について算出した平均値と
、特徴点のY座標値の最大値(画像において最も下に位置する特徴点のY座標値)とを
その人物の代表位置とする。データ取得装置20は、この代表位置とコース40との直
線距離を導出する。直線距離の導出には、ステップS11において取得されたマーカ4
8及び49の画像中の位置(座標)が用いられる。つまり、マーカ48及び49の位置
に基づき、図10に示すマーカ42及び43に沿った各線分の画像中の位置が取得され
る。これに基づき、代表位置と線分との直線距離が算出されることで、代表位置とコー
ス40との直線距離が算出される。
Next, the
Execute the following process. For each person, the average value calculated for the X coordinate value of the feature points and the maximum value of the Y coordinate values of the feature points (the Y coordinate value of the lowest feature point in the image) are taken as the representative position of the person. . The
8 and 49 image positions (coordinates) are used. That is, based on the positions of the
そして、データ取得装置20は、ステップS14において導出した直線距離が最も小
さい人物を被験者であると判定する(ステップS15)。なお、ステップS15は、本
発明における判定ステップに対応する。例えば、図10には、人物M1に関する代表位
置R1(X1,Y1)及び人物M2に関する代表位置R2(X2,Y2)が示されてい
る。この場合、データ取得装置20は、人物M1に関するR1とコース40との直線距
離D1が人物M2に関するR2とコース40との直線距離D2より小さいため、人物M
1を被験者であると判定する。ステップS15において判定された被験者に係る特徴点
の座標及び特徴点同士の結び付き方を示すデータが、図9のステップS7で取得される
動作解析用データに対応する。動作解析用データには、被験者の右半身像について、位
置P1において椅子から立ち上がる動作中及び位置P1から位置2に移動するまでの動
作中の特徴点の座標及び特徴点同士の結び付き方を示すデータ(本発明における第1解
析用データ)と、被験者の正面像について、位置P2から位置3に移動するまでの動作
中の特徴点の座標及び特徴点同士の結び付き方を示すデータ(本発明における第2解析
用データ)とが含まれている。
Then, the
1 is determined to be a subject. The data indicating the coordinates of the feature points of the subject determined in step S15 and how the feature points are connected to each other correspond to the motion analysis data acquired in step S7 of FIG. The data for motion analysis includes the coordinates of the feature points and the connection between the feature points during the motion of standing up from the chair at position P1 and during the motion from position P1 to position 2 for the right half of the body image of the subject. data (first analysis data in the present invention) and data indicating the coordinates of feature points during movement from position P2 to position 3 and how the feature points are connected to each other in the front image of the subject (this data). data for second analysis in the invention).
以上説明した本実施形態によると、図4に示すコース40を用いた試験において、被
験者を位置P1から位置P2まで、X方向に沿って、つまり、携帯端末10のカメラの
光軸LXと直交する方向に沿って歩行させる。そして、その被験者の右半身を携帯端末
10のカメラに動画として連続的に撮像させる。このため、被験者が歩行する姿を進行
方向に対して側方から連続的に捉えた動画が得られる。そして、その動画に基づき、デ
ータ取得装置20が人の身体における複数の特徴点の座標及び特徴点同士の結び付き方
を示す動作解析用データを取得する。このため、かかるデータには、被験者の側方から
見た動作の状況、例えば、被験者の前傾姿勢の度合い、足の振り出し速度、手を振る速
度、膝の上がり具合等の状況を適切に反映させることが可能である。人の身体機能の強
弱はこれらの要素に表れることが多い。例えば、虚弱な身体状況にある被験者において
は、前傾姿勢となる傾向があったり手の振りが弱かったりする。このように、被験者の
側方から見た動作の状況は、人の身体機能の評価等にとって重要な判断要素となり得る
。本実施形態は、かかる重要な判断要素を示す情報を身体における特徴点の座標として
数値的に取得できる。このため、数値を解析することで、直接的且つ詳細に身体機能等
の評価を実施することが可能である。以上のように、本実施形態によると、人の身体機
能の評価等のために被験者の動作の直接的且つ詳細な解析が可能となるような動作解析
用データを取得することができる。
According to the present embodiment described above, in the test using the
また、本実施形態においては、図4に示すコース40を用いた試験において、位置P
2で携帯端末10に向かって方向転換させると共に、そこから位置P3まで携帯端末1
0に向かって歩行させる。そして、その被験者の正面を携帯端末10のカメラに動画と
して連続的に撮像させる。このため、被験者が歩行する姿をその正面から連続的に捉え
た動画が得られる。そして、その動画に基づき、データ取得装置20が人の身体におけ
る複数の特徴点の座標及び特徴点同士の結び付き方を示す動作解析用データを取得する
。これによると、例えば、歩行による体幹の左右ぶれ等、被験者の正面から見た動作の
状況にも基づいて身体機能の評価等を実施するための動作解析用データを取得できる。
Further, in the present embodiment, in the test using the
2, the direction is changed toward the
Walk towards 0. Then, the camera of the
また、本実施形態においては、被験者にとって視認可能にコース40を示すマーカ4
2~49が設置されている。これによると、被験者がこれらのマーカを視認することに
より正確に移動経路を認識可能である。よって、身体機能の評価等を正確に行うための
動作解析用データを取得できる。これらのマーカのうち、マーカ43及び44は、第1
直線経路40aに沿ったマーカ42を互いの間に挟むように形成されている。同様に、
マーカ46及び47は、第2直線経路40bに沿ったマーカ45を互いの間に挟むよう
に形成されている。例えば仮に、移動経路をマーカ42及び45のみによって示したと
すると、被験者がマーカ42及び45に両足を揃えて(平均台上を移動するかのように
)歩行するおそれがあり、歩行しにくく感じる可能性がある。これに対し、マーカ42
及び45を挟むようにマーカ43及び44並びに46及び47を形成することで、被験
者にとっては、これらの間に足を置く幅を確保できるため、歩行しやすいと感じさせる
ことができる。
Further, in the present embodiment, the marker 4 that visually indicates the
2 to 49 are installed. According to this, the subject can recognize the moving route accurately by visually recognizing these markers. Therefore, it is possible to acquire motion analysis data for accurately evaluating body functions. Of these markers,
They are formed so as to sandwich the
By forming the
また、本実施形態においては、携帯端末10及びデータ取得装置20間、並びに、デ
ータ取得装置20及びPC30間は、それぞれ、USB方式等の有線接続によって接続
されている。これらの装置間でやり取りされる動画データファイルや動画解析用データ
は、被験者が歩行する姿を反映しているため、被験者にとって個人的な情報が含まれる
ことになる。これに対し、上記の通りデータのやり取りが有線接続を介して行われる。
したがって、個人的な情報に係るデータが外部に流出するリスクを抑制できる。さらに
、本実施形態においては、動作解析用データの取得処理が完了すると、データ取得装置
20が、その動作解析用データの取得に用いた動画データファイルをメモリ等から削除
する。また、データ取得装置20は、データ取得装置20の電源が一旦オフにされ、そ
の後に再度オンにされた段階で自動的に全ての動画データファイルをメモリ等から削除
する。このため、個人的な情報に係るデータが外部に流出するリスクをさらに抑制でき
る。
Further, in this embodiment, the
Therefore, it is possible to reduce the risk of data related to personal information leaking to the outside. Furthermore, in this embodiment, when the motion analysis data acquisition process is completed, the
<その他の変形例>
以上は、本発明の好適な実施形態についての説明であるが、本発明は上述の実施形態
に限られるものではなく、課題を解決するための手段に記載された範囲の限りにおいて
様々な変更が可能なものである。
<Other Modifications>
The above is a description of preferred embodiments of the present invention, but the present invention is not limited to the above-described embodiments, and various modifications can be made within the scope described in Means for Solving the Problems. It is possible.
例えば、上述の実施形態では、被験者が歩行する経路が第1直線経路40a及び第2
直線経路40bとして設定されている。しかし、必ずしも直線経路でなくてもよい。蛇
行する経路やカーブする経路として設定されてもよい。また、第1直線経路40aが携
帯端末10のカメラの光軸と直交するX方向に沿って設定されている。これによって、
第1直線経路40aに沿って歩行する被験者の右半身に係る動画を取得できる。しかし
、第1直線経路40aは、被験者の右半身又は左半身に係る動画を取得できるのであれ
ば、カメラの光軸と直交していなくてもよい。例えば、第1直線経路40aがカメラの
光軸と90°以外の角度で交差するように設定されてもよい。また、被験者を歩行させ
るのでなく、走らせてもよい。また、位置P1→位置P2→位置P3の経路のみならず
、位置P3に到達した後、位置P3→位置P2→位置P1の経路で被験者を歩行させて
もよい。この場合、被験者の右半身及び正面のみならず、左半身及び背面に係る動画を
取得できる。
For example, in the above-described embodiment, the path along which the subject walks is the first
It is set as a
A moving image of the right half of the subject walking along the first
また、上述の実施形態では、マーカ48及び49の位置の検出を、ニューラルネット
ワークを用いて行っている。しかし、その他の方法で検出してもよい。例えば、画像中
の画素の色情報に基づいて検出してもよい。
Further, in the above-described embodiment, detection of the positions of the
また、上述の実施形態では、ステップS15において、ステップS13で抽出された
被験者の候補のうち、ステップS14で導出された代表位置とコース40との直線距離
が最も小さい人物を被験者であると判定している。しかしながら、被験者の判定が、代
表位置とコース40との直線距離ではなく、代表位置とコース40に対する特定位置と
の距離に基づいてなされてもよい。特定位置とは、コース40と所定の位置関係にある
位置であり、例えば、X方向に関してマーカ42の中点と同じ位置且つY方向に関して
マーカ45の中点と同じ位置であってもよい。
Further, in the above-described embodiment, in step S15, among the candidates for the subject extracted in step S13, the person with the shortest linear distance between the representative position derived in step S14 and the
1 解析データ取得システム
10 携帯端末
20 データ取得装置
30 PC
1 analysis
Claims (10)
タに基づいて、当該データが示す被写体に含まれる人の身体における複数の特徴点の座
標を示すデータを生成する特徴点導出手段とを使用して、人の移動時の動作を解析する
ためのデータを取得する方法であって、
被験者を、第1位置において物体に座った状態から立ち上がらせると共に、前記撮像
手段の光軸と交差し且つ水平方向に平行な方向に関して前記第1位置から離隔した第2
位置まで歩行させる、又は走らせる被験者動作ステップと、
前記被験者動作ステップにおける動作中の前記被験者の左半身及び右半身の少なくと
もいずれかを前記撮像手段に連続的に撮像させる撮像ステップと、
前記撮像ステップにおいて実行される撮像に関して前記撮像手段から出力されたデー
タに基づいて、前記物体から立ち上がる動作中及び前記第1位置から前記第2位置に移
動するまでの動作中の前記被験者の各タイミングにおける前記複数の特徴点の座標を示
す第1解析用データを前記特徴点導出手段に生成させる特徴点生成ステップとを備えて
いることを特徴とする動作解析データ取得方法。 an imaging means for converting an image of a subject into data and outputting the data; and data indicating coordinates of a plurality of characteristic points on a human body included in the subject indicated by the data, based on the data output from the imaging means. A method for obtaining data for analyzing the movement of a person using a feature point derivation means to generate, comprising:
The subject is caused to stand up from sitting on the object in a first position, and a second position spaced apart from the first position in a direction parallel to the horizontal and intersecting the optical axis of the imaging means.
a subject motion step of walking or running to a position;
an imaging step of causing the imaging means to continuously image at least one of the left half and right half of the subject during movement in the subject movement step;
Based on the data output from the image capturing means regarding the image capturing performed in the image capturing step, the subject's motion of standing up from the object and moving from the first position to the second position. and a feature point generating step for causing the feature point deriving means to generate first analysis data indicating the coordinates of the plurality of feature points at each timing.
させると共に、前記第2位置より前記撮像手段に近い第3位置まで前記撮像手段に向か
って歩行させ、又は走らせ、
前記撮像ステップにおいて、前記被験者動作ステップでの動作中の前記被験者の正面
を前記撮像手段に連続的に撮像させ、
前記特徴点生成ステップにおいて、前記撮像ステップで実行される撮像に関して前記
撮像手段から出力されたデータに基づいて、前記第2位置から前記第3位置に移動する
までの動作中の前記被験者の各タイミングにおける前記複数の特徴点の座標を示す第2
解析用データを前記特徴点導出手段に生成させることを特徴とする請求項1に記載の動
作解析データ取得方法。 In the subject movement step, the subject is caused to change direction toward the imaging means at the second position and walk or run toward the imaging means from the second position to a third position closer to the imaging means;
In the imaging step, causing the imaging means to continuously image the front of the subject during the motion in the subject motion step,
In the feature point generation step, each timing of the subject during movement from the second position to the third position based on the data output from the imaging means regarding the imaging performed in the imaging step. indicating the coordinates of the plurality of feature points in the second
2. The motion analysis data acquisition method according to claim 1, wherein the analysis data is generated by the feature point deriving means.
なマーカが設置されており、
前記マーカが、前記第2位置及び前記第3位置をそれぞれ指示する位置マーカと、前
記被験者が通る想定直線経路を指示する線分に沿って延びた経路マーカとの少なくとも
いずれかを含んでいることを特徴とする請求項2に記載の動作解析データ取得方法。 In the subject movement step, a visible marker is installed for the subject to recognize the moving route,
The markers include at least one of position markers respectively indicating the second position and the third position, and path markers extending along a line segment indicating an assumed straight path through which the subject passes. 3. The motion analysis data acquisition method according to claim 2, wherein:
2本の線分に沿って延びていることを特徴とする請求項3に記載の動作解析データ取得
方法。 4. The motion analysis data acquisition method according to claim 3, wherein the path marker extends along two line segments extending parallel to the assumed straight path so as to sandwich the assumed straight path.
タに基づいて前記マーカの座標を導出する導出ステップを備えていることを特徴とする
請求項3又は4に記載の動作解析データ取得方法。 5. The motion analysis data according to claim 3, further comprising a deriving step of deriving the coordinates of the marker based on data output from the imaging means regarding the imaging performed in the imaging step. Acquisition method.
ューラルネットワークを使用することを特徴とする請求項5に記載の動作解析データ取
得方法。 6. The motion analysis data acquisition method according to claim 5, wherein the derivation step uses a neural network that has been trained to detect objects with respect to the markers.
示すデータを個別に生成し、
前記導出ステップにおいて導出された前記マーカの座標及び前記特徴点生成ステップ
において生成された前記第1解析用データ及び第2解析用データに基づいて、前記人の
身体のそれぞれについて、前記複数の特徴点と前記想定直線経路との位置関係を評価す
る評価ステップと、
前記評価ステップにおける評価結果に基づいて、前記人の身体のうちのいずれが前記
被験者であるかを判定する判定ステップとを備えていることを特徴とする請求項5又は
6に記載の動作解析データ取得方法。 wherein the feature point deriving means individually generates data indicating the coordinates of the plurality of feature points for each human body in the subject;
The plurality of feature points for each of the body of the person based on the coordinates of the marker derived in the derivation step and the first analysis data and the second analysis data generated in the feature point generation step. and an evaluation step of evaluating the positional relationship between the assumed straight path and
7. The motion analysis data according to claim 5, further comprising a determination step of determining which part of the person's body is the subject based on the evaluation result of the evaluation step. Acquisition method.
前記撮像手段から出力されたデータに基づいて、当該データが示す被写体に含まれる
人の身体における複数の特徴点の座標を示すデータを生成する特徴点導出手段と、
第1位置に設置された被験者が座る物体と、
前記第1位置から、前記撮像手段の光軸と交差する方向に関して前記第1位置から離
隔した第2位置まで移動する経路を前記被験者に認識させるための視認可能なマーカと
を備えており、
前記被験者が前記物体に座った状態から立ち上がると共に前記第1位置から前記第2
位置まで移動した際に、当該被験者の左半身及び右半身の少なくともいずれかを前記撮
像手段に撮像させると共に、この際に前記撮像手段から出力されたデータに基づいて、
前記物体から立ち上がる動作中及び前記第1位置から前記第2位置に移動するまでの動
作中の前記被験者の各タイミングにおける前記複数の特徴点の座標を示す解析用データ
を前記特徴点導出手段に生成させることを特徴とする動作解析データ取得システム。 imaging means for converting a subject image into data and outputting the data;
feature point deriving means for generating, based on the data output from the imaging means, data indicating the coordinates of a plurality of feature points on a human body included in the subject indicated by the data;
an object on which the subject sits, placed in a first position;
a visible marker for making the subject recognize a route from the first position to a second position spaced apart from the first position in a direction intersecting the optical axis of the imaging means,
As the subject stands up from sitting on the object, the subject moves from the first position to the second position.
At the time of moving to the position, at least one of the left half of the body and the right half of the subject is imaged by the imaging means, and based on the data output from the imaging means at this time,
Analysis data indicating the coordinates of the plurality of feature points at each timing of the subject during the motion of standing up from the object and during the motion of moving from the first position to the second position to the feature point deriving means. A motion analysis data acquisition system characterized by generating.
前記撮像手段として機能した前記携帯端末から有線接続を介して被写体像から変換さ
れたデータが前記第1のコンピュータへと出力され、
前記特徴点導出手段として機能した前記第1のコンピュータから有線接続を介して前
記複数の特徴点の座標を示すデータが前記第2のコンピュータへと出力されることを特
徴とする請求項8に記載の動作解析データ取得システム。 comprising a mobile terminal and first and second computers;
data converted from the subject image is output to the first computer via a wired connection from the portable terminal functioning as the imaging means;
8. Data indicating the coordinates of the plurality of feature points is output from the first computer functioning as the feature point deriving means to the second computer via a wired connection. The motion analysis data acquisition system described in .
えており、前記複数の特徴点の座標を示すデータを生成した後に前記データ記録部に記
録した前記携帯端末からのデータを削除することを特徴とする請求項8又は9に記載の
動作解析データ取得システム。
The first computer has a data recording section for recording data from the mobile terminal, and from the mobile terminal recorded in the data recording section after generating the data indicating the coordinates of the plurality of characteristic points. 10. The motion analysis data acquisition system according to claim 8 or 9, wherein the data of is deleted.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021012431A JP2022115705A (en) | 2021-01-28 | 2021-01-28 | Motion analysis data acquisition method and motion analysis data acquisition system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021012431A JP2022115705A (en) | 2021-01-28 | 2021-01-28 | Motion analysis data acquisition method and motion analysis data acquisition system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022115705A true JP2022115705A (en) | 2022-08-09 |
Family
ID=82747475
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021012431A Pending JP2022115705A (en) | 2021-01-28 | 2021-01-28 | Motion analysis data acquisition method and motion analysis data acquisition system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022115705A (en) |
-
2021
- 2021-01-28 JP JP2021012431A patent/JP2022115705A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11182599B2 (en) | Motion state evaluation system, motion state evaluation device, motion state evaluation server, motion state evaluation method, and motion state evaluation program | |
Viswakumar et al. | Human gait analysis using OpenPose | |
US11468612B2 (en) | Controlling display of a model based on captured images and determined information | |
US9928411B2 (en) | Image processing apparatus, image processing system, image processing method, and computer program product | |
Le et al. | Human posture recognition using human skeleton provided by Kinect | |
CN109299659A (en) | A kind of human posture recognition method and system based on RGB camera and deep learning | |
KR101118654B1 (en) | rehabilitation device using motion analysis based on motion capture and method thereof | |
KR101930652B1 (en) | Gait analysis system and computer program recorded on recording medium | |
KR20150079585A (en) | System and method for deriving accurate body size measures from a sequence of 2d images | |
JP2019125057A (en) | Image processing apparatus, method thereof and program | |
CN107930048B (en) | Space somatosensory recognition motion analysis system and motion analysis method | |
JP2000251078A (en) | Method and device for estimating three-dimensional posture of person, and method and device for estimating position of elbow of person | |
Anilkumar et al. | Pose estimated yoga monitoring system | |
JP6773829B2 (en) | Object recognition device, object recognition method, and object recognition program | |
KR20200066405A (en) | Device and method for measuring three-dimensional body model | |
JP2020141806A (en) | Exercise evaluation system | |
KR20160076488A (en) | Apparatus and method of measuring the probability of muscular skeletal disease | |
Nakamura et al. | Estimation method of clothes size for virtual fitting room with kinect sensor | |
JP5416489B2 (en) | 3D fingertip position detection method, 3D fingertip position detection device, and program | |
JP6773825B2 (en) | Learning device, learning method, learning program, and object recognition device | |
KR101447958B1 (en) | Method and apparatus for recognizing body point | |
JP2022115705A (en) | Motion analysis data acquisition method and motion analysis data acquisition system | |
US20210286983A1 (en) | Estimation method, and computer-readable recording medium recording estimation program | |
JP7259313B2 (en) | Attribute determination device, attribute determination system, attribute determination method, program and recording medium | |
KR20220120731A (en) | Methods and apparatus for providing the contents of the affordance health care using mirror display |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7426 Effective date: 20210212 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7426 Effective date: 20210217 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20210212 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20210217 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231113 |