JP6466139B2 - 人間の動きを測定するロボット計測器 - Google Patents
人間の動きを測定するロボット計測器 Download PDFInfo
- Publication number
- JP6466139B2 JP6466139B2 JP2014225587A JP2014225587A JP6466139B2 JP 6466139 B2 JP6466139 B2 JP 6466139B2 JP 2014225587 A JP2014225587 A JP 2014225587A JP 2014225587 A JP2014225587 A JP 2014225587A JP 6466139 B2 JP6466139 B2 JP 6466139B2
- Authority
- JP
- Japan
- Prior art keywords
- measured
- person
- measurement
- sensor
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Rehabilitation Tools (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Length Measuring Devices With Unspecified Measuring Means (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Description
本発明で扱う三次元空間情報は、三次元空間座標と二次元画像から構成される。三次元空間座標は測定対象の空間における位置座標であり、当該空間を計測するためセンサーなどの原点を定めてX,Y,Z軸を固定し計測して得られる特定のポイントの空間位置情報(位置ベクトル)である。本発明で述べる二次元画像は、センサーなどで前記三次元空間に存在する人物などを計測して得られた各測定点(位置ベクトルの指す点)に対応する色情報とする。色情報を収集するには三次元空間座標を測定するセンサーと並置する形でCCDカメラなどを設置する、又は両者を一体化するなどが考えられる。
前述のように、三次元空間座標は測定対象の空間における位置座標であり、当該空間を計測するためセンサーなどの原点を定めてX,Y,Z軸を固定し計測して得られる特定ポイントの位置ベクトルの集まりとして扱うことができる。得られた三次元空間座標(位置ベクトルの集まりで構成するポリゴン)は視点の位置を変化(直交変換)させることで上下左右の任意の位置から見た立体情報に変換することが可能である。
三次元空間情報センサー310を用いて前方のセンシング可能な視野内の三次元空間座標(位置ベクトル)と二次元画像を取得する。三次元空間情報の測定および後に記載する演算処理は一定の短時間ごとにリアルタイムで行われ、連続した動画として記録できる。測定は、測定対象である被測定者100の身体にセンサーや配線、あるいはマーカーなどをつけることなく、特殊な装置を備えていない普通の部屋や通路を歩いている状態で行うことができる。これにより、上記した第一の課題「被測定者にセンサー装着の負担を負わせない」の目的を達成することができる。
三次元空間情報センサー310は集光レンズ315を通して入力される光をレンズセンサー面に備えられた可視光撮影CCD316を利用して二次元画像も同時に収集する。撮影する画像は一般のディジタルカメラと同一の原理であり、画素対応に位置ベクトルを求める演算処理(後述)を行う。
図4、図5は三次元空間情報センサー310がレーザ光源312からの距離測定赤外光を投影して対象空間に存在する人物他の距離座標を計測する仕組みを模式的に示したものである。
図5は縦方向に並んだ多数のドット反射点(101〜107)を順に結び付けることで人物の表面形状をなぞる様子を模擬的に示している。図5の右側は三次元空間情報センサー310から見た光放射空間を縦にスキャンしている様子を示す。図5の左側はその様子を横から観察し赤外光のドットがセンサー面から放射され被測定者100の表面で反射する様子を示している。各ドット対応にセンサー面原点からドット反射点までの距離が求められるので、得られた距離情報を座標X,Y,Z成分に分解することで3次元空間情報(位置ベクトル)が得られる。
図6は横方向に並んだ多数のドット反射点を順に結び付けることで人物の表面形状を横になぞる様子を模擬的に示している。図6の右側は三次元空間情報センサー310から見た放射空間について人物頭部102を含む横方向および人物腰105を含む横方向にスキャンしている例である。図6の左側はその様子を横から眺め、連続したドットを結ぶことで額の曲面、腰回りの曲線を三次元空間情報として取得できることを示している。更に図5及び図6のドットによるスキャンを空間全面に広げることで多数のドットの位置ベクトルを収集し、人物表面の立体構造すなわちポリゴンを作成することが可能となる。
図7は、距離測定赤外光集光レンズ317を三次元空間情報センサー310のセンサー面座標原点として撮影する構成図である。図8は、これに可視光の撮影を追加して示す図である。すなわち、三次元空間情報センサー310の機能は、三次元空間情報と二次元画像の撮影機能を組み合わせで成り立っている。両者を物理的に同一装置に合体して座標原点を同一にする仕組みも可能であるが、図8においては両者の原点位置が異なる場合を図示している。
図9は三次元センサー317が検出した反射点の位置ベクトルが可視光CCD316のどの画素に対応するかを予め計測する原理図を示している。三次元センサー317の原点から計測用の可視光をスクリーンに投影する。図9では遠方からスクリーン1、2、3と三段階に分けて計測する例である。計測用可視光の方向を一定としているが、スクリーン位置が異なると可視光受信CCD316上の反射光を検出するCCD画素上の位置は移動する。図9では三次元センサー317とスクリーン情報反射点間の距離が決まれば可視光受信CCD316上の座標を求めることができる。この対応状況を三次元空間情報処理装置410で管理し、画素対応の三次元空間座標(位置ベクトル)を求める。
図7に戻ると、図5、図6で得られた赤外線反射ポイントの位置ベクトルを用いて近接ポイント間をつなぐことで三角形のタイルを敷き詰めるように構成したポリゴンの一例を示す。三次元空間情報センサー310が距離測定用赤外光を照射して得られたすべての反射赤外光350の反射点を使ってポリゴンを生成する。一定距離(一例は5メートル)以上センサー面から離れると距離計測できない場合がある。距離計測できない空間ではポリゴンを作成しない。
ポリゴンは三次元空間座標で表された多数のポイントの集合体である。三次元表示の立体像を作成する目的で汎用的に利用されている。図10の左側ではセンサーが検出したポリゴンの集合体が被測定者100のセンサー側半面を表現している様子を示している。このポリゴンは人物の表面形状を立体的に捉えており、図10の右側に例示した人体立体モデルの様々な形と照合させることで人(被測定者100)の体位を判定する。これにより、第三の課題「記録画像から計測対象となる身体部位を推定する人手作業」を計測した被測定者ポリゴンと予め作成した人体モデルのポリゴンをコンピュータが照合処理することで解決することができる。
三次元空間情報処理装置410は、取得した三次元空間情報から、前述のように人体の立位など形状マッチング処理により人物とみなすブロック(連続した物体)を判定する。即ち空間を隔てて別の場所に存在するブロックは個別に人物であるかどうかの判定処理を実施する。人物の抽出には平面画像で用いられている動きのある領域を識別に利用することも可能である。これは撮影した連続フレーム間で画素の差分を計算しまとまって動きの変化が見られる部分と静止している部分の境界を判定し動くブロックを人物の候補とする手法である。本発明ではこの手法も適用するとともに、ロボット計測器自体の移動を考慮して、演算処理によって空間に静止しているものと移動している人を識別し、測定対象人物の三次元空間情報を抽出する。
センサーで測定する三次元空間情報には、ロボットが行動範囲を判断するための情報や、動きに関係する動作を規定するための情報として、周囲環境に配置される標識情報が含まれている。センサーが獲得した三次元空間情報を利用して、三次元空間座標が平面上連続し予め定められた形状と色を示す部分をロボット運行制御標識として利用する。
図10では三次元空間情報で得られたポリゴン形状を人物立体モデルと照合して体位を判定した。体位判定では立位、座位、転倒、仰臥など人物が存在する様々な形態を識別する。判定した体位から頭、手足、腰などの空間的位置を推定することが可能である。人の外形と体内の各関節の位置関係はMRI、CTなどで計測した結果が公知である。図12には被測定者100のポリゴン情報から体位を推定し、そこから骨格情報を当てはめて人体の各関節の三次元座標を計算で求める様子を説明している。
得られた骨格モデルを参照して測定した三次元空間情報から関節の三次元空間座標を推定する。たとえば被測定者100がセンサーに正対した立位で、センサーから得られる右肩形状の三次元座標によるポリゴンは着衣ないし皮膚の表面座標を示している。骨格モデルを参照することで人体表面の形状から人体内部に存在する肩関節の三次元座標を求める。たとえばセンサーが測定した右肩関節の方向を示すZ軸の値が210センチメートルであれば、人体表面から5センチメートル奥に右肩関節が存在するという骨格モデル情報を参照してZ軸の値を215センチメートルと算出する。
三次元空間座標は測定対象の空間における位置座標であり、当該空間を計測するためセンサーなどの原点を定めてX,Y,Z軸を固定し計測して得られる特定ポイントの空間位置情報である。本ロボット計測においてはロボットに搭載した三次元空間情報センサーにより空間座標を計測する。その場合空間座標を測定する原点(0,0,0)をセンサー面に設定し、X、Y、Z軸を設定する。各軸は直交しておりX軸は床に平行な横方法、Y軸は床に垂直な縦方向、Z軸は床に平行なセンサー正面方向とするのが一般的である。センサーが取得した三次元空間座標を元に、視点の位置を変化させることで上下左右の任意の位置から見た立体情報に変換することが可能である。本ロボット計測においてはセンサーによるセンシングはセンサー面を原点とするが、センサーが取得した三次元空間座標は目的に応じて最適な空間座標原点とX,Y,Z軸を設定して利用する。
本発明に従うロボット計測器に搭載した測定対象人物の動きをモニターする表示装置450上に人物を常に一定の大きさで表示するために座標変換を行う。三次元空間情報センサー310を原点とした座標で計測された座標データを元にセンサーと測定対象人物間の距離が一定になる変換処理を行う。すなわち三次元空間において、センサー面座標原点を仮想的に前後にずらして人物座標を計算する、あるいは逆にセンサー面座標原点をそのままとし測定対象人物を構成するポリゴンの空間座標(X,Y,Z)をセンサー面に近づける、ないし遠ざける計算処理を行う。
ロボット計測器200で収集する人体各部の位置関係を示す三次元空間情報は、たとえば人体主要20関節のROM(関節可動域)を計測し記録することでリハビリテーションに役立つ情報となる。この目的には、センサー前面に原点を設定した測定結果情報ではなく、人体の一部たとえば重心に原点を設定してX,Y,Zの各軸を前額面、矢状面に一致させることが必要になる。これにより計測時にセンサーと被測定者100の距離が変動しても、測定結果を記録するカルテでは毎回の測定データと基準座標が同一となり、被測定者100のデータ相互の比較や日本人全体を平均した標準データとの比較が容易になる。即ち計測時の三次元センサーの配置に左右されない被測定者100の測定データを得ることが可能となる。
(1)直交座標での原点の変更(座標系の平行移動)
原点を、(xo,yo,zo)に変更する。
x=x−xo
y=y−yo
z=z−zo
(2)直交座標での座標系回転(x軸回りの回転)
x軸回り(反時計回りを正)に、y,z座標軸をθだけ回転する。
x=x
y=y*cos(θ)+z*sin(θ)
z=−y*sin(θ)+z*cos(θ)
(3)直交座標での座標系回転(y軸回りの回転)
y軸回り(反時計回りを正)に、x,z座標軸をθだけ回転する。
x=x*cos(θ)−z*sin(θ)
y=y
z=x*sin(θ)+z*cos(θ)
(4)直交座標での座標系回転(z軸回りの回転)
z軸回り(反時計回りを正)に、x,y座標軸をθだけ回転する。
x=x*cos(θ)+y*sin(θ)
y=−x*sin(θ)+y*cos(θ)
z=z
101・・・人の右手の距離測定ポイント、P点
102・・・人の額の三次元座標(センサー面原点)
103・・・人の額の三次元座標(センサー面原点)から作成するポリゴンの例
104・・・人の首の三次元座標(センサー面原点)
105・・・人の腰の三次元座標(センサー面原点)
106・・・人の腰の三次元座標(センサー面原点)から作成するポリゴンの例
107・・・床の三次元座標(センサー面原点)
110・・・可視光受信CCDの画素配列の例
120・・・被測定者に対して照射した距離測定光で得られたすべての三次元座標情報で構成したポリゴン
121・・・ポリゴンで構成する人物立体モデル(立位)
122・・・ポリゴンで構成する人物立体モデル(座位)
123・・・ポリゴンで構成する人物立体モデル(仰臥)
124・・・ポリゴンで構成する人物立体モデル(転倒)
125・・・ポリゴンで構成する人物骨格モデル
130・・・被測定者を囲む立方体で示す人物存在空間
131・・・被測定者の胴回りポリゴン形状から推定した胴回り形状
132・・・被測定者の足位置から算出した足の床接触点
133・・・カーテン
134・・・カーテンの表面形状を計測する距離測定赤外光の軌跡
135・・・介助者
136・・・介助者が身に着ける帽子
137・・・介助者が身に着ける職員証
138・・・介助者が身に着ける衣服
140・・・人の重心座標原点、G点
141・・・時刻T1における人の重心座標原点
142・・・時刻T2における人の重心座標原点
150・・・重心座標原点のX軸
151・・・重心座標原点のY軸
152・・・重心座標原点のZ軸
153・・・重心座標原点からP点への位置ベクトル
154・・・人の右腕肘の三次元座標(重心座標原点)
160・・・スタートライン
161・・・スタートラインを検出する位置ベクトル(センサー面原点)
162・・・ゴールライン
163・・・ゴールラインを検出する位置ベクトル(センサー面原点)
170・・・人の重心座標原点から床面に鉛直線を下し床面との交点を原点とする床面原点で、X軸Z軸は重心原点座標と平行、Y軸は重なる。
171・・・時刻T1における床面原点
172・・・時刻T2における床面原点
200・・・ロボット計測器
300・・・センサー部
310・・・三次元空間情報センサー
311・・・制御・伝送回路
312・・・距離測定用赤外レーザ光源
313・・・ドットパターン生成フィルム
314・・・距離測定赤外光投影レンズ
315・・・可視光集光レンズ
316・・・可視光受信CCD
317・・・距離測定赤外光集光レンズ、三次元空間情報センサーのセンサー面座標原点
318・・・距離測定用赤外光受信CCD
320・・・センサー面原点のX軸
321・・・センサー面原点のY軸
322・・・センサー面原点のZ軸
330・・・時刻T1におけるセンサー面原点
331・・・時刻T2におけるセンサー面原点
340・・・センサー面原点からP点への位置ベクトル
341・・・センサー面原点からG点への位置ベクトル
343・・・時刻T1におけるセンサー面原点から左足への位置ベクトル
344・・・時刻T1におけるセンサー面原点から右足への位置ベクトル
345・・・時刻T2におけるセンサー面原点から左足への位置ベクトル
350・・・距離測定光の軌跡
360・・・重心に加わる力ベクトル
361・・・右足踵の床反力ベクトル
400・・・制御部
410・・・三次元空間情報処理装置
420・・・制御装置
430・・・入力装置
440・・・記憶装置
450・・・表示装置
460・・・通信装置
470・・・電源装置
500・・・走行部
510・・・移動装置
Claims (4)
- 被測定者の動きを測定するロボット計測器であって、
制御部と、三次元空間座標と二次元画像から構成される三次元空間情報を取得するセンサー部と、前記制御部と前記センサー部を搭載して一体で移動する走行部を有し、
前記制御部は、自律的に移動する前記被測定者の計測中に、前記被測定者が前記センサー部のセンシング可能領域に入るように前記センサー部を制御し、且つ前記走行部を前記被測定者の動きに追従するように前記走行部の移動を制御し、
前記センサー部により取得される、前記三次元空間座標は、被測定者の空間における位置座標であり、前記二次元画像は、前記空間に存在する被測定者の各測定点の色情報であり、
前記制御部は、更に前記センサー部により取得される三次元空間座標と二次元画像から前記被測定者の三次元空間情報だけを選択的に求め、前記求めた三次元空間情報から前記被測定者の身体の各部分との対応を推定する、
ことを特徴とする人間の動きを測定するロボット計測器。 - 請求項1において、
前記制御部は、前記三次元空間情報のセンサー部の取得した三次元空間情報から形状マッチング処理により前記被測定者とする機能と、
前記被測定者の動きを表示装置上に表示するとき、前記センサー部を原点とした座標で計測される座標データを基に、前記センサー部と前記被測定者間の距離が一定となる座標変換処理を行う機能を有し、これにより
前記被測定者との距離が変化しても前記表示装置に前記被測定者の形状が安定した大きさで表示させる、
ことを特徴とする人間の動きを測定するロボット計測器。 - 請求項2において、
前記制御部は三次元空間情報処理装置を有し、前記センサー部で得た三次元画像全体の情報から、固定物体の画像のうちから指定された標識を判別する機能を有し、前記被測定者が標識として設定したスタートラインを越えて移動する事象を検知して、その事象の発生した時刻を記録し同時に測定を開始し、前記被測定者が歩行中に足の動き情報を解析して歩数を計数し、次いで、第2標識として設定したゴールラインで測定終了時間を判定し経過時間および歩数計数測定を終了する機能を有する、
ことを特徴とする人間の動きを測定するロボット計測器。 - 請求項2または3において、
前記制御部は、前記被測定者の画像から前記被測定者の体重を推定し、重心の位置と、下肢の動きとから、歩行時に足にかかる力を連続して推定し、その結果を床反力データとする機能を有する、
ことを特徴とする人間の動きを測定するロボット計測器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014225587A JP6466139B2 (ja) | 2014-10-20 | 2014-10-20 | 人間の動きを測定するロボット計測器 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014225587A JP6466139B2 (ja) | 2014-10-20 | 2014-10-20 | 人間の動きを測定するロボット計測器 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016080671A JP2016080671A (ja) | 2016-05-16 |
JP2016080671A5 JP2016080671A5 (ja) | 2017-11-09 |
JP6466139B2 true JP6466139B2 (ja) | 2019-02-06 |
Family
ID=55958395
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014225587A Active JP6466139B2 (ja) | 2014-10-20 | 2014-10-20 | 人間の動きを測定するロボット計測器 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6466139B2 (ja) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6515070B2 (ja) * | 2016-07-29 | 2019-05-15 | 日本電信電話株式会社 | 筋活動推定装置、方法およびプログラム |
JP6515069B2 (ja) * | 2016-07-29 | 2019-05-15 | 日本電信電話株式会社 | 筋活動解析装置、方法およびプログラム |
WO2018087853A1 (ja) * | 2016-11-09 | 2018-05-17 | 株式会社システムフレンド | 立体画像生成システム、立体画像生成方法及び立体画像生成プログラム |
US11161236B2 (en) | 2017-09-14 | 2021-11-02 | Sony Interactive Entertainment Inc. | Robot as personal trainer |
US11848091B2 (en) | 2018-04-26 | 2023-12-19 | Nec Corporation | Motion estimation system, motion estimation method, and motion estimation program |
EP3753489B1 (en) | 2018-05-28 | 2022-01-05 | Kaia Health Software GmbH | Monitoring the performance of physical exercises |
US20210331314A1 (en) * | 2019-03-08 | 2021-10-28 | Lg Electronics Inc. | Artificial intelligence cleaner |
JP2020197044A (ja) * | 2019-05-31 | 2020-12-10 | 株式会社小松製作所 | マップ生成システム及びマップ生成方法 |
CN110672087B (zh) * | 2019-09-02 | 2023-08-11 | 湖南凌傲科技有限公司 | 一种人体跟踪方法及系统 |
TWI736148B (zh) * | 2020-02-26 | 2021-08-11 | 薛雅馨 | 姿態檢測系統與方法 |
CN113796853A (zh) * | 2020-06-16 | 2021-12-17 | 广州印芯半导体技术有限公司 | 光学影像比较系统及其比较方法 |
KR102568538B1 (ko) * | 2020-06-23 | 2023-08-23 | 한국전자통신연구원 | 이동 로봇을 이용한 휴먼 자세 평가 장치 및 방법 |
US12017116B2 (en) | 2020-06-23 | 2024-06-25 | Electronics And Telecommunications Research Institute | Apparatus and method for evaluating human motion using mobile robot |
JP7054950B1 (ja) | 2020-11-12 | 2022-04-15 | 独立行政法人日本スポーツ振興センター | 位置計測システム、及び位置計測方法 |
CN114360060B (zh) * | 2021-12-31 | 2024-04-09 | 北京航空航天大学杭州创新研究院 | 人体动作识别计数方法 |
CN114886417B (zh) * | 2022-05-10 | 2023-09-22 | 南京布尔特医疗技术发展有限公司 | 一种智能化安全护理监控系统及方法 |
WO2024172013A1 (ja) * | 2023-02-13 | 2024-08-22 | 公立大学法人大阪 | 座標変換方法、座標変換装置、動作解析方法、動作解析装置、及びコンピュータプログラム |
CN116524441B (zh) * | 2023-07-03 | 2023-09-01 | 四川顶圣工程项目管理有限公司 | 一种用于工程项目管理的施工现场监督方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4831374B2 (ja) * | 2009-03-27 | 2011-12-07 | アイシン・エィ・ダブリュ株式会社 | 運転支援装置、運転支援方法、及び運転支援プログラム |
EP2571660B1 (en) * | 2010-05-20 | 2018-08-15 | iRobot Corporation | Mobile human interface robot |
BR112015002620A2 (pt) * | 2012-08-07 | 2018-05-22 | Dorsavi Pty Ltd | método e aparelho para medir forças de reação. |
JP6094279B2 (ja) * | 2013-03-14 | 2017-03-15 | 株式会社国際電気通信基礎技術研究所 | 追跡装置、追跡プログラムおよび追跡方法 |
JP2014188095A (ja) * | 2013-03-26 | 2014-10-06 | Kitasato Institute | 遠隔診断システム |
-
2014
- 2014-10-20 JP JP2014225587A patent/JP6466139B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016080671A (ja) | 2016-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6466139B2 (ja) | 人間の動きを測定するロボット計測器 | |
JP2016080671A5 (ja) | ||
US9727779B2 (en) | Motion information processing apparatus | |
D’Antonio et al. | Validation of a 3D markerless system for gait analysis based on OpenPose and two RGB webcams | |
US9788762B2 (en) | Motion monitor | |
US20170243354A1 (en) | Automatic frontal-view gait segmentation for abnormal gait quantification | |
EP1402761B1 (en) | Method and system for predictive physiological gating | |
CN104739418B (zh) | 一种基于立体视觉的呼吸门控系统及控制方法 | |
KR101118654B1 (ko) | 모션캡쳐 기반의 자세분석을 통한 재활 장치 및 이에 따른 재활 방법 | |
Kurillo et al. | Upper extremity reachable workspace evaluation with Kinect | |
JP2015061579A (ja) | 動作情報処理装置 | |
JP2016140591A (ja) | 動作解析評価装置、動作解析評価方法、及びプログラム | |
US20120310075A1 (en) | Medical measurement system and method | |
JP7107264B2 (ja) | 人等の身体動作推定システム | |
de Queiroz Burle et al. | Real-time approach for gait analysis using the Kinect v2 sensor for clinical assessment purpose | |
Cai et al. | Single-camera-based method for step length symmetry measurement in unconstrained elderly home monitoring | |
Zeng et al. | Gait Analysis based on Azure Kinect 3D Human Skeleton | |
Niu et al. | A survey on IMU-and-vision-based human pose estimation for rehabilitation | |
EP2023816A1 (en) | Balance monitor | |
Hellmers et al. | Validation of a motion capture suit for clinical gait analysis | |
KR20220140220A (ko) | 보행데이터 기반 파킨슨 증후군 중증도 판별 시스템 및 방법 | |
Juri et al. | Characterization of a low-cost markerless system for 3D gait analysis | |
Jawaid et al. | Advancements in medical imaging through Kinect: a review | |
Kittipanya-ngam et al. | Computer vision technologies for monitoring system in tele-physiotherapy | |
Alothmany et al. | Accuracy of joint angles tracking using markerless motion system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20160908 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20160908 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170926 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170926 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180808 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180828 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181024 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181218 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190109 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6466139 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |