JP6485964B2 - Motion capture method and motion capture system - Google Patents

Motion capture method and motion capture system Download PDF

Info

Publication number
JP6485964B2
JP6485964B2 JP2015178122A JP2015178122A JP6485964B2 JP 6485964 B2 JP6485964 B2 JP 6485964B2 JP 2015178122 A JP2015178122 A JP 2015178122A JP 2015178122 A JP2015178122 A JP 2015178122A JP 6485964 B2 JP6485964 B2 JP 6485964B2
Authority
JP
Japan
Prior art keywords
marker
time
subject
series
landing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015178122A
Other languages
Japanese (ja)
Other versions
JP2017053739A (en
Inventor
眞平 佐藤
眞平 佐藤
幸一 根本
幸一 根本
Original Assignee
オプティトラック・ジャパン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オプティトラック・ジャパン株式会社 filed Critical オプティトラック・ジャパン株式会社
Priority to JP2015178122A priority Critical patent/JP6485964B2/en
Publication of JP2017053739A publication Critical patent/JP2017053739A/en
Application granted granted Critical
Publication of JP6485964B2 publication Critical patent/JP6485964B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Description

本発明は、モーションキャプチャー方法及びモーションキャプチャーシステムに関し、特に光学式のモーションキャプチャー方法及びモーションキャプチャーシステムに関するものである。   The present invention relates to a motion capture method and a motion capture system, and more particularly to an optical motion capture method and a motion capture system.

モーションキャプチャー技術は、人物や物体等の被検体の動きをデジタル的に記録する技術であり、例えばスポーツ分野、医学分野などに適用されている。   The motion capture technique is a technique for digitally recording the movement of a subject such as a person or an object, and is applied to, for example, the sports field and the medical field.

モーションキャプチャー技術のうち光学式のモーションキャプチャー技術では、被検体に複数のマークを装着し、これを角度の異なる複数のカメラで撮影し、カメラで得られた撮影情報よりマーカーの動きを三角測量の原理で計測し、三次元の位置情報を得る。そして、被検体の各特徴点の動きを三次元的に検出し、記録している。
また、モーションキャプチャー技術の改良技術についても、例えば特許文献1ないし3にも開示されているとおり、これまで多数の提案がなされている。
Among the motion capture technologies, optical motion capture technology attaches multiple marks to the subject, shoots them with multiple cameras at different angles, and triangulates the movement of the markers from the captured information obtained by the cameras. Measure in principle to obtain 3D position information. The movement of each feature point of the subject is detected and recorded three-dimensionally.
In addition, as for the improvement technique of the motion capture technique, as disclosed in Patent Documents 1 to 3, for example, many proposals have been made so far.

従来のモーションキャプチャーシステムの一例の模式図を、図3に示す。
図3において1は被検体であり、運動する人体を例にとり示している。2は被検体1の特徴点に装着されたマーカーである。
3はマーカー2を時系列的に撮影するカメラであり、被検体1の可動範囲を囲むよう被検体1の周囲に複数台設けている。各カメラ3には撮像素子3aと被検体1に光束を照射するLED等の照明装置3bが装着されている。3cは、カメラ3に設けた撮影レンズである。
FIG. 3 shows a schematic diagram of an example of a conventional motion capture system.
In FIG. 3, reference numeral 1 denotes a subject, which shows an example of a moving human body. Reference numeral 2 denotes a marker attached to a feature point of the subject 1.
Reference numeral 3 denotes a camera for photographing the marker 2 in time series, and a plurality of cameras are provided around the subject 1 so as to surround the movable range of the subject 1. Each camera 3 is equipped with an imaging device 3a and an illumination device 3b such as an LED for irradiating the subject 1 with a light beam. Reference numeral 3 c denotes a photographing lens provided in the camera 3.

カメラ3は、三脚やクランプ等、カメラ間の関係を保持し続けることができる治具に固定されている。複数のカメラは、被検体1に関する計測空間を中心にして、カメラ3間の距離が最低15度以上の角度になるようにそれぞれ配置されている。
また、各カメラからの視野中心がほぼ同一になり、被検体1の移動に対して、カメラ3が水平に並ばないように考慮して配置されている。
The camera 3 is fixed to a jig that can keep the relationship between the cameras, such as a tripod and a clamp. The plurality of cameras are arranged so that the distance between the cameras 3 is at least 15 degrees or more with the measurement space relating to the subject 1 as the center.
Further, the visual field centers from the respective cameras are substantially the same, and the cameras 3 are arranged so as not to be aligned horizontally with respect to the movement of the subject 1.

被検体1に装着したマーカー2をトラッキングするためには、複数のカメラ3を撮影視野が重複するように配置している。こうすることによって、「キャプチャーボリューム」と呼ばれるトラッキング可能な領域を作成している。カメラはしっかり固定し、動いてしまうことによるキャリブレーションのやり直しを防止している。また良好なキャリブレーションとトラッキング結果を得るために、すべてのカメラ3が同一平面上に配置されないようにしている。   In order to track the marker 2 attached to the subject 1, a plurality of cameras 3 are arranged so that the fields of view overlap. In this way, a trackable area called “capture volume” is created. The camera is firmly fixed and prevents re-calibration due to movement. In order to obtain good calibration and tracking results, all the cameras 3 are not arranged on the same plane.

なお、照明装置3bからの光束であって、マーカー2からの反射光のみが撮像素子3aで検出されるように、撮像素子3aの光入射面には、照明装置3bから放射される光束の分光特性に対応した光学フィルターが装着されている。   Note that the light beam emitted from the illumination device 3b is split on the light incident surface of the imaging device 3a so that only the reflected light from the marker 2 is detected by the imaging device 3a. The optical filter corresponding to the characteristic is installed.

4はカメラ3で得られた撮影画像を時系列的に受信し、複数のカメラ3より得られた受信情報より被検体1に装着したマーカー2の各時間(フレーム毎)における三次元情報を求める画像処理装置である。算出方法は、二値化した画像に対してラベリングを行い、マーカー2の三次元空間内の座標を、例えばエピポーラマッチングアルゴリズムを利用して算出する。   4 receives the captured images obtained by the camera 3 in time series, and obtains three-dimensional information at each time (for each frame) of the marker 2 attached to the subject 1 from the reception information obtained from the plurality of cameras 3. An image processing apparatus. In the calculation method, the binarized image is labeled, and the coordinates of the marker 2 in the three-dimensional space are calculated using, for example, an epipolar matching algorithm.

5は画像処理装置4で得られた被検体1のマーカー2に基づく特徴点の軌跡等を表示する表示装置である。
図4は、その表示例の写真である。各特徴点に装着されたマーカーの全体軌跡及び時系列の速度及び最大速度が表示されていることが分かる。
Reference numeral 5 denotes a display device that displays a trajectory of a feature point based on the marker 2 of the subject 1 obtained by the image processing device 4.
FIG. 4 is a photograph of the display example. It can be seen that the entire trajectory and time-series speed and maximum speed of the marker attached to each feature point are displayed.

特開2005−345161号公報JP 2005-345161 A 特開2014−98576号公報JP 2014-98576 A 特開2014−211404号公報JP 2014-211404 A

従来のモーションキャプチャー技術では、連続した動きを忠実にデジタル化するため、一定のサンプリングでデジタル化する手法がモーションキャプチャーの前提であり、連続的なデータの取得はできるが、被検体の動作の特異点及び被検体の動作の特徴情報を自動で抽出することはできなかった。
例えば、歩行などの繰り返し動作における着地時間、歩幅、歩行全体の速度等の被検体の動作の特徴情報を直接とらえるには、データ取得後に改めて動作の切り出しや回数のカウント、着地点から着地点への計算を行う必要があった。
本発明は、被検体の動作の特異点及び被検体の動作の特徴情報を自動で抽出し、表示することができる、モーションキャプチャー方法及びモーションキャプチャーシステムを提供することを目的とする。
また、本発明は、被検体の着地位置と歩幅や歩行速度のような被検体の動作の特徴情報を自動で抽出し、表示することができるモーションキャプチャー方法及びモーションキャプチャーシステムを提供することを目的とする。
In conventional motion capture technology, in order to faithfully digitize continuous motion, the method of digitizing with constant sampling is the premise of motion capture, and continuous data acquisition is possible, but the behavior of the subject is peculiar. The feature information of the points and the movement of the subject could not be extracted automatically.
For example, in order to directly capture subject movement feature information such as landing time, step length, overall walking speed, etc. during repeated movements such as walking, it is necessary to cut out the movement, count the number of times, and move from landing point to landing point. It was necessary to perform the calculation.
An object of the present invention is to provide a motion capture method and a motion capture system that can automatically extract and display singular points of motion of a subject and characteristic information of motion of the subject.
Another object of the present invention is to provide a motion capture method and a motion capture system capable of automatically extracting and displaying feature information of a subject's movement such as the landing position, stride, and walking speed of the subject. And

本発明の課題を解決するための手段は、次のとおりである。
)被検体の足首にマーカーを装着するステップと、該マーカーを、角度の異なる位置に配置した複数のカメラで時系列的に撮影するステップと、複数のカメラで時系列的に得られた撮影情報より、該マーカーの動きを三角測量の原理で計測してマーカーの三次元時系列位置情報を得るステップと、マーカーの三次元時系列位置情報より、該マーカーの時系列上の各位置における速度を算出するステップと、算出されたマーカーの速度と事前に指定した速度に基づく閾値とを比較判定するステップと、算出されたマーカーの速度が閾値以下と判定されたマーカーの三次元位置を被検体の着地位置とし、該マーカーの着地位置情報とマーカーの三次元時系列位置情報より、被検体の歩幅、歩行速度及び着地時間のうちの少なくとも一種を算出するステップと、該被検体の着地位置と該算出された被検体の歩幅、歩行速度及び着地時間のうちの少なくとも一種を表示するステップと、を含むモーションキャプチャー方法。
)足首にマーカーを装着した被検体と、角度の異なる位置に配置し、該マーカーの動きを三角測量の原理で計測して時系列的に撮影する複数のカメラと、複数のカメラで時系列的に得られた撮影情報より、該マーカーの三次元時系列位置情報を得る画像処理装置と、マーカーの三次元時系列位置情報より、該マーカーの時系列上の各位置における速度を算出し、該速度と事前に指定した該マーカーの着地位置情報取得のための速度の閾値とを比較判定し、該マーカーの速度が閾値以下と判定されたマーカーの三次元位置を着地位置とし、該マーカーの着地位置情報とマーカーの三次元時系列位置情報より、被検体の歩幅、歩行速度及び着地時間のうちの少なくとも一種を算出する特徴情報抽出部を含み、被検体の着地位置と被検体の歩幅、歩行速度及び着地時間のうちの少なくとも一種を表示する表示装置と、を備えたモーションキャプチャーシステム。
Means for solving the problems of the present invention are as follows.
( 1 ) The step of attaching a marker to the ankle of the subject, the step of photographing the marker in time series with a plurality of cameras arranged at different angles, and the time series of the plurality of cameras. From the shooting information, the step of measuring the movement of the marker by the principle of triangulation to obtain the three-dimensional time-series position information of the marker, and the three-dimensional time-series position information of the marker at each position on the time-series of the marker The step of calculating the speed, the step of comparing and determining the calculated marker speed and a threshold value based on the speed specified in advance, and the three-dimensional position of the marker for which the calculated marker speed is determined to be less than or equal to the threshold value The specimen landing position is calculated, and at least one of the stride, walking speed, and landing time of the subject is calculated from the landing position information of the marker and the three-dimensional time-series position information of the marker. Steps and, motion capture method comprising the steps of: displaying at least one of a 該被 landing position and the calculated out the subject stride of the specimen, the walking speed and landing time.
( 2 ) A plurality of cameras that are placed at different angles with a subject with a marker attached to the ankle, measure the movement of the marker by the principle of triangulation, and chronologically shoot with a plurality of cameras. An image processing device that obtains the three-dimensional time-series position information of the marker from imaging information obtained in series, and the velocity at each position on the time-series of the marker is calculated from the three-dimensional time-series position information of the marker. The speed is compared with the threshold value of the speed for acquiring the landing position information of the marker specified in advance, and the three-dimensional position of the marker at which the speed of the marker is determined to be equal to or lower than the threshold is set as the landing position. A feature information extraction unit that calculates at least one of the step length, walking speed, and landing time of the subject from the landing position information of the subject and the three-dimensional time-series position information of the marker, and includes the landing position of the subject and the walking of the subject , Motion capture system and a display device for displaying at least one of a walking speed and landing time.

本発明によれば、被検体の動作の特異点及び被検体の動作の特徴情報を自動で抽出し、表示することができる。
また、本発明によれば、被検体の着地位置と被検体の歩行速度や歩幅等を自動で抽出し、表示することができる。
According to the present invention, it is possible to automatically extract and display the singular point of the motion of the subject and the feature information of the motion of the subject.
Further, according to the present invention, the landing position of the subject, the walking speed, the stride, etc. of the subject can be automatically extracted and displayed.

本発明のモーションキャプチャーシステムの模式図である。It is a schematic diagram of the motion capture system of this invention. 本発明のモーションキャプチャーシステムに係る表示装置の表示例を示す写真である。It is a photograph which shows the example of a display of the display apparatus which concerns on the motion capture system of this invention. 本発明の前提となるモーションキャプチャーシステムの模式図である。1 is a schematic diagram of a motion capture system as a premise of the present invention. 従来のモーションキャプチャーシステムに係る表示装置の表示例を示す写真である。It is a photograph which shows the example of a display of the display apparatus which concerns on the conventional motion capture system.

本発明に係るモーションキャプチャー技術は、被検体にマーカーを装着し、マーカーを、角度の異なる位置に配置した複数のカメラで時系列的に撮影し、複数のカメラで時系列的に得られた撮影情報より、マーカーの動きを三角測量の原理で計測してマーカーの三次元時系列位置情報を得て、マーカーの三次元時系列位置情報より、マーカーの時系列上の各位置における特定の物理量を算出し、特定の物理量と事前に指定したマーカーの特異点位置情報取得のための物理量の閾値とを比較判定し、マーカーの特定の物理量が閾値以下、閾値以上あるいは閾値以内と判定されたマーカーの三次元位置を特異点とし、マーカーの特異点位置情報とマーカーの三次元時系列位置情報より、被検体の動作の特徴情報を算出して、マーカーの特異点及び被検体の動作の特徴情報を表示することを要旨とするものである。   The motion capture technology according to the present invention is a method in which a marker is attached to a subject, the markers are photographed in time series with a plurality of cameras arranged at different angles, and the images obtained in a time series with the plurality of cameras. From the information, the movement of the marker is measured by the principle of triangulation to obtain the 3D time series position information of the marker, and the specific physical quantity at each position on the marker time series is obtained from the 3D time series position information of the marker. Calculate and compare the specific physical quantity with the threshold of the physical quantity for obtaining the singular point position information of the marker specified in advance, and the marker of the marker for which the specific physical quantity of the marker is determined to be below the threshold, above or below the threshold Using the three-dimensional position as a singular point, the feature information of the movement of the subject is calculated from the singular point position information of the marker and the three-dimensional time-series position information of the marker, It is an Abstract that displays the feature information of the operation of the specimen.

以下、本発明のモーションキャプチャー方法及びモーションキャプチャーシステムについて、歩行分析を例示して詳細に説明する。
実施例のモーションキャプチャーシステムは、図1のモーションキャプチャーシステムの模式図に示すとおりであるが、図3に示す従来のモーションキャプチャーシステムと基本的には異なることはないので、前提になるシステム構成については簡略に説明する。また、図1の符号は、図3の符号と共通とする。
さらに、カメラ等に関する詳細説明は、従来のモーションキャプチャーシステムである図3のものと重複するので省略する。
Hereinafter, the motion capture method and motion capture system of the present invention will be described in detail with reference to walking analysis.
The motion capture system of the embodiment is as shown in the schematic diagram of the motion capture system in FIG. 1, but is not fundamentally different from the conventional motion capture system shown in FIG. Is briefly described. 1 is the same as that in FIG.
Further, the detailed description of the camera and the like will be omitted because it overlaps with the conventional motion capture system of FIG.

図1において1は被検体であり、運動する人体を例にとり示している。2は被検体1の特徴点に装着されたマーカーである。3はマーカー2を時系列的に撮影するカメラであり、被検体1の可動範囲を囲むよう被検体1の周囲に複数台設けている。各カメラ3には撮像素子3aと被検体1に光束を照射するLED等の照明装置3bが装着されている。3cはカメラ3に設けた撮影レンズである。   In FIG. 1, reference numeral 1 denotes a subject, which shows an example of a moving human body. Reference numeral 2 denotes a marker attached to a feature point of the subject 1. Reference numeral 3 denotes a camera for photographing the marker 2 in time series, and a plurality of cameras are provided around the subject 1 so as to surround the movable range of the subject 1. Each camera 3 is equipped with an imaging device 3a and an illumination device 3b such as an LED for irradiating the subject 1 with a light beam. Reference numeral 3 c denotes a photographing lens provided in the camera 3.

4はカメラ3で得られた撮影画像を時系列的に受信し、複数のカメラ3より得られた受信情報より被検体1に装着したマーカー2の各時間(フレーム毎)における三次元情報を演算し求める画像処理装置である。   4 receives the captured images obtained by the camera 3 in time series, and calculates the three-dimensional information at each time (for each frame) of the marker 2 attached to the subject 1 from the received information obtained from the plurality of cameras 3. This is an image processing apparatus to be obtained.

画像処理装置4では、カメラ3の撮像素子3aで受光した画像を用いて画像処理を行い被検体1に装着したマーカー2の三次元空間内の座標、すなわち三次元位置情報を算出する。算出方法は、二値化した画像に対してラベリングを行い、マーカー2の三次元空間内の座標を、例えばエピポーラマッチングアルゴリズムを利用して算出する。   In the image processing device 4, image processing is performed using an image received by the imaging device 3 a of the camera 3, and coordinates in the three-dimensional space of the marker 2 attached to the subject 1, that is, three-dimensional position information is calculated. In the calculation method, the binarized image is labeled, and the coordinates of the marker 2 in the three-dimensional space are calculated using, for example, an epipolar matching algorithm.

画像処理装置4からの情報は、表示装置5に入力される。
本発明では、表示装置5には特徴情報抽出部6が設けられている。
特徴情報抽出部6では、マーカーの三次元時系列位置情報より、マーカーの時系列上の各位置における特定の物理量、例えば、マーカーの時系列上の各位置における変位、速度及び加速度のうちから選定された一種以上の物理量を算出し、特定の物理量と事前に指定したマーカーの特異点位置情報取得のための特定の物理量の閾値とを比較し、マーカーの特定の物理量が閾値以下、閾値以上あるいは閾値以内と判定されたマーカーの三次元位置を特異点とし、マーカーの特異点位置情報とマーカーの三次元時系列位置情報より、被検体の動作の特徴情報を算出する
Information from the image processing device 4 is input to the display device 5.
In the present invention, the display device 5 is provided with a feature information extraction unit 6.
The feature information extraction unit 6 selects, from the three-dimensional time series position information of the marker, a specific physical quantity at each position on the marker time series, for example, displacement, velocity, and acceleration at each position on the marker time series. Calculate one or more physical quantities, compare a specific physical quantity with a threshold of a specific physical quantity for obtaining singular point position information of a marker specified in advance, and the specific physical quantity of the marker is equal to or lower than the threshold, Using the 3D position of the marker determined to be within the threshold as a singular point, the feature information of the motion of the subject is calculated from the singular point position information of the marker and the 3D time-series position information of the marker.

本実施例では、マーカーの三次元時系列位置情報より、マーカーの時系列上の各位置における速度を算出し、速度と事前に指定したマーカーの特異点位置情報取得のための速度の閾値を1m/secと設定し、これと比較し、マーカーの速度が閾値以下と判定されたマーカーの三次元位置を特異点(着地位置)とし、マーカーの特異点位置情報とマーカーの三次元時系列位置情報より、被検体の動作の特徴情報である被検体の歩幅、歩行速度及び着地時間のうちの少なくとも一種を算出する。   In this embodiment, the speed at each position on the marker time series is calculated from the three-dimensional time series position information of the marker, and the speed threshold for acquiring the singular point position information of the marker specified in advance is 1 m. / Sec is set, and compared with this, the 3D position of the marker for which the marker speed is determined to be less than or equal to the threshold is set as a singular point (landing position), and the singular point position information of the marker and the 3D time series position information of the marker Thus, at least one of the subject's step length, walking speed, and landing time, which is characteristic information of the subject's motion, is calculated.

表示装置5では、特徴情報抽出部6からの出力情報を表示する。
図2は、その表示例の写真である。
マーカーの特異点の軌跡(着地位置の軌跡)及び時系列の速度及び最大速度に加えて被検体の歩幅、着地時間等が表示されていることが分かる。
The display device 5 displays output information from the feature information extraction unit 6.
FIG. 2 is a photograph of the display example.
It can be seen that in addition to the trajectory of the singular point of the marker (trajectory of the landing position) and the time-series speed and the maximum speed, the stride of the subject, the landing time, and the like are displayed.

なお、本明細書に開示した実施例は、本発明の理解を容易にするために例示したものであって、本発明はこれに限定されない。
すなわち、本発明は、特許請求の範囲を逸脱しない限り、モーションキャプチャー方法及びモーションキャプチャーシステムについて、適宜の設計変更が可能であることは言うまでもないことである。
In addition, the Example disclosed in this specification was illustrated in order to make an understanding of this invention easy, and this invention is not limited to this.
That is, it goes without saying that the present invention allows appropriate design changes for the motion capture method and the motion capture system without departing from the scope of the claims.

1 被検体
2 マーカー
3 カメラ
3a 撮像素子
3b 照明装置
3c 撮影レンズ
4 画像処理装置
5 表示装置
6 特徴情報抽出部
DESCRIPTION OF SYMBOLS 1 Subject 2 Marker 3 Camera 3a Image pick-up element 3b Illumination apparatus 3c Shooting lens 4 Image processing apparatus 5 Display apparatus 6 Feature information extraction part

Claims (2)

被検体の足首にマーカーを装着するステップと、該マーカーを、角度の異なる位置に配置した複数のカメラで時系列的に撮影するステップと、複数のカメラで時系列的に得られた撮影情報より、該マーカーの動きを三角測量の原理で計測してマーカーの三次元時系列位置情報を得るステップと、マーカーの三次元時系列位置情報より、該マーカーの時系列上の各位置における速度を算出するステップと、算出されたマーカーの速度と事前に指定した速度に基づく閾値とを比較判定するステップと、算出されたマーカーの速度が閾値以下と判定されたマーカーの三次元位置を着地位置とし、該マーカーの着地位置情報とマーカーの三次元時系列位置情報より、被検体の歩幅、歩行速度及び着地時間のうちの少なくとも一種を算出するステップと、該被検体の着地位置と該算出された被検体の歩幅、歩行速度及び着地時間のうちの少なくとも一種を表示するステップと、を含むモーションキャプチャー方法。   From the step of attaching a marker to the ankle of the subject, the step of photographing the marker in time series with a plurality of cameras arranged at different angles, and the imaging information obtained in time series with the plurality of cameras The step of measuring the movement of the marker by the principle of triangulation to obtain the three-dimensional time-series position information of the marker, and calculating the velocity at each position on the time-series of the marker from the three-dimensional time-series position information of the marker A step of comparing the calculated marker speed with a threshold based on a pre-specified speed, and a three-dimensional position of the marker for which the calculated marker speed is determined to be less than or equal to the threshold, Calculating at least one of the stride, walking speed, and landing time of the subject from the landing position information of the marker and the three-dimensional time-series position information of the marker; Motion capture method comprising the steps of: displaying at least one of a 該被 landing position and the calculated out the subject stride of the specimen, the walking speed and landing time. 足首にマーカーを装着した被検体と、角度の異なる位置に配置し、該マーカーの動きを三角測量の原理で計測して時系列的に撮影する複数のカメラと、複数のカメラで時系列的に得られた撮影情報より、該マーカーの三次元時系列位置情報を得る画像処理装置と、マーカーの三次元時系列位置情報より、該マーカーの時系列上の各位置における速度を算出し、該速度と事前に指定した該マーカーの着地位置情報取得のための速度の閾値とを比較判定し、該マーカーの速度が閾値以下と判定されたマーカーの三次元位置を着地位置とし、該マーカーの着地位置情報とマーカーの三次元時系列位置情報より、被検体の歩幅、歩行速度及び着地時間のうちの少なくとも一種を算出する特徴情報抽出部を含み、被検体の着地位置と被検体の歩幅、歩行速度及び着地時間のうちの少なくとも一種を表示する表示装置と、を備えたモーションキャプチャーシステム。   Multiple cameras that place the marker on the ankle and are positioned at different angles, measure the movement of the marker based on the principle of triangulation, and chronologically shoot with multiple cameras. An image processing device that obtains the three-dimensional time-series position information of the marker from the obtained photographing information, and the velocity at each position on the time-series of the marker is calculated from the three-dimensional time-series position information of the marker. And a threshold value of the speed for acquiring the landing position information of the marker specified in advance, and the three-dimensional position of the marker for which the speed of the marker is determined to be equal to or less than the threshold value is set as the landing position, and the landing position of the marker Including a feature information extraction unit that calculates at least one of the stride, walking speed, and landing time of the subject from the information and the three-dimensional time-series position information of the marker, and includes the landing position of the subject, the stride of the subject, and walking Motion capture system and a display device for displaying at least one of a time and landing time.
JP2015178122A 2015-09-10 2015-09-10 Motion capture method and motion capture system Active JP6485964B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015178122A JP6485964B2 (en) 2015-09-10 2015-09-10 Motion capture method and motion capture system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015178122A JP6485964B2 (en) 2015-09-10 2015-09-10 Motion capture method and motion capture system

Publications (2)

Publication Number Publication Date
JP2017053739A JP2017053739A (en) 2017-03-16
JP6485964B2 true JP6485964B2 (en) 2019-03-20

Family

ID=58317790

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015178122A Active JP6485964B2 (en) 2015-09-10 2015-09-10 Motion capture method and motion capture system

Country Status (1)

Country Link
JP (1) JP6485964B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107560569A (en) * 2017-09-22 2018-01-09 江门市力泰科技有限公司 A kind of tools for measurement of axle external diameter
JP2020187623A (en) 2019-05-16 2020-11-19 株式会社ソニー・インタラクティブエンタテインメント Attitude estimation system, attitude estimation apparatus, error correction method, and error correction program
JP2020197497A (en) 2019-06-05 2020-12-10 株式会社ソニー・インタラクティブエンタテインメント Three-dimensional measuring device, three-dimensional measuring method, and program
JP7136141B2 (en) 2020-02-07 2022-09-13 カシオ計算機株式会社 Information management device, information management method and program
CN113504385B (en) * 2021-06-30 2023-07-14 安徽爱观视觉科技有限公司 Speed measuring method and device for plural cameras
CN116863086B (en) * 2023-09-04 2023-11-24 武汉国遥新天地信息技术有限公司 Rigid body stable reconstruction method for optical motion capture system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6334925B2 (en) * 2013-01-18 2018-05-30 キヤノンメディカルシステムズ株式会社 Motion information processing apparatus and method
US9161708B2 (en) * 2013-02-14 2015-10-20 P3 Analytics, Inc. Generation of personalized training regimens from motion capture data
JP2014211404A (en) * 2013-04-22 2014-11-13 株式会社ノビテック Motion capture method

Also Published As

Publication number Publication date
JP2017053739A (en) 2017-03-16

Similar Documents

Publication Publication Date Title
JP6485964B2 (en) Motion capture method and motion capture system
US20200202497A1 (en) Motion compensation in a three dimensional scan
JP2014211404A (en) Motion capture method
WO2019015154A1 (en) Monocular three-dimensional scanning system based three-dimensional reconstruction method and apparatus
CN105258710B (en) A kind of high-precision principal point for camera scaling method
JP2019194616A (en) Position detection method, device and equipment based upon image, and storage medium
KR101658576B1 (en) Apparatus and method for measuring distance using image data
KR101469099B1 (en) Auto-Camera Calibration Method Based on Human Object Tracking
JP2008275366A (en) Stereoscopic 3-d measurement system
JP5336325B2 (en) Image processing method
US7839490B2 (en) Single-aperture passive rangefinder and method of determining a range
FR3069942B1 (en) ANALYSIS OF A MOVEMENT AND / OR A POSTURE OF AT LEAST ONE PART OF THE BODY OF AN INDIVIDUAL
Pennisi et al. Ground truth acquisition of humanoid soccer robot behaviour
KR102313801B1 (en) Apparatus and method for guiding correct posture of medical image system
JP5559749B2 (en) POSITION DETECTION DEVICE, POSITION DETECTION METHOD, AND COMPUTER PROGRAM
Abraham et al. 3D ranging and tracking using lensless smart sensors
KR20140083563A (en) Multi-body Detection Method based on a NCCAH(Normalized Cross-Correlation of Average Histogram) And Electronic Device supporting the same
JP2019144024A (en) Motion capture method and motion capture system
KR20160082659A (en) Method for the three-dimensional automatic measurement of structural vibration by multi-channel sequence digital images
CN111784749A (en) Space positioning and motion analysis system based on binocular vision
KR101184124B1 (en) Method and apparatus for measuring depth using opposed camera
Young et al. Monitoring gait events by image processing
KR102253350B1 (en) Optical tracking system and optical tracking method
JP6750193B2 (en) Walking cycle detection method and detection apparatus
Tsuruda et al. Markerless 3D Pose Estimation System for Mouse Musculoskeletal Model Using DeepLabCut and Multiple RGB-D Cameras

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190218

R150 Certificate of patent or registration of utility model

Ref document number: 6485964

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250