JPWO2019203190A1 - プログラム、情報処理装置、及び情報処理方法 - Google Patents
プログラム、情報処理装置、及び情報処理方法 Download PDFInfo
- Publication number
- JPWO2019203190A1 JPWO2019203190A1 JP2020514374A JP2020514374A JPWO2019203190A1 JP WO2019203190 A1 JPWO2019203190 A1 JP WO2019203190A1 JP 2020514374 A JP2020514374 A JP 2020514374A JP 2020514374 A JP2020514374 A JP 2020514374A JP WO2019203190 A1 JPWO2019203190 A1 JP WO2019203190A1
- Authority
- JP
- Japan
- Prior art keywords
- motion
- information
- sensor
- motions
- subjects
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 57
- 238000003672 processing method Methods 0.000 title claims abstract description 8
- 230000033001 locomotion Effects 0.000 claims abstract description 455
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 33
- 238000002156 mixing Methods 0.000 claims abstract description 30
- 238000000034 method Methods 0.000 claims description 224
- 230000001133 acceleration Effects 0.000 claims description 117
- 230000008569 process Effects 0.000 claims description 91
- 238000012937 correction Methods 0.000 claims description 62
- 238000012545 processing Methods 0.000 claims description 34
- 210000001624 hip Anatomy 0.000 claims description 10
- 210000003423 ankle Anatomy 0.000 claims description 5
- 230000007613 environmental effect Effects 0.000 claims description 5
- 210000000707 wrist Anatomy 0.000 claims description 5
- 238000006073 displacement reaction Methods 0.000 claims description 4
- 210000003128 head Anatomy 0.000 claims description 3
- 210000001503 joint Anatomy 0.000 claims description 2
- 238000010586 diagram Methods 0.000 abstract description 60
- 238000005516 engineering process Methods 0.000 abstract description 16
- 239000000203 mixture Substances 0.000 description 134
- 230000036544 posture Effects 0.000 description 106
- 238000004364 calculation method Methods 0.000 description 84
- 238000004891 communication Methods 0.000 description 44
- 230000006870 function Effects 0.000 description 41
- 230000004048 modification Effects 0.000 description 39
- 238000012986 modification Methods 0.000 description 39
- 210000000988 bone and bone Anatomy 0.000 description 24
- 235000003421 Plantago ovata Nutrition 0.000 description 19
- 238000003860 storage Methods 0.000 description 19
- 241001499733 Plantago asiatica Species 0.000 description 18
- 230000010354 integration Effects 0.000 description 14
- 238000001514 detection method Methods 0.000 description 13
- 239000003550 marker Substances 0.000 description 11
- 230000008859 change Effects 0.000 description 10
- 239000000126 substance Substances 0.000 description 9
- 238000013459 approach Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 8
- 230000005484 gravity Effects 0.000 description 8
- 230000007246 mechanism Effects 0.000 description 7
- 230000001360 synchronised effect Effects 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 6
- 239000009223 Psyllium Substances 0.000 description 5
- 229940070687 psyllium Drugs 0.000 description 5
- LFQSCWFLJHTTHZ-UHFFFAOYSA-N Ethanol Chemical compound CCO LFQSCWFLJHTTHZ-UHFFFAOYSA-N 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 3
- 230000009471 action Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000017531 blood circulation Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 2
- 102100038445 Claudin-2 Human genes 0.000 description 2
- 101000882901 Homo sapiens Claudin-2 Proteins 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 210000002683 foot Anatomy 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000001151 other effect Effects 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 238000007637 random forest analysis Methods 0.000 description 2
- 238000000611 regression analysis Methods 0.000 description 2
- 230000033764 rhythmic process Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 101100365087 Arabidopsis thaliana SCRA gene Proteins 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 241001499741 Plantago arenaria Species 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 210000003141 lower extremity Anatomy 0.000 description 1
- 206010025482 malaise Diseases 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000003183 myoelectrical effect Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000000241 respiratory effect Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000035900 sweating Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 210000001364 upper extremity Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1113—Local tracking of patients, e.g. in a hospital or private home
- A61B5/1114—Tracking parts of the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1121—Determining geometric values, e.g. centre of rotation or angular range of movement
- A61B5/1122—Determining geometric values, e.g. centre of rotation or angular range of movement of movement trajectories
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1126—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/742—Details of notification to user or communication with user or patient ; user input means using visual displays
- A61B5/744—Displaying an avatar, e.g. an animated cartoon character
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/428—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B21/00—Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2562/00—Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
- A61B2562/02—Details of sensors specially adapted for in-vivo measurements
- A61B2562/0219—Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
- A61B5/0205—Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
- A61B5/7267—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Heart & Thoracic Surgery (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Physiology (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Navigation (AREA)
- Processing Or Creating Images (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Length Measuring Devices With Unspecified Measuring Means (AREA)
- User Interface Of Digital Computer (AREA)
- Manipulator (AREA)
Abstract
Description
<<1.第1の実施形態の概要>>
<<2.本技術の原理>>
<<3.構成例>>
<<4.動作例>>
<<5.変形例>>
<<6.第2の実施形態の概要>>
<<7.ハードウェア構成例>>
<<8.むすび>>
人間や動物等の身体の動きの情報を可視化するため、例えば身体の構造を示すスケルトン構造により表現されるスケルトン情報が用いられる。スケルトン構造は、部位の情報と、部位間を結ぶ線分であるボーンを含む。なお、スケルトン構造における部位は、例えば身体の末端部位や関節部位等に対応する。また、スケルトン構造におけるボーンは例えば人間の骨に相当し得るが、ボーンの位置や数は必ずしも実際の人間の骨格と整合していなくてもよい。
<2−1.本実施形態のアプローチ>
既存のモーションキャプチャ技術として、順運動学(FK:Forward Kinematics)計算によりスケルトン情報を取得する技術が存在する。順運動学計算とは、各関節部位の姿勢に基づいて、末端部位の位置を計算する手法である。
まず、慣性航法に基づく位置推定処理について説明する。慣性航法は、角速度及び加速度を複数回積分(Integration)することでセンサ位置を計算する技術であり、例えば船舶又は航空機等に採用されている。図8は、慣性航法に基づく位置推定処理の概略を示す模式図である。
以上、本実施形態にかかる技術の原理について説明した。続いて、本実施形態の構成例について説明する。以下では、本実施形態の装置構成例、及び機能構成例を順次に説明する。
図14は、本実施形態にかかるシステムの装置構成の一例を示す図である。図14に示すように、本実施形態にかかるシステムは、センサ装置10A〜10F、ハブ装置20、情報処理装置30、及び出力装置40を含む。
以上、本実施形態にかかるシステムの装置構成例を説明した。続いて、本実施形態にかかるシステムの機能構成例について説明する。図15は、本実施形態にかかるシステムの機能構成の一例を示す図である。なお、図15には、主に本実施形態の特徴を示す機能構成のみを示しており、本実施形態にかかるシステムは図15に示されない機能構成を含んでもよい。
以上、本実施形態の装置構成例、及び機能構成例について説明した。続いて、本実施形態の動作例について説明する。図18は、本実施形態にかかるシステムの動作例を示すフローチャート図である。なお、図18には、主に本実施形態の特徴を示す処理のみを示しており、本実施形態にかかるシステムは図18に示されない処理を実行してもよい。
以上、本開示の一実施形態を説明した。以下では、本実施形態の幾つかの変形例を説明する。なお、以下に説明する各変形例は、単独で本実施形態に適用されてもよいし、組み合わせで本実施形態に適用されてもよい。また、各変形例は、本実施形態で説明した構成に代えて適用されてもよいし、本実施形態で説明した構成に対して追加的に適用されてもよい。
上記実施形態では、装着位置回帰推定部540が、グローバル運動加速度姿勢計算部510により計算されたグローバル座標系における装着部位の姿勢情報と、重力成分が除去されたグローバル座標系における加速度とに基づいて回帰推定処理を行う例を説明した。しかし、本技術はかかる例に限定されない。例えば、ジャイロセンサ12及び加速度センサ14により取得された角速度や加速度がかかる回帰推定処理への入力として用いられてもよい。かかる例について、第1の変形例として説明を行う。
続いて、第2の変形例として、補正部が信頼度の特定を行う例を説明する。図20は、本変形例にかかるシステムの機能構成例を示す図である。図20に示す構成のうち、図15に示した構成と実質的に同一の構成については、同一の符号を付してあるため、ここでの説明は省略し、図15に示したシステムと相違する点について以下では説明を行う。図20を参照すると、本変形例にかかるシステムは、信頼度特定部550と補正部570に代えて補正部572を含む点において図15に示したシステムと相違する。
続いて、第3の変形例として、非装着部位の位置推定(補間)処理の後に補正処理を行う例を説明する。図21は、本変形例にかかるシステムの機能構成例を示す図である。図21に示す構成のうち、図15に示した構成と実質的に同一の構成については、同一の符号を付してあるため、ここでの説明は省略し、図15に示したシステムと相違する点について以下では説明を行う。図21を参照すると、本変形例にかかるシステムは、信頼度特定部550、補正部570、及び補間部580に代えて補正部573、及び補間部583を含む点において図15に示したシステムと相違する。
上記実施形態では、装着位置回帰推定部540が、非トラッキング型運動モデルを用いた回帰推定を行う例を説明したが、トラッキング型運動モデルが用いられてもよい。以下、図22、図23を参照して、非トラッキング型運動モデルとトラッキング型運動モデルの概要について説明する。
上記実施形態では、図14を参照して装置構成例を説明したが、本技術はかかる例に限定されない。以下では第5の変形例として、ハブ装置20を備えないシステムの装置構成例を説明する。図25は、本変形例にかかるシステムの装置構成例を示す図である。
上記実施形態では、運動モデル、及び逆運動学モデルを用いて回帰推定を行う例を説明した。この回帰推定の推定結果は、運動モデル、及び逆運動学モデルを生成するための学習に用いられる運動制約情報に応じて大きく異なり得る。例えば特徴的な姿勢や動作をセンシングして得られた運動制約情報が、学習に用いられた場合、推定結果は実際の身体の動きよりも、学習に用いられた動きに近い特徴を有し易くなる。
<6−1.本実施形態の概要について>
ところで、上述した本開示の第1の実施形態に係るモーションキャプチャ技術は、ユーザ(動作主体、パフォーマ)に装着されるセンサ装置10の数の増加を抑えつつ、センサ装置の装着位置を高精度に得ることができる。さらに、当該モーションキャプチャ技術は、処理の負荷が小さいことから、複数のユーザのモーション(動作、姿勢)をリアルタイムでキャプチャすることに適しているといえる。
次に、第2の実施形態に係るシステム機能構成について、図27を参照して説明する。図27は、本実施形態に係るシステムの機能構成の一例を示す図である。なお、図27は、主に本実施形態の特徴を示す機能構成のみを示しており、本実施形態に係るシステムは図15に示される機能構成を含んでもよい。
以上、本実施形態に係る機能構成例について説明した。続いて、本実施形態の動作例(情報処理方法)について、図28及び図29を参照して説明する。図28は、本実施形態に係るシステムの動作例を示すフローチャート図である。なお、図28には、主に本実施形態の特徴を示す処理のみを示しており、本実施形態にかかるシステムは図28に示されない処理を実行してもよい。さらに、図29は、図28のステップS200での動作を説明するためのフローチャート図である。
以下に説明するブレンド率決定手法例1におけるブレンド率決定手法に係るアルゴリズムは、実空間上において予め設定された基準点からの各パフォーマまでの距離に応じて、各パフォーマの部位のモーションに付されたブレンド率αを動的に決定し、決定したブレンド率αに基づいて、各パフォーマの部位のモーションをブレンドする。このようなブレンド率決定手法例1の詳細を、図30から図32を参照して説明する。図30は、本実施形態に係るブレンド率決定手法例1の概要を説明するためのイメージ図である。図31及び図32は、本実施形態に係るブレンド率決定手法例1の動作を説明するためのイメージ図である。
例えば、本手法においては、図30に示すように、実空間上の舞台における基準点(例えば、舞台の中心点)Cを予め設定しておく。さらに、本手法においては、図31に示すように、実空間上の舞台における基準点Cからの最小距離d_minと最大距離d_maxを予め設定しておく。詳細には、最小距離d_minは、パフォーマの歩幅等を参照して設定することができ、例えば1m程度に設定することができる。また、最小距離d_maxは、舞台のサイズ等を参照して設定することができ、例えば10m程度に設定することができる。そして、本手法においては、図31に示すように、例えば、基準点Cからパフォーマまでの距離が最小距離d_minであった場合には、当該パフォーマのモーションに付される仮の単体ブレンド率α_tempを1と設定し、基準点Cからパフォーマまでの距離が最大距離d_maxであった場合には、当該パフォーマのモーションに付される仮の単体ブレンド率α_tempを0と設定してもよい。
例えば、本手法においては、全てのパフォーマについて、基準点Cからの距離d_nを取得する。なお、距離dの取得は、特に限定されるものではないが、上述したセンサ装置10、撮像装置、パフォーマに装着された測位センサ(例えば、センサ装置10に内蔵される)、舞台に設けられた圧力センサ等によって実施することができる。なお、上記測位センサは、例えば、GNSS(Global Navigation Satellite System)受信機等であることができる。この場合、測位センサは、GNSS衛星からの信号に基づいて、パフォーマの現在地の緯度・経度を示すセンシングデータを生成することができる。また、本手法においては、例えば、RFID(Radio Frequency Identification)、Wi−Fiのアクセスポイント、無線基地局の情報等からパフォーマの相対的な位置関係を検出することが可能なため、このような通信装置を上記測位センサとして利用することも可能である。
以下に説明するブレンド率決定手法例2におけるブレンド率決定手法に係るアルゴリズムは、実空間上における各パフォーマの部位の加速度、速度又は変位量に応じて、各パフォーマの部位のモーションに付されたブレンド率αを動的に決定し、決定したブレンド率αに基づいて、各パフォーマの部位のモーションをブレンドする。このようなブレンド率決定手法例2の詳細を、図33を参照して説明する。図33は、本実施形態に係るブレンド率決定手法例2の動作を説明するためのイメージ図である。
例えば、本手法においては、最小加速度f_minと最大加速度f_maxを予め設定しておく。そして、本手法においては、例えば、パフォーマの所定の部位の加速度fが最小加速度f_minであった場合には、当該パフォーマの部位のモーションに付される仮の単体ブレンド率α_tempを0と設定し、パフォーマの所定の部位の加速度fが最大加速度f_maxであった場合には、当該パフォーマの部位のモーションに付される仮の単体ブレンド率α_tempを1と設定してもよい。
例えば、本手法においては、全てのパフォーマの部位について加速度fを取得する。なお、加速度fの取得は、特に限定されるものではないが、上述したセンサ装置10等によって実施することができる。さらに、本手法においては、取得した加速度fに基づいて、図33に示すグラフを参照して、当該パフォーマのモーションに付される仮の単体ブレンド率α_temp_nを算出する。算出式は、例えば下記の数式(10)で示すことができる。なお、数式(10)においては、一人のパフォーマにおける17個の関節(0〜16)の加速度の最大値を、パフォーマの加速度fとしている。
以下に説明するブレンド率決定手法例3においては、舞台上のパフォーマではなく、パフォーマによるパフォーマンスを鑑賞するオーディエンスのモーションの同期性に応じて、ブレンド率を決定してもよい。すなわち、ブレンド率決定手法例3におけるブレンド率決定手法に係るアルゴリズムは、実空間上における各オーディエンスの間のモーションの同期性に応じて、二人のパフォーマの部位のモーションに付されたブレンド率αを動的に決定し、決定したブレンド率αに基づいて、各パフォーマの部位のモーションをブレンドする。このようなブレンド率決定手法例3の詳細を、図34を参照して説明する。図34は、本実施形態に係るブレンド率決定手法例3の概要を説明するためのイメージ図である。
以下に説明するブレンド率決定手法例4においても、舞台上のパフォーマではなく、パフォーマによるパフォーマンスを鑑賞するオーディエンスのモーションの同期性に応じて、ブレンド率を決定してもよい。なお、本手法においては、二人のパフォーマの部位のモーションをブレンドするのではなく、実空間上のパフォーマのモーションと、予め準備された人物等が動作を行うアニメーション(スペシャル ダンス アニメーション)とをブレンドする。このようなブレンド率決定手法例4の詳細を、図35から図38を参照して説明する。図35、図36及び図38は、本実施形態に係るブレンド率決定手法例4の動作を説明するためのイメージ図である。また、図37は、本実施形態に係るブレンド率決定手法例4の動作を説明するための表である。
以下に説明するブレンド率決定手法例5におけるブレンド率決定手法に係るアルゴリズムは、パフォーマの周囲の環境情報に応じて、各パフォーマの部位のモーションに付されたブレンド率αを動的に決定し、決定したブレンド率αに基づいて、各パフォーマの部位のモーションをブレンドする。このようなブレンド率決定手法例5の詳細を、図39を参照して説明する。図39は、本実施形態に係るブレンド率決定手法例5の動作を説明するためのイメージ図である。
以下に説明するブレンド率決定手法例6におけるブレンド率決定手法に係るアルゴリズムは、実空間上の各パフォーマの生体情報に応じて、各パフォーマの部位のモーションに付されたブレンド率αを動的に決定し、決定したブレンド率αに基づいて、各パフォーマの部位のモーションをブレンドする。このようなブレンド率決定手法例6の詳細を、図40を参照して説明する。図40は、本実施形態に係るブレンド率決定手法例6の動作を説明するためのイメージ図である。
先に説明したように、本実施形態においては、オペレータの操作により、最終ブレンド率αを動的に変化させてもよい。そこで、以下においては、最終ブレンド率αを動的に変化させるためのユーザインターフェス(UI)(所定の設定用画面)の各種の例について説明する。なお、本実施形態は、以下の説明するUI例に限定されるものではない。
次に、三人のパフォーマの部位のモーションに付されたブレンド率αを動的に変化させるUI例2を、図43を参照して説明する。図43は、本実施形態に係るUI例2を説明するためのイメージ図である。
らに、複数のパフォーマの部位のモーションに付されたブレンド率αを動的に変化させるUI例3を、図44を参照して説明する。図44は、本実施形態に係るUI例3を説明するためのイメージ図である。
以上、本開示の実施形態を説明した。最後に、図45を参照して、本開示の実施形態にかかる情報処理装置のハードウェア構成について説明する。図45は、本開示の実施形態にかかる情報処理装置のハードウェア構成の一例を示すブロック図である。なお、図45に示す情報処理装置900は、例えば、図14に示したセンサ装置10、ハブ装置20、及び情報処理装置30を実現し得る。本開示の実施形態にかかるセンサ装置10、ハブ装置20、及び情報処理装置30による情報処理は、ソフトウェアと、以下に説明するハードウェアとの協働により実現される。
以上説明したように、本開示の実施形態によれば、モーションセンサが装着された身体の部位の位置情報をより高精度に得ることが可能である。さらに、本開示の実施形態によれば、モーションセンサが装着されていない部位の位置情報、及び姿勢情報をも得ることが可能であるため、より少ないモーションセンサを用いて、スケルトン情報を得ることが可能である。
(1)
仮想空間におけるアバター又は実空間上のロボットのモーションを動的に制御する制御機能を、コンピュータに実現させるためのプログラムであって、
前記制御機能は、
前記実空間上の複数の動作主体に装着されたモーションセンサのそれぞれから当該各動作主体のモーションをキャプチャし、
前記複数の動作主体のモーションを所定のアルゴリズムに基づいてブレンドし、
前記アバター又は前記ロボットが前記複数の動作主体のモーションが反映されたモーションを行うように、ブレンド結果に基づいて、前記アバター又は前記ロボットのモーションを動的に制御する、
プログラム。
(2)
前記制御機能は、
前記各動作主体に装着された前記モーションセンサから前記各動作主体の少なくとも1つの部位に相当するモーションをキャプチャし、
前記複数の動作主体の前記部位のモーションを前記所定のアルゴリズムに基づいてブレンドし、
前記ブレンド結果に基づいて、前記アバター又は前記ロボットのモーションを動的に制御する、
上記(1)に記載のプログラム。
(3)
前記部位は、前記動作主体の身体の一部である、上記(2)に記載のプログラム。
(4)
前記身体の一部は、上半身、下半身、頭部、関節、腰、手首、足首のうちの少なくとも1つを含む、上記(3)に記載のプログラム。
(5)
前記動作主体は、パフォーマ、オーディエンスのうちの少なくとも一人を含む、上記(1)〜(4)のいずれか1つに記載のプログラム。
(6)
前記所定のアルゴリズムは、
予め前記各動作主体に付された重みづけに基づいて、前記複数の動作主体のモーションをブレンドする、
上記(2)に記載のプログラム。
(7)
前記所定のアルゴリズムは、
前記実空間上において予め設定された基準点からの前記各動作主体までの距離に応じて前記各動作主体に動的に付された重みづけに基づいて、前記複数の動作主体のモーションをブレンドする、
上記(1)〜(5)のいずれか1つに記載のプログラム。
(8)
前記所定のアルゴリズムは、
前記実空間上における前記各動作主体の加速度、速度又は変位量に応じて前記各動作主体に動的に付された重みづけに基づいて、前記複数の動作主体のモーションをブレンドする、
上記(1)〜(5)のいずれか1つに記載のプログラム。
(9)
前記所定のアルゴリズムは、
前記実空間上における前記各動作主体の間の動作の同期性の度合いに応じて前記各動作主体に動的に付された重みづけに基づいて、前記複数の動作主体のモーションをブレンドする、
上記(1)〜(5)のいずれか1つに記載のプログラム。
(10)
前記所定のアルゴリズムは、
前記各動作主体の生体情報に応じて前記各動作主体に動的に付された重みづけに基づいて、前記複数の動作主体のモーションをブレンドする、
上記(1)〜(5)のいずれか1つに記載のプログラム。
(11)
前記所定のアルゴリズムは、
前記各動作主体の周囲の環境情報に応じて前記各動作主体に動的に付された重みづけに基づいて、前記複数の動作主体のモーションをブレンドする、
上記(1)〜(5)のいずれか1つに記載のプログラム。
(12)
前記重みづけは、オペレータが所定の設定用画面を操作することにより予め設定される、上記(6)に記載のプログラム。
(13)
前記オペレータが、前記設定用画面における、第1の前記動作主体の第1の部位と第2の前記動作主体の第2の部位とを結ぶ線分上のカーソルを移動させる操作を行うことにより、前記重みづけは設定される、上記(12)に記載のプログラム。
(14)
前記オペレータが、前記設定用画面における、前記各動作主体の所定の前記部位を結ぶ多角形内のカーソルを移動させる操作を行うことにより、前記重みづけは設定される、上記(12)に記載のプログラム。
(15)
前記各動作主体のモーションをキャプチャする際に、前記各動作主体の2箇所以上の前記部位に装着された2以上の前記モーションセンサにより取得されたセンサデータに対して第1の処理を施して得られた第1の出力と、前記センサデータに対して第2の処理を施して得られた第2の出力とを参照して、前記モーションセンサが装着された前記部位の位置情報の補正を行う補正機能を、前記コンピュータに実現させる、
上記(2)に記載のプログラム。
(16)
仮想空間におけるアバター又は実空間上のロボットのモーションを動的に制御する制御部を備え、
前記制御部は、
前記実空間上の複数の動作主体に装着されたモーションセンサのそれぞれから当該各動作主体のモーションをキャプチャし、
前記複数の動作主体のモーションを所定のアルゴリズムに基づいてブレンドし、
前記アバター又は前記ロボットが前記複数の動作主体のモーションが反映されたモーションを行うように、ブレンド結果に基づいて、前記アバター又は前記ロボットのモーションを動的に制御する、
情報処理装置。
(17)
実空間上の複数の動作主体に装着されたモーションセンサのそれぞれから当該各動作主体のモーションをキャプチャすることと、
前記複数の動作主体のモーションを所定のアルゴリズムに基づいてブレンドすることと、
仮想空間におけるアバター又は実空間上のロボットが前記複数の動作主体のモーションが反映されたモーションを行うように、ブレンド結果に基づいて、前記アバター又は前記ロボットのモーションを動的に制御することと、を含む情報処理方法。
12 ジャイロセンサ
14 加速度センサ
16 制御部
18、32 通信部
20 ハブ装置
22 通信部
24、34 制御部
30 情報処理装置
40 出力装置
500a、500b サイリウム
510 グローバル運動加速度姿勢計算部
520 積分計算部
530 選択部
540、541、544 装着位置回帰推定部
550 信頼度特定部
560 接地検出部
570、572、573、574 補正部
580、583 補間部
610 情報取得部
620 ブレンド率決定部
630 ブレンド部
640 動作制御部
800、810、820、830 画面
802、822、832 マーカ
804、824、834 カーソル
900 情報処理装置
901 CPU
902 ROM
903 RAM
904 ブリッジ
904a ホストバス
904b 外部バス
905 インタフェース
906 入力装置
908 ストレージ装置
909 ドライブ
911 接続ポート
913 通信装置
915 センサ
920 ネットワーク
Claims (17)
- 仮想空間におけるアバター又は実空間上のロボットのモーションを動的に制御する制御機能を、コンピュータに実現させるためのプログラムであって、
前記制御機能は、
前記実空間上の複数の動作主体に装着されたモーションセンサのそれぞれから当該各動作主体のモーションをキャプチャし、
前記複数の動作主体のモーションを所定のアルゴリズムに基づいてブレンドし、
前記アバター又は前記ロボットが前記複数の動作主体のモーションが反映されたモーションを行うように、ブレンド結果に基づいて、前記アバター又は前記ロボットのモーションを動的に制御する、
プログラム。 - 前記制御機能は、
前記各動作主体に装着された前記モーションセンサから前記各動作主体の少なくとも1つの部位に相当するモーションをキャプチャし、
前記複数の動作主体の前記部位のモーションを前記所定のアルゴリズムに基づいてブレンドし、
前記ブレンド結果に基づいて、前記アバター又は前記ロボットのモーションを動的に制御する、
請求項1に記載のプログラム。 - 前記部位は、前記動作主体の身体の一部である、請求項2に記載のプログラム。
- 前記身体の一部は、上半身、下半身、頭部、関節、腰、手首、足首のうちの少なくとも1つを含む、請求項3に記載のプログラム。
- 前記動作主体は、パフォーマ、オーディエンスのうちの少なくとも一人を含む、請求項1に記載のプログラム。
- 前記所定のアルゴリズムは、
予め前記各動作主体に付された重みづけに基づいて、前記複数の動作主体のモーションをブレンドする、
請求項2に記載のプログラム。 - 前記所定のアルゴリズムは、
前記実空間上において予め設定された基準点からの前記各動作主体までの距離に応じて前記各動作主体に動的に付された重みづけに基づいて、前記複数の動作主体のモーションをブレンドする、
請求項1に記載のプログラム。 - 前記所定のアルゴリズムは、
前記実空間上における前記各動作主体の加速度、速度又は変位量に応じて前記各動作主体に動的に付された重みづけに基づいて、前記複数の動作主体のモーションをブレンドする、
請求項1に記載のプログラム。 - 前記所定のアルゴリズムは、
前記実空間上における前記各動作主体の間の動作の同期性の度合いに応じて前記各動作主体に動的に付された重みづけに基づいて、前記複数の動作主体のモーションをブレンドする、
請求項1に記載のプログラム。 - 前記所定のアルゴリズムは、
前記各動作主体の生体情報に応じて前記各動作主体に動的に付された重みづけに基づいて、前記複数の動作主体のモーションをブレンドする、
請求項1に記載のプログラム。 - 前記所定のアルゴリズムは、
前記各動作主体の周囲の環境情報に応じて前記各動作主体に動的に付された重みづけに基づいて、前記複数の動作主体のモーションをブレンドする、
請求項1に記載のプログラム。 - 前記重みづけは、オペレータが所定の設定用画面を操作することにより予め設定される、請求項6に記載のプログラム。
- 前記オペレータが、前記設定用画面における、第1の前記動作主体の第1の部位と第2の前記動作主体の第2の部位とを結ぶ線分上のカーソルを移動させる操作を行うことにより、前記重みづけは設定される、請求項12に記載のプログラム。
- 前記オペレータが、前記設定用画面における、前記各動作主体の所定の前記部位を結ぶ多角形内のカーソルを移動させる操作を行うことにより、前記重みづけは設定される、請求項12に記載のプログラム。
- 前記各動作主体のモーションをキャプチャする際に、前記各動作主体の2箇所以上の前記部位に装着された2以上の前記モーションセンサにより取得されたセンサデータに対して第1の処理を施して得られた第1の出力と、前記センサデータに対して第2の処理を施して得られた第2の出力とを参照して、前記モーションセンサが装着された前記部位の位置情報の補正を行う補正機能を、前記コンピュータに実現させる、
請求項2に記載のプログラム。 - 仮想空間におけるアバター又は実空間上のロボットのモーションを動的に制御する制御部を備え、
前記制御部は、
前記実空間上の複数の動作主体に装着されたモーションセンサのそれぞれから当該各動作主体のモーションをキャプチャし、
前記複数の動作主体のモーションを所定のアルゴリズムに基づいてブレンドし、
前記アバター又は前記ロボットが前記複数の動作主体のモーションが反映されたモーションを行うように、ブレンド結果に基づいて、前記アバター又は前記ロボットのモーションを動的に制御する、
情報処理装置。 - 実空間上の複数の動作主体に装着されたモーションセンサのそれぞれから当該各動作主体のモーションをキャプチャすることと、
前記複数の動作主体のモーションを所定のアルゴリズムに基づいてブレンドすることと、
仮想空間におけるアバター又は実空間上のロボットが前記複数の動作主体のモーションが反映されたモーションを行うように、ブレンド結果に基づいて、前記アバター又は前記ロボットのモーションを動的に制御することと、を含む情報処理方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018079335 | 2018-04-17 | ||
JP2018079335 | 2018-04-17 | ||
PCT/JP2019/016152 WO2019203190A1 (ja) | 2018-04-17 | 2019-04-15 | プログラム、情報処理装置、及び情報処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019203190A1 true JPWO2019203190A1 (ja) | 2021-07-08 |
JP7318641B2 JP7318641B2 (ja) | 2023-08-01 |
Family
ID=68239152
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020514374A Active JP7318641B2 (ja) | 2018-04-17 | 2019-04-15 | プログラム、情報処理装置、及び情報処理方法 |
JP2020514372A Active JP7176563B2 (ja) | 2018-04-17 | 2019-04-15 | プログラム、情報処理装置、及び情報処理方法 |
JP2022179946A Active JP7396438B2 (ja) | 2018-04-17 | 2022-11-10 | プログラム、情報処理装置、及び情報処理方法 |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020514372A Active JP7176563B2 (ja) | 2018-04-17 | 2019-04-15 | プログラム、情報処理装置、及び情報処理方法 |
JP2022179946A Active JP7396438B2 (ja) | 2018-04-17 | 2022-11-10 | プログラム、情報処理装置、及び情報処理方法 |
Country Status (5)
Country | Link |
---|---|
US (3) | US11675418B2 (ja) |
EP (2) | EP3782549A4 (ja) |
JP (3) | JP7318641B2 (ja) |
CN (2) | CN111954491A (ja) |
WO (3) | WO2019203188A1 (ja) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6745301B2 (ja) * | 2018-07-25 | 2020-08-26 | 株式会社バーチャルキャスト | コンテンツ配信システム、コンテンツ配信方法、コンピュータプログラム |
JP7198730B2 (ja) * | 2019-07-05 | 2023-01-04 | 株式会社日立製作所 | センサデータ補正システム |
CN113050616A (zh) * | 2019-12-27 | 2021-06-29 | 深圳市优必选科技股份有限公司 | 一种双足机器人行走的控制方法及双足机器人 |
WO2021138577A1 (en) * | 2019-12-31 | 2021-07-08 | Human Mode, LLC | Proxy controller suit with optional dual range kinematics |
JP7335199B2 (ja) | 2020-04-30 | 2023-08-29 | 本田技研工業株式会社 | 解析装置、解析方法、プログラム、および較正方法 |
CN111896221B (zh) * | 2020-07-30 | 2021-08-17 | 四川大学 | 虚拟坐标系辅助摄像机标定的旋转光学测量系统对准方法 |
CN112754472B (zh) * | 2021-01-05 | 2021-09-21 | 北京诺亦腾科技有限公司 | 一种动作捕捉系统中传感器的校准方法及装置 |
JPWO2022168428A1 (ja) | 2021-02-02 | 2022-08-11 | ||
CN112734946B (zh) * | 2021-03-31 | 2021-07-30 | 南京航空航天大学 | 一种声乐表演教学方法及系统 |
WO2022215313A1 (ja) | 2021-04-08 | 2022-10-13 | ソニーグループ株式会社 | 情報処理方法、情報処理装置およびプログラム |
WO2022250099A1 (ja) * | 2021-05-28 | 2022-12-01 | 京セラ株式会社 | 情報処理装置、電子機器、情報処理システム、情報処理方法及びプログラム |
WO2022269985A1 (ja) * | 2021-06-22 | 2022-12-29 | ソニーグループ株式会社 | 情報処理装置、および情報処理方法、並びにプログラム |
US20230062315A1 (en) * | 2021-08-30 | 2023-03-02 | Msg Entertainment Group, Llc | Live venue performance sensor capture and visualization over game network |
WO2023106382A1 (ja) * | 2021-12-10 | 2023-06-15 | 京セラ株式会社 | 情報処理装置、電子機器、情報処理システム、情報処理方法及びプログラム |
FR3136645A1 (fr) * | 2022-06-20 | 2023-12-22 | Ynnov | Dispositif de génération d’une séquence d'images représentant une suite continue d’éléments osseux en mouvement |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015184689A (ja) * | 2014-03-20 | 2015-10-22 | 株式会社Mugenup | 動画生成装置及びプログラム |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6088042A (en) * | 1997-03-31 | 2000-07-11 | Katrix, Inc. | Interactive motion data animation system |
AU2002230578A1 (en) * | 2000-10-30 | 2002-05-15 | Naval Postgraduate School | Method and apparatus for motion tracking of an articulated rigid body |
JP2003259214A (ja) | 2002-03-01 | 2003-09-12 | Univ Waseda | 画像合成システム及び画像取得システム |
JP2004264060A (ja) * | 2003-02-14 | 2004-09-24 | Akebono Brake Ind Co Ltd | 姿勢の検出装置における誤差補正方法及びそれを利用した動作計測装置 |
JP2006177749A (ja) | 2004-12-22 | 2006-07-06 | Ritsumeikan | 周期運動体の移動軌跡算出方法及び装置 |
JP2007072194A (ja) | 2005-09-07 | 2007-03-22 | Xing Inc | 人型映像制御装置 |
US9159151B2 (en) * | 2009-07-13 | 2015-10-13 | Microsoft Technology Licensing, Llc | Bringing a visual representation to life via learned input from the user |
US8933884B2 (en) * | 2010-01-15 | 2015-01-13 | Microsoft Corporation | Tracking groups of users in motion capture system |
US8437506B2 (en) * | 2010-09-07 | 2013-05-07 | Microsoft Corporation | System for fast, probabilistic skeletal tracking |
JP5915148B2 (ja) | 2011-12-16 | 2016-05-11 | セイコーエプソン株式会社 | 運動解析方法及び運動解析装置 |
KR101327995B1 (ko) * | 2012-04-12 | 2013-11-13 | 동국대학교 산학협력단 | 디지털 캐릭터를 이용한 무대 공연을 처리하는 장치 및 방법 |
US8867786B2 (en) * | 2012-10-31 | 2014-10-21 | Microsoft Corporation | Scenario-specific body-part tracking |
CN103135765A (zh) * | 2013-02-20 | 2013-06-05 | 兰州交通大学 | 一种基于微机械传感器的人体动作信息捕捉系统 |
US9381426B1 (en) * | 2013-03-15 | 2016-07-05 | University Of Central Florida Research Foundation, Inc. | Semi-automated digital puppetry control |
US20160262685A1 (en) | 2013-11-12 | 2016-09-15 | Highland Instruments, Inc. | Motion analysis systemsand methods of use thereof |
US10415975B2 (en) | 2014-01-09 | 2019-09-17 | Xsens Holding B.V. | Motion tracking with reduced on-body sensors set |
JP6288706B2 (ja) * | 2014-03-26 | 2018-03-07 | 本田技研工業株式会社 | 上体運動計測システム及び上体運動計測方法 |
EP3194890B1 (en) * | 2014-09-21 | 2020-02-26 | Athlete Architect LLC | Methods and apparatus for power expenditure and technique determination during bipedal motion |
JP6583605B2 (ja) * | 2014-12-12 | 2019-10-02 | カシオ計算機株式会社 | 運動情報生成装置及び運動情報生成方法、運動情報生成プログラム |
JPWO2016098457A1 (ja) * | 2014-12-17 | 2017-09-28 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
US10212325B2 (en) * | 2015-02-17 | 2019-02-19 | Alpinereplay, Inc. | Systems and methods to control camera operations |
JP6660110B2 (ja) * | 2015-07-23 | 2020-03-04 | 原田電子工業株式会社 | 歩行解析方法および歩行解析システム |
US10976343B2 (en) | 2015-09-09 | 2021-04-13 | Sony Corporation | Sensor device, sensor system, and information processing device |
WO2017217050A1 (ja) | 2016-06-16 | 2017-12-21 | ソニー株式会社 | 情報処理装置、情報処理方法及び記憶媒体 |
US10573065B2 (en) | 2016-07-29 | 2020-02-25 | Activision Publishing, Inc. | Systems and methods for automating the personalization of blendshape rigs based on performance capture data |
JP6827472B2 (ja) | 2016-09-16 | 2021-02-10 | アルプスアルパイン株式会社 | 移動測定装置 |
-
2019
- 2019-04-15 EP EP19788605.4A patent/EP3782549A4/en active Pending
- 2019-04-15 CN CN201980025041.7A patent/CN111954491A/zh active Pending
- 2019-04-15 CN CN201980024909.1A patent/CN111954490A/zh active Pending
- 2019-04-15 WO PCT/JP2019/016150 patent/WO2019203188A1/ja unknown
- 2019-04-15 JP JP2020514374A patent/JP7318641B2/ja active Active
- 2019-04-15 WO PCT/JP2019/016151 patent/WO2019203189A1/ja active Application Filing
- 2019-04-15 JP JP2020514372A patent/JP7176563B2/ja active Active
- 2019-04-15 US US17/045,360 patent/US11675418B2/en active Active
- 2019-04-15 US US17/045,024 patent/US11726549B2/en active Active
- 2019-04-15 EP EP19788094.1A patent/EP3782548A4/en active Pending
- 2019-04-15 WO PCT/JP2019/016152 patent/WO2019203190A1/ja unknown
-
2022
- 2022-11-10 JP JP2022179946A patent/JP7396438B2/ja active Active
-
2023
- 2023-06-20 US US18/211,883 patent/US20230333630A1/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015184689A (ja) * | 2014-03-20 | 2015-10-22 | 株式会社Mugenup | 動画生成装置及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP7396438B2 (ja) | 2023-12-12 |
EP3782548A4 (en) | 2021-06-16 |
JP2023016825A (ja) | 2023-02-02 |
WO2019203189A1 (ja) | 2019-10-24 |
US20210166479A1 (en) | 2021-06-03 |
EP3782548A1 (en) | 2021-02-24 |
US20210141443A1 (en) | 2021-05-13 |
EP3782549A4 (en) | 2021-11-10 |
JPWO2019203188A1 (ja) | 2021-07-15 |
US11726549B2 (en) | 2023-08-15 |
WO2019203188A1 (ja) | 2019-10-24 |
WO2019203190A1 (ja) | 2019-10-24 |
US20230333630A1 (en) | 2023-10-19 |
EP3782549A1 (en) | 2021-02-24 |
JP7176563B2 (ja) | 2022-11-22 |
JP7318641B2 (ja) | 2023-08-01 |
CN111954490A (zh) | 2020-11-17 |
CN111954491A (zh) | 2020-11-17 |
US11675418B2 (en) | 2023-06-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7318641B2 (ja) | プログラム、情報処理装置、及び情報処理方法 | |
JP6973388B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
CN105807931B (zh) | 一种虚拟现实的实现方法 | |
CN105824416B (zh) | 一种将虚拟现实技术与云服务技术结合的方法 | |
CN105608746B (zh) | 一种将现实进行虚拟实现的方法 | |
KR102065687B1 (ko) | 무선 손목 컴퓨팅과 3d 영상화, 매핑, 네트워킹 및 인터페이스를 위한 제어 장치 및 방법 | |
US20090046056A1 (en) | Human motion tracking device | |
JP2022529245A (ja) | 電磁追跡のためのセンサ融合 | |
CN115335796A (zh) | 基于人员手势确定地理位置 | |
EP3889737A1 (en) | Information processing device, information processing method, and program | |
WO2020090223A1 (ja) | 情報処理装置、情報処理方法及び記録媒体 | |
WO2019087502A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
Xiang et al. | Comparing real-time human motion capture system using inertial sensors with microsoft kinect | |
WO2021157691A1 (ja) | 情報処理装置、情報処理方法及び情報処理プログラム | |
CN109716395A (zh) | 在虚拟现实中保持对象稳定性 | |
WO2022215313A1 (ja) | 情報処理方法、情報処理装置およびプログラム | |
WO2023236353A1 (zh) | 人体全身姿态的确定方法、其确定装置以及智能鞋 | |
WO2022201922A1 (ja) | 情報処理装置、情報処理方法及び情報処理システム | |
JP2023123398A (ja) | アバター実現方法、コンピュータプログラム及びコンピューティング装置 | |
WO2017056661A1 (ja) | センシングシステム、センサ装置、及びセンサ取付具 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AA64 | Notification of invalidation of claim of internal priority (with term) |
Free format text: JAPANESE INTERMEDIATE CODE: A241764 Effective date: 20210202 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210222 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230418 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230607 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230620 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230703 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7318641 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |