JP7420218B2 - 演奏方法 - Google Patents
演奏方法 Download PDFInfo
- Publication number
- JP7420218B2 JP7420218B2 JP2022508666A JP2022508666A JP7420218B2 JP 7420218 B2 JP7420218 B2 JP 7420218B2 JP 2022508666 A JP2022508666 A JP 2022508666A JP 2022508666 A JP2022508666 A JP 2022508666A JP 7420218 B2 JP7420218 B2 JP 7420218B2
- Authority
- JP
- Japan
- Prior art keywords
- positional relationship
- feature points
- person
- feature point
- point set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 claims description 47
- 238000000034 method Methods 0.000 claims description 29
- 238000010586 diagram Methods 0.000 description 28
- 210000000707 wrist Anatomy 0.000 description 11
- 230000010365 information processing Effects 0.000 description 10
- 239000000284 extract Substances 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 230000001815 facial effect Effects 0.000 description 3
- 210000004247 hand Anatomy 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 230000001771 impaired effect Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 210000001331 nose Anatomy 0.000 description 2
- 101100440934 Candida albicans (strain SC5314 / ATCC MYA-2876) CPH1 gene Proteins 0.000 description 1
- 101100273252 Candida parapsilosis SAPP1 gene Proteins 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 210000003423 ankle Anatomy 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 210000001513 elbow Anatomy 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 210000001624 hip Anatomy 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 210000004197 pelvis Anatomy 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 210000002832 shoulder Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/395—Special musical scales, i.e. other than the 12- interval equally tempered scale; Special input devices therefor
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/155—User input interfaces for electrophonic musical instruments
- G10H2220/201—User input interfaces for electrophonic musical instruments for movement interpretation, i.e. capturing and recognizing a gesture or a specific kind of movement, e.g. to control a musical instrument
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/155—User input interfaces for electrophonic musical instruments
- G10H2220/401—3D sensing, i.e. three-dimensional (x, y, z) position or movement sensing.
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/155—User input interfaces for electrophonic musical instruments
- G10H2220/441—Image sensing, i.e. capturing images or optical patterns for musical purposes or musical control purposes
- G10H2220/455—Camera input, e.g. analyzing pictures from a video camera and using the analysis results as control data
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Description
人物を撮影した撮影画像から、人物の複数の特徴点を取得し、
複数の前記特徴点の組み合わせからなる特徴点セットにおける前記特徴点間の位置関係を検出し、
検出した前記位置関係に基づいて特定される音を出力する、
という構成をとる。
人物を撮影した撮影画像から、人物の複数の特徴点を取得する取得手段と、
複数の前記特徴点の組み合わせからなる特徴点セットにおける前記特徴点間の位置関係を検出する検出手段と、
検出した前記位置関係に基づいて特定される音を出力する出力手段と、
を備えた、
という構成をとる。
情報処理装置に、
人物を撮影した撮影画像から、人物の複数の特徴点を取得する取得手段と、
複数の前記特徴点の組み合わせからなる特徴点セットにおける前記特徴点間の位置関係を検出する検出手段と、
検出した前記位置関係に基づいて特定される音を出力する出力手段と、
を実現させる、
という構成をとる。
本発明の第1の実施形態を、図1乃至図11を参照して説明する。図1乃至図2は、演奏システム及び演奏装置の構成を説明するための図であり、図3乃至図11は、演奏装置の処理動作を説明するための図である。
本実施形態における演奏システムは、ユーザUが実際に楽器を演奏することなく、音を出力することをできるようにするためのシステムである。演奏システムは、例えば、イベント会場に設置されており、イベントに参加しているユーザUが所定の動作を行うことで、楽器を演奏することなく、音を出力するよう作動する。但し、演奏システムは、いかなる場所に設置されていてもよく、ユーザUはいかなる人物であってもよい。例えば、演奏システムは、対象とするユーザUを、子供やお年寄り、身障者としてもよく、ダンス教室、体操教室、リハビリ施設などのいかなる施設に設置されていてもよい。つまり、演奏システムは、ユーザUが単に演奏を行うことを目的とするだけでなく、後述するように、身体を動かすことを目的とするために用いられてもよい。
次に、上述した演奏装置10の動作を、主に図9のフローチャートを参照して説明する。まず、演奏装置10は、カメラ1にて撮影された撮影画像を取得する(ステップS1)。このとき、演奏装置10は、カメラ1にて撮影された撮影画像を、そのままディスプレイ2に表示するよう出力してもよい。また、演奏装置10は、事前に、音源データの音をスピーカ3から出力したり、特徴点セットの位置関係の見本情報をディスプレイ2に表示するよう出力してもよい。これにより、ユーザUは、ディスプレイ2に映る自身の映像や、事前に出力された音、また、特徴点セットの位置関係の見本情報を参照して、音を出力する姿勢をとるよう動作することができる。
次に、本実施形態における演奏装置10の変形例を説明する。上記では、演奏装置10は、ユーザUの特徴点セットの位置関係に基づいて出力する音を特定していたが、ユーザU自身の情報にも基づいて出力する音を特定してもよい。このため、演奏装置10は、以下のような構成であってもよい。
次に、本発明の第2の実施形態を、図12乃至図14を参照して説明する。図12乃至図13は、実施形態2における演奏装置の構成を示すブロック図であり、図14は、演奏装置の動作を示すフローチャートである。なお、本実施形態では、上述した実施形態で説明した演奏装置及び演奏方法の構成の概略を示している。
・CPU(Central Processing Unit)101(演算装置)
・ROM(Read Only Memory)102(記憶装置)
・RAM(Random Access Memory)103(記憶装置)
・RAM103にロードされるプログラム群104
・プログラム群104を格納する記憶装置105
・情報処理装置外部の記憶媒体110の読み書きを行うドライブ装置106
・情報処理装置外部の通信ネットワーク111と接続する通信インタフェース107
・データの入出力を行う入出力インタフェース108
・各構成要素を接続するバス109
人物を撮影した撮影画像から、人物の複数の特徴点を取得し(ステップS11)、
複数の前記特徴点の組み合わせからなる特徴点セットにおける前記特徴点間の位置関係を検出し(ステップS12)、
検出した前記位置関係に基づいて特定される音を出力する(ステップS13)、
という処理を実行する。
上記実施形態の一部又は全部は、以下の付記のようにも記載されうる。以下、本発明における演奏方法、演奏装置、プログラムの構成の概略を説明する。但し、本発明は、以下の構成に限定されない。
(付記1)
人物を撮影した撮影画像から、人物の複数の特徴点を取得し、
複数の前記特徴点の組み合わせからなる特徴点セットにおける前記特徴点間の位置関係を検出し、
検出した前記位置関係に基づいて特定される音を出力する、
演奏方法。
(付記2)
付記1に記載の演奏方法であって、
前記特徴点セットを構成する複数の前記特徴点を予め設定された基準に従って結んだ形状に基づいて前記位置関係を検出する、
演奏方法。
(付記3)
付記1又は2に記載の演奏方法であって、
人物の関節位置を少なくとも1つの前記特徴点として取得する、
演奏方法。
(付記4)
付記1乃至3のいずれかに記載の演奏方法であって、
人物の3点以上の前記特徴点を取得し、
3点以上の前記特徴点の組み合わせからなる前記特徴点セットにおける前記特徴点間の前記位置関係を検出する、
演奏方法。
(付記5)
付記1乃至4のいずれかに記載の演奏方法であって、
複数の前記特徴点セットのそれぞれについて前記位置関係を検出し、
複数の前記特徴点セットからそれぞれ検出した前記位置関係に基づいて特定される音を出力する、
演奏方法。
(付記6)
付記5に記載の演奏方法であって、
複数の前記特徴点セットからそれぞれ検出した前記位置関係の組み合わせに基づいて特定される音を出力する、
演奏方法。
(付記7)
付記1乃至6のいずれかに記載の演奏方法であって、
前記撮影画像に映る人物と、当該人物から検出した前記位置関係と、に基づいて特定される音を出力する、
演奏方法。
(付記8)
付記7に記載の演奏方法であって、
前記撮影画像に映る人物の属性と、当該人物から検出した前記位置関係と、に基づいて特定される音を出力する、
演奏方法。
(付記9)
付記7又は8に記載の演奏方法であって、
前記撮影画像から複数の人物を抽出すると共に、人物ごとにそれぞれ複数の前記特徴点を取得し、
人物ごとに前記位置関係を検出し、
人物ごとに検出した前記位置関係に基づいて特定される音を出力する、
演奏方法。
(付記10)
付記9に記載の演奏方法であって、
人物ごとに異なる楽器の音を出力する、
演奏方法。
(付記11)
付記1乃至10のいずれかに記載の演奏方法であって、
前記撮影画像に、当該撮影画像から取得された人物から検出された前記位置関係を表す情報を付加して表示装置に出力する、
演奏方法。
(付記12)
付記1乃至11のいずれかに記載の演奏方法であって、
前記位置関係の見本を表す予め記憶された画像情報を表示装置に出力する、
演奏方法。
(付記13)
人物を撮影した撮影画像から、人物の複数の特徴点を取得する取得手段と、
複数の前記特徴点の組み合わせからなる特徴点セットにおける前記特徴点間の位置関係を検出する検出手段と、
検出した前記位置関係に基づいて特定される音を出力する出力手段と、
を備えた演奏装置。
(付記14)
付記13に記載の演奏装置であって、
前記検出手段は、前記特徴点セットを構成する複数の前記特徴点を予め設定された基準に従って結んだ形状に基づいて前記位置関係を検出する、
演奏装置。
(付記15)
付記13又は14に記載の演奏装置であって、
前記取得手段は、人物の関節位置を少なくとも1つの前記特徴点として取得する、
演奏装置。
(付記16)
付記13乃至15のいずれかに記載の演奏装置であって、
前記取得手段は、人物の3点以上の前記特徴点を取得し、
前記検出手段は、3点以上の前記特徴点の組み合わせからなる前記特徴点セットにおける前記特徴点間の前記位置関係を検出する、
演奏装置。
(付記17)
付記13乃至16のいずれかに記載の演奏装置であって、
前記検出手段は、複数の前記特徴点セットのそれぞれについて前記位置関係を検出し、
前記出力手段は、複数の前記特徴点セットからそれぞれ検出した前記位置関係に基づいて特定される音を出力する、
演奏装置。
(付記18)
付記17に記載の演奏装置であって、
前記出力手段は、複数の前記特徴点セットからそれぞれ検出した前記位置関係の組み合わせに基づいて特定される音を出力する、
演奏装置。
(付記19)
付記13乃至18のいずれかに記載の演奏装置であって、
前記出力手段は、前記撮影画像に映る人物と、当該人物から検出した前記位置関係と、に基づいて特定される音を出力する、
演奏装置。
(付記20)
付記19に記載の演奏装置であって、
前記出力手段は、前記撮影画像に映る人物の属性と、当該人物から検出した前記位置関係と、に基づいて特定される音を出力する、
演奏装置。
(付記21)
付記19又は20に記載の演奏装置であって、
前記取得手段は、前記撮影画像から複数の人物を抽出すると共に、人物ごとにそれぞれ複数の前記特徴点を取得し、
前記検出手段は、人物ごとに前記位置関係を検出し、
前記出力手段は、人物ごとに検出した前記位置関係に基づいて特定される音を出力する、
演奏装置。
(付記22)
付記21に記載の演奏装置であって、
前記出力手段は、人物ごとに異なる楽器の音を出力する、
演奏装置。
(付記23)
付記13乃至22のいずれかに記載の演奏装置であって、
前記出力手段は、前記撮影画像に、当該撮影画像から取得された人物から検出された前記位置関係を表す情報を付加して表示装置に出力する、
演奏装置。
(付記24)
付記13乃至23のいずれかに記載の演奏装置であって、
前記出力手段は、前記位置関係の見本を表す予め記憶された画像情報を表示装置に出力する、
演奏装置。
(付記25)
情報処理装置に、
人物を撮影した撮影画像から、人物の複数の特徴点を取得する取得手段と、
複数の前記特徴点の組み合わせからなる特徴点セットにおける前記特徴点間の位置関係を検出する検出手段と、
検出した前記位置関係に基づいて特定される音を出力する出力手段と、
を実現させるためのプログラムを記憶したコンピュータにて読み取り可能な記憶媒体。
2 ディスプレイ
3 スピーカ
10 演奏装置
11 取得部
12 検出部
13 音出力部
14 映像出力部
15 音情報記憶部
16 見本情報記憶部
U,U1,U2 ユーザ
100 演奏装置
101 CPU
102 ROM
103 RAM
104 プログラム群
105 記憶装置
106 ドライブ装置
107 通信インタフェース
108 入出力インタフェース
109 バス
110 記憶媒体
111 通信ネットワーク
121 取得手段
122 検出手段
123 出力手段
Claims (10)
- 人物を撮影した撮影画像から、人物の複数の特徴点を取得し、
複数の前記特徴点の組み合わせからなる特徴点セットにおける前記特徴点間の位置関係を検出する際に、前記特徴点セットを構成する複数の前記特徴点を予め設定された基準に従って結んだ形状に基づいて前記位置関係を検出し、
検出した前記位置関係に基づいて特定される音を出力する、
演奏方法。 - 人物を撮影した撮影画像から、人物の複数の特徴点を取得し、
複数の前記特徴点の組み合わせからなる特徴点セットにおける前記特徴点間の位置関係を検出し、
前記撮影画像に映る人物の属性と、当該人物から検出した前記位置関係と、に基づいて特定される音を出力する、
演奏方法。 - 人物を撮影した撮影画像から、人物の複数の特徴点を取得し、
複数の前記特徴点の組み合わせからなる特徴点セットにおける前記特徴点間の位置関係を検出し、
検出した前記位置関係に基づいて特定される音を出力し、
前記撮影画像に、当該撮影画像から取得された人物から検出された前記位置関係を表す情報を付加して表示装置に出力する、
演奏方法。 - 人物を撮影した撮影画像から、人物の複数の特徴点を取得し、
複数の前記特徴点の組み合わせからなる特徴点セットにおける前記特徴点間の位置関係を検出し、
検出した前記位置関係に基づいて特定される音を出力し、
前記位置関係の見本を表す予め記憶された画像情報を表示装置に出力する、
演奏方法。 - 請求項1乃至4のいずれかに記載の演奏方法であって、
人物の関節位置を少なくとも1つの前記特徴点として取得する、
演奏方法。 - 請求項1乃至5のいずれかに記載の演奏方法であって、
人物の3点以上の前記特徴点を取得し、
3点以上の前記特徴点の組み合わせからなる前記特徴点セットにおける前記特徴点間の前記位置関係を検出する、
演奏方法。 - 請求項1乃至6のいずれかに記載の演奏方法であって、
複数の前記特徴点セットのそれぞれについて前記位置関係を検出し、
複数の前記特徴点セットからそれぞれ検出した前記位置関係に基づいて特定される音を出力する、
演奏方法。 - 人物を撮影した撮影画像から、人物の複数の特徴点を取得する取得手段と、
複数の前記特徴点の組み合わせからなる特徴点セットにおける前記特徴点間の位置関係を検出する際に、前記特徴点セットを構成する複数の前記特徴点を予め設定された基準に従って結んだ形状に基づいて前記位置関係を検出する検出手段と、
検出した前記位置関係に基づいて特定される音を出力する出力手段と、
を備えた演奏装置。 - 人物を撮影した撮影画像から、人物の複数の特徴点を取得する取得手段と、
複数の前記特徴点の組み合わせからなる特徴点セットにおける前記特徴点間の位置関係を検出する検出手段と、
前記撮影画像に映る人物の属性と、当該人物から検出した前記位置関係と、に基づいて特定される音を出力する出力手段と、
を備えた演奏装置。 - 人物を撮影した撮影画像から、人物の複数の特徴点を取得する取得手段と、
複数の前記特徴点の組み合わせからなる特徴点セットにおける前記特徴点間の位置関係を検出する検出手段と、
検出した前記位置関係に基づいて特定される音を出力すると共に、前記撮影画像に、当該撮影画像から取得された人物から検出された前記位置関係を表す情報を付加して表示装置に出力する出力手段と、
を備えた演奏装置。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/011762 WO2021186563A1 (ja) | 2020-03-17 | 2020-03-17 | 演奏方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2021186563A1 JPWO2021186563A1 (ja) | 2021-09-23 |
JPWO2021186563A5 JPWO2021186563A5 (ja) | 2022-11-09 |
JP7420218B2 true JP7420218B2 (ja) | 2024-01-23 |
Family
ID=77770926
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022508666A Active JP7420218B2 (ja) | 2020-03-17 | 2020-03-17 | 演奏方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230351986A1 (ja) |
JP (1) | JP7420218B2 (ja) |
WO (1) | WO2021186563A1 (ja) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000003171A (ja) | 1998-06-16 | 2000-01-07 | Yamaha Corp | 運指データ作成装置及び運指表示装置 |
JP2010176588A (ja) | 2009-01-30 | 2010-08-12 | Sony Ericsson Mobilecommunications Japan Inc | 端末装置、画像処理方法及びプログラム |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08123417A (ja) * | 1994-10-25 | 1996-05-17 | Yamaha Corp | グリップ型楽音制御装置 |
JPH1097244A (ja) * | 1996-09-20 | 1998-04-14 | Yamaha Corp | 楽音制御装置 |
-
2020
- 2020-03-17 US US17/800,635 patent/US20230351986A1/en active Pending
- 2020-03-17 JP JP2022508666A patent/JP7420218B2/ja active Active
- 2020-03-17 WO PCT/JP2020/011762 patent/WO2021186563A1/ja active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000003171A (ja) | 1998-06-16 | 2000-01-07 | Yamaha Corp | 運指データ作成装置及び運指表示装置 |
JP2010176588A (ja) | 2009-01-30 | 2010-08-12 | Sony Ericsson Mobilecommunications Japan Inc | 端末装置、画像処理方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JPWO2021186563A1 (ja) | 2021-09-23 |
US20230351986A1 (en) | 2023-11-02 |
WO2021186563A1 (ja) | 2021-09-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021129064A1 (zh) | 姿态获取方法、关键点坐标定位模型的训练方法和装置 | |
JP6181373B2 (ja) | 医用情報処理装置及びプログラム | |
Varona et al. | Hands-free vision-based interface for computer accessibility | |
CN102622774B (zh) | 起居室电影创建 | |
KR102223693B1 (ko) | Nui 관여의 검출 | |
Poppe et al. | AMAB: Automated measurement and analysis of body motion | |
US20160042652A1 (en) | Body-motion assessment device, dance assessment device, karaoke device, and game device | |
JPWO2018211571A1 (ja) | 演技表示プログラム、演技表示方法および演技表示装置 | |
Essid et al. | A multi-modal dance corpus for research into interaction between humans in virtual environments | |
JP7235133B2 (ja) | 運動認識方法、運動認識プログラムおよび情報処理装置 | |
Chiang et al. | Kinect-based in-home exercise system for lymphatic health and lymphedema intervention | |
CN109448131A (zh) | 一种基于Kinect的虚拟钢琴弹奏系统的构建方法 | |
Dael et al. | Measuring body movement: Current and future directions in proxemics and kinesics. | |
KR20180011664A (ko) | 얼굴 표현 및 심리 상태 파악과 보상을 위한 얼굴 정보 분석 방법 및 얼굴 정보 분석 장치 | |
CN113033526A (zh) | 基于计算机实现的方法、电子设备和计算机程序产品 | |
JP7420218B2 (ja) | 演奏方法 | |
JP7409390B2 (ja) | 運動認識方法、運動認識プログラムおよび情報処理装置 | |
Agrawal et al. | IoT based augmented reality system of human heart: An Android application | |
JP6922768B2 (ja) | 情報処理装置 | |
Bianchi-Berthouze et al. | 11 Automatic Recognition of Affective Body Expressions | |
Rosales et al. | Computer vision for detection of body expressions of children with cerebral palsy | |
Mastorakis | Human fall detection methodologies: from machine learning using acted data to fall modelling using myoskeletal simulation | |
Rothmeier et al. | Comparison of Machine Learning and Rule-based Approaches for an Optical Fall Detection System | |
Nguyen et al. | Vision-based global localization of points of gaze in sport climbing | |
CN113842622A (zh) | 一种运动教学方法、装置、系统、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220816 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220816 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230905 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231031 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231212 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231225 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7420218 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |