JP6673971B2 - 評価装置、評価方法、及びプログラム - Google Patents
評価装置、評価方法、及びプログラム Download PDFInfo
- Publication number
- JP6673971B2 JP6673971B2 JP2018085801A JP2018085801A JP6673971B2 JP 6673971 B2 JP6673971 B2 JP 6673971B2 JP 2018085801 A JP2018085801 A JP 2018085801A JP 2018085801 A JP2018085801 A JP 2018085801A JP 6673971 B2 JP6673971 B2 JP 6673971B2
- Authority
- JP
- Japan
- Prior art keywords
- evaluation
- item
- measurement
- evaluation point
- items
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000011156 evaluation Methods 0.000 title claims description 599
- 238000005259 measurement Methods 0.000 claims description 194
- 238000004364 calculation method Methods 0.000 claims description 90
- 238000000034 method Methods 0.000 claims description 39
- 230000008569 process Effects 0.000 claims description 26
- 230000033001 locomotion Effects 0.000 claims description 25
- 230000033764 rhythmic process Effects 0.000 claims description 10
- 230000003068 static effect Effects 0.000 claims 1
- 230000001755 vocal effect Effects 0.000 description 20
- 238000010586 diagram Methods 0.000 description 15
- 238000011161 development Methods 0.000 description 13
- 102100031102 C-C motif chemokine 4 Human genes 0.000 description 7
- 101000777471 Homo sapiens C-C motif chemokine 4 Proteins 0.000 description 7
- 238000004891 communication Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000002955 isolation Methods 0.000 description 7
- 238000012549 training Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 3
- 208000031361 Hiccup Diseases 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 230000036421 sense of balance Effects 0.000 description 2
- 210000001260 vocal cord Anatomy 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000010411 cooking Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000000611 regression analysis Methods 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Landscapes
- Reverberation, Karaoke And Other Acoustics (AREA)
Description
[エンターテインメント人材育成管理システムの概要]
以下、図面を参照しながら本発明の実施形態について詳しく説明する。図1は、本実施形態に係るエンターテインメント人材育成管理システムSの運用の一例を示す図である。エンターテインメント人材育成管理システムSは、管理サーバ2から取得する測定データMDを分析し、スクール生のエンターテインメントの能力を評価するシステムである。管理サーバ2は、各地のエンターテインメントスクールに備えられ、スクール生のエンターテインメントの能力についての測定データMDを取得する。
エンターテインメントの能力には、例えば、パフォーマンスのスキル、運動能力、表現力、コミュニケーション能力などがある。以下では、エンターテインメントの能力として、パフォーマンスのスキルを中心に説明する。また以下では、パフォーマンスのスキルを単にスキルということがある。なお、エンターテインメントの能力には、ビジュアル要素やパーソナリティ要素が含まれてもよい。
エンターテインメント人材育成管理システムSは、一例として、クラウドコンピューティングにより実現される。
管理画面MP2に表示される個人データPDや評価点ESの一部は、ソーシャルネットワーキングサービス5上においてシェアすることができる。
エンターテインメント人材育成管理システムSは、各地のエンターテインメントスクールに備えられた管理サーバ2に管理ツールMTを配布する(ステップS1)。
スクール担当者は、評価装置1が算出する評価点ESに基づいて、スクール生にパフォーマンスについてのフィードバックを行う(ステップS5)。
図3を参照し、評価装置1の構成について説明する。
図3は、本実施形態に係る評価装置1の構成の一例を示す図である。評価装置1は、測定結果取得部10と、評価点算出部11と、出力部12と、記憶部13とを備える。
出力部12は、評価点算出部11が算出する評価点ESを管理サーバ2に出力する。
測定装置4は、例えば、録音機能や録画機能を有し、エンターテインメントスクールにおいてスクール生のパフォーマンスのスキルを測定する。スクール生に対する測定の結果は、スクール生が撮像された映像から得られる。測定装置4は測定した結果を測定データMDとして管理サーバ2に供給する。
なお、測定装置4は、評価対象者を撮像する代わりに、モーションキャプチャや評価対象者の体に取りつけられる加速度センサを用いてスクール生のパフォーマンスのスキルを測定してもよい。
ここで図4〜図11を参照し、測定データMDとして測定される測定項目や、評価点ESを算出するための重み付きツリーについて説明する。この重み付きツリーは、パフォーマンス評価点算出方法PAともいう。パフォーマンス評価点算出方法PAには、パフォーマンスの種類に応じて、ヒップホップダンス評価点算出方法HA、ジャズダンス評価点算出方法JA、及びボーカル評価点算出方法VAがある。
図4は、本実施形態に係るヒップホップダンス評価点算出方法HAの一例を示す図である。ヒップホップダンス評価点算出方法HAは、階層構造をなす複数の評価項目を含む。ヒップホップダンス評価点算出方法HAは、一例として、階層HL1、階層HL2、階層HL3、階層HL4、及び階層HL5を含む。階層HL1、階層HL2、階層HL3、階層HL4、及び階層HL5はこの順に、上位層から下位層への順番に並んでいる。
なお、図4において下位層の評価項目が図示されていない評価項目であっても、下位層の評価項目をもつものがある。
以下では、上位層に属する評価項目を上位項目、下位層に属する評価項目を下位項目という場合がある。
肩の動きを評価する項目HC42、腰の動きを評価する項目HC43、及び胸の動きを評価する項目HC44のそれぞれについても、階層HL5に属する項目に基づいて、評価点が算出される。
アイソレーションとは、評価対象者の体の一部の位置を固定し、体の他の一部の位置を移動させた場合の他の一部の位置の可動範囲の大きさである。したがって、評価点算出部11は、アイソレーションに基づいて評価点ESを算出する。
したがって、測定項目には、評価対象者の体の一部の一定リズムでの動作繰り返しにおける、同じ動作時の位置同士の差が含まれ、評価点算出部11は、この差に基づいて、評価点ESを算出する。
したがって、測定項目には、評価対象者の体の2部位を結んだ直線と、水平との角度が含まれ、評価点算出部11は、評価対象者の体の2部位を結んだ直線と、水平との角度に基づいて、評価点ESを算出する。
したがって、測定項目には、評価対象者の体の一部の動作前の位置と動作完了後の位置との差が含まれ、評価点算出部11は、この差に基づいて、評価点ESを算出する。
表情を評価する項目HC33、及び表現力を評価する項目HC34のそれぞれについても、階層HL4に属する項目(不図示)に基づいて、評価点が算出される。
一方、階層HL2に属する項目HC22は、動き以外の評価項目である。項目HC22では、振り覚えの評価項目である項目HC35、創作力の評価項目である項目HC36、及びオプション技術の評価項目である項目HC37に基づいて評価される。項目HC35、項目HC36、及び項目HC37は階層HL3に属する。
図5は、本実施形態に係るジャズダンス評価点算出方法JAの一例を示す第1図である。図6は、本実施形態に係るジャズダンス評価点算出方法JAの一例を示す第2図である。図5のジャズダンス評価点算出方法JAと、図6のジャズダンス評価点算出方法JAとは、全体で1つのジャズダンス評価点算出方法JAを示す。図5の階層JL4、階層JL5と、図6の階層JL4、階層JL5とは同じ階層である。
ジャズダンス評価点算出方法JAは、階層構造をなす複数の評価項目を含む。ジャズダンス評価点算出方法JAは、一例として、階層JL1、階層JL2、階層JL3、階層JL4、階層JL5、及び階層JL6を含む。階層JL1、階層JL2、階層JL3、階層JL4、階層JL5、及び階層JL6はこの順に、上位層から下位層への順番に並んでいる。ジャズダンス評価点算出方法JAでは、下位層から上位層への順番に評価点が逐次決定されてゆく。
最下位の階層である階層JL6に属する項目JC61〜JC619については、それぞれ実数値が入力される。項目JC61〜JC619において、入力された実数値は、後述する測定値の評価点化の処理により評価点として算出される。
なお、図5及び図6において下位層の評価項目が図示されていない評価項目であっても、下位層の評価項目をもつものがある。
つまり、バランス感覚は、ある姿勢による静止動作の継続時間により測定される。したがって、測定項目には、ある姿勢による静止動作が含まれ、評価点算出部11は、静止動作の継続時間に基づいて、評価点ESを算出する。
図7は、本実施形態に係るボーカル評価点算出方法VAの一例を示す図である。ボーカル評価点算出方法VAは、階層構造をなす複数の評価項目を含む。ボーカル評価点算出方法VAは、一例として、階層VL1、階層VL2、階層VL3、階層VL4、及び階層VL5を含む。階層VL1、階層VL2、階層VL3、階層VL4、及び階層VL5はこの順に、上位層から下位層への順番に並んでいる。ボーカル評価点算出方法VAでは、下位層から上位層への順番に評価点が逐次決定されてゆく。
最下位の階層である階層VL5に属する項目VC51、及び項目VC52については、それぞれ実数値が入力される。項目VC51、及び項目VC52において、入力された実数値は、後述する測定値の評価点化の処理により評価点として算出される。
なお、図7において下位層の評価項目が図示されていない評価項目であっても、下位層の評価項目をもつものがある。
項目VC312は、グルーブ感を評価する評価項目である。グルーブ感は、例えば、リズムのずれの平均からのばらつき具合を測定することにより評価される。
テクニックを評価する評価項目である項目V39では、項目VC45、項目VC46、項目VC47、及び項目VC48における評価点に基づいて評価点が算出される。
図7の例では、階層VL5に属する項目VC51において評価される咽頭原音によるボリュームよりも、階層VL2に属する項目VC21において評価されるヴォイスの方が、ボーカルが優れているという直感による理解に合致する。
図8は、本実施形態に係る測定値の評価点化の処理の一例を示す図である。
評価項目の分類情報は、予め記憶部13に記憶されてよい。
評価装置1は、評価項目の分類情報から評価項目のパターンを判定できない場合、測定データMDの分布から評価項目のパターンを判定する(ステップS102)。
図9は、本実施形態に係る測定データMDの分布の一例を示す図である。
評価装置1は、評価対象者集合P1の測定データMDから分布を生成する。評価装置1は、「上手な人」と「上手くない人」とを識別して分布を生成する。測定データ分布D1、及び測定データ分布D2は、評価装置1が生成した分布の一例である。
評価装置1が「上手な人」と「上手くない人」とを識別するとは、測定データMDのそれぞれについて、「上手な人」の測定データMDと、「上手くない人」の測定データMDとを識別することである。
図8に戻って、測定値の評価点化の処理の説明を続ける。
評価装置1は、評価点の素点を算出する(ステップS130)。ここで評価装置1は、ステップS120において算出した基準値SVと、測定データMDとの差の絶対値を、ステップS100において判定した評価項目における評価点の素点として算出する。
評価装置1は、当該評価項目が、測定値が小さいほど評価点が高く算出される評価項目の型である場合、測定データMDの値を所定の値を基準に反転させて評価点の素点として算出する。ここで所定の値とは、例えば、測定データMDの平均値である。
評価装置1では、標準化の処理により、異なる評価項目間において評価点を比較することができる。
図10は、本実施形態に係る下位層に属する評価項目の評価点から上位層に属する評価項目の評価点算出の処理の一例を示す図である。図11は、本実施形態に係る前提モデルPM及び下位項目の評価点の一例を示す図である。
評価装置1は、前提モデルPM及び測定データMDを設定する(ステップS200)。ここで前提モデルPMとは、式(1)により示される関数である。
前提モデルPMにおいて重みとは、上位項目に対する下位項目の影響の程度を表す。
図11に示すように、前提モデルPMは、ヴォイスを評価する項目VC21、ピッチを評価する項目VC22、リズムを評価する項目VC23、及び表現力を評価する項目VC24それぞれの評価点、及びボーカルを評価する項目VC1の評価点に対応する次元をもつ空間における平面を表す。ただし、図11では視覚化のため、ヴォイスを評価する項目VC21の評価点、及びピッチを評価する項目VC22の評価点にそれぞれ対応する次元、及びボーカルを評価する項目VC1の評価点に対応する次元のみが示されている。
図11において、点O1は、「上手な人」の項目VC1の評価点に対応する目的変数を示す。点O1は、「上手な人」である評価対象者に対応する複数の点である。点O2は、「上手くない人」の項目VC1の評価点に対応する目的変数を示す。点O2は、「上手くない人」である評価対象者に対応する複数の点である。
評価装置1は、前提モデルPMが表す面と、「上手な人」の項目VC1の評価点に対応する目的変数を示す点O1との距離が最小となるように前提モデルPMの重みを決定する。
評価装置1は、ステップS220において算出した評価点素点の標準化する(ステップS230)。評価装置1は、例えば、評価対象者集合P1の評価対象者のそれぞれに対する評価点素点の平均値がゼロ、標準偏差が1となるように、評価点素点を変換する。評価装置1は、変換した評価点素点を評価点とする。
評価装置1では、標準化の処理により、異なる評価項目間において評価点を比較することができる。
「上手な人」がなぜ上手であるのかを説明する要因とは、例えば、ある評価項目について測定データMDの数値がある範囲内に含まれることである。また、「上手な人」がなぜ上手であるのかを説明する要因とは、例えば、ある評価項目について測定データMDの数値が、「上手でない人」の測定データMDの数値に比べて大きいまたは小さいことである。
図12は、本実施形態に係る評価装置1の処理の一例を示す図である。図11に示す処理は、図4〜図11において説明した評価点ESの算出の方法が決定された後に実行される。
測定結果取得部10は、取得した測定データMDを評価点算出部11に供給する。
評価点算出部11は、算出した評価点ESを出力部12に供給する。
出力部12は、評価点算出部11が供給する評価点ESを管理サーバ2に出力する(ステップS302)。
図14を参照し測定データMDの取得方法の具定例について説明する。
図14は、本実施形態に係るボーカル評価項目の取得方法の一例である。
測定された音声データVDは、フーリエ変換により周波数分布FG1に変換される。周波数分布FG1は音声の周波数特性を示す。周波数分布FG1から包絡グラフFG2及び微細構造グラフFG3が生成される。
したがって、測定項目には、発声する行為が含まれ、評価点算出部11は、発声することにより得られる声の周波数分布(包絡グラフFG2)から得られる発声の良さに基づいて、評価点ESを算出する。
この「声質」の評価項目についての測定では、微細構造グラフFG3に基づいて、声帯の振動により発声する原型となる音(喉頭原音)の周波数と音量との組み合わせの形状が「声質」として評価される。
したがって、測定項目には、発声する行為が含まれ、評価点算出部11は、発声することにより得られる声の周波数分布(微細構造グラフFG3)から得られる声質に基づいて、評価点ESを算出する。
測定結果取得部10は、能力評価の評価対象者に対する測定の結果を示す測定結果情報(測定データMD)を測定項目毎に取得する。
評価点算出部11は、評価基準者の能力の程度と評価基準者に対する測定の結果との間の相関度に基づき重みづけされた下位項目の評価点によって上位項目の評価点が定まる重み付きツリーとして表される情報であって、重み付きツリーの各枝の最下位項目のうち少なくも一つの項目が測定項目である評価基準情報130と、測定結果取得部10が取得する測定結果情報(測定データMD)とに基づいて、重み付きツリーの上位項目の評価点として算出される値を評価対象者の評価点ESを算出する。
出力部12は、評価点算出部11が算出する評価点ESを出力する。
この構成により、本実施形態に係る評価装置1では、ロングトーンについての評価点ESを算出できるため、ロングトーンについて評価結果を数値化できる。
この構成により、本実施形態に係る評価装置1では、声質、または発声の良さについての評価点ESを算出できるため、声質、または発声の良さについて評価結果を数値化できる。
この構成により、本実施形態に係る評価装置1では、ある姿勢による静止動作についての評価点ESを算出できるため、ある姿勢による静止動作について評価結果を数値化できる。
この構成により、本実施形態に係る評価装置1では、アイソレーションについての評価点ESを算出できるため、アイソレーションについて評価結果を数値化できる。
この構成により、本実施形態に係る評価装置1では、ラコステについての評価点ESを算出できるため、ラコステについて評価結果を数値化できる。
この構成により、本実施形態に係る評価装置1では、ターンについての評価点ESを算出できるため、ターンについて評価結果を数値化できる。
この構成により、本実施形態に係る評価装置1では、フロントバックについての評価点ESを算出できるため、フロントバックについて評価結果を数値化できる。
この構成により、本実施形態に係る評価装置1では、評価対象者のパフォーマンスを測定するために、当該評価対象者の体に取りつけられる加速度センサなどを必要とせず、評価対象者のパフォーマンスを簡便に測定できる。
また、上述した実施形態における評価装置1の一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現してもよい。評価装置1の各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。
Claims (11)
- 能力評価の評価対象者に対する測定の結果を示す測定結果情報を測定項目毎に取得する測定結果取得部と、
評価基準者の能力の程度と前記評価基準者に対する測定の結果との間の相関度に基づき重みづけされた下位項目の評価点によって上位項目の評価点が定まる重み付きツリーとして表される情報であって、前記重み付きツリーの各枝の最下位項目のうち少なくも一つの項目が前記測定項目である評価基準情報と、前記測定結果取得部が取得する前記測定結果情報とに基づいて、前記ツリーの前記上位項目の評価点として算出される値を前記評価対象者の評価点として算出する評価点算出部と、
前記評価点算出部が算出する前記評価点を出力する出力部と、
を備える評価装置。 - 前記測定項目には、ロングトーンを発声する行為が含まれ、
前記評価点算出部は、ロングトーンを発声することにより得られる声の周波数分布に基づいて、前記評価点を算出する
請求項1に記載の評価装置。 - 前記測定項目には、発声する行為が含まれ、
前記評価点算出部は、発声することにより得られる声の周波数分布から得られる声質、または当該周波数分布から得られる発声の良さに基づいて、前記評価点を算出する
請求項1または請求項2に記載の評価装置。 - 前記測定項目には、ある姿勢による静止動作が含まれ
前記評価点算出部は、前記静止動作の継続時間に基づいて、前記評価点を算出する
請求項1または請求項2に記載の評価装置。 - 前記測定項目には、前記評価対象者の体の一部の位置を固定し、前記体の他の一部の位置を移動させた場合の前記他の一部の位置の可動範囲の大きさが含まれ、
前記評価点算出部は、前記可動範囲の大きさに基づいて、前記評価点を算出する
請求項1から請求項3のいずれか一項に記載の評価装置。 - 前記測定項目には、前記評価対象者の体の2部位を結んだ直線と、水平との角度が含まれ、
前記評価点算出部は、前記角度に基づいて、前記評価点を算出する
請求項1から請求項5のいずれか一項に記載の評価装置。 - 前記測定項目には、前記評価対象者の体の一部の動作前の位置と動作完了後の位置との差である第1差が含まれ、
前記評価点算出部は、前記第1差に基づいて、前記評価点を算出する
請求項1から請求項6のいずれか一項に記載の評価装置。 - 前記測定項目には、前記評価対象者の体の一部の一定リズムでの動作繰り返しにおける、同じ動作時の位置同士の差である第2差が含まれ、
前記評価点算出部は、前記第2差に基づいて、前記評価点を算出する
請求項1から請求項7のいずれか一項に記載の評価装置。 - 前記測定の結果は、前記評価対象者が撮像された映像から得られる
請求項1から請求項8のいずれか一項に記載の評価装置。 - コンピュータが実行する評価方法であって、
コンピュータが、能力評価の評価対象者に対する測定の結果を示す測定結果情報を測定項目毎に取得する測定結果取得過程と、
コンピュータが、評価基準者の能力の程度と前記評価基準者に対する測定の結果との間の相関度に基づき重みづけされた下位項目の評価点によって上位項目の評価点が定まる重み付きツリーとして表される情報であって、前記重み付きツリーの各枝の最下位項目のうち少なくも一つの項目が前記測定項目である評価基準情報と、前記測定結果取得過程において取得された前記測定結果情報とに基づいて、前記ツリーの前記上位項目の評価点として算出される値を前記評価対象者の評価点として算出する評価点算出過程と、
コンピュータが、前記評価点算出過程において算出される前記評価点を出力する出力過程と、
を有する評価方法。 - コンピュータに
能力評価の評価対象者に対する測定の結果を示す測定結果情報を測定項目毎に取得する測定結果取得ステップと、
評価基準者の能力の程度と前記評価基準者に対する測定の結果との間の相関度に基づき重みづけされた下位項目の評価点によって上位項目の評価点が定まる重み付きツリーとして表される情報であって、前記重み付きツリーの各枝の最下位項目のうち少なくも一つの項目が前記測定項目である評価基準情報と、前記測定結果取得ステップにおいて取得された前記測定結果情報とに基づいて、前記ツリーの前記上位項目の評価点として算出される値を前記評価対象者の評価点として算出する評価点算出ステップと、
前記評価点算出ステップにおいて算出される前記評価点を出力する出力ステップと、
を実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018085801A JP6673971B2 (ja) | 2018-04-26 | 2018-04-26 | 評価装置、評価方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018085801A JP6673971B2 (ja) | 2018-04-26 | 2018-04-26 | 評価装置、評価方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019191427A JP2019191427A (ja) | 2019-10-31 |
JP6673971B2 true JP6673971B2 (ja) | 2020-04-01 |
Family
ID=68390162
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018085801A Active JP6673971B2 (ja) | 2018-04-26 | 2018-04-26 | 評価装置、評価方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6673971B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021068257A (ja) * | 2019-10-25 | 2021-04-30 | エイベックス株式会社 | 評価装置、評価方法、及びプログラム |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7359349B1 (ja) | 2022-07-07 | 2023-10-11 | Co-Growth株式会社 | 評価支援システム、情報処理装置の制御方法、及び情報処理装置の制御プログラム |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003058687A (ja) * | 2001-08-13 | 2003-02-28 | Kotaro Hirate | 住意識の顕在化方法および顕在化プログラム |
US20110125803A1 (en) * | 2008-08-05 | 2011-05-26 | Nec Corporation | Usability evaluation apparatus, usability evaluation method, and program |
JP5759277B2 (ja) * | 2011-06-10 | 2015-08-05 | 株式会社アルファ新洋 | 評価装置、評価方法、およびプログラム |
-
2018
- 2018-04-26 JP JP2018085801A patent/JP6673971B2/ja active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021068257A (ja) * | 2019-10-25 | 2021-04-30 | エイベックス株式会社 | 評価装置、評価方法、及びプログラム |
JP7368178B2 (ja) | 2019-10-25 | 2023-10-24 | エイベックス株式会社 | 評価装置、評価方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2019191427A (ja) | 2019-10-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wanderley et al. | The musical significance of clarinetists' ancillary gestures: An exploration of the field | |
US9767705B1 (en) | System for estimating user's skill in playing a music instrument and determining virtual exercises thereof | |
Pfordresher et al. | Singing with yourself: Evidence for an inverse modeling account of poor-pitch singing | |
WO2020100671A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
Waterhouse et al. | Doing Duo–a case study of entrainment in William Forsythe’s choreography “Duo” | |
Gonzalez-Sanchez et al. | Characterizing movement fluency in musical performance: Toward a generic measure for technology enhanced learning | |
WO2021090817A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
Van Zijl et al. | Moved through music: The effect of experienced emotions on performers’ movement characteristics | |
JP6673971B2 (ja) | 評価装置、評価方法、及びプログラム | |
Thurman | BOYS'CHANGING VOICES: WHAT DO WE KNOW NOW? | |
CN112805765A (zh) | 信息处理装置 | |
JP2015128510A (ja) | 評価プログラム、評価方法及び評価装置 | |
Weiss et al. | Motion types of ancillary gestures in clarinet playing and their influence on the perception of musical performance | |
Fantini et al. | Estill Voice Training and voice quality control in contemporary commercial singing: an exploratory study | |
Köberlein et al. | Investigation of resonance strategies of high pitch singing sopranos using dynamic three-dimensional magnetic resonance imaging | |
Geeves et al. | The performative pleasure of imprecision: a diachronic study of entrainment in music performance | |
JP2011164162A (ja) | 演奏表情付け支援装置 | |
US11640767B1 (en) | System and method for vocal training | |
Platte | The Maestro myth: exploring the impact of conducting gestures on the musician's body and the sounding result | |
JP7368178B2 (ja) | 評価装置、評価方法、及びプログラム | |
Molina et al. | Automatic scoring of singing voice based on melodic similarity measures | |
Sano | Statistical Analysis of Elements of Movement in Musical Expression in Early Childhood Using 3D Motion Capture and Evaluation of Musical Development Degrees through Machine Learning. | |
Nafisi | Gesture and body-movement as teaching and learning tools in western classical singing | |
TW201239876A (en) | Scoring system for singing | |
Teixeira et al. | Expressiveness in music from a multimodal perspective |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180426 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190423 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20190624 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190821 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200204 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200305 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6673971 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |