JP4774825B2 - Performance evaluation apparatus and method - Google Patents
Performance evaluation apparatus and method Download PDFInfo
- Publication number
- JP4774825B2 JP4774825B2 JP2005182514A JP2005182514A JP4774825B2 JP 4774825 B2 JP4774825 B2 JP 4774825B2 JP 2005182514 A JP2005182514 A JP 2005182514A JP 2005182514 A JP2005182514 A JP 2005182514A JP 4774825 B2 JP4774825 B2 JP 4774825B2
- Authority
- JP
- Japan
- Prior art keywords
- performance
- user
- evaluation value
- performance evaluation
- modal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000011156 evaluation Methods 0.000 title claims description 144
- 238000000034 method Methods 0.000 title claims description 18
- 230000008921 facial expression Effects 0.000 claims description 10
- 210000004709 eyebrow Anatomy 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 3
- 238000012986 modification Methods 0.000 claims description 2
- 230000004048 modification Effects 0.000 claims description 2
- 239000013598 vector Substances 0.000 claims 2
- 230000009471 action Effects 0.000 description 10
- 238000012545 processing Methods 0.000 description 6
- 238000012937 correction Methods 0.000 description 4
- 230000001815 facial effect Effects 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 2
- 101100137546 Arabidopsis thaliana PRF2 gene Proteins 0.000 description 1
- 102100022361 CAAX prenyl protease 1 homolog Human genes 0.000 description 1
- 101000824531 Homo sapiens CAAX prenyl protease 1 homolog Proteins 0.000 description 1
- 101001003584 Homo sapiens Prelamin-A/C Proteins 0.000 description 1
- 101150004094 PRO2 gene Proteins 0.000 description 1
- 241001430696 Protis Species 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001364 causal effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000008909 emotion recognition Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Electrically Operated Instructional Devices (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本発明は、システムが求める演技に対するユーザの演技を評価する演技評価装置及び方法に関する。 The present invention relates to a performance evaluation apparatus and method for evaluating a user performance with respect to a performance required by a system.
近年、様々なアプリケーションソフトを動かすゲーム装置が発売されているが、それらの多くは、ジョイスティック、ゲームパッド等の汎用コントローラが用いられており、ボタン、スティック等の単純なモーダルでゲームをコントロールしている。 In recent years, game devices that move various application software have been released, but many of them use general-purpose controllers such as joysticks and game pads, and control games with simple modals such as buttons and sticks. Yes.
一方、例えばカメラを有し、その入力画像を用いてゲームをコントロールするゲーム装置(例えば、非特許文献1に掲載された(株)ソニー・コンピュータエンタテインメントのEye Toy(TM):Play(アイトーイ プレイ))や、マイクロフォンを有し、その入力音声を用いてゲームをコントロールするゲーム装置(例えば、非特許文献2に掲載された(株)ソニー・コンピュータエンタテインメントのOPERATORS SIDE(オペレーターズ サイド))も存在するが、これらのゲーム装置においても、画像内の動き領域、音声内容であるテキスト等、単一のモーダルでゲームをコントロールしている。 On the other hand, for example, a game device that has a camera and controls a game using the input image (for example, Eye Toy (TM): Play of Sony Computer Entertainment Inc. published in Non-Patent Document 1) ) And a game device (for example, OPERATORS SIDE (Sony Computer Entertainment Co., Ltd., published in Non-Patent Document 2)) that has a microphone and controls the game using its input sound. Also in these game devices, the game is controlled in a single modal, such as a motion area in an image and a text as audio content.
しかし、単一のモーダルでゲームをコントロールするゲーム装置では、ユーザに単純な構成内容のゲームを供給できるのみで、例えば、ユーザが演技を行い、その評価によってストーリを進行させていくといった、複雑な構成内容を有するゲームをユーザに供給できなかった。 However, a game device that controls a game in a single modal can only supply a game with a simple configuration content to a user, for example, a user performs a performance and advances a story by the evaluation. The game having the configuration contents could not be supplied to the user.
本発明は、このような従来の実情に鑑みて提案されたものであり、システムが求める演技に対するユーザの演技を評価し、その評価結果を提供することを実現する演技評価装置及び方法を提供することを目的とする。 The present invention has been proposed in view of such a conventional situation, and provides a performance evaluation apparatus and method that realizes evaluating a user's performance with respect to a performance required by the system and providing the evaluation result. For the purpose.
上述した目的を達成するために、本発明に係る演技評価装置は、所定のシーンにおけるユーザの演技を評価する演技評価装置であって、複数のモーダルを通じて上記ユーザの演技を認識する認識手段と、上記認識手段によって得られた各モーダルについての認識結果のデータと該各モーダルについての教師データとを用いて該各モーダルについての演技評価値を算出するとともに、該各モーダルについての演技評価値の全てを用いて上記ユーザの演技を総合的に評価する総合評価値を算出して上記ユーザの現在のシーンにおける演技を評価する演技評価手段と、上記演技評価値と該演技評価値の基準値となる第1の閾値とを比較するとともに上記総合評価値と該総合評価値の基準値となる第2の閾値とを比較する比較手段と、上記総合評価値が該第2の閾値以上である場合には、次のシーンにおける上記ユーザの演技内容を該ユーザに報知し、該総合評価値が該第2の閾値未満である場合には、上記演技評価値が第1の閾値未満であるモーダルについての上記現在のシーンの演技の修正点を上記ユーザに報知する報知手段とを備えるものである。 In order to achieve the above-described object, the performance evaluation device according to the present invention is a performance evaluation device that evaluates a user's performance in a predetermined scene , and a recognition unit that recognizes the user's performance through a plurality of modals, The performance evaluation value for each modal is calculated using the recognition result data for each modal obtained by the recognition means and the teacher data for each modal, and all the performance evaluation values for each modal are calculated. And a performance evaluation means for evaluating the performance of the user in the current scene by calculating a comprehensive evaluation value for comprehensively evaluating the user's performance using the performance evaluation value and a reference value for the performance evaluation value Comparison means for comparing the first evaluation value and the second evaluation value as a reference value of the comprehensive evaluation value and the comprehensive evaluation value If it is equal to or greater than the second threshold, the user's performance content in the next scene is notified to the user, and if the overall evaluation value is less than the second threshold, the performance evaluation value is Informing means for informing the user of the current scene performance correction point for a modal that is less than the first threshold .
また、上述した目的を達成するために、本発明に係る演技評価方法は、所定のシーンにおけるユーザの演技を評価する演技評価方法であって、複数のモーダルを通じて上記ユーザの演技を認識する認識工程と、上記認識工程で得られた各モーダルについての認識結果のデータと該各モーダルについての教師データとを用いて該各モーダルについての演技評価値を算出するとともに、該各モーダルについての演技評価値の全てを用いて上記ユーザの演技を総合的に評価する総合評価値を算出して上記ユーザの現在のシーンにおける演技を評価する演技評価工程と、上記演技評価値と該演技評価値の基準値となる第1の閾値とを比較するとともに上記総合評価値と該総合評価値の基準値となる第2の閾値とを比較する比較工程と、上記総合評価値が該第2の閾値以上である場合には、次のシーンにおける上記ユーザの演技内容を該ユーザに報知し、該総合評価値が該第2の閾値未満である場合には、上記演技評価値が第1の閾値未満であるモーダルについての上記現在のシーンの演技の修正点を上記ユーザに報知する報知工程とを有するものである。 In order to achieve the above-described object, the performance evaluation method according to the present invention is a performance evaluation method for evaluating a user's performance in a predetermined scene, and a recognition step of recognizing the user's performance through a plurality of modals. And calculating the performance evaluation value for each modal using the recognition result data for each modal obtained in the recognition step and the teacher data for each modal, and the performance evaluation value for each modal. A performance evaluation step for calculating a comprehensive evaluation value for comprehensively evaluating the user's performance using all of the above and evaluating the performance of the user in the current scene, and the performance evaluation value and a reference value for the performance evaluation value A comparison step of comparing the first evaluation threshold value and the second evaluation threshold value as a reference value of the total evaluation value, and the total evaluation value If it is equal to or greater than the second threshold, the user's performance content in the next scene is notified to the user, and if the overall evaluation value is less than the second threshold, the performance evaluation value is And a notifying step of notifying the user of the correction point of the current scene performance regarding the modal that is less than the first threshold .
本発明に係る演技評価装置及び方法によれば、複数のモーダルを通じてユーザの演技を認識することができる。また、各モーダルの認識結果に基づいてユーザの演技を評価することができる。 According to the performance evaluation apparatus and method according to the present invention, a user's performance can be recognized through a plurality of modals. Moreover, a user's performance can be evaluated based on the recognition result of each modal.
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。 Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings.
先ず、本実施の形態における演技評価装置の構成について説明する。 First, the structure of the performance evaluation apparatus in this Embodiment is demonstrated.
図1に示すように、本実施の形態における演技評価装置1は、カメラ画像入力器10と、マイク音声入力器11と、顔認識器12と、視線認識器13と、表情認識器14と、手振り認識器15と、音声認識器16と、韻律認識器17と、演技評価器18と、シナリオコントローラ19と、エージェントコントローラ20と、エージェント21とで構成される。
As shown in FIG. 1, the
カメラ画像入力器10は、演技を行うユーザの画像を入力し、入力した画像を顔認識器12と、手振り認識器15とに供給する。
The camera
マイク音声入力器11は、演技を行うユーザの音声を入力し、入力した音声を音声認識器16と、韻律認識器17とに供給する。
The microphone voice input device 11 inputs the voice of the user performing the performance and supplies the input voice to the
顔認識器12は、カメラ画像入力器10から画像が供給されると、顔画像を認識する。そして、この供給された画像を、水平方向がX軸、垂直方向がY軸である直交座標平面として、顔の中心位置(x,y)を検出する。また、その位置において顔の方向を検出し、ロール角、ピッチ角及びヨー角を用いて検出した顔の方向を表現する。その後、顔認識器12は、時刻tにおける画像内での顔の中心位置及び方向を示すデータF(t){x(t),y(t),roll(t),pitch(t),yow(t)}を演技評価器18に供給する。また、顔認識器12は、顔画像を視線認識器13と表情認識器14とに供給する。なお、顔を検出する技術に関しては、例えば「ピクセル差分特徴を用いた実時間任意姿勢検出器の学習(佐部浩太郎・日台健一)」(http://face.pdp.crl.sony.co.jp/index.html#mview_face_detection)に記載されている。
When the image is supplied from the camera
視線認識器13は、顔認識器12から顔画像が供給されると、顔画像から右目の視線方向及び左目の視線方向を検出する。そして、視線認識器13は、3次元の極座標表現を用いて、検出した右目の視線方向(θr,φr)及び左目の視線方向(θl,φl)を表現する。その後、視線認識器13は、時刻tにおける視線の方向を示すデータG(t){θr(t),φr(t),θl(t),φl(t)}を演技評価器18に供給する。なお、顔画像をもとに、所定の座標系で視線方向を検出する技術に関しては、例えば、特公平3−51407号公報に記載されている。
When the face image is supplied from the
表情認識器14は、顔認識器12から顔画像が供給されると、顔画像から、図2に示すように、眉40、目41及び口42の18箇所の特徴点43を検出する。続いて、表情認識器14は、ユーザの顔の表情を特定するために、眉40、目41及び口42の16箇所の矢印で示す特徴点間距離44を算出する。その後、表情認識器14は、時刻tにおける特徴点間距離44を示すデータE(t){Ei(t)}(i=0〜15)を演技評価器18に供給する。なお、特徴点間距離を用いて表情を認識する技術に関しては、「ロボットでの利用を目的とした顔画像情報と音声情報の統合による感情認識,日本ロボット学会第22回大会,3D14,Sep.2004(松本祥平・山口健・駒谷和範・尾形哲也・奥乃博)」(http://winnie.kuis.kyoto-u.ac.jp/okuno-lab-bib-j.html)に記載されている。
When the facial image is supplied from the
手振り認識器15は、カメラ画像入力器10から画像が供給されると、この画像を水平方向がX軸、垂直方向がY軸である直交座標平面として、手の中心位置(x,y)を検出する。また、この位置(x,y)を通り、手のひらに対して垂直方向にある軸を回転軸とした回転角を手の方向αとして検出し、さらに、手の大きさs、指の状態l(例えば、五本指のうち立っている指の本数等)を検出する。これにより、手振り認識器15は、ユーザが行う手振りの状態を特定することができる。その後、手振り認識器15は、時刻tにおける手振り状態を示すデータH(t){x(t),y(t),s(t),α(t),l(t)}を演技評価器18に供給する。なお、手振り認識技術に関しては、“Lars Bretzner,Ivan laptev and Tony Lindberg.Hand Gesture recognition using Multi-Scale Colour Features,Hierarchical Models and Particle Filtering.煤ihttp://cg.cs.uni-bonn.de/docs/teaching/2003/SS/cv-seminar/documents/papers/bretzner02hand.pdf)に記載されている。
When an image is supplied from the camera
音声認識器16は、マイク音声入力器11から音声が供給されると、音声をテキストに変換し、テキストデータTとして演技評価器18に供給する。
When the voice is supplied from the microphone voice input unit 11, the
韻律認識器17は、マイク音声入力器11から音声が入力されると、音声を解析し、音声の高さ、強さ及び速さを検出する。その後、韻律認識器17は、時刻tにおける韻律を示すデータPRO(t){pitch(t),power(t),speed(t)}を演技評価器18に供給する。
When a voice is input from the microphone voice input unit 11, the
演技評価器18は、各認識器から供給されたデータと、シナリオコントローラ19から供給されたユーザの演技の手本となるユーザ演技教師データとを用いて、重み付きデータ間距離を用いた算出方法により、ユーザの演技における各モーダルについての演技評価値及び総合評価値を算出する。ここで、総合評価値とは、全てのモーダルについての演技評価値を用いて算出されるものであり、ユーザ演技を総合的に評価し、ストーリの進行を決定するものである。その後、演技評価器18は、演技評価値のデータと総合評価値のデータとを演技評価結果データとして、シナリオコントローラ19に供給する。
The
以下に、演技評価器18が、重み付きデータ間距離を用いて、時刻tにおける各モーダルについての演技評価値を算出する方法について説明する。
Hereinafter, a method in which the
演技評価器18は、顔認識器12から供給されたデータF(t)と、シナリオコントローラ19から供給されたユーザ演技教師データFt(t)とを用いて、以下の式(1)により、時刻tにおける演技評価値Fscore(t)を算出する。
The
Fscore(t)=Σexp(−Wi|Fi−Fti|)/N・・・(1)
ここで、i=0〜4であり、F0=x,F1=y,F2=roll,F3=pitch,F4=yowである。よって、データ数Nは、N=5となる。また、Ftiは、Fiに対するユーザ演技教師データであり、Wiは、データの重み係数である。
Fscore (t) = Σexp (−Wi | Fi−Fti |) / N (1)
Here, i = 0 to 4, F0 = x, F1 = y, F2 = roll, F3 = pitch, and F4 = yow. Therefore, the number of data N is N = 5. Fti is user acting teacher data for Fi, and Wi is a data weighting factor.
また、演技評価器18は、視線認識器13から供給されたデータG(t)と、シナリオコントローラ19から供給されたユーザ演技教師データGt(t)とを用いて、以下の式(2)により、演技評価値Gscore(t)を算出する。
Further, the
Gscore(t)=Σexp(−Wi|Gi−Gti|)/N・・・(2)
ここで、i=0〜3であり、G0=θr,G1=φr,G2=θl,G3=φlである。よって、データ数Nは、N=4となる。また、Gtiは、Giに対するユーザ演技教師データであり、Wiは、データの重み係数である。
Gscore (t) = Σexp (−Wi | Gi−Gti |) / N (2)
Here, i = 0 to 3, G0 = θr, G1 = φr, G2 = θl, and G3 = φl. Therefore, the number of data N is N = 4. Gti is user acting teacher data for Gi, and Wi is a data weighting coefficient.
また、演技評価器18は、表情認識器14から供給されたデータE(t)と、シナリオコントローラ19から供給されたユーザ演技教師データEt(t)とを用いて、以下の式(3)により、演技評価値Escore(t)を算出する。
The
Escore(t)=Σexp(−Wi|Ei−Eti|)/N・・・(3)
ここで、Eiは特徴点間距離を示すデータであり、図2で示すようにi=0〜15である。よって、データ数Nは、N=16となる。また、Etiは、Eiに対するユーザ演技教師データであり、Wiは、データの重み係数である。
Escore (t) = Σexp (−Wi | Ei−Eti |) / N (3)
Here, Ei is data indicating the distance between feature points, and i = 0 to 15 as shown in FIG. Therefore, the number of data N is N = 16. Eti is user acting teacher data for Ei, and Wi is a data weighting coefficient.
また、演技評価器18は、手振り認識器15から供給されたデータH(t)と、シナリオコントローラ19から供給されたユーザ演技教師データHt(t)とを用いて、以下の式(4)により、演技評価値Hscore(t)を算出する。
The
Hscore(t)=Σexp(−Wi|Hi−Hti|)/N・・・(4)
ここで、i=0〜4であり、H0=x,H1=y,H2=s,H3=α,H4=lである。よって、データ数Nは、N=5となる。また、Htiは、Hiに対するユーザ演技教師データであり、Wiは、データの重み係数である。
Hscore (t) = Σexp (−Wi | Hi−Hti |) / N (4)
Here, i = 0 to 4, H0 = x, H1 = y, H2 = s, H3 = α, and H4 = l. Therefore, the number of data N is N = 5. Hti is user acting teacher data for Hi, and Wi is a data weighting coefficient.
また、演技評価器18は、音声認識器16から供給されたテキストデータTと、シナリオコントローラ19から供給されたユーザ教師データTtとを用いて、以下の式(5)により演技評価値Tscore(t)を算出する。
Further, the
Tscore(t)=exp(−W*Levenshtein距離)・・・(5)
ここで、Levenshtein距離とは、音声認識器16から供給されたテキストデータTを、シナリオコントローラ19から供給されたユーザ演技教師データTtに変換するために、置換、挿入、又は削除しなければならない最小の文字数である。また、Wは、データの重み係数である。
Tscore (t) = exp (−W * Levenshtein distance) (5)
Here, the Levenshtein distance is the minimum value that must be replaced, inserted, or deleted in order to convert the text data T supplied from the
また、演技評価器18は、韻律認識器17から供給されたデータPRO(t)と、シナリオコントローラ19から供給されたユーザ演技教師データPROt(t)とを用いて、以下の式(6)により、演技評価値PROscore(t)を算出する。
The
PROscore(t)=Σexp(−Wi|PROi−PROti|)/N・・・(6)
ここで、i=0〜2であり、PRO0=pitch,PRO1=power,PRO2=speedである。よって、データ数は、N=3となる。また、PROtiは、PROiに対するユーザ演技教師データであり、Wiは、データの重み係数である。
PROscore (t) = Σexp (−Wi | PROi−PROti |) / N (6)
Here, i = 0 to 2, PRO0 = pitch, PRO1 = power, PRO2 = speed. Therefore, the number of data is N = 3. PROti is user acting teacher data for PROi, and Wi is a data weighting factor.
その後、演技評価器18は、上述した数式(1)〜(6)によって得られた時刻tにおける演技評価値を用いて、シナリオコントローラ19に供給する演技評価値を算出する。
Thereafter, the
ここで、演技評価器18は、演技評価の開始・終了間を1シーンとし、また、音声認識結果が1シーンに収まるようにシーンを定義し、1シーン終了毎にシナリオコントローラ19に供給する演技評価値を算出する。
Here, the
具体的に、演技評価器18は、音声以外のモーダルについては、時刻tにおける演技評価値をシーンの時間で積分する。また、音声については、時刻tにおける演技評価値を1シーンにデータが入力された回数で平均する。このように算出して得られた値をシナリオコントローラ19に供給する演技評価値とする。
Specifically, the
また、演技評価器18は、以上により算出された全てのモーダルについての演技評価値の平均値、又は重み付き平均値を総合評価値とする。
Further, the
その後、演技評価器18は、各モーダルについての演技評価値のデータ及び総合評価値のデータを演技評価結果データとして、シナリオコントローラ19に供給する。
Thereafter, the
シナリオコントローラ19は、演技評価器18が演技評価を行う際、ユーザ演技教師データを演技評価器18に供給する。
The
また、シナリオコントローラ19は、各モーダルについての演技評価値及び総合評価値に対して、それぞれ一定の閾値を有しており、演技評価器18から演技評価結果データが供給されると、演技評価値とその閾値とを、また、総合評価値とその閾値とを比較する。
Further, the
この比較結果を受けて、シナリオコントローラ19は、エージェント21がユーザに対してどのような動作をすべきかを示すエージェント動作データをエージェントコントローラ20に供給し、また、次のユーザ演技教師データを演技評価器18に供給する。
In response to this comparison result, the
エージェントコントローラ20は、シナリオコントローラ19からエージェント動作データが供給されると、このエージェント動作データをもとにエージェント21を制御する。
When the agent operation data is supplied from the
エージェント21は、エージェントコントローラ20の制御を受けて、エージェント動作データに基づく動作をする。
The agent 21 operates based on the agent operation data under the control of the
次に、上述した構成を有する演技評価装置1がユーザの演技を評価する動作について、演技練習モードと、舞台本番モードとに分けて説明する。
Next, the operation in which the
演技評価装置1がユーザ演技を評価する動作は、例えば図3及び図4のフローチャートに示すような順序で行われる。
The
演技練習モードにおける演技評価装置1の動作を図3に示す。
The operation of the
先ずステップS1において、シナリオコントローラ19は、ストーリの始めのシーンにおけるユーザの演技の内容をユーザに伝えるためのエージェント動作データをエージェントコントローラ20に供給する。また、シナリオコントローラ19は、ストーリの始めのシーンに対応するユーザ演技教師データを演技評価器18に供給する。
First, in step S1, the
次にステップS2において、エージェント21は、エージェントコントローラ20の制御を受けて、舞台監督として始めのシーンの演技内容をユーザに伝える。
Next, in step S2, the agent 21 receives the control of the
ステップS3において、カメラ画像入力器10は、エージェント21の指示を受けたユーザの演技の画像を、また、マイク音声入力器11は、音声を入力し、入力した画像と音声とを上述した各認識器に供給する。
In step S3, the camera
その後ステップS4において、各認識器は、画像処理及び音声処理を行うと、各モーダルの認識結果のデータを演技評価器18に供給する。
Thereafter, in step S4, when each recognizer performs image processing and sound processing, it supplies data of recognition results of each modal to the
ステップS5において、演技評価器18は、各認識器から供給されたデータとシナリオコントローラ19から供給されたユーザ演技教師データとを用いて、ユーザの演技評価値を算出し、この演技評価値のデータと総合評価値のデータとを演技評価結果データとしてシナリオコントローラ19に供給する。
In step S5, the
ステップS6において、シナリオコントローラ19は、演技評価結果データが供給されると、演技評価値とその閾値とを、また、総合評価値とその閾値とを比較する。ここで、総合評価値がその閾値以上である場合、ステップS7に進む。一方、総合評価値がその閾値未満である場合、ステップS9に進む。
In step S6, when the performance evaluation result data is supplied, the
総合評価値がその閾値以上である場合、ステップS7において、シナリオコントローラ19は、次のシーンにおけるユーザの演技の内容をユーザに伝えるためのエージェント動作データをエージェントコントローラ20に供給する。また、シナリオコントローラ19は、次のシーンに対応するユーザ演技教師データを演技評価器18に供給する。
When the comprehensive evaluation value is equal to or greater than the threshold value, in step S7, the
ステップS8において、エージェント21は、エージェントコントローラ20の制御を受けて、舞台監督として次のシーンの演技内容をユーザに伝える。
In step S8, the agent 21 receives the control of the
一方、総合評価値がその閾値未満である場合、ステップS9において、シナリオコントローラ19は、演技評価値がその閾値未満であるモーダルについて、現在の演技の修正点をユーザに伝えるためのエージェント動作データをエージェントコントローラ20に供給する。また、シナリオコントローラ19は、再度、現在のシーンに対応するユーザ演技教師データを演技評価器18に供給する。
On the other hand, if the overall evaluation value is less than the threshold value, in step S9, the
ステップS10において、エージェント21は、エージェントコントローラ20の制御を受けて、現在の演技の修正点をユーザに伝える。
In step S10, the agent 21 receives the control of the
このように、演技練習モードでは、総合評価値とその閾値との比較結果によって、ユーザが次のシーンの演技を行うか、再度、現在のシーンの演技を行うかが決定される。 As described above, in the performance practice mode, it is determined whether the user performs the next scene or again performs the current scene, based on the comparison result between the comprehensive evaluation value and the threshold value.
例えば、演技練習モードでは、
エージェントA(舞台監督):「じゃあ、空を仰ぐ感じで『おお、ロミオ、あなたはなぜロミオなの?』って言ってみて。」
ユーザ:「(カメラ画像入力器及びマイク音声入力器の前で、空を仰ぎながら)おお、ロミオ、あなたはなぜロミオなの?」
演技評価器:Fscore=0.9,Gscore=0.9,Escore=0.8,Hscore=0.8,Tscore=0.5,PROscore=0.3
シナリオコントローラ:ScoreThreshold(80)>Score(70) Then Repeat
エージェントA(舞台監督):「今の演技は70点だな。表情もポーズも良いけれど、台詞回しがイマイチだね。もう一回やってみて。」
ユーザ:「(カメラ画像入力器及びマイク音声入力器の前で、空を仰ぎながら)『おお、ロミオ、あなたはなぜロミオなの?』」
演技評価器:Fscore=0.9,Gscore=0.9,Escore=0.9,Hscore=0.9,Tscore=1,PROscore=0.9
シナリオコントローラ:ScoreThreshold(80)<Score(92) Then Go To Next
エージェントA(舞台監督):「なかなか良くやったね。92点!じゃあ次のシーンに行ってみようか。」
といった演技評価装置1とユーザとの相互動作によってストーリを進行させていく。
For example, in the acting practice mode,
Agent A (stage director): “So, look up at the sky and say,“ Oh, Romeo, why are you Romeo? ”
User: “Looking at the sky in front of the camera image input device and microphone audio input device, oh, Romeo, why are you Romeo?”
Performance evaluator: Fscore = 0.9, Gscore = 0.9, Escore = 0.8, Hscore = 0.8, Tscore = 0.5, PROscore = 0.3
Scenario controller: Score Threshold (80)> Score (70) Then Repeat
Agent A (stage director): “I currently have 70 performances. The expressions and poses are good, but the dialogue is not good. Try again.”
User: “(Looking up at the sky in front of the camera image input device and microphone audio input device)“ Oh, Romeo, why are you Romeo? ”
Performance evaluator: Fscore = 0.9, Gscore = 0.9, Escore = 0.9, Hscore = 0.9, Tscore = 1, PROscore = 0.9
Scenario controller: Score Threshold (80) <Score (92) Then Go To Next
Agent A (stage director): “I did quite well. 92 points! Then let's go to the next scene?”
The story is advanced by the interaction between the
一方、舞台本番モードにおける演技評価装置1の動作を図4に示す。
On the other hand, the operation of the
先ずステップS11において、シナリオコントローラ19は、ストーリの始めのシーンにおけるエージェントの動作を制御するエージェント動作データをエージェントコントローラ20に供給する。また、シナリオコントローラ19は、ストーリの始めのシーンに対応するユーザ演技教師データを演技評価器18に供給する。
First, in step S11, the
次にステップS12において、エージェント21は、エージェントコントローラ20の制御を受けて、ユーザの相手役としてストーリの始めのシーンの演技を行う。
Next, in step S12, the agent 21 receives the control of the
続いてステップS13において、ユーザが、相手役であるエージェント21の演技を受けて、始めのシーンの演技を行うと、カメラ画像入力器10はユーザの演技の画像を、また、マイク音声入力器11はユーザの演技の音声を入力し、入力した画像と音声とを上述した各認識器に供給する。
Subsequently, in step S13, when the user performs the action of the first scene in response to the acting of the partner agent 21, the camera
その後ステップS14において、各認識器は、画像処理及び音声処理を行うと、各モーダルの認識結果のデータを演技評価器18に供給する。
Thereafter, in step S <b> 14, when each recognizer performs image processing and sound processing, it supplies data of recognition results of each modal to the
ステップS15において、演技評価器18は、各認識器から供給されたデータとシナリオコントローラ19から供給されたユーザ演技教師データとを用いて、ユーザの演技評価値を算出し、この演技評価値のデータと総合評価値のデータとを演技評価結果データとしてシナリオコントローラ19に供給する。
In step S15, the
ステップS16において、シナリオコントローラ19は、次のシーンにおけるエージェントの動作を制御するエージェント動作データと、総合評価値に対応した観客の反応をユーザに示すためのエージェント動作データとをエージェントコントローラ20に供給する。また、シナリオコントローラ19は、次のシーンに対応するユーザ演技教師データを演技評価器18に供給する。
In step S <b> 16, the
ステップS17において、エージェントコントローラ20の制御を受けたエージェント21は、観客として、現在のシーンのユーザ演技に対する反応をユーザに示す。
In step S17, the agent 21 under the control of the
ステップS18において、エージェントコントローラ20の制御を受けたエージェント21は、ユーザの相手役として次のシーンの演技を行う。
In step S18, the agent 21 under the control of the
例えば、舞台本番モードでは、
エージェントA(ロミオ):「もしこれに手を触れて汚したのであれば、自分は赤面した巡礼だから、償いのために接吻させてほしい。」
ユーザ(ジュリエット):(カメラ画像入力器及びマイク音声入力器の前で、はにかむ様子で)「あなたのご信心はあまりにもお行儀がよく、お上品でございます。聖者にだって手はございますもの。巡礼がお触れになってもよろしゅうございます。でも、接吻はいけませんわ。」
演技評価器:Fscore=0.9,Gscore=0.9,Escore=0.9,Hscore=0.9,Tscore=1,PROscore=0.9
シナリオコントローラ:ScoreThreshold(80)<Score(92) Then Go To Next
エージェントB(観客):大きな拍手
といった演技評価装置1とユーザとの相互動作によってストーリを進行させていく。
For example, in stage production mode,
Agent A (Romeo): "If you touch this and get dirty, I'm a blush pilgrimage, so let me kiss you for compensation."
User (Juliet): (In front of the camera image input device and microphone audio input device) I ’m happy to hear from you, but you should n’t kiss. ”
Performance evaluator: Fscore = 0.9, Gscore = 0.9, Escore = 0.9, Hscore = 0.9, Tscore = 1, PROscore = 0.9
Scenario controller: Score Threshold (80) <Score (92) Then Go To Next
Agent B (audience): The story is advanced by the interaction between the
以上、演技評価器18が、重み付きデータ間距離を用いて演技評価値を算出する場合における演技評価装置1の構成及び動作について説明したが、演技評価器18が演技評価値を算出する方法としては、重み付きデータ間距離を用いる方法以外に、ベイジアン・ネットワークを用いる方法もある。
As mentioned above, although the structure and operation | movement of the
ベイジアン・ネットワークを用いた演技評価器18の構成を図5に示す。
FIG. 5 shows a configuration of the
なお、図5では、各認識器とシナリオコントローラ19についても併せて示している。
In FIG. 5, each recognizer and the
演技評価器18は、各時刻での各モーダルの認識器の認識結果を状態変数とするノードと、シーンの種類を状態変数とするノードとで構成され、各ノードの因果関係を有効グラフで繋いだベイジアン・ネットワーク構造を有する。
The
ここで、各ノードは条件付き確率分布(CPD)又は条件付き確率テーブル(CPT)を有する。 Here, each node has a conditional probability distribution (CPD) or a conditional probability table (CPT).
ベイジアン・ネットワーク構造は、デザイナーによって設計される場合や、サンプルデータから学習により獲得される場合があり、後者の構造は、実際にユーザがある演技をした場合の各認識器における時系列データを集めてサンプルデータとし、K2アルゴリズム、MCMC法等を用いて獲得される。 A Bayesian network structure may be designed by a designer or acquired by learning from sample data. The latter structure collects time-series data in each recognizer when a user actually performs a certain performance. Sample data and obtained using the K2 algorithm, MCMC method, or the like.
ベイジアン・ネットワークを用いて、ユーザが現在のシーンにどれだけ適合した演技を行ったかを表す演技適合確率は、以下のように算出される。 Using the Bayesian network, the performance matching probability indicating how much the user has performed to the current scene is calculated as follows.
先ず、シナリオコントローラ19が、現在のシーンのIDを示すユーザ演技教師データ(SCENEID)を演技評価器18に供給する。
First, the
各モーダルの認識器が画像処理及び音声処理を行った後、音声認識器16以外の認識器からは、各時刻において、その認識結果のデータが対応するノードに供給される。また、音声認識器16からは、認識結果のデータが供給された時刻において、その認識結果のデータが対応するノードに供給される。
After each modal recognizer performs image processing and voice processing, the recognition result data other than the
続いて、演技評価器18は、各時刻における認識器の認識結果のデータが各ノードに供給されると、π−λ法、ジャンクション・ツリー・アルゴリズム、Loopy・BP等の手法で推論を行い、各シーンの演技に対する評価値として、演技適合確率{Prob.(SCENEID)}を算出する。
Subsequently, the
その後、演技評価器18は、この演技適合確率として表される演技評価値のデータを演技評価結果データとしてシナリオコントローラ19に供給する。
Thereafter, the
シナリオコントローラ19は、この演技評価値に対して一定の閾値を有しており、演技評価器18から演技評価結果データが供給されると、演技評価値とその閾値とを比較する。
The
この比較結果を受けて、シナリオコントローラ19は、エージェント21がユーザに対してどのような動作をすべきかを示すエージェント動作データをエージェントコントローラ20に供給し、また、現在又は次のシーンのIDを示すユーザ演技教師データ(SCENEID)を演技評価器18に供給する。
In response to the comparison result, the
例えば、ID=3であるシーンの舞台本番モードでは、
エージェントA(ロミオ):「もしこれに手を触れて汚したのであれば、自分は赤面した巡礼だから、償いのために接吻させてほしい。」
ユーザ(ジュリエット):(カメラ画像入力器及びマイク音声入力器の前で、はにかむ様子で)「あなたのご信心はあまりにもお行儀がよく、お上品でございます。聖者にだって手はございますもの。巡礼がお触れになってもよろしゅうございます。でも、接吻はいけませんわ。」
演技評価器:Prob.(SCENEID=3)=0.9
シナリオコントローラ:ProbThreshold<Prob.(SCENEID=3) Then Go To Next
エージェントB(観客):大きな拍手
といった演技評価装置1とユーザとの相互動作によってストーリを進行させていく。
For example, in the stage production mode of the scene with ID = 3,
Agent A (Romeo): "If you touch this and get dirty, I'm a blush pilgrimage, so let me kiss you for compensation."
User (Juliet): (In front of the camera image input device and microphone audio input device) I ’m happy to hear from you, but you should n’t kiss. ”
Performance evaluator: Prob. (SCENE ID = 3) = 0.9
Scenario controller: Prob Threshold <Prob. (SCENE ID = 3) Then Go To Next
Agent B (audience): The story is advanced by the interaction between the
なお、本発明は上述した実施の形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。 It should be noted that the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.
例えば、上述した実施の形態においては、演技評価器18が演技評価値を算出する方法として、重み付きデータ間距離を用いた方法及びベイジアン・ネットワークを用いた方法についてそれぞれ説明した。しかし、重み付きデータ間距離を用いた演技評価器とベイジアン・ネットワークを用いた演技評価器とを統合した演技評価装置を構成することも可能である。具体的に、幾つかの認識器から供給されたデータから重み付きデータ間距離を計算し、その結果をベイジアン・ネットワークに供給し、演技の総合評価値を算出してもよい。また、幾つかの認識器から供給されたデータをベイジアン・ネットワークに供給し、その結果から重み付きデータ間距離を用いて演技の総合評価値を算出してもよい。
For example, in the above-described embodiments, the method using the weighted data distance and the method using the Bayesian network have been described as methods by which the
また、各認識器がユーザの演技を認識する際に用いるモーダルとして、上述した実施の形態で用いたモーダルの他に、例えば、足の動き、口の形状、目の形状、眉の形状、姿勢等を用いてもよい。 Moreover, as a modal used when each recognizer recognizes a user's performance, in addition to the modal used in the above-described embodiment, for example, the movement of the foot, the shape of the mouth, the shape of the eyes, the shape of the eyebrows, and the posture Etc. may be used.
1 演技評価装置、10 カメラ画像入力器、11 マイク音声入力器、12 顔認識器、13 視線認識器、14 表情認識器、15 手振り認識器、16 音声認識器、17 韻律認識器、18 演技評価器、19 シナリオコントローラ19、20 エージェントコントローラ、21 エージェント、40 眉、41 目、42 口、43 特徴点、44 特徴点間距離
DESCRIPTION OF
Claims (4)
複数のモーダルを通じて上記ユーザの演技を認識する認識手段と、
上記認識手段によって得られた各モーダルについての認識結果のデータと該各モーダルについての教師データとを用いて該各モーダルについての演技評価値を算出するとともに、該各モーダルについての演技評価値の全てを用いて上記ユーザの演技を総合的に評価する総合評価値を算出して上記ユーザの現在のシーンにおける演技を評価する演技評価手段と、
上記演技評価値と該演技評価値の基準値となる第1の閾値とを比較するとともに上記総合評価値と該総合評価値の基準値となる第2の閾値とを比較する比較手段と、
上記総合評価値が該第2の閾値以上である場合には、次のシーンにおける上記ユーザの演技内容を該ユーザに報知し、該総合評価値が該第2の閾値未満である場合には、上記演技評価値が第1の閾値未満であるモーダルについての上記現在のシーンの演技の修正点を上記ユーザに報知する報知手段と
を備える演技評価装置。 A performance evaluation device for evaluating a user's performance in a predetermined scene ,
Recognition means for recognizing the user's performance through a plurality of modals;
The performance evaluation value for each modal is calculated using the recognition result data for each modal obtained by the recognition means and the teacher data for each modal, and all the performance evaluation values for each modal are calculated. a performance evaluation means for evaluating the performance of the current scene of the user to calculate the overall evaluation value for comprehensively evaluating the performance of the user using,
Comparing means for comparing the performance evaluation value with a first threshold value serving as a reference value for the performance evaluation value and comparing the comprehensive evaluation value with a second threshold value serving as a reference value for the comprehensive evaluation value;
When the comprehensive evaluation value is equal to or greater than the second threshold, the user's performance content in the next scene is notified to the user, and when the comprehensive evaluation value is less than the second threshold, the performance evaluation value is first the current scene of Ru performance evaluation device and a notification means for notifying to the user the modification point acting about the modal is less than the threshold.
上記演技評価手段は、上記認識結果のデータと上記教師データとのベクトル間距離を用いて上記演技評価値を算出する請求項1記載の演技評価装置。 The recognition result data and the teacher data are represented by vectors,
2. The performance evaluation device according to claim 1 , wherein the performance evaluation means calculates the performance evaluation value using a distance between vectors of the recognition result data and the teacher data.
複数のモーダルを通じて上記ユーザの演技を認識する認識工程と、
上記認識工程で得られた各モーダルについての認識結果のデータと該各モーダルについての教師データとを用いて該各モーダルについての演技評価値を算出するとともに、該各モーダルについての演技評価値の全てを用いて上記ユーザの演技を総合的に評価する総合評価値を算出して上記ユーザの現在のシーンにおける演技を評価する演技評価工程と、
上記演技評価値と該演技評価値の基準値となる第1の閾値とを比較するとともに上記総合評価値と該総合評価値の基準値となる第2の閾値とを比較する比較工程と、
上記総合評価値が該第2の閾値以上である場合には、次のシーンにおける上記ユーザの演技内容を該ユーザに報知し、該総合評価値が該第2の閾値未満である場合には、上記演技評価値が第1の閾値未満であるモーダルについての上記現在のシーンの演技の修正点を上記ユーザに報知する報知工程と
を有する演技評価方法。 A performance evaluation method for evaluating a user's performance in a predetermined scene ,
A recognition process for recognizing the user's performance through a plurality of modals;
The performance evaluation value for each modal is calculated using the recognition result data for each modal obtained in the recognition step and the teacher data for each modal, and all the performance evaluation values for each modal are calculated. A performance evaluation step of evaluating a performance in the current scene of the user by calculating a comprehensive evaluation value for comprehensively evaluating the performance of the user using
A comparison step of comparing the performance evaluation value with a first threshold value serving as a reference value for the performance evaluation value and comparing the comprehensive evaluation value with a second threshold value serving as a reference value for the comprehensive evaluation value;
When the comprehensive evaluation value is equal to or greater than the second threshold, the user's performance content in the next scene is notified to the user, and when the comprehensive evaluation value is less than the second threshold, acting evaluated how having a a notifying step of the performance evaluation value reports the fixes of the acting current scene for the modal is less than the first threshold value to the user.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005182514A JP4774825B2 (en) | 2005-06-22 | 2005-06-22 | Performance evaluation apparatus and method |
US11/472,036 US7523084B2 (en) | 2005-06-22 | 2006-06-21 | Action evaluation apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005182514A JP4774825B2 (en) | 2005-06-22 | 2005-06-22 | Performance evaluation apparatus and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007004396A JP2007004396A (en) | 2007-01-11 |
JP4774825B2 true JP4774825B2 (en) | 2011-09-14 |
Family
ID=37568672
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005182514A Expired - Fee Related JP4774825B2 (en) | 2005-06-22 | 2005-06-22 | Performance evaluation apparatus and method |
Country Status (2)
Country | Link |
---|---|
US (1) | US7523084B2 (en) |
JP (1) | JP4774825B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012125596A2 (en) | 2011-03-12 | 2012-09-20 | Parshionikar Uday | Multipurpose controller for electronic devices, facial expressions management and drowsiness detection |
KR101757219B1 (en) * | 2016-05-02 | 2017-07-12 | 주식회사 에프피온 | System and method for two-way sharing of digital book |
CN111723688B (en) * | 2020-06-02 | 2024-03-12 | 合肥的卢深视科技有限公司 | Human body action recognition result evaluation method and device and electronic equipment |
CN112581810A (en) * | 2020-12-30 | 2021-03-30 | 南京厚麟智能装饰有限公司 | Wisdom classroom system based on many screen interactions |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6021403A (en) * | 1996-07-19 | 2000-02-01 | Microsoft Corporation | Intelligent user assistance facility |
JP3742701B2 (en) * | 1997-01-27 | 2006-02-08 | 株式会社エクシング | Choreography scoring equipment for karaoke |
US6720949B1 (en) * | 1997-08-22 | 2004-04-13 | Timothy R. Pryor | Man machine interfaces and applications |
US6570555B1 (en) * | 1998-12-30 | 2003-05-27 | Fuji Xerox Co., Ltd. | Method and apparatus for embodied conversational characters with multimodal input/output in an interface device |
AU2300801A (en) * | 2000-01-03 | 2001-07-16 | Amova.Com | Automatic personalized media creation system |
JP2003187135A (en) * | 2001-12-18 | 2003-07-04 | Seyama Rie | Selection system |
US7187790B2 (en) * | 2002-12-18 | 2007-03-06 | Ge Medical Systems Global Technology Company, Llc | Data processing and feedback method and system |
US20040234938A1 (en) * | 2003-05-19 | 2004-11-25 | Microsoft Corporation | System and method for providing instructional feedback to a user |
KR20070095407A (en) * | 2005-01-26 | 2007-09-28 | 벤틀리 키네틱스 인코포레이티드 | Method and system for athletic motion analysis and instruction |
-
2005
- 2005-06-22 JP JP2005182514A patent/JP4774825B2/en not_active Expired - Fee Related
-
2006
- 2006-06-21 US US11/472,036 patent/US7523084B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2007004396A (en) | 2007-01-11 |
US7523084B2 (en) | 2009-04-21 |
US20060293900A1 (en) | 2006-12-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20190172448A1 (en) | Method of performing multi-modal dialogue between a humanoid robot and user, computer program product and humanoid robot for implementing said method | |
JP6818280B2 (en) | Dialogue system, dialogue method, dialogue device, and program | |
JP6023685B2 (en) | Emotion information display control device, method and program thereof | |
WO2002099545A1 (en) | Man-machine interface unit control method, robot apparatus, and its action control method | |
JP2019531538A (en) | Wordflow annotation | |
JP7180139B2 (en) | Robot, robot control method and program | |
CN110598576A (en) | Sign language interaction method and device and computer medium | |
JP7278307B2 (en) | Computer program, server device, terminal device and display method | |
CN111459452B (en) | Driving method, device and equipment of interaction object and storage medium | |
TWI736054B (en) | Avatar facial expression generating system and method of avatar facial expression generation | |
WO2021196644A1 (en) | Method, apparatus and device for driving interactive object, and storage medium | |
JP5252393B2 (en) | Motion learning device | |
JP4774825B2 (en) | Performance evaluation apparatus and method | |
CN114125529A (en) | Method, equipment and storage medium for generating and demonstrating video | |
JP5399966B2 (en) | GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM | |
Hamidia et al. | Voice interaction using Gaussian mixture models for augmented reality applications | |
Oliveira et al. | An active audition framework for auditory-driven HRI: Application to interactive robot dancing | |
JP6972526B2 (en) | Content providing device, content providing method, and program | |
Siqueira et al. | Disambiguating affective stimulus associations for robot perception and dialogue | |
Argyropoulos et al. | Multimodal user interface for the communication of the disabled | |
Okada et al. | Recognizing words from gestures: Discovering gesture descriptors associated with spoken utterances | |
JP5909472B2 (en) | Empathy interpretation estimation apparatus, method, and program | |
Sebe et al. | Bimodal emotion recognition | |
JP2015075906A (en) | Emotion information display control device, method of the same, and program | |
Okwechime et al. | Real-time motion control using pose space probability density estimation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080620 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100830 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100907 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101028 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110531 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110613 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140708 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |