JP6783454B2 - Interesting quantitative evaluation device, interesting quantitative evaluation method, interesting adjustment method, and program - Google Patents
Interesting quantitative evaluation device, interesting quantitative evaluation method, interesting adjustment method, and program Download PDFInfo
- Publication number
- JP6783454B2 JP6783454B2 JP2016155057A JP2016155057A JP6783454B2 JP 6783454 B2 JP6783454 B2 JP 6783454B2 JP 2016155057 A JP2016155057 A JP 2016155057A JP 2016155057 A JP2016155057 A JP 2016155057A JP 6783454 B2 JP6783454 B2 JP 6783454B2
- Authority
- JP
- Japan
- Prior art keywords
- performer
- performance
- fun
- analysis result
- evaluation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本発明の実施形態は、面白さ定量評価装置、面白さ定量評価方法、面白さ調整方法、及びプログラムに関する。 Embodiments of the present invention relate to an interesting quantitative evaluation device, an interesting quantitative evaluation method, an interesting adjustment method, and a program.
漫才やコントなどの演目では、聴衆を笑わせることを目的とするやりとり(笑いを生むやりとり)が、演者による口演として重ね重ね披露される。漫才は、通常2人の演者のやりとりで構成される。コントは寸劇として構成される。口演において笑いを生じさせるネタ要素の形態および内容は、様々であり、台詞によるものに限らず、身振りや動作によるものも含まれる(非特許文献1)。 In performances such as Manzai and Tale, exchanges aimed at making the audience laugh (interactions that produce laughter) are repeatedly performed as oral performances by the performers. Manzai usually consists of the interaction of two performers. Tale is organized as a skit. The forms and contents of the material elements that cause laughter in oral performances are various, and include not only those based on dialogue but also those based on gestures and movements (Non-Patent Document 1).
しかしながら、上記の通り、漫才やコントなどの口演におけるネタ要素の形態および内容は、様々である。それゆえ、口演の面白さを定量的に評価することは困難であった。 However, as mentioned above, there are various forms and contents of material elements in oral performances such as comics and comics. Therefore, it was difficult to quantitatively evaluate the fun of oral performance.
本発明が解決しようとする課題は、より容易に、口演の面白さを定量的に評価する面白さ定量評価装置、面白さ定量評価方法、面白さ調整方法、及びプログラムを提供することである。 An object to be solved by the present invention is to more easily provide an fun quantitative evaluation device, a fun quantitative evaluation method, a fun adjustment method, and a program for quantitatively evaluating the fun of oral performance.
(1)上記目的を達成するため、本発明の一態様に係る面白さ定量評価装置は、演目中の演者が発した音声に基づいて導出された前記演者の話し方の傾向を示す第1解析結果と、前記演目を視聴する人の笑い声に基づいて導出された前記演者が演じた内容の傾向を示す第2解析結果と、に基づいて前記演者が演じる演目の面白さを評価する評価部と、を備え、前記第1解析結果には、前記演者である複数の人のやりとりのテンポの評価の結果が含まれる。
(2)また、上記の面白さ定量評価装置における前記第1解析結果には、前記演者が発した音声に基づいた前記演者の発話内容に関する解析結果が含まれず、前記第2解析結果には、前記演目中の台詞無しのネタ要素の割合の評価の結果が含まれる。
(3)また、本発明の一態様に係る面白さ定量評価装置は、演目中の演者が発した音声に基づいて導出された前記演者の話し方の傾向を示す第1解析結果と、前記演目を視聴する人の笑い声に基づいて導出された前記演者が演じた内容の傾向を示す第2解析結果と、に基づいて前記演者が演じる演目の面白さを評価する評価部を備え、前記第2解析結果には、前記演者が前記演目のなかでネタ要素を演じた時間間隔の情報、又は前記演目の後半に前記演者がネタ要素を演じてから前記演目の終了までの時間の情報が含まれる。
(4)また、上記の面白さ定量評価装置において、前記演目の後半に前記演者が演じたネタ要素は、前記演目の最後に演じたネタ要素である。
(5)また、本発明の一態様に係る面白さ定量評価装置は、演目中の演者が発した音声に基づいて導出された前記演者の話し方の傾向を示す第1解析結果と、前記演目を視聴する人の笑い声に基づいて導出された前記演者が演じた内容の傾向を示す第2解析結果と、に基づいて前記演者が演じる演目の面白さを評価する評価部を備え、前記第1解析結果には、前記演者が発した音声の情報量を示す情報が含まれる。
(6)また、上記の面白さ定量評価装置における前記音声の情報量には、前記演者が発した音声において、台詞に割り当てられた時間、単位時間に割り当てられたモーラ数、前記演者の台詞のうち比較的長い台詞のモーラ数のうちの1又は複数が含まれる。
(7)また、上記の面白さ定量評価装置における前記評価部は、複数の回に分けて段階的に選抜するコンテストの所定の回のうち第1の回において前記演者が演じた演目における前記第1解析結果と前記第2解析結果とに基づいて前記演者が演じた演目の面白さの第1評価値と、前記所定の回のうち前記第1の回とは異なる第2の回において前記演者が演じた演目における前記第1解析結果と前記第2解析結果とに基づいて前記演者が演じた演目の面白さの第2評価値と、を導出し、上記の面白さ定量評価装置は、前記第1評価値と前記第2評価値とに基づいて、前記第1の回と前記第2の回の両方の回より後に前記演者が演じる演目の面白さを推定する推定部をさらに備える。
(8)また、本発明の一態様に係る面白さ定量評価装置は、演目中の演者が発した音声に基づいて導出された前記演者の話し方の傾向を示す第1解析結果と、前記演目を視聴する人の笑い声に基づいて導出された前記演者が演じた内容の傾向を示す第2解析結果と、に基づいて前記演者が演じる演目の面白さを評価する評価部を備え、前記評価部は、複数の回に分けて段階的に選抜するコンテストの所定の回のうち第1の回において前記演者が演じた演目における前記第1解析結果と前記第2解析結果とに基づいて前記演者が演じた演目の面白さの第1評価値と、前記所定の回のうち前記第1の回とは異なる第2の回において前記演者が演じた演目における前記第1解析結果と前記第2解析結果とに基づいて前記演者が演じた演目の面白さの第2評価値と、を導出し、上記の面白さ定量評価装置は、前記第1評価値と、前記第2評価値と、前記第1評価値と前記第2評価値に重みづけする係数と、に基づいて、前記第1の回と前記第2の回の両方の回より後に前記演者が演じる演目の面白さを推定する推定部をさらに備える。
(9)また、上記の面白さ定量評価装置は、前記面白さが評価された演目の特徴量と評価結果とに基づいて前記演目の面白さを評価するためのモデルを生成するモデル生成部を備え、前記面白さが評価された演目の特徴量には、前記面白さが評価された演目を演じた演者が発した音声と、前記面白さが評価された演目を視聴した人の笑い声とが含まれる。
(10)また、本発明の一態様に係る面白さ定量評価方法は、コンピュータが、演目中の演者が発した音声に基づいて導出された前記演者の話し方の傾向を示す第1解析結果と、前記演目を視聴する人の笑い声に基づいて導出された前記演者が演じた内容の傾向を示す第2解析結果と、に基づいて前記演者が演じる演目の面白さを評価する過程を含み、前記第1解析結果には、前記演者である複数の人のやりとりのテンポの評価の結果、若しくは、前記演者が発した音声の情報量を示す情報が含まれ、又は、前記第2解析結果には、前記演者が前記演目のなかでネタ要素を演じた時間間隔の情報、若しくは、前記演目の後半に前記演者がネタ要素を演じてから前記演目の終了までの時間の情報が含まれる。
(11)また、本発明の一態様に係るプログラムは、演目中の演者が発した音声に基づいて導出された前記演者の話し方の傾向を示す第1解析結果と、前記演目を視聴する人の笑い声に基づいて導出された前記演者が演じた内容の傾向を示す第2解析結果と、に基づいて前記演者が演じる演目の面白さを評価するステップを、面白さ定量評価装置のコンピュータに実行させるためのプログラムであって、前記第1解析結果には、前記演者である複数の人のやりとりのテンポの評価の結果、若しくは、前記演者が発した音声の情報量を示す情報が含まれ、又は、前記第2解析結果には、前記演者が前記演目のなかでネタ要素を演じた時間間隔の情報、若しくは、前記演目の後半に前記演者がネタ要素を演じてから前記演目の終了までの時間の情報が含まれるプログラムである。
(12)また、本発明の一態様に係る面白さ定量評価装置は、演目中の演者が発した音声に基づいて導出された前記演者の話し方の傾向を示す第1解析結果と、前記演目を視聴する人の笑い声に基づいて導出された前記演者が演じた内容の傾向を示す第2解析結果と、に基づいて前記演者が演じる演目の面白さを評価した結果の評価値を生成するように形成された評価部を備え、前記評価値が所望の値になるように前記演目の台本の構成を調整する。
(13)また、本発明の一態様に係る面白さ定量評価装置は、演目中の演者が発した音声に基づいて導出された前記演者の話し方の傾向を示す第1解析結果と、前記演目を視聴する人の笑い声に基づいて導出された前記演者が演じた内容の傾向を示す第2解析結果と、に基づいて前記演者が演じる演目の面白さを評価した結果の評価値を生成するように形成された評価部を備え、前記評価値が所望の値になるように前記演目の構成を調整することで、前記演目の台本の作成を支援する。
(14)また、本発明の一態様に係る面白さ定量評価装置は、演目中の演者が発した音声に基づいて導出された前記演者の話し方の傾向を示す第1解析結果と、前記演目を視聴する人の笑い声に基づいて導出された前記演者が演じた内容の傾向を示す第2解析結果と、に基づいて前記演者が演じる演目の面白さを評価した結果の評価値を生成するように形成された評価部を備え、前記評価値に基づいて前記演目の台本を定量的に評価する。
(15)また、本発明の一態様に係る面白さ調整方法は、コンピュータが演目の面白さの調整を支援するための面白さ調整方法であって、コンピュータが、演目中の演者が発した音声に基づいて導出された前記演者の話し方の傾向を示す第1解析結果と、前記演目を視聴する人の笑い声に基づいて導出された前記演者が演じた内容の傾向を示す第2解析結果と、に基づいて前記演者が演じる第1演目の面白さを評価する過程と、コンピュータが、前記評価の結果に基づいて面白さが調整された後の第2演目の面白さを評価する過程と、を含む。
(16)また、本発明の一態様に係る面白さ調整方法は、演目中の演者が発した音声に基づいて導出された前記演者の話し方の傾向を示す第1解析結果と、前記演目を視聴する人の笑い声に基づいて導出された前記演者が演じた内容の傾向を示す第2解析結果と、に基づいて前記演者が演じる演目の面白さを評価可能に調整されたコンピュータが、対象の演目を評価して、前記対象の演目から所望の面白さが得られるように前記演目の台本の作成を支援する過程と、を含む。
(1) In order to achieve the above object, the fun quantitative evaluation device according to one aspect of the present invention is the first analysis result showing the tendency of the performer's speaking style derived based on the voice emitted by the performer during the performance. A second analysis result showing the tendency of the content played by the performer derived based on the laughter of the viewer of the performance, and an evaluation unit for evaluating the fun of the performance performed by the performer based on the results. wherein the the first analysis result, Ru contain the results of the evaluation of the tempo of a plurality of human interaction is the performer.
(2) Further, the first analysis result in the above-mentioned fun quantitative evaluation device does not include the analysis result regarding the utterance content of the performer based on the voice uttered by the performer , and the second analysis result includes the analysis result. Includes the results of an evaluation of the proportion of non-verbal material elements in the performance .
(3) Further, the fun quantitative evaluation device according to one aspect of the present invention provides the first analysis result showing the tendency of the performer's speaking style derived based on the voice emitted by the performer during the performance, and the performance. The second analysis is provided with a second analysis result showing the tendency of the content performed by the performer derived based on the laughter of the viewer and an evaluation unit for evaluating the fun of the performance performed by the performer based on the second analysis result. The result includes information on the time interval in which the performer played the material element in the performance , or information on the time from when the performer played the material element in the latter half of the performance to the end of the performance.
( 4 ) Further, in the above-mentioned fun quantitative evaluation device, the material element played by the performer in the latter half of the performance is the material element played at the end of the performance.
( 5 ) Further, the fun quantitative evaluation device according to one aspect of the present invention provides the first analysis result showing the tendency of the performer's speaking style derived based on the voice emitted by the performer during the performance, and the performance. The first analysis is provided with a second analysis result showing a tendency of the content performed by the performer derived based on the laughter of the viewer, and an evaluation unit for evaluating the fun of the performance performed by the performer based on the result. The result includes information indicating the amount of information of the voice emitted by the performer.
( 6 ) Further, the amount of information of the voice in the above-mentioned fun quantitative evaluation device includes the time allotted to the dialogue, the number of mora assigned to the unit time, and the dialogue of the performer in the voice uttered by the performer. Among them, one or more of the number of mora of relatively long dialogue is included .
(7 ) Further, the evaluation unit in the above-mentioned fun quantitative evaluation device is the first in the performance performed by the performer in the first of the predetermined times of the contest in which the contest is divided into a plurality of times and selected stepwise. The first evaluation value of the fun of the performance performed by the performer based on the 1 analysis result and the second analysis result, and the performer in the second time different from the first time in the predetermined times. Based on the first analysis result and the second analysis result in the performance performed by the performer, the second evaluation value of the fun of the performance performed by the performer is derived, and the fun quantitative evaluation device is described. An estimation unit for estimating the fun of the performance performed by the performer after both the first and second evaluations based on the first evaluation value and the second evaluation value is further provided.
( 8 ) Further, the fun quantitative evaluation device according to one aspect of the present invention provides the first analysis result showing the tendency of the performer's speaking style derived based on the voice emitted by the performer during the performance, and the performance. The evaluation unit is provided with a second analysis result showing the tendency of the content performed by the performer derived based on the laughter of the viewer, and an evaluation unit for evaluating the fun of the performance performed by the performer based on the result. , The performer plays based on the first analysis result and the second analysis result in the performance performed by the performer in the first of the predetermined times of the contest which is divided into a plurality of times and selected stepwise. The first evaluation value of the fun of the performance, the first analysis result and the second analysis result in the performance performed by the performer in the second time different from the first time in the predetermined time. Based on the above, a second evaluation value of the fun of the performance performed by the performer is derived, and the fun quantitative evaluation device uses the first evaluation value, the second evaluation value, and the first evaluation. An estimation unit that estimates the fun of the performance performed by the performer after both the first and second times is further based on the value and the coefficient that weights the second evaluation value. Be prepared.
(9) Further, the above-mentioned fun quantitative evaluation device includes a model generation unit that generates a model for evaluating the fun of the play based on the feature amount of the play whose fun is evaluated and the evaluation result. In preparation, the feature quantity of the performance evaluated for the fun includes the voice emitted by the performer who performed the performance evaluated for the fun and the laughter of the person who watched the performance evaluated for the fun. included.
( 10 ) Further, the fun quantitative evaluation method according to one aspect of the present invention includes a first analysis result showing a tendency of the performer's speaking style derived by a computer based on the voice emitted by the performer during the performance. only contains a second analysis results showing the trend of what the performers, which is derived based on the people of laughter to watch the repertoire is played, the process of evaluating the interest of the performers play repertoire on the basis of, the The first analysis result includes the result of evaluation of the tempo of the interaction of a plurality of persons who are the performers, or the information indicating the amount of information of the voice emitted by the performer, or the second analysis result includes the result of evaluation. , Information on the time interval in which the performer played the material element in the performance, or information on the time from when the performer played the material element in the latter half of the performance to the end of the performance .
( 11 ) Further, the program according to one aspect of the present invention includes a first analysis result showing a tendency of the performer's speaking style derived based on the voice emitted by the performer during the performance, and a person who watches the performance. The computer of the quantification evaluation device is made to perform a step of evaluating the fun of the performance performed by the performer based on the second analysis result showing the tendency of the content played by the performer derived based on the laughter. The first analysis result includes information indicating the result of evaluation of the tempo of the interaction of a plurality of persons who are the performers, or the amount of information of the voice emitted by the performer, or The second analysis result includes information on the time interval in which the performer played the material element in the program, or the time from when the performer played the material element in the latter half of the program to the end of the program. It is a program that contains the information of .
(12) Further, the fun quantitative evaluation device according to one aspect of the present invention provides the first analysis result showing the tendency of the performer's speaking style derived based on the voice emitted by the performer during the performance, and the performance. To generate an evaluation value as a result of evaluating the fun of the performance performed by the performer based on the second analysis result showing the tendency of the content performed by the performer derived based on the laughter of the viewer. A formed evaluation unit is provided, and the composition of the script of the performance is adjusted so that the evaluation value becomes a desired value.
(13) Further, the fun quantitative evaluation device according to one aspect of the present invention provides the first analysis result showing the tendency of the performer's speaking style derived based on the voice emitted by the performer during the performance, and the performance. To generate an evaluation value as a result of evaluating the fun of the performance performed by the performer based on the second analysis result showing the tendency of the content performed by the performer derived based on the laughter of the viewer. The formed evaluation unit is provided, and the composition of the program is adjusted so that the evaluation value becomes a desired value, thereby supporting the creation of the script of the program.
(14) Further, the fun quantitative evaluation device according to one aspect of the present invention provides the first analysis result showing the tendency of the performer's speaking style derived based on the voice emitted by the performer during the performance, and the performance. To generate an evaluation value as a result of evaluating the fun of the performance performed by the performer based on the second analysis result showing the tendency of the content performed by the performer derived based on the laughter of the viewer. It is provided with a formed evaluation unit, and the script of the performance is quantitatively evaluated based on the evaluation value.
(15) Further, the fun adjustment method according to one aspect of the present invention is an fun adjustment method for the computer to support the adjustment of the fun of the performance, and the computer makes a sound produced by the performer during the performance. The first analysis result showing the tendency of the performer's speaking style derived based on the above, and the second analysis result showing the tendency of the content played by the performer derived based on the laughter of the viewer of the performance. The process of evaluating the fun of the first performance performed by the performer based on the above, and the process of the computer evaluating the fun of the second performance after the fun is adjusted based on the result of the evaluation. Including.
(16) Further, the fun adjustment method according to one aspect of the present invention includes a first analysis result showing a tendency of the performer's speaking style derived based on the voice emitted by the performer during the performance, and viewing the performance. A computer adjusted so that the fun of the performance performed by the performer can be evaluated based on the second analysis result showing the tendency of the content performed by the performer derived based on the laughter of the performer is the target performance. Includes a process of evaluating and supporting the creation of a script for the performance so that the desired performance can be obtained from the performance.
本発明の一態様によれば、より容易に、口演の面白さを定量的に評価する面白さ定量評価装置、面白さ定量評価方法、面白さ調整方法、及びプログラムを提供することができる。 According to one aspect of the present invention, it is possible to more easily provide an fun quantitative evaluation device, a fun quantitative evaluation method, a fun adjustment method, and a program for quantitatively evaluating the fun of oral performance.
以下、図面を参照し、実施形態に係る面白さ定量評価装置、面白さ定量評価方法、及びプログラムの実施形態について説明する。 Hereinafter, with reference to the drawings, an interesting quantitative evaluation device, an interesting quantitative evaluation method, and an embodiment of the program will be described.
(第1の実施形態)
[1.面白さの定量評価装置の構成]
図1は、本実施形態の面白さ定量評価装置1の概要を示す図である。
面白さ定量評価装置1は、演目中の演者が発した音声に基づいて導出された演者の話し方の傾向を示す第1解析結果と、その演目を視聴する人の笑い声に基づいて導出された演者が演じた内容の傾向を示す第2解析結果と、に基づいて、演者が演じる演目の面白さを評価する。
(First Embodiment)
[1. Configuration of quantitative evaluation device for fun]
FIG. 1 is a diagram showing an outline of the fun
The fun
面白さ定量評価装置1は、漫才やコントなどにおける口演の内容に関する指標と、発話に関する指標を用いることで、その口演を定量的に評価することを可能にする。さらに、面白さ定量評価装置1は、口演についての定量的な評価結果を導出することができ、その評価結果を他の手段による評価結果と対比することが可能になる。そこで、面白さ定量評価装置1は、他の手段による評価結果を利用する機械学習の手法によって、面白さ定量評価装置1による評価の精度をより高める。
The fun
本実施形態における以下の説明では、評価の対象として漫才を例示して説明する。面白さ定量評価装置1は、漫才の映像データ2に基づいて、その面白さについて定量評価する。例えば、面白さ定量評価装置1は、漫才の映像データ2として、漫才のコンテストの映像を利用する。面白さ定量評価装置1は、機械学習のための他の手段による評価結果として、上記の漫才のコンテストの審査官による評価結果を利用する。
In the following description in the present embodiment, a manzai will be illustrated and described as an evaluation target. The fun
ところで、漫才には様々な種類が存在し、「1つのストーリを披露する」、「特定の状況について複数の展開を披露する」、「1つの話題から始まり類似の話題へ展開していく」、これらの他にも多数の形態が挙げられる。 By the way, there are various types of manzai, "showing one story", "showing multiple developments in a specific situation", "starting from one topic and developing to similar topics", In addition to these, there are many other forms.
本実施形態における面白さ定量評価装置1は、このような漫才の面白さを評価するに当たり、特定の漫才の形態に依存しない指標を利用して、漫才の面白さについて評価する。例えば、本実施形態の面白さ定量評価装置1は、発話内容に依存する話の流れや話題の連続性といった漫才を構成するネタ要素の前後の接続関係を示す指標も評価の指標に含まなくてもよい。漫才を構成するネタ要素の前後の接続関係には、個々のネタ要素の内容、各ネタ要素の意味と面白さの度合い、ネタ要素間の意味的なつながり、などが関係する。面白さ定量評価装置1は、上記のような個々のネタ要素の前後の接続関係を、評価の指標に用いない場合を例示する。
In evaluating the fun of such comics, the fun
また、面白さ定量評価装置1は、聴き手に笑いをもたらすネタ要素の具体的な作成方法や、ボケに対するツッコミのパターン、また発話時の間の取り方のように、漫才の個々のネタ要素間の関係(ネタ要素間の関連)による面白さの要因についても評価の指標に含めなくてもよい。つまり、本実施形態における面白さ定量評価装置1は、面白さの評価の指標として、口演の時系列に関わる情報と言語情報を用いるものではない。
In addition, the fun
例えば、面白さ定量評価装置1は、上記の各情報によらない定量的な評価に基づいて漫才コンテストの順位を予測してもよい。面白さ定量評価装置1は、漫才を、聴衆に1回笑いを生じさせるやりとり(笑いを生むやりとり)の連鎖と捉える。ここで、1回笑いを生むやりとりを「ネタ要素」と定義する。ネタ要素の形態および内容は問わず、台詞によるもの、身振りや動作によるものも含まれる。
For example, the fun
図2は、本実施形態の面白さ定量評価装置1のハードウエア構成を示す図である。面白さ定量評価装置1は、CPU1Aと、ROM(Read Only Memory)、EEPROM(Electrically Erasable and Programmable Read Only Memory)、HDD(Hard Disk Drive)の不揮発性記憶装置1Bと、RAM(Random Access Memory)、レジスタ等の揮発性記憶装置1Cと、可搬型記録媒体ドライブ装置1Dと、入出力装置1Eと、通信インターフェース1Fなどを含むコンピュータであり、実行するプログラムにより、漫才の口演の面白さを評価する処理を実行する。
FIG. 2 is a diagram showing a hardware configuration of the fun
図3Aは、本実施形態の面白さ定量評価装置1の構成を示す図である。図3Bは、本実施形態の面白さ定量評価装置1の詳細な構成の一例を示す図である。面白さ定量評価装置1は、記憶部10と、評価部21と、平均点算出部22と、順序判定部23と、モデル生成部24と、特徴量抽出部25と、予測精度算出部26とを備える。
FIG. 3A is a diagram showing the configuration of the fun
記憶部10は、不揮発性記憶装置1Bと、揮発性記憶装置1Cとによって実現される。記憶部10は、面白さ定量評価装置1を機能させるためのプログラムの他に、学習用データ11、モデルデータ12、評定用データ13、評価結果データ14、審査結果データ15等のデータを格納する。学習用データ11、モデルデータ12、評定用データ13、評価結果データ14、審査結果データ15の詳細については後述する。
The
例えば、評価部21と、平均点算出部22と、順序判定部23と、モデル生成部24、特徴量抽出部25、予測精度算出部26等の各部は、記憶部10に格納されたプログラムをCPU1Aが実行することにより機能する。
For example, each unit such as the
評価部21は、記憶部10から読み出した評定用データ13に基づいて、演目を演じるグループの演者(以下、単に演者という。)が演じる演目の面白さを評価して、評価結果である評価値(予測評価点k(k=1,…,10))を出力する。評定用データ13には、第1解析結果131と第2解析結果132とが含まれる。第1解析結果131は、演目中の演者が発した音声に基づいて、演者の話し方の傾向を解析した結果である。第2解析結果132は、演目を視聴する人の笑い声に基づいて、演者が演じた内容の傾向を解析した結果である。例えば、評価部21は、モデル生成部24によって機械学習の手法により生成された評価モデルに基づいて、演者が演じる演目の面白さを評価する評価処理を実施して、上記の評価値(予測評価点k)を導出する。演者が演じる演目の面白さを評価する処理の詳細については後述する。
The
平均点算出部22は、評価部21により導出された各演目の演者ごとの評価値(予測評価点k)の平均を算出する。
The average
順序判定部23は、評価部21により導出された各演目のグループ(演者)ごとの評価値の平均に基づいた判定により、対象の複数の演者について、当該演者の口演の面白さの順序を決定し、評価結果データ14を生成する。面白さ定量評価装置1は、順序判定部23により決定された演者の面白さの順序に基づいて、将来実施される口演の面白さを予測してもよい。
The
予測精度算出部26は、順序判定部23により決定されたグループ(演者)の面白さの順序(評価結果データ14)と、審査結果データ15により示される演者の面白さの順序とを対比して、予測精度を算出する。
The prediction
モデル生成部24は、評価部21として機能させる評価モデルを予め生成し、モデルデータ12を生成する。例えば、モデル生成部24は、上記の評価モデルを、機械学習の手法に基づき生成する。以下、モデル生成部24の一例として、機械学習の手法の一例としてニューラルネットを適用する場合について説明する。例えば、モデル生成部24は、ニューラルネットワーク241と、学習処理部242とを含む。学習処理部242は、ニューラルネットワーク241の予備学習を制御する。予備学習を終えたニューラルネットワーク241によって、評価モデルが生成される。モデル生成部24は、生成した評価モデルをモデルデータ12として記憶部10に格納する。上記の評価モデルとは、ニューラルネットを定式化した際の、層間の結合の重み、各層のノードに与えられたバイアスなどを含む数値情報を含む。この評価モデルは、予備学習により上記の数値情報が決定される。
The
特徴量抽出部25は、演者が発する音声と、視聴者の笑い声とのそれぞれを互いに識別可能に検出する。例えば、特徴量抽出部25は、演者の近傍に配置されたマイクによって集音された音声を、演者が発する音声として検出する。特徴量抽出部25は、演者が発する音声から、その音声を構成する文字数を識別し、発声期間と非発声期間とを識別する。
特徴量抽出部25は、演者が発する音声から識別した文字数と発声期間と非発声期間とに基づいて、演者の話し方の傾向の特徴量を抽出し、記憶部10にその解析結果(第1解析結果)を書き込む。演者の話し方の傾向の特徴量の解析についての詳細な説明は後述する。
The feature
The feature
特徴量抽出部25は、客席側で集音された音声から、視聴者の笑い声を検出する。なお、演者が発する音声と、視聴者の笑い声とが混合されている場合には、混合されている音から、音声の特徴に基づいて、演者が発する音声と視聴者の笑い声のそれぞれを分離する。特徴量抽出部25は、分離した視聴者の笑い声に基づいて、演者が演じた内容の傾向を解析し、記憶部10にその解析結果(第2解析結果)を書き込む。演者が演じた内容の傾向の解析についての詳細な説明は後述する。
The feature
特徴量抽出部25は、審査官による審査結果を抽出し、その結果を記憶部10に書き込む。
The feature
[2.面白さの定量評価の方法]
面白さ定量評価装置1による面白さの定量評価の方法について説明する。面白さ定量評価装置1は、漫才口演を、演者の発話と漫才の内容の2つの側面について定量化する。なお、本実施形態においては、どの指標も1つの漫才口演全体の値を計測し、口演を前中後盤のように時系列に基づいて分割した計測は行わない定量評価の適用例を例示する。
[2. Method of quantitative evaluation of fun]
A method of quantitative evaluation of fun by the fun
[2.1 漫才の評価指標]
面白さ定量評価装置1は、漫才口演を(A)発話と(B)漫才の内容の2つの側面から捉える。
面白さ定量評価装置1は、発話については、以下の3つの特徴を計測する。発話についての3つの特徴とは、(A-1)p1:1台詞に割当て可能な時間と、(A-2)p2:1秒(単位時間)の発話に割当て可能なモーラ数と、(A-3)p3:最も長い台詞のモーラ数とである。上記は、演者が発した音声における音声の情報量の一例である。
[2.1 Evaluation index for comics]
The fun
The fun
一方、面白さ定量評価装置1は、漫才の内容については、観客に笑いを生じさせる要因であるネタ要素を扱い、以下の3つの特徴を計測する。漫才の内容についての3つの特徴とは、(B-1)p4:ネタ要素の平均時間間隔と、(B-2)p5:最後のネタ要素から漫才終了までの時間と、(B-3)p6:動作のみで台詞のないネタ要素の、全てのネタ要素に対する出現頻度の割合とである。
On the other hand, the fun
[2.1.1 発話に関する指標]
漫才は、通常2人の演者が発話する。身振りや手振りといった動作も聴衆に漫才の内容を伝える手段ではあるが、発話が主な手段である。面白さ定量評価装置1は、発話に関する特徴を定量化する。発話に関する指標p1〜p3は、映像データ2から台詞を抽出又は書き起こした文字データを用いて算出される。面白さ定量評価装置1の特徴量抽出部25は、演者が発する音声から識別した文字数と発声期間と非発声期間とに基づいて、発話に関する指標p1〜p3を導出する。
[2.1.1 Utterance index]
Manzai is usually spoken by two performers. Movements such as gestures and gestures are also means of communicating the content of comics to the audience, but utterances are the main means. The fun
本実施形態では、1台詞を会話分析における発話が次に演者に移るまでを1ターンと定義する。図4は、演者Aと演者Bのやりとりの一例を示す図である。例えば、図4のやりとりの台詞数は5である。発話に関する特徴を扱うため、書き起こした台詞の文字数ではなく、台詞の発話量により近い値が得られるモーラ(mora)数を計測する。モーラ数は基本的に平仮名の数と同じだが、拗音は数えない。例えば「がくふ」「らっこ」「れたー」は全て3モーラだが、「りょひ」は2モーラである。面白さ定量評価装置1は、演者の音声に基づいて抽出した文字データを全て読みの平仮名に変換し、台詞毎のモーラ数を計測する。面白さ定量評価装置1は、演者の音声に基づいて抽出又は書き起こした文字データを全て読みの平仮名に変換し、台詞毎のモーラ数として計測してもよい。
In this embodiment, one line is defined as one turn until the utterance in the conversation analysis moves to the next performer. FIG. 4 is a diagram showing an example of interaction between performer A and performer B. For example, the number of dialogues in the exchange in FIG. 4 is 5. In order to deal with the characteristics related to utterance, the number of mora that can obtain a value closer to the amount of utterance of the line is measured, not the number of characters of the transcribed line. The number of mora is basically the same as the number of hiragana, but youon is not counted. For example, "Gakufu", "Sea otter", and "Rae" are all 3 mora, but "Ryohi" is 2 mora. The fun
ところで、「小気味好いやりとり」、「小気味好いテンポ」のような表現があるように、やりとりの速さも漫才の評価に関係する。面白さ定量評価装置1は、p1(1台詞に割当て可能な時間)を第1解析結果131に含める。また、面白さ定量評価装置1は、発話速度に関する指標として、p2(1秒の発話に割当て可能なモーラ数)を、第1解析結果131に含める。さらには、面白さ定量評価装置1は、演者のやりとりに関する別の指標として、p3(最も長い台詞のモーラ数)を第1解析結果131に含める。これは、発話の独占が生じると、やりとりのテンポに影響を与えるためである。全台詞の中で長い台詞の割合が高い漫才も有り得るが、一又は複数の比較的長い台詞、又は、最長の台詞をサンプルとして抽出し、その長さを指標として用いる。
By the way, the speed of the exchange is also related to the evaluation of the manzai, as there are expressions such as "slightly friendly exchange" and "slightly pleasant tempo". The fun
例えば、指標p1は、式(1)に基づいて算出される。 For example, the index p1 is calculated based on the equation (1).
例えば、指標p2は、式(2)に基づいて算出される。 For example, the index p2 is calculated based on the equation (2).
上記の式(1)と式(2)とに示すように、指標p1とp2は、実際の発話速度の値と異なる。なお、式(1)と式(2)とにおいて、分子と分母とで口演時間の扱いを逆にしている。これは、台詞の場合は1台詞当りの時間、また、発話速度と関係するモーラ数の場合は1秒当りのモーラ数とする方が、より直感的に把握でき、漫才口演の実践に応用しやすくしたことによる。なお、特徴量抽出部25は、指標p1とp2を、上記式(1)と式(2)とに基づいて導出してもよい。
As shown in the above equations (1) and (2), the indexes p1 and p2 are different from the actual utterance speed values. In the formulas (1) and (2), the treatment of the oral presentation time is reversed between the numerator and the denominator. In the case of dialogue, the time per dialogue, and in the case of the number of mora related to speech speed, the number of mora per second can be grasped more intuitively, and it is applied to the practice of comic dialogue. By making it easier. The feature
[2.1.2 漫才の内容に関する指標]
漫才の内容は、漫才口演の評価に大きな影響を与える。本実施形態では、ネタ要素を聴衆に笑いを生じさせる要因として扱う。例えば、ネタ要素の数が多い程、漫才口演の評価が高いとともに、ネタ要素が評価へ与える影響も大きいものとして定義する。面白さ定量評価装置1は、p4(ネタ要素の平均時間間隔)を計測する。
[2.1.2 Indicators related to the content of comics]
The content of the manzai has a great influence on the evaluation of the manzai oral performance. In this embodiment, the material element is treated as a factor that causes the audience to laugh. For example, it is defined that the larger the number of material elements, the higher the evaluation of the comic dialogue performance, and the greater the influence of the material elements on the evaluation. The fun
一方、口演の後半に、盛り上がりを持ってくることが良いとされ、口演の印象や評価は終了直前の事柄によって左右される。そこで、口演の中で最後のネタ要素の位置が漫才口演の評価へ影響すると仮定する。面白さ定量評価装置1は、p5(最後のネタ要素から漫才終了までの時間)を計測する。
On the other hand, it is said that it is good to bring excitement in the latter half of the oral performance, and the impression and evaluation of the oral performance depends on the matter immediately before the end. Therefore, it is assumed that the position of the last material element in the oral performance affects the evaluation of the comic dialogue. The fun
前述のようにp1(1台詞に割当て可能な時間)とp2(1秒の発話に割当て可能なモーラ数)は実際の発話速度を表わした値ではない。面白さ定量評価装置1は、p1とp2を補完するために、p6(台詞無しのネタ要素の割合)を計測する。
As described above, p1 (time that can be assigned to one line) and p2 (the number of mora that can be assigned to one second of utterance) do not represent the actual utterance speed. The fun
実際の発話速度を評価項目とする場合を比較例として、本実施形態の場合と対比する。上記の比較例の場合、演者が口演において発話速度を変更することは容易である。その発話速度の変更に伴い口演の総時間が変化し、その結果、他の指標であるp1(1台詞に割当て可能な時間)、p4(ネタ要素の平均時間間隔)、p5(最後のネタ要素から漫才終了までの時間)の値が影響を受ける。本実施形態の評価の指標にした、p6(台詞無しのネタ要素の割合)は、発話に関する指標とは独立した仕様であり、実際の漫才口演に応用しやすいという利点がある。 The case where the actual speech speed is used as the evaluation item is used as a comparative example, and is compared with the case of the present embodiment. In the case of the above comparative example, it is easy for the performer to change the utterance speed in the oral performance. The total time of the oral performance changes as the speech speed changes, and as a result, other indicators such as p1 (time that can be assigned to one dialogue), p4 (average time interval of the material element), and p5 (last material element). (Time from to the end of Manzai) is affected. P6 (ratio of material elements without dialogue), which is used as an index for evaluation of the present embodiment, has a specification independent of the index related to utterance, and has an advantage that it can be easily applied to an actual comic dialogue.
特徴量抽出部25は、漫才の内容に関する指標p4〜p6を、漫才の映像データ2における観客の笑いの発生時点を検出することにより計測する。観客の笑いに関して計測するポイントは、発生時点のみであり、笑いの大きさや持続時間は計測しなくてもよい。例えば、前述の図4に示すやり取りの中では、笑いが2箇所で発生しており、特徴量抽出部25は、ネタ要素が2つあると判断する。特徴量抽出部25は、聴衆に笑いが生じれば、その内容に関係なく、ネタ要素として扱う。なお、作成者が意図していない箇所で、聴衆に笑いが生じる場合や、逆に意図した箇所で笑いが生じないことが起こり得るが、どちらであるかを台本の作成者には確認できない。面白さ定量評価装置1は、上記の両者を区別せずに扱う。
The feature
図5は、漫才の開始から終了までの時間と、検出されたネタ要素の位置を示す図である。同図において、t[i]、(i=1からN)は、観客に笑いが生じたときを示す。つまり、t[i]は、ネタ要素の発生時間である。Nは、検出されたネタ要素の数である。なお、同図において、t[0]は、漫才の開始時間である。また、t[N+1]は、漫才の終了時間であり、その値はグループ毎に異なる。 FIG. 5 is a diagram showing the time from the start to the end of the comic dialogue and the position of the detected material element. In the figure, t [i] and (i = 1 to N) indicate when the audience laughs. That is, t [i] is the generation time of the material element. N is the number of detected material elements. In the figure, t [0] is the start time of the comic book. Further, t [N + 1] is the end time of the comic dialogue, and its value differs for each group.
例えば、ネタ要素の平均時間間隔(p4)は、式(3)により算出される。 For example, the average time interval (p4) of the material element is calculated by the equation (3).
なお、式(3)において、Nは検出したネタ要素の数である。 In the equation (3), N is the number of detected material elements.
また、最後のネタ要素から漫才終了までの時間(p5)は、式(4)により算出される。 In addition, the time (p5) from the last material element to the end of the comic dialogue is calculated by the equation (4).
[2.2 対象データ]
本実施形態における対象データは、漫才コンテストにおけるデータである。
本実施形態における対象データとして、より具体的な漫才コンテストにおけるデータを適用した場合を例示して、その効果について説明する。漫才コンテストの一例として、日本においてテレビ放映される放送番組「M−1グランプリ(登録商標)」が知られている(詳しくは、http://www.m-1gp.comを参照。)。M−1グランプリは、第1回が2001年に開催され、以降、2010年まで毎年1回開催され、2010年に開催された第10回で、その開催が一旦中断された。
[2.2 Target data]
The target data in this embodiment is the data in the comic contest.
As the target data in the present embodiment, a case where more specific data in the comic dialogue contest is applied will be illustrated, and the effect will be described. As an example of the Mansai Contest, the broadcast program "M-1 Grand Prix (registered trademark)" that is televised in Japan is known (for details, see http://www.m-1gp.com). The first M-1 Grand Prix was held in 2001, and since then, it has been held once a year until 2010, and the tenth held in 2010 was temporarily suspended.
この10回開催された「M−1グランプリ」は、進行方法が年により一部異なるが、概ね同様のルールで実施されている。例えば、「M−1グランプリ」は、4段階(第10回のみ5段階)の予選(1回戦、2回戦、3回戦、準々決勝(第10回のみ実施)、準決勝)を経て、決勝戦に進出する9グループ(第1回のみ10グループ)が選ばれる。なお、第2回以降では、決勝戦へ進出するグループの内、1グループは準決勝または準々決勝敗退組から選ばれる。 The "M-1 Grand Prix" held 10 times is carried out according to the same rules, although the progress method differs depending on the year. For example, the "M-1 Grand Prix" will go through four stages (five stages only in the 10th round) qualifying rounds (1st round, 2nd round, 3rd round, quarterfinals (only 10th round), semifinals) and then to the finals. Nine groups to advance (10 groups only for the first time) are selected. From the second round onward, one group will be selected from the semi-final or quarter-final defeated groups among the groups that advance to the finals.
参加グループは、結成後10年以内のグループであり、その数は、毎回数千グループに達する。例えば、第1回M−1グランプリ2001には1、603グループが参加し、第10回M−1グランプリ2010には4、835グループが参加している。この中で、決勝戦に出場できるグループの能力は高いと判断できる。
Participating groups are groups within 10 years of formation, and the number reaches 1,000 groups each time. For example, 1,603 groups participate in the 1st M-
決勝戦では、7人の審査員が各グループの口演の出来栄えを評価して、各グループの口演に対して採点する。各グループは、各審査官によって100点を満点とする採点基準に従い採点され、その合計得点によって評価される。最終決戦への進出権を得られるのは、合計得点が上位3位(第1回のみ上位2位)までのグループである。最終決戦では、決勝戦とは異なる漫才を披露することが要求される。なお、第1回の決勝戦のみ観客の点数が加算されている。
M−1グランプリの決勝戦と最終決戦の順位は、審査員の評価によって決定される。審査の評価項目の存在や、各審査員の判定基準は不明である。
In the finals, seven judges will evaluate the performance of each group's oral performance and score each group's oral performance. Each group is scored by each examiner according to a scoring standard with a maximum of 100 points, and is evaluated by the total score. Only the groups with the highest total score (the top two in the first round) can get the right to advance to the final battle. In the final final, it is required to show a different manzai from the final. The points of the spectators are added only in the first final match.
The ranking of the final and final battles of the M-1 Grand Prix will be determined by the evaluation of the judges. The existence of evaluation items for examination and the judgment criteria for each judge are unknown.
面白さ定量評価装置1は、例えば、「M−1グランプリ」のように複数回開催された漫才コンテストの決勝戦と最終決戦についてのデータを解析の対象にする。特徴量抽出部25は、複数回開催された漫才コンテストとして、第1回漫才コンテスト(以下MZ-2001)から第10回漫才コンテスト(以下MZ-2010)の10回に渡って開催された漫才コンテストを対象としてもよい。例えば、面白さ定量評価装置1は、複数回開催された漫才コンテストの映像データ2を解析し、例えば、指標p1〜p6の値を抽出する。面白さ定量評価装置1は、各開催回のデータを1セットとするleave-one-out法で各開催回の順位を予測し、予測精度を計測する。
The fun
面白さ定量評価装置1は、第1回漫才コンテスト(以下MZ-2001)から第10回漫才コンテスト(以下MZ-2010)に、例えば、第1回開催のM−1グランプリ2001(以下M1-2001)から第10回のM−1グランプリ2010(以下M1-2010)のデータを適用してもよい。例えば、M1-2001からM1-2010のデータには、市販の映像データを利用する。市販の映像データとして、M−1グランプリthe FINAL PREMIUM COLLECTION 2001-2010、(よしもとアール・アンド・シー社)のDVDからのデータを利用してもよい。
The fun
図6は、漫才コンテストの各開催回の決勝戦と最終決戦の出場グループ数の一例を示す図である。なお、市販の映像データ等には、著作権や表現等の関係で削除されている部分が含まれる。図7は、漫才コンテストのDVDに記録された映像において削除された箇所の個数の一例を示す図である。削除された部分の台詞は必然的に解析の対象外となる。また、解析する映像データは削除時間分だけ実際の時間よりも短くなっているが、削除された映像の時間は不明である。なお、同図に示すグループのデータのうち、学習データとして使用したデータには、「学習データID」(後述の図9参照)を記載している。なお、グループ名は、仮称である。 FIG. 6 is a diagram showing an example of the number of participating groups in the finals and finals of each of the Manzai contests. It should be noted that commercially available video data and the like include parts that have been deleted due to copyright, expression, and the like. FIG. 7 is a diagram showing an example of the number of deleted parts in the video recorded on the DVD of the Manzai contest. The lines of the deleted part are inevitably excluded from the analysis. Further, the video data to be analyzed is shorter than the actual time by the deletion time, but the time of the deleted video is unknown. Of the data in the group shown in the figure, the data used as the learning data includes a "learning data ID" (see FIG. 9 described later). The group name is a tentative name.
[2.3 漫才口演の評価値の計算]
漫才の口演の評価値を計算するためのモデルを、フィードフォワード型多層ニューラルネットワークを用いて構築する。モデル生成部24におけるニューラルネットワーク241は、フィードフォワード型多層ニューラルネットワークの一例である。例えば、その詳細については、「Geoffrey E. Hinton, "Learning multiple layers of representation", Trends in Cognitive Sciences, Vol. 11,pp. 428-34, 2007.」を参照してもよい。
[2.3 Calculation of evaluation value of Manzai oral performance]
A model for calculating the evaluation value of Manzai's oral performance is constructed using a feedforward multi-layer neural network. The
図8は、本実施形態に係るニューラルネットワーク241の構成図である。同図に示すように、ニューラルネットワーク241の隠れ層数は3、各隠れ層のノード数は10である。学習処理部242は、ニューラルネットワーク241の学習を教師付きで行い、その学習処理において、バックプロパゲーション(誤差逆伝搬法)を用いた確率的勾配降下法を使用して、評価の誤差を低減し評価の精度を高めるように特性を最適化する。例えば、ニューラルネットワーク241は、H2Oパッケージを用いて構成してもよく、その場合、学習パラメータはパッケージのデフォルト値を使ってもよい。H2Oパッケージについての詳細は、http://0xdata.comを参照する。
FIG. 8 is a configuration diagram of the
なお、上記のニューラルネットワーク241の入力層のノード数は6であり、上記の各ノードには、漫才の口演データから抽出された6個の指標p1〜p6がパラメータとしてそれぞれ入力される。出力層のノード数は1であり、上記のノードは、評価結果である評価値を出力する。なお、上記のとおり各隠れ層のノード数は、入力層のノード数と出力層のノード数よりも多い。
The number of nodes in the input layer of the
図9は、本実施形態に係る学習データを示す図である。学習処理部242は、ニューラルネットワーク241の学習と検証を、leave-one-out交差検証法により行う。leave-one-out交差検証法は、標本群から1つの事例だけを抜き出してテストデータ(テスト事例)とし、残りを学習用データ(訓練事例)とする。学習処理部242は、全事例を一回ずつテストデータにして、それぞれの検証を繰り返し実施する。これを、本実施形態のニューラルネットワーク241の学習と検証に適用する。
FIG. 9 is a diagram showing learning data according to the present embodiment. The
ニューラルネットワーク241の学習には、各開催回の決勝戦の代表的な事例のデータを利用する。学習処理部242は、図9に示すように、MZ-2001〜MZ-2010各回の決勝戦から上位2グループ、下位2グループと中位1グループを抽出し、各回分の学習データとする。従って、学習処理部242は、各開催回の決勝戦のデータセットの半数程度のデータを学習時に利用する。MZ-2001は10個のうち5個、MZ-2003とMZ-2010は8個のうち5個、それら以外は9個のうち5個が、学習データとして採用される。
For the learning of the
MZ-2001〜MZ-2010の各開催回の決勝戦データを1セットとし、テストデータは各開催回の決勝戦と最終決戦に出場の全グループとする。例えば、MZ-2001がテストデータの場合、MZ-2002〜MZ-2010の各決勝戦の上位2グループ、中位1グループと下位2グループ、1セット当り5グループ、計45グループが学習データであり、MZ-2001の決勝戦の10グループと最終決戦の2グループがテストデータである。なお、MZ-2003とMZ-2010の決勝戦には9グループが出場しているが、著作権の問題によりDVDに収録されていないグループは解析せず、どちらも8グループの解析となる。 The final match data for each of the MZ-2001 to MZ-2010 will be set as one set, and the test data will be for all groups participating in the final and final finals of each event. For example, when MZ-2001 is the test data, the training data is the top 2 groups, the middle 1 group and the bottom 2 groups, 5 groups per set, and 45 groups in each final of MZ-2002 to MZ-2010. , 10 groups of the final match of MZ-2001 and 2 groups of the final match are test data. Nine groups have participated in the finals of MZ-2003 and MZ-2010, but due to copyright issues, groups not recorded on the DVD will not be analyzed, and both will be analyzed by eight groups.
上記の図9に示すように、学習に複数回使われるグループがある。例えば「PGB(仮称)」はX2006-05とX2007-05のどちらも順位が下位の学習データとして使われるグループである。一方、「KRN(仮称)」のように、上位(X2005-02)、中位(X2001-03)、下位(X2003-04)、全種類の学習データとして使われるグループもある。同一のグループであっても口演内容は毎回異なっており、学習データとしての重複は無い。ニューラルネットワークにおける学習の目的は、グループの同定や特徴抽出ではないことから、選択したデータは学習データとして適したものである。 As shown in FIG. 9 above, there are groups that are used multiple times for learning. For example, "PGB (tentative name)" is a group in which both X2006-05 and X2007-05 are used as learning data with lower ranks. On the other hand, there are also groups such as "KRN (tentative name)" that are used as all types of learning data, such as upper (X2005-02), middle (X2001-03), and lower (X2003-04). Even in the same group, the content of the oral presentation is different each time, and there is no duplication as learning data. Since the purpose of learning in the neural network is not group identification or feature extraction, the selected data is suitable as training data.
なお、学習処理部242は、学習用データ11に含めて学習時に用いる評価値(審査結果)には、実際の決勝戦において審査員が投票した得点の合計点ではなく、規格化した値を用いる。図10は、本実施形態に係る評価値を示す図である。このように審査官による得点を直接利用しない理由として、審査員の審査項目や項目毎の加点の値が明示されていないこと、評価基準の客観性が不明確であることなどが挙げられる。また、異なる開催回の点数を直接比較することも、開催回ごとに値に開きがあり困難であることも挙げられる。例えば、MZ-2002の決勝戦第1位のグループ(「FTB-RAW-(仮称)」)の点数は621点であるが、MZ-2005の決勝戦第5位のグループ(「C−TRAR(仮称)」)の点数(622点)よりも低い。
The
上記などの理由により、本実施形態では、学習に用いるグループの口演の評価値は審査員が投じた得点の合計点ではなく、図10に示す開催回毎の順位に基づいた評価値(相対値)を用いる。例えば、上位のグループには100点、中位のグループには50点、下位のグループには0点を与える。順位に基づく評価値であれば、異なる開催回のグループであっても、少なくとも同一順位のグループは同等に扱うことができる。その反面、ある開催回の1位のグループの口演が、別の開催回の例えば中位のグループの口演と同等の出来栄えであっても、異なる評価値が与えられる可能性がある。順位に基づく評価値、審査点に基づく評価値のどちらも学習上の欠点を有するものであるが、開催回毎のバラつきの影響を低減させることの効果を奏することを期待して、本実施形態では順位に基づく評価値を用いる。 For the above reasons, in this embodiment, the evaluation value of the oral performance of the group used for learning is not the total score of the scores cast by the judges, but the evaluation value (relative value) based on the ranking of each holding time shown in FIG. ) Is used. For example, the upper group is given 100 points, the middle group is given 50 points, and the lower group is given 0 points. As long as the evaluation value is based on the ranking, at least groups having the same ranking can be treated equally even if the groups are held at different times. On the other hand, even if the oral performance of the first group in one holding time is equivalent to the oral performance of the middle group in another holding time, different evaluation values may be given. Both the evaluation value based on the ranking and the evaluation value based on the examination points have learning defects, but the present embodiment is expected to have the effect of reducing the influence of the variation in each holding time. Then, the evaluation value based on the ranking is used.
ニューラルネットワーク241の学習に用いる確率的勾配降下法は、初期値依存性がある。本実施形態のモデル生成部24は、確率的勾配降下法の初期値依存性による影響を解消するために、複数個のモデルを生成する。例えば、モデル生成部24のニューラルネットワーク241は、同一のデータに基づいた学習を、学習処理部242により生成され、値が異なる乱数の種を用いて10回行い、特性の異なる10個のモデルを構築する。
The stochastic gradient descent method used for learning the
この10個のモデルは、評価部21として機能する。モデル(21−k)、(k=1,…,10)のそれぞれには、グループ毎に当該グループの評定用データ13(テストデータ)が入力される。モデル(21−k)のそれぞれに入力される評定用データ13は、グループ毎に同一のものである。各モデル(21−k)は、それぞれグループgの評価値Pg−kをグループ毎に出力する。評価値Pg−kは、グループgの評価用データ13に基づいてモデル(21−k)により導出した予測評価点kを示す。
平均点算出部22は、グループ毎に、各モデル(21−k)から出力される10個の評価値(評価値Pg−k)yの平均値Pgyを算出する。上記の関係を式(5)に示す。なお、図に示す構成は、特定の開催回の処理を示すものであり、処理の対象にする評価用データに対応する開催回毎に用意される。
These 10 models function as the
The average
上記の式(5)において、yはMZ-2001〜MZ-2010のテストデータを指し、2001はMZ-2001、2002はMZ-2002を意味し、以下同様である。
順序判定部23は、平均値Pgyに基づいて、それぞれのテストデータの予測順位Ry(y=2001,…,2010)を決定する。順序判定部23は、予測順位Ryを、「グループgの平均点算出部」が出力する評価値の平均値Pgyの大きい順に付与する。
In the above formula (5), y refers to the test data of MZ-2001 to MZ-2010, 2001 means MZ-2001, 2002 means MZ-2002, and so on.
The
予測精度算出部26は、予測順位Ryと実際の順位RRy(y=2001,…,2010)を比較し、順位相関係数を計算する。予測精度算出部26は、この順位相関係数をテストデータの予測精度Sy(y=2001,…,2010)とする。
The prediction
MZ-2001〜MZ-2010の全テストデータに対する予測精度Sを、式(6)に示す。順序判定部23は、各テストデータに対するモデルの順位予測精度Syを平均し、MZ-2001〜MZ-2010の全テストデータに対する予測精度Sとする。
The prediction accuracy S for all the test data of MZ-2001 to MZ-2010 is shown in Equation (6). The
面白さ定量評価装置1は、その検証に用いる評定用データ(テストデータ)を、MZ-2001〜MZ-2010の各回に対応する10セット(Yセット)のデータセット毎に2種類用意する。1つが決勝戦のデータであり、面白さ定量評価装置1は、そのデータに対する予測精度をスピアマンの順位相関係数で評価する。もう1つが最終決戦のデータであり、面白さ定量評価装置1は、そのデータに対する予測精度を1位のグループ(開催回の優勝グループ)を予測できたか否かをもって評価する。
The fun
図11は、面白さ定量評価装置1の検証処理を示すフローチャートである。例えば、テストデータをMZ-2001とする場合を例示して、具体的に説明する。
FIG. 11 is a flowchart showing a verification process of the fun
まず、学習処理部242は、図9に記載のMZ-2002〜MZ-2010の計45個の漫才口演データを学習用データ11として、学習を10回(M回)実行し(S10)、10個(M個)のモデルを生成する(S15)。その結果、10個(M個)の独立したモデルが生成される。
First, the
次に、MZ-2001の決勝戦に出場した10組(G組)のグループのデータ(例えば、MZ-2001決勝戦)が評価部21の各モデルに入力され、評価部21は、グループ毎の評価値を、モデルごとに導出する(S20)。
面白さ定量評価装置1は、同一グループにおける全モデルの処理を終えた後、平均点算出部23は、同一グループにおける各モデルにより導出された評価値の平均値を導出する(S25)。
面白さ定量評価装置1は、全グループの処理が終了したか否かを判定し(S30)、当該グループの全モデルの処理を終えるまで、S20からの処理を繰り返す。
全グループの処理を終えた後、順序判定部23は、各グループの評価値の平均点に基づいて順位Rykを導出し(S35)、10組(G組)の順位を導出する。
Next, the data of the groups of 10 groups (Group G) who participated in the final match of MZ-2001 (for example, the final match of MZ-2001) is input to each model of the
After the fun
The fun
After finishing the processing of all the groups, the
次に、予測精度算出部26は、S35において導出した順位と実際の順位との順位相関係数(スピアマン)を導出する(S40)。予測精度算出部26は、導出した順位相関係数を、MZ-2001決勝戦の予測精度とする。
Next, the prediction
次に、MZ-2001の最終決戦に出場した2組(D組、D<G)グループのデータ(MZ-2001最終決戦)が、決勝戦の予測に用いた10個(M個)のモデル(評価部21)に入力され、評価部21は、グループ毎の評価値を10個(M個)導出し(S45)、平均点算出部23は、同一グループにおける各モデルにより導出された評価値の平均値を導出する(S50)。次に、順序判定部23は、グループ毎の評価値の平均値に基づいて、予測1位のグループを10個(Y個)選択する(S55)。
Next, the data of the two groups (Group D, D <G) who participated in the final battle of MZ-2001 (MZ-2001 final battle) was used to predict the final battle of 10 (M) models (M). Input to the evaluation unit 21), the
面白さ定量評価装置1は、全モデルの処理を終えるまで、S45からの処理を繰り返す(S60)。全モデルの処理を終えた後、予測精度算出部26は、S50において選択した予測1位のグループが、実際に1位を獲得したグループである割合を導出し(S65)、その結果を最終決戦の予測精度とする。面白さ定量評価装置1は、上記の処理を、評価の対象にした開催回毎に実行する。
The fun
なお、解析対象の漫才コンテストは、開催回により審査方法が異なることがあり、又、実際の順位が不明な回がある。このような場合、統一可能範囲で審査方法を調整してもよい。例えば、一例に示すM1-2001では、決勝戦でのみ、札幌、大阪、福岡の吉本興業の劇場にいた観客100人ずつによる合計300点の観客点が審査員の点数に加算され、順位が決定されている。M1-2002以降では審査員による点数のみに変更されたことから、順位決定の評価基準を統一するために、M1-2001の決勝戦の解析には、審査員の点数のみによる順位を用いる。そのため、M1-2001の決勝戦は5グループの順位が実際の順位と異なる。一方、最終決戦の順位は、審査員のみによるため、実際の順位を用いた。なお、審査員の点数のみによって決定される順位を用いると、対象とするグループのデータが存在しないことがある。対象とするグループのデータが存在しない場合には、対象とするグループの順位に近接する順位のグループのデータを利用してもよい。例えば、上記のように順位を調整する場合に、最終決戦に参加しなかったグループを利用としても、最終決戦の口演データが存在しないグループは、解析の対象外にする。 In addition, the judging method of the comic contest to be analyzed may differ depending on the number of times it is held, and there are times when the actual ranking is unknown. In such a case, the examination method may be adjusted within the range that can be unified. For example, in M1-2001 shown as an example, a total of 300 spectators' points by 100 spectators at the Yoshimoto Kogyo theaters in Sapporo, Osaka, and Fukuoka will be added to the judges' points only in the final match, and the ranking will be decided. Has been done. Since M1-2002 and later, the score was changed only by the judges, so in order to unify the evaluation criteria for ranking, the ranking based only on the judges' scores will be used in the analysis of the final match of M1-2001. Therefore, in the final match of M1-2001, the ranking of the 5 groups is different from the actual ranking. On the other hand, the ranking of the final battle depends only on the judges, so the actual ranking was used. If the ranking determined only by the judges' scores is used, the data of the target group may not exist. If the data of the target group does not exist, the data of the group having a rank close to the rank of the target group may be used. For example, when adjusting the ranking as described above, even if the group that did not participate in the final battle is used, the group that does not have the oral data of the final battle is excluded from the analysis.
また、審査員による評価点が同点になる場合には、これら2グループの順位を、審査員毎の最高点の数に基づき決定した順位を解析に用いてもよい。 Further, when the evaluation points by the judges are the same, the rankings of these two groups may be used for the analysis based on the number of the highest points for each judge.
また、最終決戦では、実際の順位が不明確な場合がある。決勝戦には9グループ(M1-2001のみ10グループ)が参加し、審査員はグループ毎に100点満点の点数を付ける。全審査員の点数の合計がグループの得点となり、上位3グループが最終決戦へ進む。最終決戦では、各審査員が1つのグループに票を入れ、票数が最多のグループが優勝する。このため、最終決戦では、優勝グループ以外の2グループの票数がゼロを含めて同数の場合があり、2位と3位が定まらないことがある。例えば、M1-2009の最終決戦では全審査員が同じグループに投票しているため、1位は明らかだが、2位と3位のグループは不明である。そのため、最終決戦については、1位のグループを予測できたかで提案手法の精度を測る。 Also, in the final battle, the actual ranking may be unclear. Nine groups (10 groups only for M1-2001) will participate in the final, and the judges will give each group a maximum of 100 points. The total score of all judges will be the score of the group, and the top three groups will advance to the final battle. In the final battle, each judge will vote in one group, and the group with the most votes will win. Therefore, in the final decisive battle, the number of votes of the two groups other than the winning group may be the same including zero, and the second and third places may not be decided. For example, in the final decisive battle of M1-2009, all judges voted for the same group, so the 1st place is clear, but the 2nd and 3rd place groups are unknown. Therefore, for the final battle, the accuracy of the proposed method will be measured based on whether the first group can be predicted.
[3.結果]
[3.1 漫才コンテストの順位の予測精度]
図12は、MZ-2001〜MZ-2010の決勝戦の予測精度を示す図である。同図は、テストデータMZ-2001〜MZ-2010の決勝戦の予測順位の順位相関係数の一例を示す。この順位相関係数は、同一テストデータを入力した10個のモデルによりそれぞれ導出されたものである。順位相関係数に基づいて予測精度を判定できる。なお、最下段の平均は、全テストデータの値の平均値である。なお、具体的な数値は、テストデータMZ-2001〜MZ-2010として、テストデータM1-2001〜M1-2010を利用した場合を例示する。その場合の出場グループ数は図6を参照する。
[3. result]
[3.1 Prediction accuracy of Manzai contest ranking]
FIG. 12 is a diagram showing the prediction accuracy of the final match of MZ-2001 to MZ-2010. The figure shows an example of the rank correlation coefficient of the predicted ranking of the test data MZ-2001 to MZ-2010. This rank correlation coefficient is derived from each of the 10 models in which the same test data is input. The prediction accuracy can be determined based on the rank correlation coefficient. The average value at the bottom is the average value of all test data values. The specific numerical values are illustrated when the test data M1-2001 to M1-2010 are used as the test data MZ-2001 to MZ-2010. Refer to FIG. 6 for the number of participating groups in that case.
M1-2001〜M1-2010の全テストデータに基づいた平均予測精度は、決勝戦の順位相関係数が0.58であった。上記の決勝戦の順位相関係数の値(0.58)は、決勝戦の予測順位が実際の順位と相関があることを示している。決勝戦の精度はスピアマンの順位相関係数であり、7個のテストデータについて、相関ありの結果が得られた。
同図に示すように、強い相関が6個のテストデータ(MZ-2001、MZ-2002、MZ-2006、MZ-2007、MZ-2008、MZ-2009)、弱い相関が1個のテストデータ(MZ-2005)となっている。残りの3個のテストデータ(MZ-2003、MZ-2004、MZ-2010)については、無相関となっており、その中でもMZ-2004の予測精度(0.17)が最も低い。
The average prediction accuracy based on all the test data of M1-2001 to M1-2010 was 0.58 in the ranking correlation coefficient of the final match. The value (0.58) of the ranking correlation coefficient of the final match indicates that the predicted ranking of the final match is correlated with the actual ranking. The accuracy of the final match is Spearman's rank correlation coefficient, and correlated results were obtained for seven test data.
As shown in the figure, test data with 6 strong correlations (MZ-2001, MZ-2002, MZ-2006, MZ-2007, MZ-2008, MZ-2009) and test data with 1 weak correlation (MZ-2001, MZ-2002, MZ-2006, MZ-2007, MZ-2008, MZ-2009). It is MZ-2005). The remaining three test data (MZ-2003, MZ-2004, MZ-2010) are uncorrelated, and the prediction accuracy (0.17) of MZ-2004 is the lowest among them.
図13は、MZ -2001〜MZ -2010の最終決戦の予測精度を示す図である。同図は、テストデータMZ -2001〜MZ -2010の最終決戦の1位の予測精度の一例を示す。この予測精度は、同一テストデータを入力した10個のモデルによりそれぞれ導出された予測精度の平均値である。「高精度」の欄は、比較例として1位をランダムに予測した場合よりも精度が高い結果が得られた回を示し、高精度であると判定された場合に「GOOD」を記載している。最下段の平均は、全テストデータの値の平均値である。なお、具体的な数値は、テストデータMZ-2001〜MZ-2010として、テストデータM1-2001〜M1-2010を利用した場合を例示する。その場合の出場グループ数は図6を参照する。出場グループ数は図6を参照する。 FIG. 13 is a diagram showing the prediction accuracy of the final battle of MZ -2001 to MZ -2010. The figure shows an example of the prediction accuracy of the first place in the final battle of test data MZ -2001 to MZ -2010. This prediction accuracy is the average value of the prediction accuracy derived from each of the 10 models in which the same test data is input. In the "High accuracy" column, as a comparative example, the number of times that a result with higher accuracy than the case where the first place is randomly predicted is obtained, and when it is judged to be high accuracy, "GOOD" is described. There is. The average at the bottom is the average of all test data values. The specific numerical values are illustrated when the test data M1-2001 to M1-2010 are used as the test data MZ-2001 to MZ-2010. Refer to FIG. 6 for the number of participating groups in that case. See FIG. 6 for the number of participating groups.
なお、テストデータMZ-2001〜MZ-2010として、M1-2001〜M1-2010の全テストデータに利用した場合の平均予測精度は、最終決戦の1位予測精度が0.68であった。最終決戦の平均予測精度(0.68)は、比較例として1位をランダムに予測した場合の予測精度(0.35)の約2倍であることから、1位のグループを予測可能なことを示している。なお、比較例の1位をランダムに予測した場合の予測精度とは、M1-2001が0.5、他が0.33であり、M1-2001〜M1-2010の平均値は0.35(=(0.5 + 9x0.33)/10)である。 When the test data MZ-2001 to MZ-2010 were used for all the test data of M1-2001 to M1-2010, the average prediction accuracy was 0.68 for the first place prediction accuracy in the final battle. Since the average prediction accuracy (0.68) of the final battle is about twice the prediction accuracy (0.35) when the first place is randomly predicted as a comparative example, the first place group can be predicted. Is shown. The prediction accuracy when the first place of the comparative example is randomly predicted is 0.5 for M1-2001 and 0.33 for the others, and the average value of M1-2001 to M1-2010 is 0.35 ( = (0.5 + 9x0.33) / 10).
MZ-2001〜MZ-2010にそれぞれ対応するM1-2001〜M1-2010の10個のテストデータのうち、8個のテストデータについて、比較例として例示したランダムな予測精度の値よりも高い値となっている。さらには、4個のテストデータ(M1-2004、M1-2005、M1-2006、M1-2010)では、100%の確率で1位を予測している。なお、2個のテストデータ(M1-2003とM1-2007)で若干低い精度となっている。一方、2個のテストデータ(M1-2008とM1-2009)で1位の予測に失敗しており、どちらも比較例として例示したランダムに予測した場合の予測精度0.33(=1/3)よりも低い値である。 Of the 10 test data of M1-2001 to M1-2010 corresponding to MZ-2001 to MZ-2010, 8 test data are higher than the random prediction accuracy value illustrated as a comparative example. It has become. Furthermore, in the four test data (M1-2004, M1-2005, M1-2006, M1-2010), the first place is predicted with a 100% probability. The accuracy of the two test data (M1-2003 and M1-2007) is slightly lower. On the other hand, the prediction of the first place failed in the two test data (M1-2008 and M1-2009), and the prediction accuracy in the case of random prediction illustrated as a comparative example is 0.33 (= 1/3). ) Is lower than.
面白さ定量評価装置1の有効性をM−1グランプリのデータを用いて検証した。M−1グランプリの審査員による漫才評価の基準は不明である。面白さ定量評価装置1の評価の基準は、上記の審査員による漫才評価の基準に整合させたものではない。
The effectiveness of the fun
面白さ定量評価装置1は、独自に定めた評価基準に従って、MZ-2001〜MZ-2010にそれぞれ対応するM1-2001〜M1-2010の10個のテストデータを評価した結果、審査員による漫才評価の結果と相関性がある評価結果を導出した。
The fun
[3.2 指標p1〜p6]
提案手法は、漫才口演の評価にp1〜p6の6個の指標を用いる。それぞれの指標の予測精度に対する寄与率を調べた。順位予測にはニューラルネットワークを用いているため個々の指標の寄与率を正確に把握することは困難であるが、個々の指標を除いて予測した場合の精度の変化を調べることで、指標毎の影響の度合いを推測する。
[3.2 Indicators p1 to p6]
The proposed method uses six indexes, p1 to p6, for the evaluation of manzai oral performance. The contribution rate of each index to the prediction accuracy was investigated. Since a neural network is used for ranking prediction, it is difficult to accurately grasp the contribution rate of each index, but by examining the change in accuracy when forecasting excluding individual indexes, each index Estimate the degree of impact.
図14は、6個の指標p1〜p6の予測精度に対する影響度を示す図である。同図には、6個の指標p1〜p6から、そのうちの1つの指標を除いた場合のM1-2001〜M1-2010の決勝戦の順位予測精度の平均が示されている。同図は、p1〜p6の全ての指標を用いた場合と同様、leave-one-out法で各回10回の順位相関係数の平均を示す。「p1〜p6を用いた場合との差」は、前述の図12に記載のp1〜p6全ての指標を用いた場合の決勝戦の平均予測精度の値(0.58)との差である。
FIG. 14 is a diagram showing the degree of influence of the six indexes p1 to p6 on the prediction accuracy. The figure shows the average ranking prediction accuracy of the finals of M1-2001 to M1-2010 when one of the six indexes p1 to p6 is removed. The figure shows the average of the
同図が示すように、6個の指標p1〜p6のうち何れの指標を取り除いても全指標を用いた場合よりも順位予測精度が低下する。予測精度が低下した値の大きさから、指標の中では指標p4(ネタ要素の平均時間間隔)が最も影響が大きいものであることが分かる。以下、指標p1(1台詞に割当て可能な時間)、指標p2(1秒の発話に割当て可能なモーラ数)と指標p6(台詞無しのネタ要素の割合)、そして指標p5(最後のネタ要素から漫才終了までの時間)と続く。指標p3(最も長い台詞のモーラ数)の影響が最も低い。指標p4は、ネタ要素の時間当りの密度を計測して得られたものであることから、ネタ要素の数は口演の評価に大きな影響を与えると言える。指標p1は、演者のやりとりのテンポに関する指標であり、「やりとりの小気味好さ」とネタ要素の間隔は同等の重要性を持つことが判る。他の指標も重要ではあるが,より低い影響を持つ。同図から、発話の速さ(指標p2)は、演者同士のやりとりの速さ(指標p1)よりも重要性が低いことが判る。なお、台詞無しのネタ要素の割合(指標p6)が発話の速さ(指標p2)と同等の影響を持ち、さらには指標p5(最後のネタ要素から漫才終了までの時間)よりも大きな影響を持つことが、特徴として挙げられる。 As shown in the figure, even if any of the six indexes p1 to p6 is removed, the ranking prediction accuracy is lower than when all the indexes are used. From the size of the value whose prediction accuracy has decreased, it can be seen that the index p4 (average time interval of the material elements) has the greatest influence among the indexes. Below, index p1 (time that can be assigned to one line), index p2 (number of mora that can be assigned to one second utterance), index p6 (ratio of material elements without dialogue), and index p5 (from the last material element). Time until the end of Manzai) and so on. The influence of the index p3 (the number of mora of the longest line) is the lowest. Since the index p4 is obtained by measuring the density of the material elements per hour, it can be said that the number of material elements has a great influence on the evaluation of the oral performance. The index p1 is an index related to the tempo of the performer's interaction, and it can be seen that the "feeling of interaction" and the interval between the material elements have the same importance. Other indicators are important, but have a lower impact. From the figure, it can be seen that the speed of utterance (index p2) is less important than the speed of interaction between performers (index p1). In addition, the ratio of the material element without dialogue (index p6) has the same effect as the speed of utterance (index p2), and further has a greater effect than the index p5 (time from the last material element to the end of comic dialogue). Having is mentioned as a feature.
上記の通り、6個の指標の中で、ネタ要素の時間間隔(p4)の寄与率が最も高いと推測される。ここで、笑いの数は、台本に含まれるネタ要素の数と等価であると仮定する。つまり、漫才の面白さは笑いの数と関連しており、観客に生じる笑いの数が多い程、面白い漫才であるとの仮説が考えられる。これを検証するために、時間当りの笑いの数(p4の逆数)の値に基づく順位と、実際の順位とを、順位相関係数に基づいてその関係を示す。 As described above, it is estimated that the contribution rate of the time interval (p4) of the material element is the highest among the six indexes. Here, it is assumed that the number of laughter is equivalent to the number of material elements contained in the script. In other words, the fun of comics is related to the number of laughter, and it is hypothesized that the greater the number of laughter that occurs in the audience, the more interesting comics are. In order to verify this, the relationship between the rank based on the value of the number of laughter per hour (the reciprocal of p4) and the actual rank is shown based on the rank correlation coefficient.
前述の図12には、M1-2001〜M1-2010の決勝戦における時間当りの笑いの数(笑い密度:1=p4)に基づく順位と実際の順位の順位相関係数と、提案手法に基づく順位と実際の順位の順位相関係数が示されている。同図に示されるように、M1-2001〜M1-2010における決勝戦の順位相関係数の平均値は0.34と、無相関の値であり、提案手法による予測の順位相関係数の平均値(0.58)より低い。 Figure 12 above shows the ranking correlation coefficient between the ranking based on the number of laughter per hour (laughing density: 1 = p4) in the finals of M1-2001 to M1-2010 and the actual ranking, and the proposed method. The rank correlation coefficient between the rank and the actual rank is shown. As shown in the figure, the average value of the rank correlation coefficient of the final match in M1-2001 to M1-2010 is 0.34, which is an uncorrelated value, and the average of the rank correlation coefficient predicted by the proposed method. Lower than the value (0.58).
さらには、M1-2010の場合は(−0.24)であり、負の値かつ無相関であった。これらは、笑いの数が多い程、面白いとの仮説に反する。これらのことから、漫才の面白さの評価には、笑いの数および密度は単体では指標として使えないものであることが分かる。さらには、漫才の台本を作成する際に、単純にネタ要素を多く入れるだけでは不十分であることが上記の結果から分かる。 Furthermore, in the case of M1-2010, it was (-0.24), which was a negative value and was uncorrelated. These are contrary to the hypothesis that the more laughter you have, the more interesting it is. From these facts, it can be seen that the number and density of laughter cannot be used as indicators by themselves in evaluating the fun of comics. Furthermore, it can be seen from the above results that it is not enough to simply add a lot of material elements when creating a script for a comic book.
上記の実施形態によれば、演目中の演者が発した音声に基づいて導出された演者の話し方の傾向を示す第1解析結果と、演目を視聴する人の笑い声に基づいて導出された演者が演じた内容の傾向を示す第2解析結果と、に基づいて、演者が演じる演目の面白さを評価することにより、口演の面白さを定量的に評価することができる。 According to the above embodiment, the first analysis result showing the tendency of the performer's speaking style derived based on the voice emitted by the performer during the performance and the performer derived based on the laughter of the viewer of the performance are derived. By evaluating the fun of the performance performed by the performer based on the second analysis result showing the tendency of the performance, the fun of the oral performance can be quantitatively evaluated.
(第2の実施形態)
第2の実施形態について説明する。前述の第1の実施形態では、M1-2001からM1-2010の各開催回のデータ(履歴データ)に基づく面白さ定量評価装置1の評価結果を、各開催回の審査結果と対比して、その有効性を確認した。これに代えて、第2の実施形態では、漫才コンテストの審査結果を予測する一例について説明する。例えば、M−1グランプリは、前述の10回が開催されてから4年間の未開催期間を経て、第11回のM−1グランプリ2015(M1-2015という。)が開催された。本実施形態の手法をM1-2015に適用し、その決勝が実施される前に、決勝の順位と最終決戦の1位のグループを予測する事例について説明する。
(Second Embodiment)
A second embodiment will be described. In the first embodiment described above, the evaluation result of the fun
図15は、本実施形態の面白さ定量評価装置1の構成を示す図である。図3との相違点を中心に説明する。
面白さ定量評価装置1における記憶部10は、学習用データ11として、M1-2001からM1-2010の10回分のデータ(履歴データ)を格納し、評定用データ13として、M1-2015における予選会と準々決勝のデータを格納する。
評価部21は、評定用データ13であるM1-2015における予選会と準々決勝のデータに基づいて、対象のグループの口演の面白さを評価し、予測精度算出部26が決勝戦以降の順位を予測する。
FIG. 15 is a diagram showing the configuration of the fun
The
The
図16は、漫才コンテストの一例であるM1-2015の進行を示す図である。M1-2015は、1回戦、2回戦、3回戦の3回の予選会が行われた後、準々決勝、準決勝が行われ、準決勝において8組のグループが決勝出場者として選抜された。M1-2015では、面白い口演をした演者を複数の回に分けて段階的に選抜する。M1-2015の参加者(演者)は、所定の回ごとに演目を演じ、演じた演目の面白さの程度に基づいて選択される。8組のグループの選抜の結果は、2015年11月19日に公開された。 FIG. 16 is a diagram showing the progress of M1-2015, which is an example of a comic contest. In M1-2015, after three qualifying rounds of the first, second and third rounds were held, the quarterfinals and semifinals were held, and eight groups were selected as finalists in the semifinals. In M1-2015, performers who made interesting oral presentations will be selected in stages by dividing them into multiple times. Participants (performers) of M1-2015 will perform the performance at each predetermined time and will be selected based on the degree of fun of the performance. The results of the selection of the eight groups were released on November 19, 2015.
さらに、M1-2015の決勝出場者は、上記で選抜された8組のグループの他に、準決勝までに敗者となったグループのうちから1組のグループが選抜され、追加される。なお、その結果は決勝の当日(2015年12月6日)に公開される。 In addition to the eight groups selected above, one group will be selected and added to the M1-2015 finalists from the groups that lost by the semi-finals. The results will be released on the day of the final (December 6, 2015).
M1-2015の決勝は、上記の計9組のグループ(決勝出場者)で争われ、勝ち進んだ3組のグループが、最終決戦に参加するグループとして選抜される。最終決戦では、選抜された3組のグループのうちから1位のグループ(優勝者)が選ばれる。なお、決勝と最終決戦は、同日に行われる。 The final of M1-2015 will be contested by the above 9 groups (final contestants), and the 3 groups that have won will be selected as the groups that will participate in the final final. In the final battle, the first group (winner) will be selected from the three selected groups. The final and final battle will be held on the same day.
本実施形態の面白さ定量評価装置1は、M1-2015の準決勝を終えた段階で、準決勝において選抜された8グループの決勝における順位と、最終決戦の優勝者を予想する。ただし、この予想の結果には、決勝当日に追加される1組のグループは含まないものである。
The fun
図17は、漫才コンテストの一例であるM1-2015の決勝戦の順位予測処理の概要を示す図である。M1-2015の決勝戦の順位予測処理は、評価部21、順序判定部23、及び、予測精度算出部26により実施される。順序判定部23と予測精度算出部26は、推定部の一例である。例えば、順序判定部23と予測精度算出部26は、評価部21による評定の結果に基づいて、グループの順位を推定する。
FIG. 17 is a diagram showing an outline of the ranking prediction process of the final match of M1-2015, which is an example of the comic contest. The ranking prediction process of the final match of M1-2015 is carried out by the
評価部21は、決勝における順位を予想する処理において、前述の10個のモデルを用いる。この10個のモデルは、第1の実施形態に示した手順により学習され、生成されたものである。評価部21は、M1-2015の3回戦と準々決勝の映像の解析結果に基づいて、
各グループの口演の面白さを評価する。
The
Evaluate the fun of the oral performance of each group.
例えば、評価部21は、準決勝において選抜された8組のグループについて、3回戦の映像の解析結果と準々決勝の映像の解析結果とに基づいて、それぞれの回のグループごとの評価値を導出する。評価部21は、グループごとに、それぞれの回の評価値の平均(平均評価値)を導出する。つまり、評価部21は、所定の回のうち3回戦(第1の回)においてグループが演じた演目における第1解析結果と前記第2解析結果とに基づいて、グループが演じた演目の面白さの第1評価値を導出する。また、評価部21は、前記所定の回のうち準々決勝(第1の回とは異なる第2の回)においてグループが演じた演目における第1解析結果と第2解析結果とに基づいて、グループが演じた演目の面白さの第2評価値を導出する。例えば、評価部21は、上記の第1評価値と第2評価値の平均(平均評価値)を導出する。例えば、評価部21は、予め定められた係数値に基づいて、上記の第1評価値と第2評価値の加重平均(平均評価値)を導出する。
For example, the
順序判定部23は、準々決勝に重きを置いた加重平均により評価部21によって導出されたグループごとの平均評価値に基づいて、対象のグループの口演の面白さの評価点を導出する。
予測精度算出部26は、順序判定部23により導出された口演の面白さの平均点に基づいて、各グループの順位を予測する。
The
The prediction
図18は、本実施形態に係る決勝戦の順位の予測の結果を示す図である。同図に示すように、順序判定部23は、上記の結果から、上位の3グループを予測した。また、同図は、併せて実際の審査結果を示す。同図に示されるように、上位3グループについての予測の結果は、実際の結果と同じであった。また、決勝戦の順位相関係数の値は、第1の実施形態の検証の結果を示す平均値より高い値が得られた。全8グループについての値は、0.69であった。
FIG. 18 is a diagram showing the result of prediction of the ranking of the final match according to the present embodiment. As shown in the figure, the
上記の値が導出された条件は、下記の点で第1の実施形態の結果を導出した場合と異なるものである。M1-2015の予測に使われたデータは、同一グループが決勝戦に先だち実施された予選等において演じた口演に基づいたものである。なお、予選における口演の内容は、最終決戦における口演とは異なるものである。このように、上記の実施形態によれば、特定の台詞又はグループによる口演を評価することに限定されるものではなく、グループの技能を評価することができる。 The condition from which the above values are derived is different from the case where the result of the first embodiment is derived in the following points. The data used for the prediction of M1-2015 is based on the oral performances of the same group in the qualifying rounds held prior to the finals. The content of the oral performance in the preliminary round is different from the oral performance in the final battle. As described above, according to the above-described embodiment, the skill of the group can be evaluated without being limited to evaluating the oral performance by a specific line or group.
上記の実施形態によれば、第1の実施形態と同様の効果を奏することの他、口演の面白さを定量的に評価することにより、漫才コンテストの審査結果を予測することができる。 According to the above-described embodiment, in addition to achieving the same effect as that of the first embodiment, the judging result of the comic dialogue contest can be predicted by quantitatively evaluating the fun of the oral performance.
(第3の実施形態)
第3の実施形態について説明する。前述の第1の実施形態と第2の実施形態では、漫才を例示して説明した。これに代えて、第3の実施形態では、コントを例示して説明する。
(Third Embodiment)
A third embodiment will be described. In the first embodiment and the second embodiment described above, a manzai has been illustrated and described. Instead of this, in the third embodiment, a control will be illustrated and described.
前述の漫才の場合には、p1〜p6の6個の指標に基づいて口演を評価した。コントの場合は、下記のp1〜p9、p4を除く8つの指標に基づいて口演を評価する。漫才との相違点を中心に説明する。コントの場合においても、上記の8つの指標のうち、指標p1〜p3と指標p5とp6の5つの指標は、漫才の場合と同様である。 In the case of the above-mentioned manzai, the oral performance was evaluated based on the six indexes of p1 to p6. In the case of Tale, the oral performance is evaluated based on the following eight indicators excluding p1 to p9 and p4. I will mainly explain the differences from Manzai. Even in the case of the control, among the above eight indexes, the five indexes of the indexes p1 to p3 and the indexes p5 and p6 are the same as in the case of the comic book.
p7は1発音当りの時間である。p8は最後から2番目の笑いから口演終了までの時間である。p9は口演開始から最初の笑いまでの時間である。上記の指標p7(1発音当りの時間)は、例えば、式(7)のように定義してもよい。 p7 is the time per pronunciation. p8 is the time from the penultimate laughter to the end of the oral performance. p9 is the time from the start of the oral performance to the first laughter. The above index p7 (time per pronunciation) may be defined as, for example, the equation (7).
上記の指標の個数の変更に伴い、モデル生成部24におけるニューラルネットワーク241とモデル生成部24が生成するモデルの入力ノードの数を8個にして、評価部21が対象とする指標を上記の8個にする。
例えば、モデルの生成に係る処理と評価に係る処理は、第1実施形態と同様にする。
With the change in the number of the above indexes, the number of input nodes of the model generated by the
For example, the process related to model generation and the process related to evaluation are the same as in the first embodiment.
上記の実施形態によれば、第1の実施形態と同様の効果を奏することの他に、対象の演目をコントにすることを可能にする。 According to the above embodiment, in addition to producing the same effect as that of the first embodiment, it is possible to control the target performance.
(第4の実施形態)
第4の実施形態について説明する。第4の実施形態では、観客の笑いの検出と発生時点(笑いが生じた時間) の検出の精度を高める手法について説明する。
(Fourth Embodiment)
A fourth embodiment will be described. In the fourth embodiment, a method for improving the accuracy of detecting the laughter of the audience and detecting the time of occurrence (time when the laughter occurs) will be described.
笑いの大きさと持続時間の正確な計測は、音声波形に基づいて自動識別処理の結果を得る場合などに、音声の大きさの識別が困難になることがある。また、人が判定する場合には、個人差があり、判定者が異なる場合には同じ判定基準で判定することが困難になる。例えば、判定が困難となる場合には、下記のような場合が挙げられる。連続するネタ要素は、直前の観客の笑いが収束する前に次の笑いが生じる。このような場合、観客の笑いが途切れている必要は無く、直前の観客の笑いが収束する前に次の笑いが生じていても、新たなネタ要素として計測する。 Accurate measurement of the loudness and duration of laughter can make it difficult to identify the loudness of a voice, such as when obtaining the results of an automatic identification process based on a voice waveform. In addition, when a person makes a judgment, there are individual differences, and when the judgment is different, it becomes difficult to make a judgment based on the same judgment criteria. For example, when the determination becomes difficult, the following cases can be mentioned. In the continuous material element, the next laugh occurs before the laugh of the previous audience converges. In such a case, the laughter of the audience does not have to be interrupted, and even if the next laughter occurs before the laughter of the previous audience converges, it is measured as a new material element.
本実施形態では、このような場合に対し、観客の笑いの検出と発生時点(笑いが生じた時間) の検出を3人の判定者がそれぞれ独立して行ない、2人以上が検出した観衆の笑いをネタ要素として解析に用いる。 In the present embodiment, in such a case, three judges independently detect the laughter of the spectator and the time when the laughter occurs (the time when the laughter occurs), and the spectators detected by two or more of them. Laughter is used for analysis as a material element.
図19は、本実施形態の解析装置を含む面白さ定量評価装置1の構成図である。
面白さ定量評価装置1は、記憶部10と、評価部21と、順序判定部23と、予測精度算出部26と、モデル生成部24と、特徴量取得部26とを備える。
FIG. 19 is a configuration diagram of an interesting
The fun
特徴量取得部26は、操作検出部261と、操作判定部262と、計時部263とを備える。
The feature
例えば、入出力装置1E(図2)には、口演における笑いを判定する判定者によって操作される台詞ネタ要素検出キーと、動作ネタ要素検出キーとが設けられている。台詞ネタ要素検出キーは、台詞を含むネタ要素があった場合に操作されるキーである。動作ネタ要素検出キーは、台詞を含まないネタ要素があった場合に操作されるキーである。例えば、動作ネタ要素検出キーは、動作のみのネタ要素の場合などに操作される。
For example, the input /
例えば、台詞ネタ要素検出キーと動作ネタ要素検出キーを組にして、その組は、各判定者に対応付けてそれぞれ設けられている。 For example, a dialogue material element detection key and an operation material element detection key are paired, and the pair is provided in association with each judge.
操作検出部261は、台詞ネタ要素検出キーと動作ネタ要素検出キーの操作を検出する。例えば、操作検出部261は、3人の判定者によりそれぞれ操作される3組の台詞ネタ要素検出キーと動作ネタ要素検出キーに対する操作を、それぞれ検出する。 The operation detection unit 261 detects the operation of the dialogue material element detection key and the operation material element detection key. For example, the operation detection unit 261 detects operations on the three sets of dialogue material element detection keys and operation material element detection keys, which are operated by the three judges, respectively.
操作判定部262は、上記の3組のキーのうち同じ種類のキーが操作されているか否かを検出し、検出したキーの種類と数に応じて、キーに対応するネタ要素の発生を検出する。操作判定部262は、同じ種類の3つのキーのうち、0又は1個のキーの操作が検出されている状態を「非検出状態」と判定し、「非検出状態」から2又は3個のキーの操作が検出されている状態に変化した場合を「検出状態」と判定する。つまり、操作判定部262は、「検出状態」から0又は1に戻った状態を、上記の「非検出状態」と判定する。
なお、上記の検出の方法は、台詞ネタ要素検出キーと動作ネタ要素検出キーとに共通である。
The operation determination unit 262 detects whether or not the same type of key is operated among the above three sets of keys, and detects the occurrence of a material element corresponding to the key according to the type and number of the detected keys. To do. The operation determination unit 262 determines that the state in which the operation of 0 or 1 key is detected among the three keys of the same type is the "non-detection state", and 2 or 3 from the "non-detection state". When the key operation changes to the detected state, it is determined as the "detected state". That is, the operation determination unit 262 determines the state of returning from the "detection state" to 0 or 1 as the above-mentioned "non-detection state".
The above detection method is common to the dialogue material element detection key and the operation material element detection key.
計時部263は、ネタ要素の発生の検出に同期して、漫才の開始時間からの経過時間を測り記録する。 The timekeeping unit 263 measures and records the elapsed time from the start time of the comic dialogue in synchronization with the detection of the occurrence of the material element.
特徴量取得部26は、操作判定部262による判定の結果に基づいて、ネタ要素の発生時点を検出して、その結果を記憶部10に格納する。例えば、判定者は、映像を視聴しながら、観客の笑いが発生していると判断した瞬間に、予め定められているキーを押す。その際、判定者は、台詞を含むネタ要素の場合に台詞ネタ要素検出キーを操作し、動作のみのネタ要素の場合に動作ネタ要素検出キーを操作する。特徴量取得部26は、判定者の操作を検出し、その操作が検出されたタイミングを計測することで、自動的に指標p6を計算するためのデータを収集する。特徴量取得部26は、それぞれのキーの操作を検出すると、漫才の開始時間からの経過時間を記録する。特徴量取得部26は、観客に笑いが生じていると判定した2人か3人の判定者の時間データの平均値を算出し、算出した時間をネタ要素の発生時間として、評価部21による評価などに利用する。
The feature
なお、舞台設定、観客数や状況が異なる漫才口演を比較する場合には、特徴量取得部26は、笑いの大きさを検出してもよく、又は、笑いの持続時間を正規化してもよい。
When comparing comic dialogue performances with different stage settings, number of spectators, and situations, the feature
図20は、本実施形態に係る特徴量取得部26により得られた指標の一例を示す図である。同図に示される指標の値は、ニューラルネットワーク241の学習データにするものである。
FIG. 20 is a diagram showing an example of an index obtained by the feature
上記の実施形態によれば、第1の実施形態と同様の効果を奏することの他に、観客の笑いの検出と発生時点(笑いが生じた時間)の検出の精度を高めることを可能にする。 According to the above embodiment, in addition to achieving the same effect as that of the first embodiment, it is possible to improve the accuracy of detecting the laughter of the audience and the time when the laughter occurs (time when the laughter occurs). ..
(第5の実施形態)
第5の実施形態について説明する。第5の実施形態では、漫才の台本作成を支援する手法について説明する。
(Fifth Embodiment)
A fifth embodiment will be described. In the fifth embodiment, a method for supporting the creation of a comic script will be described.
面白さ定量評価装置1は、漫才の台本作成に利用されることにより、高評価な漫才の台本の作成を支援する。
The fun
例えば、台本を作成するユーザは、台詞数、最長台詞のモーラ数、総モーラ数を計測しながら、台詞を記述した台本を作成する。この際、口演時間が規定されていなければ口演時間を決定する。 For example, a user who creates a script creates a script that describes the lines while measuring the number of lines, the number of mora of the longest line, and the total number of mora. At this time, if the oral performance time is not specified, the oral performance time is determined.
面白さ定量評価装置1は、予備学習を終えて各口演の評価が可能な状態にあるものとする。
It is assumed that the fun
面白さ定量評価装置1は、上記の台詞数、総モーラ数、及び、口演時間に基づいて、1台詞に割当て可能な時間と、1秒の発話に割当て可能なモーラ数とを導出する。面白さ定量評価装置1は、観客に笑いを生じさせるネタ要素(笑いを生じると予想される箇所)の間隔をモーラ数で計測する。例えば、面白さ定量評価装置1は、上記のモーラ数を、1秒に割当て可能なモーラ数からネタ要素間の時間の近似値を計算するか、ユーザが音読した音声に基づいて計測する。
The fun
また、面白さ定量評価装置1は、最後のネタ要素を可能な限り終りに配置するように、台本の構成を調整する。面白さ定量評価装置1の評価部21は、上記の調整の結果に基づいた評価を実施する。面白さ定量評価装置1は、この評価部21による評価の結果を、台本の評価値とする。
In addition, the fun
また、聴衆に代わって聴き手が同席する予行演習を実施する場合には、面白さ定量評価装置1は、予行演習において聴き手に笑いが生じた時間を記録し、ネタ要素の位置と時間間隔を再計算する。台詞に割当て可能な時間、及び、1秒に割当て可能なモーラ数が推奨値の範囲に含まれない場合には、良好な評価値が得られない。面白さ定量評価装置1は、評価値が良好な値になるまで、台詞、モーラ、動作や身振りの追加または削除を実行し、台本の構成を繰り返し調整するとよい。その結果、台本の台詞当りの時間などの評価項目の値が推奨値に近くなると、面白さ定量評価装置1は、良好な値の評価値を出力する。
In addition, when a rehearsal exercise in which the listener is present on behalf of the audience is carried out, the fun
このように、面白さ定量評価装置1は、漫才の台本について定量的に評価することで、漫才の台本の作成を支援する。面白さ定量評価装置1は、定量的に評価可能な指標を利用することにより、漫才口演の評価や、台本の作成能力がどれだけ向上したかの検証、改善すべき点の検出、漫才の出来の客観的な比較等を可能にする。面白さ定量評価装置1は、漫才口演の大局的な特性を定量的な指標で捉えることにより、言語的情報および時系列に関わる特徴に依存せずに、口演を客観的に評価する。
In this way, the fun
上記の実施形態によれば、第1の実施形態と同様の効果を奏することの他、漫才の台本作成を支援することができる。 According to the above-described embodiment, in addition to achieving the same effect as that of the first embodiment, it is possible to support the script creation of a comic book.
以上、本発明の好ましい実施の形態について詳述したが、本発明は特定の実施の形態に限定されるものではなく、特許請求の範囲内に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。 Although the preferred embodiments of the present invention have been described in detail above, the present invention is not limited to the specific embodiments, and varies within the scope of the gist of the present invention described in the claims. Can be transformed / changed.
なお、上記の実施形態では、繰り返して開催される特定の漫才コンテスト(例えば、M−1グランプリ)内という限られた範囲で、それに出場した漫才グループのみを比較する場合を例示している。繰り返して開催される特定の漫才コンテストの各開催回は、審査員数、観客の規模などに大きな変化はなく開催されている。同様の審査員数、観客の規模で開催されているものであれば、その違いの影響を受けにくい。面白さ定量評価装置1は、その予測性能を高めるには、例えば、M−1グランプリのように学習データの条件と同一又は類似する条件の舞台で実施される漫才を評価の対象にするとよい。また、M−1グランプリの他に、放送番組「THEMANZAI」等が知られている。「THEMANZAI」等についても、本実施形態を適用してもよい。
In the above embodiment, a case is illustrated in which only the comic dialogue groups that participated in the specific comic dialogue contest (for example, M-1 Grand Prix) that are held repeatedly are compared within a limited range. Each of the specific Manzai contests that are held repeatedly is held without any major changes in the number of judges, the size of the audience, etc. If it is held with the same number of judges and the size of the audience, it is not easily affected by the difference. In order to improve the prediction performance, the fun
一方で、異なる条件の舞台で実施される漫才を含めて解析する場合においても、面白さ定量評価装置1は、口演の面白さの一般性に基づいて評価することが可能である。聴衆が面白いと感じる漫才は、時とともに変化すると考えるのが自然である。2001〜2010年の漫才を用いて2015年のコンテスト結果を予測できたことは、本手法によって、10年という長期間に及ぶ好みの変化や流行・廃りとは独立した漫才の面白さの中核部分を捉えられたことと、その5年後にも通用する面白さの評価方法が得られたことを意味する。さらに、2001〜2010年と2015年のM−1グランプリの審査員には重複がないため、審査員の組み合わせにも依存しないことが判る。
On the other hand, even in the case of analyzing including comics performed on the stage under different conditions, the fun
なお、上記の実施形態では、静的かつ非言語的な情報のみを用いて漫才の面白さを定量的に評価できる可能性を示したが、面白さ定量評価装置1は、動的又は言語的な情報を、静的かつ非言語的な情報に組み合わせて評価してもよい。
In the above embodiment, it has been shown that the fun of comics can be quantitatively evaluated by using only static and non-verbal information. However, the fun
なお、面白さ定量評価装置1は、実施形態に示した用途に限らず下記のような用途にも適用してもよい。
例えば、面白さ定量評価装置1は、定量的な指標を利用して評価するため、作成済の台本や漫才口演を変更するための判断や、変更すべき点の明確化、漫才口演の指導等の目的に適用できる。さらには、漫才の台本を作る際に、口演する前の評価や、自動生成した台本の評価に利用することで、面白い台本を提供することに役立つと考えられる。
The fun
For example, since the fun
また、出場グループの中でも予選を通過した技量の高い漫才グループを解析している。しかし、その中でも上位と下位の間には差があり、その差の要因を明らかにすることでより高評価な漫才を実演するための具体的な目標設定が可能となる。例えば、漫才コンテストの予選などの審査を行う審査官ロボットとしての利用が可能である。 In addition, we are analyzing the highly skilled manzai groups that have passed the preliminary rounds among the participating groups. However, among them, there is a difference between the upper and lower ranks, and by clarifying the cause of the difference, it is possible to set specific goals for demonstrating a more highly evaluated manzai. For example, it can be used as an examiner robot that judges qualifying for a comic contest.
また、面白さ定量評価装置1は、「面白い」漫才を抽出することができる。この特徴を利用して、漫才の制作や企画、或いは、放送するグループの選択、グループの順序の決定など番組の編成などに利用してもよい。
In addition, the fun
1…面白さ定量評価装置、10…記憶部、11…学習用データ、12…モデルデータ、13…評定用データ、14…評価結果データ、15…審査結果データ、21…評価部、22…平均点算出部、23…順序判定部、24…モデル生成部、25…特徴量抽出部、26…予測精度算出部、131…第1解析結果、132…第2解析結果。 1 ... Interesting quantitative evaluation device, 10 ... Storage unit, 11 ... Learning data, 12 ... Model data, 13 ... Evaluation data, 14 ... Evaluation result data, 15 ... Examination result data, 21 ... Evaluation unit, 22 ... Average Point calculation unit, 23 ... order determination unit, 24 ... model generation unit, 25 ... feature quantity extraction unit, 26 ... prediction accuracy calculation unit, 131 ... first analysis result, 132 ... second analysis result.
Claims (16)
を備え、
前記第1解析結果には、前記演者である複数の人のやりとりのテンポの評価の結果が含まれる、
面白さ定量評価装置。 The first analysis result showing the tendency of the performer's speaking style derived based on the voice emitted by the performer during the performance, and the tendency of the content performed by the performer derived based on the laughter of the viewer of the performance. The evaluation unit that evaluates the fun of the performance performed by the performer based on the second analysis result showing
Equipped with a,
The first analysis result includes the result of evaluation of the tempo of the interaction of the plurality of performers.
Interesting quantitative evaluation device.
前記第2解析結果には、前記演目中の台詞無しのネタ要素の割合の評価の結果が含まれる、
請求項1記載の面白さ定量評価装置。 The first analysis result does not include the analysis result regarding the utterance content of the performer based on the voice uttered by the performer .
The second analysis result includes the result of evaluation of the ratio of the material element without dialogue in the performance.
The fun quantitative evaluation device according to claim 1.
を備え、
前記第2解析結果には、前記演者が前記演目のなかでネタ要素を演じた時間間隔の情報、又は
前記演目の後半に前記演者がネタ要素を演じてから前記演目の終了までの時間の情報が含まれる、
面白さ定量評価装置。 The first analysis result showing the tendency of the performer's speaking style derived based on the voice emitted by the performer during the performance, and the tendency of the content performed by the performer derived based on the laughter of the viewer of the performance. Evaluation unit that evaluates the fun of the performance performed by the performer based on the second analysis result showing
With
The second analysis result includes information on the time interval in which the performer played the material element in the performance , or information on the time interval.
The latter half of the performance includes information on the time from when the performer plays the material element to the end of the performance.
Interesting quantitative evaluation device.
請求項3に記載の面白さ定量評価装置。 The material element played by the performer in the latter half of the performance is the material element played at the end of the performance.
The fun quantitative evaluation device according to claim 3 .
を備え、
前記第1解析結果には、前記演者が発した音声の情報量を示す情報が含まれる、
面白さ定量評価装置。 The first analysis result showing the tendency of the performer's speaking style derived based on the voice emitted by the performer during the performance, and the tendency of the content performed by the performer derived based on the laughter of the viewer of the performance. Evaluation unit that evaluates the fun of the performance performed by the performer based on the second analysis result showing
With
The first analysis result includes information indicating the amount of information of the voice emitted by the performer.
Surface white of the quantitative evaluation device.
請求項5に記載の面白さ定量評価装置。 The amount of information in the voice includes the time allotted to the dialogue, the number of mora assigned to the unit time in the voice uttered by the performer, one of the number of mora of the relatively long dialogue of the performer, or Includes multiple
The fun quantitative evaluation device according to claim 5 .
前記所定の回のうち前記第1の回とは異なる第2の回において前記演者が演じた演目における前記第1解析結果と前記第2解析結果とに基づいて前記演者が演じた演目の面白さの第2評価値と、を導出し、
前記第1評価値と前記第2評価値とに基づいて、前記第1の回と前記第2の回の両方の回より後に前記演者が演じる演目の面白さを推定する推定部をさらに備える、
請求項1から請求項6何れか1項に記載の面白さ定量評価装置。 The evaluation unit is based on the first analysis result and the second analysis result of the performance performed by the performer in the first of the predetermined times of the contest which is divided into a plurality of times and selected stepwise. The first evaluation value of the fun of the performance performed by the performer and
The fun of the performance performed by the performer based on the first analysis result and the second analysis result in the performance performed by the performer in the second time different from the first time among the predetermined times. Derived from the second evaluation value of
An estimation unit for estimating the fun of the performance performed by the performer after both the first and second evaluations based on the first evaluation value and the second evaluation value is further provided.
The fun quantitative evaluation device according to any one of claims 1 to 6 .
を備え、
前記評価部は、
複数の回に分けて段階的に選抜するコンテストの所定の回のうち第1の回において前記演者が演じた演目における前記第1解析結果と前記第2解析結果とに基づいて前記演者が演じた演目の面白さの第1評価値と、
前記所定の回のうち前記第1の回とは異なる第2の回において前記演者が演じた演目における前記第1解析結果と前記第2解析結果とに基づいて前記演者が演じた演目の面白さの第2評価値と、を導出し、
前記第1評価値と、前記第2評価値と、前記第1評価値と前記第2評価値に重みづけする係数と、に基づいて、前記第1の回と前記第2の回の両方の回より後に前記演者が演じる演目の面白さを推定する推定部をさらに備える、
面白さ定量評価装置。 The first analysis result showing the tendency of the performer's speaking style derived based on the voice emitted by the performer during the performance, and the tendency of the content performed by the performer derived based on the laughter of the viewer of the performance. Evaluation unit that evaluates the fun of the performance performed by the performer based on the second analysis result showing
With
The evaluation unit
The performer performed based on the first analysis result and the second analysis result of the performance performed by the performer in the first of the predetermined times of the contest which is divided into a plurality of times and selected stepwise. The first evaluation value of the fun of the performance and
The fun of the performance performed by the performer based on the first analysis result and the second analysis result in the performance performed by the performer in the second time different from the first time among the predetermined times. Derived from the second evaluation value of
Both the first and second evaluations are based on the first evaluation value, the second evaluation value, and the coefficients that weight the first evaluation value and the second evaluation value. It further includes an estimation unit that estimates the fun of the performance performed by the performer after the times .
Interesting quantitative evaluation device.
を備え、 With
前記面白さが評価された演目の特徴量には、前記面白さが評価された演目を演じた演者が発した音声と、前記面白さが評価された演目を視聴した人の笑い声とが含まれる、 The feature quantity of the performance evaluated for the fun includes the voice emitted by the performer who performed the performance evaluated for the fun and the laughter of the person who watched the performance evaluated for the fun. ,
請求項1から請求項8何れか1項に記載の面白さ定量評価装置。 The fun quantitative evaluation device according to any one of claims 1 to 8.
演目中の演者が発した音声に基づいて導出された前記演者の話し方の傾向を示す第1解析結果と、前記演目を視聴する人の笑い声に基づいて導出された前記演者が演じた内容の傾向を示す第2解析結果と、に基づいて前記演者が演じる演目の面白さを評価する過程、
を含み、
前記第1解析結果には、前記演者である複数の人のやりとりのテンポの評価の結果、若しくは、前記演者が発した音声の情報量を示す情報が含まれ、又は、
前記第2解析結果には、前記演者が前記演目のなかでネタ要素を演じた時間間隔の情報、若しくは、前記演目の後半に前記演者がネタ要素を演じてから前記演目の終了までの時間の情報が含まれる、
面白さ定量評価方法。 The computer
The first analysis result showing the tendency of the performer's speaking style derived based on the voice emitted by the performer during the performance, and the tendency of the content performed by the performer derived based on the laughter of the viewer of the performance. The process of evaluating the fun of the performance performed by the performer based on the second analysis result showing
Only including,
The first analysis result includes the result of evaluating the tempo of the interaction of a plurality of people who are the performers, or the information indicating the amount of information of the voice emitted by the performer, or
The second analysis result includes information on the time interval in which the performer played the material element in the performance, or the time from when the performer played the material element in the latter half of the performance to the end of the performance. Contains information,
Interesting quantitative evaluation method.
前記第1解析結果には、前記演者である複数の人のやりとりのテンポの評価の結果、若しくは、前記演者が発した音声の情報量を示す情報が含まれ、又は、
前記第2解析結果には、前記演者が前記演目のなかでネタ要素を演じた時間間隔の情報、若しくは、前記演目の後半に前記演者がネタ要素を演じてから前記演目の終了までの時間の情報が含まれる、
プログラム。 The first analysis result showing the tendency of the performer's speaking style derived based on the voice emitted by the performer during the program, and the tendency of the content performed by the performer derived based on the laughter of the viewer of the program. and a second analysis result showing the step of evaluating the fun of the performers plays repertoire based on a program for causing a computer to execute the interesting quantitative evaluation device,
The first analysis result includes the result of evaluating the tempo of the interaction of a plurality of people who are the performers, or the information indicating the amount of information of the voice emitted by the performer, or
The second analysis result includes information on the time interval in which the performer played the material element in the performance, or the time from when the performer played the material element in the latter half of the performance to the end of the performance. Contains information,
Program .
を備え、
前記評価値が所望の値になるように前記演目の台本の構成を調整する、
面白さ定量評価装置。 The first analysis result showing the tendency of the performer's speaking style derived based on the voice emitted by the performer during the performance, and the tendency of the content performed by the performer derived based on the laughter of the viewer of the performance. An evaluation unit formed so as to generate an evaluation value of the result of evaluating the fun of the performance performed by the performer based on the second analysis result indicating
With
Adjust the composition of the script of the performance so that the evaluation value becomes a desired value.
Interesting quantitative evaluation device.
を備え、
前記評価値が所望の値になるように前記演目の構成を調整することで、前記演目の台本の作成を支援する、
面白さ定量評価装置。 The first analysis result showing the tendency of the performer's speaking style derived based on the voice emitted by the performer during the performance, and the tendency of the content performed by the performer derived based on the laughter of the viewer of the performance. An evaluation unit formed so as to generate an evaluation value of the result of evaluating the fun of the performance performed by the performer based on the second analysis result indicating
With
By adjusting the composition of the program so that the evaluation value becomes a desired value, the creation of the script of the program is supported.
Interesting quantitative evaluation device.
を備え、
前記評価値に基づいて前記演目の台本を定量的に評価する、
面白さ定量評価装置。 The first analysis result showing the tendency of the performer's speaking style derived based on the voice emitted by the performer during the performance, and the tendency of the content performed by the performer derived based on the laughter of the viewer of the performance. It is provided with an evaluation unit formed so as to generate an evaluation value of the result of evaluating the fun of the performance performed by the performer based on the second analysis result showing.
Quantitatively evaluate the script of the performance based on the evaluation value.
Interesting quantitative evaluation device.
コンピュータが、演目中の演者が発した音声に基づいて導出された前記演者の話し方の傾向を示す第1解析結果と、前記演目を視聴する人の笑い声に基づいて導出された前記演者が演じた内容の傾向を示す第2解析結果と、に基づいて前記演者が演じる第1演目の面白さを評価する過程と、
コンピュータが、前記評価の結果に基づいて面白さが調整された後の第2演目の面白さを評価する過程と、
を含む面白さ調整方法。 It is a fun adjustment method for the computer to help adjust the fun of the performance.
The computer played the first analysis result showing the tendency of the performer's speaking style derived based on the voice emitted by the performer during the performance, and the performer derived based on the laughter of the viewer of the performance. The process of evaluating the fun of the first performance performed by the performer based on the second analysis result showing the tendency of the content, and
The process in which the computer evaluates the fun of the second performance after the fun is adjusted based on the result of the evaluation .
Interesting adjustment method including .
対象の演目を評価して、前記対象の演目から所望の面白さが得られるように前記演目の台本の作成を支援する過程と、
を含む面白さ調整方法。 The first analysis result showing the tendency of the performer's speaking style derived based on the voice emitted by the performer during the performance, and the tendency of the content performed by the performer derived based on the laughter of the viewer of the performance. A computer adjusted so that the fun of the performance performed by the performer can be evaluated based on the second analysis result showing
The process of evaluating the target program and supporting the creation of the script of the target program so that the desired fun can be obtained from the target program .
Interesting adjustment method including .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016155057A JP6783454B2 (en) | 2016-08-05 | 2016-08-05 | Interesting quantitative evaluation device, interesting quantitative evaluation method, interesting adjustment method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016155057A JP6783454B2 (en) | 2016-08-05 | 2016-08-05 | Interesting quantitative evaluation device, interesting quantitative evaluation method, interesting adjustment method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018022118A JP2018022118A (en) | 2018-02-08 |
JP6783454B2 true JP6783454B2 (en) | 2020-11-11 |
Family
ID=61166066
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016155057A Active JP6783454B2 (en) | 2016-08-05 | 2016-08-05 | Interesting quantitative evaluation device, interesting quantitative evaluation method, interesting adjustment method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6783454B2 (en) |
-
2016
- 2016-08-05 JP JP2016155057A patent/JP6783454B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018022118A (en) | 2018-02-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Storkel et al. | Differentiating phonotactic probability and neighborhood density in adult word learning | |
Gucciardi et al. | Experienced golfers’ perspectives on choking under pressure | |
Arimoto et al. | Naturalistic emotional speech collection paradigm with online game and its psychological and acoustical assessment | |
Goh | Talker variability and recognition memory: instance-specific and voice-specific effects. | |
Thibodeaux et al. | What do youth tennis athletes say to themselves? Observed and self-reported self-talk on the court | |
Storkel et al. | The effect of semantic set size on word learning by preschool children | |
Hair et al. | A longitudinal evaluation of tablet-based child speech therapy with Apraxia World | |
Shahid et al. | Child-robot interaction: playing alone or together? | |
CN109191349A (en) | A kind of methods of exhibiting and system of English learning content | |
Karhila et al. | SIAK-A Game for Foreign Language Pronunciation Learning. | |
Dulačka et al. | Validation of music metadata via game with a purpose | |
Loukina et al. | Automated Estimation of Oral Reading Fluency During Summer Camp e-Book Reading with MyTurnToRead. | |
Starkweather et al. | A pilot study of relations among specific measures obtained at intake and discharge in a program of prevention and early intervention for stuttering | |
JP6783454B2 (en) | Interesting quantitative evaluation device, interesting quantitative evaluation method, interesting adjustment method, and program | |
JP2013083845A (en) | Device, method, and program for processing information | |
Bonin et al. | Psycholinguistic norms and face naming times for photographs of celebrities in French | |
Nzewi et al. | Musical sense and musical meaning: An indigenous African perception | |
US20190109804A1 (en) | Audio processing for voice simulated noise effects | |
Truong et al. | Automatic recognition of spontaneous emotions in speech using acoustic and lexical features | |
Mansbach et al. | An Agent for Competing with Humans in a Deceptive Game Based on Vocal Cues. | |
Rubin | Development and evaluation of software tools for speech therapy | |
Ganzeboom et al. | An ASR-based interactive game for speech therapy | |
KR102121665B1 (en) | Method for verbal working memory ability measurement using a sentence repetition learning, recording medium and apparatus for performing the method | |
Matsuda et al. | Detection of laughter and screaming using the attention and ctc models | |
Liu | Voice stress analysis: Detection of deception |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20160831 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190802 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200728 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200923 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201006 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201015 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6783454 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |