JP7200597B2 - Information processing method and information processing system - Google Patents
Information processing method and information processing system Download PDFInfo
- Publication number
- JP7200597B2 JP7200597B2 JP2018197793A JP2018197793A JP7200597B2 JP 7200597 B2 JP7200597 B2 JP 7200597B2 JP 2018197793 A JP2018197793 A JP 2018197793A JP 2018197793 A JP2018197793 A JP 2018197793A JP 7200597 B2 JP7200597 B2 JP 7200597B2
- Authority
- JP
- Japan
- Prior art keywords
- sound
- information
- identification information
- character string
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 59
- 238000003672 processing method Methods 0.000 title claims description 12
- 230000015572 biosynthetic process Effects 0.000 claims description 23
- 238000003786 synthesis reaction Methods 0.000 claims description 23
- 230000002123 temporal effect Effects 0.000 claims description 9
- 230000009471 action Effects 0.000 claims description 5
- 238000003860 storage Methods 0.000 description 43
- 238000000034 method Methods 0.000 description 30
- 238000004891 communication Methods 0.000 description 28
- 238000004458 analytical method Methods 0.000 description 25
- 230000006870 function Effects 0.000 description 19
- 238000009826 distribution Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 14
- 238000000605 extraction Methods 0.000 description 10
- 238000007726 management method Methods 0.000 description 10
- 238000004519 manufacturing process Methods 0.000 description 10
- 230000005236 sound signal Effects 0.000 description 9
- 230000008901 benefit Effects 0.000 description 7
- 239000000284 extract Substances 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000002194 synthesizing effect Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 3
- 238000013179 statistical model Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 208000032041 Hearing impaired Diseases 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Description
本発明は、各種の情報を処理する技術に関する。 The present invention relates to technology for processing various types of information.
例えば交通機関や商業施設等の各種の施設において、当該施設の案内音声の内容を表す情報を端末装置に提供する技術が従来から提案されている。例えば特許文献1には、交通機関の管理者による操作に応じた識別情報を音響通信により端末装置に送信する構成が開示されている。端末装置は、音響通信により受信した識別情報に対応する案内情報を表示する。
For example, in various facilities such as transportation facilities and commercial facilities, there has been conventionally proposed a technique for providing a terminal device with information representing the content of the guidance voice of the facility. For example,
演劇または能楽等の実演に並行して当該実演に関する情報を観客に提供する場面に前述の技術を適用することが想定される。しかし、例えば実演の運営者が、実演の進行に並行して識別情報を手動で逐次的に指示する作業の負荷が過大であるという問題がある。なお、以上の説明では、実演の進行に並行して観客に情報を提供する場面を想定したが、例えば実演の進行に並行して、識別情報に対応する各種の動作を実行する場面でも同様の問題が想定される。以上の事情を考慮して、実演の進行に並行して識別情報を逐次的に指示する作業の負荷を軽減することを目的とする。 It is envisioned that the above-described technology will be applied to situations in which information about the performance is provided to the audience in parallel with the performance of a play or Noh play. However, there is a problem that, for example, the operator of the demonstration is overloaded with the work of sequentially instructing the identification information manually in parallel with the progress of the demonstration. In the above explanation, it is assumed that information is provided to the audience in parallel with the progress of the demonstration. A problem is expected. In consideration of the above circumstances, it is an object of the present invention to reduce the work load of sequentially specifying identification information in parallel with the progress of a demonstration.
以上の課題を解決するために、本発明の好適な態様に係る情報提供方法は、収音装置により実演を収音した観測音と前記実演での発音が予定される参照音との照合により、前記参照音に対する前記観測音の時間軸上の位置である実演位置を推定し、前記参照音と複数の識別情報との時間的な対応を表す登録データを参照することで、前記複数の識別情報のうち前記実演位置に時間的に対応する識別情報を特定する。 In order to solve the above problems, an information provision method according to a preferred aspect of the present invention compares an observed sound collected by a sound collecting device with a reference sound expected to be pronounced in the demonstration, estimating a performance position, which is a position on the time axis of the observed sound with respect to the reference sound, and referring to registered data representing temporal correspondence between the reference sound and the plurality of identification information, thereby obtaining the plurality of identification information; identification information temporally corresponding to the performance position.
本発明の好適な態様に係る情報処理システムは、収音装置により実演を収音した観測音と前記実演での発音が予定される参照音との照合により、前記参照音に対する前記観測音の時間軸上の位置である実演位置を推定する位置推定部と、前記参照音と複数の識別情報との時間的な対応を表す登録データを参照することで、前記複数の識別情報のうち前記実演位置に時間的に対応する識別情報を特定する情報特定部とを具備する。 An information processing system according to a preferred aspect of the present invention compares an observation sound collected from a performance by a sound collecting device with a reference sound expected to be pronounced in the performance, and determines the time of the observation sound with respect to the reference sound. A position estimating unit for estimating a performance position, which is a position on an axis, and registration data representing a temporal correspondence between the reference sound and a plurality of pieces of identification information, thereby determining the performance position among the plurality of pieces of identification information. and an information specifying unit that specifies identification information temporally corresponding to .
<第1実施形態>
図1は、本発明の第1実施形態に係る情報提供システム100の構成を例示するブロック図である。情報提供システム100は、実演者Pによる実演を観覧する利用者(すなわち観客)Aに当該実演に関する情報(以下「関連情報」という)Cを提供するためのコンピュータシステムである。実演者Pは、例えば舞台等の施設において演劇または狂言等の演芸を実演する。具体的には、実演者Pは、事前に作成された台本に記載された複数の台詞の各々を順次に発音する。利用者Aは、端末装置30を携帯した状態で実演を観覧する。端末装置30は、例えば携帯電話機、スマートフォン、タブレット端末、またはパーソナルコンピュータ等の可搬型の情報端末である。施設に設置された案内用の表示端末を端末装置30として利用してもよい。なお、実際には複数の利用者Aが実演者Pによる実演を観覧するが、以下の説明では、1人の利用者Aの端末装置30に便宜的に着目する。
<First Embodiment>
FIG. 1 is a block diagram illustrating the configuration of an
図1に例示される通り、情報提供システム100は、情報処理システム10と情報配信システム20とを具備する。情報処理システム10は、実演者Pによる実演に並行して識別情報Dを順次に送信するコンピュータシステムである。識別情報Dは、関連情報Cを識別するための符号である。第1実施形態の関連情報Cは、実演者Pが発音する台詞の内容を表す文字列(すなわち字幕)である。実演者Pによる実演に並行して、実演者Pが発音する台詞に対応する関連情報Cの識別情報Dが情報処理システム10から端末装置30に順次に送信される。識別情報Dは、実演者Pが発音する台詞を識別するための情報とも換言される。
As illustrated in FIG. 1 , the
情報配信システム20は、移動体通信網またはインターネット等を含む通信網40を介して端末装置30と通信可能である。情報配信システム20は、端末装置30が情報処理システム10から受信した識別情報Dに対応する関連情報Cを当該端末装置30に送信する。以上の説明から理解される通り、実演者Pによる実演に並行して、実演者Pが発音する台詞の内容を表す関連情報Cが端末装置30に順次に提供される。
The
<情報処理システム10>
図2は、情報処理システム10の構成を例示するブロック図である。図2に例示される通り、第1実施形態の情報処理システム10は、収音装置13と制御装置11と記憶装置12と放音装置14とを具備する。なお、情報処理システム10は、単体の装置で実現されてもよいし、相互に別体で構成された複数の装置で実現されてもよい。
<
FIG. 2 is a block diagram illustrating the configuration of the
収音装置13は、例えば舞台上の音響を収音するマイクロホンである。第1実施形態の収音装置13は、実演者Pが舞台上で発音した音声(以下「観測音」という)を収音し、当該観測音の波形を表す音響信号Xを生成する。すなわち、観測音は、収音装置13により実演を収音した音響である。なお、収音装置13が生成した音響信号Xをアナログからデジタルに変換するA/D変換器の図示は便宜的に省略した。放音装置14は、制御装置11が生成した音響信号Yに応じた音響を再生するスピーカである。なお、音響信号Yをデジタルからアナログに変換するD/A変換器の図示は便宜的に省略した。
The
制御装置11は、例えばCPU(Central Processing Unit)等の処理回路で構成され、情報処理システム10の各要素を統括的に制御する。記憶装置12は、制御装置11が実行するプログラムと制御装置11が使用する各種のデータとを記憶する。例えば半導体記録媒体および磁気記録媒体等の公知の記録媒体、または複数種の記録媒体の組合せが、記憶装置12として任意に採用される。なお、情報処理システム10に対して着脱可能な可搬型の記録媒体、または情報処理システム10が通信可能な外部記録媒体(例えばオンラインストレージ)を、記憶装置12として利用してもよい。すなわち、記憶装置12は情報処理システム10から省略され得る。
The
図3は、情報処理システム10の機能的な構成を例示するブロック図である。図3に例示される通り、第1実施形態の記憶装置12は、実演者Pによる発音が予定された音声(以下「参照音」という)の特徴量Frefの時系列を記憶する。参照音は、例えば台本に記載された各台詞を発音した音声である。特徴量Frefは、参照音の音響的な特徴を表す物理量である。例えば参照音から抽出されたMFCC(Mel-Frequency Cepstrum Coefficients)等の情報が特徴量Frefとして記憶装置12に記憶される。
FIG. 3 is a block diagram illustrating the functional configuration of the
図3に例示される通り、参照音を表す音響信号Vに対する解析処理により特徴量Frefが事前に抽出されて記憶装置12に記憶される。具体的には、音響信号Vを時間軸上で区分した複数の解析期間の各々について特徴量Frefが抽出される。参照音の音響信号Vは、実演者Pによる実演で発音される予定の文字列(例えば台本に記載された台詞等の後述の登録文字列W)に対する音声合成により生成される。音響信号Vの音声合成には公知の技術が任意に採用される。例えば、複数の音声素片の接続により音響信号Vを生成する素片接続型の音声合成、または、HMM(Hidden Markov Model)等の統計モデルを利用して音響信号Vを生成する統計モデル型の音声合成が、音響信号Vの生成に利用される。以上の構成によれば、実演での発音が予定される文字列から参照音(音響信号V)を簡便に用意できるという利点がある。
As exemplified in FIG. 3, the feature quantity Fref is extracted in advance by analysis processing for the acoustic signal V representing the reference sound and stored in the
第1実施形態の記憶装置12は登録データQを記憶する。登録データQは、参照音と複数の識別情報Dとの時間的な対応を表すデータである。図3に例示される通り、登録データQは、参照音を時間軸上で区分した複数の単位期間U(U1,U2,…)の各々について識別情報D(D1,D2,…)を指定する。各単位期間Uは、例えば参照音における各台詞の発話期間である。登録データQには、各単位期間Uの始点および終点の時刻(例えば参照音の先頭を基準とした時刻)が登録されている。各台詞が発音される単位期間Uには、当該台詞に対応する関連情報Cの識別情報Dが対応付けられる。前述の特徴量Frefが抽出される解析期間は、単位期間Uと比較して充分に短い時間長に設定される。
The
図3に例示される通り、第1実施形態の制御装置11は、記憶装置12に記憶されたプログラムを実行することで複数の機能(位置推定部51,情報特定部52および信号処理部53)を実現する。なお、制御装置11の一部の機能を専用の電子回路で実現してもよい。また、制御装置11の機能を複数の装置に搭載してもよい。
As illustrated in FIG. 3, the
位置推定部51は、収音装置13により実演を収音した観測音と当該実演での発音が予定される参照音との照合により、参照音に対する観測音の時間軸上の位置(以下「実演位置」という)Tを推定する。実演位置Tは、実演者Pが現時点で実演している時間軸上の時点であり、例えば参照音の始点(すなわち実演の開始の時点)からの経過時間で表現される。
The
第1実施形態の位置推定部51は、観測音から抽出される特徴量Fxの時系列と記憶装置12に記憶された参照音の特徴量Frefの時系列とを照合することで実演位置Tを推定する。観測音の特徴量Fxは、参照音の特徴量Frefと同種の物理量である。第1実施形態ではMFCCを特徴量Fxとして例示する。
The
図4は、位置推定部51が実演位置Tを特定する処理の具体的な手順を例示するフローチャートである。所定の周期で図4の処理が実行される。図4の処理を開始すると、位置推定部51は、収音装置13から供給される音響信号Xを解析することで、音響信号Xのうち現時点を含む所定の期間について特徴量Fxの時系列を抽出する(Sa1)。特徴量Fxの抽出には、短時間フーリエ変換等の公知の解析技術が任意に利用される。
FIG. 4 is a flowchart illustrating a specific procedure of processing for specifying the performance position T by the
位置推定部51は、音響信号Xから抽出した特徴量Fxの時系列と記憶装置12に記憶された参照音の特徴量Frefの時系列とを相互に照合することで実演位置Tを推定する(Sa2)。実演位置Tの推定には公知の技術が任意に採用される。例えば、位置推定部51は、特徴量Fxと特徴量Frefとの類似度(例えば距離または相関)を算定する演算処理と、観測音と参照音との間の時間的な対応を解析する動的時間伸縮(DTW:Dynamic Time Warping)とにより、参照音のうち観測音の特徴量Fxの時系列に対応する期間を探索することで実演位置Tを推定する。観測音の所定の期間毎に実演位置Tが推定される。
The
図3の情報特定部52は、記憶装置12に記憶された登録データQを参照することで、複数の識別情報Dのうち実演位置Tに時間的に対応する識別情報Dを特定する。具体的には、登録データQに登録された複数の単位期間Uのうち実演位置Tを含む単位期間U(すなわち、始点の時刻と終点の時刻との間に実演位置Tが位置する単位期間U)を探索し、当該単位期間Uに対応する識別情報Dを登録データQから取得する。情報特定部52による識別情報Dの特定は、位置推定部51による実演位置Tの推定毎に反復される。以上の説明から理解される通り、情報特定部52は、実演者Pが発話する台詞に対応する識別情報Dを順次に特定する。
The
信号処理部53は、情報特定部52が特定した識別情報Dを含む音響信号Yを生成する。図3に例示される通り、第1実施形態の信号処理部53は、変調処理部531と合成処理部532とを具備する。
The
変調処理部531は、情報特定部52が特定した識別情報Dを音響成分として含む変調信号Mを所定の変調処理により生成する。変調信号Mは、例えば所定の周波数の搬送波を識別情報Dにより周波数変調することで生成される。なお、拡散符号を利用した識別情報Dの拡散変調と所定の周波数の搬送波を利用した周波数変換とを順次に実行することで変調信号Mを生成してもよい。変調信号Mが表す音響の周波数帯域は、放音装置14による放音と端末装置30による収音とが可能な周波数帯域であり、かつ、利用者Aが通常の環境で聴取する音声の周波数帯域を上回る周波数帯域(例えば18kHz以上かつ20kHz以下)に設定される。ただし、変調信号Mが表す音響の周波数帯域は任意である。
The
合成処理部532は、収音装置13が生成した音響信号Xと変調処理部531が生成した変調信号Mとを合成することで音響信号Yを生成する。合成処理部532は、例えば音響信号Xと変調信号Mとを加算(例えば加重加算)することで音響信号Yを生成する。なお、変調信号Mを放音装置14に供給してもよい。すなわち、合成処理部532は省略され得る。
The synthesizing
以上の構成および手順により信号処理部53(合成処理部532)が生成した音響信号Yが放音装置14に供給されることで、音響信号Yが表す音響が利用者Aに対して再生される。具体的には、音響信号Xが表す観測音と変調信号Mが表す識別情報Dの音響成分とが放音装置14から再生される。以上の説明から理解される通り、放音装置14は、利用者Aが所在する観客席に対して実演者Pによる実演の観測音を放音する音響機器として機能するほか、空気振動としての音波を伝送媒体とする音響通信により識別情報Dを送信する送信機としても機能する。すなわち、情報処理システム10は、前述の通り、実演者Pによる実演に並行して、当該実演者Pが発音する台詞に対応する関連情報Cの識別情報Dを端末装置30に対して順次に送信する。実演者Pによる実演の進行に連動して、端末装置30に送信される識別情報Dは順次に更新される。
By supplying the sound signal Y generated by the signal processing unit 53 (synthesis processing unit 532) according to the above configuration and procedure to the
<端末装置30>
図5は、端末装置30の構成を例示するブロック図である。図5に例示される通り、端末装置30は、制御装置31と記憶装置32と通信装置33と収音装置34と再生装置35とを具備する。
<
FIG. 5 is a block diagram illustrating the configuration of the
収音装置34は、周囲の音響を収音するマイクロホンである。具体的には、収音装置34は、情報処理システム10の放音装置14が再生した音響を収音し、当該音響の波形を表す音響信号Zを生成する。音響信号Zには、識別情報Dを表す音響成分が含まれる。したがって、収音装置34は、音声通話または動画撮影時の音声収録に利用されるほか、空気振動としての音波を伝送媒体とする音響通信により識別情報Dを受信する受信機としても機能する。なお、収音装置34が生成した音響信号Zをアナログからデジタルに変換するA/D変換器の図示は便宜的に省略した。また、端末装置30と一体に構成された収音装置34に代えて、別体の収音装置34を有線または無線により端末装置30に接続してもよい。
The
記憶装置32は、制御装置31が実行するプログラムと制御装置31が使用する各種のデータとを記憶する。例えば半導体記録媒体および磁気記録媒体等の公知の記録媒体、または複数種の記録媒体の組合せが、記憶装置32として任意に採用され得る。通信装置33は、制御装置31による制御のもとで情報配信システム20と通信する。
The
再生装置35は、関連情報Cを再生する出力機器である。第1実施形態の再生装置35は、関連情報Cを表示する表示装置(例えば液晶表示パネル)を含む。すなわち、実演者Pが発音する台詞の文字列が関連情報Cとして再生装置35に表示される。したがって、実演者Pが発音した音声の聴取が困難である聴覚障碍者が、実演者Pによる実演の内容を把握できる。なお、関連情報Cの内容を表す音声を放音する放音装置を再生装置35として利用してもよい。
The
制御装置31は、例えばCPU等の処理回路で構成され、端末装置30の各要素を統括的に制御する。第1実施形態の制御装置31は、図5に例示される通り、記憶装置32に記憶されたプログラムを実行することで複数の機能(情報抽出部311および動作制御部312)を実現する。なお、制御装置31の一部の機能を専用の電子回路で実現してもよい。また、制御装置31の機能を複数の装置に搭載してもよい。
The
情報抽出部311は、収音装置34が生成した音響信号Zから識別情報Dを抽出する。具体的には、情報抽出部311は、例えば、音響信号Zのうち識別情報Dの音響成分を含む周波数帯域を強調するフィルタ処理と、変調処理部531による変調処理に対応した復調処理とにより、音響信号Zから識別情報Dを抽出する。
The
動作制御部312は、情報配信システム20から関連情報Cを取得し、当該関連情報Cを再生装置35に再生させる。具体的には、動作制御部312は、情報抽出部311が抽出した識別情報Dを含む情報要求Rを生成して通信装置33から情報配信システム20に送信する。情報要求Rの送信は、音響信号Zから抽出される識別情報Dが変化するたびに(すなわち実演者Pが発音する台詞毎に)実行される。また、動作制御部312は、情報要求Rに応じて情報配信システム20から送信された関連情報Cを通信装置33により受信し、当該関連情報Cを再生装置35に再生させる。以上の説明から理解される通り、端末装置30は、情報処理システム10から受信した識別情報Dに対応する関連情報Cを再生する。
The
<情報配信システム20>
図1の情報配信システム20は、複数の関連情報Cを記憶するサーバ装置(例えばウェブサーバ)である。複数の関連情報C(C1,C2,…)の各々には当該関連情報Cの識別情報D(D1,D2,…)が対応付けて記憶される。情報配信システム20は、端末装置30からの情報要求Rに含まれる識別情報Dに対応する関連情報Cを端末装置30に送信する。
<
The
<動作>
図6は、情報処理システム10および端末装置30の動作の手順を例示するフローチャートである。実演者Pによる実演に並行して図6の処理が例えば所定の周期で反復される。
<Action>
FIG. 6 is a flow chart illustrating the procedure of operations of the
情報処理システム10の位置推定部51は、収音装置13により実演を収音した観測音と事前に用意された参照音との照合により実演位置Tを推定する(Sb1)。具体的には、図4を参照して前述した通り、位置推定部51は、観測音の特徴量Fxと参照音の特徴量Frefとを照合することで実演位置Tを推定する。
The
情報特定部52は、参照音と複数の識別情報Dとの時間的な対応を表す登録データQを参照することで、位置推定部51が推定した実演位置Tに時間的に対応した識別情報Dを特定する(Sb2)。信号処理部53は、情報特定部52が特定した識別情報Dを含む音響信号Yを生成する(Sb3)。信号処理部53は、音響信号Yを放音装置14に供給することで、識別情報Dを音響通信により送信する(Sb4)。
The
端末装置30の情報抽出部311は、放音装置14による再生音の収音により収音装置34が生成した音響信号Zを取得する(Sb5)。情報抽出部311は、音響信号Zから識別情報Dを抽出する(Sb6)。動作制御部312は、情報抽出部311が抽出した識別情報Dを含む情報要求Rを通信装置33から情報配信システム20に送信する(Sb7)。情報配信システム20は、端末装置30から受信した情報要求Rに含まれる識別情報Dに対応する関連情報Cを要求元の端末装置30に送信する。
The
端末装置30の動作制御部312は、情報配信システム20から送信された関連情報Cを通信装置33により受信し(Sb8)、当該関連情報Cを再生装置35に再生させる(Sb9)。すなわち、実演者Pによる実演に並行した適切な時点で、当該実演において発音される各台詞の字幕が順次に表示される。
The
以上に説明した通り、第1実施形態においては、観測音と参照音との照合により参照音に対する観測音の実演位置Tが推定されるから、参照音との時間的な対応が登録された複数の識別情報Dのうち、実演位置Tに対応する識別情報Dを特定できる。したがって、実演に並行した適切な時点で識別情報Dを逐次的に指示する作業を必要とせずに、実演中の適切な時点で識別情報Dを特定することが可能である。第1実施形態によれば、観測音の特徴量Fxと参照音の特徴量Frefとの照合により実演位置Tを適切に推定できるという利点もある。 As described above, in the first embodiment, the performance position T of the observation sound with respect to the reference sound is estimated by matching the observation sound and the reference sound. , the identification information D corresponding to the performance position T can be specified. Therefore, it is possible to specify the identification information D at an appropriate point in time during the demonstration without having to sequentially indicate the identification information D at an appropriate point in time during the demonstration. According to the first embodiment, there is also the advantage that the performance position T can be appropriately estimated by matching the feature amount Fx of the observed sound and the feature amount Fref of the reference sound.
<第2実施形態>
本発明の第2実施形態を説明する。なお、以下の各例示において機能が第1実施形態と同様である要素については、第1実施形態の説明で使用した符号を流用して各々の詳細な説明を適宜に省略する。
<Second embodiment>
A second embodiment of the present invention will be described. It should be noted that, in each of the following illustrations, the reference numerals used in the description of the first embodiment are used for the elements whose functions are the same as those of the first embodiment, and detailed description of each will be omitted as appropriate.
図7は、第2実施形態における情報処理システム10の機能的な構成を例示するブロック図である。第2実施形態の記憶装置12は、第1実施形態と同様の登録データQを記憶する。また、記憶装置12は、第1実施形態で例示した参照音の特徴量Frefに代えて、参照音の内容を表す文字列(以下「参照文字列」という)Srefを記憶する。参照音を表す音響信号Vに対する音声認識により参照文字列Srefが事前に推定されて記憶装置12に記憶される。第1実施形態と同様に、音響信号Vは、実演者Pによる実演で発音される予定の文字列(すなわち台本に記載された台詞)に対する音声合成により生成される。
FIG. 7 is a block diagram illustrating the functional configuration of the
音響信号Vの音声認識には公知の技術が任意に採用される。第2実施形態の参照文字列Srefは、認識モデルを利用した音声認識により推定される。認識モデルは、例えばHMM等の音響モデルと、言語的な制約を示す言語モデルとを含んで構成される。 A known technique is arbitrarily adopted for speech recognition of the acoustic signal V. FIG. The reference character string Sref of the second embodiment is estimated by speech recognition using a recognition model. The recognition model includes, for example, an acoustic model such as an HMM, and a language model indicating linguistic constraints.
位置推定部51は、第1実施形態と同様に、収音装置13が収音した観測音と事前に用意された参照音との照合により実演位置Tを推定する。第2実施形態の位置推定部51は、観測音に対する音声認識で推定される文字列(以下「観測文字列」という)Sxと、記憶装置12に記憶された参照文字列Srefとを照合することで、実演者Pによる実演位置Tを推定する。
As in the first embodiment, the
図8は、第2実施形態の位置推定部51が実演位置Tを特定する処理の具体的な手順を例示するフローチャートである。所定の周期で図8の処理が反復される。図8の処理を開始すると、位置推定部51は、収音装置13から供給される音響信号Xに対する音声認識で観測文字列Sxを推定する(Sc1)。音響信号Xに対する音声認識は、参照音の音響信号Vに対する音声認識と同様の方法で実行される。具体的には、観測音の音響信号Xに対する音声認識と参照音の音響信号Vに対する音声認識とにおいては、共通の認識モデル(音響モデルおよび言語モデル)が利用される。
FIG. 8 is a flowchart illustrating a specific procedure of processing for specifying the performance position T by the
位置推定部51は、音響信号Xから推定した観測文字列Sxと記憶装置12に記憶された参照文字列Srefとを相互に照合することで実演位置Tを推定する(Sc2)。実演位置Tの推定には公知の技術が任意に採用される。具体的には、位置推定部51は、参照文字列Srefを時間軸上で区分した複数の区間の各々と観測文字列Sxとの間で類似度を算定し、観測文字列Sxとの類似度が最大となる区間に応じて実演位置Tを推定する。参照文字列Srefと観測文字列Sxとの間の類似度の指標としては、例えば編集距離が好適に利用される。以上に例示した処理により観測音の所定の期間毎に実演位置Tが推定される。
The
実演位置Tに応じた識別情報Dの特定および識別情報Dの送信は、第1実施形態と同様である。また、端末装置30および情報配信システム20の動作も第1実施形態と同様である。したがって、第2実施形態においても第1実施形態と同様の効果が実現される。
Identification of the identification information D according to the demonstration position T and transmission of the identification information D are the same as in the first embodiment. Also, the operations of the
ところで、例えば狂言または歌舞伎等の伝統的な演芸の実演では、実演者Pは古語等の特殊な言葉を発話する。また、特定の地域で実施される演芸では、当該地域に特有の言い回しを含む特殊な言葉を実演者Pが発話する。観測音が、以上の例示のような特殊な言葉を発話した音声である場合、現代語等の通常の言葉の認識モデルを利用した音声認識では正確な認識が困難である。したがって、観測音に対する音声認識で推定される観測文字列Sxと台本に記載された台詞とを照合する構成では双方の文字列が乖離し、結果的に実演位置Tを高精度に推定することができない。以上の構成とは対照的に、第2実施形態では、共通の認識モデル(例えば現代語等の通常の言葉の認識モデル)を利用した音声認識で推定された観測文字列Sxと、参照文字列Srefとが照合される。したがって、音声認識の結果の正誤はともかく、音声認識の傾向自体は、観測文字列Sxと参照文字列Srefとで同様である。したがって、第2実施形態によれば、観測音が古語等の特殊な言葉を発音した音声である場合でも、実演位置Tを高精度に推定できるという利点がある。なお、音声認識の精度が特段の問題とならない場合には、観測音に対する音声認識で推定される観測文字列Sxと台本に記載された台詞とを照合してもよい。 By the way, in a performance of traditional entertainment such as Kyogen or Kabuki, for example, the performer P speaks special words such as archaic language. Also, in a performance performed in a specific area, the performer P speaks special words including phrases peculiar to the area. When the observed sound is a speech uttered with special words such as the above examples, accurate recognition is difficult with speech recognition using a recognition model for ordinary words such as modern words. Therefore, in the configuration in which the observed character string Sx estimated by speech recognition of the observed sound and the dialogue written in the script are collated, the two character strings diverge, and as a result, the performance position T can be estimated with high accuracy. Can not. In contrast to the above configuration, in the second embodiment, an observed character string Sx estimated by speech recognition using a common recognition model (for example, a recognition model for ordinary words such as modern language) and a reference character string Sref is matched. Therefore, regardless of whether the result of speech recognition is correct or not, the tendency of speech recognition itself is the same between the observed character string Sx and the reference character string Sref. Therefore, according to the second embodiment, there is an advantage that the performance position T can be estimated with high accuracy even when the observed sound is a speech in which a special word such as an ancient word is pronounced. If the accuracy of speech recognition does not pose a particular problem, the observed character string Sx estimated by speech recognition of the observed sound may be compared with the dialogue written in the script.
なお、第1実施形態では、実演者Pが発音する予定の文字列(例えば台本に記載された台詞)に対する音声合成で参照音の音響信号Vが生成され、当該参照音の音響信号Vから抽出された特徴量Frefと観測音の特徴量Fxとが照合される。以上の構成でも、観測音が古語等の特殊な言葉を発音した音声である場合でも実演位置Tを高精度に推定できる、という第2実施形態と同様の効果は実現される。 Note that, in the first embodiment, the sound signal V of the reference sound is generated by speech synthesis for a character string (for example, a line written in a script) to be pronounced by the performer P, and extracted from the sound signal V of the reference sound. The obtained feature amount Fref and the observed sound feature amount Fx are collated. The above configuration also achieves the same effect as the second embodiment, that is, the performance position T can be estimated with high accuracy even when the observed sound is a voice pronouncing a special word such as an ancient word.
第1実施形態における特徴量Fxと特徴量Frefとの照合と、第2実施形態における観測文字列Sxと参照文字列Srefとの照合とは、観測音と参照音とを照合する処理の具体例に相当する。なお、観測音と参照音との照合は以上の例示に限定されない。例えば、観測音の音響信号Xと参照音の音響信号Vとを相互に照合することで実演位置Tを推定してもよい。 The matching between the feature quantity Fx and the feature quantity Fref in the first embodiment and the matching between the observed character string Sx and the reference character string Sref in the second embodiment are specific examples of processing for comparing the observed sound and the reference sound. corresponds to Note that the collation between the observed sound and the reference sound is not limited to the above examples. For example, the performance position T may be estimated by mutually collating the acoustic signal X of the observed sound and the acoustic signal V of the reference sound.
<第3実施形態>
図9は、第3実施形態に係る管理システム200の構成を例示するブロック図である。第3実施形態の管理システム200は、実演者Pによる実演に関する演出を制御するためのコンピュータシステムであり、情報処理システム10と舞台システム60とを具備する。舞台システム60は、実演者Pによる実演に並行して各種の演出を実行する。
<Third Embodiment>
FIG. 9 is a block diagram illustrating the configuration of a
情報処理システム10は、第1実施形態と同様の構成であり、実演者Pによる実演に並行して音響通信により識別情報Dを順次に送信する。具体的には、情報処理システム10は、観測音と参照音との照合により実演位置Tを推定し、実演位置Tに対応する識別情報Dを特定および送信する。なお、第2実施形態の構成を第3実施形態の情報処理システム10に適用してもよい。
The
第1実施形態の識別情報Dが関連情報Cを識別する符号であるのに対し、第3実施形態の識別情報Dは、舞台システム60による演出の内容を識別するための符号である。すなわち、第3実施形態の情報処理システム10は、実演者Pによる実演に並行して舞台システム60に演出の内容を順次に指示する。
While the identification information D in the first embodiment is a code for identifying the related information C, the identification information D in the third embodiment is a code for identifying the content of the performance by the
図9に例示される通り、舞台システム60は、管理装置61と演出装置62とを具備する。演出装置62は、舞台上の演出を実行する装置であり、音響装置621と照明装置622とを具備する。音響装置621は、例えば音楽または効果音等の各種の音響を再生する設備である。照明装置622は、舞台上を照明する設備である。照明装置622による照明の特性(点灯/消灯,光量,発光色)は可変に制御される。
As illustrated in FIG. 9 , the
管理装置61は、情報処理システム10から音響通信により受信した識別情報Dに応じて演出装置62を制御する。例えば携帯電話機、スマートフォン、タブレット端末、またはパーソナルコンピュータ等の可搬型の情報端末が管理装置61として利用される。管理装置61は、複数の識別情報Dの各々について演出動作を記憶する。演出動作は、例えば音響装置621による各種の音響の再生、または照明装置622による照明の制御である。管理装置61は、情報処理システム10が再生した音響から識別情報Dを抽出し、識別情報Dに対応する演出動作を演出装置62に指示する。したがって、実演者Pによる実演に並行して、舞台システム60による舞台上の演出が順次に制御される。以上の説明から理解される通り、舞台システム60は、情報処理システム10から受信した識別情報Dに対応する演出動作を実行する。
The
第3実施形態においても第1実施形態と同様に、観測音と参照音との照合により参照音に対する観測音の実演位置Tが推定されるから、参照音との時間的な対応が登録された複数の識別情報Dのうち、実演位置Tに対応する識別情報Dを特定できる。したがって、実演に並行した適切な時点で識別情報Dを逐次的に指示する作業を必要とせずに、実演中の適切な時点で識別情報Dを特定することが可能である。また、第3実施形態によれば、実演者Pによる実演に関する演出を、当該実演に並行した適切な時点で実行することが可能である。 In the third embodiment, similarly to the first embodiment, since the performance position T of the observation sound with respect to the reference sound is estimated by matching the observation sound and the reference sound, the temporal correspondence with the reference sound is registered. The identification information D corresponding to the performance position T can be specified among the plurality of identification information D. FIG. Therefore, it is possible to specify the identification information D at an appropriate point in time during the demonstration without having to sequentially indicate the identification information D at an appropriate point in time during the demonstration. Further, according to the third embodiment, it is possible to perform the production related to the performance by the performer P at an appropriate time in parallel with the performance.
<第4実施形態>
第4実施形態の情報処理システム10は、登録データQを生成する機能を具備する。図10は、第4実施形態における制御装置11が登録データQを生成するための機能的な構成を例示するブロック図である。図10に例示される通り、第4実施形態の記憶装置12は登録文字列Wを記憶する。登録文字列Wは、実演者Pによる発音が予定される文字列である。例えば実演者Pによる実演の台本に記載された各台詞の時系列が登録文字列Wとして記憶装置12に事前に記憶される。登録文字列Wは、相異なる台詞に対応する複数の区間(以下「登録区間」という)σに区画される。任意の1個の登録区間σは、例えば発話の単位となる一連の台詞の文字列(例えば単数または複数の文)で構成される。以上の説明の通り、登録文字列Wは、複数の登録区間σを含んで構成される。
<Fourth Embodiment>
The
実演者Pは、例えば正式な実演のための準備(例えばリハーサル)の段階で実演する。準備の段階で、実演者Pは登録文字列Wを発音する。第4実施形態の収音装置13は、実演者Pが発音した参照音を収音し、当該参照音の波形を表す音響信号Vを生成する。
The performer P performs, for example, at the stage of preparation (for example, rehearsal) for a formal performance. At the stage of preparation, the performer P pronounces the registered character string W. The
図10に例示される通り、第4実施形態の制御装置11は、記憶装置12に記憶されたプログラムを実行することで解析処理部55として機能する。解析処理部55は、記憶装置12に記憶された登録文字列Wと収音装置13が収音した参照音とを照合することで登録データQを生成する。登録データQは、前述の通り、参照音を時間軸上で区分した複数の単位期間U(U1,U2,…)の各々について識別情報D(D1,D2,…)を指定する。各単位期間Uは、参照音のうち登録文字列Wの各登録区間σが発音される期間である。すなわち、解析処理部55は、登録文字列Wと参照音とを照合することで、当該参照音を、相異なる登録区間σに対応する複数の単位期間Uに時間軸上で区画する。
As illustrated in FIG. 10 , the
図11は、第4実施形態における解析処理部55が登録データQを生成する動作の具体的な手順を例示するフローチャートである。登録データQの生成の指示を契機として図11の処理が開始される。図11の処理を開始すると、解析処理部55は、収音装置13から供給される音響信号Vを解析することで参照音の特徴量Frefの時系列を抽出する(Sd1)。
FIG. 11 is a flowchart illustrating a specific procedure of the operation of generating the registration data Q by the
解析処理部55は、記憶装置12に記憶された登録文字列Wに対する音声合成により、登録文字列Wを発話した合成音の波形を表す音響信号(以下「合成信号」という)を生成する(Sd2)。合成信号の生成には、例えば前述の素片接続型または統計モデル型の音声合成が好適に利用される。解析処理部55は、音声合成により生成した合成信号を解析することで合成音の特徴量Fsynの時系列を抽出する(Sd3)。例えば、登録文字列Wの登録区間σ毎に特徴量Fsynの時系列が抽出される。合成音の特徴量Fsynは、参照音の特徴量Frefと同種の物理量(例えばMFCC)である。なお、参照音の特徴量Frefの抽出(Sd1)と合成音の特徴量Fsynの抽出(Sd2,Sd3)との順序を逆転してもよい。以上の説明から理解される通り、第4実施形態の制御装置11は、登録文字列Wに対する音声合成で生成される合成音の特徴量Fsynを抽出する要素(特徴抽出部)として機能する。なお、相異なる時期または場所で収録された複数の参照音の特徴量の代表値(例えば平均値)を特徴量Fsynとして登録データQの生成に利用してもよい。また、登録区間σについて合成音から抽出された複数の特徴量の代表値(例えば平均値)を特徴量Fsynとして利用してもよい。
The
解析処理部55は、参照音の特徴量Frefの時系列と合成音の特徴量Fsynの時系列とを相互に照合することで参照音を複数の単位期間Uに区画する(Sd4)。例えば、登録文字列Wの複数の登録区間σの各々について、当該登録区間σにおける特徴量Fsynの時系列に類似する特徴量Frefが抽出された参照音の期間が、当該登録区間σに対応する単位期間Uとして画定される。すなわち、登録区間σ毎(例えば台詞毎)の単位期間Uに参照音が時間軸上で区画される。具体的には、解析処理部55は、各単位期間Uの始点および終点の時刻を特定する。以上の説明から理解される通り、第4実施形態の制御装置11は、参照音の特徴量Frefと合成音の特徴量Fsynとを照合することで、参照音のうち各登録区間σに対応する単位期間Uを画定する要素(期間画定部)として機能する。
The
以上の手順で参照音を複数の単位期間Uに区画すると、解析処理部55は、複数の単位期間Uの各々について識別情報Dを対応付けた登録データQを生成する(Sd5)。具体的には、解析処理部55は、参照音の複数の単位期間Uの各々に対して相互に重複しない識別情報Dを割当て、単位期間Uの始点および終点の時刻と識別情報Dとを対応させた登録データQを生成する。
After dividing the reference sound into a plurality of unit periods U in the above procedure, the
解析処理部55は、以上の手順で生成した登録データQと、参照音から抽出(Sd1)された特徴量Frefの時系列とを、記憶装置12に記憶する(Sd6)。第1実施形態において例示した通り、特徴量Frefの時系列は、位置推定部51による実演位置Tの推定に利用され、登録データQは、情報特定部52による識別情報Dの特定に利用される。
The
第4実施形態によれば、実演者Pによる実演に並行して端末装置30に複数の識別情報Dの各々を順次に送信するために利用される登録データQを、登録文字列Wから簡便に生成できるという利点がある。なお、第4実施形態は、第1実施形態で使用される登録データQのほか、第2実施形態または第3実施形態で使用される登録データQの生成にも同様に適用される。図11の例示では、登録データQとともに参照音の特徴量Frefを記憶装置12に記憶したが(Sd6)、第2実施形態では、例えば、登録データQの生成に利用された登録文字列Wが参照文字列Srefとして記憶装置12に記憶される。
According to the fourth embodiment, the registration data Q used for sequentially transmitting each of the plurality of identification information D to the
<第5実施形態>
第5実施形態は、第4実施形態と同様に、登録データQを生成するための形態である。第5実施形態における情報処理システム10の制御装置11は、記憶装置12に記憶されたプログラムを実行することで、図10の例示と同様に、登録文字列Wと参照音との照合により登録データQを生成する解析処理部55として機能する。
<Fifth Embodiment>
5th Embodiment is a form for producing|generating the registration data Q similarly to 4th Embodiment. The
図12は、第5実施形態の解析処理部55が登録データQを生成する動作の具体的な手順を例示するフローチャートである。登録データQの生成の指示を契機として図12の処理が開始される。図12の処理を開始すると、解析処理部55は、収音装置13から供給される参照音の音響信号Vに対する音声認識で参照文字列Srefを推定する(Se1)。参照文字列Srefは、音響モデルと言語モデルとを含む認識モデルを利用した公知の音声認識により推定される。
FIG. 12 is a flowchart illustrating a specific procedure of the operation of generating the registration data Q by the
解析処理部55は、記憶装置12に記憶された登録文字列Wに対する音声合成により、登録文字列Wを発話した合成音の波形を表す合成信号を生成する(Se2)。合成信号の生成には、例えば前述の素片接続型または統計モデル型の音声合成が好適に利用される。
The
解析処理部55は、音声合成後の合成信号に対する音声認識により、合成音の発話内容を表す文字列(以下「合成文字列」という)Wsynを生成する(Se3)。登録文字列Wの登録区間σ毎に合成文字列Wsynが推定される。合成音の音声認識(Se3)と参照音の音声認識(Se1)とにおいては共通の認識モデルが利用される。以上の説明から理解される通り、第5実施形態の制御装置11は、登録文字列Wに対する音声合成で生成される合成音に対する音声認識で合成文字列Wsynを推定する要素(音声認識部)として機能する。合成文字列Wsynは、登録文字列Wから生成された合成音に対する音声認識の結果であるから、理想的には登録文字列Wに一致または類似する。ただし、音声認識における誤認識等の要因により、合成文字列Wsynと登録文字列Wとは完全には一致しない。実演者Pが古語等の特殊な言葉を発話した場合には、合成文字列Wsynと登録文字列Wとの差異が特に顕著となる。なお、参照文字列Srefの生成(Se1)と合成文字列Wsynの生成(Se2,Se3)との順序を逆転してもよい。
The
解析処理部55は、参照文字列Srefと合成文字列Wsynとを相互に照合することで参照音を複数の単位期間Uに区画する(Se4)。例えば、登録文字列Wの複数の登録区間σの各々について、当該登録区間σにおける合成文字列Wsynに類似する参照文字列Srefが推定された参照音の期間が、当該登録区間σに対応する単位期間Uとして画定される。すなわち、第4実施形態と同様に、登録区間σ毎(例えば台詞毎)の単位期間Uに参照音が時間軸上で区画される。以上の説明から理解される通り、第5実施形態の制御装置11は、参照文字列Srefと合成文字列Wsynとを照合することで、参照音のうち各登録区間σに対応する単位期間Uを画定する要素(期間画定部)として機能する。
The
以上の手順で参照音を複数の単位期間Uに区画すると、解析処理部55は、第4実施形態と同様の手順により、複数の単位期間Uの各々について識別情報Dを対応付けた登録データQを生成する(Se5)。そして、解析処理部55は、以上の手順で生成した登録データQと、参照音から別途の処理で抽出された特徴量Frefの時系列とを、記憶装置12に記憶する(Se6)。
When the reference sound is divided into a plurality of unit periods U by the above procedure, the
参照音が古語等の特殊な言葉の発話音声である場合、現代語等の通常の言葉の認識モデルを利用した音声認識では正確な認識が困難である。実演者Pは登録文字列Wを発音するが、以上の事情により、参照音に対する音声認識で推定される参照文字列Srefと、実演での発音が予定される登録文字列Wとは乖離する可能性がある。したがって、参照文字列Srefと登録文字列Wとの照合により各単位期間Uを区画する構成では、参照音を登録区間σ毎の単位期間Uに高精度に区画することが困難である。以上の構成とは対照的に、第5実施形態では、共通の認識モデル(例えば現代語等の通常の言葉の認識モデル)を利用した音声認識により推定された参照文字列Srefと合成文字列Wsynとが照合される。したがって、参照音が古語等の特殊な言葉の発話音声である場合でも、参照音を、登録区間σ毎の単位期間Uに高精度に区画することが可能である。 When the reference sound is the uttered speech of a special word such as an ancient language, accurate recognition is difficult with speech recognition using a recognition model of a normal word such as a modern language. The performer P pronounces the registered character string W, but due to the above circumstances, the reference character string Sref estimated by speech recognition of the reference sound and the registered character string W expected to be pronounced in the demonstration may diverge. have a nature. Therefore, in the configuration in which each unit period U is divided by matching the reference character string Sref and the registered character string W, it is difficult to divide the reference sound into unit periods U for each registered section σ with high accuracy. In contrast to the above configuration, in the fifth embodiment, the reference character string Sref and the synthesized character string Wsyn are estimated by speech recognition using a common recognition model (for example, a recognition model for ordinary words such as modern languages). is matched. Therefore, even when the reference sound is an utterance of a special word such as an archaic language, it is possible to segment the reference sound into unit periods U for each registration period σ with high accuracy.
なお、第5実施形態は、第1実施形態で使用される登録データQのほか、第2実施形態または第3実施形態で使用される登録データQの生成にも同様に適用される。図12の例示では、登録データQとともに参照音の特徴量Frefを記憶装置12に記憶したが(Se6)、第2実施形態では、参照音から推定(Se1)された参照文字列Srefが記憶装置12に記憶される。
The fifth embodiment is similarly applied to the generation of the registration data Q used in the second or third embodiment as well as the registration data Q used in the first embodiment. In the example of FIG. 12, the feature amount Fref of the reference sound is stored in the
第4実施形態および第5実施形態では、端末装置30に識別情報Dを送信する情報処理システム10が登録データQを生成する構成を想定したが、識別情報Dを送信する情報処理システム10とは別個の情報処理システムにより登録データQを生成してもよい。
In the fourth and fifth embodiments, it is assumed that the
<変形例>
以上に例示した各態様に付加される具体的な変形の態様を以下に例示する。以下の例示から任意に選択された複数の態様を、相互に矛盾しない範囲で適宜に併合してもよい。
<Modification>
Specific modified aspects added to the above-exemplified aspects will be exemplified below. A plurality of aspects arbitrarily selected from the following examples may be combined as appropriate within a mutually consistent range.
(1)前述の各形態では参照音の音響信号Vを音声合成により生成したが、音響信号Vを生成する方法は以上の例示に限定されない。例えば、過去の実演において収録された複数の収録音から参照音の音響信号Vを生成してもよい。例えば、共通の演目を相異なる実演にて収録した収録音を表す複数の音響信号を合成することで参照音の音響信号Vが生成される。以上の手順で生成された参照音の音響信号Vから抽出された特徴量Frefの時系列(第2実施形態では参照文字列Sref)と、当該音響信号Vから生成された登録データQとが、情報処理システム10の記憶装置12に記憶される。
(1) In each of the above embodiments, the acoustic signal V of the reference sound is generated by speech synthesis, but the method of generating the acoustic signal V is not limited to the above examples. For example, the acoustic signal V of the reference sound may be generated from a plurality of recorded sounds recorded in past demonstrations. For example, the sound signal V of the reference sound is generated by synthesizing a plurality of sound signals representing sounds recorded in different demonstrations of a common program. The time series of the feature amount Fref (reference character string Sref in the second embodiment) extracted from the acoustic signal V of the reference sound generated by the above procedure, and the registered data Q generated from the acoustic signal V, It is stored in the
また、複数の収録音から抽出された特徴量の代表値(例えば平均)を参照音の特徴量Frefとして算定してもよい。以上の例示のように過去の実演において収録された複数の収録音から参照音(例えば音響信号Vまたは特徴量Fref)を生成する構成によれば、過去の実演における収録音の傾向を反映した参照音を生成することが可能である。なお、「過去の実演」には、舞台上での正式な実演のほか、正式な実演のための準備的な実演(例えばリハーサルでの実演)も含まれる。 Alternatively, a representative value (for example, an average) of feature amounts extracted from a plurality of recorded sounds may be calculated as the feature amount Fref of the reference sound. According to the configuration for generating the reference sound (for example, the acoustic signal V or the feature amount Fref) from a plurality of recorded sounds recorded in the past demonstrations as in the above examples, the reference sounds reflecting the tendency of the recorded sounds in the past demonstration It is possible to generate sounds. The "past performance" includes not only formal performances on stage but also preparatory performances for formal performances (for example, performances at rehearsals).
(2)第1実施形態では、情報配信システム20から受信した関連情報Cを端末装置30が再生したが、端末装置30の記憶装置32に記憶された関連情報Cを再生してもよい。例えば、端末装置30の記憶装置32は、複数の関連情報Cの各々を識別情報Dと対応付けて記憶する。動作制御部312は、情報抽出部311が抽出した識別情報Dに対応する関連情報Cを記憶装置32から取得して再生装置35に再生させる。以上の構成によれば、通信網40を介した通信を必要とせずに端末装置30が関連情報Cを取得できるという利点がある。他方、第1実施形態のように端末装置30が情報配信システム20から関連情報Cを受信する構成によれば、複数の関連情報Cを端末装置30の記憶装置32に保持する必要がないという利点がある。なお、前述の各形態では、端末装置30から送信された情報要求Rの受信毎に情報処理システム10から端末装置30に関連情報Cを送信したが、事前に登録された端末装置30に対して、情報要求Rの受信を必要とせずに情報処理システム10から関連情報Cを送信(プッシュ配信)してもよい。
(2) In the first embodiment, the
(3)第1実施形態および第2実施形態では、実演者Pが発音する台詞の文字列を関連情報Cとして端末装置30に提供したが、関連情報Cの内容は以上の例示に限定されない。例えば、実演者Pが発音する台詞を特定の言語に翻訳した文字列を関連情報Cとして端末装置30に提供してもよい。以上の構成によれば、例えば実演者Pが発音する台詞の言語を理解できない外国人でも、端末装置30が再生する関連情報Cを視認することで台詞の内容を把握できる。なお、実演者Pが発音する古語または独特の言い回しを標準的な表現(例えば現代語または標準語)に変換した文字列を関連情報Cとして端末装置30に提供してもよい。また、実演者Pによる実演に関する解説、または当該実演を解説するサイトの所在を表す情報(例えばURL)を、関連情報Cとして端末装置30に提供してもよい。
(3) In the first and second embodiments, the character string of the lines pronounced by the performer P is provided to the
(4)位置推定部51による観測音と参照音との照合の結果(以下「照合結果」という)を情報処理システム10が具備する表示装置に表示してもよい。照合結果は、例えば実演位置Tの時間的な変化である。照合結果は、例えば観測音と参照音との照合に並行して実時間的に表示される。情報処理システム10の管理者は、表示装置の表示を確認することで照合結果の適否を判断し、照合結果が不適切である場合(例えば実演位置Tが誤推定された場合)には、照合結果(例えば実演位置T)を手動で修正する。
(4) The result of matching between the observed sound and the reference sound by the position estimation unit 51 (hereinafter referred to as “matching result”) may be displayed on the display device provided in the
(5)前述の各形態では、特徴量Fxおよび特徴量FrefとしてMFCCを例示したが、特徴量Fxおよび特徴量Frefの種類は以上の例示に限定されない。例えば周波数スペクトルやスペクトログラム等の周波数特性を特徴量Fxおよび特徴量Frefとして実演位置Tの推定に利用してもよい。 (5) In each of the above embodiments, MFCC was exemplified as the feature quantity Fx and the feature quantity Fref, but the types of the feature quantity Fx and the feature quantity Fref are not limited to the above examples. For example, frequency characteristics such as a frequency spectrum and a spectrogram may be used to estimate the performance position T as the feature amount Fx and the feature amount Fref.
(6)前述の各形態では、識別情報Dを音響通信により端末装置30に送信したが、識別情報Dを送信するための通信方式は音響通信に限定されない。例えば、電波または赤外線等の電磁波を伝送媒体とした無線通信で識別情報Dを端末装置30に送信してもよい。電磁波を伝送媒体とした通信と前述の各形態で例示した音響通信とは、移動体通信網等の通信網40が介在しない近距離無線通信として包括的に表現される。
(6) In each of the above embodiments, the identification information D was transmitted to the
(7)前述の各形態に係る情報処理システム10の機能は、各形態での例示の通り、制御装置11等の処理回路とプログラムとの協働により実現される。前述の各形態に係るプログラムは、コンピュータが読取可能な記録媒体に格納された形態で提供されてコンピュータにインストールされ得る。記録媒体は、例えば非一過性(non-transitory)の記録媒体であり、CD-ROM等の光学式記録媒体(光ディスク)が好例であるが、半導体記録媒体または磁気記録媒体等の公知の任意の形式の記録媒体も包含される。なお、非一過性の記録媒体とは、一過性の伝搬信号(transitory, propagating signal)を除く任意の記録媒体を含み、揮発性の記録媒体も除外されない。また、通信網を介した配信の形態でプログラムをコンピュータに提供してもよい。
(7) The functions of the
<付記>
以上に例示した形態から、例えば以下の構成が把握される。
<Appendix>
For example, the following configuration can be grasped from the form illustrated above.
本発明の好適な態様(第1態様)に係る情報処理方法は、収音装置により実演を収音した観測音と前記実演での発音が予定される参照音との照合により、前記参照音に対する前記観測音の時間軸上の位置である実演位置を推定し、前記参照音と複数の識別情報との時間的な対応を表す登録データを参照することで、前記複数の識別情報のうち前記実演位置に時間的に対応する識別情報を特定する。以上の態様によれば、収音装置により実演を収音した観測音と事前に用意された参照音との照合により参照音に対する観測音の実演位置が推定されるから、参照音との時間的な対応が登録された複数の識別情報のうち、実演位置に時間的に対応する識別情報を特定できる。したがって、実演に並行した適切な時点で識別情報を逐次的に指示する作業を必要とせずに、実演中の適切な時点で識別情報を特定することが可能である。なお、「観測音」は、典型的には発話音声(台詞を発音した音声等の言語音)であるが、楽器の演奏音等も含まれる。 An information processing method according to a preferred aspect (first aspect) of the present invention compares an observed sound picked up by a sound pickup device with a reference sound expected to be pronounced in the By estimating the performance position, which is the position of the observed sound on the time axis, and referring to registered data representing the temporal correspondence between the reference sound and the plurality of pieces of identification information, the performance position among the plurality of pieces of identification information. Identify identification information that temporally corresponds to the location. According to the above aspect, the performance position of the observation sound relative to the reference sound is estimated by collating the observation sound collected by the sound collecting device with the reference sound prepared in advance. Among the plurality of pieces of identification information for which such correspondence is registered, the identification information temporally corresponding to the performance position can be specified. Therefore, it is possible to specify the identification information at an appropriate point in time during the performance without having to sequentially indicate the identification information at appropriate points in parallel with the performance. The "observation sound" is typically speech (language sound such as speech produced by pronouncing a line), but also includes performance sound of a musical instrument.
第1態様の好適例(第2態様)において、前記参照音は、前記実演での発音が予定される文字列に対する音声合成で生成される。以上の態様によれば、観測音との照合に利用される参照音を、実演での発音が予定される文字列(例えば台本)から簡便に用意できるという利点がある。 In a preferred example of the first aspect (second aspect), the reference sound is generated by speech synthesis for a character string that is expected to be pronounced in the demonstration. According to the above aspect, there is an advantage that the reference sound used for matching with the observed sound can be easily prepared from a character string (for example, a script) that is expected to be pronounced in the demonstration.
第1態様の好適例(第3態様)において、前記参照音は、過去の実演において収録された複数の収録音から生成される。以上の態様によれば、実際の実演で発音された収録音の傾向を反映した参照音を生成することが可能である。 In a preferred example of the first aspect (third aspect), the reference sounds are generated from a plurality of recorded sounds recorded in past demonstrations. According to the above aspect, it is possible to generate the reference sound that reflects the tendency of the recorded sound pronounced in the actual demonstration.
第1態様から第3態様の何れかの好適例(第4態様)において、前記実演位置の推定では、前記観測音に対する音声認識で推定される観測文字列と、前記参照音に対する音声認識で推定される参照文字列とを照合することで、前記実演位置を推定し、前記観測音に対する音声認識と前記参照音に対する音声認識とにおいては共通の認識モデルが利用される。例えば観測音が古語等の特殊な言葉の発話音声である場合、現代語等の通常の言葉の認識モデル(例えば音響モデルおよび言語モデル)を利用した音声認識では正確な認識が困難である。したがって、観測音に対する音声認識で推定される観測文字列と、実演での発音が予定される文字列とを照合する構成では双方が乖離し、結果的に実演位置を高精度に推定することができない。共通の認識モデル(例えば現代語等の通常の言葉の認識モデル)を利用した音声認識により推定された観測文字列と参照文字列とを照合する前述の態様によれば、観測音が古語等の特殊な言葉の発話音声である場合でも、実演位置を高精度に推定することが可能である。 In a preferred example (fourth aspect) of any one of the first to third aspects (fourth aspect), the estimation of the performance position includes: an observed character string estimated by speech recognition of the observed sound; and an observed character string estimated by speech recognition of the reference sound. A common recognition model is used in the speech recognition for the observed sound and the speech recognition for the reference sound. For example, if the observed sound is an utterance of a special word such as an ancient language, accurate recognition is difficult with speech recognition using a recognition model (for example, an acoustic model and a language model) of a normal word such as a modern language. Therefore, in the configuration in which the observed character string estimated by speech recognition for the observed sound and the character string expected to be pronounced in the demonstration are matched, the two diverge, and as a result, the performance position cannot be estimated with high accuracy. Can not. According to the above-described aspect of collating the observed character string estimated by speech recognition using a common recognition model (for example, the recognition model of ordinary words such as modern language) and the reference character string, the observed sound is It is possible to estimate the position of the performance with high accuracy even if the speech is a special word.
第1態様から第3態様の何れかの好適例(第5態様)において、前記実演位置の推定では、前記観測音から抽出される特徴量と前記参照音の特徴量とを照合することで前記実演位置を推定する。以上の態様によれば、観測音の特徴量と参照音の特徴量との照合により実演位置を適切に推定することが可能である。実演位置の推定に好適な特徴量は、例えばMFCCである。 In a preferred example (fifth aspect) of any one of the first to third aspects, in the estimation of the performance position, the feature amount extracted from the observed sound and the feature amount of the reference sound are collated to perform the Estimate the location of the demonstration. According to the above aspect, it is possible to appropriately estimate the performance position by matching the feature amount of the observed sound and the feature amount of the reference sound. A feature quantity suitable for estimating the performance position is, for example, MFCC.
第1態様から第5態様の何れかの好適例(第6態様)において、前記実演に関する複数の関連情報のうち受信した識別情報に対応する関連情報を再生する端末装置に対して、前記特定した識別情報を送信する。以上の態様によれば、実演に関する複数の関連情報の各々を、当該実演に並行した適切な時点で端末装置において再生することが可能である。 In a preferred example (sixth aspect) of any one of the first to fifth aspects (sixth aspect), the specified Send identifying information. According to the above aspect, it is possible to reproduce each of the plurality of related information regarding the demonstration on the terminal device at an appropriate point in time in parallel with the demonstration.
第1態様から第5態様の何れかの好適例(第7態様)において、受信した識別情報に対応する演出動作を実行する舞台システムに対して、前記特定した識別情報を送信する。以上の態様によれば、実演に関する演出を、当該実演に並行した適切な時点で実行することが可能である。演出は、例えば、音響の再生または照明の制御等である。 In the preferred example (seventh mode) of any one of the first mode to the fifth mode, the identified identification information is transmitted to a stage system that executes a performance action corresponding to the received identification information. According to the above aspect, it is possible to execute the production related to the demonstration at an appropriate point in time in parallel with the demonstration. The production is, for example, sound reproduction, lighting control, or the like.
第1態様から第7態様の何れかに係る情報処理方法を実行する情報提供システム、または、第1態様から第7態様の何れかに係る情報処理方法をコンピュータに実行させるプログラムとしても、本発明の好適な態様は実現される。 An information providing system for executing the information processing method according to any one of the first to seventh aspects, or a program for causing a computer to execute the information processing method according to any one of the first to seventh aspects of the present invention. A preferred embodiment of is realized.
<他の態様>
本発明は、態様Aおよび態様Bとして以下に例示する通り、複数の登録区間を含む登録文字列と参照音とを照合することで、前記参照音のうち前記各登録区間に対応する単位期間を画定する方法としても特定される。
<Other aspects>
According to the present invention, as exemplified below as Aspect A and Aspect B, a unit period corresponding to each of the registered intervals among the reference sounds is determined by matching a registered character string including a plurality of registered intervals with a reference sound. Also specified as a method of definition.
本発明の態様Aは、登録文字列に対する音声合成で生成される合成音の特徴量を抽出し、参照音の特徴量と合成音の特徴量とを照合することで、参照音のうち各登録区間に対応する単位期間を画定する、コンピュータにより実現される情報処理方法である。 Aspect A of the present invention extracts a feature amount of a synthesized sound generated by speech synthesis for a registered character string, and compares the feature amount of the reference sound with the feature amount of the synthesized sound, thereby obtaining each registered sound among the reference sounds. A computer-implemented information processing method that defines a unit period corresponding to an interval.
本発明の態様Bは、登録文字列に対する音声合成で生成される合成音に対する音声認識で合成文字列を推定し、参照音に対する音声認識で推定された参照文字列と合成文字列とを照合することで、参照音のうち各登録区間に対応する単位期間を画定する、コンピュータにより実現される情報処理方法であり、前記参照音に対する音声認識と前記合成音に対する音声認識とにおいては共通の認識モデルが利用される。 Aspect B of the present invention estimates a synthesized character string by speech recognition of a synthesized sound generated by speech synthesis of a registered character string, and compares the reference character string estimated by speech recognition of a reference sound with the synthesized character string. This is a computer-implemented information processing method that defines a unit period corresponding to each registration interval of the reference sound, and a common recognition model is used for speech recognition of the reference sound and speech recognition of the synthesized sound. is used.
100…情報提供システム、200…管理システム、10…情報処理システム、11…制御装置、12…記憶装置、13…収音装置、14…放音装置、20…情報配信システム、30…端末装置、31…制御装置、311…情報抽出部、312…動作制御部、32…記憶装置、33…通信装置、34…収音装置、35…再生装置、40…通信網、51…位置推定部、52…情報特定部、53…信号処理部、531…変調処理部、532…合成処理部、55…解析処理部、60…舞台システム、61…管理装置、62…演出装置、621…音響装置、622…照明装置。
DESCRIPTION OF
Claims (7)
前記参照音と複数の識別情報との時間的な対応を表す登録データを参照することで、前記複数の識別情報のうち前記実演位置に時間的に対応する識別情報を特定する
コンピュータにより実現される情報処理方法。 The position of the observed sound with respect to the reference sound on the time axis by matching the feature amount extracted from the observed sound collected by the sound collection device with the feature amount of the reference sound expected to be pronounced in the demonstration. Estimate the demonstration position where
Identifying identification information temporally corresponding to the performance position from among the plurality of identification information by referring to registration data representing the temporal correspondence between the reference sound and the plurality of identification information Implemented by a computer Information processing methods.
請求項1の情報処理方法。 2. The information processing method according to claim 1, wherein said reference sound is a sound generated by speech synthesis for a character string to be pronounced in said demonstration.
請求項1の情報処理方法。 2. The information processing method according to claim 1, wherein the reference sound is a sound generated from a plurality of recorded sounds recorded in past demonstrations.
請求項1から請求項3の何れかの情報処理方法。 4. The information processing method according to any one of claims 1 to 3 , wherein the specified identification information is transmitted to a terminal device that reproduces related information corresponding to the received identification information among the plurality of related information related to the demonstration.
請求項1から請求項3の何れかの情報処理方法。 4. The information processing method according to any one of claims 1 to 3 , wherein the identified identification information is transmitted to a stage system that executes a performance action corresponding to the received identification information.
前記観測音と、前記特定した識別情報の音響成分とを、放音装置により再生する reproducing the observed sound and the acoustic component of the identified identification information by a sound emitting device
請求項1の情報処理方法。 The information processing method according to claim 1.
前記参照音と複数の識別情報との時間的な対応を表す登録データを参照することで、前記複数の識別情報のうち前記実演位置に時間的に対応する識別情報を特定する情報特定部と
を具備する情報処理システム。
The position of the observed sound with respect to the reference sound on the time axis by matching the feature amount extracted from the observed sound collected by the sound collection device with the feature amount of the reference sound expected to be pronounced in the demonstration. a position estimating unit that estimates a performance position that is
an information specifying unit that specifies, from among the plurality of identification information, identification information temporally corresponding to the performance position by referring to registration data representing temporal correspondence between the reference sound and the plurality of identification information; information processing system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018197793A JP7200597B2 (en) | 2018-10-19 | 2018-10-19 | Information processing method and information processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018197793A JP7200597B2 (en) | 2018-10-19 | 2018-10-19 | Information processing method and information processing system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020064262A JP2020064262A (en) | 2020-04-23 |
JP7200597B2 true JP7200597B2 (en) | 2023-01-10 |
Family
ID=70387234
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018197793A Active JP7200597B2 (en) | 2018-10-19 | 2018-10-19 | Information processing method and information processing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7200597B2 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001134613A (en) | 1999-08-26 | 2001-05-18 | Sony Corp | Audio retrieval processing method, audio information retrieving device, audio information storing method, audio information storage device and audio video retrieval processing method, audio video information retrieving device, and method and device for storing audio video information |
JP2001175267A (en) | 1999-12-20 | 2001-06-29 | Sony Corp | System and method for authoring display lyrics, recording medium with display lyrics authoring program recorded thereon and automatic lyrics display system |
JP2005221554A (en) | 2004-02-03 | 2005-08-18 | Seiko Epson Corp | Controller and program |
JP2008197271A (en) | 2007-02-09 | 2008-08-28 | Yamaha Corp | Data reproduction device, data reproduction method, and program |
JP2015219304A (en) | 2014-05-15 | 2015-12-07 | ヤマハ株式会社 | Acoustic analysis device |
JP2018042061A (en) | 2016-09-06 | 2018-03-15 | 株式会社デンソーテン | Electronic apparatus, connection object electronic apparatus, communication system, and communication method |
JP2018091998A (en) | 2016-12-02 | 2018-06-14 | ヤマハ株式会社 | Information processing system and information processing method |
-
2018
- 2018-10-19 JP JP2018197793A patent/JP7200597B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001134613A (en) | 1999-08-26 | 2001-05-18 | Sony Corp | Audio retrieval processing method, audio information retrieving device, audio information storing method, audio information storage device and audio video retrieval processing method, audio video information retrieving device, and method and device for storing audio video information |
JP2001175267A (en) | 1999-12-20 | 2001-06-29 | Sony Corp | System and method for authoring display lyrics, recording medium with display lyrics authoring program recorded thereon and automatic lyrics display system |
JP2005221554A (en) | 2004-02-03 | 2005-08-18 | Seiko Epson Corp | Controller and program |
JP2008197271A (en) | 2007-02-09 | 2008-08-28 | Yamaha Corp | Data reproduction device, data reproduction method, and program |
JP2015219304A (en) | 2014-05-15 | 2015-12-07 | ヤマハ株式会社 | Acoustic analysis device |
JP2018042061A (en) | 2016-09-06 | 2018-03-15 | 株式会社デンソーテン | Electronic apparatus, connection object electronic apparatus, communication system, and communication method |
JP2018091998A (en) | 2016-12-02 | 2018-06-14 | ヤマハ株式会社 | Information processing system and information processing method |
Also Published As
Publication number | Publication date |
---|---|
JP2020064262A (en) | 2020-04-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AU2015297648B2 (en) | Terminal device, information providing system, information presentation method, and information providing method | |
US8311831B2 (en) | Voice emphasizing device and voice emphasizing method | |
JP6276453B2 (en) | Information providing system, program, and information providing method | |
WO2021083071A1 (en) | Method, device, and medium for speech conversion, file generation, broadcasting, and voice processing | |
AU2015297647B2 (en) | Information management system and information management method | |
US20060112812A1 (en) | Method and apparatus for adapting original musical tracks for karaoke use | |
CN111179908A (en) | Testing method and system of intelligent voice equipment | |
KR101312451B1 (en) | Extraction method and extraction apparatus of voice signal used for voice recognition in enviroment outputting a plurality of audio sources | |
JP2023007405A (en) | Voice conversion device, voice conversion method, program, and storage medium | |
JP6809177B2 (en) | Information processing system and information processing method | |
JP7200597B2 (en) | Information processing method and information processing system | |
JP6252420B2 (en) | Speech synthesis apparatus and speech synthesis system | |
JP7331645B2 (en) | Information provision method and communication system | |
WO2018173295A1 (en) | User interface device, user interface method, and sound operation system | |
JP4595948B2 (en) | Data reproducing apparatus, data reproducing method and program | |
CN114724540A (en) | Model processing method and device, emotion voice synthesis method and device | |
JP7192948B2 (en) | Information provision method, information provision system and program | |
JP2015079122A (en) | Acoustic processing device | |
KR101321446B1 (en) | Lyrics displaying method using voice recognition | |
CN115273860A (en) | Multi-person audio processing method, device, equipment and storage medium | |
JP2016051036A (en) | Voice synthesis system and voice synthesis device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210823 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220511 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220607 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220727 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221122 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221205 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7200597 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313532 |