JP2021051249A - 発音制御方法および発音制御装置 - Google Patents

発音制御方法および発音制御装置 Download PDF

Info

Publication number
JP2021051249A
JP2021051249A JP2019175253A JP2019175253A JP2021051249A JP 2021051249 A JP2021051249 A JP 2021051249A JP 2019175253 A JP2019175253 A JP 2019175253A JP 2019175253 A JP2019175253 A JP 2019175253A JP 2021051249 A JP2021051249 A JP 2021051249A
Authority
JP
Japan
Prior art keywords
sound
hand
phoneme
specific
pronunciation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019175253A
Other languages
English (en)
Other versions
JP7380008B2 (ja
Inventor
入山 達也
Tatsuya Iriyama
達也 入山
慶二郎 才野
Keijiro Saino
慶二郎 才野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2019175253A priority Critical patent/JP7380008B2/ja
Priority to PCT/JP2020/035785 priority patent/WO2021060273A1/ja
Publication of JP2021051249A publication Critical patent/JP2021051249A/ja
Application granted granted Critical
Publication of JP7380008B2 publication Critical patent/JP7380008B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/18Selecting circuits
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

【課題】利用者の指等の物体が鍵等の面に接触する前に発音を開始させる。【解決手段】発音制御装置20は、物体が面に向けて移動している過程において特定の状態にあること、および、物体の移動により当該物体が面を打撃したことを検出する検出部213と、特定の状態が検出された時点において第1音を発音させ、前記打撃が検出された時点において第2音を発音させる発音制御部214とを具備する。【選択図】図2

Description

本開示は、発音を制御する技術に関する。
例えばキーボード等の操作子に対する操作により歌唱音声を合成する技術が従来から提案されている。例えば、特許文献1には、利用者が所望の音高に対応する鍵を押下すると、当該音高について設定された歌詞が発音される。具体的には、利用者の指が鍵に接触したことを検出すると子音を発音させ、当該鍵が押し切られたことを検出すると当該子音に後続する母音が発音される。
特開2014−98801号公報
特許文献1の技術においては、利用者による接触を契機として発音が開始される。しかし、例えば、発音の内容によっては指が鍵に接触する前に発音を開始させたい場合もある。以上の事情を考慮して、利用者の指等の物体が鍵等の面に接触する前に発音を開始させることを目的とする。
以上の課題を解決するために、本開示のひとつの態様に係る発音制御方法は、物体が面に向けて移動している過程において特定の状態にあることを検出し、前記特定の状態が検出された時点において第1音を発音させ、前記物体の移動により当該物体が前記面を打撃したことを検出し、前記打撃が検出された時点において第2音を発音させる。
本開示のひとつの態様に係る発音制御装置は、物体が面に向けて移動している過程において特定の状態にあること、および、前記物体の移動により当該物体が前記面を打撃したことを検出する検出部と、前記特定の状態が検出された時点において第1音を発音させ、前記打撃が検出された時点において第2音を発音させる発音制御部とを具備する。
本開示の第1実施形態に係る発音制御システムの構成を例示する構成図である。 発音制御装置の機能的な構成を例示するブロック図である。 手と打撃面との間の距離と、時間との関係を示すグラフである。 制御装置が実行する処理のフローチャートである。 手の移動速度と特定音韻の種類との関係を表す模式図である。 手の形状と音韻との関係とを表す表である。 変形例に係る検出部の構成を例示するブロック図である。
<実施形態>
図1は、本開示の実施形態に係る発音制御システム100の構成を例示するブロック図である。発音制御システム100は、特定の歌唱者が楽曲を歌唱した仮想的な音声を合成する。合成される音声を構成する各音韻は、利用者から指示された時点で発音される。
発音制御システム100は、操作ユニット10と発音制御装置20とを具備する。利用者は、操作ユニット10を自身の手Hで打撃することで各音韻の発音を開始する時点(以下「発音開始点」という)を発音制御装置20に対して指示する。発音制御装置20は、利用者からの指示に応じて各音韻を発音させることで音声を合成する。
操作ユニット10は、操作受付部11と第1センサ13と第2センサ15とを具備する。操作受付部11は、利用者の手Hで打撃される面(以下「打撃面」という)Fを含む。手Hは打撃面Fを打撃する「物体」の例示である。具体的には、操作受付部11は、筐体112と光透過部114とを具備する。筐体112は、例えば上方が開口した中空の構造体である。光透過部114は、第1センサ13が検出可能な波長域の光を透過する部材で形成された平板状の部材である。筐体112の開口を塞ぐように光透過部114が設置される。光透過部114のうち筐体112の内部空間とは反対側の面が打撃面Fに相当する。利用者は、各音韻の発音開始点を指示するために、手Hで打撃面Fを打撃する。具体的には、利用者は、打撃面Fの上方から当該打撃面Fに向けて手Hを移動させることで、当該打撃面Fを打撃する。手Hが打撃面Fを打撃した時点に応じて音韻が発音される。
第1センサ13および第2センサ15は、筐体112の内部に収容される。第1センサ13は、利用者の手Hの状態を検出するためのセンサである。例えば、被写体と撮像面との距離を画素毎に測定する距離画像センサが第1センサ13として利用される。例えば、打撃面Fに向かって移動する手Hが第1センサ13により撮像される。第1センサ13は、例えば筐体112の底面の中心部分に設置され、打撃面Fに向かって移動する手Hを掌側から撮像する。具体的には、第1センサ13は、特定の波長域の光を検知可能であり、打撃面Fの上方に位置する手Hから光透過部114を介して到来する光を受光することで手Hの画像を表すデータ(以下「画像データ」という)D1を生成する。なお、光透過部114は、第1センサ13が検知可能な光を透過する部材で形成される。画像データD1は、発音制御装置20に送信される。第1センサ13と発音制御装置20とは、無線または有線により通信可能である。なお、画像データD1は所定の期間毎に反復的に生成される。
第2センサ15は、打撃面Fに対する手Hの打撃を検出するためのセンサである。例えば周囲の音を収音し、当該収音した音を表す音信号D2を生成する収音装置が第2センサ15として利用される。具体的には、第2センサ15は、利用者の手Hが打撃面Fを打撃したときに発生する打撃音を収音する。音信号D2は、発音制御装置20に送信される。第2センサ15と発音制御装置20とは、無線または有線により通信可能である。
図2は、発音制御装置20の構成を例示するブロック図である。発音制御装置20は、利用者による打撃面Fを打撃する動作に応じて音声を合成する。具体的には、発音制御装置20は、制御装置21と記憶装置23と放音装置25とを具備する。
制御装置21は、例えば発音制御装置20の各要素を制御する単数または複数のプロセッサである。例えば、制御装置21は、CPU(Central Processing Unit)、SPU(Sound Processing Unit)、GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)、またはASIC(Application Specific Integrated Circuit)等の1種類以上のプロセッサにより構成される。具体的には、制御装置21は、記憶装置23に記憶されたプログラムを実行することで、歌唱者が楽曲を歌唱した音声を表す信号(以下「合成信号」という)Vを生成するための複数の機能(音韻特定部212、検出部213および発音制御部214)を実現する。
記憶装置23は、例えば磁気記録媒体または半導体記録媒体等の公知の記録媒体で構成された単数または複数のメモリである。記憶装置23は、制御装置21が実行するプログラムと制御装置21が使用する各種のデータとを記憶する。なお、記憶装置23は、複数種の記録媒体の組合せにより構成されてもよい。また、記憶装置23は、発音制御装置20に対して着脱可能な可搬型の記録媒体、または、発音制御装置20が通信網を介して通信可能な外部記録媒体(例えばオンラインストレージ)としてもよい。具体的には、記憶装置23は、発音制御装置20が合成すべき音を表すデータ(以下「合成データ」という)Sを記憶する。
合成データSは、楽曲の内容を指定するデータである。具体的には、合成データSは、楽曲を構成する複数の音符の各々について、音高Sxと音韻Syとを指定するデータである。音高Sxは、複数の音高のうちの何れか(例えばノートナンバ)である。音韻Syは、音符の発音とともに発声すべき発音内容である。具体的には、音韻Syは、楽曲の歌詞を構成する1個の音節(発音単位)に相当する。例えば、日本語における典型的な音韻Syは、子音とその直後の母音との組合せ、または、母音単体である。合成データSを利用した音声合成により合成信号Vが生成される。利用者による打撃面Fを打撃する動作に応じて各音符の発音開始点が制御される。楽曲を構成する複数の音符の順番は、合成データSで指定されるが、各音符の発音開始点は合成データSでは指定されない。
音韻特定部212は、合成データSが各音符について指定する音韻Syが、子音と母音とから構成される音韻(以下「特定音韻」という)であるか否かを判定する。具体的には、音韻特定部212は、子音と当該子音に後続する母音とで構成される音韻Syについては特定音韻であると判定し、母音単体で構成される音韻Syについては特定音韻以外の音韻であると判定する。
利用者は、打撃面Fを順次に打撃することで楽曲のリズムをとる。具体的には、楽曲内の各音符の発音が開始されるべき各時点で利用者は打撃面Fを打撃する。一方、子音に後続する母音の発音開始点が、特定音韻全体としての発音開始点として聴覚的には認識される。したがって、利用者が打撃面Fを打撃した時点(以下「打撃時点」という)において特定音韻の子音の発音が開始され、当該子音に後続して母音が発音される構成では、利用者が認識する音符の開始点から遅延した時点で当該音符の特定音韻の発音が開始されたように知覚される。そこで、本実施形態では、特定音韻については打撃時点よりも前に発音を開始する。したがって、特定音韻が遅延して聴こえることを低減できる。
図3は、手Hと打撃面Fとの間の距離Pと、時間との関係を示すグラフである。図3に例示される通り、手Hを打撃面Fに向けて移動すると、手Hと打撃面Fとの間の距離Pは経時的に小さくなる。距離Pは、打撃面Fからの手Hの高さであるとも換言できる。そして、手Hが打撃面Fを打撃すると距離Pは0になる。利用者の手Hが打撃面Fに向けて移動している過程において特定の状態(以下「特定状態」という)になることが想定される。本実施形態において、特定状態とは、距離Pが減少していく過程において特定の距離(以下「特定距離」)Pzになることである。すなわち、特定状態とは、打撃面Fに接触する前における手Hの状態である。なお、距離Pは、例えば打撃面Fにおける基準点(例えば中心点)と手Hとの間の距離でもよい。
図3には、手Hが特定状態になった時点(以下「到達時点」という)t1と、打撃時点t2とが図示されている。到達時点t1(すなわち距離Pが特定距離Pzになる時点)に特定音韻の子音が発音され、打撃時点t2(すなわち距離Pが0になる時点)に特定音韻の母音が発音される。すなわち、手Hが特定距離Pzに到達する位置まで移動すると子音の発音が開始され、手Hが特定距離Pzにある位置からさらに移動して打撃面Fを打撃すると当該子音に後続する母音の発音が開始される。
図2の検出部213は、第1検出部31と第2検出部32とを具備する。第1検出部31は、手Hが特定状態にあることを検出する。まず、第1検出部31は、画像データD1を利用して距離Pを特定する。例えば、第1検出部31は、輪郭抽出等の画像認識により画像データD1から手Hの領域を推定し、当該領域内の画素について第1センサ13が測定した距離から手Hの距離Pを特定する。なお、距離Pの特定には公知の任意の技術が採用される。次に、第1検出部31は、距離Pと第1閾値とを比較することで、当該距離Pが特定距離Pzに到達したか否かを判定する。第1閾値は、例えば特定距離Pzに応じて設定される。距離Pが第1閾値を上回る場合には、距離Pが特定距離Pzに到達していないと判断される。他方、距離Pが第1閾値を下回る場合に距離Pが特定距離Pzに到達したと判断される。なお、手Hが特定状態になる到達時点t1と、当該特定状態が検出される時点との間には、実際には僅かな時間差が不可避的に発生するが、以下の説明においては、到達時点t1と特定状態が検出される時点とを実質的に同一の時点として同視する。
第2検出部32は、手Hの移動により当該手Hが打撃面Fを打撃したことを検出する。具体的には、第2検出部32は、音信号D2を解析することで手Hが打撃面Fを打撃したことを検出する。まず、第2検出部32は、音信号D2を解析することで、当該音信号D2が表す音の音量(以下「収音レベル」という)を特定する。なお、音信号D2の解析には公知の任意の音解析技術が採用される。次に、第2検出部32は、収音レベルと第2閾値とを比較することで、手Hが打撃面Fを打撃したか否かを判定する。例えば手Hが打撃面Fを打撃すると打撃音が発生する。第2閾値は、例えば手Hが打撃面Fを打撃したときの打撃音を想定して設定される。収音レベルが第2閾値を下回る場合には、音信号D2に打撃音が含まれていないと判定される。すなわち、打撃面Fを打撃していないと判定される。他方、収音レベルが第2閾値を上回る場合には、音信号D2に打撃音が含まれていると判定される。すなわち、手Hが打撃面Fを打撃したと判定される。なお、手Hが打撃面Fを打撃する打撃時点t2と、当該打撃が検出される時点との間には、実際には僅かな時間差が不可避的に発生するが、以下の説明においては、打撃時点t2と打撃が検出される時点とを実質的に同一の時点として同視する。
発音制御部214は、合成データSにより指定される音を表す合成信号Vを生成する。合成信号Vは、合成データSが各音符について指定する音高Sxで当該音符について指定する音韻Syを発音した音声を表す信号である。音声合成には公知の技術が任意に採用される。例えば、複数の音声素片の接続により合成信号Vを生成する素片接続型の音声合成、HMM(Hidden MarkovModel)またはニューラルネットワーク等の統計モデルを利用して合成信号Vを生成する統計モデル型の音声合成が、合成信号Vの生成に利用される。合成データSにより指定される各音韻Syの発音開始点は、第1検出部31および第2検出部32による検出の結果に応じて制御される。
合成データSにより指定される音韻Syが、音韻特定部212により特定音韻以外の音韻であると特定された場合には、発音制御部214は、打撃面Fに対する打撃を契機として当該音韻を発音させる。具体的には、発音制御部214は、第2検出部32が打撃を検出した時点に当該音韻を発音させる。すなわち、音韻全体の発音開始点が打撃時点t2に設定された合成信号Vが生成される。他方、合成データSにより指定される音韻Syが、音韻特定部212により特定音韻であると特定された場合には、発音制御部214は、打撃面Fを打撃する前に当該特定音韻を発音させる。具体的には、発音制御部214は、第1検出部31が特定状態を検出した時点に特定音韻の子音を発音させ、第2検出部32が打撃を検出した時点に当該特定音韻の母音を発音させる。すなわち、特定音韻の子音の発音開始点が到達時点t1に設定され、当該子音に後続する母音の発音開始点が打撃時点t2に設定された合成信号Vが生成される。合成信号Vは放音装置25に供給される。
放音装置25(例えばスピーカ)は、合成信号Vが表す音を放音する再生機器である。したがって、楽曲について音韻Syの発音開始点が制御された音声が放音される。すなわち、楽曲の特定音韻全体が遅延して聴こえることを低減できる。
図4は、制御装置21の処理のフローチャートである。利用者は、楽曲における各音符の発音を開始したい時点において打撃面Fを打撃する。すなわち、音符毎に打撃面Fが手Hで打撃される。図4の処理は、合成データSの音符毎に実行される。以下の説明では、楽曲の複数の音符のうち図4の処理の対象となる音符を「対象音符」と表記する。なお、図4の処理に並行して、第1検出部31による距離Pを特定する処理と、第2検出部32による収音レベルを特定する処理とが実行される。なお、距離Pを特定する処理と、収音レベルを特定する処理とは、図4の処理が実行される周期よりも短い周期で繰り返し実行される。
図4の処理が開始すると、音韻特定部212は、合成データSにおける対象音符の音韻Syが特定音韻であるか否かを判定する(Sa1)。対象音符の音韻Syが特定音韻であると判定された場合(Sa1:YES)、第1検出部31は、手Hが打撃面Fに向けて移動する過程において特定状態にあるか否かを判定する(Sa2)。すなわち、距離Pが減少していく過程において当該距離Pが特定距離Pzにあるか否かが判定される。具体的には、第1検出部31は、距離Pが減少中であるか否かを判定する。距離Pが減少中である場合、第1検出部31は、距離Pと第1閾値とを比較することで、手Hが特定状態にあるか否かを判定する。なお、距離Pが増加中である場合、手Hが特定状態にあるか否かは判定されない。
手Hが特定状態にあると判定された場合(Sa2:YES)、発音制御部214は、特定音韻の子音を発音させる(Sa3)。具体的には、発音制御部214は、特定音韻の子音の発音開始点を特定状態が検出された時点に設定した合成信号Vを生成し、当該合成信号Vを放音装置25に供給する。すなわち、特定状態が検出された時点(すなわち到達時点t1)に特定音韻の子音が発音される。他方、手Hが特定状態にないと判定された場合(Sa2:NO)、手Hが特定状態になるまでステップSa2の処理が繰り返し実行される。
手Hは特定状態にある位置から打撃面Fに向けてさらに移動する。第2検出部32は、手Hが打撃面Fを打撃したか否かを判定する(Sa4)。具体的には、収音レベルと第2閾値とを比較することで、手Hが打撃面Fを打撃したか否かが判定される。手Hが打撃面Fを打撃したと判定された場合(Sa4:YES)、発音制御部214は、特定音韻の子音に後続する母音を発音させる(Sa5)。具体的には、発音制御部214は、特定音韻の子音の発音開始点を打撃面Fに対する打撃を検出された時点に設定した合成信号Vを生成し、当該合成信号Vを放音装置25に供給する。すなわち、打撃面Fに対する打撃が検出された時点(すなわち打撃時点t2)に特定音韻の母音が発音される。他方、手Hが打撃面Fに到達していないと判定された場合(Sa4:NO)、手Hが打撃面Fまで移動して当該打撃面Fを打撃するまでステップSa4の処理が繰り返し実行される。特定音韻については、以上の処理により、手Hが打撃面Fを打撃するよりも前に当該特定音韻の発音が開始される。
他方、対象音符の音韻Syが特定音韻以外の音韻(典型的には母音単体の音韻)であると判定された場合(Sa1:NO)、ステップSa2およびステップSa3の処理は省略して、ステップSa4の処理が実行される。すなわち、特定音韻以外の音韻については、打撃時点t2に当該音韻の発音が開始される。なお、音符の継続長は、一定の時間長であってもよいし、合成データSにより音符毎に指定された時間長であってもよい。
以上の説明から理解される通り、本実施形態では、手Hが特定状態であることが検出された時点において特定音韻の子音が発音され、打撃面Fに対する打撃が検出された時点において当該特定音韻の母音が発音される。したがって、手Hが打撃面Fを打撃する前に特定音韻の子音を発音できる。すなわち、特定音韻が遅延していると知覚されることを低減できる。また、打撃面Fに対する手Hの打撃を検出することで、特定音韻の母音が発音されるから、特定音韻を発音するための操作感を維持したまま、母音よりも前に子音を発音できる。
手Hと打撃面Fとの間の距離Pが特定距離Pzにあることが特定状態として検出される。すなわち、手Hが打撃面Fにいたるまでの途中の状態が特定状態として検出される。したがって、特定音韻の子音を発音させるための操作を利用者が意識することなく当該子音を発音することができる。また、音信号D2を解析することで打撃面Fに対する手Hの打撃が検出されるから、打撃面Fに対する打撃により打撃音が発生した場合に特定音韻の母音を発音させることができる。
<変形例>
以上に例示した態様に付加される具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2個以上の態様を、相互に矛盾しない範囲で適宜に併合してもよい。
(1)特定状態の検出により発音される音は「第1音」に相当し、打撃面Fに対する打撃の検出により発音される音は「第2音」に相当する。前述の形態では、特定音韻の子音が「第1音」の例示であり、特定音韻の母音が「第2音」の例示である。すなわち、発音制御部214は、特定状態が検出された時点において第1音を発音させ、打撃面Fに対する打撃が検出された時点において第2音を発音させる要素として包括的に表現される。
なお、第1音は特定音韻の子音には限定されず、第2音は特定音韻の母音には限定されない。例えば、発音の準備動作に関する音(以下「準備音」という)を第1音として、当該準備動作に後続する音(以下「目的音」という)を第2音としてもよい。目的音は、音符により規定され、歌唱または演奏の目的となる音である。他方、準備音は、当該目的音を発音するための準備動作に起因して発音される音である。歌唱音を合成する場合には、例えばブレス音が準備音として例示され、当該ブレス音の後に歌唱される音声が目的音として例示される。また、楽器の演奏音を合成する場合には、例えば管楽器の演奏時に発生する気息音、弦楽器のフレット音、または、打楽器を演奏する際のスティックの風切り音等が準備音として例示され、当該準備音に後続する楽器の演奏音が目的音として例示される。すなわち、発音制御装置20で合成される音声は、楽曲を歌唱した音声に限定されない。特定状態が検出された時点に準備音が発音され、打撃面Fに対する打撃が検出された時点に目的音が発音される構成によれば、本来の目的となる目的音の前に当該目的音を発音させるための準備音を発音させることができる。なお、音韻全体を第1音とし、当該音韻に後続する他の音韻全体を第2音としてもよい。
また、言語音の発音に着目すると、第1音および第2音の各々の典型例は音素(例えば母音または子音)である。実施形態においては、第1音の一例である第1音素が子音であり、第2音の一例である第2音素が母音である構成を例示したが、第1音素および第2音素の各々が母音であるか子音であるかは不問である。例えば、音声合成における楽曲の歌詞の言語によっては、子音および当該子音に後続する子音とで構成される音韻、または、母音と当該母音に後続する母音とで構成される音韻等も想定される。音韻における先頭の音素が第1音素として例示され、当該先頭の音素に後続する音素が第2音素として例示される。
(2)前述の形態では、距離を測定可能な距離画像センサを第1センサ13として例示したが、距離を測定する機能は第1センサ13において必須ではない。例えば、第1センサ13として画像センサを利用してもよい。第1検出部31は、画像センサが撮像した画像を解析することで手Hの移動量を算定し、当該移動量から距離Pを推定してもよい。また、手Hの画像を撮像する機能も第1センサ13において必須ではない。例えば、赤外光を出射する赤外線センサを第1センサ13として利用してもよい。赤外線センサを第1センサ13として利用する構成において、第1センサ13は、手Hで反射した赤外光を受光した受光強度から、手Hと第1センサ13との間の距離を特定する。そして、第1検出部31は、手Hと第1センサ13と間の距離が所定の閾値を下回る場合に手Hが特定状態にあると判定し、当該距離が閾値を上回る場合に手Hが特定状態にないと判定する。すなわち、手Hが特定状態にあるか否かを判定する処理において、距離Pを算出することは必須ではない。手Hと第1センサ13との間の距離は、手Hと打撃面Fとの間の距離Pと、打撃面Fと第1センサ13との間の距離とを加算した値に相当する。手Hと打撃面Fとの間の距離Pが特定距離Pzにある場合に、手Hと第1センサ13との間の距離が特定の距離になるから、以上の構成においても距離Pが特定距離Pzにあることが特定状態であるといえる。なお、第1センサ13に第1検出部31の機能を搭載してもよい。第1センサ13は、特定状態を検出した場合に、発音制御部214に特定音韻の子音の発音を指示する。
(3)前述の形態では、音信号D2を解析することで打撃面Fに対する打撃を検出したが、打撃を検出する方法は以上の例示に限定されない。例えば、第1センサ13が生成する画像データD1を解析することで手Hが打撃面Fを打撃したことを検出してもよい。例えば、第2検出部32は、手Hが打撃面Fに接触したと画像データD1から推定された場合には、当該手Hが打撃面Fを打撃したと判定する。
手Hが打撃面Fを打撃したときの振動を検知する振動センサを第2センサ15として利用してもよい。第2センサ15は、例えば振動の大きさに応じた信号を生成する。第2検出部32は当該信号に応じて打撃を検出する。また、手Hが打撃面Fに接触したときに打撃面Fに付与される圧力を検知する圧力センサを第2センサ15として利用してもよい。第2センサ15は、例えば打撃面Fに付与される圧力の大きさに応じた信号を生成する。第2検出部32は当該信号に応じて打撃を検出する。なお、第2センサ15に第2検出部32の機能を搭載してもよい。第2センサ15は、打撃面Fに対する打撃を検出したら、発音制御部214に特定音韻の母音の発音を指示する。
(4)前述の形態では、筐体112の内部空間に第1センサ13および第2センサ15を収容したが、第1センサ13および第2センサ15を設置する位置は任意である。例えば、筐体112部の外部に第1センサ13および第2センサ15を設置してもよい。なお、第1センサ13を筐体112の外部に設置する構成では、操作受付部11において筐体112の上面を光透過性の部材で形成することは必須ではない。
(5)前述の形態では、手Hで打撃面Fを打撃したが、打撃面Fを打撃する物体は手Hに限定されない。打撃面Fを打撃することが可能であれば、物体の種類は任意である。例えばスティック等の打撃部材を物体としてもよい。利用者は、スティックを打撃面Fに向けて移動させて当該打撃面Fを打撃する。以上の説明から理解される通り、物体には、利用者の身体の一部(典型的には手H)と、利用者により操作される打撃部材との双方が包含される。なお、スティック等の打撃部材を物体とする構成においては、当該部材に第1センサ13または第2センサ15を搭載してもよい。
(6)前述の形態では、手Hと打撃面Fとの間の距離Pが特定距離Pzにあることを特定状態として例示したが、特定状態は以上の例示に限定されない。打撃面Fに向けて移動している過程における手Hの状態であれば、特定状態は任意である。例えば、手Hの移動方向が変化したことを特定状態としてもよい。具体的には、例えば打撃面Fから離れる方向から近づく方向に手Hの移動方向が変化すること、または、打撃面Fに対して水平な方向から垂直な方向に手Hの移動方向が変化することが特定状態として例示される。また、手Hの形状が変化(例えばグーからパーに変化)したことを特定状態としてもよい。
(7)特定音韻の子音の継続長は、当該子音の種類に応じて異なる。例えば、特定音韻「sa(さ)」における子音「s」の発音に要する時間長は250ms程度であり、特定音韻「ka(か)」における子音「k」の発音に要する時間長は30ms程度である。すなわち、特定音韻の子音の種類に応じて妥当な特定距離Pzは相違する。そこで、第1閾値を特定音韻の子音の種類に応じて可変に設定する構成も採用される。具体的には、音韻Syが特定音韻であると判定された場合に、第1検出部31は、音韻特定部212の子音の種類に応じて第1閾値を設定する。そして、第1検出部31は、設定後の第1閾値と距離Pとを比較することで、手Hが特定状態にあるか否かを判定する。
(8)前述の形態では、筐体112と光透過部114とで操作受付部11を構成したが、操作受付部11は以上の例示に限定されない。例えば、第1センサ13および第2センサ15を操作受付部11の外部に設置する構成では、平板状の部材を操作受付部11としてもよい。また、鍵盤型の操作子を操作受付部11としてもよい。鍵盤型の操作子を操作受付部11とする構成では、合成データSの各音符について音高Sxを指定しなくてもよい。利用者は、操作受付部11に対する操作で、各音符の発音開始点を指示するとともに、当該音符の音高を指示する。すなわち、利用者からの指示に応じて各音符の音高を設定してもよい。なお、操作受付部11の形状に関わらず、当該操作受付部11において利用者が打撃の際に接触する面が打撃面Fに相当する。
(9)前述の形態において、利用者が手Hで打撃面Fを打撃する際に、利用者の手Hの状態を検出し、検出結果に応じて発音を制御してもよい。例えば、検出結果に応じて音符の条件(例えば音高、音韻または継続長)が設定される。すなわち、合成データSの各音符について音高Sxおよび音韻Syを設定することは必須ではない。利用者の手Hの状態は、例えば、手Hの移動速度、手Hの移動方向または手Hの形状等である。検出される手Hの状態と音符の条件との組合せは任意である。利用者は、手Hを打撃面Fに打撃する動作において、手Hの状態を変化させることで音符の条件を指示することが可能である。以下、利用者の手Hの状態に応じて発音を制御する具体的な構成を例示する。
A.手Hの移動速度
例えば、手Hの移動速度に応じて音韻の種類(すなわち発音内容)を設定してもよい。具体的には、第1検出部31は、画像データD1から手Hの移動速度を検出する。画像データD1から特定された距離Pの時間変化から移動速度が検出される。なお、第1検出部31は、例えば、速度を検知する速度センサからの出力を利用して手Hの移動速度を検出してもよい。そして、音韻特定部212は、移動速度に応じて特定音韻の種類を設定する。音韻特定部212は、手Hが特定状態になる前に特定音韻の種類を設定する。図5は、手Hの移動速度と特定音韻の種類との関係を表す模式図である。図5には、手H1の移動速度が速い場合に設定される特定音韻と、手H2の移動速度が遅い場合に設定される特定音韻とが図示されている。例えば、手H1の移動速度が速い場合には、継続長が短い子音(例えば[t])を含む特定音韻(例えば「た」)に設定され、手H2の移動速度が遅い場合には、継続長が長い子音(例えば[s])を含む特定音韻(例えば「さ」)に設定される。移動速度に関わらず、距離Pが特定距離Pzになる到達時点t1に子音の発音が開始され、打撃時点t2に母音の発音が開始される。手H1の移動速度が速い場合には、手H2の移動速度が遅い場合と比較して、到達時点t1から打撃時点t2にいたるまでの時間長が短いから、子音の継続長が短い特定音韻が設定される。また、手Hの移動速度に応じて音符の継続長または音高を設定してもよい。なお、以上の例示にでは特定音韻の種類を設定する場合を例示したが、特定音韻以外の音韻の種類を移動速度に応じて制御してもよい。
B.手Hの移動方向
例えば、手Hの移動方向に応じて音韻の種類を設定してもよい。利用者は、所望する音韻に応じて相異なる方向から手Hを移動させて打撃面Fを打撃する。利用者は、打撃面Fに対して多様な方向から手Hを移動させて打撃面Fを打撃することが可能である。例えば、利用者からみて右方向または左方向から手Hを移動させて打撃面Fを打撃する場合、または、利用者から離れる方向または近づく方向に手Hを移動させて打撃面Fを打撃する場合等が想定される。具体的には、第1検出部31は、画像データD1から手Hの移動方向を検出し、音韻特定部212は、当該移動方向に応じて音韻の種類を設定する。音韻特定部212は、手Hが特定状態になる前に音韻の種類を設定する。なお、手Hの移動方向に応じて音符の継続長または音高を設定してもよい。
C.手Hの形状
例えば、手Hの形状に応じて音韻の種類を設定してもよい。利用者は、例えば指を動かすことで手Hを任意の形状にした状態で、打撃面Fを打撃する。例えば、グー、チョキまたはパーの形状になるように手Hを動かす。図6は、手Hの形状と音韻との関係とを表す表である。図6に例示される通り、手Hの形状に加えて、手Hが右手および左手の何れあるかを加味して音韻の種類を設定してもよい。手Hの状態には、利用者の手Hが右手および左手の何れであるかも含まれる。第1検出部31は、手Hが右手および左手の何れであるかと、手Hの形状とを画像データD1から検出する。手Hが右手および左手の何れであるかと、手Hの形状との検出には、公知の画像解析技術が任意に採用される。なお、音韻特定部212は、手Hが特定状態になる前に音韻の種類を設定する。音韻特定部212は、右手/左手および手Hの形状に応じて、音韻を特定する。図6に例示される通り、例えば左手によりグーの形状をした状態で打撃面Fを打撃すると、音韻「ta」が発音される。なお、手Hの形状に応じて音符の継続長または音高を設定してもよい。
以上の説明から理解される通り、手Hの移動速度、手Hの移動方向、および、手Hの形状の少なくとも1つが検出され、検出の内容に応じて音韻の発音が制御される。特定音韻の発音を制御する場合には、子音(第1音の例示)および母音(第2音の例示)の少なくとも一方における発音が制御されればよい。以上の構成によれば、物体の移動速度、移動方向および形状を利用者が変更することで、第1音および第2音の発音を制御することができる。なお、手Hの状態は、手Hの移動速度、手Hの移動方向、および、手Hの形状には限定されない。例えば、手Hの移動角度(打撃面Fに対して手Hが移動する角度)を手Hの状態としてもよい。
(10)手Hが特定距離Pzに到達してから打撃面Fを打撃するまでの時間長は、手Hの移動速度が遅いと長くなり、手Hの移動速度が速いと短くなる。したがって、第1閾値が手Hの移動速度にかかわらず一定(固定値)である構成では、手Hの移動速度に応じて特定音韻の子音の継続長が変化するという問題ある。具体的には、手Hの移動速度が遅いと子音の継続長が長くなり、手Hの移動速度が速いと子音の継続長が短くなる。そこで、手Hの移動速度に応じて第1閾値を変化させてもよい。具体的には、第1検出部31は、例えば画像データD1から手Hの移動速度を検出する。なお、手Hが特定状態になる前に移動速度が検出される。次に、第1検出部31は、手Hの移動速度に応じて第1閾値を設定する。具体的には、第1検出部31は、手Hの移動速度が速いときは第1閾値を相対的に大きく設定し、手Hの移動速度が遅いときは第1閾値を相対的に小さく設定する。そして、第1検出部31は、設定後の第1閾値と距離Pとを比較して、距離Pが特定距離Pzに到達したか否かを判定する。以上の構成によれば、手Hの移動速度に応じて子音の継続長が変化することを低減できる。
また、手Hの移動方向に応じて第1閾値を変化させてもよい。具体的には、第1検出部31は、例えば画像データD1から手Hの移動方向を検出する。なお、手Hが特定状態になる前に移動方向が検出される。次に、第1検出部31は、手Hの移動方向に応じて第1閾値を設定する。例えば、第1検出部31は、手Hの移動方向が第1方向である場合には、第1閾値を第1値に設定し、手Hの移動方向が第1方向とは異なる第2方向である場合には、第1閾値を第1値よりも大きい第2値に設定する。そして、第1検出部31は、設定後の第1閾値と距離Pとを比較して、距離Pが特定距離Pzに到達したか否かを判定する。手Hの移動速度が一定である場合には、特定音韻の子音の継続長は、第1閾値に応じて変化する。具体的には、特定音韻の子音の継続長は、第1閾値が大きいほど長くなり、第1閾値が小さいほど短くなる。利用者は、特定音韻の子音の継続長を長くしたい場合には、第2方向から打撃面Fを打撃する。他方、利用者は、特定音韻の子音の継続長を短くしたい場合には、第1方向から打撃面Fを打撃する。以上の説明から理解される通り、第1閾値を可変に設定してもよい。
(11)前述の形態において、音韻の発音を終了する時点を利用者による手Hの動作に応じて制御してもよい。例えば、打撃面Fを打撃した後に手Hが当該打撃面Fから離れた時点に音韻の発音を終了してもよい。図7は、変形例に係る検出部213の構成を例示するブロック図である。検出部213は、第1検出部31および第2検出部32に加えて第3検出部33を具備する。第3検出部33は、打撃面Fから手Hが離れたことを検出する。例えば、画像データD1の解析により打撃面Fから手Hが離れたことが検出される。なお、第3検出部33は、打撃面Fに付与される圧力を検知する圧力センサからの出力を利用して、打撃面Fから手Hが離れたことを検出してもよい。発音制御部214は、第3検出が打撃面Fから手Hが離れたことを検出すると、音韻の発音を終了する。
(12)前述の形態では、利用者の手Hで打撃面Fを打撃したが、例えば触覚フィードバックを利用した触角技術(ハプティクス)を利用して利用者が仮想的な打撃面Fを打撃する構成も採用される。利用者は、表示装置に表示された仮想空間内における擬似的な手を操作可能な操作子を操作することで、当該仮想空間内に用意された打撃面Fを打撃する。仮想空間内の打撃面Fを打撃したときに振動する振動モーターを操作子に搭載することで、利用者は実際に打撃面Fを打撃しているように知覚する。仮想空間内の手が特定状態にある場合には特定音韻の子音が発音され、仮想空間内において打撃面Fが打撃された場合に当該特定音韻の母音が発音される。以上の説明から理解される通り、打撃面Fは仮想空間内における面でもよい。同様に、手Hも仮想空間内における手でもよい。
(13)以上に例示した発音制御装置20の機能は、前述の通り、制御装置21を構成する単数または複数のプロセッサと記憶装置23に記憶されたプログラムとの協働により実現される。本開示に係るプログラムは、コンピュータが読取可能な記録媒体に格納された形態で提供されてコンピュータにインストールされ得る。記録媒体は、例えば非一過性(non-transitory)の記録媒体であり、CD-ROM等の光学式記録媒体(光ディスク)が好例であるが、半導体記録媒体または磁気記録媒体等の公知の任意の形式の記録媒体も包含される。なお、非一過性の記録媒体とは、一過性の伝搬信号(transitory, propagating signal)を除く任意の記録媒体を含み、揮発性の記録媒体も除外されない。また、配信装置が通信網を介してプログラムを配信する構成では、当該配信装置においてプログラムを記憶する記憶装置23が、前述の非一過性の記録媒体に相当する。
<付記>
以上に例示した形態から、例えば以下の構成が把握される。
本開示のひとつの態様(態様1)に係る発音制御方法は、物体が面に向けて移動している過程において特定の状態にあることを検出し、前記特定の状態が検出された時点において第1音を発音させ、前記物体の移動により当該物体が前記面を打撃したことを検出し、前記打撃が検出された時点において第2音を発音させる。以上の態様では、物体が面に向けて移動している過程において特定の状態になると第1音が発音され、物体が当該面を打撃すると第2音が発音される。したがって、物体が面に打撃する前に第1音を発音できる。また、面に対する物体の打撃を検出することで、第2音が発音されるから、第2音を発音するための操作感を維持したまま、第2音よりも前に第1音を発音できる。
態様1の一例(態様2)では、前記第1音は、第1音素であり、前記第2音は、前記第1音素とは異なる第2音素である。以上の態様では、物体が特定の状態になると第1音素が発音され、物体が面を打撃すると第1音素に後続して第2音素が発音される。したがって、物体が打撃する前に第1音素を発音させることができる。
態様2の一例(態様3)では、前記第1音素は、子音であり、前記第2音素は、母音である。以上の態様では、物体が特定の状態になると子音が発音され、物体が面を打撃すると子音に後続して母音が発音される。したがって、子音と母音とで構成される音韻の発音が遅延していると知覚されることを低減できる。
態様1の一例(態様4)では、前記第1音は、発音の準備動作に関する音であり、前記第2音は、前記準備動作に後続する音である。以上の態様では、物体が特定の状態になると準備動作に関する音が発音され、物体が面を打撃すると準備動作に後続する音が発音される。したがって、目的とする音の前に当該音を発音させるための準備動作に関する音を発音できる。
態様1から態様4の何れかの一例(態様5)では、前記特定の状態は、前記物体と前記面との間の距離が特定の距離にあることである。以上の態様では、物体と面との間の距離が特定の距離になると第1音が発音される。すなわち、物体が面に向かい移動するまでの途中の状態で第1音が発音される。したがって、第1音を発音させるための操作を利用者が意識することなく当該第1音を発音することができる。
態様1から態様5の何れかの一例(態様6)では、前記物体の打撃の検出においては、収音装置が収音により生成した音信号を解析することで前記打撃を検出する。以上の態様では、収音装置が収音により生成した音信号を解析することで面に対する物体の打撃が検出される。したがって、面に対する打撃により発生する打撃音を第2音の発音に利用することができる。
態様1から態様6の何れかの一例(態様7)では、前記物体の移動速度、前記物体の移動方向、および、前記物体の形状の少なくとも1つを検出し、前記検出の内容に応じて、前記第1音および前記第2音の少なくとも一方における発音を制御する。以上の態様では、物体が移動する速度、物体が移動する方向、および、物体の形状の少なくとも1つに応じて、第1音および第2音の少なくとも一方における発音が制御される。したがって、物体の移動速度、移動方向および形状を利用者が変更することで、第1音および第2音の発音を制御することができる。
本開示のひとつの態様(態様1)に係る発音制御装置は、物体が面に向けて移動している過程において特定の状態にあること、および、前記物体の移動により当該物体が前記面を打撃したことを検出する検出部と、前記特定の状態が検出された時点において第1音を発音させ、前記打撃が検出された時点において第2音を発音させる発音制御部とを具備する。
100…発音制御システム、10…操作ユニット、11…操作受付部、112…筐体、114…光透過部、13…第1センサ、15…第2センサ、20…発音制御装置、21…制御装置、212…音韻特定部、213…検出部、214…発音制御部、23…記憶装置、25…放音装置、31…第1検出部、32…第2検出部、33…第3検出部、F…打撃面。

Claims (8)

  1. 物体が面に向けて移動している過程において特定の状態にあることを検出し、
    前記特定の状態が検出された時点において第1音を発音させ、
    前記物体の移動により当該物体が前記面を打撃したことを検出し、
    前記打撃が検出された時点において第2音を発音させる
    コンピュータにより実現される発音制御方法。
  2. 前記第1音は、第1音素であり、
    前記第2音は、前記第1音素とは異なる第2音素である
    請求項1の発音制御方法。
  3. 前記第1音素は、子音であり、
    前記第2音素は、母音である
    請求項2の発音制御方法。
  4. 前記第1音は、発音の準備動作に関する音であり、
    前記第2音は、前記準備動作に後続する音である
    請求項1の発音制御方法。
  5. 前記特定の状態は、前記物体と前記面との間の距離が特定の距離にあることである
    請求項1から請求項4の何れかの発音制御方法。
  6. 前記物体の打撃の検出においては、収音装置が収音により生成した音信号を解析することで前記打撃を検出する
    請求項1から請求項5の何れかの発音制御方法。
  7. 前記物体の移動速度、前記物体の移動方向、および、前記物体の形状の少なくとも1つを検出し、
    前記検出の内容に応じて、前記第1音および前記第2音の少なくとも一方における発音を制御する
    請求項1から請求項6の何れかの発音制御方法。
  8. 物体が面に向けて移動している過程において特定の状態にあること、および、前記物体の移動により当該物体が前記面を打撃したことを検出する検出部と、
    前記特定の状態が検出された時点において第1音を発音させ、前記打撃が検出された時点において第2音を発音させる発音制御部と
    を具備する発音制御装置。
JP2019175253A 2019-09-26 2019-09-26 発音制御方法および発音制御装置 Active JP7380008B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019175253A JP7380008B2 (ja) 2019-09-26 2019-09-26 発音制御方法および発音制御装置
PCT/JP2020/035785 WO2021060273A1 (ja) 2019-09-26 2020-09-23 発音制御方法および発音制御装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019175253A JP7380008B2 (ja) 2019-09-26 2019-09-26 発音制御方法および発音制御装置

Publications (2)

Publication Number Publication Date
JP2021051249A true JP2021051249A (ja) 2021-04-01
JP7380008B2 JP7380008B2 (ja) 2023-11-15

Family

ID=75157779

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019175253A Active JP7380008B2 (ja) 2019-09-26 2019-09-26 発音制御方法および発音制御装置

Country Status (2)

Country Link
JP (1) JP7380008B2 (ja)
WO (1) WO2021060273A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022255052A1 (ja) * 2021-06-03 2022-12-08 ヤマハ株式会社 打楽器システム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004061753A (ja) * 2002-07-26 2004-02-26 Yamaha Corp 歌唱音声を合成する方法および装置
JP2014098801A (ja) * 2012-11-14 2014-05-29 Yamaha Corp 音声合成装置
JP2014186307A (ja) * 2013-02-22 2014-10-02 Yamaha Corp 音声合成装置
JP2017146555A (ja) * 2016-02-19 2017-08-24 ヤマハ株式会社 演奏支援のための装置および方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004061753A (ja) * 2002-07-26 2004-02-26 Yamaha Corp 歌唱音声を合成する方法および装置
JP2014098801A (ja) * 2012-11-14 2014-05-29 Yamaha Corp 音声合成装置
JP2014186307A (ja) * 2013-02-22 2014-10-02 Yamaha Corp 音声合成装置
JP2017146555A (ja) * 2016-02-19 2017-08-24 ヤマハ株式会社 演奏支援のための装置および方法

Also Published As

Publication number Publication date
WO2021060273A1 (ja) 2021-04-01
JP7380008B2 (ja) 2023-11-15

Similar Documents

Publication Publication Date Title
US10490181B2 (en) Technology for responding to remarks using speech synthesis
JP6140579B2 (ja) 音響処理装置、音響処理方法、及び音響処理プログラム
JP5821824B2 (ja) 音声合成装置
JP4457983B2 (ja) 演奏操作援助装置及びプログラム
US6392132B2 (en) Musical score display for musical performance apparatus
JP5162938B2 (ja) 楽音発生装置及び鍵盤楽器
JP2002268699A (ja) 音声合成装置及び音声合成方法、並びにプログラムおよび記録媒体
CN112466266B (zh) 控制系统以及控制方法
JP7367641B2 (ja) 電子楽器、方法及びプログラム
JP5040778B2 (ja) 音声合成装置、方法及びプログラム
CN114155823A (zh) 电子乐器、方法及程序
WO2021060273A1 (ja) 発音制御方法および発音制御装置
JP4654513B2 (ja) 楽器
JP5151401B2 (ja) 音声処理装置
JP6252420B2 (ja) 音声合成装置、及び音声合成システム
JP2017146555A (ja) 演奏支援のための装置および方法
JP6090043B2 (ja) 情報処理装置、及びプログラム
JP2008216618A (ja) 音声判別装置
JP6406182B2 (ja) カラオケ装置、及びカラオケシステム
JP6372066B2 (ja) 合成情報管理装置および音声合成装置
JP2017146557A (ja) 演奏支援のための装置および方法
JP4544258B2 (ja) 音響変換装置およびプログラム
JP2006106411A (ja) 音出力制御装置、楽曲再生装置、音出力制御方法、そのプログラム、および、そのプログラムを記録した記録媒体
JP6260499B2 (ja) 音声合成システム、及び音声合成装置
JP2002304187A (ja) 音声合成装置および音声合成方法、並びにプログラムおよび記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230908

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231016

R151 Written notification of patent or utility model registration

Ref document number: 7380008

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151