JP2018128607A - 音声処理方法および音声処理装置 - Google Patents

音声処理方法および音声処理装置 Download PDF

Info

Publication number
JP2018128607A
JP2018128607A JP2017022418A JP2017022418A JP2018128607A JP 2018128607 A JP2018128607 A JP 2018128607A JP 2017022418 A JP2017022418 A JP 2017022418A JP 2017022418 A JP2017022418 A JP 2017022418A JP 2018128607 A JP2018128607 A JP 2018128607A
Authority
JP
Japan
Prior art keywords
voice
signal
speech
language
character string
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017022418A
Other languages
English (en)
Other versions
JP6897132B2 (ja
Inventor
優樹 瀬戸
Yuki Seto
優樹 瀬戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2017022418A priority Critical patent/JP6897132B2/ja
Publication of JP2018128607A publication Critical patent/JP2018128607A/ja
Application granted granted Critical
Publication of JP6897132B2 publication Critical patent/JP6897132B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】第1言語で表現された特定の文字列に第2言語の部分が含まれる場合でも、音韻および抑揚が聴感的に自然な音声を合成する。【解決手段】音声処理装置は、指定文字列のうちの第1部分を第1言語で発音した音声と、指定文字列のうち第1部分とは相違する第2部分を発音した音声とを表す音声信号Xを生成する音声合成部24Aを具備し、音声合成部24Aは、第2部分について、第1言語とは相違する第2言語用の音声合成データを利用した音声合成処理を実行する。【選択図】図4

Description

本発明は、特定の文字列を発音した音声を合成する技術に関する。
例えば電車等の交通機関または店舗等の商業施設では、利用者を案内するための様々な音声が放音される。例えば特許文献1には、例えば素片接続型等の公知の音声合成処理により案内音声を生成して施設内の放音装置から再生する構成が開示されている。
特開2016−76201号公報
ところで、特定の言語(以下「第1言語」という)で表現された案内音声には、他言語(以下「第2言語」という)に対応する音声が含まれる場合がある。例えば、日本語で表現された駅名または地名等の固有名詞が、英語で表現された案内音声に含まれ得る。しかし、第1言語を前提とした音声合成処理により、第2言語で表現された文字列の音声を合成した場合には、音韻(発音内容)および抑揚が聴感的に自然な音声を合成することは実際には困難である。例えば、「タテヤマ(tateyama)」という日本語の地名を発音した音声の合成に英語用の音声合成処理を利用した場合には、「タテイアマ(tateiama)」といった音声が生成される可能性がある。以上の事情を考慮して、本発明は、第1言語で表現された特定の文字列に第2言語の部分が含まれる場合でも音韻および抑揚が聴感的に自然な音声を合成することを目的とする。
以上の課題を解決するために、本発明の好適な態様に係る音声処理方法は、指定文字列のうちの第1部分を第1言語で発音した音声と、前記指定文字列のうち前記第1部分とは相違する第2部分を発音した音声とを表す音声信号を生成し、前記音声信号の生成においては、前記第2部分について、前記第1言語とは相違する第2言語用の音声合成データを利用した音声合成処理を実行する。
また、本発明の好適な態様に係る音声処理装置は、指定文字列のうちの第1部分を第1言語で発音した音声と、前記指定文字列のうち前記第1部分とは相違する第2部分を発音した音声とを表す音声信号を生成する音声合成部を具備し、前記音声合成部は、前記第2部分について、前記第1言語とは相違する第2言語用の音声合成データを利用した音声合成処理を実行する。
本発明の第1実施形態に係る音声処理装置の構成図である。 指定文字列と定型部分と非定型部分との関係の説明図である。 非定型部分を入力する画面の説明図である。 音声処理装置における制御装置の機能に着目した構成図である。 制御装置が実行する信号生成処理のフローチャートである。 第2実施形態に係る音声処理装置の構成図である。 第2実施形態における制御装置の機能に着目した構成図である。 第2実施形態の制御装置が実行する信号生成処理のフローチャートである。 第3実施形態に係る音声処理装置の構成図である。 第3実施形態における制御装置の機能に着目した構成図である。 第3実施形態の制御装置が実行する音声合成処理のフローチャートである。 第4実施形態の音声処理装置における制御装置の機能に着目した構成図である。 第4実施形態における端末装置の構成図である。
<第1実施形態>
図1は、本発明の第1実施形態に係る音声処理装置100の構成図である。図1に例示される通り、第1実施形態の音声処理装置100は、電車等の交通機関の施設内(例えば駅構内)に設置され、当該施設に関する案内を表す音声(以下「案内音声」という)Gを施設内の利用者に対して放音する音響システムである。
案内音声Gは、音声処理装置100の管理者が指定した文字列(以下「指定文字列」という)Qを発音した音声である。図2には、“We have found a child, who tells us his name is Yuki Suzuki.”(スズキユウキちゃんという迷子のお子様がお待ちでございます)という英語の指定文字列Qが例示されている。図2に例示される通り、第1実施形態の指定文字列Qは、定型部分Qaと非定型部分Qbとを含んで構成される。
定型部分Qa(第1部分の例示)は、事前に内容が想定される定型的な文字列であり、特定の言語(以下「第1言語」という)の語句で構成される。図2では、第1言語の例示である英語で表現された定型部分Qaが例示されている。他方、非定型部分Qb(第2部分の例示)は、例えば施設内の状況に応じて変更される非定型の文字列である。例えば図2に例示される通り、施設内の迷子の子供の名前等の固有名詞の部分が非定型部分Qbの典型例である。非定型部分Qbは、第1言語とは相違する言語(以下「第2言語」という)の語句であり得る。図2に例示された指定文字列Qのうち名前を表す“Yuki Suzuki”という語句が非定型部分Qbである。すなわち、非定型部分Qbは、例えば通常は日本語として使用される固有名詞(例えば日本人の名前または日本国内の地名)である。定型部分Qaは、案内の概略的かつ基本的な内容を表現し、非定型部分Qbは、案内に関する個別的または具体的な内容を表現する、と換言することも可能である。なお、図2では1個の非定型部分Qbを含む指定文字列Qを例示したが、複数の非定型部分Qbを1個の指定文字列Qに含めてもよい。
図1に例示される通り、音声処理装置100は、制御装置11と記憶装置12と表示装置13と操作装置14と放音装置15とを具備するコンピュータシステムである。例えばタブレット端末またはパーソナルコンピュータ等の情報端末が音声処理装置100として利用され得る。なお、例えば、鉄道事業者の施設内に設置される電光掲示板、または商業施設に設置される電子看板(例えばデジタルサイネージ)等の案内用の表示端末を、音声処理装置100として利用することも可能である。また、音声処理装置100は、単体の装置で実現されるほか、相互に別体で構成された複数の装置(すなわちシステム)でも実現され得る。
表示装置13(例えば液晶表示パネル)は、制御装置11による制御のもとで各種の画像を表示する。操作装置14は、管理者からの指示を受付ける入力機器である。例えば、管理者が操作可能な複数の操作子、または、表示装置13の表示面に対する接触を検知するタッチパネルが、操作装置14として好適に利用される。第1実施形態では、音声処理装置100の管理者は、操作装置14を適宜に操作することで、事前に用意された複数の候補から指定文字列Qの定型部分Qaを選択するとともに、迷子の子供の名前等の任意の文字列を非定型部分Qbとして指定することが可能である。
制御装置11は、例えばCPU(Central Processing Unit)等の処理回路で構成され、音声処理装置100の各要素を統括的に制御する。具体的には、第1実施形態の制御装置11は、指定文字列Qを発音した音声を表す音声信号Xを生成する。放音装置15は、制御装置11が生成した音声信号Xに応じた音声を再生する。なお、制御装置11が生成した音声信号Xをデジタルからアナログに変換するD/A変換器の図示は便宜的に省略した。記憶装置12は、制御装置11が実行するプログラムと制御装置11が使用する各種のデータとを記憶する。例えば半導体記録媒体または磁気記録媒体等の公知の記録媒体が記憶装置12として採用され得る。
第1実施形態の記憶装置12は、相異なる定型部分Qaに対応する複数の収録信号Rを記憶する。任意の1個の定型部分Qaに対応する収録信号Rは、定型部分Qaを発音した音声(すなわち第1言語で表現された音声)を表す信号である。複数の定型部分Qaの各々を特定の発声者に順次に発音させ、当該発声音を収音機器により収録することで複数の収録信号Rが生成される。発声音の収録により生成された複数の収録信号Rが事前(すなわち音声信号Xの生成前)に記憶装置12に格納される。
非定型部分Qbは、単発的に必要となる文字列であるから、収録信号Rを事前に用意することは困難である。また、新規に設置された店舗等の施設で使用される指定文字列Qについては収録信号Rが収録されていない場合が想定される。以上の事情を考慮して、第1実施形態では、非定型部分Qbを音声合成処理により生成する。
図1に例示される通り、第1実施形態の記憶装置12は、第2言語用の音声合成プログラムP2および音声合成データD2とを記憶する。音声合成プログラムP2は、第2言語の任意の文字列に対応する音声を合成する音声合成処理を実現するためのソフトウェア(音声合成エンジン)である。第1実施形態では、複数の音声素片を時間軸上で相互に接続する素片接続型の音声合成処理を例示する。
音声合成データD2は、非定型部分Qbの音声合成処理に利用される。第1実施形態では、素片接続型の音声合成処理により非定型部分Qbの音声を合成する場合を想定する。図1に例示される通り、音声合成データD2は、発音規則データDa2と音声素片データDb2とを記憶する。発音規則データDa2は、第2言語の文字列と発音記号との関係(すなわち、文字列を発音記号に変換する規則)を規定する。音声素片データDb2は、複数の音声素片の集合(音声合成用ライブラリ)である。各音声素片は、例えば母音もしくは子音等の音素単体、または、複数の音素を連結した音素連鎖(例えばダイフォンまたはトライフォン)である。第1実施形態では、第2言語の語句を発音した音声から採取された複数の音声素片が音声素片データDb2に登録される。
図4は、制御装置11の機能に着目した構成図である。図4に例示される通り、第1実施形態の制御装置11は、記憶装置12に記憶されたプログラムを実行することで、指定文字列Qの音声信号Xを生成するための複数の機能(文字列設定部22および音声合成部24A)を実現する。なお、制御装置11の一部の機能を専用の電子回路で実現した構成、または、制御装置11の機能を複数の装置に分散した構成も採用され得る。
文字列設定部22は、定型部分Qaと非定型部分Qbとを含む指定文字列Qを設定する。具体的には、第1実施形態の文字列設定部22は、操作装置14に対する管理者からの指示に応じて定型部分Qaと非定型部分Qbとを設定する。例えば、文字列設定部22は、操作装置14に対する操作で管理者が複数の候補から選択した文字列を定型部分Qaとして設定する。また、文字列設定部22は、操作装置14に対する操作で管理者が指定した任意の文字列を非定型部分Qbとして設定する。例えば図3に例示される通り、表示装置13に表示された入力欄132に管理者が入力した文字列が非定型部分Qbとして設定される。なお、非定型部分Qbを定型部分Qaとは別個の文字種(例えば片仮名)により指定することも可能である。例えば、外国人の名前を、日本人が聴取した通りの片仮名で非定型部分Qbとして指定する。
図4の音声合成部24Aは、文字列設定部22が設定した指定文字列Qを発音した案内音声Gを表す音声信号Xを生成する。図4に例示される通り、第1実施形態の音声合成部24Aは、第1処理部32Aと第2処理部34と接続処理部36とを含んで構成される。
第1処理部32Aは、文字列設定部22が設定した指定文字列Qの定型部分Qaの音声を表す第1信号X1を生成する。第1実施形態の第1処理部32Aは、記憶装置12に記憶された複数の収録信号Rのうち定型部分Qaに対応する1個の収録信号Rを第1信号X1として選択する。第2処理部34は、文字列設定部22が設定した指定文字列Qの非定型部分Qbに対応する音声を表す第2信号X2を生成する。第1実施形態の第2処理部34は、制御装置11が音声合成プログラムP2を実行することで実現され、記憶装置12に記憶された第2言語用の音声合成データD2を利用した音声合成処理により第2信号X2を生成する。接続処理部36は、第1処理部32Aが生成した第1信号X1と第2処理部34が生成した第2信号X2とを相互に接続することで音声信号Xを生成する。
図5は、第1実施形態の音声合成部24Aが音声信号Xを生成する処理(以下「信号生成処理」という)のフローチャートである。文字列設定部22による指定文字列Qの設定毎に信号生成処理が実行される。
信号生成処理を開始すると、第1処理部32Aは、文字列設定部22が設定した指定文字列Qの定型部分Qaに対応する音声を表す第1信号X1を複数の収録信号Rから選択する(Sa1:第1処理)。すなわち、複数の収録信号Rのうち指定文字列Qの定型部分Qaに対応する1個の収録信号Rが第1信号X1として選択される。第1信号X1は、定型部分Qaを発音した第1言語の音声を表す信号である。
第2処理部34は、文字列設定部22が設定した指定文字列Qの非定型部分Qbの音声を表す第2信号X2を音声合成処理により生成する(Sa2:第2処理)。第1実施形態の第2処理部34は、以下に詳述する通り、記憶装置12に記憶された第2言語用の音声合成データD2を利用した音声合成処理により第2信号X2を生成する(Sa21−Sa24)。
まず、第2処理部34は、音声合成データD2の発音規則データDa2を参照することで、非定型部分Qbに対応する発音記号を決定する(Sa21)。第1実施形態の発音規則データDa2は、第2言語(例えば日本語)の文字列と発音記号との関係を規定する。したがって、ステップSa21では、第2言語の語句として自然な読み方と認識される発音記号が非定型部分Qbから決定される。
また、第2処理部34は、非定型部分Qbの発音記号に対応する複数の音声素片を音声素片データDb2から選択する(Sa22)。そして、第2処理部34は、音声素片データDb2から選択した各音声素片の特性を適宜に調整する(Sa23)。例えば、案内音声Gの抑揚に影響する音高および音量が調整される。第2処理部34は、調整後の複数の音声素片を時間軸上で相互に接続することで第2信号X2を生成する(Sa24)。前述の通り、第1実施形態の音声素片データDb2には、第2言語(例えば日本語)を発音した音声から採取された複数の音声素片が登録される。したがって、ステップSa24では、第2言語の音声として聴感的に自然な音声を表す第2信号X2が生成される。なお、第1処理Sa1と第2処理Sa2との先後を逆転することも可能である。
以上の処理が完了すると、接続処理部36は、第1処理Sa1で生成した第1信号X1と第2処理Sa2(Sa21−Sa24)で生成した第2信号X2とを接続することで音声信号Xを生成する(Sa3:接続処理)。具体的には、第1信号X1のうち非定型部分Qbに対応した区間に第2信号X2を挿入することで音声信号Xが生成される。すなわち、第1実施形態の音声合成部24Aは、指定文字列Qの定型部分Qaを第1言語で発音した音声と、指定文字列Qの非定型部分Qbを第2言語で発音した音声とを表す音声信号Xを生成する。音声合成部24Aが生成した音声信号Xが放音装置15に供給されることで、施設内の利用者に対して案内音声Gが再生される。
以上に説明した通り、第1実施形態では、指定文字列Qのうち非定型部分Qbについては第2言語用の音声合成データD2を利用した音声合成処理が実行される。したがって、非定型部分Qbについて音韻および抑揚が聴感的に自然な案内音声Gを再生することが可能である。
<第2実施形態>
本発明の第2実施形態について説明する。以下に例示する各構成において作用または機能が第1実施形態と同様である要素については、第1実施形態の説明で使用した符号を流用して各々の詳細な説明を適宜に省略する。
図6は、第2実施形態に係る音声処理装置100の構成図である。図6に例示される通り、第2実施形態の記憶装置12は、第1実施形態で例示した第2言語用の音声合成プログラムP2および音声合成データD2のほか、第1言語用の音声合成プログラムP1および音声合成データD1を記憶する。音声合成プログラムP1は、第1言語の任意の文字列に対応する音声を合成する音声合成処理を実現するためのソフトウェア(音声合成エンジン)である。
音声合成データD1は、音声合成プログラムP1による音声合成処理に利用されるデータであり、発音規則データDa1と音声素片データDb1とを含んで構成される。発音規則データDa1は、第1言語の文字列と発音記号との関係を規定する。音声素片データDb1は、第1言語の語句を発音した音声から採取された複数の音声素片の集合である。なお、第1実施形態で例示した複数の収録信号Rは、第2実施形態では省略される。
図7は、制御装置11の機能に着目した構成図である。図7に例示される通り、第2実施形態の制御装置11は、文字列設定部22および音声合成部24Bとして機能する。文字列設定部22は、第1実施形態と同様に、定型部分Qaと非定型部分Qbとを含む指定文字列Qを設定する。
音声合成部24Bは、文字列設定部22が設定した指定文字列Qを発音した案内音声Gを表す音声信号Xを生成する。第2実施形態の音声合成部24Bは、第1実施形態の音声合成部24Aにおける第1処理部32Aを第1処理部32Bに置換した構成である。第2実施形態の第1処理部32Bは、第1言語用の音声合成プログラムP1を制御装置11が実行することで実現され、記憶装置12に記憶された第1言語用の音声合成データD1を利用した音声合成処理により第1信号X1を生成する。第2処理部34および接続処理部36の機能は第1実施形態と同様である。
図8は、第2実施形態の音声合成部24Bが音声信号Xを生成する信号生成処理のフローチャートである。信号生成処理を開始すると、第1処理部32Bは、指定文字列Qの定型部分Qaの音声を表す第1信号X1を音声合成処理により生成する(Sb1:第1処理)。第2実施形態の第1処理部32Bは、以下に詳述する通り、記憶装置12に記憶された第1言語用の音声合成データD1を利用した音声合成処理により第1信号X1を生成する(Sb11−Sb14)。
具体的には、第1処理部32Bは、第1言語用の発音規則データDa1を参照することで、定型部分Qaに対応する発音記号を決定する(Sb11)。したがって、第1言語の語句として自然な読み方と認識される発音記号が定型部分Qaから決定される。また、第1処理部32Bは、定型部分Qaの発音記号に対応する複数の音声素片を第1言語用の音声素片データDb1から選択し(Sb12)、各音声素片の特性を適宜に調整する(Sb13)。そして、第1処理部32Bは、調整後の複数の音声素片を時間軸上で相互に接続することで第1信号X1を生成する(Sb14)。前述の通り、音声素片データDb2には、第1言語を発音した音声から採取された複数の音声素片が登録されるから、第1言語の音声として聴感的に自然な音声を表す第1信号X1が生成される。
第2処理部34は、第1実施形態と同様に、指定文字列Qの非定型部分Qbの音声を表す第2信号X2を、第2言語用の音声合成データD2を利用した音声合成処理により生成する(Sb2:第2処理)。第2処理部34が第2信号X2を生成する第2処理Sb2の内容は、第1実施形態の第2処理Sa2(Sa21−Sa24)と同様である。すなわち、第2処理部34は、第2言語用の発音規則データDa2を利用して非定型部分Qbの発音記号を決定する処理(Sb21)と、発音記号に対応する複数の音声素片を第2言語用の音声素片データDb2から選択する処理(Sb22)と、各音声素片の調整(Sb23)および接続(Sb24)により第2信号X2を生成する処理とを実行する。なお、第1処理Sb1と第2処理Sb2との先後を逆転することも可能である。
以上の処理が完了すると、接続処理部36は、第1処理Sb1(Sb11−Sb14)で生成した第1信号X1と第2処理Sb2(Sb21−Sb24)で生成した第2信号X2とを接続することで音声信号Xを生成する(Sb3:接続処理)。すなわち、第2実施形態の音声合成部24Bは、第1実施形態と同様に、指定文字列Qの定型部分Qaを第1言語で発音した音声と、指定文字列Qの非定型部分Qbを第2言語で発音した音声とを表す音声信号Xを生成する。音声合成部24Bが生成した音声信号Xが放音装置15に供給されることで、施設内の利用者に対して案内音声Gが再生される。
以上に説明した通り、第2実施形態では、指定文字列Qのうち非定型部分Qbについては第2言語用の音声合成データD2を利用した音声合成処理が実行される。したがって、第1実施形態と同様に、非定型部分Qbについて音韻および抑揚が聴感的に自然な案内音声Gを再生することが可能である。
また、第2実施形態では、定型部分Qaの音声を表す第1信号X1が、第1言語用の音声合成データD1を利用した音声合成処理により生成される。したがって、第1実施形態と比較して、複数の収録信号Rを事前に用意して記憶装置12に格納する必要がないという利点がある。他方、収録信号Rの音質は、音声合成処理で生成される第1信号X1の音質を一般的には上回る。以上の事情を考慮すると、事前に用意された複数の収録信号Rを選択的に第1信号X1として利用する第1実施形態によれば、第2実施形態と比較して、定型部分Qaの音質が高い音声信号Xを生成できるという利点がある。また、第1実施形態では、第1言語用の音声合成処理(第1処理Sb1)が不要であるから、制御装置11の処理負荷が軽減されるという利点もある。
<第3実施形態>
図9は、第3実施形態に係る音声処理装置100の構成図である。図9に例示される通り、第3実施形態の記憶装置12は、第1言語用の音声合成プログラムP1および音声合成データD1と、第2言語用の発音規則データDa2(音声合成データD2)とを記憶する。第1言語用の音声合成データD1は、発音規則データDa1と音声素片データDb1とを含んで構成される。第2言語用の発音規則データDa2は、第1実施形態で前述した通り、第2言語の文字列と発音記号との関係を規定する。
図10は、制御装置11の機能に着目した構成図である。図10に例示される通り、第3実施形態の制御装置11は、文字列設定部22および音声合成部24Cとして機能する。文字列設定部22は、第1実施形態と同様に、定型部分Qaと非定型部分Qbとを含む指定文字列Qを設定する。
音声合成部24Cは、文字列設定部22が設定した指定文字列Qを発音した案内音声Gを表す音声信号Xを生成する。第3実施形態の音声合成部24Cは、第1言語の音声合成プログラムP1により実現される。音声信号Xの生成において、音声合成部24Cは、第1言語用の発音規則データDa1により定型部分Qaの発音記号を決定し、第2言語用の発音規則データDa2により非定型部分Qbの発音記号を決定する。
図11は、第3実施形態の音声合成部24Cが音声信号Xを生成する処理(音声合成処理)のフローチャートである。文字列設定部22による指定文字列Qの設定毎に音声合成処理が実行される。
音声合成処理を開始すると、音声合成部24Cは、文字列設定部22が設定した指定文字列Qの定型部分Qaに対応する発音記号を、第1言語用の発音規則データDa1を参照して決定する(Sc1)。したがって、第1言語の語句として自然な読み方と認識される発音記号が定型部分Qaから決定される。
また、音声合成部24Cは、指定文字列Qの非定型部分Qbに対応する発音記号を、第2言語用の発音規則データDa2を参照して決定する(Sc2)。したがって、第2言語の語句として自然な読み方と認識される発音記号が非定型部分Qbから決定される。なお、定型部分Qaの発音記号の決定(Sc1)と非定型部分Qbの発音記号の決定(Sc2)との先後を逆転することも可能である。
音声合成部24Cは、定型部分Qaおよび非定型部分Qbについて決定した発音記号の音声を表す音声信号Xを生成する(Sc3)。具体的には、音声合成部24Cは、まず、定型部分Qaおよび非定型部分Qbの発音記号に対応する複数の音声素片を音声素片データDb1から選択する(Sc31)。そして、音声合成部24Cは、音声素片データDb1から選択した各音声素片の特性を適宜に調整し(Sc32)、調整後の複数の音声素片を時間軸上で相互に接続することで音声信号Xを生成する(Sc33)。音声合成部24Cが生成した音声信号Xが放音装置15に供給されることで、施設内の利用者に対して案内音声Gが再生される。
第3実施形態では、指定文字列Qのうち非定型部分Qbについては第2言語用の発音規則データDa2(音声合成データD2)を利用した音声合成処理が実行される。したがって、第1実施形態と同様に、非定型部分Qbについて音韻および抑揚が聴感的に自然な案内音声Gを再生することが可能である。
また、第3実施形態では、音声合成プログラムP1および音声素片データDb1を利用して音声信号Xが生成されるから、第1実施形態および第2実施形態で例示した第2言語用の音声合成プログラムP2および音声素片データDb2は不要である。したがって、第1言語用の音声合成プログラムP1および音声素片データDb1と第2言語用の音声合成プログラムP2および音声素片データDb2とが必要な第2実施形態と比較して、記憶装置12に必要な記憶容量が削減されるという利点もある。また、第3実施形態では、第1信号X1と第2信号X2とを接続する接続処理(Sa3,Sb3)が不要である。例えば、第1信号X1と第2信号X2との時間的な関係を調整する処理(すなわち、第1信号X1のうち非定型部分Qbに対応した区間に第2信号X2を移動する処理)が不要である。したがって、定型部分Qaと非定型部分Qbとが自然に連結された案内音声Gが再生されるという利点もある。
<第4実施形態>
図12は、第4実施形態に係る音声処理装置100の機能に着目した構成図である。図12に例示される通り、第4実施形態の記憶装置12は、相異なる指定文字列Q(具体的には定型部分Qa)に対応する複数の配信情報Vを記憶する。任意の1種類の指定文字列Qに対応する配信情報Vは、当該指定文字列Qに関連する情報(以下「関連情報」という)Cを識別するための識別情報である。関連情報Cは、案内音声Gの再生とともに施設の利用者に提示すべき情報である。例えば指定文字列Qに関連する文字列、または、当該文字列を他言語に翻訳した文字列が、関連情報Cの好適例である。
第4実施形態の制御装置11は、図12に例示される通り、第1実施形態から第3実施形態の何れかと同様の文字列設定部22および音声合成部24(24A−24Cの何れか)に加えて、変調処理部26および混合処理部28として機能する。変調処理部26は、文字列設定部22が設定した指定文字列Qに応じた変調信号Mを生成する。変調信号Mは、指定文字列Qに対応した配信情報Vを音響成分として含む信号である。変調処理部26は、記憶装置12に記憶された複数の配信情報Vのうち指定文字列Qに対応する配信情報Vを検索し、当該配信情報Vを示す変調信号Mを生成する。具体的には、変調処理部26は、例えば所定の周波数の正弦波等の搬送波を配信情報Vにより変調する周波数変調、または、拡散符号を利用した配信情報Vの拡散変調等の変調処理により変調信号Mを生成する。配信情報Vの音響成分の周波数帯域は、例えば、放音装置15による再生が可能な周波数帯域であり、かつ、利用者が通常の環境で聴取する音の周波数帯域を上回る範囲(例えば18kHz以上かつ20kHz以下)に包含される。
図12の混合処理部28は、音声合成部24が生成した音声信号Xと変調処理部26が生成した変調信号Mとを混合(例えば加算)することで音響信号Yを生成する。第4実施形態では、混合処理部28が生成した音響信号Yが放音装置15に供給される。放音装置15は、音響信号Yが表す音を放音する。すなわち、音声信号Xが表す案内音声Gと変調信号Mが表す配信情報Vの音響成分とが放音装置15から再生される。以上の説明から理解される通り、第1実施形態の放音装置15は、指定文字列Qを表す案内音声Gを再生する音響機器として機能するほか、空気振動としての音波を伝送媒体とした音響通信で配信情報Vを送信する送信部としても機能する。
施設内の利用者は、図12の端末装置50を携帯する。端末装置50は、例えば携帯電話機またはスマートフォン等の可搬型の情報端末である。なお、例えば、鉄道事業者の施設内に設置される電光掲示板、または商業施設に設置される電子看板(例えばデジタルサイネージ)等の案内用の表示端末を端末装置50として利用することも可能である。
図13は、端末装置50の構成図である。図13に例示される通り、端末装置50は、制御装置51と記憶装置52と収音装置53と表示装置54とを具備する。収音装置53は、周囲の音を収音する音響機器(マイクロホン)である。具体的には、収音装置53は、音声処理装置100の放音装置15による再生音を収音して音響信号Zを生成する。音響信号Zは、配信情報Vの音響成分を含み得る。以上の説明から理解される通り、収音装置53は、端末装置50の相互間の音声通話または動画撮影時の音声収録に利用されるほか、空気振動としての音波を伝送媒体とする音響通信で配信情報Vを受信する受信部としても機能する。
制御装置51は、例えばCPU等の処理回路で構成され、端末装置50の各要素を統括的に制御する。表示装置54(例えば液晶表示パネル)は、制御装置51による制御のもとで各種の画像を表示する。記憶装置52は、制御装置51が実行するプログラムと制御装置51が使用する各種のデータとを記憶する。例えば半導体記録媒体または磁気記録媒体等の公知の記録媒体が記憶装置52として採用され得る。第4実施形態の記憶装置52は、図13に例示される通り、参照テーブルTを記憶する。参照テーブルTは、音声処理装置100から送信され得る複数の配信情報V(V1,V2,…)の各々について関連情報C(C1,C2,…)が登録されたデータテーブルであり、配信情報Vに対応する関連情報Cを特定するために使用される。
制御装置51は、記憶装置52に記憶されたプログラムを実行することで、音声処理装置100が送信した配信情報Vに関する処理を実行するための複数の機能(情報抽出部511および提示制御部513)を実現する。なお、制御装置51の一部の機能を専用の電子回路で実現した構成、または、制御装置51の機能を複数の装置に分散した構成も採用され得る。
情報抽出部511は、収音装置53が生成した音響信号Zから配信情報Vを抽出する。具体的には、情報抽出部511は、音響信号Zのうち配信情報Vの音響成分を含む周波数帯域を強調するフィルタ処理と、配信情報Vに対する変調処理に対応した復調処理とを実行する。
提示制御部513は、表示装置54による情報の表示を制御する。第4実施形態の提示制御部513は、情報抽出部511が抽出した配信情報Vに対応する関連情報Cを表示装置54に表示させる。具体的には、提示制御部513は、参照テーブルTに登録された複数の関連情報Cのうち情報抽出部511が抽出した配信情報Vに対応する関連情報Cを検索し、当該関連情報Cを表示装置54に表示させる。したがって、音声処理装置100の放音装置15による案内音声Gの再生に並行して、当該案内音声Gに対応した関連情報Cが表示装置54に表示される。
第4実施形態においても第1実施形態と同様の効果が実現される。また、第4実施形態では、関連情報Cを示す配信情報Vが音声処理装置100から端末装置50に送信される。したがって、案内音声Gに関連する関連情報Cを端末装置50により利用者に提示することが可能である。
<変形例>
以上に例示した各形態は多様に変形され得る。前述の各形態に適用され得る具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様は、相互に矛盾しない範囲で適宜に併合され得る。
(1)前述の各形態では、表示装置13に表示された入力欄132に入力された文字列を非定型部分Qbとしたが、指定文字列Qのうちの非定型部分Qbを文字列設定部22が設定する方法は以上の例示に限定されない。例えば、形態素解析等の自然言語処理を指定文字列Qに対して実行することで固有名詞を抽出し、指定文字列Qのうち固有名詞の部分を非定型部分Qbとして設定することも可能である。また、定型部分Qaとは別個の文字種を利用して管理者が非定型部分Qbを図3の入力欄132に入力することも可能である。また、指定文字列Qを管理者が音声入力できる構成も好適である。例えば、管理者が発生した音声に対する音声認識で指定文字列Qが特定される。
(2)移動体通信網またはインターネット等の通信網を介して端末装置(例えば携帯電話機またはスマートフォン)と通信するサーバ装置により音声処理装置100を実現することも可能である。例えば、音声処理装置100は、端末装置から通信網を介して受信した指定文字列Qから音声信号Xを生成し、当該音声信号Xを端末装置に送信する。音声処理装置100が生成した音声信号Xのうちの非定型部分Qbを、第1実施形態の収録信号Rとして利用することも可能である。また、使用頻度が低い(あるいは低音質でよい)非定型部分Qbの第2信号X2を、スマートフォン等の情報端末で実現された音声処理装置100により生成し、使用頻度が高い(あるいは高品質が要求される)非定型部分Qbの第2信号X2を、サーバ装置で実現された音声処理装置100により生成することも可能である。
(3)第4実施形態では、音波を伝送媒体とする音響通信で音声処理装置100から端末装置50に配信情報Vを送信したが、音声処理装置100から配信情報Vを送信するための通信方式は音響通信に限定されない。例えば、電波または赤外線等の電磁波を伝送媒体とした無線通信で音声処理装置100から端末装置50に配信情報Vを送信することも可能である。例えば、前述の各形態における放音装置15が無線通信用の通信機器に置換される。具体的には、Bluetooth(登録商標)またはWiFi(登録商標)等の無線通信が配信情報Vの送信に好適である。
以上の例示から理解される通り、音声処理装置100による配信情報Vの送信には、移動体通信網等の通信網が介在しない近距離無線通信が好適であり、音波を伝送媒体とする音響通信と電磁波を伝送媒体とする無線通信とは、近距離無線通信の例示である。なお、前述の各形態で例示した音響通信によれば、例えば遮音壁の設置により通信範囲を容易に制御できるという利点がある。
(4)前述の各形態では、関連情報Cの識別情報を配信情報Vとして例示したが、関連情報C自体を配信情報Vとして音声処理装置100から送信することも可能である。関連情報Cを配信情報Vとして送信する構成では、端末装置50に参照テーブルTを保持する必要はない。以上の例示から理解される通り、配信情報Vは、関連情報Cを示す情報として包括的に表現される。
(5)前述の各形態では、関連情報Cを表示装置54に表示したが、関連情報Cを端末装置50の利用者に提示する方法は以上の例示に限定されない。例えば、関連情報Cが表す音声を放音装置15により再生することで関連情報Cを利用者に提示することも可能である。関連情報Cが表す音声の生成には、例えば公知の音声合成技術が利用され得る。
(6)第1実施形態において、収録信号Rが表す音声の発声者と、音声素片データDb2が表す音声素片の発声者とが相違する場合がある。この場合、第1信号X1と第2信号X2とで声質が相違するから、音声信号Xが表す音声が聴感的に不自然な印象となる可能性がある。そこで、第1信号X1および第2信号X2の一方または双方の声質を調整することで、第1信号X1と第2信号X2との声質を近付ける(理想的には一致させる)構成が好適である。声質の調整には、公知の声質変換技術が任意に採用され得る。
(7)音声合成処理に利用される音声合成データD(D1またはD2)の内容は、以上の例示に限定されない。例えば、音声の抑揚(例えば音高または音量の時間的な変化)を決定するための抑揚データを音声合成データDに含ませてもよい。例えば、音声合成データD1には、第1言語の発音時の抑揚の傾向が反映された抑揚データが含まれ、音声合成データD2には、第2言語の発音時の抑揚の傾向が反映された抑揚データが含まれる。第1実施形態または第2実施形態において、第2処理(Sa2,Sb2)には音声合成データD2の抑揚データが適用される。また、第2実施形態の第1処理Sb1には音声合成データD1の抑揚データが適用される。
(8)前述の各形態に係る音声処理装置100は、各形態での例示の通り、制御装置11とプログラムとの協働により実現される。本発明の好適な態様に係るプログラムは、コンピュータに、指定文字列のうちの第1部分を第1言語で発音した音声と、前記指定文字列のうち前記第1部分とは相違する第2部分を発音した音声とを表す音声信号を生成する音声合成処理を実行させ、音声合成処理では、前記第2部分について、前記第1言語とは相違する第2言語用の音声合成データを利用する。以上に例示したプログラムは、コンピュータが読取可能な記録媒体に格納された形態で提供されてコンピュータにインストールされ得る。記録媒体は、例えば非一過性(non-transitory)の記録媒体であり、CD-ROM等の光学式記録媒体(光ディスク)が好例であるが、半導体記録媒体または磁気記録媒体等の公知の任意の形式の記録媒体を包含し得る。なお、非一過性の記録媒体とは、一過性の伝搬信号(transitory, propagating signal)を除く任意の記録媒体を含み、揮発性の記録媒体を除外するものではない。また、通信網を介した配信の形態でプログラムをコンピュータに提供することも可能である。
(9)以上に例示した形態から、例えば以下の構成が把握される。
<態様1>
本発明の好適な態様(態様1)に係る音声処理方法は、指定文字列のうちの第1部分を第1言語で発音した音声と、前記指定文字列のうち前記第1部分とは相違する第2部分を発音した音声とを表す音声信号を生成し、前記音声信号の生成においては、前記第2部分について、前記第1言語とは相違する第2言語用の音声合成データを利用した音声合成処理を実行する。以上の態様では、指定文字列のうちの第1部分を第1言語で発音した音声と、指定文字列のうち第2部分を発音した音声とを表す音声信号を生成する過程において、第2部分については第2言語用の音声合成データを利用した音声合成処理が実行される。したがって、指定文字列の全体について第1言語用の音声合成データを利用した音声合成処理を実行する場合と比較して、第2部分について音韻および抑揚が聴感的に自然である音声の音声信号を生成できる。
<態様2>
態様1の好適例(態様2)において、前記音声信号の生成は、前記指定文字列のうち前記第1部分に対応する音声を表す第1信号を、事前に収録された音声を表す複数の収録信号から選択する第1処理と、前記指定文字列のうち前記第2部分に対応する音声を表す第2信号を、前記第2言語用の音声合成データを利用した音声合成処理により生成する第2処理と、前記第1処理で選択した前記第1信号と前記第2処理で生成した前記第2信号とを接続することで前記音声信号を生成する接続処理とを含む。以上の態様では、指定文字列のうち第1部分に対応する音声を表す第1信号が複数の収録信号から選択される。したがって、高音質な音声で第1部分が発音された音声信号を生成できるという利点がある。
<態様3>
態様1の好適例(態様3)において、前記音声信号の生成は、前記指定文字列のうち前記第1部分に対応する音声を表す第1信号を、前記第1言語用の音声合成データを利用した音声合成処理により生成する第1処理と、前記指定文字列のうち前記第2部分に対応する音声を表す第2信号を、前記第2言語用の音声合成データを利用した音声合成処理により生成する第2処理と、前記第1処理で生成した前記第1信号と前記第2処理で生成した前記第2信号とを接続することで前記音声信号を生成する接続処理とを含む。以上の態様では、指定文字列のうち第1部分に対応する音声を表す第1信号が、第1言語用の音声合成データを利用した音声合成処理により生成される。したがって、第1部分の音声を事前に収録する必要がないという利点がある。
<態様4>
態様1の好適例(態様4)では、前記音声信号の生成において、前記第1言語用の発音規則データにより前記第1部分の発音記号を決定し、前記第1言語用の発音規則データとは相違する前記第2言語用の発音規則データにより前記第2部分の発音記号を決定し、前記第1部分および前記第2部分について決定した発音記号の音声を表す前記音声信号を生成する。以上の態様では、第1部分の発音記号が第1言語用の発音規則データにより決定され、第2部分の発音記号が第2言語用の発音規則データにより決定されて、各発音記号の音声を表す音声信号が生成される。したがって、発音記号から音声信号を生成する処理を第1部分と第2部分とで共通化できるという利点がある。
<態様5>
態様1から態様4の何れかの好適例(態様5)において、前記第2部分は、前記指定文字列のうち固有名詞の部分である。指定文字列のうち固有名詞の部分は一般的に使用頻度が低いから、音声を事前に収録することは困難である。指定文字列のうち固有名詞の部分を第2部分とした構成によれば、使用頻度が低い第2部分についても音声を生成できるという利点がある。
<態様6>
態様1から態様5の何れかの好適例(態様6)において、前記音声信号と、当該音声信号が表す音声に対応した関連情報を示す配信情報を音響成分として含む変調信号とを混合して放音装置に供給する。以上の態様では、配信情報を音響成分として含む変調信号が音声信号に混合されたうえで放音装置から再生される。すなわち、音声信号が表す音声を放音するための放音装置が、配信情報を送信するための送信機として利用される。したがって、配信情報の送信に専用される送信機が必要である構成と比較して、装置構成が簡素化されるという利点がある。
<態様7>
本発明の好適な態様(態様7)に係る音声処理装置は、指定文字列のうちの第1部分を第1言語で発音した音声と、前記指定文字列のうち前記第1部分とは相違する第2部分を発音した音声とを表す音声信号を生成する音声合成部を具備し、前記音声合成部は、前記第2部分について、前記第1言語とは相違する第2言語用の音声合成データを利用した音声合成処理を実行する。以上の態様では、指定文字列のうちの第1部分を第1言語で発音した音声と、指定文字列のうち第2部分を発音した音声とを表す音声信号を生成する音声合成部が、第2部分については第2言語用の音声合成データを利用した音声合成処理を実行する。したがって、指定文字列の全体について第1言語用の音声合成データを利用した音声合成処理を実行する構成と比較して、第2部分について音韻および抑揚が聴感的に自然である音声の音声信号を生成できる。
100…音声処理装置、11…制御装置、12…記憶装置、13…表示装置、14…操作装置、15…放音装置、22…文字列設定部、24A,24B,24C…音声合成部、26…変調処理部、28…混合処理部、32A,32B…第1処理部、34…第2処理部、36…接続処理部、50…端末装置、51…制御装置、52…記憶装置、53…収音装置、54…表示装置。

Claims (7)

  1. 指定文字列のうちの第1部分を第1言語で発音した音声と、前記指定文字列のうち前記第1部分とは相違する第2部分を発音した音声とを表す音声信号を生成し、
    前記音声信号の生成においては、前記第2部分について、前記第1言語とは相違する第2言語用の音声合成データを利用した音声合成処理を実行する
    音声処理方法。
  2. 前記音声信号の生成は、
    前記指定文字列のうち前記第1部分に対応する音声を表す第1信号を、事前に収録された音声を表す複数の収録信号から選択する第1処理と、
    前記指定文字列のうち前記第2部分に対応する音声を表す第2信号を、前記第2言語用の音声合成データを利用した音声合成処理により生成する第2処理と、
    前記第1処理で選択した前記第1信号と前記第2処理で生成した前記第2信号とを接続することで前記音声信号を生成する接続処理とを含む
    請求項1の音声処理方法。
  3. 前記音声信号の生成は、
    前記指定文字列のうち前記第1部分に対応する音声を表す第1信号を、前記第1言語用の音声合成データを利用した音声合成処理により生成する第1処理と、
    前記指定文字列のうち前記第2部分に対応する音声を表す第2信号を、前記第2言語用の音声合成データを利用した音声合成処理により生成する第2処理と、
    前記第1処理で生成した前記第1信号と前記第2処理で生成した前記第2信号とを接続することで前記音声信号を生成する接続処理とを含む
    請求項1の音声処理方法。
  4. 前記音声信号の生成において、前記第1言語用の発音規則データにより前記第1部分の発音記号を決定し、前記第1言語用の発音規則データとは相違する前記第2言語用の発音規則データにより前記第2部分の発音記号を決定し、前記第1部分および前記第2部分について決定した発音記号の音声を表す前記音声信号を生成する
    請求項1の音声処理方法。
  5. 前記第2部分は、前記指定文字列のうち固有名詞の部分である
    請求項1から請求項4の何れかの音声処理方法。
  6. 前記音声信号と、当該音声信号が表す音声に対応した関連情報を示す配信情報を音響成分として含む変調信号とを混合して放音装置に供給する
    請求項1から請求項5の何れかの音声処理方法。
  7. 指定文字列のうちの第1部分を第1言語で発音した音声と、前記指定文字列のうち前記第1部分とは相違する第2部分を発音した音声とを表す音声信号を生成する音声合成部を具備し、
    前記音声合成部は、前記第2部分について、前記第1言語とは相違する第2言語用の音声合成データを利用した音声合成処理を実行する
    音声処理装置。
JP2017022418A 2017-02-09 2017-02-09 音声処理方法、音声処理装置およびプログラム Active JP6897132B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017022418A JP6897132B2 (ja) 2017-02-09 2017-02-09 音声処理方法、音声処理装置およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017022418A JP6897132B2 (ja) 2017-02-09 2017-02-09 音声処理方法、音声処理装置およびプログラム

Publications (2)

Publication Number Publication Date
JP2018128607A true JP2018128607A (ja) 2018-08-16
JP6897132B2 JP6897132B2 (ja) 2021-06-30

Family

ID=63172844

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017022418A Active JP6897132B2 (ja) 2017-02-09 2017-02-09 音声処理方法、音声処理装置およびプログラム

Country Status (1)

Country Link
JP (1) JP6897132B2 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003295880A (ja) * 2002-03-28 2003-10-15 Fujitsu Ltd 録音音声と合成音声を接続する音声合成システム
JP2006030384A (ja) * 2004-07-13 2006-02-02 Sony Corp テキスト音声合成装置及びテキスト音声合成方法
JP2006048056A (ja) * 2004-08-05 2006-02-16 Motorola Inc 混合言語テキスト音声合成
US20130132069A1 (en) * 2011-11-17 2013-05-23 Nuance Communications, Inc. Text To Speech Synthesis for Texts with Foreign Language Inclusions
JP2013195928A (ja) * 2012-03-22 2013-09-30 Yamaha Corp 音声素片切出装置
JP2016153905A (ja) * 2014-07-29 2016-08-25 ヤマハ株式会社 情報管理システム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003295880A (ja) * 2002-03-28 2003-10-15 Fujitsu Ltd 録音音声と合成音声を接続する音声合成システム
JP2006030384A (ja) * 2004-07-13 2006-02-02 Sony Corp テキスト音声合成装置及びテキスト音声合成方法
JP2006048056A (ja) * 2004-08-05 2006-02-16 Motorola Inc 混合言語テキスト音声合成
US20130132069A1 (en) * 2011-11-17 2013-05-23 Nuance Communications, Inc. Text To Speech Synthesis for Texts with Foreign Language Inclusions
JP2013195928A (ja) * 2012-03-22 2013-09-30 Yamaha Corp 音声素片切出装置
JP2016153905A (ja) * 2014-07-29 2016-08-25 ヤマハ株式会社 情報管理システム

Also Published As

Publication number Publication date
JP6897132B2 (ja) 2021-06-30

Similar Documents

Publication Publication Date Title
AU2015297648B2 (en) Terminal device, information providing system, information presentation method, and information providing method
AU2015297647B2 (en) Information management system and information management method
CN111402843B (zh) 说唱音乐生成方法、装置、可读介质及电子设备
JP2010160316A (ja) 情報処理装置及びテキスト読み上げ方法
JP2016153905A (ja) 情報管理システム
KR20150105075A (ko) 자동 통역 장치 및 방법
KR101877559B1 (ko) 모바일 단말기를 이용한 언어 자가학습 서비스 제공방법, 이를 실행하는 모바일 단말기 및 이를 실행하기 위한 애플리케이션을 저장하는 기록매체
US11790913B2 (en) Information providing method, apparatus, and storage medium, that transmit related information to a remote terminal based on identification information received from the remote terminal
JP6596903B2 (ja) 情報提供システムおよび情報提供方法
JP6897132B2 (ja) 音声処理方法、音声処理装置およびプログラム
KR102416041B1 (ko) 다국어 동시 학습 시스템
JP6809177B2 (ja) 情報処理システムおよび情報処理方法
JP6686306B2 (ja) 情報提供装置および情報提供方法
JP6984769B2 (ja) 情報提供方法および情報提供システム
JP6834634B2 (ja) 情報提供方法および情報提供システム
JP7192948B2 (ja) 情報提供方法、情報提供システムおよびプログラム
JP6780529B2 (ja) 情報提供装置および情報提供システム
KR20180103273A (ko) 음성 합성 장치 및 음성 합성 방법
KR20180115994A (ko) 사용자 고유 tts 기반의 서비스 제공 시스템 및 방법
JP2010079190A (ja) 音声合成用辞書更新方法、端末装置および音声合成システム
KR20100008422A (ko) 텍스트 음성 변환 기술을 이용한 언어 학습 시스템 및 그의구동방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210322

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210511

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210524

R151 Written notification of patent or utility model registration

Ref document number: 6897132

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151