JPWO2015111256A1 - 音声調整システム、サーバ及び車載装置 - Google Patents

音声調整システム、サーバ及び車載装置 Download PDF

Info

Publication number
JPWO2015111256A1
JPWO2015111256A1 JP2015558732A JP2015558732A JPWO2015111256A1 JP WO2015111256 A1 JPWO2015111256 A1 JP WO2015111256A1 JP 2015558732 A JP2015558732 A JP 2015558732A JP 2015558732 A JP2015558732 A JP 2015558732A JP WO2015111256 A1 JPWO2015111256 A1 JP WO2015111256A1
Authority
JP
Japan
Prior art keywords
data
voice
processing unit
server
vehicle device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015558732A
Other languages
English (en)
Inventor
古郡 弘滋
弘滋 古郡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Publication of JPWO2015111256A1 publication Critical patent/JPWO2015111256A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser

Abstract

車載装置の記憶容量や処理能力に依存せずに、ユーザに提供する情報の多様化を図ることができる音声調整システム、サーバ及び車載装置を提供する。携帯端末200は、ユーザ操作を介して音声調整用のパラメータである個人別TTSパラメータの入力を受け付け、サービス提供サーバ300は、発話内容を示すテキストデータを記憶する記憶部302を有し、個人別TTSパラメータを取得し、そのパラメータに基づいてテキストデータから音声データを生成し、車載装置100は、音声データを取得し、取得した音声データに基づいて音声を出力する。

Description

本発明は、音声調整システム、サーバ及び車載装置に関する。
本技術分野の背景技術として、特開2006−301059号公報(特許文献1)がある。この公報には、「音声データIDまたはテキストデータを含む音声出力要求を、ユーザが設定したナレータの音質に対応した変換テーブルを用いて変換し、変換後のデータが音声データIDの場合は音声データを使って音声出力し、テキストデータの場合は音声合成部で音声データを合成して音声出力する。」と記載されている。
特開2006−301059号公報
特許文献1では、例えば、ユーザが選択できるメッセージの声質の種類を多くするためには、その特徴を示す特徴データをその分だけ記憶する必要があるが、車両用ナビゲーション装置における記憶装置の容量には限界がある。
そこで、本発明は、車載装置の記憶容量や処理能力に依存せずに、ユーザに提供する情報の多様化を図ることができる音声調整システム、サーバ及び車載装置を提供することを目的とする。
上記目的を達成するために、本発明の音声調整システムは、ユーザ操作を受け付ける携帯端末と、前記携帯端末が通信可能なサーバと、音声データに基づいて音声を出力する車載装置とを備え、前記携帯端末は、前記ユーザ操作を介して音声調整用のパラメータの入力を受け付ける端末側処理部を有し、前記サーバは、発話内容を示すデータを記憶する記憶部と、前記パラメータを取得し、前記パラメータに基づいて前記データから音声データを生成するサーバ側処理部とを有し、前記車載装置は、前記音声データを取得し、取得した前記音声データに基づいて音声を出力する車載側処理部を有することを特徴とする。
本発明によれば、車載装置の記憶容量や処理能力に依存せずに、ユーザに提供する情報の多様化を図ることができる。
図1は本発明の実施形態に係る音声調整システムを示した図である。 図2は車載装置の構成を示したブロック図である。 図3は携帯端末の構成を示したブロック図である。 図4は携帯端末が音声調整プログラムを実行したときの動作を示した図である。 図5は調整画面の一例を示した図である。 図6は車載装置の起動時の動作を示した図である。 図7は編集画面の一例を示した図である。 図8は車載装置のユーザが音声認識を利用して行先設定を行うときの動作を示した図である。 図9は携帯端末がメール読み上げプログラムを実行したときの動作の一例を示した図である。
以下、図面を参照して本発明の実施の形態について説明する。
図1は、本発明の実施形態に係る音声調整システムを示した図である。
この音声調整システム1は、移動体である車両10に搭載される車載装置100と、様々なユーザが携帯する携帯端末200と、インターネット網などの公衆通信回線網N1に接続されたサービス提供サーバ300とを備えている。
なお、後述するように、車載装置100と携帯端末200とは、近距離無線通信により通信接続が可能である。また、携帯端末200とサービス提供サーバ300とは、公衆通信回線網N1を介して通信接続が可能である。
図2は、車載装置100の構成を示したブロック図である。
車載装置100は、情報処理部101と、記憶部102と、表示部103と、入力部104と、GPS受信装置105と、近距離通信部106と、音声入出力部107とを備えている。これらの各デバイスは、バス108によって電気的に接続され、相互にデータの受け渡しが可能に構成されている。
情報処理部101は、バス112によって相互に接続されたCPU109、ROM110、RAM111および周辺回路(不図示)を有し、車載装置100を中枢的に制御するコンピューター(車載側処理部)として機能する。例えば、車載装置100の情報処理部101は、記憶部102に記憶される制御プログラムを実行することにより、公知のカーナビゲーション装置やカーオーディオ装置が実行する経路案内処理や音声処理などの各種処理を実行する。
経路案内処理の場合、情報処理部101は、GPS受信装置105で受信されたGPS電波などに基づいて車両10の現在地を特定し、記憶部102に記憶された地図データを用いて、出発地(例えば、現在地)から目的地に至る経路を探索する。また、情報処理部101は、地図画像や交通情報などのグラフィックス情報を生成し、表示部103に出力するとともに、記憶部102から経路案内を行うための音声データを読み出し、車両に設置された不図示のスピーカから案内音声を放音させる。
記憶部102には、情報処理部101が実行する制御プログラムや各種のデータが記憶される。この記憶部102には、例えば、HDD(Hard Disk Drive)、半導体メモリ、CD-ROM、または、DVD-ROMが適用される。本実施形態では、この記憶部102に、ナビゲーション処理を行う制御プログラムや、携帯端末200のユーザが発声した音声などを携帯端末200経由でサービス提供サーバ300に送信する音声対話型のアプリケーションプログラム(以下、会話プログラムと言う)が記憶されている。
なお、これらプログラムは、公衆通信回線網N1(図1)を介して取得(ダウンロード)したプログラムでも良いし、車載装置100に予めインストールされているプログラムでも良い。
表示部103は、情報処理部101の制御の下、各種の画像を表示する。表示部103には、例えば、液晶表示装置が使用される。
入力部104は、ユーザ操作を検出して情報処理部101に通知する装置であり、操作スイッチや、表示画面に重ねた配置された透過型のタッチパネルを備えている。
GPS受信装置105は、GPS衛星から送信されるGPS電波を受信し、GPS電波に基づいて自車位置や方位などを算出し、情報処理部101に出力する。
近距離通信部106は、情報処理部101の制御の下、近距離無線通信を行うための無線通信インターフェースである。この近距離通信部106を用いることにより、車載装置100と車両内の携帯端末200との間で無線通信することができる。本実施形態では、近距離無線通信にBluetooth(登録商標)を用いているが、Wi-Fi(登録商標)などでも良い。
音声入出力部107は、デコーダやアンプなどを備え、情報処理部101の制御の下、各種の音声を、車両10に設置されたスピーカから出力させる。例えば、音声入出力部107は、記憶部102に記憶された音声データから音声信号を生成し、スピーカから放音させる。この音声の具体例としては、ナビゲーション用の案内音声、CD音声、ラジオ音声、携帯端末200から送信された各種の音声である。また、音声入出力部107は、マイクやAD変換回路を有し、ユーザが発声した音声を音声データに変換する機能も具備している。なお、車載装置100は、公知の車載装置が具備する他の構成を更に具備しても良い。
図3は、携帯端末200の構成を示したブロック図である。
携帯端末200は、スマートフォンやPDA(Personal Data Assistance)である。図3に示すように、携帯端末200は、情報処理部201と、記憶部202と、表示部203と、入力部204と、GPS受信装置205と、通信部206と、近距離通信部207と、音声入出力部208とを備えている。これらの各デバイスは、バス209によって電気的に接続され、相互にデータの受け渡しが可能に構成されている。
情報処理部201は、バス213によって相互に接続されたCPU210、ROM211、RAM212および周辺回路(不図示)を有し、携帯端末200を中枢的に制御するコンピューター(端末側処理部)として機能する。
例えば、携帯端末200の情報処理部201は、記憶部202に記憶される制御プログラムを実行することにより、公知の携帯端末が具備する電話機能や、電子メールを送受信・閲覧するメール機能や、インターネットをブラウジングするブラウジング機能や、インターネットなどから取得した各種アプリケーションプログラムを実行する機能を具備する。
記憶部202には、情報処理部201が実行する制御プログラムや各種のデータが記憶される。この記憶部202には、例えば、半導体メモリまたはHDDが適用される。
本実施形態では、この記憶部202に、車載装置100で使用される音声(ナビゲーション用の案内音声)を調整するためのアプリケーションプログラム(以下、音声調整プログラムと言う)や、車載装置100と通信するためのアプリケーションプログラム(以下、通信プログラムと言う)や、サービス提供サーバ300に記憶されるテキストデータを編集するためのアプリケーションプログラム(以下、編集プログラムと言う)が記憶されている。
これらプログラムは、公衆通信回線網N1(図1)を介して取得(ダウンロード)したプログラムでも良いし、携帯端末200に予めインストールされているプログラムでも良い。
表示部203は、情報処理部201の制御の下、各種の画像を表示する装置であり、例えば、液晶表示装置が使用される。
入力部204は、ユーザ操作を検出して情報処理部201に通知する装置であり、操作スイッチや、表示画面に重ねた配置された透過型のタッチパネルを備えている。
GPS受信装置205は、GPS衛星から送信されるGPS電波を受信し、GPS電波に基づいて携帯端末200の現在地や方位などを算出し、情報処理部201に出力する。
通信部206は、情報処理部201の制御の下、無線通信網(本実施形態では携帯電話通信網)を経由して公衆通信回線網N1(図1)などにアクセスし、公衆通信回線網N1などに接続された機器と通信するための通信インターフェースである。この通信部206により、携帯端末200とサービス提供サーバ300(図1)との間で通信することができる。また、この通信部206により他の携帯端末と電話やメールが可能である。
近距離通信部207は、情報処理部201の制御の下、近距離無線通信を行うための無線通信インターフェースである。この近距離通信部207を用いることにより、携帯端末200と車載装置100との間で無線通信することができる。
音声入出力部208は、情報処理部201の制御の下、各種の音声を、携帯端末200が備えるスピーカから出力させたり、ユーザの発した音声を、マイクを介して入力し、音声データに変換したりする。この音声入出力部208を用いることにより、他の携帯端末と電話したり、携帯端末200の記憶部202に記憶された楽曲などの音声データを再生したりすることができる。なお、車載装置100は、公知の車載装置が具備する他の構成を更に具備しても良い。
サービス提供サーバ300は、テキストデータから音声データを作成するなどのサービス、つまり、TTS(Text to speech)サービスを提供するサーバである。図1に示すように、サービス提供サーバ300は、情報処理部301と、記憶部302と、通信部303とを備えており、車載装置100よりも処理能力が高く、且つ、記憶容量が多い装置に構成されている。
情報処理部301は、CPU、ROMおよびRAMなどを備え、サービス提供サーバ300を中枢的に制御するコンピューター(サーバ側処理部)として機能する。
記憶部302には、情報処理部301が実行する制御プログラムや各種のデータが記憶される。この情報処理部301は、記憶部302に記憶される制御プログラムを実行することにより、テキストデータから音声データを作成する音声変換処理などを行うTTSエンジンとして機能することができる。
また、記憶部302には、車載装置100で再生する発話内容(経路案内用の音声など)を示すテキストデータを記述したデータベースや、経路検索などに用いるPoint of Interest(POI)のデータベースも記憶されている。
次に、この音声調整システム1で実行される処理を説明する。
図4は、携帯端末200が音声調整プログラムを実行したときの動作を示した図である。
携帯端末200の情報処理部201は、ユーザ操作に応じて音声調整プログラムを実行すると、サービス提供サーバ300へのログイン処理を行う(ステップS1A)。この場合、情報処理部201が、通信部206によりサービス提供サーバ300へアクセスし、ログイン画面を表示部203に表示させる。そして、携帯端末200のユーザが、入力部204を介してログイン情報(例えば、ユーザIDやパスワード)を入力することにより、ログインが完了する。
ログインが完了すると、サービス提供サーバ300の情報処理部301が、携帯端末200の画面に、音声調整用の画面(調整画面)を表示させる(ステップS2A)。
図5は、調整画面の一例を示した図である。
調整画面は、音声調整用のパラメータの入力を受け付ける画面であり、より具体的には、音声のピッチ、速度、高低(高さ)、抑揚、性別、種類の入力を受け付ける画面を表示する。なお、パラメータは、上記パラメータに限定されず、適宜に追加・変更しても良い。
図4に戻り、携帯端末200の入力部204を介して音声調整用のパラメータが入力されると、サービス提供サーバ300の情報処理部301は、これらパラメータ群を、個人別TTSパラメータとして、記憶部302に記憶(保存)する(ステップS3A)。
この場合、記憶部302には、携帯端末200を識別する識別情報(ユーザIDまたは端末ID)と対応づけて個人別TTSパラメータが記憶される。これにより、識別情報に基づいて個人別TTSパラメータを特定することができる。
このようにして、携帯端末200のユーザは、所有する携帯端末200を操作して所望のパラメータを設定し、サービス提供サーバ300に保存しておくことができる。このパラメータ設定時(音声調整プログラム実行時)には、携帯端末200を車載装置100に接続しておく必要がない。従って、ユーザは、車両10内に限らず、車両10外の任意の場所でパラメータの設定を行うことが可能である。
なお、上記パラメータ設定時において、サービス提供サーバ300が、予め定めたサンプルのテキストデータを、個人別TTSパラメータに基づいて音声データ化(音声変換)して携帯端末200に送り、携帯端末200側で再生するようにしてもよい。この構成によれば、ユーザが、自身が設定したパラメータの音声を迅速に確認することができる。
また、サービス提供サーバ300は処理能力が高いため、ほぼリアルタイムで音声データ化することが可能できる。従って、ユーザは、音声を確認しながらパラメータの調整を行うことができる。
図6は、車載装置100の起動時の動作を示した図である。なお、前提として、車載装置100と携帯端末200とを通信接続されているものとする。
車載装置100が起動すると、車載装置100の情報処理部101は、携帯端末200の通信プログラムを実行させる。これにより、車載装置100が携帯端末200を経由してサービス提供サーバ300にアクセスし、サーバ300との間で通信が可能になる。
この場合、車載装置100の情報処理部101は、サービス提供サーバ300から、個人別TTSパラメータにより調整された音声データをダウンロードする(ステップS1B)。なお、サービス提供サーバ300は、携帯端末200から識別情報(ユーザIDまたは端末ID)を取得し、この識別情報に基づいて単一の個人別TTSパラメータを特定すれば良い。また、この方法に限らず、携帯端末200または車載装置100に対応する個人別TTSパラメータを特定するための公知の技術を広く適用可能である。
ここで、上記音声データは、サービス提供サーバ300の記憶部302に記憶された定型文のテキストデータ群を音声変換したデータである。つまり、サービス提供サーバ300は、TTSエンジンにより、個人別TTSパラメータに基づいて各テキストデータを音声データ化する。これによって、個人別TTSパラメータにより調整された音声で各テキストデータの文字に対応する音声のデータを生成する。この音声変換処理は、車載装置100からダウンロード指示があったときに実行しても良いし、ダウンロード指示よりも前のタイミング(例えば、個人別TTSパラメータが保存された後の適当なタイミング)で実行しても良い。
ダウンロードが終了すると、車載装置100の情報処理部101は、音声データを記憶部102に記憶させ、記憶した音声データを、予め指定されたタイミングで音声入出力部107によって再生する(ステップS2B)。これにより、例えば、ダウンロード直後に、”こんにちは、***さん”、”お誕生日おめでとう”、”今日も安全運転で行きましょう”と再生することができ、予め設定した自宅に到着したタイミングなどで、”お疲れ様でした”を再生することができる。
このようにして、サービス提供サーバ300で、携帯端末200のユーザが希望する音声に変換し、その音声を、車載装置100で再生することができる。
また、ユーザが携帯端末200を操作し、編集プログラムを実行させることにより、サービス提供サーバ300に記憶されるテキストデータを編集することも可能である。この場合、図4に示したステップS1Aと同様のログイン処理を行い、ログインが完了すると、サービス提供サーバ300の情報処理部301が、携帯端末200の画面に、テキストデータ編集用の画面(編集画面)を表示させる。
図7は、編集画面の一例を示した図である。
この編集画面は、車載装置100で再生する音声内容に対応する定型文のテキストデータの編集を受け付ける画面である。図7に示すように、編集画面には、サービス提供サーバ300の記憶部302に記憶されるテキストデータ群が表示され、各テキストデータの編集を受け付ける。また、編集されたテキストデータは、携帯端末200を識別する識別情報(ユーザIDまたは端末ID)と対応づけて記憶部302に記憶される。
このようにして、携帯端末200のユーザは、所有する携帯端末200を操作してテキストデータを編集し、サービス提供サーバ300に保存しておくことができる。この編集時(編集プログラム実行時)には、携帯端末200を車載装置100に接続しておく必要がないため、ユーザは、車外などの任意の場所でテキストデータの編集を行うことができる。
図8は、車載装置100のユーザが音声認識を利用して行先設定を行うときの動作を示した図である。なお、この場合も、前提として、車載装置100と携帯端末200とが通信接続されているものとする。また、車載装置100の情報処理部101は、ユーザ操作に応じて会話プログラムを実行し、音声入出力部107を介して行先(目的地)を指定する音声の入力を待ち受け、音声を入力すると、その音声に対応する音声データを、携帯端末200を経由してサービス提供サーバ300に送信する。
サービス提供サーバ300の情報処理部301は、携帯端末200を経由して受信した音声データを音声認識し、音声認識結果を検索キーとしてPOI検索(POIのデータベースの検索)を行う(ステップS1C)。
次いで、サービス提供サーバ300の情報処理部301は、TTSエンジンにより、個人別TTSパラメータを使用して検索結果を読み上げる音声データを生成し、携帯端末200を経由して車載装置100に送信する(ステップS2C)。これにより、個人別TTSパラメータで調整された声の音声データ、つまりユーザが希望する声の音声データが生成され、車載装置100に送信される。
続いて、車載装置100の情報処理部101は、受信した音声データを再生する処理を行う(ステップS3C)。これにより、車載装置100においては、ユーザが希望する声で、例えば、”検索結果 ○○件有ります”、”1件目 ・・・ 2件目 ・・・・・”といった音声が再生される。
その後、ユーザ操作により適切な候補(行き先)が選択されると、車載装置100の情報処理部101は、現在地から行き先へ至る推奨経路を検索する処理(行き先設定)を行う(ステップS4C)。
推奨経路が決定すると、車載装置100の情報処理部101は、経路案内処理を開始することにより、例えば、”ルートガイドを始めます・・・300m先を右折します・・・”といった案内音声を再生する(ステップS5C)。
この場合、案内音声は、サービス提供サーバ300により個人別TTSパラメータに基づいて調整された音声で放音される。つまり、サービス提供サーバ300は、記憶部302に記憶された案内音声のテキストデータを、個人別TTSパラメータに基づいて予め音声データ化しておき、サービス提供サーバ300から携帯端末200を経由して車載装置100に送信し、車載装置100が記憶部102に記憶しておくことにより、車載装置100で調整済みの案内音声を再生することができる。
このようにして、ユーザが希望する音声で経路案内を行うことができる。なお、このサービス提供サーバ300が音声データ化するタイミングや、音声データを車載装置100に送信するタイミングは、案内音声の再生前であれば任意のタイミングに設定することが可能である。
以上説明したように、本実施の形態によれば、携帯端末200は、ユーザ操作を介して音声調整用のパラメータである個人別TTSパラメータの入力を受け付け、サービス提供サーバ300は、発話内容を示すテキストデータを記憶する記憶部302を有し、個人別TTSパラメータを取得し、そのパラメータに基づいてテキストデータから音声データを生成し、車載装置100は、音声データを取得し、取得した音声データに基づいて音声を出力するので、車載装置100の記憶容量や処理能力に依存せずに、ユーザが所望する音声を車載装置100側で再生することができる。また、車載装置100よりも処理能力が高いサービス提供サーバ300で音声変換するので、車載装置100で音声変換する場合よりも音声変換の調整範囲を広くすることができる。これらにより、ユーザに提供する情報の多様化を図ることが可能になる。
しかも、携帯端末200とサービス提供サーバ300との間の通信だけで個人別TTSパラメータを設定するので、車載装置100を操作することなく、個人別TTSパラメータを設定することができる。従って、任意の場所、且つ、任意のタイミングで、個人別TTSパラメータを設定することができ、利便性が向上する。
なお、車載装置100側で個人別TTSパラメータを設定しようとすると、専用のメニュー画面やプログラムを用意する必要が生じ、車載装置100の機能や性能に依存してしまう。言い換えれば、本実施形態では、車載装置100の機能や性能に依存せずに、パラメータの設定や所望の声に調整された音声データの取得・再生を行うことができる。
また、個人別TTSパラメータは、音声のピッチ、速度、高低(高さ)などを含むため、ユーザが希望する音声に調整し易い。
さらに、テキストデータから音声データを生成するので、公知の音声変換技術を広く適用することができ、且つ、音声内容の編集や作成などを容易に行うことができる。
また、携帯端末200の情報処理部(端末側処理部)201は、ユーザ操作を介して、サービス提供サーバ300に記憶されるテキストデータの編集を受け付け、サービス提供サーバ300の情報処理部(サーバ側処理部)301は、上記編集を行うようにテキストデータを編集するので、ユーザが所望する音声内容に容易に調整できる。この場合も、車載装置100を操作することなく、データを編集できるので、任意の場所、且つ、任意のタイミングで編集することができ、利便性が向上し、車載装置100の機能や性能に依存することなく編集が可能になる。
また、上述の実施形態は、あくまで本発明の一態様に過ぎず、本発明の範囲内で任意に変更が可能である。例えば、上記実施形態では、音声のピッチ、速度、高低(高さ)、抑揚、性別などを調整可能にする場合を説明したが、これに限らない。例えば、いずれか一つ以上を調整可能にすればよく、調整項目は適宜に増減が可能である。
また、上記実施形態では、テキストデータを、個人別TTSパラメータに基づいて音声データ化する場合を説明したが、基準となる音声データを予めサービス提供サーバ300に記憶しておき、この音声データを、個人別TTSパラメータに基づいてピッチ、速度および高さなどを調整するようにしても良い。
また、上述の実施形態において、更に、携帯端末200にメール読み上げ用のアプリケーションプログラム(以下、メール読み上げプログラム)を記憶し、このプログラムを用いて、サービス提供サーバ300により個人別TTSパラメータで調整された声でメールの音声データを生成し、車載装置100で再生するようにしても良い。
図9は、携帯端末200がメール読み上げプログラムを実行したときの動作の一例を示した図である。
図9に示すように、携帯端末200の情報処理部201は、ユーザ操作に応じて音声調整プログラムを実行すると、メールのテキストをサービス提供サーバ300に送信する(ステップS1D)。次に、サービス提供サーバ300の情報処理部301は、TTSエンジンにより、個人別TTSパラメータを使用してメールのテキストを読み上げる音声データを生成し、携帯端末200を経由して車載装置100に送信する(ステップS2D)。続いて、車載装置100の情報処理部101は、受信した音声データを再生する処理を行う(ステップS3D)。これにより、車載装置100においては、ユーザが希望する声で、例えば、”今日の打ち合わせの件、開始時刻が変更になりました”といったメール内容を示す音声を再生することができる。
また、上述の実施形態において、車載装置100が携帯端末200の各種機能を有していても良い。例えば、車載装置100が、ユーザ操作を介して音声調整用のパラメータである個人別TTSパラメータの入力を受け付け、個人別TTSパラメータをサービス提供サーバ300に取得させるようにしてもよい。また、上述の実施形態において、車載装置100が、インタネット網などの公衆通信回線網N1に接続されたサービス提供サーバ300などと無線通信するための通信ユニットを備えるようにし、携帯端末200を介することなく、サービス提供サーバ300などと無線通信できるようにしても良い。
また、上述の実施形態において、車載装置100は、自動車などの四輪車に搭載されるものに限らず、自転車などの二輪車に搭載されるものでも良い。
1 音声調整システム
100 車載装置
101 情報処理部(車載側処理部)
102、202、302 記憶部
200 携帯端末
201 情報処理部(端末側処理部)
300 サービス提供サーバ
301 情報処理部(サーバ側処理部)

Claims (9)

  1. ユーザ操作を受け付ける携帯端末と、
    前記携帯端末が通信可能なサーバと、
    音声データに基づいて音声を出力する車載装置とを備え、
    前記携帯端末は、前記ユーザ操作を介して音声調整用のパラメータの入力を受け付ける端末側処理部を有し、
    前記サーバは、発話内容を示すデータを記憶する記憶部と、前記パラメータを取得し、前記パラメータに基づいて前記データから音声データを生成するサーバ側処理部とを有し、
    前記車載装置は、前記音声データを取得し、取得した前記音声データに基づいて音声を出力する車載側処理部を有することを特徴とする音声調整システム。
  2. 前記パラメータは、音声のピッチ、速度、高さの少なくともいずれかのパラメータを含むことを特徴とする請求項1に記載の音声調整システム。
  3. 前記データは、テキストデータであることを特徴とする請求項1に記載の音声調整システム。
  4. 前記端末側処理部は、前記ユーザ操作を介して前記サーバに記憶される前記データの編集を受け付け、
    前記サーバ側処理部は、前記端末側処理部で受け付けた編集を行うように前記データを編集することを特徴とする請求項1に記載の音声調整システム。
  5. 携帯端末と通信可能なサーバにおいて、
    発話内容を示すデータを記憶する記憶部と、
    前記携帯端末がユーザ操作を介して受け付けた音声調整用のパラメータを取得し、前記パラメータに基づいて前記データから車載装置で再生する発話内容の音声データを生成するサーバ側処理部とを備えることを特徴とするサーバ。
  6. 前記パラメータは、音声のピッチ、速度、高さの少なくともいずれかのパラメータを含むことを特徴とする請求項5に記載のサーバ。
  7. 前記データは、テキストデータであることを特徴とする請求項5に記載のサーバ。
  8. 前記端末側処理部は、前記ユーザ操作を介して前記サーバに記憶される前記データの編集を受け付け、
    前記サーバ側処理部は、前記端末側処理部で受け付けた編集を行うように前記データを編集することを特徴とする請求項5に記載のサーバ。
  9. 音声データに基づいて音声を出力する車載装置において、
    発話内容を示すデータを記憶する記憶部と、携帯端末がユーザ操作を介して受け付けた音声調整用のパラメータを取得し、前記パラメータに基づいて前記データから音声データを生成するサーバ側処理部とを備えるサーバから前記音声データを取得し、取得した前記音声データに基づいて音声を出力する車載側処理部を有することを特徴とする車載装置。
JP2015558732A 2014-01-24 2014-10-15 音声調整システム、サーバ及び車載装置 Pending JPWO2015111256A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014011288 2014-01-24
JP2014011288 2014-01-24
PCT/JP2014/077446 WO2015111256A1 (ja) 2014-01-24 2014-10-15 音声調整システム、サーバ及び車載装置

Publications (1)

Publication Number Publication Date
JPWO2015111256A1 true JPWO2015111256A1 (ja) 2017-03-23

Family

ID=53681079

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015558732A Pending JPWO2015111256A1 (ja) 2014-01-24 2014-10-15 音声調整システム、サーバ及び車載装置

Country Status (2)

Country Link
JP (1) JPWO2015111256A1 (ja)
WO (1) WO2015111256A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6438200B2 (ja) * 2014-02-20 2018-12-12 シャープ株式会社 音声合成装置および制御プログラム

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05233565A (ja) * 1991-11-12 1993-09-10 Fujitsu Ltd 音声合成システム
JPH1078792A (ja) * 1996-07-12 1998-03-24 Konami Co Ltd 音声加工方法、ゲームシステム及び記録媒体
JP2003241795A (ja) * 2002-02-18 2003-08-29 Hitachi Ltd 音声入力を用いた情報取得方法及び情報取得システム
JP2004246129A (ja) * 2003-02-14 2004-09-02 Arcadia:Kk 音声合成制御装置
JP2004295379A (ja) * 2003-03-26 2004-10-21 Seiko Epson Corp データ提供システム及びデータ提供方法並びにデータ提供プログラム
JP2005055607A (ja) * 2003-08-01 2005-03-03 Toyota Motor Corp サーバ、情報処理端末、音声合成システム
JP2006301059A (ja) * 2005-04-18 2006-11-02 Denso Corp 音声出力システム
JP2006350091A (ja) * 2005-06-17 2006-12-28 Nippon Telegr & Teleph Corp <Ntt> 音声合成方法、音声合成情報処理方法、クライアント端末、音声合成情報処理サーバ、クライアント端末プログラム、音声合成情報処理プログラム
WO2012008437A1 (ja) * 2010-07-13 2012-01-19 富士通テン株式会社 情報提供システムおよび車載装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05233565A (ja) * 1991-11-12 1993-09-10 Fujitsu Ltd 音声合成システム
JPH1078792A (ja) * 1996-07-12 1998-03-24 Konami Co Ltd 音声加工方法、ゲームシステム及び記録媒体
JP2003241795A (ja) * 2002-02-18 2003-08-29 Hitachi Ltd 音声入力を用いた情報取得方法及び情報取得システム
JP2004246129A (ja) * 2003-02-14 2004-09-02 Arcadia:Kk 音声合成制御装置
JP2004295379A (ja) * 2003-03-26 2004-10-21 Seiko Epson Corp データ提供システム及びデータ提供方法並びにデータ提供プログラム
JP2005055607A (ja) * 2003-08-01 2005-03-03 Toyota Motor Corp サーバ、情報処理端末、音声合成システム
JP2006301059A (ja) * 2005-04-18 2006-11-02 Denso Corp 音声出力システム
JP2006350091A (ja) * 2005-06-17 2006-12-28 Nippon Telegr & Teleph Corp <Ntt> 音声合成方法、音声合成情報処理方法、クライアント端末、音声合成情報処理サーバ、クライアント端末プログラム、音声合成情報処理プログラム
WO2012008437A1 (ja) * 2010-07-13 2012-01-19 富士通テン株式会社 情報提供システムおよび車載装置

Also Published As

Publication number Publication date
WO2015111256A1 (ja) 2015-07-30

Similar Documents

Publication Publication Date Title
US11205421B2 (en) Selection system and method
US9159322B2 (en) Services identification and initiation for a speech-based interface to a mobile device
US9679562B2 (en) Managing in vehicle speech interfaces to computer-based cloud services due recognized speech, based on context
JP6501217B2 (ja) 情報端末システム
US9183835B2 (en) Speech-based user interface for a mobile device
US10452347B2 (en) Information processing device, information processing method, and terminal device for generating information shared between the information processing device and the terminal device
US9326088B2 (en) Mobile voice platform architecture with remote service interfaces
JP2010515890A (ja) ナビゲーション装置、音声認識モードを有するナビゲーション装置を動作させる方法及びプログラム
JP5413321B2 (ja) 通信システム、車載端末、および携帯端末
JP6155592B2 (ja) 音声認識システム
US10951987B1 (en) In-vehicle passenger phone stand
JP2013088477A (ja) 音声認識システム
US11355135B1 (en) Phone stand using a plurality of microphones
JP2014219617A (ja) 音声案内システム及び音声案内方法
JP5500100B2 (ja) 音声案内システム
US20120329398A1 (en) In-vehicle messaging
WO2015111256A1 (ja) 音声調整システム、サーバ及び車載装置
JP6226020B2 (ja) 車載装置、情報処理方法および情報処理システム
US11386891B2 (en) Driving assistance apparatus, vehicle, driving assistance method, and non-transitory storage medium storing program
Tchankue et al. Are mobile in-car communication systems feasible? a usability study
US11735187B2 (en) Hybrid routing for hands-free voice assistant, and related systems and methods
JP2013250132A (ja) 車載装置、車載情報システム
KR20160075976A (ko) 컨텐츠 공유를 위한 단말기 및 그 동작 방법
US11636857B2 (en) Agent control device, agent control method, and storage medium storing program
JP2019028160A (ja) 電子装置および情報端末システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180921

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190122