JP2007193792A - 音声案内システム - Google Patents
音声案内システム Download PDFInfo
- Publication number
- JP2007193792A JP2007193792A JP2006346545A JP2006346545A JP2007193792A JP 2007193792 A JP2007193792 A JP 2007193792A JP 2006346545 A JP2006346545 A JP 2006346545A JP 2006346545 A JP2006346545 A JP 2006346545A JP 2007193792 A JP2007193792 A JP 2007193792A
- Authority
- JP
- Japan
- Prior art keywords
- voice guidance
- tone
- unit
- text
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Alarm Systems (AREA)
- Interconnected Communication Systems, Intercoms, And Interphones (AREA)
Abstract
【課題】状況に応じた音声案内、又はユーザフレンドリな音声案内を提供する。
【解決手段】いずれかの子機1の記憶部10に記憶されている音声案内データであるテキストデータに対応する音声案内を報知すべき事象が発生したときに、上記子機1の制御部11がネットワーク3を介して上記テキストデータを親機2に送信する。続いて、親機2の音声合成部20において、解析部がテキストデータに対して言語データベースの情報を用いて言語解析を実行してテキスト合成データを作成する。その後、音声波形生成部が、テキスト合成データに基づく音声案内の内容、及びコンテキスト依存HMMからの口調データに基づいて音声案内の口調を自動で切り替えた音声信号データを作成する。最後に、報知部21が上記音声信号データを再生して音声案内を報知する。
【選択図】図1
【解決手段】いずれかの子機1の記憶部10に記憶されている音声案内データであるテキストデータに対応する音声案内を報知すべき事象が発生したときに、上記子機1の制御部11がネットワーク3を介して上記テキストデータを親機2に送信する。続いて、親機2の音声合成部20において、解析部がテキストデータに対して言語データベースの情報を用いて言語解析を実行してテキスト合成データを作成する。その後、音声波形生成部が、テキスト合成データに基づく音声案内の内容、及びコンテキスト依存HMMからの口調データに基づいて音声案内の口調を自動で切り替えた音声信号データを作成する。最後に、報知部21が上記音声信号データを再生して音声案内を報知する。
【選択図】図1
Description
本発明は、音声案内を報知する音声案内システムに関するものである。
従来、例えばシステムの状態や操作の案内、異常発生時などに関する音声案内を報知する音声案内システムとして、予め音声案内データを記憶する記憶部と、上記音声案内データに基づいて音声案内を報知する音声変換部(デコーダ部)とを単一のサブシステムに備える第1の従来音声案内システムがある。
また、特許文献1には、それぞれが火災感知器と接続する複数の端末装置(子機)と、各端末装置と接続するセンタ装置(親機)とを備える異常報知システム(第2の従来音声案内システム)が開示されている。上記特許文献1の異常報知システムにおいて、センタ装置は、各端末装置からの制御信号に対応する音声案内データを記憶する記憶部を備える。上記特許文献1の異常報知システムの動作について説明すると、まず、端末装置が火災感知器の検知に基づいて火災発生と確定した場合、センタ装置に制御信号を送信する。続いて、センタ装置が制御信号を受信すると、上記制御信号に対応する音声案内データを記憶部から読み出し、上記音声案内データに基づいて音声メッセージ(音声案内)を報知する。
特開2004−185151号公報(第7頁及び第1〜3図)
しかしながら、上記従来の音声案内システムは、ユーザの好みを反映させることができないという問題があった。また、「防犯異常発生」と音声で通知する際、読み上げ口調(平静口調)では緊迫感も少なく、注意を呼びかけるには不十分であるという問題があった。
本発明は上記の点に鑑みて為されたものであり、その目的とするところは、音声案内の口調やイントネーションを可変にすることによって、ユーザフレンドリで状況に応じた音声案内をすることができる音声案内システムを提供することにある。
請求項1の発明は、音声案内データ及びその音声案内データに対応する音声案内を報知すべき事象を記憶する子機記憶手段と、前記事象が発生したときに前記音声案内データを送信する子機制御手段とを含む子機を単一又は複数備えるとともに、前記音声案内データに対応する音声案内を報知する報知手段を含む親機を備え、前記子機又は前記親機のいずれかが、前記音声案内の口調に関する複数の口調データを記憶する口調記憶手段と、前記子機制御手段からの前記音声案内データに対応する音声案内の口調を前記口調データに基づいて切り替える口調切替手段とを含むことを特徴とする。
請求項2の発明は、請求項1の発明において、前記音声案内データが、前記音声案内の内容を示す読み上げテキストと、その読み上げテキストに対応する音声案内の口調形式を示す口調情報とを含み、前記子機記憶手段が、前記読み上げテキスト、前記口調情報及び前記読み上げテキストに対応する音声案内を報知すべき事象を記憶し、前記口調切替手段が、前記口調情報に対応する前記口調データに基づいて、前記読み上げテキストに対応する音声案内の口調を切り替えることを特徴とする。
請求項3の発明は、請求項1の発明において、前記音声案内データが、前記音声案内の内容を示す読み上げテキストであり、前記子機又は前記親機のいずれかが、前記子機制御手段からの前記読み上げテキストを言語解析する解析手段と、前記解析手段での解析結果から前記読み上げテキストに対応する音声案内の口調形式を判定する口調判定手段とを含み、前記口調切替手段が、前記口調判定手段での判定結果に対応する前記口調データに基づいて、前記読み上げテキストに対応する音声案内の口調を切り替えることを特徴とする。
請求項4の発明は、音声案内の内容を示す読み上げテキスト及びその読み上げテキストに対応する音声案内を報知すべき事象を記憶する子機記憶手段と、前記事象が発生したときに前記読み上げテキストを送信する子機制御手段とを含む子機を単一又は複数備えるとともに、前記読み上げテキストを言語解析する解析手段と、前記解析手段での解析結果から前記読み上げテキストに対応する音声案内の口調形式を判定する口調判定手段と、前記音声案内の口調に関する複数の口調データを記憶する口調記憶手段と、前記口調判定手段での判定結果に対応する前記口調データに基づいて、前記読み上げテキストに対応する音声案内の口調を切り替える口調切替手段とを含むセンターサーバと、前記センターサーバで口調が切り替えられた音声案内を報知する報知手段を含む親機とを備えることを特徴とする。
請求項5の発明は、請求項1乃至4のいずれか1項の発明において、前記口調切替手段が、前記音声案内の口調の切り替えとして前記音声案内のイントネーションを切り替えることを特徴とする。
請求項6の発明は、請求項1乃至5のいずれか1項の発明において、前記口調切替手段が、前記音声案内の口調の切り替えとして前記音声案内の話速を切り替えることを特徴とする。
請求項7の発明は、請求項1乃至6のいずれか1項の発明において、前記口調切替手段が、前記音声案内の口調の切り替えとして前記音声案内の音量を切り替えることを特徴とする。
請求項8の発明は、請求項1乃至7のいずれか1項の発明において、前記口調切替手段が、前記子機の種類に応じて前記音声案内の口調を自動で切り替えることを特徴とする。
請求項9の発明は、請求項1乃至8のいずれか1項の発明において、前記子機及び前記親機の少なくとも一方が、ユーザの操作によって前記音声案内の口調を切り替える制御を前記口調切替手段に対して行う操作手段を含むことを特徴とする。
請求項10の発明は、請求項1乃至9のいずれか1項の発明において、ユーザの操作によって前記音声案内の口調を切り替える制御を前記口調切替手段に対して行う切替操作機を備えることを特徴とする。
請求項1の発明によれば、音声案内の口調を切り替えることができるので、状況に応じた音声案内、又はユーザフレンドリな音声案内を提供することができる。つまり、音声案内の口調を変えることで、感情などを直感的に表現することができる。例えば、通常口調で読み上げると緊迫感を伝えることができないが、警告口調で読み上げると緊迫感を伝えることができる。すなわち、通常のテキスト表現のみでは伝わりにくい感情などの要素も伝達することができる。
請求項2の発明によれば、読み上げテキスト固有の読み上げ口調をシステム設計者が予め定義することができるので、システム設計者の意図した報知(読み上げ)を行うことができる。
請求項3の発明によれば、子機から口調を明示する必要がなく、親機で自動判定するので、子機に口調情報を格納する分のメモリ容量を削減することができる。また、読み上げテキストを言語解析して音声案内の口調を判定することができるので、音声案内ごとに口調を切り替えて、上記音声案内を報知することができる。
請求項4の発明によれば、音声案内の口調を切り替えることができるので、状況に応じた音声案内、又はユーザフレンドリな音声案内を提供することができる。また、センターサーバが口調記憶手段を備えることによって、サービス提供側としてデータベースの更新を随時行うことができ、多様なサービス展開を行うことができる。例えば、ある時点では、通常口調と警告口調の対応のみであっても、その後に、優しい口調での読み上げサービスをサービス提供者が行うことを可能とする。
請求項5の発明によれば、例えば標準イントネーションや関西イントネーション、東北イントネーションなどといった地域のイントネーションを音声案内に反映させることができるので、音声案内をその地域の住民にとって馴染みやすくすることができる。
請求項6の発明によれば、音声案内の話速を利用環境やユーザの好みに合わせることができる。例えば、読み上げが早くて高齢者が聞き取れなかった場合や、一般の人でもいきなり音声が流れたときに聞き逃した場合が起こりうるが、音声案内の話速を切り替えることで、聞き取りやすくしたり、聞き逃しを低減したりすることができる。
請求項7の発明によれば、音声案内の音量を利用環境やユーザの好みに合わせることができる。例えば、警告口調での読み上げ内容は大容量にしたい、通常口調での読み上げ内容は小音量でも構わない、といったユーザ個々の好みに合わせて設定することができる。
請求項8の発明によれば、子機の種類に応じて口調を自動で切り替えることができる。例えば、子機がガラス破壊センサや窓センサである場合と、玄関センサである場合とで、センサが発報したときの重要度の重みが異なる。したがって、ガラス破壊センサや窓センサが発報する場合は警告口調、玄関センサが発報する場合は通常口調というように、子機の種類によって読み上げ口調を変化させることができ、報知に強弱をつけることができる。
請求項9,10の発明によれば、音声案内の口調にユーザの好みを反映させることができる。基本的には、音声案内の口調がシステム側で設定されているが、その読み上げのサンプル音声に満足できないユーザが、自分自身でカスタマイズしたい場合に、このようなユーザに対してきめ細かい対応を可能とする。
(実施形態1)
本発明の実施形態1について図1〜3を用いて説明する。図1は、実施形態1の音声案内システムの構成を示すブロック図である。図2は、実施形態1の音声案内システムの親機における音声合成部の構成を示すブロック図である。図3は、実施形態1の音声案内システムにおける音声案内の口調について説明する図である。
本発明の実施形態1について図1〜3を用いて説明する。図1は、実施形態1の音声案内システムの構成を示すブロック図である。図2は、実施形態1の音声案内システムの親機における音声合成部の構成を示すブロック図である。図3は、実施形態1の音声案内システムにおける音声案内の口調について説明する図である。
まず、実施形態1の基本的な構成について説明する。実施形態1の音声案内システムは、音声案内を報知するものであり、図1に示すように、2つの子機1,1と、親機2とをネットワーク3を介して接続して備えている。実施形態1の音声案内システムにおけるネットワーク3の構築形式は、子機1をサーバ、親機2をクライアントとして、TCP/IPプロトコルでイーサネット(登録商標)接続する形式である。なお、上記ネットワーク3の構築形式は一例であって限定されるものではなく、用途に応じて適宜設定されるものである。
各子機1は、記憶部10と、制御部11とを備えている。記憶部10は、子機固有の音声案内に関するテキストデータ(読み上げテキスト)を音声案内データとして記憶しているとともに、上記テキストデータに対応する音声案内を報知すべき事象(ルール、イベント)も記憶している。一方、制御部11は、上記事象が発生したときにネットワーク3を介して、記憶部10に記憶されているテキストデータを親機2に送信するものである。上記テキストデータとして、日本語が対象の場合、漢字かな混じりテキストデータ、かなテキストデータなどがある。また、他にもローマ字テキストデータ、英字のテキストデータなどがある。なお、子機1として複数の種類のものがあり、用途に応じて選択して用いることができる。
親機2は、音声合成部20と、報知部21とを備え、ユーザインタフェースの役割を有する。上記親機2は、音声変換ソフトウェアであるテキスト音声合成ソフトウェアを用いて、HMM(Hidden Markov Model)音声合成方式で音声案内を報知する。なお、親機2の音声合成方式は、HMM音声合成方式に限定されるものではなく、例えば波形接続方式など他の音声合成方式であってもよい。
音声合成部20は、図2に示すように、言語データベース(言語D/B)200と、解析部201と、コンテキスト依存HMM(音響D/B)202と、音声波形生成部203とを備えている。上記音声合成部20は、音声案内の口調を切り替えるものである。ここで、実施形態1における口調とは、図3に示すように、声質と韻律から特徴付けられるものである。声質は、主に周波数領域に現れる特徴であり、例えばハスキーな声、柔らかい声、堅い声などである。また、韻律は、声のピッチ(高さ)であるイントネーション、声の音量(強さ)、話速(声の速さ)などがある。上記声質及び韻律の組み合わせによって、例えば、明るい口調、警告口調、優しい口調などで音声案内を報知する。
言語データベース200は、音声案内の内容から、適した口調を判別する手段として、単語と口調の関係を辞書に予め登録している。例えば、予め「防犯:警告口調」、「異常:警告口調」というように単語と口調の関係を登録している。
解析部201は、各子機1(図1参照)からテキストデータを受信し、受信されたテキストデータに対して言語データベース200の情報を用いて言語解析を実行してテキスト合成データ(中間ファイル)を作成する。上記テキスト合成データは、読み、アクセント、品詞、ポーズなどの情報とともに口調の情報がテキスト化されている。
コンテキスト依存HMM202は、音声案内の口調に関する複数の口調データを記憶する記憶手段である。具体的には、コンテキスト依存HMM202は、例えば、「明るい」、「警告」、「優しい」などを表現する口調の特徴が圧縮されたパラメータ(HMMなど)である口調データを記憶している。各口調データは、アナウンサーが各方言に合わせて実際に発声して作成された音声データに基づいて作成されたものである。上記コンテキスト依存HMM202は、複数の口調データの中から必要な口調データを音声波形生成部203に出力する。
音声波形生成部203は、解析部201からのテキスト合成データに基づく音声案内の口調を口調データに基づいて切り替える口調切替手段である。上記音声波形生成部203は、音声案内の内容に応じて音声案内の口調を自動で切り替える。具体的には、音声波形生成部203は、まず、例えば「防犯異常発生」という音声案内の文章に基づくテキスト合成データを解析部201から入力したときに、最も頻度の高い口調を自動で判別する(「警告口調」に切り替えられる)。続いて、コンテキスト依存HMM202の口調データを読み出して、音声案内の口調を切り替えた音声信号データを作成する。なお、音声案内の内容から口調を判別する手段は上記に限定されるものではなく、他の手段を用いてもよい。
一方、報知部21は、D/A変換部(図示せず)と、スピーカ(図示せず)とを備えている。D/A変換部は、音声波形生成部203で作成された音声信号データをアナログ音声信号に変換する。一方、スピーカは、上記アナログ音声信号を再生して、口調が切り替えられた音声案内を報知する。
次に、実施形態1の音声案内システムの動作について図1,2を用いて説明する。まず、図1に示すように、いずれかの子機1の記憶部10に記憶されているテキストデータに対応する音声案内を報知すべき事象が発生したときに、上記子機1の制御部11が上記テキストデータを親機2に送信する。続いて、図2に示すように、親機2の音声合成部20において、解析部201がテキストデータに対して言語データベース200の情報を用いて言語解析を実行してテキスト合成データを作成する。その後、音声波形生成部203が、テキスト合成データに基づく音声案内の内容、及びコンテキスト依存HMM202からの口調データに基づいて音声案内の口調を自動で切り替えた音声信号データを作成する。最後に、報知部21が上記音声信号データを再生して音声案内を報知する。
以上、実施形態1によれば、音声案内の口調を切り替えることができるので、内容や状況に応じた音声案内、又はユーザフレンドリな音声案内を提供することができる。つまり、音声案内の口調を変えることで、感情などを直感的に表現することができる。例えば、通常口調で読み上げると緊迫感を伝えることができないが、警告口調で読み上げると緊迫感を伝えることができる。すなわち、通常のテキスト表現のみでは伝わりにくい感情などの要素も伝達することができる。また、音声案内の内容に応じて口調を自動で切り替えることができる。
(実施形態2)
本発明の実施形態2について図4を用いて説明する。図4は、実施形態2の音声案内システムにおける子機の構成を示すブロック図である。なお、図4のA及びBは、図1のA及びBでネットワーク3を介して親機2と接続する。
本発明の実施形態2について図4を用いて説明する。図4は、実施形態2の音声案内システムにおける子機の構成を示すブロック図である。なお、図4のA及びBは、図1のA及びBでネットワーク3を介して親機2と接続する。
実施形態2の音声案内システムは、実施形態1の音声案内システム(図1参照)と同様に、親機2を備えているが、実施形態1の音声案内システムにはない以下に記載の特徴部分がある。
実施形態2の音声案内システムは、実施形態1の2つの子機に代えて、図4に示すような2つの子機1a,1aを備えている。各子機1aは、記憶部10及び制御部11aを備えているとともに、操作部12を備えている。操作部12は、ユーザの操作によって音声案内の口調を切り替える制御を、制御部11aを介して親機2に対して行う。具体的には、操作部12は、予め決められた音声案内のイントネーション、話速、音量の選択肢を表示する設定画面を備える。上記操作部12は、ユーザの操作によって上記選択肢を選択して、音声案内のイントネーションを切り替えたり、話速を切り替えたり、音量を切り替えたりする制御信号を親機2に送信する。なお、各子機1aは、上記以外の点において、実施形態1の各子機1(図1参照)と同様である。
以上、実施形態2によれば、音声案内の口調にユーザの好みを反映させることができる。基本的には、音声案内の口調がシステム側で設定されているが、その読み上げのサンプル音声に満足できないユーザが、自分自身でカスタマイズしたい場合に、このようなユーザに対してきめ細かい対応を可能とする。
(実施形態3)
本発明の実施形態3について図5を用いて説明する。図5は、実施形態3の音声案内システムにおける親機の構成を示すブロック図である。なお、図5のCは、図1のCでネットワーク3を介して各子機1と接続する。
本発明の実施形態3について図5を用いて説明する。図5は、実施形態3の音声案内システムにおける親機の構成を示すブロック図である。なお、図5のCは、図1のCでネットワーク3を介して各子機1と接続する。
実施形態3の音声案内システムは、実施形態1の音声案内システム(図1参照)と同様に、2つの子機1,1を備えているが、実施形態1の音声案内システムにはない以下に記載の特徴部分がある。
実施形態2の音声案内システムは、実施形態1の親機に代えて、図5に示すような親機2aを備えている。親機2aは、音声合成部20a及び報知部21を備えているとともに、操作部22を備えている。操作部22は、ユーザの操作によって音声案内の口調を切り替える制御を音声合成部20aに対して行う。具体的には、操作部22は、予め決められた音声案内のイントネーション、話速、音量の選択肢を表示する設定画面を備える。上記操作部22は、ユーザの操作によって上記選択肢を選択して、音声案内のイントネーションを切り替えたり、話速を切り替えたり、音量を切り替えたりする制御を行う。なお、親機2aは、上記以外の点において、実施形態1の親機2(図1参照)と同様である。
以上、実施形態3によれば、音声案内の口調にユーザの好みを反映させることができる。基本的には、音声案内の口調がシステム側で設定されているが、その読み上げのサンプル音声に満足できないユーザが、自分自身でカスタマイズしたい場合に、このようなユーザに対してきめ細かい対応を可能とする。
(実施形態4)
本発明の実施形態4について図6を用いて説明する。図6は、実施形態4の音声案内システムの構成を示すブロック図である。
本発明の実施形態4について図6を用いて説明する。図6は、実施形態4の音声案内システムの構成を示すブロック図である。
実施形態4の音声案内システムは、図6に示すように、2つの子機1b,1bと、親機2bと、設定入力機4と、センターサーバ5とをネットワーク3を介して接続して備えている。
各子機1bは、制御部11bが設定入力機4からテキストデータを受信し、記憶部10が、受信されたテキストデータを音声案内データとして記憶する。なお、各子機1bは、上記以外の点において、実施形態1の各子機1(図1参照)と同様である。
また、親機2bの音声合成部20bは、図7に示すように、言語データベース及び解析部を備えず、コンテキスト依存HMM202aと、音声波形生成部203aとを備えている。コンテキスト依存HMM202aは、「関西弁」、「関東弁」、「東北弁」などのように音声案内のイントネーションを切り替えるための複数の口調データを記憶する口調データベースである。各口調データは、アナウンサーが各方言に合わせて実際に発声して作成された音声データに基づいて作成されたものである。
音声波形生成部203aは、口調の切り替えとして音声案内のイントネーション、話速、音量を切り替えて音声信号データを作成する。これにより、標準語だけでなく、関西、関東、東北など地域ごとに異なるイントネーションの音声案内を作成することができる。
一方、設定入力機4は、例えばパソコン、テレビ、携帯電話などであり、操作部40と、制御部41とを備えている。操作部40は、各子機1bに対応する音声案内の文章(例えば漢字かな混じり文章やひらがな、カタカナなど)の作成又は編集がユーザの入力操作で行われる。制御部41は、上記音声案内の文章に基づくテキストデータを音声案内データとして設定する。すなわち、上記ユーザは、設定入力機4がパソコンの場合、操作部40となるキーボードから上記音声案内の文章を入力し、設定入力機4がテレビの場合、リモコンをキーボード代わりの操作部40として上記音声案内の文章を入力し、設定入力機4が携帯電話の場合、本体に設けられている操作ボタンを操作部40として上記音声案内の文章を入力する。また、設定入力機4が携帯電話の場合、ユーザは広い範囲から上記音声案内の文章を入力することができる。上記制御部41は、設定されたテキストデータを、ネットワーク3及びインターネット6を介して後述のセンターサーバ5に送信する。
また、設定入力機4は、ユーザの操作によって音声案内の口調を切り替える制御を親機2bに対して行う切替操作機でもある。具体的には、操作部40は、予め決められた音声案内のイントネーション、話速、音量の選択肢を表示する設定画面を備える。上記操作部40は、ユーザの操作によって上記選択肢を選択して、音声案内のイントネーションを切り替えたり、話速を切り替えたり、音量を切り替えたりする制御信号を親機2bに送信する。
センターサーバ5は、解析部50を備えている。解析部50は、テキストデータからテキスト合成データを作成する部分のソフトウェアを備え、設定入力機4からテキストデータを受信し、受信されたテキストデータに対して言語解析を実行してテキスト合成データを作成する。上記解析部50は、インターネット6及びネットワーク3を介して、作成されたテキスト合成データを各子機1bに送信する。
次に、実施形態4の音声案内システムの動作について説明する。まず、ユーザが設定入力機4を用いて音声案内の文章を入力してテキストデータを設定する。続いて、設定入力機4が、設定された音声案内データをセンターサーバ5に送信する。センターサーバ5の解析部50がテキストデータからテキスト合成データを作成し、上記テキスト合成データを子機1bに送信する。子機1bの記憶部10が設定入力機4からのテキストデータを記憶する。その後、実施形態1と同様に、親機2bがテキスト合成データに基づいて音声案内を報知する。
以上、実施形態4によれば、ユーザの操作によって音声案内のイントネーションを切り替えて、例えば標準イントネーションや関西イントネーション、東北イントネーションなどといった地域のイントネーションを音声案内に反映させることができるので、音声案内をその地域の住民にとって馴染みやすくすることができる。また、ユーザの操作によって音声案内の話速や音量を切り替えることができるので、音声案内の話速や音量を利用環境やユーザの好みに合わせることができる。例えば、読み上げが早くて高齢者が聞き取れなかった場合や、一般の人でもいきなり音声が流れたときに聞き逃した場合が起こりうるが、音声案内の話速を切り替えることで、聞き取りやすくしたり、聞き逃しを低減したりすることができる。さらに、ユーザが設定入力機4を用いて口調を切り替えることができるので、音声案内の口調にユーザの好みを反映させることができる。基本的には、音声案内の口調がシステム側で設定されているが、その読み上げのサンプル音声に満足できないユーザが、自分自身でカスタマイズしたい場合に、このようなユーザに対してきめ細かい対応を可能とする。これにより、例えば高齢者など難聴者にとって音声案内を聴き取りやすくすることができる。つまり、ユーザや環境に合わせ、ユーザフレンドリな音声案内を実現することができる。
なお、実施形態2〜4の変形例として、音声案内のイントネーションの設定を、市外局番などその地域を示すIDなどを入力するようにしてもよい。このようにすると、音声案内に対して自動的にその地域に合ったイントネーションに切り替えることができる。
また、実施形態1〜4の変形例として、子機が2つに限定されるものではなく、1つ又は3つ以上であってもよい。このような構成にしても、実施形態1〜4と同様の効果を奏する。
さらに、実施形態1〜4の他の変形例として、オフラインの動作の後、どのような口調の音声案内が報知されるかを、子機、親機又は設定入力機で確認するような構成であってもよい。このような構成にすると、事象が発生する前に、ユーザが音声案内を確認することができるとともに、ユーザの好みに合わせて音声案内の口調を切り替えることもできる。
(実施形態5)
本発明の実施形態5について図8を用いて説明する。図8は、実施形態5の音声案内システムの構成を示すブロック図である。
本発明の実施形態5について図8を用いて説明する。図8は、実施形態5の音声案内システムの構成を示すブロック図である。
実施形態5の音声案内システムは、住宅設備を対象としたものであり、図8に示すように、窓センサ(子機)1cと、インターホン室内機(親機)2cと、センターサーバ5aとを備え、窓センサ1c、インターホン室内機2c及びセンターサーバ5a間の通信方式としてEMIT(Embedded Micro Internetworking Technology)技術を用いている。
実施形態5の窓センサ1cは、検知部13と、アプリケーション14と、EMIT通信ソフト15とを備え、例えばパソコン、テレビ、携帯電話などの設定入力機(図示せず)によって設定されたテキストデータ、及び上記テキストデータに対応する音声案内を報知すべき事象をアプリケーション14に記憶している。また、実施形態5のインターホン室内機2cは、報知部21と、テキスト音声合成ソフトウェア23と、EMIT通信ソフト24とを備えている。上記インターホン室内機2cは、音声案内の口調に関する複数の口調データを記憶している。さらに、実施形態5のセンターサーバ5aは、アプリケーション51と、EMIT通信ソフト52とを備えている。
実施形態5の音声案内システムにおいて、新規の子機として窓センサ1cが宅内に追加されると、センターサーバ5aは、EMIT技術を用いているので、インターネット(宅外インターネット)6を介して上記窓センサ1cのネットワーク3との接続をアプリケーション51によってEMIT通信ソフト52を介して自動的に検出する(コンフィギュレーションの自動検出)。これにより、窓センサ1cは、インターホン室内機2c及びセンターサーバ5aとのPeer−to−peer通信を行う状態になる。
次に、実施形態5の音声案内システムにおける音声案内の報知に関する動作について説明する。まず、窓センサ1cのアプリケーション14が検知部13からのセンサデータを読み取って閾値を越えて、音声案内を報知すべき事象が発生したと判断したとき、EMIT通信ソフト15を介して、対応するテキストデータをインターホン室内機2cに送信する。続いて、インターホン室内機2cのテキスト音声合成ソフトウェア23が、EMIT通信ソフト24を介して受信されたテキストデータ及び口調データに基づいて音声案内の口調を切り替えた音声信号データを作成する。最後に、報知部21が音声信号データを再生して、口調が切り替えられた音声案内を報知する。
以上、実施形態5によれば、EMIT技術を用いて音声案内を報知することができる。
なお、実施形態5の変形例として、子機が1つに限定されるものではなく、2つ以上であってもよい。このような構成にしても、実施形態5と同様の効果を奏する。
(実施形態6)
本発明の実施形態6について図1,9〜11を用いて説明する。
本発明の実施形態6について図1,9〜11を用いて説明する。
実施形態6の音声案内システムは、実施形態1の音声案内システム(図1参照)と同様に、2つの子機1,1と、親機2とを備え、以下に記載の特徴部分がある。
実施形態6の各子機1は、例えば窓センサやガラス破壊センサ、庭センサ、玄関センサ(図示せず)などを備え、これらのセンサからの信号(トリガ信号)の種類に応じて、発生した事象を認識する。実施形態6の各子機1は、複数のセンサを備え、これらのセンサを取りまとめる端末である。このような子機1は、それぞれのセンサごとに対応する読み上げテキスト及び口調タグをテーブル形式で記憶部10に記憶している。なお、子機1は、上記のようなものに限定されず、子機1自体がセンサそのものであってもよい。各子機1の記憶部10は、音声案内の内容を示す読み上げテキストを音声案内データとして記憶し、さらに、上記読み上げテキストに対応する音声案内を報知すべき事象を記憶している。つまり、生起可能性のある事象ごとに、事象生起時に読み上げられる読み上げテキストがテーブル形式で示された対応表(図9参照)が、記憶部10に予め格納されている。例えば「窓センサ反応」という事象が発生した場合、読み上げテキストは「窓センサで防犯異常発生」である。制御部11は、上記事象が発生したときにネットワーク3を介して、記憶部10に記憶されている読み上げテキストを親機2に送信する。
一方、実施形態6の親機2は、実施形態1の音声合成部20(図2参照)に代えて、図10に示すような音声合成部20cを備えている。この音声合成部20cは、言語データベース200と、解析部201と、コンテキスト依存HMM202とを実施形態1の音声合成部20と同様に備えるとともに、解析部201での解析結果から読み上げテキストに対応する音声案内の口調形式を判定する読み上げ口調判定部204と、読み上げ口調判定部204での判定結果に対応する口調データに基づいて、読み上げテキストに対応する音声案内の口調を切り替える音声波形生成部203bとを備えている。
解析部201は、制御部11が送信した読み上げテキストを言語解析し、分かち書き(形態素解析)を実行する。例えば、読み上げテキストが「窓センサで防犯異常発生」の場合、解析部201は、「窓センサ」+「で」+「防犯」+「異常」+「発生」のように名詞や助詞などの連なりに分解する。
読み上げ口調判定部204は、図11に示す対応表を参照し、抽出したキーワードから音声案内の口調を判定する。実施形態6では警告口調か通常口調のいずれかを判定するものであり、警告口調と判定するためのキーワードが読み上げテキストに含まれていない場合、通常口調と判定する。上記の例において、解析部201での解析結果から、読み上げ口調判定部204は、「異常」というキーワードを抽出し、音声案内の口調を警告口調と判定する。判定後、読み上げ口調判定部204は、判定結果に基づいた口調タグを作成し、作成した口調タグを音声波形生成部203bに出力する。
音声波形生成部203bは、読み上げ口調判定部204からの口調タグに対応する口調データをコンテキスト依存HMM202から取り出して、音声案内の口調を切り替える。
以上、実施形態6によれば、子機1から口調を明示する必要がなく、親機2で自動判定するので、子機1に口調情報を格納する分のメモリ容量を削減することができる。また、読み上げテキストを言語解析して音声案内の口調を判定することができるので、音声案内ごとに口調を切り替えて、上記音声案内を報知することができる。
(実施形態7)
本発明の実施形態7について図1,2,12を用いて説明する。
本発明の実施形態7について図1,2,12を用いて説明する。
実施形態7の音声案内システムは、実施形態6の音声案内システム(図1参照)と同様に、2つの子機1,1と、親機2とを備え、以下に記載の特徴部分がある。
実施形態7の各子機1において、記憶部10は、読み上げテキスト及び事象を実施形態6と同様に記憶しているとともに、上記読み上げテキストに対応する音声案内の口調形式を示す情報(口調情報)を含む口調タグを音声案内データとして記憶している。つまり、生起可能性のある事象ごとに、事象生起時に読み上げられる読み上げテキストと、その読み上げテキストをどのような口調で読み上げられるかを示す口調タグとがテーブル形式で示されている対応表(図12参照)が、記憶部10に予め格納されている。例えば「窓センサ反応」という事象が発生した場合、読み上げテキストは「窓センサで防犯異常発生」であり、口調タグは警告口調である。これに対して、「玄関センサ反応」という事象が発生した場合、読み上げテキストは「玄関センサが反応しました」であり、口調タグは通常口調である。制御部11は、上記事象が発生したときにネットワーク3を介して、記憶部10に記憶されている読み上げテキスト及び口調タグを親機2に送信する。
一方、実施形態7の親機2は、実施形態6の音声合成部20c(図10参照)に代えて、図2に示すような音声合成部20を備えている。実施形態7の音声合成部20の音声波形生成部203は、解析部201を介して制御部11から読み上げテキスト及び口調タグを受信し、受信した口調タグに対応する口調データをコンテキスト依存HMM202から取り出して、読み上げテキストに対応する音声案内の口調を切り替える。
以上、実施形態7によれば、読み上げテキスト固有の読み上げ口調をシステム設計者が予め定義することができるので、システム設計者の意図した報知(読み上げ)を行うことができる。
(実施形態8)
本発明の実施形態8について図1,2を用いて説明する。
本発明の実施形態8について図1,2を用いて説明する。
実施形態8の音声案内システムは、実施形態7の音声案内システム(図1参照)と同様に、2つの子機1,1と、親機2とを備えているが、実施形態7の音声案内システムにはない以下に記載の特徴部分がある。
実施形態8の音声合成部20の音声波形生成部203(図2参照)は、子機1,1の種類に応じて音声案内の口調を自動で切り替える。つまり、子機1ごとに口調タグが予め設定されている。子機1としては、例えば各種センサ(窓センサやガラス破壊センサ、庭センサ、玄関センサなど)やカーナビゲーションシステム、地震連報装置、子供見守り装置などがある。このような子機1の種類によって、音声案内の口調が決定されており、口調タグが予め設定されている。実施形態8では、子機1自体がセンサそのものであり、センサ機能に対応する1つの読み上げテキスト及び1つの口調タグのみが記憶部10に記憶されている。ただし、センサそのものである子機1において、複数の読み上げテキスト及び口調タグが記憶部10に記憶されていても問題はない。
例えば子機1が窓センサやガラス破壊センサ、庭センサである場合、センサが検知したときは緊急を要し、音声案内の口調を警告口調とする必要がある。また、子機1が地震連報装置である場合も、地震を検知したときは緊急を要し、音声案内の口調を警告口調とする必要がある。したがって、上記センサや地震連報装置である子機1は、読み上げテキスト及び警告口調の口調タグを記憶し、センサや地震を検知したときに、読み上げテキストとともに、警告口調の口調タグを親機2に送信する。
一方、例えば子機1がカーナビゲーションシステムである場合、読み上げテキストとして「あと1kmで到着する」などがある。このときは緊急を要するものではないので、音声案内の口調は通常口調でよい。また、子機1が子供見守り装置である場合、読み上げテキストとして「塾に入りました」や「塾から出ました」などがある。このときも緊急を要するものではないので、音声案内の口調は通常口調でよい。さらに、玄関センサである場合も訪問者がいることを報知するためであるので、通常口調でよい。したがって、カーナビゲーションシステムや子供見守り装置、玄関センサである子機1は、読み上げテキスト及び通常口調の口調タグを記憶し、上記のような音声案内を報知する場面となったときに、読み上げテキストとともに、通常口調の口調タグを親機2に送信する。
上記のようにして、子機1ごとに音声案内の口調が決定されている。
親機2は、子機1からの読み上げテキスト及び口調タグを受信し、受信した口調タグに対応する口調データをコンテキスト依存HMMから取り出して、音声案内の口調を切り替える。
以上、実施形態8によれば、子機1,1の種類に応じて口調を自動で切り替えることができる。例えば、子機1,1がガラス破壊センサや窓センサである場合と、玄関センサである場合とで、センサが発報したときの重要度の重みが異なる。したがって、ガラス破壊センサや窓センサが発報する場合は警告口調、玄関センサが発報する場合は通常口調というように、子機1,1の種類によって読み上げ口調を変化させることができ、報知に強弱をつけることができる。
(実施形態9)
本発明の実施形態9について図1,2を用いて説明する。
本発明の実施形態9について図1,2を用いて説明する。
実施形態9の音声案内システムは、実施形態8の音声案内システム(図1参照)と同様に、2つの子機1,1と、親機2とを備えているが、実施形態8の音声案内システムにはない以下に記載の特徴部分がある。
実施形態9の音声合成部20の音声波形生成部203(図2参照)は、実施形態8と同様に、子機1,1の種類に応じて音声案内の口調を自動で切り替えるものであるが、実施形態8とは異なり、実施形態9では、子機1からの読み上げテキストや、読み上げテキストとともに送信される送信元アドレスなどで子機1の種類を判定し、その判定結果から音声案内の口調を決定している。
子機1が各種センサや地震連報装置である場合、親機2は、子機1からの読み上げテキストを受信したときに、読み上げテキスト又は送信元アドレスから子機1が各種センサ又は地震連報装置であると認識し、音声案内の口調を警告口調と判定する。一方、子機1がカーナビゲーションシステムや子供見守り装置である場合、親機2は、子機1からの読み上げテキストを受信したときに、読み上げテキスト又は送信元アドレスから子機1がカーナビゲーションシステム又は子供見守り装置であると認識し、音声案内の口調を通常口調と判定する。
以上、実施形態9によれば、子機1が口調タグを記憶していない場合であっても、親機2が読み上げテキストや送信元アドレスを用いて、子機1の種類に応じて口調を自動で切り替えることができる。
(実施形態10)
本発明の実施形態10について図1を用いて説明する。
本発明の実施形態10について図1を用いて説明する。
実施形態10の音声案内システムは、実施形態6の音声案内システム(図1参照)と同様に、2つの子機1,1と、親機2とを備えているが、実施形態6の音声案内システムにはない以下に記載の特徴部分がある。
実施形態10の音声案内システムでは、親機2が音声合成部20cを備えるのではなく、各子機1が音声合成部20cと同様の音声合成部を備えている。
以上、実施形態10であっても、実施形態6と同様に、子機1から口調を明示する必要がなく、親機2で自動判定するので、子機1に口調情報を格納する分のメモリ容量を削減することができる。また、各子機1で読み上げテキストを言語解析して口調を判定することができるので、音声案内ごとに口調を切り替えて、上記音声案内を報知することができる。
(実施形態11)
本発明の実施形態11について図13を用いて説明する。図13は、実施形態11の音声案内システムの構成を示すブロック図である。
本発明の実施形態11について図13を用いて説明する。図13は、実施形態11の音声案内システムの構成を示すブロック図である。
実施形態11の音声案内システムは、図13に示すように、2つの子機1b,1bと、設定入力機4とを実施形態4の音声案内システム(図6参照)と同様に備えているが、実施形態4の音声案内システムにはない以下に記載の特徴部分がある。
実施形態11の音声案内システムは、実施形態4の親機2b及びセンターサーバ5(図6参照)に代えて、図13に示すような親機2d及びセンターサーバ5bを備えている。センターサーバ5bは音声合成部53を備えている。音声合成部53は、言語データベース(言語D/B)530と、解析部531と、音響データベース(音響D/B)532と、音声波形生成部533と、読み上げ口調判定部534とを備えている。解析部531は、読み上げテキスト(テキストデータ)からテキスト合成データを作成する部分のソフトウェアを備え、子機1又は設定入力機4から読み上げテキストを受信し、受信した読み上げテキストに対して言語解析を実行してテキスト合成データを作成する。読み上げ口調判定部534は実施形態6の読み上げ口調判定部204(図10参照)と同様のものであり、解析部531での解析結果からキーワードを抽出し、読み上げテキストに対応する音声案内の口調形式を判定する。
音響データベース532は、音声案内の口調に関する複数の口調データを記憶する口調データベースを含むものである。音声波形生成部533は、解析部531からのテキスト合成データに対応する音声案内の口調を口調データに基づいて切り替えて音声信号データ(例えばADPCM形式のファイル)を作成する。また、音声波形生成部533はインターネット6及びネットワーク3を介して、作成した音声信号データを各子機1bに送信する。この音声信号データは各子機1bの記憶部10に記憶される。
一方、親機2dは、実施形態4と同様に報知部21を備えているが、実施形態4とは異なって音声合成部20bを備えていない構成である。
次に、実施形態11の音声案内システムの動作について図13を用いて説明する。まず、いずれかの子機1の記憶部10に記憶されている読み上げテキストに対応する音声案内を報知すべき事象が発生したときに、上記子機1の制御部11が上記読み上げテキストをセンターサーバ5bに送信する。センターサーバ5bの解析部531は、言語データベース530の情報を用いて読み上げテキストに対して言語解析を実行してテキスト合成データを作成し、上記テキスト合成データを読み上げ口調判定部534に出力する。読み上げ口調判定部534がテキスト合成データからキーワードを抽出し、音声案内の口調形式を判定する。その後、音声波形生成部533が音声信号データを作成し、作成した音声信号データを親機2dに送信する。その後、親機2dの報知部21がセンターサーバ5bからの音声信号データに基づいて音声案内を報知する。
続いて、実施形態11の音声案内システムの動作における他の例について説明する。まず、ユーザが設定入力機4を用いて音声案内の内容を入力して読み上げテキストを作成する。続いて、設定入力機4が、ユーザが作成した読み上げテキストをセンターサーバ5bに送信する。センターサーバ5bの解析部531は読み上げテキストからテキスト合成データを作成し、上記テキスト合成データを読み上げ口調判定部534に出力する。読み上げ口調判定部534がテキスト合成データからキーワードを抽出し、音声案内の口調形式を判定する。その後、音声波形生成部533が音声信号データを作成し、作成した音声信号データを子機1bに送信する。子機1bの記憶部10は上記音声信号データを記憶する。その後、音声案内を報知すべき事象が発生したときに、親機2dの報知部21が各子機1bからの音声信号データに基づいて音声案内を報知する。
以上、実施形態11によれば、センターサーバ5bが言語データベース530及び音響データベース532を備えることによって、サービス提供側としてデータベースの更新を随時行うことができ、多様なサービス展開を行うことができる。例えば、ある時点では、通常口調と警告口調の対応のみであっても、その後に、優しい口調での読み上げサービスをサービス提供者が行うことを可能とする。また、子機1から口調を明示する必要がなく、親機2で自動判定するので、子機1に口調情報を格納する分のメモリ容量を削減することができる。さらに、センターサーバ5bで読み上げテキストを言語解析して音声案内の口調を判定することができるので、音声案内ごとに口調を切り替えて、上記音声案内を報知することができる。
なお、実施形態11の変形例として、図6に示すように、2つの子機1b,1bと、親機2bと、設定入力機4と、センターサーバ5とを備え、このセンターサーバ5が実施形態11の言語データベース530(図13参照)を備えるものであってもよい。このような構成であっても、実施形態11と同様の効果を得ることができる。
(実施形態12)
本発明の実施形態12について図13を用いて説明する。
本発明の実施形態12について図13を用いて説明する。
実施形態12の音声案内システムは、実施形態11の音声案内システム(図13参照)と同様に、2つの子機1b,1bと、親機2dと、設定入力機4と、センターサーバ5bとを備えているが、実施形態11の音声案内システムにはない以下に記載の特徴部分がある。
実施形態12のセンターサーバ5bの音声合成部は、実施形態11と同様に言語データベース530、解析部531及び読み上げ口調判定部534を備えているが、音響データベース532及び音声波形生成部533を備えていない構成である。
一方、各子機1bは、実施形態11と同様の記憶部10及び制御部11を備えているとともに、実施形態4の音声合成部20b(図7参照)と同様の音声合成部を備えている。
次に、実施形態12の音声案内システムの動作について図13を用いて説明する。まず、ユーザが読み上げテキストを作成すると、実施形態11と同様に、設定入力機4は読み上げテキストをセンターサーバ5bに送信する。センターサーバ5bの解析部531は読み上げテキストからテキスト合成データを作成し、上記テキスト合成データを子機1bに送信する。その後、子機1bにおいて、音声合成部の音声波形生成部が、センターサーバ5bからのテキスト合成データを用いて音声信号データ(例えばADPCM形式のファイル)を作成する。子機1bの記憶部10は上記音声信号データを記憶する。その後、親機2dの報知部21が各子機1bからの音声信号データに基づいて音声案内を報知する。
以上、実施形態12であっても、センターサーバ5bが言語データベース530を備えることによって、サービス提供側としてデータベースの更新を随時行うことができ、多様なサービス展開を行うことができる。
なお、実施形態11乃至13のいずれかの変形例として、実施形態8のように、子機1ごとに口調タグが予め設定されているものであってもよい。子機1としては、例えば各種センサ(窓センサやガラス破壊センサ、庭センサ、玄関センサなど)やカーナビゲーションシステム、地震連報装置、子供見守り装置などがある。これにより、センターサーバ5bを備える構成であっても、子機1,1の種類に応じて口調を自動で切り替えることができる。
なお、実施形態1乃至13の子機1,1a,1bは、複数のセンサを備え、これらのセンサを取りまとめる端末であってもよいし、それ自体がセンサそのものであってもよい。
1 子機
10 記憶部
11 制御部
2 親機
20 音声合成部
21 報知部
3 ネットワーク
10 記憶部
11 制御部
2 親機
20 音声合成部
21 報知部
3 ネットワーク
Claims (10)
- 音声案内データ及びその音声案内データに対応する音声案内を報知すべき事象を記憶する子機記憶手段と、前記事象が発生したときに前記音声案内データを送信する子機制御手段とを含む子機を単一又は複数備えるとともに、
前記音声案内データに対応する音声案内を報知する報知手段を含む親機を備え、
前記子機又は前記親機のいずれかが、前記音声案内の口調に関する複数の口調データを記憶する口調記憶手段と、前記子機制御手段からの前記音声案内データに対応する音声案内の口調を前記口調データに基づいて切り替える口調切替手段とを含む
ことを特徴とする音声案内システム。 - 前記音声案内データが、前記音声案内の内容を示す読み上げテキストと、その読み上げテキストに対応する音声案内の口調形式を示す口調情報とを含み、
前記子機記憶手段が、前記読み上げテキスト、前記口調情報及び前記読み上げテキストに対応する音声案内を報知すべき事象を記憶し、
前記口調切替手段が、前記口調情報に対応する前記口調データに基づいて、前記読み上げテキストに対応する音声案内の口調を切り替える
ことを特徴とする請求項1記載の音声案内システム。 - 前記音声案内データが、前記音声案内の内容を示す読み上げテキストであり、
前記子機又は前記親機のいずれかが、前記子機制御手段からの前記読み上げテキストを言語解析する解析手段と、前記解析手段での解析結果から前記読み上げテキストに対応する音声案内の口調形式を判定する口調判定手段とを含み、
前記口調切替手段が、前記口調判定手段での判定結果に対応する前記口調データに基づいて、前記読み上げテキストに対応する音声案内の口調を切り替える
ことを特徴とする請求項1記載の音声案内システム。 - 音声案内の内容を示す読み上げテキスト及びその読み上げテキストに対応する音声案内を報知すべき事象を記憶する子機記憶手段と、前記事象が発生したときに前記読み上げテキストを送信する子機制御手段とを含む子機を単一又は複数備えるとともに、
前記読み上げテキストを言語解析する解析手段と、前記解析手段での解析結果から前記読み上げテキストに対応する音声案内の口調形式を判定する口調判定手段と、前記音声案内の口調に関する複数の口調データを記憶する口調記憶手段と、前記口調判定手段での判定結果に対応する前記口調データに基づいて、前記読み上げテキストに対応する音声案内の口調を切り替える口調切替手段とを含むセンターサーバと、
前記センターサーバで口調が切り替えられた音声案内を報知する報知手段を含む親機と
を備えることを特徴とする音声案内システム。 - 前記口調切替手段が、前記音声案内の口調の切り替えとして前記音声案内のイントネーションを切り替えることを特徴とする請求項1乃至4のいずれか1項に記載の音声案内システム。
- 前記口調切替手段が、前記音声案内の口調の切り替えとして前記音声案内の話速を切り替えることを特徴とする請求項1乃至5のいずれか1項に記載の音声案内システム。
- 前記口調切替手段が、前記音声案内の口調の切り替えとして前記音声案内の音量を切り替えることを特徴とする請求項1乃至6のいずれか1項に記載の音声案内システム。
- 前記口調切替手段が、前記子機の種類に応じて前記音声案内の口調を自動で切り替えることを特徴とする請求項1乃至7のいずれか1項に記載の音声案内システム。
- 前記子機及び前記親機の少なくとも一方が、ユーザの操作によって前記音声案内の口調を切り替える制御を前記口調切替手段に対して行う切替操作手段を含むことを特徴とする請求項1乃至8のいずれか1項に記載の音声案内システム。
- ユーザの操作によって前記音声案内の口調を切り替える制御を前記口調切替手段に対して行う切替操作機を備えることを特徴とする請求項1乃至9のいずれか1項に記載の音声案内システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006346545A JP2007193792A (ja) | 2005-12-22 | 2006-12-22 | 音声案内システム |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005371091 | 2005-12-22 | ||
JP2006346545A JP2007193792A (ja) | 2005-12-22 | 2006-12-22 | 音声案内システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007193792A true JP2007193792A (ja) | 2007-08-02 |
Family
ID=38449406
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006346545A Withdrawn JP2007193792A (ja) | 2005-12-22 | 2006-12-22 | 音声案内システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007193792A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010224910A (ja) * | 2009-03-24 | 2010-10-07 | Nohmi Bosai Ltd | 警報器 |
JP2019191903A (ja) * | 2018-04-25 | 2019-10-31 | 株式会社サテライトオフィス | ボットシステム、ボットシステムのプログラム |
JP7426466B2 (ja) | 2022-03-29 | 2024-02-01 | 三菱電機Itソリューションズ株式会社 | 放送用音声送出装置、放送用音声送出方法、放送用音声送出プログラム、音声送出端末、および、受信端末 |
-
2006
- 2006-12-22 JP JP2006346545A patent/JP2007193792A/ja not_active Withdrawn
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010224910A (ja) * | 2009-03-24 | 2010-10-07 | Nohmi Bosai Ltd | 警報器 |
JP2019191903A (ja) * | 2018-04-25 | 2019-10-31 | 株式会社サテライトオフィス | ボットシステム、ボットシステムのプログラム |
JP7128463B2 (ja) | 2018-04-25 | 2022-08-31 | 株式会社サテライトオフィス | ボットシステム、ボットシステムのプログラム |
JP7426466B2 (ja) | 2022-03-29 | 2024-02-01 | 三菱電機Itソリューションズ株式会社 | 放送用音声送出装置、放送用音声送出方法、放送用音声送出プログラム、音声送出端末、および、受信端末 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9111545B2 (en) | Hand-held communication aid for individuals with auditory, speech and visual impairments | |
EP2663064B1 (en) | Method and system for operating communication service | |
KR101542136B1 (ko) | 문자 메시지 작성 방법 및 이를 이용한 휴대 단말기 | |
EP3285237B1 (en) | Notification device and notification method | |
US20140242955A1 (en) | Method and system for supporting a translation-based communication service and terminal supporting the service | |
JP2006074477A (ja) | 通信用端末装置、通信用端末装置の機能設定変更方法及びそのプログラム | |
US20190180735A1 (en) | Ambient sound classification based message routing for local security and remote internet query systems | |
KR20190029237A (ko) | 통역장치 및 그 방법 | |
JP2009065389A (ja) | 情報受信装置 | |
US20060224385A1 (en) | Text-to-speech conversion in electronic device field | |
JP2003202885A (ja) | 情報処理装置及び方法 | |
WO2014020835A1 (ja) | エージェント制御システム、方法およびプログラム | |
EP1854756A1 (en) | Elevator car inside display | |
JP2007193792A (ja) | 音声案内システム | |
JP2006338335A (ja) | 即時発声メール送受信機能を備えた携帯端末装置 | |
KR101916107B1 (ko) | 통신 단말 및 그 통신 단말의 정보처리 방법 | |
KR101581778B1 (ko) | 문자 메시지 작성 방법 및 이를 이용한 휴대 단말기 | |
KR20070117195A (ko) | 휴대용 단말기에서 사용자의 감정이 이입된 문자메시지를송수신하는 방법 및 장치 | |
US20100022229A1 (en) | Method for communicating, a related system for communicating and a related transforming part | |
KR100487446B1 (ko) | 이동 통신 단말의 오디오 장치를 이용한 감정 표현 방법및 이를 위한 이동 통신 단말 | |
JP7538976B1 (ja) | 携帯端末装置、情報処理システム、情報処理方法およびプログラム | |
KR101621136B1 (ko) | 조도 센서를 이용한 음성 인식 서비스 제공 방법 및 음성 인식 서비스를 제공하는 통신 단말기 | |
KR102496398B1 (ko) | 사용자 디바이스에 페어링되어 음성-텍스트를 변환하는 장치 및 그 방법 | |
JP2018160082A (ja) | 報知処理装置、報知処理方法、及びプログラム | |
JP2006184921A (ja) | 情報処理装置及び方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20100302 |