JP2005275925A - サーバシステム - Google Patents

サーバシステム Download PDF

Info

Publication number
JP2005275925A
JP2005275925A JP2004089775A JP2004089775A JP2005275925A JP 2005275925 A JP2005275925 A JP 2005275925A JP 2004089775 A JP2004089775 A JP 2004089775A JP 2004089775 A JP2004089775 A JP 2004089775A JP 2005275925 A JP2005275925 A JP 2005275925A
Authority
JP
Japan
Prior art keywords
voice
condition
question
guidance
search
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004089775A
Other languages
English (en)
Inventor
Hiroshi Matsubara
広 松原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Railway Technical Research Institute
Original Assignee
Railway Technical Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Railway Technical Research Institute filed Critical Railway Technical Research Institute
Priority to JP2004089775A priority Critical patent/JP2005275925A/ja
Publication of JP2005275925A publication Critical patent/JP2005275925A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】 音声認識技術を用いた案内システムにおいて、音声認識技術の不完全さによる誤認識をカバーし、より的確(適切)な案内を実現すること。
【解決手段】 案内サーバは、録音した質問音声を音声認識処理してテキストデータに変換し、不明部分があれば音声認識結果修正画面を表示する(a)。そして、質問音声を再生し、オペレータによる不明部分「???」の修正入力に従って解析結果情報127の音声認識結果(127a)を修正する。次いで、テキストデータを意味解析処理して各検索条件の条件内容を判断し、無指定の検索条件があれば意味解析結果修正画面を表示する(b)。そして、質問音声を再生し、オペレータによって選択された選択領域AR2a〜AR2dの条件内容の選択肢に従って解析結果情報127の意味解析結果(127b)を変更する(c)。
【選択図】図8

Description

本発明は、質問者端末及び所定のデータベースと通信可能に接続され、オペレータとのマン・マシンインターフェース機能を備えたサーバシステムに関する。
従来、例えば固定電話や携帯電話等の電話機能を備えた質問者端末と通信接続し、質問者端末を通じて話される質問者の質問に対する案内を行う案内システムとして、案内システム側でオペレータが質問者と通話によって会話し、質問者が話す質問に対してオペレータ自身の音声でリアルタイムに回答する案内システムが広く普及している。
このようなオペレータが介在する案内システムでは、質問者の質問音声をオペレータが直接聞き、やり取りを繰り返す等して質問内容を理解・判断して案内するため、質問の微妙なニュアンスを理解し、案内できるという利点があるが、その一方で、人間であるためにオペレータによって対応(案内)に差がある、質問を聞いたオペレータが、例えばコンピュータ等を操作して必要な検索条件を入力し、その結果表示される検索結果を見て案内するために案内に時間がかかる、といった問題があった。
そこで、近年では、コンピュータを用いた音声認識技術を利用することでオペレータの介在を無くし、質問者の質問に対する案内を全自動的に行う案内システムも知られている。即ち、質問者の質問音声を音声認識処理してテキストデータに変換し、更に意味解析処理することで質問内容を判断して質問に対する案内を行う。また、コンピュータを用いることで、膨大な情報群(データベース)の中から所望の情報を即時に検索し、質問者に対する素早い案内を実現することができる。ここで、質問者に対する案内の方法としては、案内情報をテキスト又は画像として電子メールで送信する、案内情報を音声合成した音声を再生する等がある。
音声認識技術を用いて全自動で案内を行う案内システムの一例として、特許文献1には、携帯電話用インターネット情報・音声検索システムが開示されている。かかるシステムでは、携帯電話端末(質問者端末)から送られてくる音声通話(質問音声)を音声認識してテキストデータ情報に変換する。そして、変換したテキストデータ情報の内容に基づいて検索情報データベースにアクセスして所望の情報検索を行い、得られた検索結果を電子メールや画像、音声などの所定の形式でインターネット網を通じて携帯電話端末に電子メールにて送信する。
特開2002−44256号公報
ところで、現在の音声認識技術や意味解析技術では完全な認識・解析は不可能であり、予め登録された話者の限定された用語(例えば、「はい」、「いいえ」や数字)を用いた音声の認識・解析なら良いが、不特定話者の音声や雑音が多い場所での音声、話し言葉のような曖昧・不明瞭な音声の認識・解析では実際の運用に耐え得る程度の信頼性を持つものではない。即ち、音声認識技術を用いて質問音声の質問内容を判断している案内システムでは、質問音声を完全に認識・解析できずに誤認識・誤解析が頻繁に発生し、的確(適切)な案内が行えないという問題があった。
上記事情に鑑み、本発明は、音声認識技術を用いた案内システムにおいて、音声認識技術の不完全さによる誤認識をカバーし、より的確(適切)な案内を実現することを目的としている。
上記課題を解決するために、第1の発明は、
質問者端末(例えば、図1の携帯電話機200)及び所定のデータベース(例えば、図1の鉄道システム400や天気予報システム500等の外部システム)と通信可能に接続され、オペレータとのマン・マシンインターフェース機能を備えたサーバシステム(例えば、図1の案内サーバ100)において、
前記質問者端末から送信される質問音声を録音する録音手段(例えば、図1の記憶部120)と、
前記録音手段により録音された質問音声を再生して音声認識処理し、質問音声をテキストデータに変換する音声認識手段(例えば、図1の制御部110)と、
前記音声認識手段により変換されたテキストデータを意味解析処理し、予め定められた複数の検索条件それぞれに対する条件内容を判断する条件内容判断手段(例えば、図1の制御部110)と、
前記条件内容判断手段により判断された条件内容で前記データベースに情報検索依頼処理する検索手段(例えば、図1の制御部110や通信部170)と、
前記検索手段によって得られた検索結果を前記質問者端末に送信する送信手段(例えば、図1の制御部110や通信部170)と、
を備え、
前記条件内容判断手段(例えば、図1の制御部110)は、
前記意味解析処理により前記複数の検索条件それぞれに対する条件内容候補を判定する条件内容候補判定手段(例えば、図1の制御部110)と、
前記録音された質問音声をオペレータに再生出力する判断対象音声再生出力手段(例えば、図1の制御部110)と、
前記条件内容候補判定手段により判定された条件内容候補に対するオペレータの追加・修正入力を受け付け、最終的な条件内容とする条件内容修正確定手段(例えば、図1の入力部130や制御部110)と、
を有する、
ことを特徴としている。
この第1の発明によれば、サーバシステムは、質問者端末から送信される質問者の質問音声を録音し、録音した質問音声に対する音声認識処理を行ってテキストデータに変換した後、このテキストデータに対する意味解析処理を行って、予め定められた複数の検索条件それぞれに対する条件内容を判断する。このとき、意味解析処理により複数の検索条件それぞれに対する条件内容候補を判定するとともに、録音された質問音声を再生出力し、条件内容候補に対するオペレータの追加・修正入力を受け付け、最終的な条件内容とする。そして、判断した条件内容でデータベースに情報検索依頼し、得られた検索結果を質問者端末に送信する。
従って、質問音声に対する音声認識処理及び意味解析処理の結果、検索条件の条件内容が不充分である等、音声認識処理や意味解析処理が完全でなくとも、オペレータが、再生出力される質問音声を聞き、意味解析処理によって判定された条件内容候補に対する追加・修正入力を行うことができるので、音声認識技術や意味解析技術による不完全な認識・解析をカバーし、より的確(適切)な案内が可能となる。尚ここで、質問者端末からの質問音声の送信は、質問者端末とサーバシステムとの通話処理によってリアルタイムに質問者の質問音声を送信する、或いは、質問者端末で録音された質問者の質問音声の音声データを送信する等、何れの方法であっても良い。
また、第2の発明は、第1の発明のサーバシステムにおいて、
前記音声認識手段は、
前記音声認識処理による処理結果をテキストデータ候補とするテキストデータ候補手段(例えば、図1の制御部110)と、
前記録音された質問音声をオペレータに再生出力する認識対象音声再生出力手段(例えば、図1の音声出力部150や制御部110)と、
前記テキストデータ候補手段によるテキストデータ候補に対するオペレータの追加・修正入力を受け付け、最終的なテキストデータとするテキストデータ修正確定手段(例えば、図1の制御部110)と、
を有することを特徴としている。
この第2の発明によれば、第1の発明のサーバシステムにおいて、質問音声を音声認識処理してテキストデータに変換する際に、音声認識処理による処理結果をテキストデータ候補とするとともに、録音された質問音声を再生出力し、テキストデータ候補に対するオペレータの追加・修正入力を受け付け、最終的なテキストデータとすることができる。
従って、第1の発明と同様の効果を奏するとともに、質問音声に対する音声認識処理の結果、変換されたテキストデータが不充分である等、音声認識処理が完全でなくとも、オペレータが、再生出力される質問音声を聞き、音声認識処理による処理結果であるテキストデータ候補に対する追加・修正入力を行うことができるので、音声認識技術による不完全な認識・解析をカバーし、より的確(適切)な案内が可能となる。
また、第3の発明は、
前記質問者端末の発信信号に基づき前記質問者端末の位置を検出する所定の位置検出システム(例えば、図1の無線通信システム300)と通信可能に接続された第1又は2の発明のサーバシステムにおいて、
前記録音手段による録音時の前記質問者端末の位置を前記位置検出システムから取得し、この取得した位置を録音した質問音声と対応付けて記憶する位置記憶手段(例えば、図1の記憶部120)を更に備え、
前記複数の検索条件には、1つの検索条件として位置条件が含まれており、
前記条件内容判断手段は、前記録音された質問音声に対応する位置を前記位置記憶手段から読み出し、この読み出した位置に基づいて前記位置条件の条件内容候補を判定する位置条件判定手段(例えば、図1の制御部110)を有する、
ことを特徴としている。
この第3の発明によれば、第1又は第2の発明のサーバシステムにおいて、録音時の質問者端末の位置と録音した質問音声とを対応付けて記憶しておき、複数の検索条件それぞれの条件内容候補を判定する際に、録音された質問音声に対応付けて記憶されている位置を読み出し、この読み出した位置に基づいて複数の検索条件に含まれる位置条件の条件内容候補を判定することができる。
従って、第1又は第2の発明と同様の効果を奏するとともに、質問音声を質問者端末から送信した位置に基づく位置が位置条件の条件内容候補として判定されるので、質問者は、質問音声を送信する際に自身の現在位置を話す必要が無く、質問する際の利便性が向上する。
また、第4の発明は、第1〜第3の何れかの発明のサーバシステムにおいて、
前記録音手段による録音時の日時を録音した質問音声と対応付けて記憶する日時記憶手段(例えば、図1の記憶部120)を更に備え、
前記複数の検索条件には、1つの検索条件として日時条件が含まれており、
前記条件内容判断手段は、前記録音された質問音声に対応する日時を前記日時記憶手段から読み出し、この読み出した日時に基づいて前記日時条件の条件内容候補を判定する日時条件判定手段(例えば、図1の制御部110)を有する、
ことを特徴としている。
この第4の発明によれば、第1〜第3の発明のサーバシステムにおいて、録音時の日時と録音した質問音声とを対応付けて記憶しておき、複数の検索条件それぞれの条件内容候補を判定する際に、録音された質問音声に対応付けて記憶されている日時を読み出し、この読み出した日時に基づいて複数の検索条件に含まれる日時条件の条件内容候補を判定することができる。
従って、第1〜第3の何れかの発明と同様の効果を奏するとともに、質問音声を質問者端末から送信した日時に基づく日時が日時条件の条件内容候補として判定されるので、質問者は、質問音声を送信する際の時刻を起点として話すことができるので、質問する際の利便性が向上する。
本発明によれば、音声認識技術を用いた案内システムにおいて、音声認識技術の不完全さによる誤認識をカバーし、より的確(適切)な案内を実現できる。
以下、図面を参照して本発明を実施するための形態を説明する。
[構成]
図1は、本実施の形態における案内システム1000の構成を示すブロック図である。同図によれば、案内システム1000は、案内サーバ100と、携帯電話機200と、無線通信システム300と、鉄道システム400と、天気予報システム500と、を備えて構成される。
案内サーバ100は、携帯電話機200を用いた質問者からの質問に対する案内(回答)を行うコンピュータシステムである。また、案内サーバ100は、音声を認識してその内容(意味)を解析(判断)する音声認識機能及び意味解析機能を有しているとともに、電話通信網を介して接続した他の電話機と通話を行う電話機能、インターネット等を介して接続した外部装置と電子メールの送受信を行う電子メール機能及びデータの送受信(データ通信)を行うデータ通信機能を有している。
本実施の形態において、案内サーバ100は、通信ネットワークNを介して接続された携帯電話機200との通話処理を行い、質問者からの質問音声を録音する。次いで、録音した質問音声に対する音声認識処理及び意味解析処理を行って質問内容を判断し、案内に必要な情報を鉄道システム400や天気予報システム500等の通信ネットワークNを介して接続された外部システムに検索依頼し、検索結果を取得(受信)する。また、音声認識又は意味解析が不充分である場合には、録音した質問音声を再生等し、音声認識結果又は意味解析結果に対する補足入力をオペレータに行わせる。その後、外部システムから取得した情報に基づいて質問に対する案内メッセージを作成し、作成した案内メッセージを含む電子メール(案内メール)を質問者の携帯電話機200に送信する。
ここで、通信ネットワークNは、装置間でデータの送受信が可能な通信路であって、直接接続のための専用線(専用ケーブル)やイーサネット(登録商標)等によるLANの他、電話通信網やケーブル網、インターネット等の通信網である。また、通信方法については有線/無線を問わない。
案内サーバ100が行う案内の種類としては、運行管理システム410から取得した情報に基づき、列車の遅延やダイヤ等の列車運行に関する案内を行う“列車運行案内”、座席予約システム420から取得した情報に基づき、空席状況等の列車の座席予約に関する案内を行う“列車予約案内”、乗換案内システム430から取得した情報に基づき、列車の乗り換えに関する案内を行う“列車乗換案内”、天気予報システム500から取得した情報に基づき、天気予報等の天気に関する案内を行う“お天気案内”等がある。
また、案内サーバ100は、制御部110と、記憶部120と、入力部130と、表示出力部140と、音声出力部150と、電話部160と、通信部170と、を備えて構成される。
制御部110は、案内サーバ100を統括的に制御するものであり、CPU(Central Processing Unit)等で実現される。本実施の形態では、制御部110は、記憶部120の質問登録プログラム121に従った質問登録処理(図6参照)と、案内プログラム122に従った案内処理(図7参照)と、を実行する。
記憶部120は、各種プログラムやデータを記憶するものであり、ROM(Read Only Memory)やRAM(Random Access Memory)、HDD(Hard Disk Drive)等で実現される。本実施の形態では、記憶部120には、後述する質問登録処理(図6参照)を実現するための質問登録プログラム121と、案内処理(図7参照)を実現するための案内プログラム122と、質問者情報123と、基地局情報124と、留守録応答情報125と、1又は複数の質問情報126と、1又は複数の解析結果情報127と、が記憶される。
質問者情報123は、案内サーバ100による案内を受ける質問者に関する情報である。図2に、質問者情報123のデータ構成の一例を示す。同図によれば、質問者情報123には、各質問者が携帯する携帯電話機200の電話番号(123a)と、該携帯電話機200のメールアドレス(123b)と、が対応付けて格納される。
基地局情報124は、無線基地局(以下、単に「基地局」と称する。)320に関する情報である。図3に、基地局情報124のデータ構成の一例を示す。同図によれば、基地局情報124には、各基地局320を識別する基地局番号(124a)と、該基地局320の設置位置(124b)と、該設置位置(124b)の最寄り駅(124c)と、が対応付けて格納される。
留守録応答情報125は、携帯電話機200との通話が開始された際に再生する応答メッセージの音声信号(音声情報)であり、案内サーバ100が行う案内の種類に応じて用意される。例えば“お天気案内”の場合には「こちらはお天気案内サービスです。お聞きになりたいことを“ピー”と鳴った後にお話し下さい」といった応答メッセージが用意される。質問者は、この応答メッセージが再生された後、質問を話す。
質問情報126は、質問者からの質問に関する情報であり、1つの質問情報126が1件(1回)の質問に相当する。図4に、質問情報126のデータ構成の一例を示す。同図(a)は“お天気案内”の場合のデータ格納例を示し、同図(b)は“列車運行案内”の場合のデータ格納例を示している。
図4によれば、質問情報126には、質問を受けた携帯電話機200の電話番号(126a)と、メールアドレス(126b)と、該携帯電話機200が通話の際に接続した基地局320の基地局番号(126c)と、在所位置(126d)と、最寄り駅(126e)と、録音音声(126f)と、録音日時(126g)と、が対応付けて格納される。
メールアドレス(126b)は、質問者情報123において、電話番号(126a)と対応付けられているメールアドレス(123b)が格納される。
在所位置(126d)は、無線通信システム300が携帯電話機200と通信することで把握している携帯電話機200の位置が格納され、基地局番号(126c)と対応付けられている基地局情報124の設置位置(124b)が格納される。即ち、基地局320の設置位置を質問者の在所位置(現在位置)とみなしている。
最寄り駅(126e)は、基地局番号(126c)と対応付けられている基地局情報124の最寄り駅(124c)が格納される。即ち、基地局320の設置位置の最寄り駅を質問者の在所位置の最寄り駅とみなしている。
録音音声(126f)は、録音した質問者からの質問音声であり、応答メッセージに続いて携帯電話機200から話された通話音声の情報(音声情報)である。即ち、同図(a)では、“お天気案内”であるので、天気に関する内容(降水確率)の質問音声が格納され、同図(b)では、“列車運行案内”であるので、列車の運行に関する内容(列車時刻)の質問音声が格納されている。
また、録音日時(126g)は、質問音声が録音された日時(日付及び時刻)である。
解析結果情報127は、質問情報126に対する解析結果の情報であり、1つの解析結果情報127が1つの質問情報126に対応する。図5に、解析結果情報127のデータ構成の一例を示す。同図(a)は、図4(a)に示した質問情報126に対応するデータ格納例を示し、図5(b)は、図4(b)に示した質問情報126に対応するデータ格納例を示している。
図5によれば、解析結果情報127には、音声認識結果(127a)と、意味解析結果(127b)と、検索結果(127c)と、案内メッセージ(127d)と、が対応付けて格納される。
音声認識結果(127a)は、対応する質問情報126中の録音音声(126f)に対する音声認識処理の結果であり、テキストデータとして格納される。また、音声認識処理による結果、得られたテキストデータに認識できない部分(不明部分)が含まれる場合には、音声認識結果(127a)は、オペレータの補足入力によって不明部分が適当に修正される。尚、同図中、音声認識結果(127a)の「/」は、形態素の区切りを表している。
意味解析結果(127b)は、音声認識結果(127a)に対する意味解析処理(形態素解析、構文解析を含む)の結果であり、案内を行うために必要な1又は複数の検索条件(127b−1)と、その条件内容(127b−2)と、が対応付けて格納される。検索条件(127b−1)は案内の種類によって決まる。
即ち、同図(a)では、“お天気案内”であるので、検索条件(127b−1)には、何を知りたいのかといった“項目”、“日付”、“時間”及び“場所”が含まれる。ここで、検索条件(127b−1)の内、“場所”が位置条件であり、“日付“及び“時間”が日時条件である。また、同図(b)では、“列車運行案内”であるので、“項目”、“線区”、“出発駅”、“到着駅”及び“出発駅”での“発時刻”が含まれる。
また、意味解析処理の結果、条件内容(127b−2)の指定がされない(無指定の)検索条件(127b−1)がある場合、意味解析結果(127b)は、オペレータの補足入力によって無指定の条件内容(127b−2)が適当に指定される。
検索結果(127c)は、該当する外部システム(鉄道システム400や天気予報システム500等)に対する意味解析結果(127b)の各条件内容(127b−2)での情報検索処理依頼の結果、取得した情報である。
案内メッセージ(127d)は、質問に対する案内のメッセージであり、意味解析結果(127b)及び検索結果(127c)に基づいて作成される。即ち、意味解析結果(127b)の条件内容(127b−2)を含み、検索結果(127c)を案内するメッセージとなる。
図1において、案内サーバ100が備える入力部130は、オペレータによる操作入力(補足入力)を受け付けるものであり、キーボードやマウス、タッチパネル等で実現される。
表示出力部140は、入力される表示信号に応じた表示画面を表示するものであり、LCD(Liquid Crystal Display)やLED(Electronic Luminescent)等で実現される。本実施の形態では、後述する音声認識結果修正画面(図8(a)参照)や意味解析結果修正画面(図8(b)参照)等を表示する。
音声出力部150は、入力される音声信号に応じた音声を出力するものであり、スピーカ等で実現される。本実施の形態では、録音された質問音声等を再生・出力する。
電話部160は、通信ネットワークNに接続して、携帯電話機200等との通話処理を行う電話機能を実現するものである。
通信部170は、通信ネットワークNに接続して、携帯電話機200等に電子メールを送受信する電子メール機能や、外部システムから必要な情報を取得(受信)するデータ通信機能を実現するものである。
携帯電話機200は、質問者が携帯する質問者端末であり、CPU等の制御装置、ROMやRAM等の記憶装置、数字キーや各種機能キー等を含む入力装置、小型LCD等の表示装置、基地局320と無線通信を行うための無線通信装置等を備えて構成される公知の無線電話機により実現される。
また、携帯電話機200は、無線通信システム300を介して接続した他の電話機等と通話を行う無線電話機能を有するとともに、無線通信システム300を介してインターネットに接続し、外部装置と電子メールの送受信を行う電子メール機能を有する。そして、本実施の形態では、携帯電話機200は、案内サーバ100との通話処理を行って質問者の質問音声を案内サーバ100に送信するとともに、案内サーバ100から送信される、該質問に対する案内メールを受信する。
無線通信システム300は、例えば携帯電話事業者によって運営される公知の携帯電話システムで実現され、無線通信サーバ310と、無線通信サーバ310に接続された複数の基地局320と、を備えて構成される。
無線通信サーバ310は、CPU等の制御装置、ハードディスク等の記憶装置、CDやMOといった外部記憶媒体に記憶された情報を読み込み自在な記憶媒体読込装置、通信ネットワークNに接続するための通信装置等がシステムバスを介して接続される公知の汎用サーバ装置等によって実現される。
基地局320は、無線通信網を形成するためのものであり、駅構内を含む各地に設置されている。基地局320には固有の基地局番号が割り振られており、これによって各基地局320を識別できるようになっている。携帯電話機200は、基地局320の通信エリアによって形成される無線通信網を利用して、案内サーバ100等の外部装置との無線通信を行う。
鉄道システム400は、鉄道事業者によって運営される公知のシステムであり、鉄道システム400には、運行管理システム410と、乗換案内システム430と、座席予約システム420と、が含まれる。
運行管理システム410は、運行ダイヤの管理や進路制御、列車追跡、運行表示、運転整理等をコンピュータによって集中制御する。また、運行管理システム410は、通信ネットワークNを介して案内サーバ100と接続されており、案内サーバ100からの情報検索依頼に応じた検索を行い、検索結果である列車の遅延やダイヤ等の列車の運行に関する情報を案内サーバ100に送信する。
乗換案内システム430は、指定された駅間の経路を所定の条件(所要時間や乗換回数、経由等)に従って検索する。また、乗換案内システム430は、通信ネットワークNを介して案内サーバ100と接続されており、案内サーバ100からの情報検索依頼に応じた検索を行い、検索結果である列車の乗り換えに関する情報を案内サーバ100に送信する。
座席予約システム420は、列車の座席の予約を管理する。また、座席予約システム420は、通信ネットワークNを介して案内サーバ100と接続されており、案内サーバ100からの情報検索依頼に応じた検索を行い、検索結果である空席状況等の列車の座席予約に関する情報を案内サーバ100に送信する。
天気予報システム500は、例えば天気予報事業者によって運営される公知のシステムであり、気象衛星や気象台、測候所等で観測・収集された気象情報(雲量や天気、気圧、気温、降水量、風向等)に基づいて以後の天気(気温や降水確率、警報・注意報等を含む)をコンピュータを用いて予測する。また、天気予報システム500は、通信ネットワークNを介して案内サーバ100と接続されており、案内サーバ100からの情報検索依頼に応じた検索を行い、検索結果である天気や降水確率、気温等の予報情報等の天気に関する情報を案内サーバ100に送信する。
[処理の流れ]
次に、本実施の形態における処理の流れを説明する。
本実施の形態において、案内サーバ100は、携帯電話機200を用いた質問者からの質問を受ける毎に質問登録処理を実行して新たな質問情報126を作成・蓄積するとともに、蓄積されている各質問情報126を対象とした案内処理を実行して質問に対する案内を行う。
先ず、質問登録処理を説明する。
図6は、質問登録処理の流れを説明するためのフローチャートである。この質問登録処理は、案内サーバ100の制御部110が記憶部120の質問登録プログラム121を読み出して実行することで実現される。
即ち、質問者が、予め定められた案内サーバ100の電話番号に携帯電話機200から電話をかけ(発呼)、携帯電話機200と案内サーバ100とが通話接続すると、案内サーバ100において、制御部110が、留守録応答情報125に基づく応答メッセージを再生し、その後、携帯電話機200からの通話音声を録音する(ステップS11)。また、制御部110は、通話接続している携帯電話機200の電話番号を取得するとともに、該携帯電話機200が接続している基地局320の基地局番号を無線通信サーバ310から取得する(ステップS12)。
そして、通話が終了すると(終話)、制御部110は、質問者情報123を参照して、取得した電話番号に対応するメールアドレスを判断するとともに、基地局情報124を参照して、取得した基地局番号に対応する位置(在所位置)及び最寄り駅を判断する(ステップS13)。次いで、これらのデータと録音した質問音声(録音音声)と現在の日時(録音日時)とを対応付けて新たな質問情報126を作成し、蓄積記憶した後(ステップS14)、質問登録処理を終了する。
このように実行される質問登録処理により、例えば図4に示した質問情報126が作成・蓄積される。
次に、案内処理を説明する。
図7は、案内処理の流れを説明するためのフローチャートであり、図8は、案内処理の実行中に表示出力部140に表示される表示画面及び解析結果情報127の格納データの遷移例を示す図である。図8は、図4(a)に示した質問情報126を対象とする案内処理を行った場合を示しており、図8中、左側が表示画面であり、右側が解析結果情報127である。尚、同図中の解析結果情報127において、「*」は“データ無し”を表す。また、この案内処理は、制御部110が記憶部120の案内プログラム122を読み出して実行することで実現される。
即ち、案内サーバ100において、制御部110は、先ず、対象とする質問情報126中の録音音声に対する音声認識処理を行う(ステップS21)。次いで、音声認識処理の結果得られたテキストデータに不明部分が含まれるか否かを判断し、含まれていない場合には(ステップS22:NO)、音声認識結果をそのまま確定する。一方、テキストデータに不明部分が含まれている場合には(ステップS22:YES)、音声認識結果修正画面を表示出力部140に表示させ、オペレータによる補足入力を行わせる(ステップS23)。
図8(a)において、左側は音声認識結果修正画面の一例を示しており、右側は、この時点での解析結果情報127のデータ格納例を示している。同図(a)によれば、音声認識結果修正画面には、解析結果情報127の音声認識結果(127a)に格納されているテキストデータが、不明部分を「?」としてテキスト表示領域AR1に表示される。また、画面下部には、処理対象の質問音声を再生・出力させるための音声再生キーK1と、修正を確定させるための確定キーK2と、が設けられている。
解析結果情報127においては、音声認識結果(127a)には、録音音声「明日の降水確率は?」に対する音声認識処理の結果得られたテキストデータ「○○○/降水/確率/は」が格納されている。尚、「○」は“不明”を表している。また、意味解析結果(127b)、検索結果(127c)及び案内メッセージ(127d)にはデータが格納されていない。
そして、音声認識結果修正画面において、音声再生キーK1が選択されると、制御部110は、録音音声を再生して音声出力部150から出力させる。オペレータは、再生される質問音声を聞き、入力部130から、テキスト表示領域AR1に表示されているテキスト(文章)中の不明部分を修正する。そして、確定キーK2が選択されると、制御部110は、修正後のテキストを音声認識結果として確定し、解析結果情報127の音声認識結果(127a)を更新する。例えば、オペレータが、テキスト中の不明部分として「明日の」を入力し、確定キーK2を選択すると、図8(b)に示すように、解析結果情報127の音声認識結果(127a)に格納されているテキストデータ中の不明部分「○○○」が「明日の」に更新される。
音声認識結果を確定すると、制御部110は、続いて、確定した音声認識結果(127a)に対する意味解析処理(形態素解析、構文解析を含む)を行う(ステップS24)。次いで、意味解析処理の結果、検索条件の全ての条件内容が指定されたか否かを判断し、全て指定された場合には(ステップS25:NO)、意味解析結果をそのまま確定する。一方、条件内容が指定されない(無指定の)検索条件がある場合には(ステップS25:YES)、何れの検索条件が無指定であるかを判断する。尚ここで、設定が必要な検索条件は案内の種類に応じて変わる。具体的には、例えば“お天気案内”であれば“項目”、“日付”、“時間”及び“場所”といった検索条件が必要であり、“列車運行案内”であれば“項目”、“線区”、“出発駅”、“到着駅”及び“出発駅”での“着時刻”といった検索条件が必要である。
そして、“場所”の検索条件が無指定である場合は(ステップS26:YES)、制御部110は、質問情報126の在所位置(126d)に格納されてデータに基づいて“場所”の条件内容を設定する(ステップS27)。その後、ステップS25に移行する。
また、“時間”の検索条件が無指定である場合には(ステップS26:NO〜S28:YES)、制御部110は、質問情報126の録音日時(126g)に格納されているデータに基づいて“時間”の条件内容を設定する(ステップS29)。その後、ステップS25に移行する。
一方、“場所”及び“時間”以外の検索条件が無指定である場合には(ステップS28:NO)、制御部110は、意味解析結果修正画面を表示出力部140に表示させ、オペレータによる補足入力を行わせる(ステップS30)。
図8(b)において、左側は意味解析結果修正画面の一例を示しており、右側は、この時点での解析結果情報127でのデータ格納例を示している。同図(b)によれば、意味解析結果画面には、意味解析結果(127b)に格納されている検索条件である“項目”、“日付”、“時間”及び“場所”のそれぞれについて、条件内容が選択領域AR2a〜AR2dに表示される。選択領域AR2a〜AR2dには複数の選択肢がプルダウン形式で表示され、これらの内から一の選択肢を選択することができる。
また、画面下部には、処理対象の質問音声を再生・出力させるための音声再生キーK3と、音声認識結果であるテキストデータを表示させるためのテキスト表示キーK4と、修正を確定させるための確定キーK5と、が設けられている。
解析結果情報127においては、音声認識結果(127a)には、テキストデータ「明日の降水確率は」が格納され、意味解析結果(127b)には、検索条件(127b−1)である“項目”、“日付”、“時間”及び“場所”のそれぞれに対する条件内容(172b−2)として、「降水確率」、「明日」、「(無指定)」及び「A区」が格納されている。また、検索結果(127c)及び案内メッセージ(127d)にはデータが格納されていない。
そして、意味解析結果修正画面において、音声再生キーK3が選択されると、制御部110は、録音音声を再生して音声出力部150から出力させる。また、テキスト表示キーK4が選択されると、音声認識結果(127a)に格納されているテキストデータを該画面に重ねて表示させる。オペレータは、再生される質問音声を聞き、或いは、表示されるテキストデータを見て、入力部130から、無指定の検索条件の条件内容を選択する。
その後、確定キーK5が選択されると、制御部110は、選択されている選択肢を条件内容として確定し、意味解析結果(127b)を更新する。例えば、オペレータが、検索条件“時間”の条件内容として「午前」を選択し、確定キーK5を選択すると、同図(c)に示すように、意味解析結果(127b)中の“時間”の条件内容が「午前」に変更される。
意味解析結果を確定すると、制御部110は、続いて、意味解析結果(127b)に格納された条件内容での情報検索依頼を該当する外部システムに対して行い、検索結果を取得(受信)する(ステップS31)。即ち、“列車運行案内”であれば運行管理システム410に対して、“列車予約案内”であれば座席予約システム420に対して、“列車乗換案内”であれば乗換案内システム430に対して、“お天気案内”であれば天気予報システム500に対して情報検索処理依頼を行う。
そして、外部システムから検索結果を取得(受信)すると、該取得した検索結果及び意味解析結果(127b)に基づいて適当な案内メッセージを作成する。その後、作成した案内メッセージを含む電子メール(案内メール)をメールアドレス宛に送信し(ステップS32)、案内処理を終了する。
このように実行させる案内処理により、例えば図5に示した解析結果情報127が作成され、質問者に対する案内が行われる。
[作用・効果]
以上のように、本実施の形態によれば、案内システム1000において、案内サーバ100は、質問登録処理を行って、通話接続した携帯電話機200を通じた質問者からの質問音声を録音するとともに、録音した質問音声(録音音声)を、携帯電話機200の電話番号及び通信接続した基地局320の基地局番号、現在日時(録音日時)と対応付け、1つの質問情報126として蓄積記憶する。
また、案内サーバ100は、蓄積記憶されている1つの質問情報126を対象とした案内処理を行う。即ち、録音音声を音声認識処理してテキストデータに変換し、このテキストデータに不明部分「○○」が含まれている場合には、音声認識結果修正画面を表示させるとともに録音音声(質問音声)を再生出力して、オペレータに不明部分の修正を行わせる。次いで、テキストデータを意味解析処理して予め定められた検索条件それぞれに対する条件内容を判断し、条件内容が無指定の検索条件がある場合には、意味解析結果修正画面を表示するとともに録音音声(質問音声)を再生出力して、オペレータに無指定の条件内容の追加・修正を行わせる。そして、各検索条件それぞれの条件内容での情報検索依頼を該当する外部システム(鉄道システム400や天気予報システム500等)に対して行い、取得(受信)した検索結果を含む電子メール(案内メール)を携帯電話機200に送信する。
従って、音声認識処理の結果であるテキストデータに不明部分がある場合や、意味解析処理の結果である各検索条件の条件内容に無指定のものがある場合等、音声認識処理や意味解析処理が完全でなくとも、オペレータが、再生出力される質問音声を聞き、不明部分の修正や無指定の条件内容の追加(指定)等を行うことができるので、音声認識技術や意味解析技術による不完全な認識・解析をカバーし、より的確(適切)な案内が可能となる。
[変形例]
尚、本発明の適用は、上述した実施の形態に限定されることなく、本発明の趣旨を逸脱しない範囲で適宜変更可能である。
例えば、“お天気案内”を行う案内サーバ1000であるが「バスの時刻」を質問される等、回答できない(サポート外の)質問がなされた場合には、案内サーバ1000は、「案内不可能」な旨を質問者に対して“案内(回答)”することとしても良い。
具体的には、図7に示した案内処理において、回答不可能な質問がなされた場合には、検索条件の条件内容が指定されないので(ステップS25:YES)、オペレータによる補足入力が行われる(ステップS30)。
即ち、意味解析結果修正画面(図8(b)参照)が表示されるが、この意味解析結果修正画面において、「案内不可能」な旨を“案内(回答)”するための「案内不可能キー」を設けておくこととする。オペレータは、音声出力される質問音声を聞き、或いは、表示されるテキストデータを見て回答が不可能であると判断した場合には、この「案内不可能キー」を選択する。
そして、制御部110は、「案内キー」が選択されると、質問に対する案内が不可能な旨を内容とするメッセージを作成し、このメッセージを含む電子メールを質問者の携帯電話機200に送信して、案内処理を終了する。
また、携帯電話機200と案内サーバ100とが通話接続することで質問音声を案内サーバ100に送信することとしたが、携帯電話機200で録音した質問音声をデータとして案内サーバ100に送信しても良い。
また、上述した実施形態では、携帯電話機200が案内サーバ100との通話の際に接続した基地局320の設置位置を、該携帯電話機200を携帯する質問者の在所位置(現在位置)とみなすこととしたが、携帯電話機200がGPS機能を備えている場合には、該携帯電話機200が、案内サーバ100との通話の際に自身で取得したGPS位置情報を案内サーバ100に送信し、案内サーバ100はこの受信したGPS位置情報を該携帯電話機200の在所位置126dとして質問情報126を作成することとしても良い。
また、上述した実施の形態では、質問者端末として携帯電話機200を適用した場合を説明したが、通話機能を有するPDAやカーナビシステム等の携帯情報端末、家庭等に設置されているパソコン等に適用しても良い。
また、質問者に対する案内として、電子メール(案内メール)の送信の他、案内メッセージを音声合成し、音声による案内を行っても良い。
更に、案内メッセージの送信先を、質問音声が送信された携帯電話機200に限らず、予め登録された家庭のパソコン等のメールアドレスに送信しても良い。この場合、質問者端末を例えば公衆電話等の不特定多数が利用できる端末とし、質問者が、質問に加えて自身の名前等の識別情報を話すことで、案内サーバ100は質問者を識別することとしても良い。
本実施の形態における案内システムの構成図。 質問者情報のデータ構成例。 基地局情報のデータ構成例。 質問情報のデータ構成例。 解析結果情報のデータ構成例。 質問登録処理の流れを説明するフローチャート。 案内処理の流れを説明するフローチャート。 案内処理における表示画面及び解析結果情報のデータ格納例。
符号の説明
1000 案内システム
100 案内サーバ
110 制御部
120 記憶部
121 質問登録プログラム
122 案内プログラム
123 質問者情報
124 基地局情報
125 留守録応答情報
126 質問情報
127 解析結果情報
130 入力部
140 表示出力部
150 音声出力部
160 電話部
170 通信部
200 携帯電話機
300 無線通信システム
310 無線通信サーバ
320 無線基地局(基地局)
400 鉄道システム
410 運行管理システム
420 座席予約システム
430 乗換案内システム
500 天気予報システム
N 通信ネットワーク

Claims (4)

  1. 質問者端末及び所定のデータベースと通信可能に接続され、オペレータとのマン・マシンインターフェース機能を備えたサーバシステムにおいて、
    前記質問者端末から送信される質問音声を録音する録音手段と、
    前記録音手段により録音された質問音声を再生して音声認識処理し、質問音声をテキストデータに変換する音声認識手段と、
    前記音声認識手段により変換されたテキストデータを意味解析処理し、予め定められた複数の検索条件それぞれに対する条件内容を判断する条件内容判断手段と、
    前記条件内容判断手段により判断された条件内容で前記データベースに情報検索依頼処理する検索手段と、
    前記検索手段によって得られた検索結果を前記質問者端末に送信する送信手段と、
    を備え、
    前記条件内容判断手段は、
    前記意味解析処理により前記複数の検索条件それぞれに対する条件内容候補を判定する条件内容候補判定手段と、
    前記録音された質問音声をオペレータに再生出力する判断対象音声再生出力手段と、
    前記条件内容候補判定手段により判定された条件内容候補に対するオペレータの追加・修正入力を受け付け、最終的な条件内容とする条件内容修正確定手段と、
    を有する、
    ことを特徴とするサーバシステム。
  2. 前記音声認識手段は、
    前記音声認識処理による処理結果をテキストデータ候補とするテキストデータ候補手段と、
    前記録音された質問音声をオペレータに再生出力する認識対象音声再生出力手段と、
    前記テキストデータ候補手段によるテキストデータ候補に対するオペレータの追加・修正入力を受け付け、最終的なテキストデータとするテキストデータ修正確定手段と、
    を有することを特徴とする請求項1に記載のサーバシステム。
  3. 前記質問者端末の発信信号に基づき前記質問者端末の位置を検出する所定の位置検出システムと通信可能に接続された請求項1又は2に記載のサーバシステムであって、
    前記録音手段による録音時の前記質問者端末の位置を前記位置検出システムから取得し、この取得した位置を録音した質問音声と対応付けて記憶する位置記憶手段を更に備え、
    前記複数の検索条件には、1つの検索条件として位置条件が含まれており、
    前記条件内容判断手段は、前記録音された質問音声に対応する位置を前記位置記憶手段から読み出し、この読み出した位置に基づいて前記位置条件の条件内容候補を判定する位置条件判定手段を有する、
    ことを特徴とするサーバシステム。
  4. 前記録音手段による録音時の日時を、録音した質問音声と対応付けて記憶する日時記憶手段を更に備え、
    前記複数の検索条件には、1つの検索条件として日時条件が含まれており、
    前記条件内容判断手段は、前記録音された質問音声に対応する日時を前記日時記憶手段から読み出し、この読み出した日時に基づいて前記日時条件の条件内容候補を判定する日時条件判定手段を有する、
    ことを特徴とする請求項1〜3の何れか一項に記載のサーバシステム。
JP2004089775A 2004-03-25 2004-03-25 サーバシステム Pending JP2005275925A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004089775A JP2005275925A (ja) 2004-03-25 2004-03-25 サーバシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004089775A JP2005275925A (ja) 2004-03-25 2004-03-25 サーバシステム

Publications (1)

Publication Number Publication Date
JP2005275925A true JP2005275925A (ja) 2005-10-06

Family

ID=35175519

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004089775A Pending JP2005275925A (ja) 2004-03-25 2004-03-25 サーバシステム

Country Status (1)

Country Link
JP (1) JP2005275925A (ja)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009521745A (ja) * 2005-12-22 2009-06-04 マイクロソフト コーポレーション 音声で起動されるネットワーク動作
JP2014075067A (ja) * 2012-10-05 2014-04-24 Zenrin Datacom Co Ltd 交通機関案内メッセージ提供システム、交通機関案内メッセージ提供装置、携帯通信端末および交通機関案内メッセージ提供方法
JP2015528140A (ja) * 2012-05-15 2015-09-24 アップル インコーポレイテッド サードパーティサービスをデジタルアシスタントと統合するシステム及び方法
US9865248B2 (en) 2008-04-05 2018-01-09 Apple Inc. Intelligent text-to-speech conversion
US9966060B2 (en) 2013-06-07 2018-05-08 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9986419B2 (en) 2014-09-30 2018-05-29 Apple Inc. Social reminders
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US10049675B2 (en) 2010-02-25 2018-08-14 Apple Inc. User profiling for voice input processing
US10079014B2 (en) 2012-06-08 2018-09-18 Apple Inc. Name recognition system
US10356243B2 (en) 2015-06-05 2019-07-16 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10373617B2 (en) 2014-05-30 2019-08-06 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US10410637B2 (en) 2017-05-12 2019-09-10 Apple Inc. User-specific acoustic models
US10482874B2 (en) 2017-05-15 2019-11-19 Apple Inc. Hierarchical belief states for digital assistants
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US10755703B2 (en) 2017-05-11 2020-08-25 Apple Inc. Offline personal assistant
US10791176B2 (en) 2017-05-12 2020-09-29 Apple Inc. Synchronization and task delegation of a digital assistant
US10810274B2 (en) 2017-05-15 2020-10-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
US10904611B2 (en) 2014-06-30 2021-01-26 Apple Inc. Intelligent automated assistant for TV user interactions
JP2021043766A (ja) * 2019-09-12 2021-03-18 ソプラ株式会社 業務支援装置、及び業務支援システム
US11080012B2 (en) 2009-06-05 2021-08-03 Apple Inc. Interface for a virtual digital assistant
US11217255B2 (en) 2017-05-16 2022-01-04 Apple Inc. Far-field extension for digital assistant services
JP7481863B2 (ja) 2020-03-06 2024-05-13 日本放送協会 音声認識誤り修正支援装置、プログラムおよび方法

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009521745A (ja) * 2005-12-22 2009-06-04 マイクロソフト コーポレーション 音声で起動されるネットワーク動作
US9865248B2 (en) 2008-04-05 2018-01-09 Apple Inc. Intelligent text-to-speech conversion
US11080012B2 (en) 2009-06-05 2021-08-03 Apple Inc. Interface for a virtual digital assistant
US10049675B2 (en) 2010-02-25 2018-08-14 Apple Inc. User profiling for voice input processing
US11269678B2 (en) 2012-05-15 2022-03-08 Apple Inc. Systems and methods for integrating third party services with a digital assistant
JP2015528140A (ja) * 2012-05-15 2015-09-24 アップル インコーポレイテッド サードパーティサービスをデジタルアシスタントと統合するシステム及び方法
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US11321116B2 (en) 2012-05-15 2022-05-03 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US10079014B2 (en) 2012-06-08 2018-09-18 Apple Inc. Name recognition system
JP2014075067A (ja) * 2012-10-05 2014-04-24 Zenrin Datacom Co Ltd 交通機関案内メッセージ提供システム、交通機関案内メッセージ提供装置、携帯通信端末および交通機関案内メッセージ提供方法
US9966060B2 (en) 2013-06-07 2018-05-08 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US10373617B2 (en) 2014-05-30 2019-08-06 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US10904611B2 (en) 2014-06-30 2021-01-26 Apple Inc. Intelligent automated assistant for TV user interactions
US9986419B2 (en) 2014-09-30 2018-05-29 Apple Inc. Social reminders
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US10356243B2 (en) 2015-06-05 2019-07-16 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10553215B2 (en) 2016-09-23 2020-02-04 Apple Inc. Intelligent automated assistant
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US10755703B2 (en) 2017-05-11 2020-08-25 Apple Inc. Offline personal assistant
US10791176B2 (en) 2017-05-12 2020-09-29 Apple Inc. Synchronization and task delegation of a digital assistant
US10410637B2 (en) 2017-05-12 2019-09-10 Apple Inc. User-specific acoustic models
US11405466B2 (en) 2017-05-12 2022-08-02 Apple Inc. Synchronization and task delegation of a digital assistant
US10810274B2 (en) 2017-05-15 2020-10-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
US10482874B2 (en) 2017-05-15 2019-11-19 Apple Inc. Hierarchical belief states for digital assistants
US11217255B2 (en) 2017-05-16 2022-01-04 Apple Inc. Far-field extension for digital assistant services
JP2021043766A (ja) * 2019-09-12 2021-03-18 ソプラ株式会社 業務支援装置、及び業務支援システム
JP7481863B2 (ja) 2020-03-06 2024-05-13 日本放送協会 音声認識誤り修正支援装置、プログラムおよび方法

Similar Documents

Publication Publication Date Title
JP2005275925A (ja) サーバシステム
US9858929B2 (en) Computer-implemented system and method for transcription error reduction
US6895257B2 (en) Personalized agent for portable devices and cellular phone
US8050923B2 (en) Automated utterance search
US10489451B2 (en) Voice search system, voice search method, and computer-readable storage medium
JP4662861B2 (ja) モニタリング装置、評価データ選別装置、応対者評価装置、応対者評価システムおよびプログラム
US20120035923A1 (en) In-vehicle text messaging experience engine
US7689425B2 (en) Quality of service call routing system using counselor and speech recognition engine and method thereof
JP2007147439A (ja) ナビゲーション装置
CN107710322A (zh) 信息提供系统、信息提供方法和计算机可读记录介质
US20010053977A1 (en) System and method for responding to email and self help requests
KR20150017662A (ko) 텍스트-음성 변환 방법, 장치 및 저장 매체
WO2020022079A1 (ja) 音声認識データ処理装置、音声認識データ処理システムおよび音声認識データ処理方法
JP6729494B2 (ja) 情報管理システムおよび情報管理方法
KR100803900B1 (ko) 음성 인식 ars 서비스 방법 및 시스템
JP4402072B2 (ja) 音声応答携帯電話機及び携帯電話機における音声応答方法
KR20080019770A (ko) 문자메시지 전송 및 회신 방법
US20080046230A1 (en) Reception support system and program therefor
JP2000067063A (ja) 対話内容利用システム
KR100929531B1 (ko) 음성 인식을 이용한 무선 환경에서의 정보 제공 시스템 및그 방법
JP2000067064A (ja) 対話記録システム
JP5326539B2 (ja) 留守番電話システム、留守番電話サービスサーバ及び留守番電話サービス方法
JP6389348B1 (ja) 音声データ最適化システム
JP6386690B1 (ja) 音声データ最適化システム
CN113381922B (zh) 电子装置以及信息的再生控制方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090811

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100105