JP6065574B2 - ガイダンスシステム、ガイダンスシステム用サーバ及びガイダンスシステム用プログラム - Google Patents

ガイダンスシステム、ガイダンスシステム用サーバ及びガイダンスシステム用プログラム Download PDF

Info

Publication number
JP6065574B2
JP6065574B2 JP2012278477A JP2012278477A JP6065574B2 JP 6065574 B2 JP6065574 B2 JP 6065574B2 JP 2012278477 A JP2012278477 A JP 2012278477A JP 2012278477 A JP2012278477 A JP 2012278477A JP 6065574 B2 JP6065574 B2 JP 6065574B2
Authority
JP
Japan
Prior art keywords
information
voice guidance
guidance
user
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012278477A
Other languages
English (en)
Other versions
JP2014123845A (ja
Inventor
聡 武藤
聡 武藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2012278477A priority Critical patent/JP6065574B2/ja
Publication of JP2014123845A publication Critical patent/JP2014123845A/ja
Application granted granted Critical
Publication of JP6065574B2 publication Critical patent/JP6065574B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Telephonic Communication Services (AREA)
  • Telephone Function (AREA)

Description

本発明は、ガイダンスシステム、ガイダンスシステム用サーバ及びガイダンスシステム用プログラムに関し、例えば、画像と音声とを連携してガイダンス情報を提供する場合に適用し得るものである。
従来、音声自動応答装置(IVR;Interactive Voice Responce)等の音声ガイダンスサービスは、電話を使った音声のみでの情報提供を行っていた。音声のみのガイダンスよりも、テキストや画像、映像等を用いたビジュアル的なガイダンスの方が、ユーザに分かりやすい情報を提供することができる。例えば、特許文献1や特許文献2に開示されるように、音声ガイダンスとWebブラウザ機能とを連携させてユーザに情報提供する技術がある。
特許文献1の記載技術は、CTI(Computer Telephony Integration)サーバが、顧客の端末装置にWebブラウザ機能が搭載されているか否かを判定し、搭載されていれば画像データと音声データとを端末に送信する技術である。
特許文献2の記載技術は、Webサーバは、インターネット機能付きの電話端末からの問合わせに応じて、電話端末のWebブラウザ画面に問合せ情報を表示させる。ユーザは、電話端末に表示された問合せ情報の応答情報を返信する。この問合せと応答とを何回か繰り返して、Webサーバは、ユーザの希望する適切な対応が可能な受付用電話番号を電話端末に表示させる。その後、ユーザが受付用電話番号に対して発信して、オペレータが対応するというものである。
音声ガイダンスとWebブラウザ機能とを連携させてユーザに情報提供する、上述した特許文献1以外の技術の多くでは、音声ガイダンスサービスに対して、テキストや画像、映像等による視覚的な確認を交えたサービスを展開したい場合、ユーザは、Webブラウザ等から手動で情報の検索やURL(Uniform Resource Locator)の入力を行い、自分の手で視覚的な情報を提供する場まで到達する必要があった。
特開2009−182836号公報 特開2005−277970号公報
電話による音声ガイダンスサービスには、以下に挙げるいくつかの問題点が存在する。
[1]目的とする音声ガイダンスでメニューが読み上げられるまでガイダンスを待ち、さらに、そこからメニューを選択しなければならないため、時間が掛かり、ユーザは面倒に思う。
[2]間違ってメニューを選択してしまった場合に、簡単に前のメニューに戻ることができない。この場合も、もう一度戻るためのメニューが無いか、ガイダンスを聞き続ける必要がある。
[3]情報量が多い場合や、音声では伝わり難い情報は、音声ガイダンスで読み上げられても分かり難く、何度も繰り返し同じ情報を聞くこととなる。
[4]携帯電話や子機を使って音声ガイダンスサービスを利用した場合、ガイダンスを聞いた後、常にボタン操作をするために携帯電話や子機を持ち替えなければならない。
一方で、以上のような電話による音声ガイダンスを使った問い合わせを行わずに、Webによる検索を行う方法もある。しかし、これはIT(Information Technology)リテラシの低い人にとっては、Webによる検索で欲しい情報に到達することは難しいという課題がある。
さらに、音声ガイダンスとWeb情報の提供を組み合わせた、ユーザからの入力方法が複数種類ある自動応答システム(以下、マルチ入力自動応答システムと呼ぶ)においては、音声ガイダンスとWeb情報を関連付けて表示するために、保守要員などが、手作業で、音声ガイダンスとWeb情報の表示時間の調整を実施する必要があり、その調整には多くの時間を費やす必要がある。そのため、マルチ入力自動応答システムは、サービスを展開する事業者にとって負担が大きいという課題がある。
そのため、ユーザなどに負担を掛けずに、音声ガイダンスの提供のタイミングと、音声ガイダンスに対応する視覚的な情報の提供のタイミングとの関係を適切化できるガイダンスシステム、ガイダンスシステム用サーバ及びガイダンスシステム用プログラムが望まれている。
第1の本発明のガイダンスシステムは、音声ガイダンスおよび視覚的情報を対応付けてユーザへ提供するガイダンスシステムであって、(1)ユーザからの入力を受け付けると共に、ユーザへの情報を発音出力及び表示出力可能な入出力手段と、(2)要求された上記音声ガイダンスを出力する音声ガイダンス生成手段と、(3)上記音声ガイダンス生成手段が上記音声ガイダンスを出力する以前に上記音声ガイダンスに対応する視覚的情報を生成し、上記音声ガイダンスに対応する視覚的情報を要求されると、生成された当該視覚的情報を出力する視覚的情報生成手段と、(4)上記入出力手段から、入力情報によって新たな情報の出力が要求されたときに、上記音声ガイダンス生成手段から該当する音声ガイダンスを出力させると共に、その音声ガイダンスに対応する視覚的情報を上記視覚的情報生成手段から出力させて、これら音声ガイダンス及び視覚的情報を上記入出力手段から自動的に出力させるユーザ提供情報管理・制御手段とを備えることを特徴とする。
第2の本発明のガイダンスシステム用サーバは、ユーザからの入力を受け付けると共に、ユーザへの情報を発音出力及び表示出力可能なユーザ端末へ、音声ガイダンスおよび視覚的情報を対応付けたガイダンスシステムを提供するガイダンスシステム用サーバであって、(1)要求された上記音声ガイダンスを出力する音声ガイダンス生成手段と、(2)上記音声ガイダンス生成手段が上記音声ガイダンスを出力する以前に上記音声ガイダンスに対応する視覚的情報を生成し、上記音声ガイダンスに対応する視覚的情報を要求されると、生成された当該視覚的情報を出力する視覚的情報生成手段と、(3)上記ユーザ端末から、入力情報によって新たな情報の出力が要求されたときに、上記音声ガイダンス生成手段から該当する音声ガイダンスを出力させると共に、その音声ガイダンスに対応する視覚的情報を上記視覚的情報生成手段から出力させて、これら音声ガイダンス及び視覚的情報を上記ユーザ端末から自動的に出力させるユーザ提供情報管理・制御手段とを備えることを特徴とする。
第3の本発明のガイダンスシステム用プログラムは、ユーザからの入力を受け付けると共に、ユーザへの情報を発音出力及び表示出力可能なユーザ端末へ、音声ガイダンスおよび視覚的情報を対応付けたガイダンスシステムを提供するガイダンスシステム用サーバに搭載されるコンピュータを、(1)要求された上記音声ガイダンスを出力する音声ガイダンス生成手段と、(2)上記音声ガイダンス生成手段が上記音声ガイダンスを出力する以前に上記音声ガイダンスに対応する視覚的情報を生成し、上記音声ガイダンスに対応する視覚的情報要求されると、生成された当該視覚的情報を出力する視覚的情報生成手段と、(3)上記ユーザ端末から、入力情報によって新たな情報の出力が要求されたときに、上記音声ガイダンス生成手段から該当する音声ガイダンスを出力させると共に、その音声ガイダンスに対応する視覚的情報を上記視覚的情報生成手段から出力させて、これら音声ガイダンス及び視覚的情報を上記ユーザ端末から自動的に出力させるユーザ提供情報管理・制御手段として機能させることを特徴とする。
本発明によれば、ユーザなどに負担を掛けずに、音声ガイダンスの提供タイミングと、音声ガイダンスに対応する視覚的な情報の提供タイミングとの関係を適切化できるガイダンスシステム、ガイダンスシステム用サーバ及びガイダンスシステム用プログラムを提供できる。
実施形態のガイダンスシステムの構成を示すブロック図である。 実施形態のガイダンスシステムにおける、音声通信発信による新規セッションの確立動作を示す各部シーケンス図である。 実施形態のガイダンスシステムにおけるマルチセッション管理部が内蔵するセッション管理データベースの構成を示す説明図である。 実施形態のガイダンスシステムのユーザ端末に表示される視覚的コンテンツの一例を示す説明図である。 実施形態のガイダンスシステムにおける、Web発信による新規セッションの確立動作を示す各部シーケンス図である。 実施形態のガイダンスシステムにおける、Web発信による新規セッションの確立動作の中で表示される音声ガイダンスの発音出力の必要性を確認するコンテンツを示す説明図である。 実施形態のガイダンスシステムにおける、ユーザの音声による入力に応じ、次の音声ガイダンス及びそれに対応する視覚的コンテンツをセンタ側装置が提供する動作を示す各部シーケンス図である。 実施形態のガイダンスシステムにおける、Webページのアイコン操作入力に応じ、次の音声ガイダンス及びそれに対応する視覚的コンテンツをセンタ側装置が提供する動作を示す各部シーケンス図である。
(A)主たる実施形態
以下、本発明によるガイダンスシステム、ガイダンスシステム用サーバ及びガイダンスシステム用プログラムの一実施形態を、図面を参照しながら説明する。
実施形態のガイダンスシステムは、当該ガイダンスシステムが組み込まれるシステムの用途は限定されないものである。例えば、コールセンタシステムの中のガイダンスシステムとして組み込まれたものであっても良く、ネット通販システムの中のガイダンスシステムとして組み込まれたものであっても良い。
(A−1)実施形態の構成
図1は、実施形態のガイダンスシステムの構成を示すブロック図である。
図1において、実施形態のガイダンスシステム10は、センタ側装置20及びユーザ端末400を構成要素として有し、センタ側装置20及びユーザ端末400は、音声網500やデータ網501を介して接続されている。
センタ側装置20がガイダンスシステム用サーバの実施形態に相当するものであり、物理的に、複数のサーバで構成されていても良く、また、1つのサーバで構成されていても良い。センタ側装置20の各要素を、所定機能を実現するようにハードウェアで構成しても良く、CPUがソフトウェアを実行することで所定機能を発揮させるように構成しても良い。後者の場合であっても、機能的には、図1で表すことができる。
サービス提供者がガイダンスに提供サービスを実現するために構築したセンタ側装置20は、マルチ制御サーバ100、コンテンツサーバ200及びIVRサーバ300を有する。センタ側装置20は、ユーザ端末400との間で、PSTN等の音声網500やインターネット等のデータ網501を介して接続され、音声及びデータ(Web情報など)の双方で通信を実施する。なお、音声通信にVoIP(Voice over IP)を適用するような場合には、音声網500とデータ網501とが同一のものとなることもあり得る。
マルチ制御サーバ100は、マルチアクセス制御部110、音声制御部120及びWeb制御部130でそれぞれ構成される。
マルチアクセス制御部110は、音声通信のためのセッション(音声セッション)やWeb情報の提供のためのセッション(Webセッション)を統括して管理し、制御するためのマルチセッション管理部111及びマルチセッション制御部112を有する。マルチセッション管理部111は、音声制御部120及びWeb制御部130がそれぞれ有するセッション制御部(後述する音声セッション制御部121、Webセッション制御部131)で生成されたセッションを一元に管理し、マルチ入出力に対応するセッション情報の組を管理する。マルチセッション制御部112は、セッション管理部111が管理するマルチ入出力のセッションに対して、適切なタイミングでの情報の提供を行うためのコンテンツの生成と対象セッションヘの配信データの提供を行う。
音声制御部120は、ユーザ端末400との間で音声セッションの確立とそのセッション情報の管理を行うための音声セッション制御部121と、IVRサーバ300との間で入力された音声情報をデータ化し、データで提供されたIVRガイダンスをユーザに提供するための音声制御部本体122と有する。
Web制御部130は、ユーザ端末400との間でWebセッションの確立とそのセッション情報の管理を行うためのWebセッション制御部131と、コンテンツサーバ200が持つ情報をWeb情報に変換し、ユーザ端末400にWeb情報を提供するWeb制御部本体132とを有する。
コンテンツサーバ200は、ユーザ端末400に対して、音声若しくはWebによる情報提供を行うためのコンテンツデータを生成するコンテンツ制御部201と、コンテンツデータを保管するコンテンツデータベース(コンテンツDB)202とを有する。
IVRサーバ300は、ユーザ端末400に対して、IVRガイダンスの音声データを提供するIVR生成部301と、ユーザ端末400からの音声入力に対する内容の解析を行う音声認識部302とを有する。
マルチ制御サーバ100、コンテンツサーバ200及びIVRサーバ300の各部の機能については、後述する動作説明で、より明らかにする。
ユーザ端末400自体にはこの実施形態の特徴はないが、この実施形態の場合、ユーザ端末400は、少なくとも以下の機能部を有することを要する。すなわち、ユーザ端末400は、音声通話による情報の入出力を行うための音声制御部401(例えば、電話機能)と、Webによる情報の入出力を行うためのWeb制御部402(例えば、Webブラウザ)と、Webによる情報の表示を行うWeb表示部403とを有する。
例えば、Webブラウザを搭載した携帯電話機や、スマートフォンや、タブレット端末や、ソフトフォンを搭載したパソコンなどは、この実施形態のユーザ端末400となり得る。なお、ユーザ端末400は、機能部毎に複数個の端末に分かれていても構わない。例えば、Webブラウザが搭載されていない携帯電話機と、ソフトフォンに対応していないパソコンとの組をユーザ端末400として適用するようにしても良い。
上述とは異なり、ユーザ端末400は、ガイダンス提供サービスを行っている会社のサーバから所定のソフトウェアをダウンロードすることで(なお、記録媒体からのインストールでも良い)、この実施形態のユーザ端末として機能するようにしたものであっても良い。
(A−2)実施形態の動作
次に、実施形態のガイダンスシステム10の動作を、図面を参照しながら説明する。
以下では、音声通信発信(電話発信)による新規セッションの確立動作、Web発信による新規セッションの確立動作、音声からの入力及び出力動作、Webからの入力及び出力動作の順に、ガイダンスシステム10の動作を説明する。
(A−2−1)音声通信発信による新規セッションの確立動作
図2は、実施形態のガイダンスシステム10における、音声通信発信による新規セッションの確立動作を示す各部シーケンス図である。
ユーザは、センタ側装置20について定まっている電話番号に対する発呼操作を行い、これにより、ユーザ端末400の音声通信部401と、マルチ制御サーバ100の音声セッション制御部121との協働により音声通信に係るセッション(以下、ユーザ・サーバ間セッションと呼ぶ)が確立する(ステップS100)。音声セッション制御部121は、マルチセッション管理部111に、ユーザ情報と採番した音声セッション情報とを通知する(ステップS101)。
ここで、適用する呼制御プロトコルは任意であるが、VoIP通信の場合であればSIP(Session Initiation Protocol)を適用でき、SIPの一般的な手順によりセッションを確立することができる。また、音声セッション制御部121及びマルチセッション管理部111間の通信プロトコルは任意であるが、音声セッション制御部121及びユーザ端末400間の情報の全て又は一部をそのまま適用できるようにSIPを適用するようにしても良い。
音声セッション情報は、上述したユーザ・サーバ間セッションの情報(ID)と、IVRセッションの情報(ID)とでなる。IVRセッションは、マルチ制御サーバ100及びIVRサーバ300間のセッションであり、サーバ・サーバ間セッションということができる。ユーザ情報は、例えば、SIPのINVITEメッセージから抽出した発信元の情報(例えば電話番号))である。
マルチセッション管理部111は、IVRサーバ300のIVR生成部301にIVRセッションの生成要求を出すと共に(ステップS102)、内蔵するセッション管理データベース(若しくはメモリ、以下ではデータベースとして説明する)111a上に音声セッション情報とユーザ情報との紐付け情報を登録する(ステップS103)。
図3は、マルチセッション管理部111が内蔵するセッション管理データベース111aの構成を示す説明図である。
セッション管理データベース111aの1レコードは、ユーザ情報、ユーザ・サーバ間セッション情報、IVRセッション情報、Webセッション情報、シナリオ情報、コンテンツ情報などを有している。Webセッション情報は、Webに係るコンテンツ(Webページ)を提供するためのユーザ端末400とセンタ側装置20とのセッションの情報である。シナリオ情報は、シナリオのどの段階のガイダンスを提供中(提供開始直前も含む)かを示す情報である。コンテンツ情報は、提供中(提供開始直前も含む)のコンテンツ(Webページ)の識別情報である。上述のように、ユーザ・サーバ間セッション情報及びIVRセッション情報が音声セッション情報を構成しており、ステップS103の登録では、新たなレコードが追加された後、ユーザ情報、ユーザ・サーバ間セッション情報、IVRセッション情報及びシナリオ情報が記述され、Webセッション情報及びコンテンツ情報は空欄である。シナリオ情報には、初期段階を指示する情報が記述される。
マルチセッション管理部111は、IVR生成部301からIVRセッションの生成応答を受けると(ステップS104)、コンテンツサーバ200のコンテンツ制御部201に対して、次のコンテンツ(IVRのガイダンス音声に対応するWebページを構成させる元となる情報であり、シナリオ情報によりコンテンツの種類が定まる)の取得要求を出す(ステップS105)。コンテンツ制御部201は、コンテンツデータベース202から要求されたコンテンツを取出してマルチセッション管理部111に返信し(ステップS106)、マルチセッション管理部111は、マルチセッション制御部112を経由して、Webセッション制御部131に対して、そのコンテンツと共に、Webセッションの事前生成(例えば、Webセッション情報の採番、ユーザ情報とWebセッション情報との対応付けなど)及びWebページの事前生成を指示する(ステップS107、S108)。
ここで、「事前」とは、IVR音声ガイダンスの取出しを行う前に、Webページの生成などを開始することを意味している。この実施形態と異なり、IVRによる音声ガイダンスをユーザ端末400に送出した後に、コンテンツの取出し、Webセッションの確立、Webページの生成、送出を行う場合には、音声ガイダンスに対応するWebページがユーザ端末400で表示されるタイミングが、音声ガイダンスが発音出力されるタイミングからかなり遅れてしまい、ユーザは違和感を覚えたり、音声ガイダンスとWebページの連動を認識できなかったりする。そのため、この実施形態では、処理に時間を要するWebページの生成などを事前に行うこととした。
Webセッション制御部131は、Webセッションの事前生成及びWebページの事前生成の指示を受け付けると、Webページの生成やWebセッション情報の生成などを開始すると共に、その事前生成の指示に対する応答(Webセッション情報やコンテンツ情報を含む)を、マルチセッション制御部112を経由して、マルチセッション管理部111に返信する(ステップS109、S110)。このとき、マルチセッション管理部111は、返信されたWebセッション情報及びコンテンツ情報を内蔵するセッション管理データベース111a上の該当ユーザのレコードに追加する(ステップS111)。
以上のように、Webページの提供のための処理を前倒しで開始してから、マルチセッション管理部111は、IVRサーバ300のIVR生成部301にIVRコンテンツ(ガイダンス音声信号を形成するための元データ)の生成指示を出し(ステップS112)、IVR生成部301からIVRコンテンツを取得する(ステップS113)。そして、マルチセッション管理部111は、取得したIVRコンテンツに基づいた音声ガイダンスの再生指示を、マルチセッション制御部112を経由で音声セッション制御部121に出し(ステップS114、S115)、音声セッション制御部121からユーザ端末400へIVRによる音声ガイダンスが与えられる(ステップS116)。
ユーザは、音声通信に係るユーザ・サーバ間セッションを確立させた後(ステップS100参照)、視覚的なガイダンス情報を欲する場合には、Webセッションの確立のための操作を行う。例えば、センタ側装置20について予め定められているURLにアクセスし、当初のWebページにユーザを特定する情報(例えば電話番号)などを入力したりする。このようなアクセスに基づく、ユーザ端末400のWeb制御部402とマルチ制御サーバ100のWebセッション制御部131との協働によりWebセッションが確立する(ステップS117)。なお、図2では、IVRによる音声ガイダンスの発音出力後に、ユーザがWebセッションの確立操作を行ったように記載しているが、IVRによる音声ガイダンスの発音出力がなされる前に、ユーザがWebセッションの確立操作を行っても良いことは勿論である。
Webセッション制御部131は、Webセッションが確立すると、確立したセッション情報をマルチセッション管理部111に通知する(ステップS118)。マルチセッション管理部111への通知方法は任意であるが、ユーザ・サーバ間セッションの通知(ステップS101参照)と同様に、SIPを適用することができる。マルチセッション管理部111は、通知された確立したセッションに係る情報に含まれているユーザ情報をキーとしてセッション管理データベース111aを検索し、事前生成したコンテンツの情報やWebセッション情報を得る(ステップS119)。なお、マルチセッション管理部111は、セッション管理データベース111aに事前生成されるコンテンツの情報が記述されていない場合には、その書き込み(ステップS111参照)を待って、コンテンツの情報を取得する。
そして、マルチセッション管理部111は、事前生成されてWebセッション制御部131に保管されているコンテンツ(Webページ)の送信指示を、マルチセッション制御部112経由でWebセッション制御部131に与える(ステップS120、S121)。Webセッション制御部131は、コンテンツ(Webページ)をユーザ端末400に提供して表示させると共に(ステップS122)、マルチセッション制御部112経由で、マルチセッション管理部111へコンテンツを提供した旨を返信する(ステップS123、S124)。
以上のようにして、センタ側装置20は、音声ガイダンスと対応する視覚的コンテンツ(Webページ)を並行的にユーザ端末400に供給できる状態になり、ユーザ端末400は、音声ガイダンスと対応する視覚的コンテンツ(Webページ)を並行的に受信してユーザに提供できる状態になる。
図4は、ユーザ端末400に表示される視覚的コンテンツの一例を示しており、この例はコンテンツがWebページの場合である。
図4に示すコンテンツ例は、図形や絵や写真などのイメージが表示される部分W1と、提供された対応する音声ガイダンス(ステップS116)をテキスト列として記述している部分W2と、音声ガイダンス中の選択肢を別途取り上げてリンク付きアイコンで表示している部分W3とを含んでいる。
(A−2−2)Web発信による新規セッションの確立動作
図5は、実施形態のガイダンスシステム10における、Web発信による新規セッションの確立動作を示す各部シーケンス図である。
ユーザは、上述した図2に示す音声通信に係るユーザ・サーバ間セッションを確立した後にWebセッションを確立するという第1の確立手順に加え、Webセッションを確立した後に音声通信に係るユーザ・サーバ間セッションを確立するという第2の確立手順を採用することができる。
後者の第2の確立手順を採用する場合には、ユーザは、まず、Webセッションの確立のための操作を行い、これにより、ユーザ端末400のWeb制御部402とマルチ制御サーバ100のWebセッション制御部131との協働によりWebセッションが確立する(ステップS200)。例えば、ユーザは、Webセッションの確立のために、センタ側装置20について予め定められているURLにアクセスし、HTTP(HyperText Transfer Protocol)に従ってセッションを確立させる。このときアクセスするURLは、上述した図2に示す第1の確立手順のステップS117で適用するURLと異なるようにし、図5に示す第2の確立手順の中におけるアクセスか、図2に示す第1の確立手順の中におけるアクセスかを容易に区別できるようにしても良い。
Webセッション制御部131は、Webセッションが確立すると、その旨をマルチセッション管理部111に通知する(ステップS201)。このとき、マルチセッション管理部111は、コンテンツ制御部201にコンテンツデータベース202からの当初のコンテンツの取得を依頼し(ステップS202)、コンテンツ制御部201が返信したコンテンツを受領する(ステップS203)。そして、マルチセッション管理部111は、取得したコンテンツを表示し得る形式のデータ(Webページ)に変換し、そのコンテンツをWebセッション制御部131経由でユーザ端末400に送信して表示させると共に(ステップS204、S205)、セッション管理データベース111aに新規なレコードを追加させ、Webセッション情報やシナリオ情報やコンテンツ情報などを記述する(ステップS206)。
ユーザ端末400に当初に表示されるコンテンツは、例えば2種類ある。2種類のコンテンツは、当初の音声ガイダンスに対応したコンテンツ(上述した図4参照)と、図6に示す音声ガイダンスの発音出力の必要性を確認するコンテンツとであり、後者のコンテンツの必要表示領域を前者のコンテンツの必要表示領域より小さくし、後者のコンテンツを前者のコンテンツ上に表示させる。図6は、音声ガイダンスの発音出力の必要性を確認するコンテンツの一例を示している。図6の例は、「音声によるガイダンスが必要な方は電話番号を入力した後、実行キーを押して下さい。」という文章と、電話番号を入力させるフィールドと、「実行キー」アイコンと、「音声不要キー」アイコンとを含んでいる。「音声不要キー」アイコンが操作されたときには、図6に示すコンテンツの表示は終了し、図4に示すコンテンツだけが表示される。この表示の終了は、図6に示すコンテンツのデータの中に表示を終了させるソフトウェアを組み込んでおくことにより、センタ側装置20との通信を行うことなく実行される。「実行キー」アイコンが操作されたときには、操作に対する後述するステップS211の応答がユーザ端末400に返信されたときに、図6に示すコンテンツの表示は終了し、図4に示すコンテンツだけが表示されることになる。
ユーザが電話番号を入力して音声ガイダンスの発音出力を求めた場合(図6の例であれば、電話番号を入力後に実行キーアイコンを操作した場合)には、ユーザ端末400は、音声ガイダンスの発音出力のための、電話番号を伴うHTTPに従っている接続指示(図6ではIVR接続指示と記述している)を、Webセッション制御部131経由で、マルチセッション管理部111に与える(ステップS208)。このとき、マルチセッション管理部111は、指示に係るWebセッション情報をキーとしてセッション管理データベース111aのレコードを認識し、そのレコードのユーザ情報のフィールドに指示に含まれている電話番号を記述すると共に(ステップS209)、指示を受け付けた旨を、Webセッション制御部131経由で、ユーザ端末400に返信する(ステップS210、S211)。
次に、マルチセッション管理部111は、IVRサーバ300との間で、IVRによる音声ガイダンスやそれに対する応答音声信号を授受できるようにすべくIVRセッションを生成させて取込み(ステップS212、S213)、また、音声セッション制御部121に対して、マルチセッション制御部112経由で、ユーザ端末400との音声通信に係るセッションの確立を指示する(ステップS214、S215)。この指示には、ユーザ端末400から通知された電話番号が含まれている。このとき、音声セッション制御部121は、ユーザ端末400に向けて発呼し、ユーザ(ユーザ端末400)がオフフックすることで、音声通信に係るユーザ端末400及びセンタ側装置20間のユーザ・サーバ間セッションが確立する(ステップS216、S217)。
なお、図6では、セッション確立のための授受を2本の線(ステップS216、S217)で示しているが、これは図面表記の簡便性のためであり、実際には、これより多くの信号授受が実行される。セッション確立のための呼制御プロトコルとして例えばSIPを適用でき、SIPの場合であれば、INVITE、180 Ringing、200 OK、ACKなどのSIPメッセージが授受されてセッションが確立される。
ユーザ・サーバ間セッションが確立すると、音声セッション制御部121は、その旨をマルチセッション制御部112経由でマルチセッション管理部111へ通知する(ステップS218、S219)。このとき、マルチセッション管理部111は、内蔵するセッション管理データベース111aの該当するレコードに、音声セッション情報(ユーザ・サーバ間セッション及びIVRセッションの情報)を追加記述する(ステップS220)。
その後、マルチセッション管理部111は、IVR生成部301に、IVRコンテンツ(IVRによる音声ガイダンスの元データ(例えば、圧縮されている))の生成を指示し(ステップS221)、返信されたIVRコンテンツを取込む(ステップS222)。そして、マルチセッション管理部111は、IVRによる音声ガイダンスを再生し、再生した音声ガイダンスを、マルチセッション制御部112、音声セッション制御部121経由でユーザ端末400に与えて発音出力させる(ステップS223〜S225)。ユーザ端末400(のWeb制御部402)は、ステップS207の情報を送信した以降、音声ガイダンスが再生されること(例えば、ユーザ端末400が内蔵する受信信号の有音無音判定回路の出力が有音になること)を監視しており、音声ガイダンスの受信開始を認識すると、音声ガイダンスの再生開始を、Webセッション制御部131経由でマルチセッション管理部111に通知する(ステップS226、S227)。
以上のようにして、センタ側装置20は、音声ガイダンスと対応する視覚的コンテンツ(Webページ)を並行的にユーザ端末400に供給できる状態になり、ユーザ端末400は、音声ガイダンスと対応する視覚的コンテンツ(Webページ)を並行的に受信してユーザに提供できる状態になる。
(A−2−3)音声からの入力及び出力動作
図7は、実施形態のガイダンスシステム10における、ユーザの音声による入力に応じ、次の音声ガイダンス及びそれに対応する視覚的コンテンツをセンタ側装置が提供する動作を示す各部シーケンス図である。
発音出力された音声ガイダンス若しくは表示されたWebページのガイダンスによって、次のガイダンスへ移行する選択肢を認識したユーザは、ユーザ端末400に対して、音声によって選択肢の選択を入力しても良く、また、表示されたWebページの選択肢アイコンを操作して選択入力を行っても良い。
図7は、音声によって選択肢の選択入力を行った場合の流れを示しており、後述する図8は、Webページの選択肢アイコンを操作して選択入力を行った場合の流れを示している。
ユーザが音声によって選択肢の選択入力を行うと(図4の例に対する音声入力は「1」、「2」若しくは「3」と発音することになる)、ユーザ端末400は、捕捉した音声のデータを音声制御部本体122に与え(ステップS300)、音声制御部本体122は、その音声データをマルチセッション管理部111に引き渡す(ステップS301)。このとき、マルチセッション管理部111は、IVRサーバ300との間に確立しているIVRセッションを通じて、音声認識部302に音声データのテキストデータ化を求め(ステップS302)、音声認識部302は与えられた音声データに対する音声認識を実行し、得たテキストデータ(ユーザが選択した選択肢を規定する情報)をマルチセッション管理部111に返信する(ステップS303)。
そして、マルチセッション管理部111は、返信されたテキストデータにより定まる次の視覚的なコンテンツの情報をコンテンツ制御部201に要求し(ステップS304)、コンテンツ制御部201が要求に応じてコンテンツデータベース202から取出した視覚的なコンテンツ情報を受領する(ステップS305)。
その後、マルチセッション管理部111は、今回のユーザ入力に対する処理が完了する前に、次のユーザ入力があって、現在の処理に悪影響を及ぼすことを防止するため、マルチセッション制御部112経由で、Webセッション制御部131及び音声セッション制御部121に対して、新たな入力を受け付けないで拒否することを通知し、Webセッション制御部131及び音声セッション制御部121はそれぞれ、受付拒否状態となる(ステップS306〜S309)。
マルチセッション管理部111は、今回のユーザ対応のIVRセッションを介して、IVR生成部301に対して、ユーザが選択した選択肢を規定する情報に応じたIVRコンテンツの生成を要求し(ステップS310)、IVR生成部301が生成したIVRコンテンツを受領する(ステップS311)。また、マルチセッション管理部111は、ステップS305で受領した視覚的なコンテンツ情報をWeb制御部本体132に渡して表示形式への変換を要求し(ステップS312)、Web制御部本体132は、その要求に応じて表示形式への変換を行って応答を返信する(ステップS313)。
処理の前後が全体の動作に影響しないならば、各種のシーケンス図(図2、図5、図7及び後述する図8)に記述した処理は、その順番を入れ替えても、また、並行処理しても良い。上述した受付拒否状態に移行させる処理(ステップS306〜S309)、IVRコンテンツを生成させて取込む処理(ステップS310、S311)、視覚的コンテンツ情報の表示形式への変換を指示してその応答を取込む処理(ステップS312、S313)などは、処理順序を問わない関係にあるので、図7に示す処理順序に限定されるものではなく、処理順序を入れ換えても、並行処理するようにしても良い。
マルチセッション管理部111は、IVRコンテンツの生成完了や表示形式の視覚的コンテンツの生成完了を受けると、内蔵するマルチセッション管理データベース111a上に登録されたユーザのアクティブなセッション情報を確認する(ステップS314)。言い換えると、生成完了したコンテンツの送付先を確認する。図7は、あるユーザ端末400に関する処理を示しているが、実際上は、センタ側装置20は、複数のユーザ端末400に関する処理を並行的に実行しているため、このような確認動作が必要である。
その後、マルチセッション管理部111は、マルチセッション制御部112経由で、Webセッション制御部131及び音声セッション制御部121へ、入力受付を再開させること、コンテンツ配信を待機することを指示する(ステップS315〜S318)。これにより、Webセッション制御部131は、新規入力を受け付けられる状態に戻ると共に、視覚的コンテンツの配信を待機する状態になり、待機状態になったことを、マルチセッション制御部112経由で、マルチセッション管理部111へ返信する(ステップS319、S320)。同様に、マルチセッション管理部111は、新規入力を受け付けられる状態に戻ると共に、音声ガイダンスの配信を待機する状態になり、待機状態になったことを、マルチセッション制御部112経由で、マルチセッション管理部111へ返信する(ステップS321、S322)。
マルチセッション管理部111は、Webセッション制御部131及び音声セッション制御部121からの配信待機状態の通知により配信準備の完了を認識すると、マルチセッション制御部112にWebコンテンツ接続指示を出し(ステップS323)、このとき、マルチセッション制御部112は、Webセッション制御部131を通じて、ユーザ端末400にアクセス先をWebセッション制御部131としたWebコンテンツ接続通知を送信する(ステップS324)。
このWebコンテンツ接続通知の送信は、ユーザが音声入力によって次のガイダンスを求めたため、ユーザ端末400のWeb制御部402が、入力があったことを認識していないこと、及び、今回のユーザ入力に基づく、次の音声ガイダンス及び視覚的コンテンツ情報の提供を同期して実行させることを考慮して設けられた処理である。後述するWebページに対するアイコン操作によってユーザが次のガイダンスを求めた場合には、前者は成り立たないが、後者が成り立つので、ユーザが音声入力によって次のガイダンスを求めた場合と同様に、Webコンテンツ接続通知の送信を行っている。
Webコンテンツ接続通知を受信したユーザ端末400は、自動的に、通知されたWebアクセス先であるWebセッション制御部131にアクセスする(ステップS326)。なお、アクセスを促すアイコンを表示させ、ユーザがそのアイコンを操作することにより、ユーザ端末400がアクセスするようにしても良い。アクセスされると、Webセッション制御部131は、Web制御部本体132に生成した表示形式の視覚的コンテンツ情報(Webページ)の取得を要求し(ステップS327)、Web制御部本体132が送出した表示形式の視覚的コンテンツ情報(Webページ)を取込む(ステップS328)。また、Webセッション制御部131は、マルチセッション制御部112経由で、マルチセッション管理部111にWebアクセスがあったことを通知する(ステップS329、S330)。
これを受けて、マルチセッション管理部111は、マルチセッション制御部112経由でWebセッション制御部131に表示形式の視覚的コンテンツ情報(Webページ)の配信を指示して視覚的コンテンツ情報を配信させると共に(ステップS331〜S333)、マルチセッション制御部112経由で音声セッション制御部121にIVRによる音声ガイダンスの配信を指示して音声ガイダンスを配信させる(ステップS334〜S336)。
これにより、ユーザ端末400においては、音声ガイダンスに対応する視覚的コンテンツ情報であるWebページが表示されると並行して、音声ガイダンスが発音出力される。
(A−2−4)Webからの入力及び出力動作
図8は、実施形態のガイダンスシステム10における、Webページのアイコン操作入力に応じ、次の音声ガイダンス及びそれに対応する視覚的コンテンツをセンタ側装置が提供する動作を示す各部シーケンス図である。図8において、上述した図7との同一、対応ステップには同一符号を付して示している。
発音出力された音声ガイダンス若しくは表示されたWebページのガイダンスによって、次のガイダンスへ移行する選択肢を認識したユーザは、ユーザ端末400に対して、音声によって選択肢の選択を入力しても良く、また、表示されたWebページの選択肢アイコンを操作して選択入力を行っても良い。図8は、ユーザがWebページの選択肢アイコンを操作して選択入力を行った場合の流れを示している。
ユーザがWebページの選択肢アイコンを操作すると、ユーザ端末400は、その操作情報を、Web制御部本体132経由でマルチセッション管理部111に与える(ステップS400、S401)。このとき、マルチセッション管理部111は、この操作入力情報を受けて、操作された選択肢に応じた次のコンテンツをコンテンツサーバ200のコンテンツ制御部201に要求し(ステップS402)、コンテンツ制御部201がコンテンツデータベース202から取出した次のコンテンツを受領する(ステップS403)。また、マルチセッション管理部111は、次のコンテンツの表示形式の生成、配信が完了するまでに表示する一時的な表示形式のコンテンツとして、入力操作を受け付けた旨のメッセージ(例えば、「1の押下を受け付けました。」)を追加した現在のコンテンツを、Web制御部本体132経由でユーザ端末400に送信する(ステップS404、S405)。
一般的なWebページの提供システムの場合、Webページ上のリンク付きアイコンが操作されると、直ちに、次のWebページの表示に切り替えるが、この実施形態の場合、音声ガイダンスの発音出力に同期して、視覚的なガイダンス情報である次のWebページを提供するため、同期した提供の準備が完了するまで、入力操作を受け付けた旨のメッセージを追加した現在のコンテンツを継続して表示させることとしている。
入力操作を受け付けた旨のメッセージを追加した現在のコンテンツをユーザ端末400に送信した以降の処理は、ユーザが音声によって選択肢を入力した上述した図7の場合と同様であるので、その説明は省略する。
(A−3)実施形態の効果
上記実施形態によれば、音声ガイダンスの発音出力と並行して、音声ガイダンスの内容を記述した視覚的情報(Webページ)を表示するようにしたので、音声のみでは伝わりにくい情報や、音声では記憶に留めにくい情報や、聞き漏らした情報を視覚的に補足して、ユーザに提供することができる。
また、上記実施形態によれば、ユーザは、音声入力だけではなく、視覚的な表示情報からの入力も実施できるので、聞き漏らした場合などにおいて、同じ音声ガイダンスを発音出力させてから入力するような無駄な手順を踏むことなく、所望する入力を行うことができ、また、入力方法の自由度も高くなっている。
以上のように、複数のユーザ入力方法を備え、音声ガイダンスの発音出力と表示出力が並行して(タイムラグなく、若しくは、ごく僅かなタイムラグで)行われることにより、ユーザの音声ガイダンスやWebサービスに対する不満を補うことが可能となり、その結果、サービスの途中離脱率の改善やカスタマサポートにかかるコストの低減に貢献することが可能となる。
(B)他の実施形態
上記実施形態においては、発音出力された音声ガイダンスに応じたユーザの入力が、音声の発音入力、表示された視覚的情報におけるキーアイコンの操作入力であるものを示したが、これらの一方又は両方に代え、若しくは、これらの両方の入力方法に加え、ユーザ端末400が有するテンキーの操作入力であっても良い。テンキーの操作により送信される信号がPB(Push Button)信号であれば、IVRサーバにPB信号の判定回路を設けることを要する。
上記実施形態においては、Webセッションを確立した後に音声通信に係るユーザ・サーバ間セッションを確立する手順(第2の確立手順)の場合において、Webセッションの当初の確立操作がなされたときに、電話番号を入力させる画面と最初の音声ガイダンスに対応した視覚的なコンテンツ情報画面とを、マルチウィンドウで表示させるものを示したが、これに代えて、以下のようにすることにより、音声ガイダンスの発音出力と、音声ガイダンスの内容を記述した視覚的情報(Webページ)の表示とを並行させるようにしても良い。すなわち、Webセッションの当初の確立操作がなされたときに、電話番号を入力させる画面だけをユーザ端末に表示させ、一方、センタ側装置は、これに並行して最初の音声ガイダンスに対応した視覚的なコンテンツ情報画面の事前生成処理を行い、電話番号が入力されて、その電話番号に基づいて音声セッションを確立した以降に、IVRによる音声ガイダンスの提供と、音声ガイダンスの内容を記述した視覚的情報(Webページ)の提供とを並行して行うようにしても良い。
上記実施形態においては、視覚的コンテンツの情報をWebページで提供するものを示したが、視覚的なコンテンツ情報の提供方法はこれに限定されるものではない。
上記実施形態では、音声通信発信(電話発信)によっても、Web発信によっても新規セッションを確立できるものを示したが、新規セッションの確立はいずれか一方だけに対応するシステムであっても良い。
上記実施形態では、音声ガイダンスも、音声ガイダンスの内容を記述した視覚的情報(Webページ)も1つの言語(日本語)であるものを示したが、これに限定されるものではない。例えば、初期(若しくは全ての)の音声ガイダンス若しくは視覚的情報から言語を選択できる(若しくは切り替えることができる)ようにしても良い。また例えば、音声ガイダンスは1つの言語に固定であるが、視覚的情報には複数の言語の表現を含めるようにしても良い。
上記実施形態の説明では、Webブラウザを搭載した携帯電話機や、スマートフォンや、タブレット端末や、ソフトフォンを搭載したパソコンなどがユーザ端末400となり得ると説明したが、ユーザ端末は、これに限定されるものではない。ユーザ端末が、銀行のATM(Automated Teller Machine)や、公共施設等に設置されるキオスク端末、デジタルサイネージ端末などであっても良く、このような端末をユーザ端末として適用することにより、様々な業種やサービスヘ本発明のガイダンスシステムを活用することができる。
さらに、上記実施形態では、ユーザの入出力手段としてのユーザ端末がセンタ側装置と通信網を介して接続するものを示したが、入出力手段が装置本体に搭載された単独の装置のガイダンスシステムとして、本発明のガイダンスシステムを適用することができる。すなわち、音声ガイダンスと、それに対応する視覚的情報との並行的な提供が好ましい独立装置にも、本発明のガイダンスシステムを適用することができる。
10…ガイダンスシステム、
20…センタ側装置、
100…マルチ制御サーバ、110…マルチアクセス制御部、111…マルチセッション管理部、112…マルチセッション制御部、120…音声制御部、121…音声セッション制御部、122…音声制御部本体、130…Web制御部、131…Webセッション制御部、132…Web制御部本体、
200…コンテンツサーバ、201…コンテンツ制御部、202…コンテンツデータベース(コンテンツDB)、
300…IVRサーバ、301…IVR生成部、302…音声認識部、
400…ユーザ端末、401…音声制御部、402…Web制御部、403…Web表示部、
500…音声網、501…データ網。

Claims (7)

  1. 音声ガイダンスおよび視覚的情報を対応付けてユーザへ提供するガイダンスシステムであって、
    ユーザからの入力を受け付けると共に、ユーザへの情報を発音出力及び表示出力可能な入出力手段と、
    要求された上記音声ガイダンスを出力する音声ガイダンス生成手段と、
    上記音声ガイダンス生成手段が上記音声ガイダンスを出力する以前に上記音声ガイダンスに対応する視覚的情報を生成し、上記音声ガイダンスに対応する視覚的情報を要求されると、生成された当該視覚的情報を出力する視覚的情報生成手段と、
    上記入出力手段から、入力情報によって新たな情報の出力が要求されたときに、上記音声ガイダンス生成手段から該当する音声ガイダンスを出力させると共に、その音声ガイダンスに対応する視覚的情報を上記視覚的情報生成手段から出力させて、これら音声ガイダンス及び視覚的情報を上記入出力手段から自動的に出力させるユーザ提供情報管理・制御手段と
    を備えることを特徴とするガイダンスシステム。
  2. 上記入出力手段は、
    ユーザの発生音声を捕捉した信号をそのまま入力情報とする、若しくは、ユーザのキー操作に応じたPB信号を入力情報とする、音声網用の伝送に適した入力情報を得る第1の入力部と、
    表示出力された視覚的情報上に存在するキーアイコンの操作情報を入力情報とする、データ網用の伝送に適した入力情報を得る第2の入力部とを備え、
    上記ユーザ提供情報管理・制御手段が、上記第1の入力部及び上記第2の入力部のいずれからの入力情報にも対応できるものである
    ことを特徴とする請求項1に記載のガイダンスシステム。
  3. 上記ユーザ提供情報管理・制御手段は、上記音声ガイダンス生成手段から該当する音声ガイダンスを出力させる処理、上記視覚的情報生成手段から音声ガイダンスに対応する視覚的情報を出力させる処理、取出した音声ガイダンスを上記入出力手段に送出する処理、取出した視覚的情報を上記入出力手段に送出する処理の流れを予め一つのフローで定め、上記入出力手段からの音声ガイダンス及び視覚的情報の出力タイミングを制御することを特徴とする請求項1又は2に記載のガイダンスシステム。
  4. 上記入出力手段がユーザ端末に搭載され、
    上記音声ガイダンス生成手段、上記視覚的情報生成手段及び上記ユーザ提供情報管理・制御手段がガイダンスシステム用サーバに搭載され、
    上記ユーザ端末及び上記ガイダンスシステム用サーバが通信網を介して接続する
    ことを特徴とする請求項1〜3のいずれかに記載のガイダンスシステム。
  5. 上記視覚的情報がWebページ構成の情報であることを特徴とする請求項4に記載のガイダンスシステム。
  6. ユーザからの入力を受け付けると共に、ユーザへの情報を発音出力及び表示出力可能なユーザ端末へ、音声ガイダンスおよび視覚的情報を対応付けたガイダンスシステムを提供するガイダンスシステム用サーバにおいて、
    要求された上記音声ガイダンスを出力する音声ガイダンス生成手段と、
    上記音声ガイダンス生成手段が上記音声ガイダンスを出力する以前に上記音声ガイダンスに対応する視覚的情報を生成し、上記音声ガイダンスに対応する視覚的情報を要求されると、生成された当該視覚的情報を出力する視覚的情報生成手段と、
    上記ユーザ端末から、入力情報によって新たな情報の出力が要求されたときに、上記音声ガイダンス生成手段から該当する音声ガイダンスを出力させると共に、その音声ガイダンスに対応する視覚的情報を上記視覚的情報生成手段から出力させて、これら音声ガイダンス及び視覚的情報を上記ユーザ端末から自動的に出力させるユーザ提供情報管理・制御手段と
    を備えることを特徴とするガイダンスシステム用サーバ。
  7. ユーザからの入力を受け付けると共に、ユーザへの情報を発音出力及び表示出力可能なユーザ端末へ、音声ガイダンスおよび視覚的情報を対応付けたガイダンスシステムを提供するガイダンスシステム用サーバに搭載されるコンピュータを、
    要求された上記音声ガイダンスを出力する音声ガイダンス生成手段と、
    上記音声ガイダンス生成手段が上記音声ガイダンスを出力する以前に上記音声ガイダンスに対応する視覚的情報を生成し、上記音声ガイダンスに対応する視覚的情報要求されると、生成された当該視覚的情報を出力する視覚的情報生成手段と、
    上記ユーザ端末から、入力情報によって新たな情報の出力が要求されたときに、上記音声ガイダンス生成手段から該当する音声ガイダンスを出力させると共に、その音声ガイダンスに対応する視覚的情報を上記視覚的情報生成手段から出力させて、これら音声ガイダンス及び視覚的情報を上記ユーザ端末から自動的に出力させるユーザ提供情報管理・制御手段として
    機能させることを特徴とするガイダンスシステム用プログラム。
JP2012278477A 2012-12-20 2012-12-20 ガイダンスシステム、ガイダンスシステム用サーバ及びガイダンスシステム用プログラム Active JP6065574B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012278477A JP6065574B2 (ja) 2012-12-20 2012-12-20 ガイダンスシステム、ガイダンスシステム用サーバ及びガイダンスシステム用プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012278477A JP6065574B2 (ja) 2012-12-20 2012-12-20 ガイダンスシステム、ガイダンスシステム用サーバ及びガイダンスシステム用プログラム

Publications (2)

Publication Number Publication Date
JP2014123845A JP2014123845A (ja) 2014-07-03
JP6065574B2 true JP6065574B2 (ja) 2017-01-25

Family

ID=51404016

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012278477A Active JP6065574B2 (ja) 2012-12-20 2012-12-20 ガイダンスシステム、ガイダンスシステム用サーバ及びガイダンスシステム用プログラム

Country Status (1)

Country Link
JP (1) JP6065574B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105933555B (zh) 2016-06-12 2021-02-12 腾讯科技(深圳)有限公司 一种与呼叫中心的通信方法、系统及相关装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5056443B2 (ja) * 2008-01-31 2012-10-24 沖電気工業株式会社 コールセンタ装置
JP2009213056A (ja) * 2008-03-06 2009-09-17 Ntt Docomo Inc 音声自動応答装置、音声自動応答方法、音声自動応答プログラム
US8565388B2 (en) * 2010-07-06 2013-10-22 Millind Mittal Method and apparatus for data channel augmented auto attended voice response systems
JP5947156B2 (ja) * 2012-08-29 2016-07-06 株式会社Nttドコモ 音声ガイダンスサーバ、音声ガイダンス方法、音声ガイダンスプログラム、音声ガイダンスシステム

Also Published As

Publication number Publication date
JP2014123845A (ja) 2014-07-03

Similar Documents

Publication Publication Date Title
KR100695926B1 (ko) 텔레비전 전화 통역 시스템 및 텔레비전 전화 통역 방법
CN103548331B (zh) 可视电话装置、系统和方法
JP5592690B2 (ja) 音声通信方法
CN109964470A (zh) 通信会话的转录呈现
JP2008219903A (ja) 音声およびデータ接続を並列で扱うための通信サーバおよびこれを使用する方法
WO2017215568A1 (zh) 一种与呼叫中心的通信方法、装置和系统
JP2013115638A (ja) テレビ電話装置
US20040218737A1 (en) Telephone system and method
CN112887194B (zh) 实现听障人士通话的交互方法、装置、终端及存储介质
JP4925906B2 (ja) 制御装置、情報提供方法及び情報提供プログラム
JP6065574B2 (ja) ガイダンスシステム、ガイダンスシステム用サーバ及びガイダンスシステム用プログラム
US20050089150A1 (en) Voice enabled interactive drug and medical information system
JP2009026191A (ja) 配信装置、配信方法および配信システム
JP5663994B2 (ja) 電話システム、センタ装置及び音声応答制御プログラム
JP2007251763A (ja) コールセンタシステムおよび通信要求処理方法
US20050154621A1 (en) Voice enabled interactive travel information conversion system
JP5234744B2 (ja) 映像会議装置、映像会議方法、映像会議プログラムおよび記録媒体
KR20110019266A (ko) 영상 응답 서비스 제공 시스템 및 서비스 제공 방법
JP5947156B2 (ja) 音声ガイダンスサーバ、音声ガイダンス方法、音声ガイダンスプログラム、音声ガイダンスシステム
JP5184435B2 (ja) コンテンツ取得方法、コンテンツ取得装置、コンテンツ取得プログラム及び記録媒体
JP2009094699A (ja) 電話接続制御システム、サーバ装置、サーバ処理プログラム、及び電話接続制御方法
US20130329870A1 (en) Data communication
JP7450135B1 (ja) Ivrシステム、ivrテンプレート作成方法及びコンピュータプログラム
JP2008028884A (ja) テレビ電話通信をなすコールセンタシステム
JP7489106B2 (ja) 電話リレーシステム、及びコミュニケーションプラットフォーム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150817

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160616

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161212

R150 Certificate of patent or registration of utility model

Ref document number: 6065574

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150