JP5523396B2 - サービス提供装置及びサービス提供方法 - Google Patents

サービス提供装置及びサービス提供方法 Download PDF

Info

Publication number
JP5523396B2
JP5523396B2 JP2011124675A JP2011124675A JP5523396B2 JP 5523396 B2 JP5523396 B2 JP 5523396B2 JP 2011124675 A JP2011124675 A JP 2011124675A JP 2011124675 A JP2011124675 A JP 2011124675A JP 5523396 B2 JP5523396 B2 JP 5523396B2
Authority
JP
Japan
Prior art keywords
content
user terminal
service providing
unit
providing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011124675A
Other languages
English (en)
Other versions
JP2012253573A (ja
Inventor
啓之 佐藤
直義 金丸
昌和 浦田
和浩 與口
則泰 荒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2011124675A priority Critical patent/JP5523396B2/ja
Publication of JP2012253573A publication Critical patent/JP2012253573A/ja
Application granted granted Critical
Publication of JP5523396B2 publication Critical patent/JP5523396B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Telephonic Communication Services (AREA)
  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)

Description

この発明は、サービス提供装置及びサービス提供方法に関する。
電話番号等のある特定のアクセス番号(発信先電話番号)を用いた接続に対して、音声で自動応答をする音声自動応答装置(例えば、非特許文献1参照)が知られている。また、街中に設置され、利用者に対して広告等のコンテンツを提示するデジタルサイネージ端末(例えば、非特許文献2参照)の普及も進んでいる。ユーザは、例えば携帯電話をデジタルサイネージの近接間通信インタフェース(例えば、NFC(Near Field Communication)、非特許文献5参照)にかざすことにより、デジタルサイネージ端末から簡単な情報を取得することができる。一方、デジタルサイネージ端末に表示された広告に関するより詳細なコンテンツ(例えば音声ガイダンス)を携帯電話で取得するためには、デジタルサイネージ端末にコンテンツを配信しているサービス提供装置とのコンテンツ連携が不可欠となる。
図6は、第1利用者端末(携帯電話)と、第2利用者端末(デジタルサイネージ端末)との間のコンテンツ連携の一例を示す図である。ユーザは、街中に設置された第2利用者端末(デジタルサイネージ端末)に表示された第2コンテンツ(広告)から、電話番号等のアクセス番号を取得する。ユーザは、第1利用者端末(携帯電話)を用いてアクセス番号へ発信し、音声自動応答装置等のサービス提供装置に接続する。サービス提供装置は、現在第2利用者端末(デジタルサイネージ端末)に表示されている第2コンテンツ(広告)の内容に応じた第1コンテンツ(音声による予約案内等)を、音声ガイダンスとして第1利用者端末(携帯電話)に送信する。また、サービス提供装置は、第1コンテンツ(音声ガイダンス)に対応する第2コンテンツ(入力メニューを含む予約画面)を第2利用者端末(デジタルサイネージ端末)に送信する。
利用者は必要な操作(予約手続き等)を行うため、第1利用者端末(携帯電話)で音声ガイダンスを聞くと同時に、第2利用者端末(デジタルサイネージ端末)の画面を一時的に占有し、画面表示される案内を参照しながら、予約操作を進めることができる。従来、第1利用者端末(携帯電話)の音声ガイダンスだけで行われていた予約などの操作に対して、必要な情報を第2利用者端末(デジタルサイネージ端末)に映像として表示し併用する事により、ユーザは操作の選択肢や映像情報を一目で判別できるため、より効率的なコミュニケーションを行えるようになる。
ところで、例えば、第2利用者端末(デジタルサイネージ端末)の第2コンテンツ(広告)を見た利用者が、第2利用者端末(デジタルサイネージ端末)から提示されるアクセス番号を取得し、第1利用者端末(携帯電話)を用いてサービス提供装置(例えば音声自動応答装置)に接続するとする。サービス提供装置は、利用者が見た広告(例えばレストラン案内)に対応する第1コンテンツ(音声ガイダンス、例えばレストランの予約ガイダンス)を提供するため、利用者が見た広告種別(第2コンテンツ番号)を知る必要がある。
また、利用者が第2コンテンツ(広告)に対応した第1コンテンツ(音声ガイダンス)に合わせて第1利用者端末(携帯電話)に入力操作(例えば、「1」を押して予約希望を通知)を行うとする。この場合、当該入力に対応した第2コンテンツ(例えば予約画面)をユーザ近傍の第2利用者端末(デジタルサイネージ端末)に提供するためには、当該第2利用者端末(デジタルサイネージ端末)の端末番号を特定する必要がある。
しかし、第1利用者端末(携帯電話)が音声自動応答装置に接続した際に、音声自動応答装置側で取得できる情報は、第1利用者端末の番号(即ち発信者番号)と、接続に利用されたアクセス番号しかない。音声自動応答装置に割り当てられるアクセス番号は、仮にダイヤルイン(例えば、非特許文献3参照)、サブアドレス(例えば、非特許文献4を参照)等を用いても通常多数用意することが難しく、音声自動応答装置などのサービス提供装置側では、限られたアクセス番号から第2コンテンツや第2利用者端末を特定しなくてはならない。
従来、携帯電話等の第1利用者端末から、電話番号等のアクセス番号を使って、音声自動応答装置等に対して接続し、提供される音声サービスでは、サービスメニュー選択等の情報は全て「音声」により提供されるため、これらの情報をテキストや画像を使って参照したいという要望があった。例えば、音声応答サービスのメニュー構成や選択肢の情報(例えば、1:予約する、2:変更する、9:終了する等)を事前にパンフレットやFAXサービスにより入手しておき、音声応答サービスを全部聞かなくても、途中でプッシュボタン(PB)を押すことで先に進めるサービスがある。
従来の技術では、アクセス番号から第2コンテンツを識別する方法として、サービス提供装置を電話回線等につなぎ、第2コンテンツ(広告)毎に異なるアクセス番号を付与する方法(従来1−1)、又は、複数の第2コンテンツ(広告)を受け付ける代表アクセス番号に接続した後に、利用者に希望する第2コンテンツの番号を入力させる方法(従来1−2)、若しくはこれらの方法を組み合わせた方法(従来1−3)などがあった。
また、第2利用者端末(デジタルサイネージ端末)を識別する方法として、第1コンテンツと連携した付加コンテンツ(第2コンテンツ)を第2利用者端末に表示する場合、第1利用者端末と第2利用者端末とを事前に固定的に対応付ける方法(従来2−1)や、利用者に第2利用者端末番号を入力させる方法(従来2−2)があった。
"音声自動応答装置"、Wikipedia、[online]、[2011年1月19日検索]、インターネット〈http://www.weblio.jp/content/%E9%9F%B3%E5%A3%B0%E8%87%AA%E5%8B%95%E5%BF%9C%E7%AD%94%E8%A3%85%E7%BD%AE〉 "デジタルサイネージ"、Wikipedia、[online]、[2011年1月19日検索]、インターネット〈http://ja.wikipedia.org/wiki/%E3%83%87%E3%82%B8%E3%82%BF%E3%83%AB%E3%82%B5%E3%82%A4%E3%83%8D%E3%83%BC%E3%82%B8〉 "ダイヤルイン"、Wikipedia、[online]、[2011年1月19日検索]、インターネット〈http://ja.wikipedia.org/wiki/%E3%83%80%E3%82%A4%E3%83%A4%E3%83%AB%E3%82%A4%E3%83%B3〉 "「サブアドレス」とは"、ITpro、[online]、[2011年1月19日検索]、インターネット〈http://itpro.nikkeibp.co.jp/word/page/10030806/〉 "NFC(Near Field Communication)"、[online]、[2011年1月19日検索]、インターネット〈http://www.sophia-it.com/content/Near+Field+Communication〉
アクセス番号からの第2コンテンツを識別について、(従来1−1)に示す方法では、第2コンテンツの数だけ個別にアクセス番号が必要になるという問題があった。また、(従来1−2)及び(従来1−3)に示す方法では、利用者が第1コンテンツを明示的に指定する必要があり、操作が煩雑になるという問題があった。
また、第2利用者端末の識別について、(従来2−1)に示す方法では、不特定多数の利用者が利用する場合、事前に第2利用者端末が一意に決まらないという問題があり、(従来2−2)に示す方法では、利用者が第2利用者端末を明示的に指定する必要があり、操作が煩雑になるという問題があった。
上述の問題に対しては、第2利用者端末に表示された第2コンテンツを視聴した利用者が、第1利用者端末からアクセス番号(及びセッション番号など)により接続してきた場合に、第2利用者端末及び第2コンテンツを識別し、第1コンテンツ及び第2コンテンツを連携させたサービスを提供することが期待される。
しかし、上述の問題を解決し、第1利用者端末の第1コンテンツと第2利用者端末の第2コンテンツとを連携させたサービスを提供することができても、更なる問題が生じうる。
例えば、第2利用者端末において多数の第2コンテンツ(例えば広告)がローテーションで順番に表示されており、利用者は、興味を持った第2コンテンツを視聴中に第1利用者端末を用いてサービス提供装置に接続するものとする。このとき、接続が完了する前に所望の第2コンテンツの表示が終了し、次の第2コンテンツの再生が開始されると、ユーザは、所望の第2コンテンツに関する第1コンテンツを取得することができず、再度第2利用者端末で所望の第2コンテンツが表示されるまで待機しなくてはならないという問題があった。
したがって、かかる点に鑑みてなされた本発明の目的は、第2利用者端末において多数の第2コンテンツが順番に表示されており、利用者が興味を持った第2コンテンツの表示が過ぎてしまった場合でも、迅速に所望の第2コンテンツを第2利用者端末に表示させることが可能な、サービス提供装置及びサービス提供方法を実現することにある。
本発明に係るサービス提供装置は、第1利用者端末に第1コンテンツを提供する第1サービス提供部と、第2利用者端末に第2コンテンツを提供する第2サービス提供部と、前記第1利用者端末に提示するアクセス番号と、前記第2利用者端末と、前記第2コンテンツと、前記第2利用者端末及び前記第2コンテンツを識別可能なセッション番号とを関連付けた連携関係表と、前記第1コンテンツと前記第2コンテンツとを関連付けたコンテンツ関係表と、前記第2利用者端末への前記第2コンテンツの配信予定を示すコンテンツ配信表と、を記憶する記憶部と、を備え、前記第1サービス提供部は、前記アクセス番号及び前記セッション番号を用いて前記第1利用者端末が接続してきた場合、前記セッション番号に基づき前記連携関係表から第2利用者端末及び第2コンテンツを特定し、特定した前記第2コンテンツに対応する第1コンテンツを前記コンテンツ関係表から特定して前記第1利用者端末に提供し、前記第1サービス提供部は、音声認識機能部を備え、前記第1利用者端末より前記第2コンテンツの変更要求を受信した場合、前記音声認識機能部が前記第1利用者端末からの音声から取得した文字情報に基づき、前記コンテンツ配信表より変更後の第2コンテンツを選択し、前記第2サービス提供部は、前記第1サービス提供部が選択した変更後の前記第2コンテンツを前記第1サービス提供部が特定した前記第2利用者端末に提供する、ことを特徴とする。
また、外部データベースからコンテンツ情報を検索し、検索した前記コンテンツ情報から新たな第1コンテンツ及び新たな第2コンテンツを生成する動的コンテンツ管理部をさらに備え、前記第1サービス提供部が前記第1利用者端末より前記コンテンツ情報の検索要求を受信した場合、前記動的コンテンツ管理部は、前記音声認識機能部が前記第1利用者端末からの音声から取得した文字情報に基づき前記コンテンツ情報を検索し、前記第1サービス提供部は、前記新たな第1コンテンツを前記第1利用者端末に提供し、前記第2サービス提供部は、前記新たな第2コンテンツを前記第1サービス提供部が特定した前記第2利用者端末に提供することが望ましい。
また、前記音声認識機能部は音声認識辞書を備え、前記検索機能部は、検索した前記コンテンツ情報に基づき、前記音声認識辞書を更新することが望ましい。
また、前記検索機能部は、前記第2利用者端末の位置情報及び前記コンテンツ情報に含まれる位置情報に基づき、前記音声認識機能部が認識すべきではない時間情報を算出して前記音声認識辞書に認識対象外として登録することが望ましい。
本発明に係るサービス提供方法は、第1利用者端末に第1コンテンツを提供する第1サービス提供部と、第2利用者端末に第2コンテンツを提供する第2サービス提供部と、を備えるサービス提供装置によるサービス提供方法であって、前記第1サービス提供部は音声認識部を備え、前記サービス提供装置による処理手順は、前記第1利用者端末に提示するアクセス番号と、前記第2利用者端末と、前記第2コンテンツと、前記第2利用者端末及び前記第2コンテンツを識別可能なセッション番号とを関連付けた連携関係表を記憶するステップと、前記第1コンテンツと前記第2コンテンツとを関連付けたコンテンツ関係表を記憶するステップと、前記第2利用者端末への前記第2コンテンツの配信予定を示すコンテンツ配信表を記憶するステップと、前記第1サービス提供部により、前記アクセス番号及び前記セッション番号を用いて前記第1利用者端末が接続してきた場合、前記セッション番号に基づき前記連携関係表から第2利用者端末及び第2コンテンツを特定し、特定した前記第2コンテンツに対応する第1コンテンツを前記コンテンツ関係表から特定して前記第1利用者端末に提供するステップと、前記第1利用者端末より前記第2コンテンツの変更要求を受信した場合、前記音声認識機能部が前記第1利用者端末からの音声から取得した文字情報に基づき、前記コンテンツ配信表より変更後の第2コンテンツを選択するステップと、前記第2サービス提供部により、前記第1サービス提供部が選択した変更後の前記第2コンテンツを前記第1サービス提供部が特定した前記第2利用者端末に提供するステップと、を含むことを特徴とする。
また、前記サービス提供装置は、外部データベースからコンテンツ情報を検索し、検索した前記コンテンツ情報から新たな第1コンテンツ及び新たな第2コンテンツを生成する動的コンテンツ管理部をさらに備え、前記第1サービス提供部が前記第1利用者端末より前記コンテンツ情報の検索要求を受信した場合、前記動的コンテンツ管理部により、前記音声認識機能部が前記第1利用者端末からの音声から取得した文字情報に基づき前記コンテンツ情報を検索するステップと、前記第1サービス提供部により、前記新たな第1コンテンツを前記第1利用者端末に提供するステップと、前記第2サービス提供部により、前記新たな第2コンテンツを前記第1サービス提供部が特定した前記第2利用者端末に提供するステップと、を含むことが望ましい。
また、前記音声認識機能部は音声認識辞書を備え、前記検索機能部により、検索した前記コンテンツ情報に基づき、前記音声認識辞書を更新するステップを含むことが望ましい。
また、前記検索機能部により、前記第2利用者端末の位置情報及び前記コンテンツ情報に含まれる位置情報に基づき、前記音声認識機能部が認識すべきではない時間情報を算出して前記音声認識辞書に認識対象外として登録するステップを含むことが望ましい。
本発明に係るサービス提供装置及びサービス提供方法によれば、第2利用者端末において多数の第2コンテンツが順番に表示されており、利用者が興味を持った第2コンテンツの表示が過ぎてしまった場合でも、迅速に所望の第2コンテンツを第2利用者端末に表示することが可能となる。
図1は、本発明の一実施形態に係るサービス提供システムの概略構成を示す図である。 図2は、本発明に係るサービス提供装置の基本的な動作シーケンスを示す図である。 図3は、本発明の第1の実施形態に係るサービス提供装置の動作シーケンスを示す図である。 図4は、本発明の第2の実施形態に係るサービス提供装置の動作シーケンスを示す図である。 図5は、本発明の第3の実施形態に係るサービス提供装置の動作シーケンスを示す図である。 図6は、第1利用者端末と第2利用者端末との間のコンテンツ連携の一例を示す図である。
以降、諸図面を参照しながら、本発明の実施態様を詳細に説明する。
図1は、本発明の一実施形態にかかるサービス提供装置を含むサービス提供システムの概要を示す図である。本実施形態に係るサービス提供システムは、第1利用者端末100と、第2利用者端末200と、サービス提供装置1と、外部データベース50とを備えている。第1利用者端末100(100−1〜100−n)は、例えば携帯電話であり、所定のアクセス番号(電話番号、URLなど)によって、電話網を通じてサービス提供装置1に接続する。第2利用者端末200(200−1〜200―m)は、例えばデジタルサイネージ端末であり、インターネットなど所定のネットワークを通じてサービス提供装置1に接続している。サービス提供装置1は、第1利用者端末100に音声ガイダンス等の第1コンテンツを提供する第1サービス提供部10と、第2利用者端末200に広告等の第2コンテンツを提供する第2サービス提供部20と、記憶部30と、ネットワークを介して接続した外部データベース50からコンテンツデータを取得する動的コンテンツ管理部40とを備えている。
第1利用者端末100は、NFC等の近接間通信インタフェースにより、第2利用者端末200から、第1サービス提供部10へのアクセス番号及びセッション番号を取得することができる。第1利用者端末100は、取得したアクセス番号及びセッション番号を用いて、第1サービス提供部10への音声通話等の接続要求を行う。第1利用者端末100は、音声通話等の間、音声等の送受信に加え、キーパッドの押下に伴い当該キーに対応するPB(DTMF)信号を第1サービス提供部10に送信する。なお、アクセス番号は、例えば電話番号であり、直通番号、ダイヤルイン、サブアドレス、又はこれらの組み合わせなど、種々の番号を利用することができる。
第2利用者端末200は、第2サービス提供部20から提供される第2コンテンツ(広告等)を受信して画面上に表示する。また、第2利用者端末200は、NFC等の近接間信規格に対応したインタフェースを供え、利用者が第1利用者端末100を自端末にかざしたことを検知することができる。また、第2利用者端末200は、近接間通信インタフェースにより第1利用者端末100を検知すると、その時点で表示している第2コンテンツの番号と、自端末の番号(第2利用者端末番号)とからセッション番号を生成し、当該セッション番号及びアクセス番号を第1利用者端末100に提供することができる。なお、アクセス番号は、例えば第2利用者端末毎に予め設定したり、アクセス番号の管理表などを用いて使用されていないアクセス番号を適宜設定したりすることが可能である。
サービス提供装置1の第1サービス提供部10は、第1利用者端末100に提供する第1コンテンツを記憶する第1コンテンツ記憶部11を備え、第2サービス提供部20は、第2利用者端末200に提供する第2コンテンツを記憶する第2コンテンツ記憶部21を備えている。また、第1サービス提供部10は、第1利用者端末100からの音声から文字情報を取得する音声認識機能部12を備え、音声認識機能部12は、音声認識精度を向上させるため予め所定の語句等の認識パターンが登録された音声認識辞書121を有している。記憶部30は、第2コンテンツと第1コンテンツとの対応を示すコンテンツ関係表31と、第2利用者端末200への第2コンテンツの配信予定を示すコンテンツ配信表32と、第2コンテンツ、第2利用者端末番号、アクセス番号、及びセッション番号等の対応関係を記憶する連携関係表33とを記憶している。動的コンテンツ管理部40は、外部データベース50からコンテンツ情報を検索して取得する検索機能部42と、検索機能部42が取得したコンテンツ情報から第1コンテンツ(例えば、音声ガイダンス等)を生成する第1コンテンツ生成部41と、検索機能部42が取得したコンテンツ情報から第2コンテンツ(例えば、文字・画像・映像情報)を生成する第2コンテンツ生成部43とを備える。
第1サービス提供部10は、第1利用者端末100からの接続要求があった場合、接続要求に用いられたアクセス番号およびセッション番号を把握する。第1サービス提供部10は、連携関係表33を参照し、当該アクセス番号及びセッション番号に一致する第2コンテンツ番号を取得する。また、第1サービス提供部10は、第1利用者端末100から音声等もしくはPB(DTMF)信号等を受信した場合、例えば既存の音声自動応答装置の機能を用い、予め設定されたコンテンツ関係表31に基づき第1コンテンツの状態を遷移させる。また、第1サービス提供部10は、連携関係表33を参照し、アクセス番号およびセッション番号をキーにして第2利用者端末番号を取得し、当該第2利用者端末番号および第2コンテンツ番号、もしくは「終了」を第2サービス提供部20に送信する。
第1サービス提供部10の音声認識機能部12は、第1利用者端末100から「利用者からの動的コンテンツ要求の入力操作」を受信した場合、音声認識を行い音声から文字情報を取得する。なお、「利用者からの動的コンテンツ要求の入力操作」とは、例えば、第1利用者端末100の所定のキーパッドの押下に伴うPB(DTMF)信号である。また、音声認識機能部12がリアルタイムに音声認識を行い、利用者の音声から「利用者からの動的コンテンツ要求の入力操作」に対応する文字情報(操作コマンド)を取得することもできる。詳細は後述するが、「利用者からの動的コンテンツ要求の入力操作」が「選択」(第2コンテンツの変更要求)である場合、第1サービス提供部10はコンテンツ配信表32より新たな第2コンテンツを選択し、「利用者からの動的コンテンツ要求の入力操作」が「検索」(コンテンツ情報の検索要求)である場合、第1サービス提供部10は動的コンテンツ管理部40を通じて外部データベース50より新たなコンテンツ(第1コンテンツ及び第2コンテンツ)を動的に取得する。また、「利用者からの動的コンテンツ要求の入力操作」が「一覧」である場合、第1サービス提供部10は、コンテンツ配信表32に含まれる第2コンテンツの一覧を取得する。また、音声認識機能部12は、セッション番号毎に、音声認識辞書の語句を更新することができる。音声認識機能部12は、音声認識辞書121に記憶された語句のうち、所定のセッション番号と関連付けられている語句は、当該セッション番号により利用されている場合のみ認識することができる。また、「認識対象外」となっている語句については、認識の対象から外すことができる。
第2サービス提供部20は、予め設定されたコンテンツ配信表32に基づき、配信時間毎に、当該配信時間における第2コンテンツ番号および第2利用者端末番号を取得する。また、第2サービス提供部20は、第1サービス提供部10より、第2利用者端末番号および第2コンテンツ番号もしくは「終了」を受信する。ここで、第2サービス提供部20が第2コンテンツ番号を受信した場合、第2利用者端末番号に該当する第2利用者端末200に対して、第2コンテンツ番号に該当する第2コンテンツを送信する。第2サービス提供部20が「終了」を受信した場合、コンテンツ配信表32に基づき、当該第2利用者端末番号における直近の配信時間の第2コンテンツ番号を取得する。第2サービス提供部20は、連携関係表33において、有効期限が過ぎている項目を削除する。
外部データベース50は、コンテンツ情報を記憶する構造化データ記憶部51を備える。外部データベース50は、例えばレストラン情報のポータルサイトなどであり、構造化データ記憶部51は、コンテンツ情報として、レストランの特徴やメニューに関する文字情報や、店舗や料理の画像情報等を含む構造化データを記憶するものである。
なお、第1サービス提供部10及び第2サービス提供部20の動作については、後述の動作シーケンスにおいて詳述するものとする。
以降、諸図面を参照しながら、本発明の一実施形態に係るサービス提供システムの動作シーケンスを説明する。これ以降、第1利用者端末100は携帯電話、第2利用者端末200はデジタルサイネージ端末、第1サービス提供部10は音声自動応答装置、第2サービス提供部20はデジタルサイネージ管理サーバとして説明を行うが、本発明の範囲は、係る端末及び装置にのみ限定されるものではない。
(サービス提供システムの基本動作)
図2は、第1利用者端末100と第2利用者端末200との間のコンテンツ連携の基本動作シーケンスを示すものである。即ち、図2に示すシーケンスは、利用者が興味を持った第2コンテンツ(例えば広告)について、適切に第1コンテンツ及び第2コンテンツ間のコンテンツ連携が行われた場合の動作シーケンスとなる。
サービス提供装置1において、第2サービス提供部20は、コンテンツ配信表32に従い、現在時刻において配信すべき第2コンテンツ番号(C2ID)と、配信先となる第2利用者端末番号(T2ID)を取得し、第2利用者端末200に対して、第2コンテンツを配信する(ステップS101)。例えば、第2サービス提供部20は、表1に示すコンテンツ配信表32から、T2ID=50000001となる第2利用者端末200に対して、C2ID=20000212の第2コンテンツ(例えばレストランAの広告)を配信する。第2利用者端末200は、第2サービス提供部20より提供された第2コンテンツ(広告)を画面に表示する(ステップS102)。
Figure 0005523396
利用者は、第2利用者端末200に表示された第2コンテンツ(広告)を視聴する。利用者は、例えば第2コンテンツに興味を持つと、第1利用者端末100により第1サービス提供部10へ接続要求を送信する(ステップS103)。なお、接続要求に関するアクセス番号(例えば電話番号)及びセッション番号は、第1利用者端末100と第2利用者端末200との間で近接間通信インタフェース等により交換される。第2利用者端末200は、例えば、第2利用者端末番号(T2ID=50000001)の下3桁(001)と、日付(1025)と、第2利用者端末番号で管理するシーケンス番号(001)とから、セッション番号(SID=0011025001)を生成する。第2利用者端末20は、セッション番号を生成すると、第2サービス提供部20に、セッション番号(SID=0011025001)、第2コンテンツ番号(C2ID=20000212)、第2利用者端末番号(T2ID=50000001)を通知する。第2サービス提供部20は、セッション番号、第2コンテンツ番号、第2利用者端末番号の通知を受けると、現在時刻に一定時間を加えた時間をセッション番号の有効時間を設定し、連携関係表33に新たなレコードを登録する。例えば、レコード登録後の連携関係表33は、表2に示すテーブルとなる。
Figure 0005523396
第1利用者端末100(携帯電話)が、取得したアクセス番号(03-1234-0003)及びセッション番号を用いて、第1サービス提供部10に接続要求を行うと、第1サービス提供部10は、第1利用者端末100が発信したアクセス番号(着信番号)及びセッション番号に基づき、連携関係表33から、利用者が現在見ている第2コンテンツ番号及び第2利用者端末番号を取得する(ステップS104)。例えば、第1サービス提供部10は、表2に示す連携関係表33から、アクセス番号(03-1234-0003)及びセッション番号(0011025001)をキーとして、第2コンテンツ番号(C2ID=20000212)と、第2利用者端末番号(T2ID=50000001)を取得することができる。第1サービス提供部10は、取得した第2利用者端末番号及び第2コンテンツ番号を第2サービス提供部20に通知し、第2サービス提供部20は、第2利用者端末200に対して、当該第2コンテンツの占有表示用のコンテンツを配信する(ステップS105)。コンテンツ配信を受けた第2利用者端末200は、通常の第2コンテンツの表示(例えば広告の繰返し再生)から、占有表示に切り換える(ステップS106)。例えば、第2利用者端末200は、利用者が興味を持ったレストランの予約操作メニュー等を表示する。
また、第1サービス提供部10(音声自動再生装置)は、コンテンツ関係表31を参照し、取得した第2コンテンツ番号に対応する第1コンテンツ番号を取得し、第1利用者端末100に配信する(ステップS107)。例えば、第1サービス提供部10は、表3に示すコンテンツ関係表31から、第2コンテンツ番号(C2ID=20000212)に対応する第1コンテンツ番号(C1ID=10000101)を取得する。第1利用者端末100は、受信した第1コンテンツを再生する(ステップS108)。例えば、利用者は、第1利用者端末100から、「予約の場合は1を、終了する場合は9を押してください。」といった音声ガイダンスを聞くことになる。
Figure 0005523396
利用者は、第1利用者端末100が再生する第1コンテンツ又は第2利用者端末200に表示された第2コンテンツを視聴し、第1利用者端末100への入力操作を行う。例えば、利用者は、「予約の場合は1を押してください」という画面表示(第2コンテンツ)に従い、第1利用者端末100に1を入力する。なお、利用者は音声により入力操作を行うことができる。第1利用者端末100は、利用者からの入力(1)を第1サービス提供部10に通知する(ステップS109)。
第1サービス提供部10は、第1利用者端末100から入力通知を受けると、第1コンコンテンツを変更する。具体的には、第1サービス提供部10は、既存の自動音声再生装置等の技術を用いて第1コンテンツの状態を遷移させ、新たな状態に対応する第1コンテンツを第1利用者端末100に再生させる(ステップS110)。例えば、第1サービス提供部10は、第1コンテンツ(C1ID=10000101)の状態を0002から0003に遷移させ、第1利用者端末100は、新たな状態に対応する新たな第1コンテンツを再生する。例えば、第1利用者端末100は、第1サービス提供部10から通知を受け、「予約ですね。予約内容を選択して下さい。予約Aの場合は1を、予約Bの場合は2を・・・・」といった新たな状態の第1コンテンツ(音声ガイダンス)を再生する(ステップS111)。
第1サービス提供部10は、第1コンテンツの状態を遷移させると、表4に示すコンテンツ関係表31から、第1コンテンツの状態に対応した第2コンテンツを取得し、第2利用者端末200への表示依頼を第2サービス提供部20に送信する(ステップS112)。ここで、コンテンツ関係表31とは、表3のように第1コンテンツ番号と第2コンテンツ番号との対応を示すものや、表4のように第1コンテンツ番号及び第1コンテンツの状態と第2コンテンツ番号との対応を示すものなど、種々の形式を含むものである。例えば、第1サービス提供部10は、表4に示すコンテンツ関係表31から、第1コンテンツ(C1ID=10000101)の状態(0003)に対応した第2コンテンツ(C2ID=20000033)を取得し、第2サービス提供部20に表示依頼を送信する。ここで、第2コンテンツを表示する第2利用者端末200(T2ID=50000001)については、セッション番号をキーとして、表2の連携関係表33から取得することもできる。
Figure 0005523396
第2サービス提供部20は、指定された第2利用者端末200に対して指定された第2コンテンツを配信し(ステップS113)、第2利用者端末200は、第2コンテンツを表示する(ステップS114)。
このように、図2のフローによれば、第2利用者端末200に表示された第2コンテンツを視聴した利用者が、第1利用者端末100からアクセス番号(及びセッション番号など)により接続してきた場合に、第2利用者端末200及び第2コンテンツを識別し、第1コンテンツ及び第2コンテンツを連携させたサービスを提供することが実現される。
(第1の実施形態)
第2利用者端末200において多数の第2コンテンツが順番に表示されており、利用者が興味を持った第2コンテンツの表示が過ぎてしまった場合には、迅速に所望の第2コンテンツを第2利用者端末200に表示させることが望ましい。図3は、利用者が動的に第2コンテンツを変更する際の動作シーケンスを示す図である。なお、図3に示すステップS101〜ステップS108は、図2に示す処理内容と同様であるため、詳細な説明を省略する。
ユーザが希望する第2コンテンツとは異なる第2コンテンツについてサービス提供が行われた場合、利用者は、第1利用者端末100を操作し、「利用者からの動的コンテンツ要求の入力操作」として「選択」(第2コンテンツの変更要求)を第1サービス提供部10に送信する(ステップS201)。第1サービス提供部10の音声認識機能部12は、「利用者からの動的コンテンツ要求の入力操作」として「選択」を受信すると、第1利用者端末100からの音声を音声認識して、認識した文字情報を「選択文字列」として取得する(ステップS202)。第1サービス提供部10は、連携関係表33に基づきセッション番号から第2利用者端末番号を求め、次に、コンテンツ配信表32から、当該第2利用者端末200に関する第2コンテンツのうち、選択文字列に該当もしくは最も一致する第2コンテンツの名称を決定し、当該第2コンテンツ番号を取得する(ステップS203)。第1サービス提供部10は、第2サービス提供部20に対し、セッション番号及び選択文字列に基づき取得した第2コンテンツ番号を送信し、第2サービス提供部20は、第2利用者端末200に番号に対応する第2コンテンツを配信する(ステップS204)。第2利用者端末200は、第2サービス提供部20から受信した第2コンテンツを画面に表示するため、第2利用者端末200の第2コンテンツを利用者が希望する第2コンテンツに切り換えることができる(ステップS205)。
なお、利用者は、見逃した第2コンテンツを選択するための選択文字列(例えばレストランの名称)が不明な場合、「利用者からの動的コンテンツ要求の入力操作」として、「選択」の前に「一覧」を第1サービス提供部10に送信することができる。第1サービス提供部10は、「利用者からの動的コンテンツ要求の入力操作」として「一覧」を受信すると、セッション番号に基づき、連携関係表33から第2利用者端末番号を求め、さらに、コンテンツ配信表32に基づき、当該第2利用者端末番号における第2コンテンツ(文字情報、画像情報)のうち、新しいものから順に所定数の第2コンテンツを取得する。第1サービス提供部10は、取得した第2コンテンツをまとめた第2コンテンツ一覧を生成し、生成した第2コンテンツ一覧及び第2利用者端末番号を第2サービス提供部20に送信する。第2サービス提供部20が該当する第2利用者端末200に第1サービス提供部10が生成した第2コンテンツ一覧を配信すると、第2利用者端末200には第2コンテンツ一覧が表示されるため、利用者は第2コンテンツの選択に用いる選択文字列を把握することができる。
このように、本実施形態によれば、第1サービス提供部10は、第1利用者端末100より第2コンテンツの変更要求を受信した場合、音声認識機能部12が第1利用者端末100からの音声から取得した文字情報に基づき、コンテンツ配信表32より変更後の第2コンテンツを選択し、第2サービス提供部20は、第1サービス提供部10が選択した変更後の前記第2コンテンツを第1サービス提供部10が特定した第2利用者端末200に提供する。これにより、第2利用者端末200において多数の第2コンテンツが順番に表示されており、利用者が興味を持った第2コンテンツの表示が過ぎてしまった場合でも、迅速に所望の第2コンテンツを第2利用者端末200に表示させることができ、利用者は待たされることなく希望するコンテンツを視聴することが可能になる。
(第2の実施形態)
利用者がより多くのコンテンツを利用するためには、サービス提供装置1において、第1利用者端末100用の第1コンテンツ(例えば音声ガイダンス)や、第2利用者端末200用の第2コンテンツ(例えばデジタルサイネージ向けの画像・映像等)を予め多数記憶し、かつ、各コンテンツに関する連携関係表33を予め用意しておく必要がある。しかし、全てのコンテンツをサービス提供装置1が予め保持しておくことは現実的ではなく、サービス提供装置1は外部データベース50から動的にコンテンツを取得することが好ましい。図4は、外部データベース50から動的にコンテンツを取得する際の動作シーケンスを示す図である。なお、図4に示すステップS101〜ステップS108は、図2に示す処理内容と同様であるため、詳細な説明を省略する。
利用者が希望する第2コンテンツとは異なる第2コンテンツについてサービス提供が行われ、かつ、第2コンテンツ一覧に利用者が希望するコンテンツがない場合など、利用者は、第1利用者端末100を操作し、「利用者からの動的コンテンツ要求の入力操作」として「検索」(コンテンツ情報の検索要求)を第1サービス提供部10に送信する(ステップS301)。第1サービス提供部10の音声認識機能部12は、「利用者からの動的コンテンツ要求の入力操作」として「検索」を受信すると、第1利用者端末100からの音声を音声認識して、認識した文字情報を「検索文字列」として取得し、セッション番号と共に検索文字列を検索機能部42に送信する(ステップS302)。
検索機能部42は、第1サービス提供部10から、セッション番号及び検索文字列を受信すると、検索機能部42は、検索文字列を用いて外部データベース50に対してコンテンツ情報のデータ検索を行う(ステップS303)。外部データベース50は、構造化データ記憶部51より検索文字列に合致するコンテンツ情報の構造化データを検索し、文字情報(属性名、属性値、およびその集合)及び画像情報(属性名、画像・映像データ、およびその集合)等からなる構造化データを検索結果として検索機能部42に送信する(ステップS304)。
ステップS305において、検索機能部42は、外部データベース50から受信した構造化データ及びセッション番号を、第1コンテンツ生成部41および第2コンテンツ生成部43に送信する。
第1コンテンツ生成部41は、「(店舗名称)では(店舗特徴)を特徴にしています。」等の第1コンテンツ用テンプレート(音声ガイダンス用テンプレート)に、構造化データの属性名(例:店舗名称、店舗特徴等)から、構造化データの属性値(例:レストランA、新鮮な海の幸)を取り出し、第1コンテンツ(音声ガイダンス)を生成する。例えば、この場合、第1コンテンツは「レストランAでは新鮮な海の幸を特徴にしています。」となる。第1コンテンツ生成部41は、第1サービス提供部10に対して、セッション番号及び生成した第1コンテンツ(音声ガイダンスからなる動的コンテンツ)を送信する。
第2コンテンツ生成部43は、「(店舗名称)では(店舗特徴)を特徴にしています。(店舗画像)」等の第2コンテンツ用テンプレート(サイネージ表示用テンプレート)に、(1)文字情報として、構造化データの属性名(例:店舗名称、店舗特徴等)から、構造化データの属性値(例:レストランA、新鮮な海の幸)を取り出し、(2)画像情報として、構造化データの属性名(例:店舗画像、メニューBの画像、地図画像等)から、構造化データの属性値(例:店舗の写真、メニューBの写真、地図の画像等)を取り出し、第2コンテンツ(文字情報、画像、映像)を生成する。第2コンテンツ生成部43は、第2サービス提供部20に対して、セッション番号及び生成した第2コンテンツ(文字情報、画像、映像からなる動的コンテンツ)を送信する。
第1サービス提供部10は、第1コンテンツ生成部41から、セッション番号及び第1コンテンツを受信した場合、当該セッション番号に対応する第1利用者端末100に対して、第1コンテンツ(音声ガイダンス)を送出する(ステップS306)。第1利用者端末100では、生成された第1コンテンツの再生が行われ、例えば、利用者は「レストランAでは新鮮な海の幸を特徴にしています。」という音声ガイダンスを聞くことができる(ステップS307)。
第2サービス提供部20は、第2コンテンツ生成部43から、セッション番号及び第2コンテンツを受信した場合、当該セッション番号に対応する第2利用者端末200に対して、第2コンテンツ(文字情報、画像、映像)を送出する(ステップS308)。第2利用者端末200では、生成された第2コンテンツの表示が行われ、例えば、利用者は「レストランAでは新鮮な海の幸を特徴にしています。」という文字情報や、店舗画像、メニューの画像等を画面で確認することができる(ステップS309)。
このように、本実施形態によれば、第1利用者端末100よりコンテンツ情報の検索要求を受信した場合、動的コンテンツ管理部40(検索機能部42)は、音声認識機能部12が第1利用者端末100からの音声から取得した文字情報に基づきコンテンツ情報を検索し、第1サービス提供部10は、第1コンテンツ生成部41が生成した第1コンテンツを第1利用者端末100に提供し、第2サービス提供部20は、第2コンテンツ生成部43が生成した第2コンテンツを前記第2利用者端末200に提供する。これにより、動的にコンテンツ情報を作成することで、コンテンツを構成する情報を予め用意しなくても、多くの番組を利用可能になる。
(第3の実施形態)
外部データベース50が保持するコンテンツ情報から動的にコンテンツを生成する場合、その後の音声認識の認識精度を向上させるためには、動的に生成したコンテンツに固有の語句を音声認識辞書121に登録することが好ましい。また、外部データベース50からコンテンツ情報を検索する際には、第2利用者端末200(利用者)の位置情報を考慮することが好ましい。図5は、音声認識辞書121の更新や第2利用者端末200の位置情報を活用した処理シーケンスである。なお、図5に示すステップのうち、図4に示すステップと同じ番号のステップについては、図4に示す処理内容と同様であるため、詳細な説明を省略する。
第1サービス提供部10は、「利用者からの動的コンテンツ要求の入力操作」として「検索」(コンテンツ情報の検索要求)を受信すると、第2サービス提供部20に対して、第2利用者端末200の位置情報を要求する(ステップS501)。第2サービス提供部20は、セッション番号より特定した第2利用者端末200の位置情報(緯度経度)を、セッション番号と共に検索機能部42に通知する(ステップS502)。なお、第2サービス提供部20は、予め第2利用者端末200の位置情報を記憶しておいたり、第2利用者端末200から動的に位置情報を取得したりすることができる。なお、第1サービス提供部10は、例えばGPS機能等により、(第2利用者端末200に隣接するはずの)第1利用者端末100の位置情報を取得してもよい。
検索機能部42は、第2サービス提供部20から、セッション番号及び位置情報(緯度、経度)を受信すると、位置情報および予め定められた検索距離(範囲)を検索条件とし、外部データベース50に対して情報検索を行う(ステップS503)。外部データベース50は、当該位置情報に近い物から順にコンテンツ情報の構造化データを送信する(ステップS504)。
ステップS305のコンテンツ作成の後、検索機能部42は、音声認識辞書121から、当該セッション番号に係る属性値(辞書情報)を一旦削除した上で、音声認識辞書121に、セッション番号と共に構造化データのうち予め定められた属性名(例:店舗名称等)に係わる属性値(例:レストランA)を追加する(ステップS505)。例えば、検索機能部42は、音声認識辞書121に、レストランの店舗名称や、メニュー名称などを音声認識用の語句として登録することができる。なお、語句の登録は、音声認識機能部12が行うことも可能である。
また、検索機能部42は、検索結果であるコンテンツ情報の位置情報(例えばレストランの位置)と、利用者(第2利用者端末200)の位置情報の二つを用い、予め定められた手段(例:徒歩等)による最短移動時間を既存技術であるナビゲーションシステム等により求めることができる。この場合、現在時刻から現在時刻に最短移動時間を加えた時刻に含まれる時間に関する言葉については、例えば予約時間として設定しても物理的に到達不可能となるため、検索機能部42は、音声認識辞書121に、当該時間情報を、セッション番号と関連付けて「認識対象外」として登録することができる。なお、認識対象外となる語句の登録は、音声認識機能部12が行うことも可能である。
このように、本実施形態によれば、検索機能部42は、検索したコンテンツ情報に基づき、音声認識辞書121を更新する。これにより、音声認識機能部12の音声認識精度を向上させることが可能となる。
また、本実施形態によれば、検索機能部42は、第2利用者端末200の位置情報及びコンテンツ情報に含まれる位置情報に基づき、音声認識機能部12が認識すべきではない時間情報を算出して音声認識辞書121に認識対象外として登録する。これにより、音声認識機能部12が不必要な文字情報を取得する確立が低減され、音声認識をより効率よく行うことが可能となる。
本発明を諸図面や実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。従って、これらの変形や修正は本発明の範囲に含まれることに留意されたい。例えば、各部材、各手段、各ステップなどに含まれる機能などは論理的に矛盾しないように再配置可能であり、複数の手段やステップなどを1つに組み合わせたり、或いは分割したりすることが可能である。
例えば、図1においては、第1利用者端末100と第2利用者端末200とがそれぞれ電話網及びネットワークという異なる通信網を介してサービス提供装置1に接続しているが、第1利用者端末100及び第2利用者端末200が共に同じ通信網を介してサービス提供装置1に接続しても良い。また、サービス提供装置1は、複数台のサーバ装置から構成することができ、例えば、第1サービス提供部10と、第2サービス提供部20と、動的コンテンツ管理部30とを独立のサーバから構成しても良い。
1 サービス提供装置
10 第1サービス提供部
11 第1コンテンツ記憶部
20 第2サービス提供部
21 第2コンテンツ記憶部
30 記憶部
31 コンテンツ関係表
32 コンテンツ配信表
33 連携関係表
40 動的コンテンツ管理部
41 第1コンテンツ生成部
42 検索機能部
43 第2コンテンツ生成部
50 外部データベース
51 構造化データ記憶部
100 第1利用者端末
200 第2利用者端末

Claims (8)

  1. 第1利用者端末に第1コンテンツを提供する第1サービス提供部と、
    第2利用者端末に第2コンテンツを提供する第2サービス提供部と、
    前記第1利用者端末に提示するアクセス番号と、前記第2利用者端末と、前記第2コンテンツと、前記第2利用者端末及び前記第2コンテンツを識別可能なセッション番号とを関連付けた連携関係表と、前記第1コンテンツと前記第2コンテンツとを関連付けたコンテンツ関係表と、前記第2利用者端末への前記第2コンテンツの配信予定を示すコンテンツ配信表と、を記憶する記憶部と、を備え、
    前記第1サービス提供部は、前記アクセス番号及び前記セッション番号を用いて前記第1利用者端末が接続してきた場合、前記セッション番号に基づき前記連携関係表から第2利用者端末及び第2コンテンツを特定し、特定した前記第2コンテンツに対応する第1コンテンツを前記コンテンツ関係表から特定して前記第1利用者端末に提供し、
    前記第1サービス提供部は、音声認識機能部を備え、前記第1利用者端末より前記第2コンテンツの変更要求を受信した場合、前記音声認識機能部が前記第1利用者端末からの音声から取得した文字情報に基づき、前記コンテンツ配信表より変更後の第2コンテンツを選択し、
    前記第2サービス提供部は、前記第1サービス提供部が選択した変更後の前記第2コンテンツを前記第1サービス提供部が特定した前記第2利用者端末に提供する、ことを特徴とするサービス提供装置。
  2. 外部データベースからコンテンツ情報を検索し、検索した前記コンテンツ情報から新たな第1コンテンツ及び新たな第2コンテンツを生成する動的コンテンツ管理部をさらに備え、
    前記第1サービス提供部が前記第1利用者端末より前記コンテンツ情報の検索要求を受信した場合、前記動的コンテンツ管理部は、前記音声認識機能部が前記第1利用者端末からの音声から取得した文字情報に基づき前記コンテンツ情報を検索し、
    前記第1サービス提供部は、前記新たな第1コンテンツを前記第1利用者端末に提供し、
    前記第2サービス提供部は、前記新たな第2コンテンツを前記第1サービス提供部が特定した前記第2利用者端末に提供する、ことを特徴とする請求項1に記載のサービス提供装置。
  3. 前記音声認識機能部は音声認識辞書を備え、前記検索機能部は、検索した前記コンテンツ情報に基づき、前記音声認識辞書を更新する、ことを特徴とする請求項2に記載のサービス提供装置。
  4. 前記検索機能部は、前記第2利用者端末の位置情報及び前記コンテンツ情報に含まれる位置情報に基づき、前記音声認識機能部が認識すべきではない時間情報を算出して前記音声認識辞書に認識対象外として登録する、ことを特徴とする請求項2又は3に記載のサービス提供装置。
  5. 第1利用者端末に第1コンテンツを提供する第1サービス提供部と、
    第2利用者端末に第2コンテンツを提供する第2サービス提供部と、を備えるサービス提供装置によるサービス提供方法であって、
    前記第1サービス提供部は音声認識部を備え、
    前記サービス提供装置による処理手順は、
    前記第1利用者端末に提示するアクセス番号と、前記第2利用者端末と、前記第2コンテンツと、前記第2利用者端末及び前記第2コンテンツを識別可能なセッション番号とを関連付けた連携関係表を記憶するステップと、
    前記第1コンテンツと前記第2コンテンツとを関連付けたコンテンツ関係表を記憶するステップと、
    前記第2利用者端末への前記第2コンテンツの配信予定を示すコンテンツ配信表を記憶するステップと、
    前記第1サービス提供部により、
    前記アクセス番号及び前記セッション番号を用いて前記第1利用者端末が接続してきた場合、前記セッション番号に基づき前記連携関係表から第2利用者端末及び第2コンテンツを特定し、特定した前記第2コンテンツに対応する第1コンテンツを前記コンテンツ関係表から特定して前記第1利用者端末に提供するステップと、
    前記第1利用者端末より前記第2コンテンツの変更要求を受信した場合、前記音声認識機能部が前記第1利用者端末からの音声から取得した文字情報に基づき、前記コンテンツ配信表より変更後の第2コンテンツを選択するステップと、
    前記第2サービス提供部により、
    前記第1サービス提供部が選択した変更後の前記第2コンテンツを前記第1サービス提供部が特定した前記第2利用者端末に提供するステップと、を含むことを特徴とするサービス提供方法。
  6. 前記サービス提供装置は、外部データベースからコンテンツ情報を検索し、検索した前記コンテンツ情報から新たな第1コンテンツ及び新たな第2コンテンツを生成する動的コンテンツ管理部をさらに備え、
    前記第1サービス提供部が前記第1利用者端末より前記コンテンツ情報の検索要求を受信した場合、前記動的コンテンツ管理部により、前記音声認識機能部が前記第1利用者端末からの音声から取得した文字情報に基づき前記コンテンツ情報を検索するステップと、
    前記第1サービス提供部により、前記新たな第1コンテンツを前記第1利用者端末に提供するステップと、
    前記第2サービス提供部により、前記新たな第2コンテンツを前記第1サービス提供部が特定した前記第2利用者端末に提供するステップと、を含むことを特徴とする請求項5に記載のサービス提供方法。
  7. 前記音声認識機能部は音声認識辞書を備え、
    前記検索機能部により、検索した前記コンテンツ情報に基づき、前記音声認識辞書を更新するステップを含む、ことを特徴とする請求項6に記載のサービス提供方法。
  8. 前記検索機能部により、前記第2利用者端末の位置情報及び前記コンテンツ情報に含まれる位置情報に基づき、前記音声認識機能部が認識すべきではない時間情報を算出して前記音声認識辞書に認識対象外として登録するステップを含む、ことを特徴とする請求項6又は7に記載のサービス提供方法。
JP2011124675A 2011-06-02 2011-06-02 サービス提供装置及びサービス提供方法 Active JP5523396B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011124675A JP5523396B2 (ja) 2011-06-02 2011-06-02 サービス提供装置及びサービス提供方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011124675A JP5523396B2 (ja) 2011-06-02 2011-06-02 サービス提供装置及びサービス提供方法

Publications (2)

Publication Number Publication Date
JP2012253573A JP2012253573A (ja) 2012-12-20
JP5523396B2 true JP5523396B2 (ja) 2014-06-18

Family

ID=47525968

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011124675A Active JP5523396B2 (ja) 2011-06-02 2011-06-02 サービス提供装置及びサービス提供方法

Country Status (1)

Country Link
JP (1) JP5523396B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
JP7231342B2 (ja) * 2018-07-09 2023-03-01 シャープ株式会社 コンテンツ表示システム及び表示装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005149230A (ja) * 2003-11-17 2005-06-09 Ntt Docomo Inc 表示連動システム
JP2010055151A (ja) * 2008-08-26 2010-03-11 Sophia Mobile Co Ltd 情報配信システム
JP5268718B2 (ja) * 2009-03-10 2013-08-21 エヌ・ティ・ティ・コミュニケーションズ株式会社 情報送信システム、情報送信方法、情報送信プログラム、記録媒体

Also Published As

Publication number Publication date
JP2012253573A (ja) 2012-12-20

Similar Documents

Publication Publication Date Title
RU2420010C2 (ru) Способ и система для организации записей о событиях в мобильном радио терминале
JP5984685B2 (ja) 表示システム、サーバ、端末装置、表示方法およびプログラム
US20130019185A1 (en) Method, Devices and a System for Communication
TWI570663B (zh) 獲取導覽資訊的方法和伺服器
JP2011004143A (ja) 情報提供システム、情報提供装置、情報提供方法
KR101336622B1 (ko) 오디오 데이터를 이용한 프레즌스 정보 제공 시스템, 이를 위한 장치 및 이를 위한 방법
WO2006028181A1 (ja) 通信端末とその通信方法
JP5523396B2 (ja) サービス提供装置及びサービス提供方法
JP5595252B2 (ja) 連携支援装置、プログラム、連携支援方法、連携支援システム及び通信装置
CN103139653A (zh) 一种移动终端来电的提示方法及数字电视终端
JP5858362B2 (ja) 店舗の予約のための方法、システム、サーバ装置、端末装置およびプログラム
JPWO2015015779A1 (ja) 情報提示方法、操作プログラム及び情報提示システム
JP2006080850A (ja) 通信端末とその通信方法
WO2011021884A2 (en) Method of managing contact item information, user device for executing the method, and storage medium thereof
JP5553785B2 (ja) サービス提供装置及びサービス提供方法
JP6644945B1 (ja) 情報提供システム、情報提供方法及び情報提供プログラム
JP2013073559A (ja) 情報通信装置、情報通信プログラム、及び情報通信システム
KR20170140714A (ko) 통화대기시간을 이용한 광고 출력 시스템
KR101527298B1 (ko) 서비스 전달 방법 및 시스템
JP6015728B2 (ja) 電話システム、ユーザ端末及び音声通信プログラム
JP2007116256A (ja) 情報処理装置、情報処理方法、および情報処理システム、並びに情報処理を実行させるプログラム
KR100858152B1 (ko) 글로벌 네비게이션 서비스 장치 및 방법
KR101954802B1 (ko) 오디오 데이터를 이용한 프레즌스 정보 제공 시스템, 이를 위한 장치 및 방법
KR20070100011A (ko) 위치 정보 검색 서비스 제공방법 및 이를 위한 장치
JP2007115161A (ja) 想定問答支援システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130826

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140328

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140408

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140408

R150 Certificate of patent or registration of utility model

Ref document number: 5523396

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150