JP2014115769A - 情報提供装置、情報提供方法及びプログラム - Google Patents
情報提供装置、情報提供方法及びプログラム Download PDFInfo
- Publication number
- JP2014115769A JP2014115769A JP2012268259A JP2012268259A JP2014115769A JP 2014115769 A JP2014115769 A JP 2014115769A JP 2012268259 A JP2012268259 A JP 2012268259A JP 2012268259 A JP2012268259 A JP 2012268259A JP 2014115769 A JP2014115769 A JP 2014115769A
- Authority
- JP
- Japan
- Prior art keywords
- user
- information
- response
- terminal
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】ユーザの入力に対する応答をそのときどきの状況に応じて変化させる。
【解決手段】ユーザは、検索等の要求を音声によって入力する。ユーザ端末は、これを収音し(S1)、音声情報と判定情報とをサーバ装置に送信する(S2)。判定情報は、例えば、ユーザの移動速度を表す情報である。サーバ装置は、判定情報に基づいてユーザ又はユーザ端末の状況を判定し(S3)、判定結果に応じた応答を抽出する(S4)。そして、サーバ装置200は、応答情報を生成し(S5)、送信する(S6)。ユーザ端末は、受信した応答情報に応じた音声や画像を再生する(S7)。
【選択図】図5
【解決手段】ユーザは、検索等の要求を音声によって入力する。ユーザ端末は、これを収音し(S1)、音声情報と判定情報とをサーバ装置に送信する(S2)。判定情報は、例えば、ユーザの移動速度を表す情報である。サーバ装置は、判定情報に基づいてユーザ又はユーザ端末の状況を判定し(S3)、判定結果に応じた応答を抽出する(S4)。そして、サーバ装置200は、応答情報を生成し(S5)、送信する(S6)。ユーザ端末は、受信した応答情報に応じた音声や画像を再生する(S7)。
【選択図】図5
Description
本発明は、ユーザの入力に応じた情報を提供するための技術に関する。
特許文献1には、携帯端末装置において、各種のセンサ手段(温度センサなど)により当該装置の現在の状況を検出し、検出した状況に応じた.音声を出力することが記載されている。この携帯端末装置によれば、例えば、温度が高い場合に「暑い」という音声を発し、ユーザが必要な対処を行うことを支援することが可能である。また、特許文献1には、ユーザの問いかけに応じた応答音声を出力することも記載されている。
特許文献1に記載された技術は、「今、何時?」などといったユーザの入力(問いかけ)に対し、一定の応答音声を出力するだけのものである。
一方、本発明は、ユーザの入力に対する応答をそのときどきの状況に応じて変化させることができる技術を提供することを目的とする。
一方、本発明は、ユーザの入力に対する応答をそのときどきの状況に応じて変化させることができる技術を提供することを目的とする。
本発明は、ユーザ又は端末の状況を判定する判定部と、前記ユーザによる入力を取得する取得部と、前記取得部により取得された入力に対する応答であって前記判定部により判定された状況に応じた応答を抽出する抽出部と、前記抽出部により抽出された応答を前記端末が出力するように制御する出力制御部とを備える情報提供装置を提供する。
また、前記抽出部は、前記判定部により判定された状況に応じて、前記応答を抽出する方法を異ならせる構成であってもよい。
また、前記抽出部は、前記入力に応じた検索条件によって前記応答を検索し、前記判定部により判定された状況に応じて前記検索条件を異ならせる構成であってもよい。
また、前記判定部は、前記ユーザの緊急度を判定し、前記抽出部は、前記判定部により判定された緊急度に応じて、抽出する前記応答の情報量を変化させる構成であってもよい。
また、前記判定部は、前記入力の内容又は前記端末の移動速度に基づいて前記緊急度を判定する構成であってもよい。
また、前記判定部は、前記端末において検出される情報を累積的に利用して当該端末の状況を判定する構成であってもよい。
また、前記判定部は、前記端末において行われる通信の態様に基づいて当該端末の状況を判定する構成であってもよい。
また、前記出力制御部は、前記判定部により判定された状況に応じて、前記応答の出力態様を変化させる構成であってもよい。
また、前記抽出部は、前記入力に応じた検索条件によって前記応答を検索し、前記判定部により判定された状況に応じて前記検索条件を異ならせる構成であってもよい。
また、前記判定部は、前記ユーザの緊急度を判定し、前記抽出部は、前記判定部により判定された緊急度に応じて、抽出する前記応答の情報量を変化させる構成であってもよい。
また、前記判定部は、前記入力の内容又は前記端末の移動速度に基づいて前記緊急度を判定する構成であってもよい。
また、前記判定部は、前記端末において検出される情報を累積的に利用して当該端末の状況を判定する構成であってもよい。
また、前記判定部は、前記端末において行われる通信の態様に基づいて当該端末の状況を判定する構成であってもよい。
また、前記出力制御部は、前記判定部により判定された状況に応じて、前記応答の出力態様を変化させる構成であってもよい。
また、本発明は、ユーザ又は端末の状況を判定するステップと、前記ユーザによる入力を取得するステップと、前記取得された入力に対する応答であって前記判定された状況に応じた応答を抽出するステップと、前記抽出された応答を前記端末において出力するステップとを有する情報提供方法を提供する。
また、本発明は、コンピュータに、ユーザ又は端末の状況を判定するステップと、前記ユーザによる入力を取得するステップと、前記取得された入力に対する応答であって前記判定された状況に応じた応答を抽出するステップと、前記抽出された応答を前記端末が出力するように制御するステップとを実行させるためのプログラムを提供する。
本発明によれば、ユーザの入力に対する応答をそのときどきの状況に応じて変化させることが可能である。
[実施例]
図1は、本発明の一実施例である情報提供システム10の全体構成を示すブロック図である。情報提供システム10は、ユーザにさまざまな情報を提供するサービスを実現するためのシステムであり、ユーザ端末100とサーバ装置200とを備えている。ユーザ端末100とサーバ装置200とは、インターネットなどのネットワーク300によって互いに接続されている。なお、ユーザ端末100は、ここでは図示を省略しているが、このサービスを利用するユーザの数だけ実際には存在する。
図1は、本発明の一実施例である情報提供システム10の全体構成を示すブロック図である。情報提供システム10は、ユーザにさまざまな情報を提供するサービスを実現するためのシステムであり、ユーザ端末100とサーバ装置200とを備えている。ユーザ端末100とサーバ装置200とは、インターネットなどのネットワーク300によって互いに接続されている。なお、ユーザ端末100は、ここでは図示を省略しているが、このサービスを利用するユーザの数だけ実際には存在する。
本実施例において提供されるサービスは、いわゆる音声エージェントサービスである。ユーザは、ユーザ端末100に話しかけるように、すなわち音声によって情報を入力する。ユーザ端末100は、サーバ装置200から、音声入力によるユーザの要求に応じた応答を受信して出力する。サーバ装置200は、ユーザの入力に対する応答を検索する機能を有する。ここでは、サーバ装置200は、応答に相当する情報を、ネットワーク300を介して外部から取得するとしている。ただし、サーバ装置200は、自装置に記憶された情報を応答に用いるものであってもよい。
ユーザ端末100において、ユーザの入力とその応答は、所定のキャラクタを介して行われる。ここでいうキャラクタは、例えば、ゲームや漫画の登場人物や、著名人や動物を模した画像である。ユーザは、あたかもこのキャラクタに話しかけるように音声を入力し、また、このキャラクタに答えてもらっているように応答を得ることができる。ただし、キャラクタの介在は必須ではない。
なお、本実施例のサービスによって提供される情報は、例えば、電車、バスなどの交通機関の乗り換えに関する情報、道路の渋滞情報、天気予報などである。また、ユーザは、「おはよう」などのあいさつや、日常の何気ない会話のような、情報の検索とは異なる言葉を話しかけてもよい。サーバ装置200は、このような入力に対しても、何らかの応答をすることが可能である。
図2は、ユーザ端末100のハードウェア構成を示すブロック図である。ユーザ端末100は、ユーザによって使用される通信端末であり、ここでは、いわゆるスマートフォンであるとする。ユーザ端末100は、制御部110と、記憶部120と、通信部130と、タッチスクリーン部140と、モーションセンサ部150と、測位部160と、音声入力部170と、音声出力部180とを備える。
制御部110は、ユーザ端末100の各部の動作を制御する手段である。制御部110は、CPU(Central Processing Unit)などの演算処理装置やメモリを備え、所定のプログラムを実行することによって制御を行う。
記憶部120は、データを記憶する手段である。記憶部120は、フラッシュメモリなどの記録媒体を備え、制御部110が制御に用いるデータを記憶している。
記憶部120は、データを記憶する手段である。記憶部120は、フラッシュメモリなどの記録媒体を備え、制御部110が制御に用いるデータを記憶している。
通信部130は、ネットワーク300を介してデータを送受信する手段である。通信部300は、アンテナや、ネットワーク300の通信方式に対応したモデムなどを備え、データの変調・復調といったデータ通信に必要な処理を実行する。また、通信部300は、複数の通信方式に対応し、データの送受信に用いる通信方式を必要に応じて切り替えられるように構成されている。ここでいう通信方式とは、例えば、いわゆる3G(第3世代移動通信システム)、LTE(Long Term Evolution)、無線LAN(Local Area Network)などである。
タッチスクリーン部140は、ユーザの操作入力を受け付けるとともに、情報を表示する手段である。タッチスクリーン部140は、より詳細には、表示部141とセンサ部142とを含んで構成される。表示部141は、液晶素子や有機EL(electroluminescence)素子により構成された表示パネル(すなわち表示領域)とこれを駆動する駆動回路とを備え、画像データに応じた画像を表示する。センサ部142は、表示部141の表示領域に対応して設けられたセンサを備え、ユーザの操作に応じた座標情報を制御部110に供給する。座標情報は、ユーザが接触した位置を示す情報である。
モーションセンサ部150は、ユーザ端末100の動きを検出する手段である。モーションセンサ部150は、例えば、3軸加速度センサ、ジャイロセンサ、重力センサなどを備える。モーションセンサ部150は、ユーザ端末100の動きを表すセンサ情報を制御部110に供給する。
測位部160は、ユーザ端末100の位置を測定する手段である。測位部160は、GPS(Global Positioning System)などの測位方式によってユーザ端末100の位置を測定し、測定した位置を表す位置情報を制御部110に供給する。位置情報は、例えば、ユーザ端末100の位置を緯度と経度の組み合わせによって表す情報である。なお、ユーザ端末100の測位に用いられる測位方式は、GPSに限らず、他の方式であってもよい。
音声入力部170は、音声を入力する手段である。音声入力部170は、マイクロホン又はこれを接続する入力端子を備え、音声情報を制御部110に供給する。一方、音声出力部180は、音声を出力する手段である。音声出力部180は、スピーカ又はこれを接続する出力端子を備え、制御部110から供給された音声情報に応じた音声を出力する。なお、音声入力部170及び音声出力部180は、ヘッドセットなどを無線接続する構成であってもよい。
図3は、サーバ装置200のハードウェア構成を示すブロック図である。サーバ装置200は、制御部210と、記憶部220と、通信部230とを備える。制御部210は、サーバ装置200の各部の動作を制御する手段である。制御部210は、演算処理装置やメモリを備え、所定のプログラムを実行することによって制御を行う。記憶部220は、データを記憶する手段であり、ハードディスクなどの記録媒体を備える。通信部130は、ネットワーク300を介してデータを送受信する手段である。
図4は、サーバ装置200の機能的構成を示すブロック図である。サーバ装置200の制御部210は、所定のプログラムを実行することにより、判定部211、取得部212、抽出部213及び出力制御部214に相当する機能を実現する。この機能は、本発明に係る情報提供装置に相当する機能である。
判定部211は、ユーザ又はユーザ端末100の状況を判定する手段である。判定部211は、ユーザ端末100が取得できる情報を用いて、ユーザ又はユーザ端末100の現在の状況を判定することができる。例えば、判定部211は、センサ情報や位置情報に基づいて、ユーザの移動に関する状況(急いでいるか否か)を判定することができる。なお、判定部211は、ユーザの状況とユーザ端末100の状況のうちの一方のみを判定するものであってもよい。すなわち、判定部211は、ユーザの状況とユーザ端末100の状況の少なくともいずれかを判定するものであればよい。
取得部212は、ユーザによる入力を取得する手段である。本実施例において、取得部212は、ユーザによる音声入力を音声情報によって取得する。すなわち、取得部212は、通信部230を介して、ユーザ端末100から音声情報を取得する。
なお、本実施例において、取得部212は、取得した音声情報に対して音声認識を実行する機能を有するものとする。ただし、音声認識は、外部(例えばユーザ端末100)において事前に実行されてもよい。
なお、本実施例において、取得部212は、取得した音声情報に対して音声認識を実行する機能を有するものとする。ただし、音声認識は、外部(例えばユーザ端末100)において事前に実行されてもよい。
抽出部213は、ユーザの入力に対する応答を抽出する手段である。抽出部213は、取得部212により取得された音声情報に応じた情報を、外部の情報源から抽出したり、記憶部220に記憶されたデータベースから抽出したりする。また、抽出部213は、判定部211により判定された状況に応じた応答を抽出することができる。例えば、抽出部213は、判定部211により判定された状況に応じて、応答たる情報を抽出する方法を異ならせることができる。
出力制御部214は、抽出部213により抽出された応答をユーザ端末100が出力するように制御する手段である。本実施例において、出力制御部214は、抽出部213により抽出された応答に基づいて応答情報を生成し、通信部230を介してこれを送信するように制御する。応答情報は、ユーザ端末100において出力される音声及び画像を表すデータである。ただし、応答情報は、音声及び画像の少なくとも一方を含んでいればよく、必ずしも双方を含まなくてもよい。
情報提供システム10の構成は、以上のとおりである。この構成のもと、ユーザは、本実施例のサービスを情報の検索などに利用することができる。また、ユーザは、情報の検索だけでなく、ユーザ端末100と模擬的な会話(あいさつ、雑談など)を行うことも可能である。
本実施例において、情報提供システム10は、ユーザに提供される応答を、ユーザ又はユーザ端末100の状況に応じて異ならせることができる。例えば、情報提供システム10は、ユーザが急いでいるときとそうでないときとで応答情報を異ならせたりすることができる。ユーザが急いでいるか否かを判定する場合の処理は、例えば以下のとおりである。
図5は、ユーザ端末100とサーバ装置200とにおける処理の一例を示すシーケンスチャートである。まず、ユーザは、ユーザ端末100に向かって発声し、音声によって要求を入力する。ユーザ端末100は、これを収音して音声情報を生成する(ステップS1)。次に、ユーザ端末100は、音声情報と判定情報とをサーバ装置200に送信する(ステップS2)。ここにおいて、判定情報とは、サーバ装置200において状況の判定に用いられるデータをいう。判定情報には、例えば、位置情報が含まれ得る。また、判定情報として音声情報が用いられてもよい。
一方、サーバ装置200は、ステップS2において、音声情報と判定情報とを受信して取得する。サーバ装置200は、判定情報に基づいてユーザの状況を判定する(ステップS3)。ここでは、サーバ装置200は、ユーザの緊急度を判定することによって当該ユーザの状況を判定している。ここにおいて、緊急度とは、対応(すなわち入力に対する応答)に急を要する程度を示す指標をいう。ここでは、緊急度は「低」、「中」、「高」の3段階であるとし、「中」が標準的な状況とする。
緊急度の判定方法は、例えば以下のとおりである。判定情報として位置情報を用いる場合、サーバ装置200は、複数の位置情報に基づいて、ユーザ端末100の移動速度を算出する。つまり、この場合ユーザ端末100は、位置情報と、当該位置情報が得られた時刻を表す時刻情報の組を2組以上送信する。サーバ装置200は、このようにして移動速度を算出したら、これをあらかじめ決められた標準的な数値範囲(歩行速度として一般的な数値の範囲)と比較し、移動速度がこの数値範囲内にあれば緊急度を「中」とし、以下同様に、数値範囲を上回れば緊急度を「高」、数値範囲を下回れば「低」とする。なお、ユーザ端末100は、移動速度の算出までを行っておき、これを判定情報としてサーバ装置200に送信してもよい。
あるいは、判定情報として音声情報、すなわちユーザによる入力の内容自体を用いる場合、サーバ装置200は、音声認識を実行してユーザの発話速度(しゃべる速さ)を算出し、これが所定の数値範囲にあれば緊急度を「中」、数値範囲を上回れば緊急度を「高」、数値範囲を下回れば「低」とする。これは、人間は慌てているときには早口になる傾向があることに基づいている。なお、サーバ装置200は、判定情報として位置情報と音声情報を組み合わせて用いて緊急度を算出してもよい。また、サーバ装置200は、ユーザの実際の発言の内容を判断し、急を要しない事項(例えば、翌日以降のこと)の検索であれば緊急度を低くする、といったことも可能である。
このようにして緊急度を判定したら、サーバ装置200は、音声情報が表す要求に応じた応答を抽出する(ステップS4)。このとき、サーバ装置200は、音声認識を実行した後の文字列であるテキスト情報に対して形態素解析などを実行し、ユーザの要求、すなわち音声の意図を解析する。次いで、サーバ装置200は、このようにして解析されたユーザの要求に応じた応答を抽出する。この際、サーバ装置200は、ステップS3において判定された緊急度に応じて、応答を抽出する方法を異ならせる。なお、応答の具体的な抽出方法については、追って例示する。
サーバ装置200は、ステップS4において抽出された応答に基づいて応答情報を生成し(ステップS5)、これをユーザ端末100に送信する(ステップS6)。ユーザ端末100は、応答情報を受信すると、応答情報に応じた音声及び画像を再生(すなわち出力)する(ステップS7)。ここでいう画像は、静止画と動画のいずれであってもよい。
図5のシーケンスチャートの説明は、以上のとおりである。ここからは、このシーケンスチャートに従って応答情報が送信される場合の具体例を挙げて説明する。ここでは、本実施例のサービスの利用形態として、ウェブページの検索(いわゆるウェブ検索)、列車の乗換案内、道路の交通情報(渋滞情報)に本発明を適用した場合を挙げる。
(1)ウェブ検索の場合
ウェブページを検索する場合、ユーザは、いわゆる検索語を音声にて入力する。このとき、ユーザは、例えば、「東京、レストラン」というように検索語を1又は複数の単語で入力してもよいし、「東京の美味しいレストランを教えて」というように自然文で入力してもよい。後者の場合、サーバ装置200が音声情報の構文を解析し、適当な検索語を設定する。
ウェブページを検索する場合、ユーザは、いわゆる検索語を音声にて入力する。このとき、ユーザは、例えば、「東京、レストラン」というように検索語を1又は複数の単語で入力してもよいし、「東京の美味しいレストランを教えて」というように自然文で入力してもよい。後者の場合、サーバ装置200が音声情報の構文を解析し、適当な検索語を設定する。
サーバ装置200は、このようにして検索語を得たら、これを用いて検索を実行する。このとき、サーバ装置200は、外部の検索サービス(いわゆるサーチエンジン)に検索語を送信し、検索結果を受信する。検索結果は、検索語に対応するウェブページのURL(Uniform Resource Locator)を少なくとも含み、当該ウェブページのタイトル、概要、サムネイル画像などを含んでもよい。また、サーバ装置200は、上述したようにして緊急度を判定する。
このとき、サーバ装置200は、緊急度に応じて応答の抽出方法を異ならせる。例えば、サーバ装置200は、緊急度が高い場合には、緊急度が低い場合よりも検索結果の情報量を少なくする。具体的には、サーバ装置200は、緊急度が高い場合に、検索結果として受信するウェブページの件数を絞り込む。このようにすることで、サーバ装置200とサーチエンジンとの間やサーバ装置200とユーザ端末100との間の通信を少なくしたり、ユーザ端末100において出力するときの処理や時間を低減したりすることが可能である。
あるいは、サーバ装置200は、緊急度が「中」の場合にはウェブページの概要やサムネイル画像を含んだ検索結果をサーチエンジンから受信する一方、緊急度が「高」の場合にはこれらを含まない検索結果(例えばURLのみの検索結果)をサーチエンジンから受信するようにしてもよい。さらに、サーバ装置200は、緊急度が「低」の場合には、緊急度が「中」の場合よりも情報量が多い検索結果を受信するようにしてもよい。
サーバ装置200が応答情報をこのように生成することで、ユーザは、緊急度が高い場合、すなわち、早足で移動していたり早口で要求を入力したりした場合に、より素早く応答を得ることができるようになる。したがって、ユーザは、急いでいる、あるいは急を要しているという自らの状況に見合った態様で応答を得ることが可能になる。これにより、例えば、急いでいるユーザが目的の情報を素早く得られずにいらだつといったことを抑制する効果を期待することができる。
なお、このときユーザ端末100は、応答情報の出力態様を緊急度に応じて異ならせてもよい。例えば、ユーザ端末100は、キャラクタがユーザに語りかけるように音声で応答を出力する場合に、緊急度が高ければ、キャラクタも早口で応答したり、あるいは簡潔な語調で応答したりすることが可能である。また、ユーザ端末100は、緊急度が高い場合にはキャラクタも急いでいるようなアニメーション表示をするといったように、表示態様を異ならせることも可能である。このようにすれば、ユーザは、キャラクタが自らの状況に呼応した反応を示しているように感じることができる。
また、ユーザ端末100は、キャラクタ以外の出力態様を変化させてもよい。例えば、検索対象がレストラン等の施設(店舗)の場合であれば、サーバ装置200は、緊急度が高ければ施設の名称やウェブページのURLのみを表示する一方、緊急度が低ければ地図を表示し、その地図上に施設の実際の位置などをあわせて表示するようにしてもよい。
(2)乗換案内の場合
図6は、この例において想定する列車の経路と発着時刻とを示す図である。ここでは、ユーザがA駅を出発してD駅に到着する経路を検索することを想定しており、X線の列車に乗車してA駅からB駅に移動し、B駅から徒歩でC駅まで移動した後、Y線の列車に乗車してC駅からD駅に移動するものとする。また、B駅からC駅までの距離は、およそ500mであるとする。さらに、X線の列車は、12時00分にA駅を出発し、12時30分にB駅に到着する。また、Y線の列車は、12時36分にC駅を出発し、12時56分にD駅に到着するもの(列車Y1)と、12時46分にC駅を出発し、13時06分にD駅に到着するもの(列車Y2)とがある。
図6は、この例において想定する列車の経路と発着時刻とを示す図である。ここでは、ユーザがA駅を出発してD駅に到着する経路を検索することを想定しており、X線の列車に乗車してA駅からB駅に移動し、B駅から徒歩でC駅まで移動した後、Y線の列車に乗車してC駅からD駅に移動するものとする。また、B駅からC駅までの距離は、およそ500mであるとする。さらに、X線の列車は、12時00分にA駅を出発し、12時30分にB駅に到着する。また、Y線の列車は、12時36分にC駅を出発し、12時56分にD駅に到着するもの(列車Y1)と、12時46分にC駅を出発し、13時06分にD駅に到着するもの(列車Y2)とがある。
この乗換案内は、ユーザの歩行速度を検索条件として設定することが可能であり、設定した歩行速度に応じた乗り換えの経路を案内することができる。ここにおいて、ユーザの歩行速度は、「ゆっくり」、「標準」、「速く」の3種類が設定可能であり、「ゆっくり」だと分速60m、「標準」だと分速80m、「速く」だと分速100mであるとする。
サーバ装置200は、経路を検索するときに、出発時刻、出発駅、到着駅及び歩行速度を検索条件として設定することができる。例えば、ユーザが「A駅からD駅までの経路(を教えて)」という要求を入力した場合、サーバ装置200は、出発駅にA駅、到着駅にD駅をそれぞれ設定する。また、サーバ装置200は、ユーザによって要求が入力された時刻を特定し、特定した時刻を出発時刻に設定する。さらに、サーバ装置200は、上述したように緊急度を判定し、緊急度が「高」であれば歩行速度を「速く」、緊急度が「中」であれば歩行速度を「標準」、緊急度が「低」であれば歩行速度を「ゆっくり」に、それぞれ設定する。
上述したとおり、B駅からC駅までの距離は、約500mである。そうすると、歩行速度が「速く」に設定されている場合、B駅からC駅までの所要時間は、約5分である。同様に、歩行速度が「標準」に設定されている場合の所要時間は約6分30秒、歩行速度が「ゆっくり」に設定されている場合の所要時間は約8分20秒である。ゆえに、B駅に12時30分に到着した場合の検索結果は、歩行速度が「速く」に設定されていれば列車Y1が案内される一方、歩行速度が「標準」又は「ゆっくり」に設定されていれば列車Y2が案内されることになる。
図7は、ユーザ端末100における応答情報の出力態様を例示する図である。図7(a)は、緊急度が「中」の場合を示し、図7(b)は、緊急度が「高」の場合を示している。緊急度が「中」の場合、ユーザ端末100は、A駅からD駅までの経路を表示するとともに、「A駅からD駅までの経路をお調べしました。A駅で12時00分発の列車に乗ると、D駅に13時06分に到着することができます。」という音声を再生する。また、このときユーザ端末100が表示するのは、列車Y2に乗車した場合の経路である。一方、緊急度が「高」の場合、ユーザ端末100は、A駅からD駅までの経路を表示するとともに、「D駅には急げば12時56分に到着できます。」という音声を再生する。また、このときユーザ端末100が表示するのは、列車Y1に乗車した場合の経路である。
このようにすれば、ユーザは、自らの状況に応じた検索条件を自ら明示的に発声することなく設定することが可能である。したがって、ユーザは、急いで移動している場合などに、詳細な検索条件をわざわざ設定しなくても、より適切な検索結果を得ることが可能である。また、ユーザ端末100は、出力する音声を簡潔にすることにより、丁寧な表現のような、入力に対する応答そのものとは無関係な音声(聞いても聞かなくても情報としての価値が変わらない音声)を省略することも可能である。
(3)交通情報の場合
交通情報を検索する場合、ユーザは、検索対象とする道路やその位置を少なくとも指定する。また、ユーザは、必要に応じて、検索対象とする時期を指定することができる。なお、時期の指定がない場合、サーバ装置200は、ユーザからの入力を受け付けた時点での交通情報を検索する。
交通情報を検索する場合、ユーザは、検索対象とする道路やその位置を少なくとも指定する。また、ユーザは、必要に応じて、検索対象とする時期を指定することができる。なお、時期の指定がない場合、サーバ装置200は、ユーザからの入力を受け付けた時点での交通情報を検索する。
図8は、交通情報として出力される応答情報を例示した図である。図8(a)は、緊急度が「高」の場合を示し、図8(b)は、緊急度が「低」の場合を示している。図8(a)の場合において、ユーザは、「XX高速道路の交通情報」といったように、簡潔な言葉で短時間に音声を入力しているものとする。一方、図8(b)の場合において、ユーザは、「明日のXX高速道路の交通情報を教えて」といったように、検索対象とする時期を指定して音声を入力しているものとする。
緊急度が「高」の場合、サーバ装置200は、ユーザから要求された情報のみを端的に応答する。この場合、ユーザ端末100は、指定された道路の交通情報のみを出力する。このとき、キャラクタの画像は、緊急度が「高」であることをユーザにわかりやすく伝えるように、例えば焦っているような表情になる。これに対し、緊急度が「低」の場合、サーバ装置200は、ユーザから要求された情報のみでなく、他の付加的な情報も抽出し、応答するようにする。ここでいう付加的な情報は、例えば、ユーザに指定された道路以外の近隣の道路の交通情報、指定された道路にあるサービスエリアやパーキングエリアに関する情報、指定された道路の付近の観光情報などである。また、このときのキャラクタの画像は、緊急度が「高」である場合とは異なったものになる。
[変形例]
本発明は、上述した実施例の態様に限らず、他の態様でも実施することができる。以下に示すのは、本発明の他の態様の一例である。なお、これらの変形例は、必要に応じて、各々を適宜組み合わせることも可能である。
本発明は、上述した実施例の態様に限らず、他の態様でも実施することができる。以下に示すのは、本発明の他の態様の一例である。なお、これらの変形例は、必要に応じて、各々を適宜組み合わせることも可能である。
(1)サーバ装置200は、ユーザ端末100の使用状況、すなわち、ユーザ端末100がユーザによってどのように扱われているかによって応答を異ならせてもよい。ユーザ端末100の使用状況は、センサ情報などによって判定される。例えば、モーションセンサ部150において強い衝撃が頻繁に検出される場合、サーバ装置200は、ユーザがユーザ端末100を粗雑に扱っていると判定する。このように判定した場合、サーバ装置200は、そうでない場合に比べ、応答として抽出する情報を制限する。また、このときサーバ装置200は、キャラクタの表示態様や語調を変化させるようにしてもよい。
なお、サーバ装置200は、センサ情報以外の情報を用いてユーザ端末100の使用状況を判定してもよい。例えば、サーバ装置200は、タッチスクリーン部140に対する操作(タッチ操作)の強さや音声の音量に基づき、タッチ操作が強い場合や音量が大きい場合にユーザ端末100が粗雑に扱われていると判定してもよい。
(2)サーバ装置200は、ユーザ端末100において行われる通信の態様に基づいてユーザ端末100の状況を判定してもよい。ここにおいて、通信の態様とは、そのとき用いられている通信方式や、受信している電波の強度(感度)をいう。例えば、サーバ装置200は、より高速通信が可能な通信方式で通信部130が通信している場合に、データ通信に余裕がある状況であると判定し、より多くの情報を抽出する。なお、サーバ装置200は、このとき、キャラクタの出力態様をあわせて変化させてもよい。
(3)サーバ装置200は、ユーザ端末100において検出される情報を累積的に利用して状況を判定してもよい。すなわち、サーバ装置200は、緊急度などの状況を、絶対評価と相対評価のいずれの方法で判定することも可能である。例えば、ユーザ端末100の移動速度によってユーザの緊急度を判定する場合、サーバ装置200は、当該ユーザの移動速度を(当該ユーザに限定しない)ユーザ全般の一般的な歩行速度と比較し、その差異に基づいて緊急度を判定することも可能であるし、当該ユーザの歩行速度を累積的に測定するとともに、その測定結果に基づいて当該ユーザの歩行速度の平均値を算出し、そのときどきの移動速度と平均値との差異に基づいて緊急度を判定してもよい。
(4)サーバ装置200は、ユーザからの入力に応じて判定部211による判定(すなわち緊急度)を訂正する手段を有してもよい。ここでいう入力とは、タッチスクリーン部140に対する操作入力のことであってもよいし、音声入力部170を介した音声入力のことであってもよい。サーバ装置200は、緊急度を訂正したら、応答情報の送信を訂正された緊急度に基づいてやり直してもよい。
図9は、本変形例における画面遷移を例示する図であり、図8(a)に示した検索結果を訂正する場合を例示するものである。このような検索結果が得られた場合において、ユーザは、自身がそれほど急いでいないとき、換言すれば判定部211による判定が実情に即していないときであれば、「落ち着いて!」といった所定の音声を入力することにより、緊急度を訂正するための指示を行う。サーバ装置200は、音声認識の結果、所定の音声が入力されたと判断すると、緊急度を入力された音声に応じた値に変更する。その後、サーバ装置200は、応答の抽出(ステップS4)や応答情報の生成(ステップS5)などを再度実行し(図5参照)、訂正前と異なる応答をユーザ端末100に再生させる。この例では、ユーザ端末100は、キャラクタの画像を緊急度が「低」の場合のものに変更したり、図8(b)に示したような付加的な情報を表示させたりしている。
なお、ここでいう所定の音声は、サービスの提供者によって決められていてもよいし、ユーザが決めてもよい。また、この音声は、例えば緊急度を「高」から「中」に訂正する場合の音声と緊急度を「高」から「低」に訂正する場合の音声とが設定されている、といったように、訂正前後の緊急度に応じてことなった音声(言葉)であってもよい。
(5)本発明の情報提供装置に相当する機能(図4参照)は、サーバ装置200ではなくユーザ端末100に備わっていてもよい。あるいは、本発明の情報提供装置に相当する機能は、ユーザ端末100とサーバ装置200の協働によって実現されてもよい。例えば、本発明は、判定部211及び取得部212に相当する機能をユーザ端末100で実現し、抽出部213及び出力制御部214に相当する機能をサーバ装置200で実現することも可能である。また、上述した実施例においてサーバ装置200に備わっていた機能は、複数のサーバ装置の協働によって実現されてもよい。例えば、本発明は、音声認識を実行するサーバ装置と、認識された音声の意図を解釈するサーバ装置と、応答情報に応じた音声を合成するサーバ装置とを含んで構成されてもよい。この場合、ユーザ端末100は、それぞれのサーバ装置とデータをやり取りする。
(6)本発明の情報提供装置は、スマートフォン以外のさまざまな端末にも適用可能である。例えば、本発明は、いわゆるタブレットPC(Personal Computer)やゲーム機にも適用可能である。また、本発明は、ここでいう端末が無線通信端末に限定されるものでもなく、モデム等を介して有線接続されたデスクトップPCであってもよい。
また、本発明は、情報提供装置としてだけではなく、これを備えた通信端末やサーバ装置、これを用いた情報の提供方法、コンピュータを本発明の情報提供装置として機能させるためのプログラムなどとして特定されてもよい。また、本発明に係るプログラムは、光ディスクなどの記録媒体に記録した形態や、インターネットなどのネットワークを介して、コンピュータにダウンロードさせ、これをインストールして利用可能にする形態などでも提供することができる。
10…情報提供システム、100…ユーザ端末、110…制御部、120…記憶部、130…通信部、140…タッチスクリーン部、141…表示部、142…センサ部、150…モーションセンサ部、160…測位部、170…音声入力部、180…音声出力部、200…サーバ装置、210…制御部、211…判定部、212…取得部、213…抽出部、214…出力制御部、220…記憶部、230…通信部、300…ネットワーク
Claims (10)
- ユーザ又は端末の状況を判定する判定部と、
前記ユーザによる入力を取得する取得部と、
前記取得部により取得された入力に対する応答であって前記判定部により判定された状況に応じた応答を抽出する抽出部と、
前記抽出部により抽出された応答を前記端末が出力するように制御する出力制御部と
を備える情報提供装置。 - 前記抽出部は、
前記判定部により判定された状況に応じて、前記応答を抽出する方法を異ならせる
請求項1に記載の情報提供装置。 - 前記抽出部は、
前記入力に応じた検索条件によって前記応答を検索し、
前記判定部により判定された状況に応じて前記検索条件を異ならせる
請求項2に記載の情報提供装置。 - 前記判定部は、
前記ユーザの緊急度を判定し、
前記抽出部は、
前記判定部により判定された緊急度に応じて、抽出する前記応答の情報量を変化させる
請求項1ないし3のいずれか1項に記載の情報提供装置。 - 前記判定部は、
前記入力の内容又は前記端末の移動速度に基づいて前記緊急度を判定する
請求項4に記載の情報提供装置。 - 前記判定部は、
前記端末において検出される情報を累積的に利用して当該端末の状況を判定する
請求項1ないし5のいずれか1項に記載の情報提供装置。 - 前記判定部は、
前記端末において行われる通信の態様に基づいて当該端末の状況を判定する
請求項1ないし6のいずれか1項に記載の情報提供装置。 - 前記出力制御部は、
前記判定部により判定された状況に応じて、前記応答の出力態様を変化させる
請求項1ないし7のいずれか1項に記載の情報提供装置。 - ユーザ又は端末の状況を判定するステップと、
前記ユーザによる入力を取得するステップと、
前記取得された入力に対する応答であって前記判定された状況に応じた応答を抽出するステップと、
前記抽出された応答を前記端末において出力するステップと
を有する情報提供方法。 - コンピュータに、
ユーザ又は端末の状況を判定するステップと、
前記ユーザによる入力を取得するステップと、
前記取得された入力に対する応答であって前記判定された状況に応じた応答を抽出するステップと、
前記抽出された応答を前記端末が出力するように制御するステップと
を実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012268259A JP2014115769A (ja) | 2012-12-07 | 2012-12-07 | 情報提供装置、情報提供方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012268259A JP2014115769A (ja) | 2012-12-07 | 2012-12-07 | 情報提供装置、情報提供方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014115769A true JP2014115769A (ja) | 2014-06-26 |
Family
ID=51171719
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012268259A Pending JP2014115769A (ja) | 2012-12-07 | 2012-12-07 | 情報提供装置、情報提供方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014115769A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019057093A (ja) * | 2017-09-20 | 2019-04-11 | 富士ゼロックス株式会社 | 情報処理装置及びプログラム |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001022370A (ja) * | 1999-07-12 | 2001-01-26 | Fujitsu Ten Ltd | 音声案内装置 |
JP2003233597A (ja) * | 2001-12-07 | 2003-08-22 | Matsushita Electric Ind Co Ltd | コンテンツ配信システムおよび方法 |
JP2005056002A (ja) * | 2003-08-07 | 2005-03-03 | Aisin Aw Co Ltd | 情報処理センター、情報処理方法及び情報提供システム |
JP2009036594A (ja) * | 2007-07-31 | 2009-02-19 | Panasonic Corp | 移動先予測装置および移動先予測方法 |
JP2010282577A (ja) * | 2009-06-08 | 2010-12-16 | Nippon Telegr & Teleph Corp <Ntt> | 情報配信方法、情報配信装置および情報配信プログラム |
JP2012212364A (ja) * | 2011-03-31 | 2012-11-01 | Sony Corp | 情報処理装置、情報処理方法、プログラム、及び記録媒体 |
-
2012
- 2012-12-07 JP JP2012268259A patent/JP2014115769A/ja active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001022370A (ja) * | 1999-07-12 | 2001-01-26 | Fujitsu Ten Ltd | 音声案内装置 |
JP2003233597A (ja) * | 2001-12-07 | 2003-08-22 | Matsushita Electric Ind Co Ltd | コンテンツ配信システムおよび方法 |
JP2005056002A (ja) * | 2003-08-07 | 2005-03-03 | Aisin Aw Co Ltd | 情報処理センター、情報処理方法及び情報提供システム |
JP2009036594A (ja) * | 2007-07-31 | 2009-02-19 | Panasonic Corp | 移動先予測装置および移動先予測方法 |
JP2010282577A (ja) * | 2009-06-08 | 2010-12-16 | Nippon Telegr & Teleph Corp <Ntt> | 情報配信方法、情報配信装置および情報配信プログラム |
JP2012212364A (ja) * | 2011-03-31 | 2012-11-01 | Sony Corp | 情報処理装置、情報処理方法、プログラム、及び記録媒体 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019057093A (ja) * | 2017-09-20 | 2019-04-11 | 富士ゼロックス株式会社 | 情報処理装置及びプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6343010B2 (ja) | ワイヤレスネットワークのアクセスポイントに関連したエンティティの識別 | |
US20170153113A1 (en) | Information processing apparatus, information processing method, and program | |
EP3712562B1 (en) | Real-time path suggestion for a location-enabled mobile device | |
US20190212151A1 (en) | Facility navigation | |
JP2016004571A (ja) | 関心地点情報をプッシュするための方法及びシステム | |
TW201017123A (en) | Data enrichment apparatus and method of determining temporal access information | |
GB2492390A (en) | Obtaining verbal navigation instructions relating to visual cues | |
JP2008271465A (ja) | 携帯通信端末、位置特定システム、位置特定サーバ | |
US11143507B2 (en) | Information processing apparatus and information processing method | |
US20130332166A1 (en) | Processing apparatus, processing system, and output method | |
JP2020085462A (ja) | 情報処理装置及び情報処理プログラム | |
JP2015010979A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP2014044623A (ja) | ネットワーク・サービスシステム、端末、サーバー、プログラム並びにネットワーク・サービスシステムおけるコメント提供方法 | |
JPWO2014188587A1 (ja) | 情報処理装置、情報処理方法及び情報処理プログラム | |
JP6267298B1 (ja) | 提供装置、提供方法、提供プログラム、端末装置、出力方法、及び出力プログラム | |
JP6327331B2 (ja) | 情報処理装置 | |
KR101954800B1 (ko) | 위치 확인 서비스 시스템, 그 시스템에서의 영상을 이용한 위치정보 제공 방법, 이를 위한 서비스장치 및 이를 위한 단말장치 | |
JP2014115769A (ja) | 情報提供装置、情報提供方法及びプログラム | |
JP5785512B2 (ja) | 情報処理装置、情報処理システム、及び情報処理方法 | |
JP5505320B2 (ja) | 情報提供装置、情報提供方法、及び情報提供プログラム | |
JP2019174264A (ja) | 経路探索装置、プログラム及び経路探索サーバ | |
KR101683524B1 (ko) | 소셜 네트워크 서비스의 프로필 정보 제공장치 및 그 방법이 구현된 컴퓨터로 판독 가능한 기록매체 | |
WO2021090219A1 (en) | 3d video generation for showing shortest path to destination | |
US11238517B2 (en) | Navigation server, navigation client and navigation system | |
Khedo et al. | A context-aware voice operated mobile guidance system for visually impaired persons |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150812 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160524 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160531 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20161122 |