JP2011205238A - 通信端末及び情報検索方法 - Google Patents

通信端末及び情報検索方法 Download PDF

Info

Publication number
JP2011205238A
JP2011205238A JP2010068677A JP2010068677A JP2011205238A JP 2011205238 A JP2011205238 A JP 2011205238A JP 2010068677 A JP2010068677 A JP 2010068677A JP 2010068677 A JP2010068677 A JP 2010068677A JP 2011205238 A JP2011205238 A JP 2011205238A
Authority
JP
Japan
Prior art keywords
communication terminal
terminal
user
information
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010068677A
Other languages
English (en)
Inventor
Yuki Matsunaga
祐樹 松永
Eiji Yano
英司 矢野
Seiji Shiraishi
誠二 白石
Keiko Saito
恵子 斉藤
Shoichi Yokozawa
尚一 横澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2010068677A priority Critical patent/JP2011205238A/ja
Publication of JP2011205238A publication Critical patent/JP2011205238A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Telephonic Communication Services (AREA)

Abstract

【課題】通話状態での情報検索結果に応じた情報を通話相手と容易に共有する。
【解決手段】第1通信端末10Aで取得された音声データからキーワードが抽出され、このキーワードを用いて情報検索が行われる。そして、この情報検索結果が第1通信端末10Aの画面に表示されると同時に、通話を行っている相手の相手側端末である第2通信端末10Bに対しても出力され、さらに、第1通信端末10Aと第2通信端末10Bとの間で画面の同期が行われる。そして、情報検索結果に基づいてユーザが自端末を操作し新たな情報を得た場合には、この情報についても第2通信端末10Bとの間で同期して表示される。第1通信端末10Aと第2通信端末10Bとの間で画面表示を同期して情報検索結果に応じた情報を共有することで、自端末のユーザと相手側端末のユーザとの間での情報検索結果に応じた情報の共有を容易に行うことができる。
【選択図】図2

Description

本発明は、通信端末及びこの通信端末を用いた情報検索方法に関する。
これまで、携帯電話を用いて他者と通話をしている際に挙がった話題についてさらなる情報を得ようとする場合には、通話に使用している携帯電話とは異なるコンピュータ等の他の装置を用いて情報検索を行うことが一般的であった。これに対して、通話中の携帯電話を用いて情報検索を行うことを実現すべく、通話中に通話に係る操作とは異なる操作を行うことができる携帯電話が知られている。さらに、近年では携帯電話の使用者の操作性を高めるために、一台の携帯電話を通話のための部分と画面表示のための部分とに分離することが可能な携帯電話や、携帯電話と外部のスクリーンとを接続し、携帯電話の画面に表示される情報をスクリーンに表示する技術等が知られている。
しかしながら、上記の携帯電話を用いた情報検索では、通話をしながら携帯電話を操作する必要があるため、例えば携帯電話の操作に注力するあまり会話が疎かになるという可能性もあり、携帯電話の使用者にとって必ずしも操作性が高いとはいえない。また、携帯電話を用いて情報検索を行った結果を通話相手と共有するためには、例えば、情報検索を行った結果を会話で伝えるか、又は、同じキーワードを用いた情報検索を両者が行う必要があった。
これに対して、情報検索結果を通話中の相手と共有することを目的として、携帯電話等を用いて他者と通話をしている際の会話音声に含まれる単語をキーワードとして取得し、このキーワードを用いて情報検索を行い、その情報検索結果を通話中の両者に通知をする方法が検討されている(例えば、特許文献1参照)。
特開2003−32388号公報
特許文献1記載の通信端末装置では、例えば店舗情報や地図情報のように通話中の使用者が音声により理解できるものを情報検索結果として通話中の通信端末に通知する場合には有効である。しかしながら、特許文献1記載の通信端末装置を用いた場合には、音声のみでは理解しづらい情報である場合や、情報検索結果に基づいて情報検索結果とは異なる情報へアクセスする場合等には、これらの情報を共有し十分に活用することができない可能性がある。具体的には、情報検索を行った端末側の使用者が、相手側の端末に対して情報検索結果を通話相手に対して音声で説明するか、又は、相手側の端末での同様の操作を行ってもらうことで同一の情報検索結果を確認する等の対応が必要である。このように、これまでの通信端末では、通話状態で情報検索を行った場合にその情報検索結果に応じた情報を通話相手との間で十分に共有することが容易であるとはいえなかった。
本発明は上記を鑑みてなされたものであり、通話状態での情報検索結果に応じた情報を通話相手と容易に共有することが可能な通信端末及びこの通信端末による情報検索方法を提供することを目的とする。
上記目的を達成するため、本発明に係る通信端末は、通話相手の通信端末である相手側端末との間で音声データを送受信可能である共に、当該音声データに含まれるキーワードを用いて情報検索が可能な通信端末であって、当該通信端末のユーザの音声又は相手側端末からの音声を音声データとして取得する音声取得手段と、音声認識手段により抽出されたキーワードを用いて情報検索を行うと共にこの検索により得られる検索結果を画面に対して表示することで自端末に対して出力する情報検索手段と、検索結果を画面に対して表示した検索結果を相手側端末に対して出力する出力手段と、出力手段による相手側端末への出力を契機として、自端末の画面と相手側端末の画面とを同期させる同期手段と、を備えることを特徴とする。
また、本発明に係る情報検索方法は、通話相手の通信端末である相手側端末との間で音声データを送受信可能である共に、当該音声データに含まれるキーワードを用いて情報検索が可能な通信端末による情報検索方法であって、当該通信端末のユーザの音声又は相手側端末からの音声を音声データとして取得する音声取得ステップと、音声取得ステップにおいて取得された音声データからキーワードを抽出する音声認識ステップと、音声認識ステップにおいて抽出されたキーワードを用いて情報検索を行うと共にこの検索により得られる検索結果を画面に対して表示することで自端末に対して出力する情報検索ステップと、検索結果を画面に対して表示した検索結果を相手側端末に対して出力する出力ステップと、出力ステップにおける相手側端末への出力を契機として、自端末の画面と相手側端末の画面とを同期させる同期ステップと、を含むことを特徴とする。
上記の通信端末及びこの通信端末を用いた情報検索方法によれば、通信端末で取得された音声データからキーワードが抽出され、このキーワードを用いて情報検索が行われる。そして、この情報検索結果が自端末の画面に表示されると同時に、通話を行っている相手の相手側端末に対しても出力され、さらに、自端末と相手側端末との間で画面の同期が行われ、情報検索結果に基づいてユーザが自端末を操作し新たな情報を得た場合には、この情報が相手側端末と同期される。このように、上記の通信端末によれば、自端末と相手側端末との間で画面表示を同期して情報検索結果に応じた情報を共有することで、自端末のユーザと相手側端末のユーザとの間での情報検索結果に応じた情報の共有を容易に行うことができる。
ここで、通信端末に対するユーザの操作による抽出開始要求を検知するユーザ要求検知手段をさらに備え、音声認識手段が、ユーザ要求検知手段による抽出開始要求の検知を契機として、音声取得手段により取得された音声データからキーワードを抽出する態様とすることができる。
この場合、ユーザの操作に基づいた抽出開始要求の検知を契機に基づいて、情報検索のためのキーワードが音声データから抽出される。したがって、ユーザの要求に基づいたキーワード検索を行うことができるため、より高い精度で情報検索を行うことができる。
また、相手側端末において情報検索がなされた結果に基づいて、当該相手側端末から送信される相手側情報を受信し、これを自端末において出力する相手側情報出力手段をさらに備える態様とすることが好ましい。
上記構成の場合には、相手側端末から送信される相手側の情報検索結果を自端末で表示することができるため、情報検索結果の共有を双方向で行うことが可能となる。
また、通信端末の移動を検知する加速度センサをさらに備え、ユーザ要求検知手段が、加速度センサにより検知される移動がユーザにより通信端末に振動を与えた際に発生する振動であると判断した場合に、これを抽出開始要求として検知する態様とすることができる。
この場合、ユーザは、例えば加速度センサが所定値以上の振動を検知するように通信端末を振動させることにより、通信端末に対して検索開始を指示することができるため、より簡便な操作で情報検索を行うことができる。
また、ユーザ要求検知手段は、音声取得手段により取得されたユーザの音声データに特定の単語が含まれているかを判断し、音声データに特定の単語が含まれている場合に、これを抽出開始要求として検知する態様としてもよい。
この場合、ユーザは、検索開始のための特定の単語を話すことにより、通信端末に対して検索開始を指示することができるため、より簡便な操作で情報検索を行うことができる。
また、ユーザ要求検知手段は、通信端末に対するユーザの操作による抽出終了要求をさらに検知し、音声認識手段は、ユーザ要求検知手段により抽出開始要求を検知した時点から抽出終了要求を検知した時点までの間に、音声取得手段により取得されたユーザの音声データからキーワードを抽出する態様とすることができる。
この場合、抽出開始要求と抽出終了要求との間に含まれる音声データからキーワードが抽出されるため、キーワードとして抽出される可能性のある単語を明確に限定することができるため、より高い精度での情報検索が可能となる。
本発明によれば、通話状態での情報検索結果に応じた情報を通話相手と容易に共有することが可能な通信端末及びこの通信端末による情報検索方法が提供される。
本発明の実施形態に係る通信システムの構成を説明する図である。 実施形態に係る通信システムを構成する通信端末の構成を説明する図である。 通信端末のハードブロック図である。 通信端末における情報検索に係る処理を説明するフローチャートである。 第1通信端末及び第2通信端末の画像表示部における表示内容を説明する図である。
以下、添付図面を参照して、本発明を実施するための形態を詳細に説明する。なお、図面の説明においては同一要素には同一符号を付し、重複する説明を省略する。
図1は、本発明の実施形態に係る通信システム1の構成を示す図である。図1で示すように、通信システム1は、第1通信端末10A、第2通信端末10B、情報検索ウェブサーバ31及びウェブサーバ32を含んで構成される。
本実施形態の通信システム1は、第1通信端末10Aと第2通信端末10Bとの間で音声通信網N1を介して音声通話が行われているときにおいて、通話内容に関連する情報を得ることを所望する場合に、第1通信端末10A又は第2通信端末10BがネットワークN2を介してから情報検索を行い、その結果を自端末において出力すると共に情報検索を行った通信端末とは異なる通話相手の通信端末(すなわち、第1通信端末10Aが情報検索を行った場合には、第2通信端末10B)に対して送信するためのシステムである。第1通信端末10Aと第2通信端末10Bとは同等の機能を有している。
ここで、以下の実施形態では、特に、第1通信端末10Aのユーザが第1通信端末10Aを操作することで、第1通信端末10Aのユーザの音声に基づいて第1通信端末10Aにおいて情報検索を行い、その結果を通話相手である第2通信端末10B(相手側端末)に対して出力することで情報検索結果に応じた情報を共有する場合について説明する。ここで、本実施形態において「情報検索結果に応じた情報」には、情報検索結果と、この情報検索結果に関連する情報(例えば、情報検索結果の詳細を記載している他のウェブサイトに記載された情報等)とが含まれる。ただし、第1通信端末10Aと第2通信端末10Bとは同等の機能を有していることから、第2通信端末10Bが情報検索を行いその結果を第1通信端末10Aに対して出力して検索結果を共有する場合も、以下で説明する処理と同様の処理が行われる。また、以下の実施形態では、第1通信端末10Aのユーザが第1通信端末10Aを振動させた場合に、この振動を検知して情報検索を行う場合について説明する。
第1通信端末10Aと第2通信端末10Bとは、音声通信網N1を介して音声通信可能に接続されている。この音声通信網N1は、音声通信可能な回線であれば特に限定されず、例えば、電話回線、移動体通信網、IP通信網といった回線等を適用することができる。また、第1通信端末10Aや第2通信端末10Bは、例えば、携帯電話、PHS、PDA等の通信端末として実現される。
また、情報検索ウェブサーバ31、ウェブサーバ32、第1通信端末10A及び第2通信端末10Bは、ネットワークN2を介してデータの送受信可能に接続されている。この情報検索ウェブサーバ31は、単語又は文章を入力して検索開始を指示することで、当該入力した単語や文章に関連する情報を出力する機能を有するウェブサイトを提供するウェブサーバである。この情報検索ウェブサーバ31は、例えば、単語を入力することで、その単語に係る画像を検索するいわゆる画像検索のためのウェブサーバであってもよい。また、ウェブサーバ32は、情報検索ウェブサーバ31の提供する情報検索ウェブサイトとは異なるウェブサイトを提供するウェブサーバである。第1通信端末10Aや第2通信端末10Bは、ネットワークN2を介して情報検索ウェブサーバ31やウェブサーバ32に対して接続することで、これらのサーバが提供する情報を取得することが可能となる。
次に、この通信システム1の機能について説明する。図2は、第1通信端末10A及び第2通信端末10Bの機能的構成を示すブロック図である。図2に示すように、第1通信端末10A及び第2通信端末10Bは、発話口11(音声取得手段)、受話口12(音声取得手段)、音声認識部13(音声認識手段)、加速度センサ14、ユーザ要求検知部15(ユーザ要求検知手段)、ネットワーク制御部16(情報検索手段、出力手段、同期手段)、画像表示部17、画像圧縮部18(出力手段)及び画像展開部19(相手側情報出力手段)を含んで構成される。
また、図3は、第1通信端末10A及び第2通信端末10Bのハードウエア構成図である。第1通信端末10A及び第2通信端末10Bは、物理的には、図3に示すように、CPU(Central Processing Unit)101、主記憶装置であるRAM(Random Access Memory)102及びROM(Read Only Memory)103、ネットワークカード等のデータ送受信デバイスである通信モジュール104、ハードディスク、フラッシュメモリ等の補助記憶装置105、入力デバイスであるキーボード及びマウス等の入力装置106、ディスプレイ等の出力装置107などを含むコンピュータシステムとして構成されている。図2に示した各機能は、図3に示すCPU101、RAM102等のハードウエア上に所定のコンピュータソフトウェアを読み込ませることにより、CPU101の制御のもとで通信モジュール104、入力装置106、出力装置107を動作させると共に、RAM102や補助記憶装置105におけるデータの読み出し及び書き込みを行うことで実現される。
図2に戻って、第1通信端末10A及び第2通信端末10Bの各機能部について説明する。ここでは、図2に示す各機能部が第1通信端末10Aである場合について説明するが、第2通信端末10Bも同様の機能を有する。
発話口11は、第1通信端末10Aのユーザの音声を第2通信端末10Bに伝えるために、ユーザの音声を音声データとして取得する機能を有する手段である。すなわち、発話口11は第1通信端末10Aのマイク機能を有する手段である。発話口11で取得された音声データは、発話口11から音声通信網N1を介して第2通信端末10Bへ送られると共に、音声認識部13へ送られる。
受話口12は、第2通信端末10Bから音声通信網N1を介して送られた音声データを受信し、この音声データを第1通信端末10Aで音声として出力する機能を有する手段である。すなわち、受話口12は、第1通信端末10Aのスピーカ機能を有する手段である。また、受話口12で取得された音声データは、受話口12から音声認識部13へ送られる。
このように、発話口11と受話口12が、第1通信端末10Aと第2通信端末10Bとの間で音声通話を行うための、通話制御部20として機能する。
音声認識部13は、発話口11及び受話口12から送られる音声データを音声認識処理によりテキスト情報に変換し、このテキスト情報からキーワードとなる単語を抽出する機能を有する手段である。ここで用いられる音声認識処理には、既存の音声認識技術を採用することができる。また、音声認識部13で音声データをテキスト情報に変換する処理は、後述のユーザ要求検知部15が抽出開始要求を検知し、そのことがユーザ要求検知部15から音声認識部13へ通知されたことを契機として開始される。そして、ユーザ要求検知部15が抽出終了要求を検知し、そのことがユーザ要求検知部15から音声認識部13へ通知されたことを契機として終了される。音声認識部13により抽出されたキーワードに係る情報は、ネットワーク制御部16へ送られる。
加速度センサ14は、第1通信端末10Aの移動による加速度を検知する手段である。この加速度センサ14は、第1通信端末10Aの移動方向も検知可能とされ、例えば、第1通信端末10Aが持ち運ばれるときの移動方向及び移動速度を測定することが可能であることに加えて、第1通信端末10Aがユーザの手によって振動した場合にはその振動を検知することが可能である。加速度センサ14により第1通信端末10Aの移動を検知した場合には、その方向及び加速度に係る情報が加速度センサ14からユーザ要求検知部15へ送られる。
ユーザ要求検知部15では、加速度センサ14から送られる情報がユーザからの抽出開始要求に該当するものか否かを判断し、抽出開始要求に該当すると判断された場合には、音声認識部13に対して抽出開始要求を検知した旨を通知する。具体的には、ユーザが第1通信端末10Aを振動させたときに発生する特有の振動方向や特有の加速度等を予め登録しておき、この登録した情報と、加速度センサ14から送られる第1通信端末10Aの移動に係る情報とを比較し、第1通信端末10Aの移動がユーザによる振動に基づくものか否かが判定される。ここで、第1通信端末10Aの移動がユーザによる第1通信端末10Aの振動に由来するものであると判断された場合には、ユーザが第1通信端末10Aを振動させた、すなわち、ユーザが情報検索のためのキーワードの抽出の開始を指示していると判断し、抽出開始要求を検知した旨を音声認識部13へ通知する。
また、ユーザ要求検知部15が上記のように抽出開始要求を検知した旨を通知した後に再度ユーザによる第1通信端末10Aの振動に該当する第1通信端末10Aの移動を検知した場合には、ユーザが情報検索のためのキーワードの抽出の終了を指示していると判断し、抽出終了要求を検知した旨を音声認識部13へ通知する。なお、ユーザ要求検知部15により検知されたユーザの第1通信端末10Aの振動が、抽出開始要求に相当するのか、抽出終了要求に相当するのかの判断は、例えば、前回のユーザによる第1通信端末10Aの振動からの時間が一定時間(例えば、10秒)以内であるか否かにより判断される。
ネットワーク制御部16は、音声認識部13により抽出されたキーワードを、ネットワークN2を介して情報検索サーバ31に対して送信することにより、情報検索サーバ31から送信される当該キーワードに係る情報検索結果を取得する機能を有する手段である。この情報検索結果は、画像表示部17へ送られる。
また、ネットワーク制御部16は、ネットワークN2を介して他のウェブサーバ32に対しても接続する機能を有する。さらに、ネットワーク制御部16は、情報検索サーバ31に対してキーワードを送信することで得られる情報検索結果を画像圧縮部18に対して送る機能を有し、さらに、画像圧縮部18から送信される画像データをネットワークN2を介して第2通信端末10Bに対して送信すると共に、第2通信端末10Bの画面表示を第1通信端末10Aの画面に対して同期させる旨の指示を行うことで、第1通信端末10Aの画面と第2通信端末10Bの画面とを同期させる機能を有する。なお本実施形態では、このように情報検索結果を第2通信端末10Bに対して送信することを「出力する」という。
さらにネットワーク制御部16は、第2通信端末10Bから送信される画像データを取得し、この画像データを画像展開部19に対して送ることで、画像表示部17に画像データを表示させる機能を有する。なお、第2通信端末10Bから送信される画像データとは、第2通信端末10Bにおいて情報検索を行うことで得られた情報検索結果が画像データに変換されたものである。
画像表示部17は、ネットワーク制御部16で取得されたキーワードに対応する情報検索結果を、画面に表示させる機能を有する手段である。
また、画像圧縮部18は、画像表示部17により表示された情報検索結果を画像データに変換する機能を有する手段である。この画像データへの変換は、第2通信端末10Bと情報検索結果を共有するために行うものであり、第2通信端末10Bとの通話中に行われた情報検索結果は、画像表示部17に表示すると同時に画像圧縮部18において画像データへの変換が行われる。画像圧縮部18において画像データの変換が終了した情報検索結果はネットワーク制御部16へ送られ、ネットワーク制御部16から第2通信端末10Bへ送信され、同時に、画面の同期が開始される。
また、画像展開部19は、ネットワーク制御部16において第2通信端末10Bから受信する画像データを、画像表示部17へ表示する機能を有する手段である。この画像展開部19は、第2通信端末10Bの動作に応じて第1通信端末10Aの画面が遷移する同期状態である場合に動作する。
なお、本実施形態に係る通信システム1では、第1通信端末10Aと第2通信端末10Bとが通話状態にあって、第1通信端末10Aがキーワードを用いた情報検索を行った場合には、その結果を画像圧縮部18において画像データに変換した後、第2通信端末10Bに対して送信する。すると、第2通信端末10Bでは、画像表示部17において他の情報を表示していた場合であっても、第2通信端末10Bの画像展開部19によって、第1通信端末10Aから送信される画像データを画像表示部17において表示させることが優先される。そして、これを契機として、第1通信端末10Aと第2通信端末10Bとの間で画像表示部17が同期される。
そして、第1通信端末10Aのユーザが第1通信端末10Aを操作することで、例えばウェブサーバ32へアクセスし、情報検索結果に関連する他の情報を取得した場合には、この関連する他の情報を表示する画面を第1通信端末10Aの画像圧縮部18において画像データに変換し、これをネットワーク制御部16から第2通信端末10Bに対して送信する。そして、第2通信端末10Bにおいてこの第1通信端末10Aからの画像データを画面に表示することにより、同期が継続される。
したがって、第1通信端末10Aが他のウェブサーバ32と通信を行った結果、画像表示部17における表示が変わった場合には、その変更後の表示についても画像展開部19によって画像データに変換され、ネットワーク制御部16から第2通信端末10Bに対して送信される。この第1通信端末10Aと第2通信端末10Bとの同期は、第1通信端末10Aと第2通信端末10Bとが通話状態である間は継続され、通話が終了すると、この同期も解除される。
続いて、図4及び図5を参照して、本実施形態の通信システム1を用いた情報検索方法ついて説明する。図4は、情報検索方法を説明するフローチャートである。また、図5は、情報検索方法に係る処理中の第1通信端末10A及び第2通信端末10Bでの画面表示例を示す図である。
まず、第1通信端末10A又は第2通信端末10Bから、相手側の通信端末に対して音声通信網N1を介して着呼を行うことで、第1通信端末10Aと第2通信端末10Bとの間で通話が開始される(S01)。このとき、第1通信端末10Aのユーザは、通話制御部20の発話口11に対して発声すると共に、受話口12から出力される第2通信端末10Bのユーザからの音声を聞くことで、第2通信端末10Bのユーザとの通話が行われる。そして、発話口11は、ユーザからの音声を音声データとして取得する(音声取得ステップ)。この時点では、情報検索を行わない通常状態での通話が行われる。ここで、発話口11において取得されたユーザの発声内容は、音声データとして音声認識部13へ送られる。また、この時点では、第1通信端末10A及び第2通信端末10Bの画像表示部17では、図5の画面A01及び画面B01に示すように通話中であることを示す画像又はテキストが表示される。
次に、第1通信端末10Aのユーザが、通話中の話題について情報検索を行うかどうかを判断する(S02)。ここで、情報検索が不要であると判断される場合には引き続き通常状態での通話が継続する。一方、情報検索が必要と判断される場合には、ユーザは第1通信端末10Aを振る(S03)。すると、加速度センサ14がこの振動を第1通信端末10Aの移動として検知し、移動方向及び加速度に係る情報がユーザ要求検知部15へ送られる。そして、ユーザ要求検知部15において、加速度センサ14からの情報に基づいて第1通信端末10Aの移動がユーザによる第1通信端末10Aの振動に由来するものであるか否かが判断される。ここで、ユーザによる第1通信端末10Aの振動に由来すると判断された場合には、その結果に基づいて抽出開始要求を検知した旨がユーザ要求検知部15から音声認識部13へ送られる(抽出開始要求検知ステップ)。これにより音声認識部13は音声認識を行うための準備段階となる。併せて、第1通信端末10Aの画像表示部17は、画面A02に示すように音声認識中であることを示す表示に遷移する。一方、第2通信端末10Bでは、画面B02で示すように、通話中である旨が継続して表示される。
次いで、第1通信端末10Aを振動させたユーザは、情報検索のためのキーワードを発話する(S04)。その後、再度ユーザは第1通信端末10Aを振動させる(S05)。すると、加速度センサ14がこの振動を第1通信端末10Aの移動として検知し、移動方向及び加速度に係る情報がユーザ要求検知部15へ送られる。そして、ユーザ要求検知部15において、加速度センサ14からの情報に基づいて第1通信端末10Aの移動がユーザによる第1通信端末10Aの振動に由来するものであるか否かが判断される。ここで、ユーザによる第1通信端末10Aの振動に由来すると判断された場合には、前回の第1通信端末10Aの振動からの時間を考慮して、当該振動が抽出終了要求であると判断し、抽出終了要求を検知した旨がユーザ要求検知部15から音声認識部13へ送られる(抽出終了要求検知ステップ)。
一方、ユーザが発話することで発話口11において取得された音声データは、発話口11から音声認識部13へ送られ、音声認識部13において音声認識が行われる(S06、音声認識ステップ)。ここでは、抽出開始要求を検知した時点から抽出終了要求を検知した時点までの間にユーザが発話した音声からキーワードが抽出される。この抽出されたキーワードは、音声認識部13からネットワーク制御部16へ送られる。そして、ネットワーク制御部16と情報検索ウェブサーバ31との間でネットワークN2を介して通信を行うことで、抽出されたキーワードに係る情報検索を行う(S07、情報検索ステップ)。そして、ネットワーク制御部16で得られた情報検索の結果は、ネットワーク制御部16から画像表示部17へ送られて、画像表示部17で表示を行うことで、第1通信端末10Aにおいてユーザに対して結果を出力する。また、情報検索の結果がネットワーク制御部16から画像圧縮部18へ送られて、画像圧縮部18において画像データへの変換が行われた後、ネットワーク制御部17から第2通信端末10Bに対してこの画像データを送信すると共に、第1通信端末10Aから第2通信端末10Bに対して画面の同期を指示することで、第1通信端末10Aと第2通信端末10Bとの間で画面表示部17の同期が開始される(S08、出力ステップ、同期ステップ)。すなわち、図5の画面A03及び画面B03に示すように、第1通信端末10Aの画像表示部17で表示される画像と第2通信端末10Bの画像表示部17で表示される画像とが共通となる。
その後は、第1通信端末10Aの画像表示部17における表示内容の変更に応じて、画像表示に対応する画像データが画像圧縮部18において生成され、これがネットワーク制御部16からネットワークN2を介して第2通信端末10Bへ送信され、これが第2通信端末10Bの画像展開部19により展開されることで、第2通信端末10Bの画像表示部17において表示される。このように、同期状態が継続される。したがって、図5の画面A04及び画面B04に示すように、第1通信端末10Aのユーザが第1通信端末10Aを操作することで、画面が遷移した場合には、第2通信端末10Bの画面も遷移する。
さらに、第1通信端末10Aのユーザは通話を継続しながら、キーワードの情報検索がさらに必要であるかを判断する(S10)、そして必要であると判断された場合には、ユーザにより第1通信端末10Aが振動され、上記S03〜S09までの処理が再び繰り返される。
また、キーワードを用いる情報検索が不要となった場合には、第1通信端末10Aのユーザによって、通話を終了するかの判断がなされる(S11)、ここで通話を継続する場合には、第1通信端末10Aは、引き続きユーザからの抽出開始指示があるまで待機状態となる。一方、ユーザが通話を終了すると判断した場合には、第1通信端末10Aと第2通信端末10Bとの間で音声通信のための接続が切断される(S12)。そしてこの音声通信のための接続が切断されたことを契機として、第1通信端末10Aと第2通信端末10Bとの間の画像表示部17の同期も切断され(S13)、図5の画面A05及び画面B05に示すように、第1通信端末10Aと第2通信端末10Bのそれぞれの待受画面へと画面は遷移する。以上により、第1通信端末10Aによる情報検索に係る一連の処理が終了する。
以上のように、第1通信端末10Aで取得された音声データからキーワードが抽出され、このキーワードを用いて情報検索が行われる。そして、この情報検索結果が第1通信端末10Aの画面に表示されると同時に、通話を行っている相手の相手側端末である第2通信端末10Bに対しても出力され、さらに、第1通信端末10Aと第2通信端末10Bとの間で画面の同期が行われる。そして、情報検索結果に基づいてユーザが自端末を操作し新たな情報を得た場合には、この情報についても第2通信端末10Bとの間で同期して表示される。
このように、上記の通信端末及びこの通信端末による情報検索方法によれば、第1通信端末10Aと第2通信端末10Bとの間で画面表示を同期して情報検索結果に応じた情報を共有することで、自端末のユーザと相手側端末のユーザとの間での情報検索結果に応じた情報の共有を容易に行うことができる。また、上記実施形態に係る通信端末では、従来のテレビ電話のようにカメラが撮像した画像データを送信して互いに同期して出力する場合と比較して、より簡便な操作によって、互いに共有できる情報量及び質が向上する。したがって、音声による通話に限られず情報検索の結果やそれに対応する情報を共有しながら遠方の相手ともコミュニケーションを取ることができ、質が高く緊密なコミュニケーションが実現される。
また、上記実施形態の通信端末では、ユーザが第1通信端末10Aを振動させると、これが加速度センサ14において検知され、ユーザ要求検知部15において抽出開始要求として検知されると、これを契機として音声認識部13においてユーザの音声データからキーワードが抽出され、このキーワードを用いてネットワーク制御部16が情報検索ウェブサーバ31との間で通信を行うことで情報検索が行われる。そして、この情報検索結果が、通話を行っている相手である相手側端末となる第2通信端末10Bに対しても出力される。このように、ユーザの操作による抽出開始要求に基づいて情報検索のためのキーワードの抽出が行われるため、検索不要な単語をキーワードとして抽出する可能性が低減され、通話状態での情報検索を高い精度で行うことができる。
また、上記実施形態に係る通信端末及び情報検索方法では、第1通信端末10Aのユーザが第1通信端末10Aを操作することにより送られる抽出開始要求の検知を契機として、音声認識部13において情報検索のためのキーワードが音声データから抽出される。したがって、ユーザの要求に基づいたキーワード抽出及びその検索を行うことができるため、より高い精度で情報検索を行うことができる。
また、本実施形態の第1通信端末10Aでは、ユーザは、例えば加速度センサが所定値以上の振動を検知するように第1通信端末10Aを振動させることにより、第1通信端末10Aに対して検索開始を指示することができるため、より簡便な操作で情報検索を行うことができる。
また、本実施形態の第1通信端末10Aでは、第2通信端末10Bにおいて情報検索がなされた結果に基づいて、相手側端末から送信される相手側情報を受信し、これを自端末において出力するための画像展開部19を備えていること。したがって、相手側端末である第2通信端末10Bから送信される相手側の情報検索結果を自端末で表示することができるため、情報検索結果の共有を双方向で行うことが可能となる。
また、上記実施形態に係る第1通信端末10Aでは、ユーザによる第1通信端末10Aの振動が2回行われた場合には、2回目の振動を抽出終了要求として検知する。そして、抽出開始要求と抽出終了要求との間に音声取得手段である発話口11において取得された音声データからキーワードが抽出される。したがって、キーワードとして抽出される可能性のある単語を明確に限定することができるため、より高い精度での情報検索が可能となる。
以上本発明の実施形態について説明したが、本発明に係る通信端末及び情報検索方法は上記実施形態に限定されず種々の変更が可能である。
例えば、上記実施形態では、加速度センサ14が検知する第1通信端末10Aの移動が、ユーザによる第1通信端末10Aの振動であるかをユーザ要求検知部15において判断し、ユーザによる第1通信端末10Aの振動である場合には抽出開始要求が検知されたと判断する態様に説明したが、抽出開始要求は、ユーザが第1通信端末10Aを振動させることとは他の行為によって行われてもよい。
具体的には、抽出開始要求を示す特定の言葉(例えば「サーチ」)を予め定めておき、ユーザが通話中に「サーチ、xxx」と発話した場合には、「サーチ」という言葉がユーザからの抽出開始要求であると判断し、この「サーチ」の言葉の後に出てくる「xxx」をキーワードとして情報検索を行うという態様にすることができる。
この場合、「サーチ」という言葉が、ユーザの音声に含まれるかを随時確認する必要がある。したがって、音声認識部13では、発話口11において取得された音声データを音声認識処理によりテキスト情報に変換する作業が継続して行われ、ユーザ情報検知部15では、このテキスト情報に変換された音声データに、特定の単語(「サーチ」)が含まれるかの検証が行われる。そして、特定の単語が含まれていた場合にはこれをユーザ情報検知部15から音声認識部13へ通知し、この特定の単語の後に出てくる単語をキーワードとして抽出する処理が行われる。その後の処理は、上記実施形態と同様である。また、抽出終了要求として、上記の特定の単語とは異なる単語を指定し、同様の処理を行う態様とすることもできる。
上記の態様のように、通話中に、第1通信端末10Aのユーザは、検索開始のための特定の単語を話すことにより、通信端末に対して検索開始を指示する構成とすることで、ユーザはより簡便な操作で情報検索を行うことができる。
また、上記実施形態では、検索結果を画像データとして相手側端末へ出力する態様について説明したが、検索結果の出力形式は画像データに限られず、他の形式(例えば動画データやテキストデータ等)により出力する態様としてもよい。
また、上記実施形態では、発話口11により取得された第1通信端末10Aのユーザの音声データからキーワードを抽出する構成について説明したが、第2通信端末10Bから送信されて受話口12により取得される音声データからキーワードを取得する態様としてもよい。具体的には、例えば、第1通信端末10Aのユーザが第1通信端末10Aを振動させることで抽出開始要求を第1通信端末10Aに検知させた後、第2通信端末10Bのユーザがキーワードとして抽出すべき単語を発声することで、第2通信端末10Bから送信されて第1通信端末10Aで取得される音声データを第1通信端末10Aで取得し、この第2通信端末10Bから送信された音声データの冒頭の単語(第1通信端末10Aの振動の後で最初に出てくる単語)をキーワードとして抽出する構成とすることもできる。
また、上記実施形態では、情報検索結果を第1通信端末10Aから第2通信端末10Bに対して送信すると同時に画面の同期指示を第2通信端末10Bに対して送信することで、画面を同期し、その後は第1通信端末10Aの操作に基づいて第2通信端末10Bの画面が遷移する構成について説明した。しかしながら、第1通信端末10Aと第2通信端末10Bとの画面がどちらの端末の操作に基づいて遷移するかは変更することができる。具体的には、情報検索結果と共に画面の同期指示を第1通信端末10Aから第2通信端末10Bに対して送信した後、第2通信端末10Bの操作に基づいて、第1通信端末10Aの画面が第2通信端末10Bの画面に同期して遷移する構成としてもよい。また、同期を開始する際に、画面の操作を行う通信端末をユーザが指定するステップを設け、ユーザの指示によってどちらの通信端末が画面の操作を制御するかを決定する態様としてもよい。
また、上記実施形態では、第1通信端末10Aのユーザが第1通信端末10Aを振動させることや、特定の単語を発することにより、キーワード抽出の開始を指示する構成について説明したが、第1通信端末10Aがユーザの指示を受けることなくキーワード抽出を開始する構成としてもよい。
1…通信システム、10A,10B…通信端末、11…発話口(音声取得手段)、12…受話口、13…音声認識部(音声認識手段)、14…ユーザ要求検知部(ユーザ要求検知手段)、15…加速度センサ、16…ネットワーク制御部(情報検索手段、出力手段)、17…画像表示部、18…画像圧縮部(出力手段)、19…画像展開部(相手側情報出力手段)、31…情報検索ウェブサーバ、32…ウェブサーバ。

Claims (7)

  1. 通話相手の通信端末である相手側端末との間で音声データを送受信可能である共に、当該音声データに含まれるキーワードを用いて情報検索が可能な通信端末であって、
    当該通信端末のユーザの音声又は前記相手側端末からの音声を音声データとして取得する音声取得手段と、
    前記音声認識手段により抽出された前記キーワードを用いて情報検索を行うと共にこの検索により得られる検索結果を画面に対して表示することで自端末に対して出力する情報検索手段と、
    前記検索結果を前記画面に対して表示した前記検索結果を前記相手側端末に対して出力する出力手段と、
    前記出力手段による前記相手側端末への出力を契機として、自端末の前記画面と前記相手側端末の画面とを同期させる同期手段と、
    を備えることを特徴とする通信端末。
  2. 前記通信端末に対する前記ユーザの操作による抽出開始要求を検知するユーザ要求検知手段をさらに備え、
    前記音声認識手段が、前記ユーザ要求検知手段による前記抽出開始要求の検知を契機として、前記音声取得手段により取得された前記音声データからキーワードを抽出することを特徴とする請求項1記載の通信端末。
  3. 前記相手側端末において情報検索がなされた結果に基づいて、当該相手側端末から送信される相手側情報を受信し、これを自端末において出力する相手側情報出力手段をさらに備えることを特徴とする請求項1又は2記載の通信端末。
  4. 前記通信端末の移動を検知する加速度センサをさらに備え、
    前記ユーザ要求検知手段が、前記加速度センサにより検知される移動がユーザにより通信端末に振動を与えた際に発生する振動であると判断した場合に、これを前記抽出開始要求として検知する
    ことを特徴とする請求項1〜3のいずれか一項に記載の通信端末。
  5. 前記ユーザ要求検知手段は、前記音声取得手段により取得された前記ユーザの音声データに特定の単語が含まれているかを判断し、前記音声データに特定の単語が含まれている場合に、これを前記抽出開始要求として検知する
    ことを特徴とする請求項1〜3のいずれか一項に記載の通信端末。
  6. 前記ユーザ要求検知手段は、前記通信端末に対する前記ユーザの操作による抽出終了要求をさらに検知し、
    前記音声認識手段は、前記ユーザ要求検知手段により前記抽出開始要求を検知した時点から前記抽出終了要求を検知した時点までの間に、前記音声取得手段により取得された前記ユーザの音声データから前記キーワードを抽出する
    ことを特徴とする請求項1〜5のいずれか一項に記載の通信端末。
  7. 通話相手の通信端末である相手側端末との間で音声データを送受信可能である共に、当該音声データに含まれるキーワードを用いて情報検索が可能な通信端末による情報検索方法であって、
    当該通信端末のユーザの音声又は前記相手側端末からの音声を音声データとして取得する音声取得ステップと、
    前記音声取得ステップにおいて取得された前記音声データからキーワードを抽出する音声認識ステップと、
    前記音声認識ステップにおいて抽出された前記キーワードを用いて情報検索を行うと共にこの検索により得られる検索結果を画面に対して表示することで自端末に対して出力する情報検索ステップと、
    前記検索結果を前記画面に対して表示した前記検索結果を前記相手側端末に対して出力する出力ステップと、
    前記出力ステップにおける前記相手側端末への出力を契機として、自端末の前記画面と前記相手側端末の画面とを同期させる同期ステップと、
    を含むことを特徴とする情報検索方法。
JP2010068677A 2010-03-24 2010-03-24 通信端末及び情報検索方法 Pending JP2011205238A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010068677A JP2011205238A (ja) 2010-03-24 2010-03-24 通信端末及び情報検索方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010068677A JP2011205238A (ja) 2010-03-24 2010-03-24 通信端末及び情報検索方法

Publications (1)

Publication Number Publication Date
JP2011205238A true JP2011205238A (ja) 2011-10-13

Family

ID=44881448

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010068677A Pending JP2011205238A (ja) 2010-03-24 2010-03-24 通信端末及び情報検索方法

Country Status (1)

Country Link
JP (1) JP2011205238A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140090114A (ko) 2013-01-07 2014-07-16 삼성전자주식회사 키워드 검색 방법 및 장치
KR20140093308A (ko) * 2013-01-09 2014-07-28 엘지전자 주식회사 이동 단말기 및 이동 단말기 제어방법
US9258406B2 (en) 2012-12-17 2016-02-09 Electronics And Telecommunications Research Institute Apparatus and method for controlling mobile device by conversation recognition, and apparatus for providing information by conversation recognition during meeting
JP2018525751A (ja) * 2015-09-28 2018-09-06 百度在線網絡技術(北京)有限公司 音声及びビデオ通話のためのインタラクティブ制御方法及び装置
WO2020050554A1 (ko) * 2018-09-06 2020-03-12 삼성전자주식회사 전자 장치 및 그의 제어방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11252283A (ja) * 1998-03-06 1999-09-17 Canon Inc 携帯情報端末、携帯情報端末の制御方法および記憶媒体
JP2000312255A (ja) * 1999-04-27 2000-11-07 Sharp Corp 通話装置
JP2003032388A (ja) * 2001-07-12 2003-01-31 Denso Corp 通信端末装置及び処理システム
JP2005167651A (ja) * 2003-12-03 2005-06-23 Nec Corp 携帯端末装置および携帯端末制御方法
JP2007281618A (ja) * 2006-04-03 2007-10-25 Sony Corp 情報処理装置、情報処理方法、およびプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11252283A (ja) * 1998-03-06 1999-09-17 Canon Inc 携帯情報端末、携帯情報端末の制御方法および記憶媒体
JP2000312255A (ja) * 1999-04-27 2000-11-07 Sharp Corp 通話装置
JP2003032388A (ja) * 2001-07-12 2003-01-31 Denso Corp 通信端末装置及び処理システム
JP2005167651A (ja) * 2003-12-03 2005-06-23 Nec Corp 携帯端末装置および携帯端末制御方法
JP2007281618A (ja) * 2006-04-03 2007-10-25 Sony Corp 情報処理装置、情報処理方法、およびプログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9258406B2 (en) 2012-12-17 2016-02-09 Electronics And Telecommunications Research Institute Apparatus and method for controlling mobile device by conversation recognition, and apparatus for providing information by conversation recognition during meeting
KR20140090114A (ko) 2013-01-07 2014-07-16 삼성전자주식회사 키워드 검색 방법 및 장치
KR20140093308A (ko) * 2013-01-09 2014-07-28 엘지전자 주식회사 이동 단말기 및 이동 단말기 제어방법
KR101997448B1 (ko) * 2013-01-09 2019-07-08 엘지전자 주식회사 이동 단말기 및 이동 단말기 제어방법
JP2018525751A (ja) * 2015-09-28 2018-09-06 百度在線網絡技術(北京)有限公司 音声及びビデオ通話のためのインタラクティブ制御方法及び装置
WO2020050554A1 (ko) * 2018-09-06 2020-03-12 삼성전자주식회사 전자 장치 및 그의 제어방법

Similar Documents

Publication Publication Date Title
US8649776B2 (en) Systems and methods to provide personal information assistance
EP3920180A2 (en) Handling calls on a shared speech-enabled device
JP5466420B2 (ja) 感情認識メッセージシステム、移動通信端末及びメッセージ蓄積サーバ
US7653183B2 (en) Method and apparatus to provide data to an interactive voice response (IVR) system
KR100430953B1 (ko) 네트워크 협동 대화 서비스를 제공하기 위한 시스템 및 방법
US20130332168A1 (en) Voice activated search and control for applications
WO2015066949A1 (zh) 人机交互系统、方法及其装置
KR20140117349A (ko) 스토리지 시스템들에서 컨텐트의 삭제
WO2009114035A1 (en) Mobile electronic device with active speech recognition
JP5283947B2 (ja) 携帯端末の音声認識装置、音声認識方法、音声認識プログラム
JP2011205238A (ja) 通信端末及び情報検索方法
WO2011074180A1 (ja) 音声入力システムおよび音声入力プログラム
KR101052343B1 (ko) 통화 중 음성 인식에 의한 정보 제공이 가능한 이동 단말 및 그 이동 단말에서의 정보 제공 방법
KR101599165B1 (ko) 무선 기기들을 연결하는 방법 및 시스템
US20080045256A1 (en) Eyes-free push-to-talk communication
KR20070031117A (ko) 데이터 검색기능이 구비된 이동통신 단말기 및 그 동작방법
US20190304457A1 (en) Interaction device and program
JP5059080B2 (ja) 音声情報検索システム及び音声情報検索方法
JP2006222856A (ja) 音声通信システム
JP7141226B2 (ja) 音声入力装置、及び遠隔対話システム
JP2015115926A (ja) 携帯端末装置、読唇通信方法、及びプログラム
JP7139839B2 (ja) 情報処理装置、情報処理方法およびプログラム
JPWO2018168460A1 (ja) 管理サーバ
JP7349533B2 (ja) 情報処理システム、及び情報処理方法
JP5067435B2 (ja) 会話管理システムおよび管理サーバ

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120328

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120612

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121204