JP2010527467A - 電話による要求への位置を基にした応答 - Google Patents

電話による要求への位置を基にした応答 Download PDF

Info

Publication number
JP2010527467A
JP2010527467A JP2010502253A JP2010502253A JP2010527467A JP 2010527467 A JP2010527467 A JP 2010527467A JP 2010502253 A JP2010502253 A JP 2010502253A JP 2010502253 A JP2010502253 A JP 2010502253A JP 2010527467 A JP2010527467 A JP 2010527467A
Authority
JP
Japan
Prior art keywords
spoken language
application
symbolic representation
language request
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010502253A
Other languages
English (en)
Inventor
ガドムンドゥル・ハフシュテインソン
マイケル・ジェイ・レビュー
ナタリア・マーマッセ
サミット・アガウォル
ディプチャンド・ニシャー
Original Assignee
グーグル・インコーポレーテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by グーグル・インコーポレーテッド filed Critical グーグル・インコーポレーテッド
Publication of JP2010527467A publication Critical patent/JP2010527467A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/12Messaging; Mailboxes; Announcements
    • H04W4/14Short messaging services, e.g. short message services [SMS] or unstructured supplementary service data [USSD]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/221Announcement of recognition results
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/40Electronic components, circuits, software, systems or apparatus used in telephone systems using speech recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2242/00Special services or facilities
    • H04M2242/15Information service where the information is dependent on the location of the subscriber

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Transfer Between Computers (AREA)
  • Telephonic Communication Services (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Telephone Function (AREA)

Abstract

処理された情報を遠隔機器において受信する方法が開示される。前記方法は、前記遠隔機器から音声言語の要求を第1情報プロバイダに送信するステップと、前記送信された音声言語の要求に応答して、デジタルメッセージを前記第1情報プロバイダから受信するステップと、を含む。前記デジタルメッセージは、前記音声言語の要求の記号表現と対応付けされた記号表現指示子およびアプリケーションを制御するために使用されるデータを含む。また、前記方法は、前記アプリケーションを使用して、前記遠隔機器に表示される結果を生成するために前記記号表現指示子を第2情報プロバイダに送信するステップを含む。

Description

情報検索、より詳しくは、音声言語の要求に基づく情報検索に関する実施形態が開示される。
本願は、2007年4月2日に出願された米国特許出願第11/695,333号明細書の優先権を主張し、その内容は全体を引用してここに組み込む。
コンピュータおよびコンピュータネットワークはますます幅広く様々な情報にアクセスできるようになっているので、人々はその情報を取得する、より多くの方法を望んでいる。特に、人々は、現在、道路で、家で、または、オフィスで、適切に準備されたネットワークに結合され、永続的に接続されたパーソナルコンピュータからのみ前もって入手可能な情報へのアクセスを有することを期待している。彼らは、彼らの携帯電話からの図式的な位置の地図、彼らのパーソナル・デジタル・アシスタント(PDA)からのカレンダーへのアクセス、彼らの電子メール機器からの最新のコンタクト情報、および、彼らの全ての機器からのタイムリーで正確な検索結果を望んでいる。また、彼らは、地域で、国内で、または、国際的に、移動するとき、使い易い可搬的な機器で、この全ての情報を望んでいる。
いくつかのシステムは、携帯電話からユーザが発信するとき、ユーザに情報を提供する。例えば、特定の商店の住所に興味があるユーザは、住所録サービスを呼び出すことができ、ここで、顧客サービス代行者がユーザに商店の住所を提供することができる。しかし、この情報は、図式的な形態で、例えば、地図として、提供することができない。さらに、顧客サービス代行者は、その位置への方向および他の類似の近隣の商店のような他の有効な情報を提供することができない。また、顧客サービス代行者がユーザのコールを受けるために手が空くまで、ユーザは待たなければならない。
他のシステムにおいて、ユーザは、携帯機器のキーパッドを使用して要求を入力することによって、商店の位置の地図のような情報の要求を入力することが可能である。しかし、可搬性は、一般に、サイズが小さい機器を要求し、そのため、データ入力キーの数、メモリの量、利用可能な処理能力を制限する。さらに、極端に可搬的な機器は、多くの場合、一方の手で握っていなければならず、または、全く握っていることができず、そのため、データ入力は一方の手で、または、手を用いずに行わなければならない。これは、図式的な地図のようなリッチコンテンツを取得するための情報入力を困難にしうる。
音声言語の要求に基づく情報検索に関する実施形態が開示される。
第1の態様において、処理された情報を遠隔機器において受信する方法が開示される。前記方法は、前記遠隔機器から音声言語の要求を第1情報プロバイダに送信するステップと、前記送信された音声言語の要求に応答して、デジタルメッセージを前記第1情報プロバイダから受信するステップと、を含む。前記デジタルメッセージは、前記音声言語の要求の記号表現と対応付けされた記号表現指示子およびアプリケーションを制御するために使用されるデータを含む。また、前記方法は、前記アプリケーションを使用して、前記遠隔機器に表示される結果を生成するために前記記号表現指示子を第2情報プロバイダに送信するステップを含む。
第2の態様において、位置を基にした情報をユーザに提供する方法が開示される。前記方法は、携帯機器から位置情報についての音声言語の要求を受信し、前記音声言語の要求を記号表現に変換するステップを有する。また、前記方法は、前記記号表現、および、前記携帯機器においてアプリケーションを制御するために使用される指示子を含むメッセージを生成するステップを有する。さらに、前記方法は、前記メッセージを前記携帯機器に送信して、前記アプリケーションに、前記記号表現と対応付けされた1つまたは複数の位置を表示するために前記記号表現を使用させるステップを含む。
もう1つの態様において、位置を基にした情報を受信する方法が開示される。前記方法は、携帯機器から位置情報についての音声言語の要求を第1情報プロバイダに送信するステップと、前記音声言語の要求の記号表現、および、前記携帯機器においてアプリケーションを制御するために使用される識別子を含むショートメッセージサービスのメッセージを前記第1情報プロバイダから受信するステップと、を含む。また、前記方法は、前記携帯機器において前記アプリケーションを使用して、位置情報についての音声言語の要求の記号表現を含むデータ要求を第2情報プロバイダに送信するステップと、前記データ要求に応答して、前記第2情報プロバイダによって送信された位置情報を使用して、前記記号表現と対応付けされた1つまたは複数の位置を前記携帯機器において表示するステップと、を含む。
さらにもう1つの態様において、処理されたデータを遠隔機器に提供する方法が開示される。前記方法は、前記遠隔機器から音声言語の要求を受信するステップと、前記音声言語の要求についてのデータ応答を生成するステップと、を含む。前記データ応答は、前記遠隔機器においてアプリケーションを制御するためのデータ、および、前記音声言語の要求の変換を含み、前記変換された音声言語の要求は前記アプリケーションによってアクセス可能である。また、前記方法は、前記データ応答を前記遠隔機器に送信して、前記遠隔機器に前記アプリケーションを制御させ、かつ、前記変換された音声言語の要求の少なくとも一部を処理させ、かつ、前記処理から生成された結果を表示させるステップを含む。
もう1つの態様において、位置を基にした情報を複数のユーザに提供するシステムが開示される。前記システムは、複数の遠隔機器から音声伝送ラインを通して音声言語の要求を受信するインタフェースと、前記音声言語の要求を前記音声言語の要求の記号表現に変換する変換モジュールと、前記遠隔機器にデジタルメッセージを出力する手段と、を含む。各メッセージは、遠隔機器においてアプリケーションを制御するために使用される識別子、および、前記記号表現を処理するために前記アプリケーションによって使用される記号表現指示子を含む。
ここで説明するシステムおよび技術は、次の効果のうち1つまたは複数を提供することが可能である。第1に、システムは、遠隔機器におけるアプリケーションに、追加の情報を導き出すために使用される根源の情報を渡すことによって、遠隔機器にアクセス可能な情報の量および種類を増加させることが可能である。第2に、システムは、携帯機器におけるテキスト入力の不便さを減少させる。第3に、システムは、携帯機器からサーバへ音声認識機能を移動させることによって向上した効率性および正確さを提供する。第4に、システムは、携帯機器にリッチコンテンツを提供するために、制限されたサイズの伝送プロトコルの使用を可能とするので、効率性を向上させる。
添付図面および以下の説明において本発明の1つまたは複数の実施形態の詳細を説明する。本発明の他の特徴、目的、および、効果は、その説明、図面、および、請求項から明らかになる。
音声言語の要求を処理して遠隔機器において情報を提示するためのシステムの一例を表わす図である。 図1のシステム100の自動化された実施形態を表わすシステム200の図である。 図1のシステムの部分的に手動の実施形態を表わすシステム300の図である。 住所録サービスプロバイダ、携帯電話、および、検索エンジンの間の相互作用の一例を表わすシーケンス図である。 音声言語の要求から導き出された情報を携帯機器において表示する方法の一例を表わすフローチャートである。 図1から図5に記載されたシステムおよび方法において使用されうる一般的なコンピュータシステムおよび一般的な携帯機器の一例を表わすブロック図である。
各々の図において同様の参照符号は同様の構成要素を示す。
システム100は、携帯電話からの音声電話呼のような、遠隔機器からの音声言語の要求102を、テキストのような記号表現に変換することができ、この記号表現は、情報の問い合わせ、例えば、検索クエリーを開始するために、遠隔機器上のアプリケーションによって使用することができる。
図1は、音声言語の要求102を処理して遠隔機器104において情報を提示するためのシステム100の一例を表わす図である。システム100は、第1情報プロバイダ106および第2情報プロバイダ108を含む。ある実施形態において、第1情報プロバイダ106は、“411”サービスのような電話番号案内サービスであり、音声言語の要求102は電話番号案内サービスへの呼である。これらの、または、他の実施形態において、第2情報プロバイダは、検索クエリーを処理し、そのクエリーに基づく検索結果を返送する検索エンジンでありうる。
遠隔機器104(例えば、携帯電話、PDA、または、電子メール機器)は、音声言語の要求102を第1情報プロバイダ106に送信する。音声言語の要求102は、例えば、特定の場所における特定の種類のレストランのリストの要求(例えば、“ピザ、パロアルト”)を含みうる。
第1情報プロバイダ106は音声言語の要求102を受信し、音声言語の要求102を記号表現に変換する。例えば、第1情報プロバイダ106は、音声言語の要求102について音声からテキストへの操作を実行し、これは音声言語の要求をASCII(“American Standard Code for Information Interchange(情報交換用米国標準コード)”)テキストに変換する。他の例において、第1情報プロバイダ106は、音声言語の要求を、2進数または16進数のような他の記号表現に変換することができ、この記号表現は以下で説明するクエリー114内で遠隔機器104が使用することができる。
他の実施形態において、第1情報プロバイダ106は音声言語の要求をASCII以外の文字セットに変換することができる。例えば、国際的な状況において、音声言語の要求は、ISO−8858−1またはUTF−8(8-bit Unicode Transformation Format(8ビット・ユニコード変換フォーマット))に変換することができる。
第1情報プロバイダ106は、記号表現が何であるか、または、記号表現がどこから取得されるかを指示する記号表現指示子110を遠隔機器104に送信する。例えば、記号表現指示子は変換された記号表現と同じであり、または、記号表現指示子は変換された記号表現のポインタまたはアドレス位置(例えば、ユニフォーム・リソース・ロケータ)とすることができる。
さらに、第1情報プロバイダ106は、アプリケーション指示子112を遠隔機器104に送信する。遠隔機器104は、アプリケーション識別子を使用してマッピングおよび方向アプリケーションのようなアプリケーションを起動する。遠隔機器104は、アプリケーションを使用して記号表現指示子を第2情報プロバイダ108に送信する。例えば、遠隔機器104は、記号表現指示子110を含み、ピザを提供するパロアルト地域のレストランの地図を要求するクエリー114を第2情報プロバイダ108に送信することが可能である。
第2情報プロバイダ108はクエリー114を処理し、クエリー114の処理の結果116を遠隔機器104に送信する。例えば、第2情報プロバイダ108は、ピザを提供するパロアルトのレストランを強調表示した地図を遠隔機器104に送信することが可能である。遠隔機器104は結果116を受信し、レストランの地図のような表示された結果118をユーザに提示する。
上記の例を組み合わせて、携帯電話104は、矢印Aで表わされているように、“ピザ、パロアルト”の“411”要求を送信することができる。この要求は電話番号案内プロバイダ106によって受信され、電話番号案内プロバイダ106は音声言語の要求をテキスト110に変換し、矢印Bで表わされているように、テキスト110を、遠隔機器104においてマッピングプログラムを起動するために使用される2進数メッセージとともに送信する。遠隔機器104はこの2進数メッセージを受信し、この2進数メッセージを実行することによってマッピングプログラムを起動し、矢印Cによって表わされているように、マッピングプログラムを使用してクエリー“ピザ、パロアルト”114をマッピングサーバ108に送信する。マッピングサーバ108はこのクエリーを処理し、矢印Dで表わされているように、カリフォルニア州パロアルト内のピザレストランを強調表示する地図を含む結果116を返送する。そして、遠隔機器はこの地図をユーザに表示する。
図2は、図1のシステム100の自動化された実施形態を表わすシステム200の図である。遠隔機器104、第1情報プロバイダ106、第2情報プロバイダ108は、ローカルエリアネットワーク、広域ネットワーク、インターネット、電話網、または、ネットワークの組み合わせのような、ネットワーク202を介して通信する。
第1情報プロバイダ106はインタフェース204を介して音声言語の要求102を受信する。ある実施形態において、遠隔機器104は音声言語の要求102として録音されたメッセージを送信する。例えば、ユーザは第1情報プロバイダへの接続の前に、要求を録音することが可能である。他の実施形態において、第1情報プロバイダ106との接続が確立された後に、音声言語の要求が作成される。
第1情報プロバイダ106は、音声言語の要求102をテキストに変換する音声−テキスト変換部206を含む。アプリケーション選択部208は、例えば、変換された音声言語の要求の内容に基づいて、遠隔機器104において起動されるアプリケーションを選択する。例えば、アプリケーション選択部208は、ユーザがパロアルト内の位置の地図を要求している地名“パロアルト”から決定することが可能である。アプリケーション選択部208は、選択されたアプリケーションに基づいてアプリケーション識別子112を生成する。アプリケーション識別子112は、遠隔機器104において受信されると、遠隔機器104に、選択されたアプリケーションを起動するように命令する。
他の実施形態において、アプリケーション識別子112は全ての音声言語の要求が単一のアプリケーションに関係するように予め決定されるので、アプリケーション選択部は任意選択である。例えば、第1サービスプロバイダに行われる全ての要求は、位置をマッピングするためでありうるので、アプリケーション識別子112は常にマッピングアプリケーションを起動する2進数コードとすることが可能である。
メッセージ生成部210は、変換された音声言語の要求を使用して、遠隔機器に送信するためのデジタルメッセージ212を生成する。ある実施形態において、デジタルメッセージ212は、アプリケーション識別子112および記号表現指示子を含む。第1情報プロバイダ106は、デジタルメッセージ212を遠隔機器104に送信する。ある実施形態において、メッセージ生成部210は、ショートメッセージサービス(SMS)フォーマット部214を使用して、SMSメッセージとしてデジタルメッセージ212をフォーマットする。アプリケーション識別子112および/または記号表現指示子110は、2進数の値、または、情報交換用米国標準コード(ASCII)の値を含むことが可能である。
ある実施形態において、第1情報プロバイダ106は、音声言語の要求102の記号表現を使用して検索を実行することが可能な検索エンジン216を含む。検索エンジン216は、検索結果をメッセージ生成部210に出力する。メッセージ生成部210は、デジタルメッセージ212内に音声言語の要求についての部分的な結果218を含む。例えば、部分的な結果218は、音声言語の要求“ピザ、パロアルト”についての最上位の結果として返送されたピザ店の住所をSMSメッセージ内に含むことが可能である。もう1つの実施形態において、部分的な結果218は、上位3、5、または、10件の結果のリストを含む。ユーザは、第2情報プロバイダ108へのクエリー114内で使用される部分的な結果218からの選択、例えば、パロアルト内の全てのピザレストランの代わりに地図上に強調表示するパロアルト内の特定のピザレストランの選択を行うことが可能である。
遠隔機器104はアプリケーション識別子112を使用してアプリケーション220を起動する。ある実施形態において、アプリケーション220はカレンダーアプリケーションであり、音声言語の要求102はカレンダー内のイベント情報を管理する要求である。他の実施形態において、アプリケーション220はマッピングアプリケーションであり、音声言語の要求102は地図上に1つまたは複数の位置を表示する要求である。位置は、例えば、キーワード(例えば、ピザ)および/または住所(例えば、パロアルト)によって識別することが可能である。さらに他の実施形態において、アプリケーション220はコンタクトアプリケーションであり、音声言語の要求102はコンタクト情報を管理する要求である。他の実施形態において、アプリケーション220は検索結果のユーザインタフェース(例えば、インターネット検索ページにアクセスするウェブブラウザ)であり、音声言語の要求102は検索クエリーである。
起動の後、アプリケーション220はクエリー114内に含めるために記号表現をフォーマットする。遠隔機器104は、記号表現指示子110を含むクエリー114を第2情報プロバイダ108に送信する。
第2情報プロバイダ108はクエリー114内で受信された音声言語の要求102の記号表現を処理する記号表現処理部222を含む。記号表現処理部222は、ピザレストランの検索のような、クエリー114を使用した検索を実行する検索エンジン224を含む。
ある実施形態において、第1情報プロバイダ106は、記憶場所228内に音声言語の要求102の記号表現226を配置し、記号表現指示子110は、ユニフォーム・リソース・ロケータ(URI)等を用いて記号表現226の位置を指示する。例えば、音声言語の要求の記号表現226がSMSメッセージ内に含めるには大きすぎる場合、記号表現226は記憶場所228内に配置することが可能である。第2情報プロバイダ108は記号表現指示子110を使用して記号表現226を取得し、記号表現226を使用してクエリー114を処理する。
遠隔機器104は第2情報プロバイダ108から結果116を受信し、表示された結果118をユーザに提示する。ある実施形態において、地図の位置を含む結果は、その位置への方向を含むことも可能である。方向を計算するために、遠隔機器104のユーザによって開始位置が入力され、または、開始位置は遠隔機器104のグローバル・ポジショニング構成要素によって供給されることが可能である。さらに、表示された地図を、地図におけるズームインまたはズームアウト等によって、その地図をより詳細に、または、あまり詳細でなく表示させる入力をユーザが入力することが可能である。
図3は、図1のシステムの部分的に手動の実施形態を表わすシステム300の図である。この例において、第1情報プロバイダ104における人302は音声言語の要求102を受信する。ここで、インタフェース204は電話インタフェースを含む。人302は音声言語の要求102を変換し、キーボード、ポインティングデバイス、または、タッチスクリーンのような入力機器306を使用して、記号表現指示子110をコンピュータ機器304に入力する。この例において、人302は音声−テキスト変換部206の動作を実行する。さらに、人302は、それぞれ、アプリケーション選択部208および検索エンジン216の動作を実行する、アプリケーション識別子112および/または音声言語の要求102についての部分的な結果218を入力することができる。
図4は、住所録サービスプロバイダ402、携帯電話404、および、検索エンジン406の間の相互作用の一例を表わすシーケンス図である。携帯電話404は、“ピザ、パロアルト”のような音声言語の要求408を住所録サービスプロバイダに送信する。
住所録サービスプロバイダ402は音声言語の要求408を受信し、音声−テキスト変換部を使用して音声言語の要求408を記号表現に変換する。ある実施形態において、住所録サービスプロバイダ402は確認の要求410を携帯電話404に送信する。確認の要求410は“あなたは‘ピザ、パロアルト’と言いましたか?”のような、記号表現に基づいてコンピュータ生成された音声を含むことが可能である。他の実施形態において、住所録サービスプロバイダ402は記号表現を含むテキストの問い合わせを含む確認の要求410を送信することが可能である。例えば、確認の要求410はテキスト“あなたは‘ピザ、パロアルト’と言いましたか?”を含むSMSメッセージとすることが可能である。携帯電話404は“はい、言いました。”のような確認の応答412をユーザから住所録サービスプロバイダ402に送信する。確認の応答412は、音声言語、または、“はい”を示すキーパッド上のキー‘1’の押下および“いいえ”を示すキー‘2’の押下のような記号とすることが可能である。
他の実施形態において、ユーザは、音声言語で要求を繰り返すことによって、または、キーパッドを使用してテキストを打ち込むことによって、または、音声言語の要求の、可能性がある変換のリストから選択することによって、音声言語の要求の変換を訂正することが可能である。
住所録サービスプロバイダ402は2進数のSMSメッセージ414を生成し、そのメッセージ414を携帯電話404に送信する。このメッセージ414は、“ピザ、パロアルト”のようなテキスト、および、携帯電話404にインストールされたインターネットブラウザまたはカスタムアプリケーション(例えば、カリフォルニア州マウンテンビューのグーグル(登録商標)によって開発されたGoogle Maps for Mobile)の機能を起動または実行するために使用される2進数コードのようなアプリケーション識別子を含む。
携帯電話404はメッセージ414を受信し、含まれるアプリケーション識別子に基づいて地図ユーザインタフェース(UI)を有するブラウザ416(またはカスタムアプリケーション)を起動する。地図ユーザインタフェースを有するブラウザ416は、“ピザ、パロアルト”のような記号表現を含むデータ要求418を検索エンジンに送信する。
検索エンジン406はデータ要求418内の(または上述した記憶場所228からの)記号表現を使用して位置検索結果420を生成する。例えば、検索エンジン406は、“ピザ”がピザレストランについての要求を示し、“パロアルト”が、さらに、パロアルト地域内のピザレストランの位置についての要求を示すことを判定することが可能である。検索エンジン406は検索結果422を携帯電話404に送信する。携帯電話404は結果422を受信し、地図ユーザインタフェースを使用して位置424を表示する。
図5は、音声言語の要求から導き出された情報を携帯機器において表示する方法の一例を表わすフローチャートである。処理500は、例えば、システム100、200、および、400のようなシステムによって実行することが可能である。記載を明確にするため、続く記載は、処理500を記載するための一例の基礎としてシステム100、200、および、400を使用する。しかし、処理500を実行するために、他のシステム、または、システムの組み合わせを使用することが可能である。
処理500は、音声言語の要求を第1情報プロバイダに送信すること(502)から開始する。例えば、遠隔機器104は、“ピザ、パロアルト”を含む音声言語の要求102を、ネットワーク202を介して、第1情報プロバイダ106に送信する。
任意選択で、第1情報プロバイダから確認の要求が受信される(504)。確認の要求は、音声−テキストのような、音声言語の要求の記号表現への変換が正確であることを確認することを要求する。例えば、携帯電話404は、住所録サービスプロバイダ402から、確認の要求410“あなたは‘ピザ、パロアルト’と言いましたか?”を受信する。
任意選択で、音声言語から記号への変換の確認が送信される(506)。例えば、ユーザは“はい、言いました。”と返事し、これは携帯電話404によって住所録サービスプロバイダ402に送信される。
アプリケーション識別子および記号表現指示子が受信される(508)。例えば、遠隔機器104は、アプリケーション識別子112および記号表現指示子110を含むデジタルメッセージ212を受信する。
アプリケーション識別子によって指定されたアプリケーションが起動される(510)。例えば、遠隔機器104は、アプリケーション識別子112によって指定されたアプリケーション220を起動する。
音声言語の要求に応答して部分的な結果が受信されると(512)、その結果が表示される(514)。ユーザがより多くの結果を要求した(516)、または、部分的な結果が受信されなかったならば、処理500は記号表現指示子を第2情報プロバイダに送信する(518)。
例えば、遠隔機器104は、音声言語の要求と対応付けされた位置の住所を含む部分的な結果218を提示し、より多くの結果を要求するユーザ入力を受信することが可能である。ユーザがより多くの結果を要求した、または、部分的な結果が送信されなかったならば、遠隔機器104は、“ピザ、パロアルト”を含む記号表現指示子110を、位置のクエリーに応答してマッピングされた位置を返送する検索エンジンに送信する。
第2情報プロバイダから処理された結果が受信される(520)。例えば、遠隔機器104は、強調表示されたパロアルト内のピザレストランの位置を有する地図を含む結果116を第2情報プロバイダ108から受信する。
図6は、この書類において、クライアントとして、サーバとして、または、複数のサーバとして記載されたシステムおよび方法を実現するために使用されうるコンピュータ機器600、650のブロック図である。コンピュータ機器600は、ラップトップ、デスクトップ、ワークステーション、PDA、サーバ、ブレードサーバ、メインフレーム、および他の適切なコンピュータのような、各種形態のデジタルコンピュータを表現することを意図している。コンピュータ機器650は、PDA、携帯電話、スマートフォン、および、他の類似のコンピュータ機器のような各種形態の携帯機器を表現することを意図している。ここに表わされている構成要素、それらの接続および関係、および、それらの機能は、単に例であることを意味し、この書類に記載され、かつ/または、特許請求された発明の実施形態に限定することを意味しない。
コンピュータ機器600は、プロセッサ602、メモリ604、記憶装置606、メモリ604および高速拡張ポート610に接続された高速インタフェース608、および、低速バス614および記憶装置606に接続された低速インタフェース612を含む。各構成要素602、604、606、608、610、および、612は各種のバスを使用して相互接続され、共通のマザーボード上に、または、他の適切な方法で搭載することが可能である。プロセッサ602は、高速インタフェース608に結合されたディスプレイ616のような外部入力/出力機器においてGUIのための図式的な情報を表示するために、メモリ604内に、または、記憶装置606上に記憶された命令を含む、コンピュータ機器600内で実行するための命令を処理することができる。他の実施形態において、適切ならば、複数のメモリおよび複数種類のメモリとともに、複数のプロセッサおよび/または複数のバスを使用することが可能である。また、複数のコンピュータ機器600は、(例えば、サーババンク、一群のブレードサーバ、または、マルチプロセッサシステムとして)必要な動作の部分を提供する各機器と接続することが可能である。
メモリ604はコンピュータ機器600内に情報を記憶する。一実施形態において、メモリ604はコンピュータ読み取り可能な媒体である。一実施形態において、メモリ604は揮発性メモリユニットである。他の実施形態において、メモリ604は不揮発性メモリユニットである。
記憶装置606はコンピュータ機器600のために大容量記憶を提供することが可能である。一実施形態において、記憶装置606はコンピュータ読み取り可能な媒体である。各種の異なる実施形態において、記憶装置606は、フロッピー(登録商標)ディスク装置、ハードディスク装置、光ディスク装置、または、テープ装置、フラッシュメモリまたは他の類似の半導体メモリ装置、または、ストレージ・エリア・ネットワークまたは他の構成における装置を含む装置の配列とすることが可能である。一実施形態において、コンピュータプログラム製品は情報担体において有形に実現される。コンピュータプログラム製品は、実行されるとき、上述したような1つまたは複数の方法を実行する命令を含む。情報担体は、メモリ604、記憶装置606、プロセッサ602上のメモリ、または、伝播する信号のようなコンピュータまたは機械読み取り可能な媒体である。
高速コントローラ608はコンピュータ機器600のための帯域幅に集中した動作を管理し、低速コントローラ612はより低い帯域幅に集中した動作を管理する。そのような作業の割り当ては単に例である。一実施形態において、高速コントローラ608は、メモリ604、(例えば、グラフィックス・プロセッサまたはアクセラレータを通して)ディスプレイ616、および、(図示しない)各種の拡張カードを収容することが可能な高速拡張ポート610に結合される。実施形態において、低速コントローラ612は記憶装置606および低速拡張ポート614に結合される。各種の通信ポート(例えば、USB、ブルートゥース(登録商標)、イーサネット(登録商標)、無線イーサネット(登録商標))を含みうる低速拡張ポートは、キーボード、ポインティングデバイス、スキャナのような1つまたは複数の入力/出力機器、または、例えば、ネットワークアダプタを通して、スイッチまたはルータのようなネットワーク機器に結合することが可能である。
コンピュータ機器600は、図に表わされているように、多数の異なる形態で実現することが可能である。例えば、標準的なサーバ620として、または、一群のそのようなサーバにおいて複数台で実現することが可能である。また、ラックのサーバシステム624の一部として実現することが可能である。さらに、ラップトップコンピュータ622のようなパーソナルコンピュータにおいて実現することが可能である。その代わりに、コンピュータ機器600からの構成要素は、機器650のような(図示しない)携帯機器において他の構成要素と組み合わせることが可能である。そのような機器の各々は、コンピュータ機器600、650のうち1つまたは複数を含むことが可能であり、全体のシステムは互いに通信する複数のコンピュータ機器600、650からなることが可能である。
コンピュータ機器650は、他の構成要素の中で、プロセッサ652、メモリ664、ディスプレイ654のような入力/出力機器、通信インタフェース666、および、送受信器668を含む。また、機器650は、マイクロドライブまたは他の装置のような記憶装置を設けて追加の記憶装置を提供することが可能である。構成要素650、652、664、654、666、および、668の各々は、各種のバスを使用して相互接続され、構成要素のうちいくつかは共通のマザーボード上に、または、他の適切な方法で搭載することが可能である。
プロセッサ652は、メモリ604内に記憶された命令を含む、コンピュータ機器650内で実行するための命令を処理することができる。また、プロセッサは別個のアナログおよびデジタルプロセッサを含むことが可能である。プロセッサは、例えば、ユーザインタフェース、機器650によって実行されるアプリケーション、機器650による無線通信の制御のような、機器650の他の構成要素を調整するために設けることが可能である。
プロセッサ652は、制御インタフェース658、および、ディスプレイ654に結合されたディスプレイインタフェース656を通してユーザと通信することが可能である。ディスプレイ654は、例えば、TFT LCD(薄膜トランジスタ 液晶ディスプレイ)ディスプレイまたはOLED(有機発光ダイオード)ディスプレイ、または、他の適切なディスプレイ技術とすることが可能である。ディスプレイインタフェース656は、ディスプレイ654を駆動して図式的な情報および他の情報をユーザに提示するための適切な回路を備えることが可能である。制御インタフェース658は、ユーザからの命令を受信し、それらをプロセッサ652への送出のために変換することが可能である。さらに、機器650と他の機器との付近の領域での通信を可能とするように、プロセッサ652と通信する外部インタフェース662を設けることが可能である。例えば、(例えば、ドッキング手順による)有線通信または(例えば、ブルートゥース(登録商標)または他のそのような技術による)無線通信のために、外部インタフェース662を設けることが可能である。
メモリ664はコンピュータ機器650内に情報を記憶する。一実施形態において、メモリ664はコンピュータ読み取り可能な媒体である。一実施形態において、メモリ664は揮発性メモリユニットである。他の実施形態において、メモリ664は不揮発性メモリユニットである。また、拡張メモリ674が設けられ、例えば、SIMM(シングル・インライン・メモリ・モジュール)カードインタフェースを含みうる拡張インタフェース672を通して機器650に接続されることが可能である。そのような拡張メモリ674は機器650のための追加の記憶領域を提供し、または、機器650のためのアプリケーションまたは他の情報を記憶することが可能である。詳しくは、拡張メモリ674は上述した処理を実行または補足する命令を含むことが可能であり、安全な情報を含むことが可能である。従って、例えば、拡張メモリ674は機器650のためのセキュリティモジュールとして設けることが可能であり、機器650の安全な使用を可能とする命令を用いてプログラムすることが可能である。さらに、追加の情報とともに、ハッキングできない方法でSIMMカード上に識別情報を配置するような、SIMMカードによる安全なアプリケーションを提供することが可能である。
メモリは、例えば、以下で説明するようなフラッシュメモリおよび/またはMRAM(磁気抵抗ランダムアクセスメモリ)メモリを含むことが可能である。一実施形態において、コンピュータプログラム製品は情報担体において有形に実現される。コンピュータプログラム製品は、実行されるとき、上述したような1つまたは複数の方法を実行する命令を含む。情報担体は、メモリ664、拡張メモリ674、プロセッサ652上のメモリ、または、伝播する信号のようなコンピュータまたは機械読み取り可能な媒体である。
機器650は、必要ならばデジタル信号処理回路を含みうる通信インタフェース666を通して無線で通信することが可能である。通信インタフェース666は、とりわけ、GSM(広域自動車通信システム)音声呼、SMS、EMS(電子メール・システム)、または、MMS(マルチメディアメッセージング)メッセージング、CDMA(符号分割多重アクセス)、TDMA(時間分割多アクセス)、PDC(パーソナル・デジタル通信方式)、WCDMA(広帯域符号分割多重アクセス)、CDMA2000、または、GPRS(汎用パケット無線システム)のような各種のモードまたはプロトコルのもとで通信を提供することが可能である。そのような通信は、例えば、無線周波数送受信器668を通して発生することが可能である。さらに、ブルートゥース(登録商標)、WiFi(Wireless Fidelity)、または、(図示しない)他のそのような送受信器を使用する等して短い範囲の通信を発生することが可能である。さらに、GPS(global positioning system)受信モジュール670は、機器650において実行されるアプリケーションによって適切に使用されうる機器650への追加の無線データを提供することが可能である。
また、機器650は、ユーザからの話された情報を受信し、それを使用可能なデジタル情報に変換することが可能な音声コーデック660を使用して可聴的に通信することが可能である。音声コーデック660は、スピーカを通して、例えば、機器650のハンドセットにおいて、同様に、ユーザのための可聴音を生成することが可能である。そのような音は音声電話呼からの音を含み、録音された音(例えば、音声メッセージ、音楽ファイル、等)を含み、機器650において動作するアプリケーションによって生成される音を含むことが可能である。
コンピュータ機器650は、図に表わされているように、多数の異なる形態で実現することが可能である。例えば、携帯電話680として実現することが可能である。また、スマートフォン682、PDA、または、他の類似の携帯機器の一部として実現することが可能である。
ここで説明したシステムおよび技術の各種の実施形態は、デジタル電子回路、集積回路、専用に設計されたASIC(application specific integrated circuit)、コンピュータハードウェア、ファームウェア、ソフトウェア、および/または、それらの組み合わせにおいて実現することができる。これらの各種の実施形態は、記憶システムまたは少なくとも1つの入力機器からデータおよび命令を受信し、かつ、記憶システムまたは少なくとも1つの出力機器にデータおよび命令を送信するために結合された、専用または汎用でありうる、少なくとも1つのプログラム可能なプロセッサを含むプログラム可能なシステムにおいて実行可能かつ/または解釈可能な1つまたは複数のコンピュータプログラムにおける実現を含むことが可能である。
(プログラム、ソフトウェア、ソフトウェアアプリケーションまたはコードとしても知られる)これらのコンピュータプログラムは、プログラム可能なプロセッサのための機械命令を含み、高レベルの手続き的な、かつ/または、オブジェクト指向のプログラミング言語で、かつ/または、アセンブリ言語/機械語で実現することが可能である。ここで使用される用語“機械読み取り可能な媒体”、“コンピュータ読み取り可能な媒体”は、機械読み取り可能な信号として機械命令を受信する機械読み取り可能な媒体を含む、機械命令および/またはデータをプログラム可能なプロセッサに提供するために使用される任意のコンピュータプログラム製品、装置、および/または、機器(例えば、磁気ディスク、光ディスク、メモリ、PLD(Programmable Logic Device))を言う。用語“機械読み取り可能な信号”は、命令および/またはデータをプログラム可能なプロセッサに提供するために使用される任意の信号を言う。
ユーザとの相互作用を提供するために、ここで説明したシステムおよび技術は、情報をユーザに表示するためのディスプレイ装置(例えば、CRT(陰極線管)またはLCDモニタ)、および、ユーザが入力をコンピュータに与えることができるキーボードおよびポインティングデバイス(例えば、マウスまたはトラックボール)を有するコンピュータにおいて実現することができる。ユーザとの相互作用を提供するために他の種類の機器を使用することも可能であり、例えば、ユーザに与えられるフィードバックは、任意の形態の知覚フィードバック(例えば、視覚フィードバック、聴覚フィードバック、または、触覚フィードバック)とすることが可能であり、ユーザからの入力は、音響、音声、または、触覚の入力を含む任意の形態で受信することが可能である。
ここで説明したシステムおよび技術は、バックエンドの構成要素(例えば、データサーバ)、または、ミドルウェアの構成要素(例えば、アプリケーションサーバ)、または、フロンドエンドの構成要素(例えば、ここで説明したシステムおよび技術の実施形態とユーザが相互作用することができるグラフィカルユーザインタフェースまたはウェブブラウザを有するクライアントコンピュータ)、または、そのようなバックエンド、ミドルウェア、または、フロントエンドの構成要素の任意の組み合わせを含むコンピュータシステムにおいて実現することが可能である。システムの構成要素は、任意の形態または媒体のデジタルデータ通信(例えば、通信ネットワーク)によって相互接続することが可能である。通信ネットワークの例は、ローカルエリアネットワーク(“LAN”)、広域ネットワーク(“WAN”)、および、インターネットを含む。
コンピュータシステムはクライアントおよびサーバを含むことが可能である。クライアントおよびサーバは、一般に互いに離れており、典型的に通信ネットワークを通して相互作用する。クライアントおよびサーバの関係は、それぞれのコンピュータ上で動作し、互いにクライアント−サーバの関係を有するコンピュータプログラムによって生じる。
本発明の多数の実施形態を説明した。それにもかかわらず、本発明の思想および範囲から逸脱することなく、様々な変形が可能であることが理解される。例えば、第1情報プロバイダ106および第2情報プロバイダ108は同一のシステムとし、または、単一のシステムに含まれうる。
さらに、アプリケーション識別子112はアプリケーションを起動する必要はない。その代わりに、前もって起動されたアプリケーションの機能を開始するために使用することができる。例えば、アプリケーション識別子は、前もって起動されたインターネットブラウザが、デジタルメッセージ212に含まれるURLによって識別される特定のサイトにナビゲートすべきであることを指示することができる。
いくつかの実施形態において、要求102は書かれた要求であり、要求102を送信する遠隔機器104はパーソナルコンピュータであり、要求102は音声からテキストへの変換なしで検索エンジン216およびアプリケーション選択部に直接に渡すことが可能である。
上記の説明では一例としてSMSが使用されたが、説明したシステムおよび方法は、各種のメカニズムを使用して情報を遠隔機器104に送信することが可能である。例えば、第1情報プロバイダ106は、セッション・イニシエーション・プロトコル(SIP)およびSMS伝送のような実際のプッシュメカニズム、または、ハイパーテキスト伝送プロトコル(HTTP)を使用したポーリングのような仮想的なプッシュメカニズムを使用することができる。
さらに、いくつかの実施形態において、要求102は複数の要求に分離することができる。例えば、要求102は、遠隔機器のユーザが最初に位置(例えば、テキサス州ダラス)を要求し、これは第1情報プロバイダによって確認され、次に、ユーザは、検索する特定のカテゴリまたは項目(例えば、バーベキュー)を指定する、要求の第2部分を送信する、2相の相互作用とすることができる。
さらに他の実施形態において、上記で表わした各種形態のフローは、ステップを再順序付けし、追加し、または、除去して使用することが可能である。また、システムおよび方法のいくつかの適用を説明したが、多数の他の適用が予期されることを認識すべきである。従って、他の実施形態は請求項の範囲内に存在する。
100 ・・・ システム
102 ・・・ 音声言語の要求
104 ・・・ 遠隔機器
106 ・・・ 第1情報プロバイダ
108 ・・・ 第2情報プロバイダ
110 ・・・ 記号表現指示子
112 ・・・ アプリケーション指示子
114 ・・・ クエリー
116 ・・・ 結果
118 ・・・ 表示された結果

Claims (33)

  1. 処理された結果を遠隔機器において受信する方法であって、
    前記遠隔機器から音声言語の要求を第1情報プロバイダに送信するステップと、
    前記送信された音声言語の要求に応答して、前記音声言語の要求の記号表現と対応付けされた記号表現指示子およびアプリケーションを制御するために使用されるデータを含むデジタルメッセージを前記第1情報プロバイダから受信するステップと、
    前記アプリケーションを使用して、前記遠隔機器に表示される結果を生成するために前記記号表現指示子を第2情報プロバイダに送信するステップと、
    を有する方法。
  2. 前記記号表現指示子は前記記号表現を含む請求項1に記載の方法。
  3. 前記記号表現指示子は、前記第2情報プロバイダによって処理される記号表現の記憶場所を識別する、前記第2情報プロバイダによって使用されるユニフォーム・リソース識別子(RUI)を含む請求項1に記載の方法。
  4. 前記第2情報プロバイダによる処理の結果は、変換された音声言語の要求と対応付けされた1つまたは複数の位置を強調表示する地図を含む請求項1に記載の方法。
  5. 前記記号表現は2進数の値を含む請求項1に記載の方法。
  6. 前記記号表現は、情報交換用米国標準コード(ASCII)の値、ISO−8858−1の値、または、UTF−8(8−ビットユニコード変換フォーマット)の値を含む請求項1に記載の方法。
  7. 前記デジタルメッセージは、ショートメッセージサービスのテキストメッセージを含む請求項1に記載の方法。
  8. 前記音声言語の要求は、電話番号案内のための呼の一部として送信される請求項1に記載の方法。
  9. 前記音声言語の要求に応答して、前記遠隔機器において、前記第1情報プロバイダから、前記音声言語の要求の記号表現の正確さの検証をユーザに促す確認を受信するステップをさらに有する請求項1に記載の方法。
  10. 前記確認は前記第1情報プロバイダからの音声言語の問い合わせを含み、前記音声言語の問い合わせは前記記号表現に基づいてコンピュータ生成された音声を含む請求項9に記載の方法。
  11. 前記確認は前記第1情報プロバイダからのテキストの問い合わせを含み、前記テキストの問い合わせは前記記号表現の少なくとも一部を含む請求項9に記載の方法。
  12. 処理のための前記第2情報プロバイダへの送信の前に、検索クエリーとして前記記号表現をフォーマットするステップをさらに有する請求項1に記載の方法。
  13. 前記第2情報プロバイダは検索エンジンを含む請求項12に記載の方法。
  14. 前記遠隔機器での表示のために前記第1情報プロバイダから結果の部分集合を受信するステップをさらに有し、前記結果は前記第1情報プロバイダによる前記音声言語の要求の記号表現の処理に基づく請求項1に記載の方法。
  15. 前記遠隔機器は、携帯電話、パーソナル・デジタル・アシスタント、および、電子メール機器からなるグループから選択される請求項1に記載の方法。
  16. 前記音声言語の要求の記号表現に基づいて前記アプリケーションを制御するために使用されるデータを選択するステップをさらに有する請求項1に記載の方法。
  17. 前記第1情報プロバイダへの送信の前に、前記遠隔機器を使用して前記音声言語の要求を録音するステップをさらに有する請求項1に記載の方法。
  18. 前記第1情報プロバイダおよび前記第2情報プロバイダは、前記遠隔機器から離れた1つのシステムに含まれる請求項1に記載の方法。
  19. 位置を基にした情報をユーザに提供する方法であって、
    携帯機器から位置情報についての音声言語の要求を受信し、前記音声言語の要求を記号表現に変換するステップと、
    前記記号表現、および、前記携帯機器においてアプリケーションを制御するために使用される指示子を含むメッセージを生成するステップと、
    前記メッセージを前記携帯機器に送信して、前記アプリケーションに、前記記号表現と対応付けされた1つまたは複数の位置を表示するために前記記号表現を使用させるステップと、
    を有する方法。
  20. 位置を基にした情報を受信する方法であって、
    携帯機器から位置情報についての音声言語の要求を第1情報プロバイダに送信するステップと、
    前記音声言語の要求の記号表現、および、前記携帯機器においてアプリケーションを制御するために使用される識別子を含むショートメッセージサービスのメッセージを前記第1情報プロバイダから受信するステップと、
    前記携帯機器において前記アプリケーションを使用して、位置情報についての音声言語の要求の記号表現を含むデータ要求を第2情報プロバイダに送信するステップと、
    前記データ要求に応答して、前記第2情報プロバイダによって送信された位置情報を使用して、前記記号表現と対応付けされた1つまたは複数の位置を前記携帯機器において表示するステップと、
    を有する方法。
  21. 開始位置から前記1つまたは複数の位置への方向を表示するステップをさらに有する請求項20に記載の方法。
  22. 前記開始位置はユーザによって入力される請求項21に記載の方法。
  23. 前記開始位置は、前記携帯機器のグローバル・ポジショニング・システム構成要素によって入力される請求項21に記載の方法。
  24. 1つまたは複数の位置を含む領域についての調整可能な量の細部を表示するステップをさらに含み、前記細部の量はユーザによって指定される請求項20に記載の方法。
  25. 処理されたデータを遠隔機器に提供する方法であって、
    前記遠隔機器から音声言語の要求を受信するステップと、
    前記音声言語の要求についてのデータ応答を生成するステップと、を有し、前記データ応答は、前記遠隔機器においてアプリケーションを制御するためのデータ、および、前記音声言語の要求の変換を含み、前記変換された音声言語の要求は前記アプリケーションによってアクセス可能であり、
    前記データ応答を前記遠隔機器に送信して、前記遠隔機器に前記アプリケーションを制御させ、かつ、前記変換された音声言語の要求の少なくとも一部を処理させ、かつ、前記処理から生成された結果を表示させるステップをさらに有する方法。
  26. 前記アプリケーションはカレンダーアプリケーションを含み、前記音声言語の要求は前記カレンダーアプリケーションにイベント情報を入力する要求を含む請求項25に記載の方法。
  27. 前記アプリケーションはマッピングアプリケーションを含み、前記音声言語の要求は前記マッピングアプリケーションを使用して1つまたは複数の位置を表示する要求を含む請求項25に記載の方法。
  28. 前記位置は、前記位置と対応付けされたキーワードを使用して識別される請求項27に記載の方法。
  29. 前記位置は、前記位置と対応付けされた住所の情報を使用して識別される請求項27に記載の方法。
  30. 前記アプリケーションはコンタクトアプリケーションであり、前記音声言語の要求は前記コンタクトアプリケーションにコンタクト情報を入力する要求を含む請求項25に記載の方法。
  31. 前記アプリケーションは検索結果のユーザインタフェースを含み、前記音声言語の要求は検索クエリーを含む請求項25に記載の方法。
  32. 位置を基にした情報を複数のユーザに提供するシステムであって、
    複数の遠隔機器から音声伝送ラインを通して音声言語の要求を受信するインタフェースと、
    前記音声言語の要求を前記音声言語の要求の記号表現に変換する変換モジュールと、
    前記遠隔機器にデジタルメッセージを出力する手段と、を備え、各メッセージは、遠隔機器においてアプリケーションを制御するために使用される識別子、および、前記記号表現を処理するために前記アプリケーションによって使用される記号表現指示子を含むシステム。
  33. 前記音声言語の要求のうち1つまたは複数は、別個の時刻に送信された複数の部分的な要求を含む請求項32に記載のシステム。
JP2010502253A 2007-04-02 2008-04-02 電話による要求への位置を基にした応答 Pending JP2010527467A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/695,333 US8650030B2 (en) 2007-04-02 2007-04-02 Location based responses to telephone requests
PCT/US2008/059100 WO2008122031A2 (en) 2007-04-02 2008-04-02 Location-based responses to telephone requests

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2013263560A Division JP5625103B2 (ja) 2007-04-02 2013-12-20 電話による要求への位置を基にした応答

Publications (1)

Publication Number Publication Date
JP2010527467A true JP2010527467A (ja) 2010-08-12

Family

ID=39795846

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2010502253A Pending JP2010527467A (ja) 2007-04-02 2008-04-02 電話による要求への位置を基にした応答
JP2013263560A Active JP5625103B2 (ja) 2007-04-02 2013-12-20 電話による要求への位置を基にした応答

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2013263560A Active JP5625103B2 (ja) 2007-04-02 2013-12-20 電話による要求への位置を基にした応答

Country Status (6)

Country Link
US (10) US8650030B2 (ja)
EP (3) EP3706123B1 (ja)
JP (2) JP2010527467A (ja)
CN (2) CN104063439B (ja)
AU (1) AU2008232435B2 (ja)
WO (1) WO2008122031A2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014010449A (ja) * 2012-06-27 2014-01-20 Samsung Electronics Co Ltd ディスプレイ装置、ディスプレイ装置の制御方法および対話型システム
JP2014013569A (ja) * 2012-07-03 2014-01-23 Samsung Electronics Co Ltd ディスプレイ装置、対話型システム及び応答情報提供方法
JP2014179067A (ja) * 2013-03-14 2014-09-25 Honda Motor Co Ltd 音声インターフェースシステム及び方法
JP2014211900A (ja) * 2009-10-29 2014-11-13 イマージョンコーポレーションImmersion Corporation 音声−テキスト変換の触覚増強のためのシステム及び方法
JP2016520234A (ja) * 2013-12-11 2016-07-11 百度在▲綫▼网▲絡▼技▲術▼(北京)有限公司 携帯端末で検索結果を表示する方法及び装置

Families Citing this family (82)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8650030B2 (en) * 2007-04-02 2014-02-11 Google Inc. Location based responses to telephone requests
US9794348B2 (en) 2007-06-04 2017-10-17 Todd R. Smith Using voice commands from a mobile device to remotely access and control a computer
US10002189B2 (en) 2007-12-20 2018-06-19 Apple Inc. Method and apparatus for searching using an active ontology
US8848897B2 (en) * 2007-12-20 2014-09-30 Verizon Patent And Licensing Inc. Automated multimedia call center agent
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US9253560B2 (en) * 2008-09-16 2016-02-02 Personics Holdings, Llc Sound library and method
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US9978365B2 (en) * 2008-10-31 2018-05-22 Nokia Technologies Oy Method and system for providing a voice interface
KR101019335B1 (ko) * 2008-11-11 2011-03-07 주식회사 팬택 제스처를 이용한 이동단말의 어플리케이션 제어 방법 및 시스템
US9154942B2 (en) * 2008-11-26 2015-10-06 Free Stream Media Corp. Zero configuration communication between a browser and a networked media device
US8433283B2 (en) 2009-01-27 2013-04-30 Ymax Communications Corp. Computer-related devices and techniques for facilitating an emergency call via a cellular or data network using remote communication device identifying information
JP2010224194A (ja) * 2009-03-23 2010-10-07 Sony Corp 音声認識装置及び音声認識方法、言語モデル生成装置及び言語モデル生成方法、並びにコンピューター・プログラム
KR101577607B1 (ko) * 2009-05-22 2015-12-15 삼성전자주식회사 상황 및 의도인지 기반의 언어 표현 장치 및 그 방법
US8626511B2 (en) * 2010-01-22 2014-01-07 Google Inc. Multi-dimensional disambiguation of voice commands
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US8635058B2 (en) * 2010-03-02 2014-01-21 Nilang Patel Increasing the relevancy of media content
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
CN105209903B (zh) * 2013-03-15 2019-03-05 雀巢产品技术援助有限公司 用于订购和制造定制宠物食物的系统和方法
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
KR101772152B1 (ko) 2013-06-09 2017-08-28 애플 인크. 디지털 어시스턴트의 둘 이상의 인스턴스들에 걸친 대화 지속성을 가능하게 하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
US9928839B1 (en) 2013-12-04 2018-03-27 United Services Automobile Association (Usaa) Systems and methods for authentication using voice biometrics and device verification
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
WO2015184186A1 (en) 2014-05-30 2015-12-03 Apple Inc. Multi-command single utterance input method
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10152299B2 (en) * 2015-03-06 2018-12-11 Apple Inc. Reducing response latency of intelligent automated assistants
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10504509B2 (en) 2015-05-27 2019-12-10 Google Llc Providing suggested voice-based action queries
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
US10474753B2 (en) 2016-09-07 2019-11-12 Apple Inc. Language identification using recurrent neural networks
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
KR20180060328A (ko) * 2016-11-28 2018-06-07 삼성전자주식회사 멀티 모달 입력을 처리하는 전자 장치, 멀티 모달 입력을 처리하는 방법 및 멀티 모달 입력을 처리하는 서버
US11281993B2 (en) 2016-12-05 2022-03-22 Apple Inc. Model and ensemble compression for metric learning
US10051442B2 (en) * 2016-12-27 2018-08-14 Motorola Solutions, Inc. System and method for determining timing of response in a group communication using artificial intelligence
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
US10417266B2 (en) 2017-05-09 2019-09-17 Apple Inc. Context-aware ranking of intelligent response suggestions
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
US10395654B2 (en) 2017-05-11 2019-08-27 Apple Inc. Text normalization based on a data-driven learning network
DK201770429A1 (en) 2017-05-12 2018-12-14 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
US11301477B2 (en) 2017-05-12 2022-04-12 Apple Inc. Feedback analysis of a digital assistant
US10403278B2 (en) 2017-05-16 2019-09-03 Apple Inc. Methods and systems for phonetic matching in digital assistant services
US10311144B2 (en) 2017-05-16 2019-06-04 Apple Inc. Emoji word sense disambiguation
US10303715B2 (en) 2017-05-16 2019-05-28 Apple Inc. Intelligent automated assistant for media exploration
US10657328B2 (en) 2017-06-02 2020-05-19 Apple Inc. Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling
KR102374910B1 (ko) * 2017-08-22 2022-03-16 삼성전자주식회사 음성 데이터 처리 방법 및 이를 지원하는 전자 장치
US10445429B2 (en) 2017-09-21 2019-10-15 Apple Inc. Natural language understanding using vocabularies with compressed serialized tries
US10755051B2 (en) 2017-09-29 2020-08-25 Apple Inc. Rule-based natural language processing
US10636424B2 (en) 2017-11-30 2020-04-28 Apple Inc. Multi-turn canned dialog
US10733982B2 (en) 2018-01-08 2020-08-04 Apple Inc. Multi-directional dialog
US10733375B2 (en) 2018-01-31 2020-08-04 Apple Inc. Knowledge-based framework for improving natural language understanding
US10789959B2 (en) 2018-03-02 2020-09-29 Apple Inc. Training speaker recognition models for digital assistants
US10592604B2 (en) 2018-03-12 2020-03-17 Apple Inc. Inverse text normalization for automatic speech recognition
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US10909331B2 (en) 2018-03-30 2021-02-02 Apple Inc. Implicit identification of translation payload with neural machine translation
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US10997963B1 (en) * 2018-05-17 2021-05-04 Amazon Technologies, Inc. Voice based interaction based on context-based directives
US10984780B2 (en) 2018-05-21 2021-04-20 Apple Inc. Global semantic word embeddings using bi-directional recurrent neural networks
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS
US11386266B2 (en) 2018-06-01 2022-07-12 Apple Inc. Text correction
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
US10496705B1 (en) 2018-06-03 2019-12-03 Apple Inc. Accelerated task performance
KR20220119219A (ko) * 2021-02-19 2022-08-29 삼성전자주식회사 온디바이스 인공지능 서비스를 제공하는 전자 장치 및 방법

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11331363A (ja) * 1998-01-16 1999-11-30 Lucent Technol Inc 音声メッセ―ジングシステム
JP2001222494A (ja) * 1999-12-01 2001-08-17 Asahi Kasei Corp 通信アドレス検索装置、システムおよびその方法
US6381465B1 (en) * 1999-08-27 2002-04-30 Leap Wireless International, Inc. System and method for attaching an advertisement to an SMS message for wireless transmission
JP2002318132A (ja) * 2001-04-23 2002-10-31 Hitachi Ltd 音声対話型ナビゲーションシステムおよび移動端末装置および音声対話サーバ
JP2003319085A (ja) * 2002-04-18 2003-11-07 Ntt Advanced Technology Corp 音声情報検索装置および音声情報検索方法
JP2004078450A (ja) * 2002-08-14 2004-03-11 Nippon Telegr & Teleph Corp <Ntt> 位置情報測位方法、端末装置、サーバ装置、及びプログラム
WO2005091128A1 (ja) * 2004-03-18 2005-09-29 Nec Corporation 音声処理装置とシステム及び音声処理方法
JP2006155350A (ja) * 2004-11-30 2006-06-15 Vodafone Kk コンテンツ提供方法、サーバ及び移動体通信端末
US20060235694A1 (en) * 2005-04-14 2006-10-19 International Business Machines Corporation Integrating conversational speech into Web browsers

Family Cites Families (77)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6225993B1 (en) * 1996-04-22 2001-05-01 Sun Microsystems, Inc. Video on demand applet method and apparatus for inclusion of motion video in multimedia documents
US5712901A (en) * 1996-06-26 1998-01-27 Mci Communications Corporation Automatic voice/text translation of phone mail messages
AUPO214096A0 (en) * 1996-09-04 1996-09-26 Telefonaktiebolaget Lm Ericsson (Publ) A telecommunications system and method for automatic call recognition and distribution
US5870454A (en) * 1997-04-01 1999-02-09 Telefonaktiebolaget L M Ericsson Telecommunications speech/text conversion and message delivery system
GB2329549A (en) * 1997-09-19 1999-03-24 Ibm Voice processing system
US6421427B1 (en) * 1997-10-15 2002-07-16 Nortel Networks Limited Interactive voice response data transfer system and method
CA2219008C (en) * 1997-10-21 2002-11-19 Bell Canada A method and apparatus for improving the utility of speech recognition
US6483899B2 (en) * 1998-06-19 2002-11-19 At&T Corp Voice messaging system
US6393460B1 (en) * 1998-08-28 2002-05-21 International Business Machines Corporation Method and system for informing users of subjects of discussion in on-line chats
US7003463B1 (en) * 1998-10-02 2006-02-21 International Business Machines Corporation System and method for providing network coordinated conversational services
DE19847730A1 (de) * 1998-10-16 2000-04-20 Bosch Gmbh Robert Navigationssystem und Verfahren zu dessen Betrieb sowie Navigationsdatenträger und Verfahren zu dessen Beschreiben
US6742021B1 (en) * 1999-01-05 2004-05-25 Sri International, Inc. Navigating network-based electronic information using spoken input with multimodal error feedback
US7036128B1 (en) * 1999-01-05 2006-04-25 Sri International Offices Using a community of distributed electronic agents to support a highly mobile, ambient computing environment
US6636831B1 (en) * 1999-04-09 2003-10-21 Inroad, Inc. System and process for voice-controlled information retrieval
KR20010019786A (ko) * 1999-08-30 2001-03-15 윤종용 이동통신 시스템에서 음성인식 및 문자표시 장치 및 방법
US6901431B1 (en) * 1999-09-03 2005-05-31 Cisco Technology, Inc. Application server providing personalized voice enabled web application services using extensible markup language documents
US6615172B1 (en) * 1999-11-12 2003-09-02 Phoenix Solutions, Inc. Intelligent query engine for processing voice based queries
US6775359B1 (en) * 1999-12-28 2004-08-10 Comverse Ltd. Voice reply to incoming e-mail messages, via e-mail
US6801524B2 (en) * 2000-01-31 2004-10-05 Sonim Technologies, Inc. System for dispatching information packets and method therefor
US6304645B1 (en) * 2000-03-04 2001-10-16 Intel Corporation Call processing system with resources on multiple platforms
US20020035474A1 (en) * 2000-07-18 2002-03-21 Ahmet Alpdemir Voice-interactive marketplace providing time and money saving benefits and real-time promotion publishing and feedback
US6920425B1 (en) * 2000-05-16 2005-07-19 Nortel Networks Limited Visual interactive response system and method translated from interactive voice response for telephone utility
US7392193B2 (en) * 2000-06-16 2008-06-24 Microlife Corporation Speech recognition capability for a personal digital assistant
US20040122810A1 (en) * 2000-06-22 2004-06-24 Yaron Mayer System and method for searching, finding and contacting dates on the Internet in instant messaging networks and/or in other methods that enable immediate finding and creating immediate contact
US6430602B1 (en) * 2000-08-22 2002-08-06 Active Buddy, Inc. Method and system for interactively responding to instant messaging requests
JP4283984B2 (ja) * 2000-10-12 2009-06-24 パイオニア株式会社 音声認識装置ならびに方法
US7219058B1 (en) * 2000-10-13 2007-05-15 At&T Corp. System and method for processing speech recognition results
US20020091527A1 (en) * 2001-01-08 2002-07-11 Shyue-Chin Shiau Distributed speech recognition server system for mobile internet/intranet communication
US6961414B2 (en) * 2001-01-31 2005-11-01 Comverse Ltd. Telephone network-based method and system for automatic insertion of enhanced personal address book contact data
GB2372864B (en) * 2001-02-28 2005-09-07 Vox Generation Ltd Spoken language interface
US7177402B2 (en) * 2001-03-01 2007-02-13 Applied Voice & Speech Technologies, Inc. Voice-activated interactive multimedia information processing system
AU2002306749A1 (en) * 2001-03-13 2002-09-24 Shiv Balakrishnan An architecture and protocol for a wireless communication network to provide scalable web services to mobile access devices
US6760705B2 (en) * 2001-05-31 2004-07-06 Motorola, Inc. Virtual speech interface system and method of using same
US7068189B2 (en) * 2001-07-03 2006-06-27 Nortel Networks Limited Location and event triggered notification services
US20030007609A1 (en) * 2001-07-03 2003-01-09 Yuen Michael S. Method and apparatus for development, deployment, and maintenance of a voice software application for distribution to one or more consumers
US20030078777A1 (en) * 2001-08-22 2003-04-24 Shyue-Chin Shiau Speech recognition system for mobile Internet/Intranet communication
US7313525B1 (en) * 2001-09-26 2007-12-25 Sprint Spectrum L.P. Method and system for bookmarking navigation points in a voice command title platform
JP3997459B2 (ja) * 2001-10-02 2007-10-24 株式会社日立製作所 音声入力システムおよび音声ポータルサーバおよび音声入力端末
US20030069991A1 (en) * 2001-10-09 2003-04-10 Brescia Paul T. Location-based address provision
US7353247B2 (en) * 2001-10-19 2008-04-01 Microsoft Corporation Querying applications using online messenger service
EP1308694B1 (en) * 2001-11-01 2015-04-22 Nissan Motor Company Limited Navigation system, data server, travelling route establishing method and information providing method
US6804330B1 (en) * 2002-01-04 2004-10-12 Siebel Systems, Inc. Method and system for accessing CRM data via voice
US20030144846A1 (en) * 2002-01-31 2003-07-31 Denenberg Lawrence A. Method and system for modifying the behavior of an application based upon the application's grammar
US7139713B2 (en) 2002-02-04 2006-11-21 Microsoft Corporation Systems and methods for managing interactions from multiple speech-enabled applications
US7085771B2 (en) * 2002-05-17 2006-08-01 Verity, Inc System and method for automatically discovering a hierarchy of concepts from a corpus of documents
US7398209B2 (en) * 2002-06-03 2008-07-08 Voicebox Technologies, Inc. Systems and methods for responding to natural language speech utterance
US7414661B2 (en) 2002-08-13 2008-08-19 Micron Technology, Inc. CMOS image sensor using gradient index chip scale lenses
US7421390B2 (en) * 2002-09-13 2008-09-02 Sun Microsystems, Inc. Method and system for voice control of software applications
KR100486030B1 (ko) 2002-10-10 2005-04-29 와이더댄 주식회사 음성인식을 이용한 이동통신 단말기의 인터넷 사이트접속장치 및 방법
US7184534B2 (en) * 2002-12-19 2007-02-27 International Business Machines Corporation Using a telephony application server for call control with a voice server
US7054818B2 (en) * 2003-01-14 2006-05-30 V-Enablo, Inc. Multi-modal information retrieval system
US6980949B2 (en) * 2003-03-14 2005-12-27 Sonum Technologies, Inc. Natural language processor
US20050262427A1 (en) * 2003-03-31 2005-11-24 International Business Machines Corporation System and method for managing website content
US7089594B2 (en) * 2003-07-21 2006-08-08 July Systems, Inc. Application rights management in a mobile environment
US6983244B2 (en) * 2003-08-29 2006-01-03 Matsushita Electric Industrial Co., Ltd. Method and apparatus for improved speech recognition with supplementary information
US7460652B2 (en) * 2003-09-26 2008-12-02 At&T Intellectual Property I, L.P. VoiceXML and rule engine based switchboard for interactive voice response (IVR) services
JP2005147925A (ja) * 2003-11-18 2005-06-09 Hitachi Ltd 車載端末装置および車両向け情報提示方法
KR20060111673A (ko) * 2004-01-08 2006-10-27 보이스 시그널 테크놀로지스, 인코포레이티드. 음성 인식 소프트웨어의 자동화된 테스트
US7650380B2 (en) * 2004-02-12 2010-01-19 International Business Machines Corporation System and method for messaging and collaborating in an intranet environment
US7031449B1 (en) * 2004-04-16 2006-04-18 Sprint Spectrum L.P. Method for providing a call log entry for a transferred call
US7363295B2 (en) * 2004-04-19 2008-04-22 Yahoo! Inc. Techniques for inline searching in an instant messenger environment
US7958115B2 (en) * 2004-07-29 2011-06-07 Yahoo! Inc. Search systems and methods using in-line contextual queries
US20060166656A1 (en) * 2005-01-24 2006-07-27 Michael Klicpera Cell or mobile phone, and wireless PDA traffic advisory method
US7672931B2 (en) * 2005-06-30 2010-03-02 Microsoft Corporation Searching for content using voice search queries
US7509374B2 (en) * 2005-09-09 2009-03-24 Alchemic Solutions Group, Inc. Systems and methods for creating customized applications
US20070100690A1 (en) * 2005-11-02 2007-05-03 Daniel Hopkins System and method for providing targeted advertisements in user requested multimedia content
SG131819A1 (en) * 2005-11-07 2007-05-28 Chikka Pte Ltd Buddy-based cross-carrier messaging system
EP1974304A4 (en) * 2006-01-17 2009-08-26 Medical Envelope L L C SYSTEM AND METHOD FOR PROVIDING MEDICAL AND CONTACT INFORMATION DURING AN EMERGENCY CALL
US20070204115A1 (en) * 2006-02-28 2007-08-30 Maven Networks, Inc. Systems and methods for storage shuffling techniques to download content to a file
US8001471B2 (en) * 2006-02-28 2011-08-16 Maven Networks, Inc. Systems and methods for providing a similar offline viewing experience of online web-site content
US7761293B2 (en) * 2006-03-06 2010-07-20 Tran Bao Q Spoken mobile engine
US20070276651A1 (en) * 2006-05-23 2007-11-29 Motorola, Inc. Grammar adaptation through cooperative client and server based speech recognition
US20080153465A1 (en) * 2006-12-26 2008-06-26 Voice Signal Technologies, Inc. Voice search-enabled mobile device
US8386259B2 (en) * 2006-12-28 2013-02-26 Intel Corporation Voice interface to NFC applications
US8949266B2 (en) * 2007-03-07 2015-02-03 Vlingo Corporation Multiple web-based content category searching in mobile search application
WO2008121965A2 (en) * 2007-03-29 2008-10-09 Iskoot, Inc. Methods and systems for performing server-based mobile chat
US8650030B2 (en) 2007-04-02 2014-02-11 Google Inc. Location based responses to telephone requests

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11331363A (ja) * 1998-01-16 1999-11-30 Lucent Technol Inc 音声メッセ―ジングシステム
US6381465B1 (en) * 1999-08-27 2002-04-30 Leap Wireless International, Inc. System and method for attaching an advertisement to an SMS message for wireless transmission
JP2001222494A (ja) * 1999-12-01 2001-08-17 Asahi Kasei Corp 通信アドレス検索装置、システムおよびその方法
JP2002318132A (ja) * 2001-04-23 2002-10-31 Hitachi Ltd 音声対話型ナビゲーションシステムおよび移動端末装置および音声対話サーバ
JP2003319085A (ja) * 2002-04-18 2003-11-07 Ntt Advanced Technology Corp 音声情報検索装置および音声情報検索方法
JP2004078450A (ja) * 2002-08-14 2004-03-11 Nippon Telegr & Teleph Corp <Ntt> 位置情報測位方法、端末装置、サーバ装置、及びプログラム
WO2005091128A1 (ja) * 2004-03-18 2005-09-29 Nec Corporation 音声処理装置とシステム及び音声処理方法
JP2006155350A (ja) * 2004-11-30 2006-06-15 Vodafone Kk コンテンツ提供方法、サーバ及び移動体通信端末
US20060235694A1 (en) * 2005-04-14 2006-10-19 International Business Machines Corporation Integrating conversational speech into Web browsers

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014211900A (ja) * 2009-10-29 2014-11-13 イマージョンコーポレーションImmersion Corporation 音声−テキスト変換の触覚増強のためのシステム及び方法
JP2014010449A (ja) * 2012-06-27 2014-01-20 Samsung Electronics Co Ltd ディスプレイ装置、ディスプレイ装置の制御方法および対話型システム
JP2014013569A (ja) * 2012-07-03 2014-01-23 Samsung Electronics Co Ltd ディスプレイ装置、対話型システム及び応答情報提供方法
JP2014179067A (ja) * 2013-03-14 2014-09-25 Honda Motor Co Ltd 音声インターフェースシステム及び方法
JP2016520234A (ja) * 2013-12-11 2016-07-11 百度在▲綫▼网▲絡▼技▲術▼(北京)有限公司 携帯端末で検索結果を表示する方法及び装置
US10037363B2 (en) 2013-12-11 2018-07-31 Baidu Online Network Technology (Beijing) Co., Ltd. Method and device for displaying search result on mobile terminal

Also Published As

Publication number Publication date
US20080243501A1 (en) 2008-10-02
US20200035236A1 (en) 2020-01-30
US20210304758A1 (en) 2021-09-30
US10665240B2 (en) 2020-05-26
AU2008232435B2 (en) 2014-01-23
JP5625103B2 (ja) 2014-11-12
US11056115B2 (en) 2021-07-06
CN104063439B (zh) 2018-01-23
EP3706123B1 (en) 2024-10-09
US10163441B2 (en) 2018-12-25
WO2008122031A2 (en) 2008-10-09
CN101689363A (zh) 2010-03-31
JP2014067446A (ja) 2014-04-17
US20200251114A1 (en) 2020-08-06
US10431223B2 (en) 2019-10-01
AU2008232435A1 (en) 2008-10-09
US8856005B2 (en) 2014-10-07
EP2143099B1 (en) 2018-11-14
US20180190286A1 (en) 2018-07-05
US20140380170A1 (en) 2014-12-25
US9858928B2 (en) 2018-01-02
CN104063439A (zh) 2014-09-24
CN101689363B (zh) 2014-07-16
US9600229B2 (en) 2017-03-21
WO2008122031A3 (en) 2009-01-08
EP2143099A4 (en) 2013-01-09
EP3706123A1 (en) 2020-09-09
US11854543B2 (en) 2023-12-26
US20190019510A1 (en) 2019-01-17
US20140120965A1 (en) 2014-05-01
US8650030B2 (en) 2014-02-11
US20170148439A1 (en) 2017-05-25
EP3462451B1 (en) 2020-06-03
EP2143099A2 (en) 2010-01-13
US20240119936A1 (en) 2024-04-11
EP3462451A1 (en) 2019-04-03

Similar Documents

Publication Publication Date Title
JP5625103B2 (ja) 電話による要求への位置を基にした応答
US10599729B2 (en) State-dependent query response
US8170537B1 (en) Playing local device information over a telephone connection
AU2014201912B2 (en) Location-based responses to telephone requests

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110323

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130415

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130820

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20151030