JP2009253970A - 移動端末機及びそのメニュー制御方法 - Google Patents
移動端末機及びそのメニュー制御方法 Download PDFInfo
- Publication number
- JP2009253970A JP2009253970A JP2008274952A JP2008274952A JP2009253970A JP 2009253970 A JP2009253970 A JP 2009253970A JP 2008274952 A JP2008274952 A JP 2008274952A JP 2008274952 A JP2008274952 A JP 2008274952A JP 2009253970 A JP2009253970 A JP 2009253970A
- Authority
- JP
- Japan
- Prior art keywords
- mobile terminal
- menu
- input
- user
- domain
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72469—User interfaces specially adapted for cordless or mobile telephones for operating the device by selecting functions from two or more displayed items, e.g. menus or icons
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/26—Devices for calling a subscriber
- H04M1/27—Devices whereby a plurality of signals may be stored simultaneously
- H04M1/271—Devices whereby a plurality of signals may be stored simultaneously controlled by voice recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification
- G10L17/22—Interactive procedures; Man-machine interfaces
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72448—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/16—Communication-related supplementary services, e.g. call-transfer or call-hold
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
- G10L2015/0635—Training updating or merging of old and new templates; Mean values; Weighting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/228—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L2025/783—Detection of presence or absence of voice signals based on threshold decision
Abstract
【課題】音声認識のためのドメインを特定メニュー又はサービスに関する情報に特定して音声認識率を向上させる移動端末機及びそのメニュー制御方法を提供する。
【解決手段】移動端末は、移動端末機で音声認識機能をアクティブ化するための入力を受信する入力部と、前記移動端末機の各メニュー又は動作に関連する複数のドメインを保存するためのメモリと、前記音声認識機能をアクティブ化するために受信された前記入力に基づいて、前記メモリ内に含まれる前記複数のドメインのうち特定ドメインにアクセスし、前記アクセスされたドメインの言語モデル及び音響モデルに基づいて使用者言語を認識し、前記アクセスされた特定ドメイン及び前記認識された使用者言語に基づいて前記移動端末機の少なくとも1つのメニュー及び動作を判断する制御部とを含む。
【選択図】図5
【解決手段】移動端末は、移動端末機で音声認識機能をアクティブ化するための入力を受信する入力部と、前記移動端末機の各メニュー又は動作に関連する複数のドメインを保存するためのメモリと、前記音声認識機能をアクティブ化するために受信された前記入力に基づいて、前記メモリ内に含まれる前記複数のドメインのうち特定ドメインにアクセスし、前記アクセスされたドメインの言語モデル及び音響モデルに基づいて使用者言語を認識し、前記アクセスされた特定ドメイン及び前記認識された使用者言語に基づいて前記移動端末機の少なくとも1つのメニュー及び動作を判断する制御部とを含む。
【選択図】図5
Description
本発明は、音声認識のためのドメインを特定メニュー又はサービスに関する情報に特定して音声認識率を向上させる移動端末機及びそのメニュー制御方法に関する。
移動端末機は、基本的な通話サービス以外にも多様な機能を行う。
例えば、使用者は、インターネットアクセス、ゲーム、ビデオ又は音楽鑑賞、映像撮影、音声ファイル記録などが可能である。一部の移動端末機は、使用者がテレビ番組、スポーツゲーム、ビデオなどを視聴できる放送番組を提供する。
さらに、移動端末機に含まれる機能が著しく増加したため、ユーザインタフェースも一層複雑になった。例えば、ユーザインタフェースは、使用者が特定アイテム又はメニューオプションをタッチして選択できるようにタッチスクリーンを含む。前記移動端末機は、使用者が基本的な機能を実行できるようにする非常に制限された音声認識機能を含む。しかしながら、使用者の音声命令の意味の判断におけるエラー率が高すぎるため、使用者は、一般的に前記端末機で前記制限された音声認識特性を使用しない。
本発明の目的は、移動端末機で音声命令の意味を文脈及び内容に基づいて認識することにより、端末機の特定機能又はサービスに関連するメニューを制御できる移動端末機及びそのメニュー制御方法を提供することにある。
また、本発明の他の目的は、端末機の音声認識のためのドメインを特定メニュー又はサービスに関連するドメインに特定することにより、音声認識率を向上させる移動端末機及びそのメニュー制御方法を提供することにある。
また、本発明のさらに他の目的は、使用者の操作を検出するために音声認識機能がアクティブ状態であるとき、少なくとも1つのユーザインタフェースを適用することにより、特定機能又はサービスに関連するメニューを制御できる移動端末機及びそのメニュー制御方法を提供することにある。
また、本発明のさらに他の目的は、端末機の動作状態又は動作モードによって音声命令の入力に関するヘルプ情報を提供することにより、初心者でも特定機能又はサービスに関連するメニューを音声命令で制御できる移動端末機及びそのメニュー制御方法を提供することにある。
このような目的を達成するための本発明による移動端末機は、前記移動端末機で音声認識機能をアクティブ化するための入力を受信する入力部と、前記移動端末機の各メニュー又は動作に関連する複数のドメインを保存するためのメモリと、前記音声認識機能をアクティブ化するために受信された前記入力に基づいて、前記メモリ内に含まれる前記複数のドメインのうち特定ドメインにアクセスし、前記アクセスされたドメインの言語モデル及び音響モデルに基づいて使用者言語を認識し、前記アクセスされた特定ドメイン及び前記認識された使用者言語に基づいて前記移動端末機の少なくとも1つのメニュー及び動作を判断する制御部とを含む。
さらに、このような目的を達成するための本発明は、移動端末機を制御する方法を提供する。前記方法は、前記移動端末機で音声認識機能をアクティブ化するための入力を受信する段階と、前記音声認識機能をアクティブ化するために受信された前記入力に基づいて、前記移動端末機のメモリに保存された複数のドメインのうち特定ドメインにアクセスする段階と、前記アクセスされたドメインの言語モデル及び音響モデルに基づいて入力された使用者言語を認識する段階と、前記アクセスされた特定ドメイン及び前記認識された使用者言語に基づいて前記移動端末機の少なくとも1つのメニュー及び動作を出力する段階とを含む。
本発明のさらなる適用範囲は、以下に説明される詳細説明により明らかになるであろう。しかし、本発明の好ましい実施形態を示す詳細説明及び特定例は、単なる例にすぎないことは理解できるであろう。本発明の精神と範囲内で行われる多様な変更及び変形は本発明の詳細な説明から当業者に明らかになるであろう。
本発明は、さらに以下の手段を提供する。
(項目1)
移動端末機であって、
上記移動端末機で音声認識機能をアクティブ化するための入力を受信する入力部と、
上記移動端末機の各メニュー又は動作に関連する複数のドメインを保存するためのメモリと、
上記音声認識機能をアクティブ化するために受信された上記入力に基づいて、上記メモリ内に含まれる上記複数のドメインのうち特定ドメインにアクセスし、上記アクセスされたドメインの言語モデル及び音響モデルに基づいて使用者言語を認識し、上記アクセスされた特定ドメイン及び上記認識された使用者言語に基づいて上記移動端末機の少なくとも1つのメニュー及び動作を判断する制御部と
を含むことを特徴とする移動端末機。
(項目2)
上記移動端末機が特定メニュー又は特定動作中であるとき、上記音声認識をアクティブ化するための上記入力が受信されると、上記アクセスされた特定ドメインは上記特定メニュー又は上記動作に対応することを特徴とする項目1に記載の移動端末機。
(項目3)
上記特定メニュー又は動作は、マルチメディアメニュー又は動作、接触メニュー又は動作、メッセージメニュー又は動作、サウンドメニュー又は動作、システム手帳(organizer)メニュー又は動作、画面メニュー又は動作、ユーティリティメニュー又は動作、カメラメニュー又は動作、及び設定メニュー又は動作の少なくとも1つを含むことを特徴とする項目2に記載の移動端末機。
(項目4)
上記制御部は、さらに、上記判断されたメニュー及び動作が正確に上記入力された使用者言語に対応する認識率を判断することを特徴とする項目1に記載の移動端末機。
(項目5)
情報を表示するディスプレイ部をさらに含み、
上記制御部は、さらに、所定の閾値より高い認識率を有すると判断された上記アクセスされた特定ドメイン及び上記認識された使用者言語に基づいて、上記移動端末機の全てのメニュー及び動作を上記ディスプレイ部上に出力することを特徴とする項目4に記載の移動端末機。
(項目6)
上記入力部は、さらに、上記表示されたメニュー及び動作の1つを選択するための音声入力命令を受信し、
上記制御部は、上記入力された音声命令を認識し、上記認識された入力音声命令が正確であるか否かを問い合わせる情報を出力することを特徴とする項目5に記載の移動端末機。
(項目7)
上記制御部は、さらに、高い認識率から低い認識率の順に、上記所定の閾値より高い上記認識率を有する上記アクセスされた特定ドメイン及び上記認識された使用者言語に基づいて、上記移動端末機の上記全てのメニュー及び動作を上記ディスプレイ部に出力することを特徴とする項目5に記載の移動端末機。
(項目8)
上記所定の閾値は、上記移動端末機の製造業者又は上記移動端末機の使用者により設定されることを特徴とする項目5に記載の移動端末機。
(項目9)
上記制御部は、さらに、上記メニュー又は動作のサイズ、位置、色、輝度、及びハイライトの少なくとも1つを制御して、最も高い認識率を有するメニュー又は動作を上記ディスプレイ部に区別して表示することを特徴とする項目5に記載の移動端末機。
(項目10)
上記制御部は、さらに、上記移動端末機の特定メニュー又は動作が以前に選択された回数を判断し、上記特定メニュー又は動作が以前に選択されたと上記判断された回数に基づいて、上記特定メニュー又は動作に対する上記認識率を調整することを特徴とする項目4に記載の移動端末機。
(項目11)
上記入力部は、
(1)上記音声認識機能をアクティブ化するためにタッチされるタッチソフトボタンと、
(2)上記音声認識機能をアクティブ化するために押圧又は操作されるハードボタンと、
(3)上記音声認識機能をアクティブ化するためにタッチされる上記入力部内に含まれるタッチスクリーンの任意の位置と、
(4)上記音声認識機能をアクティブ化するために入力される衝撃音と、
(5)ローカル領域無線信号又は遠隔領域無線信号と、
(6)使用者の身体情報の少なくとも1つを含むことを特徴とする項目1に記載の移動端末機。
(項目12)
上記入力された使用者言語を認識するために上記制御部により使用される音声又は発音情報を保存する第1データベースと、
上記入力された使用者言語を認識するために上記制御部により使用される単語、キーワード、又は文章情報を保存する第2データベースと、
上記移動端末機の各機能又はメニューに関する情報を保存する第3データベースと、
上記制御部が上記入力された使用者言語の意味を判断中であることを使用者に通知するために出力するヘルプ情報を保存する第4データベースとをさらに含むことを特徴とする項目1に記載の移動端末機。
(項目13)
上記制御部は、さらに、上記音声認識機能がアクティブ化状態にあることを示すオーディオ又はビデオ情報を出力することを特徴とする項目1に記載の移動端末機。
(項目14)
上記複数のドメインは、上記移動端末機で送受信される電子メールに対応する電子メールドメインと、上記移動端末機に割り当てられたスケジューリングイベントに対応するスケジューリングタスクドメインと、上記移動端末機での接触に対応する接触ドメインと、上記移動端末機に保存された電話番号に対応する電話帳ドメインと、上記移動端末機により提供される地図情報に対応する地図ドメインと、上記移動端末機に保存された写真に対応する写真ドメインと、上記移動端末機で送受信されるメッセージに対応するメッセージドメインと、上記移動端末機で行われるマルチメディア機能に対応するマルチメディアドメインと、上記移動端末機が接続できる外部装置に対応する外部装置ドメインと、上記移動端末機で送受信された通話に対応する通話履歴ドメインと、上記移動端末機で行われる設定機能に対応する設定ドメインの少なくとも2つのドメインを含むことを特徴とする項目1に記載の移動端末機。
(項目15)
移動端末機の制御方法であって、
上記移動端末機で音声認識機能をアクティブ化するための入力を受信する段階と、
上記音声認識機能をアクティブ化するために受信された上記入力に基づいて、上記移動端末機のメモリに保存された複数のドメインのうち特定ドメインにアクセスする段階と、
上記アクセスされたドメインの言語モデル及び音響モデルに基づいて入力された使用者言語を認識する段階と、
上記アクセスされた特定ドメイン及び上記認識された使用者言語に基づいて上記移動端末機の少なくとも1つのメニュー及び動作を出力する段階と
を含むことを特徴とする移動端末機の制御方法。
(項目16)
上記移動端末機が特定メニュー又は動作中であるとき、上記音声認識をアクティブ化するための上記入力が受信されると、上記アクセスされた特定ドメインは、上記特定メニュー又は動作に対応することを特徴とする項目15に記載の移動端末機の制御方法。
(項目17)
上記特定メニュー又は動作は、マルチメディアメニュー又は動作、接触メニュー又は動作、メッセージメニュー又は動作、サウンドメニュー又は動作、システム手帳(organizer)メニュー又は動作、画面メニュー又は動作、ユーティリティメニュー又は動作、カメラメニュー又は動作、及び設定メニュー又は動作の少なくとも1つを含むことを特徴とする項目16に記載の移動端末機の制御方法。
(項目18)
上記アクセスされた特定ドメイン及び上記認識された使用者言語に基づいて、上記移動端末機の少なくとも1つのメニュー及び動作を判断する段階と、
上記判断されたメニュー及び動作が上記入力された使用者言語に正確に対応する認識率を判断する段階とをさらに含むことを特徴とする項目15に記載の移動端末機の制御方法。
(項目19)
所定の閾値より高い認識率を有すると判断された上記アクセスされた特定ドメイン及び上記認識された使用者言語に基づいて、上記移動端末機の全てのメニュー及び動作を上記移動端末機のディスプレイ部に出力する段階をさらに含むことを特徴とする項目18に記載の移動端末機の制御方法。
(項目20)
上記表示されたメニュー及び動作の1つを選択するための音声入力命令を受信する段階と、
上記入力された音声命令を認識する段階と、
上記認識された入力音声命令が正確であるか否かを問い合わせる情報を出力する段階とをさらに含むことを特徴とする項目19に記載の移動端末機の制御方法。
(項目21)
上記所定の閾値より高い認識率を有する上記アクセスされた特定ドメイン及び上記認識された使用者言語に基づいて、上記移動端末機の上記全てのメニュー及び動作を高い認識率から低い認識率の順に上記ディスプレイ部に出力する段階をさらに含むことを特徴とする項目19に記載の移動端末機の制御方法。
(項目22)
上記所定の閾値は、上記移動端末機の製造業者又は上記移動端末機の使用者により設定されることを特徴とする項目19に記載の移動端末機の制御方法。
(項目23)
上記メニュー又は動作のサイズ、位置、色、輝度、及びハイライトの少なくとも1つを制御して、最も高い認識率を有するメニュー又は動作を上記ディスプレイ部に区別して表示する段階をさらに含むことを特徴とする項目19に記載の移動端末機の制御方法。
(項目24)
上記移動端末機の特定メニュー又は動作が以前に選択された回数を判断し、上記特定メニュー又は動作が以前に選択されたと上記判断された回数に基づいて、上記特定メニュー又は動作に対する上記認識率を調整する段階をさらに含むことを特徴とする項目18に記載の移動端末機の制御方法。
(項目25)
上記入力を受信する段階は、
(1)上記音声認識機能をアクティブ化するためにタッチされるタッチソフトボタン、
(2)上記音声認識機能をアクティブ化するために押されるか操作されるハードボタン、
(3)上記音声認識機能をアクティブ化するためにタッチされる上記入力部に含まれるタッチスクリーンの任意の位置、
(4)上記音声認識機能をアクティブ化するために入力される衝撃音、
(5)ローカル領域無線信号又は遠隔領域無線信号、
(6)使用者からの身体情報のうち少なくとも1つにより発生する信号を受信する段階であることを特徴とする項目15に記載の移動端末機の制御方法。
(項目26)
上記入力された使用者言語を認識するために使用される音声又は発音情報を第1データベースに保存する段階と、
上記入力された使用者言語を認識するために使用される単語、キーワード、又は文章情報を第2データベースに保存する段階と、
上記移動端末機の各機能又はメニューに関する情報を第3データベースに保存する段階と、
上記入力された使用者言語の意味が判断中であることを使用者に通知するために出力するヘルプ情報を第4データベースに保存する段階とをさらに含むことを特徴とする項目15に記載の移動端末機の制御方法。
(項目27)
上記音声認識機能がアクティブ状態にあることを示すオーディオ又はビデオ情報を出力する段階をさらに含むことを特徴とする項目15に記載の移動端末機の制御方法。
(項目28)
上記複数のドメインは、
上記移動端末機で送受信される電子メールに対応する電子メールドメインと、上記移動端末機に割り当てられたスケジューリングイベントに対応するスケジューリングタスクドメインと、上記移動端末機での接触に対応する接触ドメインと、上記移動端末機に保存された電話番号に対応する電話帳ドメインと、上記移動端末機により提供される地図情報に対応する地図ドメインと、上記移動端末機に保存された写真に対応する写真ドメインと、上記移動端末機で送受信されるメッセージに対応するメッセージドメインと、上記移動端末機で行われるマルチメディア機能に対応するマルチメディアドメインと、上記移動端末機が接続できる外部装置に対応する外部装置ドメインと、上記移動端末機で送受信された通話に対応する通話履歴ドメインと、上記移動端末機で行われる設定機能に対応する設定ドメインのうち少なくとも2つのドメインを含むことを特徴とする項目15に記載の移動端末機の制御方法。
(項目1)
移動端末機であって、
上記移動端末機で音声認識機能をアクティブ化するための入力を受信する入力部と、
上記移動端末機の各メニュー又は動作に関連する複数のドメインを保存するためのメモリと、
上記音声認識機能をアクティブ化するために受信された上記入力に基づいて、上記メモリ内に含まれる上記複数のドメインのうち特定ドメインにアクセスし、上記アクセスされたドメインの言語モデル及び音響モデルに基づいて使用者言語を認識し、上記アクセスされた特定ドメイン及び上記認識された使用者言語に基づいて上記移動端末機の少なくとも1つのメニュー及び動作を判断する制御部と
を含むことを特徴とする移動端末機。
(項目2)
上記移動端末機が特定メニュー又は特定動作中であるとき、上記音声認識をアクティブ化するための上記入力が受信されると、上記アクセスされた特定ドメインは上記特定メニュー又は上記動作に対応することを特徴とする項目1に記載の移動端末機。
(項目3)
上記特定メニュー又は動作は、マルチメディアメニュー又は動作、接触メニュー又は動作、メッセージメニュー又は動作、サウンドメニュー又は動作、システム手帳(organizer)メニュー又は動作、画面メニュー又は動作、ユーティリティメニュー又は動作、カメラメニュー又は動作、及び設定メニュー又は動作の少なくとも1つを含むことを特徴とする項目2に記載の移動端末機。
(項目4)
上記制御部は、さらに、上記判断されたメニュー及び動作が正確に上記入力された使用者言語に対応する認識率を判断することを特徴とする項目1に記載の移動端末機。
(項目5)
情報を表示するディスプレイ部をさらに含み、
上記制御部は、さらに、所定の閾値より高い認識率を有すると判断された上記アクセスされた特定ドメイン及び上記認識された使用者言語に基づいて、上記移動端末機の全てのメニュー及び動作を上記ディスプレイ部上に出力することを特徴とする項目4に記載の移動端末機。
(項目6)
上記入力部は、さらに、上記表示されたメニュー及び動作の1つを選択するための音声入力命令を受信し、
上記制御部は、上記入力された音声命令を認識し、上記認識された入力音声命令が正確であるか否かを問い合わせる情報を出力することを特徴とする項目5に記載の移動端末機。
(項目7)
上記制御部は、さらに、高い認識率から低い認識率の順に、上記所定の閾値より高い上記認識率を有する上記アクセスされた特定ドメイン及び上記認識された使用者言語に基づいて、上記移動端末機の上記全てのメニュー及び動作を上記ディスプレイ部に出力することを特徴とする項目5に記載の移動端末機。
(項目8)
上記所定の閾値は、上記移動端末機の製造業者又は上記移動端末機の使用者により設定されることを特徴とする項目5に記載の移動端末機。
(項目9)
上記制御部は、さらに、上記メニュー又は動作のサイズ、位置、色、輝度、及びハイライトの少なくとも1つを制御して、最も高い認識率を有するメニュー又は動作を上記ディスプレイ部に区別して表示することを特徴とする項目5に記載の移動端末機。
(項目10)
上記制御部は、さらに、上記移動端末機の特定メニュー又は動作が以前に選択された回数を判断し、上記特定メニュー又は動作が以前に選択されたと上記判断された回数に基づいて、上記特定メニュー又は動作に対する上記認識率を調整することを特徴とする項目4に記載の移動端末機。
(項目11)
上記入力部は、
(1)上記音声認識機能をアクティブ化するためにタッチされるタッチソフトボタンと、
(2)上記音声認識機能をアクティブ化するために押圧又は操作されるハードボタンと、
(3)上記音声認識機能をアクティブ化するためにタッチされる上記入力部内に含まれるタッチスクリーンの任意の位置と、
(4)上記音声認識機能をアクティブ化するために入力される衝撃音と、
(5)ローカル領域無線信号又は遠隔領域無線信号と、
(6)使用者の身体情報の少なくとも1つを含むことを特徴とする項目1に記載の移動端末機。
(項目12)
上記入力された使用者言語を認識するために上記制御部により使用される音声又は発音情報を保存する第1データベースと、
上記入力された使用者言語を認識するために上記制御部により使用される単語、キーワード、又は文章情報を保存する第2データベースと、
上記移動端末機の各機能又はメニューに関する情報を保存する第3データベースと、
上記制御部が上記入力された使用者言語の意味を判断中であることを使用者に通知するために出力するヘルプ情報を保存する第4データベースとをさらに含むことを特徴とする項目1に記載の移動端末機。
(項目13)
上記制御部は、さらに、上記音声認識機能がアクティブ化状態にあることを示すオーディオ又はビデオ情報を出力することを特徴とする項目1に記載の移動端末機。
(項目14)
上記複数のドメインは、上記移動端末機で送受信される電子メールに対応する電子メールドメインと、上記移動端末機に割り当てられたスケジューリングイベントに対応するスケジューリングタスクドメインと、上記移動端末機での接触に対応する接触ドメインと、上記移動端末機に保存された電話番号に対応する電話帳ドメインと、上記移動端末機により提供される地図情報に対応する地図ドメインと、上記移動端末機に保存された写真に対応する写真ドメインと、上記移動端末機で送受信されるメッセージに対応するメッセージドメインと、上記移動端末機で行われるマルチメディア機能に対応するマルチメディアドメインと、上記移動端末機が接続できる外部装置に対応する外部装置ドメインと、上記移動端末機で送受信された通話に対応する通話履歴ドメインと、上記移動端末機で行われる設定機能に対応する設定ドメインの少なくとも2つのドメインを含むことを特徴とする項目1に記載の移動端末機。
(項目15)
移動端末機の制御方法であって、
上記移動端末機で音声認識機能をアクティブ化するための入力を受信する段階と、
上記音声認識機能をアクティブ化するために受信された上記入力に基づいて、上記移動端末機のメモリに保存された複数のドメインのうち特定ドメインにアクセスする段階と、
上記アクセスされたドメインの言語モデル及び音響モデルに基づいて入力された使用者言語を認識する段階と、
上記アクセスされた特定ドメイン及び上記認識された使用者言語に基づいて上記移動端末機の少なくとも1つのメニュー及び動作を出力する段階と
を含むことを特徴とする移動端末機の制御方法。
(項目16)
上記移動端末機が特定メニュー又は動作中であるとき、上記音声認識をアクティブ化するための上記入力が受信されると、上記アクセスされた特定ドメインは、上記特定メニュー又は動作に対応することを特徴とする項目15に記載の移動端末機の制御方法。
(項目17)
上記特定メニュー又は動作は、マルチメディアメニュー又は動作、接触メニュー又は動作、メッセージメニュー又は動作、サウンドメニュー又は動作、システム手帳(organizer)メニュー又は動作、画面メニュー又は動作、ユーティリティメニュー又は動作、カメラメニュー又は動作、及び設定メニュー又は動作の少なくとも1つを含むことを特徴とする項目16に記載の移動端末機の制御方法。
(項目18)
上記アクセスされた特定ドメイン及び上記認識された使用者言語に基づいて、上記移動端末機の少なくとも1つのメニュー及び動作を判断する段階と、
上記判断されたメニュー及び動作が上記入力された使用者言語に正確に対応する認識率を判断する段階とをさらに含むことを特徴とする項目15に記載の移動端末機の制御方法。
(項目19)
所定の閾値より高い認識率を有すると判断された上記アクセスされた特定ドメイン及び上記認識された使用者言語に基づいて、上記移動端末機の全てのメニュー及び動作を上記移動端末機のディスプレイ部に出力する段階をさらに含むことを特徴とする項目18に記載の移動端末機の制御方法。
(項目20)
上記表示されたメニュー及び動作の1つを選択するための音声入力命令を受信する段階と、
上記入力された音声命令を認識する段階と、
上記認識された入力音声命令が正確であるか否かを問い合わせる情報を出力する段階とをさらに含むことを特徴とする項目19に記載の移動端末機の制御方法。
(項目21)
上記所定の閾値より高い認識率を有する上記アクセスされた特定ドメイン及び上記認識された使用者言語に基づいて、上記移動端末機の上記全てのメニュー及び動作を高い認識率から低い認識率の順に上記ディスプレイ部に出力する段階をさらに含むことを特徴とする項目19に記載の移動端末機の制御方法。
(項目22)
上記所定の閾値は、上記移動端末機の製造業者又は上記移動端末機の使用者により設定されることを特徴とする項目19に記載の移動端末機の制御方法。
(項目23)
上記メニュー又は動作のサイズ、位置、色、輝度、及びハイライトの少なくとも1つを制御して、最も高い認識率を有するメニュー又は動作を上記ディスプレイ部に区別して表示する段階をさらに含むことを特徴とする項目19に記載の移動端末機の制御方法。
(項目24)
上記移動端末機の特定メニュー又は動作が以前に選択された回数を判断し、上記特定メニュー又は動作が以前に選択されたと上記判断された回数に基づいて、上記特定メニュー又は動作に対する上記認識率を調整する段階をさらに含むことを特徴とする項目18に記載の移動端末機の制御方法。
(項目25)
上記入力を受信する段階は、
(1)上記音声認識機能をアクティブ化するためにタッチされるタッチソフトボタン、
(2)上記音声認識機能をアクティブ化するために押されるか操作されるハードボタン、
(3)上記音声認識機能をアクティブ化するためにタッチされる上記入力部に含まれるタッチスクリーンの任意の位置、
(4)上記音声認識機能をアクティブ化するために入力される衝撃音、
(5)ローカル領域無線信号又は遠隔領域無線信号、
(6)使用者からの身体情報のうち少なくとも1つにより発生する信号を受信する段階であることを特徴とする項目15に記載の移動端末機の制御方法。
(項目26)
上記入力された使用者言語を認識するために使用される音声又は発音情報を第1データベースに保存する段階と、
上記入力された使用者言語を認識するために使用される単語、キーワード、又は文章情報を第2データベースに保存する段階と、
上記移動端末機の各機能又はメニューに関する情報を第3データベースに保存する段階と、
上記入力された使用者言語の意味が判断中であることを使用者に通知するために出力するヘルプ情報を第4データベースに保存する段階とをさらに含むことを特徴とする項目15に記載の移動端末機の制御方法。
(項目27)
上記音声認識機能がアクティブ状態にあることを示すオーディオ又はビデオ情報を出力する段階をさらに含むことを特徴とする項目15に記載の移動端末機の制御方法。
(項目28)
上記複数のドメインは、
上記移動端末機で送受信される電子メールに対応する電子メールドメインと、上記移動端末機に割り当てられたスケジューリングイベントに対応するスケジューリングタスクドメインと、上記移動端末機での接触に対応する接触ドメインと、上記移動端末機に保存された電話番号に対応する電話帳ドメインと、上記移動端末機により提供される地図情報に対応する地図ドメインと、上記移動端末機に保存された写真に対応する写真ドメインと、上記移動端末機で送受信されるメッセージに対応するメッセージドメインと、上記移動端末機で行われるマルチメディア機能に対応するマルチメディアドメインと、上記移動端末機が接続できる外部装置に対応する外部装置ドメインと、上記移動端末機で送受信された通話に対応する通話履歴ドメインと、上記移動端末機で行われる設定機能に対応する設定ドメインのうち少なくとも2つのドメインを含むことを特徴とする項目15に記載の移動端末機の制御方法。
(摘要)
音声認識のためのドメインを特定メニュー又はサービスに関する情報に特定して音声認識率を向上させる移動端末機及びそのメニュー制御方法を提供する。移動端末は、移動端末機で音声認識機能をアクティブ化するための入力を受信する入力部と、前記移動端末機の各メニュー又は動作に関連する複数のドメインを保存するためのメモリと、前記音声認識機能をアクティブ化するために受信された前記入力に基づいて、前記メモリ内に含まれる前記複数のドメインのうち特定ドメインにアクセスし、前記アクセスされたドメインの言語モデル及び音響モデルに基づいて使用者言語を認識し、前記アクセスされた特定ドメイン及び前記認識された使用者言語に基づいて前記移動端末機の少なくとも1つのメニュー及び動作を判断する制御部とを含む。
音声認識のためのドメインを特定メニュー又はサービスに関する情報に特定して音声認識率を向上させる移動端末機及びそのメニュー制御方法を提供する。移動端末は、移動端末機で音声認識機能をアクティブ化するための入力を受信する入力部と、前記移動端末機の各メニュー又は動作に関連する複数のドメインを保存するためのメモリと、前記音声認識機能をアクティブ化するために受信された前記入力に基づいて、前記メモリ内に含まれる前記複数のドメインのうち特定ドメインにアクセスし、前記アクセスされたドメインの言語モデル及び音響モデルに基づいて使用者言語を認識し、前記アクセスされた特定ドメイン及び前記認識された使用者言語に基づいて前記移動端末機の少なくとも1つのメニュー及び動作を判断する制御部とを含む。
以下、図面を参照して本発明の実施形態について詳細に説明する。
図1は、本発明の一実施形態による移動端末機100のブロック図である。
移動端末機100は、移動端末機100と無線通信システム間の無線通信、又は移動端末機100と移動端末機100が位置するネットワーク間の無線通信を可能にする1つ以上の構成要素を有する無線通信部110を含む。
例えば、無線通信部110は、放送チャネルで外部の放送管理エンティティから放送信号及び/又は放送関連情報を受信する放送受信モジュール111を含む。前記放送チャネルは、衛星チャネル及び地上波チャネルを含む。
さらに、前記放送管理エンティティは、一般的に放送信号及び/又は放送関連情報を送信するシステムを意味する。前記放送関連情報は、放送チャネル、放送番組又は放送サービス提供者に関する情報を含む。例えば、放送関連情報は、DMB(Digital Multimedia Broadcasting)のEPG(Electronic Program Guide)又はDVB−H(Digital Video Broadcast−Handheld)のESG(Electronic Service Guide)を含むことができる。
また、前記放送信号は、TV放送信号、ラジオ放送信号、及びデータ放送信号だけでなく、TV放送信号又はラジオ放送信号と結合した放送信号も含む。
放送受信モジュール111は、多様な放送システムから伝送される放送信号を受信する。例えば、前記放送システムは、DMB−T(Digital Multimedia Broadcasting−Terrestrial)、DMB−S(Digital Multimedia Broadcasting−Satellite)、MediaFLO(Media Forward Link Only)、DVB−H(Digital Video Broadcast−Handheld)、ISDB−T(Integrated Services Digital Broadcast−Terrestrial)などを含む。放送受信モジュール111は、マルチキャスト信号も受信できる。放送受信モジュール111により受信されたデータは、メモリ160のような適切な装置内に保存される。
無線通信部110は、1つ又は多数のネットワークエンティティ(例えば、基地局、Node B)と無線信号を送受信する移動通信モジュール112も含む。ここで、前記無線信号は、音声、画像、マルチメディア、制御シグナリング、及びデータなどを示す。
移動端末機100のインターネット接続をサポートするための無線インターネットモジュール113も含まれる。無線インターネットモジュール113は、移動端末機100に内蔵又は外付けされる。
無線通信部110は、近距離通信のための近距離通信モジュール114も含む。近距離通信技術としては、ブルートゥース、RFID(Radio Frequency Identification)、赤外線通信(IrDA, infrared Data Association)、UWB(Ultra Wideband)、ZigBeeなどが利用できる。
無線通信部110は、移動端末機100の位置を確認又は取得するための位置情報モジュール115も含む。位置情報モジュール115は、関連衛星、ネットワーク構成要素、及びこれらの組み合わせと連動するGPS(Global Positioning System)構成要素を利用して実現される。
さらに、図1に示すように、移動端末機100は、移動端末機100にオーディオ又はビデオ信号を提供するA/V(Audio/Video)入力部120も含む。図に示すように、A/V入力部120は、カメラ121及びマイク122を含む。カメラ121は、静止画像又は動画像などの画像フレームを受信及び処理する。また、マイク122は、前記端末機が通話モード、録音モード、及び音声認識モードのような特定モードにあるとき、外部の音響信号を受信した後、処理してデジタルデータに変換する。移動端末機100、特に、A/V入力部120は、前記外部の音響信号を受信する過程で発生する雑音を除去するための多様な雑音除去アルゴリズムを含む。また、A/V入力部120により生成されたデータは、メモリ160内に保存され、出力部150により活用されるか、無線通信部110の1つ又は複数のモジュールを介して伝送される。必要に応じて、2つ又はそれ以上のマイク及び/又はカメラが利用される。
移動端末機100は、関連入力装置の使用者操作に対応する入力データを発生させるユーザ入力部130も含む。ユーザ入力部130は、キーパッド、ドームスイッチ、タッチパッド(静圧/静電)、ジョグホイール、及びジョグスイッチを含む。以下、ユーザ入力部130がタッチスクリーンディスプレイと連動するタッチパッドとして実現される場合の例について説明する。
センシング部140も移動端末機100内に含まれて移動端末機100の多様な状態測定を提供する。例えば、センシング部140は、移動端末機100の開閉状態、移動端末機100の構成要素(例えば、ディスプレイ及びキーボード)の相対的位置、移動端末機100の構成要素又は移動端末機100の位置の変化、移動端末機100への使用者の接触の有無、移動端末機100の方位又は加速/減速などを検出する。
例えば、移動端末機100がスライド型である場合、センシング部140は、移動端末機100の摺動部が開状態であるか閉状態であるかを感知できる。他の例として、センシング部140は、電源供給部190による電源供給の有無、インタフェース部170と外部装置間の結合又は接続の有無などを感知する。
また、インタフェース部170は、移動端末機100を外部装置に結合する役割を果たす。前記外部装置は、有/無線ヘッドホン、外部充電器、電源供給器、データ(例えば、オーディオ、ビデオ、写真など)を保存するための保存装置、イヤホン、及びマイクなどを含む。さらに、インタフェース部170は、有/無線データポート、カードソケット(例えば、メモリカード、SIM(Subscriber Identity Module)カード、UIM(User Identity Module)カード、RUIM(Removable User Identity Module)カードなど)、オーディオ入/出力ポート及びビデオ入/出力ポートを使用して構成される。
出力部150は、一般的に移動端末機100の出力要件をサポートする多様な構成要素を含む。移動端末機100は、移動端末機100に関する情報を視覚的に表示するディスプレイモジュール151を含む。例えば、移動端末機100が通話モードである場合、ディスプレイモジュール151は、一般的に発信、通話、及び終了に関する情報を含むユーザインタフェース、又はグラフィックユーザインタフェースを提供する。他の例として、移動端末機100がビデオ通話モード又は撮影モードである場合、ディスプレイモジュール151は、前記モードに関連する映像を付加的に又は選択的に表示する。
さらに、ディスプレイモジュール151は、好ましくはタッチパッドのような入力装置と連動するタッチスクリーンも含む。このような構成によりディスプレイモジュール151が入力装置及び出力装置として作動できる。また、ディスプレイモジュール151は、液晶ディスプレイ(LCD)、薄膜トランジスタ液晶ディスプレイ(TFT−LCD)、有機発光ダイオード(OLED)、フレキシブルディスプレイ、及び3次元ディスプレイを含むディスプレイ技術を利用して実現される。
移動端末機100は、ディスプレイモジュール151を2つ以上備えることもできる。2つのディスプレイが備えられた例として、1つは、内部ディスプレイ(移動端末機が開状態にあるときに見える)であり、他の1つは、外部ディスプレイ(移動端末機が開状態及び閉状態にあるときに見える)である。
図1は、移動端末機100の音響出力要件をサポートする音響出力モジュール152を備える出力部150を示す。音響出力モジュール152は、1つ又は複数のスピーカー、ブザー、他の音響生成装置、及びこれらの組み合わせを利用して実現される。さらに、音響出力モジュール152は、呼受信モード、呼発信モード、録音モード、音声認識モード、及び放送受信モードを含む多様なモードで動作する。音響出力モジュール152は、特定機能(例えば、呼受信、メッセージ受信、及びエラー)に関連する音響を出力する。また、出力部150は、移動端末機100に関連する特定イベントの発生を通知するための信号を出力するアラーム部153を備える。前記アラームイベントの例としては、呼受信、メッセージ受信、ユーザ入力の受信がある。前記出力の例として、使用者に提供される振動のような触感がある。例えば、アラーム部153は、呼又はメッセージを受信する移動端末機100に反応して振動するように構成される。
他の例として、移動端末機100におけるユーザ入力の受信に反応してアラーム部153が振動を発生することにより、触感フィードバックメカニズムを提供する。さらに、出力部150の構成要素により提供される前記多様な出力は、個別に行われるか、又は前記構成要素の任意の組み合わせを利用して行われる。
メモリ160は、移動端末機100の処理、制御、及び保存要件をサポートするための多様なデータを保存するために使用される。前記データの例として、移動端末機100で動作するアプリケーションのためのプログラム指示、通話履歴(call history)、接触データ、電話帳データ、メッセージ、静止画像、動画像などがある。
図1に示すメモリ160は、RAM(Random Access Memory)、SRAM(Static Random Access Memory)、ROM(Read−Only Memory)、EEPROM(Electrically Erasable Programmable Read−Only Memory)、EPROM(Erasable Programmable Read−Only Memory)、PROM(Programmable Read−Only Memory)、磁気メモリ、フラッシュメモリ、磁気もしくは光ディスク、カード型メモリ、又はその他の同様のメモリもしくはデータ記憶装置を含む適切な揮発性及び不揮発性メモリもしくは記憶装置のいずれか又は組み合わせを利用して実現される。
移動端末機100は、移動端末機100の全般的な動作を典型的に制御する制御部180も含む。例えば、制御部180は、音声通話、データ通信、インスタントメッセージ通信、ビデオ通話、カメラ機能、及び録音機能に関連する制御及び処理を行う。図1に示すように、制御部180は、マルチメディア再生のためのマルチメディアモジュール181を備える。マルチメディアモジュール181は、制御部180の一部として構成されるか、制御部180と別途に実現される。
電源供給部190は、移動端末機100の多様な構成要素により利用される電源を供給する。前記電源としては、外部の電源、内部の電源、又はこれらの組み合わせが利用できる。
図2は、本発明の一実施形態による移動端末機100の前面斜視図である。図2に示すように、移動端末機100は、第1ボディー200と、第1ボディー200に対して摺動可能に構成された第2ボディー205とを含む。図1に示すユーザ入力部130は、ファンクションキー210のような第1入力部、キーパッド215のような第2入力部、及びサイドキー245のような第3入力部を含む。
ファンクションキー210は、第1ボディー200に関連し、キーパッド215は、第2ボディー205に関連する。キーパッド215は、使用者が電話をかけること、テキスト又はマルチメディアメッセージを準備すること、移動端末機100を動作させることなどを可能にする多様なキー(例えば、数字、文字、及びシンボル)を含む。第1ボディー200は、第2ボディー205に対して摺動して開位置又は閉位置となる。閉状態において、第1ボディー200は、キーパッド215が第1ボディー200により完全に隠れるように第2ボディー205の上部に位置する。開状態において、使用者は、ディスプレイモジュール151及びファンクションキー210だけでなく、キーパッド215にアクセスできる。ファンクションキー210は、使用者による開始、停止、及びスクロールのような命令の入力を容易にする。
移動端末機100は、待ち受けモード(例えば、呼又はメッセージ受信、ネットワーク制御シグナリングの受信及び応答ができるモード)、又は通話モードで動作する。移動端末機100は、閉状態のときは主に待ち受けモードであり、開状態のときは主に通話モードであるが、使用者の希望により他のモードに移行できる。
第1ボディー200は、第1ケース220と第2ケース225とからなり、第2ボディー205は、第1ケース230と第2ケース235とからなる。第1ケース220、230及び第2ケース225、235は、合成樹脂を射出して形成することもでき、ステンレススチール(STS)又はチタン(Ti)などの金属材質で形成することもできる。
第1ボディー200と第2ボディー205の一方又は両方の第1ケース及び第2ケース間には、1つ又は複数の中間ケースを配置することもできる。第1ボディー200及び第2ボディー205は、移動端末機100の動作をサポートするために利用される電子部品を内蔵できるサイズに形成される。
第1ボディー200は、カメラ121と、スピーカーとして実現され、ディスプレイモジュール151と相対的に位置する音響出力モジュール152とを含む。カメラ121は、第1ボディー200に対して選択的に配置できるように(例えば、回転、スイベルなど)構成できる。
ファンクションキー210は、ディスプレイモジュール151の下側に隣接して位置する。前述したように、ディスプレイモジュール151は、LCD又はOLEDで実現できる。ディスプレイモジュール151は、タッチパッドがレイヤ構造で重なったタッチスクリーンにより実現されて、使用者の前記タッチスクリーンとの接触(例えば、指、スタイラスなど)に反応して信号を生成する。
第2ボディー205は、キーパッド215に隣接したマイク122と、第2ボディー205の側面に沿って位置し、ユーザ入力部の一種類であるサイドキー245と含む。サイドキー245は、ホットキーとして実現され、移動端末機100の特定機能と連係する。図2に示すように、インタフェース部170は、サイドキー245に隣接し、バッテリー形態の電源供給部190は、第2ボディー205の下部に位置する。
図3は、図2に示す移動端末機100の後面斜視図である。図3を参照すると、第2ボディー205は、カメラ121と、カメラ121に関連するフラッシュ250及びミラー255とを含む。フラッシュ250は、第2ボディー205のカメラ121と連動して動作し、ミラー255は、使用者がカメラ121を利用してセルフ撮影をするとき、使用者の顔などを映してカメラ121の位置づけを容易にする。第2ボディー205のカメラ121は、図2に示すように、第1ボディー200のカメラ121とは反対方向に向ける。
第1ボディー200及び第2ボディー205の各カメラ121は、同一又は異なる容量を有する。例えば、第1ボディー200のカメラ121は、第2ボディー205のカメラ121より低い解像度で動作する。このような構成は、例えば、逆方向リンク周波数容量が限定されるビデオ会議通話時に効果的である。第2ボディー205のカメラ121の高い解像度は、後に高画質の写真を得るのに有用である。
第2ボディー205は、スピーカーとして実現され、第2ボディー205の上部に位置する音響出力モジュール152も含む。第1ボディー200及び第2ボディー205の前記音響出力モジュールは、連動してステレオ出力を提供する。前記音響出力モジュールの1つ又は2つは、スピーカーフォンとして動作するように構成できる。
移動端末機100は、第2ボディー205の上端に位置する放送信号受信用アンテナ260を含む。アンテナ260は、放送受信モジュール111(図1)と連動して機能する。必要に応じて、アンテナ260は、固定されるか、第2ボディー205の内部に収まるように構成される。第1ボディー200の後面は第2ボディー205の前面に位置する該当スライドモジュールと摺動可能に結合するスライドモジュール265を含む。
図示された第1ボディー200及び第2ボディー205の多様な構成要素の配置は必要に応じて変更できる。1つのボディーの一部又は全ての構成要素を他のボディーに実現することもできる。前記構成要素の位置及び相対的位置決めは、図示した位置とは異なってもよい。
図1〜図3に示す移動端末機100は、有無線通信システム及び衛星通信システムを含み、フレーム又はパケットでデータを伝送する通信システムで動作するように構成される。このような通信システムは、他の無線インタフェース及び/又は物理層を活用する。
例えば、通信システムにより利用可能な無線インタフェースとしては、周波数分割多元接続(Frequency Division Multiple Access:FDMA)、時分割多元接続(Time Division Multiple Access:TDMA)、符号分割多元接続(Code Division Multiple Access:CDMA:)、ユニバーサルモバイルテレコミュニケーションシステム(Universal Mobile Telecommunications Systems:UMTS)(特に、LTE(Long Term Evolution)、移動通信用グローバルシステム(Global System for Mobile Communications:GSM)などが用いられる。以下、説明の便宜のために、CDMAに限定して説明する。しかしながら、本発明は、CDMA無線通信システムを含む全ての通信システムに適用できる。
図4に示すように、CDMA無線通信システムは、複数の移動端末機100、複数の基地局(BS)270、基地局制御部(Base Station Controllers:BSCs)275、及び移動スイッチングセンター(Mobile Switching Center:MSC)280を含む。
MSC280は、公衆交換電話網(Public Switched Telephone Network:PSTN)290とインタフェースで接続されるように構成され、BSCs275ともインタフェースで接続されるように構成される。BSCs275は、バックホールライン(backhaul line)で基地局270と接続される。前記バックホールラインは、例えば、E1/T1、ATM、IP、PPP、Frame Relay、HDSL、ADSL又はxDSLなどのインタフェースの少なくとも1つによって構成される。さらに、図4に示す前記システムは、複数のBSCs275を含む。
それぞれの基地局270は、少なくとも1つのセクターを含み、各セクターは、全方向性アンテナ又は基地局270から放射状の特定方向を指すアンテナを含む。また、各セクターは、ダイバーシティ受信のために2つのアンテナを含む。それぞれの基地局270は、複数の周波数割り当てをサポートするように構成され、各周波数割り当ては、特定スペクトル(例えば、1.25MHz、5MHz)を有する。
セクターと周波数割り当ての交差は、CDMAチャネルと言われる。基地局270は、基地局送受信サブシステム(Base Station Transceiver Subsystem:BTSs)とも言われる。場合によっては、「基地局」という用語は、1つのBSC275及び少なくとも1つの基地局270を合わせたものを意味する。
基地局270はまた、「セルサイト」を示すこともできる。又は、特定基地局270のそれぞれのセクターをセルサイトという。地上波DMB(digital multimedia broadcasting)送信部295は、システム内で動作する移動端末機100に放送する。
移動端末機100の放送用モジュール111(図1を参照)は、DMB送信部295により伝送される放送信号を受信するために備えられる。前述したように、同様の配置が他のタイプのブロードキャスト及びマルチキャストシグナリングのために実現できる。
さらに、図4は、複数のGPS衛星300を示す。衛星300は、複数の移動端末機100の一部又は全ての位置把握を容易にする。図4においては2つの衛星を示すが、位置情報は、それより多数の衛星によっても、それより少数の衛星によっても取得できる。
移動端末機100の位置情報モジュール115(図1を参照)は、所望の位置情報を取得するために衛星300と連動する。しかしながら、GPS追跡技術に加えて又はGPS追跡技術の代わりに利用される追跡技術のような他のタイプの位置検出技術が代案として実現されてもよい。GPS衛星300の一部又は全ては、選択的に又は追加的に衛星DMB伝送を提供するように構成される。
さらに、無線通信システムが一般的に動作する過程で、基地局270は、多様な移動端末機100から逆方向リンク信号のセットを受信する。ここで、移動端末機100は、呼接続中であるか、メッセージ送受信中であるか、又は他の通信動作を実行中である。
特定基地局270により受信された逆方向リンク信号のそれぞれは、特定基地局270内で処理され、前記処理の結果として生成されたデータは、関連BSC275に送信される。BSC275は、基地局270間のソフトハンドオフを含む呼リソース割り当て機能及び移動性管理機能を提供する。
また、BSC275は、前記受信したデータをMSC280に送信し、MSC280は、PSTN290とのインタフェース接続のために追加的なルーティングサービスを提供する。PSTN290は、MSC280にインタフェース接続し、MSC280は、BSC275にインタフェース接続する。BSC275は、移動端末機100に順方向リンク信号のセットを伝送するようにBS270を制御する。
以下の説明において、前述したように構成された移動端末機100に適用可能な制御方法について様々な実施形態に基づいて説明する。しかしながら、下記の実施形態は、独立して又は互いに組み合わせて実現することができる。さらに、以下の説明において、ディスプレイモジュール151は、タッチスクリーンを含む。また、前記タッチスクリーン又は前記ディスプレイのスクリーンは、参照番号「400」で示される。
本発明の実施形態において、前記移動端末機は、音声命令認識のための参照として用いられるデータベースのドメイン(又は、情報検索範囲)を特定メニュー又はサービスに関連するドメインに特定する。従って、音声命令に対する認識率が向上し、前記移動端末機により利用されるリソースの総量が減少する。
さらに、前記音声命令認識のための参照として用いられるデータベースのドメインは、前記移動端末機の環境設定メニューにより特定できる。また、音声認識機能がアクティブ化すると、前記特定されたドメインが自動で適用される。
以下、音声命令認識のためのデータベースの予め設定されたドメインが、現在ディスプレイモジュール151に表示されたメニュー、又は前記メニューのうち1つのメニューのサブメニューに関する情報を含むと仮定する。
図5は、本発明の実施形態による移動端末機の音声命令を利用したメニュー制御方法を示すフローチャートである。以下の説明において図1も参照する。図5に示すように、制御部180は、前記音声認識機能がアクティブ化しているか否かを判断する(S101)。
さらに、前記音声認識機能は、使用者が前記移動端末機のハードウェアボタン、又はディスプレイモジュール151に表示されたソフトウェアボタンを選択することによりアクティブ化される。また、前記使用者は、ディスプレイモジュール151に表示された特定メニューを操作して前記音声認識機能をアクティブ化することもできる。また、前記音声認識機能は、使用者による特定音もしくは音響効果の発生、近距離もしくは遠距離無線信号、又は身振りや手振りなどの使用者の身体動作情報によりアクティブ化することもある。
より詳しくは、前記特定音又は音響効果は、特定レベル以上の衝撃音を含む。前記特定音又は音響効果は、音響レベル検出アルゴリズムを利用して検出される。さらに、前記音響レベル検出アルゴリズムは、音声認識アルゴリズムより簡単であるので、前記移動端末機のリソースの消耗を低減できる。また、前記音響レベル検出アルゴリズム(又は、回路)は、前記音声認識アルゴリズム(又は、回路)と別途に実現されるか、前記音声認識アルゴリズムの一部機能を特定するように実現される。
さらに、前記無線信号は、無線通信部110により受信され、前記使用者の手振り又は身振りは、センシング部140により受信される。従って、本発明の一実施形態において、無線通信部110、ユーザ入力部130、及びセンシング部140は、信号入力部と言われる。前記音声認識機能は、同様の方法で終了される。
前記使用者の前記音声認識機能に対する物理的アクティブ化は、使用者が前記移動端末機を制御するための音声命令を使用しようとすることをより認識できるため、有利である。すなわち、前記使用者は、まず前記移動端末機の物理的操作を行い、前記移動端末機に音声命令又は指示を入力しようとすることを直感的に認識するため、よりはっきり又はゆっくり話すことにより特定機能をアクティブ化する。従って、前記使用者がよりはっきり又はゆっくり話すため、例えば、前記音声指示を正確に認識する可能性が高くなる。すなわち、本発明の一実施形態において、前記音声認識機能は、前記移動端末機に対して話して前記音声認識機能をアクティブ化するのではなく、前記移動端末機のボタンを操作してアクティブ化する。
制御部180は、前記使用者が特定ボタン又は前記タッチスクリーンの一部をタッチした回数、及び前記使用者が前記特定ボタン又は前記タッチスクリーンの一部をタッチしていた時間に基づいて、前記音声認識機能のアクティブ化を開始又は終了する。前記使用者は、制御部180が本発明により提供される適切なメニューオプションを利用して前記音声認識機能をアクティブ化する方法を設定することもできる。例えば、前記使用者は、(1)前記音声アクティブ化ボタンが選択された回数(X)に基づく音声認識アクティブ化の設定、(2)前記音声アクティブ化ボタンが選択された時間(X)に基づく音声認識アクティブ化の設定、(3)前記ボタンX、Yが選択されたときの音声認識アクティブ化の設定などを含む前記移動端末のメニューオプションを選択できる。次に、前記使用者は、前記音声アクティブ化機能がアクティブ化していると制御部180が判断する方法を可変的に設定するために、前記X及びY値を入力できる。従って、本発明の一実施形態によれば、前記使用者が使用者自身の移動端末機の前記音声アクティブ化機能に積極的に関与することにより、制御部180が前記使用者の音声命令に対応する正確な機能を判断する可能性が向上する。これにより、前記使用者は、使用者の必要に応じて前記音声アクティブ化機能を調節できる。
制御部180は、前記指定されたボタンがタッチ又は選択されると、前記音声認識機能のアクティブ状態を維持し、前記指定されたボタンが解除されると、前記音声認識機能を停止する。また、制御部180は、前記指定されたボタンがタッチ又は選択された後、前記音声認識機能のアクティブ化を所定時間維持することができ、前記所定時間が経過すると、前記音声認識機能を停止又は終了することができる。他の実施形態において、制御部180は、前記音声認識機能の前記アクティブ状態が維持される間、前記メモリ160に受信された音声命令を保存することができる。
図5に示すように、前記音声命令の意味を認識するための参照として用いられるデータベースのドメインは、前記移動端末機の特定機能又はメニューに関する情報に特定される(S102)。例えば、前記データベースの特定されるドメインは、現在ディスプレイモジュール151に表示されるメニュー、又は前記表示されたメニューのうち1つのメニューのサブメニューに関する情報である。さらに、前記データベースのドメインが特定されるため、前記入力された音声命令の認識率が向上する。前記ドメインの例としては、電子メールドメイン、受信された呼ドメイン、及びマルチメディアドメインなどがある。
前記サブメニューに関する情報は、データベースにデータとして構成される。例えば、前記情報は、キーワードの形態で構成され、複数の情報が1つの機能又はメニューに対応することもできる。また、前記データベースは、情報の特性によって複数で構成でき、メモリ160に保存される。
また、前記データベースの情報は、学習過程により更新できる。また、前記それぞれのデータベースの各ドメインは、音声命令の認識率の向上のために、現在出力されている機能又はメニューに関するドメインに特定できる。また、前記ドメインは、メニューの段階の進行に応じて変更することもできる。
前記音声認識機能がアクティブ化され(S101でYes)、前記ドメインが特定されると(S102)、制御部180は、前記使用者が音声命令を入力したかを判断する(S103)。制御部180は、前記使用者が音声命令を入力したと判断されると(S103でYes)、特定データベースに基づいてマイク122から入力された音声命令又は指示の文脈及び内容を分析して前記音声命令の意味を判断する(S104)。
制御部180は、前記アクセスされたドメインの言語モデル及び音響モデルに基づいて前記音声指示又は命令の意味を判断できる。具体的には、前記言語モデルは、単語自体に関連し、前記音響モデルは、前記単語の話し方に対応する(例えば、話された単語又は句の周波数成分)。前記言語モデル及び音響モデルを移動端末機100の特定ドメイン及び状態と共に利用すると、制御部180は、前記入力された音声命令又は指示の意味を効果的に判断できる。
また、制御部180は、前記入力された音声命令をメモリ160に保存するとき、前記使用者が前記音声認識機能のアクティブ化を解除すると、直ちに前記音声命令の意味を判断するための過程を開始するか、前記音声命令が入力されると同時に前記音声アクティブ化機能を行う。
さらに、前記音声命令が完全に入力されなかった場合(S103でNo)、制御部180は、他の機能を依然として行うことができる。例えば、前記使用者がメニューオプションをタッチして他の機能を行ったり、前記移動端末機のボタンを押した場合(S109でYes)、制御部180は、該当選択された機能を行う(S110)。
制御部180は、前記入力された音声命令の意味を判断した後(S104)、前記意味の結果値を出力する(S105)。前記結果値は、前記判断された意味に対応する機能又はサービスに関連するメニューを行うための、又は、移動端末機の特定構成要素を制御するための制御信号を含む。前記結果値は、前記認識された音声命令に関する情報を表示するためのデータを含む。
また、制御部180は、前記出力された結果値が正確であるか否かの確認を使用者に要求する(S106)。例えば、制御部180は、前記音声命令の認識率が低いか、前記音声命令が複数の意味を有すると判断される場合、各意味に関連する複数のメニューを出力した後、前記使用者により選択されたメニューを行うことができる(S107)。また、制御部180は、認識率の高い特定メニューを行うか否かを使用者に聞いた後、前記使用者の選択又は応答によって該当する機能又はメニューを実行又は表示することもできる。
さらに、制御部180は、前記特定メニュー又はオプションを選択するために使用者に問い合わせる音声メッセージを出力することができる(例えは、フォトアルバムメニューを行いますか?はいかいいえで答えてください)。次に、制御部180は、前記使用者の応答に基づいて前記特定メニュー又はオプションに対応する機能を行ったり、行わなかったりする。前記使用者が特定時間応答しないと(例えば、5秒)、制御部180は、前記特定メニュー又はオプションを直ちに行うこともできる。すなわち、前記使用者から応答がない場合、制御部180は、前記無応答を肯定応答であると判断して前記機能又はメニューを自動で行う。
さらに、前記使用者は、音声(例えば、はい又はいいえ)又は他の入力手段(例えば、ハードウェアボタン又はソフトウェアボタン、タッチパッド)を利用して制御部180からの問い合わせに応答することもできる。さらに、段階S106で、前記使用者からの応答が否定的である場合(S106でNo)、すなわち、前記音声命令の意味が正確に判断されない場合、制御部180は、エラー処理過程をさらに行う(S108)。
すなわち、前記エラー処理過程は、音声命令の入力を再び受信することにより行われるか、特定レベル以上の認識率を有する複数のメニュー又は近い意味に判断される複数のメニューを表示することにより行われる。その後、前記使用者は、前記複数のメニューの1つを選択することができる。また、特定レベル以上の認識率を有する機能又はメニューの数が特定数(例えば、2つ)未満である場合、制御部180は、前記該当機能又はメニューを自動で行うことができる。
図6Aは、本発明の一実施形態による移動端末機の音声認識機能をアクティブ化する方法を説明するための図である。ディスプレイスクリーン410に示すように、前記使用者は、ソフトボタン411をタッチして音声認識機能をアクティブ化することができる。また、前記使用者は、前記ソフトボタン411を解除して前記音声認識機能を終了することができる。より詳しくは、前記使用者は、前記ソフトボタン411をタッチして前記音声認識機能をアクティブ化し、前記音声命令が完了するまで、ソフトボタン411又はハードボタン412を継続してタッチするようにしてもよい。すなわち、前記使用者は、前記音声命令が完了すると、ソフトボタン411又はハードボタン412を解除することができる。従って、制御部180は、前記音声命令が入力された時点と完了した時点を知ることができる。前述したように、前記使用者は、このような判断を直接することができるため、前記入力された音声命令の解釈の正確度を高めることができる
例えば、制御部180は、前記使用者がソフトボタン411を最初にタッチすると、前記音声アクティブ化の開始を認識し、その後、前記使用者がソフトボタン411を2回タッチすると、前記音声指示の完了を認識するように構成することもできる。他の選択方法も可能である。さらに、図6Aのディスプレイスクリーン410に示すように、前記音声アクティブ化及び非アクティブ化は、ソフトボタン411を使用するのではなく、前記移動端末機のハードボタン412を操作して行うことができる。
例えば、制御部180は、前記使用者がソフトボタン411を最初にタッチすると、前記音声アクティブ化の開始を認識し、その後、前記使用者がソフトボタン411を2回タッチすると、前記音声指示の完了を認識するように構成することもできる。他の選択方法も可能である。さらに、図6Aのディスプレイスクリーン410に示すように、前記音声アクティブ化及び非アクティブ化は、ソフトボタン411を使用するのではなく、前記移動端末機のハードボタン412を操作して行うことができる。
さらに、ディスプレイスクリーン410に示すソフトボタン411は、前記使用者が前記音声認識機能をアクティブ化/非アクティブ化するために押圧又は解除する単一のソフトボタンであってもよく、選択されると「1.音声アクティブ化の開始、2.音声アクティブ化の停止」のようなメニューリストを生成するメニューボタンであってもよい。例えば、ソフトボタン411を待ち受け状態中に表示することもできる。
他の例において、ディスプレイスクリーン420に示すように、前記使用者は、前記スクリーンの任意の位置をタッチして前記音声認識機能をアクティブ化及び非アクティブ化することができる。ディスプレイスクリーン430は、前記使用者が特定レベル以上の音響や音響効果を生成することにより前記音声認識機能をアクティブ化及び非アクティブ化するさらに他の例を示す。例えば、前記使用者は、衝撃音を生成するために手をたたくこともある。
従って、本発明の一実施形態によれば、前記音声認識機能は、2つのモードで実現できる。例えば、前記音声認識機能は、所定レベル以上の特定音響や音響効果を検出するための第1モード、及び音声命令を認識して前記音声命令の意味を判断するための第2モードで実現される。前記音響又は音響効果が前記第1モードで所定レベル以上である場合、前記第2モードがアクティブ化して前記音声命令を認識する
ディスプレイスクリーン440は、前記使用者が前記音声認識機能をアクティブ化及び非アクティブ化するためのさらに他の方法を示す。本例において、制御部180は、前記音声アクティブ化機能を開始及び停止するための前記使用者の身体動作を解釈するように構成される。例えば、ディスプレイスクリーン440に示すように、制御部180は、前記ディスプレイ側への前記使用者の手を移動を前記音声認識機能をアクティブ化する指示と解釈し、前記ディスプレイから前記使用者の手が離隔する移動を前記音声アクティブ化機能を終了させる指示と解釈する。前記音声認識機能を開始及び停止させるために近距離又は遠距離無線信号を使用することもできる。
ディスプレイスクリーン440は、前記使用者が前記音声認識機能をアクティブ化及び非アクティブ化するためのさらに他の方法を示す。本例において、制御部180は、前記音声アクティブ化機能を開始及び停止するための前記使用者の身体動作を解釈するように構成される。例えば、ディスプレイスクリーン440に示すように、制御部180は、前記ディスプレイ側への前記使用者の手を移動を前記音声認識機能をアクティブ化する指示と解釈し、前記ディスプレイから前記使用者の手が離隔する移動を前記音声アクティブ化機能を終了させる指示と解釈する。前記音声認識機能を開始及び停止させるために近距離又は遠距離無線信号を使用することもできる。
従って、本発明の一実施形態によれば、前記音声アクティブ化機能が開始されて停止されるため、前記音声認識機能が継続して行われない。すなわち、前記音声認識機能が継続的に前記アクティブ状態を維持する場合、前記移動端末機のリソースの量は本発明の前記実施形態に比べて増加する。
さらに、図5を参照して説明したように、前記音声認識機能がアクティブ化すると、制御部180は、音声命令認識のための参照として利用される特定データベースのドメインをディスプレイ151上のメニューリストに関連するドメインに特定する。次に、特定メニューが前記メニューリストから選択されるか実行される場合、前記データベースの前記ドメインは、前記特定メニューの前記選択されたメニュー又は下位メニューに関する情報に特定される。
さらに、前記特定メニューが音声命令又はタッチ入力により選択されるか実行される場合、制御部180は、前記特定メニューの下位メニューに関するヘルプ情報を音声メッセージ、ポップアップウィンドウ、又はバルーンヘルプの形態で出力することができる。例えば、図6Bに示すように、前記使用者がタッチ又は音声動作により「マルチメディアメニュー」を選択すると、制御部180は、前記「マルチメディアメニュー」の前記下位メニュー(例えば、放送、カメラ、テキストビューア、ゲームなど)に関する情報をバルーンヘルプ情報441として表示する。あるいは、制御部180は、前記ヘルプ情報を含む音声信号(Broadcasting, camera, text biewer, and game are selectable:放送、カメラ、テキストビューア、ゲームが選択可能)442を出力することができる。次に、前記使用者は、音声命令を利用するか、タッチ動作により、前記表示されたヘルプオプションの1つを選択することができる。
図6Cは、使用者が自分の身体動作(本例においては、使用者の手振り)を利用してメニューアイテムを選択する実施形態を示す。より詳しくは、前記使用者が使用者の指をメニューアイテム443の近くに移動すると、制御部180は、メニュー443に関連する下位メニュー444を表示する。制御部180は、例えば、センシング部140により前記使用者の身体動作情報を認識することができる。さらに、前記表示されたヘルプ情報は、透明度又は輝度が前記使用者の距離によって制御されるように表示できる。すなわち、前記使用者の手が近くなるほど前記表示されたアイテムがさらに強調されるようにすることができる。
前述したように、制御部180は、様々な方法に基づいて前記音声認識機能の開始及び停止を判断するように構成できる。例えば、前記使用者は、ソフト又はハードボタンを選択/操作することができ、前記タッチスクリーン上の任意の位置をタッチすることができる。制御部180は、前記音声認識機能のアクティブ化を所定時間維持することもでき、前記所定時間の経過後、前記アクティブ化を自動で終了することもできる。また、制御部180は、特定ボタンの入力又はタッチ動作が行われたときにのみ前記アクティブ化を維持し、前記入力が解除されると、前記アクティブ化を自動で終了することができる。制御部180は、前記音声命令が所定時間の間入力されない場合、前記アクティブ化過程を終了することもできる。
図7Aは、本発明の一実施形態による移動端末機で音声命令を認識する方法を示すフローチャートである。図7Aを参照すると、前記音声認識機能がアクティブ化した場合、制御部180は、音声命令認識のための参照として用いられるデータベースのドメインをディスプレイ151上に表示されるメニュー又は前記メニューの下位メニューに関連するドメインに特定する(S201)。また、前記使用者は、正確なメニュー名を利用するか、自然言語(例えば、英語)を利用して、前記音声命令を入力する(S202)。
次に、制御部180は、メモリ160に前記入力された音声命令を保存する(S203)。さらに、前記音声命令が特定化されたドメイン下に入力される場合、制御部180は、音声認識アルゴリズムを利用して、前記特定化されたドメインに基づいて前記音声命令の文脈及び内容を分析する。また、前記音声命令は、分析のためにテキストタイプ情報に変換され(S204)、次に、メモリ160の特定データベースに保存される。しかしながら、前記音声命令をテキストタイプ情報に変換する段階は、省略できる。
その後、前記音声命令の前記文脈及び内容を分析するために、制御部180は、前記音声命令の特定単語又はキーワードを検出する(S205)。前記検出された単語又はキーワードに基づいて、制御部180は、前記音声命令の前記文脈及び内容を分析し、前記特定データベースに保存された情報を参照して前記音声命令の意味を判断する(S206)。
さらに、前述したように、参照として用いられる前記データベースは、特定されたドメインを含み、前記データベースに基づいて判断された前記音声命令の意味に対応する機能又はメニューが行われる(S207)。また、音声認識のための前記データベースが特定メニューに関連する各機能に特定されるため、前記認識率及び前記音声命令を認識する速度が向上し、前記移動端末機で利用されるリソースの量が減少する。なお、前記認識率は特定メニューに予め設定された名前との一致率を意味する。
入力された音声命令に対する前記認識率は、前記音声命令の特定機能又はメニューに関する情報の数によっても判断できる。従って、前記入力された音声命令に対する前記認識率は、前記情報が前記音声命令に含まれる特定機能又はメニュー(例えば、メニュー名)と正確に一致する場合に向上する。
より詳しく説明すると、図7Bは、本発明の一実施形態による移動端末機の音声命令を認識する方法を示す。図7Bに示すように、前記使用者は、「I want to see my pictures(私は、私の写真を見たい)」という6つの単語からなる自然言語で音声命令を入力する。この場合、前記認識率は、特定メニュー(例えば、フォトアルバム)に関連する意味のある単語(例えば、see、pictures)の数に基づいて判断できる。さらに、制御部180は、前記音声命令に含まれる前記単語が特定機能又はメニューに関連する意味のある単語であるか否かを、前記データベースに保存された前記情報に基づいて判断できる。例えば、前記特定メニューと関係ない前記自然言語音声命令に含まれる意味のない単語は、主語(I)、前置詞(to)、及び所有代名詞(my)である。
また、前記自然言語は、人間が一般的に使う言語であり、人工言語とは反対の概念を有する。さらに、前記自然言語は、自然言語処理アルゴリズムを用いて処理される。前記自然言語は、特定メニューに関連する正確な名前を含むこともあり、含まないこともあるが、これは、音声命令を完全かつ正確に認識することを困難にする原因となることもある。従って、本発明の一実施形態によれば、音声命令が所定レベル以上の認識率を有する場合(例えば、80%)、制御部180は、前記認識が正確であると判断する。
さらに、制御部180が複数のメニューが近い意味を有すると判断した場合、制御部180は、前記複数のメニューを表示し、前記使用者は、前記表示されたメニューの1つを選択してその機能が実行されるようにすることができる。さらに、相対的に高い認識率を有するメニューが優先的に表示されるか、他のメニューより目立つように表示される。
例えば、図8は、本発明の一実施形態による移動端末機の音声認識率に関するメニューを表示する方法を示す図である。図8に示すように、相対的に高い認識率を有するメニューアイコンは、ディスプレイスクリーン510の中央部分に表示されるか、ディスプレイスクリーン520に示すように、大きく又は濃く表示される。前記高い認識率を有するメニューアイコンを優先的に表示した後、相対的に低い認識率を有するメニューを順に表示することもできる。
さらに、制御部180は、前記メニューのサイズ、位置、色、輝度の少なくとも1つを変更するか、認識率の高い順に強調表示することにより、前記複数のメニューを目立つように表示することができる。前記メニューの透明度は、適切に変更又は制御される。
さらに、図8の下部に示すように、使用者が高い選択率で選択するメニューは、更新されるか、認識率を有するように設定される。すなわち、制御部180は、前記使用者選択の履歴を保存し(S301)、学習過程を行って(S302)使用者により選択されたメニューオプションに対する特定認識率を他のメニューオプションより高く設定する(S303)。従って、メニューが使用者により選択された回数を前記メニューの認識率に適用できる。よって、同一又は類似の発音又は内容で入力される音声命令は、使用者が特定メニューを選択した回数によって異なる認識率を有する。
さらに、制御部180は、前記使用者が特定機能を実行した時間を保存することができる。例えば、使用者は、月曜日から金曜日まで目覚める度に電子メール又は未読メッセージをチェックすることが多い。このような時間情報は、前記認識率を向上させるために利用される。前記移動端末機の状態(例えば、待ち受けモードなど)も前記認識率を向上させるために利用される。例えば、前記使用者は、使用者の移動端末機の電源をつけたとき、前記移動端末機が閉状態から開状態となったときなどに、電子メール又は未読メッセージをチェックすることができる。
図9は、本発明の他の実施形態による移動端末機の音声命令認識方法を説明するための図である。図9に示すように、前記使用者は、前記音声認識機能をアクティブ化し、前記音声命令「I want to see my pictures」を入力する。次に、制御部180は、音声命令認識のためのデータベースのドメインを前記表示されたサブメニューに関連するドメインに特定する。次に、制御部180は、前記音声命令を解釈し(S401)、本例においては、特定値(例えば、80%)以上の可能性を有する複数のメニューを表示する(S402)。図9のディスプレイスクリーン610に示すように、制御部180は、4つのマルチメディアメニューを表示する。
制御部180はまた、最も高い可能性を有するメニュー(例えば、本例においては、「フォトアルバム」メニューオプション621)を目立つように表示する。次に、前記使用者は、前記表示されたメニューのうち任意の1つを選択し、前記選択されたメニューに対応する機能を行うことができる。図9に示すように、前記使用者は、フォトアルバムメニューオプション621を選択し、制御部180は、ディスプレイスクリーン620に示すように、前記選択されたフォトアルバム内の写真を表示する。
さらに、図9の下部の段階S402に示すように、制御部180は、1つのメニューのみが前記所定の可能性より高いと判断される場合、機能を直ちに行うこともできる。すなわち、制御部180は、フォトアルバムメニューオプション621が所定閾値より高い認識率又は可能性を有する唯一のメニューであると判断される場合、前記使用者がフォトアルバムメニューオプション621を選択することなく、ディスプレイスクリーン620に示すように、前記フォトアルバム内の写真を直ちに表示する。さらに、メニューが「フォトアルバム」のような正確な名前を有しているが、メモリ160は、「フォト、写真、アルバム」などのメニューに関連する複数の情報を保存することができる。
さらに、図6Bに関連して前述したように、制御部180は、動作状態又はモード(例えば、音声認識機能を示すモード)によって音声命令又はタッチ入力を用いて特定メニューが選択されるか実行される場合は、前記使用者にヘルプ情報を出力することもできる。また、前記使用者は、環境設定メニューで提供される適切なメニューオプションを利用して前記ヘルプを出力するための前記動作モードを設定することができる。従って、使用者は、高いレベルの技術を備えなくても本発明の移動端末機を動作させることができる。すなわち、多くの高齢者は、移動端末機により提供される多様なメニューの操作に慣れていない。しかしながら、本発明の前記移動端末機を利用すると、前記移動端末機により提供される複雑なユーザインタフェースに詳しくない使用者でも前記移動端末機を容易に操作することができる。
さらに、前記音声命令が複数の意味を有していると制御部180が認識する場合(例えば、自然言語音声命令が正確なメニュー名を含まない場合、すなわち、メニューが、「マルチメディア」カテゴリーに属するが、「カメラ」、「フォトアルバム」、「ビデオ」のうち正確な名前を有しない場合)、制御部180は、所定値(例えば、80%)以上の認識率を有する複数のメニューを表示する。
図10は、本発明の一実施形態による移動端末機の音声命令を認識するために制御部180により用いられる複数のデータベースを示す図である。本実施形態において、前記データベースは、制御部180が音声命令の意味を判断するために利用する情報を保存するものであり、情報の特性によって任意の数のデータベースでもよい。さらに、情報特性に応じて構成されたそれぞれのデータベースは、制御部180の制御下で持続的な学習により更新される。
例えば、前記学習過程は、使用者の音声と該当単語とを対応させようと試みる。例えば、使用者が韓国語で「センイル(誕生日)」と発音したが、「センファル(生活)」と認識された場合、使用者が「センファル」を「センイル」に修正することにより、その後前記使用者により入力される同一の発音が「センイル」と認識されるようにする。
図10に示すように、情報特性に応じた前記それぞれのデータベースは、第1データベース161、第2データベース162、第3データベース163、及び第4データベース164を含む。本実施形態において、第1データベース161は、前記マイクから入力された音声を音素、音節、又は形態素の単位で認識するための音声情報を保存し、第2データベース162は、前記認識された音声情報に基づいて音声命令の全体的な意味を判断するための情報(例えば、文法、発音正確度、文章構造など)を保存する。また、第3データベース163は、前記移動端末機の機能又はサービスのためのメニューに関する情報を保存し、第4データベース164は、前記判断された音声命令の意味の確認を使用者から取るために前記端末機から出力されるメッセージ又は音声情報を保存する。
図11は、本発明の一実施形態による移動端末機の音声認識機能の実行中の状態を示す図である。図11に示すように、制御部180が前記音声認識機能を実行中である場合、制御部180は、前記使用者に前記音声認識機能が実行中であることを通知する特定インジケータ又はアイコン500を表示する。制御部180は、前記使用者に前記音声認識機能が実行中であることを通知するために音又はメッセージを出力することもできる。
また、前述した実施形態は、前記使用者の音声命令に対する認識を示す。しかしながら、本発明においては、前記音声命令が認識中である場合、前記使用者が別途の入力機能を実行することができる。例えば、音声認識及びタッチ入力、音声認識及びボタン入力、又は音声認識もしくはタッチ/ボタン入力が同時に行われる。
さらに、制御部180は、前記音声認識機能が特定モードもしくはメニュー、又は特定動作状態で行われることを防止することができる。また、音声認識機能が適用中であることを示すオーディオ情報(例えば、音声案内又は案内情報)又はビデオ情報(例えば、図11のインジケータ500)が前記音声認識モード、メニュー、又は動作状態で表示できる。また、ヘルプ情報を出力することにより前記音声認識機能が提供中であることを示す情報が前記使用者に提供される。
図12は、本発明の一実施形態による音声命令により移動端末機の特定メニューに関する下位命令(Sub−Commands)を処理する方法を示す図である。本実施形態において、前記使用者が前記音声認識機能を予めアクティブ化していると仮定する。
図12の左側に示すように、前記使用者は、アラーム/スケジュールアイコンをタッチし、制御部180は、利用可能な機能(例えば、1.アラーム、2.スケジュール、3.やること、4.メモ)をリストで示すポップアップヘルプメニューを表示する。その後、前記使用者は、前記音声命令「TO−DO(やること)」を入力し、制御部180は、前記音声命令の意味を解釈し、ディスプレイスクリーン611に示すように、前記音声命令に対応すると判断される複数のメニューを表示する。
すなわち、ディスプレイスクリーン611に示すように、制御部180は、前記「やること」機能に関する4つのイベントを表示する。その後、前記使用者は、前記音声命令「Select number 2(2番を選択する)」を入力し、制御部180は、前記2番のオプション(Meeting 1(会議1))を選択する。その後、前記使用者は、前記音声命令「I want to delete this(これを削除したい)」を入力する。その後、制御部180は、前記使用者にこの項目の削除に関して「Yes(はい)」又は「No(いいえ)」を確認することを要求するポップアップメニュー613を表示する。その後、前記使用者は、前記音声命令「Yes(はい)」を入力し、制御部180は、図12のディスプレイスクリーン616に示すように、前記項目を削除する。
また、前記使用者から応答がない場合、制御部180は、これを肯定応答であると判断して前記下位命令を自動で実行できる。また、制御部180は、前記項目が削除されたことを前記使用者に通知する音声命令(Deleted(削除されました))615を出力する。前記メニューをタッチすることにより前記第1メニューアラーム/スケジュールを選択する代わりに、前記使用者は、他の音声命令を出力できる。また、制御部180は、前記使用者が最初に前記アラーム/スケジュールアイコンを選択すると、前記使用者に該当タスクが実行されることを通知する音声メッセージ(To−Do menu will be performed(やることのメニューが実行される))617を出力できる。
さらに、前述したように、前記特定メニューが実行される場合、制御部180は、音声命令認識のための参照として用いられるデータベースのドメインを前記実行されたメニューに関連するドメインに特定する。すなわち、前記ドメインは、前記特定メニューの下位メニューに関する情報、又は前記特定メニューから実行できる下位命令に関する情報を含む。
図13は、本発明の一実施形態による移動端末機で音声命令により地下鉄路線図を探索する方法を示す図である。本例においても、前記使用者は、予め前記音声認識機能をアクティブ化していると仮定する。また、前記使用者の音声命令又は他の入力手段を利用した操作に基づいて、制御部180が地下鉄路線図の表示に関連する前記特定メニューを行うと仮定する。
すなわち、制御部180は、ディスプレイスクリーン621に示すように前記地下鉄路線図を表示する。前述したように、前記特定メニューが実行される場合、制御部180は、音声命令認識のための参照として用いられるデータベースのドメインを前記実行されたメニューに関連するドメイン(例えば、地下鉄駅名、各駅間の距離(時間)情報)に特定する。また、前記ドメインは、前記特定メニューの前記下位メニューに関する情報、又は前記特定メニューから実行できる下位命令に関する情報を含む。
次に、制御部180は、前記使用者に出発及び到着駅の入力を要求する音声命令(Say start station and end station(出発駅及び到着駅を言って下さい))626を出力する。その後、前記使用者は、ディスプレイスクリーン621から2つの駅を選択する。すなわち、制御部180は、前記表示された地下鉄路線図から、前記使用者が駅間の所要時間を知りたいと思う2つの駅622、623を受信する。前記使用者は、前記移動端末機から要求された場合(すなわち、Say the start station and end station(出発駅と到着駅を言ってください)、音声命令を用いるか、前記2つの駅622、623をタッチすることにより、前記2つの駅を選択する。前記2つの駅を選択する他の方法も可能である。前記使用者が前記2つの駅を選択すると、制御部180は、前記選択された2つの駅を含む音声メッセージ(すなわち、the ISU station and Seoul station were selected:梨水駅及びソウル駅が選択されました)。624をスピーカから出力する音声メッセージを出力する代わりに、制御部180は、前記要求又は入力された情報と共にポップアップウィンドウを表示することもできる。
また、制御部180は、前記2つの駅が選択されると、ヘルプ情報を出力することもできる。例えば、図13のディスプレイスクリーン621に示すように、制御部180は、前記駅名及び前記地下鉄路線の色をリストで示すヘルプポップアップバルーンウィンドウを表示する。その後、前記使用者は、前記選択された2つの駅間の所要時間を要求する。前記使用者は、前記音声命令「I want to know how long it will take from Isu to Seoul Station(梨水からソウル駅までの所要時間を知りたい)」を入力することにより前記情報を要求できる。
次に、制御部180は、前記音声命令の内容と文脈を分析するために前記ドメイン内で前記地下鉄路線情報処理に関する意味のある単語(例えば、how long, take, Isu, Seoul Station)を検出する。前記分析された情報に基づいて、制御部180は、前記音声命令が前記2つの駅(Isu, Seoul Station)間の時間情報を要求する意味を有すると判断する。
また、制御部180が前記音声命令の意味を判断するとき、制御部180は、前記音声命令の判断された意味が正確か否かについて使用者の確認を要求できる。その後、制御部180は、前記2つの駅間の距離(又は、所要時間)、前記2つの駅間の停車駅数などと共に、前記地下鉄路線図に前記2つの駅を表示し、図13のディスプレイスクリーン625に示すように、前記使用者に前記結果を通知する音声メッセージ(It takes 25 minutes from ISU station and Seoul station via 9 stations(梨水駅からソウル駅まで9つの駅に停車して25分かかります))627を出力する。また、前述したように、前記使用者が特定時間内に前記確認要求に応答しない場合、制御部180はこれを肯定応答であると解釈して前記要求されたサービスに対する結果を提供する。
図14は、本発明の一実施形態による移動端末機の音声命令によりマルチメディアを再生する方法を示す図である。また、下記の説明においては、前記使用者が前記アクティブ化制御信号を入力すると、制御部180が前記音声認識機能のアクティブ化を開始すると仮定する。また、制御部180が、音声命令の入力又は他の入力部を利用した使用者の操作を受信することにより、マルチメディア再生メニューに関する特定メニューを行うと仮定する。
すなわち、ディスプレイスクリーン631に示すように、制御部180は、前記使用者が選択して再生できる曲のリストを表示する。従って、本発明において、使用者の希望するマルチメディアファイルは、音声命令により直接検索されて再生される。より詳しくは、マルチメディア再生メニューが実行されると、制御部180は、音声命令認識のための参照として用いられるデータベースのドメインを前記実行されたメニューに関連するドメインに特定する。
前述したように、前記ドメインは、前記マルチメディア再生メニューの下位メニューに関する情報、前記マルチメディア再生メニューから実行される下位命令に関する情報、又はマルチメディアに関する情報(例えば、ファイル名、再生時間、著作権者など)を含む。
さらに、制御部180は、音声命令の入力又は他の入力部を使用した使用者の操作を受信することにより、マルチメディアファイルを表示できる。図14の例において、前記使用者は、ディスプレイスクリーン631に示すように、前記ファイルリストから1つのファイルが選択された状態で、自然言語音声命令(例えば、Let’s play this song(この曲を再生しましょう))を入力する。
前記音声命令が入力されると、制御部180は、前記ドメイン内で前記選択されたメニュー処理のための前記下位メニュー又は下位命令に関する意味のある単語(例えば、play, this song)を検出する。また、制御部180は、前記検出された単語、及び前記音声命令の全体的な文脈と内容を分析することにより、前記音声命令の意味を判断する。
前記音声命令の意味が判断されると、制御部180は、前記音声命令の前記判断された意味が正確か否かに関する前記使用者の確認を取る。例えば、図13に示すように、制御部180は、前記選択された曲の再生に関して前記使用者が「Yes」又は「No」を言うように要求するポップアップウィンドウ633を表示する。制御部180は、曲2が再生する曲であるかを前記使用者に問い合わせる音声メッセージ632を出力することもできる。次に、前記使用者が「Yes」と言うと、制御部180は、ディスプレイスクリーン634に示すように前記選択された曲を出力する。
あるいは、制御部180は、前記使用者に前記選択に対する確認を要求せずに前記選択された曲を自動で再生することもできる。また、前記使用者は、制御部180が選択されたタスクに対する確認を要求するか否かをデフォルトに設定するための適切なメニューオプションを使用することもできる。さらに、前記使用者から応答がない場合、制御部180は、前記応答を肯定応答であると判断し、前記判断された音声命令を自動で実行できる。
従って、本実施形態においては、再生されるファイルが選択され、前記選択されたファイルに対する再生命令が音声命令により入力される。しかしながら、使用者が既にファイル名を知っている場合、前記ファイル名は、音声命令により上位メニューから直接入力されてもよい。
図15は、本発明の一実施形態による移動端末機で音声命令により電子メール又はテキストメッセージを送信する方法を示す図である。この場合も、本実施形態においては、前記アクティブ化制御信号が入力されると、制御部180が前記音声認識機能のアクティブ化を開始すると仮定する。また、制御部180が、音声命令の入力又は他の入力部を利用した使用者の操作を受信することにより、特定メニュー(例えば、メール/メッセージ送受信メニュー)を実行すると仮定する。
より詳しくは、メール(又は、メッセージ)送受信メニューが実行されると、制御部180は、音声命令認識のための参照として用いられるデータベースのドメインを前記実行されたメニューに関連するドメインに特定する。前記ドメインは、前記メール/メッセージ送受信メニューの下位メニューに関する情報、前記メール/メッセージ送受信メニューから実行できる下位命令に関する情報、又は送受信されたメール/メッセージに関する情報(例えば、送信機、受信機、送受信時間、タイトルなど)を含む。
また、制御部180は、音声命令の入力又は他の入力部を利用した使用者の操作を受信することにより、メール/メッセージ送受信リストを表示できる。ディスプレイスクリーン641に示すように、前記使用者は、前記音声命令「I want to reply(返信したい)」を入力する。その後、制御部180は、ディスプレイスクリーン645に示すように、前記使用者が返信できる受信メッセージを表示する。本例において、前記使用者は、ディスプレイスクリーン645に示すように、1つのメール/メッセージが前記メール/メッセージリストから選択された状態で、使用者の自然言語(例えば、Reply to this message(このメッセージに対して返信する))を使用する。
さらに、前記音声命令が入力されると、制御部180は、前記ドメイン内で前記選択されたメール/メッセージに対する返信処理に関する意味のある単語(例えば、reply, this message)を検出する。その後、制御部180は、前記検出された単語及び前記音声命令の全体的な文脈と内容を分析することにより、前記音声命令の意味(メール/メッセージ返信メニューの実行)を判断する。
前記音声命令の意味が判断されると、制御部180は、前記音声命令の前記判断された意味が正確であるか否かに対する使用者の確認を取ることができる。例えば、前記使用者の確認のために、音声メッセージ642又はテキストメッセージ643が出力される。使用者の確認のための前記メッセージが出力される場合、前記使用者は、音声又は他の入力部を利用して応答できる。前記使用者から応答がない場合、制御部180は、肯定応答であると判断し、前記判断された意味に対応する機能を自動で実行できる。その後、前記メール/メッセージ返信メニューが実行される場合、制御部180は、メール/メッセージ作成ウィンドウ644に前記選択された相手のアドレス/電話番号を自動で入力する。
従って、本実施形態において、返信されるメール/メッセージがまず選択され、前記選択されたメール/メッセージに対する返信命令が音声命令を用いて入力される。しかしながら、使用者が相手に関する情報を知っている場合、相手への前記メール/メッセージ返信は、音声命令により直接入力できる。
さらに、図15に示す実施形態は、テキストメッセージの送信に対応するように変更できる。より詳しくは、制御部180は、前記使用者が前記端末機に言いたいことを伝えられるように前記使用者の音声をテキストに変換するソフトウェアを含み、前記入力された音声をテキストメッセージに変換する。また、制御部180は、前記使用者が前記変換を許可するかに対して確認できるように、前記使用者に前記変換されたテキストを表示できる。その後、前記使用者は、前記移動端末機に前記テキストメッセージを所望の使用者に伝送することを要求する。
前記変形実施形態は、テキストメッセージを手で入力することが非常に面倒で退屈な過程であるため、特に有利である。多くの使用者は、様々な理由で相手に電話をかけるよりはテキストメッセージを送信することを所望するが、一つのテキストメッセージを送信するために複数のキーを手動で選択する面倒な過程は願わない。本発明の前記変形実施形態においては、前記使用者が自身の音声を使用して所望のテキスト情報を入力し、前記テキストメッセージを所望の相手に伝送することができる。
図16は、本発明の一実施形態による移動端末機で音声命令により通話を行う方法を示す図である。前述した実施形態と同様に、本実施形態は、前記使用者が前記アクティブ化制御信号を入力すると、制御部180が前記音声認識機能をアクティブ化すると仮定する。また、制御部180が、音声命令の入力又は他の入力部を利用した使用者の操作を受信することにより、通話に関する特定メニュー(例えば、最近受信された通話に関する電話帳又はメニューリスト)を行うと仮定する。
通話に関する前記メニューが実行されると、制御部180は、音声命令認識のための参照として用いられるデータベースのドメインを前記通話に関するドメインに特定する。さらに、前記ドメインは、発信通話、受信通話、不在着信などに関する情報、及び各電話関連情報(例えば、発信時間、受信時間、送信機、受信機、通話時間、通話回数等)を含む。
また、制御部180は、音声命令の入力又は他の入力部を利用した使用者の操作を受信することにより、通話リストを表示する。すなわち、前記使用者は、自身の自然言語を用いて前記音声命令(例えば、I want to see the received phone calls(着信履歴を見たい))を入力する。
前記音声命令が入力されると、制御部180は、前記ドメイン内で前記通話に関する意味のある単語(例えば、see, received, phone, calls)を検出し、前記検出された単語及び前記音声命令の全体的な文脈と内容を分析することにより、前記音声命令が「着信履歴を出力してください」という意味を有すると判断する。前記音声命令の意味が判断されると、制御部180は、ディスプレイスクリーン712に示すように、着信履歴のリストを出力する。
さらに、前記使用者は、アイテムが前記出力されたリストから選択された状態で、「Call this person(この人に電話をかける)」という前記音声命令を入力する。その結果、制御部180は、前記音声命令が、「選択された受信通話の相手に電話をかけてください」という意味を有すると判断する。その後、制御部180は、前記音声命令の前記判断された意味が正確か否かに対する前記使用者の確認を取る。すなわち、制御部180は、音声メッセージ(Do you want to call with Richard?(リチャードに電話をかけますか?))713又はテキストタイプメッセージ715を出力できる。
前記使用者は、音声又は他の入力部により応答できる。前述したように、前記使用者から応答がない場合、制御部180は、肯定応答であると判断して前記判断された意味に対応する機能を自動で実行できる。また、制御部180は、通話接続中であることを示すメッセージ(Call connection is being made:通話接続中です)714を出力する。
従って、本実施形態において、通話相手が通話リストから選択され、前記選択された通話相手への通話命令が音声命令により入力される。しかしながら、使用者が予め前記通話相手に関する情報を知っている場合、前記相手への通話は、音声命令により直接実行される。
図17は、本発明の一実施形態による移動端末機で音声命令により電話帳情報を使用する方法を示す図である。他の実施形態と同様に、本実施形態においても同様の仮定を行う。すなわち、制御部180は、アクティブ化制御信号が入力されると前記音声認識機能のアクティブ化を開始し、制御部180は、音声命令又はディスプレイスクリーン720に示すような他の入力部を用いた使用者の操作の入力を受信して特定メニュー(例えば、電話帳メニュー)を選択するか、又は行うと仮定する。
電話帳メニューが実行されると、制御部180は、音声命令認識のための参照として用いられるデータベースのドメインを前記電話帳メニューの下位メニュー又は前記電話帳メニューから実行できる下位命令に関連するドメインに特定する。さらに、前記ドメインは、認識率を向上させるために特定するが、必ずしも特定する必要はない。
さらに、待ち受け状態又は前記電話帳に関連するメニューが選択された状態で、前記使用者が自然言語音声命令(例えば、Edit James(ジェームズを編集する), Add James(ジェームズを追加する), Find James(ジェームズを検索する), Call James(ジェームズと通話する), I want to send Message to James(ジェームズにメッセージを送信したい))を入力する。前記音声命令が入力されると、制御部180は、前記ドメイン内で前記通話に関する意味のある単語(例えば、Edit, Add, Find, Call, Send Message, James)を検出し、前記検出された単語及び前記音声命令の全体的な内容と文脈を分析して前記音声命令の各意味を判断する。
前記音声命令の各意味が判断されると、制御部180は、ディスプレイスクリーン722〜724に示すように、前記各音声命令に対応する機能又はメニューを実行する。また、前記機能を実行する前に、前記音声命令の前記判断された意味が正確か否かに関して使用者の確認を取ることができる。前述したように、前記使用者の確認を取るために音声メッセージ又はテキストタイプのメッセージを出力できる。
さらに、使用者の確認のための前記メッセージが出力されると、前記使用者は、音声又は他の入力手段を利用して応答できる。前記使用者から応答がない場合、制御部180は、肯定応答であると判断し、前記判断された意味に対応する機能を自動で実行できる。
図18は、本発明の一実施形態による移動端末機で音声命令により待ち受け画面を変更する方法を示す図である。この場合も、制御部180は、アクティブ化制御信号が入力されると前記音声認識機能のアクティブ化を開始し、音声命令又は他の入力部を用いた使用者の操作を受信して特定メニュー(例えば、フォトアルバムメニュー)を実行すると仮定する。
前記フォトアルバムメニューは、音声命令又は他の入力部を用いた多段階の下位メニューの入力により実行される。また、前記フォトアルバムメニューは、ディスプレイスクリーン731に示すように、自然言語音声命令(例えば、I want to see my photo album(私のフォトアルバムを見たい))により直ちに実行される。制御部180は、前記判断された音声命令の意味に応じて、ディスプレイスクリーン732に示すように、フォトアルバムメニューを実行して写真リストを出力する。その後、制御部180は、前記出力されたフォトアルバムリストから選択された一枚の写真を受信する。
この状態で、使用者の音声命令(例えば、Change my wall paper using this picture(この写真に壁紙を変更せよ))が入力されると、制御部180は、前記実行されたメニューの下位メニュー又は下位命令に関する意味のある情報(例えば、change, wall paper)を検出する。その後、制御部180は、前記検出された単語及び前記音声命令の全体的な文脈と内容を分析して前記音声命令の意味を判断する。すなわち、制御部180は、前記音声命令が「選択された写真に待ち受け画面を変更せよ」という意味を持つと判断する。
前記音声命令の意味が判断されると、制御部180は、前記選択された写真に対応するように前記待ち受け画面を表示し、前記音声命令の判断された意味が正確か否かに関して使用者の確認を取る。前記使用者の確認を取るために音声メッセージ733又はテキスト形式のメッセージ734が出力される。高い認識率又は予め設定された環境設定オプションによって、前記使用者の確認がなくても、前記判断された音声命令を直ちに実行することもできる。
使用者の確認を取るための前記メッセージが出力されると、前記使用者は、音声又は他の入力部により応答できる。前記使用者から応答がない場合、制御部180は、肯定応答であると判断し、前記判断された音声命令に対応する機能を自動で実行できる。
待ち受け画面を変更するために、本実施形態に示すように、前記フォトアルバムメニューを必ずしも先に実行する必要はなく、待ち受け画面メニューを実行した後、使用者の望む写真を検索して変更することもできる。
図19は、本発明の実施形態による移動端末機で音声命令によりマルチメディアファイルを再生する方法を示す図である。前述した実施形態と同様に、本例においては、制御部180は、アクティブ化制御信号が入力されると音声認識機能のアクティブ化を開始し、音声命令又は他の入力部を用いた使用者の操作の入力を受信して特定メニュー(例えば、マルチメディア再生メニュー)を実行すると仮定する。
使用者がマルチメディアファイルを再生するためには、前記特定メニューを実行した後、前記特定メニューの下位メニューから1つを選択してファイルリストを表示し、前記ファイルリストから1つのファイルを選択して再生する。しかしながら、本発明においては、音声命令により使用者の望むマルチメディアファイルを直ちに検索して再生することができる。
例えば、前記音声認識機能がアクティブ化した後、特定音声命令(例えば、Move to the Beetles album(ビートルズアルバムに移動せよ))が入力されると、制御部180は、ディスプレイスクリーン741に示すように前記音声命令の全体的な内容と文脈を分析して前記音声命令の意味を判断する。前記分析された情報に基づいて、制御部180は、特定機能又はメニューを実行するか、ディスプレイスクリーン742に示すように特定ファイルホルダーに移動してファイルリストを表示する。
前記ファイルリストから1つのファイルを選択した後、前記音声命令(例えば、Play this song(この曲を再生せよ), Play number 3(3番を再生せよ))が入力されると、制御部180は、前記音声命令の全体的な内容と文脈を分析して前記音声命令の意味を判断する。さらに、高い認識率又は予め設定された環境設定オプションにより、前記音声命令の意味に対応する機能又はメニューが直ちに実行される。
前記音声命令の意味が判断されると、制御部180は、前記音声命令の判断された意味が正確か否かに関して使用者の確認を取る。ここで、前記使用者の確認のために、テキスト形式のメッセージ又は音声メッセージ743を出力できる。使用者の確認のための前記メッセージが出力されると、前記使用者は、音声又は他の入力部により応答できる。前記使用者から応答がない場合、制御部180は、肯定応答であると判断し、前記判断された音声命令の機能を自動で実行することができる。その後、制御部180は、ディスプレイスクリーン744に示すように、前記選択された曲を実行又は再生する。
従って、本実施形態においては、再生するファイルを選択した後、前記選択されたファイルの再生命令を音声命令により入力したが、使用者がファイル名を知っている場合は、上位メニューから前記ファイル名を音声命令で直ちに入力して再生することもできる。
従って、本発明の実施形態によれば、音声認識機能がアクティブ化された状態で、入力された音声命令を特定形態に転換し、前記音声命令の文脈及び内容と、参照として用いられるドメインに特定された前記データベースとを比較する。また、前記音声命令の判断された意味に対応する結果値を前記移動端末機の特定構成要素として出力する。
本発明の移動端末機は、文脈及び内容に基づいて入力された音声命令の意味を判断することにより、特定機能又はサービスに関連するメニューを制御できる。また、本発明の移動端末機は、その動作状態又は動作モードに応じて音声認識のためのドメインを特定メニュー又はサービスに関連するドメインに特定することにより、音声認識率を向上させる。
また、本発明の移動端末機は、音声認識機能のアクティブ化中でも、使用者の操作を検出するために、1つ又は複数のユーザインタフェースを適用することにより、特定機能又はサービスに関連するメニューを同時に選択又は実行できる。さらに、本発明の移動端末機は、その動作状態又は動作モードによって前記音声命令の入力に関するヘルプ情報を提供することにより、使用者のスキルに関係なく音声命令を用いて特定機能又はサービスに関連するメニューを制御できる。
さらに、前記複数のドメインは、前記移動端末機で送受信される電子メールに対応する電子メールドメインと、前記移動端末機に割り当てられたスケジューリングイベントに対応するスケジューリングタスクドメインと、前記移動端末機での接触に対応する接触ドメインと、前記移動端末機に保存された電話番号に対応する電話帳ドメインと、前記移動端末機により提供される地図情報に対応する地図ドメインと、前記移動端末機に保存された写真に対応する写真ドメインと、前記移動端末機で送受信されるメッセージに対応するメッセージドメインと、前記移動端末機で行われるマルチメディア機能に対応するマルチメディアドメインと、前記移動端末機が接続できる外部装置に対応する外部装置ドメインと、前記移動端末機で送受信された通話に対応する通話履歴ドメインと、前記移動端末機で行われる設定機能に対応する設定ドメインの少なくとも2つのドメインを含むことができる。
さらに、前記認識率の前記所定の閾値は、前記移動端末機の製造業者又は前記移動端末機の使用者により設定される。
さらに、前記認識率の前記所定の閾値は、前記移動端末機の製造業者又は前記移動端末機の使用者により設定される。
また、前述した多様な実施形態は、例えば、コンピュータソフトウェア、ハードウェア、又はこれらの組み合わせを利用したコンピュータ可読媒体で実現される。ハードウェア的な実現によれば、前述した実施形態は、ASICs(application specific integrated circuits)、DSPs(digital signal processors)、DSPDs(digital signal processing devices)、PLDs(programmable logic devices)、FPGAs(field programmable gate arrays)、プロセッサ、制御部、マイクロ制御部、マイクロプロセッサ、ここに説明された前記機能を実行するように設計された他の電気的ユニット、又はこれらの選択的な組み合わせの少なくとも1つを利用して実現される。
ソフトウェア的な実現によれば、ここに説明された前記実施形態は、前述した機能又は動作のうちの1つ又は複数を行う各手順又は機能のような別個のソフトウェアモジュールと共に実現される。ソフトウェアコードは、適切なプログラム言語で作成されたソフトウェアアプリケーションにより実現される。また、ソフトウェアコードは、メモリ(例えば、メモリ160)に保存され、制御部又はプロセッサ(例えば、制御部180)により実行される。
さらに、移動端末機100は、多様な異なる構造で実現される。前記構造の例としては、折り畳み型、スライド型、ストレート型、回転型、スイング型、及びこれらの組み合わせがある。
本発明の精神や範囲から外れない限り本発明の多様な変更及び変形ができることは、当業者には明らかである。従って、本発明の請求の範囲内で行われるあらゆる変更及び変形、並びに請求の範囲の均等物は本発明の請求の範囲に含まれる。
Claims (28)
- 移動端末機であって、
前記移動端末機で音声認識機能をアクティブ化するための入力を受信する入力部と、
前記移動端末機の各メニュー又は動作に関連する複数のドメインを保存するためのメモリと、
前記音声認識機能をアクティブ化するために受信された前記入力に基づいて、前記メモリ内に含まれる前記複数のドメインのうち特定ドメインにアクセスし、前記アクセスされたドメインの言語モデル及び音響モデルに基づいて使用者言語を認識し、前記アクセスされた特定ドメイン及び前記認識された使用者言語に基づいて前記移動端末機の少なくとも1つのメニュー及び動作を判断する制御部と
を含むことを特徴とする移動端末機。 - 前記移動端末機が特定メニュー又は特定動作中であるとき、前記音声認識をアクティブ化するための前記入力が受信されると、前記アクセスされた特定ドメインは前記特定メニュー又は前記動作に対応することを特徴とする請求項1に記載の移動端末機。
- 前記特定メニュー又は動作は、マルチメディアメニュー又は動作、接触メニュー又は動作、メッセージメニュー又は動作、サウンドメニュー又は動作、システム手帳(organizer)メニュー又は動作、画面メニュー又は動作、ユーティリティメニュー又は動作、カメラメニュー又は動作、及び設定メニュー又は動作の少なくとも1つを含むことを特徴とする請求項2に記載の移動端末機。
- 前記制御部は、さらに、前記判断されたメニュー及び動作が正確に前記入力された使用者言語に対応する認識率を判断することを特徴とする請求項1に記載の移動端末機。
- 情報を表示するディスプレイ部をさらに含み、
前記制御部は、さらに、所定の閾値より高い認識率を有すると判断された前記アクセスされた特定ドメイン及び前記認識された使用者言語に基づいて、前記移動端末機の全てのメニュー及び動作を前記ディスプレイ部上に出力することを特徴とする請求項4に記載の移動端末機。 - 前記入力部は、さらに、前記表示されたメニュー及び動作の1つを選択するための音声入力命令を受信し、
前記制御部は、前記入力された音声命令を認識し、前記認識された入力音声命令が正確であるか否かを問い合わせる情報を出力することを特徴とする請求項5に記載の移動端末機。 - 前記制御部は、さらに、高い認識率から低い認識率の順に、前記所定の閾値より高い前記認識率を有する前記アクセスされた特定ドメイン及び前記認識された使用者言語に基づいて、前記移動端末機の前記全てのメニュー及び動作を前記ディスプレイ部に出力することを特徴とする請求項5に記載の移動端末機。
- 前記所定の閾値は、前記移動端末機の製造業者又は前記移動端末機の使用者により設定されることを特徴とする請求項5に記載の移動端末機。
- 前記制御部は、さらに、前記メニュー又は動作のサイズ、位置、色、輝度、及びハイライトの少なくとも1つを制御して、最も高い認識率を有するメニュー又は動作を前記ディスプレイ部に区別して表示することを特徴とする請求項5に記載の移動端末機。
- 前記制御部は、さらに、前記移動端末機の特定メニュー又は動作が以前に選択された回数を判断し、前記特定メニュー又は動作が以前に選択されたと前記判断された回数に基づいて、前記特定メニュー又は動作に対する前記認識率を調整することを特徴とする請求項4に記載の移動端末機。
- 前記入力部は、
(1)前記音声認識機能をアクティブ化するためにタッチされるタッチソフトボタンと、
(2)前記音声認識機能をアクティブ化するために押圧又は操作されるハードボタンと、
(3)前記音声認識機能をアクティブ化するためにタッチされる前記入力部内に含まれるタッチスクリーンの任意の位置と、
(4)前記音声認識機能をアクティブ化するために入力される衝撃音と、
(5)ローカル領域無線信号又は遠隔領域無線信号と、
(6)使用者の身体情報の少なくとも1つを含むことを特徴とする請求項1に記載の移動端末機。 - 前記入力された使用者言語を認識するために前記制御部により使用される音声又は発音情報を保存する第1データベースと、
前記入力された使用者言語を認識するために前記制御部により使用される単語、キーワード、又は文章情報を保存する第2データベースと、
前記移動端末機の各機能又はメニューに関する情報を保存する第3データベースと、
前記制御部が前記入力された使用者言語の意味を判断中であることを使用者に通知するために出力するヘルプ情報を保存する第4データベースとをさらに含むことを特徴とする請求項1に記載の移動端末機。 - 前記制御部は、さらに、前記音声認識機能がアクティブ化状態にあることを示すオーディオ又はビデオ情報を出力することを特徴とする請求項1に記載の移動端末機。
- 前記複数のドメインは、前記移動端末機で送受信される電子メールに対応する電子メールドメインと、前記移動端末機に割り当てられたスケジューリングイベントに対応するスケジューリングタスクドメインと、前記移動端末機での接触に対応する接触ドメインと、前記移動端末機に保存された電話番号に対応する電話帳ドメインと、前記移動端末機により提供される地図情報に対応する地図ドメインと、前記移動端末機に保存された写真に対応する写真ドメインと、前記移動端末機で送受信されるメッセージに対応するメッセージドメインと、前記移動端末機で行われるマルチメディア機能に対応するマルチメディアドメインと、前記移動端末機が接続できる外部装置に対応する外部装置ドメインと、前記移動端末機で送受信された通話に対応する通話履歴ドメインと、前記移動端末機で行われる設定機能に対応する設定ドメインの少なくとも2つのドメインを含むことを特徴とする請求項1に記載の移動端末機。
- 移動端末機の制御方法であって、
前記移動端末機で音声認識機能をアクティブ化するための入力を受信する段階と、
前記音声認識機能をアクティブ化するために受信された前記入力に基づいて、前記移動端末機のメモリに保存された複数のドメインのうち特定ドメインにアクセスする段階と、
前記アクセスされたドメインの言語モデル及び音響モデルに基づいて入力された使用者言語を認識する段階と、
前記アクセスされた特定ドメイン及び前記認識された使用者言語に基づいて前記移動端末機の少なくとも1つのメニュー及び動作を出力する段階と
を含むことを特徴とする移動端末機の制御方法。 - 前記移動端末機が特定メニュー又は動作中であるとき、前記音声認識をアクティブ化するための前記入力が受信されると、前記アクセスされた特定ドメインは、前記特定メニュー又は動作に対応することを特徴とする請求項15に記載の移動端末機の制御方法。
- 前記特定メニュー又は動作は、マルチメディアメニュー又は動作、接触メニュー又は動作、メッセージメニュー又は動作、サウンドメニュー又は動作、システム手帳(organizer)メニュー又は動作、画面メニュー又は動作、ユーティリティメニュー又は動作、カメラメニュー又は動作、及び設定メニュー又は動作の少なくとも1つを含むことを特徴とする請求項16に記載の移動端末機の制御方法。
- 前記アクセスされた特定ドメイン及び前記認識された使用者言語に基づいて、前記移動端末機の少なくとも1つのメニュー及び動作を判断する段階と、
前記判断されたメニュー及び動作が前記入力された使用者言語に正確に対応する認識率を判断する段階とをさらに含むことを特徴とする請求項15に記載の移動端末機の制御方法。 - 所定の閾値より高い認識率を有すると判断された前記アクセスされた特定ドメイン及び前記認識された使用者言語に基づいて、前記移動端末機の全てのメニュー及び動作を前記移動端末機のディスプレイ部に出力する段階をさらに含むことを特徴とする請求項18に記載の移動端末機の制御方法。
- 前記表示されたメニュー及び動作の1つを選択するための音声入力命令を受信する段階と、
前記入力された音声命令を認識する段階と、
前記認識された入力音声命令が正確であるか否かを問い合わせる情報を出力する段階とをさらに含むことを特徴とする請求項19に記載の移動端末機の制御方法。 - 前記所定の閾値より高い認識率を有する前記アクセスされた特定ドメイン及び前記認識された使用者言語に基づいて、前記移動端末機の前記全てのメニュー及び動作を高い認識率から低い認識率の順に前記ディスプレイ部に出力する段階をさらに含むことを特徴とする請求項19に記載の移動端末機の制御方法。
- 前記所定の閾値は、前記移動端末機の製造業者又は前記移動端末機の使用者により設定されることを特徴とする請求項19に記載の移動端末機の制御方法。
- 前記メニュー又は動作のサイズ、位置、色、輝度、及びハイライトの少なくとも1つを制御して、最も高い認識率を有するメニュー又は動作を前記ディスプレイ部に区別して表示する段階をさらに含むことを特徴とする請求項19に記載の移動端末機の制御方法。
- 前記移動端末機の特定メニュー又は動作が以前に選択された回数を判断し、前記特定メニュー又は動作が以前に選択されたと前記判断された回数に基づいて、前記特定メニュー又は動作に対する前記認識率を調整する段階をさらに含むことを特徴とする請求項18に記載の移動端末機の制御方法。
- 前記入力を受信する段階は、
(1)前記音声認識機能をアクティブ化するためにタッチされるタッチソフトボタン、
(2)前記音声認識機能をアクティブ化するために押されるか操作されるハードボタン、
(3)前記音声認識機能をアクティブ化するためにタッチされる前記入力部に含まれるタッチスクリーンの任意の位置、
(4)前記音声認識機能をアクティブ化するために入力される衝撃音、
(5)ローカル領域無線信号又は遠隔領域無線信号、
(6)使用者からの身体情報のうち少なくとも1つにより発生する信号を受信する段階であることを特徴とする請求項15に記載の移動端末機の制御方法。 - 前記入力された使用者言語を認識するために使用される音声又は発音情報を第1データベースに保存する段階と、
前記入力された使用者言語を認識するために使用される単語、キーワード、又は文章情報を第2データベースに保存する段階と、
前記移動端末機の各機能又はメニューに関する情報を第3データベースに保存する段階と、
前記入力された使用者言語の意味が判断中であることを使用者に通知するために出力するヘルプ情報を第4データベースに保存する段階とをさらに含むことを特徴とする請求項15に記載の移動端末機の制御方法。 - 前記音声認識機能がアクティブ状態にあることを示すオーディオ又はビデオ情報を出力する段階をさらに含むことを特徴とする請求項15に記載の移動端末機の制御方法。
- 前記複数のドメインは、
前記移動端末機で送受信される電子メールに対応する電子メールドメインと、前記移動端末機に割り当てられたスケジューリングイベントに対応するスケジューリングタスクドメインと、前記移動端末機での接触に対応する接触ドメインと、前記移動端末機に保存された電話番号に対応する電話帳ドメインと、前記移動端末機により提供される地図情報に対応する地図ドメインと、前記移動端末機に保存された写真に対応する写真ドメインと、前記移動端末機で送受信されるメッセージに対応するメッセージドメインと、前記移動端末機で行われるマルチメディア機能に対応するマルチメディアドメインと、前記移動端末機が接続できる外部装置に対応する外部装置ドメインと、前記移動端末機で送受信された通話に対応する通話履歴ドメインと、前記移動端末機で行われる設定機能に対応する設定ドメインのうち少なくとも2つのドメインを含むことを特徴とする請求項15に記載の移動端末機の制御方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080032843A KR101521908B1 (ko) | 2008-04-08 | 2008-04-08 | 이동 단말기 및 그 메뉴 제어방법 |
KR1020080032841A KR20090107364A (ko) | 2008-04-08 | 2008-04-08 | 이동 단말기 및 그 메뉴 제어방법 |
KR1020080033350A KR101521909B1 (ko) | 2008-04-10 | 2008-04-10 | 이동 단말기 및 그 메뉴 제어방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009253970A true JP2009253970A (ja) | 2009-10-29 |
Family
ID=40429759
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008274952A Withdrawn JP2009253970A (ja) | 2008-04-08 | 2008-10-24 | 移動端末機及びそのメニュー制御方法 |
Country Status (3)
Country | Link |
---|---|
US (4) | US8958848B2 (ja) |
EP (1) | EP2109295B1 (ja) |
JP (1) | JP2009253970A (ja) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102611799A (zh) * | 2012-03-21 | 2012-07-25 | 上海车音网络科技有限公司 | 联系人号码的获取方法、装置及系统 |
JP2013045124A (ja) * | 2011-08-22 | 2013-03-04 | Kyocera Corp | 通信端末、通知プログラムおよび通知方法 |
JP2013061858A (ja) * | 2011-09-14 | 2013-04-04 | Denso Corp | インターフェース装置 |
JP2013157959A (ja) * | 2012-01-31 | 2013-08-15 | Toshiba Corp | 携帯端末機器、携帯端末機器の音声認識処理方法、およびプログラム |
WO2016121500A1 (ja) * | 2015-01-27 | 2016-08-04 | 株式会社Nttドコモ | システム及びプログラム |
CN106487976A (zh) * | 2016-10-28 | 2017-03-08 | 努比亚技术有限公司 | 移动终端拨号装置和方法 |
JP2020009011A (ja) * | 2018-07-04 | 2020-01-16 | 大日本印刷株式会社 | フォトブック作製システム及びサーバ装置 |
JP2020025272A (ja) * | 2013-06-13 | 2020-02-13 | アップル インコーポレイテッドApple Inc. | 音声コマンドによって開始される緊急電話のためのシステム及び方法 |
WO2020050475A1 (ko) * | 2018-09-05 | 2020-03-12 | 삼성전자 주식회사 | 전자 장치 및 단축 명령어에 대응하는 태스크 수행 방법 |
JP2020112932A (ja) * | 2019-01-09 | 2020-07-27 | キヤノン株式会社 | 情報処理システム、情報処理装置、制御方法、プログラム |
JP2020112933A (ja) * | 2019-01-09 | 2020-07-27 | キヤノン株式会社 | 情報処理システム、情報処理装置、制御方法、プログラム |
US11568863B1 (en) * | 2018-03-23 | 2023-01-31 | Amazon Technologies, Inc. | Skill shortlister for natural language processing |
JP7333761B2 (ja) | 2020-01-30 | 2023-08-25 | シャープ株式会社 | システム及び画像形成システム |
Families Citing this family (311)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8645137B2 (en) | 2000-03-16 | 2014-02-04 | Apple Inc. | Fast, language-independent method for user authentication by voice |
ITFI20010199A1 (it) | 2001-10-22 | 2003-04-22 | Riccardo Vieri | Sistema e metodo per trasformare in voce comunicazioni testuali ed inviarle con una connessione internet a qualsiasi apparato telefonico |
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US9053089B2 (en) | 2007-10-02 | 2015-06-09 | Apple Inc. | Part-of-speech tagging using latent analogy |
US8595642B1 (en) | 2007-10-04 | 2013-11-26 | Great Northern Research, LLC | Multiple shell multi faceted graphical user interface |
US8165886B1 (en) | 2007-10-04 | 2012-04-24 | Great Northern Research LLC | Speech interface system and method for control and interaction with applications on a computing system |
US10002189B2 (en) | 2007-12-20 | 2018-06-19 | Apple Inc. | Method and apparatus for searching using an active ontology |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US8065143B2 (en) | 2008-02-22 | 2011-11-22 | Apple Inc. | Providing text input using speech data and non-speech data |
US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
KR20090107365A (ko) * | 2008-04-08 | 2009-10-13 | 엘지전자 주식회사 | 이동 단말기 및 그 메뉴 제어방법 |
US8958848B2 (en) | 2008-04-08 | 2015-02-17 | Lg Electronics Inc. | Mobile terminal and menu control method thereof |
US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US8464150B2 (en) | 2008-06-07 | 2013-06-11 | Apple Inc. | Automatic language identification for dynamic text processing |
KR101502003B1 (ko) * | 2008-07-08 | 2015-03-12 | 엘지전자 주식회사 | 이동 단말기 및 그 텍스트 입력 방법 |
US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
JP4720874B2 (ja) * | 2008-08-14 | 2011-07-13 | ソニー株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
US8768702B2 (en) | 2008-09-05 | 2014-07-01 | Apple Inc. | Multi-tiered voice feedback in an electronic device |
US8898568B2 (en) | 2008-09-09 | 2014-11-25 | Apple Inc. | Audio user interface |
US8712776B2 (en) | 2008-09-29 | 2014-04-29 | Apple Inc. | Systems and methods for selective text to speech synthesis |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
KR20100045188A (ko) * | 2008-10-23 | 2010-05-03 | 삼성전자주식회사 | 원격 조정 장치 및 상기 원격 조정 장치를 이용하여 디바이스를 제어하는 방법 |
JP5247384B2 (ja) * | 2008-11-28 | 2013-07-24 | キヤノン株式会社 | 撮像装置、情報処理方法、プログラムおよび記憶媒体 |
WO2010067118A1 (en) | 2008-12-11 | 2010-06-17 | Novauris Technologies Limited | Speech recognition involving a mobile device |
US8315608B2 (en) * | 2008-12-17 | 2012-11-20 | Steve Cha | Easy call for content |
US8862252B2 (en) | 2009-01-30 | 2014-10-14 | Apple Inc. | Audio user interface for displayless electronic device |
US9280971B2 (en) * | 2009-02-27 | 2016-03-08 | Blackberry Limited | Mobile wireless communications device with speech to text conversion and related methods |
US8380507B2 (en) | 2009-03-09 | 2013-02-19 | Apple Inc. | Systems and methods for determining the language to use for speech generated by a text to speech engine |
US8542186B2 (en) | 2009-05-22 | 2013-09-24 | Motorola Mobility Llc | Mobile device with user interaction capability and method of operating same |
US10255566B2 (en) | 2011-06-03 | 2019-04-09 | Apple Inc. | Generating and processing task items that represent tasks to perform |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US10540976B2 (en) * | 2009-06-05 | 2020-01-21 | Apple Inc. | Contextual voice commands |
US9431006B2 (en) | 2009-07-02 | 2016-08-30 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
US9111538B2 (en) * | 2009-09-30 | 2015-08-18 | T-Mobile Usa, Inc. | Genius button secondary commands |
US8995625B2 (en) * | 2009-09-30 | 2015-03-31 | T-Mobile Usa, Inc. | Unified interface and routing module for handling audio input |
US8682649B2 (en) | 2009-11-12 | 2014-03-25 | Apple Inc. | Sentiment prediction from textual data |
KR101664430B1 (ko) | 2009-11-13 | 2016-10-10 | 삼성전자주식회사 | 리모트 ui 서비스 제공 방법 및 장치 |
US8665227B2 (en) * | 2009-11-19 | 2014-03-04 | Motorola Mobility Llc | Method and apparatus for replicating physical key function with soft keys in an electronic device |
US20110158222A1 (en) * | 2009-12-28 | 2011-06-30 | Duncan Kerr | Cellular telephone systems with support for converting voice calls to data sessions |
US8381107B2 (en) | 2010-01-13 | 2013-02-19 | Apple Inc. | Adaptive audio feedback system and method |
US8311838B2 (en) | 2010-01-13 | 2012-11-13 | Apple Inc. | Devices and methods for identifying a prompt corresponding to a voice input in a sequence of prompts |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
WO2011089450A2 (en) | 2010-01-25 | 2011-07-28 | Andrew Peter Nelson Jerram | Apparatuses, methods and systems for a digital conversation management platform |
US9413869B2 (en) * | 2010-02-10 | 2016-08-09 | Qualcomm Incorporated | Mobile device having plurality of input modes |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
US8296151B2 (en) * | 2010-06-18 | 2012-10-23 | Microsoft Corporation | Compound gesture-speech commands |
US8713021B2 (en) | 2010-07-07 | 2014-04-29 | Apple Inc. | Unsupervised document clustering using latent semantic density analysis |
US8359020B2 (en) * | 2010-08-06 | 2013-01-22 | Google Inc. | Automatically monitoring for voice input based on context |
WO2012025784A1 (en) | 2010-08-23 | 2012-03-01 | Nokia Corporation | An audio user interface apparatus and method |
US8719006B2 (en) | 2010-08-27 | 2014-05-06 | Apple Inc. | Combined statistical and rule-based part-of-speech tagging for text-to-speech synthesis |
US8719014B2 (en) | 2010-09-27 | 2014-05-06 | Apple Inc. | Electronic device with text error correction based on voice recognition data |
EP2455844A1 (en) * | 2010-11-10 | 2012-05-23 | Michael Rabben | Computerized method to associatively and efficiently select elements in textual electronic lists and to operate computer-implemented programs using natural language commands |
KR101735836B1 (ko) * | 2010-12-13 | 2017-05-15 | 삼성전자주식회사 | 휴대단말기의 메뉴실행 장치 및 방법 |
JP2012128473A (ja) * | 2010-12-13 | 2012-07-05 | Sony Corp | 画像処理装置及び画像処理方法 |
JP5614275B2 (ja) * | 2010-12-21 | 2014-10-29 | ソニー株式会社 | 画像表示制御装置および画像表示制御方法 |
US10762293B2 (en) | 2010-12-22 | 2020-09-01 | Apple Inc. | Using parts-of-speech tagging and named entity recognition for spelling correction |
US9380331B2 (en) * | 2010-12-22 | 2016-06-28 | Verizon Patent And Licensing Inc. | Dynamic help content presentation methods and systems |
US10515147B2 (en) | 2010-12-22 | 2019-12-24 | Apple Inc. | Using statistical language models for contextual lookup |
US10049669B2 (en) * | 2011-01-07 | 2018-08-14 | Nuance Communications, Inc. | Configurable speech recognition system using multiple recognizers |
US8781836B2 (en) | 2011-02-22 | 2014-07-15 | Apple Inc. | Hearing assistance system for providing consistent human speech |
WO2012125075A1 (ru) * | 2011-03-16 | 2012-09-20 | Nuriev Davud Olegovich | Терминал удаленного заказа товаров и/или услуг |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US9202465B2 (en) * | 2011-03-25 | 2015-12-01 | General Motors Llc | Speech recognition dependent on text message content |
US20120280915A1 (en) * | 2011-05-02 | 2012-11-08 | Nokia Corporation | Method and apparatus for facilitating interacting with a multimodal user interface |
US20120310642A1 (en) | 2011-06-03 | 2012-12-06 | Apple Inc. | Automatically creating a mapping between text data and audio data |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US8812294B2 (en) | 2011-06-21 | 2014-08-19 | Apple Inc. | Translating phrases from one language into another using an order-based set of declarative rules |
US8706472B2 (en) | 2011-08-11 | 2014-04-22 | Apple Inc. | Method for disambiguating multiple readings in language conversion |
US8994660B2 (en) | 2011-08-29 | 2015-03-31 | Apple Inc. | Text correction processing |
KR20130032966A (ko) | 2011-09-26 | 2013-04-03 | 엘지전자 주식회사 | 사용자 인터페이스 방법 및 장치 |
JP2013072974A (ja) * | 2011-09-27 | 2013-04-22 | Toshiba Corp | 音声認識装置、方法及びプログラム |
US8762156B2 (en) | 2011-09-28 | 2014-06-24 | Apple Inc. | Speech recognition repair using contextual information |
JP2013093698A (ja) * | 2011-10-25 | 2013-05-16 | Kyocera Corp | 携帯端末、ロック制御プログラムおよびロック制御方法 |
KR101590332B1 (ko) * | 2012-01-09 | 2016-02-18 | 삼성전자주식회사 | 영상장치 및 그 제어방법 |
KR102022318B1 (ko) | 2012-01-11 | 2019-09-18 | 삼성전자 주식회사 | 음성 인식을 사용하여 사용자 기능을 수행하는 방법 및 장치 |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
US9483461B2 (en) | 2012-03-06 | 2016-11-01 | Apple Inc. | Handling speech synthesis of content for multiple languages |
US20130257753A1 (en) * | 2012-04-03 | 2013-10-03 | Anirudh Sharma | Modeling Actions Based on Speech and Touch Inputs |
KR102273603B1 (ko) | 2012-05-11 | 2021-07-05 | 가부시키가이샤 한도오따이 에네루기 켄큐쇼 | 전자 기기, 기억 매체, 프로그램, 및 표시 방법 |
US9280610B2 (en) | 2012-05-14 | 2016-03-08 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US10417037B2 (en) | 2012-05-15 | 2019-09-17 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
US8775442B2 (en) | 2012-05-15 | 2014-07-08 | Apple Inc. | Semantic search using a single-source semantic model |
WO2013185109A2 (en) | 2012-06-08 | 2013-12-12 | Apple Inc. | Systems and methods for recognizing textual identifiers within a plurality of words |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
US20130328667A1 (en) * | 2012-06-10 | 2013-12-12 | Apple Inc. | Remote interaction with siri |
KR101309794B1 (ko) * | 2012-06-27 | 2013-09-23 | 삼성전자주식회사 | 디스플레이 장치, 디스플레이 장치의 제어 방법 및 대화형 시스템 |
US9495129B2 (en) | 2012-06-29 | 2016-11-15 | Apple Inc. | Device, method, and user interface for voice-activated navigation and browsing of a document |
CN103514882B (zh) * | 2012-06-30 | 2017-11-10 | 北京百度网讯科技有限公司 | 一种语音识别方法及系统 |
CN103543930A (zh) * | 2012-07-13 | 2014-01-29 | 腾讯科技(深圳)有限公司 | 一种电子书操作控制方法及装置 |
US9576574B2 (en) | 2012-09-10 | 2017-02-21 | Apple Inc. | Context-sensitive handling of interruptions by intelligent digital assistant |
US9547647B2 (en) | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
KR102070196B1 (ko) | 2012-09-20 | 2020-01-30 | 삼성전자 주식회사 | 사용자 디바이스에서 상황 인식 서비스 제공 방법 및 장치 |
US10042603B2 (en) | 2012-09-20 | 2018-08-07 | Samsung Electronics Co., Ltd. | Context aware service provision method and apparatus of user device |
US9805721B1 (en) * | 2012-09-21 | 2017-10-31 | Amazon Technologies, Inc. | Signaling voice-controlled devices |
US8935167B2 (en) | 2012-09-25 | 2015-01-13 | Apple Inc. | Exemplar-based latent perceptual modeling for automatic speech recognition |
EP2904608B1 (en) | 2012-10-04 | 2017-05-03 | Nuance Communications, Inc. | Improved hybrid controller for asr |
KR102009423B1 (ko) * | 2012-10-08 | 2019-08-09 | 삼성전자주식회사 | 음성 인식을 이용한 미리 설정된 동작 모드의 수행 방법 및 장치 |
KR101955459B1 (ko) * | 2012-10-16 | 2019-03-11 | 에스케이플래닛 주식회사 | 모바일 웹 페이지에서 동작 기반 북마크 제공 시스템 및 방법 |
WO2014061905A1 (ko) * | 2012-10-16 | 2014-04-24 | 에스케이플래닛 주식회사 | 동작 및 음성 기반 북마크 제공 시스템 과 그 방법 |
US9183372B2 (en) * | 2012-11-07 | 2015-11-10 | Lg Electronics Inc. | Mobile terminal and control method thereof |
KR101990037B1 (ko) * | 2012-11-13 | 2019-06-18 | 엘지전자 주식회사 | 이동 단말기 및 그것의 제어 방법 |
US9190057B2 (en) * | 2012-12-12 | 2015-11-17 | Amazon Technologies, Inc. | Speech model retrieval in distributed speech recognition systems |
KR102019719B1 (ko) | 2013-01-17 | 2019-09-09 | 삼성전자 주식회사 | 영상처리장치 및 그 제어방법, 영상처리 시스템 |
BR112015018905B1 (pt) | 2013-02-07 | 2022-02-22 | Apple Inc | Método de operação de recurso de ativação por voz, mídia de armazenamento legível por computador e dispositivo eletrônico |
IN2013DE00428A (ja) * | 2013-02-14 | 2015-06-19 | Alcatel Lucent | |
KR102057629B1 (ko) * | 2013-02-19 | 2020-01-22 | 엘지전자 주식회사 | 이동 단말기 및 이동 단말기의 제어 방법 |
US20140247368A1 (en) * | 2013-03-04 | 2014-09-04 | Colby Labs, Llc | Ready click camera control |
US10572476B2 (en) | 2013-03-14 | 2020-02-25 | Apple Inc. | Refining a search based on schedule items |
US9733821B2 (en) | 2013-03-14 | 2017-08-15 | Apple Inc. | Voice control to diagnose inadvertent activation of accessibility features |
US9977779B2 (en) | 2013-03-14 | 2018-05-22 | Apple Inc. | Automatic supplementation of word correction dictionaries |
US10642574B2 (en) | 2013-03-14 | 2020-05-05 | Apple Inc. | Device, method, and graphical user interface for outputting captions |
US9368114B2 (en) | 2013-03-14 | 2016-06-14 | Apple Inc. | Context-sensitive handling of interruptions |
US10652394B2 (en) | 2013-03-14 | 2020-05-12 | Apple Inc. | System and method for processing voicemail |
WO2014144949A2 (en) | 2013-03-15 | 2014-09-18 | Apple Inc. | Training an at least partial voice command system |
US10748529B1 (en) | 2013-03-15 | 2020-08-18 | Apple Inc. | Voice activated device for use with a voice-based digital assistant |
WO2014144579A1 (en) | 2013-03-15 | 2014-09-18 | Apple Inc. | System and method for updating an adaptive speech recognition model |
CN105190607B (zh) | 2013-03-15 | 2018-11-30 | 苹果公司 | 通过智能数字助理的用户培训 |
CN105144133B (zh) | 2013-03-15 | 2020-11-20 | 苹果公司 | 对中断进行上下文相关处理 |
JP6007836B2 (ja) * | 2013-03-22 | 2016-10-12 | カシオ計算機株式会社 | 端末制御システム、端末制御方法及び電子機器 |
CN104077006B (zh) * | 2013-03-25 | 2018-08-10 | 联想(北京)有限公司 | 信息处理的方法及电子设备 |
CN104219372B (zh) * | 2013-05-31 | 2019-02-26 | 腾讯科技(深圳)有限公司 | 调整移动终端背光亮度的方法及装置 |
WO2014197336A1 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
EP3008641A1 (en) | 2013-06-09 | 2016-04-20 | Apple Inc. | Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant |
KR101749009B1 (ko) | 2013-08-06 | 2017-06-19 | 애플 인크. | 원격 디바이스로부터의 활동에 기초한 스마트 응답의 자동 활성화 |
CN108718378B (zh) | 2013-09-12 | 2020-07-17 | 麦克赛尔株式会社 | 影像记录装置和方法 |
KR102155482B1 (ko) * | 2013-10-15 | 2020-09-14 | 삼성전자 주식회사 | 디스플레이장치 및 그 제어방법 |
US10296160B2 (en) | 2013-12-06 | 2019-05-21 | Apple Inc. | Method for extracting salient dialog usage from live data |
KR102153436B1 (ko) * | 2014-01-15 | 2020-09-08 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
KR102215579B1 (ko) * | 2014-01-22 | 2021-02-15 | 삼성전자주식회사 | 대화형 시스템, 디스플레이 장치 및 그 제어 방법 |
CN103945152A (zh) * | 2014-03-14 | 2014-07-23 | 京东方科技集团股份有限公司 | 一种语音控制电视机的方法及其电视机 |
CN103885596B (zh) * | 2014-03-24 | 2017-05-24 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
JP6440513B2 (ja) * | 2014-05-13 | 2018-12-19 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 音声認識機能を用いた情報提供方法および機器の制御方法 |
US9620105B2 (en) | 2014-05-15 | 2017-04-11 | Apple Inc. | Analyzing audio input for efficient speech and music recognition |
US10592095B2 (en) | 2014-05-23 | 2020-03-17 | Apple Inc. | Instantaneous speaking of content on touch devices |
US9502031B2 (en) | 2014-05-27 | 2016-11-22 | Apple Inc. | Method for supporting dynamic grammars in WFST-based ASR |
CN106471570B (zh) | 2014-05-30 | 2019-10-01 | 苹果公司 | 多命令单一话语输入方法 |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US10078631B2 (en) | 2014-05-30 | 2018-09-18 | Apple Inc. | Entropy-guided text prediction using combined word and character n-gram language models |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
US9734193B2 (en) | 2014-05-30 | 2017-08-15 | Apple Inc. | Determining domain salience ranking from ambiguous words in natural speech |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US9760559B2 (en) | 2014-05-30 | 2017-09-12 | Apple Inc. | Predictive text input |
US9785630B2 (en) | 2014-05-30 | 2017-10-10 | Apple Inc. | Text prediction using combined word N-gram and unigram language models |
US10289433B2 (en) | 2014-05-30 | 2019-05-14 | Apple Inc. | Domain specific language for encoding assistant dialog |
US10659851B2 (en) | 2014-06-30 | 2020-05-19 | Apple Inc. | Real-time digital assistant knowledge updates |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
CN105335383B (zh) * | 2014-06-30 | 2019-12-24 | 百度在线网络技术(北京)有限公司 | 输入信息的处理方法及装置 |
US10446141B2 (en) | 2014-08-28 | 2019-10-15 | Apple Inc. | Automatic speech recognition based on user feedback |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
US10552013B2 (en) | 2014-12-02 | 2020-02-04 | Apple Inc. | Data detection |
US9564130B2 (en) * | 2014-12-03 | 2017-02-07 | Samsung Electronics Co., Ltd. | Wireless controller including indicator |
US9711141B2 (en) | 2014-12-09 | 2017-07-18 | Apple Inc. | Disambiguating heteronyms in speech synthesis |
KR20160090584A (ko) * | 2015-01-22 | 2016-08-01 | 엘지전자 주식회사 | 디스플레이 디바이스 및 그 제어 방법 |
US10152299B2 (en) | 2015-03-06 | 2018-12-11 | Apple Inc. | Reducing response latency of intelligent automated assistants |
US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
CN104796536A (zh) * | 2015-03-17 | 2015-07-22 | 乐视致新电子科技(天津)有限公司 | 一种通话过程中的语音协助方法及装置 |
US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
US10460227B2 (en) | 2015-05-15 | 2019-10-29 | Apple Inc. | Virtual assistant in a communication session |
GB2538510B (en) * | 2015-05-18 | 2019-10-16 | Humberto Jose Moran Cirkovic | Interoperating sensing devices and mobile devices |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
US10255907B2 (en) | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US20160378747A1 (en) | 2015-06-29 | 2016-12-29 | Apple Inc. | Virtual assistant for media playback |
US9787887B2 (en) * | 2015-07-16 | 2017-10-10 | Gopro, Inc. | Camera peripheral device for supplemental audio capture and remote control of camera |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
JP6634755B2 (ja) * | 2015-09-18 | 2020-01-22 | カシオ計算機株式会社 | 電子機器、システム、保存制御方法及びプログラム |
US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
WO2017138777A1 (en) * | 2016-02-12 | 2017-08-17 | Samsung Electronics Co., Ltd. | Method and electronic device for performing voice based actions |
JP2017146437A (ja) * | 2016-02-17 | 2017-08-24 | 本田技研工業株式会社 | 音声入力処理装置 |
KR20170100309A (ko) * | 2016-02-25 | 2017-09-04 | 삼성전자주식회사 | 음성 인식 제어를 제공하는 전자 장치 및 그 동작 방법 |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
JP2017173530A (ja) * | 2016-03-23 | 2017-09-28 | 富士通株式会社 | 音声入力支援プログラム、ヘッドマウントディスプレイ、音声入力支援方法および音声入力支援装置 |
CN105869654B (zh) * | 2016-03-29 | 2020-12-04 | 阿里巴巴集团控股有限公司 | 音频消息的处理方法及装置 |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US11227589B2 (en) | 2016-06-06 | 2022-01-18 | Apple Inc. | Intelligent list reading |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
DK179309B1 (en) | 2016-06-09 | 2018-04-23 | Apple Inc | Intelligent automated assistant in a home environment |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
DK179049B1 (en) | 2016-06-11 | 2017-09-18 | Apple Inc | Data driven natural language event detection and classification |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179343B1 (en) | 2016-06-11 | 2018-05-14 | Apple Inc | Intelligent task discovery |
US10438583B2 (en) * | 2016-07-20 | 2019-10-08 | Lenovo (Singapore) Pte. Ltd. | Natural language voice assistant |
US10621992B2 (en) | 2016-07-22 | 2020-04-14 | Lenovo (Singapore) Pte. Ltd. | Activating voice assistant based on at least one of user proximity and context |
US10474753B2 (en) | 2016-09-07 | 2019-11-12 | Apple Inc. | Language identification using recurrent neural networks |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
KR20180058476A (ko) * | 2016-11-24 | 2018-06-01 | 삼성전자주식회사 | 다양한 입력 처리를 위한 방법, 이를 위한 전자 장치 및 서버 |
US11281993B2 (en) | 2016-12-05 | 2022-03-22 | Apple Inc. | Model and ensemble compression for metric learning |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
CN108279839A (zh) * | 2017-01-05 | 2018-07-13 | 阿里巴巴集团控股有限公司 | 基于语音的交互方法、装置、电子设备及操作系统 |
US11204787B2 (en) | 2017-01-09 | 2021-12-21 | Apple Inc. | Application integration with a digital assistant |
US10971157B2 (en) | 2017-01-11 | 2021-04-06 | Nuance Communications, Inc. | Methods and apparatus for hybrid speech recognition processing |
US20180217810A1 (en) * | 2017-01-27 | 2018-08-02 | Motorola Mobility Llc | Context based voice commands |
US20180293359A1 (en) | 2017-04-10 | 2018-10-11 | International Business Machines Corporation | Monitoring an individual's condition based on models generated from e-textile based clothing |
US10417266B2 (en) | 2017-05-09 | 2019-09-17 | Apple Inc. | Context-aware ranking of intelligent response suggestions |
DK201770383A1 (en) | 2017-05-09 | 2018-12-14 | Apple Inc. | USER INTERFACE FOR CORRECTING RECOGNITION ERRORS |
DK201770439A1 (en) | 2017-05-11 | 2018-12-13 | Apple Inc. | Offline personal assistant |
US10395654B2 (en) | 2017-05-11 | 2019-08-27 | Apple Inc. | Text normalization based on a data-driven learning network |
US10726832B2 (en) | 2017-05-11 | 2020-07-28 | Apple Inc. | Maintaining privacy of personal information |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
US11301477B2 (en) | 2017-05-12 | 2022-04-12 | Apple Inc. | Feedback analysis of a digital assistant |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK201770427A1 (en) | 2017-05-12 | 2018-12-20 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
DK201770432A1 (en) | 2017-05-15 | 2018-12-21 | Apple Inc. | Hierarchical belief states for digital assistants |
US20180336275A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Intelligent automated assistant for media exploration |
US10311144B2 (en) | 2017-05-16 | 2019-06-04 | Apple Inc. | Emoji word sense disambiguation |
DK179560B1 (en) | 2017-05-16 | 2019-02-18 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
US10403278B2 (en) | 2017-05-16 | 2019-09-03 | Apple Inc. | Methods and systems for phonetic matching in digital assistant services |
US10664533B2 (en) | 2017-05-24 | 2020-05-26 | Lenovo (Singapore) Pte. Ltd. | Systems and methods to determine response cue for digital assistant based on context |
US10657328B2 (en) | 2017-06-02 | 2020-05-19 | Apple Inc. | Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling |
US11005993B2 (en) * | 2017-07-14 | 2021-05-11 | Google Llc | Computational assistant extension device |
US10887125B2 (en) | 2017-09-15 | 2021-01-05 | Kohler Co. | Bathroom speaker |
US11093554B2 (en) | 2017-09-15 | 2021-08-17 | Kohler Co. | Feedback for water consuming appliance |
US10448762B2 (en) | 2017-09-15 | 2019-10-22 | Kohler Co. | Mirror |
US11314215B2 (en) | 2017-09-15 | 2022-04-26 | Kohler Co. | Apparatus controlling bathroom appliance lighting based on user identity |
US11099540B2 (en) | 2017-09-15 | 2021-08-24 | Kohler Co. | User identity in household appliances |
US10445429B2 (en) | 2017-09-21 | 2019-10-15 | Apple Inc. | Natural language understanding using vocabularies with compressed serialized tries |
US10755051B2 (en) | 2017-09-29 | 2020-08-25 | Apple Inc. | Rule-based natural language processing |
CN107749298A (zh) * | 2017-10-12 | 2018-03-02 | 安徽咪鼠科技有限公司 | 一种应用于智能语音鼠标的音频块处理方法 |
CN107799124A (zh) * | 2017-10-12 | 2018-03-13 | 安徽咪鼠科技有限公司 | 一种应用于智能语音鼠标的vad检测方法 |
US10636424B2 (en) | 2017-11-30 | 2020-04-28 | Apple Inc. | Multi-turn canned dialog |
KR102503936B1 (ko) * | 2017-12-29 | 2023-02-28 | 삼성전자주식회사 | 사용자 발화를 처리하는 디스플레이 장치 및 그 디스플레이 장치의 제어 방법 |
US10733982B2 (en) | 2018-01-08 | 2020-08-04 | Apple Inc. | Multi-directional dialog |
US10733375B2 (en) | 2018-01-31 | 2020-08-04 | Apple Inc. | Knowledge-based framework for improving natural language understanding |
JP7347217B2 (ja) * | 2018-02-09 | 2023-09-20 | ソニーグループ株式会社 | 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム |
US10789959B2 (en) | 2018-03-02 | 2020-09-29 | Apple Inc. | Training speaker recognition models for digital assistants |
US10592604B2 (en) | 2018-03-12 | 2020-03-17 | Apple Inc. | Inverse text normalization for automatic speech recognition |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
CN110322876A (zh) * | 2018-03-30 | 2019-10-11 | 中华映管股份有限公司 | 语音应用系统及其方法 |
US10909331B2 (en) | 2018-03-30 | 2021-02-02 | Apple Inc. | Implicit identification of translation payload with neural machine translation |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
US10984780B2 (en) | 2018-05-21 | 2021-04-20 | Apple Inc. | Global semantic word embeddings using bi-directional recurrent neural networks |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
DK179822B1 (da) | 2018-06-01 | 2019-07-12 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
US11386266B2 (en) | 2018-06-01 | 2022-07-12 | Apple Inc. | Text correction |
US10892996B2 (en) | 2018-06-01 | 2021-01-12 | Apple Inc. | Variable latency device coordination |
DK201870355A1 (en) | 2018-06-01 | 2019-12-16 | Apple Inc. | VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS |
US10504518B1 (en) | 2018-06-03 | 2019-12-10 | Apple Inc. | Accelerated task performance |
CN108932943A (zh) * | 2018-07-12 | 2018-12-04 | 广州视源电子科技股份有限公司 | 命令词语音检测方法、装置、设备和存储介质 |
CN110874176B (zh) * | 2018-08-29 | 2024-03-29 | 斑马智行网络(香港)有限公司 | 交互方法、存储介质、操作系统和设备 |
US11010561B2 (en) | 2018-09-27 | 2021-05-18 | Apple Inc. | Sentiment prediction from textual data |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
US11170166B2 (en) | 2018-09-28 | 2021-11-09 | Apple Inc. | Neural typographical error modeling via generative adversarial networks |
US10839159B2 (en) | 2018-09-28 | 2020-11-17 | Apple Inc. | Named entity normalization in a spoken dialog system |
KR20200042627A (ko) * | 2018-10-16 | 2020-04-24 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
US11475898B2 (en) | 2018-10-26 | 2022-10-18 | Apple Inc. | Low-latency multi-speaker speech recognition |
JP7202853B2 (ja) * | 2018-11-08 | 2023-01-12 | シャープ株式会社 | 冷蔵庫 |
US10796695B2 (en) * | 2018-11-27 | 2020-10-06 | Lg Electronics Inc. | Multimedia device for processing voice command |
US11638059B2 (en) | 2019-01-04 | 2023-04-25 | Apple Inc. | Content playback on multiple devices |
CN111427529B (zh) * | 2019-01-09 | 2023-05-30 | 斑马智行网络(香港)有限公司 | 交互方法、装置、设备及存储介质 |
JP2022051970A (ja) * | 2019-02-01 | 2022-04-04 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、およびプログラム |
US11741951B2 (en) * | 2019-02-22 | 2023-08-29 | Lenovo (Singapore) Pte. Ltd. | Context enabled voice commands |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
US10855921B2 (en) | 2019-04-29 | 2020-12-01 | Sony Corporation | Techniques for controlling camera interfaces using voice commands |
DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
US11423908B2 (en) | 2019-05-06 | 2022-08-23 | Apple Inc. | Interpreting spoken requests |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
US11475884B2 (en) | 2019-05-06 | 2022-10-18 | Apple Inc. | Reducing digital assistant latency when a language is incorrectly determined |
US11140099B2 (en) | 2019-05-21 | 2021-10-05 | Apple Inc. | Providing message response suggestions |
US11496600B2 (en) | 2019-05-31 | 2022-11-08 | Apple Inc. | Remote execution of machine-learned models |
US11289073B2 (en) | 2019-05-31 | 2022-03-29 | Apple Inc. | Device text to speech |
DK180129B1 (en) | 2019-05-31 | 2020-06-02 | Apple Inc. | USER ACTIVITY SHORTCUT SUGGESTIONS |
US11360641B2 (en) | 2019-06-01 | 2022-06-14 | Apple Inc. | Increasing the relevance of new available information |
US11437031B2 (en) * | 2019-07-30 | 2022-09-06 | Qualcomm Incorporated | Activating speech recognition based on hand patterns detected using plurality of filters |
US11550540B2 (en) * | 2019-08-15 | 2023-01-10 | Lenovo (Singapore) Pte. Ltd. | Content input selection and switching |
WO2021033889A1 (en) * | 2019-08-20 | 2021-02-25 | Samsung Electronics Co., Ltd. | Electronic device and method for controlling the electronic device |
US11488406B2 (en) | 2019-09-25 | 2022-11-01 | Apple Inc. | Text detection using global geometry estimators |
CN111968637A (zh) * | 2020-08-11 | 2020-11-20 | 北京小米移动软件有限公司 | 终端设备的操作模式控制方法、装置、终端设备及介质 |
CN112181573A (zh) * | 2020-09-28 | 2021-01-05 | 北京达佳互联信息技术有限公司 | 媒体资源展示方法、装置、终端、服务器以及存储介质 |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2115210C (en) | 1993-04-21 | 1997-09-23 | Joseph C. Andreshak | Interactive computer system recognizing spoken commands |
DE19533541C1 (de) | 1995-09-11 | 1997-03-27 | Daimler Benz Aerospace Ag | Verfahren zur automatischen Steuerung eines oder mehrerer Geräte durch Sprachkommandos oder per Sprachdialog im Echtzeitbetrieb und Vorrichtung zum Ausführen des Verfahrens |
US6567778B1 (en) * | 1995-12-21 | 2003-05-20 | Nuance Communications | Natural language speech recognition using slot semantic confidence scores related to their word recognition confidence scores |
FR2761848B1 (fr) * | 1997-04-04 | 2004-09-17 | Parrot Sa | Dispositif de commande vocale pour radiotelephone, notamment pour utilisation dans un vehicule automobile |
DE19823359C1 (de) | 1998-05-15 | 1999-10-07 | Francotyp Postalia Gmbh | Vorrichtung zum Bedrucken von Postgut |
FI981154A (fi) | 1998-05-25 | 1999-11-26 | Nokia Mobile Phones Ltd | Menetelmä ja laite puheen tunnistamiseksi |
US6449496B1 (en) | 1999-02-08 | 2002-09-10 | Qualcomm Incorporated | Voice recognition user interface for telephone handsets |
US7280970B2 (en) * | 1999-10-04 | 2007-10-09 | Beepcard Ltd. | Sonic/ultrasonic authentication device |
GB2358987B (en) | 2000-02-01 | 2003-10-29 | Ericsson Telefon Ab L M | Electronic devices |
KR20010000595A (ko) | 2000-10-09 | 2001-01-05 | 신문옥 | 대화식 음성 제어가 가능한 이동전화단말기 및 그 제어 방법 |
US20020072917A1 (en) | 2000-12-11 | 2002-06-13 | Irvin David Rand | Method and apparatus for speech recognition incorporating location information |
US20020077830A1 (en) * | 2000-12-19 | 2002-06-20 | Nokia Corporation | Method for activating context sensitive speech recognition in a terminal |
US7383172B1 (en) * | 2003-08-15 | 2008-06-03 | Patrick William Jamieson | Process and system for semantically recognizing, correcting, and suggesting domain specific speech |
US20050125235A1 (en) | 2003-09-11 | 2005-06-09 | Voice Signal Technologies, Inc. | Method and apparatus for using earcons in mobile communication devices |
US20050131685A1 (en) | 2003-11-14 | 2005-06-16 | Voice Signal Technologies, Inc. | Installing language modules in a mobile communication device |
US7627313B2 (en) | 2003-12-22 | 2009-12-01 | Gigaset Communications Gmbh | Method, telecommunication system and telecommunication handset for wireless communication and telecommunication in a smart home environment |
KR100617711B1 (ko) * | 2004-06-25 | 2006-08-28 | 삼성전자주식회사 | 휴대단말기에서 음성인식구동 방법 |
US7865362B2 (en) | 2005-02-04 | 2011-01-04 | Vocollect, Inc. | Method and system for considering information about an expected response when performing speech recognition |
US7519359B2 (en) * | 2005-09-30 | 2009-04-14 | Motorola, Inc. | Voice tagging of automated menu location |
CN2865153Y (zh) | 2005-11-24 | 2007-01-31 | 庄鸿仁 | 具有语音输入功能的手机 |
WO2007118029A2 (en) | 2006-04-03 | 2007-10-18 | Vocollect, Inc. | Methods and systems for assessing and improving the performance of a speech recognition system |
KR100783105B1 (ko) | 2006-08-22 | 2007-12-07 | 삼성전자주식회사 | 음성인식 기능을 구비한 전화기의 전화통화 방법 및 장치 |
ATE543691T1 (de) * | 2006-12-20 | 2012-02-15 | Johnson Controls Tech Co | Fernanzeige-wiedergabesystem und -verfahren |
US8515757B2 (en) * | 2007-03-20 | 2013-08-20 | Nuance Communications, Inc. | Indexing digitized speech with words represented in the digitized speech |
US8676273B1 (en) * | 2007-08-24 | 2014-03-18 | Iwao Fujisaki | Communication device |
KR20070106488A (ko) | 2007-10-12 | 2007-11-01 | (주)인피니티 텔레콤 | 자연어 음성 인식 기능을 이용한 휴대폰 서비스 방법 |
US8958848B2 (en) | 2008-04-08 | 2015-02-17 | Lg Electronics Inc. | Mobile terminal and menu control method thereof |
-
2008
- 2008-06-16 US US12/140,111 patent/US8958848B2/en active Active
- 2008-10-24 EP EP08018655.4A patent/EP2109295B1/en active Active
- 2008-10-24 JP JP2008274952A patent/JP2009253970A/ja not_active Withdrawn
-
2015
- 2015-01-12 US US14/594,959 patent/US9497305B2/en active Active
-
2016
- 2016-09-30 US US15/282,523 patent/US9692865B2/en active Active
-
2017
- 2017-05-22 US US15/601,922 patent/US9900414B2/en active Active
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013045124A (ja) * | 2011-08-22 | 2013-03-04 | Kyocera Corp | 通信端末、通知プログラムおよび通知方法 |
JP2013061858A (ja) * | 2011-09-14 | 2013-04-04 | Denso Corp | インターフェース装置 |
JP2013157959A (ja) * | 2012-01-31 | 2013-08-15 | Toshiba Corp | 携帯端末機器、携帯端末機器の音声認識処理方法、およびプログラム |
CN102611799A (zh) * | 2012-03-21 | 2012-07-25 | 上海车音网络科技有限公司 | 联系人号码的获取方法、装置及系统 |
JP2020025272A (ja) * | 2013-06-13 | 2020-02-13 | アップル インコーポレイテッドApple Inc. | 音声コマンドによって開始される緊急電話のためのシステム及び方法 |
WO2016121500A1 (ja) * | 2015-01-27 | 2016-08-04 | 株式会社Nttドコモ | システム及びプログラム |
JPWO2016121500A1 (ja) * | 2015-01-27 | 2017-04-27 | 株式会社Nttドコモ | システム及びプログラム |
CN106487976A (zh) * | 2016-10-28 | 2017-03-08 | 努比亚技术有限公司 | 移动终端拨号装置和方法 |
US11568863B1 (en) * | 2018-03-23 | 2023-01-31 | Amazon Technologies, Inc. | Skill shortlister for natural language processing |
JP2020009011A (ja) * | 2018-07-04 | 2020-01-16 | 大日本印刷株式会社 | フォトブック作製システム及びサーバ装置 |
JP7147295B2 (ja) | 2018-07-04 | 2022-10-05 | 大日本印刷株式会社 | フォトブック作製システム及びサーバ装置 |
WO2020050475A1 (ko) * | 2018-09-05 | 2020-03-12 | 삼성전자 주식회사 | 전자 장치 및 단축 명령어에 대응하는 태스크 수행 방법 |
JP2020112932A (ja) * | 2019-01-09 | 2020-07-27 | キヤノン株式会社 | 情報処理システム、情報処理装置、制御方法、プログラム |
JP2020112933A (ja) * | 2019-01-09 | 2020-07-27 | キヤノン株式会社 | 情報処理システム、情報処理装置、制御方法、プログラム |
JP7286321B2 (ja) | 2019-01-09 | 2023-06-05 | キヤノン株式会社 | 情報処理システム、情報処理装置、制御方法、プログラム |
JP7327939B2 (ja) | 2019-01-09 | 2023-08-16 | キヤノン株式会社 | 情報処理システム、情報処理装置、制御方法、プログラム |
JP7333761B2 (ja) | 2020-01-30 | 2023-08-25 | シャープ株式会社 | システム及び画像形成システム |
Also Published As
Publication number | Publication date |
---|---|
US9900414B2 (en) | 2018-02-20 |
EP2109295B1 (en) | 2017-04-05 |
US20170019515A1 (en) | 2017-01-19 |
EP2109295A1 (en) | 2009-10-14 |
US9692865B2 (en) | 2017-06-27 |
US20090253463A1 (en) | 2009-10-08 |
US20170257470A1 (en) | 2017-09-07 |
US20150126252A1 (en) | 2015-05-07 |
US8958848B2 (en) | 2015-02-17 |
US9497305B2 (en) | 2016-11-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9900414B2 (en) | Mobile terminal and menu control method thereof | |
JP5481058B2 (ja) | 移動端末機及びそのメニュー制御方法 | |
US8428654B2 (en) | Mobile terminal and method for displaying menu thereof | |
RU2412463C2 (ru) | Терминал мобильной связи и способ управления его меню | |
US8543394B2 (en) | Mobile terminal and text correcting method in the same | |
US8600762B2 (en) | Mobile terminal and method for recognizing voice thereof | |
KR101462930B1 (ko) | 이동 단말기 및 그 화상통화 제어방법 | |
US8355914B2 (en) | Mobile terminal and method for correcting text thereof | |
EP2711834B1 (en) | Mobile terminal and controlling method thereof | |
US8498670B2 (en) | Mobile terminal and text input method thereof | |
KR20100010072A (ko) | 이동 단말기의 멀티태스킹을 위한 사용자 인터페이스제어방법 | |
KR101521909B1 (ko) | 이동 단말기 및 그 메뉴 제어방법 | |
KR101513635B1 (ko) | 단말기 및 그 제어 방법 | |
KR101521927B1 (ko) | 단말기 및 그 제어 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20120110 |