JP5481058B2 - 移動端末機及びそのメニュー制御方法 - Google Patents

移動端末機及びそのメニュー制御方法 Download PDF

Info

Publication number
JP5481058B2
JP5481058B2 JP2008298799A JP2008298799A JP5481058B2 JP 5481058 B2 JP5481058 B2 JP 5481058B2 JP 2008298799 A JP2008298799 A JP 2008298799A JP 2008298799 A JP2008298799 A JP 2008298799A JP 5481058 B2 JP5481058 B2 JP 5481058B2
Authority
JP
Japan
Prior art keywords
mobile terminal
input
voice command
meaning
recognition function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008298799A
Other languages
English (en)
Other versions
JP2009252238A (ja
Inventor
ジョン−ホ シン
チェ−ド カク
ジョン−クン ユン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of JP2009252238A publication Critical patent/JP2009252238A/ja
Application granted granted Critical
Publication of JP5481058B2 publication Critical patent/JP5481058B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/40Circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/74Details of telephonic subscriber devices with voice recognition means

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)
  • Mobile Radio Communication Systems (AREA)

Description

本発明は、音声命令及び移動端末機で行われる事前動作に基づいて前記移動端末機で動作を行う方法、並びにその移動端末機に関する。
移動端末機は、基本的な電話サービス以外にも、多くのさらなるサービスを提供する。例えば、使用者は移動端末機を用いてインターネットアクセス、ゲーム、ビデオ鑑賞、音楽鑑賞、画像撮影、音声ファイル記録などを行うことができる。また、移動端末機が放送番組を提供することによって、使用者はテレビ番組、スポーツ番組、ビデオなどを見ることができる。
従って、移動端末機は、使用者が端末機上で様々な機能にアクセスできるように、非常に複雑なグラフィックユーザインタフェース(GUI)を含む。例えば、使用者は、メインメニューにアクセスした後、電子メールサブメニュー、通話履歴サブメニュー、インターネットアクセスサブメニュー、写真サブメニューなどの様々なサブメニューからいずれか1つを選択することができる。使用者が特定サブメニューを選択すると、移動端末機は、サブメニュー又はオプションの他のリストを提供することにより、使用者が所望の機能を実行するために選択できるようにする。
しかしながら、このようなメニューシステムは、樹形図のような構造を有するので、使用者が最終的に所望の機能を選択するためには、いくつかの中間機能を実行しなければならない。また、移動端末機のサイズが小さいため、メニューオプションも小さくて見にくい。さらに、タッチスクリーンディスプレイを含む移動端末機の場合、特定メニューオプションをタッチする際、(メニューアイテムが隣接して表示されるため)隣接したメニューアイテムを同時にタッチしたり、間違ったメニューアイテムをタッチすることがある。
本発明は、上記問題及びその他の問題を解決するためになされたもので、音声命令の意味を認識し、その認識された音声命令に基づいて移動端末機を制御する方法、及びその移動端末機を提供することを目的とする。
本発明の他の目的は、前記認識された音声命令に基づいて前記移動端末機の様々な機能を実行するためのメニューを提供する方法、及びその移動端末機を提供することにある。
上記の目的を達成するために、本発明の一態様は、移動端末機の音声認識機能をアクティブにする入力を受信する入力部と、前記移動端末機で行われる動作に関する情報を保存するメモリと、前記音声認識機能をアクティブにする入力が受信されると前記音声認識機能をアクティブにし、前記移動端末機で行われる少なくとも1つの事前動作と音声命令に含まれる言語に基づいて、入力された前記音声命令の意味を判断し、前記移動端末機で行われる少なくとも1つの事前動作と前記音声命令に含まれる言語に基づいて、また、前記判断された入力音声命令の意味と前記移動端末機で行われる動作に関する情報とがマッチする確率に基づいて、前記判断された入力音声命令の意味に関する動作を提供する制御部とを含む、移動端末機を提供する。
本発明の他の態様は、移動端末機の音声認識機能をアクティブにする入力を受信する段階と、前記音声認識機能をアクティブにする入力が受信されると前記音声認識機能をアクティブにする段階と、前記移動端末機で行われる少なくとも1つの事前動作と音声命令に含まれる言語に基づいて、また、判断された前記入力音声命令の意味と前記移動端末機で行われる動作に関する情報とがマッチする確率に基づいて、前記判断された入力音声命令の意味に関する動作を提供する段階とを含む、移動端末機の制御方法を提供する。
上記目的を達成するために、本発明は、例えば、以下の手段を提供する。
(項目1)
移動端末機の音声認識機能をアクティブにする入力を受信する入力部と、
上記移動端末機で行われる動作に関する情報を保存するメモリと、
上記音声認識機能をアクティブにする入力が受信されると上記音声認識機能をアクティブにし、上記移動端末機で行われる少なくとも1つの事前動作と音声命令に含まれる言語に基づいて、入力された上記音声命令の意味を判断し、上記移動端末機で行われる少なくとも1つの事前動作と上記音声命令に含まれる言語に基づいて、また、上記判断された入力音声命令の意味と上記移動端末機で行われる動作に関する情報とがマッチする確率に基づいて、上記判断された入力音声命令の意味に関する動作を提供する制御部と
を含むことを特徴とする移動端末機。
(項目2)
上記制御部は、特定動作に関する上記音声命令が入力されると、中間動作の選択を要求することなく、直ちに上記特定動作に対応する機能を実行することを特徴とする項目1に記載の移動端末機。
(項目3)
上記判断された入力音声命令の意味に関して提供される動作は、所定の閾値より大きい確率を有する全ての動作を含むことを特徴とする項目1に記載の移動端末機。
(項目4)
上記所定の閾値は、上記移動端末機のメーカ又は上記移動端末機の使用者により設定されることを特徴とする項目3に記載の移動端末機。
(項目5)
上記所定の閾値は、判断された動作の数に基づいて自動的に選択されることを特徴とする項目3に記載の移動端末機。
(項目6)
上記制御部は、上記移動端末機の動作状態に基づいて、上記入力された音声命令の意味を判断するように構成されることを特徴とする項目1に記載の移動端末機。
(項目7)
上記判断された入力音声命令の意味に関して提供される動作は、上記判断された入力音声命令の意味に対応する少なくとも1つのメニューオプションを含むことを特徴とする項目1に記載の移動端末機。
(項目8)
上記制御部は、所定の閾値より高い確率を有する、上記判断された入力音声命令の意味に対応する全てのメニューオプションを出力するように構成されることを特徴とする項目7に記載の移動端末機。
(項目9)
上記制御部は、最も高い確率を有する、上記判断された入力音声命令の意味に対応するメニューオプションを、他のメニューと差別化して表示するように構成されることを特徴とする項目8に記載の移動端末機。
(項目10)
上記制御部は、上記最も高い確率を有するメニューオプションのサイズ、表示位置、色、明暗、及びハイライト情報の少なくとも1つが異なるように制御することにより、上記最も高い確率を有する、上記判断された入力音声命令の意味に対応するメニューオプションを差別化して表示することを特徴とする項目9に記載の移動端末機。
(項目11)
上記入力部は、
1)上記音声認識機能をアクティブにするためにタッチするタッチソフトボタン、
2)上記音声認識機能をアクティブにするために押圧又は操作するハードボタン、
3)上記音声認識機能をアクティブにするためにタッチする、上記入力部に含まれるタッチスクリーンの任意の位置、
4)上記音声認識機能をアクティブにするために入力される衝撃音、
5)近距離無線信号又は遠距離無線信号、
6)使用者からの身体情報信号
の少なくとも1つを含むことを特徴とする項目1に記載の移動端末機。
(項目12)
上記音声命令を認識する制御部により使用される音声又は発音情報を保存する第1データベースと、
上記音声命令を認識する制御部により使用される単語、キーワード、又は文章情報を保存する第2データベースと、
上記移動端末機の機能又はメニューに関する情報を保存する第3データベースと、
上記制御部が上記認識された音声命令の意味の判断を試みていることを使用者に通知するために出力されるヘルプ情報を保存する第4データベースと
をさらに含むことを特徴とする項目1に記載の移動端末機。
(項目13)
上記制御部は、上記音声認識機能がアクティブ状態にあることを示すオーディオ情報又はビデオ情報を出力するように構成されることを特徴とする項目1に記載の移動端末機。
(項目14)
移動端末機の音声認識機能をアクティブにする入力を受信する段階と、
上記音声認識機能をアクティブにする入力が受信されると上記音声認識機能をアクティブにする段階と、
上記移動端末機で行われる少なくとも1つの事前動作と音声命令に含まれる言語に基づいて、また、判断された上記入力音声命令の意味と上記移動端末機で行われる動作に関する情報とがマッチする確率に基づいて、上記判断された入力音声命令の意味に関する動作を提供する段階と
を含むことを特徴とする移動端末機の制御方法。
(項目15)
上記制御部は、特定動作に関する上記音声命令が入力されると、中間動作の選択を要求することなく、直ちに上記特定動作に対応する機能を実行することを特徴とする項目14に記載の移動端末機の制御方法。
(項目16)
上記判断された入力音声命令の意味に関して提供される動作は、所定の閾値より大きい確率を有する全ての動作を含むことを特徴とする項目14に記載の移動端末機の制御方法。
(項目17)
上記所定の閾値は、上記移動端末機のメーカ又は上記移動端末機の使用者により設定されることを特徴とする項目16に記載の移動端末機の制御方法。
(項目18)
上記所定の閾値は、判断された動作の数に基づいて自動的に選択されることを特徴とする項目16に記載の移動端末機の制御方法。
(項目19)
上記移動端末機で行われる少なくとも1つの事前動作と上記入力音声命令に含まれる言語に基づいて、上記入力音声命令の意味を判断する段階をさらに含むことを特徴とする項目14に記載の移動端末機の制御方法。
(項目20)
上記移動端末機の動作状態に基づいて、上記入力音声命令の意味を判断する段階をさらに含むことを特徴とする項目19に記載の移動端末機の制御方法。
(項目21)
上記判断された入力音声命令の意味に関して提供される動作は、上記判断された入力音声命令の意味に対応する少なくとも1つのメニューオプションを含むことを特徴とする項目20に記載の移動端末機の制御方法。
(項目22)
所定の閾値より高い確率を有する、上記判断された入力音声命令の意味に対応する全てのメニューオプションを出力する段階をさらに含むことを特徴とする項目21に記載の移動端末機の制御方法。
(項目23)
最も高い確率を有する、上記判断された入力音声命令の意味に対応するメニューオプションを、他のメニューと差別化して表示する段階をさらに含むことを特徴とする項目22に記載の移動端末機の制御方法。
(項目24)
上記表示する段階においては、
上記最も高い確率を有するメニューオプションのサイズ、表示位置、色、明暗、及びハイライト情報の少なくとも1つが異なるように制御することにより、上記最も高い確率を有する、上記判断された入力音声命令の意味に対応するメニューオプションを差別化して表示することを特徴とする項目23に記載の移動端末機の制御方法。
(項目25)
上記入力を受信する段階においては、
1)上記音声認識機能をアクティブにするためにタッチするタッチソフトボタン、
2)上記音声認識機能をアクティブにするために押圧又は操作するハードボタン、
3)上記音声認識機能をアクティブにするためにタッチする、上記入力部に含まれるタッチスクリーンの任意の位置、
4)上記音声認識機能をアクティブにするために入力される衝撃音、
5)近距離無線信号又は遠距離無線信号、
6)使用者からの身体情報信号
の少なくとも1つを使用することを特徴とする項目14に記載の移動端末機の制御方法。
(項目26)
上記音声認識機能がアクティブ状態にあることを示すオーディオ情報又はビデオ情報を出力する段階をさらに含むことを特徴とする項目14に記載の移動端末機の制御方法。
音声命令の意味を認識し、その認識された音声命令に基づいて移動端末機を制御する方法、及びその移動端末機を提供する。
移動端末機は、移動端末機の音声認識機能をアクティブにする入力を受信する入力部と、移動端末機で行われる動作に関する情報を保存するメモリと、音声認識機能をアクティブにする入力が受信されると音声認識機能をアクティブにし、移動端末機で行われる少なくとも1つの事前動作と音声命令に含まれる言語に基づいて、入力された音声命令の意味を判断し、移動端末機で行われる少なくとも1つの事前動作と音声命令に含まれる言語に基づいて、また、判断された入力音声命令の意味と移動端末機で行われる動作に関する情報とがマッチする確率に基づいて、判断された入力音声命令の意味に関する動作を提供する制御部とを含む。
以下、本発明の好ましい実施形態について添付図面を参照して詳細に説明する。
図1は、本発明の一実施形態による移動端末機100のブロック図である。
移動端末機100は、移動端末機100と無線通信システム間の無線通信、又は移動端末機100と移動端末機100が位置するネットワーク間の無線通信を可能にする1つ以上の構成要素を有する無線通信部110を含む。
例えば、無線通信部110は、放送チャネルで外部の放送管理エンティティから放送信号及び/又は放送関連情報を受信する放送受信モジュール111を含む。前記放送チャネルは、衛星チャネル及び地上波チャネルを含む。
さらに、前記放送管理エンティティは、一般的に放送信号及び/又は放送関連情報を送信するシステムを意味する。前記放送関連情報は、放送チャネル、放送番組又は放送サービス提供者に関する情報を含む。例えば、放送関連情報は、DMB(Digital Multimedia Broadcasting)のEPG(Electronic Program Guide)又はDVB−H(DigitalVideo Broadcast−Handheld)のESG(Electronic Service Guide)を含むことができる。
また、前記放送信号は、TV放送信号、ラジオ放送信号、及びデータ放送信号だけでなく、TV放送信号又はラジオ放送信号と結合した放送信号も含む。
放送受信モジュール111は、多様な放送システムから伝送される放送信号を受信する。例えば、前記放送システムは、DMB−T(Digital Multimedia Broadcasting−Terrestrial)、DMB−S(DigitalMultimedia Broadcasting−Satellite)、MediaFLO(Media Forward Link Only)、DVB−H(DigitalVideo Broadcast−Handheld)、ISDB−T(Integrated Services Digital Broadcast−Terrestrial)などを含む。放送受信モジュール111は、マルチキャスト信号も受信できる。放送受信モジュール111により受信されたデータは、メモリ160のような適切な装置内に保存される。
無線通信部110は、1つ又は多数のネットワークエンティティ(例えば、基地局、NodeB)と無線信号を送受信する移動通信モジュール112も含む。ここで、前記無線信号は、音声、画像、マルチメディア、制御シグナリング、及びデータなどを示す。
移動端末機100のインターネット接続をサポートするための無線インターネットモジュール113も含まれる。無線インターネットモジュール113は、移動端末機100に内蔵又は外付けされる。
無線通信部110は、近距離通信のための近距離通信モジュール114も含む。近距離通信技術としては、ブルートゥース、RFID(Radio Frequency Identification)、赤外線通信(IrDA, infrared DataAssociation)、UWB(Ultra Wideband)、ZigBeeなどが利用できる。
無線通信部110は、移動端末機100の位置を確認又は取得するための位置情報モジュール115も含む。位置情報モジュール115は、関連衛星、ネットワーク構成要素、及びこれらの組み合わせと連動するGPS(Global Positioning System)構成要素を利用して実現される。
さらに、図1に示すように、移動端末機100は、移動端末機100にオーディオ又はビデオ信号を提供するA/V(Audio/Video)入力部120も含む。図に示すように、A/V入力部120は、カメラ121及びマイク122を含む。カメラ121は、静止画像又は動画像などの画像フレームを受信及び処理する。また、マイク122は、前記端末機が通話モード、録音モード、及び音声認識モードのような特定モードにあるとき、外部の音響信号を受信した後、処理してデジタルデータに変換する。移動端末機100、特に、A/V入力部120は、前記外部の音響信号を受信する過程で発生する雑音を除去するための多様な雑音除去アルゴリズムを含む。また、A/V入力部120により生成されたデータは、メモリ160内に保存され、出力部150により活用されるか、無線通信部110の1つ又は複数のモジュールを介して伝送される。必要に応じて、2つ又はそれ以上のマイク及び/又はカメラが利用される。
移動端末機100は、関連入力装置の使用者操作に対応する入力データを発生させるユーザ入力部130も含む。ユーザ入力部130は、キーパッド、ドームスイッチ、タッチパッド(静圧/静電)、ジョグホイール、及びジョグスイッチを含む。以下、ユーザ入力部130がタッチスクリーンディスプレイと連動するタッチパッドとして実現される場合の例について説明する。
センシング部140も移動端末機100内に含まれて移動端末機100の多様な状態測定を提供する。例えば、センシング部140は、移動端末機100の開閉状態、移動端末機100の構成要素(例えば、ディスプレイ及びキーボード)の相対的位置、移動端末機100の構成要素又は移動端末機100の位置の変化、移動端末機100への使用者の接触の有無、移動端末機100の方位又は加速/減速などを検出する。
例えば、移動端末機100がスライド型である場合、センシング部140は、移動端末機100の摺動部が開状態であるか閉状態であるかを感知できる。他の例として、センシング部140は、電源供給部190による電源供給の有無、インタフェース部170と外部装置間の結合又は接続の有無などを感知する。
また、インタフェース部170は、移動端末機100を外部装置に結合する役割を果たす。前記外部装置は、有/無線ヘッドホン、外部充電器、電源供給器、データ(例えば、オーディオ、ビデオ、写真など)を保存するための保存装置、イヤホン、及びマイクなどを含む。さらに、インタフェース部170は、有/無線データポート、カードソケット(例えば、メモリカード、SIM(Subscriber Identity Module)カード、UIM(User Identity Module)カード、RUIM(RemovableUser Identity Module)カードなど)、オーディオ入/出力ポート及びビデオ入/出力ポートを使用して構成される。
出力部150は、一般的に移動端末機100の出力要件をサポートする多様な構成要素を含む。移動端末機100は、移動端末機100に関する情報を視覚的に表示するディスプレイモジュール151を含む。例えば、移動端末機100が通話モードである場合、ディスプレイモジュール151は、一般的に発信、通話、及び終了に関する情報を含むユーザインタフェース、又はグラフィックユーザインタフェースを提供する。他の例として、移動端末機100がビデオ通話モード又は撮影モードである場合、ディスプレイモジュール151は、前記モードに関連する映像を付加的に又は選択的に表示する。
さらに、ディスプレイモジュール151は、好ましくはタッチパッドのような入力装置と連動するタッチスクリーンも含む。このような構成によりディスプレイモジュール151が入力装置及び出力装置として作動できる。また、ディスプレイモジュール151は、液晶ディスプレイ(LCD)、薄膜トランジスタ液晶ディスプレイ(TFT−LCD)、有機発光ダイオード(OLED)、フレキシブルディスプレイ、及び3次元ディスプレイを含むディスプレイ技術を利用して実現される。
移動端末機100は、ディスプレイモジュール151を2つ以上備えることもできる。2つのディスプレイが備えられた例として、1つは、内部ディスプレイ(移動端末機が開状態にあるときに見える)であり、他の1つは、外部ディスプレイ(移動端末機が開状態及び閉状態にあるときに見える)である。
図1は、移動端末機100の音響出力要件をサポートする音響出力モジュール152を備える出力部150を示す。音響出力モジュール152は、1つ又は複数のスピーカー、ブザー、他の音響生成装置、及びこれらの組み合わせを利用して実現される。さらに、音響出力モジュール152は、呼受信モード、呼発信モード、録音モード、音声認識モード、及び放送受信モードを含む多様なモードで動作する。音響出力モジュール152は、特定機能(例えば、呼受信、メッセージ受信、及びエラー)に関連する音響を出力する。また、出力部150は、移動端末機100に関連する特定イベントの発生を通知するための信号を出力するアラーム部153を備える。前記アラームイベントの例としては、呼受信、メッセージ受信、ユーザ入力の受信がある。前記出力の例として、使用者に提供される振動のような触感がある。例えば、アラーム部153は、呼又はメッセージを受信する移動端末機100に反応して振動するように構成される。
他の例として、移動端末機100におけるユーザ入力の受信に反応してアラーム部153が振動を発生することにより、触感フィードバックメカニズムを提供する。さらに、出力部150の構成要素により提供される前記多様な出力は、個別に行われるか、又は前記構成要素の任意の組み合わせを利用して行われる。
メモリ160は、移動端末機100の処理、制御、及び保存要件をサポートするための多様なデータを保存するために使用される。前記データの例として、移動端末機100で動作するアプリケーションのためのプログラム指示、通話履歴(call history)、接触データ、電話帳データ、メッセージ、静止画像、動画像などがある。
図1に示すメモリ160は、RAM(Random Access Memory)、SRAM(Static Random Access Memory)、ROM(Read−OnlyMemory)、EEPROM(Electrically Erasable Programmable Read−Only Memory)、EPROM(ErasableProgrammable Read−Only Memory)、PROM(Programmable Read−Only Memory)、磁気メモリ、フラッシュメモリ、磁気もしくは光ディスク、カード型メモリ、又はその他の同様のメモリもしくはデータ記憶装置を含む適切な揮発性及び不揮発性メモリもしくは記憶装置のいずれか又は組み合わせを利用して実現される。
移動端末機100は、移動端末機100の全般的な動作を典型的に制御する制御部180も含む。例えば、制御部180は、音声通話、データ通信、インスタントメッセージ通信、ビデオ通話、カメラ機能、及び録音機能に関連する制御及び処理を行う。図1に示すように、制御部180は、マルチメディア再生のためのマルチメディアモジュール181を備える。マルチメディアモジュール181は、制御部180の一部として構成されるか、制御部180と別途に実現される。
電源供給部190は、移動端末機100の多様な構成要素により利用される電源を供給する。前記電源としては、外部の電源、内部の電源、又はこれらの組み合わせが利用できる。
図2は、本発明の一実施形態による移動端末機100の前面斜視図である。図2に示すように、移動端末機100は、第1ボディー200と、第1ボディー200に対して摺動可能に構成された第2ボディー205とを含む。図1に示すユーザ入力部130は、ファンクションキー210のような第1入力部、キーパッド215のような第2入力部、及びサイドキー245のような第3入力部を含む。
ファンクションキー210は、第1ボディー200に関連し、キーパッド215は、第2ボディー205に関連する。キーパッド215は、使用者が電話をかけること、テキスト又はマルチメディアメッセージを準備すること、移動端末機100を動作させることなどを可能にする多様なキー(例えば、数字、文字、及びシンボル)を含む。第1ボディー200は、第2ボディー205に対して摺動して開位置又は閉位置となる。閉状態において、第1ボディー200は、キーパッド215が第1ボディー200により完全に隠れるように第2ボディー205の上部に位置する。開状態において、使用者は、ディスプレイモジュール151及びファンクションキー210だけでなく、キーパッド215にアクセスできる。ファンクションキー210は、使用者による開始、停止、及びスクロールのような命令の入力を容易にする。
移動端末機100は、待ち受けモード(例えば、呼又はメッセージ受信、ネットワーク制御シグナリングの受信及び応答ができるモード)、又は通話モードで動作する。移動端末機100は、閉状態のときは主に待ち受けモードであり、開状態のときは主に通話モードであるが、使用者の希望により他のモードに変更できる。
第1ボディー200は、第1ケース220と第2ケース225とからなり、第2ボディー205は、第1ケース230と第2ケース235とからなる。第1ケース220、230及び第2ケース225、235は、合成樹脂を射出して形成することもでき、ステンレススチール(STS)又はチタン(Ti)などの金属材質で形成することもできる。
第1ボディー200と第2ボディー205の一方又は両方の第1ケース及び第2ケース間には、1つ又は複数の中間ケースを配置することもできる。第1ボディー200及び第2ボディー205は、移動端末機100の動作をサポートするために利用される電子部品を内蔵できるサイズに形成される。
第1ボディー200は、カメラ121と、スピーカーとして実現され、ディスプレイモジュール151と相対的に位置する音響出力モジュール152とを含む。カメラ121は、第1ボディー200に対して選択的に配置できるように(例えば、回転、スイベルなど)構成できる。
ファンクションキー210は、ディスプレイモジュール151の下側に隣接して位置する。前述したように、ディスプレイモジュール151は、LCD又はOLEDで実現できる。ディスプレイモジュール151は、タッチパッドがレイヤ構造で重なったタッチスクリーンにより実現されて、使用者の前記タッチスクリーンとの接触(例えば、指、スタイラスなど)に反応して信号を生成する。
第2ボディー205は、キーパッド215に隣接したマイク122と、第2ボディー205の側面に沿って位置し、ユーザ入力部の一種類であるサイドキー245と含む。サイドキー245は、ホットキーとして実現され、移動端末機100の特定機能と連係する。図2に示すように、インタフェース部170は、サイドキー245に隣接し、バッテリー形態の電源供給部190は、第2ボディー205の下部に位置する。
図3は、図2に示す移動端末機100の後面斜視図である。図3を参照すると、第2ボディー205は、カメラ121と、カメラ121に関連するフラッシュ250及びミラー255とを含む。フラッシュ250は、第2ボディー205のカメラ121と連動して動作し、ミラー255は、使用者がカメラ121を利用してセルフ撮影をするとき、使用者の顔などを映してカメラ121の位置づけを容易にする。第2ボディー205のカメラ121は、図2に示すように、第1ボディー200のカメラ121とは反対方向に向ける。
第1ボディー200及び第2ボディー205の各カメラ121は、同一又は異なる容量を有する。例えば、第1ボディー200のカメラ121は、第2ボディー205のカメラ121より低い解像度で動作する。このような構成は、例えば、逆方向リンク周波数容量が限定されるビデオ会議通話時に効果的である。第2ボディー205のカメラ121の高い解像度は、後に高画質の写真を得るのに有用である。
第2ボディー205は、スピーカーとして実現され、第2ボディー205の上部に位置する音響出力モジュール152も含む。第1ボディー200及び第2ボディー205の前記音響出力モジュールは、連動してステレオ出力を提供する。前記音響出力モジュールの1つ又は2つは、スピーカーフォンとして動作するように構成できる。
移動端末機100は、第2ボディー205の上端に位置する放送信号受信用アンテナ260を含む。アンテナ260は、放送受信モジュール111(図1)と連動して機能する。必要に応じて、アンテナ260は、固定されるか、第2ボディー205の内部に収まるように構成される。第1ボディー200の後面は第2ボディー205の前面に位置する該当スライドモジュールと摺動可能に結合するスライドモジュール265を含む。
図示された第1ボディー200及び第2ボディー205の多様な構成要素の配置は必要に応じて変更できる。1つのボディーの一部又は全ての構成要素を他のボディーに実現することもできる。前記構成要素の位置及び相対的位置決めは、図示した位置とは異なってもよい。
図1〜図3に示す移動端末機100は、有無線通信システム及び衛星通信システムを含み、フレーム又はパケットでデータを伝送する通信システムで動作するように構成される。このような通信システムは、他の無線インタフェース及び/又は物理層を活用する。
例えば、通信システムにより利用可能な無線インタフェースとしては、周波数分割多元接続(Frequency Division Multiple Access:FDMA)、時分割多元接続(Time DivisionMultiple Access:TDMA)、符号分割多元接続(Code Division Multiple Access:CDMA:)、ユニバーサルモバイルテレコミュニケーションシステム(UniversalMobile Telecommunications Systems:UMTS)(特に、LTE(Long Term Evolution)、移動通信用グローバルシステム(GlobalSystem for Mobile Communications:GSM)などが用いられる。以下、説明の便宜のために、CDMAに限定して説明する。しかしながら、本発明は、CDMA無線通信システムを含む全ての通信システムに適用できる。
図4に示すように、CDMA無線通信システムは、複数の移動端末機100、複数の基地局(BS)270、基地局制御部(Base Station Controllers:BSCs)275、及び移動スイッチングセンター(Mobile SwitchingCenter:MSC)280を含む。
MSC280は、公衆交換電話網(Public Switched Telephone Network:PSTN)290とインタフェースで接続されるように構成され、BSCs275ともインタフェースで接続されるように構成される。BSCs275は、バックホールライン(backhaulline)で基地局270と接続される。前記バックホールラインは、例えば、E1/T1、ATM、IP、PPP、Frame Relay、HDSL、ADSL又はxDSLなどのインタフェースの少なくとも1つによって構成される。さらに、図4に示す前記システムは、複数のBSCs275を含む。
それぞれの基地局270は、少なくとも1つのセクターを含み、各セクターは、全方向性アンテナ又は基地局270から放射状の特定方向を指すアンテナを含む。また、各セクターは、ダイバーシティ受信のために2つのアンテナを含む。それぞれの基地局270は、複数の周波数割り当てをサポートするように構成され、各周波数割り当ては、特定スペクトル(例えば、1.25MHz、5MHz)を有する。
セクターと周波数割り当ての交差は、CDMAチャネルと言われる。基地局270は、基地局送受信サブシステム(Base Station Transceiver Subsystem:BTSs)とも言われる。場合によっては、「基地局」という用語は、1つのBSC275及び少なくとも1つの基地局270を合わせたものを意味する。
基地局270はまた、「セルサイト」を示すこともできる。又は、特定基地局270のそれぞれのセクターをセルサイトという。地上波DMB(digital multimedia broadcasting)送信部295は、システム内で動作する移動端末機100に放送する。
移動端末機100の放送用モジュール111(図1を参照)は、DMB送信部295により伝送される放送信号を受信するために備えられる。前述したように、同様の配置が他のタイプのブロードキャスト及びマルチキャストシグナリングのために実現できる。
さらに、図4は、複数のGPS衛星300を示す。衛星300は、複数の移動端末機100の一部又は全ての位置把握を容易にする。図4においては2つの衛星を示すが、位置情報は、それより多数の衛星によっても、それより少数の衛星によっても取得できる。
移動端末機100の位置情報モジュール115(図1を参照)は、所望の位置情報を取得するために衛星300と連動する。しかしながら、GPS追跡技術に加えて又はGPS追跡技術の代わりに利用される追跡技術のような他のタイプの位置検出技術が代案として実現されてもよい。GPS衛星300の一部又は全ては、選択的に又は追加的に衛星DMB伝送を提供するように構成される。
さらに、無線通信システムが一般的に動作する過程で、基地局270は、多様な移動端末機100から逆方向リンク信号のセットを受信する。ここで、移動端末機100は、呼接続中であるか、メッセージ送受信中であるか、又は他の通信動作を実行中である。
特定基地局270により受信された逆方向リンク信号のそれぞれは、特定基地局270内で処理され、前記処理の結果として生成されたデータは、関連BSC275に送信される。BSC275は、基地局270間のソフトハンドオフを含む呼リソース割り当て機能及び移動性管理機能を提供する。
また、BSC275は、前記受信したデータをMSC280に送信し、MSC280は、PSTN290とのインタフェース接続のために追加的なルーティングサービスを提供する。PSTN290は、MSC280にインタフェース接続し、MSC280は、BSC275にインタフェース接続する。BSC275は、移動端末機100に順方向リンク信号のセットを伝送するようにBS270を制御する。
以下の説明において、前述したように構成された移動端末機100に適用可能な制御方法について様々な実施形態に基づいて説明する。しかしながら、下記の実施形態は、独立して又は互いに組み合わせて実現することができる。さらに、以下の説明において、ディスプレイモジュール151は、タッチスクリーンを含む。また、前記タッチスクリーン又は前記ディスプレイのスクリーンは、参照番号「400」で示される。
図5は、本発明の一実施形態による移動端末機の制御方法を示すフローチャートである。以下の説明においては図1も参照する。図に示すように、制御部180は、移動端末機の音声認識機能がアクティブになったか否かを判断する(S101)。前記音声認識機能がアクティブになると(S101でYes)、制御部180は、使用者による音声命令の入力(以下「音声命令」という)を受信する(S102)。その後、使用者により入力された音声命令が認識されると(S102でYes)、制御部180は、その認識された音声命令の意味を判断する(S103)。
本発明による移動端末機の音声認識機能をアクティブにするために、使用者は、前記移動端末機の特定ボタンを選択するか、又はタッチスクリーンの特定部分をタッチする。使用者による音声認識機能の物理的アクティブ化は、使用者が前記移動端末機を制御するために音声命令を使用しようとすることをより意識できるので、より有利である。すなわち、使用者は、まず前記移動端末機の物理的操作を行わなければならないため、前記移動端末機に音声命令を入力しようとすることを直感的に認識するので、より明瞭に又はゆっくり発話することにより特定機能をアクティブにすることができる。
従って、使用者がより明瞭に又はゆっくり発話するため、例えば、前記音声命令を正確に認識する確率が高くなる。すなわち、前記音声認識機能のアクティブ化は、前記移動端末機に対する発話により行われるのではなく、前記移動端末機のボタンの物理的操作により行われる。
また、制御部180は、使用者が前記特定ボタン又は前記タッチスクリーンの特定部分をタッチした回数、使用者が前記特定ボタン又は前記タッチスクリーンの特定部分をタッチしていた時間などに基づいて、前記音声認識機能のアクティブ化を開始又は終了する。使用者は、本発明により提供される適切なメニューオプションを利用して、制御部180が前記音声認識機能をアクティブにする方法を設定することもできる。例えば、使用者は、1)前記音声アクティブ化ボタンが選択された回数(X)に基づく音声認識機能のアクティブ化の設定、2)前記音声アクティブ化ボタンが選択されていた時間(X)に基づく音声認識機能のアクティブ化の設定、3)前記ボタン(X、Y)が選択されたときの音声認識機能のアクティブ化の設定などを含む前記移動端末機のメニューオプションを選択することができる。次に、使用者は、制御部180が前記音声認識機能のアクティブ化を判断する方法を可変的に設定するために、前記X及びYの値を入力することができる。従って、本発明の一実施形態によれば、使用者が移動端末機の音声認識機能に積極的に関与できるようにすることにより、制御部180が使用者の音声命令に対応する機能を正確に判断する確率を高め、使用者の必要に応じて前記音声認識機能を調節できるようにする。
制御部180は、指定された前記ボタンがタッチ又は選択されている間、前記音声認識機能のアクティブ状態を維持し、指定された前記ボタンが解除されると、前記音声認識機能を停止する。また、制御部180は、指定された前記ボタンがタッチ又は選択されてから所定時間の間、前記音声認識機能のアクティブ化を維持し、前記所定時間が経過すると、前記音声認識機能を停止又は終了することができる。他の実施形態において、制御部180は、前記音声認識機能のアクティブ状態が維持されている間、受信された音声命令をメモリ160に保存することができる。
制御部180は、前記音声認識機能が終了するや否や前記音声命令の意味を判断することもでき、使用者による音声命令の入力と同時に前記音声命令の意味を判断することもできる。また、制御部180は、前記音声命令の意味を判断するために、前記入力された音声命令で使用された単語、キーワード、文章構造などを分析し、前記音声命令の内容又は意味を判断することができる。
さらに、制御部180は、前記音声命令の意味を判断するために、前記移動端末機で提供される機能、サービス、又はメニューなどに関する情報を、メモリ160のデータベースに保存することができる。さらに、使用者の音声命令を正確に感知する確率を高めるために、学習又は人工知能方法を用いて前記データベースに保存された情報をアップデートすることができる。前記移動端末機で行われる事前動作も前記データベースに保存することができる。例えば、使用者は、前記移動端末機を開いて他の動作を行う前に電子メールを確認することができる。
従って、制御部180は、使用者の音声命令の意味を判断する確率を高めるために、このような事前動作を利用することができる。また、使用者は、移動端末機を最初にターンオンするか又は開くとき、同一の音声命令を入力することがある。このような事前動作は、前記入力された音声命令と共に保存し、制御部180が入力命令の意味を判断するために利用することができる。
従って、前記移動端末機で行われる事前動作は、前記移動端末機のアクティブ状態(例えば、待機モード時、通話時、テレビ電話時、電子メールセッション時、インスタントメッセージセッション時、端末機を閉じるときなど)を含み、また使用者により入力される事前命令をも含む。例えば、音楽を聞くために、使用者は、移動端末機を予め閉じ、その後に「play my music」という命令を入力する。制御部180は、使用者により入力された音声命令の判断の助けになるように、移動端末機の状態(すなわち、閉じた状態)を利用することができる。
ここで、図5の説明に戻る。制御部180は、前記データベースの情報を利用して前記音声命令の意味を判断すると、対応する結果値を出力する(S104)。すなわち、前記結果値は、認識された前記音声命令に対応する機能を実行するか、又は特定構成要素を制御するための制御信号を含むことができる。また、前記結果値は、認識された前記音声命令に関するメニューを表示するためのデータ情報に該当するものであってもよい。
また、使用者は、特定メニュー(例えば、image capturing、voice call、message transmissionなど)を正確に示す音声命令を入力するか、又は自然言語(例えば、showme photo、save batteryなど)を使用して音声命令を入力することができる。前記自然言語命令は、特定メニューの正確な指示を含んでもよく含んでいなくてもよい。
また、前記自然言語は、(人工的に作られた)人工言語とは異なり、日常生活で人々が一般的に使用する言語であって、自然言語処理アルゴリズムを用いて処理できる。
その後、制御部180は、図5に示すように、使用者により入力された音声命令を認識できるか否かを判断する(S105)。
例えば、制御部180は、特定閾値(例えば、80%)以上の確率で音声命令を認識できるか否かを判断することができる。前記特定閾値を満たす音声命令の意味を判断できない場合、制御部180は、付加的なエラー処理を行い(S107)、ステップS103〜S105を繰り返す。
前記特定閾値(例えば、80%又はそれ以上の特定認識率より大きい値)を満たす音声命令を認識できる場合、制御部180は、前記特定閾値を満たす複数のメニューを表示する(S106)。使用者は、表示されたメニューを視覚的に見ることができ、その表示されたメニューのいずれか1つを選択することができる。
このような特徴は、使用者が前記音声認識機能に積極的に関与できるようにするため、特別な利点となる。より詳細には、制御部180は、使用者に音声命令の意味を正確に判断できないことを通知するメッセージを表示又は出力するのではなく、特定閾値(例えば、80%)より高い、正確性のある確率を有する複数のメニューを出力する。例えば、使用者が「save battery」という音声命令を入力したが、(例えば、背景雑音や受信障害などにより)制御部180が「save」という音声命令のみ判断できた場合、制御部180は前記キーワード「save」に関する特定メニュー又はオプションを表示できる。すなわち、制御部180は写真メニュー、バッテリメニュー、電子メールメニューなどを表示できるが、これはこれらメニューが「save」の特徴を含んでいるからである。従って、使用者は表示された複数のメニューから適切なメニューを選択することができる。
また、前述したように、制御部180は、入力された音声命令の意味の判断において、移動端末機の事前動作を利用することができる。制御部180は、前記入力された音声命令の意味の判断の助けになるように、前記移動端末機の物理的状態を利用することができる。例えば、制御部180は、前記入力された音声命令の意味を決定するとき、バッテリの状態(例えば、低バッテリ状態)に関する情報を有益に利用することができる。
また、使用者の確認(ACK)の受信タイプとしては、メッセージ、音声、又はメニューの表示位置若しくは形態(形状或いはサイズ)などを使用することができ、その応答タイプとしては、使用者音声、特定ボタン、又はタッチ入力などがある。さらに、前述したように、前記入力された音声命令の認識率が特定閾値より低い場合、制御部180はエラー処理動作を行うことができる(S107)。
また、前記エラー処理動作時、制御部180は、使用者から音声命令をさらに受信するか、又は前述したように、所定の認識率若しくは確率以上の複数のメニューを表示することができる。さらに、制御部180は、所定の認識率以上の認識された機能又はメニューの数を判断する。所定の認識率以上の認識された機能又はメニューが特定数より少ない場合(例えば、1つの機能又は1つのメニューしかない場合)、制御部180は前記1つの機能又はメニューを自動的に実行する。
次に、図6(a)〜(c)は、本発明の一実施形態による移動端末機の音声認識機能のアクティブ化方法を説明するための表示画面を示す図である。前述したように、本発明は、前記音声認識機能が使用者の物理的操作により開始されるタイミングを使用者が判断できるようにする。従って、使用者は、使用者の周辺環境(例えば、使用者が静かな環境で発話しているか否かなど)、使用者の音声のトーン及びレベル、使用者自身が使用する自然言語又はその他のタイプの言語などをより意識する。その結果、使用者は音声命令を入力するときにさらに気をつけるようになり、制御部180が前記音声命令の意味を正確に判断する確率を高めることができる。
また、使用者が移動端末機のボタンをタッチ又は選択することにより行われる音声認識機能の手動アクティブ化は、バッテリの電力消費を低減するという利点がある。すなわち、前記音声認識機能は、移動端末機の様々なリソースを消費するが、前記音声認識機能のアクティブ状態が待機状態(又はアイドル状態)で持続的に動作すると、移動端末機の全体的な電力も持続的に消費される。
より詳細には、制御部180が、(使用者の特定ボタンの選択ではなく、)使用者の移動端末機に対する発話により、前記音声認識機能をアクティブにするアクティブ信号を受信するように構成された場合、制御部180は、アクティブ状態で前記音声認識機能を持続的に動作させ、使用者の(前記音声認識の開始を意味する)発話を待たなければならない。前記音声認識機能をアクティブにするための使用者の音声入力を持続的に待つこのような動作は、移動端末機の利用可能な電力を持続的に減少させる。
従って、移動端末機の電力消費及びリソース消費を抑えるために、制御部180は、前記音声認識機能の開始及び終了を制御することが好ましい。例えば、図6(a)に示すように、移動端末機のユーザ入力部130は、使用者が前記音声認識機能を開始又は停止するためにタッチできるように、ディスプレイモジュール151上にソフトボタン350を含むことができる。ここで、ソフトボタン350は、ボタン形状でもよく、特定形状のアイコンでもよい。さらに、ソフトボタン350は、例えば図6(a)に示すように、移動端末機の側部に配設されたハードボタン351で代替することもできる。
他の例として、図6(b)に示すように、ディスプレイモジュール151上にボタン又はアイコンを表示するのではなく、ディスプレイモジュール151の任意の部分を前記音声認識機能のアクティブ化及び非アクティブ化のために使用することができる。さらに他の例として、図6(c)に示すように、特定サウンドを移動端末機のマイク122から入力し、前記音声認識機能のアクティブ化及び終了を制御することができる。
より詳細には、前記特定サウンドは、使用者の拍手音などの特定レベル以上の衝撃音でもよい。制御部180は、マイク122から入力されたサウンドのレベルを判断するためのアルゴリズム又は回路を用いて、前記衝撃音を検出する。すなわち、前記衝撃音を検出するためのアルゴリズム又は回路は、前記音声認識機能に比べて前記移動端末機のリソース又は電力の消費が少なく、かつ予め設定されている特定レベル以上のサウンドを検出するように構成される。
使用者は、前記音声認識機能をアクティブにするために使用される特定衝撃音を設定することができる。例えば、使用者は、本発明の移動端末機により提供される適切なメニューオプションを選択した後、2回又は3回拍手し、その拍手音が前記音声認識機能のアクティブ化のために使用されることを制御部180に通知することができる。また、使用者は、前記音声認識機能をアクティブにするためのサウンドとして、その他のサウンドを設定することもできる。
さらに、制御部180は、前記音声認識機能を複数のモードで駆動することができる。例えば、制御部180は、特定レベル以上のサウンドが前記音声認識機能をアクティブにする第1モードと、音声命令が入力されてその内容又は意味が判断される第2モードとに区分して、前記音声認識機能を駆動する。すなわち、制御部180は、第1モードで特定レベル以上のサウンドが検出されると、第2モードを実行して前記音声認識機能をアクティブにする。
また、他の実施形態によれば、制御部180は、使用者から身体情報を受信し、音声認識機能のアクティブ化を開始する。より詳細には、前記身体情報は、使用者の手信号又はジェスチャを含む。前記使用者の身体情報を検出するためには、センシング部140を使用することができる。さらに他の実施形態によれば、制御部180は、無線装置により近距離又は遠距離(remote area)の無線信号を受信し、音声認識機能のアクティブ化を開始する。
また、制御部180は、無線通信部110により無線信号を受信し、センシング部140により使用者の手信号又はジェスチャを受信することができる。このような実施形態においては、前記音声認識機能をアクティブにするための信号を受信する無線通信部110、ユーザ入力部130、及びセンシング部140をまとめて、アクティブ信号入力部ともいう。
さらに、前述したように、移動端末機の電力消費及びリソース消費を低減するために、制御部180は、使用者から終了信号を受信して所定時間が経過すると、前記音声認識機能を終了又は停止する。このために、前記終了信号は、前記音声認識機能のアクティブ化を開始する方式と同一又は類似の方式で、ボタンのタッチ若しくは押圧、タッチスクリーンの特定部分のタッチ、衝撃音、無線信号、又は使用者からの身体情報に対応する。
より詳細には、制御部180は、前記音声認識機能のアクティブ化を開始し、特定期間では前記音声認識機能のアクティブ状態を維持し、前記特定期間が経過すると前記音声認識機能のアクティブ状態を自動的に終了することができる。また、制御部180は、ボタン又はタッチが持続的に入力されている間、前記音声認識機能のアクティブ状態を維持し、前記入力が解除されると、前記音声認識機能のアクティブ状態を終了することができる。他の実施形態によれば、制御部180は、特定期間が経過しても使用者が前記端末機に対して発話しないと、前記音声認識機能を終了することができる。
次に、図7Aは、本発明の一実施形態による移動端末機の音声認識方法を示すフローチャートである。以下の説明においては図1も参照する。図7Aに示すように、音声認識機能が入力されると(S201)、制御部180は、入力された音声命令をメモリ160に保存し(S202)、その音声命令を特定音声認識アルゴリズムにより処理する(S203)。
前記音声認識アルゴリズムにより、制御部180は、前記入力された音声命令をテキスト情報に変換し、その変換されたテキスト情報をメモリ160の任意の領域に保存する(S204)。その後、制御部180は、前記テキスト情報を処理してその音声命令の意味を判断する。
前記音声命令の意味の判断は、前記音声命令の入力と同時に行うことが好ましいが、これに限定されるものではなく、前述したように、前記音声命令の入力が終わった後に行ってもよい。例えば、使用者が予め設定されている特定期間に音声命令を入力しないと、制御部180は、使用者が前記音声命令の入力を完了したと判断し、前記音声命令の意味を判断する過程を開始することができる。
次に、図7Aに示すように、制御部180は、前記音声命令の意味を判断するために、前記テキスト情報に含まれる特定単語又はキーワードを検出し(S205)、前記検出された単語又はキーワードと前記移動端末機の特定データベースに保存されている各種機能及びメニューに関する情報とを比較する(S206)。前記データベースに同一又は類似の単語又はキーワードが保存されていると、その対応する単語又はキーワードの数により前記音声命令の認識率を判断する(S207)。
ここで、前記認識率を判断するための情報は、前記音声命令に含まれる単語又はキーワードの数に関する情報に限定されるものではない。すなわち、キーワード毎に認識率を判断するための値が異なるように設定することにより、単語又はキーワードの数が少なくても認識率の高いキーワードにより認識率が変化することがある。
前記音声認識率は、前記認識された音声命令の意味が正確か否かを示す情報である。より詳細には、特定メニューの名称が正確に入力された場合、100%の認識率が得られるが、音声命令が自然言語で入力された場合は、その音声命令に意味のない単語が含まれたり、同じ単語の発音が使用者毎に異なったりするため、事実上100%の認識率を得ることは難しい。
従って、本発明の一実施形態においては、認識率が特定値(例えば、80%)以上であると正確であると判断する。類似の認識率と判断された意味が複数である場合(すなわち、認識率は類似しているが、音声命令を異なる意味に解釈できる場合)、制御部180は、所定の閾値以上の認識率に対応する実行可能な複数のメニューを表示し、使用者がその表示されたメニューのいずれか1つを選択できるようにする(S208)。
また、制御部180は、前記メニューの表示において、認識率が高い順に前記メニューを表示することができる。例えば、図7Bに示すように、最も高い認識率を有するメニューアイコンを表示画面410の中心に表示することもでき、最も高い認識率を有するメニューアイコンをより大きく、より濃く、又は強調して表示画面420に表示することもできる。さらに、前記最も高い認識率を有するメニューは点滅させて表示することもできる。
認識率を高めるために、制御部180は、使用者により頻繁に選択されるメニューの場合、その選択回数を学習又は記憶し、その学習した情報を特定メニューの認識率を変更するために使用することができる。従って、その後に同一又は類似の発音又は内容で入力される音声命令に対する認識率が変化することがある。
図7Cは、本発明の一実施形態による移動端末機の音声認識方法を説明するための表示画面の一例を示す図である。例えば、使用者が自然言語で「I want to see my pictures」という音声命令を入力すると、制御部180は、前記音声命令を構成する文章から意味のある単語又はキーワード(例えば、see、picture)を検出し、前記移動端末機のデータベースに保存されている情報と比較する。
前記検出された単語又はキーワードが意味のある単語であるか否かは、発話の部分により判断することもでき、予め設定されているキーワードのみを意味のある単語として検出することもできる。また、制御部180は、前記意味のある単語又はキーワードに対応する情報を前記データベースから検索することができる。
前記データベースは、前記移動端末機の各種メニュー又は機能に関する複数のキーワード情報を保存することができる。例えば、「photo album」に対応するキーワード情報として、正確な「photo album」に加えて、カメラメニューの下位メニューなどの複数のキーワード情報である「photopicture」「video」「album」などを保存することができる。
図7Cの表示画面510に示すように、音声命令と一致するメニュー又は機能に関する情報がない場合、制御部180は、特定値より高い認識率を有する複数のメニューを表示する。このとき、制御部180は、前述したように、最も高い認識率を有するメニューアイコン521を他の表示アイテムよりも大きく又は濃く表示することができる。
また、図7Cの表示画面520は、特定値より高い認識率を有するメニューが1つしかない場合、制御部180がその特定値より高い認識率を有する該当メニュー機能を自動的に実行することを示している。このとき、制御部180は、意味が判断された前記音声命令を、テキスト若しくはその他のタイプのメッセージ、又は音声メッセージとして出力することができる。
図7Dは、本発明の一実施形態による移動端末機の音声認識方法を説明するための表示画面の他の例を示す図である。本実施形態においては、使用者が表示画面610をタッチすることにより音声認識機能をアクティブにした後、表示画面620に示すように自然言語で「Enable battery saving」という音声命令を入力する。次に、制御部180は、前記音声命令を構成する文章から意味のある単語又はキーワード(例えば、battery、saving)を検出し、前記データベースに保存されている情報と比較してその意味を判断する。
しかしながら、本例においては、前記音声命令に正確に対応するメニューが存在しないため、制御部180は、表示画面630に示すように、バッテリの電力消費を低減する機能に関する複数のメニュー(例えば、backlight、standby screen、background imageなど)を表示する。
前述したように、認識率が高い順に複数のメニューをサイズ、位置、色、及び明暗の少なくとも1つを変えて表示するか、又は強調して表示することができる。例えば、使用者選択度の高いメニューの認識率を他のメニューと差別化して表示することができる。
図8は、本発明の一実施形態による移動端末機の音声認識方法に使用されるデータベースシステムを示すブロック図である。前記データベースは音声命令の意味を判断するための情報を保存するものであり、各情報の特性によって複数のデータベースを構成することができる。前記各情報の特性に応じて構成された各データベースは、制御部180の制御下で持続的な学習過程によりアップデートすることができる。
前記データベースの学習過程とは、使用者により発音された音声をそれに該当する単語と対応させることをいう。例えば、使用者は「fifteen」と発音したが制御部180が「fifty」と認識した場合、使用者が「fifty」を「fifteen」に修正することにより、その後は制御部180が同発音を「fifteen」と認識できるようにする。
従って、前記学習過程により、複数の音声情報を前記データベースの各情報に対応させることができる。例えば、前記データベースは、マイクから入力された使用者の音声がフォーマット、音節、又は形態素単位で認識されるようにする音声情報を保存する第1データベース161と、制御部180が前記認識された音声情報に基づいて音声命令の全体的な意味を判断するようにする情報(例えば、文法、発音の正確度、文章構造など)を保存する第2データベース162と、前記移動端末機の機能又はサービスを実行するためのメニューに関する情報を保存する第3データベース163と、使用者が前記判断された音声命令の意味を確認できるように前記移動端末機が出力するメッセージ又は音声情報を保存する第4データベース164とを含む。
前記各データベースには、音声(発音)情報、その音声(発音)情報に対応するフォーマット、音節、形態素、単語、キーワード、又は文章情報などが保存される。従って、制御部180は、複数のデータベース161〜164の少なくとも1つを利用して、音声認識動作と音声命令の意味を判断する動作を行い、その判断された音声命令の意味に該当する機能又はサービスに関するメニューを実行することができる。
図9は、本発明の一実施形態による移動端末機で認識された音声命令が行われていることを使用者に通知するための情報を表示する表示画面を示す図である。制御部180は、音声命令が認識されるか、又は音声命令の意味が判断されると、その結果値を出力する。前記結果値は、前記移動端末機の特定機能を実行するための制御信号でもよく、前記認識された命令に関するメニュー情報でもよく、前記機能の実行時に出力されるデータ情報でもよい。図9によれば、制御部180は、情報(例えば、インジケータ)500を出力して、前記入力された音声命令が認識されたことを使用者に通知する。
また、前述した実施形態は、使用者の音声命令の認識に関するものであるが、本発明は、前記音声命令が認識されている間に使用者がさらなる入力機能を実行できるように適用することもできる。例えば、音声認識とタッチ入力、音声認識とボタン入力、又は音声認識とタッチ/ボタン入力を同時に行うことができる。
また、制御部180は、特定モード、メニュー、又は特定動作状態で音声認識機能が実行されないようにすることができる。また、音声認識機能が適用されていることを示すオーディオ情報(例えば、音声告知若しくは案内情報)又はビデオ情報(例えば、図9の情報500)を、音声認識モード、メニュー、又は動作状態で表示することができる。さらに、ヘルプ情報を出力することにより、音声認識機能が適用されていることを使用者に通知することもできる。
また、前述した多様な実施形態は、例えば、コンピュータソフトウェア、ハードウェア、又はこれらの組み合わせを利用したコンピュータ可読媒体で実現される。ハードウェア的な実現によれば、前述した実施形態は、ASICs(application specific integrated circuits)、DSPs(digital signalprocessors)、DSPDs(digital signal processing devices)、PLDs(programmable logicdevices)、FPGAs(field programmable gate arrays)、プロセッサ、制御部、マイクロ制御部、マイクロプロセッサ、ここに説明された前記機能を実行するように設計された他の電気的ユニット、又はこれらの選択的な組み合わせの少なくとも1つを利用して実現される。
ソフトウェア的な実現によれば、ここに説明された前記実施形態は、前述した機能又は動作のうちの1つ又は複数を行う各手順又は機能のような別個のソフトウェアモジュールと共に実現される。ソフトウェアコードは、適切なプログラム言語で作成されたソフトウェアアプリケーションにより実現される。また、ソフトウェアコードは、メモリ(例えば、メモリ160)に保存され、制御部又はプロセッサ(例えば、制御部180)により実行される。
さらに、移動端末機100は、多様な異なる構造で実現される。前記構造の例としては、折り畳み型、スライド型、ストレート型、回転型、スイング型、及びこれらの組み合わせがある。
本発明の精神や範囲から外れない限り本発明の多様な変更及び変形ができることは、当業者には明らかである。従って、本発明の請求の範囲内で行われるあらゆる変更及び変形、並びに請求の範囲の均等物は本発明の請求の範囲に含まれる。
以上のように、本発明の好ましい実施形態を用いて本発明を例示してきたが、本発明は、この実施形態に限定して解釈されるべきものではない。本発明は、特許請求の範囲によってのみその範囲が解釈されるべきであることが理解される。当業者は、本発明の具体的な好ましい実施形態の記載から、本発明の記載および技術常識に基づいて等価な範囲を実施することができることが理解される。
本発明の一実施形態による移動端末機のブロック図である。 本発明の一実施形態による移動端末機の前面斜視図である。 図2の移動端末機の後面斜視図である。 本発明の一実施形態による図1〜図3の移動端末機が動作可能な無線通信システムを示す図である。 本発明の一実施形態による移動端末機の制御方法を示すフローチャートである。 本発明の一実施形態による移動端末機の音声認識機能のアクティブ化方法を説明するための表示画面を示す図である。 本発明の一実施形態による移動端末機の音声認識方法を示すフローチャートである。 本発明の一実施形態による移動端末機の音声認識率に基づいて表示されたメニューを含む表示画面の例を示す図である。 本発明の一実施形態による移動端末機の音声認識方法を説明するための表示画面の一例を示す図である。 本発明の一実施形態による移動端末機の音声認識方法を説明するための表示画面の他の例を示す図である。 本発明の一実施形態による移動端末機の音声認識方法に使用されるデータベースシステムを示すブロック図である。 本発明の一実施形態による移動端末機で音声命令が行われていることを使用者に通知するメッセージを表示する表示画面を示す図である。

Claims (15)

  1. 移動端末機であって、
    前記移動端末機は、
    前記移動端末機の音声認識機能をアクティブにする入力を受信するように構成された入力部と
    前記移動端末機で行われる動作に関する情報を保存するように構成されたメモリと
    前記音声認識機能をアクティブにする入力が受信されると前記音声認識機能をアクティブにし、前記移動端末機で行われる少なくとも1つの事前動作と入力音声命令に含まれる言語に基づいて、前記音声命令の意味を判断し、前記移動端末機で行われる少なくとも1つの事前動作と前記音声命令に含まれる言語に基づいて、また、前記判断された入力音声命令の意味と前記移動端末機で行われる動作に関する情報とがマッチする確率に基づいて、前記判断された入力音声命令の意味に関する動作を提供するように構成された制御部と
    を含み、
    前記動作は、
    所定の閾値より大きい確率を有する前記入力音声命令の意味にマッチするメニューの数を判断することと、
    前記所定の閾値より大きい確率を有する前記入力音声命令の意味にマッチするのが1つのメニューしかない場合に、前記1つのメニューを表示せずに、前記1つのメニューを実行し、前記所定の閾値より大きい確率を有する前記入力音声命令の意味にマッチするメニューの数が1よりも大きい場合に、前記メニューの各々を表示部に表示することと
    により、提供される、移動端末機。
  2. 前記所定の閾値は、前記移動端末機のメーカ又は前記移動端末機の使用者により設定される請求項に記載の移動端末機。
  3. 前記制御部は、前記移動端末機の動作状態に基づいて、前記入力音声命令の意味を判断するようにさらに構成される請求項1に記載の移動端末機。
  4. 前記制御部は、前記所定の閾値より大きい確率を有する前記入力音声命令の意味にマッチするメニューの中で、最も高い確率を有し、かつ、前記入力音声命令の意味に対応するメニューを差別化して表示するようにさらに構成される請求項に記載の移動端末機。
  5. 前記メニューは、前記メニューのサイズ、表示位置、色、明暗又はハイライト情報のうちの少なくとも1つが異なるように制御することにより表示される、請求項に記載の移動端末機。
  6. 前記入力部は、
    1)前記音声認識機能をアクティブにするためにタッチされるタッチソフトボタン、
    2)前記音声認識機能をアクティブにするために押圧又は操作されるハードボタン、
    3)前記音声認識機能をアクティブにするためにタッチされる、前記入力部に含まれるタッチスクリーンの任意の位置、
    4)前記音声認識機能をアクティブにするために入力される衝撃音、
    5)近距離無線信号又は遠距離無線信号、又は
    6)使用者からの身体情報信号
    のうちの少なくとも1つを含む請求項1に記載の移動端末機。
  7. 前記音声命令を認識する制御部により使用される音声又は発音情報を保存するように構成された第1データベースと
    前記音声命令を認識する制御部により使用される単語、キーワード、又は文章情報を保存するように構成された第2データベースと
    前記移動端末機の機能又はメニューに関する情報を保存するように構成された第3データベースと
    前記制御部が前記認識された音声命令の意味の判断を試みていることを使用者に通知するために出力されるヘルプ情報を保存するように構成された第4データベースと
    をさらに含む請求項1に記載の移動端末機。
  8. 前記制御部は、前記音声認識機能がアクティブ状態にあることを示すオーディオ情報又はビデオ情報を出力するようにさらに構成される請求項1に記載の移動端末機。
  9. 移動端末機を制御する方法であって、
    前記方法は、
    前記移動端末機の音声認識機能をアクティブにする入力を受信することと、
    前記音声認識機能をアクティブにする入力が受信されると前記音声認識機能をアクティブにすることと、
    前記移動端末機で行われる少なくとも1つの事前動作と入力音声命令に含まれる言語に基づいて、また、判断された前記入力音声命令の意味と前記移動端末機で行われる動作に関する情報とがマッチする確率に基づいて、前記判断された入力音声命令の意味に関する動作を提供することと
    を含み、
    前記動作を提供することは、
    所定の閾値より大きい確率を有する前記入力音声命令の意味にマッチするメニューの数を判断することと、
    前記所定の閾値より大きい確率を有する前記入力音声命令の意味にマッチするのが1つのメニューしかない場合に、前記1つのメニューを表示せずに、前記1つのメニューを実行し、前記所定の閾値より大きい確率を有する前記入力音声命令の意味にマッチするメニューの数が1よりも大きい場合に、前記メニューの各々を表示部に表示することと
    により、実行される、方法。
  10. 前記所定の閾値は、前記移動端末機のメーカ又は前記移動端末機の使用者により設定される請求項に記載方法。
  11. 前記移動端末機の動作状態に基づいて、前記入力音声命令の意味を判断することをさらに含む請求項に記載方法。
  12. 前記所定の閾値より大きい確率を有する前記入力音声命令の意味にマッチするメニューの中で、最も高い確率を有し、かつ、前記入力音声命令の意味に対応するメニューを差別化して表示することをさらに含む請求項に記載方法。
  13. 前記メニューは、前記メニューのサイズ、表示位置、色、明暗又はハイライト情報のうちの少なくとも1つが異なるように制御することにより表示される、請求項12に記載方法。
  14. 前記入力するステップは、
    1)前記音声認識機能をアクティブにするためにタッチされるタッチソフトボタン、
    2)前記音声認識機能をアクティブにするために押圧又は操作されるハードボタン、
    3)前記音声認識機能をアクティブにするためにタッチされる、前記入力部に含まれるタッチスクリーンの任意の位置、
    4)前記音声認識機能をアクティブにするために入力される衝撃音、
    5)近距離無線信号又は遠距離無線信号、又は
    6)使用者からの身体情報信号
    のうちの少なくとも1つを使用して、前記音声認識機能をアクティブにすることを含む、請求項に記載方法。
  15. 前記音声認識機能がアクティブ状態にあることを示すオーディオ情報又はビデオ情報を出力することをさらに含む請求項に記載方法。
JP2008298799A 2008-04-08 2008-11-21 移動端末機及びそのメニュー制御方法 Active JP5481058B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020080032842A KR20090107365A (ko) 2008-04-08 2008-04-08 이동 단말기 및 그 메뉴 제어방법
KR10-2008-0032842 2008-04-08

Publications (2)

Publication Number Publication Date
JP2009252238A JP2009252238A (ja) 2009-10-29
JP5481058B2 true JP5481058B2 (ja) 2014-04-23

Family

ID=40445594

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008298799A Active JP5481058B2 (ja) 2008-04-08 2008-11-21 移動端末機及びそのメニュー制御方法

Country Status (6)

Country Link
US (2) US8150700B2 (ja)
EP (1) EP2109298B1 (ja)
JP (1) JP5481058B2 (ja)
KR (1) KR20090107365A (ja)
CN (1) CN101557651B (ja)
RU (1) RU2394386C2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018079379A1 (ja) 2016-10-27 2018-05-03 株式会社Nttドコモ 通信端末装置、プログラム及び情報処理方法

Families Citing this family (274)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US10002189B2 (en) 2007-12-20 2018-06-19 Apple Inc. Method and apparatus for searching using an active ontology
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
KR20090107365A (ko) * 2008-04-08 2009-10-13 엘지전자 주식회사 이동 단말기 및 그 메뉴 제어방법
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
WO2010067118A1 (en) 2008-12-11 2010-06-17 Novauris Technologies Limited Speech recognition involving a mobile device
KR101566379B1 (ko) * 2009-05-07 2015-11-13 삼성전자주식회사 입력 신호 종류 별 사용자 기능 활성화 방법 및 이를 지원하는 휴대 단말기
US10706373B2 (en) 2011-06-03 2020-07-07 Apple Inc. Performing actions associated with task items that represent tasks to perform
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
WO2011089450A2 (en) 2010-01-25 2011-07-28 Andrew Peter Nelson Jerram Apparatuses, methods and systems for a digital conversation management platform
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US20110246194A1 (en) * 2010-03-30 2011-10-06 Nvoq Incorporated Indicia to indicate a dictation application is capable of receiving audio
US8738377B2 (en) * 2010-06-07 2014-05-27 Google Inc. Predicting and learning carrier phrases for speech input
US8296151B2 (en) * 2010-06-18 2012-10-23 Microsoft Corporation Compound gesture-speech commands
US20130215079A1 (en) * 2010-11-09 2013-08-22 Koninklijke Philips Electronics N.V. User interface with haptic feedback
US10762293B2 (en) 2010-12-22 2020-09-01 Apple Inc. Using parts-of-speech tagging and named entity recognition for spelling correction
KR101802522B1 (ko) * 2011-02-10 2017-11-29 삼성전자주식회사 복수의 터치스크린을 가지는 장치 및 복수의 터치스크린을 가지는 장치의 화면변경방법
JP5039214B2 (ja) * 2011-02-17 2012-10-03 株式会社東芝 音声認識操作装置及び音声認識操作方法
US8630860B1 (en) * 2011-03-03 2014-01-14 Nuance Communications, Inc. Speaker and call characteristic sensitive open voice search
CN102685307A (zh) * 2011-03-15 2012-09-19 中兴通讯股份有限公司 命令信息处理方法、装置及系统
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
EP2506202A1 (en) * 2011-03-29 2012-10-03 Research In Motion Limited Mobile wireless communications device for selecting a payment account to use with a payment processing system based upon a microphone or device profile and associated methods
JP2015039071A (ja) * 2011-03-30 2015-02-26 株式会社東芝 音声認識操作装置及び音声認識操作方法
US20120304067A1 (en) * 2011-05-25 2012-11-29 Samsung Electronics Co., Ltd. Apparatus and method for controlling user interface using sound recognition
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US8994660B2 (en) 2011-08-29 2015-03-31 Apple Inc. Text correction processing
KR20130032966A (ko) 2011-09-26 2013-04-03 엘지전자 주식회사 사용자 인터페이스 방법 및 장치
US9992745B2 (en) 2011-11-01 2018-06-05 Qualcomm Incorporated Extraction and analysis of buffered audio data using multiple codec rates each greater than a low-power processor rate
WO2013085507A1 (en) 2011-12-07 2013-06-13 Hewlett-Packard Development Company, L.P. Low power integrated circuit to analyze a digitized audio stream
KR101590332B1 (ko) * 2012-01-09 2016-02-18 삼성전자주식회사 영상장치 및 그 제어방법
KR101889836B1 (ko) 2012-02-24 2018-08-20 삼성전자주식회사 음성인식을 통한 단말기의 잠금 상태 해제 및 조작 방법 및 장치
JP5814823B2 (ja) * 2012-02-28 2015-11-17 京セラ株式会社 携帯端末、特定モード設定プログラムおよび特定モード設定方法
US10276156B2 (en) 2012-02-29 2019-04-30 Nvidia Corporation Control using temporally and/or spectrally compact audio commands
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
WO2013162414A1 (ru) * 2012-04-23 2013-10-31 Janovskiy Igor Vladimirovich Терминал беспроводной голосовой связи
JP2013238935A (ja) * 2012-05-11 2013-11-28 Sharp Corp 入力装置、入力装置の制御方法、制御プログラム、および記録媒体
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US9781262B2 (en) * 2012-08-02 2017-10-03 Nuance Communications, Inc. Methods and apparatus for voice-enabling a web application
CN102883041A (zh) * 2012-08-02 2013-01-16 聚熵信息技术(上海)有限公司 移动终端的语音控制装置及方法
US10157612B2 (en) 2012-08-02 2018-12-18 Nuance Communications, Inc. Methods and apparatus for voice-enabling a web application
US9292253B2 (en) 2012-08-02 2016-03-22 Nuance Communications, Inc. Methods and apparatus for voiced-enabling a web application
US9400633B2 (en) * 2012-08-02 2016-07-26 Nuance Communications, Inc. Methods and apparatus for voiced-enabling a web application
US9292252B2 (en) 2012-08-02 2016-03-22 Nuance Communications, Inc. Methods and apparatus for voiced-enabling a web application
CN103578472A (zh) * 2012-08-10 2014-02-12 海尔集团公司 电器设备的控制方法和控制装置
CN103593081B (zh) * 2012-08-17 2017-11-07 上海博泰悦臻电子设备制造有限公司 车载设备和语音功能的控制方法
CN103593134B (zh) * 2012-08-17 2018-01-23 上海博泰悦臻电子设备制造有限公司 车载设备和语音功能的控制方法
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
JP6068901B2 (ja) * 2012-09-26 2017-01-25 京セラ株式会社 情報端末、音声操作プログラムおよび音声操作方法
US8468023B1 (en) 2012-10-01 2013-06-18 Google Inc. Handsfree device with countinuous keyword recognition
JP6133564B2 (ja) 2012-10-05 2017-05-24 京セラ株式会社 電子機器、制御方法、及び制御プログラム
CN110636163A (zh) * 2012-11-20 2019-12-31 华为终端有限公司 一种语音响应的方法及移动设备
CN103871401B (zh) * 2012-12-10 2016-12-28 联想(北京)有限公司 一种语音识别的方法及电子设备
CN103869948B (zh) * 2012-12-14 2019-01-15 联想(北京)有限公司 语音命令处理方法和电子设备
JPWO2014103568A1 (ja) 2012-12-28 2017-01-12 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
KR101732137B1 (ko) 2013-01-07 2017-05-02 삼성전자주식회사 원격 제어 장치 및 전력 제어 방법
CN113470641B (zh) 2013-02-07 2023-12-15 苹果公司 数字助理的语音触发器
KR102057629B1 (ko) * 2013-02-19 2020-01-22 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
US9734819B2 (en) 2013-02-21 2017-08-15 Google Technology Holdings LLC Recognizing accented speech
EP2962403A4 (en) * 2013-02-27 2016-11-16 Knowles Electronics Llc LANGUAGE-CONTROLLED COMMUNICATION CONNECTIONS
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
KR101331122B1 (ko) * 2013-03-15 2013-11-19 주식회사 에이디자인 모바일 기기의 수신시 통화연결 방법
WO2014144579A1 (en) 2013-03-15 2014-09-18 Apple Inc. System and method for updating an adaptive speech recognition model
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
US9661136B2 (en) 2013-03-15 2017-05-23 Adesign Mobile device having function of controlling call connection in lock mode by using voice signal
WO2014144949A2 (en) 2013-03-15 2014-09-18 Apple Inc. Training an at least partial voice command system
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
KR101772152B1 (ko) 2013-06-09 2017-08-28 애플 인크. 디지털 어시스턴트의 둘 이상의 인스턴스들에 걸친 대화 지속성을 가능하게 하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
CN105265005B (zh) 2013-06-13 2019-09-17 苹果公司 用于由语音命令发起的紧急呼叫的系统和方法
CN105453026A (zh) 2013-08-06 2016-03-30 苹果公司 基于来自远程设备的活动自动激活智能响应
GB2518002B (en) * 2013-09-10 2017-03-29 Jaguar Land Rover Ltd Vehicle interface system
US9508345B1 (en) 2013-09-24 2016-11-29 Knowles Electronics, Llc Continuous voice sensing
KR102155482B1 (ko) 2013-10-15 2020-09-14 삼성전자 주식회사 디스플레이장치 및 그 제어방법
US9532155B1 (en) 2013-11-20 2016-12-27 Knowles Electronics, Llc Real time monitoring of acoustic environments using ultrasound
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
CN104754203B (zh) * 2013-12-31 2018-07-31 华为技术有限公司 拍摄方法、装置及终端
US9462169B2 (en) 2013-12-31 2016-10-04 Huawei Technologies Co., Ltd. Shooting method, apparatus, and terminal
KR102218906B1 (ko) * 2014-01-17 2021-02-23 엘지전자 주식회사 이동 단말기 및 이의 제어 방법
KR102210433B1 (ko) * 2014-01-21 2021-02-01 삼성전자주식회사 전자 장치 및 이의 음성 인식 방법
CN104917904A (zh) * 2014-03-14 2015-09-16 联想(北京)有限公司 一种语音信息处理方法、装置和电子设备
US9437188B1 (en) 2014-03-28 2016-09-06 Knowles Electronics, Llc Buffered reprocessing for multi-microphone automatic speech recognition assist
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US10592095B2 (en) 2014-05-23 2020-03-17 Apple Inc. Instantaneous speaking of content on touch devices
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
WO2015184186A1 (en) 2014-05-30 2015-12-03 Apple Inc. Multi-command single utterance input method
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US10289433B2 (en) 2014-05-30 2019-05-14 Apple Inc. Domain specific language for encoding assistant dialog
WO2015188327A1 (zh) * 2014-06-11 2015-12-17 华为技术有限公司 快速启动应用服务的方法和终端
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
KR102367132B1 (ko) * 2014-07-31 2022-02-25 삼성전자주식회사 디바이스 및 디바이스의 기능 수행 방법
WO2016017978A1 (en) * 2014-07-31 2016-02-04 Samsung Electronics Co., Ltd. Device and method for performing functions
KR20160016491A (ko) * 2014-07-31 2016-02-15 삼성전자주식회사 디바이스 및 디바이스의 기능 수행 방법
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US10078382B2 (en) * 2014-09-04 2018-09-18 Home Box Office, Inc. Unified input and invoke handling
US10044591B2 (en) 2014-09-04 2018-08-07 Home Box Office, Inc. Two-way remote communication system for testing a client device program
RU2601152C2 (ru) 2014-09-09 2016-10-27 ХЕРЕ Глобал Б.В. Устройство, способ и компьютерная программа для обеспечения предоставления информации пользователю
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
CN104267922B (zh) * 2014-09-16 2019-05-31 联想(北京)有限公司 一种信息处理方法及电子设备
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US10444977B2 (en) * 2014-12-05 2019-10-15 Verizon Patent And Licensing Inc. Cellphone manager
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
KR20160089782A (ko) * 2015-01-20 2016-07-28 엘지전자 주식회사 이동 단말기 및 그 제어 방법
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US10152299B2 (en) 2015-03-06 2018-12-11 Apple Inc. Reducing response latency of intelligent automated assistants
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
CN106155504B (zh) * 2015-03-26 2019-09-10 小米科技有限责任公司 模组唤醒方法及装置
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10200824B2 (en) 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
KR20160142528A (ko) * 2015-06-03 2016-12-13 엘지전자 주식회사 단말 장치, 네트워크 시스템 및 그 제어 방법
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
US9407989B1 (en) 2015-06-30 2016-08-02 Arthur Woodrow Closed audio circuit
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
JP2017146437A (ja) * 2016-02-17 2017-08-24 本田技研工業株式会社 音声入力処理装置
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US11176930B1 (en) * 2016-03-28 2021-11-16 Amazon Technologies, Inc. Storing audio commands for time-delayed execution
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US11227589B2 (en) 2016-06-06 2022-01-18 Apple Inc. Intelligent list reading
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179309B1 (en) 2016-06-09 2018-04-23 Apple Inc Intelligent automated assistant in a home environment
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
US20180039478A1 (en) * 2016-08-02 2018-02-08 Google Inc. Voice interaction services
US10261752B2 (en) 2016-08-02 2019-04-16 Google Llc Component libraries for voice interaction services
US10474753B2 (en) 2016-09-07 2019-11-12 Apple Inc. Language identification using recurrent neural networks
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
KR102594022B1 (ko) 2016-11-24 2023-10-26 삼성전자주식회사 전자 장치 및 그의 채널맵 업데이트 방법
US11281993B2 (en) 2016-12-05 2022-03-22 Apple Inc. Model and ensemble compression for metric learning
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
CN106683675A (zh) * 2017-02-08 2017-05-17 张建华 一种控制方法及语音操作系统
US10353480B2 (en) 2017-04-17 2019-07-16 Essential Products, Inc. Connecting assistant device to devices
US10355931B2 (en) * 2017-04-17 2019-07-16 Essential Products, Inc. Troubleshooting voice-enabled home setup
CN106910503A (zh) * 2017-04-26 2017-06-30 海信集团有限公司 用于智能终端显示用户操控指令的方法、装置和智能终端
US10417266B2 (en) 2017-05-09 2019-09-17 Apple Inc. Context-aware ranking of intelligent response suggestions
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
US10395654B2 (en) 2017-05-11 2019-08-27 Apple Inc. Text normalization based on a data-driven learning network
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770429A1 (en) 2017-05-12 2018-12-14 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
US11301477B2 (en) 2017-05-12 2022-04-12 Apple Inc. Feedback analysis of a digital assistant
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK201770411A1 (en) 2017-05-15 2018-12-20 Apple Inc. MULTI-MODAL INTERFACES
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
US10311144B2 (en) 2017-05-16 2019-06-04 Apple Inc. Emoji word sense disambiguation
US10303715B2 (en) 2017-05-16 2019-05-28 Apple Inc. Intelligent automated assistant for media exploration
DK179560B1 (en) 2017-05-16 2019-02-18 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US10403278B2 (en) 2017-05-16 2019-09-03 Apple Inc. Methods and systems for phonetic matching in digital assistant services
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
US10657328B2 (en) 2017-06-02 2020-05-19 Apple Inc. Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling
CN107544827A (zh) * 2017-08-23 2018-01-05 金蝶软件(中国)有限公司 一种功能调用的方法及相关装置
JP6914154B2 (ja) * 2017-09-15 2021-08-04 シャープ株式会社 表示制御装置、表示制御方法及びプログラム
US10445429B2 (en) 2017-09-21 2019-10-15 Apple Inc. Natural language understanding using vocabularies with compressed serialized tries
US10755051B2 (en) 2017-09-29 2020-08-25 Apple Inc. Rule-based natural language processing
CN207199277U (zh) * 2017-10-11 2018-04-06 京东方科技集团股份有限公司 一种显示装置
CN107945806B (zh) * 2017-11-10 2022-03-08 北京小米移动软件有限公司 基于声音特征的用户识别方法及装置
US10636424B2 (en) 2017-11-30 2020-04-28 Apple Inc. Multi-turn canned dialog
US10733982B2 (en) 2018-01-08 2020-08-04 Apple Inc. Multi-directional dialog
US10733375B2 (en) 2018-01-31 2020-08-04 Apple Inc. Knowledge-based framework for improving natural language understanding
US10789959B2 (en) 2018-03-02 2020-09-29 Apple Inc. Training speaker recognition models for digital assistants
US10592604B2 (en) 2018-03-12 2020-03-17 Apple Inc. Inverse text normalization for automatic speech recognition
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US10909331B2 (en) 2018-03-30 2021-02-02 Apple Inc. Implicit identification of translation payload with neural machine translation
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10984780B2 (en) 2018-05-21 2021-04-20 Apple Inc. Global semantic word embeddings using bi-directional recurrent neural networks
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS
US11386266B2 (en) 2018-06-01 2022-07-12 Apple Inc. Text correction
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
US10496705B1 (en) 2018-06-03 2019-12-03 Apple Inc. Accelerated task performance
FI20185605A1 (en) * 2018-06-29 2019-12-30 Crf Box Oy Continuous verification of user identity in clinical trials via audio-based user interface
US11010561B2 (en) 2018-09-27 2021-05-18 Apple Inc. Sentiment prediction from textual data
US10839159B2 (en) 2018-09-28 2020-11-17 Apple Inc. Named entity normalization in a spoken dialog system
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US11170166B2 (en) 2018-09-28 2021-11-09 Apple Inc. Neural typographical error modeling via generative adversarial networks
US11475898B2 (en) 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
CN109688474A (zh) * 2018-12-28 2019-04-26 南京创维信息技术研究院有限公司 电视语音控制方法、装置和计算机可读存储介质
US11638059B2 (en) 2019-01-04 2023-04-25 Apple Inc. Content playback on multiple devices
CN109887487B (zh) * 2019-01-29 2021-05-11 北京声智科技有限公司 一种数据筛选方法、装置及电子设备
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
CN109976702A (zh) * 2019-03-20 2019-07-05 青岛海信电器股份有限公司 一种语音识别方法、装置及终端
US11423908B2 (en) 2019-05-06 2022-08-23 Apple Inc. Interpreting spoken requests
US11475884B2 (en) 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
US11289073B2 (en) 2019-05-31 2022-03-29 Apple Inc. Device text to speech
DK201970510A1 (en) 2019-05-31 2021-02-11 Apple Inc Voice identification in digital assistant systems
US11496600B2 (en) 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
US11360641B2 (en) 2019-06-01 2022-06-14 Apple Inc. Increasing the relevance of new available information
US11468890B2 (en) 2019-06-01 2022-10-11 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
US11449308B2 (en) * 2019-07-19 2022-09-20 Google Llc Condensed spoken utterances for automated assistant control of an intricate application GUI
JP7237356B2 (ja) * 2019-08-28 2023-03-13 株式会社トーアエンジニアリング Cad制御支援システム
WO2021056255A1 (en) 2019-09-25 2021-04-01 Apple Inc. Text detection using global geometry estimators
JP7447458B2 (ja) * 2019-12-13 2024-03-12 コニカミノルタ株式会社 制御装置、制御システム及び制御プログラム
US11183193B1 (en) 2020-05-11 2021-11-23 Apple Inc. Digital assistant hardware abstraction
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
CN112397069A (zh) * 2021-01-19 2021-02-23 成都启英泰伦科技有限公司 一种语音遥控方法及装置
US11680209B1 (en) 2021-12-13 2023-06-20 Uop Llc Process for converting plastic feed containing polypropylene to aromatics

Family Cites Families (89)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6237734A (ja) * 1985-08-12 1987-02-18 Matsushita Electric Ind Co Ltd 命令選択装置
JPH05341951A (ja) * 1992-06-11 1993-12-24 Toshiba Corp 音声入力操作装置
JP3725566B2 (ja) * 1992-12-28 2005-12-14 株式会社東芝 音声認識インターフェース
US5452289A (en) * 1993-01-08 1995-09-19 Multi-Tech Systems, Inc. Computer-based multifunction personal communications system
CA2115210C (en) 1993-04-21 1997-09-23 Joseph C. Andreshak Interactive computer system recognizing spoken commands
FI981154A (fi) * 1998-05-25 1999-11-26 Nokia Mobile Phones Ltd Menetelmä ja laite puheen tunnistamiseksi
KR20010024521A (ko) 1998-08-17 2001-03-26 이데이 노부유끼 음성 인식 장치 및 방법, 내비게이션 장치, 휴대 전화장치 및 정보 처리 장치
US6965863B1 (en) * 1998-11-12 2005-11-15 Microsoft Corporation Speech recognition user interface
US7881936B2 (en) * 1998-12-04 2011-02-01 Tegic Communications, Inc. Multimodal disambiguation of speech recognition
US6233560B1 (en) * 1998-12-16 2001-05-15 International Business Machines Corporation Method and apparatus for presenting proximal feedback in voice command systems
KR100310339B1 (ko) * 1998-12-30 2002-01-17 윤종용 이동전화 단말기의 음성인식 다이얼링 방법
US6519479B1 (en) * 1999-03-31 2003-02-11 Qualcomm Inc. Spoken user interface for speech-enabled devices
US6434527B1 (en) * 1999-05-17 2002-08-13 Microsoft Corporation Signalling and controlling the status of an automatic speech recognition system for use in handsfree conversational dialogue
US6931384B1 (en) * 1999-06-04 2005-08-16 Microsoft Corporation System and method providing utility-based decision making about clarification dialog given communicative uncertainty
US6622119B1 (en) * 1999-10-30 2003-09-16 International Business Machines Corporation Adaptive command predictor and method for a natural language dialog system
US7725307B2 (en) * 1999-11-12 2010-05-25 Phoenix Solutions, Inc. Query engine for processing voice based queries including semantic decoding
GB2358987B (en) 2000-02-01 2003-10-29 Ericsson Telefon Ab L M Electronic devices
US6895380B2 (en) * 2000-03-02 2005-05-17 Electro Standards Laboratories Voice actuation with contextual learning for intelligent machine control
US6934684B2 (en) * 2000-03-24 2005-08-23 Dialsurf, Inc. Voice-interactive marketplace providing promotion and promotion tracking, loyalty reward and redemption, and other features
JP2001296881A (ja) * 2000-04-14 2001-10-26 Sony Corp 情報処理装置および方法、並びに記録媒体
US6587824B1 (en) * 2000-05-04 2003-07-01 Visteon Global Technologies, Inc. Selective speaker adaptation for an in-vehicle speech recognition system
US7392193B2 (en) * 2000-06-16 2008-06-24 Microlife Corporation Speech recognition capability for a personal digital assistant
US6658386B2 (en) * 2000-12-12 2003-12-02 International Business Machines Corporation Dynamically adjusting speech menu presentation style
JP3919210B2 (ja) * 2001-02-15 2007-05-23 アルパイン株式会社 音声入力案内方法及び装置
GB2372864B (en) * 2001-02-28 2005-09-07 Vox Generation Ltd Spoken language interface
US20020152071A1 (en) * 2001-04-12 2002-10-17 David Chaiken Human-augmented, automatic speech recognition engine
JP2003241790A (ja) * 2002-02-13 2003-08-29 Internatl Business Mach Corp <Ibm> 音声コマンド処理システム、コンピュータ装置、音声コマンド処理方法およびプログラム
US7398209B2 (en) * 2002-06-03 2008-07-08 Voicebox Technologies, Inc. Systems and methods for responding to natural language speech utterance
EP1400953B1 (en) * 2002-09-12 2013-03-20 me2me AG Method for building speech and/or language recognition models
US20070186480A1 (en) * 2002-11-22 2007-08-16 Brian Freeman Automatic door control system
US6993482B2 (en) * 2002-12-18 2006-01-31 Motorola, Inc. Method and apparatus for displaying speech recognition results
KR100668297B1 (ko) * 2002-12-31 2007-01-12 삼성전자주식회사 음성인식방법 및 장치
US7333803B2 (en) * 2004-01-20 2008-02-19 Lucent Technologies Inc. Network support for voice-to-text memo service
US20050177373A1 (en) * 2004-02-05 2005-08-11 Avaya Technology Corp. Methods and apparatus for providing context and experience sensitive help in voice applications
US20090164215A1 (en) * 2004-02-09 2009-06-25 Delta Electronics, Inc. Device with voice-assisted system
US20050197843A1 (en) * 2004-03-07 2005-09-08 International Business Machines Corporation Multimodal aggregating unit
KR100617711B1 (ko) 2004-06-25 2006-08-28 삼성전자주식회사 휴대단말기에서 음성인식구동 방법
US20080154601A1 (en) * 2004-09-29 2008-06-26 Microsoft Corporation Method and system for providing menu and other services for an information processing system using a telephone or other audio interface
US8942985B2 (en) * 2004-11-16 2015-01-27 Microsoft Corporation Centralized method and system for clarifying voice commands
US7376645B2 (en) * 2004-11-29 2008-05-20 The Intellection Group, Inc. Multimodal natural language query system and architecture for processing voice and proximity-based queries
CN100521707C (zh) 2004-12-24 2009-07-29 深圳市金立通信设备有限公司 具声控拨号功能的手机控制方法
US8185399B2 (en) * 2005-01-05 2012-05-22 At&T Intellectual Property Ii, L.P. System and method of providing an automated data-collection in spoken dialog systems
US7437297B2 (en) * 2005-01-27 2008-10-14 International Business Machines Corporation Systems and methods for predicting consequences of misinterpretation of user commands in automated systems
US8200495B2 (en) * 2005-02-04 2012-06-12 Vocollect, Inc. Methods and systems for considering information about an expected response when performing speech recognition
US7640160B2 (en) * 2005-08-05 2009-12-29 Voicebox Technologies, Inc. Systems and methods for responding to natural language speech utterance
JP5320064B2 (ja) * 2005-08-09 2013-10-23 モバイル・ヴォイス・コントロール・エルエルシー 音声制御型ワイヤレス通信デバイス・システム
US7620549B2 (en) * 2005-08-10 2009-11-17 Voicebox Technologies, Inc. System and method of supporting adaptive misrecognition in conversational speech
US8265939B2 (en) * 2005-08-31 2012-09-11 Nuance Communications, Inc. Hierarchical methods and apparatus for extracting user intent from spoken utterances
JP2007065347A (ja) * 2005-08-31 2007-03-15 Denso Corp 音声認識システム
US7693716B1 (en) * 2005-09-27 2010-04-06 At&T Intellectual Property Ii, L.P. System and method of developing a TTS voice
US20070112571A1 (en) * 2005-11-11 2007-05-17 Murugappan Thirugnana Speech recognition at a mobile terminal
JP2007142840A (ja) * 2005-11-18 2007-06-07 Canon Inc 情報処理装置及び情報処理方法
CN101495955B (zh) * 2005-12-12 2013-06-19 特捷通讯公司 移动设备检索与导航
JP4755918B2 (ja) * 2006-02-22 2011-08-24 東芝テック株式会社 データ入力装置及び方法並びにプログラム
KR100735820B1 (ko) * 2006-03-02 2007-07-06 삼성전자주식회사 휴대 단말기에서 음성 인식에 의한 멀티미디어 데이터 검색방법 및 그 장치
JP4809101B2 (ja) 2006-03-31 2011-11-09 京セラ株式会社 移動体通信端末、及びプログラム
JP2007280179A (ja) * 2006-04-10 2007-10-25 Mitsubishi Electric Corp 携帯端末
US8121838B2 (en) * 2006-04-11 2012-02-21 Nuance Communications, Inc. Method and system for automatic transcription prioritization
US20080233937A1 (en) 2006-05-08 2008-09-25 Marja-Leena Nurmela Mobile communication terminal and method
US7774202B2 (en) * 2006-06-12 2010-08-10 Lockheed Martin Corporation Speech activated control system and related methods
WO2007148142A1 (en) 2006-06-20 2007-12-27 Telefonaktiebolaget Lm Ericsson (Publ) Arrangement and method for controlling service activation on a mobile terminal
KR100783105B1 (ko) 2006-08-22 2007-12-07 삼성전자주식회사 음성인식 기능을 구비한 전화기의 전화통화 방법 및 장치
US7957972B2 (en) * 2006-09-05 2011-06-07 Fortemedia, Inc. Voice recognition system and method thereof
KR100774927B1 (ko) 2006-09-27 2007-11-09 엘지전자 주식회사 이동통신 단말기, 메뉴 및 아이템 선택방법
KR20080032842A (ko) 2006-10-11 2008-04-16 삼성전자주식회사 평판표시패널을 구비한 전자기기
US20080091426A1 (en) * 2006-10-12 2008-04-17 Rod Rempel Adaptive context for automatic speech recognition systems
US7904298B2 (en) * 2006-11-17 2011-03-08 Rao Ashwin P Predictive speech-to-text input
JP4471128B2 (ja) * 2006-11-22 2010-06-02 セイコーエプソン株式会社 半導体集積回路装置、電子機器
US20090192898A1 (en) * 2006-11-29 2009-07-30 E-Meal, Llc Remote Ordering System
US20080154612A1 (en) * 2006-12-26 2008-06-26 Voice Signal Technologies, Inc. Local storage and use of search results for voice-enabled mobile communications devices
US8996379B2 (en) * 2007-03-07 2015-03-31 Vlingo Corporation Speech recognition text entry for software applications
US7870000B2 (en) * 2007-03-28 2011-01-11 Nuance Communications, Inc. Partially filling mixed-initiative forms from utterances having sub-threshold confidence scores based upon word-level confidence data
US8204746B2 (en) * 2007-03-29 2012-06-19 Intellisist, Inc. System and method for providing an automated call center inline architecture
JP4412504B2 (ja) * 2007-04-17 2010-02-10 本田技研工業株式会社 音声認識装置、音声認識方法、及び音声認識用プログラム
US7809664B2 (en) * 2007-12-21 2010-10-05 Yahoo! Inc. Automated learning from a question and answering network of humans
US8099289B2 (en) * 2008-02-13 2012-01-17 Sensory, Inc. Voice interface and search for electronic devices including bluetooth headsets and remote systems
US7917368B2 (en) * 2008-02-25 2011-03-29 Mitsubishi Electric Research Laboratories, Inc. Method for interacting with users of speech recognition systems
US20090234655A1 (en) * 2008-03-13 2009-09-17 Jason Kwon Mobile electronic device with active speech recognition
US8958848B2 (en) * 2008-04-08 2015-02-17 Lg Electronics Inc. Mobile terminal and menu control method thereof
KR20090107365A (ko) * 2008-04-08 2009-10-13 엘지전자 주식회사 이동 단말기 및 그 메뉴 제어방법
KR101466027B1 (ko) * 2008-04-30 2014-11-28 엘지전자 주식회사 이동 단말기 및 그 통화내용 관리 방법
KR101462930B1 (ko) * 2008-04-30 2014-11-19 엘지전자 주식회사 이동 단말기 및 그 화상통화 제어방법
KR101462932B1 (ko) * 2008-05-28 2014-12-04 엘지전자 주식회사 이동 단말기 및 그의 텍스트 수정방법
KR100988397B1 (ko) * 2008-06-09 2010-10-19 엘지전자 주식회사 이동 단말기 및 그의 텍스트 수정방법
KR101513615B1 (ko) * 2008-06-12 2015-04-20 엘지전자 주식회사 이동 단말기 및 그 음성 인식 방법
KR101502003B1 (ko) * 2008-07-08 2015-03-12 엘지전자 주식회사 이동 단말기 및 그 텍스트 입력 방법
KR20100007625A (ko) * 2008-07-14 2010-01-22 엘지전자 주식회사 이동 단말기 및 그 메뉴 표시 방법
US8412531B2 (en) * 2009-06-10 2013-04-02 Microsoft Corporation Touch anywhere to speak
US9263034B1 (en) * 2010-07-13 2016-02-16 Google Inc. Adapting enhanced acoustic models

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018079379A1 (ja) 2016-10-27 2018-05-03 株式会社Nttドコモ 通信端末装置、プログラム及び情報処理方法
US11128749B2 (en) 2016-10-27 2021-09-21 Ntt Docomo, Inc. Communication terminal device, program, and information-processing method

Also Published As

Publication number Publication date
RU2008126782A (ru) 2010-01-10
KR20090107365A (ko) 2009-10-13
US8150700B2 (en) 2012-04-03
US20120130712A1 (en) 2012-05-24
CN101557651B (zh) 2012-12-12
EP2109298B1 (en) 2017-11-22
RU2394386C2 (ru) 2010-07-10
EP2109298A1 (en) 2009-10-14
JP2009252238A (ja) 2009-10-29
CN101557651A (zh) 2009-10-14
US20090254351A1 (en) 2009-10-08
US8560324B2 (en) 2013-10-15

Similar Documents

Publication Publication Date Title
JP5481058B2 (ja) 移動端末機及びそのメニュー制御方法
US9900414B2 (en) Mobile terminal and menu control method thereof
US8428654B2 (en) Mobile terminal and method for displaying menu thereof
US8543394B2 (en) Mobile terminal and text correcting method in the same
RU2412463C2 (ru) Терминал мобильной связи и способ управления его меню
EP2133870B1 (en) Mobile terminal and method for recognizing voice thereof
US8355914B2 (en) Mobile terminal and method for correcting text thereof
KR101462930B1 (ko) 이동 단말기 및 그 화상통화 제어방법
KR20090107364A (ko) 이동 단말기 및 그 메뉴 제어방법
KR101537693B1 (ko) 단말기 및 그 제어 방법
KR20090115599A (ko) 이동 단말기 및 그 정보 처리방법
KR101504212B1 (ko) 단말기 및 그 제어 방법
KR101513635B1 (ko) 단말기 및 그 제어 방법
KR101521927B1 (ko) 단말기 및 그 제어 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130520

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140217

R150 Certificate of patent or registration of utility model

Ref document number: 5481058

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250