JP2013041580A - 電子装置及びその制御方法 - Google Patents

電子装置及びその制御方法 Download PDF

Info

Publication number
JP2013041580A
JP2013041580A JP2012173307A JP2012173307A JP2013041580A JP 2013041580 A JP2013041580 A JP 2013041580A JP 2012173307 A JP2012173307 A JP 2012173307A JP 2012173307 A JP2012173307 A JP 2012173307A JP 2013041580 A JP2013041580 A JP 2013041580A
Authority
JP
Japan
Prior art keywords
voice
motion
task
user
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012173307A
Other languages
English (en)
Other versions
JP6111030B2 (ja
Inventor
Jung Geun Kim
正 根 金
Yoo Tai Kim
裕 泰 金
Seung-Dong Yu
昇 東 兪
Sang-Jin Han
尚 珍 韓
Hee Seob Ryu
煕 渉 柳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020110114197A external-priority patent/KR20130016024A/ko
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2013041580A publication Critical patent/JP2013041580A/ja
Application granted granted Critical
Publication of JP6111030B2 publication Critical patent/JP6111030B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering

Abstract

【課題】 本発明の目的は、ユーザの音声及びモーションを認識して効果的に電子装置のタスクを行うための電子装置の制御方法及びそれを適用した電子装置を提供することにある。
【解決手段】 電子装置及び電子装置のUI提供方法が開示される。より詳細には、音声タスクモードで表示される音声認識を通じて制御可能なアプリケーションの短縮アイコンは音声認識を通じて制御不可なアプリケーションの短縮アイコンと区別できるように表示する電子装置及び電子装置のUI提供方法を開示される。開示される実施形態の一部は、音声認識及びモーション認識が可能であり、音声タスクモードで表示される音声認識を通じて制御可能なアプリケーションの短縮アイコン及び短縮アイコンの名前は、音声認識を通じて制御不可なアプリケーションの短縮アイコン及び短縮アイコンの名前と区別できるように表示する電子装置及び電子装置のUI提供方法を提供する。
【選択図】 図1

Description

本発明は、電子装置及びその制御方法に関し、より詳細には、音声入力部及びモーション入力部を介して入力された音声及びモーションに応じて制御される電子装置及びその制御方法に関する。
電子技術の発展により、多様な種類の電子装置が開発され普及されている。特に、最近はテレビをはじめとする多様な類型の電子装置が一般家庭でも使われている。
これらの電子装置は、ユーザの要求に応じてより多様な機能を備えるようになっている。特に、テレビの場合、最近はインターネットと接続されてインターネットサービスまでサポートしている。なお、ユーザはテレビを通じて数多くのデジタル放送チャネルも視聴できるようになっている。
よって、電子装置の多様な機能を効率的に使うための多様な入力方法が要求されている。例えば、リモコンを用いた入力方法、マウスを用いた入力方法、及びタッチパッドを用いた入力方法等が電子装置に適用されている。
ところが、このような単純な入力方法だけでは、電子装置の多様な機能を効果的に使いこなすことが困難であった。仮に、電子装置のすべての機能をリモコンだけで制御するように実現できると、リモコンのボタン数を増やさざるを得なかった。この場合、一般のユーザがリモコンの使用法を習得することは決して容易なことではない。
なお、多様なメニューを画面上に表示してユーザが当該メニューを探し出して選択する方法の場合、ユーザが複雑なメニューツリーを一々確認し、自分の望むメニューを選択しなければならないため、不便であった。
従って、電子装置をより便利かつ効果的に制御するための技術が求められるようになった。
韓国特開第10−2007−0055210号公報 韓国特開第10−2010−0102354号公報 韓国特開第10−2006−0084251号公報
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、音声入力部及びモーション入力部を介して入力された音声及びモーションに応じて制御される電子装置及びその制御方法を提供することにある。
前記目的を達成するための本発明の一実施形態に係る電子装置の制御方法は、音声認識モジュール及びモーション認識モジュールのいずれか一つを通じて、ユーザ音声及びユーザモーションのいずれか一つを認識するステップと、前記音声認識モジュールを通じてユーザ音声が認識されると、遠隔制御装置によって制御可能なタスクの中で、前記認識されたユーザ音声に対応する音声タスクを行い、前記モーション認識モジュールを通じて前記ユーザモーションが認識されると、前記遠隔制御装置で制御可能なタスクの中で、前記認識されたユーザモーションに対応するモーションタスクを行うステップとを含み、前記音声タスク及び前記モーションタスクは前記遠隔制御装置に備えられたボタン毎に区分されてマッピングされてよい。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置の制御方法は、音声認識モジュールを通じて音声開始命令が認識されると、前記音声認識モジュールを通じて認識されたユーザ音声によって前記電子装置が制御される音声タスクモードに切り替えるステップと、モーション認識モジュールを通じてモーション開始命令が認識されると、前記モーション認識モジュールを通じて認識されたユーザモーションによって前記電子装置が制御されるモーションタスクモードに切り替えるステップとを含む。
一方、前記目的を達成するための本発明の一実施形態に係る音声認識及びモーション認識が可能な電子装置の制御方法は、前記音声認識をガイドするための音声アイテムが含まれた音声ガイド情報及び前記モーション認識をガイドするためのモーションアイテムが含まれたモーションガイド情報のいずれか一つをディスプレイするステップと、前記音声ガイド情報に含まれた音声アイテムのいずれか一つに対応する命令語が認識されると、前記認識された命令語に対応する音声タスクを行うステップと、前記モーションガイド情報に含まれたモーションアイテムのいずれか一つに対応するモーションが認識されると、前記認識されたモーションに対応するモーションタスクを行うステップとを含む。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置の制御方法は、音声認識モジュール及びモーション認識モジュールのいずれか一つを通じて、ユーザ音声及びユーザモーションのいずれか一つを認識するステップと、前記音声認識モジュールを通じてユーザ音声が認識されると、チャネル識別子が各々付与された複数のチャネルのうち、前記認識されたユーザ音声に対応するチャネル識別子が付与されたチャネルに変更するチャネルショートカットを行い、前記モーション認識モジュールを通じてユーザのモーションが認識されると、前記ユーザのモーションの方向に対応するように、前記複数のチャネルを段階的に変更するチャネルザッピング(Zapping)を行うステップとを含む。
一方、前記目的を達成するための本発明の一実施形態に係る音声認識及びモーション認識が可能な電子装置の制御方法は、音声認識モジュールを通じて音声開始命令(Trigger Voice)を認識するステップと、前記認識された音声開始命令に応答して前記音声認識に応じて制御される音声タスクモードを行うための音声アイテムをディスプレイ部に表示するステップと、モーション認識モジュールを通じてモーション開始命令が認識されると、前記モーション認識に応じて制御されるモーションタスクモードに対応するモーションアイテムを前記ディスプレイ部に表示するステップとを含む。
一方、前記目的を達成するための本発明の一実施形態に係る音声認識及びモーション認識が可能な電子装置の制御方法は、モーション認識モジュールを通じてモーション開始命令(Trigger Motion)を認識するステップと、前記認識されたモーション開始命令に応答して前記モーション認識に応じて制御されるモーションタスクモードを行うためのモーションアイテムをディスプレイ部に表示するステップと、音声認識モジュールを通じて音声開始命令が認識されると、前記音声認識に応じて制御される音声タスクモードに対応する音声アイテムを前記ディスプレイ部に表示するステップとを含む。
そして、前記音声タスクは、チャネルショートカット及びサウンドオフの少なくともいずれか一つを含み、前記モーションタスクは、チャネルザッピング及び音量レベル調節の少なくともいずれか一つを含んでよい。
なお、前記認識されたユーザ音声にチャネルを選択するためのチャネル識別子が含まれると、前記ユーザ音声に含まれたチャネル識別子に対応するチャネルに変更されるチャネルショートカットを行い、前記チャネル識別子はチャネル番号、チャネル名及び番組名の少なくともいずれか一つを含んでよい。
そして、前記ユーザモーションはスラップを含み、上下方向へのスラップが認識されると、チャネルザッピングを行い、左右方向へのスラップが認識されると、音量レベル調節を行ってよい。
なお、前記認識されたユーザモーションが上方へのスラップモーションである場合、現在出力される放送のチャネル番号より予め設定された番号分だけ増加したチャネルに変更されるようにチャネルザッピングを行い、前記認識されたユーザモーションが下方へのスラップモーションである場合、現在出力される放送のチャネル番号より予め設定された番号分だけ減少したチャネルに変更されるようにチャネルザッピングを行い、前記認識されたユーザモーションが右方へのスラップモーションである場合、現在出力される音量レベルより予め設定されたレベル分だけ増加した音量が出力されるように音量レベル調節を行い、前記認識されたユーザモーションが左方へのスラップモーションである場合、現在出力される音量レベルより予め設定されたレベル分だけ減少した音量が出力されるように音量レベル調節を行ってよい。
そして、前記音声タスクは、前記遠隔制御装置に備えられた数字ボタンによって実行可能なタスクであり、前記モーションタスクは、前記遠隔制御装置に備えられた音量アップ/ダウンボタン及びチャネルアップ/ダウンボタンの少なくともいずれか一つによって実行可能なタスクであってよい。
なお、前記ユーザ音声が認識された場合、前記音声タスクを行うための音声アイテムをディスプレイするステップと、前記ユーザモーションが認識された場合、前記モーションタスクを行うためのモーションアイテムをディスプレイするステップとを含んでよい。
そして、前記音声アイテム及びモーションアイテムは、ディスプレイ画面の同一の領域にディスプレイされてよい。
なお、前記音声タスク及び前記モーションタスクを含む複数のタスクを行うための複数のモジュールを保存部に保存するステップを更に含んでよい。
そして、前記音声タスク及び前記モーションタスクの各々は、互いに異なるタスクが結合することなく単独で前記電子装置の設定を変更してよい。
なお、前記チャネルショートカットを行うステップは、前記ユーザ音声に数字が含まれた場合、前記ユーザ音声に対応するチャネル番号を有するチャネルに直ちに変更されるチャネルショートカットを行ってよい。
そして、前記チャネルザッピングを行うステップは、前記ユーザモーションが上方へのスラップモーション及び下方へのスラップモーションのいずれか一つである場合、前記ユーザモーションに対応する方向にチャネル番号を順次に変更するチャネルザッピングを行ってよい。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置は、ユーザ音声が入力される音声入力部と、ユーザモーションが入力されるモーション入力部と、前記ユーザ音声及び前記ユーザモーションのいずれか一つを認識し、前記ユーザ音声が認識されると、遠隔制御装置によって制御可能なタスクの中で、前記認識されたユーザ音声に対応する音声タスクを行い、前記ユーザモーションが認識されると、前記遠隔制御装置で制御可能なタスクの中で、前記認識されたユーザモーションに対応するモーションタスクを行う制御部とを含み、前記音声タスク及び前記モーションタスクは前記遠隔制御装置に備えられたボタン毎に区分されてマッピングされてよい。
そして、前記音声タスクは、チャネルショートカット及びサウンドオフの少なくともいずれか一つを含み、前記モーションタスクは、チャネルザッピング及び音量レベル調節の少なくともいずれか一つを含んでよい。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置は、音声開始命令が入力される音声入力部と、モーション開始命令が入力されるモーション入力部と、前記音声開始命令及び前記モーション開始命令のいずれか一つを認識し、前記音声開始命令が認識されると、前記音声入力部に入力されたユーザ音声によって前記電子装置が制御される音声タスクモードに切り替え、前記モーション開始命令が認識されると、前記モーション入力部に入力されたユーザモーションによって前記電子装置が制御されるモーションタスクモードに切り替える制御部とを含む。
一方、前記目的を達成するための本発明の一実施形態に係る音声認識及びモーション認識が可能な電子装置は、前記音声認識のためにユーザ音声が入力される音声入力部と、前記モーション認識のためにユーザモーションが入力されるモーション入力部と、前記音声認識をガイドするための音声アイテムが含まれた音声ガイド情報及び前記モーション認識をガイドするためのモーションアイテムが含まれたモーションガイド情報のいずれか一つをディスプレイするディスプレイ部と、前記音声ガイド情報に含まれた音声アイテムに対応する命令語のいずれか一つが認識されると、前記認識された命令語に対応する音声タスクを行い、前記モーションガイド情報に含まれたモーションアイテムのいずれか一つが認識されると、前記認識されたモーションに対応するモーションタスクを行う制御部とを含む。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置は、ユーザ音声が入力される音声入力部と、ユーザモーションが入力されるモーション入力部と、前記ユーザ音声及び前記ユーザモーションのいずれか一つを認識し、前記ユーザ音声が認識されると、チャネル識別子が各々付与された複数のチャネルのうち、前記認識されたユーザ音声に対応するチャネル識別子が付与されたチャネルに変更するチャネルショートカットを行い、前記ユーザのモーションが認識されると、前記認識されたユーザモーションの方向に対応するように、前記複数のチャネルを段階的に変更するチャネルザッピングを行う制御部とを含む。
一方、前記目的を達成するための本発明の一実施形態に係る音声認識及びモーション認識が可能な電子装置は、ディスプレイ部と、ユーザ音声が入力される音声入力部と、ユーザモーションが入力されるモーション入力部と、前記ディスプレイ部と、前記音声入力部及び前記モーション入力部を制御する制御部とを含み、前記制御部は、前記音声入力部を介して入力された音声開始命令を認識し、前記音声開始命令に応答して音声認識で行われる音声タスクモードに対応する音声アイテムを前記ディスプレイ部に表示するように制御し、前記モーション入力部を介して入力されたモーション開始命令が認識されると、前記モーション開始命令に応答してモーション認識で行われるモーションタスクモードに切り替わるように制御する。
一方、前記目的を達成するための本発明の一実施形態に係る音声認識及びモーション認識が可能な電子装置は、ディスプレイ部と、ユーザ音声が入力される音声入力部と、ユーザモーションが入力されるモーション入力部と、前記ディスプレイ部と、前記音声入力部及び前記モーション入力部を制御する制御部とを含み、前記制御部は、前記モーション入力部を介して入力されたモーション開始命令が認識されると、前記ユーザモーションで行われるモーションタスクに対応するモーションアイテムをディスプレイするように前記ディスプレイ部を制御し、前記音声入力部を介して入力された音声開始命令が入力されると、前記ユーザ音声で行われる音声タスクモードを行うための音声アイテムを前記ディスプレイ部に表示するように制御してよい。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置の制御方法は、認識された音声に応じて音声タスクの少なくともいずれか一つを行うことができる音声タスクモードで、前記音声タスクを行うための音声ガイド情報を表示するステップと、前記音声ガイド情報として表示された少なくともいずれか一つの音声アイテムのうち、第1音声アイテムに対応する第1音声を認識するステップと、前記音声タスクのうち、前記第1音声アイテムに対応するタスクを行うステップと、認識されたモーションに応じてモーションタスクの少なくともいずれか一つを行うことができるモーションタスクモードで、前記モーションタスクを行うためのモーションガイド情報を表示するステップと、前記モーションガイド情報として表示された少なくともいずれか一つのモーションアイテムのうち、第1モーションアイテムに対応する第1モーションを認識するステップと、前記第2タスクのうち、前記第1モーションアイテムに対応するタスクを行うステップとを含む。
そして、前記第1音声アイテムに対応するタスクを行うステップは、前記認識された第1音声に対応する前記第1音声アイテムに関連するアイテム付加情報(Additional Item Information)を表示するステップを含んでよい。
なお、前記第1音声アイテムに対応するタスクを行うステップは、前記アイテム付加情報に対応する第2音声を認識するステップを更に含んでよい。
そして、前記第1音声アイテムに対応するタスクを行うステップは、前記第1タスクのうち、前記第1音声アイテム及び前記認識された第2音声に対応するタスクを行ってよい。
なお、前記少なくともいずれか一つの音声アイテムの各々は、発話可能な(Utterable)命令語であってよい。
そして、前記アイテム付加情報は、前記第1音声アイテムに関連する付加命令語と、ガイド語句及び発話(Utterance)例示の少なくともいずれか一つを含んでよい。
なお、前記少なくともいずれか一つのモーションアイテムの各々は、前記モーションタスクモードで認識可能なモーションを示すモーションイメージ及び前記認識可能なモーションに対応するタスクを示すテキストを含んでよい。
そして、前記音声ガイド情報及び前記モーションガイド情報の少なくともいずれか一つは、前記音声タスクモード及び前記モーションタスクモードのうち、指定されたモードを示すイメージ及びテキストの少なくともいずれか一つを含んでよい。
なお、前記アイテム付加情報は、前記音声タスクモード及び前記モーションタスクモードのいずれか一つの指定されたモードを示すイメージ及びテキストの少なくともいずれか一つを含んでよい。
そして、前記音声タスクモードは、前記モーションタスクモードに移行するための予め設定されたモーションを示すモーション開始命令(Trigger Motion)が認識される場合、前記モーションタスクモードに切り替えられ、前記モーションタスクモードは、前記音声タスクモードに移行するための予め設定された音声を示す音声開始命令(Trigger Voice)が認識される場合、前記音声タスクモードに切り替えられてよい。
なお、前記音声タスク及び前記モーションタスクは互いに異なり、前記音声タスクは、チャネル名、番組名及びチャネル番号の少なくともいずれか一つの識別子に対応する第3音声が認識された場合、前記識別子に対応するチャネルを再生するためのチャネルショートカットを含み、前記モーションタスクは、チャネルアップ及びダウンのいずれか一つに対応する第2モーションが認識された場合、前記チャネルアップ及びダウンのいずれか一つに対応するように、現在のチャネルから前記現在のチャネルの前後のチャネルのいずれか一つにチャネルを変更するためのチャネルザッピングを含んでよい。
そして、前記アイテム付加情報は、前記第1音声アイテムに対応する前記タスクが前記音声タスクのうちのチャネルショートカットの場合、チャネル名、番組名及びチャネル番号の少なくともいずれか一つの識別子の発話に対するガイド語句及び発話例示の少なくともいずれか一つを含んでよい。
なお、前記第1音声アイテムに対応する前記タスクを行うステップは、前記アイテム付加情報に対応する前記識別子に対する第3音声が認識された場合、前記識別子に対応するチャネルを再生するための前記チャネルショートカットを行ってよい。
そして、前記第1モーションアイテムに対応する前記タスクを行うステップは、前記第1モーションアイテムに対応する前記タスクが前記モーションタスクのうちのチャネルザッピングの場合、現在のチャネルから前記現在のチャネルの前後のチャネルのいずれか一つにチャネルを変更してよい。
なお、前記音声タスク及び前記モーションタスクは互いに異なり、前記音声タスクは予め設定されたレベルのいずれか一つのレベルに対応する第4音声が認識された場合、前記認識された第4音声に対応する前記レベルとして音量レベルを指定するための音量レベル指定を含み、前記モーションタスクは音量アップ及びダウンのいずれか一つに対応する第3モーションが認識された場合、前記音量アップ及びダウンのいずれか一つに対応するように、現在の音量から現在の音量レベルより予め設定されたレベル分だけ増加させることと、予め設定されたレベル分だけ減少させることのいずれか一つを示す音量レベル調整を含んでよい。
そして、前記アイテム付加情報は、前記第1音声アイテムに対応する前記タスクが前記音声タスクのうちの電源オフの場合、前記電源オフを行うか否かを問い合わせるガイド語句及び前記問い合わせへの返答に対する発話例示の少なくともいずれか一つを含んでよい。
なお、前記第1音声アイテムに対応する前記タスクを行うステップは、前記第1音声アイテムに対応する前記タスクが前記音声タスクのうちのサウンドオフの場合、前記サウンドオフが行われるように制御し、前記第1音声アイテムの代わりに前記第1タスクのうちのサウンドオンに対応する第2音声アイテムを含む変更された音声ガイド情報を表示するステップを含んでよい。
そして、前記音声ガイド情報として表示された前記少なくともいずれか一つの音声アイテムは、前記音声ガイド情報とともに表示されるアプリケーション、OSD(On Screen Display)及び認識候補(Candidate)の少なくともいずれか一つに応じて、前記音声タスクに対応する音声アイテムの中で少なくともいずれか一つが選択的に構成されたものであり、前記認識候補は前記認識された音声と類似する数字及び文字の少なくともいずれか一つを含む名称、前記認識された音声と類似する命令語、前記類似する命令語に対応するタスク、前記認識されたモーションと類似するモーション、前記類似するモーションに対応するタスクの少なくともいずれか一つを含んでよい。
なお、前記モーションガイド情報として表示された前記少なくともいずれか一つのモーションアイテムは、前記モーションガイド情報とともに表示されるアプリケーション、OSD及び認識候補の少なくともいずれか一つに応じて、前記モーションタスクに対応するモーションアイテムの中で少なくともいずれか一つが選択的に構成されたものであり、前記認識候補は前記認識された音声と類似する数字及び文字の少なくともいずれか一つを含む名称、前記認識された音声と類似する命令語、前記類似する命令語に対応するタスク、前記認識されたモーションと類似するモーション、前記類似するモーションに対応するタスクの少なくともいずれか一つを含んでよい。
そして、前記音声タスクモードで前記音声ガイド情報とともに認識候補が表示された後、前記音声タスクモードから前記モーションタスクモードに切り替わる場合、前記認識候補を表示し続け、前記音声ガイド情報を前記モーションタスクモードに相応する前記モーションガイド情報に変更して表示するステップを更に含み、前記認識候補は前記認識された音声と類似する数字及び文字の少なくともいずれか一つを含む名称、前記認識された音声と類似する命令語、前記類似する命令語に対応するタスク、前記認識されたモーションと類似するモーション、前記類似するモーションに対応するタスクの少なくともいずれか一つを含んでよい。
なお、前記認識候補を表示し続け、前記音声ガイド情報を前記モーションガイド情報に変更して表示するステップは、前記表示し続けられる認識候補のうちの一つの認識候補にフォーカスを表示するステップを含んでよい。
そして、前記モーションタスクモードで前記モーションガイド情報とともに認識候補が表示された後、前記モーションタスクモードから前記音声タスクモードに切り替わる場合、前記認識候補を表示し続け、前記モーションガイド情報を前記音声タスクモードに相応する前記音声ガイド情報に変更して表示するステップを更に含み、前記認識候補は前記認識された音声と類似する数字及び文字の少なくともいずれか一つを含む名称、前記認識された音声と類似する命令語、前記類似する命令語に対応するタスク、前記認識されたモーションと類似するモーション、前記類似するモーションに対応するタスクの少なくともいずれか一つを含んでよい。
なお、前記認識候補を表示し続け、前記音声ガイド情報を前記モーションガイド情報に変更して表示するステップは、前記表示され続ける認識候補に対応する数字及び文字の少なくともいずれか一つで構成されたインデックスを表示するステップを含んでよい。
そして、前記第1音声アイテムに対応する前記タスクを行うステップは、前記第1音声アイテムが、前記音声タスクに対応する音声アイテムの中で、前記少なくともいずれか一つの音声アイテムと異なるアイテムを表示するためのアイテムである場合、前記異なるアイテムを表示するステップを含んでよい。
なお、前記異なるアイテムを表示するステップは、表示された音声アイテムのうちいずれか一つが予め設定された時間の間認識されていない場合、前記音声タスクモードを中断するためのタイマーの駆動を省略するステップを更に含んでよい。
そして、前記第1音声アイテムに対応する前記第1音声を認識するステップは、前記第1音声アイテム及び前記第1音声アイテムに対応する前記タスクの少なくともいずれか一つを示す視覚的なフィードバック及び聴覚的なフィードバックの少なくともいずれか一つを提供するステップを含んでよい。
なお、前記第1モーションアイテムに対応する前記第1モーションを認識するステップは、前記第1モーションアイテム及び前記第1モーションアイテムに対応する前記タスクの少なくともいずれか一つを示す視覚的なフィードバック及び聴覚的なフィードバックの少なくともいずれか一つを提供するステップを含んでよい。
そして、前記第1音声アイテムに対応する前記第1音声を認識するステップは、前記第1音声の認識正確度に応じて、前記認識正確度のレベルに対応する視覚的なフィードバック及び聴覚的なフィードバックの少なくともいずれか一つを提供するステップを含んでよい。
なお、前記第1モーションアイテムに対応する前記第1モーションを認識するステップは、前記第1モーションの認識正確度に応じて、前記認識正確度のレベルに対応する視覚的なフィードバック及び聴覚的なフィードバックの少なくともいずれか一つを提供するステップを含んでよい。
そして、認識された音声に応じて第1タスクの少なくともいずれか一つを行うことができる音声タスクモードで、前記第1タスクを行うための音声ガイド情報が表示されるように制御し、認識されたモーションに応じて第2タスクの少なくともいずれか一つを行うことができるモーションタスクモードで前記第2タスクを行うためのモーションガイド情報が表示されるように制御する制御部を含み、前記制御部は、前記音声タスクモードで前記UIとして表示された少なくともいずれか一つの音声アイテムのうち、第1音声アイテムに対応する第1音声を認識し、前記第1タスクのうち、前記第1音声アイテムに対応するタスクを行い、前記モーションタスクモードで前記モーションガイド情報として表示された少なくともいずれか一つのモーションアイテムのうち、第1モーションアイテムに対応する第1モーションを認識し、前記第2タスクのうち、前記第1モーションアイテムに対応するタスクを行ってよい。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置の制御方法は、認識された音声に応じて第1タスクの少なくともいずれか一つを行うことができる音声タスクモードで、前記第1タスクを行うための音声ガイド情報を表示するステップと、前記音声ガイド情報として表示された少なくともいずれか一つの音声アイテムのうち、第1音声アイテムに対応する第1音声を認識するステップと、前記認識された第1音声に対応する前記第1音声アイテムに関連するアイテム付加情報を表示するステップと、前記アイテム付加情報に対応する第2音声を認識するステップと、前記第1タスクのうち、前記第1音声アイテム及び前記認識された第2音声に対応するタスクを行うステップとを含む。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置は、認識された音声に応じて第1タスクの少なくともいずれか一つを行うことができる音声タスクモードで、前記第1タスクを行うための音声ガイド情報を表示するように制御する制御部を含み、前記制御部は、前記音声ガイド情報として表示された少なくともいずれか一つの音声アイテムのうち、第1音声アイテムに対応する第1音声を認識し、前記認識された第1音声に対応する前記第1音声アイテムに関連するアイテム付加情報が表示されるように制御し、前記アイテム付加情報に対応する第2音声を認識し、前記第1タスクのうち、前記第1音声アイテム及び前記認識された第2音声に対応するタスクを行う。
一方、前記目的を達成するための本発明の一実施形態に係る音声認識及びジェスチャー認識が可能な電子装置のUI提供方法は、音声開始命令を認識するステップと、前記認識された音声開始命令に応答し、音声認識が可能な命令語に対応する音声アイテムを前記電子装置のディスプレイ画面に表示するステップと、第1命令語に対応する第1命令語音声(Voice)を認識するステップと、前記第1命令語音声に応答し、前記ディスプレイ画面に音声認識を通じて制御可能な第1アプリケーションの第1短縮アイコンを、音声認識を通じて制御不可な第2アプリケーションの第2短縮アイコンと区別できるように表示するステップとを含む。
そして、前記第1短縮アイコンは、前記第1アプリケーションのオリジナル短縮アイコンと前記オリジナル短縮アイコンの一側に表示される追加(Additioanal)アイコンとの結合(Combination)であってよい。
なお、前記第1短縮アイコンの名前は、前記第2短縮アイコンの名前と区別できるように表示されてよい。
そして、音声認識を通じて前記第1アプリケーションが制御されると、前記第1短縮アイコンが前記第2短縮アイコンと区別できるように表示されるステップを更に含んでよい。
なお、前記認識された音声開始命令に応答し、前記ディスプレイ画面の一側に第1フィードバック(Feedback)を表示するステップを更に含んでよい。
そして、前記UIに表示される前記第1短縮アイコンの名前に対応する第2命令語音声を認識するステップを更に含み、前記第1短縮アイコンの名前は前記第1短縮アイコンの一側に表示されてよい。
なお、前記第2命令語音声に応答し、前記第1アプリケーションが前記ディスプレイ画面に表示されるステップを更に含んでよい。
そして、前記第2命令語音声を受信して認識するステップにおいて、前記第2命令語音声に対応するアプリケーションが複数であれば、前記UIの一側に前記複数のアプリケーションに対応するアプリケーションのリストが表示されてよい。
なお、前記UIには、音声認識を通じて制御可能な第3アプリケーションの第3短縮アイコン及び前記第3短縮アイコンの一側には前記第3短縮アイコンの名前が表示され、前記第3短縮アイコンの名前が定められた長さより長ければ、前記第3短縮アイコンの名前の一部のみ表示されてよい。
そして、前記第3短縮アイコンの名前の一部に対応する第3命令語音声を認識するステップを更に含み、前記第3命令語音声に応答し、前記第3アプリケーションが前記ディスプレイ画面に表示されてよい。
なお、前記音声アイテムは復帰(Return)を含み、復帰に対応する第4命令語音声を認識すると、前記第4命令語音声に応答して前記UIが表示される前に(Previous)復帰してよい。
そして、受信される放送信号に対応する映像、音声、制御データは、前記ディスプレイ画面及びスピーカーを通じて出力されるステップを更に含んでよい。
なお、モーション開始命令を認識するステップは、前記認識されたモーション開始命令に応答し、モーション認識を通じて制御可能なモーションに対応するモーションアイテムを前記ディスプレイ画面に表示するステップと、前記第1短縮アイコンを前記第2短縮アイコンと同様の方式で表示するステップとを更に含んでよい。
そして、前記認識されたモーション開始命令に応答し、前記ディスプレイ画面の一側に第2フィードバックを表示するステップを更に含んでよい。
一方、前記目的を達成するための本発明の一実施形態に係る音声認識及びジェスチャー認識が可能な電子装置のUI提供方法は、音声開始命令を認識するステップと、前記音声開始命令に応答し、音声認識を通じて制御可能な第1アプリケーションの第1短縮アイコンに関連する命令語を含む音声アイテムを前記電子装置のディスプレイ画面の一側に表示するステップと、前記命令語に対応する命令語音声を認識するステップと、前記命令語音声に応答し、前記ディスプレイ画面に前記第1短縮アイコンを音声認識を通じて制御不可な第2アプリケーションの第2短縮アイコンと区別できるように表示するステップとを含み、前記第1短縮アイコンは、前記第1アプリケーションのオリジナル短縮アイコンと前記オリジナル短縮アイコンの一側に表示される追加アイコンとの結合であってよい。
そして、モーション開始命令が認識されると、前記第1短縮アイコンは前記第2短縮アイコンと同様に表示されるステップを更に含んでよい。
一方、前記目的を達成するための本発明の一実施形態に係る音声認識及びジェスチャー認識が可能な電子装置は、ディスプレイ部と、音声を受信する音声入力部と、前記ディスプレイ部及び前記音声入力部を制御する制御部とを含み、前記制御部は、前記音声入力部を介して受信された音声開始命令を認識して音声認識を通じて制御可能な音声アイテムを前記ディスプレイ部に表示し、前記音声入力部を介して受信された第1命令語音声を認識し、前記ディスプレイ部に音声認識を通じて制御可能な第1アプリケーションの第1短縮アイコンを含むUIを表示するように制御し、前記UIには前記第1短縮アイコンと音声認識を通じて制御不可な第2アプリケーションの第2短縮アイコンを区別できるように表示されてよい。
そして、前記制御部は、前記第1アプリケーションのオリジナル短縮アイコンと前記オリジナル短縮アイコンの一側に表示される追加アイコンとの結合である前記第1短縮アイコンが表示されるように制御してよい。
なお、前記制御部は、前記音声入力部を介して受信された前記第1短縮アイコンの名前に対応する第2命令語音声を認識し、前記認識された第2命令語音声に応答し、前記第1アプリケーションを前記ディスプレイ部に表示されるように制御してよい。
そして、ユーザのモーションを受信するモーション入力部を更に含み、前記制御部は、前記モーション入力部を制御し、前記モーション入力部を介して受信されるモーション開始命令を認識し、モーション認識を通じて制御可能なモーションアイテムを前記ディスプレイ部に表示し、前記UIには前記第1短縮アイコンと前記第2短縮アイコンを同様に表示されるように制御してよい。
なお、外部装置と有/無線で接続可能なネットワークインターフェース部を更に含み、前記制御部は、前記ネットワークインターフェース部を制御して音声認識で制御可能な第3アプリケーションを前記外部装置からダウンロードするように制御してよい。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置のUI提供方法は、音声タスクモードに移行するステップと、前記音声タスクモードで、ディスプレイ画面に音声認識を通じて制御可能な第1アプリケーションに対応する第1短縮アイコンを、音声認識を通じて制御不可な第2アプリケーションの第2短縮アイコンと区別できるように表示するステップとを含む。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置の制御方法は、認識されたユーザのモーションに応答し、複数の放送信号のいずれか一つの放送信号を選択するステップと、前記選択された放送信号を提供するステップと、前記選択された放送信号の提供を中止し、保存されたコンテンツを提供するステップと、前記認識されたユーザのモーションと同様の形態のユーザのモーションを再認識するステップと、前記再認識されたユーザのモーションに応答し、前記提供されたコンテンツが表示される画面の少なくとも一部を変更するステップとを含む。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置の制御方法は、複数の放送信号のいずれか一つの放送信号及び保存されたコンテンツのいずれか一つを提供するステップと、モーション認識を通じてユーザのモーションを認識するステップと、前記認識されたユーザのモーションに応答し、前記放送信号を提供すると、前記提供された放送信号の音量の大きさを調節したり、または前記複数の放送信号の他の一つの放送信号を提供し、前記コンテンツを提供すると、前記提供されたコンテンツが表示される画面に少なくとも一部を変更するステップとを含む。
そして、前記放送信号は、放送受信部から受信した放送信号であり、前記コンテンツは、前記保存部に保存されたコンテンツか、外部端子入力部またはネットワークインターフェースから受信されたコンテンツであってよい。
なお、前記コンテンツは複数のページを含み、前記提供されたコンテンツが表示される画面の少なくとも一部を変更するステップは、前記複数のページのいずれか一つのページが表示される画面を、前記複数のページの他の一つのページが表示される画面に変更するステップであってよい。
そして、前記提供されたコンテンツが表示される画面の少なくとも一部を変更するステップは、前記認識されたユーザのモーションの方向に対応し、前記複数のページのいずれか一つのページが表示される画面を前記複数のページの前記いずれか一つのページの上、下、左または右側に位置したページのいずれか一つのページが表示される画面に変更するステップであってよい。
なお、前記コンテンツは一つのページを含み、前記提供されたコンテンツが表示される画面の少なくとも一部を変更するステップは、前記いずれか一つのページの一部が表示される画面を前記いずれか一つのページの他の一部が表示される画面に変更するステップであってよい。
そして、前記提供されたコンテンツが表示される画面の少なくとも一部を変更するステップは、前記提供されたコンテンツが表示される画面を前記コンテンツと異なるコンテンツが表示される画面に変更するステップであってよい。
なお、音声認識モジュールを通じてユーザの音声を認識するステップと、前記認識されたユーザの音声に応じて前記複数の放送信号の更に他の一つの放送信号を提供するステップを更に含んでよい。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置の制御方法は、第1映像データ及び前記第1映像データのためのオーディオデータとともに提供するステップと、認識されたユーザのモーションに応答し、前記オーディオデータの音量の大きさを調節するステップと、前記第1映像データ及び前記オーディオデータの提供を中止し、第2映像データを提供するステップと、前記認識されたユーザのモーションと実質的に同様の形態のユーザのモーションを再認識するステップと、前記再認識したユーザのモーションに応答し、前記第2映像データが表示される画面の少なくとも一部を変更するステップとを含んでよい。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置の制御方法は、複数のソースから各々提供される映像データのうちの第1映像データ、及び一つのソースから提供される複数の映像データのうちの第2映像データのいずれか一つを提供するステップと、モーション認識モジュールを通じてユーザのモーションを認識するステップと、前記認識されたユーザのモーションに応答し、前記第1映像データを提供すると、前記第1映像データを提供するソースと異なるソースから提供される映像データを提供し、前記第2映像データを提供すると、前記一つのソースから提供される複数の映像データのうち、前記第2映像データと異なる映像データを提供するステップとを含んでよい。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置の制御方法は、前記電子装置の電源印加時に直ちに再生される第1映像データ及び前記電子装置の電源印加後にユーザによるモード移行後に再生される第2映像データのいずれか一つを提供するステップと、モーション認識モジュールを通じてユーザのモーションを認識するステップと、前記認識されたユーザのモーションに応答し、前記第1映像データを提供すると、前記電子装置の電源印加時に直ちに再生される前記第1映像データと異なる映像データを提供し、前記第2映像データを提供すると、前記ユーザによるモード移行後に再生する前記第2映像データと異なる映像データを提供するステップとを含んでよい。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置の制御方法は、複数の動画のいずれか一つの動画、または複数のイメージのいずれか一つのイメージを提供するステップと、モーション認識モジュールを通じてユーザのモーションを認識するステップと、前記認識したユーザのモーションに応答し、前記動画を提供すると、前記複数の動画のうち、前記提供された動画と異なる動画を提供し、前記イメージを提供すると、前記複数のイメージのうち、前記提供されたイメージと異なるイメージを提供するステップとを含んでよい。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置は、複数の放送信号のいずれか一つの放送信号及び保存されたコンテンツのいずれか一つのコンテンツをディスプレイするディスプレイ部と、ユーザのモーションが入力されるモーション入力部と、前記ユーザのモーションに応答し、前記放送信号を提供すると、前記提供された放送信号の音量の大きさを調節したり、または前記複数の放送信号の他の一つの放送信号を提供し、前記コンテンツを提供すると、前記提供されたコンテンツが表示される画面の少なくとも一部を変更する制御部とを含む。
そして、前記コンテンツは複数のページを含み、前記制御部は、前記提供されたコンテンツが表示される画面の少なくとも一部を変更する場合、前記複数のページのいずれか一つのページが表示される画面を前記複数のページの他の一つのページが表示される画面に変更してよい。
なお、前記制御部は、前記提供されたコンテンツが表示される画面の少なくとも一部を変更する場合、前記モーション入力部を介して認識されたユーザのモーションの方向に対応し、前記複数のページのいずれか一つのページが表示される画面を前記複数のページの前記いずれか一つのページの上、下、左または右側に位置したページのいずれか一つのページが表示される画面に変更してよい。
そして、前記コンテンツは一つのページを含み、前記制御部は、前記提供されたコンテンツが表示される画面の少なくとも一部を変更する場合、前記一つのページの一部が表示される画面を前記一つのページの他の一部が表示される画面に変更してよい。
なお、ユーザの音声が入力される音声入力部を更に含み、前記制御部は、前記ユーザの音声に応じて前記複数の放送信号のうち、他の放送信号を提供してよい。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置は、第1映像データまたは第2映像データをディスプレイするディスプレイ部と、前記第1映像データのためのオーディオデータを提供するオーディオ出力部と、ユーザのモーションが入力されるモーション入力部と、前記ユーザのモーションに応答し、前記第1映像データを提供すると、前記第1映像データのためのオーディオデータの音量の大きさを調節し、前記第2映像データを提供すると、前記第2映像データが表示される画面の少なくとも一部を変更する制御部とを含む。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置は、複数の動画のいずれか一つの動画、または複数のイメージのいずれか一つのイメージをディスプレイするディスプレイ部と、ユーザのモーションが入力されるモーション入力部と、前記ユーザのモーションに応答し、前記動画を提供すると、前記複数の動画のうち、前記提供された動画と異なる動画を提供し、前記イメージを提供すると、前記複数のイメージのうち、前記提供されたイメージと異なるイメージを提供する制御部とを含む。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置は、複数のソースから各々提供される映像データのうちの第1映像データ、及び一つのソースから提供される複数の映像データのうちの第2映像データのいずれか一つをディスプレイするディスプレイ部と、ユーザのモーションが入力されるモーション入力部と、前記ユーザのモーションに応答し、前記第1映像データを提供すると、前記第1映像データを提供するソースと異なるソースから提供される映像データを提供し、前記第2映像データを提供すると、前記一つのソースから提供される複数の映像データのうち、前記第2映像データと異なる映像データを提供する制御部とを含む。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置の制御方法は、音声認識モジュール及びモーション認識モジュールのいずれか一つを通じてユーザ音声及びユーザモーションのいずれか一つを認識するステップと、前記音声認識モジュールを通じてユーザ音声が認識されると、コンテンツ識別子が各々付与された複数のコンテンツのうち、前記認識されたユーザ音声に対応するコンテンツ識別子が付与されたコンテンツを実行し、前記モーション認識モジュールを通じてユーザのモーションが認識されると、前記ユーザのモーションの方向に対応して前記複数のコンテンツを変更するステップとを含む。
そして、前記コンテンツは放送コンテンツであることを特徴とし、前記変更するステップは、前記音声認識モジュールを通じてユーザ音声が認識されると、放送チャネル識別子が各々付与された複数の放送チャネルのうち、前記認識されたユーザ音声に対応する放送チャネル識別子が付与された放送チャネルに変更され、前記モーション認識モジュールを通じてユーザのモーションが認識されると、前記ユーザのモーションの方向に対応するように前記複数の放送チャネルを段階的に変更してよい。
なお、前記チャネル識別子は、チャネル番号、チャネル名及び番組名の少なくともいずれか一つを含んでよい。そして、前記ユーザモーションはスラップを含み、前記変更するステップは、前記認識されたユーザモーションが上方へのスラップモーションである場合、現在出力される放送のチャネル番号より予め設定された番号分だけ増加したチャネルに変更されるようにチャネルザッピングを行い、前記認識されたユーザモーションが下方へのスラップモーションである場合、現在出力される放送のチャネル番号より予め設定された番号分だけ減少したチャネルに変更されるようにチャネルザッピングを行ってよい。
なお、前記コンテンツは、映像コンテンツ、音楽コンテンツ及び写真コンテンツのいずれか一つであってよい。そして、前記コンテンツ識別子は、前記コンテンツの名前であってよい。
なお、前記ユーザのモーションはスラップを含み、前記変更するステップは、前記認識されたユーザモーションが右方へのスラップモーションである場合、再生されるための複数のコンテンツを含むコンテンツリストで、現在出力されるコンテンツの次の順に出力されるコンテンツに変更し、前記認識されたユーザモーションが左方へのスラップモーションである場合、前記コンテンツリストで、現在出力されるコンテンツの前の順に出力されるコンテンツに変更してよい。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置は、ユーザ音声が入力される音声入力部と、ユーザモーションが入力されるモーション入力部と、前記ユーザ音声及び前記ユーザモーションのいずれか一つを認識し、前記ユーザ認識が認識されると、コンテンツ識別子が各々付与された複数のコンテンツのうち、前記認識されたユーザ音声に対応するコンテンツ識別子が付与されたコンテンツを実行し、前記ユーザのモーションが認識されると、前記認識されたユーザモーションの方向に対応するように前記複数のコンテンツを変更する制御部とを含む。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置の制御方法は、リモコンを通じて入力されるリモコン信号で前記電子装置が制御されるリモコンモードで、前記電子装置を制御するステップと、音声認識モジュールを通じて音声開始命令を認識するステップと、前記音声開始命令が認識される場合、前記音声認識モジュールによって認識されたユーザ音声によって制御される音声タスクを行うための音声タスクモードに切り替えるステップとを含む。
そして、前記切り替えるステップは、前記電子装置のモードが音声タスクモードであることを表示するアイコン及び前記音声タスクをガイドする音声アイテムが含まれた音声ガイド情報をディスプレイするステップを含んでよい。
そして、前記リモコンモードに切り替えるために、前記リモコンに備えられたボタンのうちの第1ボタンが選択されると、前記第1ボタンに対応する第1リモコン信号を受信するステップと、前記第1リモコン信号に応答し、前記リモコンモードに切り替えるステップとを含んでよい。
なお、前記第1ボタンは、前記リモコンモードに切り替えるためのリモコンモード切替ボタンであってよい。そして、前記第1ボタンは、前記リモコンに備えられたボタンのうちの任意のボタンであり、前記リモコンモードに切り替えるステップは、前記リモコンモードに切り替えた後、前記第1ボタンに対応するタスクを行うステップを更に含んでよい。
なお、モーション認識モジュールを通じてモーション開始命令を認識するステップと、前記モーション開始命令が認識される場合、前記モーション認識モジュールによって認識されたユーザモーションによって制御されるモーションタスクを行うためのモーションタスクモードに切り替えるステップとを含んでよい。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置の制御方法は、リモコンを通じて入力されるリモコン信号で前記電子装置が制御されるリモコンモードで、前記電子装置を制御するステップと、モーション認識モジュールを通じてモーション開始命令を認識するステップと、前記モーション開始命令が認識される場合、前記モーション認識モジュールによって認識されたユーザモーションによって制御されるモーションタスクを行うためのモーションタスクモードに切り替えるステップとを含む。
そして、前記切り替えるステップは、前記電子装置のモードがモーションタスクモードであることを表示するアイコン及び前記モーションタスクをガイドするモーションアイテムの含まれたモーションガイド情報をディスプレイステップを含んでよい。
なお、前記リモコンは、タッチパッドを含んでよい。そして、前記リモコンモードに切り替えるために、前記リモコンに備えられたボタンのうちの第1ボタンが選択されると、前記第1ボタンに対応する第1リモコン信号を受信するステップと、前記第1リモコン信号に応答し、前記リモコンモードに切り替えるステップとを含んでよい。
なお、前記第1ボタンは、前記リモコンモードに切り替えるためのリモコンモード切替ボタンであってよい。そして、前記第1ボタンは、前記リモコンに備えられたボタンのうちの任意のボタンであり、前記リモコンモードに切り替えるステップは、前記リモコンモードに切り替えた後、前記第1ボタンに対応するタスクを行うステップを更に含んでよい。
なお、音声認識モジュールを通じて音声開始命令を認識するステップと、前記音声開始命令が認識される場合、前記音声認識モジュールによって認識されたユーザ音声によって制御される音声タスクを行うための音声タスクモードに切り替えるステップとを含む。
一方、前記目的を達成するための本発明の一実施形態に係るリモコンと連動する電子装置は、前記リモコンからリモコン信号を受信するリモコン信号受信部と、音声開始命令が入力される音声入力部と、前記リモコン信号受信部に受信されたリモコン信号に応じて前記電子装置が制御されるリモコンモードで、前記音声入力部を介して入力された音声開始命令が認識される場合、前記音声入力部によって入力されたユーザ音声によって制御される音声タスクを行うための音声タスクモードに切り替える制御部とを含む。
一方、前記目的を達成するための本発明の一実施形態に係るリモコンと連動する電子装置は、前記リモコンからリモコン信号を受信するリモコン信号受信部と、モーション開始命令が入力されるモーション入力部と、前記リモコン信号受信部に受信されたリモコン信号に応じて前記電子装置が制御されるリモコンモードで、前記モーション入力部を介して入力されたモーション開始命令が認識される場合、前記モーション入力部によって入力されたユーザモーションによって制御されるモーションタスクを行うためのモーションタスクモードに切り替える制御部とを含む。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置の制御方法は、前記電子装置と連動する携帯機器から、前記携帯機器に備えられたマイクに入力されたユーザ音声が入力されるステップと、前記入力されたユーザ音声を認識するステップと、前記認識されたユーザ音声に応じて前記電子装置の音声タスクを行うステップとを含む。
そして、前記携帯機器は、リモコン、携帯電話、PDA及びノートパソコンのいずれか一つであってよい。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置の制御方法は、外部の携帯機器で音声認識のためのアプリケーションが実行されると、前記携帯機器から制御信号が入力されるステップと、前記携帯機器から入力された制御信号に応じて前記電子装置の音声タスクを行うステップとを含み、前記制御信号は、前記携帯機器が前記携帯機器に備えられたマイクに入力されたユーザ音声を認識して生成されてよい。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置の制御方法は、外部の携帯機器で音声認識のためのアプリケーションが実行されると、前記携帯機器に備えられたマイクに入力されたユーザの音声を前記携帯機器から入力されるステップと、前記携帯機器から入力されたユーザの音声を認識するステップと、前記ユーザの音声に応じて前記電子装置の音声タスクを行うステップとを含む。
そして、前記携帯機器に含まれた第1ボタンが選択されると、前記第1ボタンに対応する第1信号を受信するステップと、前記第1信号に応答して前記電子装置のモードを音声タスクモードに切り替えるステップとを更に含んでよい。
なお、前記音声タスクモードは、前記携帯機器に含まれたマイクから入力されたユーザの音声に応じて音声タスクが行われるモードであってよい。
そして、前記音声タスクモードで、前記第1ボタン及び第2ボタンのいずれか一つが選択されると、前記音声タスクモードを解除するステップを更に含んでよい。
なお、前記入力されるステップは、前記携帯機器に備えられた第2ボタンが選択される間、前記携帯機器に備えられたマイクから入力されたユーザの音声を前記携帯機器から入力されてよい。
そして、前記携帯機器に備えられた第2ボタンが選択される間、前記ユーザ音声が入力可能であることを示すUIをディスプレイするステップを更に含んでよい。
なお、前記携帯機器に備えられたマイクは、前記携帯機器が電話による通話のために用いられるマイクであってよい。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置は、前記電子装置と連動する携帯機器からユーザ音声が入力される音声入力部と、前記音声入力部を介して前記携帯機器から前記携帯機器に備えられたマイクに入力されたユーザ音声が入力されると、前記入力されたユーザ音声を認識し、前記認識されたユーザ音声に応じて前記電子装置の音声タスクを行う制御部とを含む。
そして、前記携帯機器は、リモコン、携帯電話、PDA及びノートパソコンのいずれか一つであってよい。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置は、外部の携帯機器と通信を行う通信部と、前記携帯機器で音声認識のためのアプリケーションが実行され、前記通信部を介して前記携帯機器から制御信号が入力されると、前記携帯機器から入力された制御信号に応じて前記電子装置の音声タスクを行う制御部とを含み、前記制御信号は、前記携帯機器が前記携帯機器に備えられたマイクに入力されたユーザ音声を認識して生成されてよい。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置は、前記電子装置と連動する携帯機器からユーザ音声が入力される音声入力部と、前記携帯機器で音声認識のためのアプリケーションが実行され、前記携帯機器に備えられたマイクから入力されたユーザの音声が入力されると、前記携帯機器から入力されたユーザの音声を認識し、前記ユーザの音声に応じて前記電子装置の音声タスクを行う制御部とを含む。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置の制御方法は、アプリケーションを実行するための複数の短縮アイコンが含まれたコンテンツリスト及びウェブページのいずれか一つがディスプレイするステップと、モーション入力部を介してモーション開始命令が入力されるステップと、前記モーション開始命令が認識されると、ポインタを用いて制御されるタスクを行うためのポインティングモードに切り替え、ディスプレイされた画面の中央にポインタをディスプレイするステップとを含む。
そして、前記モーション開始命令が認識されると、前記ディスプレイ画面の下段にモーションタスクを行うためのモーションガイド情報をディスプレイステップを含む。
なお、前記ディスプレイステップにおいて前記コンテンツリストがディスプレイされた場合、前記モーション入力部に入力されるユーザのモーションに応じて前記ポインタが前記第1短縮アイコンに位置すると、前記第1短縮アイコンを他の短縮アイコンと区別できるように表示するステップを更に含んでよい。
そして、前記ポインタが第1短縮アイコンに位置し、前記モーション入力部を介してユーザの第1モーションが入力されると、前記第1短縮アイコンを実行するステップを更に含んでよい。
なお、前記コンテンツリスト画面の終了命令が入力されると、前記コンテンツリスト及び前記ポインタをディスプレイ画面から除去するステップを更に含んでよい。
そして、前記ディスプレイステップにおいて前記ウェブページがディスプレイされた場合、前記モーション入力部に入力されるユーザのモーションに応じて前記ポインタが前記ウェブページに存在する第1ハイパーリンクに位置すると、前記第1ハイパーリンクを他のハイパーリンクを区別できるように表示するステップを更に含んでよい。
なお、前記ポインタが第1ハイパーリンクに位置し、前記モーション入力部を介してユーザの第1モーションが入力されると、前記第1ハイパーリンクを実行するステップを更に含んでよい。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置は、モーション開始命令が入力されるモーション入力部と、アプリケーションを実行するための複数の短縮アイコンが含まれたコンテンツリストをディスプレイするディスプレイ部と、前記モーション入力部を介してモーション開始命令が認識されると、ポインタを用いて制御されるタスクを行うためのポインティングモードに切り替え、前記コンテンツリストがディスプレイされた画面の中央にポインタがディスプレイされるように前記ディスプレイ部を制御する制御部とを含む。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置は、モーション開始命令が入力されるモーション入力部と、複数のハイパーリンクを含むウェブページをディスプレイするディスプレイ部と、前記モーション入力部を介してモーション開始命令が認識されると、ポインタを用いて制御されるタスクを行うためのポインティングモードに切り替え、前記ウェブページがディスプレイされた画面の中央にポインタがディスプレイされるように前記ディスプレイ部を制御する制御部とを含む。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置の制御方法は、アプリケーションを実行するための複数の短縮アイコンが含まれたコンテンツリスト及びウェブページのいずれか一つがディスプレイするステップと、モーション入力部を介してモーション開始命令が入力されるステップと、前記モーション開始命令が認識されると、ポインタを用いて制御されるタスクを行うためのポインティングモードに切り替え、ディスプレイされた画面の中央にポインタをディスプレイするステップと、前記モーション入力部を介して予め設定されたモーションが入力されるステップと、前記ポインタをディスプレイ画面から除去し、前記予め設定されたモーションに対応するモーションタスクを行うステップとを含む。
そして、前記ディスプレイするステップは、前記ポインタが前記コンテンツリストの第1短縮アイコンに位置すると、前記ポインタのための第1短縮アイコンがハイライトされるようにディスプレイすることを特徴とするステップを更に含んでよい。
なお、前記予め設定されたモーションが入力されると、前記ハイライトされるようにディスプレイされた前記第1短縮アイコンのハイライト表示を除去するステップを更に含んでよい。
そして、前記予め設定されたモーションは、前記電子装置のモーションモードを行うためのモーションであり、上下左右の方向へのスラップモーション、グラブモーション及び反時計回りへの回転モーションのいずれか一つであってよい。
なお、前記予め設定されたモーションが上下左右の方向へのスラップモーションである場合、前記電子装置のディスプレイ画面を前記上下左右の方向へのスラップモーションに応じて移動するステップと、前記画面移動後、前記ポインタを前記ユーザの手が位置している地点に再びディスプレイするステップとを含んでよい。
そして、前記予め設定されたモーションがグラブモーションである場合、前記ポインタが位置する第1短縮アイコンを実行するステップと、前記第1短縮アイコン実行後、前記ポインタを前記ユーザの手が位置している地点に再びディスプレイするステップとを含んでよい。
なお、前記予め設定されたモーションが反時計回りへの回転モーションである場合、前記ディスプレイ画面に現在選局されるチャネルの放送番組をディスプレイするステップを含んでよい。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置は、モーション開始命令及びユーザのモーションが入力されるモーション入力部と、アプリケーションを実行するための複数の短縮アイコンが含まれたコンテンツリスト及びウェブページのいずれか一つがディスプレイするディスプレイ部と、前記モーション入力部を介してモーション開始命令が入力されると、ポインタを用いて制御されるタスクを行うためのポインティングモードに切り替え、ディスプレイされた画面の中央にポインタをディスプレイし、前記モーション入力部を介して予め設定されたモーションが入力されると、前記ポインタをディスプレイ画面から除去し、前記予め設定されたモーションに対応するモーションタスクを行う制御部とを含む。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置の制御方法は、選択可能な複数のアイテムをディスプレイするステップと、音声入力部及びモーション入力部のいずれか一つを介してユーザの音声及びユーザのモーションのいずれか一つが入力されるステップと、前記ユーザの入力によって前記複数のアイテムのうちの第1アイテムが選択されると、前記第1アイテムを他のアイテムを区別できるようにディスプレイするステップとを含み、前記ディスプレイするステップは、前記第1アイテムの名前が予め設定された文字数を超過し、前記電子装置のモードが音声タスクモードである場合、前記第1アイテムの名前の一部のみをディスプレイし、前記第1アイテムの名前が予め設定された文字数を超過し、前記電子装置のモードがモーションタスクモードである場合、前記第1アイテムのフルネームをディスプレイする。
そして、前記選択可能なアイテムは、アプリケーションを実行するためのコンテンツリストに含まれた短縮アイコン及びウェブページに含まれたハイパーリンクのいずれか一つであってよい。
なお、前記ディスプレイするステップは、前記第1アイテム及び前記第1アイテムの名前を、前記他のアイテム及び前記他のアイテムの名前より濃くディスプレイしてよい。
そして、前記電子装置のモードが音声タスクモードである場合、音声入力部を介して入力されたユーザの音声が前記ディスプレイされた第1アイテムの名前の一部と一致していると、前記第1アイテムを実行するステップを更に含んでよい。
なお、前記ディスプレイされた第1アイテムの名前の一部に分かち書きがない場合、前記音声入力部を介して前記ディスプレイされた第1アイテムの名前を構成する複数の綴りに対応するユーザ入力が入力されると、前記第1アイテムを実行するステップを更に含んでよい。
そして、前記電子装置のモードが音声タスクモードである場合、前記ディスプレイされたアイテムの名前のうち、音声入力部を介して入力されたユーザの音声と一致しているアイテムが複数である場合、候補群リストをディスプレイするステップを含む制御方法。
なお、前記候補群リストは、前記入力されたユーザ音声と一致している複数のアイテムのフルネームを表示してよい。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置は、選択可能な複数のアイテムが含まれた画面をディスプレイするディスプレイ部と、ユーザの音声が入力される音声入力部と、ユーザのモーションが入力されるモーション入力部と、前記音声入力部及び前記モーション入力部のいずれか一つを介してユーザの音声及びユーザのモーションのいずれか一つが入力されると、前記ユーザの入力に応じて前記複数のアイテムのうちの第1アイテムを選択し、前記第1アイテムを他のアイテムを区別できるようにディスプレイするように前記ディスプレイ部を制御する制御部とを含み、前記制御部は、前記第1アイテムの名前が予め設定された文字数を超過し、前記電子装置のモードが音声タスクモードである場合、前記第1アイテムの名前の一部のみをディスプレイし、前記第1アイテムの名前が予め設定された文字数を超過し、前記電子装置のモードがモーションタスクモードである場合、前記第1アイテムのフルネームをディスプレイしてよい。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置の制御方法は、音声タスクをガイドする複数の音声アイテムを含む音声ガイド情報をディスプレイするステップと、音声入力部を介して前記複数の音声アイテムのいずれか一つに対応するユーザ音声が入力されると、前記音声ガイド情報の第1領域に第1彩度を有する音声タスクを行うためのガイド語句をディスプレイし、前記音声ガイド情報の第2領域に第2彩度を有する音声アイテムをディスプレイするステップとを含む。
そして、前記音声ガイド情報は、前記電子装置のモードが音声タスクモードであることを表示するアイコンを含み、前記アイコンは前記音声ガイド情報の中央に位置してよい。
なお、前記第1領域は前記アイコンの左側領域であり、前記第2領域は前記アイコンの右側領域であってよい。そして、前記ユーザ音声がチャネル変更を行うための命令語である場合、前記第1領域にはチャネル変更をガイドするガイド語句がディスプレイされ、前記第2領域にはチャネル変更のための発話可能な命令語の例に対応する音声アイテム及びチャネル変更取消しに対応する音声アイテムがディスプレイされてよい。
なお、前記ユーザ音声が電源終了を行うための命令語である場合、前記第1領域には電源終了を確認するガイド語句がディスプレイされ、前記第2領域には電源終了を行うか否かに対する命令語に対応する音声アイテムがディスプレイされてよい。そして、前記第2彩度は、第1彩度より濃くてよい。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置は、ユーザ音声が入力される音声入力部と、音声タスクをガイドする複数の音声アイテムを含む音声ガイド情報をディスプレイするディスプレイ部と、前記音声入力部を介して前記複数の音声アイテムのいずれか一つに対応するユーザ音声が入力されると、前記音声ガイド情報の第1領域に第1彩度を有する音声タスクを行うためのガイド語句をディスプレイし、前記音声ガイド情報の第2領域に第2彩度を有する音声アイテムをディスプレイするように前記ディスプレイ部を制御する制御部とを含む。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置の制御方法は、音声タスクをガイドする複数の音声アイテムを含む音声ガイド情報をディスプレイするステップと、前記音声入力部を介して入力されたユーザ音声に前記複数の音声アイテムに対応する命令語以外の予め設定された単語が含まれると、前記予め設定された単語に対応する音声タスクを行うステップとを含み、前記予め設定された単語は、前記電子装置と連動するリモコンに含まれた短縮キーに対応する単語であってよい。
そして、前記予め設定された単語は、チャネルリストを生成するための命令語、メニュー生成のための命令語、ソーシャルネットワークを実行するための命令語、番組編成ガイドのための命令語、3D立体映像への変換のための命令語及び放送ガイドのための命令語のいずれか一つを含んでよい。
なお、前記予め設定された単語は、現在電子装置が行う機能と関連するタスクを提供する命令語に対応する単語を含んでよい。
そして、前記現在電子装置が行う機能が動画再生機能である場合、前記予め設定された単語は、動画の再生のための命令語、動画の一時停止のための命令語、動画の停止のための命令語、前のファイルの再生のための命令語、次のファイルの再生のための命令語、スキップのための命令語及び後へスキップのための命令語のいずれか一つを含んでよい。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置は、ユーザ音声が入力される音声入力部と、音声タスクをガイドする複数の音声アイテムを含む音声ガイド情報をディスプレイするディスプレイ部と、前記音声入力部を介して入力されたユーザ音声に前記複数の音声アイテムに対応する命令語以外の予め設定された単語が含まれると、前記予め設定された単語に対応する音声タスクを行う制御部とを含み、前記予め設定された単語は、前記電子装置と連動するリモコンに含まれた短縮キーに対応する単語であってよい。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置の制御方法は、両手を用いたモーション開始命令が入力されるステップと、前記両手を用いたモーション開始命令が入力されると、両手を用いたモーションタスクを行う両手モーションタスクモードに切り替えるステップとを含む。
そして、前記両手を用いたモーション開始命令が入力されるステップは、片手を用いたモーション開始命令が入力されるステップと、前記片手を用いたモーション開始命令が入力されると、モーションタスクを行うためのモーションタスクモードに切り替えるステップと、もう一方の手を用いたモーション開始命令が入力されるステップとを含んでよい。
なお、前記両手を用いたモーション開始命令は、前記両手を同時に複数回振るシェイクモーションであってよい。そして、前記両手を用いたモーションタスクは、画面を拡大したり縮小するタスクであってよい。
なお、前記両手を用いたモーションタスクが不可なアプリケーションを実行する場合、前記両手を用いたモーションタスクが不可であるというメッセージを出力するステップを更に含んでよい。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置は、モーション開始命令が入力されるモーション入力部と、前記モーション入力部を介して両手を用いたモーション開始命令が入力されると、両手を用いたモーションタスクを行う両手モーションタスクモードに切り替える制御部とを含む。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置の制御方法は、モーション入力部を介してモーション開始命令が入力されるステップと、前記モーション開始命令が入力されると、前記モーション開始命令を入力したユーザのモーションに応じてモーションタスクを行うモーションタスクモードに切り替えるステップとを含み、前記モーションタスクモードは、前記モーション開始命令を入力したユーザが前記モーションタスクモードを解除するまでに、前記モーション開始命令を入力したユーザのモーションのみによって前記モーションタスクが行われてよい。
そして、前記モーションタスクモードは、前記モーション開始命令を入力したユーザを除く他のユーザからモーション開始命令が入力されるとしても維持されてよい。
なお、前記モーションタスクモードは、前記モーション開始命令を入力したユーザの手と前記他のユーザの手とが重なるとしても、前記モーション開始命令を入力したユーザの手に応じて前記モーションタスクを行ってよい。
そして、前記モーションタスクモードが片手を用いたモーション開始命令が入力された場合、前記モーション開始命令を入力したユーザ以外の他のユーザの片手を通じてモーション開始命令が入力されると、両手モーションタスクモードに切り替えるステップを含んでよい。
なお、前記モーション開始命令は、ユーザの手を複数回振る回転モーションであってよい。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置の制御方法は、モーション入力部を介して複数のユーザによる複数のモーション開始命令が入力されると、前記複数のモーション開始命令のうち、最初に入力されたモーション開始命令を判断するステップと、前記最初に入力されたモーション開始命令を入力したユーザのモーションに応じてモーションタスクを行うモーションタスクモードに切り替えるステップとを含む。
そして、前記モーションタスクモードは、前記最初にモーション開始命令を入力したユーザが前記モーションタスクモードを解除するまでに、前記最初にモーション開始命令を入力したユーザのモーションのみによってモーションタスクが行われてよい。
なお、前記モーションタスクモードは、前記最初にモーション開始命令を入力したユーザを除く他のユーザからモーション開始命令が入力されるとしても維持されてよい。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置は、モーション開始命令が入力されるモーション入力部と、前記モーション入力部を介してモーション開始命令が入力されると、前記モーション開始命令を入力したユーザのモーションに応じてモーションタスクを行うモーションタスクモードに切り替えるステップを含み、前記モーションタスクモードは、前記モーション開始命令を入力したユーザが前記モーションタスクモードを解除するまでに、前記モーション開始命令を入力したユーザのモーションのみによって前記モーションタスクが行われてよい。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置は、モーション開始命令が入力されるモーション入力部と、前記モーション入力部を介して複数のユーザによる複数のモーション開始命令は入力されると、前記複数のモーション開始命令のうち、最初に入力されたモーション開始命令を判断し、前記最初に入力されたモーション開始命令を入力したユーザのモーションに応じてモーションタスクを行うモーションタスクモードに切り替える制御部とを含む。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置の制御方法は、映像をディスプレイするステップと、ユーザの第1音声が入力されるステップと、前記ユーザの第1音声が入力されると、前記ユーザの第1音声に応答して少なくとも一つの音声タスクをガイドする第1メニューを前記映像の一領域にディスプレイするステップと、ユーザの第2音声が入力されるステップと、前記少なくとも一つの音声タスクのうち、前記ユーザの第2音声に対応する音声タスクを行うステップとを含む。
そして、前記第1音声がチャネル変更のための命令語である場合、前記第1メニューは前記チャネル変更をガイドする情報が含まれていることを特徴とし、前記第2音声はチャネル番号、チャネル名及び番組名のいずれか一つであってよい。
なお、前記第2音声がチャネル変更をガイドする情報は、前記チャネル番号、チャネル名及び番組名のいずれか一つの命令語の例を含んでよい。
そして、前記第2音声がチャネル番号及びチャネル名である場合、前記音声タスクを行うステップは、前記チャネル番号及びチャネル名のうち入力された一つに対応するチャネルに変更してよい。
なお、前記第2音声が番組名である場合、前記音声タスクを行うステップは、前記予め保存された番組ガイド(EPG)から前記入力された番組名を検索するステップと、前記検索結果に応じて、前記入力された番組名が放映されるチャネルに変更されたり、視聴予約を行うステップを含んでよい。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置は、映像をディスプレイするディスプレイ部と、ユーザの第1音声及び第2音声が入力される音声入力部と、前記ユーザの第1音声が入力されると、前記ユーザの第1音声に応答して少なくとも一つの音声タスクをガイドする第1メニューを前記映像の一領域にディスプレイするように前記ディスプレイ部を制御し、前記ユーザの第2音声が入力されると、前記少なくとも一つの音声タスクのうち、前記ユーザの第2音声に対応する音声タスクを行う制御部とを含む。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置の制御方法は、認識されたユーザの音声に応じて音声タスクを行う音声タスクモードで、少なくとも一つの短縮アイコン及び各々に対応する短縮アイコンの名前をディスプレイするステップと、ユーザの音声が入力されるステップと、前記少なくとも一つの短縮アイコンのうち、前記ディスプレイされた短縮アイコンの名前が短縮アイコンのフルネームの一部だけディスプレイされた第1短縮アイコンが存在する場合、前記入力されたユーザの音声が前記ディスプレイされた第1短縮アイコンの名前に一部と一致していると、前記第1短縮アイコンを実行するステップとを含む。
そして、前記実行するステップは、前記入力されたユーザの音声が前記ディスプレイされた第1の短縮アイコンに対する名前の一部を構成する複数の綴りと一致していると、前記第1短縮アイコンを実行してよい。
なお、前記実行するステップは、前記短縮アイコンのうち、前記短縮アイコンの名前に特殊文字が含まれた第2短縮アイコンが存在する場合、前記入力されたユーザの音声が前記第2短縮アイコンの名前に含まれた特殊文字を除く発話可能な名前と一致していると、前記第2短縮アイコンを実行してよい。そして、前記特殊文字は、ユーザによって発話不可な記号であってよい。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置の制御方法は、少なくとも一つのハイパーリンクを含むウェブページをディスプレイするステップと、前記少なくとも一つのハイパーリンクのテキストを抽出するステップと、ユーザの音声が入力されるステップと、前記少なくとも一つのハイパーリンクのうち、前記ディスプレイされたハイパーリンクのテキストが前記抽出されたハイパーリンクのテキストの一部のみディスプレイされた第1ハイパーリンクが存在する場合、前記入力されたユーザの音声が前記ディスプレイされた第1ハイパーリンクの一部テキストと一致していると、前記第1ハイパーリンクを実行するステップとを含む。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置は、ユーザの音声が入力される音声入力部と、前記音声入力部を介して入力されたユーザの音声に応じて音声タスクを行う音声タスクモードで、短縮アイコン及び短縮アイコンの名前をディスプレイするディスプレイ部と、前記短縮アイコンのうち、前記ディスプレイされた短縮アイコンの名前が短縮アイコンのフルネームの一部のみディスプレイされた第1短縮アイコンが存在する場合、前記入力されたユーザの音声が前記ディスプレイされた第1短縮アイコンの名前の一部と一致していると、前記第1短縮アイコンを実行する制御部とを含む。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置は、ユーザの音声が入力される音声入力部と、前記音声入力部を介して入力されたユーザの音声に応じて音声タスクを行う音声タスクモードで、短縮アイコン及び短縮アイコンの名前をディスプレイするディスプレイ部と、前記短縮アイコンのうち、前記短縮アイコンの名前に特殊文字が含まれた第2短縮アイコンが存在する場合、前記入力されたユーザの音声が前記第2短縮アイコンの名前に含まれた特殊文字を除く発話可能な名前と一致していると、前記第2短縮アイコンを実行する制御部とを含む。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置は、ユーザの音声が入力される音声入力部と、少なくとも一つのハイパーリンクを含むウェブページをディスプレイするディスプレイ部と、前記少なくとも一つのハイパーリンクのテキストを抽出し、前記音声入力部を介してユーザ音声が入力されると、前記ユーザの音声を認識し、前記少なくとも一つのハイパーリンクのうち、前記ディスプレイされたハイパーリンクのテキストが前記抽出されたハイパーリンクのテキストの一部のみディスプレイされた第1ハイパーリンクが存在する場合、前記入力されたユーザの音声が前記ディスプレイされた第1ハイパーリンクの一部テキストと一致していると、前記第1ハイパーリンクを実行する制御部とを含む。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置の制御方法は、モーション入力部を介してモーション開始命令が入力されると、モーションタスクを行うためのモーションタスクモードに切り替えるステップと、ユーザの操作に応じてアプリケーションを実行するステップと、前記モーション入力部を介してユーザの第1モーション及びユーザの第2モーションのいずれか一つが入力されると、前記ユーザの第1モーション及びユーザの第2モーションのうち認識された一つに対応し、前記アプリケーション実行画面を拡大したり縮小してディスプレイするステップとを含み、前記アプリケーション提供画面は画面拡大または画面縮小が可能であってよい。
そして、前記ユーザの第1モーションは、ユーザの両手を広げるように移動することを特徴し、前記ユーザの第1モーションが認識されると、前記アプリケーション実行画面を拡大してディスプレイしてよい。
なお、前記ユーザの第2モーションは、ユーザの両手を狭めるように移動することを特徴し、前記ユーザの第2モーションが認識されると、前記アプリケーション実行画面を縮小してディスプレイしてよい。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置の制御方法は、モーション入力部を介してモーション開始命令が入力されると、モーションタスクを行うためのモーションタスクモードに切り替えるステップと、ユーザの操作に応じてアプリケーションを実行するステップと、前記モーション入力部を介してユーザのグラブモーションが維持されるまま移動されるモーションが入力されると、前記ユーザのグラブモーションの移動に対応し、前記アプリケーション実行画面を移動してディスプレイするステップとを含み、前記アプリケーション提供画面は前記電子装置のディスプレイ画面内で移動可能であってよい。
一方、前記目定を達成するための本発明の一実施形態に係る電子装置は、ディスプレイ部と、ユーザの第1モーション及びユーザの第2モーションが入力されるモーション入力部と、ユーザの操作に応じてアプリケーションを実行し、前記モーション入力部を介してユーザの第1モーション及びユーザの第2モーションのいずれか一つが入力されると、前記ユーザの第1モーション及びユーザの第2モーションのうち入力された一つに対応して前記ディスプレイ部にディスプレイされたアプリーション実行画面を拡大したり縮小してディスプレイする制御部とを含み、前記アプリケーション提供画面は画面拡大または画面縮小が可能であってよい。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置は、ディスプレイ部と、ユーザの第3モーションが入力されるモーション入力部と、ユーザの操作に応じてアプリケーションを実行し、前記モーション入力部を介してユーザの第3モーションが入力されると、前記ディスプレイ部にディスプレイされたアプリケーション実行画面をユーザの第3モーションに応じて移動してディスプレイする制御部とを含み、前記ユーザの第3モーションは、前記ユーザがグラブモーションを取ってからグラブされた手を移動するモーションであり、前記アプリケーション提供画面は前記電子装置のディスプレイ画面内で移動可能であってよい。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置の制御方法は、前記電子装置に含まれた音声入力部及び前記電子装置と連動する装置の一つから音声開始命令が入力されるステップと、前記電子装置に含まれた音声入力部から前記音声開始命令が入力されると、第1アイコンをディスプレイし、前記電子装置と連動する装置から前記音声開始命令が入力されると、前記第1アイコンと相違する第2アイコンをディスプレイするステップとを含む。
そして、前記電子装置に含まれた音声入力部から前記音声開始命令が入力されると、第1音声タスクモードに切り替わることを特徴とし、前記第1音声タスクモードは、前記電子装置に含まれた音声入力部からユーザ音声が入力されると、前記入力されたユーザ音声に応じて音声タスクを行うモードであってよい。
なお、前記第1アイコンをディスプレイする場合、予め設定された時間の間、前記電子装置に含まれた音声入力部にユーザ音声が入力されていなければ、前記第1音声タスクモードを解除し、リモコンによって制御されるリモコンモードに切り替えるステップとを含んでよい。
そして、前記電子装置と連動する装置から入力された音声開始命令は、前記電子装置と連動する装置に備えられた特定ボタンに対応する信号及び前記電子装置と連動する装置に備えられた音声入力部を介して入力された特定ユーザ音声の一つであってよい。
なお、前記電子装置と連動する装置から入力された音声開始命令が入力されると、第2音声タスクモードに切り替えられることを特徴とし、前記第2音声タスクモードは、前記電子装置と連動する装置に備えられた音声入力部を介してユーザ音声が入力されると、前記入力されたユーザ音声に応じて音声タスクを行うモードであってよい。
そして、前記第2アイコンをディスプレイする場合、予め設定された時間の間、前記電子装置と連動する装置に含まれた音声入力部にユーザ音声が入力されていなければ、前記第2音声タスクモードを解除し、リモコンによって制御されるリモコンモードに切り替えるステップを含んでよい。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置は、音声開始命令が入力される音声入力部と、電子装置と連動する装置と通信を行う通信部と、ディスプレイ部と、前記音声入力部から音声音声開始命令が入力されると、第1アイコンをディスプレイし、前記電子装置と連動する装置から前記音声開始命令が入力されると、前記第1アイコンと相違する第2アイコンをディスプレイするように前記ディスプレイ部を制御する制御部とを含む。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置の制御方法は、音声認識モジュールを通じて音声開始命令を認識するステップと、前記音声開始命令が認識されると、前記音声認識モジュールを通じて認識されたユーザ音声によって制御される音声タスクを行うための音声ガイド情報をディスプレイするステップと、文字入力が要求されるタスクを行うための第1ユーザ音声が認識されると、テキスト入力ウィンドウをディスプレイするステップと、前記テキスト入力ウィンドウに入力するための第2ユーザ音声が認識されると、前記認識された第2ユーザ音声に対応するテキストを前記テキスト入力ウィンドウにディスプレイし、文字入力メニュー(IME:Input Method Editor)をディスプレイするステップとを含む。そして、前記文字入力が要求されるタスクは、検索を行うためのタスクであってよい。
なお、前記文字入力メニューをディスプレイするステップは、前記ユーザ音声が認識される間、それまでディスプレイされていた画面をディスプレイし、前記テキスト入力ウィンドウに入力するためのユーザ音声が認識された後、前記文字入力メニューをディスプレイしてよい。
そして、前記テキスト入力ウィンドウに入力されたテキストを含む候補群検索ワードが複数存在する場合、前記文字入力メニューに候補群検索ワードリストをオーバーラッピングしてディスプレイするステップを更に含んでよい。
なお、前記テキスト入力ウィンドウのテキスト入力が完了したり、前記テキスト入力ウィンドウのテキスト入力を取り消す場合、ディスプレイ画面に前記文字入力メニューを除去するステップを更に含んでよい。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置は、音声開始命令が入力される音声入力部と、ディスプレイ部と、前記音声入力部を介して文字入力が要求されるタスクを行うための第1ユーザ音声が入力されると、テキスト入力ウィンドウをディスプレイし、前記音声入力部を介して前記テキスト入力ウィンドウに入力するための第2ユーザ音声が入力されると、前記認識された第2ユーザ音声に対応するテキストを前記テキスト入力ウィンドウにディスプレイし、文字入力メニュー(IME:Input Method Editor)をディスプレイするように前記ディスプレイ部を制御する制御部とを含む。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置の制御方法は、音声入力部を介して入力されたユーザ音声によって行われる音声タスクをガイドする音声ガイド情報をディスプレイするステップと、前記電子装置と連動する外部装置に含まれた音声入力ボタンが選択される場合、前記音声ガイド情報に音声検索をガイドする第1ガイド語句がディスプレイするステップと、前記外部装置に含まれた音声検索ボタンが選択される間、前記音声入力部を介して入力されたユーザ音声を認識するステップとを含む。
そして、前記認識するステップは、前記音声ガイド情報に前記音声入力部を介してユーザ音声が入力されているという情報を含む第2ガイド語句をディスプレイするステップを含んでよい。
なお、前記音声検索ボタンの選択が解除されると、前記音声ガイド情報にユーザ音声の入力が完了しているか否かを確認する第3ガイド語句をディスプレイするステップを含んでよい。
そして、前記第3ガイド語句は、前記ユーザ音声の入力を続けるか否か、前記入力されたユーザ音声が完了しているか否か、及び前記入力されたユーザ音声を取り消すか否かを問うメッセージが含まれてよい。
なお、前記第3ガイド語句がディスプレイされる間、前記音声検索ボタンが再び選択されてユーザ音声が入力されると、前記入力されたユーザ音声を以前に認識されたユーザ音声に認識し続けるステップを含んでよい。そして、前記認識されたユーザ認識に対応するテキストをテキスト入力ウィンドウにディスプレイするステップを含んでよい。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置は、ユーザの音声が入力される音声入力部と、前記電子装置と連動する外部装置から信号を受信する通信部と、ディスプレイ部と、前記音声入力部を介して入力されたユーザ音声によって行われる音声タスクをガイドする音声ガイド情報をディスプレイする間、前記外部装置に含まれた音声入力ボタンが選択される場合、前記音声ガイド情報に音声検索をガイドする第1ガイド語句がディスプレイされ、前記外部装置に含まれた音声検索ボタンが選択される間、前記音声入力部を介して入力されたユーザ音声を認識する制御部とを含む。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置の制御方法は、音声入力部を介して音声開始命令が入力されるステップと、前記入力された音声開始命令に対応し、音声タスクを行うための音声タスクモードに切り替え、前記音声タスクモードを行うための音声ガイド情報をディスプレイするステップと、前記音声タスクモードで、ディスプレイ画面から選択可能なアイテムのテキストを抽出するステップと、前記音声入力部を介して入力されたユーザ音声が前記抽出されたテキストと一致している場合、前記テキストに対応するアイテムを実行するステップとを含む。
そして、前記選択可能なアイテムは、アプリケーションを実行するためのコンテンツリストに含まれた短縮アイコン及びウェブページに含まれたハイパーリンクのいずれか一つであってよい。
なお、前記テキストが抽出されたアイテムは、テキストが抽出されていない他のアイテムと区別できるようにディスプレイしてよい。
そして、前記テキストを抽出するステップは、前記名前テキストが予め設定された文字数を超過する場合、前記全テキストの前記予め設定された文字数以下のテキストを抽出してよい。
なお、前記実行するステップは、前記音声入力部を介して入力されたユーザ音声が前記抽出された予め設定された文字数以下のテキストと一致している場合、前記予め設定された文字数以下のテキストに対応するアイテムを実行してよい。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置は、音声開始命令及びユーザの音声が入力される音声入力部と、前記音声入力部を介して音声開始命令が入力されると、音声タスクを行うための音声タスクモードに切り替え、前記音声タスクモードを行うための音声ガイド情報をディスプレイし、前記音声タスクモードで、ディスプレイ画面から選択可能なアイテムのテキストを抽出し、前記音声入力部を介して入力されたユーザ音声が前記抽出されたテキストと一致している場合、前記テキストに対応するアイテムを実行するステップとを含む。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置の制御方法は、音声入力部を介して音声開始命令が入力されるステップと、前記音声開始命令に応答し、前記音声入力部を介して入力されるユーザ音声によって制御される音声タスクモードに切り替えるステップと、前記音声タスクモードで、複数のハイパーリンクを含むウェブページから前記複数のハイパーリンクのテキストを抽出するステップと、音声入力部を介してユーザ音声が入力される途中、前記入力されたユーザ音声が含まれたテキストを含むハイパーリンクが一つのみ存在する場合、前記テキストに対応するハイパーリンクを実行するステップとを含む。
そして、前記実行するステップは、前記音声入力部を介してユーザ音声が入力される途中、前記入力されたユーザ音声と前記テキストの一部が一致している短縮アイコンが一つだけ存在する場合、前記テキストに対応するハイパーリンクを実行してよい。
なお、前記抽出されたテキストは、抽出されていないテキストと区別できるように表示するステップを更に含んでよい。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置は、音声開始命令及びユーザ音声が入力される音声入力部と、ディスプレイ部と、前記音声入力部を介して前記音声開始命令が入力されると、前記音声入力部によって制御される音声タスクモードに切り替え、前記音声タスクモードで複数のハイパーリンクが含まれたウェブページから前記複数のハイパーリンクのテキストを抽出し、前記音声入力部を介してユーザ音声が入力される途中、前記入力されたユーザ音声の含まれたテキストを有する短縮アイコンが一つのみ存在する場合、前記テキストに対応するハイパーリンクを実行する制御部とを含む。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置の制御方法は、音声入力部を介して音声開始命令が入力されるステップと、前記音声開始命令に応答し、前記音声入力部を介して入力されるユーザ音声によって制御される音声タスクモードに切り替えるステップと、前記音声タスクモードで、複数のハイパーリンクを含むウェブページをディスプレイするステップと、前記複数のハイパーリンクに含まれたテキストを抽出するステップと、音声入力部を介してユーザ音声が入力されるステップと、前記入力されたユーザ音声を認識し、前記認識されたユーザ音声と一致しているテキストを有するハイパーリンクが複数存在する場合、前記認識されたユーザ音声と一致しているテキストを有するハイパーリンクを含む候補群リストをディスプレイするステップとを含む。
そして、前記音声入力部を介してユーザ音声が再入力されるステップと、前記再入力されたユーザ音声を認識し、前記再入力されたユーザ音声を反映して前記候補群リストを変更するステップとを含んでよい。
なお、前記再入力されたユーザ音声を反映した結果、前記入力されたユーザ音声及び再入力されたユーザ音声と一致しているテキストを含むハイパーリンクが一つである場合、前記一致しているテキストを含むハイパーリンクを直ちに実行するステップと含んでよい。そして、前記抽出されたテキストは抽出されていないテキストと区別できるように表示するステップを更に含んでよい。
なお、前記ディスプレイするステップは、前記電子装置のモードが音声タスクモードである際、前記候補群リストをディスプレイしてよい。そして、前記音声タスクモードが解除されると、前記候補群リストをディスプレイ画面から除去するステップを含んでよい。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置は、複数のハイパーリンクを含むウェブページをディスプレイするディスプレイ部と、音声開始命令及びユーザ音声が入力される音声入力部と、前記音声開始命令が入力されると、前記音声入力部を介して入力されるとユーザ音声によって制御される音声タスクモードに切り替え、前記音声タスクモードで、前記複数のハイパーリンクに含まれたテキストを抽出し、前記音声入力部に入力されたユーザ音声を認識し、前記認識されたユーザ音声と一致しているテキストを有するハイパーリンクが複数存在する場合、前記認識されたユーザ音声と一致しているテキストと有するハイパーリンクを含む候補群リスクをディスプレイするように前記ディスプレイ部を制御する制御部とを含む。
そして、前記制御部は、前記音声入力部を介してユーザ音声が再入力されると、前記再入力されたユーザ音声を認識し、前記再入力されたユーザ音声を反映して前記候補群リストを変更するように前記ディスプレイ部を制御してよい。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置の制御方法は、音声入力部を介して音声開始命令が入力されるステップと、前記音声開始命令に応答し、前記音声入力部を介して入力されるユーザ音声によって制御される音声タスクモードに切り替えるステップと、前記音声タスクモードで、前記音声入力部を介して入力されたユーザ音声によって行われる音声タスクをガイドする音声ガイド情報をディスプレイするステップと、前記音声入力部を介してユーザ音声を入力するステップと、前記音声入力部を介して入力されたユーザ音声の大きさが予め設定された大きさより小さい場合、前記音声ガイド情報の第1領域に前記ユーザ音声を認識できないとするフィードバックUIをディスプレイするステップとを含む。
そして、前記フィードバックUIは、前記予め設定された大きさ及び前記音声入力部を介して入力されたユーザ音声の大きさをバー形態で表現したGUIであってよい。
なお、前記ディスプレイするステップは、前記予め設定された大きさ以上のユーザ音声が入力されなければならないというメッセージを併せてディスプレイしてよい。そして、前記第1領域は前記音声ガイド情報の下段領域であってよい。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置は、音声開始命令及びユーザの音声が入力される音声入力部と、前記音声入力部を介して入力されたユーザ音声によって行われる音声タスクをガイドする音声ガイド情報をディスプレイするディスプレイ部と、前記音声開始命令が入力されると、前記音声入力部を介して入力されるユーザ音声によって制御される音声タスクモードに切り替え、前記音声タスクモードで、前記音声入力部を介してユーザ音声が入力され、前記音声入力部を介して入力されたユーザ音声の大きさが予め設定された大きさより小さい場合、前記音声ガイド情報の第1領域に前記ユーザ音声を認識できないとするフィードバックUIがディスプレイされるように前記ディスプレイ部を制御する制御部とを含む。
以上説明したように本発明によれば、ユーザはモーション及び音声を用いて電子装置をより直観的にかつ効率的に制御することができるようになる。
本発明の多様な実施形態に係る電子装置の構成を説明するためのブロック図である。 本発明の多様な実施形態に係る電子装置の構成を説明するためのブロック図である。 本発明の多様な実施形態に係る電子装置の構成を説明するためのブロック図である。 音声タスク及びモーションタスクに対応する遠隔制御装置のボタンに対する図である。 音声タスク及びモーションタスクに対応する遠隔制御装置のボタンに対する図である。 音声タスクの実行方法の多様な例を説明するための図である。 音声タスクの実行方法の多様な例を説明するための図である。 音声タスクの実行方法の多様な例を説明するための図である。 音声タスクの実行方法の多様な例を説明するための図である。 音声タスクの実行方法の多様な例を説明するための図である。 音声タスクの実行方法の多様な例を説明するための図である。 音声タスクの実行方法の多様な例を説明するための図である。 音声タスクの実行方法の多様な例を説明するための図である。 音声タスクの実行方法の多様な例を説明するための図である。 音声タスクの実行方法の多様な例を説明するための図である。 音声タスクの実行方法の多様な例を説明するための図である。 音声タスクの実行方法の多様な例を説明するための図である。 音声タスクの実行方法の多様な例を説明するための図である。 音声タスクの実行方法の多様な例を説明するための図である。 音声タスクの実行方法の多様な例を説明するための図である。 音声タスクの実行方法の多様な例を説明するための図である。 音声タスクの実行方法の多様な例を説明するための図である。 音声タスクの実行方法の多様な例を説明するための図である。 音声タスクの実行方法の多様な例を説明するための図である。 音声タスクの実行方法の多様な例を説明するための図である。 音声タスクの実行方法の多様な例を説明するための図である。 音声タスクの実行方法の多様な例を説明するための図である。 音声タスクの実行方法の多様な例を説明するための図である。 音声タスクの実行方法の多様な例を説明するための図である。 音声タスクの実行方法の多様な例を説明するための図である。 音声タスクの実行方法の多様な例を説明するための図である。 音声タスクの実行方法の多様な例を説明するための図である。 モーションタスクの実行方法の多様な例を説明するための図である。 モーションタスクの実行方法の多様な例を説明するための図である。 モーションタスクの実行方法の多様な例を説明するための図である。 モーションタスクの実行方法の多様な例を説明するための図である。 モーションタスクの実行方法の多様な例を説明するための図である。 モーションタスクの実行方法の多様な例を説明するための図である。 モーションタスクの実行方法の多様な例を説明するための図である。 モーションタスクの実行方法の多様な例を説明するための図である。 モーションタスクの実行方法の多様な例を説明するための図である。 モーションタスクの実行方法の多様な例を説明するための図である。 モーションタスクの実行方法の多様な例を説明するための図である。 モーションタスクの実行方法の多様な例を説明するための図である。 モーションタスクの実行方法の多様な例を説明するための図である。 モーションタスクの実行方法の多様な例を説明するための図である。 モーションタスクの実行方法の多様な例を説明するための図である。 モーションタスクの実行方法の多様な例を説明するための図である。 モーションタスクの実行方法の多様な例を説明するための図である。 モーションタスクの実行方法の多様な例を説明するための図である。 モーションタスクの実行方法の多様な例を説明するための図である。 モーションタスクの実行方法の多様な例を説明するための図である。 モーションタスクの実行方法の多様な例を説明するための図である。 モーションタスクの実行方法の多様な例を説明するための図である。 モーションタスクの実行方法の多様な例を説明するための図である。 モーションタスクの実行方法の多様な例を説明するための図である。 モーションタスクの実行方法の多様な例を説明するための図である。 モーションタスクの実行方法の多様な例を説明するための図である。 本発明の多様な実施形態に係る全タスクをモーションタスク及び音声タスクに区分して制御する電子装置の制御方法を説明するためのフローチャートである。 本発明の多様な実施形態に係る全タスクをモーションタスク及び音声タスクに区分して制御する電子装置の制御方法を説明するためのフローチャートである。 本発明の一実施形態に係る電子装置の音声タスクに対する音声UIを示す図である。 本発明の一実施形態に係る電子装置の音声タスクに対する音声UIを示す図である。 本発明の一実施形態に係る電子装置のモーションタスクに対するモーションUIを示す図である。 本発明の一実施形態に係る音声認識またはモーション認識による視覚的フィードバックを示す図である。 本発明の一実施形態に係る音声認識またはモーション認識による視覚的フィードバックを示す図である。 本発明の一実施形態に係る音声認識またはモーション認識による視覚的フィードバックを示す図である。 本発明の多様な実施形態に係る音声UI及びモーションUIを提供する電子装置の制御方法を説明するためのフローチャートである。 本発明の多様な実施形態に係る音声UI及びモーションUIを提供する電子装置の制御方法を説明するためのフローチャートである。 本発明の多様な実施形態に係る音声UI及びモーションUIを提供する電子装置の制御方法を説明するためのフローチャートである。 本発明の多様な実施形態に係る音声アプリケーション専用アイコンを説明するための電子装置のUI表示方法を説明するための図である。 本発明の多様な実施形態に係る音声アプリケーション専用アイコンを説明するための電子装置のUI表示方法を説明するための図である。 本発明の多様な実施形態に係る音声アプリケーション専用アイコンを説明するための電子装置のUI表示方法を説明するための図である。 本発明の多様な実施形態に係る音声アプリケーション専用アイコンを説明するための電子装置のUI表示方法を説明するための図である。 本発明の多様な実施形態に係る音声アプリケーション専用アイコンを説明するための電子装置のUI表示方法を説明するための図である。 本発明の多様な実施形態に係る音声アプリケーション専用アイコンを説明するための電子装置のUI表示方法を説明するための図である。 本発明の多様な実施形態に係る音声アプリケーション専用アイコンを説明するための電子装置のUI表示方法を説明するための図である。 本発明の多様な実施形態に係る音声アプリケーション専用アイコンを説明するための電子装置のUI表示方法を説明するための図である。 本発明の多様な実施形態に係る音声アプリケーション専用アイコンを説明するための電子装置のUI表示方法を説明するための図である。 本発明の実施形態に係る電子装置のUI表示方法を説明するためのフローチャートである。 本発明の多様な実施形態に係る上、下、左、右方向へのユーザのモーションに応答して変更される画面を示す図である。 本発明の多様な実施形態に係る上、下、左、右方向へのユーザのモーションに応答して変更される画面を示す図である。 本発明の多様な実施形態に係る上、下、左、右方向へのユーザのモーションに応答して変更される画面を示す図である。 本発明の多様な実施形態に係る上、下、左、右方向へのユーザのモーションに応答して変更される画面を示す図である。 本発明の多様な実施形態に係る上、下、左、右方向へのユーザのモーションに応答して変更される画面を示す図である。 本発明の多様な実施形態に係る上、下、左、右方向へのユーザのモーションに応答して変更される画面を示す図である。 本発明の多様な実施形態に係る上、下、左、右方向へのユーザのモーションに応答して変更される画面を示す図である。 本発明の多様な実施形態に係る上、下、左、右方向へのユーザのモーションに応答して変更される画面を示す図である。 本発明の多様な実施形態に係る上、下、左、右方向へのユーザのモーションに応答して変更される画面を示す図である。 本発明の多様な実施形態に係る上、下、左、右方向へのユーザのモーションに応答して変更される画面を示す図である。 本発明の多様な実施形態に係る上、下、左、右方向へのユーザのモーションに応答して変更される画面を示す図である。 本発明の多様な実施形態に係る上、下、左、右方向へのユーザのモーションに応答して変更される画面を示す図である。 本発明の多様な一実施形態に係るユーザのモーションに応答して画面が変更される電子装置の制御方法を説明するためのフローチャートである。 本発明の多様な一実施形態に係るユーザのモーションに応答して画面が変更される電子装置の制御方法を説明するためのフローチャートである。 本発明の多様な実施形態に係るリモコンモード、モーションタスクモード、音声タスクモードを行う方法を説明するための図及びフローチャートである。 本発明の多様な実施形態に係るリモコンモード、モーションタスクモード、音声タスクモードを行う方法を説明するための図及びフローチャートである。 本発明の多様な実施形態に係るリモコンモード、モーションタスクモード、音声タスクモードを行う方法を説明するための図及びフローチャートである。 本発明の多様な実施形態に係るリモコンモード、モーションタスクモード、音声タスクモードを行う方法を説明するための図及びフローチャートである。 本発明の一実施形態に係る携帯機器を用いた音声認識を説明するためのフローチャートである。 本発明の一実施形態に係るポインティングモードを説明するための図及びフローチャートである。 本発明の一実施形態に係るポインティングモードを説明するための図及びフローチャートである。 本発明の一実施形態に係るポインティングモードを説明するための図及びフローチャートである。 本発明の一実施形態に係るポインティングモードを説明するための図及びフローチャートである。 本発明の一実施形態に係るポインティングモードを説明するための図及びフローチャートである。 本発明の一実施形態に係るポインティングモードを説明するための図及びフローチャートである。 本発明の一実施形態に係るポインティングモード時にモーションが入力された場合、ディスプレイ方法を説明するための図及びフローチャートである。 本発明の一実施形態に係るポインティングモード時にモーションが入力された場合、ディスプレイ方法を説明するための図及びフローチャートである。 本発明の一実施形態に係るポインティングモード時にモーションが入力された場合、ディスプレイ方法を説明するための図及びフローチャートである。 本発明の一実施形態に係るポインティングモード時にモーションが入力された場合、ディスプレイ方法を説明するための図及びフローチャートである。 本発明の一実施形態に係る音声タスクモードにおけるアイテム表示方法を説明するための図及びフローチャートである。 本発明の一実施形態に係る音声タスクモードにおけるアイテム表示方法を説明するための図及びフローチャートである。 本発明の一実施形態に係る音声タスクモードにおけるアイテム表示方法を説明するための図及びフローチャートである。 本発明の一実施形態に係る互いに異なる彩度を有するUIを説明するための図及びフローチャートである。 本発明の一実施形態に係る互いに異なる彩度を有するUIを説明するための図及びフローチャートである。 本発明の一実施形態に係る互いに異なる彩度を有するUIを説明するための図及びフローチャートである。 本発明の一実施形態に係る互いに異なる彩度を有するUIを説明するための図及びフローチャートである。 本発明の一実施形態に係るディスプレイ音声アイテム以外の命令語に対応するタスク実行を説明するための図及びフローチャートである。 本発明の一実施形態に係るディスプレイ音声アイテム以外の命令語に対応するタスク実行を説明するための図及びフローチャートである。 本発明の一実施形態に係るディスプレイ音声アイテム以外の命令語に対応するタスク実行を説明するための図及びフローチャートである。 本発明の一実施形態に係る両手モーションタスクモードに切り替わるためのモーション開始命令を説明するための図及びフローチャートである。 本発明の一実施形態に係る両手モーションタスクモードに切り替わるためのモーション開始命令を説明するための図及びフローチャートである。 本発明の一実施形態に係る両手モーションタスクモードに切り替わるためのモーション開始命令を説明するための図及びフローチャートである。 本発明の一実施形態に係る複数のユーザによってモーション開始命令が入力された場合、モーションタスクモードを行う方法を説明するためのフローチャートである。 本発明の一実施形態に係る音声認識を用いてステップ別に移行してタスクを行う方法を説明するための図及びフローチャートである。 本発明の一実施形態に係る音声認識を用いてステップ別に移行してタスクを行う方法を説明するための図及びフローチャートである。 本発明の一実施形態に係る音声認識を用いてステップ別に移行してタスクを行う方法を説明するための図及びフローチャートである。 本発明の一実施形態に係る音声認識を用いてステップ別に移行してタスクを行う方法を説明するための図及びフローチャートである。 本発明の一実施形態に係る名前の一部がディスプレイされた短縮アイコン実行を説明するための図及びフローチャートである。 本発明の一実施形態に係る名前の一部がディスプレイされた短縮アイコン実行を説明するための図及びフローチャートである。 本発明の一実施形態に係る名前の一部がディスプレイされた短縮アイコン実行を説明するための図及びフローチャートである。 本発明の一実施形態に係る特殊ジェスチャーによるタスク実行を説明するための図及びフローチャートである。 本発明の一実施形態に係る特殊ジェスチャーによるタスク実行を説明するための図及びフローチャートである。 本発明の一実施形態に係る特殊ジェスチャーによるタスク実行を説明するための図及びフローチャートである。 本発明の一実施形態に係る特殊ジェスチャーによるタスク実行を説明するための図及びフローチャートである。 本発明の一実施形態に係る特殊ジェスチャーによるタスク実行を説明するための図及びフローチャートである。 本発明の一実施形態に係る音声入力方法によって異なるようにディスプレイされるアイコンを説明するための図及びフローチャートである。 本発明の一実施形態に係る音声入力方法によって異なるようにディスプレイされるアイコンを説明するための図及びフローチャートである。 本発明の一実施形態に係る音声入力方法によって異なるようにディスプレイされるアイコンを説明するための図及びフローチャートである。 本発明の一実施形態に係る文字入力メニューをディスプレイする方法を説明するための図及びフローチャートである。 本発明の一実施形態に係る文字入力メニューをディスプレイする方法を説明するための図及びフローチャートである。 本発明の一実施形態に係る文字入力メニューをディスプレイする方法を説明するための図及びフローチャートである。 本発明の一実施形態に係る文字入力メニューをディスプレイする方法を説明するための図及びフローチャートである。 本発明の一実施形態に係る文字入力メニューをディスプレイする方法を説明するための図及びフローチャートである。 本発明の一実施形態に係る外部機器を用いた音声タスク実行方法を説明するためのフローチャートである。 本発明の一実施形態に係るディスプレイ画面に発話可能な命令語が表示された場合、音声タスクを行う方法を説明するための図及びフローチャートである。 本発明の一実施形態に係るディスプレイ画面に発話可能な命令語が表示された場合、音声タスクを行う方法を説明するための図及びフローチャートである。 本発明の一実施形態に係るディスプレイ画面に発話可能な命令語が表示された場合、音声タスクを行う方法を説明するための図及びフローチャートである。 本発明の一実施形態に係る自動音声認識方法を説明するためのフローチャートである。 本発明の一実施形態に係る候補群リストをディスプレイする方法を説明するためのフローチャートである。 本発明の一実施形態に係る音声認識エラーをガイドするためのUIを説明するためのフローチャートである。
以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。
図1は、本発明の実施形態に係る電子装置を示す概略的なブロック図である。図1によると、電子装置100は、音声入力部110と、モーション入力部120と、保存部130及び制御部140を含む。電子装置100は、外部のネットワークと接続可能なスマートテレビ、セットトップボックス、PCで、またはデジタルテレビ等で実現されてよいが、これらに限られるものではない。
音声入力部110には、ユーザが発話(Utterance)した音声が入力される。音声入力部110は、入力された音声信号を電気信号に変換して制御部140に出力する。例えば、音声入力部110は、マイクロフォンで実現されてよい。なお、音声入力部110は、電子装置100と一体型(All−in−one)だけでなく、分離された形で実現されてよい。分離された音声入力部110は、電子装置100と有線または無線ネットワークを通じて接続されてよい。
モーション入力部120は、ユーザのモーションを撮像した映像信号(例えば、連続するフレーム)が受信して制御部140に提供する。例えば、モーション入力部120は、レンズ及びイメージセンサで構成されるモーション入力部120ユニットで実現されてよい。なお、モーション入力部120は、電子装置100と一体型だけでなく、分離された形で実現されてよい。分離されたモーション入力部120は、電子装置100と有線または無線ネットワークを通じて接続されてよい。
保存部130は、電子装置100を駆動して制御するための多様なデータ及びプログラムを保存する。保存部130は、音声入力部110を介して入力された音声を認識するための音声認識モジュール及びモーション入力部120を介して入力されたモーションを認識するためのモーション認識モジュールを保存する。
保存部130は、音声データベース及びモーションデータベースを含んでよい。音声データベースは、予め設定された音声及び予め設定された音声にマッチする音声タスクが記録されたデータベースのことを意味する。モーションデータベースとは、予め設定されたモーション及び予め設定されたモーションにマッチするモーションタスクが記録されたデータバースのことを意味する。
制御部140は、音声入力部110と、モーション入力部120及び保存部130を制御する。制御部140は、CPU(Central Processing Unit)及び電子装置100を制御するためのモジュール及びデータを保存するROM(Read Only Memory)及びRAM(Random Access Memory)を含んでよい。
音声入力部110を介して音声が入力される場合、制御部140は音声認識モジュール及び音声データベースを用いて音声を認識する。音声認識(Voice Recognition)は入力される音声の形態によって、各々の単語を区分して発話した音声を認識する孤立単語認識(Isolated Word Recognition)連続単語、連続文章及び会話体音声を認識する連続音声認識(Continuous speech Recognition)及び孤立単語認識と連続音声認識との中間形態で、予め定められたキーワードを検出して認識するキーワード検出(Keyword Spotting)で区分されてよい。ユーザ音声が入力される場合、制御部140は入力された音声信号内でユーザが発話した音声の始めと終わりを検出して音声区間を判断する。制御部140は、入力された音声信号のエネルギーを計算し、計算されたエネルギーに応じて音声信号のエネルギーレベルを分類し、動的プログラミングを通じて音声区間を検出することができる。制御部140は、検出された音声区間内の音声信号に音響モデル(Acoustic Model)に基づいて、音声の最小単位である音素を検出して音素データを生成する。制御部140は、生成された音素データにHMM(Hidden Markov Model)確率モデルを適用してテキスト情報を生成する。しかし、上述のように、ユーザの音声を認識する方法は一実施形態に過ぎず、他の方法を用いてユーザ音声を認識することができる。それにより、制御部140は、音声信号の中に含まれたユーザの音声を認識することができる。
モーション入力部120を介してモーションが入力される場合、制御部140はモーション検知モジュール及びモーションデータベースを用いてモーションを認識する。モーション認識(Motion Recognition)はモーション入力部120を介して入力されるユーザのモーションに対応する映像(例えば、連続するフレーム)をモーション認識モジュールを用いて周囲の背景と手(例えば、指を伸ばしたり指を曲げて拳を作る)領域に分離し、連続する手の動きを認識することができる。ユーザモーションが入力される場合、制御部140は受信された映像をフレーム単位で保存し、保存されたフレームを用いてユーザモーションの対象であるオブジェクト(例えば、ユーザの手)を検知する。制御部140は、フレームに含まれたオブジェクトの形態、色、動きのうち、少なくともいずれか一つを検知してオブジェクトを検出する。制御部140は、複数のフレームに含まれた各々のオブジェクトの位置を用いて検出されたオブジェクトの動きを追跡することができる。
制御部140は、追跡されたオブジェクトの形態及び動きに応じてモーションを判断する。例えば、制御部140は、オブジェクトの形態の変化、速度、位置、方向のうち、少なくともいずれか一つを用いてユーザのモーションを判断する。ユーザのモーションは、手を握るモーションであるグラブ(Grab)、表示されたカーソルを手で移動させるモーションであるポインティング移動(Pointing move)、手を一定速度以上で一方向に動かすモーションであるスラップ(Slap)、手を左/右または上/下に振るモーションであるシェイク(Shake)及び手を回転させるモーションである回転を含む。上述の実施形態以外の他のモーションにも本発明の技術的思想が適用されてよい。例えば、握られた手を開くスプレッド(Spread)モーション等が更に含まれてよい。
制御部140は、ユーザのモーションがポインティング移動であるか、スラップであるかを判断するために、オブジェクトが決定された時間(例えば、800ms)内に決定された領域(例えば、40cm×40cmの四角形)から外れているかを判断する。オブジェクトが決定された時間内に決定された領域から外れていない場合、制御部140はユーザのモーションをポインティング移動と判断してよい。オブジェクトが決定された時間内に決定された領域から外れている場合、制御部140はユーザのモーションをスラップと判断してよい。別の一例として、オブジェクトの速度が予め設定された速度(例えば、30cm/s)以下であると判断された場合、制御部140はユーザのモーションをポインティング移動と判断する。オブジェクトの速度が予め設定された速度超過であると判断される場合、制御部140はユーザのモーションをスラップと判断する。
制御部140は、上述のように、認識された音声及びモーションを用いて、電子装置100のタスク(Task)を行う。電子装置100のタスクは、チャネル変更、音量調節、コンテンツ(例えば、動画や音楽、写真等)の再生またはインターネットブラウジング等のように、電子装置100によって実行可能な機能の少なくとも一つを含む。制御部140が、電子装置100を制御する具体的な方法については、詳細に後述する。
図2は、本発明の別の実施形態に係る電子装置100の構成を示すブロック図を示す図である。図2によると、電子装置100は、音声入力部110と、モーション入力部120と、保存部130と、制御部140と、放送受信部150、外部端子入力部160と、リモコン信号受信部170と、ネットワークインターフェース部180及び映像出力部190を含む。図2に示された電子装置100は、セットトップボックス(Set−top box)で実現されてよい。
一方、図2に示された音声入力部110と、モーション入力部120と、保存部130及び制御部140に対する説明は、図1において説明した音声入力部110と、モーション入力部120と、保存部130及び制御部140に対する説明と同じであるため、詳細な説明は省略する。
放送受信部150は、有/無線で外部から放送信号を受信する。放送信号は、映像(Video)、オーディオ(Audio)及び付加データ(例えば、EPG)を含む。放送受信部150は、地上波放送、ケーブル放送、衛星放送、インターネット放送等のような多様なソースから放送信号を受信することができる。
外部端子入力部160は、電子装置100の外部から映像データ(例えば、動画や写真等)、オーディオデータ(例えば、音楽等)等を受信する。外部端子160は、HDMI入力端子(High−Definition Multimedia Interface Input)、コンポーネント入力端子、PC入力端子、またはUSB入力端子の少なくとも一つを含んでよい。リモコン信号受信部170は、外部のリモコンから入力されるリモコン信号を受信する。リモコン信号受信部170は、電子装置100が音声タスクモードかモーションタスクモードでも、リモコン信号を受信することができる。ネットワークインターフェース部180は、制御部140の制御によって電子装置100と外部装置(例えば、サーバ)を接続することができる。制御部140は、ネットワークインターフェース部180を介して接続された外部装置からアプリケーションをダウンロードしたり、ウェブブラウジングをすることができる。ネットワークインターフェース部180は、イーサネット(Ethernet(登録商標))、無線LAN182及びブルートゥース(Bluetooth(登録商標))の少なくとも一つを提供することができる。
映像出力部190は、放送受信部150を介して受信される外部の放送信号、または外部端子入力部160で入力される映像データ、または保存部130に保存された映像データを外部のディスプレイ装置(例えば、モニタやテレビ)に出力する。
図3は、本発明の更に別の実施形態に係る電子装置100のブロック図を示す図である。図3に示すように、電子装置100は、音声入力部110と、モーション入力部120と、保存部130と、制御部140と、放送受信部150と、外部端子入力部160と、リモコン信号受信部170と、ネットワークインターフェース部180と、ディスプレイ部193及びオーディオ出力部196を含む。このとき、電子装置100は、デジタルテレビであってよいが、これに限られるものではない。
一方、図3において音声入力部110と、モーション入力部120と、保存部130と、制御部140と、放送受信部150と、外部端子入力部160と、リモコン信号受信部170及びネットワークインターフェース部180に対する説明は、図1及び図2で同じ参照番号を有する構成に対する説明と同様であるため、詳細な説明は省略する。
ディスプレイ部193は、放送受信部150を介して受信された放送信号に対応する映像を表示する。ディスプレイ部193は、外部端子160を介して入力される映像データ(例えば、動画)を表示することができる。ディスプレイ部193は、制御部140の制御に応じて音声タスクを行うための音声ガイド情報及びモーションタスクを行うためのモーションガイド情報を表示することができる。
オーディオ出力部196は、制御部140の制御によって放送信号に対応する音声を出力する。オーディオ出力部196は、スピーカ196a、ヘッドホン出力端子196bまたはS/PDIF出力端子163cの少なくともいずれか一つを含んでよい。一方、保存部130は、図3に示すように、電源制御モジュール130a、チャネル制御モジュール130b、音量制御モジュール130c、外部入力制御モジュール130d、画面制御モジュール130e、オーディオ制御モジュール130f、インターネット制御モジュール130g、アプリケーションモジュール130h、検索制御モジュール130i、UI処理モジュール130j、音声認識モジュール130k、モーション認識モジュール130l、音声データベース130m及びモーションデータベース130nを含む。これらのモジュール(130aないし130n)は、それぞれ、電源制御機能、チャネル制御機能、音量制御機能、外部入力制御機能、画面制御機能、オーディオ制御機能、インターネット制御機能、アプリケーション実行機能、検索制御機能、UI処理機能を行うためにソフトウェアで実現されてよい。制御部140は、保存部130に保存されたこれらのソフトウェアを実行させて当該機能を行うことができる。
制御部140は、音声認識モジュール130kを介してユーザ音声を認識すると、遠隔制御装置によって制御可能なタスクの中で認識されたユーザ音声に対応する音声タスクを行う。制御部140は、モーション認識モジュール130lを介してユーザモーションを認識すると、遠隔制御装置で制御可能なタスクの中で認識されたユーザモーションに対応するモーションタスクを行う。このとき、音声タスク及びモーションタスクは、前記遠隔制御装置に備えられたボタン別で区分されてマッピングされている。
ここで、音声タスクとは、音声認識モジュールを介して認識された音声に応じて制御可能なタスクのことを意味する。一例として、音声タスクで電子装置100の電源制御、チャネルショートカット、サウンドオフ、外部端子変更、音量レベル指定、文字入力及び映像再生/停止機能の少なくともいずれか一つが含まれてよい。即ち、ユーザが音声で発話可能な名称または識別子を有する各種タスクまたは文字入力が要求されるタスクが音声タスクに設定されてよい。
なお、モーションタスクとは、モーション認識モジュールを介して認識されたモーションに応じて制御可能なタスクのことを意味する。一例として、モーションタスクでチャネルザッピング、音量レベル調節、画面ナビゲーション、スライドバーコントロール及びカーソルポインティング等が含まれてよい。即ち、ユーザモーションの種類及び方向等に応じて段階的に制御可能な各種タスク及びカーソルが使われるタスクがモーションタスクに設定されてよい。
音声認識モジュールを介してユーザの音声が認識される場合、制御部140はユーザの音声に含まれた発話内容に直接的に対応する音声タスクを行う。
例えば、制御部140は、ユーザが発話した音声の中でチャネル識別子を認識する。チャネル識別子は、チャネルを区分するための識別子として、チャネル名、チャネル番号、番組名の少なくともいずれか一つを含んでよい。
上述のように、保存部130に音声データベースが保存されている場合、制御部140は、音声データベースを用いて認識されたチャネル識別子に対応するチャネルへショートカットを行うことができる。即ち、ユーザが“11”と発話した場合、制御部140は音声データベースに“11”に該当する音声タスクが記録されているかを確認する。このとき、“11”に該当する音声タスクが11番チャネルを選局するようにするチャネルショートカット機能であれば、制御部140は11番チャネルにショートカット動作を行う。
なお、モーション認識モジュールを介してユーザのモーションが認識される場合、制御部140はユーザのモーションの方向に応じてユーザのモーションに対応するモーションタスクを行う。
例えば、上方へのスラップ動作がモーション認識モジュールを介して認識される場合、制御部140はモーションデータベースから上方へのスラップモーションに対応するモーションタスクを確認し、現在のチャネルを基準に予め設定された番号(例えば、1)分だけ増加したチャネルに変更するチャネルザッピングを行うことができる。なお、下方へのスラップ動作がモーション認識モジュールを介して認識される場合、制御部140はモーションデータベースから下方へのスラップモーションに対応するモーションタスクを確認し、現在ディスプレイ中のチャネルを基準に予め設定された番号(例えば、1)分だけ減少したチャネルに変更するチャネルザッピングを行うことができる。
一方、音声タスク及びモーションタスクは、図4及び図5に示すように、遠隔制御装置に備えられたボタン別に区分されてマッピングされてよい。
図4は、少なくとも一つの音声タスクを行うための命令語に対応する遠隔制御装置のボタンを示している。即ち、音声入力が認識された場合に行われるタスクは、遠隔制御装置のボタンの一つによって行われるタスクに対応してよい。例えば、図4に示すように、遠隔制御装置の電源ボタン401によって行われるタスクは、“呼び出し語(例えば、ジニ)”または“電源”という音声が認識された場合に行われるタスクに対応する。これにより、外部入力ボタン402は、“外部入力”という音声に対応する。なお、数字ボタン403は発話した数字に対応する。なお、前のチャネルボタン404は“前のチャネル”という音声に対応する。なお、サウンドオフ(Mute)ボタン405は、“サウンドオフ”または“サウンドオン”という音声に対応する。なお、チャネルリストボタン406は、“チャネルリスト”という音声に対応する。なお、スマートハブ/メニュー/検索/簡単メニュー/情報表示ボタン407、終了ボタン409と、ソーシャルネットワーク/3D映像提供ボタン410と、ヘルプボタン411及び再生/一時停止/停止/録画ボタン(412)は、それぞれのボタン名称に該当する音声に対応する。
図5は、少なくとも一つのモーションタスクを行うためのモーションに対応する遠隔制御装置のボタンを示している。即ち、モーション入力が認識された場合に行われるタスクは、遠隔制御装置のボタンの一つによって行われるタスクに対応してよい。例えば、図5に示すように、音量アップ/ダウンボタン及びチャネルアップ/ダウンボタン421によって行われるタスクは、上−下−左−右へのスラップモーションが認識された場合に行われるタスクに対応する。これにより、上、下、左、右方向ボタン422は、上−下−左−右へのスラップモーションに対応する。なお、選択ボタン423は、グラブモーションに対応する。なお、機能ボタン425は、OSDにキーガイドがある場合、当該キーのポインティングモーションに対応する。
このとき、音声タスク及び前記モーションタスクの各々は、互いに異なるタスクの結合なしに単独で電子装置100の設定を変更することができる。即ち、音声タスクは、音声認識モジュール130kによって認識されたユーザ音声を用いて電子装置100の設定を変更することができ、モーションタスクはモーション認識モジュール130lによって認識されたユーザモーションを用いて電子装置100の設定を変更することができる。
制御部140は、音声認識モジュール130k及びモーション認識モジュール130lのいずれか一つを介してユーザ音声及びユーザモーションのいずれか一つを認識する。そして、音声認識モジュール130kを介してユーザ音声が認識されると、制御部140はコンテンツ識別子がそれぞれ付与された複数のコンテンツのうち、認識されたユーザ音声に対応するコンテンツ識別子が付与されたコンテンツを実行する。そして、モーション認識モジュール130lを介してユーザのモーションが認識されると、制御部140はユーザのモーションの方向に対応して複数のコンテンツを変更する。
ここで、コンテンツは放送コンテンツであってよい。特に、音声認識モジュール130kを介してユーザ音声が認識されると、制御部140は現在の放送チャネルで放送チャネル識別子がそれぞれ付与された複数の放送チャネルのうち、認識されたユーザ音声に対応する放送チャネル識別子が付与された放送チャネルに変更する。このとき、チャネル識別子は、チャネル番号、チャネル名及び番組名の少なくともいずれか一つを含んでよい。
そして、モーション認識モジュール130lを介してユーザのモーションが認識されると、制御部140はユーザのモーションの方向に対応するように複数の放送チャネルを段階的に変更する。このとき、ユーザモーションはスラップを含んでよい。例えば、認識されたユーザモーションが上方へのスラップモーションであれば、制御部140は現在出力される放送のチャネル番号より予め設定された番号分だけ増加したチャネルに変更されるようにチャネルザッピングを行う。そして、認識されたユーザモーションが下方へのスラップモーションであれば、制御部140は現在出力される放送のチャネル番号より予め設定された番号分だけ減少したチャネルに変更されるようにチャネルザッピングを行う。
ここで、コンテンツは映像コンテンツ、音楽コンテンツ及び写真コンテンツのいずれか一つであってよい。コンテンツが、映像コンテンツ、音楽コンテンツ及び写真コンテンツのいずれか一つであれば、コンテンツ識別子はコンテンツの名前であってよい。
なお、コンテンツが映像コンテンツ、音楽コンテンツ及び写真コンテンツのいずれか一つであれば、ユーザのモーションはスラップを含んでよい。例えば、認識されたユーザモーションが右方へのスラップモーションであれば、制御部140は、再生されるための複数のコンテンツを含むコンテンツリストで現在出力されるコンテンツの次の順に出力されるコンテンツに変更し、認識されたユーザモーションが左方へのスラップであれば、制御部140はコンテンツリストで現在出力されるコンテンツの前の順に出力されるコンテンツに変更してよい。
音声認識モジュール130kを介して音声開始命令が認識されると、制御部140は電子装置100のモードを音声認識モジュール130kを介して認識されたユーザ音声によって電子装置100が制御される音声タスクモードに切り替える。モーション認識モジュール130lを介してモーション開始命令が認識されると、制御部140は電子装置100のモードをモーション認識モジュール130lを介して認識されたユーザモーションによって電子装置100が制御されるモーションタスクモードに切り替える。
具体的に、制御部140は、遠隔制御装置(例えば、リモコン)によって制御されるリモコンモード、音声によって制御される音声タスクモード、モーションによって制御されるモーションタスクモードのいずれか一つで動作してよい。制御部140は、他モードを開始するための開始命令が入力されると、当該モードに切り替えてよい。
制御部140は、リモコンモードまたはモーションタスクモード下で、音声認識モジュールを介して音声開始命令(Trigger Voice)が認識されると、電子装置100のモードを音声タスクモードに切り替える。ここで、音声開始命令は、音声タスクモードに移行する動作にマッチする単語が含まれた命令である。例えば、“ジニ”という単語が音声開始命令に設定された場合なら、制御部140は“ジニ”が認識された際、電子装置100のモードを音声タスクモードに切り替える。このような音声開始命令に関する単語は、ユーザが電子装置100の環境設定モードを通じて直接変更してよく、電子装置100の製造時にデフォルトで定義された固定命令語であってよい。
音声タスクモードで動作する間、制御部140は音声データベースを用いてユーザが発話した音声に含まれた単語に対応する音声タスクを行う。
制御部140は、通常モードに復帰するための開始命令やモード解除命令、モーションタスクモードに切り替えるためのモーション開始命令が認識されるまでには音声タスクモードを維持することができる。または、音声タスクモードに切り替えた後、予め設定された時間(例えば、5分)以上何の音声も認識されていない場合、制御部140は自動的にリモコンモードに復帰してよい。
制御部140は、通常モードまたは音声タスクモード下で、モーション認識モジュール介してモーション開始命令(Trigger Motion)が認識される場合には、モーションタスクモードに切り替えてよい。ここで、モーション開始命令とは、モーションタスクモードに移行するために予め設定されたモーションである。例えば、手を左右方向に3〜4回振るモーションがモーション開始命令に設定されていれば、このようなモーションが認識された際、制御部140は電子装置100のモードをモーションタスクモードに切り替える。このようなモーション開始命令に関するモーションは、ユーザが電子装置100の環境設定モードを通じて直接変更してよく、電子装置100の製造時にデフォルトで定義された固定モーションであってよい。
モーションタスクモードで動作する間、制御部140はモーションデータベースを用いてユーザのモーションに対応するモーションタスクを行う。
制御部140は、リモコンモードに復帰するための開始命令やモード解除命令、音声タスクモードに切り替えるための音声開始命令が認識されるまでにはモーションタスクモードを維持することができる。または、モーションタスクモードに切り替えた後、予め設定された時間(例えば、5分)以上何のモーションも認識されていない場合、制御部140は自動的に通常モードに復帰してよい。
制御部140は、音声認識をガイドするための音声アイテムが含まれた音声ガイド情報及びモーション認識をガイドするためのモーションアイテムが含まれたモーションガイド情報のいずれか一つをディスプレイする。そして、音声ガイド情報に含まれた音声アイテムに対応する命令語の一つが認識されると、制御部140は認識された命令語に対応する音声タスクを行う。そして、モーションガイド情報に含まれたモーションアイテムに対応するモーションの一つが認識されると、制御部140は認識されたモーションに対応するモーションタスクを行う。
具体的に、制御部140は音声認識モジュール130kを介して音声開始命令が認識された場合、ユーザの音声によって制御可能な音声タスクに対する音声アイテムがディスプレイされるように処理することができる。音声アイテムには、各種音声タスクに対応する命令語が表示されてよい。これにより、ユーザがある命令語を発話すると、どのような音声タスクが行われるかを容易に認識することができ、ユーザは音声タスクをより便利に行うことができるようになる。
なお、制御部140は、モーション認識モジュール130lを介してモーション開始命令が認識された場合、ユーザのモーションによって制御可能なモーションタスクに対するモーションアイテムがディスプレイされるようにする。モーションアイテムには、各種モーションタスクに対応するモーションが表示されてよい。これにより、ユーザのあるモーションをとると、どのようなモーションタスクが行われるかを容易に認識することができ、ユーザはモーションタスクをより便利に行うことができるようになる。
このような音声アイテムまたはモーションアイテムは、ディスプレイ画面の同じ領域(例えば、画面の下段)にディスプレイされてよい。なお、音声アイテムまたはモーションアイテムがディスプレイされる領域は、ディスプレイされる映像とオーバーラップされてよい。しかし、それは一実施形態に過ぎず、他の位置及び方法によって音声アイテム及びモーションアイテムがディスプレイされてよい。例えば、音声アイテムまたはモーションアイテムは、ディスプレイ画面の右側または左側にディスプレイされてよい。
電子装置100のタスクは、ユーザの音声によって制御される音声タスク及びユーザのモーションによって制御されるモーションタスクを以下の表1にように区分することができる。
Figure 2013041580
表1に示す音声タスクは、音声開始命令によって実行される音声タスクモードで行われてよく、表1に示されたモーションタスクはモーション開始命令によって実行されるモーションタスクモードで行われてよい。
以下では、図6ないし図32を参照して、ユーザの音声によって制御される音声タスクについて説明し、図33ないし図58を参照して、ユーザのモーションによって制御されるモーションタスクについて説明する。
図6及び図7は、本発明の一実施形態に係る音声認識を用いた電源オンを説明するための図である。図6に示すように、映像が出力されてはいないが、音声入力部110及び制御部140には電源が供給される待ち受けモードで音声認識モジュール130kを介して“電源オフ”が認識された場合、電子装置100は図7に示すように、電源がオンされる。
図8ないし図10は、本発明の一実施形態に係る音声認識を用いた電源オフを説明するための図である。図8に示すように、音声タスクモードに移行してディスプレイ画面の下段に音声ガイド情報がディスプレイされ、音声認識モジュール130kを介して音声アイテム811に対応する“電源オフ”が認識された場合、電子装置140は、図9に示すように、音声ガイド情報に電子装置100の電源をオフにするか否かをもう一度確認するガイド領域920をディスプレイする。音声認識モジュール130kを介して音声アイテム922に対応する“はい”が認識された場合、電子装置100は図10に示すように、電源をオフとする。
図11及び図12は、本発明の一実施形態に係る音声認識を用いたスマート電源オンを説明するための図である。ここで、スマート電源オンは電子装置100の電源がオンとなると同時にユーザが望むチャネルに直ちに変更される機能である。図11に示すように、映像が出力されてはいないが、音声入力部110及び制御部140には、電源が供給される待ち受けモードで音声認識モジュール130kを介して“ジニ”と“チャネル6”が連続して認識された場合、電子装置100は、図12に示すように、電源をオンとし、6番チャネルをディスプレイする。
図13ないし図16は、本発明の一実施形態に係るチャネル番号が含まれた音声認識を用いたチャネルショートカットを説明するための図である。図13に示すように、音声タスクモードに移行してディスプレイ画面の下段に音声ガイド情報がディスプレイされ、音声認識モジュール130kを介して音声アイテム812に対応する“チャネル”が認識された場合、図14に示すように、電子装置100はディスプレイ画面の下段の音声ガイド情報にチャネル番号とチャネル名をガイドするガイド領域830をディスプレイする。ガイド領域830がディスプレイされ、音声認識モジュール130kを介して“なな”という音声が認識された場合、図16に示すように、電子装置100はチャネル7番が選局されるようにチャネル変更する。
音声認識モジュール130kを介して認識された“なな”を含んでいたり、“なな”と類似する候補群がある場合、図15に示すように、電子装置100は音声候補群リスト1100及び音声候補群の入力方法をガイドする候補群選択ガイド1510をディスプレイする。
音声候補群リスト1100がディスプレイされ、音声認識モジュール130kを介して候補群リストの1番アイテム1101に対応する“1番”が認識された場合、電子装置100は図16に示すように、7番チャネルが選局されるようにする。
図17ないし図20は、本発明の一実施形態に係るチャネル名が含まれた音声認識を用いたチャネルショートカットを説明するための図である。図17に示すように、音声タスクモードに移行してディスプレイ画面の下段に音声ガイド情報がディスプレイされ、音声認識モジュール130kを介して音声アイテム812に対応する“チャネル”が認識された場合、図18に示すように、電子装置100は音声ガイド情報にチャネル番号とチャネル名をガイドするガイド領域830をディスプレイする。ガイド領域830がディスプレイされ、音声認識モジュール130kを介して“エムビーシー”という音声が認識された場合、電子装置100は、図20に示すように、“エムビーシー”というチャネル名を有する11番チャネルが選局されるようにする。
音声認識モジュール130kを介して認識された“エムビーシー”を含んでいたり、“エムビーシー”と類似する候補群がある場合、図19に示すように、電子装置100は音声候補群リスト1900及び音声候補群の入力方法をガイドする候補群選択ガイド1910をディスプレイする。音声候補群リスト1900がディスプレイされ、音声認識モジュール130kを介して候補群リスト1900に含まれた1番1910に対応する音声である“11番”が認識された場合、図20に示すように、電子装置100は“エムビーシー”というチャネル名を有する11番チャネルが選局されるようにする。
図21ないし図23は、本発明の一実施形態に係る音声認識を用いたサウンドオフ(Mute)を説明するための図である。図21に示すように、ディスプレイ画面の下段に音声ガイド情報がディスプレイされ、音声認識モジュール130kを介して音声アイコン813に対応する“サウンドオフ”が認識された場合、電子装置100は、オーディオ出力部196を制御してオーディオが出力されないようにする。なお、図22に示すように、電子装置100はディスプレイ画面にサウンドオフアイコン2200をディスプレイする。なお、このとき、ガイド領域1210にはサウンドオフ813の命令語の代わりにサウンドオン2213の命令語がディスプレイされる。
音声認識モジュール130kを介して“サウンドオン”が認識された場合、電子装置100は、オーディオ出力部196でサウンドオフ前の音量レベルにオーディオが出力されるようにする。なお、図23に示すように、電子装置100はディスプレイ画面にサウンドオフアイコン2200を削除する。
図24ないし図26は、本発明の一実施形態に係る音声認識を用いた外部入力変更を説明するための図である。図24に示すように、音声タスクモードに移行してディスプレイ画面の下段に音声ガイド情報がディスプレイされ、音声認識モジュール130kを介して音声アイテム814に対応する“外部入力”が認識された場合、図25に示すように、電子装置100は外部入力リスト2500及び外部入力選択をガイドするガイド2510をディスプレイする。このとき、外部入力リスト2500には外部端子入力部160に接続された外部端子であるUSB外部端子、AV1外部端子、PC外部端子は鮮明に表示され、接続されていない外部端子である“HDMI 1”及び“HDMI 2”は薄く表示される。外部入力リスト2500がディスプレイされ、ユーザの音声モジュール130kを介して“ピーシー”が認識された場合、電子装置100は図26に示すように、ディスプレイ画面を外部入力“PC”と接続された状態に変更する。
図27ないし図29は、本発明の一実施形態に係る発話対象名称が明確な機能実行タスクを説明するための図である。図27に示すように、スマート機能(例えば、インターネット接続、アプリケーション実行、動画再生、音楽鑑賞等)を行うためのコンテンツリストをディスプレイするユーザ命令が入力される場合、スマートハブ2700がディスプレイされる。スマートハブ2700は、電子装置100からサポートする機能の中心となるUIであり、電子装置100からサポートする複数の機能(例えば、ビデオを見る、音楽を聴く、インターネット接続等)に対応する短縮アイコンが表示されるUIである。なお、スマートハブ2700は、電子装置100の保存部130に保存されたコンテンツ(例えば、フォトや音楽、ビデオ等)に対応する短縮アイコン及び外部と接続可能なアプリケーション(例えば、インターネットブラウザ等)に対応する短縮アイコンが表示されるUIである。
音声タスクモードに移行するために音声認識モジュール130kを介して“ジニ”が認識される場合、電子装置100は図28に示すように、ディスプレイ画面の下段に音声GUIを生成し、音声タスクモードに移行する。このとき、音声タスクモードに移行される場合、電子装置100はスマートハブ2700でユーザの音声によって選択可能な短縮アイコンを表示できるように、スマートハブ2700の短縮アイコンの名前に下線を引く。
図28に示すように、音声ガイド情報がディスプレイされ、音声認識モジュール130kを介して“ユアビデオ”というユーザの音声が認識される場合、電子装置100は、図29に示すように、スマートハブ2700の“ユアビデオ”に含まれた動画を実行させる。ここで、“ユアビデオ”に含まれた動画が1つである場合には、動画が直ちに実行され、“ユアビデオ”に含まれた動画が複数である場合には、“ユアビデオ”に含まれた動画リストを表示する。
図30ないし図32は、本発明の一実施形態に係る音声認識を用いて映像再生機能及び映像停止機能を説明するための図である。図30に示すように、映像(例えば、保存部130に保存された動画)が再生され、音声タスクモードに移行するために音声認識モジュール130kを介して“ジニ”が認識される場合、図31に示すように、電子装置100は、音声タスクモードに移行し、音声ガイド情報をディスプレイ画面の下段にディスプレイする。
音声ガイド情報がディスプレイされた状態で、音声認識モジュール130kを介して“一時停止”が認識される場合、電子装置100が現在再生される映像を一時停止し、図32に示すように、ディスプレイ画面に一時停止アイコンをディスプレイし、映像を一時停止する。音声認識モジュール130kを介して“再生”が認識される場合、図31に示すように、電子装置100は一時停止された映像を再び再生する。
一方、映像再生中には、音声ガイド情報に一時停止/停止命令語が表示されてよく、映像一時停止中には音声ガイド情報に再生命令語が表示されてよい。
上述のように、音声認識モジュール130kを介して認識されたユーザの音声によって制御される音声タスクは発話可能な識別子が付与されたタスクまたは文字入力が必要なタスクとして、ユーザは音声を通じて音声タスクをより容易にかつ便利に制御することができるようになる。
図33及び図34は、本発明の一実施形態に係るモーション認識を用いたチャネルザッピングを説明するための図である。図33に示すように、モーションタスクモードに移行してディスプレイ画面の下段にモーションガイド情報がディスプレイされ、モーション認識モジュール130lを介してモーションアイテム3313に対応するユーザの手が右方に移動するスラップモーションが認識される場合、電子装置100は、図34に示すように、現在のチャネル(6番)に1チャネルが増加した次のチャネル(7番)が選局されるようにする。逆に、図34に示すように、7番チャネルがディスプレイされ、モーション認識モジュール130lを介してモーションアイテム3313に対応するユーザの手が現在の位置から左方に移動するスラップモーションが認識される場合、電子装置100は、図33に示すように、現在のチャネル(7番)に1チャネルが減少した前のチャネル(6番)が選局されるようにする。
図35ないし図37は、本発明の一実施形態に係るモーション認識を用いた音量レベル調節を説明するための図である。図35に示すように、モーションタスクモードに移行してディスプレイ画面の下段にモーションガイド情報がディスプレイされ、モーション認識モジュール130lを介してモーションアイテム3312に対応するユーザの手が上方に移動するスラップモーションが認識される場合、電子装置100は、図36に示すように、音量レベルを表示する音量レベル調節バー3600をディスプレイし、現在の音量レベル(9)から1レベル増加した次のレベルの音量(10)を出力する。音量レベル調節バー3600がディスプレイされた後、予め設定された時間(例えば、5秒)以上ユーザのモーションが認識されていない場合、電子装置100は、図37に示すように、音量レベル調節バー3600をディスプレイ画面から除去し、調節された音量レベルに応じてオーディオを出力する。
図38ないし図41は、本発明の一実施形態に係るユーザのポインティング動作を用いたチャネル変更を説明するための図である。図38に示すように、ユーザがチャネルを選択するためにチャネルリスト3800の生成命令(例えば、リモコンのチャネルリストボタン)を入力してディスプレイ画面にチャネルリスト3800がディスプレイされ、モーションタスクモードに移行するためにモーション認識モジュール130lを介して手を3〜4回振るモーションが認識される場合、図39に示すように、電子装置100はカーソル3910を生成し、モーションガイド情報をディスプレイ画面の下段にディスプレイする。
モーションガイド情報がディスプレイされ、カーソル3910を移動させるためにモーション認識モジュール130lを介して現在の手の位置から左下方に移動させるモーションが認識される場合、図40に示すように、電子装置100はカーソル2010をモーションに応じて移動させて“11−1 MBC”に位置させる。
モーション認識モジュール130lを介してモーションアイテム3314に対応するグラブモーションが認識される場合、図41に示すように、電子装置100は“11−1 MBC”を選局して“チャネル11−1 MBC”をディスプレイする。
図42ないし図45は、本発明の一実施形態に係るユーザのポインティング動作を用いたアプリケーションの実行を説明するための図である。図42に示すように、ディスプレイ画面にスマートハブがディスプレイされ、モーションタスクモードに移行するためにモーション認識モジュール130lを介して手を3〜4回振るシェイクモーションが認識される場合、図43に示すように、電子装置100はカーソル4305を生成して表示し、モーションガイド情報4310をディスプレイ画面の下段にディスプレイする。
モーション認識モジュール130lを介して現在の手の位置から右下方に移動させるモーションが認識される場合、図44に示すように、電子装置100はカーソル4305をモーションに応じて移動させて“APP 2”に位置させる。
モーション認識モジュール130lを介してモーションアイテム4311に対応するグラブモーションが認識される場合、図45に示すように、電子装置100は“APP 2”を実行する。このとき、電子装置100は、図45に示すように、スマートハブが現れる画面の代わりに選択されたアプリケーションを実行する画面を出力してよい。しかし、これは一実施形態に過ぎず、電子装置100は、スマートハブ内にスマートハブより小さい画面でアプリケーションを実行することができる。
図46ないし図48は、本発明の一実施形態に係るユーザのモーションを用いたスマートハブのアプリケーション表示領域におけるナビゲーションを説明するための図である。図46に示すように、ディスプレイ画面にスマートハブがディスプレイされ、モーションタスクモードに移行するためにモーション認識モジュール130lを介して手を3〜4回振るモーションが認識される場合、図47に示すように、電子装置100はカーソル4710を生成し、モーションガイド情報をディスプレイ画面の下段にディスプレイする。
カーソル4710がナビゲーションが可能な領域(例えば、左右移動方向キー4713、4716が表示された領域)に位置し、モーション認識モジュール103lを介して現在の手の位置から右方に移動されるスラップが認識される場合、図48に示すように、電子装置100はカーソル4710が位置したアプリケーション表示領域4720を左方に移動させる。
図49ないし図52は、本発明の一実施形態に係るモーション認識を用いた対象名称が明確でないアイコンの実行を説明するための図である。図49に示すように、ディスプレイ画面にウェブページ画面がディスプレイされ、モーションタスクモードに移行するためにモーション認識モジュール130lを介して手を3〜4回振るモーションが認識される場合、図50に示すように、電子装置100はカーソル5005を生成し、モーションガイド情報5010をディスプレイ画面の下段にディスプレイする。
カーソル5005を移動させるためにモーション認識モジュール130lを介して現在の手の位置を左上方に移動させるモーションが認識される場合、電子装置100は、図51に示すように、カーソル5005をモーションに応じて“ブックマークアイコン4910”に位置する。
モーション認識モジュール130lを介してグラブが認識される場合、図52に示すように、電子装置100は現在のディスプレイ画面上にウェブページをブックマークしたことを示すブックマーク5220を表示する。
図53ないし図55は、本発明の一実施形態に係るモーション認識を用いた再生コントロールタスクを説明するための図である。図53に示すように、コンテンツ映像(例えば、保存部130に保存された動画または外部から受信された動画)がディスプレイ画面にディスプレイされ、モーションタスクモードに移行するために、モーション認識モジュール130lを介して手を3〜4回振るモーションが認識される場合、図54に示すように、電子装置100は再生コントロールバー5410を生成し、モーションガイド情報をディスプレイ画面の下段にディスプレイする。このとき、再生コントロールバー5410は、モーション開始命令が認識される場合、ディスプレイ画面に表示される。なお、再生コントロールバー5410は別途のユーザ入力(例えば、リモコンボタン)がある場合、ディスプレイ画面に表示されてよい。
モーション認識モジュール130lを介して左方へのスラップモーションが認識される場合、図55に示すように、電子装置100は現在の映像で予め設定された時間(例えば、10分)だけ後へ移動して、再生する。このとき、予め設定された時間は、環境設定を通じて変更されてよい。
図56ないし図58は、本発明の一実施形態に係る更に別のモーション認識を用いた再生コントロールタスクを説明するための図である。図56に示すように、映像(例えば、保存部130に保存された動画または外部から受信された動画)がディスプレイ画面にディスプレイされ、モーションタスクモードに移行するためにモーション認識モジュール130lを介して手を3〜4回振るモーションが認識される場合、図57に示すように、電子装置100は再生コントロールバー5710を生成し、モーションガイド情報をディスプレイ画面の下段にディスプレイする。このとき、再生コントロールバー5710を生成し、モーションガイド情報をディスプレイ画面の下段にディスプレイする。このとき、再生コントロールバー5710はモーション開始命令が認識される場合、ディスプレイ画面に表示される。なお、再生コントロールバー5710は、別途のユーザ入力(例えば、リモコンボタン)がある場合、ディスプレイ画面を通じて表示されてよい。
モーション認識モジュール130lを介してグラブモーションが認識される場合、電子装置100は現在の再生位置を示すアイコン5715を選択し、その後、モーション認識モジュール130lを介して左方への移動モーションが認識される場合、電子装置100は左方への移動モーションに対応する時間分だけ後へ移動して再生する。そして、アイコン5715も左方への移動モーションに対応する分だけ後へ移動される。モーション認識モジュール130lを介してグラブが解除(例えば、手を開くスプレッド(Spread)動作)される場合、図58に示すように、電子装置100は、後へ移動した時点から映像を再び再生する。しかし、これは一実施形態に過ぎず、グラブの後、右方への移動モーションが認識される場合、電子装置100は右方への移動モーションに対応する時間だけ前へ移動して再生する。そして、アイコン5715も右方への移動モーションに対応する分だけ前へ移動される。
上述のように、モーション認識モジュール130lを介して認識されたユーザのモーションによって制御されるモーションタスクは設定値が段階的に変更されるタスクまたはカーソルが用いられるタスクとして、ユーザはモーションを通じてモーションタスクをより容易にかつ便利に制御できるようになる。
図59及び図60は、本発明の一実施形態に係る全タスクをモーションタスク及び音声タスクに区分して制御する電子装置の制御方法を説明するためのフローチャートである。
図59は、本発明の一実施形態に係る電子装置100の制御方法を説明するためのフローチャートである。まず、電子装置100は、ユーザの音声またはモーションを認識する(S5910)。ユーザ音声はマイクを通じて入力されて音声認識モジュールによって認識されてよく、ユーザモーションはカメラによって撮像されてモーション認識モジュールによって認識されてよい。
このように、電子装置100は、音声認識モジュール及びモーション認識モジュールのいずれか一つを通じてユーザ入力が認識されると(S5910)、受信されたユーザ入力によって音声タスク及びモーションタスクのいずれか一つを行う(S5920)。このとき、音声タスクは、電子装置100を制御するためのタスクのうち、ユーザの音声に対応する識別子を含むタスクであり、モーションタスクは電子装置100を制御するためのタスクのうち、ユーザのモーションのい方向に応じて段階的に行われるタスクである。
上述の方法のように、ユーザは音声及びモーションを併せて使用して、より効果的に電子装置100を制御することができるようになる。
図60は、本発明の一実施形態に係る電子装置100の制御方法を説明するためのフローチャートである。まず、電子装置100は、音声認識モジュール及びモーション認識モジュールのいずれか一つを通じて開始命令を認識する(S6005)。このとき、開始命令には音声認識モジュールを通じて認識された音声開始命令またはモーション認識モジュールを通じて認識されたモーション開始命令が含まれる。
このとき、認識された開始命令が音声開始命令であれば(S6010−Y)、電子装置100は、電子装置100のモードを音声タスクモードに切り替える(S6015)。このとき、音声タスクモードは、音声認識モジュールを通じて認識されたユーザの音声によってタスクが行われるモードである。
音声タスクモードに切り替えられる場合、電子装置100は音声アイテムを含む音声ガイド情報を生成する(S6020)。例えば、図61に示すように、音声タスクを行うための音声アイテムが含まれた音声ガイド情報が表示される。
音声タスクモードに切り替えられた状態で、電子装置100はユーザの音声が認識されているか否かを判断し(S6030)、ユーザの音声が認識されていると判断される場合(S6030−Y)、電子装置100は認識されたユーザの音声に対応する音声タスクを行う(S6035)。例えば、図6ないし図32において説明したような音声タスクを行うことができる。
このとき、音声タスクとしては、電子装置の電源制御、チャネルショートカット、音量レベル指定、サウンドオフ、外部入力変更、文字入力及び再生/停止機能のうち少なくとも一つを含んでよい。
音声タスクモードでモーション開始命令が認識されているか否かを判断し(S6040)、モーション開始命令が認識される場合(S6040−Y)、電子装置100は電子装置100のモードをモーションタスクモードに切り替える(S6045)。例えば、音声タスクモードでモーション開始命令が認識される場合、電子装置100はモーションタスクモードに切り替えて、図62に示すようなモーションアイテムが含まれたモーションガイド情報を表示する。
モーション開始命令が認識されていない場合(S6040−N)、電子装置100は従来のタスクモードである音声タスクモードを維持する(S6070)。最初に認識された開始命令が音声開始命令でないモーション開始命令である場合(S6010−N)、電子装置100は電子装置100のモードをモーションタスクモードに切り替える(S6045)。このとき、モーションタスクモードは、モーション認識モジュール130lを介して認識されたユーザのモーションのみによってタスクが行われるモードである。
モーションタスクモードに切り替えられる場合、電子装置100はモーションアイテムを含むモーションガイド情報を生成する(S6050)。例えば、図62に示すように、モーションタスクを行うためのモーションアイテムが含まれたモーションガイド情報が表示される。
電子装置100は、ユーザのモーションが認識されているか否かを判断し(S6055)、ユーザのモーションが認識されていると判断される場合(S6055−Y)、電子装置100は認識されたユーザのモーションに対応するモーションタスクを行う(S6060)。例えば、図33ないし図58で説明したようなモーションタスクを行うことができる。
このとき、音声タスクとしては、チャネルザッピング、音量レベル調節、画面ナビゲーション、スライドバーコントロール及びカーソルポインティングのうち、少なくともいずれか一つを含んでよい。
モーションタスクモードで、音声開始命令があるか否かを判断し(S6065)、音声開始命令が認識される場合(S6065−Y)、電子装置100は、電子装置100のモードを音声タスクモードに切り替える(S6010)。例えば、モーションタスクモードで音声開始命令が認識される場合、電子装置100は音声タスクモードに切り替えて、図60に示すように、音声アイテムが含まれた音声ガイド情報を表示する。
音声ガイド命令が認識されていない場合(S6040−N)、電子装置100は従来のタスクモードであるモーションタスクモードを維持する(S6070)。
以上のように、電子装置100は、ユーザのモーション及び音声に応じて多様なタスクを行うことができるようになり、これにより、ユーザの便宜性が高まる。
制御部140は、認識された音声によって音声タスクの少なくとも一つを行うことができる音声タスクモードで、音声タスクを行うための音声ガイド情報(Voice Assistance Information)が表示されるように制御することができる。例えば、制御部140は、音声認識モジュールを通じて音声開始命令が認識された場合、ユーザの音声によって制御可能な音声タスクを行うための音声ガイド情報がディスプレイされるように制御することができる。音声ガイド情報として、各種音声タスクに対応する少なくとも一つの音声アイテムが表示されてよい。ここで、少なくとも一つの音声アイテムの各々は、発話可能な命令語であってよい。これにより、ユーザは音声タスクモードで、認識可能な命令語を便利に認識することができる。なお、当該命令語を発話すると、どのような音声タスクが行われるか否かを容易に認識することができる。
なお、制御部140は、音声タスクモードで音声ガイド情報として表示された少なくとも一つの音声アイテムのうち、第1音声アイテムに対応する第1音声を認識することができる。制御部140は、認識された第1音声に対応する第1音声アイテムに関連したアイテム付加情報(Additional Item Information)が存在するか否かを判断することができる。アイテム付加情報が存在していない場合、制御部140は、第1音声アイテムに対応するタスクを行うことができる。なお、音声ガイド情報の変更が必要な場合、制御部140は変更された音声ガイド情報が表示されるようにディスプレイ部(図示せず)を制御することができる。アイテム付加情報が存在している場合、制御部140は認識された第1音声に対応する第1音声アイテムに関連するアイテム付加情報が表示されるように制御することができる。制御部140は、音声タスクのうち、第1音声アイテム及び認識された第2音声に対応するタスクを行うことができる。
なお、制御部140は、認識されたモーションに応じて、モーションタスクの少なくとも一つを行うことができるモーションタスクモードで、モーションタスクを行うためのモーションガイド情報が表示されるように制御することができる。例えば、制御部140は、モーション認識モジュールを通じてモーション開始命令が認識された場合、ユーザのモーションによって制御可能なモーションタスクを行うためのモーションガイド情報がディスプレイされるようにする。モーションガイド情報として、各種モーションタスクに対応する少なくとも一つのモーションアイテムが表示されてよい。ここで、少なくとも一つのモーションアイテムの各々は、モーションタスクモードで認識可能なモーションを表すモーションイメージ及び認識可能なモーションに対応するタスクを含んでよい。これにより、ユーザはモーションタスクモードで認識可能なモーションを簡単に認識することができ、あるモーションをとると、どのようなモーションタスクが行われるか容易に認識することができるため、ユーザはモーションタスクをより便利に行うことができるようになる。
なお、制御部140は、モーションタスクモードでモーションガイド情報として表示された少なくとも一つのモーションアイテムのうち、第1モーションアイテムに対応する第1モーションを認識することができる。制御部140は、認識された第1モーションに対応する第1モーションアイテムに関連するアイテム付加情報が存在しているか否かを判断することができる。アイテム付加情報が存在していない場合、制御部140は、第1モーションアイテムに対応するタスクを行うことができる。なお、モーションガイド情報の変更が必要な場合、制御部140は変更されたモーションガイド情報が表示されるようにディスプレイ部(図示せず)を制御することができる。アイテム付加情報が存在している場合、制御部140は認識された第1モーションに対応する第1モーションアイテムに関連するアイテム付加情報が表示されるように制御することができる。制御部140は、アイテム付加情報に対応する第2モーションを認識することができる。制御部140は、モーションタスクのうち、第1モーションアイテム及び認識された第2モーションに対応するタスクを行うことができる。音声ガイド情報、モーションガイド情報、音声アイテムに関連するアイテム付加情報、またはモーションアイテムに関連するアイテム付加情報等は、ディスプレイ画面の同じ領域(例えば、画面の下段)にディスプレイされてよい。なお、前記情報は、予め設定された領域または動的に変更される領域上にディスプレイされることができる。例えば、音声ガイド情報またはモーションガイド情報は、ディスプレイ画面の上段、下段、右側または左側にディスプレイされてよく、画面に同時に表示されるイメージに応じて動的に変更されてよい。
なお、音声ガイド情報、モーションガイド情報、音声アイテムに関連するアイテム付加情報またはモーションアイテムに関連するアイテム付加情報等は、ディスプレイされたり再生される映像、アプリケーション、OSDまたは認識候補等と同時に表示されたり、単独に表示されてよい。なお、前記情報が表示される領域は、映像、アプリケーション、OSDまたは認識候補が表示される領域とオーバーラップされて表示されてよい。このような音声ガイド情報またはモーションガイド情報は、少なくとも一部が透明に表示されてよい。このような透明度(Transparency)はユーザの選択により調節されてよい。
一方、上述の音声ガイド情報及びモーションガイド情報は、多様な形態でユーザに提供されてよい。以下では、図61ないし図63を参照して、音声ガイド情報、音声アイテムに関連するアイテム付加情報及びモーションガイド情報がより詳細に説明される。
図61は、本発明の一実施形態に係る音声タスクモードである場合、ディスプレイ部193にディスプレイされる音声ガイド情報を示す図である。図61に示すように、音声タスクモードで、ディスプレイ部193は音声ガイド情報として少なくとも一つの音声アイテム811、812、813、814、815、816、817、818を表示することができる。ここで、少なくとも一つの音声アイテムの各々は、発話可能な命令語であってよい。なお、音声ガイド情報は、音声タスクモードを表すモードイメージまたはテキスト等を含んでよい。音声ガイド情報は、少なくとも一つの音声アイテムを含むガイド領域810または電子装置100の指定されたモード(例えば、音声タスクモードまたはモーションタスクモード)を表示するモード表示領域820を含んでよい。モード表示領域820には、音声タスクモード及びモーションタスクモードのうち指定されたモードを表すモードイメージ及びテキストの少なくとも一つが含まれてよい。なお、ガイド領域810及びモード表示領域820は、図61に示すように、区分されて表示されてよく、両領域の境界が区分なく表示されてよい。なお、モーション表示領域820が省略されてよい。ガイド領域810及びモード表示領域820の各々の位置は、電子装置100の製造時に設定されたり、ユーザによって任意に設定されたり、UIとともに表示される映像によって動的に位置してよい。例えば、ガイド領域810またはモード表示領域820の位置は、OSDが表示される場合、OSDの表示が目立つようにOSDの表示された領域外の任意の位置に変更されてよい。ガイド領域810は、ディスプレイ画面の下段にディスプレイされてよく、モード表示領域820はディスプレイ画面の下段の中央にディスプレイされてよい。なお、モーション表示領域820の位置は、ガイド領域810に独立的に環境設定に応じて、下段右側のように他の位置に変更されてよい。
音声タスクモードで、ガイド領域810は少なくとも一つの音声アイテム811、812、813、814、815、816、817、818を含む。例えば、少なくとも一つの音声アイテムの各々は、音声タスクを行うための命令語であってよい。ガイド領域810に含まれた少なくとも一つの命令語は、電源オフ811、チャネル812、サウンドオフ813、外部入力814、スマートハブ815、アップス816、検索817または全て818等を含んでよい。このとき、電源オフ811は、電子装置100の電源オフを行うための命令語である。チャネル812は、チャネルショートカットを行うための命令語である。サウンドオフ813は、サウンドオフを行うための命令語である。外部入力814は、外部入力変更を行うための命令語である。スマートハブ815は、電子装置100のインターネット機能、アプリケーション提供機能、マルチメディア(例えば、動画や音楽、写真等)提供機能のようなスマート機能に移行するタスクを行うための命令語である。アップス816は、電子装置100のアプリケーションを検索するタスクを行うための命令語である。検索817は、電子装置100が提供するコンテンツ、アプリケーション機能、ウェブ検索を行うための命令語である。全て818は、全ての命令語を表示するための命令語である。なお、ガイド領域810は、全て8181に代わって命令語として、「更に見る」(More)を含んでよい。即ち、全て818及び「更に見る」は、音声タスクに対応する音声アイテムのうち、少なくとも一つの音声アイテム811、812、813、814、815、816、817、818と他のアイテムを表示するための音声アイテムであってよい。なお、電子装置100が前記他のアイテムを表示する場合、予め設定されたタイマーの駆動を省略してよい。ここで、予め設定されたタイマーは、表示された音声アイテム811、812、813、814、815、816、817、818のいずれかが、予め設定された時間の間認識されていない場合、音声タスクモードを中断するためのタイマーであってよい。音声タスクモードが中断される場合、音声ガイド情報の表示が消え、一般的な遠隔制御装置によって制御されるモードに変更されてよい。なお、音声タスクモードが中断される場合、音声開始命令に応じて音声タスクモードに再移行するまでに、音声タスクの実行が制限されてよい。なお、画面に音声ガイド情報、モーションガイド情報、アイテム付加情報等とともにOSDまたは認識候補が表示された場合、指定されたモードによらず指定されたモードの中断のための予め設定されたタイマーの駆動が省略されてよい。なお、ガイド領域810には、上述の命令語と異なる命令語が含まれてよい。
音声ガイド情報として表示された少なくとも一つの音声アイテム811、812、813、814、815、816、817、818は、現在行われる機能によって相違に構成されてよい。即ち、ガイド領域810にディスプレイされる少なくとも一つの命令語は、電子装置100の現在行われる機能によって相違に構成されてよい。例えば、少なくとも一つの音声アイテム811、812、813、814、815、816、817、818は、音声ガイド情報とともに表示されるアプリケーション、OSD(On Screen Display)及び認識候補(Candidate)の少なくともいずれか一つに応じて、音声タスクに対応する音声アイテムのうち、少なくとも一つが選択的に構成されたものであってよい。例えば、現在電子装置100にスマート機能が行われる場合、放送受信状態に復帰するための命令語である“復帰”が含まれた音声ガイド情報がディスプレイされてよい。ここで、認識候補は認識された音声と類似する数字及び文字の少なくとも一つを含む名称、認識された音声と類似する命令語、類似する命令語に対応するタスク、認識されたモーションと類似するモーション、類似するモーションに対応するタスクのうち、少なくとも一つを含んでよい。例えば、認識された音声に対する類似候補は、認識された音声と類似するチャネル識別子のリストがポップアップウィンドウ内に表示されてよい。OSDは、電子装置100の現在の設定情報、認識候補を除く電子装置100の設定メニュー等を含んでよい。例えば、OSDとして、現在再生中のチャネルの識別子(チャネル番号、チャネル名)が表示されたり、外部入力リストまたはチャネルリストが表示されてよい。
制御部140は、音声ガイド情報として表示された少なくとも一つの音声アイテム811、812、813、814、815、816、817、818のうちの第1音声アイテムに対応する第1音声を認識することができる。制御部140は、認識された第1音声に対応する第1音声アイテムに関連するアイテム付加情報が表示されるように制御することができる。第1音声アイテムに関連するアイテム付加情報は、第1音声アイテムと関連する付加命令語、ガイド語句または発話例示等を含んでよい。例えば、音声認識モジュール130kを介してガイド領域810に表示された音声アイテム812に対応する音声として“チャネル”が認識され、音声アイテム812に対応するタスクが音声タスクのチャネルショートカットである場合、ディスプレイ部193は、図62に示すように、チャネル名、番組名及びチャネル番号の少なくともいずれか一つの識別子の発話に対するガイド語句、発話例示、または付加命令語(一例として、「前へ」)を含むアイテム付加情報を表示することができる。ここで、「前へ」は、図61のガイド領域810を含むUIが再び表示されるようにするための命令語であってよい。アイテム付加情報は、付加命令語、ガイド語句または発話例示等を含むガイド領域830及びモード表示領域820を含んでよい。一例として、ガイド領域830の左側にはガイド語句が表示され、ガイド領域830の右側には付加命令語または発話例示等が表示されてよい。
なお、制御部140は、アイテム付加情報に対応する第2音声を認識することができる。制御部140は、音声タスクのうちの第1音声アイテム及び認識された第2音声に対応するタスクを行うことができる。例えば、第1音声アイテムが音声アイテム812であり、図60のアイテム付加情報に対応する第2音声として「MBC」が認識される場合、制御部140は「MBC」を含むチャネル識別子に対応するチャネルに変更するチャネルショートカットを行うことができる。このように、第1音声アイテムに関連するアイテム付加情報は第1音声アイテムに対応するタスクを行ううえで、当該タスクの実行有無を問い合わせたり、当該タスクの実行に必要な情報を更に獲得するために、第2音声の発話をガイドするための情報であってよい。
図63は、本発明の一実施形態に係る電子装置で、モーションタスクモードである場合、ディスプレイ部193にディスプレイされるモーションガイド情報を示す。図63に示すように、モーションタスクモードで、ディスプレイ部193はモーションガイド情報として少なくとも一つのモーションアイテム3311、3312、3313、3314を表示することができる。ここで、少なくとも一つのモーションアイテムの各々は、モーションタスクモードで認識可能なモーションを表すモーションイメージまたは認識可能なモーション(または、モーションイメージ)に対応するタスクを示すテキストを含んでよい。なお、モーションガイド情報は、モーションタスクモードを表すモードイメージまたはテキスト等を含んでよい。モーションガイド情報は、少なくとも一つのモーションアイテムを含むガイド領域3310及び電子装置100のモードを表示するモード表示領域3320を含んでよい。モード表示領域3320には、音声タスクモード及びモーションタスクモードのうち、指定されたモードを表すモードイメージ及びテキストの少なくともいずれか一つが含まれてよい。なお、ガイド領域3310及びモード表示領域3320は、図63に示すように、区分して表示されてよく、両領域の境界が区分なく表示されてよい。なお、モード表示領域3320が省略されてよい。例えば、ガイド領域3310は、ディスプレイ画面の下段にディスプレイされてよく、モード表示領域3320は、ディスプレイ画面の下段中央にディスプレイされてよい。ここで、モード表示領域3320の位置は、環境設定によって変更(例えば、下段右側)されてよい。
モーションタスクモードで、ガイド領域3310は少なくとも一つのモーションアイテム3311、3312、3313、3314を含む。例えば、少なくとも一つのモーションアイテムの各々は、モーションイメージ及びモーションイメージに対応するタスクを示すテキストを含んでよい。ガイド領域3310に含まれた少なくとも一つのモーションアイテムは、反時計回りへの回転モーションは、前の設定に戻る機能を行うための「戻る」に対応することを示すモーションアイテム3311、上/下へのスラップモーションは、音量レベル調節を行うための音量アップ/ダウンに対応することを示すモーションアイテム3312、左/右へのスラップモーションは、チャネルザッピングを行うためのチャネルアップ/ダウンに対応することを示すモーションアイテム3313、グラブモーションは、映像再生を行うための再生に対応することを示すモーションアイテム3314等を含んでよい。なお、ガイド領域3310には、上述のモーションアイテムと異なるモーションアイテムが含まれてよい。なお、上述の少なくとも一つのモーションアイテムの各々に含まれたモーションイメージ及びモーションイメージに対応するテキストは、認識可能なモーション及び認識可能なモーションに対応するタスクのマッピング設定に応じて変更されてよい。例えば、ガイド領域3310には、上/下へのスラップモーションがチャネルザッピングを行うためのチャネルアップ/ダウンに対応することを示すモーションアイテム及び左/右へのスラップモーションが音量レベル調節を行うための音量アップ/ダウンに対応することを示すモーションアイテムを含んでよい。
モーションガイド情報として表示された少なくとも一つのモーションアイテム3311、3312、3313、3314は、現在行われる機能に応じて異なるように構成されてよい。即ち、ガイド領域3310にディスプレイされる少なくとも一つのモーションアイテム3311、3312、3313、3314は、電子装置100の現在行われる機能に応じて異なるように構成されてよい。例えば、少なくとも一つのモーションアイテム3311、3312、3313、3314は、モーションガイド情報とともに表示されるアプリケーション、OSD及び認識候補の少なくともいずれか一つに応じて、モーションタスクに対応するモーションアイテムの少なくともいずれか一つが選択的に構成されたものであってよい。
なお、制御部140は、モーションガイド情報として表示された少なくとも一つのモーションアイテム3311、3312、3313、3314のうちの第1モーションアイテムに対応する第1モーションを認識することができる。アイテム付加情報が存在する場合、制御部140は、認識された第1モーションに対応する第1モーションアイテムに関連するアイテム付加情報が表示されるように制御することができる。例えば、モーションアイテム3314に対応するグラブモーションが認識された場合、選択されたアイテムまたは映像ファイルを再生するか否かを問い合わせるガイド語句、または、左/右へのスラップモーションが、はい(Yes)/いいえ(No)に対応することを示すモーションアイテム等を含むアイテム付加情報が表示されてよい。
なお、制御部140は、アイテム付加情報に対応する第2モーションを認識することができる。制御部140は、モーションタスクのうちの第1モーションアイテム及び認識された第2モーションに対応するタスクを行うことができる。例えば、第1モーションアイテムがモーションアイテム3314であり、指定された映像ファイルを再生するか否かを問い合わせるガイド語句及び左/右へのスラップモーションが、「はい/いいえ」に対応することを示すモーションアイテムを含むアイテム付加情報に対応する第2モーションとして左方へのスラップモーションが認識された場合、指定された映像ファイルが再生されてよい。このように、第1モーションアイテムに関連するアイテム付加情報は、第1モーションアイテムに対応するタスクを行ううえで、当該タスクの実行有無を問い合わせたり、当該タスクの実行に必要な情報を更に獲得するために、第2モーションをガイドするための情報であってよい。
なお、モーション認識にエラーが生じた場合、エラーガイドを示すモーションガイド情報が表示されてよい。例えば、モーションガイド情報は、“ジェスチャーを認識することができませんでした。もう一度入力してください”というガイド語句、または、再び入力を示すテキストとマッピングされた掌のイメージ等を含んでよい。なお、モーションガイド情報は、“今は両手認識ができません”というガイド語句、または、“「ウェブブラウザ」、「写真を見る」、「グーグルマップApp」のみでご利用頂けます”というガイド語句を含んでよい。ここで、両手認識は両手を狭める、両手を広げる等のモーションに対応して画面の拡大または縮小等のタスクを行うためのものであってよい。なお、モーションガイド情報の一部として、モード表示領域にエラーガイドを現すイメージまたはテキスト等が表示されてよい。
以下では、図64ないし図66を参照し、電子装置100で音声認識またはモーション認識によるフィードバックを提供するユーザインターフェースについて説明する。
図64に示すように、音声タスクモードで、ガイド領域810及びモード表示領域820等を含む音声ガイド情報がディスプレイされてよい。このとき、ガイド領域810及びモード表示領域820は、画面の下段から湧き上るような視覚的効果が適用されて表示されてよい。例えば、ガイド領域810及びモード表示領域820が、一定時区間の間(一例として、3秒間)アニメーション形態で表示されてよい。一例として、ガイド領域810及びモード表示領域820の一部が下段から早いスピードで湧き上って表示されてから、だんだん遅い速度で湧き上り、図64に示されたガイド領域810及びモード表示領域820の形態が完成しつつ、湧き上るアニメーションが終了してよい。なお、モーションタスクモードに移行する場合にも、モーションガイド情報が上述のアニメーション形態で表示されてよい。なお、特定モードに対するUIが表示されてから消える場合、特定モードに切り替わる場合等にも、上述の視覚的効果の他にも多様な視覚的、聴覚的効果が出力されてよい。
電子装置100は、第1音声アイテムに対応する第1音声を認識する場合、第1音声の認識正確度に応じて、認識正確度のレベルに対応する視覚的フィードバック及び聴覚的フィードバックの少なくともいずれか一つを提供することができる。なお、電子装置100は、第1モーションアイテムに対応する第1モーションを認識する場合、第1モーションの認識正確度に応じて、認識正確度のレベルに対応する視覚的フィードバック及び聴覚的フィードバックの少なくともいずれか一つを提供することができる。ここで、認識正確度は、第1音声(または、第1モーション)が電子装置100で認識可能な音声(または、モーション)であるか否かを判断することができるレベルを示したり、または、認識された音声(または、モーション)が予め設定された命令語(または、予め設定されたモーション)の一つに該当するかを識別できるレベルを示すものであってよい。なお、認識正確度は、音声またはモーションを認識して当該音声またはモーションに対応するタスクを識別するのにかかる時間に応じて示す指標であってよい。
例えば、電子装置100が音声アイテム815に対応する音声として“スマートハブ”を認識する場合、電子装置100はガイド領域810に含まれた少なくとも一つの命令語811、812、813、814、815、816、817、818のいずれか一つで識別可能なレベルを確率的に計算して認識正確度を決定することができる。電子装置100は、認識正確度と予め設定された閾値とを比較し、認識正確度が閾値より大きい場合と認識正確度が低い場合の各々に対応する視覚的効果を互いに異なるように表示することができる。一例として、図65に示すように、音声認識が正確度に応じて、モード表示領域6520に音声タスクモードを表すイメージの背景に時計回りに回転するアニメーションが表示されてよい。このとき、アニメーションは、認識正確度が閾値より低い場合はイメージ回転速度が遅い場合であり、認識正確度が閾値より高い場合はイメージ回転速度が速い場合であってよい。なお、認識正確度に応じて上述の視覚的フィードバックが提供される際、各視覚的フィードバックとともに聴覚的フィードバックが提供されてよい。
なお、モード表示領域820に表示される視覚的フィードバックとしてのアニメーションは、音声アイテムに対応する音声が認識された後、図66のスマートハブ6600が駆動されて表示されるまでの時区間の間表示され、認識正確度によるものでなくてよい。
なお、電子装置100は、第1音声アイテムに対応する第1音声を認識する場合、第1音声アイテム及び第1音声アイテムに対応するタスクの少なくともいずれか一つを示す視覚的フィードバックまたは聴覚的フィードバックを提供することができる。なお、電子装置100は、第1モーションアイテムに対応する第1モーションを認識する場合、第1モーションアイテム及び第1モーションアイテムに対応するタスクの少なくともいずれか一つを示す視覚的フィードバックまたは聴覚的フィードバックを提供することができる。
例えば、図65に示すように、音声アイテム815に対応する音声として“スマートハブ”が認識された場合、音声アイテム815または音声アイテム815に対応するタスクとしてフィードバック領域6530に“スマートハブ”が表示されてよい。なお、フィードバック領域6530に対する制限なく、画面の任意の位置に視覚的フィードバックが表示されてよい。なお、フィードバック領域6530に表示される視覚的フィードバックとともに、“You said、スマートハブ”という聴覚的フィードバックが出力されてよい。
なお、アイテム813に対応するモーションとして右方へのスラップが認識された場合、電子装置100はフィードバック領域6530にモーションアイテムの一つに対応するタスクを示すフィードバック(例えば、“You did、Channel UP”)という視覚的フィードバックを表示したり、電子装置100のTTS(Text To Speech)モジュール(図示せず)等を用いて聴覚的フィードバックが出力されるように制御することもできる。
図67ないし図69は、本発明の多様な実施形態に係る音声ガイド情報及びモーションガイド情報を提供する電子装置の制御方法を説明するためのフローチャートである。
図67は、本発明の一実施形態に係る電子装置100の制御方法を説明するためのフローチャートである。ステップS6710において、電子装置100は音声認識モジュール及びモーション認識モジュールのいずれか一つを用いてユーザの入力(音声またはモーション)を認識することができる。ユーザ音声は、マイクを通じて入力され、音声認識モジュールによって入力された音声が認識されてよく、ユーザモーションはカメラによって撮像され、モーション認識モジュールによって撮像されたモーションが認識されてよい。
ステップS6720において、電子装置100は受信されたユーザ入力に応じて音声タスク及びモーションタスクのいずれか一つを行うことができる。即ち、電子装置100は、音声タスクモード及びモーションタスクモードのいずれか人との指定されたモードによって動作することができる。例えば、音声開始命令またはモーション開始命令が認識される場合、認識された開始命令に対応するモードが指定されてよい。
音声タスクモードは、認識された音声に応じて第1タスク(即ち、音声タスク)の少なくともいずれか一つを行うことができるモードであり、モーションタスクモードは認識されたモーションに応じて第2タスク(即ち、モーションタスク)の少なくともいずれか一つを行うことができるモードである。音声タスクは、認識された音声に応じて行われるタスクを示し、モーションタスクは認識されたモーションに応じて行われるタスクを示してよい。音声タスク及びモーションタスクは相違してよい。
図68及び図69は、本発明の一実施形態に係る電子装置100の制御方法を説明するためのフローチャートである。
ステップS6805において、電子装置100は指定されたモードが音声タスクモード及びモーションタスクモードのうちいずれかを識別することができる。ここでは、音声タスクモード及びモーションタスクモードのみを表示しているが、識別可能なモードは、遠隔制御装置によって制御されるモード等を更に含んでよい。モーションタスクモードである場合、電子装置100は図69のステップS6910に移行して、本発明の一実施形態に係る電子装置100の制御動作を続けることができる。
音声タスクモードである場合、ステップS6810で電子装置100は認識された音声に応じて、第1タスクの少なくともいずれか一つを行うことができる音声タスクモードで第1タスクを行うための音声ガイド情報を表示してよい。
ステップS6815において、電子装置100は音声ガイド情報として表示された少なくとも一つの音声アイテムのうちの第1音声アイテムに対応する第1音声を認識することができる。
ステップS6820において、電子装置100は認識された第1音声に対応する第1音声アイテムに関連するアイテム付加情報が存在するか否かを判断することができる。第1音声アイテムに関連するアイテム付加情報が存在していない場合、ステップS6825において電子装置100は、第1音声アイテムに対応するタスクを行うことができる。なお、音声ガイド情報の変更が必要な場合、電子装置100は変更された音声ガイド情報を表示することができる。例えば、音声アイテム813に対応する音声としてサウンドオフが認識された場合、電子装置100はサウンドオフを行い、図22に示すように、音声アイテム813を音声アイテム2213に変更し、変更された音声ガイド情報を表示することができる。
第1音声アイテムに関連するアイテム付加情報を存在している場合、ステップS6830で、電子装置100は認識された第1音声に対応する第1音声アイテムと関連するアイテム付加情報を表示することができる。例えば、音声アイテムに対応する音声として“チャネル”が認識された場合、ガイド語句、発話例示等を含むアイテム付加情報が表示されてよい。
ステップS6835において、電子装置100はアイテム付加情報に対応する第2音声を認識することができる。
ステップS6840において、電子装置100は第1タスクのうちの第1音声アイテム及び認識された第2音声に対応するタスクを行うことができる。例えば、第1音声アイテムが音声アイテム812であり、第2音声が“なな”である場合、電子装置100は、チャネル識別子が7であるチャネルに変更するチャネルショートカットを行うことができる。
なお、モーションタスクモードである場合、図69のステップS6910で電子装置100は認識されたモーションに応じて第2タスクの少なくともいずれか一つを行うことのできるモーションタスクモードで、第2タスクを行うためのモーションガイド情報を表示することができる。
ステップS6915において、電子装置100はモーションガイド情報として表示された少なくとも一つのモーションアイテムのうちの第1モーションアイテムに対応する第1モーションを認識することができる。
ステップS6920において、電子装置100は認識された第1モーションに対応する第1モーションアイテムに関連するアイテム付加情報が存在しているか否かを判断することができる。第1モーションアイテムに関連するアイテム付加情報が存在していない場合、ステップS6925で電子装置100は第1モーションアイテムに対応するタスクを行うことができる。例えば、図33において、モーションアイテム3313に対応するモーションとして右方へのスラップが認識された場合、電子装置100はチャネルアップに対応して現在のチャネル(6番)から予め設定された順に応じて現在のチャネル(6番)の後に位置する次のチャネルとしてチャネル(7番)が選局されるようにすることができる。なお、モーションガイド情報の変更が必要な場合、電子装置100は変更されたモーションガイド情報を表示することもできる。
第1モーションアイテムに関連するアイテム付加情報が存在している場合、ステップS6930で、電子装置100は認識された第1モーションに対応する第1モーションアイテムに関連するアイテム付加情報を表示することができる。例えば、モーションアイテムに対応するグラブモーションが認識された場合、選択されたアイテムまたは映像ファイルを再生するか否かを問い合わせるガイド語句、または左/右スラップモーションが、はい(Yes)/いいえ(No)に対応することを示すモーションアイテム等を含むアイテム付加情報が表示されてよい。
ステップS6935において、電子装置100はアイテム付加情報に対応する第2モーションを認識することができる。
ステップS6940において、電子装置100は第2タスクのうちの第1モーションアイテム及び認識された第2モーションに対応するタスクを行うことができる。例えば、第1モーションアイテムが映像再生のためのモーションアイテムであり、第2モーションが左方へのスラップモーションである場合、電子装置100は指定された映像ファイルを再生することができる。
制御部140は、UI処理モジュール130jを用いて音声認識を通じて制御可能なコンテンツの短縮アイコンと音声認識を通じて制御不可なコンテンツの短縮アイコンとを区分できるように表示することができる。
制御部140は、電子装置100に保存されたコンテンツのヘッダ(Header、図示せず)またはコンテンツに含まれた別途の環境設定ファイル(configuration file、図示せず)を用いてコンテンツの音声認識のサポート有無を判断することができる。
判断の結果に応じて、音声認識を通じて制御可能なコンテンツの場合、制御部140は、UI処理モジュール130jを用いて保存部に保存された追加アイコンとコンテンツのオリジナル短縮アイコンを組み合わせてディスプレイ部に表示することができる。ディスプレイ画面に表示される追加アイコンの有無を通じてユーザは音声認識を通じて当該コンテンツを制御できるということが分かる。
保存部130には、多様な複数の追加アイコンが保存されてよい。ユーザは、環境設定を通じてオリジナル短縮アイコンと組み合わせられる追加アイコンを変更することができる。
なお、制御部140は、UI処理モジュール130jを用いて音声認識を通じて制御可能なコンテンツの名前(例えば、下線及び太く表示)を音声認識を通じて制御不可なコンテンツの名前と区別できるようにディスプレイ画面に表示することができる。下線及び太く表示された短縮アイコンの名前を通じてユーザは音声認識を通じて当該コンテンツを制御できるということが分かる。
なお、制御部140は、UI処理モジュール130jを用いて音声認識を通じて制御可能なコンテンツの短縮アイコンと短縮アイコンの名前を音声認識を通じて制御不可なコンテンツの短縮アイコンと短縮アイコンの名前と区別できるように表示することができる。
なお、制御部140またはコンテンツは実行されたコンテンツのUIに表示されるツールバーのメニュー(例えば、次のページ(Next)、前のページ(Previous)または開く(Open)等)の中で、音声認識を通じて制御可能なメニューを音声認識を通じて制御不可なメニューと区別できるように表示することができる。
以下では、図70ないし図79を参照して、音声認識を通じて制御可能なアプリケーションの短縮アイコン及び短縮アイコンの名前を音声認識を通じて制御不可なアプリケーションの短縮アイコン及び短縮アイコンの名前と区別できるように表示する方法の多様な実行形態について説明する。
図70によると、電子装置100の制御部140は、放送受信部110で受信された放送信号に対応する映像(Video)、音声(Audio)及び制御データ(例えば、EPG(Electronic Program Guide))をオーディオ出力部160及びディスプレイ部150のディスプレイ画面7000を通じて出力する。
制御部140は、音声入力部110、音声認識モジュール130k及び音声データベース130mを用いてユーザから発話される音声開始命令(Trigger Voice)を認識する。制御部140は、認識された音声開始命令(例えば、“ジニ”)によって音声認識を通じて制御可能な音声タスクモード(Voice Task Mode)に切り替わる。制御部140は、音声データベース130mに予め保存された音声開始命令と音声入力部110及び音声認識モジュール130kを介して認識された音声開始命令を比較する。比較の結果に応じて、音声開始命令に認識される場合、電子装置100は、制御部140によって音声タスクモードに切り替わる。音声データベース130mには、音声入力部110及び音声認識モジュール130kを介して認識可能な音声に対応する第1命令語(例えば、“音声タスクモードへの切替”に対応する命令語または“チャネル変更に対応する命令語)が保存されてよい。制御部140は、第1命令語に対応する電子装置100の音声タスクを行うことができる。音声データベース130mに予め保存された音声開始命令または命令語は、環境設定(Configuration)を通じて変更(例えば、追加、変更または削除)されてよい。入力される音声開始命令の認識は、当該技術分野において通常の知識を有する者に容易に理解できるだろう。
図71に示すように、制御部140は、映像が表示されるディスプレイ画面400に音声タスクモードを行うための音声ガイド情報7110を表示する。制御部140は、音声ガイド情報7110を表示する映像上にオーバーラップされるようにする。制御部140は、音声ガイド情報7110をディスプレイ画面400の下段に表示することができる。音声ガイド情報7110は、命令語/ガイド表示領域(command/guide display area、7111)、モード表示領域(mode display area、7112)及び第1フィードバック表示領域(feedback display area、図72における7213)を含んでよい。なお、図72によると、モード表示領域7112の一側には第1フィードバック表示領域7213が表示されてよい。第1フィードバック表示領域7213は、第1視覚的フィードバック(図72の7213a)を含んでよい。なお、制御部140は、認識された第1命令語を電子装置100のスピーカ161から出力し、ユーザに第1聴覚的フィードバック(図示せず)を提供することができる。なお、電子装置100は、ユーザに視覚的フィードバック及び聴覚的フィードバックのいずれか一つを提供したり、視覚的フィードバック及び聴覚的フィードバックを同時に提供することができる。
図73に示すように、制御部140は第1命令語が認識される場合、第1命令語に対応するコンテンツリスト(以下では、スマートハブ7300という)を表示する。スマートハブ7300は、電子装置100からサポートする多様な機能の中央(Hub)となるUIである。スマートハブ7300は、電子装置100でサポートする多様な機能(例えば、「動画をみる」、「音楽を聴く」、「インターネット接続」等)に対応する短縮アイコンが表示されるUIである。なお、スマートハブ7300は、電子装置100の保存部130に保存されたコンテンツ(例えば、フォトや音楽、動画等)の短縮アイコン、外部から受信可能なコンテンツ(例えば、フォトや音楽、動画等)に対応する短縮アイコンおよび実行可能なアプリケーション(例えば、ウェブブラウザ等)の短縮アイコンが表示されるUIである。
スマートハブ7300は、多様なコンテンツ、アプリケーションまたはインターネット情報を音声(例えば、音声タスクモード)またはモーション(例えば、モーションタスクモード)で検索可能な検索領域7310、検索領域(search area、7310)の一側に位置し、視聴中の放送映像が縮小表示される放送領域(broadcasting area、7320)、検索領域7310の下段に位置し、保存部130に保存された動画に対応する短縮アイコンが表示される相手のビデオ領域(your video area、7330)、検索領域7310の下段に位置し、電子装置100の製造メーカーからの公示(Notice)または広告を表示する情報表示領域(information display area、7340)、検索領域7310の下段に位置し、電子装置100の製造メーカーから有料または無料で提供される多様なサービスに対応するアプリケーションの短縮アイコンが表示されるアップス領域(Apps area、7350)、検索領域7310の下段に位置し、電子装置100の製造メーカーから提供されるお薦めサービスが表示されるお薦め領域(Recommended area、7360)及び検索領域7310の多段に位置し、電子装置100に実行可能なアプリケーションに対応する短縮アイコンが表示されるアプリケーション領域(Application list area、7370)中の複数の領域を含んでよい。スマートハブ500に表示される複数の領域7310ないし7370は、電子装置100の性能または機能によって追加されたり削除されることができることは、当該技術分野において通常の知識を有する者に容易に理解できるだろう。
スマートハブ7300には、音声タスクモードに対応する音声ガイド情報7110が表示されてよい。なお、スマートハブ7100には、モーションタスクモードに対応するモーションガイド情報が表示されてよい。音声ガイド情報7110またはモーションガイド情報7720は、スマートハブ7110上にオーバーラップされてよい。図73に示すように、スマートハブ7100には、音声タスクモードに対応する音声ガイド情報7110が表示される。
音声タスクモードで、スマートハブ7100には音声認識を通じて制御可能なコンテンツ(例えば、アプリケーションや動画等)に対応する短縮アイコン(例えば、7371)と音声認識を通じて制御不可なコンテンツに対応する短縮アイコン(例えば、7372)とが区別できるように表示される。音声認識を通じて制御可能なコンテンツに対応する短縮アイコン7371は、音声認識が可能なコンテンツに対応するオリジナル短縮アイコン7371aの一側に表示される追加(Additional)アイコン(例えば、停止イメージ、動画またはテキストのいずれか一つ、7371b)との組み合わせであってよい。追加アイコン7371bは、オリジナル短縮アイコン7371aとオーバーラップされるように表示されたり、オリジナル短縮アイコン7371aと離隔して表示されてよい。音声認識の有無によって、コンテンツに対応する短縮アイコンの一側に追加アイコンを付加することは一つの実施形態であり、多様に音声認識の有無によってコンテンツに対応する短縮アイコンを区分(例えば、追加アイコン7371bの位置または大きさを変更)できるように表示することができることは、当該技術分野において通常の知識を有する者に容易に理解できるだろう。
音声認識を通じて制御可能なコンテンツに対応する短縮アイコンの名前7371cは、音声認識を通じて制御不可なコンテンツに対応する短縮アイコンの名前7372aと区別(例えば、下線及び太く(Underlined and bold))できるように表示される。音声認識の有無によってコンテンツに対応する短縮アイコンの名前を下線及び太く表示して区別することは一実施形態であり、多様に音声認識の有無によってコンテンツに対応する短縮アイコンの名前を区分(例えば、フォントまたはカラー変更等)して表示することは、当該技術分野において通常の知識を有する者に容易に理解できるだろう。
スマートハブ7300で決定された長さ(例えば、英語15字、ハングル語8字)より長い短縮アイコンの名前7373cは、短縮アイコンの名前は一部のみ表示されてよい。例えば、短縮アイコンの表示されない名前の残りは、省略符号(Ellipsis)で表示されてよい。
スマートハブ7300で音声ガイド情報7110に表示される命令語は変更されてよい。第1命令語音声に応答してスマートハブ7300が表示される場合、スマートハブ7300が表示される前の映像に復帰するための命令語(例えば、復帰(Return、7111i)が表示される。復帰は、音声ガイド情報7110に追加(例えば、計9つの命令語が表示)されたり、表示される命令語(例えば、全命令語)中の一つと代替(例えば、計8つの命令語が表示)されてよい。
制御部140は、音声入力部110と、音声認識モジュール130k及び音声データベース130mを用いてユーザから発話される第2命令語音声(例えば、アプリケーションの名前であるExciting e−book7371c)を認識する。制御部140は、音声データベース130mに予め保存された第2命令語と音声入力部110及び音声認識モジュール130kを介して認識された第2命令語を比較する。比較の結果によって、第2命令語に認識される場合、制御部140は第1フィードバック表示領域413に認識された第2命令語に対応する第3視覚的フィードバック(例えば、You said “Exciting e−book”、図示せず)を表示することができる。第3視覚的フィードバック(図示せず)は決定された時間(例えば、500msec)の間提供されてよい。決定された時間は環境設定を通じて変更されてよい。
なお、制御部140は、認識された第2命令語を電子装置100のスピーカ161から出力してユーザに第3聴覚的フィードバック(図示せず)を提供することができる。
比較の結果によって、第2命令語に認識されていない場合、制御部140は第1フィードバック表示領域7213に第4視覚的フィードバック(例えば、もう一度話してください(please、say it again)、図示せず)を提供することができる。なお、制御部140は、第2命令語音声を認識するために、第4聴覚的フィードバック(例えば、もう一度話してください(please、say it again)、図示せず)を提供することができる。
なお、認識された第2命令語に対応するアプリケーションの名前が複数である場合、制御部140は、複数のアプリケーションの名前が表示される候補群ポップアップウィンドウ(candidates pop−up、7314)をスマートハブ7300に表示することができる。
図74によると、音声入力部110と、音声認識モジュール130k及び音声データベース130mを介して第2命令語(例えば、アプリケーションの名前の一部である“Exciting”を含む)が認識される場合、制御部140は、第2命令語に対応する複数のアプリケーションのリストを候補群ポップアップウィンドウ7414に表示する。例えば、候補群ポップアップウィンドウ7414には、(1)exciting e−book7414a、(2)exciting drum festival7414bが表示される。スマートハブ7300に候補群ポップアップウィンドウ7414が表示される場合、スマートハブ7300の下段に表示される命令語/ガイド表示領域7111の命令語は変更される。例えば、命令語/ガイド表示領域7111でモード表示領域7112を基準に左側領域に“Say the number of the item you wish to select7111j”が表示され、右側領域に“Examples)1、2(7111k) Return7111i”が表示されてよい。音声入力部110、音声認識モジュール130k及び音声データベース130mを介して番号(例えば、1(one))に対応する音声が認識される場合、制御部140は、候補群ポップアップウィンドウ7414で(1)exciting e−book7414aを選択する。制御部は140は、候補群ポップアップウィンドウ7414で選択されたアプリケーションの名前7414aと選択されていないアプリケーションの名前7414bを区別できるように表示することができる。
なお、候補群ポップアップウィンドウ7414に表示されるアプリケーションのフルネーム(Full name)に対応する音声が認識される場合、制御部140は表示される候補群ポップアップウィンドウ7414で(1)exciting e−bookを区別できるように表示することができる。
図75によると、制御部140は、音声入力部110、音声認識モジュール130k及び音声データベース130mを介して認識された第2命令語(例えば、“Exciting e−book”)に対応するアプリケーションのExciting e−bookを実行する。制御部140は、実行されるExciting e−bookのUI7500を表示する。制御部140は、Exciting e−bookのUI7500をスマートハブ7300上にオーバーラップされるように表示する。なお、制御部140は、Exciting e−bookのUI7500をスマートハブ7300と代替して全画面のサイズで表示することができる。
表示されるExciting e−bookのUI7500には、電子装置100の保存部に保存された複数のe−bookに対応する短縮アイコン7501ないし7504及び短縮アイコンの名前(7501aないし7594a)が表示される。制御部140は、複数のe−bookに対応する短縮アイコンの名前(7501aないし7594a)は、音声認識有無によって区別できるように表示されてよい。例えば、制御部140は、音声認識を介して制御可能なe−bookに対応する短縮アイコンの名前7501aは、音声認識を通じて制御不可なe−bookに対応する短縮アイコンの名前7502aないし7504aと区別できるように表示される。なお、制御部140またはアプリケーション(Exciting e−book)は、Exciting e−bookのツール領域(図示せず)のメニュー(例えば、次のページ(Next)、前のページ(previous)または開く(open)、図示せず)の中で音声認識を通じて制御可能なメニューを音声認識を通じて制御不可なメニューと区別できるように表示することができる。音声認識を通じて制御可能なe−bookに対応する短縮アイコンの名前7501aに下線及び太く表示して区別することは一実施形態であり、多様に音声認識有無によってe−bookに対応する短縮アイコンの名前を区分(例えば、フォントまたはカラー変更等)して表示することは、当該技術分野において通常の技術を有する者にとって容易に理解できるだろう。なお、制御部140は、ネットワークインターフェース部180を介して音声認識が可能なe−bookを外部のサーバからダウンロードすることができる。
音声認識を通じて制御可能なe−bookに対応する短縮アイコンの名前7501aが音声入力部110と、音声認識モジュール130k及び音声データベース130mを介して認識される場合、制御部140はe−book7501を実行して表示することができる。ユーザは表示されるe−bookを音声認識を通じて制御(例えば、ページ移動等)することができる。
制御部140は、モーション入力部120と、モーション認識モジュール130l及びモーションデータベース130nを用いてユーザのモーション開始命令700を認識する。図76によると、モーション開始命令7600は、ユーザが指を開いてモーション入力部120に向かって左/右に振ることである。制御部140は、電子装置100のモードを認識されたモーション開始命令によって音声タスクモードをモーション認識を通じて制御可能なモーションタスクモードに切り替える。制御部140は、モーションデータベース130nに予め保存されたモーション開始命令とモーション入力部120及びモーション認識モジュール130lを介して認識されたモーション開始命令とを比較する。比較の結果に応じて、モーション開始命令に認識される場合、電子装置100は制御部140によって音声タスクモードからモーションタスクモードに切り替える。モーションデータベース130nにはモーション入力部120及びモーション認識モジュール130lを介して認識可能なモーションに対応する第2命令語(例えば、「前へ」に対応する命令語または「再生」に対応する命令語)が保存されてよい。制御部140は、第2命令語に対応する電子装置100のモーションタスクを行うことができる。モーションデータベース130nに予め保存されたモーション開始命令は、環境設定を通じて変更(例えば、追加、変更または削除)されてよい。
スマートハブにモーションガイド情報を表示し、音声認識を通じて制御可能なアプリケーションの短縮アイコンと音声認識を通じて制御不可なアプリケーションの短縮アイコンとを同様に表示する。
図77によると、制御部140は、表示されるスマートハブ500にモーションタスクモードに対応するモーションガイド情報7720及びカーソル7725を表示する。制御部140は、モーションガイド情報7720をスマートハブ7300上にオーバーラップされるようにする。制御部140は、モーションガイド情報7720をスマートハブ7300の下段に表示することができる。モーションガイド情報7720は、モーション/ガイド表示領域(motion/guide display area、7721)、モード表示領域(mode display area、7722)及び第2フィードバック表示領域(図示せず)を含んでよい。
制御部140は、スマートハブ7300にモーションガイド情報7720を表示し、音声認識を通じて制御可能なアプリケーションの短縮アイコンと音声認識を通じて制御不可なアプリケーションの短縮アイコンとを同様に表示する。
図74によると、制御部140は、音声入力部110と、音声認識モジュール130k及び音声データベース130mを用いてユーザより発話される第3命令語音声(例えば、アプリケーションの名前である“Exciting drum festival”の全てまたは一部)を認識する。制御部140は、音声データベース130mに予め保存された第3命令語と音声入力部110及び音声認識モジュール130kを通じて認識された第3命令語とを比較する。比較の結果によって、第3命令語に認識される場合、制御部140は第1フィードバック表示領域7413には認識された第3命令語に対応する第6視覚的フィードバック(例えば、You said “Exciting drum festival”、図示せず)を表示することができる。提供される第6視覚的フィードバック(図示せず)は決定された時間(例えば、500msec)の間提供されてよい。
第3命令語を認識していない場合、制御部140は、第1フィードバック表示領域7413に第7視覚的フィードバック(例えば、もう一度話してください(please、say it again)、図示せず)を表示することができる。なお、制御部140は、第3命令語音声を認識するために、第6聴覚的フィードバック(例えば、もう一度話してください(please、say it again))を提供することができる。
図74を参照すると、認識された第3命令語(例えば、選択対象であるアプリケーションの名前の一部である“Exciting”を含む)に対応するアプリケーションの名前が複数である場合、制御部140は複数のアプリケーションの名前が表示される候補群ポップアップウィンドウ7414をスマートハブ7400に表示することができる。音声入力部110と、音声認識モジュール130k及び音声データベース130mを通じて番号(例えば、2(two))に対応する音声が認識される場合、制御部140は候補群ポップアップウィンドウ7414で(2)exciting drum festival414bを選択する。
図78を参照すると、制御部140は、音声入力部110と、音声認識モジュール130k及び音声データベース130mを介して認識された第3命令語(例えば、“Exciting drum festival”)に対応するアプリケーションであるExciting drum festivalを実行する。制御部140は、実行されるExciting drum festivalのUI7800を表示する。制御部140は、Exciting drum festivalのUI7800をスマートハブ7300上にオーバーラップされるように表示する。なお、制御部140は、Exciting drum festivalのUI7800をスマートハブ7300と代替して全画面のサイズで表示することができる。
Exciting drum festivalのUI7800に表示されるドラム7801ないし7809は、ユーザの音声認識またはリモコンを通じて演奏されてよい。なお、Exciting drum festivalは、モーションタスクモードでモーション認識(例えば、グラブ)を通じてドラム7801ないし7809が演奏されてよい。
図79は、本発明の一実施形態に係る電子装置のUI表示方法を説明するためのフローチャートである。図79のステップS7901において、電子装置を点ける。例えば、電子装置100に配置された電源ボタン(図示せず)が押される場合、またはリモコンに配置された電子装置100の電源キー(図示せず)が選択(例えば、キープッシュ)される場合、または電子装置100の音声入力部110と、音声認識モジュール130k及び音声データベース130mを介してユーザの音声(例えば、電源オン)が認識された場合、電子装置100は、電子装置100をオンにすることできる。
図79のステップS7902において、放送を出力する。例えば、図70に示すように、電子装置100は放送受信部150から受信された放送信号に対応する映像を出力する。図79のステップS7903において、音声開始命令を認識する。即ち、電子装置100は、音声入力部110と、音声認識モジュール130k及び音声データベース130mを用いてユーザより発話される音声開始命令を認識する。そして、電子装置100は認識された音声開始命令に対応して電子装置100のモードを音声認識を通じて制御可能な音声タスクモードに切り替わる。
図79のステップS7904において、命令語セットを表示する。例えば、図71に示すように、電子装置100は映像が表示されるディスプレイ画面7000に音声タスクモードに対応する命令語セット7110を表示する。図79のステップS7905において、第1命令語音声を認識する。具体的に、電子装置100は、音声入力部110と、音声認識モジュール130k及び音声データベース130mを用いてユーザより発話される第1命令語音声(例えば、スマートハブ)を認識する。そして、図72に示すように、第1命令語に認識される場合、電子装置100は第1フィードバック表示領域7213に認識された第1命令語に対応する第1視覚的フィードバックを表示する。
図79のステップS7906において、UIを表示する。例えば、図73に示すように、電子装置100は第1命令語が認識される場合、第1命令語に対応するスマートハブ7300を表示する。図79のステップS7907において、第2命令語のヴォイスを認識する。具体的に、電子装置100は、音声入力部110と、音声認識モジュール130k及び音声データベース130mを用いてユーザより発話される第2命令語音声(例えば、アプリケーションの名前であるExciting e−book7371c)を認識する。なお、認識された第2命令語に対応するアプリケーションの名前が複数である場合、図74に示すように、電子装置100は複数のアプリケーションの名前が表示される候補群ポップアップウィンドイ7414をスマートハブ7300に表示することができる。
図79のステップS7908において、第1アプリケーションが実行される。例えば、図75に示すように、電子装置100は第2命令語に対応するアプリケーションのExciting e−bookを実行する。図79のステップS7909において、音声開始モーションを認識する。具体的に、電子装置100は、モーション入力部120と、モーション認識モジュール130l及びモーションデータベース130nを用いてユーザのモーション開始命令7600を認識する。例えば、モーション開始命令7600は、図76に示すように、ユーザが指を開いてモーション入力部120に向かって左/右に3〜4振ることである。
図79のステップS7910において、スマートハブにモーションアイテムを表示し、音声認識を通じて制御可能なアプリケーションの短縮アイコンと音声認識を通じて制御不可なアプリケーションの短縮アイコンを同様に表示する。例えば、電子装置100は、図77に示すように、スマートハブ7300にモーションタスクモードに対応するモーションガイド情報7720及びカーソル7725を表示する。
図79のステップS7907に戻り、第2命令語が認識されていない場合、ステップS7911に進む。図79のステップS7911において、第3命令語を認識する。制御部140は、音声入力部110、音声認識モジュール130k及び音声データベース130mを用いてユーザより発話される第3命令語音声を認識する。このとき、認識された第3命令語に対応するアプリケーションの名前が複数である場合、制御部140は、図74に示すように、複数のアプリケーションの名前が表示される候補群ポップアップウィンドウ7414をスマートハブ500に表示することができる。
図79のステップS7912において、第3アプリケーションが実行される。例えば、電子装置100は、図78に示すように、音声入力部110と、音声認識モジュール130k及び音声データベース130mを介して認識された第3命令語に対応するアプリケーションであるexciting drum festivalを実行する。図79のステップS7911に戻り、第3命令語音声が認識されていない場合、終了する。
制御部140は、放送受信部150を介して入力された複数の放送信号の一つの放送信号及び保存されたコンテンツの一つを、映像出力部190またはディスプレイ部193に提供することができる。ディスプレイ部193は、提供された一つの放送信号または保存されたコンテンツをディスプレイすることができる。このとき、保存されたコンテンツは、電子装置100に永久的、一時的または臨時的に保存されるコンテンツをすべて含む。例えば、保存されたコンテンツは、電子装置100の保存部130にユーザの削除要請があるまで、永久的に保存されることができる。なお、保存されたコンテンツは、電子装置100の保存部130の一部がバッファとして動作する場合、一時的にまたは臨時的に前記保存部130に保存されてよい。具体的に、外部端子入力部160またはネットワークインターフェース部180から入力されるコンテンツがリアルタイムで映像出力部190またはディスプレイ部193に提供される場合、制御部140は、コンテンツの入力される速度と提供される速度がほぼ同一になるように、保存部130の一部にコンテンツを一時的にまたは臨時的に保存することができる。
制御部140は、モーション認識モジュール130lを用いてユーザのモーションを認識し、認識されたユーザのモーションに応答し、提供された放送信号またはコンテンツの提供状態を変更することができる。もし、制御部140が放送信号を提供する場合、制御部140は認識されたユーザのモーションに応答して放送信号の音量の大きさを調節したり、または複数の放送信号のうちのもう一つの放送信号を提供することができる。または、制御部140がコンテンツを提供する場合、制御部140は認識されたユーザのモーションに応答して提供されたコンテンツが表示される画面の少なくとも一部を変更することができる。
一例として、コンテンツ(例えば、複数のページで構成されたイメージまたは複数のページで構成された文書)が複数のページを含み、複数のページのうちの一つが画面に表示された場合、制御部140は複数のページのうちの一つが表示される画面を複数のページのうちのもう一つのページが表示される画面に変更してよい。特に、制御部140は、認識されたユーザのモーションの方向に対応し、複数のページのうちの一つが表示される画面を複数のページのうちの一つのページの上、下、左または右側に位置したページのうちの一つのページが表示される画面に変更してよい。
もう一つの例として、コンテンツ(例えば、ウェブページ)が一つのページを含む場合、制御部140は一つのページの一部が表示される画面を前記一つのページの他の一部が表示される画面に変更してよい。
更に別の一例として、制御部140は提供されるコンテンツ(例えば、イメージまたは動画)が表示される画面を前記コンテンツと異なるコンテンツが表示される画面に変更してよい。
一方、制御部140は、音声認識モジュール130kを用いてユーザの音声を認識し、認識されたユーザの音声に応じて複数の放送信号のうちの一つを提供することができる。例えば、音声認識モジュール130kを用いてチャネル識別子が認識された場合、制御部140はチャネル制御モジュール130bを用いて、前記複数の放送信号のうち、認識されたチャネル識別子を有する放送信号を提供することができる。
更に別の実施形態で、制御部140はモーション認識モジュール130lを用いて認識されたユーザのモーションに応答し、複数の放送信号のうちの一つを選択することができる。制御部140は、選択された放送信号を映像出力部190またはディスプレイ部193に提供することができる。ディスプレイ部193は、提供された一つの放送信号をディスプレイすることができる。次に、制御部140は、映像出力部190またはディスプレイ部193に提供中の放送信号の提供を中止することができる。例えば、制御部140は、モーション認識モジュール130l、音声認識モジュール130kまたはリモコンを通じたユーザの入力に応答し、放送信号の提供を中止することができる。そして、制御部140は、電子装置100に保存されたコンテンツを提供することができる。
制御部140は、保存されたコンテンツをディスプレイ部193に提供する場合、複数の放送信号のうちの一つを選択するユーザのモーションと同じ形態のユーザのモーションを再認識することができる。ここで、同じ形態のユーザのモーションは、実質的に同じ形態のユーザのモーションを含む。例えば、複数のユーザモーションの各々のオブジェクトの形態及び前記各々のオブジェクトの形態が動く方向が同じであり、前記各々のオブジェクトの形態が動く速度のいずれもが、予め設定された速度以上である場合、制御部140は、前記複数のユーザのモーションを互いに同じ形態のユーザモーションに認識することができる。一例として、一つの放送信号を選択するユーザのモーションと再認識されたユーザのモーションのいずれもがスラップモーションであり、スラップモーションのいずれもが移動する方向が同じである場合、制御部140は、一つの放送信号を選択するユーザのモーションと再認識されたユーザのモーションを同じ形態のユーザのモーションに認識することができる。他の一例として、一つの放送信号を選択するユーザのモーションが上方へのスラップモーションであり、提供されたコンテンツが表示される画面の少なくとも一部を変更するユーザのモーションまたは上方へのスラップモーションである場合、制御部140は、上記2つのモーションを同じ形態のユーザのモーションに認識することができる。
次に、制御部140は、再認識されたユーザのモーションに応答し、前記提供されたコンテンツが表示される画面の少なくとも一部を変更することができる。
更に別の実施形態において、制御部140は、第1映像データを映像出力部190またはディスプレイ部193に提供することができる。そして、第1映像データのためのオーディオデータをオーディオ出力部196に提供することができる。このとき、例えば、第1映像データは放送信号の映像データであり、第1映像データのためのオーディオデータは前記放送信号のオーディオデータであってよい。そして、制御部140は、認識されたユーザのモーションに応答し、オーディオデータの音量の大きさを調節することができる。例えば、制御部140は、第1映像データのためのオーディオデータの音量の大きさを調節することができる。次に、制御部140は、第1映像データおよび第1映像データのためのオーディオデータの提供を中止し、第2映像データを提供することができる。このとき、例えば、第2映像データは、電子装置100に保存されたコンテンツの映像データであってよい。次に、制御部140は、オーディオデータの音量の大きさを調節するために認識されたユーザのモーションと実質的に同じ形態のユーザのモーションを再認識することができる。そして、制御部140は、再認識されたユーザのモーションに応答し、第2映像データが表示される画面の少なくとも一部を変更することができる。
更に別の実施形態で、制御部140は複数のソースからそれぞれ提供される映像データのうちの第1映像データ及び一つのソースから提供される複数の映像データのうちの第2映像データのうちの一つを映像出力部190またはディスプレイ部193に提供することができる。ディスプレイ部193は、提供された第1映像データまたは第2映像データをディスプレイすることができる。例えば、複数のソースから提供される映像データのうちの第1映像データは、複数のチャネルに受信される複数の放送信号の各々の映像データのうち、放送受信部210に含まれたチューナによって選択されたチャネルに受信される放送信号の映像データであってよい。なお、例えば、一つのソースから提供される複数の映像データのうちの第2映像データは、電子装置100に保存部130と、外部端子入力部200と接続された外部機器またはネットワークインターフェース部180と接続されたサーバから提供される複数のコンテンツの各々の映像データの一つのコンテンツの映像データであってよい。次に、制御部140は、モーション認識モジュール130lを介してユーザのモーションを認識することができる。そして、認識されたユーザモーションに応答し、制御部140が第1映像データを提供すると、前記第1映像データのソースと異なるソースから提供される映像データを提供することができる。なお、制御部140が第2映像データを提供すると、前記一つのソースから提供される複数の映像データのうちの第2映像データと異なる映像データを提供することができる。
更に別の実施形態で、制御部140は、電子装置100の電源印加時に直ちに再生される第1映像データ及び電子装置100の電源印加後にユーザによるモード移行後に再生される第2映像データのうちの一つを映像出力部190またはディスプレイ部193に提供することができる。ディスプレイ部193は、提供された第1映像データまたは第2映像データをディスプレイすることができる。このとき、電源印加時に直ちに再生される第1映像データは、例えば、電子装置100がテレビである場合、テレビの電源を印加する場合に直ちに再生される放送信号であってよい。なお、電子装置100の電源印加後にユーザによるモード移行後に再生される第2映像データは、例えば、電子装置100がテレビである場合、テレビの電源を印加した後に音声入力部110と、モーション入力部120またはリモコンを通じたユーザの入力による別途のモードへの移行後に再生可能なコンテンツであってよい。次に、制御部140は、モーション認識モジュール130lを介して認識されたユーザのモーションに応答し、第1映像データを提供すると、電源印加時に直ちに再生される他の映像データ(例えば、他のチャネルの放送信号の映像データ)を提供することができる。なお、制御部140は、モーション認識モジュール130lを介して認識されたユーザのモーションに応答し、第2映像データを提供すると、ユーザモードへの移行後に再生する他の映像データ(例えば、保存部130に保存されたコンテンツの映像データ、外部端子入力部160またはネットワークインターフェース部180から受信されたコンテンツの映像データ)を提供することができる。
更に別の実施形態で、制御部140は複数の動画の一つの動画または複数のイメージの一つのイメージを映像出力部190またはディスプレイ部193に提供することができる。ディスプレイ部193に、提供された動画またはイメージをディスプレイすることができる。例えば、複数の動画のうちの一つの動画は、複数の放送信号のうちの一つの放送信号として、時間の流れに応じて変化する映像を示してよい。なお、複数のイメージのうちの一つは、複数の保存されたイメージのうちの一つであってよい。次に、制御部140は、モーション認識モジュール130lを介して認識されたユーザのモーションに応答し、動画を提供すると、前記複数の動画のうち、前記提供された動画と異なる動画(例えば、他のチャネルの放送信号)を提供することができる。なお、制御部140は、モーション認識モジュール130lを介して認識されたユーザのモーションに応答し、イメージを提供すると、前記複数のイメージのうち、前記イメージと異なるイメージを提供することができる。
以下では、図80ないし図91を参照して、ユーザモーションに応答して変更される画面について説明する。
図80及び図81は、本発明の多様な一実施形態に係る上方へのユーザのモーションに応答して変更される画面を示す図である。
図80において、制御部140は、ユーザのモーションとして上方へのスラップモーションを認識することができる。図80の8010ないし8020を参照すると、制御部140が放送信号を提供する場合、制御部140は上方へのスラップモーションに応答し、画面上に放送信号の提供を中止し、中止された放送信号のチャネル番号より増加したチャネル番号を有する放送信号を提供することができる。例えば、チャネル番号が「7」である放送信号はチャネルの番号が「8」である放送信号に変更されてよい。図80の8030ないし8040を参照すると、制御部140が複数のページを含むコンテンツを提供する場合、制御部140は上方へのスラップモーションに応答し、画面上に複数のページのうちの一つのページが表示された画面を、前記複数のページのうちの前記一つのページの下側に位置したページが表示される画面に変更することができる。例えば、図80の8030に第2ページが表示された画面は、図80の8040に第3ページが表示された画面に変更されてよい。
図81において、制御部140はユーザのモーションとして上方へのスラップモードンを認識することができる。図81の8110ないし8120を参照すると、制御部140が放送信号を提供する場合、制御部140は上方へのスラップモーションに応答し、画面上に放送信号の提供を中止し、中止された放送信号のチャネル番号より増加したチャネル番号を有する放送信号を提供することができる。図81の8130ないし8140を参照すると、制御部140が一つのページを含むコンテンツを提供する場合、制御部140は上方へのスラップモーションに応答し、画面上に一つのページのうちの一部をを前記一つのページで、前記一部の下側に位置した他の一部に変更することができる。
図82及び図83は、本発明の多様な実施形態に係る下方へのユーザモーションに応答して変更される画面を示す図である。
図82において、制御部140はユーザのモーションとして下方へのスラップモーションを認識することができる。図82の8210ないし8220を参照すると、制御部140が放送信号を提供する場合、制御部140は下方へのスラップモーションに応答して、画面上に放送信号の提供を中止し、中止された放送信号のチャネル番号より減少したチャネル番号を有する放送信号を提供することができる。例えば、チャネル番号が「8」である放送信号はチャネルの番号が「7」である放送信号に変更されてよい。図82の8230ないし8240を参照すると、制御部140が複数のページを含むコンテンツを提供する場合、制御部140は上方へのスラップモーションに応答し、画面上に複数のページのうちの一つのページが表示された画面を、前記複数のページのうちの前記一つのページの上側に位置したページが表示される画面に変更することができる。例えば、図80の8230に第2ページが表示された画面は、図82の8240に第1ページが表示された画面に変更されてよい。
図83において、制御部140はユーザのモーションとして下方へのスラップモードンを認識することができる。図83の8310ないし8320を参照すると、制御部140が放送信号を提供する場合、制御部140は下方へのスラップモーションに応答し、画面上に放送信号の提供を中止し、中止された放送信号のチャネル番号より増加したチャネル番号を有する放送信号を提供することができる。図83の8330ないし8340を参照すると、制御部140が一つのページを含むコンテンツを提供する場合、制御部140は下方へのスラップモーションに応答し、画面上に一つのページのうちの一部をを前記一つのページで、前記一部の上側に位置した他の一部に変更することができる。
図84ないし図87は、本発明の多様な実施形態に係る左方へのユーザモーションに応答して変更される画面を示す図である。
図84において、制御部140はユーザのモーションとして左方へのスラップモーションを認識することができる。図84の8410ないし8420を参照すると、制御部140が放送信号を提供する場合、制御部140は左方へのスラップモーションに応答して、提供中の放送信号の音量の大きさを減少させることができる。例えば、放送信号の音量の大きさは「14」から「13」に減少してよい。図84の8430ないし8440を参照すると、制御部140が複数のページを含むコンテンツを提供する場合、制御部140は左方へのスラップモーションに応答し、複数のページのうちの一つのページが表示される画面を前記複数のページのうちの前記一つのページの右側に位置したページが表示される画面に変更してよい。例えば、図84の8430に第2ページが表示された画面は、図84の8440に第3ページが表示された画面に変更されてよい。
図85において、制御部140はユーザのモーションとして左方へのスラップモーションを認識することができる。図85の8510ないし8520を参照すると、制御部140が放送信号を提供する場合、制御部140は左方へのスラップモーションに応答し、提供中の放送信号の音量の大きさを減らすことができる。図85の8530ないし8540を参照すると、制御部140が一つのページを含むコンテンツを提供する場合、制御部140は左方へのスラップモーションに応答し、一つのページの一部が表示される画面を前記一部の右側に位置した他の一部が表示される画面に変更してよい。
図86において、制御部140はユーザのモーションとして左方へのスラップモーションを認識することができる。図86の8610ないし8620を参照すると、制御部140が放送信号を提供する場合、制御部140は左方へのスラップモーションに応答して、提供中の放送信号の音量の大きさを減少させることができる。図86の8630ないし8640を参照すると、制御部140は左方へのスラップモーションに応答し、第2コンテンツが表示される画面を前記第2コンテンツの次の順のコンテンツである第3コンテンツが表示される画面に変更してよい。
図87において、制御部140はユーザのモーションとして左方へのスラップモーションを認識することができる。図87の8710ないし8720を参照すると、制御部140が放送信号を提供する場合、制御部140は左方へのスラップモーションに応答し、提供中の放送信号の音量の大きさを減らすことができる。図87の8730ないし8740を参照すると、制御部140が画面上に第1領域8731及び第2領域8735の各々に少なくとも一つ以上のコンテンツを提供する場合、制御部140は、左方へのスラップモーションに応答し、第2領域8735上にコンテンツ8751を除去し、第2領域8735上に前記除去されたコンテンツ8751と異なるコンテンツ8752を表示することができる。
図88において、制御部140は、ユーザのモーションとして右方へのスラップモーションを認識することができる。図88の8810ないし8820を参照すると、制御部140が放送信号を提供する場合、制御部140は右方へのスラップモーションに応答して、提供中の放送信号の音量の大きさを増加させることができる。例えば、放送信号の音量の大きさは、「14」から「15」に増加することができる。図88の8830ないし8840を参照すると、制御部140が複数のページを含むコンテンツを提供する場合、制御部140は右方へのスラップモーションに応答し、複数のページのうちの一つのページが表示される画面を前記複数のページのうちの前記一つのページの左側に位置したページが表示される画面に変更することができる。例えば、図88の8830に第2ページが表示された画面は、図88の8840に第1ページ画面に変更されてよい。
図89において、制御部140はユーザのモーションとして右方へのスラップモーションを認識することができる。図89の8910ないし8920を参照すると、制御部140が放送信号を提供する場合、制御部140は右方へのスラップモーションに応答し、提供中の放送信号の音量の大きさを増加させることができる。図89の8930ないし8940を参照すると、制御部140が一つのページを含むコンテンツを提供する場合、制御部140は右方へのスラップモーションに応答し、一つのページの一部が表示される画面を前記一部の左側に位置した他の一部が表示される画面に変更することができる。
図90において、制御部140はユーザのモーションとして右方へのスラップモーションを認識することができる。図90の9010ないし9020を参照すると、制御部140が放送信号を提供する場合、制御部140は右方へのスラップモーションに応答し、提供中の放送信号の音量の大きさを増加させることができる。図90の9030ないし9040を参照すると、制御部140が第2コンテンツを提供する場合、制御部140は右方へのスラップモーションに応答し、第2コンテンツが表示される画面を前記第2コンテンツの前の順のコンテンツである第3コンテンツが表示される画面に変更してよい。
図91において、制御部140はユーザのモーションとして右方へのスラップモーションを認識することができる。図91の9110ないし9120を参照すると、制御部140が放送信号を提供する場合、制御部140は右方へのスラップモーションに応答し、提供中の放送信号の音量の大きさを増加させることができる。図91の9130ないし9140を参照すると、制御部140が画面上に第1領域9131及び第2領域9135の各々に少なくとも一つ以上のコンテンツを提供する場合、制御部140は、右方へのスラップモーションに応答し、第2領域9135上にコンテンツ9151を除去し、第2領域9135上に前記除去されたコンテンツと異なるコンテンツ9152を表示することができる。
図92及び図93は、本発明の多様な実施形態に係るユーザのモーションに応答して画面が変更される電子装置の制御方法を説明するためのフローチャートである。
図92において、電子装置100は認識されたユーザのモーションに応答し、複数の放送信号のうちの一つを選択する(S9212)。このとき、認識されたユーザのモーションは、モーション入力部120を介して入力されてモーション認識モジュール130lによって認識されてよい。電子装置100は、選択された放送信号を提供する(S9214)。このとき、放送信号は、映像出力部190またはディスプレイ部193に提供されてよい。再び、電子装置100は選択された放送信号の提供を中止し、保存されたコンテンツを提供する(S9216)。このとき、保存されたコンテンツは、保存部130に保存されたり、外部端子入力部160またはネットワークインターフェース部180から受信されてよい。電子装置100は、認識されたユーザのモーションと実質的に同じ形態のユーザのモーションを再認識することができる(S9218)。このとき、再認識されたユーザのモーションは、モーション入力部120を介して入力されてモーション認識モジュール130lによって認識されてよい。電子装置100は、再認識されたユーザのモーションに応答し、提供されたコンテンツが表示される画面の少なくとも一部を変更することができる(S9220)。
図93において、電子装置100は複数の放送信号のうちの一つ及び保存されたコンテンツのうちの一つを提供する(S9312)。再び、電子装置100は、モーション認識モジュール130lを介してユーザのモーションを認識する(S9314)。電子装置100は、ユーザのモーションに応答し、電子装置100が提供する信号が放送信号か、またはコンテンツかを判断することができる(S9316)。放送信号が提供される場合、電子装置100は放送信号の音量の大きさを調節したり、複数の放送信号のうちのもう一つの放送信号を提供する(S9318)。または、コンテンツが提供される場合、電子装置100は提供されたコンテンツが表示される画面の少なくとも一部を変更する(S9320)。
上述のように、電子装置100を介して、ユーザはユーザのモーションを通じて電子装置をより効率的かつ直観的に制御できるようになる。
制御部140は、リモコン信号受信部170に受信されるリモコン信号、音声入力部110に入力されるユーザ音声およびモーション入力部120に入力されるユーザモーションに応じて電子装置を制御する。ここで、リモコンは一般的なリモコンであってよいが、それに限定されるものではなく、タッチパッドを備えるリモコンであってよい。
具体的に、制御部140は、リモコン信号受信部170に受信されたリモコン信号に応じて電子装置100が制御されるリモコンモードで、音声入力部110を介して入力された音声開始命令が認識される場合、音声入力部110によって入力されたユーザ音声によって制御される音声タスクを行うための音声タスクモードに切り替える。
音声タスクモードに切り替わった場合、制御部140は、電子装置100のモードが音声タスクモードであることを表示するアイコン及び音声タスクをガイドする音声アイテムが含まれた音声ガイド情報をディスプレイするようにディスプレイ部193を制御することができる。
音声タスクモードで、リモコンモードに切り替えるためにリモコンに備えられたボタンのうちの第1ボタンが選択されると、リモコン信号受信部170は、第1ボタンに対応する第1リモコン信号を受信する。そして、制御部140は、電子装置100のモードを第1リモコン信号に応答し、電子装置100がリモコンによって制御されるリモコンモードに切り替える。このとき、第1ボタンは、リモコンモードに切り替わるためのリモコンモード切替ボタンであってよい。しかし、それは一実施形態に過ぎず、第1ボタンは前記リモコンに備えられたボタンのうちの任意のボタンであってよい。第1ボタンが任意のボタンである場合、第1ボタンに対応する第1リモコン信号が受信されると、制御部140はリモコンモードに切り替えた後、第1ボタンに対応するタスクを行ってよい。例えば、第1ボタンが消音ボタンである場合、制御部140は、電子装置100のモードを音声タスクモードからリモコンモードに切り替え、消音を行ってよい。
音声タスクモードで、モーション入力部120を介してモーション開始命令が入力されると、制御部140は、モーション認識モジュール130lを用いて、モーション開始命令を認識する。そして、モーション開始命令が認識される場合、制御部140は、電子装置100のモードをモーション入力部120によって入力されたユーザモーションによって制御されるモーションタスクモードに切り替えてよい。
なお、制御部140は、リモコン信号受信部170に受信されたリモコン信号によって電子装置100が制御されるリモコンモードで、モーション入力部120を介して入力されたモーション開始命令が認識される場合、モーション入力部120によって入力されたユーザモーションによって制御されるモーションタスクを行うためのモーションタスクモードに切り替える。
モーションタスクモードに切り替わった場合、制御部140は、電子装置100のモードがモーションタスクモードであることを表示するアイコン及びモーションタスクをガイドするモーションアイテムが含まれた音声ガイド情報をディスプレイするようにディスプレイ部193を制御することができる。
モーションタスクモードで、リモコンモードに切り替えるためにリモコンに備えられたボタンのうちの第1ボタンが選択されると、リモコン信号受信部170は第1ボタンに対応する第1リモコン信号を受信する。そして、制御部140は、第1リモコン信号に応答し、電子装置100のモードを電子装置100がリモコンによって制御されるリモコンモードに切り替える。このとき、第1ボタンは、リモコンモードに切り替わるためのリモコンモード切替ボタンであってよい。しかし、それは一実施形態に過ぎず、第1ボタンは、前記リモコンに備えられたボタンのうちの任意のボタンであってよい。第1ボタンが任意のボタンである場合、第1ボタンに対応する第1リモコン信号が受信されると、制御部140はリモコンモードに切り替えた後、第1ボタンに対応するタスクを行ってよい。例えば、第1ボタンが消音ボタンである場合、制御部140は、電子装置100のモードを音声タスクモードからリモコンモードに切り替え、消音を行ってよい。
モーションタスクモードで、音声入力部110を介して音声開始命令が入力されると、制御部140は、音声認識モジュール130kを用いて、音声開始命令を認識する。そして、音声開始命令が認識される場合、制御部140は、電子装置100のモードを音声入力部110によって入力されたユーザ音声によって制御される音声タスクモードに切り替えてよい。
以下では、図94ないし97を参照して、リモコンモード、モーションタスクモード及び音声タスクモードに切り替える実施形態を説明する。
具体的に、制御部140は、電子装置100に電源が入った後、一般的にリモコン信号によって制御されるリモコンモードで動作する。リモコンモードは、図94に示すように、別途のUIがディスプレイされない。しかし、それは一実施形態に過ぎず、制御部140はリモコンモードである際、リモコンモードであることを示すUIをディスプレイすることができる。
リモコンモードで、音声入力部110を介して音声開始命令が入力されると、制御部140は音声開始命令を認識し、電子装置100のモードを音声入力部110を介して入力されるユーザ音声によって制御される音声タスクモードに切り替える。このとき、制御部140は、音声タスクモードに切り替えつつ、図95に示すような音声ガイド情報をディスプレイすることができる。
音声タスクモードで、リモコンに備えられた第1ボタンが選択されると、制御部110はリモコン信号受信部170を介して第1ボタンに対応する第1リモコン信号を受信し、図94に示すように、電子装置100のモードをリモコンモードに再び切り替える。このとき、リモコンに備えられた第1ボタンはリモコンモード切替ボタンであってよいが、それは一実施形態に過ぎず、リモコンに備えられた任意のボタンであってよい。
なお、音声タスクモードで、モーション入力部120を介してモーション開始命令が入力されると、制御部140はモーション開始命令を認識して電子装置100のモードをモーション入力部120を介して入力されるユーザモーションによって制御されるモーションタスクモードに切り替える。このとき、制御部140は、モーションタスクモードに切り替えつつ、図96に示すようなモーションガイド情報3310をディスプレイすることができる。
リモコンモードで、モーション入力部120を介してモーション開始命令が入力されると、制御部140はモーション開始命令を認識して電子装置100のモードをモーション入力部120を介して入力されるユーザモーションによって制御されるモーションタスクモードに切り替える。このとき、制御部140は、モーションタスクモードに切り替えつつ、図96に示すようなモーションガイド情報3310をディスプレイすることができる。
モーションタスクモードで、リモコンに備えられた第1ボタンが選択されると、制御部110は、リモコン信号受信部170を介して第1ボタンに対応する第1リモコン信号を受信し、図94に示すように、電子装置100のモードをリモコンモードに再び切り替える。このとき、リモコンに備えられた第1ボタンはリモコンモード切替ボタンであってよいが、それは一実施形態に過ぎず、リモコンに備えられた任意のボタンであってよい。
モーションタスクモードで、音声入力部110を介して音声開始命令が入力されると、制御部140は音声開始命令を認識し、電子装置100のモードを音声入力部110を介して入力されるユーザ音声によって制御される音声タスクモードに切り替える。このとき、制御部140は、音声タスクモードに切り替えつつ、図95に示すような音声ガイド情報をディスプレイすることができる。
上述のように、電子装置100は、リモコン信号、音声開始命令及びモーション開始命令を用いて、リモコンモード、音声タスクモード及びモーションタスクモードにそれぞれ切り替わってよい。
図97は、本発明の一実施形態に係るリモコンモード、モーションタスクモード及び音声タスクモードに切り替える方法を説明するためのフローチャートである。まず、電子装置100は電源が入った後、リモコンによって制御されるリモコンモードに移行する(S9710)。
電子装置は、音声開始命令またはモーション開始命令がない場合は、依然としてリモコン制御モード(S9710)を維持する。電子装置100は、音声開始命令が入力されているか否かを判断する(S9720)。リモコンモードで音声開始命令が入力されると(S9720−Y)、電子装置100は、電子装置100のモードを音声入力部110を介して入力されるユーザの音声によって制御される音声タスクモードに切り替える(S9730)。このとき、音声タスクモードに移行すると、電子装置100は、図95に示すような音声ガイド情報をディスプレイすることができる。
電子装置100は、モーション開始命令が入力されているか否かを判断する(S9740)。音声タスクモードでモーション開始命令が入力されると(S9740−Y)、電子装置100は、電子装置100のモードをモーション入力部120を介して入力されるユーザのモーションに応じて制御されるモーションタスクモードに切り替える(S9750)。
電子装置100が、モーションタスクモードまたは音声タスクモードのいずれか一つである場合、制御部140は、リモコン制御モードに復帰するか否かを判断する(S9760)。上述のように、リモコン制御モードに復帰する命令が入力されたり、モード取消し命令が認識されると、制御部140はリモコン制御モードに復帰することができる。なお、電子装置100が音声タスクモードである場合、制御部140は、予め設定された時間(例えば、5分)の間、何の音声も認識していない場合、自動的にリモコン制御モードに復帰することができる。同様に、電子装置100がモーションタスクモードである場合、制御部140は予め設定された時間(例えば、5分)の間、何のモーションも認識していない場合、自動的にリモコン制御モードに復帰することができる。
図97に示すように、電子装置100がリモコンモード(S9710)、音声タスクモード(S9730)及びモーションタスクモード(S9750)で動作することができる。3つのモードで、制御部140は、音声タスクモードにスイッチするか(S9720−Y)、モーションタスクモードにスイッチするか(S9740−Y)、リモコン制御モードにスイッチするか(S9760−Y)または現在のモードを維持するか(S9720−N、S9740−N、S9760−N)を判断することができる。一方、図97における図示の他にも、リモコンモード、音声タスクモード、モーションタスクモードから他のタスクモードに変更される実施形態に、本発明の技術的思想が適用されてよい。
上述のように、電子装置100が、リモコンモード、音声タスクモード及びモーションタスクモードに切り替えることにより、ユーザは自分が望むモードに応じて、電子装置100を制御できるようになる。
制御部140は、外部の携帯機器を用いた音声認識を通じて電子装置100を制御することができる。具体的に、制御部140は、外部の携帯機器に備えられたマイクを通じてユーザ音声が入力されると、音声入力部110を介してユーザ音声が入力され、入力されたユーザ音声を認識し、認識されたユーザ音声に応じて電子装置100の音声タスクを行うことができる。このとき、携帯機器は、リモコンや携帯電話、PDA及びノートパソコンのいずれか一つであってよいが、それに限定されるものではない。なお、このとき、音声入力部110は、外部の携帯機器からユーザ音声信号を受信するための通信部であってよい。
なお、外部の携帯機器で音声認識のためのアプリケーションが実行され、ユーザ音声が入力される。そして、携帯機器がユーザの音声を認識してユーザ音声に対応する制御信号を生成した後、制御信号を電子装置100に伝送すると、制御部140は、携帯機器から入力された制御信号によって電子装置100の音声タスクを行うことができる。
なお、制御部140は、携帯機器で音声認識のためのアプリケーションが実行され、携帯機器に備えられたマイクから入力されたユーザの音声が入力されると、携帯機器から入力されたユーザの音声を認識し、ユーザの音声に応じて電子装置100の音声タスクを行うことができる。
このとき、携帯機器で音声認識のためのアプリケーションが実行された後、携帯機器に含まれた第1ボタンが選択されると、制御部140は、通信部(図示せず)を介して第1ボタンに対応する第1信号を受信し、第1信号に応答して電子装置100のモードを音声タスクモードに切り替える。このとき、携帯機器に含まれた第1ボタンが選択されて切り替わる音声タスクモードは、携帯機器に含まれたマイクから入力されたユーザの音声に応じて音声タスクが行われるモードである。そして、携帯機器に含まれた第1ボタンが選択されて切り替わる音声タスクモードは、携帯機器の第1ボタン及び第2ボタンのいずれか一つが選択されると、解除されてよい。このとき、第1ボタン及び第2ボタンは、携帯機器に備えられた物理的なボタンであってよいが、それは一実施形態に過ぎず、音声認識のためのアプリケーションが実行された後、携帯機器にディスプレイされたUIであってよい。
なお、制御部140は、音声タスクモードで携帯機器に備えられた第2ボタンが選択される間、携帯機器からユーザの音声が入力されてよい。このとき、携帯機器に備えられた第2ボタンが選択される間、制御部140はユーザ音声が入力可能であることを示すUIを携帯機器にディスプレイすることができる。従って、ユーザは携帯機器にディスプレイされたUIを通じて音声入力が可能であることを認識できるようになる。
携帯機器でユーザ音声が認識される場合、制御部140は、電子装置100に備えられたマイクを通じてユーザ音声が入力されない。
一方、携帯機器に備えられたマイクは、携帯機器が電話による通話のために用いられるマイクであってよい。即ち、携帯機器が一般的の電話通話機能をする場合、マイクはユーザから電話通話のための音声が入力され、一方、携帯機器が音声認識のためのアプリケーションを実行する場合、ユーザから電子装置100を制御するための音声が入力されてよい。
図98は、本発明の一実施形態に係る外部の携帯機器を用いてユーザの音声を認識する方法を説明するためのフローチャートである。まず、携帯機器は、音声入力のためのアプリケーションを実行する(S9810)。このとき、携帯機器は携帯電話であってよい。
携帯機器で音声入力のためのアプリケーションが実行された後、携帯機器は携帯機器に備えられたマイクを通じてユーザ音声が入力される(S9820)。このとき、携帯機器に備えられたマイクは、電話通話機能を行うためのマイクであってよい。
そして、電子装置100は、外部の携帯機器に入力されたユーザ音声を携帯機器から受信する(S9830)。携帯機器からユーザ音声が受信されると、電子装置100は音声認識モジュール103kを用いてユーザ音声を認識する(S9840)。そして、電子装置100は、音声データベースを用いて、認識されたユーザ音声に応じて音声タスクを行う(S9850)。
一方、上述の実施形態では、携帯機器がユーザ音声が入力され、ユーザ音声を電子装置100に伝送するものとして説明したが、それは一実施形態に過ぎず、携帯機器がユーザ音声を直接認識し、ユーザ音声に対応する制御信号を生成した後、制御信号を電子装置100に伝送することができる。
上述のように、携帯電話と携帯機器を用いて電子装置100の音声タスクを行うことにより、ユーザはより容易に音声認識を用いて電子装置100を制御できるようになる。
本発明の一実施形態によると、モーションタスクモードは、ポインターが必要なタスクであるか否かに応じてモーションモード及びポインティングモードのいずれか一つであってよい。具体的に、モーションモードは、予め設定されたモーション(例えば、左右上下へのスラップ、グラブ及び反時計回りへの回転)によって電子装置100の設定が変更されるタスクを制御するモードである。例えば、電子装置100が放送受信機能を行う際、モーション開始命令が入力されると、制御部140は電子装置100のモードをモーションモードに切り替えてよい。従って、電子装置100は予め設定されたモーションにマッチするユーザのモーションに応答して音量調節、チャネル変更のようなタスクを行ってよい。
ポインティングモードは、タスクを行うためのポインターを用いるモードである。例えば、電子装置100が選択可能な複数のアイテムが含まれたリスト(例えば、コンテンツリスト、チャネルリスト、EPG及びウェブページ等)のいずれか一つをディスプレイする際、モーション開始命令が入力されると、制御部140は電子装置100のモードをポインティングモードに切り替えてよい。ポインティングモードに移行すると、制御部140はディスプレイ画面の中央にポインターをディスプレイする。このとき、ポインターはモーションガイド情報によってディスプレイ画面の中央の上側にディスプレイされてよい。
以下では、ポインティングモードについてより詳細に説明する。
電子装置100がアプリケーションを実行するための複数の短縮アイコンが含まれたコンテンツリスト(例えば、スマートハブ)及びウェブページのいずれか一つがディスプレイする間、モーション入力部120を介してモーション開始命令が入力されると、制御部140は、電子装置100のモードをポインティングモードに切り替え、ディスプレイされた画面の中央にポインターをディスプレイすることができる。
このとき、ポインティングモードに移行されると、電子装置100はディスプレイ画面の下段にモーションタスクを行うためのモーションガイド情報をディスプレイすることができる。このとき、ディスプレイされるモーションガイド情報は、モーションモードのモーションガイド情報とは相違していてよい。
一方、電子装置100がコンテンツリストをディスプレイする場合、モーション入力部120を介してモーション開始命令が入力されると、制御部140は電子装置100のモードをポインティングモードに切り替える。ポインティングモードでモーション入力部120に入力されるユーザのモーションに応じてポインターがコンテンツリストの第1短縮アイコンに位置すると、制御部140は第1短縮アイコンを他の短縮アイコンと区別できるように表示する。そして、ポインティングモードでコンテンツリスト画面の終了命令が入力されると、制御部140はコンテンツリストだけでなく、ポインターをディスプレイ画面から除去してよい。
一方、電子装置100がウェブページをディスプレイする場合、モーション入力部120を介してモーション開始命令が入力されると、制御部140は電子装置100のモードをポインティングモードに切り替える。このとき、ウェブページは、複数のハイパーリンクを含んでよい。ポインティングモードでモーション入力部120に入力されるユーザモーションに応じてポインターがウェブページの第1ハイパーリンクに位置すると、制御部140は第1ハイパーリンクを他のハイパーリンクと区別できるように表示する。そして、ポインターが第1ハイパーリンクに位置し、モーション入力部120を介してユーザの第1モーション(例えば、グラブモーション)が入力されると、制御部140は第1ハイパーリンクを実行する。
以下では、図99ないし図103を参照して、ポインティングモードに対する実施形態について、より詳細に説明する。
図99に示すように、アプリケーションを実行するための短縮アイコンが含まれたコンテンツリストがディスプレイされ、モーション入力部120を介してモーション開始命令が入力されると、制御部140は、図100に示すように、モーションガイド情報及びポインター10010をディスプレイすることができる。このとき、ポインター10010は、ディスプレイ画面の中央にディスプレイされてよい。
そして、モーション入力部120を介してポインター10010が“APP2”短縮アイコンに位置するように下方へ移動するモーションが入力されると、制御部140は、ポインター10010を“APP2”短縮アイコンに位置させる。このとき、ポインター10010が“APP2”短縮アイコンに位置すると、制御部140は、図101に示すように、“APP2”の短縮アイコン及び短縮アイコンの名前を他のアイコンより濃くハイライトさせて表示する。
ポインター10010が“APP2”短縮アイコンに位置し、モーション入力部120を介してユーザの第1モーション(例えば、グラブモーション)が入力されると、制御部120は、図102に示すように、“APP2”短縮アイコンを実行する。
そして、図101に示すように、コンテンツリストがディスプレイされ、ユーザからコンテンツリスト解除命令(例えば、反時計回りへの回転モーションまたはリモコンボタン)が入力されると、制御部140は、図103に示すように、ディスプレイ画面にコンテンツリスト及びポインターを除去し、放送受信画面をディスプレイする。
一方、上述の実施形態においては、コンテンツリストがディスプレイされる場合について説明したが、それに限定されるものではなく、複数のハイパーリンクを含むウェブページがディスプレイされた場合も、本願発明の技術的思想が適用されてよい。
図104は、本発明の一実施形態に係るポインティングモードを提供する方法を説明するためのフローチャートである。まず、電子装置100は、コンテンツリスト及びウェーブページのいずれか一つをディスプレイする(S10410)。このとき、コンテンツリストはアプリケーションを実行するための複数の短縮アイコンを含み、ウェブページは複数のハイパーリンクを含んでよい。そして、電子装置100は、モーション開始命令が入力されているか否かを判断する(S10420)。
モーション開始命令が入力されると(S10420−Y)、電子装置100は電子装置100のモードをポインティングモードに切り替える(S10430)。このとき、ポインティングモードとは、ポインターが必要なタスク(例えば、アプリケーション実行、ウェブページ検索等)を行うためのモードである。
ポインティングモードに切り替わると、電子装置100はディスプレイ画面にポインターをディスプレイする(S10440)。このとき、ポインターはディスプレイ画面の中央にディスプレイされてよい。
上述のように、電子装置100が、ポインターの必要なタスクを行うために、ポインティングモードに切り替わることにより、ユーザはより容易に電子装置100を制御できるようになる。
制御部140は、ポインティングモードでモーション入力部120を介して第1モーションが入力されると、第1モーションに対応する方向へポインターを移動させ、モーション入力部120を介して第2モーションが入力されると、第2モーションに対応するモーションタスクを行う。
このとき、ポインターがコンテンツリストの第1短縮アイコンに位置するか、ウェブページの第1ハイパーリンクに位置している状態で、第2モーションが入力されると、制御部140はポインターが位置する第1短縮アイコン及び第1ハイパーリンクのハイライト表示まで除去することができる。このとき、第2モーションは、電子装置のモーションモードを行うための予め設定されたモーションであり、上下左右方向へのスラップモーション、グラブモーション及び反時計回りへの回転モーションのいずれか一つであってよい。
例えば、第2モーションが上下左右方向へのスラップモーションである場合、制御部140はディスプレイ画面を入力された上下左右方向へのスラップモーションに対応して移動させることができる。このとき、画面が移動された後、制御部140はポインターを画面移動前の地点に再びディスプレイすることができる。
更に別の例として、第2モーションがグラブモーションである場合、制御部140はポインターが位置する第1短縮アイコンを実行することができる。このとき、第1短縮アイコン実行後、制御部140はポインターを画面移動前の地点に再びディスプレイすることができる。
更に別の例として、第2モーションが反時計回りへの回転モーションである場合、制御部140は現在選局されているチャネルの放送番組をディスプレイ画面にディスプレイすることができる。即ち、制御部140は、コンテンツリストまたはウェブページをディスプレイ画面から除去し、放送受信機能を提供することができる。このとき、放送受信機能は、ポインターが必要ないため、ポインターがディスプレイされない。
一方、上述の実施形態においては、ポインターがディスプレイされないものとして説明したが、それは一実施形態に過ぎず、ポインターがディスプレイされる地点に保持されてディスプレイされてよい。
以下では、図105ないし図107を参照して、ポインティングモードで予め設定されたモーションが入力された場合の実施形態について、より詳細に説明する。
まず、図100において上述したように、電子装置100のモードがポインティングモードに切り替わると、制御部140は、図105に示すように、ディスプレイ画面の中央にポインター10510をディスプレイする。
ディスプレイ画面にポインターがディスプレイされた状態で、モーション入力部120を介して右方へのスラップモーションが入力されると、制御部140は、図106に示すように、ディスプレイ画面でポインター10510を除去し、アプリケーション表示領域1520の画面を他のアプリケーション表示領域の画面10530に切り替える。そして、アプリケーション表示領域10520が移動された後、制御部140は図107に示すように、再びポインター10510をディスプレイする。
図108は、本発明の一実施形態に係るポインティングモードで予め設定されたモーションが入力された場合、電子装置100の制御方法を説明するためのフローチャートである。まず、電子装置100は、コンテンツリスト及びウェブページのいずれか一つをディスプレイする(S10810)。このとき、コンテンツリストはアプリケーションを実行するための複数のアイコンを含み、ウェブページは複数のハイパーリンクを含んでよい。そして、電子装置100は、モーション開始命令が入力されているか否かを判断する(S10820)。
モーション開始命令が入力されると(S10820−Y)、電子装置100は電子装置100のモードをポインティングモードに切り替える(S10830)。このとき、ポインティングモードとは、ポインターが必要なタスク(例えば、アプリケーション実行、ウェブページ検索等)を行うためのモードである。
ポインティングモードに切り替わると、電子装置100はディスプレイ画面にポインターをディスプレイする(S10840)。このとき、ポインターはディスプレイ画面の中央にディスプレイされてよい。
そして、ポインターがディスプレイされた状態でモーション入力部120を介して予め設定されたモーションが入力された場合(S10850−Y)、電子装置100はポインターを除去し、予め設定されたモーションに対応するモーションタスクを行う(S10860)。このとき、予め設定されたモーションは、モーションモードで予め設定されたモーションとして、上下左右へのスラップモーション、グラブモーション及び反時計回りへの回転モーションであってよい。
上述のように、電子装置100を除去することにより、ユーザはポインティングモードにおいても、予め設定されたモーションによるタスクを行うことができるようになる。
制御部140は、電子装置100のモードに応じて、選択されたアイテムを相違に表示することができる。具体的に、制御部140は、選択可能な複数のアイテムをディスプレイするようにディスプレイ部193を制御する。このとき、選択可能なアイテムは、コンテンツリストの短縮アイコンまたはウェブページのハイパーリンクであってよい。
そして、音声入力部110及びモーション入力部120のいずれか一つを介してユーザの音声及びユーザのモーションのいずれか一つが入力されると、制御部140は、ユーザの入力によって複数のアイテムのうちの第1アイテムを選択する。そして、制御部140は、選択された第1アイテムを他のアイテムと区別できるようにディスプレイすることができる。例えば、制御部140は、選択された第1アイテムを他のアイテムより濃くハイライトさせて表示することができる。
第1アイテムが他のアイテムと区別できるようにディスプレイされる際、第1アイテムの名前が予め設定された文字数を超過し、電子装置100のモードがモーションタスクモードである場合、制御部140は、第1アイテムの名前のフルネームをディスプレイすることができる、例えば、図109に示すように、選択された“Exciting Drum”の短縮アイコンの名前を全部ディスプレイする。なお、制御部140は、第1アイテムの名前をスクロール方式でフルネームをディスプレイすることができる。一方、上述の実施形態では、モーションタスクモードである場合、アイテムのフルネームがディスプレイされるものとして説明したが、それは一実施形態に過ぎず、リモコンモードにおいてもアイテムのフルネームがディスプレイされてよい。
しかし、制御部140は選択された第1アイテムの名前が予め設定された文字数を超過し、電子装置100のモードが音声タスクモードである場合、第1アイテムの名前の一部のみをディスプレイすることができる。このとき、第1アイテムの名前の一部は固定される。例えば、図110に示すように、選択された“Exciting Drum”の短縮アイコンの名前の一部のみがディスプレイされる。
そして、音声タスクモードで、第1アイテムの名前の一部のみがディスプレイされた場合、音声入力部110を介して入力されたユーザの音声がディスプレイされた名前の一部と一致していると、制御部140は第1アイテムを実行することができる。
そして、ディスプレイされた第1アイテムの名前の一部に分かち書きがない場合、音声入力部110を介してディスプレイされた第1アイテムの名前を構成する複数の綴りに対応するユーザ音声が入力されると、制御部140は第1アイテムを実行することができる。例えば、ディスプレイされた第1アイテムの名前が“man”である場合、“m”、“a”、“n”が順番に入力されると、制御部140は第1アイテムを実行することができる。
なお、電子装置100が音声タスクモードである場合、ディスプレイされたアイテムの名前と音声入力部110を介して入力されたユーザの音声と一致しているアイテムが複数である場合、制御部140は、複数のアイテムを含む候補群リストをディスプレイすることができる。候補群リストがディスプレイされる場合、制御部140は、ユーザがアイテムを確実に区分するためにアイテムのフルネームをディスプレイすることができる。
図111は、本発明の一実施形態に係るモード毎に異なるようにアイテムをディスプレイする電子装置100の制御方法を説明するためのフローチャートである。まず、電子装置100は選択可能な複数のアイテムをディスプレイする(S11110)。このとき、複数のアイテムはコンテンツリストに含まれたアプリケーションを実行するための短縮アイコンまたはウェブページに含まれたハイパーリンクであってよい。
電子装置100は、音声入力部110及びモーション入力部120のいずれか一つを介してユーザ音声及びユーザモーションのいずれか一つが入力される(S11120)。
電子装置100は、ユーザ入力に応じて、第1アイテムを選択する(S11130)。例えば、音声タスクモードである場合、電子装置100は音声入力部110を介して入力されたユーザ音声に応じて第1アイテムを選択することができ、モーションタスクモードである場合、電子装置100はモーション入力部120を介して入力されたユーザモーションに応じて第1アイテムを選択することができ、リモコンモードである場合、電子装置100はリモコン信号受信部170を介して入力されたリモコン信号に応じて第1アイテムを選択することができる。
第1アイテムが選択されると、電子装置100は選択された第1アイテムを他のアイテムと区別できるようにディスプレイする(S11140)。例えば、電子装置100は選択された第1アイテムを他のアイテムより濃くハイライトしてディスプレイすることができる。
第1アイテムが他のアイテムと区別してディスプレイされる際、第1アイテムの名前が予め設定された文字数を超過し、電子装置100のモードがモーションタスクモード(またはリモコンモード)である場合、電子装置100は、第1アイテムの名前のフルネームをディスプレイすることができる。例えば、図109に示すように、選択された“Exciting Drum”の短縮アイコンの名前を全てディスプレイする。なお、電子装置100は第1アイテムの名前をスクロール方式でフルネームをディスプレイすることができる。
しかし、選択された第1アイテムの名前が予め設定された文字数を超過し、電子装置100のモードが音声タスクモードである場合、電子装置100は第1アイテムの名前の一部のみをディスプレイすることができる。このとき、第1アイテムの名前の一部は固定される。例えば、図110に示すように、選択された“Exciting Drum”の短縮アイコンの名前の一部(“Exciting”)のみがディスプレイされる。
上述のように、音声タスクモードでのみアイテムの名前の一部がディスプレイされると、ユーザは名前の一部のみを発話することにより、第1アイテムを実行できるようになる。
制御部140は、音声タスクモードで複数の音声アイテムを含む音声ガイド情報をディスプレイする。このとき、音声ガイド情報は、電子装置100のモードが音声タスクモードであることを表示するアイコンを含んでおり、音声タスクモードであることを表示するアイコンは、音声ガイド情報の中央に位置してよい。
音声ガイド情報がディスプレイされた場合、音声入力部110を介して複数の音声アイテムの一つに対応するユーザ音声が入力されると、制御部140は音声ガイド情報の第1領域に音声タスクを行うためのガイド語句をディスプレイし、音声ガイド情報の第2領域に音声アイテムをディスプレイする。このとき、第1領域はアイコンの左側領域であり、第2領域は前記アイコンの右側領域であってよい。なお、ガイド語句の出力属性と音声アイテムの出力属性とは相違していてよい。このとき、出力属性には、文字のサイズ、彩度、明度及び色相の少なくともいずれか一つが含まれてよい。例えば、音声アイテムがガイド語句より濃くてよい。
ユーザ音声がチャネル変更を行うための命令語である場合、制御部140は、第1領域にチャネル変更をガイドするガイド語句をディスプレイし、第2領域にチャネル変更のための発話可能な命令語の例に対応する音声アイテム及びチャネル変更取消しに対応する音声アイテムをディスプレイすることができる。
ユーザ音声が電源終了を行うための命令語である場合、制御部140は、第1領域に電源終了を確認するガイド語句をディスプレイし、第2領域に電源終了を行うか否かに対する命令語に対応する音声アイテムをディスプレイすることができる。
以下では、図112ないし図114を参照して、音声ガイド情報をディスプレイする実施形態について説明する。
音声入力部110を介して音声開始命令が入力されると、制御部140は電子装置100のモードを音声入力部110を介して入力されるユーザ音声に制御される音声タスクモードに切り替える。そして、制御部140は、図112に示すような音声ガイド情報をディスプレイする。
このとき、音声ガイド情報には、現在の電子装置100のモードが音声タスクモードであることを表すアイコン820をディスプレイすることができる。そして、音声ガイド情報において、アイコン820の左側領域には電源オフ音声アイテム811と、チャネル音声アイテム812と、サウンドオフ音声アイテム813及び外部入力音声アイテム814がディスプレイされ、音声ガイド情報において、アイコン820の右側領域にはスマートハブ音声アイテム815と、アップス音声アイテム816と、検索音声アイテム817及び全体音声アイテム818がディスプレイされてよい。
音声ガイド情報がディスプレイされ、音声入力部110を介してチャネル音声アイテム812に対応する命令語である“チャネル”が入力される場合、制御部140は、図113に示すように、音声ガイド情報を変換する。このとき、制御部140は、音声ガイド情報において、アイコン820の左側領域に第1彩度を有する音声タスクを行うためのガイド語句をディスプレイする。例えば、図113に示すように、アイコンの左側領域には“チャネル名やチャネル番号を話してください11310”がディスプレイされてよい。
そして、制御部140は、音声ガイド情報において、アイコン820の右側領域に第2彩度を有する音声アイテムをディスプレイする。このとき、音声アイテムは、チャネル変更のための発話可能な命令語の例に対応する音声アイテム及びチャネル変更取消しに対応する音声アイテム(例えば、前の音声アイテム)であってよい。例えば、図113に示すように、アイコン820の右側領域には、“(例:11、MBC、前のチャネル等)前へ11320”がディスプレイされてよい。このとき、制御部140は、アイコン820の右側領域の彩度をアイコン820の左側領域より濃く表示してよい。
更に別の例として、図112に示すような音声ガイド情報がディスプレイされ、音声入力部110を介して電源オフ音声アイテム811に対応する命令語である“電源オフ”が入力される場合、制御部140は、図114に示すように、音声ガイド情報を変換する。このとき、制御部140は、音声ガイド情報において、アイコン820の左側領域に第1彩度を有する音声タスクを行うためのガイド語句をディスプレイする。例えば、図114に示すように、アイコン820の左側領域には“電源をオフにしますか?11410”がディスプレイされてよい。
そして、制御部140は、音声ガイド情報において、アイコン820の右側領域に第2彩度を有する音声アイテムをディスプレイする。このとき、音声アイテムは、電源終了を行うか否かに対する命令語に対応する音声アイテムであってよい。例えば、図114に示すように、アイコン820の右側領域には“はい/いいえ11420、11430”がディスプレイされてよい。このとき、制御部140は、アイコン820の右側領域の彩度をアイコン820の左側領域より濃く表示してよい。
図115は、本発明の一実施形態に係る音声ガイド情報をディスプレイする電子装置100の制御方法を説明するためのフローチャートである。まず、電子装置100は、音声ガイド情報をディスプレイする(S11510)。このとき、音声ガイド情報は、現在の電子装置100のモードが、音声タスクモードであることを表すアイコン及び音声タスクモードをガイドする複数の音声アイテムが含まれてよい。
そして、音声入力部110を介して複数の音声アイテムの一つに対応するユーザ音声が入力されると、電子装置100は、第1領域に第1彩度を有するガイド語句をディスプレイすることができ、第2領域に第2彩度を有する音声アイテムをディスプレイすることができる(S11520)。このとき、第1領域は、音声ガイド情報でアイコンの右側領域であり、第2領域は、音声ガイド情報でアイコンの左側領域であってよい。そして、第2彩度は、第1彩度より濃くてよい。
上述のように、発話可能な音声アイテムを他のガイド語句と異なる彩度で表示することにより、ユーザが発話すべき命令語が何かをより明確に分かるようになる。
制御部140は、音声タスクをガイドする複数の音声アイテムを含む音声ガイド情報をディスプレイする。そして、音声入力部110を介して入力されたユーザ音声に複数の音声アイテムに対応する命令語以外の予め設定された単語が含まれると、制御部140は、予め設定された単語に対応する音声タスクを行うことができる。
このとき、予め設定された単語は、電子装置100と連動するリモコンに含まれた短縮キーに対応する単語であってよい。例えば、予め設定された単語は、チャネルリストを生成するための命令語、メニュー生成のための命令語、ソーシャルネットワークを実行するための命令語、番組編成ガイドのための命令語、3D立体映像への変換のための命令語及び放送ガイドのための命令語のいずれか一つを含んでよい。
なお、予め設定された単語は、現在電子装置100が行う機能に関連するタスクを提供する命令語に対応する単語であってよい。例えば、現在の装置が行う機能が動画再生機能である場合、予め設定された単語は、動画の再生のための命令語、動画の一時停止のための命令語、動画の停止のための命令語、前のファイル再生のための命令語、次のファイル再生のための命令語、スキップのための命令語及び後へスキップのための命令語のいずれか一つを含んでよい。
即ち、上述のように、音声ガイド情報にディスプレイされなくても、電子装置100の必須機能に対応する命令語が音声データベース130mに予め保存されることにより、ユーザは電子装置100の必須機能を音声認識を通じて利用することができるようになる。
以下では、図116及び図117を参照して、音声ガイド情報に表示された音声アイテム以外の命令語が発話される場合の実施形態について説明する。
音声入力部110を介して音声開始命令(例えば、“ジニ”)が入力されると、制御部140は、電子装置100のモードを音声入力部110を介して入力されるユーザ音声によって制御される音声タスクモードに切り替える。そして、音声タスクモードに切り替わる場合、制御部140は、図116に示すように、ディスプレイ画面の下段に音声ガイド情報をディスプレイすることができる。
このとき、音声ガイド情報には、現在の電子装置100のモードが音声タスクモードであることを表すアイコン820をディスプレイすることができる。そして、音声ガイド情報において、アイコン820の左側領域には電源オフ音声アイテム811と、チャネル音声アイテム812と、サウンドオフ音声アイテム813及び外部入力音声アイテム814がディスプレイされ、音声ガイド情報において、アイコン820の右側領域にはスマートハブ音声アイテム815と、アップス音声アイテム816と、検索音声アイテム817及び全体音声アイテム818がディスプレイされてよい。
音声ガイド情報がディスプレイされ、音声入力部110を介して音声ガイド情報に含まれていない命令語に対応する“チャネルリスト”が入力されると、制御部140は、図117に示すように、ディスプレイ画面の一側にチャネルリスト11700を示してよい。
このとき、チャネルリスト11700は、現在選局されている放送チャネルを中心に予め設定された番号範囲内の放送チャネルを含む。例えば、現在選局されている放送チャネルが“9−1 KBS2”である場合、制御部140は、図117に示すように、チャネルリスト11700は、“6−1 SBS”、“7−1 KBS1”、“9−1 KBS2”、“11−1 MBC”及び“13−1 EBS”を含んでよい。
そして、ユーザは、チャネルリスト11700から一つのチャネルを選択してチャネルを変更することができる。従って、音声ガイド情報にチャネルリストに対応する音声アイテムがディスプレイされないとしても、ユーザは音声認識を通じてチャネルリストをディスプレイするタスクを行ってよい。
図118は、本発明の一実施形態に係る音声ガイド情報に表示された音声アイテム以外の命令語が発話された場合、電子装置100の制御方法を説明するためのフローチャートである。まず、電子装置100は、音声ガイド情報をディスプレイする(S11810)。このとき、音声ガイド情報は、現在の電子装置100のモードが音声タスクモードであることを表すアイコン及び音声タスクモードをガイドする複数の音声アイテムが含まれたよい。
そして、電子装置100は、音声アイテムに対応する命令語以外の命令語が入力される(S11820)。このとき、音声アイテムに対応する命令語以外の命令語は、電子装置100と連動するリモコンに含まれた短縮キーに対応する単語であってよい。例えば、予め設定された単語は、チャネルリストを生成するための命令語、メニュー生成のための命令語、ソーシャルネットワークを実行するための命令語、番組編成ガイドのための命令語、3D立体映像への変換のための命令語及び放送ガイドのための命令語のいずれか一つを含んでよい。
なお、音声アイテムに対応する命令語以外の命令語は、現在の電子装置100が行う機能に関連するタスクを提供する命令語に対応する単語であってよい。例えば、現在装置が行う機能が動画再生機能である場合、予め設定された単語は、動画の再生のための命令語、動画の一時停止のための命令語、動画の停止のための命令語、前のファイル再生のための命令語、次のファイル再生のための命令語、スキップのための命令語及び後へスキップのための命令語のいずれか一つを含んでよい。
そして、電子装置100は、入力された命令語を音声タスクを行う(S11830)。例えば、チャネルリストを生成するための命令語が入力された場合、電子装置100はチャネルリストを生成してディスプレイする。上述のように、ユーザは、音声ガイド情報にディスプレイされない命令語に対応するタスクも行うことができる。
制御部140は、片手(One hand)を用いたモーションタスクモードだけでなく、両手(Two hands)を用いた両手モーションタスクモードを行ってよい。具体的に、モーション入力部120を介して両手を用いたモーション開始命令が入力されると、制御部140は電子装置100のモードを両手を用いたモーションタスクを行う両手モーションタスクモードに切り替えてよい。
このとき、制御部140が両手を用いたモーション開始命令が入力されることは、片手を用いたモーションタスクモードでもう一方の手を用いたモーション開始命令が入力されることであってよい。具体的に、図119に示すように、モーション入力部120を介してモーション開始命令(片手を3〜4回振るモーション)が入力された場合、制御部140は、モーション入力部120を介して入力されるユーザモーションで制御されるモーションタスクモードに切り替わる。そして、モーションタスクモードでモーション入力部120を介してもう一方の手を用いたモーション開始命令が入力されると、制御部140は、電子装置100のモードを両手を用いたモーションタスクを行う両手モーションタスクモードに切り替えてよい。
更に別の実施形態において、両手を用いたモーション開始命令は、両手を同時に複数回(例えば、3回ないし4回)振るシェイクモーションが入力されたものであってよい。具体的に、図120に示すように、モーション入力部120を介して両手を同時に複数回振るシェイクモーションが入力されると、制御部140は、電子装置100のモードを両手を用いてモーションタスクを行う両手モーションタスクモードに切り替えてよい。このとき、両手を用いたモーションタスクは、ディスプレイ画面を拡大したり縮小するタスクであってよい。
特に、両手を用いたモーションタスクが不可なアプリケーションを実行する場合、制御部140は、両手を用いたモーションタスクができないというメッセージを出力することができる。例えば、両手を用いたモーションタスクが不可なアプリケーションを実行する場合、制御部140は両手を用いたモーションタスクができないというアイコンをディスプレイしりことができる。
図121は、本発明の一実施形態に係る両手モーションタスクモードを説明するためのフローチャートである。まず、電子装置100は、両手を用いたモーション開始命令が入力される(S12110)。例えば、両手を用いたモーション開始命令が入力されることは、片手を用いたモーションタスクモードでもう一方の手を用いたモーション開始命令が入力されたことであってよい。
更に別の例として、両手を用いたモーション開始命令は、両手を同時に複数回(例えば、3〜4回)振るシェイクモーションが入力されたものであってよい。
両手を用いたモーション開始命令が入力されると、電子装置100は電子装置100のモードを両手を用いて電子装置100のタスクを行う両手モーションタスクモードに切り替える(S12120)。このとき、両手モーションタスクモードは、ディスプレイ画面を拡大したり縮小するタスクであってよい。上述のように、ユーザは片手だけでなく、両手を用いてモーションタスクを行うことができるようになる。
モーション入力部120を介してモーション開始命令が入力されると、制御部140は、電子装置100のモードをモーション開始命令を入力したユーザのモーションに応じてモーションタスクを行うモーションタスクモードに切り替える。このとき、モーションタスクモードは、モーション開始命令を入力したユーザがモーションタスクモードを解除するまでに、モーション開始命令を入力したユーザのモーションのみによって、前記モーションタスクが行われてよい。なお、モーションタスクモードは、モーション開始命令を入力したユーザを除く他のユーザからモーション開始命令が入力されるとしても維持できる。
具体的に、モーション入力部120を介してモーション開始命令が入力されると、制御部140はモーション認識モジュール130lを用いて、モーション開始命令を入力したユーザの手を追跡する。このとき、制御部140は、ユーザの手の形、色及び動きの少なくともいずれか一つを用いてユーザの手を追跡する。
そして、モーション入力部120を介して他のユーザの手でモーション開始命令が入力されるとしても、制御部140は、他のユーザの手によってモーションタスクを行わずに、最初にモーション開始命令を入力したユーザの手を追跡してモーションタスクを行う。
そして、モーション開始命令を入力したユーザからモーションタスクモードを解除するための命令が入力されるまでに、他のユーザによるモーション開始命令が入力されるとしても、制御部140は最初にモーション開始命令を入力したユーザによってモーションタスクを行う。
なお、モーションタスクモードは、モーション開始命令を入力したユーザの手と他のユーザの手が重なるとしても、モーション開始命令を入力したユーザの手に応じて前記モーションタスクを行うことができる。
なお、モーションタスクモードが片手を用いたモーション開始命令が入力された場合、モーション開始命令を入力したユーザ以外の他のユーザの片手を通じてモーション開始命令が入力されると、制御部140は、電子装置100のモードを両手を用いてモーションタスクを行う両手モーションタスクモードに切り替える。このとき、両手モーションタスクモードは、最初にモーション開始命令を入力したユーザの片手と他のユーザの片手を用いて行われてよい。
なお、モーション入力部120を介して複数のユーザによる複数のモーション開始命令が入力されると、制御部140は、複数のモーション開始命令のうち、最初に入力されたモーション開始命令を判断する。そして、最初に入力モーション開始命令が判断されると、制御部140は、電子装置100のモードを最初に入力されたモーション開始命令を入力したユーザのモーションに応じてモーションタスクを行うモーションタスクモードに切り替える。
このとき、モーションタスクモードは、最初にモーション開始命令を入力したユーザがモーションタスクモードを解除するまでに、最初にモーション開始命令を入力したユーザのモーションのみによってモーションタスクが行われてよい。そして、モーションタスクモードは、最初にモーション開始命令を入力したユーザを除く他のユーザからモーション開始命令が入力されるとしても維持されてよい。
図122は、本発明の一実施形態に係る複数のユーザを通じて複数のモーション開始命令が入力された場合、電子装置100の制御方法を説明するためのフローチャートである。まず、電子装置100は、モーション入力部120を介して複数のユーザによる複数のモーション開始命令が入力される(S12210)。このとき、モーション開始命令は、ユーザの手を複数回(例えば、3回ないし4回)振るシェイクモーションであってよい。
そして、電子装置100は、複数のモーション開始命令のうち、最初にモーション開始命令を判断する(S12220)。具体的に、電子装置100は、モーション開始命令の入力のために、使用したユーザの手の形、色及び動きを用いて最初に入力されたモーション開始命令を判断することができる。
そして、電子装置100は、最初にモーション開始命令を入力したユーザのモーションを用いてモーションタスクを行う(S12230)。具体的に、電子装置100が最初にモーション開始命令を判断すると、電子装置100は、電子装置100のモードを最初に入力されたモーション開始命令を入力したユーザのモーションに応じてモーションタスクを行うモーションタスクモードに切り替える。そして、電子装置100は、モーションタスクモードで最初にモーション開始命令を入力したユーザモーションを用いてモーションタスクを行う。
このとき、モーションタスクモードは、最初にモーション開始命令を入力したユーザがモーションタスクモードを解除するまでに、最初にモーション開始命令を入力したユーザのモーションのみによってモーションタスクが行われてよい。そして、モーションタスクモードは、最初にモーション開始命令を入力したユーザを除く他のユーザからモーション開始命令が入力されるとしても維持できる。
上述のように、最初に入力したモーション開始命令に応じてモーションタスクを行うことにより、他のユーザのモーションによる誤作動を防止できるようにする。
制御部140は、音声タスクを段階別に行われてよい。具体的に、音声入力部110を介してユーザの第1音声が入力されると、制御部140はユーザの第1音声に応答して少なくとも一つの音声タスクをガイドする第1メニューを映像の一領域にディスプレイすることができる。そして、音声入力部110を介してユーザの第2音声が入力されると、制御部140は少なくとも一つの音声タスクのうち、ユーザの第2音声に対応する音声タスクを行うことができる。
例えば、音声入力部110を介してチャネル変更のための命令語が入力された場合、制御部140は、チャネル変更をガイドする情報が含まれた第1メニューをディスプレイすることができる。そして、音声入力部110を介してチャネル識別子(例えば、チャネル番号、チャネル名及び番組名のいずれか一つ)に対応するユーザ音声が入力されると、制御部140はユーザ音声に対応するチャネルに変更することができる。
音声入力部110を介して番組名に対応するユーザ音声が入力されると、制御部140は、予め保存された番組ガイド(EPG)から音声入力部110を介して入力された番組名を検索し、検索の結果に応じて、入力された番組名が放映されるチャネルに変更されたり、視聴予約を行うことができる。
以下では、図123ないし図125を参照して、音声認識を段階別に行う一実施形態について説明する。
音声入力部110を介して音声開始命令が入力されると、制御部140は、電子装置100のモードを音声入力部110を介して入力されるユーザ音声によって制御される音声タスクモードに切り替える。そして、制御部140は、図123に示すような複数の音声アイテムが含まれた音声ガイド情報をディスプレイする。
音声ガイド情報をディスプレイし、音声入力部110を介してチャネル音声アイテム812に対応するユーザ音声(例えば、チャネル)が入力されると、制御部140は、音声ガイド情報を変更し、音声タスクの実行をガイドする第1メニューをディスプレイする。例えば、図124に示すように、制御部140はチャネル変更をガイドするための“チャネル名やチャネル番号を話してください。12410”をディスプレイすることができる。
そして、音声入力部110を介してチャネル番号、チャネル名及び放送番組名のいずれか一つに対応するユーザ音声が入力されると、制御部140は、ユーザ音声に対応するチャネルに切り替える。例えば、音声入力部110を介して“7”が入力されると、制御部140は、図125に示すように、7番チャネルに選局して、7番チャネルをディスプレイすることができる。
従って、上述のように、音声タスクを段階別に行うことにより、誤作動を防止できるようになる。具体的に、チャネル変更を望む場合、“チャネル”音声アイテムを一度選択した後、チャネルを変更することにより、ユーザの望まないチャネルに変更することを防止することができるようになる。
図126は、本発明の一実施形態に係る音声タスクを段階別に行う電子装置100の制御方法を説明するためのフローチャートである。まず、電子装置100は映像をディスプレイする(S12610)。このとき、映像には、音声ガイド情報がディスプレイされてよい。
そして、電子装置100は、音声入力部110を介して第1音声が入力される(S12620)。このとき、第1音声はディスプレイされた音声ガイド情報に含まれた複数の音声アイテムの一つに対応するユーザ音声であってよい。そして、電子装置100は、入力された第1音声に応答し、音声タスク実行をガイドする第1メニューをディスプレイする(S12630)。そして、電子装置100は、音声入力部110を介して第2音声が入力される(S12640)。このとき、第2音声は、特定音声タスクを行うための命令語である。
そして、電子装置100は、入力された第2音声に応答し、第2音声に対応する音声タスクを行う(S12650)。例えば、第2音声がチャネル名である場合、電子装置100は放送チャネルを第2音声に対応するチャネルに変更する。従って、上述のように、音声タスクを段階別に行うことにより、誤作動を防止できるようになる。
制御部140は、音声入力部110を介して入力されたユーザの音声に応じて音声タスクを行う音声タスクモードで、少なくとも一つの短縮アイコン及び各々に対応する短縮アイコンの名前をディスプレイする。そして、音声入力部110には、ユーザ音声が入力される。そして、少なくとも一つの短縮アイコンのうち、ディスプレイされた短縮アイコンの名前が短縮アイコンのフルネームの一部のみディスプレイされた第1短縮アイコンが存在する場合、入力されたユーザの音声が前記ディスプレイされた第1短縮アイコンの名前の一部と一致していると、制御部140は第1短縮アイコンを実行する。このとき、入力されたユーザの音声がディスプレイされた第1短縮アイコンに対する名前の一部を構成する複数の綴りと一致していると、制御部140は第1短縮アイコンを実行することができる。
なお、短縮アイコンのうち、短縮アイコンの名前に特殊文字が含まれた第2短縮アイコンが存在している場合、入力されたユーザの音声が前記第2短縮アイコン名前に含まれた特殊文字を除く発話可能な名前と一致していると、制御部140は第2短縮アイコンを実行することができる。ここで、特殊文字とは、ユーザによって発話不可な記号であってよい。例えば、特殊文字は、疑問符(?)、休止符(、)、終止符(。)であってよいが、それに限定されるものではない。
例えば、短縮アイコンの名前が、“顔認識、音声認識”というアプリケーションがある場合、制御部140は音声入力部110を介して“顔認識 音声認識”というユーザ音声が入力されると、“顔認識、音声認識”のアプリケーションを実行する。
一方、上述の実施形態においては、制御部140が短縮アイコンを実行するものとして説明したが、それは一実施形態に過ぎず、制御部140がハイパーリンクを実行することにも、本発明の技術的思想が適用されてよい。
以下では、図127及び図128を参照して、名前の一部がディスプレイされた短縮アイコン実行方法の一実施形態について説明する。
一方、制御部140は、ユーザの特定命令に応じてアプリケーションを実行するための複数の短縮アイコンを含むコンテンツリスト(例えば、スマートハブ)をディスプレイする。このとき、コンテンツリストに含まれた複数の短縮アイコンのうち、短縮アイコンの名前が予め設定された文字数を超過する場合、制御部140は短縮アイコンのフルネームの一部のみをディスプレイすることができる。例えば、コンテンツリストに含まれた複数の短縮アイコンのうち、短縮アイコンの名前が10文字を超える場合、制御部140は、“Exciting Drum”の短縮アプリケーションのフルネームをディスプレイせず、図127に示すように、“Exciting”のみをディスプレイすることができる。
コンテンツリストがディスプレイされ、音声入力部110を介して音声開始命令が入力されると、電子装置100は電子装置100のモードを音声入力部110を介して入力されたユーザ音声によって制御される音声タスクモードに切り替える。音声タスクモードに切り替わると、電子装置100は、図127に示すような音声ガイド情報をディスプレイする。
音声ガイド情報がディスプレイされ、音声入力部110を介してディスプレイされた名前の一部と一致している“Exciting”が発話された場合、制御部140は、図128に示すように、“Exciting Drum”のアプリケーションを実行する。
なお、音声ガイド情報がディスプレイされ、音声入力部110を介してディスプレイされた名前の一部を構成する複数の綴りである“E”、“X”、“C”、“I”、“T”、“I”、“N”、“G”が入力された場合、制御部140は、図128に示すように、“Exciting Drum”のアプリケーションを実行することができる。
図129は、本発明の一実施形態に係る名前の一部のみがディスプレイされた短縮アイコンの実行方法を説明するためのフローチャートである。まず、電子装置100は、音声入力部110を介して入力された音声開始命令に対応して電子装置100のモードを音声タスクモードに切り替える(S12910)。このとき、電子装置100はアプリケーションを実行するための複数の短縮アイコンを含むコンテンツリストをディスプレイする。
特に、電子装置100は、コンテンツリストに名前の一部がディスプレイされた短縮アイコンをディスプレイする(S12920)。それは、短縮アイコンの名前が予め設定された文字数を超過し、短縮アイコンのフルネームを同時にディスプレイできないためである。
電子装置100は、音声入力部110を介してユーザ音声が入力される(S12930)そして、電子装置100は、音声入力部110を介して入力されたユーザ音声がディスプレイされた名前の一部と一致しているか否かを判断する(S12940)。
音声入力部110を介して入力されたユーザ音声がディスプレイされた名前の一部と一致している短縮アイコンが存在している場合(S12940−Y)、電子装置100は当該短縮アイコンを実行する(S12950)。
一方、上述の実施形態では、電子装置100が短縮アイコンを実行させるものとして説明したが、それは一実施形態に過ぎず、電子装置100がハイパーリンクを実行させることにも、本発明の技術的思想が適用されてよい。従って、上述のように、ディスプレイされた名前の一部のみを発話することにより、当該アプリケーションまたはハイパーリンクを実行させることができるようになる。
制御部140は、モーションタスクモードで、モーション入力部120を介してユーザの第1モーション及びユーザの第2モーションのいずれか一つが入力されると、ユーザの第1モーション及びユーザの第2モーションのいずれか一つに対応して、アプリケーション実行画面を拡大したり縮小してディスプレイすることができる。このとき、アプリケーション提供画面が、画面拡大または画面縮小が可能であってよい。
具体的に、アプリケーションが実行された状態で、制御部140はモーション入力部120を介してモーション開始命令が入力されると、電子装置100のモードをモーションタスクモードに切り替える。そして、制御部140は、モーション入力部120を介してユーザの第1モーション及びユーザの第2モーションのいずれか一つが入力されると、ユーザの第1モーション及びユーザの第2モーションのうち、入力された一つを認識し、認識されたモーションに対応し、アプリケーション実行画面を拡大したり縮小することができる。このとき、ユーザの第1モーションは、ユーザの両手を広げるように移動するものであって、ユーザの第1モーションが認識されると、制御部140はアプリケーション実行画面を拡大してディスプレイすることができる。
なお、ユーザの第2モーションは、ユーザの両手を狭めるように移動するものであって、ユーザの第2モーションが認識されると、制御部140はアプリケーション実行画面を縮小してディスプレイすることができる。
なお、制御部140は、モーションタスクモードで、モーション入力部120を介してユーザの第3モーションが入力されると、入力されたユーザの第3モーションを認識し、ユーザの第3モーションに対応するアプリケーション実行画面を移動してディスプレイすることができる。このとき、ユーザの第3モーションは、グラブモーションが維持されたまま移動されるモーションであってよい。ここで、アプリケーション提供画面は、電子装置100のディスプレイ画面内で移動可能であってよい。
以下では、図130ないし図133を参照して、ウェブページで特殊なジェスチャーが入力される実施形態について説明する。
ウェブページがディスプレイされ、モーション入力部120を介してモーション開始命令が入力されると、制御部140は、図130に示すように、ウェブページの下段にモーションガイド情報をディスプレイすることができる。なお、モーションタスクモードに移行された場合、制御部130は、ディスプレイ画面の中央にポインター13000をディスプレイする。
モーションガイド情報がディスプレイされ、モーション入力部120を介して両手を用いたモーション開始命令が入力されると、制御部140は両手モーションタスクモードに移行する。
両手モーションタスクモードで、モーション入力部120を介して両手を広げるモーションが入力されると、制御部140は、図131に示すように、ウェブページ画面を拡大する。このとき、ウェブページ画面が拡大される際には、ポインターが除去されてよい。ウェブページが拡大されると、制御部120は、図132に示すように、ポインター13000を再びディスプレイする。
ポインター13000がディスプレイされ、モーション入力部120を介して片手を用いてグラブモーションをとった状態で移動されるモーションが入力されると、制御部140は、グラブモーションをとった状態で移動されるモーションに応じてディスプレイ画面を移動することができる。
例えば、モーション入力部120を介して片手を用いてグラムモーションをとった状態で右方へ移動されるモーションが入力されると、制御部140は、図133に示すように、ディスプレイ画面を右方へ移動してよい。
上述のようなユーザモーションを通じてユーザは、電子装置100のディスプレイ画面を移動したり、拡大/縮小できるようになる。
図134は、本発明の一実施形態に係る特殊ジェスチャーが入力された場合、電子装置100の制御方法を説明するためのフローチャートである。まず、電子装置100は、モーション入力部120を介してモーション開始命令が入力される(S13410)。
モーション開始命令が入力されると、電子装置100はモーション開始命令を認識し、電子装置100のモードをモーションタスクモードに切り替える(S13420)。モーションタスクモードに切り替わると、電子装置100はモーションタスクモードを行うためのポインター及びモーションガイド情報をディスプレイすることができる。
そして、電子装置100は、ユーザの操作に応じてアプリケーションを実行する(S13430)。そして、電子装置100は、モーション入力部120を介して特殊モーションが入力される(S13440)。このとき、特殊モーションは、ディスプレイ画面を拡大/縮小するための両手を用いたモーションまたはディスプレイ画面を移動するためのグラブモーションをとった状態で移動するモーションであってよい。
特殊モーションが入力されると、電子装置100は特殊モーションに対応するモーションタスクを行う(S13450)。例えば、両手を狭めるモーションが入力されると、電子装置100はディスプレイ画面を縮小するタスクを行い、両手を広げるモーションが入力されると、電子装置100はディスプレイ画面を拡大するタスクを行い、グラブモーションをとった状態で移動されるモーションが入力されると、電子装置100はディスプレイ画面を移動方向に沿って移動してディスプレイすることができる。従って、上述のようなモーションを通じて、ユーザはディスプレイ画面を移動したり、縮小/拡大できるようになる。
制御部140は、電子装置100に含まれた音声入力部110を介して音声開始命令が入力されてよく、電子装置100と連動する装置から音声開始命令が入力されてよい。このとき、電子装置100に含まれた音声入力部110を介して音声開始命令が入力された場合を遠距離音声認識といい、遠距離音声認識が行われる際には、図135に示すように、遠距離音声認識を報知するアイコン13510をディスプレイすることができる。
具体的に、電子装置100に含まれた音声入力部110から音声開始命令が入力されると、制御部140は電子装置100のモードを第1音声タスクモードに切り替える。このとき、第1音声タスクモードは、電子装置100に含まれた音声入力部110からユーザ音声が入力されると、入力されたユーザ音声に応じて音声タスクを行うモードである。第1音声タスクモードに切り替わると、制御部140は遠距離音声認識を報知するアイコン13510をディスプレイすることができる。
遠距離音声認識を報知するアイコンをディスプレイする場合、予め設定された時間の間、電子装置100に含まれた音声入力部110にユーザ音声が入力されなければ、制御部140は第1音声タスクモードを解除し、電子装置100のモードをリモコンによって制御されるリモコンモードに切り替えることができる。
なお、電子装置100と連動する装置から音声開始命令が入力された場合を近距離音声認識といい、近距離音声認識が行われる際には、図136に示すように、近距離音声認識を報知するアイコン13610をディスプレイすることができる。このとき、電子装置100と連動する装置は、リモコン及び携帯電話であってよいが、それに限定されるものではない。
ここで、電子装置100と連動する装置から入力された音声開始命令は、電子装置100と連動する装置に備えられた特定ボタン(音声タスクモード切替ボタン)に対応する信号及び電子装置100と連動する装置に備えられたマイクを通じて入力された特定ユーザ音声の一つであってよい。
電子装置100と連動する装置から入力された音声開始命令が入力されると、制御部140は、電子装置100のモードを第2音声タスクモードに切り替えることができる。このとき、第2音声タスクモードは、電子装置100と連動する装置に備えられたマイクを通じてユーザ音声が入力されると、入力されたユーザ音声に応じて音声タスクを行うモードである。第2音声タスクモードに切り替わると、制御部140は近距離音声認識を報知するアイコン13610をディスプレイすることができる。
近距離音声認識を報知するアイコンをディスプレイする場合、予め設定された時間の間、電子装置100と連動する装置に含まれたマイクにユーザ音声が入力されていなければ、制御部140は第2音声タスクモードを解除し、電子装置100のモードをリモコンによって制御されるリモコンモードに切り替えてよい。
図137は、本発明の一実施形態に係る音声入力方法に応じて異なるアイコンを提供する電子装置100の制御方法を説明するためのフローチャートである。まず、電子装置100は、電子装置100に備えられたマイク及びリモコンに備えられたマイクのいずれか一つから音声開始命令が入力される(S13710)。このとき、電子装置100に備えられたマイクから音声開始命令が入力されると、電子装置100は電子装置100のモードを遠距離音声タスクモードに切り替える。そして、リモコンに備えられたマイクから音声開始命令が入力されると、電子装置100は電子装置100のモードを近距離音声タスクモードに切り替える。
そして、電子装置100は、音声開始命令が入力された装置に応じてアイコンを異なるようにディスプレイする(S13720)。具体的に、電子装置100に備えられたマイクから音声開始命令が入力されると、電子装置100は遠距離音声タスクモードを表すアイコンをディスプレイし、リモコンに備えられたマイクから音声開始命令が入力されると、電子装置100は近距離音声タスクモードを表すアイコンをディスプレイしてよい。
上述のように、音声開始命令が入力される装置に応じて音声タスクモードを区分することができ、音声タスクモードに応じて異なるアイコンをディスプレイすることにより、ユーザが現在何の装置を通じて音声タスクモードを行うべきかが分かるようになる。
制御部140は、より正確な音声認識のために、音声認識を行った後、認識された音声認識に対応するテキストを修正するためのテキスト入力修正メニュー(例えば、IME(Input Method Editor))をディスプレイする。
例えば、音声入力部110を介して音声開始命令が入力されると、制御部140は、音声入力部110を介して入力されたユーザ音声によって制御される音声タスクを行うための音声ガイド情報をディスプレイする。そして、文字入力が要求されるタスクを行うための第1ユーザ音声が入力されると、制御部140は、文字入力のためのテキスト入力ウィンドウをディスプレイする。このとき、文字入力が要求されるタスクは、ウェブページ検索であってよいが、それに限定されるものではない。
そして、テキスト入力ウィンドウにテキストを入力するための第2ユーザ音声が入力されると、制御部140は、入力された第2ユーザ音声に対応するテキストをテキスト入力ウィンドウにディスプレイし、文字入力メニューをディスプレイすることができる。このとき、制御部140は、ユーザ音声が認識される間、それまでディスプレイされていた画面をディスプレイし、テキスト入力ウィンドウにテキストを入力するための第2ユーザ音声を認識した後、テキスト入力ウィンドウにテキストをディスプレイする。そして、制御部140は、文字入力メニューをディスプレイすることができる。
このとき、制御部140は、テキスト入力ウィンドウに入力されたテキストを含む候補群検索ワードが複数存在する場合、文字入力メニューに候補群検索ワードリストをオーバーラップしてディスプレイすることができる。
なお、テキスト入力ウィンドウのテキスト入力が完了しているか、前記テキスト入力ウィンドウのテキスト入力を取り消す場合、制御部140は、ディスプレイ画面に文字入力メニューを除去することができる。
以下では、図138ないし図141を参照して、文字入力メニューをディスプレイする実施形態について説明する。
まず、ウェブページがディスプレイされた状態で、音声入力部110を介して音声開始命令が入力されると、制御部140は、図138に示すように、音声ガイド情報をディスプレイする。そして、音声入力部110を介して“検索”音声アイテムに対応するユーザ音声(例えば、検索)が入力されると、制御部110はテキスト入力ウィンドウ13910をディスプレイする。
そして、テキスト入力ウィンドウ13910にテキストを入力するためのユーザ音声(例えば、“(公序良俗違反につき、不掲載)”)が入力されると、制御部140は、ユーザ音声を認識し、テキスト入力ウィンドウ13910に認識されたユーザ音声をディスプレイする。即ち、制御部140は、図139に示すように、テキスト入力ウィンドウ13910に“(公序良俗違反につき、不掲載)”を入力してディスプレイする。
テキスト入力ウィンドウ13910に“(公序良俗違反につき、不掲載)”が入力されると、制御部140は、図140に示すように、文字入力メニュー13920をテキスト入力ウィンドウの一側にディスプレイする。このとき、文字入力メニューは、テキスト入力ウィンドウに入力されたテキストが正確でない場合、それを修正するためのメニューである。
ここで、テキスト入力ウィンドウ13910に入力された“(公序良俗違反につき、不掲載)”を含む候補群検索ワードが複数存在する場合、制御部140は、候補群検索ワードリスト13930をディスプレイする。例えば、“(公序良俗違反につき、不掲載)”を含む候補群検索ワードが“(公序良俗違反につき、不掲載)”、“(公序良俗違反につき、不掲載) 株式”、“(公序良俗違反につき、不掲載) お知らせ”が含まれている場合、制御部140は、図141に示すような候補群検索ワードリスト13930をディスプレイすることができる。
図142は、本発明の一実施形態に係る文字入力メニュー(IME)を表示する電子装置の制御方法を説明するためのフローチャートである。まず、電子装置100は、音声入力部110を介して音声開始命令が入力される(S14210)。このとき、電子装置100は、複数の短縮アイコンを含むコンテンツリスト及び複数のハイパーリンクを含むウェブページをディスプレイすることができる。
音声開始命令が入力されると、電子装置100は、電子装置100のモードを音声タスクモードに切り替え、音声タスクモードを行うための音声ガイド情報をディスプレイする(S14220)。そして、電子装置100は、音声入力部110を介して検索を行うためのユーザ音声が入力される(S14230)。そして、電子装置100は、検索を行うためにテキスト入力ウィンドウをディスプレイする(S14240)。
テキスト入力ウィンドウがディスプレイされると、電子装置100には音声入力部110を介してテキスト入力ウィンドウにテキストを入力するためのユーザ音声が入力される(S14250)。テキスト入力のためのユーザ音声が入力されると、電子装置100にはテキスト入力ウィンドウに入力されたユーザ音声に対応するテキストが入力される(S14260)。
テキスト入力ウィンドウにテキストが入力されると、電子装置100は文字入力メニューをディスプレイする(S14270)。このとき、文字入力メニューは、音声認識が不正確な場合、テキスト入力ウィンドウに入力されたテキストを修正するためのメニューである。従って、音声入力部110に入力されたユーザ音声が完璧に認識できていない場合、ユーザは文字入力メニューを用いて、不正確な音声認識を補完することができるようになる。
制御部140は、外部機器を用いて、音声認識を行うことができる。具体的に、音声入力部110を介して音声開始命令が入力されると、制御部140は、電子装置100と連動する装置(例えば、リモコン)を通じて入力されたユーザ音声によって行われる音声タスクをガイドする音声ガイド情報をディスプレイする。そして、電子装置100と連動する外部装置に含まれた第1音声入力ボタンが選択される場合、制御部140は、音声ガイド情報に音声検索をガイドする第1ガイド語句をディスプレイする。例えば、“音声検索ボタンを押し、音声を入力してください”というガイド語句がディスプレイされてよい。
そして、制御部140は、外部装置に含まれた第2音声入力ボタンが選択される間、音声入力部110を介して入力されたユーザ音声を認識する。このとき、音声入力部110は、外部装置のマイクに入力されたユーザ音声を受信し、制御部140に伝達する。このとき、制御部140は、音声ガイド情報に音声入力部110を介してユーザ音声が入力されているという情報を含む第2ガイド語句をディスプレイすることができる。例えば、“ユーザ音声を認識しています”というガイド語句がディスプレイされてよい。そして、制御部140は、認識されたユーザ音声をテキスト入力ウィンドウにテキストで入力することができる。なお、制御部140は、認識されたユーザ音声に対応する音声タスクを行うことができる。
なお、第2音声入力ボタンの選択が解除されると、制御部140は、音声ガイド情報にユーザ音声の入力が完了しているか否かを確認する第3ガイド語句をディスプレイすることができる。ここで、第3ガイド語句には、ユーザ音声の入力を続けるか否か、入力されたユーザ音声を完了しているか否か、及び入力されたユーザ音声を取り消すか否かを問うメッセージが含まれてよい。
なお、第3ガイド語句がディスプレイされる間、第2音声入力ボタンが再び選択されてユーザ音声が入力されると、制御部140は、入力されたユーザ音声を、それまで認識されていたユーザ音声として認識し続けることができる。例えば、それまで認識されていたユーザ音声が“(公序良俗違反につき、不掲載)”であり、第2音声入力ボタンが再び選択されて“電子”というユーザ音声が入力されると、制御部140はテキスト入力ウィンドウに“(公序良俗違反につき、不掲載)”を入力するようになる。このとき、第1音声入力ボタンは音声入力ボタンであり、第2音声入力ボタンは音声検索ボタンとして相違するボタンであってよいが、同じボタンで実現されてよい。
図143は、本発明の一実施形態に係る外部機器を用いた音声タスク実行方法を説明するためのフローチャートである。まず、電子装置100は、音声タスクモードを行うための音声ガイド情報をディスプレイする(S14310)。そして、ユーザによって、外部機器は音声入力ボタンを選択する(S14320)。音声入力ボタンが選択されると、電子装置100は第1ガイド語句をディスプレイする(S14330)。このとき、第1ガイド語句は、音声ガイド情報に音声検索をガイドするUIである。
そして、外部機器に音声検索ボタンが選択される間、電子装置100は音声入力部110を介してユーザ音声が入力される(S14340)。このとき、音声入力部110は、外部機器から入力されたユーザ音声を受信する通信部であってよい。そして、電子装置100は、音声入力部110を介して入力されたユーザ音声を音声認識モジュール130kを用いて認識する(S14350)。
一方、上述の実施形態において、音声入力ボタンと音声検索ボタンとは同じボタンで実現されてよい。
上述のように、外部機器の音声検索ボタンが選択される間、音声が入力されることにより、ユーザが望まない音声認識を防止できるようになる。
制御部140は、ディスプレイ画面に発話可能な名称が表示された場合、名称を抽出して区別できるように表示する。そして、名称が音声入力部110を介して入力された場合、制御部140は名称と対応する音声タスクを行う。具体的に、音声入力部110を介して音声開始命令が入力されると、制御部140は入力された音声開始命令に対応し、電子装置100のモードを音声タスクを行うための音声タスクモードに切り替え、音声タスクモードを行うための音声ガイド情報をディスプレイする。
そして、音声タスクモードで、制御部140はディスプレイ画面から選択可能なアイテムのテキストを抽出する。このとき、ディスプレイ画面はアプリケーションを実行させるための複数の短縮アイコンが含まれたコンテンツリストまたはウェブページがディスプレイされてよい。なお、選択可能なアイテムはアプリケーションを実行するためのコンテンツリストに含まれた短縮アイコン及びウェブページに含まれたハイパーリンクのいずれか一つであってよい。ここで、アイテムの名前テキストが予め設定された文字数を超過する場合、制御部140は、アイテムの名前テキストの全体のうち、予め設定された文字数以下のテキストのみを抽出してディスプレイすることができる。
なお、制御部140は、テキストが抽出されたアイテムをテキストが抽出されていない他のアイテムと区別できるようにディスプレイしてよい。そして、音声入力部110を介して入力されたユーザ音声が抽出されたテキストと一致している場合、制御部140はテキストに対応するアイテムを実行する。ここで、音声入力部110を介して入力されたユーザ音声が抽出された予め設定された文字数以下のテキストと一致している場合、制御部140は、予め設定された文字数以下のテキストに対応するアイテムを実行することができる。
以下では、図144及び図145を参照して、ディスプレイ画面に発話可能な命令語が表示された場合の一実施形態について説明する。
制御部140は、音声入力部110を介して入力された音声開始命令に応答し、電子装置100のモードを音声タスクモードに切り替える。このとき、制御部140は、ディスプレイ画面の下段に音声ガイド情報をディスプレイする。そして、音声入力部110を介して“スマートハブ”が入力されると、制御部140は、図144に示すように、アプリケーションを実行するための複数の短縮アイコンを含むコンテンツリストを生成してディスプレイする。
そして、制御部140は、複数の短縮アイコンの名前を抽出する。このとき、図144に示すように、短縮アイコンの名前が抽出された場合、制御部140は、短縮アイコンの名前に下線を引き、短縮アイコンの名前(例えば、APP10、APP11)が抽出されていない場合、制御部140は短縮アイコンの名前に下線を引かない。
そして、短縮アイコンの名前が予め設定された名前を超過している場合、制御部140は、短縮アイコンの名前の一部を抽出してディスプレイする。例えば、図144に示すように、短縮アイコンの名前がExciting Drumである場合、制御部140は、短縮アイコンの名前の一部である“Exciting”のみが抽出されてディスプレイされてよい。このとき、“
Exciting”が名前の一部であることを示すため、制御部140は“Exciting”の後に“...”という表示をつけることができる。
抽出された短縮アイコンの名前がディスプレイされ、音声入力部110を介してディスプレイされた短縮アイコンの名前が入力されると、制御部140は当該短縮アイコンを実行する。例えば、音声入力部110を介して“Exciting”が入力されると、制御部140は、図145に示すように、“
Exciting Drum”アプリケーションを実行できるようになる。
図146は、本発明の一実施形態に係るディスプレイ画面に発話可能な命令語が表示された場合、音声タスクを行う方法を説明するためのフローチャートである。まず、電子装置100は、音声入力部110を介して音声開始命令が入力される(S14610)。そして、電子装置100は、音声入力部110を介して入力された音声開始命令に応答し、電子装置100のモードを音声タスクモードに切り替える(S14620)。そして、電子装置100は、音声タスクモードを行うための音声ガイド情報をディスプレイ画面の下段にディスプレイする(S14630)。そして、電子装置100は、ディスプレイ画面に含まれたアイテムのテキストを抽出する(S14640)。このとき、アイテムは、コンテンツリストに含まれた短縮アイコンの名前またはウェブページに含まれたハイパーリンクのテキストであってよい。
そして、電子装置100は、音声入力部110を介してユーザ音声が入力される(S14650)。そして、電子装置100は、音声入力部110を介して入力されたユーザ音声と一致しているテキストを有するアイテムがある場合、当該アイテムを実行する(S14660)。このとき、テキストの名前の一部のみがディスプレイされた場合、制御部140は、テキストの名前の一部と一致しているユーザ音声が入力された場合にも、当該アイテムを実行することができる。
上述のように、テキスト名称を抽出して区別できるように表示することにより、ユーザはより容易に音声認識を利用できるようになる。
制御部140は、音声入力部110を介してユーザ音声が入力されると途中に入力されたユーザ音声が含まれたテキストを有するハイパーリンクが一つのみ存在している場合、テキストに対応するハイパーリンクを実行することができる。具体的に、音声入力部110を介して音声開始命令が入力されると、制御部140は音声開始命令に応答し、電子装置100のモードを音声入力部110を介して入力されるユーザ音声によって制御される音声タスクモードに切り替える。
音声タスクモードで、制御部140は複数のハイパーリンクを含むウェブページから複数のハイパーリンクのテキストを抽出する。テキストを抽出した後、制御部140は抽出されたテキストを抽出できていないテキストと区別できるように表示することができる。例えば、制御部140は、抽出されたテキストに下線を引いたり、太く表示したり、ハイライトして表示することができる。
そして、音声入力部110を介してユーザ音声が入力される途中に入力されたユーザ音声が含まれたテキストを有するハイパーリンクが一つのみ存在している場合、制御部140はテキストに対応するハイパーリンクを実行することができる。例えば、音声入力部110を介して入力されたユーザ音声が“(公序良俗違反につき、不掲載)”であり、ハイパーリンクから抽出されたテキストが“(公序良俗違反につき、不掲載)”一つである場合、制御部140は、“(公序良俗違反につき、不掲載)”のテキストを有するハイパーリンクを実行することができる。
このとき、音声入力部110を介してユーザ音声が入力される途中に入力されたユーザ音声とテキストの全体ではない一部が一致しているハイパーリンクが一つのみ存在する場合、制御部140はテキストに対応するハイパーリンクを実行することができる。
一方、上述の実施形態において、ウェブページに含まれたハイパーリンクを実行する方法について説明したが、それは一実施形態に過ぎず、コンテンツリストに含まれたアプリケーションを実行するための短縮アイコンを実施する方法にも、本発明の技術的思想が適用されてよい。
図147は、本発明の一実施形態に係る自動音声認識方法を説明するためのフローチャートである。まず、電子装置100は、音声入力部110を介して音声開始命令が入力される(S14710)。そして、電子装置100は、音声入力部110を介して入力された音声開始命令に応答し、電子装置100のモードを音声タスクモードに切り替える(S14720)。そして、電子装置100のディスプレイ画面にハイパーリンクが含まれた場合、電子装置100はハイパーリンクのテキストを抽出する(S14730)。
そして、電子装置100には、音声入力部110を介してユーザ音声が入力される。ユーザ音声の入力途中に入力されたユーザ音声と一致しているテキストを含むハイパーリンクが一つである場合、電子装置100は当該ハイパーリンクを実行する(S14740)。このとき、ユーザ音声と一致しているテキストは、ハイパーリンクの全テキストであってよいが、それは一実施形態に過ぎず、ハイパーリンクのテキストの一部であってよい。
上述のように、ユーザ音声と一致するテキストが一つしかない場合、当該ハイパーリンクが自動的に実行されることにより、ユーザは音声認識を用いてより容易にハイパーリンクを実行させることができるようになる。
制御部140は、入力されたユーザ音声を認識し、認識されたユーザ音声と一致しているテキストを有するハイパーリンクが複数存在する場合、認識されたユーザ音声と一致しているテキストを有するハイパーリンクを含む候補群リストをディスプレイする。具体的に、音声入力部110を介して音声開始命令が入力されると、制御部140は、音声開始命令に応答し、音声入力部110を介して電子装置100のモードを入力されるユーザ音声によって制御される音声タスクモードに切り替える。このとき、ディスプレイ画面には、複数のハイパーリンクを含むウェブページがディスプレイされる。
制御部140は、ウェブページに含まれた複数のハイパーリンクに含まれたテキストを抽出する。このとき、制御部140は、抽出されたテキストを抽出されていないテキストと区別できるように表示することができる。例えば、制御部140は、抽出されたテキストに下線を引いたり、太く表示したり、ハイライトさせて表示することができる。
そして、音声入力部110を介してユーザ音声が入力されると、制御部140は入力されたユーザ音声を認識し、認識されたユーザ音声と一致しているテキストを有するハイパーリンクが複数存在する場合、認識されたユーザ音声と一致しているテキストを有するハイパーリンクを含む候補群リストをディスプレイする。例えば、音声入力部110に入力されたユーザ音声が“(公序良俗違反につき、不掲載)”である場合、制御部140はテキストに“(公序良俗違反につき、不掲載)”が含まれたテキストを有するハイパーリンクが含まれた候補群リストを生成することができる。
このとき、音声入力部110を介してユーザ音声が再入力されると、制御部140は、再入力されたユーザ音声を認識し、再入力されたユーザ音声を反映して候補群リストを変更することができる。例えば、“(公序良俗違反につき、不掲載)”が認識され、“株式”が再入力された場合、制御部140はテキストに“(公序良俗違反につき、不掲載) 株式”が含まれたテキストを有するハイパーリンクのみが含まれるように、候補群リストを変更することができる。そして、音声タスクモードが解除されると、制御部140は、候補群リストをディスプレイ画面から除去することができる。
図148は、本発明の一実施形態に係る候補群リストをディスプレイする方法を説明するためのフローチャートである。まず、電子装置100には、音声入力部110を介して音声開始命令が入力される(S14810)。そして、電子装置100は、音声入力部110を介して入力された音声開始命令に応答し、音声タスクモードに切り替える(S14820)。そして、電子装置100は、ユーザの操作に応じてディスプレイ画面にウェブページをディスプレイする(S14830)。このとき、ウェブページ画面には、複数のハイパーリンクが含まれる。
そして、電子装置100は、ウェブページに含まれたハイパーリンクのテキストを抽出する(S14840)。そして、電子装置100には、音声入力部110を介してユーザ音声が入力される(S14850)。そして、電子装置100は、ユーザ音声と一致しているテキストを有するハイパーリンクが一つであるか否かを判断する(S14860)。ユーザ音声と一致しているテキストを有するハイパーリンクが一つである場合(S14860−Y)、制御部140は当該ハイパーリンクを実行する(S14870)。
しかし、ユーザ音声と一致しているテキストを有するハイパーリンクが複数である場合(S14860−N)、制御部140は複数のハイパーリンクが含まれた候補群リストを生成してディスプレイする(S14880)。そして、制御部140は、ユーザの操作に応じてハイパーリンクを選択(例えば、ハイパーリンクのテキストを音声で入力)し(S14890)、選択されたハイパーリンクを実行する(S14870)。
上述のように、候補群リストを生成することにより、ユーザ音声と一致しているハイパーリンクが複数であるとしても、ユーザは候補群リストを通じて自分の望むハイパーリンクを実行させることができるようになる。
制御部140は、音声入力部110を介して入力されたユーザ音声の大きさが予め設定された大きさより小さい場合、音声ガイド情報の第1領域にユーザ音声を認識できないというフィードバックUIをディスプレイすることができる。具体的に、音声入力部110を介して音声開始命令が入力されると、制御部140は音声開始命令に応答し、音声入力部110を介して入力されるユーザ音声によって制御される音声タスクモードに切り替えてよい。
音声タスクモードで、音声入力部110を介して入力されたユーザ音声によって行われる音声タスクをガイドする音声ガイド情報をディスプレイする。このとき、音声ガイド情報はディスプレイ画面の下段にディスプレイされてよい。
そして、音声入力部110には、ユーザ音声が入力される。音声入力部110を介して入力されたユーザ音声の大きさが予め設定された大きさより小さい場合、制御部140は音声ガイド情報の第1領域のユーザ音声を認識できないというフィードバックUIをディスプレイする。このとき、フィードバックUIは予め設定された大きさ及び音声入力部110を介して入力されたユーザ音声の大きさをバー形態で表現したGUIを含んでよい。ここで、第1領域は、音声ガイド情報の下段であってよい。
なお、制御部140は、音声ガイド情報に予め設定された大きさ以上のユーザ音声が入力されるべきとするメッセージとともにディスプレイしてよい。例えば、“より大きい声で話してください”というメッセージがディスプレイされてよい。
図149は、本発明の一実施形態に係る音声認識エラーをガイドするためのUIを説明するためのフローチャートである。まず、電子装置100には、音声入力部110を介して音声開始命令が入力される(S14910)。そして、電子装置100は、音声入力部110を介して入力された音声開始命令に応答し、電子装置100のモードを音声タスクモードに切り替える(S14920)。そして、電子装置100は、音声タスクモードを行うための音声ガイド情報をディスプレイ画面の下段にディスプレイする(S14930)。
そして、電子装置100には、音声入力部110を介してユーザ音声が入力される(S14940)。そして、音声入力部110を介して入力されたユーザ音声の大きさが予め設定された大きさより小さい場合、電子装置100はフィードバックUIをディスプレイする(S14950)。このとき、フィードバックUIは、ユーザの音声が予め設定された大きさより小さく、音声認識ができないというメッセージ及びより大きく発話せよというメッセージが含まれたUIであってよい。
上述のように、ユーザの声が小さく音声認識ができない場合、電子装置100がそれをユーザに知らせることにより、ユーザは音声認識ができない理由を認知して、それを容易に解決することができるようになる。
上述のような電子装置100を通じて、ユーザは、ユーザの音声またはユーザのモーションのいずれか一つを通じて電子装置をより効率的かつ直観的に制御できるようになる。
一方、上述の様々な実施形態において、音声入力部110は、直接ユーザの音声が入力されるマイクで実現されてよく、または、マイクから入力された音声信号が伝達されるインターフェースで実現されてよい。同様に、モーション入力部120は、ユーザを直接撮像するカメラで実現されてよく、カメラで撮像したデータが伝達されるインターフェースで実現されてよい。
一方、上述の電子装置100は、テレビで実現されてよいが、それに限定されずに、セットトップボックス、パソコン、ラップトップパソコン、デジタルフォトフレーム、電子書籍、PDA及び携帯電話等のような多様な装置で実現されてよい。
一方、上述の図3においては、保存部130内に各種ソフトフェアモジュールが保存された状態について説明したが、それらソフトウェアモジュールは、必ずしも一つの保存部130に保存されるものではない。
即ち、実施形態によって、音声認識モジュール及びモーション認識モジュールは、それぞれ別途の保存ユニットに保存されてよい。それにより、音声認識モジュールは、マイクから入力された音声信号からユーザ音声を認識し、認識の結果を制御部140に提供することができる。なお、モーション認識モジュールは、カメラで撮像した映像信号を用いてユーザのモーションを認識した後、認識結果を制御部140に提供することもできる。
または、このような音声認識モジュール及びモーション認識モジュールは、それぞれ別個の外部装置に保存されていてよい。例えば、マイクに備えられた音声認識装置で音声認識モジュールを用いてユーザの音声を認識した後、その認識結果を電子装置100に伝送してよい。同様に、カメラを備えたモーション認識装置でモーション認識モジュールを用いてユーザのモーションを認識し、その認識結果を電子装置100に伝送してよい。
なお、以上のような多様な実施形態に係る制御方法を行うためのプログラムコードは、多様な類型の記録媒体に保存されてよい。具体的には、RAM(Random Access Memory)、フラッシュメモリ、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electronically Erasable and Programmable ROM)、レジスタ、ハードディスク、リムーバブルディスク、メモリカード、USBメモリ、CD−ROM等のように、端末機で読み取り可能な多様な類型の記録媒体に保存されていてよい。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明は以上の実施形態に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的趣旨の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。

Claims (15)

  1. 音声認識及びジェスチャー認識が可能な電子装置のUI提供方法において、
    音声開始命令を認識するステップと、
    前記認識された音声開始命令に応答し、音声認識が可能な命令語セットを前記電子装置のディスプレイ画面に表示するステップと、
    第1命令語セットの第1命令語に対応する第1命令語音声(Voice)を認識するステップと、
    前記第1命令語音声に応答し、前記ディスプレイ画面に音声認識を通じて制御可能な第1アプリケーションの第1短縮アイコンを、音声認識を通じて制御不可な第2アプリケーションの第2短縮アイコンと区別できるように表示するステップと
    を含む電子装置のUI提供方法。
  2. 前記第1短縮アイコンは、前記第1アプリケーションのオリジナル短縮アイコンと前記オリジナル短縮アイコンの一側に表示される追加(Additioanal)アイコンとの結合(Combination)であることを特徴とする請求項1に記載の電子装置のUI提供方法。
  3. 前記第1短縮アイコンの名前は、前記第2短縮アイコンの名前と区別できるように表示されることを特徴とする請求項1に記載の電子装置のUI提供方法。
  4. 音声認識を通じて前記第1アプリケーションが制御されると、前記第1短縮アイコンが前記第2短縮アイコンと区別できるように表示されるステップを更に含むことを特徴とする請求項1に記載の電子装置のUI提供方法。
  5. 前記認識された音声開始命令に応答し、前記ディスプレイ画面の一側に第1フィードバック(Feedback)を表示するステップを更に含むことを特徴とする請求項1に記載の電子装置のUI提供方法。
  6. 前記UIに表示される前記第1短縮アイコンの名前に対応する第2命令語音声を認識するステップを更に含み、
    前記第1短縮アイコンの名前は前記第1短縮アイコンの一側に表示されることを特徴とする請求項1に記載の電子装置のUI提供方法。
  7. 前記第2命令語音声に応答し、前記第1アプリケーションが前記ディスプレイ画面に表示されるステップを更に含むことを特徴とする請求項6に記載の電子装置のUI提供方法。
  8. 前記第2命令語音声を受信して認識するステップにおいて、
    前記第2命令語音声に対応するアプリケーションが複数であれば、前記UIの一側に前記複数のアプリケーションに対応するアプリケーションのリストが表示されることを特徴とする請求項6に記載の電子装置のUI提供方法。
  9. 前記UIには、音声認識を通じて制御可能な第3アプリケーションの第3短縮アイコン及び前記第3短縮アイコンの一側には前記第3短縮アイコンの名前が表示され、
    前記第3短縮アイコンの名前が定められた長さより長ければ、前記第3短縮アイコンの名前の一部のみ表示されることを特徴とする請求項1に記載の電子装置のUI提供方法。
  10. 前記第3短縮アイコンの名前の一部に対応する第3命令語音声を認識するステップを更に含み、
    前記第3命令語音声に応答し、前記第3アプリケーションが前記ディスプレイ画面に表示されることを特徴とする請求項9に記載の電子装置のUI提供方法。
  11. 前記命令語セットは復帰(Return)を含み、
    復帰に対応する第4命令語音声を認識すると、前記第4命令語音声に応答して前記UIが表示される前に(Previous)復帰することを特徴とする請求項1に記載の電子装置のUI提供方法。
  12. 受信される放送信号に対応する映像、音声、制御データは、前記ディスプレイ画面及びスピーカーを通じて出力されるステップを更に含むことを特徴とする請求項1に記載の電子装置のUI提供方法。
  13. モーション開始命令を認識するステップと、
    前記認識されたモーション開始命令に応答し、モーション認識を通じて制御可能なモーションセットを前記ディスプレイ画面に表示するステップと、
    前記第1短縮アイコンを前記第2短縮アイコンと同様の方式で表示するステップと
    を更に含むことを特徴とする請求項1に記載の電子装置のUI提供方法。
  14. 前記認識されたモーション開始命令に応答し、前記ディスプレイ画面の一側に第2フィードバックを表示するステップを更に含むことを特徴とする請求項13に記載の電子装置のUI提供方法。
  15. 音声認識及びジェスチャー認識が可能な電子装置において、
    ディスプレイ部と、
    音声を受信する音声入力部と、
    前記ディスプレイ部及び前記音声入力部を制御する制御部と
    を含み、
    前記制御部は、
    前記音声入力部を介して受信された音声開始命令を認識して音声認識を通じて制御可能な命令語セットを前記ディスプレイ部に表示し、
    前記音声入力部を介して受信された第1命令語音声を認識し、前記ディスプレイ部に音声認識を通じて制御可能な第1アプリケーションの第1短縮アイコンを含むUIを表示するように制御し、
    前記UIには前記第1短縮アイコンと音声認識を通じて制御不可な第2アプリケーションの第2短縮アイコンとを区別できるように表示される電子装置。
JP2012173307A 2011-08-05 2012-08-03 電子装置及びその制御方法 Expired - Fee Related JP6111030B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201161515459P 2011-08-05 2011-08-05
US61/515,459 2011-08-05
KR1020110114197A KR20130016024A (ko) 2011-08-05 2011-11-03 전자 장치 및 전자 장치의 ui 제공방법
KR10-2011-0114197 2011-11-03

Publications (2)

Publication Number Publication Date
JP2013041580A true JP2013041580A (ja) 2013-02-28
JP6111030B2 JP6111030B2 (ja) 2017-04-05

Family

ID=46601706

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012173307A Expired - Fee Related JP6111030B2 (ja) 2011-08-05 2012-08-03 電子装置及びその制御方法

Country Status (4)

Country Link
US (1) US20130035942A1 (ja)
EP (1) EP2555537B1 (ja)
JP (1) JP6111030B2 (ja)
WO (1) WO2013022218A2 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016009199A (ja) * 2014-06-20 2016-01-18 Necパーソナルコンピュータ株式会社 情報処理装置
WO2016063564A1 (ja) * 2014-10-24 2016-04-28 株式会社ソニー・コンピュータエンタテインメント 制御装置、制御方法、プログラム及び情報記憶媒体
JP2016531340A (ja) * 2013-07-02 2016-10-06 ジャン,ホンミン モバイル操作システム
JP2018120627A (ja) * 2013-10-04 2018-08-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 端末及び端末の制御方法
WO2019087495A1 (ja) * 2017-10-30 2019-05-09 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US10339928B2 (en) 2014-10-24 2019-07-02 Sony Interactive Entertainment Inc. Control device, control method, program and information storage medium
JP2019193134A (ja) * 2018-04-26 2019-10-31 シャープ株式会社 表示装置、テレビ受信装置及び表示方法
JP2021077142A (ja) * 2019-11-11 2021-05-20 株式会社ブイキューブ 情報処理装置、情報処理方法及びプログラム
JP2022508176A (ja) * 2018-11-23 2022-01-19 華為技術有限公司 音声制御方法及び電子装置

Families Citing this family (164)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US10002189B2 (en) 2007-12-20 2018-06-19 Apple Inc. Method and apparatus for searching using an active ontology
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US20120309363A1 (en) 2011-06-03 2012-12-06 Apple Inc. Triggering notifications associated with tasks items that represent tasks to perform
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
WO2013022222A2 (en) * 2011-08-05 2013-02-14 Samsung Electronics Co., Ltd. Method for controlling electronic apparatus based on motion recognition, and electronic apparatus applying the same
EP2986014A1 (en) 2011-08-05 2016-02-17 Samsung Electronics Co., Ltd. Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same
US20130211843A1 (en) * 2012-02-13 2013-08-15 Qualcomm Incorporated Engagement-dependent gesture recognition
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
USD757057S1 (en) * 2012-11-30 2016-05-24 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
KR101732137B1 (ko) * 2013-01-07 2017-05-02 삼성전자주식회사 원격 제어 장치 및 전력 제어 방법
KR102118209B1 (ko) 2013-02-07 2020-06-02 애플 인크. 디지털 어시스턴트를 위한 음성 트리거
USD747743S1 (en) * 2013-02-23 2016-01-19 Samsung Electronics Co., Ltd. Display screen or portion thereof with icon
USD737326S1 (en) * 2013-02-23 2015-08-25 Samsung Electronics Co., Ltd. Display screen or portion thereof with icon
USD748148S1 (en) * 2013-02-23 2016-01-26 Samsung Electronics Co., Ltd. Display screen or portion thereof with icon
USD736255S1 (en) * 2013-02-23 2015-08-11 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
USD757054S1 (en) * 2013-03-13 2016-05-24 Jpmorgan Chase Bank, N.A. Display screen or portion thereof with graphical user interface
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
JP2014203208A (ja) * 2013-04-03 2014-10-27 ソニー株式会社 情報処理装置、情報処理方法及びコンピュータプログラム
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
USD738889S1 (en) * 2013-06-09 2015-09-15 Apple Inc. Display screen or portion thereof with animated graphical user interface
CN110442699A (zh) 2013-06-09 2019-11-12 苹果公司 操作数字助理的方法、计算机可读介质、电子设备和系统
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
US8938760B1 (en) * 2013-08-01 2015-01-20 Browan Communications Inc. Television box and method for controlling display to display audio/video information
US20150089002A1 (en) * 2013-09-26 2015-03-26 Kabushiki Kaisha Toshiba Electronic apparatus
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
KR102092164B1 (ko) 2013-12-27 2020-03-23 삼성전자주식회사 디스플레이 장치, 서버 장치 및 이들을 포함하는 디스플레이 시스템과 그 컨텐츠 제공 방법들
KR102171817B1 (ko) * 2014-03-14 2020-10-29 삼성전자주식회사 디스플레이 장치 및 제어 방법
CN103885596B (zh) * 2014-03-24 2017-05-24 联想(北京)有限公司 一种信息处理方法及电子设备
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
TWI566107B (zh) 2014-05-30 2017-01-11 蘋果公司 用於處理多部分語音命令之方法、非暫時性電腦可讀儲存媒體及電子裝置
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
KR102301880B1 (ko) * 2014-10-14 2021-09-14 삼성전자 주식회사 전자 장치 및 이의 음성 대화 방법
US10152299B2 (en) 2015-03-06 2018-12-11 Apple Inc. Reducing response latency of intelligent automated assistants
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10200824B2 (en) 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US11227589B2 (en) 2016-06-06 2022-01-18 Apple Inc. Intelligent list reading
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179309B1 (en) 2016-06-09 2018-04-23 Apple Inc Intelligent automated assistant in a home environment
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
US10474753B2 (en) 2016-09-07 2019-11-12 Apple Inc. Language identification using recurrent neural networks
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US11281993B2 (en) 2016-12-05 2022-03-22 Apple Inc. Model and ensemble compression for metric learning
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
KR102362850B1 (ko) * 2017-04-14 2022-02-15 삼성전자주식회사 디스플레이장치, 디스플레이 시스템 및 디스플레이장치의 제어방법
US10417266B2 (en) 2017-05-09 2019-09-17 Apple Inc. Context-aware ranking of intelligent response suggestions
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
US10395654B2 (en) 2017-05-11 2019-08-27 Apple Inc. Text normalization based on a data-driven learning network
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
DK201770428A1 (en) 2017-05-12 2019-02-18 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
US11301477B2 (en) 2017-05-12 2022-04-12 Apple Inc. Feedback analysis of a digital assistant
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
US10303715B2 (en) 2017-05-16 2019-05-28 Apple Inc. Intelligent automated assistant for media exploration
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
US10311144B2 (en) 2017-05-16 2019-06-04 Apple Inc. Emoji word sense disambiguation
DK179560B1 (en) 2017-05-16 2019-02-18 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US10403278B2 (en) 2017-05-16 2019-09-03 Apple Inc. Methods and systems for phonetic matching in digital assistant services
US10657328B2 (en) 2017-06-02 2020-05-19 Apple Inc. Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling
US10445429B2 (en) 2017-09-21 2019-10-15 Apple Inc. Natural language understanding using vocabularies with compressed serialized tries
US10755051B2 (en) 2017-09-29 2020-08-25 Apple Inc. Rule-based natural language processing
EP3622383B1 (en) * 2017-10-03 2022-12-07 Google LLC Data transfers from memory to manage graphical output latency
US10636424B2 (en) 2017-11-30 2020-04-28 Apple Inc. Multi-turn canned dialog
KR102443079B1 (ko) * 2017-12-06 2022-09-14 삼성전자주식회사 전자 장치 및 그의 제어 방법
US10733982B2 (en) 2018-01-08 2020-08-04 Apple Inc. Multi-directional dialog
US10733375B2 (en) 2018-01-31 2020-08-04 Apple Inc. Knowledge-based framework for improving natural language understanding
US10789959B2 (en) 2018-03-02 2020-09-29 Apple Inc. Training speaker recognition models for digital assistants
CN108683937B (zh) * 2018-03-09 2020-01-21 百度在线网络技术(北京)有限公司 智能电视的语音交互反馈方法、系统及计算机可读介质
US10592604B2 (en) 2018-03-12 2020-03-17 Apple Inc. Inverse text normalization for automatic speech recognition
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US10909331B2 (en) 2018-03-30 2021-02-02 Apple Inc. Implicit identification of translation payload with neural machine translation
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10984780B2 (en) 2018-05-21 2021-04-20 Apple Inc. Global semantic word embeddings using bi-directional recurrent neural networks
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS
US11386266B2 (en) 2018-06-01 2022-07-12 Apple Inc. Text correction
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
US10504518B1 (en) 2018-06-03 2019-12-10 Apple Inc. Accelerated task performance
US11010561B2 (en) 2018-09-27 2021-05-18 Apple Inc. Sentiment prediction from textual data
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US11170166B2 (en) 2018-09-28 2021-11-09 Apple Inc. Neural typographical error modeling via generative adversarial networks
US10839159B2 (en) 2018-09-28 2020-11-17 Apple Inc. Named entity normalization in a spoken dialog system
US11347376B2 (en) * 2018-10-09 2022-05-31 Google Llc Dynamic list composition based on modality of multimodal client device
CN109446775A (zh) * 2018-10-18 2019-03-08 维沃移动通信有限公司 一种声控方法及电子设备
US11475898B2 (en) 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
US11638059B2 (en) 2019-01-04 2023-04-25 Apple Inc. Content playback on multiple devices
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
US11423908B2 (en) 2019-05-06 2022-08-23 Apple Inc. Interpreting spoken requests
US11475884B2 (en) 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
US11496600B2 (en) 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
US11289073B2 (en) 2019-05-31 2022-03-29 Apple Inc. Device text to speech
DK201970511A1 (en) 2019-05-31 2021-02-15 Apple Inc Voice identification in digital assistant systems
US11468890B2 (en) 2019-06-01 2022-10-11 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
US11360641B2 (en) 2019-06-01 2022-06-14 Apple Inc. Increasing the relevance of new available information
US11488406B2 (en) 2019-09-25 2022-11-01 Apple Inc. Text detection using global geometry estimators
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11038934B1 (en) 2020-05-11 2021-06-15 Apple Inc. Digital assistant hardware abstraction
US11755276B2 (en) 2020-05-12 2023-09-12 Apple Inc. Reducing description length based on confidence
USD942509S1 (en) * 2020-06-19 2022-02-01 Apple Inc. Display screen or portion thereof with graphical user interface
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003084794A (ja) * 2001-09-07 2003-03-19 Olympus Optical Co Ltd 音声制御システム
JP2005031882A (ja) * 2003-07-10 2005-02-03 Canon Inc 情報処理方法及び情報処理装置
WO2007069573A1 (ja) * 2005-12-16 2007-06-21 Matsushita Electric Industrial Co., Ltd. 移動体用入力装置、及び方法
WO2008149482A1 (ja) * 2007-06-05 2008-12-11 Mitsubishi Electric Corporation 車両用操作装置
US20100127847A1 (en) * 2008-10-07 2010-05-27 Cisco Technology, Inc. Virtual dashboard
JP2011511935A (ja) * 2008-01-14 2011-04-14 ガーミン スウィッツァランド ゲーエムベーハー 自動音声認識用の動的なユーザーインターフェース
JP2011081541A (ja) * 2009-10-06 2011-04-21 Canon Inc 入力装置及びその制御方法

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040243529A1 (en) * 1996-03-25 2004-12-02 Stoneman Martin L. Machine computational-processing systems for simulated-humanoid autonomous decision systems
IL119948A (en) * 1996-12-31 2004-09-27 News Datacom Ltd Voice activated communication system and program guide
US6085159A (en) * 1998-03-26 2000-07-04 International Business Machines Corporation Displaying voice commands with multiple variables
US6182046B1 (en) * 1998-03-26 2001-01-30 International Business Machines Corp. Managing voice commands in speech applications
US7685252B1 (en) * 1999-10-12 2010-03-23 International Business Machines Corporation Methods and systems for multi-modal browsing and implementation of a conversational markup language
KR20010015934A (ko) * 2000-03-11 2001-03-05 김하철 음성인식을 이용한 응용프로그램의 메뉴 실행방법
US7085723B2 (en) * 2001-01-12 2006-08-01 International Business Machines Corporation System and method for determining utterance context in a multi-context speech application
US7505908B2 (en) * 2001-08-17 2009-03-17 At&T Intellectual Property Ii, L.P. Systems and methods for classifying and representing gestural inputs
US6985865B1 (en) * 2001-09-26 2006-01-10 Sprint Spectrum L.P. Method and system for enhanced response to voice commands in a voice command platform
DE60222852D1 (de) * 2001-12-18 2007-11-22 Matsushita Electric Ind Co Ltd Fernsehapparat mit Spracherkennungsfunktion
US7571100B2 (en) * 2002-12-03 2009-08-04 Speechworks International, Inc. Speech recognition and speaker verification using distributed speech processing
US7461352B2 (en) * 2003-02-10 2008-12-02 Ronald Mark Katsuranis Voice activated system and methods to enable a computer user working in a first graphical application window to display and control on-screen help, internet, and other information content in a second graphical application window
AU2003214512A1 (en) * 2003-04-07 2004-11-01 Nokia Corporation Method and device for providing speech-enabled input in an electronic device having a user interface
JP2005208798A (ja) * 2004-01-21 2005-08-04 Nissan Motor Co Ltd 情報提供端末、および情報提供方法
US8620667B2 (en) * 2005-10-17 2013-12-31 Microsoft Corporation Flexible speech-activated command and control
US8620652B2 (en) * 2007-05-17 2013-12-31 Microsoft Corporation Speech recognition macro runtime
US20090079625A1 (en) * 2007-09-20 2009-03-26 Scott Denton Golf gps device with voice recognition
US8595642B1 (en) * 2007-10-04 2013-11-26 Great Northern Research, LLC Multiple shell multi faceted graphical user interface
US8165886B1 (en) * 2007-10-04 2012-04-24 Great Northern Research LLC Speech interface system and method for control and interaction with applications on a computing system
US20090158190A1 (en) * 2007-12-13 2009-06-18 Yuvee, Inc. Computing apparatus including a personal web and application assistant
US9177551B2 (en) * 2008-01-22 2015-11-03 At&T Intellectual Property I, L.P. System and method of providing speech processing in user interface
KR20100101389A (ko) * 2009-03-09 2010-09-17 삼성전자주식회사 사용자 메뉴를 제공하는 디스플레이 장치 및 이에 적용되는ui제공 방법
US9123341B2 (en) * 2009-03-18 2015-09-01 Robert Bosch Gmbh System and method for multi-modal input synchronization and disambiguation
JP2011040036A (ja) * 2009-03-30 2011-02-24 Avaya Inc グラフィカル・ユーザ・インターフェースを用いて通信セッションを管理するシステムと方法。
US11012732B2 (en) * 2009-06-25 2021-05-18 DISH Technologies L.L.C. Voice enabled media presentation systems and methods
KR101289081B1 (ko) * 2009-09-10 2013-07-22 한국전자통신연구원 음성 인터페이스를 이용한 iptv 시스템 및 서비스 방법
US20120188164A1 (en) * 2009-10-16 2012-07-26 Prasenjit Dey Gesture processing
US20110307250A1 (en) * 2010-06-10 2011-12-15 Gm Global Technology Operations, Inc. Modular Speech Recognition Architecture
US20120110456A1 (en) * 2010-11-01 2012-05-03 Microsoft Corporation Integrated voice command modal user interface
US20120239396A1 (en) * 2011-03-15 2012-09-20 At&T Intellectual Property I, L.P. Multimodal remote control
US20120280915A1 (en) * 2011-05-02 2012-11-08 Nokia Corporation Method and apparatus for facilitating interacting with a multimodal user interface
US8788203B2 (en) * 2011-05-23 2014-07-22 Microsoft Corporation User-driven navigation in a map navigation tool
EP2986014A1 (en) * 2011-08-05 2016-02-17 Samsung Electronics Co., Ltd. Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same
US8788269B2 (en) * 2011-12-15 2014-07-22 Microsoft Corporation Satisfying specified intent(s) based on multimodal request(s)
US10209954B2 (en) * 2012-02-14 2019-02-19 Microsoft Technology Licensing, Llc Equal access to speech and touch input
US9292253B2 (en) * 2012-08-02 2016-03-22 Nuance Communications, Inc. Methods and apparatus for voiced-enabling a web application
US20140095172A1 (en) * 2012-10-01 2014-04-03 Nuance Communications, Inc. Systems and methods for providing a voice agent user interface
US20140351729A1 (en) * 2013-05-21 2014-11-27 Samsung Electronics Co., Ltd. Method of operating application and electronic device implementing the same

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003084794A (ja) * 2001-09-07 2003-03-19 Olympus Optical Co Ltd 音声制御システム
JP2005031882A (ja) * 2003-07-10 2005-02-03 Canon Inc 情報処理方法及び情報処理装置
WO2007069573A1 (ja) * 2005-12-16 2007-06-21 Matsushita Electric Industrial Co., Ltd. 移動体用入力装置、及び方法
WO2008149482A1 (ja) * 2007-06-05 2008-12-11 Mitsubishi Electric Corporation 車両用操作装置
JP2011511935A (ja) * 2008-01-14 2011-04-14 ガーミン スウィッツァランド ゲーエムベーハー 自動音声認識用の動的なユーザーインターフェース
US20100127847A1 (en) * 2008-10-07 2010-05-27 Cisco Technology, Inc. Virtual dashboard
JP2011081541A (ja) * 2009-10-06 2011-04-21 Canon Inc 入力装置及びその制御方法

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10324583B2 (en) 2013-07-02 2019-06-18 Hongming Jiang Mobile operating system
JP2016531340A (ja) * 2013-07-02 2016-10-06 ジャン,ホンミン モバイル操作システム
JP2018120627A (ja) * 2013-10-04 2018-08-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 端末及び端末の制御方法
JP2016009199A (ja) * 2014-06-20 2016-01-18 Necパーソナルコンピュータ株式会社 情報処理装置
JPWO2016063564A1 (ja) * 2014-10-24 2017-05-25 株式会社ソニー・インタラクティブエンタテインメント 制御装置、制御方法、プログラム及び情報記憶媒体
WO2016063564A1 (ja) * 2014-10-24 2016-04-28 株式会社ソニー・コンピュータエンタテインメント 制御装置、制御方法、プログラム及び情報記憶媒体
US10339928B2 (en) 2014-10-24 2019-07-02 Sony Interactive Entertainment Inc. Control device, control method, program and information storage medium
US10434412B2 (en) 2014-10-24 2019-10-08 Sony Interactive Entertainment Inc. Control apparatus, control method, program, and information storage medium
WO2019087495A1 (ja) * 2017-10-30 2019-05-09 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2019193134A (ja) * 2018-04-26 2019-10-31 シャープ株式会社 表示装置、テレビ受信装置及び表示方法
JP2022508176A (ja) * 2018-11-23 2022-01-19 華為技術有限公司 音声制御方法及び電子装置
US11450322B2 (en) 2018-11-23 2022-09-20 Huawei Technologies Co., Ltd. Speech control method and electronic device
JP7142783B2 (ja) 2018-11-23 2022-09-27 華為技術有限公司 音声制御方法及び電子装置
JP2021077142A (ja) * 2019-11-11 2021-05-20 株式会社ブイキューブ 情報処理装置、情報処理方法及びプログラム
WO2021095289A1 (ja) * 2019-11-11 2021-05-20 株式会社ブイキューブ 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
WO2013022218A3 (en) 2013-04-25
EP2555537A1 (en) 2013-02-06
EP2555537B1 (en) 2016-07-20
JP6111030B2 (ja) 2017-04-05
WO2013022218A2 (en) 2013-02-14
US20130035942A1 (en) 2013-02-07

Similar Documents

Publication Publication Date Title
JP5819269B2 (ja) 電子装置及びその制御方法
JP5746111B2 (ja) 電子装置及びその制御方法
JP6111030B2 (ja) 電子装置及びその制御方法
JP2013037689A (ja) 電子装置及びその制御方法
AU2012293064B2 (en) Method for controlling electronic apparatus based on motion recognition, and electronic apparatus applying the same
JP2014532933A (ja) 電子装置及びその制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150717

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170313

R150 Certificate of patent or registration of utility model

Ref document number: 6111030

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees