JP2013140349A - 電子装置及びその制御方法 - Google Patents

電子装置及びその制御方法 Download PDF

Info

Publication number
JP2013140349A
JP2013140349A JP2012267779A JP2012267779A JP2013140349A JP 2013140349 A JP2013140349 A JP 2013140349A JP 2012267779 A JP2012267779 A JP 2012267779A JP 2012267779 A JP2012267779 A JP 2012267779A JP 2013140349 A JP2013140349 A JP 2013140349A
Authority
JP
Japan
Prior art keywords
voice
task mode
user
electronic device
guide information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012267779A
Other languages
English (en)
Other versions
JP5535298B2 (ja
Inventor
Sang-Jin Han
尚 珍 韓
Yokan Ken
容 煥 權
Jung Geun Kim
正 根 金
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020110147448A external-priority patent/KR20130078483A/ko
Priority claimed from KR1020120058340A external-priority patent/KR101324232B1/ko
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2013140349A publication Critical patent/JP2013140349A/ja
Application granted granted Critical
Publication of JP5535298B2 publication Critical patent/JP5535298B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • User Interface Of Digital Computer (AREA)
  • Selective Calling Equipment (AREA)
  • Details Of Television Systems (AREA)

Abstract

【課題】 音声開始命令に応じて相違なる音声タスクモードを提供し、それぞれの音声タスクモードに対応する音声ガイド情報をディスプレイする電子装置及びその制御方法を提供する。
【解決手段】 電子装置及びその制御方法が提供される。本電子装置の制御方法は、入力された音声開始命令が第1音声開始命令である場合、電子装置の音声入力部に入力されたユーザ音声に応じて制御される第1音声タスクモードに切り替え、入力された音声開始命令が第2音声開始命令である場合、電子装置と連動する外部機器に入力されたユーザ音声に応じて制御される第2音声タスクモードに切り替える。
【選択図】図6

Description

本発明は、電子装置及びその制御方法に関し、より詳細には、音声入力部を介して入力されたユーザ音声に応じて制御される電子装置及びその制御方法に関する。
電子技術の発展により、多様な種類の電子装置が開発され普及されている。特に、最近はテレビをはじめとする多様な類型の電子装置が一般家庭でも使われている。これらの電子装置は、ユーザの要求に応じてより多様な機能を備えるようになっている。特に、テレビの場合、最近はインターネットと接続されてインターネットサービスまでサポートしている。また、ユーザはテレビを通じて数多くのデジタル放送チャネルも視聴できるようになっている。
よって、電子装置の多様な機能を効率的に使うための多様な入力方法が要求されている。例えば、リモコンを用いた入力方法、マウスを用いた入力方法、及びタッチパッドを用いた入力方法等が電子装置に適用されている。
ところが、このような単純な入力方法だけでは、電子装置の多様な機能を効果的に使いこなすことが困難であった。仮に、電子装置のすべての機能をリモコンだけで制御するように実現すると、リモコンのボタン数を増やさざるを得なかった。この場合、一般のユーザがリモコンの使用法を習得することは決して容易なことではない。また、多様なメニューを画面上に表示してユーザが当該メニューを探し出して選択する方法の場合、ユーザが複雑なメニューツリーを一々確認し、自分の望むメニューを選択しなければならないため、不便であった。
従って、最近では、電子装置を一層便利かつ直観的に制御するために、音声認識を用いた技術が開発されている。音声認識を用いて電子装置を制御する方法には、電子装置に備えられたマイクを用いて電子装置を制御する方法と、電子装置と連動する外部機器(例えば、リモコン)に備えられたマイクを用いて電子装置を制御する方法とがある。
しかし、電子装置が二つの音声入力方法を同時に使用する場合、ユーザはどのマイクを使って電子装置を制御すればよいのか分からなくなってしまう場合が生じるという問題がある。また、二つの音声入力方法を用いて制御される電子装置の機能は互いに異なるため、ユーザに相違なるUIを提供しなければならないという必要性が出てくる。
なお、音声認識技術の限界により、100%完璧にユーザの音声を認識することができないという状況が存在する。また、周辺環境或いは不慣れな操作を理由とし、音声認識のエラーが生じる場合も存在する。従って、このような音声認識エラーが発生した場合、ユーザに音声認識エラーをガイドするための方策への模索が求められる。
韓国特開第2007−0055210号公報 韓国特開第2010−0102354号公報 韓国特開第2006−0084251号公報
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、音声開始命令に応じて相違なる音声タスクモードを提供し、それぞれの音声タスクモードに対応する音声ガイド情報をディスプレイする電子装置及びその制御方法を提供することにある。
本発明のもう一つの目的は、音声認識エラーが生じた場合、音声認識エラーガイドをガイドするための複数のフィードバックメッセージのうちの一つを選択してディスプレイする電子装置及びその制御方法を提供することにある。
前記目的を達成するための本発明の一実施形態に係る音声認識が可能な電子装置の制御方法は、音声開始命令を入力されるステップと、前記音声開始命令が第1音声開始命令である場合、前記電子装置の音声入力部に入力されたユーザ音声に応じて制御される第1音声タスクモードに切り替え、前記音声開始命令が第2音声開始命令である場合、前記電子装置と連動する外部機器に入力されたユーザ音声に応じて制御される第2音声タスクモードに切り替えるステップとを含む。
そして、前記電子装置のモードが第1音声タスクモードに切り替わった場合、前記第1音声タスクモードに対応する第1音声ガイド情報をディスプレイし、前記電子装置のモードが第2音声タスクモードに切り替わった場合、前記第2音声タスクモードに対応する第2音声ガイド情報をディスプレイするステップを更に含んでよい。
また、前記第1音声ガイド情報は、前記第1音声タスクモードを行うためにユーザ音声をガイドする複数の音声アイテムを含み、前記第2音声ガイド情報は、前記第2音声タスクモードを行うためにユーザ音声をガイドする複数の音声アイテムを含み、前記第2音声ガイド情報に含まれた複数の音声アイテムのうちの一部の音声アイテムは、前記第1音声ガイド情報に含まれた複数の音声アイテムと相違してよい。
そして、前記第1音声ガイド情報は、チャネルアップ/ダウン命令を行うための音声アイテムが含まれ、前記第2音声ガイド情報は、チャネルアップ/ダウン命令を行うための音声アイテムが含まれず、チャネルリスト提供のための音声アイテムが含まれてよい。
また、前記第1音声ガイド情報は、前記第1音声タスクモードを表すアイコン領域を含み、前記第2音声ガイド情報は、前記第2音声タスクモードを表すアイコン領域を含んでよい。
そして、前記第2音声タスクモードは、前記外部機器の予め設定された第2ボタンが押され、前記外部機器に入力されたユーザ音声によって制御されてよい。
また、前記第1音声開始命令は、予め設定された単語が含まれたユーザの音声命令であり、前記第2音声開始命令は、前記外部機器に含まれた予め設定されたボタンが押されるユーザ命令であってよい。
そして、前記外部機器はリモコンであってよい。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置は、ユーザ音声を入力される音声入力部と、音声タスクモードに移行するための音声開始命令が入力されると、前記音声開始命令の種類を判断し、前記音声開始命令が第1音声開始命令である場合、前記電子装置の音声入力部に入力されたユーザ音声に応じて制御される第1音声タスクモードに切り替え、前記音声開始命令が第2音声開始命令である場合、前記電子装置と連動する外部機器に入力されたユーザ音声に応じて制御される第2音声タスクモードに切り替える制御部とを含む。
そして、ディスプレイ部を更に含み、前記制御部は、前記電子装置のモードが第1音声タスクモードに切り替わった場合、前記第1音声タスクモードに対応する第1音声ガイド情報をディスプレイし、前記電子装置のモードが第2音声タスクモードに切り替わった場合、前記第2音声タスクモードに対応する第2音声ガイド情報をディスプレイするようにディスプレイ部を制御してよい。
また、前記第1音声ガイド情報は、前記第1音声タスクモードを行うためにユーザ音声をガイドする複数の音声アイテムを含み、前記第2音声ガイド情報は、前記第2音声タスクモードを行うためにユーザ音声をガイドする複数の音声アイテムを含み、前記第2音声ガイド情報に含まれた複数の音声アイテムのうちの一部の音声アイテムは、前記第1音声ガイド情報に含まれた複数の音声アイテムと相違してよい。
そして、前記第1音声ガイド情報は、チャネルアップ/ダウン命令を行うための音声アイテムが含まれ、前記第2音声ガイド情報は、チャネルアップ/ダウン命令を行うための音声アイテムが含まれず、チャネルリスト提供のための音声アイテムが含まれてよい。
また、前記第1音声ガイド情報は、前記第1音声タスクモードを表すアイコン領域を含み、前記第2音声ガイド情報は、前記第2音声タスクモードを表すアイコン領域を含んでよい。
そして、前記第2音声タスクモードは、前記外部機器の予め設定された第2ボタンが押され、前記外部機器に入力されたユーザ音声によって制御されてよい。
また、前記第1音声開始命令は、予め設定された単語が含まれたユーザの音声命令であり、前記第2音声開始命令は、前記外部機器に含まれた予め設定されたボタンが押されるユーザ命令であってよい。
そして、前記外部機器はリモコンであってよい。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置の制御方法は、音声入力部を介して音声開始命令を入力されるステップと、前記音声開始命令が入力されると、電子装置のモードを音声タスクモードに切り替えるステップと、前記音声タスクモードで音声入力エラーが発生された場合、音声認識エラーガイドをガイドするための複数のフィードバックメッセージのうちの一つをディスプレイするステップとを含む。
そして、前記音声タスクモードで音声認識エラーが繰り返し発生された場合、前記複数のフィードバックメッセージのうちの一つをランダムに選択してディスプレイするステップを含んでよい。
また、前記音声タスクモードは、前記電子装置の音声入力部に入力されたユーザ音声に応じて制御される第1音声タスクモード及び前記電子装置と連動する外部機器に入力されたユーザ音声に応じて制御される第2音声タスクモードを含んでよい。
そして、前記複数のフィードバックメッセージは、前記音声タスクモードの種類によって異なってよい。
また、前記複数のフィードバックメッセージは、前記音声認識エラーの種類によって異なってよい。
そして、前記音声認識エラーは、前記音声入力部を介して入力されたユーザ音声を明確に認識できていないエラー、ユーザ音声を入力してから外部機器の認識ボタンを予め設定された時間の間押し続けるエラー、及び前記外部機器の認識ボタンを押した後、予め設定された時間の間ユーザ音声が入力されていないエラーのうち、少なくとも何れか一つを含んでよい。
また、前記ディスプレイするステップは、前記音声認識エラーが初めて発生された場合、デフォルト(Default)として設定したフィードバックメッセージをディスプレイしてよい。
一方、前記目的を達成するための本発明の一実施形態に係る電子装置は、ユーザ音声を入力される音声入力部と、ディスプレイ部と、前記音声入力部を介して音声開始命令が入力されると、電子装置のモードを音声タスクモードに切り替え、前記音声タスクモードで音声入力エラーが発生された場合、音声認識エラーガイドをガイドするための複数のフィードバックメッセージのうちの一つを前記ディスプレイ部にディスプレイする制御部とを含む。
そして、前記制御部は、前記音声タスクモードで音声認識エラーが繰り返し発生された場合、前記複数のフィードバックメッセージのうちの一つをランダムに選択してディスプレイしてよい。
また、前記音声タスクモードは、前記電子装置の音声入力部に入力されたユーザ音声に応じて制御される第1音声タスクモード及び前記電子装置と連動する外部機器に入力されたユーザ音声に応じて制御される第2音声タスクモードを含んでよい。
そして、前記複数のフィードバックメッセージは、前記音声タスクモードの種類によって異なってよい。
また、前記複数のフィードバックメッセージは、前記音声認識エラーの種類によって異なってよい。
そして、前記音声認識エラーは、前記音声入力部を介して入力されたユーザ音声を明確に認識できていないエラー、ユーザ音声を入力してから外部機器の認識ボタンを予め設定された時間の間押し続けるエラー、及び前記外部機器の認識ボタンを押した後、予め設定された時間の間ユーザ音声が入力されていないエラーのうち、少なくとも何れか一つを含んでよい。
また、前記制御部は、前記音声認識エラーが初めて発生された場合、デフォルト(Default)として設定したフィードバックメッセージを前記ディスプレイ部にディスプレイしてよい。
以上説明したように本発明によれば、ユーザは相違なる音声入力方式を用いて電子装置をより効率よく制御することができるようになる。
本発明の多様な実施形態に係る電子装置の構成を説明するためのブロック図である。 本発明の多様な実施形態に係る電子装置の構成を説明するためのブロック図である。 本発明の多様な実施形態に係る電子装置の構成を説明するためのブロック図である。 本発明の一実施形態に係る電子装置に備えられた音声入力部を介してユーザ音声が入力される第1音声タスクモードでディスプレイされる第1音声ガイド情報を示す図である。 本発明の一実施形態に係る電子装置と連動する外部機器に備えられた音声入力部を介してユーザ音声が入力される第2音声タスクモードでディスプレイされる第2音声ガイド情報を示す図である。 本発明の一実施形態に係る音声入力方法によって異なる音声タスクモードを提供する方法を説明するためのフローチャートである。 本発明の一実施形態に係る音声認識エラーが発生した場合、フィードバックメッセージを示す図である。 本発明の多様な実施形態に係る音声タスクモード及び音声エラー種類に応じてディスプレイされるフィードバックメッセージを示す図である。 本発明の多様な実施形態に係る音声タスクモード及び音声エラー種類に応じてディスプレイされるフィードバックメッセージを示す図である。 本発明の多様な実施形態に係る音声タスクモード及び音声エラー種類に応じてディスプレイされるフィードバックメッセージを示す図である。 本発明の多様な実施形態に係る音声タスクモード及び音声エラー種類に応じてディスプレイされるフィードバックメッセージを示す図である。 本発明の多様な実施形態に係る音声タスクモード及び音声エラー種類に応じてディスプレイされるフィードバックメッセージを示す図である。 本発明の多様な実施形態に係る音声タスクモード及び音声エラー種類に応じてディスプレイされるフィードバックメッセージを示す図である。 本発明の多様な実施形態に係る音声タスクモード及び音声エラー種類に応じてディスプレイされるフィードバックメッセージを示す図である。 本発明の多様な実施形態に係る音声タスクモード及び音声エラー種類に応じてディスプレイされるフィードバックメッセージを示す図である。 本発明の多様な実施形態に係る音声タスクモード及び音声エラー種類に応じてディスプレイされるフィードバックメッセージを示す図である。 本発明の多様な実施形態に係る音声タスクモード及び音声エラー種類に応じてディスプレイされるフィードバックメッセージを示す図である。 本発明の多様な実施形態に係る音声タスクモード及び音声エラー種類に応じてディスプレイされるフィードバックメッセージを示す図である。 本発明の多様な実施形態に係る音声タスクモード及び音声エラー種類に応じてディスプレイされるフィードバックメッセージを示す図である。 本発明の多様な実施形態に係る音声タスクモード及び音声エラー種類に応じてディスプレイされるフィードバックメッセージを示す図である。 本発明の多様な実施形態に係る音声タスクモード及び音声エラー種類に応じてディスプレイされるフィードバックメッセージを示す図である。 本発明の多様な実施形態に係る音声タスクモード及び音声エラー種類に応じてディスプレイされるフィードバックメッセージを示す図である。 本発明の多様な実施形態に係る音声タスクモード及び音声エラー種類に応じてディスプレイされるフィードバックメッセージを示す図である。 本発明の多様な実施形態に係る音声タスクモード及び音声エラー種類に応じてディスプレイされるフィードバックメッセージを示す図である。 本発明の多様な実施形態に係る音声タスクモード及び音声エラー種類に応じてディスプレイされるフィードバックメッセージを示す図である。 本発明の多様な実施形態に係る音声タスクモード及び音声エラー種類に応じてディスプレイされるフィードバックメッセージを示す図である。 本発明の多様な実施形態に係る音声タスクモード及び音声エラー種類に応じてディスプレイされるフィードバックメッセージを示す図である。 本発明の多様な実施形態に係る音声タスクモード及び音声エラー種類に応じてディスプレイされるフィードバックメッセージを示す図である。 本発明の多様な実施形態に係る音声タスクモード及び音声エラー種類に応じてディスプレイされるフィードバックメッセージを示す図である。 本発明の多様な実施形態に係る音声タスクモード及び音声エラー種類に応じてディスプレイされるフィードバックメッセージを示す図である。 本発明の多様な実施形態に係る音声タスクモード及び音声エラー種類に応じてディスプレイされるフィードバックメッセージを示す図である。 本発明の多様な実施形態に係る音声タスクモード及び音声エラー種類に応じてディスプレイされるフィードバックメッセージを示す図である。 本発明の多様な実施形態に係る音声タスクモード及び音声エラー種類に応じてディスプレイされるフィードバックメッセージを示す図である。 本発明の多様な実施形態に係る音声タスクモード及び音声エラー種類に応じてディスプレイされるフィードバックメッセージを示す図である。 本発明の多様な実施形態に係る音声タスクモード及び音声エラー種類に応じてディスプレイされるフィードバックメッセージを示す図である。 本発明の多様な実施形態に係る音声タスクモード及び音声エラー種類に応じてディスプレイされるフィードバックメッセージを示す図である。 本発明の多様な実施形態に係る音声タスクモード及び音声エラー種類に応じてディスプレイされるフィードバックメッセージを示す図である。 本発明の多様な実施形態に係る音声タスクモード及び音声エラー種類に応じてディスプレイされるフィードバックメッセージを示す図である。 本発明の多様な実施形態に係る音声タスクモード及び音声エラー種類に応じてディスプレイされるフィードバックメッセージを示す図である。 本発明の多様な実施形態に係る音声タスクモード及び音声エラー種類に応じてディスプレイされるフィードバックメッセージを示す図である。 本発明の多様な実施形態に係る音声タスクモード及び音声エラー種類に応じてディスプレイされるフィードバックメッセージを示す図である。 本発明の多様な実施形態に係る音声タスクモード及び音声エラー種類に応じてディスプレイされるフィードバックメッセージを示す図である。 本発明の多様な実施形態に係る音声タスクモード及び音声エラー種類に応じてディスプレイされるフィードバックメッセージを示す図である。 本発明の多様な実施形態に係る音声タスクモード及び音声エラー種類に応じてディスプレイされるフィードバックメッセージを示す図である。 本発明の多様な実施形態に係る音声タスクモード及び音声エラー種類に応じてディスプレイされるフィードバックメッセージを示す図である。 本発明の多様な実施形態に係る音声タスクモード及び音声エラー種類に応じてディスプレイされるフィードバックメッセージを示す図である。 本発明の一実施形態に係る電子装置の制御方法を説明するためのフローチャートである。
以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。
図1は、本発明の実施形態に係る電子装置を示す概略的なブロック図である。
図1を参照すると、電子装置100は、音声入力部110と、保存部130と、制御部140及びディスプレイ部193を含む。このとき、電子装置100は、外部のネットワークと接続可能なスマートテレビ、セットトップボックス、PCとして、又はデジタルテレビや携帯電話等で実現されてよいが、これらに限られるものではない。また、本発明の一実施形態に係る電子装置100は、少なくとも一つのメモリやプロセッサ、キーボードのようなハードウェア入力部及びスクリーンを含んでよい。
音声入力部110には、ユーザが発話(Utterance)した音声命令が入力される。音声入力部110は、入力された音声信号を電気信号に変換して制御部140に出力する。例えば、音声入力部110は、マイクロフォンで実現されてよい。また、音声入力部110は、電子装置100と一体型(All−in−one)だけでなく、分離した形で実現されてよい。分離された音声入力部110は、電子装置100と有線又は無線ネットワークを通じて接続されてよい。
特に、本発明の一実施形態に係る音声入力部110は、電子装置100に備えられた音声入力部(例えば、マイク)及び電子装置と連動する外部機器(例えば、リモコン)に備えられた音声入力部を含む。
保存部130は、電子装置100を駆動して制御するための多様なデータ及びプログラムを保存する。保存部130は、音声入力部110を介して入力された音声を認識するための音声認識モジュール及びモーション入力部120を介して入力されたモーションを認識するためのモーション認識モジュールを保存する。
保存部130は、音声データベース及びモーションデータベースを含んでよい。音声データベースは、予め設定された音声及び予め設定された音声にマッチする音声タスクが記録されたデータベースのことを意味する。モーションデータベースとは、予め設定されたモーション及び予め設定されたモーションにマッチするモーションタスクが記録されたデータバースのことを意味する。
ディスプレイ部193は、放送受信部を介して受信された放送信号に対応する映像を表示する。ディスプレイ部193は、外部端子入力部を介して入力される映像データ(例えば、動画)を表示することができる。ディスプレイ部193は、制御部140の制御に応じて音声タスクを行うための音声ガイド情報及びモーションタスクを行うためのモーションガイド情報を表示することができる。
制御部140は、音声入力部110と、保存部130及びディスプレイ部193を制御する。ここで、制御部140は、CPU(Central Processing Unit)及び電子装置100を制御するためのモジュール及びデータを保存するROM(Read Only Memory)及びRAM(Random Access Memory)を含んでよい。
制御部140は、音声入力部110を介して音声が入力される場合、音声認識モジュール及び音声データベースを用いて音声を認識する。音声認識(Voice Recognition)は入力される音声の形態によって、各々の単語を区分して発話した音声を認識する孤立単語認識(Isolated Word Recognition)連続単語、連続文章及び会話体音声を認識する連続音声認識(Continuous speech Recognition)及び孤立単語認識と連続音声認識との中間形態で、予め定められたキーワードを検出して認識するキーワード検出(Keyword Spotting)で区分されてよい。
ユーザ音声が入力される場合、制御部140は入力された音声信号内でユーザが発話した音声の始めと終わりを検出して音声区間を判断する。制御部140は、入力された音声信号のエネルギーを計算し、計算されたエネルギーに応じて音声信号のエネルギーレベルを分類し、動的プログラミングを通じて音声区間を検出することができる。制御部140は、検出された音声区間内の音声信号に音響モデル(Acoustic Model)に基づいて、音声の最小単位である音素を検出して音素データを生成する。制御部140は、生成された音素データにHMM(Hidden Markov Model)確率モデルを適用してテキスト情報を生成する。しかし、上述のように、ユーザの音声を認識する方法は一実施形態に過ぎず、他の方法を用いてユーザ音声を認識することができる。それにより、制御部140は、音声信号の中に含まれたユーザの音声を認識することができる。
制御部140は、上述のように、認識された音声を用いて、電子装置100のタスク(Task)を行う。電子装置100のタスクは、チャネル変更、音量調節、コンテンツ(例えば、動画や音楽、写真等)の再生又はインターネットブラウジング等のように、電子装置100によって実行可能な機能の少なくとも一つを含む。
特に、音声開始命令が入力されると、制御部140は入力された音声開始命令が第1音声開始命令であるか、第2音声開始命令であるかを判断する。ここで、音声開始命令とは、電子装置100のモードを音声入力部110を介して入力されるユーザ音声によって制御される音声タスクモードに移行するための命令である。特に、第1音声開始命令は、電子装置100に備えられた音声入力部110を介して入力された予め設定された単語が含まれたユーザ音声命令であり、第2音声開始命令は電子装置100と連動する外部機器(例えば、リモコン)に含まれた予め設定されたボタンが押されるユーザ命令であってよい。具体的に、「ハイ、テレビ」のような特定のユーザ音声が音声開始命令として使用されてよく、音声開始命令はユーザの設定によって変更可能である。しかし、上述の第1音声開始命令及び第2音声開始命令は一実施形態に過ぎず、他の方法の音声開始命令としても実現されてよい。
音声開始命令が第1音声開始命令と判断されると、制御部140は、電子装置100のモードを第1音声タスクモードに切り替える。このとき、第1音声タスクモードは、電子装置100の音声入力部110に入力されたユーザ音声に応じて制御される音声タスクモードである。
そして、音声開始命令が第2音声開始命令と判断されると、制御部104は、電子装置100のモードを第2音声タスクモードに切り替える。第2音声タスクモードは、電子装置100と連動する外部機器に入力されたユーザ音声に応じて制御される音声タスクモードである。特に、第2音声タスクモードでは、外部機器に備えられた音声入力ボタンを押している間、ユーザの音声が入力されてよい。又は、第2音声タスクモードでは、外部機器に備えられた音声入力ボタンを一回押して、ユーザ音声を入力した後、もう一度音声入力ボタンを押すことにより、ユーザの音声が入力されてよい。しかし、それは一実施形態に過ぎず、外部機器のボタンを用いて音声を認識する方法以外の他の方法を用いて外部機器を通じてユーザ音声が入力されてよい。例えば、外部機器に備えられたスイッチがオン(On)された場合にのみ、ユーザ音声が入力されてよい。
特に、第1音声タスクモードでは、外部機器によって入力されたユーザの音声によって電子装置100が制御されずに、第2音声タスクモードでは、電子装置100に備えられた音声入力部に入力されたユーザ音声によって電子装置100が制御されなくてもよい。
電子装置100のモードが音声開始モードに切り替えられると、制御部140は、切り替えられた音声タスクモードに対応する音声ガイド情報をディスプレイする。ここで、音声ガイド情報は、電子装置100の特定機能を実行するための命令語をガイドする少なくとも一つの音声アイテムをディスプレイする。
特に、電子装置100のモードが第1音声タスクモードに切り替えられると、制御部140は、第1音声タスクモードに対応する第1音声ガイド情報をディスプレイする。そして、電子装置100のモードが第2音声タスクモードに切り替えられると、制御部140は、第2音声タスクモードに対応する第2音声ガイド情報をディスプレイする。
第1音声ガイド情報及び第2音声ガイド情報に対しては、図4及び図5を参照してより詳細に説明する。
図4は、本発明の一実施形態に係る第1音声ガイド情報を示す図である。
図4に示すように、第1音声ガイド情報400は、放送映像がディスプレイされる画面の下段にディスプレイされる。また、第1音声ガイド情報400は、現在のディスプレイ装置のモードが第1音声タスクモードであることを報知するアイコン410及びユーザの音声をガイドする複数の音声アイテム421ないし427が含まれる。複数の音声アイテムには、電源オフの音声アイテム421と、外部入力の音声アイテム422と、チャネルショートカットの音声アイテム423と、チャネルアップ/ダウン(UP/DOWN)の音声アイテム424と、音量アップ/ダウン(UP/DOWN)の音声アイテム425と、消音の音声アイテム426及びMoreの音声アイテム427が含まれる。Moreの音声アイテム427は、ディスプレイされた音声アイテム以外の音声アイテムをもっと見るためのアイテムである。
このとき、第1音声タスクモードであることを報知するアイコン410は、図4に示すように、マイクの形であってよい。
特に、第1音声ガイド情報400は、リモコンに備えられたボタンのうち、一回押すことで実行できるボタンに対応する音声アイテムが含まれてよい。例えば、第1音声ガイド情報400は、チャネルアップ/ダウンの音声アイテム424と、音量アップ/ダウンの音声アイテム425と、消音の音声アイテム426等が含まれてよい。
図5は、本発明の一実施形態に係る第2音声ガイド情報500を示す図である。
図5に示すように、第2音声ガイド情報500は、第1音声ガイド情報400がディスプレイされる領域と同様の領域である放送映像がディスプレイされる画面の下段にディスプレイされる。また、第2音声ガイド情報500は、現在のディスプレイ装置のモードが第2音声タスクモードであることを報知するアイコン510(例えば、リモコンのような外部装置に音声命令を入力するためのモード)及びユーザの音声をガイドする複数の音声アイテム521ないし526が含まれる。複数の音声アイテムには、チャネルショートカットの音声アイテム521と、検索の音声アイテム522と、外部入力の音声アイテム523と、チャネルリストの音声アイテム524と、お気に入りの音声アイテム525及び「More」の音声アイテム526が含まれる。このとき、お気に入りの音声アイテム525は、ユーザが頻繁に使用する機能(例えば、特定のアプリケーションの実行)を含むメニューをディスプレイするための音声アイテムである。
このとき、第2音声タスクモードであることを報知するアイコン510は、図4に示す第1音声タスクモードを報知するアイコン410とは異なるリモコンの形であってよい。従って、音声ガイド情報400、500に含まれたアイコン410、510を介してユーザは現在の音声タスクモードが、第1音声タスクモードであるか、第2音声タスクモードであるかを確認することができるようになる。
そして、第2音声ガイド情報500に含まれた複数の音声アイテムは、第1音声ガイド情報400に含まれた複数の音声アイテムと一部異なってよい。特に、第2音声ガイド情報500は、リモコンに備えられたボタンのうち、一回押すことで実行できるボタンに対応する音声アイテムを含まなくてよい。例えば、第2音声ガイド情報500は、チャネルアップ/ダウンの音声アイテム424と、音量アップ/ダウンの音声アイテム425と、消音の音声アイテム426等が含まれてよい。それは、第2音声タスクモードでリモコンをユーザが握っているため、ユーザが話すよりは、リモコンのボタンを押すほうがより便利な場合があるためである。
その代わりに、第2音声ガイド情報500には、検索の音声アイテム522と、外部入力の音声アイテム523と、チャネルリストの音声アイテム524及びお気に入りの音声アイテム525のように、デプスが存在する音声アイテムが含まれてよい。
即ち、上述のように、第1音声タスクモード及び第2音声タスクモードによって異なる音声ガイド情報を提供することにより、ユーザは複数の音声タスクモードに応じて、効率よくかつ便利に電子装置100を制御することができるようになる。
第1音声ガイド情報400及び第2音声ガイド情報500の何れか一方がディスプレイされると、制御部140は、該当する音声タスクモードで音声入力部110に入力されたユーザ入力に応じて電子装置100を制御する。例えば、第1音声ガイド情報400がディスプレイされた状態で、音声入力部100を介して「消音」というユーザ音声が入力されると、制御部140は電子装置100の音量レベルを「0」に設定することができる。また、第2音声ガイド情報400がディスプレイされた状態で、音声入力部110を介して「チャネルリスト」というユーザ音声が入力されると、制御部140は、ディスプレイ部193にチャネルリストをディスプレイすることができる。
図2は、本発明の別の実施形態に係る電子装置100の構成を示すブロック図である。図2を参照すると、電子装置100は、音声入力部110と、モーション入力部120と、保存部130と、制御部140と、放送受信部150と、外部端子入力部160と、リモコン信号受信部170と、ネットワークインターフェース部180及び映像出力部190を含む。図2に示す電子装置100は、セットトップボックス(Set Top Box)で実現されてよい。
一方、図2に示す音声入力部110と、保存部130及び制御部140に対する説明は、図1において説明した音声入力部110と、保存部130及び制御部140に対する説明と同様であるため、詳細な説明は省略する。
モーション入力部120は、ユーザのモーションを撮像した映像信号(例えば、連続するフレーム)を受信して制御部140に提供する。例えば、モーション入力部120は、レンズ及びイメージセンサで構成されるユニットで構成されてよい。モーション入力部120は、電子装置100と一体型だけでなく、分離した形で実現されてよい。分離したモーション入力部120は、電子装置100と有線又は無線ネットワークを通じて接続されてよい。
放送受信部150は、有線/無線で外部から放送信号を受信する。放送信号は、映像(Video)、オーディオ(Audio)及び付加データ(例えば、EPG)を含む。放送受信部150は、地上波放送、ケーブル放送、衛星放送、インターネット放送等のような多様なソースから放送信号を受信することができる。
外部端子入力部160は、電子装置100の外部から映像データ(例えば、動画や写真等)、オーディオデータ(例えば、音楽等)等を受信する。外部端子入力部160は、HDMI入力端子(High−Definition Multimedia Interface Input)161、コンポーネント入力端子162、PC入力端子163、又はUSB入力端子164の少なくとも一つを含んでよい。リモコン信号受信部170は、外部のリモコンから入力されるリモコン信号を受信する。リモコン信号受信部170は、電子装置100が音声タスクモードか、モーションタスクモードでも、リモコン信号を受信することができる。
ネットワークインターフェース部180は、制御部140の制御によって電子装置100と外部装置(例えば、サーバ、他の電子装置等)を接続することができる。制御部140は、ネットワークインターフェース部180を介して接続された外部装置からアプリケーションをダウンロードしたり、ウェブブラウジングをすることができる。ネットワークインターフェース部180は、イーサネット(登録商標)(Ethernet(登録商標))181、無線LAN182及びブルートゥース(Bluetooth(登録商標))183の少なくとも一つを提供することができる。
映像出力部190は、放送受信部150を介して受信される外部の放送信号、又は外部端子入力部160で入力される映像データ、又は保存部130に保存された映像データを外部のディスプレイ装置(例えば、モニタやテレビ)に出力する。
制御部140は、モーション入力部120を介してモーションが入力される場合、モーション検知モジュール及びモーションデータベースを用いてモーションを認識する。モーション認識(Motion Recognition)はモーション入力部120を介して入力されるユーザのモーションに対応する映像(例えば、連続するフレーム)をモーション認識モジュールを用いて周囲の背景と手(例えば、指を伸ばしたり指を曲げて拳を作る)領域に分離し、連続する手の動きを認識することができる。ユーザモーションが入力される場合、制御部140は受信された映像をフレーム単位で保存し、保存されたフレームを用いてユーザモーションの対象であるオブジェクト(例えば、ユーザの手)を検知する。制御部140は、フレームに含まれたオブジェクトの形態、色、動きのうち、少なくともいずれか一つを検知してオブジェクトを検出する。制御部140は、複数のフレームに含まれた各々のオブジェクトの位置を用いて検出されたオブジェクトの動きを追跡することができる。
制御部140は、追跡されたオブジェクトの形態及び動きに応じてモーションを判断する。例えば、制御部140は、オブジェクトの形態の変化、速度、位置、方向のうち、少なくともいずれか一つを用いてユーザのモーションを判断する。ユーザのモーションは、手を握るモーションであるグラブ(Grab)、表示されたカーソルを手で移動させるモーションであるポインティング移動(Pointing move)、手を一定速度以上で一方向に動かすモーションであるスラップ(Slap)、手を左/右又は上/下に振るモーションであるシェイク(Shake)及び手を回転させるモーションである回転を含む。上述の実施形態以外の他のモーションにも本発明の技術的思想が適用されてよい。例えば、握られた手を開くスプレッド(Spread)モーション等が更に含まれてよい。
制御部140は、ユーザのモーションがポインティング移動であるか、スラップであるかを判断するために、オブジェクトが決定された時間(例えば、800ms)内に決定された領域(例えば、40cm×40cmの四角形)から外れているかを判断する。オブジェクトが決定された時間内に決定された領域から外れていない場合、制御部140はユーザのモーションをポインティング移動と判断してよい。オブジェクトが決定された時間内に決定された領域から外れている場合、制御部140はユーザのモーションをスラップと判断してよい。別の一例として、オブジェクトの速度が予め設定された速度(例えば、30cm/s)以下であると判断された場合、制御部140はユーザのモーションをポインティング移動と判断する。オブジェクトの速度が予め設定された速度超過であると判断される場合、制御部140はユーザのモーションをスラップと判断する。
図3は、本発明の更に別の実施形態に係る電子装置100のブロック図を示す図である。図3に示すように、電子装置100は、音声入力部110と、モーション入力部120と、保存部130と、制御部140と、放送受信部150と、外部端子入力部160と、リモコン信号受信部170と、ネットワークインターフェース部180と、ディスプレイ部193及びオーディオ出力部196を含む。このとき、電子装置100は、デジタルテレビであってよいが、これに限られるものではない。
一方、図3において、音声入力部110と、モーション入力部120と、保存部130と、制御部140と、放送受信部150と、外部端子入力部160と、リモコン信号受信部170、ネットワークインターフェース部180及びディスプレイ部193に対する説明は、図1及び図2で同じ参照番号を有する構成に対する説明と同様であるため、詳細な説明は省略する。
オーディオ出力部196は、制御部140の制御によって放送信号に対応する音声を出力する。オーディオ出力部196は、スピーカ196a、ヘッドホン出力端子196b又はS/PDIF出力端子163cの少なくともいずれか一つを含んでよい。
一方、保存部130は、図3に示すように、電源制御モジュール130a、チャネル制御モジュール130b、音量制御モジュール130c、外部入力制御モジュール130d、画面制御モジュール130e、オーディオ制御モジュール130f、インターネット制御モジュール130g、アプリケーションモジュール130h、検索制御モジュール130i、UI処理モジュール130j、音声認識モジュール130k、モーション認識モジュール130l、音声データベース130m及びモーションデータベース130nを含む。これらのモジュール(130aないし130n)は、それぞれ、電源制御機能、チャネル制御機能、音量制御機能、外部入力制御機能、画面制御機能、オーディオ制御機能、インターネット制御機能、アプリケーション実行機能、検索制御機能、UI処理機能を行うためにソフトウェアで実現されてよい。制御部140は、保存部130に保存されたこれらのソフトウェアを実行させて当該機能を行うことができる。上述のようなそれぞれのモジュールは、それぞれ異なる機能を行うため、分離したハードウェアで構成されてよい。
以下では、図6を参照して、音声入力方式によって異なる音声タスクモードを提供する方法についてより詳細に説明する。
まず、電子装置100は、音声開始命令を入力される(S610)。このとき、ここで、音声開始命令とは、電子装置100のモードを音声入力部110を介して入力されるユーザ音声によって制御される音声タスクモードに移行するための命令である。特に、第1音声開始命令は、電子装置100に備えられた音声ン入力部110を介して入力された予め設定された単語が含まれたユーザ音声命令であり、第2音声開始命令は、電子装置と連動する外部機器(例えば、リモコン)に含まれた予め設定されたボタンが押されるユーザ命令であってよい。
そして、電子装置100は、入力された音声開始命令が第1音声開始命令であるか否かを判断する(S620)。
入力された音声開始命令が第1音声開始命令である場合(S620−Y)、電子装置100は電子装置100のモードを第1音声タスクモードに切り替える(S630)。ここで、第1音声タスクモードは、電子装置100に備えられた音声入力部110を介して入力されたユーザ音声に応じて電子装置100を制御するモードである。
特に、第1音声タスクモードに切り替わると、電子装置100は第1音声ガイド情報をディスプレイする(S640)。ここで、第1音声ガイド情報には、現在の電子装置100のモードが第1音声タスクモードであることをガイドするアイコン及び第1音声タスクモードを行うための複数の音声アイテムが含まれてよい。このとき、第1音声ガイド情報に含まれた複数のアイテムには、「チャネルアップ/ダウンの音声アイコン」、「音量アップ/ダウンの音声アイコン」及び「消音の音声アイコン」のように、ユーザの音声が入力されると、電子装置100の機能が直ちに実行されることができる音声アイテムが含まれてよい。
そして、電子装置100は、第1音声ガイド情報を用いて音声タスクを行う(S680)。
しかし、音声開始命令が第1音声開始命令でない場合(S620−N)、電子装置100は、入力された音声開始命令が第2音声開始命令であると判断する(S650)。
そして、電子装置100は、電子装置100のモードを第2音声タスクモードに切り替える(S660)。このとき、第2音声タスクモードは、電子装置100と連動する外部機器(例えば、リモコン)に含まれた音声入力部110を介して入力されたユーザ音声に応じて電子装置100を制御するモードである。特に、第2音声タスクモードでは、外部機器の予め設定された第2ボタン(例えば、音声入力ボタン)が押された後、外部機器に入力されたユーザ音声によって制御されてよい。
第2音声タスクモードに切り替えられると、電子装置100は、第2音声ガイド情報をディスプレイする(S670)。ここで、第2音声ガイド情報には、現在の電子装置100のモードが第2音声タスクモードであることをガイドするアイコン及び第2音声タスクを行うための複数の音声アイテムが含まれてよい。このとき、第2音声タスクモードであることをガイドするアイコンは、第1音声タスクモードであることを報知するアイコンとは異なる。そして、第2音声ガイド情報に含まれた複数のアイテムには、「外部入力の音声アイコン」、「チャネルリストの音声アイコン」及び「お気に入りの音声アイコン」のように、デプスが存在する音声アイテムが含まれてよい。
そして、電子装置100は、第2音声ガイド情報を用いて音声タスクを行う(S680)。
上述のような電子装置100の制御方法により、ユーザは互いに異なる音声入力方式を用いて電子装置100をより効率よく制御することができるようになる。
以下では、図7ないし図12を参照して、音声入力時に音声認識のエラーが発生した場合、フィードバックメッセージを出力する方法について説明する。
具体的に、音声開始命令が入力されると、制御部140は電子装置100のモードを音声タスクモードに切り替える。このとき、音声タスクモードは、電子装置100が音声入力部110を介して入力されたユーザ音声に応じて制御されるモードである。
そして、音声開始命令は、上述したように、電子装置100に備えられた音声入力部110を介して入力された予め設定された単語が含まれたユーザ音声命令(以下、「第1音声開始命令」という)か、電子装置100と連動する外部機器(例えば、リモコン)に含まれた予め設定されたボタンが押されるユーザ命令(以下「第2音声開始命令」という)であってよい。特に、第1音声開始命令が入力されると、制御部140は、電子装置100のモードを第1音声タスクモードに切り替える。このとき、第1音声タスクモードは、電子装置100の音声入力部に入力されたユーザ音声に応じて制御される音声タスクモードである。第2音声開始命令が入力されると、制御部140は電子装置100のモードを第2音声タスクモードに切り替える。第2音声タスクモードは、電子装置100と連動する外部機器に入力されたユーザ音声に応じて制御される音声タスクモードである。特に、第2音声タスクモードでは、外部機器に備えられた音声入力ボタンを押す間にユーザの音声が入力されてよい。
電子装置100のモードが、第1音声タスクモード及び第2音声タスクモードの何れかに切り替わると、制御部140は音声タスクモードを行うためのユーザ音声がガイドする音声ガイド情報をディスプレイするようにディスプレイ部193を制御する。このとき、音声ガイド情報は、図4に示すような第1音声ガイド情報400及び図5に示すような第2音声ガイド情報500の何れかであってよい。
音声ガイド情報を用いて音声タスクを行う途中に音声認識エラーを発生すると、制御部140は図7に示すように、音声認識エラーをガイドするフィードバックメッセージ750をディスプレイする。本発明の一実施形態では、図7に示すように、音声ガイド情報は、第1音声タスクモード(例えば、ユーザが直接電子装置100に音声命令を入力するモード)であることを表すアイコン710を含む。また、音声ガイド情報700は、電源オフの音声アイテム721と、外部入力の音声アイテム722と、チャネルショートカットの音声アイテム723と、チャネルアップ/ダウンの音声アイテム724と、音量アップ/ダウンの音声アイテム725と、消音の音声アイテム726及び「More」の音声アイテム727等のような複数の音声アイテムを含んでよい。このとき、「More」の音声アイテム727は、更なる音声アイテムをユーザに提供するために選択できる音声アイテムである。ここで、音声認識エラーが発生する場合には、音声入力部110を介して入力されたユーザの音声が小さすぎる場合、音声入力部110を介して入力されたユーザの音声を認識した結果、音声データベースにタッチする命令語がない場合、及びユーザの不慣れな操作の場合のうち、少なくとも何れか一つを含んでよい。
特に、制御部140は、保存部130に保存された複数のフィードバックメッセージのうちの一つをディスプレイすることができる。具体的に、制御部140は、音声タスクのモード及び音声認識エラーの種類によって異なるようにフィードバックメッセージ750をディスプレイすることができる。
具体的に、制御部140は、第1音声タスクモードで音声認識エラーが発生した場合と、第2音声タスクモードで音声認識エラーが発生した場合によって異なるようにフィードバックメッセージをディスプレイすることができる。例えば、第1音声タスクモードにおける音声認識エラーである場合、制御部140は、図8Aないし図8Lに示された複数のフィードバックメッセージのうちの一つをディスプレイすることができる。第2音声タスクモードにおける音声認識エラーである場合、制御部140は、図9Aないし図9N、図10Aないし図10G及び図11Aないし図11Fに示すような複数のフィードバックメッセージのうちの一つをディスプレイすることができる。
また、制御部140は、第2音声タスクモードで音声認識エラーの種類に応じて異なるようにフィードバックメッセージ750をディスプレイすることができる。例えば、音声入力部110を介して入力されたユーザ音声の認識結果が音声データベースにタッチする命令語がなかったり、ユーザの声が予め設定された値より小さいため、ユーザ音声を認識することができていない場合、制御部140は、図9Aないし図9Nに示された複数のフィードバックメッセージのうちの一つをディスプレイすることができる。ユーザ音声が入力された後にも外部機器の音声入力ボタンを押し続けている場合、制御部140は、図10Aないし図10Gに示す複数のフィードバックメッセージのうちの一つをディスプレイすることができる。外部機器の音声入力ボタンを押した後、予め設定された時間の間ユーザ音声が入力されていない場合、制御部140は、図11Aないし図11Fに示すような複数のフィードバックメッセージのうちの一つをディスプレイすることができる。
なお、制御部140は、最初に音声認識の発生時に音声タスクモード及び音声認識エラーの種類に応じてデフォルトとして設定したフィードバックメッセージをディスプレイすることができる。例えば、第1音声タスクモードで音声認識エラーが発生した場合、制御部140は、図8Aないし図8Lに示された複数のフィードバックメッセージのうち、図8Aに示された第1フィードバックメッセージである「もう一度お話下さい。」をディスプレイすることができる。第2音声タスクモードで入力されたユーザ音声が認識できていない場合、制御部140は、図9Aないし図9Nに示す複数のフィードバックメッセージのうち、図9Aに示された第1フィードバックメッセージである「もう一度お話下さい。」をディスプレイすることができる。第2音声タスクモードでユーザ音声入力後にも予め設定された時間の間音声入力ボタンを押す場合、制御部140は、図10Aないし図10Gに示す複数のフィードバックメッセージのうち、図10Aに示された第1フィードバックメッセージである「ボタンから手を離して下さい。」をディスプレイすることができる。第2音声タスクモードで音声入力ボタンを押した後、予め設定された時間の間ユーザ音声が入力されてない場合、制御部140は、図11Aないし図11Fに示された複数のフィードバックメッセージのうち、図11Aに示された図1フィードバックメッセージである「お望みの命令をお話下さい」をディスプレイすることができる。
一方、上述のように、音声タスクモード及び音声認識エラーの種類に応じてデフォルトとして設定したフィードバックメッセージは、製造時に設定してよく、ユーザの操作によって変更されてよい。
そして、繰り返し音声認識エラーが発生すると、制御部140はデフォルトとして設定したフィードバックメッセージを除く残りのメッセージのうちの一つをランダムにディスプレイすることができる。例えば、第1音声タスクモードで繰り返し音声認識エラーが発生すると、制御部140は、図8Aに示す第1フィードバックメッセージを除く図8Bないし図8Lに示すフィードバックメッセージのうちの一つをランダムにディスプレイすることができる。そして、第2音声タスクモードで入力されたユーザ音声が繰り返し入力できていない場合、制御部140は、図9Aに示す第1フィードバックメッセージを除く図9Bないし図9Nに示すフィードバックメッセージのうちの一つをディスプレイすることができる。第2音声タスクモードでユーザ音声入力後にも音声入力ボタンを押し続ける場合、制御部140は、図10Aに示された第1フィードバックメッセージを除く図10Bないし図10Gに示すフィードバックメッセージのうちの一つを予め設定された時間(例えば、10秒)毎にランダムにディスプレイすることができる。第2音声タスクモードで音声入力ボタンを押した後、予め設定された時間の間引き続きユーザ音声が入力が入力されていない場合、制御部140は、図11Aに示す第1フィードバックメッセージを除く図11Bないし図11Fに示されたフィードバックメッセージのうちの一つを予め設定された時間(例えば、10秒)毎にランダムにディスプレイすることができる。
上述のように、複数のフィードバックメッセージが音声認識エラー別、音声タスクモード別に異なるように提供されるため、ユーザは音声認識のエラーを正確に確認することができるようになる。また、ユーザがまるで電子装置と会話をしているような効果を得ることができ、エンターテイメント的な要素が増加するようになる。
以下では、図12を参照して、電子装置100において音声認識エラーが発生した場合、フィードバックメッセージを提供する方法についてより詳細に説明する。
まず、電子装置100は、音声開始命令が入力されたか否かを判断する(S1210)。このとき、音声開始命令は、電子装置100のモードを音声タスクモードに切り替えるためのユーザ命令として、電子装置100に備えられた音声入力部110を介して入力された予め設定された単語が含まれたユーザ音声命令である第1音声開始命令及び電子装置100と連動する外部機器(例えば、リモコン)に含まれた予め設定されたボタンが押されるユーザ命令である第2音声開始命令が含まれてよい。
音声開始命令が入力されると(S1210−Y)、電子装置100は電子装置100のモードを音声タスクモードに切り替える(S1220)。このとき、入力された音声開始命令が第1音声開始命令である場合、電子装置100は電子装置100の音声入力部110を介して入力されたユーザ音声に応じて制御される第1音声タスクモードに切り替える。そして、入力された音声開始命令が第2音声開始命令である場合、電子装置100は外部機器の音声入力部110を介して入力されたユーザ音声に応じて制御される第2音声タスクモードに切り替える。
音声タスクモードを行う間、電子装置100は音声認識エラーが発生しているか否かを判断する(S1230)。このとき、音声認識エラーが発生する場合には音声入力部110を介して入力されたユーザの音声が予め設定された値より小さい場合、音声入力部110を介して入力されたユーザの音声を認識した結果、音声データベースにマッチする命令語がない場合、及びユーザの不慣れな操作の場合のうち、少なくとも一つを含んでよい。
音声認識エラーが発生すると(S1230−Y)、電子装置100は複数のフィードバックメッセージのうちの一つをディスプレイする(S1240)。このとき、フィードバックメッセージは、音声タスクモード別、音声認識エラー別に異なるようにディスプレイされてよい。例えば、第1音声タスクモードで音声認識エラーが発生した場合、電子装置100は図8Aないし図8Lに示された複数のフィードバックメッセージのうちの一つをディスプレイする。又は、第2音声タスクモードで音声認識エラーが発生した場合、電子装置100は、図9Aないし図11Fに示す複数のフィードバックメッセージのうちの一つをディスプレイすることができる。このとき、最初に音声認識エラーが発生された場合、電子装置100は複数のフィードバックメッセージのうち、デフォルトとして設定したフィードバックメッセージをディスプレイすることができる。
そして、電子装置100は、音声認識エラーが繰り返し発生しているか否かを判断する(S1250)。本発明の一実施形態で、電子装置100は認識エラーが予め設定された境界値より以上の回数発生されているか否かを判断することができる。
音声認識エラーが繰り返し発生すると(S1250−Y)、電子装置100は複数のフィードバックメッセージのうちの他のフィードバックメッセージをランダムにディスプレイすることができる(S1260)。例えば、第1音声タスクモードで繰り返し音声認識エラーが発生すると、電子装置100は、図8Aに示す第1フィードバックメッセージを除く図8Bないし図9Lに示すフィードバックメッセージのうちの一つをランダムにディスプレイすることができる。そして、第2音声タスクモードで入力されたユーザ音声が繰り返し認識できていない場合、電子装置100は、図9Aに示す第1フィードバックメッセージを除く図9Bないし図9Nに示すフィードバックメッセージのうちの一つをディスプレイすることができる。第2音声タスクモードでユーザ音声入力後にも音声入力ボタンを押し続ける場合、電子装置100は、図10Aに示された第1フィードバックメッセージを除く図10Bないし図10Gに示すフィードバックメッセージのうちの一つを予め設定された時間(例えば、10秒)毎にランダムにディスプレイすることができる。第2音声タスクモードで音声入力ボタンを押した後、予め設定された時間の間引き続きユーザ音声が入力が入力されていない場合、電子装置100は、図11Aに示す第1フィードバックメッセージを除く図11Bないし図11Fに示されたフィードバックメッセージのうちの一つを予め設定された時間(例えば、10秒)毎にランダムにディスプレイすることができる。
上述のように、複数のフィードバックメッセージが音声認識エラー別、音声タスクモード別に異なるように提供されるため、ユーザは音声認識のエラーを正確に確認することができるようになる。また、ユーザがまるで電子装置と会話をしているような効果を得ることができ、エンターテイメント的な要素が増加するようになる。
なお、以上のような多様な実施形態に係る制御方法を行うためのプログラムコードは、多様な類型の記録媒体に保存されてよい。具体的には、RAM(Random Access Memory)、フラッシュメモリ、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electronically Erasable and Programmable ROM)、レジスタ、ハードディスク、リムーバブルディスク、メモリカード、USBメモリ、CD−ROM等のように、端末機で読み取り可能な多様な類型の記録媒体に保存されていてよい。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明は以上の実施形態に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的趣旨の範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
110 音声入力部
120 モーション入力部
130 保存部
130a 電源制御モジュール
130b チャネル制御モジュール
130c 音量制御モジュール
130d 外部入力制御モジュール
130e 画面制御モジュール
130f オーディオ制御モジュール
130g インターネット制御モジュール
130h アプリケーションモジュール
130i 検索制御モジュール
130j UI処理モジュール
130k 音声認識モジュール
130l モーション認識モジュール
130m 音声データベース
130n モーションデータベース
140 制御部
150 放送受信部
160 外部端子入力部
161 HDMI端子
162 コンポーネント端子
163 PC端子
164 USB端子
170 リモコン信号受信部
180 ネットワークインターフェース部
182 無線LAN
183 ブルートゥース
190 映像出力部
193 ディスプレイ部
196 オーディオ出力部
196a スピーカ
196b ヘッドホン

Claims (15)

  1. 音声認識が可能な電子装置の制御方法において、
    音声開始命令を入力されるステップと、
    前記音声開始命令が第1音声開始命令である場合、前記電子装置の音声入力部に入力されたユーザ音声に応じて制御される第1音声タスクモードに切り替え、前記音声開始命令が第2音声開始命令である場合、前記電子装置と連動する外部機器に入力されたユーザ音声に応じて制御される第2音声タスクモードに切り替えるステップと
    を含む制御方法。
  2. 前記電子装置のモードが第1音声タスクモードに切り替わった場合、前記第1音声タスクモードに対応する第1音声ガイド情報をディスプレイし、
    前記電子装置のモードが第2音声タスクモードに切り替わった場合、前記第2音声タスクモードに対応する第2音声ガイド情報をディスプレイするステップを更に含むことを特徴とする請求項1に記載の制御方法。
  3. 前記第1音声ガイド情報は、
    前記第1音声タスクモードを行うためにユーザ音声をガイドする複数の音声アイテムを含み、
    前記第2音声ガイド情報は、
    前記第2音声タスクモードを行うためにユーザ音声をガイドする複数の音声アイテムを含み、
    前記第2音声ガイド情報に含まれた複数の音声アイテムのうちの一部の音声アイテムは、前記第1音声ガイド情報に含まれた複数の音声アイテムと相違することを特徴とする請求項2に記載の制御方法。
  4. 前記第1音声ガイド情報は、チャネルアップ/ダウン命令を行うための音声アイテムが含まれ、
    前記第2音声ガイド情報は、チャネルアップ/ダウン命令を行うための音声アイテムが含まれず、チャネルリスト提供のための音声アイテムが含まれることを特徴とする請求項2または3に記載の制御方法。
  5. 前記第1音声ガイド情報は、前記第1音声タスクモードを表すアイコン領域を含み、
    前記第2音声ガイド情報は、前記第2音声タスクモードを表すアイコン領域を含むことを特徴とする請求項2ないし4いずれか一項に記載の制御方法。
  6. 前記第2音声タスクモードは、
    前記外部機器の予め設定された第2ボタンが押され、前記外部機器に入力されたユーザ音声によって制御されることを特徴とする請求項1ないし5いずれか一項に記載の制御方法。
  7. 前記第1音声開始命令は、
    予め設定された単語が含まれたユーザの音声命令であり、
    前記第2音声開始命令は、
    前記外部機器に含まれた予め設定されたボタンが押されるユーザ命令であることを特徴とする請求項1ないし6いずれか一項に記載の制御方法。
  8. 前記外部機器はリモコンであることを特徴とする請求項1ないし7いずれか一項に記載の制御方法。
  9. 電子装置において、
    ユーザ音声を入力される音声入力部と、
    音声タスクモードに移行するための音声開始命令が第1音声開始命令である場合、前記電子装置の音声入力部に入力されたユーザ音声に応じて制御される第1音声タスクモードに切り替え、前記音声開始命令が第2音声開始命令である場合、前記電子装置と連動する外部機器に入力されたユーザ音声に応じて制御される第2音声タスクモードに切り替える制御部と
    を備える電子装置。
  10. ディスプレイ部を更に備え、
    前記制御部は、
    前記電子装置のモードが第1音声タスクモードに切り替わった場合、前記第1音声タスクモードに対応する第1音声ガイド情報をディスプレイし、
    前記電子装置のモードが第2音声タスクモードに切り替わった場合、前記第2音声タスクモードに対応する第2音声ガイド情報をディスプレイするように前記ディスプレイ部を制御することを特徴とする請求項9に記載の電子装置。
  11. 前記第1音声ガイド情報は、
    前記第1音声タスクモードを行うためにユーザ音声をガイドする複数の音声アイテムを含み、
    前記第2音声ガイド情報は、
    前記第2音声タスクモードを行うためにユーザ音声をガイドする複数の音声アイテムを含み、
    前記第2音声ガイド情報に含まれた複数の音声アイテムのうちの一部の音声アイテムは、前記第1音声ガイド情報に含まれた複数の音声アイテムと相違することを特徴とする請求項10に記載の電子装置。
  12. 前記第1音声ガイド情報は、チャネルアップ/ダウン命令を行うための音声アイテムが含まれ、
    前記第2音声ガイド情報は、チャネルアップ/ダウン命令を行うための音声アイテムが含まれず、チャネルリスト提供のための音声アイテムが含まれることを特徴とする請求項10または11に記載の電子装置。
  13. 前記第1音声ガイド情報は、前記第1音声タスクモードを表すアイコン領域を含み、
    前記第2音声ガイド情報は、前記第2音声タスクモードを表すアイコン領域を含むことを特徴とする請求項10ないし12いずれか一項に記載の電子装置。
  14. 前記第2音声タスクモードは、
    前記外部機器の予め設定された第2ボタンが押され、前記外部機器に入力されたユーザ音声によって制御されることを特徴とする請求項9ないし13いずれか一項に記載の電子装置。
  15. 前記第1音声開始命令は、
    予め設定された単語が含まれたユーザの音声命令であり、
    前記第2音声開始命令は、
    前記外部機器に含まれた予め設定されたボタンが押されるユーザ命令であることを特徴とする請求項9ないし14いずれか一項に記載の電子装置。
JP2012267779A 2011-12-30 2012-12-07 電子装置及びその制御方法 Expired - Fee Related JP5535298B2 (ja)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
KR10-2011-0147448 2011-12-30
KR20110147453 2011-12-30
KR10-2011-0147453 2011-12-30
KR1020110147448A KR20130078483A (ko) 2011-12-30 2011-12-30 전자 장치 및 그의 제어 방법
KR1020120058340A KR101324232B1 (ko) 2011-12-30 2012-05-31 전자 장치 및 그의 제어 방법
KR10-2012-0058340 2012-05-31

Publications (2)

Publication Number Publication Date
JP2013140349A true JP2013140349A (ja) 2013-07-18
JP5535298B2 JP5535298B2 (ja) 2014-07-02

Family

ID=47358521

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012267779A Expired - Fee Related JP5535298B2 (ja) 2011-12-30 2012-12-07 電子装置及びその制御方法

Country Status (6)

Country Link
US (3) US8650036B2 (ja)
EP (2) EP2610862B1 (ja)
JP (1) JP5535298B2 (ja)
CN (1) CN103187063A (ja)
AU (1) AU2012261686B2 (ja)
WO (1) WO2013100366A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015088108A (ja) * 2013-11-01 2015-05-07 株式会社ユピテル システム及びプログラム
WO2016143276A1 (ja) * 2015-03-12 2016-09-15 パナソニックIpマネジメント株式会社 音響装置および補正方法
JP2017191418A (ja) * 2016-04-13 2017-10-19 ホーチキ株式会社 防災監視設備の受信機
JP2018063328A (ja) * 2016-10-12 2018-04-19 株式会社東芝 電子機器及びその制御方法
JP2018162956A (ja) * 2017-03-27 2018-10-18 東芝ホームテクノ株式会社 加熱調理器
JP2018173456A (ja) * 2017-03-31 2018-11-08 国立大学法人大阪大学 対話ロボットおよびロボット制御プログラム
KR20190034964A (ko) * 2017-09-25 2019-04-03 현대자동차주식회사 음성 인식 제어 장치, 그를 포함한 시스템 및 그 방법
JP2020047062A (ja) * 2018-09-20 2020-03-26 Dynabook株式会社 電子機器および制御方法
JP2021015180A (ja) * 2019-07-11 2021-02-12 東芝映像ソリューション株式会社 電子機器、プログラムおよび音声認識方法

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2555536A1 (en) * 2011-08-05 2013-02-06 Samsung Electronics Co., Ltd. Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same
EP2610862B1 (en) * 2011-12-30 2015-07-08 Samsung Electronics Co., Ltd. Electronic apparatus and method of controlling electronic apparatus
US9497515B2 (en) 2012-08-16 2016-11-15 Nuance Communications, Inc. User interface for entertainment systems
US9031848B2 (en) 2012-08-16 2015-05-12 Nuance Communications, Inc. User interface for searching a bundled service content data source
US8799959B2 (en) 2012-08-16 2014-08-05 Hoi L. Young User interface for entertainment systems
US9106957B2 (en) 2012-08-16 2015-08-11 Nuance Communications, Inc. Method and apparatus for searching data sources for entertainment systems
US9026448B2 (en) * 2012-08-16 2015-05-05 Nuance Communications, Inc. User interface for entertainment systems
JP6393021B2 (ja) * 2012-08-28 2018-09-19 京セラ株式会社 電子機器、制御方法、及び制御プログラム
KR102091003B1 (ko) * 2012-12-10 2020-03-19 삼성전자 주식회사 음성인식 기술을 이용한 상황 인식 서비스 제공 방법 및 장치
US9530410B1 (en) * 2013-04-09 2016-12-27 Google Inc. Multi-mode guard for voice commands
CN103414929A (zh) * 2013-07-18 2013-11-27 深圳Tcl新技术有限公司 语音遥控的方法、遥控器及电视机
US8768712B1 (en) * 2013-12-04 2014-07-01 Google Inc. Initiating actions based on partial hotwords
KR102179506B1 (ko) 2013-12-23 2020-11-17 삼성전자 주식회사 전자장치 및 그 제어방법
US10770075B2 (en) 2014-04-21 2020-09-08 Qualcomm Incorporated Method and apparatus for activating application by speech input
CN105426154A (zh) * 2014-09-22 2016-03-23 中兴通讯股份有限公司 一种语音输入控制的方法、装置及终端
KR102299330B1 (ko) * 2014-11-26 2021-09-08 삼성전자주식회사 음성 인식 방법 및 그 전자 장치
WO2016103415A1 (ja) * 2014-12-25 2016-06-30 日立マクセル株式会社 ヘッドマウントディスプレイシステム及びヘッドマウントディスプレイ装置の操作方法
CN104639967A (zh) * 2015-01-31 2015-05-20 乐视致新电子科技(天津)有限公司 语音启动终端的方法及装置
US9754588B2 (en) 2015-02-26 2017-09-05 Motorola Mobility Llc Method and apparatus for voice control user interface with discreet operating mode
US9489172B2 (en) 2015-02-26 2016-11-08 Motorola Mobility Llc Method and apparatus for voice control user interface with discreet operating mode
CN105957530B (zh) * 2016-04-28 2020-01-03 海信集团有限公司 一种语音控制方法、装置和终端设备
US10091545B1 (en) * 2016-06-27 2018-10-02 Amazon Technologies, Inc. Methods and systems for detecting audio output of associated device
US10506204B2 (en) 2016-10-10 2019-12-10 At&T Digital Life, Inc. State detection and voice guided setup for a video doorbell unit
KR102392087B1 (ko) * 2017-07-10 2022-04-29 삼성전자주식회사 원격 조정 장치 및 원격 조정 장치의 사용자 음성 수신방법
US10468017B2 (en) * 2017-12-14 2019-11-05 GM Global Technology Operations LLC System and method for understanding standard language and dialects
CN108600810A (zh) * 2018-05-03 2018-09-28 四川长虹电器股份有限公司 利用语音遥控器提高语音识别精度的电视系统及方法
KR102563314B1 (ko) 2018-08-30 2023-08-04 삼성전자주식회사 전자 장치 및 단축 명령어의 바로가기 생성 방법
US11094327B2 (en) * 2018-09-28 2021-08-17 Lenovo (Singapore) Pte. Ltd. Audible input transcription
JP2022051970A (ja) * 2019-02-01 2022-04-04 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
CN109994111B (zh) * 2019-02-26 2021-11-23 维沃移动通信有限公司 一种交互方法、装置及移动终端
CN110265033A (zh) * 2019-06-21 2019-09-20 四川长虹电器股份有限公司 扩展设备语音交互功能的系统及方法
JP7227093B2 (ja) * 2019-07-05 2023-02-21 Tvs Regza株式会社 電子機器、プログラムおよび検索サービス選定方法
KR20210025812A (ko) 2019-08-28 2021-03-10 삼성전자주식회사 전자장치, 디스플레이장치 및 그 제어방법
CN111681594A (zh) 2020-06-24 2020-09-18 武汉华星光电技术有限公司 Mog电路及显示面板
US11922096B1 (en) * 2022-08-30 2024-03-05 Snap Inc. Voice controlled UIs for AR wearable devices

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000062549A (ja) * 1998-08-20 2000-02-29 Tokai Rika Co Ltd 車両用音声認識装置
JP2011118822A (ja) * 2009-12-07 2011-06-16 Nec Casio Mobile Communications Ltd 電子機器、発話検出装置、音声認識操作システム、音声認識操作方法及びプログラム

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5774859A (en) * 1995-01-03 1998-06-30 Scientific-Atlanta, Inc. Information system having a speech interface
KR970057020A (ko) 1995-12-15 1997-07-31 배순훈 음성인식에 의한 텔레비전 제어장치
JPH09322086A (ja) 1996-05-31 1997-12-12 Hitachi Ltd 番組予約システム
JPH10133849A (ja) 1996-10-28 1998-05-22 Toshiba Corp パーソナルコンピュータおよびエラー通知方法
IL119948A (en) * 1996-12-31 2004-09-27 News Datacom Ltd Voice activated communication system and program guide
FR2783625B1 (fr) * 1998-09-21 2000-10-13 Thomson Multimedia Sa Systeme comprenant un appareil telecommande et un dispositif de telecommande vocale de l'appareil
JP2000112497A (ja) 1998-10-02 2000-04-21 Canon Inc 音声認識方法及び装置と通信装置及びその制御方法
US6397186B1 (en) * 1999-12-22 2002-05-28 Ambush Interactive, Inc. Hands-free, voice-operated remote control transmitter
JP2001197379A (ja) * 2000-01-05 2001-07-19 Matsushita Electric Ind Co Ltd 機器設定装置、機器設定システムおよび機器設定処理プログラムを記録した記録媒体
ES2273870T3 (es) * 2000-07-28 2007-05-16 Koninklijke Philips Electronics N.V. Sistema para controlar una aparato con instrucciones de voz.
JP2003005897A (ja) * 2001-06-20 2003-01-08 Alpine Electronics Inc 情報入力方法および装置
US7324947B2 (en) * 2001-10-03 2008-01-29 Promptu Systems Corporation Global speech user interface
DE60222852D1 (de) * 2001-12-18 2007-11-22 Matsushita Electric Ind Co Ltd Fernsehapparat mit Spracherkennungsfunktion
US7519534B2 (en) * 2002-10-31 2009-04-14 Agiletv Corporation Speech controlled access to content on a presentation medium
US20060041926A1 (en) * 2004-04-30 2006-02-23 Vulcan Inc. Voice control of multimedia content
JP2007052397A (ja) 2005-07-21 2007-03-01 Denso Corp 操作装置
US20070136752A1 (en) * 2005-12-12 2007-06-14 John Sanders Personalized electronic programming guide
KR100834679B1 (ko) * 2006-10-31 2008-06-02 삼성전자주식회사 음성 인식 오류 통보 장치 및 방법
JP2008256802A (ja) 2007-04-02 2008-10-23 Fujitsu Ten Ltd 音声認識装置および音声認識方法
TW200928315A (en) * 2007-12-24 2009-07-01 Mitac Int Corp Voice-controlled navigation device and method thereof
KR101502004B1 (ko) 2008-07-25 2015-03-12 엘지전자 주식회사 이동 단말기 및 그의 음성 명령 인식 방법
JP2011209787A (ja) * 2010-03-29 2011-10-20 Sony Corp 情報処理装置、および情報処理方法、並びにプログラム
KR101134245B1 (ko) 2010-05-28 2012-04-09 엘지이노텍 주식회사 3차원 가상 리모콘을 포함한 전자기기 및 그의 구동 방법
US20120110456A1 (en) * 2010-11-01 2012-05-03 Microsoft Corporation Integrated voice command modal user interface
JP5695447B2 (ja) * 2011-03-01 2015-04-08 株式会社東芝 テレビジョン装置及び遠隔操作装置
JP5790238B2 (ja) * 2011-07-22 2015-10-07 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
WO2013022135A1 (en) * 2011-08-11 2013-02-14 Lg Electronics Inc. Electronic device and method of controlling the same
EP2610862B1 (en) * 2011-12-30 2015-07-08 Samsung Electronics Co., Ltd. Electronic apparatus and method of controlling electronic apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000062549A (ja) * 1998-08-20 2000-02-29 Tokai Rika Co Ltd 車両用音声認識装置
JP2011118822A (ja) * 2009-12-07 2011-06-16 Nec Casio Mobile Communications Ltd 電子機器、発話検出装置、音声認識操作システム、音声認識操作方法及びプログラム

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015088108A (ja) * 2013-11-01 2015-05-07 株式会社ユピテル システム及びプログラム
WO2016143276A1 (ja) * 2015-03-12 2016-09-15 パナソニックIpマネジメント株式会社 音響装置および補正方法
JP2017191418A (ja) * 2016-04-13 2017-10-19 ホーチキ株式会社 防災監視設備の受信機
US11404060B2 (en) 2016-10-12 2022-08-02 Hisense Visual Technology Co., Ltd. Electronic device and control method thereof
JP2018063328A (ja) * 2016-10-12 2018-04-19 株式会社東芝 電子機器及びその制御方法
US10522139B2 (en) 2016-10-12 2019-12-31 Qingdao Hisense Electronics Co., Ltd. Electronic device and control method thereof
JP2018162956A (ja) * 2017-03-27 2018-10-18 東芝ホームテクノ株式会社 加熱調理器
JP2018173456A (ja) * 2017-03-31 2018-11-08 国立大学法人大阪大学 対話ロボットおよびロボット制御プログラム
KR20190034964A (ko) * 2017-09-25 2019-04-03 현대자동차주식회사 음성 인식 제어 장치, 그를 포함한 시스템 및 그 방법
KR102474804B1 (ko) 2017-09-25 2022-12-06 현대자동차주식회사 음성 인식 제어 장치, 그를 포함한 시스템 및 그 방법
JP2020047062A (ja) * 2018-09-20 2020-03-26 Dynabook株式会社 電子機器および制御方法
JP2021015180A (ja) * 2019-07-11 2021-02-12 東芝映像ソリューション株式会社 電子機器、プログラムおよび音声認識方法
JP7216621B2 (ja) 2019-07-11 2023-02-01 Tvs Regza株式会社 電子機器、プログラムおよび音声認識方法

Also Published As

Publication number Publication date
US9148688B2 (en) 2015-09-29
JP5535298B2 (ja) 2014-07-02
US20130173270A1 (en) 2013-07-04
US8650036B2 (en) 2014-02-11
WO2013100366A1 (en) 2013-07-04
EP2610862B1 (en) 2015-07-08
US20140129234A1 (en) 2014-05-08
EP2860726A3 (en) 2015-04-22
EP2860726A2 (en) 2015-04-15
US20140223477A1 (en) 2014-08-07
AU2012261686A1 (en) 2013-07-18
AU2012261686B2 (en) 2014-08-14
EP2610862A1 (en) 2013-07-03
EP2860726B1 (en) 2017-12-06
CN103187063A (zh) 2013-07-03

Similar Documents

Publication Publication Date Title
JP5535298B2 (ja) 電子装置及びその制御方法
JP5746111B2 (ja) 電子装置及びその制御方法
JP5819269B2 (ja) 電子装置及びその制御方法
JP6111030B2 (ja) 電子装置及びその制御方法
KR102003267B1 (ko) 전자 장치 및 그의 제어 방법
KR20130078486A (ko) 전자 장치 및 그의 제어 방법
JP2013037689A (ja) 電子装置及びその制御方法
KR20130016025A (ko) 음성 인식 및 모션 인식을 이용한 전자 장치의 제어 방법 및 이를 적용한 전자 장치
JP2014532933A (ja) 電子装置及びその制御方法
AU2012216583B2 (en) Electronic apparatus and method for controlling thereof
EP2752732A2 (en) Electronic apparatus and control method thereof
JP2014130595A (ja) 電子装置及びその制御方法
KR101324232B1 (ko) 전자 장치 및 그의 제어 방법
KR20130078483A (ko) 전자 장치 및 그의 제어 방법
KR20130080380A (ko) 전자 장치 및 그의 제어 방법
EP2611196A2 (en) Electronic apparatus and method of controlling the same

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130911

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140325

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140422

R150 Certificate of patent or registration of utility model

Ref document number: 5535298

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees