JP6342118B2 - 画像表示装置、制御方法、コンピュータプログラム及び記録媒体 - Google Patents

画像表示装置、制御方法、コンピュータプログラム及び記録媒体 Download PDF

Info

Publication number
JP6342118B2
JP6342118B2 JP2013002161A JP2013002161A JP6342118B2 JP 6342118 B2 JP6342118 B2 JP 6342118B2 JP 2013002161 A JP2013002161 A JP 2013002161A JP 2013002161 A JP2013002161 A JP 2013002161A JP 6342118 B2 JP6342118 B2 JP 6342118B2
Authority
JP
Japan
Prior art keywords
voice
input
unit
voice recognition
received
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013002161A
Other languages
English (en)
Other versions
JP2013142903A (ja
JP2013142903A5 (ja
Inventor
大 奎 ▲ペ▼
大 奎 ▲ペ▼
泰 煥 車
泰 煥 車
浩 晶 柳
浩 晶 柳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2013142903A publication Critical patent/JP2013142903A/ja
Publication of JP2013142903A5 publication Critical patent/JP2013142903A5/ja
Application granted granted Critical
Publication of JP6342118B2 publication Critical patent/JP6342118B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/60Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03GCONTROL OF AMPLIFICATION
    • H03G3/00Gain control in amplifiers or frequency changers
    • H03G3/02Manually-operated control
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03GCONTROL OF AMPLIFICATION
    • H03G3/00Gain control in amplifiers or frequency changers
    • H03G3/20Automatic control
    • H03G3/30Automatic control in amplifiers having semiconductor devices
    • H03G3/3005Automatic control in amplifiers having semiconductor devices in amplifiers suitable for low-frequencies, e.g. audio amplifiers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/4221Dedicated function buttons, e.g. for the control of an EPG, subtitles, aspect ratio, picture-in-picture or teletext
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42222Additional components integrated in the remote control device, e.g. timer, speaker, sensors for detecting position, direction or movement of the remote control, microphone or battery charging device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4396Processing of audio elementary streams by muting the audio signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Quality & Reliability (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Health & Medical Sciences (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Details Of Television Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Television Receiver Circuits (AREA)
  • Studio Devices (AREA)

Description

実施例は、音声認識を通じて命令を実行する映像装置及びその制御方法に関する。
一般に、映像装置、例えば、TVは、映像信号を処理して様々な形態で出力する装置である。最近には、既存のアナログTVより優れた信号処理及び記憶容量を有したデジタルTVが開発され、商用化が進みながら、各家庭に接続されているインターネット網を用いてリアルタイム放送、COD(Contents on Demand)、ゲーム、画像通信などの様々な種類のコンテンツサービスをユーザに提供できるようになった。
また、映像装置が、上記の多様なサービスを含んだ様々な機能を行うためにユーザから命令の入力を受ける際に、マイクを介してユーザの音声の入力を受け、入力されたユーザの音声を認識して、対応する命令を実行する音声認識方式が適用されている。
しかし、マイクを介してユーザの音声が入力される時に、ユーザの音声以外に、他の背景音が共に入力され、特に、映像装置から出力される音響が共に入力されることがあり、この音響のボリュームが一定水準を超えると、映像装置でのユーザ音声認識率が低下する。
上述した問題を解決するために、一つ以上の実施例の側面は、映像装置でユーザの音声を認識する場合には、映像装置から出力される音響のボリュームを一定の水準に下げることにより、音声認識性能を向上させる映像装置及びその制御方法を提供することを目的とする。
実施例の一側面に係る音声認識可能な映像装置は、ユーザ側音響信号の入力を受ける第1音声入力部と;前記映像装置で処理される音響信号を出力する音響出力部と;前記第1音声入力部に入力されたユーザ側音響信号を分析する第1音声認識部と;前記分析されたユーザ側音響信号に音声認識の開始を示す音声認識開始命令が入力されると、前記出力される音響の大きさを、予め設定されたレベルに下げる制御部と;を含むことができる。
また、前記音声認識開始命令は、前記第1音声入力部を通じてユーザの音声信号として入力されてもよい。
また、前記制御部は、前記第1音声入力部を通じて音声認識開始命令語が入力されると、前記音声認識開始命令が入力されたものと判断することができる。また、前記制御部は、前記第1音声入力部を通じて予め設定された音量以上の音声が入力されると、前記音声認識開始命令が入力されたものと判断することができる。
前記映像装置は、前記第1音声入力部を通じて入力された前記ユーザ側音響信号から、前記ユーザの音声信号以外の背景音を低減させる背景音除去部をさらに含むことができる。
また、前記背景音除去部は、前記第1音声入力部を通じて入力された前記ユーザ側音響信号から、前記音響出力部を通じて出力される音響を低減させることができる。
前記制御部は、前記出力された音響の大きさを音声認識開始時のレベルに復帰させることができる。また、前記制御部は、予め定められた音声認識終了時間以上、前記第1音声入力部を通じて前記ユーザの制御命令が入力されないと、前記音声認識が終了したものと判断することができる。
また、前記制御部は、予め定められた命令要請時間以上、前記第1音声入力部を通じて前記ユーザの制御命令が入力されないと、前記ユーザに、制御命令を入力することを要請することができる。また、前記制御部は、前記第1音声入力部を通じて音声認識終了命令が入力されると、前記音声認識が終了したものと判断することができる。
前記映像装置は、前記音声認識開始命令に対応する音声認識開始命令語を生成する命令語生成部をさらに含むことができる。
また、前記命令語生成部は、前記第1音声入力部を通じて候補命令語が入力されると、前記候補命令語が前記音声認識開始命令語として適しているか否かをテストし、テストの結果、前記候補命令語が前記音声認識開始命令語として適している場合、前記音声認識開始命令語として登録することができる。
また、前記命令語生成部は、前記登録された音声認識命令語が2以上である場合、前記ユーザから選択命令の入力を受け、前記入力された選択命令に応じて前記音声認識開始命令語を選択して設定することができる。
前記映像装置は、前記映像装置を遠隔で制御する遠隔制御器をさらに含み、前記遠隔制御器は、前記ユーザの制御命令の入力を受ける入力ボタンと、ユーザ側音響信号の入力を受ける第2音声入力部と、前記第2音声入力部に入力された前記ユーザ側音響信号を分析する第2音声認識部と、を含むことができる。
また、前記制御部は、前記第2音声入力部を通じて予め設定された音量以上の音声が入力されると、前記音声認識開始命令が入力されたものと判断することができる。また、前記制御部は、音声認識が終了すると、前記音響出力部を通じて出力される音響の大きさを音声認識開始時のレベルに復帰させることができる。
また、前記制御部は、予め定められた音声認識終了時間以上、前記第2音声入力部を通じてユーザの制御命令が入力されないと、前記音声認識が終了したものと判断することができる。また、前記制御部は、予め定められた命令要請時間以上、前記第2音声入力部を通じてユーザの制御命令が入力されないと、前記ユーザに、制御命令を入力することを要請することができる。
また、前記制御部は、前記入力ボタンまたは前記第2音声入力部を通じて音声認識終了命令が入力されると、前記音声認識が終了したものと判断することができる。
実施例の他の一側面に係る音声認識可能な映像装置は、ユーザから制御命令語の入力を受ける音声入力部と、複数の制御命令語に対応する少なくとも一つのアイコンを表示し、前記音声入力部を通じてユーザから制御命令語が入力されると、前記入力された制御命令語に対応する前記少なくとも一つのアイコンのうち一つを変化させるディスプレイ部と、を含むことができる。
実施例の他の一側面に係る音響出力部を含む音響出力装置を制御する方法において、ユーザからユーザ側音響信号の入力を受け、前記入力されたユーザ側音響信号が音声認識開始命令語に対応するか否かを判断し、前記入力されたユーザ側音響信号が音声認識開始命令語に対応すると、前記音響出力部を通じて出力される音響の大きさを予め定められたレベルに下げることを含むことができる。
また、前記音声入力部を通じてユーザ側音響信号が入力されると、前記ユーザ側音響信号からユーザの音声信号以外の背景音信号を低減させることをさらに含むことができる。
また、前記背景音信号は、前記音響出力部を通じて出力される音響信号であってもよい。
また、前記音声認識が終了すると、前記出力された音響の大きさを音声認識開始時のレベルに復帰させることをさらに含むことができる。
また、前記音声認識が終了することは、予め定められた音声認識終了時間以上、前記音声入力部を通じてユーザの制御命令が入力されないと、音声認識が終了したものと判断することを含むことができる。
また、前記音声認識が終了することは、前記音声入力部を通じて音声認識終了命令が入力されると、音声認識が終了したものと判断することを含むことができる。
実施例の他の一側面に係る音声認識可能な処理装置の制御方法は、音声入力部を通じてユーザから候補命令語の入力を受け、前記入力された候補命令語が音声認識の対象になる制御命令語として適しているか否かをテストし、前記テストの結果、前記候補命令語が前記制御命令語として適している場合、前記候補命令語を前記制御命令語として登録することを含むことができる。
実施例の更に他の一側面に係る処理装置の制御方法は、前記処理装置の音声入力部または前記遠隔制御器を通じてユーザから音声認識開始命令が入力されると、前記処理装置から出力される音響の大きさを予め定められたボリュームレベルに下げ、前記ユーザから音声認識終了命令が入力されると、前記出力された音響の大きさを原状に復帰させることを含むことができる。
また、前記音声認識開始命令の入力を受けることは、前記音声入力部を通じてユーザの音声認識開始命令語の入力を受けることを含むことができる。
また、前記音声認識開始命令の入力を受けることは、前記音声入力部を通じて予め設定された音量以上の音声の入力を受けることを含むことができる。
また、前記音声認識終了命令の入力を受けることは、前記音声入力部を通じてユーザの音声認識終了命令語の入力を受けることを含むことができる。
また、前記音声認識終了命令の入力を受けることは、前記音声入力部を通じて、予め設定された音声認識終了時間以上、制御命令が入力されないことを含むことができる。
実施例の他の一側面に係る処理装置は、音響信号の出力を制御する音響出力制御器と;音声認識が開始したという決定に応答して、出力された音響の大きさを所定のレベルに下げること、及びユーザから入力されたユーザ側音響信号からユーザの音声信号以外の背景音を低減させることのうち少なくとも一つを行う制御器と;を含む。
実施例の一側面によれば、映像装置のユーザ音声認識性能が向上して、音声認識誤りによる映像装置の誤動作を防止することができる。
一実施例に係る映像装置の外観を示す図である。 一実施例に係る映像装置本体の制御フローを示すブロック図である。 一実施例に係る映像装置において、背景音除去部をさらに含む映像装置の制御フローを示すブロック図である。 一実施例に係る映像装置において、制御命令語生成部をさらに含む映像装置の制御フローを示すブロック図である。 一実施例に係る映像装置に含まれた遠隔制御器の外観を示す図である。 一実施例に係る映像装置に含まれた遠隔制御器の制御フローを示すブロック図である。 一実施例に係る映像装置の第1制御方法を示すフローチャートである。 図7の実施例をより具体化したフローチャートである。 他の実施例に係る映像装置の制御方法を示すフローチャートである。 他の実施例に係る映像装置の制御方法を示すフローチャートである。 一実施例に係る図9において、所定の時間の間にユーザから音声を通じた制御命令が入力されない場合に、音声認識を終了する方法を示すフローチャートである。 一実施例に係る映像装置が音声認識モードである場合に、映像出力部に表示される画面を示す図である。 一実施例に係る映像装置が音声認識モードである場合に、映像出力部に表示される画面を示す図である。 一実施例に係る映像装置が音声認識モードである場合に、映像出力部に表示される画面を示す図である。 一実施例に係る映像装置において、ユーザによって命令語を生成する方法を示すフローチャートである。 一実施例に係る映像装置がユーザによって命令語を生成する場合に、映像出力部に表示される画面を示す図である。 一実施例に係る映像装置がユーザによって命令語を生成する場合に、映像出力部に表示される画面を示す図である。 一実施例に係る映像装置がユーザによって命令語を生成する場合に、映像出力部に表示される画面を示す図である。 一実施例に係る映像装置がユーザによって命令語を生成する場合に、映像出力部に表示される画面を示す図である。
本明細書に記載された実施例と図面に示された構成は、本発明の好適な例に過ぎず、本明細書の実施例と図面を代替することができる様々な変形例があることを明記しておく。
以下では、添付の図面を参照して、実施例について詳細に説明する。
図1は、本発明の一実施例に係る映像装置1の外観を示す図である。図1を参照すると、一実施例に係る映像装置1は、ユーザの制御命令に応じて、映像と音響のうち少なくとも一つを出力する映像装置本体100と、遠隔で映像装置本体100を制御する遠隔制御器300とを含む。
映像装置本体100は、デジタルTVで具現することができ、放送プログラムの映像信号及び各種コンテンツの映像信号を出力する映像出力部121と、放送プログラムの音響信号及び各種コンテンツの音響信号を出力する音響出力部122と、ユーザの音声または動作を通じて制御命令を獲得するユーザ入力部110とを含む。
一実施例に係る映像装置1は、有無及び/または無線ネットワークを介した画像通話も可能である。映像装置1が画像通話サービスを提供する場合には、映像出力部121を通じて画像通話の相手の映像信号を出力することができ、音響出力部122を通じて画像通話の相手の音声信号を出力することができる。また、この場合には、ユーザ入力部110を通じてユーザの映像信号及び音声信号を獲得して、画像通話の相手に伝送することができる。
音響出力部122は、スピーカー(speaker)などで具現することができ、映像装置1において処理される音響信号を出力する。具体的に、放送プログラム信号に含まれた音響信号を出力したり、映像装置1において実行されるコンテンツに含まれる音響信号を出力する。また、上述したように、映像装置1が画像通話動作を実行する場合には、相手の音声信号も出力することができる。本実施例の映像装置1は、その後面に音響出力部122が備えられているが、一つ以上の他の実施例がこれに限定されるものではなく、ユーザに音響を出力できる場所であれば、その位置に制限がない。
映像出力部121は、映像装置1において処理される映像信号を出力する。具体的に、放送プログラム信号に含まれた映像信号を出力したり、映像装置1において実行されるコンテンツに含まれる映像信号を出力する。また、映像装置1が画像通話動作を実行する場合には、画像通話の相手の映像信号も出力することができる。
ユーザ入力部110は、ユーザの映像を入力する映像入力部111と、ユーザの音声を入力する第1音声入力部112とを含む。
映像入力部111は、ユーザの映像を受けるレンズと、レンズを介して入ってきたユーザの映像を撮像するためのCCDセンサ、CMOSセンサなどの撮像素子と、撮像素子により撮像された映像を処理するための映像信号処理器(Image Signal Processor:ISP)とを含む。
第1音声入力部112は、マイク(microphone)などで具現することができ、ユーザの音声を受け取る。しかし、第1音声入力部112は、ユーザの音声以外に、背景音、特に、映像装置1の音響出力部122から出力される音響を共に受け取ることがある。したがって、以下では、第1音声入力部112を通じて入力される信号、即ち、映像装置1または信号を獲得する他の装置、例えば、リモコンの周囲の周辺環境の音響を、‘ユーザ側音響信号’と呼ぶ。ユーザ側音響信号にはユーザの音声信号以外に、他の背景音信号が含まれ得る。
図1では、映像装置1が、映像入力部111と音声入力部112とが一体型で備えられたMoIP(Multimedia over IP)を備えるものとして示したが、一つ以上の他の実施例がこれに限定されるものではなく、映像入力部111なしに、第1音声入力部112を備えることも可能である。
一実施例に係る映像装置1は、その動作を制御する際に、ユーザが、遠隔制御器300または映像装置本体100に備えられた入力ボタンを押さずに、第1音声入力部112を通じて制御命令を音声信号として入力することが可能である。例えば、図1に示されたように、映像出力部121に様々なコンテンツメニューが表示されると、ユーザは、所望のメニューに対応する命令語を第1音声入力部112に音声信号として入力することにより、メニューを選択することができる。
ユーザ入力部110は、図1に示されたように、映像装置本体100と別途に具現してもよいが、映像装置本体100と一体型に具現してもよい。
図2は、一実施例に係る映像装置本体100の制御フローを示すブロック図である。図2を参照すると、一実施例に係る映像装置本体100は、放送信号を受信する放送信号受信部230と、コンテンツを実行するコンテンツ実行部240と、受信した放送の音響またはコンテンツに含まれた映像を処理する映像処理部251と、受信した放送の音響またはコンテンツに含まれた音響を処理する音響処理部252と、映像処理部251により処理された映像を出力する映像出力部121と、音響処理部252により処理された音響を出力する音響出力部122と、ユーザから音声信号を受信する第1音声入力部112と、ユーザから受信した音声信号に基づいて制御命令を認識する第1音声認識部210と、遠隔制御器300から制御信号を受信する第1通信部260と、映像装置本体100の動作全般を制御する第1制御部220と、を含む。
放送信号受信部230は、映像信号及び音声信号を含む放送信号を受信する。放送信号受信部230は、アンテナ及びチューナなどで構成され、映像信号は、映像出力部121を通じて映像として出力し、音響信号は、音響出力部122を通じて音響として出力する。
コンテンツ実行部240は、マルチメディアコンテンツを実行する。コンテンツ実行部240において実行するマルチメディアコンテンツは、映像装置内に格納されているゲーム、動画ファイルまたは音楽ファイルなどであってもよく、映像装置1が有線または無線でインターネットに接続されている場合には、インターネット上で提供される様々なマルチメディアコンテンツであってもよい。また、映像装置が、移動通信機器やコンピュータなどの他の外部機器と接続されている場合には、接続された外部機器で提供するマルチメディアコンテンツであってもよく、コンテンツ実行部240において実行するマルチメディアコンテンツの種類には制限がない。
音響処理部252は、放送信号受信部230及びコンテンツ実行部240から伝送される音響信号を、音響出力部122を通じて出力できるように、音響処理を行う。音響処理部252は、デコーダを備えて、放送音響信号のように一定のフォーマットで圧縮されている信号をデコーディングし、D/Aコンバータを備えて、デジタル信号をアナログ信号に変換した後に音響出力部122に伝送することができる。
映像処理部251は、放送信号受信部230及びコンテンツ実行部240から伝送される映像信号を、映像出力部121を通じて出力できるように、映像処理を行う。映像処理部251は、デコーダを備えて、放送映像信号のように一定のフォーマットで圧縮されている信号をデコーディングし、D/Aコンバータを備えて、デジタル信号をアナログ信号に変換した後に映像出力部121に伝送することができる。
第1音声入力部112は、ユーザから制御命令に関する音声信号の入力を受ける。第1音声入力部112は、マイクで具現することができ、例えば、図1に示されたように、マイクとカメラとが一体型で備えられたMoIpで具現することも可能である。また、第1音声入力部112は、入力されたユーザ側音響信号を増幅し、増幅されたユーザ側音響信号を、アナログ信号からデジタル信号に変換して音声認識部に伝送することができる。
前記第1音声入力部112は音声エンコーダを含むことができる。音声エンコーダは、第1音声入力部112がデータインターフェースを介して映像装置本体100と接続された場合、ユーザ側音響信号をデータインターフェースのバンド幅(bandwidth)に適したフォーマットで圧縮したり、画像通話を実行する場合、画像通話の相手に送信できるフォーマットで圧縮することができる。この場合、映像装置本体100には音声デコーダが備えられて、音声認識などを行う前に圧縮されたユーザ側音響信号をデコーディングする。
上述したように、第1音声入力部112を通じてユーザの音声が入力される時に、ユーザの音声以外に、他の背景音も共に入力され得るので、第1音声入力部112を通じて入力されるものはユーザの音声信号を含むユーザ側音響信号である。ユーザが第1音声入力部112を通じて制御命令を入力する時には、映像装置1が動作中であるので、ユーザ側音響信号には、ユーザの音声信号と共に音響出力部122を通じて出力された音響信号が含まれ得る。
第1音声認識部210は、第1音声入力部112を通じて入力されたユーザ音声信号を分析して、ユーザが入力した制御命令を認識する。音声認識の方式としては、予め格納された標準パターンと入力された音声信号とを比較し、入力された音声信号と最も近い音声パターンを検出するパターンマッチング方式と、一つの単語と他の単語を区別するための関数を予め設定し、設定された関数をユーザ音声信号に適用させて判定する識別関数方式のうち少なくとも一つを含むことができる。また、音声認識を単語単位で行ってもよく、音素単位で行ってもよい。音声認識部210の音声認識方式は、従来の技術のうちいずれをも採用してもよく、上述した方式に限定されない。
第1通信部260は、後述する遠隔制御器300から制御信号を受信して、第1制御部220に提供する。第1通信部260は、Wi−Fi通信方式、ブルートゥース(bluetooth)通信方式、ジグビー(Zigbee(登録商標))通信方式などの無線通信方式を採用できるだけでなく、構成が比較的簡単な赤外線通信方式を採用してもよい。
第1制御部220は、第1音声認識部210から認識結果の伝送を受け、その結果による制御を実行する。例えば、認識結果による制御命令が放送チャネルの変更である場合には、放送信号受信部230に制御信号を送って、制御命令に応じたチャネルの変更を行うようにし、認識結果による制御命令がコンテンツの選択である場合には、コンテンツ実行部240に制御信号を送って、制御命令に応じたコンテンツを実行するようにすることができる。
また、第1制御部220は、第1音声認識部210で伝送された制御命令が音声認識開始命令である場合には、音響出力部122から出力される音響のボリュームを、予め設定されたレベルに下げる。第1音声入力部112を通じて予め設定された音声認識開始命令語が入力されたり、予め設定された基準音量以上の音声が入力されると、第1音声認識部210が、これを音声認識開始命令と認識し、第1制御部220に音声認識開始命令が入力されたことを伝送する。音声認識開始命令が入力されると、第1制御部220は、映像装置1を音声認識モードに切り替え、音響出力部122のボリュームレベルを予め設定されたレベルに下げることができる。
音声認識開始命令語を通じて音声認識開始命令が入力される場合、音声認識を開始する開始命令語は、“Hi TV”、“TV”などのように、比較的音声認識が容易な簡単な単語として設定することができる。さらに、後述するように、遠隔制御器300や映像装置本体100などに備えられた入力ボタンを介してユーザが音声認識開始命令を入力することも可能である。
上述したように、ユーザ側音響信号には、ユーザ音声信号だけでなく、音響出力部122を通じて出力された音響信号も含まれ得る。ユーザ側音響信号にこのような背景音が含まれている場合には、第1音声認識部210での音声認識率が低下することがある。音声認識が行われる間に、第1制御部220が、音響出力部122を通じて出力される音響のボリュームを予め設定された一定のレベルに下げると、ユーザ側音響信号に背景音が含まれても、ユーザの音声信号のみを抽出して制御命令を認識することがより容易になる。
ここで、予め設定されたボリュームレベルは、背景音が含まれても一定水準以上の音声認識率を確保することができる水準のレベルを示す。例えば、音声認識率を80%以上確保できるボリュームレベルが5である場合には、音声認識開始命令が入力されると、音響出力部122から出力される音響のボリュームレベルを5に下げるように設定することができる。予め設定されるボリュームレベルは、実験または統計によって製造過程で予め設定されてもよく、ユーザによって予め設定されてもよい。
ただし、予め設定されるボリュームレベルは0ではないとよい。例えば、ユーザが映像装置を通じて音楽鑑賞の中に、映像装置に格納されているアルバムを見るために、音声認識を通じてコンテンツ選択に関する制御命令を入力することができる。このとき、音響出力部122から出力される音響のボリュームが0になって消音されれば、作業の連続性が阻害され、同時に様々な作業を行うとするユーザの意図とも符合しなくなる。したがって、予め設定されるボリュームレベルは、実行中の作業の連続的な実行と音声認識率を全て考慮して適切に選択され得るようにする。
また、第1制御部220は、現在のボリュームレベルが予め設定されたボリュームレベルよりも低いか、または同一であると判断された場合には、現在のボリュームレベルをそのまま維持するようにする。
音声認識が終了すると、第1制御部220は、音響出力部122を通じて出力される音響のボリュームレベルを原状に復帰させる。第1音声入力部112を通じて音声認識終了命令が入力されたり、予め定められた基準時間の間に音声認識の対象になる制御命令が入力されなかったり、遠隔制御器300、映像装置本体100などに備えられた入力ボタンを介して音声認識終了命令が入力されると、音声認識が終了したものと判断することができる。
図3は、一実施例に係る映像装置1において、背景音除去部270をさらに含む映像装置1の制御フローを示す図である。図3の実施例では、図2で説明した内容と重複する内容は省略し、説明の便宜のために、背景音除去部270を重点的に説明する。
上述したように、ユーザ側音響信号に背景音が含まれている場合には、第1音声認識部210での音声認識率が低下するだけでなく、画像通話を行う場合、画像通話の相手に優れた品質の音声信号を伝達することができない。したがって、一実施例に係る映像装置1は、ユーザ側音響信号から背景音を除去したり、または低減させる背景音除去部270をさらに含むことができる。
背景音除去部270は、音響エコー除去器(Acoustic Echo Canceller)で具現することができる。音響エコー除去器は、音響信号とレファレンス信号(reference signal)の入力を受け、入力された音響信号から、レファレンス信号に基づいて背景音を除去する。一実施例に係る映像装置1では、音響出力部122を通じて出力される音響信号をレファレンス信号として、背景音除去部270に入力されたユーザ側音響信号から、音響出力部122を通じて出力される音響信号を除去することができる。また、ユーザが放送プログラムを視聴中である場合には、放送信号受信部230で受信した音響信号を直接レファレンス信号としてもよく、コンテンツを実行中である場合には、コンテンツ実行部240で生成された音響信号を直接レファレンス信号としてもよい。
背景音除去部270で背景音が除去されたユーザ側音響信号は、第1音声認識部210に伝送される。ユーザが音声認識開始命令を音声信号として入力する場合には、音響出力部122のボリュームレベルが下げられていない状態で、第1音声認識部210にユーザ側音響信号が伝送される。したがって、背景音除去部270で背景音を除去すると、音声認識部で音声認識開始命令を認識することがより容易になる。
しかし、背景音除去部270で背景音を除去しても、音響出力部122を通じて出力される音響のボリュームが一定水準以上であれば、ユーザ音声信号と背景音信号とを分離して背景音信号のみを除去することが容易でなく、背景音除去部270で背景音信号をある程度除去しても、背景音の残像が残っているため、第1音声認識部210での音声認識率が低下することがある。
また、音声認識開始命令語は、主に音声認識が容易な簡単な単語として設定して、背景音除去部270のみで音声認識誤りが多く減少するのに比べて、他の制御命令語は、音声認識開始命令語よりも長くて、複雑な場合が多いため、背景音除去のみでは所望の音声認識率を得ることが難しい。したがって、一実施例においては、第1音声認識部210において音声認識開始命令が入力されたものと判断した後、第1制御部220において音響出力部122のボリュームレベルを予め設定されたレベルに下げることで、音声認識性能をさらに向上させる。
図4は、一実施例による映像装置10において、制御命令語生成部280をさらに含む映像装置1の制御フローを示す図である。図4に示すように、映像装置1は、ユーザが命令語を生成できるようにする命令語生成部280をさらに含むことができる。
命令語生成部280は、ユーザから候補命令語を受信する命令語受信部281と、受信された候補命令語が命令語として適しているか否かをテストするテスト部282と、テスト部282のテスト結果によって、候補命令語を登録するか否かを決定する設定部283と、を含む。
命令語生成部280は、映像装置1の音声認識の対象になる命令語を全て生成することができ、特に、音声認識開始命令語を生成するのに有用に使用することができる。
上述したように、ユーザ側音響信号に背景音が含まれていると、音声認識性能が低下し、特に、背景音のボリュームレベルが大きすぎると、背景音除去部270を経ても音声認識に誤りが発生する可能性が高い。第1音声認識部210において音声認識開始命令が入力されたものと判断すると、音響出力部122のボリュームレベルを予め設定されたレベルに下げるが、音声認識開始命令語は、音響出力部122のボリュームレベルが調節されていない状態で入力されるため、背景音の音響が高くても音声認識部で容易に認識できる単語として設定することが有利である。
具体的に、ユーザは、映像装置に予め設定されている命令語の他に、自分が所望の新しい命令語を登録して使用することができる。ユーザが、第1音声入力部112を通じて新しい命令語を候補命令語として入力すると、命令語受信部281において候補命令語に関する音声信号を受信する。
そして、テスト部282は、命令語受信部281で受信した候補命令語が、音声認識開始命令語として使用するのに適した単語であるか否かをテストする。言い換えると、テスト部282は、候補命令語が、音声認識部で容易に音声認識を行うことができる単語であるか否か、ボリュームレベルが大きい背景音と共に入力されても、一定水準の音声認識率を維持することができる単語であるか否かを判断する。
設定部283は、テスト部282のテスト結果によって、候補命令語を登録するか否かを決定する。一例として、テスト部282のテスト結果、候補命令語の音声認識率が80%以上であれば、音声認識開始命令語として登録し、候補命令語を第1音声認識部210に伝送することができる。その後、第1音声入力部112を通じて該当の命令語が入力されると、第1音声認識部210は、音声認識開始命令語として認識し、第1制御部220に信号を送る。
ユーザが複数の候補命令語を入力して複数の命令語が登録された場合、ユーザから命令語の選択に関する命令の入力を受けて、ユーザの選択命令に応じた命令語を音声認識開始命令語として設定することができ、複数の命令語を音声認識開始命令語として設定してもよい。複数の命令語が音声認識開始命令語として登録された場合、第1音声認識部210は、第1音声入力部112を通じて複数の命令語のいずれか一つが入力されると、音声認識開始命令が入力されたものと判断する。
図5は、一実施例に係る映像装置1に含まれた遠隔制御器300の外観を示す図である。図5を参照すると、遠隔制御器300は、タッチまたはボタンを介してユーザの制御命令を入力する入力ボタン320と、音声を介してユーザの制御命令を入力する第2音声入力部312(図6参照)とを含む。
入力ボタン320は、映像装置1の電源をオンまたはオフするための電源ボタン321と、映像装置1の音響出力の大きさを調節するための音量調節ボタン323と、映像装置1を通じて表示される放送のチャネルを調節するチャネル調節ボタン325と、音声認識開始命令を入力するための音声認識ボタン327と、を含む。
入力ボタン320は、ボタン式スイッチ、メンブレン(membrane)スイッチなどのスイッチ、またはユーザの身体の一部の接触を感知するタッチパッド(touch pad)を採用することができる。さらに、スイッチとタッチパッドを混用してもよい。例えば、通常、ユーザがよく使用する電源ボタン321、音量調節ボタン323、チャネル調節ボタン325は、タッチパッドを採用し、音声認識ボタン327はメンブレンスイッチを採用してもよい。
第2音声入力部312は、ユーザから制御命令に関する音声信号の入力を受ける。第2音声入力部312は、音波を電気的信号に変換するマイクを含むことができ、入力された音声信号を増幅する増幅器と、音声信号をデジタル信号に変換するアナログ−デジタル変換器(A/D Converter)をさらに含むことができる。
図6は、一実施例に係る映像装置1に含まれた遠隔制御器300の制御フローを示すブロック図である。図6を参照すると、遠隔制御器300は、その機能を行うために、タッチまたはボタンを介してユーザから制御命令の入力を受ける入力ボタン320と、音声信号を介してユーザから制御命令の入力を受ける第2音声入力部312と、第2音声入力信号312を介して入力された音声信号から制御命令を識別する第2音声認識部410と、映像装置本体100に制御信号を送信する第2通信部460と、遠隔制御器300の動作全般を制御する第2制御部420と、を含む。
入力ボタン320及び第2音声入力部312は、図5と関連して既に説明したので、その説明を省略する。
第2通信部460は、映像装置本体100に制御信号を送信する。第2通信部460は、Wi−Fi通信方式、ブルートゥース通信方式、ジグビー通信方式などの無線通信方式を採用することができ、さらに、構成が比較的簡単な赤外線通信方式を採用してもよい。
第2制御部420は、入力ボタン320または第2音声認識部410を通じて提供された制御命令に応じて第2通信部460を制御して、映像装置本体100に制御信号を送信する。具体的に、入力ボタン320を介して音響増減命令またはチャネル変更命令が入力されると、これを第2通信部460を通じて映像装置本体100に送信する。
また、入力ボタン320に設けられた音声認識ボタン327を介して音声認識開始命令が入力されると、音声認識開始命令を映像装置本体100に送信し、第2音声認識部410により識別された制御命令を、第2通信部460を通じて映像装置本体100に送信する。また、このように、ユーザから音声認識開始命令の入力を受ける音声認識ボタン327は、映像装置本体100に設けられてもよい。また、音声認識開始命令は、映像装置本体100で提供するメニューを介しても入力され得る。
映像装置本体100に設けられた第1制御部220は、遠隔制御器300から音声認識開始命令が送信されると、音響出力部122を通じて出力される音響のボリュームを予め設定されたレベルに下げたり、遠隔制御器300から音声を介した制御命令が送信されると、音響出力部122の音響ボリュームを予め設定されたレベルに下げることができる。
また、第2制御部420は、音声認識が終了すると、音声認識終了命令を第2通信部460を通じて映像装置本体100に送信し、これを受信した映像装置本体100は、音響出力部122を通じて出力される音響のボリュームを原状に復帰させる。音声認識の終了は、ユーザが音声認識ボタン327を介して音声認識終了命令を入力したり、予め定められた基準時間の間に音声認識の対象になる制御命令が入力されない場合に行われる。
映像装置本体100に比べて、遠隔制御器300は、ユーザが比較的近距離で音声命令を入力するので、一実施例に係る遠隔制御器300は、背景音を除去するための背景音除去部を含んでいないが、一つ以上の実施例がこれに限定されるものではなく、遠隔制御器300も背景音除去部を含んでもよい。
以下、一実施例に係る映像装置1の制御方法について説明する。
図7は、一実施例に係る映像装置1の制御方法を示すフローチャートである。図7を参照すると、まず、第1音声入力部112を通じて、ユーザからユーザ側音響信号の入力を受ける(ステップ511)。ユーザ側音響信号には、ユーザの音声信号、及び映像装置1の音響出力部122を通じて出力された音響信号が含まれ得る。
入力されたユーザ側音響信号が音声認識開始命令を示すか否かを判断する(ステップ513)。すなわち、音声認識開始命令が入力されたか否かを判断する。具体的に、音声認識部210において、予め格納された音声認識開始命令語と入力されたユーザ側音響信号とが一致するか否かを判断して、音声認識開始命令が入力されたか否かを判断する。
判断の結果、入力されたユーザ側音響信号が音声認識開始命令を示す場合(ステップ513の‘はい’)、音響出力部122のボリュームレベルを予め設定されたレベルに下げる(ステップ515)。ここで、予め設定されたレベルは、音声認識率を考慮して実験的または統計的に定めることができ、ユーザが設定及び変更できるようにすることも可能である。
そして、音声認識が終了したか否かを判断し(ステップ517)、音声認識が終了した場合(ステップ517の‘はい’)には、音響出力部122のボリュームレベルを元の状態に復帰させる(ステップ519)。
図8は、図7の実施例をより具体化したフローチャートである。図8を参照すると、まず、第1音声入力部112を通じて、ユーザからユーザ側音響信号の入力を受け(ステップ521)、入力されたユーザ側音響信号から背景音信号を除去する(ステップ523)。ここで、背景音信号は、音響出力部を通じて出力される音響信号であってもよい。背景音除去に音響エコー除去器(AEC)を用いることができ、ユーザ側音響信号を入力信号として入力し、音響出力部122を通じて出力される音響信号をレファレンス信号として入力する。
そして、音声認識開始命令が入力されたか否かを判断(ステップ525)することは、図7と同一である。
判断の結果、音声認識開始命令が入力された場合(ステップ525の‘はい’)、すなわち、ユーザ側音響信号が音声認識開始命令を示すものであれば、現在の音響出力部122のボリュームレベルが予め設定されたレベルを超過するか否かを判断する(ステップ527)。
判断の結果、現在の音響出力部122のボリュームレベルが予め設定されたレベルを超過する場合(ステップ527の‘はい’)、音響出力部122のボリュームレベルを予め設定されたレベルに下げ(ステップ529)、そうでないと、現在の音響出力部122のボリュームレベルをそのまま維持する。
そして、音声認識が終了したか否かを判断する(ステップ531)。音声認識が終了したか否かは、ユーザから音声認識終了命令が入力されたか否か、または予め定められた基準時間の間にユーザの制御命令が入力されなかったかどうかなどで判断することができる。音声認識終了命令は、音声信号として入力されてもよく、遠隔制御器300や映像装置本体100に備えられた入力ボタンを押して入力されたり、モーション認識を通じて入力されてもよい。
音声認識が終了したものと判断される場合(ステップ531の‘はい’)、音響出力部122のボリュームレベルを元の状態に復帰させる(ステップ533)。但し、音声認識を開始する時に、音響出力部122のボリュームレベルが、予め設定されたレベルよりも小さいか、または同一であるので、そのまま維持された場合には、音声認識が終了しても音響出力部122のボリュームレベルはそのまま維持される。
図9は、一実施例に係る映像装置1の制御方法を示すフローチャートである。図9を参照すると、映像装置1は、音声認識開始命令が入力されたか否かを判断する(ステップ611)。具体的に、映像装置本体100に設けられた第1音声入力部112を通じて、事前に定義された音声認識開始命令語(例えば、“Hi TV”、“TV”など)が入力されたり、映像装置本体100に設けられた音声認識ボタンまたは遠隔制御器300に設けられた音声認識ボタン327を介して音声認識開始命令が入力されると、映像装置1は、音声認識開始命令が入力されたものと判断し、映像装置1は、音声認識モードに進入する。また、映像装置1は、映像装置本体100に設けられた第1音声入力部112または遠隔制御器300に設けられた第2音声入力部312を通じて予め設定された音量以上の音声が入力されると、音声認識開始命令が入力されたものと認識し、音声認識モードに進入することができる。
さらに、映像装置本体100に設けられた音声入力部112を通じて音声認識開始命令語が入力される場合、映像装置1は、背景音除去部270を通じて音声認識開始命令語以外の背景音信号を除去することにより、音声入力部112を通じて入力される音声認識開始命令語をさらに正確に認識することができる。
音声認識開始命令が入力されると、映像装置1は、音響出力部122のボリュームレベルを予め設定されたボリュームレベルに下げる(ステップ613)。このとき、音響出力部122のボリュームレベルが予め設定されたボリュームレベル以下であれば、映像装置1の音響出力部122のボリュームレベルを下げる動作を行わなくてもよい。
次に、映像装置1は、音声入力部121を通じて入力されるユーザの音声制御命令に応じて、放送信号受信部230、コンテンツ実行部240、音響出力部122などを制御する(ステップ615)。ユーザの音声制御命令に応じた映像装置1の制御は、図12を参照して、以下で詳細に説明する。
次に、映像装置1は、音声認識が終了したか否かを判断する(ステップ617)。例えば、音声認識モードで、映像装置本体100に設けられた音声入力部112を通じて、事前に定義された音声認識開始命令語(例えば、“Hi TV”、“TV”など)が再び入力されたり、または事前に定義された音声認識開始命令語が入力されたり、音声認識モードで、映像装置本体100に設けられた音声認識ボタンまたは遠隔制御器300に設けられた音声認識ボタン327が選択されると、映像装置1は、音声認識終了命令が入力されたものと判断する。さらに、予め設定された所定の時間の間にユーザから音声を介した制御命令が入力されないと音声認識を終了する。所定の時間の間にユーザから音声を介した制御命令が入力されない場合、音声認識を終了することについては、図10を参照して、以下で詳細に説明する。
音声認識が終了したものと判断されると、映像装置1は、音声認識モードから解除されて音響出力部122のボリュームレベルを原状に復帰させる(ステップ619)。
図10は、他の実施例に係る映像装置1の制御方法を示すフローチャートである。図10を参照すると、映像装置1は、音声認識開始命令が入力されたか否かを判断する(ステップ711)。具体的に、映像装置本体100に設けられた第1音声入力部112を通じて音声認識開始命令語(例えば、“Hi TV”、“TV”など)が入力されたり、映像装置本体100に設けられた音声認識ボタンまたは遠隔制御器300に設けられた音声認識ボタン327を通じて音声認識開始命令が入力されたり、映像装置本体100に設けられた第1音声入力部112または遠隔制御器300に設けられた第2音声入力部312を通じて予め設定された音量以上の音声が入力されると、映像装置1は、音声認識開始命令が入力されたものと判断する。
音声認識開始命令が入力されると、映像装置1は、第1音声入力部112または第2音声入力部312を通じて、予め設定された音量以上の音声が入力されるか否かを判断する(ステップ713)。
予め設定された音量以上の音声が入力されると、映像装置1は、音響出力部122のボリュームレベルを予め設定されたボリュームレベルに下げる(ステップ715)。すなわち、図9で示す実施例の制御方法は、音声認識が開始されると直ちに音響出力部122のボリュームレベルを下げるのに比べて、本実施例による制御方法は、音声認識が開始された後、ユーザが音声を介して制御命令を入力する時にはじめて音響出力部122のボリュームレベルを下げる。このように制御することにより、ユーザが実行中にある作業の連続性をさらに確保することができる。
次に、映像装置1は、音声を介したユーザの制御命令に応じて、映像装置1に含まれた各構成を制御する(ステップ717)。
その後、映像装置1は、再び第1音声入力部112または第2音声入力部312を通じて、予め設定された音量以上の音声が入力されるか否かを判断する(ステップ719)。
予め設定された音量以上の音声が入力されると、映像装置1は、再び音声を介したユーザの制御命令に応じて、映像装置1に含まれた各構成を制御する(ステップ717)。しかし、予め設定された基準ボリューム下げ時間以上、予め設定された音量以上の音声が入力されない場合(ステップ721)、映像装置1は、音響出力部122のボリュームレベルを原状に復帰させる(ステップ723)。
すなわち、映像装置1は、音声認識モードに進入した後、予め設定された音量以上の音声が入力されると、音響出力部122のボリュームレベルを下げ、所定の基準ボリューム下げ時間の間に音声を介した制御命令が入力されないと、映像装置1は、音響出力部122のボリュームレベルを原状に復帰させる。
次に、映像装置1は、音声認識が終了したか否かを判断する(ステップ725)。
図11は、一実施例に係る、所定の時間の間にユーザから音声を介した制御命令が入力されない場合、音声認識を終了する方法を示すフローチャートである。図11に示すように、音声認識モードに進入すると、映像装置1は、待ち時間を初期化し、(ステップ621)、音声認識終了時間を第1基準時間として設定する(ステップ623)。ここで、待ち時間は、音声認識モードで、ユーザが音声を介した制御命令を入力するまで映像装置1が待機した時間を意味し、音声認識終了時間は、ユーザが音声を介した制御命令を入力しない場合、音声認識を終了するための所定の時間を意味する。また、第1基準時間は、音声認識モードに進入した後、ユーザが音声を介した制御命令を入力しない場合、映像装置1が待機する時間を意味する。
その後、映像装置1は、音声を介したユーザの制御命令が入力されるか否かを判断する(ステップ625)。
もし、音声を介したユーザの制御命令が入力されると、映像装置1は、ユーザの制御命令に応じて放送信号受信部230、コンテンツ実行部240、音響出力部122などを制御する(ステップ627)。
その後、映像装置1は、待ち時間を初期化し(ステップ631)、音声認識終了時間を第2基準時間として設定する(ステップ633)。ここで、第2基準時間は、音声認識モードに進入し、ユーザが音声を介して制御命令を入力した後、ユーザの次の制御命令まで映像装置1が待機する時間を意味する。通常、ユーザが制御命令を入力し、これによる映像装置1の動作を確認するのに時間が要求されるので、第2基準時間は、第1基準時間に比べてより長い時間とすることが好ましい。例えば、第1基準時間を30秒と決める場合、第2基準時間は、ユーザが制御命令に応じた映像装置1の動作を確認するのに要求される時間を考慮して60秒と決めることができる。
その後、映像装置1は、再び音声を介したユーザの制御命令が入力されるか否かを判断する(ステップ625)。
もし、音声を介したユーザの制御命令が入力されないと、映像装置1は、待ち時間が命令要請時間を経過したか否かを判断する(ステップ635)。命令要請時間は、ユーザが音声を介して制御命令を入力しない場合、ユーザに制御命令を要請するための所定の時間間隔を意味し、音声認識が終了する前に少なくとも一回以上、ユーザに制御命令要請をするために、命令要請時間は、音声認識終了時間よりも短いことが好ましい。
命令要請時間の間にユーザが音声を介した制御命令を入力しない場合、映像装置1は、映像出力部121と音響出力部122のうち少なくとも一つを通じて、“機能を言って下さい。”、“チャネルを変更しましょうか”、“音量を調整しましょうか”など、ユーザに制御命令を入力することを要請する(ステップ637)。
その後、映像装置1は、待ち時間が音声認識終了時間を経過したか否かを判断する(ステップ639)。
映像装置1の待ち時間、すなわち、ユーザが音声を介した制御命令を入力しない時間が、音声認識終了時間以上である場合、映像装置1は音声認識を終了する(ステップ641)。
図12A乃至図12Cは、一実施例に係る映像装置1が音声認識モードである場合、映像出力部121に表示される画面を示す図である。
図12Aを参照すると、映像出力部121の下端にのみ制御関連のアイコンが表示され、残りの領域にはメイン画面が表示される。下端に表示されたアイコンのうち、‘電源オン/オフ’アイコン121aは、電源オン(on)に対する制御命令及び電源オフ(off)に対する制御命令に対応し、‘ボリュームアップ/ダウン’アイコン121bは、ボリュームアップに対する制御命令及びボリュームダウンに対する制御命令に対応し、‘チャネルアップ/ダウン’アイコン121cは、チャネルアップに対する制御命令及びチャネルダウンに対する制御命令に対応する。
従来の映像装置は、前記制御命令に対応する6個のアイコンを表示しなければならなかったが、一実施例に係る映像装置1は、3個のアイコンのみを表示することで、6個の制御命令を実行することができる。
ユーザが、電源オンまたは電源オフに対応する制御命令を入力すると、映像出力部121上のカーソル121dが‘電源オン/オフ’アイコン121aへ移動し、制御命令に応じて電源がオンされたり、またはオフされる。残りのアイコン121b,121cもこれと同様に動作する。
図12A乃至図12Cでは、一つのアイコンに、それに対応する制御内容を全て記載するものとして示したが、ボリュームの制御に関するアイコンに、‘ボリューム'のみを表示し、チャネルの制御に関するアイコンに、‘チャネル’のみを表示し、電源の制御に関するアイコンに、‘電源’のみを表示することも可能である。ユーザが、どの制御に関するアイコンであるかを認知できれば、アイコンに表示される内容には制限がない。
電源オンと電源オフ、ボリュームアップとボリュームダウン、及びチャネルアップとチャネルダウンは全てトグル(toggle)される形態で実行されるとよい。例えば、ユーザが、第1音声入力部112を通じて‘チャネルアップ’に対応する制御命令語を入力した場合、図12Bに示したように、カーソル121dを‘チャネルアップ/ダウン’アイコン121cへ移動させ、アップ命令とダウン命令を区別するために、‘チャネルアップ/ダウン’アイコン121cを赤色に変化させることができる。‘チャネルダウン’に対応する制御命令語を入力した場合には、図12Cに示したように、カーソル121dを‘チャネルアップ/ダウン’アイコン121cへ移動させ、‘チャネルアップ/ダウン’アイコン121cが青色に変わるようにすることができる。
他の実施例であって、対応する制御命令語が入力されると、該当のアイコンが点滅するようにしたり、チャネルアップ/ダウンに対応する制御命令語、またはボリュームアップ/ダウンに対応する制御命令語が入力されると、該当のアイコン内に縦バー(bar)が生成され、チャネルの調節量またはボリュームの調節量を表示することができる。
また、図12A乃至図12Cでは、映像出力部121にカーソル121dが表示されるものとしたが、一つ以上の他の実施例がこれに限定されるものではなく、カーソルが表示されず、アイコンにのみ変化を与えることも可能である。
本実施例に係る映像装置1は、該当のアイコンに対応する制御命令語が入力されたことを示すために、様々な方式で該当のアイコンを変化させることができ、アイコンの変化には、アイコン内にカーソルが入ってくることも含まれる。但し、本発明の実施形態が上述した例示に限定されるものではない。
図12A乃至図12Cにおいては、電源、チャネル及びボリュームの制御に関するアイコンのみを示したが、その他にも、ウェブブラウザーオン/オフ、ミュートオン/オフなどの様々な制御命令に対応するアイコンを表示することができる。
図13は、一実施例に係る映像装置1において、ユーザによって命令語を生成する方法を示すフローチャートであり、図14A乃至図14Dは、一実施例に係る映像装置1が、ユーザによって命令語を生成する場合、映像出力部121に表示される画面を示す図である。本実施例では、音声認識開始命令語を生成するものとする。
図13を参照すると、まず、ユーザから命令語生成命令の入力を受ける(ステップ811)。命令語生成命令は、音声信号として入力されてもよく、遠隔制御器300や映像装置本体100に備えられた入力ボタンを介して入力されてもよく、モーション認識を通じて入力されてもよい。命令語生成命令のを入力方式には制限がない。
具体的に、図14Aに示すように、ユーザは、まず、環境設定に関するメニュー項目のうち、‘命令語生成’項目を選択する。‘命令語生成’項目も、音声認識を通じて選択してもよく、遠隔制御器300または映像装置本体100に備えられた入力ボタンを押したり、モーション認識を通じて選択してもよい。
そして、ユーザから候補命令語の入力を受ける(ステップ813)。候補命令語は、第1音声入力部112を通じて音声信号として入力を受けることができる。
具体的に、図14Bに示されたように、映像装置1の映像出力部121に“候補命令語を入力して下さい。”という文句が表示されると、ユーザは、第1音声入力部112を通じて命令語として登録しようとする候補命令語を入力する。例えば、ユーザは、音節末子音がなく、短い単語である、‘マイク’を候補命令語として入力することができる。
候補命令語が入力されると、入力された候補命令語が音声認識開始命令語として適しているか否かをテストする(ステップ815)。音声認識開始命令語としては、音声認識が容易な短くて、音節末子音がない単語が適し、その他にも、様々な基準を用いて候補命令語の適合性をテストすることができ、候補命令語の音声認識率を測定することもできる。
具体的に、図14Cに示すように、映像出力部121に、“テスト中”という文句が表示される。
テストの結果、候補命令語が音声認識開始命令語として適しているという結果が出ると(ステップ817の‘はい’)、候補命令語を音声認識開始命令語として登録し(ステップ819)、音声認識部に伝送する。一実施例において、候補命令語の音声認識率が所定の基準値(例:80%)以上であれば、音声認識開始命令語として適しているものと判断することができる。
テストの結果、候補命令語が音声認識開始命令語として適していないという結果が出ると(ステップ817の‘いいえ’)、図9に示されたように、ユーザから、再び候補命令語の入力を受けることもでき、ユーザの選択によって命令語生成を終了することもできる。
具体的に、テスト部のテストが終了すると、図14Dに示すように、テストの結果が表示され、例えば、候補命令語が音声認識開始命令語として登録が可能な場合は、映像出力部121に、‘登録可能’という文句が表示される。候補命令語が音声認識開始命令語として適していないため、映像出力部121に、‘登録不可能’という文句が表示されると、ユーザは、新しい候補命令語を再び入力することができる。
図13及び図14A乃至図14Dは、音声認識開始命令語の生成に関して説明したが、一つ以上の他の実施例はこれに限定されず、他の制御命令の生成にも適用可能であり、映像装置1の映像出力部121は、命令語の生成を進行させることができる様々な文句を表示することができる。
実施例でのように、音声認識を通じてユーザの制御命令を入力するようになる場合、ユーザの立場では、入力ボタンを押すなどの動作を取ることなく、制御命令を言うだけでよいので、便利に所望の作業を実行することができる。
また、映像出力部121上には、制御命令に対応するアイコンが表示される。例えば、‘チャネルアップ(channel up)’アイコン及び‘チャネルダウン(channel down)’アイコン、‘ボリュームアップ(volume up)’アイコン及び‘ボリュームダウン(volume down)’アイコンなどが表示されてもよい。特に、前記アイコンは、映像装置1の動作のためのものであるので、映像出力部121にメイン画面が表示される時に、映像出力部121の一部の領域に表示される。
映像出力部121の大きさは制限的であるので、表示できるアイコンの個数にも限界があり、他の実施例に係る映像装置1は、アイコンが占める面積を効率的に管理するために、複数の制御命令語に対応する一つのアイコンを表示する。
上述した実施例は映像装置1を参照して説明したが、一つ以上の他の実施例がこれに限定されないことを理解するであろう。例えば、他の実施例は、オーディオ/ビデオ受信機、セットトップボックス、音声認識及び/または音響出力を行ったり、具現したり、可能にしたり、制御できる独立型装置に適用され得る。
制限されないが、例示的な実施例は、コンピュータ可読記録媒体上のコンピュータ可読コードとして具現され得る。コンピュータ可読記録媒体は、以降にコンピュータシステムによって読み取ることができるデータを格納できる任意のデータ格納装置である。コンピュータ可読記録媒体の例には、ROM、RAM、CD−ROM、磁気テープ、フロッピー(登録商標)ディスク及び光データ格納装置が含まれる。コンピュータ可読記録媒体は、ネットワーク結合コンピュータシステムを通じて分配され、コンピュータ可読コードが分配方式で格納及び実行される。また、例示的な実施例は、搬送波などのコンピュータ可読送信媒体を介して送信されたコンピュータプログラムとして記入され、プログラムを実行する汎用または特殊目的のディジタルコンピュータで受信されて具現され得る。また、例示的な実施例において、上述した装置の一つ以上のユニットは、回路、プロセッサ、及びマイクロプロセッサなどを含むことができ、コンピュータ可読媒体に格納されたコンピュータプログラムを実行することができる。
以上では、いくつかの実施例について図示し、説明したが、それは、上述した特定の実施例に限定されず、特許請求の範囲で請求する本発明の要旨を逸脱することなく、本発明の属する技術分野における通常の知識を有する者によって様々な変形実施が可能であることはもちろんであり、このような変形実施は、本発明の技術的思想から個別的に理解されてはならない。
1 映像装置
100 映像装置本体
110 ユーザ入力部
220 制御部
210 音声認識部
280 命令語生成部

Claims (32)

  1. コンテンツを表示する表示部と、
    外部装置と通信する通信部と、
    音声信号を出力する音声出力部と、
    前記外部装置から制御信号を受信すると音声認識を起動し、前記音声出力部を通じて出力される音声信号の出力音量を下げる制御部と、
    を備え、
    前記制御部は、前記音声認識が起動された後、第1所定時間の間音声命令としての音声入力が前記外部装置から受信されなかった場合、前記音声命令のための前記音声入力を要請するメッセージを出力し、
    前記制御部は、前記音声認識が起動された後、第2所定時間の間前記音声命令としての前記音声入力が前記外部装置から受信されなかった場合において、前記音声認識が起動された後、第2所定時間が経過した場合に、前記音声認識を解除し、前記出力音量を前記音声認識の起動以前の出力音量に復元し、
    前記制御部は、前記音声認識が起動された後、第2所定時間の間に前記音声命令としての前記音声入力が前記外部装置から受信された場合において、前記音声認識が起動され、前記音声命令として前記音声入力が受信された後、次の音声命令を待機する第3所定時間が経過した場合に、前記音声認識を解除し、前記出力音量を前記音声認識の起動以前の出力音量に復元し、
    前記第2所定時間は、前記第1所定時間より長く、
    前記第3所定時間は、前記第2所定時間より長い、
    音声認識可能な画像表示装置。
  2. 前記外部装置は、リモートコントローラを含み、
    前記画像表示装置は、前記リモートコントローラから、前記制御信号および/または前記音声命令としての前記音声入力を受信する
    請求項1に記載の画像表示装置。
  3. 前記制御部により出力されるメッセージは、前記表示部に表示されるメッセージ画像を含む
    請求項1に記載の画像表示装置。
  4. 前記制御部により出力されるメッセージは、前記音声出力部から出力される音声メッセージを含む
    請求項1に記載の画像表示装置。
  5. 前記制御部は、前記外部装置から前記制御信号を受信すると、表示されているコンテンツに少なくとも1つのアイコンを表示するように前記表示部を制御し、
    前記少なくとも1つのアイコンは、それぞれ1つ以上の音声命令に対応可能である
    請求項1に記載の画像表示装置。
  6. 前記制御部は、前記外部装置から前記音声命令としての前記音声入力を受信すると、受信した前記音声命令に基づいて、前記少なくとも1つのアイコンのうち、受信した前記音声命令に対応する前記アイコンを変更するように前記表示部を制御する
    請求項5に記載の画像表示装置。
  7. 前記制御部は、前記音声認識が起動された後、前記外部装置から前記制御信号を再び受信するか前記外部装置から他の制御信号を受信すると、前記音声認識を解除する
    請求項1に記載の画像表示装置。
  8. 前記制御部は、前記外部装置から所定音量以上の音声を受信すると、前記制御信号が受信されたと判断する
    請求項1に記載の画像表示装置。
  9. 前記制御部は、前記外部装置から候補音声命令言語を受信すると、該候補音声命令言語が音声認識される音声命令言語として適しているかを検査し、前記検査の結果、前記候補音声命令言語が前記音声命令言語として適している場合、前記音声命令として前記候補音声命令言語を登録する
    請求項1に記載の画像表示装置。
  10. コンテンツを表示する表示部と、
    音声入力を受信する音声入力部と、
    音声信号を出力する音声出力部と、
    前記音声入力部を通じて前記音声入力を受信すると音声認識を起動し、前記音声出力部を通じて出力される音声信号の出力音量を下げる制御部と、
    を備え、
    前記制御部は、前記音声認識が起動された後、第1所定時間の間音声命令としての前記音声入力が前記音声入力部を通じて受信されなかった場合、前記音声認識のための前記音声入力を要請するメッセージを出力し、
    前記制御部は、前記音声認識が起動された後、第2所定時間の間前記音声命令としての前記音声入力が前記音声入力部を通じて受信されなかった場合において、前記音声認識が起動された後、第2所定時間が経過した場合に、前記音声認識を解除し、前記出力音量を前記音声認識の起動以前の出力音量に復元し、
    前記制御部は、前記音声認識が起動された後、第2所定時間の間に前記音声命令としての前記音声入力が前記音声入力部を通じて受信された場合において、前記音声認識が起動され、前記音声命令として前記音声入力が受信された後、次の音声命令を待機する第3所定時間が経過した場合に、前記音声認識を解除し、前記出力音量を前記音声認識の起動以前の出力音量に復元し、
    前記第2所定時間は、前記第1所定時間より長く、
    前記第3所定時間は、前記第2所定時間より長い、
    音声認識可能な画像表示装置。
  11. 外部装置と通信して制御信号を受信する通信部をさらに備え、
    前記画像表示装置は、前記外部装置から前記制御信号を受信する
    請求項10に記載の画像表示装置。
  12. 前記制御部により出力されるメッセージは、前記表示部に表示されるメッセージ画像を含む
    請求項10に記載の画像表示装置。
  13. 前記制御部により出力されるメッセージは、前記音声出力部から出力される音声メッセージを含む
    請求項10に記載の画像表示装置。
  14. 前記制御部は、前記音声入力部を通じて音声入力を受信すると、表示されているコンテンツに少なくとも1つのアイコンを表示するように前記表示部を制御し、
    前記少なくとも1つのアイコンは、それぞれ1つ以上の音声命令に対応可能である
    請求項10に記載の画像表示装置。
  15. 前記制御部は、前記音声入力部を通じて前記音声命令としての前記音声入力を受信すると、受信した前記音声命令に基づいて、前記少なくとも1つのアイコンのうち、受信した前記音声命令に対応する前記アイコンを変更するように前記表示部を制御する
    請求項14に記載の画像表示装置。
  16. 前記制御部は、前記音声認識が起動された後、前記外部装置から前記制御信号を再び受信するか前記外部装置から他の制御信号を受信すると、前記音声認識を解除する
    請求項11に記載の画像表示装置。
  17. 前記制御部は、前記音声入力部を通じて所定音量以上の音声を受信すると、前記音声入力が受信されたと判断する
    請求項10に記載の画像表示装置。
  18. 前記制御部は、前記音声入力部を通じて候補音声命令言語を受信すると、該候補音声命令言語が音声認識される音声命令言語として適しているかを検査し、前記検査の結果、前記候補音声命令言語が前記音声命令言語として適している場合、前記音声命令として前記候補音声命令言語を登録する
    請求項10に記載の画像表示装置。
  19. 外部装置から制御信号を受信すると音声認識を起動し、音声出力部を通じて出力される音声信号の出力音量を下げ、
    前記音声認識が起動された後、第1所定時間の間音声命令としての音声入力が前記外部装置から受信されなかった場合、前記音声認識のための前記音声入力を要請するメッセージを出力し、
    前記音声認識が起動された後、第2所定時間の間前記音声命令としての前記音声入力が前記外部装置から受信されなかった場合において、前記音声認識が起動された後、第2所定時間が経過した場合に、前記音声認識を解除し、前記出力音量を前記音声認識の起動以前の出力音量に復元し、
    前記音声認識が起動された後、第2所定時間の間に前記音声命令としての前記音声入力が前記外部装置から受信された場合において、前記音声認識が起動され、前記音声命令として前記音声入力が受信された後、次の音声命令を待機する第3所定時間が経過した場合に、前記音声認識を解除し、前記出力音量を前記音声認識の起動以前の出力音量に復元し、
    前記第2所定時間は、前記第1所定時間より長く、
    前記第3所定時間は、前記第2所定時間より長い、
    音声認識可能な画像表示装置の制御方法。
  20. 制御部により出力されるメッセージは、表示部に表示されるメッセージ画像を含む
    請求項19に記載の制御方法。
  21. 制御部により出力されるメッセージは、前記音声出力部から出力される音声メッセージを含む
    請求項19に記載の制御方法。
  22. さらに、前記外部装置から前記制御信号を受信すると、表示部に表示されているコンテンツに少なくとも1つのアイコンを表示し、
    前記少なくとも1つのアイコンは、それぞれ1つ以上の音声命令に対応可能である
    請求項19に記載の制御方法。
  23. さらに、前記外部装置から前記音声命令としての前記音声入力を受信すると、受信した前記音声命令に基づいて、前記少なくとも1つのアイコンのうち、受信した前記音声命令に対応する前記アイコンを変更する
    請求項22に記載の制御方法。
  24. さらに、前記音声認識が起動された後、前記外部装置から前記制御信号を再び受信するか前記外部装置から他の制御信号を受信すると、前記音声認識を解除する
    請求項19に記載の制御方法。
  25. さらに、前記外部装置から候補音声命令言語を受信すると、該候補音声命令言語が音声認識される音声命令言語として適しているかを検査し、前記検査の結果、前記候補音声命令言語が前記音声命令言語として適している場合、前記音声命令として前記候補音声命令言語を登録する
    請求項19に記載の制御方法。
  26. 音声入力部を通じて音声入力を受信すると音声認識を起動し、音声出力部を通じて出力された音声信号の出力音量を下げ、
    前記音声認識が起動された後、第1所定時間の間音声命令としての前記音声入力が前記音声入力部を通じて受信されなかった場合、前記音声認識のための前記音声入力を要請するメッセージを出力し、
    前記音声認識が起動された後、第2所定時間の間前記音声命令としての前記音声入力が外部装置から受信されなかった場合において、前記音声認識が起動された後、第2所定時間が経過した場合に、前記音声認識を解除し、前記出力音量を前記音声認識の起動以前の出力音量に復元し、
    前記音声認識が起動された後、第2所定時間の間に前記音声命令としての前記音声入力が前記音声入力部を通じて受信された場合において、前記音声認識が起動され、前記音声命令として前記音声入力が受信された後、次の音声命令を待機する第3所定時間が経過した場合に、前記音声認識を解除し、前記出力音量を前記音声認識の起動以前の出力音量に復元し、
    前記第2所定時間は、前記第1所定時間より長く、
    前記第3所定時間は、前記第2所定時間より長い、
    音声認識可能な画像表示装置の制御方法。
  27. さらに、前記音声入力部を通じて前記音声入力を受信すると、表示部に表示されているコンテンツに少なくとも1つのアイコンを表示し、
    前記少なくとも1つのアイコンは、それぞれ1つ以上の音声命令に対応可能である
    請求項26に記載の制御方法。
  28. さらに、前記音声入力部を通じて前記音声命令としての前記音声入力を受信すると、受信した前記音声命令に基づいて、少なくとも1つのアイコンのうち、受信した前記音声命令に対応する前記アイコンを変更する
    請求項26記載の制御方法。
  29. さらに、前記音声認識が起動された後、前記音声出力部を通じて他の制御信号を受信すると、前記音声認識を解除する
    請求項26に記載の制御方法。
  30. さらに、前記音声入力部を通じて候補音声命令言語を受信すると、該候補音声命令言語が音声認識される音声命令言語として適しているかを検査し、前記検査の結果、前記候補音声命令言語が前記音声命令言語として適している場合、前記音声命令として前記候補音声命令言語を登録する
    請求項26に記載の制御方法。
  31. 請求項19ないし30のうちの何れか一項に記載の制御方法をコンピュータに実行させるコンピュータプログラム。
  32. 請求項31に記載のコンピュータプログラムを記録した記録媒体。
JP2013002161A 2012-01-09 2013-01-09 画像表示装置、制御方法、コンピュータプログラム及び記録媒体 Active JP6342118B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2012-0002659 2012-01-09
KR20120002659 2012-01-09
KR1020120143590A KR101590332B1 (ko) 2012-01-09 2012-12-11 영상장치 및 그 제어방법
KR10-2012-0143590 2012-12-11

Publications (3)

Publication Number Publication Date
JP2013142903A JP2013142903A (ja) 2013-07-22
JP2013142903A5 JP2013142903A5 (ja) 2016-02-25
JP6342118B2 true JP6342118B2 (ja) 2018-06-13

Family

ID=47665898

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013002161A Active JP6342118B2 (ja) 2012-01-09 2013-01-09 画像表示装置、制御方法、コンピュータプログラム及び記録媒体

Country Status (9)

Country Link
US (8) US9401149B2 (ja)
EP (3) EP2894633B1 (ja)
JP (1) JP6342118B2 (ja)
KR (1) KR101590332B1 (ja)
CN (3) CN103198832A (ja)
AU (1) AU2013200132B2 (ja)
BR (1) BR102013000553B1 (ja)
IN (1) IN2013DE00063A (ja)
WO (1) WO2013105782A1 (ja)

Families Citing this family (112)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US10706373B2 (en) 2011-06-03 2020-07-07 Apple Inc. Performing actions associated with task items that represent tasks to perform
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
CN113470641B (zh) 2013-02-07 2023-12-15 苹果公司 数字助理的语音触发器
US10395651B2 (en) * 2013-02-28 2019-08-27 Sony Corporation Device and method for activating with voice input
US9740304B2 (en) * 2013-03-13 2017-08-22 Google Inc. Systems, methods, and media for providing an enhanced remote control having multiple modes
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
US9980074B2 (en) 2013-05-29 2018-05-22 Qualcomm Incorporated Quantization step sizes for compression of spatial components of a sound field
US20180332339A1 (en) * 2017-05-12 2018-11-15 Enseo, Inc. Set-Top Box with Enhanced Functionality and System and Method for Use of Same
KR101772152B1 (ko) 2013-06-09 2017-08-28 애플 인크. 디지털 어시스턴트의 둘 이상의 인스턴스들에 걸친 대화 지속성을 가능하게 하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
US9589565B2 (en) * 2013-06-21 2017-03-07 Microsoft Technology Licensing, Llc Environmentally aware dialog policies and response generation
JP2015011170A (ja) * 2013-06-28 2015-01-19 株式会社ATR−Trek ローカルな音声認識を行なう音声認識クライアント装置
CN104347072A (zh) * 2013-08-02 2015-02-11 广东美的制冷设备有限公司 遥控器控制的方法、装置和遥控器
CN105453026A (zh) 2013-08-06 2016-03-30 苹果公司 基于来自远程设备的活动自动激活智能响应
KR102394485B1 (ko) * 2013-08-26 2022-05-06 삼성전자주식회사 음성 인식을 위한 전자 장치 및 방법
US9240182B2 (en) * 2013-09-17 2016-01-19 Qualcomm Incorporated Method and apparatus for adjusting detection threshold for activating voice assistant function
US10373611B2 (en) * 2014-01-03 2019-08-06 Gracenote, Inc. Modification of electronic system operation based on acoustic ambience classification
KR102210433B1 (ko) * 2014-01-21 2021-02-01 삼성전자주식회사 전자 장치 및 이의 음성 인식 방법
KR102215579B1 (ko) * 2014-01-22 2021-02-15 삼성전자주식회사 대화형 시스템, 디스플레이 장치 및 그 제어 방법
US9922656B2 (en) 2014-01-30 2018-03-20 Qualcomm Incorporated Transitioning of ambient higher-order ambisonic coefficients
US20170078737A1 (en) * 2014-02-27 2017-03-16 Lg Electronics Inc. Digital device and control method therefor
WO2015144536A1 (en) * 2014-03-27 2015-10-01 Sony Corporation Electronic device and method for identifying input commands of a user
US10770087B2 (en) 2014-05-16 2020-09-08 Qualcomm Incorporated Selecting codebooks for coding vectors decomposed from higher-order ambisonic audio signals
WO2015184186A1 (en) 2014-05-30 2015-12-03 Apple Inc. Multi-command single utterance input method
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
KR102147329B1 (ko) 2014-06-17 2020-08-24 엘지전자 주식회사 영상 표시 기기 및 그의 동작 방법
JP2016012795A (ja) * 2014-06-27 2016-01-21 ソニー株式会社 通信装置、通信方法およびプログラム
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
CN104159153A (zh) * 2014-07-22 2014-11-19 乐视网信息技术(北京)股份有限公司 用户角色的切换方法及系统
US9736606B2 (en) 2014-08-01 2017-08-15 Qualcomm Incorporated Editing of higher-order ambisonic audio data
CN104331265A (zh) * 2014-09-30 2015-02-04 北京金山安全软件有限公司 一种语音输入方法、装置及终端
KR102245747B1 (ko) 2014-11-20 2021-04-28 삼성전자주식회사 사용자 명령어 등록을 위한 디스플레이 장치 및 방법
CN104505099A (zh) * 2014-12-08 2015-04-08 北京云知声信息技术有限公司 去除语音信号中已知干扰的方法和设备
CN104505092B (zh) * 2014-12-10 2017-12-22 广东美的制冷设备有限公司 空调器语音控制方法和系统
CN104505093A (zh) * 2014-12-16 2015-04-08 佛山市顺德区美的电热电器制造有限公司 家用电器及其语音交互方法
US9754588B2 (en) * 2015-02-26 2017-09-05 Motorola Mobility Llc Method and apparatus for voice control user interface with discreet operating mode
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
KR101688164B1 (ko) * 2015-04-16 2016-12-20 엘지전자 주식회사 차량 단말 장치 및 이의 제어방법
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10200824B2 (en) 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US10770067B1 (en) * 2015-09-08 2020-09-08 Amazon Technologies, Inc. Dynamic voice search transitioning
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
JP2017138476A (ja) * 2016-02-03 2017-08-10 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US9858927B2 (en) * 2016-02-12 2018-01-02 Amazon Technologies, Inc Processing spoken commands to control distributed audio outputs
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
US20170371615A1 (en) * 2016-06-22 2017-12-28 Qualcomm Incorporated Alerting a user to a change in an audio stream
US10506192B2 (en) * 2016-08-16 2019-12-10 Google Llc Gesture-activated remote control
KR102398390B1 (ko) * 2017-03-22 2022-05-16 삼성전자주식회사 전자 장치 및 전자 장치의 제어 방법
KR102304701B1 (ko) * 2017-03-28 2021-09-24 삼성전자주식회사 사용자의 음성 입력에 대한 답변을 제공하는 방법 및 장치
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770429A1 (en) 2017-05-12 2018-12-14 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK201770411A1 (en) 2017-05-15 2018-12-20 Apple Inc. MULTI-MODAL INTERFACES
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
US10303715B2 (en) 2017-05-16 2019-05-28 Apple Inc. Intelligent automated assistant for media exploration
CN111345016A (zh) * 2017-09-13 2020-06-26 深圳传音通讯有限公司 一种智能终端的启动控制方法及启动控制系统
KR102527278B1 (ko) * 2017-12-04 2023-04-28 삼성전자주식회사 전자 장치, 그 제어 방법 및 컴퓨터 판독가능 기록 매체
KR102429556B1 (ko) * 2017-12-05 2022-08-04 삼성전자주식회사 디스플레이 장치 및 음향 출력 방법
CN107958668B (zh) * 2017-12-15 2022-04-19 中广热点云科技有限公司 智能电视的声控选播方法、声控选播系统
CN108363557B (zh) * 2018-02-02 2020-06-12 刘国华 人机交互方法、装置、计算机设备和存储介质
CN108419108A (zh) * 2018-03-06 2018-08-17 深圳创维数字技术有限公司 语音控制方法、装置、遥控器和计算机存储介质
US10735597B1 (en) * 2018-03-23 2020-08-04 Amazon Technologies, Inc. Selecting user device during communications session
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
CN108600898B (zh) * 2018-03-28 2020-03-31 深圳市冠旭电子股份有限公司 一种配置无线音箱的方法、无线音箱及终端设备
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US20190043479A1 (en) * 2018-05-07 2019-02-07 Intel Corporation Wake on voice key phrase segmentation
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
JP2020065140A (ja) * 2018-10-16 2020-04-23 カシオ計算機株式会社 音声処理装置、方法、プログラム、携帯端末
KR20200043075A (ko) * 2018-10-17 2020-04-27 삼성전자주식회사 전자 장치 및 그 제어방법, 전자 장치의 음향 출력 제어 시스템
CN111383633B (zh) * 2018-12-29 2023-08-01 深圳Tcl新技术有限公司 语音识别连续性控制方法、装置、智能终端及存储介质
KR20200098280A (ko) * 2019-02-12 2020-08-20 삼성전자주식회사 전자 장치 및 전자 장치에서 사운드 출력 방법
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
US11295726B2 (en) * 2019-04-08 2022-04-05 International Business Machines Corporation Synthetic narrowband data generation for narrowband automatic speech recognition systems
CN111933130B (zh) * 2019-04-24 2024-10-08 斑马智行网络(香港)有限公司 语音识别方法、装置及系统
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
DK201970510A1 (en) 2019-05-31 2021-02-11 Apple Inc Voice identification in digital assistant systems
US11468890B2 (en) 2019-06-01 2022-10-11 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11183193B1 (en) 2020-05-11 2021-11-23 Apple Inc. Digital assistant hardware abstraction
US11755276B2 (en) 2020-05-12 2023-09-12 Apple Inc. Reducing description length based on confidence
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
US11451855B1 (en) * 2020-09-10 2022-09-20 Joseph F. Kirley Voice interaction with digital signage using mobile device
CN117396956A (zh) * 2021-06-03 2024-01-12 日产自动车株式会社 显示控制装置和显示控制方法
KR20230063672A (ko) 2021-11-02 2023-05-09 주식회사 케이티 스마트 스피커에서의 미디어볼륨 조정방법 및 그 장치
JP2023113171A (ja) * 2022-02-03 2023-08-16 パナソニックIpマネジメント株式会社 音声処理装置、音声処理方法、音声処理プログラム、および音声処理システム

Family Cites Families (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5220595A (en) 1989-05-17 1993-06-15 Kabushiki Kaisha Toshiba Voice-controlled apparatus using telephone and voice-control method
JPH07109560B2 (ja) * 1990-11-30 1995-11-22 富士通テン株式会社 音声認識装置
KR0122953Y1 (ko) 1992-10-23 1998-10-15 구자홍 음성인식 텔레비젼 수상기의 합성 음량 자동 조절장치
US5774859A (en) * 1995-01-03 1998-06-30 Scientific-Atlanta, Inc. Information system having a speech interface
JP3674990B2 (ja) * 1995-08-21 2005-07-27 セイコーエプソン株式会社 音声認識対話装置および音声認識対話処理方法
US5832440A (en) 1996-06-10 1998-11-03 Dace Technology Trolling motor with remote-control system having both voice--command and manual modes
FR2783625B1 (fr) * 1998-09-21 2000-10-13 Thomson Multimedia Sa Systeme comprenant un appareil telecommande et un dispositif de telecommande vocale de l'appareil
US7266498B1 (en) * 1998-12-18 2007-09-04 Intel Corporation Method and apparatus for reducing conflicts between speech-enabled applications sharing speech menu
JP2001042891A (ja) * 1999-07-27 2001-02-16 Suzuki Motor Corp 音声認識装置、音声認識搭載装置、音声認識搭載システム、音声認識方法、及び記憶媒体
JP4554044B2 (ja) * 1999-07-28 2010-09-29 パナソニック株式会社 Av機器用音声認識装置
DE60032982T2 (de) * 1999-09-13 2007-11-15 Matsushita Electric Industrial Co., Ltd., Kadoma Spracherkennung zur Steuerung eines Geräts
US7292986B1 (en) * 1999-10-20 2007-11-06 Microsoft Corporation Method and apparatus for displaying speech recognition progress
JP2001275176A (ja) * 2000-03-24 2001-10-05 Matsushita Electric Ind Co Ltd リモートコントロール装置
JP2001296881A (ja) * 2000-04-14 2001-10-26 Sony Corp 情報処理装置および方法、並びに記録媒体
JP2001312297A (ja) * 2000-04-28 2001-11-09 Nippon Seiki Co Ltd 音声認識装置
US6629077B1 (en) 2000-11-22 2003-09-30 Universal Electronics Inc. Universal remote control adapted to receive voice input
DE10058786A1 (de) * 2000-11-27 2002-06-13 Philips Corp Intellectual Pty Verfahren zum Steuerung eines eine akustische Ausgabeeinrichtung aufweisenden Geräts
JP2002182691A (ja) * 2000-12-14 2002-06-26 Matsushita Electric Ind Co Ltd 音を出力する機器を制御する制御装置
US20020077830A1 (en) * 2000-12-19 2002-06-20 Nokia Corporation Method for activating context sensitive speech recognition in a terminal
US20030005462A1 (en) * 2001-05-22 2003-01-02 Broadus Charles R. Noise reduction for teleconferencing within an interactive television system
US7369997B2 (en) * 2001-08-01 2008-05-06 Microsoft Corporation Controlling speech recognition functionality in a computing device
US7107081B1 (en) * 2001-10-18 2006-09-12 Iwao Fujisaki Communication device
US20050015197A1 (en) * 2002-04-30 2005-01-20 Shinya Ohtsuji Communication type navigation system and navigation method
JP2003345390A (ja) * 2002-05-23 2003-12-03 Matsushita Electric Ind Co Ltd 音声処理装置及びリモートコントローラ装置
US7249023B2 (en) * 2003-03-11 2007-07-24 Square D Company Navigated menuing for industrial human machine interface via speech recognition
JP2004354682A (ja) * 2003-05-29 2004-12-16 Alpine Electronics Inc 音声制御装置
KR100652645B1 (ko) * 2004-07-23 2006-12-06 엘지전자 주식회사 푸시 투 토크형 이동 통신 단말기의 음성 검출 및 인식을이용한 발언권 관리 장치와 방법
JP4872241B2 (ja) 2005-05-31 2012-02-08 船井電機株式会社 テレビ受像機
JP4296181B2 (ja) * 2006-02-28 2009-07-15 パイオニア株式会社 地図検索装置及び地図検索方法等
US20080282154A1 (en) * 2006-09-11 2008-11-13 Nurmi Mikko A Method and apparatus for improved text input
KR20080033639A (ko) 2006-10-12 2008-04-17 삼성전자주식회사 영상 재생 장치 및 영상 재생 장치에서의 음량 조절 방법
US20080118086A1 (en) * 2006-11-16 2008-05-22 Scott Krig Method and System For Controlling Volume Settings For Multimedia Devices
US8676273B1 (en) * 2007-08-24 2014-03-18 Iwao Fujisaki Communication device
TWI399966B (zh) * 2007-12-31 2013-06-21 Htc Corp 行動電話與其撥話方法
KR20090107365A (ko) * 2008-04-08 2009-10-13 엘지전자 주식회사 이동 단말기 및 그 메뉴 제어방법
US8958848B2 (en) * 2008-04-08 2015-02-17 Lg Electronics Inc. Mobile terminal and menu control method thereof
JP5151644B2 (ja) * 2008-04-16 2013-02-27 ソニー株式会社 リモートコントロールシステム及びリモートコントロール信号処理方法
US8312660B1 (en) * 2008-05-09 2012-11-20 Iwao Fujisaki Firearm
KR100988397B1 (ko) * 2008-06-09 2010-10-19 엘지전자 주식회사 이동 단말기 및 그의 텍스트 수정방법
KR101502003B1 (ko) * 2008-07-08 2015-03-12 엘지전자 주식회사 이동 단말기 및 그 텍스트 입력 방법
CN101729957A (zh) * 2008-10-24 2010-06-09 深圳富泰宏精密工业有限公司 电子装置及消除电子装置音量突变的方法
KR101545582B1 (ko) * 2008-10-29 2015-08-19 엘지전자 주식회사 단말기 및 그 제어 방법
US11012732B2 (en) * 2009-06-25 2021-05-18 DISH Technologies L.L.C. Voice enabled media presentation systems and methods
JP5463922B2 (ja) * 2010-01-12 2014-04-09 株式会社デンソー 車載機
US8522283B2 (en) * 2010-05-20 2013-08-27 Google Inc. Television remote control data transfer
JP5695447B2 (ja) 2011-03-01 2015-04-08 株式会社東芝 テレビジョン装置及び遠隔操作装置
DE112011105136B4 (de) * 2011-04-08 2018-12-13 Mitsubishi Electric Corporation Spracherkennungsvorrichtung und Navigationsvorrichtung
EP3754997B1 (en) * 2011-08-05 2023-08-30 Samsung Electronics Co., Ltd. Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same
KR102022318B1 (ko) * 2012-01-11 2019-09-18 삼성전자 주식회사 음성 인식을 사용하여 사용자 기능을 수행하는 방법 및 장치
KR101990037B1 (ko) * 2012-11-13 2019-06-18 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법

Also Published As

Publication number Publication date
US20210158821A1 (en) 2021-05-27
AU2013200132A1 (en) 2013-07-25
CN105847921A (zh) 2016-08-10
JP2013142903A (ja) 2013-07-22
US12033635B2 (en) 2024-07-09
US20240339115A1 (en) 2024-10-10
CN105847921B (zh) 2018-04-24
KR101590332B1 (ko) 2016-02-18
US20130179168A1 (en) 2013-07-11
US11763812B2 (en) 2023-09-19
WO2013105782A1 (en) 2013-07-18
IN2013DE00063A (ja) 2015-06-26
EP2894633A1 (en) 2015-07-15
AU2013200132B2 (en) 2014-07-24
US20180025728A1 (en) 2018-01-25
CN110265030A (zh) 2019-09-20
CN103198832A (zh) 2013-07-10
EP2613313A1 (en) 2013-07-10
EP2613313B1 (en) 2024-03-06
US9786278B2 (en) 2017-10-10
KR20130083371A (ko) 2013-07-22
BR102013000553B1 (pt) 2022-04-19
EP2894633B1 (en) 2017-11-01
US9530418B2 (en) 2016-12-27
US10957323B2 (en) 2021-03-23
US20150213802A1 (en) 2015-07-30
US20230245653A1 (en) 2023-08-03
EP4220632A1 (en) 2023-08-02
US20200005790A1 (en) 2020-01-02
BR102013000553A2 (pt) 2015-05-19
US20170069323A1 (en) 2017-03-09
US9401149B2 (en) 2016-07-26

Similar Documents

Publication Publication Date Title
JP6342118B2 (ja) 画像表示装置、制御方法、コンピュータプログラム及び記録媒体
EP2960882B1 (en) Display device and operating method thereof
US20240046934A1 (en) Display apparatus capable of releasing a voice input mode by sensing a speech finish and voice control method thereof
US9225891B2 (en) Display apparatus and method for controlling display apparatus thereof
JP2014002383A (ja) 端末装置及び端末装置の制御方法
KR20150087025A (ko) 전자 장치 및 이의 음성 인식 방법
KR101631594B1 (ko) 표시 장치 및 그 제어방법
KR102066564B1 (ko) 전자 장치 및 그의 제어 방법
KR102494051B1 (ko) 전자 장치 및 이의 음성 인식 방법
JP2015535971A (ja) ディスプレイ装置及びその制御方法
US10735027B2 (en) Method of detecting audio input mode
WO2019178739A1 (zh) 音箱、智能终端及基于音箱及智能终端的交互控制方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170519

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20171017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180216

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20180226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180403

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180412

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180516

R150 Certificate of patent or registration of utility model

Ref document number: 6342118

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250