JP7187468B2 - 遠隔制御装置及び遠隔制御装置のユーザ音声受信方法 - Google Patents

遠隔制御装置及び遠隔制御装置のユーザ音声受信方法 Download PDF

Info

Publication number
JP7187468B2
JP7187468B2 JP2019546280A JP2019546280A JP7187468B2 JP 7187468 B2 JP7187468 B2 JP 7187468B2 JP 2019546280 A JP2019546280 A JP 2019546280A JP 2019546280 A JP2019546280 A JP 2019546280A JP 7187468 B2 JP7187468 B2 JP 7187468B2
Authority
JP
Japan
Prior art keywords
remote control
control device
user
voice
utterance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019546280A
Other languages
English (en)
Other versions
JP2020527734A (ja
Inventor
チェ-ヨン・リム
ジョン-ジン・パク
ミン-スプ・キム
ヒョン-キュ・ユン
ウォン-ジェ・イ
キョン-イク・チョ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2020527734A publication Critical patent/JP2020527734A/ja
Application granted granted Critical
Publication of JP7187468B2 publication Critical patent/JP7187468B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4126The peripheral being portable, e.g. PDAs or mobile phones
    • H04N21/41265The peripheral being portable, e.g. PDAs or mobile phones having a remote control device for bidirectional communication between the remote control device and client device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42222Additional components integrated in the remote control device, e.g. timer, speaker, sensors for detecting position, direction or movement of the remote control, microphone or battery charging device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q2209/00Arrangements in telecontrol or telemetry systems
    • H04Q2209/30Arrangements in telecontrol or telemetry systems using a wired architecture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q2209/00Arrangements in telecontrol or telemetry systems
    • H04Q2209/40Arrangements in telecontrol or telemetry systems using a wireless architecture

Description

本発明は、遠隔制御装置及び遠隔制御装置の音声受信方法に関し、より詳細には、音声入力ボタンなしに、遠隔からディスプレイ装置を制御可能な遠隔制御装置及び遠隔制御装置の音声受信方法に関する。
放送だけでなく、コンテンツを出力可能なディスプレイ装置とユーザとの間のインターフェースとして、ディスプレイ装置のパネルキー(panel key)または遠隔制御装置(remotely controller)が多く使われている。なお、ディスプレイ装置とユーザとの間のインターフェースとしてユーザの音声(voice)またはユーザのモーション(motion)が使われることがある。
技術の発展により、ディスプレイ装置の機能は複雑化(例えば、様々なアプリケーション実行、ゲーム実行など)し、多様化しており、外部からダウンロードした動画のようなコンテンツを実行したり、インターネットブラウジングもできるようになっている。
複雑化し且つ多様化するディスプレイ装置に対応し、ユーザの音声命令語の数も増加している。ユーザの音声を容易に入力可能な遠隔制御装置が必要になってきている。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、音声入力ボタンなしにディスプレイ装置を遠隔制御できる遠隔制御装置及び遠隔制御装置のユーザ音声を受信する方法を提供することにある。
実施形態は、以下の詳細な説明から明らかになり、または、提示された実施形態の実施によって習得されるものである。
本発明の実施形態に係る遠隔制御装置は、マイクと、少なくとも一つのセンサと、通信インターフェースと、前記マイク、前記少なくとも一つのセンサ、及び前記通信インターフェースを制御するプロセッサとを含み、前記プロセッサは、前記遠隔制御装置の発話意図情報及び前記外部装置の発話意図情報に基づいてユーザ発話意図を識別し、前記遠隔制御装置の発話意図情報は、前記少なくとも一つのセンサによって識別された前記遠隔制御装置の状態または外部状態に基づいており、前記外部装置の発話意図情報は、前記通信インターフェースを介して前記外部装置から受信され、前記ユーザ発話意図の識別結果に応じて、前記マイクの電源供給有無を制御し、前記マイクを介して受信されるユーザ音声に対応する電気的信号を前記外部装置に伝送するように前記通信インターフェースを制御してよい。
前記少なくとも一つのセンサは、複数のセンサを含み、前記プロセッサは、前記遠隔制御装置とユーザの顔との間の距離に対応し、前記複数のセンサから検出された状態を組み合わせてユーザの発話意図を識別してよい。
前記少なくとも一つのセンサは、前記遠隔制御装置の把持を検出するグリップセンサ、前記遠隔制御装置の動きを検出するモーションセンサ、及びユーザの呼気に含まれるガスを検出するガスセンサのうち、少なくとも一つを含んでよい。
前記外部装置から受信した発話意図情報は、前記外部装置のディスプレイにユーザの音声発話をガイドするポップアップの表示有無に対する情報を含んでよい。
前記外部装置から受信した発話意図情報は、前記外部装置のディスプレイに表示されるコンテントに対応するユーザの発話履歴に関する情報を含んでよい。
前記外部装置から受信した発話意図情報は、ユーザの後続発話が予想されるか否かに対する情報を含んでよい。
前記ユーザの後続発話が予想されるか否かに対する情報は、直前の発話内容、前記外部装置のディスプレイに表示されるユーザインターフェースの内容、及び直前の発話に応じた前記外部装置の動作または機能実行結果のうち、少なくとも一つに基づいて識別されてよい。
前記プロセッサは、ユーザの発話意図があると識別される場合、前記マイクに電源を供給し、前記通信インターフェースを制御して前記発話意図情報を前記外部装置に伝送し、前記外部装置は、音声認識ガイドユーザインターフェースをディスプレイに表示してよい。
本発明の別の実施形態に係るディスプレイ装置は、ディスプレイ部と、通信インターフェースと、前記ディスプレイ部及び前記通信インターフェースを制御するプロセッサとを含み、前記プロセッサは、前記ディスプレイ部がコンテントを表示するように制御し、前記通信インターフェースを介して遠隔制御装置から受信される情報を通じてユーザ発話意図を識別し、前記ユーザ発話意図の識別結果に応じて、音声認識ガイドユーザインターフェースを前記コンテントと区別できるように表示するように制御してよい。
前記プロセッサは、前記通信インターフェースを介して前記遠隔制御装置から受信される情報に対応し、音声受信が可能な前記遠隔制御装置の状態または外部状態を示す音声認識ガイドユーザインターフェースを前記コンテントと区別できるように表示するように制御してよい。
前記プロセッサは、前記通信インターフェースを介して前記遠隔制御装置から受信されるユーザ音声に対応する電気的信号を音声認識サーバに伝送するように制御し、前記通信インターフェースを介して前記音声認識サーバから応答情報または制御情報が受信されると、前記応答情報を前記ディスプレイ部に表示するか、または前記制御情報に基づいて機能を行ってよい。
本発明の実施形態に係る遠隔制御装置のユーザ音声受信方法は、外部装置と接続するステップと、前記遠隔制御装置の発話意図情報及び前記外部装置の発話意図情報に基づいて、ユーザ発話意図を識別するステップであって、前記遠隔制御装置の発話意図情報は、少なくとも一つのセンサによって識別された前記遠隔制御装置の状態または外部状態に基づいており、前記外部装置の発話意図情報は、前記外部装置から受信される、ステップと、前記ユーザ発話意図の識別結果に応じてマイクに電源を供給するステップと、前記マイクを介して受信されるユーザ音声に対応する電気的信号を前記外部装置に伝送するステップとを含んでよい。
前記ユーザ発話意図を識別するステップは、前記遠隔制御装置の内部から前記遠隔制御装置の発話意図情報を受信し、前記遠隔制御装置の外部から前記外部装置の発話意図情報を受信してよい。
前記遠隔制御装置の内部からの前記遠隔制御装置の発話意図情報の受信は、少なくとも一つのセンサ及び前記マイクのうち一方を用いてよい。
前記遠隔制御装置の外部からの前記外部装置の発話意図情報の受信は、前記外部装置に表示されるポップアップガイド及びユーザ発話履歴のうち一方を用いてよい。
前記制御方法は、前記マイクを介して入力されるユーザの音声に対応する電気的信号を前記外部装置に伝送してよい。
プロセッサによって遠隔制御装置のユーザ音声を受信する方法を行わせるプログラムを記録したコンピュータで読み取り可能な記録媒体において、方法は、外部装置と接続するステップと、前記遠隔制御装置の発話意図情報及び前記外部装置の発話意図情報に基づいて、ユーザ発話意図を識別するステップであって、前記遠隔制御装置の発話意図情報は、少なくとも一つのセンサによって識別された前記遠隔制御装置の状態または外部状態に基づいており、前記外部装置の発話意図情報は、前記外部装置から受信される、ステップと、前記ユーザ発話意図の識別結果に応じてマイクに電源を供給するステップと、前記マイクを介して受信されるユーザ音声に対応する電気的信号を前記外部装置に伝送するステップとを含んでよい。
前記ユーザ発話意図を識別するステップは、前記遠隔制御装置の内部から前記遠隔制御装置の発話意図情報を受信し、前記遠隔制御装置の外部から前記外部装置の発話意図情報を受信してよい。
前記遠隔制御装置の内部からの前記遠隔制御装置の発話意図情報の受信は、少なくとも一つのセンサ及び前記マイクのうち一方を用いてよい。
前記遠隔制御装置の外部からの前記外部装置の発話意図情報の受信は、前記外部装置に表示されるポップアップガイド及びユーザ発話履歴のうち一方を用いてよい。
前記制御方法は、前記マイクを介して入力されるユーザの音声に対応する電気的信号を前記外部装置に伝送してよい。
本発明の一実施形態の上記及び別の様態、特徴及び長所は、添付の図面とともに次の説明により明確になる。
本発明の実施形態に係るディスプレイ装置及び遠隔制御装置の間の動作を概略に示す図である。 本発明の実施形態に係るディスプレイ装置及び遠隔制御装置を示すブロック図である。 本発明の実施形態に係る遠隔制御装置の音声受信方法を概略に示すフローチャートである。 本発明の実施形態に係る遠隔制御装置の音声受信方法の例を概略に示す図である。 本発明の実施形態に係る遠隔制御装置の音声受信方法の例を概略に示す図である。 本発明の実施形態に係る遠隔制御装置の音声受信方法の例を概略に示す図である。 本発明の実施形態に係る遠隔制御装置の音声受信方法の例を概略に示す図である。 本発明の実施形態に係る遠隔制御装置の音声受信方法の例を概略に示す図である。 本発明の実施形態に係る遠隔制御装置の音声受信方法の例を概略に示す図である。 本発明の実施形態に係る遠隔制御装置の音声受信方法の例を概略に示す図である。 本発明の実施形態に係る遠隔制御装置の音声受信方法の例を概略に示す図である。
以下では、添付の図面に記載された内容を参照し、本発明に係る例示的な実施形態について詳細に説明する。なお、添付の図面に記載された内容を参照し、本発明の実施形態に係る電子装置を製造して使用する方法を詳細に説明する。各図面に提示された同一の参照番号または符号は、実質的に同一の機能を行う部品または構成要素を表す。
第1、第2などのように序数を含む用語は、多様な構成要素を説明するうえで使われるが、構成要素は用語によって限定されてはならない。用語は、一つの構成要素を別の構成要素から区別する目的としてのみ使われる。例えば、本発明の権利範囲を逸脱しない範囲で、第1構成要素は第2構成要素と称されてよく、同様に、第2構成要素も第1構成要素と称されてよい。「及び/または」という用語は、複数の関連する項目の組み合わせまたは複数の関連する項目のうちいずれかの項目を含む。
音声入力ボタンなしに、ユーザの音声入力が可能な遠隔制御装置及び遠隔制御装置の音声受信方法が提供されてよい。
音声入力ボタンなしに、ユーザ発話意図を決定可能な遠隔制御装置及び遠隔制御装置の音声受信方法が提供されてよい。
音声入力ボタンなしに、多様なユーザ発話意図に応じて、マイクを動作させる遠隔制御装置及び遠隔制御装置の音声受信方法が提供されてよい。
音声入力ボタンなしに、受信されるユーザ発話意図情報に応じて、マイクを動作させる遠隔制御装置及び遠隔制御装置の音声受信方法が提供されてよい。
音声入力ボタンなしに、内部のユーザ発話意図及び外部のユーザ発話意図のうち一方に応じて、マイクを動作させる遠隔制御装置及び遠隔制御装置の音声受信方法が提供されてよい。
音声入力ボタンなしに、ユーザの音声を容易に受信可能な遠隔制御装置及び遠隔制御装置の音声受信方法が提供されてよい。
本発明の実施形態において、遠隔制御装置(remotely controller)200(図1を参照)にある「ボタン(または、キー)の選択」は、ボタン(または、キー)の押圧またはボタン(または、キー)のタッチを意味する用語として使われてよい。
「ユーザ入力」は、例えば、ユーザによる遠隔制御装置200のボタン(または、キー)の選択、ユーザによる遠隔制御装置200のボタン(または、キー)の押圧、ユーザによる遠隔制御装置200のボタンのタッチ、ユーザによる遠隔制御装置200で入力されるタッチジェスチャ、ユーザによる遠隔制御装置200の把持、ユーザによる遠隔制御装置200の移動、遠隔制御装置200を通じたユーザ音声入力、ディスプレイ装置100を通じたユーザ音声入力、遠隔制御装置200を通じたユーザモーション入力及びディスプレイ装置100を通じたユーザモーション入力のうち少なくとも一つを含む用語として使用されてよい。ただ、実施形態はその例に限定されない。
本発明の実施形態において、「ディスプレイ装置の画面」はディスプレイ装置のディスプレイ部を含む意味として使用されてよい。ただ、実施形態は、その例に限定されない。
本明細書で使用される用語は、実施形態を説明するために使われるものとして、本発明を制限及び/または限定しようとする意図がない。単数の表現は、文脈上明白にそうでないことを意味しない限り、複数の表現を含む。本明細書において、「含む」または「有する」などの用語は、明細書上に記載された特徴、数字、ステップ、動作、構成要素、部品またはこれらを組み合わせたものが存在することを指定するものであって、一つまたはそれ以上の別の特徴、数字、ステップ、動作、構成要素、部品またはこれらを組み合わせたものの存在または付加可能性を予め排除しないものとして理解されるべきである。
各図面に提示された同一の参照符号は、実質的に同一の機能を行う部材を示す。
図1は、本発明の実施形態に係るディスプレイ装置及び遠隔制御装置の間の動作を概略に示す図である。
図1を参照すると、ディスプレイ装置100及び遠隔制御装置200が表示される。なお、ディスプレイ装置100及び遠隔制御装置200が表示される。
コンテントを出力可能なディスプレイ装置100は、内蔵されるか、または、有線または無線で接続可能なマイク140(図2を参照)を用いて、ユーザの音声を受信することができる。なお、遠隔制御装置200は、マイク243(図2を参照)を用いてユーザの音声を受信することができる。本発明の実施形態において、「コンテント」とは、放送、ビデオ、イメージ、テキストまたはウェブ文書を含んでよい。なお、「コンテント」は、放送、ビデオ、イメージ、テキスト及びウェブ文書の組み合わせを含んでよい。コンテンツ(contents)は、コンテント(content)の集合体を意味してよい。
遠隔制御装置200は、赤外線(infrared)または近距離通信(例えば、ブルートゥース(bluetooth)(登録商標)またはWi-Fiなど)を通じて制御情報を出力(または、伝送)してディスプレイ装置100を制御することができる。なお、遠隔制御装置200は、受信されたユーザ音声を変換して赤外線または近距離通信(例えば、ブルートゥースなど)を通じてディスプレイ装置100に伝送することができる。
ユーザは、遠隔制御装置200に本体(例えば、前面200a、側面200b、200c及び/または背面で実現)に位置するキー(または、ボタン)の選択及びユーザ入力(例えば、タッチパッドを通じたタッチ(または、タッチジェスチャ)、マイク243を通じた音声認識、またはセンサ245(図2を参照)を通じたモーション認識(または、把持認識))を用いて、ディスプレイ装置100を制御(例えば、電源オン/オフ、ブート(booting)、チャネル変更、音量調整またはコンテント再生など)を行うことができる。
ユーザは、音声発話(または、発話された音声に対する音声認識)を通じてディスプレイ装置100を制御することができる。遠隔制御装置200の前面200aを介して遠隔制御装置200の本体の内部に位置するマイク243は、ディスプレイ装置100の制御に対応するユーザ音声を受信することができる。遠隔制御装置200は、受信された音声を電気的信号(例えば、デジタル信号、デジタルデータ、またはパケット)に変換してディスプレイ装置100に伝送することができる。
ユーザは、ディスプレイ装置100に付着されたカメラ145(図2を参照)を通じたモーション認識でディスプレイ装置100を制御(例えば、電源オン/オフ、ブート、チャネル変更、音量調整またはコンテント再生など)を行うこともできる。なお、ユーザは、遠隔制御装置200の動き(例えば、遠隔制御装置200を把持(grip)したりまたは移動させたり)を用いて、ディスプレイ装置100の画面を制御することができる。
図1を参照すると、遠隔制御装置200は、ディスプレイ装置100の機能及び/または動作に対応するボタン(または、キー241)を含む。ボタン241は、押圧され得る物理ボタンまたはタッチインターフェースボタンを含んでよい。なお、遠隔制御装置200は、ディスプレイ装置100で実行される機能に対応する単一機能ボタン(例えば、241a、241b、241dないし241g)及び/またはマルチ機能ボタン241cを含んでよい。
遠隔制御装置200で単一機能ボタン(例えば、電源ボタン241aなど)は、ディスプレイ装置100で実行される複数の機能のうちの一つの機能に対する制御に対応するボタン(または、キー)を指す用語として使われてよい。遠隔制御装置200にあるキーのほとんどは、単一機能キーであってよい。
本発明の実施形態において、遠隔制御装置200に音声ボタン(または、音声認識ボタン)が適用されていない(または、ない)。遠隔制御装置200のボタンの配列順及び/または数は、ディスプレイ装置100の機能に対応して追加、変更または削除されてよい。
音声認識サーバは、遠隔制御装置200またはディスプレイ装置100で入力されたユーザ音声に対応する電気的信号(または、電気的信号に対応するパケット)を音声認識を通じて生成される音声データ(例えば、テキスト、コードなど)に変換することができる。変換された音声データは、ディスプレイ装置100を経て別のサーバ(例えば、対話型サーバなど)に伝送されたり、または別のサーバに直ちに伝送されてよい。
対話型サーバは、変換された音声データをディスプレイ装置100で認識可能な制御情報(例えば、ディスプレイ装置100を制御する制御命令語)に変換することができる。変換された制御情報は、ディスプレイ装置100に伝送されてよい。
音声認識サーバ及び対話型サーバは、一つで実現されたり、または別々に実現されてよい。
図2は、本発明の実施形態に係るディスプレイ装置及び遠隔制御装置を示すブロック図である。
図2を参照すると、遠隔制御装置200からユーザ音声に対応する電気的信号を受信するディスプレイ装置100は、通信インターフェース130又は入/出力部160を用いて、外部装置(例えば、一つまたは複数のサーバ)と有線または無線で接続されてよい。
遠隔制御装置200からユーザ音声に対応する電気的信号を受信するディスプレイ装置100は、通信インターフェース130または入/出力部160を用いて受信された電気的信号(または、電気的信号に対応するパケット)を有線または無線で接続された外部装置(例えば、一つまたは複数のサーバ)に伝送することができる。なお、ディスプレイ装置100は、マイク140を介して受信されたユーザ音声に対応する電気的信号(または、電気的信号に対応するパケット)を通信インターフェース130または入/出力部160を用いて有線または無線で接続された外部装置(例えば、サーバ)に伝送することができる。外部装置は、サーバ、携帯電話、スマートフォン、タブレットパソコン、及びパソコンを含んでよい。
ディスプレイ装置100は、ディスプレイ部170を含み、チューナ(tuner)120、通信インターフェース130及び入/出力部160のうちいずれかを含んでよい。ディスプレイ装置100は、ディスプレイ部170を含み、チューナ120、通信インターフェース130及び入/出力部160の組み合わせを含んでよい。なお、ディスプレイ部170を有するディスプレイ装置100は、チューナを有する別途の電子装置(図示せず)と電気的に接続されてよい。
ディスプレイ装置100は、例えば、アナログテレビ、デジタルテレビ、3D-TV、スマートテレビ、LEDテレビ、OLEDテレビ、プラズマテレビ、モニタ、固定曲率(curvature)である画面(または、ディスプレイ部)を有するカーブド(curved)テレビ、固定曲率である画面を有するフレキシブル(flexible)テレビ、固定曲率である画面を有するベンデッド(bended)テレビ、及び/または受信されるユーザ入力によって現在の画面の曲率を変更可能な曲率可変な曲率可変型テレビなどで実現されてよいが、それに限定されるものではない。
ディスプレイ装置100は、チューナ120、通信インターフェース130、マイク140、カメラ145、光受信部150、入/出力部160、ディスプレイ部170、オーディオ出力部175、保存部180及び電源供給部190を含む。ディスプレイ装置100は、ディスプレイ装置100の内部の状態、または外部の状態を検出するセンサ(例えば、照度センサ、温度センサなど)を含んでよい。
制御部110は、プロセッサ(Processor)111、ディスプレイ装置100の制御のための制御プログラムが保存されたROM(または、不揮発性メモリ)112及びディスプレイ装置100の外部から入力される信号またはデータを保存したり、ディスプレイ装置100で行われる多様な作業に対応する保存領域として使用されるRAM(または、揮発性メモリ)113を含んでよい。
制御部110は、ディスプレイ装置100の動作全般及びディスプレイ装置100の内部の構成要素110ないし190との間の信号の流れを制御し、データを処理する機能を行う。制御部110は、受信されるユーザ音声に対応する電気的信号(または、電気的信号に対応するパケット)を通信インターフェース130を介して音声認識サーバに伝送するか、または、音声認識サーバから電気的信号(または、電気的信号に対応するパケット)に対応する音声データ(または、応答信号)を受信するように制御することができる。なお、制御部110は、通信インターフェース130を介して受信された音声データを対話型サーバに伝送するか、または、対話型サーバから音声データに対応する制御情報を受信するように制御することができる。
通信インターフェース130を介して音声認識サーバから応答情報または制御情報が受信される場合、制御部110は、応答情報をディスプレイ部170に表示するか、前記制御情報に基づいて機能を行うように制御することができる。
制御部110は、電源供給部190から内部の構成要素110ないし190から供給される電源を制御する。なお、ユーザの入力があるか、予め設定されて保存された条件を満たす場合、制御部110は保存部180に保存されたOS(Operating System)または多様なアプリケーションを実行することができる。
プロセッサ111は、画像(image)またはビデオ(video)に対応するグラフィック処理のためのグラフィックプロセッサ(graphic processing unit)を更に含んでよい。プロセッサ111は、グラフィックプロセッサを含むか、または、別に実現されてよい。プロセッサ111は、コア(core)とグラフィックプロセッサを含むSoC(System on Chip)で実現されてよい。なお、プロセッサ111は、ROM112及びRAM113のうち少なくとも一方を含むSoCで実現されてよい。プロセッサ111は、シングルコア、デュアルコア、トリプルコア、クアッドコア及びその倍数のコアを含んでよい。
ディスプレイ装置100のプロセッサ111は、複数のプロセッサを含んでよい。複数のプロセッサは、メインプロセッサ(main processor)及びディスプレイ装置100の動作状態のうちの一つである画面オフ(または、電源プラグが接続された状態で画面(電源)オフ)及び/またはスリープ状態(sleep state)で動作するサブプロセッサ(sub processor)を含んでよい。なお、複数のプロセッサは、センサを制御するセンサプロセッサ(sensor processor)を更に含んでよい。
プロセッサ111、ROM112及びRAM113は、内部のバス(bus)を通じて相互接続されてよい。
本発明の実施形態において、「ディスプレイ装置100の制御部」という用語は、ディスプレイ装置100のプロセッサ111、ROM112及びRAM113を含む意味であってよい。本発明の実施形態において、「ディスプレイ装置100の制御部」との用語は、ディスプレイ装置100のプロセッサ111を意味することができる。なお、「ディスプレイ装置100の制御部」との用語は、ディスプレイ装置100のメインプロセッサ、サブプロセッサROM112及びRAM113を含む意味であってよい。
制御部110の構成及び動作は、実施形態に応じて多様に実現され得ることは、当該技術分野で通常の知識を有する者に容易に理解されるだろう。
チューナ120は、有線または無線で受信される放送信号を増幅(amplification)、混合(mixing)、共振(resonance)などを通じて多くの電波成分のうち、ディスプレイ装置100で受信しようとするチャネルの周波数のみをチューニング(tuning)させて選択することができる。放送信号は、ビデオ(video)、オーディオ(audio)及び付加データ(例えば、EPG(Electronic Program Guide))を含む。
チューナ120は、ユーザ入力(例えば、音声、モーション、ボタン入力、タッチ入力など)に対応するチャネル番号(例えば、ケーブル放送チャネル506番)に対応する周波数帯域でビデオ、オーディオ及びデータを受信することができる。
チューナ120は、地上波放送、ケーブル放送、衛星放送、インターネット放送などのように、様々なソースから放送信号を受信することができる。
チューナ120は、ディスプレイ装置100と一体型(all-in-one)で実現されたり、またはディスプレイ装置100と電気的に接続されるチューナ、またはチューナを有する別個の電子装置(例えば、セットトップボックス(set-top box)、またはワンコネクト(one connect))で実現されてよい。
通信インターフェース130は、制御部110の制御によってディスプレイ装置100を遠隔制御装置200、または、外部装置(図示せず)と接続することができる。通信インターフェース130は、制御部110の制御によってユーザ音声に対応する電気的信号(または、電気的信号に対応するパケット)を音声認識サーバに伝送するか、または、音声認識サーバから電気的信号(または、電気的信号に対応するパケット)に対応する音声データ(または、応答情報)を受信することができる。なお、通信インターフェース130は、制御部110の制御によって受信された音声データを対話型サーバに伝送するか、または、対話型サーバから音声データに対応する制御情報を受信することができる。
通信インターフェース130は、制御部110の制御によって外部からアプリケーションをダウンロードしたり、または、ウェブブラウジングを行うことができる。
通信インターフェース130は、ディスプレイ装置100の性能及び構造に対応し、有線イーサネット(Ethernet)(登録商標)131、無線LAN通信部132及び近距離通信部133のうち一つを含んでよい。なお、通信インターフェース130は、有線イーサネット131、無線LAN通信部132及び近距離通信部133の組み合わせを含んでよい。
有線イーサネット131は、制御部110の制御によって有線ネットワークケーブルを介して家庭内(または、事務室など)のネットワークと接続されてよい。無線LAN通信部132は、制御部110の制御によって、AP(Access Point)が設置された場所で無線を用いてAPと接続されてよい。無線LAN通信部132は、例えば、Wi-Fiを含んでよい。なお、近距離通信部133は、制御部110の制御によってAPなしに無線で遠隔制御装置200及び/または外部装置と近距離通信を行うことができる。近距離通信は、例えば、ブルートゥース(bluetooth)、ブルートゥース低エネルギー(bluetooth low energy)、赤外線通信(IrDA、Infrared Data Association)、UWB(Ultra-Wideband)またはNFC(Near Field Communication)などを含んでよい。
本発明の実施形態に係る通信インターフェース130は、遠隔制御装置200から伝送される制御信号を受信することができる。なお、近距離通信部133は、制御部110の制御によって遠隔制御装置200から伝送される制御信号を受信することができる。
マイク140は、発話(utterance)されたユーザ音声を受信する。マイク140は、受信された音声を電気的信号に変換し、制御部110に出力することができる。ユーザ音声は、例えば、ディスプレイ装置100のユーザガイド、メニューまたは機能の制御に対応する音声であってよい。マイク140の認識範囲は、ユーザの声の大きさと周辺の環境(例えば、スピーカの音、周辺の騒音)に対応して異なってよい。
マイク140は、ディスプレイ装置100と一体型に実現されたり、または、分離されてよい。分離されたマイク140は、通信インターフェース130または入/出力部160を介してディスプレイ装置100と電気的に接続されてよい。
カメラ145は、カメラ認識範囲でユーザのモーションに対応するビデオ(例えば、連続するフレーム)を撮影する。ユーザモーションは、例えば、ユーザの出現(presence、例えば、ユーザがカメラ認識範囲内に現れる)、ユーザの顔、表情、手、拳、指のようなユーザの身体の一部またはユーザの身体の一部のモーションなどを含んでよい。カメラ145は、レンズ及びイメージセンサで構成されてよい。
カメラ145は、ディスプレイ装置100の上段、下段、左側及び右側のうち一つに位置してよい。
カメラ145は、撮影された連続的なフレームを変換して制御部110に出力することができる。制御部110は、撮影された連続的なフレームを分析し、ユーザのモーションを認識することができる。制御部110は、モーション認識結果を用いて、ディスプレイ装置100にガイドやメニューを表示したりモーション認識結果に対応する制御(例えば、チャネル調整または音量調整など)をすることができる。
カメラ145が複数である場合、制御部110は複数のカメラ145を介して3次元静止イメージまたは3次元モーションを受信することができる。
カメラ145は、ディスプレイ装置100と一体型で実現されたり、または、分離されてよい。分離されたカメラを含む電子装置は、通信インターフェース130または入/出力部160を介してディスプレイ装置100と電気的に接続されてよい。
光受信部150は、遠隔制御装置200から出力される光信号(制御信号を含む)を光窓(light window)を介して受信する。
光受信部150は、遠隔制御装置200からユーザ入力(例えば、タッチ、押圧、タッチジェスチャ、音声またはモーション)に対応する光信号を受信することができる。受信された光信号から制御信号が抽出されてよい。受信された光信号及び/または抽出された制御信号は制御部110に伝送されてよい。
入/出力部160は、制御部110の制御によってディスプレイ装置100の外部からコンテントを受信する。コンテントは、例えば、ビデオ、イメージ、テキストまたはウェブ文書を含んでよい。
入/出力部160は、HDMI(登録商標)入力ポート(high-definition multimedia interface port)161、コンポーネント入力ジャック(jack)162、PC入力ポート(port)163、及びUSB入力ジャック164のうち、一つを含んでよい。入/出力部160は、HDMI入力ポート162、コンポーネント入力ジャック162、PC入力ポート163、及びUSB入力ジャック164の組み合わせを含んでよい。入/出力部160は、ディスプレイ装置100の性能及び構造に応じて、追加(例えば、光出力部(optical cable output))、削除及び/または変更され得ることは、当該技術分野で通常の知識を有する者に容易に理解されるだろう。
ディスプレイ部170は、制御部110の制御によってチューナ120を介して受信される放送信号に含まれたビデオを表示する。ディスプレイ部170は、制御部110の制御によって通信インターフェース130を介して受信された応答情報を表示することができる。
ディスプレイ部170は、通信インターフェース130または入/出力部160を介して入力されるコンテント(例えば、ビデオ)を表示することができる。ディスプレイ部170は、制御部110の制御によって保存部180に保存されたコンテントを出力することができる。なお、ディスプレイ部170は、音声認識に対応する音声認識タスクを行うための音声認識ガイドUI(user interface)またはモーション認識に対応するモーション認識タスクを行うためのモーション認識ガイドUIを表示することができる。例えば、音声認識ガイドUIは、音声命令語ガイド(例えば、おすすめ音声データまたはおすすめガイド)を含み、モーション認識ガイドUIはモーション命令語ガイドを含んでよい。
本発明の実施形態に係るディスプレイ装置100の画面は、ディスプレイ装置100のディスプレイ部170を含む意味で使われてよい。
本発明の別の実施形態に係るディスプレイ部170は、ディスプレイ装置100と分離されてよい。ディスプレイ装置100の入/出力部160を介してディスプレイ部170は、ディスプレイ装置100と電気的に接続されてよい。
オーディオ出力部175は、制御部110の制御によってチューナ120を介して受信された放送信号に含まれたオーディオを出力する。オーディオ出力部175は、通信インターフェース130または入/出力部160を介して入力されるオーディオ(例えば、音声またはサウンドに対応する)を出力することができる。なお、オーディオ出力部175は、制御部110の制御によって保存部180に保存されたオーディオファイルを出力することができる。
オーディオ出力部175は、スピーカ176、ヘッドフォン出力端子177またはS/PDIF出力端子178のうち一つ、または、スピーカ176、ヘッドフォン出力端子177及びS/PDIF出力端子178の組み合わせを含んでよい。
保存部180は、制御部110の制御によってディスプレイ装置100を駆動して制御するための多様なデータ、プログラムまたはアプリケーションを保存することができる。保存部180は、チューナ120、通信インターフェース130、マイク140、カメラ145、光受信部150、入/出力部160、ディスプレイ部170、オーディオ出力部175及び電源供給部190の駆動に対応する入力/出力される信号またはデータを保存することができる。
保存部180は、ディスプレイ装置100及び制御部110の制御のための制御プログラム、製造元で最初に提供されたり外部からダウンロードしたアプリケーション、アプリケーションに関連するGUI(Graphic User Interface、以下、GUIという)、GUIを提供するためのオブジェクト(例えば、イメージテキスト、アイコン、ボタンなど)、ユーザ情報、文書、音声データベース、モーションデータベースまたは関連データを保存することができる。
保存部180は、放送受信モジュール、チャネル制御モジュール、音量制御モジュール、通信制御モジュール、音声認識モジュール、モーション認識モジュール、光受信モジュール、ディスプレイ制御モジュール、オーディオ制御モジュール、外部入力制御モジュール、電源制御モジュール、音声データベース(DB)、またはモーションデータベース(DB)を含んでよい。
モジュール及びデータベースは、ディスプレイ装置100で放送受信の制御機能、チャネル制御機能、音量制御機能、通信制御機能、音声認識機能、モーション認識機能、光受信制御機能、ディスプレイ制御機能、オーディオ制御機能、外部入力制御機能、または電源制御機能を行うためにソフトウェア形態で実現されてよい。制御部210は、保存部280に保存された前記ソフトウェアを用いてディスプレイ装置100の動作及び/または機能を行うことができる。
保存部180は、音声認識サーバから受信された音声データを保存することができる。保存部180は、音声認識サーバから受信された制御情報を保存することができる。保存部180は、対話型サーバから受信された制御情報を保存することもできる。
保存部180は、ユーザ音声に対応する音素に対応するデータベースを保存することができる。
なお、保存部180は、音声データに対応する制御情報データベースを保存することができる。
保存部180は、視覚フィードバックに対応する動画、イメージ、絵文字などを含むシンボル(symbol)またはテキストを保存することができる。保存部180は、聴覚フィードバックに対応するサウンドを保存することができる。保存部180は、ユーザに提供されるフィードバックのフィードバック提供時間(例えば、300ms)を保存することができる。
本発明の実施形態において、「保存部」という用語は、保存部180、制御部110のROM112、RAM113、SoCで実現される保存部、ディスプレイ装置100に装着されるメモリカード(例えば、micro SDカード、USBメモリ)、なお、入/出力部160のUSBポート164に接続可能な外部保存部(例えば、USBメモリなど)を含む用語として使われてよい。なお、保存部は、不揮発性メモリ、揮発性メモリ、ハードディスクドライブ(HDD)またはソリッドステートドライブ(SSD)を含んでよい。
電源供給部190は、制御部110の制御によってディスプレイ装置100の内部の構成要素110ないし190に外部電源ソースから入力される電源を供給する。電源供給部190は、制御部110の制御によってディスプレイ装置100の内部に位置する一つまたは二つ以上のバッテリから入力される電源を内部の構成要素110ないし190に供給することができる。
図1及び図2のディスプレイ装置100に示された構成要素(例えば、110ないし190)は、ディスプレイ装置100の性能及び/または種類に対応し、少なくとも一つの構成要素の追加、変更されたり削除(例えば、点線で示されたボックスのうち少なくとも一つ)されてよい。なお、構成要素の位置(例えば、110ないし190)は、ディスプレイ装置100の性能または構造に対応して変更され得ることは、当該技術分野で通常の知識を有する者に容易に理解されるだろう。
図2を参照すると、ディスプレイ装置100を遠隔から制御する遠隔制御装置200は、制御部210、通信インターフェース230、入力部240、光出力部250、ディスプレイ部270、保存部280及び電源供給部290を含む。ディスプレイ装置100を遠隔から制御する遠隔制御装置200の本体は、制御部210、通信インターフェース230、入力部240、光出力部250、ディスプレイ部270、保存部280及び電源供給部290を含んでよい。遠隔制御装置200は、通信インターフェース230及び光出力部250のうち一つを含んでよい。なお、遠隔制御装置200は、通信インターフェース230及び光出力部250の両方を含んでよい。
本発明の実施形態において、遠隔制御装置200は、ディスプレイ装置100を遠隔から制御可能な電子装置を指す用語として使われてよい。なお、遠隔制御装置200は、ディスプレイ装置100の制御のためのアプリケーションをインストール可能な(または、外部からダウンロードした後インストール可能な)電子装置を含んでよい。
ディスプレイ装置100の制御のためのアプリケーションをインストール可能な電子装置は、ディスプレイ部(例えば、タッチスクリーン、タッチパネルなしにディスプレイパネルのみがあるか、または、ディスプレイ装置100のディスプレイ部170を用いる)を有することもできる。例えば、ディスプレイ部を有する電子装置は、携帯電話、スマートフォン、タブレットパソコン、ノートパソコン、他のディスプレイ装置または家電装置(例えば、冷蔵庫、洗濯機または掃除機など)を含んでよい。
ユーザは、実行されるアプリケーションから提供されるグラフィックユーザインターフェース(GUI)でボタン(例えば、チャネル変更ボタン)を用いて、ディスプレイ装置100を制御することができる。
制御部210は、プロセッサ211、遠隔制御装置200の制御のための制御プログラムが保存されたROM(または、不揮発性メモリ)212及び遠隔制御装置200の外部から入力される信号またはデータを保存したり、遠隔制御装置200で行われる多様な作業に対する保存領域として使用されるRAM(または、揮発性メモリ)213を含んでよい。
制御部210は、遠隔制御装置200の動作全般及び内部の構成要素210ないし290の間の信号の流れを制御し、データを処理する機能を行う。制御部210は、電源供給部290を用いて内部の構成要素210ないし290に電源供給を制御する。
本発明の実施形態において、「遠隔制御装置200の制御部」という用語は、遠隔制御装置200のプロセッサ211、ROM212及びRAM213を含んでよい。「遠隔制御装置200の制御部」という用語は、プロセッサ211を含んでよい。なお、「遠隔制御装置200の制御部」という用語は、プロセッサ211にROM212及びRAM213のうち一つを更に含んでよい。
通信インターフェース230は、制御部210の制御によってユーザ入力(例えば、タッチ、押圧、タッチジェスチャ、音声またはモーション)に対応する制御信号(例えば、電源オンに対応する制御信号、または音量調整に対応する制御信号など)を制御対象であるディスプレイ装置100に伝送することができる。
通信インターフェース230は、制御部210の制御によってディスプレイ装置100と無線で接続されてよい。通信インターフェース230は、無線LAN通信部231と近距離通信部232のうち少なくとも一方(例えば、無線LAN通信部231及び近距離通信部232のうち一方、または、無線LAN通信部231と近距離通信部232の両方)を含んでよい。
遠隔制御装置200の通信インターフェース130は、ディスプレイ装置100の通信インターフェース130と実質的に類似するため、重複する説明を省略する。
入力部240は、ディスプレイ装置100の制御のためのユーザの入力(例えば、タッチまたは押圧)を受信するボタン241、タッチパッド262、及び/または発話されたユーザ音声を受信するマイク243を含んでよい。入力部240のうちの一部は、遠隔制御装置200の内部に位置するか、または前面200aに露出されてよい。
入力部240は、ハプティックフィードバック(例えば、電気的信号を機械的振動に変換)を提供する振動モータを更に含んでよい。
入力部240は、受信されたユーザ入力(例えば、タッチ、押圧、タッチジェスチャ、音声またはモーション)に対応する電気的信号(例えば、アナログ信号またはデジタル信号)を制御部210に出力することができる。
ボタン241は、図1のボタン241aないし241iを含んでよい。
タッチパッド242は、ユーザのタッチまたはユーザのタッチジェスチャを受信することができる。例えば、タッチパッド162は、方向キー241d及びエンターキー241eで実現されてよい。なお、タッチパッド162は、遠隔制御装置200の前面、背面及び後面のうち少なくとも一つに位置することもできる。
遠隔制御装置200のマイク243(図1を参照)は、ユーザの発話された音声を受信する。マイク243は、一つまたは複数で実現されてよい。例えば、マイク243は、遠隔制御装置200の前面200aを介してユーザ音声を受信することができる。なお、マイクは、遠隔制御装置200の背面を通じてユーザ音声を受信することができる。
マイク243は、受信された音声を変換して制御部210に出力することができる。なお、ユーザ音声に設定周波数帯域(例えば、50ないし4、000Hz)の音圧(sound pressure)を用いてユーザの発話を検出することもできる。
制御部210は、ユーザ音声に対応する制御信号(または、電気的信号)を生成して通信インターフェース230を介してディスプレイ装置100に伝送することができる。
センサ245は、遠隔制御装置200の状態及び/または外部状態を検出することができる。例えば、遠隔制御装置200の動き(例えば、回転、傾きまたは移動など)を検出するセンサ245は、モーションセンサ246、ジャイロセンサ、加速度センサ及び地磁気センサのうち少なくとも一つを含んでよい。センサ245は、ユーザの遠隔制御装置200の把持(grip、grasp)を検出するグリップセンサ247及びユーザの呼気(exhalation)に含まれたガス(例えば、二酸化炭素(CO)または一酸化炭素(CO)など)を検出するガスセンサ248を含んでよい。なお、センサ245は、重力センサを含んでよい。
光出力部250は、制御部210の制御によってユーザ入力(例えば、タッチ、押圧、タッチジェスチャ、音声またはモーション)に対応する光信号(例えば、制御信号を含む)を出力する。光出力部250から出力される光信号は、ディスプレイ装置100の光受信部150で受信されてよい。遠隔制御装置200で使用されるリモコンコードフォーマットは、製造元専用のリモコンコードフォーマット及び商用リモコンコードフォーマットのうち一つを使ってよい。リモコンコードフォーマットは、リーダーコード(leader code)及びデータ領域(data word)を含んでよい。出力される光信号は、搬送波(carrier wave)に変調されて出力されてよい。制御信号は、保存部280に保存されているか、または、制御部110によって生成されてよい。遠隔制御装置200は、IR-LED(infrared-laser emitting diode)を含んでよい。
遠隔制御装置200は、ユーザ音声に対応する制御信号を通信インターフェース230及び光出力部250のうち一つを介してディスプレイ装置100に伝送することができる。
制御部210は、ユーザ音声に対応する制御信号を通信インターフェース230及び光出力部250のうち一つを介して優先(prior)的にディスプレイ装置100に伝送することができる。
ディスプレイ部270は、ディスプレイ装置100に表示される放送チャネル番号、放送チャネル名及び/またはディスプレイ装置の状態(例えば、画面オフ、準備モード、ウェルカムモード及び/または通常モード)などを表示することができる。ディスプレイ部270は、例えば、LCD(Liquid Crystal Display)方式、OLED(Organic Light Emitting Diode)方式、またはVFD(Vacuum Fluorescent Display)方式のディスプレイを含んでよい。
保存部280は、制御部110の制御によって遠隔制御装置200を駆動して制御するための多様なデータ、プログラムまたはアプリケーションを保存することができる。保存部280は、通信インターフェース230、光出力部250及び電源供給部290の駆動に対応する入力、または出力される信号またはデータを保存することができる。
保存部280は、制御部210の制御によって受信されたユーザ入力(例えば、タッチ、押圧、タッチジェスチャ、音声またはモーション)に対応する制御情報及び/または遠隔制御装置200の動きに対応する制御情報を保存することができる。
保存部280は、遠隔制御装置200に対応する遠隔制御装置情報を保存することができる。遠隔制御装置情報は、モデル名、固有の装置ID(Device ID)、メモリ残量、客体データ有無、ブルートゥースバージョンまたはブルートゥースプロファイルを含んでよい。
電源供給部290は、制御部210の制御によって遠隔制御装置200の構成要素210ないし290に電源を供給する。電源供給部290は、遠隔制御装置200に位置する一つまたは二つ以上のバッテリから電源を構成要素210ないし290に供給することができる。バッテリは、遠隔制御装置200の表面(例えば、ボタン261がある)と背面との間の内部に位置することができる。
図1及び図2の遠隔制御装置200に示された構成要素は、ディスプレイ装置100の性能に対応して、少なくとも一つの構成要素が追加されたり削除(例えば、点線で示されたボックスのうち少なくとも一つ)されてよい。なお、構成要素の位置は、ディスプレイ装置100の性能または構造に対応して変更され得ることは、当該技術分野で通常の知識を有する者に容易に理解されるだろう。
音声認識サーバは、遠隔制御装置200またはディスプレイ装置100で入力されるユーザ音声に対応するパケットを通信インターフェースを介して受信する。音声認識サーバの制御部は、音声認識部及び音声認識アルゴリズムを用いて受信されたパケットを分析して音声認識を行う。
音声認識サーバの制御部は、音声認識アルゴリズムを用いて受信された電気的信号(または、電気的信号に対応するパケット)を単語または文章のテキストを含む音声認識データに変換することができる。
音声認識サーバの制御部は、音声データを通信インターフェースを介してディスプレイ装置100に伝送することができる。
音声認識サーバの制御部は、音声データを用いて制御情報(例えば、制御命令語)に変換することができる。制御情報は、ディスプレイ装置100の動作(または、機能)を制御することができる。
音声認識サーバは、制御情報データベースを含んでよい。音声認識サーバの制御部は、保存された制御情報データベースを用いて変換された音声データに対応する制御情報を決定することができる。
音声認識サーバは、変換された音声データを制御情報データベースを用いてディスプレイ装置100を制御する制御情報(例えば、ディスプレイ装置100の制御部210がパーシング(parsing)する)に変換することもできる。
音声認識サーバの制御部は、通信インターフェースを介して制御情報をディスプレイ装置100に伝送することができる。
本発明の実施形態において、音声認識サーバは、ディスプレイ装置100と一体型であってよい。音声認識サーバ300は、ディスプレイ装置100の構成要素100ないし190と別の構成要素として、ディスプレイ装置100に含まれてよい。例えば、音声認識サーバは、ディスプレイ装置100の保存部180に内装(embedded)されたり、または、別途の保存部で実現されてよい。
音声認識サーバと別に対話型サーバが実現されてよい。対話型サーバは、音声認識サーバから変換された音声データを制御情報に変換することができる。対話型サーバは、音声認識サーバ及びディスプレイ装置100のうちの一つから受信される音声データを制御情報に変換することができる。対話型サーバは、変換された制御情報をディスプレイ装置100に伝送することができる。
図1及び図2の音声認識サーバに示された構成要素は、音声認識サーバ300の性能に対応し、少なくとも一つの構成要素が追加されたり削除されてよい。
以下では、遠隔制御装置でユーザ音声を受信する場合について、具体的に説明する。
図3は、本発明の実施形態に係る遠隔制御装置の音声受信方法を概略に示すフローチャートである。
図4Aないし図4Hは、本発明の実施形態に係る遠隔制御装置の音声受信方法の例を概略に示す図である。
図3のステップS310において、ディスプレイ装置が接続される。
図4Aを参照すると、ディスプレイ装置にコンテント(例えば、放送信号またはビデオなど)101が表示されている。遠隔制御装置200は、テーブル(table)10の上に置かれている。ユーザは、テーブル10の上の遠隔制御装置200を把持(または、タッチ)していない状態であってよい。
本発明の一実施形態において、遠隔制御装置200の前面200a及び/または側面200b、200cに音声ボタン(または、音声認識ボタン)がない(または、実現されていない)。遠隔制御装置200の前面200a及び/または側面200b、200cに音声ボタン(または、音声認識ボタン)が露出されていない。音声ボタン(または、音声認識ボタン)の選択(または、押圧、タッチ)は、発話されるユーザ音声の受信待機(または、準備)を意味することができる。
遠隔制御装置200の制御部210及び/またはディスプレイ装置100の制御部110は、音声ボタン(または、音声認識ボタン)の選択によって、マイク243、140に電源を供給することができる。なお、遠隔制御装置200及び/またはディスプレイ装置100は、音声ボタン(または、音声認識ボタン)の選択によってユーザ音声の受信待機(または、準備)で動作状態が変更されてよい。
ディスプレイ装置100は、遠隔制御装置200と無線(例えば、無線LAN通信部231または近距離通信部232)に接続される。なお、ディスプレイ装置100は、音声認識サーバと有線または無線で接続されてよい。
ディスプレイ装置100と遠隔制御装置200とが初接続である場合、遠隔制御装置200の制御部210は、近距離通信部(例えば、ブルートゥースまたはブルートゥース低エネルギー)232を用いてディスプレイ装置100を検索することができる。遠隔制御装置200の制御部110は、ディスプレイ装置100を問合せ(inquiry)し、及び問い合わせられたディスプレイ装置100に対して接続要請(page)を行うことができる。なお、ディスプレイ装置100と遠隔制御装置200とが初接続である場合、遠隔制御装置200の制御部210は、無線LAN通信部231を用いてディスプレイ装置100を検索することができる。
ディスプレイ装置100と遠隔制御装置200とが初接続である場合、ディスプレイ装置100の制御部210は近距離通信部(例えば、ブルートゥースまたはブルートゥース低エネルギー)133及び無線LAN通信部132のうち少なくとも一つを用いて、遠隔制御装置200を検索することもできる。
ディスプレイ装置100と遠隔制御装置200とが接続される場合、ディスプレイ装置100及び遠隔制御装置200は、制御情報を含むパケット(例えば、BLE packetまたはbluetooth packetなど)を相互送信/受信することができる。
図3のステップS320において、ユーザの発話意図が受信される。
図4Bないし図4Eを参照すると、ディスプレイ装置100にコンテント101及びポップアップ(例えば、キーボードポップアップ)101aが表示されている。表示されるコンテント101と別個の(又は、コンテント101の一部を遮る)ポップアップ101aは、ディスプレイ装置100でユーザ入力をガイドする画面を意味することができる。ユーザは、表示されるポップアップ101aに応じて、ユーザ入力を行うことができる。例えば、ポップアップは、環境設定101b(図4Eを参照)を含んでよい。
ユーザの発話意図は、遠隔制御装置200の内部センサ及び外部から受信される制御情報によって決定されてよい。
遠隔制御装置200からセンサ245を介してユーザの発話意図が受信されてよい。遠隔制御装置200でマイク243を介してユーザの発話意図が受信されてよい。遠隔制御装置200の制御部210は、マイク243及びセンサ245のうち少なくとも一つを用いてユーザの発話意図を検出することができる。
本発明の実施形態において、「ユーザの発話意図」は遠隔からディスプレイ装置100を制御可能な遠隔制御装置200からマイク243を介してユーザの音声を受信できる状態を意味することができる。「ユーザの発話意図」は、遠隔からディスプレイ装置100を制御可能な遠隔制御装置200のマイク243を介してユーザの音声を受信するための待機状態を意味することができる。なお、「ユーザの発話意図」は遠隔からディスプレイ装置100を制御可能な遠隔制御装置200のマイク243を介してユーザが音声を発話する前の状態を意味することができる。
ユーザの発話意図は、遠隔制御装置200のセンサ245及びディスプレイ装置100から受信された制御情報(または、状態情報)によって決定されてよい。本発明の実施形態において、制御部110によってユーザの発話意図を決定できる遠隔制御装置200のセンサ245から受信された制御情報(または、状態情報)及びディスプレイ装置100から受信された制御情報(または、状態情報)のうち少なくとも一つをユーザ発話意図情報と称してよい。例えば、遠隔制御装置200のセンサ245から受信された制御情報(または、センサを介して検出された状態に基づいた状態情報)をセンサ245を介して検出された状態に基づいたユーザ発話意図情報(または、発話意図情報)と称してよい。なお、ディスプレイ装置100から受信された制御情報(または、状態情報)を外部装置から受信されたユーザ発話意図情報(または、発話意図情報)と称してよい。
制御部210は、ユーザの発話意図を遠隔制御装置200のセンサ245のうち、モーションセンサ246、グリップセンサ247及び/またはガスセンサ248を介して検出することができる。上述のセンサは一例であり、一つのセンサまたは複数のセンサを介してユーザの発話意図を受信(または、検出)することができる。なお、上述のセンサ245は、遠隔制御装置200及びユーザの顔の間の距離の度合い(例えば、遠距離、中距離、近距離など)に対応されてよい。例えば、グリップセンサ247は、遠隔制御装置200及びユーザの顔の間の遠距離に対応されてよい。モーションセンサ246は、遠隔制御装置200及びユーザの顔の間の中距離に対応されてよい。なお、ガスセンサ248は、遠隔制御装置200及びユーザの顔の間の近距離に対応されてよい。
図4Bを参照すると、ユーザはテーブル10の上に置かれた遠隔制御装置200を把持することができる。ユーザは、遠隔制御装置200のマイク243を介して発話するために、テーブル10の上に置かれた遠隔制御装置200を把持することができる。ユーザは、テーブル10の上の第1位置201aに置かれた遠隔制御装置200を左指及び右指のうち少なくとも一つを用いて把持することができる。ユーザは、遠隔制御装置200のマイク243を介して発話するために、テーブル10の上の第1位置201aに置かれた遠隔制御装置200を左指及び右指のうち少なくとも一つを用いて把持することができる。
遠隔制御装置200のグリップセンサ247は、ユーザの把持(または、把持圧力)を受信することができる。なお、遠隔制御装置200の側面200b、200cに配置されるグリップセンサ247は、ユーザの把持(または、把持圧力)を受信することができる。
グリップセンサ247は、遠隔制御装置200の側面200b、200cのうち少なくとも一つに実現されてよい。遠隔制御装置200の側面200b、200cのうち少なくとも一つに実現されるグリップセンサ247は、側面に帯(Strip)状に実現されたり、または、それぞれ離隔している別々のものとして実現されてよい。
遠隔制御装置200の側面200b、200cに実現されるグリップセンサ247は、方向キー241dを基準に下方(例えば、電源ボタン241aの反対方向)に位置することができる。
遠隔制御装置200の側面200b、200cに配置されるグリップセンサ247は、ユーザの把持(または、把持圧力)に対応する電気的信号を制御部210に伝送することができる。遠隔制御装置200の側面200b、200cに配置されるグリップセンサ247は、ユーザの左指及び右指のうち少なくとも一つによる接触に対応する電気的信号を制御部210に伝送することができる。
遠隔制御装置200の制御部210は、グリップセンサ247から受信される電気的信号を用いてユーザの把持を検出することができる。
保存部280は、制御部210の制御によってグリップセンサ247から受信されるアナログ信号またはデジタル信号を保存することができる。以下では、保存されるアナログ信号またはデジタル信号を「遠隔制御装置把持情報」と称する。保存される遠隔制御装置把持情報は、履歴管理のための遠隔制御装置把持情報識別子(ID)、センサ識別子(ID)、遠隔制御装置の把持検出時間、遠隔制御装置の把持検出値(例えば、電圧、電流など)を含んでよい。
遠隔制御装置200の第1位置201aから保存される遠隔制御装置把持情報は、制御部210によるユーザの把持決定まで周期的に保存されてよい。遠隔制御装置把持情報は、センサ分解能及び/または設定されたセンサの検出時間間隔に対応して保存される遠隔制御装置把持情報の集合であってよい。
遠隔制御装置200の制御部210は、ユーザ把持の検出を通じて「ユーザの発話意図あり」を決定することができる。
図4Cを参照すると、ユーザはテーブル10の上に置かれた遠隔制御装置200を移動させることができる。ユーザは、遠隔制御装置200のマイク243を介して発話するために、テーブル10の上に置かれた遠隔制御装置200を移動させることができる。ユーザは、テーブル10の上の第1位置201aに置かれた遠隔制御装置200を左指及び右指のうち少なくとも一つで把持して移動させることができる。ユーザは、遠隔制御装置200のマイク243を介して発話するために、テーブル10の上の第1位置201aに置かれた遠隔制御装置200を左指及び右指のうち少なくとも一つで把持して移動させることができる。なお、ユーザは、テーブル10の上の第1位置201aに置かれた遠隔制御装置200を左指及び右指のうち少なくとも一つで把持して第2位置201bに移動させることができる。ユーザは、遠隔制御装置200のマイク243を介して発話するために、テーブル10の上の第1位置201aに置かれた遠隔制御装置200を左指及び右指のうち少なくとも一つで把持して第2位置201bに移動させることができる。
遠隔制御装置200のモーションセンサ246は、遠隔制御装置200の動き(例えば、回転、傾きまたは移動など)を検出することができる。遠隔制御装置200の動きは、モーションセンサ246だけでなく、加速度センサ、地磁気センサまたはジャイロセンサによって検出されてよい。
遠隔制御装置200の動きは、モーションセンサ246によって周期的(例えば、センサの分解能(resolution)または設定されたセンサの検出時間間隔)に検出されてよい。
モーションセンサ246は、遠隔制御装置200の動きに対応するアナログ信号を制御部210に出力することができる。なお、モーションセンサ246から出力されるアナログ信号はコンバータによってデジタル信号に変更され、制御部210に出力することもできる。
遠隔制御装置200の制御部210は、モーションセンサ246から受信される電気的信号(例えば、アナログ信号またはデジタル信号)を分析し、遠隔制御装置200の動きを決定することができる。なお、遠隔制御装置200の制御部210は、モーションセンサ246から受けた電気的信号(例えば、アナログ信号またはデジタル信号)を分析し、遠隔制御装置200の動き(例えば、移動距離、移動速度または加速度の変化など)を決定することができる。
保存部280は、制御部210の制御によってモーションセンサ265から受信されるアナログ信号またはデジタル信号を保存することができる。以下では、保存されるアナログ信号またはデジタル信号を「遠隔制御装置動き情報」と称する。保存される遠隔制御装置動き情報は、履歴管理のための遠隔制御装置動き情報識別子(ID)、センサ識別子(ID)、遠隔制御装置の検出された加速度(例えば、2軸または3軸)値、遠隔制御装置の移動検出時間、遠隔制御装置の移動距離などを含んでよい。
遠隔制御装置200の第1位置201aから保存される遠隔制御装置動き情報は、第2位置201bに到達するまで周期的に保存されてよい。遠隔制御装置動き情報は、センサ分解能及び/または設定されたセンサの検出時間間隔に対応して保存される遠隔制御装置動き情報の集合であってよい。
本発明の実施形態において、遠隔制御装置200の制御部210は、グリップセンサ247及びモーションセンサ246のうちの一つを通じて「ユーザの発話意図あり」を決定することができる。なお、遠隔制御装置200の制御部210は、連続するグリップセンサ247及びモーションセンサ246の組み合わせを通じて「ユーザの発話意図あり」と決定することができる。
図4Dを参照すると、ユーザはテーブル10の上に置かれた遠隔制御装置200をユーザの口(mouth)に隣接(例えば、50cm以内、マイク253の性能に応じて変更可能)するように移動させることができる。ユーザは、遠隔制御装置200のマイク243を介して発話するために、テーブル10の上に置かれた遠隔制御装置200をユーザの口に隣接するように移動させることができる。
ユーザは、テーブル10の上の第1位置201aに置かれた遠隔制御装置200を左指及び右指のうち少なくとも一つで把持してユーザの口に隣接するように移動させることができる。ユーザは、遠隔制御装置200のマイク243を介して発話するために、テーブル10の上の第1位置201aに置かれた遠隔制御装置200を左指及び右指のうち少なくとも一つで把持してユーザの口に隣接するように移動させることができる。
ユーザは、テーブル10の上の第1位置201aに置かれた遠隔制御装置200を左指及び右指のうち少なくとも一つで把持してユーザの口に隣接する第3位置201cに移動させることができる。ユーザは、遠隔制御装置200のマイク243を介して発話するために、テーブル10の上の第1位置201aに置かれた遠隔制御装置200を左指及び右指のうち少なくとも一つで把持してユーザの口に隣接する第3位置201cに移動させることができる。本発明の実施形態において、第3位置201cは、ユーザの口に隣接する位置を意味し、第3位置201cでユーザの呼気に含まれるガス(CO)がガスセンサ248を介して検出されてよい。
第3位置201cに移動された遠隔制御装置200のガスセンサ248は、ユーザの呼気に含まれたガス(例えば、二酸化炭素(CO)など)を検出することができる。遠隔制御装置200のガスセンサ248は到達した第3位置201cでユーザの呼気に含まれたガス(例えば、二酸化炭素(CO)など)を検出することができる。なお、遠隔制御装置200のガスセンサ248は、第3位置201cに移動中にユーザの呼気に含まれたガス(例えば、二酸化炭素(CO)など)を検出することができる。
遠隔制御装置200のガス検出は、ガスセンサ248によって周期的(例えば、センサの分解能(resolution)または設定されたセンサの検出時間間隔)に検出されてよい。
ガスセンサ248は、遠隔制御装置200に吸引されるガスに対応するアナログ信号を制御部210に出力することができる。なお、ガスセンサ248から出力されるアナログ信号はコンバータによってデジタル信号に変更され、制御部210に出力することもできる。
遠隔制御装置200の制御部210は、ガスセンサ248から受信される電気的信号(例えば、アナログ信号またはデジタル信号)を分析し、遠隔制御装置200から検出される呼気のガスを決定することができる。なお、遠隔制御装置200の制御部210は、ガスセンサ248から受けた電気的信号(例えば、アナログ信号またはデジタル信号)を分析し、遠隔制御装置200から検出される呼気のガスを決定することができる。
保存部280は、制御部210の制御によってガスセンサ248から受信されるアナログ信号またはデジタル信号を保存することができる。以下では、保存されるアナログ信号またはデジタル信号を「遠隔制御装置ガス情報」と称する。保存される遠隔制御装置ガス情報は、履歴管理のための遠隔制御装置ガス情報識別子(ID)、センサ識別子(ID)、遠隔制御装置の検出されたガス名、または、遠隔制御装置のガス検出時間などを含んでよい。
遠隔制御装置200の第1位置201aから保存される遠隔制御装置ガス情報は、第3位置201cに到達するまで周期的に保存されてよい。遠隔制御装置200の第1位置201aから保存される遠隔制御装置ガス情報は、第3位置201cに到達した後から周期的に保存されてよい。遠隔制御装置ガス情報は、センサ分解能及び/または設定されたセンサの検出時間間隔に対応して保存される遠隔制御装置ガス情報の集合であってよい。
上述のガスセンサ248だけでなくセンサ245は、遠隔制御装置200とユーザの顔との間の距離を測定し、遠隔制御装置200の接近(または、出現)を検出する距離センサ(例えば、超音波センサ)またはユーザの遠隔制御装置200の接近(または、出現)を検出する接近センサを含んでよい。
本発明の実施形態において、遠隔制御装置200の制御部210は、ガスセンサ248を通じて「ユーザの発話意図あり」を決定することができる。遠隔制御装置200の制御部210は、グリップセンサ247及びモーションセンサ246のいずれか一つによってトリガー(trigger)された後、ガスセンサ248を介して「ユーザの発話意図あり」を決定することができる。なお、遠隔制御装置200の制御部210は、連続するグリップセンサ247、モーションセンサ246及びガスセンサ248の組み合わせを通じて「ユーザの発話意図あり」を決定することができる。例えば、一実施形態によると、制御部210は、グリップセンサ247のみに基づいて、ユーザの発話意図があると判断することができる。一実施形態によれば、制御部210はモーションセンサ246のみに基づいてユーザの発話意図があると判断することができる。一実施形態によると、制御部210は、ガスセンサ248のみに基づいてユーザの発話意図があると判断することができる。一実施形態によると、制御部210は、グリップセンサ247、モーションセンサ246、ガスセンサ248の全てに基づいてユーザの発話意図があると判断することができる。一実施形態によると、制御部210は、グリップセンサ247、モーションセンサ246及びガスセンサ248のうち、任意の二つに基づいてユーザの発話意図があると判断することができる。
図4Eを参照すると、ディスプレイ装置100にコンテント101及びポップアップ(例えば、環境設定ポップアップ)101bが表示されている。ユーザの発話意図は、遠隔制御装置200の内部センサ245だけでなく、外部(例えば、ディスプレイ装置100)から受信される制御情報によって決定されてよい。
ディスプレイ装置100の制御部110は、ディスプレイ部170に表示されるコンテント及びコンテントに対応するユーザの使用パターン(または、発話履歴)を分析することができる。ディスプレイ装置100の制御部110は、コンテント及びユーザの使用パターン(または、使用履歴)の分析結果を用いて、ユーザの発話意図(または、発話有無)を決定することができる。
ディスプレイ部170にコンテント101及びポップアップ(例えば、キーボードポップアップ)101aが表示される場合、ディスプレイ装置100の制御部110は、「ユーザの発話意図あり」を決定することができる。なお、ディスプレイ部170にコンテント101及びポップアップ(環境設定ポップアップ)101bが表示される場合、ディスプレイ装置100の制御部110は、「ユーザの発話意図あり」を決定することができる。上述のポップアップ101a、101bは一つの実施形態であり、ユーザが音声を発話するようにするガイドするポップアップ(または画面)であればよい。
ディスプレイ装置100の画面にポップアップが表示される場合、ディスプレイ装置100の制御部110は、通信インターフェース130を用いて遠隔制御装置200の通信インターフェース230に「ポップアップ表示」に対応する第1制御情報(例えば、第1-1パケット)を伝送することができる。
ディスプレイ装置100の制御部110は、「ポップアップ表示」に対応する第1制御情報(例えば、第1-1パケット)を無線通信規に応じて遠隔制御装置200で受信できるように伝送(または、変換して伝送)することができる。なお、ディスプレイ装置10の制御部110は、「ポップアップ表示」に対応する第1-1パケットを伝送するように通信インターフェース130を制御することができる。パケットは、近距離通信の規格に応じたパケットであってよい。
上述のポップアップだけでなく、ディスプレイ部170にコンテントまたはスマートハブのホーム画面が表示される場合、ディスプレイ装置100の制御部110は、ユーザの使用パターン(または、発話履歴)を用いて、「ユーザの以前発話」を確認することができる。
ディスプレイ部170にコンテントに含まれる複数の画面のうちの一つの画面またはスマートハブのホーム画面が表示される場合、ディスプレイ装置100の制御部110は、「ユーザが以前に発話した」を確認することができる。「ユーザが以前に発話した」に総表示回数、ユーザ発話回数、発話比率(%)を含んでよい。ディスプレイ装置100の画面にユーザの以前発話(又は、発話した)に対応する画面が表示される場合、ディスプレイ装置100の制御部110は、通信インターフェース130を用いて遠隔制御装置200の通信インターフェース230に「ユーザ以前発話」に対応する第1制御情報(例えば、第1-2パケット)を伝送することができる。
ディスプレイ装置100の制御部110は、「ユーザ以前発話」に対応する第1制御情報(例えば、第1-2パケット)を無線通信規格によって遠隔制御装置200で受信できるように伝送(または、変換して伝送)することができる。なお、ディスプレイ装置100の制御部110は、「ユーザ以前発話」に対応する第1-2パケットを伝送するように通信インターフェース130を制御することができる。パケットは、近距離通信の規格に応じたパケットであってよい。
遠隔制御装置200の制御部210は、センサ245及び外部から受信される第1制御情報の組み合わせを通じて、「ユーザの発話意図あり」を決定することができる。なお、遠隔制御装置200の制御部210は、複数のセンサのうち少なくとも一つ及び外部から受信される第1制御情報の組み合わせを通じて「ユーザの発話意図確定」を決定することができる。
「ユーザの発話意図確定」は、遠隔制御装置200だけでなく、ディスプレイ装置100の制御部110でも決定することもできる。
図3のステップS330において、マイクオン(on)及びディスプレイ装置の画面に音声認識ガイドインターフェース(user interface)が表示される。
図4Fを参照すると、ディスプレイ装置100の画面に音声認識ガイドユーザインターフェース(または、Q-サイン(cue sign))101cが表示される。遠隔制御装置200の制御部210は、「ユーザの発話意図確定」に対応してマイク243に電源を供給することができる。なお、遠隔制御装置200の制御部210は、「ユーザの発話意図確定」に対応してマイク243を動作(例えば、発話されたユーザ音声を受信可能)させることができる。マイク243が動作しない場合(または、マイク243に電源が供給されない場合)、ユーザが音声を発話するとしても、マイク243はユーザの音声を受信することができない。
遠隔制御装置200の制御部210は、通信インターフェース230を用いて「ユーザの発話意図確定」に対応する第2制御情報をディスプレイ装置100の通信インターフェース130に伝送することができる。
ディスプレイ装置100の制御部110の第2制御情報の受信に対応し、画面に音声認識ガイドユーザインターフェース101cを表示することができる。
音声認識ガイドユーザインターフェース101cは、ユーザの発話をガイドするようにディスプレイ装置10の画面に提供されるユーザインターフェース(user interface)を意味することができる。例えば、ユーザの発話意図が確定である場合、ディスプレイ装置100の制御部210は、「ユーザの発話意図確定」に対応するテキスト、イメージ、ビデオまたはシンボルで構成される音声認識ガイドユーザインターフェース101cをユーザに提供することができる。音声認識ガイドユーザインターフェース101cは、画面に表示されるコンテント101と別個であってよい。
音声認識ガイドユーザインターフェース101cは、音声認識ガイドユーザインターフェース101cの一側に表示されるユーザガイド(例えば、テキスト(例えば、マイクオン(mic on)101c1、イメージ101c2、ビデオまたはシンボル101d3(図4Gを参照)など)を含んでよい。ユーザガイドは、テキスト、イメージ、ビデオ、シンボルのうちの一つまたは組み合わせを含んでよい。
音声認識ガイドユーザインターフェース101cは、ディスプレイ装置100の画面の一側(例えば、上/下/左/右のうち一つ)に位置することができる。なお、音声認識ガイドユーザインターフェース101cは、ディスプレイ装置100の画面に表示されるコンテント101と重なるように表示されてよい。
音声認識ガイドユーザインターフェース101cは、透明度(transparency、例えば、0%ないし100%)を有してよい。音声認識ガイドユーザインターフェース101cの透明度に応じて、コンテント101がぼんやりと表示されてよい。なお、本発明の実施形態において、音声認識ガイドユーザインターフェース101cは画面でコンテント101と区別できるように表示されてよい。
ユーザの遠隔制御装置200の把持から別の音声認識ガイドユーザインターフェース101cの表示までの時間が短いほど、改善されたユーザ経験(user experience)をユーザに提供することができる。例えば、遠隔制御装置200の把持から別の音声認識ガイドユーザインターフェース101cの表示までの時間(T1)が1秒以下であってよい。なお、遠隔制御装置200の把持から別の音声認識ガイドユーザインターフェース101cの表示までの時間(T1)が3秒以下であってよい。
図3のステップS304において、ユーザ音声が受信される。
図4Gを参照すると、ディスプレイ装置100の制御部210は、別の音声認識ガイドユーザインターフェース101dを表示することができる。音声認識ガイドユーザインターフェース101cの後設定された時間(例えば、100ms、変更可能)が経過する場合、ディスプレイ装置100の制御部210は、ユーザ音声の受信可能に対応する別の音声認識ガイドユーザインターフェース101dを表示することができる。別の音声認識ガイドユーザインターフェース101dは、ユーザガイド(例えば、テキスト(例えば、speak now101d1、イメージ101d2、ビデオまたはシンボル101d3(図4Gを参照)など)を含んでよい。
ディスプレイ装置100の画面に別の音声認識ガイドユーザインターフェース101dが表示される場合、ユーザは把持した遠隔制御装置200に音声を発話(例えば、「サッカー」)することができる。遠隔制御装置200のマイク243はユーザの音声を受信(または、入力)することができる。マイク243は、受信されたユーザ音声に対応する信号(例えば、デジタル信号またはアナログ信号)に変換して制御部210に出力することができる。制御部210は、受信されたユーザ音声に対応する信号を保存部280に保存することができる。
ユーザの遠隔制御装置200の把持から別の音声認識ガイドユーザインターフェース101dの表示までの時間が短いほど改善されたユーザ経験をユーザに提供することができる。例えば、遠隔制御装置200の把持から別の音声認識ガイドユーザインターフェース101dの表示までの時間(T1)が1.5秒以下であってよい。なお、遠隔制御装置200の把持から別の音声認識ガイドユーザインターフェース101dの表示までの時間(T1)が3.5秒以下であってよい。
図3のステップS340において、設定時間(例えば、5秒以下、変更可能)の間、ユーザ音声が受信されない場合、遠隔制御装置200はマイク243に供給される電源を遮断し、ユーザ音声受信を終了することができる。
一方、ユーザの後続発話が予測される場合には、前記設定時間を可変したり、前記設定時間の経過有無によらず、マイクの電源供給を保持しつつユーザ音声受信を終了しなくてよい。ユーザの後続発話が予測されるか否かは、直前の発話内容、発話によるディスプレイ装置のユーザインターフェース表示内容、または発話によるディスプレイ装置の動作もしくは機能実行結果に基づいて判断することができる。
ユーザの後続発話が予想されるか否かの判断の主体は、ディスプレイ装置または対話型サーバであってよく、ディスプレイ装置は前記判断結果を含む特定信号(パケット)を遠隔制御装置に伝送し、マイクの電源供給を保持するか保持時間を可変するようにすることができる。
図3のステップS350において、ユーザ音声に対応する制御信号をディスプレイ装置に伝送する。
図4Hを参照すると、ディスプレイ装置100の画面が発話されたユーザ音声(例えば、「サッカー」)に対応して変更されてよい。遠隔制御装置200の制御部210は、保存されたユーザ音声に対応する電気的信号を通信インターフェース230を介してディスプレイ装置100に伝送することができる。ユーザ音声に対応する電気的信号の一部が保存部280に保存される場合、遠隔制御装置200の制御部210は、ユーザ音声に対応する信号の一部を通信インターフェース230を介して直接(または、直ちに、100ms以下(変更可能))ディスプレイ装置100に伝送することができる。
遠隔制御装置200の制御部210は、保存されたユーザ音声に対応する電気的信号を無線通信規格によってディスプレイ装置100で受信できるように伝送(または、変換して伝送)することができる。なお、遠隔制御装置200の制御部210は、保存されたユーザ音声に対応する信号を含むパケット(packet)を伝送するように通信インターフェース230を制御することができる。パケットは、近距離通信の規格に応じたパケットであってよい。
遠隔制御装置200からパケットが受信される場合、ディスプレイ装置100の制御部110は、受信されるパケットを保存部180に保存することができる。
ディスプレイ装置100の制御部110は、受信されたパケットを分析(または、パーシング)することができる。分析の結果によって、ディスプレイ装置100の制御部110は、ユーザ音声に対応する信号の受信を決定することができる。
ディスプレイ装置100の制御部110は、受信されたパケットを通信インターフェース130を介して音声認識サーバに伝送することができる。ディスプレイ装置100の制御部110は、受信されたパケットをそのまま、または、受信されたパケットを変換して音声認識サーバに伝送することもできる。
音声認識サーバの制御部は、受信されたパケットに対して音声認識アルゴリズムを用いて、音声認識を行う。音声認識アルゴリズムは、パケットを一定の長さを有する区間に区分し、それぞれの区間を音響分析して周波数スペクトラム及び音声パワーなどを含むパラメータ(parameter)を抽出することができる。音声認識アルゴリズムは、パケットを音素(phonemes)単位に分割し、分割された音声単位のパラメータに基づいて音素を認識することができる。
音声認識サーバの保存部は、特定音素に対応する音素データベースを保存(アップデートも可能)することができる。音声認識サーバ300の制御部は、認識された音素及び予め保存されたデータベースを用いて音声データを生成することができる。
音声認識サーバの制御部は、受信されたパケットの波形を音声認識して音声データを生成することができる。音声認識サーバの制御部は、音声データを用いて制御情報(例えば、制御命令語)に変換することができる。制御情報は、ディスプレイ装置100の動作(または、機能)を制御することができる。音声認識サーバは、制御情報データベースを含んでよい。
音声認識サーバは、変換された音声データを制御情報データベースを用いてディスプレイ装置100を制御する制御情報(例えば、ディスプレイ装置100の制御部110がパーシング(parsing)可能な情報)に変換することもできる。例えば、ユーザの音声(例えば、「ボリューム上げて」に対応するアナログ波形)が受信される場合、ディスプレイ装置100は通信インターフェースを介して音声に対応する電気的信号(例えば、デジタル信号、アナログ信号、またはパケット)を音声認識サーバに伝送することができる。音声認識サーバは、受信された電気的信号(または、パケット)を音声認識を通じて音声データ(例えば、「サッカー」)に変換することができる。音声認識サーバ300は、音声データを用いて制御情報を変換(または、生成)することができる。
制御情報をディスプレイ装置100で受信する場合、音声データに対応する制御情報によってディスプレイ装置100の制御部110は、サッカーコンテント(または、サッカーチャネル)を表示することができる。
図3のステップS350において、ユーザ音声に対応する制御命令がディスプレイ装置に伝送される場合、遠隔制御装置のユーザ音声受信方法は終了する。
本発明の例示的な実施形態に係る方法は、多様なコンピュータ手段を通じて行うプログラム命令形態で実現され、コンピュータ読み取り可能な媒体に記録されてよい。前記コンピュータ読み取り可能な媒体は、プログラム命令、データファイル、データ構造などを単独でまたは組み合わせて含んでよい。例えば、前記コンピュータ読み取り可能な媒体は、削除可能または上書き可否に関係なく、ROMなどの保存装置のような揮発性または不揮発性保存装置、または、例えば、RAM、メモリチップ、装置または集積回路のようなメモリ、または、例えばCD、DVD、磁気ディスクまたは磁気テープなどのような光学または磁気的に記録可能と同時に機械(または、コンピュータ)で読み取れる保存媒体に保存されてよい。
なお、コンピュータ読み取り可能なプログラムは、サーバのコンピュータ読み取り可能な保存媒体に保存され、前記コンピュータプログラムはネットワークを通じてコンピューティング装置にダウンロードされてよい。
遠隔制御装置及び/またはディスプレイ装置内に含まれるメモリは、本発明の実施形態を実現する指示を含むプログラムまたはプログラムを保存するに適する機械で読み取れる保存媒体の一例であることを知ることができる。前記媒体に記録されるプログラム命令は、本発明のために、特別に設計されて構成されたものであるか、コンピュータソフトウェア当業者に公知されて使用可能なものであってよい。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明は以上の実施形態に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的趣旨の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
そのため、本発明の範囲は、説明された例示的実施例に制限されてはならず、後述の請求範囲だけでなく、請求範囲に等しいものによって決まるべきである。
100 ディスプレイ装置
110 制御部
111 プロセッサ
112 ROM
113 RAM
120 チューナ
130 通信部
131 有線イーサネット
132 無線LAN通信部
133 近距離通信部
140 マイク
145 カメラ
150 光受信部
160 入/出力部
161 HDMI
162 コンポーネント
163 PC
164 USB
170 ディスプレイ部
175 オーディオ出力部
176 スピーカ
177 ヘッドフォン
178 S/PDIF
180 保存部
190 電源供給部
200 遠隔制御装置
210 制御部
211 プロセッサ
212 ROM
213 RAM
230 通信部
231 無線LAN通信部
232 近距離通信部
240 入力部
241 ボタン
242 タッチパッド
243 マイク
245 センサ
246 モーションセンサ
247 グリップセンサ
248 ガスセンサ
250 光出力部
270 ディスプレイ部
280 保存部
290 電源供給部

Claims (12)

  1. 音声認識を用いて外部装置を制御できる遠隔制御装置において、
    マイクと、
    少なくとも一つのセンサと、
    通信インターフェースと、
    前記マイク、前記少なくとも一つのセンサ、及び前記通信インターフェースを制御するプロセッサと
    を含み、
    前記プロセッサは、
    前記遠隔制御装置の発話意図情報及び前記外部装置の発話意図情報を組み合わせてユーザ発話意図を識別し、前記遠隔制御装置の発話意図情報は、前記少なくとも一つのセンサによって識別された前記遠隔制御装置の状態または外部状態に基づいて、前記外部装置の発話意図情報は前記通信インターフェースを介して前記外部装置から受信され、
    前記ユーザ発話意図の識別結果に応じて、前記マイクの電源供給有無を制御し、
    前記マイクを介して受信されるユーザ音声に対応するデータを前記外部装置に伝送するように前記通信インターフェースを制御する遠隔制御装置。
  2. 前記少なくとも一つのセンサは、複数のセンサを含み、
    前記プロセッサは、前記遠隔制御装置とユーザの顔との間の距離に対応する、前記複数のセンサから検出された状態を組み合わせてユーザの発話意図を識別する
    ことを特徴とする請求項1に記載の遠隔制御装置。
  3. 前記少なくとも一つのセンサは、前記遠隔制御装置の把持を検出するグリップセンサと、前記遠隔制御装置の動きを検出するモーションセンサと、ユーザの呼気に含まれるガスを検出するガスセンサのうち、少なくとも一つを含む
    ことを特徴とする請求項1に記載の遠隔制御装置。
  4. 前記外部装置から受信した発話意図情報は、前記外部装置のディスプレイにユーザの音声発話をガイドするポップアップの表示有無に対する情報を含む
    ことを特徴とする請求項1に記載の遠隔制御装置。
  5. 前記外部装置から受信した発話意図情報は、前記外部装置のディスプレイに表示されるコンテントに対応するユーザの発話履歴に関する情報を含む
    ことを特徴とする請求項1に記載の遠隔制御装置。
  6. 前記外部装置から受信した発話意図情報は、ユーザの後続発話が予想されるか否かに対する情報を含む
    ことを特徴とする請求項1に記載の遠隔制御装置。
  7. 前記ユーザの後続発話が予想されるか否かに対する情報は、直前の発話内容、前記外部装置のディスプレイに表示されるユーザインターフェースの内容、及び直前の発話に応じた前記外部装置の動作または機能実行結果のうち、少なくとも一つに基づいて識別される
    ことを特徴とする請求項6に記載の遠隔制御装置。
  8. 前記プロセッサは、ユーザの発話意図があると識別される場合、前記マイクに電源を供給し、前記通信インターフェースを制御して前記発話意図情報を前記外部装置に伝送し、
    前記外部装置は、音声認識ガイドユーザインターフェースをディスプレイに表示する
    ことを特徴とする請求項1に記載の遠隔制御装置。
  9. 遠隔制御装置のユーザ音声受信方法であって、
    外部装置と接続するステップと、
    前記遠隔制御装置の発話意図情報及び前記外部装置の発話意図情報を組み合わせて、ユーザ発話意図を識別するステップと、
    前記遠隔制御装置の発話意図情報は、少なくとも一つのセンサによって識別された前記遠隔制御装置の状態または外部状態に基づいて、前記外部装置の発話意図情報は前記外部装置から受信されるステップと、
    前記ユーザ発話意図の識別結果に応じてマイクに電源を供給するステップと、
    前記マイクを介して受信されるユーザ音声に対応するデータを前記外部装置に伝送するステップとを含む遠隔制御装置のユーザ音声受信方法。
  10. 前記ユーザの発話意図を識別するステップは、
    前記遠隔制御装置の内部から前記遠隔制御装置の発話意図情報を受信し、前記遠隔制御装置の外部から前記外部装置の発話意図情報を受信する
    ことを特徴とする請求項9に記載の遠隔制御装置のユーザ音声受信方法。
  11. 前記遠隔制御装置の内部から前記遠隔制御装置の発話意図情報の受信は、少なくとも一つのセンサ及び前記マイクのうち一方を用いる
    ことを特徴とする請求項10に記載の遠隔制御装置のユーザ音声受信方法。
  12. 前記遠隔制御装置の外部から前記外部装置の発話意図情報の受信は、前記外部装置に表示されるポップアップガイド及びユーザ発話履歴のうち一方を用いる
    ことを特徴とする請求項10に記載の遠隔制御装置のユーザ音声受信方法。
JP2019546280A 2017-07-10 2018-05-29 遠隔制御装置及び遠隔制御装置のユーザ音声受信方法 Active JP7187468B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020170087167A KR102392087B1 (ko) 2017-07-10 2017-07-10 원격 조정 장치 및 원격 조정 장치의 사용자 음성 수신방법
KR10-2017-0087167 2017-07-10
PCT/KR2018/006081 WO2019013447A1 (en) 2017-07-10 2018-05-29 REMOTE CONTROL DEVICE AND METHOD FOR RECEIVING VOICE FROM AN ASSOCIATED USER

Publications (2)

Publication Number Publication Date
JP2020527734A JP2020527734A (ja) 2020-09-10
JP7187468B2 true JP7187468B2 (ja) 2022-12-12

Family

ID=62684632

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019546280A Active JP7187468B2 (ja) 2017-07-10 2018-05-29 遠隔制御装置及び遠隔制御装置のユーザ音声受信方法

Country Status (6)

Country Link
US (1) US11449307B2 (ja)
EP (1) EP3429215B1 (ja)
JP (1) JP7187468B2 (ja)
KR (1) KR102392087B1 (ja)
CN (1) CN109243463B (ja)
WO (1) WO2019013447A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190058897A (ko) * 2017-11-22 2019-05-30 삼성전자주식회사 원격 제어 장치 및 이의 제어 방법
KR20200091278A (ko) * 2019-01-22 2020-07-30 삼성전자주식회사 음성 입력과 관련된 비주얼 정보를 표시하는 방법 및 이를 지원하는 전자 장치
KR20200109140A (ko) * 2019-03-12 2020-09-22 삼성전자주식회사 전자 장치 및 전자 장치의 제어 방법
US11881220B2 (en) * 2019-05-15 2024-01-23 Lg Electronics Inc. Display device for providing speech recognition service and method of operation thereof
KR20210056094A (ko) * 2019-11-08 2021-05-18 엘지디스플레이 주식회사 디스플레이 장치
CN110931005B (zh) * 2019-11-20 2021-03-23 珠海格力电器股份有限公司 电器设备的语音自定义方法、装置、存储介质及电器设备
CN111641856A (zh) * 2020-05-22 2020-09-08 海信视像科技股份有限公司 显示设备中引导用户操作的提示信息显示方法及显示设备
CN112419693B (zh) * 2020-11-03 2023-05-12 深圳Tcl新技术有限公司 设备控制方法、装置、显示设备及计算机可读存储介质
CN113470643B (zh) * 2021-06-17 2024-03-29 歌尔股份有限公司 语音遥控器的控制方法、装置、设备及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003233392A (ja) 2002-02-08 2003-08-22 Altia Co Ltd 車両用音声入力装置
JP2010068478A (ja) 2008-09-12 2010-03-25 Panasonic Corp リモートコントロール装置
JP2010217754A (ja) 2009-03-18 2010-09-30 Toshiba Corp 音声入力装置、音声認識システム及び音声認識方法
JP2013025605A (ja) 2011-07-22 2013-02-04 Sony Corp 情報処理装置、情報処理方法及びプログラム
US20150100322A1 (en) 2013-10-07 2015-04-09 Samsung Electronics Co., Ltd. Remote control apparatus for inputting user voice and method thereof
JP2015201739A (ja) 2014-04-08 2015-11-12 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 複数機器の音声操作システム、音声操作方法及び、プログラム
WO2017057010A1 (ja) 2015-10-02 2017-04-06 シャープ株式会社 端末装置および制御サーバ

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100202425B1 (ko) 1992-08-27 1999-06-15 정호선 가전제품의 리모콘 명령어를 인식하기 위한 음성 인식 시스템
US5631669A (en) * 1994-02-04 1997-05-20 Stobbs; Gregory A. Pointing device with integral microphone
JP3893763B2 (ja) 1998-08-17 2007-03-14 富士ゼロックス株式会社 音声検出装置
JP2000338995A (ja) * 1999-05-31 2000-12-08 Toshiba Corp 音声認識装置及び音声認識用プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2003029778A (ja) * 2001-07-16 2003-01-31 Fujitsu Ten Ltd ナビゲーションシステムにおける音声対話インターフェース処理方法
US20050202377A1 (en) * 2004-03-10 2005-09-15 Wonkoo Kim Remote controlled language learning system
GB2417107A (en) * 2004-06-08 2006-02-15 Pranil Ram Computer apparatus with added functionality
US20070132733A1 (en) * 2004-06-08 2007-06-14 Pranil Ram Computer Apparatus with added functionality
JP4650888B2 (ja) 2005-09-09 2011-03-16 株式会社豊田中央研究所 発話検出装置、方法及びプログラム
JP4992218B2 (ja) 2005-09-29 2012-08-08 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP4131978B2 (ja) * 2006-02-24 2008-08-13 本田技研工業株式会社 音声認識機器制御装置
JP2008170817A (ja) * 2007-01-12 2008-07-24 Toyota Motor Corp 対話制御装置、対話制御方法及び対話制御プログラム
KR101581883B1 (ko) * 2009-04-30 2016-01-11 삼성전자주식회사 모션 정보를 이용하는 음성 검출 장치 및 방법
JP2011094874A (ja) * 2009-10-29 2011-05-12 Noritz Corp 操作装置及びこの操作装置を備えた給湯システム
US8886541B2 (en) * 2010-02-04 2014-11-11 Sony Corporation Remote controller with position actuatated voice transmission
JP5771002B2 (ja) * 2010-12-22 2015-08-26 株式会社東芝 音声認識装置、音声認識方法および音声認識装置を搭載したテレビ受像機
JP5039214B2 (ja) 2011-02-17 2012-10-03 株式会社東芝 音声認識操作装置及び音声認識操作方法
WO2012169679A1 (ko) * 2011-06-10 2012-12-13 엘지전자 주식회사 디스플레이 장치, 디스플레이 장치의 제어 방법 및 디스플레이 장치의 음성인식 시스템
EP2610862B1 (en) * 2011-12-30 2015-07-08 Samsung Electronics Co., Ltd. Electronic apparatus and method of controlling electronic apparatus
KR101420329B1 (ko) * 2012-06-11 2014-07-16 삼성디스플레이 주식회사 표시 장치
CN202871079U (zh) * 2012-09-24 2013-04-10 天津市泰益通科技有限公司 新式遥控器
CN102945672B (zh) 2012-09-29 2013-10-16 深圳市国华识别科技开发有限公司 一种多媒体设备语音控制系统及方法
KR101978743B1 (ko) * 2012-10-19 2019-08-29 삼성전자주식회사 디스플레이 장치, 상기 디스플레이 장치를 제어하는 원격 제어 장치, 디스플레이 장치 제어 방법, 서버 제어 방법 및 원격 제어 장치 제어 방법
KR20140093303A (ko) * 2013-01-07 2014-07-28 삼성전자주식회사 디스플레이 장치 및 그의 제어 방법
KR20140089863A (ko) * 2013-01-07 2014-07-16 삼성전자주식회사 디스플레이 장치, 및 이의 제어 방법, 그리고 음성 인식 시스템의 디스플레이 장치 제어 방법
US9292254B2 (en) * 2013-05-15 2016-03-22 Maluuba Inc. Interactive user interface for an intelligent assistant
KR101456974B1 (ko) * 2013-05-21 2014-10-31 삼성전자 주식회사 사용자 단말기, 음성인식 서버 및 음성인식 가이드 방법
KR102345611B1 (ko) 2013-11-18 2021-12-31 삼성전자주식회사 디스플레이 장치 및 제어 방법
KR20150092996A (ko) * 2014-02-06 2015-08-17 삼성전자주식회사 디스플레이 장치 및 이를 이용한 전자 장치의 제어 방법
KR102147329B1 (ko) * 2014-06-17 2020-08-24 엘지전자 주식회사 영상 표시 기기 및 그의 동작 방법
KR102147346B1 (ko) 2014-06-23 2020-08-24 엘지전자 주식회사 디스플레이 장치 및 그의 동작 방법
TWI562640B (en) 2014-08-28 2016-12-11 Hon Hai Prec Ind Co Ltd Method and system for processing video conference
KR102277749B1 (ko) * 2014-11-13 2021-07-16 엘지전자 주식회사 디스플레이 장치 및 그 제어 방법
KR20170010494A (ko) * 2015-07-20 2017-02-01 엘지전자 주식회사 이동 단말기 및 그 제어 방법
KR102328703B1 (ko) * 2015-07-24 2021-11-19 삼성전자주식회사 디스플레이 장치 및 디스플레이 장치의 화면 제어방법
KR20170032114A (ko) * 2015-09-14 2017-03-22 삼성전자주식회사 음성 인식 장치 및 그의 제어방법
KR102349861B1 (ko) * 2015-09-16 2022-01-12 삼성전자주식회사 디스플레이 장치 및 디스플레이 장치의 디스플레이 제어방법
US10015400B2 (en) * 2015-12-17 2018-07-03 Lg Electronics Inc. Mobile terminal for capturing an image and associated image capturing method
KR20170073257A (ko) * 2015-12-18 2017-06-28 삼성전자주식회사 디스플레이 장치 및 디스플레이 장치의 제어방법
CN106043150B (zh) * 2016-08-04 2018-02-09 歌尔科技有限公司 一种带语音识别功能的车载投影系统

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003233392A (ja) 2002-02-08 2003-08-22 Altia Co Ltd 車両用音声入力装置
JP2010068478A (ja) 2008-09-12 2010-03-25 Panasonic Corp リモートコントロール装置
JP2010217754A (ja) 2009-03-18 2010-09-30 Toshiba Corp 音声入力装置、音声認識システム及び音声認識方法
JP2013025605A (ja) 2011-07-22 2013-02-04 Sony Corp 情報処理装置、情報処理方法及びプログラム
US20150100322A1 (en) 2013-10-07 2015-04-09 Samsung Electronics Co., Ltd. Remote control apparatus for inputting user voice and method thereof
JP2015201739A (ja) 2014-04-08 2015-11-12 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 複数機器の音声操作システム、音声操作方法及び、プログラム
WO2017057010A1 (ja) 2015-10-02 2017-04-06 シャープ株式会社 端末装置および制御サーバ

Also Published As

Publication number Publication date
US20190012137A1 (en) 2019-01-10
JP2020527734A (ja) 2020-09-10
KR20190006323A (ko) 2019-01-18
WO2019013447A1 (en) 2019-01-17
US11449307B2 (en) 2022-09-20
CN109243463A (zh) 2019-01-18
KR102392087B1 (ko) 2022-04-29
CN109243463B (zh) 2023-12-05
EP3429215A1 (en) 2019-01-16
EP3429215B1 (en) 2019-09-04

Similar Documents

Publication Publication Date Title
JP7187468B2 (ja) 遠隔制御装置及び遠隔制御装置のユーザ音声受信方法
US11330320B2 (en) Display device and method for controlling display device
US10939065B2 (en) Display apparatus and method for controlling display of display apparatus
US10678563B2 (en) Display apparatus and method for controlling display apparatus
CN107950030B (zh) 显示装置以及控制显示装置的方法
US20170180918A1 (en) Display apparatus and method for controlling display apparatus
EP3719631A1 (en) Display device and method for controlling same
KR102540001B1 (ko) 디스플레이 장치 및 디스플레이 장치의 화면 표시방법
EP3334172B1 (en) Display apparatus and method for acquiring channel information of a display apparatus
CN108141631B (zh) 显示装置和用于控制显示装置的方法
CN108513152B (zh) 图像显示设备及其操作方法
CN108353205B (zh) 电子设备和用于控制电子设备的方法
CN107801074B (zh) 显示系统及其控制方法
KR102428271B1 (ko) 전자 장치 및 전자 장치의 사운드 제어방법
KR20150066156A (ko) 디스플레이 장치 및 이의 제어 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221130

R150 Certificate of patent or registration of utility model

Ref document number: 7187468

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150