JP5868927B2 - ディスプレイ装置、音声取得装置およびその音声認識方法 - Google Patents

ディスプレイ装置、音声取得装置およびその音声認識方法 Download PDF

Info

Publication number
JP5868927B2
JP5868927B2 JP2013231944A JP2013231944A JP5868927B2 JP 5868927 B2 JP5868927 B2 JP 5868927B2 JP 2013231944 A JP2013231944 A JP 2013231944A JP 2013231944 A JP2013231944 A JP 2013231944A JP 5868927 B2 JP5868927 B2 JP 5868927B2
Authority
JP
Japan
Prior art keywords
voice
unit
application
display device
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013231944A
Other languages
English (en)
Other versions
JP2014096153A (ja
Inventor
種 赫 ▲蒋▼
種 赫 ▲蒋▼
讚 熙 崔
讚 熙 崔
熙 渉 柳
熙 渉 柳
勁 美 朴
勁 美 朴
勝 權 朴
勝 權 朴
在 鉉 ▲ペ▼
在 鉉 ▲ペ▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2014096153A publication Critical patent/JP2014096153A/ja
Application granted granted Critical
Publication of JP5868927B2 publication Critical patent/JP5868927B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/2803Home automation networks
    • H04L12/2816Controlling appliance services of a home automation network by calling their functionalities
    • H04L12/282Controlling appliance services of a home automation network by calling their functionalities based on user interaction within the home
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4126The peripheral being portable, e.g. PDAs or mobile phones
    • H04N21/41265The peripheral being portable, e.g. PDAs or mobile phones having a remote control device for bidirectional communication between the remote control device and client device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4131Peripherals receiving signals from specially adapted client devices home appliance, e.g. lighting, air conditioning system, metering devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/43615Interfacing a Home Network, e.g. for connecting the client to a plurality of peripherals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/221Announcement of recognition results

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Quality & Reliability (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephonic Communication Services (AREA)
  • Selective Calling Equipment (AREA)

Description

本発明は、ディスプレイ装置、音声取得装置およびその音声認識方法に係り、さらに詳しくは、ユーザーが発話した音声を認識するディスプレイ装置、音声取得装置およびその音声認識方法に関する。
一般的に、ユーザーが発話した音声を認識する音声認識機能を有する電子機器の使用が漸次増えている。音声認識はPC、移動通信機器だけでなく、デジタルTV、エアコン、ホームシアター等のような多様な電子機器でも積極的に使用されている。
このような音声認識機能を行うためには、TVのようなメイン機器にユーザーが発話した音声が入力されるマイクと入力された音声を認識する音声認識エンジンを設け、音声認識エンジンはマイクで入力された音声をあらかじめ保存された候補命令語と比較して、その結果にしたがって発話された音声を認識することができる。
ところで、従来の音声認識機能を有する電子機器は、ユーザーが発話した音声が入力される手段が固定されているので、携帯電話のような音声入力が可能な多様な入力手段を活用し難い。また、候補命令語が富めば富むほど認識率は高まるが、候補命令語の個数が増加すれば増加するほど比較対象が多くなるので音声認識処理速度が鈍る。また、メイン機器の保存容量が制限的なので、候補命令語を持続的に追加することも難しい短所がある。
従って、本発明の目的は、ユーザーが発話した音声を認識するディスプレイ装置、音声取得装置およびその音声認識方法を提供することを目的とする。
本発明の実施形態によるディスプレイ装置は、映像を表示するディスプレイ部と;複数の外部機器と通信を行う通信部と;ユーザーが発話した音声を認識する音声認識エンジンを含み、音声取得部から音声信号を受信し、前記受信された音声信号を認識するための候補命令語を前記複数の外部機器の中で少なくとも一つから受信するように前記通信部を制御する制御部と;を含む。
前記音声取得部は複数で設けられ、前記制御部は複数の音声取得部の中で少なくとも一つから音声入力が感知されれば、前記音声入力が感知された音声取得部から音声信号を受信することができる。
前記音声取得部は前記ディスプレイ装置に設けられた内蔵マイクと、前記複数の外部機器の中で少なくとも一つに設けられた第1外部マイクと、前記ディスプレイ装置および前記複数の外部機器と分離された第2外部マイクと、の中で少なくとも一つを含むことができる。前記外部機器は少なくとも一つのアプリケーションを含み、前記候補命令語は前記アプリケーションによって管理されることができる。
前記候補命令語を管理し、前記ディスプレイ装置に設けられる内蔵アプリケーションをさらに含むことができる。前記受信された候補命令語を保存する保存部をさらに含み、前記音声認識エンジンは前記受信された候補命令語を利用して音声を認識することができる。
前記制御部は、前記複数の音声取得部の中でいずれか一つに対するウェークアップ キーワードが発話されることが感知されれば、前記感知されたウェークアップキーワードに対応する音声取得部を活性化し、前記活性化された音声取得部から音声信号を受信することができる。前記制御部は、前記複数の音声取得部の中でいずれか一つに設けられた所定のボタンの操作によるトリガー信号が入力されれば、前記入力されたトリガー信号に対応する音声取得部を活性化し、前記活性化された音声取得部から音声信号を受信することができる。前記制御部は前記音声信号に対する音声認識結果および前記音声認識結果による候補命令語を表示するように前記ディスプレイ部を制御することができる。
前記ディスプレイ部は前記候補命令語を管理するアプリケーション情報をさらに表示することができる。
前記音声認識エンジンは前記受信された候補命令語の中で前記受信された音声信号と一致または類似の命令語を決めて前記音声を認識することができる。
一方、本発明の実施形態による音声取得装置は、音声認識機能を有するディスプレイ装置と通信を行う通信部と;ユーザーが発話した音声が入力される音声取得部と;前記入力された音声を電気的な音声信号に変換する音声変換部と;前記変換された音声信号および前記音声信号を認識するための候補命令語を前記ディスプレイ装置に送信するように前記通信部を制御する制御部と;を含む。
少なくとも一つのアプリケーションをさらに含み、前記候補命令語は前記アプリケーションによって管理されることができる。
一方、本発明の実施形態によるディスプレイ装置の音声認識方法は、音声取得部から音声信号を受信する段階と;前記受信された音声信号を認識するための候補命令語を複数の外部機器の中で少なくとも一つから受信する段階と;前記受信された音声信号および候補命令語によりユーザーが発話した音声を認識する段階と;を含む。
複数の音声取得部の中で少なくとも一つから音声入力を感知する段階をさらに含み、前記音声信号を受信する段階は前記音声入力が感知された音声取得部から音声信号を受信することができる。
前記音声取得部は前記ディスプレイ装置に設けられた内蔵マイクと、前記複数の外部機器の中で少なくとも一つに設けられた第1外部マイクと、前記ディスプレイ装置および前記複数の外部機器と分離された第2外部マイクと、の中で少なくとも一つを含むことができる。
前記外部機器は少なくとも一つのアプリケーションを含み、前記候補命令語は前記アプリケーションによって管理されることができる。前記候補命令語を管理し、前記ディスプレイ装置に設けられる内蔵アプリケーションをさらに含むことができる。
前記受信された候補命令語を保存する段階をさらに含み、前記音声を認識する段階は前記受信された候補命令語を利用して音声を認識することができる。
前記音声入力を感知する段階は、前記複数の音声取得部の中でいずれか一つに対するウェークアップキーワードが発話することを感知する段階と;前記感知されたウェークアップキーワードに対応する音声取得部を活性化する段階と;を含むことができる。前記音声入力を感知する段階は、前記複数の音声取得部の中でいずれか一つに設けられた所定のボタンの操作によるトリガー信号が入力されることを感知する段階と;前記入力されたトリガー信号に対応する音声取得部を活性化する段階と;を含むことができる。
前記音声信号に対する音声認識結果および前記音声認識結果による候補命令語を表示する段階をさらに含むことができる。
前記表示する段階は、前記候補命令語を管理するアプリケーション情報をさらに表示することができる。
前記音声を認識する段階は、前記受信された候補命令語の中で前記受信された音声信号と一致または類似の命令語を決めて前記音声を認識することができる。
本発明によれば、メイン機器がユーザーの発話が入力される多様な装備から入力される音声を感知するので、多様な音声取得装備の活用度を高め、これを利用する連系サービスが可能である。
本発明の実施形態による音声認識システムの例示図である。 本発明の一実施形態による音声認識システムの構成を示すブロック図である。 本発明一実施形態により音声認識を行う例を説明する図面である。 図3の音声認識結果が表示される画面の例を示す図面である。 本発明の他の実施形態により音声認識を行う例を説明する図面である。 本発明の実施形態による音声認識システムの音声認識方法を示すフローチャートである。 図6の音声入力を感知する過程をさらに詳しく示すフローチャートである。 図6の音声認識を行う過程をさらに詳しく示すフローチャートである。
以下、添付された図面を参照して本発明の望ましい実施形態に対して詳しく説明する。
図1は本発明の実施形態による音声認識システムの例示図である。図1に示すように、本発明の実施形態による音声認識システムは、メイン機器100、複数の音声取得装置201、…、202および複数の外部機器301、302、…、303を含む。メイン機器100、複数の音声取得装置201、202および複数の外部機器301、302、303は、相互通信可能に連結される。
メイン機器100にはユーザーが発話した音声が入力されるマイクのような音声取得部140および入力された音声を認識する音声認識エンジン181が設けられ、通信部160を通じて音声取得装置201、202および外部機器301、302、303と通信を行う。また、メイン機器100には一つ以上の内蔵アプリケーション171、172(Native Application)が設けられて、メイン機器100が多様な機能(サービス)を行うように駆動される。本実施形態の内蔵アプリケーション171、172には、遂行機能に対応、すなわち、遂行可能なサービスシナリオに含まれた候補命令語があらかじめ保存され、内蔵アプリケーション171、172に保存された候補命令語は音声を認識する時に音声認識エンジン181に送信されて、音声認識エンジン181が音声認識を行うようにする。
音声取得装置201、202はユーザーが発話した音声が入力されるマイクのような音声取得部を含み、入力された音声に対応する音声信号は音声認識のためにメイン機器100に送信される。
音声取得装置201、202は、ユーザーが発話した音声が入力され、これを電気的な音声信号に変換してメイン機器100に送信する。音声取得装置201、202は、メイン機器100と無線通信が可能な外部装置であり、無線通信は無線ラン(wireless LAN)、RF(radio frequency)通信、ブルートゥース(登録商標(Bluetooth)、ジグビー(登録商標(Zigbee))、赤外線(IR:infrared)通信などを含む。
外部機器301、302、303には、一つ以上の外部アプリケーション(Dev.Application)が設けられて、それぞれの外部機器301、302、303が必要とする機能(サービス)を行うことができる。本実施形態の外部アプリケーションには対応する外部機器301、302、303が行う機能に対応する候補命令語があらかじめ保存され、外部アプリケーションに保存された候補命令語は音声認識の時に音声認識エンジン181に送信されて、音声認識エンジン181が音声認識を行うことができるようにする。
ここで、内蔵アプリケーション171、172および外部アプリケーションにあらかじめ登録される候補命令語は、該当アプリケーションの機能/動作に関する命令語でありうる。例えば、メイン機器100がTVである場合、TVチャンネルの移動、ボリューム調節などに関する候補命令語が内蔵アプリケーション171、172の中でいずれか一つに保存され、外部機器302がエアコンである場合、温度調節(上げ/下げ)、風の強さ調節(強風/弱風/微風)等に関する候補命令語が外部機器302に含まれたアプリケーションに保存されることができる。
本発明は図1の外部機器1301のように、外部機器または音声取得装置が音声取得部と外部アプリケーションを全部含むように具現されることができる。この場合、外部機器1301に設けられた音声取得部から音声が入力されれば、外部機器1301の外部アプリケーションにあらかじめ保存された候補命令語がメイン機器100の音声認識エンジン181に送信されて、音声認識が行われることができる。
本実施形態の音声認識システムは、少なくとも一つの音声取得部を含み、音声取得部から音声入力が感知されれば、音声入力が感知された音声取得部を活性化させて音声ストリーム(stream)を受信する。音声取得部が複数で設けられた場合、複数の音声取得部の中で音声入力が感知された音声取得部を活性化させて音声ストリームを受信することができる。ここで、複数の音声取得部は、メイン機器100に設けられた内蔵マイクと、複数の外部機器301、302、303の中で少なくとも一つに設けられた第1外部マイクと、メイン機器100および複数の外部機器301、302、303と分離された別途の音声取得装置201、202に設けられた第2外部マイクと、を含むことができる。
メイン機器100は複数の音声取得部の中でいずれか一つに対するウェークアップ キーワード(wakeup keyword)が発話されることが感知されれば、感知されたウェークアップ キーワードに対応する音声取得部を活性化し、活性化された音声取得部から音声信号を受信することができる。また、メイン機器100は複数の音声取得部の中でいずれか一つに設けられた所定のボタンの操作(イベント発生)によるトリガー信号(trigger signal)が入力されれば、入力されたトリガー信号に対応する音声取得部を活性化し、活性化された音声取得部から音声信号を受信することができる。
本実施形態のメイン機器100は音声認識モードで動作し、ウェークアップ キーボードやトリガー信号によって何れか一つの音声取得部が活性化されれば、他の音声取得部は非活性化させて音声認識においてエラーが発生することを防止することができる。メイン機器100は、これによる遠距離または近距離の音声認識モードで動作することができる。また、後述するディスプレイ部130に連結された音声取得部を示すUIを表示してユーザーの便宜を助けることができるようにする。
また、メイン機器100は受信された音声信号を認識するための候補命令語を複数の外部機器301、302、303の中で少なくとも一つから受信することができる。受信された候補命令語は音声認識のために音声認識エンジン181に送信することができる。
複数の外部機器301、302、303は、少なくとも一つのアプリケーションを含み、候補命令語は対応する各アプリケーションによって管理されることができる。また、メイン機器100は内蔵アプリケーション171、172をさらに含み、内蔵アプリケーション171、172は、対応する候補命令語を管理する。内蔵アプリケーション171、172により管理される候補命令語は、音声認識のために音声認識エンジン181に送信されることができる。
本発明のメイン機器100は、図2に示すように、TVのようなディスプレイ装置で具現されることができる。
図2は本発明の一実施形態による音声認識システムの構成を示すブロック図である。ディスプレイ装置100は外部の映像供給源(図示せず)から提供される映像信号を映像で表示可能に既設定された映像処理プロセスにしたがって処理する。
本実施形態のシステムでディスプレイ装置100は、放送局の送出装備から受信される放送信号/放送情報/放送データに基づく放送映像を処理するTVまたはセットトップボックス(set top box)で具現される場合に対して説明する。しかし、本発明の思想がディスプレイ装置100の具現例示に限られず、ディスプレイ装置100はTV、セットトップボックス以外にも映像を処理することができる多様な種類の具現例示が適用されることができる。
また、ディスプレイ装置100は表示可能な映像の種類が放送映像に限られず、例えば、ディスプレイ装置100は多様な形式の映像供給源(図示せず)から受信される信号/データに基づく動画、停止映像、アプリケーション(application)、OSD(on−screen display)、多様な動作制御のためのGUI(graphic user interface)等の映像を表示するように処理することができる。
本発明の実施形態によれば、ディスプレイ装置100はスマートTVで具現されることができる。スマートTVはリアルタイムで放送信号を受信して表示可能であり、ウェブブラウザー機能を有しているのでリアルタイムで放送信号を表示しながら、インターネットを通じて多様なコンテンツの検索及び消費が可能であり、このために便利なユーザー環境を提供できるTVである。また、スマートTVは開放型ソフトウェアプラットホームを含んでいてユーザーに両方向サービスを提供することができる。したがって、スマートTVは開放型ソフトウェアプラットホームを通じて多様なコンテンツ、例えば所定のサービスを提供するアプリケーションをユーザーに提供することができる。このようなアプリケーションは多様な種類のサービスを提供できる応用プログラムとして、例えば、SNS、金融、ニュース、天気、地図、音楽、映画、ゲーム、電子本等のサービスを提供するアプリケーションを含む。
本実施形態のディスプレイ装置100にはユーザー音声を認識する音声認識エンジン181が設けられる。認識された音声に対応するコマンド(Command)すなわち、制御命令は対応するアプリケーションに送信されて該当機能による動作を行うようになる。ここで、制御命令に対応するアプリケーションが内蔵アプリケーション171、172の中で何れか一つである場合、ディスプレイ装置100は該当アプリケーションによって制御命令による動作を行う。また、制御命令に対応するアプリケーションが外部アプリケーションである場合、該当制御命令は外部アプリケーションが含まれた外部機器301、302、303に送信されて、外部機器301、302、303が該当アプリケーションによって制御命令による動作を行うことができる。
一方、図2ではメイン機器がTVのようなディスプレイ装置で具現された場合を示しているが、本発明はこれに限られず、メイン機器は多様な電子装置、例えば、PC等で具現されることができる。
図2の実施形態では、音声取得装置が複数で備わり、例えば、携帯電話200と、リモコン(remote controller)300で具現されることを一例として挙げている。ここで、リモコン300は音声取得装置と外部機器の役割を全部行い、携帯電話200は音声取得機能を有するスマートフォンでありうる。
リモコン300はユーザーの操作によって既設定されたコマンド(制御命令)を対応する装置に送信する。本実施形態によるリモコンは、ディスプレイ装置100または外部機器にコマンドを送信するように既設定可能であり、場合によっては、複数の装置にコマンドを送信する統合リモコンで具現されることができる。また、リモコン300はTVリモコンおよび/またはエアコンリモコンを含むこともできる。
一方、本発明による音声取得装置は、携帯電話200とリモコン300だけでなく、携帯用端末装置、マイク送信機などのようにユーザーが発話した音声が入力されることができる多様な装置で具現されることができる。
図2の実施形態では、外部機器が複数で備わり、例えば、リモコン300とエアコン(air conditioner)400で具現されることを例として挙げている。前述のように、リモコン300は音声取得装置と外部機器の役割を全部行う。
図2の実施形態では、外部機器がリモコン300とエアコン400で具現されることを例えているが、本発明の外部機器はこれに限られず、無線通信が可能な多様な電子機器、例えば、ホームシアター、ラジオ、VCR、DVD、洗濯機、冷蔵庫、ロボット掃除機などで具現されることができる。また、外部機器にマイクのような音声取得部が設けられれば、音声取得装置の役割を共に行うことができる。
本実施形態の外部機器には機能を行うためのアプリケーション372、472が備わり、各アプリケーション372、472には候補命令語があらかじめ保存されて管理され、候補命令語は音声認識のためにディスプレイ装置100に送信されることができる。
外部機器、すなわち、リモコン300とエアコン400は、音声認識結果にしたがってディスプレイ装置100から受信された制御命令に対応する動作を行う。
以下、図2を参照して、音声認識システムの各構成をさらに詳しく説明する。図2に示すように、ディスプレイ装置100は、映像信号を受信する映像受信部110、映像受信部110に受信される映像信号を処理する映像処理部120、映像処理部120により処理される映像信号を映像で表示するディスプレイ部130、ユーザーが発話した音声が入力される第1音声取得部140、入力された音声を電気的な音声信号に変換する第1音声変換部150、外部装置と通信を行う第1通信部160、各種のデータが保存される第1保存部170及びディスプレイ装置100を制御する第1制御部180を含む。
映像受信部110は、映像信号を受信して映像処理部120に送信し、受信する映像信号の規格およびディスプレイ装置100の具現形態に対応して多様な方式で具現されることができる。例えば、映像受信部110は、放送局(図示せず)から送出されるRF(radio frequency)信号を無線で受信したり、コンポジット(composite)ビデオ、コンポネント(component)ビデオ、スーパービデオ(super video)、SCART、HDMI(登録商標(high definition multimedia interface))規格等による映像信号を有線で受信することができる。映像信号が放送信号である場合、映像受信部110は、この放送信号をチャンネル別にチューニングするチューナー(tuner)を含む。
また、映像信号は外部機器から入力可能であり、例えば、映像信号はPC、AV機器、スマートフォン、スマートパッド等のような外部機器から入力されることができる。また、映像信号はインターネット等のようなネットワークを通じて受信されるデータに基づくことができる。この場合、ディスプレイ装置100は、第1通信部を通じてネットワーク通信を行ったり、別途のネットワーク通信部をさらに含むことができる。また、映像信号はフラッシュメモリー、ハードディスク等のような非揮発性の第1保存部170に保存されたデータに基づくことができる。保存部170はディスプレイ装置100の内部または外部に設けられ、外部に設けられる場合には保存部170が連結される連結部(図示せず)をさらに含むことができる。
映像処理部120は映像信号に対して既設定された多様な映像処理プロセスを行う。映像処理部120はこのようなプロセスを行った映像信号をディスプレイ部130に出力することによって、ディスプレイ部130に映像が表示されるようにする。
映像処理部120が行う映像処理プロセスの種類は限られず、例えば、多様な映像フォーマットに対応するデコーディング(decoding)、ディ−インタレーシング(de−interlacing)、フレームリフレッシュレート(frame refresh rate)変換、スケーリング(scaling)、映像画質改善のためのノイズ減少(noise reduction)、ディテール強化(detail enhancement)、ライン スキャニング(line scanning)等を含むことができる。映像処理部120はこのような各プロセスを独自に行うことができる個別的な構成のグループで具現されたり、または色々な機能を統合させたSoC(System−on−Chip)で具現されることができる。
ディスプレイ部130は映像処理部120によって処理される映像信号に基づいて映像を表示する。ディスプレイ部130の具現方式は限られず、例えば、液晶(liquid crystal)、プラズマ(plasma)、発光ダイオード(light−emitting diode)、有機発光ダイオード(organic light−emitting diode)、面伝導電子銃(surface−conduction electron−emitter)、炭素ナノチューブ(carbon nano−tube)、ナノクリスタル(nano−crystal)等の多様なディスプレイ方式で具現されることができる。
ディスプレイ部130はその具現方式にしたがって付加的な構成を追加的に含むことができる。例えば、ディスプレイ部130が液晶方式である場合、ディスプレイ部130は液晶ディスプレイパネル(図示せず)と、これに光を供給するバックライトユニット(図示せず)と、パネル(図示せず)を駆動させるパネル駆動基板(図示せず)と、を含む。
本発明のディスプレイ部130は認識された音声に対する情報として音声認識結果を表示することができる。ここで、音声認識結果は、テキスト、グラフィック、アイコンなどの多様な形態で表示可能であり、テキストは文字と数字を含む。本実施形態のディスプレイ部130は、音声認識結果による候補命令語およびアプリケーション情報をさらに表示することができる。これに対しては、後述する図4でさらに詳しく説明する。
ユーザーはディスプレイ部130に表示された音声認識結果によって音声が正しく認識されたか確認可能であり、リモコンに設けられたユーザー入力部390を操作して表示された候補命令語の中でユーザーが発話した音声に対応する命令語を選択したり、音声認識結果に関する情報を選択して確認することもできる。
第1音声取得部140はユーザーが発話した音声が入力されることとして、マイク(microphone)で具現されることができる。第1音声変換部150は第1音声取得部140で入力された音声を電気的な音声信号に変換する。変換された音声信号は、PCM(pulse code modulation)状態または圧縮された形態のオーディオ波形の形態を有する。ここで、第1音声変換部150はユーザーの入力音声をデジタルに変換するA/D変換部で具現されることができる。
一方、第1音声取得部140がデジタルマイクである場合、別途のA/D変換を必要としないので、第1音声取得部140が第1音声変換部150を含むことができる。
第1通信部160は音声取得装置および外部機器、すなわち、図2の携帯電話200、リモコン300およびエアコン400と通信を行う。本実施形態による第1通信部160は、無線通信が可能であり、無線通信は赤外線通信、RF、ジグビー、ブルートゥースの中で少なくとも一つを含む。
第1保存部170は第1制御部180の制御にしたがって限られないデータが保存される。第1保存部170はフラッシュメモリー(flash−memory)、ハードディスクドライブ(hard−disc drive)のような非揮発性保存媒体で具現される。第1保存部170は、第1制御部180によりアクセスされ、第1制御部180によるデータの読取/記録/修正/削除/更新などが行われる。
第1保存部170に保存されるデータは、例えば、ディスプレイ装置100の駆動のための運営体制をはじめとして、この運営体制上で実行可能な多様なアプリケーション、映像データ、付加データなどを含む。
本実施形態の第1保存部170にはユーザーが発話した音声を認識するための各種のデータが保存されることができる。例えば、第1保存部170は受信された音声信号に対応する音声認識対象情報として、候補命令語(以下、命令語候補群と言う)が含まれた命令語テーブル171を保存することができる。命令語テーブル171では各アプリケーション別に候補命令語が管理されることができる。
本実施形態の第1保存部170にはディスプレイ装置100の機能を行うための一つ以上のアプリケーション、例えば、第1アプリケーション172および第2アプリケーション173がさらに保存される。第1アプリケーション172および第2アプリケーション173は後述する第1制御部180の制御により駆動されて、ディスプレイ装置100の各種の機能を行う。図2ではディスプレイ装置100に二つのアプリケーション172、173が内蔵された場合を例えて図示しているが、ディスプレイ装置100が行う機能が多様なので、本発明のディスプレイ装置100には三つ以上のアプリケーションが内蔵されることができる。
第1アプリケーション172および第2アプリケーション173は、遂行機能に対応する候補命令語を各々管理する。第1アプリケーション172および第2アプリケーション173で管理される候補命令語は必要により命令語テーブル171に登録/削除されることができる。
第1および/または第2アプリケーション172、173の候補命令語が命令語テーブル171に登録されれば、音声認識エンジン181は命令語テーブル171に登録された候補命令語を利用して音声認識を行う。
本実施形態の命令語テーブル171に登録/削除可能な候補命令語は、後述するリモコン300の第3アプリケーション372で管理される候補命令語およびエアコン400の第4アプリケーション472で管理されるアプリケーションをさらに含むことができる。
第1制御部180はディスプレイ装置100の多様な構成に対する制御動作を行う。例えば、第1制御部180は映像処理部120が処理する映像処理プロセスの進行、リモコン300からのコマンドに対する対応制御動作を行うことによって、ディスプレイ装置100の全体動作を制御する。
第1制御部180は、例えば、CPUにソフトウェアが結合された形態で具現されることができる。第1制御部180はユーザーが発話した音声を認識する音声認識エンジン181を含む。音声認識エンジン181の音声認識機能は既に知られた音声認識アルゴリズムを利用して行われることができる。例えば、音声認識エンジン181は、音声信号の音声特徴のベクターを抽出し、抽出された音声特徴ベクターを第1保存部170の命令語テーブル171に保存された候補命令語と比較して音声を認識することができる。また、命令語テーブル171に保存された候補命令語の中で抽出された音声特徴ベクターと一致する命令語がない場合、類似度が高い命令語で音声認識結果を補正して音声を認識することができる。ここで、類似度が高い候補命令語が複数である場合、第1制御部180はディスプレイ部130に複数の候補命令語を表示し、ユーザーによって何れか一つが選択されることができる。
本実施形態の音声認識エンジン181は、CPUに常住するエンベデッド音声認識エンジン181で具現されることを例えて説明したが、本発明はこれに限定されない。例えば、音声認識エンジン181は、CPUと別個のディスプレイ装置100内に内蔵された装置、すなわち、マイコン(Micro Computer)のような別途のチップで具現されることができる。
一方、本発明は音声認識エンジン181がディスプレイ装置100と物理的に分離されたサーバー(以下、クラウドサーバーとも言う、(図示せず))に設けられた場合を含む。クラウドサーバーは、ディスプレイ装置100とインターネットのようなネットワークを通じて通信を行う。ここで、ネットワークは有線または無線ネットワークでありうる。このような場合、音声認識エンジン181はクラウドサーバーのCPUに常住するエンベデッド音声認識エンジンや、CPUと別個にクラウドサーバー内に内蔵された装置、すなわち、マイコン(Micro Computer)のような別途のチップで具現されることができる。
第1制御部180は音声認識エンジン181の認識結果に対応する動作を行うことができる。例えば、ディスプレイ装置100がTVである場合に映画やニュースをユーザーが視聴している時、音声認識エンジン181が“ボリュームアップ”、“ボリュームダウン”または“声大きく”、“声小さく”等を認識すれば、第1制御部180はこれに対応するように映画やニュースの声の大きさ(ボリューム)を調節することができる。
第1制御部180は音声認識エンジン181の認識結果、認識された音声が、リモコン300、エアコン400のような外部機器を制御する音声である場合、認識された音声に対応する制御命令を該当外部機器に送信するように第1通信部160を制御することができる。例えば、音声認識エンジン181が“温度上げろ”を認識すれば、第1制御部180はこれをエアコンに対する音声と認識し、エアコンの温度を上昇させるようにするコマンドをエアコン400に送信するように第1通信部160を制御することができる。
以下、携帯電話200の具体的な構成に対して説明する。図2に示すように、携帯電話200は音声取得装置としてユーザーが発話した音声が入力される第2音声取得部240、入力された音声を電気的な音声信号に変換する第2音声変換部250、外部と通信を行う第2通信部260、限定されないデータが保存される第2保存部270および携帯電話200を制御する第2制御部280を含む。
第2音声取得部240はユーザーが発話した音声が入力されることとして、マイクで具現されることができる。第2音声変換部250は第2音声取得部240で入力された音声を電気的な音声信号に変換する。変換された音声信号は、PCM(pulse code modulation)状態または圧縮された形態のオーディオ波形の形態を有する。ここで、第1音声変換部250はユーザーの入力音声をデジタルに変換するA/D変換部で具現されることができる。
一方、第2音声取得部240がデジタルマイクである場合、別途のA/D変換を必要としないので、第2音声取得部240が第2音声変換部240を含むことができる。
第2通信部260はディスプレイ装置100と通信を行う。本実施形態の第2通信部260は、有線または無線通信を行い、無線通信はRF、ジグビー、ブルートゥースの中で少なくとも一つを含む。
本実施形態の第2通信部260は、第2音声変換部250から伝達された音声信号をディスプレイ装置100に送信する。
第2保存部270は第2制御部280の制御にしたがって限定されないデータが保存される。第2保存部270はフラッシュメモリー(flash−memory)のような非揮発性の保存媒体で具現される。第2保存部270は第2制御部280によってアクセスされ、第2制御部280によるデータの読取/記録/修正/削除/更新などが行われる。
第2保存部270に保存されるデータは、例えば、携帯電話200の駆動のための運営体制をはじめとして、この運営体制上で実行可能な多様なアプリケーション、映像データ、付加データなどを含む。
第2制御部280は携帯電話200の多様な構成に対する制御動作を行う。例えば、第2制御部280はユーザーの操作に対応するコマンドを生成し、生成されたコマンドに対応する動作を行ってその結果をディスプレイ部(図示せず)に表示することができる。第2制御部280は、例えば、MCU(Micro controller Unit)にソフトウェアが結合された形態で具現されることができる。
本実施形態の第2制御部280は第2音声取得部240を通じてユーザーが発話した音声が入力されれば、これを電気的な音声信号に変換するように第2音声変換部250を制御し、変換された音声信号をディスプレイ装置100に送信するように第2通信部260を制御する。
以下、リモコン300の具体的な構成に対して説明する。図2に示すように、リモコン300は、音声取得装置であり同時に外部機器として、ユーザーの操作が入力されるユーザー入力部330、ユーザーが発話した音声が入力される第3音声取得部340、入力された音声を電気的な音声信号に変換する第3音声変換部350、外部と通信を行う第3通信部360、限定されないデータが保存される第3保存部370およびリモコン300を制御する第3制御部280を含む。
ユーザー入力部330はユーザーの操作および入力によって、既設定された多様な制御コマンドまたは限定されない情報を第3制御部380に送信する。ユーザー入力部330は、リモコン300の外側に設けられたメニューキー、数字キーなどを含むボタンで具現されることができる。リモコン300がTVリモコンである場合、ユーザー入力部330はユーザーのタッチ入力を受信するタッチ感知部および/またはリモコン300のモーションを感知するモーション感知部をさらに含むことができる。
第3音声取得部340はユーザーが発話した音声が入力されることとして、マイクで具現されることができる。第3音声変換部350は第3音声取得部340で入力された音声を電気的な音声信号に変換する。変換された音声信号はPCM(pulse code modulation)状態または圧縮された形態のオーディオ波形の形態を有する。ここで、第3音声変換部350はユーザーの入力音声をデジタルに変換するA/D変換部で具現されることができる。
一方、第3音声取得部340がデジタルマイクである場合、別途のA/D変換を必要としないので、第3音声取得部340は第3音声変換部350を含むことができる。
第3通信部360はディスプレイ装置100と通信を行う。本実施形態の第3通信部360は無線通信を行い、無線通信は、赤外線通信、RF、ジグビー、ブルートゥースの中で少なくとも一つを含む。本実施形態の第3通信部360は、第3音声変換部350から伝達された音声信号をディスプレイ装置100に送信し、後述する第3保存部370内の第3アプリケーション372により管理される候補命令語をディスプレイ装置100に送信する。
第3保存部370は第3制御部380の制御にしたがって限定されないデータが保存される。第3保存部370はフラッシュメモリー(flash−memory)のような非揮発性保存媒体で具現される。第3保存部370は第3制御部380によりアクセスされ、第3制御部380によるデータの読取/記録/修正/削除/更新などが行われる。第3保存部370に保存されるデータは、例えば、リモコン300の駆動のための運営体制をはじめとして、この運営体制上で実行可能な多様なアプリケーション、映像データ、付加データなどを含む。
本実施形態の第3保存部370にはリモコン300の機能を行うための一つ以上のアプリケーション、例えば、第3アプリケーション372がさらに保存される。第3アプリケーション372は後述する第3制御部380の制御により駆動され、リモコン300の各種の機能を行う。本発明では第3アプリケーション372と後述する第4アプリケーション472をディスプレイ装置100の内蔵アプリケーション172、173と区別するために外部アプリケーションと言う。
図2ではリモコン300に一つのアプリケーション372が設けられた場合を例えて図示したが、本発明はリモコン300に二つ以上のアプリケーションが備わる場合も含む。
第3アプリケーション372は遂行機能に対応する候補命令語を管理する。第3アプリケーション372で管理される候補命令語は必要によりディスプレイ装置100の命令語テーブル171に登録/削除されることができる。
第3制御部380はリモコン300の多様な構成に対する制御動作を行う。例えば、第3制御部260はユーザー入力部330に対するユーザーの操作に対応するコマンドを生成し、生成されたコマンドをディスプレイ装置100に送信するように第3通信部360を制御することができる。第3制御部380は、例えば、MCU(Micro Controller Unit)にソフトウェアが結合された形態で具現されることができる。
本実施形態の第3制御部380は、第3音声取得部340を通じてユーザーが発話した音声が入力されれば、これを電気的な音声信号に変換するように第3音声変換部350を制御し、変換された音声信号をディスプレイ装置100に送信するように第3通信部360を制御する。
第3制御部380はディスプレイ装置100と通信を行い、第3保存部370の第3アプリケーション372で管理される候補命令語をディスプレイ装置100に送信することができる。送信された候補命令語はディスプレイ装置100の命令語テーブル171に登録されて、音声認識エンジン181の音声認識動作に利用される。また、第3制御部380はディスプレイ装置100から音声認識による制御命令が受信される場合、第3通信部360を通じてこれを受信し、受信された制御命令に対応する動作を行うことができる。
以下、エアコン400の具体的な構成に対して説明する。図2に示すように、エアコン400は外部機器として、外部と通信を行う第4通信部340、限定されないデータが保存される第4保存部470およびエアコン400を制御する第4制御部480を含む。第4通信部460はディスプレイ装置100と通信を行う。本実施形態の第4通信部460は、無線通信を行い、無線通信はRF、ジグビー、ブルートゥースの中で少なくとも一つを含む。
本実施形態の第4通信部460は後述する第4保存部370内の第4アプリケーション472により管理される候補命令語をディスプレイ装置100に送信する。
第4保存部470は第4制御部480の制御にしたがって限定されないデータが保存される。第4保存部470はフラッシュメモリー(flash−memory)のような非揮発性の保存媒体で具現される。第4保存部470は第4制御部480によりアクセスされ、第4制御部480によるデータの読取/記録/修正/削除/更新などが行われる。
第4保存部470に保存されるデータは、例えば、携帯電話200の駆動のための運営体制をはじめとして、この運営体制上で実行可能な多様なアプリケーション、付加データなどを含む。本実施形態の第4保存部470にはエアコン300の機能を行うための一つ以上のアプリケーション(外部アプリケーション)、例えば、第4アプリケーション472がさらに保存される。第4アプリケーション472は後述する第4制御部480の制御により駆動されて、エアコン400の各種の機能を行う。
図2ではエアコン400に一つのアプリケーション472が設けられた場合を例えて図示したが、本発明はエアコン400に二つ以上のアプリケーションが備わる場合も含む。第4アプリケーション472は遂行機能に対応する候補命令語を管理する。第4アプリケーション472で管理される候補命令語は必要によりディスプレイ装置100の命令語テーブル171に登録/削除されることができる。
第4制御部460はエアコン400の多様な構成に対する制御動作を行う。例えば、第4制御部260はエアコンリモコンに対するユーザーの操作に対応する制御命令を受信し、受信された制御命令による制御動作、例えば、温度調節などを行うことができる。第4制御部460は、例えば、MCU(Micro Controller Unit)にソフトウェアが結合された形態で具現されることができる。
本実施形態の第4制御部460は、ディスプレイ装置100と通信を行い、第4保存部470の第4アプリケーション472で管理される候補命令語をディスプレイ装置100に送信することができる。送信された候補命令語はディスプレイ装置100の命令語テーブル171に登録されて、音声認識エンジン181の音声認識動作に利用される。
また、第4制御部480はディスプレイ装置100から音声認識による制御命令が受信される場合、第4通信部460を通じてこれを受信し、受信された制御命令に対応する動作を行うことができる。
図2の実施形態によれば、本発明の音声認識システムのメイン機器としてディスプレイ装置100の第1制御部180は、複数の音声取得部140、240、340の中で少なくとも何れか一つから入力音声が感知されれば、音声入力が感知された音声取得部から音声信号を受信するように第1通信部140を制御する。また、第1制御部180は受信された音声信号を認識するための候補命令語を第1通信部140を通じて複数の外部機器300、400の外部アプリケーション372、472の中で少なくとも一つまたは内蔵アプリケーション172、173から送信されて、送信された候補命令語は第1保存部170の命令語テーブル171に登録する。音声認識エンジン181は、命令語テーブル171に登録された候補命令語と音声信号を比較して、音声認識を行うことになる。
このように本実施形態によるメイン機器としてディスプレイ装置100は、ユーザーの発話が入力されることができる多様な装備から入力される音声を感知するので、多様な音声取得装備の活用度を高めることができる。また、音声認識のための候補命令語が駆動中であるアプリケーションから送信されて使用されるので、音声認識のための候補命令語を動的に登録/削除可能にすることによって、メイン機器が備える候補命令語が不必要に無限増加されることを防止することができる。
一方、本発明の実施形態によるディスプレイ装置100は、ディスプレイ装置100に備わった音声取得部140から音声認識が入力され、内部アプリケーション171、172、173と外部アプリケーション372、472の中で少なくとも一つから候補命令語を受信して、音声認識エンジン181で音声認識を行うように具現されることができる。
以下、図3および図4を参照して、本発明の音声認識システムで音声認識を行う一実施形態に対してさらに詳しく説明する。
図3は本発明の一実施形態により音声認識を行う例を説明する図面であり、図4は図3の音声認識結果が表示される画面の例を示す図である。図3に示すように、ディスプレイ装置100は一つ以上のアプリケーション(内蔵アプリケーションおよび外部アプリケーション含み)から命令語テーブル171に保存される候補命令語が登録されることができる。
詳しくは、図3に示すように、第1アプリケーション172(内蔵アプリケーション)から命令語テーブル171に命令語A、Bが伝達され(501)、伝達された命令語A、Bは、命令語テーブル171に保存される(502)。音声認識エンジン181は命令語テーブル171に保存された命令語A、Bを候補命令語と登録する(504)。
また、第3アプリケーション372(外部アプリケーション)から命令語テーブル171に命令語C、Dが伝達され(505)、伝達された命令語C、Dは、命令語テーブル171に登録される(507)。音声認識エンジン181は命令語テーブル171に保存された命令語C、Dを候補命令語と登録する(508)。
したがって、音声認識エンジン181には第1アプリケーション172および第3アプリケーション372から伝達されたA、B、C、Dが候補命令語と登録される。
このようにA、B、C、Dが候補命令語と登録された状態で、ディスプレイ装置100と分離された第2音声取得部240でAが音声入力されることを感知することができる。感知された音声Aは、第2音声変換部250で音声信号に変換されて、第2および第1通信部260、160を通じて音声認識エンジン181に伝達される(509)。
音声認識エンジン181はA音声に対する音声信号を登録された候補命令語A、B、C、Dと比較して一致または類似の命令語を決定して、A音声を認識する(510)。
第1制御部180は認識結果をディスプレイ部130に送信し(511)、ディスプレイ部130には図4のような音声認識結果画面が表示されることができる。
図4に示すように、ディスプレイ部130には音声認識結果A60と、音声認識結果による候補命令語A、B、C、D61、62、63、64を示すUIが表示されることができる。また、ディスプレイ部130には音声認識結果による命令語Aを管理するアプリケーション情報(第1アプリケーション)65を示すUIがさらに表示されることができる。
ユーザーは、図4に示すように、画面に表示されるUIを通じて、音声認識結果だけでなく候補命令語も確認可能であり、音声認識結果が発話意図と合わない場合、候補命令語の中で何れか一つを選択することができる。また、アプリケーション情報を通じて、音声認識結果に関する装置の情報までも獲得することができる。
第1制御部180は、図4に示すように、音声認識結果による制御命令を第1アプリケーション172に送信する(512)。第1アプリケーション172は第1制御部180の制御により認識された音声Aによる制御動作を行う。例えば、音声Aが“ボリューム ダウン”である場合、ディスプレイ装置100のボリュームが小さく調節される。
図3および図4に示すように、本発明のディスプレイ装置100は、既設定された条件により一部のアプリケーションの命令語(例えば、A、B、C、D)を候補語としてあらかじめ登録し、ユーザーの音声発話が感知されれば、あらかじめ登録された候補命令語を利用して音声を認識し、その結果を表示、対応する制御動作を実行することができる。
図3および図4の実施形態では、第1アプリケーション172と第3アプリケーション372の命令語が候補命令語と登録され、第2音声取得部240を通じてユーザー音声が入力される場合を例えて説明したが、本発明は多様な内蔵および外部アプリケーションから命令語が送信されて候補命令語を動的に登録/削除することができるし、多様な音声取得部から音声が入力される場合を全部含むことができる。
以下、図5を参照して、本発明の音声認識システムで音声認識を行う他の実施形態に対してさらに詳しく説明する。図5は本発明の他の実施形態により音声認識を行う例を説明する図面である。図5に示すように、ディスプレイ装置100と分離された第3音声取得部340でEが音声入力されることを感知することができる。感知された音声Eは、第3音声変換部350で音声信号に変換されて、第3および第1通信部360、160を通じて音声認識エンジン181に送信される(701)。
ディスプレイ装置100は音声入力が感知された機器に対応する第3アプリケーション372から命令語テーブル171に保存される候補命令語が登録されることができる。具体的に、図5に示すように、第3アプリケーション372から命令語テーブル171に命令語E、Fが送信され(702)、送信された命令語E、Fは命令語テーブル171に保存される(703)。音声認識エンジン181は命令語テーブル171に保存された命令語E、Fを候補命令語と登録する(705)。
したがって、音声認識エンジン181には第3アプリケーション372から伝達されたE、Fが候補命令語と登録される。
このようにE、Fが候補命令語と登録された状態で、音声認識エンジン181はE音声に対する音声信号を登録された候補命令語E、Fと比較し一致または類似の命令語を決定してE音声を認識する(706)。
第1制御部180は認識結果をディスプレイ部130に送信し(707)、ディスプレイ部130には音声認識結果画面が表示されることができる。
第1制御部180は音声認識結果による制御命令を第3アプリケーション372に送信する(708)。第3アプリケーション372は第3制御部380の制御により認識された音声Eによる制御動作を行う。ここで、音声認識結果による制御命令がディスプレイ装置100を制御する命令である場合、制御命令は第1アプリケーション172または第2アプリケーション173に送信されることができる。
図5に示すように、本発明のディスプレイ装置100は、ユーザーの音声発話が感知されれば、音声が入力された機器に対応するアプリケーションの命令語(例えば、E、F)を候補命令語と登録し、当該登録された候補命令語を利用して音声を認識し、その結果を表示、対応する制御動作を実行することができる。候補命令語は動的に登録/削除が可能である。
図5の実施形態では、第3音声取得部340を通じてユーザー音声が入力され、第3アプリケーション372の命令語が候補命令語と登録される場合を例えて説明したが、本発明は多様な音声取得部から音声入力が可能であり、多様な内蔵および外部アプリケーションから命令語が送信されて候補命令語を動的に登録/削除する場合を全部含むことができる。
以下、本実施形態による音声認識システムの音声認識方法に対して図面を参照して説明する。
図6は本発明の実施形態による音声認識システムの音声認識方法を示すフローチャートである。図6に示すように、本発明による音声認識システムは、複数の音声取得部140、240、340の中でいずれか少なくとも一つから音声入力が感知されることができる(S810)。ここで、感知されたユーザー音声は、対応する音声変換部150、250、350で電気的な音声信号に変換される。
第1制御部180は段階S810で感知および変換された音声信号を受信する(S820)。ここで、外部の音声取得部240、340で音声入力が感知された場合、第1通信部160を通じて音声信号が受信されることができる。
音声認識エンジン181には段階S820で受信された音声信号の音声認識のための候補命令語が登録される(S830)。ここで、登録される候補命令語は命令語テーブル171にあらかじめ保存されたり、内蔵または外部アプリケーション172、173、372、472から受信されて命令語テーブル171に動的に保存されたりすることができる。
音声認識エンジン181は段階S830で登録された候補命令語を利用して段階S810でユーザーが発話した音声を認識する(S840)。
第1制御部180は段階S840の音声認識結果をディスプレイ部130に表示する。ここで、ディスプレイ部130には音声信号に対する音声認識結果、音声認識結果による候補命令語、アプリケーション情報などが表示されることができる。
第1制御部180は段階S840の音声認識結果による制御命令を生成してこれを行うことができるアプリケーションに送信する(S860)。したがって、生成された制御命令による動作が行われることができる。
図7は図6の音声入力を感知する過程をさらに詳しく示すフローチャートである。図7に示すように、メイン機器のディスプレイ装置100は音声によるユーザー入力が可能な音声入力モードで動作することができる(S811)。本発明での音声入力モードは、多様な音声取得部140、240、340から音声入力ができるように動作される。
音声入力を感知する方法の中の一つとして、第1制御部180は複数の音声取得部140、240、340の中で何れか一つでウェークアップキーワードの発話を感知することができる(S812)。ここで、ウェークアップキーワードは、特定の音声取得部を通じる音声入力を活性化させることとして、あらかじめ設定されることができる。例えば、ディスプレイ装置100の第1音声取得部140は、チャンネル、ボリュームなどのTV制御に関する音声をウェークアップキーワードと設定可能であり、携帯電話200の第2音声取得部240は、通話、連絡先などに関する音声をウェークアップキーワードと設定することができる。
一方、音声入力を感知する他の方法として、第1制御部180は複数の音声取得部140、240、340の中で何れか一つから所定のボタン(音声入力ボタン)の操作によるトリガー信号が入力されれば、該当音声取得部から音声入力を感知することができる(S813)。例えば、ユーザーが特定音声取得装置に設けられた音声入力ボタンを操作すれば、該当装置に備わった音声入力部から音声が入力されることが感知される。
第1制御部180は、段階S812およびS813の感知結果により、複数の音声取得部140、240、340の中で音声入力に該当する何れか一つを活性化する(S812)。このように何れか一つの音声取得部を活性化することによって不必要な音声が感知されて混乱を引き起こすことを防止することができる。
また、段階S820で活性化された音声取得部から音声認識エンジン181に音声信号が受信されて、音声認識を行うことができる。
図8は図6の音声認識を行う過程をさらに詳しく示すフローチャートである。図8に示すように、図6の段階S830のように、音声認識エンジン181は複数のアプリケーション172、372、472の中で一つ以上の所定のアプリケーションから候補命令語を受信および登録することができる。
音声認識エンジン181は段階S830で登録された候補命令語と図6の段階S820で受信された音声信号と一致/類似の可否を判断することができる(S841)。
段階S840の判断結果、一致/類似の候補命令語が存在すれば、音声認識エンジン181は一致/類似の命令語を決定して音声認識を行い、第1制御部180はその結果をディスプレイ部130に表示する。
段階S840の判断結果、一致/類似の候補命令語が存在しなければ、音声認識エンジン181が段階S830でのアプリケーションと異なるアプリケーションの候補命令語の受信および登録有無を決めることができる(S842)。ここで、第1制御部180はユーザーの選択または既入力された設定により他のアプリケーションの候補命令語を受信および登録可能であり、既設定された順序により複数のアプリケーションの候補命令語が漸次的に受信および登録されることができる。また、ディスプレイ装置100の第1保存部170の容量を考慮して、以前に登録された候補命令語は選択的に削除されることができる。
段階S842で登録された候補命令語の中でも一致/類似の候補命令語が存在しない場合、段階S842および段階841が漸次的に反復されて、音声認識を行うことができる。
一方、段階S842で他のアプリケーションの候補命令語を受信および登録しないように決定すれば、音声認識エンジン181は音声認識を中断し、第1制御部180は音声認識失敗をその結果としてディスプレイ部130に表示することができる。
このように、本発明の実施形態によれば、メイン機器がユーザーの発話が入力されることができる多様な装備から入力される音声を感知するので、多様な音声取得装備の活用度を高め、これを利用する連係サービスが可能である。
また、音声認識のための候補命令語が複数のアプリケーションから送信されて使用されるので、音声認識のための候補命令語を動的に登録/削除可能にすることによって、メイン機器が備える候補命令語が不必要に増加することを防止して、処理速度の遅延や認識率低下などのような問題に柔軟に対処可能であり、全体的に音声認識システムの効率を高めることができる。
また、音声認識の結果、候補命令語、アプリケーション情報だけでなく、音声認識に活用される多様な音声取得装備および候補命令語提供装備の情報までもユーザーが簡単に認知するようにして、ユーザーの便宜性をさらに高めることができる。
以上、望ましい実施形態を通じて本発明に対して詳しく説明したが、本発明はこれに限定されず、特許請求の範囲内で多様に実施されることができる。
100 メイン機器、ディスプレイ装置
110 映像受信部
120 映像処理部
130 ディスプレイ部
140 第1音声取得部
150 第1音声変換部
160 第1通信部
170 第1保存部
171 命令語テーブル
172、173 アプリケーション
180 第1制御部
181 音声認識エンジン
201、202 音声取得装置
200 携帯電話
240 第2音声取得部
250 第2音声変換部
260 第2通信部
270 第2保存部
280 第2制御部
301、302、303 外部機器
300 リモコン
330 ユーザー入力部
340 第3音声取得部
350 第2音声変換部
360 第3通信部
370 第3保存部
371 アプリケーション
380 第3制御部
400 エアコン
460 第4通信部
470 第4保存部
472 アプリケーション
480 第4制御部

Claims (15)

  1. ディスプレイ装置において、
    映像を表示するディスプレイ部と;
    複数の外部機器と通信を行う通信部であり、それぞれの外部機器が少なくとも一つのアプリケーションを含む、通信部と;
    ユーザーが発話した音声を認識する音声認識エンジンを含み、音声取得部から音声信号を受信し、複数の外部機器と内蔵アプリケーションのうち少なくとも一つから、候補命令語および複数の外部機器の外部アプリケーションと前記ディスプレイ装置の中に含まれる内蔵アプリケーションのうち少なくとも一つに関する情報を受信するように前記通信部を制御して、受信した前記候補命令語を使用して受信した前記音声信号を認識し、かつ、音声認識の結果を表示するように前記ディスプレイ部を制御する制御部と;を含み、
    前記制御部は、受信した前記情報を基に前記外部アプリケーションと前記内蔵アプリケーションがコマンドを実行できるか否かの判断に基づいて、複数の外部機器と内蔵アプリケーションのうち少なくとも一つに対して、受信された前記音声信号から前記候補命令語によって認識された音声に対応するコマンドを送信し、
    前記制御部は、ユーザインターフェイスを表示するように前記ディスプレイ部を制御し、前記ユーザインターフェイスは、前記音声認識の結果に応じた前記候補命令語、および、前記音声認識の結果と一致する前記ユーザインターフェイスの中に示される前記候補命令語に対応する前記複数の外部機器のうち少なくとも一つに含まれる前記アプリケーションの少なくとも一つに関する情報、を示す、
    ことを特徴とするディスプレイ装置。
  2. 前記音声取得部は複数で設けられ、
    前記制御部は複数の音声取得部の中で少なくとも一つから音声入力が感知されれば、前記音声入力が感知された音声取得部から音声信号を受信することを特徴とする請求項1に記載のディスプレイ装置。
  3. 前記音声取得部は前記ディスプレイ装置に設けられた内蔵マイクと、前記複数の外部機器の中で少なくとも一つに設けられた第1外部マイクと、前記ディスプレイ装置および前記複数の外部機器と分離された装置から提供される第2外部マイクと、の中で少なくとも一つを含むことを特徴とする請求項2に記載のディスプレイ装置。
  4. 前記外部機器は少なくとも一つのアプリケーションを含み、前記候補命令語は前記アプリケーションによって管理されることを特徴とする請求項1に記載のディスプレイ装置。
  5. 前記受信された候補命令語を保存する保存部をさらに含み、
    前記音声認識エンジンは、前記受信された候補命令語を利用して音声を認識し、
    前記候補命令語は、前記保存部の容量に応じて選択的に削除されることによって、動的に登録または削除される、
    ことを特徴とする請求項1に記載のディスプレイ装置。
  6. 前記制御部は、
    前記複数の音声取得部の中でいずれか一つに対するウェークアップ キーワードが発話されることが感知されれば、前記感知されたウェークアップ キーワードに対応する音声取得部を活性化し、前記活性化された音声取得部から音声信号を受信することを特徴とする請求項2に記載のディスプレイ装置。
  7. 前記制御部は、
    前記複数の音声取得部の中でいずれか一つに設けられた所定のボタンの操作によるトリガー信号が入力されれば、前記入力されたトリガー信号に対応する音声取得部を活性化し、前記活性化された音声取得部から音声信号を受信することを特徴とする請求項2に記載のディスプレイ装置。
  8. 前記制御部は前記音声信号に対する音声認識結果および前記音声認識結果による候補命令語を表示するように前記ディスプレイ部を制御することを特徴とする請求項1乃至請求項7の中でいずれか一項に記載のディスプレイ装置。
  9. 少なくとも一つのアプリケーションを含む音声取得装置であって、
    音声認識機能を有するディスプレイ装置と通信を行う通信部と;
    ユーザーが発話した音声が入力される音声取得部と;
    前記入力された音声を電気的な音声信号に変換する音声変換部と;
    前記変換された音声信号候補命令語、および前記少なくとも一つのアプリケーションに関する情報を前記ディスプレイ装置に送信するように前記通信部を制御する制御部であり、前記音声信号を認識し、かつ、前記少なくとも一つのアプリケーションが前記ディスプレイ装置によって送信された音声信号から認識された音声に対応するコマンドを実行できる場合に、前記ディスプレイ装置から前記コマンドを受信する制御部と;
    を含むことを特徴とする音声取得装置。
  10. ディスプレイ装置の音声認識方法において、
    音声取得部から音声信号を受信する段階と;
    前記受信された音声信号を認識するために、複数の外部機器と内蔵アプリケーションのうち少なくとも一つから、候補命令語および、それぞれが少なくとも一つのアプリケーションを含む前記複数の外部機器の外部アプリケーションと前記ディスプレイ装置の中に含まれる内蔵アプリケーションのうち少なくとも一つに関する情報を受信する段階と;
    前記受信された音声信号および候補命令語によりユーザーが発話した音声を認識する段階と;
    音声認識の結果とユーザインターフェイスを表示する段階であり、前記ユーザインターフェイスは、前記音声認識の結果に応じた前記候補命令語、および、前記音声認識の結果と一致する前記ユーザインターフェイスの中に示される前記候補命令語に対応する前記複数の外部機器のうち少なくとも一つに含まれる前記アプリケーションの少なくとも一つに関する情報、を示す段階と;
    を含み、
    受信した前記情報を基に前記外部アプリケーションと前記内蔵アプリケーションがコマンドを実行できるか否かの判断に基づいて、複数の外部機器と内蔵アプリケーションのうち少なくとも一つに対して、認識されたユーザー音声に対応するコマンドを送信する、
    ことを特徴とするディスプレイ装置の音声認識方法。
  11. 複数の音声取得部の中で少なくとも一つから音声入力を感知する段階をさらに含み、
    前記音声信号を受信する段階は、前記音声入力が感知された音声取得部から音声信号を受信することを特徴とする請求項10に記載のディスプレイ装置の音声認識方法。
  12. 前記音声取得部は前記ディスプレイ装置に設けられた内蔵マイクと、前記複数の外部機器の中で少なくとも一つに設けられた第1外部マイクと、前記ディスプレイ装置および前記複数の外部機器と分離された装置から提供される第2外部マイクと、の中で少なくとも一つを含むことを特徴とする請求項11に記載のディスプレイ装置の音声認識方法。
  13. 前記外部機器は少なくとも一つのアプリケーションを含み、前記候補命令語は前記アプリケーションによって管理されることを特徴とする請求項11に記載のディスプレイ装置の音声認識方法。
  14. 前記音声入力を感知する段階は、
    前記複数の音声取得部の中でいずれか一つに対するウェークアップ キーワードが発話することを感知する段階と;
    前記感知されたウェークアップ キーワードに対応する音声取得部を活性化する段階と;
    を含むことを特徴とする請求項11乃至請求項13の中でいずれか一項に記載のディスプレイ装置の音声認識方法。
  15. 前記音声入力を感知する段階は、
    前記複数の音声取得部の中でいずれか一つに設けられた所定のボタンの操作によるトリガー信号が入力されることを感知する段階と;
    前記入力されたトリガー信号に対応する音声取得部を活性化する段階と;
    を含むことを特徴とする請求項11乃至請求項13の中でいずれか一項に記載のディスプレイ装置の音声認識方法。
JP2013231944A 2012-11-09 2013-11-08 ディスプレイ装置、音声取得装置およびその音声認識方法 Active JP5868927B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020120126650A KR20140060040A (ko) 2012-11-09 2012-11-09 디스플레이장치, 음성취득장치 및 그 음성인식방법
KR10-2012-0126650 2012-11-09

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2015178839A Division JP6640502B2 (ja) 2012-11-09 2015-09-10 ディスプレイ装置、音声取得装置およびその音声認識方法

Publications (2)

Publication Number Publication Date
JP2014096153A JP2014096153A (ja) 2014-05-22
JP5868927B2 true JP5868927B2 (ja) 2016-02-24

Family

ID=49554021

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2013231944A Active JP5868927B2 (ja) 2012-11-09 2013-11-08 ディスプレイ装置、音声取得装置およびその音声認識方法
JP2015178839A Active JP6640502B2 (ja) 2012-11-09 2015-09-10 ディスプレイ装置、音声取得装置およびその音声認識方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2015178839A Active JP6640502B2 (ja) 2012-11-09 2015-09-10 ディスプレイ装置、音声取得装置およびその音声認識方法

Country Status (7)

Country Link
US (5) US10043537B2 (ja)
EP (4) EP2731349B1 (ja)
JP (2) JP5868927B2 (ja)
KR (1) KR20140060040A (ja)
CN (2) CN103811007B (ja)
RU (1) RU2677396C2 (ja)
WO (1) WO2014073823A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI816219B (zh) * 2021-06-15 2023-09-21 美商惠普發展公司有限責任合夥企業 用於基於確認之音訊通訊之運算裝置及非暫時性電腦可讀媒體

Families Citing this family (94)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140060040A (ko) 2012-11-09 2014-05-19 삼성전자주식회사 디스플레이장치, 음성취득장치 및 그 음성인식방법
US20180317019A1 (en) 2013-05-23 2018-11-01 Knowles Electronics, Llc Acoustic activity detecting microphone
CN105023575B (zh) * 2014-04-30 2019-09-17 中兴通讯股份有限公司 语音识别方法、装置和系统
KR102147329B1 (ko) * 2014-06-17 2020-08-24 엘지전자 주식회사 영상 표시 기기 및 그의 동작 방법
KR102147346B1 (ko) 2014-06-23 2020-08-24 엘지전자 주식회사 디스플레이 장치 및 그의 동작 방법
WO2016112113A1 (en) * 2015-01-07 2016-07-14 Knowles Electronics, Llc Utilizing digital microphones for low power keyword detection and noise suppression
EP3067884B1 (en) * 2015-03-13 2019-05-08 Samsung Electronics Co., Ltd. Speech recognition system and speech recognition method thereof
EP3282445A4 (en) 2015-04-10 2018-05-02 Huawei Technologies Co. Ltd. Voice recognition method, voice wake-up device, voice recognition device and terminal
CN105185379B (zh) * 2015-06-17 2017-08-18 百度在线网络技术(北京)有限公司 声纹认证方法和装置
CN105206275A (zh) * 2015-08-31 2015-12-30 小米科技有限责任公司 一种设备控制方法、装置及终端
CN105222275B (zh) * 2015-09-25 2018-04-13 珠海格力电器股份有限公司 显示数据的切换方法、装置及系统
CN106683668A (zh) * 2015-11-05 2017-05-17 芋头科技(杭州)有限公司 一种智能设备的唤醒控制的方法以及系统
KR20170082349A (ko) * 2016-01-06 2017-07-14 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
US9947316B2 (en) 2016-02-22 2018-04-17 Sonos, Inc. Voice control of a media playback system
US9811314B2 (en) 2016-02-22 2017-11-07 Sonos, Inc. Metadata exchange involving a networked playback system and a networked microphone system
US9965247B2 (en) 2016-02-22 2018-05-08 Sonos, Inc. Voice controlled media playback system based on user profile
US10264030B2 (en) 2016-02-22 2019-04-16 Sonos, Inc. Networked microphone device control
US10097919B2 (en) 2016-02-22 2018-10-09 Sonos, Inc. Music service selection
US10095470B2 (en) 2016-02-22 2018-10-09 Sonos, Inc. Audio response playback
CN105791934A (zh) * 2016-03-25 2016-07-20 福建新大陆通信科技股份有限公司 一种机顶盒智能麦克风的实现方法及系统
US9978390B2 (en) 2016-06-09 2018-05-22 Sonos, Inc. Dynamic player selection for audio signal processing
US10152969B2 (en) 2016-07-15 2018-12-11 Sonos, Inc. Voice detection by multiple devices
US10134399B2 (en) 2016-07-15 2018-11-20 Sonos, Inc. Contextualization of voice inputs
US10115400B2 (en) 2016-08-05 2018-10-30 Sonos, Inc. Multiple voice services
US9942678B1 (en) 2016-09-27 2018-04-10 Sonos, Inc. Audio playback settings for voice interaction
US9743204B1 (en) 2016-09-30 2017-08-22 Sonos, Inc. Multi-orientation playback device microphones
KR102562287B1 (ko) * 2016-10-14 2023-08-02 삼성전자주식회사 전자 장치 및 전자 장치의 오디오 신호 처리 방법
US10181323B2 (en) 2016-10-19 2019-01-15 Sonos, Inc. Arbitration-based voice recognition
KR102598082B1 (ko) * 2016-10-28 2023-11-03 삼성전자주식회사 영상 표시 장치, 모바일 장치 및 그 동작방법
US10593328B1 (en) * 2016-12-27 2020-03-17 Amazon Technologies, Inc. Voice control of remote device
US11183181B2 (en) 2017-03-27 2021-11-23 Sonos, Inc. Systems and methods of multiple voice services
US11680722B2 (en) * 2017-07-14 2023-06-20 Daikin Industries, Ltd. Device control system
US10475449B2 (en) 2017-08-07 2019-11-12 Sonos, Inc. Wake-word detection suppression
US10048930B1 (en) 2017-09-08 2018-08-14 Sonos, Inc. Dynamic computation of system response volume
US10446165B2 (en) 2017-09-27 2019-10-15 Sonos, Inc. Robust short-time fourier transform acoustic echo cancellation during audio playback
US10621981B2 (en) 2017-09-28 2020-04-14 Sonos, Inc. Tone interference cancellation
US10051366B1 (en) 2017-09-28 2018-08-14 Sonos, Inc. Three-dimensional beam forming with a microphone array
US10482868B2 (en) 2017-09-28 2019-11-19 Sonos, Inc. Multi-channel acoustic echo cancellation
US10466962B2 (en) 2017-09-29 2019-11-05 Sonos, Inc. Media playback system with voice assistance
CN109584864B (zh) * 2017-09-29 2023-11-24 上海寒武纪信息科技有限公司 图像处理装置和方法
CN109584862B (zh) * 2017-09-29 2024-01-12 上海寒武纪信息科技有限公司 图像处理装置和方法
US11445235B2 (en) 2017-10-24 2022-09-13 Comcast Cable Communications, Llc Determining context to initiate interactivity
US20190130898A1 (en) * 2017-11-02 2019-05-02 GM Global Technology Operations LLC Wake-up-word detection
US10880650B2 (en) 2017-12-10 2020-12-29 Sonos, Inc. Network microphone devices with automatic do not disturb actuation capabilities
US10818290B2 (en) 2017-12-11 2020-10-27 Sonos, Inc. Home graph
US11343614B2 (en) 2018-01-31 2022-05-24 Sonos, Inc. Device designation of playback and network microphone device arrangements
JP7133969B2 (ja) * 2018-04-27 2022-09-09 シャープ株式会社 音声入力装置、及び遠隔対話システム
US11175880B2 (en) 2018-05-10 2021-11-16 Sonos, Inc. Systems and methods for voice-assisted media content selection
US10847178B2 (en) 2018-05-18 2020-11-24 Sonos, Inc. Linear filtering for noise-suppressed speech detection
US10959029B2 (en) 2018-05-25 2021-03-23 Sonos, Inc. Determining and adapting to changes in microphone performance of playback devices
US10681460B2 (en) 2018-06-28 2020-06-09 Sonos, Inc. Systems and methods for associating playback devices with voice assistant services
US11076035B2 (en) 2018-08-28 2021-07-27 Sonos, Inc. Do not disturb feature for audio notifications
US10461710B1 (en) 2018-08-28 2019-10-29 Sonos, Inc. Media playback system with maximum volume setting
US10878811B2 (en) 2018-09-14 2020-12-29 Sonos, Inc. Networked devices, systems, and methods for intelligently deactivating wake-word engines
US10587430B1 (en) 2018-09-14 2020-03-10 Sonos, Inc. Networked devices, systems, and methods for associating playback devices based on sound codes
US11024331B2 (en) 2018-09-21 2021-06-01 Sonos, Inc. Voice detection optimization using sound metadata
US10811015B2 (en) 2018-09-25 2020-10-20 Sonos, Inc. Voice detection optimization based on selected voice assistant service
US11100923B2 (en) 2018-09-28 2021-08-24 Sonos, Inc. Systems and methods for selective wake word detection using neural network models
US10692518B2 (en) 2018-09-29 2020-06-23 Sonos, Inc. Linear filtering for noise-suppressed speech detection via multiple network microphone devices
CN112805662A (zh) * 2018-10-15 2021-05-14 索尼公司 信息处理装置、信息处理方法和计算机程序
US11899519B2 (en) 2018-10-23 2024-02-13 Sonos, Inc. Multiple stage network microphone device with reduced power consumption and processing load
EP3654249A1 (en) 2018-11-15 2020-05-20 Snips Dilated convolutions and gating for efficient keyword spotting
US11183183B2 (en) 2018-12-07 2021-11-23 Sonos, Inc. Systems and methods of operating media playback systems having multiple voice assistant services
US11132989B2 (en) 2018-12-13 2021-09-28 Sonos, Inc. Networked microphone devices, systems, and methods of localized arbitration
US10602268B1 (en) 2018-12-20 2020-03-24 Sonos, Inc. Optimization of network microphone devices using noise classification
US11315556B2 (en) 2019-02-08 2022-04-26 Sonos, Inc. Devices, systems, and methods for distributed voice processing by transmitting sound data associated with a wake word to an appropriate device for identification
US10867604B2 (en) 2019-02-08 2020-12-15 Sonos, Inc. Devices, systems, and methods for distributed voice processing
JP2020129252A (ja) * 2019-02-08 2020-08-27 三菱電機株式会社 機器制御システムおよび端末装置
JP7449070B2 (ja) * 2019-03-27 2024-03-13 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 音声入力装置、音声入力方法及びそのプログラム
CN110046045B (zh) * 2019-04-03 2021-07-30 百度在线网络技术(北京)有限公司 语音唤醒的数据包处理方法和装置
US11120794B2 (en) 2019-05-03 2021-09-14 Sonos, Inc. Voice assistant persistence across multiple network microphone devices
US11361756B2 (en) 2019-06-12 2022-06-14 Sonos, Inc. Conditional wake word eventing based on environment
US11200894B2 (en) 2019-06-12 2021-12-14 Sonos, Inc. Network microphone device with command keyword eventing
US10586540B1 (en) 2019-06-12 2020-03-10 Sonos, Inc. Network microphone device with command keyword conditioning
US10871943B1 (en) 2019-07-31 2020-12-22 Sonos, Inc. Noise classification for event detection
US11138969B2 (en) 2019-07-31 2021-10-05 Sonos, Inc. Locally distributed keyword detection
US11138975B2 (en) 2019-07-31 2021-10-05 Sonos, Inc. Locally distributed keyword detection
US10972802B1 (en) * 2019-09-26 2021-04-06 Dish Network L.L.C. Methods and systems for implementing an elastic cloud based voice search using a third-party search provider
CN112581946B (zh) * 2019-09-29 2024-08-16 百度在线网络技术(北京)有限公司 语音控制方法、装置、电子设备和可读存储介质
US11189286B2 (en) 2019-10-22 2021-11-30 Sonos, Inc. VAS toggle based on device orientation
JP2021071797A (ja) * 2019-10-29 2021-05-06 富士通クライアントコンピューティング株式会社 表示装置および情報処理装置
EP4080348A4 (en) * 2019-12-19 2023-09-13 LG Electronics Inc. DISPLAY DEVICE
US11200900B2 (en) 2019-12-20 2021-12-14 Sonos, Inc. Offline voice control
US11562740B2 (en) 2020-01-07 2023-01-24 Sonos, Inc. Voice verification for media playback
US11556307B2 (en) 2020-01-31 2023-01-17 Sonos, Inc. Local voice data processing
US11308958B2 (en) 2020-02-07 2022-04-19 Sonos, Inc. Localized wakeword verification
CN113360125A (zh) * 2020-03-05 2021-09-07 西安诺瓦星云科技股份有限公司 图像显示方法、装置和系统
US11482224B2 (en) 2020-05-20 2022-10-25 Sonos, Inc. Command keywords with input detection windowing
US11308962B2 (en) 2020-05-20 2022-04-19 Sonos, Inc. Input detection windowing
US11727919B2 (en) 2020-05-20 2023-08-15 Sonos, Inc. Memory allocation for keyword spotting engines
CN111934957B (zh) * 2020-07-16 2021-06-25 宁波方太厨具有限公司 支持WiFi和离线语音的应用系统及方法
US11698771B2 (en) 2020-08-25 2023-07-11 Sonos, Inc. Vocal guidance engines for playback devices
US11984123B2 (en) 2020-11-12 2024-05-14 Sonos, Inc. Network device interaction by range
US11551700B2 (en) 2021-01-25 2023-01-10 Sonos, Inc. Systems and methods for power-efficient keyword detection

Family Cites Families (81)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5752232A (en) * 1994-11-14 1998-05-12 Lucent Technologies Inc. Voice activated device and method for providing access to remotely retrieved data
JP3697748B2 (ja) 1995-08-21 2005-09-21 セイコーエプソン株式会社 端末、音声認識装置
US6665639B2 (en) 1996-12-06 2003-12-16 Sensory, Inc. Speech recognition in consumer electronic products
US6188985B1 (en) * 1997-01-06 2001-02-13 Texas Instruments Incorporated Wireless voice-activated device for control of a processor-based host system
KR100237385B1 (ko) 1997-08-05 2000-01-15 정선종 웹 브라우저 상의 음성 인식기 구현방법
EP0911808B1 (en) 1997-10-23 2002-05-08 Sony International (Europe) GmbH Speech interface in a home network environment
CN1223508A (zh) 1998-01-13 1999-07-21 黄金富 声控红外线遥控器
JP2000099306A (ja) * 1998-05-28 2000-04-07 Canon Inc 制御装置およびその制御方法およびその動作処理を実行するプログラムを記憶した記憶媒体
JP2000200395A (ja) 1999-01-07 2000-07-18 Matsushita Electric Ind Co Ltd 防火システム
US6556970B1 (en) * 1999-01-28 2003-04-29 Denso Corporation Apparatus for determining appropriate series of words carrying information to be recognized
DE69942663D1 (de) * 1999-04-13 2010-09-23 Sony Deutschland Gmbh Zusammenfügen von Sprachschnittstellen zur gleichzeitigen Benützung von Vorrichtungen und Anwendungen
JP4314680B2 (ja) 1999-07-27 2009-08-19 ソニー株式会社 音声認識制御システム及び音声認識制御方法
US6397186B1 (en) * 1999-12-22 2002-05-28 Ambush Interactive, Inc. Hands-free, voice-operated remote control transmitter
JP2001197379A (ja) 2000-01-05 2001-07-19 Matsushita Electric Ind Co Ltd 機器設定装置、機器設定システムおよび機器設定処理プログラムを記録した記録媒体
US8271287B1 (en) 2000-01-14 2012-09-18 Alcatel Lucent Voice command remote control system
JP2001296881A (ja) * 2000-04-14 2001-10-26 Sony Corp 情報処理装置および方法、並びに記録媒体
JP2002116787A (ja) 2000-07-10 2002-04-19 Matsushita Electric Ind Co Ltd 優先順位決定装置、優先順位決定方法及び優先順位決定プログラム
JP2004505327A (ja) * 2000-07-28 2004-02-19 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 音声命令で装置を制御するシステム
DE10040466C2 (de) * 2000-08-18 2003-04-10 Bosch Gmbh Robert Verfahren zur Steuerung einer Spracheingabe und -ausgabe
EP1314310A1 (en) 2000-08-21 2003-05-28 Koninklijke Philips Electronics N.V. A voice controlled remote control with downloadable set of voice commands
EP1184841A1 (de) * 2000-08-31 2002-03-06 Siemens Aktiengesellschaft Sprachgesteuerte Anordnung und Verfahren zur Spracheingabe und -erkennung
US20020110246A1 (en) 2001-02-14 2002-08-15 Jason Gosior Wireless audio system
US7369997B2 (en) * 2001-08-01 2008-05-06 Microsoft Corporation Controlling speech recognition functionality in a computing device
US20030061033A1 (en) * 2001-09-26 2003-03-27 Dishert Lee R. Remote control system for translating an utterance to a control parameter for use by an electronic device
CN1437377A (zh) * 2002-02-04 2003-08-20 义隆电子股份有限公司 集成多功能及信息服务的系统及其使用的电子装置
US20030177012A1 (en) * 2002-03-13 2003-09-18 Brett Drennan Voice activated thermostat
KR100434545B1 (ko) * 2002-03-15 2004-06-05 삼성전자주식회사 홈네트워크로 연결된 가전기기들을 제어하는 방법 및 장치
JP3715584B2 (ja) * 2002-03-28 2005-11-09 富士通株式会社 機器制御装置および機器制御方法
JP2003295893A (ja) * 2002-04-01 2003-10-15 Omron Corp 音声認識システム、装置、音声認識方法、音声認識プログラム及び音声認識プログラムを記録したコンピュータ読み取り可能な記録媒体
US20040001040A1 (en) * 2002-06-28 2004-01-01 Kardach James P. Methods and apparatus for providing light to a display
US6834265B2 (en) 2002-12-13 2004-12-21 Motorola, Inc. Method and apparatus for selective speech recognition
JP2004275360A (ja) * 2003-03-14 2004-10-07 Olympus Corp 内視鏡システム
CN2620913Y (zh) * 2003-04-21 2004-06-16 叶龙 语音控制家电遥控器
JP2005072764A (ja) 2003-08-21 2005-03-17 Hitachi Ltd 機器制御システムとそのための装置及び機器制御方法
JP2006033795A (ja) * 2004-06-15 2006-02-02 Sanyo Electric Co Ltd リモートコントロールシステム、コントローラ、コンピュータにコントローラの機能を付与するプログラム、当該プログラムを格納した記憶媒体、およびサーバ。
CN1713271A (zh) * 2004-06-15 2005-12-28 三洋电机株式会社 遥控系统、控制器、向计算机提供控制器功能的程序
CN1725902A (zh) * 2004-07-20 2006-01-25 李廷玉 手机遥控器
US7085673B2 (en) 2004-08-31 2006-08-01 Hewlett-Packard Development Company, L.P. Displacement estimation system and method
US20060074658A1 (en) * 2004-10-01 2006-04-06 Siemens Information And Communication Mobile, Llc Systems and methods for hands-free voice-activated devices
KR100682897B1 (ko) 2004-11-09 2007-02-15 삼성전자주식회사 사전 업데이트 방법 및 그 장치
US8942985B2 (en) * 2004-11-16 2015-01-27 Microsoft Corporation Centralized method and system for clarifying voice commands
US20070299670A1 (en) * 2006-06-27 2007-12-27 Sbc Knowledge Ventures, Lp Biometric and speech recognition system and method
US20080037727A1 (en) * 2006-07-13 2008-02-14 Clas Sivertsen Audio appliance with speech recognition, voice command control, and speech generation
US7899673B2 (en) * 2006-08-09 2011-03-01 Microsoft Corporation Automatic pruning of grammars in a multi-application speech recognition interface
KR20080036697A (ko) * 2006-10-24 2008-04-29 삼성전자주식회사 휴대용 단말기에서 원격 제어 방법 및 장치
CN100538762C (zh) 2006-12-15 2009-09-09 广东协联科贸发展有限公司 一种按键语音一体化遥控装置
US8260618B2 (en) * 2006-12-21 2012-09-04 Nuance Communications, Inc. Method and apparatus for remote control of devices through a wireless headset using voice activation
US8140325B2 (en) * 2007-01-04 2012-03-20 International Business Machines Corporation Systems and methods for intelligent control of microphones for speech recognition applications
KR20080096239A (ko) * 2007-04-27 2008-10-30 정장오 주방tv 및 홈네트워크시스템 및 가전기기를 음성으로제어하는 음성인식 네트워크주방tv시스템.
US20090018830A1 (en) * 2007-07-11 2009-01-15 Vandinburg Gmbh Speech control of computing devices
US8825468B2 (en) * 2007-07-31 2014-09-02 Kopin Corporation Mobile wireless display providing speech to speech translation and avatar simulating human attributes
US8099289B2 (en) * 2008-02-13 2012-01-17 Sensory, Inc. Voice interface and search for electronic devices including bluetooth headsets and remote systems
TWI385932B (zh) * 2008-03-26 2013-02-11 Asustek Comp Inc 遙控器以及其系統
US9135809B2 (en) * 2008-06-20 2015-09-15 At&T Intellectual Property I, Lp Voice enabled remote control for a set-top box
JP5200712B2 (ja) * 2008-07-10 2013-06-05 富士通株式会社 音声認識装置、音声認識方法及びコンピュータプログラム
US8676904B2 (en) * 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
JP5465926B2 (ja) * 2009-05-22 2014-04-09 アルパイン株式会社 音声認識辞書作成装置及び音声認識辞書作成方法
US20100332236A1 (en) * 2009-06-25 2010-12-30 Blueant Wireless Pty Limited Voice-triggered operation of electronic devices
WO2011027964A1 (en) 2009-09-01 2011-03-10 Lg Electronics Inc. Method for controlling external device and remote controller thereof
KR20110028103A (ko) 2009-09-11 2011-03-17 주식회사 카서 다목적 근거리 무선 통신 장치 및 시스템
US20110067059A1 (en) * 2009-09-15 2011-03-17 At&T Intellectual Property I, L.P. Media control
US8510103B2 (en) * 2009-10-15 2013-08-13 Paul Angott System and method for voice recognition
KR20110052863A (ko) * 2009-11-13 2011-05-19 삼성전자주식회사 모바일 기기 및 그 제어 신호 생성 방법
US9865263B2 (en) 2009-12-01 2018-01-09 Nuance Communications, Inc. Real-time voice recognition on a handheld device
CN101778198A (zh) * 2010-01-25 2010-07-14 上海享云信息系统有限公司 一种增强型电视终端系统
US20110246902A1 (en) 2010-04-01 2011-10-06 Tsung-Han Tsai Method for portable phones to control computers
CN102255780A (zh) 2010-05-20 2011-11-23 株式会社曙飞电子 家庭网络系统及其控制方法
US20120078635A1 (en) * 2010-09-24 2012-03-29 Apple Inc. Voice control system
US8914287B2 (en) * 2010-12-31 2014-12-16 Echostar Technologies L.L.C. Remote control audio link
CN202033897U (zh) * 2011-01-25 2011-11-09 张国鸿 语音遥控接收模块及具语音遥控功能的电器
EP2518722A3 (en) * 2011-04-28 2013-08-28 Samsung Electronics Co., Ltd. Method for providing link list and display apparatus applying the same
EP2521374B1 (en) 2011-05-03 2016-04-27 LG Electronics Inc. Image display apparatus and methods for operating the same
CN102196207B (zh) 2011-05-12 2014-06-18 深圳市车音网科技有限公司 语音控制电视机的方法、装置和系统
US20130073293A1 (en) * 2011-09-20 2013-03-21 Lg Electronics Inc. Electronic device and method for controlling the same
US20130144618A1 (en) 2011-12-02 2013-06-06 Liang-Che Sun Methods and electronic devices for speech recognition
US20130238326A1 (en) * 2012-03-08 2013-09-12 Lg Electronics Inc. Apparatus and method for multiple device voice control
KR101946364B1 (ko) * 2012-05-01 2019-02-11 엘지전자 주식회사 적어도 하나의 마이크 센서를 갖는 모바일 디바이스 및 그 제어방법
RU121608U1 (ru) * 2012-06-05 2012-10-27 Закрытое акционерное общество "Титан-информационный сервис" Устройство для управления электронной техникой
US20140074472A1 (en) * 2012-09-12 2014-03-13 Chih-Hung Lin Voice control system with portable voice control device
US9646610B2 (en) * 2012-10-30 2017-05-09 Motorola Solutions, Inc. Method and apparatus for activating a particular wireless communication device to accept speech and/or voice commands using identification data consisting of speech, voice, image recognition
KR20140060040A (ko) 2012-11-09 2014-05-19 삼성전자주식회사 디스플레이장치, 음성취득장치 및 그 음성인식방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI816219B (zh) * 2021-06-15 2023-09-21 美商惠普發展公司有限責任合夥企業 用於基於確認之音訊通訊之運算裝置及非暫時性電腦可讀媒體

Also Published As

Publication number Publication date
EP2731349B1 (en) 2018-04-18
US20220358949A1 (en) 2022-11-10
US10586554B2 (en) 2020-03-10
JP2014096153A (ja) 2014-05-22
US20140136205A1 (en) 2014-05-15
EP4106339A1 (en) 2022-12-21
CN103811007B (zh) 2019-12-03
RU2015121906A (ru) 2016-12-27
US11727951B2 (en) 2023-08-15
EP3352471A1 (en) 2018-07-25
WO2014073823A1 (en) 2014-05-15
US10043537B2 (en) 2018-08-07
EP3352471B1 (en) 2020-12-30
KR20140060040A (ko) 2014-05-19
US20200184989A1 (en) 2020-06-11
RU2677396C2 (ru) 2019-01-16
EP3790285A1 (en) 2021-03-10
EP2731349A1 (en) 2014-05-14
US20170337937A1 (en) 2017-11-23
CN104883587A (zh) 2015-09-02
US20230121055A1 (en) 2023-04-20
CN103811007A (zh) 2014-05-21
JP2016027484A (ja) 2016-02-18
JP6640502B2 (ja) 2020-02-05

Similar Documents

Publication Publication Date Title
JP5868927B2 (ja) ディスプレイ装置、音声取得装置およびその音声認識方法
US20170223301A1 (en) Image processing apparatus, voice acquiring apparatus, voice recognition method thereof and voice recognition system
JP6824316B2 (ja) 映像処理装置及びその制御方法、並びに映像処理システム
USRE49493E1 (en) Display apparatus, electronic device, interactive system, and controlling methods thereof
JP6184098B2 (ja) 電子装置及びその制御方法
US20150373393A1 (en) Display device and operating method thereof
KR102643172B1 (ko) 디스플레이장치, 음성취득장치 및 그 음성인식방법
JP2013140359A (ja) 電子装置及びその制御方法
KR20210025812A (ko) 전자장치, 디스플레이장치 및 그 제어방법
US11462214B2 (en) Electronic apparatus and control method thereof
KR102262050B1 (ko) 디스플레이장치, 음성취득장치 및 그 음성인식방법
US11688397B2 (en) Electronic apparatus and method of controlling the same
US20220415322A1 (en) Display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141028

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150128

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150512

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150910

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20151007

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160106

R150 Certificate of patent or registration of utility model

Ref document number: 5868927

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250