JP7335979B2 - 音声認識を用いて装置を制御する方法、及びこれを具現する装置 - Google Patents

音声認識を用いて装置を制御する方法、及びこれを具現する装置 Download PDF

Info

Publication number
JP7335979B2
JP7335979B2 JP2021569147A JP2021569147A JP7335979B2 JP 7335979 B2 JP7335979 B2 JP 7335979B2 JP 2021569147 A JP2021569147 A JP 2021569147A JP 2021569147 A JP2021569147 A JP 2021569147A JP 7335979 B2 JP7335979 B2 JP 7335979B2
Authority
JP
Japan
Prior art keywords
speech recognition
recognition device
control message
unit
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021569147A
Other languages
English (en)
Other versions
JP2022534692A (ja
Inventor
ユン シク パク
ソン モク ファン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of JP2022534692A publication Critical patent/JP2022534692A/ja
Application granted granted Critical
Publication of JP7335979B2 publication Critical patent/JP7335979B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/32Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/2803Home automation networks
    • H04L12/2816Controlling appliance services of a home automation network by calling their functionalities
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Selective Calling Equipment (AREA)
  • User Interface Of Digital Computer (AREA)
  • Air Conditioning Control Device (AREA)
  • Telephonic Communication Services (AREA)

Description

本発明は、複数の装置の音声認識及び使用者の位置によって装置を制御する方法、及びこれを具現する装置に関する技術である。
最近、家電製品、家電機器などを制御することにおいて、音声に基づいて制御する技術が多様に提示されている。特に、家電製品や家電機器などの装置を制御することにおいて、人間の音声を速やかに認識させるために、音声認識率を上げるようにマイクを多様に設置するか、音声認識処理モジュールを新開発するなどの研究が続いている。
一方、音声認識は、多様な変数が発生する状況で行われなければならないため、このような変数に基づいて、装置が音声認識の正確度を高めることに対応して動作するのが必要である。このため、本明細書では、空間内に配置された複数の家電機器の協業によって、使用者の命令語の発話位置を確認し、これに基づいて機器を制御する方案について提示する。
前述した問題点を解決するために本明細書では、複数の音声認識装置が配置されて、使用者位置情報を入力された音声に基づいて判断する装置と、これを具現する方法を提示する。
また、本明細書では、命令語の発話時、使用者の位置を計算して装置等を制御する方案を提示する。
また、本明細書では、使用者の位置を正確に判断するために、ロボット掃除機がマップ情報を提供する方案を提示する。
本発明の目的は、以上に言及した目的に制限されず、言及していない本発明の他の目的及び長所は、下記の説明によって理解することができ、本発明の実施形態によってより明らかに理解することができる。また、本発明の目的及び長所は、特許請求の範囲に示した手段及びその組み合わせによって実現できることが分かりやすい。
本発明の一実施形態による音声認識を用いて他の装置を制御する装置は、音声入力部の入力された音声命令語を分析して、前記命令語を実行する第2の音声認識装置を識別し、前記第2の音声認識装置に伝送する制御メッセージを生成する制御部を含む。
本発明の一実施形態による音声認識を用いて他の装置を制御する装置は、前記第1の音声認識装置の位置情報を前記制御メッセージに含ませる。
本発明の一実施形態による音声認識を用いて他の装置を制御する装置は、音声入力部の入力された音声ファイルを前記制御メッセージに含ませる。
本発明の一実施形態による音声認識を用いて他の装置を制御する装置は、複数の音声認識装置の機能に対応する命令語が貯蔵された命令語データベース部をさらに含む。
本発明の一実施形態による音声認識を用いて動作する装置は、第1の音声認識装置から制御メッセージを受信する通信部と、前記制御メッセージに従って前記機能提供部を制御する制御部とを含む。
本発明の一実施形態による音声認識を用いて動作する装置が、空気清浄機又はエアコンである場合、装置の制御部は、第1の音声認識装置の周辺に使用者が位置したと判断し、制御メッセージが指示する機能を提供するように前記機能提供部を制御する。
本発明の一実施形態による音声認識を用いて装置を制御する方法は、音声が入力される第1の音声認識装置、第3の音声認識装置、及び前記入力された音声命令語に対応する機能を提供する第2の音声認識装置において、前記第1の音声認識装置は、前記第1の音声認識装置の音声入力部が入力された音声命令語に対応する第1の制御メッセージを伝送するステップ、前記第3の音声認識装置は、前記第3の音声認識装置の音声入力部が入力された音声命令語に対応する第2の制御メッセージを伝送するステップ、前記第2の音声認識装置の通信部が、前記第1の制御メッセージ及び前記第2の制御メッセージを受信するステップ、及び前記第2の音声認識装置の制御部が、前記第1の音声認識装置及び前記第2の音声認識装置の位置情報に基づいて、前記第1の制御メッセージ及び第2の制御メッセージが指示する機能を提供するステップとを含む。
本発明の実施形態を適用する場合、複数の音声認識装置が配置されて、使用者位置情報を、入力された音声に基づいて装置等が判断することができる。
本発明の実施形態を適用する場合、命令語の発話時、使用者の位置を計算して、各装置が動作することができる。
本発明の実施形態を適用する場合、使用者の位置を正確に判断するために、ロボット掃除機がマップ情報を提供することができる。
本発明の効果は、前述した効果に限定されず、本発明の当業者らは、本発明の構成から本発明の様々な効果を容易に想到することができる。
本発明の一実施形態による音声認識装置の構成を示す図面。 本発明の一実施形態による音声認識装置等が配置された構成を示す図面。 本発明の一実施形態によるロボット掃除機が保有した位置情報を用いて、使用者の位置に基づく装置制御過程を示す図面。 本発明の一実施形態による複数の音声認識装置が、発話者の入力した音声命令語を処理する過程を示す図面。 本発明の一実施形態による各々の装置が自分の位置を共有するために作動音を実行する過程を示す図面。 本発明の一実施形態によるエアコン又は空気清浄機の動作過程を示す図面。 本発明の一実施形態によるテレビ動作過程を示す図面。
以下、図面を参照して、本発明の実施形態について、本発明の属する技術分野における通常の知識を有する者が容易に実施できるように詳説する。本発明は、色々と異なる形態に具現され得、ここに説明する実施形態に限定されない。
本発明を明確に説明するために説明と関係ない部分は略いており、全明細書における同一又は類似の構成要素に対しては同じ参照符号を付する。また、本発明の一部の実施形態を例示的な図面を参照して詳説する。各図面の構成要素に参照符号を付することにおいて、同じ構成要素に対しては、たとえ他の図面上に示されても、可能な限り同じ符号を有し得る。また、本発明の説明において、係る公知の構成又は機能に対する具体的な説明が本発明の要旨を曖昧にすると判断される場合には、その詳細な説明を省略することができる。
本発明の構成要素を説明するにあたって、第1、第2、A、B、(a)、(b)などの用語を使うことができる。かかる用語は、その構成要素を他の構成要素と区別するためであり、その用語によって該構成要素の本質、順番、順序又は個数などが限定されない。ある構成要素が他の構成要素に「連結」、「結合」又は「接続」されると記載されている場合、その構成要素は、その他の構成要素に直接に連結されるか又は接続され得るが、各構成要素の間に他の構成要素が「介在」するか、各構成要素が他の構成要素を介して「連結」、「結合」又は「接続」され得ると理解しなければならない。
また、本発明の具現において、説明の便宜のため構成要素を細分化して説明することができるが、これら構成要素が一装置又はモジュール内に具現され得、あるいは一構成要素が複数の装置又はモジュールに分けて具現され得る。
本明細書における特定の空間内に配置されて、所定の機能を行う家電製品、家電機器などをいずれも装置と通称する。装置のうち、音声認識を行う装置を音声認識装置と称する。また、特定の空間内に配置される二以上の装置は、通信機能を使って制御メッセージを送受信することができる。
本明細書における使用者は、装置に設定された命令語を音声で発話して、装置を動作させることができる。命令語は、装置の動作を指示するものであって、装置の分類によって多様に構成され得る。一実施形態として、命令語は、装置のオン/オフを制御するか、装置に構成された特定の機能を行うことを指示することができる。これは、装置別に多様に構成され得る。
また、命令語は、起動命令語と制御命令語に細分され得る。制御命令語は、装置の動作を制御する命令語である。制御命令語は、「つけて」、「消して」、「弱風」などのように、装置別に装置の機能を制御する命令語に相当する。
起動命令語は、装置が制御命令語を受信できるように装置に知らせる機能を提供する。一実施形態として、起動命令語は、装置の分類的名称(「テレビ」、「ラジオ」、「冷蔵庫」)になるか、装置のブランド(「フィセン」、「トロム」)、又は感嘆詞や会話体の単語(「おい」、「ここ」)になり得る。
使用者の生活空間内には複数の装置が配置され得る。よって、本明細書では、複数の音声認識装置(device)に装着されたマイクアレイ(array)を活用する。使用者が命令語の発話時、音声認識装置のうち、使用者の位置を把握することによって近距離装置が活性化され、使用者及び装置の位置情報を活用して自動に家電製品を制御できるようにする。
図1は、本発明の一実施形態による音声認識装置の構成を示す。音声認識装置は、使用者が発話した命令語を入力されて、音声認識装置が直接動作するか、あるいは命令語に含まれた対象装置を確認して、対象装置に動作を指示することができる。
音声入力部110は、音声が入力される。機能提供部130は、所定の機能を提供する。例えば、音声認識装置が冷蔵庫である場合、機能提供部130は、冷蔵室及び冷凍室の冷蔵/冷凍機能を提供する。音声認識装置がエアコンである場合、機能提供部130は、空気を吐出し、空気吐出の量と方向を提供する。音声認識装置が空気清浄機である場合、機能提供部130は、空気を吸入する機能と、吸入した空気を清浄させる機能を提供する。
通信部180は、他の装置又は外部のクラウドサーバと通信を行うことができる。クラウドサーバは、装置等の位置情報を提供するか、入力された音声命令語をテキストに変換することができる。また、制御部150が別途音声認識機能を提供できない場合、クラウドサーバは、入力された音声命令語に対する音声認識機能を提供することができる。
第1の音声認識装置が音声命令語を入力されて、第2の音声認識装置に伝送する実施形態における第1の音声認識装置の制御部150は、音声入力部110の入力された音声命令語を分析して命令語を実行する第2の音声認識装置を識別する。そして、第1の音声認識装置の制御部150は、第2の音声認識装置に伝送する制御メッセージを生成する。
第1の音声認識装置の通信部180は、制御メッセージを第2の音声認識装置又は第2の音声認識装置を含む複数の装置に伝送する。複数伝送するときは、ブロードキャスティング方式により伝送することができる。
第1の音声認識装置が音声命令語を入力されて、第2の音声認識装置に伝送する実施形態における第2の音声認識装置の通信部180は、第1の音声認識装置から制御メッセージを受信する。そして、第2の音声認識装置の制御部150は、制御メッセージに従って機能提供部130を制御する。
制御メッセージは、第1の音声認識装置の位置情報を含む。または、制御メッセージは、第2の音声認識装置の位置情報を基準に生成された前記第1の音声認識装置の相対位置情報を含む。
よって、第1の音声認識装置の制御部150は、第1の音声認識装置の位置情報(または、前述した相対位置情報)を前記制御メッセージに含ませる。すなわち、前記制御メッセージは、位置情報を含むように生成される。第2の音声認識装置の制御部150は、受信された制御メッセージから第1の音声認識装置の位置情報(または、前述した相対位置情報)を抽出することができる。
また、第1の音声認識装置の制御部150は、別途第1の音声認識装置の位置情報(または、前述した相対位置情報)を制御メッセージに含ませなくても、第2の音声認識装置の制御部150は、クラウドサーバや外部装置から第1の音声認識装置の位置情報又は前記位置情報を含むマップ情報を受信することができる。
命令語データベース部170は、複数の音声認識装置の機能に対応する命令語を貯蔵する。該音声認識装置の機能に対応する命令語のほかにも、他の装置の機能に対応する命令語をさらに貯蔵することができる。この場合、音声認識装置は、入力された命令語がどの装置をターゲットとするかを確認することができる。
すなわち、第1の音声認識装置の制御部150は、命令語データベース部170を用いて、入力された音声命令語から第2の音声認識装置の識別情報と制御情報を抽出して、制御メッセージを生成することができる。
図1における音声認識装置は、入力された命令語が該装置自体に対する命令語である場合、命令語に対応する機能を提供する。このとき、命令語を発話した使用者の位置を音声認識装置又は他の装置によって確認することができる。
他の実施形態として、音声認識装置は、入力された命令語が該装置ではない他の装置に対する命令語である場合、命令語を実行する装置に命令語を伝送することができる。
インターフェース部190は、外部に音や文字、グラフィックなどの情報を出力するか、外部のリモートコントローラから制御信号を入力される。
以下、音声認識装置が動作するプロセスを考察する。
図2は、本発明の一実施形態による音声認識装置等が配置された構成を示す。空間が壁と門に分けられて、厨房に冷蔵庫100aが配置された状態である。居間に空気清浄機100b、AIスピーカ100c、エアコン100d、ロボット掃除機100eが配置された状態である。使用者(つまり、発話者)1は、冷蔵庫の周辺に立っている。100a~100eは、いずれも音声認識機能を行う音声認識装置に属する。
図2における発話者1が、「Hi、LG、エアコンつけて!」と命令語を入力する。命令語を細分すると、「Hi、LG」は起動命令語であり、「エアコンつけて!」は制御命令語である。
発話者1の命令語は、冷蔵庫100aの音声入力部110に入力される。冷蔵庫100aが音声で命令語を入力されており、入力された命令語を冷蔵庫100aが分析して音声認識を行う。冷蔵庫100aは、発話者1がエアコンの動作を命令したことを確認する。
また、冷蔵庫100aは、エアコン100d又は他の音声認識装置100b,100c,100eのうちいずれか以上にエアコンの動作が指示されたという制御メッセージを伝送する。このとき、制御メッセージは、発話者1が冷蔵庫100aの周辺にいるという情報を含む。
冷蔵庫100aは、制御メッセージをエアコン100dに直接伝送することができる。または、冷蔵庫100aは、制御メッセージをブロードキャスティング方式により伝送し、空間内の音声認識装置がいずれもこれを受信することができる。
または、冷蔵庫100aは、入力された命令語をAIスピーカ100cに伝送することができる。
エアコン100dは、冷蔵庫の位置を予め貯蔵することもでき、AIスピーカ100c又はロボット掃除機100eによって冷蔵庫の位置を受信することができる。例えば、ロボット掃除機100eが空間を移動しながら掃除する過程で、各々の家電製品や空間の配置状態を貯蔵することができる。
また、ロボット掃除機100eが空間を学習する過程で、装置(冷蔵庫、空気清浄機、エアコンなど)の位置を反映したマップを生成することができる。そして、マップに冷蔵庫の位置が貯蔵され得る。
例えば、使用者がロボット掃除機に、過去では、「冷蔵庫の周辺を掃除しなさい」と命令語を入力して、ロボット掃除機を冷蔵庫100aの周辺に置くことができる。または、ロボット掃除機の生成したマップに使用者又は外部における特定の地点を冷蔵庫100aと設定することができる。
すなわち、予め入力された空間に対する事物等の位置情報に基づいて、ロボット掃除機100eが空間に対する情報を確保した場合、ロボット掃除機100eは、冷蔵庫100aの位置とエアコン100dの位置を保有することができる。
よって、ロボット掃除機100eは、冷蔵庫100aの位置情報又はエアコン100dを基準に、冷蔵庫100aの相対的位置情報をエアコン100dに提供することができる。
エアコン100dは、冷蔵庫100aの位置情報を用いて使用者の位置情報を確認し、風向と風量を制御して、使用者に向かって空気を送り出すことができる。
図3は、本発明の一実施形態によるロボット掃除機が保有した位置情報を用いて、使用者の位置に基づく装置制御過程を示す。図2の実施形態のように、冷蔵庫100aのように音声が入力される第1の音声認識装置100i、ロボット掃除機100e、図2におけるエアコン100dのように、音声で入力された命令語を実行する第2の音声認識装置100wで構成される。
第1の音声認識装置100iは、発話者1から第2の音声認識装置100wを制御するように命令する音声命令語を入力される(S11)。そして、入力された命令語を変換して、制御メッセージを生成する(S12)。第1の音声認識装置100iは、制御メッセージを他の装置等に伝送する(S13)。このとき、制御メッセージは、ブロードキャスティング方式により伝送されるか、第2の音声音声認識装置100wに1:1で伝送され得る。
ここで、第1の音声認識装置100i又は第2の音声認識装置100wは、ロボット掃除機100eから予め第1の音声認識装置100iの位置情報を受信することができる(S10a,S10b)。この場合、制御メッセージは、第1の音声認識装置100iの位置情報を含んでいてもよい。
または、S13の伝送がブロードキャスティングである場合、ロボット掃除機100eは、S13の伝送状態を確認して、第2の音声認識装置100wに第1の音声認識装置100iの位置を伝達することができる(S10c)。または、クラウドサーバ300が各音声認識装置の位置情報を音声認識装置等に伝送することができる。
第2の音声認識装置100wは、制御メッセージ及び第1の音声認識装置に基づいて動作する(S14)。例えば、第1の音声認識装置100iにおける「エアコンつけて!」という命令語から算出された制御メッセージが伝達されると、第2の音声認識装置100wは、第1の音声認識装置100iの方に空気を送り出す。
図3におけるロボット掃除機100eのほかにも、クラウドサーバ300が各々の音声認識装置の位置情報を貯蔵し、これをさらに音声認識装置等に提供することができる。このとき、クラウドサーバ300は、各音声認識装置を基準に他の音声認識装置等の位置を相対的な位置情報として提供することができる。または、クラウドサーバ300は、各々の音声認識装置の位置情報を含むマップ情報を伝送し、音声認識装置等の通信部180がこれを受信することができる。
図4は、本発明の一実施形態による複数の音声認識装置が発話者の入力した音声命令語を処理する過程を示す。
図2の空間で発話者が音声で命令語を発話する場合、発話者に最も近く配置された冷蔵庫100aに入力された命令語の音の大きさが、これより遠く配置された空気清浄機100bに入力された命令語の音の大きさよりも大きい。
よって、二以上の音声認識装置に音声が入力された場合、入力された音声の大きさを制御メッセージに含ませる。
図4における第1の音声認識装置100iと第3の音声認識装置100jが音声命令語を入力される(S21i,S21j)。各々の装置は、音声命令語を変換して、制御メッセージを生成する。このとき、各装置100i,100jは、制御メッセージの生成時、各装置100i,100jの入力された音声の音の大きさ情報を含ませる(S22i,S22j)。
各装置100i,100jは、第2の音声認識装置100wに制御メッセージを伝送する(S23i,S23j)。第2の音声認識装置100wは、制御メッセージ及び制御メッセージに含まれた音声の音の大きさに基づいて動作する(S24)。
例えば、第1の音声認識装置100iの入力された音の大きさが5であり、第3の音声認識装置100jの入力された音の大きさが3である場合、第2の音声認識装置100wは、第1の音声認識装置100iの周辺で使用者が発話したと判断する。そして、第2の音声認識装置100wは、第1の音声認識装置100iを使用者の位置と設定して、制御メッセージに含まれた所定の機能を行うことができる。
ここで、第2の音声認識装置100wは、図3のS10a、S10b、S10cなどの過程を通じて、各装置の位置情報を受信して貯蔵することができる。または、第2の音声認識装置100wは、AIスピーカ100c又は外部に配置されたクラウドサーバから各装置の位置情報を受信して貯蔵することができる。
制御メッセージは、第1及び第3の音声認識装置の位置情報を含む。または、制御メッセージは、第2の音声認識装置の位置情報を基準に生成された第1及び第3の音声認識装置の相対位置情報を含む。または、図3のように、ロボット掃除機100eから第2の音声認識装置100wが予め位置情報を受信することができる。
また、図3及び図4における制御メッセージは、第1の音声認識装置100i又は第3の音声認識装置100jの音声入力部が入力された音声ファイルを含んでいてもよい。例えば、使用者が「エアコンつけて!」と発話した場合、これを貯蔵した音声ファイルを第1の音声認識装置100i又は第3の音声認識装置100jが生成して、制御メッセージに含ませることができる。
図4における第1の音声認識装置100iと第3の音声認識装置100jは、それぞれ制御メッセージを第2の音声認識装置100wに伝送することができる。例えば、第1の音声認識装置100iは、第1の音声認識装置100iの音声入力部110が入力された音声命令語に対応する第1の制御メッセージを伝送する(S23i)。
同様、第3の音声認識装置100jは、第3の音声認識装置100jの音声入力部110が入力された音声命令語に対応する第2の制御メッセージを伝送する(S23j)。
また、第2の音声認識装置100wの通信部180は、第1の制御メッセージ及び第2の制御メッセージを受信する。そして、第2の音声認識装置100wの制御部150は、第1の音声認識装置100i及び第3の音声認識装置100jの位置情報に基づいて、第1の制御メッセージ及び第2の制御メッセージが指示する機能を提供する(S24)。
ここで、第2の音声認識装置100wの制御部150は、第1の制御メッセージから前記第1の音声認識装置100iの位置情報を抽出し、第2の制御メッセージから前記第3の音声認識装置100jの位置情報を抽出することができる。2つの位置情報を用いて、使用者の位置をより正確に確認することができる。特に、制御メッセージに含まれた音声の大きさ情報を比較する場合、使用者の位置を正確に確認することができる。
例えば、図2の実施形態における冷蔵庫が第1の音声認識装置100iであり、空気清浄機が第3の音声認識装置100jで、両装置が入力された音声の大きさは、同じ水準である。
この場合、エアコンが第2の音声認識装置100wである場合、エアコンの制御部150は、発話者の位置が空気清浄機と冷蔵庫の間と判断し、風の方向を両装置の中間地点に向かうように機能制御部130を制御することができる。
図5は、本発明の一実施形態による各々の装置が自分の位置を共有するために作動音を実行する過程を示す。
第1の音声認識装置100i、第2の音声認識装置100w、第3の音声認識装置100jは、それぞれ装置の識別情報をブロードキャスティングして作動音を出力する(S31,S32,S33)。各々の装置は、他の装置等の識別情報と入力された作動音に対する方向又は距離情報を貯蔵する。
例えば、第2の音声認識装置100wに設置された音声入力部110が指向性マイクである場合、第1の音声認識装置100iが左側方向に配置されたことを確認することができる。または、音声入力部110が第2の音声認識装置100wの左側及び右側の両方とも配置された場合、両側音声入力部110が入力された音の大きさ差を利用して方向を、第2の音声認識装置100wは、第1の音声認識装置100iの位置を判断することができる。
また、入力された作動音の大きさによって距離を算出することができる。先に識別情報のブロードキャスティング過程で、第1の音声認識装置100iは、作動音の大きさも共に含ませて、他の装置に通報することができる。
よって、作動音が出力されると、各々の装置の制御部150は、他の装置が出力した作動音の元の音の大きさと、音声入力部110に入力された作動音の大きさとを比較する。これを用いて制御部150は、作動音を出力した他の装置の距離を算出することができる。音の大きさによって距離は、反比例する。
前述した実施形態に基づく場合、各装置は、他の装置等の位置や距離などに対する情報を貯蔵することができる。例えば、ロボット掃除機100が生成したマップを利用するか作動音を用いる場合、装置等は、他の装置等の位置や距離を確認することができる。
その結果、第1の音声認識装置100iが使用者より音声命令語を入力されると、これを実際に動作しなければならない第2の音声認識装置100wに伝達して、動作を指示することができる。第2の音声認識装置100wは、音声命令語を入力した使用者が、第1の音声認識装置100iの周辺にいたという情報を反映して機能を行う。特に、空気清浄機100bとエアコン100d、又は複数の部屋や居間に複数配置されたテレビを動作させる際に使用者の位置情報は重要である。
本発明の実施形態を適用する場合、音声入力部110が単一のマイクアレイである場合も、ロボット掃除機100の生成したマップを用いて使用者の方向を判断することができ、音声認識装置等は、これに基づいて正確な位置判断が可能である。
特に、ロボット掃除機100bの制御過程において、音声命令制御過程で、又は掃除を始めるか学習された特定区域を制御する過程で、家電製品の位置を把握することができる。使用者が特定の地点を音声で入力すると、ロボット掃除機100は、該地点の情報を使用者が音声入力した地点と貯蔵する。
前述した実施形態を適用する場合、音声認識装置は、音声サービスを提供する様々な装置の音声入力部110、例えば、マイクを活用して発話者の位置を推定することができる。また、音声認識装置は、各々の家電製品の位置情報と発話者の位置を結合して、使用者の位置情報を正確に確認し、使用者の位置に基づいて動作を行う。よって、機器使用の便宜性を高めて、性能を改善することができ、装置等の自動制御が可能になる。
また、色んな位置に配置された音声認識装置に搭載された音声入力部110、例えば、マイクアレイは、音声認識装置が使用者の位置情報を取得できるようにする。また、音声認識装置に配置された音声入力部110が指向性マイクである場合、各音声認識装置が入力された音声の方向情報は、制御メッセージに含まれていてもよい。
また、制御メッセージを受信した音声認識装置は、方向情報等を収集して、使用者の位置情報を算出することができる。
また、各々の装置が一定した時点で製品の作動音(お知らせ音)を出力し、これを入力された他の装置等は、該装置の位置を計算することができる。
もちろん、図2及び図3に示されたように、ロボット掃除機が走行過程で学習及び生成したマップ情報を共有することによって、各々の装置が自分の位置情報及び他の装置の位置情報を算出することができる。
特に、エアコンや空気清浄機、ロボット掃除機のように機能を行うことにおいて、位置情報が必要な際に、前述した実施形態を適用する場合、装置等は、方向性をもって動作することができる。
また、使用者との距離や使用者の位置によって音声認識装置は、フィードバック音声メントのボリュームを自動に調節することができる。
図6は、本発明の一実施形態によるエアコン又は空気清浄機の動作過程を示す。
第1の音声認識装置100iは、音声命令語を入力される(S41)。第1の音声認識装置100iは、前述したプロセスに従って制御メッセージを生成して、第2の音声認識装置100wに伝送する(S42)。
第2の音声認識装置100wが空気清浄機又はエアコンである場合、第2の音声認識装置100wの制御部150は、第1の音声認識装置100iの周辺に使用者が位置したと判断し、第1の音声認識装置100iの位置をターゲットに動作を始める(S43)。よって、第2の音声認識装置100wの制御部150は、制御メッセージが指示する機能を提供するように機能制御部130を制御する。第2の音声認識装置100wの制御部150は、風の方向、力などを調節することができる。
その後、一定時間以内(例えば、3秒~10秒以内)、第2の音声認識装置100wのインターフェース部190が方向転換制御信号を入力された場合、これは、使用者が風の方向を変えたと判断する。そして、第2の音声認識装置100wの制御部150は、第1の音声認識装置100iの位置情報を、転換された方向に修正する(S44)。これは、使用者が発話後、エアコン/空気清浄機の方向をさらに調節するための状況を含む。
図7は、本発明の一実施形態によるテレビ動作過程を示す。S41,S42は、図6で考察したとおりである。
第2の音声認識装置100wがテレビである場合、第2の音声認識装置100wの制御部150は、第1の音声認識装置100iとの距離を算出する(S53)。そして、両装置間の距離が一定基準以下である場合、動作を行う(S54)。
例えば、図2を基準に、使用者の発話した地点は、冷蔵庫の前であるのに、「テレビつけて!」と使用者が発話した場合を仮定する。このとき、寝室4と居間にいずれもテレビが配置されており、居間に配置されたテレビと寝室4に配置されたテレビがいずれも制御メッセージを受信した状態である。
このとき、居間に配置されたテレビは、受信した制御メッセージ又は前に受信した位置情報を用いて冷蔵庫(第1の音声認識装置)との距離を算出する。一定距離以内であると判断されると、居間に配置されたテレビは、制御メッセージに含まれた指示に従ってつく。
一方、寝室4に配置されたテレビは、受信した制御メッセージ又は前に受信した位置情報を用いて冷蔵庫(第1の音声認識装置)との距離を算出する。一定距離よりも遠い距離と判断されると、寝室4に配置されたテレビは、制御メッセージに含まれた指示に従わない。
その結果、使用者の意図に応じて近い所に位置していたテレビのみつき得る。
その後、一定時間以内(例えば、3秒~10秒以内)、第2の音声認識装置100wのインターフェース部190が方向転換制御信号を入力された場合、これは、使用者が風の方向を変えたと判断する。そして、第2の音声認識装置100wの制御部150は、第1の音声認識装置100iの位置情報を、転換された方向に修正する(S44)。これは、使用者が発話後、エアコン/空気清浄機の方向をさらに調節するための状況を含む。
本発明の実施形態を構成する諸構成要素が一つに結合されるか、結合して動作すると説明されたとして、本発明が必ずしもかかる実施形態に限定されるものではなく、本発明の目的範囲内で諸構成要素が一以上に選択的に結合して動作することもできる。また、その諸構成要素がそれぞれ一つの独立的なハードウェアに具現され得るが、各構成要素のその一部又は全部が選択的に組み合わされて、一つ又は複数本のハードウェアで組み合わされた一部又は全部の機能を行うプログラムモジュールを有するコンピュータプログラムとしても具現され得る。そのコンピュータプログラムを構成するコード及びコードセグメントは、本発明の技術分野の当業者によって容易に推論することができる。このようなコンピュータプログラムは、コンピュータが読み取れる貯蔵媒体(Computer Readable Media)に貯蔵され、コンピュータによって読み取られて実行されることで、本発明の実施形態を具現することができる。コンピュータプログラムの貯蔵媒体としては、磁気記録媒体、光記録媒体、半導体記録素子を含む貯蔵媒体を含む。また、本発明の実施形態を具現するコンピュータプログラムは、外部装置によってリアルタイムに伝送されるプログラムモジュールを含む。
以上では、本発明の実施形態を中心に説明したが、通常の技術者の水準における多様な変更や変形を加えることができる。よって、このような変更と変形が本発明の範囲を外れない限り、本発明の範疇内に含まれると理解することができる。

Claims (14)

  1. 音声が入力される第1の音声認識装置において、
    音声が入力される音声入力部と、
    機能を提供する機能提供部と
    前記音声入力部の入力された音声命令語を分析して、前記音声命令語を実行する第2の音声認識装置を識別し、前記第2の音声認識装置に伝送する制御メッセージを生成する制御部と、
    前記制御メッセージを前記第2の音声認識装置又は前記第2の音声認識装置を含む複数の装置に伝送する通信部を含
    前記第2の音声認識装置は、クラウドサーバ又は外部装置から前記第1の音声認識装置の位置情報又は前記位置情報を含むマップ情報を発信する、音声認識を用いて他の装置を制御する装置。
  2. 前記制御部は、前記第1の音声認識装置の位置情報を含む前記制御メッセージを生成する、請求項1記載の音声認識を用いて他の装置を制御する装置。
  3. 前記制御部は、前記第2の音声認識装置の位置情報を基準に、前記第1の音声認識装置の相対位置情報を生成し、前記制御メッセージは、前記相対位置情報を含む、請求項2記載の音声認識を用いて他の装置を制御する装置。
  4. 前記制御メッセージは、前記第1の音声認識装置により生成された音声ファイルを含む、請求項1記載の音声認識を用いて他の装置を制御する装置。
  5. 複数の音声認識装置の機能に対応する命令語が貯蔵された命令語データベース部をさらに含み、
    前記制御部は、前記命令語データベース部を用いて、前記入力された音声命令語から前記第2の音声認識装置の識別情報と制御情報を抽出して、前記制御メッセージを生成する、請求項1記載の音声認識を用いて他の装置を制御する装置。
  6. 音声が入力されて動作する第2の音声認識装置において、
    音声が入力される音声入力部と、
    機能を提供する機能提供部と、
    第1の音声認識装置から制御メッセージを受信する通信部と、
    前記制御メッセージに従って前記機能提供部を制御する制御部を含
    前記通信部は、クラウドサーバ又は外部装置から前記第1の音声認識装置の位置情報又は前記位置情報を含むマップ情報を受信する、音声認識を用いて動作する装置。
  7. 前記制御部は、前記制御メッセージから前記第1の音声認識装置の位置情報を抽出する、請求項6記載の音声認識を用いて動作する装置。
  8. 前記制御部は、前記第2の音声認識装置の位置情報を基準に生成された前記第1の音声認識装置の相対位置情報を前記制御メッセージから抽出する、請求項7記載の音声認識を用いて動作する装置。
  9. 前記制御メッセージは、前記第1の音声認識装置により生成された音声ファイルを含む、請求項6記載の音声認識を用いて動作する装置。
  10. 音声が入力されて動作する第2の音声認識装置において、
    音声が入力される音声入力部と、
    機能を提供する機能提供部と、
    第1の音声認識装置から制御メッセージを受信する通信部と、
    前記制御メッセージに従って前記機能提供部を制御する制御部を含み、
    前記第2の音声認識装置が空気清浄機又はエアコンである場合、
    前記制御部は、前記第1の音声認識装置の周辺に使用者が位置したと判断し、前記空気清浄機又はエアコンの風の方向又は力を調節し、前記制御メッセージが指示する機能を提供するように前記機能提供部を制御する、音声認識を用いて動作する装置。
  11. 音声が入力されて動作する第2の音声認識装置において、
    音声が入力される音声入力部と、
    機能を提供する機能提供部と、
    第1の音声認識装置から制御メッセージを受信する通信部と、
    前記制御メッセージに従って前記機能提供部を制御する制御部を含み、
    前記第2の音声認識装置がテレビである場合、
    前記制御部は、前記第1の音声認識装置との距離を計算する両装置間の距離が一定基準以下である場合、動作を行うことによって、前記制御メッセージが指示する機能を提供するか否かを判断する、音声認識を用いて動作する装置。
  12. 音声が入力される第1の音声認識装置、第3の音声認識装置、及び前記入力された音声命令語に対応する機能を提供する第2の音声認識装置において、
    前記第1の音声認識装置は、前記第1の音声認識装置の音声入力部が入力された音声命令語に対応する第1の制御メッセージを伝送するステップと、
    前記第3の音声認識装置は、前記第3の音声認識装置の音声入力部が入力された音声命令語に対応する第2の制御メッセージを伝送するステップと、
    前記第2の音声認識装置の通信部が、前記第1の制御メッセージ及び前記第2の制御メッセージを受信するステップと、
    前記第2の音声認識装置の制御部が、前記第1の音声認識装置及び前記第3の音声認識装置の位置情報に基づいて、前記第1の制御メッセージ及び第2の制御メッセージが指示する機能を提供するステップを含
    前記通信部は、クラウドサーバ又は外部装置から前記第1の音声認識装置及び前記第3の音声認識装置の位置情報又は前記位置情報を含むマップ情報を受信する、音声認識を用いて装置を制御する方法。
  13. 前記第2の音声認識装置の制御部は、前記第1の制御メッセージから前記第1の音声認識装置の位置情報を抽出し、前記第2の制御メッセージから前記第3の音声認識装置の位置情報を抽出する、請求項12記載の音声認識を用いて装置を制御する方法。
  14. 前記第1の音声認識装置のインターフェース部が第1作動音を出力するステップと、
    前記第2の音声認識装置のインターフェース部が第2作動音を出力するステップと、
    前記第2の音声認識装置の制御部が前記第1作動音の大きさを用いて、前記第1の音声認識装置と前記第2の音声認識装置の間の距離を算出するステップをさらに含む、請求項12記載の音声認識を用いて装置を制御する方法。
JP2021569147A 2019-05-24 2019-05-24 音声認識を用いて装置を制御する方法、及びこれを具現する装置 Active JP7335979B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2019/006252 WO2020241906A1 (ko) 2019-05-24 2019-05-24 음성인식을 이용하여 장치를 제어하는 방법 및 이를 구현하는 장치

Publications (2)

Publication Number Publication Date
JP2022534692A JP2022534692A (ja) 2022-08-03
JP7335979B2 true JP7335979B2 (ja) 2023-08-30

Family

ID=73552795

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021569147A Active JP7335979B2 (ja) 2019-05-24 2019-05-24 音声認識を用いて装置を制御する方法、及びこれを具現する装置

Country Status (5)

Country Link
US (1) US20220254344A1 (ja)
EP (1) EP3979238A4 (ja)
JP (1) JP7335979B2 (ja)
KR (1) KR20210116671A (ja)
WO (1) WO2020241906A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12087283B2 (en) * 2020-11-12 2024-09-10 Samsung Electronics Co., Ltd. Electronic apparatus and controlling method thereof
CN114968166A (zh) * 2021-02-26 2022-08-30 华为技术有限公司 语音交互的方法与电子设备
KR20230050111A (ko) * 2021-10-07 2023-04-14 삼성전자주식회사 전자 장치 및 그 제어 방법

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001145180A (ja) 1999-11-10 2001-05-25 Nec Corp 電化製品集中制御システム及び遠隔制御装置
JP2003330483A (ja) 2002-05-09 2003-11-19 Matsushita Electric Ind Co Ltd 音声入力装置、被制御機器及び音声制御システム
US20150194152A1 (en) 2014-01-09 2015-07-09 Honeywell International Inc. Far-field speech recognition systems and methods
JP2018194810A (ja) 2017-05-15 2018-12-06 ネイバー コーポレーションNAVER Corporation デバイス制御方法及び電子機器
KR101972545B1 (ko) 2018-02-12 2019-04-26 주식회사 럭스로보 음성 명령을 통한 위치 기반 음성 인식 시스템
JP6511590B1 (ja) 2016-02-22 2019-05-15 ソノズ インコーポレイテッド メディア再生システムの音声制御

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100571837B1 (ko) * 2004-03-05 2006-04-17 삼성전자주식회사 자율주행기기의 주행제어방법 및 장치
US8972052B2 (en) * 2004-07-07 2015-03-03 Irobot Corporation Celestial navigation system for an autonomous vehicle
TW200833152A (en) * 2007-01-31 2008-08-01 Bluepacket Comm Co Ltd Multimedia switching system
US20100293502A1 (en) * 2009-05-15 2010-11-18 Lg Electronics Inc. Mobile terminal equipped with multi-view display and method of controlling the mobile terminal
KR101741583B1 (ko) * 2009-11-16 2017-05-30 엘지전자 주식회사 로봇 청소기 및 그의 제어 방법
US8635058B2 (en) * 2010-03-02 2014-01-21 Nilang Patel Increasing the relevancy of media content
US9240111B2 (en) * 2010-10-06 2016-01-19 Microsoft Technology Licensing, Llc Inferring building metadata from distributed sensors
US8957847B1 (en) * 2010-12-28 2015-02-17 Amazon Technologies, Inc. Low distraction interfaces
KR102071575B1 (ko) * 2013-04-23 2020-01-30 삼성전자 주식회사 이동로봇, 사용자단말장치 및 그들의 제어방법
US9438440B2 (en) * 2013-07-29 2016-09-06 Qualcomm Incorporated Proximity detection of internet of things (IoT) devices using sound chirps
KR20150043058A (ko) * 2013-10-14 2015-04-22 주식회사 케이티 리모콘 서비스를 제공하는 이동 로봇 및 이동 로봇의 리모콘 서비스 제공 방법
KR20150104311A (ko) * 2014-03-05 2015-09-15 엘지전자 주식회사 로봇 청소기 및 그의 제어방법
CN104123333B (zh) * 2014-03-17 2017-02-15 腾讯科技(深圳)有限公司 用于位置共享的数据处理方法和装置
KR102146462B1 (ko) * 2014-03-31 2020-08-20 삼성전자주식회사 음성 인식 시스템 및 방법
JP2016024212A (ja) * 2014-07-16 2016-02-08 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US10789041B2 (en) * 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
KR20160048492A (ko) * 2014-10-24 2016-05-04 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법
US9812126B2 (en) * 2014-11-28 2017-11-07 Microsoft Technology Licensing, Llc Device arbitration for listening devices
KR20160065574A (ko) * 2014-12-01 2016-06-09 엘지전자 주식회사 로봇 청소기 및 그의 제어방법
US10126406B2 (en) * 2014-12-02 2018-11-13 Qualcomm Incorporated Method and apparatus for performing ultrasonic presence detection
US9811312B2 (en) * 2014-12-22 2017-11-07 Intel Corporation Connected device voice command support
US9521496B2 (en) * 2015-02-12 2016-12-13 Harman International Industries, Inc. Media content playback system and method
KR101659037B1 (ko) * 2015-02-16 2016-09-23 엘지전자 주식회사 로봇 청소기, 이를 포함하는 원격 제어 시스템 및 이의 제어 방법
US9996316B2 (en) * 2015-09-28 2018-06-12 Amazon Technologies, Inc. Mediation of wakeword response for multiple devices
US9653075B1 (en) * 2015-11-06 2017-05-16 Google Inc. Voice commands across devices
DK179415B1 (en) * 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
EP3507798A1 (en) * 2016-10-03 2019-07-10 Google LLC Processing voice commands based on device topology
US10181323B2 (en) * 2016-10-19 2019-01-15 Sonos, Inc. Arbitration-based voice recognition
KR101952414B1 (ko) * 2016-10-25 2019-02-26 엘지전자 주식회사 청소기 및 그 제어방법
US10349224B2 (en) * 2017-01-24 2019-07-09 Essential Products, Inc. Media and communications in a connected environment
WO2018137872A1 (en) * 2017-01-30 2018-08-02 Philips Lighting Holding B.V. A controller for controlling a plurality of light sources.
KR101925034B1 (ko) * 2017-03-28 2018-12-04 엘지전자 주식회사 스마트 컨트롤링 디바이스 및 그 제어 방법
KR20180118461A (ko) * 2017-04-21 2018-10-31 엘지전자 주식회사 음성 인식 장치 및 음성 인식 방법
DK179549B1 (en) * 2017-05-16 2019-02-12 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US10983753B2 (en) * 2017-06-09 2021-04-20 International Business Machines Corporation Cognitive and interactive sensor based smart home solution
DE102017113279A1 (de) * 2017-06-16 2018-12-20 Vorwerk & Co. Interholding Gmbh System aus mindestens einem Haushaltsgerät, mindestens einem sich selbsttätig fortbewegenden Reinigungsgerät und einer Steuereinrichtung
US11424947B2 (en) * 2017-08-02 2022-08-23 Lenovo (Singapore) Pte. Ltd. Grouping electronic devices to coordinate action based on context awareness
US11233782B2 (en) * 2017-10-04 2022-01-25 Resilience Magnum IP, LLC Single node network connectivity for structure automation functionality
US10412556B1 (en) * 2018-03-15 2019-09-10 Capital One Services, Llc Dynamic re-configuration of a user interface based on location information
US11183183B2 (en) * 2018-12-07 2021-11-23 Sonos, Inc. Systems and methods of operating media playback systems having multiple voice assistant services
US11086582B1 (en) * 2019-04-30 2021-08-10 Amazon Technologies, Inc. System for determining positional relationships between display devices

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001145180A (ja) 1999-11-10 2001-05-25 Nec Corp 電化製品集中制御システム及び遠隔制御装置
JP2003330483A (ja) 2002-05-09 2003-11-19 Matsushita Electric Ind Co Ltd 音声入力装置、被制御機器及び音声制御システム
US20150194152A1 (en) 2014-01-09 2015-07-09 Honeywell International Inc. Far-field speech recognition systems and methods
JP6511590B1 (ja) 2016-02-22 2019-05-15 ソノズ インコーポレイテッド メディア再生システムの音声制御
JP2018194810A (ja) 2017-05-15 2018-12-06 ネイバー コーポレーションNAVER Corporation デバイス制御方法及び電子機器
KR101972545B1 (ko) 2018-02-12 2019-04-26 주식회사 럭스로보 음성 명령을 통한 위치 기반 음성 인식 시스템

Also Published As

Publication number Publication date
EP3979238A1 (en) 2022-04-06
JP2022534692A (ja) 2022-08-03
EP3979238A4 (en) 2023-04-26
KR20210116671A (ko) 2021-09-27
US20220254344A1 (en) 2022-08-11
WO2020241906A1 (ko) 2020-12-03

Similar Documents

Publication Publication Date Title
KR102025566B1 (ko) 인공지능을 이용한 홈어플라이언스 및 음성 인식 서버 시스템과, 이의 제어 방법
JP7335979B2 (ja) 音声認識を用いて装置を制御する方法、及びこれを具現する装置
US11037564B2 (en) Robot apparatus and method for registering shortcut command thereof based on a predetermined time interval
US11985003B2 (en) Apparatus, system and method for directing voice input in a controlling device
KR102025391B1 (ko) 사용자의 발화 위치에 따른 디바이스 제어
JP4109414B2 (ja) 音声認識を用いた機器制御方法および音声認識を用いた機器制御システムならびに音声認識を用いた機器制御プログラムを記録した記録媒体
JP3838029B2 (ja) 音声認識を用いた機器制御方法および音声認識を用いた機器制御システム
JP2021520141A (ja) マイクロフォンアレイ内のインテリジェントビームステアリング
JP2019159306A (ja) ファーフィールド音声制御デバイス及びファーフィールド音声制御システム
US12003673B2 (en) Acoustic echo cancellation control for distributed audio devices
JP2005529421A (ja) 可動ユニット及び可動ユニットを制御する方法
US11301208B2 (en) Control method, control device, and control system
KR102093851B1 (ko) 인공지능에 기반하여 음성 인식의 민감도를 환경에 적응적으로 변화시키는 방법 및 이를 구현하는 장치
JP2016114744A (ja) 電子機器制御システム、端末装置、及び、サーバー
KR102374054B1 (ko) 음성 인식 방법 및 이에 사용되는 장치
JP2018109663A (ja) 音声処理装置、対話システム、端末装置、プログラム及び音声処理方法
JP2021509730A (ja) 制御デバイスにおいて音声入力を指示する装置、システム及び方法
JP2005241971A (ja) プロジェクタシステム、マイク装置、プロジェクタ制御装置およびプロジェクタ
JP5610283B2 (ja) 外部機器制御装置、その外部機器制御方法及びプログラム
CN113574478A (zh) 控制装置、设备控制系统、控制方法及程序
US11917386B2 (en) Estimating user location in a system including smart audio devices
WO2019069597A1 (ja) 家電システム
Haeb-Umbach et al. Speech processing in the networked home environment-a view on the amigo project.

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211119

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230725

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230818

R150 Certificate of patent or registration of utility model

Ref document number: 7335979

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150