JP2018194810A - Device controlling method and electronic apparatus - Google Patents

Device controlling method and electronic apparatus Download PDF

Info

Publication number
JP2018194810A
JP2018194810A JP2017157389A JP2017157389A JP2018194810A JP 2018194810 A JP2018194810 A JP 2018194810A JP 2017157389 A JP2017157389 A JP 2017157389A JP 2017157389 A JP2017157389 A JP 2017157389A JP 2018194810 A JP2018194810 A JP 2018194810A
Authority
JP
Japan
Prior art keywords
voice input
voice
electronic device
user
command word
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017157389A
Other languages
Japanese (ja)
Other versions
JP6731894B2 (en
Inventor
ウンジョン チェー
Eon Joung Choi
ウンジョン チェー
ジヒ パク
Jee Hee Park
ジヒ パク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Z Intermediate Global Corp
Naver Corp
Original Assignee
Line Corp
Naver Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Line Corp, Naver Corp filed Critical Line Corp
Publication of JP2018194810A publication Critical patent/JP2018194810A/en
Application granted granted Critical
Publication of JP6731894B2 publication Critical patent/JP6731894B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephonic Communication Services (AREA)

Abstract

To provide a technique for device control according to a user's talk position.SOLUTION: A device controlling method with an electronic apparatus comprising a sound board interface includes the steps of: receiving instruction words inputted by a user's voice through a sound board interface; obtaining positional information relevant to voice input when positional information is required as a result of the analysis of the instruction words; and specifying a device to be controlled among devices the electronic apparatus can control, by using the positional information, and then making the device to be controlled perform operation corresponding to the instruction words.SELECTED DRAWING: Figure 5

Description

以下の説明は、ユーザの発話位置によるデバイス制御に関する技術であって、より詳細には、音声入力に該当する命令語からユーザの発話位置を追加的で判断してデバイス動作やコンテンツ提供を制御するデバイス制御方法およびシステム、コンピュータと結合してデバイス制御方法をコンピュータに実行させるためにコンピュータで読み取り可能な記録媒体に格納されたコンピュータプログラムとその記録媒体等に関する。   The following description relates to device control based on the user's utterance position, and more specifically, controls the device operation and content provision by additionally determining the user's utterance position from the command word corresponding to the voice input. BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a device control method and system, a computer program stored in a computer-readable recording medium for causing the computer to execute the device control method in combination with a computer, and the recording medium.

ホームネットワークサービスの人工知能スピーカのように音声を基盤として動作するインタフェースは、マイク(microphone)を通じてユーザの音声入力を受信し、受信した音声入力に基づいてデバイス動作やコンテンツ提供を制御することができる。   An interface operating based on voice, such as an artificial intelligence speaker of a home network service, can receive a user's voice input through a microphone and control device operation and content provision based on the received voice input. .

例えば、特許文献1(公開日2011年12月30日)は、ホームメディアデバイスおよびこれを利用したホームネットワークシステムと方法に関する技術であって、ホームネットワークサービスにおいて移動通信網の他にWi−Fi(ワイファイ)のような第2通信網を利用してホームネットワークサービスを提供することが可能であり、ホーム内の複数のマルチメディア機器をユーザのボタン操作がなくても音声命令にしたがって多重制御することができる技術を開示している。   For example, Patent Literature 1 (publication date: December 30, 2011) is a technology relating to a home media device and a home network system and method using the home media device. In home network services, Wi-Fi (in addition to a mobile communication network) is disclosed. It is possible to provide a home network service using a second communication network such as Wi-Fi, and to multiplex-control a plurality of multimedia devices in the home according to a voice command without any user button operation. The technology which can do is disclosed.

このような従来技術では、制御対象デバイスが複数ある場合、予め登録されたデバイス名称を用いた発話によってデバイス制御が可能となる。しかし、同じ役割をするデバイスが複数ある場合には、それぞれのデバイス名称を区分して登録し、更に、登録されたものをユーザがすべて記憶しなければならないという困難がある。主に音声を基盤として動作し、視覚情報は使用しないため、複数のオプションからの選択が必要な場合には、具体的な要求事項や命令形態などを言葉で構造化して表現しなければならないという問題がある。   In such a conventional technique, when there are a plurality of devices to be controlled, device control can be performed by utterance using a device name registered in advance. However, when there are a plurality of devices having the same role, there is a difficulty that the device names must be classified and registered, and further, the user must memorize all the registered devices. Since it mainly operates on the basis of sound and does not use visual information, when it is necessary to select from a plurality of options, specific requirements and instruction forms must be structured and expressed in words. There's a problem.

韓国公開特許第10−2011−0139797号公報Korean Published Patent No. 10-2011-0139797

口語体形態で容易に表現可能な発話形態(例えば、くだけた会話口調)を把握し、ユーザの意図に合ったデバイスを制御することができるデバイス制御方法およびシステム、コンピュータと結合してデバイス制御方法をコンピュータに実行させるためにコンピュータで読み取り可能な記録媒体に格納されたコンピュータプログラムとその記録媒体を提供する。   A device control method and system capable of grasping an utterance form (for example, a simple conversational tone) that can be easily expressed in a colloquial form and controlling a device suitable for the user's intention, and a device control method combined with a computer A computer program stored in a computer-readable recording medium and the recording medium are provided to be executed by a computer.

会話の脈略を把握し、ユーザの意図に合ったデバイスを制御することができるデバイス制御方法およびシステム、コンピュータと結合してデバイス制御方法をコンピュータに実行させるためにコンピュータで読み取り可能な記録媒体に格納されたコンピュータプログラムとその記録媒体を提供する。   A device control method and system capable of grasping a conversational strategy and controlling a device suitable for the user's intention, and a computer-readable recording medium for causing the computer to execute the device control method in combination with a computer A stored computer program and its recording medium are provided.

デバイス使用パターンおよび履歴に基づき、ユーザ意図に合ったデバイスを制御することができるデバイス制御方法およびシステム、コンピュータと結合してデバイス制御方法をコンピュータに実行させるためにコンピュータで読み取り可能な記録媒体に格納されたコンピュータプログラムとその記録媒体を提供する。   Device control method and system capable of controlling device according to user intention based on device usage pattern and history, and stored in computer-readable recording medium for causing computer to execute device control method in combination with computer Computer program and its recording medium are provided.

音声基盤インタフェースを含む電子機器のデバイス制御方法であって、前記音声基盤インタフェースを通じてユーザの音声入力による命令語を受信する段階、前記命令語の分析の結果、位置情報が必要な場合、前記音声入力と関連する位置情報を取得する段階、および前記位置情報を利用して、前記電子機器が制御することが可能なデバイスのうちから制御対象デバイスを特定し、前記命令語に対応する動作を制御対象デバイスに実行させる段階を含む、デバイス制御方法を提供する。   A device control method for an electronic device including a voice infrastructure interface, wherein a command word by a user's voice input is received through the voice infrastructure interface, and if the position information is required as a result of the analysis of the command word, the voice input Obtaining position information related to the device, and using the position information to identify a control target device from devices that can be controlled by the electronic device, and to control an operation corresponding to the command word A device control method is provided that includes causing a device to execute.

コンピュータと結合して前記デバイス制御方法をコンピュータに実行させるためにコンピュータで読み取り可能な記録媒体に格納された、コンピュータプログラムを提供する。   A computer program stored in a computer-readable recording medium for causing the computer to execute the device control method in combination with a computer is provided.

前記デバイス制御方法をコンピュータに実行させるためのプログラムが記録されている、コンピュータで読み取り可能な記録媒体を提供する。   Provided is a computer-readable recording medium on which a program for causing a computer to execute the device control method is recorded.

電子機器であって、音声基盤インタフェース、およびコンピュータで読み取り可能な命令を実行するように実現される少なくとも1つのプロセッサを含み、前記少なくとも1つのプロセッサは、前記音声基盤インタフェースを通じてユーザの音声入力による命令語を受信し、前記命令語の分析の結果、位置情報が必要な場合、前記音声入力と関連する位置情報を取得し、前記位置情報を利用して、前記電子機器が制御することが可能なデバイスのうちから制御対象デバイスを特定し、前記命令語に対応する動作を制御対象デバイスに実行させる、電子機器を提供する。   An electronic device comprising a voice based interface and at least one processor implemented to execute computer readable instructions, wherein the at least one processor is a command by user voice input through the voice based interface When the position information is required as a result of analyzing the command word, the position information related to the voice input can be acquired and the electronic device can be controlled using the position information. Provided is an electronic device that identifies a control target device from among the devices and causes the control target device to execute an operation corresponding to the command word.

音声入力に該当する命令語にしたがってユーザの発話位置を追加的に判断し、命令語に適合するデバイスを選択することができる。   The user's utterance position can be additionally determined according to the command word corresponding to the voice input, and a device that matches the command word can be selected.

命令語に指示代名詞などが含まれる場合、ユーザの位置に基づき、ユーザの意図に合ったデバイスを推定することができる。   When a command pronoun is included in the command word, a device that matches the user's intention can be estimated based on the user's position.

会話脈略からユーザの位置を推定し、ユーザの意図に合ったデバイスを推定することができる。   A user's position can be estimated from the conversational abbreviation, and a device suitable for the user's intention can be estimated.

デバイス使用パターンおよび履歴に基づき、ユーザの意図に合ったデバイスを推定することができる。   Based on the device usage pattern and history, it is possible to estimate a device that matches the user's intention.

本発明の一実施形態における、音声基盤インタフェースを活用したサービス環境の例を示した図である。It is the figure which showed the example of the service environment using the audio | voice infrastructure interface in one Embodiment of this invention. 本発明の一実施形態における、音声基盤インタフェースを活用したサービス環境の他の例を示した図である。It is the figure which showed the other example of the service environment using the voice infrastructure interface in one Embodiment of this invention. 本発明の一実施形態における、クラウド人工知能プラットフォームの例を示した図である。It is the figure which showed the example of the cloud artificial intelligence platform in one Embodiment of this invention. 本発明の一実施形態における、電子機器およびサーバの内部構成を説明するためのブロック図である。It is a block diagram for demonstrating the internal structure of the electronic device and server in one Embodiment of this invention. 本発明の一実施形態における、デバイス制御方法の例を示したフローチャートである。It is the flowchart which showed the example of the device control method in one Embodiment of this invention. 本発明の一実施形態における、指示代名詞が含まれた音声入力にしたがって制御対象デバイスを決定する例を示した図である。It is the figure which showed the example which determines a control object device according to the audio | voice input in which the indication pronoun was included in one Embodiment of this invention. 本発明の一実施形態における、指示代名詞が含まれた音声入力にしたがって制御対象デバイスを決定する例を示した図である。It is the figure which showed the example which determines a control object device according to the audio | voice input in which the indication pronoun was included in one Embodiment of this invention. 本発明の一実施形態における、位置や指示対象が省略された音声入力にしたがって制御対象デバイスを決定する例を示した図である。It is the figure which showed the example which determines a control object device according to the audio | voice input by which position and the instruction | indication object were abbreviate | omitted in one Embodiment of this invention. 本発明の一実施形態における、位置や指示対象が省略された音声入力にしたがって制御対象デバイスを決定する例を示した図である。It is the figure which showed the example which determines a control object device according to the audio | voice input by which position and the instruction | indication object were abbreviate | omitted in one Embodiment of this invention. 本発明の一実施形態における、ユーザ行動パターン学習に基づいて制御対象デバイスを決定する例を示した図である。It is the figure which showed the example which determines a control object device based on user action pattern learning in one Embodiment of this invention.

以下、実施形態について、添付の図面を参照しながら詳しく説明する。   Hereinafter, embodiments will be described in detail with reference to the accompanying drawings.

本発明の実施形態に係るデバイス制御システムは、音声を基盤として動作するインタフェースを提供する電子機器によって実現されてよい。電子機器は、発話者の音声入力による命令語から発話者の位置を追加的に判断してデバイス動作やコンテンツ提供を制御してよい。ここで、電子機器は、命令語に指示代名詞が含まれるか、命令語が不完全な文章で構成される場合、ユーザの位置に基づいてユーザの意図に合ったデバイスを推定してよい。さらに、電子機器は、発話者の音声入力による会話脈略を把握するか、デバイス使用パターンやデバイス制御履歴を把握することで、ユーザ意図に合ったデバイスを推定してよい。   The device control system according to the embodiment of the present invention may be realized by an electronic device that provides an interface that operates based on audio. The electronic device may additionally determine the position of the speaker from the command word by the voice input of the speaker and control device operation and content provision. Here, the electronic device may estimate a device that matches the user's intention based on the position of the user when the command word includes an instructional pronoun or the command word includes an incomplete sentence. Furthermore, the electronic device may estimate a device that matches the user's intention by grasping a conversational strategy by a voice input of a speaker or grasping a device usage pattern and a device control history.

本発明の実施形態に係るデバイス制御方法は、上述した電子機器で実行されてよい。ここで、電子機器には、本発明の一実施形態に係るコンピュータプログラムがインストールおよび駆動されてよく、電子機器は、駆動するコンピュータプログラムの制御にしたがって本発明の一実施形態に係るデバイス制御方法を実行してよい。上述したコンピュータプログラムは、コンピュータによって実現される電子機器と結合してデバイス制御方法をコンピュータに実行させるためにコンピュータで読み取り可能な記録媒体に格納されてよい。   The device control method according to the embodiment of the present invention may be executed by the electronic apparatus described above. Here, the electronic apparatus may be installed and driven with the computer program according to the embodiment of the present invention, and the electronic apparatus performs the device control method according to the embodiment of the present invention according to the control of the computer program to be driven. May be executed. The computer program described above may be stored in a computer-readable recording medium in order to cause the computer to execute the device control method in combination with an electronic device realized by the computer.

図1は、本発明の一実施形態における、音声基盤インタフェースを活用したサービス環境の例を示した図である。図1の実施形態では、スマートホーム(smart home)やホームネットワークサービスのように宅内のデバイスを連結して制御する技術において、音声を基盤として動作するインタフェースを提供する電子機器100がユーザ110の発話「電気を消して」という音声入力を受信して認識および分析し、宅内で電子機器100と内部ネットワークを介して連携する宅内照明機器120のライト電源を制御する例を示している。   FIG. 1 is a diagram illustrating an example of a service environment using a voice infrastructure interface according to an embodiment of the present invention. In the embodiment of FIG. 1, in a technology for connecting and controlling devices in a home such as a smart home or a home network service, an electronic device 100 that provides an interface that operates based on voice is uttered by a user 110. An example of receiving and recognizing and analyzing a voice input “turn off electricity” and controlling a light power source of a home lighting device 120 that cooperates with the electronic device 100 via an internal network in the home is shown.

例えば、宅内のデバイスは、上述した宅内照明機器120の他にも、テレビ、PC(Personal Computer)、周辺機器、エアコン、冷蔵庫、ロボット掃除機などのような家電製品はもちろん、水道、電気、冷暖房機器などのようなエネルギー消費装置、ドアロックや監視カメラなどのような保安機器など、オンライン上で連結して制御されることができる多様なデバイスを含んでよい。また、内部ネットワークは、イーサネット(登録商標(Ethernet))、HomePNA、IEEE 1394のような有線ネットワーク技術や、ブルートゥース(登録商標(Bluetooth))、UWB(Ultra Wide Band)、ジグビー(ZigBee)、Wireless 1394、Home RFのような無線ネットワーク技術などが活用されてよい。   For example, in addition to the above-described home lighting device 120, home devices include not only home appliances such as televisions, PCs (Personal Computers), peripheral devices, air conditioners, refrigerators, robot cleaners, but also water, electricity, and air conditioning. It may include various devices that can be connected and controlled on-line, such as energy consuming devices such as devices, security devices such as door locks and surveillance cameras. The internal network includes wired network technologies such as Ethernet (registered trademark (Ethernet)), HomePNA, and IEEE 1394, Bluetooth (registered trademark (Bluetooth)), UWB (Ultra Wide Band), ZigBee, and Wireless 1394. Wireless network technology such as Home RF may be used.

電子機器100は、宅内のデバイスのうちの1つであってよい。例えば、電子機器100は、宅内に備えらえた人工知能スピーカやロボット清掃機などのようなデバイスの1つであってよい。また、電子機器100は、スマートフォン(smart phone)、携帯電話、ノート型パンコン、デジタル放送用端末、PDA(Personal Digital Assistants)、PMP(Portable Multimedia Player)、タブレットなどのようなユーザ110のモバイル機器であってもよい。このように、電子機器100は、ユーザ110の音声入力を受信して宅内のデバイスを制御するために宅内のデバイスと連結可能な機能を含む機器であれば、特に制限されることはない。また、実施形態によっては、上述したユーザ110のモバイル機器が宅内のデバイスとして含まれてもよい。   The electronic device 100 may be one of devices in the home. For example, the electronic device 100 may be one of devices such as an artificial intelligence speaker or a robot cleaner provided in a home. The electronic device 100 is a mobile device of the user 110 such as a smart phone, a mobile phone, a notebook type pancon, a digital broadcasting terminal, a PDA (Personal Digital Assistant), a PMP (Portable Multimedia Player), and a tablet. There may be. As described above, the electronic device 100 is not particularly limited as long as the electronic device 100 includes a function that can be connected to a home device in order to receive the voice input of the user 110 and control the home device. In addition, depending on the embodiment, the mobile device of the user 110 described above may be included as a home device.

図2は、本発明の一実施形態における、音声基盤インタフェースを活用したサービス環境の他の例を示した図である。図2は、音声を基盤として動作するインタフェースを提供する電子機器100がユーザ110の発話「今日の天気」という音声入力を受信して認識および分析し、外部ネットワークを介して外部サーバ210から今日の天気に関する情報を取得し、取得した情報を「今日の天気は・・・」のように音声で出力する例を示している。   FIG. 2 is a diagram illustrating another example of a service environment using a voice infrastructure interface according to an embodiment of the present invention. FIG. 2 shows that an electronic device 100 that provides a voice-based interface receives and recognizes and analyzes the speech input of the user 110 utterance “Today's Weather” from an external server 210 via an external network. An example is shown in which information related to the weather is acquired and the acquired information is output by voice such as “Today's weather is ...”.

例えば、外部ネットワークは、PAN(personal area network)、LAN(local area network)、CAN(campus area network)、MAN(metropolitan area network)、WAN(wide area network)、BBN(broadband network)、インターネットなどのネットワークうちの1つ以上の任意のネットワークを含んでよい。   For example, the external network includes a PAN (personal area network), a LAN (local area network), a MAN (metropolitan area network), a WAN (wide area network, etc.), a WAN (wide area network, etc.), and a WAN (wide area network, etc.). One or more of any of the networks may be included.

図2の実施形態でも、電子機器100は、宅内のデバイスの1つであるか、ユーザ110のモバイル機器の1つであってよく、ユーザ110の音声入力を受信して処理するための機能と、外部ネットワークを介して外部サーバ210に接続して外部サーバ210が提供するサービスやコンテンツをユーザ110に提供するための機能を含む機器であれば、特に制限されることはない。   Also in the embodiment of FIG. 2, the electronic device 100 may be one of the devices in the home or one of the mobile devices of the user 110, and the function for receiving and processing the voice input of the user 110 and Any device including a function for connecting to the external server 210 via an external network and providing the user 110 with services and contents provided by the external server 210 is not particularly limited.

このように、本発明の実施形態に係る電子機器100は、音声基盤インタフェースを通じてユーザ110の発話によって受信する音声入力を少なくとも含むユーザ命令を処理することができる機器であれば、特に制限されることはない。例えば、電子機器100は、ユーザの音声入力を直接に認識および分析して音声入力に適した動作を実行することによってユーザ命令を処理してもよいが、実施形態によっては、ユーザの音声入力に対する認識や認識された音声入力の分析、ユーザに提供される音声の合成などの処理を、電子機器100と連係する外部のプラットフォームで実行することも可能である。   As described above, the electronic device 100 according to the embodiment of the present invention is particularly limited as long as it is a device that can process a user command including at least a voice input received by the speech of the user 110 through the voice based interface. There is no. For example, the electronic device 100 may process user instructions by directly recognizing and analyzing the user's voice input and performing operations suitable for the voice input, but in some embodiments, Processing such as recognition, analysis of recognized speech input, and speech synthesis provided to the user can be executed on an external platform linked to the electronic device 100.

図3は、本発明の一実施形態における、クラウド人工知能プラットフォームの例を示した図である。図3は、電子機器310、クラウド人工知能プラットフォーム320、およびコンテンツ・サービス330を示している。   FIG. 3 is a diagram illustrating an example of a cloud artificial intelligence platform according to an embodiment of the present invention. FIG. 3 shows an electronic device 310, a cloud artificial intelligence platform 320, and a content service 330.

一例として、電子機器310は、宅内に備えられるデバイスを意味してよく、少なくとも上述した電子機器100を含んでよい。このような電子機器310や電子機器310にインストールおよび駆動されるアプリケーション(以下、アプリ)は、インタフェースコネクト340を通じてクラウド人工知能プラットフォーム320と連係してよい。ここで、インタフェースコネクト340は、電子機器310や電子機器310にインストールおよび駆動されるアプリの開発のためのSDK(Software Development Kit)および/または開発文書を開発者に提供してよい。また、インタフェースコネクト340は、電子機器310や電子機器310にインストールおよび駆動されるアプリがクラウド人工知能プラットフォーム320の提供する機能を活用することができるAPI(Application Program Interface)を提供してよい。具体的な例として、開発者は、インタフェースコネクト340が提供するSDK(Software Development Kit)および/または開発文書を利用して開発した機器やアプリは、インタフェースコネクト340が提供するAPIを利用してクラウド人工知能プラットフォーム320が提供する機能を活用できるようになる。   As an example, the electronic device 310 may mean a device provided in a home, and may include at least the electronic device 100 described above. Such an electronic device 310 and an application installed and driven on the electronic device 310 (hereinafter referred to as an application) may be linked to the cloud artificial intelligence platform 320 through the interface connect 340. Here, the interface connect 340 may provide the developer with an SDK (Software Development Kit) and / or development document for developing the electronic device 310 or an application installed and driven in the electronic device 310. Further, the interface connect 340 may provide an application program interface (API) that allows the electronic device 310 or an application installed and driven to the electronic device 310 to utilize the function provided by the cloud artificial intelligence platform 320. As a specific example, a developer can use a device and application developed using SDK (Software Development Kit) provided by the interface connect 340 and / or a development document in the cloud using an API provided by the interface connect 340. The functions provided by the artificial intelligence platform 320 can be utilized.

ここで、クラウド人工知能プラットフォーム320は、音声基盤のサービスを提供するための機能を提供してよい。例えば、クラウド人工知能プラットフォーム320は、受信した音声を認識し、出力する音声を合成するための音声処理モジュール321、受信した映像や動画を分析して処理するためのビジョン処理モジュール322、受信した音声にしたがって適合する音声を出力するために適切な会話を決定するための会話処理モジュール323、受信した音声に適した機能を勧めるための推薦モジュール324、人工知能がデータ学習に基づいて文章単位で言語を翻訳するように支援する人工神経網基盤機械翻訳(Neural Machine Translation:NMT)325などのように、音声基盤サービスを提供するための多様なモジュールを含んでよい。   Here, the cloud artificial intelligence platform 320 may provide a function for providing a voice-based service. For example, the cloud artificial intelligence platform 320 recognizes the received voice and synthesizes the voice to be output, the voice processing module 321 for analyzing the received video and video, and the received voice. Conversation processing module 323 for determining an appropriate conversation for outputting a sound that conforms to the language, a recommendation module 324 for recommending a function suitable for the received speech, and a language in which artificial intelligence is based on data learning in sentence units Various modules for providing voice-based services may be included, such as an artificial neural network-based machine translation (NMT) 325 that assists in translating.

例えば、図1および図2の実施形態において、電子機器100は、ユーザ110の音声入力を、インタフェースコネクト340から提供されるAPIを利用してクラウド人工知能プラットフォーム320に送信してよい。この場合、クラウド人工知能プラットフォーム320は、受信した音声入力を上述したモジュール321〜325を活用して認識および分析してよく、受信した音声入力にしたがって適切な返答音声を合成して提供したり、適切な動作を勧めたりしてよい。   For example, in the embodiment of FIGS. 1 and 2, the electronic device 100 may transmit the voice input of the user 110 to the cloud artificial intelligence platform 320 using an API provided from the interface connect 340. In this case, the cloud artificial intelligence platform 320 may recognize and analyze the received voice input using the above-described modules 321 to 325, synthesize and provide an appropriate response voice according to the received voice input, Appropriate action may be recommended.

また、拡張キット350は、第三者のコンテンツ開発者または会社がクラウド人工知能プラットフォーム320を基盤として新たな音声基盤機能を実現することができる開発キットを提供してよい。例えば、図2の実施形態において、電子機器100は、受信したユーザ110の音声入力を外部サーバ210に送信してよく、外部サーバ210は、拡張キット350から提供されるAPIを通じてクラウド人工知能プラットフォーム320に音声入力を送信してよい。この場合、上述した説明と同じように、クラウド人工知能プラットフォーム320は、受信した音声入力を認識および分析して適切な返答音声を合成して提供したり、音声入力にしたがって処理されるべき機能に関する推薦情報を外部サーバ210に提供したりしてよい。一例として、図2において、外部サーバ210は、音声入力「今日の天気」をクラウド人工知能プラットフォーム320に送信してよく、クラウド人工知能プラットフォーム320から、音声入力「今日の天気」の認識によって抽出されるキーワード「今日の」および「天気」を受信してよい。この場合、外部サーバ210は、キーワード「今日の」および「天気」に基づいて「今日の天気は・・・」のようなテキスト情報を生成し、再びクラウド人工知能プラットフォーム320に生成されたテキスト情報を送信してよい。ここで、クラウド人工知能プラットフォーム320は、テキスト情報を音声で合成して外部サーバ210に提供してよい。外部サーバ210は、合成された音声を電子機器100に送信してよく、電子機器100は、合成された音声「今日の天気は・・・」をスピーカから出力することにより、ユーザ110から受信した音声入力「今日の天気」が処理されてよい。   The extension kit 350 may provide a development kit that allows a third-party content developer or company to realize a new voice infrastructure function based on the cloud artificial intelligence platform 320. For example, in the embodiment of FIG. 2, the electronic device 100 may transmit the received voice input of the user 110 to the external server 210, and the external server 210 transmits the cloud artificial intelligence platform 320 through an API provided from the extension kit 350. Voice input may be sent to In this case, as described above, the cloud artificial intelligence platform 320 recognizes and analyzes the received voice input, synthesizes and provides an appropriate response voice, or relates to a function to be processed according to the voice input. Recommendation information may be provided to the external server 210. As an example, in FIG. 2, the external server 210 may send a speech input “Today's weather” to the cloud artificial intelligence platform 320, which is extracted by recognition of the speech input “Today's weather”. The keywords “today” and “weather” may be received. In this case, the external server 210 generates text information such as “Today's weather is ...” based on the keywords “Today” and “Weather”, and the text information generated in the cloud artificial intelligence platform 320 again. May be sent. Here, the cloud artificial intelligence platform 320 may synthesize text information by voice and provide it to the external server 210. The external server 210 may transmit the synthesized voice to the electronic device 100, and the electronic device 100 receives the synthesized voice “Today's weather ...” from the user 110 by outputting from the speaker. The voice input “Today's weather” may be processed.

このとき、電子機器100は、音声入力に対応するデバイス動作やコンテンツ提供のために、本発明の実施形態に係るデバイス制御方法を実行してよい。   At this time, the electronic device 100 may execute the device control method according to the embodiment of the present invention in order to provide device operation corresponding to voice input and content provision.

図4は、本発明の一実施形態における、電子機器およびサーバの内部構成を説明するためのブロック図である。図4の電子機器410は、上述した電子機器100に対応してよく、サーバ420は、上述した外部サーバ210やクラウド人工知能プラットフォーム320を実現する1つのコンピュータ装置に対応してよい。   FIG. 4 is a block diagram for explaining the internal configuration of the electronic device and the server in one embodiment of the present invention. The electronic device 410 of FIG. 4 may correspond to the electronic device 100 described above, and the server 420 may correspond to one computer device that implements the external server 210 and the cloud artificial intelligence platform 320 described above.

電子機器410とサーバ420は、メモリ411、421、プロセッサ412、422、通信モジュール413、423、および入力/出力インタフェース414、424を含んでよい。メモリ411、421は、コンピュータで読み取り可能な記録媒体であって、RAM(random access memory)、ROM(read only memory)、およびディスクドライブのような永久大容量記憶装置(permanent mass storage device)を含んでよい。ここで、ROMとディスクドライブのような永久大容量記憶装置は、メモリ411、421とは区分される別の永久格納装置として電子機器410やサーバ420に含まれてもよい。また、メモリ411、421には、オペレーティングシステム(OS)と、少なくとも1つのプログラムコード(一例として、電気機器410にインストールされて特定のサービスの提供のために電子機器410で駆動するアプリケーションなどのためのコード)が格納されてよい。このようなソフトウェア構成要素は、メモリ411、421とは別のコンピュータで読み取り可能な記録媒体からロードされてよい。このような別のコンピュータで読み取り可能な記録媒体は、フロッピー(登録商標)ドライブ、ディスク、テープ、DVD/CD−ROMドライブ、メモリカードなどのコンピュータで読み取り可能な記録媒体を含んでよい。他の実施形態において、ソフトウェア構成要素は、コンピュータで読み取り可能な記録媒体ではない通信モジュール413、423を通じてメモリ411、421にロードされてもよい。例えば、少なくとも1つのプログラムは、開発者またはアプリケーションのインストールファイルを配布するファイル配布システムがネットワーク430を介して提供するファイルによってインストールされるプログラム(一例として、上述したアプリケーション)に基づいて電子機器410のメモリ411にロードされてよい。   The electronic device 410 and the server 420 may include memories 411 and 421, processors 412 and 422, communication modules 413 and 423, and input / output interfaces 414 and 424. The memories 411 and 421 are computer-readable recording media and include a random access memory (RAM), a read only memory (ROM), and a permanent mass storage device such as a disk drive. It's okay. Here, a permanent mass storage device such as a ROM and a disk drive may be included in the electronic device 410 or the server 420 as another permanent storage device separated from the memories 411 and 421. The memories 411 and 421 include an operating system (OS) and at least one program code (for example, an application installed in the electric device 410 and driven by the electronic device 410 to provide a specific service). May be stored. Such software components may be loaded from a computer-readable recording medium different from the memories 411 and 421. Such another computer-readable recording medium may include a computer-readable recording medium such as a floppy (registered trademark) drive, a disk, a tape, a DVD / CD-ROM drive, and a memory card. In other embodiments, the software components may be loaded into the memories 411 and 421 through the communication modules 413 and 423 that are not computer-readable recording media. For example, the at least one program is based on a program (for example, the application described above) installed by a file distribution system that distributes an installation file of a developer or an application via a network 430. It may be loaded into the memory 411.

プロセッサ412、422は、基本的な算術、ロジック、および入出力演算を実行することにより、コンピュータプログラムの命令を処理するように構成されてよい。命令は、メモリ411、421または通信モジュール413、423によって、プロセッサ412、422に提供されてよい。例えば、プロセッサ412、422は、メモリ411、421のような記録装置に格納されたプログラムコードにしたがって受信される命令を実行するように構成されてよい。   Processors 412, 422 may be configured to process computer program instructions by performing basic arithmetic, logic, and input / output operations. The instructions may be provided to the processors 412, 422 by the memories 411, 421 or the communication modules 413, 423. For example, the processors 412, 422 may be configured to execute instructions received according to program code stored in a recording device such as the memory 411, 421.

通信モジュール413、423は、ネットワーク430を介して電子機器410とサーバ420が互いに通信するための機能を提供してもよく、電子機器410および/またはサーバ420が他の電子機器または他のサーバと通信するための機能を提供してもよい。一例として、電子機器410のプロセッサ412がメモリ411のような記録装置に格納されたプログラムコードにしたがって生成した要求が、通信モジュール213の制御にしたがってネットワーク430を介してサーバ420に伝達されてよい。これとは逆に、サーバ420のプロセッサ422の制御にしたがって提供される制御信号や命令、コンテンツ、ファイルなどが、通信モジュール223とネットワーク430を経て電子機器410の通信モジュール213を通じて電子機器410に受信されてもよい。例えば、通信モジュール213を通じて受信したサーバ420の制御信号や命令、コンテンツ、ファイルなどは、プロセッサ412やメモリ411に伝達されてよく、コンテンツやファイルなどは、電子機器410がさらに含むことのできる格納媒体(上述した永久格納装置)に格納されてよい。   The communication modules 413 and 423 may provide a function for the electronic device 410 and the server 420 to communicate with each other via the network 430, and the electronic device 410 and / or the server 420 may communicate with other electronic devices or other servers. A function for communication may be provided. As an example, a request generated by the processor 412 of the electronic device 410 according to a program code stored in a recording device such as the memory 411 may be transmitted to the server 420 via the network 430 under the control of the communication module 213. On the contrary, control signals, commands, contents, files, etc. provided in accordance with the control of the processor 422 of the server 420 are received by the electronic device 410 through the communication module 223 and the network 430 and the communication module 213 of the electronic device 410. May be. For example, the control signal, command, content, file, and the like of the server 420 received through the communication module 213 may be transmitted to the processor 412 and the memory 411, and the storage medium that the electronic device 410 can further include the content, the file, and the like. (The permanent storage device described above).

入力/出力インタフェース414は、入力/出力装置415とのインタフェースのための手段であってよい。例えば、入力装置は、マイク、キーボード、またはマウスなどの装置を、出力装置は、ディスプレイやスピーカのような装置を含んでよい。他の例として、入力/出力インタフェース414は、タッチスクリーンのように入力と出力のための機能が1つに統合された装置とのインタフェースのための手段であってもよい。入力/出力装置415は、電子機器410と1つの装置で構成されてもよい。また、サーバ420の入力/出力インタフェース424は、サーバ420と連結するかサーバ420が含むことのできる入力または出力のための装置(図示せず)とのインタフェースのための手段であってよい。   Input / output interface 414 may be a means for interfacing with input / output device 415. For example, the input device may include a device such as a microphone, a keyboard, or a mouse, and the output device may include a device such as a display or a speaker. As another example, the input / output interface 414 may be a means for interfacing with a device that integrates functions for input and output, such as a touch screen. The input / output device 415 may be configured by the electronic device 410 and one device. The input / output interface 424 of the server 420 may also be a means for interfacing with an apparatus (not shown) for input or output that may be coupled to or included in the server 420.

また、他の実施形態において、電子機器410およびサーバ420は、図4の構成要素よりも多くの構成要素を含んでもよい。しかし、大部分の従来技術的構成要素を明確に図に示す必要はない。例えば、電子機器410は、上述した入力/出力装置415のうちの少なくとも一部を含むように実現されてもよいし、トランシーバ、GPS(Global Positioning System)モジュール、カメラ、各種センサ、データベースなどのような他の構成要素をさらに含んでもよい。より具体的な例として、電子機器410がスマートフォンである場合、一般的にスマートフォンが含んでいる加速度センサやジャイロセンサ、カメラモジュール、物理的な各種ボタン、タッチパネルを利用したボタン、入力/出力ポート、振動のための振動器などの多様な構成要素が電子機器410にさらに含まれるように実現されてよい。   In other embodiments, electronic device 410 and server 420 may include more components than the components of FIG. However, most prior art components need not be clearly illustrated in the figure. For example, the electronic device 410 may be realized to include at least a part of the input / output device 415 described above, or may be a transceiver, a GPS (Global Positioning System) module, a camera, various sensors, a database, or the like. Other components may also be included. As a more specific example, when the electronic device 410 is a smartphone, generally an acceleration sensor or gyro sensor included in the smartphone, a camera module, various physical buttons, buttons using a touch panel, input / output ports, Various components such as a vibrator for vibration may be further included in the electronic device 410.

本実施形態において、電子機器410は、ユーザの音声入力を受信するためのマイクを入力/出力装置415として基本的に含んでよく、ユーザの音声入力に対応する返答音声やオーディオコンテンツのような音を出力するためのスピーカを入力/出力装置415としてさらに含んでよい。   In the present embodiment, the electronic device 410 may basically include a microphone for receiving the user's voice input as the input / output device 415, and a sound such as a reply voice or audio content corresponding to the user's voice input. May be further included as an input / output device 415.

図5は、本発明の一実施形態における、デバイス制御方法の例を示したフローチャートである。本発明の実施形態に係るデバイス制御方法は、上述した電子機器410のようなコンピュータ装置によって実行されてよい。このとき、電子機器410のプロセッサ412は、メモリ411が含むオペレーティングシステムのコードや少なくとも1つのプログラムのコードによる制御命令(instruction)を実行するように実現されてよい。ここで、プロセッサ412は、電子機器410に格納されたコードが提供する制御命令にしたがい、電子機器410が図5のデバイス制御方法に含まれる段階510〜540を実行するように電子機器410を制御してよい。   FIG. 5 is a flowchart illustrating an example of a device control method according to an embodiment of the present invention. The device control method according to the embodiment of the present invention may be executed by a computer apparatus such as the electronic apparatus 410 described above. At this time, the processor 412 of the electronic device 410 may be implemented so as to execute a control instruction (instruction) based on an operating system code included in the memory 411 or a code of at least one program. Here, the processor 412 controls the electronic device 410 so that the electronic device 410 executes steps 510 to 540 included in the device control method of FIG. 5 according to the control command provided by the code stored in the electronic device 410. You can do it.

段階510で、電子機器410は、音声基盤インタフェースを通じて発話者から音声入力による命令語を受信してよい。例えば、電子機器410は、電子機器410が含むマイクまたは電子機器410と連動するマイクのような音声入力装置を通じてユーザの発話による音声入力を受信してよい。発話者の音声入力を受信する技術は、音声認識に関する周知の技術から当業者が容易に理解できるであろう。   In operation 510, the electronic device 410 may receive a command word by voice input from a speaker through a voice based interface. For example, the electronic device 410 may receive a voice input by a user's utterance through a voice input device such as a microphone included in the electronic device 410 or a microphone linked to the electronic device 410. Techniques for receiving a speaker's voice input will be readily apparent to those skilled in the art from well-known techniques for voice recognition.

段階520で、電子機器410は、発話者の音声入力によって受信した命令語の分析結果、位置判断が必要な場合、音声入力と関連する発話者の位置情報を取得してよい。一例として、電子機器410は、命令語に指示代名詞(例えば、ここ、そこ、あそこ、こちら、そちら、あちら、こっち、そっち、あっち、その場所など)が含まれる場合あるいは命令語が場所や指示対象などが省略された不完全文章で構成される場合、位置判断のための追加的な処理が行われてもよい。したがって、電子機器410は、音声入力による命令語だけでは制御対象位置や制御対象デバイスの特定が難しい場合には、命令語に基づいて発話者の位置情報を追加的に取得してよい。電子機器410は、位置判断に対する推定が必要な場合に音声入力と関連する発話者の位置情報を取得するが、このとき、音声入力と関連する発話者の位置情報は、音声入力の受信と関連する時点または期間に測定される電子機器410に対する発話者の相対的な位置や方向、相対的な位置や方向の変化の有無、および相対的な位置や方向の変化方向のうちの少なくとも1つを含んでよい。   In operation 520, the electronic device 410 may obtain the position information of the speaker related to the voice input when the result of analyzing the command word received by the voice input of the speaker and the position determination is necessary. As an example, the electronic device 410 may include a command pronoun (eg, here, there, over there, here, over there, over there, over there, over there, over there, the location, etc.) In the case where an incomplete sentence is omitted, additional processing for position determination may be performed. Therefore, when it is difficult to specify the position to be controlled and the device to be controlled only by the command word by voice input, the electronic device 410 may additionally acquire the position information of the speaker based on the command word. The electronic device 410 acquires the position information of the speaker related to the voice input when it is necessary to estimate the position determination. At this time, the position information of the speaker related to the voice input is related to the reception of the voice input. At least one of the relative position and direction of the speaker with respect to the electronic device 410 measured at the time or period, the presence / absence of a change in the relative position and direction, and the direction of change in the relative position and direction. May include.

例えば、電子機器410は、音声基盤インタフェースが含む複数のマイクに入力される音声入力の位相偏移(phase shift)に基づいて音声入力と関連する位置情報を取得してよい。複数のマイクに入力される同じ音信号の位相偏移を利用して音信号の発生位置を測定する技術は、ビームフォーミング(beam forming)技術のように周知の技術から当業者が簡単に理解できるであろう。この場合、位置情報が発話者の音声入力によって測定されるため、発話者が特定の方向を向いている必要がなく、発話者の発話の認識が可能な距離以内であれば発話者の位置が制限されることもない。また、音声基盤インタフェース以外の別の装置が電子機器410に追加される必要はなく、発話者の位置情報を取得することが可能となる。   For example, the electronic device 410 may acquire position information related to voice input based on a phase shift of voice input input to a plurality of microphones included in the voice-based interface. A person skilled in the art can easily understand a technique for measuring a generation position of a sound signal by using a phase shift of the same sound signal inputted to a plurality of microphones from a known technique such as a beam forming technique. Will. In this case, since the position information is measured by the voice input of the speaker, the speaker does not need to face a specific direction, and the speaker's position is within a distance that allows the speaker's speech to be recognized. There is no limit. Further, it is not necessary to add another device other than the voice-based interface to the electronic device 410, and it is possible to acquire the position information of the speaker.

実施形態によっては、発話者の位置情報を取得するために、電子機器410がカメラやセンサのような追加装備を含む場合も考慮できるが、音声基盤インタフェースを通じて測定される発話者の位置情報とカメラやセンサのような追加装備を利用して測定される発話者の位置情報が活用されてもよい。カメラおよび/またはセンサを活用する場合、電子機器410は、音声入力が受信する場合のカメラおよび/またはセンサの出力値に基づいて音声入力と関連する位置情報を取得してよい。   In some embodiments, it may be considered that the electronic device 410 includes additional equipment such as a camera or a sensor in order to acquire the speaker's position information. The position information of the speaker measured using additional equipment such as a sensor or a sensor may be used. When utilizing a camera and / or sensor, the electronic device 410 may obtain position information associated with the audio input based on the output value of the camera and / or sensor when the audio input is received.

一例として、電子機器410は、発話者の位置を視覚的に特定するために光学デバイスをポーリングしてよい。カメラのような光学デバイスは、ユーザを識別するための認識ソフトウェア(例えば、顔認識、特徴認識など)を利用してよい。ここで、ポーリングは、光学デバイスで光学情報を取得することに対し、情報を要求するか又は要求せずに情報を受信することを含んでよい。光学デバイスの他にも、発話者の位置を視覚的に特定するために音声デバイスをポーリングすることも可能である。音声ツールは、事前に記録された音声プロファイルに基づいて音声入力による発話者を識別するために使用されてよい。   As an example, the electronic device 410 may poll the optical device to visually locate the speaker. Optical devices such as cameras may utilize recognition software (eg, face recognition, feature recognition, etc.) to identify the user. Here, polling may include receiving information without or requesting information for obtaining optical information with an optical device. In addition to optical devices, it is also possible to poll the audio device to visually locate the speaker. The voice tool may be used to identify a speaker by voice input based on a pre-recorded voice profile.

さらに、電子機器410は、発話者の音声入力による会話脈略やデバイス制御履歴に基づいて音声入力と関連する発話者の位置情報を取得してよい。言い換えれば、電子機器410は、発話者の以前会話の脈略やデバイス制御履歴を把握して発話者の相対的な位置や方向、相対的な位置や方向の変化の有無、および相対的な位置や方向の変化方向のうちの少なくとも1つを含む位置情報を取得してよい。例えば、ここ最近、音声を基盤として動作するインタフェースを通じて料理のレシピに関する質問や料理のためのタイマー設定などの動作履歴があれば、該当の動作を指示した音声入力の会話脈略やデバイス制御履歴に基づき、発話者の現在位置あるいは最近の位置が「台所」であることを推定してよい。   Further, the electronic device 410 may acquire the position information of the speaker related to the voice input based on the conversational strategy and the device control history by the voice input of the speaker. In other words, the electronic device 410 grasps the previous conversation of the speaker and the device control history to determine the relative position and direction of the speaker, whether there is a change in the relative position and direction, and the relative position. Alternatively, position information including at least one of the change directions of the direction may be acquired. For example, recently, if there is an operation history such as a question about a recipe for cooking or a timer setting for cooking through an interface that operates based on voice, it will be included in the conversation strategy and device control history of the voice input instructing the corresponding operation Based on this, it may be estimated that the current position or the latest position of the speaker is “kitchen”.

段階530で、電子機器410は、発話者の音声入力によって受信した命令語に対し、発話者の位置情報に基づいて制御対象デバイスを特定してよい。電子機器410は、音声入力による命令語だけでは制御対象位置や制御対象デバイスの特定が難しい場合には、音声入力と関連する発話者の位置情報を基準として発話者の音声入力に適したデバイスを特定してよい。   In operation 530, the electronic apparatus 410 may identify a control target device based on the position information of the speaker with respect to the command word received by the voice input of the speaker. In the case where it is difficult to specify the control target position and the control target device only by the command word by voice input, the electronic device 410 is a device suitable for the voice input of the speaker based on the position information of the speaker related to the voice input. May be specified.

一例として、電子機器410は、発話者の音声入力によって受信した命令語に指示代名詞が含まれる場合、発話者の位置情報に基づいて制御対象デバイスを特定してよい。例えば、電子機器410は、発話者の音声入力に対応する動作が可能なデバイスのうち、発話者から最も近い位置にあるデバイス、あるいは発話者から最も遠い位置にあるデバイス、あるいは発話者の方向に位置するデバイス、あるいは発話者の方向とは反対の場所に位置するデバイスなどを制御対象デバイスとして特定してよい。一例として、発話者の音声入力によって受信した命令語に「ここ」、「こちら」、「こっち」などのような意味の指示代名詞が含まれる場合には、発話者から最も近い位置にあるデバイスまたは発話者の方向に位置するデバイスを制御対象デバイスとして特定してよい。他の例として、発話者の音声入力によって受信した命令語に「あそこ」、「あちら」、「あっち」などのような意味の指示代名詞が含まれる場合には、発話者から最も遠い位置にあるデバイスまたは発話者の方向とは反対の場所に位置するデバイスを制御対象デバイスとして特定してよい。さらに他の例として、発話者の音声入力によって受信した命令語に「そこ」、「その場所」などのような意味の指示代名詞が含まれる場合には、発話者が最近までいた以前の位置にあるデバイスを制御対象デバイスとして特定してよい。   As an example, when a command pronoun is included in the command word received by the voice input of the speaker, the electronic device 410 may specify the control target device based on the position information of the speaker. For example, the electronic device 410 may be a device that can operate in response to the voice input of a speaker, a device that is closest to the speaker, a device that is farthest from the speaker, or in the direction of the speaker. A device that is located or a device that is located at a location opposite to the direction of the speaker may be specified as the device to be controlled. As an example, if a command word received by voice input of a speaker includes a pronoun meaning such as “here”, “here”, “here”, or the like, the device closest to the speaker or A device located in the direction of the speaker may be specified as a control target device. As another example, when the command word received by the voice input of the speaker includes a pronoun meaning such as “over”, “over”, “over”, etc., it is farthest from the speaker A device located at a location opposite to the direction of the device or the speaker may be specified as the control target device. As another example, if the command word received by the voice input of the speaker includes a pronoun that means “there”, “the place”, etc. A certain device may be specified as a control target device.

他の例として、電子機器410は、発話者の音声入力によって受信した命令語が、場所や指示対象などが省略された不完全文章で構成される場合、発話者の位置情報に基づいて制御対象デバイスを特定してよい。すなわち、電子機器410は、会話脈略から省略された指示対象に対する部分を発話者の位置情報に基づいて推定してよい。このとき、電子機器410は、発話者の音声入力による以前会話の脈略やデバイス制御履歴から推定された発話者の位置情報に基づいて制御対象デバイスを特定してよい。例えば、音声入力「動画をつけて」のように場所や指示対象が省略された命令語の場合には、発話者の音声入力に対応する動作が可能なデバイスのうちから発話者が最近までいた位置にあるデバイスを制御対象デバイスとして特定してよい。   As another example, when the command word received by the voice input of the speaker is composed of an incomplete sentence in which the location or the target object is omitted, the electronic device 410 is controlled based on the position information of the speaker. You may identify the device. That is, the electronic device 410 may estimate a portion corresponding to the instruction target omitted from the conversation pulse based on the position information of the speaker. At this time, the electronic device 410 may specify the control target device based on the location information of the speaker estimated from the previous conversational strategy or the device control history by the voice input of the speaker. For example, in the case of a command word in which the location and the instruction target are omitted, such as voice input “with video”, the speaker has been in the list of devices that can handle the voice input of the speaker until recently. The device at the position may be specified as the control target device.

電子機器410は、発話者の音声入力によって受信した命令語に対応する1つの制御動作に対する制御対象デバイスとして2つ以上のデバイスが特定された場合、デバイス使用パターンやデバイス制御履歴に基づいて発話者の意図に合ったデバイスを選択してよい。電子機器410は、音声入力による命令語だけでは制御対象位置や制御対象デバイスの特定が難しい場合(対象候補が複数存在する場合)、音声入力と関連する発話者の位置情報に基づいて制御対象デバイスを特定する。このとき、複数の制御対象デバイスが特定された場合には、特定されたデバイスのうちからユーザ行動パターン学習に基づいてより適したデバイスを選択してよい。例えば、音声入力「アニメーションキャラクタAの動画をつけて」のような命令語を受信した場合、該当のコンテンツが主に再生されていることを示すデバイス履歴を把握し、履歴が最も多いデバイスを制御対象デバイスとして選定してよい。   When two or more devices are identified as control target devices for one control operation corresponding to the command word received by the voice input of the speaker, the electronic apparatus 410 is based on the device usage pattern and the device control history. You may select a device that suits your intention. When it is difficult to specify a control target position or a control target device only with a command word by voice input (electronic device 410) (when there are a plurality of target candidates), control target device based on the position information of the speaker related to the voice input Is identified. At this time, when a plurality of devices to be controlled are specified, a more suitable device may be selected from the specified devices based on user behavior pattern learning. For example, when a command such as voice input “with animation of animation character A” is received, a device history indicating that the corresponding content is mainly played is grasped, and a device having the largest history is controlled. You may select as a target device.

したがって、電子機器410は、音声入力による命令語だけでは制御対象デバイスの特定が難しい場合には、音声入力と関連する発話者の位置情報に基づいて発話者の意図に合ったデバイスを推定することができる。さらに、電子機器410は、発話者の音声入力による会話脈略を把握するか、デバイス使用パターンまたはデバイス制御履歴を把握することにより、より適した制御対象デバイスを選択することができる。   Therefore, when it is difficult to specify a device to be controlled only by a command word by voice input, the electronic device 410 estimates a device that matches the speaker's intention based on the position information of the speaker related to the voice input. Can do. Furthermore, the electronic device 410 can select a more suitable control target device by grasping the conversational strategy by the voice input of the speaker, or grasping the device usage pattern or the device control history.

段階540で、電子機器410は、発話者の音声入力によって受信した命令語に対応する動作を制御するために、段階530で特定された制御対象デバイスに該当の命令語を伝達してよい。電子機器410は、発話者の意図に合った動作が制御対象デバイスで行われるように、発話者の音声入力による命令語を該当のデバイスに伝達してよい。電子機器410は、発話者の音声入力による命令語を制御対象デバイスに伝達するに先立ち、制御対象の位置や制御対象デバイスの確認、推薦のための情報を音声で出力してよい。例えば、電子機器410は、音声入力「電気を消して」を認識および分析し、位置や対象を特定の情報、例えば「リビングの電気を消しましょうか?」のような確認または推薦音声をスピーカから出力してよく、これにより、音声入力「うん」が受信されることにより、リビングにある照明機器の電源を消すように該当のデバイスに命令を伝達してよい。   In operation 540, the electronic apparatus 410 may transmit the corresponding instruction word to the control target device identified in operation 530 in order to control an operation corresponding to the instruction word received by the voice input of the speaker. The electronic device 410 may transmit a command word based on the voice input of the speaker to the corresponding device so that an operation suitable for the intention of the speaker is performed in the controlled device. The electronic device 410 may output information for confirming and recommending the position of the control target and the control target device before transmitting the command word by the voice input of the speaker to the control target device. For example, the electronic device 410 recognizes and analyzes a voice input “turn off electricity”, and confirms or recommends a specific information such as “Let's turn off the living room?” From a speaker. When the voice input “Yes” is received, an instruction may be transmitted to the corresponding device to turn off the lighting device in the living room.

したがって、電子機器410は、位置や指示対象などが特定されない音声入力に対して発話者の位置を追加的に判断することにより、発話者の意図に合ったデバイス動作やコンテンツ提供を制御することができる。これにより、指示代名詞を利用した発話形態や、位置や指示対象などが省略された発話形態であっても、発話者の位置に基づき、多数のディスプレイや照明、多数のスピーカ、部屋別の温度制御装置など、宅内に存在する同じ機能の複数デバイスに対する選択的な制御が可能となる。   Therefore, the electronic device 410 can control device operation and content provision that match the intention of the speaker by additionally determining the position of the speaker with respect to the voice input in which the position and the instruction target are not specified. it can. As a result, even if the utterance form uses a pronoun, or the utterance form omits the position and the target, etc., the temperature control for each display, lighting, many speakers, and rooms is based on the position of the speaker. It is possible to selectively control a plurality of devices having the same function existing in the house such as an apparatus.

図6〜図7は、本発明の一実施形態における、指示代名詞が含まれた音声入力にしたがって制御対象デバイスを決定する例を示した図である。   6 to 7 are diagrams illustrating an example in which a control target device is determined according to a voice input including a pronoun in one embodiment of the present invention.

図6は、音声基盤インタフェースを含む電子機器410がユーザ110の発話「ここのTVをつけて」を認識および分析し、電子機器410と内部ネットワークを介して連動する宅内TV610の電源を制御する(すなわち、電源をONにする)例を示している。ユーザ110の音声入力「ここのTVをつけて」に指示代名詞「ここ」が含まれているため、位置判断に対する推定が必要となり、これにより、ユーザ110の位置情報を追加的に取得し、これに基づいてユーザ110が意図する制御対象デバイスを選定してよい。   In FIG. 6, the electronic device 410 including the voice-based interface recognizes and analyzes the user 110's utterance “Turn on the TV here” and controls the power supply of the home TV 610 linked with the electronic device 410 via the internal network ( That is, an example is shown in which the power is turned on. Since the pronoun pronoun “here” is included in the voice input “turn on TV here” of the user 110, it is necessary to estimate the position determination, thereby additionally acquiring the position information of the user 110. The control target device intended by the user 110 may be selected based on the above.

指示代名詞によって発話者とデバイス間の位置関係が事前に定められてもよく、例えば、「ここ」、「こちら」、「こっち」などのような意味の指示代名詞が含まれる場合には、発話者から最も近い位置にあるデバイスまたは発話者の方向に位置するデバイスを、「あそこ」、「あちら」、「あっち」などのような意味の指示代名詞が含まれる場合には、発話者から最も遠い位置にあるデバイスまたは発話者の方向とは反対の場所に位置するデバイスを、「そこ」、「その場所」などのような意味の指示代名詞が含まれる場合には、発話者が最近までいた以前位置にあるデバイスを、制御対象デバイスとして特定してよい。   The positional relationship between the speaker and the device may be determined in advance by the demonstrative pronoun. For example, if a demonstrative pronoun with a meaning such as "here", "here", or "here" is included, the speaker If the device located closest to or in the direction of the speaker contains a pronoun that means “over”, “over”, “over”, etc., the position farthest from the speaker If the device is located in a location opposite to the speaker's direction or contains a pronoun that means something like `` There '', `` That location '', etc., the previous location where the speaker was most recently May be specified as a device to be controlled.

電子機器410は、電子機器410と連動する複数の互いに異なるデバイスの位置を管理してよい。ここで、宅内のデバイスの位置は、多様な方式に設定されてよい。例えば、このような位置は、ユーザ110や管理者によって電子機器410に入力および設定されてもよいし、電子機器410が他の電子機器と通信するために送受信する信号の強度などのように周知の位置測位技術を活用して測定されてもよい。モバイル機器の場合には、位置測位技術を活用してその位置が動的に測定されてよい。このとき、電子機器410は、ユーザ110の位置と複数の他のデバイスの位置に基づいて測定されるユーザ110と複数の他の電子機器間の距離をさらに利用して制御対象デバイスを決定してよい。ここで、ユーザ110の位置がユーザ110の発話を基盤として測定されることは、上述したとおりである。   The electronic device 410 may manage the positions of a plurality of different devices that are linked to the electronic device 410. Here, the position of the device in the home may be set in various ways. For example, such a position may be input and set in the electronic device 410 by the user 110 or an administrator, or is well-known such as the strength of a signal that the electronic device 410 transmits / receives to communicate with another electronic device. It may be measured by utilizing the position positioning technique. In the case of a mobile device, the position may be measured dynamically using a positioning technique. At this time, the electronic device 410 further determines the control target device by further using the distance between the user 110 and the plurality of other electronic devices measured based on the position of the user 110 and the positions of the plurality of other devices. Good. Here, as described above, the position of the user 110 is measured based on the utterance of the user 110.

例えば、図6に示すように、ユーザ110がリビングに立って「ここのTVをつけて」を発話した場合、音声入力に指示代名詞「ここ」が含まれることによってユーザ110の位置を推定し、宅内の複数のTVのうちからユーザ110の位置と最も近いリビングにあるTV610を制御対象デバイスとして選択してよい。   For example, as shown in FIG. 6, when the user 110 stands in the living room and utters “Turn on TV here”, the pronoun “here” is included in the voice input to estimate the position of the user 110, The TV 610 in the living room closest to the position of the user 110 may be selected as a control target device from among a plurality of TVs in the house.

他の例として、図7は、音声基盤インタフェースを含む電子機器410がユーザ110の発話「あっちの部屋のエアコンをつけて」を認識および分析し、電子機器410と内部ネットワークを介して連動する宅内温度制御装置710の電源を制御する例を示している。ユーザ110がリビングに立って「あっちの部屋のエアコンをつけて」を発話した場合、音声入力に指示代名詞「あっち」が含まれることによってユーザ110の位置を推定し、宅内温度制御装置のうちからユーザ110の位置と最も遠い部屋にある温度制御装置710を制御対象デバイスとして選択してよい。   As another example, FIG. 7 shows an example in which an electronic device 410 including a voice-based interface recognizes and analyzes the user 110's utterance “turn on an air conditioner in that room” and links the electronic device 410 via an internal network. The example which controls the power supply of the temperature control apparatus 710 is shown. When the user 110 stands in the living room and utters “turn on the air conditioner in that room”, the position of the user 110 is estimated by including the instruction pronoun “that” in the voice input, and the temperature control device in the house 110 The temperature control device 710 in the room farthest from the position of the user 110 may be selected as a control target device.

図8〜図9は、本発明の一実施形態における、位置や指示対象が省略された音声入力にしたがって制御対象デバイスを決定する例を示した図である。   8 to 9 are diagrams illustrating an example in which a control target device is determined according to a voice input in which a position and an instruction target are omitted according to an embodiment of the present invention.

図8は、音声基盤インタフェースを含む電子機器410がユーザ110の発話「動画をつけて」を認識および分析し、電子機器410と内部ネットワークを介して連動する宅内ディスプレイ810を制御する(ONにする、或いは、動画を再生する)例を示している。例えば、ユーザ110が音声基盤インタフェースを通じてレシピに関する質問または料理のためのタイマー設定などの動作をした後、所定の時間以内に「動画をつけて」を発話した場合、以前の音声入力の会話脈略やデバイス制御履歴からユーザ110が台所に位置することを推定し、台所付近に設置されたディスプレイ(例えば、TVや冷蔵庫ディスプレイなど)810に該当のコンテンツを伝達してよい。あるいは、ユーザ110の発話「プルコギのレシピ動画をつけて」に対して発話内容自体の会話脈略を分析し、ユーザ110の位置が台所付近であることを推定することも可能である。   FIG. 8 shows that the electronic device 410 including the voice-based interface recognizes and analyzes the utterance “add video” of the user 110, and controls (turns on) the in-home display 810 linked to the electronic device 410 via the internal network. Or, a moving image is reproduced). For example, when the user 110 utters “with video” within a predetermined time after performing an operation such as a recipe question or setting a timer for cooking through the voice-based interface, the conversational context of the previous voice input Alternatively, it may be estimated that the user 110 is located in the kitchen from the device control history, and the corresponding content may be transmitted to a display (for example, a TV or a refrigerator display) 810 installed near the kitchen. Alternatively, it is also possible to estimate that the position of the user 110 is in the vicinity of the kitchen by analyzing the conversation of the utterance content itself with respect to the utterance of the user 110 “with a recipe video of bulgogi”.

図9を参照すると、ユーザ110が音声基盤インタフェースを通じて台所で料理に関する要求をした後、リビングに戻ってきて「そこの電気を消して」を発話した場合、音声入力に指示代名詞「そこ」が含まれることによってユーザ110の位置を推定し、宅内照明のうちからユーザ110が最近までいた以前位置の照明910を制御対象デバイスとして選択してよい。   Referring to FIG. 9, when the user 110 makes a request for cooking in the kitchen through the voice-based interface and then returns to the living room and utters “Turn off the electricity there”, the voice pronoun “There” is included. Thus, the position of the user 110 may be estimated, and the illumination 910 at the previous position from which the user 110 has been located recently may be selected as the control target device.

図10は、本発明の一実施形態における、ユーザ行動パターン学習に基づいて制御対象デバイスを決定する例を示した図である。   FIG. 10 is a diagram illustrating an example of determining a control target device based on user behavior pattern learning in an embodiment of the present invention.

図10は、音声基盤インタフェースを含む電子機器410がユーザ110の発話「アニメーションキャラクタAの動画をつけて」を認識および分析し、電子機器410と内部ネットワークを介して連動する宅内ディスプレイ1010を制御する例を示している。電子機器410は、ユーザ110の発話「アニメーションキャラクタAの動画をつけて」には位置や指示対象などが省略されているため、ユーザ110の位置を追加的に判断してよく、ユーザ110の位置を基準として制御対象デバイスを選択してよい。例えば、ユーザ110が位置するリビングに動画再生が可能なデバイスとしてTV610とタブレット1010が存在する場合、該当のコンテンツが主に再生されたデバイス履歴を把握し、TV610とタブレット1010のうちから該当の履歴が最も多いデバイスを選定してコンテンツ再生を制御してよい。これと同様に、ユーザ110の発話「ヒップホップをかけて」に対し、ユーザ110の周辺に音声コンテンツ出力が可能なデバイスが複数存在する場合には、該当の音楽ジャンルが主に再生されたデバイス履歴を把握し、該当の履歴が最も多いデバイスを制御対象デバイスとして選定してコンテンツ再生を制御してよい。   FIG. 10 shows that the electronic device 410 including the voice-based interface recognizes and analyzes the user 110's utterance “turn on the animation of the animation character A” and controls the home display 1010 linked to the electronic device 410 via the internal network. An example is shown. The electronic device 410 may additionally determine the position of the user 110 because the position, the instruction target, and the like are omitted from the user 110's utterance “add the animation of the animation character A”. The control target device may be selected based on the above. For example, when a TV 610 and a tablet 1010 exist as devices capable of playing a video in the living room where the user 110 is located, the device history in which the corresponding content is mainly played back is grasped, and the corresponding history from the TV 610 and the tablet 1010 is obtained. The device with the largest number may be selected to control content playback. Similarly, when there are a plurality of devices capable of outputting audio content in the vicinity of the user 110 with respect to the utterance “hip hop” of the user 110, the device in which the corresponding music genre is mainly played back A history may be grasped, and a device with the largest number of corresponding history may be selected as a control target device to control content reproduction.

以上のように、本発明の実施形態によると、発話者の音声入力による命令語にしたがって発話者の位置を追加的に判断した後、命令語に適したデバイスを選定してデバイス動作やコンテンツ提供を制御することができる。特に、命令語に指示代名詞が含まれるか、命令語から位置や指示対象が省略された不完全文章で構成される場合、ユーザの位置を基盤としてユーザ意図に適したデバイスを推定することができると同時に、発話者の音声入力による会話脈略を把握するか、デバイス使用パターンやデバイス制御履歴を把握することにより、ユーザの意図に合ったデバイスを推定することができる。   As described above, according to the embodiment of the present invention, after additionally determining the position of the speaker according to the command word by the voice input of the speaker, a device suitable for the command word is selected to provide device operation and content. Can be controlled. In particular, when a command word includes a command pronoun or is composed of an incomplete sentence in which a position and a command target are omitted from the command word, a device suitable for the user's intention can be estimated based on the user's position. At the same time, it is possible to estimate a device that meets the user's intention by grasping the conversational tactics by the voice input of the speaker or grasping the device usage pattern and the device control history.

上述したシステムまたは装置は、ハードウェア構成要素、ソフトウェア構成要素、またはハードウェア構成要素とソフトウェア構成要素との組み合わせによって実現されてよい。例えば、実施形態で説明された装置および構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ、マイクロコンピュータ、FPGA(field programmable gate array)、PLU(programmable logic unit)、マイクロプロセッサ、または命令を実行して応答することができる様々な装置のように、1つ以上の汎用コンピュータまたは特殊目的コンピュータを利用して実現されてよい。処理装置は、オペレーティングシステム(OS)および前記OS上で実行される1つ以上のソフトウェアアプリケーションを実行してよい。また、処理装置は、ソフトウェアの実行に応答し、データにアクセスし、データを格納、操作、処理、および生成してもよい。理解の便宜のために、1つの処理装置が使用されるとして説明される場合もあるが、当業者は、処理装置が複数個の処理要素および/または複数種類の処理要素を含んでもよいことが理解できるであろう。例えば、処理装置は、複数個のプロセッサまたは1つのプロセッサおよび1つのコントローラを含んでよい。また、並列プロセッサのような、他の処理構成も可能である。   The system or apparatus described above may be realized by a hardware component, a software component, or a combination of a hardware component and a software component. For example, the devices and components described in the embodiments include, for example, a processor, a controller, an ALU (arithmic logic unit), a digital signal processor, a microcomputer, an FPGA (field programmable gate array), a PLU (programmable logic unit), a micro It may be implemented using one or more general purpose or special purpose computers, such as a processor or various devices capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the OS. The processing device may also respond to software execution, access data, and store, manipulate, process, and generate data. For convenience of understanding, one processing device may be described as being used, but those skilled in the art may include a plurality of processing elements and / or multiple types of processing elements. You can understand. For example, the processing device may include a plurality of processors or a processor and a controller. Other processing configurations such as parallel processors are also possible.

ソフトウェアは、コンピュータプログラム、コード、命令、またはこれらのうちの1つ以上の組み合わせを含んでもよく、思うままに動作するように処理装置を構成したり、独立的または集合的に処理装置に命令したりしてよい。ソフトウェアおよび/またはデータは、処理装置に基づいて解釈されたり、処理装置に命令またはデータを提供したりするために、いかなる種類の機械、コンポーネント、物理装置、仮想装置、コンピュータ格納媒体または装置に具現化されてよい。ソフトウェアは、ネットワークによって接続されたコンピュータシステム上に分散され、分散された状態で格納されても実行されてもよい。ソフトウェアおよびデータは、1つ以上のコンピュータで読み取り可能な記録媒体に格納されてよい。   The software may include computer programs, code, instructions, or a combination of one or more of these, configuring the processor to operate as desired, or instructing the processor independently or collectively. You may do it. Software and / or data may be embodied on any type of machine, component, physical device, virtual device, computer storage medium or device to be interpreted based on the processing device or to provide instructions or data to the processing device. May be used. The software may be distributed over computer systems connected by a network and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.

実施形態に係る方法は、多様なコンピュータ手段によって実行可能なプログラム命令の形態で実現されてコンピュータで読み取り可能な媒体に記録されてよい。前記コンピュータで読み取り可能な媒体は、プログラム命令、データファイル、データ構造などを単独でまたは組み合わせて含んでよい。媒体は、コンピュータによって実行可能なプログラムを継続して格納するものであってもよいし、実行またはダウンロードのために臨時格納するものであってもよい。また、媒体は、単一または複数のハードウェアが結合した形態の多様な記録手段または格納手段であってよいが、いずれかのコンピュータシステムに直接接続される媒体に限定されることはなく、ネットワーク上に分散存在するものであってもよい。媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク、および磁気テープのような磁気媒体、CD−ROMおよびDVDのような光媒体、フロプティカルディスク(floptical disk)のような光磁気媒体、およびROM、RAM、フラッシュメモリなどを含んでプログラム命令語が格納されるように構成されたものであってよい。また、他の媒体の例として、アプリケーションを流通するアプリストアや、その他にも多様なソフトウェアを供給あるいは流通するサイト、サーバなどで管理する記録媒体あるいは格納媒体も挙げられる。プログラム命令の例には、コンパイラによって生成されるもののような機械語コードだけではなく、インタプリタなどを使用してコンピュータによって実行される高級言語コードを含む。   The method according to the embodiment may be realized in the form of program instructions executable by various computer means and recorded on a computer-readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. The medium may continuously store a program that can be executed by a computer, or may be temporarily stored for execution or download. The medium may be a variety of recording means or storage means in which a single piece or a plurality of pieces of hardware are combined. However, the medium is not limited to a medium that is directly connected to any computer system. It may be dispersed on the surface. Examples of the medium include a magnetic medium such as a hard disk, a floppy (registered trademark) disk, and a magnetic tape, an optical medium such as a CD-ROM and a DVD, a magneto-optical medium such as a floppy disk, The program instruction word may be stored including ROM, RAM, flash memory and the like. Examples of other media include an application store that distributes applications, a site that supplies or distributes various software, a recording medium that is managed by a server, or a storage medium. Examples of program instructions include not only machine language code such as that generated by a compiler, but also high-level language code executed by a computer using an interpreter or the like.

以上のように、実施形態を、限定された実施形態と図面に基づいて説明したが、当業者であれば、上述した記載から多様な修正および変形が可能であろう。例えば、説明された技術が、説明された方法とは異なる順序で実行されたり、かつ/あるいは、説明されたシステム、構造、装置、回路などの構成要素が、説明された方法とは異なる形態で結合されたりまたは組み合わされたり、他の構成要素または均等物によって対置されたり置換されたとしても、適切な結果を達成することができる。   As mentioned above, although embodiment was described based on limited embodiment and drawing, those skilled in the art will be able to perform various correction and deformation | transformation from the above-mentioned description. For example, the described techniques may be performed in a different order than the described method and / or components of the described system, structure, apparatus, circuit, etc. may be different from the described method. Appropriate results can be achieved even when combined or combined, or opposed or replaced by other components or equivalents.

したがって、異なる実施形態であっても、特許請求の範囲と均等なものであれば、添付される特許請求の範囲に属する。   Accordingly, even different embodiments belong to the appended claims as long as they are equivalent to the claims.

310:電子機器
320:クラウド人工知能プラットフォーム
330:コンテンツ・サービス
340:インタフェースコネクト
350:拡張キット
310: Electronic device 320: Cloud artificial intelligence platform 330: Content service 340: Interface connect 350: Expansion kit

Claims (20)

音声基盤インタフェースを含む電子機器が実行するデバイス制御方法であって、
前記音声基盤インタフェースを通じてユーザの音声入力による命令語を受信する段階、
前記命令語の分析の結果、位置情報が必要な場合、前記音声入力と関連する位置情報を取得する段階、および
前記位置情報を利用して、前記電子機器による制御が可能なデバイスのうち制御対象デバイスを特定し、前記命令語に対応する動作を前記制御対象デバイスに実行させる段階
を含む、デバイス制御方法。
A device control method executed by an electronic device including an audio infrastructure interface,
Receiving a command word by a user's voice input through the voice infrastructure interface;
If position information is required as a result of analysis of the command word, obtaining position information related to the voice input; and using the position information, a control target among devices that can be controlled by the electronic device A device control method comprising: specifying a device and causing the control target device to execute an operation corresponding to the command word.
前記取得する段階は、
前記命令語に指示代名詞が含まれる場合、前記音声入力と関連する位置情報を取得する、
請求項1に記載のデバイス制御方法。
The obtaining step includes
If the command word includes a pronoun, a position information associated with the voice input is acquired.
The device control method according to claim 1.
前記取得する段階は、
前記命令語が場所や指示対象が省略された不完全文章で構成される場合、前記音声入力と関連する位置情報を取得する、
請求項1に記載のデバイス制御方法。
The obtaining step includes
When the command word is composed of an incomplete sentence in which the location and the instruction target are omitted, the position information related to the voice input is acquired.
The device control method according to claim 1.
前記音声入力と関連する位置情報は、
前記音声入力の受信と関連する時点または期間に測定される前記電子機器に対する前記ユーザの相対的な位置や方向、前記相対的な位置や方向の変化の有無、および前記相対的な位置や方向の変化方向のうちの少なくとも1つを含む、
請求項1に記載のデバイス制御方法。
The positional information related to the voice input is
The relative position and direction of the user relative to the electronic device measured at the time or period associated with the reception of the audio input, the presence or absence of a change in the relative position and direction, and the relative position and direction. Including at least one of the changing directions,
The device control method according to claim 1.
前記取得する段階は、
前記音声基盤インタフェースが含む複数のマイクに入力された前記音声入力の位相偏移に基づいて前記音声入力と関連する位置情報を取得する、
請求項1に記載のデバイス制御方法。
The obtaining step includes
Obtaining positional information related to the voice input based on a phase shift of the voice input inputted to a plurality of microphones included in the voice base interface;
The device control method according to claim 1.
前記電子機器は、カメラおよびセンサのうちの少なくとも1つを含み、
前記取得する段階は、
前記音声入力が受信された場合の前記カメラおよびセンサのうちの少なくとも1つの出力値に基づいて前記音声入力と関連する位置情報を取得する、
請求項1に記載のデバイス制御方法。
The electronic device includes at least one of a camera and a sensor,
The obtaining step includes
Obtaining positional information associated with the audio input based on an output value of at least one of the camera and sensor when the audio input is received;
The device control method according to claim 1.
前記取得する段階は、
前記音声入力に該当する会話脈略と前記音声基盤インタフェースによる前記ユーザのデバイス制御履歴のうちの少なくとも1つを把握して前記音声入力と関連する位置情報を取得する、
請求項1に記載のデバイス制御方法。
The obtaining step includes
Grasping at least one of the conversational abbreviation corresponding to the voice input and the device control history of the user by the voice-based interface to acquire position information related to the voice input;
The device control method according to claim 1.
前記特定する段階は、
前記ユーザとデバイスとの間の位置関係を前記指示代名詞により決定し、前記位置関係にしたがい、前記音声入力と関連する位置情報を利用して前記制御対象デバイスを特定する、
請求項2に記載のデバイス制御方法。
The identifying step includes:
The positional relationship between the user and the device is determined by the indicating pronoun, and the device to be controlled is specified using the positional information related to the voice input according to the positional relationship.
The device control method according to claim 2.
前記特定する段階は、
前記音声入力と関連する位置情報と共に、前記音声基盤インタフェースによる前記ユーザのデバイス使用パターンを利用して前記制御対象デバイスを特定する、
請求項1に記載のデバイス制御方法。
The identifying step includes:
Along with the position information related to the voice input, the device to be controlled is specified using the device usage pattern of the user based on the voice-based interface.
The device control method according to claim 1.
前記特定する段階は、
前記命令語に対応する動作を実行することが可能なデバイスが複数存在する場合、前記音声基盤インタフェースによる前記ユーザのデバイス使用パターンを利用して複数のデバイスのうちから使用頻度が相対的に多いデバイスを前記制御対象デバイスとして特定する、
請求項1に記載のデバイス制御方法。
The identifying step includes:
When there are a plurality of devices capable of executing an operation corresponding to the command word, a device having a relatively high frequency of use among a plurality of devices using the user device usage pattern by the voice-based interface Identify the device to be controlled,
The device control method according to claim 1.
請求項1〜10のうちのいずれか一項に記載の方法をコンピュータに実行させるコンピュータプログラム。   The computer program which makes a computer perform the method as described in any one of Claims 1-10. 請求項1〜10のうちのいずれか一項に記載の方法をコンピュータに実行させるためのプログラムが記録されているコンピュータで読み取り可能な記録媒体。   The computer-readable recording medium with which the program for making a computer perform the method as described in any one of Claims 1-10 is recorded. 電子機器であって、
音声基盤インタフェース、および
コンピュータで読み取り可能な命令を実行するように実現される少なくとも1つのプロセッサ
を含み、
前記少なくとも1つのプロセッサは、
前記音声基盤インタフェースを通じてユーザの音声入力による命令語を受信し、
前記命令語の分析の結果、位置情報が必要な場合、前記音声入力と関連する位置情報を取得し、
前記位置情報を利用して、前記電子機器による制御が可能なデバイスのうちから制御対象デバイスを特定し、前記命令語に対応する動作を前記制御対象デバイスに実行させる、
電子機器。
Electronic equipment,
A voice based interface and at least one processor implemented to execute computer readable instructions;
The at least one processor comprises:
Receiving a command word by a user's voice input through the voice base interface;
As a result of the analysis of the command word, if position information is required, position information related to the voice input is acquired,
Using the position information, specify a control target device from devices that can be controlled by the electronic device, and cause the control target device to perform an operation corresponding to the command word.
Electronics.
前記少なくとも1つのプロセッサは、前記音声入力と関連する位置情報を取得するために、
前記命令語に指示代名詞が含まれるか、前記命令語から場所や指示対象が省略された不完全文章で構成される場合、前記音声入力と関連する位置情報を取得する、
請求項13に記載の電子機器。
The at least one processor is configured to obtain location information associated with the voice input.
When the command word includes a pronoun or when the command word is composed of an incomplete sentence in which a location or a command object is omitted from the command word, the position information related to the voice input is acquired.
The electronic device according to claim 13.
前記音声入力と関連する位置情報は、
前記音声入力の受信と関連する時点または期間に測定される前記電子機器に対する前記ユーザの相対的な位置や方向、前記相対的な位置や方向の変化の有無、および前記相対的な位置や方向の変化方向のうちの少なくとも1つを含む、
請求項13に記載の電子機器。
The positional information related to the voice input is
The relative position and direction of the user relative to the electronic device measured at the time or period associated with the reception of the audio input, the presence or absence of a change in the relative position and direction, and the relative position and direction. Including at least one of the changing directions,
The electronic device according to claim 13.
前記少なくとも1つのプロセッサは、前記音声入力と関連する位置情報を取得するために、
前記音声基盤インタフェースが含む複数のマイクに入力された前記音声入力の位相偏移に基づいて前記音声入力と関連する位置情報を取得する、
請求項13に記載の電子機器。
The at least one processor is configured to obtain location information associated with the voice input.
Obtaining positional information related to the voice input based on a phase shift of the voice input inputted to a plurality of microphones included in the voice base interface;
The electronic device according to claim 13.
前記電子機器は、カメラおよびセンサのうちの少なくとも1つを含み、
前記少なくとも1つのプロセッサは、前記音声入力と関連する位置情報を取得するために、
前記音声入力が受信された場合の前記カメラおよびセンサのうちの少なくとも1つの出力値に基づいて前記音声入力と関連する位置情報を取得する、
請求項13に記載の電子機器。
The electronic device includes at least one of a camera and a sensor,
The at least one processor is configured to obtain location information associated with the voice input.
Obtaining positional information associated with the audio input based on an output value of at least one of the camera and sensor when the audio input is received;
The electronic device according to claim 13.
前記少なくとも1つのプロセッサは、前記音声入力と関連する位置情報を取得するために、
前記音声入力に該当する会話脈略と前記音声基盤インタフェースによる前記ユーザのデバイス制御履歴のうちの少なくとも1つを把握して前記音声入力と関連する位置情報を取得する、
請求項13に記載の電子機器。
The at least one processor is configured to obtain location information associated with the voice input.
Grasping at least one of the conversational abbreviation corresponding to the voice input and the device control history of the user by the voice-based interface to acquire position information related to the voice input;
The electronic device according to claim 13.
前記少なくとも1つのプロセッサは、前記音声入力と関連する位置情報を取得するために、
前記命令語に指示代名詞が含まれる場合、前記音声入力と関連する位置情報を取得し、
前記少なくとも1つのプロセッサは、前記制御対象デバイスを特定するために、
前記ユーザとデバイスとの間の位置関係を前記指示代名詞により決定し、前記位置関係にしたがい、前記音声入力と関連する位置情報を利用して前記制御対象デバイスを特定する、
請求項13に記載の電子機器。
The at least one processor is configured to obtain location information associated with the voice input.
If the command word includes a pronoun, the position information associated with the voice input is acquired,
The at least one processor specifies the device to be controlled,
The positional relationship between the user and the device is determined by the indicating pronoun, and the device to be controlled is specified using the positional information related to the voice input according to the positional relationship.
The electronic device according to claim 13.
前記少なくとも1つのプロセッサは、前記制御対象デバイスを特定するために、
前記音声入力と関連する位置情報と共に、前記音声基盤インタフェースによる前記ユーザのデバイス使用パターンを利用して前記制御対象デバイスを特定する、
請求項13に記載の電子機器。
The at least one processor specifies the device to be controlled,
Along with the position information related to the voice input, the device to be controlled is specified using the device usage pattern of the user based on the voice-based interface.
The electronic device according to claim 13.
JP2017157389A 2017-05-15 2017-08-17 Device control method and electronic device Active JP6731894B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020170059846A KR102025391B1 (en) 2017-05-15 2017-05-15 Device control according to user's talk position
KR10-2017-0059846 2017-05-15

Publications (2)

Publication Number Publication Date
JP2018194810A true JP2018194810A (en) 2018-12-06
JP6731894B2 JP6731894B2 (en) 2020-07-29

Family

ID=64565377

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017157389A Active JP6731894B2 (en) 2017-05-15 2017-08-17 Device control method and electronic device

Country Status (2)

Country Link
JP (1) JP6731894B2 (en)
KR (1) KR102025391B1 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110708220A (en) * 2019-09-27 2020-01-17 恒大智慧科技有限公司 Intelligent household control method and system and computer readable storage medium
CN110928764A (en) * 2019-10-10 2020-03-27 中国人民解放军陆军工程大学 Automated mobile application crowdsourcing test report evaluation method and computer storage medium
JP2020094790A (en) * 2018-12-14 2020-06-18 株式会社ノーリツ Hot water supply device
WO2020165933A1 (en) * 2019-02-12 2020-08-20 三菱電機株式会社 Apparatus control device, apparatus control system, apparatus control method, apparatus control program
CN111833862A (en) * 2019-04-19 2020-10-27 佛山市顺德区美的电热电器制造有限公司 Control method of equipment, control equipment and storage medium
WO2020240789A1 (en) * 2019-05-30 2020-12-03 三菱電機株式会社 Speech interaction control device and speech interaction control method
CN112786032A (en) * 2019-11-01 2021-05-11 富泰华工业(深圳)有限公司 Display content control method, device, computer device and readable storage medium
JP2021099378A (en) * 2019-12-19 2021-07-01 東芝ライフスタイル株式会社 Controller
JP2022534692A (en) * 2019-05-24 2022-08-03 エルジー エレクトロニクス インコーポレイティド A method for controlling a device using voice recognition, and a device that implements the same
JP7505704B2 (en) 2019-02-12 2024-06-25 株式会社竹中工務店 Facility control device, facility control system, and facility control method

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102624327B1 (en) * 2019-03-15 2024-01-15 삼성전자주식회사 Method for location inference of IoT device, server and electronic device supporting the same
US11182922B2 (en) 2019-06-05 2021-11-23 Lg Electronics Inc. AI apparatus and method for determining location of user
KR102228549B1 (en) 2019-06-11 2021-03-16 엘지전자 주식회사 Method and apparatus for selecting voice enable device and inteligent computing device for controlling the same
KR20210117488A (en) * 2020-03-19 2021-09-29 삼성전자주식회사 Electronic device and system for processing user input and method thereof
KR20220064768A (en) * 2020-11-12 2022-05-19 삼성전자주식회사 Electronic apparatus and control method thereof
US12087283B2 (en) 2020-11-12 2024-09-10 Samsung Electronics Co., Ltd. Electronic apparatus and controlling method thereof
US11915691B2 (en) 2021-01-19 2024-02-27 Samsung Electronics Co., Ltd. Electronic apparatus and controlling method thereof
KR20230138656A (en) * 2022-03-24 2023-10-05 주식회사 브이터치 Method, system and non-transitory computer-readable recording medium for providing speech recognition trigger
KR20240130969A (en) * 2023-02-23 2024-08-30 삼성전자주식회사 Electronic apparatus for performing sound recognition and method for controlling thereof

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002251235A (en) * 2001-02-23 2002-09-06 Fujitsu Ltd User interface system
JP2002251234A (en) * 2001-02-23 2002-09-06 Fujitsu Ltd Human interface system by plural sensor
JP2004354721A (en) * 2003-05-29 2004-12-16 Shimizu Corp Controller by speech, speech control method, and speech control program
JP2007088803A (en) * 2005-09-22 2007-04-05 Hitachi Ltd Information processor
JP2007121576A (en) * 2005-10-26 2007-05-17 Matsushita Electric Works Ltd Voice operation device
JP2007235613A (en) * 2006-03-01 2007-09-13 Murata Mach Ltd Remote controller
JP2009087074A (en) * 2007-09-28 2009-04-23 Panasonic Electric Works Co Ltd Equipment control system
JP2011071809A (en) * 2009-09-28 2011-04-07 Toshiba Corp Television receiver and method of receiving television broadcasting
JP2014153663A (en) * 2013-02-13 2014-08-25 Sony Corp Voice recognition device, voice recognition method and program
JP2016027688A (en) * 2014-07-01 2016-02-18 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Equipment control method and electric equipment

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100920267B1 (en) * 2007-09-17 2009-10-05 한국전자통신연구원 System for voice communication analysis and method thereof
JP4982807B2 (en) * 2008-03-06 2012-07-25 独立行政法人産業技術総合研究所 Operating method, operating device and program therefor
JP2009223170A (en) * 2008-03-18 2009-10-01 Advanced Telecommunication Research Institute International Speech recognition system
CN104951077A (en) * 2015-06-24 2015-09-30 百度在线网络技术(北京)有限公司 Man-machine interaction method and device based on artificial intelligence and terminal equipment

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002251235A (en) * 2001-02-23 2002-09-06 Fujitsu Ltd User interface system
JP2002251234A (en) * 2001-02-23 2002-09-06 Fujitsu Ltd Human interface system by plural sensor
JP2004354721A (en) * 2003-05-29 2004-12-16 Shimizu Corp Controller by speech, speech control method, and speech control program
JP2007088803A (en) * 2005-09-22 2007-04-05 Hitachi Ltd Information processor
JP2007121576A (en) * 2005-10-26 2007-05-17 Matsushita Electric Works Ltd Voice operation device
JP2007235613A (en) * 2006-03-01 2007-09-13 Murata Mach Ltd Remote controller
JP2009087074A (en) * 2007-09-28 2009-04-23 Panasonic Electric Works Co Ltd Equipment control system
JP2011071809A (en) * 2009-09-28 2011-04-07 Toshiba Corp Television receiver and method of receiving television broadcasting
JP2014153663A (en) * 2013-02-13 2014-08-25 Sony Corp Voice recognition device, voice recognition method and program
JP2016027688A (en) * 2014-07-01 2016-02-18 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Equipment control method and electric equipment

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020094790A (en) * 2018-12-14 2020-06-18 株式会社ノーリツ Hot water supply device
JPWO2020165933A1 (en) * 2019-02-12 2021-03-25 三菱電機株式会社 Device control device, device control system, device control method, and device control program
WO2020165933A1 (en) * 2019-02-12 2020-08-20 三菱電機株式会社 Apparatus control device, apparatus control system, apparatus control method, apparatus control program
JP7505704B2 (en) 2019-02-12 2024-06-25 株式会社竹中工務店 Facility control device, facility control system, and facility control method
CN111833862A (en) * 2019-04-19 2020-10-27 佛山市顺德区美的电热电器制造有限公司 Control method of equipment, control equipment and storage medium
CN111833862B (en) * 2019-04-19 2023-10-20 佛山市顺德区美的电热电器制造有限公司 Control method of equipment, control equipment and storage medium
JP2022534692A (en) * 2019-05-24 2022-08-03 エルジー エレクトロニクス インコーポレイティド A method for controlling a device using voice recognition, and a device that implements the same
JP7335979B2 (en) 2019-05-24 2023-08-30 エルジー エレクトロニクス インコーポレイティド A method for controlling a device using voice recognition, and a device that implements the same
WO2020240789A1 (en) * 2019-05-30 2020-12-03 三菱電機株式会社 Speech interaction control device and speech interaction control method
CN110708220A (en) * 2019-09-27 2020-01-17 恒大智慧科技有限公司 Intelligent household control method and system and computer readable storage medium
CN110928764B (en) * 2019-10-10 2023-08-11 中国人民解放军陆军工程大学 Automated evaluation method for crowdsourcing test report of mobile application and computer storage medium
CN110928764A (en) * 2019-10-10 2020-03-27 中国人民解放军陆军工程大学 Automated mobile application crowdsourcing test report evaluation method and computer storage medium
CN112786032A (en) * 2019-11-01 2021-05-11 富泰华工业(深圳)有限公司 Display content control method, device, computer device and readable storage medium
JP2021099378A (en) * 2019-12-19 2021-07-01 東芝ライフスタイル株式会社 Controller
JP7373386B2 (en) 2019-12-19 2023-11-02 東芝ライフスタイル株式会社 Control device

Also Published As

Publication number Publication date
KR102025391B1 (en) 2019-09-25
KR20180125241A (en) 2018-11-23
JP6731894B2 (en) 2020-07-29

Similar Documents

Publication Publication Date Title
JP6731894B2 (en) Device control method and electronic device
JP6752870B2 (en) Methods and systems for controlling artificial intelligence devices using multiple wake words
KR101949497B1 (en) Method and system for processing user command to provide and adjust operation of device or range of providing contents accoding to analyzing presentation of user speech
JP6567727B2 (en) User command processing method and system for adjusting output volume of sound output based on input volume of received voice input
US20230186915A1 (en) Processing voice commands based on device topology
JP6607999B2 (en) Media selection for providing information in response to voice requests
JP6947687B2 (en) Information provision methods, electronic devices, computer programs and recording media
JP6681940B2 (en) Method and apparatus for actively providing information suitable for user's location and space
JP6573696B2 (en) Multimodal interaction method and system with audio equipment connected to network
KR102209092B1 (en) Method and system for controlling artificial intelligence device using plurality wake up word
JP6920398B2 (en) Continuous conversation function in artificial intelligence equipment
KR20210116897A (en) Method for contolling external device based on voice and electronic device thereof
JP2019091037A (en) Method and system for automatic failure detection of artificial intelligence equipment
KR102255844B1 (en) Method and apparatus for providing appropriate information for location and space of user actively
GB2567067A (en) Processing voice commands based on device topology
KR102152334B1 (en) Method and system for filtering sound source
KR20180129729A (en) Method and system for multi-modal interaction with acoustic apparatus connected with network

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181101

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190618

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200323

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200609

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200707

R150 Certificate of patent or registration of utility model

Ref document number: 6731894

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350