JP2018206385A - Method and device for actively providing information suitable for position and space for user - Google Patents

Method and device for actively providing information suitable for position and space for user Download PDF

Info

Publication number
JP2018206385A
JP2018206385A JP2018104651A JP2018104651A JP2018206385A JP 2018206385 A JP2018206385 A JP 2018206385A JP 2018104651 A JP2018104651 A JP 2018104651A JP 2018104651 A JP2018104651 A JP 2018104651A JP 2018206385 A JP2018206385 A JP 2018206385A
Authority
JP
Japan
Prior art keywords
user
information
space
electronic device
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018104651A
Other languages
Japanese (ja)
Other versions
JP6681940B2 (en
Inventor
ミョンス シン
Myeongsoo Shin
ミョンス シン
セジン チャ
Seijin Cha
セジン チャ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Z Intermediate Global Corp
Naver Corp
Original Assignee
Line Corp
Naver Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Line Corp, Naver Corp filed Critical Line Corp
Publication of JP2018206385A publication Critical patent/JP2018206385A/en
Application granted granted Critical
Publication of JP6681940B2 publication Critical patent/JP6681940B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/06Systems determining the position data of a target
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/2803Home automation networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Remote Sensing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Automation & Control Theory (AREA)
  • Otolaryngology (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide a method and a device for actively providing information suitable for the position and the space of a user.SOLUTION: An information providing device 420 includes at least one processor 422, which realizes execution of a command that a sound-based input/output interface and a computer can read. The at least one processor 422 determines the space where a user is positioned from a plurality of spaces and interprets a sound request of the user received by the sound-based input/output interface on the basis of the determined space. Alternatively, the processor provides the user with the information actively determined by the at least one processor 422 on the basis of the determined space via the sound-based input/output interface 424.SELECTED DRAWING: Figure 4

Description

以下の説明は、ユーザの位置及び空間に適した情報を能動的に提供する方法及び装置、並びにコンピュータと結合して本発明の実施形態に係る情報提供方法をコンピュータに実行させるコンピュータプログラムとそのコンピュータプログラムを格納する記録媒体に関する。   The following description is directed to a method and apparatus for actively providing information suitable for the position and space of a user, a computer program that causes a computer to execute an information providing method according to an embodiment of the present invention in combination with a computer, and the computer The present invention relates to a recording medium for storing a program.

ホームネットワークサービスの人工知能スピーカのように音声を基盤として動作するインタフェースは、マイク(microphone)でユーザの音声要請を受信し、音声要請に対応する応答情報を提供するために返答音声を合成してスピーカから提供し、あるいは応答情報として音楽コンテンツのようなオーディオコンテンツを提供することができる。例えば特許文献1は、ホームメディアデバイス及びこれを利用したホームネットワークシステムと方法に関する技術であって、移動通信網の他にWi-Fiのような第2通信網を利用してホームネットワークサービスを提供することが可能であり、ホーム内の複数のマルチメディア機器を、ユーザがボタン操作しなくても、音声命令に基づいてマルチコントロールすることができる技術について開示している。   An interface that operates based on voice, such as an artificial intelligence speaker of a home network service, receives a user's voice request through a microphone and synthesizes a reply voice to provide response information corresponding to the voice request. Audio content such as music content can be provided from a speaker or as response information. For example, Patent Document 1 is a technology related to a home media device and a home network system and method using the same, and provides a home network service using a second communication network such as Wi-Fi in addition to a mobile communication network. A technique is disclosed in which a plurality of multimedia devices in a home can be multi-controlled based on a voice command without a user operating a button.

このようなホームネットワークサービスでは、ユーザの音声要請の応答として最適な情報を提供するために、室内の構造と人工知能スピーカのような機器が位置する空間に関する情報、ユーザが位置する空間に関する情報などを把握する必要がある。しかし、従来技術では、カメラで撮影したイメージを分析して室内の構造を把握したり、機器の位置する空間に関する情報及び位置をユーザが直接手動で入力したりしなければならなかった。さらに、カメラで撮影したイメージを活用して空間を自動で把握したとしても、カメラからは機器が配置された周辺空間のイメージしか得ることができず、このような空間の種類(一例として、リビング、キッチン、寝室、玄関など)のような情報はユーザが指定しなければならないという煩わしさがあった。これだけでなく、機器が位置変更した場合には、設定された空間や位置に関する情報をユーザが手動で再設定しなければならないという問題も抱えていた。   In such a home network service, in order to provide optimal information as a response to the user's voice request, information on the indoor structure and the space in which a device such as an artificial intelligence speaker is located, information on the space in which the user is located, etc. Need to figure out. However, in the prior art, the image taken by the camera must be analyzed to grasp the indoor structure, and the user must manually input information and position regarding the space where the device is located. Furthermore, even if the image captured by the camera is used to automatically grasp the space, the camera can only obtain an image of the surrounding space where the device is placed. , Kitchen, bedroom, entrance, etc.), the user has to specify the information. In addition to this, when the position of the device is changed, there is a problem that the user has to manually reset the information regarding the set space and position.

韓国公開特許第10−2011−0139797号公報Korean Published Patent No. 10-2011-0139797

室内の区画された空間の中からユーザが位置する空間を決定することができ、ユーザの位置する空間に適した情報を提供することができる情報提供方法及び装置、並びにコンピュータと結合して本発明の実施形態に係る情報提供方法をコンピュータに実行させるためにコンピュータで読み取り可能な記録媒体に格納されたコンピュータプログラムとその記録媒体を提供する。   The present invention can be combined with an information providing method and apparatus capable of determining a space where a user is located from among partitioned spaces in a room and providing information suitable for the space where the user is located, and a computer. In order to cause a computer to execute the information providing method according to the embodiment, a computer program stored in a computer-readable recording medium and the recording medium are provided.

ユーザからの設定入力がなくても、室内の区画された空間を測位し、空間それぞれの種類を決定することができ、空間の種類とユーザの状況、及び/又は行動パターンに基づいて空間別にユーザコンテキストと関連性の高い情報/コンテンツを提供することにより、情報提供の有用性を向上させることができる情報提供方法及び装置、並びにコンピュータと結合して本発明の実施形態に係る情報提供方法をコンピュータに実行させるコンピュータプログラムとそのコンピュータプログラムを格納する記録媒体を提供する。   Even if there is no setting input from the user, it is possible to position the partitioned space in the room and determine the type of each space, and to determine the type of each space based on the type of the space, the user's situation, and / or the action pattern. Information providing method and apparatus capable of improving usefulness of information provision by providing information / content highly relevant to context, and information providing method according to an embodiment of the present invention combined with a computer There are provided a computer program to be executed and a recording medium for storing the computer program.

本発明の一態様では、音声基盤の入力/出力インタフェース、及びコンピュータで読み取り可能な命令を実行するように実現される少なくとも1つのプロセッサを含み、少なくとも1つのプロセッサは、複数の空間の中からユーザが位置する空間を決定し、決定された空間に基づいて音声基盤の入力/出力インタフェースで受信されるユーザの音声要請を解釈するか、又は決定された空間に基づいて少なくとも1つのプロセッサで能動的に決定される情報を、音声基盤の入力/出力インタフェースを通じてユーザに提供することを特徴とする、情報提供装置を提供する。   One aspect of the invention includes a voice-based input / output interface and at least one processor implemented to execute computer readable instructions, the at least one processor being a user from among a plurality of spaces. Determines the space in which the user is located and interprets the user's voice request received at the voice based input / output interface based on the determined space or is active in at least one processor based on the determined space The information providing apparatus is characterized in that information determined by the user is provided to a user through an audio-based input / output interface.

本発明の別の態様では、情報提供装置の情報提供方法であって、複数の空間の中からユーザが位置する空間を決定する段階、及び情報提供装置に含まれる音声基盤の入力/出力インタフェースで受信されるユーザの音声要請を解釈するか、又は決定された空間に基づいて能動的に決定される情報を、音声基盤の入力/出力インタフェースを通じてユーザに提供する段階を含むことを特徴とする、情報提供方法を提供する。   In another aspect of the present invention, there is provided an information providing method for an information providing apparatus, comprising: determining a space where a user is located from a plurality of spaces; and an audio-based input / output interface included in the information providing apparatus. Interpreting a received voice request of a user or including providing information to a user through a voice-based input / output interface, which is actively determined based on the determined space, Provide information provision methods.

本発明の別の態様では、情報提供方法をコンピュータに実行させるためのコンピュータプログラムが記録されていることを特徴とする、コンピュータで読み取り可能な記録媒体を提供する。   In another aspect of the present invention, there is provided a computer-readable recording medium in which a computer program for causing a computer to execute the information providing method is recorded.

本発明の別の態様では、コンピュータと結合して情報提供方法をコンピュータに実行させる、コンピュータプログラムを提供する。   In another aspect of the present invention, a computer program is provided that causes a computer to execute an information providing method in combination with a computer.

本発明によれば、室内の区画された空間の中からユーザが位置する空間を決定することができ、ユーザが位置する空間に適した情報を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the space where a user is located can be determined from the indoor partitioned space, and the information suitable for the space where a user is located can be provided.

本発明によれば、ユーザから設定入力がなくても、室内の区画された空間を測位し、空間それぞれの種類を決定することができ、空間の種類とユーザの状況、及び/又は行動パターンに基づいて空間別にユーザコンテキストと関連性の高い情報/コンテンツを提供することにより、情報提供の有用性を向上させることができる。   According to the present invention, even if there is no setting input from the user, it is possible to position the partitioned space in the room and determine the type of each space, and to determine the type of space and the user's situation and / or behavior pattern. By providing information / content that is highly relevant to the user context for each space, it is possible to improve the usefulness of information provision.

本発明の一実施形態における、音声基盤のインタフェースを活用したサービス環境の例を示した図である。It is the figure which showed the example of the service environment using the voice-based interface in one Embodiment of this invention. 本発明の一実施形態における、音声基盤のインタフェースを活用したサービス環境の他の例を示した図である。It is the figure which showed the other example of the service environment using the voice-based interface in one Embodiment of this invention. 本発明の一実施形態における、クラウド人工知能プラットフォームの例を示した図である。It is the figure which showed the example of the cloud artificial intelligence platform in one Embodiment of this invention. 本発明の一実施形態における、電子機器及びサーバの内部構成を説明するためのブロック図である。It is a block diagram for demonstrating the internal structure of the electronic device and server in one Embodiment of this invention. 本発明の一実施形態における、室内の区画された空間と位置に関する情報の例を示した図である。It is the figure which showed the example of the information regarding the indoor partitioned space and position in one Embodiment of this invention. 本発明の一実施形態における、単一機器で物理的空間を把握する例を示した図である。It is the figure which showed the example which grasps | ascertains physical space with the single apparatus in one Embodiment of this invention. 本発明の一実施形態における、複数のサブ機器を活用して物理的空間を把握する例を示した図である。It is the figure which showed the example which grasps | ascertains physical space using several sub apparatus in one Embodiment of this invention. 本発明の一実施形態における、複数の出力メディアから情報を提供する例を示した図である。It is the figure which showed the example which provides information from several output media in one Embodiment of this invention. 本発明の一実施形態における、出力メディアに関する情報の例を示した図である。It is the figure which showed the example of the information regarding an output medium in one Embodiment of this invention. 本発明の一実施形態における、電子機器の情報提供方法の例を示したフローチャートである。It is the flowchart which showed the example of the information provision method of the electronic device in one Embodiment of this invention. 本発明の一実施形態における、ユーザが位置する空間を決定する方法の例を示したフローチャートである。6 is a flowchart illustrating an example of a method for determining a space in which a user is located according to an exemplary embodiment of the present invention. 本発明の一実施形態における、ユーザが位置する空間を決定する方法の他の例を示したフローチャートである。It is the flowchart which showed the other example of the method of determining the space where a user is located in one Embodiment of this invention. 本発明の一実施形態における、ユーザの状況及び/又は行動を予測し、予測した状況及び/又は行動に基づいて情報を提供する方法の例を示したフローチャートである。6 is a flowchart illustrating an example of a method for predicting a user's situation and / or behavior and providing information based on the predicted situation and / or behavior in an embodiment of the present invention.

以下、実施形態について、添付の図面を参照しながら詳しく説明する。   Hereinafter, embodiments will be described in detail with reference to the accompanying drawings.

本発明の実施形態に係る情報提供装置は、音声を基盤として動作するインタフェースを提供する電子機器によって実現されてよい。このような電子機器は、音声要請を直接に処理して応答情報を生成するか、別途のインタフェースコネクトを介して連結する外部プラットフォームによって音声要請を認識及び分析して処理してよい。例えば外部プラットフォームは、電子機器からユーザの音声要請を受信し、受信した音声要請を分析してユーザの意図に適したクエリ又は該当のクエリに対応する応答情報を生成するクラウド人工知能プラットフォームを含んでよい。このとき、電子機器は、室内に区画された複数の空間の中からユーザが位置する空間を決定してよく、このようなユーザの位置する空間に応じてユーザに能動的に情報を提供してよい。例えば電子機器は、ユーザの音声要請とは関係なくユーザが位置する空間に適した情報を提供し、ユーザの音声要請に対する返答を提供する過程において、ユーザが位置する空間に適した情報を追加でさらに提供してよい。他の例として、電子機器は、ユーザの位置する空間に応じて、ユーザの同じ音声要請を異なるように解釈してもよく、ユーザの音声要請に対する認識エラーを訂正してもよい。   The information providing apparatus according to the embodiment of the present invention may be realized by an electronic device that provides an interface that operates based on voice. Such an electronic device may directly process the voice request to generate response information, or may recognize and analyze the voice request by an external platform connected through a separate interface connect. For example, the external platform includes a cloud artificial intelligence platform that receives a user's voice request from an electronic device, analyzes the received voice request, and generates response information corresponding to the user's intention or corresponding query. Good. At this time, the electronic device may determine a space where the user is located from a plurality of spaces partitioned in the room, and actively provides information to the user according to the space where the user is located. Good. For example, the electronic device provides information suitable for the space in which the user is located regardless of the user's voice request, and adds information suitable for the space in which the user is located in the process of providing a response to the user's voice request. Further may be provided. As another example, the electronic device may interpret the same voice request of the user differently according to the space where the user is located, and may correct a recognition error for the voice request of the user.

本発明の実施形態に係る情報提供方法は、上述した電子機器によって実行されてよい。このとき、電子機器には、本発明の一実施形態に係るコンピュータプログラムがインストール及び駆動されてよく、電子機器は、駆動するコンピュータプログラムの制御に従って本発明の一実施形態に係る情報提供方法を実行してよい。上述したコンピュータプログラムは、コンピュータで実現される電子機器と結合して情報提供方法をコンピュータに実行させるためにコンピュータで読み取り可能な記録媒体に格納されてよい。   The information providing method according to the embodiment of the present invention may be executed by the electronic device described above. At this time, the computer program according to the embodiment of the present invention may be installed and driven in the electronic device, and the electronic device executes the information providing method according to the embodiment of the present invention in accordance with the control of the computer program to be driven. You can do it. The computer program described above may be stored in a computer-readable recording medium so that the computer can execute an information providing method in combination with an electronic device realized by the computer.

図1は、本発明の一実施形態における、音声基盤のインタフェースを活用したサービス環境の例を示した図である。図1の実施形態では、スマートホーム(smart home)やホームネットワークサービスのように宅内の機器を連結して制御する技術において、音声基盤のインタフェース(一例として、マイクとスピーカ)を含む電子機器100が、ユーザ110の発話「電気を消して」121をマイクで受信することによって音声要請を認識及び分析し、「リビングの電気を消しましょうか?」122のような応答情報をスピーカから出力する例を示している。さらに、図1の実施形態では、応答情報に対応するユーザ110の発話「うん」123に従って受信される音声要請を認識及び分析し、電子機器100と内部ネットワークを介して連動する宅内照明機器130のライト電源を制御する例を示している。   FIG. 1 is a diagram showing an example of a service environment using a voice-based interface in an embodiment of the present invention. In the embodiment of FIG. 1, in a technology for connecting and controlling home devices such as a smart home and a home network service, an electronic device 100 including an audio-based interface (for example, a microphone and a speaker) is provided. An example of recognizing and analyzing a voice request by receiving the user 110's utterance “turn off electricity” 121 with a microphone and outputting response information such as “let's turn off the living room electricity?” 122 from the speaker. Show. Further, in the embodiment of FIG. 1, the home lighting device 130 that recognizes and analyzes the voice request received according to the utterance “Yes” 123 of the user 110 corresponding to the response information and is linked to the electronic device 100 via the internal network. The example which controls a light power supply is shown.

ここで、宅内の機器は、上述した宅内照明機器130の他にも、IPTV、PC(Personal Computer)、周辺機器、エアコン、冷蔵庫、ロボット清掃機などのような家電製品はもちろん、水道、電気、冷暖房機器などのようなエネルギー消費装置、ドアロックや監視カメラなどのような保安機器など、オンライン上で連結して制御可能な多様な機器を含んでよい。また、内部ネットワークは、イーサネット(Ethernet)(登録商標)、HomePNA、IEEE 1394のような有線ネットワーク技術、ブルートゥース(Bluetooth)(登録商標)、UWB(ultra Wide Band)、ジグビー(ZigBee)(登録商標)、Wireless 1394、Home RFのような無線ネットワーク技術などが活用されてよい。   Here, in addition to the above-described home lighting device 130, home appliances include home appliances such as IPTV, PC (Personal Computer), peripheral devices, air conditioners, refrigerators, robot cleaners, water supply, electricity, It may include various devices that can be connected and controlled on-line, such as energy consuming devices such as air-conditioning devices, and security devices such as door locks and surveillance cameras. In addition, the internal network includes wired network technologies such as Ethernet (registered trademark), HomePNA, IEEE 1394, Bluetooth (registered trademark), UWB (ultra Wide Band), and ZigBee (registered trademark). Wireless network technologies such as Wireless 1394 and Home RF may be used.

電子機器100は、宅内の機器のうちの1つであってよい。例えば電子機器100は、宅内に備えられた人工知能スピーカやロボット清掃機などのような機器のうちの1つであってよい。また、電子機器100は、スマートフォン(smart phone)、携帯電話、ノート型パンコン、デジタル放送用端末、PDA(Personal Digital Assistants)、PMP(Portable Multimedia Player)、タブレットなどのようなユーザ110のモバイル機器であってもよい。このように、電子機器100は、ユーザ110の音声要請を受信して宅内の機器を制御するために宅内の機器と連結可能な機能を含む機器であれば、特に制限されることはない。また、実施形態によっては、上述したユーザ110のモバイル機器が宅内の機器として含まれてもよい。   The electronic device 100 may be one of home devices. For example, the electronic device 100 may be one of devices such as an artificial intelligence speaker and a robot cleaner provided in the house. The electronic device 100 is a mobile device of the user 110 such as a smart phone, a mobile phone, a notebook type pancon, a digital broadcasting terminal, a PDA (Personal Digital Assistant), a PMP (Portable Multimedia Player), and a tablet. There may be. As described above, the electronic device 100 is not particularly limited as long as the electronic device 100 includes a function that can be connected to a home device in order to receive the voice request of the user 110 and control the home device. In addition, depending on the embodiment, the mobile device of the user 110 described above may be included as a home device.

応答情報は、図1の実施形態のように、基本的に音声基盤インタフェースに対応するメインメディア(一例として、電子機器100が含むスピーカ)から出力されてよいが、上述したように、本発明の実施形態において、応答情報は、さらに多様なメディアから出力されてもよく、電子機器100は、音声要請及び/又は応答情報に応じて応答情報が出力されるメディアを決定してよい。例えば図1は、IPTV140とユーザ110のモバイル機器150をさらに示している。この場合、応答情報は、IPTV140やモバイル機器150のディスプレイから視覚的にユーザ110に出力されてよい。このとき、電子機器100は、応答情報を出力するためのメディアの決定はもちろん、聴覚的出力と視覚的出力の効率性に基づいて応答情報を出力するためのメディアを決定してよい。   The response information may be output from a main medium (as an example, a speaker included in the electronic device 100) basically corresponding to the voice-based interface as in the embodiment of FIG. 1, but as described above, In the embodiment, the response information may be output from various media, and the electronic device 100 may determine a medium on which the response information is output according to the voice request and / or the response information. For example, FIG. 1 further shows the IPTV 140 and the mobile device 150 of the user 110. In this case, the response information may be visually output to the user 110 from the display of the IPTV 140 or the mobile device 150. At this time, the electronic device 100 may determine the medium for outputting the response information based on the efficiency of the audio output and the visual output as well as the medium for outputting the response information.

図2は、本発明の一実施形態における、音声基盤のインタフェースを活用したサービス環境の他の例を示した図である。図2は、音声基盤インタフェースを含む電子機器100がユーザ110の発話「今日の天気」210を認識及び分析し、外部ネットワークを介して外部サーバ220から今日の天気に関する情報を取得し、取得した情報を「今日の天気は・・・」230のように音声で合成して出力する例を示している。例えば外部ネットワークは、PAN(personal area network)、LAN(local area network)、CAN(campus area network)、MAN(metropolitan area network)、WAN(wide area network)、BBN(broadband network)、インターネットなど、ネットワークのうちの1つ以上の任意のネットワークを含んでよい。   FIG. 2 is a diagram illustrating another example of a service environment using a voice-based interface according to an embodiment of the present invention. FIG. 2 shows that the electronic device 100 including the voice-based interface recognizes and analyzes the utterance “Today's weather” 210 of the user 110, acquires information about today's weather from the external server 220 via the external network, and acquires the acquired information. Shows an example of synthesizing with voice and outputting, such as “Today's weather is ...” 230. For example, the external network includes a PAN (personal area network), a LAN (local area network), a MAN (metropolitan area network, etc.), a WAN (wide area network, etc.), a WAN (wide area network, etc.), and a WAN (wide area network, etc.). Any one or more of the networks may be included.

図2の実施形態でも、電子機器100は、宅内の機器のうちの1つであるか、ユーザ110のモバイル機器のうちの1つであってよく、ユーザ110の音声要請を受信して処理するための機能と、外部ネットワークを介して外部サーバ220と通信して外部サーバ220が提供するサービスやコンテンツをユーザ110に提供するための機能を含む機器であれば、特に制限されることはない。このように、本発明の実施形態に係る電子機器100は、ユーザ110の発話に従って受信される音声要請を音声基盤のインタフェースによって処理することのできる機器であれば、特に制限されることはない。例えば電子機器100は、ユーザの音声要請を直接に認識及び分析して音声要請を処理してもよいが、実施形態によっては、電子機器100と連係する外部のプラットフォーム(一例として、上述したクラウド人工知能プラットフォーム)によって音声要請を処理してもよい。   Also in the embodiment of FIG. 2, the electronic device 100 may be one of the devices in the home or one of the mobile devices of the user 110, and receives and processes the voice request of the user 110. And a function including a function for communicating with the external server 220 via an external network and a service or content provided by the external server 220 to the user 110 is not particularly limited. As described above, the electronic device 100 according to the embodiment of the present invention is not particularly limited as long as the electronic device 100 can process a voice request received according to the utterance of the user 110 using a voice-based interface. For example, the electronic device 100 may directly recognize and analyze the user's voice request and process the voice request. However, depending on the embodiment, the electronic device 100 may include an external platform linked to the electronic device 100 (for example, the above-described cloud artificial Voice requests may be processed by an intelligence platform.

このとき、電子機器100は、ユーザの音声要請に対応する応答情報を出力するためのメディアを音声要請及び/又は応答情報に基づいて自動で決定してよい。図2では、電子機器100が応答情報を「今日の天気は・・・」230のように聴覚的に出力すると同時に、IPTV140のディスプレイから視覚的にも出力する例を示している。このために、電子機器100は、応答情報の出力が可能な複数のメディアに関する情報を管理してよく、音声要請及び/又は応答情報に基づいて複数のメディアの中から応答情報を出力するための少なくとも1つのメディアを選択し、応答情報を伝達してよい。   At this time, the electronic device 100 may automatically determine a medium for outputting response information corresponding to the user's voice request based on the voice request and / or response information. FIG. 2 shows an example in which the electronic device 100 outputs the response information audibly such as “Today's weather is ...” 230 and at the same time visually output from the display of the IPTV 140. To this end, the electronic device 100 may manage information on a plurality of media that can output response information, and output response information from the plurality of media based on the voice request and / or response information. At least one medium may be selected and response information communicated.

図3は、本発明の一実施形態における、クラウド人工知能プラットフォームの例を示した図である。図3は、電子機器310とクラウド人工知能プラットフォーム320、及びコンテンツ・サービス330を示している。   FIG. 3 is a diagram illustrating an example of a cloud artificial intelligence platform according to an embodiment of the present invention. FIG. 3 shows an electronic device 310, a cloud artificial intelligence platform 320, and a content service 330.

一例として、電子機器310は、宅内に備えられる機器を意味してよく、少なくとも上述した電子機器100を含んでよい。このような電子機器310や電子機器310にインストール及び駆動されるアプリケーション(以下、アプリとする)は、インタフェースコネクト340を介してクラウド人工知能プラットフォーム320と連係してよい。ここで、インタフェースコネクト340は、電子機器310や電子機器310にインストール及び駆動されるアプリの開発のためのソフトウェア開発キット(SDK:Software Development Kit)及び/又は開発文書を開発者に提供してよい。また、インタフェースコネクト340は、電子機器310や電子機器310にインストール及び駆動されるアプリが、クラウド人工知能プラットフォーム320によって提供される機能を活用することを可能にするAPI(Application Program Interface)を提供してよい。具体的な例として、開発者がインタフェースコネクト340によって提供されるSDK及び/又は開発文書を利用して開発した機器やアプリは、インタフェースコネクト340によって提供されるAPIを利用してクラウド人工知能プラットフォーム320によって提供される機能を活用することを可能にする。   As an example, the electronic device 310 may mean a device provided in a home, and may include at least the electronic device 100 described above. Such an electronic device 310 or an application installed and driven on the electronic device 310 (hereinafter referred to as an application) may be linked to the cloud artificial intelligence platform 320 via the interface connect 340. Here, the interface connect 340 may provide the developer with a software development kit (SDK) and / or development document for developing the electronic device 310 or an application installed and driven in the electronic device 310. . In addition, the interface connect 340 provides an application program interface (API) that allows the electronic device 310 or an application installed and driven to the electronic device 310 to utilize the functions provided by the cloud artificial intelligence platform 320. It's okay. As a specific example, a device or application developed by a developer using an SDK and / or development document provided by the interface connect 340 may be used for the cloud artificial intelligence platform 320 using the API provided by the interface connect 340. Allows you to take advantage of the functionality provided by.

ここで、クラウド人工知能プラットフォーム320は、音声基盤のサービスを提供するための機能を提供してよい。例えばクラウド人工知能プラットフォーム320は、受信された音声を認識し、出力される音声を合成するための音声処理モジュール321、受信された映像や動画を分析して処理するためのビジョン処理モジュール322、受信された音声に従って適した音声を出力するために適切な対話を決定するための対話処理モジュール323、受信された音声に適した機能を推薦するための推薦モジュール324、人工知能がデータ学習によって文章単位で言語を翻訳するように支援するニューラル機械翻訳(Neural Machine Translation:NMT)325などのように、音声基盤サービスを提供するための多様なモジュールを含んでよい。   Here, the cloud artificial intelligence platform 320 may provide a function for providing a voice-based service. For example, the cloud artificial intelligence platform 320 recognizes received speech and synthesizes output speech, an audio processing module 321, a vision processing module 322 for analyzing and processing received video and moving images, and receiving A dialogue processing module 323 for determining an appropriate dialogue in order to output a suitable voice according to the received voice, a recommendation module 324 for recommending a function suitable for the received voice, and artificial intelligence by sentence learning Various modules for providing voice-based services may be included, such as Neural Machine Translation (NMT) 325 that assists in translating languages.

例えば図1及び図2の実施形態において、電子機器100が、ユーザ110の音声要請を、インタフェースコネクト340で提供するAPIを利用してクラウド人工知能プラットフォーム320に送信したとする。この場合、クラウド人工知能プラットフォーム320は、受信された音声要請を上述したモジュール321〜325を活用して認識及び分析してよく、受信された音声要請に従って適切な返答音声を合成して提供するか、適切な動作を推薦してよい。   For example, in the embodiment of FIGS. 1 and 2, it is assumed that the electronic device 100 transmits the voice request of the user 110 to the cloud artificial intelligence platform 320 using the API provided by the interface connect 340. In this case, the cloud artificial intelligence platform 320 may recognize and analyze the received voice request using the modules 321 to 325 described above, and synthesize and provide an appropriate response voice according to the received voice request. Appropriate actions may be recommended.

また、拡張キット350は、第三者コンテンツ開発者又は会社が、クラウド人工知能プラットフォーム320に基づいて新たな音声基盤機能を実現することができる開発キットを提供してよい。例えば図2の実施形態において、電子機器100は、受信したユーザ110の音声要請を外部サーバ220に送信してよく、外部サーバ220は、拡張キット350によって提供されるAPIを利用してクラウド人工知能プラットフォーム320に音声要請を送信してよい。この場合、上述と同じように、クラウド人工知能プラットフォーム320は、受信される音声要請を認識及び分析して適切な返答音声を合成して提供するか、音声要請によって処理されるべき機能に関する推薦情報を外部サーバ220に提供してよい。一例として、図2において、外部サーバ220が、音声要請「今日の天気」をクラウド人工知能プラットフォーム320に送信すると、クラウド人工知能プラットフォーム320から、音声要請「今日の天気」の認識によって抽出されるキーワード「今日の」及び「天気」を受信したとする。この場合、外部サーバ220は、キーワード「今日の」及び「天気」に基づいて「今日の天気は・・・」のようなテキスト情報を生成し、生成されたテキスト情報をクラウド人工知能プラットフォーム320に再び送信してよい。このとき、クラウド人工知能プラットフォーム320は、テキスト情報を音声で合成して外部サーバ220に提供してよい。外部サーバ220は、合成された音声を電子機器100に送信してよく、電子機器100が合成された音声「今日の天気は・・・」をスピーカから出力することにより、ユーザ110から受信した音声要請「今日の天気」が処理されてよい。   Further, the extension kit 350 may provide a development kit that allows a third-party content developer or company to realize a new voice infrastructure function based on the cloud artificial intelligence platform 320. For example, in the embodiment of FIG. 2, the electronic device 100 may transmit the received voice request of the user 110 to the external server 220, and the external server 220 uses the API provided by the extension kit 350 to perform cloud artificial intelligence. A voice request may be sent to the platform 320. In this case, as described above, the cloud artificial intelligence platform 320 recognizes and analyzes the received voice request and synthesizes and provides an appropriate response voice, or recommendation information regarding a function to be processed by the voice request. May be provided to the external server 220. As an example, in FIG. 2, when the external server 220 transmits a voice request “Today's weather” to the cloud artificial intelligence platform 320, a keyword extracted from the cloud artificial intelligence platform 320 by recognizing the voice request “Today's weather”. It is assumed that “today” and “weather” are received. In this case, the external server 220 generates text information such as “Today's weather is ...” based on the keywords “Today” and “Weather”, and sends the generated text information to the cloud artificial intelligence platform 320. You may send it again. At this time, the cloud artificial intelligence platform 320 may synthesize the text information by voice and provide it to the external server 220. The external server 220 may transmit the synthesized voice to the electronic device 100, and the voice received from the user 110 by outputting the synthesized voice “Today's weather is ...” from the speaker. The request “Today's Weather” may be processed.

図4は、本発明の一実施形態における、電子機器及びサーバの内部構成を説明するためのブロック図である。図4の電子機器410は、上述した電子機器100に対応してよく、本発明の実施形態に係る情報提供装置に対応してよい。また、サーバ420は、上述した外部サーバ220やクラウド人工知能プラットフォーム320を実現する1つのコンピュータ装置に対応してよい。   FIG. 4 is a block diagram for explaining the internal configuration of the electronic device and the server in one embodiment of the present invention. The electronic device 410 in FIG. 4 may correspond to the electronic device 100 described above, and may correspond to the information providing apparatus according to the embodiment of the present invention. The server 420 may correspond to one computer device that implements the external server 220 or the cloud artificial intelligence platform 320 described above.

電子機器410及びサーバ420は、それぞれ、メモリ411、421、プロセッサ412、422、通信インタフェース413、423、及び入力/出力インタフェース414、424を含んでよい。メモリ411、421は、コンピュータで読み取り可能な記録媒体であって、RAM(random access memory)、ROM(read only memory)、及びディスクドライブのような永久大容量記憶装置(permanent mass storage device)を含んでよい。ここで、ROMとディスクドライブのような永久大容量記憶装置は、メモリ411、421とは区別される別の永久記憶装置として電子機器410やサーバ420に含まれてもよい。また、メモリ411、421には、オペレーティングシステムと、少なくとも1つのプログラムコード(一例として、電子機器410にインストールされ、特定のサービスを提供するために電子機器410で駆動するアプリケーションなどのためのコード)が格納されてよい。このようなソフトウェア構成要素は、メモリ411、421とは別のコンピュータで読み取り可能な記録媒体からロードされてよい。このような別のコンピュータで読み取り可能な記録媒体は、フロッピー(登録商標)ドライブ、ディスク、テープ、DVD/CD−ROMドライブ、メモリカードなどのコンピュータで読み取り可能な記録媒体を含んでよい。他の実施形態において、ソフトウェア構成要素は、コンピュータで読み取り可能な記録媒体ではない通信インタフェース413、423を通じてメモリ411、421にロードされてもよい。例えば少なくとも1つのプログラムは、開発者又はアプリケーションのインストールファイルを配布するファイル配布システムがネットワーク430を介して提供するファイルによってインストールされるコンピュータプログラム(一例として、上述したアプリケーション)に基づいて電子機器410のメモリ411にロードされてよい。   The electronic device 410 and the server 420 may include memories 411 and 421, processors 412 and 422, communication interfaces 413 and 423, and input / output interfaces 414 and 424, respectively. The memories 411 and 421 are computer-readable recording media and include a RAM (Random Access Memory), a ROM (Read Only Memory), and a permanent mass storage device such as a disk drive. It's okay. Here, a permanent mass storage device such as a ROM and a disk drive may be included in the electronic apparatus 410 or the server 420 as another permanent storage device that is distinguished from the memories 411 and 421. The memories 411 and 421 include an operating system and at least one program code (for example, a code for an application installed in the electronic device 410 and driven by the electronic device 410 to provide a specific service). May be stored. Such software components may be loaded from a computer-readable recording medium different from the memories 411 and 421. Such another computer-readable recording medium may include a computer-readable recording medium such as a floppy (registered trademark) drive, a disk, a tape, a DVD / CD-ROM drive, and a memory card. In other embodiments, the software components may be loaded into the memories 411 and 421 through the communication interfaces 413 and 423 that are not computer-readable recording media. For example, the at least one program is based on a computer program (for example, the application described above) installed by a file distribution system that distributes an installation file of a developer or an application via a network 430. It may be loaded into the memory 411.

プロセッサ412、422は、基本的な算術、ロジック及び入出力演算を実行することにより、コンピュータプログラムの命令を処理するように構成されてよい。命令は、メモリ411、421又は通信インタフェース413、423によって、プロセッサ412、422に提供されてよい。例えばプロセッサ412、422は、メモリ411、421のような記録装置に格納されたプログラムコードに従って受信される命令を実行するように構成されてよい。   The processors 412, 422 may be configured to process computer program instructions by performing basic arithmetic, logic and input / output operations. The instructions may be provided to the processors 412 and 422 by the memories 411 and 421 or the communication interfaces 413 and 423. For example, the processors 412, 422 may be configured to execute instructions received in accordance with program codes stored in a recording device such as the memory 411, 421.

通信インタフェース413、423は、ネットワーク430を介して電子機器410とサーバ420とが互いに通信するための機能を提供してもよいし、電子機器410及び/又はサーバ420が他の電子機器又は他のサーバと通信するための機能を提供してもよい。一例として、電子機器410のプロセッサ412がメモリ411のような記録装置に格納されたプログラムコードに従って生成した要求が、通信インタフェース413の制御に従ってネットワーク430を介してサーバ420に伝達されてよい。これとは逆に、サーバ420のプロセッサ422の制御に従って提供される制御信号や命令、コンテンツ、ファイルなどが、通信インタフェース423とネットワーク430を経て電子機器410の通信インタフェース413を通じて電子機器410に受信されてもよい。例えば通信インタフェース413を通じて受信したサーバ420の制御信号や命令、コンテンツ、ファイルなどは、プロセッサ412やメモリ411に伝達されてよく、コンテンツやファイルなどは、電子機器410がさらに含むことのできる格納媒体(上述した永久記憶装置)に格納されてよい。   The communication interfaces 413 and 423 may provide a function for the electronic device 410 and the server 420 to communicate with each other via the network 430, and the electronic device 410 and / or the server 420 may be other electronic devices or other devices. A function for communicating with the server may be provided. As an example, a request generated by the processor 412 of the electronic device 410 according to a program code stored in a recording device such as the memory 411 may be transmitted to the server 420 via the network 430 according to the control of the communication interface 413. On the contrary, control signals, commands, contents, files, etc. provided in accordance with the control of the processor 422 of the server 420 are received by the electronic device 410 via the communication interface 423 and the network 430 and the communication interface 413 of the electronic device 410. May be. For example, a control signal, a command, a content, a file, and the like of the server 420 received through the communication interface 413 may be transmitted to the processor 412 and the memory 411, and the content and the file may be further stored in the electronic device 410 ( It may be stored in the permanent storage device described above.

入力/出力インタフェース414は、入力/出力装置415とのインタフェースのための手段であってよい。例えば入力装置は、マイク、キーボード、又はマウスなどの装置を含んでよく、出力装置は、ディスプレイ、スピーカのような装置を含んでよい。他の例として、入力/出力インタフェース414は、タッチスクリーンのように入力と出力のための機能が1つに統合された装置とのインタフェースのための手段であってもよい。入力/出力装置415は、電子機器410と1つの装置で構成されてもよい。また、サーバ420の入力/出力インタフェース424は、サーバ420と連結するか、サーバ420が含むことのできる入力又は出力のための装置(図示せず)とのインタフェースのための手段であってもよい。   Input / output interface 414 may be a means for interfacing with input / output device 415. For example, the input device may include a device such as a microphone, a keyboard, or a mouse, and the output device may include a device such as a display or a speaker. As another example, the input / output interface 414 may be a means for interfacing with a device that integrates functions for input and output, such as a touch screen. The input / output device 415 may be configured by the electronic device 410 and one device. Also, the input / output interface 424 of the server 420 may be a means for interfacing with the server 420 or for interfacing with an input or output device (not shown) that the server 420 may include. .

また、他の実施形態において、電子機器410及びサーバ420は、図4の構成要素よりも少ないか多くの構成要素を含んでもよい。しかし、大部分の従来技術的構成要素を明確に図に示す必要はない。例えば電子機器410は、上述した入力/出力装置415のうちの少なくとも一部を含むように実現されてもよいし、トランシーバ、GPS(Global Positioning System)モジュール、カメラ、各種センサ、データベースなどのような他の構成要素をさらに含んでもよい。より具体的な例として、電子機器410がスマートフォンである場合、一般的にスマートフォンに含まれる加速度センサやジャイロセンサ、カメラモジュール、物理的な各種ボタン、タッチパネルを利用したボタン、入力/出力ポート、振動のための振動器などのような多様な構成要素が電子機器410にさらに含まれるように実現されてよい。   In other embodiments, the electronic device 410 and the server 420 may include fewer or more components than the components of FIG. However, most prior art components need not be clearly illustrated in the figure. For example, the electronic device 410 may be realized to include at least a part of the input / output device 415 described above, or may be a transceiver, a GPS (Global Positioning System) module, a camera, various sensors, a database, or the like. Other components may be further included. As a more specific example, when the electronic device 410 is a smartphone, an acceleration sensor, a gyro sensor, a camera module, various physical buttons, buttons using a touch panel, an input / output port, and vibration are generally included in the smartphone. Various components such as a vibrator for the electronic device 410 may be further included in the electronic device 410.

本実施形態において、電子機器410は、ユーザの音声要請を受信するためのマイク(一例として、図4のマルチチャンネルマイク417)及び/又は応答情報を聴覚的に出力するためのスピーカ(一例として、図4のスピーカ416)を入力/出力装置415として含んでよい。   In the present embodiment, the electronic device 410 includes a microphone (for example, the multi-channel microphone 417 in FIG. 4) for receiving a user's voice request and / or a speaker (for example, for outputting response information audibly). The speaker 416) of FIG. 4 may be included as an input / output device 415.

このとき、本発明の実施形態は、室内の区画された空間をさらに考慮してよい。   At this time, the embodiment of the present invention may further consider a partitioned space in the room.

図5は、本発明の一実施形態における、室内の区画された空間と位置に関する情報の例を示した図である。図5の平面図500は、室内の区画された空間の種類(リビング、キッチン、玄関、トイレ、寝室など)、室内での電子機器410の位置及びユーザの位置510、520、530の例を示している。例えばユーザの第1位置510による空間は「リビング」であり、第2位置520による空間は「キッチン」であり、第3位置530による空間は「玄関」であってよい。   FIG. 5 is a diagram illustrating an example of information related to a partitioned space and position in the room according to an embodiment of the present invention. A plan view 500 in FIG. 5 shows examples of types of indoor partitioned spaces (living room, kitchen, entrance, toilet, bedroom, etc.), positions of electronic devices 410 in the room, and positions 510, 520, and 530 of users. ing. For example, the space by the first position 510 of the user may be “living room”, the space by the second position 520 may be “kitchen”, and the space by the third position 530 may be “entrance”.

電子機器410は、室内の区画された空間の中からユーザが位置する空間を決定してよく、決定された空間に基づいて、電子機器410に含まれる音声基盤の入力/出力インタフェース(一例として、図4の入力/出力インタフェース414)で受信されるユーザの音声要請の解釈を動的に調整するか、あるいは決定された空間に基づいて、電子機器410によって能動的に決定された情報を、音声基盤の入力/出力インタフェースを通じてユーザに提供してよい。例えばユーザが第1位置510である「リビング」に位置する場合と第2位置520である「キッチン」に位置する場合に対し、電子機器410は、それぞれ異なる情報をユーザに提供してよい。他の例として、ユーザが第1位置510である「リビング」に位置する場合と第2位置520である「キッチン」に位置する場合に対し、電子機器410は、ユーザの発話が同じであっても、それぞれ異なるように解釈してもよい。   The electronic device 410 may determine a space where the user is located from among the partitioned spaces in the room, and based on the determined space, an audio-based input / output interface included in the electronic device 410 (for example, 4 dynamically adjusts the interpretation of the user's voice request received at the input / output interface 414) of FIG. 4, or the information actively determined by the electronic device 410 based on the determined space It may be provided to the user through a platform input / output interface. For example, the electronic device 410 may provide different information to the user when the user is located in the “living room” that is the first position 510 and when the user is located in the “kitchen” that is the second position 520. As another example, in the case where the user is located in the “living room” which is the first position 510 and the case where the user is located in the “kitchen” which is the second position 520, the electronic device 410 has the same user utterance. May be interpreted differently.

より具体的な例として、第1位置510である「リビング」に位置するユーザの発話「たまねぎ」に対し、電子機器410は、「歌手たまねぎの歌」又は「たまねぎに関するTV番組」を出力してよく、第2位置520である「キッチン」に位置するユーザの発話「たまねぎ」に対し、電子機器410は、「たまねぎ購入」又は「たまねぎを使ったレシピ」に関する情報をユーザに提供してよい。   As a more specific example, electronic device 410 outputs “singer onion song” or “TV program related to onion” in response to the user's utterance “onion” located in “living room” that is first position 510. The electronic device 410 may provide the user with information related to “onion purchase” or “recipe using onion” for the user's utterance “onion” located in the “kitchen” that is the second position 520.

このように、空間に応じて適した情報を提供するために、電子機器410は、室内に区画された複数の物理的空間を把握してよく、このような物理的空間の把握及び/又はユーザの位置(電子機器410からの相対的な方向と距離)の把握は、ユーザが機器を使用中でないときでも周期的に実行されてよい。   As described above, in order to provide information suitable for each space, the electronic apparatus 410 may grasp a plurality of physical spaces partitioned in the room, and grasp such physical spaces and / or a user. The position (relative direction and distance from the electronic device 410) may be grasped periodically even when the user is not using the device.

図6は、本発明の一実施形態における、単一機器で物理的空間を把握する例を示した図である。電子機器410は、音声基盤の入力/出力インタフェースに含まれるスピーカから音信号を出力してよい。このような音信号は、ユーザが認識することのできる音帯域であっても、ユーザが認識することのできない音帯域であってもよい。また、電子機器410は、出力された音信号が室内で反射することによって受信される反射信号の入力を、マルチチャンネルマイクでチャンネル別に受信してよい。1つのスピーカから出力された音信号は電子機器410の周囲に広がり、室内の区画された境界の壁面などで反射した後、電子機器410に再び伝達されるようになる。このような反射信号は、電子機器410のマルチチャンネルマイクのチャンネル別にそれぞれ入力されてよい。このとき、マルチチャンネルマイクに入力される反射信号の電子機器410を基準とする相対的な方向は、マルチチャンネルマイクのチャンネル別に入力される特定の反射信号の位相変位(phase shift)に基づいて決定されてよい。複数のマイクに入力される同一の音信号の位相変位を利用して音信号の発生位置を測定する技術は、ビームフォーミング(beam forming)技術のように周知の技術であるため、当業者であれば容易に理解することができるであろう。本実施形態において、電子機器410は、特定の反射信号がマルチチャンネルマイクのチャンネル別に入力され、このようなチャンネル別に入力された特定の反射信号の位相変位に基づいて該当の反射信号の方向を決定してよい。また、電子機器410は、音信号の出力時刻と該当の反射信号のチャンネル別の入力時刻に基づき、電子機器410と区画された空間の境界に関する情報(一例として、距離)を計算してよい。言い換えれば、電子機器410は、特定の反射信号に対する方向と距離を求めることが可能であるが、これは、電子機器410を基準として区画された空間の境界を測定することが可能であることを意味してよい。例えば電子機器410は、一定の距離内で空間的に閉鎖された場所の方向と開放された場所の方向を区分することが可能である。   FIG. 6 is a diagram showing an example of grasping a physical space by a single device in an embodiment of the present invention. The electronic device 410 may output a sound signal from a speaker included in an audio-based input / output interface. Such a sound signal may be a sound band that the user can recognize or a sound band that the user cannot recognize. In addition, the electronic device 410 may receive an input of a reflected signal received when the output sound signal is reflected indoors by a multi-channel microphone for each channel. A sound signal output from one speaker spreads around the electronic device 410, is reflected by a wall surface of a partitioned boundary in the room, and is transmitted again to the electronic device 410. Such a reflection signal may be input for each channel of the multi-channel microphone of the electronic device 410. At this time, the relative direction of the reflected signal input to the multi-channel microphone with respect to the electronic device 410 is determined based on the phase shift of the specific reflected signal input for each channel of the multi-channel microphone. May be. A technique for measuring the generation position of a sound signal using the phase shift of the same sound signal input to a plurality of microphones is a well-known technique such as a beam forming technique. Would be easy to understand. In the present embodiment, the electronic device 410 receives a specific reflected signal for each channel of the multi-channel microphone, and determines the direction of the corresponding reflected signal based on the phase displacement of the specific reflected signal input for each channel. You can do it. In addition, the electronic device 410 may calculate information (for example, distance) related to the boundary between the electronic device 410 and the space partitioned based on the output time of the sound signal and the input time of the corresponding reflected signal for each channel. In other words, the electronic device 410 can determine a direction and a distance with respect to a specific reflected signal, which means that it is possible to measure a boundary of a space partitioned with the electronic device 410 as a reference. May mean. For example, the electronic device 410 can distinguish between the direction of a spatially closed place and the direction of an open place within a certain distance.

再び図5を参照すると、電子機器410は、第1位置510である「リビング」に位置するユーザの発話の方向が空間的に閉鎖された場所への方向であるため、ユーザが電子機器410と同じ空間に存在することを認識するようになる。この場合、ユーザの発話の方向も、上述したビームフォーミング技術によって決定されてよい。   Referring to FIG. 5 again, since the electronic device 410 is located in the “living room” which is the first position 510, the direction of the user's utterance is a direction to a spatially closed place. Recognize that they exist in the same space. In this case, the direction of the user's utterance may also be determined by the beamforming technique described above.

一方、電子機器410は、第2位置520である「キッチン」又は第3位置530である「玄関」に位置するユーザの発話の方向が空間的に開放されている方向であるため、ユーザが電子機器410とは異なる空間に存在することを認識してよい。   On the other hand, in the electronic device 410, the direction of the user's utterance located at the “kitchen” at the second position 520 or the “entrance” at the third position 530 is a direction in which the user speaks electronically. You may recognize that it exists in the space different from the apparatus 410. FIG.

図7は、本発明の一実施形態における、複数のサブ機器を活用して物理的空間を把握する例を示した図である。図7の平面図700は、図5の平面図500と類似する、室内の区画された空間の種類(居間、キッチン、玄関、トイレ、寝室など)、室内での電子機器410の位置及びユーザの位置510、520、530の例を示しており、複数のサブ機器710、720、730が追加された例を示している。複数のサブ機器710、720、730は、一例として、電子機器410と通信可能な複数のサブスピーカであってよく、ユーザの接近を感知するセンサ(一例として、近接センサ、IRセンサなど)を含んでよい。この場合、電子機器410は、複数のサブ機器710、720、730それぞれが位置する空間に関する情報を管理してよく、このような空間に関する情報と複数のサブ機器710、720、730のセンサ情報に基づいてユーザが位置する空間を決定してよい。例えば電子機器410は、複数のサブスピーカそれぞれから出力されてマルチチャンネルマイクに入力されるチャンネル別の音信号に基づいて複数のサブスピーカそれぞれとの距離及び方向を決定してよく、決定された距離及び方向に基づき、複数のサブ機器それぞれが位置する空間に関する情報を生成してよい。   FIG. 7 is a diagram illustrating an example of grasping a physical space using a plurality of sub devices in an embodiment of the present invention. The plan view 700 in FIG. 7 is similar to the plan view 500 in FIG. 5, the types of partitioned spaces in the room (living room, kitchen, entrance, toilet, bedroom, etc.), the position of the electronic device 410 in the room, and the user's Examples of positions 510, 520, and 530 are shown, and an example in which a plurality of sub devices 710, 720, and 730 are added is shown. The plurality of sub-devices 710, 720, and 730 may be a plurality of sub-speakers that can communicate with the electronic device 410 as an example, and include sensors (such as proximity sensors and IR sensors) that detect the approach of the user. It's okay. In this case, the electronic device 410 may manage information regarding the space in which each of the plurality of sub devices 710, 720, and 730 is located. The information regarding the space and the sensor information of the plurality of sub devices 710, 720, and 730 may be included. Based on this, the space where the user is located may be determined. For example, the electronic device 410 may determine the distance and direction of each of the plurality of sub-speakers based on the sound signal for each channel output from each of the plurality of sub-speakers and input to the multi-channel microphone. Further, based on the direction, information on a space where each of the plurality of sub devices is located may be generated.

より具体的な例として、第1サブ機器710から出力される音信号が電子機器410のマルチチャンネルマイクに入力されることにより、電子機器410は、第1サブ機器710が位置する方向と相対的な距離を決定してよい。このとき、電子機器410において、第1サブ機器710の方向は閉鎖されている場所への方向であり、第1サブ機器710が位置する方向との相対的な距離は空間の境界までの相対的な距離よりも遠いため、電子機器410は、一例として、第1サブ機器710が「時計の1時方向」の「電子機器410が位置する空間とは異なる空間」に位置していることを把握してよい。第1サブ機器710がセンサによってユーザの接近を知らせてきた場合、電子機器410は、ユーザが「時計の1時方向」の「電子機器410が位置する空間とは異なる空間」に位置していると決定してよい。   As a more specific example, when the sound signal output from the first sub device 710 is input to the multi-channel microphone of the electronic device 410, the electronic device 410 is relative to the direction in which the first sub device 710 is located. The correct distance may be determined. At this time, in the electronic device 410, the direction of the first sub device 710 is the direction to the closed place, and the relative distance from the direction in which the first sub device 710 is located is relative to the boundary of the space. As an example, the electronic device 410 grasps that the first sub device 710 is located in “a space different from the space in which the electronic device 410 is located” in the “clock 1 o'clock direction”. You can do it. When the first sub device 710 notifies the approach of the user by the sensor, the electronic device 410 is located in “a space different from the space in which the electronic device 410 is located” in the “clock 1 o'clock direction”. You may decide.

以下では、電子機器410が把握した「電子機器410が位置する空間とは異なる空間」の種類を決定するための実施形態について説明する。例えば上述した図7の実施形態において、電子機器410は、第1サブ機器710の位置する空間にユーザが位置することは把握したが、このような空間の種類も把握する必要がある。このために、電子機器410は、ユーザが位置する空間別に、ユーザの発話内容と発話内容に関連するユーザの活動うちの少なくとも一方についてのユーザ情報を時間帯別にパターン化してよい。例えば電子機器410は、ユーザ情報を空間別さらには時間帯別にデータベースに格納及び累積してよく、累積情報を空間別にさらには時間帯別に分析してよい。ユーザが「時計の1時方向」の「異なる空間」で「レシピ」、「カロリー」、「料理の材料」などに関する内容の発話を頻繁に要請する場合、電子機器410は、「時計の1時方向」の「異なる空間」を「キッチン」と認識してよい。他の例として、「時計の4時方向」の「異なる空間」でユーザが室内の外部に出ていくか外部から入ってくる活動が感知される場合、電子機器410は、「時計の4時方向」の「異なる空間」を「玄関」と認識してよい。このようなユーザの活動は、ユーザの外出を意味するユーザの発話、ユーザの位置に対する感知の有無及び/又はユーザのスケジュールのような外部情報に基づいて決定されてよい。例えば電子機器410は、ユーザのスケジュールにおいて「午後7時」に約束があり、「午後6時半」に「時計の4時方向」の「異なる空間」でユーザの発話「全体消灯」が認識された後、ユーザの位置がそれ以上感知されなければ、ユーザが「時計の4時方向」の「異なる空間」から室内の外部に出ていったことを把握してよい。このようなユーザの行動により、電子機器410は、「時計の4時方向」の「異なる空間」が「玄関」であることを把握することが可能となる。他にも、電子機器410が、各空間が有する特殊性に基づいて該当する空間の種類を把握することが可能であることは、当業者であれば、上述した例を参照することによって理解できるであろう。   Hereinafter, an embodiment for determining the type of “a space different from the space in which the electronic device 410 is located” grasped by the electronic device 410 will be described. For example, in the embodiment of FIG. 7 described above, the electronic device 410 has grasped that the user is located in the space where the first sub device 710 is located, but it is also necessary to grasp the type of such space. For this reason, the electronic device 410 may pattern the user information about at least one of the user's utterance content and the user activity related to the utterance content according to the time zone in which the user is located. For example, the electronic device 410 may store and accumulate user information in a database for each space and for each time zone, and may analyze the accumulated information for each space and for each time zone. When the user frequently requests utterances regarding “recipe”, “calorie”, “cooking ingredients”, etc. in “different space” in “clock 1 o'clock direction”, the electronic device 410 may “ “Different space” in “Direction” may be recognized as “kitchen”. As another example, when the user goes out of the room or the activity of entering from outside is detected in “different space” of “4 o'clock direction of the clock”, the electronic device 410 may read “4 o'clock of the clock”. “Different space” in “Direction” may be recognized as “entrance”. Such user activity may be determined based on external information such as the user's speech meaning the user's going out, presence or absence of the user's location and / or the user's schedule. For example, the electronic device 410 has a promise at “7 pm” in the user's schedule, and the user's utterance “whole light off” is recognized in “different space” of “4 o'clock direction of the clock” at “6:30 pm”. After that, if the position of the user is not detected any more, it may be understood that the user has gone out of the room from a “different space” in the “clockwise 4 o'clock direction”. By such user behavior, the electronic device 410 can recognize that the “different space” in the “clockwise 4 o'clock direction” is the “entrance”. In addition, it can be understood by those skilled in the art by referring to the above-described example that the electronic device 410 can grasp the type of the corresponding space based on the speciality of each space. Will.

また、電子機器410は、現在の時間帯及び現在ユーザが位置する空間でのユーザの予測状況又は予測行動を決定してよい。電子機器410は、このような予測に基づき、ユーザに適したコンテンツを能動的に提供してよい。このような予測状況又は予測行動は、現在ユーザが位置する空間の種類と、空間別及び時間帯別にパターン化されたユーザ情報を基盤としてよい。例えば図5及び/又は図7の実施形態において、第2位置520である「キッチン」に位置するユーザのパターン化されたユーザ情報に基づき、電子機器410は、該当のユーザは、主に、午後4時頃に夕食の準備のためのレシピを要請することを把握してよい。午後4時頃に現在のユーザの位置が「キッチン」と判断された場合、電子機器410は、ユーザの音声要請とは関係なく、夕食の準備ためのレシピの種類を自動でユーザに勧めてよい。他の例として、電子機器410は、「玄関」に位置するユーザが外出しようとしていると判断された場合(例えばユーザが登録した情報(一例として、ユーザのスケジュール情報)を活用するか、ユーザの移動方向などを利用して判断可能)、自動車の鍵や傘などを持っていくように助言してよい。さらに、ユーザが玄関から外出しようとしている状況で室内に電気が点いている場合、「電気を消しましょうか?」のように能動的に質問した後、ユーザの応答に応じて機器制御などの追加機能を実行させてもよい。   Also, the electronic device 410 may determine the user's predicted situation or predicted behavior in the current time zone and the space in which the current user is located. The electronic device 410 may actively provide content suitable for the user based on such prediction. Such a predicted situation or predicted behavior may be based on the type of space in which the current user is located, and user information patterned by space and time zone. For example, in the embodiment of FIG. 5 and / or FIG. 7, based on the patterned user information of the user located in the “kitchen” that is the second location 520, the electronic device 410 is mainly responsible for the afternoon. You may know that you are requesting a recipe for dinner preparation around 4pm. If it is determined that the current user's position is “kitchen” around 4:00 pm, the electronic device 410 may automatically recommend the type of recipe for dinner preparation to the user regardless of the user's voice request. . As another example, when it is determined that the user located at the “entrance” is going out, the electronic device 410 uses information registered by the user (for example, user schedule information), You can advise them to bring a car key or umbrella. Furthermore, when the user is going out of the entrance and the room is turned on, after actively asking “Do you want to turn off the electricity?”, Add device control according to the user's response. The function may be executed.

このために、電子機器410は、スケジュール情報や天気情報のような外部情報をさらに活用してもよい。スケジュール情報は、ユーザと関連する別途の外部サービスから取得してもよいし、電子機器410がユーザから直接にスケジュール登録を受信して管理してもよい。他の例として、電子機器410は、「バルコニー」に位置するユーザに「植木に水をあげる時間」になったことを知らせたり、「キッチン」に位置するユーザに「卵」の残りの個数と共に「卵購入」と関連する情報を知らせたりすることも可能である。   For this purpose, the electronic device 410 may further utilize external information such as schedule information and weather information. The schedule information may be acquired from a separate external service associated with the user, or the electronic device 410 may receive and manage schedule registration directly from the user. As another example, the electronic device 410 informs the user located in the “balcony” that it is “time to water the plant”, and informs the user located in the “kitchen” together with the remaining number of “eggs”. It is also possible to notify information related to “egg purchase”.

また他の例として、電子機器410は、決定されたユーザの予測状況又は予測行動に基づき、ユーザの発話内容を特定の単語に解釈する確率を動的に調整してもよい。例えば「犬と(韓国語の発音でケラン)」と「計量(韓国語の発音でケリャン)」のように類似する発音の発話に対し、「キッチン」では「犬と」という単語よりも「計量」という単語を発話する確率が相対的に高いことが予想される。これにより、「ケラン」と類似する発音の発話が受信された場合、「キッチン」に位置するユーザの場合には「計量」と認識するようにする反面、「リビング」に位置するユーザの場合には「犬と」と認識するように、ユーザの音声要請に対する解釈を調整することが可能である。このように、本実施形態に係る電子機器410は、ユーザからの設定入力がなくても、室内の区画された空間を測位し、空間それぞれの種類を決定してよく、空間の種類とユーザの状況及び/又は行動パターンに基づいて空間別にユーザコンテキストと関連性の高い情報/コンテンツを提供することにより、情報提供の有用性を向上させることができる。また、ユーザから明確な要請がなくても、ユーザが位置する空間とユーザの状況及び/又は行動パターンに基づいて電子機器410が能動的に特定の情報を決定し、ユーザに提供してもよい。   As another example, the electronic device 410 may dynamically adjust the probability of interpreting the user's utterance content as a specific word based on the determined predicted situation or behavior of the user. For example, in the case of utterances with similar pronunciations, such as “dog and (Keran in Korean pronunciation)” and “metric (Keryang in Korean pronunciation)” It is expected that the probability of uttering the word "is relatively high. As a result, when an utterance with a pronunciation similar to “Kelan” is received, a user located in “Kitchen” is recognized as “Weighing”, whereas in a case of a user located in “Living” Can adjust the interpretation of the user's voice request to recognize as “dog”. As described above, the electronic device 410 according to the present embodiment may determine the type of each space by positioning the indoor space without any setting input from the user. By providing information / content that is highly relevant to the user context for each space based on the situation and / or behavior pattern, the usefulness of information provision can be improved. Further, even if there is no specific request from the user, the electronic device 410 may actively determine specific information based on the space in which the user is located and the user's situation and / or behavior pattern, and provide the information to the user. .

また、電子機器410は、ユーザの位置に基づいて情報の出力メディアを決定してもよい。例えば電子機器410は、室内に位置する複数の出力メディアと通信する通信インタフェースを含んでよく、このような複数の出力メディアの位置とユーザの位置に基づき、複数の出力メディアの中から少なくとも1つの出力メディアを決定してよい。この場合、電子機器410は、ユーザに提供するための情報が決定された少なくとも1つの出力メディアから出力されるように、ユーザに提供するための情報を、通信インタフェースを通じて決定された少なくとも1つの出力メディアに送信してよい。   The electronic device 410 may determine an output medium for information based on the position of the user. For example, the electronic device 410 may include a communication interface that communicates with a plurality of output media located in a room, and based on the positions of the plurality of output media and the user, at least one of the plurality of output media. The output medium may be determined. In this case, the electronic device 410 outputs at least one output determined through the communication interface to provide information to the user so that the information to be provided to the user is output from the determined at least one output medium. May be sent to media.

図8は、本発明の一実施形態における、複数の出力メディアから情報を提供する例を示した図である。電子機器410は、複数の出力メディアと通信してよい。複数の出力メディアは、上述した宅内の機器(ユーザのモバイル機器を含む)のうち、視覚的及び/又は聴覚的に情報の出力が可能な機器であってよい。また、複数の出力メディアは、視覚的及び/又は聴覚的に情報の出力が可能な機器にインストールされたアプリケーションであってもよい。例えば電子機器410は、第2位置520である「キッチン」に位置するユーザに、「キッチン」に位置する第1サブ機器710を通じて情報を提供してよい。このような情報は、ユーザの音声要請に対する返答であっても、電子機器410が能動的にユーザに提供しようとする情報であってもよい。他の例として、電子機器410は、第1位置510である「リビング」に位置するユーザに、IPTV810を通じて情報を提供してもよい。このように、電子機器410は、ユーザが位置する空間に位置する出力メディアを選択してよく、選択された出力メディアからユーザに提供するための情報を出力してよい。   FIG. 8 is a diagram showing an example in which information is provided from a plurality of output media in an embodiment of the present invention. The electronic device 410 may communicate with a plurality of output media. The plurality of output media may be devices capable of outputting information visually and / or audibly among the above-described devices in the home (including the user's mobile device). The plurality of output media may be applications installed in a device capable of outputting information visually and / or audibly. For example, the electronic device 410 may provide information to a user located in the “kitchen” that is the second location 520 through the first sub device 710 located in the “kitchen”. Such information may be a response to the user's voice request or information that the electronic device 410 actively provides to the user. As another example, the electronic device 410 may provide information to the user located in the “living room” that is the first position 510 through the IPTV 810. As described above, the electronic device 410 may select an output medium located in a space where the user is located, and may output information to be provided to the user from the selected output medium.

他の実施形態として、電子機器410は、ユーザのモバイル機器に情報を提供してもよい。例えば現在、ユーザがモバイル機器を操作中である場合、電子機器410は、操作中であることに関する情報をモバイル機器から受信してよく、出力メディアをユーザが操作中のモバイル機器として決定してよい。   In other embodiments, the electronic device 410 may provide information to the user's mobile device. For example, if the user is currently operating a mobile device, the electronic device 410 may receive information regarding the operation from the mobile device and may determine the output media as the mobile device that the user is operating. .

情報を提供している途中にユーザが位置する空間の変更が認識された場合、出力メディアも変更されてよい。例えば電子機器410は、ユーザが位置する空間が「キッチン」から「寝室1」に変更された場合、出力メディアを第1サブ機器710から第2サブ機器720に変更してよい。   If a change in the space where the user is located is recognized in the middle of providing information, the output media may also be changed. For example, when the space in which the user is located is changed from “kitchen” to “bedroom 1”, the electronic device 410 may change the output medium from the first sub device 710 to the second sub device 720.

また、電子機器410は、上述した宅内の機器(ユーザのモバイル機器を含む)を出力メディアとして活用するために、このような機器に関する情報を管理してもよい。   In addition, the electronic device 410 may manage information related to such a device in order to use the above-described home device (including the user's mobile device) as an output medium.

図9は、本発明の一実施形態における、出力メディアに関する情報の例を示した図である。図9の表900は、電子機器410と連動して通信可能な電子機器を識別するための機器項目910、他の電子機器の宅内位置を識別するための位置項目920、他の電子機器が含む出力メディアを識別するための出力メディア項目930、出力メディアに関する情報を含む詳細項目940及び出力メディアがどのような情報類型との連係が可能であるかを識別するための情報類型項目950を含む例を示している。電子機器410は、表900のように、宅内で連動する他の電子機器に関する情報と共に、該当する他の電子機器の出力メディアに関する情報を管理してよい。また、このような情報は、音声要請及び/又は音声要請に対する応答情報の情報類型と予め連結されてよい。例えばユーザの音声要請や対応する応答情報が「外部の特定場所」と関連する情報類型として分析される場合、電子機器410は、表900に基づき、電子機器Aの地図アプリケーションを応答情報の出力メディアとして決定してよい。この場合、応答情報は、電子機器Aに伝達されてよく、電子機器Aは、電子機器Aの地図アプリケーションを通じて応答情報に対応する地図サービスをユーザに提供してよい。他の例として、応答情報は、地図アプリケーションを通じて地図サービスを提供するサービスサーバに伝達されてよい。この場合、サービスサーバは、電子機器Aにインストールされた地図アプリケーションを通じて地図サービスを提供してよい。このために、電子機器410は、サービスサーバにアクセスするための情報、及びサービスサーバがユーザの電子機器Aを識別できるようにするためのユーザのアカウントなどのような情報をさらに管理してもよい。例えば電子機器410は、表900が地図アプリケーションと関連してさらに格納しているURLを利用してサービスサーバにアクセスしてよく、ユーザのアカウントと共に応答情報を伝達することにより、サービスサーバがユーザのアカウントを参照した上で、電子機器Aにインストールされた地図アプリケーションを通じて応答情報と連係するサービスを提供するようにしてよい。   FIG. 9 is a diagram illustrating an example of information regarding an output medium according to an embodiment of the present invention. The table 900 of FIG. 9 includes a device item 910 for identifying an electronic device that can communicate with the electronic device 410, a location item 920 for identifying the home position of another electronic device, and the other electronic device. An example including an output medium item 930 for identifying an output medium, a detailed item 940 including information on the output medium, and an information type item 950 for identifying what type of information the output medium can be associated with. Is shown. As shown in Table 900, the electronic device 410 may manage information related to output media of the corresponding other electronic device together with information related to other electronic devices linked in the house. In addition, such information may be linked in advance to an information type of voice request and / or response information to the voice request. For example, when a user's voice request or corresponding response information is analyzed as an information type related to “external specific location”, the electronic device 410 uses the map application of the electronic device A as an output medium of response information based on the table 900. May be determined as In this case, the response information may be transmitted to the electronic device A, and the electronic device A may provide the user with a map service corresponding to the response information through the map application of the electronic device A. As another example, the response information may be transmitted to a service server that provides a map service through a map application. In this case, the service server may provide a map service through a map application installed in the electronic device A. To this end, the electronic device 410 may further manage information such as information for accessing the service server and a user account for allowing the service server to identify the user's electronic device A. . For example, the electronic device 410 may access the service server using the URL that the table 900 further stores in association with the map application, and the service server transmits the response information together with the user account so that the service server After referring to the account, a service linked to the response information may be provided through a map application installed in the electronic device A.

また、電子機器410は、表900に基づき、ユーザが「キッチン」に位置する場合、電子機器Dのディスプレイ4から情報が視覚的に出力されるように、該当の情報を電子機器Dに送信してよい。他の例として、電子機器410は、1つの空間に複数の出力メディアが存在する場合、出力しようとする情報の類型に適した機器やユーザからより近くにある機器の出力メディアを選択してよい。このとき、1つの空間でユーザからより近くにある機器の出力メディアを選択するために、より具体的な機器の位置が表900で管理されてよい。このような機器の位置は、ユーザの位置と同じように、電子機器410を基準とする相対的な位置であってよい。   In addition, based on the table 900, the electronic device 410 transmits corresponding information to the electronic device D so that the information is visually output from the display 4 of the electronic device D when the user is located in the “kitchen”. It's okay. As another example, when there are a plurality of output media in one space, the electronic device 410 may select a device suitable for the type of information to be output or a device closer to the user. . At this time, in order to select an output medium of a device closer to the user in one space, a more specific device position may be managed in the table 900. The position of such an apparatus may be a relative position with respect to the electronic apparatus 410 as in the case of the user.

図10は、本発明の一実施形態における、電子機器の情報提供方法の例を示したフローチャートである。本実施形態に係る情報提供方法は、上述した電子機器410のようなコンピュータ装置によって実行されてよい。このとき、電子機器410のプロセッサ412は、メモリ411が含むオペレーティングシステムのコードや、少なくとも1つのプログラムのコードによる制御命令(instruction)を実行するように実現されてよい。ここで、プロセッサ412は、電子機器410に格納されたコードにより提供される制御命令に従って電子機器410が図10の情報提供方法に含まれる段階1010及び段階1020を実行するように電子機器410を制御してよい。   FIG. 10 is a flowchart illustrating an example of an information providing method for an electronic device according to an embodiment of the present invention. The information providing method according to the present embodiment may be executed by a computer device such as the electronic device 410 described above. At this time, the processor 412 of the electronic apparatus 410 may be implemented to execute a control instruction (instruction) based on an operating system code included in the memory 411 or at least one program code. Here, the processor 412 controls the electronic device 410 so that the electronic device 410 executes steps 1010 and 1020 included in the information providing method of FIG. 10 according to the control command provided by the code stored in the electronic device 410. You can do it.

段階1010において、電子機器410は、複数の空間の中からユーザが位置する空間を決定してよい。一例として、複数の空間は、ホームネットワークサービスが適用されたホームのような、室内の区画された空間を含んでよい。   In step 1010, the electronic device 410 may determine a space where the user is located from among a plurality of spaces. As an example, the plurality of spaces may include a partitioned space in a room such as a home to which a home network service is applied.

段階1020において、電子機器410は、決定された空間に基づいて、電子機器410に含まれる音声基盤の入力/出力インタフェースで受信されるユーザの音声要請を解釈するか、あるいは決定された空間に基づいて能動的に決定された情報を、音声基盤の入力/出力インタフェースを通じてユーザに提供してよい。例えば電子機器410は、同じユーザの音声要請を、決定された空間に応じて動的に調整して解釈するか、又はユーザからの要請がなくても能動的に空間と関連する情報をユーザに提供してよい。   In operation 1020, the electronic device 410 interprets the user's voice request received at the voice-based input / output interface included in the electronic device 410 based on the determined space, or based on the determined space. Actively determined information may be provided to the user through a voice based input / output interface. For example, the electronic device 410 interprets the voice request of the same user dynamically adjusted according to the determined space, or actively transmits information related to the space to the user without a request from the user. May be provided.

このように、本実施形態では、既に決定されている情報を提供するためにユーザの位置や空間を活用するのではなく、ユーザの位置や空間に応じて能動的にユーザからの要請を調整して解釈するか、又は電子機器410が優先的に空間別のユーザコンテキストと関連性の高い情報を能動的に提供することにより、情報提供の有用性を向上させることができる。   As described above, in this embodiment, the user's position and space are not used in order to provide the already determined information, but the request from the user is actively adjusted according to the user's position and space. Or the electronic device 410 preferentially provides information that is preferentially related to a user context according to space, thereby improving the usefulness of information provision.

図11は、本発明の一実施形態における、ユーザが位置する空間を決定する方法の例を示したフローチャートである。図11に示された段階1110及び段階1120は、図10の段階1010に含まれ、電子機器410によって実行されてよい。   FIG. 11 is a flowchart illustrating an example of a method for determining a space where a user is located according to an embodiment of the present invention. The steps 1110 and 1120 shown in FIG. 11 are included in the step 1010 of FIG. 10 and may be performed by the electronic device 410.

段階1110において、電子機器410は、スピーカから出力される音信号及び出力された音信号が室内で反射することによってマルチチャンネルマイクにチャンネル別に入力される反射信号に基づき、区画された空間に関する情報を取得してよい。このために、電子機器410は、上述したように、マルチチャンネルマイクにチャンネル別に入力される特定の反射信号の位相変位に基づいて特定の反射信号の方向を決定し、音信号の出力時刻と、特定の反射信号が前記マルチチャンネルマイクに入力されるチャンネル別の入力時刻に基づいて、特定の反射信号の方向への空間の境界との相対的な距離を決定し、音信号に対応する反射信号それぞれに対して決定される方向と相対的な距離に基づいて区画された空間を認識してよい。   In step 1110, the electronic device 410 obtains information on the partitioned space based on the sound signal output from the speaker and the reflected signal input to the multi-channel microphone by reflecting the output sound signal in the room. You may get it. For this reason, as described above, the electronic device 410 determines the direction of the specific reflected signal based on the phase displacement of the specific reflected signal input to the multi-channel microphone for each channel, and the output time of the sound signal, Based on the input time for each channel when a specific reflected signal is input to the multi-channel microphone, the relative distance from the boundary of the space in the direction of the specific reflected signal is determined, and the reflected signal corresponding to the sound signal A partitioned space may be recognized based on the direction and relative distance determined for each.

段階1120において、電子機器410は、取得した空間に関する情報と、ユーザの発話に基づいて測定されるユーザの位置により、ユーザの位置と特定の空間をマッチングしてよい。ユーザの位置も、電子機器410でユーザの発話による音信号をマルチチャンネルマイクでチャンネル別に受信することにより、ユーザとの相対的な方向及び/又は距離を測定することによって得られてよい。   In step 1120, the electronic device 410 may match the user's position with a specific space according to the acquired information regarding the space and the user's position measured based on the user's utterance. The position of the user may also be obtained by measuring a relative direction and / or distance from the user by receiving sound signals from the user's utterance by the multi-channel microphone by the electronic device 410 for each channel.

このように、本実施形態によると、ユーザが空間に関する情報(空間の種類や構造、位置など)を設定しなくても、電子機器410が自動的に室内の区画された空間に関する情報を取得し、ユーザがどの種類の空間に位置しているかを把握することが可能となる。   As described above, according to the present embodiment, the electronic device 410 automatically obtains information about the partitioned space in the room without the user setting information on the space (such as the type, structure, and position of the space). It becomes possible to grasp what kind of space the user is located in.

図12は、本発明の一実施形態における、ユーザが位置する空間を決定する方法の他の例を示したフローチャートである。図12に示された段階1210及び段階1220は、図10の段階1010に含まれ、電子機器410によって実行されてよい。   FIG. 12 is a flowchart illustrating another example of a method for determining a space in which a user is located according to an embodiment of the present invention. The steps 1210 and 1220 shown in FIG. 12 are included in the step 1010 of FIG. 10 and may be performed by the electronic device 410.

段階1210において、電子機器410は、複数のサブ機器それぞれが位置する空間に関する情報を管理してよい。ここで、複数のサブ機器は、ユーザの接近を感知するセンサを含んでよく、電子機器410に含まれる通信インタフェース413を介して、電子機器410と通信してよい。   In step 1210, the electronic device 410 may manage information regarding a space in which each of the plurality of sub devices is located. Here, the plurality of sub devices may include a sensor that senses the approach of the user, and may communicate with the electronic device 410 via the communication interface 413 included in the electronic device 410.

段階1220において、電子機器410は、通信インタフェース413により、複数のサブ機器から受信されるセンサ情報と複数のサブ機器それぞれが位置する空間に関する情報に基づいてユーザが位置する空間を決定してよい。一例として、複数のサブ機器は、複数のサブスピーカを含んでよい。この場合、電子機器410は、複数のサブスピーカそれぞれから出力されてマルチチャンネルマイクに入力されるチャンネル別の音信号に基づいて、複数のサブスピーカそれぞれとの距離及び方向を決定し、決定された距離及び方向に基づいて、複数のサブ機器それぞれが位置する空間に関する情報を生成してよい。実施形態によっては、図9を参照しながら説明したように、複数のサブ機器を含む多様な宅内の機器に関する位置情報がさらに活用されてもよい。   In step 1220, the electronic device 410 may determine the space where the user is located based on the sensor information received from the plurality of sub devices and the information regarding the space where each of the plurality of sub devices is located by the communication interface 413. As an example, the plurality of sub devices may include a plurality of sub speakers. In this case, the electronic device 410 determines the distance and direction from each of the plurality of sub-speakers based on the channel-specific sound signal output from each of the plurality of sub-speakers and input to the multi-channel microphone. Based on the distance and direction, information regarding a space in which each of the plurality of sub devices is located may be generated. Depending on the embodiment, as described with reference to FIG. 9, position information regarding various home devices including a plurality of sub devices may be further utilized.

本実施形態によると、ユーザが空間に関する情報(空間の種類や構造、位置など)を設定しなくても、電子機器410が、複数のサブ機器から提供されるセンサ情報と複数のサブ機器が位置する空間に関する情報に基づき、室内の区画された空間に関する情報を取得することができる。図12の実施形態は、図11の実施形態と組み合わせてより正確な空間に関する情報を取得するのに利用されてよく、これにより、ユーザが位置する空間に関する情報もより正確になる。   According to the present embodiment, even if the user does not set information regarding the space (such as the type, structure, and position of the space), the electronic device 410 is provided with the sensor information provided from the plurality of sub devices and the plurality of sub devices. Based on the information on the space to be played, information on the partitioned space in the room can be acquired. The embodiment of FIG. 12 may be used in combination with the embodiment of FIG. 11 to obtain more accurate information about the space, which also makes the information about the space where the user is located more accurate.

図13は、本発明の一実施形態における、ユーザの状況及び/又は行動を予測し、予測された状況及び/又は行動に基づいて情報を提供する方法の例を示したフローチャートである。   FIG. 13 is a flowchart illustrating an example of a method for predicting a user's situation and / or behavior and providing information based on the predicted situation and / or behavior in an embodiment of the present invention.

段階1310において、電子機器410は、ユーザが位置する空間別のユーザの発話内容及びユーザの活動のうちの少なくとも一方のユーザ情報を時間帯別にパターン化してよい。   In step 1310, the electronic device 410 may pattern user information of at least one of user's utterance contents and user activities by space in which the user is located according to time zones.

段階1320において、電子機器410は、空間別及び時間帯別にパターン化されたユーザ情報に基づき、区画された空間それぞれの種類を決定してよい。   In operation 1320, the electronic apparatus 410 may determine the type of each partitioned space based on the user information patterned by space and time zone.

段階1330において、電子機器410は、現在の時間帯及び現在ユーザが位置する空間でのユーザの予測状況又は予測行動を、空間別及び時間帯別にパターン化されたユーザ情報及び現在ユーザが位置する空間の種類に基づいて決定してよい。   In operation 1330, the electronic apparatus 410 displays the user information in the current time zone and the space where the current user is located, or the user information patterned for each space and time zone, and the space where the current user is located. You may decide based on the kind of.

段階1340において、電子機器410は、決定されたユーザの予測状況又は予測行動に基づき、ユーザの発話内容を特定の単語に解釈する確率を動的に調整するか、ユーザの発話内容に応じて提供する情報を決定するか、又はユーザの発話とは関係なくユーザに提供する情報を能動的に決定してよい。   In operation 1340, the electronic device 410 dynamically adjusts the probability of interpreting the user's utterance content into a specific word based on the determined user's predicted situation or behavior, or provides the user's utterance content according to the user's utterance content. Information to be determined or information to be provided to the user independently of the user's utterance may be determined.

このように、本実施形態によると、現在ユーザが位置している空間の種類と空間別及び/又は時間帯別にパターン化されたユーザ情報を活用することにより、ユーザの状況又は行動を予測することができ、空間別/時間帯別に予測された状況や行動に応じて電子機器410が能動的にユーザの発話の解釈を調節したり、又はユーザの音声要請とは関係なく能動的に情報をユーザに提供したりすることが可能となる。   As described above, according to the present embodiment, the user's situation or behavior is predicted by utilizing the user information patterned according to the type of space in which the user is currently located and the space and / or the time zone. The electronic device 410 actively adjusts the interpretation of the user's utterance according to the predicted situation and behavior by space / time zone, or actively transmits information regardless of the user's voice request. Or can be provided.

上述したシステム又は装置は、ハードウェア構成要素、ソフトウェア構成要素、又はハードウェア構成要素とソフトウェア構成要素との組み合わせによって実現されてよい。例えば実施形態で説明された装置及び構成要素は、例えばプロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ、マイクロコンピュータ、FPGA(field programmable gate array)、PLU(programmable logic unit)、マイクロプロセッサ、又は命令を実行して応答することができる様々な装置のように、1つ以上の汎用コンピュータ又は特殊目的コンピュータを利用して実現されてよい。処理装置は、オペレーティングシステム(OS)及び前記OS上で実行される1つ以上のソフトウェアアプリケーションを実行してよい。また、処理装置は、ソフトウェアの実行に応答し、データにアクセスし、データを格納、操作、処理及び生成してもよい。理解の便宜のために、1つの処理装置が使用されるとして説明される場合もあるが、当業者は、処理装置が複数個の処理要素及び/又は複数種類の処理要素を含んでもよいことが理解できるであろう。例えば処理装置は、複数個のプロセッサ又は1つのプロセッサ及び1つのコントローラを含んでよい。また、並列プロセッサのような、他の処理構成も可能である。   The system or apparatus described above may be realized by a hardware component, a software component, or a combination of a hardware component and a software component. For example, the apparatus and components described in the embodiments include, for example, a processor, a controller, an ALU (arithmetic logic unit), a digital signal processor, a microcomputer, an FPGA (field programmable gate array), a PLU (programmable logic unit), a microprocessor, Or it may be implemented using one or more general purpose or special purpose computers, such as various devices capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the OS. The processing device may also access data and store, manipulate, process and generate data in response to software execution. For convenience of understanding, a single processing device may be described as being used, but those skilled in the art may include a plurality of processing elements and / or multiple types of processing elements. You can understand. For example, the processing device may include a plurality of processors or a processor and a controller. Other processing configurations such as parallel processors are also possible.

ソフトウェアは、コンピュータプログラム、コード、命令又はこれらのうちの1つ以上の組み合わせを含んでもよく、所望のとおりに動作するように処理装置を構成したり、独立的又は集合的に処理装置に命令したりしてよい。ソフトウェア及び/又はデータは、処理装置に基づいて解釈されたり、処理装置に命令又はデータを提供したりするために、いかなる種類の機械、コンポーネント、物理装置、仮想装置、コンピュータ格納媒体又は装置に具現化されてよい。ソフトウェアは、ネットワークによって接続されたコンピュータシステム上に分散されてよく、分散された状態で格納されても実行されてもよい。ソフトウェア及びデータは、1つ以上のコンピュータで読み取り可能な記録媒体に格納されてよい。   The software may include computer programs, code, instructions, or a combination of one or more of these, configuring the processing device to operate as desired, or instructing the processing device independently or collectively. You may do it. Software and / or data may be embodied on any type of machine, component, physical device, virtual device, computer storage medium or device to be interpreted based on the processing device or to provide instructions or data to the processing device. May be used. The software may be distributed over computer systems connected by a network and may be stored or executed in a distributed state. Software and data may be stored on one or more computer-readable recording media.

実施形態に係る方法は、多様なコンピュータ手段によって実行可能なプログラム命令の形態で実現されてコンピュータで読み取り可能な媒体に記録されてよい。コンピュータで読み取り可能な媒体は、プログラム命令、データファイル、データ構造などを単独又は組み合わせて含んでよい。媒体は、コンピュータによって実行可能なプログラムを継続して格納するものであっても、実行又はダウンロードのために一時的に格納するものであってもよい。また、媒体は、単一又は複数個のハードウェアが結合した形態の多様な記録手段又は格納手段であってよいが、あるコンピュータシステムに直接接続する媒体に限定されてはならず、ネットワーク上に分散して存在するものであってもよい。媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM及びDVDのような光媒体、フロプティカルディスク(floptical disk)のような光磁気媒体、及びROM、RAM、フラッシュメモリなどを含んでプログラム命令語が格納されるように構成されたものであってよい。また、他の媒体の例として、アプリケーションを流通するアプリストアや他の多様なソフトウェアを供給ないし流通するサイト、サーバなどで管理する記録媒体ないし格納媒体が挙げられてもよい。プログラム命令の例には、コンパイラによって生成されるような機械語コードだけでなく、インタプリタなどを利用してコンピュータによって実行されることが可能な高級言語が含まれる。   The method according to the embodiment may be realized in the form of program instructions executable by various computer means and recorded on a computer-readable medium. A computer readable medium may include program instructions, data files, data structures, etc., alone or in combination. The medium may continuously store a program that can be executed by a computer, or may be temporarily stored for execution or download. The medium may be a variety of recording means or storage means in a form in which a single piece or a plurality of pieces of hardware are combined. However, the medium should not be limited to a medium directly connected to a computer system, It may exist in a dispersed manner. Examples of media include magnetic media such as hard disks, floppy disks and magnetic tape, optical media such as CD-ROMs and DVDs, magneto-optical media such as floppy disks, and It may be configured to store program instruction words including ROM, RAM, flash memory, and the like. Examples of other media may include an application store that distributes applications, a site that supplies or distributes various other software, a recording medium that is managed by a server, or a storage medium. Examples of program instructions include not only machine language code generated by a compiler but also high-level languages that can be executed by a computer using an interpreter or the like.

以上のように、実施形態を、限定された実施形態と図面に基づいて説明したが、当業者であれば、上述した記載から多様な修正及び変形が可能であろう。例えば説明された技術が、説明された方法とは異なる順序で実行されたり、かつ/あるいは、説明されたシステム、構造、装置、回路などの構成要素が、説明された方法とは異なる形態で結合されたり又は組み合わされたり、他の構成要素又は均等物によって代替されたり置換されたとしても、適切な結果を達成することができる。   As described above, the embodiments have been described based on the limited embodiments and the drawings, but those skilled in the art will be able to make various modifications and variations from the above description. For example, the described techniques may be performed in a different order than the described method and / or components of the described system, structure, apparatus, circuit, etc. may be combined in a different manner than the described method. Appropriate results can be achieved even if combined or combined, replaced or replaced by other components or equivalents.

したがって、異なる実施形態であっても、特許請求の範囲と均等なものであれば、添付される特許請求の範囲に属する。   Accordingly, even different embodiments belong to the appended claims as long as they are equivalent to the claims.

100:電子機器
110:ユーザ
140:IPTV
150:モバイル機器
220:外部サーバ
100: Electronic device 110: User 140: IPTV
150: Mobile device 220: External server

Claims (17)

音声基盤の入力/出力インタフェース、及び
コンピュータで読み取り可能な命令を実行するように実現される少なくとも1つのプロセッサ
を含み、
前記少なくとも1つのプロセッサは、
複数の空間の中からユーザが位置する空間を決定し、
前記決定された空間に基づいて前記音声基盤の入力/出力インタフェースに受信されるユーザの音声要請を解釈するか、又は前記決定された空間に基づいて前記少なくとも1つのプロセッサによって能動的に決定された情報を、前記音声基盤の入力/出力インタフェースを通じてユーザに提供すること
を特徴とする、情報提供装置。
An audio based input / output interface and at least one processor implemented to execute computer readable instructions;
The at least one processor comprises:
Determine the space where the user is located from multiple spaces,
Interpret the user's voice request received at the voice based input / output interface based on the determined space, or actively determined by the at least one processor based on the determined space Information is provided to a user through the voice-based input / output interface.
前記音声基盤の入力/出力インタフェースは、
音信号を出力するスピーカ、及び
マルチチャンネルマイク
を含み、
前記少なくとも1つのプロセッサは、
前記スピーカから出力される音信号と、前記出力された音信号が空間で反射することによって前記マルチチャンネルマイクにチャンネル別に入力される反射信号に基づき、前記複数の空間に関する情報を取得し、
前記取得した複数の空間に関する情報と、ユーザの発話に基づいて測定されるユーザの位置により、ユーザの位置と特定の空間をマッチングすること
を特徴とする、請求項1に記載の情報提供装置。
The voice-based input / output interface is:
Including a speaker that outputs sound signals and a multi-channel microphone,
The at least one processor comprises:
Based on the sound signal output from the speaker and the reflected signal input for each channel to the multi-channel microphone by reflecting the output sound signal in space, information on the plurality of spaces is obtained,
2. The information providing apparatus according to claim 1, wherein the user's position is matched with a specific space based on the acquired information on the plurality of spaces and the user's position measured based on the user's utterance.
ユーザの接近を感知するセンサを含む複数のサブ機器と通信する通信インタフェース
をさらに含み、
前記少なくとも1つのプロセッサは、
前記複数のサブ機器それぞれが位置する空間に関する情報を管理し、
前記通信インタフェースにより、前記複数のサブ機器から受信されるセンサ情報と、前記複数のサブ機器それぞれが位置する空間に関する情報に基づいてユーザが位置する空間を決定すること
を特徴とする、請求項1に記載の情報提供装置。
A communication interface for communicating with a plurality of sub-devices including a sensor that senses a user's approach
The at least one processor comprises:
Managing information about the space in which each of the plurality of sub-devices is located;
The space where the user is located is determined based on sensor information received from the plurality of sub-devices and information on a space where each of the plurality of sub-devices is located by the communication interface. The information providing device described in 1.
前記少なくとも1つのプロセッサは、
前記ユーザが位置する空間別のユーザの発話内容と前記発話内容と関連するユーザの活動のうちの少なくとも一方のユーザ情報を時間帯別にパターン化し、
前記空間別及び時間帯別にパターン化されたユーザ情報に基づいて前記複数の空間それぞれの種類を決定すること
を特徴とする、請求項1に記載の情報提供装置。
The at least one processor comprises:
The user information of at least one of the user's utterance content according to the space where the user is located and the user's activity related to the utterance content is patterned by time zone,
The information providing apparatus according to claim 1, wherein a type of each of the plurality of spaces is determined based on user information patterned for each space and each time zone.
前記少なくとも1つのプロセッサは、
現在の時間帯及び現在ユーザが位置する空間でのユーザの予測状況又は予測行動を、前記空間別及び時間帯別にパターン化されたユーザ情報及び現在ユーザが位置する空間の種類に基づいて決定すること
を特徴とする、請求項4に記載の情報提供装置。
The at least one processor comprises:
Determining a user's predicted situation or behavior in the current time zone and the space in which the current user is located based on the user information patterned for each space and time zone and the type of space in which the current user is located The information providing apparatus according to claim 4, wherein:
前記少なくとも1つのプロセッサは、
前記決定されたユーザの予測状況又は予測行動に基づき、ユーザの発話内容を特定の単語に解釈する確率を動的に調整するか、又はユーザの発話内容に応じて提供する情報を決定すること
を特徴とする、請求項5に記載の情報提供装置。
The at least one processor comprises:
Based on the predicted state or predicted behavior of the determined user, dynamically adjusting the probability of interpreting the user's utterance content into a specific word, or determining information to be provided according to the user's utterance content. The information providing device according to claim 5, wherein
前記少なくとも1つのプロセッサは、
前記決定されたユーザの予測状況又は予測行動に基づき、ユーザからの要請がなくてもユーザに提供する情報を能動的に決定すること
を特徴とする、請求項5に記載の情報提供装置。
The at least one processor comprises:
The information providing apparatus according to claim 5, wherein information to be provided to a user is actively determined based on the determined predicted situation or predicted behavior of the user without a request from the user.
複数の出力メディアと通信する通信インタフェース
をさらに含み、
前記少なくとも1つのプロセッサは、
前記複数の出力メディアの位置とユーザの位置に基づいて前記複数の出力メディアの中から少なくとも1つの出力メディアを決定し、
ユーザに提供するための情報が前記決定された少なくとも1つの出力メディアから出力されるように、前記通信インタフェースによって前記ユーザに提供するための情報を前記決定された少なくとも1つの出力メディアに送信すること
を特徴とする、請求項1に記載の情報提供装置。
A communication interface for communicating with a plurality of output media;
The at least one processor comprises:
Determining at least one output medium from the plurality of output media based on a position of the plurality of output media and a position of a user;
Transmitting information for providing to the user by the communication interface to the determined at least one output medium such that information for providing to the user is output from the determined at least one output medium. The information providing apparatus according to claim 1, wherein:
前記少なくとも1つのプロセッサは、
ユーザの位置が変更される場合、前記変更されたユーザの位置に応じて出力メディアを変更し、
前記ユーザに提供するための情報が前記変更された出力メディアから連続的に出力されるように、前記通信インタフェースを通じて前記ユーザに提供するための情報を前記変更された出力メディアに送信すること
を特徴とする、請求項8に記載の情報提供装置。
The at least one processor comprises:
When the user position is changed, the output medium is changed according to the changed user position,
The information to be provided to the user is transmitted to the changed output medium through the communication interface so that the information to be provided to the user is continuously output from the changed output medium. The information providing apparatus according to claim 8.
情報提供装置の情報提供方法であって、
複数の空間の中からユーザが位置する空間を決定する段階、及び
前記情報提供装置に含まれる音声基盤の入力/出力インタフェースで受信されるユーザの音声要請を解釈するか、又は前記決定された空間に基づいて能動的に決定された情報を、前記音声基盤の入力/出力インタフェースを通じてユーザに提供する段階
を含むことを特徴とする、情報提供方法。
An information providing method for an information providing apparatus, comprising:
Determining a space in which a user is located from a plurality of spaces, and interpreting a voice request of a user received at a voice-based input / output interface included in the information providing apparatus, or determining the determined space Providing the information actively determined based on the information to the user through the voice-based input / output interface.
前記ユーザが位置する空間を決定する段階は、
前記音声基盤の入力/出力インタフェースが含むスピーカから出力される音信号と、前記出力された音信号が空間で反射することによって前記音声基盤の入力/出力インタフェースが含むマルチチャンネルマイクにチャンネル別に入力される反射信号に基づき、前記複数の空間に関する情報を取得する段階、及び
前記取得した複数の空間に関する情報と、ユーザの発話に基づいて測定されるユーザの位置により、ユーザの位置と空間をマッチングする段階
を含むことを特徴とする、請求項10に記載の情報提供方法。
Determining the space in which the user is located,
A sound signal output from a speaker included in the audio-based input / output interface, and the output sound signal are reflected by a space and input to a multi-channel microphone included in the audio-based input / output interface for each channel. Acquiring the information about the plurality of spaces based on the reflected signal, and matching the user's position with the space based on the acquired information about the plurality of spaces and the user's position measured based on the user's utterance. The method of providing information according to claim 10, further comprising:
前記ユーザが位置する空間を決定する段階は、
ユーザの接近を感知するセンサを含む複数のサブ機器それぞれが位置する空間に関する情報を管理する段階、及び
前記情報提供装置の通信インタフェースにより、前記複数のサブ機器から受信されるセンサ情報と、前記複数のサブ機器それぞれが位置する空間に関する情報に基づいてユーザが位置する空間を決定すること
を特徴とする、請求項10に記載の情報提供方法。
Determining the space in which the user is located,
Managing information about a space in which each of a plurality of sub-devices including a sensor that senses the approach of a user is located; and sensor information received from the plurality of sub-devices by a communication interface of the information providing device; The information providing method according to claim 10, further comprising: determining a space where the user is located based on information regarding a space where each of the sub devices is located.
前記ユーザが位置する空間別のユーザの発話内容及び前記発話内容と関連するユーザの活動のうちの少なくとも一方のユーザ情報を時間帯別にパターン化する段階、及び
前記空間別及び時間帯別にパターン化されたユーザ情報に基づいて前記複数の空間それぞれの種類を決定する段階
をさらに含むことを特徴とする、請求項10に記載の情報提供方法。
Patterning the user information of at least one of the user's utterance content by space where the user is located and the user's activity related to the utterance content by time zone; and patterning by space and time zone The method according to claim 10, further comprising: determining a type of each of the plurality of spaces based on the user information.
現在の時間帯及び現在ユーザが位置する空間でのユーザの予測状況又は予測行動を、前記空間別及び時間帯別にパターン化されたユーザ情報及び現在ユーザが位置する空間の種類に基づいて決定する段階
をさらに含むことを特徴とする、請求項13に記載の情報提供方法。
Determining a user's predicted situation or behavior in the current time zone and the space in which the current user is located based on the user information patterned for each space and time zone and the type of space in which the current user is located The information providing method according to claim 13, further comprising:
前記決定されたユーザの予測状況又は予測行動に基づき、ユーザの発話内容を特定の単語に解釈する確率を動的に調整するか、ユーザの発話内容に応じて提供する情報を決定するか、又はユーザからの要請がなくてもユーザに提供する情報を能動的に決定する段階
をさらに含むことを特徴とする、請求項14に記載の情報提供方法。
The probability of interpreting the user's utterance content into a specific word is dynamically adjusted based on the determined user's predicted situation or prediction behavior, or information provided according to the user's utterance content is determined, or The information providing method according to claim 14, further comprising: actively determining information to be provided to the user without a request from the user.
コンピュータと結合し、請求項10〜15のうちのいずれか一項に記載の方法をコンピュータに実行させる、コンピュータプログラム。   A computer program that, when combined with a computer, causes the computer to execute the method according to any one of claims 10 to 15. 請求項10〜15のうちのいずれか一項に記載の方法をコンピュータに実行させるためのプログラムが記録されていることを特徴とする、コンピュータで読み取り可能な記録媒体。   A computer-readable recording medium in which a program for causing a computer to execute the method according to any one of claims 10 to 15 is recorded.
JP2018104651A 2017-06-02 2018-05-31 Method and apparatus for actively providing information suitable for user's location and space Active JP6681940B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020170068963A KR101975423B1 (en) 2017-06-02 2017-06-02 Method and apparatus for providing appropriate information for location and space of user actively
KR10-2017-0068963 2017-06-02

Publications (2)

Publication Number Publication Date
JP2018206385A true JP2018206385A (en) 2018-12-27
JP6681940B2 JP6681940B2 (en) 2020-04-15

Family

ID=64670151

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018104651A Active JP6681940B2 (en) 2017-06-02 2018-05-31 Method and apparatus for actively providing information suitable for user's location and space

Country Status (2)

Country Link
JP (1) JP6681940B2 (en)
KR (1) KR101975423B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112887766A (en) * 2019-11-29 2021-06-01 三星电子株式会社 Electronic device and control method thereof

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210083059A (en) * 2019-12-26 2021-07-06 삼성전자주식회사 Outputting method of audio data and electronic device supporting the same
KR102434127B1 (en) * 2019-12-31 2022-08-19 주식회사 스캐터랩 Method for sending first message in artificial intelligence and apparatus therefore
KR102223294B1 (en) * 2020-02-20 2021-03-05 한국과학기술원 Conversational interaction flow management for artificial intelligence speakers that track mobility of multiple users

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011257950A (en) * 2010-06-08 2011-12-22 Sony Corp Information processor, information processing unit, and information processing method
US8340975B1 (en) * 2011-10-04 2012-12-25 Theodore Alfred Rosenberger Interactive speech recognition device and system for hands-free building control
JP2013531785A (en) * 2010-05-20 2013-08-08 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Distance estimation using speech signals
JP2015050493A (en) * 2013-08-30 2015-03-16 ヤマハ株式会社 Information processing unit, av receiver, and program
JP2015513704A (en) * 2012-03-16 2015-05-14 ニュアンス コミュニケーションズ, インコーポレイテッド User-specific automatic speech recognition
WO2017085487A1 (en) * 2015-11-20 2017-05-26 Native Design Limited Lighting and sound system
JP2017514182A (en) * 2014-03-17 2017-06-01 ソノズ インコーポレイテッド Audio settings based on environment

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001319045A (en) * 2000-05-11 2001-11-16 Matsushita Electric Works Ltd Home agent system using vocal man-machine interface and program recording medium
JP4581290B2 (en) * 2001-05-16 2010-11-17 パナソニック株式会社 Speech recognition apparatus and speech recognition method
EP1728095A1 (en) * 2004-03-09 2006-12-06 Koninklijke Philips Electronics N.V. Object position estimation
KR100809659B1 (en) * 2006-07-14 2008-03-05 세종대학교산학협력단 System and method for offering intelligent home service
KR101064948B1 (en) * 2008-12-10 2011-09-16 한국전자통신연구원 Home network service method using of ubiquitious robotic companion
KR20130107555A (en) * 2012-03-22 2013-10-02 한국전자통신연구원 Apparatus and method for providing contents by tracing user under home network

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013531785A (en) * 2010-05-20 2013-08-08 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Distance estimation using speech signals
JP2011257950A (en) * 2010-06-08 2011-12-22 Sony Corp Information processor, information processing unit, and information processing method
US8340975B1 (en) * 2011-10-04 2012-12-25 Theodore Alfred Rosenberger Interactive speech recognition device and system for hands-free building control
JP2015513704A (en) * 2012-03-16 2015-05-14 ニュアンス コミュニケーションズ, インコーポレイテッド User-specific automatic speech recognition
JP2015050493A (en) * 2013-08-30 2015-03-16 ヤマハ株式会社 Information processing unit, av receiver, and program
JP2017514182A (en) * 2014-03-17 2017-06-01 ソノズ インコーポレイテッド Audio settings based on environment
WO2017085487A1 (en) * 2015-11-20 2017-05-26 Native Design Limited Lighting and sound system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112887766A (en) * 2019-11-29 2021-06-01 三星电子株式会社 Electronic device and control method thereof
CN112887766B (en) * 2019-11-29 2024-04-12 三星电子株式会社 Electronic device and control method thereof

Also Published As

Publication number Publication date
JP6681940B2 (en) 2020-04-15
KR101975423B1 (en) 2019-05-07
KR20180132276A (en) 2018-12-12

Similar Documents

Publication Publication Date Title
KR102025391B1 (en) Device control according to user's talk position
KR101949497B1 (en) Method and system for processing user command to provide and adjust operation of device or range of providing contents accoding to analyzing presentation of user speech
JP6567727B2 (en) User command processing method and system for adjusting output volume of sound output based on input volume of received voice input
JP6607999B2 (en) Media selection for providing information in response to voice requests
JP6681940B2 (en) Method and apparatus for actively providing information suitable for user's location and space
JP6752870B2 (en) Methods and systems for controlling artificial intelligence devices using multiple wake words
JP6716630B2 (en) Apparatus, method, computer program and recording medium for providing information
KR101924852B1 (en) Method and system for multi-modal interaction with acoustic apparatus connected with network
JP6947687B2 (en) Information provision methods, electronic devices, computer programs and recording media
KR102209092B1 (en) Method and system for controlling artificial intelligence device using plurality wake up word
JP6728319B2 (en) Service providing method and system using a plurality of wake words in an artificial intelligence device
JP6920398B2 (en) Continuous conversation function in artificial intelligence equipment
JP6775563B2 (en) Methods and systems for automatic failure detection of artificial intelligence equipment
KR102255844B1 (en) Method and apparatus for providing appropriate information for location and space of user actively
KR102023161B1 (en) Method and apparatus for providing appropriate information for location and space of user using moving device
KR102241792B1 (en) Continuous coversation function in artificial intelligence device
KR20180129729A (en) Method and system for multi-modal interaction with acoustic apparatus connected with network

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190806

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20191105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200324

R150 Certificate of patent or registration of utility model

Ref document number: 6681940

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250