WO2022092539A1 - 사용자 모델을 관리하는 전자 장치 및 이의 동작 방법 - Google Patents

사용자 모델을 관리하는 전자 장치 및 이의 동작 방법 Download PDF

Info

Publication number
WO2022092539A1
WO2022092539A1 PCT/KR2021/011815 KR2021011815W WO2022092539A1 WO 2022092539 A1 WO2022092539 A1 WO 2022092539A1 KR 2021011815 W KR2021011815 W KR 2021011815W WO 2022092539 A1 WO2022092539 A1 WO 2022092539A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
electronic device
model
user model
processor
Prior art date
Application number
PCT/KR2021/011815
Other languages
English (en)
French (fr)
Inventor
김태구
노대일
이윤주
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to US17/483,292 priority Critical patent/US11929079B2/en
Publication of WO2022092539A1 publication Critical patent/WO2022092539A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • G10L2015/0635Training updating or merging of old and new templates; Mean values; Weighting

Definitions

  • the present disclosure generally relates to an electronic device, and more particularly, to an electronic device for managing a user model and an operating method thereof.
  • the electronic device may provide a voice input method for receiving a user's utterance (eg, voice).
  • the electronic device may derive the user's utterance intention and perform an operation corresponding to the utterance intention (eg, execution of an application loaded in the electronic device and function control).
  • the electronic device may employ an artificial intelligence (AI) function capable of performing learning based on learning data. Accordingly, the AI function may improve the interaction success rate with the user as more learning data is provided.
  • AI artificial intelligence
  • the new electronic device may not properly understand the user's utterance intention compared to the user's existing electronic device. Accordingly, the new electronic device may perform an operation irrelevant to the user's utterance intention.
  • the user needs to learn the new electronic device through his/her own utterance.
  • an example of the present disclosure addresses the above problems and/or disadvantages and provides at least the advantages described below. Accordingly, an example of the present disclosure provides an electronic device capable of providing a user's pre-learned model to a new electronic device, and an operating method thereof.
  • An electronic device includes a communication circuit, a processor electrically connected to the communication circuit, and a memory electrically connected to the communication circuit and the processor and storing a user model and instructions and, when the instructions are executed by the processor, the electronic device receives a first user model from another electronic device of a user registered in the electronic device through the communication circuit, and based on the first user model to update the user model, and using the updated user model to identify the user based on a first voice input of the user, wherein the user model is configured to be configured to identify the user other than the user before registration of the user. is learned by the electronic device based on a second user model of at least one other user, and the first user model is the other electronic device based on the user's second voice input obtained from the other electronic device of the user It can be learned on the device.
  • the method of operating an electronic device includes: receiving a first user model from another electronic device of a user registered in the electronic device through a communication circuit of the electronic device; updating a user model of the electronic device based on a user model; and using the updated user model to identify the user based on a first voice input of the user, wherein the user model includes: is learned in the electronic device based on a second user model of at least one other user other than the user before registration of the user, and the first user model is the user obtained from the other electronic device of the user may be learned by the other electronic device based on the second voice input of .
  • An electronic device and an operating method thereof may understand the user's utterance intention and perform an operation related to the user's utterance intention without additional learning.
  • FIG. 1 is a block diagram of an electronic device in a network environment according to an embodiment.
  • FIG. 2 illustrates electronic devices and a server according to an embodiment.
  • FIG. 3 is a block diagram of an electronic device according to an embodiment.
  • FIG. 4 is a block diagram of a server according to an embodiment.
  • 5A is a block diagram of an electronic device according to an exemplary embodiment.
  • 5B illustrates learning of a user model according to an embodiment.
  • FIG. 6 illustrates a learning operation of an electronic device and a server according to an embodiment.
  • FIG. 7 illustrates a user model transmission operation between electronic devices according to an embodiment.
  • FIG. 8 illustrates an operation of deleting a user model between electronic devices according to an exemplary embodiment.
  • FIG 9 illustrates a user model transmission operation between electronic devices according to an embodiment.
  • FIG. 10 illustrates an operation of deleting a user model between electronic devices according to an exemplary embodiment.
  • FIG. 11 illustrates an operation in which an electronic device processes a user input, according to an embodiment.
  • FIG. 1 is a block diagram of an electronic device 101 in a network environment 100 according to an embodiment.
  • an electronic device 101 communicates with an electronic device 102 through a first network 198 (eg, a short-range wireless communication network) or a second network 199 . It may communicate with the electronic device 104 or the server 108 through (eg, a long-distance wireless communication network). According to an embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108 .
  • the electronic device 101 includes a processor 120 , a memory 130 , an input module 150 , a sound output module 155 , a display module 160 , an audio module 170 , and a sensor module ( 176), interface 177, connection terminal 178, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196 , or an antenna module 197 may be included.
  • at least one of these components eg, the connection terminal 178
  • may be omitted or one or more other components may be added to the electronic device 101 .
  • some of these components are integrated into one component (eg, display module 160 ). can be
  • the processor 120 for example, executes software (eg, a program 140) to execute at least one other component (eg, a hardware or software component) of the electronic device 101 connected to the processor 120 . It can control and perform various data processing or operations. According to an embodiment, as at least part of data processing or operation, the processor 120 stores a command or data received from another component (eg, the sensor module 176 or the communication module 190 ) into the volatile memory 132 . may be stored in the volatile memory 132 , and may process commands or data stored in the volatile memory 132 , and store the result data in the non-volatile memory 134 .
  • software eg, a program 140
  • the processor 120 stores a command or data received from another component (eg, the sensor module 176 or the communication module 190 ) into the volatile memory 132 .
  • the processor 120 stores a command or data received from another component (eg, the sensor module 176 or the communication module 190 ) into the volatile memory 132 .
  • the processor 120 is the main processor 121 (eg, a central processing unit or an application processor) or a secondary processor 123 (eg, a graphic processing unit, a neural network processing unit) a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor).
  • the main processor 121 e.g, a central processing unit or an application processor
  • a secondary processor 123 eg, a graphic processing unit, a neural network processing unit
  • NPU neural processing unit
  • an image signal processor e.g., a sensor hub processor, or a communication processor.
  • the main processor 121 e.g, a central processing unit or an application processor
  • a secondary processor 123 eg, a graphic processing unit, a neural network processing unit
  • NPU neural processing unit
  • an image signal processor e.g., a sensor hub processor, or a communication processor.
  • the main processor 121 e.g, a central processing unit or an application processor
  • a secondary processor 123
  • the auxiliary processor 123 is, for example, on behalf of the main processor 121 while the main processor 121 is in an inactive (eg, sleep) state, or the main processor 121 is active (eg, executing an application). ), together with the main processor 121, at least one of the components of the electronic device 101 (eg, the display module 160, the sensor module 176, or the communication module 190) It is possible to control at least some of the related functions or states.
  • the auxiliary processor 123 eg, an image signal processor or a communication processor
  • the auxiliary processor 123 may include a hardware structure specialized for processing an artificial intelligence model.
  • Artificial intelligence models can be created through machine learning. Such learning may be performed, for example, in the electronic device 101 itself on which artificial intelligence is performed, or may be performed through a separate server (eg, the server 108).
  • the learning algorithm may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but in the above example not limited
  • the artificial intelligence model may include a plurality of artificial neural network layers.
  • Artificial neural networks include deep neural networks (DNNs), convolutional neural networks (CNNs), recurrent neural networks (RNNs), restricted Boltzmann machines (RBMs), deep belief networks (DBNs), bidirectional recurrent deep neural networks (BRDNNs), It may be one of deep Q-networks or a combination of two or more of the above, but is not limited to the above example.
  • the artificial intelligence model may include, in addition to, or alternatively, a software structure in addition to the hardware structure.
  • the memory 130 may store various data used by at least one component of the electronic device 101 (eg, the processor 120 or the sensor module 176 ).
  • the data may include, for example, input data or output data for software (eg, the program 140 ) and instructions related thereto.
  • the memory 130 may include a volatile memory 132 or a non-volatile memory 134 .
  • the program 140 may be stored as software in the memory 130 , and may include, for example, an operating system 142 , middleware 144 , or an application 146 .
  • the input module 150 may receive a command or data to be used in a component (eg, the processor 120 ) of the electronic device 101 from the outside (eg, a user) of the electronic device 101 .
  • the input module 150 may include, for example, a microphone, a mouse, a keyboard, a key (eg, a button), or a digital pen (eg, a stylus pen).
  • the sound output module 155 may output a sound signal to the outside of the electronic device 101 .
  • the sound output module 155 may include, for example, a speaker or a receiver.
  • the speaker can be used for general purposes such as multimedia playback or recording playback.
  • the receiver may be used to receive an incoming call. According to an embodiment, the receiver may be implemented separately from or as a part of the speaker.
  • the display module 160 may visually provide information to the outside (eg, a user) of the electronic device 101 .
  • the display module 160 may include, for example, a control circuit for controlling a display, a hologram device, or a projector and a corresponding device.
  • the display module 160 may include a touch sensor configured to sense a touch or a pressure sensor configured to measure the intensity of a force generated by the touch.
  • the audio module 170 may convert a sound into an electric signal or, conversely, convert an electric signal into a sound. According to an embodiment, the audio module 170 acquires a sound through the input module 150 or an external electronic device (eg, a sound output module 155 ) directly or wirelessly connected to the electronic device 101 . A sound may be output through the electronic device 102 (eg, a speaker or headphones).
  • an external electronic device eg, a sound output module 155
  • a sound may be output through the electronic device 102 (eg, a speaker or headphones).
  • the sensor module 176 detects an operating state (eg, power or temperature) of the electronic device 101 or an external environmental state (eg, user state), and generates an electrical signal or data value corresponding to the sensed state. can do.
  • the sensor module 176 may include, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, a humidity sensor, or an illuminance sensor.
  • the interface 177 may support one or more designated protocols that may be used by the electronic device 101 to directly or wirelessly connect with an external electronic device (eg, the electronic device 102 ).
  • the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card
  • the connection terminal 178 may include a connector through which the electronic device 101 can be physically connected to an external electronic device (eg, the electronic device 102 ).
  • the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 179 may convert an electrical signal into a mechanical stimulus (eg, vibration or movement) or an electrical stimulus that the user can perceive through tactile or kinesthetic sense.
  • the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 180 may capture still images and moving images. According to an embodiment, the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 188 may manage power supplied to the electronic device 101 .
  • the power management module 188 may be implemented as, for example, at least a part of a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 189 may supply power to at least one component of the electronic device 101 .
  • the battery 189 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.
  • the communication module 190 is a direct (eg, wired) communication channel or a wireless communication channel between the electronic device 101 and an external electronic device (eg, the electronic device 102, the electronic device 104, or the server 108). It can support establishment and communication performance through the established communication channel.
  • the communication module 190 may include one or more communication processors that operate independently of the processor 120 (eg, an application processor) and support direct (eg, wired) communication or wireless communication.
  • the communication module 190 is a wireless communication module 192 (eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (eg, : It may include a LAN (local area network) communication module, or a power line communication module).
  • GNSS global navigation satellite system
  • a corresponding communication module among these communication modules is a first network 198 (eg, a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 199 (eg, legacy It may communicate with the external electronic device 104 through a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (eg, a telecommunication network such as a LAN or a WAN).
  • a first network 198 eg, a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)
  • a second network 199 eg, legacy It may communicate with the external electronic device 104 through a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (eg, a telecommunication network such as a LAN or a WAN).
  • a telecommunication network
  • the wireless communication module 192 uses subscriber information (eg, International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 within a communication network such as the first network 198 or the second network 199 .
  • subscriber information eg, International Mobile Subscriber Identifier (IMSI)
  • IMSI International Mobile Subscriber Identifier
  • the electronic device 101 may be identified or authenticated.
  • the wireless communication module 192 may support a 5G network after a 4G network and a next-generation communication technology, for example, a new radio access technology (NR).
  • NR access technology includes high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), minimization of terminal power and access to multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low-latency) -latency communications)).
  • eMBB enhanced mobile broadband
  • mMTC massive machine type communications
  • URLLC ultra-reliable and low-latency
  • the wireless communication module 192 may support a high frequency band (eg, mmWave band) to achieve a high data rate, for example.
  • a high frequency band eg, mmWave band
  • the wireless communication module 192 includes various technologies for securing performance in a high-frequency band, for example, beamforming, massive multiple-input and multiple-output (MIMO), all-dimensional multiplexing. It may support technologies such as full dimensional MIMO (FD-MIMO), an array antenna, analog beam-forming, or a large scale antenna.
  • the wireless communication module 192 may support various requirements specified in the electronic device 101 , an external electronic device (eg, the electronic device 104 ), or a network system (eg, the second network 199 ).
  • the wireless communication module 192 includes a peak data rate (eg, 20 Gbps or more) for realizing eMBB, loss coverage (eg, 164 dB or less) for realizing mMTC, or U-plane latency ( Example: downlink (DL) and uplink (UL) each 0.5 ms or less, or round trip 1 ms or less).
  • a peak data rate eg, 20 Gbps or more
  • loss coverage eg, 164 dB or less
  • U-plane latency Example: downlink (DL) and uplink (UL) each 0.5 ms or less, or round trip 1 ms or less.
  • the antenna module 197 may transmit or receive a signal or power to the outside (eg, an external electronic device).
  • the antenna module 197 may include an antenna including a conductor formed on a substrate (eg, a PCB) or a radiator formed of a conductive pattern.
  • the antenna module 197 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is connected from the plurality of antennas by, for example, the communication module 190 . can be selected. A signal or power may be transmitted or received between the communication module 190 and an external electronic device through the selected at least one antenna.
  • other components eg, a radio frequency integrated circuit (RFIC)
  • RFIC radio frequency integrated circuit
  • the antenna module 197 may form a mmWave antenna module.
  • the mmWave antenna module comprises a printed circuit board, an RFIC disposed on or adjacent to a first side (eg, bottom side) of the printed circuit board and capable of supporting a specified high frequency band (eg, mmWave band); and a plurality of antennas (eg, an array antenna) disposed on or adjacent to a second side (eg, top or side) of the printed circuit board and capable of transmitting or receiving signals of the designated high frequency band. can do.
  • peripheral devices eg, a bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
  • signal eg commands or data
  • the command or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199 .
  • Each of the external electronic devices 102 or 104 may be the same as or different from the electronic device 101 .
  • all or part of the operations performed by the electronic device 101 may be executed by one or more external electronic devices 102 , 104 , or 108 .
  • the electronic device 101 may perform the function or service itself instead of executing the function or service itself.
  • one or more external electronic devices may be requested to perform at least a part of the function or the service.
  • One or more external electronic devices that have received the request may execute at least a part of the requested function or service, or an additional function or service related to the request, and transmit a result of the execution to the electronic device 101 .
  • the electronic device 101 may process the result as it is or additionally and provide it as at least a part of a response to the request.
  • cloud computing distributed computing, mobile edge computing (MEC), or client-server computing technology may be used.
  • the electronic device 101 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing.
  • the external electronic device 104 may include an Internet of things (IoT) device.
  • Server 108 may be an intelligent server using machine learning and/or neural networks.
  • the external electronic device 104 or the server 108 may be included in the second network 199 .
  • the electronic device 101 may be applied to an intelligent service (eg, smart home, smart city, smart car, or health care) based on 5G communication technology and IoT-related technology.
  • FIG. 2 illustrates electronic devices 201 and 205 and a server 203 according to an embodiment.
  • a communication path between the electronic device 201 , the server 203 , and the electronic device 205 may be formed.
  • the electronic device 201 , the server 203 , and the electronic device 205 may transmit/receive data to each other using a communication path.
  • the electronic devices 201 and 205 may receive the server model 451 from the server 203 . According to an embodiment, the electronic devices 201 and 205 may generate the user models 370 and 570 using the server model 451 . According to an embodiment, the electronic devices 201 and 205 may transmit the user models 370 and 570 to the server 203 , the external electronic devices 201 and 205 , or a combination thereof.
  • the server 203 may transmit the server model 451 to the electronic device 201 , the electronic device 205 , or a combination thereof.
  • the server 203 may receive at least a portion of the user models 370 and 570 from the electronic device 201 , the electronic device 205 , or a combination thereof.
  • the server 203 may update (or learn) the server model 451 based on at least a part of the user models 370 and 570 .
  • the server 203 provides the user model 370 of the electronic device 201 to the electronic device 205 or provides the user model 570 of the electronic device 205 to the electronic device 201 . can be provided to
  • the electronic device 201 includes an application process 310 , a data collection unit 330 , a learning unit 350 , a user model 370 , a model synchronizer 390 , or a combination thereof. can do.
  • the application process 310 may be a task of the application 146 being executed in the processor 120 . According to an embodiment, the application process 310 may obtain a user's input (eg, voice) by controlling the input module 150 (eg, a microphone).
  • a user's input eg, voice
  • the input module 150 eg, a microphone
  • the application process 310 may perform a function corresponding to a user input obtained through the input module 150 .
  • the application process 310 may display the processing result of a function corresponding to the user's input to a specified module (eg, the sound output module 155, the display module 160, the audio module 170, the haptic module ( 179), or a combination thereof).
  • a specified module eg, the sound output module 155, the display module 160, the audio module 170, the haptic module ( 179), or a combination thereof.
  • the application process 310 may provide at least some of the acquired user inputs to the data collection unit 330 . According to an embodiment, the application process 310 may provide the data collection unit 330 with a specified type of input (eg, voice) acquired through the input module 150 .
  • a specified type of input eg, voice
  • the application process 310 may provide a function corresponding to a user's input, a processing result of the function, or a combination thereof to the data collection unit 330 .
  • the data collection unit 330 may be implemented as software executable by the processor 120 .
  • the data collection unit 330 may store the user's input, a function corresponding to the user's input, the processing result of the function, or a combination thereof in the memory 130 .
  • the learning unit 350 may be implemented as software executable by the processor 120 .
  • the learner 350 may learn the user model 370 . According to an embodiment, the learner 350 may perform machine learning on the user model 370 .
  • the learning unit 350 may perform learning on the user model 370 using data collected through the data collection unit 330 .
  • the learning unit 350 uses the data collected through the data collection unit 330 to perform supervised learning, unsupervised learning, semi-supervised learning reinforcement learning, or any of these for the user model 370 . combination can be performed.
  • the learning unit 350 may learn the user model 370 based on the server data 450 obtained from the server 203 .
  • the learning unit 350 performs learning on the user model 370 through numerical operations (eg, summation, average, weighted average) between the server data 450 and the user model 370 .
  • the learner 350 may change values of a plurality of layers (eg, parameters such as weights or activation functions) included in the user model 370 based on the server data 450 . there is.
  • the learner 350 may update a plurality of layers included in the user model 370 through learning of the user model 370 .
  • the user model 370 may include at least one artificial intelligence model related to the user.
  • the user model 370 may include an artificial intelligence model for identifying the user based on the user's voice input. In an embodiment, the user model 370 may include an artificial intelligence model for converting a user's voice input into text data. In an embodiment, the user model 370 may include an artificial intelligence model for identifying a function based on text data. In one embodiment, the user model 370 may include an artificial intelligence model for performing the identified function.
  • model synchronizer 390 may be implemented as software executable by the processor 120 .
  • the model synchronizer 390 may provide the user model 370 to the server 203 . In an embodiment, the model synchronizer 390 may provide at least some data of the user model 370 to the server 203 .
  • At least some data may include values (eg, parameters (eg, weights), activation functions) for indicating at least one layer of the user model 370 .
  • At least some data may include an offset value of a layer updated according to learning.
  • the offset value may be a difference value between the layer of the user model 370 before training and the layer of the user model 370 after training.
  • the model synchronizer 390 may obtain server data 450 from the server 203 .
  • the server data 450 may be used to train the user model 370 .
  • the server data 450 may include a server model 451 of the server 203 , at least one parameter 455 of the server model 451 , or a combination thereof.
  • the server 203 may include a model collector 410 , a learner 430 , server data 450 , a model synchronizer 470 , or a combination thereof.
  • the server data 450 may include a server model 451 , a parameter 455 , or a combination thereof.
  • model collection unit 410 may be implemented as software executable by the processor 120 of the server 203 .
  • the model collection unit 410 may acquire the user model 370 or 570 from at least one electronic device through which a communication path is formed with the server 203 .
  • the learning unit 430 may be implemented as software executable by the processor 120 .
  • the learning unit 430 may update (or learn) the server model 451 based on the user models 370 and 570 obtained from the one or more electronic devices 201 and 205 . there is.
  • the learner 430 may update the plurality of layers included in the server model 451 through learning of the server model 451 .
  • model synchronizer 470 may be implemented as software executable by the processor 120 .
  • the model synchronizer 470 may provide the server data 450 to the one or more electronic devices 201 and 205 .
  • the model synchronizer 470 may provide the server model 451 , the parameter 455 , or a combination thereof to the one or more electronic devices 201 and 205 .
  • the parameter 455 may include an offset value of a layer updated according to an update (or learning) of the server model 451 .
  • the offset value may be a difference between a layer of the server model 451 before training and a layer of the server model 451 after training.
  • the electronic device 205 may include an application process 510 , a model synchronizer 590 , a learner 550 , a user model 570 , or a combination thereof.
  • the application process 510 may be a task of the application 146 being executed in the processor 120 .
  • the learning unit 550 may be implemented as software executable by the processor 120 .
  • the learning unit 550 may perform learning on the user model 570 based on a user model (eg, the user model 370 ) obtained from the external electronic device 201 . .
  • the learning unit 550 may perform learning on the user model 570 based on the server data 450 obtained from the server 203 .
  • the learning unit 550 may learn the existing user models 581 and 591 based on the user models 585 and 595 of the external electronic device.
  • the learning unit 550 performs learning 571 to increase the influence of the user model 585 of the external electronic device in the existing user model 581 and the external electronic device in the existing user model 591 .
  • a training 575 may be performed to reduce the influence of the user model 595 of the device.
  • the existing user models 581 and 591 may represent a user model learned based on at least one user model.
  • the existing user model 581 may be learned as a new user model 570 based on the user model 585 of the external electronic device 201 .
  • the existing user model 581 may be learned as the new user model 570 through the operation 580 for reinforcing the influence of the user model 585 of the external electronic device 201 .
  • the operation 580 may be a numerical operation (eg, summation, average, and weighted average) between the existing user model 581 and the external user model 585 .
  • the existing user model 591 may be learned as a new user model 570 based on the user model 595 of the external electronic device 201 .
  • the existing user model 591 may be learned as a new user model 570 through an operation 590 of reducing the influence of the user model 595 of the external electronic device 201 .
  • the operation 590 may be an operation (eg, subtraction, weighted average) for reducing the numerical influence of the external user model 595 in the existing user model 591 .
  • the operation 590 may be to undo changes in parameters of the existing user model 591 when the external user model 595 is added to the existing user model 591 .
  • the user model 570 may be composed of user models of each of two or more users. In an embodiment, the user model 570 may include at least one artificial intelligence model associated with each of two or more users.
  • model synchronizer 590 may be implemented as software executable by the processor 120 .
  • the model synchronizer 590 may correspond to the model synchronizer 390 of the electronic device 201 .
  • the electronic device 205 does not include the data collection unit 330 of FIG. 2 , but this is only an example. According to an embodiment, the electronic device 205 may include the data collection unit 330 of FIG. 2 . According to an embodiment, when the electronic device 205 includes the data collection unit 330 of FIG. 2 , the electronic device 205 updates the user model 570 based on a user input (eg, utterance). Or, you can learn).
  • a user input eg, utterance. Or, you can learn.
  • FIG. 6 illustrates a learning operation of the electronic device 201 and the server 203 according to an embodiment.
  • the server 203 may transmit the server model 451 to the electronic device 201 .
  • the electronic device 201 may learn the user model 370 based on the server model 451 .
  • the electronic device 201 performs learning on the user model 370 through numerical operations (eg, summing, average, and weighted average) between the server model 451 and the user model 370 .
  • the electronic device 201 performs learning of the user model 370 through a numerical operation between at least one layer of the server model 451 and at least one layer of the user model 370 . can be done
  • the electronic device 201 may learn the user model 370 based on the user data.
  • the user data may include a user input (eg, voice), a function corresponding to the user input, a function processing result, or a combination thereof.
  • the electronic device 201 may perform supervised learning, unsupervised learning, semi-supervised learning reinforcement learning, or a combination thereof on the user model 370 using user data.
  • the electronic device 201 may transmit the user model 370 to the server 203 .
  • at least some data of the user model 370 of the electronic device 201 may be provided to the server 203 .
  • At least some data may include a value for indicating at least one layer of the user model 370 .
  • at least some data may include an offset value of a layer updated according to learning.
  • the offset value may be a difference value between the layer of the user model 370 before training and the layer of the user model 370 after training.
  • the server 203 may perform learning on the server model 451 based on the user model 370 .
  • the server 203 may perform learning on the server model 451 through a numerical operation between the server model 451 and the user model 370 .
  • the server 203 performs learning on the server model 451 through a numerical operation between at least one layer of the server model 451 and at least one layer of the user model 370 . can do.
  • the server 203 may transmit the server model 451 to the electronic device 201 .
  • the electronic device 201 may learn the user model 370 based on the server model 451 .
  • the learning operation of the electronic device 201 may include learning based on the server model 451 (steps S610 and S620 ) and learning based on user data (step S630 ).
  • the learning operation of the server 203 may consist of learning (steps S640 and S650 ) based on the user model 370 .
  • step S610, step S620 learning based on the server model 451
  • step S630 learning based on user data
  • step S640, step S650 learning based on the user model 370
  • learning based on the server model 451 may be initiated when the electronic device 201 requests the server 203 to transmit the server model 451 .
  • learning (steps S610 and S620) based on the server model 451 may be started after the server 203 updates (or learns) the server model 451.
  • learning based on user data may be started immediately after the electronic device 201 collects user data of a specified size or larger.
  • learning based on user data may be initiated in response to a user input (eg, a learning request) of the electronic device 201 .
  • learning based on the user model 370 may be started immediately after the server 203 collects more than a specified number of user models. In an embodiment, learning based on the user model 370 (steps S640 and S650) may be initiated whenever the server 203 collects the user model.
  • FIG. 7 illustrates a user model transmission operation between the electronic devices 201 and 205 according to an embodiment.
  • the electronic device 201 may identify an electronic device addition request.
  • the electronic device addition request may be generated based on a user input.
  • the electronic device addition request may be generated in the electronic device 201 based on a user input.
  • the electronic device addition request may be generated by an external device (eg, the server 203 or the electronic device 205 ) based on a user input.
  • an electronic device addition request generated by an external device may be transmitted to the electronic device 201 .
  • the electronic device 201 may identify an electronic device addition request to the electronic device 201 .
  • the electronic device 205 may be identifiable by the electronic device 201 .
  • the electronic device 205 may have a communication path with the electronic device 201 through a short-range communication network.
  • the electronic device 205 may have a communication path to the same access point as the electronic device 201 .
  • the electronic device 205 may be an IoT device.
  • the electronic device 205 includes a portable communication device (eg, a smartphone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, a home appliance device, a smart speaker, or a combination thereof. can do.
  • the electronic device 201 may transmit the first user model (eg, the user model 370 ) to the electronic device 205 .
  • the first user model eg, the user model 370
  • the electronic device 201 may directly transmit the user model 370 to the electronic device 205 . According to an embodiment, the electronic device 201 may directly transmit the user model 370 to the electronic device 205 using a communication path established between the electronic device 201 and the electronic device 205 .
  • the electronic device 201 may indirectly transmit the user model 370 to the electronic device 205 .
  • the electronic device 201 may transmit the user model 370 to the server 203 , and may transmit the user model 370 received by the server 203 to the electronic device 205 .
  • the electronic device 201 transmits a user model transmission request to the server 203 , and the server 203 electronically transmits the user model 370 stored in the server 203 in response to the user model transmission request. may be transmitted to the device 205 .
  • the electronic device 205 may store the received first user model 370 in the memory 130 of the electronic device 205 .
  • the electronic device 205 may learn the second user model 570 based on the first user model 370 .
  • the electronic device 205 performs numerical calculations (eg, summing, averaging, and weighted average) between the first user model 370 and the user model 570 for the second user model 570 . learning can be performed.
  • numerical calculations eg, summing, averaging, and weighted average
  • the electronic device 205 may notify the electronic device 201 that learning of the second user model 570 based on the first user model 370 is completed.
  • the user of the electronic device 201 may recognize that a voice recognition service suitable for the user can be provided through the electronic device 205 through the learning completion notification.
  • FIG. 8 illustrates a user model deletion operation between the electronic devices 201 and 205 according to an exemplary embodiment.
  • the electronic device 201 may identify an electronic device deletion request.
  • the electronic device deletion request may be generated based on a user input.
  • the electronic device deletion request may be generated in the electronic device 201 based on a user input.
  • the electronic device deletion request may be generated by an external device (eg, the server 203 or the electronic device 205) based on a user input.
  • the electronic device deletion request generated by the external device may be transmitted to the electronic device 201 .
  • the electronic device 201 may request the electronic device 205 to delete the first user model.
  • the electronic device 201 may directly transmit a user model deletion request to the electronic device 205 . According to an embodiment, the electronic device 201 may indirectly transmit a user model deletion request to the electronic device 205 through the server 203 .
  • the electronic device 205 may delete the first user model 370 .
  • the electronic device 205 may delete the first user model 370 stored in the memory 130 of the electronic device 205 .
  • the electronic device 205 may learn the second user model 570 based on the residual user model.
  • the remaining user model may be a user model of the electronic device to which the electronic device 205 is added (or registered).
  • the electronic device 205 may learn the second user model 570 by using the remaining user models except for the first user model 370 .
  • the electronic device 205 may perform learning on the second user model 570 through a numerical operation for excluding the contribution of the first user model 370 to the user model 570 .
  • the electronic device 205 may perform a numerical operation for excluding the contribution of the first user model 370 to the second user model 570 and then perform step S830.
  • the electronic device 205 may notify the electronic device 201 of user deletion.
  • the user of the electronic device 201 may recognize that only a general voice recognition service using the electronic device 205 can be provided through a user deletion notification.
  • FIG. 9 illustrates a user model transmission operation between the electronic devices 201 and 205 according to an embodiment.
  • the electronic device 205 may identify a user addition request.
  • the user addition request may be generated based on a user input.
  • the user addition request may be generated in the electronic device 205 based on a user input.
  • the user addition request may be generated in an external device (eg, the server 203 or the electronic device 201) based on a user input.
  • the user addition request generated by the external device may be transmitted to the electronic device 201 .
  • the electronic device 205 may request the first user model 370 from the electronic device 201 .
  • the electronic device 205 may directly transmit the user model request to the electronic device 201 . According to an embodiment, the electronic device 205 may indirectly transmit a user model request to the electronic device 201 through the server 203 .
  • the electronic device 205 may transmit a user model request to all electronic devices to which the user is registered. According to an embodiment, the electronic device 205 may transmit a user model request to the electronic device 201 designated by the user among all electronic devices to which the user is registered.
  • the electronic device 201 may transmit the first user model 370 to the electronic device 205 .
  • the electronic device 205 may learn the second user model 570 based on the first user model 370 .
  • the electronic device 205 when the electronic device 205 receives two or more first user models (eg, the user model 370 ), the electronic device 205 sets the two or more first user models as one user model. , and a second user model (eg, the user model 570) may be learned based on the integrated user model.
  • the integration into the user model may be performed through a numerical operation (eg, summation, average, weighted average) between two or more first user models.
  • the electronic device 205 provides the electronic device 201 with a second user model (eg, the user model 570 ) based on the first user model (eg, the user model 370 ). You can notify that the learning of According to an embodiment, the user of the electronic device 201 may recognize that a voice recognition service suitable for the user can be provided through the electronic device 205 through the learning completion notification.
  • a second user model eg, the user model 570
  • the user of the electronic device 201 may recognize that a voice recognition service suitable for the user can be provided through the electronic device 205 through the learning completion notification.
  • FIG. 10 illustrates a user model deletion operation between the electronic devices 201 and 205 according to an exemplary embodiment.
  • the electronic device 205 may identify a user deletion request.
  • the user deletion request may be generated based on a user input.
  • the user deletion request may be generated in the electronic device 205 based on a user input.
  • the user deletion request may be generated by an external device (eg, the server 203 or the electronic device 201) based on a user input.
  • a user deletion request generated by an external device may be transmitted to the electronic device 205 .
  • the user deletion request may be generated by an input of an administrator of the electronic device 205 .
  • the manager of the electronic device 205 may be the owner of the electronic device 205 .
  • the manager of the electronic device 205 may be a user selected from among users registered in the electronic device 205 .
  • the manager of the electronic device 205 may determine whether to allow, restrict, or a combination of functions executable in the electronic device 205 .
  • the manager of the electronic device 205 may determine a user's authority registered in the electronic device 205 (eg, whether to allow a function executable in the electronic device 205 ).
  • step S1020 the electronic device 205 may notify the electronic device 201 of user deletion.
  • the electronic device 205 may notify all electronic devices in which the user is registered to delete the user. According to an embodiment, the electronic device 205 may notify the user deletion to an electronic device (eg, the electronic device 201 ) designated by the user among all electronic devices to which the user is registered.
  • an electronic device eg, the electronic device 201
  • the user of the electronic device 201 may recognize that only a general voice recognition service using the electronic device 205 can be provided through a user deletion notification.
  • the electronic device 205 may delete the first user model 370 .
  • the electronic device 205 may learn the second user model 570 based on the residual user model.
  • step S1020 is performed after step S1010, but this is only an example. In an embodiment, step S1020 may be performed after step S1030 or step S1040.
  • FIG. 11 illustrates an operation in which the electronic device 201 processes a user input according to an exemplary embodiment.
  • the electronic device 201 may identify a user input (eg, voice).
  • a user input eg, voice
  • the electronic device 201 may identify the user based on the user input. According to an embodiment, the electronic device 201 may identify a user using at least one user model 370 stored in the electronic device 201 .
  • the electronic device 201 may identify that the user who uttered the wake-up is “David” using the user model. there is.
  • the electronic device 201 may identify that the user who uttered the command is “David” using the user model.
  • the electronic device 201 may identify a processing result corresponding to the identified user.
  • the electronic device 201 may identify a function corresponding to the user's input by using a user model corresponding to the identified user.
  • the electronic device 201 processes that the function according to the user's input cannot be performed when the identified user is not permitted to perform the identified function (eg, running the video platform, accessing the designated homepage) results can be identified.
  • permission or restriction of a function for a user may be preset by an administrator of the electronic device 201 .
  • permission or restriction of a function for a user may be preset according to a policy (eg, a minor management policy) of the electronic device 201 .
  • the electronic device 201 may perform the function according to the user's input.
  • the electronic device 201 may perform a function corresponding to the user's input by using a user model corresponding to the identified user. According to an embodiment, the electronic device 201 may perform a function corresponding to the user's input by using a user model corresponding to the identified user from among a plurality of user models.
  • the electronic device 201 may perform a function corresponding to the user's input by using a user model corresponding to the identified user. According to an embodiment, the electronic device 201 may identify a processing result of a function corresponding to the user's input by using a user model corresponding to the identified user.
  • the electronic device 201 may identify a function corresponding to the user's utterance by inputting a command uttered by the user into the user model for the identified user “David”.
  • the electronic device 201 may perform the identified function for the identified user “David”.
  • the electronic device 201 may output the identified result.
  • the electronic device 201 displays the processing result of the function corresponding to the user's input to a specified module (eg, the sound output module 155 , the display module 160 , the audio module 170 , the haptic module ( 179), or a combination thereof).
  • a specified module eg, the sound output module 155 , the display module 160 , the audio module 170 , the haptic module ( 179), or a combination thereof.
  • the electronic device 201 may output identification information (eg, name) of the identified user together.
  • identification information eg, name
  • the electronic device 201 may output a processing result of the identified function together with the name of the identified user “David”.
  • the electronic device 201 may output a voice saying "David, today's weather is 25 degrees.”
  • the electronic device 201 may output a voice saying “David, the corresponding function is not permitted to David.”
  • FIG. 11 has been described as being performed through the electronic device 201, this is only an example. The steps of FIG. 11 may also be performed through the electronic device 205 .
  • the electronic devices 201 and 205 include a communication circuit (eg, the communication module 190 of FIG. 1 ), a processor 120 electrically connected to the communication circuit, and the communication circuit, and and a memory 130 electrically connected to the processor 120 and storing user models 370 and 570 and instructions, wherein the instructions, when executed by the processor 120 , the electronic device 201 , 205 receives, through the communication circuit, a first user model from another electronic device of a user registered in the electronic device 201, 205, and based on the first user model, the user models 370 and 570 ), and using the updated user model (370, 570) to identify the user, based on a first voice input of the user, wherein the user model (370, 570) comprises: is learned by the electronic devices 201 and 205 based on a second user model of at least one other user other than the user before registration of It may be learned by the other electronic device based on the user's second voice input.
  • a communication circuit eg, the communication module 190 of
  • the electronic device 201 , 205 when the instructions are executed by the processor 120 , the electronic device 201 , 205 is registered by a first user among at least one user registered with the electronic device 201 , 205 . and to update the user model ( 370 , 570 ) such that the user model ( 370 , 570 ) is identified as being released and the influence of the user model ( 370 , 570 ) of the first user is removed from the user model ( 370 , 570 ).
  • the electronic device 201 or 205 identifies a deregistration request for the first user, and in response to the deregistration request, and deregister the first user from the electronic device, wherein the request for deregistration is one of a user input of the first user, an input of the first user from an external electronic device, or an input of an administrator of the electronic device It can be created by at least one.
  • the electronic device 201 or 205 when the instructions are executed by the processor 120 , the electronic device 201 or 205 identifies a right for the user identified based on the first voice input, and the identification and determine whether to execute a function determined according to the first voice input based on the received authority.
  • the authority for the user may be set by an administrator of the electronic devices 201 and 205 .
  • the electronic devices 201 and 205 may be configured to output the identification information of the user in response to the first voice input. there is.
  • the electronic devices 201 and 205 use the communication circuit to receive at least some data of the server model 451 from the server 203 . receive 455 , and update the user model 370 , 570 based on the received at least some data 455 .
  • the first user model may be periodically received from the other electronic device.
  • the electronic devices 201 and 205 when the instructions are executed by the processor 120 , the electronic devices 201 and 205 include weights of a plurality of layers included in the first user model and the user models 370 and 570 . ) may be configured to update the user model through a weighted average between weights of a plurality of layers included in the .
  • the electronic device 201 or 205 when the instructions are executed by the processor 120, the electronic device 201 or 205 responds to the first voice input, a function determined according to the first voice input, or a combination thereof. based on the user model 370 , 570 .
  • the electronic device 201 is performed through a communication circuit (eg, the communication module 190 of FIG. 1 ) of the electronic devices 201 and 205 .
  • a communication circuit eg, the communication module 190 of FIG. 1
  • receiving a first user model from another electronic device of the user registered in 205 updating the user models 370 and 570 of the electronic devices 201 and 205 based on the first user model; and using the updated user model (370, 570) to identify the user based on the user's first voice input, wherein the user model (370, 570) includes the user's registration
  • the first user model is learned by the electronic devices 201 and 205 based on a second user model of at least one other user other than the previous user, and the first user model is the user's It may be learned by the other electronic device based on the second voice input.
  • the operation of identifying that the first user is de-registered among at least one user registered in the electronic device 201 and 205, and the user model of the first user in the user models 370 and 570 may include an operation of updating the user models 370 and 570 so that the influence by the ( 370 , 570 ) is removed.
  • the method includes: identifying a deregistration request for the first user; and deregistering the first user from the electronic device (201, 205) in response to the deregistration request, , the registration deregistration request may be generated by at least one of a user input of the first user, an input of the first user from an external electronic device, or an input of a manager of the electronic devices 201 and 205 .
  • an operation of identifying a right for the user identified based on the first voice input, and an operation of determining whether to execute a function determined according to the first voice input based on the identified permission may include
  • the authority for the user may be set by an administrator of the electronic devices 201 and 205 .
  • outputting the user's identification information may be included.
  • receiving at least some data 455 of the server model 451 from the server 203 using the communication circuit, and based on the received at least some data 455 , the It may include an operation of updating the user models 370 and 570 .
  • the first user model may be periodically received from the other electronic device.
  • the updating of the user models 370 and 570 includes weights of a plurality of layers included in the first user model and weights of a plurality of layers included in the user models 370 and 570. It may include an operation of updating the user models 370 and 570 through a weighted average between the two.
  • the updating of the user models 370 and 570 includes the user models 370 and 570 based on the first voice input, a function determined according to the first voice input, or a combination thereof. 570) may be included.
  • the electronic device may be a device of various types.
  • the electronic device may include, for example, a portable communication device (eg, a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance device.
  • a portable communication device eg, a smart phone
  • a computer device e.g., a laptop, a desktop, a tablet, or a portable multimedia device
  • portable medical device e.g., a portable medical device
  • camera e.g., a camera
  • a wearable device e.g., a smart watch
  • a home appliance device e.g., a smart bracelet
  • first, second, or first or second may be used simply to distinguish the element from other elements in question, and may refer to elements in other aspects (e.g., importance or order) is not limited. It is said that one (eg, first) component is “coupled” or “connected” to another (eg, second) component, with or without the terms “functionally” or “communicatively”. When referenced, it means that one component can be connected to the other component directly (eg by wire), wirelessly, or through a third component.
  • module used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, for example, and interchangeably with terms such as logic, logic block, component, or circuit.
  • a module may be an integrally formed part or a minimum unit or a part of the part that performs one or more functions.
  • the module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • one or more instructions stored in a storage medium may be implemented as software (eg, the program 140) including
  • a processor eg, processor 120
  • a device eg, electronic device 101
  • the one or more instructions may include code generated by a compiler or code executable by an interpreter.
  • the device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' only means that the storage medium is a tangible device and does not include a signal (eg, electromagnetic wave), and this term is used in cases where data is semi-permanently stored in the storage medium and It does not distinguish between temporary storage cases.
  • a signal eg, electromagnetic wave
  • Computer program products may be traded between sellers and buyers as commodities.
  • the computer program product is distributed in the form of a machine-readable storage medium (eg compact disc read only memory (CD-ROM)), or via an application store (eg Play StoreTM) or on two user devices ( It can be distributed (eg downloaded or uploaded) directly between smartphones (eg: smartphones) and online.
  • a machine-readable storage medium such as a memory of a server of a manufacturer, a server of an application store, or a relay server.
  • each component eg, a module or a program of the above-described components may include a singular or a plurality of entities, and some of the plurality of entities may be separately disposed in other components. .
  • one or more components or operations among the above-described corresponding components may be omitted, or one or more other components or operations may be added.
  • a plurality of components eg, a module or a program
  • the integrated component may perform one or more functions of each component of the plurality of components identically or similarly to those performed by the corresponding component among the plurality of components prior to the integration. .
  • operations performed by a module, program, or other component are executed sequentially, in parallel, repeatedly, or heuristically, or one or more of the operations are executed in a different order, omitted, or , or one or more other operations may be added.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Computer Security & Cryptography (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

상기 전자 장치의 통신 회로를 통해, 상기 전자 장치에 등록된 사용자의 다른 전자 장치로부터 제1 사용자 모델을 수신하는 동작, 상기 제1 사용자 모델에 기반하여 상기 전자 장치의 사용자 모델을 갱신하는 동작, 및 상기 갱신된 사용자 모델을 이용하여, 상기 사용자의 제1 음성 입력에 기반하여, 상기 사용자를 식별하는 동작을 포함하고, 상기 사용자 모델은, 상기 사용자의 등록 전 상기 사용자 이외의 적어도 하나의 다른 사용자의 제2 사용자 모델에 기반하여 상기 전자 장치에서 학습되고, 상기 제1 사용자 모델은, 상기 사용자의 상기 다른 전자 장치에서 획득된 상기 사용자의 제2 음성 입력에 기반하여 상기 다른 전자 장치에서 학습될 수 있는 전자 장치의 동작 방법이 개시된다.

Description

사용자 모델을 관리하는 전자 장치 및 이의 동작 방법
본 개시는 일반적으로 전자 장치에 관한 것이고, 보다 구체적으로 사용자 모델을 관리하는 전자 장치 및 이의 동작 방법에 관한 것이다.
전자 장치는 사용자와의 인터랙션(interaction)을 가능하게 하기 위해 다양한 양상의 입력 방식이 개발되었다. 전자 장치는 사용자 발화(예: 음성)를 수신하는 음성 입력 방식을 제공할 수 있다. 전자 장치는 사용자의 발화 의도를 도출하고, 발화 의도에 대응하는 동작(예: 전자 장치에 탑재된 어플리케이션의 실행 및 기능 제어)을 수행할 수 있다.
이러한 기능을 제공하기 위해, 전자 장치는 인공지능(AI, artificial intelligence) 기능은 학습 데이터에 기반하여 학습을 수행할 수 있는 인공지능 기능을 채용할 수 있다. 이에 따라, AI 기능은 학습 데이터가 보다 많이 제공될수록 사용자와의 인터랙션 성공률이 향상될 수 있다.
종래 기술에서는, 사용자가 새로운 전자 장치에게 사용자 발화를 입력할 경우, 새로운 전자 장치는 사용자의 기존의 전자 장치와 비교하여 사용자의 발화 의도를 적절하게 이해하지 않을 수 있다. 이에 따라, 새로운 전자 장치는 사용자의 발화 의도와는 관련 없는 동작을 수행할 수 있다.
또한, 새로운 전자 장치가 사용자의 발화 의도를 적절하게 이해하기 위해서는, 사용자는 새로운 전자 장치를 자신의 발화를 통해 학습시켜야 한다.
그러므로, 기술분야에서는 사용자의 발화를 적절하게 이해하고, 이에 따라, 사용자가 의도한 동작을 수행하는 전자 장치 및 연관된 방법이 필요하다.
본 개시의 예시는 상기 문제들 및/또는 단점을 해결하고 아래에서 설명되는 이점을 적어도 제공한다. 따라서, 본 개시의 예시는 사용자의 기 학습된 모델을 새로운 전자 장치에게 제공할 수 있는 전자 장치, 및 이의 동작 방법을 제공한다.
본 문서에서 개시되는 일 실시 예에 따른 전자 장치는, 통신 회로, 상기 통신 회로와 전기적으로 연결된 프로세서, 및 상기 통신 회로, 및 상기 프로세서와 전기적으로 연결되고, 사용자 모델 및 인스트럭션들을 저장하는 메모리를 포함하고, 상기 인스트럭션들은, 상기 프로세서에 의해 실행 시, 상기 전자 장치가 상기 통신 회로를 통해, 상기 전자 장치에 등록된 사용자의 다른 전자 장치로부터 제1 사용자 모델을 수신하고, 상기 제1 사용자 모델에 기반하여 상기 사용자 모델을 갱신하고, 상기 갱신된 사용자 모델을 이용하여, 상기 사용자의 제1 음성 입력에 기반하여, 상기 사용자를 식별하도록 구성되고, 상기 사용자 모델은, 상기 사용자의 등록 전 상기 사용자 이외의 적어도 하나의 다른 사용자의 제2 사용자 모델에 기반하여 상기 전자 장치에서 학습되고, 상기 제1 사용자 모델은, 상기 사용자의 상기 다른 전자 장치에서 획득된 상기 사용자의 제2 음성 입력에 기반하여 상기 다른 전자 장치에서 학습될 수 있다.
본 문서에서 개시되는 일 실시 예에 따른 전자 장치의 동작 방법은, 상기 전자 장치의 통신 회로를 통해, 상기 전자 장치에 등록된 사용자의 다른 전자 장치로부터 제1 사용자 모델을 수신하는 동작, 상기 제1 사용자 모델에 기반하여 상기 전자 장치의 사용자 모델을 갱신하는 동작, 및 상기 갱신된 사용자 모델을 이용하여, 상기 사용자의 제1 음성 입력에 기반하여, 상기 사용자를 식별하는 동작을 포함하고, 상기 사용자 모델은, 상기 사용자의 등록 전 상기 사용자 이외의 적어도 하나의 다른 사용자의 제2 사용자 모델에 기반하여 상기 전자 장치에서 학습되고, 상기 제1 사용자 모델은, 상기 사용자의 상기 다른 전자 장치에서 획득된 상기 사용자의 제2 음성 입력에 기반하여 상기 다른 전자 장치에서 학습될 수 있다.
본 개시의 일 실시 예에 따른 전자 장치 및 이의 동작 방법은, 별도의 학습 없이도 사용자의 발화 의도를 이해하고, 사용자의 발화 의도와 관련된 동작을 수행할 수 있다.
본 개시의 다양한 실시 예들에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 일 실시 예에 따른 네트워크 환경 내의 전자 장치의 블록도이다.
도 2는 일 실시 예에 따른 전자 장치들과 서버를 도시한다.
도 3은 일 실시 예에 따른 전자 장치의 블록도이다.
도 4는 일 실시 예에 따른 서버의 블록도이다.
도 5a는 일 실시 예에 따른 전자 장치의 블록도이다.
도 5b는 일 실시 예에 따른 사용자 모델의 학습을 도시한다.
도 6은 일 실시 예에 따른 전자 장치와 서버의 학습 동작을 도시한다.
도 7은 일 실시 예에 따른 전자 장치들 간의 사용자 모델 전송 동작을 도시한다.
도 8은 일 실시 예에 따른 전자 장치들 간의 사용자 모델 삭제 동작을 도시한다.
도 9는 일 실시 예에 따른 전자 장치들 간의 사용자 모델 전송 동작을 도시한다.
도 10은 일 실시 예에 따른 전자 장치들 간의 사용자 모델 삭제 동작을 도시한다.
도 11은 일 실시 예에 따른 전자 장치가 사용자 입력을 처리하는 동작을 도시한다.
이하에서, 본 개시의 실시 예들이 첨부 도면을 참조하여 상세하게 설명될 것이다. 본 개시에서, 실시 예들은 도면에서 개시되고 관련된 상세한 설명에서 명시되지만, 이는 본 개시의 실시 예들을 제한하려는 의도가 아니다. 자명한 기능들 및 구조들에 대한 설명은 명확하고 간결함을 위해 생략된다.
도 1은, 일 실시 예에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시 예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시 예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일 실시 예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일 실시 예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일 실시 예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted Boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일 실시 예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일 실시 예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일 실시 예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일 실시 예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일 실시 예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일 실시 예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일 실시 예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일 실시 예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일 실시 예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일 실시 예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시 예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다.
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제 2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일 실시 예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일 실시 예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일 실시 예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시 예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
다양한 실시 예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일 실시 예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제 1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제 2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들 간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일 실시 예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104) 간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일 실시 예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시 예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일 실시 예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제 2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다.
도 2는 일 실시 예에 따른 전자 장치들(201, 205)과 서버(203)를 도시한다.
도 2를 참조하면, 전자 장치(201), 서버(203), 및 전자 장치(205)는 서로 간의 통신 경로가 형성될 수 있다. 일 실시 예에 있어서, 전자 장치(201), 서버(203), 및 전자 장치(205)는 통신 경로를 이용하여 서로 데이터를 송수신할 수 있다.
일 실시 예에 있어서, 전자 장치들(201, 205)은 서버(203)로부터 서버 모델(451)을 수신할 수 있다. 일 실시 예에 있어서, 전자 장치들(201, 205)은 서버 모델(451)을 이용하여 사용자 모델(370, 570)을 생성할 수 있다. 일 실시 예에 있어서, 전자 장치들(201, 205)은 사용자 모델(370, 570)을 서버(203), 외부의 전자 장치(201, 205), 또는 이들의 조합에게 송신할 수 있다.
일 실시 예에 있어서, 서버(203)는 서버 모델(451)을 전자 장치(201), 전자 장치(205), 또는 이들의 조합에게 송신할 수 있다. 일 실시 예에 있어서, 서버(203)는 전자 장치(201), 전자 장치(205), 또는 이들의 조합으로부터 사용자 모델(370, 570)의 적어도 일부를 수신할 수 있다. 일 실시 예에 있어서, 서버(203)는 사용자 모델(370, 570)의 적어도 일부에 기반하여 서버 모델(451)을 갱신(또는, 학습)할 수 있다. 일 실시 예에 있어서, 서버(203)는 전자 장치(201)의 사용자 모델(370)을 전자 장치(205)에게 제공하거나, 또는 전자 장치(205)의 사용자 모델(570)을 전자 장치(201)에게 제공할 수 있다.
도 3은 일 실시 예에 따른 전자 장치(201)의 블록도이다. 도 3을 참조하면, 전자 장치(201)는 어플리케이션 프로세스(310), 데이터 수집부(330), 학습부(350), 사용자 모델(370), 모델 동기부(390), 또는 이들의 조합을 포함할 수 있다.
일 실시 예에 있어서, 어플리케이션 프로세스(310)는 프로세서(120)에서 실행 중인 어플리케이션(146)의 태스크(task)일 수 있다. 일 실시 예에 있어서, 어플리케이션 프로세스(310)는 입력 모듈(150)(예: 마이크)을 제어함으로써 사용자의 입력(예: 음성)을 획득할 수 있다.
일 실시 예에 있어서, 어플리케이션 프로세스(310)는 입력 모듈(150)을 통해 획득되는 사용자의 입력에 대응하는 기능을 수행할 수 있다. 일 실시 예에 있어서, 어플리케이션 프로세스(310)는 사용자의 입력에 대응하는 기능의 처리 결과를 지정된 모듈(예: 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 햅틱 모듈(179), 또는 이들의 조합)을 통해 사용자에게 제공할 수 있다.
일 실시 예에 있어서, 어플리케이션 프로세스(310)는 획득되는 사용자의 입력들 중 적어도 일부를 데이터 수집부(330)에게 제공할 수 있다. 일 실시 예에 있어서, 어플리케이션 프로세스(310)는 입력 모듈(150)을 통해 획득된 지정된 종류의 입력(예: 음성)을 데이터 수집부(330)에게 제공할 수 있다.
일 실시 예에 있어서, 어플리케이션 프로세스(310)는 사용자의 입력에 대응하는 기능, 기능의 처리 결과, 또는 이들의 조합을 데이터 수집부(330)에게 제공할 수 있다.
일 실시 예에 있어서, 데이터 수집부(330)는 프로세서(120)에 의해 실행 가능한 소프트웨어로서 구현될 수 있다.
일 실시 예에 있어서, 데이터 수집부(330)는 사용자의 입력, 사용자의 입력에 대응하는 기능, 기능의 처리 결과, 또는 이들의 조합을 메모리(130)에 저장할 수 있다.
일 실시 예에 있어서, 학습부(350)는 프로세서(120)에 의해 실행 가능한 소프트웨어로서 구현될 수 있다.
일 실시 예에 있어서, 학습부(350)는 사용자 모델(370)에 대한 학습을 수행할 수 있다. 일 실시 예에 있어서, 학습부(350)는 사용자 모델(370)에 대한 기계 학습을 수행할 수 있다.
일 실시 예에 있어서, 학습부(350)는 데이터 수집부(330)를 통해 수집된 데이터를 이용하여 사용자 모델(370)에 대한 학습을 수행할 수 있다. 일 실시 예에 있어서, 학습부(350)는 데이터 수집부(330)를 통해 수집된 데이터를 이용하여 사용자 모델(370)에 대해 지도형 학습, 비지도형 학습, 준지도형 학습 강화 학습, 또는 이들의 조합을 수행할 수 있다.
일 실시 예에 있어서, 학습부(350)는 서버(203)로부터 획득되는 서버 데이터(450)에 기반하여 사용자 모델(370)에 대한 학습을 수행할 수 있다. 일 실시 예에 있어서, 학습부(350)는 서버 데이터(450)와 사용자 모델(370) 간의 수치적 연산(예: 합산, 평균, 가중 평균)을 통해 사용자 모델(370)에 대한 학습을 수행할 수 있다. 일 실시 예에 있어서, 학습부(350)는 서버 데이터(450)에 기반하여 사용자 모델(370)에 포함된 복수의 레이어들(예: 가중치와 같은 파라미터들, 또는 활성화 함수)의 값을 변경할 수 있다.
일 실시 예에 있어서, 학습부(350)는 사용자 모델(370)에 대한 학습을 통해, 사용자 모델(370)에 포함된 복수의 레이어들을 갱신할 수 있다.
일 실시 예에 있어서, 사용자 모델(370)은 사용자와 관련된 적어도 하나의 인공지능 모델들로 구성될 수 있다.
일 실시 예에 있어서, 사용자 모델(370)은 사용자의 음성 입력에 기반하여 사용자를 식별하기 위한 인공지능 모델을 포함할 수 있다. 일 실시 예에 있어서, 사용자 모델(370)은 사용자의 음성 입력을 텍스트 데이터로 변환하기 위한 인공지능 모델을 포함할 수 있다. 일 실시 예에 있어서, 사용자 모델(370)은 텍스트 데이터에 기반하여 기능을 식별하기 위한 인공지능 모델을 포함할 수 있다. 일 실시 예에 있어서, 사용자 모델(370)은 식별된 기능을 수행하기 위한 인공지능 모델을 포함할 수 있다.
일 실시 예에 있어서, 모델 동기부(390)는 프로세서(120)에 의해 실행 가능한 소프트웨어로서 구현될 수 있다.
일 실시 예에 있어서, 모델 동기부(390)는 사용자 모델(370)을 서버(203)에게 제공할 수 있다. 일 실시 예에 있어서, 모델 동기부(390)는 사용자 모델(370)의 적어도 일부 데이터를 서버(203)에게 제공할 수 있다.
일 실시 예에 있어서, 적어도 일부 데이터는 사용자 모델(370)의 적어도 하나의 레이어를 나타내기 위한 값(예: 파라미터들(예: 가중치), 활성화 함수)을 포함할 수 있다.
일 실시 예에 있어서, 적어도 일부 데이터는 학습에 따라 갱신된 레이어의 오프셋 값을 포함할 수 있다. 일 실시 예에 있어서, 오프셋 값은 학습 전의 사용자 모델(370)의 레이어와 학습 후의 사용자 모델(370)의 레이어 간의 차이 값일 수 있다.
일 실시 예에 있어서, 모델 동기부(390)는 서버(203)로부터 서버 데이터(450)를 획득할 수 있다. 일 실시 예에 있어서, 서버 데이터(450)는 사용자 모델(370)을 학습하는데 이용될 수 있다. 일 실시 예에 있어서, 서버 데이터(450)는 서버(203)의 서버 모델(451), 서버 모델(451)의 적어도 하나의 파라미터(455), 또는 이들의 조합을 포함할 수 있다.
도 4는 일 실시 예에 따른 서버(203)의 블록도이다. 도 4를 참조하면, 서버(203)는 모델 수집부(410), 학습부(430), 서버 데이터(450), 모델 동기부(470), 또는 이들의 조합을 포함할 수 있다. 서버 데이터(450)는 서버 모델(451), 파라미터(455), 또는 이들의 조합을 포함할 수 있다.
일 실시 예에 있어서, 모델 수집부(410)는 서버(203)의 프로세서(120)에 의해 실행 가능한 소프트웨어로서 구현될 수 있다.
일 실시 예에 있어서, 모델 수집부(410)는 서버(203)와 통신 경로가 형성된 적어도 하나의 전자 장치들로부터 사용자 모델(370, 또는 570)을 획득할 수 있다.
일 실시 예에 있어서, 학습부(430)는 프로세서(120)에 의해 실행 가능한 소프트웨어로서 구현될 수 있다.
일 실시 예에 있어서, 학습부(430)는 적어도 하나의 전자 장치들(201, 205)로부터 획득된 사용자 모델(370, 570)에 기반하여 서버 모델(451)을 갱신(또는, 학습)할 수 있다.
일 실시 예에 있어서, 학습부(430)는 서버 모델(451)에 대한 학습을 통해, 서버 모델(451)에 포함된 복수의 레이어들을 갱신할 수 있다.
일 실시 예에 있어서, 모델 동기부(470)는 프로세서(120)에 의해 실행 가능한 소프트웨어로서 구현될 수 있다.
일 실시 예에 있어서, 모델 동기부(470)는 서버 데이터(450)를 적어도 하나의 전자 장치들(201, 205)에게 제공할 수 있다. 일 실시 예에 있어서, 모델 동기부(470)는 서버 모델(451), 파라미터(455), 또는 이들의 조합을 적어도 하나의 전자 장치들(201, 205)에게 제공할 수 있다. 일 실시 예에 있어서, 파라미터(455)는 서버 모델(451)에 대한 갱신(또는, 학습)에 따라 갱신된 레이어의 오프셋 값을 포함할 수 있다. 일 실시 예에 있어서, 오프셋 값은 학습 전의 서버 모델(451)의 레이어와 학습 후의 서버 모델(451)의 레이어 간의 차이일 수 있다.
도 5a는 일 실시 예에 따른 전자 장치(205)의 블록도이다. 도 5a를 참조하면, 전자 장치(205)는 어플리케이션 프로세스(510), 모델 동기부(590), 학습부(550), 사용자 모델(570), 또는 이들의 조합을 포함할 수 있다.
일 실시 예에 있어서, 어플리케이션 프로세스(510)는 프로세서(120)에서 실행 중인 어플리케이션(146)의 태스크일 수 있다.
일 실시 예에 있어서, 학습부(550)는 프로세서(120)에 의해 실행 가능한 소프트웨어로서 구현될 수 있다.
일 실시 예에 있어서, 학습부(550)는 외부의 전자 장치((201)로부터 획득되는 사용자 모델(예: 사용자 모델(370))에 기반하여 사용자 모델(570)에 대한 학습을 수행할 수 있다.
일 실시 예에 있어서, 학습부(550)는 서버(203)로부터 획득되는 서버 데이터(450)에 기반하여 사용자 모델(570)에 대한 학습을 수행할 수 있다.
도 5b는 일 실시 예에 따른 사용자 모델(570)의 학습을 나타내기 위한 도면이다. 도 5b를 참조하면, 학습부(550)는 외부의 전자 장치의 사용자 모델(585, 595)에 기반하여 기존의 사용자 모델(581, 591)을 학습할 수 있다. 일 실시 예에서, 학습부(550)는 기존의 사용자 모델(581)에서 외부의 전자 장치의 사용자 모델(585)의 영향력을 증가시키는 학습(571)과 기존의 사용자 모델(591)에서 외부의 전자 장치의 사용자 모델(595)의 영향력을 감소시키는 학습(575)을 수행할 수 있다. 일 실시 예에서, 기존의 사용자 모델(581, 591)은 적어도 하나의 사용자 모델에 기반하여 학습된 사용자 모델을 나타낼 수 있다.
일 실시 예에서, 기존의 사용자 모델(581)은 외부의 전자 장치(201)의 사용자 모델(585)에 기반하여 새로운 사용자 모델(570)로 학습될 수 있다. 일 실시 예에서, 기존의 사용자 모델(581)은 외부의 전자 장치(201)의 사용자 모델(585)의 영향력을 강화하는 연산(580)을 통해 새로운 사용자 모델(570)로 학습될 수 있다. 일 실시 예에서, 연산(580)은 기존의 사용자 모델(581)과 외부의 사용자 모델(585) 간의 수치적 연산(예: 합산, 평균, 가중 평균)일 수 있다.
일 실시 예에서, 기존의 사용자 모델(591)은 외부의 전자 장치(201)의 사용자 모델(595)에 기반하여 새로운 사용자 모델(570)로 학습될 수 있다. 일 실시 예에서, 기존의 사용자 모델(591)은 외부의 전자 장치(201)의 사용자 모델(595)의 영향력을 감소시키는 연산(590)을 통해 새로운 사용자 모델(570)로 학습될 수 있다. 일 실시 예에서, 연산(590)은 기존의 사용자 모델(591)에서 외부의 사용자 모델(595)의 수치적 영향을 감소시키는 연산(예: 감산, 가중 평균)일 수 있다. 일 실시 예에서, 연산(590)은 외부의 사용자 모델(595)이 기존의 사용자 모델(591)에 추가될 때 기존의 사용자 모델(591)의 파라미터들의 변화를 되돌리기 위한 것일 수 있다.
일 실시 예에 있어서, 사용자 모델(570)은 둘 이상의 사용자들 각각의 사용자 모델들로 구성될 수 있다. 일 실시 예에 있어서, 사용자 모델(570)은 둘 이상의 사용자들 각각과 관련된 적어도 하나의 인공지능 모델들로 구성될 수 있다.
일 실시 예에 있어서, 모델 동기부(590)는 프로세서(120)에 의해 실행 가능한 소프트웨어로서 구현될 수 있다.
일 실시 예에 있어서, 모델 동기부(590)는 전자 장치(201)의 모델 동기부(390)에 대응할 수 있다.
도 5a에서는, 전자 장치(205)가 도 2의 데이터 수집부(330)를 포함하지 않는 것으로 예시되어 있으나, 이는 예시일 뿐이다. 일 실시 예에 있어서, 전자 장치(205)는 도 2의 데이터 수집부(330)를 포함할 수 있다. 일 실시 예에 있어서, 전자 장치(205)가 도 2의 데이터 수집부(330)를 포함하는 경우, 전자 장치(205)는 사용자 입력(예: 발화)에 기반하여 사용자 모델(570)을 갱신(또는, 학습)할 수 있다.
도 6은 일 실시 예에 따른 전자 장치(201)와 서버(203)의 학습 동작을 도시한다.
단계 S610에서, 서버(203)는 전자 장치(201)에게 서버 모델(451)을 전송할 수 있다.
단계 S620에서, 전자 장치(201)는 서버 모델(451)에 기반하여, 사용자 모델(370)을 학습할 수 있다. 일 실시 예에 있어서, 전자 장치(201)는 서버 모델(451)과 사용자 모델(370) 간의 수치적 연산(예: 합산, 평균, 가중 평균)을 통해 사용자 모델(370)에 대한 학습을 수행할 수 있다. 일 실시 예에 있어서, 전자 장치(201)는 서버 모델(451)의 적어도 하나의 레이어들과 사용자 모델(370)의 적어도 하나의 레이어들 간의 수치적 연산을 통해 사용자 모델(370)에 대한 학습을 수행할 수 있다.
단계 S630에서, 전자 장치(201)는 사용자 데이터에 기반하여, 사용자 모델(370)을 학습할 수 있다. 일 실시 예에 있어서, 사용자 데이터는 사용자의 입력(예: 음성), 사용자의 입력에 대응하는 기능, 기능의 처리 결과, 또는 이들의 조합을 포함할 수 있다.
일 실시 예에 있어서, 전자 장치(201)는 사용자 데이터를 이용하여 사용자 모델(370)에 대해 지도형 학습, 비지도형 학습, 준지도형 학습 강화 학습, 또는 이들의 조합을 수행할 수 있다.
단계 S640에서, 전자 장치(201)는 서버(203)에게 사용자 모델(370)을 전송할 수 있다. 일 실시 예에 있어서, 전자 장치(201) 사용자 모델(370)의 적어도 일부 데이터를 서버(203)에게 제공할 수 있다.
일 실시 예에 있어서, 적어도 일부 데이터는 사용자 모델(370)의 적어도 하나의 레이어를 나타내기 위한 값을 포함할 수 있다. 일 실시 예에 있어서, 적어도 일부 데이터는 학습에 따라 갱신된 레이어의 오프셋 값을 포함할 수 있다. 일 실시 예에 있어서, 오프셋 값은 학습 전의 사용자 모델(370)의 레이어와 학습 후의 사용자 모델(370)의 레이어 간의 차이 값일 수 있다.
단계 S650에서, 서버(203)는 사용자 모델(370)에 기반하여 서버 모델(451)에 대해 학습을 수행할 수 있다. 일 실시 예에 있어서, 서버(203)는 서버 모델(451)과 사용자 모델(370) 간의 수치적 연산을 통해 서버 모델(451)에 대한 학습을 수행할 수 있다. 일 실시 예에 있어서, 서버(203)는 서버 모델(451)의 적어도 하나의 레이어들과 사용자 모델(370)의 적어도 하나의 레이어들 간의 수치적 연산을 통해 서버 모델(451)에 대한 학습을 수행할 수 있다.
단계 S660에서, 서버(203)는 전자 장치(201)에게 서버 모델(451)을 전송할 수 있다.
단계 S660 이후, 전자 장치(201)는 서버 모델(451)에 기반하여, 사용자 모델(370)을 학습할 수 있다.
도 6에서, 전자 장치(201)의 학습 동작은, 서버 모델(451)에 기반한 학습(단계 S610, 및 단계 S620)과, 사용자 데이터에 기반한 학습(단계 S630)으로 구성될 수 있다.
더 나아가 도 6에서, 서버(203)의 학습 동작은, 사용자 모델(370)에 기반한 학습(단계 S640, 단계 S650)으로 구성될 수 있다.
도 6에서는, 서버 모델(451)에 기반한 학습(단계 S610, 단계 S620), 사용자 데이터에 기반한 학습(단계 S630), 및 사용자 모델(370)에 기반한 학습(단계 S640, 단계 S650)이 순차적으로 실행되는 것으로 도시되었으나, 이는 예시일 뿐이다. 일 실시 예에 있어서, 서버 모델(451)에 기반한 학습(단계 S610, 단계 S620), 사용자 데이터에 기반한 학습(단계 S630), 및 사용자 모델(370)에 기반한 학습(단계 S640, 단계 S650) 각각은 각각의 실행 조건이 충족되면 실행될 수 있다.
일 실시 예에 있어서, 서버 모델(451)에 기반한 학습(단계 S610, 단계 S620)은, 전자 장치(201)가 서버(203)에게 서버 모델(451)의 전송을 요청함에 의해 개시될 수 있다. 일 실시 예에 있어서, 서버 모델(451)에 기반한 학습(단계 S610, 단계 S620)은, 서버(203)가 서버 모델(451)을 갱신(또는, 학습)한 후 개시될 수 있다.
일 실시 예에 있어서, 사용자 데이터에 기반한 학습(단계 S630)은 전자 장치(201)가 지정된 규모 이상의 사용자 데이터를 수집한 직후 개시될 수 있다. 일 실시 예에 있어서, 사용자 데이터에 기반한 학습(단계 S630)은 전자 장치(201)의 사용자의 입력(예: 학습 요청)에 응답하여 개시될 수 있다.
일 실시 예에 있어서, 사용자 모델(370)에 기반한 학습(단계 S640, 단계 S650)은 서버(203)가 지정된 개수 이상의 사용자 모델을 수집한 직후 개시될 수 있다. 일 실시 예에 있어서, 사용자 모델(370)에 기반한 학습(단계 S640, 단계 S650)은 서버(203)가 사용자 모델을 수집할 때마다 개시될 수 있다.
도 7은 일 실시 예에 따른 전자 장치들(201, 205) 간의 사용자 모델 전송 동작을 도시한다.
도 7을 참조하면, 단계 S710에서 전자 장치(201)는 전자 장치 추가 요청을 식별할 수 있다. 일 실시 예에 있어서, 전자 장치 추가 요청은 사용자 입력에 기반하여 생성될 수 있다. 일 실시 예에 있어서, 전자 장치 추가 요청은 사용자 입력에 기반하여 전자 장치(201)에서 생성될 수 있다. 일 실시 예에 있어서, 전자 장치 추가 요청은 사용자 입력에 기반하여 외부의 장치(예: 서버(203), 전자 장치(205))에서 생성될 수 있다. 일 실시 예에 있어서, 외부의 장치에서 생성된 전자 장치 추가 요청은 전자 장치(201)에게 전달될 수 있다.
일 실시 예에 있어서, 전자 장치(201)는 전자 장치(201)에 대한 전자 장치 추가 요청을 식별할 수 있다. 일 실시 예에 있어서, 전자 장치(205)는 전자 장치(201)에 의해 식별 가능할 수 있다. 일 실시 예에 있어서, 전자 장치(205)는 근거리 통신 네트워크를 통해 전자 장치(201)와 통신 경로를 가질 수 있다. 일 실시 예에 있어서, 전자 장치(205)는 전자 장치(201)와 동일한 access point에 통신 경로를 가질 수 있다. 일 실시 예에 있어서, 전자 장치(205)는 IoT 기기일 수 있다. 일 실시 예에 있어서, 전자 장치(205)는 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 가전 장치, 스마트 스피커, 또는 이들의 조합을 포함할 수 있다.
단계 S720에서 전자 장치(201)는 전자 장치(205)에게 제1 사용자 모델(예: 사용자 모델(370))을 전송할 수 있다.
일 실시 예에 있어서, 전자 장치(201)는 전자 장치(205)에게 사용자 모델(370)을 직접 전송할 수 있다. 일 실시 예에 있어서, 전자 장치(201)는 전자 장치(201)와 전자 장치(205) 간에 수립된 통신 경로를 이용하여 사용자 모델(370)을 전자 장치(205)에게 직접 전송할 수 있다.
일 실시 예에 있어서, 전자 장치(201)는 전자 장치(205)에게 사용자 모델(370)을 간접 전송할 수 있다. 일 실시 예에 있어서, 전자 장치(201)는 사용자 모델(370)을 서버(203)에게 전송하고, 서버(203)가 수신한 사용자 모델(370)을 전자 장치(205)에게 전송할 수 있다. 일 실시 예에 있어서, 전자 장치(201)는 서버(203)에게 사용자 모델 전송 요청을 송신하고, 서버(203)가 사용자 모델 전송 요청에 응답하여 서버(203)에 저장된 사용자 모델(370)을 전자 장치(205)에게 전송할 수 있다.
일 실시 예에 있어서, 전자 장치(205)는 수신한 제1 사용자 모델(370)을 전자 장치(205)의 메모리(130)에 저장할 수 있다.
동작 S730에서 전자 장치(205)는 제1 사용자 모델(370)에 기반하여, 제2 사용자 모델(570)을 학습할 수 있다.
일 실시 예에 있어서, 전자 장치(205)는 제1 사용자 모델(370)과 사용자 모델(570) 간의 수치적 연산(예: 합산, 평균, 가중 평균)을 통해 제2 사용자 모델(570)에 대한 학습을 수행할 수 있다.
일 실시 예에 있어서, 단계 S730 이후, 전자 장치(205)는 전자 장치(201)에게 제1 사용자 모델(370)에 기반한 제2 사용자 모델(570)의 학습이 완료되었음을 통보할 수 있다. 일 실시 예에 있어서, 전자 장치(201)의 사용자는, 학습 완료 통보를 통해 전자 장치(205)를 통해 사용자에게 적합한 음성 인식 서비스를 제공받을 수 있음을 인지할 수 있다.
도 8은 일 실시 예에 따른 전자 장치들(201, 205) 간의 사용자 모델 삭제 동작을 도시한다.
도 8을 참조하면, 단계 S810에서, 전자 장치(201)는 전자 장치 삭제 요청을 식별할 수 있다. 일 실시 예에 있어서, 전자 장치 삭제 요청은 사용자 입력에 기반하여 생성될 수 있다. 일 실시 예에 있어서, 전자 장치 삭제 요청은 사용자 입력에 기반하여 전자 장치(201)에서 생성될 수 있다. 일 실시 예에 있어서, 전자 장치 삭제 요청은 사용자 입력에 기반하여 외부의 장치(예: 서버(203), 전자 장치(205))에서 생성될 수 있다. 일 실시 예에 있어서, 외부의 장치에서 생성된 전자 장치 삭제 요청은 전자 장치(201)에게 전달될 수 있다.
단계 S820에서, 전자 장치(201)는 전자 장치(205)에게 제1 사용자 모델 삭제를 요청할 수 있다.
일 실시 예에 있어서, 전자 장치(201)는 전자 장치(205)에게 사용자 모델 삭제 요청을 직접 전송할 수 있다. 일 실시 예에 있어서, 전자 장치(201)는 서버(203)를 통해 사용자 모델 삭제 요청을 전자 장치(205)에게 간접 전송할 수 있다.
단계 S830에서, 전자 장치(205)는 제1 사용자 모델(370)을 삭제할 수 있다. 일 실시 예에 있어서, 전자 장치(205)는 전자 장치(205)의 메모리(130)에 저장된 제1 사용자 모델(370)을 삭제할 수 있다.
단계 S840에서, 전자 장치(205)는 잔여 사용자 모델에 기반하여 제2 사용자 모델(570)을 학습할 수 있다. 일 실시 예에 있어서, 잔여 사용자 모델은 전자 장치(205)를 추가(또는, 등록)한 전자 장치의 사용자 모델일 수 있다.
일 실시 예에 있어서, 전자 장치(205)는 제1 사용자 모델(370)을 제외한 나머지 사용자 모델들을 이용하여 제2 사용자 모델(570)에 대한 학습을 수행할 수 있다.
일 실시 예에 있어서, 전자 장치(205)는 제1 사용자 모델(370)의 사용자 모델(570)에 대한 기여를 배제하기 위한 수치적 연산을 통해 제2 사용자 모델(570)에 대한 학습을 수행할 수 있다. 이를 위해, 전자 장치(205)는 제1 사용자 모델(370)의 제2 사용자 모델(570)에 대한 기여를 배제하기 위한 수치적 연산을 수행한 후 단계 S830을 수행할 수 있다.
일 실시 예에 있어서, 단계 S840 이후, 전자 장치(205)는 전자 장치(201)에게 사용자 삭제를 통보할 수 있다. 일 실시 예에 있어서, 전자 장치(201)의 사용자는, 사용자 삭제 통보를 통해 전자 장치(205)를 이용한 일반적인 음성 인식 서비스만을 제공받을 수 있음을 인지할 수 있다.
도 9는 일 실시 예에 따른 전자 장치들(201, 205) 간의 사용자 모델 전송 동작을 도시한다.
도 9를 참조하면, 단계 S910에서 전자 장치(205)는 사용자 추가 요청을 식별할 수 있다. 일 실시 예에 있어서, 사용자 추가 요청은 사용자 입력에 기반하여 생성될 수 있다. 일 실시 예에 있어서, 사용자 추가 요청은 사용자 입력에 기반하여 전자 장치(205)에서 생성될 수 있다. 일 실시 예에 있어서, 사용자 추가 요청은 사용자 입력에 기반하여 외부의 장치(예: 서버(203), 전자 장치(201))에서 생성될 수 있다. 일 실시 예에 있어서, 외부의 장치에서 생성된 사용자 추가 요청은 전자 장치(201)에게 전달될 수 있다.
단계 S920에서, 전자 장치(205)는 전자 장치(201)에게 제1 사용자 모델(370)을 요청할 수 있다.
일 실시 예에 있어서, 전자 장치(205)는 전자 장치(201)에게 사용자 모델 요청을 직접 전송할 수 있다. 일 실시 예에 있어서, 전자 장치(205)는 서버(203)를 통해 사용자 모델 요청을 전자 장치(201)에게 간접 전송할 수 있다.
일 실시 예에 있어서, 전자 장치(205)는 사용자가 등록된 모든 전자 장치들에게 사용자 모델 요청을 전송할 수 있다. 일 실시 예에 있어서, 전자 장치(205)는 사용자가 등록된 모든 전자 장치들 중 사용자에 의해 지정된 전자 장치(201)에게 사용자 모델 요청을 전송할 수 있다.
단계 S930에서, 전자 장치(201)는 전자 장치(205)에게 제1 사용자 모델(370)을 전송할 수 있다.
단계 S940에서, 전자 장치(205)는 제1 사용자 모델(370)에 기반하여, 제2 사용자 모델(570)을 학습할 수 있다.
일 실시 예에 있어서, 전자 장치(205)가 둘 이상의 제1 사용자 모델들(예: 사용자 모델(370))을 수신한 경우, 전자 장치(205)는 둘 이상의 제1 사용자 모델들을 하나의 사용자 모델로 통합하고, 통합된 사용자 모델에 기반하여 제2 사용자 모델(예: 사용자 모델(570))을 학습할 수 있다. 일 실시 예에 있어서, 사용자 모델로의 통합은 둘 이상의 제1 사용자 모델들 간의 수치적 연산(예: 합산, 평균, 가중 평균)을 통해 수행될 수 있다.
일 실시 예에 있어서, 단계 S940 이후, 전자 장치(205)는 전자 장치(201)에게 제1 사용자 모델(예: 사용자 모델(370))에 기반한 제2 사용자 모델(예: 사용자 모델(570))의 학습이 완료되었음을 통보할 수 있다. 일 실시 예에 있어서, 전자 장치(201)의 사용자는, 학습 완료 통보를 통해 전자 장치(205)를 통해 사용자에게 적합한 음성 인식 서비스를 제공받을 수 있음을 인지할 수 있다.
도 10은 일 실시 예에 따른 전자 장치들(201, 205) 간의 사용자 모델 삭제 동작을 도시한다.
도 10을 참조하면, 단계 S1010에서, 전자 장치(205)는 사용자 삭제 요청을 식별할 수 있다. 일 실시 예에 있어서, 사용자 삭제 요청은 사용자 입력에 기반하여 생성될 수 있다. 일 실시 예에 있어서, 사용자 삭제 요청은 사용자 입력에 기반하여 전자 장치(205)에서 생성될 수 있다. 일 실시 예에 있어서, 사용자 삭제 요청은 사용자 입력에 기반하여 외부의 장치(예: 서버(203), 전자 장치(201))에서 생성될 수 있다. 일 실시 예에 있어서, 외부의 장치에서 생성된 사용자 삭제 요청은 전자 장치(205)에게 전달될 수 있다.
일 실시 예에 있어서, 사용자 삭제 요청은 전자 장치(205)의 관리자의 입력에 의해 생성될 수 있다. 일 실시 예에 있어서, 전자 장치(205)의 관리자는 전자 장치(205)의 소유자일 수 있다. 일 실시 예에 있어서, 전자 장치(205)의 관리자는 전자 장치(205)에 등록된 사용자들 중 선택된 사용자일 수 있다. 일 실시 예에 있어서, 전자 장치(205)의 관리자는 전자 장치(205)에서 실행 가능한 기능의 허용, 제한, 또는 이들의 조합을 결정할 수 있다. 일 실시 예에 있어서, 전자 장치(205)의 관리자는 전자 장치(205)에 등록된 사용자의 권한(예: 전자 장치(205)에서 실행 가능한 기능의 허용 여부)을 결정할 수 있다.
단계 S1020에서, 전자 장치(205)는 전자 장치(201)에게 사용자 삭제를 통보할 수 있다.
일 실시 예에 있어서, 전자 장치(205)는 사용자가 등록된 모든 전자 장치들에게 사용자 삭제를 통보할 수 있다. 일 실시 예에 있어서, 전자 장치(205)는 사용자가 등록된 모든 전자 장치들 중 사용자에 의해 지정된 전자 장치(예: 전자 장치(201))에게 사용자 삭제를 통보할 수 있다.
일 실시 예에 있어서, 전자 장치(201)의 사용자는, 사용자 삭제 통보를 통해 전자 장치(205)를 이용한 일반적인 음성 인식 서비스만을 제공받을 수 있음을 인지할 수 있다.
단계 S1030에서, 전자 장치(205)는 제1 사용자 모델(370)을 삭제할 수 있다.
단계 S1040에서, 전자 장치(205)는 잔여 사용자 모델에 기반하여 제2 사용자 모델(570)을 학습할 수 있다.
도 10에서는, 단계 S1020이 단계 S1010 이후에 수행되는 것으로 예시되었으나, 이는 예시일 뿐이다. 일 실시 예에 있어서, 단계 S1020은 단계 S1030, 또는 단계 S1040 이후에 수행될 수 있다.
도 11은 일 실시 예에 따른 전자 장치(201)가 사용자 입력을 처리하는 동작을 도시한다.
도 11을 참조하면, 단계 S1110에서 전자 장치(201)는 사용자 입력(예: 음성)을 식별할 수 있다.
단계 S1120에서 전자 장치(201)는 사용자 입력에 기반하여 사용자를 식별할 수 있다. 일 실시 예에 있어서, 전자 장치(201)는 전자 장치(201)에 저장된 적어도 하나의 사용자 모델(370)을 이용하여 사용자를 식별할 수 있다.
예를 들어, 사용자 “David”가 웨이크 업(예: '하이 빅스비')을 발화한 경우, 전자 장치(201)는 사용자 모델을 이용하여 웨이크 업을 발화한 사용자가 “David”임을 식별할 수 있다.
예를 들어, 사용자 “David”가 명령(예: '지역 날씨 알려줘')을 발화한 경우, 전자 장치(201)는 사용자 모델을 이용하여 명령을 발화한 사용자가 “David”임을 식별할 수 있다.
단계 S1130에서 전자 장치(201)는 식별된 사용자에 대응하는 처리 결과를 식별할 수 있다.
일 실시 예에 있어서, 전자 장치(201)는 식별된 사용자에 대응하는 사용자 모델을 이용하여 사용자의 입력에 대응하는 기능을 식별할 수 있다.
일 실시 예에 있어서, 전자 장치(201)는 식별된 기능(예: 영상 플랫폼 실행, 지정된 홈페이지 접속)의 수행이 식별된 사용자에게 허용되지 않은 경우, 사용자의 입력에 따른 기능을 수행할 수 없다는 처리 결과를 식별할 수 있다. 일 실시 예에 있어서, 사용자에 대한 기능의 허용, 또는 제한은 전자 장치(201)의 관리자에 의해 사전 설정될 수 있다. 일 실시 예에 있어서, 사용자에 대한 기능의 허용, 또는 제한은 전자 장치(201)의 정책(예: 미성년자 관리 정책)에 의해 사전 설정될 수 있다.
일 실시 예에 있어서, 전자 장치(201)는 식별된 기능의 수행이 식별된 사용자에게 허용된 경우, 사용자의 입력에 따른 기능을 수행할 수 있다.
일 실시 예에 있어서, 전자 장치(201)는 식별된 사용자에 대응하는 사용자 모델을 이용하여 사용자의 입력에 대응하는 기능을 수행할 수 있다. 일 실시 예에 있어서, 전자 장치(201)는 다수의 사용자 모델들 중 식별된 사용자에 대응하는 사용자 모델을 이용하여 사용자의 입력에 대응하는 기능을 수행할 수 있다.
일 실시 예에 있어서, 전자 장치(201)는 식별된 사용자에 대응하는 사용자 모델을 이용하여 사용자의 입력에 대응하는 기능을 수행할 수 있다. 일 실시 예에 있어서, 전자 장치(201)는 식별된 사용자에 대응하는 사용자 모델을 이용하여 사용자의 입력에 대응하는 기능의 처리 결과를 식별할 수 있다.
예를 들어, 전자 장치(201)는 식별된 사용자 “David”에 대한 사용자 모델에 사용자가 발화한 명령을 입력함으로써, 사용자 발화에 대응하는 기능을 식별할 수 있다.
예를 들어, 전자 장치(201)는 식별된 사용자 “David”에 대해 식별된 기능을 수행할 수 있다.
단계 S1140에서 전자 장치(201)는 식별된 결과를 출력할 수 있다.
일 실시 예에 있어서, 전자 장치(201)는 사용자의 입력에 대응하는 기능의 처리 결과를 지정된 모듈(예: 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 햅틱 모듈(179), 또는 이들의 조합)을 통해 사용자에게 제공할 수 있다.
일 실시 예에 있어서, 전자 장치(201)는 식별된 결과 출력 시, 식별된 사용자의 식별 정보(예: 이름)를 함께 출력할 수 있다.
예를 들어, 전자 장치(201)는 식별된 사용자 “David”에 대한 호칭과 함께 식별된 기능의 처리 결과를 출력할 수 있다. 전자 장치(201)는 “David, 오늘의 날씨는 25도입니다.”라는 음성을 출력할 수 있다. 예를 들어, 식별된 기능의 수행이 식별된 사용자에게 허용되지 않은 경우, 전자 장치(201)는 “David, 해당 기능은 David에게 허용되지 않았습니다.”라는 음성을 출력할 수 있다.
도 11의 단계들은 전자 장치(201)를 통해 수행되는 것으로 설명되었으나, 이는 예시일 뿐이다. 도 11의 단계들은 전자 장치(205)를 통해서도 수행될 수 있다.
본 개시의 일 실시 예에 따른 전자 장치(201, 205)는, 통신 회로(예: 도 1의 통신 모듈(190)), 상기 통신 회로와 전기적으로 연결된 프로세서(120), 및 상기 통신 회로, 및 상기 프로세서(120)와 전기적으로 연결되고, 사용자 모델(370, 570) 및 인스트럭션들을 저장하는 메모리(130)를 포함하고, 상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행 시, 상기 전자 장치(201, 205)가 상기 통신 회로를 통해, 상기 전자 장치(201, 205)에 등록된 사용자의 다른 전자 장치로부터 제1 사용자 모델을 수신하고, 상기 제1 사용자 모델에 기반하여 상기 사용자 모델(370, 570)을 갱신하고, 상기 갱신된 사용자 모델(370, 570)을 이용하여, 상기 사용자의 제1 음성 입력에 기반하여, 상기 사용자를 식별하도록 구성되고, 상기 사용자 모델(370, 570)은, 상기 사용자의 등록 전 상기 사용자 이외의 적어도 하나의 다른 사용자의 제2 사용자 모델에 기반하여 상기 전자 장치(201, 205)에서 학습되고, 상기 제1 사용자 모델은, 상기 사용자의 상기 다른 전자 장치에서 획득된 상기 사용자의 제2 음성 입력에 기반하여 상기 다른 전자 장치에서 학습될 수 있다.
일 실시 예에 있어서, 상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행 시, 상기 전자 장치(201, 205)가 상기 전자 장치(201, 205)에 등록된 적어도 하나의 사용자 중 제1 사용자가 등록 해제됨을 식별하고, 상기 사용자 모델(370, 570)에서 상기 제1 사용자의 사용자 모델(370, 570)에 의한 영향이 제거되도록, 상기 사용자 모델(370, 570)을 갱신하도록 구성될 수 있다.
일 실시 예에 있어서, 상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행 시, 상기 전자 장치(201, 205)가 상기 제1 사용자에 대한 등록 해제 요청을 식별하고, 상기 등록 해제 요청에 응답하여, 상기 전자 장치에서 상기 제1 사용자를 등록 해제하도록 구성되고, 상기 등록 해제 요청은, 상기 제1 사용자의 사용자 입력, 상기 제1 사용자의 외부 전자 장치로부터의 입력, 또는 상기 전자 장치의 관리자의 입력 중 적어도 하나에 의해 생성될 수 있다.
일 실시 예에 있어서, 상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행 시, 상기 전자 장치(201, 205)가 상기 제1 음성 입력에 기반하여 식별된 상기 사용자에 대한 권한을 식별하고, 상기 식별된 권한에 기초하여 상기 제1 음성 입력에 따라 결정된 기능의 실행 여부를 결정하도록 구성될 수 있다.
일 실시 예에 있어서, 상기 사용자에 대한 상기 권한은 상기 전자 장치(201, 205)의 관리자에 의해 설정될 수 있다.
일 실시 예에 있어서, 상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행 시, 상기 전자 장치(201, 205)가 상기 제1 음성 입력에 대한 응답 시, 상기 사용자의 식별 정보를 출력하도록 구성될 수 있다.
일 실시 예에 있어서, 상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행 시, 상기 전자 장치(201, 205)가 상기 통신 회로를 이용하여, 서버(203)로부터 서버 모델(451)의 적어도 일부 데이터(455)를 수신하고, 상기 수신된 적어도 일부 데이터(455)에 기반하여, 상기 사용자 모델(370, 570)을 갱신하도록 구성될 수 있다.
일 실시 예에 있어서, 상기 제1 사용자 모델은 상기 다른 전자 장치로부터 주기적으로 수신될 수 있다.
일 실시 예에 있어서, 상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행 시, 상기 전자 장치(201, 205)가 상기 제1 사용자 모델에 포함된 복수의 레이어들의 가중치와 상기 사용자 모델(370, 570)에 포함된 복수의 레이어들의 가중치 간의 가중 평균을 통해 상기 사용자 모델을 갱신하도록 구성될 수 있다.
일 실시 예에 있어서, 상기 인스트럭션들은, 상기 프로세서(120)에 의해 실행 시, 상기 전자 장치(201, 205)가 상기 제1 음성 입력, 상기 제1 음성 입력에 따라 결정된 기능, 또는 이들의 조합에 기반하여, 상기 사용자 모델(370, 570)을 갱신하도록 구성될 수 있다.
본 개시의 일 실시 예에 따른 전자 장치(201, 205)의 동작 방법은 상기 전자 장치(201, 205)의 통신 회로(예: 도 1의 통신 모듈(190))를 통해, 상기 전자 장치(201, 205)에 등록된 사용자의 다른 전자 장치로부터 제1 사용자 모델을 수신하는 동작, 상기 제1 사용자 모델에 기반하여 상기 전자 장치(201, 205)의 사용자 모델(370, 570)을 갱신하는 동작, 및 상기 갱신된 사용자 모델(370, 570)을 이용하여, 상기 사용자의 제1 음성 입력에 기반하여, 상기 사용자를 식별하는 동작을 포함하고, 상기 사용자 모델(370, 570)은, 상기 사용자의 등록 전 상기 사용자 이외의 적어도 하나의 다른 사용자의 제2 사용자 모델에 기반하여 상기 전자 장치(201, 205)에서 학습되고, 상기 제1 사용자 모델은, 상기 사용자의 상기 다른 전자 장치에서 획득된 상기 사용자의 제2 음성 입력에 기반하여 상기 다른 전자 장치에서 학습될 수 있다.
일 실시 예에 있어서, 상기 전자 장치(201, 205)에 등록된 적어도 하나의 사용자 중 제1 사용자가 등록 해제됨을 식별하는 동작, 및 상기 사용자 모델(370, 570)에서 상기 제1 사용자의 사용자 모델(370, 570)에 의한 영향이 제거되도록, 상기 사용자 모델(370, 570)을 갱신하는 동작을 포함할 수 있다.
일 실시 예에 있어서, 상기 제1 사용자에 대한 등록 해제 요청을 식별하는 동작, 및 상기 등록 해제 요청에 응답하여, 상기 전자 장치(201, 205)에서 상기 제1 사용자를 등록 해제하는 동작을 포함하고, 상기 등록 해제 요청은, 상기 제1 사용자의 사용자 입력, 상기 제1 사용자의 외부 전자 장치로부터의 입력, 또는 상기 전자 장치(201, 205)의 관리자의 입력 중 적어도 하나에 의해 생성될 수 있다.
일 실시 예에 있어서, 상기 제1 음성 입력에 기반하여 식별된 상기 사용자에 대한 권한을 식별하는 동작, 상기 식별된 권한에 기초하여 상기 제1 음성 입력에 따라 결정된 기능의 실행 여부를 결정하는 동작을 포함할 수 있다.
일 실시 예에 있어서, 상기 사용자에 대한 상기 권한은 상기 전자 장치(201, 205)의 관리자에 의해 설정될 수 있다.
일 실시 예에 있어서, 상기 제1 음성 입력에 대한 응답 시, 상기 사용자의 식별 정보를 출력하는 동작을 포함할 수 있다.
일 실시 예에 있어서, 상기 통신 회로를 이용하여, 서버(203)로부터 서버 모델(451)의 적어도 일부 데이터(455)를 수신하는 동작, 및 상기 수신된 적어도 일부 데이터(455)에 기반하여, 상기 사용자 모델(370, 570)을 갱신하는 동작을 포함할 수 있다.
일 실시 예에 있어서, 상기 제1 사용자 모델은 상기 다른 전자 장치로부터 주기적으로 수신될 수 있다.
일 실시 예에 있어서, 상기 사용자 모델(370, 570)을 갱신하는 동작은, 상기 제1 사용자 모델에 포함된 복수의 레이어들의 가중치와 상기 사용자 모델(370, 570)에 포함된 복수의 레이어들의 가중치 간의 가중 평균을 통해 상기 사용자 모델(370, 570)을 갱신하는 동작을 포함할 수 있다.
일 실시 예에 있어서, 상기 사용자 모델(370, 570)을 갱신하는 동작은, 상기 제1 음성 입력, 상기 제1 음성 입력에 따라 결정된 기능, 또는 이들의 조합에 기반하여, 상기 사용자 모델(370, 570)을 갱신하는 동작을 포함할 수 있다.
본 문서에 개시된 다양한 실시 예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시 예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시 예들로 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서의 다양한 실시 예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시 예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
본 문서에 개시된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어™)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시 예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시 예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.

Claims (15)

  1. 전자 장치에 있어서,
    통신 회로;
    상기 통신 회로와 전기적으로 연결된 프로세서; 및
    상기 통신 회로, 및 상기 프로세서와 전기적으로 연결되고, 사용자 모델 및 인스트럭션들을 저장하는 메모리를 포함하고,
    상기 인스트럭션들은, 상기 프로세서에 의해 실행 시, 상기 전자 장치가
    상기 통신 회로를 통해, 상기 전자 장치에 등록된 사용자의 다른 전자 장치로부터 제1 사용자 모델을 수신하고,
    상기 제1 사용자 모델에 기반하여 상기 사용자 모델을 갱신하고,
    상기 갱신된 사용자 모델을 이용하여, 상기 사용자의 제1 음성 입력에 기반하여, 상기 사용자를 식별하도록 구성되고,
    상기 사용자 모델은, 상기 사용자의 등록 전 상기 사용자 이외의 적어도 하나의 다른 사용자의 제2 사용자 모델에 기반하여 상기 전자 장치에서 학습되고,
    상기 제1 사용자 모델은, 상기 사용자의 상기 다른 전자 장치에서 획득된 상기 사용자의 제2 음성 입력에 기반하여 상기 다른 전자 장치에서 학습된, 전자 장치.
  2. 청구항 1에 있어서,
    상기 인스트럭션들은, 상기 프로세서에 의해 실행 시, 상기 전자 장치가
    상기 전자 장치에 등록된 적어도 하나의 사용자 중 제1 사용자가 등록 해제됨을 식별하고,
    상기 사용자 모델에서 상기 제1 사용자의 사용자 모델에 의한 영향이 제거되도록, 상기 사용자 모델을 갱신하도록 구성되는 전자 장치.
  3. 청구항 2에 있어서,
    상기 인스트럭션들은, 상기 프로세서에 의해 실행 시, 상기 전자 장치가
    상기 제1 사용자에 대한 등록 해제 요청을 식별하고,
    상기 등록 해제 요청에 응답하여, 상기 전자 장치에서 상기 제1 사용자를 등록 해제하도록 구성되고,
    상기 등록 해제 요청은, 상기 제1 사용자의 사용자 입력, 상기 제1 사용자의 외부 전자 장치로부터의 입력, 또는 상기 전자 장치의 관리자의 입력 중 적어도 하나에 의해 생성되는 전자 장치.
  4. 청구항 1에 있어서,
    상기 인스트럭션들은, 상기 프로세서에 의해 실행 시, 상기 전자 장치가
    상기 제1 음성 입력에 기반하여 식별된 상기 사용자에 대한 권한을 식별하고,
    상기 식별된 권한에 기초하여 상기 제1 음성 입력에 따라 결정된 기능의 실행 여부를 결정하도록 구성되는 전자 장치.
  5. 청구항 4에 있어서,
    상기 사용자에 대한 상기 권한은 상기 전자 장치의 관리자에 의해 설정되는 전자 장치.
  6. 청구항 1에 있어서,
    상기 인스트럭션들은, 상기 프로세서에 의해 실행 시, 상기 전자 장치가
    상기 제1 음성 입력에 대한 응답 시, 상기 사용자의 식별 정보를 출력하도록 구성되는 전자 장치.
  7. 청구항 1에 있어서,
    상기 인스트럭션들은, 상기 프로세서에 의해 실행 시, 상기 전자 장치가
    상기 통신 회로를 이용하여, 서버로부터 서버 모델의 적어도 일부 데이터를 수신하고,
    상기 수신된 적어도 일부 데이터에 기반하여, 상기 사용자 모델을 갱신하도록 구성되는 전자 장치.
  8. 청구항 1에 있어서,
    상기 제1 사용자 모델은 상기 다른 전자 장치로부터 주기적으로 수신되는 전자 장치.
  9. 청구항 1에 있어서,
    상기 인스트럭션들은, 상기 프로세서에 의해 실행 시, 상기 전자 장치가
    상기 제1 사용자 모델에 포함된 복수의 레이어들의 가중치와 상기 사용자 모델에 포함된 복수의 레이어들의 가중치 간의 가중 평균을 통해 상기 사용자 모델을 갱신하도록 구성되는 전자 장치.
  10. 청구항 1에 있어서,
    상기 인스트럭션들은, 상기 프로세서에 의해 실행 시, 상기 전자 장치가
    상기 제1 음성 입력, 상기 제1 음성 입력에 따라 결정된 기능, 또는 이들의 조합에 기반하여, 상기 사용자 모델을 갱신하도록 구성되는 전자 장치.
  11. 전자 장치의 동작 방법에 있어서,
    상기 전자 장치의 통신 회로를 통해, 상기 전자 장치에 등록된 사용자의 다른 전자 장치로부터 제1 사용자 모델을 수신하는 동작,
    상기 제1 사용자 모델에 기반하여 상기 전자 장치의 사용자 모델을 갱신하는 동작, 및
    상기 갱신된 사용자 모델을 이용하여, 상기 사용자의 제1 음성 입력에 기반하여, 상기 사용자를 식별하는 동작을 포함하고,
    상기 사용자 모델은, 상기 사용자의 등록 전 상기 사용자 이외의 적어도 하나의 다른 사용자의 제2 사용자 모델에 기반하여 상기 전자 장치에서 학습되고,
    상기 제1 사용자 모델은, 상기 사용자의 상기 다른 전자 장치에서 획득된 상기 사용자의 제2 음성 입력에 기반하여 상기 다른 전자 장치에서 학습된, 방법.
  12. 청구항 11에 있어서,
    상기 전자 장치에 등록된 적어도 하나의 사용자 중 제1 사용자가 등록 해제됨을 식별하는 동작, 및
    상기 사용자 모델에서 상기 제1 사용자의 사용자 모델에 의한 영향이 제거되도록, 상기 사용자 모델을 갱신하는 동작을 포함하는 방법.
  13. 청구항 12에 있어서,
    상기 제1 사용자에 대한 등록 해제 요청을 식별하는 동작, 및
    상기 등록 해제 요청에 응답하여, 상기 전자 장치에서 상기 제1 사용자를 등록 해제하는 동작을 포함하고,
    상기 등록 해제 요청은, 상기 제1 사용자의 사용자 입력, 상기 제1 사용자의 외부 전자 장치로부터의 입력, 또는 상기 전자 장치의 관리자의 입력 중 적어도 하나에 의해 생성되는 방법.
  14. 청구항 11에 있어서,
    상기 제1 음성 입력에 기반하여 식별된 상기 사용자에 대한 권한을 식별하는 동작,
    상기 식별된 권한에 기초하여 상기 제1 음성 입력에 따라 결정된 기능의 실행 여부를 결정하는 동작을 포함하는 방법.
  15. 청구항 14에 있어서,
    상기 사용자에 대한 상기 권한은 상기 전자 장치의 관리자에 의해 설정되는 방법.
PCT/KR2021/011815 2020-10-27 2021-09-02 사용자 모델을 관리하는 전자 장치 및 이의 동작 방법 WO2022092539A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/483,292 US11929079B2 (en) 2020-10-27 2021-09-23 Electronic device for managing user model and operating method thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200140256A KR20220055789A (ko) 2020-10-27 2020-10-27 사용자 모델을 관리하는 전자 장치 및 이의 동작 방법
KR10-2020-0140256 2020-10-27

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/483,292 Continuation US11929079B2 (en) 2020-10-27 2021-09-23 Electronic device for managing user model and operating method thereof

Publications (1)

Publication Number Publication Date
WO2022092539A1 true WO2022092539A1 (ko) 2022-05-05

Family

ID=81382849

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/011815 WO2022092539A1 (ko) 2020-10-27 2021-09-02 사용자 모델을 관리하는 전자 장치 및 이의 동작 방법

Country Status (2)

Country Link
KR (1) KR20220055789A (ko)
WO (1) WO2022092539A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011064913A (ja) * 2009-09-16 2011-03-31 Ntt Docomo Inc 電話システム、端末装置、音声モデル更新装置、および音声モデル更新方法
KR20150074075A (ko) * 2012-10-17 2015-07-01 뉘앙스 커뮤니케이션즈, 인코포레이티드 다중 디바이스 지능형 언어 모델 동기화
KR20160105688A (ko) * 2015-02-28 2016-09-07 삼성전자주식회사 다수의 기기에서 텍스트 데이터 동기화
KR20190064613A (ko) * 2016-10-03 2019-06-10 구글 엘엘씨 음성 인터페이스 디바이스에서의 다중 사용자 개인화
KR20190107626A (ko) * 2019-07-11 2019-09-20 엘지전자 주식회사 인공지능 서버

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011064913A (ja) * 2009-09-16 2011-03-31 Ntt Docomo Inc 電話システム、端末装置、音声モデル更新装置、および音声モデル更新方法
KR20150074075A (ko) * 2012-10-17 2015-07-01 뉘앙스 커뮤니케이션즈, 인코포레이티드 다중 디바이스 지능형 언어 모델 동기화
KR20160105688A (ko) * 2015-02-28 2016-09-07 삼성전자주식회사 다수의 기기에서 텍스트 데이터 동기화
KR20190064613A (ko) * 2016-10-03 2019-06-10 구글 엘엘씨 음성 인터페이스 디바이스에서의 다중 사용자 개인화
KR20190107626A (ko) * 2019-07-11 2019-09-20 엘지전자 주식회사 인공지능 서버

Also Published As

Publication number Publication date
KR20220055789A (ko) 2022-05-04

Similar Documents

Publication Publication Date Title
WO2022055068A1 (ko) 음성에 포함된 커맨드를 확인하는 전자 장치와 이의 동작 방법
WO2022080634A1 (ko) 인공 신경망 학습 방법 및 이를 지원하는 전자 장치
WO2022177343A1 (ko) 지오펜스를 설정하기 위한 전자 장치 및 이의 동작 방법
WO2022177162A1 (ko) 어플리케이션의 모델 파일을 초기화하는 프로세서 및 이를 포함하는 전자 장치
WO2022197088A1 (ko) Iot 서비스를 제공하는 장치 및 그 방법
WO2022154263A1 (ko) 전자 장치 및 전자 장치의 동작 방법
WO2022092539A1 (ko) 사용자 모델을 관리하는 전자 장치 및 이의 동작 방법
WO2021096281A1 (en) Voice input processing method and electronic device supporting same
WO2023146104A1 (ko) 무선 충전 가이드 제공 방법 및 이를 수행하는 전자 장치
WO2022203374A1 (ko) 음성 어시스턴트 서비스 제공 방법 및 이를 지원하는 전자 장치
WO2022203184A1 (ko) 기능 공유를 위한 전자 장치 및 그의 동작 방법
WO2022173260A1 (ko) 부품을 제어하기 위한 방법 및 이를 지원하는 전자 장치
WO2023128208A1 (ko) 사용자의 머리에 장착 가능한 전자 장치 및 상기 전자 장치에서 생체 정보를 이용한 기능을 제공하는 방법
WO2022092899A1 (ko) 관심 지점 정보를 제공하는 방법 및 이를 지원하는 전자 장치
WO2024117650A1 (ko) 전자 장치 및 전자 장치의 쿠키 정보 관리 방법
WO2022030798A1 (ko) 재부팅을 하는 방법 및 이를 지원하는 전자 장치
WO2023106640A1 (ko) 전자 장치 및 상기 전자 장치에서 제스처의 오인식을 방지하는 방법
WO2023013845A1 (ko) 전자 장치 및 전자 장치에서 임베디드 가입자 식별 모듈 프로파일을 설치하는 방법
WO2023149782A1 (ko) 햅틱 기능을 제공하기 위한 전자 장치 및 그 방법
WO2024076008A1 (ko) 파일을 공유하는 전자 장치, 방법, 및 비일시적 컴퓨터 판독가능 저장 매체
WO2023214688A1 (ko) 배터리의 충전 관련 정보를 제공하는 전자 장치 및 그 동작 방법
WO2022216117A1 (ko) 디지털 키 서비스를 제공하기 위한 전자 장치 및 이의 동작 방법
WO2023120921A1 (ko) 펌웨어 업데이트 방법, 상기 방법을 수행하는 전자 장치 및 충전 장치
WO2022085926A1 (ko) 전자 장치 및 서버를 포함하는 시스템, 및 그 시스템을 이용한 컨텐츠 추천 방법
WO2023063580A1 (ko) 무선 통신 수행 방법 및 이를 지원하는 전자 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21886536

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21886536

Country of ref document: EP

Kind code of ref document: A1