WO2021029457A1 - 사용자에게 정보를 제공하는 인공 지능 서버 및 그 방법 - Google Patents

사용자에게 정보를 제공하는 인공 지능 서버 및 그 방법 Download PDF

Info

Publication number
WO2021029457A1
WO2021029457A1 PCT/KR2019/010282 KR2019010282W WO2021029457A1 WO 2021029457 A1 WO2021029457 A1 WO 2021029457A1 KR 2019010282 W KR2019010282 W KR 2019010282W WO 2021029457 A1 WO2021029457 A1 WO 2021029457A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
information
artificial intelligence
processor
output
Prior art date
Application number
PCT/KR2019/010282
Other languages
English (en)
French (fr)
Inventor
이시혁
이원영
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to US16/493,848 priority Critical patent/US11568239B2/en
Priority to PCT/KR2019/010282 priority patent/WO2021029457A1/ko
Priority to KR1020190099913A priority patent/KR20190102151A/ko
Publication of WO2021029457A1 publication Critical patent/WO2021029457A1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Definitions

  • the present invention relates to an artificial intelligence server and method for providing information to a user. Specifically, the present invention relates to an artificial intelligence server and a method for providing information to a user using an artificial intelligence device arranged in a service area.
  • artificial intelligence systems can be built with various home appliances equipped with artificial intelligence, autonomous vehicles, and artificial intelligence speakers, and robots equipped with artificial intelligence in shopping malls, airports, and multiplexes where many people gather. , Kiosks, digital signage, etc. to build artificial intelligence systems.
  • the present invention provides an artificial intelligence server and method for providing information appropriate to the user's intention from the information providing device by determining the user's intention, determining an information providing device corresponding to the user's state among various artificial intelligence devices. I want to.
  • a user's intention is determined based on information acquired from at least one or more of a plurality of artificial intelligence devices arranged in a service area, and a user's state is determined using a plurality of artificial intelligence devices.
  • An artificial intelligence server that determines an information providing device from among a plurality of artificial intelligence devices based on the user's state, generates output information to be output from the determined information providing device, and controls the information providing device to output the output information, and the like Provides a way.
  • a user can effectively receive information necessary for himself/herself from artificial intelligence devices arranged in a service area, and each artificial intelligence device outputs only necessary information to prevent unnecessary information provision. .
  • FIG 1 shows an AI device according to an embodiment of the present invention.
  • FIG 2 shows an AI server according to an embodiment of the present invention.
  • FIG 3 shows an AI system according to an embodiment of the present invention.
  • FIG 4 shows an AI device according to an embodiment of the present invention.
  • FIG. 5 is a flowchart illustrating a method of providing information to a user according to an embodiment of the present invention.
  • FIG. 6 is a diagram illustrating an example of generating user intention information according to an embodiment of the present invention.
  • FIG. 7 is a flowchart illustrating a method of providing information to a user according to an embodiment of the present invention.
  • FIG 8 to 11 are views showing an example of providing information to a user according to an embodiment of the present invention.
  • FIGS. 12 and 13 are diagrams illustrating an example of providing information to a user according to an embodiment of the present invention.
  • 14 to 16 are diagrams showing an example of providing information to a user according to an embodiment of the present invention.
  • 17 is a diagram illustrating an example of providing information to a user according to an embodiment of the present invention.
  • FIG. 18 is a diagram illustrating an example of providing information to a user according to an embodiment of the present invention.
  • Machine learning refers to the field of studying methodologies to define and solve various problems dealt with in the field of artificial intelligence do.
  • Machine learning is also defined as an algorithm that improves the performance of a task through continuous experience.
  • An artificial neural network is a model used in machine learning, and may refer to an overall model with problem-solving capabilities, composed of artificial neurons (nodes) that form a network by combining synapses.
  • the artificial neural network may be defined by a connection pattern between neurons of different layers, a learning process for updating model parameters, and an activation function for generating an output value.
  • the artificial neural network may include an input layer, an output layer, and optionally one or more hidden layers. Each layer includes one or more neurons, and the artificial neural network may include neurons and synapses connecting neurons. In an artificial neural network, each neuron can output a function of an activation function for input signals, weights, and biases input through synapses.
  • Model parameters refer to parameters determined through learning, and include weights of synaptic connections and biases of neurons.
  • hyperparameters refer to parameters that must be set before learning in a machine learning algorithm, and include a learning rate, iteration count, mini-batch size, and initialization function.
  • the purpose of learning artificial neural networks can be seen as determining model parameters that minimize the loss function.
  • the loss function can be used as an index to determine an optimal model parameter in the learning process of the artificial neural network.
  • Machine learning can be classified into supervised learning, unsupervised learning, and reinforcement learning according to the learning method.
  • Supervised learning refers to a method of training an artificial neural network when a label for training data is given, and a label indicates the correct answer (or result value) that the artificial neural network should infer when training data is input to the artificial neural network. It can mean.
  • Unsupervised learning may refer to a method of training an artificial neural network in a state where a label for training data is not given.
  • Reinforcement learning may mean a learning method in which an agent defined in a certain environment learns to select an action or action sequence that maximizes the cumulative reward in each state.
  • machine learning implemented as a deep neural network (DNN) including a plurality of hidden layers is sometimes referred to as deep learning (deep learning), and deep learning is a part of machine learning.
  • DNN deep neural network
  • machine learning is used in the sense including deep learning.
  • a robot may refer to a machine that automatically processes or operates a task given by its own capabilities.
  • a robot having a function of recognizing the environment and performing an operation by self-determining may be referred to as an intelligent robot.
  • Robots can be classified into industrial, medical, household, military, etc. depending on the purpose or field of use.
  • the robot may be provided with a driving unit including an actuator or a motor to perform various physical operations such as moving a robot joint.
  • a driving unit including an actuator or a motor to perform various physical operations such as moving a robot joint.
  • the movable robot includes a wheel, a brake, a propeller, etc. in a driving unit, and can travel on the ground or fly in the air through the driving unit.
  • Autonomous driving refers to self-driving technology
  • autonomous driving vehicle refers to a vehicle that is driven without a user's manipulation or with a user's minimal manipulation.
  • a technology that maintains a driving lane a technology that automatically adjusts the speed such as adaptive cruise control, a technology that automatically drives along a specified route, and a technology that automatically sets a route when a destination is set, etc. All of these can be included.
  • the vehicle includes all of a vehicle having only an internal combustion engine, a hybrid vehicle including an internal combustion engine and an electric motor, and an electric vehicle including only an electric motor, and may include not only automobiles, but also trains and motorcycles.
  • the autonomous vehicle can be viewed as a robot having an autonomous driving function.
  • the extended reality collectively refers to Virtual Reality (VR), Augmented Reality (AR), and Mixed Reality (MR).
  • VR technology provides only CG images of real world objects or backgrounds
  • AR technology provides virtually created CG images on top of real object images
  • MR technology is a computer that mixes and combines virtual objects in the real world. It is a graphic technology.
  • MR technology is similar to AR technology in that it shows real and virtual objects together.
  • virtual objects are used in a form that complements real objects
  • MR technology virtual objects and real objects are used with equal characteristics.
  • XR technology can be applied to HMD (Head-Mount Display), HUD (Head-Up Display), mobile phones, tablet PCs, laptops, desktops, TVs, digital signage, etc., and devices applied with XR technology are XR devices. It can be called as.
  • HMD Head-Mount Display
  • HUD Head-Up Display
  • mobile phones tablet PCs, laptops, desktops, TVs, digital signage, etc.
  • devices applied with XR technology are XR devices. It can be called as.
  • FIG 1 shows an AI device 100 according to an embodiment of the present invention.
  • the artificial intelligence device 100 may be referred to as a terminal.
  • the AI device 100 includes a TV, a projector, a mobile phone, a smartphone, a desktop computer, a laptop computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), a navigation system, a tablet PC, a wearable device, a set-top box (STB). ), a DMB receiver, a radio, a washing machine, a refrigerator, a desktop computer, a digital signage, a robot, a vehicle, and the like.
  • PDA personal digital assistant
  • PMP portable multimedia player
  • STB set-top box
  • the artificial intelligence device 100 includes a communication unit 110, an input unit 120, a running processor 130, a sensing unit 140, an output unit 150, a memory 170, and a processor 180. And the like.
  • the communication unit 110 may transmit and receive data with external devices such as other AI devices 100a to 100e or the AI server 200 using wired/wireless communication technology.
  • the communication unit 110 may transmit and receive sensor information, a user input, a learning model, and a control signal with external devices.
  • the communication technologies used by the communication unit 110 include Global System for Mobile communication (GSM), Code Division Multi Access (CDMA), Long Term Evolution (LTE), 5G, Wireless LAN (WLAN), and Wireless-Fidelity (Wi-Fi). ), Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), ZigBee, and Near Field Communication (NFC).
  • GSM Global System for Mobile communication
  • CDMA Code Division Multi Access
  • LTE Long Term Evolution
  • 5G Fifth Generation
  • WLAN Wireless LAN
  • Wi-Fi Wireless-Fidelity
  • Bluetooth Bluetooth
  • IrDA Infrared Data Association
  • ZigBee ZigBee
  • NFC Near Field Communication
  • the input unit 120 may acquire various types of data.
  • the input unit 120 may include a camera for inputting an image signal, a microphone for receiving an audio signal, a user input unit for receiving information from a user, and the like.
  • a camera or microphone for treating a camera or microphone as a sensor, a signal obtained from the camera or microphone may be referred to as sensing data or sensor information.
  • the input unit 120 may acquire training data for model training and input data to be used when acquiring an output by using the training model.
  • the input unit 120 may obtain unprocessed input data, and in this case, the processor 180 or the running processor 130 may extract an input feature as a preprocess for the input data.
  • the learning processor 130 may train a model composed of an artificial neural network using the training data.
  • the learned artificial neural network may be referred to as a learning model.
  • the learning model can be used to infer a result value for new input data other than the training data, and the inferred value can be used as a basis for a decision to perform a certain operation.
  • the learning processor 130 may perform AI processing together with the learning processor 240 of the AI server 200.
  • the learning processor 130 may include a memory integrated or implemented in the AI device 100.
  • the learning processor 130 may be implemented using the memory 170, an external memory directly coupled to the AI device 100, or a memory maintained in an external device.
  • the sensing unit 140 may acquire at least one of internal information of the AI device 100, information about the surrounding environment of the AI device 100, and user information by using various sensors.
  • the sensors included in the sensing unit 140 include a proximity sensor, an illuminance sensor, an acceleration sensor, a magnetic sensor, a gyro sensor, an inertial sensor, an RGB sensor, an IR sensor, a fingerprint recognition sensor, an ultrasonic sensor, an optical sensor, a microphone, and a lidar. , Radar, etc.
  • the output unit 150 may generate output related to visual, auditory or tactile sense.
  • the output unit 150 may include a display unit that outputs visual information, a speaker that outputs auditory information, and a haptic module that outputs tactile information.
  • the memory 170 may store data supporting various functions of the AI device 100.
  • the memory 170 may store input data, training data, a learning model, and a learning history acquired from the input unit 120.
  • the processor 180 may determine at least one executable operation of the AI device 100 based on information determined or generated using a data analysis algorithm or a machine learning algorithm. Further, the processor 180 may perform the determined operation by controlling the components of the AI device 100.
  • the processor 180 may request, search, receive, or utilize data from the learning processor 130 or the memory 170, and perform a predicted or desirable operation among the at least one executable operation.
  • the components of the AI device 100 can be controlled to execute.
  • the processor 180 may generate a control signal for controlling the corresponding external device and transmit the generated control signal to the corresponding external device.
  • the processor 180 may obtain intention information for a user input, and determine a user's requirement based on the obtained intention information.
  • the processor 180 uses at least one of a Speech To Text (STT) engine for converting a speech input into a character string or a Natural Language Processing (NLP) engine for obtaining intention information of a natural language. Intention information corresponding to the input can be obtained.
  • STT Speech To Text
  • NLP Natural Language Processing
  • At this time, at least one or more of the STT engine and the NLP engine may be composed of an artificial neural network, at least partially trained according to a machine learning algorithm.
  • at least one of the STT engine or the NLP engine is learned by the learning processor 130, learned by the learning processor 240 of the AI server 200, or learned by distributed processing thereof. Can be.
  • the processor 180 collects history information including user feedback on the operation content or operation of the AI device 100 and stores it in the memory 170 or the learning processor 130, or the AI server 200 Can be transferred to an external device.
  • the collected history information can be used to update the learning model.
  • the processor 180 may control at least some of the components of the AI device 100 to drive an application program stored in the memory 170. Furthermore, the processor 180 may operate by combining two or more of the components included in the AI device 100 to drive the application program.
  • FIG 2 shows an AI server 200 according to an embodiment of the present invention.
  • the AI server 200 may refer to a device that trains an artificial neural network using a machine learning algorithm or uses the learned artificial neural network.
  • the AI server 200 may be composed of a plurality of servers to perform distributed processing, or may be defined as a 5G network.
  • the AI server 200 may be included as a part of the AI device 100 to perform at least part of AI processing together.
  • the AI server 200 may include a communication unit 210, a memory 230, a learning processor 240, and a processor 260.
  • the communication unit 210 may transmit and receive data with an external device such as the AI device 100.
  • the memory 230 may include a model storage unit 231.
  • the model storage unit 231 may store a model (or artificial neural network, 231a) being trained or trained through the learning processor 240.
  • the learning processor 240 may train the artificial neural network 231a using the training data.
  • the learning model may be used while being mounted on the AI server 200 of the artificial neural network, or may be mounted on an external device such as the AI device 100 and used.
  • the learning model can be implemented in hardware, software, or a combination of hardware and software. When part or all of the learning model is implemented in software, one or more instructions constituting the learning model may be stored in the memory 230.
  • the processor 260 may infer a result value for new input data using the learning model, and generate a response or a control command based on the inferred result value.
  • FIG 3 shows an AI system 1 according to an embodiment of the present invention.
  • the AI system 1 includes at least one of an AI server 200, a robot 100a, an autonomous vehicle 100b, an XR device 100c, a smartphone 100d, or a home appliance 100e. It is connected to the cloud network 10.
  • the robot 100a to which the AI technology is applied, the autonomous vehicle 100b, the XR device 100c, the smartphone 100d, or the home appliance 100e may be referred to as the AI devices 100a to 100e.
  • the cloud network 10 may constitute a part of the cloud computing infrastructure or may mean a network that exists in the cloud computing infrastructure.
  • the cloud network 10 may be configured using a 3G network, a 4G or Long Term Evolution (LTE) network, or a 5G network.
  • LTE Long Term Evolution
  • the devices 100a to 100e and 200 constituting the AI system 1 may be connected to each other through the cloud network 10.
  • the devices 100a to 100e and 200 may communicate with each other through a base station, but may communicate with each other directly without through a base station.
  • the AI server 200 may include a server that performs AI processing and a server that performs an operation on big data.
  • the AI server 200 includes at least one of a robot 100a, an autonomous vehicle 100b, an XR device 100c, a smartphone 100d, or a home appliance 100e, which are AI devices constituting the AI system 1 It is connected through the cloud network 10 and may help at least part of the AI processing of the connected AI devices 100a to 100e.
  • the AI server 200 may train an artificial neural network according to a machine learning algorithm in place of the AI devices 100a to 100e, and may directly store the learning model or transmit it to the AI devices 100a to 100e.
  • the AI server 200 receives input data from the AI devices 100a to 100e, infers a result value for the received input data using a learning model, and generates a response or control command based on the inferred result value. It can be generated and transmitted to the AI devices 100a to 100e.
  • the AI devices 100a to 100e may infer a result value of input data using a direct learning model, and generate a response or a control command based on the inferred result value.
  • the AI devices 100a to 100e to which the above-described technology is applied will be described.
  • the AI devices 100a to 100e illustrated in FIG. 3 may be viewed as a specific example of the AI device 100 illustrated in FIG. 1.
  • the robot 100a is applied with AI technology and may be implemented as a guide robot, a transport robot, a cleaning robot, a wearable robot, an entertainment robot, a pet robot, an unmanned flying robot, and the like.
  • the robot 100a may include a robot control module for controlling an operation, and the robot control module may refer to a software module or a chip implementing the same as hardware.
  • the robot 100a acquires status information of the robot 100a by using sensor information acquired from various types of sensors, detects (recognizes) the surrounding environment and objects, generates map data, or moves paths and travels. It can decide a plan, decide a response to user interaction, or decide an action.
  • the robot 100a may use sensor information obtained from at least one sensor from among a lidar, a radar, and a camera in order to determine a moving route and a driving plan.
  • the robot 100a may perform the above operations using a learning model composed of at least one artificial neural network.
  • the robot 100a may recognize a surrounding environment and an object using a learning model, and may determine an operation using the recognized surrounding environment information or object information.
  • the learning model may be directly learned by the robot 100a or learned by an external device such as the AI server 200.
  • the robot 100a may perform an operation by generating a result using a direct learning model, but it transmits sensor information to an external device such as the AI server 200 and performs the operation by receiving the result generated accordingly. You may.
  • the robot 100a determines a movement path and a driving plan using at least one of map data, object information detected from sensor information, or object information acquired from an external device, and controls the driving unit to determine the determined movement path and travel plan. Accordingly, the robot 100a can be driven.
  • the map data may include object identification information on various objects arranged in a space in which the robot 100a moves.
  • the map data may include object identification information on fixed objects such as walls and doors and movable objects such as flower pots and desks.
  • the object identification information may include a name, type, distance, and location.
  • the robot 100a may perform an operation or run by controlling a driving unit based on a user's control/interaction.
  • the robot 100a may acquire interaction intention information according to a user's motion or voice speech, and determine a response based on the obtained intention information to perform an operation.
  • the autonomous vehicle 100b may be implemented as a mobile robot, vehicle, or unmanned aerial vehicle by applying AI technology.
  • the autonomous driving vehicle 100b may include an autonomous driving control module for controlling an autonomous driving function, and the autonomous driving control module may refer to a software module or a chip implementing the same as hardware.
  • the autonomous driving control module may be included inside as a configuration of the autonomous driving vehicle 100b, but may be configured as separate hardware and connected to the exterior of the autonomous driving vehicle 100b.
  • the autonomous driving vehicle 100b acquires state information of the autonomous driving vehicle 100b using sensor information obtained from various types of sensors, detects (recognizes) surrounding environments and objects, or generates map data, It is possible to determine a travel route and a driving plan, or to determine an action.
  • the autonomous vehicle 100b may use sensor information obtained from at least one sensor from among a lidar, a radar, and a camera, similar to the robot 100a, in order to determine a moving route and a driving plan.
  • the autonomous vehicle 100b may recognize an environment or object in an area where the view is obscured or an area greater than a certain distance by receiving sensor information from external devices, or directly recognized information from external devices. .
  • the autonomous vehicle 100b may perform the above operations using a learning model composed of at least one artificial neural network.
  • the autonomous vehicle 100b may recognize a surrounding environment and an object using a learning model, and may determine a driving movement using the recognized surrounding environment information or object information.
  • the learning model may be directly learned by the autonomous vehicle 100b or learned by an external device such as the AI server 200.
  • the autonomous vehicle 100b may perform an operation by generating a result using a direct learning model, but it operates by transmitting sensor information to an external device such as the AI server 200 and receiving the result generated accordingly. You can also do
  • the autonomous vehicle 100b determines a movement path and a driving plan using at least one of map data, object information detected from sensor information, or object information acquired from an external device, and controls the driving unit to determine the determined movement path and driving.
  • the autonomous vehicle 100b can be driven according to a plan.
  • the map data may include object identification information on various objects arranged in a space (eg, a road) in which the autonomous vehicle 100b travels.
  • the map data may include object identification information on fixed objects such as street lights, rocks, and buildings, and movable objects such as vehicles and pedestrians.
  • the object identification information may include a name, type, distance, and location.
  • the autonomous vehicle 100b may perform an operation or drive by controlling a driving unit based on a user's control/interaction.
  • the autonomous vehicle 100b may acquire interaction intention information according to a user's motion or voice speech, and determine a response based on the obtained intention information to perform the operation.
  • the XR device 100c is applied with AI technology, such as HMD (Head-Mount Display), HUD (Head-Up Display) provided in the vehicle, TV, mobile phone, smart phone, computer, wearable device, home appliance, digital signage. , A vehicle, a fixed robot, or a mobile robot.
  • HMD Head-Mount Display
  • HUD Head-Up Display
  • the XR device 100c analyzes 3D point cloud data or image data acquired through various sensors or from an external device to generate location data and attribute data for 3D points, thereby providing information on surrounding spaces or real objects.
  • the XR object to be acquired and output can be rendered and output.
  • the XR apparatus 100c may output an XR object including additional information on the recognized object in correspondence with the recognized object.
  • the XR apparatus 100c may perform the above operations using a learning model composed of at least one artificial neural network.
  • the XR device 100c may recognize a real object from 3D point cloud data or image data using a learning model, and may provide information corresponding to the recognized real object.
  • the learning model may be directly learned by the XR device 100c or learned by an external device such as the AI server 200.
  • the XR device 100c may directly generate a result using a learning model to perform an operation, but transmits sensor information to an external device such as the AI server 200 and receives the result generated accordingly to perform the operation. You can also do it.
  • the robot 100a may be implemented as a guide robot, a transport robot, a cleaning robot, a wearable robot, an entertainment robot, a pet robot, an unmanned flying robot, etc. by applying AI technology and autonomous driving technology.
  • the robot 100a to which AI technology and autonomous driving technology are applied may refer to a robot having an autonomous driving function or a robot 100a interacting with the autonomous driving vehicle 100b.
  • the robot 100a having an autonomous driving function may collectively refer to devices that move by themselves according to a given movement line without the user's control or by determining the movement line by themselves.
  • the robot 100a having an autonomous driving function and the autonomous driving vehicle 100b may use a common sensing method to determine one or more of a moving route or a driving plan.
  • the robot 100a having an autonomous driving function and the autonomous driving vehicle 100b may determine one or more of a movement route or a driving plan using information sensed through a lidar, a radar, and a camera.
  • the robot 100a interacting with the autonomous driving vehicle 100b exists separately from the autonomous driving vehicle 100b, and is linked to an autonomous driving function inside the autonomous driving vehicle 100b, or to the autonomous driving vehicle 100b. It is possible to perform an operation associated with the user on board.
  • the robot 100a interacting with the autonomous driving vehicle 100b acquires sensor information on behalf of the autonomous driving vehicle 100b and provides it to the autonomous driving vehicle 100b, or acquires sensor information and information about the surrounding environment or By generating object information and providing it to the autonomous vehicle 100b, it is possible to control or assist the autonomous driving function of the autonomous driving vehicle 100b.
  • the robot 100a interacting with the autonomous vehicle 100b may monitor a user in the autonomous vehicle 100b or control the function of the autonomous vehicle 100b through interaction with the user. .
  • the robot 100a may activate an autonomous driving function of the autonomous driving vehicle 100b or assist the control of a driving unit of the autonomous driving vehicle 100b.
  • the functions of the autonomous vehicle 100b controlled by the robot 100a may include not only an autonomous driving function, but also functions provided by a navigation system or an audio system provided inside the autonomous driving vehicle 100b.
  • the robot 100a interacting with the autonomous driving vehicle 100b may provide information or assist a function to the autonomous driving vehicle 100b from outside of the autonomous driving vehicle 100b.
  • the robot 100a may provide traffic information including signal information to the autonomous vehicle 100b, such as a smart traffic light, or interact with the autonomous driving vehicle 100b, such as an automatic electric charger for an electric vehicle. You can also automatically connect an electric charger to the charging port.
  • the robot 100a may be implemented as a guide robot, a transport robot, a cleaning robot, a wearable robot, an entertainment robot, a pet robot, an unmanned flying robot, a drone, etc., by applying AI technology and XR technology.
  • the robot 100a to which the XR technology is applied may refer to a robot that is an object of control/interaction in an XR image.
  • the robot 100a is distinguished from the XR device 100c and may be interlocked with each other.
  • the robot 100a which is the object of control/interaction in the XR image, acquires sensor information from sensors including a camera
  • the robot 100a or the XR device 100c generates an XR image based on the sensor information.
  • the XR device 100c may output the generated XR image.
  • the robot 100a may operate based on a control signal input through the XR device 100c or a user's interaction.
  • the user can check the XR image corresponding to the viewpoint of the robot 100a linked remotely through an external device such as the XR device 100c, and adjust the autonomous driving path of the robot 100a through the interaction.
  • You can control motion or driving, or check information on surrounding objects.
  • the autonomous vehicle 100b may be implemented as a mobile robot, a vehicle, or an unmanned aerial vehicle by applying AI technology and XR technology.
  • the autonomous driving vehicle 100b to which the XR technology is applied may refer to an autonomous driving vehicle including a means for providing an XR image, or an autonomous driving vehicle that is an object of control/interaction within the XR image.
  • the autonomous vehicle 100b, which is an object of control/interaction in the XR image is distinguished from the XR device 100c and may be interlocked with each other.
  • the autonomous vehicle 100b provided with a means for providing an XR image may acquire sensor information from sensors including a camera, and may output an XR image generated based on the acquired sensor information.
  • the autonomous vehicle 100b may provide an XR object corresponding to a real object or an object in a screen to the occupant by outputting an XR image with a HUD.
  • the XR object when the XR object is output to the HUD, at least a part of the XR object may be output to overlap the actual object facing the occupant's gaze.
  • the XR object when the XR object is output on a display provided inside the autonomous vehicle 100b, at least a part of the XR object may be output to overlap an object in the screen.
  • the autonomous vehicle 100b may output XR objects corresponding to objects such as lanes, other vehicles, traffic lights, traffic signs, motorcycles, pedestrians, and buildings.
  • the autonomous driving vehicle 100b which is the object of control/interaction in the XR image, acquires sensor information from sensors including a camera
  • the autonomous driving vehicle 100b or the XR device 100c is based on the sensor information.
  • An XR image is generated, and the XR device 100c may output the generated XR image.
  • the autonomous vehicle 100b may operate based on a control signal input through an external device such as the XR device 100c or a user's interaction.
  • FIG 4 shows an AI device 100 according to an embodiment of the present invention.
  • the input unit 120 includes a camera 121 for inputting an image signal, a microphone 122 for receiving an audio signal, and a user input unit for receiving information from a user. 123).
  • the voice data or image data collected by the input unit 120 may be analyzed and processed as a user's control command.
  • the input unit 120 is for inputting image information (or signal), audio information (or signal), data, or information input from a user.
  • image information or signal
  • audio information or signal
  • data or information input from a user.
  • the AI device 100 Cameras 121 may be provided.
  • the camera 121 processes an image frame such as a still image or a video obtained by an image sensor in a video call mode or a photographing mode.
  • the processed image frame may be displayed on the display unit 151 or stored in the memory 170.
  • the microphone 122 processes an external sound signal into electrical voice data.
  • the processed voice data may be variously utilized according to a function (or an application program being executed) being executed by the AI device 100. Meanwhile, various noise removal algorithms for removing noise generated in a process of receiving an external sound signal may be applied to the microphone 122.
  • the user input unit 123 is for receiving information from a user, and when information is input through the user input unit 123, the processor 180 may control the operation of the AI device 100 to correspond to the input information. .
  • the user input unit 123 is a mechanical input means (or a mechanical key, for example, a button located on the front/rear or side of the AI device 100, a dome switch, a jog wheel, a jog switch, etc.) And a touch input means.
  • the touch-type input means comprises a virtual key, a soft key, or a visual key displayed on a touch screen through software processing, or a portion other than the touch screen It may be made of a touch key (touch key) disposed on.
  • the sensing unit 140 may be referred to as a sensor unit.
  • the output unit 150 includes at least one of a display unit 151, a sound output unit 152, a haptic module 153, and an optical output unit 154. can do.
  • the display unit 151 displays (outputs) information processed by the AI device 100.
  • the display unit 151 may display execution screen information of an application program driven by the AI device 100, or UI (User Interface) and GUI (Graphic User Interface) information according to the execution screen information.
  • UI User Interface
  • GUI Graphic User Interface
  • the display unit 151 may implement a touch screen by forming a layer structure or integrally with the touch sensor.
  • a touch screen may function as a user input unit 123 that provides an input interface between the AI device 100 and a user, and may provide an output interface between the terminal 100 and the user.
  • the sound output unit 152 may output audio data received from the communication unit 110 or stored in the memory 170 in a call signal reception, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, and the like.
  • the sound output unit 152 may include at least one of a receiver, a speaker, and a buzzer.
  • the haptic module 153 generates various tactile effects that a user can feel.
  • a typical example of the tactile effect generated by the haptic module 153 may be vibration.
  • the light output unit 154 outputs a signal for notifying the occurrence of an event using light from a light source of the AI device 100.
  • Examples of events occurring in the AI device 100 may be message reception, call signal reception, missed call, alarm, schedule notification, email reception, and information reception through an application.
  • FIG. 5 is a flowchart illustrating a method of providing information to a user according to an embodiment of the present invention.
  • the artificial intelligence server 200 communicates with at least one external device, and the external device may include a portable terminal, an IoT device, a kiosk, and a digital signage.
  • the external device may refer to various devices including the artificial intelligence device 100, and may also be referred to as the artificial intelligence device 100 in that it has an artificial intelligence function through the artificial intelligence server 200.
  • the artificial intelligence device 100 is referred to as including a user terminal.
  • the processor 260 of the artificial intelligence server 200 receives at least one of a user's voice data or a user's terminal usage information (S501).
  • the processor 260 receives the user's voice data corresponding to the user spoken voice from at least one of the user terminal, the artificial intelligence device 100 disposed in the service area, or the microphone disposed in the service area through the communication unit 210 can do.
  • the service area means an area in which the artificial intelligence server 200 can provide information to a user using at least one artificial intelligence device 100, and means an area in which at least one artificial intelligence device 100 is installed. I can.
  • the processor 260 may receive the user's terminal usage information from the user terminal or the artificial intelligence device 100 being used by the user through the communication unit 210.
  • the terminal usage information may include the user's usage record of the user terminal or artificial intelligence device 100 and user identification information.
  • the user identification information is information for identifying a specific user among various users, and may include user terminal information, user account information, user authentication information or user recognition information stored in the terminal.
  • the user recognition information may include user voiceprint recognition information, user face recognition information, user iris recognition information, or user fingerprint recognition information.
  • the user identification information may include features used for voiceprint recognition, facial recognition, iris recognition, or fingerprint recognition.
  • the memory 260 of the artificial intelligence server 200 may store at least one or more of user recognition information, user identification information, user terminal information, and user account information that can distinguish each user.
  • the communication unit 210 may transmit/receive data to and from the user terminal, the artificial intelligence device 100, or the artificial intelligence device 100 through the base station or directly using 5G communication technology.
  • the processor 260 of the artificial intelligence server 200 generates user intention information based on at least one of the user's voice data or the user's terminal usage information (S503).
  • the user's voice data may include a query, request, or command explicitly uttered by the user, or may include a conversation in which the user does not specify a query or request.
  • the user's voice data may include an explicit command or request such as "Tell me the way to XX cafe", or may include a conversation that does not specify a query or request, such as "I should go to XX cafe.” .
  • the processor 260 may generate user intention information based on a query, request, or command included in the voice data.
  • the processor 260 transfers the user's intention information to "Move to XX cafe” or " It can be created as "Check route to XX cafe".
  • the processor 260 may generate intention information by grasping the intention of an explicit query, request, or command included in the voice data using a natural language processing (NLP) technique or a natural language processing engine.
  • NLP natural language processing
  • the processor 260 may analyze the conversation content included in the voice data to generate user intention information.
  • the processor 260 transfers the user's intention information to "Move to XX cafe” or "XX cafe” based on the voice data. It can be created like “Check path to”.
  • the processor 260 may extract a keyword from the conversation included in the voice data, and generate intention information having a high correlation with the conversation included in the voice data based on the extracted keyword.
  • the processor 260 extracts the keywords of "XX cafe” and “go” from the conversation, and the extracted keywords have a correlation. Intention information such as “Move to XX cafe” or “Check the route to XX cafe” can be generated.
  • the processor 260 may generate intention information from the received voice data using the first intention information generation model.
  • the first intention information generation model includes an artificial neural network and may be trained using a machine learning algorithm or a deep learning algorithm.
  • the first intention information generation model may be learned by supervised learning.
  • the user's terminal usage information may include at least one of a user's terminal or artificial intelligence device 100 usage record, a search record, a search result, and a search result browsing record.
  • the terminal usage information includes a map application.
  • information that the Internet browser has been used, information that "XX cafe” has been searched, and information that the search result for "XX cafe” located in the "YY area” has been viewed may be included.
  • the processor 260 may generate intention information from the received terminal usage information using the second intention information generation model.
  • the second intention information generation model includes an artificial neural network, and may be learned using a machine learning algorithm or a deep learning algorithm.
  • the second intention information generation model may be learned by supervised learning.
  • the terminal usage information includes information that a map application or an Internet browser is used, information that "XX cafe” has been searched, and that a search result for "XX cafe” located in the "YY area” has been viewed.
  • the processor 260 uses the second intention information generation model to provide an intention such as "moving to the XX cafe in the YY area” or "confirming the route to the XX cafe in the YY area" from the terminal usage information. Can generate information.
  • the processor 260 of the artificial intelligence server 200 generates state information of the user (S505).
  • the user's state information may include at least one of a user's location, a user's movement, a user's moving direction, a user's gaze direction, or a user's motion.
  • the processor 260 may generate the user's state information based on at least one of voice data, image data, and the user's terminal state information.
  • the image data for the user is image data including the user, and may be generated from at least one of a user terminal, an artificial intelligence device 100 disposed in a service area, or a camera disposed in a service area.
  • the user terminal state information may include at least one of location information of the user terminal, operation state information of the user terminal, or input state information of the user terminal.
  • the processor 260 may recognize a user included in the image data using the user recognition model.
  • the user recognition model is a model that distinguishes and identifies a plurality of users from each other, and may recognize a user by using various methods such as facial recognition or gait recognition.
  • the user recognition model may be configured including an artificial neural network, and supervised learning may be performed using a machine learning algorithm or a deep learning algorithm.
  • the processor 260 may receive terminal usage information through the communication unit 210 and store user identification information included in the received terminal usage information in the memory 230. And, the user identification information may be used for learning a user recognition model.
  • the processor 260 or the learning processor 240 may learn a user recognition model using image data including a specific user and user identification information for the user.
  • the processor 260 receives image data for a user from at least one or more of a user terminal, an artificial intelligence device 100 disposed in a service area, or a camera disposed in a service area through the communication unit 210, and the received image data Recognizing the user in may generate user status information including at least one of a user's location, a user's movement, a user's moving direction, a user's gaze direction, or a user's motion.
  • the processor 260 may determine the user's gaze direction by recognizing the user's face from image data about the user and determining the direction of the user's face or eyeball.
  • the processor 260 may use a plurality of image data to more accurately generate user state information.
  • the processor 260 may generate user status information by using image data generated by multiple devices, or may generate user status information by using a plurality of image data generated by a single device.
  • the processor 260 may determine the user's location from a plurality of image data for the user, and determine the user's movement line or the user's movement direction based on a change in the user's location. Also, the processor 260 may determine a user's posture from a plurality of image data for the user, and may determine a user's motion based on a change in the user's posture.
  • the processor 260 uses the location information for each of the artificial intelligence devices 100 arranged in the service area stored in the memory 230 and the image data of the user received from the plurality of artificial intelligence devices 100. The user's location can be determined.
  • the processor 260 recognizes the user from the image data, and determines the distance between the recognized user and the artificial intelligence device 100 that generated the image data. It is calculated and the location of the user can be determined using the calculated distance.
  • the processor 260 may receive a user recognition result or a user identification result from the artificial intelligence device 100, and may generate user status information based on the received result.
  • each artificial intelligence device 100 directly recognizes a user using a user recognition model, and the processor 260 receives a user recognition result instead of voice data or image data from the artificial intelligence device 100, and the received recognition
  • the user's status information may be generated based on the result.
  • the processor 260 may transmit at least one of a user recognition model or user identification information used for user recognition to each artificial intelligence device 100 through the communication unit 210.
  • the processor 260 of the artificial intelligence server 200 determines an information providing device based on the state information of the user (S507).
  • the processor 260 may determine at least one information providing device to provide information to a user from among the artificial intelligence devices 100 arranged in the service area.
  • the information providing device may be determined from among the artificial intelligence device 100 having a speaker or a display.
  • the processor 260 may determine the information providing device based on at least one of the user's location, the user's movement direction, the user's movement line, and the user's gaze direction included in the user's state information.
  • the processor 260 may calculate a distance from each artificial intelligence device 100 to the user based on the location information of each of the artificial intelligence devices 100 arranged in the service area and the user's location information. .
  • an information providing device may be determined from among artificial intelligence devices 100 whose distance to the user is within a certain level.
  • the processor 260 may determine the artificial intelligence device 100 located within the first reference distance from the user as the information providing device.
  • the processor 260 determines the distance or proximity from each artificial intelligence device 100 to the user's movement line, based on the location information of each of the artificial intelligence devices 100 arranged in the service area and the user's movement line. Can be calculated.
  • an information providing device may be determined from among artificial intelligence devices 100 in which the distance to the user's movement line is within a certain level.
  • the processor 260 may determine the artificial intelligence device 100 adjacent to the user's movement line as the information providing device.
  • the processor 260 may determine an information providing device from among the artificial intelligence devices 100 included in the user's field of view based on the user's gaze direction.
  • the processor 260 may determine as the information providing device the artificial intelligence device 100 located within a certain angle from the user's gaze direction and having a distance to the user smaller than the second reference distance.
  • the processor 260 may determine the information providing device by considering not only the user's state information but also the user's intention information.
  • the processor 260 may obtain destination information that the user intends to move or route information that the user needs to move from the user's intention information, and determine an information providing device based on the obtained destination information or route information.
  • the processor 260 may determine a path from the current user's location to the destination and the destination from the user's intention information, and may determine a device adjacent to the determined path among the artificial intelligence devices 100 as the information providing device.
  • the information providing device may be determined based on an actual user's location, such as a user's location or a path the user is moving, or may be determined based on a path expected by the user to move, such as a route to a destination.
  • the processor 260 of the artificial intelligence server 200 generates output information to be output from the determined information providing device (S509).
  • the processor 260 may generate output information based on user intention information.
  • the processor 260 may generate output information including "the path to XX cafe".
  • the processor 260 may classify and generate output information for each determined information providing device.
  • the processor 260 determines the first output information to be output by the first information providing device as "the path from the first information providing device to the XX cafe"
  • the second output information to be output by the second information providing device may be determined as "the path from the second information providing device to the XX cafe”.
  • the processor 260 may generate output information including information related to user intention information.
  • the processor 260 may generate output information including "the path to the XX cafe” and "the business hours of the XX cafe".
  • the processor 260 may generate output information including advertisement information related to user intention information.
  • the processor 260 may generate output information including advertisements for other cafes or coffee-related products.
  • the processor 260 may generate output information including information indicating a user to be provided with the information.
  • the processor 260 of the artificial intelligence server 200 transmits a control signal for outputting the generated output information to the determined information providing device (S511).
  • the output information may be classified and generated for each information providing device, and the processor 260 may transmit a control signal for outputting output information corresponding to each information providing device.
  • the control signal may include at least one of a control signal for outputting output information as an image through a display unit of the information providing device or a control signal for outputting output information as sound through a speaker of the information providing device.
  • the above description is only described based on the relationship between the artificial intelligence server 200 and one user, and the artificial intelligence server 200 individually generates intention information and state information for each of a plurality of users. , It is possible to determine an information providing device and output information for each of a plurality of users.
  • the artificial intelligence server 200 may provide personalized information to a user using a plurality of artificial intelligence devices 100.
  • the steps (S501 to S511) shown in FIG. 5 may be repeatedly performed, and thus, the artificial intelligence server 200 periodically or in real time updates the user's intention information or the user's state information, and When the information is changed or the user's state information is changed, the output information or the information providing device may be changed accordingly.
  • the processor 260 determines the first external device as the information providing device, and when the user changes the gaze from the first external device to the second external device, the processor ( 260) may change the information providing device from the first external device to the second external device.
  • the processor 260 determines the first external device as the information providing device, and when the user moves near the second external device, the processor 260 controls the information providing device. You can change from an external device to a second external device.
  • FIG. 6 is a diagram illustrating an example of generating user intention information according to an embodiment of the present invention.
  • the artificial intelligence server 601 may communicate with an artificial intelligence device 611 or a user terminal 612 disposed in a service area.
  • the artificial intelligence device 611 may refer to a kiosk, digital signage, home appliance, or the like.
  • the user terminal 612 may mean a smartphone.
  • the first user 621 utters 622 "Way to X1 cafe?" to the artificial intelligence device 611, and the second user 631 says “Where is X2 cafe?" to the artificial intelligence device 611.
  • the third user 641 may search 642 for information on "X3 restaurant" using the user terminal 612.
  • the artificial intelligence server 601 includes voice data corresponding to the voice 622 spoken by the first user 621 from the artificial intelligence device 611 and the voice corresponding to the voice 632 spoken by the second user 631 Data may be received, and terminal usage information corresponding to the information 642 retrieved by the third user 641 may be received from the user terminal 612.
  • the artificial intelligence server 601 based on the received voice data and the terminal usage information, the intention information of the first user 621 "Check the route to the X1 cafe", the intention information of the second user 631
  • the intention information of the third user 641 may be determined as "confirming the route to the X2 cafe” and "confirming the route to the X3 restaurant”.
  • the artificial intelligence server 601 determines an information providing device from among a plurality of artificial intelligence devices or user terminals arranged in the service area, generates output information to be output from the information providing device, and provides information.
  • a control signal for outputting output information generated to the device may be transmitted.
  • the user's artificial intelligence device 611 generates the user's voice data
  • the user terminal 612 generates the user's terminal usage information, but the present invention is not limited thereto.
  • the artificial intelligence device 611 may generate terminal usage information and transmit it to the artificial intelligence server 601.
  • the user terminal 612 may generate voice data corresponding to the user's spoken voice and transmit it to the artificial intelligence server 601.
  • the artificial intelligence server 601 may generate intention information of each user by using the received terminal usage information or voice data.
  • FIG. 7 is a flowchart illustrating a method of providing information to a user according to an embodiment of the present invention.
  • the processor 260 of the artificial intelligence server 200 receives at least one of a user's voice data or a user's terminal usage information (S701). This corresponds to step S501 of FIG. 5.
  • the processor 260 of the artificial intelligence server 200 generates user intention information based on at least one or more of the user's voice data or the user's terminal usage information (S703). This corresponds to step S503 of FIG. 5.
  • the processor 260 of the artificial intelligence server 200 generates state information of the user (S705). This corresponds to step S505 of FIG. 5.
  • the processor 260 of the artificial intelligence server 200 determines an information providing device based on the state information of the user (S707). This corresponds to step S507 of FIG. 5.
  • the processor 260 of the artificial intelligence server 200 generates output information to be output from the determined information providing device (S709). This corresponds to step S509 of FIG. 5.
  • the processor 260 of the artificial intelligence server 200 transmits a control signal for outputting the generated output information to the determined information providing device (S711). This corresponds to step S511 of FIG. 5.
  • the processor 260 of the artificial intelligence server 200 updates the state information of the user (S713).
  • the processor 260 receives at least one of voice data, image data, or terminal usage information from at least one of the artificial intelligence devices 100 or user terminals arranged in the service area, and uses the received data to Information can be updated.
  • the processor 260 may identify a user in the image data and determine the location of the identified user accordingly.
  • the processor 260 of the artificial intelligence server 200 determines whether to end the provision of information (S715).
  • the processor 260 may determine whether to end the provision of information based on the updated state information of the user.
  • the processor 260 may determine whether to end information provision by determining whether the user has completed an operation corresponding to the user's intention information, whether the user's intention information has changed, or whether the user has left the service area. have.
  • the processor 260 terminates the provision of information when it is determined that the user has arrived at the "AA location" as a destination. You can decide to do it.
  • the processor 260 may determine to end providing information on the corresponding intention information when it is determined that the user's intention information has been changed to another one. In this case, the processor 260 may proceed from step S701 again to newly generate user intention information and provide the information to the user accordingly.
  • the processor 260 may determine to end providing information.
  • step S715 If, as a result of the determination in step S715, it is determined that the information provision is to be terminated, the processor 260 terminates the provision of information for the user.
  • step S715 If, as a result of the determination in step S715, it is determined that the information provision is not terminated, the processor 260 may return to step S707 of determining an information providing device and continue to provide information to the user.
  • FIG 8 to 11 are views showing an example of providing information to a user according to an embodiment of the present invention.
  • FIG. 8 shows a situation in which a first user 801 asks a first artificial intelligence device 821 for directions, and a second user 802 asks a second artificial intelligence device 822 for directions.
  • the artificial intelligence devices 821, 822, 823, 824 may be digital signage, kiosks, and the like.
  • the first user 801 may ask the first artificial intelligence device 821 for a route to the X2 cafe 842 by making a speech 811 such as “Way to X2 cafe?”.
  • the second user 802 may ask the second artificial intelligence device 822 for a route to the X1 cafe 841 by making a speech 812 such as “Where is X1 cafe?”.
  • the artificial intelligence server 200 receives voice data for the first user 801 from the first artificial intelligence device 821, and the second user ( By receiving the voice data for 802, the first intention information of the first user 801 is determined as “confirming the path to the X1 cafe 841", and the second intention information of the second user 802 is " It can be determined by "checking the route to the X2 cafe 842".
  • the artificial intelligence server 200 determines the first artificial intelligence device 821 adjacent to the first user 801 as an information providing device for the first user 801, and 2 The artificial intelligence device 822 may be determined as an information providing device for the second user 802.
  • the artificial intelligence server 200 may transmit a control signal for outputting output information corresponding to each information providing device.
  • the first artificial intelligence device 821 is output information corresponding to the first intention information of the first user 801, which means "X2 cafe ⁇ ", meaning to go forward to move to the X2 cafe 842.
  • a message including a can be output (831).
  • the second artificial intelligence device 822 is output information corresponding to the second intention information of the second user 802, and represents "X1 cafe ⁇ ", which means to go forward to move to the X1 cafe 841.
  • the included message can be output (832).
  • the output message may be output in the form of text through the display, it may be output in the form of an image, or may be output through the speaker as a voice.
  • the artificial intelligence server 200 includes a first user 801 in the third artificial intelligence device 823 and the fourth artificial intelligence device 824 that are not adjacent to the first user 801 and the second user 802. And output information for the second user 802 may not be output (833, 834).
  • FIG. 9 shows a situation in which the first user 801 and the second user 802 move forward and are adjacent to the third artificial intelligence device 823 after the situation of FIG. 8.
  • the artificial intelligence server 200 provides a first user 801 and a second user through image data or voice data generated by the first artificial intelligence device 821 and the second artificial intelligence device 822. It can be seen that 802 has moved away from the first artificial intelligence device 821 and the second artificial intelligence device 822. Similarly, the artificial intelligence server 200 connects the first user 801 and the second user 802 to the third artificial intelligence device 823 through image data or voice data generated by the third artificial intelligence device 823. You can grasp the proximity.
  • the artificial intelligence server 200 may determine the third artificial intelligence device 823 as an information providing device for the first user 801 and the second user 802.
  • the artificial intelligence server 200 may transmit a control signal for outputting output information for the first user 801 and output information for the second user 802 to the third artificial intelligence device 823.
  • the third artificial intelligence device 823 is output information corresponding to the first intention information of the first user 801 and the output information corresponding to the intention information of the second user 802, and includes "X1 cafe ⁇ " and A message including "X2 cafe ⁇ " can be output (933).
  • the artificial intelligence server 200 includes a first artificial intelligence device 821, a second artificial intelligence device 822, and a fourth artificial intelligence device that are not adjacent to the first user 801 and the second user 802. In 824, it is possible to control not to output output information for the first user 801 and the second user 802 (931, 932, 934).
  • FIG. 10 shows that after the situation of FIG. 9, the first user 801 moves forward and is adjacent to the fourth artificial intelligence device 824, and the second user 802 moves forward, but still the third artificial intelligence device. It represents a situation adjacent to (823).
  • the artificial intelligence server 200 indicates that the first user 801 has moved away from the third artificial intelligence device 823 through image data or voice data generated by the third artificial intelligence device 823. I can grasp it. Similarly, the artificial intelligence server 200 may determine that the first user 801 is adjacent to the fourth artificial intelligence device 824 through image data or voice data generated by the fourth artificial intelligence device 824.
  • the artificial intelligence server 200 maintains the third artificial intelligence device 823 as an information providing device for the second user 802, and maintains the fourth artificial intelligence device 824 for the first user 801. It can be decided as an information providing device.
  • the artificial intelligence server 200 transmits a control signal for outputting output information on the first user 801 to the fourth artificial intelligence device 824, and the second user ( A control signal for outputting output information for 802 may be transmitted.
  • the fourth artificial intelligence device 824 may output a message including “X2 cafe ⁇ ” as output information corresponding to the first intention information of the first user 801 (1034 ).
  • the third artificial intelligence device 823 may output a message including “X1 cafe ⁇ ” as output information corresponding to the intention information of the second user 802 (1033 ).
  • the artificial intelligence server 200 includes a first user 801 in the first artificial intelligence device 821 and the second artificial intelligence device 822 that are not adjacent to the first user 801 and the second user 802. It is possible to control not to output output information for the and the second user 802 (1031, 1032).
  • FIG. 11 shows that after the situation of FIG. 10, the first user 801 has moved to the right but is still adjacent to the fourth artificial intelligence device 824, and the second user 802 has moved forward, but the fourth artificial intelligence device It represents a situation adjacent to (824).
  • the artificial intelligence server 200 indicates that the second user 802 has moved away from the third artificial intelligence device 823 through image data or voice data generated by the third artificial intelligence device 823. I can grasp it. Similarly, the artificial intelligence server 200 connects the first user 801 and the second user 802 to the fourth artificial intelligence device 824 through image data or voice data generated by the fourth artificial intelligence device 824. You can grasp the proximity.
  • the artificial intelligence server 200 may determine the fourth artificial intelligence device 824 as an information providing device for the first user 801 and the second user 802.
  • the artificial intelligence server 200 may output output information for the first user 801 to the fourth artificial intelligence device 824 and transmit a control signal for outputting output information for the second user 802. have.
  • the fourth artificial intelligence device 824 is output information corresponding to the first intention information of the first user 801 and the output information corresponding to the intention information of the second user 802, and includes "X1 cafe ⁇ " A message including "X2 cafe ⁇ " can be output (1134).
  • the artificial intelligence server 200 includes a first artificial intelligence device 821, a second artificial intelligence device 822, and a third artificial intelligence device that are not adjacent to the first user 801 and the second user 802. At 823), it is possible to control not to output output information for the first user 801 and the second user 802 (1131, 1132, 1133).
  • the artificial intelligence server 200 generates intention information for each user, determines an information providing device for each user, and transmits a control signal for outputting output information to the determined information providing device. Thus, appropriate information can be provided to each user.
  • the information providing device is determined based only on the distance between the user and the artificial intelligence device, but as described above, the present invention is not limited thereto.
  • the information providing device is determined among artificial intelligence devices, but the user terminal may also be determined as the information providing device. That is, the artificial intelligence server 200 may provide information to a user using a user terminal.
  • FIGS. 12 and 13 are diagrams illustrating an example of providing information to a user according to an embodiment of the present invention.
  • the first artificial intelligence device 1221 may be a TV.
  • the second artificial intelligence device 1222 may be a vehicle.
  • the user 1201 may speak 1211 such as "Way to X3 restaurant?" and ask for a route to the X3 restaurant 1241.
  • the artificial intelligence server 200 receives voice data for the user 1201 from the first artificial intelligence device 1221, so that the intention information of the user 1201 is transmitted to the "X3 restaurant 1231". It can be determined by "checking the path of.”
  • the artificial intelligence server 200 may obtain user schedule information from a user terminal or the like and determine intention information based on the obtained user schedule information.
  • the artificial intelligence server 200 determines the first artificial intelligence device 1221 adjacent to the user 1201 as an information providing device for the user 1201, and the artificial intelligence server 200 corresponds to the information providing device.
  • a control signal that outputs output information can be transmitted.
  • the first artificial intelligence device 1221 may output a map indicating a route for moving to the X3 restaurant 1241 (1231).
  • the artificial intelligence server 200 may control not to output output information for the user 1201 to the second artificial intelligence device 1222 that is not adjacent to the user 1201 (1232).
  • FIG. 13 illustrates a situation in which the user 1201 boards the second artificial intelligence device 1222 after the situation in FIG. 12.
  • the artificial intelligence server 200 can determine that the user 1201 has moved away from the first artificial intelligence device 1221 through image data or voice data generated by the first artificial intelligence device 1221. have.
  • the artificial intelligence server 200 may determine that the user 1201 has boarded the second artificial intelligence device 1222 through image data or voice data generated by the second artificial intelligence device 1222. Alternatively, the user 1201 to the second artificial intelligence device 1222 through terminal usage information or status information (eg, starting information, door opening/closing information) for the second artificial intelligence device 1222 of the artificial intelligence server 200 It can be seen that is boarded.
  • terminal usage information or status information eg, starting information, door opening/closing information
  • the artificial intelligence server 200 determines the second artificial intelligence device 1222 as an information providing device for the user 1201, and the artificial intelligence server 200 uses the second artificial intelligence device 1222 as the user 1201 A control signal that outputs output information for) can be transmitted.
  • the second artificial intelligence device 1222 may output at least one of a map indicating a route for moving to the X3 restaurant 1241 or navigation guide information. There is (1332).
  • the artificial intelligence server 200 may control not to output output information for the user 1201 to the first artificial intelligence device 1221 that is not adjacent to the user 1201 (1331).
  • 14 to 16 are diagrams showing an example of providing information to a user according to an embodiment of the present invention.
  • the first artificial intelligence device 1421 receives a voice uttered by the user 1401 for what to cook. This includes not only a situation in which the user 1401 uttered with the intention of inputting it to the first artificial intelligence device 1421, but also a situation in which the user 1401 spoke to himself.
  • the first artificial intelligence device 1421 may be a TV.
  • the second artificial intelligence device 1422 may be a refrigerator.
  • the user 1201 may speak 1411 as "Let's have Bulgogi.”
  • the artificial intelligence server 200 determines the intention information of the user 1401 to "eat bulgogi" by receiving voice data for the user 1401 from the first artificial intelligence device 1421. I can.
  • the artificial intelligence server 200 receives the user's terminal usage information, and when the user searches for a bulgogi recipe using the user terminal, the received terminal Intent information can also be determined using usage information.
  • the artificial intelligence server 200 determines the first artificial intelligence device 1421 adjacent to the user 1401 as an information providing device for the user 1401, and the artificial intelligence server 200 corresponds to the information providing device.
  • a control signal that outputs output information can be transmitted.
  • the first artificial intelligence device 1421 may output at least one of a bulgogi recipe or information on bulgogi ingredients stored in the refrigerator (1431).
  • the output information may include information that there is no beef as an ingredient for bulgogi in the refrigerator.
  • the first artificial intelligence device 1421 may output the output information to only a part of the screen so that the user 1401 can continue to appreciate the content that has been outputted previously.
  • the first artificial intelligence device 1421 may output the sound included in the output information in a muted state so as not to interfere with the appreciation of the content that is being output.
  • the artificial intelligence server 200 may control not to output output information for the user 1401 to the second artificial intelligence device 1422 that is not adjacent to the user 1401 (1432 ).
  • FIG. 15 shows a situation in which the user 1401 moves to the second artificial intelligence device 1422 after the situation in FIG. 14.
  • the user 1401 may check the inside of the refrigerator, which is the second artificial intelligence device 1422.
  • the artificial intelligence server 200 can determine that the user 1401 has moved away from the first artificial intelligence device 1421 through image data or voice data generated by the first artificial intelligence device 1421. have.
  • the artificial intelligence server 200 may determine that the user 1401 is adjacent to the second artificial intelligence device 1422 through image data or voice data generated by the second artificial intelligence device 1422. Alternatively, the user 1401 is adjacent to the second artificial intelligence device 1422 through terminal usage information or status information (eg, door opening/closing information) for the second artificial intelligence device 1422 of the artificial intelligence server 200 Can grasp.
  • terminal usage information or status information eg, door opening/closing information
  • the artificial intelligence server 200 determines the second artificial intelligence device 1422 as an information providing device for the user 1401, and the artificial intelligence server 200 uses the second artificial intelligence device 1422 as the user 1401 A control signal that outputs output information for) can be transmitted.
  • the second artificial intelligence device 1422 may output at least one of a bulgogi recipe or information on bulgogi ingredients stored in the refrigerator (1532).
  • the output information may include information that there is no beef as an ingredient for bulgogi in the refrigerator.
  • the artificial intelligence server 200 may control not to output output information for the user 1401 to the first artificial intelligence device 1421 that is not adjacent to the user 1401 (1531).
  • FIG. 16 illustrates a situation in which the user 1401 moves to the first artificial intelligence device 1121 again after the situation in FIG. 15.
  • the user 1401 may move near the TV, which is the first artificial intelligence device 1421, to watch TV.
  • the user 1401 may speak 1611 such as "Well, what should I eat?"
  • the artificial intelligence server 200 determines the intention information of the user 1401 as "determining food" by receiving voice data for the user 1401 from the first artificial intelligence device 1421. I can. That is, the artificial intelligence server 200 may update the intention information of the user 1401.
  • the artificial intelligence server 200 receives the user's terminal usage information, and the user searches for recommended food or runs a food delivery application using the user terminal. If used, intention information may be updated using the received terminal usage information.
  • the artificial intelligence server 200 may determine that the user 1401 has moved away from the second artificial intelligence device 1422 through image data or voice data generated by the second artificial intelligence device 1422.
  • the artificial intelligence server 200 may determine that the user 1401 is adjacent to the first artificial intelligence device 1421 through image data or voice data generated by the first artificial intelligence device 1421.
  • the artificial intelligence server 200 determines the first artificial intelligence device 1421 as an information providing device for the user 1401, and outputs output information on the user 1401 to the first artificial intelligence device 1421. Control signal can be transmitted.
  • the first artificial intelligence device 1422 may output at least one of food recommendations or deliverable foods that can be made using ingredients stored in the refrigerator. Can (1631).
  • the artificial intelligence server 200 may control not to output output information for the user 1401 to the second artificial intelligence device 1422 not adjacent to the user 1401 (1632).
  • the artificial intelligence server 200 controls the first artificial intelligence device 1421 to stop outputting the output information, and You can also control to output the output information.
  • 17 is a diagram illustrating an example of providing information to a user according to an embodiment of the present invention.
  • a first artificial intelligence device 1703_1 may acquire voice data corresponding to a voice uttered by a user (S1711) and transmit the acquired voice data to the artificial intelligence server 1701 (S1713). .
  • the artificial intelligence server 1701 generates user intention information by using the received voice data (S1715).
  • each of the artificial intelligence devices 1703_1, 1703_2, ..., 1703_n may acquire image data (S1717) and transmit the acquired image data to the artificial intelligence server 1701 (S1719).
  • the artificial intelligence server 1701 generates user state information using the received image data (S1721), and determines an information providing device to the second artificial intelligence device 1703_2 based on the generated user state information ( S1723), generate output information based on the generated user intention information and the information providing device (S1725), and transmit an output signal for outputting the generated output information to the second artificial intelligence device 1703_2 as the information providing device. Yes (S1727).
  • the second artificial intelligence device 1703_2 as an information providing device may output output information based on the received output signal (S1729).
  • each of the artificial intelligence devices 1703_1, 1703_2, ..., 1703_n simply acquires image data for a user, and the artificial intelligence server 1701 is used for each of the artificial intelligence devices 1703_1, 1703_2. , ..., 1703_n), recognizes the user from the image data received from the image data, recognizes the user, and generates user state information.
  • FIG. 18 is a diagram illustrating an example of providing information to a user according to an embodiment of the present invention.
  • a first artificial intelligence device 1803_1 may acquire voice data corresponding to a voice uttered by a user (S1811) and transmit the acquired voice data to the artificial intelligence server 1801 (S1813). .
  • the artificial intelligence server 1801 generates user intention information by using the received voice data (S1815).
  • each of the artificial intelligence devices 1803_1, 1803_2, ..., 1803_n may generate user recognition information (S1817) and transmit the generated user recognition information to the artificial intelligence server 1801 (S1819).
  • each of the artificial intelligence devices 1803_1, 1803_2, ..., 1803_n may acquire image data, recognize a user from the acquired image data, and generate user recognition information.
  • the artificial intelligence server 1801 generates user state information using the user recognition information (S1821), and determines an information providing device to the second artificial intelligence device 1803_2 based on the generated user state information (S1823). ), the output information may be generated based on the generated user intention information and the information providing device (S1825), and an output signal for outputting the generated output information may be transmitted to the second artificial intelligence device 1803_2 as the information providing device. (S1827).
  • the second artificial intelligence device 1803_2 as an information providing device may output output information based on the received output signal (S1829).
  • each of the artificial intelligence devices 1803_1, 1803_2, ..., 1803_n acquires image data for a user, recognizes the user from the acquired image data, and creates user recognition information by recognizing the user. do.
  • the artificial intelligence server 1801 generates user state information by using user recognition information generated by each of the artificial intelligence devices 1803_1, 1803_2, ..., 1803_n.
  • the above-described present invention can be implemented as a computer-readable code on a medium on which a program is recorded.
  • the computer-readable medium includes all types of recording devices that store data that can be read by a computer system. Examples of computer-readable media include HDD (Hard Disk Drive), SSD (Solid State Disk), SDD (Silicon Disk Drive), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. There is this.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Business, Economics & Management (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Primary Health Care (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Navigation (AREA)

Abstract

본 발명의 실시 예는 사용자에게 정보를 제공하는 인공 지능 서버에 있어서, 서비스 구역 내에 배치된 복수의 인공 지능 장치들과 통신하는 통신부; 및 상기 복수의 인공 지능 장치들 중에서 적어도 하나 이상으로부터 상기 사용자의 음성 데이터 또는 상기 사용자의 단말기 사용 정보 중에서 적어도 하나 이상을 수신하고, 상기 수신한 음성 데이터 또는 상기 수신한 단말기 사용 정보에 기초하여 상기 사용자의 의도 정보를 생성하고, 상기 복수의 인공 지능 장치들을 이용하여 상기 사용자의 상태 정보를 생성하고, 상기 생성된 사용자의 상태 정보에 기초하여 상기 복수의 인공 지능 장치들 중에서 정보 제공 기기를 결정하고, 상기 결정된 정보 제공 기기에서 출력할 출력 정보를 생성하고, 상기 결정된 정보 제공 기기에 상기 생성된 출력 정보를 출력하는 제어 신호를 전송하는 프로세서를 포함하는, 인공 지능 서버를 제공한다.

Description

사용자에게 정보를 제공하는 인공 지능 서버 및 그 방법
본 발명은 사용자에게 정보를 제공하는 인공 지능 서버 및 그 방법에 관한 것이다. 구체적으로, 본 발명은 서비스 구역 내에 배치된 인공 지능 장치를 이용하여 사용자에게 정보를 제공하는 인공 지능 서버 및 그 방법에 관한 것이다.
최근 인공 지능을 탑재한 다양한 인공 지능 장치들의 보급이 활발하게 이루어지고 있으며, 인공 지능 장치들로 구성된 인공 지능 시스템을 통해 다양한 서비스를 제공할 수 있다.
가정 내에서는 인공 지능을 탑재한 다양한 가전 기기들, 자율 주행 차량, 인공 지능 스피커 등으로 인공 지능 시스템을 구축할 수 있고, 많은 사람이 모이는 쇼핑몰, 공항, 멀티플렉스 등에서는 인공 지능을 탑재한 로봇들, 키오스크, 디지털 사이니지 등으로 인공 지능 시스템을 구축할 수 있다.
하지만, 현재로써는 여러 인공 지능 장치가 각자 고정된 사용자와 상호작용을 할 뿐으로, 서로 유기적으로 동작하여 여러 사용자에게 효과적으로 정보를 제공하지 못한다.
본 발명은 사용자의 의도를 파악하고, 여러 인공 지능 장치들 중에서 사용자의 상태에 상응하는 정보 제공 기기를 결정하여, 정보 제공 기기에서 사용자의 의도에 적합한 정보를 제공하는 인공 지능 서버 및 그 방법을 제공하고자 한다.
본 발명의 일 실시 예는 서비스 구역에 배치된 복수의 인공 지능 장치들 중에서 적어도 하나 이상으로부터 획득한 정보에 기초하여 사용자의 의도를 결정하고, 복수의 인공 지능 장치들을 이용하여 사용자의 상태를 결정하고, 사용자의 상태에 기초하여 복수의 인공 지능 장치들 중에서 정보 제공 기기를 결정하고, 결정된 정보 제공 기기에서 출력할 출력 정보를 생성하여, 정보 제공 기기에서 출력 정보를 출력하도록 제어하는 인공 지능 서버 및 그 방법을 제공한다.
본 발명의 다양한 실시 예에 따르면, 사용자는 서비스 구역에 배치된 인공 지능 장치들로부터 자신에게 필요한 정보를 효과적으로 제공받을 수 있고, 각 인공 지능 장치들은 필요한 정보만을 출력하여 불필요한 정보 제공을 방지할 수 있다.
도 1은 본 발명의 일 실시 예에 따른 AI 장치를 나타낸다.
도 2는 본 발명의 일 실시 예에 따른 AI 서버를 나타낸다.
도 3은 본 발명의 일 실시 예에 따른 AI 시스템을 나타낸다.
도 4는 본 발명의 일 실시 예에 따른 AI 장치를 나타낸다.
도 5는 본 발명의 일 실시 예에 따른 사용자에게 정보를 제공하는 방법을 나타낸 동작 흐름도이다.
도 6은 본 발명의 일 실시 예에 따른 사용자의 의도 정보를 생성하는 예시를 나타낸 도면이다.
도 7은 본 발명의 일 실시 예에 따른 사용자에게 정보를 제공하는 방법을 나타낸 동작 흐름도이다.
도 8 내지 11은 본 발명의 일 실시 예에 따른 사용자에게 정보를 제공하는 예시를 나타낸 도면이다.
도 12 및 13은 본 발명의 일 실시 예에 따른 사용자에게 정보를 제공하는 예시를 나타낸 도면이다.
도 14 내지 16은 본 발명의 일 실시 예에 따른 사용자에게 정보를 제공하는 예시를 나타낸 도면이다.
도 17은 본 발명의 일 실시 예에 따른 사용자에게 정보를 제공하는 예시를 나타낸 도면이다.
도 18은 본 발명의 일 실시 예에 따른 사용자에게 정보를 제공하는 예시를 나타낸 도면이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 '모듈' 및 '부'는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 '연결되어' 있다거나 '접속되어' 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 '직접 연결되어' 있다거나 '직접 접속되어' 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
<인공 지능(AI: Artificial Intelligence)>
인공 지능은 인공적인 지능 또는 이를 만들 수 있는 방법론을 연구하는 분야를 의미하며, 머신 러닝(기계 학습, Machine Learning)은 인공 지능 분야에서 다루는 다양한 문제를 정의하고 그것을 해결하는 방법론을 연구하는 분야를 의미한다. 머신 러닝은 어떠한 작업에 대하여 꾸준한 경험을 통해 그 작업에 대한 성능을 높이는 알고리즘으로 정의하기도 한다.
인공 신경망(ANN: Artificial Neural Network)은 머신 러닝에서 사용되는 모델로써, 시냅스의 결합으로 네트워크를 형성한 인공 뉴런(노드)들로 구성되는, 문제 해결 능력을 가지는 모델 전반을 의미할 수 있다. 인공 신경망은 다른 레이어의 뉴런들 사이의 연결 패턴, 모델 파라미터를 갱신하는 학습 과정, 출력값을 생성하는 활성화 함수(Activation Function)에 의해 정의될 수 있다.
인공 신경망은 입력층(Input Layer), 출력층(Output Layer), 그리고 선택적으로 하나 이상의 은닉층(Hidden Layer)를 포함할 수 있다. 각 층은 하나 이상의 뉴런을 포함하고, 인공 신경망은 뉴런과 뉴런을 연결하는 시냅스를 포함할 수 있다. 인공 신경망에서 각 뉴런은 시냅스를 통해 입력되는 입력 신호들, 가중치, 편향에 대한 활성 함수의 함숫값을 출력할 수 있다.
모델 파라미터는 학습을 통해 결정되는 파라미터를 의미하며, 시냅스 연결의 가중치와 뉴런의 편향 등이 포함된다. 그리고, 하이퍼파라미터는 머신 러닝 알고리즘에서 학습 전에 설정되어야 하는 파라미터를 의미하며, 학습률(Learning Rate), 반복 횟수, 미니 배치 크기, 초기화 함수 등이 포함된다.
인공 신경망의 학습의 목적은 손실 함수를 최소화하는 모델 파라미터를 결정하는 것으로 볼 수 있다. 손실 함수는 인공 신경망의 학습 과정에서 최적의 모델 파라미터를 결정하기 위한 지표로 이용될 수 있다.
머신 러닝은 학습 방식에 따라 지도 학습(Supervised Learning), 비지도 학습(Unsupervised Learning), 강화 학습(Reinforcement Learning)으로 분류할 수 있다.
지도 학습은 학습 데이터에 대한 레이블(label)이 주어진 상태에서 인공 신경망을 학습시키는 방법을 의미하며, 레이블이란 학습 데이터가 인공 신경망에 입력되는 경우 인공 신경망이 추론해 내야 하는 정답(또는 결과 값)을 의미할 수 있다. 비지도 학습은 학습 데이터에 대한 레이블이 주어지지 않는 상태에서 인공 신경망을 학습시키는 방법을 의미할 수 있다. 강화 학습은 어떤 환경 안에서 정의된 에이전트가 각 상태에서 누적 보상을 최대화하는 행동 혹은 행동 순서를 선택하도록 학습시키는 학습 방법을 의미할 수 있다.
인공 신경망 중에서 복수의 은닉층을 포함하는 심층 신경망(DNN: Deep Neural Network)으로 구현되는 머신 러닝을 딥 러닝(심층 학습, Deep Learning)이라 부르기도 하며, 딥 러닝은 머신 러닝의 일부이다. 이하에서, 머신 러닝은 딥 러닝을 포함하는 의미로 사용된다.
<로봇(Robot)>
로봇은 스스로 보유한 능력에 의해 주어진 일을 자동으로 처리하거나 작동하는 기계를 의미할 수 있다. 특히, 환경을 인식하고 스스로 판단하여 동작을 수행하는 기능을 갖는 로봇을 지능형 로봇이라 칭할 수 있다.
로봇은 사용 목적이나 분야에 따라 산업용, 의료용, 가정용, 군사용 등으로 분류할 수 있다.
로봇은 액츄에이터 또는 모터를 포함하는 구동부를 구비하여 로봇 관절을 움직이는 등의 다양한 물리적 동작을 수행할 수 있다. 또한, 이동 가능한 로봇은 구동부에 휠, 브레이크, 프로펠러 등이 포함되어, 구동부를 통해 지상에서 주행하거나 공중에서 비행할 수 있다.
<자율 주행(Self-Driving)>
자율 주행은 스스로 주행하는 기술을 의미하며, 자율 주행 차량은 사용자의 조작 없이 또는 사용자의 최소한의 조작으로 주행하는 차량(Vehicle)을 의미한다.
예컨대, 자율 주행에는 주행중인 차선을 유지하는 기술, 어댑티브 크루즈 컨트롤과 같이 속도를 자동으로 조절하는 기술, 정해진 경로를 따라 자동으로 주행하는 기술, 목적지가 설정되면 자동으로 경로를 설정하여 주행하는 기술 등이 모두 포함될 수 있다.
차량은 내연 기관만을 구비하는 차량, 내연 기관과 전기 모터를 함께 구비하는 하이브리드 차량, 그리고 전기 모터만을 구비하는 전기 차량을 모두 포괄하며, 자동차뿐만 아니라 기차, 오토바이 등을 포함할 수 있다.
이때, 자율 주행 차량은 자율 주행 기능을 가진 로봇으로 볼 수 있다.
<확장 현실(XR: eXtended Reality)>
확장 현실은 가상 현실(VR: Virtual Reality), 증강 현실(AR: Augmented Reality), 혼합 현실(MR: Mixed Reality)을 총칭한다. VR 기술은 현실 세계의 객체나 배경 등을 CG 영상으로만 제공하고, AR 기술은 실제 사물 영상 위에 가상으로 만들어진 CG 영상을 함께 제공하며, MR 기술은 현실 세계에 가상 객체들을 섞고 결합시켜서 제공하는 컴퓨터 그래픽 기술이다.
MR 기술은 현실 객체와 가상 객체를 함께 보여준다는 점에서 AR 기술과 유사하다. 그러나, AR 기술에서는 가상 객체가 현실 객체를 보완하는 형태로 사용되는 반면, MR 기술에서는 가상 객체와 현실 객체가 동등한 성격으로 사용된다는 점에서 차이점이 있다.
XR 기술은 HMD(Head-Mount Display), HUD(Head-Up Display), 휴대폰, 태블릿 PC, 랩탑, 데스크탑, TV, 디지털 사이니지 등에 적용될 수 있고, XR 기술이 적용된 장치를 XR 장치(XR Device)라 칭할 수 있다.
도 1은 본 발명의 일 실시 예에 따른 AI 장치(100)를 나타낸다.
이하에서, 인공 지능 장치(100)는 단말기라 칭할 수 있다.
AI 장치(100)는 TV, 프로젝터, 휴대폰, 스마트폰, 데스크탑 컴퓨터, 노트북, 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 태블릿 PC, 웨어러블 장치, 셋톱박스(STB), DMB 수신기, 라디오, 세탁기, 냉장고, 데스크탑 컴퓨터, 디지털 사이니지, 로봇, 차량 등과 같은, 고정형 기기 또는 이동 가능한 기기 등으로 구현될 수 있다.
도 1을 참조하면, 인공 지능 장치(100)는 통신부(110), 입력부(120), 러닝 프로세서(130), 센싱부(140), 출력부(150), 메모리(170) 및 프로세서(180) 등을 포함할 수 있다.
통신부(110)는 유무선 통신 기술을 이용하여 다른 AI 장치(100a 내지 100e)나 AI 서버(200) 등의 외부 장치들과 데이터를 송수신할 수 있다. 예컨대, 통신부(110)는 외부 장치들과 센서 정보, 사용자 입력, 학습 모델, 제어 신호 등을 송수신할 수 있다.
이때, 통신부(110)가 이용하는 통신 기술에는 GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), LTE(Long Term Evolution), 5G, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), 블루투스(Bluetooth쪠), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), ZigBee, NFC(Near Field Communication) 등이 있다.
입력부(120)는 다양한 종류의 데이터를 획득할 수 있다.
이때, 입력부(120)는 영상 신호 입력을 위한 카메라, 오디오 신호를 수신하기 위한 마이크로폰, 사용자로부터 정보를 입력 받기 위한 사용자 입력부 등을 포함할 수 있다. 여기서, 카메라나 마이크로폰을 센서로 취급하여, 카메라나 마이크로폰으로부터 획득한 신호를 센싱 데이터 또는 센서 정보라고 할 수도 있다.
입력부(120)는 모델 학습을 위한 학습 데이터 및 학습 모델을 이용하여 출력을 획득할 때 사용될 입력 데이터 등을 획득할 수 있다. 입력부(120)는 가공되지 않은 입력 데이터를 획득할 수도 있으며, 이 경우 프로세서(180) 또는 러닝 프로세서(130)는 입력 데이터에 대하여 전처리로써 입력 특징점(input feature)을 추출할 수 있다.
러닝 프로세서(130)는 학습 데이터를 이용하여 인공 신경망으로 구성된 모델을 학습시킬 수 있다. 여기서, 학습된 인공 신경망을 학습 모델이라 칭할 수 있다. 학습 모델은 학습 데이터가 아닌 새로운 입력 데이터에 대하여 결과 값을 추론해 내는데 사용될 수 있고, 추론된 값은 어떠한 동작을 수행하기 위한 판단의 기초로 이용될 수 있다.
이때, 러닝 프로세서(130)는 AI 서버(200)의 러닝 프로세서(240)과 함께 AI 프로세싱을 수행할 수 있다.
이때, 러닝 프로세서(130)는 AI 장치(100)에 통합되거나 구현된 메모리를 포함할 수 있다. 또는, 러닝 프로세서(130)는 메모리(170), AI 장치(100)에 직접 결합된 외부 메모리 또는 외부 장치에서 유지되는 메모리를 사용하여 구현될 수도 있다.
센싱부(140)는 다양한 센서들을 이용하여 AI 장치(100) 내부 정보, AI 장치(100)의 주변 환경 정보 및 사용자 정보 중 적어도 하나를 획득할 수 있다.
이때, 센싱부(140)에 포함되는 센서에는 근접 센서, 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, RGB 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 마이크로폰, 라이다, 레이더 등이 있다.
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시킬 수 있다.
이때, 출력부(150)에는 시각 정보를 출력하는 디스플레이부, 청각 정보를 출력하는 스피커, 촉각 정보를 출력하는 햅틱 모듈 등이 포함될 수 있다.
메모리(170)는 AI 장치(100)의 다양한 기능을 지원하는 데이터를 저장할 수 있다. 예컨대, 메모리(170)는 입력부(120)에서 획득한 입력 데이터, 학습 데이터, 학습 모델, 학습 히스토리 등을 저장할 수 있다.
프로세서(180)는 데이터 분석 알고리즘 또는 머신 러닝 알고리즘을 사용하여 결정되거나 생성된 정보에 기초하여, AI 장치(100)의 적어도 하나의 실행 가능한 동작을 결정할 수 있다. 그리고, 프로세서(180)는 AI 장치(100)의 구성 요소들을 제어하여 결정된 동작을 수행할 수 있다.
이를 위해, 프로세서(180)는 러닝 프로세서(130) 또는 메모리(170)의 데이터를 요청, 검색, 수신 또는 활용할 수 있고, 상기 적어도 하나의 실행 가능한 동작 중 예측되는 동작이나, 바람직한 것으로 판단되는 동작을 실행하도록 AI 장치(100)의 구성 요소들을 제어할 수 있다.
이때, 프로세서(180)는 결정된 동작을 수행하기 위하여 외부 장치의 연계가 필요한 경우, 해당 외부 장치를 제어하기 위한 제어 신호를 생성하고, 생성한 제어 신호를 해당 외부 장치에 전송할 수 있다.
프로세서(180)는 사용자 입력에 대하여 의도 정보를 획득하고, 획득한 의도 정보에 기초하여 사용자의 요구 사항을 결정할 수 있다.
이때, 프로세서(180)는 음성 입력을 문자열로 변환하기 위한 STT(Speech To Text) 엔진 또는 자연어의 의도 정보를 획득하기 위한 자연어 처리(NLP: Natural Language Processing) 엔진 중에서 적어도 하나 이상을 이용하여, 사용자 입력에 상응하는 의도 정보를 획득할 수 있다.
이때, STT 엔진 또는 NLP 엔진 중에서 적어도 하나 이상은 적어도 일부가 머신 러닝 알고리즘에 따라 학습된 인공 신경망으로 구성될 수 있다. 그리고, STT 엔진 또는 NLP 엔진 중에서 적어도 하나 이상은 러닝 프로세서(130)에 의해 학습된 것이나, AI 서버(200)의 러닝 프로세서(240)에 의해 학습된 것이거나, 또는 이들의 분산 처리에 의해 학습된 것일 수 있다.
프로세서(180)는 AI 장치(100)의 동작 내용이나 동작에 대한 사용자의 피드백 등을 포함하는 이력 정보를 수집하여 메모리(170) 또는 러닝 프로세서(130)에 저장하거나, AI 서버(200) 등의 외부 장치에 전송할 수 있다. 수집된 이력 정보는 학습 모델을 갱신하는데 이용될 수 있다.
프로세서(180)는 메모리(170)에 저장된 응용 프로그램을 구동하기 위하여, AI 장치(100)의 구성 요소들 중 적어도 일부를 제어할 수 있다. 나아가, 프로세서(180)는 상기 응용 프로그램의 구동을 위하여, AI 장치(100)에 포함된 구성 요소들 중 둘 이상을 서로 조합하여 동작시킬 수 있다.
도 2는 본 발명의 일 실시 예에 따른 AI 서버(200)를 나타낸다.
도 2를 참조하면, AI 서버(200)는 머신 러닝 알고리즘을 이용하여 인공 신경망을 학습시키거나 학습된 인공 신경망을 이용하는 장치를 의미할 수 있다. 여기서, AI 서버(200)는 복수의 서버들로 구성되어 분산 처리를 수행할 수도 있고, 5G 네트워크로 정의될 수 있다. 이때, AI 서버(200)는 AI 장치(100)의 일부의 구성으로 포함되어, AI 프로세싱 중 적어도 일부를 함께 수행할 수도 있다.
AI 서버(200)는 통신부(210), 메모리(230), 러닝 프로세서(240) 및 프로세서(260) 등을 포함할 수 있다.
통신부(210)는 AI 장치(100) 등의 외부 장치와 데이터를 송수신할 수 있다.
메모리(230)는 모델 저장부(231)를 포함할 수 있다. 모델 저장부(231)는 러닝 프로세서(240)을 통하여 학습 중인 또는 학습된 모델(또는 인공 신경망, 231a)을 저장할 수 있다.
러닝 프로세서(240)는 학습 데이터를 이용하여 인공 신경망(231a)을 학습시킬 수 있다. 학습 모델은 인공 신경망의 AI 서버(200)에 탑재된 상태에서 이용되거나, AI 장치(100) 등의 외부 장치에 탑재되어 이용될 수도 있다.
학습 모델은 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어의 조합으로 구현될 수 있다. 학습 모델의 일부 또는 전부가 소프트웨어로 구현되는 경우 학습 모델을 구성하는 하나 이상의 명령어(instruction)는 메모리(230)에 저장될 수 있다.
프로세서(260)는 학습 모델을 이용하여 새로운 입력 데이터에 대하여 결과 값을 추론하고, 추론한 결과 값에 기초한 응답이나 제어 명령을 생성할 수 있다.
도 3은 본 발명의 일 실시 예에 따른 AI 시스템(1)을 나타낸다.
도 3을 참조하면, AI 시스템(1)은 AI 서버(200), 로봇(100a), 자율 주행 차량(100b), XR 장치(100c), 스마트폰(100d) 또는 가전(100e) 중에서 적어도 하나 이상이 클라우드 네트워크(10)와 연결된다. 여기서, AI 기술이 적용된 로봇(100a), 자율 주행 차량(100b), XR 장치(100c), 스마트폰(100d) 또는 가전(100e) 등을 AI 장치(100a 내지 100e)라 칭할 수 있다.
클라우드 네트워크(10)는 클라우드 컴퓨팅 인프라의 일부를 구성하거나 클라우드 컴퓨팅 인프라 안에 존재하는 네트워크를 의미할 수 있다. 여기서, 클라우드 네트워크(10)는 3G 네트워크, 4G 또는 LTE(Long Term Evolution) 네트워크 또는 5G 네트워크 등을 이용하여 구성될 수 있다.
즉, AI 시스템(1)을 구성하는 각 장치들(100a 내지 100e, 200)은 클라우드 네트워크(10)를 통해 서로 연결될 수 있다. 특히, 각 장치들(100a 내지 100e, 200)은 기지국을 통해서 서로 통신할 수도 있지만, 기지국을 통하지 않고 직접 서로 통신할 수도 있다.
AI 서버(200)는 AI 프로세싱을 수행하는 서버와 빅 데이터에 대한 연산을 수행하는 서버를 포함할 수 있다.
AI 서버(200)는 AI 시스템(1)을 구성하는 AI 장치들인 로봇(100a), 자율 주행 차량(100b), XR 장치(100c), 스마트폰(100d) 또는 가전(100e) 중에서 적어도 하나 이상과 클라우드 네트워크(10)을 통하여 연결되고, 연결된 AI 장치들(100a 내지 100e)의 AI 프로세싱을 적어도 일부를 도울 수 있다.
이때, AI 서버(200)는 AI 장치(100a 내지 100e)를 대신하여 머신 러닝 알고리즘에 따라 인공 신경망을 학습시킬 수 있고, 학습 모델을 직접 저장하거나 AI 장치(100a 내지 100e)에 전송할 수 있다.
이때, AI 서버(200)는 AI 장치(100a 내지 100e)로부터 입력 데이터를 수신하고, 학습 모델을 이용하여 수신한 입력 데이터에 대하여 결과 값을 추론하고, 추론한 결과 값에 기초한 응답이나 제어 명령을 생성하여 AI 장치(100a 내지 100e)로 전송할 수 있다.
또는, AI 장치(100a 내지 100e)는 직접 학습 모델을 이용하여 입력 데이터에 대하여 결과 값을 추론하고, 추론한 결과 값에 기초한 응답이나 제어 명령을 생성할 수도 있다.
이하에서는, 상술한 기술이 적용되는 AI 장치(100a 내지 100e)의 다양한 실시 예들을 설명한다. 여기서, 도 3에 도시된 AI 장치(100a 내지 100e)는 도 1에 도시된 AI 장치(100)의 구체적인 실시 예로 볼 수 있다.
<AI+로봇>
로봇(100a)은 AI 기술이 적용되어, 안내 로봇, 운반 로봇, 청소 로봇, 웨어러블 로봇, 엔터테인먼트 로봇, 펫 로봇, 무인 비행 로봇 등으로 구현될 수 있다.
로봇(100a)은 동작을 제어하기 위한 로봇 제어 모듈을 포함할 수 있고, 로봇 제어 모듈은 소프트웨어 모듈 또는 이를 하드웨어로 구현한 칩을 의미할 수 있다.
로봇(100a)은 다양한 종류의 센서들로부터 획득한 센서 정보를 이용하여 로봇(100a)의 상태 정보를 획득하거나, 주변 환경 및 객체를 검출(인식)하거나, 맵 데이터를 생성하거나, 이동 경로 및 주행 계획을 결정하거나, 사용자 상호작용에 대한 응답을 결정하거나, 동작을 결정할 수 있다.
여기서, 로봇(100a)은 이동 경로 및 주행 계획을 결정하기 위하여, 라이다, 레이더, 카메라 중에서 적어도 하나 이상의 센서에서 획득한 센서 정보를 이용할 수 있다.
로봇(100a)은 적어도 하나 이상의 인공 신경망으로 구성된 학습 모델을 이용하여 상기한 동작들을 수행할 수 있다. 예컨대, 로봇(100a)은 학습 모델을 이용하여 주변 환경 및 객체를 인식할 수 있고, 인식된 주변 환경 정보 또는 객체 정보를 이용하여 동작을 결정할 수 있다. 여기서, 학습 모델은 로봇(100a)에서 직접 학습되거나, AI 서버(200) 등의 외부 장치에서 학습된 것일 수 있다.
이때, 로봇(100a)은 직접 학습 모델을 이용하여 결과를 생성하여 동작을 수행할 수도 있지만, AI 서버(200) 등의 외부 장치에 센서 정보를 전송하고 그에 따라 생성된 결과를 수신하여 동작을 수행할 수도 있다.
로봇(100a)은 맵 데이터, 센서 정보로부터 검출한 객체 정보 또는 외부 장치로부터 획득한 객체 정보 중에서 적어도 하나 이상을 이용하여 이동 경로와 주행 계획을 결정하고, 구동부를 제어하여 결정된 이동 경로와 주행 계획에 따라 로봇(100a)을 주행시킬 수 있다.
맵 데이터에는 로봇(100a)이 이동하는 공간에 배치된 다양한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 예컨대, 맵 데이터에는 벽, 문 등의 고정 객체들과 화분, 책상 등의 이동 가능한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 그리고, 객체 식별 정보에는 명칭, 종류, 거리, 위치 등이 포함될 수 있다.
또한, 로봇(100a)은 사용자의 제어/상호작용에 기초하여 구동부를 제어함으로써, 동작을 수행하거나 주행할 수 있다. 이때, 로봇(100a)은 사용자의 동작이나 음성 발화에 따른 상호작용의 의도 정보를 획득하고, 획득한 의도 정보에 기초하여 응답을 결정하여 동작을 수행할 수 있다.
<AI+자율주행>
자율 주행 차량(100b)은 AI 기술이 적용되어, 이동형 로봇, 차량, 무인 비행체 등으로 구현될 수 있다.
자율 주행 차량(100b)은 자율 주행 기능을 제어하기 위한 자율 주행 제어 모듈을 포함할 수 있고, 자율 주행 제어 모듈은 소프트웨어 모듈 또는 이를 하드웨어로 구현한 칩을 의미할 수 있다. 자율 주행 제어 모듈은 자율 주행 차량(100b)의 구성으로써 내부에 포함될 수도 있지만, 자율 주행 차량(100b)의 외부에 별도의 하드웨어로 구성되어 연결될 수도 있다.
자율 주행 차량(100b)은 다양한 종류의 센서들로부터 획득한 센서 정보를 이용하여 자율 주행 차량(100b)의 상태 정보를 획득하거나, 주변 환경 및 객체를 검출(인식)하거나, 맵 데이터를 생성하거나, 이동 경로 및 주행 계획을 결정하거나, 동작을 결정할 수 있다.
여기서, 자율 주행 차량(100b)은 이동 경로 및 주행 계획을 결정하기 위하여, 로봇(100a)과 마찬가지로, 라이다, 레이더, 카메라 중에서 적어도 하나 이상의 센서에서 획득한 센서 정보를 이용할 수 있다.
특히, 자율 주행 차량(100b)은 시야가 가려지는 영역이나 일정 거리 이상의 영역에 대한 환경이나 객체는 외부 장치들로부터 센서 정보를 수신하여 인식하거나, 외부 장치들로부터 직접 인식된 정보를 수신할 수 있다.
자율 주행 차량(100b)은 적어도 하나 이상의 인공 신경망으로 구성된 학습 모델을 이용하여 상기한 동작들을 수행할 수 있다. 예컨대, 자율 주행 차량(100b)은 학습 모델을 이용하여 주변 환경 및 객체를 인식할 수 있고, 인식된 주변 환경 정보 또는 객체 정보를 이용하여 주행 동선을 결정할 수 있다. 여기서, 학습 모델은 자율 주행 차량(100b)에서 직접 학습되거나, AI 서버(200) 등의 외부 장치에서 학습된 것일 수 있다.
이때, 자율 주행 차량(100b)은 직접 학습 모델을 이용하여 결과를 생성하여 동작을 수행할 수도 있지만, AI 서버(200) 등의 외부 장치에 센서 정보를 전송하고 그에 따라 생성된 결과를 수신하여 동작을 수행할 수도 있다.
자율 주행 차량(100b)은 맵 데이터, 센서 정보로부터 검출한 객체 정보 또는 외부 장치로부터 획득한 객체 정보 중에서 적어도 하나 이상을 이용하여 이동 경로와 주행 계획을 결정하고, 구동부를 제어하여 결정된 이동 경로와 주행 계획에 따라 자율 주행 차량(100b)을 주행시킬 수 있다.
맵 데이터에는 자율 주행 차량(100b)이 주행하는 공간(예컨대, 도로)에 배치된 다양한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 예컨대, 맵 데이터에는 가로등, 바위, 건물 등의 고정 객체들과 차량, 보행자 등의 이동 가능한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 그리고, 객체 식별 정보에는 명칭, 종류, 거리, 위치 등이 포함될 수 있다.
또한, 자율 주행 차량(100b)은 사용자의 제어/상호작용에 기초하여 구동부를 제어함으로써, 동작을 수행하거나 주행할 수 있다. 이때, 자율 주행 차량(100b)은 사용자의 동작이나 음성 발화에 따른 상호작용의 의도 정보를 획득하고, 획득한 의도 정보에 기초하여 응답을 결정하여 동작을 수행할 수 있다.
<AI+XR>
XR 장치(100c)는 AI 기술이 적용되어, HMD(Head-Mount Display), 차량에 구비된 HUD(Head-Up Display), 텔레비전, 휴대폰, 스마트 폰, 컴퓨터, 웨어러블 디바이스, 가전 기기, 디지털 사이니지, 차량, 고정형 로봇이나 이동형 로봇 등으로 구현될 수 있다.
XR 장치(100c)는 다양한 센서들을 통해 또는 외부 장치로부터 획득한 3차원 포인트 클라우드 데이터 또는 이미지 데이터를 분석하여 3차원 포인트들에 대한 위치 데이터 및 속성 데이터를 생성함으로써 주변 공간 또는 현실 객체에 대한 정보를 획득하고, 출력할 XR 객체를 렌더링하여 출력할 수 있다. 예컨대, XR 장치(100c)는 인식된 물체에 대한 추가 정보를 포함하는 XR 객체를 해당 인식된 물체에 대응시켜 출력할 수 있다.
XR 장치(100c)는 적어도 하나 이상의 인공 신경망으로 구성된 학습 모델을 이용하여 상기한 동작들을 수행할 수 있다. 예컨대, XR 장치(100c)는 학습 모델을 이용하여 3차원 포인트 클라우드 데이터 또는 이미지 데이터에서 현실 객체를 인식할 수 있고, 인식한 현실 객체에 상응하는 정보를 제공할 수 있다. 여기서, 학습 모델은 XR 장치(100c)에서 직접 학습되거나, AI 서버(200) 등의 외부 장치에서 학습된 것일 수 있다.
이때, XR 장치(100c)는 직접 학습 모델을 이용하여 결과를 생성하여 동작을 수행할 수도 있지만, AI 서버(200) 등의 외부 장치에 센서 정보를 전송하고 그에 따라 생성된 결과를 수신하여 동작을 수행할 수도 있다.
<AI+로봇+자율주행>
로봇(100a)은 AI 기술 및 자율 주행 기술이 적용되어, 안내 로봇, 운반 로봇, 청소 로봇, 웨어러블 로봇, 엔터테인먼트 로봇, 펫 로봇, 무인 비행 로봇 등으로 구현될 수 있다.
AI 기술과 자율 주행 기술이 적용된 로봇(100a)은 자율 주행 기능을 가진 로봇 자체나, 자율 주행 차량(100b)과 상호작용하는 로봇(100a) 등을 의미할 수 있다.
자율 주행 기능을 가진 로봇(100a)은 사용자의 제어 없이도 주어진 동선에 따라 스스로 움직이거나, 동선을 스스로 결정하여 움직이는 장치들을 통칭할 수 있다.
자율 주행 기능을 가진 로봇(100a) 및 자율 주행 차량(100b)은 이동 경로 또는 주행 계획 중 하나 이상을 결정하기 위해 공통적인 센싱 방법을 사용할 수 있다. 예컨대, 자율 주행 기능을 가진 로봇(100a) 및 자율 주행 차량(100b)은 라이다, 레이더, 카메라를 통해 센싱된 정보를 이용하여, 이동 경로 또는 주행 계획 중 하나 이상을 결정할 수 있다.
자율 주행 차량(100b)과 상호작용하는 로봇(100a)은 자율 주행 차량(100b)과 별개로 존재하면서, 자율 주행 차량(100b)의 내부에서 자율 주행 기능에 연계되거나, 자율 주행 차량(100b)에 탑승한 사용자와 연계된 동작을 수행할 수 있다.
이때, 자율 주행 차량(100b)과 상호작용하는 로봇(100a)은 자율 주행 차량(100b)을 대신하여 센서 정보를 획득하여 자율 주행 차량(100b)에 제공하거나, 센서 정보를 획득하고 주변 환경 정보 또는 객체 정보를 생성하여 자율 주행 차량(100b)에 제공함으로써, 자율 주행 차량(100b)의 자율 주행 기능을 제어하거나 보조할 수 있다.
또는, 자율 주행 차량(100b)과 상호작용하는 로봇(100a)은 자율 주행 차량(100b)에 탑승한 사용자를 모니터링하거나 사용자와의 상호작용을 통해 자율 주행 차량(100b)의 기능을 제어할 수 있다. 예컨대, 로봇(100a)은 운전자가 졸음 상태인 경우로 판단되는 경우, 자율 주행 차량(100b)의 자율 주행 기능을 활성화하거나 자율 주행 차량(100b)의 구동부의 제어를 보조할 수 있다. 여기서, 로봇(100a)이 제어하는 자율 주행 차량(100b)의 기능에는 단순히 자율 주행 기능뿐만 아니라, 자율 주행 차량(100b)의 내부에 구비된 네비게이션 시스템이나 오디오 시스템에서 제공하는 기능도 포함될 수 있다.
또는, 자율 주행 차량(100b)과 상호작용하는 로봇(100a)은 자율 주행 차량(100b)의 외부에서 자율 주행 차량(100b)에 정보를 제공하거나 기능을 보조할 수 있다. 예컨대, 로봇(100a)은 스마트 신호등과 같이 자율 주행 차량(100b)에 신호 정보 등을 포함하는 교통 정보를 제공할 수도 있고, 전기 차량의 자동 전기 충전기와 같이 자율 주행 차량(100b)과 상호작용하여 충전구에 전기 충전기를 자동으로 연결할 수도 있다.
<AI+로봇+XR>
로봇(100a)은 AI 기술 및 XR 기술이 적용되어, 안내 로봇, 운반 로봇, 청소 로봇, 웨어러블 로봇, 엔터테인먼트 로봇, 펫 로봇, 무인 비행 로봇, 드론 등으로 구현될 수 있다.
XR 기술이 적용된 로봇(100a)은 XR 영상 내에서의 제어/상호작용의 대상이 되는 로봇을 의미할 수 있다. 이 경우, 로봇(100a)은 XR 장치(100c)와 구분되며 서로 연동될 수 있다.
XR 영상 내에서의 제어/상호작용의 대상이 되는 로봇(100a)은 카메라를 포함하는 센서들로부터 센서 정보를 획득하면, 로봇(100a) 또는 XR 장치(100c)는 센서 정보에 기초한 XR 영상을 생성하고, XR 장치(100c)는 생성된 XR 영상을 출력할 수 있다. 그리고, 이러한 로봇(100a)은 XR 장치(100c)를 통해 입력되는 제어 신호 또는 사용자의 상호작용에 기초하여 동작할 수 있다.
예컨대, 사용자는 XR 장치(100c) 등의 외부 장치를 통해 원격으로 연동된 로봇(100a)의 시점에 상응하는 XR 영상을 확인할 수 있고, 상호작용을 통하여 로봇(100a)의 자율 주행 경로를 조정하거나, 동작 또는 주행을 제어하거나, 주변 객체의 정보를 확인할 수 있다.
<AI+자율주행+XR>
자율 주행 차량(100b)은 AI 기술 및 XR 기술이 적용되어, 이동형 로봇, 차량, 무인 비행체 등으로 구현될 수 있다.
XR 기술이 적용된 자율 주행 차량(100b)은 XR 영상을 제공하는 수단을 구비한 자율 주행 차량이나, XR 영상 내에서의 제어/상호작용의 대상이 되는 자율 주행 차량 등을 의미할 수 있다. 특히, XR 영상 내에서의 제어/상호작용의 대상이 되는 자율 주행 차량(100b)은 XR 장치(100c)와 구분되며 서로 연동될 수 있다.
XR 영상을 제공하는 수단을 구비한 자율 주행 차량(100b)은 카메라를 포함하는 센서들로부터 센서 정보를 획득하고, 획득한 센서 정보에 기초하여 생성된 XR 영상을 출력할 수 있다. 예컨대, 자율 주행 차량(100b)은 HUD를 구비하여 XR 영상을 출력함으로써, 탑승자에게 현실 객체 또는 화면 속의 객체에 대응되는 XR 객체를 제공할 수 있다.
이때, XR 객체가 HUD에 출력되는 경우에는 XR 객체의 적어도 일부가 탑승자의 시선이 향하는 실제 객체에 오버랩되도록 출력될 수 있다. 반면, XR 객체가 자율 주행 차량(100b)의 내부에 구비되는 디스플레이에 출력되는 경우에는 XR 객체의 적어도 일부가 화면 속의 객체에 오버랩되도록 출력될 수 있다. 예컨대, 자율 주행 차량(100b)은 차로, 타 차량, 신호등, 교통 표지판, 이륜차, 보행자, 건물 등과 같은 객체와 대응되는 XR 객체들을 출력할 수 있다.
XR 영상 내에서의 제어/상호작용의 대상이 되는 자율 주행 차량(100b)은 카메라를 포함하는 센서들로부터 센서 정보를 획득하면, 자율 주행 차량(100b) 또는 XR 장치(100c)는 센서 정보에 기초한 XR 영상을 생성하고, XR 장치(100c)는 생성된 XR 영상을 출력할 수 있다. 그리고, 이러한 자율 주행 차량(100b)은 XR 장치(100c) 등의 외부 장치를 통해 입력되는 제어 신호 또는 사용자의 상호작용에 기초하여 동작할 수 있다.
도 4는 본 발명의 일 실시 예에 따른 AI 장치(100)를 나타낸다.
도 1과 중복되는 설명은 생략한다.
도 4를 참조하면, 입력부(120)는 영상 신호 입력을 위한 카메라(Camera, 121), 오디오 신호를 수신하기 위한 마이크로폰(Microphone, 122), 사용자로부터 정보를 입력 받기 위한 사용자 입력부(User Input Unit, 123)를 포함할 수 있다.
입력부(120)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어 명령으로 처리될 수 있다.
입력부(120)는 영상 정보(또는 신호), 오디오 정보(또는 신호), 데이터, 또는 사용자로부터 입력되는 정보의 입력을 위한 것으로서, 영상 정보의 입력을 위하여, AI 장치(100)는 하나 또는 복수의 카메라(121)들을 구비할 수 있다.
카메라(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(Display Unit, 151)에 표시되거나 메모리(170)에 저장될 수 있다.
마이크로폰(122)은 외부의 음향 신호를 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 AI 장치(100)에서 수행 중인 기능(또는 실행 중인 응용 프로그램)에 따라 다양하게 활용될 수 있다. 한편, 마이크로폰(122)에는 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 적용될 수 있다.
사용자 입력부(123)는 사용자로부터 정보를 입력 받기 위한 것으로서, 사용자 입력부(123)를 통해 정보가 입력되면, 프로세서(180)는 입력된 정보에 대응되도록 AI 장치(100)의 동작을 제어할 수 있다.
사용자 입력부(123)는 기계식 (mechanical) 입력수단(또는, 메커니컬 키, 예컨대, AI 장치(100)의 전/후면 또는 측면에 위치하는 버튼, 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등) 및 터치식 입력수단을 포함할 수 있다. 일 예로서, 터치식 입력수단은, 소프트웨어적인 처리를 통해 터치스크린에 표시되는 가상 키(virtual key), 소프트 키(soft key) 또는 비주얼 키(visual key)로 이루어지거나, 상기 터치스크린 이외의 부분에 배치되는 터치 키(touch key)로 이루어질 수 있다.
센싱부(140)는 센서부라고 칭할 수 있다.
출력부(150)는 디스플레이부(Display Unit, 151), 음향 출력부(Sound Output Unit, 152), 햅틱 모듈(Haptic Module, 153), 광 출력부(Optical Output Unit, 154) 중 적어도 하나를 포함할 수 있다.
디스플레이부(151)는 AI 장치(100)에서 처리되는 정보를 표시(출력)한다. 예컨대, 디스플레이부(151)는 AI 장치(100)에서 구동되는 응용 프로그램의 실행화면 정보, 또는 이러한 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보를 표시할 수 있다.
디스플레이부(151)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, AI 장치(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(123)로써 기능함과 동시에, 단말기(100)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.
음향 출력부(152)는 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 통신부(110)로부터 수신되거나 메모리(170)에 저장된 오디오 데이터를 출력할 수 있다.
음향 출력부(152)는 리시버(receiver), 스피커(speaker), 버저(buzzer) 중 적어도 하나 이상을 포함할 수 있다.
햅틱 모듈(haptic module)(153)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(153)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 될 수 있다.
광출력부(154)는 AI 장치(100)의 광원의 빛을 이용하여 이벤트 발생을 알리기 위한 신호를 출력한다. AI 장치(100)에서 발생 되는 이벤트의 예로는 메시지 수신, 호 신호 수신, 부재중 전화, 알람, 일정 알림, 이메일 수신, 애플리케이션을 통한 정보 수신 등이 될 수 있다.
도 5는 본 발명의 일 실시 예에 따른 사용자에게 정보를 제공하는 방법을 나타낸 동작 흐름도이다.
인공 지능 서버(200)는 적어도 하나 이상의 외부 기기와 통신하며, 외부 기기에는 휴대 단말기, 사물인터넷 기기, 키오스크, 디지털 사이니지 등이 포함될 수 있다.
이하에서, 외부 기기는 인공 지능 장치(100)를 포함하는 다양한 기기들을 지칭할 수 있으며, 인공 지능 서버(200)를 통해 인공 지능 기능을 갖는다는 점에서 인공 지능 장치(100)라 칭할 수도 있다.
또한, 별도로 구분하지 않으면, 인공 지능 장치(100)는 사용자 단말기를 포함하여 지칭한다.
도 5를 참조하면, 인공 지능 서버(200)의 프로세서(260)는 사용자의 음성 데이터 또는 사용자의 단말기 사용 정보 중에서 적어도 하나 이상을 수신한다(S501).
이때, 프로세서(260)는 통신부(210)를 통해 사용자 단말기, 서비스 구역에 배치된 인공 지능 장치(100) 또는 서비스 구역에 배치된 마이크로폰 중에서 적어도 하나로부터 사용자 발화 음성에 상응하는 사용자의 음성 데이터를 수신할 수 있다.
서비스 구역은 인공 지능 서버(200)가 적어도 하나 이상의 인공 지능 장치(100)를 이용하여 사용자에게 정보를 제공할 수 있는 구역을 의미하며, 적어도 하나 이상의 인공 지능 장치(100)가 설치된 구역을 의미할 수 있다.
이때, 프로세서(260)는 통신부(210)를 통해 사용자 단말기 또는 사용자가 사용중인 인공 지능 장치(100)로부터 사용자의 단말기 사용 정보를 수신할 수 있다.
단말기 사용 정보는 사용자의 사용자 단말기 또는 인공 지능 장치(100)에 대한 사용 기록과 사용자 식별 정보를 포함할 수 있다.
사용자 식별 정보는 여러 사용자들 중에서 특정 사용자를 식별하기 위한 정보로, 단말기에 저장된 사용자 단말 정보, 사용자 계정 정보, 사용자 인증 정보 또는 사용자 인식 정보 등을 포함할 수 있다.
사용자 인식 정보는 사용자 성문 인식 정보, 사용자 안면 인식 정보, 사용자 홍채 인식 정보 또는 사용자 지문 인식 정보 등을 포함할 수 있다. 구체적으로, 사용자 인식 정보는 성문 인식, 안면 인식, 홍채 인식 또는 지문 인식에 이용되는 특징점들(features)을 포함할 수 있다.
이때, 인공 지능 서버(200)의 메모리(260)는 각 사용자들을 구분할 수 있는 사용자 인식 정보, 사용자 식별 정보, 사용자 단말 정보, 사용자 계정 정보 중에서 적어도 하나 이상을 저장하고 있을 수 있다.
이때, 통신부(210)는, 5G 통신 기술을 이용하여 기지국을 통하거나 직접, 사용자 단말기, 인공 지능 장치(100) 또는 인공 지능 장치(100)와 데이터를 송수신할 수 있다.
그리고, 인공 지능 서버(200)의 프로세서(260)는 사용자의 음성 데이터 또는 사용자의 단말기 사용 정보 중에서 적어도 하나 이상에 기초하여 사용자의 의도 정보를 생성한다(S503).
사용자의 음성 데이터에는 사용자가 명시적으로 발화한 질의, 요청 또는 명령 등이 포함될 수도 있고, 사용자가 질의나 요청 등을 명시하지 않은 대화가 포함될 수도 있다.
예컨대, 사용자의 음성 데이터에는 "XX 카페까지 가는 길 알려줘."와 같이 명시적인 명령 또는 요청이 포함될 수도 있고, "XX 카페에 가야지."와 같이 질의나 요청 등이 명시되지 않은 대화가 포함될 수도 있다.
프로세서(260)는 음성 데이터에 사용자가 명시적으로 발화한 질의, 요청 또는 명령 등이 포함된 경우라면, 음성 데이터에 포함된 질의, 요청 또는 명령에 기초하여 사용자의 의도 정보를 생성할 수 있다.
즉, 상기 예시와 같이, 사용자의 음성 데이터에 "XX 카페까지 가는 길 알려줘."가 포함된 경우라면, 프로세서(260)는 음성 데이터를 기초로 사용자의 의도 정보를 "XX 카페까지 이동" 또는 "XX 카페까지의 경로 확인"과 같이 생성할 수 있다.
이때, 프로세서(260)는 자연어 처리(NLP: Natural Language Processing) 기법 또는 자연어 처리 엔진을 이용하여 음성 데이터에 포함된 명시적인 질의, 요청 또는 명령의 의도를 파악하여 의도 정보를 생성할 수 있다.
프로세서(260)는 음성 데이터에 명시적인 질의, 요청 또는 명령이 포함되지 않고 대화가 포함되어 있는 경우라면, 음성 데이터에 포함된 대화 내용을 분석하여 사용자의 의도 정보를 생성할 수 있다.
즉, 상기 예시와 같이, 사용자의 음성 데이터에 "XX 카페에 가야지."가 포함된 경우라면, 프로세서(260)는 음성 데이터를 기초로 사용자의 의도 정보를 "XX 카페까지 이동" 또는 "XX 카페까지의 경로 확인"과 같이 생성할 수 있다.
이때, 프로세서(260)는 음성 데이터에 포함된 대화에서 키워드를 추출하고, 추출한 키워드에 기초하여 음성 데이터에 포함된 대화와 연관성이 높은 의도 정보를 생성할 수 있다.
예컨대, 사용자의 음성 데이터에 "XX 카페에 가야지."가 포함된 경우라면, 프로세서(260)는 대화에서 "XX 카페"와 "가다(go)"의 키워드를 추출하고, 추출된 키워드와 연관성이 높은"XX 카페까지 이동" 또는 "XX 카페까지의 경로 확인"과 같은 의도 정보를 생성할 수 있다.
프로세서(260)는 제1 의도 정보 생성 모델을 이용하여 수신한 음성 데이터로부터 의도 정보를 생성할 수 있다.
제1 의도 정보 생성 모델은 인공 신경망을 포함하며, 머신 러닝 알고리즘 또는 딥 러닝 알고리즘을 이용하여 학습될 수 있다.
이때, 제1 의도 정보 생성 모델은 지도 학습에 의해 학습될 수 있다.
사용자의 단말기 사용 정보에는 사용자가 사용자 단말기 또는 인공 지능 장치(100)에 대한 사용 기록, 검색 기록, 검색 결과, 검색 결과 열람 기록 중에서 적어도 하나 이상이 포함될 수 있다.
예컨대, 사용자가 지도 어플리케이션 또는 인터넷 브라우저를 실행하여 "XX 카페"를 검색하였고, 검색 결과 중에서 "YY 지역"에 위치한 "XX 카페"에 대한 검색 결과를 열람한 경우라고 한다면, 단말기 사용 정보에는 지도 어플리케이션 또는 인터넷 브라우저를 사용하였다는 정보, "XX 카페"를 검색하였다는 정보, "YY 지역"에 위치한 "XX 카페"에 대한 검색 결과를 열람하였다는 정보 등이 포함될 수 있다.
프로세서(260)는 제2 의도 정보 생성 모델을 이용하여 수신한 단말기 사용 정보로부터 의도 정보를 생성할 수 있다.
제2 의도 정보 생성 모델은 인공 신경망을 포함하며, 머신 러닝 알고리즘 또는 딥 러닝 알고리즘을 이용하여 학습될 수 있다.
이때, 제2 의도 정보 생성 모델은 지도 학습에 의해 학습될 수 있다.
즉, 상기 예시와 같이, 단말기 사용 정보에는 지도 어플리케이션 또는 인터넷 브라우저를 사용하였다는 정보, "XX 카페"를 검색하였다는 정보, "YY 지역"에 위치한 "XX 카페"에 대한 검색 결과를 열람하였다는 정보가 포함된 경우, 프로세서(260)는 제2 의도 정보 생성 모델을 이용하여 단말기 사용 정보로부터 "YY 지역에 있는 XX 카페까지 이동" 또는 "YY 지역에 있는 XX 카페까지의 경로 확인"과 같은 의도 정보를 생성할 수 있다.
그리고, 인공 지능 서버(200)의 프로세서(260)는 사용자의 상태 정보를 생성한다(S505).
사용자의 상태 정보는 사용자의 위치, 사용자의 동선, 사용자의 이동 방향, 사용자의 시선 방향 또는 사용자의 동작 중에서 적어도 하나 이상을 포함할 수 있다.
프로세서(260)는 사용자에 대한 음성 데이터, 이미지 데이터 또는 사용자의 단말기 상태 정보 중에서 적어도 하나 이상에 기초하여 사용자의 상태 정보를 생성할 수 있다.
사용자에 대한 이미지 데이터는 사용자를 포함하는 이미지 데이터로, 사용자 단말기, 서비스 구역에 배치된 인공 지능 장치(100) 또는 서비스 구역에 배치된 카메라 중에서 적어도 하나 이상으로부터 생성될 수 있다.
사용자 단말기 상태 정보는 사용자 단말기의 위치 정보, 사용자 단말기의 동작 상태 정보 또는 사용자 단말기의 입력 상태 정보 중에서 적어도 하나 이상을 포함할 수 있다.
프로세서(260)는 사용자 인식 모델을 이용하여 이미지 데이터에 포함된 사용자를 인식할 수 있다.
사용자 인식 모델은 복수의 사용자들을 서로 구분하여 식별하는 모델로, 안면 인식이나 걸음걸이 인식 등의 다양한 방법을 이용하여 사용자를 인식할 수 있다.
이때, 사용자 인식 모델은 인공 신경망을 포함하여 구성될 수 있고, 머신 러닝 알고리즘 또는 딥 러닝 알고리즘을 이용하여 지도 학습될 수 있다.
이때, 프로세서(260)는 통신부(210)를 통해 단말기 사용 정보를 수신할 수 있고, 수신한 단말기 사용 정보에 포함된 사용자 식별 정보를 메모리(230)에 저장할 수 있다. 그리고, 사용자 식별 정보는 사용자 인식 모델의 학습에 이용될 수 있다.
이때, 프로세서(260) 또는 러닝 프로세서(240)는 특정 사용자가 포함된 이미지 데이터와 그 사용자에 대한 사용자 식별 정보를 이용하여 사용자 인식 모델을 학습시킬 수 있다.
프로세서(260)는 통신부(210)를 통해 사용자 단말기, 서비스 구역에 배치된 인공 지능 장치(100) 또는 서비스 구역에 배치된 카메라 중에서 적어도 하나 이상으로부터 사용자에 대한 이미지 데이터를 수신하고, 수신한 이미지 데이터에서 사용자를 인식하여 사용자의 위치, 사용자의 동선, 사용자의 이동 방향, 사용자의 시선 방향 또는 사용자의 동작 중에서 적어도 하나 이상을 포함하는 사용자의 상태 정보를 생성할 수 있다.
예컨대, 프로세서(260)는 사용자에 대한 이미지 데이터로부터 사용자의 얼굴을 인식하고, 사용자의 안면 또는 안구의 방향을 판단하여 사용자의 시선 방향을 결정할 수 있다.
또한, 프로세서(260)는 사용자의 상태 정보를 보다 정확하게 생성하기 위하여 복수의 이미지 데이터를 이용할 수 있다. 예컨대, 프로세서(260)는 여러 기기에서 생성된 이미지 데이터를 이용하여 사용자의 상태 정보를 생성할 수도 있고, 단일한 기기에서 생성된 복수의 이미지 데이터를 이용하여 사용자의 상태 정보를 생성할 수도 있다.
예컨대, 프로세서(260)는 사용자에 대한 복수의 이미지 데이터로부터 사용자의 위치를 결정하고, 사용자의 위치의 변화에 기초하여 사용자의 동선이나 사용자의 이동 방향을 결정할 수 있다. 또한, 프로세서(260)는 사용자에 대한 복수의 이미지 데이터로부터 사용자의 자세를 결정하고, 사용자의 자세의 변화에 기초하여 사용자의 동작을 결정할 수 있다.
프로세서(260)는 메모리(230)에 저장된 서비스 구역 내에 배치된 인공 지능 장치들(100) 각각에 대한 위치 정보와, 복수의 인공 지능 장치들(100)로부터 수신한 사용자에 대한 이미지 데이터를 이용하여 사용자의 위치를 결정할 수 있다.
예컨대, 사용자에 대한 이미지 데이터가 깊이(depth) 정보를 포함하는 경우, 프로세서(260)는 이미지 데이터에서 사용자를 인식하고, 인식된 사용자와 이미지 데이터를 생성한 인공 지능 장치(100)까지의 거리를 산출하고, 산출된 거리를 이용하여 사용자의 위치를 결정할 수 있다.
일 실시 예에서, 프로세서(260)는 인공 지능 장치(100)로부터 사용자 인식 결과 또는 사용자 식별 결과를 수신하고, 수신한 결과에 기초하여 사용자의 상태 정보를 생성할 수도 있다.
즉, 각 인공 지능 장치(100)가 직접 사용자 인식 모델을 이용하여 사용자를 인식하고, 프로세서(260)는 인공 지능 장치(100)로부터 음성 데이터나 이미지 데이터 대신 사용자 인식 결과를 수신하고, 수신한 인식 결과에 기초하여 사용자의 상태 정보를 생성할 수 있다.
이 경우, 프로세서(260)는, 통신부(210)를 통해, 사용자의 인식에 이용되는 사용자 인식 모델이나 사용자 식별 정보 중에서 적어도 하나 이상을 각 인공 지능 장치(100)에 전송할 수 있다.
그리고, 인공 지능 서버(200)의 프로세서(260)는 사용자의 상태 정보에 기초하여 정보 제공 기기를 결정한다(S507).
프로세서(260)는 서비스 구역 내에 배치된 인공 지능 장치들(100) 중에서 사용자에게 정보를 제공할 적어도 하나 이상의 정보 제공 기기를 결정할 수 있다.
정보 제공 기기는 스피커나 디스플레이를 구비한 인공 지능 장치(100) 중에서 결정될 수 있다.
프로세서(260)는 사용자의 상태 정보에 포함된, 사용자의 위치, 사용자의 이동 방향, 사용자의 동선, 사용자의 시선 방향 중에서 적어도 하나 이상에 기초하여 정보 제공 기기를 결정할 수 있다.
이때, 프로세서(260)는 서비스 구역 내에 배치된 인공 지능 장치들(100) 각각에 대한 위치 정보와 사용자의 위치 정보에 기초하여, 각 인공 지능 장치(100)로부터 사용자까지의 거리를 산출할 수 있다. 그리고, 사용자까지의 거리가 일정 수준 이내인 인공 지능 장치들(100) 중에서 정보 제공 기기를 결정할 수 있다.
예컨대, 프로세서(260)는 사용자로부터 제1 기준 거리 이내에 위치한 인공 지능 장치(100)를 정보 제공 기기로 결정할 수 있다.
이때, 프로세서(260)는 서비스 구역 내에 배치된 인공 지능 장치들(100) 각각에 대한 위치 정보와 사용자의 동선에 기초하여, 각 인공 지능 장치(100)로부터 사용자의 동선까지의 거리 또는 인접도를 산출할 수 있다. 그리고, 사용자의 동선까지의 거리가 일정 수준 이내인 인공 지능 장치들(100) 중에서 정보 제공 기기를 결정할 수 있다.
예컨대, 프로세서(260)는 사용자의 동선으로부터 인접한 인공 지능 장치(100)를 정보 제공 기기로 결정할 수 있다.
이때, 프로세서(260)는 사용자의 시선 방향에 기초하여, 사용자의 시야에 포함되는 인공 지능 장치들(100) 중에서 정보 제공 기기를 결정할 수 있다.
예컨대, 프로세서(260)는 사용자의 시선 방향으로부터 일정 각도 이내에 위치하며, 사용자까지의 거리가 제2 기준 거리보다 작은 인공 지능 장치(100)를 정보 제공 기기로 결정할 수 있다.
또한, 프로세서(260)는 사용자의 상태 정보뿐만 아니라 사용자의 의도 정보를 함께 고려하여 정보 제공 기기를 결정할 수 있다.
이때, 프로세서(260)는 사용자의 의도 정보로부터 사용자가 이동하고자 하는 목적지 정보 또는 사용자가 이동하여야 하는 경로 정보를 획득하고, 획득한 목적지 정보 또는 경로 정보에 기초하여, 정보 제공 기기를 결정할 수 있다.
예컨대, 프로세서(260)는 현재 사용자의 위치에서 사용자의 의도 정보로부터 목적지와 목적지까지 이르는 경로를 결정하고, 인공 지능 장치들(100) 중에서 결정된 경로에 인접한 기기를 정보 제공 기기로 결정할 수 있다.
즉, 정보 제공 기기는 사용자의 위치나 사용자가 이동하고 있는 경로와 같이 실제 사용자의 위치에 기초하여 결정될 수도 있고, 목적지까지 이르는 경로와 같이 사용자가 이동할 것으로 기대되는 경로에 기초하여 결정될 수도 있다.
그리고, 인공 지능 서버(200)의 프로세서(260)는 결정된 정보 제공 기기에서 출력할 출력 정보를 생성한다(S509).
프로세서(260)는 사용자의 의도 정보에 기초하여 출력 정보를 생성할 수 있다.
예컨대, 사용자의 의도 정보가 "XX 카페까지의 경로 확인"인 경우, 프로세서(260)는 "XX 카페까지의 경로"를 포함하는 출력 정보를 생성할 수 있다.
프로세서(260)는 각 결정된 정보 제공 기기별로 출력 정보를 구분하여 생성할 수 있다.
예컨대, 출력 정보가 "XX 카페까지의 경로"인 경우, 프로세서(260)는 제1 정보 제공 기기가 출력할 제1 출력 정보를 "제1 정보 제공 기기에서 XX 카페까지의 경로"로 결정하고, 제2 정보 제공 기기가 출력할 제2 출력 정보를 "제2 정보 제공 기기에서 XX 카페까지의 경로"로 결정할 수 있다.
이때, 프로세서(260)는 사용자의 의도 정보에 관련된 정보를 포함하여 출력 정보를 생성할 수 있다.
예컨대, 사용자의 의도 정보가 "XX 카페까지의 경로 확인"인 경우, 프로세서(260)는 "XX 카페까지의 경로" 및 "XX 카페의 영업 시간"을 포함하는 출력 정보를 생성할 수 있다.
이때, 프로세서(260)는 사용자의 의도 정보와 관련된 광고 정보를 포함하여 출력 정보를 생성할 수 있다.
예컨대, 사용자 의도 정보가 "XX 카페까지의 경로 확인"인 경우, 프로세서(260)는 다른 카페에 대한 광고 또는 커피 관련 제품에 대한 광고를 포함하는 출력 정보를 생성할 수 있다.
이때, 프로세서(260)는 정보를 제공 받을 사용자를 지칭하는 정보를 포함하는 출력 정보를 생성할 수도 있다.
그리고, 인공 지능 서버(200)의 프로세서(260)는 결정된 정보 제공 기기에 생성된 출력 정보를 출력하는 제어 신호를 전송한다(S511).
출력 정보는 각 정보 제공 기기별로 구분되어 생성될 수 있고, 프로세서(260)는 각 정보 제공 기기에 상응하는 출력 정보를 출력하는 제어 신호를 전송할 수 있다.
제어 신호는 정보 제공 기기의 디스플레이부를 통해 출력 정보를 화상으로 출력하는 제어 신호 또는 정보 제공 기기의 스피커를 통해 출력 정보를 소리로 출력하는 제어 신호 중에서 적어도 하나 이상을 포함할 수 있다.
상술한 설명은 인공 지능 서버(200)와 한 명의 사용자 사이의 관계를 중심으로 설명한 것에 불과하며, 인공 지능 서버(200)는 복수의 사용자들에 각각에 대하여 개별적으로 의도 정보와 상태 정보를 생성하고, 복수의 사용자들 각각에 대한 정보 제공 기기와 출력 정보를 결정할 수 있다.
이에 따라, 인공 지능 서버(200)는 복수의 인공 지능 장치들(100)을 이용하여 사용자에게 개인화된 정보를 제공할 수 있다.
도 5에 도시한 단계들(S501 내지 S511)은 반복적으로 수행될 수 있고, 따라서 인공 지능 서버(200)는 주기적으로 또는 실시간으로 사용자의 의도 정보 또는 상기 사용자의 상태 정보를 갱신하고, 사용자의 의도 정보가 변경되거나 사용자의 상태 정보가 변경되면 그에 따라 출력 정보 또는 정보 제공 기기를 변경할 수 있다.
예컨대, 사용자가 제1 외부 기기를 바라보고 있는 경우, 프로세서(260)는 제1 외부 기기를 정보 제공 기기로 결정하고, 사용자가 시선을 제1 외부 기기에서 제2 외부 기기로 변경하면, 프로세서(260)는 정보 제공 기기를 제1 외부 기기에서 제2 외부 기기로 변경할 수 있다.
예컨대, 사용자가 제1 외부 기기에 인접한 경우, 프로세서(260)는 제1 외부 기기를 정보 제공 기기로 결정하고, 사용자가 제2 외부 기기 근처로 이동하면, 프로세서(260)는 정보 제공 기기를 제1 외부 기기에서 제2 외부 기기로 변경할 수 있다.
도 6은 본 발명의 일 실시 예에 따른 사용자의 의도 정보를 생성하는 예시를 나타낸 도면이다.
도 6을 참조하면, 인공 지능 서버(601)는 서비스 구역 내에 배치된 인공 지능 장치(611) 또는 사용자 단말기(612)와 통신할 수 있다.
인공 지능 장치(611)는 키오스크, 디지털 사이니지, 가전 제품 등을 의미할 수 있다.
사용자 단말기(612)는 스마트폰을 의미할 수 있다.
제1 사용자(621)는 인공 지능 장치(611)에 "Way to X1 cafe?"이라고 발화(622)하고, 제2 사용자(631)는 인공 지능 장치(611)에 "Where is X2 cafe?"이라고 발화(632)하고, 제3 사용자(641)는 사용자 단말기(612)를 이용하여 "X3 restaurant"에 대한 정보를 검색(642)할 수 있다.
인공 지능 서버(601)는 인공 지능 장치(611)로부터 제1 사용자(621)가 발화한 음성(622)에 상응하는 음성 데이터와 제2 사용자(631)가 발화한 음성(632)에 상응하는 음성 데이터를 수신할 수 있고, 사용자 단말기(612)로부터 제3 사용자(641)가 검색한 정보(642)에 상응하는 단말기 사용 정보를 수신할 수 있다.
그리고, 인공 지능 서버(601)는 수신한 음성 데이터와 단말기 사용 정보에 기초하여, 제1 사용자(621)의 의도 정보를 "X1 카페까지 가는 경로 확인", 제2 사용자(631)의 의도 정보를 "X2 카페까지 가는 경로 확인", 제3 사용자(641)의 의도 정보를 "X3 레스토랑까지 가는 경로 확인"으로 결정할 수 있다.
그리고, 상술한 바와 같이, 인공 지능 서버(601)는 서비스 구역에 배치된 복수의 인공 지능 장치들 또는 사용자 단말기 중에서 정보 제공 기기를 결정하고, 정보 제공 기기에서 출력할 출력 정보를 생성하고, 정보 제공 기기에 생성된 출력 정보를 출력하는 제어 신호를 전송할 수 있다.
도 6에서는 사용자의 인공 지능 장치(611)가 사용자의 음성 데이터를 생성하고, 사용자 단말기(612)가 사용자의 단말기 사용 정보를 생성하고 있으나, 본 발명이 이에 한정되지 않는다.
즉, 사용자가 인공 지능 장치(611)를 사용하는 경우, 인공 지능 장치(611)가 단말기 사용 정보를 생성하여 인공 지능 서버(601)에 전송할 수 있다. 또한, 사용자가 사용자 단말기(612)를 이용하여 음성으로 질의하는 경우, 사용자 단말기(612)가 사용자의 발화 음성에 상응하는 음성 데이터를 생성하여 인공 지능 서버(601)에 전송할 수 있다. 그리고, 인공 지능 서버(601)는 수신한 단말기 사용 정보 또는 음성 데이터를 이용하여 각 사용자의 의도 정보를 생성할 수 있다.
도 7은 본 발명의 일 실시 예에 따른 사용자에게 정보를 제공하는 방법을 나타낸 동작 흐름도이다.
도 5와 중복되는 설명은 생략한다.
도 7을 참조하면, 인공 지능 서버(200)의 프로세서(260)는 사용자의 음성 데이터 또는 사용자의 단말기 사용 정보 중에서 적어도 하나 이상을 수신한다(S701). 이는 도 5의 단계(S501)에 대응된다.
그리고, 인공 지능 서버(200)의 프로세서(260)는 사용자의 음성 데이터 또는 사용자의 단말기 사용 정보 중에서 적어도 하나 이상에 기초하여 사용자의 의도 정보를 생성한다(S703). 이는 도 5의 단계(S503)에 대응된다.
그리고, 인공 지능 서버(200)의 프로세서(260)는 사용자의 상태 정보를 생성한다(S705). 이는 도 5의 단계(S505)에 대응된다.
그리고, 인공 지능 서버(200)의 프로세서(260)는 사용자의 상태 정보에 기초하여 정보 제공 기기를 결정한다(S707). 이는 도 5의 단계(S507)에 대응된다.
그리고, 인공 지능 서버(200)의 프로세서(260)는 결정된 정보 제공 기기에서 출력할 출력 정보를 생성한다(S709). 이는 도 5의 단계(S509)에 대응된다.
그리고, 인공 지능 서버(200)의 프로세서(260)는 결정된 정보 제공 기기에 생성된 출력 정보를 출력하는 제어 신호를 전송한다(S711). 이는 도 5의 단계(S511)에 대응된다.
그리고, 인공 지능 서버(200)의 프로세서(260)는 사용자의 상태 정보를 갱신한다(S713).
프로세서(260)는 서비스 구역 내에 배치된 인공 지능 장치들(100) 또는 사용자 단말기 중에서 적어도 하나로부터 음성 데이터, 이미지 데이터 또는 단말기 사용 정보 중에서 적어도 하나 이상을 수신하고, 수신한 데이터를 이용하여 사용자의 상태 정보를 갱신할 수 있다.
예컨대, 프로세서(260)는 이미지 데이터에서 사용자를 식별하고, 그에 따라 식별된 사용자의 위치를 결정할 수 있다.
그리고, 인공 지능 서버(200)의 프로세서(260)는 정보 제공을 종료할 것인지 여부를 판단한다(S715).
프로세서(260)는 갱신된 사용자의 상태 정보에 기초하여 정보 제공의 종료 여부를 결정할 수 있다.
이때, 프로세서(260)는 사용자가 사용자의 의도 정보에 상응하는 동작을 완료하였는지, 사용자의 의도 정보가 바뀌었는지 또는 사용자가 서비스 구역을 벗어났는지 여부 등을 판단함으로써 정보 제공의 종료 여부를 판단할 수 있다.
예컨대, 사용자의 의도 정보가 "AA 장소로 이동" 또는 "AA 장소까지의 경로 확인"인 경우, 프로세서(260)는 사용자가 목적지로써의 "AA 장소"에 도착하였다고 판단하는 경우에는 정보 제공을 종료하는 것으로 결정할 수 있다.
예컨대, 사용자의 의도 정보가 "AA 장소로 이동"인 경우, 프로세서(260)는 사용자의 의도 정보가 다른 것으로 변경되었다고 판단하는 경우에는 해당 의도 정보에 대한 정보 제공을 종료하는 것으로 결정할 수 있다. 이 경우에는, 프로세서(260)는 다시 단계(S701)부터 진행하여 사용자의 의도 정보를 새로이 생성하고, 그에 따라 사용자에게 정보를 제공할 수 있다.
예컨대, 사용자가 서비스 구역을 벗어나는 경우, 프로세서(260)는 정보 제공을 종료하는 것으로 결정할 수 있다.
만약, 단계(S715)의 판단 결과 정보 제공을 종료하는 것으로 판단된 경우, 프로세서(260)는 해당 사용자에 대한 정보 제공을 종료한다.
만약, 단계(S715)의 판단 결과 정보 제공을 종료하지 않는 것으로 판단된 경우, 프로세서(260)는 정보 제공 기기를 결정하는 단계(S707)로 돌아가서 사용자에게 계속하여 정보를 제공할 수 있다.
도 8 내지 11은 본 발명의 일 실시 예에 따른 사용자에게 정보를 제공하는 예시를 나타낸 도면이다.
도 8은 제1 사용자(801)가 제1 인공 지능 장치(821)에게 길을 물어보고, 제2 사용자(802)가 제2 인공 지능 장치(822)에게 길을 물어보는 상황을 나타낸다. 여기서, 인공 지능 장치들(821, 822, 823, 824)는 디지털 사이니지, 키오스크 등일 수 있다.
도 8을 참조하면, 제1 사용자(801)는 제1 인공 지능 장치(821)에게 "Way to X2 cafe?"와 같이 발화(811)하여 X2 카페(842)까지의 경로를 물어볼 수 있다. 마찬가지로, 제2 사용자(802)는 제2 인공 지능 장치(822)에게 "Where is X1 cafe?"와 같이 발화(812)하여 X1 카페(841)까지의 경로를 물어볼 수 있다.
도 8에는 도시되지 않았으나, 인공 지능 서버(200)는 제1 인공 지능 장치(821)로부터 제1 사용자(801)에 대한 음성 데이터를 수신하고, 제2 인공 지능 장치(822)로부터 제2 사용자(802)에 대한 음성 데이터를 수신함으로써, 제1 사용자(801)의 제1 의도 정보를 "X1 카페(841)까지의 경로 확인"으로 결정하고, 제2 사용자(802)의 제2 의도 정보를 "X2 카페(842)까지의 경로 확인"으로 결정할 수 있다.
그리고, 인공 지능 서버(200)는 제1 사용자(801)와 인접한 제1 인공 지능 장치(821)를 제1 사용자(801)에 대한 정보 제공 기기로 결정하고, 제2 사용자(802)와 인접한 제2 인공 지능 장치(822)를 제2 사용자(802)에 대한 정보 제공 기기로 결정할 수 있다.
그리고, 인공 지능 서버(200)는 각 정보 제공 기기에 상응하는 출력 정보를 출력하는 제어 신호를 전송할 수 있다.
즉, 제1 인공 지능 장치(821)는 제1 사용자(801)의 제1 의도 정보에 상응하는 출력 정보로써, X2 카페(842)까지 이동하기 위하여 전방으로 진행하라는 의미의, "X2 cafe ↑"를 포함하는 메시지를 출력할 수 있다(831).
또한, 제2 인공 지능 장치(822)는 제2 사용자(802)의 제2 의도 정보에 상응하는 출력 정보로써, X1 카페(841)까지 이동하기 위하여 전방으로 진행하라는 의미의 "X1 cafe ↑"를 포함하는 메시지를 출력할 수 있다(832).
다만, 출력되는 메시지는 디스플레이를 통하여 텍스트의 형식으로 출력될 수도 있지만, 이미지 형식으로 출력될 수도 있으며, 스피커를 통하여 음성으로 출력될 수도 있다.
이때, 인공 지능 서버(200)는 제1 사용자(801) 및 제2 사용자(802)와 인접하지 않은 제3 인공 지능 장치(823)와 제4 인공 지능 장치(824)에는 제1 사용자(801)와 제2 사용자(802)에 대한 출력 정보를 출력하게 하지 않을 수 있다(833, 834).
도 9는 도 8의 상황 이후에, 제1 사용자(801)와 제2 사용자(802)가 전방으로 이동하여 제3 인공 지능 장치(823)에 인접한 상황을 나타낸다.
도 9를 참조하면, 인공 지능 서버(200)는 제1 인공 지능 장치(821)와 제2 인공 지능 장치(822)에서 생성한 이미지 데이터 또는 음성 데이터를 통해 제1 사용자(801)와 제2 사용자(802)가 제1 인공 지능 장치(821) 및 제2 인공 지능 장치(822)로부터 멀어졌음을 파악할 수 있다. 마찬가지로, 인공 지능 서버(200)는 제3 인공 지능 장치(823)에서 생성한 이미지 데이터 또는 음성 데이터를 통해 제1 사용자(801)와 제2 사용자(802)가 제3 인공 지능 장치(823)에 인접함을 파악할 수 있다.
그리고, 인공 지능 서버(200)는 제3 인공 지능 장치(823)를 제1 사용자(801) 및 제2 사용자(802)에 대한 정보 제공 기기로 결정할 수 있다.
그리고, 인공 지능 서버(200)는 제3 인공 지능 장치(823)로 제1 사용자(801)에 대한 출력 정보와 제2 사용자(802)에 대한 출력 정보를 출력하는 제어 신호를 전송할 수 있다.
즉, 제3 인공 지능 장치(823)는 제1 사용자(801)의 제1 의도 정보에 상응하는 출력 정보와 제2 사용자(802)의 의도 정보에 상응하는 출력 정보로써, "X1 cafe ↑"와 "X2 cafe ↑"를 포함하는 메시지를 출력할 수 있다(933).
이때, 인공 지능 서버(200)는 제1 사용자(801) 및 제2 사용자(802)와 인접하지 않은 제1 인공 지능 장치(821), 제2 인공 지능 장치(822) 및 제4 인공 지능 장치(824)에는 제1 사용자(801)와 제2 사용자(802)에 대한 출력 정보를 출력하지 않도록 제어할 수 있다(931, 932, 934).
도 10은 도 9의 상황 이후에, 제1 사용자(801)가 전방으로 이동하여 제4 인공 지능 장치(824)에 인접하고, 제2 사용자(802)가 전방으로 이동하였으나 여전히 제3 인공 지능 장치(823)에 인접한 상황을 나타낸다.
도 10을 참조하면, 인공 지능 서버(200)는 제3 인공 지능 장치(823)에서 생성한 이미지 데이터 또는 음성 데이터를 통해 제1 사용자(801)가 제3 인공 지능 장치(823)로부터 멀어졌음을 파악할 수 있다. 마찬가지로, 인공 지능 서버(200)는 제4 인공 지능 장치(824)에서 생성한 이미지 데이터 또는 음성 데이터를 통해 제1 사용자(801)가 제4 인공 지능 장치(824)에 인접함을 파악할 수 있다.
그리고, 인공 지능 서버(200)는 제3 인공 지능 장치(823)를 제2 사용자(802)에 대한 정보 제공 기기로 유지하고, 제4 인공 지능 장치(824)를 제1 사용자(801)에 대한 정보 제공 기기로 결정할 수 있다.
그리고, 인공 지능 서버(200)는 제4 인공 지능 장치(824)로 제1 사용자(801)에 대한 출력 정보를 출력하는 제어 신호를 전송하고, 제3 인공 지능 장치(823)에 제2 사용자(802)에 대한 출력 정보를 출력하는 제어 신호를 전송할 수 있다.
즉, 제4 인공 지능 장치(824)는 제1 사용자(801)의 제1 의도 정보에 상응하는 출력 정보로써, "X2 cafe →"를 포함하는 메시지를 출력할 수 있다(1034).
또한, 제3 인공 지능 장치(823)는 제2 사용자(802)의 의도 정보에 상응하는 출력 정보로써, "X1 cafe ↑"를 포함하는 메시지를 출력할 수 있다(1033).
이때, 인공 지능 서버(200)는 제1 사용자(801) 및 제2 사용자(802)와 인접하지 않은 제1 인공 지능 장치(821) 및 제2 인공 지능 장치(822)에는 제1 사용자(801)와 제2 사용자(802)에 대한 출력 정보를 출력하지 않도록 제어할 수 있다(1031, 1032).
도 11은 도 10의 상황 이후에, 제1 사용자(801)가 우측으로 이동하였으나 여전히 제4 인공 지능 장치(824)에 인접하고, 제2 사용자(802)가 전방으로 이동하였으나 제4 인공 지능 장치(824)에 인접한 상황을 나타낸다.
도 11을 참조하면, 인공 지능 서버(200)는 제3 인공 지능 장치(823)에서 생성한 이미지 데이터 또는 음성 데이터를 통해 제2 사용자(802)가 제3 인공 지능 장치(823)로부터 멀어졌음을 파악할 수 있다. 마찬가지로, 인공 지능 서버(200)는 제4 인공 지능 장치(824)에서 생성한 이미지 데이터 또는 음성 데이터를 통해 제1 사용자(801)와 제2 사용자(802)가 제4 인공 지능 장치(824)에 인접함을 파악할 수 있다.
그리고, 인공 지능 서버(200)는 제4 인공 지능 장치(824)를 제1 사용자(801)와 제2 사용자(802)에 대한 정보 제공 기기로 결정할 수 있다.
그리고, 인공 지능 서버(200)는 제4 인공 지능 장치(824)로 제1 사용자(801)에 대한 출력 정보를 출력하고, 제2 사용자(802)에 대한 출력 정보를 출력하는 제어 신호를 전송할 수 있다.
즉, 제4 인공 지능 장치(824)는 제1 사용자(801)의 제1 의도 정보에 상응하는 출력 정보와 제2 사용자(802)의 의도 정보에 상응하는 출력 정보로써, "X1 cafe ←"와 "X2 cafe →"를 포함하는 메시지를 출력할 수 있다(1134).
이때, 인공 지능 서버(200)는 제1 사용자(801) 및 제2 사용자(802)와 인접하지 않은 제1 인공 지능 장치(821), 제2 인공 지능 장치(822) 및 제3 인공 지능 장치(823)에는 제1 사용자(801)와 제2 사용자(802)에 대한 출력 정보를 출력하지 않도록 제어할 수 있다(1131, 1132, 1133).
도 8 내지 11에서 도시한 바와 같이, 인공 지능 서버(200)는 각 사용자별로 의도 정보를 생성하고, 각 사용자별로 정보 제공 기기를 결정하며, 결정된 정보 제공 기기에 출력 정보를 출력하는 제어 신호를 전송하여 각 사용자에게 적합한 정보를 제공할 수 있다.
도 8 내지 11에서는 사용자와 인공 지능 장치 사이의 거리에만 기초하여 정보 제공 기기가 결정되었으나, 상술한 바와 같이, 본 발명이 이에 한정되지는 않는다.
또한, 도 8 내지 11에서는 정보 제공 기기가 인공 지능 장치 중에서 결정되었으나, 사용자 단말기도 정보 제공 기기로 결정될 수 있다. 즉, 인공 지능 서버(200)는 사용자 단말기를 이용하여 사용자에게 정보를 제공할 수 있다.
도 12 및 13은 본 발명의 일 실시 예에 따른 사용자에게 정보를 제공하는 예시를 나타낸 도면이다.
도 12는 사용자(1201)가 제1 인공 지능 장치(1221)에게 길을 물어보는 상황을 나타낸다. 여기서, 제1 인공 지능 장치(1221)는 TV일 수 있다. 그리고, 제2 인공 지능 장치(1222)는 차량일 수 있다.
도 12를 참조하면, 사용자(1201)는 "Way to X3 restaurant?"와 같이 발화(1211)하여 X3 레스토랑(1241)까지의 경로를 물어볼 수 있다.
도 12에는 도시되지 않았으나, 인공 지능 서버(200)는 제1 인공 지능 장치(1221)로부터 사용자(1201)에 대한 음성 데이터를 수신함으로써, 사용자(1201)의 의도 정보를 "X3 레스토랑(1231)까지의 경로 확인"으로 결정할 수 있다.
또한, 인공 지능 서버(200)는 사용자(1201)가 직접적으로 발화하지 않더라도, 사용자 단말기 등으로부터 사용자 일정 정보를 획득하고, 획득한 사용자 일정 정보에 기초하여 의도 정보를 결정할 수도 있다.
그리고, 인공 지능 서버(200)는 사용자(1201)와 인접한 제1 인공 지능 장치(1221)를 사용자(1201)에 대한 정보 제공 기기로 결정하고, 인공 지능 서버(200)는 정보 제공 기기에 상응하는 출력 정보를 출력하는 제어 신호를 전송할 수 있다.
즉, 제1 인공 지능 장치(1221)는 사용자(1201)의 의도 정보에 상응하는 출력 정보로써, X3 레스토랑(1241)까지 이동하기 위한 경로를 나타낸 지도를 출력할 수 있다(1231).
이때, 인공 지능 서버(200)는 사용자(1201)와 인접하지 않은 제2 인공 지능 장치(1222)에는 사용자(1201)에 대한 출력 정보를 출력하지 않도록 제어할 수 있다(1232).
도 13은 도 12의 상황 이후에, 사용자(1201)가 제2 인공 지능 장치(1222)에 탑승한 상황을 나타낸다.
도 13을 참조하면, 인공 지능 서버(200)는 제1 인공 지능 장치(1221)에서 생성한 이미지 데이터 또는 음성 데이터를 통해 사용자(1201)가 제1 인공 지능 장치(1221)로부터 멀어졌음을 파악할 수 있다.
마찬가지로, 인공 지능 서버(200)는 제2 인공 지능 장치(1222)에서 생성한 이미지 데이터 또는 음성 데이터를 통해 사용자(1201)가 제2 인공 지능 장치(1222)에 탑승한 것을 파악할 수 있다. 또는, 인공 지능 서버(200)의 제2 인공 지능 장치(1222)에 대한 단말기 사용 정보 또는 상태 정보 (예컨대, 시동 정보, 문 개폐 정보)를 통해 제2 인공 지능 장치(1222)에 사용자(1201)가 탑승하였음을 파악할 수 있다.
그리고, 인공 지능 서버(200)는 제2 인공 지능 장치(1222)를 사용자(1201)에 대한 정보 제공 기기로 결정하고, 인공 지능 서버(200)는 제2 인공 지능 장치(1222)로 사용자(1201)에 대한 출력 정보를 출력하는 제어 신호를 전송할 수 있다.
즉, 제2 인공 지능 장치(1222)는 사용자(1201)의 의도 정보에 상응하는 출력 정보로써, X3 레스토랑(1241)까지 이동하기 위한 경로를 나타낸 지도 또는 네비게이션 안내 정보 중에서 적어도 하나 이상을 출력할 수 있다(1332).
이때, 인공 지능 서버(200)는 사용자(1201)와 인접하지 않은 제1 인공 지능 장치(1221)에는 사용자(1201)에 대한 출력 정보를 출력하지 않도록 제어할 수 있다(1331).
도 14 내지 16은 본 발명의 일 실시 예에 따른 사용자에게 정보를 제공하는 예시를 나타낸 도면이다.
도 14는 사용자(1401)가 무엇을 요리할 것인지 발화한 음성을 제1 인공 지능 장치(1421)가 수신한 상황을 나타낸다. 이는 사용자(1401)가 제1 인공 지능 장치(1421)에게 입력시킬 의도로 발화한 상황뿐만 아니라, 사용자(1401)가 혼잣말한 상황도 포함한다. 여기서, 제1 인공 지능 장치(1421)는 TV일 수 있다. 그리고, 제2 인공 지능 장치(1422)는 냉장고일 수 있다.
도 14를 참조하면, 사용자(1201)는 "Let's have Bulgogi."와 같이 발화(1411)할 수 있다.
도 14에는 도시되지 않았으나, 인공 지능 서버(200)는 제1 인공 지능 장치(1421)로부터 사용자(1401)에 대한 음성 데이터를 수신함으로써, 사용자(1401)의 의도 정보를 "불고기를 먹는다"로 결정할 수 있다.
또한, 도 14와 달리, 인공 지능 서버(200)는 사용자(1401)가 직접적으로 발화하지 않더라도, 사용자의 단말기 사용 정보를 수신하고, 사용자가 사용자 단말기를 이용하여 불고기 레시피를 검색하면, 수신한 단말기 사용 정보를 이용하여 의도 정보를 결정할 수도 있다.
그리고, 인공 지능 서버(200)는 사용자(1401)와 인접한 제1 인공 지능 장치(1421)를 사용자(1401)에 대한 정보 제공 기기로 결정하고, 인공 지능 서버(200)는 정보 제공 기기에 상응하는 출력 정보를 출력하는 제어 신호를 전송할 수 있다.
즉, 제1 인공 지능 장치(1421)는 사용자(1401)의 의도 정보에 상응하는 출력 정보로써, 불고기 레시피 또는 냉장고 안에 보관된 불고기 재료에 대한 정보 중에서 적어도 하나 이상을 출력할 수 있다(1431).
이때, 출력 정보는 냉장고 안에 불고기 재료로써의 소고기가 없다는 정보를 포함할 수 있다.
특히, 제1 인공 지능 장치(1421)는 기존에 출력 중이던 콘텐츠를 사용자(1401)가 계속해서 감상할 수 있도록, 출력 정보를 화면의 일부에만 출력할 수 있다. 또한, 제1 인공 지능 장치(1421)는 기존에 출력 중이던 콘텐츠의 감상에 방해되지 않도록, 출력 정보에 포함된 소리는 음소거한 상태로 출력할 수 있다.
이때, 인공 지능 서버(200)는 사용자(1401)와 인접하지 않은 제2 인공 지능 장치(1422)에는 사용자(1401)에 대한 출력 정보를 출력하지 않도록 제어할 수 있다(1432).
도 15는 도 14의 상황 이후에, 사용자(1401)가 제2 인공 지능 장치(1422)로 이동한 상황을 나타낸다. 예컨대, 사용자(1401)는 제2 인공 지능 장치(1422)인 냉장고 내부를 확인할 수 있다.
도 15를 참조하면, 인공 지능 서버(200)는 제1 인공 지능 장치(1421)에서 생성한 이미지 데이터 또는 음성 데이터를 통해 사용자(1401)가 제1 인공 지능 장치(1421)로부터 멀어졌음을 파악할 수 있다.
마찬가지로, 인공 지능 서버(200)는 제2 인공 지능 장치(1422)에서 생성한 이미지 데이터 또는 음성 데이터를 통해 사용자(1401)가 제2 인공 지능 장치(1422)에 인접한 것을 파악할 수 있다. 또는, 인공 지능 서버(200)의 제2 인공 지능 장치(1422)에 대한 단말기 사용 정보 또는 상태 정보 (예컨대, 문 개폐 정보)를 통해 제2 인공 지능 장치(1422)에 사용자(1401)가 인접하였음을 파악할 수 있다.
그리고, 인공 지능 서버(200)는 제2 인공 지능 장치(1422)를 사용자(1401)에 대한 정보 제공 기기로 결정하고, 인공 지능 서버(200)는 제2 인공 지능 장치(1422)로 사용자(1401)에 대한 출력 정보를 출력하는 제어 신호를 전송할 수 있다.
즉, 제2 인공 지능 장치(1422)는 사용자(1401)의 의도 정보에 상응하는 출력 정보로써, 불고기 레시피 또는 냉장고 안에 보관된 불고기 재료에 대한 정보 중에서 적어도 하나 이상을 출력할 수 있다(1532).
이때, 출력 정보는 냉장고 안에 불고기 재료로써의 소고기가 없다는 정보를 포함할 수 있다.
이때, 인공 지능 서버(200)는 사용자(1401)와 인접하지 않은 제1 인공 지능 장치(1421)에는 사용자(1401)에 대한 출력 정보를 출력하지 않도록 제어할 수 있다(1531).
도 16은 도 15의 상황 이후에, 사용자(1401)가 다시 제1 인공 지능 장치(1121)로 근처로 이동한 상황을 나타낸다. 예컨대, 사용자(1401)는 제1 인공 지능 장치(1421)인 TV 근처로 이동해서 TV를 시청할 수 있다.
도 16을 참조하면, 사용자(1401)는 "Well, what should I eat?"와 같이 발화(1611)할 수 있다.
도 16에는 도시되지 않았으나, 인공 지능 서버(200)는 제1 인공 지능 장치(1421)로부터 사용자(1401)에 대한 음성 데이터를 수신함으로써, 사용자(1401)의 의도 정보를 "음식 결정 중"으로 결정할 수 있다. 즉, 인공 지능 서버(200)는 사용자(1401)의 의도 정보를 갱신할 수 있다.
또한, 도 16과 달리, 인공 지능 서버(200)는 사용자(1401)가 직접적으로 발화하지 않더라도, 사용자의 단말기 사용 정보를 수신하고, 사용자가 사용자 단말기를 이용하여 추천 음식을 검색하거나 음식 배달 어플리케이션을 사용하면, 수신한 단말기 사용 정보를 이용하여 의도 정보를 갱신할 수도 있다.
이때, 인공 지능 서버(200)는 제2 인공 지능 장치(1422)에서 생성한 이미지 데이터 또는 음성 데이터를 통해 사용자(1401)가 제2 인공 지능 장치(1422)로부터 멀어졌음을 파악할 수 있다.
마찬가지로, 인공 지능 서버(200)는 제1 인공 지능 장치(1421)에서 생성한 이미지 데이터 또는 음성 데이터를 통해 사용자(1401)가 제1 인공 지능 장치(1421)에 인접한 것을 파악할 수 있다.
그리고, 인공 지능 서버(200)는 제1 인공 지능 장치(1421)를 사용자(1401)에 대한 정보 제공 기기로 결정하고, 제1 인공 지능 장치(1421)로 사용자(1401)에 대한 출력 정보를 출력하는 제어 신호를 전송할 수 있다.
즉, 제1 인공 지능 장치(1422)는 사용자(1401)의 의도 정보에 상응하는 출력 정보로써, 냉장고 안에 보관된 식재료를 이용하여 만들 수 있는 음식의 추천 또는 배달 가능한 음식 중에서 적어도 하나 이상을 출력할 수 있다(1631).
이때, 인공 지능 서버(200)는 사용자(1401)와 인접하지 않은 제2 인공 지능 장치(1422)에는 사용자(1401)에 대한 출력 정보를 출력하지 않도록 제어할 수 있다(1632).
일 실시 예에서, 사용자(1401)가 사용자 단말기에 시선을 옮긴 경우, 인공 지능 서버(200)는 제1 인공 지능 장치(1421)에 대하여 출력 정보의 출력을 중단하도록 제어하고, 사용자의 단말기에 대하여 출력 정보를 출력하도록 제어할 수도 있다.
도 17은 본 발명의 일 실시 예에 따른 사용자에게 정보를 제공하는 예시를 나타낸 도면이다.
도 17을 참조하면, 제1 인공 지능 장치(1703_1)는 사용자가 발화한 음성에 상응하는 음성 데이터를 획득하고(S1711), 획득한 음성 데이터를 인공 지능 서버(1701)로 전송할 수 있다(S1713).
그리고, 인공 지능 서버(1701)는 수신한 음성 데이터를 이용하여 사용자 의도 정보를 생성한다(S1715).
그리고, 각 인공 지능 장치들(1703_1, 1703_2, ..., 1703_n)은 이미지 데이터를 획득하고(S1717), 획득한 이미지 데이터를 인공 지능 서버(1701)로 전송할 수 있다(S1719).
그리고, 인공 지능 서버(1701)는 수신한 이미지 데이터를 이용하여 사용자 상태 정보를 생성하고(S1721), 생성한 사용자 상태 정보에 기초하여 제2 인공 지능 장치(1703_2)를 정보 제공 기기를 결정하고(S1723), 생성한 사용자 의도 정보와 정보 제공 기기에 기초하여 출력 정보를 생성하고(S1725), 생성한 출력 정보를 출력하는 출력 신호를 정보 제공 기기로써의 제2 인공 지능 장치(1703_2)에 전송할 수 있다(S1727).
그리고, 정보 제공 기기로써의 제2 인공 지능 장치(1703_2)는 수신한 출력 신호에 기초하여 출력 정보를 출력할 수 있다(S1729).
도 17의 예시에서는, 각 인공 지능 장치들(1703_1, 1703_2, ..., 1703_n)은 단순히 사용자에 대한 이미지 데이터를 획득할 뿐이고, 인공 지능 서버(1701)가 각 인공 지능 장치들(1703_1, 1703_2, ..., 1703_n)로부터 수신한 이미지 데이터로부터 사용자를 인식하여 사용자 인식하여 사용자 상태 정보를 생성한다.
도 18은 본 발명의 일 실시 예에 따른 사용자에게 정보를 제공하는 예시를 나타낸 도면이다.
도 18을 참조하면, 제1 인공 지능 장치(1803_1)는 사용자가 발화한 음성에 상응하는 음성 데이터를 획득하고(S1811), 획득한 음성 데이터를 인공 지능 서버(1801)로 전송할 수 있다(S1813).
그리고, 인공 지능 서버(1801)는 수신한 음성 데이터를 이용하여 사용자 의도 정보를 생성한다(S1815).
그리고, 각 인공 지능 장치들(1803_1, 1803_2, ..., 1803_n)은 사용자 인식 정보를 생성하고(S1817), 생성한 사용자 인식 정보를 인공 지능 서버(1801)로 전송할 수 있다(S1819).
이때, 각 인공 지능 장치들(1803_1, 1803_2, ..., 1803_n)은 이미지 데이터를 획득하고, 획득한 이미지 데이터에서 사용자를 인식하여 사용자 인식 정보를 생성할 수 있다.
그리고, 인공 지능 서버(1801)는 사용자 인식 정보를 이용하여 사용자 상태 정보를 생성하고(S1821), 생성한 사용자 상태 정보에 기초하여 제2 인공 지능 장치(1803_2)를 정보 제공 기기를 결정하고(S1823), 생성한 사용자 의도 정보와 정보 제공 기기에 기초하여 출력 정보를 생성하고(S1825), 생성한 출력 정보를 출력하는 출력 신호를 정보 제공 기기로써의 제2 인공 지능 장치(1803_2)에 전송할 수 있다(S1827).
그리고, 정보 제공 기기로써의 제2 인공 지능 장치(1803_2)는 수신한 출력 신호에 기초하여 출력 정보를 출력할 수 있다(S1829).
도 18의 예시에서는, 각 인공 지능 장치들(1803_1, 1803_2, ..., 1803_n)이 사용자에 대한 이미지 데이터를 획득하고, 획득한 이미지 데이터에서 사용자를 인식하여 사용자를 인식하여 사용자 인식 정보를 생성한다. 그리고, 인공 지능 서버(1801)는 각 인공 지능 장치들(1803_1, 1803_2, ..., 1803_n)에서 생성된 사용자 인식 정보를 이용하여 사용자 상태 정보를 생성한다.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다.

Claims (13)

  1. 사용자에게 정보를 제공하는 인공 지능 서버에 있어서,
    서비스 구역 내에 배치된 복수의 인공 지능 장치들과 통신하는 통신부; 및
    상기 복수의 인공 지능 장치들 중에서 적어도 하나 이상으로부터 상기 사용자의 음성 데이터 또는 상기 사용자의 단말기 사용 정보 중에서 적어도 하나 이상을 수신하고, 상기 수신한 음성 데이터 또는 상기 수신한 단말기 사용 정보에 기초하여 상기 사용자의 의도 정보를 생성하고, 상기 복수의 인공 지능 장치들을 이용하여 상기 사용자의 상태 정보를 생성하고, 상기 생성된 사용자의 상태 정보에 기초하여 상기 복수의 인공 지능 장치들 중에서 정보 제공 기기를 결정하고, 상기 결정된 정보 제공 기기에서 출력할 출력 정보를 생성하고, 상기 결정된 정보 제공 기기에 상기 생성된 출력 정보를 출력하는 제어 신호를 전송하는 프로세서
    를 포함하는, 인공 지능 서버.
  2. 청구항 1에 있어서,
    상기 단말기 사용 정보는
    상기 인공 지능 장치에 대한 상기 사용자의 사용 기록 및 상기 사용자를 식별하는 사용자 식별 정보를 포함하는, 인공 지능 서버.
  3. 청구항 1에 있어서,
    상기 프로세서는
    자연어 처리(NLP: Natural Language Processing) 기법을 이용하여 상기 수신한 '음성 데이터로부터 상기 의도 정보를 생성하는, 인공 지능 서버.
  4. 청구항 1에 있어서,
    상기 프로세서는
    의도 정보 생성 모델을 이용하여 상기 수신한 단말기 사용 기록으로부터 상기 의도 정보를 생성하고,
    상기 의도 정보 생성 모델은
    인공 신경망을 포함하며, 머신 러닝 알고리즘 또는 딥 러닝 알고리즘을 이용하여 학습되는, 인공 지능 서버.
  5. 청구항 1에 있어서,
    상기 상태 정보는
    상기 사용자의 위치, 상기 사용자의 동선, 상기 사용자의 이동 방향, 상기 사용자의 시선 방향 또는 상기 사용자의 동작 중에서 적어도 하나 이상을 포함하는, 인공 지능 서버.
  6. 청구항 5에 있어서,
    상기 프로세서는
    상기 복수의 인공 지능 장치들로부터 상기 사용자에 대한 음성 데이터, 상기 사용자에 대한 이미지 데이터 또는 상기 사용자의 단말기 상태 정보를 수신하고, 상기 수신한 음성 데이터, 상기 수신한 이미지 데이터 또는 상기 수신한 단말기 상태 정보 중에서 적어도 하나 이상에 기초하여 상기 상태 정보를 생성하는, 인공 지능 서버.
  7. 청구항 6에 있어서,
    상기 프로세서는
    사용자 인식 모델을 이용하여 상기 수신한 이미지 데이터에서 상기 사용자를 인식하고, 상기 인식 결과를 이용하여 상기 상태 정보를 생성하고,
    상기 사용자 인식 모델은
    인공 신경망을 포함하며, 머신 러닝 알고리즘 또는 딥 러닝 알고리즘을 이용하여 학습되는, 인공 지능 서버.
  8. 청구항 5에 있어서,
    상기 프로세서는
    상기 복수의 인공 지능 장치들로부터 상기 사용자에 대하여 생성된 사용자 인식 정보를 수신하고, 상기 수신한 사용자 인식 정보를 이용하여 상기 상태 정보를 생성하는, 인공 지능 서버.
  9. 청구항 5에 있어서,
    상기 프로세서는
    상기 복수의 인공 지능 장치들 중에서 상기 사용자로부터 제1 기준 거리 이내에 위치한 장치를 상기 정보 제공 기기로 결정하는, 인공 지능 서버.
  10. 청구항 9에 있어서,
    상기 프로세서는
    상기 복수의 인공 지능 장치들 중에서 상기 사용자의 시선 방향으로부터 일정 각도 이내에 위치하며, 상기 사용자로부터 제2 기준 거리 이내에 위치한 장치를 상기 정보 제공 기기로 결정하는, 인공 지능 서버.
  11. 청구항 1에 있어서,
    상기 프로세서는
    주기적으로 또는 실시간으로 상기 의도 정보 또는 상기 상태 정보 중에서 적어도 하나 이상을 갱신하고, 상기 의도 정보 또는 상기 상태 정보 중에서 적어도 하나 이상이 변경되면 상기 정보 제공 기기 또는 상기 출력 정보 중에서 적어도 하나 이상을 갱신하는, 인공 지능 서버.
  12. 사용자에게 정보를 제공하는 방법에 있어서,
    서비스 구역 내에 배치된 복수의 인공 지능 장치들 중에서 적어도 하나 이상으로부터 상기 사용자의 음성 데이터 또는 상기 사용자의 단말기 사용 정보 중에서 적어도 하나 이상을 수신하는 단계;
    상기 수신한 음성 데이터 또는 상기 수신한 단말기 사용 정보에 기초하여 상기 사용자의 의도 정보를 생성하는 단계;
    상기 복수의 인공 지능 장치들을 이용하여 상기 사용자의 상태 정보를 생성하는 단계;
    상기 생성된 사용자의 상태 정보에 기초하여 상기 복수의 인공 지능 장치들 중에서 정보 제공 기기를 결정하는 단계;
    상기 결정된 정보 제공 기기에서 출력할 출력 정보를 생성하는 단계; 및
    상기 결정된 정보 제공 기기에 상기 생성된 출력 정보를 출력하는 제어 신호를 전송하는 단계
    를 포함하는, 방법.
  13. 사용자에게 정보를 제공하는 방법을 수행하기 위한 프로그램이 기록된 기록 매체에 있어서,
    상기 사용자에게 정보를 제공하는 방법은
    서비스 구역 내에 배치된 복수의 인공 지능 장치들 중에서 적어도 하나 이상으로부터 상기 사용자의 음성 데이터 또는 상기 사용자의 단말기 사용 정보 중에서 적어도 하나 이상을 수신하는 단계;
    상기 수신한 음성 데이터 또는 상기 수신한 단말기 사용 정보에 기초하여 상기 사용자의 의도 정보를 생성하는 단계;
    상기 복수의 인공 지능 장치들을 이용하여 상기 사용자의 상태 정보를 생성하는 단계;
    상기 생성된 사용자의 상태 정보에 기초하여 상기 복수의 인공 지능 장치들 중에서 정보 제공 기기를 결정하는 단계;
    상기 결정된 정보 제공 기기에서 출력할 출력 정보를 생성하는 단계; 및
    상기 결정된 정보 제공 기기에 상기 생성된 출력 정보를 출력하는 제어 신호를 전송하는 단계
    를 포함하는, 기록 매체.
PCT/KR2019/010282 2019-08-13 2019-08-13 사용자에게 정보를 제공하는 인공 지능 서버 및 그 방법 WO2021029457A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/493,848 US11568239B2 (en) 2019-08-13 2019-08-13 Artificial intelligence server and method for providing information to user
PCT/KR2019/010282 WO2021029457A1 (ko) 2019-08-13 2019-08-13 사용자에게 정보를 제공하는 인공 지능 서버 및 그 방법
KR1020190099913A KR20190102151A (ko) 2019-08-13 2019-08-14 사용자에게 정보를 제공하는 인공 지능 서버 및 그 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2019/010282 WO2021029457A1 (ko) 2019-08-13 2019-08-13 사용자에게 정보를 제공하는 인공 지능 서버 및 그 방법

Publications (1)

Publication Number Publication Date
WO2021029457A1 true WO2021029457A1 (ko) 2021-02-18

Family

ID=67951858

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/010282 WO2021029457A1 (ko) 2019-08-13 2019-08-13 사용자에게 정보를 제공하는 인공 지능 서버 및 그 방법

Country Status (3)

Country Link
US (1) US11568239B2 (ko)
KR (1) KR20190102151A (ko)
WO (1) WO2021029457A1 (ko)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11568239B2 (en) * 2019-08-13 2023-01-31 Lg Electronics Inc. Artificial intelligence server and method for providing information to user
US11862157B2 (en) * 2021-02-24 2024-01-02 Conversenow Ai Automated ordering system
DE102021129535A1 (de) * 2021-11-12 2023-05-17 Ford Global Technologies, Llc System und Verfahren zum Steuern von autonom steuerbaren Fahrzeugfunktionen eines mit Partnersubjekten kooperierenden autonomen Fahrzeugs, Computerprogrammprodukt, computerlesbarer Datenträger und Fahrzeug
KR20230081026A (ko) * 2021-11-30 2023-06-07 삼성전자주식회사 장애인을 위한 시청각 콘텐츠 제공 장치 및 방법
US20230282210A1 (en) * 2022-03-03 2023-09-07 GM Global Technology Operations LLC System and method for integrating auditory and non-auditory inputs for adaptable speech recognition
WO2024085550A1 (ko) * 2022-10-17 2024-04-25 삼성전자주식회사 가상 장치의 디스플레이의 제어를 위한 전자 장치, 방법, 및 비일시적 컴퓨터 판독가능 저장 매체

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015008405A (ja) * 2013-06-25 2015-01-15 Kddi株式会社 情報表示選択システムおよび情報表示選択方法
JP2017211952A (ja) * 2016-05-27 2017-11-30 キヤノン株式会社 情報処理装置、情報処理方法および情報処理システム
US20180190283A1 (en) * 2015-07-02 2018-07-05 Baidu Online Network Technology (Beijing) Co. Ltd. On-board voice command identification method and apparatus, and storage medium
KR20190012565A (ko) * 2017-07-27 2019-02-11 삼성전자주식회사 광고를 교체하여 출력하는 장치 및 방법
KR20190085895A (ko) * 2019-07-01 2019-07-19 엘지전자 주식회사 사용자의 시선에 따라 제어 가능한 인공 지능 장치 및 그의 동작 방법

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7438414B2 (en) * 2005-07-28 2008-10-21 Outland Research, Llc Gaze discriminating electronic control apparatus, system, method and computer program product
US9092394B2 (en) * 2012-06-15 2015-07-28 Honda Motor Co., Ltd. Depth based context identification
US20140350942A1 (en) * 2013-05-23 2014-11-27 Delphi Technologies, Inc. Vehicle human machine interface with gaze direction and voice recognition
US20160012475A1 (en) * 2014-07-10 2016-01-14 Google Inc. Methods, systems, and media for presenting advertisements related to displayed content upon detection of user attention
US9936355B2 (en) * 2014-10-27 2018-04-03 Sony Corporation Information processing apparatus, information processing method, and computer program
JP6739907B2 (ja) * 2015-06-18 2020-08-12 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 機器特定方法、機器特定装置及びプログラム
JP6754619B2 (ja) * 2015-06-24 2020-09-16 三星電子株式会社Samsung Electronics Co.,Ltd. 顔認識方法及び装置
US11449744B2 (en) * 2016-06-23 2022-09-20 Microsoft Technology Licensing, Llc End-to-end memory networks for contextual language understanding
EP3580750A4 (en) * 2017-02-10 2019-12-25 Samsung Electronics Co., Ltd. METHOD AND DEVICE FOR MANAGING VOICE-BASED INTERACTION IN AN INTERNET-THE-THINGS NETWORK SYSTEM
KR101925034B1 (ko) * 2017-03-28 2018-12-04 엘지전자 주식회사 스마트 컨트롤링 디바이스 및 그 제어 방법
US10176808B1 (en) * 2017-06-20 2019-01-08 Microsoft Technology Licensing, Llc Utilizing spoken cues to influence response rendering for virtual assistants
KR101972545B1 (ko) * 2018-02-12 2019-04-26 주식회사 럭스로보 음성 명령을 통한 위치 기반 음성 인식 시스템
US10755706B2 (en) * 2018-03-26 2020-08-25 Midea Group Co., Ltd. Voice-based user interface with dynamically switchable endpoints
US20200349940A1 (en) * 2019-05-02 2020-11-05 Samsung Electronics Co., Ltd. Server for determining target device based on speech input of user and controlling target device, and operation method of the server
US11568239B2 (en) * 2019-08-13 2023-01-31 Lg Electronics Inc. Artificial intelligence server and method for providing information to user

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015008405A (ja) * 2013-06-25 2015-01-15 Kddi株式会社 情報表示選択システムおよび情報表示選択方法
US20180190283A1 (en) * 2015-07-02 2018-07-05 Baidu Online Network Technology (Beijing) Co. Ltd. On-board voice command identification method and apparatus, and storage medium
JP2017211952A (ja) * 2016-05-27 2017-11-30 キヤノン株式会社 情報処理装置、情報処理方法および情報処理システム
KR20190012565A (ko) * 2017-07-27 2019-02-11 삼성전자주식회사 광고를 교체하여 출력하는 장치 및 방법
KR20190085895A (ko) * 2019-07-01 2019-07-19 엘지전자 주식회사 사용자의 시선에 따라 제어 가능한 인공 지능 장치 및 그의 동작 방법

Also Published As

Publication number Publication date
US11568239B2 (en) 2023-01-31
KR20190102151A (ko) 2019-09-03
US20210334640A1 (en) 2021-10-28

Similar Documents

Publication Publication Date Title
WO2021029457A1 (ko) 사용자에게 정보를 제공하는 인공 지능 서버 및 그 방법
WO2021006366A1 (ko) 디스플레이 패널의 색상을 조정하는 인공 지능 장치 및 그 방법
WO2020246643A1 (ko) 서빙 로봇 및 그를 이용한 고객 접대 방법
WO2019107945A1 (en) Method of providing service based on location of sound source and speech recognition device therefor
WO2021010509A1 (ko) 인공지능 조리 기기
WO2018128362A1 (en) Electronic apparatus and method of operating the same
WO2021006404A1 (ko) 인공지능 서버
WO2019031707A1 (en) MOBILE TERMINAL AND METHOD FOR CONTROLLING A MOBILE TERMINAL USING MACHINE APPRENTICESHIP
WO2019225961A1 (en) Electronic device for outputting response to speech input by using application and operation method thereof
EP3545436A1 (en) Electronic apparatus and method of operating the same
WO2020246647A1 (ko) 인공 지능 시스템의 동작을 관리하는 인공 지능 장치 및 그 방법
WO2020246640A1 (ko) 사용자의 위치를 결정하는 인공 지능 장치 및 그 방법
WO2021125453A1 (ko) 인공 지능 냉장고
WO2021045447A1 (en) Apparatus and method for providing voice assistant service
WO2021025217A1 (ko) 인공지능 서버
WO2019124963A1 (ko) 음성 인식 장치 및 방법
WO2020213758A1 (ko) 음성으로 상호작용하는 인공 지능 장치 및 그 방법
WO2020184748A1 (ko) 교통 정보에 기반한 오토 스탑 시스템을 제어하는 인공 지능 장치 및 그 방법
WO2019135621A1 (ko) 영상 재생 장치 및 그의 제어 방법
WO2020145625A1 (ko) 인공 지능 장치 및 그의 동작 방법
WO2020241920A1 (ko) 장치 정보에 기반하여, 다른 장치를 제어할 수 있는 인공 지능 장치
WO2020184753A1 (ko) 음성 추출 필터를 이용하여 음성 제어를 수행하는 인공 지능 장치 및 그 방법
WO2021172642A1 (ko) 장치 간 연동에 기초한 장치 제어 기능을 제공하는 인공 지능 장치 및 그 방법
WO2020251074A1 (ko) 음성 인식 기능을 제공하는 인공 지능 로봇 및 그의 동작 방법
WO2021215547A1 (ko) 스마트 홈 장치 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19940984

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19940984

Country of ref document: EP

Kind code of ref document: A1