WO2020145625A1 - 인공 지능 장치 및 그의 동작 방법 - Google Patents

인공 지능 장치 및 그의 동작 방법 Download PDF

Info

Publication number
WO2020145625A1
WO2020145625A1 PCT/KR2020/000270 KR2020000270W WO2020145625A1 WO 2020145625 A1 WO2020145625 A1 WO 2020145625A1 KR 2020000270 W KR2020000270 W KR 2020000270W WO 2020145625 A1 WO2020145625 A1 WO 2020145625A1
Authority
WO
WIPO (PCT)
Prior art keywords
charging
reservation
charger
artificial intelligence
time
Prior art date
Application number
PCT/KR2020/000270
Other languages
English (en)
French (fr)
Inventor
최정화
김연정
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of WO2020145625A1 publication Critical patent/WO2020145625A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • G06Q10/06312Adjustment or analysis of established resource schedule, e.g. resource or task levelling, or dynamic rescheduling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60LPROPULSION OF ELECTRICALLY-PROPELLED VEHICLES; SUPPLYING ELECTRIC POWER FOR AUXILIARY EQUIPMENT OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRODYNAMIC BRAKE SYSTEMS FOR VEHICLES IN GENERAL; MAGNETIC SUSPENSION OR LEVITATION FOR VEHICLES; MONITORING OPERATING VARIABLES OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRIC SAFETY DEVICES FOR ELECTRICALLY-PROPELLED VEHICLES
    • B60L53/00Methods of charging batteries, specially adapted for electric vehicles; Charging stations or on-board charging equipment therefor; Exchange of energy storage elements in electric vehicles
    • B60L53/10Methods of charging batteries, specially adapted for electric vehicles; Charging stations or on-board charging equipment therefor; Exchange of energy storage elements in electric vehicles characterised by the energy transfer between the charging station and the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60LPROPULSION OF ELECTRICALLY-PROPELLED VEHICLES; SUPPLYING ELECTRIC POWER FOR AUXILIARY EQUIPMENT OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRODYNAMIC BRAKE SYSTEMS FOR VEHICLES IN GENERAL; MAGNETIC SUSPENSION OR LEVITATION FOR VEHICLES; MONITORING OPERATING VARIABLES OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRIC SAFETY DEVICES FOR ELECTRICALLY-PROPELLED VEHICLES
    • B60L53/00Methods of charging batteries, specially adapted for electric vehicles; Charging stations or on-board charging equipment therefor; Exchange of energy storage elements in electric vehicles
    • B60L53/30Constructional details of charging stations
    • B60L53/305Communication interfaces
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60LPROPULSION OF ELECTRICALLY-PROPELLED VEHICLES; SUPPLYING ELECTRIC POWER FOR AUXILIARY EQUIPMENT OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRODYNAMIC BRAKE SYSTEMS FOR VEHICLES IN GENERAL; MAGNETIC SUSPENSION OR LEVITATION FOR VEHICLES; MONITORING OPERATING VARIABLES OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRIC SAFETY DEVICES FOR ELECTRICALLY-PROPELLED VEHICLES
    • B60L53/00Methods of charging batteries, specially adapted for electric vehicles; Charging stations or on-board charging equipment therefor; Exchange of energy storage elements in electric vehicles
    • B60L53/60Monitoring or controlling charging stations
    • B60L53/63Monitoring or controlling charging stations in response to network capacity
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60LPROPULSION OF ELECTRICALLY-PROPELLED VEHICLES; SUPPLYING ELECTRIC POWER FOR AUXILIARY EQUIPMENT OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRODYNAMIC BRAKE SYSTEMS FOR VEHICLES IN GENERAL; MAGNETIC SUSPENSION OR LEVITATION FOR VEHICLES; MONITORING OPERATING VARIABLES OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRIC SAFETY DEVICES FOR ELECTRICALLY-PROPELLED VEHICLES
    • B60L53/00Methods of charging batteries, specially adapted for electric vehicles; Charging stations or on-board charging equipment therefor; Exchange of energy storage elements in electric vehicles
    • B60L53/60Monitoring or controlling charging stations
    • B60L53/66Data transfer between charging stations and vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60LPROPULSION OF ELECTRICALLY-PROPELLED VEHICLES; SUPPLYING ELECTRIC POWER FOR AUXILIARY EQUIPMENT OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRODYNAMIC BRAKE SYSTEMS FOR VEHICLES IN GENERAL; MAGNETIC SUSPENSION OR LEVITATION FOR VEHICLES; MONITORING OPERATING VARIABLES OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRIC SAFETY DEVICES FOR ELECTRICALLY-PROPELLED VEHICLES
    • B60L53/00Methods of charging batteries, specially adapted for electric vehicles; Charging stations or on-board charging equipment therefor; Exchange of energy storage elements in electric vehicles
    • B60L53/60Monitoring or controlling charging stations
    • B60L53/67Controlling two or more charging stations
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60LPROPULSION OF ELECTRICALLY-PROPELLED VEHICLES; SUPPLYING ELECTRIC POWER FOR AUXILIARY EQUIPMENT OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRODYNAMIC BRAKE SYSTEMS FOR VEHICLES IN GENERAL; MAGNETIC SUSPENSION OR LEVITATION FOR VEHICLES; MONITORING OPERATING VARIABLES OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRIC SAFETY DEVICES FOR ELECTRICALLY-PROPELLED VEHICLES
    • B60L53/00Methods of charging batteries, specially adapted for electric vehicles; Charging stations or on-board charging equipment therefor; Exchange of energy storage elements in electric vehicles
    • B60L53/60Monitoring or controlling charging stations
    • B60L53/68Off-site monitoring or control, e.g. remote control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/02Reservations, e.g. for tickets, services or events
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60LPROPULSION OF ELECTRICALLY-PROPELLED VEHICLES; SUPPLYING ELECTRIC POWER FOR AUXILIARY EQUIPMENT OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRODYNAMIC BRAKE SYSTEMS FOR VEHICLES IN GENERAL; MAGNETIC SUSPENSION OR LEVITATION FOR VEHICLES; MONITORING OPERATING VARIABLES OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRIC SAFETY DEVICES FOR ELECTRICALLY-PROPELLED VEHICLES
    • B60L2240/00Control parameters of input or output; Target parameters
    • B60L2240/80Time limits
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60LPROPULSION OF ELECTRICALLY-PROPELLED VEHICLES; SUPPLYING ELECTRIC POWER FOR AUXILIARY EQUIPMENT OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRODYNAMIC BRAKE SYSTEMS FOR VEHICLES IN GENERAL; MAGNETIC SUSPENSION OR LEVITATION FOR VEHICLES; MONITORING OPERATING VARIABLES OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRIC SAFETY DEVICES FOR ELECTRICALLY-PROPELLED VEHICLES
    • B60L2250/00Driver interactions
    • B60L2250/16Driver interactions by display
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2200/00Type of vehicle
    • B60Y2200/90Vehicles comprising electric prime movers
    • B60Y2200/91Electric vehicles
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02EREDUCTION OF GREENHOUSE GAS [GHG] EMISSIONS, RELATED TO ENERGY GENERATION, TRANSMISSION OR DISTRIBUTION
    • Y02E60/00Enabling technologies; Technologies with a potential or indirect contribution to GHG emissions mitigation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/60Other road transportation technologies with climate change mitigation effect
    • Y02T10/70Energy storage systems for electromobility, e.g. batteries
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/60Other road transportation technologies with climate change mitigation effect
    • Y02T10/7072Electromobility specific charging systems or methods for batteries, ultracapacitors, supercapacitors or double-layer capacitors
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T90/00Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation
    • Y02T90/10Technologies relating to charging of electric vehicles
    • Y02T90/12Electric charging stations
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T90/00Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation
    • Y02T90/10Technologies relating to charging of electric vehicles
    • Y02T90/14Plug-in electric vehicles
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T90/00Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation
    • Y02T90/10Technologies relating to charging of electric vehicles
    • Y02T90/16Information or communication technologies improving the operation of electric vehicles
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y04INFORMATION OR COMMUNICATION TECHNOLOGIES HAVING AN IMPACT ON OTHER TECHNOLOGY AREAS
    • Y04SSYSTEMS INTEGRATING TECHNOLOGIES RELATED TO POWER NETWORK OPERATION, COMMUNICATION OR INFORMATION TECHNOLOGIES FOR IMPROVING THE ELECTRICAL POWER GENERATION, TRANSMISSION, DISTRIBUTION, MANAGEMENT OR USAGE, i.e. SMART GRIDS
    • Y04S10/00Systems supporting electrical power generation, transmission or distribution
    • Y04S10/12Monitoring or controlling equipment for energy generation units, e.g. distributed energy generation [DER] or load-side generation
    • Y04S10/126Monitoring or controlling equipment for energy generation units, e.g. distributed energy generation [DER] or load-side generation the energy generation units being or involving electric vehicles [EV] or hybrid vehicles [HEV], i.e. power aggregation of EV or HEV, vehicle to grid arrangements [V2G]

Definitions

  • the present disclosure relates to an artificial intelligence device, and more particularly, for scheduling a reservation for charging an electric vehicle.
  • driving energy for moving a vehicle is obtained by burning fossil fuels.
  • an electric vehicle is a vehicle that uses driving energy as electric energy.
  • the charger guidance system developed so far guides electric vehicle users with location information of the charger, so that electric vehicle users can find and charge nearby chargers.
  • An object of the present disclosure is to make it possible to schedule a charging reservation of an electric vehicle in consideration of user convenience.
  • the present disclosure aims to minimize the idle time of the charger and increase the charge occupancy time.
  • the artificial intelligence device receives reservation input information for charging reservation of an electric vehicle, and based on the received reservation input information and charging reservation scheduling model, an available time zone of each of the plurality of chargers or A charger available timetable indicating an unusable time zone is displayed, and the charger available timetable may be a table corresponding to one or more time slots for each of the plurality of chargers.
  • Each time slot included in the charger usage time table may indicate the source of the charger and whether charging is possible in the charging time period input by the user.
  • the processor may determine the source of each time slot and whether or not charging is possible in each time slot using the information on the charger, and generate the charger usable timetable according to the determination result.
  • the user can schedule the charging reservation of the electric vehicle with only a simple input. Accordingly, the user's charging reservation process is simplified, and convenience can be greatly improved.
  • the charging points provided in each of the minimizing idle time can maximize the use efficiency of the charging point.
  • FIG 1 shows an AI device according to an embodiment of the present disclosure.
  • FIG 2 shows an AI server according to an embodiment of the present disclosure.
  • FIG 3 shows an AI system according to an embodiment of the present disclosure.
  • FIG 4 shows an AI device according to another embodiment of the present disclosure.
  • Time Interval 5 is a view defining a possible relationship between a conventional time interval (Time Interval).
  • 6 to 7D are diagrams for explaining a process of performing charging reservation scheduling of an electric vehicle for six time interval relationships using three charging points according to an embodiment of the present disclosure.
  • 8 to 9D are diagrams illustrating a process of scheduling a charging reservation through 10 charging points for 13 time interval relationships according to an embodiment of the present disclosure.
  • FIG. 10 is a diagram illustrating a chargeable time slot for 13 time interval relationships according to an embodiment of the present disclosure.
  • FIG. 11 is a diagram for explaining a process of setting a charging schedule by allocating 14 time slots of FIG. 10 through 10 charging points according to an embodiment of the present disclosure.
  • 12 is a diagram for explaining a summary result in which 14 time slots are allocated to each charging point when there are 10 charging points.
  • FIG. 13 is a flowchart illustrating an operation method of an artificial intelligence device according to an embodiment of the present disclosure.
  • FIG 14 shows an example of a charging reservation input screen according to an embodiment of the present disclosure.
  • 15 is a view illustrating a charging reservation screen for providing charging reservation information according to an embodiment of the present disclosure.
  • 16 is a view for providing an electric vehicle charging reservation result according to an embodiment of the present disclosure.
  • Machine learning refers to the field of studying the methodology to define and solve various problems in the field of artificial intelligence. do.
  • Machine learning is defined as an algorithm that improves the performance of a job through constant experience.
  • An artificial neural network is a model used in machine learning, and may mean an overall model having a problem-solving ability, composed of artificial neurons (nodes) forming a network through a combination of synapses.
  • An artificial neural network may be defined by a connection pattern between neurons in different layers, a learning process for updating model parameters, and an activation function that generates output values.
  • the artificial neural network may include an input layer, an output layer, and optionally one or more hidden layers. Each layer contains one or more neurons, and the artificial neural network can include neurons and synapses connecting neurons. In an artificial neural network, each neuron may output a function value of an input function input through a synapse, a weight, and an active function for bias.
  • the model parameter means a parameter determined through learning, and includes weights of synaptic connections and bias of neurons.
  • the hyperparameter means a parameter that must be set before learning in the machine learning algorithm, and includes learning rate, number of iterations, mini-batch size, initialization function, and the like.
  • the purpose of learning an artificial neural network can be seen as determining model parameters that minimize the loss function.
  • the loss function can be used as an index to determine an optimal model parameter in the learning process of an artificial neural network.
  • Machine learning can be classified into supervised learning, unsupervised learning, and reinforcement learning according to the learning method.
  • Supervised learning refers to a method of training an artificial neural network while a label for training data is given, and a label is a correct answer (or a result value) that the artificial neural network must infer when the training data is input to the artificial neural network.
  • Unsupervised learning may refer to a method of training an artificial neural network without a label for learning data.
  • Reinforcement learning may mean a learning method in which an agent defined in a certain environment is trained to select an action or a sequence of actions to maximize cumulative reward in each state.
  • Machine learning which is implemented as a deep neural network (DNN) that includes a plurality of hidden layers among artificial neural networks, is also referred to as deep learning (deep learning), and deep learning is a part of machine learning.
  • DNN deep neural network
  • machine learning is used to mean deep learning.
  • a robot can mean a machine that automatically handles or acts on tasks given by its own capabilities.
  • a robot having a function of recognizing the environment and determining an operation by itself can be referred to as an intelligent robot.
  • Robots can be classified into industrial, medical, household, military, etc. according to the purpose or field of use.
  • the robot may be provided with a driving unit including an actuator or a motor to perform various physical operations such as moving a robot joint.
  • a driving unit including an actuator or a motor to perform various physical operations such as moving a robot joint.
  • the movable robot includes a wheel, a brake, a propeller, and the like in the driving unit, so that it can travel on the ground or fly in the air through the driving unit.
  • Autonomous driving refers to a technology that drives itself, and autonomous driving refers to a vehicle that operates without user interaction or with minimal user interaction.
  • a technology that maintains a driving lane a technology that automatically adjusts speed such as adaptive cruise control, a technology that automatically drives along a predetermined route, and a technology that automatically sets a route when a destination is set, etc. All of this can be included.
  • the vehicle includes a vehicle having only an internal combustion engine, a hybrid vehicle having both an internal combustion engine and an electric motor, and an electric vehicle having only an electric motor, and may include a train, a motorcycle, etc. as well as a vehicle.
  • the autonomous vehicle can be viewed as a robot having an autonomous driving function.
  • Augmented reality refers to virtual reality (VR), augmented reality (AR), and mixed reality (MR).
  • VR technology provides objects or backgrounds in the real world only as CG images
  • AR technology provides CG images made virtually on real objects
  • MR technology is a computer that mixes and combines virtual objects in the real world. It is a graphics technology.
  • MR technology is similar to AR technology in that it shows both real and virtual objects.
  • a virtual object is used as a complement to a real object, whereas in MR technology, there is a difference in that a virtual object and a real object are used with equal characteristics.
  • HMD Head-Mount Display
  • HUD Head-Up Display
  • mobile phone tablet PC, laptop, desktop, TV, digital signage, etc. It can be called.
  • FIG 1 shows an AI device 100 according to an embodiment of the present disclosure.
  • the AI device 100 is a TV, projector, mobile phone, smartphone, desktop computer, laptop, digital broadcasting terminal, personal digital assistants (PDA), portable multimedia player (PMP), navigation, tablet PC, wearable device, set-top box (STB) ), DMB receivers, radios, washing machines, refrigerators, desktop computers, digital signage, robots, vehicles, and the like.
  • PDA personal digital assistants
  • PMP portable multimedia player
  • STB set-top box
  • DMB receivers radios, washing machines, refrigerators, desktop computers, digital signage, robots, vehicles, and the like.
  • the terminal 100 includes a communication unit 110, an input unit 120, a running processor 130, a sensing unit 140, an output unit 150, a memory 170, a processor 180, and the like. It can contain.
  • the communication unit 110 may transmit and receive data to and from external devices such as other AI devices 100a to 100e or the AI server 200 using wired/wireless communication technology.
  • the communication unit 110 may transmit and receive sensor information, a user input, a learning model, a control signal, etc. with external devices.
  • the communication technology used by the communication unit 110 includes Global System for Mobile Communication (GSM), Code Division Multi Access (CDMA), Long Term Evolution (LTE), 5G, Wireless LAN (WLAN), Wireless-Fidelity (Wi-Fi). ), BluetoothTM, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), ZigBee, Near Field Communication (NFC), and the like.
  • GSM Global System for Mobile Communication
  • CDMA Code Division Multi Access
  • LTE Long Term Evolution
  • 5G Fifth Generation
  • WLAN Wireless LAN
  • Wi-Fi Wireless-Fidelity
  • BluetoothTM BluetoothTM
  • Radio Frequency Identification (RFID) Radio Frequency Identification
  • IrDA Infrared Data Association
  • ZigBee ZigBee
  • NFC Near Field Communication
  • the input unit 120 may acquire various types of data.
  • the input unit 120 may include a camera for inputting a video signal, a microphone for receiving an audio signal, a user input unit for receiving information from a user, and the like.
  • the camera or microphone is treated as a sensor, and the signal obtained from the camera or microphone may be referred to as sensing data or sensor information.
  • the input unit 120 may acquire training data for model training and input data to be used when obtaining an output using the training model.
  • the input unit 120 may obtain raw input data.
  • the processor 180 or the learning processor 130 may extract input features as pre-processing of the input data.
  • the learning processor 130 may train a model composed of artificial neural networks using the training data.
  • the learned artificial neural network may be referred to as a learning model.
  • the learning model can be used to infer a result value for new input data rather than learning data, and the inferred value can be used as a basis for judgment to perform an operation.
  • the learning processor 130 may perform AI processing together with the learning processor 240 of the AI server 200.
  • the learning processor 130 may include a memory integrated or implemented in the AI device 100.
  • the learning processor 130 may be implemented using a memory 170, an external memory directly coupled to the AI device 100, or a memory maintained in the external device.
  • the sensing unit 140 may acquire at least one of AI device 100 internal information, AI device 100 environment information, and user information using various sensors.
  • the sensors included in the sensing unit 140 include a proximity sensor, an illuminance sensor, an acceleration sensor, a magnetic sensor, a gyro sensor, an inertial sensor, an RGB sensor, an IR sensor, a fingerprint recognition sensor, an ultrasonic sensor, an optical sensor, a microphone, and a lidar. , Radar and more.
  • the output unit 150 may generate output related to vision, hearing, or touch.
  • the output unit 150 may include a display unit for outputting visual information, a speaker for outputting auditory information, a haptic module for outputting tactile information, and the like.
  • the memory 170 may store data supporting various functions of the AI device 100.
  • the memory 170 may store input data acquired from the input unit 120, learning data, a learning model, and learning history.
  • the processor 180 may determine at least one executable action of the AI device 100 based on information determined or generated using a data analysis algorithm or a machine learning algorithm. In addition, the processor 180 may control components of the AI device 100 to perform a determined operation.
  • the processor 180 may request, search, receive, or utilize data of the learning processor 130 or the memory 170, and perform an operation that is predicted or determined to be desirable among the at least one executable operation. It is possible to control the components of the AI device 100 to execute.
  • the processor 180 may generate a control signal for controlling the corresponding external device, and transmit the generated control signal to the corresponding external device when it is necessary to link the external device to perform the determined operation.
  • the processor 180 may acquire intention information for a user input, and determine a user's requirement based on the obtained intention information.
  • the processor 180 uses at least one of a Speech To Text (STT) engine for converting voice input into a string or a Natural Language Processing (NLP) engine for acquiring intention information of natural language, and a user Intent information corresponding to an input may be obtained.
  • STT Speech To Text
  • NLP Natural Language Processing
  • At this time, at least one of the STT engine or the NLP engine may be configured as an artificial neural network at least partially learned according to a machine learning algorithm. And, at least one or more of the STT engine or the NLP engine is learned by the learning processor 130, learned by the learning processor 240 of the AI server 200, or learned by distributed processing thereof May be
  • the processor 180 collects historical information including the operation content of the AI device 100 or a user's feedback on the operation, and stores it in the memory 170 or the running processor 130, or the AI server 200 or the like. Can be sent to external devices.
  • the collected history information can be used to update the learning model.
  • the processor 180 may control at least some of the components of the AI device 100 to drive an application program stored in the memory 170. Furthermore, the processor 180 may operate by combining two or more of the components included in the AI device 100 with each other to drive the application program.
  • FIG 2 shows an AI server 200 according to an embodiment of the present disclosure.
  • the AI server 200 may refer to an apparatus for learning an artificial neural network using a machine learning algorithm or using a trained artificial neural network.
  • the AI server 200 may be composed of a plurality of servers to perform distributed processing, or may be defined as a 5G network.
  • the AI server 200 is included as a configuration of a part of the AI device 100, and may perform at least a part of AI processing together.
  • the AI server 200 may include a communication unit 210, a memory 230, a running processor 240 and a processor 260.
  • the communication unit 210 may transmit and receive data with an external device such as the AI device 100.
  • the memory 230 may include a model storage unit 231.
  • the model storage unit 231 may store a model (or artificial neural network, 231a) being trained or trained through the learning processor 240.
  • the learning processor 240 may train the artificial neural network 231a using learning data.
  • the learning model may be used while being mounted on the AI server 200 of the artificial neural network, or may be mounted and used on an external device such as the AI device 100.
  • the learning model can be implemented in hardware, software, or a combination of hardware and software. When part or all of the learning model is implemented in software, one or more instructions constituting the learning model may be stored in the memory 230.
  • the processor 260 may infer the result value for the new input data using the learning model, and generate a response or control command based on the inferred result value.
  • FIG 3 shows an AI system 1 according to an embodiment of the present disclosure.
  • the AI system 1 may include at least one of an AI server 200, a robot 100a, an autonomous vehicle 100b, an XR device 100c, a smartphone 100d, or a home appliance 100e. It is connected to the cloud network 10.
  • the robot 100a to which AI technology is applied, the autonomous vehicle 100b, the XR device 100c, the smartphone 100d, or the home appliance 100e may be referred to as AI devices 100a to 100e.
  • the cloud network 10 may form a part of the cloud computing infrastructure or may mean a network existing in the cloud computing infrastructure.
  • the cloud network 10 may be configured using a 3G network, a 4G or a Long Term Evolution (LTE) network or a 5G network.
  • LTE Long Term Evolution
  • each device (100a to 100e, 200) constituting the AI system 1 may be connected to each other through the cloud network (10).
  • the devices 100a to 100e and 200 may communicate with each other through a base station, but may also communicate with each other directly without going through the base station.
  • the AI server 200 may include a server performing AI processing and a server performing operations on big data.
  • the AI server 200 may include at least one of robots 100a, autonomous vehicles 100b, XR devices 100c, smart phones 100d, or home appliances 100e, which are AI devices constituting the AI system 1. It is connected through the cloud network 10 and can assist at least some of the AI processing of the connected AI devices 100a to 100e.
  • the AI server 200 may train the artificial neural network according to the machine learning algorithm on behalf of the AI devices 100a to 100e, and may directly store the learning model or transmit it to the AI devices 100a to 100e.
  • the AI server 200 receives input data from the AI devices 100a to 100e, infers a result value to the received input data using a learning model, and issues a response or control command based on the inferred result value. It can be generated and transmitted to AI devices 100a to 100e.
  • the AI devices 100a to 100e may infer a result value with respect to input data using a direct learning model and generate a response or control command based on the inferred result value.
  • the AI devices 100a to 100e to which the above-described technology is applied will be described.
  • the AI devices 100a to 100e illustrated in FIG. 3 may be viewed as specific embodiments of the AI device 100 illustrated in FIG. 1.
  • AI technology is applied to the robot 100a, and may be implemented as a guide robot, a transport robot, a cleaning robot, a wearable robot, an entertainment robot, a pet robot, and an unmanned flying robot.
  • the robot 100a may include a robot control module for controlling an operation, and the robot control module may mean a software module or a chip implemented with hardware.
  • the robot 100a acquires status information of the robot 100a using sensor information obtained from various types of sensors, detects (recognizes) surrounding objects and objects, generates map data, or moves and travels. You can decide on a plan, determine a response to user interaction, or decide an action.
  • the robot 100a may use sensor information acquired from at least one sensor among a lidar, a radar, and a camera in order to determine a movement route and a driving plan.
  • the robot 100a may perform the above operations using a learning model composed of at least one artificial neural network.
  • the robot 100a may recognize a surrounding environment and an object using a learning model, and may determine an operation using the recognized surrounding environment information or object information.
  • the learning model may be directly learned from the robot 100a, or may be learned from an external device such as the AI server 200.
  • the robot 100a may perform an operation by generating a result using a direct learning model, but transmits sensor information to an external device such as the AI server 200 and receives the result generated accordingly. You may.
  • the robot 100a determines a moving path and a driving plan using at least one of map data, object information detected from sensor information, or object information obtained from an external device, and controls the driving unit to determine the determined moving path and driving plan. Accordingly, the robot 100a can be driven.
  • the map data may include object identification information for various objects arranged in a space in which the robot 100a moves.
  • the map data may include object identification information for fixed objects such as walls and doors and movable objects such as flower pots and desks.
  • the object identification information may include a name, type, distance, and location.
  • the robot 100a may perform an operation or travel by controlling a driving unit based on a user's control/interaction. At this time, the robot 100a may acquire intention information of an interaction according to a user's motion or voice utterance, and may perform an operation by determining a response based on the obtained intention information.
  • the autonomous vehicle 100b is applied with AI technology, and may be implemented as a mobile robot, a vehicle, or an unmanned aerial vehicle.
  • the autonomous driving vehicle 100b may include an autonomous driving control module for controlling an autonomous driving function, and the autonomous driving control module may refer to a software module or a chip implemented with hardware.
  • the autonomous driving control module may be included therein as a configuration of the autonomous driving vehicle 100b, but may be configured and connected to the outside of the autonomous driving vehicle 100b by using separate hardware.
  • the autonomous vehicle 100b acquires status information of the autonomous vehicle 100b using sensor information obtained from various types of sensors, detects (recognizes) surrounding objects and objects, generates map data,
  • the route and driving plan may be determined, or an operation may be determined.
  • the autonomous vehicle 100b may use sensor information obtained from at least one sensor among a lidar, a radar, and a camera, like the robot 100a, to determine a movement path and a driving plan.
  • the autonomous driving vehicle 100b may receive sensor information from external devices or recognize an environment or an object for an area where a field of view is obscured or a predetermined distance or more, or receive information recognized directly from external devices. .
  • the autonomous vehicle 100b may perform the above operations using a learning model composed of at least one artificial neural network.
  • the autonomous vehicle 100b may recognize a surrounding environment and an object using a learning model, and may determine a driving line using the recognized surrounding environment information or object information.
  • the learning model may be learned directly from the autonomous vehicle 100b or may be learned from an external device such as the AI server 200.
  • the autonomous vehicle 100b may perform an operation by generating a result using a direct learning model, but transmits sensor information to an external device such as the AI server 200 and receives the generated result accordingly. You can also do
  • the autonomous vehicle 100b determines a moving path and a driving plan using at least one of map data, object information detected from sensor information, or object information obtained from an external device, and controls the driving unit to determine the moving path and driving According to the plan, the autonomous vehicle 100b may be driven.
  • the map data may include object identification information for various objects arranged in a space (eg, a road) in which the autonomous vehicle 100b travels.
  • the map data may include object identification information for fixed objects such as street lights, rocks, buildings, and movable objects such as vehicles and pedestrians.
  • the object identification information may include a name, type, distance, and location.
  • the autonomous driving vehicle 100b may perform an operation or travel by controlling a driving unit based on a user's control/interaction. At this time, the autonomous vehicle 100b may acquire the intention information of the interaction according to the user's motion or voice utterance, and determine the response based on the obtained intention information to perform the operation.
  • AI technology is applied to the XR device 100c, HMD (Head-Mount Display), HUD (Head-Up Display) provided in a vehicle, television, mobile phone, smart phone, computer, wearable device, home appliance, digital signage , It can be implemented as a vehicle, a fixed robot or a mobile robot.
  • HMD Head-Mount Display
  • HUD Head-Up Display
  • the XR device 100c generates location data and attribute data for 3D points by analyzing 3D point cloud data or image data acquired through various sensors or from an external device, thereby providing information about surrounding space or real objects.
  • the XR object to be acquired and output can be rendered and output.
  • the XR device 100c may output an XR object including additional information about the recognized object in correspondence with the recognized object.
  • the XR device 100c may perform the above operations using a learning model composed of at least one artificial neural network.
  • the XR device 100c may recognize a real object from 3D point cloud data or image data using a learning model, and provide information corresponding to the recognized real object.
  • the learning model may be learned directly from the XR device 100c or may be learned from an external device such as the AI server 200.
  • the XR device 100c may perform an operation by generating a result using a direct learning model, but transmits sensor information to an external device such as the AI server 200 and receives the generated result accordingly. You can also do
  • the robot 100a is applied with AI technology and autonomous driving technology, and can be implemented as a guide robot, a transport robot, a cleaning robot, a wearable robot, an entertainment robot, a pet robot, and an unmanned flying robot.
  • the robot 100a to which AI technology and autonomous driving technology are applied may mean a robot itself having an autonomous driving function or a robot 100a that interacts with the autonomous driving vehicle 100b.
  • the robot 100a having an autonomous driving function may move itself according to a given moving line without user control, or collectively refer to moving devices by determining the moving line itself.
  • the robot 100a and the autonomous vehicle 100b having an autonomous driving function may use a common sensing method to determine one or more of a moving path or a driving plan.
  • the robot 100a and the autonomous vehicle 100b having an autonomous driving function may determine one or more of a moving route or a driving plan using information sensed through a lidar, a radar, and a camera.
  • the robot 100a interacting with the autonomous vehicle 100b exists separately from the autonomous vehicle 100b, and is connected to an autonomous vehicle function within the autonomous vehicle 100b, or connected to the autonomous vehicle 100b. It is possible to perform an operation associated with a user on board.
  • the robot 100a interacting with the autonomous vehicle 100b acquires sensor information on behalf of the autonomous vehicle 100b and provides it to the autonomous vehicle 100b, acquires sensor information, and obtains environment information or By generating object information and providing it to the autonomous vehicle 100b, it is possible to control or assist the autonomous vehicle driving function of the autonomous vehicle 100b.
  • the robot 100a interacting with the autonomous vehicle 100b may monitor a user on the autonomous vehicle 100b or control a function of the autonomous vehicle 100b through interaction with the user. .
  • the robot 100a may activate the autonomous driving function of the autonomous vehicle 100b or assist control of the driving unit of the autonomous vehicle 100b.
  • the function of the autonomous driving vehicle 100b controlled by the robot 100a may include not only an autonomous driving function, but also a function provided by a navigation system or an audio system provided inside the autonomous driving vehicle 100b.
  • the robot 100a interacting with the autonomous vehicle 100b may provide information or assist a function to the autonomous vehicle 100b from outside the autonomous vehicle 100b.
  • the robot 100a may provide traffic information including signal information to the autonomous vehicle 100b, such as a smart traffic light, or interact with the autonomous vehicle 100b, such as an automatic electric charger for an electric vehicle.
  • An electric charger can also be automatically connected to the charging port.
  • the robot 100a is applied with AI technology and XR technology, and can be implemented as a guide robot, a transport robot, a cleaning robot, a wearable robot, an entertainment robot, a pet robot, an unmanned flying robot, and a drone.
  • the robot 100a to which XR technology is applied may mean a robot that is a target of control/interaction within an XR image.
  • the robot 100a is separated from the XR device 100c and can be interlocked with each other.
  • the robot 100a which is the object of control/interaction within an XR image, acquires sensor information from sensors including a camera
  • the robot 100a or the XR device 100c generates an XR image based on the sensor information.
  • the XR device 100c may output the generated XR image.
  • the robot 100a may operate based on a control signal input through the XR device 100c or a user's interaction.
  • the user can check the XR image corresponding to the viewpoint of the robot 100a remotely linked through an external device such as the XR device 100c, and adjust the autonomous driving path of the robot 100a through interaction or , You can control the operation or driving, or check the information of the surrounding objects.
  • the autonomous vehicle 100b may be implemented with a mobile robot, a vehicle, or an unmanned aerial vehicle by applying AI technology and XR technology.
  • the autonomous driving vehicle 100b to which the XR technology is applied may mean an autonomous driving vehicle having a means for providing an XR image or an autonomous driving vehicle that is a target of control/interaction within an XR image.
  • the autonomous vehicle 100b which is the object of control/interaction within the XR image, is distinguished from the XR device 100c and can be interlocked with each other.
  • the autonomous vehicle 100b having a means for providing an XR image may acquire sensor information from sensors including a camera and output an XR image generated based on the acquired sensor information.
  • the autonomous vehicle 100b may provide an XR object corresponding to a real object or an object on the screen to the occupant by outputting an XR image with a HUD.
  • the XR object when the XR object is output to the HUD, at least a portion of the XR object may be output so as to overlap with an actual object facing the occupant's gaze.
  • the XR object when the XR object is output to a display provided inside the autonomous vehicle 100b, at least a part of the XR object may be output to overlap with an object in the screen.
  • the autonomous vehicle 100b may output XR objects corresponding to objects such as lanes, other vehicles, traffic lights, traffic signs, two-wheeled vehicles, pedestrians, buildings, and the like.
  • the autonomous vehicle 100b which is the object of control/interaction within the XR image, acquires sensor information from sensors including the camera, the autonomous vehicle 100b or the XR device 100c is based on the sensor information.
  • the XR image is generated, and the XR device 100c may output the generated XR image.
  • the autonomous vehicle 100b may operate based on a user's interaction or a control signal input through an external device such as the XR device 100c.
  • FIG 4 shows an AI device 100 according to an embodiment of the present disclosure.
  • the input unit 120 includes a camera for inputting a video signal (Camera, 121), a microphone for receiving an audio signal (Microphone, 122), and a user input unit for receiving information from a user (User Input Unit, 123).
  • the voice data or image data collected by the input unit 120 may be analyzed and processed by a user's control command.
  • the input unit 120 is for input of image information (or signals), audio information (or signals), data, or information input from a user.
  • the AI device 100 may include one or more Cameras 121 may be provided.
  • the camera 121 processes image frames such as still images or moving pictures obtained by an image sensor in a video call mode or a shooting mode.
  • the processed image frame may be displayed on the display unit 151 or stored in the memory 170.
  • the microphone 122 processes external sound signals as electrical voice data.
  • the processed voice data may be variously used according to a function (or a running application program) performed by the AI device 100. Meanwhile, various noise removal algorithms may be applied to the microphone 122 to remove noise generated in the process of receiving an external sound signal.
  • the user input unit 123 is for receiving information from a user.
  • the processor 180 may control the operation of the AI device 100 to correspond to the input information. .
  • the user input unit 123 is a mechanical input means (or a mechanical key, for example, a button located on the front/rear or side of the terminal 100, a dome switch, a jog wheel, a jog switch, etc.) and It may include a touch input means.
  • the touch-type input means is made of a virtual key, a soft key or a visual key displayed on the touch screen through software processing, or a part other than the touch screen It may be made of a touch key (touch key) disposed on.
  • the output unit 150 includes at least one of a display unit 151, a sound output unit 152, a haptic module 153, and an optical output unit 154. can do.
  • the display unit 151 displays (outputs) information processed by the AI device 100.
  • the display unit 151 may display execution screen information of an application program driven by the AI device 100, or UI (User Interface) or GUI (Graphic User Interface) information according to the execution screen information.
  • UI User Interface
  • GUI Graphic User Interface
  • the display unit 151 may form a mutual layer structure with the touch sensor or may be integrally formed, thereby realizing a touch screen.
  • the touch screen may function as a user input unit 123 that provides an input interface between the AI device 100 and a user, and at the same time, provide an output interface between the terminal 100 and the user.
  • the audio output unit 152 may output audio data received from the communication unit 110 or stored in the memory 170 in a call signal reception, call mode or recording mode, voice recognition mode, broadcast reception mode, or the like.
  • the audio output unit 152 may include at least one of a receiver, a speaker, and a buzzer.
  • the haptic module 153 generates various tactile effects that the user can feel.
  • a typical example of the tactile effect generated by the haptic module 153 may be vibration.
  • the light output unit 154 outputs a signal for notifying the occurrence of an event using the light of the light source of the AI device 100.
  • Examples of events generated in the AI device 100 may include receiving messages, receiving call signals, missed calls, alarms, schedule notifications, receiving emails, and receiving information through applications.
  • Time Interval 5 is a view defining a possible relationship between a conventional time interval (Time Interval).
  • FIG. 5 a table 500 illustrating a time relationship theory indicating that a situation including time is defined by 13 relationships is shown.
  • Table 500 is a Time Interval Algebra theory proposed by Allen, indicating that the time relationship in all situations is represented by 13 interval relationships.
  • Each of the 13 relationships represents a possible relationship between two time intervals.
  • the first relationship 501 and the second relationship 502 represent situations where X occurs before Y.
  • Y may represent a time interval from 10:45 am to 11 am.
  • X represents a situation where the first electric vehicle is reserved for charging from 10 am to 10:30 am on December 25, 2018, and Y is the second electricity This may indicate that the car is scheduled for charging from 10:45 am to 11:00 am on December 25, 2018.
  • the third relationship 503 and the fourth relationship 504 represent situations where X meets Y. That is, the third relationship 503 and the fourth relationship 504 represent a situation in which Y occurs immediately after X occurs.
  • the fifth relationship 505 and the sixth relationship 506 represent situations where X and Y overlap each other.
  • the seventh relationship 507 and the eighth relationship 508 represent situations where X starts Y. That is, the seventh relationship 507 and the eighth relationship 508 indicate a situation in which X and Y occur simultaneously, and Y persists even after X ends.
  • the ninth relationship 509 and the tenth relationship 510 represent a situation in which X occurs during Y.
  • the eleventh relationship 511 and the twelfth relationship 512 indicate a situation in which X ends Y. That is, the eleventh relationship 511 and the twelfth relationship 512 represent a situation in which Y occurs first, then X occurs, and X and Y end simultaneously.
  • the thirteenth relationship 513 represents the same situation as X and Y.
  • the first to thirteenth relationships 501 to 513 may be applied to scheduling a reservation for charging of an electric vehicle.
  • 6 to 7D are diagrams for explaining a process of performing charging reservation scheduling of an electric vehicle for six time interval relationships using three charging points according to an embodiment of the present disclosure.
  • the charging point (CP) may be a charging device capable of charging an electric vehicle.
  • the first relationship 501 and the second relationship 502 are assigned to the first charging point CP1, and the third relationship 503 and the fourth relationship 504 are second charging points It is assumed that it is assigned to (CP2), and the fifth relationship 505 and the sixth relationship 506 are assigned to the third charging point CP3.
  • the first to sixth relationships 501 to 506 may be divided into a total of four time periods T1, T2, T3, and T4.
  • the first charging point CP1 does not charge the electric vehicle. That is, an idle time may be generated during T2 and T3 with respect to the first charging point CP1.
  • the third charging point CP3 cannot repeatedly charge the two electric vehicles according to the fifth relationship 505 and the sixth relationship 506.
  • a charging reservation may be allocated using the idle first charging point CP1.
  • the processor 180 of the artificial intelligence device 100 may schedule the first charging point CP1 to charge the first electric vehicle 701 during T1.
  • a schedule in which the first charging point CP1 charges the first electric vehicle 701 is called reservation 1.
  • reservation 2 a schedule in which the second charging point CP2 charges the second electric vehicle 702 is called reservation 2.
  • reservation 3 a schedule in which the third charging point CP3 charges the third electric vehicle 703 is called reservation 3.
  • the first charging point CP1 may be scheduled to charge the fourth electric vehicle 704. This is called Reservation 4.
  • reservation T 4 may be allocated to T1 and T3 after T1 has passed to the first charging point CP1.
  • reservation 5 may be assigned to the second charging point CP2.
  • the fifth reservation may indicate that the fifth electric vehicle 705 is scheduled to be charged through the second charging point CP2 during T3 and T4.
  • the third charging point CP3 may be assigned a reservation 6 scheduled to charge the sixth electric vehicle 706.
  • reservation 3 may be allocated from T1 to T3 in the third charging point CP3, and reservation 6 may be allocated during T4.
  • the processor 180 of the AI device 100 may schedule a charging reservation to receive six reservations during T1 to T4 using three charging points.
  • the processor 180 of the AI device 100 or the processor 260 of the AI server 200 may schedule charging of electric vehicles as described above.
  • the three charging points are scheduled to occupy the charging of the electric vehicle without idle time, so that the charging points can be used more efficiently.
  • 8 to 9D are diagrams illustrating a process of scheduling a charging reservation through 10 charging points for 13 time interval relationships according to an embodiment of the present disclosure.
  • FIGS. 8 to 9D are diagrams illustrating a process of scheduling a charge reservation through seven charging points for the remaining relationships not covered in the embodiments of FIGS. 6 to 7D.
  • the seventh relationship 507 to the thirteenth relationship 513 may be divided into four time periods T5, T6, T7, and T8.
  • a seventh relationship 507 is assigned to the fourth charging point CP4, an eleventh relationship 511 is assigned to the fifth charging point CP5, and an eighth relationship (to the sixth charging point CP6) 508).
  • the ninth relationship 509 and the tenth relationship 510 are assigned to the seventh charging point CP7.
  • the twelfth relationship 512 is assigned to the eighth charging point CP8.
  • a thirteenth relationship 513 is assigned to the ninth charging point CP9 and the tenth charging point CP10.
  • the seventh charging point CP7 overlaps the section of Y during the section of X, and cannot process two reservations during the section of X. That is, the seventh charging point CP7 must exclusively process the reservation for the period of Y.
  • some periods of the time periods corresponding to the ninth relationship 509 may be allocated to the fifth charging point CP5, and the remaining periods may be allocated to the fourth charging point CP4.
  • reservation 7 a schedule in which the fourth charging point CP4 charges the seventh electric vehicle 707 is called reservation 7.
  • reservation 10 a schedule in which the sixth charging point CP6 charges the tenth electric vehicle 710 is called reservation 10.
  • reservation 11 a schedule in which the seventh charging point CP7 charges the eleventh electric vehicle is called reservation 11.
  • reservation 12 a schedule in which the eighth charging point CP8 charges the twelfth electric vehicle is called reservation 12.
  • reservation 13 the schedule in which the ninth charging point CP9 charges the thirteenth electric vehicle is called reservation 13.
  • reservation 14 a schedule in which the tenth charging point CP10 charges the fourteenth electric vehicle is called reservation 14.
  • charging points are not assigned to the time periods T6 and T7 corresponding to the ninth relationship 509.
  • the processor 180 may allocate a fifth charging point CP5 that is idle for charging reservation during T6. That is, during T6, the schedule in which the fifth charging point CP5 charges the eighth electric vehicle 708 is called reservation 8(1).
  • the processor 180 may allocate an idle fourth charging point CP4 during T7. That is, during T7, the schedule in which the fourth charging point CP4 charges the eighth electric vehicle 708 is called reservation 8(2).
  • the eighth electric vehicle 708 corresponding to the reservation 8 may be charged through two charging points during the charging period.
  • the eighth electric vehicle 708 may be charged using the fifth charging point CP5 during T6, and may be charged using the fourth charging point CP4 during T7.
  • the artificial intelligence device 100 or the AI server 200 that manages the charging schedule may include a switch to switch the charging point.
  • the artificial intelligence device 100 or the AI server 200 supplies power to the eighth electric vehicle 708 through the fifth charging point CP5 during T6, and then, at the start of T7, the fifth charging point
  • the switch can be controlled to switch (CP5) to the fourth charging point (CP4).
  • the fifth charging point CP5 is scheduled to process reservation 8(1). Thereafter, when the start point of T7 arrives, as shown in FIG. 9C, the fourth charging point CP4 is scheduled to process reservation 8(2), and the fifth charging point CP5 is scheduled to process reservation 9 Can.
  • a switch for switching the charging point may be disposed between the fourth charging point CP4 and the fifth charging point CP5.
  • the fifth charging point CP5 may be scheduled to continue processing of reservation 9.
  • the idle time of each charging point is minimized, and the charging occupancy time is increased, so that charging reservations can be efficiently scheduled.
  • FIG. 10 is a diagram illustrating a chargeable time slot for 13 time interval relationships according to an embodiment of the present disclosure.
  • Time slots corresponding to each relationship are numbered 1 to 14.
  • FIG. 11 is a diagram for explaining a process of setting a charging schedule by allocating 14 time slots of FIG. 10 through 10 charging points according to an embodiment of the present disclosure.
  • FIG. 11 is a diagram illustrating one or more time slots allocated to each charging point according to the electric vehicle charging scheduling of FIGS. 6 to 9D.
  • the charging reservation scheduling model may be a model that allocates 14 time slots represented by 13 time interval relationships to a predetermined number of charging points.
  • the charging reservation scheduling model is a model for scheduling a charging reservation by allocating 14 time slots to a predetermined number of charging points to minimize the idle time of the preset number of charging points and maximize the charging occupancy time.
  • the charging reservation scheduling model may be stored in the memory 170 of the artificial intelligence device 100 or the AI server 200.
  • FIG. 11 shows the result of assigning 14 time slots to each charging point when there are 10 charging points.
  • the result may be the output of the charging reservation scheduling model.
  • the charging reservation scheduling model may be a model that outputs a result of allocating time slots to each charging point when the number of charging points is input.
  • 11 shows a result of assigning time slots to each charging point in units of 1 hour.
  • Each time slot may represent a time interval during which charging is possible. Each time slot can be used later in the process of the user making a reservation for charging.
  • a first time slot 1101 and a fourth time slot 1104 are assigned to the first charging point CP1.
  • the first time slot 1101 has an interval of 20 minutes
  • the fourth time slot 1104 has an interval of 40 minutes.
  • a second time slot 1102 and a fifth time slot 1105 may be allocated to the second charging point CP2.
  • Each of the second time slot 1102 and the fifth time slot 1105 has an interval of 30 minutes.
  • a third time slot 1103 and a sixth time slot 1106 may be allocated to the third charging point CP3.
  • the third time slot 1103 may have an interval of 40 minutes, and the sixth time slot 1106 may have an interval of 20 minutes.
  • Some slots of the seventh time slot 1107 and the eighth time slot 1108 may be allocated to the fourth charging point CP4.
  • the seventh time slot 1107 may have an interval of 30 minutes, and some slots of the eighth time slot 1108 may have an interval of 10 minutes.
  • Some slots of the eighth time slot 1108 and the ninth time slot 1109 may be allocated to the fifth charging point CP5.
  • Each of the tenth to fourteenth time slots 1110 to 1114 may be allocated to each of the sixth to tenth charging points CP6 to CP10.
  • 12 is a diagram for explaining a summary result in which 14 time slots are allocated to each charging point when there are 10 charging points.
  • FIG. 12 shows the time slots of FIG. 11 more abbreviatedly. That is, some time slots may overlap.
  • each of the second charging point CP2, the fourth charging point CP4, and the fifth charging point CP5 is assigned time slots 1102, 1107, 1105, and 1109 having the same time interval.
  • FIG. 12 may be provided to the user in the form of a UI, and the user may select a time slot and proceed with charging of the electric vehicle. This will be described later.
  • FIG. 13 is a flowchart illustrating an operation method of an artificial intelligence device according to an embodiment of the present disclosure.
  • FIG. 13 is a diagram for explaining a process of performing charging reservation of an electric vehicle through an artificial intelligence device.
  • the processor 180 of the artificial intelligence device 100 displays a charging reservation input screen through the display unit 151 (S1301).
  • the charging reservation input screen may be a screen provided for charging reservation of the electric vehicle.
  • the artificial intelligence device 100 may be equipped with a charging reservation application.
  • the processor 180 may receive an execution command of the charging reservation application, and display a charging reservation input screen on the display unit 151 according to the received execution command.
  • the charging reservation input screen will be described with reference to FIG. 14.
  • FIG 14 shows an example of a charging reservation input screen according to an embodiment of the present disclosure.
  • the artificial intelligence device 100 will be described as an example of a user's mobile terminal.
  • the display unit 151 of the artificial intelligence device 100 may display the charging reservation input screen 1400 on the display unit 151.
  • the charging reservation input screen 1400 may be a UI screen that allows a user to input information required for charging reservation of an electric vehicle.
  • the charging reservation input screen 1400 includes a battery state information item 1410 of an electric vehicle owned by a user, a charging time setting item 1420, an item 1430, a charging type setting item 1440, and a search button 1450 It may include.
  • the battery state information item 1410 of the electric vehicle may be an item indicating the state of the battery provided in the user's electric vehicle.
  • the battery status information item 1410 may include an amount of charge of the battery, an estimated time required for rapid charging, and an expected time required for normal (or slow) charging.
  • the artificial intelligence device 100 may perform wireless communication with the electric vehicle through the communication interface 110 and receive battery status information from the electric vehicle.
  • the charging time setting item 1420 may be an item for setting a charging time zone desired by the user. The user can select a desired time zone for charging the electric vehicle through the charging time setting item 1420.
  • the charging station item 1430 may be an item for setting a charging station for charging an electric vehicle.
  • the charging station item 1430 may provide the charging station located closest to the default based on the current location of the artificial intelligence device 100.
  • the charging type setting item 1440 may be an item for setting either a fast charging type capable of charging an electric vehicle at a high speed or a slow charging type capable of charging an electric vehicle at a normal speed.
  • the search button 1450 may be a button for searching a charging time zone set through the charging time setting item 1420 at a charging station set through the charging station item 1430.
  • FIG. 13 will be described.
  • the processor 180 receives the charge reservation input information (S1303), and according to the received charge reservation input information, charge reservation Scheduling Based on the model, the charge reservation screen including the charge reservation information is displayed. Display section Displayed on (151) (S1305).
  • the charging reservation input information may include a charging time zone input through the charging time setting item 1420, a charging station set through the charging station item 1430, and a type of charging shown in FIG. 14.
  • the processor 180 may acquire charging reservation information in response to receiving the charging reservation input information, and display a charging reservation screen including the obtained charging reservation information on the display unit 151.
  • the processor 180 may obtain charging reservation information based on the charging reservation input information and the charging reservation scheduling model.
  • the charging reservation information may include one or more charging stations capable of charging an electric vehicle and a charging timetable provided by one or more charging stations.
  • the charging reservation scheduling model may be a model that allocates 14 time slots represented by 13 time interval relationships described in FIGS. 5 to 9D to a predetermined number of charging points.
  • the chargeable timetable may be a timetable indicating availability of 14 time slots.
  • 15 is a view illustrating a charging reservation screen for providing charging reservation information according to an embodiment of the present disclosure.
  • the charge reservation screen 1500 may include an available timetable 1510 of a charger for charging an electric vehicle, a chargeable reservation charging station item 1530 and a reservation button 1550.
  • the available timetable 1510 of the charger may be a table corresponding to one or more time slots for each of the plurality of charging points generated by the charging reservation scheduling model.
  • the charging reservation available charging station item 1530 may include a charging station input by the charging station item 1430 and another charging station located closest to the input charging station.
  • the reason for considering charging points of other charging stations is that the number of charging points provided in the charging station set by the user may not be 10.
  • the processor 180 may be different. By searching for a charging point provided in a charging station, 10 charging points can be obtained.
  • the processor 180 may allocate one or more of the 14 time slots to each of the 10 charging points CP1 to CP10, and display the allocation result.
  • the available timetable 1510 of the charger shows one or more time slots allocated to each of a total of 10 charging points provided in two charging stations.
  • Each of the time slots A-1, B-2, C-1, C-2, and E1 of the first color may represent a time period during which charging is possible at a charging point provided in the first charging station.
  • the first charging station may be a charging station set by a user through a charging reservation input.
  • the second color time slot A-2 may indicate a time period during which charging is possible at a charging point provided in the second charging station.
  • Each of the third color time slots B-1 and D-1 may indicate that charging is not possible.
  • the processor 180 may generate a charger usable timetable 1510 by using a chargeable time zone and a charge reservation scheduling model included in the charge reservation input information.
  • the processor 180 may generate a charger usable timetable 1510 using information about a chargeable time zone included in the charging reservation input information, a charging reservation scheduling model, and a charging point received from one or more charging stations.
  • the processor 180 may receive information about a charging point from one or more charging stations through the communication interface 110.
  • the information about the charging point may include whether the charging point can be charged in the charging time zone included in the charging reservation input information, the identifier of the charging point (or the charging station identifier).
  • the processor 180 may allocate one or more of the 14 time slots to each of the 10 charging points by using a chargeable time zone and a charging reservation scheduling model.
  • the processor 180 may determine the source (charge station) of each time slot and whether or not charging is possible in each time slot, using information on a charging point received from one or more charging stations.
  • the processor 180 may reflect the determination result in the charger usable timetable 1510.
  • the processor 180 receives the reservation command (S1307), and in response to the received reservation command, the reservation result Display section It is displayed on the (151) (S1309).
  • the processor 180 After the time slot B-2 shown in FIG. 15 is selected and the reservation command for selecting the reservation button 1550 is received, the processor 180 displays the charging reservation result of the electric vehicle on the display unit 151. Can be displayed.
  • 16 is a view for providing an electric vehicle charging reservation result according to an embodiment of the present disclosure.
  • the display unit 151 of the artificial intelligence device 100 may display the charging reservation result 1600.
  • the charging reservation result 1600 may include one or more of a charging reservation date, a reservation number, a charging reservation time zone, a name of a refueling * charging station, a name of a charger, a charging type, a map indicating the location of the charging station, and an image of the charger.
  • the user can schedule the charging reservation of the electric vehicle with only a simple input. Accordingly, the user's charging reservation process is simplified, and convenience can be greatly improved.
  • the charging points provided in each charging station have a minimum idle time, so that the use efficiency of the charging point can be maximized.
  • the present disclosure described above can be embodied as computer readable codes on a medium in which a program is recorded.
  • the computer-readable medium includes all kinds of recording devices in which data readable by a computer system is stored. Examples of computer-readable media include a hard disk drive (HDD), solid state disk (SSD), silicon disk drive (SDD), ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage device. There is this.
  • the computer may include a processor 180 of an artificial intelligence device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Resources & Organizations (AREA)
  • General Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Power Engineering (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • Software Systems (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Operations Research (AREA)
  • Development Economics (AREA)
  • Quality & Reliability (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Educational Administration (AREA)
  • Game Theory and Decision Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Computational Mathematics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Algebra (AREA)

Abstract

본 개시의 일 실시 예에 따른 인공 지능 장치는 전기 자동차의 충전 예약을 위한 예약 입력 정보를 수신하고, 수신된 예약 입력 정보 및 충전 예약 스케쥴링 모델에 기반하여, 복수의 충전기들 각각의 사용 가능 시간대 또는 사용 불가능 시간대를 나타내는 충전기 사용 가능 시간표를 표시하고, 상기 충전기 사용 가능 시간표는 복수의 충전기들 각각에 대한 하나 이상의 시간 슬롯을 대응시킨 표일 수 있다.

Description

인공 지능 장치 및 그의 동작 방법
본 개시는 인공 지능 장치에 관한 것으로, 보다 상세하게는 전기 자동차의 충전 예약 스케쥴링을 위한 것이다.
일반적으로 자동차를 움직이기 위한 구동 에너지는 화석 연료를 연소시킴으로써 얻어진다. 이와 달리 구동 에너지를 전기 에너지로 이용하는 자동차가 전기차이다.
전기차는 화석 연료를 연소시키지 않기 때문에 배기가스 발생이 전혀 없으며 소음이 적다는 장점을 갖는다.
이러한 전기차는 전기 에너지를 이용하여 구동하기 때문에 내부에 전기 에너지를 제공하기 위한 배터리가 구비되어야 하는데, 최근 들어 전기차가 개발됨에 따라 전기차의 배터리를 충전하기 위한 충전기가 특정 위치에 구비되고 있다.
지금까지 개발된 충전기 안내 시스템에서는 전기차 사용자에게 충전기의 위치 정보를 안내하여 전기차 사용자가 가까운 충전기를 찾아 충전할 수 있도록 한다.
그러나, 종래기술에 따르면 충전기 위치 정보를 이용하여 충전기 위치를 확인하고, 전기차 충전을 위해 에 도착했을 때 다른 차량이 먼저 충전 중이면 다른 차량의 충전이 완료될 때까지 기다려야 하는 문제가 발생한다.
특히, 보통의 전기차는 방전된 상태에서 완충까지 상당한 시간이 걸리기 때문에 먼저 충전 중인 차량이 있는 경우 기다리게 되는 상황이 발생한다.
또한, 충전기의 사용여부 정보를 안내받는 경우에도 충전기를 언제부터 사용할 수 있는지 알 수 없기 때문에 해당 충전기의 사용가능 정보를 확인할 때까지 마찬가지로 기다려야 하는 문제가 발생한다.
본 개시는 사용자의 편의를 고려하여, 전기 자동차의 충전 예약을 스케쥴링할 수 있도록 하는 것을 목적으로 한다.
본 개시는 충전기의 유휴 시간을 최소화하고, 충전 점유 시간을 증대시킬 수 있도록 하는 것을 목적으로 한다.
본 개시의 일 실시 예에 따른 인공 지능 장치는 전기 자동차의 충전 예약을 위한 예약 입력 정보를 수신하고, 수신된 예약 입력 정보 및 충전 예약 스케쥴링 모델에 기반하여, 복수의 충전기들 각각의 사용 가능 시간대 또는 사용 불가능 시간대를 나타내는 충전기 사용 가능 시간표를 표시하고, 상기 충전기 사용 가능 시간표는 복수의 충전기들 각각에 대한 하나 이상의 시간 슬롯을 대응시킨 표일 수 있다.
상기 충전기 사용 가능 시간표에 포함된 각 시간 슬롯은 충전기의 출처, 사용자가 입력한 충전 시간대에 충전의 가능 여부를 나타낼 수 있다.
상기 프로세서는 충전기에 대한 정보를 이용하여, 각 시간 슬롯의 출처, 각 시간 슬롯에서, 충전의 가능 여부를 결정하고, 결정 결과에 따라 상기 충전기 사용 가능 시간표를 생성할 수 있다.
본 개시의 실시 예에 따르면, 사용자는 간단한 입력만으로도, 전기 자동차의 충전 예약을 스케쥴링할 수 있다. 이에 따라, 사용자의 충전 예약 과정이 간편해져, 편의성이 크게 향상될 수 있다.
각 에 구비된 충전 포인트들은 유휴 시간이 최소화되어, 충전 포인트의 사용 효율이 극대화될 수 있다.
도 1은 본 개시의 일 실시 예에 따른 AI 장치를 나타낸다.
도 2는 본 개시의 일 실시 예에 따른 AI 서버를 나타낸다.
도 3은 본 개시의 일 실시 예에 따른 AI 시스템을 나타낸다.
도 4는 본 개시의 또 다른 실시 예에 따른 AI 장치를 나타낸다.
도 5는 종래의 시간 간격(Time Interval) 사이의 가능한 관계를 정의한 도면이다.
도 6 내지 도 7d는 본 개시의 실시 예에 따라, 3개의 충전 포인트들을 이용하여, 6개의 시간 간격 관계들에 대해 전기 자동차의 충전 예약 스케쥴링을 수행하는 과정을 설명하는 도면이다.
도 8 내지 도 9d는 본 개시의 실시 예에 따라 13개의 시간 간격 관계들에 대해 10개의 충전 포인트들을 통해 충전 예약을 스케쥴링하는 과정을 설명하는 도면이다.
도 10은 본 개시의 실시 예에 따라 13개의 시간 간격 관계들에 대해 충전 가능 시간 슬롯을 도식화한 도면이다.
도 11은 본 개시의 실시 예에 따라, 10개의 충전 포인트를 통해 도 10의 14개의 시간 슬롯들을 할당하여 충전 스케쥴을 설정하는 과정을 설명하는 도면이다.
도 12는 10개의 충전 포인트들이 존재하는 경우, 14개의 시간 슬롯들이 각 충전 포인트에 할당된 요약 결과를 설명하는 도면이다.
도 13은 본 개시의 실시 예에 따른 인공 지능 장치의 동작 방법을 설명하는 흐름도이다.
도 14는 본 개시의 일 실시 예에 따른 충전 예약 입력 화면의 예를 보여준다.
도 15는 본 개시의 실시 예에 따른 충전 예약 정보를 제공하기 위한 충전 예약 화면을 설명하는 도면이다.
도 16은 본 개시의 실시 예에 따라 전기 자동차의 충전 예약 결과를 제공하는 도면이다.
<인공 지능(AI: Artificial Intelligence)>
인공 지능은 인공적인 지능 또는 이를 만들 수 있는 방법론을 연구하는 분야를 의미하며, 머신 러닝(기계 학습, Machine Learning)은 인공 지능 분야에서 다루는 다양한 문제를 정의하고 그것을 해결하는 방법론을 연구하는 분야를 의미한다. 머신 러닝은 어떠한 작업에 대하여 꾸준한 경험을 통해 그 작업에 대한 성능을 높이는 알고리즘으로 정의하기도 한다.
인공 신경망(ANN: Artificial Neural Network)은 머신 러닝에서 사용되는 모델로써, 시냅스의 결합으로 네트워크를 형성한 인공 뉴런(노드)들로 구성되는, 문제 해결 능력을 가지는 모델 전반을 의미할 수 있다. 인공 신경망은 다른 레이어의 뉴런들 사이의 연결 패턴, 모델 파라미터를 갱신하는 학습 과정, 출력값을 생성하는 활성화 함수(Activation Function)에 의해 정의될 수 있다.
인공 신경망은 입력층(Input Layer), 출력층(Output Layer), 그리고 선택적으로 하나 이상의 은닉층(Hidden Layer)를 포함할 수 있다. 각 층은 하나 이상의 뉴런을 포함하고, 인공 신경망은 뉴런과 뉴런을 연결하는 시냅스를 포함할 수 있다. 인공 신경망에서 각 뉴런은 시냅스를 통해 입력되는 입력 신호들, 가중치, 편향에 대한 활성 함수의 함숫값을 출력할 수 있다.
모델 파라미터는 학습을 통해 결정되는 파라미터를 의미하며, 시냅스 연결의 가중치와 뉴런의 편향 등이 포함된다. 그리고, 하이퍼파라미터는 머신 러닝 알고리즘에서 학습 전에 설정되어야 하는 파라미터를 의미하며, 학습률(Learning Rate), 반복 횟수, 미니 배치 크기, 초기화 함수 등이 포함된다.
인공 신경망의 학습의 목적은 손실 함수를 최소화하는 모델 파라미터를 결정하는 것으로 볼 수 있다. 손실 함수는 인공 신경망의 학습 과정에서 최적의 모델 파라미터를 결정하기 위한 지표로 이용될 수 있다.
머신 러닝은 학습 방식에 따라 지도 학습(Supervised Learning), 비지도 학습(Unsupervised Learning), 강화 학습(Reinforcement Learning)으로 분류할 수 있다.
지도 학습은 학습 데이터에 대한 레이블(label)이 주어진 상태에서 인공 신경망을 학습시키는 방법을 의미하며, 레이블이란 학습 데이터가 인공 신경망에 입력되는 경우 인공 신경망이 추론해 내야 하는 정답(또는 결과 값)을 의미할 수 있다. 비지도 학습은 학습 데이터에 대한 레이블이 주어지지 않는 상태에서 인공 신경망을 학습시키는 방법을 의미할 수 있다. 강화 학습은 어떤 환경 안에서 정의된 에이전트가 각 상태에서 누적 보상을 최대화하는 행동 혹은 행동 순서를 선택하도록 학습시키는 학습 방법을 의미할 수 있다.
인공 신경망 중에서 복수의 은닉층을 포함하는 심층 신경망(DNN: Deep Neural Network)으로 구현되는 머신 러닝을 딥 러닝(심층 학습, Deep Learning)이라 부르기도 하며, 딥 러닝은 머신 러닝의 일부이다. 이하에서, 머신 러닝은 딥 러닝을 포함하는 의미로 사용된다.
<로봇(Robot)>
로봇은 스스로 보유한 능력에 의해 주어진 일을 자동으로 처리하거나 작동하는 기계를 의미할 수 있다. 특히, 환경을 인식하고 스스로 판단하여 동작을 수행하는 기능을 갖는 로봇을 지능형 로봇이라 칭할 수 있다.
로봇은 사용 목적이나 분야에 따라 산업용, 의료용, 가정용, 군사용 등으로 분류할 수 있다.
로봇은 액츄에이터 또는 모터를 포함하는 구동부를 구비하여 로봇 관절을 움직이는 등의 다양한 물리적 동작을 수행할 수 있다. 또한, 이동 가능한 로봇은 구동부에 휠, 브레이크, 프로펠러 등이 포함되어, 구동부를 통해 지상에서 주행하거나 공중에서 비행할 수 있다.
<자율 주행(Self-Driving)>
자율 주행은 스스로 주행하는 기술을 의미하며, 자율 주행 차량은 사용자의 조작 없이 또는 사용자의 최소한의 조작으로 주행하는 차량(Vehicle)을 의미한다.
예컨대, 자율 주행에는 주행중인 차선을 유지하는 기술, 어댑티브 크루즈 컨트롤과 같이 속도를 자동으로 조절하는 기술, 정해진 경로를 따라 자동으로 주행하는 기술, 목적지가 설정되면 자동으로 경로를 설정하여 주행하는 기술 등이 모두 포함될 수 있다.
차량은 내연 기관만을 구비하는 차량, 내연 기관과 전기 모터를 함께 구비하는 하이브리드 차량, 그리고 전기 모터만을 구비하는 전기 차량을 모두 포괄하며, 자동차뿐만 아니라 기차, 오토바이 등을 포함할 수 있다.
이때, 자율 주행 차량은 자율 주행 기능을 가진 로봇으로 볼 수 있다.
<확장 현실(XR: eXtended Reality)>
확장 현실은 가상 현실(VR: Virtual Reality), 증강 현실(AR: Augmented Reality), 혼합 현실(MR: Mixed Reality)을 총칭한다. VR 기술은 현실 세계의 객체나 배경 등을 CG 영상으로만 제공하고, AR 기술은 실제 사물 영상 위에 가상으로 만들어진 CG 영상을 함께 제공하며, MR 기술은 현실 세계에 가상 객체들을 섞고 결합시켜서 제공하는 컴퓨터 그래픽 기술이다.
MR 기술은 현실 객체와 가상 객체를 함께 보여준다는 점에서 AR 기술과 유사하다. 그러나, AR 기술에서는 가상 객체가 현실 객체를 보완하는 형태로 사용되는 반면, MR 기술에서는 가상 객체와 현실 객체가 동등한 성격으로 사용된다는 점에서 차이점이 있다.
XR 기술은 HMD(Head-Mount Display), HUD(Head-Up Display), 휴대폰, 태블릿 PC, 랩탑, 데스크탑, TV, 디지털 사이니지 등에 적용될 수 있고, XR 기술이 적용된 장치를 XR 장치(XR Device)라 칭할 수 있다.
도 1은 본 개시의 일 실시 예에 따른 AI 장치(100)를 나타낸다.
AI 장치(100)는 TV, 프로젝터, 휴대폰, 스마트폰, 데스크탑 컴퓨터, 노트북, 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 태블릿 PC, 웨어러블 장치, 셋톱박스(STB), DMB 수신기, 라디오, 세탁기, 냉장고, 데스크탑 컴퓨터, 디지털 사이니지, 로봇, 차량 등과 같은, 고정형 기기 또는 이동 가능한 기기 등으로 구현될 수 있다.
도 1을 참조하면, 단말기(100)는 통신부(110), 입력부(120), 러닝 프로세서(130), 센싱부(140), 출력부(150), 메모리(170) 및 프로세서(180) 등을 포함할 수 있다.
통신부(110)는 유무선 통신 기술을 이용하여 다른 AI 장치(100a 내지 100e)나 AI 서버(200) 등의 외부 장치들과 데이터를 송수신할 수 있다. 예컨대, 통신부(110)는 외부 장치들과 센서 정보, 사용자 입력, 학습 모델, 제어 신호 등을 송수신할 수 있다.
이때, 통신부(110)가 이용하는 통신 기술에는 GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), LTE(Long Term Evolution), 5G, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), ZigBee, NFC(Near Field Communication) 등이 있다.
입력부(120)는 다양한 종류의 데이터를 획득할 수 있다.
이때, 입력부(120)는 영상 신호 입력을 위한 카메라, 오디오 신호를 수신하기 위한 마이크로폰, 사용자로부터 정보를 입력 받기 위한 사용자 입력부 등을 포함할 수 있다. 여기서, 카메라나 마이크로폰을 센서로 취급하여, 카메라나 마이크로폰으로부터 획득한 신호를 센싱 데이터 또는 센서 정보라고 할 수도 있다.
입력부(120)는 모델 학습을 위한 학습 데이터 및 학습 모델을 이용하여 출력을 획득할 때 사용될 입력 데이터 등을 획득할 수 있다. 입력부(120)는 가공되지 않은 입력 데이터를 획득할 수도 있으며, 이 경우 프로세서(180) 또는 러닝 프로세서(130)는 입력 데이터에 대하여 전처리로써 입력 특징점(input feature)을 추출할 수 있다.
러닝 프로세서(130)는 학습 데이터를 이용하여 인공 신경망으로 구성된 모델을 학습시킬 수 있다. 여기서, 학습된 인공 신경망을 학습 모델이라 칭할 수 있다. 학습 모델은 학습 데이터가 아닌 새로운 입력 데이터에 대하여 결과 값을 추론해 내는데 사용될 수 있고, 추론된 값은 어떠한 동작을 수행하기 위한 판단의 기초로 이용될 수 있다.
이때, 러닝 프로세서(130)는 AI 서버(200)의 러닝 프로세서(240)과 함께 AI 프로세싱을 수행할 수 있다.
이때, 러닝 프로세서(130)는 AI 장치(100)에 통합되거나 구현된 메모리를 포함할 수 있다. 또는, 러닝 프로세서(130)는 메모리(170), AI 장치(100)에 직접 결합된 외부 메모리 또는 외부 장치에서 유지되는 메모리를 사용하여 구현될 수도 있다.
센싱부(140)는 다양한 센서들을 이용하여 AI 장치(100) 내부 정보, AI 장치(100)의 주변 환경 정보 및 사용자 정보 중 적어도 하나를 획득할 수 있다.
이때, 센싱부(140)에 포함되는 센서에는 근접 센서, 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, RGB 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 마이크로폰, 라이다, 레이더 등이 있다.
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시킬 수 있다.
이때, 출력부(150)에는 시각 정보를 출력하는 디스플레이부, 청각 정보를 출력하는 스피커, 촉각 정보를 출력하는 햅틱 모듈 등이 포함될 수 있다.
메모리(170)는 AI 장치(100)의 다양한 기능을 지원하는 데이터를 저장할 수 있다. 예컨대, 메모리(170)는 입력부(120)에서 획득한 입력 데이터, 학습 데이터, 학습 모델, 학습 히스토리 등을 저장할 수 있다.
프로세서(180)는 데이터 분석 알고리즘 또는 머신 러닝 알고리즘을 사용하여 결정되거나 생성된 정보에 기초하여, AI 장치(100)의 적어도 하나의 실행 가능한 동작을 결정할 수 있다. 그리고, 프로세서(180)는 AI 장치(100)의 구성 요소들을 제어하여 결정된 동작을 수행할 수 있다.
이를 위해, 프로세서(180)는 러닝 프로세서(130) 또는 메모리(170)의 데이터를 요청, 검색, 수신 또는 활용할 수 있고, 상기 적어도 하나의 실행 가능한 동작 중 예측되는 동작이나, 바람직한 것으로 판단되는 동작을 실행하도록 AI 장치(100)의 구성 요소들을 제어할 수 있다.
이때, 프로세서(180)는 결정된 동작을 수행하기 위하여 외부 장치의 연계가 필요한 경우, 해당 외부 장치를 제어하기 위한 제어 신호를 생성하고, 생성한 제어 신호를 해당 외부 장치에 전송할 수 있다.
프로세서(180)는 사용자 입력에 대하여 의도 정보를 획득하고, 획득한 의도 정보에 기초하여 사용자의 요구 사항을 결정할 수 있다.
이때, 프로세서(180)는 음성 입력을 문자열로 변환하기 위한 STT(Speech To Text) 엔진 또는 자연어의 의도 정보를 획득하기 위한 자연어 처리(NLP: Natural Language Processing) 엔진 중에서 적어도 하나 이상을 이용하여, 사용자 입력에 상응하는 의도 정보를 획득할 수 있다.
이때, STT 엔진 또는 NLP 엔진 중에서 적어도 하나 이상은 적어도 일부가 머신 러닝 알고리즘에 따라 학습된 인공 신경망으로 구성될 수 있다. 그리고, STT 엔진 또는 NLP 엔진 중에서 적어도 하나 이상은 러닝 프로세서(130)에 의해 학습된 것이나, AI 서버(200)의 러닝 프로세서(240)에 의해 학습된 것이거나, 또는 이들의 분산 처리에 의해 학습된 것일 수 있다.
프로세서(180)는 AI 장치(100)의 동작 내용이나 동작에 대한 사용자의 피드백 등을 포함하는 이력 정보를 수집하여 메모리(170) 또는 러닝 프로세서(130)에 저장하거나, AI 서버(200) 등의 외부 장치에 전송할 수 있다. 수집된 이력 정보는 학습 모델을 갱신하는데 이용될 수 있다.
프로세서(180)는 메모리(170)에 저장된 응용 프로그램을 구동하기 위하여, AI 장치(100)의 구성 요소들 중 적어도 일부를 제어할 수 있다. 나아가, 프로세서(180)는 상기 응용 프로그램의 구동을 위하여, AI 장치(100)에 포함된 구성 요소들 중 둘 이상을 서로 조합하여 동작시킬 수 있다.
도 2는 본 개시의 일 실시 예에 따른 AI 서버(200)를 나타낸다.
도 2를 참조하면, AI 서버(200)는 머신 러닝 알고리즘을 이용하여 인공 신경망을 학습시키거나 학습된 인공 신경망을 이용하는 장치를 의미할 수 있다. 여기서, AI 서버(200)는 복수의 서버들로 구성되어 분산 처리를 수행할 수도 있고, 5G 네트워크로 정의될 수 있다. 이때, AI 서버(200)는 AI 장치(100)의 일부의 구성으로 포함되어, AI 프로세싱 중 적어도 일부를 함께 수행할 수도 있다.
AI 서버(200)는 통신부(210), 메모리(230), 러닝 프로세서(240) 및 프로세서(260) 등을 포함할 수 있다.
통신부(210)는 AI 장치(100) 등의 외부 장치와 데이터를 송수신할 수 있다.
메모리(230)는 모델 저장부(231)를 포함할 수 있다. 모델 저장부(231)는 러닝 프로세서(240)을 통하여 학습 중인 또는 학습된 모델(또는 인공 신경망, 231a)을 저장할 수 있다.
러닝 프로세서(240)는 학습 데이터를 이용하여 인공 신경망(231a)을 학습시킬 수 있다. 학습 모델은 인공 신경망의 AI 서버(200)에 탑재된 상태에서 이용되거나, AI 장치(100) 등의 외부 장치에 탑재되어 이용될 수도 있다.
학습 모델은 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어의 조합으로 구현될 수 있다. 학습 모델의 일부 또는 전부가 소프트웨어로 구현되는 경우 학습 모델을 구성하는 하나 이상의 명령어(instruction)는 메모리(230)에 저장될 수 있다.
프로세서(260)는 학습 모델을 이용하여 새로운 입력 데이터에 대하여 결과 값을 추론하고, 추론한 결과 값에 기초한 응답이나 제어 명령을 생성할 수 있다.
도 3은 본 개시의 일 실시 예에 따른 AI 시스템(1)을 나타낸다.
도 3을 참조하면, AI 시스템(1)은 AI 서버(200), 로봇(100a), 자율 주행 차량(100b), XR 장치(100c), 스마트폰(100d) 또는 가전(100e) 중에서 적어도 하나 이상이 클라우드 네트워크(10)와 연결된다. 여기서, AI 기술이 적용된 로봇(100a), 자율 주행 차량(100b), XR 장치(100c), 스마트폰(100d) 또는 가전(100e) 등을 AI 장치(100a 내지 100e)라 칭할 수 있다.
클라우드 네트워크(10)는 클라우드 컴퓨팅 인프라의 일부를 구성하거나 클라우드 컴퓨팅 인프라 안에 존재하는 네트워크를 의미할 수 있다. 여기서, 클라우드 네트워크(10)는 3G 네트워크, 4G 또는 LTE(Long Term Evolution) 네트워크 또는 5G 네트워크 등을 이용하여 구성될 수 있다.
즉, AI 시스템(1)을 구성하는 각 장치들(100a 내지 100e, 200)은 클라우드 네트워크(10)를 통해 서로 연결될 수 있다. 특히, 각 장치들(100a 내지 100e, 200)은 기지국을 통해서 서로 통신할 수도 있지만, 기지국을 통하지 않고 직접 서로 통신할 수도 있다.
AI 서버(200)는 AI 프로세싱을 수행하는 서버와 빅 데이터에 대한 연산을 수행하는 서버를 포함할 수 있다.
AI 서버(200)는 AI 시스템(1)을 구성하는 AI 장치들인 로봇(100a), 자율 주행 차량(100b), XR 장치(100c), 스마트폰(100d) 또는 가전(100e) 중에서 적어도 하나 이상과 클라우드 네트워크(10)을 통하여 연결되고, 연결된 AI 장치들(100a 내지 100e)의 AI 프로세싱을 적어도 일부를 도울 수 있다.
이때, AI 서버(200)는 AI 장치(100a 내지 100e)를 대신하여 머신 러닝 알고리즘에 따라 인공 신경망을 학습시킬 수 있고, 학습 모델을 직접 저장하거나 AI 장치(100a 내지 100e)에 전송할 수 있다.
이때, AI 서버(200)는 AI 장치(100a 내지 100e)로부터 입력 데이터를 수신하고, 학습 모델을 이용하여 수신한 입력 데이터에 대하여 결과 값을 추론하고, 추론한 결과 값에 기초한 응답이나 제어 명령을 생성하여 AI 장치(100a 내지 100e)로 전송할 수 있다.
또는, AI 장치(100a 내지 100e)는 직접 학습 모델을 이용하여 입력 데이터에 대하여 결과 값을 추론하고, 추론한 결과 값에 기초한 응답이나 제어 명령을 생성할 수도 있다.
이하에서는, 상술한 기술이 적용되는 AI 장치(100a 내지 100e)의 다양한 실시 예들을 설명한다. 여기서, 도 3에 도시된 AI 장치(100a 내지 100e)는 도 1에 도시된 AI 장치(100)의 구체적인 실시 예로 볼 수 있다.
<AI+로봇>
로봇(100a)은 AI 기술이 적용되어, 안내 로봇, 운반 로봇, 청소 로봇, 웨어러블 로봇, 엔터테인먼트 로봇, 펫 로봇, 무인 비행 로봇 등으로 구현될 수 있다.
로봇(100a)은 동작을 제어하기 위한 로봇 제어 모듈을 포함할 수 있고, 로봇 제어 모듈은 소프트웨어 모듈 또는 이를 하드웨어로 구현한 칩을 의미할 수 있다.
로봇(100a)은 다양한 종류의 센서들로부터 획득한 센서 정보를 이용하여 로봇(100a)의 상태 정보를 획득하거나, 주변 환경 및 객체를 검출(인식)하거나, 맵 데이터를 생성하거나, 이동 경로 및 주행 계획을 결정하거나, 사용자 상호작용에 대한 응답을 결정하거나, 동작을 결정할 수 있다.
여기서, 로봇(100a)은 이동 경로 및 주행 계획을 결정하기 위하여, 라이다, 레이더, 카메라 중에서 적어도 하나 이상의 센서에서 획득한 센서 정보를 이용할 수 있다.
로봇(100a)은 적어도 하나 이상의 인공 신경망으로 구성된 학습 모델을 이용하여 상기한 동작들을 수행할 수 있다. 예컨대, 로봇(100a)은 학습 모델을 이용하여 주변 환경 및 객체를 인식할 수 있고, 인식된 주변 환경 정보 또는 객체 정보를 이용하여 동작을 결정할 수 있다. 여기서, 학습 모델은 로봇(100a)에서 직접 학습되거나, AI 서버(200) 등의 외부 장치에서 학습된 것일 수 있다.
이때, 로봇(100a)은 직접 학습 모델을 이용하여 결과를 생성하여 동작을 수행할 수도 있지만, AI 서버(200) 등의 외부 장치에 센서 정보를 전송하고 그에 따라 생성된 결과를 수신하여 동작을 수행할 수도 있다.
로봇(100a)은 맵 데이터, 센서 정보로부터 검출한 객체 정보 또는 외부 장치로부터 획득한 객체 정보 중에서 적어도 하나 이상을 이용하여 이동 경로와 주행 계획을 결정하고, 구동부를 제어하여 결정된 이동 경로와 주행 계획에 따라 로봇(100a)을 주행시킬 수 있다.
맵 데이터에는 로봇(100a)이 이동하는 공간에 배치된 다양한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 예컨대, 맵 데이터에는 벽, 문 등의 고정 객체들과 화분, 책상 등의 이동 가능한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 그리고, 객체 식별 정보에는 명칭, 종류, 거리, 위치 등이 포함될 수 있다.
또한, 로봇(100a)은 사용자의 제어/상호작용에 기초하여 구동부를 제어함으로써, 동작을 수행하거나 주행할 수 있다. 이때, 로봇(100a)은 사용자의 동작이나 음성 발화에 따른 상호작용의 의도 정보를 획득하고, 획득한 의도 정보에 기초하여 응답을 결정하여 동작을 수행할 수 있다.
<AI+자율주행>
자율 주행 차량(100b)은 AI 기술이 적용되어, 이동형 로봇, 차량, 무인 비행체 등으로 구현될 수 있다.
자율 주행 차량(100b)은 자율 주행 기능을 제어하기 위한 자율 주행 제어 모듈을 포함할 수 있고, 자율 주행 제어 모듈은 소프트웨어 모듈 또는 이를 하드웨어로 구현한 칩을 의미할 수 있다. 자율 주행 제어 모듈은 자율 주행 차량(100b)의 구성으로써 내부에 포함될 수도 있지만, 자율 주행 차량(100b)의 외부에 별도의 하드웨어로 구성되어 연결될 수도 있다.
자율 주행 차량(100b)은 다양한 종류의 센서들로부터 획득한 센서 정보를 이용하여 자율 주행 차량(100b)의 상태 정보를 획득하거나, 주변 환경 및 객체를 검출(인식)하거나, 맵 데이터를 생성하거나, 이동 경로 및 주행 계획을 결정하거나, 동작을 결정할 수 있다.
여기서, 자율 주행 차량(100b)은 이동 경로 및 주행 계획을 결정하기 위하여, 로봇(100a)과 마찬가지로, 라이다, 레이더, 카메라 중에서 적어도 하나 이상의 센서에서 획득한 센서 정보를 이용할 수 있다.
특히, 자율 주행 차량(100b)은 시야가 가려지는 영역이나 일정 거리 이상의 영역에 대한 환경이나 객체는 외부 장치들로부터 센서 정보를 수신하여 인식하거나, 외부 장치들로부터 직접 인식된 정보를 수신할 수 있다.
자율 주행 차량(100b)은 적어도 하나 이상의 인공 신경망으로 구성된 학습 모델을 이용하여 상기한 동작들을 수행할 수 있다. 예컨대, 자율 주행 차량(100b)은 학습 모델을 이용하여 주변 환경 및 객체를 인식할 수 있고, 인식된 주변 환경 정보 또는 객체 정보를 이용하여 주행 동선을 결정할 수 있다. 여기서, 학습 모델은 자율 주행 차량(100b)에서 직접 학습되거나, AI 서버(200) 등의 외부 장치에서 학습된 것일 수 있다.
이때, 자율 주행 차량(100b)은 직접 학습 모델을 이용하여 결과를 생성하여 동작을 수행할 수도 있지만, AI 서버(200) 등의 외부 장치에 센서 정보를 전송하고 그에 따라 생성된 결과를 수신하여 동작을 수행할 수도 있다.
자율 주행 차량(100b)은 맵 데이터, 센서 정보로부터 검출한 객체 정보 또는 외부 장치로부터 획득한 객체 정보 중에서 적어도 하나 이상을 이용하여 이동 경로와 주행 계획을 결정하고, 구동부를 제어하여 결정된 이동 경로와 주행 계획에 따라 자율 주행 차량(100b)을 주행시킬 수 있다.
맵 데이터에는 자율 주행 차량(100b)이 주행하는 공간(예컨대, 도로)에 배치된 다양한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 예컨대, 맵 데이터에는 가로등, 바위, 건물 등의 고정 객체들과 차량, 보행자 등의 이동 가능한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 그리고, 객체 식별 정보에는 명칭, 종류, 거리, 위치 등이 포함될 수 있다.
또한, 자율 주행 차량(100b)은 사용자의 제어/상호작용에 기초하여 구동부를 제어함으로써, 동작을 수행하거나 주행할 수 있다. 이때, 자율 주행 차량(100b)은 사용자의 동작이나 음성 발화에 따른 상호작용의 의도 정보를 획득하고, 획득한 의도 정보에 기초하여 응답을 결정하여 동작을 수행할 수 있다.
<AI+ XR >
XR 장치(100c)는 AI 기술이 적용되어, HMD(Head-Mount Display), 차량에 구비된 HUD(Head-Up Display), 텔레비전, 휴대폰, 스마트 폰, 컴퓨터, 웨어러블 디바이스, 가전 기기, 디지털 사이니지, 차량, 고정형 로봇이나 이동형 로봇 등으로 구현될 수 있다.
XR 장치(100c)는 다양한 센서들을 통해 또는 외부 장치로부터 획득한 3차원 포인트 클라우드 데이터 또는 이미지 데이터를 분석하여 3차원 포인트들에 대한 위치 데이터 및 속성 데이터를 생성함으로써 주변 공간 또는 현실 객체에 대한 정보를 획득하고, 출력할 XR 객체를 렌더링하여 출력할 수 있다. 예컨대, XR 장치(100c)는 인식된 물체에 대한 추가 정보를 포함하는 XR 객체를 해당 인식된 물체에 대응시켜 출력할 수 있다.
XR 장치(100c)는 적어도 하나 이상의 인공 신경망으로 구성된 학습 모델을 이용하여 상기한 동작들을 수행할 수 있다. 예컨대, XR 장치(100c)는 학습 모델을 이용하여 3차원 포인트 클라우드 데이터 또는 이미지 데이터에서 현실 객체를 인식할 수 있고, 인식한 현실 객체에 상응하는 정보를 제공할 수 있다. 여기서, 학습 모델은 XR 장치(100c)에서 직접 학습되거나, AI 서버(200) 등의 외부 장치에서 학습된 것일 수 있다.
이때, XR 장치(100c)는 직접 학습 모델을 이용하여 결과를 생성하여 동작을 수행할 수도 있지만, AI 서버(200) 등의 외부 장치에 센서 정보를 전송하고 그에 따라 생성된 결과를 수신하여 동작을 수행할 수도 있다.
<AI+로봇+자율주행>
로봇(100a)은 AI 기술 및 자율 주행 기술이 적용되어, 안내 로봇, 운반 로봇, 청소 로봇, 웨어러블 로봇, 엔터테인먼트 로봇, 펫 로봇, 무인 비행 로봇 등으로 구현될 수 있다.
AI 기술과 자율 주행 기술이 적용된 로봇(100a)은 자율 주행 기능을 가진 로봇 자체나, 자율 주행 차량(100b)과 상호작용하는 로봇(100a) 등을 의미할 수 있다.
자율 주행 기능을 가진 로봇(100a)은 사용자의 제어 없이도 주어진 동선에 따라 스스로 움직이거나, 동선을 스스로 결정하여 움직이는 장치들을 통칭할 수 있다.
자율 주행 기능을 가진 로봇(100a) 및 자율 주행 차량(100b)은 이동 경로 또는 주행 계획 중 하나 이상을 결정하기 위해 공통적인 센싱 방법을 사용할 수 있다. 예를 들어, 자율 주행 기능을 가진 로봇(100a) 및 자율 주행 차량(100b)은 라이다, 레이더, 카메라를 통해 센싱된 정보를 이용하여, 이동 경로 또는 주행 계획 중 하나 이상을 결정할 수 있다.
자율 주행 차량(100b)과 상호작용하는 로봇(100a)은 자율 주행 차량(100b)과 별개로 존재하면서, 자율 주행 차량(100b)의 내부에서 자율 주행 기능에 연계되거나, 자율 주행 차량(100b)에 탑승한 사용자와 연계된 동작을 수행할 수 있다.
이때, 자율 주행 차량(100b)과 상호작용하는 로봇(100a)은 자율 주행 차량(100b)을 대신하여 센서 정보를 획득하여 자율 주행 차량(100b)에 제공하거나, 센서 정보를 획득하고 주변 환경 정보 또는 객체 정보를 생성하여 자율 주행 차량(100b)에 제공함으로써, 자율 주행 차량(100b)의 자율 주행 기능을 제어하거나 보조할 수 있다.
또는, 자율 주행 차량(100b)과 상호작용하는 로봇(100a)은 자율 주행 차량(100b)에 탑승한 사용자를 모니터링하거나 사용자와의 상호작용을 통해 자율 주행 차량(100b)의 기능을 제어할 수 있다. 예컨대, 로봇(100a)은 운전자가 졸음 상태인 경우로 판단되는 경우, 자율 주행 차량(100b)의 자율 주행 기능을 활성화하거나 자율 주행 차량(100b)의 구동부의 제어를 보조할 수 있다. 여기서, 로봇(100a)이 제어하는 자율 주행 차량(100b)의 기능에는 단순히 자율 주행 기능뿐만 아니라, 자율 주행 차량(100b)의 내부에 구비된 네비게이션 시스템이나 오디오 시스템에서 제공하는 기능도 포함될 수 있다.
또는, 자율 주행 차량(100b)과 상호작용하는 로봇(100a)은 자율 주행 차량(100b)의 외부에서 자율 주행 차량(100b)에 정보를 제공하거나 기능을 보조할 수 있다. 예컨대, 로봇(100a)은 스마트 신호등과 같이 자율 주행 차량(100b)에 신호 정보 등을 포함하는 교통 정보를 제공할 수도 있고, 전기 차량의 자동 전기 충전기와 같이 자율 주행 차량(100b)과 상호작용하여 충전구에 전기 충전기를 자동으로 연결할 수도 있다.
<AI+로봇+ XR >
로봇(100a)은 AI 기술 및 XR 기술이 적용되어, 안내 로봇, 운반 로봇, 청소 로봇, 웨어러블 로봇, 엔터테인먼트 로봇, 펫 로봇, 무인 비행 로봇, 드론 등으로 구현될 수 있다.
XR 기술이 적용된 로봇(100a)은 XR 영상 내에서의 제어/상호작용의 대상이 되는 로봇을 의미할 수 있다. 이 경우, 로봇(100a)은 XR 장치(100c)와 구분되며 서로 연동될 수 있다.
XR 영상 내에서의 제어/상호작용의 대상이 되는 로봇(100a)은 카메라를 포함하는 센서들로부터 센서 정보를 획득하면, 로봇(100a) 또는 XR 장치(100c)는 센서 정보에 기초한 XR 영상을 생성하고, XR 장치(100c)는 생성된 XR 영상을 출력할 수 있다. 그리고, 이러한 로봇(100a)은 XR 장치(100c)를 통해 입력되는 제어 신호 또는 사용자의 상호작용에 기초하여 동작할 수 있다.
예컨대, 사용자는 XR 장치(100c) 등의 외부 장치를 통해 원격으로 연동된 로봇(100a)의 시점에 상응하는 XR 영상을 확인할 수 있고, 상호작용을 통하여 로봇(100a)의 자율 주행 경로를 조정하거나, 동작 또는 주행을 제어하거나, 주변 객체의 정보를 확인할 수 있다.
<AI+자율주행+ XR >
자율 주행 차량(100b)은 AI 기술 및 XR 기술이 적용되어, 이동형 로봇, 차량, 무인 비행체 등으로 구현될 수 있다.
XR 기술이 적용된 자율 주행 차량(100b)은 XR 영상을 제공하는 수단을 구비한 자율 주행 차량이나, XR 영상 내에서의 제어/상호작용의 대상이 되는 자율 주행 차량 등을 의미할 수 있다. 특히, XR 영상 내에서의 제어/상호작용의 대상이 되는 자율 주행 차량(100b)은 XR 장치(100c)와 구분되며 서로 연동될 수 있다.
XR 영상을 제공하는 수단을 구비한 자율 주행 차량(100b)은 카메라를 포함하는 센서들로부터 센서 정보를 획득하고, 획득한 센서 정보에 기초하여 생성된 XR 영상을 출력할 수 있다. 예컨대, 자율 주행 차량(100b)은 HUD를 구비하여 XR 영상을 출력함으로써, 탑승자에게 현실 객체 또는 화면 속의 객체에 대응되는 XR 객체를 제공할 수 있다.
이때, XR 객체가 HUD에 출력되는 경우에는 XR 객체의 적어도 일부가 탑승자의 시선이 향하는 실제 객체에 오버랩되도록 출력될 수 있다. 반면, XR 객체가 자율 주행 차량(100b)의 내부에 구비되는 디스플레이에 출력되는 경우에는 XR 객체의 적어도 일부가 화면 속의 객체에 오버랩되도록 출력될 수 있다. 예컨대, 자율 주행 차량(100b)은 차로, 타 차량, 신호등, 교통 표지판, 이륜차, 보행자, 건물 등과 같은 객체와 대응되는 XR 객체들을 출력할 수 있다.
XR 영상 내에서의 제어/상호작용의 대상이 되는 자율 주행 차량(100b)은 카메라를 포함하는 센서들로부터 센서 정보를 획득하면, 자율 주행 차량(100b) 또는 XR 장치(100c)는 센서 정보에 기초한 XR 영상을 생성하고, XR 장치(100c)는 생성된 XR 영상을 출력할 수 있다. 그리고, 이러한 자율 주행 차량(100b)은 XR 장치(100c) 등의 외부 장치를 통해 입력되는 제어 신호 또는 사용자의 상호작용에 기초하여 동작할 수 있다.
도 4는 본 개시의 일 실시 예에 따른 AI 장치(100)를 나타낸다.
도 1과 중복되는 설명은 생략한다.
도 4를 참조하면, 입력부(120)는 영상 신호 입력을 위한 카메라(Camera, 121), 오디오 신호를 수신하기 위한 마이크로폰(Microphone, 122), 사용자로부터 정보를 입력 받기 위한 사용자 입력부(User Input Unit, 123)를 포함할 수 있다.
입력부(120)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어 명령으로 처리될 수 있다.
입력부(120)는 영상 정보(또는 신호), 오디오 정보(또는 신호), 데이터, 또는 사용자로부터 입력되는 정보의 입력을 위한 것으로서, 영상 정보의 입력을 위하여, AI 장치(100)는 하나 또는 복수의 카메라(121)들을 구비할 수 있다.
카메라(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(Display Unit, 151)에 표시되거나 메모리(170)에 저장될 수 있다.
마이크로폰(122)은 외부의 음향 신호를 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 AI 장치(100)에서 수행 중인 기능(또는 실행 중인 응용 프로그램)에 따라 다양하게 활용될 수 있다. 한편, 마이크로폰(122)에는 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 적용될 수 있다.
사용자 입력부(123)는 사용자로부터 정보를 입력 받기 위한 것으로서, 사용자 입력부(123)를 통해 정보가 입력되면, 프로세서(180)는 입력된 정보에 대응되도록 AI 장치(100)의 동작을 제어할 수 있다.
사용자 입력부(123)는 기계식 (mechanical) 입력수단(또는, 메커니컬 키, 예컨대, 단말기(100)의 전/후면 또는 측면에 위치하는 버튼, 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등) 및 터치식 입력수단을 포함할 수 있다. 일 예로서, 터치식 입력수단은, 소프트웨어적인 처리를 통해 터치스크린에 표시되는 가상 키(virtual key), 소프트 키(soft key) 또는 비주얼 키(visual key)로 이루어지거나, 상기 터치스크린 이외의 부분에 배치되는 터치 키(touch key)로 이루어질 수 있다.
출력부(150)는 디스플레이부(Display Unit, 151), 음향 출력부(Sound Output Unit, 152), 햅틱 모듈(Haptic Module, 153), 광 출력부(Optical Output Unit, 154) 중 적어도 하나를 포함할 수 있다.
디스플레이부(151)는 AI 장치(100)에서 처리되는 정보를 표시(출력)한다. 예컨대, 디스플레이부(151)는 AI 장치(100)에서 구동되는 응용 프로그램의 실행화면 정보, 또는 이러한 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보를 표시할 수 있다.
디스플레이부(151)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, AI 장치(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(123)로써 기능함과 동시에, 단말기(100)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.
음향 출력부(152)는 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 통신부(110)로부터 수신되거나 메모리(170)에 저장된 오디오 데이터를 출력할 수 있다.
음향 출력부(152)는 리시버(receiver), 스피커(speaker), 버저(buzzer) 중 적어도 하나 이상을 포함할 수 있다.
햅틱 모듈(haptic module)(153)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(153)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 될 수 있다.
광출력부(154)는 AI 장치(100)의 광원의 빛을 이용하여 이벤트 발생을 알리기 위한 신호를 출력한다. AI 장치(100)에서 발생 되는 이벤트의 예로는 메시지 수신, 호 신호 수신, 부재중 전화, 알람, 일정 알림, 이메일 수신, 애플리케이션을 통한 정보 수신 등이 될 수 있다.
도 5는 종래의 시간 간격(Time Interval) 사이의 가능한 관계를 정의한 도면이다.
도 5를 참조하면, 시간을 포함하는 상황은 13개의 관계들로 정의됨을 나타내는 시간 관계 이론을 설명하는 표(500)가 도시되어 있다.
표(500)는 Allen에 의해 제안된 Time Interval Algebra 이론으로, 모든 상황의 시간 관계는 13개의 간격 관계들로 표현됨을 나타낸다.
13개의 관계들 각각은 2개의 시간 간격 간의 가능한 관계를 나타낸다.
제1 관계(501) 및 제2 관계(502)는 X는 Y 보다 먼저 일어나는 상황을 나타낸다.
예를 들어, X가 오전 10시부터 오전 10시 30분까지의 시간 간격을 나타내는 경우, Y는 오전 10시 45분부터, 오전 11시까지의 시간 간격을 나타낼 수 있다.
이를, 전기 자동차의 충전 예약 스케쥴링에 적용하면, X는 제1 전기 자동차가 2018년 12월 25일의 오전 10시부터, 10시 30분까지 충전 예약이 되어 있는 상황을 나타내고, Y는 제2 전기 자동차가 2018년 12월 25일의 오전 10시 45분부터 오전 11시까지 충전 예약이 되어 있는 상황을 나타낼 수 있다.
제3 관계(503) 및 제4 관계(504)는 X가 Y를 만나는 상황을 나타낸다. 즉, 제3 관계(503) 및 제4 관계(504)는 X가 일어난 직후, Y가 일어나는 상황을 나타낸다.
제5 관계(505) 및 제6 관계(506)는 X와 Y가 서로 겹치는 상황을 나타낸다.
제7 관계(507) 및 제8 관계(508)는 X가 Y를 시작하는 상황을 나타낸다. 즉, 제7 관계(507) 및 제8 관계(508)는 X와 Y가 동시에 일어나고, X가 종료된 후에도, Y가 지속되는 상황을 나타낸다.
제9 관계(509) 및 제10 관계(510)는 Y 동안 X가 일어나는 상황을 나타낸다.
제11 관계(511) 및 제12 관계(512)는 X가 Y를 마치는 상황을 나타낸다. 즉, 제11 관계(511) 및 제12 관계(512)는 Y가 먼저 일어난 후, X가 일어나고, X 및 Y가 동시에 종료하는 상황을 나타낸다.
제13 관계(513)는 X와 Y과 동일한 상황을 나타낸다.
제1 내지 제13 관계(501 내지 513)들은 전기 자동차의 충전 예약 스케쥴링에 적용될 수 있다.
도 6 내지 도 7d는 본 개시의 실시 예에 따라, 3개의 충전 포인트들을 이용하여, 6개의 시간 간격 관계들에 대해 전기 자동차의 충전 예약 스케쥴링을 수행하는 과정을 설명하는 도면이다.
충전 포인트(Charging Point, CP)는 전기 자동차를 충전할 수 있는 충전 장치일 수 있다.
도 6을 참조하면, 제1 관계(501) 및 제2 관계(502)는 제1 충전 포인트(CP1)에 할당되어 있고, 제3 관계(503) 및 제4 관계(504)는 제2 충전 포인트(CP2)에 할당되어 있고, 제5 관계(505) 및 제6 관계(506)는 제3 충전 포인트(CP3)에 할당되어 있음을 가정한다.
제1 내지 제6 관계들(501 내지 506)은 총 4개의 시간 구간들(T1, T2, T3, T4)로 구분될 수 있다.
Allen의 Time Interval Algebra 이론에 따를 경우, 4개의 시간 구간들(T1, T2, T3, T4) 중 T2 및 T3 동안, 제1 충전 포인트(CP1)는 전기 자동차를 충전하지 않게 된다. 즉, 제1 충전 포인트(CP1)에 대해 T2 및 T3 동안 유휴 시간이 발생될 수 있다.
반대로, T2 및 T3 동안, 제3 충전 포인트(CP3)는 제5 관계(505) 및 제6 관계(506)에 따라 2개의 전기 자동차를 중복으로 충전할 수 없다.
따라서, T2 및 T3 동안, 유휴하고 있는 제1 충전 포인트(CP1)를 이용하여, 충전 예약이 할당될 수 있다.
이에 대해, 보다 자세히 설명한다.
도 7a 내지 도 7d를 참조하면, 인공 지능 장치(100)의 프로세서(180)는 T1 동안, 제1 충전 포인트(CP1)가 제1 전기 자동차(701)를 충전하도록 스케쥴링할 수 있다. T1 동안, 제1 충전 포인트(CP1)가 제1 전기 자동차(701)를 충전하는 스케쥴을 예약 1이라 명명한다.
T1 및 T2 동안, 제2 충전 포인트(CP2)가 제2 전기 자동차(702)를 충전하는 스케쥴을 예약 2라 명명한다.
T1 내지 T3 동안, 제3 충전 포인트(CP3)가 제3 전기 자동차(703)를 충전하는 스케쥴을 예약 3이라 명명한다.
T2 및 T3 동안, 제1 충전 포인트(CP1)는 제4 전기 자동차(704)를 충전하도록 스케쥴링 될 수 있다. 이를 예약 4라 명명한다.
즉, 제1 충전 포인트(CP1)에는 T1이 지난 후, T2 및 T3 동안, 예약 4가 할당될 수 있다.
T3 및 T4 동안, 제2 충전 포인트(CP2)에는 예약 5가 할당될 수 있다.
제5 예약은 제5 전기 자동차(705)가 T3 및 T4 동안 제2 충전 포인트(CP2)를 통해 충전되도록 스케쥴링됨을 나타낼 수 있다.
T4 동안, 제3 충전 포인트(CP3)에는 제6 전기 자동차(706)가 충전되도록 스케쥴링된 예약 6이 할당될 수 있다.
즉, 제3 충전 포인트(CP3)에는 T1 내지 T3까지는 예약 3이 할당되고, T4 동안에는 예약 6이 할당될 수 있다.
AI 장치(100)의 프로세서(180)는 3개의 충전 포인트들을 이용하여, T1 내지 T4 동안 6개의 예약을 받을 수 있도록 충전 예약을 스케쥴링할 수 있다.
AI 장치(100)의 프로세서(180) 또는 AI 서버(200)의 프로세서(260)는 위와 같은 전기 자동차들의 충전 예약을 스케쥴링 할 수 있다.
이와 같이, 본 개시의 실시 예에 따르면, 3개의 충전 포인트들을 통해, 6개의 시간 간격 관계들에 대한 전기 자동차의 스케쥴링이 효율적으로 수행될 수 있다.
즉, 3개의 충전 포인트들은 유휴 시간 없이, 전기 자동차의 충전을 점유하도록 스케쥴링되어, 충전 포인트들이 보다, 효율적으로 사용될 수 있다.
다음으로, 충전 포인트의 개수가 10개인 경우, Allen의 Time Interval Algebra 이론에 따른 13개의 관계들에 대해, 충전 포인트들의 충전 예약 스케쥴링 시, 충전 포인트를 독점으로 사용해야 하는 예외 상황을 처리하는 과정을 설명한다.
도 8 내지 도 9d는 본 개시의 실시 예에 따라 13개의 시간 간격 관계들에 대해 10개의 충전 포인트들을 통해 충전 예약을 스케쥴링하는 과정을 설명하는 도면이다.
도 8 내지 도 9d에서는, 도 6 내지 도 7d의 실시 예에서 다루지 않은 나머지 관계들에 대해 7개의 충전 포인트들을 통해 충전 예약을 스케쥴링 하는 과정을 설명하는 도면이다.
제7 관계(507) 내지 제13 관계(513)들은 4개의 시간 구간들(T5, T6, T7, T8)로 구분될 수 있다.
제4 충전 포인트(CP4)에는 제7 관계(507)가 할당되어 있고, 제5 충전 포인트(CP5)에는 제11 관계(511)가 할당되어 있고, 제6 충전 포인트(CP6)에는 제8 관계(508)가 할당되어 있다.
제7 충전 포인트(CP7)에는 제9 관계(509) 및 제10 관계(510)가 할당되어 있다.
제8 충전 포인트(CP8)에는 제12 관계(512)가 할당되어 있다.
제9 충전 포인트(CP9) 및 제10 충전 포인트(CP10)에는 제13 관계(513)가 할당되어 있다.
제7 충전 포인트(CP7)는 X의 구간 동안, Y의 구간과 겹쳐, X 구간 동안에는 2개의 예약을 처리할 수 없다. 즉, 제7 충전 포인트(CP7)는 Y의 구간 동안의 예약을 독점으로 충전 처리를 해야 한다.
이는, 제7 충전 포인트(CP7)가 제10 관계(510)에 대응되는 예약만을 처리해야 함을 나타낼 수 있다.
따라서, 제9 관계(509)에 대응되는 예약을 위해, 유휴 상태에 있는 다른 충전 포인트를 사용할 필요가 있다.
즉, 제9 관계(509)에 대응되는 시간 구간들의 일부 구간이 제5 충전 포인트(CP5)에 할당될 수 있고, 나머지 구간이 제4 충전 포인트(CP4)에 할당될 수 있다.
이에 대해, 보다 자세히 설명한다.
도 8 내지 도 9d를 참조하면, T5 및 T6 동안, 제4 충전 포인트(CP4)가 제7 전기 자동차(707)를 충전하는 스케쥴을 예약 7이라 명명한다.
T5 내지 T8 동안, 제6 충전 포인트(CP6)가 제10 전기 자동차(710)를 충전하는 스케쥴을 예약 10이라 명명한다.
T5 내지 T8 동안, 제7 충전 포인트(CP7)가 제11 전기 자동차를 충전하는 스케쥴을 예약 11이라 명명한다.
T5 내지 T8 동안, 제8 충전 포인트(CP8)가 제12 전기 자동차를 충전하는 스케쥴을 예약 12이라 명명한다.
T5 내지 T8 동안, 제9 충전 포인트(CP9)가 제13 전기 자동차를 충전하는 스케쥴을 예약 13이라 명명한다.
T5 내지 T8 동안, 제10 충전 포인트(CP10)가 제14 전기 자동차를 충전하는 스케쥴을 예약 14라 명명한다.
Allen의 Time Interval Algebra 이론에 따를 경우, 제9 관계(509)에 대응되는 시간 구간들(T6, T7)에 대해서는, 충전 포인트가 할당되어 있지 않다.
이를 위해, 프로세서(180)는 T6 동안에는, 충전 예약을 위해 유휴되는 제5 충전 포인트(CP5)를 할당할 수 있다. 즉, T6 동안에, 제5 충전 포인트(CP5)가 제8 전기 자동차(708)를 충전하는 스케쥴을 예약 8(1)이라 명명한다.
또한, 프로세서(180)는 T7 동안에, 유휴되는 제4 충전 포인트(CP4)를 할당할 수 있다. 즉, T7 동안, 제4 충전 포인트(CP4)가 제8 전기 자동차(708)를 충전하는 스케쥴을 예약 8(2)라 명명한다.
한편, 예약 8에 해당하는 제8 전기 자동차(708)는 충전 기간 동안, 2개의 충전 포인트를 통해 충전될 수 있다.
즉, 제8 전기 자동차(708)는 T6 동안, 제5 충전 포인트(CP5)를 사용하여 충전되고, T7 동안, 제4 충전 포인트(CP4)를 사용하여, 충전될 수 있다.
이를 위해, 충전 스케쥴을 관리하는 인공 지능 장치(100) 또는 AI 서버(200)는 충전 포인트의 전환을 위해, 스위치를 구비할 수 있다.
즉, 인공 지능 장치(100) 또는 AI 서버(200)는 T6 동안, 제5 충전 포인트(CP5)를 통해 전력을 제8 전기 자동차(708)에 공급하다가, T7의 시작 시점에, 제5 충전 포인트(CP5)를 제4 충전 포인트(CP4)로 전환하도록, 스위치를 제어할 수 있다.
도 9a 및 9b를 참조하면, T5 및 T6 동안, 제4 충전 포인트(C4)는 예약 7을 처리하도록 스케쥴링 되어 있다.
T6 동안, 제5 충전 포인트(CP5)는 예약 8(1)을 처리하도록 스케쥴링 되어 있다. 이후, T7의 시작 시점이 도래하면, 도 9c에 도시된 바와 같이, 제4 충전 포인트(CP4)는 예약 8(2)를 처리하고, 제5 충전 포인트(CP5)는 예약 9를 처리하도록 스케쥴될 수 있다.
즉, 예약 8(1) 및 예약 8(2)에 충전하기로 되어 있는 제8 전기 자동차(708)는 제5 충전 포인트(CP5)를 통해 충전되다가, 제4 충전 포인트(CP4)로 전력 공급 대상이 전환되도록 스케쥴될 수 있다.
충전 포인트의 전환을 위한 스위치가 제4 충전 포인트(CP4) 및 제5 충전 포인트(CP5) 사이에 배치될 수 있다.
그 후, 도 9d를 참조하면, T8 동안, 제5 충전 포인트(CP5)는 예약 9의 처리를 지속하도록 스케쥴 될 수 있다.
이와 같이, 본 개시의 실시 예에 따르면, 각 충전 포인트의 유휴 시간을 최소화하고, 충전 점유 시간을 증가시켜, 충전 예약들이 효율적으로 스케쥴링될 수 있다.
특히, 본 개시의 실시 예에 따르면, Allen의 Time Interval Algebra 이론에서 발생될 수 있는 유휴 충전 포인트의 효율적인 사용이 가능한 장점이 있다.
도 10은 본 개시의 실시 예에 따라 13개의 시간 간격 관계들에 대해 충전 가능 시간 슬롯을 도식화한 도면이다.
도 10을 참조하면, 시간을 포함하는 상황은 13개의 관계들로 정의됨을 나타내는 시간 관계 이론을 전기 자동차의 충전 스케쥴링에 적용하여, 13개의 관계들을 14개의 충전 가능 시간 슬롯들로 표현한 표(1000)가 도시되어 있다.
각 관계들에 상응하는 시간 슬롯에는 1부터 14까지 넘버링되어 있다.
도 11은 본 개시의 실시 예에 따라, 10개의 충전 포인트를 통해 도 10의 14개의 시간 슬롯들을 할당하여 충전 스케쥴을 설정하는 과정을 설명하는 도면이다.
도 11은, 도 6 내지 도 9d의 전기 자동차 충전 스케쥴링에 따라 각 충전 포인트에 할당된 하나 이상의 시간 슬롯들을 도식화한 도면이다.
도 6 내지 도 9d의 전기 자동차의 충전 예약을 위한 스케쥴링을 수행하는 모델을 충전 예약 스케쥴링 모델이라 가정한다.
충전 예약 스케쥴링 모델은 13개의 시간 간격 관계들이 나타내는 14개의 시간 슬롯들을 기 설정된 개수의 충전 포인트들에 할당하는 모델일 수 있다.
즉, 충전 예약 스케쥴링 모델은 기 설정된 개수의 충전 포인트들의 유휴 시간을 최소화하고, 충전 점유 시간을 최대화시키도록 14개의 시간 슬롯들을 기 설정된 개수의 충전 포인트들에 할당하여, 충전 예약을 스케쥴링하는 모델일 수 있다.
충전 예약 스케쥴링 모델은 인공 지능 장치(100)의 메모리(170) 또는 AI 서버(200)에 저장될 수 있다.
도 11은 10개의 충전 포인트들이 존재하는 경우, 14개의 시간 슬롯들이 각 충전 포인트에 할당된 결과를 보여준다. 상기 결과는 충전 예약 스케쥴링 모델의 출력일 수 있다.
충전 예약 스케쥴링 모델은 충전 포인트의 개수가 입력되면, 각 충전 포인트에 시간 슬롯을 할당한 결과를 출력하는 모델일 수 있다.
도 11은 1시간을 단위로 하여, 시간 슬롯들이 각 충전 포인트에 할당된 결과를 보여준다.
각 시간 슬롯은 충전이 가능한 시간 간격을 나타낼 수 있다. 각 시간 슬롯은 추후, 사용자가 충전 예약을 하는 과정에서 사용될 수 있다.
도 11을 참조하면, 제1 충전 포인트(CP1)에는 제1 시간 슬롯(1101) 및 제4 시간 슬롯(1104)이 할당되어 있다.
제1 시간 슬롯(1101)은 20분의 간격을 가지고, 제4 시간 슬롯(1104)은 40분의 간격을 갖는다.
제2 충전 포인트(CP2)에는 제2 시간 슬롯(1102) 및 제5 시간 슬롯(1105)이 할당될 수 있다.
제2 시간 슬롯(1102) 및 제5 시간 슬롯(1105) 각각은 30분의 간격을 가진다.
제3 충전 포인트(CP3)에는 제3 시간 슬롯(1103) 및 제6 시간 슬롯(1106)이 할당될 수 있다.
제3 시간 슬롯(1103)은 40분의 간격을 가지고, 제6 시간 슬롯(1106)은 20분의 간격을 가질 수 있다.
제4 충전 포인트(CP4)에는 제7 시간 슬롯(1107) 및 제8 시간 슬롯(1108)의 일부 슬롯이 할당될 수 있다. 제7 시간 슬롯(1107)은 30분의 간격을 가지고, 제8 시간 슬롯(1108)의 일부 슬롯은 10분의 간격을 가질 수 있다.
제5 충전 포인트(CP5)에는 제8 시간 슬롯(1108)의 일부 슬롯 및 제9 시간 슬롯(1109)이 할당될 수 있다.
제6 충전 포인트 내지 제10 충전 포인트들(CP6 내지 CP10) 각각에는 제10 내지 14 시간 슬롯들(1110 내지 1114) 각각이 할당될 수 있다.
도 12는 10개의 충전 포인트들이 존재하는 경우, 14개의 시간 슬롯들이 각 충전 포인트에 할당된 요약 결과를 설명하는 도면이다.
즉, 도 12는 도 11의 시간 슬롯들을 보다 축약하여, 보여준다. 즉, 일부 시간 슬롯들은 중첩되어 있을 수 있다.
즉, 제2 충전 포인트(CP2), 제4 충전 포인트(CP4) 및 제5 충전 포인트(CP5) 각각은 동일한 시간 간격을 갖는 시간 슬롯들(1102, 1107, 1105, 1109)이 할당되어 있다.
추후, 도 12는 사용자에게 UI 형태로 제공될 수 있고, 사용자는, 시간 슬롯을 선택하여, 전기 자동차의 충전 예약을 진행할 수 있다. 이에 대해서는 후술한다.
도 13은 본 개시의 실시 예에 따른 인공 지능 장치의 동작 방법을 설명하는 흐름도이다.
특히, 도 13은 인공 지능 장치를 통해, 전기 자동차의 충전 예약을 수행하는 과정을 설명하는 도면이다.
도 13을 참조하면, 인공 지능 장치(100)의 프로세서(180)는 디스플레이부(151)를 통해 충전 예약 입력 화면을 표시한다(S1301).
일 실시 예에서, 충전 예약 입력 화면은 전기 자동차의 충전 예약을 위해 제공되는 화면일 수 있다. 인공 지능 장치(100)에는 충전 예약 어플리케이션이 설치되어 있을 수 있다. 프로세서(180)는 충전 예약 어플리케이션의 실행 명령을 수신하고, 수신된 실행 명령에 따라 충전 예약 입력 화면을 디스플레이부(151) 상에 표시할 수 있다.
충전 예약 입력 화면에 대해서는, 도 14를 참조하여 설명한다.
도 14는 본 개시의 일 실시 예에 따른 충전 예약 입력 화면의 예를 보여준다.
인공 지능 장치(100)는 사용자의 이동 단말기임을 예로 들어 설명한다.
인공 지능 장치(100)의 디스플레이부(151)는 충전 예약 입력 화면(1400)을 디스플레이부(151) 상에 표시할 수 있다.
충전 예약 입력 화면(1400)은 전기 자동차의 충전 예약을 위해 필요한 정보를 사용자가 입력하도록 하는 UI 화면일 수 있다.
충전 예약 입력 화면(1400)은 사용자가 소유하는 전기 자동차의 배터리 상태 정보 항목(1410), 충전 가능 시간 설정 항목(1420), 항목(1430), 충전 타입 설정 항목(1440), 검색 버튼(1450)을 포함할 수 있다.
전기 자동차의 배터리 상태 정보 항목(1410)은 사용자의 전기 자동차에 구비된 배터리의 상태를 나타내는 항목일 수 있다.
배터리 상태 정보 항목(1410)은 배터리의 충전량, 급속 충전 시 예상 소요 시간, 일반(또는 완속) 충전 시, 예상 시간 소요 시간을 포함할 수 있다.
인공 지능 장치(100)는 통신 인터페이스(110)를 통해 전기 자동차와 무선 통신을 수행할 수 있고, 전기 자동차로부터, 배터리 상태 정보를 수신할 수 있다.
충전 가능 시간 설정 항목(1420)은 사용자가 원하는 충전 시간대를 설정하기 위한 항목일 수 있다. 사용자는 충전 가능 시간 설정 항목(1420)을 통해 전기 자동차의 충전을 원하는 시간대를 선택할 수 있다.
충전소 항목(1430)은 전기 자동차의 충전을 위한 충전소를 설정하기 위한 항목일 수 있다. 충전소 항목(1430)은 인공 지능 장치(100)의 현재 위치를 기준으로, 가장 가까이 위치한 충전소를 디폴트로 제공할 수 있다.
충전 타입 설정 항목(1440)은 빠른 속도로 전기 자동차를 충전할 수 있는 급속 충전 타입 또는 일반 속도로 전기 자동차를 충전할 수 있는 완속 충전 타입 중 어느 하나의 타입을 설정하기 위한 항목일 수 있다.
검색 버튼(1450)은 충전소 항목(1430)을 통해 설정된 충전소에서, 충전 가능 시간 설정 항목(1420)을 통해 설정된 충전 가능 시간대를 검색하기 위한 버튼일 수 있다.
다시, 도 13을 설명한다.
프로세서(180)는 충전 예약 입력 정보를 수신하고(S1303), 수신된 충전 예약 입력 정보에 따라, 충전 예약 스케쥴링 모델에 기초하여, 충전 예약 정보를 포함하는 충전 예약 화면을 디스플레이부 (151) 상에 표시한다(S1305).
충전 예약 입력 정보는 도 14에 도시된, 충전 가능 시간 설정 항목(1420)을 통해 입력된 충전 가능 시간대, 충전소 항목(1430)을 통해 설정된 충전소, 충전의 타입을 포함할 수 있다.
프로세서(180)는 충전 예약 입력 정보의 수신에 응답하여, 충전 예약 정보를 획득하고, 획득된 충전 예약 정보를 포함하는 충전 예약 화면을 디스플레이부(151) 상에 표시할 수 있다.
프로세서(180)는 충전 예약 입력 정보 및 충전 예약 스케쥴링 모델에 기초하여, 충전 예약 정보를 획득할 수 있다.
충전 예약 정보는 전기 자동차의 충전이 가능한 하나 이상의 충전소 및 하나 이상의 충전소에서 제공하는 충전 가능 시간표를 포함할 수 있다.
충전 예약 스케쥴링 모델은 도 5 내지 도 9d에서 설명된 13개의 시간 간격 관계들이 나타내는 14개의 시간 슬롯들을 기 설정된 개수의 충전 포인트들에 할당하는 모델일 수 있다.
충전 가능 시간표는 14개의 시간 슬롯들의 이용 가능 여부를 나타내는 시간표일 수 있다.
이에 대해서는 도 15를 참조하여 설명한다.
도 15는 본 개시의 실시 예에 따른 충전 예약 정보를 제공하기 위한 충전 예약 화면을 설명하는 도면이다.
도 15를 참조하면, 충전 예약 화면(1500)은 전기 자동차를 충전하는 충전기의 사용 가능 시간표(1510) 및 충전 예약 가능 충전소 항목(1530) 및 예약 버튼(1550)을 포함할 수 있다.
충전기의 사용 가능 시간표(1510)는 충전 예약 스케쥴링 모델에 의해 생성된 복수의 충전 포인트들 각각에 대한 하나 이상의 시간 슬롯을 대응시킨 표일 수 있다.
충전 예약 가능 충전소 항목(1530)은 충전소 항목(1430)에 의해 입력된 충전소 및 입력된 충전소와 가장 가까운 거리에 위치한 다른 충전소를 포함할 수 있다.
다른 충전소의 충전 포인트까지 고려하는 이유는 사용자가 설정한 충전소에 구비된 충전 포인트의 개수가 10개가 되지 않을 수 있기 때문이다.
충전 예약 스케쥴링 모델은 충전 포인트가 10개임을 가정한 상태에서, 각 충전 포인트에 하나 이상의 시간 슬롯을 할당했기 때문에, 사용자가 설정한 충전소에 충전 포인트가 10개가 구비되지 않았다면, 프로세서(180)는 다른 충전소에 구비된 충전 포인트를 검색하여, 10개의 충전 포인트를 획득할 수 있다.
프로세서(180)는 10개의 충전 포인트(CP1 내지 CP10) 각각에 14개의 시간 슬롯들 중 하나 이상을 할당할 수 있고, 할당 결과를 표시할 수 있다.
즉, 도 15에 도시된 바와 같이, 충전기의 사용 가능 시간표(1510)는 2개의 충전소에 구비된 총 10개의 충전 포인트들 각각에 할당된 하나 이상의 시간 슬롯들을 보여준다.
제1 컬러의 시간 슬롯들(A-1, B-2, C-1, C-2, E1) 각각은 제1 충전소에 구비된 충전 포인트에서 충전이 가능한 시간대를 나타낼 수 있다. 제1 충전소는 사용자가 충전 예약 입력을 통해 설정한 충전소일 수 있다.
제2 컬러의 시간 슬롯(A-2)은 제2 충전소에 구비된 충전 포인트에서 충전이 가능한 시간대를 나타낼 수 있다.
제3 컬러의 시간 슬롯들(B-1, D-1) 각각은 충전이 불가능함을 나타낼 수 있다.
프로세서(180)는 충전 예약 입력 정보에 포함된 충전 가능 시간대 및 충전 예약 스케쥴링 모델을 이용하여, 충전기 사용 가능 시간표(1510)를 생성할 수 있다.
프로세서(180)는 충전 예약 입력 정보에 포함된 충전 가능 시간대, 충전 예약 스케쥴링 모델 및 하나 이상의 충전소로부터 수신된 충전 포인트에 대한 정보를 이용하여, 충전기 사용 가능 시간표(1510)를 생성할 수 있다.
프로세서(180)는 하나 이상의 충전소로부터 충전 포인트에 대한 정보를 통신 인터페이스(110)를 통해 수신할 수 있다. 충전 포인트에 대한 정보는 충전 포인트의 식별자(또는 충전소의 식별자), 상기 충전 예약 입력 정보에 포함된 충전 가능 시간대에서, 충전 포인트의 충전 가능 여부를 포함할 수 있다.
프로세서(180)는 충전 가능 시간대 및 충전 예약 스케쥴링 모델을 이용하여, 10개의 충전 포인트들 각각에 14개의 시간 슬롯들 중 하나 이상을 할당할 수 있다.
그 후, 프로세서(180)는 하나 이상의 충전소로부터 수신된 충전 포인트에 대한 정보를 이용하여, 각 시간 슬롯의 출처(충전소), 각 시간 슬롯에서, 충전의 가능 여부를 결정할 수 있다.
프로세서(180)는 결정 결과를 충전기 사용 가능 시간표(1510)에 반영할 수 있다.
프로세서(180)는 예약 명령을 수신하고(S1307), 수신된 예약 명령에 응답하여, 예약 결과를 디스플레이부 (151) 상에 표시한다(S1309).
프로세서(180)는 도 15에 도시된 시간 슬롯(B-2)이 선택된 후, 예약 버튼(1550)을 선택하는 예약 명령을 수신한 경우, 전기 자동차의 충전 예약 결과를 디스플레이부(151) 상에 표시할 수 있다.
도 16은 본 개시의 실시 예에 따라 전기 자동차의 충전 예약 결과를 제공하는 도면이다.
도 16을 참조하면, 인공 지능 장치(100)의 디스플레이부(151)는 충전 예약 결과(1600)를 표시할 수 있다.
충전 예약 결과(1600)는 충전 예약 날짜, 예약 번호, 충전 예약 시간대, 주유*충전소의 명칭, 충전기의 명칭, 충전 타입, 충전소의 위치를 나타내는 지도, 충전기의 이미지 중 하나 이상을 포함할 수 있다.
이와 같이, 본 개시의 실시 예에 따르면, 사용자는 간단한 입력만으로도, 전기 자동차의 충전 예약을 스케쥴링할 수 있다. 이에 따라, 사용자의 충전 예약 과정이 간편해져, 편의성이 크게 향상될 수 있다.
또한, 각 충전소에 구비된 충전 포인트들은 유휴 시간이 최소화되어, 충전 포인트의 사용 효율이 극대화될 수 있다.
전술한 본 개시는, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. 또한, 상기 컴퓨터는 인공 지능 기기의 프로세서(180)를 포함할 수도 있다.

Claims (20)

  1. 인공 지능 장치에 있어서,
    디스플레이; 및
    전기 자동차의 충전 예약을 위한 예약 입력 정보를 수신하고, 수신된 예약 입력 정보 및 충전 예약 스케쥴링 모델에 기반하여, 복수의 충전기들 각각의 사용 가능 시간대 또는 사용 불가능 시간대를 나타내는 충전기 사용 가능 시간표를 상기 디스플레이 상에 표시하는 프로세서를 포함하고,
    상기 충전기 사용 가능 시간표는 복수의 충전기들 각각에 대한 하나 이상의 시간 슬롯을 대응시킨 표인
    인공 지능 장치.
  2. 제1항에 있어서,
    상기 충전 예약 스케쥴링 모델은
    Allen의 Time Interval Algebra 이론에 따르는 13개의 시간 간격 관계들이 나타내는 14개의 시간 슬롯들 중 하나 이상을 10개의 충전기들 각각에 할당하는 모델인
    인공 지능 장치.
  3. 제2항에 있어서,
    상기 충전 예약 모델은
    상기 10개의 충전기들의 유휴 시간을 최소화하도록, 상기 14개의 시간 슬롯들 중 하나 이상을 유휴 상태의 충전기에 할당하는 모델인
    인공 지능 장치.
  4. 제1항에 있어서,
    상기 충전기 사용 가능 시간표에 포함된 각 시간 슬롯은 충전기의 출처, 사용자가 입력한 충전 시간대에 충전의 가능 여부를 나타내는
    인공 지능 장치.
  5. 제4항에 있어서,
    상기 복수의 충전기들 각각은 하나 이상의 충전소에 구비되며, 상기 복수의 충전기들의 개수는 10개인
    인공 지능 장치.
  6. 제1항에 있어서,
    상기 프로세서는
    상기 시간 슬롯을 선택하는 명령을 수신하고, 수신된 명령에 응답하여, 충전 예약 결과를 상기 디스플레이 상에 표시하는
    인공 지능 장치.
  7. 제6항에 있어서,
    상기 충전 예약 결과는
    충전 예약 날짜, 예약 번호, 충전 예약 시간대, 충전소의 명칭, 충전기의 명칭, 충전 타입, 충전소의 위치를 나타내는 지도, 충전기의 이미지 중 하나 이상을 포함하는
    인공 지능 장치.
  8. 제1항에 있어서,
    통신 인터페이스를 더 포함하고,
    상기 프로세서는
    상기 하나 이상의 충전소로부터 충전기에 대한 정보를 상기 통신 인터페이스를 통해 수신하고,
    상기 충전기에 대한 정보는 충전 포인트의 식별자(또는 충전소의 식별자), 상기 예약 입력 정보에 포함된 충전 가능 시간대에서, 충전 포인트의 충전 가능 여부를 포함하는
    인공 지능 장치.
  9. 제8항에 있어서,
    상기 프로세서는
    상기 충전기에 대한 정보를 이용하여, 각 시간 슬롯의 출처, 각 시간 슬롯에서, 충전의 가능 여부를 결정하고, 결정 결과에 따라 상기 충전기 사용 가능 시간표를 생성하는
    인공 지능 장치.
  10. 제1항에 있어서,
    상기 예약 입력 정보는
    충전 시간대를 설정하기 위한 충전 가능 시간 항목, 충전소를 설정하기 위한 충전소 항목을 포함하는
    인공 지능 장치.
  11. 인공 지능 장치의 동작 방법에 있어서,
    전기 자동차의 충전 예약을 위한 예약 입력 정보를 수신하는 단계; 및
    수신된 예약 입력 정보 및 충전 예약 스케쥴링 모델에 기반하여, 복수의 충전기들 각각의 사용 가능 시간대 또는 사용 불가능 시간대를 나타내는 충전기 사용 가능 시간표를 표시하는 단계를 포함하고,
    상기 충전기 사용 가능 시간표는 복수의 충전기들 각각에 대한 하나 이상의 시간 슬롯을 대응시킨 표인
    인공 지능 장치의 동작 방법.
  12. 제11항에 있어서,
    상기 충전 예약 스케쥴링 모델은
    Allen의 Time Interval Algebra 이론에 따르는 13개의 시간 간격 관계들이 나타내는 14개의 시간 슬롯들 중 하나 이상을 10개의 충전기들 각각에 할당하는 모델인
    인공 지능 장치의 동작 방법.
  13. 제12항에 있어서,
    상기 충전 예약 모델은
    상기 10개의 충전기들의 유휴 시간을 최소화하도록, 상기 14개의 시간 슬롯들 중 하나 이상을 유휴 상태의 충전기에 할당하는 모델인
    인공 지능 장치의 동작 방법.
  14. 제11항에 있어서,
    상기 충전기 사용 가능 시간표에 포함된 시간 슬롯은 충전기의 출처, 사용자가 입력한 충전 시간대에 충전의 가능 여부를 나타내는
    인공 지능 장치의 동작 방법.
  15. 제14항에 있어서,
    상기 복수의 충전기들 각각은 하나 이상의 충전소에 구비되며, 상기 복수의 충전기들의 개수는 10개인
    인공 지능 장치의 동작 방법.
  16. 제11항에 있어서,
    상기 시간 슬롯을 선택하는 명령을 수신하는 단계; 및
    수신된 명령에 응답하여, 충전 예약 결과를 표시하는 단계를 더 포함하는
    인공 지능 장치의 동작 방법.
  17. 제16항에 있어서,
    상기 충전 예약 결과는
    충전 예약 날짜, 예약 번호, 충전 예약 시간대, 충전소의 명칭, 충전기의 명칭, 충전 타입, 충전소의 위치를 나타내는 지도, 충전기의 이미지 중 하나 이상을 포함하는
    인공 지능 장치의 동작 방법.
  18. 제11항에 있어서,
    상기 하나 이상의 충전소로부터 충전기에 대한 정보를 수신하는 단계를 더 포함하고,
    상기 충전기에 대한 정보는 충전 포인트의 식별자(또는 충전소의 식별자), 상기 예약 입력 정보에 포함된 충전 가능 시간대에서, 충전 포인트의 충전 가능 여부를 포함하는
    인공 지능 장치의 동작 방법.
  19. 제18항에 있어서,
    상기 충전기에 대한 정보를 이용하여, 각 시간 슬롯의 출처, 각 시간 슬롯에서, 충전의 가능 여부를 결정하는 단계; 및
    결정 결과에 따라 상기 충전기 사용 가능 시간표를 생성하는 단계를 더 포함하는
    인공 지능 장치의 동작 방법.
  20. 제11항에 있어서,
    상기 예약 입력 정보는
    충전 시간대를 설정하기 위한 충전 가능 시간 항목, 충전소를 설정하기 위한 충전소 항목을 포함하는
    인공 지능 장치의 동작 방법.
PCT/KR2020/000270 2019-01-07 2020-01-07 인공 지능 장치 및 그의 동작 방법 WO2020145625A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201962788962P 2019-01-07 2019-01-07
US62/788,962 2019-01-07

Publications (1)

Publication Number Publication Date
WO2020145625A1 true WO2020145625A1 (ko) 2020-07-16

Family

ID=71403794

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/000270 WO2020145625A1 (ko) 2019-01-07 2020-01-07 인공 지능 장치 및 그의 동작 방법

Country Status (3)

Country Link
US (1) US20200219019A1 (ko)
KR (1) KR102353103B1 (ko)
WO (1) WO2020145625A1 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11001161B2 (en) * 2019-02-15 2021-05-11 Ford Global Technologies, Llc Electric vehicle charging scheduler
CN112073523A (zh) * 2020-09-11 2020-12-11 江苏小白兔智造科技有限公司 一种基于手机功能的洗车机器人预约方法
LU500992B1 (de) * 2021-12-12 2023-06-12 Eclever Entw Ohg Verfahren zur prüfung von ladesäulen und deren funktionsumfang
KR20230116990A (ko) 2022-01-28 2023-08-07 주식회사 늘디딤 IoT 기능이 구비되고 전기자동차 충전이 가능한 스마트 가로등 시스템
JP2024072958A (ja) * 2022-11-17 2024-05-29 株式会社アイシン バッテリ制御システムおよびサーバ

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011083166A (ja) * 2009-10-09 2011-04-21 Chugoku Electric Power Co Inc:The 充電スタンド案内システム、制御サーバ及びスタンドサーバ
JP2011135660A (ja) * 2009-12-23 2011-07-07 Aichi Electric Co Ltd 充電装置
KR101771221B1 (ko) * 2016-06-10 2017-08-24 허재행 전기 자동차 충전 스케쥴링 장치 및 방법
KR20180010169A (ko) * 2017-10-19 2018-01-30 주식회사 포스코아이씨티 전기차 충전 예약 시스템 및 전기차 충전 예약이 가능한 충전기
WO2018020080A1 (en) * 2016-07-27 2018-02-01 Verto Analytics Oy Single-source cross-platform media measurement arrangement, device and related methods

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120296678A1 (en) * 2011-05-20 2012-11-22 General Electric Company Systems and Methods for Reservations of Charging Stations for Electric Vehicles
DE102012011605A1 (de) * 2011-12-06 2013-06-06 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Bereitstellen eines elektronischen Terminplaners für ein Fahrzeug
US10723230B2 (en) * 2016-09-07 2020-07-28 Thunder Power New Energy Vehicle Development Company Limited Intelligent vehicle charging
JP2019078616A (ja) * 2017-10-24 2019-05-23 東芝メモリ株式会社 情報処理装置、情報処理方法、及び情報処理プログラム
KR102470999B1 (ko) * 2017-10-27 2022-11-25 현대자동차주식회사 충전 관리 서버 및 충전 관리 서버의 제어 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011083166A (ja) * 2009-10-09 2011-04-21 Chugoku Electric Power Co Inc:The 充電スタンド案内システム、制御サーバ及びスタンドサーバ
JP2011135660A (ja) * 2009-12-23 2011-07-07 Aichi Electric Co Ltd 充電装置
KR101771221B1 (ko) * 2016-06-10 2017-08-24 허재행 전기 자동차 충전 스케쥴링 장치 및 방법
WO2018020080A1 (en) * 2016-07-27 2018-02-01 Verto Analytics Oy Single-source cross-platform media measurement arrangement, device and related methods
KR20180010169A (ko) * 2017-10-19 2018-01-30 주식회사 포스코아이씨티 전기차 충전 예약 시스템 및 전기차 충전 예약이 가능한 충전기

Also Published As

Publication number Publication date
US20200219019A1 (en) 2020-07-09
KR20200085642A (ko) 2020-07-15
KR102353103B1 (ko) 2022-01-19

Similar Documents

Publication Publication Date Title
WO2020145625A1 (ko) 인공 지능 장치 및 그의 동작 방법
WO2018128362A1 (en) Electronic apparatus and method of operating the same
WO2019107945A1 (en) Method of providing service based on location of sound source and speech recognition device therefor
WO2019031707A1 (en) MOBILE TERMINAL AND METHOD FOR CONTROLLING A MOBILE TERMINAL USING MACHINE APPRENTICESHIP
WO2021006404A1 (ko) 인공지능 서버
WO2020246647A1 (ko) 인공 지능 시스템의 동작을 관리하는 인공 지능 장치 및 그 방법
WO2020241920A1 (ko) 장치 정보에 기반하여, 다른 장치를 제어할 수 있는 인공 지능 장치
WO2021029457A1 (ko) 사용자에게 정보를 제공하는 인공 지능 서버 및 그 방법
EP3545436A1 (en) Electronic apparatus and method of operating the same
WO2021006368A1 (ko) 인공지능 기반의 에너지 사용량 예측 장치 및 예측 방법
WO2020246640A1 (ko) 사용자의 위치를 결정하는 인공 지능 장치 및 그 방법
WO2020190082A1 (ko) 이동 단말기를 이용한 내비게이션 서비스 제공 방법 및 이동 단말기
WO2020251074A1 (ko) 음성 인식 기능을 제공하는 인공 지능 로봇 및 그의 동작 방법
WO2021172642A1 (ko) 장치 간 연동에 기초한 장치 제어 기능을 제공하는 인공 지능 장치 및 그 방법
WO2021215547A1 (ko) 스마트 홈 장치 및 방법
WO2021206221A1 (en) Artificial intelligence apparatus using a plurality of output layers and method for same
WO2020262721A1 (ko) 인공 지능을 이용하여, 복수의 로봇들을 제어하는 관제 시스템
WO2020256169A1 (ko) 인공 지능을 이용하여, 안내 서비스를 제공하는 로봇 및 그의 동작 방법
WO2020230928A1 (ko) 로봇 및 그의 제어 방법
WO2020251096A1 (ko) 인공 지능 로봇 및 그의 동작 방법
WO2021040105A1 (ko) 개체명 테이블을 생성하는 인공 지능 장치 및 그 방법
WO2021002493A1 (ko) 지능형 게이트웨이 장치 및 그를 포함하는 제어 시스템
WO2020241923A1 (ko) 사용자 환경에서의 음성 인식 모델의 성능을 예측하는 인공 지능 장치 및 그 방법
WO2022080517A1 (ko) 학습 데이터를 생성하는 인공 지능 장치 및 방법
WO2021006363A1 (ko) 인공 지능을 이용하여, 안내 서비스를 제공하는 로봇 및 그의 동작 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20739006

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20739006

Country of ref document: EP

Kind code of ref document: A1