WO2023042937A1 - Method and device for transmitting/receiving signal on basis of meta-lens artificial intelligence system in wireless communication system - Google Patents

Method and device for transmitting/receiving signal on basis of meta-lens artificial intelligence system in wireless communication system Download PDF

Info

Publication number
WO2023042937A1
WO2023042937A1 PCT/KR2021/012704 KR2021012704W WO2023042937A1 WO 2023042937 A1 WO2023042937 A1 WO 2023042937A1 KR 2021012704 W KR2021012704 W KR 2021012704W WO 2023042937 A1 WO2023042937 A1 WO 2023042937A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
terminal
base station
metalens
control value
Prior art date
Application number
PCT/KR2021/012704
Other languages
French (fr)
Korean (ko)
Inventor
오재기
김성진
박재용
장지환
이명희
하업성
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to PCT/KR2021/012704 priority Critical patent/WO2023042937A1/en
Priority to KR1020247001470A priority patent/KR20240065063A/en
Publication of WO2023042937A1 publication Critical patent/WO2023042937A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/092Reinforcement learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/098Distributed learning, e.g. federated learning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/466Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W8/00Network data management
    • H04W8/22Processing or transfer of terminal data, e.g. status or physical capabilities
    • H04W8/24Transfer of terminal data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof

Definitions

  • the following description relates to a wireless communication system, and relates to a method and apparatus for transmitting and receiving signals based on the Metalens artificial intelligence system in a wireless communication system.
  • it relates to a method and apparatus for providing a metalens artificial intelligence system in consideration of a user-based image input/output device.
  • a wireless access system is widely deployed to provide various types of communication services such as voice and data.
  • a wireless access system is a multiple access system capable of supporting communication with multiple users by sharing available system resources (bandwidth, transmission power, etc.).
  • Examples of the multiple access system include a code division multiple access (CDMA) system, a frequency division multiple access (FDMA) system, a time division multiple access (TDMA) system, an orthogonal frequency division multiple access (OFDMA) system, and a single carrier frequency (SC-FDMA) system. division multiple access) system.
  • CDMA code division multiple access
  • FDMA frequency division multiple access
  • TDMA time division multiple access
  • OFDMA orthogonal frequency division multiple access
  • SC-FDMA single carrier frequency division multiple access
  • eMBB enhanced mobile broadband
  • RAT radio access technology
  • MTC massive Machine Type Communications
  • the present disclosure relates to a method and apparatus for transmitting and receiving signals based on a metalens artificial intelligence system in a wireless communication system.
  • the present disclosure relates to a method and apparatus for providing a metalens artificial intelligence system in consideration of a user-based image input/output device in a wireless communication system.
  • the present disclosure relates to a method of obtaining user-related input information in a wireless communication system and controlling an image input/output device through learning in a metalens artificial intelligence system based on the acquired user-related input information.
  • the present disclosure relates to a method for controlling a metalens artificial intelligence system based on federated learning in a wireless communication system.
  • a base station operating method in a wireless communication system receiving user recognition information from a first terminal, obtaining a control value based on a metalens characteristic factor using the obtained user recognition information and transmitting the obtained control value to the first terminal and the second terminal.
  • a method of operating a terminal in a wireless communication system includes transmitting user recognition information to a base station and receiving a control value derived by the base station based on the transmitted user recognition information. can do.
  • a base station of a wireless communication system including a transceiver and a processor connected to the transceiver
  • the processor receives user recognition information from a first terminal using the transceiver, and the obtained user recognition information It is possible to obtain a control value based on the metalens characteristic factor using , and transmit the obtained control value to the first terminal and the second terminal using the transceiver.
  • the present disclosure includes a transceiver and a processor connected to the transceiver, and the processor transmits user recognition information to a base station using the transceiver, and is transmitted by the base station based on the user recognition information transmitted using the transceiver.
  • the derived control value may be received.
  • the at least one processor enables the device to recognize a user from a first terminal. It is possible to receive information, obtain a control value based on the metalens characteristic factor using the obtained user recognition information, and transmit the obtained control value to the first terminal and the second terminal.
  • At least one executable by a processor includes commands of, wherein at least one command receives user recognition information from the first terminal, obtains a control value based on a metalens characteristic factor using the obtained user recognition information, and converts the obtained control value to It can be controlled to transmit to the first terminal and the second terminal.
  • the following items may be commonly applied to the above-described base station, terminal, device, and computer recording medium.
  • the obtained control value may be determined based on a codebook based on a metalens characteristic factor.
  • the metalens characteristic factor may be determined based on at least one of focus position information, focal distance information, and radius of curvature information based on each of the metalens elements.
  • focus position information, focal distance information, and radius of curvature information are expressed as respective indices based on quantization, and a control value may be derived based on each index.
  • user recognition information may include at least one or more of user direction information, user distance information, and user status information.
  • the first terminal is a terminal having a video input function, and can obtain user recognition information based on the video input function.
  • a first terminal obtains location information of the first terminal, transmits the location information of the first terminal together with user recognition information to a base station, and the base station further transmits the location information of the first terminal.
  • a control value can be derived by taking this into account.
  • the second terminal may be a terminal having a video output function.
  • a base station may include at least one function of a server and an access point.
  • the base station includes a Metalens artificial intelligence system, and the Metalens artificial intelligence system performs learning based on a learning model, but the obtained user recognition information is an input of the learning model and a control value. may be an output of the learning model.
  • the learning model operates based on reinforcement learning, and the reinforcement learning uses state information and reward information as inputs based on the acquired user recognition information and control value, and corresponds to the control value. Behavioral information can be output.
  • the learning model operates based on Thomson sampling, and Thomson sampling can perform learning based on compensation information having ⁇ and ⁇ parameters based on the acquired user recognition information and control value. there is.
  • a metalens artificial intelligence system may be provided in consideration of a user-based image input/output device.
  • user-related input information may be acquired, and based on this, the image input/output device may be controlled through learning in the Metalens artificial intelligence system.
  • a method for controlling a metalens artificial intelligence system based on federated learning may be provided.
  • FIG. 1 is a diagram illustrating an exemplary communication system according to an embodiment of the present disclosure.
  • FIG. 2 is a diagram showing an example of a wireless device according to an embodiment of the present disclosure.
  • FIG. 3 is a diagram illustrating another example of a wireless device according to an embodiment of the present disclosure.
  • AI Artificial Intelligence
  • FIG. 5 is a diagram showing federated learning according to an embodiment of the present disclosure.
  • FIG. 6 is a diagram illustrating an image input/output device according to an embodiment of the present disclosure.
  • FIG. 7 is a diagram illustrating an OIS principle according to an embodiment of the present disclosure.
  • FIG. 8 is a diagram showing a metalens structure according to an embodiment of the present disclosure.
  • FIG. 9 is a diagram illustrating an artificial intelligence system for controlling a metalens for user-based image input/output according to an embodiment of the present disclosure.
  • FIG. 10 is a diagram illustrating a method of controlling a metalens according to an embodiment of the present disclosure.
  • FIG. 11 is a diagram illustrating comparison of viewing distances between curved and flat image outputs according to an embodiment of the present disclosure.
  • FIG. 12 is a diagram illustrating a comparison of viewing distances between curved and flat image outputs according to an embodiment of the present disclosure.
  • FIG. 13 is a diagram illustrating a metalens control method according to an embodiment of the present disclosure.
  • FIG. 14 is a diagram illustrating the operation of a distributed learning artificial intelligence system according to an embodiment of the present disclosure.
  • 15 is a diagram illustrating a method of controlling a metalens based on an artificial intelligence system according to an embodiment of the present disclosure.
  • 16 is a flowchart illustrating a method of controlling image input/output based on a metalens according to an embodiment of the present disclosure.
  • 17 is a diagram illustrating a method of detecting an object in a user recognizer according to an embodiment of the present disclosure.
  • FIG. 18 is a diagram illustrating a method of detecting an object in a user recognizer according to an embodiment of the present disclosure.
  • 19 is a diagram illustrating final input/output according to an embodiment of the present disclosure.
  • FIG. 20 is a diagram illustrating a structure of a metalens control system using reinforcement learning (or MAB) according to an embodiment of the present disclosure.
  • 21 is a block diagram of a metalens control system using reinforcement learning according to an embodiment of the present disclosure.
  • 22 is a diagram illustrating reinforcement learning using DDPG according to an embodiment of the present disclosure.
  • FIG. 23 is a diagram illustrating a selection artificial intelligence (MAB AI, 2310) system using Thompson sampling according to an embodiment of the present disclosure.
  • MAB AI selection artificial intelligence
  • FIG. 24 is a diagram showing the structure of a metalens controller according to an embodiment of the present disclosure.
  • 25 is a diagram illustrating a method of generating a metalens control value based on a focus position according to an embodiment of the present disclosure.
  • 26 is a diagram illustrating a method of realizing a zoom lens and a curved lens based on a metalens curvature change according to an embodiment of the present disclosure.
  • FIG. 27 is a diagram illustrating a system operating through federated learning of various image input/output devices according to an embodiment of the present disclosure.
  • FIG. 28 is a diagram illustrating a method of operating a base station according to an embodiment of the present disclosure.
  • 29 is a flowchart illustrating a method of operating a terminal according to an embodiment of the present disclosure.
  • each component or feature may be considered optional unless explicitly stated otherwise.
  • Each component or feature may be implemented in a form not combined with other components or features.
  • an embodiment of the present disclosure may be configured by combining some elements and/or features. The order of operations described in the embodiments of the present disclosure may be changed. Some components or features of one embodiment may be included in another embodiment, or may be replaced with corresponding components or features of another embodiment.
  • a base station has meaning as a terminal node of a network that directly communicates with a mobile station.
  • a specific operation described as being performed by a base station in this document may be performed by an upper node of the base station in some cases.
  • the 'base station' is a term such as a fixed station, Node B, eNode B, gNode B, ng-eNB, advanced base station (ABS), or access point. can be replaced by
  • a terminal includes a user equipment (UE), a mobile station (MS), a subscriber station (SS), a mobile subscriber station (MSS), It may be replaced with terms such as mobile terminal or advanced mobile station (AMS).
  • UE user equipment
  • MS mobile station
  • SS subscriber station
  • MSS mobile subscriber station
  • AMS advanced mobile station
  • the transmitting end refers to a fixed and/or mobile node providing data service or voice service
  • the receiving end refers to a fixed and/or mobile node receiving data service or voice service. Therefore, in the case of uplink, the mobile station can be a transmitter and the base station can be a receiver. Similarly, in the case of downlink, the mobile station may be a receiving end and the base station may be a transmitting end.
  • Embodiments of the present disclosure are wireless access systems, such as an IEEE 802.xx system, a 3rd Generation Partnership Project (3GPP) system, a 3GPP Long Term Evolution (LTE) system, a 3GPP 5G (5th generation) NR (New Radio) system, and a 3GPP2 system. It may be supported by at least one disclosed standard document, and in particular, the embodiments of the present disclosure are supported by 3GPP technical specification (TS) 38.211, 3GPP TS 38.212, 3GPP TS 38.213, 3GPP TS 38.321 and 3GPP TS 38.331 documents It can be.
  • 3GPP technical specification TS 38.211, 3GPP TS 38.212, 3GPP TS 38.213, 3GPP TS 38.321 and 3GPP TS 38.331 documents It can be.
  • embodiments of the present disclosure may be applied to other wireless access systems, and are not limited to the above-described systems.
  • it may also be applicable to a system applied after the 3GPP 5G NR system, and is not limited to a specific system.
  • CDMA code division multiple access
  • FDMA frequency division multiple access
  • TDMA time division multiple access
  • OFDMA orthogonal frequency division multiple access
  • SC-FDMA single carrier frequency division multiple access
  • LTE is 3GPP TS 36.xxx Release 8 or later
  • LTE technology after 3GPP TS 36.xxx Release 10 is referred to as LTE-A
  • xxx Release 13 may be referred to as LTE-A pro.
  • 3GPP NR may mean technology after TS 38.xxx Release 15.
  • 3GPP 6G may mean technology after TS Release 17 and/or Release 18.
  • "xxx" means a standard document detail number.
  • LTE/NR/6G may be collectively referred to as a 3GPP system.
  • FIG. 1 is a diagram illustrating an example of a communication system applied to the present disclosure.
  • a communication system 100 applied to the present disclosure includes a wireless device, a base station, and a network.
  • the wireless device means a device that performs communication using a radio access technology (eg, 5G NR, LTE), and may be referred to as a communication/wireless/5G device.
  • the wireless device includes a robot 100a, a vehicle 100b-1 and 100b-2, an extended reality (XR) device 100c, a hand-held device 100d, and a home appliance. appliance) 100e, Internet of Thing (IoT) device 100f, and artificial intelligence (AI) device/server 100g.
  • a radio access technology eg, 5G NR, LTE
  • XR extended reality
  • IoT Internet of Thing
  • AI artificial intelligence
  • the vehicle may include a vehicle equipped with a wireless communication function, an autonomous vehicle, a vehicle capable of performing inter-vehicle communication, and the like.
  • the vehicles 100b-1 and 100b-2 may include an unmanned aerial vehicle (UAV) (eg, a drone).
  • UAV unmanned aerial vehicle
  • the XR device 100c includes augmented reality (AR)/virtual reality (VR)/mixed reality (MR) devices, and includes a head-mounted device (HMD), a head-up display (HUD) installed in a vehicle, a television, It may be implemented in the form of smart phones, computers, wearable devices, home appliances, digital signage, vehicles, robots, and the like.
  • the mobile device 100d may include a smart phone, a smart pad, a wearable device (eg, a smart watch, a smart glass), a computer (eg, a laptop computer), and the like.
  • the home appliance 100e may include a TV, a refrigerator, a washing machine, and the like.
  • the IoT device 100f may include a sensor, a smart meter, and the like.
  • the base station 120 and the network 130 may also be implemented as a wireless device, and a specific wireless device 120a may operate as a base station/network node to other wireless devices.
  • the wireless devices 100a to 100f may be connected to the network 130 through the base station 120 .
  • AI technology may be applied to the wireless devices 100a to 100f, and the wireless devices 100a to 100f may be connected to the AI server 100g through the network 130.
  • the network 130 may be configured using a 3G network, a 4G (eg LTE) network, or a 5G (eg NR) network.
  • the wireless devices 100a to 100f may communicate with each other through the base station 120/network 130, but communicate directly without going through the base station 120/network 130 (e.g., sidelink communication). You may.
  • the vehicles 100b-1 and 100b-2 may perform direct communication (eg, vehicle to vehicle (V2V)/vehicle to everything (V2X) communication).
  • the IoT device 100f eg, sensor
  • the IoT device 100f may directly communicate with other IoT devices (eg, sensor) or other wireless devices 100a to 100f.
  • FIG. 2 is a diagram illustrating an example of a wireless device applicable to the present disclosure.
  • a first wireless device 200a and a second wireless device 200b may transmit and receive radio signals through various wireless access technologies (eg, LTE and NR).
  • ⁇ the first wireless device 200a, the second wireless device 200b ⁇ denotes the ⁇ wireless device 100x and the base station 120 ⁇ of FIG. 1 and/or the ⁇ wireless device 100x and the wireless device 100x.
  • can correspond.
  • the first wireless device 200a includes one or more processors 202a and one or more memories 204a, and may further include one or more transceivers 206a and/or one or more antennas 208a.
  • the processor 202a controls the memory 204a and/or the transceiver 206a and may be configured to implement the descriptions, functions, procedures, suggestions, methods and/or operational flow diagrams disclosed herein.
  • the processor 202a may process information in the memory 204a to generate first information/signal, and transmit a radio signal including the first information/signal through the transceiver 206a.
  • the processor 202a may receive a radio signal including the second information/signal through the transceiver 206a and store information obtained from signal processing of the second information/signal in the memory 204a.
  • the memory 204a may be connected to the processor 202a and may store various information related to the operation of the processor 202a.
  • memory 204a may perform some or all of the processes controlled by processor 202a, or instructions for performing the descriptions, functions, procedures, suggestions, methods, and/or flowcharts of operations disclosed herein. It may store software codes including them.
  • the processor 202a and the memory 204a may be part of a communication modem/circuit/chip designed to implement a wireless communication technology (eg, LTE, NR).
  • the transceiver 206a may be coupled to the processor 202a and may transmit and/or receive wireless signals through one or more antennas 208a.
  • the transceiver 206a may include a transmitter and/or a receiver.
  • the transceiver 206a may be used interchangeably with a radio frequency (RF) unit.
  • RF radio frequency
  • a wireless device may mean a communication modem/circuit/chip.
  • the second wireless device 200b includes one or more processors 202b, one or more memories 204b, and may further include one or more transceivers 206b and/or one or more antennas 208b.
  • the processor 202b controls the memory 204b and/or the transceiver 206b and may be configured to implement the descriptions, functions, procedures, suggestions, methods and/or operational flow diagrams disclosed herein.
  • the processor 202b may process information in the memory 204b to generate third information/signal, and transmit a radio signal including the third information/signal through the transceiver 206b.
  • the processor 202b may receive a radio signal including the fourth information/signal through the transceiver 206b and store information obtained from signal processing of the fourth information/signal in the memory 204b.
  • the memory 204b may be connected to the processor 202b and may store various information related to the operation of the processor 202b. For example, memory 204b may perform some or all of the processes controlled by processor 202b, or instructions for performing the descriptions, functions, procedures, suggestions, methods, and/or flowcharts of operations disclosed herein. It may store software codes including them.
  • the processor 202b and the memory 204b may be part of a communication modem/circuit/chip designed to implement a wireless communication technology (eg, LTE, NR).
  • a wireless communication technology eg, LTE, NR
  • the transceiver 206b may be coupled to the processor 202b and may transmit and/or receive wireless signals through one or more antennas 208b.
  • the transceiver 206b may include a transmitter and/or a receiver.
  • the transceiver 206b may be used interchangeably with an RF unit.
  • a wireless device may mean a communication modem/circuit/chip.
  • one or more protocol layers may be implemented by one or more processors 202a, 202b.
  • the one or more processors 202a and 202b may include one or more layers (eg, PHY (physical), MAC (media access control), RLC (radio link control), PDCP (packet data convergence protocol), RRC (radio resource) control) and functional layers such as service data adaptation protocol (SDAP).
  • One or more processors 202a, 202b may generate one or more protocol data units (PDUs) and/or one or more service data units (SDUs) according to the descriptions, functions, procedures, proposals, methods, and/or operational flow charts disclosed herein.
  • PDUs protocol data units
  • SDUs service data units
  • processors 202a, 202b may generate messages, control information, data or information according to the descriptions, functions, procedures, proposals, methods and/or operational flow diagrams disclosed herein.
  • One or more processors 202a, 202b generate PDUs, SDUs, messages, control information, data or signals (eg, baseband signals) containing information according to the functions, procedures, proposals and/or methods disclosed herein , may be provided to one or more transceivers 206a and 206b.
  • One or more processors 202a, 202b may receive signals (eg, baseband signals) from one or more transceivers 206a, 206b, and descriptions, functions, procedures, proposals, methods, and/or flowcharts of operations disclosed herein PDUs, SDUs, messages, control information, data or information can be obtained according to these.
  • signals eg, baseband signals
  • One or more processors 202a, 202b may be referred to as a controller, microcontroller, microprocessor or microcomputer.
  • One or more processors 202a, 202b may be implemented by hardware, firmware, software, or a combination thereof.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays
  • firmware or software may be implemented using firmware or software, and the firmware or software may be implemented to include modules, procedures, functions, and the like.
  • Firmware or software configured to perform the descriptions, functions, procedures, proposals, methods and/or operational flow charts disclosed in this document may be included in one or more processors 202a or 202b or stored in one or more memories 204a or 204b. It can be driven by the above processors 202a and 202b.
  • the descriptions, functions, procedures, suggestions, methods and/or operational flow charts disclosed in this document may be implemented using firmware or software in the form of codes, instructions and/or sets of instructions.
  • One or more memories 204a, 204b may be coupled to one or more processors 202a, 202b and may store various types of data, signals, messages, information, programs, codes, instructions and/or instructions.
  • One or more memories 204a, 204b may include read only memory (ROM), random access memory (RAM), erasable programmable read only memory (EPROM), flash memory, hard drive, registers, cache memory, computer readable storage media, and/or It may consist of a combination of these.
  • One or more memories 204a, 204b may be located internally and/or externally to one or more processors 202a, 202b.
  • one or more memories 204a, 204b may be connected to one or more processors 202a, 202b through various technologies such as wired or wireless connections.
  • One or more transceivers 206a, 206b may transmit user data, control information, radio signals/channels, etc. referred to in the methods and/or operational flow charts of this document to one or more other devices.
  • One or more transceivers 206a, 206b may receive user data, control information, radio signals/channels, etc. referred to in descriptions, functions, procedures, proposals, methods and/or operational flow charts, etc. disclosed herein from one or more other devices. there is.
  • one or more transceivers 206a and 206b may be connected to one or more processors 202a and 202b and transmit and receive radio signals.
  • one or more processors 202a, 202b may control one or more transceivers 206a, 206b to transmit user data, control information, or radio signals to one or more other devices.
  • one or more processors 202a, 202b may control one or more transceivers 206a, 206b to receive user data, control information, or radio signals from one or more other devices.
  • one or more transceivers 206a, 206b may be coupled to one or more antennas 208a, 208b, and one or more transceivers 206a, 206b may be connected to one or more antennas 208a, 208b to achieve the descriptions, functions disclosed in this document.
  • one or more antennas may be a plurality of physical antennas or a plurality of logical antennas (eg, antenna ports).
  • One or more transceivers (206a, 206b) in order to process the received user data, control information, radio signal / channel, etc. using one or more processors (202a, 202b), the received radio signal / channel, etc. in the RF band signal It can be converted into a baseband signal.
  • One or more transceivers 206a and 206b may convert user data, control information, and radio signals/channels processed by one or more processors 202a and 202b from baseband signals to RF band signals.
  • one or more transceivers 206a, 206b may include (analog) oscillators and/or filters.
  • FIG. 3 is a diagram illustrating another example of a wireless device applied to the present disclosure.
  • a wireless device 300 corresponds to the wireless devices 200a and 200b of FIG. 2, and includes various elements, components, units/units, and/or modules. ) can be configured.
  • the wireless device 300 may include a communication unit 310, a control unit 320, a memory unit 330, and an additional element 340.
  • the communication unit may include communication circuitry 312 and transceiver(s) 314 .
  • communication circuitry 312 may include one or more processors 202a, 202b of FIG. 2 and/or one or more memories 204a, 204b.
  • transceiver(s) 314 may include one or more transceivers 206a, 206b of FIG.
  • the control unit 320 is electrically connected to the communication unit 310, the memory unit 330, and the additional element 340 and controls overall operations of the wireless device. For example, the control unit 320 may control electrical/mechanical operations of the wireless device based on programs/codes/commands/information stored in the memory unit 330. In addition, the control unit 320 transmits the information stored in the memory unit 330 to the outside (eg, another communication device) through the communication unit 310 through a wireless/wired interface, or transmits the information stored in the memory unit 330 to the outside (eg, another communication device) through the communication unit 310. Information received through a wireless/wired interface from other communication devices) may be stored in the memory unit 330 .
  • the additional element 340 may be configured in various ways according to the type of wireless device.
  • the additional element 340 may include at least one of a power unit/battery, an input/output unit, a driving unit, and a computing unit.
  • the wireless device 300 may be a robot (FIG. 1, 100a), a vehicle (FIG. 1, 100b-1, 100b-2), an XR device (FIG. 1, 100c), a mobile device (FIG. 1, 100d) ), home appliances (FIG. 1, 100e), IoT devices (FIG.
  • Wireless devices can be mobile or used in a fixed location depending on the use-case/service.
  • various elements, components, units/units, and/or modules in the wireless device 300 may be entirely interconnected through a wired interface or at least partially connected wirelessly through the communication unit 310 .
  • the control unit 320 and the communication unit 310 are connected by wire, and the control unit 320 and the first units (eg, 130 and 140) are connected wirelessly through the communication unit 310.
  • each element, component, unit/unit, and/or module within wireless device 300 may further include one or more elements.
  • the control unit 320 may be composed of one or more processor sets.
  • control unit 320 may include a set of a communication control processor, an application processor, an electronic control unit (ECU), a graphic processing processor, a memory control processor, and the like.
  • memory unit 330 may include RAM, dynamic RAM (DRAM), ROM, flash memory, volatile memory, non-volatile memory, and/or combinations thereof. can be configured.
  • AI devices include TVs, projectors, smartphones, PCs, laptops, digital broadcasting terminals, tablet PCs, wearable devices, set-top boxes (STBs), radios, washing machines, refrigerators, digital signage, robots, vehicles, etc. It may be implemented as a device or a movable device.
  • the AI device 600 includes a communication unit 610, a control unit 620, a memory unit 630, an input/output unit 640a/640b, a running processor unit 640c, and a sensor unit 640d.
  • a communication unit 610 can include a communication unit 610, a control unit 620, a memory unit 630, an input/output unit 640a/640b, a running processor unit 640c, and a sensor unit 640d.
  • Blocks 910 to 930/940a to 940d may respectively correspond to blocks 310 to 330/340 of FIG. 3 .
  • the communication unit 610 communicates wired and wireless signals (eg, sensor information, user data) with external devices such as other AI devices (eg, FIG. 1, 100x, 120, and 140) or AI servers (Fig. input, learning model, control signal, etc.) can be transmitted and received. To this end, the communication unit 610 may transmit information in the memory unit 630 to an external device or transmit a signal received from the external device to the memory unit 630 .
  • external devices eg, sensor information, user data
  • AI devices eg, FIG. 1, 100x, 120, and 140
  • AI servers Fig. input, learning model, control signal, etc.
  • the controller 620 may determine at least one executable operation of the AI device 600 based on information determined or generated using a data analysis algorithm or a machine learning algorithm. And, the controller 620 may perform the determined operation by controlling components of the AI device 600 . For example, the control unit 620 may request, retrieve, receive, or utilize data from the learning processor unit 640c or the memory unit 630, and may perform a predicted operation among at least one feasible operation or one determined to be desirable. Components of the AI device 600 may be controlled to execute an operation. In addition, the control unit 920 collects history information including user feedback on the operation contents or operation of the AI device 600 and stores it in the memory unit 630 or the running processor unit 640c, or the AI server ( 1, 140) can be transmitted to an external device. The collected history information can be used to update the learning model.
  • the memory unit 630 may store data supporting various functions of the AI device 600 .
  • the memory unit 630 may store data obtained from the input unit 640a, data obtained from the communication unit 610, output data of the learning processor unit 640c, and data obtained from the sensing unit 640.
  • the memory unit 930 may store control information and/or software codes required for operation/execution of the control unit 620 .
  • the input unit 640a may obtain various types of data from the outside of the AI device 600.
  • the input unit 620 may obtain learning data for model learning and input data to which the learning model is to be applied.
  • the input unit 640a may include a camera, a microphone, and/or a user input unit.
  • the output unit 640b may generate an output related to sight, hearing, or touch.
  • the output unit 640b may include a display unit, a speaker, and/or a haptic module.
  • the sensing unit 640 may obtain at least one of internal information of the AI device 600, surrounding environment information of the AI device 600, and user information by using various sensors.
  • the sensing unit 640 may include a proximity sensor, an illuminance sensor, an acceleration sensor, a magnetic sensor, a gyro sensor, an inertial sensor, an RGB sensor, an IR sensor, a fingerprint recognition sensor, an ultrasonic sensor, an optical sensor, a microphone, and/or a radar. there is.
  • the learning processor unit 640c may learn a model composed of an artificial neural network using learning data.
  • the running processor unit 640c may perform AI processing together with the running processor unit of the AI server (FIG. 1, 140).
  • the learning processor unit 640c may process information received from an external device through the communication unit 610 and/or information stored in the memory unit 630 .
  • the output value of the learning processor unit 940c may be transmitted to an external device through the communication unit 610 and/or stored in the memory unit 630.
  • 6G (radio communications) systems are characterized by (i) very high data rates per device, (ii) very large number of connected devices, (iii) global connectivity, (iv) very low latency, (v) battery- It aims to lower energy consumption of battery-free IoT devices, (vi) ultra-reliable connectivity, and (vii) connected intelligence with machine learning capabilities.
  • the vision of the 6G system can be four aspects such as “intelligent connectivity”, “deep connectivity”, “holographic connectivity”, and “ubiquitous connectivity”, and the 6G system can satisfy the requirements shown in Table 1 below. That is, Table 1 is a table showing the requirements of the 6G system.
  • the 6G system is enhanced mobile broadband (eMBB), ultra-reliable low latency communications (URLLC), mMTC (massive machine type communications), AI integrated communication, tactile Internet (tactile internet), high throughput, high network capacity, high energy efficiency, low backhaul and access network congestion and improved data security ( can have key factors such as enhanced data security.
  • eMBB enhanced mobile broadband
  • URLLC ultra-reliable low latency communications
  • mMTC massive machine type communications
  • AI integrated communication e.g., AI integrated communication
  • tactile Internet tactile internet
  • high throughput high network capacity
  • high energy efficiency high backhaul and access network congestion
  • improved data security can have key factors such as enhanced data security.
  • AI The most important and newly introduced technology for the 6G system is AI.
  • AI was not involved in the 4G system.
  • 5G systems will support partial or very limited AI.
  • the 6G system will be AI-enabled for full automation.
  • Advances in machine learning will create more intelligent networks for real-time communication in 6G.
  • Introducing AI in communications can simplify and enhance real-time data transmission.
  • AI can use a plethora of analytics to determine how complex target tasks are performed. In other words, AI can increase efficiency and reduce processing delays.
  • AI can also play an important role in machine-to-machine, machine-to-human and human-to-machine communications.
  • AI can be a rapid communication in the brain computer interface (BCI).
  • BCI brain computer interface
  • AI-based communication systems can be supported by metamaterials, intelligent structures, intelligent networks, intelligent devices, intelligent cognitive radios, self-sustaining wireless networks, and machine learning.
  • AI-based physical layer transmission means applying a signal processing and communication mechanism based on an AI driver rather than a traditional communication framework in fundamental signal processing and communication mechanisms. For example, deep learning-based channel coding and decoding, deep learning-based signal estimation and detection, deep learning-based multiple input multiple output (MIMO) mechanism, It may include AI-based resource scheduling and allocation.
  • MIMO multiple input multiple output
  • machine learning may be used for channel estimation and channel tracking, and may be used for power allocation, interference cancellation, and the like in a downlink (DL) physical layer.
  • Machine learning can also be used for antenna selection, power control, symbol detection, and the like in a MIMO system.
  • AI algorithms based on deep learning require a lot of training data to optimize training parameters.
  • a lot of training data is used offline. This is because static training on training data in a specific channel environment may cause a contradiction between dynamic characteristics and diversity of a radio channel.
  • Machine learning refers to a set of actions that train a machine to create a machine that can do tasks that humans can or cannot do.
  • Machine learning requires data and a running model.
  • data learning methods can be largely classified into three types: supervised learning, unsupervised learning, and reinforcement learning.
  • Neural network training is aimed at minimizing errors in the output.
  • Neural network learning repeatedly inputs training data to the neural network, calculates the output of the neural network for the training data and the error of the target, and backpropagates the error of the neural network from the output layer of the neural network to the input layer in a direction to reduce the error. ) to update the weight of each node in the neural network.
  • Supervised learning uses training data in which correct answers are labeled in the learning data, and unsupervised learning may not have correct answers labeled in the learning data. That is, for example, learning data in the case of supervised learning related to data classification may be data in which each learning data is labeled with a category. Labeled training data is input to the neural network, and an error may be calculated by comparing the output (category) of the neural network and the label of the training data. The calculated error is back-propagated in a reverse direction (ie, from the output layer to the input layer) in the neural network, and the connection weight of each node of each layer of the neural network may be updated according to the back-propagation.
  • a reverse direction ie, from the output layer to the input layer
  • the amount of change in the connection weight of each updated node may be determined according to a learning rate.
  • the neural network's computation of input data and backpropagation of errors can constitute a learning cycle (epoch).
  • the learning rate may be applied differently according to the number of iterations of the learning cycle of the neural network. For example, a high learning rate is used in the early stages of neural network learning to increase efficiency by allowing the neural network to quickly achieve a certain level of performance, and a low learning rate can be used in the late stage to increase accuracy.
  • the learning method may vary depending on the characteristics of the data. For example, in a case where the purpose of the receiver is to accurately predict data transmitted by the transmitter in a communication system, it is preferable to perform learning using supervised learning rather than unsupervised learning or reinforcement learning.
  • the learning model corresponds to the human brain, and the most basic linear model can be considered. ) is called
  • the neural network cord used as a learning method is largely divided into deep neural networks (DNN), convolutional deep neural networks (CNN), and recurrent boltzmann machine (RNN). and this learning model can be applied.
  • DNN deep neural networks
  • CNN convolutional deep neural networks
  • RNN recurrent boltzmann machine
  • OIS Optical Image Stabilizer
  • federated learning may refer to a learning method in which an algorithm is trained on multiple devices or servers having local data samples without exchanging data samples. In this case, the federated learning method can build a common powerful machine learning model without sharing data between multiple devices.
  • federated learning can address important issues such as data privacy, data security, data access rights, and heterogeneous data access.
  • a plurality of devices may learn a local model for a local data sample as an operation for federated learning. After that, each of the plurality of devices may transfer parameters of the local model (e.g., weights and information of the deep neural network) to the base station or the server based on the learned local model. In this case, the base station or the server may update the global model and transmit the updated global model to each of the plurality of devices again.
  • an AirComp (Over the Air Computing) method may be a method in which parameters of local models are transmitted to a base station or a server based on the same radio resource.
  • a global model may exist in a base station or a server, and local models may exist in each of a plurality of devices.
  • a plurality of devices and a base station or server may operate organically by being connected by various communication methods (including wired/wireless) for transmitting the above-described models.
  • the above method may be equally applied to an image input device and an image output device, which will be described below.
  • FIG. 5 is a diagram illustrating associative learning according to an embodiment of the present disclosure.
  • a method for efficient distributed artificial intelligence learning in a mobile communication system can be provided.
  • the centralized learning method may be a method in which terminals transfer each data to a base station and learning is performed at the base station.
  • centralized learning that transmits data of terminals to a base station or server may have limitations in data security. Therefore, a wireless federated learning method may be required as a distributed learning method that does not send user data.
  • the wireless joint learning method may be a method in which each terminal transmits a local model update to the base station while performing individual learning instead of transmitting each data of the terminals to the base station.
  • the base station may transmit a combined value of the local model updates to each terminal based on the local model update received from the plurality of terminals.
  • the above-described procedure may be continuously repeated, and distributed learning may be performed by association of terminals.
  • the wireless calculation (Aircomp) method may be a method of applying and transmitting a weight proportional to an inverse of a radio channel in order to combine local models sent by respective terminals into the same size.
  • model parameters of federated learning may be applied to a new communication system.
  • Federated learning may be applied to any one of cases of protecting individual privacy, reducing load of a base station through distributed processing, and reducing traffic between a base station and a terminal.
  • the traffic of local model parameters e.g., weights and information of deep neural networks
  • Air Computing can reduce traffic.
  • a wireless communication environment in a communication system may vary.
  • the number of terminals requiring learning in the communication system may be set in various ways.
  • the communication system may require a flexible operating method and system, rather than a specific fixed technology, in consideration of the above-mentioned environment.
  • resource efficiency of the communication system can be increased.
  • a federated learning method through Aircomp may be a method of combining terminal model parameters.
  • the federated learning method through terminal model parameter compression may be a method in which each terminal performs compression on data in consideration of characteristics of parameters and transmits the compressed data to the base station. Therefore, when the base station receives a signal based on the joint learning method, the base station needs to decompress based on the received signal and perform an operation of summing the collected parameters, and the load of the base station may increase . Also, for example, since a communication channel needs to be allocated for each number of terminals, communication traffic may increase in proportion to the number of terminals in use. Therefore, when there are a large number of terminals, the method through compression may reduce efficiency.
  • efficiency may vary based on a wireless environment. For example, efficiency may be high in a specific environment, but in the opposite case, efficiency may be deteriorated. Since the wireless environment can change flexibly, there is a need to recognize the dynamically changing wireless environment and to select a technology based on the recognized wireless environment. In the following, an operation based on the foregoing will be described in order to increase the efficiency of a wireless environment.
  • each terminal may transmit parameters (eg, weights and information of a deep neural network) of a model learned based on a federated learning method to the base station.
  • Each terminal transmits the compressed parameters, and the base station may update the global model based on Equation 1 below.
  • c may be information compression and modulation processing
  • d may be demodulation and information restoration processing.
  • the base station can deliver the updated global model to each terminal.
  • each terminal may perform compression based on a method of minimizing the amount of model parameters.
  • compression may be performed based on at least one of weight pruning, quantization, and weight sharing.
  • compression may be performed based on another method, and is not limited to the above-described embodiment.
  • values necessary for actual inference among weights may have resistance to small values. That is, the weight value required for actual inference may have a small effect on small values.
  • weight pruning may set all small weight values to 0. Through this, the neural network can reduce the size of the network model.
  • quantization may be a method of calculating by reducing data to a specific number of bits.
  • weight sharing may be a method of adjusting weight values based on approximate values (e.g. codebooks) and sharing them.
  • approximate values e.g. codebooks
  • each terminal may perform compression on data and transmit compressed information to the base station.
  • the base station is compressed may be received from each terminal, and the parameters of the global model may be calculated and updated by decompressing the received information.
  • each terminal may set local model parameters having individual characteristics. Therefore, when each terminal performs compression, compression efficiency may be different for each terminal. Also, as an example, each terminal may have different hardware resources. Here, compression efficiency may be affected by hardware resources. Therefore, compression efficiency may be different for each terminal.
  • a terminal when a terminal performs 8-bit quantization, a terminal equipped with a 64-bit arithmetic processing function can obtain high compression efficiency.
  • a terminal equipped with a 16-bit arithmetic processing function may have low compression efficiency.
  • the terminal when the terminal has low-end hardware, the terminal may receive a large compression load. Therefore, it may be advantageous for the terminal described above to use a simple compression method. For example, since Internet of Thing (IoT) terminals or low-power terminals may have relatively low-end hardware, a simple compression technique may be used.
  • IoT Internet of Thing
  • compression efficiency may be increased by using a complex compression technique. That is, different compression methods may be used for each terminal, and it may be necessary to use a compression method suitable for each terminal.
  • each terminal may use a compression method suitable for individual characteristics of local model parameters and hardware resources.
  • the terminals need to transmit information about the compression method to the base station.
  • the base station may restore compressed data and model parameters received from each terminal based on information received from the terminal.
  • a case in which the above-described aircom-type combined learning is performed may be considered.
  • air comp is applied in a smart communication environment in which a plurality of reflectors exist, optimization may be complicated because all signals of a plurality of terminals are transmitted to the reflector. Thus, signaling processing may become difficult.
  • a method for efficiently performing Aircom combined learning through a reflector based on an efficient protocol and optimization method may be required, and a method for this will be described below.
  • the terminals 520 and 530 , and 540 may transmit local model update information to the base station 510 through a method in which the global model is calculated over the air using the same radio resource, as described above.
  • the plurality of terminals 520, 530, and 540 in FIG. 5 may be vehicles, smart devices, or other devices that perform autonomous driving based on AI, and are not limited to the above-described embodiment.
  • associative learning can be divided into the following three steps. At this time, the following three steps may be sequentially repeated until the update value converges to a certain value.
  • each of the terminals 520, 530, and 540 uses their own data to receive a previously received global model ( ), update the local model ( ) can be created.
  • the initial global model may be an initial untrained neural network, but may not be limited thereto.
  • an update may be performed based on the local model.
  • Equation 2 below may be a case where an update is performed based on a stochastic gradient method, but the corresponding method may not be limited.
  • each of the terminals 520, 530, and 540 has an updated local model ( ) may be transmitted to the base station 510 through the same radio resource.
  • the base station 510 may be connected to a server or a cloud server.
  • the base station 510 is described based on a case in which the server serves, but may not be limited thereto.
  • the base station 510 may transmit the global model to the server in order to combine local models received from a plurality of terminals, but is not limited to the above-described embodiment.
  • the base station 510 may receive a global model in which local models are combined over the air, and may perform an update. After that, the base station 510 may transmit the global model to the plurality of terminals 520, 530, and 540 at time k based on the updated information. For example, the above-described step 3 may be repeatedly performed based on the convergence of values of the global model or a given number of times.
  • FIG. 6 is a diagram illustrating an image input/output device according to an embodiment of the present disclosure.
  • the video input/output device may acquire video input.
  • the image input device e.g. camera
  • the image input device may change the characteristics of the image through the lens.
  • at least one of functions such as zoom, wide angle, auto focus, and OIS can be performed through mechanical movement of a solid lens (e.g. glass, plastic), and the image input device
  • image characteristics may be changed based on motions of the 3-group lenses operating in the telephoto and wide-angle directions.
  • FIG. 6 may be a multi-zoom group lens system.
  • the focal length of the optical system can be shortened (wide-angle). If the lens is far away and the second and third lenses are close together, the focal length of the optical system can be long (telephoto). Therefore, when changing the position between the first lens (L_1) and the third lens (L_3), the focal length is proportional to the position. can be continuously changed.
  • FIG. 6 may display a wide-angle view and a telephoto view sequentially from the top.
  • FIG. 7 is a diagram illustrating an OIS principle according to an embodiment of the present disclosure. Referring to FIG. 7 , a tilt phenomenon of a camera caused by hand shake can be compensated for through a mechanical movement of a lens, and based on the foregoing description, the image input device can change the characteristics of an image.
  • FIG. 8 is a diagram illustrating a metalens structure according to an embodiment of the present disclosure.
  • the lenses may be made of glass or a material similar to glass.
  • the lenses can be configured based on the above-described material because a more accurate and clear image can be obtained only when the glass is accurately polished to a curved surface and the light is clearly collected.
  • the cost of polishing the curved surface may be high, and since the characteristics of the curved surface are fixed during lens manufacturing, many restrictions may exist in space.
  • the meta lens may be a technology for implementing characteristics similar to those of a glass lens using a meta surface.
  • the focal length of the image may be variously adjusted through the meta lens.
  • the metalens makes the surface of a material into an artificial small and precisely patterned structure, and adjusts the refractive index (permittivity and permeability equation) of each element to focus. can change its distance or location.
  • FIG. 8(a) may be a fixed structure metalens implemented with PGMS (Phase Gradient MetaSurface), but the metalens structure may not be limited thereto.
  • the metalens can control the directionality of light by changing a spherical wave into a plane wave.
  • a spherical wave may be changed into a plane wave through a metal lens to give directionality of light.
  • the wavefront transmitted by combining the wavefront of the spherical wave and the phase shift of the metalens may have a shape of a plane wave, but may not be limited thereto.
  • the meta lens can change the focal length and other image characteristics by controlling the parameters of each element differently from conventional fixed lenses, which will be described below.
  • the metalens may give variable characteristics to the image input/output device, and input/output may be controlled integrally or organically through a controller.
  • an imaging device whose characteristics are variable as described above may be controlled based on the location of a user terminal, and artificial intelligence learning (eg, federated learning) may be performed using information about this.
  • each terminal communicates with the base station or the server to change the characteristics of the imaging apparatus through associative learning based on location information of the terminals, thereby controlling the imaging apparatus in consideration of the environment.
  • each terminal may be a device used by a user.
  • the location information of the user may be recognized as the location information of the terminal, and based on this, the metalens artificial system may be controlled.
  • the server may be a device that operates in connection with a base station or access point (AP), receives location-based parameter information from a terminal, and updates a global model through federated learning based thereon.
  • AP access point
  • a device that updates a global model in consideration of federated learning may refer to a device that communicates with a terminal such as a server, base station, or access point, and may not be limited to a specific form.
  • a terminal such as a server, base station, or access point
  • the base station is mainly described for convenience of description.
  • FIG. 9 is a diagram illustrating an artificial intelligence system for controlling a metalens for user-based image input/output according to an embodiment of the present disclosure.
  • the location and distance of the user 930 may be recognized through a Time of Flight (TOF) camera.
  • TOF Time of Flight
  • the TOF camera since the TOF camera has a small angle of view, there may be limitations in detecting all areas. Accordingly, a wide-angle effect may be obtained by sequentially adjusting the direction of the angle of view (focus direction) through the metal lens 940 .
  • the metalens controller 920 sequentially selects a direction vector to obtain information about the user 930, and the Agent (artificial intelligence, 910) recognizes the direction or distance of the user 830 through the direction vector and the TOF image. can do.
  • the artificial intelligence 910 may be implemented in a base station or may be a device connected to the base station or a cloud, and may not be limited to a specific form.
  • the artificial intelligence 910 may transfer a value for controlling the metalens of the image output device to the metalens controller 920 based on the user's perceived image.
  • the control value may be implemented in the form of a codebook having a focal length, a focal direction, and a radius of curvature according to the location of the user, and may not be limited to a specific form.
  • the artificial intelligence 910 or the base station may operate by receiving location information from a terminal equipped by the user 930 instead of a TOF camera, and may not be limited to a specific form.
  • FIG. 10 is a diagram illustrating a method of controlling a metalens according to an embodiment of the present disclosure.
  • the meta lens can adjust the steering of the light source.
  • the phase of each meta-atom (or element) of the meta-lens the spherical wave can be adjusted so that the wavefront has steering properties.
  • the passing wavefront may be tilted to the right, and may be controlled through the above-described method.
  • FIG. 10 is a diagram illustrating a method of controlling a metalens according to an embodiment of the present disclosure.
  • the meta lens can adjust the steering of the light source.
  • the phase of each meta-atom (or element) of the meta-lens the spherical wave can be adjusted so that the wavefront has steering properties.
  • the passing wavefront may be tilted to the right, and may be controlled through the above-described method.
  • FIG. 10 is a diagram illustrating a method of controlling a metalens according to an embodiment of the present disclosure.
  • FIG. 10 (b) is a diagram showing how the meta lens adjusts the curvature of an image.
  • the user by adjusting the curvature of an image, the user can have a three-dimensional effect like a curved monitor.
  • a curved monitor shape of an image through a metal lens, it is necessary to set the distance to the image and the position of the user's eyes the same by enlarging the image at the edge of the field of view as well as the direction of light.
  • FIGS. 11 and 12 are diagrams illustrating comparison of viewing distances between curved and flat image outputs according to an embodiment of the present disclosure.
  • the enlargement or reduction area of the metalens varies for each position of the screen, not one but a plurality of overlapping may be required, and it may be controlled based on the curved radius of curvature.
  • the radius of curvature 1800R may indicate a degree of curvature having a radius of 180 cm, but this is only one example and is not limited to the above-described embodiment.
  • the metalens artificial intelligence system 1310 may include a user recognition unit 1311 and a metalens characteristic prediction unit 1312.
  • the metalens artificial intelligence system 1310 may further include other components, and is not limited to the above-described embodiment.
  • the metalens artificial intelligence system 1310 may recognize a user through an image from a camera based on a currently set metalens characteristic value.
  • the user recognition unit 1311 of the metalens artificial intelligence system 1310 may extract user-related information and transmit it to the metalens characteristic prediction unit 1312 .
  • the user-related information may include at least one of user direction information, distance information, and state information, and is not limited to a specific information type.
  • the metalens artificial intelligence system 1310 may further obtain user-related additional information from a terminal equipped by the user and transmit it to the metalens controller 1320.
  • the terminal may be a terminal used by the user after completing authentication, and may be possessed by the user.
  • the terminal may be a device (e.g. remote controller) related to the video input/output device, and may not be limited to a specific form.
  • the terminal may transmit location information of the terminal and other user-related additional information to the artificial intelligence system 1310, and may utilize them.
  • the metalens characteristic prediction unit 1312 may select a metalens control value stored as a codebook based on user recognition information, and transmit the selected control value to the metalens controller 1320 .
  • the image input device 1321 and the image output device 1322 in the metalens controller 1320 may control the metalens based on the obtained control value corresponding to the codebook.
  • the metalens artificial intelligence system 1310 may operate based on communication, and data burden may exist.
  • the user recognition unit 1311 of the artificial intelligence system 1310 is implemented in a device (e.g. camera) that acquires an actual image
  • the metalens characteristic prediction unit 1312 is a base station or server. It can be implemented in, and learning and prediction can be performed in a distributed manner.
  • FIG. 14 is a diagram illustrating the operation of a distributed learning artificial intelligence system according to an embodiment of the present disclosure.
  • a base station (or server) 1410, an image input device 1420, and an image output device 1430 may exchange data through mutual communication.
  • the metal lens controller of the camera can recognize user-related information through the input image by changing the steering of the metal lens.
  • the camera may control the received image by changing the steering of the meta lens like the lens tilt function of the OIS, but may not be limited thereto.
  • the user-related information may include at least one of the user's direction, distance, and state (viewing angle) information, and is not limited to the above-described embodiment.
  • the image input device 1420 includes an artificial intelligence user recognition unit, and based on this, user-related information may be derived.
  • the video input device 1420 may transmit the derived user-related information (or user recognition information) to the base station (or server, 1410).
  • the base station or server, 1410) uses the artificial intelligence
  • the artificial intelligence metalens characteristic prediction unit of the system may be provided, and through this, the metalens characteristic factor (or metalens parameter) may be derived (or predicted).
  • the metalens characteristic factor is the user's direction, It can be defined as an index of a codebook having various patterns of metalens according to location information such as distance, etc.
  • the base station 1410 further obtains location information and user-related additional information from a terminal owned by the user.
  • the artificial intelligence metalens characteristic predictor may derive a metalens characteristic factor by further using information acquired from the terminal, and may not be limited to a specific form.
  • the characteristic factor of the metalens in the form of an index of the codebook is , , and At least one of them can be used. At this time, and may be the x-coordinate and y-coordinate of a focal point, respectively. also, is the focal length, may be the radius of curvature. Also, as an example, the characteristic factor of the metalens may further include other parameters, and may not be limited to the above parameters. At this time, as an example, the user's direction and distance may be expressed based on the characteristic factor of the metalens, and each of the above-described values may be x, y, l, and c, and the corresponding values may be quantized as an index.
  • the base station may generate a related metalens control value based on the artificial intelligence metalens characteristic prediction unit.
  • the generated metalens control value may be transmitted to the image input device 1420 and the image output device 1430, respectively.
  • the image input device 1420 transmits related information to the metalens characteristic predictor while recognizing and tracking the user's motion, and continuously sets the metalens control value based on whether the metalens characteristic predictor is the metalens characteristic. can be updated
  • the image input device 1420 may recognize the entire situation of a preset space while sequentially searching in all directions based on a predetermined period. That is, the image input device 1420 periodically obtains image information, extracts user-related information, transmits it to the base station 1410, and periodically updates control values related to the metalens characteristic factor, thereby performing user perception-based control. can do.
  • the video output device is an indoor TV
  • the image input device may acquire user-related information, as described above.
  • the TV remote control may be the above-described terminal, and the location of the user may be indirectly measured through the location of the remote control.
  • the user's distance and direction are determined by measuring the TV reception power from the remote control or the Arrival of Angle (AoA) of the TV array antenna to determine the distance and direction from the TV to the remote control. It can be measured by recognizing distance and direction.
  • the user's distance and direction can be detected by performing object detection through WIFI sensing to recognize the relative position of the remote control to the TV, and through this, the user's distance and direction can be recognized.
  • the location information may be transmitted to a TV by applying power or additional signaling, and is not limited to a specific embodiment.
  • the user recognition unit may be replaced by transmitting user distance and direction information to the base station (or server) through the above-described remote controller or terminal, but may not be limited thereto.
  • FIG. 15 is a diagram illustrating a method of controlling a metalens based on an artificial intelligence system according to an embodiment of the present disclosure.
  • a remote controller 1510 and a video output device 1520 may be provided.
  • the remote controller 1510 may be a device that communicates with a server or an access point (AP).
  • the remote controller 1510 may be a user terminal.
  • the terminal may replace the function of the remote controller 1510 and may be a video output device 1520 or a device that operates through authentication with a server or AP.
  • the description is based on the remote controller 1510, but is not limited thereto, and may be performed through a terminal or other device, and is not limited to a specific form.
  • the image output device 1520 may be a TV or other device that outputs images.
  • the video output device 1520 may be a device having a server or an AP. That is, the video output device 1520 may be combined with a server or AP, and may not be limited to a specific form.
  • the remote controller 1510 may transmit user interference recognition information to the image output device 1520.
  • the user interference recognition information may be direction and distance information with the image output device 1520.
  • other user-related recognition information may be further included, and is not limited to a specific form.
  • the image output device 1520 recognizes the user based on the user interference recognition information, and transfers the information about this to the artificial intelligence metalens characteristic prediction unit to obtain the index (or control value) of the metalens characteristic factor in codebook format. can be derived. Then, the control value is transferred to the metalens controller, and based on this, the image output device 1520 may output an image, which may be the same as in FIG. 14 . Also, as an example, the above-described operation may be repeated based on signaling of the remote controller 1510. For example, when the remote controller 1510 is turned on, the above-described operation may be performed.
  • the remote controller 1510 may transmit signaling to the video output device 1520 based on a preset period and periodically perform the above-described operation.
  • the remote control 1510 may perform the above-described operation based on event triggering (e.g. user's remote control input), and may not be limited to a specific form.
  • FIG. 16 is a flowchart illustrating a method of controlling image input/output based on a metalens according to an embodiment of the present disclosure.
  • the operation of the Metalens artificial intelligence system for user-based image input/output may include a user recognition step, a user tracking repetition step, and a periodic sequential step.
  • the user recognition step may be a step of recognizing at least one information of the user's direction, distance, and state (viewing angle, movement) through the input image by sequentially changing the steering of the metalens.
  • a camera having a limited angle of view can produce a wide-angle effect without the help of a mechanical device, and may not be limited to a specific shape.
  • the artificial intelligence user recognition unit may recognize user recognition information through at least one of object detection and feature extraction, and is not limited to a specific form.
  • the repeating user tracking step may be a step of continuously tracking the user's position and changing the metal lens control of the image input/output device.
  • the video input device may transmit user recognition information to the base station (or server) (S1620), and the base station (or server) may transmit characteristic factors predicted based on the user recognition information to the video input/output device (S1630).
  • the metalens controller of the video input/output device may generate a control value corresponding to the received metalens characteristic factor or perform setting by referring to the codebook, and may derive the setting value. (S1640) At this time, Based on whether the setting value converges, if it does not converge, the user tracking repetition step may be repeated.
  • a periodic sequential search step may be performed.
  • the repeating user tracking step may be performed N times, and the periodic sequential search step may be performed after performing N times.
  • MAB AI or reinforcement learning may be used, and implementation may be possible through supervised learning.
  • the periodic sequential search may be performed at regular intervals to re-search the user or the environment as a whole.
  • a periodic sequential search step may be performed in order to sequentially search in all directions after a certain number of times when it is impossible to track the user's location (S1650).
  • FIGS. 17 and 18 are diagrams illustrating a method of detecting an object in a user recognizer according to an embodiment of the present disclosure.
  • the artificial intelligence system for controlling the metalens may include an artificial intelligence user recognition unit and a metalens characteristic prediction unit.
  • the artificial intelligence user recognition unit may need to secure accuracy and real-time in the form of object detection. Therefore, the artificial intelligence user recognition unit may be suitable for a 1-Stage Detector, and the 1-Stage Detector is divided into a convolution layer for extracting features and a full connected layer for region and classification, which may be shown in FIG. 17.
  • features of an image obtained from a camera may be extracted through a convolution layer with an object detection structure used by a user recognition unit. Then, the extracted features can be composed of Feature Maps, and Feature Maps are composed of a Bounding Box Regression part that predicts the position and size coordinates (x, y, w, h) of objects and multi-class classification that classifies objects. can be derived separately.
  • this is only one example and is not limited to the above-described embodiment.
  • FIG. 17 features of an image obtained from a camera
  • Objectness Score and Class Score can be derived for each individual Grid number S * S and B Box coordinates, each of which is an object (object ) and the probability that the target belongs to the class.
  • the loss function may be equal to Equation 4 below.
  • a balancing parameter for balancing the loss for coordinates (x, y, w, h) with other losses may be a balancing parameter for balancing between a box with an object and a box without an object.
  • a balancing parameter for balancing between a box with an object and a box without an object may be used in consideration of this.
  • the first and second lines in Equation 4 may represent losses of x, y, w, and h for the predictor bounding box j of grid cell i.
  • the coordinates of the center point and the horizontal and vertical sizes may be respectively indicated.
  • a user's viewing angle may be additionally extracted and used as user recognition information, and may not be limited to a specific form.
  • FIG. 19 illustrates a final input/output according to an embodiment of the present disclosure.
  • the user's cognitive information (direction, distance, gaze direction, mobility) can be finally extracted through the metalens control value, which is described above. same as bar
  • the metalens characteristic prediction unit can be implemented by supervised learning like the user recognition unit, but can also be implemented by reinforcement learning.
  • the structure of the metalens control system using supervised learning is based on the user's cognitive information (direction, distance, gaze direction, mobility), which is a characteristic function of the metalens, such as focus position and distance. And the radius of curvature can be predicted, which can be as shown in FIG. 19 (b).
  • reinforcement learning may consist of two inputs and one output, but may not be limited thereto.
  • a state and a reward are used as inputs, and an agent can select an action as an output.
  • the state may not be used in MAB.
  • the action may be an action of providing a user-based optimal image by controlling the metal lens.
  • the metalens control artificial intelligence system can derive the optimal control value as described above by obtaining reward values and changed state information for actions from the environment, using them for learning, and repeating the action selection process. there is.
  • the reinforcement learning-based artificial intelligence 2110 may include a reinforcement learning model 2120.
  • the reinforcement learning model 2120 consists of a learning unit 2121 and a prediction unit 2122, and can predict the next action at the same time as learning.
  • the user's recognition information (direction, distance, viewing direction, mobility), etc. may be used as the state factor, and may be expressed as Equation 5 below.
  • Action is a characteristic factor for generating a metalens control value selected by artificial intelligence and may be a discrete value or a continuous value.
  • a continuous value may be used as an input value of a metalens control value generator
  • a discrete value may be used as an index of a pre-shared codebook
  • an operation may be as shown in Equation 6 below.
  • reward may be an essential factor for learning.
  • a reaction can be predicted through user cognitive information, and a user's liking or concentration can be digitized and used as a reward.
  • user feedback information may be compensation information.
  • the compensation information is not limited to a specific form and may be of various forms.
  • compensation information may be derived as shown in Equation 7 below.
  • DDPG deep deterministic policy gradient
  • DDPG can have the advantages of both policy gradient and DQN. That is, DDPG is stable and can be used in continuous space. Also, as an example, since a deterministic policy is used, convergence is possible quickly and it may be a lightweight algorithm.
  • FIG. 22 illustrates reinforcement learning using DDPG according to an embodiment of the present disclosure.
  • reinforcement learning using DDPG contains the characteristics of both the Actor-Critic algorithm and the DQN algorithm.
  • Q Value Action Function
  • action can be predicted through Actor network and Critic network, respectively.
  • the Critic network can be trained in the direction of reducing TD-Error (Temporal Difference) using Experience Replay Memory, and the learned Critic network can be used for Policy Gradient calculation and learning.
  • Equation 8 the Bellman equation can be expressed through ⁇ instead of ⁇ , and it can be the same as Equation 8.
  • ⁇ E may be a value extracted as an environment.
  • is an action-value function for policy ⁇
  • is a discount factor
  • r may be a reward value.
  • the weight of the Critic Network Expressed as , and when the action policy with various probability distributions is ⁇ , the loss of the Critic Network can be as shown in Equation 9 below.
  • Equation 9 the expected value is Transitions stored in Relay Buffer R ( , , ) can be expressed by minibatching and taking the average value, which can be shown in Equation 10.
  • the Actor Network may update the policy in the direction of maximizing the expected reward value (Expected Return), and may be as shown in Equation 11.
  • the expected value can be approximated using a Relay Buffer as shown in Equation 12 below.
  • the Exploration policy may be generated by adding a noise distribution and may be expressed as Equation 13.
  • the variance of the normal distribution Exploration rate can be adjusted using , and it can be adjusted adaptively using the above-mentioned decaying e-greedy or UCB.
  • FIG. 23 shows a selection artificial intelligence (MAB AI, 2310) system using Thompson sampling according to an embodiment of the present disclosure.
  • selection artificial intelligence (MAB AI, 2310) using Thomson sampling can be largely divided into a learning part and a selection part.
  • the learning unit may update the Thomson sampling parameters ( ⁇ , ⁇ ) for the previous action i based on the reward value (Reward), and the sampling parameters ( ⁇ , ⁇ ) according to the reward may be as shown in Equation 14 there is.
  • the metalens control parameter index having the largest value among the sampled values can be selected by applying the accumulated ⁇ and ⁇ to the beta distribution.
  • the selected ⁇ , , , ⁇ can be passed to the metalens control value generator.
  • the index representing the characteristics of the lens ⁇ , , , ⁇ can be individually selected.
  • a new index that is unified, such as A method of selecting using may also be used, and may not be limited to a specific form.
  • the beta distribution may be as shown in Equation 15 below.
  • the metalens control value generator is a characteristic factor of the lens , , , You can create the control value of the metalens through . , , are factors representing the position and distance of the focal point, respectively, may be a factor for supporting a curved image output device.
  • the metalens control value generator in the metalens controller generates the metalens control value through each characteristic factor, and the size of the metalens, the number of layers, and other settings based on the related factors are based on a pre-calculated codebook. can be controlled to operate.
  • FIG. 24 is a diagram showing the structure of a metalens controller according to an embodiment of the present disclosure.
  • the metalens controller 2410 is a parameter for generating a metalens control value from the artificial intelligence metalens characteristic factor prediction unit ( , , , ) and standard (size, number of control elements, metalens layer) information of the currently installed metalens of the image input/output device can be obtained. Also, as an example, the metalens controller 2410 may further obtain additional information, and may not be limited to a specific form. After that, the metalens control value generation unit 2411 may generate a control value by referring to the codebook of the metalens control value.
  • the metalens control value generating unit 2411 may generate control values required for the N-layered metalens drivers by utilizing artificial intelligence, and based on this, the drivers control the metalens for each metalens layer. can do.
  • a value output from the L-th metalens driver may be the same as Equation 16, and ⁇ in Equation 16 may be a phase shift value for each device.
  • indicating the focus position May be a factor indicating the tilt direction and tilt angle of the lens, similar to OIS and the principle.
  • the distance of AA' in FIG. 25 (a) is can be
  • the directivity of the lens may use the principle of changing the steering property according to the metal lens pattern. More specifically, the curve that becomes the phase shift of the meta lens is the focus position ( , ) can be changed in proportion to the control value.
  • representing the focal length represents wide-angle or telephoto, and may be a characteristic factor related to the role of zoom.
  • a zoom configuration principle may be applied to the metalens, and the same effect as mechanically changing the position of the metalens itself may be obtained by adjusting the curvature (phase shift slope) of the metalens.
  • FIG. 26 (a) is a diagram illustrating a method of producing wide-angle and telephoto effects by using the curvature of a metal lens in a 3-group zoom lens method.
  • the focal length A control value of the metalens can be generated to adjust the curvature of the intermediate concave lens in inverse proportion to .
  • the radius of curvature to represent the curved image output effect can be used.
  • the radius of curvature is a factor indicating the degree of curved shape, and as the radius of curvature increases, a more gentle curved image can be output.
  • the focal length ( ) uses a uniform zoom effect on the entire screen, but curved image output needs to apply a different zoom effect in the x-axis horizontal direction from the center line including the origin.
  • 26(b) is a diagram showing a curved image output device according to a change in the curvature of a metal lens and magnification for each position.
  • FIG. 27 is a diagram illustrating a system operating through federated learning of various image input/output devices according to an embodiment of the present disclosure.
  • federated learning may be operated by AirComp through a base station.
  • the video input/output devices may exist indoors or outdoors.
  • the video input/output device may transmit its own local model information to a base station at various locations and distances, and the base station may update global model information based on the received local model information and provide the updated global model information to respective terminals.
  • each of the terminals may be a video input/output device.
  • federated learning can be used to check whether control of video input/output devices is properly operated through video input devices (cameras) at various locations and distances, and through this, new services can be created.
  • the base station may receive user recognition information from the first terminal (S2810).
  • the base station may be a device that communicates with the terminal.
  • the base station may be the aforementioned server or access point, and may not be limited to a specific form.
  • the first terminal may be an image input device.
  • the first terminal may be a device having an image input function, and is not limited to a specific form.
  • the second terminal may be an image output device.
  • the second terminal may be a device having a video output function, and is not limited to a specific form.
  • the first terminal and the second terminal may be implemented in one device, and are not limited to a specific form.
  • the base station may obtain a control value based on the metalens characteristic factor using the user recognition information (S2820). It may be transmitted to the first terminal and the second terminal. (S2830)
  • the control value may be determined based on a codebook based on a metalens characteristic factor.
  • the metalens characteristic factor may be determined based on at least one of focus position information, focal distance information, and curvature radius information based on each of the metalens elements.
  • the focal position information, the focal distance information, and the radius of curvature information are expressed as respective indices based on quantization, and a control value may be derived based on each index, as described above.
  • the user recognition information may include at least one or more of user direction information, user distance information, and user status information, as described above.
  • the first terminal may obtain location information of the first terminal and transmit the location information of the first terminal to the base station together with user recognition information.
  • the base station may derive a control value by further considering the location information of the first terminal, as described above.
  • the base station may include a Metalens artificial intelligence system, and the Metalens artificial intelligence system may perform learning based on a learning model.
  • the acquired user recognition information may be an input of the learning model
  • the control value may be an output of the learning model.
  • the learning model operates based on reinforcement learning, and the reinforcement learning may use state information and reward information as inputs based on the acquired user recognition information and control value.
  • behavioral information corresponding to the control value may be output, as described above.
  • the learning model operates based on Thomson sampling
  • the Thomson sampling may perform learning based on compensation information having ⁇ and ⁇ parameters based on the acquired user recognition information and control value, which is described above. It's like a bar.
  • the terminal may transmit user recognition information to the base station (S2910).
  • the terminal may be the first terminal of FIG. 28 .
  • the terminal may be a device in which the first terminal and the second terminal are implemented together, and may not be limited to a specific form.
  • the terminal may receive a control value derived by the base station based on the transmitted user recognition information. (S2920)
  • the control value may be determined based on a codebook based on a metalens characteristic factor. .
  • the metalens characteristic factor may be determined based on at least one of focus position information, focal distance information, and curvature radius information based on each of the metalens elements.
  • the focal position information, the focal distance information, and the radius of curvature information are expressed as respective indices based on quantization, and a control value may be derived based on each index, as described above.
  • the user recognition information may include at least one or more of user direction information, user distance information, and user status information, as described above.
  • the first terminal may obtain location information of the first terminal and transmit the location information of the first terminal to the base station together with user recognition information.
  • the base station may derive a control value by further considering the location information of the first terminal, as described above.
  • the base station may include a Metalens artificial intelligence system, and the Metalens artificial intelligence system may perform learning based on a learning model.
  • the acquired user recognition information may be an input of the learning model
  • the control value may be an output of the learning model.
  • the learning model operates based on reinforcement learning, and the reinforcement learning may use state information and reward information as inputs based on the acquired user recognition information and control value.
  • behavioral information corresponding to the control value may be output, as described above.
  • the learning model operates based on Thomson sampling
  • the Thomson sampling may perform learning based on compensation information having ⁇ and ⁇ parameters based on the acquired user recognition information and control value, which is described above. It's like a bar.
  • Embodiments of the present disclosure may be applied to various wireless access systems.
  • various wireless access systems there is a 3rd Generation Partnership Project (3GPP) or 3GPP2 system.
  • 3GPP 3rd Generation Partnership Project
  • 3GPP2 3rd Generation Partnership Project2
  • Embodiments of the present disclosure may be applied not only to the various wireless access systems, but also to all technical fields to which the various wireless access systems are applied. Furthermore, the proposed method can be applied to mmWave and THz communication systems using ultra-high frequency bands.
  • embodiments of the present disclosure may be applied to various applications such as free-running vehicles and drones.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

The present disclosure may provide a method for operating a base station in a wireless communication system. The method for operating a base station may comprise the steps of: acquiring user recognition information from a first terminal; receiving a control value on the basis of meta-lens feature factors by using the acquired user recognition information; and transmitting the acquired control value to the first terminal and a second terminal.

Description

무선 통신 시스템에서 메타렌즈 인공지능 시스템에 기초하여 신호를 송수신하는 방법 및 장치 Method and apparatus for transmitting and receiving signals based on the metalens artificial intelligence system in a wireless communication system
이하의 설명은 무선 통신 시스템에 대한 것으로, 무선 통신 시스템에서 메타렌즈 인공지능 시스템에 기초하여 신호를 송수신하는 방법 및 장치에 대한 것이다. The following description relates to a wireless communication system, and relates to a method and apparatus for transmitting and receiving signals based on the Metalens artificial intelligence system in a wireless communication system.
특히, 사용자 기반의 영상 입출력 장치를 고려하여 메타렌즈 인공지능 시스템을 제공하는 방법 및 장치에 대한 것이다.In particular, it relates to a method and apparatus for providing a metalens artificial intelligence system in consideration of a user-based image input/output device.
무선 접속 시스템이 음성이나 데이터 등과 같은 다양한 종류의 통신 서비스를 제공하기 위해 광범위하게 전개되고 있다. 일반적으로 무선 접속 시스템은 가용한 시스템 자원(대역폭, 전송 파워 등)을 공유하여 다중 사용자와의 통신을 지원할 수 있는 다중 접속(multiple access) 시스템이다. 다중 접속 시스템의 예들로는 CDMA(code division multiple access) 시스템, FDMA(frequency division multiple access) 시스템, TDMA(time division multiple access) 시스템, OFDMA(orthogonal frequency division multiple access) 시스템, SC-FDMA(single carrier frequency division multiple access) 시스템 등이 있다.A wireless access system is widely deployed to provide various types of communication services such as voice and data. In general, a wireless access system is a multiple access system capable of supporting communication with multiple users by sharing available system resources (bandwidth, transmission power, etc.). Examples of the multiple access system include a code division multiple access (CDMA) system, a frequency division multiple access (FDMA) system, a time division multiple access (TDMA) system, an orthogonal frequency division multiple access (OFDMA) system, and a single carrier frequency (SC-FDMA) system. division multiple access) system.
특히, 많은 통신 기기들이 큰 통신 용량을 요구하게 됨에 따라 기존 RAT (radio access technology)에 비해 향상된 모바일 브로드밴드(enhanced mobile broadband, eMBB) 통신 기술이 제안되고 있다. 또한 다수의 기기 및 사물들을 연결하여 언제 어디서나 다양한 서비스를 제공하는 매시브 MTC (Machine Type Communications) 뿐만 아니라 신뢰성 (reliability) 및 지연(latency) 민감한 서비스/UE를 고려한 통신 시스템이 제안되고 있다. 이를 위한 다양한 기술 구성들이 제안되고 있다.In particular, as many communication devices require large communication capacity, an enhanced mobile broadband (eMBB) communication technology compared to existing radio access technology (RAT) has been proposed. In addition, communication systems considering reliability and latency sensitive services/UEs as well as massive Machine Type Communications (MTC) providing various services anytime and anywhere by connecting multiple devices and objects have been proposed. Various technical configurations for this have been proposed.
본 개시는 무선 통신 시스템에서 메타렌즈 인공지능 시스템에 기초하여 신호를 송수신하는 방법 및 장치에 대한 것이다.The present disclosure relates to a method and apparatus for transmitting and receiving signals based on a metalens artificial intelligence system in a wireless communication system.
본 개시는 무선 통신 시스템에서 사용자 기반 영상 입출력 장치를 고려하여 메타렌즈 인공지능 시스템을 제공하는 방법 및 장치에 대한 것이다.The present disclosure relates to a method and apparatus for providing a metalens artificial intelligence system in consideration of a user-based image input/output device in a wireless communication system.
본 개시는 무선 통신 시스템에서 사용자 관련 입력 정보를 획득하고, 이에 기초하여 메타렌즈 인공지능 시스템에서 학습을 통해 영상 입출력 장치를 제어하는 방법에 대한 것이다.The present disclosure relates to a method of obtaining user-related input information in a wireless communication system and controlling an image input/output device through learning in a metalens artificial intelligence system based on the acquired user-related input information.
본 개시는 무선 통신 시스템에서 연합학습에 기초하여 메타렌즈 인공지능 시스템을 제어하는 방법에 대한 것이다.The present disclosure relates to a method for controlling a metalens artificial intelligence system based on federated learning in a wireless communication system.
본 개시에서 이루고자 하는 기술적 목적들은 이상에서 언급한 사항들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 이하 설명할 본 개시의 실시 예들로부터 본 개시의 기술 구성이 적용되는 기술분야에서 통상의 지식을 가진 자에 의해 고려될 수 있다.The technical objects to be achieved in the present disclosure are not limited to the above-mentioned matters, and other technical problems not mentioned above are common knowledge in the art to which the technical configuration of the present disclosure is applied from the embodiments of the present disclosure to be described below. can be considered by those who have
본 개시의 일 예로서, 무선 통신 시스템에서 기지국 동작 방법에 있어서, 제 1 단말로부터 사용자 인식 정보를 수신하는 단계, 획득된 사용자 인식 정보를 이용하여 메타렌즈 특성인자에 기초하여 제어 값을 획득하는 단계 및 획득한 제어 값을 제 1 단말 및 제 2 단말로 전송하는 단계를 포함할 수 있다.As an example of the present disclosure, in a base station operating method in a wireless communication system, receiving user recognition information from a first terminal, obtaining a control value based on a metalens characteristic factor using the obtained user recognition information and transmitting the obtained control value to the first terminal and the second terminal.
또한, 본 개시의 일 예로서, 무선 통신 시스템에서 단말 동작 방법에 있어서, 기지국으로 사용자 인식 정보를 전송하는 단계 및 전달된 사용자 인식 정보에 기초하여 기지국에 의해 도출된 제어 값을 수신하는 단계를 포함할 수 있다.In addition, as an example of the present disclosure, a method of operating a terminal in a wireless communication system includes transmitting user recognition information to a base station and receiving a control value derived by the base station based on the transmitted user recognition information. can do.
또한, 본 개시의 일 예로서, 무선 통신 시스템의 기지국에 있어서, 송수신기 및 송수신기와 연결된 프로세서를 포함하고, 프로세서는, 송수신기를 이용하여 제 1 단말로부터 사용자 인식 정보를 수신하고, 획득된 사용자 인식 정보를 이용하여 메타렌즈 특성인자에 기초하여 제어 값을 획득하고, 및 송수신기를 이용하여 획득한 제어 값을 제 1 단말 및 제 2 단말로 전송할 수 있다.In addition, as an example of the present disclosure, in a base station of a wireless communication system, including a transceiver and a processor connected to the transceiver, the processor receives user recognition information from a first terminal using the transceiver, and the obtained user recognition information It is possible to obtain a control value based on the metalens characteristic factor using , and transmit the obtained control value to the first terminal and the second terminal using the transceiver.
또한, 본 개시의 일 예로서, 송수신기 및 송수신기와 연결된 프로세서를 포함하고, 프로세서는, 송수신기를 이용하여 기지국으로 사용자 인식 정보를 전송하고, 송수신기를 이용하여 전달된 사용자 인식 정보에 기초하여 기지국에 의해 도출된 제어 값을 수신할 수 있다.In addition, as an example of the present disclosure, it includes a transceiver and a processor connected to the transceiver, and the processor transmits user recognition information to a base station using the transceiver, and is transmitted by the base station based on the user recognition information transmitted using the transceiver. The derived control value may be received.
또한, 본 개시의 일 예로서, 적어도 하나의 메모리 및 적어도 하나의 메모리들과 기능적으로 연결되어 있는 적어도 하나의 프로세서를 포함하는 장치에 있어서, 적어도 하나의 프로세서는 장치가, 제 1 단말로부터 사용자 인식 정보를 수신하고, 획득된 사용자 인식 정보를 이용하여 메타렌즈 특성인자에 기초하여 제어 값을 획득하고, 및 획득한 제어 값을 제 1 단말 및 제 2 단말로 전송하도록 제어할 수 있다.In addition, as an example of the present disclosure, in an apparatus including at least one memory and at least one processor functionally connected to the at least one memory, the at least one processor enables the device to recognize a user from a first terminal. It is possible to receive information, obtain a control value based on the metalens characteristic factor using the obtained user recognition information, and transmit the obtained control value to the first terminal and the second terminal.
또한, 본 개시의 일 예로서, 적어도 하나의 명령어(instructions)을 저장하는 비-일시적인(non-transitory) 컴퓨터 판독 가능 매체(computer-readable medium)에 있어서, 프로세서에 의해 실행 가능한(executable) 적어도 하나의 명령어를 포함하며, 적어도 하나의 명령어는, 제 1 단말로부터 사용자 인식 정보를 수신하고, 획득된 사용자 인식 정보를 이용하여 메타렌즈 특성인자에 기초하여 제어 값을 획득하고, 및 획득한 제어 값을 제 1 단말 및 제 2 단말로 전송하도록 제어할 수 있다. In addition, as an example of the present disclosure, in a non-transitory computer-readable medium storing at least one instruction, at least one executable by a processor Includes commands of, wherein at least one command receives user recognition information from the first terminal, obtains a control value based on a metalens characteristic factor using the obtained user recognition information, and converts the obtained control value to It can be controlled to transmit to the first terminal and the second terminal.
다음의 사항들은 상술한 기지국, 단말, 장치 및 컴퓨터 기록 매체에 공통으로 적용될 수 있다.The following items may be commonly applied to the above-described base station, terminal, device, and computer recording medium.
또한, 본 개시의 일 예로서, 획득되는 제어 값은 메타렌즈 특성인자에 기초하여 코드북 기반으로 결정될 수 있다.Also, as an example of the present disclosure, the obtained control value may be determined based on a codebook based on a metalens characteristic factor.
또한, 본 개시의 일 예로서, 메타렌즈 특성인자는 메타렌즈 요소들 각각에 기초하여 초점 위치 정보, 초점 거리 정보 및 곡률 반경 정보 중 적어도 어느 하나에 기초하여 결정될 수 있다.In addition, as an example of the present disclosure, the metalens characteristic factor may be determined based on at least one of focus position information, focal distance information, and radius of curvature information based on each of the metalens elements.
또한, 본 개시의 일 예로서, 초점 위치 정보, 초점 거리 정보 및 곡률 반경 정보는 양자화에 기초하여 각각의 인덱스로 표현되고, 제어 값은 각각의 인덱스에 기초하여 도출될 수 있다.Also, as an example of the present disclosure, focus position information, focal distance information, and radius of curvature information are expressed as respective indices based on quantization, and a control value may be derived based on each index.
또한, 본 개시의 일 예로서, 사용자 인식 정보는 사용자 방향 정보, 사용자 거리 정보 및 사용자 상태 정보 중 적어도 어느 하나 이상을 포함할 수 있다.Also, as an example of the present disclosure, user recognition information may include at least one or more of user direction information, user distance information, and user status information.
또한, 본 개시의 일 예로서, 제 1 단말은 영상 입력 기능을 구비한 단말이고, 영상 입력 기능에 기초하여 사용자 인식 정보를 획득할 수 있다.In addition, as an example of the present disclosure, the first terminal is a terminal having a video input function, and can obtain user recognition information based on the video input function.
또한, 본 개시의 일 예로서, 제 1 단말은 제 1 단말의 위치 정보를 획득하고, 제 1 단말의 위치 정보를 사용자 인식 정보와 함께 기지국으로 전달하고, 기지국은 제 1 단말의 위치 정보를 더 고려하여 제어 값을 도출할 수 있다.In addition, as an example of the present disclosure, a first terminal obtains location information of the first terminal, transmits the location information of the first terminal together with user recognition information to a base station, and the base station further transmits the location information of the first terminal. A control value can be derived by taking this into account.
또한, 본 개시의 일 예로서, 제 2 단말은 영상 출력 기능을 구비한 단말일 수 있다.Also, as an example of the present disclosure, the second terminal may be a terminal having a video output function.
또한, 본 개시의 일 예로서, 기지국은 서버 및 엑세스 포인트(access point) 중 적어도 어느 하나의 기능을 포함할 수 있다.In addition, as an example of the present disclosure, a base station may include at least one function of a server and an access point.
또한, 본 개시의 일 예로서, 기지국은 메타렌즈 인공지능 시스템을 구비하고, 메타렌즈 인공지능 시스템은 학습모델에 기초하여 학습을 수행하되, 획득된 사용자 인식 정보는 학습모델의 입력이고, 제어 값은 학습모델의 출력일 수 있다.In addition, as an example of the present disclosure, the base station includes a Metalens artificial intelligence system, and the Metalens artificial intelligence system performs learning based on a learning model, but the obtained user recognition information is an input of the learning model and a control value. may be an output of the learning model.
또한, 본 개시의 일 예로서, 학습모델은 강화학습에 기초하여 동작하고, 강화학습은 획득한 사용자 인식 정보 및 제어 값에 기초하여 상태 정보 및 보상 정보를 입력으로 사용하고, 제어 값에 대응되는 행동 정보를 출력할 수 있다.In addition, as an example of the present disclosure, the learning model operates based on reinforcement learning, and the reinforcement learning uses state information and reward information as inputs based on the acquired user recognition information and control value, and corresponds to the control value. Behavioral information can be output.
또한, 본 개시의 일 예로서, 학습모델은 톰슨 샘플링에 기초하여 동작하고, 톰슨 샘플링은 획득한 사용자 인식 정보 및 제어 값에 기초하여 α 및 β 파라미터를 갖는 보상 정보에 기초하여 학습을 수행할 수 있다.In addition, as an example of the present disclosure, the learning model operates based on Thomson sampling, and Thomson sampling can perform learning based on compensation information having α and β parameters based on the acquired user recognition information and control value. there is.
본 개시에 기초한 실시예들에 의해 하기와 같은 효과가 있을 수 있다.The following effects may be obtained by embodiments based on the present disclosure.
본 개시에 기초한 실시예들에서 메타렌즈 인공지능 시스템에 기초하여 신호를 송수신하는 방법을 제공할 수 있다.In embodiments based on the present disclosure, it is possible to provide a method for transmitting and receiving a signal based on a metalens artificial intelligence system.
본 개시에 기초한 실시예들에서 사용자 기반 영상 입출력 장치를 고려하여 메타렌즈 인공지능 시스템을 제공할 수 있다.In embodiments based on the present disclosure, a metalens artificial intelligence system may be provided in consideration of a user-based image input/output device.
본 개시에 기초한 실시예들에서 사용자 관련 입력 정보를 획득하고, 이에 기초하여 메타렌즈 인공지능 시스템에서 학습을 통해 영상 입출력 장치를 제어할 수 있다.In embodiments based on the present disclosure, user-related input information may be acquired, and based on this, the image input/output device may be controlled through learning in the Metalens artificial intelligence system.
본 개시에 기초한 실시예들에서 연합학습에 기초하여 메타렌즈 인공지능 시스템을 제어하는 방법을 제공할 수 있다.In embodiments based on the present disclosure, a method for controlling a metalens artificial intelligence system based on federated learning may be provided.
본 개시의 실시 예들에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 이하의 본 개시의 실시 예들에 대한 기재로부터 본 개시의 기술 구성이 적용되는 기술분야에서 통상의 지식을 가진 자에게 명확하게 도출되고 이해될 수 있다. Effects obtainable in the embodiments of the present disclosure are not limited to the above-mentioned effects, and other effects not mentioned are technical fields to which the technical configuration of the present disclosure is applied from the description of the following embodiments of the present disclosure. can be clearly derived and understood by those skilled in the art.
즉, 본 개시에서 서술하는 구성을 실시함에 따른 의도하지 않은 효과들 역시 본 개시의 실시 예들로부터 당해 기술분야의 통상의 지식을 가진 자에 의해 도출될 수 있다.That is, unintended effects according to implementing the configuration described in the present disclosure may also be derived by those skilled in the art from the embodiments of the present disclosure.
이하에 첨부되는 도면들은 본 개시에 관한 이해를 돕기 위한 것으로, 상세한 설명과 함께 본 개시에 대한 실시 예들을 제공할 수 있다. 다만, 본 개시의 기술적 특징이 특정 도면에 한정되는 것은 아니며, 각 도면에서 개시하는 특징들은 서로 조합되어 새로운 실시 예로 구성될 수 있다. 각 도면에서의 참조 번호(reference numerals)들은 구조적 구성요소(structural elements)를 의미할 수 있다.The accompanying drawings are provided to aid understanding of the present disclosure, and may provide embodiments of the present disclosure together with a detailed description. However, the technical features of the present disclosure are not limited to specific drawings, and features disclosed in each drawing may be combined with each other to form a new embodiment. Reference numerals in each drawing may mean structural elements.
도 1은 본 개시의 일 실시예에 따라 통신 시스템 예시를 나타낸 도면이다.1 is a diagram illustrating an exemplary communication system according to an embodiment of the present disclosure.
도 2는 본 개시의 일 실시예에 따라 무선 기기의 예시를 나타낸 도면이다.2 is a diagram showing an example of a wireless device according to an embodiment of the present disclosure.
도 3은 본 개시의 일 실시예에 따라 무선 기기의 다른 예시를 나타낸 도면이다.3 is a diagram illustrating another example of a wireless device according to an embodiment of the present disclosure.
도 4는 본 개시의 일 실시예에 따라 AI(Artificial Intelligence)의 예시를 나타낸 도면이다.4 is a diagram illustrating an example of AI (Artificial Intelligence) according to an embodiment of the present disclosure.
도 5는 본 개시의 일 실시예에 따라 연합학습을 나타낸 도면이다.5 is a diagram showing federated learning according to an embodiment of the present disclosure.
도 6은 본 개시의 일 실시예에 있어서 영상입출력 장치를 나타낸 도면이다.6 is a diagram illustrating an image input/output device according to an embodiment of the present disclosure.
도 7은 본 개시의 실시예에 따라 OIS 원리를 나타낸 도면이다.7 is a diagram illustrating an OIS principle according to an embodiment of the present disclosure.
도 8은 본 개시의 일 실시예에 따라 메타렌즈 구조를 나타낸 도면이다.8 is a diagram showing a metalens structure according to an embodiment of the present disclosure.
도 9는 본 개시의 일 실시예에 따라 사용자 기반의 영상 입출력을 위한 메타렌즈를 제어하는 인공지능 시스템을 나타낸 도면이다. 9 is a diagram illustrating an artificial intelligence system for controlling a metalens for user-based image input/output according to an embodiment of the present disclosure.
도 10은 본 개시의 일 실시예에 따라 메타렌즈를 제어하는 방법을 나타낸 도면이다.10 is a diagram illustrating a method of controlling a metalens according to an embodiment of the present disclosure.
도 11은 본 개시의 일 실시예에 따라 커브드와 플랫 영상출력의 시청거리 비교를 나타낸 도면이다.11 is a diagram illustrating comparison of viewing distances between curved and flat image outputs according to an embodiment of the present disclosure.
도 12는 본 개시의 일 실시예에 따라 커브드와 플랫 영상출력의 시청거리 비교를 나타낸 도면이다.12 is a diagram illustrating a comparison of viewing distances between curved and flat image outputs according to an embodiment of the present disclosure.
도 13은 본 개시의 일 실시예에 따라 메타렌즈 제어 방법을 나타낸 도면이다.13 is a diagram illustrating a metalens control method according to an embodiment of the present disclosure.
도 14은 본 개시의 일 실시예에 따라 분산 학습 인공지능 시스템의 동작을 나타낸 도면이다. 14 is a diagram illustrating the operation of a distributed learning artificial intelligence system according to an embodiment of the present disclosure.
도 15는 본 개시의 일 실시예에 따라 인공지능 시스템에 기초하여 메타렌즈를 제어하는 방법을 나타낸 도면이다. 15 is a diagram illustrating a method of controlling a metalens based on an artificial intelligence system according to an embodiment of the present disclosure.
도 16은 본 개시의 일 실시예에 따라 메타렌즈에 기초하여 영상 입출력을 제어하는 방법을 나타낸 순서도이다. 16 is a flowchart illustrating a method of controlling image input/output based on a metalens according to an embodiment of the present disclosure.
도 17은 본 개시의 일 실시예에 따라 사용자 인식부에서 대상을 검출하는 방법을 나타낸 도면이다. 17 is a diagram illustrating a method of detecting an object in a user recognizer according to an embodiment of the present disclosure.
도 18은 본 개시의 일 실시예에 따라 사용자 인식부에서 대상을 검출하는 방법을 나타낸 도면이다. 18 is a diagram illustrating a method of detecting an object in a user recognizer according to an embodiment of the present disclosure.
도 19는 본 개시의 일 실시예에 따라 최종 입출력을 나타낸 도면이다.19 is a diagram illustrating final input/output according to an embodiment of the present disclosure.
도 20은 본 개시의 일 실시예에 따라, 강화학습 (또는 MAB)을 사용한 메타렌즈 제어 시스템 구조를 나타낸 도면이다. 20 is a diagram illustrating a structure of a metalens control system using reinforcement learning (or MAB) according to an embodiment of the present disclosure.
도 21은 본 개시의 일 실시예에 따라 강화학습을 사용한 메타렌즈 제어 시스템 블록도를 나타낸 도면이다. 21 is a block diagram of a metalens control system using reinforcement learning according to an embodiment of the present disclosure.
도 22는 본 개시의 일 실시예에 따라 DDPG를 사용한 강화학습을 나타낸 도면이다.22 is a diagram illustrating reinforcement learning using DDPG according to an embodiment of the present disclosure.
도 23은 본 개시의 일 실시예에 따라 톰슨 샘플링(Thompson Sampling)을 사용한 선택인공지능 (MAB AI, 2310) 시스템을 나타낸 도면이다.23 is a diagram illustrating a selection artificial intelligence (MAB AI, 2310) system using Thompson sampling according to an embodiment of the present disclosure.
도 24는 본 개시의 일 실시예에 따라 메타렌즈 제어기의 구조를 나타낸 도면이다.24 is a diagram showing the structure of a metalens controller according to an embodiment of the present disclosure.
도 25는 본 개시의 일 실시예에 따라 초점 위치에 기초하여 메타렌즈 제어 값을 생성하는 방법을 나타낸 도면이다.25 is a diagram illustrating a method of generating a metalens control value based on a focus position according to an embodiment of the present disclosure.
도 26은 본 개시의 일 실시예에 따라 메타렌즈 곡률변경에 기초하여 줌 렌즈 및 커브드를 구현하는 방법을 나타낸 도면이다.26 is a diagram illustrating a method of realizing a zoom lens and a curved lens based on a metalens curvature change according to an embodiment of the present disclosure.
도 27은 본 개시의 일 실시예에 따라 다양한 영상 입출력 장치들의 연합학습을 통해 동작하는 시스템을 나타낸 도면이다.27 is a diagram illustrating a system operating through federated learning of various image input/output devices according to an embodiment of the present disclosure.
도 28은 본 개시의 일 실시예에 따라 기지국 동작 방법을 나타낸 도면이다. 28 is a diagram illustrating a method of operating a base station according to an embodiment of the present disclosure.
도 29는 본 개시의 일 실시예에 따라 단말의 동작 방법을 나타낸 순서도이다.29 is a flowchart illustrating a method of operating a terminal according to an embodiment of the present disclosure.
이하의 실시 예들은 본 개시의 구성요소들과 특징들을 소정 형태로 결합한 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려될 수 있다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 본 개시의 실시 예를 구성할 수도 있다. 본 개시의 실시 예들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시 예의 일부 구성이나 특징은 다른 실시 예에 포함될 수 있고, 또는 다른 실시 예의 대응하는 구성 또는 특징과 교체될 수 있다.The following embodiments are those that combine elements and features of the present disclosure in a predetermined form. Each component or feature may be considered optional unless explicitly stated otherwise. Each component or feature may be implemented in a form not combined with other components or features. In addition, an embodiment of the present disclosure may be configured by combining some elements and/or features. The order of operations described in the embodiments of the present disclosure may be changed. Some components or features of one embodiment may be included in another embodiment, or may be replaced with corresponding components or features of another embodiment.
도면에 대한 설명에서, 본 개시의 요지를 흐릴 수 있는 절차 또는 단계 등은 기술하지 않았으며, 당업자의 수준에서 이해할 수 있을 정도의 절차 또는 단계는 또한 기술하지 아니하였다.In the description of the drawings, procedures or steps that may obscure the gist of the present disclosure have not been described, and procedures or steps that can be understood by those skilled in the art have not been described.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함(comprising 또는 including)"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "...부", "...기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, "일(a 또는 an)", "하나(one)", "그(the)" 및 유사 관련어는 본 개시를 기술하는 문맥에 있어서(특히, 이하의 청구항의 문맥에서) 본 명세서에 달리 지시되거나 문맥에 의해 분명하게 반박되지 않는 한, 단수 및 복수 모두를 포함하는 의미로 사용될 수 있다.Throughout the specification, when a part is said to "comprising" or "including" a certain element, it means that it may further include other elements, not excluding other elements, unless otherwise stated. do. In addition, terms such as “… unit”, “… unit”, and “module” described in the specification mean a unit that processes at least one function or operation, which is hardware or software or a combination of hardware and software. can be implemented as Also, "a or an", "one", "the" and similar related words in the context of describing the present disclosure (particularly in the context of the claims below) Unless indicated or otherwise clearly contradicted by context, both the singular and the plural can be used.
본 명세서에서 본 개시의 실시예들은 기지국과 이동국 간의 데이터 송수신 관계를 중심으로 설명되었다. 여기서, 기지국은 이동국과 직접적으로 통신을 수행하는 네트워크의 종단 노드(terminal node)로서의 의미가 있다. 본 문서에서 기지국에 의해 수행되는 것으로 설명된 특정 동작은 경우에 따라서는 기지국의 상위 노드(upper node)에 의해 수행될 수도 있다.Embodiments of the present disclosure in this specification have been described with a focus on a data transmission/reception relationship between a base station and a mobile station. Here, a base station has meaning as a terminal node of a network that directly communicates with a mobile station. A specific operation described as being performed by a base station in this document may be performed by an upper node of the base station in some cases.
즉, 기지국을 포함하는 다수의 네트워크 노드들(network nodes)로 이루어지는 네트워크에서 이동국과의 통신을 위해 수행되는 다양한 동작들은 기지국 또는 기지국 이외의 다른 네트워크 노드들에 의해 수행될 수 있다. 이때, '기지국'은 고정국(fixed station), Node B, eNB(eNode B), gNB(gNode B), ng-eNB, 발전된 기지국(advanced base station, ABS) 또는 억세스 포인트(access point) 등의 용어에 의해 대체될 수 있다.That is, in a network composed of a plurality of network nodes including a base station, various operations performed for communication with a mobile station may be performed by the base station or network nodes other than the base station. At this time, the 'base station' is a term such as a fixed station, Node B, eNode B, gNode B, ng-eNB, advanced base station (ABS), or access point. can be replaced by
또한, 본 개시의 실시 예들에서 단말(terminal)은 사용자 기기(user equipment, UE), 이동국(mobile station, MS), 가입자국(subscriber station, SS), 이동 가입자 단말(mobile subscriber station, MSS), 이동 단말(mobile terminal) 또는 발전된 이동 단말(advanced mobile station, AMS) 등의 용어로 대체될 수 있다.In addition, in the embodiments of the present disclosure, a terminal includes a user equipment (UE), a mobile station (MS), a subscriber station (SS), a mobile subscriber station (MSS), It may be replaced with terms such as mobile terminal or advanced mobile station (AMS).
또한, 송신단은 데이터 서비스 또는 음성 서비스를 제공하는 고정 및/또는 이동 노드를 말하고, 수신단은 데이터 서비스 또는 음성 서비스를 수신하는 고정 및/또는 이동 노드를 의미한다. 따라서, 상향링크의 경우, 이동국이 송신단이 되고, 기지국이 수신단이 될 수 있다. 마찬가지로, 하향링크의 경우, 이동국이 수신단이 되고, 기지국이 송신단이 될 수 있다.In addition, the transmitting end refers to a fixed and/or mobile node providing data service or voice service, and the receiving end refers to a fixed and/or mobile node receiving data service or voice service. Therefore, in the case of uplink, the mobile station can be a transmitter and the base station can be a receiver. Similarly, in the case of downlink, the mobile station may be a receiving end and the base station may be a transmitting end.
본 개시의 실시 예들은 무선 접속 시스템들인 IEEE 802.xx 시스템, 3GPP(3rd Generation Partnership Project) 시스템, 3GPP LTE(Long Term Evolution) 시스템, 3GPP 5G(5th generation) NR(New Radio) 시스템 및 3GPP2 시스템 중 적어도 하나에 개시된 표준 문서들에 의해 뒷받침될 수 있으며, 특히, 본 개시의 실시 예들은 3GPP TS(technical specification) 38.211, 3GPP TS 38.212, 3GPP TS 38.213, 3GPP TS 38.321 및 3GPP TS 38.331 문서들에 의해 뒷받침 될 수 있다. Embodiments of the present disclosure are wireless access systems, such as an IEEE 802.xx system, a 3rd Generation Partnership Project (3GPP) system, a 3GPP Long Term Evolution (LTE) system, a 3GPP 5G (5th generation) NR (New Radio) system, and a 3GPP2 system. It may be supported by at least one disclosed standard document, and in particular, the embodiments of the present disclosure are supported by 3GPP technical specification (TS) 38.211, 3GPP TS 38.212, 3GPP TS 38.213, 3GPP TS 38.321 and 3GPP TS 38.331 documents It can be.
또한, 본 개시의 실시 예들은 다른 무선 접속 시스템에도 적용될 수 있으며, 상술한 시스템으로 한정되는 것은 아니다. 일 예로, 3GPP 5G NR 시스템 이후에 적용되는 시스템에 대해서도 적용 가능할 수 있으며, 특정 시스템에 한정되지 않는다.In addition, embodiments of the present disclosure may be applied to other wireless access systems, and are not limited to the above-described systems. For example, it may also be applicable to a system applied after the 3GPP 5G NR system, and is not limited to a specific system.
즉, 본 개시의 실시 예들 중 설명하지 않은 자명한 단계들 또는 부분들은 상기 문서들을 참조하여 설명될 수 있다. 또한, 본 문서에서 개시하고 있는 모든 용어들은 상기 표준 문서에 의해 설명될 수 있다.That is, obvious steps or parts not described in the embodiments of the present disclosure may be described with reference to the above documents. In addition, all terms disclosed in this document can be explained by the standard document.
이하, 본 개시에 따른 바람직한 실시 형태를 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 본 개시의 예시적인 실시 형태를 설명하고자 하는 것이며, 본 개시의 기술 구성이 실시될 수 있는 유일한 실시형태를 나타내고자 하는 것이 아니다.Hereinafter, preferred embodiments according to the present disclosure will be described in detail with reference to the accompanying drawings. The detailed description set forth below in conjunction with the accompanying drawings is intended to describe exemplary embodiments of the present disclosure, and is not intended to represent the only embodiments in which the technical configurations of the present disclosure may be practiced.
또한, 본 개시의 실시 예들에서 사용되는 특정 용어들은 본 개시의 이해를 돕기 위해서 제공된 것이며, 이러한 특정 용어의 사용은 본 개시의 기술적 사상을 벗어나지 않는 범위에서 다른 형태로 변경될 수 있다.In addition, specific terms used in the embodiments of the present disclosure are provided to aid understanding of the present disclosure, and the use of these specific terms may be changed in other forms without departing from the technical spirit of the present disclosure.
이하의 기술은 CDMA(code division multiple access), FDMA(frequency division multiple access), TDMA(time division multiple access), OFDMA(orthogonal frequency division multiple access), SC-FDMA(single carrier frequency division multiple access) 등과 같은 다양한 무선 접속 시스템에 적용될 수 있다.The following technologies include code division multiple access (CDMA), frequency division multiple access (FDMA), time division multiple access (TDMA), orthogonal frequency division multiple access (OFDMA), single carrier frequency division multiple access (SC-FDMA), and the like. It can be applied to various wireless access systems.
하기에서는 이하 설명을 명확하게 하기 위해, 3GPP 통신 시스템(e.g.(예, LTE, NR 등)을 기반으로 설명하지만 본 발명의 기술적 사상이 이에 제한되는 것은 아니다. LTE는 3GPP TS 36.xxx Release 8 이후의 기술을 의미할 수 있다. 세부적으로, 3GPP TS 36.xxx Release 10 이후의 LTE 기술은 LTE-A로 지칭되고, 3GPP TS 36.xxx Release 13 이후의 LTE 기술은 LTE-A pro로 지칭될 수 있다. 3GPP NR은 TS 38.xxx Release 15 이후의 기술을 의미할 수 있다. 3GPP 6G는 TS Release 17 및/또는 Release 18 이후의 기술을 의미할 수 있다. "xxx"는 표준 문서 세부 번호를 의미한다. LTE/NR/6G는 3GPP 시스템으로 통칭될 수 있다.In the following, in order to clarify the following description, the description is based on the 3GPP communication system (e.g. (eg, LTE, NR, etc.), but the technical spirit of the present invention is not limited thereto. LTE is 3GPP TS 36.xxx Release 8 or later In detail, LTE technology after 3GPP TS 36.xxx Release 10 is referred to as LTE-A, and LTE technology after 3GPP TS 36.xxx Release 13 may be referred to as LTE-A pro. 3GPP NR may mean technology after TS 38.xxx Release 15. 3GPP 6G may mean technology after TS Release 17 and/or Release 18. "xxx" means a standard document detail number. LTE/NR/6G may be collectively referred to as a 3GPP system.
본 개시에 사용된 배경기술, 용어, 약어 등에 관해서는 본 발명 이전에 공개된 표준 문서에 기재된 사항을 참조할 수 있다. 일 예로, 36.xxx 및 38.xxx 표준 문서를 참조할 수 있다.For background art, terms, abbreviations, etc. used in the present disclosure, reference may be made to matters described in standard documents published prior to the present invention. As an example, 36.xxx and 38.xxx standard documents may be referred to.
본 개시에 적용 가능한 통신 시스템Communication systems applicable to the present disclosure
이로 제한되는 것은 아니지만, 본 문서에 개시된 본 개시의 다양한 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 기기들 간에 무선 통신/연결(예, 5G)을 필요로 하는 다양한 분야에 적용될 수 있다.Although not limited thereto, various descriptions, functions, procedures, proposals, methods and / or operational flowcharts of the present disclosure disclosed in this document may be applied to various fields requiring wireless communication / connection (eg, 5G) between devices. there is.
이하, 도면을 참조하여 보다 구체적으로 예시한다. 이하의 도면/설명에서 동일한 도면 부호는 다르게 기술하지 않는 한, 동일하거나 대응되는 하드웨어 블록, 소프트웨어 블록 또는 기능 블록을 예시할 수 있다.Hereinafter, it will be exemplified in more detail with reference to the drawings. In the following drawings/description, the same reference numerals may represent the same or corresponding hardware blocks, software blocks or functional blocks unless otherwise specified.
도 1은 본 개시에 적용되는 통신 시스템 예시를 도시한 도면이다.1 is a diagram illustrating an example of a communication system applied to the present disclosure.
도 1을 참조하면, 본 개시에 적용되는 통신 시스템(100)은 무선 기기, 기지국 및 네트워크를 포함한다. 여기서, 무선 기기는 무선 접속 기술(예, 5G NR, LTE)을 이용하여 통신을 수행하는 기기를 의미하며, 통신/무선/5G 기기로 지칭될 수 있다. 이로 제한되는 것은 아니지만, 무선 기기는 로봇(100a), 차량(100b-1, 100b-2), XR(extended reality) 기기(100c), 휴대 기기(hand-held device)(100d), 가전(home appliance)(100e), IoT(Internet of Thing) 기기(100f), AI(artificial intelligence) 기기/서버(100g)를 포함할 수 있다. 예를 들어, 차량은 무선 통신 기능이 구비된 차량, 자율 주행 차량, 차량간 통신을 수행할 수 있는 차량 등을 포함할 수 있다. 여기서, 차량(100b-1, 100b-2)은 UAV(unmanned aerial vehicle)(예, 드론)를 포함할 수 있다. XR 기기(100c)는 AR(augmented reality)/VR(virtual reality)/MR(mixed reality) 기기를 포함하며, HMD(head-mounted device), 차량에 구비된 HUD(head-up display), 텔레비전, 스마트폰, 컴퓨터, 웨어러블 디바이스, 가전 기기, 디지털 사이니지(signage), 차량, 로봇 등의 형태로 구현될 수 있다. 휴대 기기(100d)는 스마트폰, 스마트패드, 웨어러블 기기(예, 스마트워치, 스마트글래스), 컴퓨터(예, 노트북 등) 등을 포함할 수 있다. 가전(100e)은 TV, 냉장고, 세탁기 등을 포함할 수 있다. IoT 기기(100f)는 센서, 스마트 미터 등을 포함할 수 있다. 예를 들어, 기지국(120), 네트워크(130)는 무선 기기로도 구현될 수 있으며, 특정 무선 기기(120a)는 다른 무선 기기에게 기지국/네트워크 노드로 동작할 수도 있다.Referring to FIG. 1 , a communication system 100 applied to the present disclosure includes a wireless device, a base station, and a network. Here, the wireless device means a device that performs communication using a radio access technology (eg, 5G NR, LTE), and may be referred to as a communication/wireless/5G device. Although not limited thereto, the wireless device includes a robot 100a, a vehicle 100b-1 and 100b-2, an extended reality (XR) device 100c, a hand-held device 100d, and a home appliance. appliance) 100e, Internet of Thing (IoT) device 100f, and artificial intelligence (AI) device/server 100g. For example, the vehicle may include a vehicle equipped with a wireless communication function, an autonomous vehicle, a vehicle capable of performing inter-vehicle communication, and the like. Here, the vehicles 100b-1 and 100b-2 may include an unmanned aerial vehicle (UAV) (eg, a drone). The XR device 100c includes augmented reality (AR)/virtual reality (VR)/mixed reality (MR) devices, and includes a head-mounted device (HMD), a head-up display (HUD) installed in a vehicle, a television, It may be implemented in the form of smart phones, computers, wearable devices, home appliances, digital signage, vehicles, robots, and the like. The mobile device 100d may include a smart phone, a smart pad, a wearable device (eg, a smart watch, a smart glass), a computer (eg, a laptop computer), and the like. The home appliance 100e may include a TV, a refrigerator, a washing machine, and the like. The IoT device 100f may include a sensor, a smart meter, and the like. For example, the base station 120 and the network 130 may also be implemented as a wireless device, and a specific wireless device 120a may operate as a base station/network node to other wireless devices.
무선 기기(100a~100f)는 기지국(120)을 통해 네트워크(130)와 연결될 수 있다. 무선 기기(100a~100f)에는 AI 기술이 적용될 수 있으며, 무선 기기(100a~100f)는 네트워크(130)를 통해 AI 서버(100g)와 연결될 수 있다. 네트워크(130)는 3G 네트워크, 4G(예, LTE) 네트워크 또는 5G(예, NR) 네트워크 등을 이용하여 구성될 수 있다. 무선 기기(100a~100f)는 기지국(120)/네트워크(130)를 통해 서로 통신할 수도 있지만, 기지국(120)/네트워크(130)를 통하지 않고 직접 통신(예, 사이드링크 통신(sidelink communication))할 수도 있다. 예를 들어, 차량들(100b-1, 100b-2)은 직접 통신(예, V2V(vehicle to vehicle)/V2X(vehicle to everything) communication)을 할 수 있다. 또한, IoT 기기(100f)(예, 센서)는 다른 IoT 기기(예, 센서) 또는 다른 무선 기기(100a~100f)와 직접 통신을 할 수 있다.The wireless devices 100a to 100f may be connected to the network 130 through the base station 120 . AI technology may be applied to the wireless devices 100a to 100f, and the wireless devices 100a to 100f may be connected to the AI server 100g through the network 130. The network 130 may be configured using a 3G network, a 4G (eg LTE) network, or a 5G (eg NR) network. The wireless devices 100a to 100f may communicate with each other through the base station 120/network 130, but communicate directly without going through the base station 120/network 130 (e.g., sidelink communication). You may. For example, the vehicles 100b-1 and 100b-2 may perform direct communication (eg, vehicle to vehicle (V2V)/vehicle to everything (V2X) communication). In addition, the IoT device 100f (eg, sensor) may directly communicate with other IoT devices (eg, sensor) or other wireless devices 100a to 100f.
본 개시에 적용 가능한 통신 시스템Communication systems applicable to the present disclosure
도 2는 본 개시에 적용될 수 있는 무선 기기의 예시를 도시한 도면이다.2 is a diagram illustrating an example of a wireless device applicable to the present disclosure.
도 2를 참조하면, 제1 무선 기기(200a)와 제2 무선 기기(200b)는 다양한 무선 접속 기술(예, LTE, NR)을 통해 무선 신호를 송수신할 수 있다. 여기서, {제1 무선 기기(200a), 제2 무선 기기(200b)}은 도 1의 {무선 기기(100x), 기지국(120)} 및/또는 {무선 기기(100x), 무선 기기(100x)}에 대응할 수 있다.Referring to FIG. 2 , a first wireless device 200a and a second wireless device 200b may transmit and receive radio signals through various wireless access technologies (eg, LTE and NR). Here, {the first wireless device 200a, the second wireless device 200b} denotes the {wireless device 100x and the base station 120} of FIG. 1 and/or the {wireless device 100x and the wireless device 100x. } can correspond.
제1 무선 기기(200a)는 하나 이상의 프로세서(202a) 및 하나 이상의 메모리(204a)를 포함하며, 추가적으로 하나 이상의 송수신기(206a) 및/또는 하나 이상의 안테나(208a)을 더 포함할 수 있다. 프로세서(202a)는 메모리(204a) 및/또는 송수신기(206a)를 제어하며, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(202a)는 메모리(204a) 내의 정보를 처리하여 제1 정보/신호를 생성한 뒤, 송수신기(206a)을 통해 제1 정보/신호를 포함하는 무선 신호를 전송할 수 있다. 또한, 프로세서(202a)는 송수신기(206a)를 통해 제2 정보/신호를 포함하는 무선 신호를 수신한 뒤, 제2 정보/신호의 신호 처리로부터 얻은 정보를 메모리(204a)에 저장할 수 있다. 메모리(204a)는 프로세서(202a)와 연결될 수 있고, 프로세서(202a)의 동작과 관련한 다양한 정보를 저장할 수 있다. 예를 들어, 메모리(204a)는 프로세서(202a)에 의해 제어되는 프로세스들 중 일부 또는 전부를 수행하거나, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 수행하기 위한 명령들을 포함하는 소프트웨어 코드를 저장할 수 있다. 여기서, 프로세서(202a)와 메모리(204a)는 무선 통신 기술(예, LTE, NR)을 구현하도록 설계된 통신 모뎀/회로/칩의 일부일 수 있다. 송수신기(206a)는 프로세서(202a)와 연결될 수 있고, 하나 이상의 안테나(208a)를 통해 무선 신호를 송신 및/또는 수신할 수 있다. 송수신기(206a)는 송신기 및/또는 수신기를 포함할 수 있다. 송수신기(206a)는 RF(radio frequency) 유닛과 혼용될 수 있다. 본 개시에서 무선 기기는 통신 모뎀/회로/칩을 의미할 수도 있다.The first wireless device 200a includes one or more processors 202a and one or more memories 204a, and may further include one or more transceivers 206a and/or one or more antennas 208a. The processor 202a controls the memory 204a and/or the transceiver 206a and may be configured to implement the descriptions, functions, procedures, suggestions, methods and/or operational flow diagrams disclosed herein. For example, the processor 202a may process information in the memory 204a to generate first information/signal, and transmit a radio signal including the first information/signal through the transceiver 206a. In addition, the processor 202a may receive a radio signal including the second information/signal through the transceiver 206a and store information obtained from signal processing of the second information/signal in the memory 204a. The memory 204a may be connected to the processor 202a and may store various information related to the operation of the processor 202a. For example, memory 204a may perform some or all of the processes controlled by processor 202a, or instructions for performing the descriptions, functions, procedures, suggestions, methods, and/or flowcharts of operations disclosed herein. It may store software codes including them. Here, the processor 202a and the memory 204a may be part of a communication modem/circuit/chip designed to implement a wireless communication technology (eg, LTE, NR). The transceiver 206a may be coupled to the processor 202a and may transmit and/or receive wireless signals through one or more antennas 208a. The transceiver 206a may include a transmitter and/or a receiver. The transceiver 206a may be used interchangeably with a radio frequency (RF) unit. In the present disclosure, a wireless device may mean a communication modem/circuit/chip.
제2 무선 기기(200b)는 하나 이상의 프로세서(202b), 하나 이상의 메모리(204b)를 포함하며, 추가적으로 하나 이상의 송수신기(206b) 및/또는 하나 이상의 안테나(208b)를 더 포함할 수 있다. 프로세서(202b)는 메모리(204b) 및/또는 송수신기(206b)를 제어하며, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 구현하도록 구성될 수 있다. 예를 들어, 프로세서(202b)는 메모리(204b) 내의 정보를 처리하여 제3 정보/신호를 생성한 뒤, 송수신기(206b)를 통해 제3 정보/신호를 포함하는 무선 신호를 전송할 수 있다. 또한, 프로세서(202b)는 송수신기(206b)를 통해 제4 정보/신호를 포함하는 무선 신호를 수신한 뒤, 제4 정보/신호의 신호 처리로부터 얻은 정보를 메모리(204b)에 저장할 수 있다. 메모리(204b)는 프로세서(202b)와 연결될 수 있고, 프로세서(202b)의 동작과 관련한 다양한 정보를 저장할 수 있다. 예를 들어, 메모리(204b)는 프로세서(202b)에 의해 제어되는 프로세스들 중 일부 또는 전부를 수행하거나, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들을 수행하기 위한 명령들을 포함하는 소프트웨어 코드를 저장할 수 있다. 여기서, 프로세서(202b)와 메모리(204b)는 무선 통신 기술(예, LTE, NR)을 구현하도록 설계된 통신 모뎀/회로/칩의 일부일 수 있다. 송수신기(206b)는 프로세서(202b)와 연결될 수 있고, 하나 이상의 안테나(208b)를 통해 무선 신호를 송신 및/또는 수신할 수 있다. 송수신기(206b)는 송신기 및/또는 수신기를 포함할 수 있다 송수신기(206b)는 RF 유닛과 혼용될 수 있다. 본 개시에서 무선 기기는 통신 모뎀/회로/칩을 의미할 수도 있다.The second wireless device 200b includes one or more processors 202b, one or more memories 204b, and may further include one or more transceivers 206b and/or one or more antennas 208b. The processor 202b controls the memory 204b and/or the transceiver 206b and may be configured to implement the descriptions, functions, procedures, suggestions, methods and/or operational flow diagrams disclosed herein. For example, the processor 202b may process information in the memory 204b to generate third information/signal, and transmit a radio signal including the third information/signal through the transceiver 206b. In addition, the processor 202b may receive a radio signal including the fourth information/signal through the transceiver 206b and store information obtained from signal processing of the fourth information/signal in the memory 204b. The memory 204b may be connected to the processor 202b and may store various information related to the operation of the processor 202b. For example, memory 204b may perform some or all of the processes controlled by processor 202b, or instructions for performing the descriptions, functions, procedures, suggestions, methods, and/or flowcharts of operations disclosed herein. It may store software codes including them. Here, the processor 202b and the memory 204b may be part of a communication modem/circuit/chip designed to implement a wireless communication technology (eg, LTE, NR). The transceiver 206b may be coupled to the processor 202b and may transmit and/or receive wireless signals through one or more antennas 208b. The transceiver 206b may include a transmitter and/or a receiver. The transceiver 206b may be used interchangeably with an RF unit. In the present disclosure, a wireless device may mean a communication modem/circuit/chip.
이하, 무선 기기(200a, 200b)의 하드웨어 요소에 대해 보다 구체적으로 설명한다. 이로 제한되는 것은 아니지만, 하나 이상의 프로토콜 계층이 하나 이상의 프로세서(202a, 202b)에 의해 구현될 수 있다. 예를 들어, 하나 이상의 프로세서(202a, 202b)는 하나 이상의 계층(예, PHY(physical), MAC(media access control), RLC(radio link control), PDCP(packet data convergence protocol), RRC(radio resource control), SDAP(service data adaptation protocol)와 같은 기능적 계층)을 구현할 수 있다. 하나 이상의 프로세서(202a, 202b)는 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 하나 이상의 PDU(Protocol Data Unit) 및/또는 하나 이상의 SDU(service data unit)를 생성할 수 있다. 하나 이상의 프로세서(202a, 202b)는 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 메시지, 제어정보, 데이터 또는 정보를 생성할 수 있다. 하나 이상의 프로세서(202a, 202b)는 본 문서에 개시된 기능, 절차, 제안 및/또는 방법에 따라 PDU, SDU, 메시지, 제어정보, 데이터 또는 정보를 포함하는 신호(예, 베이스밴드 신호)를 생성하여, 하나 이상의 송수신기(206a, 206b)에게 제공할 수 있다. 하나 이상의 프로세서(202a, 202b)는 하나 이상의 송수신기(206a, 206b)로부터 신호(예, 베이스밴드 신호)를 수신할 수 있고, 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들에 따라 PDU, SDU, 메시지, 제어정보, 데이터 또는 정보를 획득할 수 있다.Hereinafter, hardware elements of the wireless devices 200a and 200b will be described in more detail. Although not limited to this, one or more protocol layers may be implemented by one or more processors 202a, 202b. For example, the one or more processors 202a and 202b may include one or more layers (eg, PHY (physical), MAC (media access control), RLC (radio link control), PDCP (packet data convergence protocol), RRC (radio resource) control) and functional layers such as service data adaptation protocol (SDAP). One or more processors 202a, 202b may generate one or more protocol data units (PDUs) and/or one or more service data units (SDUs) according to the descriptions, functions, procedures, proposals, methods, and/or operational flow charts disclosed herein. can create One or more processors 202a, 202b may generate messages, control information, data or information according to the descriptions, functions, procedures, proposals, methods and/or operational flow diagrams disclosed herein. One or more processors 202a, 202b generate PDUs, SDUs, messages, control information, data or signals (eg, baseband signals) containing information according to the functions, procedures, proposals and/or methods disclosed herein , may be provided to one or more transceivers 206a and 206b. One or more processors 202a, 202b may receive signals (eg, baseband signals) from one or more transceivers 206a, 206b, and descriptions, functions, procedures, proposals, methods, and/or flowcharts of operations disclosed herein PDUs, SDUs, messages, control information, data or information can be obtained according to these.
하나 이상의 프로세서(202a, 202b)는 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 또는 마이크로 컴퓨터로 지칭될 수 있다. 하나 이상의 프로세서(202a, 202b)는 하드웨어, 펌웨어, 소프트웨어, 또는 이들의 조합에 의해 구현될 수 있다. 일 예로, 하나 이상의 ASIC(application specific integrated circuit), 하나 이상의 DSP(digital signal processor), 하나 이상의 DSPD(digital signal processing device), 하나 이상의 PLD(programmable logic device) 또는 하나 이상의 FPGA(field programmable gate arrays)가 하나 이상의 프로세서(202a, 202b)에 포함될 수 있다. 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 펌웨어 또는 소프트웨어를 사용하여 구현될 수 있고, 펌웨어 또는 소프트웨어는 모듈, 절차, 기능 등을 포함하도록 구현될 수 있다. 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 수행하도록 설정된 펌웨어 또는 소프트웨어는 하나 이상의 프로세서(202a, 202b)에 포함되거나, 하나 이상의 메모리(204a, 204b)에 저장되어 하나 이상의 프로세서(202a, 202b)에 의해 구동될 수 있다. 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도들은 코드, 명령어 및/또는 명령어의 집합 형태로 펌웨어 또는 소프트웨어를 사용하여 구현될 수 있다. One or more processors 202a, 202b may be referred to as a controller, microcontroller, microprocessor or microcomputer. One or more processors 202a, 202b may be implemented by hardware, firmware, software, or a combination thereof. For example, one or more application specific integrated circuits (ASICs), one or more digital signal processors (DSPs), one or more digital signal processing devices (DSPDs), one or more programmable logic devices (PLDs), or one or more field programmable gate arrays (FPGAs). may be included in one or more processors 202a and 202b. The descriptions, functions, procedures, proposals, methods and/or operational flowcharts disclosed in this document may be implemented using firmware or software, and the firmware or software may be implemented to include modules, procedures, functions, and the like. Firmware or software configured to perform the descriptions, functions, procedures, proposals, methods and/or operational flow charts disclosed in this document may be included in one or more processors 202a or 202b or stored in one or more memories 204a or 204b. It can be driven by the above processors 202a and 202b. The descriptions, functions, procedures, suggestions, methods and/or operational flow charts disclosed in this document may be implemented using firmware or software in the form of codes, instructions and/or sets of instructions.
하나 이상의 메모리(204a, 204b)는 하나 이상의 프로세서(202a, 202b)와 연결될 수 있고, 다양한 형태의 데이터, 신호, 메시지, 정보, 프로그램, 코드, 지시 및/또는 명령을 저장할 수 있다. 하나 이상의 메모리(204a, 204b)는 ROM(read only memory), RAM(random access memory), EPROM(erasable programmable read only memory), 플래시 메모리, 하드 드라이브, 레지스터, 캐쉬 메모리, 컴퓨터 판독 저장 매체 및/또는 이들의 조합으로 구성될 수 있다. 하나 이상의 메모리(204a, 204b)는 하나 이상의 프로세서(202a, 202b)의 내부 및/또는 외부에 위치할 수 있다. 또한, 하나 이상의 메모리(204a, 204b)는 유선 또는 무선 연결과 같은 다양한 기술을 통해 하나 이상의 프로세서(202a, 202b)와 연결될 수 있다.One or more memories 204a, 204b may be coupled to one or more processors 202a, 202b and may store various types of data, signals, messages, information, programs, codes, instructions and/or instructions. One or more memories 204a, 204b may include read only memory (ROM), random access memory (RAM), erasable programmable read only memory (EPROM), flash memory, hard drive, registers, cache memory, computer readable storage media, and/or It may consist of a combination of these. One or more memories 204a, 204b may be located internally and/or externally to one or more processors 202a, 202b. In addition, one or more memories 204a, 204b may be connected to one or more processors 202a, 202b through various technologies such as wired or wireless connections.
하나 이상의 송수신기(206a, 206b)는 하나 이상의 다른 장치에게 본 문서의 방법들 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 전송할 수 있다. 하나 이상의 송수신기(206a, 206b)는 하나 이상의 다른 장치로부터 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 수신할 수 있다. 예를 들어, 하나 이상의 송수신기(206a, 206b)는 하나 이상의 프로세서(202a, 202b)와 연결될 수 있고, 무선 신호를 송수신할 수 있다. 예를 들어, 하나 이상의 프로세서(202a, 202b)는 하나 이상의 송수신기(206a, 206b)가 하나 이상의 다른 장치에게 사용자 데이터, 제어 정보 또는 무선 신호를 전송하도록 제어할 수 있다. 또한, 하나 이상의 프로세서(202a, 202b)는 하나 이상의 송수신기(206a, 206b)가 하나 이상의 다른 장치로부터 사용자 데이터, 제어 정보 또는 무선 신호를 수신하도록 제어할 수 있다. 또한, 하나 이상의 송수신기(206a, 206b)는 하나 이상의 안테나(208a, 208b)와 연결될 수 있고, 하나 이상의 송수신기(206a, 206b)는 하나 이상의 안테나(208a, 208b)를 통해 본 문서에 개시된 설명, 기능, 절차, 제안, 방법 및/또는 동작 순서도 등에서 언급되는 사용자 데이터, 제어 정보, 무선 신호/채널 등을 송수신하도록 설정될 수 있다. 본 문서에서, 하나 이상의 안테나는 복수의 물리 안테나이거나, 복수의 논리 안테나(예, 안테나 포트)일 수 있다. 하나 이상의 송수신기(206a, 206b)는 수신된 사용자 데이터, 제어 정보, 무선 신호/채널 등을 하나 이상의 프로세서(202a, 202b)를 이용하여 처리하기 위해, 수신된 무선 신호/채널 등을 RF 밴드 신호에서 베이스밴드 신호로 변환(Convert)할 수 있다. 하나 이상의 송수신기(206a, 206b)는 하나 이상의 프로세서(202a, 202b)를 이용하여 처리된 사용자 데이터, 제어 정보, 무선 신호/채널 등을 베이스밴드 신호에서 RF 밴드 신호로 변환할 수 있다. 이를 위하여, 하나 이상의 송수신기(206a, 206b)는 (아날로그) 오실레이터 및/또는 필터를 포함할 수 있다.One or more transceivers 206a, 206b may transmit user data, control information, radio signals/channels, etc. referred to in the methods and/or operational flow charts of this document to one or more other devices. One or more transceivers 206a, 206b may receive user data, control information, radio signals/channels, etc. referred to in descriptions, functions, procedures, proposals, methods and/or operational flow charts, etc. disclosed herein from one or more other devices. there is. For example, one or more transceivers 206a and 206b may be connected to one or more processors 202a and 202b and transmit and receive radio signals. For example, one or more processors 202a, 202b may control one or more transceivers 206a, 206b to transmit user data, control information, or radio signals to one or more other devices. In addition, one or more processors 202a, 202b may control one or more transceivers 206a, 206b to receive user data, control information, or radio signals from one or more other devices. In addition, one or more transceivers 206a, 206b may be coupled to one or more antennas 208a, 208b, and one or more transceivers 206a, 206b may be connected to one or more antennas 208a, 208b to achieve the descriptions, functions disclosed in this document. , procedures, proposals, methods and / or operation flowcharts, etc. can be set to transmit and receive user data, control information, radio signals / channels, etc. In this document, one or more antennas may be a plurality of physical antennas or a plurality of logical antennas (eg, antenna ports). One or more transceivers (206a, 206b) in order to process the received user data, control information, radio signal / channel, etc. using one or more processors (202a, 202b), the received radio signal / channel, etc. in the RF band signal It can be converted into a baseband signal. One or more transceivers 206a and 206b may convert user data, control information, and radio signals/channels processed by one or more processors 202a and 202b from baseband signals to RF band signals. To this end, one or more transceivers 206a, 206b may include (analog) oscillators and/or filters.
본 개시에 적용 가능한 무선 기기 구조Wireless device structure applicable to the present disclosure
도 3은 본 개시에 적용되는 무선 기기의 다른 예시를 도시한 도면이다.3 is a diagram illustrating another example of a wireless device applied to the present disclosure.
도 3을 참조하면, 무선 기기(300)는 도 2의 무선 기기(200a, 200b)에 대응하며, 다양한 요소(element), 성분(component), 유닛/부(unit), 및/또는 모듈(module)로 구성될 수 있다. 예를 들어, 무선 기기(300)는 통신부(310), 제어부(320), 메모리부(330) 및 추가 요소(340)를 포함할 수 있다. 통신부는 통신 회로(312) 및 송수신기(들)(314)을 포함할 수 있다. 예를 들어, 통신 회로(312)는 도 2의 하나 이상의 프로세서(202a, 202b) 및/또는 하나 이상의 메모리(204a, 204b)를 포함할 수 있다. 예를 들어, 송수신기(들)(314)는 도 2의 하나 이상의 송수신기(206a, 206b) 및/또는 하나 이상의 안테나(208a, 208b)을 포함할 수 있다. 제어부(320)는 통신부(310), 메모리부(330) 및 추가 요소(340)와 전기적으로 연결되며 무선 기기의 제반 동작을 제어한다. 예를 들어, 제어부(320)는 메모리부(330)에 저장된 프로그램/코드/명령/정보에 기반하여 무선 기기의 전기적/기계적 동작을 제어할 수 있다. 또한, 제어부(320)는 메모리부(330)에 저장된 정보를 통신부(310)을 통해 외부(예, 다른 통신 기기)로 무선/유선 인터페이스를 통해 전송하거나, 통신부(310)를 통해 외부(예, 다른 통신 기기)로부터 무선/유선 인터페이스를 통해 수신된 정보를 메모리부(330)에 저장할 수 있다.Referring to FIG. 3, a wireless device 300 corresponds to the wireless devices 200a and 200b of FIG. 2, and includes various elements, components, units/units, and/or modules. ) can be configured. For example, the wireless device 300 may include a communication unit 310, a control unit 320, a memory unit 330, and an additional element 340. The communication unit may include communication circuitry 312 and transceiver(s) 314 . For example, communication circuitry 312 may include one or more processors 202a, 202b of FIG. 2 and/or one or more memories 204a, 204b. For example, transceiver(s) 314 may include one or more transceivers 206a, 206b of FIG. 2 and/or one or more antennas 208a, 208b. The control unit 320 is electrically connected to the communication unit 310, the memory unit 330, and the additional element 340 and controls overall operations of the wireless device. For example, the control unit 320 may control electrical/mechanical operations of the wireless device based on programs/codes/commands/information stored in the memory unit 330. In addition, the control unit 320 transmits the information stored in the memory unit 330 to the outside (eg, another communication device) through the communication unit 310 through a wireless/wired interface, or transmits the information stored in the memory unit 330 to the outside (eg, another communication device) through the communication unit 310. Information received through a wireless/wired interface from other communication devices) may be stored in the memory unit 330 .
추가 요소(340)는 무선 기기의 종류에 따라 다양하게 구성될 수 있다. 예를 들어, 추가 요소(340)는 파워 유닛/배터리, 입출력부(input/output unit), 구동부 및 컴퓨팅부 중 적어도 하나를 포함할 수 있다. 이로 제한되는 것은 아니지만, 무선 기기(300)는 로봇(도 1, 100a), 차량(도 1, 100b-1, 100b-2), XR 기기(도 1, 100c), 휴대 기기(도 1, 100d), 가전(도 1, 100e), IoT 기기(도 1, 100f), 디지털 방송용 단말, 홀로그램 장치, 공공 안전 장치, MTC 장치, 의료 장치, 핀테크 장치(또는 금융 장치), 보안 장치, 기후/환경 장치, AI 서버/기기(도 1, 140), 기지국(도 1, 120), 네트워크 노드 등의 형태로 구현될 수 있다. 무선 기기는 사용-예/서비스에 따라 이동 가능하거나 고정된 장소에서 사용될 수 있다.The additional element 340 may be configured in various ways according to the type of wireless device. For example, the additional element 340 may include at least one of a power unit/battery, an input/output unit, a driving unit, and a computing unit. Although not limited thereto, the wireless device 300 may be a robot (FIG. 1, 100a), a vehicle (FIG. 1, 100b-1, 100b-2), an XR device (FIG. 1, 100c), a mobile device (FIG. 1, 100d) ), home appliances (FIG. 1, 100e), IoT devices (FIG. 1, 100f), digital broadcasting terminals, hologram devices, public safety devices, MTC devices, medical devices, fintech devices (or financial devices), security devices, climate/ It may be implemented in the form of an environment device, an AI server/device (FIG. 1, 140), a base station (FIG. 1, 120), a network node, and the like. Wireless devices can be mobile or used in a fixed location depending on the use-case/service.
도 3에서 무선 기기(300) 내의 다양한 요소, 성분, 유닛/부, 및/또는 모듈은 전체가 유선 인터페이스를 통해 상호 연결되거나, 적어도 일부가 통신부(310)를 통해 무선으로 연결될 수 있다. 예를 들어, 무선 기기(300) 내에서 제어부(320)와 통신부(310)는 유선으로 연결되며, 제어부(320)와 제1 유닛(예, 130, 140)은 통신부(310)를 통해 무선으로 연결될 수 있다. 또한, 무선 기기(300) 내의 각 요소, 성분, 유닛/부, 및/또는 모듈은 하나 이상의 요소를 더 포함할 수 있다. 예를 들어, 제어부(320)는 하나 이상의 프로세서 집합으로 구성될 수 있다. 예를 들어, 제어부(320)는 통신 제어 프로세서, 어플리케이션 프로세서(application processor), ECU(electronic control unit), 그래픽 처리 프로세서, 메모리 제어 프로세서 등의 집합으로 구성될 수 있다. 다른 예로, 메모리부(330)는 RAM, DRAM(dynamic RAM), ROM, 플래시 메모리(flash memory), 휘발성 메모리(volatile memory), 비-휘발성 메모리(non-volatile memory) 및/또는 이들의 조합으로 구성될 수 있다.In FIG. 3 , various elements, components, units/units, and/or modules in the wireless device 300 may be entirely interconnected through a wired interface or at least partially connected wirelessly through the communication unit 310 . For example, in the wireless device 300, the control unit 320 and the communication unit 310 are connected by wire, and the control unit 320 and the first units (eg, 130 and 140) are connected wirelessly through the communication unit 310. can be connected Additionally, each element, component, unit/unit, and/or module within wireless device 300 may further include one or more elements. For example, the control unit 320 may be composed of one or more processor sets. For example, the control unit 320 may include a set of a communication control processor, an application processor, an electronic control unit (ECU), a graphic processing processor, a memory control processor, and the like. As another example, the memory unit 330 may include RAM, dynamic RAM (DRAM), ROM, flash memory, volatile memory, non-volatile memory, and/or combinations thereof. can be configured.
도 4는 본 개시에 적용되는 AI 기기의 예시를 도시한 도면이다. 일 예로, AI 기기는 TV, 프로젝터, 스마트폰, PC, 노트북, 디지털방송용 단말기, 태블릿 PC, 웨어러블 장치, 셋톱박스(STB), 라디오, 세탁기, 냉장고, 디지털 사이니지, 로봇, 차량 등과 같은, 고정형 기기 또는 이동 가능한 기기 등으로 구현될 수 있다.4 is a diagram illustrating an example of an AI device applied to the present disclosure. As an example, AI devices include TVs, projectors, smartphones, PCs, laptops, digital broadcasting terminals, tablet PCs, wearable devices, set-top boxes (STBs), radios, washing machines, refrigerators, digital signage, robots, vehicles, etc. It may be implemented as a device or a movable device.
도 4를 참조하면, AI 기기(600)는 통신부(610), 제어부(620), 메모리부(630), 입/출력부(640a/640b), 러닝 프로세서부(640c) 및 센서부(640d)를 포함할 수 있다. 블록 910~930/940a~940d는 각각 도 3의 블록 310~330/340에 대응할 수 있다.Referring to FIG. 4, the AI device 600 includes a communication unit 610, a control unit 620, a memory unit 630, an input/output unit 640a/640b, a running processor unit 640c, and a sensor unit 640d. can include Blocks 910 to 930/940a to 940d may respectively correspond to blocks 310 to 330/340 of FIG. 3 .
통신부(610)는 유무선 통신 기술을 이용하여 다른 AI 기기(예, 도 1, 100x, 120, 140)나 AI 서버(도 1, 140) 등의 외부 기기들과 유무선 신호(예, 센서 정보, 사용자 입력, 학습 모델, 제어 신호 등)를 송수신할 수 있다. 이를 위해, 통신부(610)는 메모리부(630) 내의 정보를 외부 기기로 전송하거나, 외부 기기로부터 수신된 신호를 메모리부(630)로 전달할 수 있다.The communication unit 610 communicates wired and wireless signals (eg, sensor information, user data) with external devices such as other AI devices (eg, FIG. 1, 100x, 120, and 140) or AI servers (Fig. input, learning model, control signal, etc.) can be transmitted and received. To this end, the communication unit 610 may transmit information in the memory unit 630 to an external device or transmit a signal received from the external device to the memory unit 630 .
제어부(620)는 데이터 분석 알고리즘 또는 머신 러닝 알고리즘을 사용하여 결정되거나 생성된 정보에 기초하여, AI 기기(600)의 적어도 하나의 실행 가능한 동작을 결정할 수 있다. 그리고, 제어부(620)는 AI 기기(600)의 구성 요소들을 제어하여 결정된 동작을 수행할 수 있다. 예를 들어, 제어부(620)는 러닝 프로세서부(640c) 또는 메모리부(630)의 데이터를 요청, 검색, 수신 또는 활용할 수 있고, 적어도 하나의 실행 가능한 동작 중 예측되는 동작이나, 바람직한 것으로 판단되는 동작을 실행하도록 AI 기기(600)의 구성 요소들을 제어할 수 있다. 또한, 제어부(920)는 AI 장치(600)의 동작 내용이나 동작에 대한 사용자의 피드백 등을 포함하는 이력 정보를 수집하여 메모리부(630) 또는 러닝 프로세서부(640c)에 저장하거나, AI 서버(도 1, 140) 등의 외부 장치에 전송할 수 있다. 수집된 이력 정보는 학습 모델을 갱신하는데 이용될 수 있다.The controller 620 may determine at least one executable operation of the AI device 600 based on information determined or generated using a data analysis algorithm or a machine learning algorithm. And, the controller 620 may perform the determined operation by controlling components of the AI device 600 . For example, the control unit 620 may request, retrieve, receive, or utilize data from the learning processor unit 640c or the memory unit 630, and may perform a predicted operation among at least one feasible operation or one determined to be desirable. Components of the AI device 600 may be controlled to execute an operation. In addition, the control unit 920 collects history information including user feedback on the operation contents or operation of the AI device 600 and stores it in the memory unit 630 or the running processor unit 640c, or the AI server ( 1, 140) can be transmitted to an external device. The collected history information can be used to update the learning model.
메모리부(630)는 AI 기기(600)의 다양한 기능을 지원하는 데이터를 저장할 수 있다. 예를 들어, 메모리부(630)는 입력부(640a)로부터 얻은 데이터, 통신부(610)로부터 얻은 데이터, 러닝 프로세서부(640c)의 출력 데이터, 및 센싱부(640)로부터 얻은 데이터를 저장할 수 있다. 또한, 메모리부(930)는 제어부(620)의 동작/실행에 필요한 제어 정보 및/또는 소프트웨어 코드를 저장할 수 있다.The memory unit 630 may store data supporting various functions of the AI device 600 . For example, the memory unit 630 may store data obtained from the input unit 640a, data obtained from the communication unit 610, output data of the learning processor unit 640c, and data obtained from the sensing unit 640. Also, the memory unit 930 may store control information and/or software codes required for operation/execution of the control unit 620 .
입력부(640a)는 AI 기기(600)의 외부로부터 다양한 종류의 데이터를 획득할 수 있다. 예를 들어, 입력부(620)는 모델 학습을 위한 학습 데이터, 및 학습 모델이 적용될 입력 데이터 등을 획득할 수 있다. 입력부(640a)는 카메라, 마이크로폰 및/또는 사용자 입력부 등을 포함할 수 있다. 출력부(640b)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시킬 수 있다. 출력부(640b)는 디스플레이부, 스피커 및/또는 햅틱 모듈 등을 포함할 수 있다. 센싱부(640)는 다양한 센서들을 이용하여 AI 기기(600)의 내부 정보, AI 기기(600)의 주변 환경 정보 및 사용자 정보 중 적어도 하나를 얻을 수 있다. 센싱부(640)는 근접 센서, 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, RGB 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 마이크로폰 및/또는 레이더 등을 포함할 수 있다.The input unit 640a may obtain various types of data from the outside of the AI device 600. For example, the input unit 620 may obtain learning data for model learning and input data to which the learning model is to be applied. The input unit 640a may include a camera, a microphone, and/or a user input unit. The output unit 640b may generate an output related to sight, hearing, or touch. The output unit 640b may include a display unit, a speaker, and/or a haptic module. The sensing unit 640 may obtain at least one of internal information of the AI device 600, surrounding environment information of the AI device 600, and user information by using various sensors. The sensing unit 640 may include a proximity sensor, an illuminance sensor, an acceleration sensor, a magnetic sensor, a gyro sensor, an inertial sensor, an RGB sensor, an IR sensor, a fingerprint recognition sensor, an ultrasonic sensor, an optical sensor, a microphone, and/or a radar. there is.
러닝 프로세서부(640c)는 학습 데이터를 이용하여 인공 신경망으로 구성된 모델을 학습시킬 수 있다. 러닝 프로세서부(640c)는 AI 서버(도 1, 140)의 러닝 프로세서부와 함께 AI 프로세싱을 수행할 수 있다. 러닝 프로세서부(640c)는 통신부(610)를 통해 외부 기기로부터 수신된 정보, 및/또는 메모리부(630)에 저장된 정보를 처리할 수 있다. 또한, 러닝 프로세서부(940c)의 출력 값은 통신부(610)를 통해 외부 기기로 전송되거나/되고, 메모리부(630)에 저장될 수 있다.The learning processor unit 640c may learn a model composed of an artificial neural network using learning data. The running processor unit 640c may perform AI processing together with the running processor unit of the AI server (FIG. 1, 140). The learning processor unit 640c may process information received from an external device through the communication unit 610 and/or information stored in the memory unit 630 . In addition, the output value of the learning processor unit 940c may be transmitted to an external device through the communication unit 610 and/or stored in the memory unit 630.
6G 통신 시스템 6G communication system
6G (무선통신) 시스템은 (i) 디바이스 당 매우 높은 데이터 속도, (ii) 매우 많은 수의 연결된 디바이스들, (iii) 글로벌 연결성(global connectivity), (iv) 매우 낮은 지연, (v) 배터리-프리(battery-free) IoT 디바이스들의 에너지 소비를 낮추고, (vi) 초고신뢰성 연결, (vii) 머신 러닝 능력을 가지는 연결된 지능 등에 목적이 있다. 6G 시스템의 비젼은 “intelligent connectivity”, “deep connectivity”, “holographic connectivity”, “ubiquitous connectivity”와 같은 4가지 측면일 수 있으며, 6G 시스템은 하기 표 1과 같은 요구 사항을 만족시킬 수 있다. 즉, 표 1은 6G 시스템의 요구 사항을 나타낸 표이다.6G (radio communications) systems are characterized by (i) very high data rates per device, (ii) very large number of connected devices, (iii) global connectivity, (iv) very low latency, (v) battery- It aims to lower energy consumption of battery-free IoT devices, (vi) ultra-reliable connectivity, and (vii) connected intelligence with machine learning capabilities. The vision of the 6G system can be four aspects such as “intelligent connectivity”, “deep connectivity”, “holographic connectivity”, and “ubiquitous connectivity”, and the 6G system can satisfy the requirements shown in Table 1 below. That is, Table 1 is a table showing the requirements of the 6G system.
Figure PCTKR2021012704-appb-img-000001
Figure PCTKR2021012704-appb-img-000001
이때, 6G 시스템은 향상된 모바일 브로드밴드(enhanced mobile broadband, eMBB), 초-저지연 통신(ultra-reliable low latency communications, URLLC), mMTC (massive machine type communications), AI 통합 통신(AI integrated communication), 촉각 인터넷(tactile internet), 높은 스루풋(high throughput), 높은 네트워크 능력(high network capacity), 높은 에너지 효율(high energy efficiency), 낮은 백홀 및 접근 네트워크 혼잡(low backhaul and access network congestion) 및 향상된 데이터 보안(enhanced data security)과 같은 핵심 요소(key factor)들을 가질 수 있다.At this time, the 6G system is enhanced mobile broadband (eMBB), ultra-reliable low latency communications (URLLC), mMTC (massive machine type communications), AI integrated communication, tactile Internet (tactile internet), high throughput, high network capacity, high energy efficiency, low backhaul and access network congestion and improved data security ( can have key factors such as enhanced data security.
인공 지능(artificial Intelligence, AI)Artificial Intelligence (AI)
6G 시스템에 가장 중요하며, 새로 도입될 기술은 AI이다. 4G 시스템에는 AI가 관여하지 않았다. 5G 시스템은 부분 또는 매우 제한된 AI를 지원할 것이다. 그러나, 6G 시스템은 완전히 자동화를 위해 AI가 지원될 것이다. 머신 러닝의 발전은 6G에서 실시간 통신을 위해 보다 지능적인 네트워크를 만들 것이다. 통신에 AI를 도입하면 실시간 데이터 전송이 간소화되고 향상될 수 있다. AI는 수많은 분석을 사용하여 복잡한 대상 작업이 수행되는 방식을 결정할 수 있다. 즉, AI는 효율성을 높이고 처리 지연을 줄일 수 있다.The most important and newly introduced technology for the 6G system is AI. AI was not involved in the 4G system. 5G systems will support partial or very limited AI. However, the 6G system will be AI-enabled for full automation. Advances in machine learning will create more intelligent networks for real-time communication in 6G. Introducing AI in communications can simplify and enhance real-time data transmission. AI can use a plethora of analytics to determine how complex target tasks are performed. In other words, AI can increase efficiency and reduce processing delays.
핸드 오버, 네트워크 선택, 자원 스케줄링과 같은 시간 소모적인 작업은 AI를 사용함으로써 즉시 수행될 수 있다. AI는 M2M, 기계-대-인간 및 인간-대-기계 통신에서도 중요한 역할을 할 수 있다. 또한, AI는 BCI(brain computer interface)에서 신속한 통신이 될 수 있다. AI 기반 통신 시스템은 메타 물질, 지능형 구조, 지능형 네트워크, 지능형 장치, 지능형 인지 라디오(radio), 자체 유지 무선 네트워크 및 머신 러닝에 의해 지원될 수 있다.Time-consuming tasks such as handover, network selection, and resource scheduling can be performed instantly by using AI. AI can also play an important role in machine-to-machine, machine-to-human and human-to-machine communications. In addition, AI can be a rapid communication in the brain computer interface (BCI). AI-based communication systems can be supported by metamaterials, intelligent structures, intelligent networks, intelligent devices, intelligent cognitive radios, self-sustaining wireless networks, and machine learning.
최근 AI를 무선 통신 시스템과 통합하려고 하는 시도들이 나타나고 있으나, 이는 어플리케이션 계층(application layer), 네트워크 계층(network layer) 특히, 딥 러닝은 무선 자원 관리 및 할당(wireless resource management and allocation) 분야에 집중되어 왔다. 그러나, 이러한 연구는 점점 MAC 계층 및 물리 계층으로 발전하고 있으며, 특히 물리계층에서 딥 러닝을 무선 전송(wireless transmission)과 결합하고자 하는 시도들이 나타나고 있다. AI 기반의 물리계층 전송은, 근본적인 신호 처리 및 통신 메커니즘에 있어서, 전통적인 통신 프레임워크가 아니라 AI 드라이버에 기초한 신호 처리 및 통신 메커니즘을 적용하는 것을 의미한다. 예를 들어, 딥러닝 기반의 채널 코딩 및 디코딩(channel coding and decoding), 딥러닝 기반의 신호 추정(estimation) 및 검출(detection), 딥러닝 기반의 MIMO(multiple input multiple output) 매커니즘(mechanism), AI 기반의 자원 스케줄링(scheduling) 및 할당(allocation) 등을 포함할 수 있다.Recently, there have been attempts to integrate AI with wireless communication systems, but these are focused on the application layer, network layer, and especially deep learning, wireless resource management and allocation. come. However, such research is gradually developing into the MAC layer and the physical layer, and in particular, attempts to combine deep learning with wireless transmission are appearing in the physical layer. AI-based physical layer transmission means applying a signal processing and communication mechanism based on an AI driver rather than a traditional communication framework in fundamental signal processing and communication mechanisms. For example, deep learning-based channel coding and decoding, deep learning-based signal estimation and detection, deep learning-based multiple input multiple output (MIMO) mechanism, It may include AI-based resource scheduling and allocation.
또한, 머신 러닝은 채널 추정 및 채널 트래킹을 위해 사용될 수 있으며, DL(downlink)의 물리 계층(physical layer)에서 전력 할당(power allocation), 간섭 제거(interference cancellation) 등에 사용될 수 있다. 또한, 머신 러닝은 MIMO 시스템에서 안테나 선택, 전력 제어(power control), 심볼 검출(symbol detection) 등에도 사용될 수 있다.In addition, machine learning may be used for channel estimation and channel tracking, and may be used for power allocation, interference cancellation, and the like in a downlink (DL) physical layer. Machine learning can also be used for antenna selection, power control, symbol detection, and the like in a MIMO system.
그러나 물리계층에서의 전송을 위한 DNN의 적용은 아래와 같은 문제점이 있을 수 있다.However, the application of DNN for transmission in the physical layer may have the following problems.
딥러닝 기반의 AI 알고리즘은 훈련 파라미터를 최적화하기 위해 수많은 훈련 데이터가 필요하다. 그러나 특정 채널 환경에서의 데이터를 훈련 데이터로 획득하는데 있어서의 한계로 인해, 오프라인 상에서 많은 훈련 데이터를 사용한다. 이는 특정 채널 환경에서 훈련 데이터에 대한 정적 훈련(static training)은, 무선 채널의 동적 특성 및 다이버시티(diversity) 사이에 모순(contradiction)이 생길 수 있다.AI algorithms based on deep learning require a lot of training data to optimize training parameters. However, due to limitations in acquiring data in a specific channel environment as training data, a lot of training data is used offline. This is because static training on training data in a specific channel environment may cause a contradiction between dynamic characteristics and diversity of a radio channel.
또한, 현재 딥 러닝은 주로 실제 신호(real signal)을 대상으로 한다. 그러나, 무선 통신의 물리 계층의 신호들은 복소 신호(complex signal)이다. 무선 통신 신호의 특성을 매칭시키기 위해 복소(complex) 도메인 신호의 검출하는 신경망(neural network)에 대한 연구가 더 필요하다.In addition, current deep learning mainly targets real signals. However, the signals of the physical layer of wireless communication are complex signals. In order to match the characteristics of a wireless communication signal, further research is needed on a neural network that detects a complex domain signal.
이하, 머신 러닝에 대해 보다 구체적으로 살펴본다.Hereinafter, machine learning will be described in more detail.
머신 러닝은 사람이 할 수 있거나 혹은 하기 어려운 작업을 대신해낼 수 있는 기계를 만들어 내기 위해 기계를 학습시키는 일련의 동작을 의미한다. 머신 러닝을 위해서는 데이터와 러닝 모델이 필요하다. 머신 러닝에서 데이터의 학습 방법은 크게 3가지 즉, 지도 학습(supervised learning), 비지도 학습(unsupervised learning) 그리고 강화 학습(reinforcement learning)으로 구분될 수 있다.Machine learning refers to a set of actions that train a machine to create a machine that can do tasks that humans can or cannot do. Machine learning requires data and a running model. In machine learning, data learning methods can be largely classified into three types: supervised learning, unsupervised learning, and reinforcement learning.
신경망 학습은 출력의 오류를 최소화하기 위한 것이다. 신경망 학습은 반복적으로 학습 데이터를 신경망에 입력시키고 학습 데이터에 대한 신경망의 출력과 타겟의 에러를 계산하고, 에러를 줄이기 위한 방향으로 신경망의 에러를 신경망의 출력 레이어에서부터 입력 레이어 방향으로 역전파(backpropagation) 하여 신경망의 각 노드의 가중치를 업데이트하는 과정이다.Neural network training is aimed at minimizing errors in the output. Neural network learning repeatedly inputs training data to the neural network, calculates the output of the neural network for the training data and the error of the target, and backpropagates the error of the neural network from the output layer of the neural network to the input layer in a direction to reduce the error. ) to update the weight of each node in the neural network.
지도 학습은 학습 데이터에 정답이 라벨링된 학습 데이터를 사용하며 비지도 학습은 학습 데이터에 정답이 라벨링되어 있지 않을 수 있다. 즉, 예를 들어 데이터 분류에 관한 지도 학습의 경우의 학습 데이터는 학습 데이터 각각에 카테고리가 라벨링된 데이터 일 수 있다. 라벨링된 학습 데이터가 신경망에 입력되고 신경망의 출력(카테고리)과 학습 데이터의 라벨을 비교하여 오차(error)가 계산될 수 있다. 계산된 오차는 신경망에서 역방향(즉, 출력 레이어에서 입력 레이어 방향)으로 역전파 되며, 역전파에 따라 신경망의 각 레이어의 각 노드들의 연결 가중치가 업데이트 될 수 있다. 업데이트 되는 각 노드의 연결 가중치는 학습률(learning rate)에 따라 변화량이 결정될 수 있다. 입력 데이터에 대한 신경망의 계산과 에러의 역전파는 학습 사이클(epoch)을 구성할 수 있다. 학습률은 신경망의 학습 사이클의 반복 횟수에 따라 상이하게 적용될 수 있다. 예를 들어, 신경망의 학습 초기에는 높은 학습률을 사용하여 신경망이 빠르게 일정 수준의 성능을 확보하도록 하여 효율성을 높이고, 학습 후기에는 낮은 학습률을 사용하여 정확도를 높일 수 있다Supervised learning uses training data in which correct answers are labeled in the learning data, and unsupervised learning may not have correct answers labeled in the learning data. That is, for example, learning data in the case of supervised learning related to data classification may be data in which each learning data is labeled with a category. Labeled training data is input to the neural network, and an error may be calculated by comparing the output (category) of the neural network and the label of the training data. The calculated error is back-propagated in a reverse direction (ie, from the output layer to the input layer) in the neural network, and the connection weight of each node of each layer of the neural network may be updated according to the back-propagation. The amount of change in the connection weight of each updated node may be determined according to a learning rate. The neural network's computation of input data and backpropagation of errors can constitute a learning cycle (epoch). The learning rate may be applied differently according to the number of iterations of the learning cycle of the neural network. For example, a high learning rate is used in the early stages of neural network learning to increase efficiency by allowing the neural network to quickly achieve a certain level of performance, and a low learning rate can be used in the late stage to increase accuracy.
데이터의 특징에 따라 학습 방법은 달라질 수 있다. 예를 들어, 통신 시스템 상에서 송신단에서 전송한 데이터를 수신단에서 정확하게 예측하는 것을 목적으로 하는 경우, 비지도 학습 또는 강화 학습 보다는 지도 학습을 이용하여 학습을 수행하는 것이 바람직하다.The learning method may vary depending on the characteristics of the data. For example, in a case where the purpose of the receiver is to accurately predict data transmitted by the transmitter in a communication system, it is preferable to perform learning using supervised learning rather than unsupervised learning or reinforcement learning.
러닝 모델은 인간의 뇌에 해당하는 것으로서, 가장 기본적인 선형 모델을 생각할 수 있으나, 인공 신경망(artificial neural networks)와 같은 복잡성이 높은 신경망 구조를 러닝 모델로 사용하는 머신 러닝의 패러다임을 딥러닝(deep learning)이라 한다.The learning model corresponds to the human brain, and the most basic linear model can be considered. ) is called
학습(learning) 방식으로 사용하는 신경망 코어(neural network cord)는 크게 심층 신경망(deep neural networks, DNN), 합성곱 신경망(convolutional deep neural networks, CNN), 순환 신경망(recurrent boltzmann machine, RNN) 방식이 있으며, 이러한 러닝 모델이 적용될 수 있다.The neural network cord used as a learning method is largely divided into deep neural networks (DNN), convolutional deep neural networks (CNN), and recurrent boltzmann machine (RNN). and this learning model can be applied.
하기에서는 상술한 바에 기초하여 인공지능 또는 connected intelligence에 기초하여 영상 입력장치(e.g. 카메라)와 영상 출력장치를 메타렌즈를 통해서 유기적으로 동작시키는 방법에 대해 서술한다. 일 예로, 영상 입력장치 및 영상 출력장치는 다양한 환경에서 연합학습을 통해 인공지능 시스템을 효과적으로 적용할 수 있으며, 하기에서는 이에 대해 서술한다. 일 예로, 하기에서 서술하는 용어로써 OIS(Optical Image Stabilizer)는 영상 이미지 안정화 장치를 의미할 수 있다. 일 예로, OIS는 카메라의 손떨림 방지 기능일 수 있으며, 상술한 실시예로 한정되지 않는다. 또한, 일 예로, 연합학습(Federated Learning)은 데이터 샘플을 교환하지 않고 로컬 데이터 샘플을 보유하는 여러 장치 또는 서버에서 알고리즘을 훈련시키는 학습 방식을 의미할 수 있다. 이때, 연합학습 방식은 복수 개의 장치가 데이터를 공유하지 않고, 공통의 강력한 기계 학습 모델을 구축 할 수 있다. 따라서, 연합학습은 데이터 개인 정보 보호, 데이터 보안, 데이터 액세스 권한 및 이기종 데이터 액세스와 같은 중요한 문제를 해결할 수 있다.In the following, a method for organically operating an image input device (e.g. camera) and an image output device based on artificial intelligence or connected intelligence based on the above description will be described. For example, an image input device and an image output device can effectively apply an artificial intelligence system through federated learning in various environments, and this will be described below. For example, as a term to be described below, OIS (Optical Image Stabilizer) may mean a video image stabilization device. As an example, the OIS may be a camera shake prevention function, and is not limited to the above-described embodiment. Also, as an example, federated learning may refer to a learning method in which an algorithm is trained on multiple devices or servers having local data samples without exchanging data samples. In this case, the federated learning method can build a common powerful machine learning model without sharing data between multiple devices. Thus, federated learning can address important issues such as data privacy, data security, data access rights, and heterogeneous data access.
또한, 일 예로, 연합학습을 위한 동작으로 복수 개의 장치들은 로컬 데이터 샘플에 대한 로컬 모델을 학습할 수 있다. 그 후, 복수 개의 장치들 각각은 학습된 로컬 모델에 기초하여 로컬 모델의 파라미터(e.g. 딥 뉴럴 네트워크의 가중치, 정보)를 기지국 또는 서버로 전달할 수 있다. 이때, 기지국 또는 서버는 글로벌 모델을 업데이트하고, 업데이트된 글로벌 모델을 복수 개의 장치들 각각으로 다시 전달할 수 있다. 이때, 일 예로, 에어콤프(AirComp, Over the Air Computing) 방식은 로컬 모델들의 파라미터가 동일한 무선 자원에 기초하여 기지국 또는 서버로 전송되는 방식일 수 있다. 즉, 기지국 또는 서버에는 글로벌 모델이 존재하고, 복수 개의 장치들 각각에는 로컬 모델들이 존재할 수 있다. 이때, 상술한 모델들을 전송하기 위한 다양한 통신 방법(유/무선포함)으로 연결되어 복수 개의 장치와 기지국 또는 서버가 유기적으로 동작할 수 있다. 또한, 일 예로, 상술한 방식은 영상 입력장치 및 영상 출력장치에도 동일하게 적용될 수 있으며, 이에 대해서는 하기에서 서술한다.Also, as an example, a plurality of devices may learn a local model for a local data sample as an operation for federated learning. After that, each of the plurality of devices may transfer parameters of the local model (e.g., weights and information of the deep neural network) to the base station or the server based on the learned local model. In this case, the base station or the server may update the global model and transmit the updated global model to each of the plurality of devices again. In this case, as an example, an AirComp (Over the Air Computing) method may be a method in which parameters of local models are transmitted to a base station or a server based on the same radio resource. That is, a global model may exist in a base station or a server, and local models may exist in each of a plurality of devices. At this time, a plurality of devices and a base station or server may operate organically by being connected by various communication methods (including wired/wireless) for transmitting the above-described models. Also, as an example, the above method may be equally applied to an image input device and an image output device, which will be described below.
일 예로, 도 5는 본 개시의 일 실시예에 따라 연합학습을 나타낸 도면이다. 도 5를 참조하면, 이동통신 시스템에서 분산형 인공지능 학습을 효율화 하는 방법이 제공될 수 있다. 복수 개의 단말에 대한 데이터가 분산되어 존재하는 경우, 중앙집중형 학습 방법은 단말들이 각각의 데이터를 기지국으로 전달하고, 기지국에서 학습이 수행되는 방식일 수 있다. 다만, 단말들의 데이터를 기지국 또는 서버로 보내는 중앙집중형 학습은 데이터 보안에 한계가 존재할 수 있다. 따라서, 사용자의 데이터를 보내지 않는 분산 학습 방식으로 무선 연합학습 방식이 필요할 수 있다. 이때, 무선 연합학습 방식은 단말들의 데이터 각각을 기지국으로 전송하는 대신에 각각의 단말들이 개별 학습을 진행하면서 로컬 모델 업데이트를 기지국으로 전송하는 방식일 수 있다. 이때, 기지국은 복수 개의 단말들로부터 수신한 로컬 모델 업데이트에 기초하여 로컬 모델 업데이트들의 합쳐진 값을 각각의 단말들로 전송할 수 있다. 이때, 상술한 절차는 지속적으로 반복될 수 있으며, 단말들의 연합으로 분산 학습이 진행될 수 있다.As an example, FIG. 5 is a diagram illustrating associative learning according to an embodiment of the present disclosure. Referring to FIG. 5, a method for efficient distributed artificial intelligence learning in a mobile communication system can be provided. When data for a plurality of terminals exist in a distributed manner, the centralized learning method may be a method in which terminals transfer each data to a base station and learning is performed at the base station. However, centralized learning that transmits data of terminals to a base station or server may have limitations in data security. Therefore, a wireless federated learning method may be required as a distributed learning method that does not send user data. In this case, the wireless joint learning method may be a method in which each terminal transmits a local model update to the base station while performing individual learning instead of transmitting each data of the terminals to the base station. In this case, the base station may transmit a combined value of the local model updates to each terminal based on the local model update received from the plurality of terminals. At this time, the above-described procedure may be continuously repeated, and distributed learning may be performed by association of terminals.
여기서, 로컬 모델의 사이즈는 큰 경우가 많기 때문에 학습에 참여하는 단말들이 독립된 무선 자원으로 로컬 모델에 대한 정보를 업링크 채널로 전송하는 경우, 무선 자원 손실은 커질 수 있다. 따라서, 단말들이 같은 무선 자원을 활용하여 업링크로 로컬 순시 모델을 보내고 무선 상에서 자동으로 합쳐지는 무선 계산(Aircomp) 방식이 사용될 수 있다. Here, since the size of the local model is often large, when terminals participating in learning transmit information on the local model through an uplink channel using independent radio resources, radio resource loss may increase. Therefore, a radio calculation (Aircomp) scheme in which terminals send local instantaneous models through uplink using the same radio resource and automatically merge them over radio may be used.
일 예로, 무선 계산(Aircomp) 방식은 각각의 단말들이 보낸 로컬 모델들을 동일한 크기로 합치기 위해서 무선 채널의 역에 비례하는 가중치를 인가하여 전송하는 방식일 수 있다. For example, the wireless calculation (Aircomp) method may be a method of applying and transmitting a weight proportional to an inverse of a radio channel in order to combine local models sent by respective terminals into the same size.
구체적인 일 예로, 새로운 통신 시스템에 연합 학습(Federated Learning)의 모델 파라미터가 적용될 수 있다. 연합 학습(Federated Learning)은 개인의 프라이버시 보호, 분산 처리를 통한 기지국의 로드감소 및 기지국과 단말과의 트래픽을 감소시키는 경우 중 어느 하나에 적용될 수 있다. 다만, 이에 한정되는 것은 아닐 수 있다. 이때, 일 예로, 로컬 모델 파라미터(e.g. 딥 뉴럴 네트워크의 가중치, 정보)의 트래픽은 무선 통신환경에서 많은 부담을 줄 수 있으며, 이를 고려하여 상술한 로컬 모델 파라미터의 압축 또는 에어콤프(Aircomp(Over the Air Computing))를 통해 트래픽을 감소시킬 수 있다.As a specific example, model parameters of federated learning may be applied to a new communication system. Federated learning may be applied to any one of cases of protecting individual privacy, reducing load of a base station through distributed processing, and reducing traffic between a base station and a terminal. However, it may not be limited thereto. At this time, as an example, the traffic of local model parameters (e.g., weights and information of deep neural networks) can impose a heavy burden in a wireless communication environment. Air Computing)) can reduce traffic.
다만, 통신 시스템에서 무선통신 환경은 다양할 수 있다. 또한, 통신시스템에서 학습이 필요한 단말 수가 다양하게 설정될 수 있다. 여기서, 통신 시스템에는 상술한 환경을 고려하여 고정적인 특정 기술이 아닌 유동적인 운영 방법 및 시스템이 필요할 수 있다. 이를 통해, 통신 시스템의 자원 효율성을 증대시킬 수 있다. 일 예로, 에어콤프(Aircomp)를 통한 연합 학습(Federated Learning) 방식은 단말 모델 파라미터를 합치는 방식일 수 있다. 에어콤프 방식에 기초하여 전송이 수행되는 경우, 무선 통신 채널은 중첩(superposition) 성질에 기초하여 신호 전송을 수행하므로 전송 효율을 높일 수 있고, 기지국의 로드를 줄일 수 있다. 또한, 단말들은 동일한 통신채널을 공유할 수 있다. 따라서, 단말들이 다수 존재하는 경우, 전송 효율은 높아질 수 있다. However, a wireless communication environment in a communication system may vary. In addition, the number of terminals requiring learning in the communication system may be set in various ways. Here, the communication system may require a flexible operating method and system, rather than a specific fixed technology, in consideration of the above-mentioned environment. Through this, resource efficiency of the communication system can be increased. For example, a federated learning method through Aircomp may be a method of combining terminal model parameters. When transmission is performed based on the air comp method, since signal transmission is performed based on the superposition property of a wireless communication channel, transmission efficiency can be increased and the load of a base station can be reduced. Also, terminals can share the same communication channel. Therefore, when there are a large number of terminals, transmission efficiency can be increased.
상술한 점을 고려하여, 단말 모델 파라미터 압축을 통한 연합 학습(Federated Learning) 방식은 각 단말이 파라미터의 특성을 고려하여 데이터에 대한 압축을 수행하여 기지국에 전송하는 방식일 수 있다. 따라서, 기지국이 연합 학습 방식에 기초하여 신호를 수신하는 경우, 기지국은 수신한 신호에 기초하여 압축을 풀고, 수집된 파라미터를 합산하는 동작을 수행할 필요성이 있으며, 기지국의 로드는 증가할 수 있다. 또한, 일 예로, 각 단말 수 별로 통신채널을 할당해야 되기 때문에, 사용 단말의 수에 비례하여 통신 트래픽이 증가할 수 있다. 따라서, 단말들이 다수 존재하는 경우, 압축을 통한 방식은 효율성을 감소시킬 수 있다.Considering the above points, the federated learning method through terminal model parameter compression may be a method in which each terminal performs compression on data in consideration of characteristics of parameters and transmits the compressed data to the base station. Therefore, when the base station receives a signal based on the joint learning method, the base station needs to decompress based on the received signal and perform an operation of summing the collected parameters, and the load of the base station may increase . Also, for example, since a communication channel needs to be allocated for each number of terminals, communication traffic may increase in proportion to the number of terminals in use. Therefore, when there are a large number of terminals, the method through compression may reduce efficiency.
일 예로, 연합 학습(Federated Learning) 방식에서 단말과 기지국간 가중치 시그널링 방법을 고정적으로 사용하는 경우, 효율성은 무선 환경에 기초하여 다를 수 있다. 일 예로, 효율성은 특정 환경에서 높을 수 있으나, 그 반대의 경우에는 오히려 효율성이 저해될 수 있다. 무선 환경은 유동적으로 변화할 수 있으므로 유동적으로 변동되는 무선 환경을 인식하고, 인식된 무선 환경에 기초한 기술이 선택될 필요성이 있다. 하기에서는 무선 환경의 효율성을 높이기 위해 상술한 바에 기초한 동작에 대해 서술한다.For example, when a weight signaling method between a terminal and a base station is fixedly used in a federated learning scheme, efficiency may vary based on a wireless environment. For example, efficiency may be high in a specific environment, but in the opposite case, efficiency may be deteriorated. Since the wireless environment can change flexibly, there is a need to recognize the dynamically changing wireless environment and to select a technology based on the recognized wireless environment. In the following, an operation based on the foregoing will be described in order to increase the efficiency of a wireless environment.
일 예로, 각각의 단말은 연합 학습(Federated Learning) 방식에 기초하여 학습한 모델의 파라미터(e.g. 딥 뉴럴 네트워크의 가중치, 정보)를 기지국으로 전달할 수 있다. 각각의 단말들은 압축한 파라미터를 전달하고, 기지국은 하기 수학식 1에 기초하여 글로벌 모델을 업데이트할 수 있다. 여기서, c는 정보 압축 및 변조 처리일 수 있고, d는 복조 및 정보 복원 처리일 수 있다. 그 후, 기지국은 업데이트된 글로벌 모델을 각각의 단말로 전달할 수 있다.For example, each terminal may transmit parameters (eg, weights and information of a deep neural network) of a model learned based on a federated learning method to the base station. Each terminal transmits the compressed parameters, and the base station may update the global model based on Equation 1 below. Here, c may be information compression and modulation processing, and d may be demodulation and information restoration processing. After that, the base station can deliver the updated global model to each terminal.
[수학식 1][Equation 1]
Figure PCTKR2021012704-appb-img-000002
Figure PCTKR2021012704-appb-img-000002
보다 상세하게는, 각각의 단말은 모델 파라미터의 양을 최소화하는 방법에 기초하여 압축을 진행할 수 있다. 일 예로, 압축은 가중치 가지치기, 양자화 및 가중치 공유 중 적어도 어느 하나에 기초하여 수행될 수 있다. 또한, 일 예로, 압축은 다른 방법에 기초하여 수행될 수 있으며, 상술한 실시예로 한정되지 않는다. 여기서, 기존 신경망에 기초하여 압축을 수행하는 경우, 가중치(Weights) 중 실제 추론을 위해 필요한 값은 작은 값들에 대한 내성을 가질 수 있다. 즉, 실제 추론을 위해 필요한 가중치 값은 작은 값들에 대해서는 영향이 작을 수 있다. 상술한 점을 고려하여, 가중치 가지치기는 작은 가중치 값을 모두 0으로 설정할 수 있다. 이를 통해, 신경망은 네트워크 모델 크기를 줄일 수 있다. 또한, 일 예로, 양자화(Quantization)는 특정 비트 수로 데이터를 줄여서 계산하는 방식일 수 있다. 즉, 데이터는 특정 양자화된 값으로만 표현될 수 있다. 또한, 일 예로, 가중치 공유는 가중치 값들을 근사값(e.g. 코드북)에 기초하여 조정하고, 이를 공유하도록 하는 방식일 수 있다. 여기서, 네트워크에서 신호가 전송되는 경우, 해당 정보는 코드북과 그 값에 대한 인덱스만이 공유될 수 있다. More specifically, each terminal may perform compression based on a method of minimizing the amount of model parameters. For example, compression may be performed based on at least one of weight pruning, quantization, and weight sharing. Also, as an example, compression may be performed based on another method, and is not limited to the above-described embodiment. Here, when compression is performed based on the existing neural network, values necessary for actual inference among weights may have resistance to small values. That is, the weight value required for actual inference may have a small effect on small values. Considering the above points, weight pruning may set all small weight values to 0. Through this, the neural network can reduce the size of the network model. Also, as an example, quantization may be a method of calculating by reducing data to a specific number of bits. That is, data can be expressed only with specific quantized values. Also, as an example, weight sharing may be a method of adjusting weight values based on approximate values (e.g. codebooks) and sharing them. Here, when a signal is transmitted in a network, only codebooks and indexes for corresponding information may be shared.
상술한 방법 중 어느 하나에 기초하여 각각의 단말은 데이터에 대한 압축을 수행할 수 있으며, 압축된 정보를 기지국으로 전송할 수 있다. 이때, 기지국은 압축된
Figure PCTKR2021012704-appb-img-000003
를 각각의 단말로부터 수신하고, 수신한 정보에 대한 압축을 해제하여 글로벌 모델의 파라미터를 계산하고 업데이트할 수 있다.
Based on any one of the above methods, each terminal may perform compression on data and transmit compressed information to the base station. At this time, the base station is compressed
Figure PCTKR2021012704-appb-img-000003
may be received from each terminal, and the parameters of the global model may be calculated and updated by decompressing the received information.
여기서, 각각의 단말은 개별적인 특성을 갖는 로컬모델 파라미터를 설정할 수 있다. 따라서, 각각의 단말이 압축을 수행하는 경우, 압축 효율은 단말마다 상이할 수 있다. 또한, 일 예로, 각각의 단말은 서로 상이한 하드웨어 리소스를 가질 수 있다. 여기서, 압축 효율은 하드웨어 리소스에 영향을 받을 수 있다. 따라서, 각각의 단말마다 압축효율이 상이할 수 있다.Here, each terminal may set local model parameters having individual characteristics. Therefore, when each terminal performs compression, compression efficiency may be different for each terminal. Also, as an example, each terminal may have different hardware resources. Here, compression efficiency may be affected by hardware resources. Therefore, compression efficiency may be different for each terminal.
구체적인 일 예로, 단말이 8비트로 양자화를 수행하는 경우, 64비트 연산 처리 기능이 구비된 단말은 높은 압축 효율을 얻을 수 있다. 반면, 16비트 연산 처리 기능이 구비된 단말은 압축 효율이 작을 수 있다. 또한, 일 예로, 단말이 저사양의 하드웨어를 구비하는 경우, 단말은 많은 압축 로드를 받을 수 있다. 따라서, 상술한 단말은 간단한 압축기법을 사용하는 것이 유리할 수 있다. 일 예로, IoT(Internet of Thing) 단말이나 저전력 단말들은 비교적 저사양의 하드웨어를 구비할 수 있는바, 간단한 압축 기법을 사용할 수 있다. 반면, AI에 기초하여 동작하는 단말이나 대용량의 데이터를 처리하는 단말은 고사양의 하드웨어를 구비할 수 있는바, 복잡한 압축 기법을 사용하여 압축 효율을 높일 수 있다. 즉, 단말별로 상이한 압축 방법이 사용될 수 있으며, 각각에 맞는 압축방법을 사용하는 것이 필요할 수 있다.As a specific example, when a terminal performs 8-bit quantization, a terminal equipped with a 64-bit arithmetic processing function can obtain high compression efficiency. On the other hand, a terminal equipped with a 16-bit arithmetic processing function may have low compression efficiency. Also, for example, when the terminal has low-end hardware, the terminal may receive a large compression load. Therefore, it may be advantageous for the terminal described above to use a simple compression method. For example, since Internet of Thing (IoT) terminals or low-power terminals may have relatively low-end hardware, a simple compression technique may be used. On the other hand, since a terminal operating based on AI or a terminal processing large amounts of data may have high-end hardware, compression efficiency may be increased by using a complex compression technique. That is, different compression methods may be used for each terminal, and it may be necessary to use a compression method suitable for each terminal.
상술한 점을 고려하여, 각각의 단말은 로컬모델 파라미터의 개별적인 특성과 하드웨어 리소스에 적합한 압축방식을 사용할 수 있다. 이때, 단말들은 기지국으로 압축 방법에 대한 정보를 전달할 필요성이 있다. 기지국은 단말로부터 수신한 정보에 기초하여 각각의 단말로부터 수신한 압축된 데이터와 모델 파라미터를 복원할 수 있다.Considering the above points, each terminal may use a compression method suitable for individual characteristics of local model parameters and hardware resources. At this time, the terminals need to transmit information about the compression method to the base station. The base station may restore compressed data and model parameters received from each terminal based on information received from the terminal.
일 예로, 기지국과 단말이 반사판을 통해 통신을 수행하는 경우로써 상술한 에어콤프 방식의 연합학습이 수행되는 경우를 고려할 수 있다. 복수 개의 반사판이 존재하는 스마트 통신 환경에서 에어 콤프를 적용하는 경우, 복수 개의 단말들의 신호 전체가 반사판에 모두 전달되는 형태로 구성되어 최적화가 복잡할 수 있다. 따라서, 시그널링 처리가 어려워질 수 있다. 또한, 효율적인 프로토콜과 최적화 방식에 기초하여 반사판을 통해 에어콤프 연합학습을 효율적으로 수행하는 방법이 필요할 수 있으며, 하기에서는 이를 위한 방법에 대해 서술한다.As an example, as a case where the base station and the terminal communicate through a reflector, a case in which the above-described aircom-type combined learning is performed may be considered. When air comp is applied in a smart communication environment in which a plurality of reflectors exist, optimization may be complicated because all signals of a plurality of terminals are transmitted to the reflector. Thus, signaling processing may become difficult. In addition, a method for efficiently performing Aircom combined learning through a reflector based on an efficient protocol and optimization method may be required, and a method for this will be described below.
일 예로, 도 5를 참조하면, 업링크 자원을 효율적으로 사용하기 위해 복수 개의 단말들(520, 530, 540)이 기지국(510)으로 로컬 모델 업데이트 정보를 전달하는 경우, 단말들(520, 530, 540)은 동일한 무선자원을 사용해 무선상에서 글로벌 모델이 계산되는 방법을 통해 기지국(510)으로 로컬 모델 업데이트 정보를 전달할 수 있으며, 이는 상술한 바와 같다. 일 예로, 도 5에서 복수 개의 단말들(520, 530, 540)은 AI에 기초하여 자율 주행을 수행하는 차량이나, 스마트 디바이스 또는 그 밖의 장치일 수 있으며, 상술한 실시예로 한정되지 않는다.For example, referring to FIG. 5 , when a plurality of terminals 520, 530, and 540 transmit local model update information to a base station 510 in order to efficiently use uplink resources, the terminals 520 and 530 , 540) may transmit local model update information to the base station 510 through a method in which the global model is calculated over the air using the same radio resource, as described above. As an example, the plurality of terminals 520, 530, and 540 in FIG. 5 may be vehicles, smart devices, or other devices that perform autonomous driving based on AI, and are not limited to the above-described embodiment.
일 예로, 연합학습은 하기 3단계로 구분되어 진행될 수 있다. 이때, 업데이트 값이 일정 값으로 수렴할 때까지 하기 3단계가 순차적으로 반복될 수 있다. For example, associative learning can be divided into the following three steps. At this time, the following three steps may be sequentially repeated until the update value converges to a certain value.
여기서, 첫 번째 단계는 각 단말들(520, 530, 540)은 자신의 데이터를 이용해 이전에 수신한 글로벌 모델(
Figure PCTKR2021012704-appb-img-000004
)을 업데이트하고, 로컬 모델(
Figure PCTKR2021012704-appb-img-000005
)을 생성할 수 있다. 일 예로, 초기 글로벌 모델은 학습되지 않은 초기 신경망일 수 있으나, 이에 한정되는 것은 아닐 수 있다. 이때, 로컬 모델에 기초하여 업데이트를 수행할 수 있다. 일 예로, 하기 수학식 2는 Stochastic gradient 방법에 기초하여 업데이트가 수행되는 경우일 수 있으나, 해당 방법을 한정되는 것은 아닐 수 있다.
Here, in the first step, each of the terminals 520, 530, and 540 uses their own data to receive a previously received global model (
Figure PCTKR2021012704-appb-img-000004
), update the local model (
Figure PCTKR2021012704-appb-img-000005
) can be created. For example, the initial global model may be an initial untrained neural network, but may not be limited thereto. In this case, an update may be performed based on the local model. As an example, Equation 2 below may be a case where an update is performed based on a stochastic gradient method, but the corresponding method may not be limited.
[수학식 2][Equation 2]
Figure PCTKR2021012704-appb-img-000006
Figure PCTKR2021012704-appb-img-000006
다음으로, 두 번째 단계는 각각의 단말들(520, 530, 540)은 업데이트한 로컬 모델(
Figure PCTKR2021012704-appb-img-000007
)을 기지국(510)에게 동일한 무선 자원을 통해 전달할 수 있다. 여기서, 일 예로, 기지국(510)은 서버 또는 클라우드 서버와 연결될 수 있다. 일 예로, 설명의 편의를 위해 기지국(510)이 서버 역할을 하는 경우에 기초하여 서술하지만, 이에 한정되는 것은 아닐 수 있다. 일 예로, 기지국(510)은 복수 개의 단말들로부터 수신한 로컬 모델들을 합치기 위해 서버로 글로벌 모델을 전달할 수 있으며, 상술한 실시예로 한정되지 않는다.
Next, in the second step, each of the terminals 520, 530, and 540 has an updated local model (
Figure PCTKR2021012704-appb-img-000007
) may be transmitted to the base station 510 through the same radio resource. Here, as an example, the base station 510 may be connected to a server or a cloud server. For example, for convenience of explanation, the base station 510 is described based on a case in which the server serves, but may not be limited thereto. For example, the base station 510 may transmit the global model to the server in order to combine local models received from a plurality of terminals, but is not limited to the above-described embodiment.
마지막으로, 세 번째 단계는 하기 수학식 3에 기초하여 무선 상에서 로컬 모델들이 합쳐진 글로벌 모델이 기지국(510)에 의해 수신되고, 업데이트를 수행할 수 있다. 그 후, 기지국(510)은 업데이트된 정보에 기초하여 k 시간에서 글로벌 모델을 복수 개의 단말들(520, 530, 540)에게 전달할 수 있다. 일 예로, 상술한 3단계는 글로벌 모델의 값이 수렴되거나 주어진 횟수에 기초하여 반복적으로 수행될 수 있다.Finally, in the third step, based on Equation 3 below, the base station 510 may receive a global model in which local models are combined over the air, and may perform an update. After that, the base station 510 may transmit the global model to the plurality of terminals 520, 530, and 540 at time k based on the updated information. For example, the above-described step 3 may be repeatedly performed based on the convergence of values of the global model or a given number of times.
[수학식 3][Equation 3]
Figure PCTKR2021012704-appb-img-000008
Figure PCTKR2021012704-appb-img-000008
상술한 바와 같이, 연합학습에 기초하여 데이터 처리가 수행될 수 있다. 이때, 일 예로, 도 6은 본 개시의 일 실시예에 있어서 영상입출력 장치를 나타낸 도면이다. 도 6을 참조하면, 영상 입출력 장치는 영상 입력을 획득할 수 있다. 이때, 영상입력 장치(e.g. 카메라)는 렌즈를 통해서 영상의 특성을 변경할 수 있다. 일 예로, 고체렌즈(e.g. 유리, 플라스틱)의 기계적인 움직임을 통해서 줌(Zoom)이나 광각, 오토 포커스(Auto Focus) 및 OIS 등의 기능 중 적어도 어느 하나 이상이 수행될 수 있으며, 영상입력 장치는 도 6과 같이 망원과 광각으로 동작하는 3군 렌즈의 움직임에 기초하여 영상 특성을 변경할 수 있다. 구체적인 일 예로, 도 6의 3군 줌렌즈는 다중 줌 군렌즈 방식일 수 있다. 이때, 첫 번째 렌즈(L_1)와 두 번째 렌즈(L_2)가 근접하고 세번 째 렌즈(L_3)의 간격이 멀어지면 광학계의 초점거리는 짦아질 수 있다.(광각), 반면, 첫 번째 렌즈와 두 번째 렌즈가 멀고, 두 번째와 세 번째 렌즈가 근접하면 광학계의 초점거리는 길어질 수 있다.(망원) 따라서, 첫번째 렌즈(L_1)와 세번째 렌즈(L_3) 사이에 위치를 변화시키는 경우, 초점거리는 위치에 비례해서 연속적으로 변경될 수 있다. 일 예로, 도 6은 위에서부터 차례로 광각에서 망원을 표시할 수 있다. 또한, 일 예로, 도 7은 본 개시의 실시예에 따라 OIS 원리를 나타낸 도면이다. 도 7을 참조하면, 손떨림 등으로 인하여 발생한 카메라의 기울임(틸트) 현상을 렌즈의 기계적인 움직임을 통해서 보상할 수 있으며, 상술한 바에 기초하여 영상입력 장치는 영상의 특성을 변경할 수 있다.As described above, data processing may be performed based on associative learning. In this case, as an example, FIG. 6 is a diagram illustrating an image input/output device according to an embodiment of the present disclosure. Referring to FIG. 6 , the video input/output device may acquire video input. At this time, the image input device (e.g. camera) may change the characteristics of the image through the lens. For example, at least one of functions such as zoom, wide angle, auto focus, and OIS can be performed through mechanical movement of a solid lens (e.g. glass, plastic), and the image input device As shown in FIG. 6 , image characteristics may be changed based on motions of the 3-group lenses operating in the telephoto and wide-angle directions. As a specific example, the group 3 zoom lens of FIG. 6 may be a multi-zoom group lens system. At this time, if the first lens (L_1) and the second lens (L_2) are close and the distance between the third lens (L_3) is far, the focal length of the optical system can be shortened (wide-angle). If the lens is far away and the second and third lenses are close together, the focal length of the optical system can be long (telephoto). Therefore, when changing the position between the first lens (L_1) and the third lens (L_3), the focal length is proportional to the position. can be continuously changed. As an example, FIG. 6 may display a wide-angle view and a telephoto view sequentially from the top. Also, as an example, FIG. 7 is a diagram illustrating an OIS principle according to an embodiment of the present disclosure. Referring to FIG. 7 , a tilt phenomenon of a camera caused by hand shake can be compensated for through a mechanical movement of a lens, and based on the foregoing description, the image input device can change the characteristics of an image.
또한, 일 예로, 도 8은 본 개시의 일 실시예에 따라 메타렌즈 구조를 나타낸 도면이다. 일 예로, 렌즈들은 유리나 유리와 비슷한 재료로 구성될 수 있다. 이때, 렌즈들은 유리를 정확하게 곡면으로 매끈하게 연마해서 빛을 선명하게 모아야, 더욱 정확하고 뚜렷한 이미지를 얻을 수 있으므로 상술한 재질에 기초하여 구성될 수 있다. 다만, 곡면을 연마하는 비용이 높을 수 있으며, 곡면 특성이 렌즈 제작시 고정되므로 공간상에서 많은 제약이 존재할 수 있다. 이때, 일 예로, 메타렌즈는 유리렌즈와 비슷한 특성을 메타표면을 이용하여 구현하는 기술일 수 있다. 이때, 영상의 초점거리는 메타렌즈를 통해서 다양하게 조정될 수 있다. 일 예로, 도 8(a)을 참조하면, 메타렌즈는 물질의 표면을 인공적인 작고 정밀하게 패턴화된 구조로 만들고, 각 요소(Element)들에서 굴절률(유전율과 투자율의 식)을 조절하여 초점의 거리나 위치를 변화시킬 수 있다. 일 예로, 도 8(a)는 PGMS(Phase Gradient MetaSurface)로 구현된 고정된 구조의 메타렌즈일 수 있으나, 메타렌즈 구조는 이에 한정되는 것은 아닐 수 있다. 일 예로, 메타렌즈는 구면파를 평면파로 변경하여 빛의 방향성을 제어할 수 있다. Also, as an example, FIG. 8 is a diagram illustrating a metalens structure according to an embodiment of the present disclosure. For example, the lenses may be made of glass or a material similar to glass. At this time, the lenses can be configured based on the above-described material because a more accurate and clear image can be obtained only when the glass is accurately polished to a curved surface and the light is clearly collected. However, the cost of polishing the curved surface may be high, and since the characteristics of the curved surface are fixed during lens manufacturing, many restrictions may exist in space. At this time, as an example, the meta lens may be a technology for implementing characteristics similar to those of a glass lens using a meta surface. At this time, the focal length of the image may be variously adjusted through the meta lens. As an example, referring to FIG. 8(a), the metalens makes the surface of a material into an artificial small and precisely patterned structure, and adjusts the refractive index (permittivity and permeability equation) of each element to focus. can change its distance or location. As an example, FIG. 8(a) may be a fixed structure metalens implemented with PGMS (Phase Gradient MetaSurface), but the metalens structure may not be limited thereto. For example, the metalens can control the directionality of light by changing a spherical wave into a plane wave.
보다 상세하게는, 도 8(b)를 참조하면, 메타렌즈를 통해서 구면파를 평면파로 변경하여 빛의 방향성을 줄 수 있다. 이때, 도 8(b)를 참조하면 구면파의 파면과 메타렌즈의 위상천이가 결합하여 전달되는 파면은 평면파의 형태를 가질 수 있으며, 이에 한정되는 것은 아닐 수 있다.More specifically, referring to FIG. 8( b ), a spherical wave may be changed into a plane wave through a metal lens to give directionality of light. At this time, referring to FIG. 8(b), the wavefront transmitted by combining the wavefront of the spherical wave and the phase shift of the metalens may have a shape of a plane wave, but may not be limited thereto.
즉, 메타렌즈는 기존 고정된 렌즈와 상이하게 각 요소(Element)들의 파라미터를 제어하여 초점거리 및 그 밖의 영상 특성을 변경시킬 수 있으며, 이에 대해서는 하기에서 서술한다.That is, the meta lens can change the focal length and other image characteristics by controlling the parameters of each element differently from conventional fixed lenses, which will be described below.
일 예로, 하기에서는 특성(e.g. 크기, 모양, 용도, 화각)이 고정되는 영상장치와 기계적인 렌즈 조절을 통해 특성을 바꿀 수 있는 출력장치에 메타렌즈를 적용하는 방법에 대해 서술한다. 이때, 일 예로, 메타렌즈는 영상 입출력 장치에 가변적인 특성을 부여할 수 있으며, 제어기를 통해서 입출력을 통합적 또는 유기적으로 제어 가능할 수 있다. 또한, 일 예로, 상술한 바와 같이 특성이 가변되는 영상장치는 사용자 단말의 위치에 기초하여 제어될 수 있으며, 이에 대한 정보를 활용하여 인공 지능 학습(e.g. 연합학습)을 수행할 수 있다.For example, in the following, a method of applying a metalens to an imaging device having fixed characteristics (e.g. size, shape, use, angle of view) and an output device capable of changing characteristics through mechanical lens adjustment will be described. At this time, as an example, the metalens may give variable characteristics to the image input/output device, and input/output may be controlled integrally or organically through a controller. Also, as an example, an imaging device whose characteristics are variable as described above may be controlled based on the location of a user terminal, and artificial intelligence learning (eg, federated learning) may be performed using information about this.
즉, 각각의 단말들은 기지국 또는 서버와 통신을 수행하여 단말들의 위치 정보를 기반으로 연합학습을 통해 영상장치의 특성을 가변하도록 함으로써 환경을 고려하여 영상장치를 제어할 수 있다. 여기서, 각각의 단말은 사용자에 의해 사용되는 장치일 수 있다. 일 예로, 사용자의 위치 정보는 단말의 위치 정보로 인지될 있으며, 이에 기초하여 메타렌즈 인공시스템이 제어될 수 있다. 또한, 일 예로, 서버는 기지국 또는 액세스 포인트(access point, AP)와 연결되어 동작하는 장치일 수 있으며, 단말로부터 위치 기반 파라미터 정보를 수신하고, 이에 기초하여 연합학습을 통해 글로벌 모델을 업데이트시키는 장치일 수 있다. 즉, 연합학습을 고려하여 글로벌 모델을 업데이트시키는 장치는 서버, 기지국 또는 액세스 포인트 등 단말과 통신을 수행하는 장치를 지칭할 수 있으며, 특정 형태로 한정되는 것은 아닐 수 있다. 다만, 하기에서는 설명의 편의를 위해 기지국을 중심으로 서술한다. That is, each terminal communicates with the base station or the server to change the characteristics of the imaging apparatus through associative learning based on location information of the terminals, thereby controlling the imaging apparatus in consideration of the environment. Here, each terminal may be a device used by a user. For example, the location information of the user may be recognized as the location information of the terminal, and based on this, the metalens artificial system may be controlled. In addition, as an example, the server may be a device that operates in connection with a base station or access point (AP), receives location-based parameter information from a terminal, and updates a global model through federated learning based thereon. can be That is, a device that updates a global model in consideration of federated learning may refer to a device that communicates with a terminal such as a server, base station, or access point, and may not be limited to a specific form. However, in the following description, the base station is mainly described for convenience of description.
일 예로, 도 9는 본 개시의 일 실시예에 따라 사용자 기반의 영상 입출력을 위한 메타렌즈를 제어하는 인공지능 시스템을 나타낸 도면이다. 도 9를 참조하면, TOF(Time of Flight) 카메라를 통해서 사용자(930)의 위치 및 거리를 인지할 수 있다. 이때, TOF 카메라는 화각이 작기 때문에 모든 영역을 검출하는데 한계가 존재할 수 있다. 따라서, 메타렌즈(940)를 통해서 순차적으로 화각의 방향(초점방향)를 조절하여 광각의 효과를 나타낼 수 있다. 이때, 메타렌즈 제어기(920)는 사용자(930) 정보를 얻기 위해서 순차적으로 방향벡터를 선택하고, Agent(인공지능, 910)은 방향벡터와 TOF 이미지를 통해서 사용자(830)의 방향이나 거리를 인지할 수 있다. 일 예로, 인공지능(910)은 기지국에 구현되거나 기지국과 연결된 장치 또는 클라우드일 수 있으며, 특정 형태로 한정되는 것은 아닐 수 있다. 이때, 인공지능(910)은 사용자 인지 이미지를 기반으로 영상 출력장치의 메타렌즈를 제어하는 값을 메타렌즈 제어기(920)로 전달할 수 있다. 여기서, 제어 값은 사용자의 위치에 따라 초점거리와 초점방향 및 곡률반경을 가지는 코드북의 형태로 구현될 수 있으며, 특정 형태로 한정되는 것은 아닐 수 있다. As an example, FIG. 9 is a diagram illustrating an artificial intelligence system for controlling a metalens for user-based image input/output according to an embodiment of the present disclosure. Referring to FIG. 9 , the location and distance of the user 930 may be recognized through a Time of Flight (TOF) camera. At this time, since the TOF camera has a small angle of view, there may be limitations in detecting all areas. Accordingly, a wide-angle effect may be obtained by sequentially adjusting the direction of the angle of view (focus direction) through the metal lens 940 . At this time, the metalens controller 920 sequentially selects a direction vector to obtain information about the user 930, and the Agent (artificial intelligence, 910) recognizes the direction or distance of the user 830 through the direction vector and the TOF image. can do. For example, the artificial intelligence 910 may be implemented in a base station or may be a device connected to the base station or a cloud, and may not be limited to a specific form. At this time, the artificial intelligence 910 may transfer a value for controlling the metalens of the image output device to the metalens controller 920 based on the user's perceived image. Here, the control value may be implemented in the form of a codebook having a focal length, a focal direction, and a radius of curvature according to the location of the user, and may not be limited to a specific form.
또 다른 일 예로 , 인공지능(910) 또는 기지국은 TOF 카메라 대신 사용자(930)가 구비한 단말로부터 위치정보를 수신하여 동작하는 것도 가능할 수 있으며, 특정 형태로 한정되는 것은 아닐 수 있다. As another example, the artificial intelligence 910 or the base station may operate by receiving location information from a terminal equipped by the user 930 instead of a TOF camera, and may not be limited to a specific form.
상술한 바에 기초하여 메타렌즈가 제어되는 경우, 메타렌즈의 각 요소별 위상이 조절될 수 있다. 보다 상세하게는, 도 10은 본 개시의 일 실시예에 따라 메타렌즈를 제어하는 방법을 나타낸 도면이다. 도 10(a)를 참조하면, 메타렌즈가 광원의 조향성을 조절할 수 있다. 이때, 메타렌즈의 각 메타 원소(meta-atom, 또는 요소)의 위상을 조절함으로써 구면파가 파면이 조향성을 가지도록 조절할 수 있다. 일 예로, 도 10(a)를 참조하면, 메타렌즈의 위상변화가 오른쪽으로 치우칠수록 통과된 파면이 오른쪽으로 기울어질 수 있으며, 상술한 방법을 통해 제어될 수 있다. 또한, 도 10(b)는 메타렌즈가 영상의 곡률을 조절하는 방법을 나타낸 도면이다. 도 10(b)를 참조하면, 영상의 곡률을 조절함으로써 사용자는 커브드 모니터와 같은 입체감을 가질 수 있다. 일 예로, 메타렌즈를 통해 영상의 커브드 모니터 형태를 갖도록 하기 위해서는 빛의 방향성뿐만 아니라 시야의 가장자리 위치의 영상을 확대하여서 사용자의 눈의 위치와 영상까지의 거리를 같게 설정할 필요성이 있다.When the metalens are controlled based on the above, the phase of each element of the metalens may be adjusted. More specifically, FIG. 10 is a diagram illustrating a method of controlling a metalens according to an embodiment of the present disclosure. Referring to FIG. 10 (a), the meta lens can adjust the steering of the light source. At this time, by adjusting the phase of each meta-atom (or element) of the meta-lens, the spherical wave can be adjusted so that the wavefront has steering properties. For example, referring to FIG. 10 (a), as the phase change of the metalens is biased to the right, the passing wavefront may be tilted to the right, and may be controlled through the above-described method. In addition, FIG. 10 (b) is a diagram showing how the meta lens adjusts the curvature of an image. Referring to FIG. 10(b), by adjusting the curvature of an image, the user can have a three-dimensional effect like a curved monitor. For example, in order to have a curved monitor shape of an image through a metal lens, it is necessary to set the distance to the image and the position of the user's eyes the same by enlarging the image at the edge of the field of view as well as the direction of light.
구체적인 일 예로, 도 11 및 도 12는 본 개시의 일 실시예에 따라 커브드와 플랫 영상출력의 시청거리 비교를 나타낸 도면이다. 이때, 도 11 및 도 12를 참조하면, 메타렌즈는 화면의 위치별로 확대 또는 축소 영역이 달라지기 때문에 한 개가 아니라 복수 개의 중첩이 필요할 수 있으며, 커브드의 곡률 반경에 기초하여 제어될 수 있다. 일 예로, 곡률반경이 클수록 휘어짐은 적을 수 있다. 보다 구체적인 일 예로, 곡률반경 1800R은 반경이 180cm 가지는 휘어짐 정도를 나타낼 수 있으나, 이는 하나의 일 예일 뿐, 상술한 실시예로 한정되지 않는다.As a specific example, FIGS. 11 and 12 are diagrams illustrating comparison of viewing distances between curved and flat image outputs according to an embodiment of the present disclosure. At this time, referring to FIGS. 11 and 12, since the enlargement or reduction area of the metalens varies for each position of the screen, not one but a plurality of overlapping may be required, and it may be controlled based on the curved radius of curvature. For example, as the radius of curvature increases, the amount of bending may decrease. As a more specific example, the radius of curvature 1800R may indicate a degree of curvature having a radius of 180 cm, but this is only one example and is not limited to the above-described embodiment.
도 13은 본 개시의 일 실시예에 따라, 메타렌즈 제어 방법을 나타낸 도면이다. 도 13을 참조하면, 메타렌즈 인공지능 시스템(1310)은 사용자 인식부(1311)와 메타렌즈 특성 예측부(1312)를 포함할 수 있다. 또한, 메타렌즈 인공지능 시스템(1310)은 다른 구성을 더 포함할 수 있으며, 상술한 실시예로 한정되지 않는다. 이때, 메타렌즈 인공지능 시스템(1310)은 현재 설정된 메타렌즈 특성 값에 기초하여 카메라로부터 영상을 통해 사용자를 인식할 수 있다. 일 예로, 메타렌즈 인공지능 시스템(1310)의 사용자 인식부(1311)는 사용자 관련 정보를 추출하여 메타렌즈 특성 예측부(1312)로 전달할 수 있다. 이때 사용자 관련 정보는 사용자 방향 정보, 거리 정보 및 상태 정보 중 적어도 어느 하나 이상을 포함할 수 있으며, 특정 정보 형태로 한정되지 않는다. 13 is a diagram illustrating a metalens control method according to an embodiment of the present disclosure. Referring to FIG. 13 , the metalens artificial intelligence system 1310 may include a user recognition unit 1311 and a metalens characteristic prediction unit 1312. In addition, the metalens artificial intelligence system 1310 may further include other components, and is not limited to the above-described embodiment. At this time, the metalens artificial intelligence system 1310 may recognize a user through an image from a camera based on a currently set metalens characteristic value. For example, the user recognition unit 1311 of the metalens artificial intelligence system 1310 may extract user-related information and transmit it to the metalens characteristic prediction unit 1312 . In this case, the user-related information may include at least one of user direction information, distance information, and state information, and is not limited to a specific information type.
또한 , 일 예로, 메타렌즈 인공지능 시스템(1310)은 사용자가 구비한 단말로부터 사용자 관련 추가 정보를 더 획득하여 메타렌즈 제어부(1320)로 전달할 수 있다. 일 예로, 단말은 사용자가 인증을 완료하여 사용하는 단말일 수 있으며, 사용자가 소지하고 있을 수 있다. 또 다른 일 예로, 단말은 영상 입출력 장치와 연관된 장치(e.g. 리모콘)일 수 있으며, 특정 형태로 한정되는 것은 아닐 수 있다. 여기서, 단말은 단말의 위치 정보 및 그 밖의 사용자 관련 추가 정보를 인공지능 시스템(1310)으로 전달할 수 있으며, 이를 활용할 수 있다.In addition, as an example, the metalens artificial intelligence system 1310 may further obtain user-related additional information from a terminal equipped by the user and transmit it to the metalens controller 1320. For example, the terminal may be a terminal used by the user after completing authentication, and may be possessed by the user. As another example, the terminal may be a device (e.g. remote controller) related to the video input/output device, and may not be limited to a specific form. Here, the terminal may transmit location information of the terminal and other user-related additional information to the artificial intelligence system 1310, and may utilize them.
그 후, 메타렌즈 특성 예측부(1312)는 사용자 인식정보에 기초하여 코드북으로 저장된 메타렌즈 제어 값을 선택하고, 선택된 제어 값을 메타렌즈 제어기(1320)으로 전달할 수 있다. 이때, 메타렌즈 제어기(1320) 내의 영상 입력장치(1321) 및 영상 출력장치(1322)는 코드북에 대응하는 획득한 제어 값에 기초하여 메타렌즈를 제어할 수 있다.After that, the metalens characteristic prediction unit 1312 may select a metalens control value stored as a codebook based on user recognition information, and transmit the selected control value to the metalens controller 1320 . At this time, the image input device 1321 and the image output device 1322 in the metalens controller 1320 may control the metalens based on the obtained control value corresponding to the codebook.
이때, 메타렌즈 인공지능 시스템(1310)은 통신에 기초하여 동작할 수 있으며, 데이터 부담이 존재할 수 있다. 상술한 점을 고려하여, 일 예로, 인공지능 시스템(1310)의 사용자 인식부(1311)는 실제 영상을 획득하는 장치(e.g. 카메라)에 구현되고, 메타렌즈 특성 예측부(1312)는 기지국 또는 서버에 구현될 수 있으며, 분산하여 학습 및 예측을 수행할 수 있다. At this time, the metalens artificial intelligence system 1310 may operate based on communication, and data burden may exist. Considering the above points, as an example, the user recognition unit 1311 of the artificial intelligence system 1310 is implemented in a device (e.g. camera) that acquires an actual image, and the metalens characteristic prediction unit 1312 is a base station or server. It can be implemented in, and learning and prediction can be performed in a distributed manner.
일 예로, 도 14은 본 개시의 일 실시예에 따라 분산 학습 인공지능 시스템의 동작을 나타낸 도면이다. 도 14를 참조하면, 기지국(또는 서버, 1410)와 영상 입력장치(1420) 및 영상 출력장치(1430)는 상호 간의 통신을 통해 데이터를 교환할 수 있다. 일 예로, 영상 입력장치(1420)로써 카메라의 메타렌즈 제어기는 메타렌즈의 조향성을 변경하여 입력받은 영상을 통해서 사용자 관련 정보를 인지할 수 있다. 일 예로, 카메라는 OIS의 렌즈 틸트 기능처럼 메타렌즈의 조향성을 변경하여 입력받는 영상을 제어할 수 있으나, 이에 한정되는 것은 아닐 수 있다. 이때, 사용자 관련 정보는 사용자의 방향, 거리 및 상태(시야 각도) 정보 중 적어도 어느 하나 이를 포함할 수 있으며, 상술한 실시예로 한정되지 않는다. 여기서, 상술한 바처럼 영상 입력장치(1420)는 인공지능 사용자 인식부를 구비하고, 이에 기초하여 사용자 관련 정보를 도출할 수 있다. 그 후, 영상 입력장치(1420)는 도출한 사용자 관련 정보(또는 사용자 인식 정보를 기지국(또는 서버, 1410)로 전달할 수 있다. 이때, 일 예로, 기지국(또는 서버, 1410)는 상술한 인공지능 시스템의 인공지능 메타렌즈 특성 예측부를 구비할 수 있으며, 이를 통해 메타렌즈 특성인자(또는 메타렌즈 파라미터)를 도출(또는 예측)할 수 있다. 이때, 일 예로, 메타렌즈 특성인자는 사용자의 방향, 거리 등의 위치정보에 따라 메타렌즈의 다양한 패턴을 가지고 있는 코드북의 인덱스로 정의될 수 있다. 또 다른 일 예로, 기지국(1410)은 사용자가 소지한 단말로부터 위치 정보 및 사용자 관련 추가 정보를 더 획득할 수 있다. 이때, 인공지능 메타렌즈 특성 예측부는 단말로부터 획득한 정보를 더 이용하여 메타렌즈 특성인자를 도출할 수 있으며, 특정 형태로 한정되는 것은 아닐 수 있다. As an example, FIG. 14 is a diagram illustrating the operation of a distributed learning artificial intelligence system according to an embodiment of the present disclosure. Referring to FIG. 14 , a base station (or server) 1410, an image input device 1420, and an image output device 1430 may exchange data through mutual communication. For example, as an image input device 1420, the metal lens controller of the camera can recognize user-related information through the input image by changing the steering of the metal lens. For example, the camera may control the received image by changing the steering of the meta lens like the lens tilt function of the OIS, but may not be limited thereto. In this case, the user-related information may include at least one of the user's direction, distance, and state (viewing angle) information, and is not limited to the above-described embodiment. Here, as described above, the image input device 1420 includes an artificial intelligence user recognition unit, and based on this, user-related information may be derived. After that, the video input device 1420 may transmit the derived user-related information (or user recognition information) to the base station (or server, 1410). At this time, as an example, the base station (or server, 1410) uses the artificial intelligence The artificial intelligence metalens characteristic prediction unit of the system may be provided, and through this, the metalens characteristic factor (or metalens parameter) may be derived (or predicted).At this time, as an example, the metalens characteristic factor is the user's direction, It can be defined as an index of a codebook having various patterns of metalens according to location information such as distance, etc. As another example, the base station 1410 further obtains location information and user-related additional information from a terminal owned by the user. At this time, the artificial intelligence metalens characteristic predictor may derive a metalens characteristic factor by further using information acquired from the terminal, and may not be limited to a specific form.
이때, 일 예로, 코드북의 인덱스 형태인 메타렌즈의 특성인자는
Figure PCTKR2021012704-appb-img-000009
,
Figure PCTKR2021012704-appb-img-000010
,
Figure PCTKR2021012704-appb-img-000011
Figure PCTKR2021012704-appb-img-000012
중 적어도 어느 하나를 사용할 수 있다. 이때,
Figure PCTKR2021012704-appb-img-000013
Figure PCTKR2021012704-appb-img-000014
는 각각 초점위치(Focal Point) x좌표 및 y좌표일 수 있다. 또한,
Figure PCTKR2021012704-appb-img-000015
은 초점거리(Focal Length)이고,
Figure PCTKR2021012704-appb-img-000016
는 곡률반경일 수 있다. 또한, 일 예로, 메타렌즈의 특성인자는 다른 파라미터를 더 포함할 수 있으며, 상술한 파라미터로 한정되는 것은 아닐 수 있다. 이때, 일 예로, 메타렌즈의 특성인자에 기초하여 사용자의 방향 및 거리가 표현될 수 있으며, 상술한 값 각각은 x, y, l 및 c로, 해당 값들은 인덱스로 양자화될 수 있다. 이때, 기지국(또는 서버, 1410)는 인공지능 메타렌즈 특성 예측부에 기초하여 관련 메타렌즈 제어 값을 생성할 수 있다. 이때, 생성된 메타렌즈 제어 값은 각각 영상 입력장치(1420) 및 영상 출력장치(1430)로 전달될 수 있다. 이를 통해, 사용자 기반의 영상 입출력을 메타렌즈를 통해서 구현할 수 있다. 또한, 일 예로, 영상 입력장치(1420)는 사용자의 움직임을 인지하고 추적하면서 관련 정보를 메타렌즈 특성 예측부에 전달하여 메타렌즈 특성 예측부의 메타렌즈 특성인지에 기초하여 메타렌즈 제어 값을 지속적으로 업데이트할 수 있다. 이때, 영상 입력장치(1420)는 일정 주기에 기초하여 모든 방향을 순차적으로 탐색하면서 기 설정된 공간에 대한 전체 상황을 인지할 수 있다. 즉, 영상 입력장치(1420)는 주기적으로 영상 정보를 획득하여 사용자 관련 정보를 추출하고, 이를 기지국(1410)으로 전달하여 메타렌즈 특성인자 관련 제어 값을 주기적으로 업데이트함으로써, 사용자 인지 기반 제어를 수행할 수 있다.
At this time, as an example, the characteristic factor of the metalens in the form of an index of the codebook is
Figure PCTKR2021012704-appb-img-000009
,
Figure PCTKR2021012704-appb-img-000010
,
Figure PCTKR2021012704-appb-img-000011
and
Figure PCTKR2021012704-appb-img-000012
At least one of them can be used. At this time,
Figure PCTKR2021012704-appb-img-000013
and
Figure PCTKR2021012704-appb-img-000014
may be the x-coordinate and y-coordinate of a focal point, respectively. also,
Figure PCTKR2021012704-appb-img-000015
is the focal length,
Figure PCTKR2021012704-appb-img-000016
may be the radius of curvature. Also, as an example, the characteristic factor of the metalens may further include other parameters, and may not be limited to the above parameters. At this time, as an example, the user's direction and distance may be expressed based on the characteristic factor of the metalens, and each of the above-described values may be x, y, l, and c, and the corresponding values may be quantized as an index. At this time, the base station (or server, 1410) may generate a related metalens control value based on the artificial intelligence metalens characteristic prediction unit. At this time, the generated metalens control value may be transmitted to the image input device 1420 and the image output device 1430, respectively. Through this, user-based image input/output can be implemented through the metalens. In addition, as an example, the image input device 1420 transmits related information to the metalens characteristic predictor while recognizing and tracking the user's motion, and continuously sets the metalens control value based on whether the metalens characteristic predictor is the metalens characteristic. can be updated At this time, the image input device 1420 may recognize the entire situation of a preset space while sequentially searching in all directions based on a predetermined period. That is, the image input device 1420 periodically obtains image information, extracts user-related information, transmits it to the base station 1410, and periodically updates control values related to the metalens characteristic factor, thereby performing user perception-based control. can do.
구체적인 일 예로, 영상 입력장치(e.g. 카메라)와 메타렌즈 제어를 통한 인공지능 시스템에서 영상 출력장치는 실내 TV인 경우를 고려할 수 있다. 이때, 영상 입력장치는 사용자 관련 정보를 획득할 수 있으며, 이는 상술한 바와 같다. 또한, 일 예로, TV 리모컨은 상술한 단말일 수 있으며, 리모컨의 위치를 통해서 간접적으로 사용자의 위치를 측정할 수 있다. 일 예로, 블루투스, WIFI 및 그 밖의 근거리 통신망을 통해 리모컨을 사용하는 경우, 사용자의 거리 및 방향은 리모컨으로부터의 TV 수신파워나 TV 배열안테나의 AoA(Arrival of Angle)를 측정하여 TV 로부터 리모컨까지의 거리 및 방향을 인지함으로써 측정될 수 있다. 또 다른 일 예로, 적외선을 사용하는 리모컨의 경우, 사용자의 거리 및 방향은 WIFI 센싱을 통해 대상 검출(Object Detection)을 수행하여 TV에 대한 리모컨의 상대적 위치를 인지할 수 있으며, 이를 통해 사용자의 거리 및 방향을 인지할 수 있다. As a specific example, in an artificial intelligence system through control of a video input device (e.g. camera) and a metal lens, a case where the video output device is an indoor TV may be considered. At this time, the image input device may acquire user-related information, as described above. Also, as an example, the TV remote control may be the above-described terminal, and the location of the user may be indirectly measured through the location of the remote control. For example, when using a remote control through Bluetooth, WIFI, or other local area networks, the user's distance and direction are determined by measuring the TV reception power from the remote control or the Arrival of Angle (AoA) of the TV array antenna to determine the distance and direction from the TV to the remote control. It can be measured by recognizing distance and direction. As another example, in the case of a remote control using infrared rays, the user's distance and direction can be detected by performing object detection through WIFI sensing to recognize the relative position of the remote control to the TV, and through this, the user's distance and direction can be recognized.
또 다른 일 예로, 사전에 위치정보를 가지고 있는 리모컨의 경우, 전원 인가 또는 추가 시그널링으로 TV에 위치정보를 전달할 수 있으며, 특정 실시예로 한정되지 않는다.As another example, in the case of a remote controller having location information in advance, the location information may be transmitted to a TV by applying power or additional signaling, and is not limited to a specific embodiment.
여기서, 일 예로, 상술한 리모컨 또는 단말을 통해 사용자 거리 및 방향 정보를 기지국(또는 서버)로 전달함으로써 사용자 인식부를 대체할 수 있으나, 이에 한정되는 것은 아닐 수 있다.Here, as an example, the user recognition unit may be replaced by transmitting user distance and direction information to the base station (or server) through the above-described remote controller or terminal, but may not be limited thereto.
구체적인 일 예로, 도 15는 본 개시의 일 실시예에 따라 인공지능 시스템에 기초하여 메타렌즈를 제어하는 방법을 나타낸 도면이다. 도 15를 참조하면, 리모콘(1510) 및 영상출력장(1520)가 구비될 수 있다. 이때, 리모콘(1510)은 서버 또는 엑세스 포인트(access point, AP)와 통신을 수행하는 장치일 수 있다. 또 다른 일 예로, 리모콘(1510)은 사용자 단말일 수 있다. 일 예로, 단말은 리모컨(1510)의 기능을 대신할 수 있으며, 영상 출력장치(1520) 또는 서버나 AP와의 인증을 통해 동작하는 장치일 수 있다. 즉, 설명의 편의를 위해 리모콘(1510)을 기준으로 서술하지만, 이에 한정되지 않고 단말 및 그 밖의 장치를 통해 수행될 수 있으며, 특정 형태로 한정되지 않는다. 또한, 일 예로, 영상 출력장치(1520)는 TV나 그 밖의 영상을 출력하는 장치일 수 있다. 또한, 일 예로, 영상 출력장치(1520)는 서버나 AP를 구비한 장치일 수 있다. 즉, 영상 출력장치(1520)는 서버 또는 AP와 결합된 형태일 수 있으며, 특정 형태로 한정되는 것은 아닐 수 있다. 또 다른 일 예로, 상술한 리모컨(1510) 또는 단말과 통신을 수행하는 별도의 기지국(또는 서버)가 존재하고, 영상 출력장치는 이에 기초하여 제어되는 장치일 수 있으며, 특정 형태로 한정되는 것은 아닐 수 있다.As a specific example, FIG. 15 is a diagram illustrating a method of controlling a metalens based on an artificial intelligence system according to an embodiment of the present disclosure. Referring to FIG. 15 , a remote controller 1510 and a video output device 1520 may be provided. In this case, the remote controller 1510 may be a device that communicates with a server or an access point (AP). As another example, the remote controller 1510 may be a user terminal. For example, the terminal may replace the function of the remote controller 1510 and may be a video output device 1520 or a device that operates through authentication with a server or AP. That is, for convenience of description, the description is based on the remote controller 1510, but is not limited thereto, and may be performed through a terminal or other device, and is not limited to a specific form. Also, as an example, the image output device 1520 may be a TV or other device that outputs images. Also, as an example, the video output device 1520 may be a device having a server or an AP. That is, the video output device 1520 may be combined with a server or AP, and may not be limited to a specific form. As another example, there is a separate base station (or server) that communicates with the above-described remote controller 1510 or terminal, and the video output device may be a device controlled based on this, and is not limited to a specific form. can
일 예로, 도 15를 참조하면, 리모컨(1510)이 턴온되는 경우, 리모컨(1510)은 사용자 간섭인식정보를 영상 출력장치(1520)로 전달할 수 있다. 이때, 사용자 간섭인식정보는 영상 출력장치(1520)와의 방향 및 거리 정보일 수 있다. 또한, 일 예로, 사용자 관련 다른 인식 정보를 더 포함할 수 있으며, 특정 형태로 한정되지 않는다.For example, referring to FIG. 15 , when the remote controller 1510 is turned on, the remote controller 1510 may transmit user interference recognition information to the image output device 1520. In this case, the user interference recognition information may be direction and distance information with the image output device 1520. Also, as an example, other user-related recognition information may be further included, and is not limited to a specific form.
그 후, 영상 출력장치(1520)는 사용자 간섭인식정보에 기초하여 사용자를 인식하고, 이에 대한 정보를 인공지능 메타렌즈 특성 예측부에 전달하여 코드북 형식의 메타렌즈 특성인자의 인덱스(또는 제어 값)를 도출할 수 있다. 그 후, 제어 값은 메타렌즈 제어기로 전달되고, 이에 기초하여 영상 출력장치(1520)는 영상을 출력할 수 있으며, 이는 도 14와 같을 수 있다. 또한, 일 예로, 상술한 동작은 리모컨(1510)의 시그널링에 기초하여 반복될 수 있다. 일 예로, 리모컨(1510)이 턴온되면 상술한 동작이 수행될 수 있다. 또한, 일 예로, 리모컨(1510)은 기 설정된 주기에 기초하여 시그널링을 영상 출력장치(1520)로 전달하고, 주기적으로 상술한 동작을 수행할 수 있다. 또 다른 일 예로, 리모컨(1510)은 이벤트 트리거링(e.g. 사용자의 리모컨 인풋)에 기초하여 상술한 동작을 수행할 수 있으며, 특정 형태로 한정되는 것은 아닐 수 있다.After that, the image output device 1520 recognizes the user based on the user interference recognition information, and transfers the information about this to the artificial intelligence metalens characteristic prediction unit to obtain the index (or control value) of the metalens characteristic factor in codebook format. can be derived. Then, the control value is transferred to the metalens controller, and based on this, the image output device 1520 may output an image, which may be the same as in FIG. 14 . Also, as an example, the above-described operation may be repeated based on signaling of the remote controller 1510. For example, when the remote controller 1510 is turned on, the above-described operation may be performed. Also, as an example, the remote controller 1510 may transmit signaling to the video output device 1520 based on a preset period and periodically perform the above-described operation. As another example, the remote control 1510 may perform the above-described operation based on event triggering (e.g. user's remote control input), and may not be limited to a specific form.
또한, 일 예로, 도 16은 본 개시의 일 실시예에 따라, 메타렌즈에 기초하여 영상 입출력을 제어하는 방법을 나타낸 순서도이다. 도 16을 참조하면, 사용자 기반의 영상 입출력을 위한 메타렌즈 인공지능 시스템의 동작은 사용자 인식 단계, 사용자 추적반복 단계 및 주기적 순차단계를 포함할 수 있다. 일 예로, 사용자 인식 단계는 순차적으로 메타렌즈의 조향성을 변경하여 입력받은 영상을 통해서 사용자의 방향, 거리 및 상태(시야 각도, 움직임) 중 적어도 어느 하나의 정보를 인지하는 단계일 수 있다.(S1610) 이때, 일 예로, 화각 제약이 있는 카메라(특히 적외선카메라)를 기계적인 장치에 도움없이 광각의 효과를 낼 수 있으며, 특정 형태로 한정되는 것은 아닐 수 있다. 인공지능 사용자 인식부는 대상 검색(Object Detection)이나 특징 추출 중 적어도 어느 하나를 통해 사용자 인식 정보를 인지할 수 있으며, 특정 형태로 한정되지 않는다.Also, as an example, FIG. 16 is a flowchart illustrating a method of controlling image input/output based on a metalens according to an embodiment of the present disclosure. Referring to FIG. 16 , the operation of the Metalens artificial intelligence system for user-based image input/output may include a user recognition step, a user tracking repetition step, and a periodic sequential step. For example, the user recognition step may be a step of recognizing at least one information of the user's direction, distance, and state (viewing angle, movement) through the input image by sequentially changing the steering of the metalens. (S1610 ) At this time, as an example, a camera (particularly an infrared camera) having a limited angle of view can produce a wide-angle effect without the help of a mechanical device, and may not be limited to a specific shape. The artificial intelligence user recognition unit may recognize user recognition information through at least one of object detection and feature extraction, and is not limited to a specific form.
다음으로, 사용자 추적반복 단계는 사용자의 위치를 지속적으로 추적하여 영상 입출력장치의 메타렌즈 제어를 변경하는 단계일 수 있다. 일 예로, 영상 입력장치는 기지국(또는 서버)으로 사용자 인식 정보를 전달하고(S1620), 기지국(또는 서버)는 사용자 인식정보를 기반으로 예측한 특성인자를 영상 입출력 장치에 전달할 수 있다.(S1630) 그 후, 영상 입출력 장치의 메타렌즈 제어기는 전달받은 메타렌즈 특성인자에 해당하는 제어 값을 생성하거나 코드북을 참조하여 설정을 수행할 수 있으며, 설정 값을 도출할 수 있다.(S1640) 이때, 설정 값이 수렴하는지 여부에 기초하여 수렴하지 않으면 사용자 추적반복 단계가 반복될 수 있다. 반면, 설정 값이 수렴하면 주기적 순차탐색 단계를 수행할 수 있다. 또 다른 일 예로, 사용자 추적반복 단계는 N번 수행될 수 있으며, N번 수행 후에 주기적 순차탐색 단계가 수행될 수 있다. 이때, 일 예로, 메타렌즈 코드북의 최적의 값은 사용자 인식정보에 기초하여 도출되기 때문에 MAB AI나 강화학습을 사용할 수 있으며, 지도학습으로 구현이 가능할 수 있다. 일 예로, 상술한 학습이 수행되는 경우, 사용자의 위치추적이 불가능하거나 일정 시간이 필요할 수 있으며, 특정 형태로 한정되는 것은 아닐 수 있다. 그 후, 주기적 순차탐색은 일정 주기로 수행하여 사용자나 환경을 전체적으로 재 검색할 때 사용될 수 있다. 일 예로, 사용자 위치 추적이 불가능하거나 일정횟수 이후로 전 방향을 순차적으로 탐색을 수행하기 위해 주기적 순차 탐색 단계가 수행될 수 있다.(S1650)Next, the repeating user tracking step may be a step of continuously tracking the user's position and changing the metal lens control of the image input/output device. For example, the video input device may transmit user recognition information to the base station (or server) (S1620), and the base station (or server) may transmit characteristic factors predicted based on the user recognition information to the video input/output device (S1630). ) After that, the metalens controller of the video input/output device may generate a control value corresponding to the received metalens characteristic factor or perform setting by referring to the codebook, and may derive the setting value. (S1640) At this time, Based on whether the setting value converges, if it does not converge, the user tracking repetition step may be repeated. On the other hand, when the setting values converge, a periodic sequential search step may be performed. As another example, the repeating user tracking step may be performed N times, and the periodic sequential search step may be performed after performing N times. At this time, as an example, since the optimal value of the metalens codebook is derived based on user recognition information, MAB AI or reinforcement learning may be used, and implementation may be possible through supervised learning. For example, when the above-described learning is performed, the location tracking of the user may be impossible or a certain amount of time may be required, and may not be limited to a specific form. Thereafter, the periodic sequential search may be performed at regular intervals to re-search the user or the environment as a whole. For example, a periodic sequential search step may be performed in order to sequentially search in all directions after a certain number of times when it is impossible to track the user's location (S1650).
또한, 일 예로, 도 17 및 도 18은 본 개시의 일 실시예에 따라 사용자 인식부에서 대상을 검출하는 방법을 나타낸 도면이다. 메타렌즈 제어를 위한 인공지능 시스템은 인공지능 사용자 인식부와 메타렌즈 특성 예측부를 포함할 수 있다. 이때, 인공지능 사용자 인식부는 대상 검출(Object Detection)의 형태로 정확도 및 실시간성 확보가 필요할 수 있다. 따라서, 인공지능 사용자 인식부는 1-Stage Detector가 적당할 수 있으며, 1-Stage Detector는 특징을 추출하는 Convolution layer와 영역과 분류를 하는 Full connected Layer 로 구분되고, 이는 도 17과 같을 수 있다. Also, as an example, FIGS. 17 and 18 are diagrams illustrating a method of detecting an object in a user recognizer according to an embodiment of the present disclosure. The artificial intelligence system for controlling the metalens may include an artificial intelligence user recognition unit and a metalens characteristic prediction unit. At this time, the artificial intelligence user recognition unit may need to secure accuracy and real-time in the form of object detection. Therefore, the artificial intelligence user recognition unit may be suitable for a 1-Stage Detector, and the 1-Stage Detector is divided into a convolution layer for extracting features and a full connected layer for region and classification, which may be shown in FIG. 17.
도 17을 참조하면, 사용자 인식부에서 사용하는 대상 검출 구조로 카메라(TOF)부터 얻은 영상의 특징은 Convolution Layer를 통해서 추출될 수 있다. 그 후, 추출된 특징은 Feature Maps으로 구성될 수 있으며, Feature Maps은 사물의 위치 및 크기 좌표(x, y, w, h)를 예측하는 Bounding Box Regression 부분과 사물을 분류하는 Multi-class Classification로 구분되어 도출될 수 있다. 다만, 이는 하나의 일 예일 뿐, 상술한 실시예로 한정되지 않는다. 또한, 일 예로, 도 18을 참조하면, Object Detection(YOLO)의 Feature Map 구조는 전체 Grid수 S*S개별 및 B개의 Box좌표별로 Objectness Score와 Class Score가 도출될 수 있으며, 각각은 대상(object)가 존재할 확률과 대상이 해당 class에 속할 확률을 나타낼 수 있다. 여기서, 일 예로, 상술한 바에 기초하여 loss function은 하기 수학식 4와 같을 수 있다.Referring to FIG. 17 , features of an image obtained from a camera (TOF) may be extracted through a convolution layer with an object detection structure used by a user recognition unit. Then, the extracted features can be composed of Feature Maps, and Feature Maps are composed of a Bounding Box Regression part that predicts the position and size coordinates (x, y, w, h) of objects and multi-class classification that classifies objects. can be derived separately. However, this is only one example and is not limited to the above-described embodiment. In addition, as an example, referring to FIG. 18, in the feature map structure of Object Detection (YOLO), Objectness Score and Class Score can be derived for each individual Grid number S * S and B Box coordinates, each of which is an object (object ) and the probability that the target belongs to the class. Here, as an example, based on the above, the loss function may be equal to Equation 4 below.
[수학식 4][Equation 4]
Figure PCTKR2021012704-appb-img-000017
Figure PCTKR2021012704-appb-img-000017
이때,
Figure PCTKR2021012704-appb-img-000018
는 coordinates(x,y,w,h)에 대한 loss와 다른 loss들과의 균형을 위한 균형 파라미터(balancing parameter)이고,
Figure PCTKR2021012704-appb-img-000019
는 대상이 있는 box와 없는 box간에 균형을 위한 균형 파라미터(balancing parameter)일 수 있다. 일 예로, 이미지 내의 대상이 있는 셀보다 대상이 없는 셀이 더 많을 수 있으며, 이를 고려하여 상술한 파라미터가 사용될 수 있다.
At this time,
Figure PCTKR2021012704-appb-img-000018
is a balancing parameter for balancing the loss for coordinates (x, y, w, h) with other losses,
Figure PCTKR2021012704-appb-img-000019
may be a balancing parameter for balancing between a box with an object and a box without an object. For example, there may be more cells without objects than cells with objects in an image, and the above-described parameters may be used in consideration of this.
일 예로, 수학식 4에서 첫째 줄과 둘째 줄은 grid cell i의 predictor bounding box j에 대한 x, y, w, h의 loss를 표현한 것일 수 있다. 여기서, 각각 중심점 좌표와 가로세로의 크기를 나타낼 수 있다. For example, the first and second lines in Equation 4 may represent losses of x, y, w, and h for the predictor bounding box j of grid cell i. Here, the coordinates of the center point and the horizontal and vertical sizes may be respectively indicated.
둘째 줄에서는 큰 box로 인해 생기는 큰 편차를 보완하기 위해 제곱근을 취할 수 있다. 또한, 세번 째 줄은 대상이 존재하는 grid cell i의 predictor bounding box j에 대해, confidence score의 loss를 계산한 것일 수 있다.(
Figure PCTKR2021012704-appb-img-000020
=1) 반면, 네번째 줄은 대상이 존재하지 않는 grid cell i의 bounding box j에 대해, confidence score의 loss를 계산(
Figure PCTKR2021012704-appb-img-000021
=0)한 것일 수 있다. 마지막으로 다섯 번째줄은 대상이 존재하는 grid cell i에 대해, conditional class probability의 loss 계산한 것일 수 있다. 일 예로, Correct class c에 대해서는
Figure PCTKR2021012704-appb-img-000022
=1일 수 있고, 그렇지 않으면
Figure PCTKR2021012704-appb-img-000023
=0일 수 있다. 또한, 일 예로, 대상 검출에 추가로 사용자의 시야각도도 추가로 추출하여 사용자 인식 정보로 사용할 수 있으며, 특정 형태로 한정되는 것은 아닐 수 있다.
In the second line, we can take the square root to compensate for the large deviation caused by the large box. In addition, the third line may be the calculation of the loss of the confidence score for the predictor bounding box j of grid cell i where the target exists. (
Figure PCTKR2021012704-appb-img-000020
= 1) On the other hand, the fourth line calculates the loss of the confidence score for the bounding box j of grid cell i where the target does not exist (
Figure PCTKR2021012704-appb-img-000021
= 0) may have been. Finally, the fifth line may be a loss calculation of the conditional class probability for grid cell i where the target exists. For example, for Correct class c
Figure PCTKR2021012704-appb-img-000022
= 1, otherwise
Figure PCTKR2021012704-appb-img-000023
= 0. Also, as an example, in addition to object detection, a user's viewing angle may be additionally extracted and used as user recognition information, and may not be limited to a specific form.
또한, 일 예로, 도 19는 본 개시의 일 실시예에 따라 최종 입출력을 나타내고 있다. 일 예로, 도 19(a)를 참조하면, 카메라로부터 영상과 영상추출시 메타렌즈 제어 값을 통해서 최종적으로 사용자의 인지정보(방향, 거리, 시선방향, 이동성)가 추출될 수 있으며, 이는 상술한 바와 같다. 또한, 메타렌즈 특성 예측부는 사용자 인식부처럼 지도학습으로 구현이 가능하지만, 강화학습으로도 구현이 가능할 수 있다. Also, as an example, FIG. 19 illustrates a final input/output according to an embodiment of the present disclosure. For example, referring to FIG. 19(a), when an image and an image are extracted from a camera, the user's cognitive information (direction, distance, gaze direction, mobility) can be finally extracted through the metalens control value, which is described above. same as bar In addition, the metalens characteristic prediction unit can be implemented by supervised learning like the user recognition unit, but can also be implemented by reinforcement learning.
보다 상세하게는, 도 19(b)를 참조하면, 지도학습을 사용한 메타렌즈 제어 시스템 구조는 사용자의 인지정보(방향, 거리, 시선방향, 이동성)를 통해 메타렌즈의 특성함수인 초점위치, 거리 및 곡률반경을 예측할 수 있으며, 이는 도 19(b)와 같을 수 있다.In more detail, referring to FIG. 19(b), the structure of the metalens control system using supervised learning is based on the user's cognitive information (direction, distance, gaze direction, mobility), which is a characteristic function of the metalens, such as focus position and distance. And the radius of curvature can be predicted, which can be as shown in FIG. 19 (b).
도 20은 본 개시의 일 실시예에 따라, 강화학습 (또는 MAB)을 사용한 메타렌즈 제어 시스템 구조를 나타낸 도면이다. 일 예로, 강화학습은 2개의 입력과 1개의 출력으로 구성될 수 있으나, 이에 한정되는 것은 아닐 수 있다. 일 예로, 강화학습에는 상태(State)와 보상(Reward)이 입력으로 사용되고, 출력으로 Agent는 행동(Action)을 선택할 수 있다. 이때, 상태는 MAB에서는 사용되지 않을 수 있다. 또한, 행동(Action)은 메타렌즈 제어가 되어 사용자 기반의 최적의 영상을 제공하는 동작일 수 있다. 메타렌즈 제어 인공지능 시스템은 환경으로부터 행동(Action)에 대한 보상 값과 변경된 상태정보를 얻어서 학습에 사용하고, 또다시 행동을 선택하는 일을 반복하여 상술한 바와 같이 최적의 제어 값을 도출할 수 있다.20 is a diagram illustrating a structure of a metalens control system using reinforcement learning (or MAB) according to an embodiment of the present disclosure. For example, reinforcement learning may consist of two inputs and one output, but may not be limited thereto. For example, in reinforcement learning, a state and a reward are used as inputs, and an agent can select an action as an output. At this time, the state may not be used in MAB. In addition, the action may be an action of providing a user-based optimal image by controlling the metal lens. The metalens control artificial intelligence system can derive the optimal control value as described above by obtaining reward values and changed state information for actions from the environment, using them for learning, and repeating the action selection process. there is.
도 21은 본 개시의 일 실시예에 따라, 강화학습을 사용한 메타렌즈 제어 시스템 블록도를 나타낸 도면이다. 도 21을 참조하면, 강화학습 기반 인공지능(2110)은 강화학습 모델(2120)을 구비할 수 있다. 이때, 강화학습 모델(2120)은 학습부(2121)와 예측부(2122)로 되어 있고, 학습과 동시에 다음 행동을 예측할 수 있다. 여기서, 상태(State)인자로는 사용자의 인식정보(방향, 거리, 시야방향, 이동성) 등이 사용될 수 있으며, 하기 수학식 5와 같을 수 있다.21 is a block diagram of a metalens control system using reinforcement learning, according to an embodiment of the present disclosure. Referring to FIG. 21 , the reinforcement learning-based artificial intelligence 2110 may include a reinforcement learning model 2120. At this time, the reinforcement learning model 2120 consists of a learning unit 2121 and a prediction unit 2122, and can predict the next action at the same time as learning. Here, the user's recognition information (direction, distance, viewing direction, mobility), etc. may be used as the state factor, and may be expressed as Equation 5 below.
[수학식 5][Equation 5]
Figure PCTKR2021012704-appb-img-000024
Figure PCTKR2021012704-appb-img-000024
이때, 행동(Action)은 인공지능이 선택하는 메타렌즈 제어 값 생성을 위한 특성인자로 이산형 값이거나 연속적인 값일 수 있다. 일 예로, 연속적인 값은 메타렌즈 제어 값 생성기의 입력 값으로 사용하고, 이산적인 값은 기 공유된 코드북의 인덱스로 사용될 수 있으며, 행동은 하기 수학식 6과 같을 수 있다.At this time, Action is a characteristic factor for generating a metalens control value selected by artificial intelligence and may be a discrete value or a continuous value. For example, a continuous value may be used as an input value of a metalens control value generator, a discrete value may be used as an index of a pre-shared codebook, and an operation may be as shown in Equation 6 below.
[수학식 6][Equation 6]
Figure PCTKR2021012704-appb-img-000025
Figure PCTKR2021012704-appb-img-000025
또한, 일 예로, 강화학습에서 보상은 학습을 위해서 필수적인 요소일 수 있다. 일 예로, 사용자 인지정보를 통해서 반응을 예측할 수 있으며, 사용자의 호감도나 집중도를 수치화하여 보상으로 사용할 수 있다. 즉, 사용자 피드백 정보가 보상 정보일 수 있다. 다만, 보상 정보는 특정 형태로 한정되는 것은 아니고, 다양한 형태일 수 있다. 일 예로, 보상 정보는 하기 수학식 7과 같이 도출될 수 있다.Also, for example, in reinforcement learning, reward may be an essential factor for learning. For example, a reaction can be predicted through user cognitive information, and a user's liking or concentration can be digitized and used as a reward. That is, user feedback information may be compensation information. However, the compensation information is not limited to a specific form and may be of various forms. For example, compensation information may be derived as shown in Equation 7 below.
[수학식 7][Equation 7]
Figure PCTKR2021012704-appb-img-000026
Figure PCTKR2021012704-appb-img-000026
또한, 일 예로, 상술한 연속적인 값을 예측하는 강화학습으로는 DDPG(Deep Deterministic Policy Gradient)가 사용될 수 있다. DDPG는 Policy gradient와 DQN의 장점을 모두 가질 수 있다. 즉, DDPG는 안정적이고, 연속공간에서 사용이 가능할 수 있다. 또한, 일 예로, 결정론적인(Deterministic) Policy를 사용하기 때문에 빠르게 수렴이 가능하며, 가벼운 알고리즘일 수 있다. Also, as an example, deep deterministic policy gradient (DDPG) may be used as reinforcement learning for predicting the above-described continuous value. DDPG can have the advantages of both policy gradient and DQN. That is, DDPG is stable and can be used in continuous space. Also, as an example, since a deterministic policy is used, convergence is possible quickly and it may be a lightweight algorithm.
일 예로, 도 22는 본 개시의 일 실시예에 따라, DDPG를 사용한 강화학습을 나타내고 있다. 도 22를 참조하면, DDPG를 사용한 강화학습은 Actor-Critic 알고리즘과 DQN 알고리즘의 특징을 모두 담고 있다. Actor 네트워크와 Critic네트워크를 통해 각각 Q(Value Action Function)와 행동(Action)을 예측할 수 있다. 또한, Critic네트워크는 Experience Replay Memory를 사용하여 TD-Error(Temporal Difference)를 줄이는 방향으로 학습될 수 있으며, 학습된 Critic네트워크는 Policy Gradient 계산 및 학습에 사용될 수 있다.As an example, FIG. 22 illustrates reinforcement learning using DDPG according to an embodiment of the present disclosure. Referring to FIG. 22, reinforcement learning using DDPG contains the characteristics of both the Actor-Critic algorithm and the DQN algorithm. Q (Value Action Function) and action can be predicted through Actor network and Critic network, respectively. In addition, the Critic network can be trained in the direction of reducing TD-Error (Temporal Difference) using Experience Replay Memory, and the learned Critic network can be used for Policy Gradient calculation and learning.
또한, Target Policy는 Deterministic이기 때문에 π 대신 μ 를 통해서 Bellman equation 을 표현할 수 있으며, 수학식 8과 같을 수 있다.In addition, since the target policy is deterministic, the Bellman equation can be expressed through μ instead of π, and it can be the same as Equation 8.
[수학식 8][Equation 8]
Figure PCTKR2021012704-appb-img-000027
Figure PCTKR2021012704-appb-img-000027
이때, 상태(State)와 행동(Action)은 각각
Figure PCTKR2021012704-appb-img-000028
Figure PCTKR2021012704-appb-img-000029
이고, ~ E는 환경(Environment)으로 추출된 값일 수 있다. 여기서,
Figure PCTKR2021012704-appb-img-000030
는 policy μ를 위한 action-value function이고, γ는 discount factor이며, r은 보상값(Reward)일 수 있다.
At this time, State and Action are respectively
Figure PCTKR2021012704-appb-img-000028
and
Figure PCTKR2021012704-appb-img-000029
, and ~ E may be a value extracted as an environment. here,
Figure PCTKR2021012704-appb-img-000030
is an action-value function for policy μ, γ is a discount factor, and r may be a reward value.
또한, Critic Network의 Weight를 각각
Figure PCTKR2021012704-appb-img-000031
로 표현하고, 다양한 확률분포를 가진 행동 policy를 β라고 할 때, Critic Network의 Loss는 하기 수학식 9와 같을 수 있다.
In addition, the weight of the Critic Network
Figure PCTKR2021012704-appb-img-000031
Expressed as , and when the action policy with various probability distributions is β, the loss of the Critic Network can be as shown in Equation 9 below.
[수학식 9][Equation 9]
Figure PCTKR2021012704-appb-img-000032
Figure PCTKR2021012704-appb-img-000032
수학식 9에서 기대 값은 Relay Buffer R에 저장된 Transitions (
Figure PCTKR2021012704-appb-img-000033
,
Figure PCTKR2021012704-appb-img-000034
Figure PCTKR2021012704-appb-img-000035
,
Figure PCTKR2021012704-appb-img-000036
)을 Minibatching 하여 평균값을 취함으로서 표현될 수 있으며, 수학식 10과 같을 수 있다.
In Equation 9, the expected value is Transitions stored in Relay Buffer R (
Figure PCTKR2021012704-appb-img-000033
,
Figure PCTKR2021012704-appb-img-000034
Figure PCTKR2021012704-appb-img-000035
,
Figure PCTKR2021012704-appb-img-000036
) can be expressed by minibatching and taking the average value, which can be shown in Equation 10.
[수학식 10][Equation 10]
Figure PCTKR2021012704-appb-img-000037
Figure PCTKR2021012704-appb-img-000037
또한,
Figure PCTKR2021012704-appb-img-000038
는 TD(Temporal Differnece) 가 되며 Critic Network는 TD Error를 줄이는 방향으로 학습될 수 있다. 이때, Actor Network는 기대 보상 값(Expected Return)을 최대화하는 방향으로 Policy를 업데이트할 수 있으며, 수학식 11과 같을 수 있다.
also,
Figure PCTKR2021012704-appb-img-000038
becomes TD (Temporal Difference), and the Critic Network can be learned in the direction of reducing TD Error. At this time, the Actor Network may update the policy in the direction of maximizing the expected reward value (Expected Return), and may be as shown in Equation 11.
[수학식 11][Equation 11]
Figure PCTKR2021012704-appb-img-000039
Figure PCTKR2021012704-appb-img-000039
또한, 기대 값은 하기 수학식 12와 같이 Relay Buffer를 사용하여 근사화 될 수 있다.In addition, the expected value can be approximated using a Relay Buffer as shown in Equation 12 below.
[수학식 12][Equation 12]
Figure PCTKR2021012704-appb-img-000040
Figure PCTKR2021012704-appb-img-000040
또한, 일 예로, DDPG는 Off-policy 모델로서 Exploration을 추가하는 것이 용이할 수 있다. 일 예로, Exploration policy는 노이즈 분포를 추가하여 생성할 수 있으며, 수학식 13과 같을 수 있다.Also, as an example, it may be easy to add Exploration as an off-policy model in DDPG. For example, the Exploration policy may be generated by adding a noise distribution and may be expressed as Equation 13.
[수학식 13][Equation 13]
Figure PCTKR2021012704-appb-img-000041
Figure PCTKR2021012704-appb-img-000041
여기서, 정규분포의 분산
Figure PCTKR2021012704-appb-img-000042
을 이용하여 Exploration의 율을 조절할 수 있으며, 상술한 decaying e-greedy 나 UCB를 이용하여 Adaptive하게 조절이 가능할 수 있다.
Here, the variance of the normal distribution
Figure PCTKR2021012704-appb-img-000042
Exploration rate can be adjusted using , and it can be adjusted adaptively using the above-mentioned decaying e-greedy or UCB.
또 다른 일 예로, 이산적 값의 예측은 선택형 인공지능을 통해서 구현될 수 있다. 일 예로, 도 23은 본 개시의 일 실시예에 따라 톰슨 샘플링(Thompson Sampling)을 사용한 선택인공지능 (MAB AI, 2310) 시스템을 나타내고 있다. 일 예로, 톰슨 샘플링을 사용한 선택인공지능 (MAB AI, 2310)은 크게 학습부와 선택부로 구분될 수 있다. 일 예로, 학습부에서는 보상 값(Reward)에 기초하여 직전 행동 i에 대한 톰슨 샘플링 파라미터 (α, β)를 갱신할 수 있으며, 보상에 따른 샘플링 파라미터 (α, β)는 수학식 14와 같을 수 있다.As another example, prediction of discrete values may be implemented through selective artificial intelligence. As an example, FIG. 23 shows a selection artificial intelligence (MAB AI, 2310) system using Thompson sampling according to an embodiment of the present disclosure. For example, selection artificial intelligence (MAB AI, 2310) using Thomson sampling can be largely divided into a learning part and a selection part. For example, the learning unit may update the Thomson sampling parameters (α, β) for the previous action i based on the reward value (Reward), and the sampling parameters (α, β) according to the reward may be as shown in Equation 14 there is.
[수학식 14][Equation 14]
Figure PCTKR2021012704-appb-img-000043
Figure PCTKR2021012704-appb-img-000043
이때,
Figure PCTKR2021012704-appb-img-000044
는 기준이 되는 보상 값으로써, 단말에서 IRS 성능 측정기의 보상 형태에 따라 상이할 수 있으며, 특정 형태로 한정되는 것은 아닐 수 있다. 톰슨 샘플링 선택부에서는 누적된 α , β를 베타 분포(Beta Distribution)에 적용하여 샘플링 한 값 중 가장 큰 값을 가지는 메타렌즈 제어 파라미터 인덱스를 선택할 수 있다. 이때, 선택한 {
Figure PCTKR2021012704-appb-img-000045
,
Figure PCTKR2021012704-appb-img-000046
,
Figure PCTKR2021012704-appb-img-000047
,
Figure PCTKR2021012704-appb-img-000048
}는 메타렌즈 제어 값 생성기로 전달될 수 있다. 또한, 렌즈의 특성을 나타내는 인덱스{
Figure PCTKR2021012704-appb-img-000049
,
Figure PCTKR2021012704-appb-img-000050
,
Figure PCTKR2021012704-appb-img-000051
,
Figure PCTKR2021012704-appb-img-000052
}는 개별적으로 선택하는 방식을 사용할 수 있다. 또한,
Figure PCTKR2021012704-appb-img-000053
= (
Figure PCTKR2021012704-appb-img-000054
,
Figure PCTKR2021012704-appb-img-000055
,
Figure PCTKR2021012704-appb-img-000056
,
Figure PCTKR2021012704-appb-img-000057
)와 같이 통합된 새로운 인덱스
Figure PCTKR2021012704-appb-img-000058
를 사용하여 선택하는 방식도 사용될 수 있으며, 특정 형태로 한정되는 것은 아닐 수 있다. 일 예로, 베타 분포는 하기 수학식 15와 같을 수 있다.
At this time,
Figure PCTKR2021012704-appb-img-000044
is a reference compensation value, which may be different according to the compensation form of the IRS performance measurer in the terminal, and may not be limited to a specific form. In the Thomson sampling selection unit, the metalens control parameter index having the largest value among the sampled values can be selected by applying the accumulated α and β to the beta distribution. At this time, the selected {
Figure PCTKR2021012704-appb-img-000045
,
Figure PCTKR2021012704-appb-img-000046
,
Figure PCTKR2021012704-appb-img-000047
,
Figure PCTKR2021012704-appb-img-000048
} can be passed to the metalens control value generator. In addition, the index representing the characteristics of the lens {
Figure PCTKR2021012704-appb-img-000049
,
Figure PCTKR2021012704-appb-img-000050
,
Figure PCTKR2021012704-appb-img-000051
,
Figure PCTKR2021012704-appb-img-000052
} can be individually selected. also,
Figure PCTKR2021012704-appb-img-000053
= (
Figure PCTKR2021012704-appb-img-000054
,
Figure PCTKR2021012704-appb-img-000055
,
Figure PCTKR2021012704-appb-img-000056
,
Figure PCTKR2021012704-appb-img-000057
), a new index that is unified, such as
Figure PCTKR2021012704-appb-img-000058
A method of selecting using may also be used, and may not be limited to a specific form. As an example, the beta distribution may be as shown in Equation 15 below.
[수학식 15][Equation 15]
Figure PCTKR2021012704-appb-img-000059
Figure PCTKR2021012704-appb-img-000059
또한, 일 예로, 메타렌즈 제어 값 생성기는 렌즈의 특성인자
Figure PCTKR2021012704-appb-img-000060
,
Figure PCTKR2021012704-appb-img-000061
,
Figure PCTKR2021012704-appb-img-000062
,
Figure PCTKR2021012704-appb-img-000063
를 통해서 메타렌즈의 제어 값을 생성할 있다.
Figure PCTKR2021012704-appb-img-000064
,
Figure PCTKR2021012704-appb-img-000065
,
Figure PCTKR2021012704-appb-img-000066
은 각각 초점의 위치와 거리를 나타내는 인자이고,
Figure PCTKR2021012704-appb-img-000067
는 커브드 형태의 영상 출력장치를 지원하기 위한 인자일 수 있다.
In addition, as an example, the metalens control value generator is a characteristic factor of the lens
Figure PCTKR2021012704-appb-img-000060
,
Figure PCTKR2021012704-appb-img-000061
,
Figure PCTKR2021012704-appb-img-000062
,
Figure PCTKR2021012704-appb-img-000063
You can create the control value of the metalens through .
Figure PCTKR2021012704-appb-img-000064
,
Figure PCTKR2021012704-appb-img-000065
,
Figure PCTKR2021012704-appb-img-000066
are factors representing the position and distance of the focal point, respectively,
Figure PCTKR2021012704-appb-img-000067
may be a factor for supporting a curved image output device.
일 예로, 메타렌즈 제어기 내의 메타렌즈 제어 값 생성기는 각 특성인자들을 통해서 메타렌즈 제어 값을 생성하는 것으로 관련 인자에 기초하여 메타렌즈의 크기나 층의 개수 및 그 밖의 설정을 미리 계산된 코드북에 기초하여 동작하도록 제어할 수 있다. For example, the metalens control value generator in the metalens controller generates the metalens control value through each characteristic factor, and the size of the metalens, the number of layers, and other settings based on the related factors are based on a pre-calculated codebook. can be controlled to operate.
보다 상세하게는, 도 24는 본 개시의 일 실시예에 따라, 메타렌즈 제어기의 구조를 나타낸 도면이다. 메타렌즈 제어기(2410)는 인공지능 메타렌즈 특성인자 예측부로부터 메타렌즈 제어 값 생성을 위한 파라미터(
Figure PCTKR2021012704-appb-img-000068
,
Figure PCTKR2021012704-appb-img-000069
,
Figure PCTKR2021012704-appb-img-000070
,
Figure PCTKR2021012704-appb-img-000071
)와 현재 영상 입출력장치의 설치된 메타렌즈의 규격(크기, 제어 Element 수, 메타렌즈 층) 정보를 획득할 수 있다. 또한, 일 예로, 메타렌즈 제어기(2410)는 추가 정보를 더 획득할 수 있으며, 특정 형태로 한정되는 것은 아닐 수 있다. 그 후, 메타렌즈 제어 값 생성부(2411)는 메타렌즈 제어 값의 코드북을 참조하여 제어 값을 생성할 수 있다. 또 다른 일 예로, 메타렌즈 제어 값 생성부(2411)는 인공지능을 활용하여 N개 층의 메타렌즈 구동기에 필요한 제어 값을 생성할 수 있으며, 이에 기초하여 메타렌즈 층별로 구동기가 메타렌즈를 제어할 수 있다. 이때, L번째 메타렌즈 구동기에서 출력하는 값은 수학식 16과 같을 수 있으며, 수학식 16에서 θ는 각 소자별 위상천이 값일 수 있다.
In more detail, FIG. 24 is a diagram showing the structure of a metalens controller according to an embodiment of the present disclosure. The metalens controller 2410 is a parameter for generating a metalens control value from the artificial intelligence metalens characteristic factor prediction unit (
Figure PCTKR2021012704-appb-img-000068
,
Figure PCTKR2021012704-appb-img-000069
,
Figure PCTKR2021012704-appb-img-000070
,
Figure PCTKR2021012704-appb-img-000071
) and standard (size, number of control elements, metalens layer) information of the currently installed metalens of the image input/output device can be obtained. Also, as an example, the metalens controller 2410 may further obtain additional information, and may not be limited to a specific form. After that, the metalens control value generation unit 2411 may generate a control value by referring to the codebook of the metalens control value. As another example, the metalens control value generating unit 2411 may generate control values required for the N-layered metalens drivers by utilizing artificial intelligence, and based on this, the drivers control the metalens for each metalens layer. can do. In this case, a value output from the L-th metalens driver may be the same as Equation 16, and θ in Equation 16 may be a phase shift value for each device.
[수학식 16][Equation 16]
Figure PCTKR2021012704-appb-img-000072
Figure PCTKR2021012704-appb-img-000072
이때, 일 예로, 초점위치를 나타내는
Figure PCTKR2021012704-appb-img-000073
,
Figure PCTKR2021012704-appb-img-000074
는 OIS와 원리와 마찬가지로 렌즈의 틸트의 방향과 틸트 각도를 나타내는 인자일 수 있다. 일 예로, 도 25(a)를 참조하면, 도 25(a)에서 AA'의 거리는
Figure PCTKR2021012704-appb-img-000075
일 수 있다. 또한, 일 예로, 도 25(b)를 참조하면, 렌즈의 지향성은 메타렌즈 패턴에 따른 조향성 변경원리를 이용할 수 있다. 보다 상세하게는, 메타렌즈의 위상천이가 되는 곡선을 초점위치(
Figure PCTKR2021012704-appb-img-000076
,
Figure PCTKR2021012704-appb-img-000077
)와 비례하게 변경하여 제어 값을 생성할 수 있다.
At this time, for example, indicating the focus position
Figure PCTKR2021012704-appb-img-000073
,
Figure PCTKR2021012704-appb-img-000074
May be a factor indicating the tilt direction and tilt angle of the lens, similar to OIS and the principle. For example, referring to FIG. 25 (a), the distance of AA' in FIG. 25 (a) is
Figure PCTKR2021012704-appb-img-000075
can be Also, as an example, referring to FIG. 25 (b), the directivity of the lens may use the principle of changing the steering property according to the metal lens pattern. More specifically, the curve that becomes the phase shift of the meta lens is the focus position (
Figure PCTKR2021012704-appb-img-000076
,
Figure PCTKR2021012704-appb-img-000077
) can be changed in proportion to the control value.
또한, 일 예로, 초점거리를 나타내는
Figure PCTKR2021012704-appb-img-000078
은 광각 또는 망원을 나타내는 것으로 줌의 역할과 관계된 특성인자일 수 있다. 일 예로, 메타렌즈에는 줌 구성 원리가 적용될 수 있으며, 메타렌즈의 곡률(위상천이의 기울기)를 조절함으로써 메타렌즈 위치 자체를 기계적으로 변경하는 것과 동일한 효과를 가져올 수 있다.
In addition, for example, representing the focal length
Figure PCTKR2021012704-appb-img-000078
represents wide-angle or telephoto, and may be a characteristic factor related to the role of zoom. For example, a zoom configuration principle may be applied to the metalens, and the same effect as mechanically changing the position of the metalens itself may be obtained by adjusting the curvature (phase shift slope) of the metalens.
구체적인 일 예로, 도 26(a)는 3군 줌렌즈 방식에서 메타렌즈의 곡률을 이용하여 광각과 망원의 효과를 내는 방법을 나타낸 도면이다. 도 26(a)를 참조하면, 초점거리를 나타내는
Figure PCTKR2021012704-appb-img-000079
과 반비례하여 중간 오목렌즈의 곡률을 조절하도록 메타렌즈의 제어 값을 생성할 수 있다.
As a specific example, FIG. 26 (a) is a diagram illustrating a method of producing wide-angle and telephoto effects by using the curvature of a metal lens in a 3-group zoom lens method. Referring to FIG. 26 (a), the focal length
Figure PCTKR2021012704-appb-img-000079
A control value of the metalens can be generated to adjust the curvature of the intermediate concave lens in inverse proportion to .
또한, 일 예로, 커브드 영상출력 효과를 나타내기 위해서 곡률반경
Figure PCTKR2021012704-appb-img-000080
를 사용할 수 있다. 이때, 곡률반경
Figure PCTKR2021012704-appb-img-000081
는 커브드 형태의 정도를 표시하는 인자로 곡률 반경이 클수록 완만한 커브드 영상출력이 이루어질 수 있다. 일 예로, 커브드 영상출력을 위한 메타렌즈 제어값을 생성하기 위해서는 중심점(가운데)으로부터 수평(x축 좌표)로부터 멀어질수록 줌의 정도가 비례하여 적용될 필요성이 있다. 따라서, 초점거리(
Figure PCTKR2021012704-appb-img-000082
)를 통한 메타렌즈 제어는 화면 전체의 균일한 줌 효과를 사용하지만, 커브드 영상출력은 원점이 포함된 중심선에서 x축 수평방향으로 다르게 줌 효과가 적용될 필요성이 있다. 일 예로, 도 26(b)는 메타렌즈 곡률변경에 따른 커브드 영상 출력장치와 각 위치별 배율을 나타낸 도면이다. 도 26(b)를 참조하면, 메타렌즈 줌배율을 위치에 따르게 적용된 렌즈 적용 값을 사용해야 할 수 있다. 따라서, 기본적인 3군줌렌즈외에 추가적인 메타렌즈의 층이 필요할 수 있다.
In addition, as an example, the radius of curvature to represent the curved image output effect
Figure PCTKR2021012704-appb-img-000080
can be used. At this time, the radius of curvature
Figure PCTKR2021012704-appb-img-000081
is a factor indicating the degree of curved shape, and as the radius of curvature increases, a more gentle curved image can be output. For example, in order to generate a metalens control value for curved image output, it is necessary to apply a zoom degree in proportion to a distance from the center point (center) to the horizontal (x-axis coordinate). Therefore, the focal length (
Figure PCTKR2021012704-appb-img-000082
) uses a uniform zoom effect on the entire screen, but curved image output needs to apply a different zoom effect in the x-axis horizontal direction from the center line including the origin. As an example, FIG. 26(b) is a diagram showing a curved image output device according to a change in the curvature of a metal lens and magnification for each position. Referring to FIG. 26 (b), it may be necessary to use a lens application value applied according to the position of the meta lens zoom magnification. Therefore, an additional metal lens layer may be required in addition to the basic 3-group zoom lens.
또 다른 일 예로, 도 27은 본 개시의 일 실시예에 따라 다양한 영상 입출력 장치들의 연합학습을 통해 동작하는 시스템을 나타낸 도면이다. 일 예로, 도 27을 참조하면, 연합학습은 기지국을 통해서 AirComp로 동작이 가능한 경우일 수 있다. 이때, 영상 입출력 장치들은 실내 또는 실외에 존재할 수 있다. 일 예로, 영상 입출력 장치는 다양한 위치 및 거리에 기지국으로 자신의 로컬 모델 정보를 전달하고, 기지국은 전달받은 로컬 모델 정보에 기초하여 글로벌 모델 정보를 업데이트하여 각각의 단말들에게 제공할 수 있다. 이때, 각각의 단말들은 영상 입출력 장치일 수 있다. 일 예로, 연합학습은 다양한 위치와 거리에서의 영상 입력장치(카메라)등을 통해서 영상 입출력 장치의 제어가 제대로 동작하는지를 확인하는 용도로 사용될 수 있으며, 이를 통해 새로운 서비스 창출을 수행할 수 있다.As another example, FIG. 27 is a diagram illustrating a system operating through federated learning of various image input/output devices according to an embodiment of the present disclosure. As an example, referring to FIG. 27 , federated learning may be operated by AirComp through a base station. In this case, the video input/output devices may exist indoors or outdoors. For example, the video input/output device may transmit its own local model information to a base station at various locations and distances, and the base station may update global model information based on the received local model information and provide the updated global model information to respective terminals. In this case, each of the terminals may be a video input/output device. For example, federated learning can be used to check whether control of video input/output devices is properly operated through video input devices (cameras) at various locations and distances, and through this, new services can be created.
도 28은 본 개시의 일 실시예에 따라 기지국 동작 방법을 나타낸 도면이다. 도 28을 참조하면, 기지국은 제 1 단말로부터 사용자 인식 정보를 수신할 수 있다.(S2810) 이때, 기지국은 단말과 통신을 수행하는 장치일 수 있다. 또 다른 일 예로, 기지국은 상술한 서버나 엑세스 포인트일 수 있으며, 특정 형태로 한정되는 것은 아닐 수 있다. 또한, 일 예로, 제 1 단말은 영상 입력장치일 수 있다. 또 다른 일 예로, 제 1 단말은 영상 입력 기능을 구비한 장치일 수 있으며, 특정 형태로 한정되지 않는다. 또한, 일 예로, 제 2 단말은 영상 출력 장치일 수 있다. 또 다른 일 예로, 제 2 단말은 영상 출력 기능을 구비한 장치일 수 있으며, 특정 형태로 한정되지 않는다. 또한, 일 예로, 제 1 단말과 제 2 단말은 하나의 장치에 구현될 수 있으며, 특정 형태로 한정되지 않는다. 28 is a diagram illustrating a method of operating a base station according to an embodiment of the present disclosure. Referring to FIG. 28, the base station may receive user recognition information from the first terminal (S2810). At this time, the base station may be a device that communicates with the terminal. As another example, the base station may be the aforementioned server or access point, and may not be limited to a specific form. Also, as an example, the first terminal may be an image input device. As another example, the first terminal may be a device having an image input function, and is not limited to a specific form. Also, as an example, the second terminal may be an image output device. As another example, the second terminal may be a device having a video output function, and is not limited to a specific form. Also, as an example, the first terminal and the second terminal may be implemented in one device, and are not limited to a specific form.
기지국이 제 1 단말로부터 사용자 인식 정보를 수신한 경우, 기지국은 사용자 인식 정보를 이용하여 메타렌즈 특성인자에 기초하여 제어 값을 획득할 수 있다.(S2820) 그 후, 기지국은 획득한 제어 값을 제 1 단말 및 제 2 단말로 전송할 수 있다.(S2830) 이때, 일 예로, 제어 값은 메타렌즈 특성인자에 기초하여 코드북 기반으로 결정될 수 있다. 여기서, 메타렌즈 특성인자는 메타렌즈 요소들 각각에 기초하여 초점 위치 정보, 초점 거리 정보 및 곡률 반경 정보 중 적어도 어느 하나에 기초하여 결정될 수 있다. 또한, 초점 위치 정보, 초점 거리 정보 및 곡률 반경 정보는 양자화에 기초하여 각각의 인덱스로 표현되고, 제어 값은 각각의 인덱스에 기초하여 도출될 수 있으며, 이는 상술한 바와 같다. 또한, 일 예로, 사용자 인식 정보는 사용자 방향 정보, 사용자 거리 정보 및 사용자 상태 정보 중 적어도 어느 하나 이상을 포함할 수 있으며, 이는 상술한 바와 같다. 이때, 일 예로, 제 1 단말은 제 1 단말의 위치 정보를 획득하고, 제 1 단말의 위치 정보를 사용자 인식 정보와 함께 기지국으로 전달할 수 있다. 기지국은 제 1 단말의 위치 정보를 더 고려하여 제어 값을 도출할 수 있으며, 이는 상술한 바와 같다.When the base station receives the user recognition information from the first terminal, the base station may obtain a control value based on the metalens characteristic factor using the user recognition information (S2820). It may be transmitted to the first terminal and the second terminal. (S2830) At this time, as an example, the control value may be determined based on a codebook based on a metalens characteristic factor. Here, the metalens characteristic factor may be determined based on at least one of focus position information, focal distance information, and curvature radius information based on each of the metalens elements. Also, the focal position information, the focal distance information, and the radius of curvature information are expressed as respective indices based on quantization, and a control value may be derived based on each index, as described above. Also, as an example, the user recognition information may include at least one or more of user direction information, user distance information, and user status information, as described above. At this time, as an example, the first terminal may obtain location information of the first terminal and transmit the location information of the first terminal to the base station together with user recognition information. The base station may derive a control value by further considering the location information of the first terminal, as described above.
또한, 일 예로, 기지국은 메타렌즈 인공지능 시스템을 구비하고, 메타렌즈 인공지능 시스템은 학습모델에 기초하여 학습을 수행할 수 있다. 이때, 획득된 사용자 인식 정보는 학습모델의 입력이고, 제어 값은 학습모델의 출력일 수 있다. 구체적인 일 예로, 학습모델은 강화학습에 기초하여 동작하고, 강화학습은 획득한 사용자 인식 정보 및 제어 값에 기초하여 상태 정보 및 보상 정보를 입력으로 사용할 수 있다. 또한, 제어 값에 대응되는 행동 정보를 출력할 수 있으며, 이는 상술한 바와 같다. Also, as an example, the base station may include a Metalens artificial intelligence system, and the Metalens artificial intelligence system may perform learning based on a learning model. In this case, the acquired user recognition information may be an input of the learning model, and the control value may be an output of the learning model. As a specific example, the learning model operates based on reinforcement learning, and the reinforcement learning may use state information and reward information as inputs based on the acquired user recognition information and control value. In addition, behavioral information corresponding to the control value may be output, as described above.
또 다른 일 예로, 학습모델은 톰슨 샘플링에 기초하여 동작하고, 톰슨 샘플링은 획득한 사용자 인식 정보 및 제어 값에 기초하여 α 및 β 파라미터를 갖는 보상 정보에 기초하여 학습을 수행할 수 있으며, 이는 상술한 바와 같다.As another example, the learning model operates based on Thomson sampling, and the Thomson sampling may perform learning based on compensation information having α and β parameters based on the acquired user recognition information and control value, which is described above. It's like a bar.
도 29는 본 개시의 일 실시예에 따라 단말의 동작 방법을 나타낸 순서도이다. 도 29를 참조하면, 단말은 기지국으로 사용자 인식 정보를 전송할 수 있다.(S2910) 이때, 단말은 도 28의 제 1 단말일 수 있다. 또한, 일 예로, 단말은 제 1 단말 및 제 2 단말이 함께 구현된 장치일 수 있으며, 특정 형태로 한정되는 것은 아닐 수 있다. 그 후, 단말은 전달된 사용자 인식 정보에 기초하여 기지국에 의해 도출된 제어 값을 수신할 수 있다.(S2920) 이때, 일 예로, 제어 값은 메타렌즈 특성인자에 기초하여 코드북 기반으로 결정될 수 있다. 여기서, 메타렌즈 특성인자는 메타렌즈 요소들 각각에 기초하여 초점 위치 정보, 초점 거리 정보 및 곡률 반경 정보 중 적어도 어느 하나에 기초하여 결정될 수 있다. 또한, 초점 위치 정보, 초점 거리 정보 및 곡률 반경 정보는 양자화에 기초하여 각각의 인덱스로 표현되고, 제어 값은 각각의 인덱스에 기초하여 도출될 수 있으며, 이는 상술한 바와 같다. 또한, 일 예로, 사용자 인식 정보는 사용자 방향 정보, 사용자 거리 정보 및 사용자 상태 정보 중 적어도 어느 하나 이상을 포함할 수 있으며, 이는 상술한 바와 같다. 이때, 일 예로, 제 1 단말은 제 1 단말의 위치 정보를 획득하고, 제 1 단말의 위치 정보를 사용자 인식 정보와 함께 기지국으로 전달할 수 있다. 기지국은 제 1 단말의 위치 정보를 더 고려하여 제어 값을 도출할 수 있으며, 이는 상술한 바와 같다.29 is a flowchart illustrating a method of operating a terminal according to an embodiment of the present disclosure. Referring to FIG. 29 , the terminal may transmit user recognition information to the base station (S2910). At this time, the terminal may be the first terminal of FIG. 28 . Also, as an example, the terminal may be a device in which the first terminal and the second terminal are implemented together, and may not be limited to a specific form. Thereafter, the terminal may receive a control value derived by the base station based on the transmitted user recognition information. (S2920) At this time, as an example, the control value may be determined based on a codebook based on a metalens characteristic factor. . Here, the metalens characteristic factor may be determined based on at least one of focus position information, focal distance information, and curvature radius information based on each of the metalens elements. Also, the focal position information, the focal distance information, and the radius of curvature information are expressed as respective indices based on quantization, and a control value may be derived based on each index, as described above. Also, as an example, the user recognition information may include at least one or more of user direction information, user distance information, and user status information, as described above. At this time, as an example, the first terminal may obtain location information of the first terminal and transmit the location information of the first terminal to the base station together with user recognition information. The base station may derive a control value by further considering the location information of the first terminal, as described above.
또한, 일 예로, 기지국은 메타렌즈 인공지능 시스템을 구비하고, 메타렌즈 인공지능 시스템은 학습모델에 기초하여 학습을 수행할 수 있다. 이때, 획득된 사용자 인식 정보는 학습모델의 입력이고, 제어 값은 학습모델의 출력일 수 있다. 구체적인 일 예로, 학습모델은 강화학습에 기초하여 동작하고, 강화학습은 획득한 사용자 인식 정보 및 제어 값에 기초하여 상태 정보 및 보상 정보를 입력으로 사용할 수 있다. 또한, 제어 값에 대응되는 행동 정보를 출력할 수 있으며, 이는 상술한 바와 같다. Also, as an example, the base station may include a Metalens artificial intelligence system, and the Metalens artificial intelligence system may perform learning based on a learning model. In this case, the acquired user recognition information may be an input of the learning model, and the control value may be an output of the learning model. As a specific example, the learning model operates based on reinforcement learning, and the reinforcement learning may use state information and reward information as inputs based on the acquired user recognition information and control value. In addition, behavioral information corresponding to the control value may be output, as described above.
또 다른 일 예로, 학습모델은 톰슨 샘플링에 기초하여 동작하고, 톰슨 샘플링은 획득한 사용자 인식 정보 및 제어 값에 기초하여 α 및 β 파라미터를 갖는 보상 정보에 기초하여 학습을 수행할 수 있으며, 이는 상술한 바와 같다.As another example, the learning model operates based on Thomson sampling, and the Thomson sampling may perform learning based on compensation information having α and β parameters based on the acquired user recognition information and control value, which is described above. It's like a bar.
상기 설명한 제안 방식에 대한 일례들 또한 본 개시의 구현 방법들 중 하나로 포함될 수 있으므로, 일종의 제안 방식들로 간주될 수 있음은 명백한 사실이다. 또한, 상기 설명한 제안 방식들은 독립적으로 구현될 수도 있지만, 일부 제안 방식들의 조합 (또는 병합) 형태로 구현될 수도 있다. 상기 제안 방법들의 적용 여부 정보 (또는 상기 제안 방법들의 규칙들에 대한 정보)는 기지국이 단말에게 사전에 정의된 시그널 (예: 물리 계층 시그널 또는 상위 계층 시그널)을 통해서 알려주도록 규칙이 정의될 수 가 있다.It is obvious that examples of the proposed schemes described above may also be included as one of the implementation methods of the present disclosure, and thus may be regarded as a kind of proposed schemes. In addition, the above-described proposed schemes may be implemented independently, but may also be implemented in a combination (or merged) form of some proposed schemes. Information on whether the proposed methods are applied (or information on the rules of the proposed methods) may be defined so that the base station informs the terminal through a predefined signal (eg, a physical layer signal or a higher layer signal). there is.
본 개시는 본 개시에서 서술하는 기술적 아이디어 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 개시의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 개시의 등가적 범위 내에서의 모든 변경은 본 개시의 범위에 포함된다. 또한, 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시 예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함할 수 있다.The present disclosure may be embodied in other specific forms without departing from the technical ideas and essential characteristics described in the present disclosure. Accordingly, the above detailed description should not be construed as limiting in all respects and should be considered illustrative. The scope of the present disclosure should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent range of the present disclosure are included in the scope of the present disclosure. In addition, claims that do not have an explicit citation relationship in the claims may be combined to form an embodiment or may be included as new claims by amendment after filing.
본 개시의 실시 예들은 다양한 무선접속 시스템에 적용될 수 있다. 다양한 무선접속 시스템들의 일례로서, 3GPP(3rd Generation Partnership Project) 또는 3GPP2 시스템 등이 있다. Embodiments of the present disclosure may be applied to various wireless access systems. As an example of various wireless access systems, there is a 3rd Generation Partnership Project (3GPP) or 3GPP2 system.
본 개시의 실시 예들은 상기 다양한 무선접속 시스템뿐 아니라, 상기 다양한 무선접속 시스템을 응용한 모든 기술 분야에 적용될 수 있다. 나아가, 제안한 방법은 초고주파 대역을 이용하는 mmWave, THz 통신 시스템에도 적용될 수 있다. Embodiments of the present disclosure may be applied not only to the various wireless access systems, but also to all technical fields to which the various wireless access systems are applied. Furthermore, the proposed method can be applied to mmWave and THz communication systems using ultra-high frequency bands.
추가적으로, 본 개시의 실시예들은 자유 주행 차량, 드론 등 다양한 애플리케이션에도 적용될 수 있다.Additionally, embodiments of the present disclosure may be applied to various applications such as free-running vehicles and drones.

Claims (17)

  1. 무선 통신 시스템에서 기지국 동작 방법에 있어서,In the method of operating a base station in a wireless communication system,
    제 1 단말로부터 사용자 인식 정보를 수신하는 단계;Receiving user identification information from a first terminal;
    상기 획득된 사용자 인식 정보를 이용하여 메타렌즈 특성인자에 기초하여 제어 값을 획득하는 단계; 및obtaining a control value based on a metalens characteristic factor using the obtained user recognition information; and
    상기 획득한 제어 값을 상기 제 1 단말 및 제 2 단말로 전송하는 단계;를 포함하는, 기지국 동작 방법.Transmitting the obtained control value to the first terminal and the second terminal; including, base station operating method.
  2. 제 1 항에 있어서,According to claim 1,
    상기 획득되는 상기 제어 값은 상기 메타렌즈 특성인자에 기초하여 코드북 기반으로 결정되는, 기지국 동작 방법.The obtained control value is determined based on a codebook based on the metalens characteristic factor.
  3. 제 2 항에 있어서,According to claim 2,
    상기 메타렌즈 특성인자는 메타렌즈 요소들 각각에 기초하여 초점 위치 정보, 초점 거리 정보 및 곡률 반경 정보 중 적어도 어느 하나에 기초하여 결정되는, 기지국 동작 방법.The metalens characteristic factor is determined based on at least one of focus position information, focal distance information, and curvature radius information based on each of the metalens elements, base station operating method.
  4. 제 3 항에 있어서,According to claim 3,
    상기 초점 위치 정보, 상기 초점 거리 정보 및 상기 곡률 반경 정보는 양자화에 기초하여 각각의 인덱스로 표현되고,The focal position information, the focal distance information, and the radius of curvature information are expressed as respective indices based on quantization,
    상기 제어 값은 상기 각각의 인덱스에 기초하여 도출되는, 기지국 동작 방법.The control value is derived based on the respective index, the base station operating method.
  5. 제 1 항에 있어서,According to claim 1,
    상기 사용자 인식 정보는 사용자 방향 정보, 사용자 거리 정보 및 사용자 상태 정보 중 적어도 어느 하나 이상을 포함하는, 기지국 동작 방법.The user recognition information includes at least one or more of user direction information, user distance information, and user status information.
  6. 제 5 항에 있어서,According to claim 5,
    상기 제 1 단말은 영상 입력 기능을 구비한 단말이고, 상기 영상 입력 기능에 기초하여 상기 사용자 인식 정보를 획득하는, 기지국 동작 방법.Wherein the first terminal is a terminal having a video input function, and obtains the user recognition information based on the video input function.
  7. 제 6 항에 있어서,According to claim 6,
    상기 제 1 단말은 제 1 단말의 위치 정보를 획득하고, 상기 제 1 단말의 위치 정보를 상기 사용자 인식 정보와 함께 상기 기지국으로 전달하고,The first terminal obtains location information of the first terminal, transmits the location information of the first terminal together with the user recognition information to the base station,
    상기 기지국은 상기 제 1 단말의 위치 정보를 더 고려하여 상기 제어 값을 도출하는, 기지국 동작 방법.wherein the base station derives the control value by further considering location information of the first terminal.
  8. 제 1 항에 있어서,According to claim 1,
    상기 제 2 단말은 영상 출력 기능을 구비한 단말인, 기지국 동작 방법.The second terminal is a terminal having a video output function, the base station operating method.
  9. 제 1 항에 있어서,According to claim 1,
    상기 기지국은 서버 및 엑세스 포인트(access point) 중 적어도 어느 하나의 기능을 포함하는, 기지국 동작 방법.The base station includes at least one function of a server and an access point (access point), base station operating method.
  10. 제 1 항에 있어서,According to claim 1,
    상기 기지국은 메타렌즈 인공지능 시스템을 구비하고,The base station is equipped with a metalens artificial intelligence system,
    상기 메타렌즈 인공지능 시스템은 학습모델에 기초하여 학습을 수행하되, 상기 획득된 사용자 인식 정보는 상기 학습모델의 입력이고, 상기 제어 값은 상기 학습모델의 출력인, 기지국 동작 방법.The metalens artificial intelligence system performs learning based on a learning model, the obtained user recognition information is an input of the learning model, and the control value is an output of the learning model.
  11. 제 10 항에 있어서,According to claim 10,
    상기 학습모델은 강화학습에 기초하여 동작하고,The learning model operates based on reinforcement learning,
    상기 강화학습은 상기 획득한 사용자 인식 정보 및 상기 제어 값에 기초하여 상태 정보 및 보상 정보를 입력으로 사용하고, 상기 제어 값에 대응되는 행동 정보를 출력하는, 기지국 동작 방법.Wherein the reinforcement learning uses state information and reward information as inputs based on the acquired user recognition information and the control value, and outputs behavioral information corresponding to the control value.
  12. 제 10 항에 있어서,According to claim 10,
    상기 학습모델은 톰슨 샘플링에 기초하여 동작하고,The learning model operates based on Thomson sampling,
    상기 톰슨 샘플링은 상기 획득한 사용자 인식 정보 및 상기 제어 값에 기초하여 α 및 β 파라미터를 갖는 보상 정보에 기초하여 학습을 수행하는, 기지국 동작 방법.The Thomson sampling performs learning based on compensation information having α and β parameters based on the acquired user recognition information and the control value.
  13. 무선 통신 시스템에서 단말 동작 방법에 있어서,In a terminal operating method in a wireless communication system,
    기지국으로 사용자 인식 정보를 전송하는 단계; 및Transmitting user identification information to a base station; and
    상기 전달된 사용자 인식 정보에 기초하여 상기 기지국에 의해 도출된 제어 값을 수신하는 단계;를 포함하는, 단말 동작 방법.Receiving a control value derived by the base station based on the transmitted user recognition information; including, a terminal operating method.
  14. 무선 통신 시스템의 기지국에 있어서,In a base station of a wireless communication system,
    송수신기; 및transceiver; and
    상기 송수신기와 연결된 프로세서를 포함하고,A processor connected to the transceiver;
    상기 프로세서는,the processor,
    상기 송수신기를 이용하여 제 1 단말로부터 사용자 인식 정보를 수신하고,Receiving user recognition information from a first terminal using the transceiver;
    상기 획득된 사용자 인식 정보를 이용하여 메타렌즈 특성인자에 기초하여 제어 값을 획득하고, 및Obtaining a control value based on a metalens characteristic factor using the obtained user recognition information, and
    상기 송수신기를 이용하여 상기 획득한 제어 값을 상기 제 1 단말 및 제 2 단말로 전송하는, 기지국.Transmitting the obtained control value to the first terminal and the second terminal using the transceiver, the base station.
  15. 무선 통신 시스템의 단말에 있어서,In the terminal of the wireless communication system,
    송수신기; 및transceiver; and
    상기 송수신기와 연결된 프로세서를 포함하고,A processor connected to the transceiver;
    상기 프로세서는,the processor,
    상기 송수신기를 이용하여 기지국으로 사용자 인식 정보를 전송하고,Transmitting user recognition information to a base station using the transceiver,
    상기 송수신기를 이용하여 상기 전달된 사용자 인식 정보에 기초하여 상기 기지국에 의해 도출된 제어 값을 수신하는, 단말.Receiving a control value derived by the base station based on the transmitted user recognition information using the transceiver.
  16. 적어도 하나의 메모리 및 상기 적어도 하나의 메모리들과 기능적으로 연결되어 있는 적어도 하나의 프로세서를 포함하는 장치에 있어서,An apparatus comprising at least one memory and at least one processor functionally connected to the at least one memory, comprising:
    상기 적어도 하나의 프로세서는 상기 장치가,The at least one processor is the device,
    제 1 단말로부터 사용자 인식 정보를 수신하고,Receiving user recognition information from a first terminal;
    상기 획득된 사용자 인식 정보를 이용하여 메타렌즈 특성인자에 기초하여 제어 값을 획득하고, 및Obtaining a control value based on a metalens characteristic factor using the obtained user recognition information, and
    상기 획득한 제어 값을 상기 제 1 단말 및 제 2 단말로 전송하도록 제어하는, 장치.An apparatus for controlling transmission of the obtained control value to the first terminal and the second terminal.
  17. 적어도 하나의 명령어(instructions)을 저장하는 비-일시적인(non-transitory) 컴퓨터 판독 가능 매체(computer-readable medium)에 있어서, In a non-transitory computer-readable medium storing at least one instruction,
    프로세서에 의해 실행 가능한(executable) 상기 적어도 하나의 명령어를 포함하며,comprising the at least one instruction executable by a processor;
    상기 적어도 하나의 명령어는,The at least one command,
    제 1 단말로부터 사용자 인식 정보를 수신하고,Receiving user recognition information from a first terminal;
    상기 획득된 사용자 인식 정보를 이용하여 메타렌즈 특성인자에 기초하여 제어 값을 획득하고, 및Obtaining a control value based on a metalens characteristic factor using the obtained user recognition information, and
    상기 획득한 제어 값을 상기 제 1 단말 및 제 2 단말로 전송하도록 제어하는, 컴퓨터 판독 가능 매체.A computer readable medium for controlling transmission of the obtained control value to the first terminal and the second terminal.
PCT/KR2021/012704 2021-09-16 2021-09-16 Method and device for transmitting/receiving signal on basis of meta-lens artificial intelligence system in wireless communication system WO2023042937A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/KR2021/012704 WO2023042937A1 (en) 2021-09-16 2021-09-16 Method and device for transmitting/receiving signal on basis of meta-lens artificial intelligence system in wireless communication system
KR1020247001470A KR20240065063A (en) 2021-09-16 2021-09-16 Method and device for transmitting and receiving signals based on metalens artificial intelligence system in a wireless communication system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2021/012704 WO2023042937A1 (en) 2021-09-16 2021-09-16 Method and device for transmitting/receiving signal on basis of meta-lens artificial intelligence system in wireless communication system

Publications (1)

Publication Number Publication Date
WO2023042937A1 true WO2023042937A1 (en) 2023-03-23

Family

ID=85603010

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/012704 WO2023042937A1 (en) 2021-09-16 2021-09-16 Method and device for transmitting/receiving signal on basis of meta-lens artificial intelligence system in wireless communication system

Country Status (2)

Country Link
KR (1) KR20240065063A (en)
WO (1) WO2023042937A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180012874A (en) * 2015-06-25 2018-02-06 인텔 코포레이션 Technology for controlling the visual correction of a wearable computing device
KR101837688B1 (en) * 2011-03-30 2018-04-19 삼성전자주식회사 Digital photographing apparatus, method for controlling the same, and recording medium storing program to implement the method
KR20200069078A (en) * 2018-12-06 2020-06-16 서울과학기술대학교 산학협력단 System and method for generating panorama image
KR20210067469A (en) * 2019-11-29 2021-06-08 삼성전자주식회사 Method and apparatus for transmitting and receiving signal in a wireless communication system
KR102292826B1 (en) * 2020-02-27 2021-08-24 광운대학교 산학협력단 Trifoci metalens element using twofold polarization-selective metasurfaces for linearly polarized visible light

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101837688B1 (en) * 2011-03-30 2018-04-19 삼성전자주식회사 Digital photographing apparatus, method for controlling the same, and recording medium storing program to implement the method
KR20180012874A (en) * 2015-06-25 2018-02-06 인텔 코포레이션 Technology for controlling the visual correction of a wearable computing device
KR20200069078A (en) * 2018-12-06 2020-06-16 서울과학기술대학교 산학협력단 System and method for generating panorama image
KR20210067469A (en) * 2019-11-29 2021-06-08 삼성전자주식회사 Method and apparatus for transmitting and receiving signal in a wireless communication system
KR102292826B1 (en) * 2020-02-27 2021-08-24 광운대학교 산학협력단 Trifoci metalens element using twofold polarization-selective metasurfaces for linearly polarized visible light

Also Published As

Publication number Publication date
KR20240065063A (en) 2024-05-14

Similar Documents

Publication Publication Date Title
WO2022039295A1 (en) Method for preprocessing downlink in wireless communication system and apparatus therefor
WO2022250221A1 (en) Method and device for transmitting signal in wireless communication system
WO2022050468A1 (en) Method for performing federated learning in wireless communication system, and apparatus therefor
WO2022092859A1 (en) Method and device for adjusting split point in wireless communication system
WO2022139230A1 (en) Method and device for adjusting split point in wireless communication system
WO2023042937A1 (en) Method and device for transmitting/receiving signal on basis of meta-lens artificial intelligence system in wireless communication system
WO2022050565A1 (en) Apparatus and method for handover in wireless communication system
WO2022050444A1 (en) Communication method for federated learning and device for performing same
WO2022039302A1 (en) Method for controlling calculations of deep neural network in wireless communication system, and apparatus therefor
WO2023013857A1 (en) Method and device for performing data learning in wireless communication system
WO2023042938A1 (en) Method and device for transmitting signal through reflection plate in wireless communication system
WO2023113282A1 (en) Apparatus and method for performing online learning of transceiver model in wireless communication system
WO2022260189A1 (en) Method and device for transmitting and receiving signal in wireless communication system
WO2024122667A1 (en) Apparatus and method for performing training for ensemble model-based receiver in wireless communication system
WO2023277218A1 (en) Method and device for transmitting signal through reflecting plate in wireless communication system
WO2022119424A1 (en) Device and method for transmitting signal in wireless communication system
WO2023120781A1 (en) Apparatus and method for signal transmission in wireless communication system
WO2024019184A1 (en) Apparatus and method for performing training for transceiver model in wireless communication system
WO2023022251A1 (en) Method and apparatus for transmitting signal in wireless communication system
WO2022092905A1 (en) Apparatus and method for signal transmission in wireless communication system
WO2024117296A1 (en) Method and apparatus for transmitting and receiving signals in wireless communication system by using transceiver having adjustable parameters
WO2024034707A1 (en) Device and method for performing online training with respect to receiver model in wireless communication system
WO2022231084A1 (en) Method and device for transmitting signal in wireless communication system
WO2023090738A1 (en) Method for performing federated learning in wireless communication system, and apparatus therefor
WO2023008614A1 (en) Method and device for transmitting signal through spatial phase-shift beam in wireless communication system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21957605

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE