WO2022075499A1 - 무선 통신 시스템에서 단말이 v2x 통신을 보호하기 위한 방법 - Google Patents

무선 통신 시스템에서 단말이 v2x 통신을 보호하기 위한 방법 Download PDF

Info

Publication number
WO2022075499A1
WO2022075499A1 PCT/KR2020/013606 KR2020013606W WO2022075499A1 WO 2022075499 A1 WO2022075499 A1 WO 2022075499A1 KR 2020013606 W KR2020013606 W KR 2020013606W WO 2022075499 A1 WO2022075499 A1 WO 2022075499A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
terminal
data
network
communication
Prior art date
Application number
PCT/KR2020/013606
Other languages
English (en)
French (fr)
Inventor
김준웅
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to PCT/KR2020/013606 priority Critical patent/WO2022075499A1/ko
Publication of WO2022075499A1 publication Critical patent/WO2022075499A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/12Detection or prevention of fraud
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]

Definitions

  • the present specification is a method for a terminal to protect V2X communication based on a user input in a wireless communication system.
  • a wireless communication system is a multiple access system that can support communication with multiple users by sharing available system resources (bandwidth, transmission power, etc.).
  • Examples of the multiple access system include a code division multiple access (CDMA) system, a frequency division multiple access (FDMA) system, a time division multiple access (TDMA) system, an orthogonal frequency division multiple access (OFDMA) system, and a single carrier frequency (SC-FDMA) system.
  • CDMA code division multiple access
  • FDMA frequency division multiple access
  • TDMA time division multiple access
  • OFDMA orthogonal frequency division multiple access
  • SC-FDMA single carrier frequency
  • M2M machine-to-machine
  • Various devices and technologies such as smartphones and tablet PCs, which require machine-to-machine (M2M) communication and high data transfer rates, are emerging and disseminated. Accordingly, the amount of data required to be processed in a cellular network is increasing very rapidly.
  • carrier aggregation technology, cognitive radio technology, etc. to efficiently use more frequency bands, increase the data capacity transmitted within a limited frequency.
  • multi-antenna technology, multi-base station cooperation technology, etc. are developing.
  • an automobile may be classified into an internal combustion engine automobile, an external combustion engine automobile, a gas turbine automobile, an electric vehicle, or the like, depending on the type of the prime mover used. .
  • Autonomous vehicle refers to a vehicle that can operate on its own without driver or passenger manipulation.
  • An object of the present specification is to propose a method for a terminal to distinguish a fake message by a fake V2X UE on the road using a user interface.
  • an object of the present specification is to propose a method of suppressing the occurrence of misjudgment road congestion based on false information caused by a fake message and preventing a sudden stop situation.
  • the first terminal comprising: receiving, respectively, a message from a plurality of terminals; determining information on the number of terminals around the first terminal based on the plurality of messages; collecting sensor data of the first terminal; determining whether there is an attack situation based on the number of terminals information and the sensor data; and displaying information on the number of terminals and information on whether an attack situation exists through a display provided in the first terminal.
  • the information regarding whether the attack situation is present may be characterized in that it is information indicating reliability as a grade.
  • the information on whether the attack situation may include a warning message indicating that an abnormal vehicle distribution has been detected.
  • the method may further include stopping the autonomous driving of the first terminal when it is determined that there is an attack situation.
  • the method may further include, before stopping the autonomous driving, displaying a warning message indicating that the autonomous driving is terminated due to a low reliability of the V2X message through the display of the first terminal.
  • the sensor data may include an image captured by the camera of the first terminal.
  • the sensor data may include data collected by a proximity sensor of the first terminal.
  • the sensor data may include sensor data collected by the remaining terminals around the first terminal and received by the first terminal.
  • the step of determining whether the attack situation is the step of learning the relationship between the sensor data and the number of peripheral terminals in at least one section of the path moved by the first terminal, and based on the learning result and determining whether the first terminal is currently in an attack situation in a moving section.
  • FIG 1 shows an AI device according to an embodiment of the present specification.
  • FIG 2 shows an AI server according to an embodiment of the present specification.
  • FIG 3 shows an AI system according to an embodiment of the present specification.
  • EPS Evolved Packet System
  • EPC Evolved Packet Core
  • E-UTRAN evolved universal terrestrial radio access network
  • FIG. 6 is a diagram illustrating an architecture of a general NR-RAN.
  • FIG. 8 shows a wireless communication device according to an embodiment of the present invention.
  • FIG. 9 illustrates a block diagram of a network node according to an embodiment of the present invention.
  • FIG. 10 illustrates a block diagram of a communication device according to an embodiment of the present invention.
  • FIG. 11 is a block diagram showing the configuration of the terminal shown in FIG. 10 in more detail.
  • FIG. 12 is a detailed block diagram illustrating the transceiver 1031 of the wireless device shown in FIG.
  • FIG. 13 is an exemplary diagram showing the structure of a radio interface protocol (Radio Interface Protocol) in the control plane between the UE and the eNodeB.
  • Radio Interface Protocol Radio Interface Protocol
  • V2X 15 is an exemplary diagram illustrating the concept of V2X.
  • 16 is an exemplary diagram illustrating a configuration of a communication device installed in a vehicle for V2X communication.
  • FIG. 17 shows an example in which the communication device shown in FIG. 10 is mounted on a vehicle for V2X communication.
  • FIG. 20 illustrates an example of a first terminal UE1 driving on a road according to an embodiment of the present specification.
  • 21 illustrates a case of predicting vehicle distribution on a road by receiving the vehicle's periodic driving information V2X message.
  • FIG. 22 illustrates a process of uploading the surrounding vehicle distribution data measured by vehicles to the RSU.
  • FIG. 23 shows a collection of V2X UE's surrounding vehicle data report and RSU and a query process through the server.
  • FIG. 24 is a flowchart illustrating a V2X communication protection method according to an embodiment of the present specification.
  • 25 is a screen displaying the vehicle distribution and reliability shown based on the number of vehicles estimated by the V2X UE and the V2X message.
  • 26 shows a screen informing the RSU of checking the number of vehicles and the possibility of inconsistency of the V2X message.
  • FIG. 27 shows a screen for receiving a user confirmation whether to stop the V2X service according to the Sybil attack alarm of the RSU.
  • Embodiments of the present specification may be supported by standard documents disclosed in at least one of the IEEE 802.xx system, the 3GPP system, the 3GPP LTE system, and the 3GPP2 system, which are wireless access systems. That is, obvious steps or parts not described in the embodiments of the present specification may be described with reference to the above documents.
  • 3GPP TS 36.211, 3GPP TS 36.213, 3GPP TS 36.321, 3GPP TS 36.322, 3GPP TS 36.323, 3GPP TS 36.331, 3GPP TS 23.203, 3GPP TS 23.401, 3GPP TS 24.228, 3GPP TS 23.228, 3GPP TS 23.228 , 3GPP TS 23.218, 3GPP TS 22.011, 3GPP TS 36.413 may be incorporated by one or more of the standard documents.
  • the base station has a meaning as a terminal node of a network that directly communicates with the terminal.
  • a specific operation described as being performed by the base station in this document may be performed by an upper node of the base station in some cases. That is, it is obvious that various operations performed for communication with the terminal in a network including a plurality of network nodes including the base station may be performed by the base station or other network nodes other than the base station.
  • BS Base Station
  • BS Base Station
  • BS Base Station
  • eNB evolved-NodeB
  • BTS base transceiver system
  • AP Access Point
  • gNB General NB
  • 'terminal' may be fixed or have mobility, and UE (User Equipment), MS (Mobile Station), UT (user terminal), MSS (Mobile Subscriber Station), SS (Subscriber Station), AMS ( Advanced Mobile Station), a wireless terminal (WT), a machine-type communication (MTC) device, a machine-to-machine (M2M) device, a device-to-device (D2D) device, and the like.
  • UE User Equipment
  • MS Mobile Station
  • UT user terminal
  • MSS Mobile Subscriber Station
  • SS Subscriber Station
  • AMS Advanced Mobile Station
  • WT wireless terminal
  • MTC machine-type communication
  • M2M machine-to-machine
  • D2D device-to-device
  • downlink means communication from a base station to a terminal
  • uplink means communication from a terminal to a base station.
  • the transmitter may be a part of the base station, and the receiver may be a part of the terminal.
  • the transmitter may be a part of the terminal, and the receiver may be a part of the base station.
  • 3GPP LTE/LTE-A/NR New Radio
  • the three main requirements areas for 5G are (1) Enhanced Mobile Broadband (eMBB) area, (2) Massive Machine Type Communication (mMTC) area and (3) Ultra-reliable and It includes an Ultra-reliable and Low Latency Communications (URLLC) area.
  • eMBB Enhanced Mobile Broadband
  • mMTC Massive Machine Type Communication
  • URLLC Ultra-reliable and Low Latency Communications
  • KPI key performance indicator
  • eMBB goes far beyond basic mobile Internet access, covering rich interactive work, media and entertainment applications in the cloud or augmented reality.
  • Data is one of the key drivers of 5G, and for the first time in the 5G era, we may not see dedicated voice services.
  • voice is simply expected to be processed as an application using the data connection provided by the communication system.
  • the main causes for increased traffic volume are an increase in content size and an increase in the number of applications requiring high data rates.
  • Streaming services audio and video
  • interactive video and mobile Internet connections will become more widely used as more devices connect to the Internet. Many of these applications require always-on connectivity to push real-time information and notifications to users.
  • Cloud storage and applications are rapidly increasing in mobile communication platforms, which can be applied to both work and entertainment.
  • cloud storage is a special use case that drives the growth of uplink data rates.
  • 5G is also used for remote work in the cloud, requiring much lower end-to-end latency to maintain a good user experience when tactile interfaces are used.
  • Entertainment For example, cloud gaming and video streaming are other key factors that increase the demand for mobile broadband capabilities. Entertainment is essential on smartphones and tablets anywhere, including in high-mobility environments such as trains, cars and airplanes.
  • Another use example is augmented reality for entertainment and information retrieval.
  • augmented reality requires very low latency and instantaneous amount of data.
  • URLLC includes new services that will transform industries through ultra-reliable/low-latency links that allow for remote control of critical infrastructure and self-driving vehicles, such as self-driving vehicles. This level of reliability and latency is essential for smart grid control, industrial automation, robotics, and drone control and coordination.
  • 5G could complement fiber-to-the-home (FTTH) and cable-based broadband (or DOCSIS) as a means of delivering streams rated from hundreds of megabits per second to gigabits per second. This high speed is required to deliver TVs in resolutions of 4K and higher (6K, 8K and higher), as well as virtual and augmented reality.
  • Virtual Reality (VR) and Augmented Reality (AR) applications almost include immersive sporting events. Certain applications may require special network settings. For VR games, for example, game companies may need to integrate core servers with network operators' edge network servers to minimize latency.
  • Automotive is expected to be an important new driving force for 5G with many use cases for mobile communication to vehicles. For example, entertainment for passengers requires simultaneous high capacity and high mobility mobile broadband. The reason is that future users continue to expect high-quality connections regardless of their location and speed.
  • Another use case in the automotive sector is augmented reality dashboards. It identifies objects in the dark and overlays information that tells the driver about the distance and movement of the object over what the driver is seeing through the front window.
  • wireless modules will allow for communication between vehicles, the exchange of information between the vehicle and the supporting infrastructure, and the exchange of information between the automobile and other connected devices (eg, devices carried by pedestrians).
  • Safety systems can help drivers lower the risk of accidents by guiding alternative courses of action to help them drive safer.
  • the next step will be remote-controlled or self-driven vehicles.
  • This requires very reliable and very fast communication between different self-driving vehicles and between vehicles and infrastructure.
  • self-driving vehicles will perform all driving activities, allowing drivers to focus only on traffic anomalies that the vehicle itself cannot discern.
  • the technological requirements of self-driving vehicles demand ultra-low latency and ultra-fast reliability to increase traffic safety to unattainable levels for humans.
  • Smart cities and smart homes referred to as smart societies, will be embedded with high-density wireless sensor networks.
  • a distributed network of intelligent sensors will identify conditions for cost and energy-efficient maintenance of a city or house.
  • a similar setup can be performed for each household.
  • Temperature sensors, window and heating controllers, burglar alarms and appliances are all connected wirelessly. Many of these sensors are typically low data rates, low power and low cost. However, for example, real-time HD video may be required in certain types of devices for surveillance.
  • Smart grids use digital information and communication technologies to interconnect these sensors to gather information and act on it. This information can include supplier and consumer behavior, enabling smart grids to improve efficiency, reliability, economics, sustainability of production and distribution of fuels such as electricity in an automated manner.
  • the smart grid can also be viewed as another low-latency sensor network.
  • the health sector has many applications that can benefit from mobile communications.
  • the communication system may support telemedicine providing clinical care from a remote location. This can help reduce barriers to distance and improve access to consistently unavailable health care services in remote rural areas. It is also used to save lives in critical care and emergency situations.
  • a wireless sensor network based on mobile communication may provide remote monitoring and sensors for parameters such as heart rate and blood pressure.
  • Wireless and mobile communications are becoming increasingly important in industrial applications. Wiring is expensive to install and maintain. Thus, the tolerance for replacement of cables with reconfigurable wireless links is an attractive opportunity for many industries. Achieving this, however, requires that the wireless connection operate with cable-like delay, reliability and capacity, and that its management be simplified. Low latency and very low error probability are new requirements that need to be connected with 5G.
  • Logistics and freight tracking are important use cases for mobile communications that use location-based information systems to allow tracking of inventory and packages from anywhere.
  • Logistics and freight tracking use cases typically require low data rates but require wide range and reliable location information.
  • Machine learning refers to a field that defines various problems dealt with in the field of artificial intelligence and studies methodologies to solve them. do.
  • Machine learning is also defined as an algorithm that improves the performance of a certain task through constant experience.
  • An artificial neural network is a model used in machine learning, and may refer to an overall model having problem-solving ability, which is composed of artificial neurons (nodes) that form a network by combining synapses.
  • An artificial neural network may be defined by a connection pattern between neurons of different layers, a learning process that updates model parameters, and an activation function that generates an output value.
  • the artificial neural network may include an input layer, an output layer, and optionally one or more hidden layers. Each layer includes one or more neurons, and the artificial neural network may include neurons and synapses connecting neurons. In the artificial neural network, each neuron may output a function value of an activation function for input signals, weights, and biases input through synapses.
  • Model parameters refer to parameters determined through learning, and include the weight of synaptic connections and the bias of neurons.
  • the hyperparameter refers to a parameter that must be set before learning in a machine learning algorithm, and includes a learning rate, the number of iterations, a mini-batch size, an initialization function, and the like.
  • the purpose of learning the artificial neural network can be seen as determining the model parameters that minimize the loss function.
  • the loss function may be used as an index for determining optimal model parameters in the learning process of the artificial neural network.
  • Machine learning can be classified into supervised learning, unsupervised learning, and reinforcement learning according to a learning method.
  • Supervised learning refers to a method of training an artificial neural network in a state where a label for the training data is given, and the label is the correct answer (or result value) that the artificial neural network should infer when the training data is input to the artificial neural network.
  • Unsupervised learning may refer to a method of training an artificial neural network in a state where no labels are given for training data.
  • Reinforcement learning can refer to a learning method in which an agent defined in an environment learns to select an action or sequence of actions that maximizes the cumulative reward in each state.
  • machine learning implemented as a deep neural network (DNN) including a plurality of hidden layers is also called deep learning (deep learning), and deep learning is a part of machine learning.
  • DNN deep neural network
  • deep learning deep learning
  • machine learning is used in a sense including deep learning.
  • a robot can mean a machine that automatically handles or operates a task given by its own capabilities.
  • a robot having a function of recognizing an environment and performing an operation by self-judgment may be referred to as an intelligent robot.
  • Robots can be classified into industrial, medical, home, military, etc. depending on the purpose or field of use.
  • the robot may be provided with a driving unit including an actuator or a motor to perform various physical operations such as moving the robot joints.
  • the moving robot includes a wheel, a brake, a propeller, etc. in the driving unit, and can travel on the ground or fly in the air through the driving unit.
  • Autonomous driving refers to a technology that drives itself, and an autonomous driving vehicle refers to a vehicle that travels without or with minimal manipulation of a user.
  • autonomous driving includes technology for maintaining a driving lane, technology for automatically adjusting speed such as adaptive cruise control, technology for automatically driving along a predetermined route, technology for automatically setting a route when a destination is set, etc. All of these can be included.
  • the vehicle includes a vehicle having only an internal combustion engine, a hybrid vehicle having both an internal combustion engine and an electric motor, and an electric vehicle having only an electric motor, and may include not only automobiles, but also trains, motorcycles, and the like.
  • the autonomous vehicle can be viewed as a robot having an autonomous driving function.
  • the extended reality is a generic term for virtual reality (VR), augmented reality (AR), and mixed reality (MR).
  • VR technology provides only CG images of objects or backgrounds in the real world
  • AR technology provides virtual CG images on top of images of real objects
  • MR technology is a computer that mixes and combines virtual objects in the real world. graphic technology.
  • MR technology is similar to AR technology in that it shows both real and virtual objects. However, there is a difference in that in AR technology, a virtual object is used in a form that complements a real object, whereas in MR technology, a virtual object and a real object are used with equal characteristics.
  • HMD Head-Mount Display
  • HUD Head-Up Display
  • mobile phone tablet PC, laptop, desktop, TV, digital signage, etc.
  • FIG 1 shows an AI device 100 according to an embodiment of the present specification.
  • AI device 100 is TV, projector, mobile phone, smart phone, desktop computer, notebook computer, digital broadcasting terminal, PDA (personal digital assistants), PMP (portable multimedia player), navigation, tablet PC, wearable device, set-top box (STB) ), a DMB receiver, a radio, a washing machine, a refrigerator, a desktop computer, a digital signage, a robot, a vehicle, etc., may be implemented as a fixed device or a device allowing movement.
  • the terminal 100 includes a communication unit 110 , an input unit 120 , a learning processor 130 , a sensing unit 140 , an output unit 150 , a memory 170 and a processor 180 , etc. may include
  • the communication unit 110 may transmit/receive data to and from external devices such as other AI devices 100a to 100e or the AI server 200 using wired/wireless communication technology.
  • the communication unit 110 may transmit and receive sensor information, a user input, a learning model, a control signal, and the like with external devices.
  • the communication technology used by the communication unit 110 includes GSM (Global System for Mobile communication), CDMA (Code Division Multi Access), LTE (Long Term Evolution), 5G, WLAN (Wireless LAN), Wi-Fi (Wireless-Fidelity) ), Bluetooth, RFID (Radio Frequency Identification), Infrared Data Association (IrDA), ZigBee, NFC (Near Field Communication), and the like.
  • GSM Global System for Mobile communication
  • CDMA Code Division Multi Access
  • LTE Long Term Evolution
  • 5G Fifth Generation
  • WLAN Wireless LAN
  • Wi-Fi Wireless-Fidelity
  • Bluetooth Bluetooth
  • RFID Radio Frequency Identification
  • IrDA Infrared Data Association
  • ZigBee ZigBee
  • NFC Near Field Communication
  • the input unit 120 may acquire various types of data.
  • the input unit 120 may include a camera for inputting an image signal, a microphone for receiving an audio signal, a user input unit for receiving information from a user, and the like.
  • a signal obtained from the camera or the microphone may be referred to as sensing data or sensor information.
  • the input unit 120 may acquire training data for model training and input data to be used when acquiring an output using the training model.
  • the input unit 120 may acquire raw input data, and in this case, the processor 180 or the learning processor 130 may extract an input feature by preprocessing the input data.
  • the learning processor 130 may train a model composed of an artificial neural network by using the training data.
  • the learned artificial neural network may be referred to as a learning model.
  • the learning model may be used to infer a result value with respect to new input data other than the training data, and the inferred value may be used as a basis for a decision to perform a certain operation.
  • the learning processor 130 may perform AI processing together with the learning processor 240 of the AI server 200 .
  • the learning processor 130 may include a memory integrated or implemented in the AI device 100 .
  • the learning processor 130 may be implemented using the memory 170 , an external memory directly coupled to the AI device 100 , or a memory maintained in an external device.
  • the sensing unit 140 may acquire at least one of internal information of the AI device 100 , information about the surrounding environment of the AI device 100 , and user information by using various sensors.
  • sensors included in the sensing unit 140 include a proximity sensor, an illuminance sensor, an acceleration sensor, a magnetic sensor, a gyro sensor, an inertial sensor, an RGB sensor, an IR sensor, a fingerprint recognition sensor, an ultrasonic sensor, an optical sensor, a microphone, and a lidar. , radar, etc.
  • the output unit 150 may generate an output related to sight, hearing, or touch.
  • the output unit 150 may include a display unit that outputs visual information, a speaker that outputs auditory information, and a haptic module that outputs tactile information.
  • the memory 170 may store data supporting various functions of the AI device 100 .
  • the memory 170 may store input data obtained from the input unit 120 , learning data, a learning model, a learning history, and the like.
  • the processor 180 may determine at least one execution permitted operation of the AI device 100 based on information determined or generated using a data analysis algorithm or a machine learning algorithm. In addition, the processor 180 may control the components of the AI device 100 to perform the determined operation.
  • the processor 180 may request, search, receive, or utilize the data of the learning processor 130 or the memory 170, and is an operation that is predicted or preferred among the at least one execution permitted operation. It is possible to control the components of the AI device 100 to execute.
  • the processor 180 may generate a control signal for controlling the corresponding external device and transmit the generated control signal to the corresponding external device.
  • the processor 180 may obtain intention information with respect to a user input, and determine a user's requirement based on the obtained intention information.
  • the processor 180 uses at least one of a speech to text (STT) engine for converting a voice input into a character string or a natural language processing (NLP) engine for obtaining intention information of a natural language, Intention information corresponding to the input may be obtained.
  • STT speech to text
  • NLP natural language processing
  • At least one of the STT engine and the NLP engine may be configured as an artificial neural network, at least a part of which is learned according to a machine learning algorithm. And, at least one or more of the STT engine or the NLP engine is learned by the learning processor 130, or learned by the learning processor 240 of the AI server 200, or learned by distributed processing thereof. it could be
  • the processor 180 collects history information including user feedback on the operation contents or operation of the AI device 100 and stores it in the memory 170 or the learning processor 130, or the AI server 200 It can be transmitted to an external device.
  • the collected historical information may be used to update the learning model.
  • the processor 180 may control at least some of the components of the AI device 100 in order to drive an application program stored in the memory 170 . Furthermore, in order to drive the application program, the processor 180 may operate two or more of the components included in the AI device 100 in combination with each other.
  • FIG 2 shows an AI server 200 according to an embodiment of the present specification.
  • the AI server 200 may refer to a device that trains an artificial neural network using a machine learning algorithm or uses a learned artificial neural network.
  • the AI server 200 may be configured with a plurality of servers to perform distributed processing, and may be defined as a 5G network.
  • the AI server 200 may be included as a part of the AI device 100 to perform at least a part of AI processing together.
  • the AI server 200 may include a communication unit 210 , a memory 230 , a learning processor 240 , and a processor 260 .
  • the communication unit 210 may transmit/receive data to and from an external device such as the AI device 100 .
  • the memory 230 may include a model storage unit 231 .
  • the model storage unit 231 may store a model (or artificial neural network, 231a) being trained or learned through the learning processor 240 .
  • the learning processor 240 may train the artificial neural network 231a using the training data.
  • the learning model may be used while being mounted on the AI server 200 of the artificial neural network, or may be used while being mounted on an external device such as the AI device 100 .
  • the learning model may be implemented in hardware, software, or a combination of hardware and software.
  • one or more instructions constituting the learning model may be stored in the memory 230 .
  • the processor 260 may infer a result value with respect to new input data using the learning model, and may generate a response or a control command based on the inferred result value.
  • FIG 3 shows an AI system 1 according to an embodiment of the present specification.
  • the AI system 1 includes at least one of an AI server 200 , a robot 100a , an autonomous vehicle 100b , an XR device 100c , a smart phone 100d , or a home appliance 100e . It is connected to the cloud network 10 .
  • the robot 100a to which the AI technology is applied, the autonomous driving vehicle 100b, the XR device 100c, the smart phone 100d, or the home appliance 100e may be referred to as AI devices 100a to 100e.
  • the cloud network 10 may constitute a part of the cloud computing infrastructure or may refer to a network existing in the cloud computing infrastructure.
  • the cloud network 10 may be configured using a 3G network, a 4G or Long Term Evolution (LTE) network, or a 5G network.
  • LTE Long Term Evolution
  • each of the devices 100a to 100e and 200 constituting the AI system 1 may be connected to each other through the cloud network 10 .
  • each of the devices 100a to 100e and 200 may communicate with each other through the base station, but may also directly communicate with each other without passing through the base station.
  • the AI server 200 may include a server performing AI processing and a server performing an operation on big data.
  • the AI server 200 includes at least one of the AI devices constituting the AI system 1, such as a robot 100a, an autonomous vehicle 100b, an XR device 100c, a smartphone 100d, or a home appliance 100e, and It is connected through the cloud network 10 and may help at least a part of AI processing of the connected AI devices 100a to 100e.
  • the AI devices constituting the AI system such as a robot 100a, an autonomous vehicle 100b, an XR device 100c, a smartphone 100d, or a home appliance 100e.
  • the AI server 200 may train an artificial neural network according to a machine learning algorithm on behalf of the AI devices 100a to 100e, and directly store the learning model or transmit it to the AI devices 100a to 100e.
  • the AI server 200 receives input data from the AI devices 100a to 100e, infers a result value with respect to the input data received using the learning model, and provides a response or control command based on the inferred result value. It can be generated and transmitted to the AI devices 100a to 100e.
  • the AI devices 100a to 100e may infer a result value with respect to input data using a direct learning model, and generate a response or a control command based on the inferred result value.
  • the AI devices 100a to 100e to which the above-described technology is applied will be described.
  • the AI devices 100a to 100e shown in FIG. 3 can be viewed as specific examples of the AI device 100 shown in FIG. 1 .
  • the robot 100a may be implemented as a guide robot, a transport robot, a cleaning robot, a wearable robot, an entertainment robot, a pet robot, an unmanned flying robot, etc. to which AI technology is applied.
  • the robot 100a may include a robot control module for controlling an operation, and the robot control module may mean a software module or a chip implemented as hardware.
  • the robot 100a acquires state information of the robot 100a by using sensor information obtained from various types of sensors, detects (recognizes) surrounding environments and objects, generates map data, moves path and travels A plan may be determined, a response to a user interaction may be determined, or an action may be determined.
  • the robot 100a may use sensor information obtained from at least one sensor among LiDAR, radar, and camera in order to determine a movement route and a travel plan.
  • the robot 100a may perform the above-described operations using a learning model composed of at least one artificial neural network.
  • the robot 100a may recognize a surrounding environment and an object using a learning model, and may determine an operation using the recognized surrounding environment information or object information.
  • the learning model may be directly learned from the robot 100a or learned from an external device such as the AI server 200 .
  • the robot 100a may perform an operation by generating a result using a direct learning model, but transmits sensor information to an external device such as the AI server 200 and receives the result generated accordingly to perform the operation You may.
  • the robot 100a determines a movement path and travel plan using at least one of map data, object information detected from sensor information, or object information obtained from an external device, and controls the driving unit to apply the determined movement path and travel plan. Accordingly, the robot 100a may be driven.
  • the map data may include object identification information for various objects disposed in a space in which the robot 100a moves.
  • the map data may include object identification information for fixed objects such as walls and doors and objects that are allowed to move, such as flowerpots and desks.
  • the object identification information may include a name, a type, a distance, a location, and the like.
  • the robot 100a may perform an operation or drive by controlling the driving unit based on the user's control/interaction.
  • the robot 100a may acquire intention information of an interaction according to a user's motion or voice utterance, determine a response based on the acquired intention information, and perform the operation.
  • the autonomous driving vehicle 100b may be implemented as a mobile robot, a vehicle, an unmanned aerial vehicle, etc. by applying AI technology.
  • the autonomous driving vehicle 100b may include an autonomous driving control module for controlling an autonomous driving function, and the autonomous driving control module may mean a software module or a chip implemented as hardware.
  • the autonomous driving control module may be included as a component of the autonomous driving vehicle 100b, or may be configured and connected to the outside of the autonomous driving vehicle 100b as separate hardware.
  • the autonomous vehicle 100b obtains state information of the autonomous vehicle 100b using sensor information obtained from various types of sensors, detects (recognizes) surrounding environments and objects, generates map data, A movement route and a driving plan may be determined, or an operation may be determined.
  • the autonomous driving vehicle 100b may use sensor information obtained from at least one sensor among a lidar, a radar, and a camera, similarly to the robot 100a, in order to determine a moving route and a driving plan.
  • the autonomous vehicle 100b may receive sensor information from external devices to recognize an environment or object for an area where the field of view is obscured or an area over a certain distance, or receive information recognized directly from external devices. .
  • the autonomous vehicle 100b may perform the above-described operations by using a learning model composed of at least one artificial neural network.
  • the autonomous driving vehicle 100b may recognize a surrounding environment and an object using a learning model, and may determine a driving route using the recognized surrounding environment information or object information.
  • the learning model may be directly learned from the autonomous vehicle 100b or learned from an external device such as the AI server 200 .
  • the autonomous vehicle 100b may generate a result by using the direct learning model and perform the operation, but it operates by transmitting sensor information to an external device such as the AI server 200 and receiving the result generated accordingly. can also be performed.
  • the autonomous vehicle 100b uses at least one of map data, object information detected from sensor information, or object information obtained from an external device to determine a movement path and a driving plan, and controls the driving unit to determine the movement path and driving
  • the autonomous vehicle 100b may be driven according to a plan.
  • the map data may include object identification information for various objects disposed in a space (eg, a road) in which the autonomous vehicle 100b travels.
  • the map data may include object identification information for fixed objects such as street lights, rocks, and buildings, and objects that are allowed to move, such as vehicles and pedestrians.
  • the object identification information may include a name, a type, a distance, a location, and the like.
  • the autonomous vehicle 100b may perform an operation or drive by controlling the driving unit based on the user's control/interaction.
  • the autonomous vehicle 100b may acquire intention information of an interaction according to a user's motion or voice utterance, determine a response based on the obtained intention information, and perform the operation.
  • the XR device 100c is AI technology applied, so a head-mount display (HMD), a head-up display (HUD) provided in a vehicle, a television, a mobile phone, a smart phone, a computer, a wearable device, a home appliance, and a digital signage , a vehicle, a stationary robot, or a mobile robot.
  • HMD head-mount display
  • HUD head-up display
  • the XR device 100c analyzes 3D point cloud data or image data acquired through various sensors or from an external device to generate location data and attribute data for 3D points, thereby providing information on surrounding space or real objects. It can be obtained and output by rendering the XR object to be output. For example, the XR apparatus 100c may output an XR object including additional information on the recognized object to correspond to the recognized object.
  • the XR apparatus 100c may perform the above-described operations using a learning model composed of at least one artificial neural network.
  • the XR apparatus 100c may recognize a real object from 3D point cloud data or image data using a learning model, and may provide information corresponding to the recognized real object.
  • the learning model may be directly learned from the XR device 100c or learned from an external device such as the AI server 200 .
  • the XR device 100c may perform an operation by generating a result using the direct learning model, but it transmits sensor information to an external device such as the AI server 200 and receives the result generated accordingly to perform the operation. can also be done
  • the robot 100a may be implemented as a guide robot, a transport robot, a cleaning robot, a wearable robot, an entertainment robot, a pet robot, an unmanned flying robot, etc. to which AI technology and autonomous driving technology are applied.
  • the robot 100a to which AI technology and autonomous driving technology are applied may mean a robot having an autonomous driving function or a robot 100a that interacts with the autonomous driving vehicle 100b.
  • the robot 100a having an autonomous driving function may collectively refer to devices that move by themselves according to a given movement line without user's control or by determining a movement line by themselves.
  • the robot 100a with the autonomous driving function and the autonomous driving vehicle 100b may use a common sensing method to determine one or more of a moving route or a driving plan.
  • the robot 100a having an autonomous driving function and the autonomous driving vehicle 100b may determine one or more of a movement route or a driving plan by using information sensed through lidar, radar, and camera.
  • the robot 100a interacting with the autonomous driving vehicle 100b exists separately from the autonomous driving vehicle 100b and is linked to an autonomous driving function inside or outside the autonomous driving vehicle 100b, or the autonomous driving vehicle 100b ) can perform an operation associated with the user on board.
  • the robot 100a interacting with the autonomous driving vehicle 100b acquires sensor information on behalf of the autonomous driving vehicle 100b and provides it to the autonomous driving vehicle 100b, or obtains sensor information and obtains information about the surrounding environment or By generating object information and providing it to the autonomous driving vehicle 100b, the autonomous driving function of the autonomous driving vehicle 100b may be controlled or supported.
  • the robot 100a interacting with the autonomous driving vehicle 100b may monitor a user riding in the autonomous driving vehicle 100b or control a function of the autonomous driving vehicle 100b through interaction with the user. .
  • the robot 100a may activate an autonomous driving function of the autonomous driving vehicle 100b or assist in controlling a driving unit of the autonomous driving vehicle 100b.
  • the function of the autonomous driving vehicle 100b controlled by the robot 100a may include not only an autonomous driving function, but also a function provided by a navigation system or an audio system provided in the autonomous driving vehicle 100b.
  • the robot 100a interacting with the autonomous driving vehicle 100b may provide information or assist a function to the autonomous driving vehicle 100b from the outside of the autonomous driving vehicle 100b.
  • the robot 100a may provide traffic information including signal information to the autonomous driving vehicle 100b, such as a smart traffic light, or interact with the autonomous driving vehicle 100b, such as an automatic electric charger for an electric vehicle. You can also automatically connect an electric charger to the charging port.
  • the robot 100a may be implemented as a guide robot, a transport robot, a cleaning robot, a wearable robot, an entertainment robot, a pet robot, an unmanned flying robot, a drone, etc. to which AI technology and XR technology are applied.
  • the robot 100a to which the XR technology is applied may mean a robot that is a target of control/interaction within an XR image.
  • the robot 100a is distinguished from the XR device 100c and may be interlocked with each other.
  • the robot 100a which is the target of control/interaction within the XR image, obtains sensor information from sensors including a camera, the robot 100a or the XR device 100c generates an XR image based on the sensor information. and the XR apparatus 100c may output the generated XR image.
  • the robot 100a may operate based on a control signal input through the XR device 100c or a user's interaction.
  • the user can check the XR image corresponding to the viewpoint of the remotely linked robot 100a through an external device such as the XR device 100c, and adjust the autonomous driving path of the robot 100a through interaction or , control motion or driving, or check information of surrounding objects.
  • an external device such as the XR device 100c
  • the autonomous vehicle 100b may be implemented as a mobile robot, a vehicle, an unmanned aerial vehicle, etc. by applying AI technology and XR technology.
  • the autonomous driving vehicle 100b to which the XR technology is applied may mean an autonomous driving vehicle equipped with a means for providing an XR image or an autonomous driving vehicle subject to control/interaction within the XR image.
  • the autonomous driving vehicle 100b which is the target of control/interaction within the XR image, is distinguished from the XR device 100c and may be interlocked with each other.
  • the autonomous driving vehicle 100b having means for providing an XR image may obtain sensor information from sensors including a camera, and output an XR image generated based on the acquired sensor information.
  • the autonomous vehicle 100b may provide an XR object corresponding to a real object or an object in a screen to the passenger by outputting an XR image with a HUD.
  • the XR object when the XR object is output to the HUD, at least a portion of the XR object may be output to overlap the real object to which the passenger's gaze is directed.
  • the XR object when the XR object is output to the display provided inside the autonomous vehicle 100b, at least a portion of the XR object may be output to overlap the object in the screen.
  • the autonomous vehicle 100b may output XR objects corresponding to objects such as a lane, other vehicles, traffic lights, traffic signs, two-wheeled vehicles, pedestrians, and buildings.
  • the autonomous driving vehicle 100b which is the subject of control/interaction in the XR image, acquires sensor information from sensors including a camera, the autonomous driving vehicle 100b or the XR device 100c performs An XR image is generated, and the XR apparatus 100c may output the generated XR image.
  • the autonomous vehicle 100b may operate based on a control signal input through an external device such as the XR device 100c or a user's interaction.
  • IP Multimedia Subsystem IP Multimedia Core Network Subsystem
  • IP Multimedia Core Network Subsystem an architectural framework for providing standardization for delivering voice or other multimedia services over IP.
  • - UMTS Universal Mobile Telecommunications System
  • GSM Global System for Mobile Communication
  • 3rd generation mobile communication technology developed by 3GPP.
  • EPS Evolved Packet System
  • IP Internet Protocol
  • EPC Evolved Packet Core
  • UMTS is an evolved network.
  • NodeB base station of GERAN/UTRAN. It is installed outdoors and the coverage is macro cell scale.
  • - eNodeB/eNB base station of E-UTRAN. It is installed outdoors and the coverage is macro cell scale.
  • a UE may be referred to as a terminal (UE), a mobile equipment (ME), a mobile station (MS), or the like.
  • the UE may be a portable device such as a laptop computer, a mobile phone, a personal digital assistant (PDA), a smart phone, a multimedia device, or the like, or a non-portable device such as a personal computer (PC) or in-vehicle device.
  • PDA personal digital assistant
  • PC personal computer
  • the term UE or terminal may refer to an MTC device.
  • - HNB Home NodeB: As a base station of the UMTS network, it is installed indoors and the coverage is micro cell scale.
  • - HeNB Home eNodeB: As a base station of the EPS network, it is installed indoors and the coverage is micro-cell scale.
  • Mobility Management Entity Mobility Management (MM), Session Management (Session Management; SM) network node of the EPS network that performs the function.
  • MM Mobility Management
  • Session Management Session Management
  • SM Session Management
  • PDN-GW Packet Data Network-Gateway
  • PGW/P-GW A network node of the EPS network that performs UE IP address assignment, packet screening and filtering, charging data collection functions, and the like.
  • SGW Serving Gateway
  • S-GW Mobility anchor (mobility anchor), packet routing (routing), idle mode packet buffering, a function of triggering the MME to page the UE, etc.
  • Network node of the EPS network .
  • PCRF Policy and Charging Rule Function
  • OMA DM Open Mobile Alliance Device Management: A protocol designed to manage mobile devices such as cell phones, PDAs, and portable computers. Device configuration, firmware upgrade, error report, etc. perform the function of
  • OAM Operaation Administration and Maintenance
  • Non-Access Stratum the upper end of the control plane (control plane) between the UE and the MME (stratum).
  • control plane control plane
  • MME Mobility Management Entity
  • EMM EPS Mobility Management: As a sub-layer of the NAS layer, the EMM is in "EMM-Registered” or “EMM-Deregistered” state depending on whether the UE is network attached or detached. there may be
  • ECM (EMM Connection Management) connection (connection): a signaling connection (connection) for the exchange (exchange) of NAS messages established between the UE and the MME.
  • the ECM connection is a logical connection consisting of an RRC connection between the UE and the eNB and an S1 signaling connection between the eNB and the MME.
  • the established ECM connection means having an RRC connection established with the eNB to the UE, and means having an S1 signaling connection established with the eNB to the MME.
  • the ECM may have a status of "ECM-Connected" or "ECM-Idle".
  • - AS Includes the protocol stack between the UE and the wireless (or access) network, and is responsible for data and network control signal transmission.
  • MO Management Object
  • MO Management object used in the process of setting parameters (parameters) related to NAS function (Functionality) to the UE.
  • Packet Data Network A network in which a server supporting a specific service (eg, Multimedia Messaging Service (MMS) server, Wireless Application Protocol (WAP) server, etc.) is located.
  • MMS Multimedia Messaging Service
  • WAP Wireless Application Protocol
  • APN Access Point Name: A string that refers to or distinguishes a PDN. In order to access a requested service or network, it goes through a specific P-GW, and it means a name (string) predefined in the network to find this P-GW. (e.g. internet.mnc012.mcc345.gprs)
  • Radio Access Network a unit including a NodeB, an eNodeB, and a Radio Network Controller (RNC) for controlling them in a 3GPP network. It exists between UEs and provides connectivity to the core network.
  • RNC Radio Network Controller
  • HLR Home Location Register
  • HSS Home Subscriber Server
  • the HSS may perform functions such as configuration storage, identity management, and user state storage.
  • PLMN Public Land Mobile Network
  • -ANDSF Access Network Discovery and Selection Function: As one network entity, it provides a policy to discover and select the access allowed by the UE in the operator unit.
  • EPC path (or infrastructure data path): User plane communication path through EPC
  • E-RAB E-UTRAN Radio Access Bearer: refers to the concatenation of the S1 bearer and the corresponding data radio bearer. If the E-RAB exists, there is a one-to-one mapping between the E-RAB and the EPS bearer of the NAS.
  • GTP - GPRS Tunneling Protocol
  • GTP A group of IP-based communications protocols used to carry general packet radio service (GPRS) within GSM, UMTS and LTE networks.
  • GPRS general packet radio service
  • GTP and Proxy Mobile IPv6-based interfaces are specified on various interface points.
  • GTP can be decomposed into several protocols (eg GTP-C, GTP-U and GTP').
  • GTP-C is used within a GPRS core network for signaling between Gateway GPRS Support Nodes (GGSN) and Serving GPRS Support Nodes (SGSN).
  • GGSN Gateway GPRS Support Nodes
  • SGSN Serving GPRS Support Nodes
  • the SGSN activates a session for the user (eg, activates the PDN context), deactivates the same session, and adjusts the quality of service parameters.
  • GTP-U is used to carry user data within the GPRS core network and between the radio access network and the core network.
  • EPS Evolved Packet System
  • EPC Evolved Packet Core
  • the 3GPP LTE / LTE-A system uses the concept of a cell to manage radio resources, and a cell associated with a radio resource is a cell of a geographic area. is separated from A "cell" associated with a radio resource is defined as a combination of downlink resources (DL resources) and uplink resources (UL resources), that is, a combination of a DL carrier and a UL carrier.
  • a cell may be configured with a DL resource alone or a combination of a DL resource and a UL resource.
  • linkage between a carrier frequency of a DL resource and a carrier frequency of a UL resource may be indicated by system information.
  • the carrier frequency means a center frequency of each cell or carrier.
  • a cell operating on a primary frequency is referred to as a primary cell (Pcell)
  • a cell operating on a secondary frequency is referred to as a secondary cell (Scell).
  • Scell refers to a cell that can be used to allow setup after RRC (Radio Resource Control) connection establishment is made and to provide additional radio resources.
  • RRC Radio Resource Control
  • the Scell may form a set of serving cells for the UE together with the Pcell.
  • a "cell” of a geographic area can be understood as coverage in which a node can provide a service using a carrier
  • a "cell” of radio resources is a frequency range configured by the carrier. It is related to bandwidth (BW).
  • BW bandwidth
  • the uplink coverage, which is the range in which a valid signal can be received from the UE depend on the carrier carrying the corresponding signal. It is also associated with the coverage of a "cell”. Therefore, the term “cell” may be used to mean the coverage of a service by a node, sometimes a radio resource, and sometimes a range that a signal using the radio resource can reach with an effective strength.
  • EPC is a key element of SAE (System Architecture Evolution) to improve the performance of 3GPP technologies.
  • SAE corresponds to a research task to determine a network structure that supports mobility between various types of networks.
  • SAE aims to provide an optimized packet-based system, for example, supporting various radio access technologies based on IP and providing improved data transmission capability.
  • EPC is a core network of an IP mobile communication system for a 3GPP LTE system, and can support packet-based real-time and non-real-time services.
  • the core network In the existing mobile communication system (ie, 2nd generation or 3rd generation mobile communication system), the core network through two distinct sub-domains, CS (Circuit-Switched) for voice and PS (Packet-Switched) for data.
  • CS Circuit-Switched
  • PS Packet-Switched
  • the connection between the UE and the UE having IP capability is an IP-based base station (eg, eNodeB (evolved Node B)), EPC, application domain (eg, IMS ( IP Multimedia Subsystem)).
  • eNodeB evolved Node B
  • EPC application domain
  • IMS IP Multimedia Subsystem
  • the EPC may include various components, and in FIG. 1 , some of them are a Serving Gateway (SGW), a Packet Data Network Gateway (PDN GW), a Mobility Management Entity (MME), and a Serving General Packet (GPRS) (SGSN). Radio Service) Supporting Node) and ePDG (enhanced Packet Data Gateway) are shown.
  • SGW Serving Gateway
  • PDN GW Packet Data Network Gateway
  • MME Mobility Management Entity
  • GPRS Serving General Packet
  • SGSN Serving General Packet
  • Radio Service Supporting Node
  • ePDG enhanced Packet Data Gateway
  • the SGW (or S-GW) is an element that functions as a boundary point between the radio access network (RAN) and the core network, and maintains a data path between the eNB and the PDN GW.
  • the SGW serves as a local mobility anchor point. That is, packets may be routed through the SGW for mobility within the E-UTRAN (Evolved-Universal Mobile Telecommunications System (UMTS) Terrestrial Radio Access Network defined after 3GPP Release-8).
  • the SGW provides mobility with other 3GPP networks (RANs defined before 3GPP Release-8, for example, UTRAN or GERAN (Global System for Mobile Communication) / EDGE (Enhanced Data rates for Global Evolution) Radio Access Network). It may serve as an anchor point for
  • the PDN GW corresponds to the termination point of the data interface towards the packet data network.
  • the PDN GW may support policy enforcement features, packet filtering, charging support, and the like.
  • mobility management between 3GPP networks and non-3GPP networks eg, untrusted networks such as Interworking Wireless Local Area Network (I-WLAN), Code Division Multiple Access (CDMA) networks or trusted networks such as WiMax). It can serve as an anchor point for I-WLAN, Code Division Multiple Access (CDMA) networks or trusted networks such as WiMax). It can serve as an anchor point for 3GPP networks and non-3GPP networks (eg, untrusted networks such as Interworking Wireless Local Area Network (I-WLAN), Code Division Multiple Access (CDMA) networks or trusted networks such as WiMax). It can serve as an anchor point for I-WLAN, Code Division Multiple Access (CDMA) networks or trusted networks such as WiMax). It can serve as an anchor point for I-WLAN, Code Division Multiple Access (CDMA) networks or trusted networks such as WiMax). It can serve as an anchor point for
  • the two gateways may be implemented according to a single gateway configuration option.
  • the MME is an element that performs signaling and control functions to support access to a network connection of the UE, allocation of network resources, tracking, paging, roaming and handover, and the like.
  • the MME controls control plane functions related to subscriber and session management.
  • the MME manages numerous eNBs and performs signaling for selection of a conventional gateway for handover to other 2G/3G networks.
  • the MME performs functions such as security procedures, terminal-to-network session handling, and idle terminal location management.
  • the SGSN handles all packet data such as user's mobility management and authentication to other 3GPP networks (eg, GPRS networks).
  • 3GPP networks eg, GPRS networks.
  • the ePDG acts as a security node for untrusted non-3GPP networks (eg, I-WLAN, WiFi hotspots, etc.).
  • untrusted non-3GPP networks eg, I-WLAN, WiFi hotspots, etc.
  • the UE having IP capability is an IP provided by an operator (ie, an operator) via various elements in the EPC on the basis of 3GPP access as well as non-3GPP access.
  • a service network eg, IMS may be accessed.
  • FIG. 4 also shows various reference points (eg, S1-U, S1-MME, etc.).
  • reference points eg, S1-U, S1-MME, etc.
  • Table 1 summarizes the reference points shown in FIG. 4 .
  • various reference points may exist according to the network structure.
  • Reference point description S1-MME Reference point for the control plane protocol between E-UTRAN and MME S1-U Reference point between E-UTRAN and Serving GW for the per bearer user plane tunneling and inter eNodeB path switching during handover S3 Reference point between MME and SGSN providing user and bearer information exchange for mobility between 3GPP access networks in idle and/or active state.
  • This reference point may be used for intra-PLMN or inter-PLMN (eg, in the case of inter-PLMN handover)) (It enables user and bearer information exchange for inter 3GPP access network mobility in idle and/or active state
  • This reference point can be used intra-PLMN or inter-PLMN (e.g.
  • S4 A reference point between the SGW and SGSN that provides related control and mobility support between the GPRS core and the 3GPP anchor function of the SGW. In addition, if Direct Tunnel is not established, it provides the user plane tunneling .
  • S5 Reference point providing user plane tunneling and tunnel management between SGW and PDN GW. Used for SGW relocation when connection to a PDN GW where the SGW is not located is required due to terminal mobility and required PDN connectivity (It provides user plane tunneling and tunnel management between Serving GW and PDN GW.
  • the PDN may be an operator external public or private PDN or an operator-internal PDN (eg, IMS service).
  • This reference point corresponds to Gi of 3GPP access (It is the reference point between the PDN GW and the packet data network.
  • Packet data network may be an operator external public or private packet data network or an intra operator packet data network, e.g. for This reference point corresponds to Gi for 3GPP accesses.)
  • S2a and S2b correspond to non-3GPP interfaces.
  • S2a is a reference point that provides the user plane with trusted non-3GPP access and related control and mobility support between PDN GWs.
  • S2b is a reference point that provides the user plane with related control and mobility support between the ePDG and PDN GW.
  • E-UTRAN evolved universal terrestrial radio access network
  • the E-UTRAN system is a system evolved from the existing UTRAN system, and may be, for example, a 3GPP LTE/LTE-A system.
  • Communication networks are widely deployed to provide various communication services such as voice (eg, Voice over Internet Protocol (VoIP)) via IMS and packet data.
  • voice eg, Voice over Internet Protocol (VoIP)
  • VoIP Voice over Internet Protocol
  • the E-UMTS network includes an E-UTRAN, an EPC, and one or more UEs.
  • the E-UTRAN consists of eNBs that provide a control plane and a user plane protocol to the UE, and the eNBs are connected through an X2 interface.
  • An X2 user plane interface (X2-U) is defined between the eNBs.
  • the X2-U interface provides non-guaranteed delivery of a user plane packet data unit (PDU).
  • An X2 control plane interface (X2-CP) is defined between two neighboring eNBs. X2-CP performs functions such as context transfer between eNBs, control of a user plane tunnel between a source eNB and a target eNB, transfer of a handover related message, and uplink load management.
  • the eNB is connected to the UE through the wireless interface and connected to the evolved packet core (EPC) through the S1 interface.
  • EPC evolved packet core
  • the S1 user plane interface (S1-U) is defined between the eNB and a serving gateway (S-GW).
  • the S1 control plane interface (S1-MME) is defined between the eNB and a mobility management entity (MME).
  • the S1 interface performs an evolved packet system (EPS) bearer service management function, a non-access stratum (NAS) signaling transport function, network sharing, an MME load balancing function, and the like.
  • EPS evolved packet system
  • NAS non-access stratum
  • the S1 interface supports many-to-many-relation between the eNB and the MME/S-GW.
  • MME is NAS signaling security (security), AS (Access Stratum) security (security) control, CN (Core Network) inter-node (Inter-CN) signaling to support mobility between 3GPP access networks, (perform and control paging retransmission) Including) idle (IDLE) mode UE accessibility (reachability), (for idle and active mode terminals) tracking area identifier (TAI: Tracking Area Identity) management, PDN GW and SGW selection, MME for handover in which the MME is changed Bearer management functions including selection, SGSN selection for handover to 2G or 3G 3GPP access network, roaming, authentication, dedicated bearer establishment, Public Warning System (PWS) System) (including Earthquake and Tsunami Warning System (ETWS) and Commercial Mobile Alert System (CMAS)) message transmission.
  • PWS Public Warning System
  • ETWS Earthquake and Tsunami Warning System
  • CMAS Commercial Mobile Alert System
  • FIG. 6 is a diagram illustrating an architecture of a general NR-RAN.
  • the NG-RAN node may be one of the following.
  • gNB providing NR user plane and control plane protocols towards the UE
  • ng-eNB providing E-UTRA user plane and control plane protocols towards the UE.
  • the gNB and the ng-eNB are connected to each other through the Xn interface.
  • gNB and ng-eNB via NG interface to 5GC, more specifically via NG-C interface, Access and Mobility Management Function (AMF), user plane function via NG-U interface ( UPF: User Plane Function) (refer to 3GPP TS 23.501 [3]).
  • AMF Access and Mobility Management Function
  • UPF User Plane Function
  • FIG. 7 shows an example of a general architecture of 5G. The following is a description of each reference interface and node in FIG. 7 .
  • Access and Mobility Management Function is a CN inter-node signaling for mobility between 3GPP access networks, a radio access network (RAN: Radio Access Network) CP interface (N2) termination (termination), NAS It supports functions such as end of signaling (N1), registration management (registration area management), idle mode UE accessibility (reachability), network slicing support, SMF selection, and the like.
  • AMF Access Management Function
  • a data network means, for example, an operator service, Internet access, or a third party service.
  • the DN transmits a downlink protocol data unit (PDU) to the UPF or receives a PDU transmitted from the UE from the UPF.
  • PDU downlink protocol data unit
  • a policy control function provides a function of receiving information about a packet flow from an application server and determining policies such as mobility management and session management.
  • a session management function (SMF: Session Management Function) provides a session management function, and when the UE has a plurality of sessions, it may be managed by a different SMF for each session.
  • SMF Session Management Function
  • Some or all functions of the SMF may be supported within a single instance of one SMF.
  • Unified Data Management stores user subscription data, policy data, and the like.
  • User plane function delivers the downlink PDU received from the DN to the UE via (R)AN, and delivers the uplink PDU received from the UE via (R)AN to the DN.
  • Application Function supports service provision (e.g., application impact on traffic routing, network capability exposure access, interaction with policy framework for policy control, etc.) to interact with the 3GPP core network.
  • service provision e.g., application impact on traffic routing, network capability exposure access, interaction with policy framework for policy control, etc.
  • Radio Access Network (R)AN: (Radio) Access Network
  • E-UTRA evolved E-UTRA
  • NR New Radio
  • gNB a generic term for a new radio access network that supports both.
  • gNB has functions for radio resource management (ie, Radio Bearer Control, Radio Admission Control, Connection Mobility Control), and dynamic resource allocation to the UE in uplink/downlink. It supports functions such as dynamic allocation of resources (ie, scheduling)).
  • radio resource management ie, Radio Bearer Control, Radio Admission Control, Connection Mobility Control
  • dynamic resource allocation ie, scheduling
  • User Equipment refers to user equipment.
  • a conceptual link connecting NFs in the 5G system is defined as a reference point.
  • N1 is the reference point between the UE and AMF
  • N2 is the reference point between (R)AN and AMF
  • N3 is the reference point between (R)AN and UPF
  • N4 is the reference point between SMF and UPF
  • N6 the reference point between UPF and the data network
  • N9 is a reference point between the two core UPFs
  • N5 is a reference point between PCF and AF
  • N7 is a reference point between SMF and PCF
  • N24 is a PCF in a visited network and a PCF in a home network Reference point
  • N8 is a reference point between UDM and AMF
  • N10 is a reference point between UDM and SMF
  • N11 is a reference point between AMF and SMF
  • N12 is a reference point between AMF and Authentication Server function (AUSF)
  • N13 is Reference point between UDM and AUSF
  • N14 is a reference point between two AMFs
  • N15 is a reference point between PCF and A
  • FIG. 7 exemplifies a reference model for a case in which the UE accesses one DN using one PDU session for convenience of description, but is not limited thereto.
  • downlink means communication from a base station (BS) to user equipment (UE)
  • uplink means communication from UE to BS.
  • a transmitter may be a part of a BS, and a receiver may be a part of the UE.
  • the transmitter may be part of the UE and the receiver may be part of the BS.
  • a UE may be represented as a first communication device
  • a BS may be represented as a second communication device.
  • BS is a fixed station, Node B, evolved-NodeB (eNB), Next Generation NodeB (gNB), base transceiver system (BTS), access point (AP), network or 5G (5th generation) network node , AI (Artificial Intelligence) system, RSU (road side unit), may be replaced by terms such as robot.
  • eNB evolved-NodeB
  • gNB Next Generation NodeB
  • BTS base transceiver system
  • AP access point
  • 5G (5th generation) network node 5G (5th generation) network node
  • AI Artificial Intelligence
  • RSU road side unit
  • the UE is a terminal, MS (Mobile Station), UT (User Terminal), MSS (Mobile Subscriber Station), SS (Subscriber Station), AMS (Advanced Mobile Station), WT (Wireless terminal), MTC (Machine) -Type Communication) device, M2M (Machine-to-Machine) device, D2D (Device-to-Device) device, vehicle, robot, AI module, drone, aerial UE, etc. can be replaced.
  • CDMA Code Division Multiple Access
  • FDMA Frequency Division Multiple Access
  • TDMA Time Division Multiple Access
  • OFDMA Orthogonal Frequency Division Multiple Access
  • SC-FDMA Single Carrier FDMA
  • CDMA may be implemented with a radio technology such as Universal Terrestrial Radio Access (UTRA) or CDMA2000.
  • TDMA may be implemented with a radio technology such as Global System for Mobile communications (GSM)/General Packet Radio Service (GPRS)/Enhanced Data Rates for GSM Evolution (EDGE).
  • GSM Global System for Mobile communications
  • GPRS General Packet Radio Service
  • EDGE Enhanced Data Rates for GSM Evolution
  • OFDMA may be implemented with a radio technology such as IEEE 802.11 (Wi-Fi), IEEE 802.16 (WiMAX), IEEE 802-20, Evolved UTRA (E-UTRA), and the like.
  • UTRA is part of the Universal Mobile Telecommunications System (UMTS).
  • 3GPP (3rd Generation Partnership Project) Long Term Evolution (LTE) is a part of Evolved UMTS (E-UMTS) using E-UTRA and LTE-A (Advanced)/LTE-A pro is an evolved version of 3GPP LTE.
  • 3GPP NR New Radio or New Radio Access Technology
  • 3GPP LTE/LTE-A/LTE-A pro is an evolved version of 3GPP LTE/LTE-A/LTE-A pro.
  • LTE refers to technology after 3GPP TS 36.xxx Release 8.
  • LTE technology after 3GPP TS 36.xxx Release 10 is referred to as LTE-A
  • LTE technology after 3GPP TS 36.xxx Release 13 is referred to as LTE-A pro.
  • 3GPP 5G (5th generation) technology refers to technology after TS 36.xxx Release 15 and technology after TS 38.XXX Release 15, among which technology after TS 38.xxx Release 15 is referred to as 3GPP NR, and TS 36.xxx Release 15 and later technologies may be referred to as enhanced LTE. "xxx" stands for standard document detail number. LTE/NR may be collectively referred to as a 3GPP system.
  • a node refers to a fixed point that can communicate with the UE to transmit/receive a radio signal.
  • Various types of BSs can be used as nodes regardless of their names.
  • BS, NB, eNB, pico-cell eNB (PeNB), home eNB (HeNB), relay (relay), repeater (repeater), etc. may be a node.
  • the node may not need to be a BS.
  • it may be a radio remote head (RRH) or a radio remote unit (RRU).
  • RRH, RRU, and the like generally have a lower power level compared to the power level of the BS.
  • At least one antenna is installed in one node.
  • the antenna may mean a physical antenna, an antenna port, a virtual antenna, or an antenna group.
  • a node is also called a point.
  • a cell refers to a certain geographic area or radio resource in which one or more nodes provide a communication service.
  • a "cell" of a geographic area can be understood as coverage in which a node can provide a service using a carrier, and a "cell” of radio resources is a bandwidth (a frequency size configured by the carrier) ( bandwidth, BW).
  • the downlink coverage which is the range in which a node can transmit a valid signal
  • the uplink coverage which is the range in which a valid signal can be received from the UE, depend on the carrier carrying the corresponding signal. It is also associated with the coverage of a "cell”. Therefore, the term “cell” may be used to mean the coverage of a service by a node, sometimes a radio resource, and sometimes a range that a signal using the radio resource can reach with an effective strength.
  • communication with a specific cell may mean communicating with a BS or node that provides a communication service to the specific cell.
  • the downlink/uplink signal of a specific cell means a downlink/uplink signal from/to a BS or node that provides a communication service to the specific cell.
  • a cell providing an uplink/downlink communication service to the UE is specifically referred to as a serving cell.
  • the channel state/quality of a specific cell means the channel state/quality of a channel or communication link formed between a UE and a BS or node providing a communication service to the specific cell.
  • a "cell" associated with a radio resource may be defined as a combination of downlink resources (DL resources) and uplink resources (UL resources), that is, a combination of a DL component carrier (CC) and UL CC.
  • a cell may be configured with a DL resource alone or a combination of a DL resource and a UL resource.
  • the linkage between the carrier frequency of the DL resource (or DL CC) and the carrier frequency of the UL resource (or UL CC) is the linkage. It may be indicated by system information transmitted through the cell.
  • the carrier frequency may be the same as or different from the center frequency of each cell or CC.
  • a cell operating on a primary frequency is referred to as a primary cell (Pcell) or PCC
  • a cell operating on a secondary frequency is referred to as a secondary cell (Scell).
  • Scell refers to a state in which the UE performs a radio resource control (RRC) connection establishment process with the BS to establish an RRC connection between the UE and the BS, that is, after the UE is in the RRC_CONNECTED state.
  • RRC connection may mean a path through which the RRC of the UE and the RRC of the BS can exchange RRC messages with each other.
  • the Scell may be configured to provide additional radio resources to the UE.
  • the Scell may form a set of serving cells for the UE together with the Pcell.
  • the Scell may form a set of serving cells for the UE together with the Pcell.
  • carrier aggregation is not configured or does not support carrier aggregation, there is only one serving cell configured only as a Pcell.
  • the cell supports its own radio access technology. For example, transmission/reception according to LTE radio access technology (RAT) is performed on an LTE cell, and transmission/reception according to 5G RAT is performed on a 5G cell.
  • LTE radio access technology RAT
  • 5G RAT 5th Generationан ⁇
  • the carrier aggregation technique refers to a technique for aggregating and using a plurality of carriers having a system bandwidth smaller than a target bandwidth for broadband support.
  • carrier aggregation performs downlink or uplink communication using a plurality of carrier frequencies each forming a system bandwidth (also referred to as a channel bandwidth), the basic frequency band divided into a plurality of orthogonal subcarriers is divided into one It is distinguished from OFDMA technology in which downlink or uplink communication is performed on a carrier frequency.
  • one frequency band having a constant system bandwidth is divided into a plurality of subcarriers having a predetermined subcarrier interval, and information/data is divided into the plurality of The frequency band to which the information/data is mapped is transmitted to a carrier frequency of the frequency band through frequency upconversion.
  • frequency bands each having their own system bandwidth and carrier frequency may be used for communication at the same time, and each frequency band used for carrier aggregation may be divided into a plurality of subcarriers having a predetermined subcarrier interval. .
  • the 3GPP-based communication standard is an upper layer of the physical layer (eg, medium access control (MAC) layer, radio link control (RLC) layer, packet data convergence protocol ( protocol data convergence protocol (PDCP) layer, radio resource control (RRC) layer, service data adaptation protocol (SDAP), non-access layer (non-access stratum, NAS) layer)
  • MAC medium access control
  • RLC radio link control
  • PDCP protocol data convergence protocol
  • RRC radio resource control
  • SDAP service data adaptation protocol
  • non-access layer non-access stratum, NAS) layer
  • MAC medium access control
  • RLC radio link control
  • PDCP protocol data convergence protocol
  • RRC radio resource control
  • SDAP service data adaptation protocol
  • non-access stratum non-access stratum
  • a physical downlink shared channel (PDSCH), a physical broadcast channel (PBCH), a physical multicast channel (PMCH), a physical control format indicator channel (physical control)
  • a physical downlink control channel (PDCCH)
  • a reference signal and a synchronization signal are defined as downlink physical signals.
  • a reference signal also referred to as a pilot, means a signal of a predefined special waveform that the BS and the UE know each other, for example, cell specific RS (RS), UE- UE-specific RS (UE-RS), positioning RS (PRS), channel state information RS (channel state information RS, CSI-RS), demodulation reference signal (DMRS) down Defined as link reference signals.
  • RS cell specific RS
  • PRS positioning RS
  • channel state information RS channel state information RS
  • CSI-RS channel state information RS
  • DMRS demodulation reference signal
  • the 3GPP-based communication standard supports uplink physical channels corresponding to resource elements carrying information originating from a higher layer, and resource elements used by the physical layer but not carrying information originating from a higher layer. Uplink physical signals are defined.
  • a physical uplink shared channel (PUSCH), a physical uplink control channel (PUCCH), and a physical random access channel (PRACH) are uplink physical channels.
  • PUSCH physical uplink shared channel
  • PUCCH physical uplink control channel
  • PRACH physical random access channel
  • DMRS demodulation reference signal
  • SRS sounding reference signal
  • a physical downlink control channel (PDCCH) and a physical downlink shared channel (PDSCH) are physical layer downlink control information (DCI) and downlink data. It may mean a set of time-frequency resources to be carried or a set of resource elements, respectively.
  • the UE when the UE transmits an uplink physical channel (eg, PUCCH, PUSCH, PRACH), it means that UCI, uplink data, or a random access signal is transmitted on the corresponding uplink physical channel or through the uplink physical channel.
  • the BS receives the uplink physical channel, it may mean that it receives DCI, uplink data, or a random access signal on or through the corresponding uplink physical channel.
  • a downlink physical channel eg, PDCCH, PDSCH
  • Receiving the downlink physical channel by the UE may mean receiving DCI or downlink data on or through the corresponding downlink physical channel.
  • a transport block is a payload for a physical layer.
  • data given to a physical layer from an upper layer or a medium access control (MAC) layer is basically referred to as a transport block.
  • MAC medium access control
  • HARQ Hybrid Automatic Repeat and reQuest
  • HARQ-ACK Hybrid Automatic Repeat and reQuest
  • the transmitter performing the HARQ operation waits for acknowledgment (ACK) after transmitting data (eg, transport block, codeword).
  • the receiving end performing the HARQ operation sends a positive acknowledgment (ACK) only when data is properly received, and sends a negative acknowledgment (negative ACK, NACK) when an error occurs in the received data.
  • the transmitting end When the transmitting end receives the ACK, it can transmit (new) data, and when it receives the NACK, it can retransmit the data.
  • the BS After the BS transmits scheduling information and data according to the scheduling information, a time delay occurs until ACK/NACK is received from the UE and retransmission data is transmitted. Such a time delay is caused by a channel propagation delay and a time taken for data decoding/encoding. Therefore, when new data is transmitted after the current HARQ process is finished, a gap occurs in data transmission due to a time delay. Accordingly, a plurality of independent HARQ processes are used to prevent gaps in data transmission during the time delay period.
  • the communication device may operate 7 independent HARQ processes to perform data transmission without a gap.
  • UL/DL transmission may be continuously performed while waiting for HARQ feedback for a previous UL/DL transmission.
  • channel state information refers to information that can indicate the quality of a radio channel (or link) formed between the UE and the antenna port.
  • CSI is a channel quality indicator (channel quality indicator, CQI), precoding matrix indicator (PMI), CSI-RS resource indicator (CSI-RS resource indicator, CRI), SSB resource indicator (SSB resource indicator, SSBRI) , may include at least one of a layer indicator (LI), a rank indicator (RI), and a reference signal received power (RSRP).
  • frequency division multiplexing may mean transmitting/receiving signals/channels/users in different frequency resources
  • time division multiplexing is It may mean transmitting/receiving signals/channels/users in different time resources.
  • frequency division duplex refers to a communication method in which uplink communication is performed on an uplink carrier and downlink communication is performed on a downlink carrier linked to the uplink carrier
  • time division Duplex time division duplex, TDD refers to a communication method in which uplink communication and downlink communication are performed by dividing time on the same carrier.
  • UE User Equipment
  • UE User Equipment
  • PDCP Packet Data Convergence Protocol
  • RRC Radio Resource Control
  • S1AP S1 Application Protocol
  • 3GPPP TS 22.125 Unmanned Aerial System support in 3GPP; Stage 1
  • GPRS General Packet Radio Service
  • E-UTRAN Evolved Universal Terrestrial Radio Access Network
  • NAS Non-Access-Stratum
  • EPS Evolved Packet System
  • 3GPP TS 24.302 Access to the 3GPP Evolved Packet Core (EPC) via non-3GPP access networks; Stage 3
  • EPC Evolved Packet Core
  • UE User Equipment
  • PDCP Packet Data Convergence Protocol
  • RRC Radio Resource Control
  • SDAP Service Data Adaptation Protocol
  • 3GPP TS 24.502 Access to the 3GPP 5G Core Network (5GCN) via non-3GPP access networks
  • EPS Evolved Packet System
  • 5GS 5G System
  • the three main requirement areas for 5G are (1) enhanced mobile broadband (eMBB) area, (2) massive machine type communication (mMTC) area, and (3) high reliability/ultra-low latency communication (URLLC; ultra-reliable and low latency communications).
  • eMBB enhanced mobile broadband
  • mMTC massive machine type communication
  • URLLC ultra-reliable and low latency communications
  • KPI key performance indicator
  • eMBB focuses on overall improvements in data rates, latency, user density, capacity and coverage of mobile broadband connections. eMBB aims for a throughput of around 10 Gbps. eMBB goes far beyond basic mobile internet access, covering rich interactive work, media and entertainment applications in the cloud or augmented reality. Data is one of the key drivers of 5G, and for the first time in the 5G era, we may not see dedicated voice services. In 5G, voice is simply expected to be processed as an application using the data connection provided by the communication system. The main reasons for the increased amount of traffic are the increase in content size and the increase in the number of applications requiring high data rates. Streaming services (audio and video), interactive video and mobile Internet connections will become more widely used as more devices connect to the Internet.
  • Cloud storage and applications are rapidly increasing in mobile communication platforms, which can be applied to both work and entertainment.
  • Cloud storage is a special use case that drives the growth of uplink data rates.
  • 5G is also used for remote work on the cloud, requiring much lower end-to-end latency to maintain a good user experience when tactile interfaces are used.
  • cloud gaming and video streaming are another key factor demanding improvements in mobile broadband capabilities.
  • Entertainment is essential on smartphones and tablets anywhere, including in high-mobility environments such as trains, cars and airplanes.
  • Another use example is augmented reality for entertainment and information retrieval.
  • augmented reality requires very low latency and instantaneous amount of data.
  • mMTC is designed to enable communication between a large number of low-cost devices powered by batteries and is intended to support applications such as smart metering, logistics, field and body sensors.
  • mMTC is targeting a battery life of 10 years or so and/or a million devices per square kilometer.
  • mMTC enables the seamless connection of embedded sensors in all fields to form a sensor network, and is one of the most anticipated 5G use cases. Potentially, by 2020, there will be 20.4 billion IoT devices. Smart networks leveraging industrial IoT is one of the areas where 5G will play a major role in enabling smart cities, asset tracking, smart utilities, agriculture and security infrastructure.
  • URLLC enables devices and machines to communicate very reliably, with very low latency and high availability, enabling autonomous vehicle-to-vehicle communication and control, industrial control, factory automation, mission-critical applications such as telesurgery and healthcare, smart grid and public Ideal for safety applications.
  • URLLC aims for a delay on the order of 1 ms.
  • URLLC includes new services that will transform industries through high-reliability/ultra-low-latency links such as remote control of critical infrastructure and autonomous vehicles. This level of reliability and latency is essential for smart grid control, industrial automation, robotics, and drone control and coordination.
  • 5G could complement fiber-to-the-home (FTTH) and cable-based broadband (or DOCSIS) as a means of delivering streams rated from hundreds of megabits per second to gigabits per second.
  • FTTH fiber-to-the-home
  • DOCSIS cable-based broadband
  • Such a high speed may be required to deliver TVs with resolutions of 4K or higher (6K, 8K and higher) as well as virtual reality (VR) and augmented reality (AR).
  • VR and AR applications almost include immersive sporting events. Certain applications may require special network settings. For VR games, for example, game companies may need to integrate core servers with network operators' edge network servers to minimize latency.
  • Automotive is expected to be an important new driving force for 5G, with many use cases for mobile communication to vehicles. For example, entertainment for passengers requires both high capacity and high mobile broadband. The reason is that future users continue to expect high-quality connections regardless of their location and speed.
  • Another example of use in the automotive sector is augmented reality dashboards.
  • the augmented reality contrast board allows drivers to identify objects in the dark above what they are seeing through the front window.
  • the augmented reality dashboard superimposes information to inform the driver about the distance and movement of objects.
  • wireless modules will enable communication between vehicles, information exchange between vehicles and supporting infrastructure, and information exchange between automobiles and other connected devices (eg, devices carried by pedestrians).
  • Safety systems can lower the risk of accidents by guiding drivers through alternative courses of action to help them drive safer.
  • the next step will be remote-controlled vehicles or autonomous vehicles.
  • This requires very reliable and very fast communication between different autonomous vehicles and/or between vehicles and infrastructure.
  • autonomous vehicles will perform all driving activities, allowing drivers to focus only on traffic anomalies that the vehicle itself cannot discern.
  • the technological requirements of autonomous vehicles demand ultra-low latency and ultra-fast reliability to increase traffic safety to unattainable levels for humans.
  • Smart cities and smart homes referred to as smart societies, will be embedded as high-density wireless sensor networks as examples of smart networks.
  • a distributed network of intelligent sensors will identify conditions for keeping a city or house cost- and energy-efficient.
  • a similar setup can be performed for each household.
  • Temperature sensors, window and heating controllers, burglar alarms and appliances are all connected wirelessly. Many of these sensors typically require low data rates, low power and low cost.
  • real-time HD video may be required in certain types of devices for surveillance.
  • Smart grids use digital information and communication technologies to interconnect these sensors to gather information and act on it. This information can include supplier and consumer behavior, enabling smart grids to improve efficiency, reliability, economics, sustainability of production and distribution of fuels such as electricity in an automated manner.
  • the smart grid can also be viewed as another low-latency sensor network.
  • the health sector has many applications that can benefit from mobile communications.
  • the communication system may support telemedicine providing clinical care from a remote location. This can help reduce barriers to distance and improve access to consistently unavailable health care services in remote rural areas. It is also used to save lives in critical care and emergency situations.
  • a wireless sensor network based on mobile communication may provide remote monitoring and sensors for parameters such as heart rate and blood pressure.
  • Wireless and mobile communications are becoming increasingly important in industrial applications. Wiring is expensive to install and maintain. Thus, the possibility of replacing cables with reconfigurable radio links is an attractive opportunity for many industries. Achieving this, however, requires that wireless connections operate with similar delays, reliability and capacity as cables, and that their management is simplified. Low latency and very low error probability are new requirements that need to be connected with 5G.
  • Logistics and freight tracking are important use cases for mobile communications that use location-based information systems to enable tracking of inventory and packages from anywhere.
  • Logistics and freight tracking use cases typically require low data rates but require wide range and reliable location information.
  • FIG. 8 shows a wireless communication device according to an embodiment of the present invention.
  • a wireless communication system may include a first device 9010 and a second device 9020 .
  • the first device 9010 includes a base station, a network node, a transmitting terminal, a receiving terminal, a wireless device, a wireless communication device, a vehicle, a vehicle equipped with an autonomous driving function, a connected car, a drone (Unmanned Aerial Vehicle, UAV), Artificial Intelligence (AI) Module, Robot, AR (Augmented Reality) Device, VR (Virtual Reality) Device, MR (Mixed Reality) Device, Hologram Device, Public Safety Device, MTC Device, IoT Device, Medical Device, Pin It may be a tech device (or financial device), a security device, a climate/environment device, a device related to 5G services, or other devices related to the 4th industrial revolution field.
  • UAV Unmanned Aerial Vehicle
  • AI Artificial Intelligence
  • Robot Robot
  • AR (Augmented Reality) Device VR (Virtual Reality) Device
  • MR (Mixed Reality) Device Hologram Device
  • Public Safety Device MTC Device
  • IoT Device Medical Device
  • the second device 9020 includes a base station, a network node, a transmitting terminal, a receiving terminal, a wireless device, a wireless communication device, a vehicle, a vehicle equipped with an autonomous driving function, a connected car, a drone (Unmanned Aerial Vehicle, UAV), Artificial Intelligence (AI) Module, Robot, AR (Augmented Reality) Device, VR (Virtual Reality) Device, MR (Mixed Reality) Device, Hologram Device, Public Safety Device, MTC Device, IoT Device, Medical Device, Pin It may be a tech device (or financial device), a security device, a climate/environment device, a device related to 5G services, or other devices related to the 4th industrial revolution field.
  • UAV Unmanned Aerial Vehicle, UAV
  • Artificial Intelligence (AI) Module Robot
  • AR Augmented Reality
  • VR Virtual Reality
  • MR Magned Reality
  • Hologram Device Hologram Device
  • Public Safety Device MTC Device
  • IoT Device Medical Device
  • Pin It may be
  • the terminal includes a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, personal digital assistants (PDA), a portable multimedia player (PMP), a navigation system, a slate PC, and a tablet.
  • PDA personal digital assistants
  • PMP portable multimedia player
  • PC tablet PC
  • ultrabook ultrabook
  • wearable device wearable device, for example, a watch-type terminal (smartwatch), glass-type terminal (smart glass), HMD (head mounted display), etc.
  • the HMD may be a display device worn on the head.
  • an HMD may be used to implement VR, AR or MR.
  • the drone may be a flying vehicle that does not have a human and flies by a wireless control signal.
  • the VR device may include a device that implements an object or a background of a virtual world.
  • the AR device may include a device implemented by connecting an object or background of the virtual world to an object or background of the real world.
  • the MR device may include a device that implements a virtual world object or background by fusion with a real world object or background.
  • the hologram device may include a device for realizing a 360-degree stereoscopic image by recording and reproducing stereoscopic information by utilizing an interference phenomenon of light generated by the meeting of two laser beams called holography.
  • the public safety device may include an image relay device or an image device that can be worn on a user's body.
  • the MTC device and the IoT device may be devices that do not require direct human intervention or manipulation.
  • the MTC device and the IoT device may include a smart meter, a bending machine, a thermometer, a smart light bulb, a door lock, or various sensors.
  • a medical device may be a device used for the purpose of diagnosing, treating, alleviating, treating, or preventing a disease.
  • a medical device may be a device used for the purpose of diagnosing, treating, alleviating, or correcting an injury or disorder.
  • a medical device may be a device used for the purpose of examining, replacing, or modifying structure or function.
  • the medical device may be a device used for the purpose of controlling pregnancy.
  • the medical device may include a medical device, a surgical device, an (ex vivo) diagnostic device, a hearing aid, or a device for a procedure.
  • the security device may be a device installed to prevent a risk that may occur and maintain safety.
  • the security device may be a camera, CCTV, recorder or black box.
  • the fintech device may be a device capable of providing financial services such as mobile payment.
  • the fintech device may include a payment device or a Point of Sales (POS).
  • the climate/environment device may include a device for monitoring or predicting the climate/environment.
  • the first device 9010 may include at least one or more processors such as a processor 9011 , at least one memory such as a memory 9012 , and at least one transceiver such as a transceiver 9013 .
  • the processor 9011 may perform the functions, procedures, and/or methods described above.
  • the processor 9011 may perform one or more protocols.
  • the processor 9011 may perform one or more layers of an air interface protocol.
  • the memory 9012 is connected to the processor 9011 and may store various types of information and/or commands.
  • the transceiver 9013 may be connected to the processor 9011 and controlled to transmit/receive a wireless signal.
  • the second device 9020 may include at least one processor such as a processor 9021 , at least one memory device such as a memory 9022 , and at least one transceiver such as a transceiver 9023 .
  • the processor 9021 may perform the functions, procedures, and/or methods described above.
  • the processor 9021 may implement one or more protocols.
  • the processor 9021 may implement one or more layers of an air interface protocol.
  • the memory 9022 is connected to the processor 9021 and may store various types of information and/or commands.
  • the transceiver 9023 may be connected to the processor 9021 and may be controlled to transmit/receive a wireless signal.
  • the memory 9012 and/or the memory 9022 may be respectively connected inside or outside the processor 9011 and/or the processor 9021 , and may be connected to another processor through various technologies such as wired or wireless connection. may be connected to
  • the first device 9010 and/or the second device 9020 may have one or more antennas.
  • antenna 9014 and/or antenna 9024 may be configured to transmit and receive wireless signals.
  • FIG. 9 illustrates a block diagram of a network node according to an embodiment of the present invention.
  • FIG. 9 when the base station is divided into a central unit (CU) and a distributed unit (DU), it is a diagram illustrating the network node of FIG. W in more detail.
  • CU central unit
  • DU distributed unit
  • base stations W20 and W30 may be connected to the core network W10 , and the base station W30 may be connected to a neighboring base station W20 .
  • the interface between the base stations W20 and W30 and the core network W10 may be referred to as NG, and the interface between the base station W30 and the neighboring base station W20 may be referred to as Xn.
  • the base station W30 may be divided into CUs W32 and DUs W34 and W36. That is, the base station W30 may be hierarchically separated and operated.
  • the CU W32 may be connected to one or more DUs W34 and W36, for example, an interface between the CU W32 and the DUs W34 and W36 may be referred to as F1.
  • the CU (W32) may perform functions of upper layers of the base station, and the DUs (W34, W36) may perform functions of lower layers of the base station.
  • the CU W32 is a radio resource control (RRC), service data adaptation protocol (SDAP), and packet data convergence protocol (PDCP) layer of a base station (eg, gNB) hosting a logical node (logical node)
  • RRC radio resource control
  • SDAP service data adaptation protocol
  • PDCP packet data convergence protocol
  • the DUs W34 and W36 may be logical nodes hosting radio link control (RLC), media access control (MAC), and physical (PHY) layers of the base station.
  • RLC radio link control
  • MAC media access control
  • PHY physical
  • the CU W32 may be a logical node hosting the RRC and PDCP layers of the base station (eg, en-gNB).
  • One DU (W34, W36) may support one or more cells. One cell can be supported by only one DU (W34, W36).
  • One DU (W34, W36) may be connected to one CU (W32), and by appropriate implementation, one DU (W34, W36) may be connected to a plurality of CUs.
  • FIG. 10 illustrates a block diagram of a communication device according to an embodiment of the present invention.
  • FIG. 10 is a diagram illustrating the terminal of FIG. 8 in more detail above.
  • the terminal includes a memory 1010, a processor 1020, a transceiver 1031, a power management module 1091, a battery 1092, a display 1041, an input unit 1053, a speaker 1042 and a microphone 1052, A subscriber identification module (SIM) card, containing one or more antennas.
  • SIM subscriber identification module
  • the processor 1020 may be configured to implement the proposed functions, procedures, and/or methods described herein.
  • the layers of the air interface protocol may be implemented in the processor 1020 .
  • the processor 1020 may include an application-specific integrated circuit (ASIC), other chipsets, logic circuits, and/or data processing devices.
  • the processor 1020 may be an application processor (AP).
  • the processor 1020 may include at least one of a digital signal processor (DSP), a central processing unit (CPU), a graphics processing unit (GPU), and a modem (modulator and demodulator).
  • DSP digital signal processor
  • CPU central processing unit
  • GPU graphics processing unit
  • modem modulator and demodulator
  • processor 1020 examples include SNAPDRAGONTM series processors manufactured by Qualcomm®, EXYNOSTM series processors manufactured by Samsung®, A series processors manufactured by Apple®, HELIOTM series processors manufactured by MediaTek®, INTEL® It may be an ATOMTM series processor manufactured by the company or a corresponding next-generation processor.
  • the power management module 1091 manages power for the processor 1020 and/or the transceiver 1031 .
  • the battery 1092 supplies power to the power management module 1091 .
  • the display 1041 outputs the result processed by the processor 1020 .
  • Input 1053 receives input to be used by processor 1020 .
  • the input unit 1053 may be displayed on the display 1041 .
  • SIM card is an integrated circuit used to securely store an international mobile subscriber identity (IMSI) and its associated keys used to identify and authenticate subscribers in mobile phone devices such as mobile phones and computers. Many SIM cards can also store contact information.
  • IMSI international mobile subscriber identity
  • Many SIM cards can also store contact information.
  • SIM cards may be installed.
  • the terminal may include a plurality of slots into which a plurality of SIM cards can be inserted and a plurality of interfaces.
  • At least one of the plurality of SIM cards may be an embedded SIM (eSIM) implemented in an electronic form.
  • eSIM embedded SIM
  • the memory 1010 is operatively coupled to the processor 1020 , and stores various information for operating the processor 610 .
  • Memory 1010 may include read-only memory (ROM), random access memory (RAM), flash memory, memory cards, storage media, and/or other storage devices.
  • ROM read-only memory
  • RAM random access memory
  • flash memory memory cards
  • storage media storage media
  • other storage devices such as hard disk drives, floppy disk drives, and the like.
  • modules may be stored in memory 1010 and executed by processor 1020 .
  • the memory 1010 may be implemented inside the processor 1020 . Alternatively, the memory 1010 may be implemented outside the processor 1020 , and may be communicatively connected to the processor 1020 through various means known in the art.
  • the transceiver 1031 is operatively coupled to the processor 1020 and transmits and/or receives a wireless signal.
  • the transceiver 1031 includes a transmitter and a receiver.
  • the transceiver 1031 may include a baseband circuit for processing a radio frequency signal.
  • the transceiver controls one or more antennas to transmit and/or receive radio signals.
  • the processor 1020 transmits command information to the transceiver 1031 to transmit, for example, a wireless signal constituting voice communication data to initiate communication.
  • the antenna functions to transmit and receive radio signals.
  • the transceiver 1031 may transmit the signal for processing by the processor 1020 and convert the signal to a baseband.
  • the processed signal may be converted into audible or readable information output through the speaker 1042 .
  • the speaker 1042 outputs sound related results processed by the processor 1020 .
  • Microphone 1052 receives sound related input to be used by processor 1020 .
  • the user inputs command information such as a phone number by, for example, pressing (or touching) a button of the input unit 1053 or voice activation using the microphone 1052 .
  • the processor 1020 receives such command information and processes it to perform an appropriate function, such as making a call to a phone number. Operational data may be extracted from the SIM card or the memory 1010 .
  • the processor 1020 may display command information or driving information on the display 1041 for the user to recognize and for convenience.
  • FIG. 11 is a block diagram showing the configuration of the terminal shown in FIG. 10 in more detail.
  • the terminal 100 includes a transceiver unit 1030, a processor 1020, a memory 1030, a sensing unit 1060, an output unit 1040, an interface unit 1090, an input unit 1050, and a power supply unit 1080, etc. may include
  • the components shown in FIG. 11 are not essential for implementing the terminal, so the terminal described in this specification may have more or fewer components than those listed above.
  • the transceiver 1030 is a wireless communication between the terminal 100 and the wireless communication system, between the terminal 100 and another terminal 100, or between the terminal 100 and an external server. It may include one or more modules that enable In addition, the transceiver 1030 may include one or more modules for connecting the terminal 100 to one or more networks.
  • the transceiver 1030 may include at least one of a broadcast receiving unit 1032 , a mobile communication transceiving unit 1031 , a wireless Internet transceiving unit 1033 , a short-range communication unit 1034 , and a location information module 1150 . .
  • the input unit 1050 includes a camera 1051 or an image input unit for inputting an image signal, a microphone 1052 or an audio input unit for inputting an audio signal, and a user input unit 1053 for receiving information from a user, for example, , a touch key, a push key, etc.).
  • the voice data or image data collected by the input unit 1050 may be analyzed and processed as a user's control command.
  • the sensing unit 1060 may include one or more sensors for sensing at least one of information in the mobile terminal, information on the surrounding environment surrounding the mobile terminal, and user information.
  • the sensing unit 1060 may include a proximity sensor 1061, an illumination sensor 1062, an illumination sensor, a touch sensor, an acceleration sensor, a magnetic sensor, and gravity.
  • G-sensor gyroscope sensor
  • motion sensor RGB sensor
  • infrared sensor IR sensor: infrared sensor
  • fingerprint recognition sensor fingerprint recognition sensor
  • ultrasonic sensor ultrasonic sensor
  • optical sensors eg, cameras (see 1051)
  • microphones see 1052
  • battery gauges environmental sensors (eg, barometers, hygrometers, thermometers, radiation sensors, It may include at least one of a thermal sensor, a gas sensor, etc.) and a chemical sensor (eg, an electronic nose, a healthcare sensor, a biometric sensor, etc.).
  • the mobile terminal disclosed in the present specification may combine and utilize information sensed by at least two or more of these sensors.
  • the output unit 1040 is for generating an output related to visual, auditory or tactile sense, and at least one of a display unit 1041, a sound output unit 1042, a haptip output unit 1043, and an optical output unit 1044.
  • the display unit 1041 may implement a touch screen by forming a layer structure with the touch sensor or being formed integrally with the touch sensor.
  • Such a touch screen may function as a user input unit 1053 that provides an input interface between the terminal 100 and a user, and may provide an output interface between the terminal 100 and a user.
  • the interface unit 1090 serves as a passage with various types of external devices connected to the terminal 100 .
  • This interface unit 1090 a wired / wireless headset port (port), an external charger port (port), a wired / wireless data port (port), a memory card (memory card) port, for connecting a device equipped with an identification module It may include at least one of a port, an audio input/output (I/O) port, a video input/output (I/O) port, and an earphone port.
  • the terminal 100 may perform appropriate control related to the connected external device.
  • the memory 1030 stores data supporting various functions of the terminal 100 .
  • the memory 1030 may store a plurality of application programs (or applications) driven in the terminal 100 , data for operation of the terminal 100 , and commands. At least some of these application programs may be downloaded from an external server through wireless communication. Also, at least some of these application programs may exist on the terminal 100 from the time of shipment for basic functions (eg, incoming calls, outgoing functions, message reception, and outgoing functions) of the terminal 100 . Meanwhile, the application program may be stored in the memory 1030 , installed on the terminal 100 , and driven by the processor 1020 to perform an operation (or function) of the mobile terminal.
  • the processor 1020 generally controls the overall operation of the terminal 100 in addition to the operation related to the application program.
  • the processor 1020 may provide or process appropriate information or functions to a user by processing signals, data, information, etc. input or output through the above-described components or by driving an application program stored in the memory 1030 .
  • the processor 1020 may control at least some of the components discussed with reference to FIG. XX in order to drive an application program stored in the memory 1030 . Furthermore, the processor 1020 may operate by combining at least two or more of the components included in the terminal 100 with each other in order to drive the application program.
  • the power supply unit 1080 receives external power and internal power under the control of the processor 1020 to supply power to each component included in the terminal 100 .
  • the power supply 1080 includes a battery, and the battery may be a built-in battery or a replaceable battery.
  • At least some of the respective components may operate in cooperation with each other in order to implement an operation, control, or control method of a mobile terminal according to various embodiments to be described below.
  • the operation, control, or control method of the mobile terminal may be implemented on the mobile terminal by driving at least one application program stored in the memory 1030 .
  • FIG. 12 is a detailed block diagram illustrating the transceiver 1031 of the wireless device shown in FIG.
  • the transceiver 110 includes a transmitter 111 and a receiver 112 .
  • the transmitter 111 includes a discrete Fourier transform device 1111, a subcarrier mapper 1112, an IFFT device 1113, a CP insertion device 1114, and a radio transmitter 1115.
  • the transceiver 1110 may further include a scramble unit (not shown), a modulation mapper (not shown), a layer mapper (not shown) and a layer permator, and the transceiver 110 may be discarded before the DFT unit 1111 . That is, the transmitter 111 may pass through the DFT device 1111 by transmitting information before mapping the signal to the subcarrier. Signal spreading (or precoding in the same sense) by the DFT unit 111 is subcarrier mapped by the subcarrier mapper 1112 and then passed through the IFFT unit 1113 to generate a time domain signal.
  • the DFT unit 111 performs DFT on the input symbol to output a composite value symbol.
  • the DFT size may be Ntx.
  • the DFT unit 1111 may be referred to as a transform precoder.
  • the subcarrier mapper 1112 maps the complex-valued symbols to subcarriers in the frequency domain.
  • the composite value symbol may be mapped to a resource element corresponding to a resource block allocated for data transmission.
  • the subcarrier mapper 1112 may be referred to as a resource element mapper.
  • the IFFT unit 113 may output a baseband signal for data that is a time domain signal by performing IFFT on the input symbol.
  • the CP inserter 1114 copies the back part of the baseband signal for data and inserts the copied part into the front part of the baseband signal. Since CP insertion prevents Inter-Symbol Interference (ISI) and Inter-Carrier Interference (ICI), orthogonality can be maintained even in a multi-path channel.
  • ISI Inter-Symbol Interference
  • ICI Inter-Carrier Interference
  • the receiver 112 includes a wireless receiver 1121, a CP remover 1122, an FFT device 1123, an equalizer 1124, and the like.
  • the wireless receiver 1121, the CP remover 1122, and the FFT device 1123 of the receiver 112 perform functions inversely proportional to the functions of the wireless transmitter 1115, the CP inserter 1114, and the IFFT device 113 of the transmitter.
  • the receiver 112 may further include a meter.
  • Embodiments according to the present invention may be implemented by various means, for example, hardware, firmware, software, or a combination thereof.
  • an embodiment of the present invention provides one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), FPGAs ( field programmable gate arrays), a processor, a controller, a microcontroller, a microprocessor, and the like.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays
  • an embodiment of the present invention may be implemented in the form of a module, procedure, function, etc. that perform the functions or operations described above.
  • the software code may be stored in the memory and driven by the processor.
  • the memory may be located inside or outside the processor, and may transmit/receive data to and from the processor by various well-known means.
  • FIG. 13 is an exemplary diagram showing the structure of a radio interface protocol (Radio Interface Protocol) in the control plane between the UE and the eNodeB.
  • Radio Interface Protocol Radio Interface Protocol
  • the radio interface protocol is based on the 3GPP radio access network standard.
  • the radio interface protocol is horizontally composed of a physical layer, a data link layer, and a network layer, and vertically a user plane for data information transmission and control. It is divided into a control plane for signal transmission.
  • the protocol layers are L1 (first layer), L2 (second layer), and L3 (third layer) based on the lower three layers of the Open System Interconnection (OSI) reference model widely known in communication systems. ) can be distinguished.
  • OSI Open System Interconnection
  • the first layer provides an information transfer service using a physical channel.
  • the physical layer is connected to an upper medium access control layer through a transport channel, and data between the medium access control layer and the physical layer is transmitted through the transport channel. And, data is transferred between different physical layers, that is, between the physical layers of the transmitting side and the receiving side through a physical channel.
  • a physical channel consists of several subframes on the time axis and several sub-carriers on the frequency axis.
  • one sub-frame is composed of a plurality of symbols and a plurality of sub-carriers on the time axis.
  • One subframe is composed of a plurality of resource blocks (Resource Block), and one resource block is composed of a plurality of symbols and a plurality of subcarriers.
  • a Transmission Time Interval (TTI), which is a unit time for data transmission, is 1 ms corresponding to one subframe.
  • the physical channels existing in the physical layer of the transmitting side and the receiving side are a data channel, a Physical Downlink Shared Channel (PDSCH) and a PUSCH (Physical Uplink Shared Channel), and a control channel, a Physical Downlink Control Channel (PDCCH), It can be divided into a Physical Control Format Indicator Channel (PCFICH), a Physical Hybrid-ARQ Indicator Channel (PHICH), and a Physical Uplink Control Channel (PUCCH).
  • PCFICH Physical Control Format Indicator Channel
  • PHICH Physical Hybrid-ARQ Indicator Channel
  • PUCCH Physical Uplink Control Channel
  • the PCFICH transmitted in the first OFDM symbol of the subframe carries a control format indicator (CFI) regarding the number of OFDM symbols used for transmission of control channels in the subframe (ie, the size of the control region).
  • CFI control format indicator
  • the wireless device first receives the CFI on the PCFICH and then monitors the PDCCH.
  • the PCFICH does not use blind decoding and is transmitted through a fixed PCFICH resource of a subframe.
  • the PHICH carries a positive-acknowledgement (ACK)/negative-acknowledgement (NACK) signal for a UL hybrid automatic repeat request (HARQ).
  • ACK positive-acknowledgement
  • NACK negative-acknowledgement
  • HARQ UL hybrid automatic repeat request
  • An ACK/NACK signal for UL (uplink) data on a PUSCH transmitted by a wireless device is transmitted on a PHICH.
  • the PBCH Physical Broadcast Channel
  • the PBCH carries system information essential for a wireless device to communicate with a base station, and the system information transmitted through the PBCH is called a master information block (MIB).
  • MIB master information block
  • SIB system information transmitted on the PDSCH indicated by the PDCCH
  • PDCCH is a resource allocation and transmission format of a downlink-shared channel (DL-SCH), resource allocation information of an uplink shared channel (UL-SCH), paging information on the PCH, system information on the DL-SCH, random access transmitted on the PDSCH Resource allocation of a higher layer control message such as a response, a set of transmission power control commands for individual UEs in an arbitrary UE group, and activation of voice over internet protocol (VoIP) may be carried.
  • a plurality of PDCCHs may be transmitted in the control region, and the UE may monitor the plurality of PDCCHs.
  • the PDCCH is transmitted on an aggregation of one or several consecutive control channel elements (CCEs).
  • CCEs control channel elements
  • the CCE is a logical allocation unit used to provide the PDCCH with a coding rate according to the state of a radio channel.
  • the CCE corresponds to a plurality of resource element groups.
  • the format of the PDCCH and the possible number of bits of the PDCCH are determined according to the correlation between the number of CCEs and the coding rates provided by the CCEs.
  • DCI downlink control information
  • DCI is a PDSCH resource allocation (this is also called a DL grant (downlink grant)), PUSCH resource allocation (this is also called a UL grant (uplink grant)), a set of transmit power control commands for individual UEs in an arbitrary UE group and/or activation of Voice over Internet Protocol (VoIP).
  • PDSCH resource allocation this is also called a DL grant (downlink grant)
  • PUSCH resource allocation this is also called a UL grant (uplink grant)
  • VoIP Voice over Internet Protocol
  • the Medium Access Control (MAC) layer serves to map various logical channels to various transport channels, and is also a logical channel multiplexing layer that maps multiple logical channels to one transport channel. play a role
  • the MAC layer is connected to the RLC layer, which is the upper layer, by a logical channel, and the logical channel is largely divided into a control channel that transmits information in the control plane and a control channel according to the type of transmitted information. It is divided into a traffic channel that transmits user plane information.
  • the radio link control (RLC) layer of the second layer divides and concatenates the data received from the upper layer to adjust the data size so that the lower layer is suitable for data transmission in the radio section perform the role
  • RLC radio link control
  • TM Transparent mode, transparent mode
  • UM Un-acknowledged mode, no response mode
  • AM Acknowledged mode, It provides three operation modes of response mode.
  • the AM RLC performs a retransmission function through an automatic repeat and request (ARQ) function for reliable data transmission.
  • ARQ automatic repeat and request
  • the packet data convergence protocol (PDCP) layer of the second layer is a relatively large IP containing unnecessary control information in order to efficiently transmit IP packets such as IPv4 or IPv6 in a wireless section with a small bandwidth. It performs a header compression function that reduces the packet header size. This serves to increase the transmission efficiency of the radio section by transmitting only necessary information in the header part of the data.
  • the PDCP layer also performs a security function, which is composed of encryption (Ciphering) to prevent data interception by a third party and integrity protection (Integrity protection) to prevent data manipulation by a third party.
  • the Radio Resource Control (RRC) layer located at the uppermost part of the third layer is defined only in the control plane, and sets (setup), reconfiguration (Re) of radio bearers (Radio Bearer; abbreviated as RB). -Responsible for controlling logical channels, transport channels and physical channels in relation to setting) and release.
  • the RB means a service provided by the second layer for data transfer between the UE and the E-UTRAN.
  • the terminal When there is an RRC connection between the RRC of the terminal and the RRC layer of the radio network, the terminal is in the RRC connected state (Connected mode), otherwise it is in the RRC idle state (Idle mode).
  • the RRC state refers to whether or not the RRC of the UE is logically connected to the RRC of the E-UTRAN. If it is connected, it is called an RRC_CONNECTED state, and if it is not connected, it is called an RRC_IDLE state. Since the UE in the RRC_CONNECTED state has an RRC connection, the E-UTRAN can determine the existence of the UE on a cell-by-cell basis, and thus can effectively control the UE.
  • the E-UTRAN cannot detect the UE's existence, and the core network manages it in a tracking area (TA) unit larger than the cell. That is, the UE in the RRC_IDLE state only detects whether the UE exists in a larger regional unit than the cell, and in order to receive a normal mobile communication service such as voice or data, the UE must transition to the RRC_CONNECTED state.
  • TA tracking area
  • Each TA is identified through a tracking area identity (TAI).
  • the UE may configure the TAI through a tracking area code (TAC), which is information broadcast in a cell.
  • TAC tracking area code
  • the terminal searches for an appropriate cell, establishes an RRC connection in the cell, and registers the terminal information in the core network. After this, the UE stays in the RRC_IDLE state. The terminal staying in the RRC_IDLE state selects (re-)selects a cell as needed, and examines system information or paging information. This is called camping on the cell.
  • the UE that stayed in the RRC_IDLE state needs to establish an RRC connection, it establishes an RRC connection with the RRC of the E-UTRAN through an RRC connection procedure and transitions to the RRC_CONNECTED state.
  • RRC_CONNECTED state There are several cases in which the UE in the RRC_IDLE state needs to establish an RRC connection. For example, when uplink data transmission is required for reasons such as a user's call attempt, or when a paging signal is received from the E-UTRAN. and sending a response message to it.
  • the NAS (Non-Access Stratum) layer performs functions such as session management and mobility management.
  • the NAS layer is divided into a NAS entity for MM (Mobility Management) and a NAS entity for SM (Session Management).
  • the NAS entity for MM provides the following general functions.
  • NAS procedures related to AMF including the following.
  • AMF supports the following functions.
  • the NAS entity for SM performs session management between the UE and the SMF.
  • SM signaling messages are processed, ie, generated and processed in the NAS-SM layer of the UE and SMF.
  • the content of the SM signaling message is not interpreted by the AMF.
  • the NAS entity for MM creates a NAS-MM message that derives how and where to forward the SM signaling message with a security header indicating the NAS transmission of the SM signaling, additional information about the receiving NAS-MM.
  • the NAS entity for SM Upon reception of SM signaling, the NAS entity for SM performs an integrity check of the NAS-MM message, and interprets additional information to derive a method and a place to derive the SM signaling message.
  • the RRC layer, the RLC layer, the MAC layer, and the PHY layer located below the NAS layer are collectively referred to as an access layer (Access Stratum: AS).
  • the 5G usage scenario shown in FIG. 14 is merely exemplary, and the technical features of the present invention can be applied to other 5G usage scenarios not shown in FIG. 14 .
  • the three main requirements areas of 5G are (1) enhanced mobile broadband (eMBB; and) area, (2) massive MTC (mMTC; massive machine type communication) area, and (3) high reliability /Includes the ultra-reliable and low latency communications (URLLC) domain.
  • eMBB enhanced mobile broadband
  • mMTC massive machine type communication
  • URLLC ultra-reliable and low latency communications
  • Some use cases may require multiple domains for optimization, while other use cases may focus on only one key performance indicator (KPI).
  • KPI key performance indicator
  • 5G is to support these various use cases in a flexible and reliable way.
  • eMBB focuses on overall improvements in data rates, latency, user density, capacity and coverage of mobile broadband connections. eMBB aims for a throughput of around 10 Gbps. eMBB goes far beyond basic mobile internet access, covering rich interactive work, media and entertainment applications in the cloud or augmented reality. Data is one of the key drivers of 5G, and for the first time in the 5G era, we may not see dedicated voice services. In 5G, voice is simply expected to be processed as an application program using the data connection provided by the communication system. The main causes of the increased traffic volume are the increase in content size and the increase in the number of applications requiring high data rates. Streaming services (audio and video), interactive video and mobile Internet connections will become more widely used as more devices connect to the Internet.
  • Cloud storage and applications are rapidly increasing in mobile communication platforms, which can be applied to both work and entertainment.
  • Cloud storage is a special use case that drives the growth of uplink data rates.
  • 5G is also used for remote work on the cloud, requiring much lower end-to-end latency to maintain a good user experience when tactile interfaces are used.
  • cloud gaming and video streaming are another key factor demanding improvements in mobile broadband capabilities.
  • Entertainment is essential on smartphones and tablets anywhere, including in high-mobility environments such as trains, cars and airplanes.
  • Another use example is augmented reality for entertainment and information retrieval.
  • augmented reality requires very low latency and instantaneous amount of data.
  • mMTC is designed to enable communication between a large number of low-cost devices powered by batteries and is intended to support applications such as smart metering, logistics, field and body sensors.
  • mMTC is targeting a battery life of 10 years or so and/or a million devices per square kilometer.
  • mMTC enables the seamless connection of embedded sensors in all fields to form a sensor network, and is one of the most anticipated 5G use cases. Potentially, by 2020, there will be 20.4 billion IoT devices. Smart networks leveraging industrial IoT is one of the areas where 5G will play a major role in enabling smart cities, asset tracking, smart utilities, agriculture and security infrastructure.
  • URLLC enables devices and machines to communicate very reliably, with very low latency and high availability, enabling autonomous vehicle-to-vehicle communication and control, industrial control, factory automation, mission-critical applications such as telesurgery and healthcare, smart grid and public Ideal for safety applications.
  • URLLC aims for a delay on the order of 1 ms.
  • URLLC includes new services that will transform industries through high-reliability/ultra-low-latency links such as remote control of critical infrastructure and autonomous vehicles. This level of reliability and latency is essential for smart grid control, industrial automation, robotics, and drone control and coordination.
  • 5G could complement fiber-to-the-home (FTTH) and cable-based broadband (or DOCSIS) as a means of delivering streams rated from hundreds of megabits per second to gigabits per second.
  • FTTH fiber-to-the-home
  • DOCSIS cable-based broadband
  • Such a high speed may be required to deliver TVs with resolutions of 4K or higher (6K, 8K and higher) as well as virtual reality (VR) and augmented reality (AR).
  • VR and AR applications almost include immersive sporting events. Certain applications may require special network settings. For VR games, for example, game companies may need to integrate core servers with network operators' edge network servers to minimize latency.
  • Automotive is expected to be an important new driving force for 5G, with many use cases for mobile communication to vehicles. For example, entertainment for passengers requires both high capacity and high mobile broadband. The reason is that future users continue to expect high-quality connections regardless of their location and speed.
  • Another example of use in the automotive sector is augmented reality dashboards.
  • the augmented reality contrast board allows drivers to identify objects in the dark above what they are seeing through the front window.
  • the augmented reality dashboard superimposes information to inform the driver about the distance and movement of objects.
  • wireless modules will enable communication between vehicles, information exchange between vehicles and supporting infrastructure, and information exchange between automobiles and other connected devices (eg, devices carried by pedestrians).
  • Safety systems can lower the risk of accidents by guiding drivers through alternative courses of action to help them drive safer.
  • the next step will be remote-controlled vehicles or autonomous vehicles.
  • This requires very reliable and very fast communication between different autonomous vehicles and/or between vehicles and infrastructure.
  • autonomous vehicles will perform all driving activities, allowing drivers to focus only on traffic anomalies that the vehicle itself cannot discern.
  • the technological requirements of autonomous vehicles demand ultra-low latency and ultra-fast reliability to increase traffic safety to unattainable levels for humans.
  • Smart cities and smart homes referred to as smart societies, will be embedded as high-density wireless sensor networks as examples of smart networks.
  • a distributed network of intelligent sensors will identify conditions for keeping a city or house cost- and energy-efficient.
  • a similar setup can be performed for each household.
  • Temperature sensors, window and heating controllers, burglar alarms and appliances are all connected wirelessly. Many of these sensors typically require low data rates, low power and low cost.
  • real-time HD video may be required in certain types of devices for surveillance.
  • Smart grids use digital information and communication technologies to interconnect these sensors to gather information and act on it. This information can include supplier and consumer behavior, enabling smart grids to improve efficiency, reliability, economics, sustainability of production and distribution of fuels such as electricity in an automated manner.
  • the smart grid can also be viewed as another low-latency sensor network.
  • the health sector has many applications that can benefit from mobile communications.
  • the communication system may support telemedicine providing clinical care from a remote location. This can help reduce barriers to distance and improve access to consistently unavailable health care services in remote rural areas. It is also used to save lives in critical care and emergency situations.
  • a wireless sensor network based on mobile communication may provide remote monitoring and sensors for parameters such as heart rate and blood pressure.
  • Wireless and mobile communications are becoming increasingly important in industrial applications. Wiring is expensive to install and maintain. Thus, the possibility of replacing cables with reconfigurable radio links is an attractive opportunity for many industries. Achieving this, however, requires that wireless connections operate with similar delays, reliability and capacity as cables, and that their management is simplified. Low latency and very low error probability are new requirements that need to be connected with 5G.
  • Logistics and freight tracking are important use cases for mobile communications that use location-based information systems to enable tracking of inventory and packages from anywhere.
  • Logistics and freight tracking use cases typically require low data rates but require wide range and reliable location information.
  • Machine learning refers to a field that defines various problems dealt with in the field of artificial intelligence and studies methodologies to solve them. do.
  • Machine learning is also defined as an algorithm that improves the performance of a certain task through constant experience.
  • An artificial neural network is a model used in machine learning, and may refer to an overall model having problem-solving ability, which is composed of artificial neurons (nodes) that form a network by combining synapses.
  • An artificial neural network may be defined by a connection pattern between neurons of different layers, a learning process that updates model parameters, and an activation function that generates an output value.
  • the artificial neural network may include an input layer, an output layer, and optionally one or more hidden layers. Each layer includes one or more neurons, and the artificial neural network may include neurons and synapses connecting neurons. In the artificial neural network, each neuron may output a function value of an activation function for input signals, weights, and biases input through synapses.
  • a model parameter means a parameter determined through learning, and includes the weight of the synaptic connection and the bias of the neuron.
  • the hyperparameter refers to a parameter that must be set before learning in a machine learning algorithm, and includes a learning rate, the number of iterations, a mini-batch size, an initialization function, and the like.
  • the purpose of learning the artificial neural network can be seen as determining the model parameters that minimize the loss function.
  • the loss function may be used as an index for determining optimal model parameters in the learning process of the artificial neural network.
  • Machine learning can be classified into supervised learning, unsupervised learning, and reinforcement learning according to a learning method.
  • Supervised learning refers to a method of training an artificial neural network in a state in which a label for the training data is given, and the label is the correct answer (or result value) that the artificial neural network should infer when the training data is input to the artificial neural network.
  • Unsupervised learning may refer to a method of training an artificial neural network in a state where no labels are given for training data.
  • Reinforcement learning can refer to a learning method in which an agent defined in an environment learns to select an action or sequence of actions that maximizes the cumulative reward in each state.
  • machine learning implemented as a deep neural network (DNN) including a plurality of hidden layers is also called deep learning (deep learning), and deep learning is a part of machine learning.
  • DNN deep neural network
  • deep learning deep learning
  • machine learning is used in a sense including deep learning.
  • a robot can mean a machine that automatically handles or operates a task given by its own capabilities.
  • a robot having a function of recognizing an environment and performing an operation by self-judgment may be referred to as an intelligent robot.
  • Robots can be classified into industrial, medical, home, military, etc. depending on the purpose or field of use.
  • the robot may be provided with a driving unit including an actuator or a motor to perform various physical operations such as moving the robot joints.
  • the movable robot includes a wheel, a brake, a propeller, and the like in the driving unit, and may travel on the ground or fly in the air through the driving unit.
  • Autonomous driving refers to a technology that drives itself, and an autonomous driving vehicle refers to a vehicle that travels without or with minimal manipulation of a user.
  • autonomous driving includes technology for maintaining a driving lane, technology for automatically adjusting speed such as adaptive cruise control, technology for automatically driving along a predetermined route, technology for automatically setting a route when a destination is set, etc. All of these can be included.
  • the vehicle includes a vehicle having only an internal combustion engine, a hybrid vehicle having both an internal combustion engine and an electric motor, and an electric vehicle having only an electric motor, and may include not only automobiles, but also trains, motorcycles, and the like.
  • the autonomous vehicle can be viewed as a robot having an autonomous driving function.
  • the extended reality is a generic term for virtual reality (VR), augmented reality (AR), and mixed reality (MR).
  • VR technology provides only CG images of objects or backgrounds in the real world
  • AR technology provides virtual CG images on top of images of real objects
  • MR technology is a computer that mixes and combines virtual objects in the real world. graphic technology.
  • MR technology is similar to AR technology in that it shows both real and virtual objects. However, there is a difference in that in AR technology, a virtual object is used in a form that complements a real object, whereas in MR technology, a virtual object and a real object are used with equal characteristics.
  • HMD Head-Mount Display
  • HUD Head-Up Display
  • mobile phone tablet PC, laptop, desktop, TV, digital signage, etc.
  • V2X VEHICLE-TO-EVERYTHIHG
  • V2X refers to communication technology through all interfaces with the vehicle.
  • the implementation form of V2X may be as follows.
  • V2X in V2X may be a vehicle (VEHICLE).
  • V2X may be expressed as V2V V2V (vehicle-to-vehicle), and may mean communication between vehicles.
  • V2X 15 is an exemplary diagram illustrating the concept of V2X.
  • vehicles ie, wireless devices mounted on the vehicle
  • 100 - 1 , 100 - 2 , and 100 - 3 may communicate with each other.
  • V2X may mean a person (Persian) or a pedestrian (PEDESTRIAN).
  • V2X may be displayed as a vehicle-to-person or vehicle-to-pedestrian (V2P).
  • the pedestrian is not necessarily limited to a person who moves on foot, and may include a person riding a bicycle, a driver or a passenger of a vehicle (below a certain speed).
  • V2X may be expressed as V2I (vehicle-to-infrastructure) or V2N (vehicle-to-network), and may mean communication between a vehicle and a roadside unit (ROADSIDE UNIT: RSU) or a vehicle and a network.
  • RSU roadside unit
  • the roadside device may be a device that informs traffic-related infrastructure, for example, a speed.
  • the roadside device may be implemented in a base station or a fixed terminal.
  • 16 is an exemplary diagram illustrating a configuration of a communication device installed in a vehicle for V2X communication.
  • a communication device installed in a vehicle may be referred to as a Telematics Communication Unit (TCU).
  • TCU Telematics Communication Unit
  • TCU includes LTE transceiver (ie, LTE modem/antenna), first 5G transceiver (ie, modem/antenna using sub 6GHz), second 5G transceiver (ie, modem/antenna using mmWave), WLAN transceiver (ie, WiFi transceiver), a processor, and a memory.
  • the LTE transceiver is a communication module that performs communication based on the LTE standard.
  • the first 5G transceiver ie, modem/antenna using sub 6GHz
  • the second 5G transceiver (ie, modem/antenna using mmWave) is a communication module that performs communication based on the 5G standard in the FR 2 band.
  • the WLAN transceiver (ie, the WiFi transceiver) is a communication module that performs communication based on the WiFi standard.
  • LTE transceiver, first 5G transceiver (ie, modem/antenna using sub 6GHz), second 5G transceiver (ie, modem/antenna using mmWave) and WLAN transceiver (ie, WiFi transceiver) are PCIe ( It can be connected to the processor through an interface such as PCI express).
  • the LTE transceiver, the first 5G transceiver (ie, modem/antenna using sub 6GHz), the second 5G transceiver (ie, modem/antenna using mmWave) and WLAN transceiver (ie, WiFi transceiver) are Although each is shown as a separate object, one communication module includes an LTE transceiver, a first 5G transceiver (ie, a modem/antenna using sub 6GHz), and a second 5G transceiver (ie, a modem/antenna using mmWave). and WLAN transceiver (ie, WiFi transceiver).
  • the processor of the TCU includes the first 5G transceiver (ie, modem/antenna using sub 6GHz), the second 5G transceiver (ie, modem/antenna using mmWave), WLAN transceiver (ie, WiFi transceiver) and memory and connected
  • the memory can store MEC client apps.
  • the processor includes an LTE transceiver, a first 5G transceiver (ie, a modem/antenna using sub 6GHz), a second 5G transceiver (ie, a modem/antenna using mmWave) and a WLAN transceiver (ie, a WiFi transceiver) Data transmitted by base stations or terminals (terminal 1 and terminal 2) can be received by using the same.
  • a first 5G transceiver ie, a modem/antenna using sub 6GHz
  • a second 5G transceiver ie, a modem/antenna using mmWave
  • a WLAN transceiver ie, a WiFi transceiver
  • the processor includes an LTE transceiver, a first 5G transceiver (ie, a modem/antenna using sub 6GHz), a second 5G transceiver (ie, a modem/antenna using mmWave) and a WLAN transceiver (ie, a WiFi transceiver) It can be used to transmit data to base stations or terminals (terminal 1 and terminal 2).
  • the terminals may be wireless communication devices used by a user in a vehicle.
  • the processor of the TCU may be connected to devices provided in the vehicle.
  • the processor may be connected to a Domain Control Unit (DCU), a Local Interconnect Network (LIN) master, a Media Oriented System Transport (MOST) master, and an Ethernet switch.
  • the processor of the TCU may communicate with the DCU using CAN (Controller Area Network) communication technology.
  • the processor of the TCU can communicate with the LIN master using LIN (Local Interconnect Network) communication technology.
  • the processor of the TCU can communicate with the MOST master connected by fiber optics using MOST communication technology.
  • the processor of the TCU can communicate with the Ethernet switch and devices connected to the Ethernet switch using Ethernet communication technology.
  • the DCU is a device that controls a plurality of ECUs.
  • the DCU can communicate with a plurality of ECUs using CAN communication technology.
  • CAN is a standard communication technology designed for microcontrollers or devices to communicate with each other in a vehicle.
  • CAN is a non-host bus type, message-based network protocol mainly used for communication between controllers.
  • the DCU may communicate with an ECU such as an engine ECU that controls the engine, a brake ECU that controls brakes, and an HVAC ECU that controls a heating, ventilation, & air conditioning (HVAC) device.
  • the DCU can transmit data received from the processor of the TCU to each ECU.
  • the DCU can transmit data received from each ECU to the processor of the TCU.
  • the LIN master may communicate with LIN slaves (LIN Slave #1 and LIN Slave #2) using LIN communication technology.
  • LIN Slave #1 may be a slave that controls one of a steering wheel, a roof top, a door, a seat, and a small motor.
  • LIN is a serial communication technology for communication between components in an automobile network.
  • the LIN master may receive data from the processor of the TCU and transmit it to the LIN slaves (LIN Slave #1 and LIN Slave #2).
  • the LIN master may transmit data received from the LIN slaves to the processor of the TCU.
  • the MOST master may communicate with the MOST slaves (MOST Slave #1 and MOST Slave #2) using MOST communication technology.
  • MOST is a serial communication technology that transmits audio, video, and control information using an optical cable.
  • the MOST master can transmit data received from the processor of the TCU to the MOST slaves. Also, the MOST master can transmit data received from the MOST slaves to the processor of the TCU.
  • Ethernet is a computer networking technology used in local area networks (LAN), metropolitan area networks (MAN), and wide area networks (WAN).
  • the processor of the TCU can transmit data to each device through an Ethernet switch using Ethernet communication technology.
  • Each device can transmit data to the processor of the TCU through an Ethernet switch using Ethernet communication technology.
  • Radar radio detection and ranging
  • the radar sensors 1 to 5 are provided in the vehicle to measure the distance, direction, angle, and speed of objects around the vehicle.
  • the radar sensors 1 to 5 may transmit the measured sensor data to the processor of the TCU.
  • LiDAR light detection and ranging
  • lidar is a technology that measures the distance, intensity, speed, etc. to the target by illuminating the target with pulsed laser light and measuring the pulse reflected by the sensor.
  • the lidar sensors 1 to 5 measure the distance to the target, speed, and the like.
  • the lidar sensors 1 to 5 may transmit the measured sensor data to the processor of the TCU.
  • AVN Audio, Video, Navigation
  • AVN is a device provided in a vehicle to provide sound, video, and navigation.
  • AVN may receive data from the processor of the TCU using Ethernet communication technology, and provide sound, video, and navigation based on the received data.
  • AVN can transmit data to the processor of the TCU using Ethernet communication technology.
  • the camera (front) and the camera (rear) can capture images from the front and rear of the vehicle. Although it is illustrated in FIG. 7 that there is one camera in the front and one in the rear, this is only an example, and cameras may be provided on the left and right sides. In addition, a plurality of cameras may be provided in each of the front and rear. The cameras may transmit camera data to, and receive data from, the processor of the TCU using Ethernet communication technology.
  • RSE Rear Side Entertainment
  • RSE stands for rear seat entertainment.
  • RSE is a device that is installed behind the passenger seat or behind the driver's seat of a vehicle to provide entertainment to the occupants.
  • a tablet may also be provided inside the vehicle.
  • the RSE or tablet may receive data from the processor of the TCU and transmit the data to the processor of the TCU using Ethernet communication technology.
  • FIG. 17 shows an example in which the communication device shown in FIG. 10 is mounted on a vehicle for V2X communication.
  • a display (15 in FIG. 10 ) or a tablet may be mounted on the dashboard.
  • the display (15 of FIG. 10) or the tablet may display a screen according to the operation of the present invention, as will be described later.
  • N1 Reference point between the UE and the AMF.
  • N2 Reference point between the (R)AN and the AMF.
  • N3 Reference point between the (R)AN and the UPF.
  • N4 Reference point between the SMF and the UPF.
  • N6 Reference point between the UPF and a Data Network.
  • N9 Reference point between two UPFs.
  • N5 Reference point between the PCF and an AF.
  • N7 Reference point between the SMF and the PCF.
  • N24 Reference point between the PCF in the visited network and the PCF in the home network.
  • N8 Reference point between the UDM and the AMF.
  • N10 Reference point between the UDM and the SMF.
  • N11 Reference point between the AMF and the SMF.
  • N12 Reference point between AMF and AUSF.
  • N13 Reference point between the UDM and Authentication Server function the AUSF.
  • N14 Reference point between two AMFs.
  • N15 Reference point between the PCF and the AMF in the case of non-roaming scenario, PCF in the visited network and AMF in the case of roaming scenario.
  • N16 Reference point between two SMFs, (in roaming case between SMF in the visited network and the SMF in the home network).
  • N17 Reference point between AMF and 5G-EIR.
  • N18 Reference point between any NF and UDSF.
  • N22 Reference point between AMF and NSSF.
  • N23 Reference point between PCF and NWDAF.
  • N24 Reference point between NSSF and NWDAF.
  • N27 Reference point between NRF in the visited network and the NRF in the home network.
  • N31 Reference point between the NSSF in the visited network and the NSSF in the home network.
  • N32 Reference point between SEPP in the visited network and the SEPP in the home network.
  • N33 Reference point between NEF and AF.
  • N40 Reference point between SMF and the CHF.
  • N50 Reference point between AMF and the CBCF.
  • 5GC 5G Core
  • AMF Access and Mobility Management Function
  • SMF Session Management Function
  • PCF Includes Policy Control Function
  • UPF User Plane Function
  • AF Application Function
  • UDM Unified Data Management
  • N3IWF Non-3GPP InterWorking Function
  • the UE 10 is connected to the data network 60 via the UPF 55 through a Next Generation Radio Access Network (NG-RAN).
  • NG-RAN Next Generation Radio Access Network
  • the UE 10 may be provided with data service through untrusted non-3GPP access, for example, a wireless local area network (WLAN).
  • WLAN wireless local area network
  • an N3IWF 59 may be deployed.
  • V2X communication Through V2X communication, the V2X UE exchanges traffic-related information sensed around the vehicle, starting with basic information such as the vehicle's traveling direction and speed, to provide additional services directly or indirectly related to road traffic safety, operation efficiency, and directly or indirectly.
  • V2X By using V2X, it can be used for more complex services or functions, such as autonomous driving or platooning.
  • these services using V2X communication have the premise that V2X UEs provide normal information, and if the V2X UE's detection functions for vehicle operation or surrounding conditions are malfunctioning, incorrect information may be collected, or it may be used for malicious purposes. If false information is intentionally provided to surrounding vehicles through V2X communication, V2X communication-based services for safety, efficiency and convenience not only lose their effectiveness, but also cause a risk to traffic safety and economic loss due to driving inefficiency. can
  • one vehicle or V2X UE pretends to be multiple vehicles or V2X UEs, and multiple messages are transmitted through V2X communication with each V2X UE-related ID as the sender (Source).
  • Sender Sender
  • V2X UE-related ID the sender
  • false information can be further spread and the reliability of the information can be strengthened, thereby adversely affecting the situational awareness and judgment of V2X UEs that have received the information. That is, disguising that multiple vehicles provided the same content or the same situational information can have a greater impact than one specific vehicle or one V2X UE distributing false information.
  • the vehicle may change the driving plan to another detour lane after going straight assuming that the congestion in the left turn lane has exceeded a certain level while driving.
  • other vehicles can be bypassed through a false V2X message that a traffic accident or congestion problem has occurred in front, and malicious vehicles can use the lane or section more easily.
  • misinformation about detours and sudden stops may make other vehicles less efficient in fuel use.
  • V2X UEs participating in V2X communication can have various sensors to detect vehicle operation or surrounding conditions for their own use or for V2X service. For example, a sensor for detecting the distance between the vehicle and the vehicle, a camera for photographing the surroundings of the vehicle, and an antenna used for communication may be installed. This information can be used to detect a V2X UE or vehicle that attempts a Sybil attack. That is, it can be estimated whether there are actually that many vehicles or V2X UEs around for source IDs that have sent messages through V2X communication through several sensors.
  • FIG. 20 illustrates an example of a first terminal UE1 driving on a road according to an embodiment of the present specification.
  • the following information is directly or indirectly obtained to estimate the range of the number of vehicles or the range of the distribution while driving on the road.
  • a vehicle traveling in the same direction may be of interest, or information may be meaningful to a vehicle traveling in the opposite direction, but only the vehicle traveling in the same direction is considered first.
  • V2XUE_List Number and list of V2X UE source IDs that distribute messages informing vehicle operation information through V2X communication (direct broadcast over PC5): Num_V2XUE, V2XUE_List
  • 21 illustrates a case of predicting vehicle distribution on a road by receiving the vehicle's periodic driving information V2X message.
  • V2XUE_RealList the most basic V2X service is that V2X UEs periodically broadcast the driving direction, speed, location, etc. of the corresponding vehicle, and using this, the locations of the vehicles can be estimated to some extent by time. Based on this, the number of vehicles within a specific distance range can be measured. This is called Num_V2XUE_Range in this invention.
  • the source ID of the V2X UE that has succeeded in matching by checking the actual existence of a vehicle physically encountered in the vicinity with Radar, etc., and periodically matching with the location information transmitted by the V2X UE through V2X communication (Matching) and save the message. This will be called V2XUE_RealList.
  • V2X UE1 does not match Num_V2XUE_Range with respect to the range that can be measured with Num_Vis, and the difference is out of the tolerance range, it can be suspected that a V2X message has primarily come with Source IDs greater than the number of vehicles among Num_V2XUE.
  • the number of vehicles actually encountered in V2XUE_RealList is corrected by the distance or area of Num_V2XUE_Range (that is, if the area is 3 times, simply triple the number), even when the difference is outside the tolerance range , the possibility of a Sybil attack may be suspected.
  • FIG. 22 illustrates a process of uploading the surrounding vehicle distribution data measured by vehicles to the RSU.
  • RSU Road Side Unit
  • the RSU can continuously collect these data to calculate a more accurate number for the number of vehicle distributions in a specific area, where the Sybil attack alarm for the data determined to be a false vehicle is reversed and returned to the V2X UE.
  • the RSU can make a black list for which Source IDs in the V2XUE_List can be estimated as Sybil attack and distribute it to V2X UEs.
  • the procedure between the V2X UE and the RSU, and the 3GPP network to the V2X service server is shown in FIG. 23 .
  • FIG. 23 shows a collection of V2X UE's surrounding vehicle data report and RSU and a query process through the server.
  • the UE may display the “vehicle distribution” image and the message “reliability: moderate” on the display 2501 .
  • the V2X UE transmits the measured V2X communication and surrounding vehicle detection data when it arrives at a location where it can communicate with the RSU.
  • 25 is a screen displaying the vehicle distribution and reliability shown based on the number of vehicles estimated by the V2X UE and the V2X message.
  • a map screen for navigation or driving may be displayed as shown in FIG. 25 .
  • the RSU compares the data delivered by the V2X UE with the data delivered by other V2X UEs. It is also compared with passing vehicle data directly measured by the RSU. When there is no significant difference in data based on a specific area, no further procedures are performed.
  • the comparison may be a simple comparison of the number of vehicles, normal and abnormal classification through an artificial intelligence learning algorithm, and various methods may be used.
  • 26 shows a screen informing the RSU of checking the number of vehicles and the possibility of inconsistency of the V2X message.
  • the V2X UE may indicate that additional confirmation is being made through the RSU.
  • the UE may display the messages “Abnormal vehicle distribution detected!” and “Checking RSU” on the display 2601 .
  • the RSU When data with a large difference is reported more than a certain number of times, the RSU returns an Alert informing the V2X UE that there is a possibility of a Sybil attack.
  • the V2X UE may adjust the reliability of driving and traffic information transmitted from other vehicles according to this warning, ignore information other than the known V2X UE at all, or even switch to manual driving.
  • FIG. 27 shows a screen for receiving a user confirmation whether to stop the V2X service according to the Sybil attack alarm of the RSU.
  • the V2X UE may proceed through user confirmation, such as stopping the V2X service.
  • the UE may display messages such as "End of autonomous driving due to low V2X message reliability" and "Continue to terminate” on the display 2701 .
  • RSU transmits the source ID, ITS certificate, and location information of the suspicious V2XUE_List to the V2X Server.
  • the V2X Server checks whether the ITS certificates are abnormal in the ITS authentication-related server, and requests the V2X UEs corresponding to the ITS certificates to inquire the location through the Uu interface through the 3GPP network. When there is a difference from the location information delivered by the RSU by inquiring the replies of the V2X UEs, it is known that other V2X UEs are using it, so it is added to the black list.
  • the V2X Server returns the source ID and ITS certificate list of the V2X UE in question to the RSU.
  • the V2X UE may display the black list update procedure on the screen.
  • the UE may display a “vehicle distribution” image and a message “updating data from RSU” on the display 2801 .
  • the RSU returns the black list received from the V2X Server to the V2X UE.
  • V2X UE ignores V2X messages from source ID in black list and excludes it from driving information.
  • the Sybil attack that can occur in a specific area or relatively narrow range, rather than simply checking the road or traffic information roughly in the center, is confirmed by the actual vehicle existence of the V2X UE and the collection data of several V2X UEs of the RSU is synthesized It can be detected through analysis and inquiry of the V2X server.
  • FIG. 24 is a flowchart illustrating a V2X communication protection method according to an embodiment of the present specification.
  • the first terminal may receive messages from a plurality of terminals, respectively (S2401).
  • the first terminal may determine information on the number of terminals around the first terminal based on the plurality of messages (S2403).
  • the first terminal may collect sensor data of the first terminal (S2405).
  • the first terminal may determine whether it is an attack situation based on the number of terminals information and sensor data (S2407).
  • the first terminal may display information on the number of terminals and information on whether an attack situation exists on the display (S2409).
  • Embodiments according to the present specification may be implemented by various means, for example, hardware, firmware, software, or a combination thereof.
  • an embodiment of the present specification provides one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), FPGAs ( field programmable gate arrays), a processor, a controller, a microcontroller, a microprocessor, and the like.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays
  • an embodiment of the present specification may be implemented in the form of a module, procedure, function, etc. that performs the functions or operations described above.
  • the software code may be stored in the memory and driven by the processor.
  • the memory may be located inside or outside the processor, and may transmit/receive data to and from the processor by various well-known means.
  • the wireless communication technology implemented in the wireless device 100 of the present specification may include a narrowband Internet of Things for low-power communication as well as LTE, NR, and 6G.
  • NB-IoT technology may be an example of LPWAN (Low Power Wide Area Network) technology, and may be implemented in standards such as LTE Cat NB1 and/or LTE Cat NB2, and is limited to the above-mentioned names. not.
  • the wireless communication technology implemented in the wireless device 100 of the present specification may perform communication based on LTE-M technology.
  • the LTE-M technology may be an example of an LPWAN technology, and may be called various names such as enhanced machine type communication (eMTC).
  • eMTC enhanced machine type communication
  • LTE-M technology is 1) LTE CAT 0, 2) LTE Cat M1, 3) LTE Cat M2, 4) LTE non-BL (non-Bandwidth Limited), 5) LTE-MTC, 6) LTE Machine Type Communication, and/or 7) may be implemented in at least one of various standards such as LTE M, and is not limited to the above-described name.
  • the wireless communication technology implemented in the wireless device 100 of the present specification is at least one of ZigBee, Bluetooth, and Low Power Wide Area Network (LPWAN) in consideration of low power communication. may include, and is not limited to the above-mentioned names.
  • the ZigBee technology can create PAN (personal area networks) related to small/low-power digital communication based on various standards such as IEEE 802.15.4, and can be called by various names.
  • the above-described specification is permitted to be implemented as computer-readable code on a medium in which a program is recorded.
  • the computer-readable medium includes all types of recording devices in which data readable by a computer system is stored. Examples of computer-readable media include Hard Disk Drive (HDD), Solid State Disk (SSD), Silicon Disk Drive (SDD), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. There is also a carrier wave (eg, transmission over the Internet) that is implemented in the form of. Also, the computer may include a processor Y120 of the terminal. Accordingly, the above detailed description should not be construed as restrictive in all respects but as exemplary. The scope of this specification should be determined by a reasonable interpretation of the appended claims, and all modifications within the scope of equivalents of this specification are included in the scope of this specification.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 명세서의 일 양상에 따르면, 제1 단말이, 복수의 단말로부터 각각 메시지를 수신하고, 복수의 메시지에 기반하여 제1 단말 주변의 단말 개수 정보를 판단하고, 제1 단말의 센서 데이터를 수집하고, 단말 개수 정보 및 센서 데이터에 기반하여 공격 상황인지 여부를 판단하고, 단말 개수 정보 및 공격 상황인지 여부에 관한 정보를 표시한다.

Description

무선 통신 시스템에서 단말이 V2X 통신을 보호하기 위한 방법
본 명세서는 무선 통신 시스템에서 단말이 사용자 입력에 기반하여 V2X 통신을 보호하기 위한 방법이다.
무선 통신 시스템이 음성이나 데이터 등과 같은 다양한 종류의 통신 서비스를 제공하기 위해 광범위하게 전개되고 있다. 일반적으로 무선 통신 시스템은 가용한 시스템 자원(대역폭, 전송 파워 등)을 공유하여 다중 사용자와의 통신을 지원할 수 있는 다중 접속(multiple access) 시스템이다. 다중 접속 시스템의 예들로는 CDMA(code division multiple access) 시스템, FDMA(frequency division multiple access) 시스템, TDMA(time division multiple access) 시스템, OFDMA(orthogonal frequency division multiple access) 시스템, SC-FDMA(single carrier frequency division multiple access) 시스템, MC-FDMA(multi carrier frequency division multiple access) 시스템 등이 있다.
기기 간(Machine-to-Machine, M2M) 통신과, 높은 데이터 전송량을 요구하는 스마트폰, 태블릿 PC 등의 다양한 장치 및 기술이 출현 및 보급되고 있다. 이에 따라, 셀룰러 네트워크에서 처리될 것이 요구되는 데이터 양이 매우 빠르게 증가하고 있다. 이와 같이 빠르게 증가하는 데이터 처리 요구량을 만족시키기 위해, 더 많은 주파수 대역을 효율적으로 사용하기 위한 반송파 집성(carrier aggregation) 기술, 인지무선(cognitive radio) 기술 등과, 한정된 주파수 내에서 전송되는 데이터 용량을 높이기 위한 다중 안테나 기술, 다중 기지국 협력 기술 등이 발전하고 있다.
한편, 자동차는 사용되는 원동기의 종류에 따라, 내연기관(internal combustion engine) 자동차, 외연기관(external combustion engine) 자동차, 가스터빈(gas turbine) 자동차 또는 전기자동차(electric vehicle) 등으로 분류될 수 있다.
자율주행자동차(Autonomous Vehicle)란 운전자 또는 승객의 조작 없이 자동차 스스로 운행이 가능한 자동차를 말하며, 자율주행시스템(Automated Vehicle & Highway Systems)은 이러한 자율주행자동차가 스스로 운행될 수 있도록 모니터링하고 제어하는 시스템을 말한다.
본 명세서의 목적은, 단말이 사용자 인터페이스를 이용하여 도로 상의 가짜 V2X UE에 의한 가짜 메시지를 구분하기 위한 방법을 제안한다.
또한, 본 명세서의 목적은, 가짜 메시지에 의한 허위 정보에 기반하여 오판된 도로 혼잡 발생을 억제하고 급정거 상황을 방지하는 방법을 제안한다.
본 명세서가 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 이하의 발명의 상세한 설명으로부터 본 명세서가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 명세서의 하나의 실시예에 따른 무선 통신 시스템에서 제1 단말이 V2X 통신을 보호하기 위한 방법에 있어서, 제1 단말이, 복수의 단말로부터 각각 메시지를 수신하는 단계; 상기 복수의 메시지에 기반하여 상기 제1 단말 주변의 단말 개수 정보를 판단하는 단계; 상기 제1 단말의 센서 데이터를 수집하는 단계; 상기 단말 개수 정보 및 상기 센서 데이터에 기반하여 공격 상황인지 여부를 판단하는 단계; 및 상기 제1 단말에 구비된 디스플레이를 통해 상기 단말 개수 정보 및 공격 상황인지 여부에 관한 정보를 표시하는 단계;를 포함하는 것을 특징으로 할 수 있다.
또한, 상기 공격 상황인지 여부에 관한 정보는 신뢰도를 등급으로 나타낸 정보인 것을 특징으로 할 수 있다.
또한, 상기 공격 상황인지 여부에 관한 정보는 비정상 차량 분포가 감지되었다는 경고 메시지를 포함하는 것을 특징으로 할 수 있다.
또한, 공격 상황인 것으로 판단된 경우, 상기 제1 단말의 자율 주행을 중단하는 단계를 더 포함하는 것을 특징으로 할 수 있다.
또한, 상기 자율 주행을 중단하기 전에, V2X 메시지의 신뢰도가 낮아 자율 주행을 종료한다는 경고 메시지를 상기 제1 단말의 디스플레이를 통해 표시하는 단계를 더 포함하는 것을 특징으로 할 수 있다.
또한, 상기 센서 데이터는 상기 제1 단말의 카메라로 촬영한 영상을 포함하는 것을 특징으로 할 수 있다.
또한, 상기 센서 데이터는 상기 제1 단말의 근접 센서에 의해 수집되는 데이터를 포함하는 것을 특징으로 할 수 있다.
또한, 상기 센서 데이터는 상기 제1 단말 주변의 나머지 단말에 의해 수집되어 상기 제1 단말로 수신된 센서 데이터를 포함하는 것을 특징으로 할 수 있다.
또한, 상기 공격 상황인지 여부를 판단하는 단계는, 상기 제1 단말이 이동한 경로의 적어도 하나의 구간에서 상기 센서 데이터와 주변의 단말의 개수 사이의 관계를 학습하는 단계, 및 상기 학습 결과에 기반하여 현재 상기 제1 단말이 이동중인 구간에서의 공격 상황인지 여부를 판단하는 단계를 포함하는 것을 특징으로 할 수 있다.
본 명세서의 실시예에 따르면, SYBIL ATTACK 의도의 V2X UE를 검출할 수 있다.
본 명세서의 또 다른 실시예에 따르면, V2X UE의 FAKE 메시지를 판단하여 허위정보를 무효화시킬 수 있다.
본 명세서에서 얻을 수 있는 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 명세서가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 명세서의 일 실시 예에 따른 AI 장치를 나타낸다.
도 2는 본 명세서의 일 실시 예에 따른 AI 서버를 나타낸다.
도 3은 본 명세서의 일 실시 예에 따른 AI 시스템을 나타낸다.
도 4은 EPC(Evolved Packet Core)를 포함하는 EPS(Evolved Packet System)의 개략적인 구조를 나타내는 도면이다.
도 5는 본 명세서가 적용될 수 있는 E-UTRAN(evolved universal terrestrial radio access network)의 네트워크 구조의 예시도이다.
도 6은 일반적인 NR-RAN의 아키텍쳐를 예시하는 도면이다.
도 7은 5G의 일반적인 아키텍쳐의 예를 보여주고 있다.
도 8은 본 발명의 일 실시 예에 따른 무선 통신 장치를 나타낸다.
도 9은 본 발명의 일 실시 예에 따른 네트워크 노드의 블록 구성도를 예시한다.
도 10는 본 발명의 일 실시예에 따른 통신 장치의 블록 구성도를 예시한다.
도 11은 도 10에 도시된 단말의 구성을 보다 상세히 나타낸 블록도이다.
도 12는 그림 10에 표시된 무선 장치의 송수신기(1031)를 나타내는 상세 블록 다이어그램이다.
도 13는 UE과 eNodeB 사이의 제어 평면에서의 무선 인터페이스 프로토콜(Radio Interface Protocol)의 구조를 나타낸 예시도이다.
도 14는 5G 사용 시나리오의 예를 나타낸다.
도 15은 V2X의 개념을 나타낸 예시도이다.
도 16은 V2X 통신을 위해 차량에 설치되는 통신 장치의 구성을 나타낸 예시도이다.
도 17은 도 10에 도시된 통신 장치가 V2X 통신을 위해 차량에 장착된 장착된 예를 나타낸다
도 18과 도 19는 5G의 일반적인 아키텍쳐의 예를 보여주고 있다.
도 20은 본 명세서의 실시예에 따라 도로 주행 중인 제1 단말(UE1)의 예를 도시한다.
도 21은 차량의 주기적인 운행 정보 V2X 메시지를 전달 받아 도로 내 차량 분포 예측하는 경우를 도시한다.
도 22는 차량들이 측정한 주변 차량 분포 데이터를 RSU에게 업로드하는 과정을 도시한다.
도 23은 V2X UE의 주변 차량 데이터 리포트와 RSU의 취합 및 서버를 통한 조회 과정을 도시한다.
도 24는 본 명세서의 실시에에 따른 V2X 통신 보호 방법을 나타낸 흐름도이다.
도 25는 V2X UE에서 자체 추정한 차량 수 및 V2X 메시지 기반으로 보여주는 차량분포와 신뢰도를 표시하는 화면이다.
도 26은 RSU에 차량 수 및 V2X 메시지의 불일치 가능성을 확인하는 중을 알려주는 화면을 도시한다.
도 27은 RSU의 Sybil attack alarm에 따라 V2X 서비스를 중단할지 사용자 확인을 받는 화면을 도시한다.
도 28은 RSU를 통해 전달 받은 Black list를 업데이트하는 화면을 도시한다.
본 명세서에 관한 이해를 돕기 위해 상세한 설명의 일부로 포함되는, 첨부 도면은 본 명세서에 대한 실시예를 제공하고, 상세한 설명과 함께 본 명세서의 기술적 특징을 설명한다.
본 명세서에서 사용되는 용어는 본 명세서에서의 기능을 고려하면서 허용한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 명세서의 전반에 걸친 내용을 토대로 정의되어야 한다.
이하의 실시 예들은 본 명세서의 구성요소들과 특징들을 소정 형태로 결합한 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려될 수 있다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 본 명세서의 실시 예를 구성할 수도 있다. 본 명세서의 실시 예들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시 예의 일부 구성이나 특징은 다른 실시 예에 포함될 수 있고, 또는 다른 실시 예의 대응하는 구성 또는 특징과 교체될 수 있다.
도면에 대한 설명에서, 본 명세서의 요지를 흐릴 수 있는 절차 또는 단계 등은 기술하지 않았으며, 당업자의 수준에서 이해할 수 있을 정도의 절차 또는 단계는 또한 기술하지 아니하였다.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함(comprising 또는 including)"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "...부", "...기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, "일(a 또는 an)", "하나(one)", "그(the)" 및 유사 관련어는 본 명세서를 기술하는 문맥에 있어서(특히, 이하의 청구항의 문맥에서) 본 명세서에 달리 지시되거나 문맥에 의해 분명하게 반박되지 않는 한, 단수 및 복수 모두를 포함하는 의미로 사용될 수 있다.
본 명세서의 실시 예들은 무선 접속 시스템들인 IEEE 802.xx 시스템, 3GPP 시스템, 3GPP LTE 시스템 및 3GPP2 시스템 중 적어도 하나에 개시된 표준 문서들에 의해 뒷받침될 수 있다. 즉, 본 명세서의 실시 예들 중 설명하지 않은 자명한 단계들 또는 부분들은 상기 문서들을 참조하여 설명될 수 있다.
또한, 본 문서에서 개시하고 있는 모든 용어들은 상기 표준 문서에 의해 설명될 수 있다. 예를 들어, 본 명세서는 3GPP TS 36.211, 3GPP TS 36.213, 3GPP TS 36.321, 3GPP TS 36.322, 3GPP TS 36.323, 3GPP TS 36.331, 3GPP TS 23.203, 3GPP TS 23.401, 3GPP TS 24.301, 3GPP TS 23.228, 3GPP TS 29.228, 3GPP TS 23.218, 3GPP TS 22.011, 3GPP TS 36.413의 표준 문서들 중 하나 이상에 의해 뒷받침될(incorporate by reference) 수 있다.
이하, 본 명세서에 따른 바람직한 실시 형태를 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 본 명세서의 예시적인 실시형태를 설명하고자 하는 것이며, 본 명세서가 실시될 수 있는 유일한 실시형태를 나타내고자 하는 것이 아니다.
또한, 본 명세서의 실시 예들에서 사용되는 특정 용어들은 본 명세서의 이해를 돕기 위해서 제공된 것이며, 이러한 특정 용어의 사용은 본 명세서의 기술적 사상을 벗어나지 않는 범위에서 다른 형태로 변경될 수 있다.
본 명세서에서 기지국은 단말과 직접적으로 통신을 수행하는 네트워크의 종단 노드(terminal node)로서의 의미를 갖는다. 본 문서에서 기지국에 의해 수행되는 것으로 설명된 특정 동작은 경우에 따라서는 기지국의 상위 노드(upper node)에 의해 수행될 수도 있다. 즉, 기지국을 포함하는 다수의 네트워크 노드들(network nodes)로 이루어지는 네트워크에서 단말과의 통신을 위해 수행되는 다양한 동작들은 기지국 또는 기지국 이외의 다른 네트워크 노드들에 의해 수행될 수 있음은 자명하다. '기지국(BS: Base Station)'은 고정국(fixed station), Node B, eNB(evolved-NodeB), BTS(base transceiver system), 액세스 포인트(AP: Access Point), gNB(general NB) 등의 용어에 의해 대체될 수 있다. 또한, '단말(Terminal)'은 고정되거나 이동성을 가질 수 있으며, UE(User Equipment), MS(Mobile Station), UT(user terminal), MSS(Mobile Subscriber Station), SS(Subscriber Station), AMS(Advanced Mobile Station), WT(Wireless terminal), MTC(Machine-Type Communication) 장치, M2M(Machine-to-Machine) 장치, D2D(Device-to-Device) 장치 등의 용어로 대체될 수 있다.
이하에서, 하향링크(DL: downlink)는 기지국에서 단말로의 통신을 의미하며, 상향링크(UL: uplink)는 단말에서 기지국으로의 통신을 의미한다. 하향링크에서 송신기는 기지국의 일부이고, 수신기는 단말의 일부일 수 있다. 상향링크에서 송신기는 단말의 일부이고, 수신기는 기지국의 일부일 수 있다.
설명을 명확하게 하기 위해, 3GPP LTE/LTE-A/NR(New Radio)를 위주로 기술하지만 본 명세서의 기술적 특징이 이에 제한되는 것은 아니다.
5G의 세 가지 주요 요구 사항 영역은 (1) 개선된 모바일 광대역 (Enhanced Mobile Broadband, eMBB) 영역, (2) 다량의 머신 타입 통신 (massive Machine Type Communication, mMTC) 영역 및 (3) 초-신뢰 및 저 지연 통신 (Ultra-reliable and Low Latency Communications, URLLC) 영역을 포함한다.
일부 사용 예(Use Case)는 최적화를 위해 다수의 영역들이 요구될 수 있고, 다른 사용 예는 단지 하나의 핵심 성능 지표 (Key Performance Indicator, KPI)에만 포커싱될 수 있다. 5G는 이러한 다양한 사용 예들을 유연하고 신뢰할 수 있는 방법으로 지원하는 것이다.
eMBB는 기본적인 모바일 인터넷 액세스를 훨씬 능가하게 하며, 풍부한 양방향 작업, 클라우드 또는 증강 현실에서 미디어 및 엔터테인먼트 애플리케이션을 커버한다. 데이터는 5G의 핵심 동력 중 하나이며, 5G 시대에서 처음으로 전용 음성 서비스를 볼 수 없을 수 있다. 5G에서, 음성은 단순히 통신 시스템에 의해 제공되는 데이터 연결을 사용하여 응용 프로그램으로서 처리될 것이 기대된다. 증가된 트래픽 양(volume)을 위한 주요 원인들은 콘텐츠 크기의 증가 및 높은 데이터 전송률을 요구하는 애플리케이션 수의 증가이다. 스트리밍 서비스 (오디오 및 비디오), 대화형 비디오 및 모바일 인터넷 연결은 더 많은 장치가 인터넷에 연결될수록 더 널리 사용될 것이다. 이러한 많은 응용 프로그램들은 사용자에게 실시간 정보 및 알림을 푸쉬하기 위해 항상 켜져 있는 연결성이 필요하다. 클라우드 스토리지 및 애플리케이션은 모바일 통신 플랫폼에서 급속히 증가하고 있으며, 이것은 업무 및 엔터테인먼트 모두에 적용될 수 있다. 그리고, 클라우드 스토리지는 상향링크 데이터 전송률의 성장을 견인하는 특별한 사용 예이다. 5G는 또한 클라우드의 원격 업무에도 사용되며, 촉각 인터페이스가 사용될 때 우수한 사용자 경험을 유지하도록 훨씬 더 낮은 단-대-단(end-to-end) 지연을 요구한다. 엔터테인먼트 예를 들어, 클라우드 게임 및 비디오 스트리밍은 모바일 광대역 능력에 대한 요구를 증가시키는 또 다른 핵심 요소이다. 엔터테인먼트는 기차, 차 및 비행기와 같은 높은 이동성 환경을 포함하는 어떤 곳에서든지 스마트폰 및 태블릿에서 필수적이다. 또 다른 사용 예는 엔터테인먼트를 위한 증강 현실 및 정보 검색이다. 여기서, 증강 현실은 매우 낮은 지연과 순간적인 데이터 양을 필요로 한다.
또한, 가장 많이 예상되는 5G 사용 예 중 하나는 모든 분야에서 임베디드 센서를 원활하게 연결할 수 있는 기능 즉, mMTC에 관한 것이다. 2020년까지 잠재적인 IoT 장치들은 204 억 개에 이를 것으로 예측된다. 산업 IoT는 5G가 스마트 도시, 자산 추적(asset tracking), 스마트 유틸리티, 농업 및 보안 인프라를 허용하게 하는 주요 역할을 수행하는 영역 중 하나이다.
URLLC는 주요 인프라의 원격 제어 및 자체-구동 차량(self-driving vehicle)과 같은 초 신뢰 / 이용 허용한 지연이 적은 링크를 통해 산업을 변화시킬 새로운 서비스를 포함한다. 신뢰성과 지연의 수준은 스마트 그리드 제어, 산업 자동화, 로봇 공학, 드론 제어 및 조정에 필수적이다.
다음으로, 다수의 사용 예들에 대해 보다 구체적으로 살펴본다.
5G는 초당 수백 메가 비트에서 초당 기가 비트로 평가되는 스트림을 제공하는 수단으로 FTTH (fiber-to-the-home) 및 케이블 기반 광대역 (또는 DOCSIS)을 보완할 수 있다. 이러한 빠른 속도는 가상 현실과 증강 현실뿐 아니라 4K 이상(6K, 8K 및 그 이상)의 해상도로 TV를 전달하는데 요구된다. VR(Virtual Reality) 및 AR(Augmented Reality) 애플리케이션들은 거의 몰입형(immersive) 스포츠 경기를 포함한다. 특정 응용 프로그램은 특별한 네트워크 설정이 요구될 수 있다. 예를 들어, VR 게임의 경우, 게임 회사들이 지연을 최소화하기 위해 코어 서버를 네트워크 오퍼레이터의 에지 네트워크 서버와 통합해야 할 수 있다.
자동차(Automotive)는 차량에 대한 이동 통신을 위한 많은 사용 예들과 함께 5G에 있어 중요한 새로운 동력이 될 것으로 예상된다. 예를 들어, 승객을 위한 엔터테인먼트는 동시의 높은 용량과 높은 이동성 모바일 광대역을 요구한다. 그 이유는 미래의 사용자는 그들의 위치 및 속도와 관계 없이 고품질의 연결을 계속해서 기대하기 때문이다. 자동차 분야의 다른 활용 예는 증강 현실 대시보드이다. 이는 운전자가 앞면 창을 통해 보고 있는 것 위에 어둠 속에서 물체를 식별하고, 물체의 거리와 움직임에 대해 운전자에게 말해주는 정보를 겹쳐서 디스플레이 한다. 미래에, 무선 모듈은 차량들 간의 통신, 차량과 지원하는 인프라구조 사이에서 정보 교환 및 자동차와 다른 연결된 디바이스들(예를 들어, 보행자에 의해 수반되는 디바이스들) 사이에서 정보 교환을 허용하게 한다. 안전 시스템은 운전자가 보다 안전한 운전을 할 수 있도록 행동의 대체 코스들을 안내하여 사고의 위험을 낮출 수 있게 한다. 다음 단계는 원격 조종되거나 자체 운전 차량(self-driven vehicle)이 될 것이다. 이는 서로 다른 자체 운전 차량들 사이 및 자동차와 인프라 사이에서 매우 신뢰성이 있고, 매우 빠른 통신을 요구한다. 미래에, 자체 운전 차량이 모든 운전 활동을 수행하고, 운전자는 차량 자체가 식별할 수 없는 교통 이상에만 집중하도록 할 것이다. 자체 운전 차량의 기술적 요구 사항은 트래픽 안전을 사람이 달성할 수 없을 정도의 수준까지 증가하도록 초 저 지연과 초고속 신뢰성을 요구한다.
스마트 사회(smart society)로서 언급되는 스마트 도시와 스마트 홈은 고밀도 무선 센서 네트워크로 임베디드될 것이다. 지능형 센서의 분산 네트워크는 도시 또는 집의 비용 및 에너지-효율적인 유지에 대한 조건을 식별할 것이다. 유사한 설정이 각 가정을 위해 수행될 수 있다. 온도 센서, 창 및 난방 컨트롤러, 도난 경보기 및 가전 제품들은 모두 무선으로 연결된다. 이러한 센서들 중 많은 것들이 전형적으로 낮은 데이터 전송 속도, 저전력 및 저비용이다. 하지만, 예를 들어, 실시간 HD 비디오는 감시를 위해 특정 타입의 장치에서 요구될 수 있다.
열 또는 가스를 포함한 에너지의 소비 및 분배는 고도로 분산화되고 있어, 분산 센서 네트워크의 자동화된 제어가 요구된다. 스마트 그리드는 정보를 수집하고 이에 따라 행동하도록 디지털 정보 및 통신 기술을 사용하여 이런 센서들을 상호 연결한다. 이 정보는 공급 업체와 소비자의 행동을 포함할 수 있으므로, 스마트 그리드가 효율성, 신뢰성, 경제성, 생산의 지속 허용성 및 자동화된 방식으로 전기와 같은 연료들의 분배를 개선하도록 할 수 있다. 스마트 그리드는 지연이 적은 다른 센서 네트워크로 볼 수도 있다.
건강 부문은 이동 통신의 혜택을 누릴 수 있는 많은 응용 프로그램을 보유하고 있다. 통신 시스템은 멀리 떨어진 곳에서 임상 진료를 제공하는 원격 진료를 지원할 수 있다. 이는 거리에 대한 장벽을 줄이는데 도움을 주고, 거리가 먼 농촌에서 지속적으로 이용하지 못하는 의료 서비스들로의 접근을 개선시킬 수 있다. 이는 또한 중요한 진료 및 응급 상황에서 생명을 구하기 위해 사용된다. 이동 통신 기반의 무선 센서 네트워크는 심박수 및 혈압과 같은 파라미터들에 대한 원격 모니터링 및 센서들을 제공할 수 있다.
무선 및 모바일 통신은 산업 응용 분야에서 점차 중요해지고 있다. 배선은 설치 및 유지 비용이 높다. 따라서, 케이블을 재구성할 수 있는 무선 링크들로의 교체 허용성은 많은 산업 분야에서 매력적인 기회이다. 그러나, 이를 달성하는 것은 무선 연결이 케이블과 비슷한 지연, 신뢰성 및 용량으로 동작하는 것과, 그 관리가 단순화될 것이 요구된다. 낮은 지연과 매우 낮은 오류 확률은 5G로 연결될 필요가 있는 새로운 요구 사항이다.
물류(logistics) 및 화물 추적(freight tracking)은 위치 기반 정보 시스템을 사용하여 어디에서든지 인벤토리(inventory) 및 패키지의 추적을 허용하게 하는 이동 통신에 대한 중요한 사용 예이다. 물류 및 화물 추적의 사용 예는 전형적으로 낮은 데이터 속도를 요구하지만 넓은 범위와 신뢰성 있는 위치 정보가 필요하다.
본 명세서에서 후술할 본 명세서는 전술한 5G의 요구 사항을 만족하도록 각 실시예를 조합하거나 변경하여 구현될 수 있다.
이하에서는 후술할 본 명세서가 응용될 수 있는 기술분야와 관련하여 구체적으로 설명한다.
인공 지능(AI: Artificial Intelligence)
인공 지능은 인공적인 지능 또는 이를 만들 수 있는 방법론을 연구하는 분야를 의미하며, 머신 러닝(기계 학습, Machine Learning)은 인공 지능 분야에서 다루는 다양한 문제를 정의하고 그것을 해결하는 방법론을 연구하는 분야를 의미한다. 머신 러닝은 어떠한 작업에 대하여 꾸준한 경험을 통해 그 작업에 대한 성능을 높이는 알고리즘으로 정의하기도 한다.
인공 신경망(ANN: Artificial Neural Network)은 머신 러닝에서 사용되는 모델로써, 시냅스의 결합으로 네트워크를 형성한 인공 뉴런(노드)들로 구성되는, 문제 해결 능력을 가지는 모델 전반을 의미할 수 있다. 인공 신경망은 다른 레이어의 뉴런들 사이의 연결 패턴, 모델 파라미터를 갱신하는 학습 과정, 출력값을 생성하는 활성화 함수(Activation Function)에 의해 정의될 수 있다.
인공 신경망은 입력층(Input Layer), 출력층(Output Layer), 그리고 선택적으로 하나 이상의 은닉층(Hidden Layer)를 포함할 수 있다. 각 층은 하나 이상의 뉴런을 포함하고, 인공 신경망은 뉴런과 뉴런을 연결하는 시냅스를 포함할 수 있다. 인공 신경망에서 각 뉴런은 시냅스를 통해 입력되는 입력 신호들, 가중치, 편향에 대한 활성 함수의 함숫값을 출력할 수 있다.
모델 파라미터는 학습을 통해 결정되는 파라미터를 의미하며, 시냅스 연결의 가중치와 뉴런의 편향 등이 포함된다. 그리고, 하이퍼파라미터는 머신 러닝 알고리즘에서 학습 전에 설정되어야 하는 파라미터를 의미하며, 학습률(Learning Rate), 반복 횟수, 미니 배치 크기, 초기화 함수 등이 포함된다.
인공 신경망의 학습의 목적은 손실 함수를 최소화하는 모델 파라미터를 결정하는 것으로 볼 수 있다. 손실 함수는 인공 신경망의 학습 과정에서 최적의 모델 파라미터를 결정하기 위한 지표로 이용될 수 있다.
머신 러닝은 학습 방식에 따라 지도 학습(Supervised Learning), 비지도 학습(Unsupervised Learning), 강화 학습(Reinforcement Learning)으로 분류할 수 있다.
지도 학습은 학습 데이터에 대한 레이블(label)이 주어진 상태에서 인공 신경망을 학습시키는 방법을 의미하며, 레이블이란 학습 데이터가 인공 신경망에 입력되는 경우 인공 신경망이 추론해 내야 하는 정답(또는 결과 값)을 의미할 수 있다. 비지도 학습은 학습 데이터에 대한 레이블이 주어지지 않는 상태에서 인공 신경망을 학습시키는 방법을 의미할 수 있다. 강화 학습은 어떤 환경 안에서 정의된 에이전트가 각 상태에서 누적 보상을 최대화하는 행동 혹은 행동 순서를 선택하도록 학습시키는 학습 방법을 의미할 수 있다.
인공 신경망 중에서 복수의 은닉층을 포함하는 심층 신경망(DNN: Deep Neural Network)으로 구현되는 머신 러닝을 딥 러닝(심층 학습, Deep Learning)이라 부르기도 하며, 딥 러닝은 머신 러닝의 일부이다. 이하에서, 머신 러닝은 딥 러닝을 포함하는 의미로 사용된다.
로봇(Robot)
로봇은 스스로 보유한 능력에 의해 주어진 일을 자동으로 처리하거나 작동하는 기계를 의미할 수 있다. 특히, 환경을 인식하고 스스로 판단하여 동작을 수행하는 기능을 갖는 로봇을 지능형 로봇이라 칭할 수 있다.
로봇은 사용 목적이나 분야에 따라 산업용, 의료용, 가정용, 군사용 등으로 분류할 수 있다.
로봇은 액츄에이터 또는 모터를 포함하는 구동부를 구비하여 로봇 관절을 움직이는 등의 다양한 물리적 동작을 수행할 수 있다. 또한, 이동 허용한 로봇은 구동부에 휠, 브레이크, 프로펠러 등이 포함되어, 구동부를 통해 지상에서 주행하거나 공중에서 비행할 수 있다.
자율 주행(Self-Driving, Autonomous-Driving)
자율 주행은 스스로 주행하는 기술을 의미하며, 자율 주행 차량은 사용자의 조작 없이 또는 사용자의 최소한의 조작으로 주행하는 차량(Vehicle)을 의미한다.
예컨대, 자율 주행에는 주행중인 차선을 유지하는 기술, 어댑티브 크루즈 컨트롤과 같이 속도를 자동으로 조절하는 기술, 정해진 경로를 따라 자동으로 주행하는 기술, 목적지가 설정되면 자동으로 경로를 설정하여 주행하는 기술 등이 모두 포함될 수 있다.
차량은 내연 기관만을 구비하는 차량, 내연 기관과 전기 모터를 함께 구비하는 하이브리드 차량, 그리고 전기 모터만을 구비하는 전기 차량을 모두 포괄하며, 자동차뿐만 아니라 기차, 오토바이 등을 포함할 수 있다.
이때, 자율 주행 차량은 자율 주행 기능을 가진 로봇으로 볼 수 있다.
확장 현실(XR: eXtended Reality)
확장 현실은 가상 현실(VR: Virtual Reality), 증강 현실(AR: Augmented Reality), 혼합 현실(MR: Mixed Reality)을 총칭한다. VR 기술은 현실 세계의 객체나 배경 등을 CG 영상으로만 제공하고, AR 기술은 실제 사물 영상 위에 가상으로 만들어진 CG 영상을 함께 제공하며, MR 기술은 현실 세계에 가상 객체들을 섞고 결합시켜서 제공하는 컴퓨터 그래픽 기술이다.
MR 기술은 현실 객체와 가상 객체를 함께 보여준다는 점에서 AR 기술과 유사하다. 그러나, AR 기술에서는 가상 객체가 현실 객체를 보완하는 형태로 사용되는 반면, MR 기술에서는 가상 객체와 현실 객체가 동등한 성격으로 사용된다는 점에서 차이점이 있다.
XR 기술은 HMD(Head-Mount Display), HUD(Head-Up Display), 휴대폰, 태블릿 PC, 랩탑, 데스크탑, TV, 디지털 사이니지 등에 적용될 수 있고, XR 기술이 적용된 장치를 XR 장치(XR Device)라 칭할 수 있다.
도 1은 본 명세서의 일 실시 예에 따른 AI 장치(100)를 나타낸다.
AI 장치(100)는 TV, 프로젝터, 휴대폰, 스마트폰, 데스크탑 컴퓨터, 노트북, 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 태블릿 PC, 웨어러블 장치, 셋톱박스(STB), DMB 수신기, 라디오, 세탁기, 냉장고, 데스크탑 컴퓨터, 디지털 사이니지, 로봇, 차량 등과 같은, 고정형 기기 또는 이동 허용한 기기 등으로 구현될 수 있다.
도 1을 참조하면, 단말기(100)는 통신부(110), 입력부(120), 러닝 프로세서(130), 센싱부(140), 출력부(150), 메모리(170) 및 프로세서(180) 등을 포함할 수 있다.
통신부(110)는 유무선 통신 기술을 이용하여 다른 AI 장치(100a 내지 100e)나 AI 서버(200) 등의 외부 장치들과 데이터를 송수신할 수 있다. 예컨대, 통신부(110)는 외부 장치들과 센서 정보, 사용자 입력, 학습 모델, 제어 신호 등을 송수신할 수 있다.
이때, 통신부(110)가 이용하는 통신 기술에는 GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), LTE(Long Term Evolution), 5G, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), 블루투스(Bluetooth쪠), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), ZigBee, NFC(Near Field Communication) 등이 있다.
입력부(120)는 다양한 종류의 데이터를 획득할 수 있다.
이때, 입력부(120)는 영상 신호 입력을 위한 카메라, 오디오 신호를 수신하기 위한 마이크로폰, 사용자로부터 정보를 입력 받기 위한 사용자 입력부 등을 포함할 수 있다. 여기서, 카메라나 마이크로폰을 센서로 취급하여, 카메라나 마이크로폰으로부터 획득한 신호를 센싱 데이터 또는 센서 정보라고 할 수도 있다.
입력부(120)는 모델 학습을 위한 학습 데이터 및 학습 모델을 이용하여 출력을 획득할 때 사용될 입력 데이터 등을 획득할 수 있다. 입력부(120)는 가공되지 않은 입력 데이터를 획득할 수도 있으며, 이 경우 프로세서(180) 또는 러닝 프로세서(130)는 입력 데이터에 대하여 전처리로써 입력 특징점(input feature)을 추출할 수 있다.
러닝 프로세서(130)는 학습 데이터를 이용하여 인공 신경망으로 구성된 모델을 학습시킬 수 있다. 여기서, 학습된 인공 신경망을 학습 모델이라 칭할 수 있다. 학습 모델은 학습 데이터가 아닌 새로운 입력 데이터에 대하여 결과 값을 추론해 내는데 사용될 수 있고, 추론된 값은 어떠한 동작을 수행하기 위한 판단의 기초로 이용될 수 있다.
이때, 러닝 프로세서(130)는 AI 서버(200)의 러닝 프로세서(240)과 함께 AI 프로세싱을 수행할 수 있다.
이때, 러닝 프로세서(130)는 AI 장치(100)에 통합되거나 구현된 메모리를 포함할 수 있다. 또는, 러닝 프로세서(130)는 메모리(170), AI 장치(100)에 직접 결합된 외부 메모리 또는 외부 장치에서 유지되는 메모리를 사용하여 구현될 수도 있다.
센싱부(140)는 다양한 센서들을 이용하여 AI 장치(100) 내부 정보, AI 장치(100)의 주변 환경 정보 및 사용자 정보 중 적어도 하나를 획득할 수 있다.
이때, 센싱부(140)에 포함되는 센서에는 근접 센서, 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, RGB 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 마이크로폰, 라이다, 레이더 등이 있다.
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시킬 수 있다.
이때, 출력부(150)에는 시각 정보를 출력하는 디스플레이부, 청각 정보를 출력하는 스피커, 촉각 정보를 출력하는 햅틱 모듈 등이 포함될 수 있다.
메모리(170)는 AI 장치(100)의 다양한 기능을 지원하는 데이터를 저장할 수 있다. 예컨대, 메모리(170)는 입력부(120)에서 획득한 입력 데이터, 학습 데이터, 학습 모델, 학습 히스토리 등을 저장할 수 있다.
프로세서(180)는 데이터 분석 알고리즘 또는 머신 러닝 알고리즘을 사용하여 결정되거나 생성된 정보에 기초하여, AI 장치(100)의 적어도 하나의 실행 허용한 동작을 결정할 수 있다. 그리고, 프로세서(180)는 AI 장치(100)의 구성 요소들을 제어하여 결정된 동작을 수행할 수 있다.
이를 위해, 프로세서(180)는 러닝 프로세서(130) 또는 메모리(170)의 데이터를 요청, 검색, 수신 또는 활용할 수 있고, 상기 적어도 하나의 실행 허용한 동작 중 예측되는 동작이나, 바람직한 것으로 판단되는 동작을 실행하도록 AI 장치(100)의 구성 요소들을 제어할 수 있다.
이때, 프로세서(180)는 결정된 동작을 수행하기 위하여 외부 장치의 연계가 필요한 경우, 해당 외부 장치를 제어하기 위한 제어 신호를 생성하고, 생성한 제어 신호를 해당 외부 장치에 전송할 수 있다.
프로세서(180)는 사용자 입력에 대하여 의도 정보를 획득하고, 획득한 의도 정보에 기초하여 사용자의 요구 사항을 결정할 수 있다.
이때, 프로세서(180)는 음성 입력을 문자열로 변환하기 위한 STT(Speech To Text) 엔진 또는 자연어의 의도 정보를 획득하기 위한 자연어 처리(NLP: Natural Language Processing) 엔진 중에서 적어도 하나 이상을 이용하여, 사용자 입력에 상응하는 의도 정보를 획득할 수 있다.
이때, STT 엔진 또는 NLP 엔진 중에서 적어도 하나 이상은 적어도 일부가 머신 러닝 알고리즘에 따라 학습된 인공 신경망으로 구성될 수 있다. 그리고, STT 엔진 또는 NLP 엔진 중에서 적어도 하나 이상은 러닝 프로세서(130)에 의해 학습된 것이나, AI 서버(200)의 러닝 프로세서(240)에 의해 학습된 것이거나, 또는 이들의 분산 처리에 의해 학습된 것일 수 있다.
프로세서(180)는 AI 장치(100)의 동작 내용이나 동작에 대한 사용자의 피드백 등을 포함하는 이력 정보를 수집하여 메모리(170) 또는 러닝 프로세서(130)에 저장하거나, AI 서버(200) 등의 외부 장치에 전송할 수 있다. 수집된 이력 정보는 학습 모델을 갱신하는데 이용될 수 있다.
프로세서(180)는 메모리(170)에 저장된 응용 프로그램을 구동하기 위하여, AI 장치(100)의 구성 요소들 중 적어도 일부를 제어할 수 있다. 나아가, 프로세서(180)는 상기 응용 프로그램의 구동을 위하여, AI 장치(100)에 포함된 구성 요소들 중 둘 이상을 서로 조합하여 동작시킬 수 있다.
도 2는 본 명세서의 일 실시 예에 따른 AI 서버(200)를 나타낸다.
도 2를 참조하면, AI 서버(200)는 머신 러닝 알고리즘을 이용하여 인공 신경망을 학습시키거나 학습된 인공 신경망을 이용하는 장치를 의미할 수 있다. 여기서, AI 서버(200)는 복수의 서버들로 구성되어 분산 처리를 수행할 수도 있고, 5G 네트워크로 정의될 수 있다. 이때, AI 서버(200)는 AI 장치(100)의 일부의 구성으로 포함되어, AI 프로세싱 중 적어도 일부를 함께 수행할 수도 있다.
AI 서버(200)는 통신부(210), 메모리(230), 러닝 프로세서(240) 및 프로세서(260) 등을 포함할 수 있다.
통신부(210)는 AI 장치(100) 등의 외부 장치와 데이터를 송수신할 수 있다.
메모리(230)는 모델 저장부(231)를 포함할 수 있다. 모델 저장부(231)는 러닝 프로세서(240)을 통하여 학습 중인 또는 학습된 모델(또는 인공 신경망, 231a)을 저장할 수 있다.
러닝 프로세서(240)는 학습 데이터를 이용하여 인공 신경망(231a)을 학습시킬 수 있다. 학습 모델은 인공 신경망의 AI 서버(200)에 탑재된 상태에서 이용되거나, AI 장치(100) 등의 외부 장치에 탑재되어 이용될 수도 있다.
학습 모델은 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어의 조합으로 구현될 수 있다. 학습 모델의 일부 또는 전부가 소프트웨어로 구현되는 경우 학습 모델을 구성하는 하나 이상의 명령어(instruction)는 메모리(230)에 저장될 수 있다.
프로세서(260)는 학습 모델을 이용하여 새로운 입력 데이터에 대하여 결과 값을 추론하고, 추론한 결과 값에 기초한 응답이나 제어 명령을 생성할 수 있다.
도 3은 본 명세서의 일 실시 예에 따른 AI 시스템(1)을 나타낸다.
도 3을 참조하면, AI 시스템(1)은 AI 서버(200), 로봇(100a), 자율 주행 차량(100b), XR 장치(100c), 스마트폰(100d) 또는 가전(100e) 중에서 적어도 하나 이상이 클라우드 네트워크(10)와 연결된다. 여기서, AI 기술이 적용된 로봇(100a), 자율 주행 차량(100b), XR 장치(100c), 스마트폰(100d) 또는 가전(100e) 등을 AI 장치(100a 내지 100e)라 칭할 수 있다.
클라우드 네트워크(10)는 클라우드 컴퓨팅 인프라의 일부를 구성하거나 클라우드 컴퓨팅 인프라 안에 존재하는 네트워크를 의미할 수 있다. 여기서, 클라우드 네트워크(10)는 3G 네트워크, 4G 또는 LTE(Long Term Evolution) 네트워크 또는 5G 네트워크 등을 이용하여 구성될 수 있다.
즉, AI 시스템(1)을 구성하는 각 장치들(100a 내지 100e, 200)은 클라우드 네트워크(10)를 통해 서로 연결될 수 있다. 특히, 각 장치들(100a 내지 100e, 200)은 기지국을 통해서 서로 통신할 수도 있지만, 기지국을 통하지 않고 직접 서로 통신할 수도 있다.
AI 서버(200)는 AI 프로세싱을 수행하는 서버와 빅 데이터에 대한 연산을 수행하는 서버를 포함할 수 있다.
AI 서버(200)는 AI 시스템(1)을 구성하는 AI 장치들인 로봇(100a), 자율 주행 차량(100b), XR 장치(100c), 스마트폰(100d) 또는 가전(100e) 중에서 적어도 하나 이상과 클라우드 네트워크(10)을 통하여 연결되고, 연결된 AI 장치들(100a 내지 100e)의 AI 프로세싱을 적어도 일부를 도울 수 있다.
이때, AI 서버(200)는 AI 장치(100a 내지 100e)를 대신하여 머신 러닝 알고리즘에 따라 인공 신경망을 학습시킬 수 있고, 학습 모델을 직접 저장하거나 AI 장치(100a 내지 100e)에 전송할 수 있다.
이때, AI 서버(200)는 AI 장치(100a 내지 100e)로부터 입력 데이터를 수신하고, 학습 모델을 이용하여 수신한 입력 데이터에 대하여 결과 값을 추론하고, 추론한 결과 값에 기초한 응답이나 제어 명령을 생성하여 AI 장치(100a 내지 100e)로 전송할 수 있다.
또는, AI 장치(100a 내지 100e)는 직접 학습 모델을 이용하여 입력 데이터에 대하여 결과 값을 추론하고, 추론한 결과 값에 기초한 응답이나 제어 명령을 생성할 수도 있다.
이하에서는, 상술한 기술이 적용되는 AI 장치(100a 내지 100e)의 다양한 실시 예들을 설명한다. 여기서, 도 3에 도시된 AI 장치(100a 내지 100e)는 도 1에 도시된 AI 장치(100)의 구체적인 실시 예로 볼 수 있다.
본 명세서가 적용될 수 있는 AI 및 로봇
로봇(100a)은 AI 기술이 적용되어, 안내 로봇, 운반 로봇, 청소 로봇, 웨어러블 로봇, 엔터테인먼트 로봇, 펫 로봇, 무인 비행 로봇 등으로 구현될 수 있다.
로봇(100a)은 동작을 제어하기 위한 로봇 제어 모듈을 포함할 수 있고, 로봇 제어 모듈은 소프트웨어 모듈 또는 이를 하드웨어로 구현한 칩을 의미할 수 있다.
로봇(100a)은 다양한 종류의 센서들로부터 획득한 센서 정보를 이용하여 로봇(100a)의 상태 정보를 획득하거나, 주변 환경 및 객체를 검출(인식)하거나, 맵 데이터를 생성하거나, 이동 경로 및 주행 계획을 결정하거나, 사용자 상호작용에 대한 응답을 결정하거나, 동작을 결정할 수 있다.
여기서, 로봇(100a)은 이동 경로 및 주행 계획을 결정하기 위하여, 라이다, 레이더, 카메라 중에서 적어도 하나 이상의 센서에서 획득한 센서 정보를 이용할 수 있다.
로봇(100a)은 적어도 하나 이상의 인공 신경망으로 구성된 학습 모델을 이용하여 상기한 동작들을 수행할 수 있다. 예컨대, 로봇(100a)은 학습 모델을 이용하여 주변 환경 및 객체를 인식할 수 있고, 인식된 주변 환경 정보 또는 객체 정보를 이용하여 동작을 결정할 수 있다. 여기서, 학습 모델은 로봇(100a)에서 직접 학습되거나, AI 서버(200) 등의 외부 장치에서 학습된 것일 수 있다.
이때, 로봇(100a)은 직접 학습 모델을 이용하여 결과를 생성하여 동작을 수행할 수도 있지만, AI 서버(200) 등의 외부 장치에 센서 정보를 전송하고 그에 따라 생성된 결과를 수신하여 동작을 수행할 수도 있다.
로봇(100a)은 맵 데이터, 센서 정보로부터 검출한 객체 정보 또는 외부 장치로부터 획득한 객체 정보 중에서 적어도 하나 이상을 이용하여 이동 경로와 주행 계획을 결정하고, 구동부를 제어하여 결정된 이동 경로와 주행 계획에 따라 로봇(100a)을 주행시킬 수 있다.
맵 데이터에는 로봇(100a)이 이동하는 공간에 배치된 다양한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 예컨대, 맵 데이터에는 벽, 문 등의 고정 객체들과 화분, 책상 등의 이동 허용한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 그리고, 객체 식별 정보에는 명칭, 종류, 거리, 위치 등이 포함될 수 있다.
또한, 로봇(100a)은 사용자의 제어/상호작용에 기초하여 구동부를 제어함으로써, 동작을 수행하거나 주행할 수 있다. 이때, 로봇(100a)은 사용자의 동작이나 음성 발화에 따른 상호작용의 의도 정보를 획득하고, 획득한 의도 정보에 기초하여 응답을 결정하여 동작을 수행할 수 있다.
본 명세서가 적용될 수 있는 AI 및 자율주행
자율 주행 차량(100b)은 AI 기술이 적용되어, 이동형 로봇, 차량, 무인 비행체 등으로 구현될 수 있다.
자율 주행 차량(100b)은 자율 주행 기능을 제어하기 위한 자율 주행 제어 모듈을 포함할 수 있고, 자율 주행 제어 모듈은 소프트웨어 모듈 또는 이를 하드웨어로 구현한 칩을 의미할 수 있다. 자율 주행 제어 모듈은 자율 주행 차량(100b)의 구성으로써 내부에 포함될 수도 있지만, 자율 주행 차량(100b)의 외부에 별도의 하드웨어로 구성되어 연결될 수도 있다.
자율 주행 차량(100b)은 다양한 종류의 센서들로부터 획득한 센서 정보를 이용하여 자율 주행 차량(100b)의 상태 정보를 획득하거나, 주변 환경 및 객체를 검출(인식)하거나, 맵 데이터를 생성하거나, 이동 경로 및 주행 계획을 결정하거나, 동작을 결정할 수 있다.
여기서, 자율 주행 차량(100b)은 이동 경로 및 주행 계획을 결정하기 위하여, 로봇(100a)과 마찬가지로, 라이다, 레이더, 카메라 중에서 적어도 하나 이상의 센서에서 획득한 센서 정보를 이용할 수 있다.
특히, 자율 주행 차량(100b)은 시야가 가려지는 영역이나 일정 거리 이상의 영역에 대한 환경이나 객체는 외부 장치들로부터 센서 정보를 수신하여 인식하거나, 외부 장치들로부터 직접 인식된 정보를 수신할 수 있다.
자율 주행 차량(100b)은 적어도 하나 이상의 인공 신경망으로 구성된 학습 모델을 이용하여 상기한 동작들을 수행할 수 있다. 예컨대, 자율 주행 차량(100b)은 학습 모델을 이용하여 주변 환경 및 객체를 인식할 수 있고, 인식된 주변 환경 정보 또는 객체 정보를 이용하여 주행 동선을 결정할 수 있다. 여기서, 학습 모델은 자율 주행 차량(100b)에서 직접 학습되거나, AI 서버(200) 등의 외부 장치에서 학습된 것일 수 있다.
이때, 자율 주행 차량(100b)은 직접 학습 모델을 이용하여 결과를 생성하여 동작을 수행할 수도 있지만, AI 서버(200) 등의 외부 장치에 센서 정보를 전송하고 그에 따라 생성된 결과를 수신하여 동작을 수행할 수도 있다.
자율 주행 차량(100b)은 맵 데이터, 센서 정보로부터 검출한 객체 정보 또는 외부 장치로부터 획득한 객체 정보 중에서 적어도 하나 이상을 이용하여 이동 경로와 주행 계획을 결정하고, 구동부를 제어하여 결정된 이동 경로와 주행 계획에 따라 자율 주행 차량(100b)을 주행시킬 수 있다.
맵 데이터에는 자율 주행 차량(100b)이 주행하는 공간(예컨대, 도로)에 배치된 다양한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 예컨대, 맵 데이터에는 가로등, 바위, 건물 등의 고정 객체들과 차량, 보행자 등의 이동 허용한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 그리고, 객체 식별 정보에는 명칭, 종류, 거리, 위치 등이 포함될 수 있다.
또한, 자율 주행 차량(100b)은 사용자의 제어/상호작용에 기초하여 구동부를 제어함으로써, 동작을 수행하거나 주행할 수 있다. 이때, 자율 주행 차량(100b)은 사용자의 동작이나 음성 발화에 따른 상호작용의 의도 정보를 획득하고, 획득한 의도 정보에 기초하여 응답을 결정하여 동작을 수행할 수 있다.
본 명세서가 적용될 수 있는 AI 및 XR
XR 장치(100c)는 AI 기술이 적용되어, HMD(Head-Mount Display), 차량에 구비된 HUD(Head-Up Display), 텔레비전, 휴대폰, 스마트 폰, 컴퓨터, 웨어러블 디바이스, 가전 기기, 디지털 사이니지, 차량, 고정형 로봇이나 이동형 로봇 등으로 구현될 수 있다.
XR 장치(100c)는 다양한 센서들을 통해 또는 외부 장치로부터 획득한 3차원 포인트 클라우드 데이터 또는 이미지 데이터를 분석하여 3차원 포인트들에 대한 위치 데이터 및 속성 데이터를 생성함으로써 주변 공간 또는 현실 객체에 대한 정보를 획득하고, 출력할 XR 객체를 렌더링하여 출력할 수 있다. 예컨대, XR 장치(100c)는 인식된 물체에 대한 추가 정보를 포함하는 XR 객체를 해당 인식된 물체에 대응시켜 출력할 수 있다.
XR 장치(100c)는 적어도 하나 이상의 인공 신경망으로 구성된 학습 모델을 이용하여 상기한 동작들을 수행할 수 있다. 예컨대, XR 장치(100c)는 학습 모델을 이용하여 3차원 포인트 클라우드 데이터 또는 이미지 데이터에서 현실 객체를 인식할 수 있고, 인식한 현실 객체에 상응하는 정보를 제공할 수 있다. 여기서, 학습 모델은 XR 장치(100c)에서 직접 학습되거나, AI 서버(200) 등의 외부 장치에서 학습된 것일 수 있다.
이때, XR 장치(100c)는 직접 학습 모델을 이용하여 결과를 생성하여 동작을 수행할 수도 있지만, AI 서버(200) 등의 외부 장치에 센서 정보를 전송하고 그에 따라 생성된 결과를 수신하여 동작을 수행할 수도 있다.
본 명세서가 적용될 수 있는 AI, 로봇 및 자율주행
로봇(100a)은 AI 기술 및 자율 주행 기술이 적용되어, 안내 로봇, 운반 로봇, 청소 로봇, 웨어러블 로봇, 엔터테인먼트 로봇, 펫 로봇, 무인 비행 로봇 등으로 구현될 수 있다.
AI 기술과 자율 주행 기술이 적용된 로봇(100a)은 자율 주행 기능을 가진 로봇 자체나, 자율 주행 차량(100b)과 상호작용하는 로봇(100a) 등을 의미할 수 있다.
자율 주행 기능을 가진 로봇(100a)은 사용자의 제어 없이도 주어진 동선에 따라 스스로 움직이거나, 동선을 스스로 결정하여 움직이는 장치들을 통칭할 수 있다.
자율 주행 기능을 가진 로봇(100a) 및 자율 주행 차량(100b)은 이동 경로 또는 주행 계획 중 하나 이상을 결정하기 위해 공통적인 센싱 방법을 사용할 수 있다. 예를 들어, 자율 주행 기능을 가진 로봇(100a) 및 자율 주행 차량(100b)은 라이다, 레이더, 카메라를 통해 센싱된 정보를 이용하여, 이동 경로 또는 주행 계획 중 하나 이상을 결정할 수 있다.
자율 주행 차량(100b)과 상호작용하는 로봇(100a)은 자율 주행 차량(100b)과 별개로 존재하면서, 자율 주행 차량(100b)의 내부 또는 외부에서 자율 주행 기능에 연계되거나, 자율 주행 차량(100b)에 탑승한 사용자와 연계된 동작을 수행할 수 있다.
이때, 자율 주행 차량(100b)과 상호작용하는 로봇(100a)은 자율 주행 차량(100b)을 대신하여 센서 정보를 획득하여 자율 주행 차량(100b)에 제공하거나, 센서 정보를 획득하고 주변 환경 정보 또는 객체 정보를 생성하여 자율 주행 차량(100b)에 제공함으로써, 자율 주행 차량(100b)의 자율 주행 기능을 제어하거나 보조할 수 있다.
또는, 자율 주행 차량(100b)과 상호작용하는 로봇(100a)은 자율 주행 차량(100b)에 탑승한 사용자를 모니터링하거나 사용자와의 상호작용을 통해 자율 주행 차량(100b)의 기능을 제어할 수 있다. 예컨대, 로봇(100a)은 운전자가 졸음 상태인 경우로 판단되는 경우, 자율 주행 차량(100b)의 자율 주행 기능을 활성화하거나 자율 주행 차량(100b)의 구동부의 제어를 보조할 수 있다. 여기서, 로봇(100a)이 제어하는 자율 주행 차량(100b)의 기능에는 단순히 자율 주행 기능뿐만 아니라, 자율 주행 차량(100b)의 내부에 구비된 네비게이션 시스템이나 오디오 시스템에서 제공하는 기능도 포함될 수 있다.
또는, 자율 주행 차량(100b)과 상호작용하는 로봇(100a)은 자율 주행 차량(100b)의 외부에서 자율 주행 차량(100b)에 정보를 제공하거나 기능을 보조할 수 있다. 예컨대, 로봇(100a)은 스마트 신호등과 같이 자율 주행 차량(100b)에 신호 정보 등을 포함하는 교통 정보를 제공할 수도 있고, 전기 차량의 자동 전기 충전기와 같이 자율 주행 차량(100b)과 상호작용하여 충전구에 전기 충전기를 자동으로 연결할 수도 있다.
본 명세서가 적용될 수 있는 AI, 로봇 및 XR
로봇(100a)은 AI 기술 및 XR 기술이 적용되어, 안내 로봇, 운반 로봇, 청소 로봇, 웨어러블 로봇, 엔터테인먼트 로봇, 펫 로봇, 무인 비행 로봇, 드론 등으로 구현될 수 있다.
XR 기술이 적용된 로봇(100a)은 XR 영상 내에서의 제어/상호작용의 대상이 되는 로봇을 의미할 수 있다. 이 경우, 로봇(100a)은 XR 장치(100c)와 구분되며 서로 연동될 수 있다.
XR 영상 내에서의 제어/상호작용의 대상이 되는 로봇(100a)은 카메라를 포함하는 센서들로부터 센서 정보를 획득하면, 로봇(100a) 또는 XR 장치(100c)는 센서 정보에 기초한 XR 영상을 생성하고, XR 장치(100c)는 생성된 XR 영상을 출력할 수 있다. 그리고, 이러한 로봇(100a)은 XR 장치(100c)를 통해 입력되는 제어 신호 또는 사용자의 상호작용에 기초하여 동작할 수 있다.
예컨대, 사용자는 XR 장치(100c) 등의 외부 장치를 통해 원격으로 연동된 로봇(100a)의 시점에 상응하는 XR 영상을 확인할 수 있고, 상호작용을 통하여 로봇(100a)의 자율 주행 경로를 조정하거나, 동작 또는 주행을 제어하거나, 주변 객체의 정보를 확인할 수 있다.
본 명세서가 적용될 수 있는 AI, 자율주행 및 XR
자율 주행 차량(100b)은 AI 기술 및 XR 기술이 적용되어, 이동형 로봇, 차량, 무인 비행체 등으로 구현될 수 있다.
XR 기술이 적용된 자율 주행 차량(100b)은 XR 영상을 제공하는 수단을 구비한 자율 주행 차량이나, XR 영상 내에서의 제어/상호작용의 대상이 되는 자율 주행 차량 등을 의미할 수 있다. 특히, XR 영상 내에서의 제어/상호작용의 대상이 되는 자율 주행 차량(100b)은 XR 장치(100c)와 구분되며 서로 연동될 수 있다.
XR 영상을 제공하는 수단을 구비한 자율 주행 차량(100b)은 카메라를 포함하는 센서들로부터 센서 정보를 획득하고, 획득한 센서 정보에 기초하여 생성된 XR 영상을 출력할 수 있다. 예컨대, 자율 주행 차량(100b)은 HUD를 구비하여 XR 영상을 출력함으로써, 탑승자에게 현실 객체 또는 화면 속의 객체에 대응되는 XR 객체를 제공할 수 있다.
이때, XR 객체가 HUD에 출력되는 경우에는 XR 객체의 적어도 일부가 탑승자의 시선이 향하는 실제 객체에 오버랩되도록 출력될 수 있다. 반면, XR 객체가 자율 주행 차량(100b)의 내부에 구비되는 디스플레이에 출력되는 경우에는 XR 객체의 적어도 일부가 화면 속의 객체에 오버랩되도록 출력될 수 있다. 예컨대, 자율 주행 차량(100b)은 차로, 타 차량, 신호등, 교통 표지판, 이륜차, 보행자, 건물 등과 같은 객체와 대응되는 XR 객체들을 출력할 수 있다.
XR 영상 내에서의 제어/상호작용의 대상이 되는 자율 주행 차량(100b)은 카메라를 포함하는 센서들로부터 센서 정보를 획득하면, 자율 주행 차량(100b) 또는 XR 장치(100c)는 센서 정보에 기초한 XR 영상을 생성하고, XR 장치(100c)는 생성된 XR 영상을 출력할 수 있다. 그리고, 이러한 자율 주행 차량(100b)은 XR 장치(100c) 등의 외부 장치를 통해 입력되는 제어 신호 또는 사용자의 상호작용에 기초하여 동작할 수 있다.
먼저, 본 명세서에서 사용되는 용어들은 다음과 같이 정의된다.
- IMS(IP Multimedia Subsystem or IP Multimedia Core Network Subsystem): IP 상으로 음성 또는 다른 멀티미디어 서비스를 배달하기 위한 표준화를 제공하기 위한 구조적(architectural) 프레임워크(framework).
- UMTS(Universal Mobile Telecommunications System): 3GPP에 의해서 개발된, GSM(Global System for Mobile Communication) 기반의 3 세대(Generation) 이동 통신 기술.
- EPS(Evolved Packet System): IP(Internet Protocol) 기반의 PS(packet switched) 코어(core) 네트워크인 EPC(Evolved Packet Core)와 LTE/UTRAN 등의 액세스 네트워크로 구성된 네트워크 시스템. UMTS가 진화된 형태의 네트워크이다.
- NodeB: GERAN/UTRAN의 기지국. 옥외에 설치하며 커버리지는 매크로 셀(macro cell) 규모이다.
- eNodeB/eNB: E-UTRAN의 기지국. 옥외에 설치하며 커버리지는 매크로 셀(macro cell) 규모이다.
- UE(User Equipment): 사용자 기기. UE는 UE(terminal), ME(Mobile Equipment), MS(Mobile Station) 등의 용어로 언급될 수도 있다. 또한, UE는 노트북, 휴대폰, PDA(Personal Digital Assistant), 스마트 폰, 멀티미디어 기기 등과 같이 휴대 허용한 기기일 수 있고, 또는 PC(Personal Computer), 차량 탑재 장치와 같이 휴대 불허용능한 기기일 수도 있다. MTC 관련 내용에서 UE 또는 단말이라는 용어는 MTC 디바이스를 지칭할 수 있다.
- HNB(Home NodeB): UMTS 네트워크의 기지국으로서 옥내에 설치하며 커버리지는 마이크로 셀(micro cell) 규모이다.
- HeNB(Home eNodeB): EPS 네트워크의 기지국으로서 옥내에 설치하며 커버리지는 마이크로 셀 규모이다.
- MME(Mobility Management Entity): 이동성 관리(Mobility Management; MM), 세션 관리(Session Management; SM) 기능을 수행하는 EPS 네트워크의 네트워크 노드.
- PDN-GW(Packet Data Network-Gateway)/PGW/P-GW: UE IP 주소 할당, 패킷 스크리닝(screening) 및 필터링, 과금 데이터 취합(charging data collection) 기능 등을 수행하는 EPS 네트워크의 네트워크 노드.
- SGW(Serving Gateway)/S-GW: 이동성 앵커(mobility anchor), 패킷 라우팅(routing), 휴지(idle) 모드 패킷 버퍼링, MME가 UE를 페이징하도록 트리거링하는 기능 등을 수행하는 EPS 네트워크의 네트워크 노드.
- PCRF (Policy and Charging Rule Function): 서비스 플로우(service flow)별로 차별화된 QoS 및 과금 정책을 동적(dynamic) 으로 적용하기 위한 정책 결정(Policy decision)을 수행하는 EPS 네트워크의 네트워크 노드.
- OMA DM (Open Mobile Alliance Device Management): 핸드폰, PDA, 휴대용 컴퓨터 등과 같은 모바일 디바이스들 관리를 위해 디자인 된 프로토콜로써, 디바이스 설정(configuration), 펌웨어 업그레이드(firmware upgrade), 오류 보고 (Error Report)등의 기능을 수행함.
- OAM (Operation Administration and Maintenance): 네트워크 결함 표시, 성능정보, 그리고 데이터와 진단 기능을 제공하는 네트워크 관리 기능군.
- NAS(Non-Access Stratum): UE와 MME 간의 제어 플레인(control plane)의 상위 단(stratum). LTE/UMTS 프로토콜 스택에서 UE와 코어(core) 네트워크간의 시그널링, 트래픽 메시지를 주고 받기 위한 기능적인 계층으로서, UE의 이동성을 지원하고, UE와 PDN GW 간의 IP 연결을 수립(establish) 및 유지하는 세션 관리 절차 및 IP 주소 관리 등을 지원한다.
- EMM (EPS Mobility Management): NAS 계층의 서브-계층으로서, UE가 네트워크 어태치(attach)되어 있는지 디태치(detach)되어 있는지에 따라 EMM은 "EMM-Registered" 아니면 "EMM-Deregistered" 상태에 있을 수 있다.
- ECM (EMM Connection Management) 연결(connection): UE와 MME가 사이에 수립(establish)된, NAS 메시지의 교환(exchange)을 위한 시그널링 연결(connection). ECM 연결은 UE와 eNB 사이의 RRC 연결과 상기 eNB와 MME 사이의 S1 시그널링 연결로 구성된 논리(logical) 연결이다. ECM 연결이 수립(establish)/종결(terminate)되면, 상기 RRC 및 S1 시그널링 연결은 마찬가지로 수립/종결된다. 수립된 ECM 연결은 UE에게는 eNB와 수립된 RRC 연결을 갖는 것을 의미하며, MME에게는 상기 eNB와 수립된 S1 시그널링 연결을 갖는 것을 의미한다. NAS 시그널링 연결, 즉, ECM 연결이 수립되어 있는지에 따라, ECM은 "ECM-Connected" 아니면 "ECM-Idle" 상태를 가질 수 있다.
- AS (Access-Stratum): UE와 무선(혹은 접속) 네트워크 간의 프로토콜 스택을 포함하며, 데이터 및 네트워크 제어 신호 전송 등을 담당한다.
- NAS 설정(configuration) MO (Management Object): NAS 기능(Functionality)과 연관된 파라미터들(parameters)을 UE에게 설정하는 과정에서 사용되는 MO (Management object).
- PDN(Packet Data Network): 특정 서비스를 지원하는 서버(예를 들어, MMS(Multimedia Messaging Service) 서버, WAP(Wireless Application Protocol) 서버 등)가 위치하고 있는 네트워크.
- PDN 연결: 하나의 IP 주소(하나의 IPv4 주소 및/또는 하나의 IPv6 프리픽스)로 표현되는, UE와 PDN 간의 논리적인 연결.
- APN (Access Point Name): PDN을 지칭하거나 구분하는 문자열. 요청한 서비스나 네트워크에 접속하기 위해서는 특정 P-GW를 거치게 되는데, 이 P-GW를 찾을 수 있도록 네트워크 내에서 미리 정의한 이름(문자열)을 의미한다. (예를 들어, internet.mnc012.mcc345.gprs)
- RAN(Radio Access Network): 3GPP 네트워크에서 NodeB, eNodeB 및 이들을 제어하는 RNC(Radio Network Controller)를 포함하는 단위. UE 간에 존재하며 코어 네트워크로의 연결을 제공한다.
- HLR(Home Location Register)/HSS(Home Subscriber Server): 3GPP 네트워크 내의 가입자 정보를 가지고 있는 데이터베이스. HSS는 설정 저장(configuration storage), 식별자 관리(identity management), 사용자 상태 저장 등의 기능을 수행할 수 있다.
- PLMN(Public Land Mobile Network): 개인들에게 이동통신 서비스를 제공할 목적으로 구성된 네트워크. 오퍼레이터 별로 구분되어 구성될 수 있다.
- ANDSF(Access Network Discovery and Selection Function): 하나의 네트워크 엔티티(entity)로서 사업자 단위로 UE가 사용 허용한 접속(access)을 발견하고 선택하도록 하는 Policy를 제공.
- EPC 경로(또는 infrastructure data path): EPC를 통한 사용자 평면 커뮤니케이션 경로
- E-RAB (E-UTRAN Radio Access Bearer): S1 베어러와 해당 데이터 무선 베어러의 연결(concatenation)을 말한다. E-RAB가 존재하면 상기 E-RAB와 NAS의 EPS 베어러 사이에 일대일 매핑이 있다.
- GTP (GPRS Tunneling Protocol): GSM, UMTS 및 LTE 네트워크들 내에서 일반 패킷 무선 서비스(general packet radio service, GPRS)를 나르기 위해 사용되는 IP-기반 통신들 프로토콜들의 그룹. 3GPP 아키텍쳐 내에는, GTP 및 프록시 모바일 IPv6 기반 인터페이스들이 다양한 인터페이스 포인트 상에 특정(specify)되어 있다. GTP는 몇몇 프로토콜들(예, GTP-C, GTP-U 및 GTP')으로 분해(decompose)될 수 있다. GTP-C는 게이트웨이 GPRS 지원 노드들(GGSN) 및 서빙 GPRS 지원 노드들(SGSN) 간 시그널링을 위해 GPRS 코어(core) 네트워크 내에서 사용된다. GTP-C는 상기 SGSN이 사용자를 위해 세션을 활성화(activate)(예, PDN 컨텍스트 활성화(activation))하는 것, 동일 세션을 비활성화(deactivate)하는 것, 서비스 파라미터들의 품질(quality)를 조정(adjust)하는 것, 또는 다른 SGSN으로부터 막 동작한 가입자(subscriber)를 위한 세션을 갱신하는 것을 허용한다. GTP-U는 상기 GPRS 코어 네트워크 내에서 그리고 무선 접속 네트워크 및 코어 네트워크 간에서 사용자 데이터를 나르기 위해 사용된다. 도 1은 EPC(Evolved Packet Core)를 포함하는 EPS(Evolved Packet System)의 개략적인 구조를 나타내는 도면이다.
- 무선 자원으로서의 셀(cell): 3GPP LTE/LTE-A 시스템은 무선 자원을 관리하기 위해 셀(cell)의 개념을 사용하고 있는데, 무선 자원과 연관된 셀(cell)은 지리적 영역의 셀(cell)과 구분된다. 무선 자원과 연관된 "셀"이라 함은 하향링크 자원(DL resources)와 상향링크 자원(UL resources)의 조합, 즉, DL 반송파와 UL 반송파의 조합으로 정의된다. 셀은 DL 자원 단독, 또는 DL 자원과 UL 자원의 조합으로 설정될(configured) 수 있다. 반송파 집성이 지원되는 경우, DL 자원의 반송파 주파수(carrier frequency)와 UL 자원의 반송파 주파수(carrier frequency) 사이의 링키지(linkage)는 시스템 정보에 의해 지시될 수 있다. 여기서, 반송파 주파수라 함은 각 셀 혹은 반송파의 중심 주파수(center frequency)를 의미한다. 특히 1차 주파수(primary frequency) 상에서 동작하는 셀을 1차 셀(primary cell, Pcell)로 지칭되고, 2차 주파수(Secondary frequency) 상에서 동작하는 셀을 2차 셀(secondary cell, Scell)로 지칭된다. Scell이라 함은 RRC(Radio Resource Control) 연결 개설(connection establishment)이 이루어진 이후에 설정 허용하고 추가적인 무선 자원을 제공을 위해 사용될 수 있는 셀을 의미한다. UE의 성능(capabilities)에 따라, Scell이 Pcell과 함께, 상기 UE를 위한 서빙 셀의 모음(set)을 형성할 수 있다. RRC_CONNECTED 상태에 있지만 반송파 집성이 설정되지 않았거나 반송파 집성을 지원하지 않는 UE의 경우, Pcell로만 설정된 서빙 셀이 단 하나 존재한다. 한편, 지리적 영역의 "셀"은 노드가 반송파를 이용하여 서비스를 제공할 수 있는 커버리지(coverage)라고 이해될 수 있으며, 무선 자원의 "셀"은 상기 반송파에 의해 설정(configure)되는 주파수 범위인 대역폭(bandwidth, BW)와 연관된다. 노드가 유효한 신호를 전송할 수 있는 범위인 하향링크 커버리지와 UE로부터 유효한 신호를 수신할 수 있는 범위인 상향링크 커버리지는 해당 신호를 나르는 반송파에 의해 의존하므로 노드의 커버리지는 상기 노드가 사용하는 무선 자원의 "셀"의 커버리지와 연관되기도 한다. 따라서 "셀"이라는 용어는 때로는 노드에 의한 서비스의 커버리지를, 때로는 무선 자원을, 때로는 상기 무선 자원을 이용한 신호가 유효한 세기로 도달할 수 있는 범위를 의미하는 데 사용될 수 있다.
EPC는 3GPP 기술들의 성능을 향상하기 위한 SAE(System Architecture Evolution)의 핵심적인 요소이다. SAE는 다양한 종류의 네트워크 간의 이동성을 지원하는 네트워크 구조를 결정하는 연구 과제에 해당한다. SAE는, 예를 들어, IP 기반으로 다양한 무선 접속 기술들을 지원하고 보다 향상된 데이터 전송 캐퍼빌리티를 제공하는 등의 최적화된 패킷-기반 시스템을 제공하는 것을 목표로 한다.
구체적으로, EPC는 3GPP LTE 시스템을 위한 IP 이동 통신 시스템의 코어 네트워크이며, 패킷-기반 실시간 및 비실시간 서비스를 지원할 수 있다. 기존의 이동 통신 시스템(즉, 2 세대 또는 3 세대 이동 통신 시스템)에서는 음성을 위한 CS(Circuit-Switched) 및 데이터를 위한 PS(Packet-Switched)의 2 개의 구별되는 서브-도메인을 통해서 코어 네트워크의 기능이 구현되었다. 그러나, 3 세대 이동 통신 시스템의 진화인 3GPP LTE 시스템에서는, CS 및 PS의 서브-도메인들이 하나의 IP 도메인으로 단일화되었다. 즉, 3GPP LTE 시스템에서는, IP 캐퍼빌리티(capability)를 가지는 UE와 UE 간의 연결이, IP 기반의 기지국(예를 들어, eNodeB(evolved Node B)), EPC, 애플리케이션 도메인(예를 들어, IMS(IP Multimedia Subsystem))을 통하여 구성될 수 있다. 즉, EPC는 단-대-단(end-to-end) IP 서비스 구현에 필수적인 구조이다.
EPC는 다양한 구성요소들을 포함할 수 있으며, 도 1에서는 그 중에서 일부에 해당하는, SGW(Serving Gateway), PDN GW(Packet Data Network Gateway), MME(Mobility Management Entity), SGSN(Serving GPRS(General Packet Radio Service) Supporting Node), ePDG(enhanced Packet Data Gateway)를 도시한다.
SGW(또는 S-GW)는 무선 접속 네트워크(RAN)와 코어 네트워크 사이의 경계점으로서 동작하고, eNB와 PDN GW 사이의 데이터 경로를 유지하는 기능을 하는 요소이다. 또한, UE가 eNB에 의해서 서빙(serving)되는 영역에 걸쳐 이동하는 경우, SGW는 로컬 이동성 앵커 포인트(anchor point)의 역할을 한다. 즉, E-UTRAN (3GPP 릴리즈-8 이후에서 정의되는 Evolved-UMTS(Universal Mobile Telecommunications System) Terrestrial Radio Access Network) 내에서의 이동성을 위해서 SGW를 통해서 패킷들이 라우팅될 수 있다. 또한, SGW는 다른 3GPP 네트워크(3GPP 릴리즈-8 전에 정의되는 RAN, 예를 들어, UTRAN 또는 GERAN(GSM(Global System for Mobile Communication)/EDGE(Enhanced Data rates for Global Evolution) Radio Access Network)와의 이동성을 위한 앵커 포인트로서 기능할 수도 있다.
PDN GW(또는 P-GW)는 패킷 데이터 네트워크를 향한 데이터 인터페이스의 종료점(termination point)에 해당한다. PDN GW는 정책 집행 특징(policy enforcement features), 패킷 필터링(packet filtering), 과금 지원(charging support) 등을 지원할 수 있다. 또한, 3GPP 네트워크와 비-3GPP 네트워크 (예를 들어, I-WLAN(Interworking Wireless Local Area Network)과 같은 신뢰되지 않는 네트워크, CDMA(Code Division Multiple Access) 네트워크나 WiMax와 같은 신뢰되는 네트워크)와의 이동성 관리를 위한 앵커 포인트 역할을 할 수 있다.
도 4의 네트워크 구조의 예시에서는 SGW와 PDN GW가 별도의 게이트웨이로 구성되는 것을 나타내지만, 두 개의 게이트웨이가 단일 게이트웨이 구성 옵션(Single Gateway Configuration Option)에 따라 구현될 수도 있다.
MME는, UE의 네트워크 연결에 대한 액세스, 네트워크 자원의 할당, 트래킹(tracking), 페이징(paging), 로밍(roaming) 및 핸드오버 등을 지원하기 위한 시그널링 및 제어 기능들을 수행하는 요소이다. MME는 가입자 및 세션 관리에 관련된 제어 평면(control plane) 기능들을 제어한다. MME는 수많은 eNB들을 관리하고, 다른 2G/3G 네트워크에 대한 핸드오버를 위한 종래의 게이트웨이의 선택을 위한 시그널링을 수행한다. 또한, MME는 보안 과정(Security Procedures), 단말-대-네트워크 세션 핸들링(Terminal-to-network Session Handling), 휴지 단말 위치결정 관리(Idle Terminal Location Management) 등의 기능을 수행한다.
SGSN은 다른 3GPP 네트워크(예를 들어, GPRS 네트워크)에 대한 사용자의 이동성 관리 및 인증(authentication)과 같은 모든 패킷 데이터를 핸들링한다.
ePDG는 신뢰되지 않는 비-3GPP 네트워크(예를 들어, I-WLAN, WiFi 핫스팟(hotspot) 등)에 대한 보안 노드로서의 역할을 한다.
도 4을 참조하여 설명한 바와 같이, IP 능력(capability)를 가지는 UE는, 3GPP 액세스는 물론 비-3GPP 액세스 기반으로도 EPC 내의 다양한 요소들을 경유하여 사업자(즉, 운영자(operator))가 제공하는 IP 서비스 네트워크(예를 들어, IMS)에 액세스할 수 있다.
또한, 도 4은 다양한 참조 포인트(reference point)들(예를 들어, S1-U, S1-MME 등)을 도시한다. 3GPP 시스템에서는 E-UTRAN 및 EPC의 상이한 기능 엔티티(functional entity)들에 존재하는 2 개의 기능을 연결하는 개념적인 링크를 참조 포인트라고 정의한다. 다음의 표 1은 도 4에 도시된 참조 포인트를 정리한 것이다. 표 1의 예시들 외에도 네트워크 구조에 따라 다양한 참조 포인트들이 존재할 수 있다.
reference point 설명(description)
S1-MME E-UTRAN와 MME 간의 제어 평면 프로토콜에 대한 레퍼런스 포인트(Reference point for the control plane protocol between E-UTRAN and MME)
S1-U 핸드오버 동안 eNB 간 경로 스위칭 및 베어러 당 사용자 평면 터널링에 대한 E-UTRAN와 SGW 간의 레퍼런스 포인트 (Reference point between E-UTRAN and Serving GW for the per bearer user plane tunneling and inter eNodeB path switching during handover)
S3 유휴(idle) 및/또는 활성화 상태에서 3GPP 액세스 네트워크 간 이동성에 대한 사용자 및 베어러 정보 교환을 제공하는 MME와 SGSN 간의 레퍼런스 포인트. 이 레퍼런스 포인트는 PLMN-내 또는 PLMN-간(예를 들어, PLMN-간 핸드오버의 경우)에 사용될 수 있음) (It enables user and bearer information exchange for inter 3GPP access network mobility in idle and/or active state. This reference point can be used intra-PLMN or inter-PLMN (e.g. in the case of Inter-PLMN HO).)
S4 GPRS 코어와 SGW의 3GPP 앵커 기능 간의 관련 제어 및 이동성 지원을 제공하는 SGW와 SGSN 간의 레퍼런스 포인트. 또한, 직접 터널이 수립되지 않으며, 사용자 플레인 터널링을 제공함 (It provides related control and mobility support between GPRS Core and the 3GPP Anchor function of Serving GW. In addition, if Direct Tunnel is not established, it provides the user plane tunneling.)
S5 SGW와 PDN GW 간의 사용자 평면 터널링 및 터널 관리를 제공하는 레퍼런스 포인트. 단말 이동성으로 인해, 그리고 요구되는 PDN 연결성을 위해서 SGW가 함께 위치하지 않은 PDN GW로의 연결이 필요한 경우, SGW 재배치를 위해서 사용됨 (It provides user plane tunneling and tunnel management between Serving GW and PDN GW. It is used for Serving GW relocation due to UE mobility and if the Serving GW needs to connect to a non-collocated PDN GW for the required PDN connectivity.)
S11 MME와 SGW 간의 제어 평면 프로토콜에 대한 레퍼런스 포인트
SGi PDN GW와 PDN 간의 레퍼런스 포인트. 여기서, PDN은, 오퍼레이터 외부 공용 또는 사설 PDN이거나 오퍼레이터-내 PDN(예를 들어, IMS 서비스)이 해당될 수 있음. 이 레퍼런스 포인트는 3GPP 액세스의 Gi에 해당함 (It is the reference point between the PDN GW and the packet data network. Packet data network may be an operator external public or private packet data network or an intra operator packet data network, e.g. for provision of IMS services. This reference point corresponds to Gi for 3GPP accesses.)
도 4에 도시된 참조 포인트 중에서 S2a 및 S2b는 비-3GPP 인터페이스에 해당한다. S2a는 신뢰되는 비-3GPP 액세스 및 PDN GW 간의 관련 제어 및 이동성 지원을 사용자 평면에 제공하는 참조 포인트다. S2b는 ePDG 및 PDN GW 간의 관련 제어 및 이동성 지원을 사용자 평면에 제공하는 참조 포인트다.
도 5는 본 명세서가 적용될 수 있는 E-UTRAN(evolved universal terrestrial radio access network)의 네트워크 구조의 일 예를 나타낸다.
E-UTRAN 시스템은 기존 UTRAN 시스템에서 진화한 시스템으로, 예를 들어, 3GPP LTE/LTE-A 시스템일 수 있다. 통신 네트워크는 IMS 및 패킷 데이터를 통해 음성(voice)(예를 들어, VoIP(Voice over Internet Protocol))과 같은 다양한 통신 서비스를 제공하기 위하여 광범위하게 배치된다.
도 4를 참조하면, E-UMTS 네트워크는 E-UTRAN, EPC 및 하나 이상의 UE를 포함한다. E-UTRAN은 단말에게 제어 평면(control plane)과 사용자 평면(user plane) 프로토콜을 제공하는 eNB들로 구성되고, eNB들은 X2 인터페이스를 통해 연결된다.
X2 사용자 평면 인터페이스(X2-U)는 eNB들 사이에 정의된다. X2-U 인터페이스는 사용자 평면 PDU(packet data unit)의 보장되지 않은 전달(non guaranteed delivery)을 제공한다. X2 제어 평면 인터페이스(X2-CP)는 두 개의 이웃 eNB 사이에 정의된다. X2-CP는 eNB 간의 컨텍스트(context) 전달, 소스 eNB와 타겟 eNB 사이의 사용자 평면 터널의 제어, 핸드오버 관련 메시지의 전달, 상향링크 부하 관리 등의 기능을 수행한다.
eNB은 무선인터페이스를 통해 단말과 연결되고 S1 인터페이스를 통해 EPC(evolved packet core)에 연결된다.
S1 사용자 평면 인터페이스(S1-U)는 eNB와 서빙 게이트웨이(S-GW: serving gateway) 사이에 정의된다. S1 제어 평면 인터페이스(S1-MME)는 eNB와 이동성 관리 개체(MME: mobility management entity) 사이에 정의된다. S1 인터페이스는 EPS(evolved packet system) 베어러 서비스 관리 기능, NAS(non-access stratum) 시그널링 트랜스포트 기능, 네트워크 쉐어링, MME 부하 밸런싱 기능 등을 수행한다. S1 인터페이스는 eNB와 MME/S-GW 간에 다수-대-다수 관계(many-to-many-relation)를 지원한다.
MME는 NAS 시그널링 보안(security), AS(Access Stratum) 보안(security) 제어, 3GPP 액세스 네트워크 간 이동성을 지원하기 위한 CN(Core Network) 노드 간(Inter-CN) 시그널링, (페이징 재전송의 수행 및 제어 포함하여) 아이들(IDLE) 모드 UE 접근성(reachability), (아이들 및 액티브 모드 단말을 위한) 트래킹 영역 식별자(TAI: Tracking Area Identity) 관리, PDN GW 및 SGW 선택, MME가 변경되는 핸드오버를 위한 MME 선택, 2G 또는 3G 3GPP 액세스 네트워크로의 핸드오버를 위한 SGSN 선택, 로밍(roaming), 인증(authentication), 전용 베어러 확립(dedicated bearer establishment)를 포함하는 베어러 관리 기능, 공공 경고 시스템(PWS: Public Warning System)(지진 및 쓰나미 경고 시스템(ETWS: Earthquake and Tsunami Warning System) 및 상용 모바일 경고 시스템(CMAS: Commercial Mobile Alert System) 포함) 메시지 전송의 지원 등의 다양한 기능을 수행할 수 있다.
도 6은 일반적인 NR-RAN의 아키텍쳐를 예시하는 도면이다.
도 6을 참조하면, NG-RAN 노드는 다음 중 하나일 수 있다.
UE를 향하는 NR 사용자 평면 및 제어 평면 프로토콜을 제공하는 gNB; 또는
UE를 향하는 E-UTRA 사용자 평면 및 제어 평면 프로토콜을 제공하는 ng-eNB.
gNB와 ng-eNB는 Xn 인터페이스를 통해 서로 연결된다. 또한 gNB와 ng-eNB는 5GC에 대한 NG 인터페이스를 통해, 보다 자세히는 NG-C 인터페이스를 통해, 액세스 및 이동성 관리 기능(AMF : Access and Mobility Management Function), NG-U 인터페이스를 통한 사용자 평면 기능(UPF : User Plane Function) 에 연결된다(3GPP TS 23.501 [3] 참조).
참고로 기능적 분리를 위한 아키텍쳐와 F1 인터페이스는 3GPP TS 38.401 [4]에 정의되어 있다.
도 7은 5G의 일반적인 아키텍쳐의 예를 보여주고 있다. 다음은 도 7에서의 각 참조 인터페이스(reference interface)및 node에 대한 설명이다.
액세스 및 이동성 관리 기능(AMF: Access and Mobility Management Function)은 3GPP 액세스 네트워크들 간의 이동성을 위한 CN 노드 간 시그널링, 무선 액세스 네트워크(RAN: Radio Access Network) CP 인터페이스(N2)의 종단(termination), NAS 시그널링의 종단(N1), 등록 관리(등록 영역(Registration Area) 관리), 아이들 모드 UE 접근성(reachability), 네트워크 슬라이싱(Network Slicing)의 지원, SMF 선택 등의 기능을 지원한다.
AMF의 일부 또는 전체의 기능들은 하나의 AMF의 단일 인스턴스(instance) 내에서 지원될 수 있다.
데이터 네트워크(DN: Data network)는 예를 들어, 운영자 서비스, 인터넷 접속 또는 서드파티(3rd party) 서비스 등을 의미한다. DN은 UPF로 하향링크 프로토콜 데이터 유닛(PDU: Protocol Data Unit)을 전송하거나, UE로부터 전송된 PDU를 UPF로부터 수신한다.
정책 제어 기능(PCF: Policy Control function)은 어플리케이션 서버로부터 패킷 흐름에 대한 정보를 수신하여, 이동성 관리, 세션 관리 등의 정책을 결정하는 기능을 제공한다.
세션 관리 기능(SMF: Session Management Function)은 세션 관리 기능을 제공하며, UE가 다수 개의 세션을 가지는 경우 각 세션 별로 서로 다른 SMF에 의해 관리될 수 있다.
SMF의 일부 또는 전체의 기능들은 하나의 SMF의 단일 인스턴스(instance) 내에서 지원될 수 있다.
통합된 데이터 관리(UDM: Unified Data Management)는 사용자의 가입 데이터, 정책 데이터 등을 저장한다.
사용자 평면 기능(UPF: User plane Function)은 DN으로부터 수신한 하향링크 PDU를 (R)AN을 경유하여 UE에게 전달하며, (R)AN을 경유하여 UE로부터 수신한 상향링크 PDU를 DN으로 전달한다.
어플리케이션 기능(AF: Application Function)은 서비스 제공(예를 들어, 트래픽 라우팅 상에서 어플리케이션 영향, 네트워크 능력 노출(Network Capability Exposure) 접근, 정책 제어를 위한 정책 프레임워크와의 상호동작 등의 기능을 지원)을 위해 3GPP 코어 네트워크와 상호동작한다.
(무선) 액세스 네트워크((R)AN: (Radio) Access Network)는 4G 무선 액세스 기술의 진화된 버전인 진화된 E-UTRA(evolved E-UTRA)와 새로운 무선 액세스 기술(NR: New Radio)(예를 들어, gNB)을 모두 지원하는 새로운 무선 액세스 네트워크를 총칭한다.
gNB은 무선 자원 관리를 위한 기능들(즉, 무선 베어러 제어(Radio Bearer Control), 무선 허락 제어(Radio Admission Control), 연결 이동성 제어(Connection Mobility Control), 상향링크/하향링크에서 UE에게 자원의 동적 할당(Dynamic allocation of resources)(즉, 스케줄링)) 등의 기능을 지원한다.
사용자 장치(UE: User Equipment)는 사용자 기기를 의미한다.
3GPP 시스템에서는 5G 시스템 내 NF들 간을 연결하는 개념적인 링크를 참조 포인트(reference point)라고 정의한다.
N1는 UE와 AMF 간의 참조 포인트, N2는 (R)AN과 AMF 간의 참조 포인트, N3는 (R)AN과 UPF 간의 참조 포인트, N4는 SMF와 UPF 간의 참조 포인트, N6 UPF와 데이터 네트워크 간의 참조 포인트, N9는 2개의 코어 UPF들 간의 참조 포인트, N5는 PCF와 AF 간의 참조 포인트, N7는 SMF와 PCF 간의 참조 포인트, N24는 방문 네트워크(visited network) 내 PCF와 홈 네트워크(home network) 내 PCF 간의 참조 포인트, N8는 UDM과 AMF 간의 참조 포인트, N10는 UDM과 SMF 간의 참조 포인트, N11는 AMF와 SMF 간의 참조 포인트, N12는 AMF와 인증 서버 기능(AUSF: Authentication Server function) 간의 참조 포인트, N13는 UDM과 AUSF 간의 참조 포인트, N14는 2개의 AMF들 간의 참조 포인트, N15는 비-로밍 시나리오의 경우, PCF와 AMF 간의 참조 포인트, 로밍 시나리오의 경우 방문 네트워크(visited network) 내 PCF와 AMF 간의 참조 포인트, N16은 두 개의 SMF 간의 참조 포인트(로밍 시나리오에서는 방문 네트워크 내 SMF와 홈 네트워크 간의 SMF 간의 참조 포인트), N17은 AMF와 5G-EIR(Equipment Identity Register) 간의 참조 포인트, N18은 AMF와 UDSF(Unstructured Data Storage Function) 간의 참조 포인트, N22는 AMF와 NSSF(Network Slice Selection Function) 간의 참조 포인트, N23은 PCF와 NWDAF(Network Data Analytics Function) 간의 참조 포인트, N24는 NSSF와 NWDAF 간의 참조 포인트, N27은 방문 네트워크 내 NRF(Network Repository Function)와 홈 네트워크 내 NRF 간의 참조 포인트, N31은 방문 네트워크 내 NSSF와 홈 네트워크 내 NSSF 간의 참조 포인트, N32는 방문 네트워크 내 SEPP(SEcurity Protection Proxy)와 홈 네트워크 내 SEPP 간의 참조 포인트, N33은 NEF(Network Exposure Function)와 AF 간의 참조 포인트, N40은 SMF와 CHF(charging function) 간의 참조 포인트, N50은 AMF와 CBCF(Circuit Bearer Control Function) 간의 참조 포인트를 의미한다.
한편, 도 7에서는 설명의 편의 상 UE가 하나의 PDU 세션을 이용하여 하나의 DN에 액세스하는 경우에 대한 참조 모델을 예시하나 이에 한정되지 않는다.
이하에서, 하향링크(downlink, DL)는 기지국(base station, BS)에서 사용자 기기(user equipment, UE)로의 통신을 의미하며, 상향링크(uplink, UL)는 UE에서 BS로의 통신을 의미한다. 하향링크에서 전송기(transmitter)는 BS의 일부이고, 수신기(receiver)는 UE의 일부일 수 있다. 상향링크에서 전송기는 UE의 일부이고, 수신기는 BS의 일부일 수 있다. 본 명세에서 UE는 제 1 통신 장치, BS는 제 2 통신 장치로 표현될 수도 있다. BS는 고정국(fixed station), Node B, eNB(evolved-NodeB), gNB(Next Generation NodeB), BTS(base transceiver system), 접속 포인트(access point, AP), 네트워크 혹은 5G (5th generation) 네트워크 노드, AI (Artificial Intelligence) 시스템, RSU(road side unit), 로봇 등의 용어에 의해 대체될 수 있다. 또한, UE는 단말(terminal), MS(Mobile Station), UT(User Terminal), MSS(Mobile Subscriber Station), SS(Subscriber Station), AMS(Advanced Mobile Station), WT(Wireless terminal), MTC(Machine-Type Communication) 장치, M2M(Machine-to-Machine) 장치, D2D(Device-to-Device) 장치, 차량(vehicle), 로봇(robot), AI 모듈, 드론, 공중(Aerial) UE 등의 용어로 대체될 수 있다.
이하의 기술은 CDMA(Code Division Multiple Access), FDMA(Frequency Division Multiple Access), TDMA(Time Division Multiple Access), OFDMA(Orthogonal Frequency Division Multiple Access), SC-FDMA(Single Carrier FDMA) 등과 같은 다양한 무선 접속 시스템에 사용될 수 있다. CDMA는 UTRA(Universal Terrestrial Radio Access)나 CDMA2000과 같은 무선 기술로 구현될 수 있다. TDMA는 GSM(Global System for Mobile communications)/GPRS(General Packet Radio Service)/EDGE(Enhanced Data Rates for GSM Evolution)와 같은 무선 기술로 구현될 수 있다. OFDMA는 IEEE 802.11 (Wi-Fi), IEEE 802.16 (WiMAX), IEEE 802-20, E-UTRA(Evolved UTRA) 등과 같은 무선 기술로 구현될 수 있다. UTRA는 UMTS(Universal Mobile Telecommunications System)의 일부이다. 3GPP(3rd Generation Partnership Project) LTE(Long Term Evolution)은 E-UTRA를 사용하는 E-UMTS(Evolved UMTS)의 일부이고 LTE-A(Advanced)/LTE-A pro는 3GPP LTE의 진화된 버전이다. 3GPP NR(New Radio or New Radio Access Technology)는 3GPP LTE/LTE-A/LTE-A pro의 진화된 버전이다.
설명을 명확하게 하기 위해, 3GPP 통신 시스템(예, LTE-A, NR)을 기반으로 설명하지만 본 발명의 기술적 사상이 이에 제한되는 것은 아니다. LTE는 3GPP TS 36.xxx Release 8 이후의 기술을 의미한다. 세부적으로, 3GPP TS 36.xxx Release 10 이후의 LTE 기술은 LTE-A로 지칭되고, 3GPP TS 36.xxx Release 13 이후의 LTE 기술은 LTE-A pro로 지칭된다. 3GPP 5G (5th generation) 기술은 TS 36.xxx Release 15 이후의 기술 및 TS 38.XXX Release 15 이후의 기술을 의미하며, 이 중 TS 38.xxx Release 15 이후의 기술은 3GPP NR로 지칭되고, TS 36.xxx Release 15 이후의 기술은 enhanced LTE로 지칭될 수 있다. "xxx"는 표준 문서 세부 번호를 의미한다. LTE/NR은 3GPP 시스템으로 통칭될 수 있다.
본 명세(disclosure)에서, 노드(node)라 함은 UE와 통신하여 무선 신호를 전송/수신할 수 있는 고정된 포인트(point)을 말한다. 다양한 형태의 BS들이 그 명칭에 관계없이 노드로서 이용될 수 있다. 예를 들어, BS, NB, eNB, 피코-셀 eNB(PeNB), 홈 eNB(HeNB), 릴레이(relay), 리피터(repeater) 등이 노드가 될 수 있다. 또한, 노드는 BS가 아니어도 될 수 있다. 예를 들어, 무선 리모트 헤드(radio remote head, RRH), 무선 리모트 유닛(radio remote unit, RRU)가 될 수 있다. RRH, RRU 등은 일반적으로 BS의 전력 레벨(power level)에 비해 더욱 낮은 전력 레벨을 갖는다. 일 노드에는 최소 하나의 안테나가 설치된다. 상기 안테나는 물리 안테나를 의미할 수도 있으며, 안테나 포트, 가상 안테나, 또는 안테나 그룹을 의미할 수도 있다. 노드는 포인트(point)라고 불리기도 한다.
본 명세에서 셀(cell)이라 함은 하나 이상의 노드가 통신 서비스를 제공하는 일정 지리적 영역 혹은 무선 자원을 말한다. 지리적 영역의 "셀"은 노드가 반송파를 이용하여 서비스를 제공할 수 있는 커버리지(coverage)라고 이해될 수 있으며, 무선 자원의 "셀"은 상기 반송파에 의해 설정(configure)되는 주파수 크기인 대역폭(bandwidth, BW)와 연관된다. 노드가 유효한 신호를 전송할 수 있는 범위인 하향링크 커버리지와 UE로부터 유효한 신호를 수신할 수 있는 범위인 상향링크 커버리지는 해당 신호를 나르는 반송파에 의해 의존하므로 노드의 커버리지는 상기 노드가 사용하는 무선 자원의 "셀"의 커버리지와 연관되기도 한다. 따라서 "셀"이라는 용어는 때로는 노드에 의한 서비스의 커버리지를, 때로는 무선 자원을, 때로는 상기 무선 자원을 이용한 신호가 유효한 세기로 도달할 수 있는 범위를 의미하는 데 사용될 수 있다.
본 명세에서 특정 셀과 통신한다고 함은 상기 특정 셀에 통신 서비스를 제공하는 BS 혹은 노드와 통신하는 것을 의미할 수 있다. 또한, 특정 셀의 하향링크/상향링크 신호는 상기 특정 셀에 통신 서비스를 제공하는 BS 혹은 노드로부터의/로의 하향링크/상향링크 신호를 의미한다. UE에게 상향링크/하향링크 통신 서비스를 제공하는 셀을 특히 서빙 셀(serving cell)이라고 한다. 또한, 특정 셀의 채널 상태/품질은 상기 특정 셀에 통신 서비스를 제공하는 BS 혹은 노드와 UE 사이에 형성된 채널 혹은 통신 링크의 채널 상태/품질을 의미한다.
한편, 무선 자원과 연관된 "셀"은 하향링크 자원(DL resources)와 상향링크 자원(UL resources)의 조합, 즉, DL 컴포넌트 반송파(component carrier, CC) 와 UL CC의 조합으로 정의될 수 있다. 셀은 DL 자원 단독, 또는 DL 자원과 UL 자원의 조합으로 설정될(configured) 수도 있다. 반송파 집성(carrier aggregation)이 지원되는 경우, DL 자원(또는, DL CC)의 반송파 주파수(carrier frequency)와 UL 자원(또는, UL CC)의 반송파 주파수(carrier frequency) 사이의 링키지(linkage)는 해당 셀을 통해 전송되는 시스템 정보(system information)에 의해 지시될 수 있다. 여기서, 반송파 주파수는 각 셀 혹은 CC의 중심 주파수(center frequency)와 같을 수도 혹은 다를 수도 있다. 이하에서는 1차 주파수(primary frequency) 상에서 동작하는 셀을 1차 셀(primary cell, Pcell) 혹은 PCC로 지칭하고, 2차 주파수(Secondary frequency) 상에서 동작하는 셀을 2차 셀(secondary cell, Scell) 혹은 SCC로 칭한다. Scell이라 함은 UE가 BS와 RRC(Radio Resource Control) 연결 수립(connection establishment) 과정을 수행하여 상기 UE와 상기 BS 간에 RRC 연결이 수립된 상태, 즉, 상기 UE가 RRC_CONNECTED 상태가 된 후에 설정될 수 있다. 여기서 RRC 연결은 UE의 RRC와 BS의 RRC가 서로 RRC 메시지를 주고 받을 수 있는 통로를 의미할 수 있다. Scell은 UE에게 추가적인 무선 자원을 제공하기 위해 설정될 수 있다. UE의 성능(capabilities)에 따라, Scell이 Pcell과 함께, 상기 UE를 위한 서빙 셀의 모음(set)을 형성할 수 있다. RRC_CONNECTED 상태에 있지만 반송파 집성이 설정되지 않았거나 반송파 집성을 지원하지 않는 UE의 경우, Pcell로만 설정된 서빙 셀이 단 하나 존재한다.
셀은 고유의 무선 접속 기술을 지원한다. 예를 들어, LTE 셀 상에서는 LTE 무선 접속 기술(radio access technology, RAT)에 따른 전송/수신이 수행되며, 5G 셀 상에서는 5G RAT에 따른 전송/수신이 수행된다.
반송파 집성 기술은 광대역 지원을 위해 목표 대역폭(bandwidth)보다 작은 시스템 대역폭을 가지는 복수의 반송파들을 집성하여 사용하는 기술을 말한다. 반송파 집성은 각각이 시스템 대역폭(채널 대역폭이라고도 함)을 형성하는 복수의 반송파 주파수들을 사용하여 하향링크 혹은 상향링크 통신을 수행한다는 점에서, 복수의 직교하는 부반송파들로 분할된 기본 주파수 대역을 하나의 반송파 주파수에 실어 하향링크 혹은 상향링크 통신을 수행하는 OFDMA 기술과 구분된다. 예를 들어, OFDMA 혹은 직교 주파수 분할 다중화(orthogonal frequency division multiplexing, OFDM)의 경우에는 일정 시스템 대역폭을 갖는 하나의 주파수 대역이 일정 부반송파 간격을 갖는 복수의 부반송파들로 분할되고, 정보/데이터가 상기 복수의 부반송파들 내에서 매핑되며, 상기 정보/데이터가 맵핑된 상기 주파수 대역은 주파수 상향 변환(upconversion)을 거쳐 상기 주파수 대역의 반송파 주파수로 전송된다. 무선 반송파 집성의 경우에는 각각이 자신의 시스템 대역폭 및 반송파 주파수를 갖는 주파수 대역들이 동시에 통신에 사용될 수 있으며, 반송파 집성에 사용되는 각 주파수 대역은 일정 부반송파 간격을 갖는 복수의 부반송파들로 분할될 수 있다.
3GPP 기반 통신 표준은 물리 계층(physical layer)의 상위 계층(upper layer)(예, 매제 접속 제어(medium access control, MAC) 계층, 무선 링크 제어(radio link control, RLC) 계층, 패킷 데이터 수렴 프로토콜(protocol data convergence protocol, PDCP) 계층, 무선 자원 제어(radio resource control, RRC) 계층, 서비스 데이터 적응 프로토콜(service data adaptation protocol, SDAP), 비-접속 층(non-access stratum, NAS) 계층)로부터 기원한 정보를 나르는 자원 요소(resource element)들에 대응하는 하향링크 물리 채널들과, 물리 계층에 의해 사용되나 상위 계층으로부터 기원하는 정보를 나르지 않는 자원 요소들에 대응하는 하향링크 물리 신호들을 정의한다. 예를 들어, 물리 하향링크 공유 채널(physical downlink shared channel, PDSCH), 물리 브로드캐스트 채널(physical broadcast channel, PBCH), 물리 멀티캐스트 채널(physical multicast channel, PMCH), 물리 제어 포맷 지시자 채널(physical control format indicator channel, PCFICH), 물리 하향링크 제어 채널(physical downlink control channel, PDCCH)이 하향링크 물리 채널들로서 정의되어 있으며, 참조 신호와 동기 신호가 하향링크 물리 신호들로서 정의되어 있다. 파일럿(pilot)이라고도 지칭되는 참조 신호(reference signal, RS)는 BS와 UE가 서로 알고 있는 기정의된 특별한 파형의 신호를 의미하는데, 예를 들어, 셀 특정적 RS(cell specific RS), UE-특정적 RS(UE-specific RS, UE-RS), 포지셔닝 RS(positioning RS, PRS), 채널 상태 정보 RS(channel state information RS, CSI-RS), 복조 참조 신호(demodulation reference signal, DMRS)가 하향링크 참조 신호들로서 정의된다. 한편, 3GPP 기반 통신 표준은 상위 계층으로부터 기원한 정보를 나르는 자원 요소들에 대응하는 상향링크 물리 채널들과, 물리 계층에 의해 사용되나 상위 계층으로부터 기원하는 정보를 나르지 않는 자원 요소들에 대응하는 상향링크 물리 신호들을 정의하고 있다. 예를 들어, 물리 상향링크 공유 채널(physical uplink shared channel, PUSCH), 물리 상향링크 제어 채널(physical uplink control channel, PUCCH), 물리 임의 접속 채널(physical random access channel, PRACH)가 상향링크 물리 채널로서 정의되며, 상향링크 제어/데이터 신호를 위한 복조 참조 신호(demodulation reference signal, DMRS)와 상향링크 채널 측정에 사용되는 사운딩 참조 신호(sounding reference signal, SRS)가 정의된다.
본 명세에서 물리 하향링크 제어 채널(physical downlink control channel, PDCCH)와 물리 하향링크 공유 채널(physical downlink shared channel, PDSCH)는 물리 계층의 하향링크 제어 정보(downlink control information, DCI)와 하향링크 데이터를 나르는 시간-주파수 자원의 집합 혹은 자원요소의 집합을 각각 의미할 수 있다. 또한, 물리 상향링크 제어 채널(physical uplink control channel), 물리 상향링크 공유 채널(physical uplink shared channel, PUSCH) 및 물리 임의 접속 채널(physical random access channel)는 물리 계층의 상향링크 제어 정보(uplink control information, UCI), 상향링크 데이터 및 임의 접속 신호를 나르는 시간-주파수 자원의 집합 혹은 자원요소의 집합을 각각 의미한다. 이하에서 UE가 상향링크 물리 채널(예, PUCCH, PUSCH, PRACH)를 전송한다는 것은 해당 상향링크 물리 채널 상에서 혹은 상향링크 물리 채널을 통해서 UCI, 상향링크 데이터, 또는 임의 접속 신호를 전송한다는 것을 의미할 수 있다. BS가 상향링크 물리 채널을 수신한다는 것은 해당 상향링크 물리 채널 상에서 혹은 통해서 DCI, 상향링크 데이터, 또는 임의 접속 신호를 수신한다는 것을 의미할 수 있다. BS가 하향링크 물리 채널(예, PDCCH, PDSCH)를 전송한다는 것은 해당 하향링크 물리 채널 상에서 혹은 하향링크 물리 채널을 통해서 DCI 혹은 하향링크 데이터를 전송한다는 것과 동일한 의미로 사용된다. UE가 하향링크 물리 채널을 수신한다는 것은 해당 하향링크 물리 채널 상에서 혹은 통해서 DCI 혹은 하향링크 데이터를 수신한다는 것을 의미할 수 있다.
본 명세에서 수송 블록(transport block)은 물리 계층을 위한 페이로드(payload)이다. 예를 들어, 상위 계층 혹은 매체 접속 제어(medium access control, MAC) 계층으로부터 물리 계층에 주어진 데이터가 기본적으로 수송 블록으로 지칭된다.
본 명세에서 HARQ(Hybrid Automatic Repeat and reQuest)는 오류 제어 방법의 일종이다. 하향링크를 통해 전송되는 HARQ-ACK(HARQ acknowledgement)은 상향링크 데이터에 대한 오류 제어를 위해 사용되며, 상향링크를 통해 전송되는 HARQ-ACK은 하향링크 데이터에 대한 오류 제어를 위해 사용된다. HARQ 동작을 수행하는 전송단은 데이터(예, 수송 블록, 코드워드)를 전송한 후 긍정 확인(ACK; acknowledgement)를 기다린다. HARQ 동작을 수행하는 수신단은 데이터를 제대로 받은 경우만 긍정 확인(ACK)을 보내며, 수신 데이터에 오류가 생긴 경우 부정 확인(negative ACK, NACK)을 보낸다. 전송단이 ACK을 수신한 경우에는 (새로운) 데이터를 전송할 수 있고, NACK을 수신한 경우에는 데이터를 재전송할 수 있다. BS가 스케줄링 정보와 상기 스케줄링 정보에 따른 데이터를 전송한 뒤, UE로부터 ACK/NACK을 수신하고 재전송 데이터가 전송될 때까지 시간 딜레이(delay)가 발생한다. 이러한 시간 딜레이는 채널 전파 지연(channel propagation delay), 데이터 디코딩(decoding)/인코딩(encoding)에 걸리는 시간으로 인해 발생한다. 따라서, 현재 진행 중인 HARQ 프로세스가 끝난 후에 새로운 데이터를 보내는 경우, 시간 딜레이로 인해 데이터 전송에 공백이 발생한다. 따라서, 시간 딜레이 구간 동안에 데이터 전송에 공백이 생기는 것을 방지하기 위하여 복수의 독립적인 HARQ 프로세스가 사용된다. 예를 들어, 초기 전송과 재전송 사이에 7번의 전송 기회(occasion)가 있는 경우, 통신 장치는 7개의 독립적인 HARQ 프로세스를 운영하여 공백 없이 데이터 전송을 수행할 수 있다. 복수의 병렬 HARQ 프로세스들을 활용하면, 이전 UL/DL 전송에 대한 HARQ 피드백을 기다리는 동안 UL/DL 전송이 연속적으로 수행될 수 있다.
본 명세에서 채널 상태 정보(channel state information, CSI)는 UE와 안테나 포트 사이에 형성되는 무선 채널(혹은 링크라고도 함)의 품질을 나타낼 수 있는 정보를 통칭한다. CSI는 채널 품질 지시자(channel quality indicator, CQI), 프리코딩 행렬 지시자 (precoding matrix indicator, PMI), CSI-RS 자원 지시자(CSI-RS resource indicator, CRI), SSB 자원 지시자(SSB resource indicator, SSBRI), 레이어 지시자(layer indicator, LI), 랭크 지시자(rank indicator, RI) 또는 참조 신호 수신 품질(reference signal received power, RSRP) 중 적어도 하나를 포함할 수 있다.
본 명세에서 주파수 분할 다중화(frequency division multiplexing, FDM)라 함은 신호/채널/사용자들을 서로 다른 주파수 자원에서 전송/수신하는 것을 의미할 수 있으며, 시간 분할 다중화(time division multiplexing, TDM)이라 함은 신호/채널/사용자들을 서로 다른 시간 자원에서 전송/수신하는 것을 의미할 수 있다.
본 발명에서 주파수 분할 듀플렉스(frequency division duplex, FDD)는 상향링크 반송파에서 상향링크 통신이 수행되고 상기 상향링크용 반송파에 링크된 하향링크용 반송파에서 하향링크 통신이 수행되는 통신 방식을 말하며, 시간 분할 듀플렉스(time division duplex, TDD)라 함은 상향링크 통신과 하향링크 통신이 동일 반송파에서 시간을 나누어 수행되는 통신 방식을 말한다.
본 명세에서 사용된 배경기술, 용어, 약어 등에 관해서는 본 발명 이전에 공개된 표준 문서에 기재된 사항을 참조할 수 있다. 예를 들어, 다음 문서를 참조할 수 있다.
3GPP LTE/EPS
- 3GPP TS 36.211: Physical channels and modulation
- 3GPP TS 36.212: Multiplexing and channel coding
- 3GPP TS 36.213: Physical layer procedures
- 3GPP TS 36.214: Physical layer; Measurements
- 3GPP TS 36.300: Overall description
- 3GPP TS 36.304: User Equipment (UE) procedures in idle mode
- 3GPP TS 36.306: User Equipment (UE) radio access capabilities
- 3GPP TS 36.314: Layer 2 - Measurements
- 3GPP TS 36.321: Medium Access Control (MAC) protocol
- 3GPP TS 36.322: Radio Link Control (RLC) protocol
- 3GPP TS 36.323: Packet Data Convergence Protocol (PDCP)
- 3GPP TS 36.331: Radio Resource Control (RRC) protocol
- 3GPP TS 36.413: S1 Application Protocol (S1AP)
- 3GPP TS 36.423: X2 Application Protocol (X2AP)
- 3GPPP TS 22.125: Unmanned Aerial System support in 3GPP; Stage 1
- 3GPP TS 23.303: Proximity-based services (Prose); Stage 2
- 3GPP TS 23.401: General Packet Radio Service (GPRS) enhancements for Evolved Universal Terrestrial Radio Access Network (E-UTRAN) access
- 3GPP TS 23.402: Architecture enhancements for non-3GPP accesses
- 3GPP TS 23.286: Application layer support for V2X services; Functional architecture and information flows
- 3GPP TS 24.301: Non-Access-Stratum (NAS) protocol for Evolved Packet System (EPS); Stage 3
- 3GPP TS 24.302: Access to the 3GPP Evolved Packet Core (EPC) via non-3GPP access networks; Stage 3
- 3GPP TS 24.334: Proximity-services (ProSe) User Equipment (UE) to ProSe function protocol aspects; Stage 3
- 3GPP TS 24.386: User Equipment (UE) to V2X control function; protocol aspects; Stage 3
3GPP NR/5GS
- 3GPP TS 38.211: Physical channels and modulation
- 3GPP TS 38.212: Multiplexing and channel coding
- 3GPP TS 38.213: Physical layer procedures for control
- 3GPP TS 38.214: Physical layer procedures for data
- 3GPP TS 38.215: Physical layer measurements
- 3GPP TS 38.300: NR and NG-RAN Overall Description
- 3GPP TS 38.304: User Equipment (UE) procedures in idle mode and in RRC inactive state
- 3GPP TS 38.321: Medium Access Control (MAC) protocol
- 3GPP TS 38.322: Radio Link Control (RLC) protocol
- 3GPP TS 38.323: Packet Data Convergence Protocol (PDCP)
- 3GPP TS 38.331: Radio Resource Control (RRC) protocol
- 3GPP TS 37.324: Service Data Adaptation Protocol (SDAP)
- 3GPP TS 37.340: Multi-connectivity; Overall description
- 3GPP TS 23.501: System Architecture for the 5G System
- 3GPP TS 23.502: Procedures for the 5G System
- 3GPP TS 23.503: Policy and Charging Control Framework for the 5G System; Stage 2
- 3GPP TS 24.501: Non-Access-Stratum (NAS) protocol for 5G System (5GS); Stage 3
- 3GPP TS 24.502: Access to the 3GPP 5G Core Network (5GCN) via non-3GPP access networks
- 3GPP TS 24.526: User Equipment (UE) policies for 5G System (5GS); Stage 3
3GPP V2X
- 3GPP TS 23.285: Architecture enhancements for V2X services
- 3GPP TR 23.786: Evolved Packet System (EPS) and the 5G System (5GS) to support advanced V2X services
- 3GPP TS 23.287v1.0.0: Architecture enhancements for 5G System (5GS) to support Vehicle-to-Everything (V2X) services
<5G 사용 시나리오>
5G의 세 가지 주요 요구 사항 영역은 (1) 향상된 모바일 광대역(eMBB; enhanced mobile broadband) 영역, (2) 거대 MTC(mMTC; massive machine type communication) 영역 및 (3) 고신뢰/초저지연 통신(URLLC; ultra-reliable and low latency communications) 영역을 포함한다. 일부 사용 예는 최적화를 위해 다수의 영역을 요구할 수 있고, 다른 사용 예는 단지 하나의 핵심 성능 지표(KPI; key performance indicator)에만 포커싱 할 수 있다. 5G는 이러한 다양한 사용 예들을 유연하고 신뢰할 수 있는 방법으로 지원하는 것이다.
eMBB는 데이터 속도, 지연, 사용자 밀도, 모바일 광대역 접속의 용량 및 커버리지의 전반적인 향상에 중점을 둔다. eMBB는 10Gbps 정도의 처리량을 목표로 한다. eMBB는 기본적인 모바일 인터넷 접속을 훨씬 능가하게 하며, 풍부한 양방향 작업, 클라우드 또는 증강 현실에서 미디어 및 엔터테인먼트 애플리케이션을 커버한다. 데이터는 5G의 핵심 동력 중 하나이며, 5G 시대에서 처음으로 전용 음성 서비스를 볼 수 없을 수 있다. 5G에서, 음성은 단순히 통신 시스템에 의해 제공되는 데이터 연결을 사용하여 응용 프로그램으로서 처리될 것으로 기대된다. 증가된 트래픽 양의 주요 원인은 콘텐츠 크기의 증가 및 높은 데이터 전송률을 요구하는 애플리케이션 수의 증가이다. 스트리밍 서비스(오디오 및 비디오), 대화형 비디오 및 모바일 인터넷 연결은 더 많은 장치가 인터넷에 연결될수록 더 널리 사용될 것이다. 이러한 많은 애플리케이션은 사용자에게 실시간 정보 및 알림을 푸쉬하기 위해 항상 켜져 있는 연결성을 필요로 한다. 클라우드 스토리지 및 애플리케이션은 모바일 통신 플랫폼에서 급속히 증가하고 있으며, 이것은 업무 및 엔터테인먼트 모두에 적용될 수 있다. 클라우드 스토리지는 상향링크 데이터 전송률의 성장을 견인하는 특별한 사용 예이다. 5G는 또한 클라우드 상의 원격 업무에도 사용되며, 촉각 인터페이스가 사용될 때 우수한 사용자 경험을 유지하도록 훨씬 더 낮은 단-대-단(end-to-end) 지연을 요구한다. 엔터테인먼트에서 예를 들면, 클라우드 게임 및 비디오 스트리밍은 모바일 광대역 능력의 향상을 요구하는 또 다른 핵심 요소이다. 엔터테인먼트는 기차, 차 및 비행기와 같은 높은 이동성 환경을 포함하여 어떤 곳에서든지 스마트폰 및 태블릿에서 필수적이다. 또 다른 사용 예는 엔터테인먼트를 위한 증강 현실 및 정보 검색이다. 여기서, 증강 현실은 매우 낮은 지연과 순간적인 데이터 양을 필요로 한다.
mMTC는 배터리에 의해 구동되는 다량의 저비용 장치 간의 통신을 가능하게 하기 위하여 설계되며, 스마트 계량, 물류, 현장 및 신체 센서와 같은 애플리케이션을 지원하기 위한 것이다. mMTC는 10년 정도의 배터리 및/또는 1km2 당 백만 개 정도의 장치를 목표로 한다. mMTC는 모든 분야에서 임베디드 센서를 원활하게 연결할 수 있게 하여 센서 네트워크를 구성할 수 있으며, 가장 많이 예상되는 5G 사용 예 중 하나이다. 잠재적으로 2020년까지 IoT 장치들은 204억 개에 이를 것으로 예측된다. 산업 IoT를 활용한 스마트 네트워크는 5G가 스마트 도시, 자산 추적(asset tracking), 스마트 유틸리티, 농업 및 보안 인프라를 가능하게 하는 주요 역할을 수행하는 영역 중 하나이다.
URLLC는 장치 및 기계가 매우 신뢰성 있고 매우 낮은 지연 및 높은 가용성으로 통신할 수 있도록 함으로써 자율주행 차량간 통신 및 제어, 산업 제어, 공장 자동화, 원격 수술과 헬스케어와 같은 미션 크리티컬 어플리케이션, 스마트 그리드 및 공공 안전 애플리케이션에 이상적이다. URLLC는 1ms의 정도의 지연을 목표로 한다. URLLC는 주요 인프라의 원격 제어 및 자율 주행 차량과 같은 고신뢰/초저지연 링크를 통해 산업을 변화시킬 새로운 서비스를 포함한다. 신뢰성과 지연의 수준은 스마트 그리드 제어, 산업 자동화, 로봇 공학, 드론 제어 및 조정에 필수적이다.
다음으로, 도 T의 삼각형 안에 포함된 다수의 사용 예에 대해 보다 구체적으로 살펴본다.
5G는 초당 수백 메가 비트에서 초당 기가 비트로 평가되는 스트림을 제공하는 수단으로 FTTH(fiber-to-the-home) 및 케이블 기반 광대역(또는 DOCSIS)을 보완할 수 있다. 이러한 빠른 속도는 가상 현실(VR; virtual reality)과 증강 현실(AR; augmented reality) 뿐 아니라 4K 이상(6K, 8K 및 그 이상)의 해상도로 TV를 전달하는 데에 요구될 수 있다. VR 및 AR 애플리케이션은 거의 몰입형(immersive) 스포츠 경기를 포함한다. 특정 애플리케이션은 특별한 네트워크 설정이 요구될 수 있다. 예를 들어, VR 게임의 경우, 게임 회사가 지연을 최소화하기 위해 코어 서버를 네트워크 오퍼레이터의 에지 네트워크 서버와 통합해야 할 수 있다.
자동차(Automotive)는 차량에 대한 이동 통신을 위한 많은 사용 예와 함께 5G에 있어 중요한 새로운 동력이 될 것으로 예상된다. 예를 들어, 승객을 위한 엔터테인먼트는 높은 용량과 높은 모바일 광대역을 동시에 요구한다. 그 이유는 미래의 사용자는 그들의 위치 및 속도와 관계 없이 고품질의 연결을 계속해서 기대하기 때문이다. 자동차 분야의 다른 사용 예는 증강 현실 대시보드이다. 운전자는 증강 현실 대비보드를 통해 앞면 창을 통해 보고 있는 것 위에 어둠 속에서 물체를 식별할 수 있다. 증강 현실 대시보드는 물체의 거리와 움직임에 대해 운전자에게 알려줄 정보를 겹쳐서 디스플레이 한다. 미래에, 무선 모듈은 차량 간의 통신, 차량과 지원하는 인프라구조 사이에서 정보 교환 및 자동차와 다른 연결된 장치(예를 들어, 보행자에 의해 수반되는 장치) 사이에서 정보 교환을 가능하게 한다. 안전 시스템은 운전자가 보다 안전한 운전을 할 수 있도록 행동의 대체 코스를 안내하여 사고의 위험을 낮출 수 있게 한다. 다음 단계는 원격 조종 차량 또는 자율 주행 차량이 될 것이다. 이는 서로 다른 자율 주행 차량 사이 및/또는 자동차와 인프라 사이에서 매우 신뢰성이 있고 매우 빠른 통신을 요구한다. 미래에, 자율 주행 차량이 모든 운전 활동을 수행하고, 운전자는 차량 자체가 식별할 수 없는 교통 이상에만 집중하도록 할 것이다. 자율 주행 차량의 기술적 요구 사항은 트래픽 안전을 사람이 달성할 수 없을 정도의 수준까지 증가하도록 초 저 지연과 초고속 신뢰성을 요구한다.
스마트 사회로서 언급되는 스마트 도시와 스마트 홈은 스마트 네트워크의 일례로 고밀도 무선 센서 네트워크로 임베디드 될 것이다. 지능형 센서의 분산 네트워크는 도시 또는 집의 비용 및 에너지 효율적인 유지에 대한 조건을 식별할 것이다. 유사한 설정이 각 가정을 위해 수행될 수 있다. 온도 센서, 창 및 난방 컨트롤러, 도난 경보기 및 가전 제품은 모두 무선으로 연결된다. 이러한 센서 중 많은 것들이 전형적으로 낮은 데이터 전송 속도, 저전력 및 저비용을 요구한다. 하지만, 예를 들어, 실시간 HD 비디오는 감시를 위해 특정 타입의 장치에서 요구될 수 있다.
열 또는 가스를 포함한 에너지의 소비 및 분배는 고도로 분산화되고 있어, 분산 센서 네트워크의 자동화된 제어가 요구된다. 스마트 그리드는 정보를 수집하고 이에 따라 행동하도록 디지털 정보 및 통신 기술을 사용하여 이런 센서를 상호 연결한다. 이 정보는 공급 업체와 소비자의 행동을 포함할 수 있으므로, 스마트 그리드가 효율성, 신뢰성, 경제성, 생산의 지속 가능성 및 자동화된 방식으로 전기와 같은 연료의 분배를 개선하도록 할 수 있다. 스마트 그리드는 지연이 적은 다른 센서 네트워크로 볼 수도 있다.
건강 부문은 이동 통신의 혜택을 누릴 수 있는 많은 애플리케이션을 보유하고 있다. 통신 시스템은 멀리 떨어진 곳에서 임상 진료를 제공하는 원격 진료를 지원할 수 있다. 이는 거리에 대한 장벽을 줄이는 데에 도움을 주고, 거리가 먼 농촌에서 지속적으로 이용하지 못하는 의료 서비스로의 접근을 개선시킬 수 있다. 이는 또한 중요한 진료 및 응급 상황에서 생명을 구하기 위해 사용된다. 이동 통신 기반의 무선 센서 네트워크는 심박수 및 혈압과 같은 파라미터에 대한 원격 모니터링 및 센서를 제공할 수 있다.
무선 및 모바일 통신은 산업 응용 분야에서 점차 중요해지고 있다. 배선은 설치 및 유지 비용이 높다. 따라서, 케이블을 재구성할 수 있는 무선 링크로의 교체 가능성은 많은 산업 분야에서 매력적인 기회이다. 그러나, 이를 달성하는 것은 무선 연결이 케이블과 비슷한 지연, 신뢰성 및 용량으로 동작하는 것과, 그 관리가 단순화될 것을 요구한다. 낮은 지연과 매우 낮은 오류 확률은 5G로 연결될 필요가 있는 새로운 요구 사항이다.
물류 및 화물 추적은 위치 기반 정보 시스템을 사용하여 어디에서든지 인벤토리(inventory) 및 패키지의 추적을 가능하게 하는 이동 통신에 대한 중요한 사용 예이다. 물류 및 화물 추적의 사용 예는 전형적으로 낮은 데이터 속도를 요구하지만 넓은 범위와 신뢰성 있는 위치 정보가 필요하다.
<본 발명이 적용될 수 있는 장치 일반>
이하, 본 발명이 적용될 수 있는 장치에 대하여 설명한다.
도 8은 본 발명의 일 실시 예에 따른 무선 통신 장치를 나타낸다.
도 8을 참조하면, 무선 통신 시스템은 제 1 장치(9010)와 제 2 장치(9020)를 포함할 수 있다.
상기 제 1 장치(9010)는 기지국, 네트워크 노드, 전송 단말, 수신 단말, 무선 장치, 무선 통신 장치, 차량, 자율주행 기능을 탑재한 차량, 커넥티드카(Connected Car), 드론(Unmanned Aerial Vehicle, UAV), AI(Artificial Intelligence) 모듈, 로봇, AR(Augmented Reality) 장치, VR(Virtual Reality) 장치, MR(Mixed Reality) 장치, 홀로그램 장치, 공공 안전 장치, MTC 장치, IoT 장치, 의료 장치, 핀테크 장치(또는 금융 장치), 보안 장치, 기후/환경 장치, 5G 서비스와 관련된 장치 또는 그 이외 4차 산업 혁명 분야와 관련된 장치일 수 있다.
상기 제 2 장치(9020)는 기지국, 네트워크 노드, 전송 단말, 수신 단말, 무선 장치, 무선 통신 장치, 차량, 자율주행 기능을 탑재한 차량, 커넥티드카(Connected Car), 드론(Unmanned Aerial Vehicle, UAV), AI(Artificial Intelligence) 모듈, 로봇, AR(Augmented Reality) 장치, VR(Virtual Reality) 장치, MR(Mixed Reality) 장치, 홀로그램 장치, 공공 안전 장치, MTC 장치, IoT 장치, 의료 장치, 핀테크 장치(또는 금융 장치), 보안 장치, 기후/환경 장치, 5G 서비스와 관련된 장치 또는 그 이외 4차 산업 혁명 분야와 관련된 장치일 수 있다.
예를 들어, 단말은 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털 방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)) 등을 포함할 수 있다. 예를 들어, HMD는 머리에 착용하는 형태의 디스플레이 장치일 수 있다. 예를 들어, HMD는 VR, AR 또는 MR을 구현하기 위해 사용될 수 있다.
예를 들어, 드론은 사람이 타지 않고 무선 컨트롤 신호에 의해 비행하는 비행체일 수 있다. 예를 들어, VR 장치는 가상 세계의 객체 또는 배경 등을 구현하는 장치를 포함할 수 있다. 예를 들어, AR 장치는 현실 세계의 객체 또는 배경 등에 가상 세계의 객체 또는 배경을 연결하여 구현하는 장치를 포함할 수 있다. 예를 들어, MR 장치는 현실 세계의 객체 또는 배경 등에 가상 세계의 객체 또는 배경을 융합하여 구현하는 장치를 포함할 수 있다. 예를 들어, 홀로그램 장치는 홀로그래피라는 두 개의 레이저 광이 만나서 발생하는 빛의 간섭현상을 활용하여, 입체 정보를 기록 및 재생하여 360도 입체 영상을 구현하는 장치를 포함할 수 있다. 예를 들어, 공공 안전 장치는 영상 중계 장치 또는 사용자의 인체에 착용 가능한 영상 장치 등을 포함할 수 있다. 예를 들어, MTC 장치 및 IoT 장치는 사람의 직접적인 개입이나 또는 조작이 필요하지 않는 장치일 수 있다. 예를 들어, MTC 장치 및 IoT 장치는 스마트 미터, 벤딩 머신, 온도계, 스마트 전구, 도어락 또는 각종 센서 등을 포함할 수 있다. 예를 들어, 의료 장치는 질병을 진단, 치료, 경감, 처치 또는 예방할 목적으로 사용되는 장치일 수 있다. 예를 들어, 의료 장치는 상해 또는 장애를 진단, 치료, 경감 또는 보정할 목적으로 사용되는 장치일 수 있다. 예를 들어, 의료 장치는 구조 또는 기능을 검사, 대체 또는 변형할 목적으로 사용되는 장치일 수 있다. 예를 들어, 의료 장치는 임신을 조절할 목적으로 사용되는 장치일 수 있다. 예를 들어, 의료 장치는 진료용 장치, 수술용 장치, (체외) 진단용 장치, 보청기 또는 시술용 장치 등을 포함할 수 있다. 예를 들어, 보안 장치는 발생할 우려가 있는 위험을 방지하고, 안전을 유지하기 위하여 설치한 장치일 수 있다. 예를 들어, 보안 장치는 카메라, CCTV, 녹화기(recorder) 또는 블랙박스 등일 수 있다. 예를 들어, 핀테크 장치는 모바일 결제 등 금융 서비스를 제공할 수 있는 장치일 수 있다. 예를 들어, 핀테크 장치는 결제 장치 또는 POS(Point of Sales) 등을 포함할 수 있다. 예를 들어, 기후/환경 장치는 기후/환경을 모니터링 또는 예측하는 장치를 포함할 수 있다.
상기 제 1 장치(9010)는 프로세서(9011)와 같은 적어도 하나 이상의 프로세서와, 메모리(9012)와 같은 적어도 하나 이상의 메모리와, 송수신기(9013)과 같은 적어도 하나 이상의 송수신기를 포함할 수 있다. 상기 프로세서(9011)는 전술한 기능, 절차, 및/또는 방법들을 수행할 수 있다. 상기 프로세서(9011)는 하나 이상의 프로토콜을 수행할 수 있다. 예를 들어, 상기 프로세서(9011)는 무선 인터페이스 프로토콜의 하나 이상의 계층들을 수행할 수 있다. 상기 메모리(9012)는 상기 프로세서(9011)와 연결되고, 다양한 형태의 정보 및/또는 명령을 저장할 수 있다. 상기 송수신기(9013)는 상기 프로세서(9011)와 연결되고, 무선 시그널을 송수신하도록 제어될 수 있다.
상기 제 2 장치(9020)는 프로세서(9021)와 같은 적어도 하나의 프로세서와, 메모리(9022)와 같은 적어도 하나 이상의 메모리 장치와, 송수신기(9023)와 같은 적어도 하나의 송수신기를 포함할 수 있다. 상기 프로세서(9021)는 전술한 기능, 절차, 및/또는 방법들을 수행할 수 있다. 상기 프로세서(9021)는 하나 이상의 프로토콜을 구현할 수 있다. 예를 들어, 상기 프로세서(9021)는 무선 인터페이스 프로토콜의 하나 이상의 계층들을 구현할 수 있다. 상기 메모리(9022)는 상기 프로세서(9021)와 연결되고, 다양한 형태의 정보 및/또는 명령을 저장할 수 있다. 상기 송수신기(9023)는 상기 프로세서(9021)와 연결되고, 무선 시그널을 송수신하도록 제어될 수 있다.
상기 메모리(9012) 및/또는 상기 메모리(9022)는, 상기 프로세서(9011) 및/또는 상기 프로세서(9021)의 내부 또는 외부에서 각기 연결될 수도 있고, 유선 또는 무선 연결과 같이 다양한 기술을 통해 다른 프로세서에 연결될 수도 있다.
상기 제 1 장치(9010) 및/또는 상기 제 2 장치(9020)는 하나 이상의 안테나를 가질 수 있다. 예를 들어, 안테나(9014) 및/또는 안테나(9024)는 무선 신호를 송수신하도록 구성될 수 있다.
도 9은 본 발명의 일 실시 예에 따른 네트워크 노드의 블록 구성도를 예시한다.
특히, 도 9에서는 기지국이 중앙 유닛(CU: central unit)과 분산 유닛(DU: distributed unit)으로 분할되는 경우, 앞서 도 W의 네트워크 노드를 보다 상세하게 예시하는 도면이다.
도 9를 참조하면, 기지국(W20, W30)은 코어 네트워크(W10)와 연결되어 있을 수 있고, 기지국(W30)은 이웃 기지국(W20)과 연결되어 있을 수 있다. 예를 들어, 기지국(W20, W30)과 코어 네트워크(W10) 사이의 인터페이스를 NG라고 칭할 수 있고, 기지국(W30) 이웃 기지국(W20) 사이의 인터페이스를 Xn이라고 칭할 수 있다.
기지국(W30)은 CU(W32) 및 DU(W34, W36)로 분할될 수 있다. 즉, 기지국(W30)은 계층적으로 분리되어 운용될 수 있다. CU(W32)는 하나 이상의 DU(W34, W36)와 연결되어 있을 수 있으며, 예를 들어, 상기 CU(W32)와 DU(W34, W36) 사이의 인터페이스를 F1이라고 칭할 수 있다. CU(W32)는 기지국의 상위 계층(upper layers)의 기능을 수행할 수 있고, DU(W34, W36)는 기지국의 하위 계층(lower layers)의 기능을 수행할 수 있다. 예를 들어, CU(W32)는 기지국(예를 들어, gNB)의 RRC(radio resource control), SDAP(service data adaptation protocol) 및 PDCP(packet data convergence protocol) 계층을 호스팅하는 로지컬 노드(logical node)일 수 있고, DU(W34, W36)는 기지국의 RLC(radio link control), MAC(media access control) 및 PHY(physical) 계층을 호스팅하는 로지컬 노드일 수 있다. 대안적으로, CU(W32)는 기지국(예를 들어, en-gNB)의 RRC 및 PDCP 계층을 호스팅하는 로지컬 노드일 수 있다.
DU(W34, W36)의 동작은 부분적으로 CU(W32)에 의해 제어될 수 있다. 하나의 DU(W34, W36)는 하나 이상의 셀을 지원할 수 있다. 하나의 셀은 오직 하나의 DU(W34, W36)에 의해서만 지원될 수 있다. 하나의 DU(W34, W36)는 하나의 CU(W32)에 연결될 수 있고, 적절한 구현에 의하여 하나의 DU(W34, W36)는 복수의 CU에 연결될 수도 있다.
도 10는 본 발명의 일 실시예에 따른 통신 장치의 블록 구성도를 예시한다.
특히, 도 10는 앞서 도 8의 단말을 보다 상세히 예시하는 도면이다.
단말은 메모리(1010), 프로세서(1020), 송수신부(1031), 전력 관리 모듈(1091), 배터리(1092), 디스플레이(1041), 입력부(1053), 스피커(1042) 및 마이크(1052), SIM(subscriber identification module) 카드, 하나 이상의 안테나를 포함한다.
프로세서(1020)는 본 명세서에서 설명된 제안된 기능, 절차 및/ 또는 방법을 구현하도록 구성될 수 있다. 무선 인터페이스 프로토콜의 계층들은 프로세서(1020)에서 구현될 수 있다. 프로세서(1020)는 ASIC(application-specific integrated circuit), 다른 칩셋, 논리 회로 및/또는 데이터 처리 장치를 포함할 수 있다. 프로세서(1020)는 AP(application processor)일 수 있다. 프로세서(1020)는 DSP(digital signal processor), CPU(central processing unit), GPU(graphics processing unit), 모뎀(Modem; modulator and demodulator) 중 적어도 하나를 포함할 수 있다. 프로세서(1020)의 예는 Qualcomm®에 의해 제조된 SNAPDRAGONTM 시리즈 프로세서, Samsung®에 의해 제조된 EXYNOSTM 시리즈 프로세서, Apple®에 의해 제조된 A 시리즈 프로세서, MediaTek®에 의해 제조된 HELIOTM 시리즈 프로세서, INTEL®에 의해 제조된 ATOMTM 시리즈 프로세서 또는 대응하는 차세대 프로세서일 수 있다.
전력 관리 모듈(1091)은 프로세서(1020) 및/또는 송수신부(1031)에 대한 전력을 관리한다. 배터리(1092)는 전력 관리 모듈(1091)에 전력을 공급한다. 디스플레이(1041)는 프로세서(1020)에 의해 처리된 결과를 출력한다. 입력부(1053)는 프로세서(1020)에 의해 사용될 입력을 수신한다. 입력부(1053)는 디스플레이(1041) 상에 표시될 수 있다.
SIM 카드는 휴대 전화 및 컴퓨터와 같은 휴대 전화 장치에서 가입자를 식별하고 인증하는 데에 사용되는 IMSI(international mobile subscriber identity) 및 그와 관련된 키를 안전하게 저장하기 위하여 사용되는 집적 회로이다. 많은 SIM 카드에 연락처 정보를 저장할 수도 있다.
상기 SIM 카드는 하나 또는 복수개가 장착될 수 있다. SIM 카드가 물리적으로 구현될 경우, 상기 단말은 복수개의 SIM 카드가 삽입될 수 있는 복수개의 슬롯들(slots)과 복수개의 인터페이스를 포함할 수 있다. 복수의 SIM카드 중 하나 이상은 전자적 형태로 구현되는 eSIM(Embedded SIM (eSIM)일 수 있다.
메모리(1010)는 프로세서(1020)와 동작 가능하게 결합되고, 프로세서(610)를 동작시키기 위한 다양한 정보를 저장한다. 메모리(1010)는 ROM(read-only memory), RAM(random access memory), 플래시 메모리, 메모리 카드, 저장 매체 및/또는 다른 저장 장치를 포함할 수 있다. 실시예가 소프트웨어로 구현되는 경우, 본 명세서에서 설명된 기술들은 본 명세서에서 설명된 기능을 수행하는 모듈(예컨대, 절차, 기능 등)로 구현될 수 있다. 모듈은 메모리(1010)에 저장될 수 있고 프로세서(1020)에 의해 실행될 수 있다. 메모리(1010)는 프로세서(1020) 내부에 구현될 수 있다. 또는, 메모리(1010)는 프로세서(1020) 외부에 구현될 수 있으며, 기술 분야에서 공지된 다양한 수단을 통해 프로세서(1020)에 통신 가능하게 연결될 수 있다.
송수신부(1031)는 프로세서(1020)와 동작 가능하게 결합되고, 무선 신호를 송신 및/또는 수신한다. 송수신부(1031)는 전송기와 수신기를 포함한다. 송수신부(1031)는 무선 주파수 신호를 처리하기 위한 기저 대역 회로를 포함할 수 있다. 송수신부는 무선 신호를 송신 및/또는 수신하도록 하나 이상의 안테나을 제어한다. 프로세서(1020)는 통신을 개시하기 위하여 예를 들어, 음성 통신 데이터를 구성하는 무선 신호를 전송하도록 명령 정보를 송수신부(1031)에 전달한다. 안테나는 무선 신호를 송신 및 수신하는 기능을 한다. 무선 신호를 수신할 때, 송수신부(1031)은 프로세서(1020)에 의해 처리하기 위하여 신호를 전달하고 기저 대역으로 신호를 변환할 수 있다. 처리된 신호는 스피커(1042)를 통해 출력되는 가청 또는 가독 정보로 변환될 수 있다.
스피커(1042)는 프로세서(1020)에 의해 처리된 소리 관련 결과를 출력한다. 마이크(1052)는 프로세서(1020)에 의해 사용될 소리 관련 입력을 수신한다.
사용자는 예를 들어, 입력부(1053)의 버튼을 누르거나(혹은 터치하거나) 또는 마이크(1052)를 이용한 음성 구동(voice activation)에 의해 전화 번호 등과 같은 명령 정보를 입력한다. 프로세서(1020)는 이러한 명령 정보를 수신하고, 전화 번호로 전화를 거는 등 적절한 기능을 수행하도록 처리한다. 구동 상의 데이터(operational data)는 심카드 또는 메모리(1010)로부터 추출할 수 있다. 또한, 프로세서(1020)는 사용자가 인지하고 또한 편의를 위해 명령 정보 또는 구동 정보를 디스플레이(1041) 상에 디스플레이할 수 있다.
도 11은 도 10에 도시된 단말의 구성을 보다 상세히 나타낸 블록도이다.
단말(100)은 송수신부(1030), 프로세서(1020), 메모리(1030), 센싱부(1060), 출력부(1040), 인터페이스부(1090), 입력부(1050) 및 전원 공급부(1080) 등을 포함할 수 있다. 도 11에 도시된 구성요소들은 단말을 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 단말은 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.
보다 구체적으로, 상기 구성요소들 중 송수신부(1030)는, 단말(100)와 무선 통신 시스템 사이, 단말(100)와 다른 단말(100) 사이, 또는 단말(100)와 외부서버 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 상기 송수신부(1030)는, 단말(100)를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.
이러한 송수신부(1030)는, 방송 수신부(1032), 이동통신 송수신부(1031), 무선 인터넷 송수신부(1033), 근거리 통신부(1034), 위치정보 모듈(1150) 중 적어도 하나를 포함할 수 있다.
입력부(1050)는, 영상 신호 입력을 위한 카메라(1051) 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(microphone, 1052), 또는 오디오 입력부, 사용자로부터 정보를 입력받기 위한 사용자 입력부(1053, 예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있다. 입력부(1050)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어명령으로 처리될 수 있다.
센싱부(1060)는 이동 단말기 내 정보, 이동 단말기를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 센싱부(1060)는 근접센서(1061, proximity sensor), 조도 센서(1062, illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라(1051 참조)), 마이크로폰(microphone, 1052 참조), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 이동 단말기는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.
출력부(1040)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(1041), 음향 출력부(1042), 햅팁 출력부(1043), 광 출력부(1044) 중 적어도 하나를 포함할 수 있다. 디스플레이부(1041)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 단말(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(1053)로써 기능함과 동시에, 단말(100)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.
인터페이스부(1090)는 단말(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행한다. 이러한 인터페이스부(1090)는, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 중 적어도 하나를 포함할 수 있다. 단말(100)에서는, 상기 인터페이스부(1090)에 외부 기기가 연결되는 것에 대응하여, 연결된 외부 기기와 관련된 적절할 제어를 수행할 수 있다.
또한, 메모리(1030)는 단말(100)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(1030)는 단말(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 단말(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는, 단말(100)의 기본적인 기능(예를 들어, 전화 착신, 발신 기능, 메시지 수신, 발신 기능)을 위하여 출고 당시부터 단말(100)상에 존재할 수 있다. 한편, 응용 프로그램은, 메모리(1030)에 저장되고, 단말(100) 상에 설치되어, 프로세서(1020)에 의하여 상기 이동 단말기의 동작(또는 기능)을 수행하도록 구동될 수 있다.
프로세서(1020)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 단말(100)의 전반적인 동작을 제어한다. 프로세서(1020)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(1030)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.
또한, 프로세서(1020)는 메모리(1030)에 저장된 응용 프로그램을 구동하기 위하여, 도 XX와 함께 살펴본 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 프로세서(1020)는 상기 응용 프로그램의 구동을 위하여, 단말(100)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.
전원공급부(1080)는 프로세서(1020)의 제어 하에서, 외부의 전원, 내부의 전원을 인가 받아 단말(100)에 포함된 각 구성요소들에 전원을 공급한다. 이러한 전원공급부(1080)는 배터리를 포함하며, 상기 배터리는 내장형 배터리 또는 교체가능한 형태의 배터리가 될 수 있다.
상기 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시 예들에 따른 이동 단말기의 동작, 제어, 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 상기 이동 단말기의 동작, 제어, 또는 제어방법은 상기 메모리(1030)에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 이동 단말기 상에서 구현될 수 있다.
도 12는 그림 10에 표시된 무선 장치의 송수신기(1031)를 나타내는 상세 블록 다이어그램이다.
도 12를 참조하여 송수신기 110은 송신기 111과 수신기 112를 포함한다. 송신기 111은 이산 푸리에 변환 장치 1111, 서브 캐리어 매퍼 1112, IFFT 장치 1113, CP 삽입 장치 1114, 무선 송신기 1115를 포함한다. 또한 송수신기 1110은 스크램블 유닛(표시되지 않음), 변조 매퍼(표시되지 않음), 레이어 매퍼(표시되지 않음) 및 레이어 퍼머레이터를 추가로 포함할 수 있으며, 송수신기 110은 DFT 유닛 1111 앞에 폐기할 수 있다. 즉, 송신기 111은 신호를 서브캐리어에 매핑하기 전에 정보를 전송하여 DFT 장치 1111을 통과할 수 있다. DFT 유닛 111에 의한 신호 확산(또는 동일한 의미의 사전 코드화)은 서브캐리어 매퍼 1112에 의해 서브캐리어 맵된 후 IFFT 유닛 1113을 통과하여 시간 영역 신호로 생성된다.
DFT 유닛 111은 입력 기호에 대해 DFT를 수행하여 복합 값 기호를 출력한다. 예를 들어 Ntx 기호가 입력된 경우(여기서 Ntx는 자연수임), DFT 크기는 Ntx일 수 있다. DFT 유닛 1111은 변환 프리코더라고 불릴 수 있다. 서브캐리어 매퍼 1112는 복합값 기호를 주파수 영역의 서브캐리어에 매핑한다. 복합값 기호는 데이터 전송을 위해 할당된 자원 블록에 해당하는 자원 요소에 매핑될 수 있다. 서브캐리어 매퍼 1112는 자원 요소 매퍼라고 불릴 수 있다. IFFT 유닛 113은 입력 기호에 IFFT를 수행하여 시간 영역 신호인 데이터에 대한 베이스밴드 신호를 출력할 수 있다. CP 인서터 1114는 데이터를 위해 베이스밴드 신호의 후면 부분을 복사하고 복사된 부분을 베이스밴드 신호의 전면 부분에 삽입한다. CP 삽입은 ISI(Inter-Symbol Inter Interference)와 ICI(Inter-Carrier Inter Interference)를 방지하므로 다중 경로 채널에서도 직교성을 유지할 수 있다.
한편, 수신기 112에는 무선 수신기 1121, CP 제거기 1122, FFT 장치 1123, 이퀄라이저 1124 등이 포함되어 있다. 무선 수신기 1121, CP 제거기 1122 및 수신기 112의 FFT 장치 1123은 무선 송신기 1115, CP 인서터 1114 및 송신기의 IFFT 장치 113의 기능에 반비례하는 기능을 수행한다. 수신기 112는 계량기를 추가로 포함할 수 있다.
이상에서 설명된 실시예들은 본 발명의 구성요소들과 특징들이 소정 형태로 결합된 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려되어야 한다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 본 발명의 실시예를 구성하는 것도 가능하다. 본 발명의 실시예들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시예의 일부 구성이나 특징은 다른 실시예에 포함될 수 있고, 또는 다른 실시예의 대응하는 구성 또는 특징과 교체될 수 있다. 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함시킬 수 있음은 자명하다.
본 발명에 따른 실시예는 다양한 수단, 예를 들어, 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 본 발명의 일 실시예는 하나 또는 그 이상의 ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서, 콘트롤러, 마이크로 콘트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.
펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 일 실시예는 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차, 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드는 메모리에 저장되어 프로세서에 의해 구동될 수 있다. 상기 메모리는 상기 프로세서 내부 또는 외부에 위치하여, 이미 공지된 다양한 수단에 의해 상기 프로세서와 데이터를 주고 받을 수 있다.
<제어 평면 무선 인터페이스 프로토콜(Radio Interface Protocol) 구조>
도 13는 UE과 eNodeB 사이의 제어 평면에서의 무선 인터페이스 프로토콜(Radio Interface Protocol)의 구조를 나타낸 예시도이다.
상기 무선인터페이스 프로토콜은 3GPP 무선접속망 규격을 기반으로 한다. 상기 무선 인터페이스 프로토콜은 수평적으로 물리계층(Physical 계층), 데이터링크계층(Data Link 계층) 및 네트워크계층(Network 계층)으로 이루어지며, 수직적으로는 데이터정보 전송을 위한 사용자평면(User Plane)과 제어신호(Signaling)전달을 위한 제어평면(Control Plane)으로 구분된다.
상기 프로토콜 계층들은 통신시스템에서 널리 알려진 개방형 시스템간 상호접속(Open System Interconnection; OSI) 기준모델의 하위 3개 계층을 바탕으로 L1(제1계층), L2(제2계층), L3(제3계층)로 구분될 수 있다.
이하에서, 상기 도 Z에 도시된 제어 평면의 의 각 계층을 설명한다.
제1 계층인 물리계층은 물리채널(Physical Channel)을 이용하여 정보전송서비스(Information Transfer Service)를 제공한다. 상기 물리계층은 상위에 있는 매체접속제어(Medium Access Control) 계층과는 전송 채널(Transport Channel)을 통해 연결되어 있으며, 상기 전송 채널을 통해 매체접속제어계층과 물리계층 사이의 데이터가 전달된다. 그리고, 서로 다른 물리계층 사이, 즉 송신 측과 수신 측의 물리계층 사이는 물리채널을 통해 데이터가 전달된다.
물리채널(Physical Channel)은 시간 축 상에 있는 여러 개의 서브프레임과 주파수축상에 있는 여러 개의 서브 캐리어(Sub-carrier)로 구성된다. 여기서, 하나의 서브프레임(Sub-frame)은 시간 축 상에 복수의 심볼(Symbol)들과 복수의 서브 캐리어들로 구성된다. 하나의 서브프레임은 복수의 자원블록(Resource Block)들로 구성되며, 하나의 자원블록은 복수의 심볼(Symbol)들과 복수의 서브캐리어들로 구성된다. 데이터가 전송되는 단위시간인 TTI(Transmission Time Interval)는 1개의 서브프레임에 해당하는 1ms이다.
상기 송신 측과 수신 측의 물리계층에 존재하는 물리 채널들은 3GPP LTE에 따르면, 데이터 채널인 PDSCH(Physical Downlink Shared Channel)와 PUSCH(Physical Uplink Shared Channel) 및 제어채널인 PDCCH(Physical Downlink Control Channel), PCFICH(Physical Control Format Indicator Channel), PHICH(Physical Hybrid-ARQ Indicator Channel) 및 PUCCH(Physical Uplink Control Channel)로 나눌 수 있다.
서브프레임의 첫 번째 OFDM 심벌에서 전송되는 PCFICH는 서브프레임 내에서 제어채널들의 전송에 사용되는 OFDM 심벌의 수(즉, 제어영역의 크기)에 관한 CFI(control format indicator)를 나른다. 무선기기는 먼저 PCFICH 상으로 CFI를 수신한 후, PDCCH를 모니터링한다.
PDCCH와 달리, PCFICH는 블라인드 디코딩을 사용하지 않고, 서브프레임의 고정된 PCFICH 자원을 통해 전송된다.
PHICH는 UL HARQ(hybrid automatic repeat request)를 위한 ACK(positive-acknowledgement)/NACK(negative-acknowledgement) 신호를 나른다. 무선기기에 의해 전송되는 PUSCH 상의 UL(uplink) 데이터에 대한 ACK/NACK 신호는 PHICH 상으로 전송된다.
PBCH(Physical Broadcast Channel)은 무선 프레임의 첫 번째 서브프레임의 두 번째 슬롯의 앞선 4개의 OFDM 심벌에서 전송된다. PBCH는 무선기기가 기지국과 통신하는데 필수적인 시스템 정보를 나르며, PBCH를 통해 전송되는 시스템 정보를 MIB(master information block)라 한다. 이와 비교하여, PDCCH에 의해 지시되는 PDSCH 상으로 전송되는 시스템 정보를 SIB(system information block)라 한다.
PDCCH는 DL-SCH(downlink-shared channel)의 자원 할당 및 전송 포맷, UL-SCH(uplink shared channel)의 자원 할당 정보, PCH 상의 페이징 정보, DL-SCH 상의 시스템 정보, PDSCH 상으로 전송되는 랜덤 액세스 응답과 같은 상위 계층 제어 메시지의 자원 할당, 임의의 UE 그룹 내 개별 UE들에 대한 전송 파워 제어 명령의 집합 및 VoIP(voice over internet protocol)의 활성화 등을 나를 수 있다. 복수의 PDCCH가 제어 영역 내에서 전송될 수 있으며, 단말은 복수의 PDCCH를 모니터링 할 수 있다. PDCCH는 하나 또는 몇몇 연속적인 CCE(control channel elements)의 집합(aggregation) 상으로 전송된다. CCE는 무선채널의 상태에 따른 부호화율을 PDCCH에게 제공하기 위해 사용되는 논리적 할당 단위이다. CCE는 복수의 자원 요소 그룹(resource element group)에 대응된다. CCE의 수와 CCE들에 의해 제공되는 부호화율의 연관 관계에 따라 PDCCH의 포맷 및 가능한 PDCCH의 비트수가 결정된다.
PDCCH를 통해 전송되는 제어정보를 다운링크 제어정보(downlink control information, DCI)라고 한다. DCI는 PDSCH의 자원 할당(이를 DL 그랜트(downlink grant)라고도 한다), PUSCH의 자원 할당(이를 UL 그랜트(uplink grant)라고도 한다), 임의의 UE 그룹 내 개별 UE들에 대한 전송 파워 제어 명령의 집합 및/또는 VoIP(Voice over Internet Protocol)의 활성화를 포함할 수 있다.
제2계층에는 여러 가지 계층이 존재한다. 먼저 매체접속제어(Medium Access Control; MAC) 계층은 다양한 논리채널(Logical Channel)을 다양한 전송채널에 매핑시키는 역할을 하며, 또한 여러 논리채널을 하나의 전송채널에 매핑시키는 논리채널 다중화(Multiplexing)의 역할을 수행한다. MAC 계층은 상위계층인 RLC 계층과는 논리채널(Logical Channel)로 연결되어 있으며, 논리채널은 크게 전송되는 정보의 종류에 따라 제어평면(Control Plane)의 정보를 전송하는 제어채널(Control Channel)과 사용자평면(User Plane)의 정보를 전송하는 트래픽 채널(Traffic Channel)로 나뉜다.
제2계층의 무선링크제어(Radio Link Control; RLC) 계층은 상위계층으로부터 수신한 데이터를 분할(Segmentation) 및 연결(Concatenation)하여 하위계층이 무선 구간으로 데이터를 전송하기에 적합하도록 데이터 크기를 조절하는 역할을 수행한다. 또한, 각각의 무선 베어러(Radio Bearer; RB)가 요구하는 다양한 QoS를 보장할 수 있도록 하기 위해 TM(Transparent 모드, 투명모드), UM(Un-acknowledged 모드, 무응답모드), 및 AM(Acknowledged 모드, 응답모드)의 세가지 동작 모드를 제공하고 있다. 특히, AM RLC는 신뢰성 있는 데이터 전송을 위해 자동 반복 및 요청(Automatic Repeat and Request; ARQ) 기능을 통한 재전송 기능을 수행하고 있다.
제2계층의 패킷 데이터 수렴(Packet Data Convergence Protocol; PDCP) 계층은 IPv4나 IPv6와 같은 IP 패킷 전송 시에 대역폭이 작은 무선 구간에서 효율적으로 전송하기 위하여 상대적으로 크기가 크고 불필요한 제어정보를 담고 있는 IP 패킷 헤더 사이즈를 줄여주는 헤더압축(Header Compression) 기능을 수행한다. 이는 데이터의 헤더(Header) 부분에서 반드시 필요한 정보만을 전송하도록 하여, 무선 구간의 전송효율을 증가시키는 역할을 한다. 또한, LTE 시스템에서는 PDCP 계층이 보안(Security) 기능도 수행하는데, 이는 제 3자의 데이터 감청을 방지하는 암호화(Ciphering)와 제 3자의 데이터 조작을 방지하는 무결성 보호(Integrity protection)로 구성된다.
제3 계층의 가장 상부에 위치한 무선자원제어(Radio Resource Control; 이하 RRC라 약칭함) 계층은 제어평면에서만 정의되며, 무선 베어러(Radio Bearer; RB라 약칭함)들의 설정(설정), 재설정(Re-설정) 및 해제(Release)와 관련되어 논리 채널, 전송 채널 및 물리 채널들의 제어를 담당한다. 이때, RB는 단말과 E-UTRAN간의 데이터 전달을 위해 제2계층에 의해 제공되는 서비스를 의미한다.
상기 단말의 RRC와 무선망의 RRC계층 사이에 RRC 연결(RRC connection)이 있을 경우, 단말은 RRC연결상태(Connected 모드)에 있게 되고, 그렇지 못할 경우 RRC휴지상태(Idle 모드)에 있게 된다.
이하 단말의 RRC 상태(RRC state)와 RRC 연결 방법에 대해 설명한다. RRC 상태란 단말의 RRC가 E-UTRAN의 RRC와 논리적 연결(logical connection)이 되어 있는가 아닌가를 말하며, 연결되어 있는 경우는 RRC_CONNECTED 상태(state), 연결되어 있지 않은 경우는 RRC_IDLE 상태라고 부른다. RRC_CONNECTED 상태의 단말은 RRC 연결이 존재하기 때문에 E-UTRAN은 해당 단말의 존재를 셀 단위에서 파악할 수 있으며, 따라서 단말을 효과적으로 제어할 수 있다. 반면에 RRC_IDLE 상태의 단말은 E-UTRAN이 단말의 존재를 파악할 수는 없으며, 셀 보다 더 큰 지역 단위인 TA(Tracking Area) 단위로 핵심망이 관리한다. 즉, RRC_IDLE 상태의 단말은 셀에 비하여 큰 지역 단위로 해당 단말의 존재여부만 파악되며, 음성이나 데이터와 같은 통상의 이동통신 서비스를 받기 위해서는 해당 단말이 RRC_CONNECTED 상태로 천이하여야 한다. 각 TA는 TAI(Tracking area identity)를 통해 구분된다. 단말은 셀에서 방송(broadcasting)되는 정보인 TAC(Tracking area code)를 통해 TAI를 구성할 수 있다.
사용자가 단말의 전원을 맨 처음 켰을 때, 단말은 먼저 적절한 셀을 탐색한 후 해당 셀에서 RRC 연결을 맺고, 핵심망에 단말의 정보를 등록한다. 이 후, 단말은 RRC_IDLE 상태에 머무른다. RRC_IDLE 상태에 머무르는 단말은 필요에 따라서 셀을(재)선택하고, 시스템 정보(System information)나 페이징 정보를 살펴본다. 이를 셀에 캠프 온(Camp on) 한다고 한다. RRC_IDLE 상태에 머물러 있던 단말은 RRC 연결을 맺을 필요가 있을 때 비로소 RRC 연결 과정(RRC connection procedure)을 통해 E-UTRAN의 RRC와 RRC 연결을 맺고 RRC_CONNECTED 상태로 천이한다. RRC_IDLE 상태에 있던 단말이 RRC 연결을 맺을 필요가 있는 경우는 여러 가지가 있는데, 예를 들어 사용자의 통화 시도 등의 이유로 상향 데이터 전송이 필요하다거나, 아니면 E-UTRAN으로부터 페이징 신호를 수신한 경우 이에 대한 응답 메시지 전송 등을 들 수 있다.
상기 NAS(Non-Access Stratum) 계층은 연결관리(Session Management)와 이동성 관리(Mobility Management)등의 기능을 수행한다.
아래는 도 Z에 도시된 NAS 계층에 대하여 상세히 설명한다.
NAS 계층은 MM(Mobility Management)을 위한 NAS 엔티티와 SM(Session Management)을 위한 NAS 엔티티로 구분된다.
1) MM을 위한 NAS 엔티티는 일반적인 다음과 같은 기능을 제공한다.
AMF와 관련된 NAS 절차로서, 다음을 포함한다.
- 등록 관리 및 접속 관리 절차. AMF는 다음과 같은 기능을 지원한다.
- UE와 AMF간에 안전한 NAS 신호 연결(무결성 보호, 암호화)
2) SM을 위한 NAS 엔티티는 UE와 SMF간에 세션 관리를 수행한다.
SM 시그널링 메시지는 UE 및 SMF의 NAS-SM 계층에서 처리, 즉 생성 및 처리된다. SM 시그널링 메시지의 내용은 AMF에 의해 해석되지 않는다.
- SM 시그널링 전송의 경우,
- MM을 위한 NAS 엔티티는 SM 시그널링의 NAS 전송을 나타내는 보안 헤더, 수신하는 NAS-MM에 대한 추가 정보를 통해 SM 시그널링 메시지를 전달하는 방법과 위치를 유도하는 NAS-MM 메시지를 생성합니다.
- SM 시그널링 수신시, SM을 위한 NAS 엔티티는 NAS-MM 메시지의 무결성 검사를 수행하고, 추가 정보를 해석하여 SM 시그널링 메시지를 도출할 방법 및 장소를 유도한다.
한편, 도 Z에서 NAS 계층 아래에 위치하는 RRC 계층, RLC 계층, MAC 계층, PHY 계층을 묶어서 액세스 계층(Access Stratum: AS)이라고 부르기도 한다.
도 14는 5G 사용 시나리오의 예를 나타낸다.
도 14에 도시된 5G 사용 시나리오는 단지 예시적인 것이며, 본 발명의 기술적 특징은 도 14에 도시되지 않은 다른 5G 사용 시나리오에도 적용될 수 있다.
도 14를 참조하면, 5G의 세 가지 주요 요구 사항 영역은 (1) 향상된 모바일 광대역(eMBB; enhanced mobile broadb그리고) 영역, (2) 거대 MTC(mMTC; massive machine type communication) 영역 및 (3) 고신뢰/초저지연 통신(URLLC; ultra-reliable 그리고 low latency communications) 영역을 포함한다. 일부 사용 예는 최적화를 위해 다수의 영역을 요구할 수 있고, 다른 사용 예는 단지 하나의 핵심 성능 지표(KPI; key performance indicator)에만 포커싱 할 수 있다. 5G는 이러한 다양한 사용 예들을 유연하고 신뢰할 수 있는 방법으로 지원하는 것이다.
eMBB는 데이터 속도, 지연, 사용자 밀도, 모바일 광대역 접속의 용량 및 커버리지의 전반적인 향상에 중점을 둔다. eMBB는 10Gbps 정도의 처리량을 목표로 한다. eMBB는 기본적인 모바일 인터넷 접속을 훨씬 능가하게 하며, 풍부한 양방향 작업, 클라우드 또는 증강 현실에서 미디어 및 엔터테인먼트 애플리케이션을 커버한다. 데이터는 5G의 핵심 동력 중 하나이며, 5G 시대에서 처음으로 전용 음성 서비스를 볼 수 없을 수 있다. 5G에서, 음성은 단순히 통신 시스템에 의해 제공되는 데이터 연결을 사용하여 애플리케이션 프로그램으로서 처리될 것으로 기대된다. 증가된 트래픽 양의 주요 원인은 콘텐츠 크기의 증가 및 높은 데이터 전송률을 요구하는 애플리케이션 수의 증가이다. 스트리밍 서비스(오디오 및 비디오), 대화형 비디오 및 모바일 인터넷 연결은 더 많은 장치가 인터넷에 연결될수록 더 널리 사용될 것이다. 이러한 많은 애플리케이션은 사용자에게 실시간 정보 및 알림을 푸쉬하기 위해 항상 켜져 있는 연결성을 필요로 한다. 클라우드 스토리지 및 애플리케이션은 모바일 통신 플랫폼에서 급속히 증가하고 있으며, 이것은 업무 및 엔터테인먼트 모두에 적용될 수 있다. 클라우드 스토리지는 상향링크 데이터 전송률의 성장을 견인하는 특별한 사용 예이다. 5G는 또한 클라우드 상의 원격 업무에도 사용되며, 촉각 인터페이스가 사용될 때 우수한 사용자 경험을 유지하도록 훨씬 더 낮은 단-대-단(end-to-end) 지연을 요구한다. 엔터테인먼트에서 예를 들면, 클라우드 게임 및 비디오 스트리밍은 모바일 광대역 능력의 향상을 요구하는 또 다른 핵심 요소이다. 엔터테인먼트는 기차, 차 및 비행기와 같은 높은 이동성 환경을 포함하여 어떤 곳에서든지 스마트폰 및 태블릿에서 필수적이다. 또 다른 사용 예는 엔터테인먼트를 위한 증강 현실 및 정보 검색이다. 여기서, 증강 현실은 매우 낮은 지연과 순간적인 데이터 양을 필요로 한다.
mMTC는 배터리에 의해 구동되는 다량의 저비용 장치 간의 통신을 가능하게 하기 위하여 설계되며, 스마트 계량, 물류, 현장 및 신체 센서와 같은 애플리케이션을 지원하기 위한 것이다. mMTC는 10년 정도의 배터리 및/또는 1km2 당 백만 개 정도의 장치를 목표로 한다. mMTC는 모든 분야에서 임베디드 센서를 원활하게 연결할 수 있게 하여 센서 네트워크를 구성할 수 있으며, 가장 많이 예상되는 5G 사용 예 중 하나이다. 잠재적으로 2020년까지 IoT 장치들은 204억 개에 이를 것으로 예측된다. 산업 IoT를 활용한 스마트 네트워크는 5G가 스마트 도시, 자산 추적(asset tracking), 스마트 유틸리티, 농업 및 보안 인프라를 가능하게 하는 주요 역할을 수행하는 영역 중 하나이다.
URLLC는 장치 및 기계가 매우 신뢰성 있고 매우 낮은 지연 및 높은 가용성으로 통신할 수 있도록 함으로써 자율주행 차량간 통신 및 제어, 산업 제어, 공장 자동화, 원격 수술과 헬스케어와 같은 미션 크리티컬 어플리케이션, 스마트 그리드 및 공공 안전 애플리케이션에 이상적이다. URLLC는 1ms의 정도의 지연을 목표로 한다. URLLC는 주요 인프라의 원격 제어 및 자율 주행 차량과 같은 고신뢰/초저지연 링크를 통해 산업을 변화시킬 새로운 서비스를 포함한다. 신뢰성과 지연의 수준은 스마트 그리드 제어, 산업 자동화, 로봇 공학, 드론 제어 및 조정에 필수적이다.
다음으로, 도 14의 삼각형 안에 포함된 다수의 사용 예에 대해 보다 구체적으로 살펴본다.
5G는 초당 수백 메가 비트에서 초당 기가 비트로 평가되는 스트림을 제공하는 수단으로 FTTH(fiber-to-the-home) 및 케이블 기반 광대역(또는 DOCSIS)을 보완할 수 있다. 이러한 빠른 속도는 가상 현실(VR; virtual reality)과 증강 현실(AR; augmented reality) 뿐 아니라 4K 이상(6K, 8K 및 그 이상)의 해상도로 TV를 전달하는 데에 요구될 수 있다. VR 및 AR 애플리케이션은 거의 몰입형(immersive) 스포츠 경기를 포함한다. 특정 애플리케이션은 특별한 네트워크 설정이 요구될 수 있다. 예를 들어, VR 게임의 경우, 게임 회사가 지연을 최소화하기 위해 코어 서버를 네트워크 오퍼레이터의 에지 네트워크 서버와 통합해야 할 수 있다.
자동차(Automotive)는 차량에 대한 이동 통신을 위한 많은 사용 예와 함께 5G에 있어 중요한 새로운 동력이 될 것으로 예상된다. 예를 들어, 승객을 위한 엔터테인먼트는 높은 용량과 높은 모바일 광대역을 동시에 요구한다. 그 이유는 미래의 사용자는 그들의 위치 및 속도와 관계 없이 고품질의 연결을 계속해서 기대하기 때문이다. 자동차 분야의 다른 사용 예는 증강 현실 대시보드이다. 운전자는 증강 현실 대비보드를 통해 앞면 창을 통해 보고 있는 것 위에 어둠 속에서 물체를 식별할 수 있다. 증강 현실 대시보드는 물체의 거리와 움직임에 대해 운전자에게 알려줄 정보를 겹쳐서 디스플레이 한다. 미래에, 무선 모듈은 차량 간의 통신, 차량과 지원하는 인프라구조 사이에서 정보 교환 및 자동차와 다른 연결된 장치(예를 들어, 보행자에 의해 수반되는 장치) 사이에서 정보 교환을 가능하게 한다. 안전 시스템은 운전자가 보다 안전한 운전을 할 수 있도록 행동의 대체 코스를 안내하여 사고의 위험을 낮출 수 있게 한다. 다음 단계는 원격 조종 차량 또는 자율 주행 차량이 될 것이다. 이는 서로 다른 자율 주행 차량 사이 및/또는 자동차와 인프라 사이에서 매우 신뢰성이 있고 매우 빠른 통신을 요구한다. 미래에, 자율 주행 차량이 모든 운전 활동을 수행하고, 운전자는 차량 자체가 식별할 수 없는 교통 이상에만 집중하도록 할 것이다. 자율 주행 차량의 기술적 요구 사항은 트래픽 안전을 사람이 달성할 수 없을 정도의 수준까지 증가하도록 초 저 지연과 초고속 신뢰성을 요구한다.
스마트 사회로서 언급되는 스마트 도시와 스마트 홈은 스마트 네트워크의 일례로 고밀도 무선 센서 네트워크로 임베디드 될 것이다. 지능형 센서의 분산 네트워크는 도시 또는 집의 비용 및 에너지 효율적인 유지에 대한 조건을 식별할 것이다. 유사한 설정이 각 가정을 위해 수행될 수 있다. 온도 센서, 창 및 난방 컨트롤러, 도난 경보기 및 가전 제품은 모두 무선으로 연결된다. 이러한 센서 중 많은 것들이 전형적으로 낮은 데이터 전송 속도, 저전력 및 저비용을 요구한다. 하지만, 예를 들어, 실시간 HD 비디오는 감시를 위해 특정 타입의 장치에서 요구될 수 있다.
열 또는 가스를 포함한 에너지의 소비 및 분배는 고도로 분산화되고 있어, 분산 센서 네트워크의 자동화된 제어가 요구된다. 스마트 그리드는 정보를 수집하고 이에 따라 행동하도록 디지털 정보 및 통신 기술을 사용하여 이런 센서를 상호 연결한다. 이 정보는 공급 업체와 소비자의 행동을 포함할 수 있으므로, 스마트 그리드가 효율성, 신뢰성, 경제성, 생산의 지속 가능성 및 자동화된 방식으로 전기와 같은 연료의 분배를 개선하도록 할 수 있다. 스마트 그리드는 지연이 적은 다른 센서 네트워크로 볼 수도 있다.
건강 부문은 이동 통신의 혜택을 누릴 수 있는 많은 애플리케이션을 보유하고 있다. 통신 시스템은 멀리 떨어진 곳에서 임상 진료를 제공하는 원격 진료를 지원할 수 있다. 이는 거리에 대한 장벽을 줄이는 데에 도움을 주고, 거리가 먼 농촌에서 지속적으로 이용하지 못하는 의료 서비스로의 접근을 개선시킬 수 있다. 이는 또한 중요한 진료 및 응급 상황에서 생명을 구하기 위해 사용된다. 이동 통신 기반의 무선 센서 네트워크는 심박수 및 혈압과 같은 파라미터에 대한 원격 모니터링 및 센서를 제공할 수 있다.
무선 및 모바일 통신은 산업 애플리케이션 분야에서 점차 중요해지고 있다. 배선은 설치 및 유지 비용이 높다. 따라서, 케이블을 재구성할 수 있는 무선 링크로의 교체 가능성은 많은 산업 분야에서 매력적인 기회이다. 그러나, 이를 달성하는 것은 무선 연결이 케이블과 비슷한 지연, 신뢰성 및 용량으로 동작하는 것과, 그 관리가 단순화될 것을 요구한다. 낮은 지연과 매우 낮은 오류 확률은 5G로 연결될 필요가 있는 새로운 요구 사항이다.
물류 및 화물 추적은 위치 기반 정보 시스템을 사용하여 어디에서든지 인벤토리(inventory) 및 패키지의 추적을 가능하게 하는 이동 통신에 대한 중요한 사용 예이다. 물류 및 화물 추적의 사용 예는 전형적으로 낮은 데이터 속도를 요구하지만 넓은 범위와 신뢰성 있는 위치 정보가 필요하다.
<인공 지능(AI: Artificial Intelligence)>
인공 지능은 인공적인 지능 또는 이를 만들 수 있는 방법론을 연구하는 분야를 의미하며, 머신 러닝(기계 학습, Machine Learning)은 인공 지능 분야에서 다루는 다양한 문제를 정의하고 그것을 해결하는 방법론을 연구하는 분야를 의미한다. 머신 러닝은 어떠한 작업에 대하여 꾸준한 경험을 통해 그 작업에 대한 성능을 높이는 알고리즘으로 정의하기도 한다.
인공 신경망(ANN: Artificial Neural Network)은 머신 러닝에서 사용되는 모델로써, 시냅스의 결합으로 네트워크를 형성한 인공 뉴런(노드)들로 구성되는, 문제 해결 능력을 가지는 모델 전반을 의미할 수 있다. 인공 신경망은 다른 레이어의 뉴런들 사이의 연결 패턴, 모델 파라미터를 갱신하는 학습 과정, 출력값을 생성하는 활성화 함수(Activation Function)에 의해 정의될 수 있다.
인공 신경망은 입력층(Input Layer), 출력층(Output Layer), 그리고 선택적으로 하나 이상의 은닉층(Hidden Layer)를 포함할 수 있다. 각 층은 하나 이상의 뉴런을 포함하고, 인공 신경망은 뉴런과 뉴런을 연결하는 시냅스를 포함할 수 있다. 인공 신경망에서 각 뉴런은 시냅스를 통해 입력되는 입력 신호들, 가중치, 편향에 대한 활성 함수의 함숫값을 출력할 수 있다.
모델 파라미터는 학습을 통해 결정되는 파라미터를 의미하며, 시냅스 연결의 가중치와 뉴런의 편향 등이 포함된다. 그리고, 하이퍼파라미터는 머신 러닝 알고리즘에서 학습 전에 설정되어야 하는 파라미터를 의미하며, 학습률(Learning Rate), 반복 횟수, 미니 배치 크기, 초기화 함수 등이 포함된다.
인공 신경망의 학습의 목적은 손실 함수를 최소화하는 모델 파라미터를 결정하는 것으로 볼 수 있다. 손실 함수는 인공 신경망의 학습 과정에서 최적의 모델 파라미터를 결정하기 위한 지표로 이용될 수 있다.
머신 러닝은 학습 방식에 따라 지도 학습(Supervised Learning), 비지도 학습(Unsupervised Learning), 강화 학습(Reinforcement Learning)으로 분류할 수 있다.
지도 학습은 학습 데이터에 대한 레이블(label)이 주어진 상태에서 인공 신경망을 학습시키는 방법을 의미하며, 레이블이란 학습 데이터가 인공 신경망에 입력되는 경우 인공 신경망이 추론해 내야 하는 정답(또는 결과 값)을 의미할 수 있다. 비지도 학습은 학습 데이터에 대한 레이블이 주어지지 않는 상태에서 인공 신경망을 학습시키는 방법을 의미할 수 있다. 강화 학습은 어떤 환경 안에서 정의된 에이전트가 각 상태에서 누적 보상을 최대화하는 행동 혹은 행동 순서를 선택하도록 학습시키는 학습 방법을 의미할 수 있다.
인공 신경망 중에서 복수의 은닉층을 포함하는 심층 신경망(DNN: Deep Neural Network)으로 구현되는 머신 러닝을 딥 러닝(심층 학습, Deep Learning)이라 부르기도 하며, 딥 러닝은 머신 러닝의 일부이다. 이하에서, 머신 러닝은 딥 러닝을 포함하는 의미로 사용된다.
<로봇(Robot)>
로봇은 스스로 보유한 능력에 의해 주어진 일을 자동으로 처리하거나 작동하는 기계를 의미할 수 있다. 특히, 환경을 인식하고 스스로 판단하여 동작을 수행하는 기능을 갖는 로봇을 지능형 로봇이라 칭할 수 있다.
로봇은 사용 목적이나 분야에 따라 산업용, 의료용, 가정용, 군사용 등으로 분류할 수 있다.
로봇은 액츄에이터 또는 모터를 포함하는 구동부를 구비하여 로봇 관절을 움직이는 등의 다양한 물리적 동작을 수행할 수 있다. 또한, 이동 가능한 로봇은 구동부에 휠, 브레이크, 프로펠러 등이 포함되어, 구동부를 통해 지상에서 주행하거나 공중에서 비행할 수 있다.
<자율 주행(Self-Driving, Autonomous-Driving)>
자율 주행은 스스로 주행하는 기술을 의미하며, 자율 주행 차량은 사용자의 조작 없이 또는 사용자의 최소한의 조작으로 주행하는 차량(Vehicle)을 의미한다.
예컨대, 자율 주행에는 주행중인 차선을 유지하는 기술, 어댑티브 크루즈 컨트롤과 같이 속도를 자동으로 조절하는 기술, 정해진 경로를 따라 자동으로 주행하는 기술, 목적지가 설정되면 자동으로 경로를 설정하여 주행하는 기술 등이 모두 포함될 수 있다.
차량은 내연 기관만을 구비하는 차량, 내연 기관과 전기 모터를 함께 구비하는 하이브리드 차량, 그리고 전기 모터만을 구비하는 전기 차량을 모두 포괄하며, 자동차뿐만 아니라 기차, 오토바이 등을 포함할 수 있다.
이때, 자율 주행 차량은 자율 주행 기능을 가진 로봇으로 볼 수 있다.
<확장 현실(XR: eXtended Reality)>
확장 현실은 가상 현실(VR: Virtual Reality), 증강 현실(AR: Augmented Reality), 혼합 현실(MR: Mixed Reality)을 총칭한다. VR 기술은 현실 세계의 객체나 배경 등을 CG 영상으로만 제공하고, AR 기술은 실제 사물 영상 위에 가상으로 만들어진 CG 영상을 함께 제공하며, MR 기술은 현실 세계에 가상 객체들을 섞고 결합시켜서 제공하는 컴퓨터 그래픽 기술이다.
MR 기술은 현실 객체와 가상 객체를 함께 보여준다는 점에서 AR 기술과 유사하다. 그러나, AR 기술에서는 가상 객체가 현실 객체를 보완하는 형태로 사용되는 반면, MR 기술에서는 가상 객체와 현실 객체가 동등한 성격으로 사용된다는 점에서 차이점이 있다.
XR 기술은 HMD(Head-Mount Display), HUD(Head-Up Display), 휴대폰, 태블릿 PC, 랩탑, 데스크탑, TV, 디지털 사이니지 등에 적용될 수 있고, XR 기술이 적용된 장치를 XR 장치(XR Device)라 칭할 수 있다.
V2X(VEHICLE-TO-EVERYTHIHG)
V2X는 차량과 모든 인터페이스를 통한 통신 기술을 통칭한다. V2X의 구현 형태는 다음과 같을 수 있다.
먼저, V2X에서 'X'는 차량(VEHICLE)일 수도 있다. 이 경우, V2X는 V2V V2V(vehicle-to-vehicle)라 표시할 수 있으며, 차량들 간의 통신을 의미할 수 있다.
도 15은 V2X의 개념을 나타낸 예시도이다.
도 15을 참조하여 알 수 있는 바와 같이, 차량들(즉, 차량에 탑재된 무선 장치들)(100-1, 100-2, 100-3)은 서로 통신을 수행할 수 있다.
한편, V2X에서 'X' 는 사람(Persian) 또는 보행자(PEDESTRIAN)를 의미할 수 있다. 이 경우, V2X는 V2P(vehicle-to-person or vehicle-to-pedestrian)로 표시할 수 있다. 여기서, 보행자는 반드시 걸어서 이동하는 사람에 국한되는 것이 아니며 자전거를 타고 있는 사람, (일정 속도 이하)차량의 운전자 또는 승객도 포함할 수 있다.
또는 'X'는 인프라 스트럭쳐(Infrastructure)/네트워크(Network)일 수 있다. 이 경우 V2X는 V2I(vehicle-to-infrastructure) 또는 V2N(vehicle-to-network) 이라 표시할 수 있으며 차량과 도로변 장치(ROADSIDE UNIT: RSU) 또는 차량과 네트워크와의 통신을 의미할 수 있다. 도로변 장치는 교통 관련 인프라 스트럭쳐 예컨대, 속도를 알려주는 장치일 수 있다. 도로변 장치는 기지국 또는 고정된 단말 등에 구현될 수 있다.
도 16은 V2X 통신을 위해 차량에 설치되는 통신 장치의 구성을 나타낸 예시도이다.
도 16에 도시된 바와 같이, 차량에 설치되는 통신 장치를 TCU(Telematics Communication Unit)라고 부를 수 있다.
TCU는 LTE 송수신부(즉, LTE 모뎀/안테나), 제1 5G 송수신부(즉, sub 6GHz를 이용하는 모뎀/안테나), 제2 5G 송수신부(즉, mmWave를 이용하는 모뎀/안테나), WLAN 송수신부(즉, WiFi 송수신부), 프로세서 및 메모리를 포함할 수 있다. LTE 송수신부는 LTE 표준에 기초한 통신을 수행하는 통신 모듈이다. 제1 5G 송수신부(즉, sub 6GHz를 이용하는 모뎀/안테나)은 FR 1 대역에서 5G 표준에 기초한 통신을 수행하는 통신 모듈이다. 제2 5G 송수신부(즉, mmWave를 이용하는 모뎀/안테나)은 FR 2 대역에서 5G 표준에 기초한 통신을 수행하는 통신 모듈이다. WLAN 송수신부(즉, WiFi 송수신부)은 WiFi 표준에 기초한 통신을 수행하는 통신 모듈이다. LTE 송수신부, 제1 5G 송수신부(즉, sub 6GHz를 이용하는 모뎀/안테나), 제2 5G 송수신부(즉, mmWave를 이용하는 모뎀/안테나) 및 WLAN 송수신부(즉, WiFi 송수신부)은 PCIe(PCI express)와 같은 인터페이스를 통해 프로세서와 연결될 수 있다. 또한, LTE 송수신부, 제1 5G 송수신부(즉, sub 6GHz를 이용하는 모뎀/안테나), 제2 5G 송수신부(즉, mmWave를 이용하는 모뎀/안테나) 및 WLAN 송수신부(즉, WiFi 송수신부)은 각각 별개의 객체로 도시되어 있으나, 하나의 통신 모듈이 LTE 송수신부, 제1 5G 송수신부(즉, sub 6GHz를 이용하는 모뎀/안테나), 제2 5G 송수신부(즉, mmWave를 이용하는 모뎀/안테나) 및 WLAN 송수신부(즉, WiFi 송수신부)의 기능을 수행할 수도 있다.
TCU의 프로세서는 제1 5G 송수신부(즉, sub 6GHz를 이용하는 모뎀/안테나), 제2 5G 송수신부(즉, mmWave를 이용하는 모뎀/안테나), WLAN 송수신부(즉, WiFi 송수신부) 및 메모리와 연결된다. 메모리는 MEC 클라이언트 앱을 저장할 수 있다. 프로세서는 LTE 송수신부, 제1 5G 송수신부(즉, sub 6GHz를 이용하는 모뎀/안테나), 제2 5G 송수신부(즉, mmWave를 이용하는 모뎀/안테나) 및 WLAN 송수신부(즉, WiFi 송수신부)을 이용하여 기지국들 또는 단말들(단말 1 및 단말 2)이 전송한 데이터를 수신할 수 있다. 프로세서는 LTE 송수신부, 제1 5G 송수신부(즉, sub 6GHz를 이용하는 모뎀/안테나), 제2 5G 송수신부(즉, mmWave를 이용하는 모뎀/안테나) 및 WLAN 송수신부(즉, WiFi 송수신부)을 이용하여 기지국들 또는 또는 단말들(단말 1 및 단말 2)로 데이터를 전송할 수 있다. 여기서, 단말들(단말 1 및 단말 2)은 차량에 탑승한 사용자가 사용하는 무선 통신 기기일 수 있다.
TCU의 프로세서는 차량에 구비된 장치들과 연결될 수 있다. 예를 들어, 프로세서는 DCU(Domain Control Unit), LIN(Local Interconnect Network) 마스터, MOST(Media Oriented System Transport) 마스터, 이더넷 스위치와 연결될 수 있다. TCU의 프로세서는 CAN(Controller Area Network) 통신 기술을 이용하여 DCU와 통신할 수 있다. TCU의 프로세서는 LIN(Local Interconnect Network) 통신 기술을 이용하여 LIN 마스터와 통신할 수 있다. TCU의 프로세서는 MOST 통신 기술을 이용하여 광 섬유(Fiber Optics)로 연결된 MOST 마스터와 통신할 수 있다. TCU의 프로세서는 이더넷 통신 기술을 이용하여 이더넷 스위치 및 이더넷 스위치에 연결된 장치들과 통신할 수 있다.
DCU는 복수의 ECU를 제어하는 장치이다. DCU는 CAN 통신 기술을 이용하여 복수의 ECU와 통신할 수 있다. 여기서, CAN은 차량 내에서 마이크로 컨트롤러나 장치들이 서로 통신하기 위해 설계된 표준 통신 기술이다. CAN은 각 컨트롤러 사이의 통신을 위해 주로 사용되는 비-호스트 버스(non-host bus) 방식의 메시지 기반 네트워크 프로토콜이다.
DCU는 엔진을 제어하는 엔진 ECU, 브레이크를 제어하는 브레이크(Brake) ECU, HVAC(heating, ventilation, & air conditioning) 장치를 제어하는 HVAC ECU 등의 ECU와 통신할 수 있다. DCU는 TCU의 프로세서로부터 수신한 데이터를 각각의 ECU에 전송할 수 있다. 또한 DCU는 각각의 ECU로부터 수신한 데이터를 TCU의 프로세서로 전송할 수 있다.
LIN 마스터는 LIN 통신 기술을 이용하여 LIN 슬레이브들(LIN Slave #1 및 LIN Slave #2)과 통신할 수 있다. 예를 들어, LIN Slave #1은 스티어링 휠(steering wheel), 루프 탑(roof top), 문(door), 시트(seat), 스몰 모터(small motor) 중 하나를 제어하는 슬레이브일 수 있다. 여기서, LIN은 자동차 네트워크에서 컴포넌트들 사이의 통신을 위한 직렬 통신 기술이다. LIN 마스터는 TCU의 프로세서로부터 데이터를 수신하여 LIN 슬레이브들(LIN Slave #1 및 LIN Slave #2)에 전송할 수 있다. 또한 LIN 마스터는 LIN 슬레이브들로부터 수신한 데이터를 TCU의 프로세서로 전송할 수 있다.
MOST 마스터는 MOST 통신 기술을 이용하여 MOST 슬레이브들(MOST Slave #1 및 MOST Slave #2)과 통신할 수 있다. 여기서, MOST는 광케이블을 이용하여 오디오, 비디오 및 제어 정보를 전송하는 시리얼 통신 기술이다. MOST 마스터는 TCU의 프로세서로부터 수신한 데이터를 MOST 슬레이브들로 전송할 수 있다. 또한 MOST 마스터는 MOST 슬레이브들로부터 수신한 데이터를 TCU의 프로세서로 전송할 수 있다.
이더넷은 local area networks (LAN), metropolitan area networks (MAN) 및 wide area networks (WAN) 등에서 사용되는 컴퓨터 네트워킹 기술이다. TCU의 프로세서는 이더넷 통신 기술을 사용하여 이더넷 스위치를 통해 각각의 장치들에 데이터를 전송할 수 있다. 각각의 장치들은 이더넷 통신 기술을 사용하여 이더넷 스위치를 통해 TCU의 프로세서로 데이터를 전송할 수 있다.
레이다(Radar: radio detection and ranging)는 전파를 사용하여 목표물의 거리, 방향, 각도 및 속도를 측정하는 기술이다. 레이다 센서 1 내지 5는 차량에 구비되어 차량 주위의 물체의 거리, 방향, 각도 및 속도를 측정한다. 레이다 센서 1 내지 5는 측정된 센서 데이터를 TCU의 프로세서에 전송할 수 있다.
라이다(LiDAR: light detection and ranging)는 광원과 수신기를 사용하여 원격의 개체를 탐지하고 거리를 측정하는 센싱 기술이다. 구체적으로, 라이다는 펄스 레이저 광으로 대상을 비추고 센서로 반사된 펄스를 측정하여 대상까지의 거리, 강도, 속도 등을 측정하는 기술이다. 라이다 센서 1 내지 5는 대상까지의 거리, 속도 등을 측정한다. 라이다 센서 1 내지 5는 측정된 센서 데이터를 TCU의 프로세서에 전송할 수 있다.
AVN(Audio, Video, Navigation)은 차량에 구비되어 소리, 영상, 네비게이션을 제공하는 장치이다. AVN은 이더넷 통신 기술을 이용하여 TCU의 프로세서로부터 데이터를 수신하고, 수신된 데이터에 기초하여 소리, 영상, 네비게이션을 제공할 수 있다. AVN은 이더넷 통신 기술을 이용하여 TCU의 프로세서로 데이터를 전송할 수 있다.
카메라(전방)과 카메라(후방)은 차량의 전방 및 후방에서 영상을 촬영할 수 있다. 도 7에는 카메라가 전방에 하나 후방에 하나만 있는 것으로 도시되었으나, 이는 예시에 불과하고, 좌측, 우측에도 카메라가 구비될 수 있다. 또한, 전방 및 후방 각각에 복수에 카메라가 구비될 수도 있다. 카메라들은 이더넷 통신 기술을 사용하여 TCU의 프로세서에 카메라 데이터를 전송하고, TCU의 프로세서로부터 데이터를 수신할 수도 있다.
Rear Side Entertainment(RSE)는 뒷자석 엔터테인먼트를 의미한다. RSE는 차량의 조수석 뒷편 또는 운전석 뒷편에 장착되어 탑승자에게 엔터테인먼트를 제공하는 장치이다. 태블릿(Tablet)도 차량 내부에 구비될 수 있다. RSE 또는 태블릿은 이더넷 통신 기술을 이용하여 TCU의 프로세서로부터 데이터를 수신하고, TCU의 프로세서로 데이터를 전송할 수 있다.
도 17은 도 10에 도시된 통신 장치가 V2X 통신을 위해 차량에 장착된 장착된 예를 나타낸다
도 17에 도시된 바와 같이, 대쉬보드에 디스플레이(도 10의 15) 혹은 태블렛이 장착될 수 있다. 상기 디스플레이(도 10의 15) 혹은 태블렛은 후술하는 바와 같이, 본 발명의 동작에 따른 화면을 표시할 수 있다.
도 18과 도 19는 5G의 일반적인 아키텍쳐의 예를 보여주고 있다.
다음은 상기 도 x.3 과 X.4에서의 각 reference interface및 node에 대한 설명이다.
N1: Reference point between the UE and the AMF.
N2: Reference point between the (R)AN and the AMF.
N3: Reference point between the (R)AN and the UPF.
N4: Reference point between the SMF and the UPF.
N6: Reference point between the UPF and a Data Network.
N9: Reference point between two UPFs.
N5: Reference point between the PCF and an AF.
N7: Reference point between the SMF and the PCF.
N24: Reference point between the PCF in the visited network and the PCF in the home network.
N8: Reference point between the UDM and the AMF.
N10: Reference point between the UDM and the SMF.
N11: Reference point between the AMF and the SMF.
N12: Reference point between AMF and AUSF.
N13: Reference point between the UDM and Authentication Server function the AUSF.
N14: Reference point between two AMFs.
N15: Reference point between the PCF and the AMF in the case of non-roaming scenario, PCF in the visited network and AMF in the case of roaming scenario.
N16: Reference point between two SMFs, (in roaming case between SMF in the visited network and the SMF in the home network).
N17: Reference point between AMF and 5G-EIR.
N18: Reference point between any NF and UDSF.
N22: Reference point between AMF and NSSF.
N23: Reference point between PCF and NWDAF.
N24: Reference point between NSSF and NWDAF.
N27: Reference point between NRF in the visited network and the NRF in the home network.
N31: Reference point between the NSSF in the visited network and the NSSF in the home network.
N32: Reference point between SEPP in the visited network and the SEPP in the home network.
N33: Reference point between NEF and AF.
N40: Reference point between SMF and the CHF.
N50: Reference point between AMF and the CBCF.
5GC(5G Core)는 다양한 구성요소들을 포함할 수 있으며, 도 X.4에서는 그 중에서 일부에 해당하는 AMF(Access and Mobility Management Function)(51)와 SMF(Session Management Function)(52)와 PCF(Policy Control Function)(53), UPF(User Plane Function)(54), AF(Application Function)(55), UDM(Unified Data Management) (56), N3IWF(Non-3GPP InterWorking Function)(59)를 포함한다.
UE(10)는 NG-RAN(Next Generation Radio Access Network)를 통해 UPF(55)를 거쳐 데이터 네트워크(60)으로 연결된다.
UE(10)는 신뢰되지 않는 비-3GPP 액세스, 예컨대, WLAN(Wireless Local Area Network)를 통해서도 데이터 서비스를 제공받을 수 있다. 상기 비-3GPP 액세스를 코어 네트워크에 접속시키기 위하여, N3IWF(59)가 배치될 수 있다.
본 명세서의 실시예
V2X 통신을 통해서 V2X UE는 차량의 진행 방향, 속도 등과 같은 기본 정보부터 시작해서 차량 주위에서 감지한 교통 관련 정보들을 서로 교환함으로써 도로 교통의 안전, 운행의 효율성, 그리고 이와 직간접으로 관련된 부가적인 서비스들에 이용한다. 예를 들면, V2X를 이용하여 좀 더 복잡한 서비스나 기능인 자율 운행이나 집단 운행 (Platooning) 등과 같은 것들에도 활용할 수 있다. 하지만, 이런 V2X 통신을 이용하는 서비스들은 V2X UE 들이 정상적인 정보들을 제공한다는 전제를 갖고 있으며, 만일 V2X UE의 차량 운행이나 주위 상황에 대한 감지 기능들이 고장나서 잘못된 정보를 수집하거나, 더 나아가서 악의적인 목적으로 고의로 허위 정보들을 주위 차량들에게 V2X 통신을 통해 제공할 경우에, 안전이나 효율성, 편의를 위한 V2X 통신 기반 서비스들은 효용성을 잃을 뿐 아니라, 심지어 교통 안전에 대한 위험, 주행 비효율로 인한 경제적 손실까지 초래할 수 있다.
악의적인 허위 정보 제공 중 하나로, 하나의 차량 또는 V2X UE가 여러 대의 차량 내지 V2X UE들인 것처럼 가장하여, 여러 메시지를 각각의 V2X UE 관련 ID들을 발신자 (Source)로 하여 V2X 통신으로 전달하는 경우가 있을 수 있다. 이런 악성 정보 메시지들을 통하여, 허위 정보를 더욱 확산시킬 수 있고, 그 정보의 신뢰성을 강화시킴으로써, 해당 정보를 수신한 V2X UE들의 상황 인지 및 판단에 나쁜 영향을 미칠 수 있다. 즉, 여러 차량이 동일한 내용 또는 동일한 상황 정보를 제공한 것으로 위장하는 것은, 특정 차량 한대 또는 V2X UE 하나가 허위 정보를 배포한 것보다 그 파급력이 더 클 수 있다.
예를 들면, 여러 V2X UE들이 좌회전 예정이라고 허위 정보를 보낼 경우, 운행 중 차량은 좌회전 차로의 혼잡함이 어느 정도 수준을 넘어섰다고 가정하고 직진 후에 다른 우회 차로로 주행 계획을 변경할지도 모른다. 또 다른 예로 앞쪽에 교통사고나 혼잡한 문제가 발생했다는 허위 V2X 메시지를 통해서 다른 차량들을 우회 시키고, 악의적인 차량이 해당 차로나 구간을 더 수월하게 이용할 수도 있다. 일반적으로 우회 급정지 등에 대한 잘못된 정보는 다른 차량의 연료 사용 효율을 떨어뜨리게 만들 수도 있다.
이렇게 하나의 개체나 노드가 여러 개의 다른 개체들이나 노드들인 것처럼 위장하여 행동함으로써 공격을 하는 것을 P2P network 분야에서는 Sybil attack 이라고 부른다 ("The Sybil Attack", John R. Douceur, Proceediing of IPTPS '01, the First International Workshop on Peer-to-Peer Systems, 2002). 이를 막기 위해서 P2P network에서는 노드들의 연결 상태에 따른 graph topology에 기반한 트래픽에 대한 평가, 그리고 이에 더하여 각 노드들의 신뢰성에 대한 평가를 통해 다양한 방법과 알고리즘들이 제시되었다. 이러한 방법들은 V2X 통신에서 활용하기에 적합하지 않을 수 있는데, 그 이유는 V2X UE들의 이동성이 높고, Privacy 보호를 위해서 V2X UE IE로서의 Psuedonym도 자주 바뀌기 때문이다. 이에 V2X 통신에서의 Sybil attack에 대한 대책으로는 기존 P2P network에서 시작되어 연구되어 온 방어책의 개선을 통한 적용 뿐만 아니라, V2X UE와 V2X 통신에 대한 특수성을 감안한 방안들까지 고려해 볼 필요가 있다.
V2X 통신에 참여하는 V2X UE들은 자체적인 용도로 또는 V2X 서비스에 쓰기 위해서 다양한 센서를 갖고 차량 운행이나 주위 상황을 감지할 수 있다. 예를 들면, 차량과 차량간의 거리를 감지하는 센서, 차량 주위를 촬영하는 카메라, 그리고 통신에 사용되는 안테나 등을 장착하고 있을 수 있다. Sybil attack을 시도하는 V2X UE 또는 차량에 대한 감지 (detection)를 하는데 이 정보들을 활용할 수 있다. 즉, 여러 센서들을 통해서 V2X 통신으로 메시지를 보낸 source ID들에 대해서 실제로 주변에 그 정도 숫자의 차량들 내지는 V2X UE들이 있는지를 추정할 수 있다.
도 20은 본 명세서의 실시예에 따라 도로 주행 중인 제1 단말(UE1)의 예를 도시한다.
도 20에서 우측으로 운행 중인 차량 UE1 의 경우에, 다음의 정보들을 직접 또는 간접으로 얻어서 도로 상의 주행 중 차량 대수 범위나 분포의 범위를 추정한다. 목적에 따라 동일 방향 운행 중인 차량만 관심이 있을 수도 있고, 반대 방향 주행 차량까지 정보가 의미가 있을 수도 있지만, 여기서는 같은 방향 주행 차량 대상만 먼저 고려한다.
- V2X 통신 (direct broadcast over PC5)으로 차량 운행 정보를 알려주는 메시지를 배포하는 V2X UE source ID의 수와 리스트: Num_V2XUE, V2XUE_List
- 카메라를 통해 인식되는 차량의 수: Num_Vis
도 21은 차량의 주기적인 운행 정보 V2X 메시지를 전달 받아 도로 내 차량 분포 예측하는 경우를 도시한다.
도 21에서 볼 수 있는 것처럼 V2X UE 들은 주기적으로 해당 차량의 주행 방향, 속도, 위치 등을 broadcast하는 것이 V2X 서비스에서 가장 기본인데, 이를 이용해서 차량들의 위치들을 시간별로 어느 정도 추정할 수 있다. 이를 기준으로 특정 거리 범위 내의 차량 수를 측정할 수 있다. 이를 이 발명에서는 Num_V2XUE_Range 라고 한다. 추가로, 직접 물리적으로 주변에 마주친 차량에 대해서 Radar 등으로 실제 존재 여부를 확인하여, 주기적으로 V2X UE가 V2X 통신으로 전달하는 위치 정보와 매칭하여 (Matching), 매칭에 성공한 V2X UE의 source ID와 메시지를 저장한다. 이를, V2XUE_RealList 라 부르기로 한다.
이제 V2X UE1은 Num_Vis 로 측정 가능한 범위에 대한 Num_V2XUE_Range가 일치하지 않고, 그 차이가 오차 허용 범위를 벗어날 때에, 1차적으로 Num_V2XUE 중에 차량 수보다 많은 Source ID로 V2X 메시지가 왔음을 의심할 수 있다. 2차적으로, V2XUE_RealList 에 있는 실제 마주친 차량의 수를 Num_V2XUE_Range 의 거리나 영역만큼 보정하였을 때 (즉, 면적이 3배이면 단순히 그 수를 3배하였을 때), 그 차이가 오차 허용 범위를 벗어날 때에도, Sybil attack의 가능성을 의심할 수 있다.
도 22는 차량들이 측정한 주변 차량 분포 데이터를 RSU에게 업로드하는 과정을 도시한다.
이러한 데이터는 V2X UE가 도로 주변의 고정 V2X UE인 Road Side Unit (RSU)를 마주칠 때에 전달이 된다. RSU는 이러한 데이터를 계속 취합하여, 특정 영역의 차량 분포 수에 대한 보다 정확한 숫자를 산출할 수 있으며, 여기서 허위 차량으로 판단되는 데이터에 대해서 Sybil attack의 alarm을 반대로 V2X UE에게 회신한다. 더 나아가 RSU는 V2XUE_List 중에 어떤 Source ID들이 Sybil attack으로 추정될 수 있는지에 대해서 black list를 만들어 V2X UE 들에게 배포할 수 있다.
이러한 V2X UE와 RSU, 그리고 3GPP network 내지 V2X service server와의 절차는 도 23에 도시되어 있다.
도 23은 V2X UE의 주변 차량 데이터 리포트와 RSU의 취합 및 서버를 통한 조회 과정을 도시한다.
구체적으로, UE는 디스플레이(2501) 상에 "차량 분포" 이미지 및 "신뢰도: 보통"이라는 메시지를 표시할 수 있다.
1. V2X UE는 측정한 V2X 통신 및 주변 차량 감지 데이터들을 RSU와 통신 가능한 위치에 도달했을 때에 전달한다.
도 25는 V2X UE에서 자체 추정한 차량 수 및 V2X 메시지 기반으로 보여주는 차량분포와 신뢰도를 표시하는 화면이다.
이때, 자체 측정한 차량 수와 메시지 수 사이의 차이에 대한 신뢰도 기준으로 네비게이션이나 주행용 맵 화면을 도 25과 같이 표시 할 수 있다.
2. RSU는 V2X UE가 전달한 데이터를 다른 V2X UE들이 전달한 데이터와 비교한다. 아울러 RSU가 직접 측정한 지나가는 차량 데이터들과도 비교한다. 특정 영역 기준으로 데이터들이 큰 차이가 없을 때에는 더 이상의 절차는 없이 종료한다. 비교는 단순 차량 수 비교일 수도 있고, 인공지능의 학습 알고리즘을 통한 정상과 비정상 구분일 수도 있으며, 다양한 방법들이 사용될 수 있다.
도 26은 RSU에 차량 수 및 V2X 메시지의 불일치 가능성을 확인하는 중을 알려주는 화면을 도시한다.
도 26에 도시된 바와 같이, 이때, V2X UE에서 이상 데이터가 있는 것으로 자체 판단했을 경우에 V2X UE는 RSU를 통해서 추가 확인 중임을 표시할 수 있다.
구체적으로, UE는 디스플레이(2601) 상에 "비정상 차량 분포 감지!", "RSU에 확인 중"이라는 메시지를 표시할 수 있다.
3. 큰 차이가 나는 데이터가 특정 회수 이상 리포트 될 때에는 RSU는 V2X UE에게 Sybil attack 가능성이 있음을 알려주는 경고 (Alarm) 을 회신한다. V2X UE는 이 경고에 따라서, 다른 차량들로부터 전달되는 주행 및 교통 정보에 대한 신뢰도를 조정하거나, 아예 알려진 V2X UE를 제외한 정보는 무시하거나, 더 나아가서 수동 주행 등으로 전환할 수도 있다.
도 27은 RSU의 Sybil attack alarm에 따라 V2X 서비스를 중단할지 사용자 확인을 받는 화면을 도시한다.
도 27에 도시된 바와 같이, V2X UE는 V2X 서비스를 중단하는 등의 절차를 사용자 확인을 거쳐서 진행할 수 있다.
구체적으로, UE는 디스플레이(2701) 상에 "V2X 메시지 신뢰도가 낮아 자율 주행을 종료합니다", "종료 계속"이라는 메시지를 표시할 수 있다.
4. RSU는 Sybil attack 가능성이 있을 경우에, 의심 가는 V2XUE_List 의 Source ID와 ITS certificate, 위치 정보를 V2X Server로 전송한다.
5. V2X Server는 ITS의 인증 관련 서버에 ITS certificate들의 이상 여무를 확인하고, ITS certificate들에 해당하는 V2X UE들에게 3GPP 망을 통하여 Uu 인터페이스로 위치를 조회 요청한다. V2X UE들의 회신을 조회하여 RSU가 전달한 위치정보와 차이가 있을 때에 다른 V2X UE가 이를 사용하고 있음을 알 수 있으므로, Black list에 추가한다.
6. V2X Server는 문제가 있는 V2X UE 의 Source ID 및 ITS certificate 목록을 RSU에게 회신한다.
도 28은 RSU를 통해 전달 받은 Black list를 업데이트하는 화면을 도시한다.
도 28과 같이, 6단계에서, V2X UE는 화면에 Black list 업데이트 절차를 표시할 수 있다.
구체적으로, UE는 디스플레이(2801) 상에 "차량 분포" 이미지 및 "RSU 로부터 데이터를 업데이트 중입니다"이라는 메시지를 표시할 수 있다.
7. RSU는 V2X Server에게서 받은 black list 를 V2X UE에게 회신한다. V2X UE는 black list에 있는 source ID로부터 온 V2X 메시지들을 무시하고 주행 정보에서 제외시킨다.
본 발명에 따르면 단순히 중앙에서 도로나 교통 정보를 대략적으로 확인하는 것이 아닌, 특정 지역이나 비교적 좁은 범위에서 발생할 수 있는 Sybil attack을 V2X UE의 실제 차량 존재 확인과 RSU의 여러 V2X UE의 수집 데이터의 종합 분석, 그리고 V2X server의 조회를 통하여 감지할 수 있다.
도 24는 본 명세서의 실시에에 따른 V2X 통신 보호 방법을 나타낸 흐름도이다.
도 24에 도시된 바와 같이, 제1 단말은 복수의 단말로부터 각각 메시지를 수신할 수 있다(S2401).
이어서, 제1 단말은 복수의 메시지에 기반하여 제1 단말 주변의 단말 개수 정보를 판단할 수 있다(S2403).
그 다음, 제1 단말은 제1 단말의 센서 데이터를 수집할 수 있다(S2405).
이어서, 제1 단말은 단말 개수 정보 및 센서 데이터에 기반하여 공격 상황인지 여부를 판단할 수 있다(S2407).
그 다음, 제1 단말은 단말 개수 정보 및 공격 상황인지 여부에 관한 정보를 디스플레이 상에 표시할 수 있다(S2409).
이상에서 설명된 실시예들은 본 명세서의 구성요소들과 특징들이 소정 형태로 결합된 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려되어야 한다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 본 명세서의 실시예를 구성하는 것도 가능하다. 본 명세서의 실시예들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시예의 일부 구성이나 특징은 다른 실시예에 포함될 수 있고, 또는 다른 실시예의 대응하는 구성 또는 특징과 교체될 수 있다. 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함시킬 수 있음은 자명하다.
본 명세서에 따른 실시예는 다양한 수단, 예를 들어, 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 본 명세서의 일 실시예는 하나 또는 그 이상의 ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서, 콘트롤러, 마이크로 콘트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.
펌웨어나 소프트웨어에 의한 구현의 경우, 본 명세서의 일 실시예는 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차, 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드는 메모리에 저장되어 프로세서에 의해 구동될 수 있다. 상기 메모리는 상기 프로세서 내부 또는 외부에 위치하여, 이미 공지된 다양한 수단에 의해 상기 프로세서와 데이터를 주고 받을 수 있다.
여기서, 본 명세서의 무선 기기(100)에서 구현되는 무선 통신 기술은 LTE, NR 및 6G뿐만 아니라 저전력 통신을 위한 Narrowband Internet of Things를 포함할 수 있다. 이때, 예를 들어 NB-IoT 기술은 LPWAN(Low Power Wide Area Network) 기술의 일례일 수 있고, LTE Cat NB1 및/또는 LTE Cat NB2 등의 규격으로 구현될 수 있으며, 상술한 명칭에 한정되는 것은 아니다. 추가적으로 또는 대체적으로, 본 명세서의 무선 기기(100)에서 구현되는 무선 통신 기술은 LTE-M 기술을 기반으로 통신을 수행할 수 있다. 이때, 일 예로, LTE-M 기술은 LPWAN 기술의 일례일 수 있고, eMTC(enhanced Machine Type Communication) 등의 다양한 명칭으로 불릴 수 있다. 예를 들어, LTE-M 기술은 1) LTE CAT 0, 2) LTE Cat M1, 3) LTE Cat M2, 4) LTE non-BL(non-Bandwidth Limited), 5) LTE-MTC, 6) LTE Machine Type Communication, 및/또는 7) LTE M 등의 다양한 규격 중 적어도 어느 하나로 구현될 수 있으며 상술한 명칭에 한정되는 것은 아니다. 추가적으로 또는 대체적으로, 본 명세서의 무선 기기(100)에서 구현되는 무선 통신 기술은 저전력 통신을 고려한 지그비(ZigBee), 블루투스(Bluetooth) 및 저전력 광역 통신망(Low Power Wide Area Network, LPWAN) 중 적어도 어느 하나를 포함할 수 있으며, 상술한 명칭에 한정되는 것은 아니다. 일 예로 ZigBee 기술은 IEEE 802.15.4 등의 다양한 규격을 기반으로 소형/저-파워 디지털 통신에 관련된 PAN(personal area networks)을 생성할 수 있으며, 다양한 명칭으로 불릴 수 있다.
전술한 본 명세서는, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 허용하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 단말기의 프로세서(Y120)를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 명세서의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 명세서의 등가적 범위 내에서의 모든 변경은 본 명세서의 범위에 포함된다.

Claims (9)

  1. 무선 통신 시스템에서 제1 단말이 V2X 통신을 보호하기 위한 방법에 있어서,
    제1 단말이, 복수의 단말로부터 각각 메시지를 수신하는 단계;
    상기 복수의 메시지에 기반하여 상기 제1 단말 주변의 단말 개수 정보를 판단하는 단계;
    상기 제1 단말의 센서 데이터를 수집하는 단계;
    상기 단말 개수 정보 및 상기 센서 데이터에 기반하여 공격 상황인지 여부를 판단하는 단계; 및
    상기 제1 단말에 구비된 디스플레이를 통해 상기 단말 개수 정보 및 공격 상황인지 여부에 관한 정보를 표시하는 단계;를 포함하는 것을 특징으로 하는,
    방법.
  2. 제1항에 있어서,
    상기 공격 상황인지 여부에 관한 정보는 신뢰도를 등급으로 나타낸 정보인 것을 특징으로 하는,
    방법.
  3. 제1항 또는 제2항에 있어서,
    상기 공격 상황인지 여부에 관한 정보는 비정상 차량 분포가 감지되었다는 경고 메시지를 포함하는 것을 특징으로 하는,
    방법.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서,
    공격 상황인 것으로 판단된 경우, 상기 제1 단말의 자율 주행을 중단하는 단계를 더 포함하는 것을 특징으로 하는,
    방법.
  5. 제4항에 있어서,
    상기 자율 주행을 중단하기 전에, V2X 메시지의 신뢰도가 낮아 자율 주행을 종료한다는 경고 메시지를 상기 제1 단말의 디스플레이를 통해 표시하는 단계를 더 포함하는 것을 특징으로 하는,
    방법.
  6. 제1항 내지 제5항 중 어느 한 항에 있어서,
    상기 센서 데이터는 상기 제1 단말의 카메라로 촬영한 영상을 포함하는 것을 특징으로 하는,
    방법.
  7. 제1항 내지 제6항 중 어느 한 항에 있어서,
    상기 센서 데이터는 상기 제1 단말의 근접 센서에 의해 수집되는 데이터를 포함하는 것을 특징으로 하는,
    방법.
  8. 제1항 내지 제7항 중 어느 한 항에 있어서,
    상기 센서 데이터는 상기 제1 단말 주변의 나머지 단말에 의해 수집되어 상기 제1 단말로 수신된 센서 데이터를 포함하는 것을 특징으로 하는,
    방법.
  9. 제1항 내지 제8항 중 어느 한 항에 있어서,
    상기 공격 상황인지 여부를 판단하는 단계는,
    상기 제1 단말이 이동한 경로의 적어도 하나의 구간에서 상기 센서 데이터와 주변의 단말의 개수 사이의 관계를 학습하는 단계, 및
    상기 학습 결과에 기반하여 현재 상기 제1 단말이 이동중인 구간에서의 공격 상황인지 여부를 판단하는 단계를 포함하는 것을 특징으로 하는,
    방법.
PCT/KR2020/013606 2020-10-07 2020-10-07 무선 통신 시스템에서 단말이 v2x 통신을 보호하기 위한 방법 WO2022075499A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2020/013606 WO2022075499A1 (ko) 2020-10-07 2020-10-07 무선 통신 시스템에서 단말이 v2x 통신을 보호하기 위한 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2020/013606 WO2022075499A1 (ko) 2020-10-07 2020-10-07 무선 통신 시스템에서 단말이 v2x 통신을 보호하기 위한 방법

Publications (1)

Publication Number Publication Date
WO2022075499A1 true WO2022075499A1 (ko) 2022-04-14

Family

ID=81126567

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/013606 WO2022075499A1 (ko) 2020-10-07 2020-10-07 무선 통신 시스템에서 단말이 v2x 통신을 보호하기 위한 방법

Country Status (1)

Country Link
WO (1) WO2022075499A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101472896B1 (ko) * 2013-12-13 2014-12-16 현대자동차주식회사 차량 내 통신 네트워크에서의 보안 강화 방법 및 그 장치
KR101550544B1 (ko) * 2014-07-01 2015-09-14 가톨릭관동대학교산학협력단 밀집도를 이용한 차량간 메시지 전파기법
US9853987B2 (en) * 2013-01-25 2017-12-26 Zte Corporation Method, apparatus and system for realizing security detection in heterogeneous network
KR20180053073A (ko) * 2016-11-11 2018-05-21 주식회사 만도 차량의 센서 데이터 모니터링 장치 및 방법
US20200067958A1 (en) * 2016-06-29 2020-02-27 Argus Cyber Security Ltd. System and method for detection and prevention of attacks on in-vehicle networks

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9853987B2 (en) * 2013-01-25 2017-12-26 Zte Corporation Method, apparatus and system for realizing security detection in heterogeneous network
KR101472896B1 (ko) * 2013-12-13 2014-12-16 현대자동차주식회사 차량 내 통신 네트워크에서의 보안 강화 방법 및 그 장치
KR101550544B1 (ko) * 2014-07-01 2015-09-14 가톨릭관동대학교산학협력단 밀집도를 이용한 차량간 메시지 전파기법
US20200067958A1 (en) * 2016-06-29 2020-02-27 Argus Cyber Security Ltd. System and method for detection and prevention of attacks on in-vehicle networks
KR20180053073A (ko) * 2016-11-11 2018-05-21 주식회사 만도 차량의 센서 데이터 모니터링 장치 및 방법

Similar Documents

Publication Publication Date Title
WO2020067790A1 (en) Method and apparatus for determining whether to perform transmission on a random access or a configured grant in wireless communication system
WO2020111912A1 (ko) 무선 통신 시스템에서 페이징 신호를 송수신하는 방법 및 이를 위한 장치
WO2020141965A1 (ko) 무선 통신 시스템에서 네트워크에 등록을 수행하는 방법 및 이를 위한 장치
WO2020080913A1 (ko) 무선 통신 시스템에서 독립적인 네트워크 슬라이스별로 분리된 데이터 전송을 지원하는 방법
WO2019226016A1 (ko) 무선 통신 시스템에서 노드에 의해 수행되는 감지 방법 및 상기 방법을 이용하는 노드
WO2020141956A1 (ko) 무선 통신 시스템에서 네트워크를 선택하는 방법
WO2021172964A1 (en) Method and apparatus for failure recovery in wireless communication system
WO2020204536A1 (ko) 무선 통신 시스템에서 단말이 네트워크에 접속을 수행하는 방법
WO2021251625A1 (en) Method and apparatus for handling master cell group failure in wireless communication system
WO2020167036A1 (en) Method and apparatus for failure notification on backhaul link in wireless communication system
WO2020204309A1 (ko) 네트워크 장애에 대처하기 위한 통신 방안
WO2020022716A1 (ko) 무선 통신 시스템에서 데이터 전송 상태를 제어하는 방법 및 이를 위한 장치
WO2021162507A1 (en) Method and apparatus for transmitting response message in wireless communication system
WO2020167024A1 (en) Method and apparatus for backhaul status reporting in wireless communication system
WO2021091295A1 (en) Cancelling sl csi reporting in a wireless communication system
WO2020076144A1 (ko) 무선 통신 시스템에서 복수개의 무선 접속 방식을 지원하는 단말의 능력을 네트워크에 설정하는 방법 및 이를 위한 장치
WO2022086082A1 (en) Method and apparatus for handling resource collision in wireless communication system
WO2020067711A1 (en) Method and apparatus for entering a connected state with a network for continuing transmission in wireless communication system
WO2020067763A1 (en) Relaxed measurement based on data transmission
WO2021194134A1 (en) Method and apparatus for conditional mobility failure handling in wireless communication system
WO2020213817A1 (ko) 네트워크 장애를 대처하기 위해 다른 plmn에 접속한 후 화면을 표시하는 방안
WO2020022709A1 (ko) 비면허 대역에서 하향링크 데이터 채널을 송수신하는 방법 및 이를 위한 장치
WO2021091153A1 (ko) 무선 통신 시스템에서 사이드링크 통신에 관련된 설정을 제어하기 위한 방법 및 장치
WO2021251685A1 (en) Method and apparatus for handling secondary cell group failure in wireless communication system
WO2020218910A1 (ko) 무선 통신 시스템에서 네트워크를 선택하는 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20956814

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20956814

Country of ref document: EP

Kind code of ref document: A1