WO2019245301A1 - Rat 변경에 관련된 동작을 수행하는 이동 단말기 - Google Patents

Rat 변경에 관련된 동작을 수행하는 이동 단말기 Download PDF

Info

Publication number
WO2019245301A1
WO2019245301A1 PCT/KR2019/007446 KR2019007446W WO2019245301A1 WO 2019245301 A1 WO2019245301 A1 WO 2019245301A1 KR 2019007446 W KR2019007446 W KR 2019007446W WO 2019245301 A1 WO2019245301 A1 WO 2019245301A1
Authority
WO
WIPO (PCT)
Prior art keywords
rat
information
geographical area
mobile terminal
unit
Prior art date
Application number
PCT/KR2019/007446
Other languages
English (en)
French (fr)
Inventor
김래영
천성덕
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of WO2019245301A1 publication Critical patent/WO2019245301A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W48/00Access restriction; Network selection; Access point selection
    • H04W48/18Selecting a network or a communication service
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W92/00Interfaces specially adapted for wireless communication networks
    • H04W92/16Interfaces between hierarchically similar devices
    • H04W92/18Interfaces between hierarchically similar devices between terminal devices

Definitions

  • the following description relates to a wireless communication system, and more specifically, to a 3GPP 5G system (5G mobile communication system, next-generation mobile communication system) and a mobile terminal for efficiently providing a V2X service through EPS.
  • 3GPP 5G system 5G mobile communication system, next-generation mobile communication system
  • a mobile terminal for efficiently providing a V2X service through EPS.
  • Wireless communication systems are widely deployed to provide various kinds of communication services such as voice and data.
  • a wireless communication system is a multiple access system capable of supporting communication with multiple users by sharing available system resources (bandwidth, transmission power, etc.).
  • multiple access systems include code division multiple access (CDMA) systems, frequency division multiple access (FDMA) systems, time division multiple access (TDMA) systems, orthogonal frequency division multiple access (OFDMA) systems, and single carrier frequency (SC-FDMA).
  • CDMA code division multiple access
  • FDMA frequency division multiple access
  • TDMA time division multiple access
  • OFDMA orthogonal frequency division multiple access
  • SC-FDMA single carrier frequency division multiple access
  • MCD division multiple access
  • MCDMA multi-carrier frequency division multiple access
  • MC-FDMA multi-carrier frequency division multiple access
  • a method of how the V2X UE is specifically implemented when performing an operation related to a RAT change is a technical problem.
  • the display unit for displaying at least one geographic area; An input unit to receive a user input for the one or more displayed geographic areas; And a control unit for controlling the input unit and the display unit, wherein one or more RAT information is mapped to each of the one or more Geographical Areas for each V2X service.
  • the controller may display, on the display unit, RAT information mapped to one geographic area when a user input for one geographic area of the one or more geographic areas is received.
  • the controller may also display V2X service information related to the RAT information.
  • the RAT information may be RAT information available in the geographic area.
  • the V2X service information may be V2X service information that can use RAT.
  • the controller may display a map including the one geographical area together with the RAT information on the display unit.
  • the controller may transmit the RAT information corresponding to the input to the terminals included in the group through the communication unit.
  • the control unit may switch to the RAT corresponding to the transmitted RAT information only after receiving an ACK for the transmitted RAT information from all terminals included in the group and transmitting a confirm message.
  • the controller may display a map including the one or more geographic areas on the display unit.
  • the controller may display, on the display unit, RAT information mapped to one geographical area when a user input for a portion corresponding to one geographical area is received in the map including the one or more geographic areas. can do.
  • the controller may transmit the RAT information corresponding to the input through the communication unit.
  • the control unit may switch to the RAT corresponding to the transmitted RAT information only after receiving an ACK for the transmitted RAT information from all terminals included in the group and transmitting a confirm message.
  • the mobile terminal may include at least one of a geographic area information manager, a geographic area configuration manager, a V2X service information manager, or a RAT information manager.
  • the geographical area manager may determine whether the terminal is within a specific geographic area.
  • the geographical area manager may acquire location information of the mobile terminal.
  • the geographical area setting manager may display a setting screen related to a geographical area and receive and store an input from a user.
  • the geographical area session manager may perform one of establishing, modifying, and releasing a PDU session for the geographical area.
  • the geographical area information management unit may receive and store the geographical area related information received from the network, and then provide the geographical area management unit, the geographical area setting management unit, and the geographical session management unit.
  • the mobile terminal may be a device mounted on a mobile terminal or an autonomous vehicle.
  • the mobile terminal can communicate with at least one of a network and an autonomous vehicle.
  • the RAT change can be performed while supporting a service specific to V2X.
  • FIG. 1 is a diagram illustrating a schematic structure of an EPS (Evolved Packet System) including an Evolved Packet Core (EPC).
  • EPS Evolved Packet System
  • EPC Evolved Packet Core
  • FIG. 2 is an exemplary view showing the architecture of a general E-UTRAN and EPC.
  • 3 is an exemplary view showing the structure of a radio interface protocol in a control plane.
  • FIG. 4 is an exemplary view showing the structure of a radio interface protocol in a user plane.
  • 5 is a flowchart illustrating a random access procedure.
  • RRC radio resource control
  • FIG. 7 is a diagram for describing a 5G system.
  • 9 to 14 are diagrams for describing embodiments of the present invention are implemented in a mobile terminal.
  • 15 is a flowchart for explaining an embodiment of the present invention.
  • 16 is a block diagram according to an embodiment of the present invention.
  • FIG. 17 shows a technology area to which embodiments of the present utterance may be applied.
  • FIG 18 illustrates an AI system according to an embodiment of the present invention.
  • each component or feature may be considered to be optional unless otherwise stated.
  • Each component or feature may be embodied in a form that is not combined with other components or features.
  • some components and / or features may be combined to form an embodiment of the present invention.
  • the order of the operations described in the embodiments of the present invention may be changed. Some components or features of one embodiment may be included in another embodiment or may be replaced with corresponding components or features of another embodiment.
  • Embodiments of the present invention may be supported by standard documents disclosed in relation to at least one of the Institute of Electrical and Electronics Engineers (IEEE) 802 series system, 3GPP system, 3GPP LTE and LTE-A system, and 3GPP2 system. That is, steps or parts which are not described to clearly reveal the technical spirit of the present invention among the embodiments of the present invention may be supported by the above documents. In addition, all terms disclosed in the present document can be described by the above standard document.
  • IEEE Institute of Electrical and Electronics Engineers
  • UMTS Universal Mobile Telecommunications System
  • GSM Global System for Mobile Communication
  • Evolved Packet System A network system composed of an Evolved Packet Core (EPC), which is a packet switched (PS) core network based on Internet Protocol (IP), and an access network such as LTE / UTRAN.
  • EPC Evolved Packet Core
  • PS packet switched
  • IP Internet Protocol
  • UMTS is an evolutionary network.
  • NodeB base station of GERAN / UTRAN. It is installed outdoors and its coverage is macro cell size.
  • eNodeB base station of E-UTRAN. It is installed outdoors and its coverage is macro cell size.
  • UE User Equipment
  • the UE may be referred to in terms of terminal, mobile equipment (ME), mobile station (MS), and the like.
  • the UE may be a portable device such as a laptop, a mobile phone, a personal digital assistant (PDA), a smart phone, a multimedia device, or the like, or may be a non-portable device such as a personal computer (PC) or a vehicle-mounted device.
  • the term UE or UE may refer to an MTC device.
  • HNB Home NodeB
  • HeNB Home eNodeB: A base station of an EPS network, which is installed indoors and its coverage is micro cell size.
  • Mobility Management Entity A network node of an EPS network that performs mobility management (MM) and session management (SM) functions.
  • Packet Data Network-Gateway (PDN-GW) / PGW A network node of an EPS network that performs UE IP address assignment, packet screening and filtering, charging data collection, and the like.
  • SGW Serving Gateway
  • Non-Access Stratum Upper stratum of the control plane between the UE and the MME.
  • Packet Data Network A network in which a server supporting a specific service (eg, a Multimedia Messaging Service (MMS) server, a Wireless Application Protocol (WAP) server, etc.) is located.
  • a server supporting a specific service eg, a Multimedia Messaging Service (MMS) server, a Wireless Application Protocol (WAP) server, etc.
  • MMS Multimedia Messaging Service
  • WAP Wireless Application Protocol
  • PDN connection A logical connection between the UE and the PDN, represented by one IP address (one IPv4 address and / or one IPv6 prefix).
  • RAN Radio Access Network: a unit including a NodeB, an eNodeB and a Radio Network Controller (RNC) controlling them in a 3GPP network. It exists between UEs and provides a connection to the core network.
  • RNC Radio Network Controller
  • HLR Home Location Register
  • HSS Home Subscriber Server
  • PLMN Public Land Mobile Network
  • Proximity Service (or ProSe Service or Proximity based Service): A service that enables discovery and direct communication between physically close devices or communication through a base station or through a third party device. In this case, user plane data is exchanged through a direct data path without passing through a 3GPP core network (eg, EPC).
  • EPC 3GPP core network
  • EPC Evolved Packet Core
  • FIG. 1 is a diagram illustrating a schematic structure of an EPS (Evolved Packet System) including an Evolved Packet Core (EPC).
  • EPS Evolved Packet System
  • EPC Evolved Packet Core
  • SAE System Architecture Evolution
  • SAE is a research project to determine network structure supporting mobility between various kinds of networks.
  • SAE aims to provide an optimized packet-based system, for example, supporting various radio access technologies on an IP basis and providing enhanced data transfer capabilities.
  • the EPC is a core network of an IP mobile communication system for a 3GPP LTE system and may support packet-based real-time and non-real-time services.
  • a conventional mobile communication system i.e., a second generation or third generation mobile communication system
  • the core network is divided into two distinct sub-domains of circuit-switched (CS) for voice and packet-switched (PS) for data.
  • CS circuit-switched
  • PS packet-switched
  • the function has been implemented.
  • the sub-domains of CS and PS have been unified into one IP domain.
  • EPC IP Multimedia Subsystem
  • the EPC may include various components, and in FIG. 1, some of them correspond to a serving gateway (SGW), a packet data network gateway (PDN GW), a mobility management entity (MME), and a serving general packet (SGRS) Radio Service (Supporting Node) and Enhanced Packet Data Gateway (ePDG) are shown.
  • SGW serving gateway
  • PDN GW packet data network gateway
  • MME mobility management entity
  • SGRS serving general packet
  • Radio Service Upporting Node
  • ePDG Enhanced Packet Data Gateway
  • the SGW acts as a boundary point between the radio access network (RAN) and the core network, and is an element that functions to maintain a data path between the eNodeB and the PDN GW.
  • the SGW serves as a local mobility anchor point. That is, packets may be routed through the SGW for mobility in the E-UTRAN (Universal Mobile Telecommunications System (Evolved-UMTS) Terrestrial Radio Access Network defined in 3GPP Release-8 or later).
  • E-UTRAN Universal Mobile Telecommunications System (Evolved-UMTS) Terrestrial Radio Access Network defined in 3GPP Release-8 or later.
  • SGW also provides mobility with other 3GPP networks (RANs defined before 3GPP Release-8, such as UTRAN or GERAN (Global System for Mobile Communication (GSM) / Enhanced Data rates for Global Evolution (EDGE) Radio Access Network). It can also function as an anchor point.
  • RANs defined before 3GPP Release-8 such as UTRAN or GERAN (Global System for Mobile Communication (GSM) / Enhanced Data rates for Global Evolution (EDGE) Radio Access Network). It can also function as an anchor point.
  • GSM Global System for Mobile Communication
  • EDGE Enhanced Data rates for Global Evolution
  • the PDN GW corresponds to the termination point of the data interface towards the packet data network.
  • the PDN GW may support policy enforcement features, packet filtering, charging support, and the like.
  • mobility management between 3GPP networks and non-3GPP networks for example, untrusted networks such as Interworking Wireless Local Area Networks (I-WLANs), code-division multiple access (CDMA) networks, or trusted networks such as WiMax) Can serve as an anchor point for.
  • untrusted networks such as Interworking Wireless Local Area Networks (I-WLANs), code-division multiple access (CDMA) networks, or trusted networks such as WiMax
  • I-WLANs Interworking Wireless Local Area Networks
  • CDMA code-division multiple access
  • WiMax trusted networks
  • FIG. 1 shows that the SGW and the PDN GW are configured as separate gateways, two gateways may be implemented according to a single gateway configuration option.
  • the MME is an element that performs signaling and control functions to support access to the network connection of the UE, allocation of network resources, tracking, paging, roaming and handover, and the like.
  • the MME controls control plane functions related to subscriber and session management.
  • the MME manages a number of eNodeBs and performs signaling for the selection of a conventional gateway for handover to other 2G / 3G networks.
  • the MME also performs functions such as security procedures, terminal-to-network session handling, and idle terminal location management.
  • SGSN handles all packet data, such as user's mobility management and authentication to other 3GPP networks (eg GPRS networks).
  • 3GPP networks eg GPRS networks.
  • the ePDG acts as a secure node for untrusted non-3GPP networks (eg, I-WLAN, WiFi hotspots, etc.).
  • untrusted non-3GPP networks eg, I-WLAN, WiFi hotspots, etc.
  • a terminal having IP capability is an IP service network provided by an operator (ie, an operator) via various elements in the EPC, based on 3GPP access as well as non-3GPP access. (Eg, IMS).
  • FIG. 1 illustrates various reference points (eg, S1-U, S1-MME, etc.).
  • a conceptual link defining two functions existing in different functional entities of E-UTRAN and EPC is defined as a reference point.
  • Table 1 below summarizes the reference points shown in FIG. 1.
  • This reference point can be used in PLMN-to-PLMN-to-for example (for PLMN-to-PLMN handovers) (It enables user and bearer information exchange for inter 3GPP access network mobility in idle and / or active state This reference point can be used intra-PLMN or inter-PLMN (eg in the case of Inter-PLMN HO).)
  • S4 Reference point between SGW and SGSN that provides related control and mobility support between the GPRS core and SGW's 3GPP anchor functionality.It also provides user plane tunneling if no direct tunnel is established.
  • the 3GPP Anchor function of Serving GW In addition, if Direct Tunnel is not established, it provides the user plane tunnelling.
  • S5 Reference point providing user plane tunneling and tunnel management between the SGW and the PDN GW.
  • the PDN may be an operator external public or private PDN or, for example, an in-operator PDN for the provision of IMS services.
  • Packet data network may be an operator external public or private packet data network or an intra operator packet data network, eg for provision of IMS services.This reference point corresponds to Gi for 3GPP accesses.
  • S2a and S2b correspond to non-3GPP interfaces.
  • S2a is a reference point that provides the user plane with associated control and mobility support between trusted non-3GPP access and PDN GW.
  • S2b is a reference point that provides the user plane with relevant control and mobility support between the ePDG and PDN GW.
  • FIG. 2 is an exemplary view showing the architecture of a general E-UTRAN and EPC.
  • an eNodeB can route to a gateway, schedule and send paging messages, schedule and send broadcaster channels (BCHs), and resources in uplink and downlink while an RRC (Radio Resource Control) connection is active.
  • BCHs broadcaster channels
  • RRC Radio Resource Control
  • paging can occur, LTE_IDLE state management, user plane can perform encryption, SAE bearer control, NAS signaling encryption and integrity protection.
  • FIG. 3 is an exemplary diagram illustrating a structure of a radio interface protocol in a control plane between a terminal and a base station
  • FIG. 4 is an exemplary diagram illustrating a structure of a radio interface protocol in a user plane between a terminal and a base station. .
  • the air interface protocol is based on the 3GPP radio access network standard.
  • the air interface protocol is composed of a physical layer, a data link layer, and a network layer horizontally, and a user plane and control for data information transmission vertically. It is divided into a control plane for signal transmission.
  • the protocol layers are based on the lower three layers of the Open System Interconnection (OSI) reference model, which is widely known in communication systems, and includes L1 (first layer), L2 (second layer), and L3 (third layer). ) Can be separated.
  • OSI Open System Interconnection
  • the physical layer which is the first layer, provides an information transfer service using a physical channel.
  • the physical layer is connected to a medium access control layer on the upper side through a transport channel, and data between the medium access control layer and the physical layer is transmitted through the transport channel.
  • data is transferred between different physical layers, that is, between physical layers of a transmitting side and a receiving side through a physical channel.
  • the physical channel is composed of several subframes on the time axis and several sub-carriers on the frequency axis.
  • one subframe includes a plurality of symbols and a plurality of subcarriers on the time axis.
  • One subframe consists of a plurality of resource blocks, and one resource block consists of a plurality of symbols and a plurality of subcarriers.
  • the transmission time interval (TTI) which is a unit time for transmitting data, is 1 ms corresponding to one subframe.
  • the physical channels existing in the physical layer of the transmitting side and the receiving side are physical downlink shared channel (PDSCH), physical uplink shared channel (PUSCH) and physical downlink control channel (PDCCH), which are control channels, It may be divided into a Physical Control Format Indicator Channel (PCFICH), a Physical Hybrid-ARQ Indicator Channel (PHICH), and a Physical Uplink Control Channel (PUCCH).
  • PCFICH Physical Control Format Indicator Channel
  • PHICH Physical Hybrid-ARQ Indicator Channel
  • PUCCH Physical Uplink Control Channel
  • the medium access control (MAC) layer of the second layer serves to map various logical channels to various transport channels, and also logical channel multiplexing to map several logical channels to one transport channel. (Multiplexing).
  • the MAC layer is connected to the upper layer RLC layer by a logical channel, and the logical channel includes a control channel for transmitting information of a control plane according to the type of information to be transmitted. It is divided into a traffic channel that transmits user plane information.
  • the Radio Link Control (RLC) layer of the second layer adjusts the data size so that the lower layer is suitable for transmitting data to the radio section by segmenting and concatenating data received from the upper layer. It plays a role.
  • RLC Radio Link Control
  • the Packet Data Convergence Protocol (PDCP) layer of the second layer is an IP containing relatively large and unnecessary control information for efficient transmission in a wireless bandwidth where bandwidth is small when transmitting an IP packet such as IPv4 or IPv6. Performs Header Compression which reduces the packet header size.
  • the PDCP layer also performs a security function, which is composed of encryption (Ciphering) to prevent third-party data interception and integrity protection (Integrity protection) to prevent third-party data manipulation.
  • the radio resource control layer (hereinafter RRC) layer located at the top of the third layer is defined only in the control plane, and the configuration and resetting of radio bearers (abbreviated as RBs) are performed. It is responsible for the control of logical channels, transport channels and physical channels in relation to configuration and release.
  • RB means a service provided by the second layer for data transmission between the terminal and the E-UTRAN.
  • RRC connection If there is an RRC connection (RRC connection) between the RRC of the terminal and the RRC layer of the wireless network, the terminal is in the RRC connected mode (Connected Mode), otherwise it is in the RRC idle mode (Idle Mode).
  • RRC connection If there is an RRC connection (RRC connection) between the RRC of the terminal and the RRC layer of the wireless network, the terminal is in the RRC connected mode (Connected Mode), otherwise it is in the RRC idle mode (Idle Mode).
  • the RRC state refers to whether or not the RRC of the UE is in a logical connection with the RRC of the E-UTRAN. If the RRC state is connected, the RRC_CONNECTED state is called. Since the UE in the RRC_CONNECTED state has an RRC connection, the E-UTRAN can grasp the existence of the UE in units of cells, and thus can effectively control the UE. On the other hand, the UE in the RRC_IDLE state cannot identify the existence of the UE by the E-UTRAN, and the core network manages the unit in a larger tracking area (TA) unit than the cell.
  • TA tracking area
  • each TA is identified by a tracking area identity (TAI).
  • TAI tracking area identity
  • the terminal may configure a TAI through a tracking area code (TAC), which is information broadcast in a cell.
  • TAC tracking area code
  • the terminal When the user first turns on the power of the terminal, the terminal first searches for an appropriate cell, then establishes an RRC connection in the cell, and registers the terminal's information in the core network. Thereafter, the terminal stays in the RRC_IDLE state. The terminal staying in the RRC_IDLE state (re) selects a cell as needed and looks at system information or paging information. This is called camping on the cell.
  • the UE staying in the RRC_IDLE state makes an RRC connection with the RRC of the E-UTRAN through an RRC connection procedure and transitions to the RRC_CONNECTED state.
  • RRC_CONNECTED state There are several cases where a UE in RRC_IDLE state needs to establish an RRC connection. For example, a user's call attempt, a data transmission attempt, etc. are required, or when a paging message is received from E-UTRAN, Reply message transmission, and the like.
  • a non-access stratum (NAS) layer located above the RRC layer performs functions such as session management and mobility management.
  • NAS non-access stratum
  • the eSM (evolved session management) belonging to the NAS layer performs functions such as default bearer management and dedicated bearer management, and is responsible for controlling the terminal to use the PS service from the network.
  • the default bearer resource is characterized in that it is allocated from the network when it is connected to the network when it first accesses a specific Packet Data Network (PDN).
  • PDN Packet Data Network
  • the network allocates an IP address usable by the terminal so that the terminal can use the data service, and also allocates QoS of the default bearer.
  • LTE supports two types of bearer having a guaranteed bit rate (GBR) QoS characteristic and a non-GBR bearer having a best effort QoS characteristic without guaranteeing bandwidth. In case of Default bearer, Non-GBR bearer is assigned. In the case of a dedicated bearer, a bearer having a QoS characteristic of GBR or non-GBR may be allocated.
  • the bearer allocated to the terminal in the network is called an evolved packet service (EPS) bearer, and when the EPS bearer is allocated, the network allocates one ID. This is called EPS Bearer ID.
  • EPS bearer ID One EPS bearer has a QoS characteristic of MBR (maximum bit rate) and / or GBR (guaranteed bit rate).
  • 5 is a flowchart illustrating a random access procedure in 3GPP LTE.
  • the random access procedure is used for the UE to get UL synchronization with the base station or to be allocated UL radio resources.
  • the UE receives a root index and a physical random access channel (PRACH) configuration index from the eNodeB.
  • PRACH physical random access channel
  • Each cell has 64 candidate random access preambles defined by a Zadoff-Chu (ZC) sequence, and the root index is a logical index for the UE to generate 64 candidate random access preambles.
  • ZC Zadoff-Chu
  • the PRACH configuration index indicates a specific subframe and a preamble format capable of transmitting the random access preamble.
  • the UE sends the randomly selected random access preamble to the eNodeB.
  • the UE selects one of the 64 candidate random access preambles.
  • the corresponding subframe is selected by the PRACH configuration index.
  • the UE transmits the selected random access preamble in the selected subframe.
  • the eNodeB Upon receiving the random access preamble, the eNodeB sends a random access response (RAR) to the UE.
  • RAR random access response
  • the random access response is detected in two steps. First, the UE detects a PDCCH masked with random access-RNTI (RA-RNTI). The UE receives a random access response in a medium access control (MAC) protocol data unit (PDU) on the PDSCH indicated by the detected PDCCH.
  • MAC medium access control
  • RRC 6 shows a connection process in a radio resource control (RRC) layer.
  • RRC radio resource control
  • the RRC state is shown depending on whether the RRC is connected.
  • the RRC state refers to whether or not an entity of the RRC layer of the UE is in a logical connection with an entity of the RRC layer of the eNodeB.
  • the RRC state is referred to as an RRC connected state.
  • the non-state is called the RRC idle state.
  • the E-UTRAN may determine the existence of the corresponding UE in units of cells, and thus may effectively control the UE.
  • the UE in the idle state can not be identified by the eNodeB, the core network (core network) is managed by the tracking area (Tracking Area) unit that is larger than the cell unit.
  • the tracking area is a collection unit of cells. That is, the idle state (UE) is determined only in the presence of the UE in a large area, and in order to receive a normal mobile communication service such as voice or data, the UE must transition to the connected state (connected state).
  • the UE When a user first powers up a UE, the UE first searches for an appropriate cell and then stays in an idle state in that cell. When the UE staying in the idle state needs to establish an RRC connection, the UE establishes an RRC connection with the RRC layer of the eNodeB through an RRC connection procedure and transitions to an RRC connected state. .
  • the UE in the idle state needs to establish an RRC connection. For example, a user's call attempt or uplink data transmission is required, or a paging message is received from EUTRAN. In this case, the response message may be transmitted.
  • the RRC connection process is largely a process in which a UE sends an RRC connection request message to an eNodeB, an eNodeB sends an RRC connection setup message to the UE, and a UE completes RRC connection setup to the eNodeB. (RRC connection setup complete) message is sent. This process will be described in more detail with reference to FIG. 6 as follows.
  • the eNB When the RRC connection request message is received from the UE, the eNB accepts the RRC connection request of the UE when the radio resources are sufficient, and transmits an RRC connection setup message, which is a response message, to the UE. .
  • the UE When the UE receives the RRC connection setup message, it transmits an RRC connection setup complete message to the eNodeB. When the UE successfully transmits an RRC connection establishment message, the UE establishes an RRC connection with the eNodeB and transitions to the RRC connected mode.
  • the MME is divided into a core access and mobility management function (AMF) and a session management function (SMF) in a next generation system (or 5G CN).
  • AMF access and mobility management function
  • SMF session management function
  • the NAS interaction and mobility management (MM) with the UE are performed by the AMF
  • the session management (SM) is performed by the SMF.
  • the SMF manages a user plane function (UPF), which has a user-plane function, that is, a gateway for routing user traffic.
  • the SMF is responsible for the control-plane portion of the S-GW and the P-GW in the conventional EPC.
  • the user-plane part can be considered to be in charge of the UPF.
  • the conventional EPC may be configured as illustrated in FIG. 7 at 5G.
  • a PDU (Protocol Data Unit) session is defined in the 5G system.
  • the PDU session refers to an association between the UE and the DN providing the PDU connectivity service of the Ethernet type or the unstructured type as well as the IP type.
  • UDM Unified Data Management
  • PCF Policy Control Function
  • the functions can be provided in an expanded form to satisfy the requirements of the 5G system. For details on the 5G system architecture, each function and each interface, TS 23.501 is applicable.
  • 3GPP is conducting architecture enhancements studies for advanced V2X with the scope described in Table 2 below (see 3GPP SP-170590). The content of these studies is described in TR 23.786.
  • TR 23.786 defines the agenda listed in Table 4 below.
  • a UE when a UE can perform PC5 (which is D2D: Device to Device, or ProSe: 3GPP defined interface for Proximity based Service) operation using a plurality of Radio Access Technology (RAT), A mechanism for what RAT to use is required.
  • RAT include LTE (that is, E-UTRA) and NR, but are not limited thereto, and may be any RAT capable of PC5 operation.
  • V2X service The most important factor in V2X service is the interaction between UEs. That is, other UEs traveling around and / or member UEs of a group to which the first UE belongs should be able to receive the V2X message transmitted by the first UE. This not only realizes road safety, but also enables cooperative driving such as platooning. In view of this, the present invention proposes a mechanism for selecting a RAT that a V2X application should use for PC5 operation.
  • the first UE may check mapping information and select a first RAT according to the mapping information.
  • a message including one of information indicating that the first RAT is selected or information indicating a switch to the first RAT may be transmitted to all UEs belonging to the group.
  • a RAT in which all the UEs participating in the group communication that is, other UE (s) including the self) participating in the group communication, performs the group communication, receives a second AT from the first PC5 RAT. Instructs to switch to PC5 RAT.
  • all UEs in which the representative UE participates in group communication i.e., other UE (s) including themselves) participating in the group communication select the RAT to be used / applied to perform the group communication. And inform them.
  • the group communication may be interpreted as a V2X service for performing group communication.
  • mapping information may be one or more RATs mapped for each V2X service with respect to the geographic area. Details of the mapping information will be described later.
  • the first UE may perform RAT selection / switch with the first RAT.
  • the selection / the selection of the first RAT may not be performed. All UEs participating in the group communication including the representative UE perform RAT selection / switch with the same target RAT at the same time. In the case of use (selection), all UEs participating in the group communication, including the representative UE, select and use the same RAT.
  • all the UEs participating in the group communication including the representative UE perform the RAT switch with the same target RAT at the same time.
  • the UE receiving the RAT switch indication / request from the representative UE may transmit an ACK / response to the representative UE.
  • all UEs may perform the RAT switch operation only after sending a confirmation message to other UEs through PC5.
  • the UE that receives the RAT usage (selection) indication / request from the representative UE may transmit an ACK / response to the representative UE.
  • all UEs may perform RAT use (selection) operation only after sending a confirmation message through PC5 to other UEs. have.
  • the above configuration may solve a problem that may occur when the RAT is changed in the V2X group.
  • the group is a group performing platooning (group driving)
  • the RAT support capability of all UEs may not be the same. That is, if there is a UE (s) that does not support the first RAT in the group, and the remaining UEs switch to the first RAT, the V2X communication with the UE that does not support the first RAT is impossible and platooning itself may not be possible. Therefore, such a problem of RAT support capability inequality can be solved through the above configuration.
  • the message indicates whether Target RAT information, information related to a time for performing a switch to the first RAT, the message is information indicating that the first RAT is selected, or information indicating a switch to the first RAT. It may include one or more of information, identification information for group communication, identification information for the representative UE.
  • the representative UE may send a PC5 message to instruct the other UE (s) to switch the RAT performing group communication or to inform the selected RAT.
  • Such PC5 messages may include the information (s) described above. This PC5 message may be sent once or periodically for a valid time. Detailed description of the above-listed information is as follows.
  • Target RAT Information This is the PC5 RAT information that targets which PC5 RAT should be switched or which PC5 RAT should be used (selected).
  • Identification information for group communication This is identification information for V2X service, identification information for V2X application, identification information for group, identification information for group communication, address information used for group communication (source / destination Layer- 2 ID, source / destination IP address, etc.). It may also be one or more.
  • Identification information of the representative UE This may be in various forms such as identification information on the UE used in the application layer and address information (source layer-2 ID, source IP address, etc.) used for group communication. It may also be one or more.
  • the first UE may be a representative UE of the group.
  • the representative UE is a leader of group communication (eg, a leading UE in platooning or Cooperative Adaptive Cruise Control (CACC)), a UE that is at the top of the progress direction among UEs performing group communication, and initiates group communication. It may be one of a UE, a UE designated / elected to operate as a representative UE, which may designate the UE itself to inform other UEs, and may be designated by a network or a UE-type RSU.
  • the above information (eg, information that the leader is his or her) may be obtained from the V2X application by the UE, or may be obtained from a layer managed by 3GPP.
  • the UE may decide to determine the RAT switch or use (selection) by the representative UE or may be determined by the network or the UE-type RSU.
  • the representative UE transmits a PC5 message indicating a RAT switch or use (selection) to another UE
  • the PC5 message is a PC5-D message, a PC5-S message, a PC5-U message, or an object of the present invention. It may be a newly defined type of PC5 message.
  • a newly defined type of PC5 message for the purpose of the present invention, for example, by newly defining the PDCP SDU type in PC5-U (eg, 'RAT switch', 'RAT selection', 'RAT configuration', 'RAT'). Etc) can be used.
  • the above-described RAT selection or switch method for group communication is also applicable to unicast communication. This is because two UEs participating in unicast communication can be regarded as group communication. And group communication can be interpreted as multicast communication.
  • a Geographical Area may be added to Solution # 12: 3GPP PC5 RAT selection for a V2X application in Section 6.12 of TR 23.786v0.6.0 as follows. That is, adding a Geographical Area to the configuration / mapping of ‘Tx Profiles’ associated with the V2X services. This means setting / configuring Tx Profile (s) that should be used for specific V2X service in specific geographic area. Available Tx Profiles per Geographical Area may be listed, and available Geographical Areas per Tx Profile may be listed. If a specific Tx Profile is available regardless of the region, it can be set to a value that does not include geographical area information or points to the whole region (eg all or *).
  • the V2X services may be, for example, PSID or ITS-AIDs of the V2X applications.
  • PCX RAT selection based on Tx Profile can be applied to unicast, multicast and groupcast as well as broadcast.
  • the addition of the geographical area may be applied to a broadcasted V2X service and / or a unicast V2X service and / or a multicasted V2X service and / or a groupcasted V2X service.
  • the method of switching / selecting a RAT used / applied for group communication can be applied to update not only RAT but also various configurations used / applied for group communication for all UEs.
  • the description has been focused on the method of switching / selecting the RATs of the UEs participating in the group communication, but this is a method of switching / selecting the RATs used / applied to a specific V2X service or all V2X services of all UEs located in a specific region. Extension can be applied.
  • the mapping information may include one or more of time information that each of the one or more RATs may be used, a QoS parameter that must be satisfied in each of the one or more RATs, and a congestion degree of each of the one or more RATs.
  • time information that each of the one or more RATs may be used
  • QoS parameter that must be satisfied in each of the one or more RATs
  • congestion degree of each of the one or more RATs.
  • Time information For example, a time zone during which a corresponding RAT can be used may be displayed in units of hours, minutes, and seconds. (For example, hours, minutes, seconds, hours, hours, minutes, seconds, and so on, meaning that the corresponding RAT is used at the time of this interval)
  • QoS parameters This may be various QoS values that must be satisfied during PC5 operation using the RAT. Examples may include values related to latency (or delay budget, transmission delay), values related to Packet Error Loss Rate (or transmission failure rate or transmission success rate), and data rate related values. A time window may be provided for which time units to measure for these values. By each parameter or in common. And, this measurement can be provided to the UE and / or obtained from another UE whether the UE directly performs and / or whether the network measures and satisfies.
  • RAT congestion Information indicating whether the RAT is congested, and may be variously expressed such as radio resource occupancy ratio of the RAT.
  • mapping information when there are a plurality of RATs in the mapping information (for example, when a plurality of RATs are set in a specific geographical area), various conditions under which each RAT may be used / selected may be provided together in the mapping information. Can be. This may be provided per RAT or may be provided common to all RATs. In addition, this condition may be used to determine that when the currently used / applied RAT does not satisfy the condition, it should switch to another RAT satisfying the condition. In addition, the above conditions can be used to determine which RAT to use / select for the V2X service.
  • 3GPP PC5 RAT for appropriate V2X applications can be found in [The mapping of V2X services (e.g. PSID or ITS-AIDs of the V2X applications). ) to 3GPP PC5 RAT (s) with Geographical Area (s).] parameter.
  • This parameter may be preset in the UE, and if in coverage, may be provisioned by signaling on the V3 reference point from the V2X Control Function in the HPLMN. This method assumes that the V2X Control Functions and V3 reference points defined for EPS also apply to 5G systems. Alternatively, the provisioning may be performed by using a NAS message in the network.
  • the above information may be used / selected (or used / selected or allowed / selected) for any PC5 RAT (s) for a particular V2X service in any region.
  • the Geographical Area is defined in TS 24.385 as shown in FIG. 8, that is, it may be a coordinate value, a PLMN unit, a tracking area (TA) unit, a cell unit, or a base station unit. It can be expressed in various forms.
  • the geographic area does not exist in the mapping information, it can be interpreted that any PC5 RAT (s) can be used for the corresponding V2X service regardless of the area. This can be applied throughout the present invention.
  • PC5 RAT typically LTE (ie, E-UTRA) and NR. However, this may be any RAT capable of PC5 operation without being limited thereto.
  • the RAT listed first is the RAT having the highest priority when used / applied (this may be the default RAT concept), and the last displayed ( The listed RATs may be the lowest priority RATs in use / application. Or vice versa.
  • priority information (priority value, priority value) may be explicitly assigned to each RAT and provided together with the mapping information. In this case, the highest priority RAT may be considered as the default RAT.
  • mapping information When a plurality of RATs exist in the mapping information, one or more of the following information may be additionally provided.
  • Whether the UE can switch the RAT used / applied for PC5 operation This indicates whether the UE is allowed to change the PC5 RAT currently being used / applied to another RAT. This may be provided in more detail or separately, whether it is possible to switch the RAT used / applied to PC5 operation only when the UE is playing a leader role in group communication. This may include an operation in which a UE serving as a leader may instruct RAT change to group members of group communication. It may also be provided in more detail or separately whether the UE can switch the RAT used / applied for PC5 operation when operating with UE-type RSU.
  • This may include an operation in which a UE operating as a UE-type RSU may instruct a general UE (vehicle UE, pedestrian UE) to change the RAT. Or, it may mean an operation capable of instructing regular UEs to change the RAT without changing the RAT. This lack of information may implicitly consider the RAT that the UE uses / applies to PC5 operation to be switchable.
  • the network can switch the RAT used / applied for PC5 operation: whether the network should be instructed to change the RAT, in which case the UE will instruct the network to use / apply another RAT.
  • the network may be one or more of a RAN, a function included in the Core Network, and a V2X Application Server.
  • the UE-type RSU can switch the RAT used / applied for PC5 operation: whether it should be instructed to change the RAT from the UE-type RSU, in which case the UE-type RSU should If instructed to use / apply, the UE will follow it.
  • Whether the UE can select the RAT to use / apply for PC5 operation This indicates whether the UE is allowed to select the PC5 RAT to use / apply. This may be provided in more detail or separately, whether it is possible to select a RAT to use / apply for PC5 operation only when the UE is playing a leader role in group communication. This may include an operation in which the UE serving as the leader may inform the group members of the group communication of the selected RAT. In addition, this may be provided in more detail or separately, whether the UE can select a RAT to use / apply for PC5 operation when operating as a UE-type RSU.
  • This may include an operation in which a UE operating as a UE-type RSU may inform the selected UEs of the UE (pedhrian UE). The absence of this information may implicitly consider the UE to be able to select the RAT to use / apply for PC5 operation.
  • the network can select the RAT to be used / applied for PC5 operation: whether the network should receive an indication about the selected RAT, in which case the UE informs the selected RAT if the network informs the selected RAT.
  • the network may be one or more of a RAN, a function included in the Core Network, and a V2X Application Server.
  • the UE-type RSU can select the RAT to be used / applied for PC5 operation: whether or not the UE-type RSU should be instructed for the selected RAT from the UE-type RSU, in which case the UE informs the selected RAT if the UE-type RSU informs the selected RAT. Use that RAT.
  • Changing (or switching) a RAT that is used / applied to a V2X service to another RAT is equivalent to two simple PC5 RATs, that is, using LTE, NR, LTE, and vice versa. It can also be the same as changing to a non-default RAT if you were using the default RAT. In addition, this may correspond to changing to a low priority RAT if the high priority RAT was used or vice versa.
  • the criteria / considerations for selecting candidate RATs other than the one currently in use when changing (or switching) to another RAT are one or more of the following.
  • the default RAT is considered first.
  • selecting one of them means selecting a RAT satisfying the above condition. If there are a large number of RATs that satisfy the condition, this means selecting the RAT having the highest priority. This applies throughout the present invention.
  • the second embodiment is a method of requesting a representative UE among UEs participating in group communication to switch PC5 RAT to infrastructure or to indicate a selected RAT.
  • the second embodiment is based on the content described in Embodiment 1, the difference being that instead of instructing the representative UE to switch the PC5 RAT to another UE (s) via a PC5 message or instead of instructing the selected RAT, That's what the infrastructure does.
  • the infrastructure may be one of RAN, V2X Control Function, V2X Application Server, Core Network function, and UE-type RSU. This applies throughout the present invention.
  • the representative UE may not include additional information when requesting a RAT switch to the infrastructure or requesting a selected RAT indication, and participate in group communication of A), B), C), D), and E) of the first embodiment. It may include information of one or more of the identification information of the UEs.
  • the infrastructure receiving the request from the representative UE instructs the UEs participating in the group communication to switch to the same target RAT at the same time for the corresponding V2X service.
  • the infrastructure receiving the request from the representative UE instructs the UEs participating in the group communication to use / apply the same target RAT at the same time point for the corresponding V2X service.
  • the infrastructure When the infrastructure is a RAN, it may be indicated through broadcast or dedicated signaling to each UE. If the infrastructure is a V2X Control Function, each UE may be instructed through a V3 interface. When the infrastructure is a V2X application server, it can be indicated to each UE by unicast or by MBMS that UEs can receive. When the infrastructure is a CN function, it may indicate to each UE through signaling (for example, a NAS message) or an MBMS that can be received by the corresponding UEs. When the infrastructure is a UE-type RSU, it can be indicated through a PC5 message (similar to that indicated by the representative UE through the PC5 message in the foregoing description). As such, the method for transmitting information indicated by the infrastructure to the UE is applied throughout the present invention.
  • the infrastructure may transmit the indication message once or periodically for a valid time.
  • the validity time may be provided when the representative UE requests the indication or may be terminated by the representative UE explicitly requesting the end of the indication. Or the infrastructure may decide to shut itself down.
  • All UEs participating in group communication including representative UEs, perform RAT switch or RAT use / application with the same target RAT at the same time.
  • Example 3 determines, or decides to switch, the RAT used / applied for group communication in the Infrastructure. This is instructed to UEs participating in group communication.
  • the infrastructure monitors whether the RAT currently in use / applied for a particular group communication is appropriate. Whether it is appropriate may be, for example, whether the above-mentioned conditions such as a) time information, b) QoS parameters, c) RAT congestion is satisfied.
  • the infrastructure may collect the measurement and / or measurement information from the UE by itself to determine whether the condition is satisfied.
  • the infrastructure instructs all UEs participating in the group communication to switch the RAT in use / applicability from the first RAT to the second RAT.
  • one or more pieces of information A), B), C), D), and E) of the first embodiment may be included.
  • the infrastructure monitors the status of the available RATs to determine which one is to be used / applied for a particular group communication and determines whether the usage is appropriate. Whether or not the appropriate may be, for example, whether the conditions such as a), b), c) described above are satisfied.
  • the infrastructure may collect the measurement and / or measurement information from the UE by itself to determine whether the condition is satisfied.
  • the infrastructure selects an appropriate RAT to instruct the RAT to be used / applied to all UEs participating in the group communication.
  • one or more of the information A), B), C), D), and E) of the first embodiment may be included. If multiple RATs are appropriate, a higher priority or a default RAT may be selected. Alternatively, a lower congestion RAT may be selected.
  • the infrastructure may transmit the indication message once or periodically for a valid time.
  • the operation of switching the RAT used / applied in a specific region or a specific group for the V2X service from the first RAT to the second RAT is performed by all UEs participating in the communication for the V2X service. It may be based on the assumption that it supports. In addition, the operation of selecting the RAT used / applied in a specific region or a specific group for the V2X service may be based on the assumption that all UEs participating in the communication for the V2X service support the operation.
  • the V2X service is used interchangeably with the V2X application.
  • the PC5 operation may include PC5 communication (or D2D communication, or direct communication, or ProSe communication) as well as PC5 discovery (or D2D discovery, or direct discovery, or ProSe discovery).
  • PC5 operation in V2X means that the UE sends and receives V2X messages through PC5, the UE sends and receives various data generated by the V2X application through PC5, and the UE sends and receives various information related to V2X through PC5. This means that the UE establishes a link or 1: 1 connection with another UE through PC5, and the UE searches for another UE through PC5.
  • the contents presented in the present invention are not limited by the names currently used in the 5G system.
  • the interface name defined for D2D communication may not be PC5 in 5G system.
  • Those skilled in the art may understand the present invention by applying the interface name newly defined for D2D communication. will be.
  • various interfaces previously defined in EPS eg, V1, V2, V3, etc.
  • V1, V2, V3, etc. may all be used identically in 5G systems, or may be defined under some or all new names. Understand the invention.
  • the UE may be a UE such as a vehicle UE, a pedestrian UE, or a UE-type RSU. That is, it includes all devices capable of operating in the form of UE or capable of operating PC5.
  • 5G mobile communication system next generation mobile communication system
  • EPS may be composed of a combination of one or more operations / configurations / steps.
  • Mobile terminals include mobile phones, smart phones, laptop computers, digital broadcasting terminals, personal digital assistants, portable multimedia players, navigation, slate PCs, and tablet PCs.
  • PCs ultrabooks, wearable devices (eg, smartwatches, glass glasses, head mounted displays), and the like. Furthermore, it may be used for controlling at least one device in an IoT (Internet of Things) environment or a smart greenhouse.
  • IoT Internet of Things
  • FIG. 9 is a block diagram illustrating a mobile terminal according to the present invention.
  • the mobile terminal 100 includes a transceiver 110, a processor 120, a memory 130, a sensing unit 140, an output unit 150, an interface unit 160, an input unit 170, and a power supply unit 190. ) May be included.
  • the components shown in FIG. 9 are not essential to implementing a mobile terminal, so the mobile terminal described herein may have more or fewer components than those listed above.
  • the transmitting and receiving device 110 of the components, between the mobile terminal 100 and the wireless communication system, between the mobile terminal 100 and another mobile terminal 100, or the mobile terminal 100 and the external server It may include one or more modules that enable wireless communication therebetween.
  • the transmission and reception apparatus 110 may include one or more modules for connecting the mobile terminal 100 to one or more networks.
  • the transceiver 110 may include at least one of the broadcast receiving module 111, the mobile communication module 112, the wireless internet module 113, the short range communication module 114, and the location information module 115. .
  • the input unit 170 may include a camera 171 or an image input unit for inputting an image signal, a microphone 172 for inputting an audio signal, or an audio input unit and a user input unit 173 for receiving information from a user. , Touch keys, mechanical keys, and the like.
  • the voice data or the image data collected by the input unit 170 may be analyzed and processed as a user's control command.
  • the sensing unit 140 may include one or more sensors for sensing at least one of information in the mobile terminal, surrounding environment information surrounding the mobile terminal, and user information.
  • the sensing unit 140 may include a proximity sensor 141, an illumination sensor 142, an illumination sensor, a touch sensor, an acceleration sensor, a magnetic sensor, and gravity.
  • Optical sensors e.g. cameras (see 171)), microphones (see 172), battery gauges, environmental sensors (e.g.
  • the mobile terminal disclosed herein may use a combination of information sensed by at least two or more of these sensors.
  • the output unit 150 is used to generate an output related to sight, hearing, or tactile sense, and includes at least one of a display unit 151, an audio output unit 152, a hap tip module 153, and an optical output unit 154. can do.
  • the display unit 151 forms a layer structure with or is integrally formed with the touch sensor, thereby implementing a touch screen.
  • Such a touch screen may function as a user input unit 173 that provides an input interface between the mobile terminal 100 and the user, and may provide an output interface between the mobile terminal 100 and the user.
  • the interface unit 160 serves as a path to various types of external devices connected to the mobile terminal 100.
  • the interface unit 160 connects a device equipped with a wired / wireless headset port, an external charger port, a wired / wireless data port, a memory card port, and an identification module. It may include at least one of a port, an audio input / output (I / O) port, a video input / output (I / O) port, and an earphone port.
  • I / O audio input / output
  • I / O video input / output
  • earphone port an earphone port
  • the memory 130 stores data supporting various functions of the mobile terminal 100.
  • the memory 130 may store a plurality of application programs or applications driven in the mobile terminal 100, data for operating the mobile terminal 100, and instructions. At least some of these applications may be downloaded from an external server via wireless communication.
  • at least some of these application programs may exist on the mobile terminal 100 from the time of shipment for basic functions of the mobile terminal 100 (for example, a call forwarding, a calling function, a message receiving, and a calling function).
  • the application program may be stored in the memory 130 and installed on the mobile terminal 100 to be driven by the processor 120 to perform an operation (or function) of the mobile terminal.
  • the processor 120 typically controls the overall operation of the mobile terminal 100 in addition to the operation associated with the application program.
  • the processor 120 may provide or process information or a function appropriate to a user by processing signals, data, information, and the like, which are input or output through the above-described components, or by running an application program stored in the memory 130.
  • the processor 120 may control at least some of the components described with reference to FIG. 9 to drive an application program stored in the memory 130.
  • the processor 120 may operate at least two or more of the elements included in the mobile terminal 100 in combination with each other to drive the application program.
  • the power supply unit 190 receives power from an external power source or an internal power source under the control of the processor 120 to supply power to each component included in the mobile terminal 100.
  • the power supply unit 190 includes a battery, which may be a built-in battery or a replaceable battery.
  • At least some of the components may operate in cooperation with each other to implement an operation, control, or control method of the mobile terminal according to various embodiments described below.
  • the operation, control, or control method of the mobile terminal may be implemented on the mobile terminal by driving at least one application program stored in the memory 130.
  • the broadcast reception module 111 of the transmission and reception apparatus 110 receives a broadcast signal and / or broadcast related information from an external broadcast management server through a broadcast channel.
  • the broadcast channel may include a satellite channel and a terrestrial channel.
  • Two or more broadcast receiving modules may be provided to the mobile terminal 100 for simultaneous broadcast reception or switching of broadcast channels for at least two broadcast channels.
  • the mobile communication module 112 may include technical standards or communication schemes (eg, Global System for Mobile communication (GSM), Code Division Multi Access (CDMA), Code Division Multi Access 2000 (CDMA2000), and EV).
  • GSM Global System for Mobile communication
  • CDMA Code Division Multi Access
  • CDMA2000 Code Division Multi Access 2000
  • EV Enhanced Voice-Data Optimized or Enhanced Voice-Data Only (DO), Wideband CDMA (WCDMA), High Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSUPA), Long Term Evolution (LTE), LTE-A It transmits and receives wireless signals with at least one of a base station, an external terminal, and a server on a mobile communication network constructed according to Long Term Evolution-Advanced (3GPP) and 3GPP NR (New Radio access technology).
  • 3GPP Long Term Evolution-Advanced
  • 3GPP NR New Radio access technology
  • the wireless signal may include various types of data according to transmission and reception of a voice call signal, a video call call signal, or a text / multimedia message.
  • the wireless internet module 113 refers to a module for wireless internet access and may be embedded or external to the mobile terminal 100.
  • the wireless internet module 113 is configured to transmit and receive wireless signals in a communication network according to wireless internet technologies.
  • wireless Internet technologies include Wireless LAN (WLAN), Wireless-Fidelity (Wi-Fi), Wireless Fidelity (Wi-Fi) Direct, Digital Living Network Alliance (DLNA), Wireless Broadband (WiBro), and WiMAX (World).
  • the internet module 113 transmits and receives data according to at least one wireless internet technology in a range including the internet technologies not listed above.
  • the wireless Internet access is performed through a mobile communication network.
  • the module 113 may be understood as a kind of the mobile communication module 112.
  • the short range communication module 114 is for short range communication, and includes Bluetooth TM, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and NFC. (Near Field Communication), at least one of Wi-Fi (Wireless-Fidelity), Wi-Fi Direct, Wireless USB (Wireless Universal Serial Bus) technology can be used to support short-range communication.
  • the short-range communication module 114 may be configured between a mobile terminal 100 and a wireless communication system, between the mobile terminal 100 and another mobile terminal 100, or through the wireless area networks. ) And a network in which the other mobile terminal 100 (or an external server) is located.
  • the short range wireless communication network may be short range wireless personal area networks.
  • the other mobile terminal 100 is a wearable device capable of exchanging (or interworking) data with the mobile terminal 100 according to the present invention (for example, smartwatch, smart glasses). (smart glass), neckband, head mounted display (HMD).
  • the short range communication module 114 may sense (or recognize) a wearable device that can communicate with the mobile terminal 100, around the mobile terminal 100.
  • the processor 120 may include at least a portion of data processed by the mobile terminal 100 in the short range communication module ( The transmission may be transmitted to the wearable device through 114. Therefore, the user of the wearable device may use data processed by the mobile terminal 100 through the wearable device.
  • the user when a user receives a phone call, the user performs a phone call through the wearable device, or when a message is received by the mobile terminal 100, the user receives the received call through the wearable device. It is possible to check the message.
  • screen mirroring is performed with the local area communication module 114 with a display located in a home or a car, for example, and a corresponding function is performed based on a MirrorLink or Miracast standard.
  • the mobile terminal 100 may be used to directly control a display inside a TV or a vehicle.
  • the location information module 115 is a module for obtaining a location (or current location) of a mobile terminal, and a representative example thereof is a Global Positioning System (GPS) module or a Wireless Fidelity (WiFi) module.
  • GPS Global Positioning System
  • Wi-Fi Wireless Fidelity
  • the mobile terminal may acquire the location of the mobile terminal using a signal transmitted from a GPS satellite.
  • the mobile terminal may acquire the location of the mobile terminal based on information of the wireless access point (AP) transmitting or receiving the Wi-Fi module and the wireless signal.
  • the location information module 115 may perform any function of other modules of the transceiver 110 to alternately or additionally obtain data regarding the location of the mobile terminal.
  • the location information module 115 is a module used to obtain the location (or current location) of the mobile terminal, and is not limited to a module that directly calculates or obtains the location of the mobile terminal.
  • Each of the broadcast receiving module 111, the mobile communication module 112, the short range communication module 114, and the location information module 115 may be implemented as a separate module for performing a corresponding function, or the broadcast receiving module 111, Functions corresponding to two or more of the mobile communication module 112, the short range communication module 114, and the location information module 115 may be implemented by one module.
  • the input unit 170 is for inputting image information (or signal), audio information (or signal), data, or information input from a user, and for inputting image information, the mobile terminal 100 is one.
  • a plurality of cameras 171 may be provided.
  • the camera 171 processes image frames such as still images or moving images obtained by the image sensor in the video call mode or the photographing mode.
  • the processed image frame may be displayed on the display unit 151 or stored in the memory 130.
  • the plurality of cameras 171 provided in the mobile terminal 100 may be arranged to form a matrix structure, and through the camera 171 forming a matrix structure as described above, various angles or focuses are provided to the mobile terminal 100.
  • the plurality of pieces of image information may be input.
  • the plurality of cameras 171 may be arranged in a stereo structure to obtain a left image and a right image for implementing a stereoscopic image.
  • the microphone 172 processes external sound signals into electrical voice data.
  • the processed voice data may be variously used according to a function (or an application program being executed) performed by the mobile terminal 100. Meanwhile, various noise reduction algorithms may be implemented in the microphone 172 to remove noise generated in the process of receiving an external sound signal.
  • the user input unit 173 is for receiving information from a user. When information is input through the user input unit 173, the processor 120 may control an operation of the mobile terminal 100 to correspond to the input information.
  • the user input unit 173 may be a mechanical input unit (or a mechanical key, for example, a button, a dome switch, a jog wheel, or the like located on the front, rear, or side surfaces of the mobile terminal 100). Jog switch, etc.) and touch input means.
  • the touch input means may include a virtual key, a soft key, or a visual key displayed on the touch screen through a software process, or a portion other than the touch screen. It may be made of a touch key disposed in the.
  • the virtual key or the visual key may be displayed on the touch screen while having various forms, for example, graphic, text, icon, video, or the like. It can be made of a combination of.
  • the sensing unit 140 senses at least one of information in the mobile terminal, surrounding environment information surrounding the mobile terminal, and user information, and generates a sensing signal corresponding thereto.
  • the processor 120 may control driving or operation of the mobile terminal 100 or perform data processing, function, or operation related to an application program installed in the mobile terminal 100 based on the sensing signal. Representative sensors among various sensors that may be included in the sensing unit 140 will be described in more detail.
  • the proximity sensor 141 refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or an object present in the vicinity without using a mechanical contact by using an electromagnetic force or infrared rays.
  • the proximity sensor 141 may be disposed in an inner region of the mobile terminal covered by the touch screen described above or near the touch screen.
  • the proximity sensor 141 examples include a transmission photoelectric sensor, a direct reflection photoelectric sensor, a mirror reflection photoelectric sensor, a high frequency oscillation proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor.
  • the proximity sensor 141 may be configured to detect the proximity of the object by the change of the electric field according to the proximity of the conductive object.
  • the touch screen (or touch sensor) itself may be classified as a proximity sensor.
  • the proximity sensor 141 may detect a proximity touch and a proximity touch pattern (for example, a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, and a proximity touch movement state). have.
  • the processor 120 processes data (or information) corresponding to the proximity touch operation and the proximity touch pattern detected through the proximity sensor 141 as described above, and further, provides visual information corresponding to the processed data. It can be output on the touch screen. Furthermore, the processor 120 may control the mobile terminal 100 to process different operations or data (or information) according to whether the touch on the same point on the touch screen is a proximity touch or a touch touch. .
  • the touch sensor senses a touch (or touch input) applied to the touch screen (or the display unit 151) using at least one of various touch methods such as a resistive film method, a capacitive method, an infrared method, an ultrasonic method, and a magnetic field method. do.
  • the touch sensor may be configured to convert a change in pressure applied to a specific portion of the touch screen or capacitance generated at the specific portion into an electrical input signal.
  • the touch sensor may be configured to detect a position, an area, a pressure at the touch, a capacitance at the touch, and the like, when the touch object applying the touch on the touch screen is touched on the touch sensor.
  • the touch object is an object applying a touch to the touch sensor and may be, for example, a finger, a touch pen or a stylus pen, a pointer, or the like.
  • the touch controller processes the signal (s) and then transmits the corresponding data to the processor 120.
  • the processor 120 may determine which area of the display unit 151 is touched.
  • the touch controller may be a separate component from the processor 120 or may be the processor 120 itself.
  • the processor 120 may perform different control or perform the same control according to the type of the touch object that touches the touch screen (or a touch key provided in addition to the touch screen). Whether to perform different control or the same control according to the type of touch object may be determined according to the operation state of the mobile terminal 100 or an application program being executed.
  • the touch sensor and the proximity sensor described above may be independently or combined, and may be a short (or tap) touch, a long touch, a multi touch, a drag touch on a touch screen. ), Flick touch, pinch-in touch, pinch-out touch, swipe touch, hovering touch, etc. A touch can be sensed.
  • the ultrasonic sensor may recognize location information of a sensing object using ultrasonic waves.
  • the processor 120 may calculate the position of the wave generation source through the information detected by the optical sensor and the plurality of ultrasonic sensors.
  • the position of the wave source can be calculated using the property that the light is much faster than the ultrasonic wave, that is, the time that the light reaches the optical sensor is much faster than the time when the ultrasonic wave reaches the ultrasonic sensor. More specifically, the position of the wave generation source may be calculated using a time difference from the time when the ultrasonic wave reaches the light as the reference signal.
  • the camera 171 which has been described as the configuration of the input unit 170, includes at least one of a camera sensor (eg, CCD, CMOS, etc.), a photo sensor (or an image sensor), and a laser sensor.
  • a camera sensor eg, CCD, CMOS, etc.
  • a photo sensor or an image sensor
  • a laser sensor e.g., a laser sensor
  • the camera 171 and the laser sensor may be combined with each other to detect a touch of a sensing object with respect to a 3D stereoscopic image.
  • the photo sensor may be stacked on the display element, which is configured to scan the movement of the sensing object in proximity to the touch screen. More specifically, the photo sensor mounts a photo diode and a transistor (TR) in a row / column to scan contents loaded on the photo sensor by using an electrical signal that changes according to the amount of light applied to the photo diode. That is, the photo sensor calculates coordinates of the sensing object according to the amount of light change, and thus, the position information of the sensing object can be obtained.
  • TR transistor
  • the display unit 151 displays (outputs) information processed by the mobile terminal 100.
  • the display unit 151 may display execution screen information of an application program driven in the mobile terminal 100 or user interface (UI) and graphical user interface (GUI) information according to the execution screen information. .
  • UI user interface
  • GUI graphical user interface
  • the display unit 151 may be configured as a stereoscopic display unit for displaying a stereoscopic image.
  • the stereoscopic display unit may be a three-dimensional display method such as a stereoscopic method (glasses method), an auto stereoscopic method (glasses-free method), a projection method (holographic method).
  • the sound output unit 152 may output audio data received from the transceiver 110 or stored in the memory 130 in a call signal reception, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, and the like.
  • the sound output unit 152 may also output a sound signal related to a function (for example, a call signal reception sound or a message reception sound) performed in the mobile terminal 100.
  • the sound output unit 152 may include a receiver, a speaker, a buzzer, and the like.
  • the haptic module 153 generates various haptic effects that a user can feel.
  • a representative example of the tactile effect generated by the haptic module 153 may be vibration.
  • the intensity and pattern of vibration generated by the haptic module 153 may be controlled by user selection or processor setting. For example, the haptic module 153 may synthesize different vibrations and output or sequentially output them.
  • the haptic module 153 may be used to stimulate pins that vertically move with respect to the contact skin surface, jetting force or suction force of air through the jetting or suction port, grazing to the skin surface, contact of electrodes, and electrostatic force.
  • Various tactile effects can be generated, such as effects by the endothermic and the reproduction of a sense of cold using the elements capable of endotherm or heat generation.
  • the haptic module 153 may not only deliver a tactile effect through direct contact, but also may allow a user to feel the tactile effect through a muscle sense such as a finger or an arm. Two or more haptic modules 153 may be provided according to a configuration aspect of the mobile terminal 100.
  • the light output unit 154 outputs a signal for notifying occurrence of an event by using light of a light source of the mobile terminal 100.
  • Examples of events occurring in the mobile terminal 100 may be message reception, call signal reception, missed call, alarm, schedule notification, email reception, information reception through an application, and the like.
  • the signal output from the light output unit 154 is implemented as the mobile terminal emits light of a single color or a plurality of colors to the front or the rear.
  • the signal output may be terminated by the mobile terminal detecting the user's event confirmation.
  • the interface unit 160 serves as a path to all external devices connected to the mobile terminal 100.
  • the interface unit 160 receives data from an external device, receives power, transfers the power to each component inside the mobile terminal 100, or transmits data inside the mobile terminal 100 to an external device.
  • the port, audio input / output (I / O) port, video input / output (I / O) port, earphone port, etc. may be included in the interface unit 160.
  • the identification module is a chip that stores a variety of information for authenticating the usage rights of the mobile terminal 100, a user identification module (UIM), subscriber identity module (SIM), universal user authentication And a universal subscriber identity module (USIM).
  • a device equipped with an identification module (hereinafter referred to as an 'identification device') may be manufactured in the form of a smart card. Therefore, the identification device may be connected to the terminal 100 through the interface unit 160.
  • the interface unit 160 may be a passage for supplying power from the cradle to the mobile terminal 100 or may be input from the cradle by a user.
  • Various command signals may be a passage through which the mobile terminal 100 is transmitted.
  • Various command signals or power input from the cradle may operate as signals for recognizing that the mobile terminal 100 is correctly mounted on the cradle.
  • the memory 130 may store a program for operating the processor 120, and may temporarily store input / output data (for example, a phone book, a message, a still image, a video, etc.).
  • the memory 130 may store data regarding vibration and sound of various patterns output when a touch is input on the touch screen.
  • the memory 130 may be a flash memory type, a hard disk type, a solid state disk type, an SSD type, a silicon disk drive type, or a multimedia card micro type. ), Card-type memory (e.g., SD or XD memory), random access memory (RAM), static random access memory (SRAM), read-only memory (ROM), electrically erasable programmable read It may include at least one type of storage medium of -only memory (PROM), programmable read-only memory (PROM), magnetic memory, magnetic disk and optical disk.
  • the mobile terminal 100 may be operated in connection with a web storage that performs a storage function of the memory 130 on the Internet.
  • the processor 120 controls the operation related to the application program, and generally the overall operation of the mobile terminal 100. For example, if the state of the mobile terminal satisfies a set condition, the processor 120 may execute or release a lock state that restricts input of a user's control command to applications.
  • the processor 120 may perform control and processing related to voice call, data communication, video call, or the like, or may perform pattern recognition processing for recognizing handwriting input or drawing input performed on a touch screen as text and images, respectively. Can be.
  • the processor 120 may control any one or a plurality of components described above in order to implement various embodiments described below on the mobile terminal 100 according to the present invention.
  • the power supply unit 190 receives an external power source and an internal power source under the control of the processor 120 to supply power for operation of each component.
  • the power supply unit 190 includes a battery, and the battery may be a built-in battery configured to be rechargeable, and may be detachably coupled to the terminal body for charging.
  • the power supply unit 190 may be provided with a connection port, the connection port may be configured as an example of the interface 160 is electrically connected to the external charger for supplying power for charging the battery.
  • the power supply unit 190 may be configured to charge the battery in a wireless manner without using the connection port.
  • the power supply unit 190 uses one or more of an inductive coupling based on a magnetic induction phenomenon or a magnetic resonance coupling based on an electromagnetic resonance phenomenon from an external wireless power transmitter. Power can be delivered.
  • various embodiments of the present disclosure may be implemented in a recording medium readable by a computer or a similar device using, for example, software, hardware, or a combination thereof.
  • the mobile terminal can be extended to a wearable device that can be worn on the body beyond the user mainly holding in the hand.
  • wearable devices include a smart watch, a smart glass, a head mounted display (HMD), and the like.
  • HMD head mounted display
  • the wearable device may be configured to exchange (or interlock) data with another mobile terminal 100.
  • the short range communication module 114 may detect (or recognize) a wearable device that can communicate around the mobile terminal 100. Further, when the detected wearable device is a device that is authenticated to communicate with the mobile terminal 100, the processor 120 may transmit at least a portion of data processed by the mobile terminal 100 through the short range communication module 114. Can be sent to. Therefore, the user may use data processed by the mobile terminal 100 through the wearable device. For example, when a call is received by the mobile terminal 100, a phone call may be performed through the wearable device, or when the message is received by the mobile terminal 100, the received message may be confirmed through the wearable device. .
  • the terminal or the mobile terminal may be a fixed or detachable terminal, a portable terminal, or one or more of the above described that is mounted inside the vehicle.
  • a mobile terminal for displaying at least one geographic area;
  • An input unit to receive a user input for the one or more displayed geographic areas; It may include a control unit for controlling the input unit and the display unit.
  • one or more RAT information may be mapped to each V2X service in each of the one or more geographic areas.
  • Geographical Areas that is, Geographical Area 1, Geographical Area 2, and Geographical Area 3 may be displayed as shown in FIG. 10 (a).
  • Geographical Areas may be Geographical Areas pre-configured in the terminal, Geographical Areas that belong to or are currently located, Geographical Areas that are subscribed or available, Geographical Areas, or Updated Geographical Areas.
  • a button for selecting from the user may be displayed on the display unit, and a text or a specific area may be a button. This is merely an example and may be displayed as another type of button for user selection.
  • the geographic area described above may be displayed as a plurality of lists.
  • the controller may display, on the display unit, RAT information mapped to one geographic area when a user input for one geographic area of the one or more geographic areas is received. For example, when there is a user's selection for Geographical Area 3 among the Geographical Area 1, Geographical Area 2, and Geographical Area 3 shown in FIG. 10 (a) (for example, when a touch input or a voice input is received from the user).
  • the RAT information mapped to the Geographical Area 3 can be displayed on the display unit.
  • the controller may display V2X service information related to the RAT information, wherein the RAT information is RAT information available in the geographical area, and the V2X service information is V2X that can use RAT. Service information.
  • the information displayed in FIG. 10 (b) may indicate information on the RAT available in the geographic area where the terminal is currently located.
  • the information on the RAT may be commercially available under such names as NR (or 5G), LTE (or 4G), LTE-A (or 4.5G), and non-3GPP (or WLAN). It can also be displayed by name.
  • NR or 5G
  • LTE or 4G
  • LTE-A or 4.5G
  • non-3GPP or WLAN
  • the RAT information may be information based on or related to the above-mentioned Tx Profile.
  • V2X service information that can use the RATs can also be displayed.
  • the service provider may be interpreted as a mobile communication provider or a service provider.
  • the controller may display a map including the one geographical area together with the RAT information on the display unit.
  • a map including the one geographical area together with the RAT information is illustrated in FIG. 11.
  • available RAT information such as geographical area, other information related to the geographic arear, and / or information provided by the service provider may be displayed together.
  • the RAT information may be based on or related to the above-mentioned Tx Profile, and may also display V2X service information for using the corresponding RAT together with the available RAT.
  • RAT information available RAT information
  • V2X service information V2X service related information
  • the terminal may display the location of the user (ie, the terminal location) on the map.
  • the terminal may move the map displayed on the display in a direction of up, down, left, right, etc. according to a user's touch and / or drag input on the display and may accumulate the map. You can change it big or small.
  • the UE may display a geographical area on a map. In this case, colors may be displayed differently for each geographic area.
  • the Geographical Area to which the current terminal belongs, or the Geographical Area in use can be displayed simultaneously with the map on the display.
  • FIG. 11B when the controller displays a map including the one or more geographic areas, the user selects a geographic area from the user (for example, when a user receives a touch input or a voice input).
  • FIG. 4 illustrates how the selected geographical area information on available RATs is displayed. That is, when a user input for a portion corresponding to one geographical area is received in the map including the one or more geographic areas, the controller may display the RAT information mapped to the one geographical area. Can be marked on.
  • the information on the RAT may be commonly used by names such as NR, LTE, LTE-A, and non-3GPP, or may be displayed by a name designated by an operator providing a service.
  • the RAT information may be information based on or related to the above-mentioned Tx Profile.
  • V2X service information that can use the RATs can also be displayed.
  • FIG. 12 illustrates an example of a specific operation of a mobile terminal in connection with a representative UE transmitting the RAT switch indication / request in Example 1 and a UE receiving the RAT switch response.
  • the user checks the RAT information and selects it on the display. To trigger the action. If a user input for any one of the RAT information displayed on the display unit is received, the controller may transmit the RAT information corresponding to the input through the communication unit.
  • the RAT list may be commonly used by RNR information such as NR, LTE, LTE-A, and non-3GPP, and may be indicated by a name designated by an operator providing a service.
  • the RAT information may be generated or related information based on the Tx Profile, may be a single RAT, or may be a combination of a plurality of RATs.
  • the UE shows that the UE, having received the above RAT switch / use (selection) indication / request from the representative UE, displays the RAT information requested by the representative UE on the display unit.
  • the UE may further display the UE list that has been accepted.
  • the receiving UE may transmit ACK (in case of 'allow') or NACK (in case of 'cancel') information on the selection screen displayed on the display according to the user's input.
  • the ACK / response may be automatically transmitted by the terminal.
  • the information on the RAT may be commercially available / used under names such as NR, LTE, LTE-A, and non-3GPP, or may be displayed as a name designated by an operator providing a service.
  • the RAT information may be generated or related information based on the Tx Profile of the representative UE and / or the received UE, may be a single RAT, or a combination of a plurality of RATs.
  • the controller of the representative UE may switch to the RAT corresponding to the transmitted RAT information only after receiving an ACK for the transmitted RAT information from all terminals included in the group and transmitting a confirm message. That is, after the representative UE receives an ACK / response from all other UEs participating in the group communication, all UEs may perform a RAT switch / use (selection) operation only after sending a confirmation message through PC5 to other UEs. You may.
  • the description of the group communication can also be applied to unicast communication.
  • the UE eg, the vehicle may display a PC5 RAT used for a specific V2X service, which may mean a selected PC5 RAT or switched PC5 RAT) on the display of the UE.
  • the display unit may be in various forms such as a dashboard of a vehicle, a dashboard, an in-vehicle navigation screen, and may be a portable user terminal device.
  • the UE may basically display information on the V2X service and information on the PC5 RAT used for the PC5 RAT used for the V2X service.
  • V2X service various granularity can be shown as follows. The following is an example and can be shown in various forms and granularities without being limited thereto, and may be used in combination.
  • Driving driving, which may include transmission of information in case of an accident), platooning, auto-driving, sensor sharing, etc. (for example, driving D, platooning P, auto-driving A, sensor sharing Separated by S)
  • PC5 RAT For the PC5 RAT used, it can be shown with various granularities as follows. The following is an example and can be shown in various forms and granularities without being limited thereto, and may be used in combination.
  • LTE RAT is indicated as LTE
  • NR RAT is indicated as NR
  • LTE RAT is indicated as LTE
  • 5G RAT as 5G
  • 4G RAT may mean LTE RAT
  • 5G RAT may mean NR RAT
  • non-3GGP RAT may also be included.
  • the UE may display the following on the display unit 151.
  • the UE may display the following on the display unit 151.
  • the display unit 151 may display 'B
  • the UE may display “ALL (5G)” on the display unit.
  • the UE may omit V2X service information on the display unit 151 and display only PC5 RAT information as '5G'.
  • the display device of the terminal may be shown in various granularity described above in a separate display device.
  • the separate display device may be in various forms such as an instrument panel, a dashboard, an in-vehicle navigation screen, and the like. It may also be displayed on both the terminal and a separate display device.
  • the separate display device may be a display device of a separate terminal.
  • 15 is a flowchart of one embodiment of the present invention.
  • the following flowchart may consist of only a few steps according to the above description and need / interpretation, and steps not shown may be added based on the above description.
  • the terminal may display one or more geographic areas on the display (S1501).
  • the RAT information mapped to the received geographic area may be displayed on the display unit (S1503).
  • the UE may switch to the RAT (S1507). If no ACK is received from all UEs in the group, the RAT change is not performed and the RAT is maintained (S1508).
  • 16 is a block diagram illustrating a terminal in which an embodiment presented in the present specification is implemented.
  • a terminal may include a geographical area information managing unit 1621, a geographical area setting managing unit 1622, a V2X service information managing unit 1623, and a RAT information managing unit 1624.
  • the geographical area manager 1621, the geographical area setup manager 1622, the geographical session manager 1622, and the geographical area information manager 1624 may be included in the processor 120 of FIG. 9.
  • the geographic area management unit 1621 determines whether the terminal is within a specific geographic area. To this end, the geographical area manager 1621 may obtain location information of the terminal.
  • the geographical area setting manager 1622 may display a setting screen (ie, a UI) related to the geographical area and receive and store an input from a user.
  • a setting screen ie, a UI
  • the geographical area session manager 1623 may establish, modify, or release a PDU session for the geographical area.
  • the geographical area information management unit 1624 receives and stores the geographical area related information received from the network, and then provides the geographical area information management unit 1621, the geographical area setting management unit 1622, and the geographical area session management unit 1623. can do.
  • the present invention described above can be embodied as computer readable codes on a medium in which a program is recorded.
  • the computer readable medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable media include hard disk drives (HDDs), solid state disks (SSDs), silicon disk drives (SDDs), ROMs, RAMs, CD-ROMs, magnetic tapes, floppy disks, optical data storage devices, and the like. This also includes implementations in the form of carrier waves (eg, transmission over the Internet).
  • the computer may also include a processor 120 of the terminal. Accordingly, the above detailed description should not be construed as limiting in all aspects and should be considered as illustrative. The scope of the invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the invention are included in the scope of the invention.
  • FIG 17 shows an example of a 5G usage scenario.
  • the 5G usage scenario shown in FIG. 17 is merely exemplary, and the technical features of the present invention may be applied to other 5G usage scenarios not shown in FIG. 17.
  • enhanced mobile broadband (eMBB) area (2) massive machine type communication (mMTC) area, and (3) high reliability.
  • eMBB enhanced mobile broadband
  • massive machine type communication (mMTC) area includes ultra-reliable and low latency communications (URLLC).
  • URLLC ultra-reliable and low latency communications
  • KPI key performance indicator
  • eMBB focuses on improving data rate, latency, user density, overall capacity and coverage of mobile broadband access.
  • eMBB aims at throughput of around 10Gbps.
  • eMBB goes far beyond basic mobile Internet access and covers media and entertainment applications in rich interactive work, cloud or augmented reality.
  • Data is one of the key drivers of 5G and may not see dedicated voice services for the first time in the 5G era.
  • voice is expected to be treated as an application program simply using the data connection provided by the communication system.
  • the main reason for the increased traffic volume is the increase in content size and the increase in the number of applications requiring high data rates.
  • Streaming services (audio and video), interactive video, and mobile Internet connections will become more popular as more devices connect to the Internet.
  • Cloud storage and applications are growing rapidly in mobile communication platforms, which can be applied to both work and entertainment.
  • Cloud storage is a special use case that drives the growth of uplink data rates.
  • 5G is also used for remote tasks in the cloud and requires much lower end-to-end delays to maintain a good user experience when tactile interfaces are used.
  • cloud gaming and video streaming is another key element that requires the enhancement of mobile broadband capabilities.
  • Entertainment is essential in smartphones and tablets anywhere, including in high mobility environments such as trains, cars and airplanes.
  • Another use case is augmented reality and information retrieval for entertainment.
  • augmented reality requires very low latency and instantaneous amount of data.
  • the mMTC is designed to enable communication between a large number of low-cost devices powered by batteries and to support applications such as smart metering, logistics, field and body sensors.
  • the mMTC targets 10 years of battery and / or about 1 million devices per km2.
  • the mMTC enables seamless sensor connectivity in all areas, creating a sensor network and is one of the most anticipated 5G use cases. Potentially, 2020 IoT devices are expected to reach 20 billion. Smart networks using industrial IoT are one of the areas where 5G plays a major role in enabling smart cities, asset tracking, smart utilities, agriculture and security infrastructure.
  • URLLC enables devices and machines to communicate very reliable and with very low latency and high availability, enabling mission-critical applications such as autonomous vehicle-to-vehicle communications and control, industrial control, factory automation, telesurgery and healthcare, smart grid and public Ideal for safety applications.
  • URLLC aims for a delay of around 1ms.
  • URLLC includes new services that will transform the industry through highly reliable / ultra-low latency links such as remote control of key infrastructure and autonomous vehicles. The level of reliability and latency is essential for smart grid control, industrial automation, robotics, drone control and coordination.
  • 5G can complement fiber-to-the-home (FTTH) and cable-based broadband (or DOCSIS) as a means of providing streams that are rated at hundreds of megabits per second to gigabits per second. This high speed may be required to deliver TVs at resolutions of 4K or higher (6K, 8K and higher) as well as virtual reality (VR) and augmented reality (AR).
  • VR and AR applications include nearly immersive sporting events. Certain applications may require special network settings. For example, in a VR game, the game company may need to integrate the core server with the network operator's edge network server to minimize latency.
  • Automotive is expected to be an important new driver for 5G, with many uses for mobile communications to vehicles. For example, entertainment for passengers demands both high capacity and high mobile broadband at the same time. This is because future users continue to expect high quality connections regardless of their location and speed.
  • Another use of the automotive sector is augmented reality dashboards.
  • the augmented reality dashboard allows the driver to identify objects in the dark above what they see through the front window.
  • the augmented reality dashboard superimposes information that tells the driver about the distance and movement of the object.
  • wireless modules enable communication between vehicles, the exchange of information between the vehicle and the supporting infrastructure, and the exchange of information between the vehicle and other connected devices (eg, devices carried by pedestrians).
  • the safety system guides alternative courses of action to help drivers drive safer, reducing the risk of an accident.
  • the next step will be a remote controlled vehicle or an autonomous vehicle.
  • This requires very reliable and very fast communication between different autonomous vehicles and / or between cars and infrastructure.
  • autonomous vehicles will perform all driving activities and allow drivers to focus on traffic anomalies that the vehicle itself cannot identify.
  • the technical requirements of autonomous vehicles require ultra-low latency and ultrafast reliability to increase traffic safety to an unachievable level.
  • Smart cities and smart homes will be embedded in high-density wireless sensor networks as an example of smart networks.
  • the distributed network of intelligent sensors will identify the conditions for cost and energy efficient maintenance of the city or home. Similar settings can be made for each hypothesis.
  • Temperature sensors, window and heating controllers, burglar alarms and appliances are all connected wirelessly. Many of these sensors typically require low data rates, low power and low cost. However, for example, real-time HD video may be required in certain types of devices for surveillance.
  • Smart grids interconnect these sensors using digital information and communication technologies to gather information and act accordingly. This information can include the behavior of suppliers and consumers, allowing smart grids to improve the distribution of fuels such as electricity in efficiency, reliability, economics, sustainability of production, and in an automated manner. Smart Grid can be viewed as another sensor network with low latency.
  • the health sector has many applications that can benefit from mobile communications.
  • the communication system may support telemedicine that provides clinical care from a distance. This can help reduce barriers to distance and improve access to health care that is not consistently available in remote rural areas. It is also used to save lives in critical care and emergencies.
  • Mobile communication based wireless sensor networks may provide remote monitoring and sensors for parameters such as heart rate and blood pressure.
  • Wireless and mobile communications are becoming increasingly important in industrial applications. Wiring is expensive to install and maintain. Thus, the possibility of replacing the cable with a reconfigurable wireless link is an attractive opportunity in many industries. However, achieving this requires that the wireless connection operates with similar cable delay, reliability, and capacity, and that management is simplified. Low latency and very low error probability are new requirements that need to be connected in 5G.
  • Logistics and freight tracking is an important use case for mobile communications that enables the tracking of inventory and packages from anywhere using a location-based information system.
  • the use of logistics and freight tracking typically requires low data rates but requires wide range and reliable location information.
  • Machine learning refers to the field of researching methodologies that define and solve various problems in the field of artificial intelligence. do.
  • Machine learning is defined as an algorithm that improves the performance of a task through a consistent experience with a task.
  • ANN Artificial Neural Network
  • the artificial neural network may be defined by a connection pattern between neurons of different layers, a learning process of updating model parameters, and an activation function generating an output value.
  • the artificial neural network may include an input layer, an output layer, and optionally one or more hidden layers. Each layer includes one or more neurons, and the artificial neural network may include synapses that connect neurons to neurons. In an artificial neural network, each neuron may output a function value of an active function for input signals, weights, and deflections input through a synapse.
  • the model parameter refers to a parameter determined through learning and includes weights of synaptic connections and deflection of neurons.
  • the hyperparameter means a parameter to be set before learning in the machine learning algorithm, and includes a learning rate, the number of iterations, a mini batch size, and an initialization function.
  • the purpose of learning artificial neural networks can be seen as determining model parameters that minimize the loss function.
  • the loss function can be used as an index for determining optimal model parameters in the learning process of artificial neural networks.
  • Machine learning can be categorized into supervised learning, unsupervised learning, and reinforcement learning.
  • Supervised learning refers to a method of learning artificial neural networks with a given label for training data, and a label indicates a correct answer (or result value) that the artificial neural network should infer when the training data is input to the artificial neural network.
  • Unsupervised learning may refer to a method of training artificial neural networks in a state where a label for training data is not given.
  • Reinforcement learning can mean a learning method that allows an agent defined in an environment to learn to choose an action or sequence of actions that maximizes cumulative reward in each state.
  • Machine learning which is implemented as a deep neural network (DNN) including a plurality of hidden layers among artificial neural networks, is called deep learning (Deep Learning), which is part of machine learning.
  • DNN deep neural network
  • Deep Learning Deep Learning
  • machine learning is used to mean deep learning.
  • a robot can mean a machine that automatically handles or operates a given task by its own ability.
  • a robot having a function of recognizing the environment, judging itself, and performing an operation may be referred to as an intelligent robot.
  • Robots can be classified into industrial, medical, household, military, etc. according to the purpose or field of use.
  • the robot may include a driving unit including an actuator or a motor to perform various physical operations such as moving a robot joint.
  • the movable robot includes a wheel, a brake, a propeller, and the like in the driving unit, and can travel on the ground or fly in the air through the driving unit.
  • Autonomous driving means a technology that drives by itself
  • autonomous vehicle means a vehicle that runs without a user's manipulation or with minimal manipulation of a user.
  • autonomous driving includes a technology of maintaining a driving lane, a technology of automatically adjusting speed such as adaptive cruise control, a technology of automatically driving along a predetermined route, a technology of automatically setting a route when a destination is set, This may include cooperative driving or group driving between several vehicles.
  • the vehicle includes a vehicle having only an internal combustion engine, a hybrid vehicle having an internal combustion engine and an electric motor together, and an electric vehicle having only an electric motor, and may include not only automobiles but also trains and motorcycles.
  • the autonomous vehicle may be viewed as a robot having an autonomous driving function.
  • Extended reality collectively refers to Virtual Reality (VR), Augmented Reality (AR), and Mixed Reality (MR).
  • VR technology provides real world objects or backgrounds only in CG images
  • AR technology provides virtual CG images on real objects images
  • MR technology mixes and combines virtual objects in the real world.
  • Graphic technology
  • MR technology is similar to AR technology in that it shows both real and virtual objects.
  • the virtual object is used as a complementary form to the real object, whereas in the MR technology, the virtual object and the real object are used in the same nature.
  • HMD Head-Mount Display
  • HUD Head-Up Display
  • mobile phone tablet PC, laptop, desktop, TV, digital signage, etc. It can be called.
  • the AI system 1 may include at least one of an AI server 200, a robot 100a, an autonomous vehicle 100b, an XR device 100c, a smartphone 100d, or a home appliance 100e.
  • This cloud network 10 is connected.
  • the robot 100a to which the AI technology is applied, the autonomous vehicle 100b, the XR device 100c, the smartphone 100d or the home appliance 100e may be referred to as the AI devices 100a to 100e.
  • the cloud network 10 may refer to a network that forms part of or exists within a cloud computing infrastructure.
  • the cloud network 10 may be configured using a 3G network, 4G or Long Term Evolution (LTE) network or a 5G network.
  • LTE Long Term Evolution
  • the devices 100a to 100e and 200 constituting the AI system 1 may be connected to each other through the cloud network 10.
  • the devices 100a to 100e and 200 may communicate with each other through the base station, they may also communicate with each other directly without passing through the base station.
  • the AI server 200 may include a server that performs AI processing and a server that performs operations on big data.
  • the AI server 200 includes at least one or more of the AI devices constituting the AI system 1, such as the robot 100a, the autonomous vehicle 100b, the XR device 100c, the smartphone 100d, or the home appliance 100e. Connected via the cloud network 10, the AI processing of the connected AI devices 100a to 100e may help at least a part.
  • the AI server 200 may train the artificial neural network according to the machine learning algorithm on behalf of the AI devices 100a to 100e and directly store the learning model or transmit the training model to the AI devices 100a to 100e.
  • the AI server 200 receives the input data from the AI device (100a to 100e), infers the result value with respect to the input data received using the training model, and generates a response or control command based on the inferred result value Can be generated and transmitted to the AI device (100a to 100e).
  • the AI devices 100a to 100e may infer a result value from input data using a direct learning model and generate a response or control command based on the inferred result value.
  • the robot 100a may be applied to an AI technology, and may be implemented as a guide robot, a transport robot, a cleaning robot, a wearable robot, an entertainment robot, a pet robot, an unmanned flying robot, or the like.
  • the robot 100a may include a robot control module for controlling an operation, and the robot control module may refer to a software module or a chip implemented in hardware.
  • the robot 100a acquires state information of the robot 100a by using sensor information obtained from various kinds of sensors, detects (recognizes) the surrounding environment and an object, generates map data, or moves a route and travels. You can decide on a plan, determine a response to a user interaction, or determine an action.
  • the robot 100a may use sensor information acquired from at least one sensor among a rider, a radar, and a camera to determine a movement route and a travel plan.
  • the robot 100a may perform the above-described operations by using a learning model composed of at least one artificial neural network.
  • the robot 100a may recognize a surrounding environment and an object using a learning model, and determine an operation using the recognized surrounding environment information or object information.
  • the learning model may be directly learned by the robot 100a or may be learned by an external device such as the AI server 200.
  • the robot 100a may perform an operation by generating a result using a direct learning model, but transmits sensor information to an external device such as the AI server 200 and receives the result generated accordingly to perform an operation. You may.
  • the robot 100a determines a moving route and a traveling plan by using at least one of map data, object information detected from sensor information, or object information obtained from an external device, and controls the driving unit to determine the moving route and the traveling plan. Accordingly, the robot 100a may be driven.
  • the map data may include object identification information about various objects arranged in a space in which the robot 100a moves.
  • the map data may include object identification information about fixed objects such as walls and doors and movable objects such as flower pots and desks.
  • the object identification information may include a name, type, distance, location, and the like.
  • the robot 100a may control the driving unit based on the control / interaction of the user, thereby performing an operation or driving.
  • the robot 100a may acquire the intention information of the interaction according to the user's motion or speech, and determine a response based on the acquired intention information to perform the operation.
  • the autonomous vehicle 100b may be implemented by an AI technology and implemented as a mobile robot, a vehicle, an unmanned aerial vehicle, or the like.
  • the autonomous vehicle 100b may include an autonomous driving control module for controlling the autonomous driving function, and the autonomous driving control module may refer to a software module or a chip implemented in hardware.
  • the autonomous driving control module may be included inside as a configuration of the autonomous driving vehicle 100b, but may be connected to the outside of the autonomous driving vehicle 100b as a separate hardware.
  • the autonomous vehicle 100b obtains state information of the autonomous vehicle 100b by using sensor information obtained from various types of sensors, detects (recognizes) the surrounding environment and an object, generates map data, A travel route and a travel plan can be determined, or an action can be determined.
  • the autonomous vehicle 100b may use sensor information acquired from at least one sensor among a lidar, a radar, and a camera, similarly to the robot 100a, to determine a movement route and a travel plan.
  • the autonomous vehicle 100b may receive or recognize sensor information from external devices or receive information directly recognized from external devices. .
  • the autonomous vehicle 100b may perform the above operations by using a learning model composed of at least one artificial neural network.
  • the autonomous vehicle 100b may recognize a surrounding environment and an object using a learning model, and determine a driving line using the recognized surrounding environment information or object information.
  • the learning model may be learned directly from the autonomous vehicle 100b or may be learned from an external device such as the AI server 200.
  • the autonomous vehicle 100b may perform an operation by generating a result using a direct learning model, but transmits sensor information to an external device such as the AI server 200 and receives the result generated accordingly. You can also do
  • the autonomous vehicle 100b determines a moving route and a driving plan by using at least one of map data, object information detected from sensor information, or object information obtained from an external device, and controls the driving unit to determine the moving route and the driving plan. According to the plan, the autonomous vehicle 100b can be driven.
  • the map data may include object identification information for various objects arranged in a space (eg, a road) on which the autonomous vehicle 100b travels.
  • the map data may include object identification information about fixed objects such as street lights, rocks, buildings, and movable objects such as vehicles and pedestrians.
  • the object identification information may include a name, type, distance, location, and the like.
  • the autonomous vehicle 100b may perform an operation or drive by controlling the driving unit based on the user's control / interaction.
  • the autonomous vehicle 100b may acquire the intention information of the interaction according to the user's motion or voice utterance and determine the response based on the obtained intention information to perform the operation.
  • the XR device 100c is applied with AI technology, and includes a head-mount display (HMD), a head-up display (HUD) installed in a vehicle, a television, a mobile phone, a smartphone, a computer, a wearable device, a home appliance, and a digital signage. It may be implemented as a vehicle, a fixed robot or a mobile robot.
  • HMD head-mount display
  • HUD head-up display
  • the XR apparatus 100c analyzes three-dimensional point cloud data or image data acquired through various sensors or from an external device to generate location data and attribute data for three-dimensional points, thereby providing information on the surrounding space or reality object. It can obtain and render XR object to output. For example, the XR apparatus 100c may output an XR object including additional information about the recognized object in correspondence with the recognized object.
  • the XR apparatus 100c may perform the above-described operations using a learning model composed of at least one artificial neural network.
  • the XR apparatus 100c may recognize a reality object in 3D point cloud data or image data using a learning model, and may provide information corresponding to the recognized reality object.
  • the learning model may be learned directly from the XR device 100c or learned from an external device such as the AI server 200.
  • the XR device 100c may perform an operation by generating a result using a direct learning model, but transmits sensor information to an external device such as the AI server 200 and receives the result generated accordingly. You can also do
  • the robot 100a may be applied to an AI technology and an autonomous driving technology, and may be implemented as a guide robot, a transport robot, a cleaning robot, a wearable robot, an entertainment robot, a pet robot, an unmanned flying robot, or the like.
  • the robot 100a to which the AI technology and the autonomous driving technology are applied may mean a robot itself having an autonomous driving function or a robot 100a interacting with the autonomous vehicle 100b.
  • the robot 100a having an autonomous driving function may collectively move devices by moving according to a given copper wire or determine the copper wire by itself without the user's control.
  • the robot 100a and the autonomous vehicle 100b having the autonomous driving function may use a common sensing method to determine one or more of a moving route or a driving plan.
  • the robot 100a and the autonomous vehicle 100b having the autonomous driving function may determine one or more of the movement route or the driving plan by using information sensed through the lidar, the radar, and the camera.
  • the robot 100a interacting with the autonomous vehicle 100b is present separately from the autonomous vehicle 100b and is linked to the autonomous driving function inside or outside the autonomous vehicle 100b, or the autonomous vehicle 100b. ) Can be performed in conjunction with the user aboard.
  • the robot 100a interacting with the autonomous vehicle 100b acquires sensor information on behalf of the autonomous vehicle 100b and provides the sensor information to the autonomous vehicle 100b or obtains sensor information and displays the surrounding environment information or By generating object information and providing the object information to the autonomous vehicle 100b, the autonomous vehicle function of the autonomous vehicle 100b can be controlled or assisted.
  • the robot 100a interacting with the autonomous vehicle 100b may monitor a user in the autonomous vehicle 100b or control a function of the autonomous vehicle 100b through interaction with the user. .
  • the robot 100a may activate the autonomous driving function of the autonomous vehicle 100b or assist control of the driver of the autonomous vehicle 100b.
  • the function of the autonomous vehicle 100b controlled by the robot 100a may include not only an autonomous vehicle function but also a function provided by a navigation system or an audio system provided inside the autonomous vehicle 100b.
  • the robot 100a interacting with the autonomous vehicle 100b may provide information or assist a function to the autonomous vehicle 100b outside the autonomous vehicle 100b.
  • the robot 100a may provide traffic information including signal information to the autonomous vehicle 100b, such as a smart signal light, or may interact with the autonomous vehicle 100b, such as an automatic electric charger of an electric vehicle. You can also automatically connect an electric charger to the charging port.
  • the robot 100a may be implemented with an AI technology and an XR technology, and may be implemented as a guide robot, a transport robot, a cleaning robot, a wearable robot, an entertainment robot, a pet robot, an unmanned flying robot, a drone, or the like.
  • the robot 100a to which the XR technology is applied may mean a robot that is the object of control / interaction in the XR image.
  • the robot 100a may be distinguished from the XR apparatus 100c and interlocked with each other.
  • the robot 100a When the robot 100a that is the object of control / interaction in the XR image acquires sensor information from sensors including a camera, the robot 100a or the XR apparatus 100c generates an XR image based on the sensor information. In addition, the XR apparatus 100c may output the generated XR image. The robot 100a may operate based on a control signal input through the XR apparatus 100c or user interaction.
  • the user may check an XR image corresponding to the viewpoint of the robot 100a that is remotely linked through an external device such as the XR device 100c, and may adjust the autonomous driving path of the robot 100a through interaction. You can control the movement or driving, or check the information of the surrounding objects.
  • the autonomous vehicle 100b may be implemented by an AI technology and an XR technology, such as a mobile robot, a vehicle, an unmanned aerial vehicle, and the like.
  • the autonomous vehicle 100b to which the XR technology is applied may mean an autonomous vehicle provided with means for providing an XR image, or an autonomous vehicle that is the object of control / interaction in the XR image.
  • the autonomous vehicle 100b, which is the object of control / interaction in the XR image is distinguished from the XR apparatus 100c and may be linked with each other.
  • the autonomous vehicle 100b having means for providing an XR image may acquire sensor information from sensors including a camera and output an XR image generated based on the acquired sensor information.
  • the autonomous vehicle 100b may provide an XR object corresponding to a real object or an object on the screen by providing an HR to output an XR image.
  • the XR object when the XR object is output to the HUD, at least a part of the XR object may be output to overlap the actual object to which the occupant's eyes are directed.
  • the XR object when the XR object is output on the display provided inside the autonomous vehicle 100b, at least a part of the XR object may be output to overlap the object in the screen.
  • the autonomous vehicle 100b may output XR objects corresponding to objects such as a road, another vehicle, a traffic light, a traffic sign, a motorcycle, a pedestrian, a building, and the like.
  • the autonomous vehicle 100b that is the object of control / interaction in the XR image acquires sensor information from sensors including a camera
  • the autonomous vehicle 100b or the XR apparatus 100c may be based on the sensor information.
  • the XR image may be generated, and the XR apparatus 100c may output the generated XR image.
  • the autonomous vehicle 100b may operate based on a user's interaction or a control signal input through an external device such as the XR apparatus 100c.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

본 발명의 일 실시예는, 하나 이상의 Geographical Area를 표시하는 디스플레이부; 상기 표시된 하나 이상의 Geographical Area에 대한 사용자 입력을 수신하는 입력부; 상기 입력부 및 디스플레이부를 제어하는 제어부를 포함하고, 상기 하나 이상의 Geographical Area 각각에는 V2X 서비스 별로 하나 이상의 RAT 정보가 매핑되어 있는 것인, 이동 단말기이다.

Description

RAT 변경에 관련된 동작을 수행하는 이동 단말기
이하의 설명은 무선 통신 시스템에 대한 것으로, 보다 구체적으로는 3GPP 5G System (5G 이동통신 시스템, 차세대 이동통신 시스템)과 EPS를 통해 V2X 서비스를 효율적으로 제공하는 이동 단말기에 대한 것이다.
무선 통신 시스템이 음성이나 데이터 등과 같은 다양한 종류의 통신 서비스를 제공하기 위해 광범위하게 전개되고 있다. 일반적으로 무선 통신 시스템은 가용한 시스템 자원(대역폭, 전송 파워 등)을 공유하여 다중 사용자와의 통신을 지원할 수 있는 다중 접속(multiple access) 시스템이다. 다중 접속 시스템의 예들로는 CDMA(code division multiple access) 시스템, FDMA(frequency division multiple access) 시스템, TDMA(time division multiple access) 시스템, OFDMA(orthogonal frequency division multiple access) 시스템, SC-FDMA(single carrier frequency division multiple access) 시스템, MC-FDMA(multi carrier frequency division multiple access) 시스템 등이 있다.
본 발명에서는 V2X UE가 RAT 변경에 관련된 동작을 수행할 때 구체적으로 어떻게 구현되는지에 대한 방법들을 기술적 과제로 한다.
본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 발명의 일 실시예는, 하나 이상의 Geographical Area를 표시하는 디스플레이부; 상기 표시된 하나 이상의 Geographical Area에 대한 사용자 입력을 수신하는 입력부; 상기 입력부 및 디스플레이부를 제어하는 제어부를 포함하고, 상기 하나 이상의 Geographical Area 각각에는 V2X 서비스 별로 하나 이상의 RAT 정보가 매핑되어 있는 것인, 이동 단말기이다.
상기 제어부는, 상기 입력부에 상기 하나 이상의 Geographical Area 중 하나의 Geographical Area에 대한 사용자 입력이 수신되면, 상기 하나의 Geographical Area에 매핑되어 있는 RAT 정보를 상기 디스플레이부에 표시할 수 있다.
상기 제어부는 상기 RAT 정보에 관련된 V2X 서비스 정보를 함께 표시할 수 있다.
상기 RAT 정보는 상기 Geographical Area에서 사용 가능한 RAT 정보일 수 있다.
상기 V2X 서비스 정보는 RAT을 이용할 수 있는 V2X 서비스 정보일 수 있다.
상기 제어부는, 상기 하나의 Geographical Area를 포함하는 지도를 상기 RAT 정보와 함께 상기 디스플레이부에 표시할 수 있다.
상기 제어부는, 상기 디스플레이부에 표시된 상기 RAT 정보 중 어느 하나에 대한 사용자 입력이 수신되면, 입력에 해당하는 RAT 정보를 통신부를 통해 그룹에 포함된 단말들에게 전송할 수 있다.
상기 제어부는, 상기 전송된 RAT 정보에 대한 ACK을 상기 그룹에 포함된 모든 단말들로부터 수신하고 confirm 메시지를 전송한 이후에만 상기 전송된 RAT 정보에 해당하는 RAT으로 스위칭할 수 있다.
상기 제어부는, 상기 하나 이상의 Geographical Area를 포함하는 지도를 상기 디스플레이부에 표시할 수 있다.
상기 제어부는, 상기 입력부에 상기 하나 이상의 Geographical Area를 포함하는 지도에서 하나의 Geographical Area에 해당하는 부분에 대한 사용자 입력이 수신되면, 상기 하나의 Geographical Area에 매핑되어 있는 RAT 정보를 상기 디스플레이부에 표시할 수 있다.
상기 제어부는, 상기 디스플레이부에 표시된 상기 RAT 정보 중 어느 하나에 대한 사용자 입력이 수신되면, 입력에 해당하는 RAT 정보를 통신부를 통해 전송할 수 있다.
상기 제어부는, 상기 전송된 RAT 정보에 대한 ACK을 상기 그룹에 포함된 모든 단말들로부터 수신하고 confirm 메시지를 전송한 이후에만 상기 전송된 RAT 정보에 해당하는 RAT으로 스위칭할 수 있다.
상기 이동 단말기는 Geographical Area 정보 관리부, Geographical Area 설정 관리부, V2X 서비스 정보 관리부 또는 RAT 정보 관리부 중 하나 이상을 포함할 수 있다.
상기 Geographical Area 영역 관리부는 단말이 특정 Geographical Area 영역 내에 있는지를 판단할 수 있다.
상기 Geographical Area 영역 관리부는 이동 단말기의 위치정보를 획득할 수 있다.
상기 Geographical Area 설정 관리부는 Geographical Area 와 관련된 설정 화면을 표시하고 사용자로부터 입력을 수신하여 저장할 수 있다.
상기 Geographical Area 세션 관리부는 Geographical Area을 위한 PDU 세션을 수립, 수정, 해제 중 하나를 수행할 수 있다.
상기 Geographical Area 정보 관리부는 네트워크로부터 수신한 Geographical Area 관련 정보를 수신 및 저장한 후, 상기 Geographical Area 영역 관리부, Geographical Area 설정 관리부 그리고 Geographical Area 세션 관리부에 제공할 수 있다.
상기 이동 단말기는 이동 단말기 혹은 자율 주행 차량에 탑재 되는 장치일 수 있다.
상기 이동 단말기는 네트워크 및 자율 주행 차량 중 적어도 하나와 통신할 수 있다.
본 발명에 따르면, V2X 특유의 서비스를 지원하면서 RAT 변경을 수행할 수 있다.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 명세서에 첨부되는 도면은 본 발명에 대한 이해를 제공하기 위한 것으로서 본 발명의 다양한 실시형태들을 나타내고 명세서의 기재와 함께 본 발명의 원리를 설명하기 위한 것이다.
도 1은 EPC(Evolved Packet Core)를 포함하는 EPS(Evolved Packet System)의 개략적인 구조를 나타내는 도면이다.
도 2는 일반적인 E-UTRAN과 EPC의 아키텍처를 나타낸 예시도이다.
도 3은 제어 평면에서의 무선 인터페이스 프로토콜의 구조를 나타낸 예시도이다.
도 4는 사용자 평면에서의 무선 인터페이스 프로토콜의 구조를 나타낸 예시도이다.
도 5는 랜덤 액세스 과정을 설명하기 위한 흐름도이다.
도 6은 무선자원제어(RRC) 계층에서의 연결 과정을 나타내는 도면이다.
도 7은 5G 시스템을 설명하기 위한 도면이다.
도 8은 본 발명의 실시예에서의 매핑 정보의 예를 나타낸다.
도 9 내지 도 14는 본 발명의 실시예들이 이동 단말기에서 구현되는 것을 설명하기 위한 도면이다.
도 15는 본 발명의 일 실시예를 설명하기 위한 순서도이다.
도 16은 본 발명의 일 실시예에 의한 블록도이다.
도 17은 본 발멸의 실시예가 적용될 수 있는 기술 영역을 표시한다.
도 18은 본 발명의 일 실시 예에 따른 AI 시스템을 나타낸다.
이하의 실시예들은 본 발명의 구성요소들과 특징들을 소정 형태로 결합한 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려될 수 있다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 본 발명의 실시예를 구성할 수도 있다. 본 발명의 실시예들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시예의 일부 구성이나 특징은 다른 실시예에 포함될 수 있고, 또는 다른 실시예의 대응하는 구성 또는 특징과 교체될 수 있다.
이하의 설명에서 사용되는 특정 용어들은 본 발명의 이해를 돕기 위해서 제공된 것이며, 이러한 특정 용어의 사용은 본 발명의 기술적 사상을 벗어나지 않는 범위에서 다른 형태로 변경될 수 있다.
몇몇 경우, 본 발명의 개념이 모호해지는 것을 피하기 위하여 공지의 구조 및 장치는 생략되거나, 각 구조 및 장치의 핵심기능을 중심으로 한 블록도 형식으로 도시될 수 있다. 또한, 본 명세서 전체에서 동일한 구성요소에 대해서는 동일한 도면 부호를 사용하여 설명한다.
본 발명의 실시예들은 IEEE(Institute of Electrical and Electronics Engineers) 802 계열 시스템, 3GPP 시스템, 3GPP LTE 및 LTE-A 시스템 및 3GPP2 시스템 중 적어도 하나에 관련하여 개시된 표준 문서들에 의해 뒷받침될 수 있다. 즉, 본 발명의 실시예들 중 본 발명의 기술적 사상을 명확히 드러내기 위해 설명하지 않은 단계들 또는 부분들은 상기 문서들에 의해 뒷받침될 수 있다. 또한, 본 문서에서 개시하고 있는 모든 용어들은 상기 표준 문서에 의해 설명될 수 있다.
이하의 기술은 다양한 무선 통신 시스템에서 사용될 수 있다. 명확성을 위하여 이하에서는 3GPP LTE 및 3GPP LTE-A 시스템을 위주로 설명하지만 본 발명의 기술적 사상이 이에 제한되는 것은 아니다.
본 문서에서 사용되는 용어들은 다음과 같이 정의된다.
- UMTS(Universal Mobile Telecommunications System): 3GPP에 의해서 개발된, GSM(Global System for Mobile Communication) 기반의 3 세대(Generation) 이동 통신 기술.
- EPS(Evolved Packet System): IP(Internet Protocol) 기반의 PS(packet switched) 코어 네트워크인 EPC(Evolved Packet Core)와 LTE/UTRAN 등의 액세스 네트워크로 구성된 네트워크 시스템. UMTS가 진화된 형태의 네트워크이다.
- NodeB: GERAN/UTRAN의 기지국. 옥외에 설치하며 커버리지는 매크로 셀(macro cell) 규모이다.
- eNodeB: E-UTRAN의 기지국. 옥외에 설치하며 커버리지는 매크로 셀(macro cell) 규모이다.
- UE(User Equipment): 사용자 기기. UE는 단말(terminal), ME(Mobile Equipment), MS(Mobile Station) 등의 용어로 언급될 수도 있다. 또한, UE는 노트북, 휴대폰, PDA(Personal Digital Assistant), 스마트 폰, 멀티미디어 기기 등과 같이 휴대 가능한 기기일 수 있고, 또는 PC(Personal Computer), 차량 탑재 장치와 같이 휴대 불가능한 기기일 수도 있다. MTC 관련 내용에서 UE 또는 단말이라는 용어는 MTC 디바이스를 지칭할 수 있다.
- HNB(Home NodeB): UMTS 네트워크의 기지국으로서 옥내에 설치하며 커버리지는 마이크로 셀(micro cell) 규모이다.
- HeNB(Home eNodeB): EPS 네트워크의 기지국으로서 옥내에 설치하며 커버리지는 마이크로 셀 규모이다.
- MME(Mobility Management Entity): 이동성 관리(Mobility Management; MM), 세션 관리(Session Management; SM) 기능을 수행하는 EPS 네트워크의 네트워크 노드.
- PDN-GW(Packet Data Network-Gateway)/PGW: UE IP 주소 할당, 패킷 스크리닝(screening) 및 필터링, 과금 데이터 취합(charging data collection) 기능 등을 수행하는 EPS 네트워크의 네트워크 노드.
- SGW(Serving Gateway): 이동성 앵커(mobility anchor), 패킷 라우팅(routing), 유휴(idle) 모드 패킷 버퍼링, MME가 UE를 페이징하도록 트리거링하는 기능 등을 수행하는 EPS 네트워크의 네트워크 노드.
- NAS(Non-Access Stratum): UE와 MME간의 제어 플레인(control plane)의 상위 단(stratum). LTE/UMTS 프로토콜 스택에서 UE와 코어 네트워크간의 시그널링, 트래픽 메시지를 주고 받기 위한 기능적인 계층으로서, UE의 이동성을 지원하고, UE와 PDN GW 간의 IP 연결을 수립(establish) 및 유지하는 세션 관리 절차를 지원하는 것을 주된 기능으로 한다.
- PDN(Packet Data Network): 특정 서비스를 지원하는 서버(예를 들어, MMS(Multimedia Messaging Service) 서버, WAP(Wireless Application Protocol) 서버 등)가 위치하고 있는 네트워크.
- PDN 연결: 하나의 IP 주소(하나의 IPv4 주소 및/또는 하나의 IPv6 프리픽스)로 표현되는, UE와 PDN 간의 논리적인 연결.
- RAN(Radio Access Network): 3GPP 네트워크에서 NodeB, eNodeB 및 이들을 제어하는 RNC(Radio Network Controller)를 포함하는 단위. UE 간에 존재하며 코어 네트워크로의 연결을 제공한다.
- HLR(Home Location Register)/HSS(Home Subscriber Server): 3GPP 네트워크 내의 가입자 정보를 가지고 있는 데이터베이스. HSS는 설정 저장(configuration storage), 아이덴티티 관리(identity management), 사용자 상태 저장 등의 기능을 수행할 수 있다.
- PLMN(Public Land Mobile Network): 개인들에게 이동통신 서비스를 제공할 목적으로 구성된 네트워크. 오퍼레이터 별로 구분되어 구성될 수 있다.
- Proximity Service (또는 ProSe Service 또는 Proximity based Service): 물리적으로 근접한 장치 사이의 디스커버리 및 상호 직접적인 커뮤니케이션 또는 기지국을 통한 커뮤니케이션 또는 제 3의 장치를 통한 커뮤니케이션이 가능한 서비스. 이때 사용자 평면 데이터(user plane data)는 3GPP 코어 네트워크(예를 들어, EPC)를 거치지 않고 직접 데이터 경로(direct data path)를 통해 교환된다.
EPC(Evolved Packet Core)
도 1은 EPC(Evolved Packet Core)를 포함하는 EPS(Evolved Packet System)의 개략적인 구조를 나타내는 도면이다.
EPC는 3GPP 기술들의 성능을 향상하기 위한 SAE(System Architecture Evolution)의 핵심적인 요소이다. SAE는 다양한 종류의 네트워크 간의 이동성을 지원하는 네트워크 구조를 결정하는 연구 과제에 해당한다. SAE는, 예를 들어, IP 기반으로 다양한 무선 접속 기술들을 지원하고 보다 향상된 데이터 전송 캐퍼빌리티를 제공하는 등의 최적화된 패킷-기반 시스템을 제공하는 것을 목표로 한다.
구체적으로, EPC는 3GPP LTE 시스템을 위한 IP 이동 통신 시스템의 코어 네트워크(Core Network)이며, 패킷-기반 실시간 및 비실시간 서비스를 지원할 수 있다. 기존의 이동 통신 시스템(즉, 2 세대 또는 3 세대 이동 통신 시스템)에서는 음성을 위한 CS(Circuit-Switched) 및 데이터를 위한 PS(Packet-Switched)의 2 개의 구별되는 서브-도메인을 통해서 코어 네트워크의 기능이 구현되었다. 그러나, 3 세대 이동 통신 시스템의 진화인 3GPP LTE 시스템에서는, CS 및 PS의 서브-도메인들이 하나의 IP 도메인으로 단일화되었다. 즉, 3GPP LTE 시스템에서는, IP 캐퍼빌리티(capability)를 가지는 단말과 단말 간의 연결이, IP 기반의 기지국(예를 들어, eNodeB(evolved Node B)), EPC, 애플리케이션 도메인(예를 들어, IMS(IP Multimedia Subsystem))을 통하여 구성될 수 있다. 즉, EPC는 단-대-단(end-to-end) IP 서비스 구현에 필수적인 구조이다.
EPC는 다양한 구성요소들을 포함할 수 있으며, 도 1에서는 그 중에서 일부에 해당하는, SGW(Serving Gateway), PDN GW(Packet Data Network Gateway), MME(Mobility Management Entity), SGSN(Serving GPRS(General Packet Radio Service) Supporting Node), ePDG(enhanced Packet Data Gateway)를 도시한다.
SGW(또는 S-GW)는 무선 접속 네트워크(RAN)와 코어 네트워크 사이의 경계점으로서 동작하고, eNodeB와 PDN GW 사이의 데이터 경로를 유지하는 기능을 하는 요소이다. 또한, 단말이 eNodeB에 의해서 서빙(serving)되는 영역에 걸쳐 이동하는 경우, SGW는 로컬 이동성 앵커 포인트(anchor point)의 역할을 한다. 즉, E-UTRAN (3GPP 릴리즈-8 이후에서 정의되는 Evolved-UMTS(Universal Mobile Telecommunications System) Terrestrial Radio Access Network) 내에서의 이동성을 위해서 SGW를 통해서 패킷들이 라우팅될 수 있다. 또한, SGW는 다른 3GPP 네트워크(3GPP 릴리즈-8 전에 정의되는 RAN, 예를 들어, UTRAN 또는 GERAN(GSM(Global System for Mobile Communication)/EDGE(Enhanced Data rates for Global Evolution) Radio Access Network)와의 이동성을 위한 앵커 포인트로서 기능할 수도 있다.
PDN GW(또는 P-GW)는 패킷 데이터 네트워크를 향한 데이터 인터페이스의 종료점(termination point)에 해당한다. PDN GW는 정책 집행 특징(policy enforcement features), 패킷 필터링(packet filtering), 과금 지원(charging support) 등을 지원할 수 있다. 또한, 3GPP 네트워크와 비-3GPP 네트워크 (예를 들어, I-WLAN(Interworking Wireless Local Area Network)과 같은 신뢰되지 않는 네트워크, CDMA(Code Division Multiple Access) 네트워크나 WiMax와 같은 신뢰되는 네트워크)와의 이동성 관리를 위한 앵커 포인트 역할을 할 수 있다.
도 1의 네트워크 구조의 예시에서는 SGW와 PDN GW가 별도의 게이트웨이로 구성되는 것을 나타내지만, 두 개의 게이트웨이가 단일 게이트웨이 구성 옵션(Single Gateway Configuration Option)에 따라 구현될 수도 있다.
MME는, UE의 네트워크 연결에 대한 액세스, 네트워크 자원의 할당, 트래킹(tracking), 페이징(paging), 로밍(roaming) 및 핸드오버 등을 지원하기 위한 시그널링 및 제어 기능들을 수행하는 요소이다. MME는 가입자 및 세션 관리에 관련된 제어 평면(control plane) 기능들을 제어한다. MME는 수많은 eNodeB들을 관리하고, 다른 2G/3G 네트워크에 대한 핸드오버를 위한 종래의 게이트웨이의 선택을 위한 시그널링을 수행한다. 또한, MME는 보안 과정(Security Procedures), 단말-대-네트워크 세션 핸들링(Terminal-to-network Session Handling), 유휴 단말 위치결정 관리(Idle Terminal Location Management) 등의 기능을 수행한다.
SGSN은 다른 3GPP 네트워크(예를 들어, GPRS 네트워크)에 대한 사용자의 이동성 관리 및 인증(authentication)과 같은 모든 패킷 데이터를 핸들링한다.
ePDG는 신뢰되지 않는 비-3GPP 네트워크(예를 들어, I-WLAN, WiFi 핫스팟(hotspot) 등)에 대한 보안 노드로서의 역할을 한다.
도 1을 참조하여 설명한 바와 같이, IP 캐퍼빌리티를 가지는 단말은, 3GPP 액세스는 물론 비-3GPP 액세스 기반으로도 EPC 내의 다양한 요소들을 경유하여 사업자(즉, 오퍼레이터(operator))가 제공하는 IP 서비스 네트워크(예를 들어, IMS)에 액세스할 수 있다.
또한, 도 1에서는 다양한 레퍼런스 포인트들(예를 들어, S1-U, S1-MME 등)을 도시한다. 3GPP 시스템에서는 E-UTRAN 및 EPC의 상이한 기능 개체(functional entity)들에 존재하는 2 개의 기능을 연결하는 개념적인 링크를 레퍼런스 포인트(reference point)라고 정의한다. 다음의 표 1은 도 1에 도시된 레퍼런스 포인트를 정리한 것이다. 표 1의 예시들 외에도 네트워크 구조에 따라 다양한 레퍼런스 포인트들이 존재할 수 있다.
레퍼런스 포인트 설명
S1-MME E-UTRAN와 MME 간의 제어 플레인 프로토콜에 대한 레퍼런스 포인트(Reference point for the control plane protocol between E-UTRAN and MME)
S1-U 핸드오버 동안 eNB 간 경로 스위칭 및 베어러 당 사용자 플레인 터널링에 대한 E-UTRAN와 SGW 간의 레퍼런스 포인트(Reference point between E-UTRAN and Serving GW for the per bearer user plane tunnelling and inter eNodeB path switching during handover)
S3 유휴(idle) 및/또는 활성화 상태에서 3GPP 액세스 네트워크 간 이동성에 대한 사용자 및 베어러 정보 교환을 제공하는 MME와 SGSN 간의 레퍼런스 포인트. 이 레퍼런스 포인트는 PLMN-내 또는 PLMN-간(예를 들어, PLMN-간 핸드오버의 경우)에 사용될 수 있음) (It enables user and bearer information exchange for inter 3GPP access network mobility in idle and/or active state. This reference point can be used intra-PLMN or inter-PLMN (e.g. in the case of Inter-PLMN HO).)
S4 (GPRS 코어와 SGW의 3GPP 앵커 기능 간의 관련 제어 및 이동성 지원을 제공하는 SGW와 SGSN 간의 레퍼런스 포인트. 또한, 직접 터널이 수립되지 않으면, 사용자 플레인 터널링을 제공함(It provides related control and mobility support between GPRS Core and the 3GPP Anchor function of Serving GW. In addition, if Direct Tunnel is not established, it provides the user plane tunnelling.)
S5 SGW와 PDN GW 간의 사용자 플레인 터널링 및 터널 관리를 제공하는 레퍼런스 포인트. 단말 이동성으로 인해, 그리고 요구되는 PDN 연결성을 위해서 SGW가 함께 위치하지 않은 PDN GW로의 연결이 필요한 경우, SGW 재배치를 위해서 사용됨(It provides user plane tunnelling and tunnel management between Serving GW and PDN GW. It is used for Serving GW relocation due to UE mobility and if the Serving GW needs to connect to a non-collocated PDN GW for the required PDN connectivity.)
S11 MME와 SGW 간의 레퍼런스 포인트
SGi PDN GW와 PDN 간의 레퍼런스 포인트. PDN은, 오퍼레이터 외부 공용 또는 사설 PDN이거나 예를 들어, IMS 서비스의 제공을 위한 오퍼레이터-내 PDN일 수 있음. 이 레퍼런스 포인트는 3GPP 액세스의 Gi에 해당함(It is the reference point between the PDN GW and the packet data network. Packet data network may be an operator external public or private packet data network or an intra operator packet data network, e.g. for provision of IMS services. This reference point corresponds to Gi for 3GPP accesses.)
도 1에 도시된 레퍼런스 포인트 중에서 S2a 및 S2b는 비-3GPP 인터페이스에 해당한다. S2a는 신뢰되는 비-3GPP 액세스 및 PDN GW 간의 관련 제어 및 이동성 지원을 사용자 평면에 제공하는 레퍼런스 포인트이다. S2b는 ePDG 및 PDN GW 간의 관련 제어 및 이동성 지원을 사용자 평면에 제공하는 레퍼런스 포인트이다.
도 2는 일반적인 E-UTRAN과 EPC의 아키텍처를 나타낸 예시도이다.
도시된 바와 같이, eNodeB는 RRC(Radio Resource Control) 연결이 활성화되어 있는 동안 게이트웨이로의 라우팅, 페이징 메시지의 스케줄링 및 전송, 브로드캐스터 채널(BCH)의 스케줄링 및 전송, 업링크 및 다운링크에서의 자원을 UE에게 동적 할당, eNodeB의 측정을 위한 설정 및 제공, 무선 베어러 제어, 무선 허가 제어(radio admission control), 그리고 연결 이동성 제어 등을 위한 기능을 수행할 수 있다. EPC 내에서는 페이징 발생, LTE_IDLE 상태 관리, 사용자 평면이 암호화, SAE 베어러 제어, NAS 시그널링의 암호화 및 무결성 보호 기능을 수행할 수 있다.
도 3은 단말과 기지국 사이의 제어 평면에서의 무선 인터페이스 프로토콜(Radio Interface Protocol)의 구조를 나타낸 예시도이고, 도 4는 단말과 기지국 사이의 사용자 평면에서의 무선 인터페이스 프로토콜의 구조를 나타낸 예시도이다.
상기 무선 인터페이스 프로토콜은 3GPP 무선접속망 규격을 기반으로 한다. 상기 무선 인터페이스 프로토콜은 수평적으로 물리계층(Physical Layer), 데이터링크계층(Data Link Layer) 및 네트워크계층(Network Layer)으로 이루어지며, 수직적으로는 데이터정보 전송을 위한 사용자평면(User Plane)과 제어신호(Signaling) 전달을 위한 제어평면(Control Plane)으로 구분된다.
상기 프로토콜 계층들은 통신 시스템에서 널리 알려진 개방형 시스템간 상호접속(Open System Interconnection; OSI) 기준모델의 하위 3개 계층을 바탕으로 L1 (제1계층), L2 (제2계층), L3(제3계층)로 구분될 수 있다.
이하에서, 상기 도 3에 도시된 제어 평면의 무선프로토콜과, 도 4에 도시된 사용자 평면에서의 무선 프로토콜의 각 계층을 설명한다.
제1 계층인 물리계층은 물리채널(Physical Channel)을 이용하여 정보전송서비스(Information Transfer Service)를 제공한다. 상기 물리계층은 상위에 있는 매체접속제어(Medium Access Control) 계층과는 전송 채널(Transport Channel)을 통해 연결되어 있으며, 상기 전송 채널을 통해 매체접속제어계층과 물리계층 사이의 데이터가 전달된다. 그리고, 서로 다른 물리계층 사이, 즉 송신측과 수신측의 물리계층 사이는 물리채널을 통해 데이터가 전달된다.
물리채널(Physical Channel)은 시간축 상에 있는 여러 개의 서브프레임과 주파수축상에 있는 여러 개의 서브 캐리어(Sub-carrier)로 구성된다. 여기서, 하나의 서브프레임(Sub-frame)은 시간 축 상에 복수의 심볼 (Symbol)들과 복수의 서브 캐리어들로 구성된다. 하나의 서브프레임은 복수의 자원블록(Resource Block)들로 구성되며, 하나의 자원블록은 복수의 심볼(Symbol)들과 복수의 서브캐리어들로 구성된다. 데이터가 전송되는 단위시간인 TTI(Transmission Time Interval)는 1개의 서브프레임에 해당하는 1ms이다.
상기 송신측과 수신측의 물리계층에 존재하는 물리 채널들은 3GPP LTE에 따르면, 데이터 채널인 PDSCH(Physical Downlink Shared Channel)와 PUSCH(Physical Uplink Shared Channel) 및 제어채널인 PDCCH(Physical Downlink Control Channel), PCFICH(Physical Control Format Indicator Channel), PHICH(Physical Hybrid-ARQ Indicator Channel) 및 PUCCH(Physical Uplink Control Channel)로 나눌 수 있다.
제2계층에는 여러 가지 계층이 존재한다.
먼저 제2계층의 매체접속제어 (Medium Access Control; MAC) 계층은 다양한 논리채널 (Logical Channel)을 다양한 전송채널에 매핑시키는 역할을 하며, 또한 여러 논리채널을 하나의 전송채널에 매핑시키는 논리채널 다중화 (Multiplexing)의 역할을 수행한다. MAC 계층은 상위계층인 RLC 계층과는 논리채널 (Logical Channel)로 연결되어 있으며, 논리채널은 크게 전송되는 정보의 종류에 따라 제어평면(Control Plane)의 정보를 전송하는 제어채널(Control Channel)과 사용자평면(User Plane)의 정보를 전송하는 트래픽채널(Traffic Channel)로 나뉜다.
제2 계층의 무선링크제어 (Radio Link Control; RLC) 계층은 상위계층으로부터 수신한 데이터를 분할 (Segmentation) 및 연결 (Concatenation)하여 하위계층이 무선 구간으로 데이터를 전송하기에 적합하도록 데이터 크기를 조절하는 역할을 수행한다.
제2 계층의 패킷데이터수렴 (Packet Data Convergence Protocol; PDCP) 계층은 IPv4나 IPv6와 같은 IP 패킷 전송시에 대역폭이 작은 무선 구간에서 효율적으로 전송하기 위하여 상대적으로 크기가 크고 불필요한 제어정보를 담고 있는 IP 패킷 헤더 사이즈를 줄여주는 헤더압축 (Header Compression) 기능을 수행한다. 또한, LTE 시스템에서는 PDCP 계층이 보안 (Security) 기능도 수행하는데, 이는 제 3자의 데이터 감청을 방지하는 암호화 (Ciphering)와 제 3자의 데이터 조작을 방지하는 무결성 보호 (Integrity protection)로 구성된다.
제3 계층의 가장 상부에 위치한 무선자원제어(Radio Resource Control; 이하 RRC라 약칭함) 계층은 제어평면에서만 정의되며, 무선 운반자(Radio Bearer; RB라 약칭함)들의 설정(Configuration), 재설정(Re-configuration) 및 해제(Release)와 관련되어 논리 채널, 전송 채널 및 물리 채널들의 제어를 담당한다. 이때, RB는 단말과 E-UTRAN간의 데이터 전달을 위해 제2계층에 의해 제공되는 서비스를 의미한다.
상기 단말의 RRC와 무선망의 RRC계층 사이에 RRC 연결(RRC connection)이 있을 경우, 단말은 RRC연결상태(Connected Mode)에 있게 되고, 그렇지 못할 경우 RRC유휴 모드(Idle Mode)에 있게 된다.
이하 단말의 RRC 상태 (RRC state)와 RRC 연결 방법에 대해 설명한다. RRC 상태란 단말의 RRC가 E-UTRAN의 RRC와 논리적 연결(logical connection)이 되어 있는가 아닌가를 말하며, 연결되어 있는 경우는 RRC_CONNECTED 상태(state), 연결되어 있지 않은 경우는 RRC_IDLE 상태라고 부른다. RRC_CONNECTED 상태의 단말은 RRC 연결이 존재하기 때문에 E-UTRAN은 해당 단말의 존재를 셀 단위에서 파악할 수 있으며, 따라서 단말을 효과적으로 제어할 수 있다. 반면에 RRC_IDLE 상태의 단말은 E-UTRAN이 단말의 존재를 파악할 수는 없으며, 셀 보다 더 큰 지역 단위인 TA(Tracking Area) 단위로 핵심망이 관리한다. 즉, RRC_IDLE 상태의 단말은 셀에 비하여 큰 지역 단위로 해당 단말의 존재여부만 파악되며, 음성이나 데이터와 같은 통상의 이동통신 서비스를 받기 위해서는 해당 단말이 RRC_CONNECTED 상태로 천이하여야 한다. 각 TA는 TAI(Tracking area identity)를 통해 구분된다. 단말은 셀에서 방송(broadcasting)되는 정보인 TAC(Tracking area code)를 통해 TAI를 구성할 수 있다.
사용자가 단말의 전원을 맨 처음 켰을 때, 단말은 먼저 적절한 셀을 탐색한 후 해당 셀에서 RRC 연결을 맺고, 핵심망에 단말의 정보를 등록한다. 이 후, 단말은 RRC_IDLE 상태에 머무른다. RRC_IDLE 상태에 머무르는 단말은 필요에 따라서 셀을 (재)선택하고, 시스템 정보(System information)나 페이징 정보를 살펴본다. 이를 셀에 캠프 온(Camp on)한다고 한다. RRC_IDLE 상태에 머물러 있던 단말은 RRC 연결을 맺을 필요가 있을 때 비로소 RRC 연결 과정 (RRC connection procedure)을 통해 E-UTRAN의 RRC와 RRC 연결을 맺고 RRC_CONNECTED 상태로 천이한다. RRC_IDLE 상태에 있던 단말이 RRC 연결을 맺을 필요가 있는 경우는 여러 가지가 있는데, 예를 들어 사용자의 통화 시도, 데이터 전송 시도 등이 필요하다거나, 아니면 E-UTRAN으로부터 페이징 메시지를 수신한 경우 이에 대한 응답 메시지 전송 등을 들 수 있다.
상기 RRC 계층 상위에 위치하는 NAS(Non-Access Stratum) 계층은 연결관리(Session Management)와 이동성 관리(Mobility Management)등의 기능을 수행한다.
아래는 도 3에 도시된 NAS 계층에 대하여 상세히 설명한다.
NAS 계층에 속하는 eSM (evolved Session Management)은 Default Bearer 관리, Dedicated Bearer관리와 같은 기능을 수행하여, 단말이 망으로부터 PS서비스를 이용하기 위한 제어를 담당한다. Default Bearer 자원은 특정 Packet Data Network(PDN)에 최초 접속 할 시에 망에 접속될 때 망으로부터 할당 받는다는 특징을 가진다. 이때, 네트워크는 단말이 데이터 서비스를 사용할 수 있도록 단말이 사용 가능한 IP 주소를 할당하며, 또한 default bearer의 QoS를 할당해준다. LTE에서는 크게 데이터 송수신을 위한 특정 대역폭을 보장해주는 GBR(Guaranteed bit rate) QoS 특성을 가지는 bearer와 대역폭의 보장 없이 Best effort QoS 특성을 가지는 Non-GBR bearer의 두 종류를 지원한다. Default bearer의 경우 Non-GBR bearer를 할당 받는다. Dedicated bearer의 경우에는 GBR또는 Non-GBR의 QoS특성을 가지는 bearer를 할당 받을 수 있다.
네트워크에서 단말에게 할당한 bearer를 EPS(evolved packet service) bearer라고 부르며, EPS bearer를 할당 할 때 네트워크는 하나의 ID를 할당하게 된다. 이를 EPS Bearer ID라고 부른다. 하나의 EPS bearer는 MBR(maximum bit rate) 또는/그리고 GBR(guaranteed bit rate)의 QoS 특성을 가진다.
도 5는 3GPP LTE에서 랜덤 액세스 과정을 나타낸 흐름도이다.
랜덤 액세스 과정은 UE가 기지국과 UL 동기를 얻거나 UL 무선자원을 할당받기 위해 사용된다.
UE는 루트 인덱스(root index)와 PRACH(physical random access channel) 설정 인덱스(configuration index)를 eNodeB로부터 수신한다. 각 셀마다 ZC(Zadoff-Chu) 시퀀스에 의해 정의되는 64개의 후보(candidate) 랜덤 액세스 프리앰블이 있으며, 루트 인덱스는 단말이 64개의 후보 랜덤 액세스 프리앰블을 생성하기 위한 논리적 인덱스이다.
랜덤 액세스 프리앰블의 전송은 각 셀마다 특정 시간 및 주파수 자원에 한정된다. PRACH 설정 인덱스는 랜덤 액세스 프리앰블의 전송이 가능한 특정 서브프레임과 프리앰블 포맷을 지시한다.
UE는 임의로 선택된 랜덤 액세스 프리앰블을 eNodeB로 전송한다. UE는 64개의 후보 랜덤 액세스 프리앰블 중 하나를 선택한다. 그리고, PRACH 설정 인덱스에 의해 해당되는 서브프레임을 선택한다. UE는 은 선택된 랜덤 액세스 프리앰블을 선택된 서브프레임에서 전송한다.
상기 랜덤 액세스 프리앰블을 수신한 eNodeB는 랜덤 액세스 응답(random access response, RAR)을 UE로 보낸다. 랜덤 액세스 응답은 2단계로 검출된다. 먼저 UE는 RA-RNTI(random access-RNTI)로 마스킹된 PDCCH를 검출한다. UE는 검출된 PDCCH에 의해 지시되는 PDSCH 상으로 MAC(Medium Access Control) PDU(Protocol Data Unit) 내의 랜덤 액세스 응답을 수신한다.
도 6은 무선자원제어(RRC) 계층에서의 연결 과정을 나타낸다.
도 6에 도시된 바와 같이 RRC 연결 여부에 따라 RRC 상태가 나타나 있다. 상기 RRC 상태란 UE의 RRC 계층의 엔티티(entity)가 eNodeB의 RRC 계층의 엔티티와 논리적 연결(logical connection)이 되어 있는가 아닌가를 말하며, 연결되어 있는 경우는 RRC 연결 상태(connected state)라고 하고, 연결되어 있지 않은 상태를 RRC 유휴 모드(idle state)라고 부른다.
상기 연결 상태(Connected state)의 UE는 RRC 연결(connection)이 존재하기 때문에 E-UTRAN은 해당 단말의 존재를 셀 단위에서 파악할 수 있으며, 따라서 UE를 효과적으로 제어할 수 있다. 반면에 유휴 모드(idle state)의 UE는 eNodeB가 파악할 수는 없으며, 셀 보다 더 큰 지역 단위인 트래킹 지역(Tracking Area) 단위로 핵심망(Core Network)이 관리한다. 상기 트래킹 지역(Tracking Area)은 셀들의 집합단위이다. 즉, 유휴 모드(idle state) UE는 큰 지역 단위로 존재여부만 파악되며, 음성이나 데이터와 같은 통상의 이동통신 서비스를 받기 위해서는 단말은 연결 상태(connected state)로 천이해야 한다.
사용자가 UE의 전원을 맨 처음 켰을 때, 상기 UE는 먼저 적절한 셀을 탐색한 후 해당 셀에서 유휴 모드(idle state)에 머무른다. 상기 유휴 모드(idle state)에 머물러 있던 UE는 RRC 연결을 맺을 필요가 있을 때 비로소 RRC 연결 과정(RRC connection procedure)을 통해 eNodeB의 RRC 계층과 RRC 연결을 맺고 RRC 연결 상태(connected state)로 천이한다.
상기 유휴 모드(Idle state)에 있던 UE가 RRC 연결을 맺을 필요가 있는 경우는 여러 가지가 있는데, 예를 들어 사용자의 통화 시도 또는 상향 데이터 전송 등이 필요하다거나, 아니면 EUTRAN으로부터 페이징 메시지를 수신한 경우 이에 대한 응답 메시지 전송 등을 들 수 있다.
유휴 모드(idle state)의 UE가 상기 eNodeB와 RRC 연결을 맺기 위해서는 상기한 바와 같이 RRC 연결 과정(RRC connection procedure)을 진행해야 한다. RRC 연결 과정은 크게, UE가 eNodeB로 RRC 연결 요청 (RRC connection request) 메시지 전송하는 과정, eNodeB가 UE로 RRC 연결 설정 (RRC connection setup) 메시지를 전송하는 과정, 그리고 UE가 eNodeB로 RRC 연결 설정 완료 (RRC connection setup complete) 메시지를 전송하는 과정을 포함한다. 이와 같은 과정에 대해서 도 6을 참조하여 보다 상세하게 설명하면 다음과 같다.
1) 유휴 모드(Idle state)의 UE는 통화 시도, 데이터 전송 시도, 또는 eNodeB의 페이징에 대한 응답 등의 이유로 RRC 연결을 맺고자 할 경우, 먼저 상기 UE는 RRC 연결 요청(RRC connection request) 메시지를 eNodeB로 전송한다.
2) 상기 UE로부터 RRC 연결 요청 메시지를 수신하면, 상기 eNB는 무선 자원이 충분한 경우에는 상기 UE의 RRC 연결 요청을 수락하고, 응답 메시지인 RRC 연결 설정(RRC connection setup) 메시지를 상기 UE로 전송한다.
3) 상기 UE가 상기 RRC 연결 설정 메시지를 수신하면, 상기 eNodeB로 RRC 연결 설정 완료(RRC connection setup complete) 메시지를 전송한다. 상기 UE가 RRC 연결 설정 메시지를 성공적으로 전송하면, 비로소 상기 UE는 eNodeB과 RRC 연결을 맺게 되고 RRC 연결 모드로 천이한다.
종래 EPC에서의 MME는 Next Generation system(또는 5G CN(Core Network))에서는 AMF(Core Access and Mobility Management Function)와 SMF(Session Management Function)로 분리되었다. 이에 UE와의 NAS interaction 및 MM(Mobility Management)은 AMF가, 그리고 SM(Session Management)은 SMF가 수행하게 된다. 또한 SMF는 user-plane 기능을 갖는, 즉 user traffic을 라우팅하는 gateway인 UPF(User Plane Function)를 관리하는데, 이는 종래 EPC에서 S-GW와 P-GW의 control-plane 부분은 SMF가 담당하고, user-plane 부분은 UPF가 담당하는 것으로 간주할 수 있다. User traffic의 라우팅을 위해 RAN과 DN(Data Network) 사이에 UPF는 하나 이상이 존재할 수 있다. 즉, 종래 EPC는 5G에서 도 7에 예시된 바와 같이 구성될 수 있다. 또한, 종래 EPS에서의 PDN connection에 대응하는 개념으로 5G system에서는 PDU(Protocol Data Unit) session이 정의되었다. PDU session은 IP type 뿐만 아니라 Ethernet type 또는 unstructured type의 PDU connectivity service를 제공하는 UE와 DN 간의 association을 일컫는다. 그 외에 UDM(Unified Data Management)은 EPC의 HSS에 대응되는 기능을 수행하며, PCF(Policy Control Function)은 EPC의 PCRF에 대응되는 기능을 수행한다. 물론 5G system의 요구사항을 만족하기 위해 그 기능들이 확장된 형태로 제공될 수 있다. 5G system architecture, 각 function, 각 interface에 대한 자세한 사항은 TS 23.501을 준용한다.
한편, 3GPP에서는 다음 표 2에 기재된 scope으로 advanced V2X에 대한 architecture enhancements 스터디를 진행 중에 있다 (3GPP SP-170590 참고). 이러한 스터디 내용은 TR 23.786에 기술되고 있다.
Figure PCTKR2019007446-appb-img-000001
advanced V2X에 대한 architecture enhancements 스터디는 TS 22.186에 기술된 서비스 요구사항을 만족시키고자 한다. 이러한 서비스 요구사항 중, 다음 표 3과 같은 요구사항이 있다.
Figure PCTKR2019007446-appb-img-000002
상기의 서비스 요구사항을 만족시키는 솔루션을 찾고자 TR 23.786에는 다음 표 4에 기재된 의제를 정의하고 있다.
Figure PCTKR2019007446-appb-img-000003
살펴본 바와 같이 UE가 다수의 RAT(Radio Access Technology)을 이용하여 PC5 (이는 D2D: Device to Device, 또는 ProSe: Proximity based Service를 위해 3GPP에서 정의한 인터페이스) 동작을 수행할 수 있을 때, 특정 V2X application에 대해 어떠한 RAT을 사용하면 되는지에 대한 메커니즘이 요구된다. 상기에서 RAT의 종류로는 대표적으로 LTE (즉, E-UTRA)와 NR 이 있는데, 여기에 국한되는 것은 아니며 PC5 동작이 가능한 모든 RAT이 될 수 있다.
V2X 서비스에서 가장 중요한 요소는 UE 간의 상호작용이다. 즉, 제 1 UE가 송신한 V2X 메시지를 주변을 운행하는 다른 UE들 및/또는 제 1 UE가 속한 group의 멤버 UE들이 수신 가능해야 한다. 그래야 road safety가 실현될 뿐만 아니라, platooning과 같은 협력주행이 가능해진다. 이에 이러한 사항을 고려하여, 본 발명에서는 V2X application이 PC5 동작을 위해 사용해야 하는 RAT을 선택하는 메커니즘을 제안한다.
실시예 1
본 발명의 일 실시예에 의한 제1 UE는 매핑 정보를 확인하고, 상기 매핑 정보에 따라 제1 RAT을 선택할 수 있다. 그리고, 상기 제1 RAT을 선택했다는 정보 또는 상기 제1 RAT으로의 switch를 지시하는 정보 중 하나를 포함하는 메시지를 그룹에 속한 모든 UE에게 전송할 수 있다. Switch의 경우, 상기 대표 UE가 그룹 커뮤니케이션에 참여하는 모든 UE (즉, 자신을 포함하여 해당 그룹 커뮤니케이션에 참여하는 다른 UE(s))가 상기 그룹 커뮤니케이션을 수행하는 RAT을 제 1 PC5 RAT에서 제 2 PC5 RAT으로 switch할 것을 지시한다. RAT 선택의 경우, 상기 대표 UE가 그룹 커뮤니케이션에 참여하는 모든 UE (즉, 자신을 포함하여 해당 그룹 커뮤니케이션에 참여하는 다른 UE(s))가 상기 그룹 커뮤니케이션을 수행하기 위해 사용/적용할 RAT을 선택하고, 이를 알린다. 상기 그룹 커뮤니케이션은 그룹 커뮤니케이션을 수행하도록 하는 V2X service로 해석될 수 있다.
여기서, 상기 매핑 정보는, Geographical Area에 대해, V2X service 별로 하나 이상의 RAT이 매핑되어 있는 것일 수 있다. 매핑 정보의 구체적인 내용에 대해서는 후술하기로 한다.
상기와 같이, 제1 UE는 제1 RAT의 선택/switch와 관련된 정보를 전송한 후, 상기 제1 RAT으로 RAT 선택/switch를 수행할 수 있다. 다만, 상기 그룹에 속한 모든 단말로부터, 지시 또는 선택에 대한 응답을 수신하되, 만약, 상기 그룹에 속한 단말 중 어느 한 단말이라도 상기 제1 RAT이 지원하지 않는 경우, 상기 제1 RAT의 선택/상기 제1 RAT으로의 switch는 수행되지 않을 수 있다. 대표 UE를 포함하여 그룹 커뮤니케이션에 참여하는 모든 UE는 동일 시점에 동일한 target RAT으로 RAT 선택/switch를 수행하게 된다. 사용(선택)의 경우, 대표 UE를 포함하여 그룹 커뮤니케이션에 참여하는 모든 UE는 동일한 RAT을 선택하여 사용하게 된다. Switch의 경우, 대표 UE를 포함하여 그룹 커뮤니케이션에 참여하는 모든 UE는 동일 시점에 동일한 target RAT으로 RAT switch를 수행하게 된다. 그룹에 속한 단말들의 응답과 관련하여, 대표 UE로부터 상기의 RAT switch 지시/요청을 수신한 UE는 대표 UE로 ACK/응답을 전송할 수도 있다. 추가적으로는 대표 UE가 해당 그룹 커뮤니케이션에 참여하는 다른 모든 UE들로부터 ACK/응답을 받은 후에 다른 UE들에게 confirmation message를 PC5를 통해 전송한 후에야 비로소 모든 UE들은 RAT switch 동작을 수행하도록 할 수도 있다. 대표 UE로부터 상기의 RAT 사용(선택) 지시/요청을 수신한 UE는 대표 UE로 ACK/응답을 전송할 수도 있다. 추가적으로는 대표 UE가 해당 그룹 커뮤니케이션에 참여하는 다른 모든 UE들로부터 ACK/응답을 받은 후에 다른 UE들에게 confirmation message를 PC5를 통해 전송한 후에야 비로소 모든 UE들은 RAT 사용(선택) 동작을 수행하도록 할 수도 있다.
상술한 구성을 통해 V2X 그룹에서 RAT 변경시 발생할 수 있는 문제점을 해결할 수 있다. 구체적으로, Platooning의 경우, 즉, 상기 그룹이 platooning(군집 주행)을 수행하는 그룹인 경우, 모든 UE들의 RAT 지원 capability가 동일하지 않을 수 있다. 즉 그룹 내 상기 제1 RAT을 지원하지 못하는 UE(s)가 존재하는데 나머지 UE들이 제1 RAT으로 스위치하면 상기 제1 RAT을 지원하지 못하는 UE와의 V2X communication이 불가하여 platooning 자체가 불가할 수 있다. 따라서, 이러한 RAT 지원 capability 불균등의 문제를 상기 구성을 통해 해결할 수 있다.
상기 메시지는, Target RAT 정보, 상기 제1 RAT으로의 switch를 수행하는 시간에 관련된 정보, 상기 메시지가 상기 제1 RAT을 선택했다는 정보인지 상기 제1 RAT으로의 switch를 지시하는 정보인지를 지시하는 정보, 그룹 커뮤니케이션에 대한 식별 정보, 대표 UE에 대한 식별 정보 중 하나 이상을 포함할 수 있다. 대표 UE가 다른 UE(s)에게 그룹 커뮤니케이션을 수행하는 RAT을 switch하도록 지시하기 위해 또는 선택된 RAT을 알리기 위해 PC5 메시지를 전송할 수 있다. 이러한 PC5 메시지는 상술한 정보(들)를 포함할 수 있는 것이다. 이러한 PC5 메시지는 한번 전송될 수도 있고, 유효한 시간 동안 주기적으로 전송될 수도 있다. 위 열거된 정보들에 대한 구체적인 설명은 다음과 같다.
A) Target RAT 정보: 이는 어떠한 PC5 RAT으로 switch해야 하는지 또는 어떠한 PC5 RAT을 사용(선택)해야 하는지 target이 되는 PC5 RAT 정보임.
B) Switch/사용(선택) 시점에 대한 정보: 이는 switch/사용을 지시받자마자로 지정할 수도 있고 (명시적으로 또는 이런 정보를 포함하지 않음으로써 암시적으로), 특정 시각/시간을 지정할 수도 있다. 후자의 경우, 지시를 받은 몇초후와 같이 제공할 수도 있고, 몇시 몇분 몇초에로 특정 시각을 제공할 수도 있다. 또는 후자의 경우, 지시를 받은 후 몇 개의 (전송) subframe 후에와 같이 제공할 수도 있다.
C) 상기 정보가 switch에 대한 것인지 아니면 사용(선택)에 대한 것인지를 나타내는 정보
D) 그룹 커뮤니케이션에 대한 식별 정보: 이는 V2X service에 대한 식별 정보, V2X application에 대한 식별 정보, group에 대한 식별 정보, 그룹 커뮤니케이션에 대한 식별 정보, 그룹 커뮤니케이션 시 사용하는 주소정보 (source/destination Layer-2 ID, source/destination IP 주소 등) 등 다양한 형태일 수 있다. 또한, 하나 이상일 수도 있다.
E) 대표 UE에 대한 식별 정보: 이는 application layer에서 사용되는 UE에 대한 식별 정보, 그룹 커뮤니케이션 시 사용하는 주소정보 (source Layer-2 ID, source IP 주소 등) 등 다양한 형태일 수 있다. 또한, 하나 이상일 수도 있다.
상기 제1 UE는 상기 그룹의 대표 UE일 수 있다. 상기 대표 UE는, 그룹 커뮤니케이션의 leader(예, platooning 또는 CACC(Cooperative Adaptive Cruise Control)에서 leading UE가 존재), 그룹 커뮤니케이션을 수행하는 UE들 중 진행 방향의 가장 선두에 있는 UE, 그룹 커뮤니케이션을 개시한 UE, 대표 UE로 동작하도록 지정/선출된 UE(이는 UE 스스로 지정하여 다른 UE들에게 알릴 수도 있고, network 또는 UE-type RSU가 지정할 수도 있다) 중 하나일 수 있다. 위의 정보 (예, 자신이 leader라는 정보 등)는 UE가 V2X application으로부터 획득할 수도 있고, 3GPP에서 관리하는 layer로부터 획득할 수도 있다.
대표 UE가 RAT switch 또는 사용(선택)을 결정하는 것은 UE가 결정할 수도 있고, network 또는 UE-type RSU가 지시하여 결정할 수도 있다. 상기에서 대표 UE가 다른 UE로 RAT switch 또는 사용(선택)을 지시하는 PC5 메시지를 전송 시, 이러한 PC5 메시지는 PC5-D 메시지이거나, PC5-S 메시지이거나, PC5-U 메시지이거나, 본 발명의 목적을 위해 새롭게 정의된 형태의 PC5 메시지일 수 있다. 본 발명의 목적을 위해 새롭게 정의된 형태의 PC5 메시지인 경우, 예를 들면 PC5-U에서 PDCP SDU type을 새롭게 정의하여 (예, ‘RAT switch’, ‘RAT selection’, ‘RAT configuration’, ‘RAT’ 등) 사용할 수 있다.
상술한 group communication을 위한 RAT 선택 또는 switch 방법은 unicast communication에도 적용가능하다. 이는 unicast communication을 참여하는 UE가 2개인 group communication으로 간주할 수 있기 때문이다. 그리고 group communication은 multicast communication으로 해석될 수도 있다.
한편, 상기 매핑 정보와 관련해, TR 23.786v0.6.0의 6.12절에 있는 Solution #12: 3GPP PC5 RAT selection for a V2X application에 Geographical Area가 다음과 같이 추가될 수 있다. 즉, configuration/mapping of ‘Tx Profiles’ associated with the V2X services에 Geographical Area를 추가하는 것이다. 이는 특정 지역(Geographical Area)에서 특정 V2X service를 위해 사용해야 하는 Tx Profile(s)을 설정/구성하는 것을 의미한다. Geographical Area 당 사용 가능한 Tx Profile을 리스트할 수도 있고, Tx Profile 당 사용가능한 Geographical Area가 리스트될 수도 있다. 특정 Tx Profile이 지역에 상관없이 사용가능한 경우 Geographical Area 정보를 포함하지 않거나 전지역을 가리키는 값 (예, all 또는 * 등)으로 설정할 수도 있다. 상기 V2X services는 예를 들어, PSID or ITS-AIDs of the V2X applications일 수 있다.
Tx Profile 기반 PC5 RAT selection은 broadcast 뿐만 아니라 unicast, multicast, groupcast에도 적용될 수 있다. 상기와 같이 Geographical Area의 추가는 broadcast되는 V2X service 및/또는 unicast되는 V2X service 및/또는 multicast되는 V2X service 및/또는 groupcast되는 V2X service에 적용되도록 할 수 있다.
한편, 그룹 커뮤니케이션에 사용/적용되는 RAT을 switch/선택하는 방법은 비단 RAT 뿐만이 아니라 그룹 커뮤니케이션에 사용/적용되는 다양한 configuration을 모든 UE에 대해 update 시 적용할 수 있다. 상술한 설명에서는 그룹 커뮤니케이션에 참여하는 UE들의 RAT을 switch/선택하는 방법 위주로 설명하였으나, 이는 특정 지역에 위치한 모든 UE들의 특정 V2X service 또는 모든 V2X service에 사용/적용하는 RAT을 switch/선택하는 방법으로 확장 적용될 수 있다.
한편, 상기 매핑 정보는, 상기 하나 이상의 RAT 각각이 사용될 수 있는 시간 정보, 상기 하나 이상의 RAT 각각에서 만족되어야 하는 QoS 파라미터, 상기 하나 이상의 RAT 각각의 혼잡도 중 하나 이상을 포함할 수 있다. 이하, 각각에 대해 상세히 설명한다.
a) 시간 정보 : 예를 들어, 하루 중 해당 RAT이 사용될 수 있는 시간대로 시분초의 구간 단위로 표시될 수 있다. (예를 들어, 몇시 몇분 몇초 ~ 몇시 몇분 몇초와 같이 표현 하고, 이 구간에 해당되는 시간에서 해당 RAT이 사용됨을 의미)
b) QoS parameters : 이는 상기 RAT을 이용하여 PC5 동작시 만족되어야 하는 다양한 QoS 값일 수 있다. 그 예로는 latency (또는 delay budget, 또는 전송 지연) 관련 값, Packet Error Loss Rate (또는 전송실패율 또는 전송성공율) 관련 값, data rate 관련 값 등이 될 수 있다. 이러한 값에 대해 어느 시간단위로 측정하면 되는지에 대해 time window가 함께 제공될 수도 있다. 각 parameter 별로 또는 공통으로. 그리고, 이러한 측정은 UE가 직접 수행 및/또는 네트워크가 측정하여 만족하는지 여부를 UE에게 제공 및/또는 다른 UE로부터 획득할 수 있다.
c) RAT의 혼잡도: RAT이 혼잡한지 여부를 지시하는 정보로써, RAT의 radio resource 점유율 등 다양하게 표현될 수 있다.
이와 같이, 매핑 정보에서 다수의 RAT이 존재하는 경우(예를 들어, 특정 Geographical area 에 다수의 RAT이 설정되어 있는 경우), 각 RAT이 사용/선택될 수 있는 다양한 조건이 매핑 정보에 함께 제공될 수 있다. 이는 RAT 별로 제공될 수도 있고 모든 RAT에 common하게 제공될 수도 있다. 또한, 이러한 조건은 현재 사용/적용 중인 RAT이 상기 조건을 만족하지 못할 때, 상기의 조건을 만족하는 다른 RAT으로 switch 해야 함을 결정하기 위해 사용될 수 있다. 또한, 상기의 조건은 V2X service를 위해 어떤 RAT을 사용/선택해야 하는지 결정하기 위해 사용될 수 있다.
PC5 인터페이스 상에서 LTE와 NR을 포함하는 멀티 RAT을 지원하는 UE을 위해, 적절한 V2X applications 을 위한 3GPP PC5 RAT(s)이 [The mapping of V2X services (예를 들어, PSID or ITS-AIDs of the V2X applications) to 3GPP PC5 RAT(s) with Geographical Area(s).] 파라미터와 함께 프로비젼(provision)될 수 있다. 이 파라미터는 UE 에 미리 설정되어 있을 수도 있고, 만약 인커버리지인 경우, HPLMN내 V2X Control Function으로부터 V3 reference point 상의 시그널링에 의해 프로비젼될 수 있다. 이 방법은, EPS를 위해 정의된 V2X Control Function와 V3 reference point가 5G System에도 적용된다는 가정 하에서이다. 또는 network에서 상기의 provisioning을 NAS message를 이용하여 수행할 수도 있다.
상기의 정보는 어떠한 지역에서 특정 V2X service에 대해 어떠한 PC5 RAT(s)을 사용/선택할 수 있다 (또는 사용/선택이 authorize된다 또는 사용/선택이 허용된다)이다. 상기에서 Geographical Area는 TS 24.385에 정의된, 도 8에 도시된 바와 같은 형태, 즉 좌표값일 수도 있고, PLMN 단위일 수도 있고, TA(Tracking Area) 단위일 수도 있고, cell 단위일 수도 있고, 기지국 단위일 수도 있는 등 다양한 형태로 표현 가능하다. 또한, 상기의 매핑 정보에서 Geographical Area가 존재하지 않는 경우, 지역에 상관없이 해당 V2X service에 대해 어떠한 PC5 RAT(s)을 사용할 수 있다로 해석될 수 있다. 이는 본 발명 전반에 걸쳐 적용될 수 있다.
상기에서 PC5 RAT의 종류로는 대표적으로 LTE (즉, E-UTRA)와 NR이 있다. 그러나, 여기에 국한하지 않고 PC5 동작이 가능한 모든 RAT이 이에 해당될 수 있다.
상기의 매핑 정보에서 다수의 RAT이 존재하는 경우, 가장 첫 번째에 표시(리스트)된 RAT이 사용/적용 시 우선순위가 가장 높은 RAT (이는 default RAT 개념일 수 있음)이고, 가장 마지막에 표시(리스트)된 RAT이 사용/적용 시 우선순위가 가장 낮은 RAT일 수 있다. 또는 그 반대일 수 있다. 이와 다르게 상기의 매핑 정보에서 다수의 RAT이 존재하는 경우 명시적으로 각 RAT에 우선순위 정보 (precedence value, priority value)를 부여하여 매핑 정보에 함께 제공할 수 있다. 이때 우선순위가 가장 높은 RAT이 default RAT으로 고려될 수 있다.
상기의 매핑 정보에서 다수의 RAT이 존재하는 경우, 다음 중 하나 이상의 정보가 추가로 제공될 수도 있다.
i) UE가 PC5 동작에 사용/적용하는 RAT을 변경 (switch) 가능한지 여부: 이는 UE가 현재 사용/적용 중인 PC5 RAT을 다른 RAT으로 변경하도록 허용되는지를 나타낸다. 이는 좀 더 세부적으로 또는 별도로, UE가 그룹 커뮤니케이션에서 leader 역할을 수행하고 있을 때에만 PC5 동작에 사용/적용하는 RAT을 변경 (switch) 가능한지 여부로 제공될 수도 있다. 이는 leader 역할을 수행 중인 UE가 그룹 커뮤니케이션의 그룹 멤버들에게 RAT 변경을 지시할 수 있는 동작을 포함할 수 있다. 또한, 이는 좀 더 세부적으로 또는 별도로, UE가 UE-type RSU로 동작시 PC5 동작에 사용/적용하는 RAT을 변경 (switch) 가능한지 여부로 제공될 수도 있다. 이는 UE-type RSU로 동작 중인 UE가 일반 UE (vehicle UE, pedestrian UE)들에게 RAT 변경을 지시할 수 있는 동작을 포함할 수 있다. 또는, 자신은 RAT을 변경하지 않으면서 일반 UE들에게 RAT 변경을 지시할 수 있는 동작을 의미할 수도 있다. 이러한 정보가 없음으로 인해 암시적으로 UE가 PC5 동작에 사용/적용하는 RAT을 변경 (switch) 가능한 것으로 간주할 수도 있다.
ii) Network이 PC5 동작에 사용/적용하는 RAT을 변경 (switch) 가능한지 여부: 이는 network으로부터 RAT을 변경하라는 지시를 받아야 하는지 여부로, 이 경우 network이 다른 RAT을 사용/적용할 것을 지시하면 UE는 거기에 따른다. 상기에서 network은 RAN, Core Network에 포함되는 function, V2X Application Server 중 하나 이상이 될 수 있다.
iii) UE-type RSU가 PC5 동작에 사용/적용하는 RAT을 변경 (switch) 가능한지 여부: 이는 UE-type RSU로부터 RAT을 변경하라는 지시를 받아야 하는지 여부로, 이 경우 UE-type RSU가 다른 RAT을 사용/적용할 것을 지시하면 UE는 거기에 따른다.
iv) UE가 PC5 동작에 사용/적용하는 RAT을 선택 가능한지 여부: 이는 UE가 사용/적용할 PC5 RAT을 선택하도록 허용되는지를 나타낸다. 이는 좀 더 세부적으로 또는 별도로, UE가 그룹 커뮤니케이션에서 leader 역할을 수행하고 있을 때에만 PC5 동작에 사용/적용할 RAT을 선택 가능한지 여부로 제공될 수도 있다. 이는 leader 역할을 수행 중인 UE가 그룹 커뮤니케이션의 그룹 멤버들에게 선택된 RAT을 알릴 수 있는 동작을 포함할 수 있다. 또한, 이는 좀 더 세부적으로 또는 별도로, UE가 UE-type RSU로 동작시 PC5 동작에 사용/적용할 RAT을 선택 가능한지 여부로 제공될 수도 있다. 이는 UE-type RSU로 동작 중인 UE가 일반 UE (vehicle UE, pedestrian UE)들에게 선택된 RAT을 알릴 수 있는 동작을 포함할 수 있다. 이러한 정보가 없음으로 인해 암시적으로 UE가 PC5 동작에 사용/적용할 RAT을 선택 가능한 것으로 간주할 수도 있다.
v) Network이 PC5 동작에 사용/적용할 RAT을 선택 가능한지 여부: 이는 network으로부터 선택된 RAT에 대해 지시를 받아야 하는지 여부로, 이 경우 network이 선택된 RAT을 알리면 UE는 해당 RAT을 사용한다. 상기에서 network은 RAN, Core Network에 포함되는 function, V2X Application Server 중 하나 이상이 될 수 있다.
vi) UE-type RSU가 PC5 동작에 사용/적용할 RAT을 선택 가능한지 여부: 이는 UE-type RSU로부터 선택된 RAT에 대해 지시를 받아야 하는지 여부로, 이 경우 UE-type RSU가 선택된 RAT을 알리면 UE는 그 RAT을 사용한다.
V2X service에 사용/적용되는 RAT을 다른 RAT으로 변경 (또는 switch)하는 것은 만약 PC5 RAT이 simple하게 2 종류라면, 즉 LTE와 NR, LTE를 사용하다가 NR로 변경하는 것 또는 그 반대에 해당하겠다. 또한 이는 default RAT을 사용하고 있었다면 non-default RAT으로 변경하는 것 또는 그 반대에 해당할 수 있다. 또한, 이는 우선순위가 높은 RAT을 사용하고 있었다면 우선순위가 낮은 RAT으로 변경하는 것 또는 그 반대에 해당할 수 있다.
만약 PC5 RAT이 3종류 이상이라면, 다른 RAT으로 변경 (또는 switch) 시 현재 사용 중인 RAT을 제외하고 후보 RAT을 선택하는 기준/고려사항은 다음 중 하나 이상이다.
- 현재 사용 중인 RAT을 제외하고 우선순위가 높은 RAT을 먼저 고려
- 현재 사용 중인 RAT이 default RAT이 아니라면 default RAT을 먼저 고려
- 조건 (상기 a), b)가 가용하면)을 만족하는 RAT을 먼저 고려
상기한 V2X service에 사용/적용되는 RAT을 다른 RAT으로 변경 (또는 switch)하는 것에 대한 설명은 본 발명 전반에 걸쳐 적용된다.
V2X service에 사용/적용할 수 있는 PC5 RAT이 다수인 경우 그 중 하나의 RAT을 선택(select)하는 것은 상기한 조건을 만족하는 RAT을 선택함을 의미한다. 만약 조건을 만족하는 RAT이 다수라면, 그 중 우선순위가 높은 RAT을 선택함을 의미한다. 이는 본 발명 전반에 걸쳐 적용된다.
실시예 2
두 번째 실시예는, 그룹 커뮤니케이션에 참여하는 UE 중 대표 UE가 infrastructure로 PC5 RAT을 switch해 줄 것을 요청 또는 선택한 RAT을 지시해 줄 것을 요청하는 방법이다. 두 번째 실시예는 실시예 1에 설명된 내용을 기반으로 하며, 차이는 상기 대표 UE가 PC5 메시지를 통해 다른 UE(s)에게 PC5 RAT을 switch하는 것을 지시하는 대신 또는 선택된 RAT을 지시하는 대신 이를 infrastructure가 해줄 것을 요청하는 것이다. 상기 infrastructure는 RAN, V2X Control Function, V2X Application Server, Core Network function, UE-type RSU 중 하나일 수 있다. 이는 본 발명 전반에 걸쳐 적용된다.
상기 대표 UE는 infrastructure로 RAT switch 요청 시 또는 선택된 RAT 지시 요청 시, 추가 정보를 포함하지 않을 수도 있고, 상기 실시예 1 의 A), B), C), D), E), 그룹 커뮤니케이션에 참여하는 UE들의 식별 정보 중 하나 이상의 정보를 포함할 수도 있다.
Switch 요청의 경우, 상기 대표 UE로부터 요청을 수신한 infrastructure는 그룹 커뮤니케이션에 참여하는 UE들이 해당 V2X service에 대해 동일한 시점에 동일한 target RAT으로 switch를 할 수 있도록 지시한다. 선택한 RAT에 대한 지시 요청의 경우, 상기 대표 UE로부터 요청을 수신한 infrastructure는 그룹 커뮤니케이션에 참여하는 UE들이 해당 V2X service에 대해 동일한 시점에 동일한 target RAT을 사용/적용할 수 있도록 지시한다.
상기 infrastructure가 RAN인 경우 broadcast 또는 각 UE로의 dedicated signaling을 통해 지시할 수 있다. 상기 infrastructure가 V2X Control Function인 경우 각 UE로 V3 인터페이스를 통해 지시할 수 있다. 상기 infrastructure가 V2X Application Server인 경우 각 UE로 unicast로 또는 해당 UE들이 수신 가능한 MBMS로 지시할 수 있다. 상기 infrastructure가 CN function인 경우 각 UE로 signaling을 통해 (예, NAS 메시지) 또는 해당 UE들이 수신 가능한 MBMS로 지시할 수 있다. 상기 infrastructure가 UE-type RSU인 경우 PC5 메시지를 통해 (이는 상기 앞서 설명에서 대표 UE가 PC5 메시지를 통해 지시한 것과 유사하게) 지시할 수 있다. 이와 같이 infrastructure가 UE로 지시하는 정보를 전송하는 방법은 본 발명 전반에 걸쳐 적용된다.
상기 infrastructure는 상기 지시 메시지를 한번 전송할 수도 있고, 유효한 시간 동안 주기적으로 전송할 수도 있다. 유효시간은 대표 UE가 지시를 요청시 제공할 수도 있고, 대표 UE가 지시 종료를 명시적으로 요청함으로써 종료될 수도 있다. 또는 infrastructure가 스스로 종료를 결정할 수도 있다.
대표 UE를 포함하여 그룹 커뮤니케이션에 참여하는 모든 UE는 동일 시점에 동일한 target RAT으로 RAT switch 또는 RAT 사용/적용을 수행하게 된다.
실시예 3
실시예 3은, Infrastructure에서 그룹 커뮤니케이션에 사용/적용되는 RAT을 switch할 것을 결정 또는 사용/적용할 RAT을 선택. 이를 그룹 커뮤니케이션에 참여하는 UE들에게 지시하는 것이다.
먼저 Switch의 경우, Infrastructure가 특정 그룹 커뮤니케이션에 대해 현재 사용/적용중인 RAT이 적절한지 여부를 모니터링한다. 상기 적절한지 여부는 예를 들면, 앞서 기술한 a) 시간 정보, b) QoS parameters, c) RAT 혼잡도와 같은 조건을 만족하는지 여부일 수 있다. Infrastructure는 상기 조건을 만족하는지 여부를 판단하기 위해 스스로 측정 및/또는 측정 정보를 UE로부터 수집할 수 있다.
적절하지 않은 걸로 판단되면, Infrastructure는 상기 그룹 커뮤니케이션에 참여하는 모든 UE들에게 사용/적용중인 RAT을 제 1 RAT에서 제 2 RAT으로 switch할 것을 지시한다. 이 때 상기 실시예 1 의 A), B), C), D), E) 정보 중 하나 이상을 포함하여 지시할 수도 있다.
두 번째로, RAT 선택의 경우, Infrastructure가 특정 그룹 커뮤니케이션에 대해 사용/적용할 RAT을 선택하기 위해 사용 가능한 RAT의 상태를 모니터링하고 사용이 적절한지 여부를 판단한다. 상기 적절한지 여부는 예를 들면, 상술한 a), b), c)와 같은 조건을 만족하는지 여부일 수 있다. Infrastructure는 상기 조건을 만족하는지 여부를 판단하기 위해 스스로 측정 및/또는 측정 정보를 UE로부터 수집할 수 있다.
Infrastructure는 적절한 하나의 RAT을 선택하여 상기 그룹 커뮤니케이션에 참여하는 모든 UE들에게 사용/적용할 RAT을 지시한다. 이 때 상기 실시예 1의 A), B), C), D), E) 정보 중 하나 이상을 포함하여 지시할 수도 있다. 만약, 다수의 RAT이 적절하다면 우선순위가 높거나 default인 RAT을 선택할 수 있다. 또는 혼잡도가 더 낮은 RAT을 선택할 수도 있다.
상기 실시예 2, 실시예 3 설명에서 infrastructure는 상기 지시 메시지를 한번 전송할 수도 있고, 유효한 시간 동안 주기적으로 전송할 수도 있다.
상술한 설명에서, V2X service에 대해 특정 지역에서 또는 특정 group에서 사용/적용되는 RAT을 제 1 RAT에서 제 2 RAT으로 switch하는 동작은 상기의 V2X service를 위한 통신에 참여하는 모든 UE가 상기 동작을 지원한다는 가정에 기반한 것일 수 있다. 또한, 상기에서 V2X service에 대해 특정 지역에서 또는 특정 group에서 사용/적용되는 RAT을 선택하는 동작은 상기의 V2X service를 위한 통신에 참여하는 모든 UE가 상기 동작을 지원한다는 가정에 기반한 것일 수 있다.
상술한 설명에서, V2X service는 V2X application과 혼용되어 사용된다. 또한, PC5 동작은 PC5 통신 (또는 D2D 통신, 또는 direct communication, 또는 ProSe communication) 뿐만 아니라 PC5 탐색 (또는 D2D 탐색, 또는 direct discovery, 또는 ProSe discovery)도 포함할 수 있다. 또한, 이외에도 PC5를 이용하는 모든 operation (동작)을 포함하는 의미이다. V2X에서 PC5 동작은 예를 들면 UE가 PC5를 통해 V2X 메시지를 송수신하는 것, UE가 PC5를 통해 V2X application이 생성한 다양한 data를 송수신하는 것, UE가 PC5를 통해 V2X와 연관된 다양한 정보를 송수신하는 것, UE가 PC5를 통해 다른 UE와 link 또는 1:1 연결을 맺는 동작, UE가 PC5를 통해 다른 UE를 탐색하는 동작 등을 의미한다.
또한, 본 발명에서 제시되는 내용들은 현재 5G system에서 사용되는 명칭에 의해 제한되지 않는다. EPS와 달리 5G system에서는 D2D 통신을 위해 정의하는 인터페이스 명칭이 PC5가 아닐 수도 있는데, 당해 기술분야에서 통상의 지식을 가진 자는 D2D 통신을 위해 새롭게 정의되는 그 인터페이스 명칭을 적용하여 본 발명을 이해할 수 있을 것이다. 또한, PC5 인터페이스 외에도 기존에 EPS에서 정의되었던 다양한 인터페이스 (예, V1, V2, V3 등)는 5G system에서 모두 동일하게 사용될 수도 있고, 일부 또는 전부 새로운 이름으로 정의될 수도 있는 바, 이를 고려하여 본 발명을 이해해야 한다.
본 발명에서 UE는 vehicle UE, pedestrian UE와 같은 UE일 수도 있고, UE-type RSU일 수도 있다. 즉, UE 형태로 동작할 수 있거나 PC5 동작을 할 수 있는 모든 기기를 포함한다. 5G System (5G 이동통신 시스템, 차세대 이동통신 시스템)과 EPS를 통해 V2X 서비스를 효율적으로 제공하는 본 발명의 상기 각 제안들은 하나 이상의 동작/구성/단계의 조합으로 구성될 수 있다.
실시예 4
이하에서는, 상술한 실시예 1~3에 설명된 내용들이 실제 이동 단말기(장치)에서 어떻게 구현될 수 있는지에 대해 살펴본다. 이하에서 상술한 실시예 1~3의 모든 내용들이 단말 장치 구현 설명으로 되지 않지만, 이하에서 주로 설명되는 구체적 예시에 기초하여 상기 실시예 1~3에 설명된 내용들으로부터 당업자가 충분히 예상할 수 있는 장치 구현은 본 실시예에 포함될 것이다. 이하에서는, 우선 본 실시예를 적용 가능한 이동 단말기 및 구성에 대해 살펴본 후, 구체적인 구현에 대해 살펴본다.
이동 단말기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)) 등이 포함될 수 있다. 나아가, IoT (Internet of Things) 환경이나 스마트 온실(Smart Greenhouse)에서 적어도 하나의 디바이스를 제어하기 위한 용도로 사용될 수도 있다.
그러나, 본 명세서에 기재된 실시 예에 따른 구성은 이동 단말기에만 적용 가능한 경우를 제외하면, 디지털 TV, 데스크탑 컴퓨터, 디지털 사이니지 등과 같은 고정 단말기에도 적용될 수도 있음을 본 기술분야의 당업자라면 쉽게 알 수 있을 것이다.
도 9는 본 발명과 관련된 이동 단말기를 설명하기 위한 블록도이다.
상기 이동 단말기(100)는 송수신 장치(110), 프로세서(120), 메모리(130), 센싱부(140), 출력부(150), 인터페이스부(160), 입력부(170) 및 전원 공급부(190) 등을 포함할 수 있다. 도 9에 도시된 구성요소들은 이동 단말기를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 이동 단말기는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.
보다 구체적으로, 상기 구성요소들 중 송수신 장치(110)는, 이동 단말기(100)와 무선 통신 시스템 사이, 이동 단말기(100)와 다른 이동 단말기(100) 사이, 또는 이동 단말기(100)와 외부서버 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 상기 송수신 장치(110)는, 이동 단말기(100)를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.
이러한 송수신 장치(110)는, 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114), 위치정보 모듈(115) 중 적어도 하나를 포함할 수 있다.
입력부(170)는, 영상 신호 입력을 위한 카메라(171) 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(microphone, 172), 또는 오디오 입력부, 사용자로부터 정보를 입력받기 위한 사용자 입력부(173, 예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있다. 입력부(170)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어명령으로 처리될 수 있다.
센싱부(140)는 이동 단말기 내 정보, 이동 단말기를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 센싱부(140)는 근접센서(141, proximity sensor), 조도 센서(142, illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라(171 참조)), 마이크로폰(microphone, 172 참조), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 이동 단말기는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(151), 음향 출력부(152), 햅팁 모듈(153), 광 출력부(154) 중 적어도 하나를 포함할 수 있다. 디스플레이부(151)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 이동 단말기(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(173)로써 기능함과 동시에, 이동 단말기(100)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.
인터페이스부(160)는 이동 단말기(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행한다. 이러한 인터페이스부(160)는, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 중 적어도 하나를 포함할 수 있다. 이동 단말기(100)에서는, 상기 인터페이스부(160)에 외부 기기가 연결되는 것에 대응하여, 연결된 외부 기기와 관련된 적절할 제어를 수행할 수 있다.
또한, 메모리(130)는 이동 단말기(100)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(130)는 이동 단말기(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 이동 단말기(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는, 이동 단말기(100)의 기본적인 기능(예를 들어, 전화 착신, 발신 기능, 메시지 수신, 발신 기능)을 위하여 출고 당시부터 이동 단말기(100)상에 존재할 수 있다. 한편, 응용 프로그램은, 메모리(130)에 저장되고, 이동 단말기(100) 상에 설치되어, 프로세서(120)에 의하여 상기 이동 단말기의 동작(또는 기능)을 수행하도록 구동될 수 있다.
프로세서(120)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 이동 단말기(100)의 전반적인 동작을 제어한다. 프로세서(120)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(130)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.
또한, 프로세서(120)는 메모리(130)에 저장된 응용 프로그램을 구동하기 위하여, 도 9와 함께 살펴본 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 프로세서(120)는 상기 응용 프로그램의 구동을 위하여, 이동 단말기(100)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.
전원공급부(190)는 프로세서(120)의 제어 하에서, 외부의 전원, 내부의 전원을 인가 받아 이동 단말기(100)에 포함된 각 구성요소들에 전원을 공급한다. 이러한 전원공급부(190)는 배터리를 포함하며, 상기 배터리는 내장형 배터리 또는 교체가능한 형태의 배터리가 될 수 있다.
상기 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시 예들에 따른 이동 단말기의 동작, 제어, 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 상기 이동 단말기의 동작, 제어, 또는 제어방법은 상기 메모리(130)에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 이동 단말기 상에서 구현될 수 있다.
이하에서는, 위에서 살펴본 이동 단말기(100)를 통하여 구현되는 다양한 실시 예들을 살펴보기에 앞서, 위에서 열거된 구성요소들에 대하여 도 9를 참조하여 보다 구체적으로 살펴본다.
먼저, 송수신 장치(110)에 대하여 살펴보면, 송수신 장치(110)의 방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 적어도 두 개의 방송 채널들에 대한 동시 방송 수신 또는 방송 채널 스위칭을 위해 둘 이상의 상기 방송 수신 모듈이 상기 이동단말기(100)에 제공될 수 있다.
이동통신 모듈(112)은, 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced), 3GPP NR (New Radio access technology) 등)에 따라 구축된 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다.
상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 이동 단말기(100)에 내장되거나 외장될 수 있다. 무선 인터넷 모듈(113)은 무선 인터넷 기술들에 따른 통신망에서 무선 신호를 송수신하도록 이루어진다.
무선 인터넷 기술로는, 예를 들어 WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced), 3GPP NR 등이 있으며, 상기 무선 인터넷 모듈(113)은 상기에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다.
WiBro, HSDPA, HSUPA, GSM, CDMA, WCDMA, LTE, LTE-A, 3GPP NR 등에 의한 무선인터넷 접속은 이동통신망을 통해 이루어진다는 관점에서 본다면, 상기 이동통신망을 통해 무선인터넷 접속을 수행하는 상기 무선 인터넷 모듈(113)은 상기 이동통신 모듈(112)의 일종으로 이해될 수도 있다.
근거리 통신 모듈(114)은 근거리 통신(Short range communication)을 위한 것으로서, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다. 이러한, 근거리 통신 모듈(114)은, 근거리 무선 통신망(Wireless Area Networks)을 통해 이동 단말기(100)와 무선 통신 시스템 사이, 이동 단말기(100)와 다른 이동 단말기(100) 사이, 또는 이동 단말기(100)와 다른 이동 단말기(100, 또는 외부서버)가 위치한 네트워크 사이의 무선 통신을 지원할 수 있다. 상기 근거리 무선 통신망은 근거리 무선 개인 통신망(Wireless Personal Area Networks)일 수 있다.
여기에서, 다른 이동 단말기(100)는 본 발명에 따른 이동 단말기(100)와 데이터를 상호 교환하는 것이 가능한(또는 연동 가능한) 웨어러블 디바이스(wearable device, 예를 들어, 스마트워치(smartwatch), 스마트 글래스(smart glass), 넥밴드(neckband), HMD(head mounted display))가 될 수 있다. 근거리 통신 모듈(114)은, 이동 단말기(100) 주변에, 상기 이동 단말기(100)와 통신 가능한 웨어러블 디바이스를 감지(또는 인식)할 수 있다. 나아가, 프로세서(120)는 상기 감지된 웨어러블 디바이스가 본 발명에 따른 이동 단말기(100)와 통신하도록 인증된 디바이스인 경우, 이동 단말기(100)에서 처리되는 데이터의 적어도 일부를, 상기 근거리 통신 모듈(114)을 통해 웨어러블 디바이스로 전송할 수 있다. 따라서, 웨어러블 디바이스의 사용자는, 이동 단말기(100)에서 처리되는 데이터를, 웨어러블 디바이스를 통해 이용할 수 있다. 예를 들어, 이에 따르면 사용자는, 이동 단말기(100)에 전화가 수신된 경우, 웨어러블 디바이스를 통해 전화 통화를 수행하거나, 이동 단말기(100)에 메시지가 수신된 경우, 웨어러블 디바이스를 통해 상기 수신된 메시지를 확인하는 것이 가능하다.
나아가, 상기 근거리 통신 모듈(114)을 통해 댁내 위치한 TV 또는 자동차 내부의 디스플레이 등과의 스크린 미러링이 이루어 지며, 예를 들어 MirrorLink 또는 Miracast 표준 등에 기반하여 해당 기능이 수행된다. 또한, 상기 이동 단말기(100)를 이용하여 TV 또는 자동차 내부의 디스플레이를 직접 제어하는 것도 가능하다.
위치정보 모듈(115)은 이동 단말기의 위치(또는 현재 위치)를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Positioning System) 모듈 또는 WiFi(Wireless Fidelity) 모듈이 있다. 예를 들어, 이동 단말기는 GPS모듈을 활용하면, GPS 위성에서 보내는 신호를 이용하여 이동 단말기의 위치를 획득할 수 있다. 다른 예로서, 이동 단말기는 Wi-Fi모듈을 활용하면, Wi-Fi모듈과 무선신호를 송신 또는 수신하는 무선 AP(Wireless Access Point)의 정보에 기반하여, 이동 단말기의 위치를 획득할 수 있다. 필요에 따라서, 위치정보모듈(115)은 치환 또는 부가적으로 이동 단말기의 위치에 관한 데이터를 얻기 위해 송수신 장치(110)의 다른 모듈 중 어느 기능을 수행할 수 있다. 위치정보모듈(115)은 이동 단말기의 위치(또는 현재 위치)를 획득하기 위해 이용되는 모듈로, 이동 단말기의 위치를 직접적으로 계산하거나 획득하는 모듈로 한정되지는 않는다.
방송 수신 모듈(111), 이동통신 모듈(112), 근거리 통신 모듈(114), 위치정보 모듈(115) 각각은 해당 기능을 수행하는 별개의 모듈로서 구현될 수도 있고, 방송 수신 모듈(111), 이동통신 모듈(112), 근거리 통신 모듈(114) 및 위치정보 모듈(115) 중 2개 이상에 대응하는 기능들이 하나의 모듈에 의해 구현될 수도 있다.
다음으로, 입력부(170)는 영상 정보(또는 신호), 오디오 정보(또는 신호), 데이터, 또는 사용자로부터 입력되는 정보의 입력을 위한 것으로서, 영상 정보의 입력을 위하여, 이동 단말기(100) 는 하나 또는 복수의 카메라(171)를 구비할 수 있다. 카메라(171)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시되거나 메모리(130)에 저장될 수 있다. 한편, 이동 단말기(100)에 구비되는 복수의 카메라(171)는 매트릭스 구조를 이루도록 배치될 수 있으며, 이와 같이 매트릭스 구조를 이루는 카메라(171)를 통하여, 이동 단말기(100)에는 다양한 각도 또는 초점을 갖는 복수의 영상정보가 입력될 수 있다. 또한, 복수의 카메라(171)는 입체영상을 구현하기 위한 좌 영상 및 우 영상을 획득하도록, 스트레오 구조로 배치될 수 있다.
마이크로폰(172)은 외부의 음향 신호를 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 이동 단말기(100)에서 수행 중인 기능(또는 실행 중인 응용 프로그램)에 따라 다양하게 활용될 수 있다. 한편, 마이크로폰(172)에는 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.
사용자 입력부(173)는 사용자로부터 정보를 입력받기 위한 것으로서, 사용자 입력부(173)를 통해 정보가 입력되면, 프로세서(120)는 입력된 정보에 대응되도록 이동 단말기(100)의 동작을 제어할 수 있다. 이러한, 사용자 입력부(173)는 기계식 (mechanical) 입력수단(또는, 메커니컬 키, 예를 들어, 이동 단말기(100)의 전·후면 또는 측면에 위치하는 버튼, 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등) 및 터치식 입력수단을 포함할 수 있다. 일 예로서, 터치식 입력수단은, 소프트웨어적인 처리를 통해 터치스크린에 표시되는 가상 키(virtual key), 소프트 키(soft key) 또는 비주얼 키(visual key)로 이루어지거나, 상기 터치스크린 이외의 부분에 배치되는 터치 키(touch key)로 이루어질 수 있다. 한편, 상기 가상키 또는 비주얼 키는, 다양한 형태를 가지면서 터치스크린 상에 표시되는 것이 가능하며, 예를 들어, 그래픽(graphic), 텍스트(text), 아이콘(icon), 비디오(video) 또는 이들의 조합으로 이루어질 수 있다.
한편, 센싱부(140)는 이동 단말기 내 정보, 이동 단말기를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하고, 이에 대응하는 센싱 신호를 발생시킨다. 프로세서(120)는 이러한 센싱 신호에 기초하여, 이동 단말기(100)의 구동 또는 동작을 제어하거나, 이동 단말기(100)에 설치된 응용 프로그램과 관련된 데이터 처리, 기능 또는 동작을 수행 할 수 있다. 센싱부(140)에 포함될 수 있는 다양한 센서 중 대표적인 센서들의 대하여, 보다 구체적으로 살펴본다.
먼저, 근접 센서(141)는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선 등을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 이러한 근접 센서(141)는 위에서 살펴본 터치 스크린에 의해 감싸지는 이동 단말기의 내부 영역 또는 상기 터치 스크린의 근처에 근접 센서(141)가 배치될 수 있다.
근접 센서(141)의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전 용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 터치 스크린이 정전식인 경우에, 근접 센서(141)는 전도성을 갖는 물체의 근접에 따른 전계의 변화로 상기 물체의 근접을 검출하도록 구성될 수 있다. 이 경우 터치 스크린(또는 터치 센서) 자체가 근접 센서로 분류될 수 있다.
한편, 설명의 편의를 위해, 터치 스크린 상에 물체가 접촉되지 않으면서 근접되어 상기 물체가 상기 터치 스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 명명하고, 상기 터치 스크린 상에 물체가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 명명한다. 상기 터치 스크린 상에서 물체가 근접 터치 되는 위치라 함은, 상기 물체가 근접 터치될 때 상기 물체가 상기 터치 스크린에 대해 수직으로 대응되는 위치를 의미한다. 상기 근접 센서(141)는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지할 수 있다. 한편, 프로세서(120)는 위와 같이, 근접 센서(141)를 통해 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 데이터(또는 정보)를 처리하며, 나아가, 처리된 데이터에 대응하는 시각적인 정보를 터치 스크린상에 출력시킬 수 있다. 나아가, 프로세서(120)는, 터치 스크린 상의 동일한 지점에 대한 터치가, 근접 터치인지 또는 접촉 터치인지에 따라, 서로 다른 동작 또는 데이터(또는 정보)가 처리되도록 이동 단말기(100)를 제어할 수 있다.
터치 센서는 저항막 방식, 정전용량 방식, 적외선 방식, 초음파 방식, 자기장 방식 등 여러가지 터치방식 중 적어도 하나를 이용하여 터치 스크린(또는 디스플레이부(151))에 가해지는 터치(또는 터치입력)을 감지한다.
일 예로서, 터치 센서는, 터치 스크린의 특정 부위에 가해진 압력 또는 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는, 터치 스크린 상에 터치를 가하는 터치 대상체가 터치 센서 상에 터치 되는 위치, 면적, 터치 시의 압력, 터치 시의 정전 용량 등을 검출할 수 있도록 구성될 수 있다. 여기에서, 터치 대상체는 상기 터치 센서에 터치를 인가하는 물체로서, 예를 들어, 손가락, 터치펜 또는 스타일러스 펜(Stylus pen), 포인터 등이 될 수 있다.
이와 같이, 터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 프로세서(120)로 전송한다. 이로써, 프로세서(120)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다. 여기에서, 터치 제어기는, 프로세서(120)와 별도의 구성요소일 수 있고, 프로세서(120) 자체일 수 있다.
한편, 프로세서(120)는, 터치 스크린(또는 터치 스크린 이외에 구비된 터치키)을 터치하는, 터치 대상체의 종류에 따라 서로 다른 제어를 수행하거나, 동일한 제어를 수행할 수 있다. 터치 대상체의 종류에 따라 서로 다른 제어를 수행할지 또는 동일한 제어를 수행할 지는, 현재 이동 단말기(100)의 동작상태 또는 실행 중인 응용 프로그램에 따라 결정될 수 있다.
한편, 위에서 살펴본 터치 센서 및 근접 센서는 독립적으로 또는 조합되어, 터치 스크린에 대한 숏(또는 탭) 터치(short touch), 롱 터치(long touch), 멀티 터치(multi touch), 드래그 터치(drag touch), 플리크 터치(flick touch), 핀치-인 터치(pinch-in touch), 핀치-아웃 터치(pinch-out 터치), 스와이프(swype) 터치, 호버링(hovering) 터치 등과 같은, 다양한 방식의 터치를 센싱할 수 있다.
초음파 센서는 초음파를 이용하여, 감지대상의 위치정보를 인식할 수 있다. 한편 프로세서(120)는 광 센서와 복수의 초음파 센서로부터 감지되는 정보를 통해, 파동 발생원의 위치를 산출하는 것이 가능하다. 파동 발생원의 위치는, 광이 초음파보다 매우 빠른 성질, 즉, 광이 광 센서에 도달하는 시간이 초음파가 초음파 센서에 도달하는 시간보다 매우 빠름을 이용하여, 산출될 수 있다. 보다 구체적으로 광을 기준 신호로 초음파가 도달하는 시간과의 시간차를 이용하여 파동 발생원의 위치가 산출될 수 있다.
한편, 입력부(170)의 구성으로 살펴본, 카메라(171)는 카메라 센서(예를 들어, CCD, CMOS 등), 포토 센서(또는 이미지 센서) 및 레이저 센서 중 적어도 하나를 포함한다.
카메라(171)와 레이저 센서는 서로 조합되어, 3차원 입체영상에 대한 감지대상의 터치를 감지할 수 있다. 포토 센서는 디스플레이 소자에 적층될 수 있는데, 이러한 포토 센서는 터치 스크린에 근접한 감지대상의 움직임을 스캐닝하도록 이루어진다. 보다 구체적으로, 포토 센서는 행/열에 Photo Diode와 TR(Transistor)를 실장하여 Photo Diode에 인가되는 빛의 양에 따라 변화되는 전기적 신호를 이용하여 포토 센서 위에 올려지는 내용물을 스캔한다. 즉, 포토 센서는 빛의 변화량에 따른 감지대상의 좌표 계산을 수행하며, 이를 통하여 감지대상의 위치정보가 획득될 수 있다.
디스플레이부(151)는 이동 단말기(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 디스플레이부(151)는 이동 단말기(100)에서 구동되는 응용 프로그램의 실행화면 정보, 또는 이러한 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보를 표시할 수 있다.
또한, 상기 디스플레이부(151)는 입체영상을 표시하는 입체 디스플레이부로서 구성될 수 있다.
상기 입체 디스플레이부에는 스테레오스코픽 방식(안경 방식), 오토 스테레오스코픽 방식(무안경 방식), 프로젝션 방식(홀로그래픽 방식) 등의 3차원 디스플레이 방식이 적용될 수 있다.
음향 출력부(152)는 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 송수신 장치(110)로부터 수신되거나 메모리(130)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력부(152)는 이동 단말기(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력부(152)에는 리시버(receiver), 스피커(speaker), 버저(buzzer) 등이 포함될 수 있다.
햅틱 모듈(haptic module)(153)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(153)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 될 수 있다. 햅틱 모듈(153)에서 발생하는 진동의 세기와 패턴 등은 사용자의 선택 또는 프로세서의 설정에 의해 제어될 수 있다. 예를 들어, 상기 햅틱 모듈(153)은 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다.
햅틱 모듈(153)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(electrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다.
햅틱 모듈(153)은 직접적인 접촉을 통해 촉각 효과를 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(153)은 이동 단말기(100)의 구성 태양에 따라 2개 이상이 구비될 수 있다.
광출력부(154)는 이동 단말기(100)의 광원의 빛을 이용하여 이벤트 발생을 알리기 위한 신호를 출력한다. 이동 단말기(100)에서 발생 되는 이벤트의 예로는 메시지 수신, 호 신호 수신, 부재중 전화, 알람, 일정 알림, 이메일 수신, 애플리케이션을 통한 정보 수신 등이 될 수 있다.
광출력부(154)가 출력하는 신호는 이동 단말기가 전면이나 후면으로 단색이나 복수색의 빛을 발광함에 따라 구현된다. 상기 신호 출력은 이동 단말기가 사용자의 이벤트 확인을 감지함에 의하여 종료될 수 있다.
인터페이스부(160)는 이동 단말기(100)에 연결되는 모든 외부 기기와의 통로 역할을 한다. 인터페이스부(160)는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 이동 단말기(100) 내부의 각 구성요소에 전달하거나, 이동 단말기(100) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트(port), 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 등이 인터페이스부(160)에 포함될 수 있다.
한편, 식별 모듈은 이동 단말기(100)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(user identify module; UIM), 가입자 인증 모듈(subscriber identity module; SIM), 범용 사용자 인증 모듈(universal subscriber identity module; USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 상기 인터페이스부(160)를 통하여 단말기(100)와 연결될 수 있다.
또한, 상기 인터페이스부(160)는 이동 단말기(100)가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 이동 단말기(100)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동 단말기(100)로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동 단말기(100)가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수 있다.
메모리(130)는 프로세서(120)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 상기 메모리(130)는 상기 터치 스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.
메모리(130)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 이동 단말기(100)는 인터넷(internet)상에서 상기 메모리(130)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작될 수도 있다.
한편, 앞서 살펴본 것과 같이, 프로세서(120)는 응용 프로그램과 관련된 동작과, 통상적으로 이동 단말기(100)의 전반적인 동작을 제어한다. 예를 들어, 프로세서(120)는 상기 이동 단말기의 상태가 설정된 조건을 만족하면, 애플리케이션들에 대한 사용자의 제어 명령의 입력을 제한하는 잠금 상태를 실행하거나, 해제할 수 있다.
또한, 프로세서(120)는 음성 통화, 데이터 통신, 화상 통화 등과 관련된 제어 및 처리를 수행하거나, 터치 스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다. 나아가 프로세서(120)는 이하에서 설명되는 다양한 실시 예들을 본 발명에 따른 이동 단말기(100) 상에서 구현하기 위하여, 위에서 살펴본 구성요소들을 중 어느 하나 또는 복수를 조합하여 제어할 수 있다.
전원 공급부(190)는 프로세서(120)의 제어에 의해 외부의 전원, 내부의 전원을 인가 받아 각 구성요소들의 동작에 필요한 전원을 공급한다. 전원공급부(190)는 배터리를 포함하며, 배터리는 충전 가능하도록 이루어지는 내장형 배터리가 될 수 있으며, 충전 등을 위하여 단말기 바디에 착탈 가능하게 결합될 수 있다.
또한, 전원공급부(190)는 연결포트를 구비할 수 있으며, 연결포트는 배터리의 충전을 위하여 전원을 공급하는 외부 충전기가 전기적으로 연결되는 인터페이스(160)의 일 예로서 구성될 수 있다.
다른 예로서, 전원공급부(190)는 상기 연결포트를 이용하지 않고 무선방식으로 배터리를 충전하도록 이루어질 수 있다. 이 경우에, 전원공급부(190)는 외부의 무선 전력 전송장치로부터 자기 유도 현상에 기초한 유도 결합(Inductive Coupling) 방식이나 전자기적 공진 현상에 기초한 공진 결합(Magnetic Resonance Coupling) 방식 중 하나 이상을 이용하여 전력을 전달받을 수 있다.
한편, 이하에서 다양한 실시 예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.
한편, 이동 단말기는 사용자가 주로 손에 쥐고 사용하는 차원을 넘어서, 신체에 착용할 수 있는 웨어러블 디바이스(wearable device)로 확장될 수 있다. 이러한 웨어러블 디바이스에는 스마트 워치(smart watch), 스마트 글래스(smart glass), HMD(head mounted display) 등이 있다. 이하, 웨어러블 디바이스로 확장된 이동 단말기의 예들에 대하여 설명하기로 한다.
웨어러블 디바이스는 다른 이동 단말기(100)와 데이터를 상호 교환(또는 연동) 가능하게 이루어질 수 있다. 근거리 통신 모듈(114)은, 이동 단말기(100) 주변에 통신 가능한 웨어러블 디바이스를 감지(또는 인식)할 수 있다. 나아가, 프로세서(120)는 감지된 웨어러블 디바이스가 이동 단말기(100)와 통신하도록 인증된 디바이스인 경우, 이동 단말기(100)에서 처리되는 데이터의 적어도 일부를, 근거리 통신 모듈(114)을 통하여 웨어러블 디바이스로 전송할 수 있다. 따라서, 사용자는 이동 단말기(100)에서 처리되는 데이터를 웨어러블 디바이스를 통하여 이용할 수 있다. 예를 들어, 이동 단말기(100)에 전화가 수신된 경우 웨어러블 디바이스를 통해 전화 통화를 수행하거나, 이동 단말기(100)에 메시지가 수신된 경우 웨어러블 디바이스를 통해 상기 수신된 메시지를 확인하는 것이 가능하다.
이하, 본 발명의 다양한 실시예들이 이동 단말기에서 어떻게 구현되는지에 대해 구체적으로 살펴본다. 이하에서 단말 또는 이동 단말기는 자동차 내부에 장착된 고정 또는 탈부착이 가능한 단말, 휴대용 단말 또는 상기 설명된 것 중 하나 이상일 수 있다.
본 발명의 일 실시예에 의한 이동 단말기는, 하나 이상의 Geographical Area를 표시하는 디스플레이부; 상기 표시된 하나 이상의 Geographical Area에 대한 사용자 입력을 수신하는 입력부; 상기 입력부 및 디스플레이부를 제어하는 제어부를 포함할 수 있다. 여기서, 상기 하나 이상의 Geographical Area 각각에는 V2X 서비스 별로 하나 이상의 RAT 정보가 매핑되어 있는 것일 수 있다. 이에 관련하여 도 10을 참조하면, 하나 이상의 Geographical Area, 즉 도 10(a)에 도시된 바와 같이 Geographical Area 1, Geographical Area 2, Geographical Area 3이 표시될 수 있다. Geographical Area들은 단말에 미리 설정 받은 Geographical Area, 현재 속해있는 혹은 위치하고 있는 Geographical Area, 가입되어 있는 Geographical Area이거나 또는 이용 가능한 Geographical Area, 혹은 업데이트된 Geographical Area 등 일 수 있다. 위 설정 화면에서 사용자로부터 선택 받기 위한 버튼이 디스플레이부에 표시될 수 있고, Text나 특정 영역이 버튼이 될 수 있다. 이는 하나의 예시에 불과하며 사용자의 선택을 받기 위한 다른 형태의 버튼으로 표시될 수도 있다. 상기에서 설명한 Geographical Area는 복수개의 List로 표시 될 수도 있다.
상기 제어부는, 상기 입력부에 상기 하나 이상의 Geographical Area 중 하나의 Geographical Area에 대한 사용자 입력이 수신되면, 상기 하나의 Geographical Area에 매핑되어 있는 RAT 정보를 상기 디스플레이부에 표시할 수 있다. 예를 들어, 도 10(a)에 표시된 Geographical Area 1, Geographical Area 2, Geographical Area 3 중에 Geographical Area 3에 대해 사용자의 선택이 있는 경우(예를 들어, 사용자로부터 터치 입력 또는 음성 입력을 받은 경우), 이 Geographical Area 3에 매핑되어 있는 RAT 정보를 디스플레이부에 표시할 수 있다. 이때, 상기 제어부는 도시된 바와 같이, 상기 RAT 정보에 관련된 V2X 서비스 정보를 함께 표시할 수 있으며, 상기 RAT 정보는 상기 Geographical Area에서 사용 가능한 RAT 정보이고, 상기 V2X 서비스 정보는 RAT을 이용할 수 있는 V2X 서비스 정보일 수 있다. 또 다른 예로써, 도 10(b)에 표시된 정보는 단말이 현재 위치한 Geographical Area에서 사용 가능한 RAT에 대한 정보를 표시한 것일 수 도 있다.
RAT에 대한 정보는 NR (또는 5G), LTE (또는 4G), LTE-A (또는 4.5G), non-3GPP (또는 WLAN) 과 같은 명칭으로 상용될 수 있으며, 서비스를 제공하는 사업자가 지정하는 이름으로 표시될 수도 있다. RAT 정보 이외에도 Geographical Area와 관련된 다른 정보 및 서비스제공 사업자가 제공하는 정보들도 함께 표시 될 수 있다. 이때 RAT 정보는 상기에서 언급한 Tx Profile를 기반으로 만들어진 혹은 관련된 정보일 수 있다. 사용 가능한 RAT과 함께 해당 RAT을 이용할 수 있는 V2X service 정보를 함께 표시할 수도 있다. 상기 서비스 제공 사업자는 이동통신 사업자 또는 서비스 제공자로 해석될 수 있다.
한편, 상기 제어부는, 상기 하나의 Geographical Area를 포함하는 지도를 상기 RAT 정보와 함께 상기 디스플레이부에 표시할 수도 있으며, 도 11에는 이러한 예가 도시되어 있다. 이 때, Geographical Area와 같이 사용 가능한 RAT 정보나 Geographical Arear와 관련된 다른 정보 및/또는 서비스 제공 사업자가 제공하는 정보들도 함께 표시될 수 있다. RAT 정보는 상기에서 언급한 Tx Profile를 기반으로 만들어진 혹은 관련된 정보일 수 있고, 사용 가능한 RAT과 함께 해당 RAT을 이용할 수 있는 V2X service 정보를 함께 표시할 수도 있다.
도 11의 Geographical Area 3에 대한 RAT 정보(사용 가능한 RAT 정보)와 V2X service 정보(V2X service 관련 정보)는, 이 Geographical Area 3는 도 10(a) 또는 도 11(b)에서 사용자의 입력에 의해 선택된 것일 수도 있고, 또는 도시된 바와 달리 단말이 현재 위치한 Geographical Area에 근거한 것일 수도 있다.
단말은 지도 상에 사용자의 위치(즉, 단말 위치)를 표시할 수 있다. 또한, 단말은 디스플레이부 상의 사용자의 터치(touch) 및/또는 드래그(drag) 입력에 따라 디스플레이부에 표시되는 지도를 상, 하, 좌, 우 등의 방향으로 이동시킬 수 있으며, 지도의 축적을 크게/작게 변경시킬 수 있다. 그리고, UE는 지도 상에 Geographical Area를 표시할 수 있다. 이때, 각 Geographical Area 별로 색깔이 상이하게 표시될 수 있다. 현재 단말이 속한 Geographical Area, 혹은 이용중인 Geographical Area를 디스플레이부에 지도와 함께 동시해 표시하여 줄수 있다.
도 11(b)에는 상기 제어부가, 상기 하나 이상의 Geographical Area를 포함하는 지도를 상기 디스플레이부에 표시하고, Geographical Area를 사용자로부터 선택 받으면 (예를 들어, 사용자로부터 터치 입력을 받거나 음성 입력을 받으면), 선택된 Geographical Area 사용 가능한 RAT 대한 정보가 표시되는 방식을 도시한다. 즉, 상기 제어부는, 상기 입력부에 상기 하나 이상의 Geographical Area를 포함하는 지도에서 하나의 Geographical Area에 해당하는 부분에 대한 사용자 입력이 수신되면, 상기 하나의 Geographical Area에 매핑되어 있는 RAT 정보를 상기 디스플레이부에 표시할 수 있다.
RAT에 대한 정보는 NR, LTE, LTE-A, non-3GPP 과 같은 명칭으로 상용될 수 있으며, 서비스를 제공하는 사업자가 지정하는 이름으로 표시될 수도 있다. RAT 정보 이외에도 Geographical Area와 관련된 다른 정보 및 서비스제공 사업자가 제공하는 정보들도 함께 표시 될 수 있다. 이때 RAT 정보는 상기에서 언급한 Tx Profile를 기반으로 만들어진 혹은 관련된 정보일 수 있다. 사용 가능한 RAT과 함께 해당 RAT을 이용할 수 있는 V2X service 정보를 함께 표시할 수도 있다.
도 12는 실시예 1에서 대표 UE가 상기의 RAT switch 지시/요청을 전송하고, 이를 수신한 UE가 요청 RAT 정보에 대한 응답을 전송하는 것에 관련된, 이동 단말기의 구체적인 동작 예시를 나타낸다.
도 12(a)에는 대표 UE가 다른 UE(s)에게 group communication을 수행하는 RAT을 switch하도록 지시하기 위해 또는 선택된 RAT을 알리기 위해 PC5 메시지를 전송할 때, 사용자가 RAT 정보를 확인하여 디스플레이상으로 선택하여 해당 동작을 Trigger하는 것을 나타낸다. 제어부는, 상기 디스플레이부에 표시된 상기 RAT 정보 중 어느 하나에 대한 사용자 입력이 수신되면, 입력에 해당하는 RAT 정보를 통신부를 통해 전송할 수 있다. 이때 RAT List는 RAT에 대한 정보는 NR, LTE, LTE-A, non-3GPP 과 같은 명칭으로 상용될 수 있으며, 서비스를 제공하는 사업자가 지정하는 이름으로 표시될 수도 있다. 이때 RAT 정보는 Tx Profile 를 기반으로 만들어진 혹은 관련된 정보일 수 있으며, 단일 RAT일 수도 있고, 복수개의 RAT의 조합일 수 있다.
도 12(b)는 대표 UE로부터 상기의 RAT switch/사용(선택) 지시/요청을 수신한 UE가, 대표 UE가 요청한 RAT 정보를 디스플레이부에 표시한 것을 나타낸다. 또는, 도 12(c)에 도시된 바와 같이, 수락한 UE 목록까지 더 표시할 수도 있다. 수신 UE는 디스플레이에 표시된 선택 화면에 대한, 사용자의 입력에 따라 ACK (‘허용’의 경우) 혹은 NACK (‘취소’의 경우) 정보가 전송할 수 있다. 또 다른 예로써, ACK/응답은 단말에 의해 자동으로 전송 될 수도 있다. 이때 RAT에 대한 정보는 NR, LTE, LTE-A, non-3GPP 과 같은 명칭으로 상용/사용될 수 있으며, 서비스를 제공하는 사업자가 지정하는 이름으로 표시될 수도 있다. 이때 RAT 정보는 대표 UE 및/혹은 수신한 UE의 Tx Profile 를 기반으로 만들어진 혹은 관련된 정보일 수 있으며, 단일 RAT일 수도 있고, 복수개의 RAT의 조합일 수 있다.
대표 UE의 제어부는, 상기 전송된 RAT 정보에 대한 ACK을 상기 그룹에 포함된 모든 단말들로부터 수신하고 confirm 메시지를 전송한 이후에만 상기 전송된 RAT 정보에 해당하는 RAT으로 스위칭할 수 있다. 즉, 대표 UE가 해당 group communication에 참여하는 다른 모든 UE들로부터 ACK/응답을 받은 후에 다른 UE들에게 confirmation message를 PC5를 통해 전송한 후에야 비로소 모든 UE들은 RAT switch/사용(선택) 동작을 수행하도록 할 수도 있다.
상기 group communication에 대한 설명은 unicast communication에도 적용될 수 있다.
상술한 바와 같이, UE (예를 들어, 차량은 특정 V2X service를 위해 사용되는 PC5 RAT (이는 선택된 PC5 RAT 또는 스위치된 PC5 RAT을 의미할 수 있음)을 UE의 디스플레이부에 표시할 수 있다. 상기 디스플레이부는 차량의 계기판, 대쉬보드, 차량내 네비게이션 화면과 같이 다양한 형태일 수 있다. 또한 휴대용 사용자 단말기기일 수 있다.
UE는 V2X service를 위해 사용되는 PC5 RAT에 대해 기본적으로 V2X service에 대한 정보와 사용되는 PC5 RAT에 대한 정보를 함께 디스플레이할 수 있다.
V2X service의 경우 다음과 같이 다양한 granularity로 보여줄 수 있다. 아래는 예시이며, 여기에 국한하지 않고 다양한 형태와 granularity로 보여줄 수 있으며, 조합된 형태로도 사용될 수 있다.
i) basic service인지 advanced service인지로 구분(예를 들어, basic service는 B , advanced service는 A 와 같이 구분)
ii) 주행(driving, 이는 사고발생시 이에 대한 정보전송 포함가능), platooning, auto-driving, sensor sharing 등과 같이 구분(예를 들어, 주행은 D , platooning은 P , auto-driving은 A , sensor sharing은 S 와 같이 구분)
사용되는 PC5 RAT의 경우 다음과 같이 다양한 granularity로 보여줄 수 있다. 아래는 예시이며, 여기에 국한하지 않고 다양한 형태와 granularity로 보여줄 수 있으며, 조합된 형태로도 사용될 수 있다.
I) 4G RAT인지 5G RAT인지 표시(예를 들어 4G RAT은 4G, 5G RAT은 5G 와 같이 표시)
II) LTE RAT인지 NR RAT인지 표시(예를 들어 LTE RAT은 LTE, NR RAT은 NR 와 같이 표시)
III) LTE RAT인지 5G RAT인지 표시(예를 들어, LTE RAT은 LTE , 5G RAT은 5G 와 같이 표시)
4G RAT은 LTE RAT, 5G RAT은 NR RAT을 의미할 수 있으며, non-3GGP RAT 도 포함 될 수 있다.
상술한 설명을 기반으로 예를 들어, UE가 basic service에 대해서는 LTE PC5를 사용하고 있고, sensor sharing에 대해서는 NR PC5를 사용하고 있다면, UE는 디스플레이부(151)에 아래와 같이 표시할 수 있다.
B (4G)
S (5G)
또 다른 예로, UE가 주행 및 platooning에 대해서는 LTE PC5을 사용하고 있고, sensor sharing에 대해서는 NR PC5를 사용하고 있다면, 디스플레이부(151)에 아래와 같이 표시할 수 있다.
D | P (LTE)
S (NR)
또 다른 예로, UE가 basic service 뿐만 아니라 sensor sharing에 대해서도 NR PC5를 사용하고 있다면, 디스플레이부(151)에 ‘B | S (5G)‘와 같이 표시할 수 있다.
또 다른 예로, UE가 모든 V2X service에 대해 NR PC5를 사용하고 있다면, UE는 디스플레이부에 ‘ALL (5G)‘와 같이 표시할 수 있다.
UE가 모든 V2X service에 대해 하나의 PC5 RAT만 사용하고 있다면, UE는 디스플레이부(151)에 V2X service 정보는 생략하고 PC5 RAT 정보만 ‘5G‘와 같이 표시할 수도 있다.
또한 단일 RAT 뿐만 아니라 여러 개의 RAT의 조합으로도 표시 가능하다. 또한 도 14와 같이 단말의 디스플레이 장치 외 별도의 디스플레이장치에서 위에서 설명한 다양한 granularity로 보여줄 수 있다. 별도의 디스플레이 장치는 차량의 계기판, 대쉬보드, 차량내 네비게이션 화면 등과 같이 다양한 형태일 수 있다. 또한 단말과 별도의 디스플레이 장치에 모두 표시 될 수 있다. 상기 별도의 디스플레이장치는 별도 단말의 디스플레이장치 일수 있다.
도 15는 본 발명의 일 실시예에 관한 순서도이다. 이하의 순서도는 상술한 설명 및 필요/해석에 따라, 일부 단계만으로 구성될 수도 있으며, 도시되지 않은 단계가 상술한 설명에 기초하여 추가될 수도 있다.
도 15를 참조하면, 단말은 하나 이상의 Geographical Area를 디스플레이부에 표시(S1501)할 수 있다. 상기 표시된 하나 이상의 Geographical Area에 대한 사용자 입력을 수신(S1502)하면, 사용자 입력이 수신된 Geographical Area에 매핑되어 있는 RAT 정보를 디스플레이부에 표시(S1503)할 수 있다.
이 표시된 RAT 정보에 사용자 입력이 있는지 여부를 판단하여(S1504), 사용자 입력이 감지된 RAT 정보를 그룹 내 UE에게 전송(S1505)할 수 있다. 이후, 그룹 내 모든 UE로부터 ACK 수신되는지를 판단하고(S1506), 그룹 내 모든 UE로부터 ACK이 수신된 경우 상기 RAT 으로 스위칭(S1507)할 수 있다. 만약, 그룹 내 모든 UE 로부터 ACK 이 수신되지 않은 경우 RAT 변경을 수행하지 않으며 RAT을 유지(S1508)한다.
도 16은 본 명세서에서 제시되는 실시예가 구현되는 단말의 구성 블록도이다.
도 16을 참조하면, 단말(또는 무선기기)는 Geographical Area 정보 관리부(1621), Geographical Area 설정 관리부(1622), V2X 서비스 정보 관리부(1623) 그리고 RAT 정보 관리부(1624)를 포함할 수 있다.
상기 Geographical Area 영역 관리부(1621), 상기 Geographical Area 설정 관리부(1622), Geographical Area 세션 관리부 (1623) 그리고 Geographical Area 정보 관리부 (1624)는 도 9의 프로세서(120)에 포함될 수 있다.
상기 Geographical Area 영역 관리부(1621)는 단말이 특정 Geographical Area 영역 내에 있는지를 판단한다. 이를 위해서, 상기 Geographical Area 영역 관리부(1621)는 단말의 위치정보를 획득할 수 있다.
상기 Geographical Area 설정 관리부(1622)는 Geographical Area 와 관련된 설정 화면(즉, UI)를 표시하고 사용자로부터 입력을 수신하여 저장할 수 있다.
상기 Geographical Area 세션 관리부(1623)는 Geographical Area을 위한 PDU 세션을 수립하거나 수정하거나 해제할 수 있다.
상기 Geographical Area 정보 관리부(1624)는 네트워크로부터 수신한 Geographical Area 관련 정보를 수신하고 저장한 후, 상기 Geographical Area 영역 관리부(1621), Geographical Area 설정 관리부(1622) 그리고 Geographical Area 세션 관리부 (1623)에 제공할 수 있다.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 단말기의 프로세서(120)를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.
5G 사용 시나리오
도 17은 5G 사용 시나리오의 예를 나타낸다.
도 17에 도시된 5G 사용 시나리오는 단지 예시적인 것이며, 본 발명의 기술적 특징은 도 17에 도시되지 않은 다른 5G 사용 시나리오에도 적용될 수 있다.
도 17을 참조하면, 5G의 세 가지 주요 요구 사항 영역은 (1) 향상된 모바일 광대역(eMBB; enhanced mobile broadband그리고) 영역, (2) 거대 MTC(mMTC; massive machine type communication) 영역 및 (3) 고신뢰/초저지연 통신(URLLC; ultra-reliable 그리고 low latency communications) 영역을 포함한다. 일부 사용 예는 최적화를 위해 다수의 영역을 요구할 수 있고, 다른 사용 예는 단지 하나의 핵심 성능 지표(KPI; key performance indicator)에만 포커싱 할 수 있다. 5G는 이러한 다양한 사용 예들을 유연하고 신뢰할 수 있는 방법으로 지원하는 것이다.
eMBB는 데이터 속도, 지연, 사용자 밀도, 모바일 광대역 접속의 용량 및 커버리지의 전반적인 향상에 중점을 둔다. eMBB는 10Gbps 정도의 처리량을 목표로 한다. eMBB는 기본적인 모바일 인터넷 접속을 훨씬 능가하게 하며, 풍부한 양방향 작업, 클라우드 또는 증강 현실에서 미디어 및 엔터테인먼트 애플리케이션을 커버한다. 데이터는 5G의 핵심 동력 중 하나이며, 5G 시대에서 처음으로 전용 음성 서비스를 볼 수 없을 수 있다. 5G에서, 음성은 단순히 통신 시스템에 의해 제공되는 데이터 연결을 사용하여 애플리케이션 프로그램으로서 처리될 것으로 기대된다. 증가된 트래픽 양의 주요 원인은 콘텐츠 크기의 증가 및 높은 데이터 전송률을 요구하는 애플리케이션 수의 증가이다. 스트리밍 서비스(오디오 및 비디오), 대화형 비디오 및 모바일 인터넷 연결은 더 많은 장치가 인터넷에 연결될수록 더 널리 사용될 것이다. 이러한 많은 애플리케이션은 사용자에게 실시간 정보 및 알림을 푸쉬하기 위해 항상 켜져 있는 연결성을 필요로 한다. 클라우드 스토리지 및 애플리케이션은 모바일 통신 플랫폼에서 급속히 증가하고 있으며, 이것은 업무 및 엔터테인먼트 모두에 적용될 수 있다. 클라우드 스토리지는 상향링크 데이터 전송률의 성장을 견인하는 특별한 사용 예이다. 5G는 또한 클라우드 상의 원격 업무에도 사용되며, 촉각 인터페이스가 사용될 때 우수한 사용자 경험을 유지하도록 훨씬 더 낮은 단-대-단(end-to-end) 지연을 요구한다. 엔터테인먼트에서 예를 들면, 클라우드 게임 및 비디오 스트리밍은 모바일 광대역 능력의 향상을 요구하는 또 다른 핵심 요소이다. 엔터테인먼트는 기차, 차 및 비행기와 같은 높은 이동성 환경을 포함하여 어떤 곳에서든지 스마트폰 및 태블릿에서 필수적이다. 또 다른 사용 예는 엔터테인먼트를 위한 증강 현실 및 정보 검색이다. 여기서, 증강 현실은 매우 낮은 지연과 순간적인 데이터 양을 필요로 한다.
mMTC는 배터리에 의해 구동되는 다량의 저비용 장치 간의 통신을 가능하게 하기 위하여 설계되며, 스마트 계량, 물류, 현장 및 신체 센서와 같은 애플리케이션을 지원하기 위한 것이다. mMTC는 10년 정도의 배터리 및/또는 1km2 당 백만 개 정도의 장치를 목표로 한다. mMTC는 모든 분야에서 임베디드 센서를 원활하게 연결할 수 있게 하여 센서 네트워크를 구성할 수 있으며, 가장 많이 예상되는 5G 사용 예 중 하나이다. 잠재적으로 2020년까지 IoT 장치들은 204억 개에 이를 것으로 예측된다. 산업 IoT를 활용한 스마트 네트워크는 5G가 스마트 도시, 자산 추적(asset tracking), 스마트 유틸리티, 농업 및 보안 인프라를 가능하게 하는 주요 역할을 수행하는 영역 중 하나이다.
URLLC는 장치 및 기계가 매우 신뢰성 있고 매우 낮은 지연 및 높은 가용성으로 통신할 수 있도록 함으로써 자율주행 차량간 통신 및 제어, 산업 제어, 공장 자동화, 원격 수술과 헬스케어와 같은 미션 크리티컬 어플리케이션, 스마트 그리드 및 공공 안전 애플리케이션에 이상적이다. URLLC는 1ms의 정도의 지연을 목표로 한다. URLLC는 주요 인프라의 원격 제어 및 자율 주행 차량과 같은 고신뢰/초저지연 링크를 통해 산업을 변화시킬 새로운 서비스를 포함한다. 신뢰성과 지연의 수준은 스마트 그리드 제어, 산업 자동화, 로봇 공학, 드론 제어 및 조정에 필수적이다.
다음으로, 도 17의 삼각형 안에 포함된 다수의 사용 예에 대해 보다 구체적으로 살펴본다.
5G는 초당 수백 메가 비트에서 초당 기가 비트로 평가되는 스트림을 제공하는 수단으로 FTTH(fiber-to-the-home) 및 케이블 기반 광대역(또는 DOCSIS)을 보완할 수 있다. 이러한 빠른 속도는 가상 현실(VR; virtual reality)과 증강 현실(AR; augmented reality) 뿐 아니라 4K 이상(6K, 8K 및 그 이상)의 해상도로 TV를 전달하는 데에 요구될 수 있다. VR 및 AR 애플리케이션은 거의 몰입형(immersive) 스포츠 경기를 포함한다. 특정 애플리케이션은 특별한 네트워크 설정이 요구될 수 있다. 예를 들어, VR 게임의 경우, 게임 회사가 지연을 최소화하기 위해 코어 서버를 네트워크 오퍼레이터의 에지 네트워크 서버와 통합해야 할 수 있다.
자동차(Automotive)는 차량에 대한 이동 통신을 위한 많은 사용 예와 함께 5G에 있어 중요한 새로운 동력이 될 것으로 예상된다. 예를 들어, 승객을 위한 엔터테인먼트는 높은 용량과 높은 모바일 광대역을 동시에 요구한다. 그 이유는 미래의 사용자는 그들의 위치 및 속도와 관계 없이 고품질의 연결을 계속해서 기대하기 때문이다. 자동차 분야의 다른 사용 예는 증강 현실 대시보드이다. 운전자는 증강 현실 대시보드를 통해 앞면 창을 통해 보고 있는 것 위에 어둠 속에서 물체를 식별할 수 있다. 증강 현실 대시보드는 물체의 거리와 움직임에 대해 운전자에게 알려줄 정보를 겹쳐서 디스플레이 한다. 미래에, 무선 모듈은 차량 간의 통신, 차량과 지원하는 인프라구조 사이에서 정보 교환 및 자동차와 다른 연결된 장치(예를 들어, 보행자에 의해 수반되는 장치) 사이에서 정보 교환을 가능하게 한다. 안전 시스템은 운전자가 보다 안전한 운전을 할 수 있도록 행동의 대체 코스를 안내하여 사고의 위험을 낮출 수 있게 한다. 다음 단계는 원격 조종 차량 또는 자율 주행 차량이 될 것이다. 이는 서로 다른 자율 주행 차량 사이 및/또는 자동차와 인프라 사이에서 매우 신뢰성이 있고 매우 빠른 통신을 요구한다. 미래에, 자율 주행 차량이 모든 운전 활동을 수행하고, 운전자는 차량 자체가 식별할 수 없는 교통 이상에만 집중하도록 할 것이다. 자율 주행 차량의 기술적 요구 사항은 트래픽 안전을 사람이 달성할 수 없을 정도의 수준까지 증가하도록 초 저 지연과 초고속 신뢰성을 요구한다.
스마트 사회로서 언급되는 스마트 도시와 스마트 홈은 스마트 네트워크의 일례로 고밀도 무선 센서 네트워크로 임베디드 될 것이다. 지능형 센서의 분산 네트워크는 도시 또는 집의 비용 및 에너지 효율적인 유지에 대한 조건을 식별할 것이다. 유사한 설정이 각 가정을 위해 수행될 수 있다. 온도 센서, 창 및 난방 컨트롤러, 도난 경보기 및 가전 제품은 모두 무선으로 연결된다. 이러한 센서 중 많은 것들이 전형적으로 낮은 데이터 전송 속도, 저전력 및 저비용을 요구한다. 하지만, 예를 들어, 실시간 HD 비디오는 감시를 위해 특정 타입의 장치에서 요구될 수 있다.
열 또는 가스를 포함한 에너지의 소비 및 분배는 고도로 분산화되고 있어, 분산 센서 네트워크의 자동화된 제어가 요구된다. 스마트 그리드는 정보를 수집하고 이에 따라 행동하도록 디지털 정보 및 통신 기술을 사용하여 이런 센서를 상호 연결한다. 이 정보는 공급 업체와 소비자의 행동을 포함할 수 있으므로, 스마트 그리드가 효율성, 신뢰성, 경제성, 생산의 지속 가능성 및 자동화된 방식으로 전기와 같은 연료의 분배를 개선하도록 할 수 있다. 스마트 그리드는 지연이 적은 다른 센서 네트워크로 볼 수도 있다.
건강 부문은 이동 통신의 혜택을 누릴 수 있는 많은 애플리케이션을 보유하고 있다. 통신 시스템은 멀리 떨어진 곳에서 임상 진료를 제공하는 원격 진료를 지원할 수 있다. 이는 거리에 대한 장벽을 줄이는 데에 도움을 주고, 거리가 먼 농촌에서 지속적으로 이용하지 못하는 의료 서비스로의 접근을 개선시킬 수 있다. 이는 또한 중요한 진료 및 응급 상황에서 생명을 구하기 위해 사용된다. 이동 통신 기반의 무선 센서 네트워크는 심박수 및 혈압과 같은 파라미터에 대한 원격 모니터링 및 센서를 제공할 수 있다.
무선 및 모바일 통신은 산업 애플리케이션 분야에서 점차 중요해지고 있다. 배선은 설치 및 유지 비용이 높다. 따라서, 케이블을 재구성할 수 있는 무선 링크로의 교체 가능성은 많은 산업 분야에서 매력적인 기회이다. 그러나, 이를 달성하는 것은 무선 연결이 케이블과 비슷한 지연, 신뢰성 및 용량으로 동작하는 것과, 그 관리가 단순화될 것을 요구한다. 낮은 지연과 매우 낮은 오류 확률은 5G로 연결될 필요가 있는 새로운 요구 사항이다.
물류 및 화물 추적은 위치 기반 정보 시스템을 사용하여 어디에서든지 인벤토리(inventory) 및 패키지의 추적을 가능하게 하는 이동 통신에 대한 중요한 사용 예이다. 물류 및 화물 추적의 사용 예는 전형적으로 낮은 데이터 속도를 요구하지만 넓은 범위와 신뢰성 있는 위치 정보가 필요하다.
<인공 지능(AI: Artificial Intelligence)>
인공 지능은 인공적인 지능 또는 이를 만들 수 있는 방법론을 연구하는 분야를 의미하며, 머신 러닝(기계 학습, Machine Learning)은 인공 지능 분야에서 다루는 다양한 문제를 정의하고 그것을 해결하는 방법론을 연구하는 분야를 의미한다. 머신 러닝은 어떠한 작업에 대하여 꾸준한 경험을 통해 그 작업에 대한 성능을 높이는 알고리즘으로 정의하기도 한다.
인공 신경망(ANN: Artificial Neural Network)은 머신 러닝에서 사용되는 모델로써, 시냅스의 결합으로 네트워크를 형성한 인공 뉴런(노드)들로 구성되는, 문제 해결 능력을 가지는 모델 전반을 의미할 수 있다. 인공 신경망은 다른 레이어의 뉴런들 사이의 연결 패턴, 모델 파라미터를 갱신하는 학습 과정, 출력값을 생성하는 활성화 함수(Activation Function)에 의해 정의될 수 있다.
인공 신경망은 입력층(Input Layer), 출력층(Output Layer), 그리고 선택적으로 하나 이상의 은닉층(Hidden Layer)를 포함할 수 있다. 각 층은 하나 이상의 뉴런을 포함하고, 인공 신경망은 뉴런과 뉴런을 연결하는 시냅스를 포함할 수 있다. 인공 신경망에서 각 뉴런은 시냅스를 통해 입력되는 입력 신호들, 가중치, 편향에 대한 활성 함수의 함숫값을 출력할 수 있다.
모델 파라미터는 학습을 통해 결정되는 파라미터를 의미하며, 시냅스 연결의 가중치와 뉴런의 편향 등이 포함된다. 그리고, 하이퍼파라미터는 머신 러닝 알고리즘에서 학습 전에 설정되어야 하는 파라미터를 의미하며, 학습률(Learning Rate), 반복 횟수, 미니 배치 크기, 초기화 함수 등이 포함된다.
인공 신경망의 학습의 목적은 손실 함수를 최소화하는 모델 파라미터를 결정하는 것으로 볼 수 있다. 손실 함수는 인공 신경망의 학습 과정에서 최적의 모델 파라미터를 결정하기 위한 지표로 이용될 수 있다.
머신 러닝은 학습 방식에 따라 지도 학습(Supervised Learning), 비지도 학습(Unsupervised Learning), 강화 학습(Reinforcement Learning)으로 분류할 수 있다.
지도 학습은 학습 데이터에 대한 레이블(label)이 주어진 상태에서 인공 신경망을 학습시키는 방법을 의미하며, 레이블이란 학습 데이터가 인공 신경망에 입력되는 경우 인공 신경망이 추론해 내야 하는 정답(또는 결과 값)을 의미할 수 있다. 비지도 학습은 학습 데이터에 대한 레이블이 주어지지 않는 상태에서 인공 신경망을 학습시키는 방법을 의미할 수 있다. 강화 학습은 어떤 환경 안에서 정의된 에이전트가 각 상태에서 누적 보상을 최대화하는 행동 혹은 행동 순서를 선택하도록 학습시키는 학습 방법을 의미할 수 있다.
인공 신경망 중에서 복수의 은닉층을 포함하는 심층 신경망(DNN: Deep Neural Network)으로 구현되는 머신 러닝을 딥 러닝(심층 학습, Deep Learning)이라 부르기도 하며, 딥 러닝은 머신 러닝의 일부이다. 이하에서, 머신 러닝은 딥 러닝을 포함하는 의미로 사용된다.
<로봇(Robot)>
로봇은 스스로 보유한 능력에 의해 주어진 일을 자동으로 처리하거나 작동하는 기계를 의미할 수 있다. 특히, 환경을 인식하고 스스로 판단하여 동작을 수행하는 기능을 갖는 로봇을 지능형 로봇이라 칭할 수 있다.
로봇은 사용 목적이나 분야에 따라 산업용, 의료용, 가정용, 군사용 등으로 분류할 수 있다.
로봇은 액츄에이터 또는 모터를 포함하는 구동부를 구비하여 로봇 관절을 움직이는 등의 다양한 물리적 동작을 수행할 수 있다. 또한, 이동 가능한 로봇은 구동부에 휠, 브레이크, 프로펠러 등이 포함되어, 구동부를 통해 지상에서 주행하거나 공중에서 비행할 수 있다.
<자율 주행(Self-Driving, Autonomous?Driving)>
자율 주행은 스스로 주행하는 기술을 의미하며, 자율 주행 차량은 사용자의 조작 없이 또는 사용자의 최소한의 조작으로 주행하는 차량(Vehicle)을 의미한다.
예컨대, 자율 주행에는 주행중인 차선을 유지하는 기술, 어댑티브 크루즈 컨트롤과 같이 속도를 자동으로 조절하는 기술, 정해진 경로를 따라 자동으로 주행하는 기술, 목적지가 설정되면 자동으로 경로를 설정하여 주행하는 기술, 여러대의 차량간 협력주행 또는 군집주행 등이 모두 포함될 수 있다.
차량은 내연 기관만을 구비하는 차량, 내연 기관과 전기 모터를 함께 구비하는 하이브리드 차량, 그리고 전기 모터만을 구비하는 전기 차량을 모두 포괄하며, 자동차뿐만 아니라 기차, 오토바이 등을 포함할 수 있다.
이때, 자율 주행 차량은 자율 주행 기능을 가진 로봇으로 볼 수 있다.
<확장 현실(XR: eXtended Reality)>
확장 현실은 가상 현실(VR: Virtual Reality), 증강 현실(AR: Augmented Reality), 혼합 현실(MR: Mixed Reality)을 총칭한다. VR 기술은 현실 세계의 객체나 배경 등을 CG 영상으로만 제공하고, AR 기술은 실제 사물 영상 위에 가상으로 만들어진 CG 영상을 함께 제공하며, MR 기술은 현실 세계에 가상 객체들을 섞고 결합시켜서 제공하는 컴퓨터 그래픽 기술이다.
MR 기술은 현실 객체와 가상 객체를 함께 보여준다는 점에서 AR 기술과 유사하다. 그러나, AR 기술에서는 가상 객체가 현실 객체를 보완하는 형태로 사용되는 반면, MR 기술에서는 가상 객체와 현실 객체가 동등한 성격으로 사용된다는 점에서 차이점이 있다.
XR 기술은 HMD(Head-Mount Display), HUD(Head-Up Display), 휴대폰, 태블릿 PC, 랩탑, 데스크탑, TV, 디지털 사이니지 등에 적용될 수 있고, XR 기술이 적용된 장치를 XR 장치(XR Device)라 칭할 수 있다.
도 18은 본 발명의 일 실시 예에 따른 AI 시스템(1)을 나타낸다.
도 18을 참조하면, AI 시스템(1)은 AI 서버(200), 로봇(100a), 자율 주행 차량(100b), XR 장치(100c), 스마트폰(100d) 또는 가전(100e) 중에서 적어도 하나 이상이 클라우드 네트워크(10)와 연결된다. 여기서, AI 기술이 적용된 로봇(100a), 자율 주행 차량(100b), XR 장치(100c), 스마트폰(100d) 또는 가전(100e) 등을 AI 장치(100a 내지 100e)라 칭할 수 있다.
클라우드 네트워크(10)는 클라우드 컴퓨팅 인프라의 일부를 구성하거나 클라우드 컴퓨팅 인프라 안에 존재하는 네트워크를 의미할 수 있다. 여기서, 클라우드 네트워크(10)는 3G 네트워크, 4G 또는 LTE(Long Term Evolution) 네트워크 또는 5G 네트워크 등을 이용하여 구성될 수 있다.
즉, AI 시스템(1)을 구성하는 각 장치들(100a 내지 100e, 200)은 클라우드 네트워크(10)를 통해 서로 연결될 수 있다. 특히, 각 장치들(100a 내지 100e, 200)은 기지국을 통해서 서로 통신할 수도 있지만, 기지국을 통하지 않고 직접 서로 통신할 수도 있다.
AI 서버(200)는 AI 프로세싱을 수행하는 서버와 빅 데이터에 대한 연산을 수행하는 서버를 포함할 수 있다.
AI 서버(200)는 AI 시스템(1)을 구성하는 AI 장치들인 로봇(100a), 자율 주행 차량(100b), XR 장치(100c), 스마트폰(100d) 또는 가전(100e) 중에서 적어도 하나 이상과 클라우드 네트워크(10)을 통하여 연결되고, 연결된 AI 장치들(100a 내지 100e)의 AI 프로세싱을 적어도 일부를 도울 수 있다.
이때, AI 서버(200)는 AI 장치(100a 내지 100e)를 대신하여 머신 러닝 알고리즘에 따라 인공 신경망을 학습시킬 수 있고, 학습 모델을 직접 저장하거나 AI 장치(100a 내지 100e)에 전송할 수 있다.
이때, AI 서버(200)는 AI 장치(100a 내지 100e)로부터 입력 데이터를 수신하고, 학습 모델을 이용하여 수신한 입력 데이터에 대하여 결과 값을 추론하고, 추론한 결과 값에 기초한 응답이나 제어 명령을 생성하여 AI 장치(100a 내지 100e)로 전송할 수 있다.
또는, AI 장치(100a 내지 100e)는 직접 학습 모델을 이용하여 입력 데이터에 대하여 결과 값을 추론하고, 추론한 결과 값에 기초한 응답이나 제어 명령을 생성할 수도 있다.
이하에서는, 상술한 기술이 적용되는 AI 장치(100a 내지 100e)의 다양한 실시 예들을 설명한다.
<AI+로봇>
로봇(100a)은 AI 기술이 적용되어, 안내 로봇, 운반 로봇, 청소 로봇, 웨어러블 로봇, 엔터테인먼트 로봇, 펫 로봇, 무인 비행 로봇 등으로 구현될 수 있다.
로봇(100a)은 동작을 제어하기 위한 로봇 제어 모듈을 포함할 수 있고, 로봇 제어 모듈은 소프트웨어 모듈 또는 이를 하드웨어로 구현한 칩을 의미할 수 있다.
로봇(100a)은 다양한 종류의 센서들로부터 획득한 센서 정보를 이용하여 로봇(100a)의 상태 정보를 획득하거나, 주변 환경 및 객체를 검출(인식)하거나, 맵 데이터를 생성하거나, 이동 경로 및 주행 계획을 결정하거나, 사용자 상호작용에 대한 응답을 결정하거나, 동작을 결정할 수 있다.
여기서, 로봇(100a)은 이동 경로 및 주행 계획을 결정하기 위하여, 라이다, 레이더, 카메라 중에서 적어도 하나 이상의 센서에서 획득한 센서 정보를 이용할 수 있다.
로봇(100a)은 적어도 하나 이상의 인공 신경망으로 구성된 학습 모델을 이용하여 상기한 동작들을 수행할 수 있다. 예컨대, 로봇(100a)은 학습 모델을 이용하여 주변 환경 및 객체를 인식할 수 있고, 인식된 주변 환경 정보 또는 객체 정보를 이용하여 동작을 결정할 수 있다. 여기서, 학습 모델은 로봇(100a)에서 직접 학습되거나, AI 서버(200) 등의 외부 장치에서 학습된 것일 수 있다.
이때, 로봇(100a)은 직접 학습 모델을 이용하여 결과를 생성하여 동작을 수행할 수도 있지만, AI 서버(200) 등의 외부 장치에 센서 정보를 전송하고 그에 따라 생성된 결과를 수신하여 동작을 수행할 수도 있다.
로봇(100a)은 맵 데이터, 센서 정보로부터 검출한 객체 정보 또는 외부 장치로부터 획득한 객체 정보 중에서 적어도 하나 이상을 이용하여 이동 경로와 주행 계획을 결정하고, 구동부를 제어하여 결정된 이동 경로와 주행 계획에 따라 로봇(100a)을 주행시킬 수 있다.
맵 데이터에는 로봇(100a)이 이동하는 공간에 배치된 다양한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 예컨대, 맵 데이터에는 벽, 문 등의 고정 객체들과 화분, 책상 등의 이동 가능한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 그리고, 객체 식별 정보에는 명칭, 종류, 거리, 위치 등이 포함될 수 있다.
또한, 로봇(100a)은 사용자의 제어/상호작용에 기초하여 구동부를 제어함으로써, 동작을 수행하거나 주행할 수 있다. 이때, 로봇(100a)은 사용자의 동작이나 음성 발화에 따른 상호작용의 의도 정보를 획득하고, 획득한 의도 정보에 기초하여 응답을 결정하여 동작을 수행할 수 있다.
<AI+자율주행>
자율 주행 차량(100b)은 AI 기술이 적용되어, 이동형 로봇, 차량, 무인 비행체 등으로 구현될 수 있다.
자율 주행 차량(100b)은 자율 주행 기능을 제어하기 위한 자율 주행 제어 모듈을 포함할 수 있고, 자율 주행 제어 모듈은 소프트웨어 모듈 또는 이를 하드웨어로 구현한 칩을 의미할 수 있다. 자율 주행 제어 모듈은 자율 주행 차량(100b)의 구성으로써 내부에 포함될 수도 있지만, 자율 주행 차량(100b)의 외부에 별도의 하드웨어로 구성되어 연결될 수도 있다.
자율 주행 차량(100b)은 다양한 종류의 센서들로부터 획득한 센서 정보를 이용하여 자율 주행 차량(100b)의 상태 정보를 획득하거나, 주변 환경 및 객체를 검출(인식)하거나, 맵 데이터를 생성하거나, 이동 경로 및 주행 계획을 결정하거나, 동작을 결정할 수 있다.
여기서, 자율 주행 차량(100b)은 이동 경로 및 주행 계획을 결정하기 위하여, 로봇(100a)과 마찬가지로, 라이다, 레이더, 카메라 중에서 적어도 하나 이상의 센서에서 획득한 센서 정보를 이용할 수 있다.
특히, 자율 주행 차량(100b)은 시야가 가려지는 영역이나 일정 거리 이상의 영역에 대한 환경이나 객체는 외부 장치들로부터 센서 정보를 수신하여 인식하거나, 외부 장치들로부터 직접 인식된 정보를 수신할 수 있다.
자율 주행 차량(100b)은 적어도 하나 이상의 인공 신경망으로 구성된 학습 모델을 이용하여 상기한 동작들을 수행할 수 있다. 예컨대, 자율 주행 차량(100b)은 학습 모델을 이용하여 주변 환경 및 객체를 인식할 수 있고, 인식된 주변 환경 정보 또는 객체 정보를 이용하여 주행 동선을 결정할 수 있다. 여기서, 학습 모델은 자율 주행 차량(100b)에서 직접 학습되거나, AI 서버(200) 등의 외부 장치에서 학습된 것일 수 있다.
이때, 자율 주행 차량(100b)은 직접 학습 모델을 이용하여 결과를 생성하여 동작을 수행할 수도 있지만, AI 서버(200) 등의 외부 장치에 센서 정보를 전송하고 그에 따라 생성된 결과를 수신하여 동작을 수행할 수도 있다.
자율 주행 차량(100b)은 맵 데이터, 센서 정보로부터 검출한 객체 정보 또는 외부 장치로부터 획득한 객체 정보 중에서 적어도 하나 이상을 이용하여 이동 경로와 주행 계획을 결정하고, 구동부를 제어하여 결정된 이동 경로와 주행 계획에 따라 자율 주행 차량(100b)을 주행시킬 수 있다.
맵 데이터에는 자율 주행 차량(100b)이 주행하는 공간(예컨대, 도로)에 배치된 다양한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 예컨대, 맵 데이터에는 가로등, 바위, 건물 등의 고정 객체들과 차량, 보행자 등의 이동 가능한 객체들에 대한 객체 식별 정보가 포함될 수 있다. 그리고, 객체 식별 정보에는 명칭, 종류, 거리, 위치 등이 포함될 수 있다.
또한, 자율 주행 차량(100b)은 사용자의 제어/상호작용에 기초하여 구동부를 제어함으로써, 동작을 수행하거나 주행할 수 있다. 이때, 자율 주행 차량(100b)은 사용자의 동작이나 음성 발화에 따른 상호작용의 의도 정보를 획득하고, 획득한 의도 정보에 기초하여 응답을 결정하여 동작을 수행할 수 있다.
<AI+XR>
XR 장치(100c)는 AI 기술이 적용되어, HMD(Head-Mount Display), 차량에 구비된 HUD(Head-Up Display), 텔레비전, 휴대폰, 스마트 폰, 컴퓨터, 웨어러블 디바이스, 가전 기기, 디지털 사이니지, 차량, 고정형 로봇이나 이동형 로봇 등으로 구현될 수 있다.
XR 장치(100c)는 다양한 센서들을 통해 또는 외부 장치로부터 획득한 3차원 포인트 클라우드 데이터 또는 이미지 데이터를 분석하여 3차원 포인트들에 대한 위치 데이터 및 속성 데이터를 생성함으로써 주변 공간 또는 현실 객체에 대한 정보를 획득하고, 출력할 XR 객체를 렌더링하여 출력할 수 있다. 예컨대, XR 장치(100c)는 인식된 물체에 대한 추가 정보를 포함하는 XR 객체를 해당 인식된 물체에 대응시켜 출력할 수 있다.
XR 장치(100c)는 적어도 하나 이상의 인공 신경망으로 구성된 학습 모델을 이용하여 상기한 동작들을 수행할 수 있다. 예컨대, XR 장치(100c)는 학습 모델을 이용하여 3차원 포인트 클라우드 데이터 또는 이미지 데이터에서 현실 객체를 인식할 수 있고, 인식한 현실 객체에 상응하는 정보를 제공할 수 있다. 여기서, 학습 모델은 XR 장치(100c)에서 직접 학습되거나, AI 서버(200) 등의 외부 장치에서 학습된 것일 수 있다.
이때, XR 장치(100c)는 직접 학습 모델을 이용하여 결과를 생성하여 동작을 수행할 수도 있지만, AI 서버(200) 등의 외부 장치에 센서 정보를 전송하고 그에 따라 생성된 결과를 수신하여 동작을 수행할 수도 있다.
<AI+로봇+자율주행>
로봇(100a)은 AI 기술 및 자율 주행 기술이 적용되어, 안내 로봇, 운반 로봇, 청소 로봇, 웨어러블 로봇, 엔터테인먼트 로봇, 펫 로봇, 무인 비행 로봇 등으로 구현될 수 있다.
AI 기술과 자율 주행 기술이 적용된 로봇(100a)은 자율 주행 기능을 가진 로봇 자체나, 자율 주행 차량(100b)과 상호작용하는 로봇(100a) 등을 의미할 수 있다.
자율 주행 기능을 가진 로봇(100a)은 사용자의 제어 없이도 주어진 동선에 따라 스스로 움직이거나, 동선을 스스로 결정하여 움직이는 장치들을 통칭할 수 있다.
자율 주행 기능을 가진 로봇(100a) 및 자율 주행 차량(100b)은 이동 경로 또는 주행 계획 중 하나 이상을 결정하기 위해 공통적인 센싱 방법을 사용할 수 있다. 예를 들어, 자율 주행 기능을 가진 로봇(100a) 및 자율 주행 차량(100b)은 라이다, 레이더, 카메라를 통해 센싱된 정보를 이용하여, 이동 경로 또는 주행 계획 중 하나 이상을 결정할 수 있다.
자율 주행 차량(100b)과 상호작용하는 로봇(100a)은 자율 주행 차량(100b)과 별개로 존재하면서, 자율 주행 차량(100b)의 내부 또는 외부에서 자율 주행 기능에 연계되거나, 자율 주행 차량(100b)에 탑승한 사용자와 연계된 동작을 수행할 수 있다.
이때, 자율 주행 차량(100b)과 상호작용하는 로봇(100a)은 자율 주행 차량(100b)을 대신하여 센서 정보를 획득하여 자율 주행 차량(100b)에 제공하거나, 센서 정보를 획득하고 주변 환경 정보 또는 객체 정보를 생성하여 자율 주행 차량(100b)에 제공함으로써, 자율 주행 차량(100b)의 자율 주행 기능을 제어하거나 보조할 수 있다.
또는, 자율 주행 차량(100b)과 상호작용하는 로봇(100a)은 자율 주행 차량(100b)에 탑승한 사용자를 모니터링하거나 사용자와의 상호작용을 통해 자율 주행 차량(100b)의 기능을 제어할 수 있다. 예컨대, 로봇(100a)은 운전자가 졸음 상태인 경우로 판단되는 경우, 자율 주행 차량(100b)의 자율 주행 기능을 활성화하거나 자율 주행 차량(100b)의 구동부의 제어를 보조할 수 있다. 여기서, 로봇(100a)이 제어하는 자율 주행 차량(100b)의 기능에는 단순히 자율 주행 기능뿐만 아니라, 자율 주행 차량(100b)의 내부에 구비된 네비게이션 시스템이나 오디오 시스템에서 제공하는 기능도 포함될 수 있다.
또는, 자율 주행 차량(100b)과 상호작용하는 로봇(100a)은 자율 주행 차량(100b)의 외부에서 자율 주행 차량(100b)에 정보를 제공하거나 기능을 보조할 수 있다. 예컨대, 로봇(100a)은 스마트 신호등과 같이 자율 주행 차량(100b)에 신호 정보 등을 포함하는 교통 정보를 제공할 수도 있고, 전기 차량의 자동 전기 충전기와 같이 자율 주행 차량(100b)과 상호작용하여 충전구에 전기 충전기를 자동으로 연결할 수도 있다.
<AI+로봇+XR>
로봇(100a)은 AI 기술 및 XR 기술이 적용되어, 안내 로봇, 운반 로봇, 청소 로봇, 웨어러블 로봇, 엔터테인먼트 로봇, 펫 로봇, 무인 비행 로봇, 드론 등으로 구현될 수 있다.
XR 기술이 적용된 로봇(100a)은 XR 영상 내에서의 제어/상호작용의 대상이 되는 로봇을 의미할 수 있다. 이 경우, 로봇(100a)은 XR 장치(100c)와 구분되며 서로 연동될 수 있다.
XR 영상 내에서의 제어/상호작용의 대상이 되는 로봇(100a)은 카메라를 포함하는 센서들로부터 센서 정보를 획득하면, 로봇(100a) 또는 XR 장치(100c)는 센서 정보에 기초한 XR 영상을 생성하고, XR 장치(100c)는 생성된 XR 영상을 출력할 수 있다. 그리고, 이러한 로봇(100a)은 XR 장치(100c)를 통해 입력되는 제어 신호 또는 사용자의 상호작용에 기초하여 동작할 수 있다.
예컨대, 사용자는 XR 장치(100c) 등의 외부 장치를 통해 원격으로 연동된 로봇(100a)의 시점에 상응하는 XR 영상을 확인할 수 있고, 상호작용을 통하여 로봇(100a)의 자율 주행 경로를 조정하거나, 동작 또는 주행을 제어하거나, 주변 객체의 정보를 확인할 수 있다.
<AI+자율주행+XR>
자율 주행 차량(100b)은 AI 기술 및 XR 기술이 적용되어, 이동형 로봇, 차량, 무인 비행체 등으로 구현될 수 있다.
XR 기술이 적용된 자율 주행 차량(100b)은 XR 영상을 제공하는 수단을 구비한 자율 주행 차량이나, XR 영상 내에서의 제어/상호작용의 대상이 되는 자율 주행 차량 등을 의미할 수 있다. 특히, XR 영상 내에서의 제어/상호작용의 대상이 되는 자율 주행 차량(100b)은 XR 장치(100c)와 구분되며 서로 연동될 수 있다.
XR 영상을 제공하는 수단을 구비한 자율 주행 차량(100b)은 카메라를 포함하는 센서들로부터 센서 정보를 획득하고, 획득한 센서 정보에 기초하여 생성된 XR 영상을 출력할 수 있다. 예컨대, 자율 주행 차량(100b)은 HUD를 구비하여 XR 영상을 출력함으로써, 탑승자에게 현실 객체 또는 화면 속의 객체에 대응되는 XR 객체를 제공할 수 있다.
이때, XR 객체가 HUD에 출력되는 경우에는 XR 객체의 적어도 일부가 탑승자의 시선이 향하는 실제 객체에 오버랩되도록 출력될 수 있다. 반면, XR 객체가 자율 주행 차량(100b)의 내부에 구비되는 디스플레이에 출력되는 경우에는 XR 객체의 적어도 일부가 화면 속의 객체에 오버랩되도록 출력될 수 있다. 예컨대, 자율 주행 차량(100b)은 차로, 타 차량, 신호등, 교통 표지판, 이륜차, 보행자, 건물 등과 같은 객체와 대응되는 XR 객체들을 출력할 수 있다.
XR 영상 내에서의 제어/상호작용의 대상이 되는 자율 주행 차량(100b)은 카메라를 포함하는 센서들로부터 센서 정보를 획득하면, 자율 주행 차량(100b) 또는 XR 장치(100c)는 센서 정보에 기초한 XR 영상을 생성하고, XR 장치(100c)는 생성된 XR 영상을 출력할 수 있다. 그리고, 이러한 자율 주행 차량(100b)은 XR 장치(100c) 등의 외부 장치를 통해 입력되는 제어 신호 또는 사용자의 상호작용에 기초하여 동작할 수 있다.
이상에서는 본 발명의 바람직한 실시예를 예시적으로 설명하였으나, 본 발명의 범위는 이와 같은 특정 실시예에만 한정되는 것은 아니므로, 본 발명은 본 발명의 사상 및 특허청구범위에 기재된 범주 내에서 다양한 형태로 수정, 변경, 또는 개선될 수 있다.
상술한 바와 같은 본 발명의 다양한 실시형태들은 3GPP 시스템을 중심으로 설명하였으나, 다양한 이동통신 시스템에 동일한 방식으로 적용될 수 있다.

Claims (20)

  1. 하나 이상의 Geographical Area를 표시하는 디스플레이부;
    상기 표시된 하나 이상의 Geographical Area에 대한 사용자 입력을 수신하는 입력부;
    상기 입력부 및 디스플레이부를 제어하는 제어부를 포함하고,
    상기 하나 이상의 Geographical Area 각각에는 V2X 서비스 별로 하나 이상의 RAT 정보가 매핑되어 있는 것인, 이동 단말기.
  2. 제1항에 있어서,
    상기 제어부는, 상기 입력부에 상기 하나 이상의 Geographical Area 중 하나의 Geographical Area에 대한 사용자 입력이 수신되면, 상기 하나의 Geographical Area에 매핑되어 있는 RAT 정보를 상기 디스플레이부에 표시하는, 이동 단말기.
  3. 제2항에 있어서,
    상기 제어부는 상기 RAT 정보에 관련된 V2X 서비스 정보를 함께 표시하는, 이동 단말기.
  4. 제3항에 있어서,
    상기 RAT 정보는 상기 Geographical Area에서 사용 가능한 RAT 정보인, 이동 단말기.
  5. 제1항에 있어서,
    상기 V2X 서비스 정보는 RAT을 이용할 수 있는 V2X 서비스 정보인, 이동 단말기.
  6. 제2항에 있어서,
    상기 제어부는, 상기 하나의 Geographical Area를 포함하는 지도를 상기 RAT 정보와 함께 상기 디스플레이부에 표시하는, 이동 단말기.
  7. 제2항에 있어서,
    상기 제어부는, 상기 디스플레이부에 표시된 상기 RAT 정보 중 어느 하나에 대한 사용자 입력이 수신되면, 입력에 해당하는 RAT 정보를 통신부를 통해 그룹에 포함된 단말들에게 전송하는, 이동 단말기.
  8. 제7항에 있어서,
    상기 제어부는, 상기 전송된 RAT 정보에 대한 ACK을 상기 그룹에 포함된 모든 단말들로부터 수신하고 confirm 메시지를 전송한 이후에만 상기 전송된 RAT 정보에 해당하는 RAT으로 스위칭하는, 이동 단말기.
  9. 제1항에 있어서,
    상기 제어부는, 상기 하나 이상의 Geographical Area를 포함하는 지도를 상기 디스플레이부에 표시하는, 이동 단말기.
  10. 제7항에 있어서,
    상기 제어부는, 상기 입력부에 상기 하나 이상의 Geographical Area를 포함하는 지도에서 하나의 Geographical Area에 해당하는 부분에 대한 사용자 입력이 수신되면, 상기 하나의 Geographical Area에 매핑되어 있는 RAT 정보를 상기 디스플레이부에 표시하는, 이동 단말기.
  11. 제9항에 있어서,
    상기 제어부는, 상기 디스플레이부에 표시된 상기 RAT 정보 중 어느 하나에 대한 사용자 입력이 수신되면, 입력에 해당하는 RAT 정보를 통신부를 통해 전송하는, 이동 단말기.
  12. 제10항에 있어서,
    상기 제어부는, 상기 전송된 RAT 정보에 대한 ACK을 상기 그룹에 포함된 모든 단말들로부터 수신하고 confirm 메시지를 전송한 이후에만 상기 전송된 RAT 정보에 해당하는 RAT으로 스위칭하는, 이동 단말기.
  13. 제1항에 있어서,
    상기 이동 단말기는 Geographical Area 정보 관리부, Geographical Area 설정 관리부, V2X 서비스 정보 관리부 또는 RAT 정보 관리부 중 하나 이상을 포함하는, 이동 단말기
  14. 제13항에 있어서,
    상기 Geographical Area 영역 관리부는 단말이 특정 Geographical Area 영역 내에 있는지를 판단하는, 이동 단말기
  15. 제14항에 있어서,
    상기 Geographical Area 영역 관리부는 이동 단말기의 위치정보를 획득하는, 이동 단말기.
  16. 제13항에 있어서,
    상기 Geographical Area 설정 관리부는 Geographical Area 와 관련된 설정 화면을 표시하고 사용자로부터 입력을 수신하여 저장하는, 이동 단말기.
  17. 제13항에 있어서,
    상기 Geographical Area 세션 관리부는 Geographical Area을 위한 PDU 세션을 수립, 수정, 해제 중 하나를 수행하는, 이동 단말기.
  18. 제13항에 있어서,
    상기 Geographical Area 정보 관리부는 네트워크로부터 수신한 Geographical Area 관련 정보를 수신 및 저장한 후, 상기 Geographical Area 영역 관리부, Geographical Area 설정 관리부 그리고 Geographical Area 세션 관리부에 제공하는, 이동 단말기.
  19. 제1항 내지 제18항에 있어서,
    상기 이동 단말기는 이동 단말기 혹은 자율 주행 차량에 탑재 되는 장치인 이동 단말기.
  20. 제1항 내지 제18항에 있어서,
    상기 이동 단말기는 네트워크 및 자율 주행 차량 중 적어도 하나와 통신하는 이동 단말기.
PCT/KR2019/007446 2018-06-20 2019-06-20 Rat 변경에 관련된 동작을 수행하는 이동 단말기 WO2019245301A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20180071027 2018-06-20
KR10-2018-0071027 2018-06-20

Publications (1)

Publication Number Publication Date
WO2019245301A1 true WO2019245301A1 (ko) 2019-12-26

Family

ID=68982668

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/007446 WO2019245301A1 (ko) 2018-06-20 2019-06-20 Rat 변경에 관련된 동작을 수행하는 이동 단말기

Country Status (1)

Country Link
WO (1) WO2019245301A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3910971A1 (en) * 2020-05-13 2021-11-17 Volkswagen Ag Apparatuses and methods for wireless v2x communication of a vehicle

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101124839B1 (ko) * 2003-12-17 2012-03-27 인터디지탈 테크날러지 코포레이션 다수의 무선 인터페이스 및 네트워크 기반 구조를 지원할수 있는 무선 장치에 서비스를 독립적이고 효율적으로전달하는 방법 및 장치
WO2018019984A1 (en) * 2016-07-29 2018-02-01 Tomtom Navigation B.V. Methods and systems for map matching
WO2018022225A1 (en) * 2016-07-26 2018-02-01 Intel IP Corporation Device for and method of radio access technology selection among multiple radio access technologies

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101124839B1 (ko) * 2003-12-17 2012-03-27 인터디지탈 테크날러지 코포레이션 다수의 무선 인터페이스 및 네트워크 기반 구조를 지원할수 있는 무선 장치에 서비스를 독립적이고 효율적으로전달하는 방법 및 장치
WO2018022225A1 (en) * 2016-07-26 2018-02-01 Intel IP Corporation Device for and method of radio access technology selection among multiple radio access technologies
WO2018019984A1 (en) * 2016-07-29 2018-02-01 Tomtom Navigation B.V. Methods and systems for map matching

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HUAWEI: "Discussion on the Tx carrier selection for PC5 CA", R2-1710085, XP051342157 *
SAMSUNG: "PC5 RAT selection for a V2X application", S 2-183786 , SA WG2 MEETING #127, 10 April 2018 (2018-04-10), Sanya, China, XP051438087 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3910971A1 (en) * 2020-05-13 2021-11-17 Volkswagen Ag Apparatuses and methods for wireless v2x communication of a vehicle

Similar Documents

Publication Publication Date Title
WO2020027639A1 (ko) 무선 통신 시스템에서 qos 만족 여부를 표시하는 이동 단말기
WO2020141964A1 (ko) 무선 통신 시스템에서 네트워크에 등록을 수행하는 방법 및 이를 위한 장치
WO2020141965A1 (ko) 무선 통신 시스템에서 네트워크에 등록을 수행하는 방법 및 이를 위한 장치
WO2020080913A1 (ko) 무선 통신 시스템에서 독립적인 네트워크 슬라이스별로 분리된 데이터 전송을 지원하는 방법
WO2020166767A1 (ko) Ma pdu 세션을 사용하기 위한 정보 표시 방법 및 단말
WO2020111912A1 (ko) 무선 통신 시스템에서 페이징 신호를 송수신하는 방법 및 이를 위한 장치
WO2020204536A1 (ko) 무선 통신 시스템에서 단말이 네트워크에 접속을 수행하는 방법
WO2020141956A1 (ko) 무선 통신 시스템에서 네트워크를 선택하는 방법
WO2020067749A1 (en) Access control for data transmission
WO2020171369A1 (en) Uplink data fast transmission in cu-du split
WO2020218764A1 (ko) 무선 통신 시스템에서 네트워크에 등록을 수행하는 방법 및 이를 위한 장치
WO2020022716A1 (ko) 무선 통신 시스템에서 데이터 전송 상태를 제어하는 방법 및 이를 위한 장치
WO2020138985A1 (ko) 무선 통신 시스템에서 통신 서비스를 제공하는 방법
WO2020149522A1 (ko) Pdu 세션을 수립하는 ue 및 twif
WO2020204309A1 (ko) 네트워크 장애에 대처하기 위한 통신 방안
WO2020060007A1 (ko) 5g 이동통신에서 pdu 세션을 핸들링하는 방법 및 무선 기기
WO2020046093A1 (ko) 무선 통신 시스템에서 plmn을 선택하기 위한 방법 및 장치
WO2020076144A1 (ko) 무선 통신 시스템에서 복수개의 무선 접속 방식을 지원하는 단말의 능력을 네트워크에 설정하는 방법 및 이를 위한 장치
WO2020213817A1 (ko) 네트워크 장애를 대처하기 위해 다른 plmn에 접속한 후 화면을 표시하는 방안
WO2020067711A1 (en) Method and apparatus for entering a connected state with a network for continuing transmission in wireless communication system
WO2020009440A1 (ko) 무선 통신 시스템에서 지원 가능한 서비스를 판단하는 방법 및 이를 위한 장치
WO2021194134A1 (en) Method and apparatus for conditional mobility failure handling in wireless communication system
WO2020171312A1 (ko) 5gs에서 always-on pdu 세션을 요청하는 방법
WO2020204283A1 (ko) 네트워크 장애를 대처하기 위한 방안
WO2021091153A1 (ko) 무선 통신 시스템에서 사이드링크 통신에 관련된 설정을 제어하기 위한 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19821794

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19821794

Country of ref document: EP

Kind code of ref document: A1