WO2021225392A1 - 무선 통신 시스템에서 로컬 접촉 보안 추적 방법, 장치, 컴퓨터 프로그램 및 그 기록 매체 - Google Patents

무선 통신 시스템에서 로컬 접촉 보안 추적 방법, 장치, 컴퓨터 프로그램 및 그 기록 매체 Download PDF

Info

Publication number
WO2021225392A1
WO2021225392A1 PCT/KR2021/005695 KR2021005695W WO2021225392A1 WO 2021225392 A1 WO2021225392 A1 WO 2021225392A1 KR 2021005695 W KR2021005695 W KR 2021005695W WO 2021225392 A1 WO2021225392 A1 WO 2021225392A1
Authority
WO
WIPO (PCT)
Prior art keywords
audio
information
devices
user
service
Prior art date
Application number
PCT/KR2021/005695
Other languages
English (en)
French (fr)
Inventor
이재호
Original Assignee
인텔렉추얼디스커버리 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인텔렉추얼디스커버리 주식회사 filed Critical 인텔렉추얼디스커버리 주식회사
Publication of WO2021225392A1 publication Critical patent/WO2021225392A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/02Protecting privacy or anonymity, e.g. protecting personally identifiable information [PII]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/04Key management, e.g. using generic bootstrapping architecture [GBA]
    • H04W12/041Key generation or derivation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/40Security arrangements using identity modules
    • H04W12/47Security arrangements using identity modules using near field communication [NFC] or radio frequency identification [RFID] modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/021Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W8/00Network data management

Definitions

  • the present disclosure relates to a local contact security tracking method, apparatus, computer program, and recording medium thereof in a wireless communication system.
  • Bluetooth is a short-range wireless communication standard, and includes BR (Basic Rate)/EDR (Enhanced Data Rate) technology and LE (Low Energy) technology.
  • BR/EDR is also called Bluetooth classic, and includes BR technology applied from Bluetooth 1.0 and EDR technology applied from Bluetooth 2.0.
  • Bluetooth LE (BLE) applied after Bluetooth 4.0 is a technology that supports transmission and reception of relatively large data with low power consumption.
  • the Bluetooth standard includes various profiles.
  • HFP Hands-Free Profile
  • AG audio gateway
  • A2DP Advanced Audio Distribution Profile
  • A2DP Advanced Audio Distribution Profile
  • An object of the present disclosure is to provide a method and an apparatus for tracking user-to-user contact in a wireless communication system.
  • a method of performing an exposure notification service by a first device of a wireless communication system includes: periodically broadcasting a first advertising packet including a proximity identifier of the first device; periodically scanning one or more second advertising packets comprising a proximity identifier of the one or more second devices; and determining whether the proximity identifiers of the one or more second devices match the diagnostic key, or receiving information on whether the proximity identifiers of the one or more second devices match, wherein the proximity identifier of the first device is to be changed according to a predetermined period.
  • An apparatus at a first device side performing an exposure notification service in a wireless communication system includes: a transceiver for performing signal transmission and reception with another device; and a processor for controlling the transceiver and the apparatus, the processor configured to: periodically broadcast a first advertising packet including a proximity identifier of the first device through the transceiver; periodically scanning through the transceiver for one or more second advertising packets comprising a proximity identifier of one or more second devices; and determining whether the proximity identifier of the one or more second devices matches the diagnostic key, or is configured to receive information on whether the matching key is matched through the transceiver, wherein the proximity identifier of the first device is determined according to a predetermined period can be changed.
  • a method and apparatus for tracking user-to-user contact in a wireless communication system may be provided.
  • FIG. 1 is a diagram exemplarily showing a conventional audio connection type and an audio connection type to which the present disclosure is applicable.
  • FIG. 2 is a diagram exemplarily illustrating a conventional audio-related protocol stack and an audio-related protocol stack to which the present disclosure is applicable.
  • FIG. 3 shows examples of 5.1 channel surround system hardware to which the present disclosure is applicable.
  • FIG. 4 is a diagram illustrating an audio data encoding/decoding process to which the present disclosure is applicable.
  • FIG. 5 is a diagram illustrating an example of channel allocation for two devices to which the present disclosure is applicable.
  • FIG. 6 is a diagram for explaining a synchronization delay of two streams to which the present disclosure is applicable.
  • FIG. 7 is a diagram for describing a broadcast operation for a plurality of devices to which the present disclosure is applicable.
  • FIG 8 and 9 are diagrams for explaining the operation of the ICL type and the INCL type to which the present disclosure is applicable.
  • FIG. 10 is a diagram illustrating a broadcast audio stream state machine to which the present disclosure is applicable.
  • FIG. 11 is a diagram illustrating an audio setup procedure to which the present disclosure is applicable.
  • FIG. 12 is a diagram illustrating a link layer state machine to which the present disclosure is applicable.
  • FIG. 13 is a diagram illustrating an example of an audio topology to which the present disclosure is applicable.
  • 14 to 16 are diagrams illustrating a message exchange process between a server and a client to which the present disclosure can be applied.
  • 17 is a diagram illustrating a state machine for a call service to which the present disclosure is applicable.
  • FIG. 18 is a diagram illustrating a packet format for each layer to which the present disclosure is applicable.
  • 19 is a diagram illustrating examples of a data unit format to which the present disclosure is applicable.
  • FIG. 20 is a diagram illustrating examples of an advertisement unit format to which the present disclosure is applicable.
  • FIG. 21 is a diagram for explaining an operation of an exposure notification service (ENS) according to the present disclosure.
  • 22 is a diagram for explaining an example of a use case to which the present disclosure can be applied.
  • 23 is a diagram for describing a technique for utilizing contact information related to the present disclosure.
  • 24 to 25 are diagrams for explaining a procedure of a technique using contact information related to the present disclosure.
  • 26 is a diagram illustrating an example of a block diagram and message to which the present disclosure can be applied.
  • 27 is a diagram for explaining a key change synchronization method to which the present disclosure can be applied.
  • 29 is a view for explaining a risk notification method including additional information to which the present disclosure can be applied.
  • FIG. 30 is a diagram for explaining a representative device-related operation to which the present disclosure can be applied.
  • 31 is a diagram for explaining an operation related to setting a representative device to which the present disclosure can be applied.
  • 32 is a diagram for explaining an example of operation of a representative device to which the present disclosure can be applied.
  • 33 is a diagram for explaining a contact service negotiation procedure to which the present disclosure can be applied.
  • 34 is a diagram for explaining cloud communication for a contact service to which the present disclosure can be applied.
  • 35 is a diagram for explaining an application installation and user registration procedure to which the present disclosure can be applied.
  • 36 is a diagram for explaining a method of acquiring contact service application key information to which the present disclosure can be applied.
  • 37 is a diagram for explaining a method of acquiring contact service account information and linking accounts between intermediaries to which the present disclosure can be applied.
  • 38 is a diagram illustrating a configuration of a first device and a second device to which the present disclosure can be applied.
  • a component when a component is “connected”, “coupled” or “connected” to another component, it is not only a direct connection relationship, but also an indirect connection relationship in which another component exists in the middle. may also include. Also in this disclosure the terms “comprises” or “having” specify the presence of a recited feature, step, action, element and/or component, but one or more other features, steps, actions, elements, components and/or The presence or addition of groups thereof is not excluded.
  • first and second are used only for the purpose of distinguishing one component from other components and are not used to limit the components, unless otherwise specified. It does not limit the order or importance between them. Accordingly, within the scope of the present disclosure, a first component in one embodiment may be referred to as a second component in another embodiment, and similarly, a second component in one embodiment is referred to as a first component in another embodiment. can also be called
  • components that are distinguished from each other are for clearly explaining each characteristic, and do not necessarily mean that the components are separated. That is, a plurality of components may be integrated to form one hardware or software unit, or one component may be distributed to form a plurality of hardware or software units. Accordingly, even if not specifically mentioned, such integrated or dispersed embodiments are also included in the scope of the present disclosure.
  • Example methods of the present disclosure are expressed as a series of operations for clarity of description, but this is not intended to limit the order in which the steps are performed, and if necessary, each step may be performed simultaneously or in a different order.
  • it may include other steps in addition to the illustrated steps, include the remaining steps after excluding some steps, or include additional other steps except for some steps. .
  • An audio sink is an entity that receives audio data from an audio source.
  • An audio source is an entity that transmits audio data to an audio sink.
  • An audio channel is a single flow of coded or uncoded audio data.
  • An audio stream is a unidirectional logical communication channel that carries audio data flowing from an audio source to an audio sink. Audio data may flow over an Audio Stream Session (ASS). An audio stream may carry audio data for one or more audio channels.
  • ASS Audio Stream Session
  • An audio group may include one or more synchronized audio streams.
  • a content type indicates a classification of content of an audio group.
  • the classification may include whether the audio was initiated by the user.
  • Examples of the content type may include uncategorized audio (UncategorizedAudio), ringtone (Ringtone), system sound (SystemSound), satellite navigation (Satnav), call audio (CallAudio), media (Media), and the like.
  • Metadata is variable-length data that provides and describes the context of audio data. Metadata may be defined for a higher layer.
  • An audio stream session refers to a one-way or two-way transmission/exchange process of an audio stream.
  • An endpoint of an ASS corresponds to an audio input and/or audio output of an audio stream session, and may correspond to one device or a group of devices.
  • the end of the ASS resides on the server and can be configured by the server or by the client.
  • the server can store, change and manage ASS state.
  • QoS Quality of Service
  • An audio location means a logical spatial rendering location intended for an audio channel within a spatial arrangement of a device rendering audio.
  • the left and right positions of the headset may correspond to audio locations.
  • An audio location may be assigned to an audio channel.
  • CBIS Connection Based Isochronous Stream
  • a unidirectional CBIS may have one audio stream
  • a bidirectional CBIS may have two audio streams.
  • CBISS Connection Based Isochronous Stream Set
  • An audio scene application refers to an audio group that performs a specific content type.
  • ASC Audio Steam Capability
  • Audio Advertisement is to discover the availability of ASA participation.
  • An audio general advertisement is an audio advertisement that does not specify a target
  • an audio directed advertisement is an audio advertisement for a specific target.
  • Isochronous data means data that is limited by time.
  • the isochronous data may be time-dependent audio, such as television audio that needs to be synchronized with respect to an image of a video, or audio that needs to be synchronized and reproduced in multiple devices constituting a multi-channel.
  • An isochronous channel refers to a logical transmitter used to transmit isochronous data from a transmitting device to one or more receiving devices.
  • An isochronous stream refers to a logical link carrying one or more isochronous channels.
  • FIG. 1 is a diagram exemplarily showing a conventional audio connection type and an audio connection type to which the present disclosure is applicable.
  • BR/EDR shows an example of a BR/EDR audio connection type.
  • One-to-one connection is supported.
  • One device eg, a smartphone
  • a service such as a phone call through a headset or music reproduction through a speaker may be supported.
  • the center of service in this connection type is an audio source, and an audio sink such as a headset, a speaker, and AVN (Audio Video Navigation) may operate as a peripheral device of the audio source.
  • AVN Audio Video Navigation
  • Figure 1 (b) shows an example of a BLE audio connection type.
  • BLE many-to-many connections may be supported.
  • a plurality of central devices such as a TV, a smart phone, a gateway, etc. may exist, and a complex M-to-N connection may be configured.
  • services of phone calls and music reproduction through the headset may be supported, and broadcast audio services such as alarms, doorbells, and advertising voices may be supported.
  • the center of the service in this connection type is an audio sink, and an audio service can be used by moving multiple audio sources.
  • FIG. 2 is a diagram exemplarily illustrating a conventional audio-related protocol stack and an audio-related protocol stack to which the present disclosure is applicable.
  • the L2CAP Logical Link Control & Adaption Protocol
  • the L2CAP Logical Link Control & Adaption Protocol
  • the L2CAP Logical Link Control & Adaption Protocol
  • RFCOMM Radio Frequency Communication
  • AVDTP Audio/Video Distribution Transport Protocol
  • AVCTP Audio/Video Control Transport Protocol
  • HFP Hands Free Profile
  • A2DP Advanced Audio Distribution Profile
  • AVRCP A profile such as (Audio/Video Remote Control Profile) may be included.
  • the lower layer may include a MAC/PHY layer.
  • the MAC (Medium Access Control) layer may include a link manager and a link controller
  • the PHY (Physical) layer may include a BR/EDR radio
  • Synchronous Connection Oriented (SCO)/extended SCO (eSCO) may provide a synchronous data communication path for voice.
  • SCO Synchronous Connection Oriented
  • eSCO Extended SCO
  • a protocol stack may be designed for each profile.
  • the L2CAP layer, the BR/EDR protocol, the Generic Access Profile (GAP), and the BR/EDR profile layer can be collectively called the host layer, and the link manager, link controller, and BR/EDR radio layer are the controllers. It can be called the (controller) layer.
  • the interface between the host and the controller is called HCI (Host Controller Interface).
  • Figure 2 (b) shows an example of a BLE audio related protocol stack.
  • a common protocol stack for various profiles can be designed.
  • This common protocol stack may be referred to as middleware.
  • a common protocol for various profiles such as hearing aids, high quality audio/music, voice recognition, and call/media in the form of middleware can be configured.
  • the middleware may include protocols such as device discovery, stream control (or stream management), codec, and legacy management.
  • the core layer may include a link layer (Link Layer, LL), an LE radio (ie, a PHY layer), and the LL will include a multicast support isochronous channel-related function defined from Bluetooth 5.
  • the profile and middleware may be referred to as a host layer
  • the core layer may be referred to as a controller layer
  • HCI may be defined between the host and the controller.
  • the host includes an LE profile, a generic access profile (GAP), a generic ATTribute profile (GATT), an ATT (Attribute) protocol, a security manager (SM), and the like.
  • GAP generic access profile
  • GATT generic ATTribute profile
  • ATT Attribute protocol
  • SM security manager
  • HCI command packet Information transmitted from the host to the controller may be referred to as an HCI command packet.
  • Information transmitted from the controller to the host may be referred to as an HCI event packet.
  • HCI asynchronous data packets or HCI synchronous data packets may be exchanged between the host and the controller.
  • the middleware may include various profiles and/or services as follows:
  • Audio Session Capability Service is a service that supports to advertise or discover capabilities related to an audio session;
  • Audio Stream Session Service (Audio Stream Session Service, ASSS): Audio Stream Session Service (ASSS) is a service that supports discovery, establishment, establishment, control, and management related to an audio session;
  • ASSS Audio Stream Session Service
  • AIMS Audio Input Management Service
  • ARS Audio Routing Service
  • Audio Middleware Profile (AMP): a basic profile for the behavior of a device to distribute audio
  • CMP Call Management Profile
  • Group Identification Service A service for the discovery of devices belonging to a group.
  • a Group Identification Service (GIS) or Group Identification Profile (GIP) may allow devices to be discovered as part of a group.
  • a group is defined as a group of devices that work together to support a specific scenario, and these devices may be referred to as group members.
  • a group of devices that respond to a control command together such as a pair of hearing aids, a pair of earbuds, or a set of speakers that receive multichannel (e.g. 5.1CH) audio, may include these Examples may be;
  • Audio Player Management Profile A profile that supports the control or interaction of an audio player
  • Audio Player Management Service a service that supports the control or interaction of an audio player
  • Microphone Management Profile Profile for microphone status management
  • Microphone Management Service a service that supports interfaces and states for microphone state management
  • QSDS Quick Service Discovery Service
  • Call Bearer Service a service that supports management of a call interface and a call state for a bearer on a device
  • Volume Management Profile A profile that supports audio volume management of a device
  • Volume Management Service a service that supports the audio volume interface and status of the device
  • Volume Offset Management Service A service for volume management for audio output.
  • FIG. 3 shows examples of 5.1 channel surround system hardware to which the present disclosure is applicable.
  • the LE audio source device may perform a function of an initiator, and the LE audio sink device may perform a function of an acceptor.
  • An initiator means a device that initiates an audio session
  • an acceptor means a device that accepts the initiation of an audio session.
  • the source is not always the initiator or the sink is not always the acceptor, and the source may be the acceptor or the sink may be the initiator.
  • the audio source may be a TV device and the audio sink may be a speaker device.
  • the audio source may transmit audio data to the audio sink.
  • the audio source may receive feedback data from the audio sink.
  • the plurality of audio sinks each have audio corresponding to one of 5.1 channels, ie, FL (Front Left), FR (Front Right), RL (Rear Left), RR (Rear Right), C (Center), and W (Woofer). It can receive data and output it through the speaker.
  • An audio encoder or decoder may support various audio formats.
  • the audio format may include Bluetooth Low Energy Audio Codec (BLEAC), Dolby 5.1CH, Digital Surround Sound (DTS), and the like, and the characteristics of each format are as follows.
  • BLEAC is a mono codec, and the 96 kbps transmission rate of BLEAC can provide the same quality as 256 kbps of SBC (Sub-Band Codec) and 200 kbps of MP3.
  • Dolby 5.1CH supports a 48 kHz sampling rate, supports 1 to 5.1 (or 1 to 6) channels, and can support a transmission rate of up to 448 kbps.
  • DTS supports 48 kHz or 96 kHz sampling rate, supports 2 to 6.1 channels, and can support transmission rates of 768 kbps half rate and 1,536 kbps full rate.
  • FIG. 4 is a diagram illustrating an audio data encoding/decoding process to which the present disclosure is applicable.
  • a stream in a DTS format or a stream in a Dolby 5.1CH format is input to a DTS decoder or a Dolby 5.1CH decoder of the transmitting end (Tx) to be output as an audio signal in a PCM (Pulse-Code Modulation) format.
  • the PCM signal may be input to the BLEAC encoder and output as an audio signal in the BLEAC format.
  • optional vendor-specific information may be added.
  • the BLEAC signal may be transmitted to the BLE interface of the receiving end Rx through the BLE interface.
  • the receiving end may process the BLEAC signal through the BLEAC decoder and convert it into a signal that can be output through the speaker.
  • a plurality of streams may be transmitted from a transmitter to a plurality of receivers.
  • each of the plurality of streams may include an audio signal corresponding to one channel among 5.1CHs.
  • the plurality of streams may be received at different times from the plurality of receivers, but have isochronous properties that require play or rendering at the same time.
  • six CBISs corresponding to 5.1CH may be transmitted from a transmitter to a receiver, and a set of these six CBISs may be referred to as one Connection Based Isochronous Steam Set (CBISS).
  • CBISS Connection Based Isochronous Steam Set
  • One or more audio streams may correspond to CBIS, and an audio group may correspond to CBISS.
  • one audio stream may correspond to one CBIS, and two or more audio streams may correspond to one CBIS.
  • a plurality of CBISs may be included in one audio group or CBISS.
  • FIG. 5 is a diagram illustrating an example of channel allocation for two devices to which the present disclosure is applicable.
  • the receiving end may initiate stream reception according to timing information provided by the transmitting end.
  • the timing information may indicate a time point after a predetermined offset from a time point at which a data unit including the timing information is transmitted.
  • the receiving end may receive audio data corresponding to one or more channels included in the stream.
  • a plurality of channels included in one stream may be allocated to a plurality of receivers, respectively.
  • a plurality of channels (or a plurality of audio data) included in one stream may be transmitted in a time division multiplexing (TDM) method.
  • TDM time division multiplexing
  • audio data of a first channel may be transmitted at a first timing
  • audio data of a second channel may be transmitted at a second timing.
  • the broadcast receiver may detect a currently obtainable broadcast audio stream, a stream offset value, a stream interval value, and the like, using information included in a data unit periodically advertised by the transmitter.
  • an isochronous channel may be transmitted/received (eg, in a broadcast manner) without a connection between a source device and a sink device.
  • BSG Broadcast Synch Group
  • PDU Protocol Data Unit
  • the receiving end can check the INCL stream offset or BSG offset, and determine the anchor point timing.
  • INCL stream transmission may start from the anchor point.
  • a timing difference between two consecutive anchor points may be defined as an interval (eg, an INCL CH1 interval or an ISO interval of FIG. 5 ).
  • One or more sub-events may be included in the stream transmission event.
  • one audio stream may include audio data for two channels.
  • the first channel CH1 may be allocated to a first device (device #1), and the second channel CH2 may be allocated to a second device (device #2).
  • CH1 included in the INCL stream may be transmitted to the device #1, and thereafter, CH2 may be transmitted to the device #2 at one or more timings.
  • the INCL stream event may include an event for CH1 and an event for CH2.
  • An event for CH1 may include two sub-events.
  • An event for CH2 may include two sub-events.
  • a timing difference between sub-events may be defined as a sub-event interval.
  • Isochronous audio data may have a limited lifetime. That is, the audio data may be invalidated after the predetermined time has expired.
  • a predetermined timeout value may be defined in the ICL channel, and isochronous audio data transmitted to a plurality of devices may be discarded after the predetermined timeout value has expired.
  • a timeout may be expressed as a number of sub-events.
  • FIG. 6 is a diagram for explaining a synchronization delay of two streams to which the present disclosure is applicable.
  • a plurality of streams may be transmitted from one device or may be transmitted from different devices. Also, the plurality of streams may be received by one device or may be received by different devices.
  • the Bluetooth communication method does not support simultaneous transmission of a plurality of streams
  • the plurality of streams may be transmitted in the TDM method on different time resources (or timings) according to a predetermined order.
  • a difference may occur in the transmission timing of the plurality of streams, and accordingly, a difference may also occur in the reception timing of the plurality of streams.
  • the stream received first cannot be reproduced first, but can be reproduced after waiting until the last stream is received. That is, a synchronization delay may occur until a timing at which reception of all streams is completed.
  • the first stream (CBIS#1) and the second stream (CBIS#2) are required to be reproduced simultaneously, and may be included in one CBISS.
  • the CBISS anchor point is the same as the anchor point of CBIS#1, and after the CBIS#1 audio data is transmitted, the CBIS#1 audio data subsequent to the time point (eg, T1) after the CBIS#1 interval may be transmitted.
  • CBIS#2 audio data is transmitted from the anchor point of CBIS#2
  • CBIS#2 audio data subsequent to a time point after the CBIS#2 interval (eg, T2) may be transmitted.
  • After all streams included in one CBISS are received they may be reproduced simultaneously. That is, the audio data of CBIS#1 and CBIS#2 may be processed and reproduced at the time of completion of reception of CBIS#2, which is transmitted relatively late.
  • the synchronization delay of the CBISS may be defined as a time interval until the reception completion time (T2) of the CBIS#2 received relatively late from the CBISS.
  • the later of the reception completion time T1 of CBIS#1 and the reception completion time T2 of CBIS#2 may be determined as the synchronization delay of the CBISS. That is, a later reception completion time among synchronization delays of a plurality of streams may be determined as a synchronization delay of the CBISS.
  • the previously received stream CBIS#1 may be reproduced after waiting until the received stream CBIS#2 information is transmitted.
  • the transmitter Tx may inform the receiver Rx of an expected delay value calculated in consideration of the number of CBISs, CBIS events, sub-events, intervals, and the like in advance.
  • the transmitting end may inform the receiving end of the expected delay value when setting the channel.
  • the receiving end may inform the transmitting end of the actual delay value.
  • the receiving end since the transmitting end and the receiving end are not connected, the receiving end cannot inform the transmitting end of the actual delay value. Even if the delay value can be reported from the receiving end to the transmitting end, the transmitting end cannot control the playback time of a specific device in order to synchronize the plurality of devices.
  • the transmitter may receive feedback from the receiver to adjust synchronization. .
  • the receiving end may inform the transmitting end of its delay information.
  • FIG. 7 is a diagram for describing a broadcast operation for a plurality of devices to which the present disclosure is applicable.
  • the audio source device may calculate a synchronization delay value for simultaneous reproduction of isochronous streams and transmit it to a plurality of audio sink devices.
  • Each of the sink devices may determine the playback timing based on the delay value provided from the source device. That is, since the source device cannot accurately know the time it takes for the sink device to receive and process audio data, the sink device may provide the delay value as basic information for determining the playback timing.
  • the sink device may determine a reproduction timing according to its device characteristics and reproduce audio data.
  • a source device eg, a TV
  • a sink device eg, a speaker
  • the sink device may adjust playback or rendering timing of audio data by reflecting the received delay value. Since device characteristics are different for each sink device manufacturer, the actual playback timing may be determined by the sink device.
  • the sink device may calculate a delay value and transmit it to the source device. Accordingly, the source device may determine the transmission timing based on the delay value provided from the sink device.
  • a feedback channel may be formed through which a sink device (eg, a speaker) may communicate information to a source device (eg, a TV).
  • a sink device eg, a speaker
  • a source device eg, a TV
  • a unicast operation based on an isochronous connection may be performed.
  • the sink device may calculate a rendering delay value and transmit it to the source device through a feedback channel. Accordingly, the source device may adjust the transmission time of the audio data by reflecting the delay value provided from the sink device.
  • an isochronous stream operation is exemplarily illustrated in the case where a transmitting end is a TV, and two receiving ends, a first speaker (speaker #1) and a second speaker (speaker #2).
  • the first speaker may be allocated a first stream/channel (eg, RR channel in 5.1CH), and the second speaker may be allocated a second stream/channel (eg, RL channel in 5.1CH).
  • the first and second speakers may transmit an audio general advertisement or an audio directed advertisement, respectively. At least one of the TV and the first speaker or the second speaker may or may not be connected to each other.
  • the speaker may calculate a rendering delay value and report it to the TV.
  • the TV may calculate the transmission delay, rendering delay value, etc. and transmit it to the speaker.
  • the TV may perform a synchronization operation in consideration of content characteristics, audio/video synch, codec characteristics, and the like, and apply a compulsory delay to a specific audio stream.
  • the delay value may be determined according to codec characteristics.
  • characteristics of A/V content are different according to games, movies, animations, and the like, a delay value may be determined in consideration of this.
  • a delay value may be determined in consideration of a difference between a media clock and a clock of the BLE interface. The media clock can be confirmed through A/V time scale information.
  • a delay value may be determined in consideration of audio/video signal processing time defined in various broadcasting standards.
  • the time interval between audio-video-audio is 15 ms and 45 ms in Advanced Television Systems Committee (ATSC), 125 ms and 45 ms in ITU-R BT.1359-1, and SMPTE (Society of Motion Picture and Television Engineers). It is defined as 22 ms and 22 ms, and a delay value may be determined in consideration of these time intervals.
  • ATSC Advanced Television Systems Committee
  • SMPTE Society of Motion Picture and Television Engineers
  • the TV sets the rendering delay value of each stream and informs the speaker, or determines the transmission timing of the stream based on the delay value provided from the speaker.
  • the TV may transmit a stream to the speaker. That is, the TV, which is a source device or a transmitter, may exchange a delay value with a speaker(s) serving as a sink device or a receiver, and may perform an operation of synchronizing by reflecting the delay value.
  • FIG 8 and 9 are diagrams for explaining the operation of the ICL type and the INCL type to which the present disclosure is applicable.
  • a channel for audio transmission may be classified into an ICL type and an INCL type. Both the ICL channel and the INCL channel may transmit audio data to multiple devices and/or multiple profiles using a stream ID and a channel ID. According to the ICL type and the INCL type, it may be determined what operation to perform on the BLE channel for audio data transmission.
  • ICL channels correspond to a connection-based use case that supports unidirectional or bidirectional communication through a point-to-point physical link between one source device and one sink device.
  • INCL channels correspond to a broadcast use case that supports only unidirectional communication through a point-to-multipoint physical link between one source device and one or more sink devices.
  • the protocol stack of the device may include a profile layer, a channel manager layer, a host layer, and a controller layer in order from an upper layer to a lower layer. Data may be transferred between the profile layer and the channel manager layer in units of channels, and data may be transferred between the channel manager layer and the host layer in units of streams.
  • a connection between the master M and the first slave 1 ( S1 ) and a connection between the master M and the second slave ( S2 ) may exist.
  • the slaves may provide feedback information to the master (M). For example, when S1 is a wireless earphone mounted on the right ear and S2 is a wireless earphone mounted on the left ear, it is possible to listen to music transmitted by the master M in stereo through S1 and S2.
  • the master M may include two profiles (profile #1 and profile #2).
  • the first slave S1 may include the profile #1
  • the second slave S2 may include the profile #1 and the profile #2.
  • Profile #1 Channel ID 1 and Channel ID 2 are broadcast from the master (M) through one stream, Stream ID 1, and the slaves (S1, S2) set Channel ID 1 and Channel ID in Profile #1, respectively. Receiving is similar to FIG. 8 .
  • profile #2 Channel ID 1 may be broadcast from the master M through Stream ID 2, and the second slave S2 may receive Channel ID 1 in profile #2.
  • FIG. 10 is a diagram illustrating a broadcast audio stream state machine to which the present disclosure is applicable.
  • Control of the broadcast audio stream can be described as a broadcast audio stream state machine and state transition at the broadcast transmitting end.
  • a broadcast audio stream state machine allows a broadcast sender to communicate with one or more broadcast receivers (or broadcast discovery clients) in a one-way manner without a connection or not with a broadcast receiver (or broadcast discovery client).
  • a broadcast transmitter may communicate using a broadcast audio advertisement in the form of a Broadcast Audio Source Session (BASS).
  • BASS Broadcast Audio Source Session
  • a broadcast audio stream may be transmitted by a broadcast transmitter.
  • the AUDIO STANDBY state means a state in which a broadcast audio stream is not transmitted.
  • the AUDIO CONFIGURED state means a state in which a broadcast receiver (or a broadcast discovery initiator) starts advertising information for detecting an audio stream through a periodic advertising event.
  • the periodic advertising event may include delivering advertisement metadata, stream configuration, synchronization information, and the like. In this state, no audio data packet is transmitted from the broadcast transmitter.
  • the AUDIO STREAMING state means a state in which a broadcast audio stream is enabled in a broadcast transmitter and an audio data packet can be transmitted.
  • the broadcast transmitter may continuously perform metadata advertisement through periodic advertising while transmitting the broadcast audio stream. If a stream is configured in the AUDIO STANDBY state, it may transition to the AUDIO CONFIGURED state, and if the stream is released in the AUDIO CONFIGURED state, it may transition to the AUDIO STANDBY state. When a stream is enabled in the AUDIO CONFIGURED state, it may transition to the AUDIO STREAMING state, and if the stream is disabled in the AUDIO STREAMING state, it may transition to the AUDIO CONFIGURED state.
  • a reconfigure stream occurs in the AUDIO CONFIGURED state, it may transition to the AUDIO CONFIGURED state. If content reassignment occurs in the AUDIO STREAMING state, it may transition to the AUDIO STREAMING state.
  • FIG. 11 is a diagram illustrating an audio setup procedure to which the present disclosure is applicable.
  • the AUDIO STANDBY state may be transitioned, and if there is a discovery result, discovery for Audio Stream Capability (ASC) may be performed and transition to the AUDIO STANDBY state.
  • ASC Audio Stream Capability
  • ASS Audio Stream Session
  • AUDIO CONFIGURED When an ASS (Audio Stream Session) setting occurs, it may transition to the AUDIO CONFIGURED state. If ASS is released in the AUDIO CONFIGURED state, it can transition to the AUDIO STANDBY state. When reconfiguration occurs in the AUDIO CONFIGURED state, it can transition to the AUDIO CONFIGURED state through the ASS setting.
  • ASS Audio Stream Session
  • ASS When ASS is activated, it can transition to AUDIO STREAMING state. If ASS deactivation occurs in the AUDIO STREAMING state, it can transition to the AUDIO CONFIGURED state. If content reassignment occurs in the AUDIO STREAMING state, it may transition to the AUDIO STREAMING state.
  • FIG. 12 is a diagram illustrating a link layer state machine to which the present disclosure is applicable.
  • the operation of the link layer may be expressed in Standby, Advertising, Scanning, Initiating, Connection, Synchronized (synchronization), and Streaming (Isochronous Broadcasting) states (in terms of an isochronous channel).
  • the standby state corresponds to a standby state before transitioning to another state.
  • the LL may operate as an advertiser that transmits an advertising packet.
  • the device When a connection is established in the advertising state, the device may operate as a slave.
  • the LL may act as an initiator that listens for packets from other advertisers and initiates a connection in response to the packets.
  • the device may operate as a master.
  • the LL can act as a scanner that listens for packets from other advertisers and may request additional information.
  • the synchronized state may refer to a state in which an audio stream may be received or received in synchronization with another device.
  • the streaming state may refer to a state in which an audio stream is transmitted to another synchronized device.
  • FIG. 13 is a diagram illustrating an example of an audio topology to which the present disclosure is applicable.
  • one-way or two-way audio streams can be supported.
  • Unicast audio data transmission/reception based on the connection between the headset and the smartphone may be performed, or unicast audio data transmission/reception based on the connection between the headset and the smartphone and the connection between the headset and the tablet may be performed.
  • the server of the unicast audio service may be a headphone
  • the client may be a smartphone or tablet.
  • headphones may correspond to an audio sink
  • a smartphone or tablet may correspond to an audio source.
  • an announcement system, a doorbell, a TV, etc. may transmit audio data in a broadcast manner, and one or more devices may receive the broadcast audio data.
  • the server of the broadcast audio service may be a notification system, a doorbell, a TV, or the like, and the client may be a headphone.
  • the headphones may correspond to an audio sink, and a notification system, a doorbell, and a TV may correspond to an audio source.
  • 14 to 16 are diagrams illustrating a message exchange process between a server and a client to which the present disclosure can be applied.
  • the client may be an audio source and the server may be an audio sink.
  • the client may be the audio sink and the server may be the audio source.
  • the client requests capability discovery by sending an ASC discovery request message from the server, and in response, the server sends an ASC discovery response message to the client can be transmitted to deliver detailed information of the capability.
  • the server sends an ASC update indication message to the client to inform that the capability update has occurred, and the client sends an ASC update confirmation message to the server It can be transmitted to inform that the capability update is to be performed. Subsequently, an audio session capability discovery procedure or an ASC discovery procedure may be performed.
  • the format of the message used in the example of FIG. 14 may be defined as shown in Table 1 below.
  • the ASC update instruction message and the ASC update confirmation message may include information indicating that ASC discovery is required and confirmation information therefor, respectively.
  • 15 exemplarily shows a unicast audio stream establishment procedure and a unicast audio stream establishment procedure.
  • the client transmits a Codec configuration request message to the server in the AUDIO STANDBY state to determine which codec is requested for setting, etc. can inform
  • the server may transmit a codec configuration response message to the client to inform the server of QoS and rendering delay values supported by the server.
  • the client may transmit a QoS negotiation request message to the server to specify a specific audio stream session (ASS), an audio group, and an audio stream to inform the client of QoS and rendering delay values supported by the client.
  • the server may transmit a QoS negotiation response message to the client. Accordingly, bandwidth (BW), bitrate, etc. may be determined by negotiation between the client and the server, and the client and the server may transition to a CONFIGURED state.
  • bandwidth bandwidth
  • the client transmits an ASS enable request message to the server in the AUDIO CONFIGURED state to inform information about the ASS requesting activation. have.
  • the server may transmit an ASS enable response message to the client to inform about which ASS to activate.
  • Setting of connection-based isochronous link parameters is performed in the client, and CBIS can be established by setting the connection-based isochronous stream connection and related parameters in the client and server. If the client is the audio sink and the server is the audio source, the client prepares to play the audio data (eg buffer/memory, codec, audio application data readiness check, etc.), ASS Rx ready command You can notify this by sending a message to the server.
  • the server prepares to provide audio data (eg, buffer/memory, codec, audio application data readiness check, etc.) and transmits an ASS Rx ready notification message to the client to notify it.
  • audio data eg, buffer/memory, codec, audio application data readiness check, etc.
  • the server prepares to play the audio data and sends an ASS Rx ready indication message to the client, and the client receives the ASS reception ready indication notification message. After that, you can prepare to provide audio data. Accordingly, the client and the server may transition to the AUDIO STREAMING state.
  • the format of the message used in the example of FIG. 15 may be defined as shown in Table 2 below.
  • 16 exemplarily shows a procedure for deactivating an audio stream by a client and a procedure for deactivating an audio stream by a server.
  • an ASS disable request message may be transmitted to the server. Accordingly, the server may stop streaming audio data and transmit an ASS disable response message to the client. Upon receiving this, the client may stop audio data encoding and audio application operation.
  • the client may stop streaming audio data and send an ASS deactivation request message to the server.
  • the server may stop audio data encoding and audio application operation, and may transmit an ASS deactivation response message to the client.
  • the client and the server may perform connection-based isochronous stream release and related parameter setting release.
  • device information may be stored in the client and/or the server together with an isochronous stream connection related parameter. Accordingly, the client may release the connection-based isochronous link related parameter setting. Accordingly, the client and the server may transition to the AUDIO CONFIGURED state.
  • ASS A disable indication message may be transmitted to the client. Accordingly, the client may stop streaming audio data and may or may not transmit an ASS disable confirmation message to the server.
  • the server may stop encoding audio data and audio application operation with or without receiving an ASS deactivation response.
  • the server when the server is an audio sink and the client is an audio source, the server may stop streaming audio data and send an ASS deactivation indication message to the client. Accordingly, the client may stop audio data encoding and audio application operation, and may or may not transmit an ASS deactivation confirmation message to the server.
  • the client and the server may perform connection-based isochronous stream release and related parameter setting release.
  • device information may be stored in the client and/or the server together with an isochronous stream connection related parameter. Accordingly, the client may release the connection-based isochronous link related parameter setting. Accordingly, the client and the server may transition to the AUDIO CONFIGURED state.
  • the format of the message used in the example of FIG. 16 may be defined as shown in Table 3 below.
  • Table 4 below exemplifies content reallocation request/response, ASS release request/response, general advertisement, and directed advertisement message formats.
  • 17 is a diagram illustrating a state machine for a call service to which the present disclosure is applicable.
  • a call When a call is received in the AUDIO STANDBY state, it may transition to the CALL ACCEPTING state. When a call is accepted in the CALL ACCEPTING state, it may transition to the CALL ACTIVE state. When a call is rejected in the CALL ACCEPTING state, it may transition to the AUDIO STANDBY state. In the case of hold in which a call cannot be received in the CALL ACCEPTING state, it may transition to the CALL HELD state, and may transition to the CALL ACTIVE state when the hold is released in the CALL HELD state. When the CALL HELD state or the CALL ACTIVE state is terminated, it may transition to the AUDIO STANDBY state.
  • a call when a call is outgoing in the AUDIO STANDBY state, it may transition to the CALL INITIATING state. In the case of answering a call from a remote location or the other party in the CALL INITIATING state, it may transition to the CALL ACTIVE state. If it ends in the CALL INITIATING state, it can transition to the AUDIO STANDBY state.
  • audio data that needs to be delivered to the headset in the AUDIO STANDBY state may occur.
  • audio data may be transmitted to the headset when a response when a phone number is dialed is notified by sound.
  • information that explicitly indicates various radio access technologies eg, 2G, 3G, 4G, 5G, Wi-Fi, GSM, CDMA, WCDMA, etc.
  • radio access technologies eg, 2G, 3G, 4G, 5G, Wi-Fi, GSM, CDMA, WCDMA, etc.
  • a bearer technology field having a size of 1 octet may be defined. This may be related to the aforementioned call bearer service.
  • a plurality of lines may exist, and a state machine as shown in FIG. 17 may be maintained for each line. For example, when the second line transitions from the AUDIO STANDBY state to the CALL ACCEPTING state while the first line is in the CALL ACTIVE state, the first or the second line may transition to the CALL HELD state according to the user's control.
  • a variety of logical links may be used to support different application data transfer requirements.
  • Each logical link is associated with a logical transport, which may have various characteristics. These characteristics may include flow control, acknowledgment/repeat mechanisms, sequence numbering and scheduling operations, and the like.
  • a logical transport may carry various types of logical links depending on its type.
  • a plurality of logical links may be multiplexed into the same single logical transport.
  • a logical transport may be carried by a physical link on a particular channel.
  • Logical transport identification and real-time (link control) signaling may be included in the packet header, and specific logical link identification may be included in the header of the payload.
  • Table 5 exemplarily shows descriptions of logical transport types, supported logical link types, supported physical link and physical channel types, and logical transports.
  • FIG. 18 is a diagram illustrating a packet format for each layer to which the present disclosure is applicable.
  • the LL packet format may include a preamble, an access address (or an access code), a PDU, and a Cyclic Redundancy Code (CRC) field.
  • the preamble has a size of 1 octet, can be used for frequency synchronization, symbol timing estimation, automatic gain control (AGC) training, and the like at the receiving side, and can be configured with a predetermined bit sequence.
  • the access address has a size of 4 octets and can be used as a correlation code for a physical channel.
  • a PDU may be defined with a size of 2 to 39 octets in Bluetooth 4.0 version, and may be defined as a size of 2 to 257 octets in version 4.2.
  • the CRC may include a value calculated as a 24-bit long checksum for the PDU.
  • Fig. 18(b) shows an exemplary format of the PDU of Fig. 18(a).
  • PDU may be defined in two types, one is a data channel PDU (Data channel PDU), the other is an advertising channel PDU (Advertising channel PDU).
  • Data channel PDU Data channel PDU
  • advertising channel PDU Advertising channel PDU
  • the data channel PDU will be described in detail with reference to FIG. 19, and the advertising channel PDU will be described in detail with reference to FIG. 20.
  • FIG. 18( c ) shows an example of an L2CAP PDU format, which may correspond to an exemplary format of the payload field of FIG. 18( b ).
  • the L2CAP PDU may include a Length, a Channel ID, and an Information Payload field.
  • the length field may indicate the size of the information payload, and the information payload field may include higher layer data.
  • the channel identifier field may indicate which upper layer data the information payload field includes. For example, if the value of the channel identifier field is 0x0004, ATT (ATTribute protocol), if 0x0006, may indicate SMP (Security Manager Protocol), or another channel identifier indicating a different type of upper layer or middleware Values can be defined and used.
  • the information payload field of FIG. 18(c) may be configured as shown in FIG. 18(d).
  • the information payload field may include a code (Code), an identifier (Identifier), a length (Length) and data (Data) fields.
  • the code field may indicate the type of the L2CAP signaling message.
  • the identifier field may include a value that matches the request and the response.
  • the length field may indicate the size of the data field.
  • Data fields may contain attributes. An attribute is a unit of arbitrary data, and may include, for example, data at various points in time in various states of the device, such as location, size, weight, temperature, and speed.
  • An attribute may have a format including an attribute type, an attribute handle, an attribute value, and an attribute permission.
  • the attribute type may include a value indicating the type of attribute data identified by a Universally Unique Identifier (UUID).
  • UUID Universally Unique Identifier
  • the attribute handle may contain a value assigned by the server to identify the attribute data.
  • the attribute value may include the value of attribute data.
  • Attribute permission can be set by GATT (Generic ATTribute profile), and the type of allowed access to the corresponding attribute data (for example, whether it is possible to read/write, whether encryption is required, It may include a value indicating whether authentication is required, whether authorization is required, etc.).
  • GATT Generic ATTribute profile
  • the type of allowed access to the corresponding attribute data for example, whether it is possible to read/write, whether encryption is required, It may include a value indicating whether authentication is required, whether authorization is required, etc.
  • a device may act as a server and/or a client.
  • the server serves to provide attributes and related values
  • the client may serve to discover, read, or write attributes on the server.
  • the PDU supported by the ATT protocol may include six method types, that is, request, response, command, notification, indication, and confirmation.
  • a request is sent from the client to the server, and a response from the server is required.
  • a response is sent from the server to the client, and is sent when there is a request from the client.
  • a command is sent from the client to the server, and no response is required.
  • a notification is sent from the server to the client, and confirmation is not required.
  • An indication is sent from the server to the client, and confirmation of the client is required.
  • a confirmation is sent from the client to the server, and is sent when there is an instruction from the server.
  • GATT may support various profiles.
  • the structure of the GATT-based profile may be described in terms of services and characteristics.
  • a device may support one or more profiles.
  • One profile may include zero or one or more services.
  • a plurality of profiles may use the same service.
  • One service may include one or more characteristics.
  • a characteristic means a data value that is the subject of read, write, indicate, or notify. That is, a service may be understood as a data structure used to describe a specific function or feature, and a service that is a combination of characteristics may indicate an operation performed by a device. All services are implemented by the server and can be accessed by one or more clients.
  • 19 is a diagram illustrating examples of a data unit format to which the present disclosure is applicable.
  • a data channel PDU may be used to transmit packets on a data physical channel (eg, channel numbers 0-36).
  • the data physical channel PDU includes a 16- or 24-bit length header, a variable size (eg, 0 to 251 octet size) payload, and may further include a Message Integrity Check (MIC) field.
  • MIC Message Integrity Check
  • the MIC field may be included in the case of an encrypted link layer connection in which the payload field size is not 0.
  • the header fields are LLID (Logical Link Identifier), NESN (Next Expected Sequence Number), SN (Sequence Number), MD (More Data), CP (CTEInfo Present), RFU (Reserved). for Future Use), and may include a Length field.
  • the RFU corresponds to a part reserved to be used in case of future need, and its value may be usually filled with 0.
  • the header field may further include a Constant Tone Extension Information (CTEInfo) subfield.
  • the Length field may indicate the size of the payload, and when the MIC is included, it may indicate the length of the payload and the MIC.
  • the LL Control PDU may correspond to a data physical channel PDU used to control link layer connection.
  • the LL Control PDU may have a fixed value according to an operation code (Opcode).
  • the Opcode field may indicate the type of the LL Control PDU.
  • the control data (CtrData) field may have various formats and lengths specified by the Opcode.
  • the Opcode of the LL Control PDU may have a value indicating one of LL_CBIS_REQ, LL_CBIS_RSP, LL_CBIS_IND, LL_CBIS_TERMINATE_IND, LL_CBIS_SDU_CONFIG_REQ, LL_CBIS_SDU_CONFIG_RSP (e.g., 0x22, 0x20, 0x21, 0x1F).
  • the CtrData field may include information necessary for a CBIS request together with CBISS identification information and CBIS identification information.
  • the Opcode indicates one of LL_CBIS_RSP, LL_CBIS_IND, LL_CBIS_TERMINATE_IND, LL_CBIS_SDU_CONFIG_REQ, LL_CBIS_SDU_CONFIG_RSP
  • CtrData is a CBIS response, a CBIS termination indication, a CBIS SDU request (a CBIS response, a CBIS termination indication), a CBIS termination indication.
  • Information necessary for the CBIS SDU setup response may be included.
  • 19(d) shows an example of an audio data PDU format.
  • the audio data PDU may be a CBIS PDU or a broadcast isochronous PDU.
  • an audio data PDU When used in a CBIS stream, an audio data PDU may be defined as a CBIS PDU.
  • an audio data PDU When used in a broadcast isochronous stream, an audio data PDU may be defined as a broadcast isochronous PDU.
  • the audio data PDU may include a 16-bit length header field and a variable length payload field.
  • the audio data PDU may further include a MIC field.
  • the format of the header field is LLID of 2-bit size, NESN of 1-bit size, SN of 1-bit size, Close Isochronous Event (CIE) of 1-bit size, RFU of 1-bit size, and NPI of 1-bit size. (Null PDU Indicator), an RFU of 1-bit size, and a Length subfield of 9-bit size may be included.
  • the format of the header field is LLID of 2-bit size, Control Subevent Sequence Number (CSSN) of 3-bit size, Control Subevent Transmission Number (CSTF) of 1-bit size, RFU of 2-bit size, 8 bits. It may include a Length subfield of the size.
  • the payload field of the audio data PDU may include audio data.
  • FIG. 20 is a diagram illustrating examples of an advertisement unit format to which the present disclosure is applicable.
  • the advertising channel PDU may be used to transmit packets on an advertising physical channel (eg, channel numbers 37, 38, 39).
  • the advertising channel PDU may consist of a header of 2 octets and a payload of 6 to 37 octets in size.
  • the header may include a PDU type, a Reserved for Future Use (RFU), a transmission address (TxAdd), a reception address (RxAdd), a length (Length), and an RFU field.
  • the length field of the header may indicate the size of the payload.
  • the payload may include an Advertiser Address (AdvA) field with a length of 6 octets and an AdvData field with a length of 0 to 31 octets.
  • the AdvA field may include a public address or a random address of the advertiser.
  • the AdvData field may include zero or more advertising data (AD) structures and padding if necessary.
  • AD advertising data
  • the AD structure may include three fields.
  • the length field may indicate the length of the AD data field. That is, a value obtained by subtracting 1 from the value indicated by the length field may correspond to the length of the AD Data field.
  • the AD Type field may indicate the type of data included in the AD Data field.
  • the AD Data field may include advertising data provided from the advertiser's host.
  • FIG. 21 is a diagram for explaining an operation of an exposure notification service (ENS) according to the present disclosure.
  • the first device may receive setting information related to the exposure notification service (ENS) from the second device.
  • ENS exposure notification service
  • the first device may be an ENS server device, and the second device may be an ENS client device.
  • the first device may be a device (eg, a wearable device) having a relatively low performance
  • the second device may be a device (eg, a smartphone device) having a relatively high performance.
  • one first device may be connected to a plurality of second devices, and a plurality of first devices may be connected to one second device.
  • the first and second devices may be associated with one user or one user group (eg, parent and child).
  • the second device may read capabilities of the first device, etc., and write information necessary for the first device to perform ENS to the first device.
  • Information necessary for performing the ENS may include information such as advertising information, advertising period/interval, scanning period/interval, and scanning duration/window.
  • the advertising information may include key (eg, tracking key in examples described below) information necessary for generating a proximity identifier advertised by the first device as described below.
  • the broadcast/advertising interval, scanning interval, scanning duration/window, etc. for the first/second advertising packet may be associated with one or more of location information or storage capacity of the first device. may be set.
  • the first device may perform the exposure notification service without setting the exposure notification service from the second device.
  • the first device or the second device alone may directly communicate with the cloud-based server, may set parameters related to the exposure notification service by itself, and advertise / including a proximity identifier to be described later
  • An operation such as scanning may be performed directly.
  • the first device or the second device is not a wearable device but a device such as a smart phone capable of connecting to the Internet, the device is used alone (that is, without establishing a server-client connection with another device) exposure notification service can be performed.
  • step S2110 may be omitted, and operations to be described later may be performed by one device.
  • the first device may periodically broadcast a first advertising packet including a proximity identifier (PI) based on the configuration information.
  • PI proximity identifier
  • the PI may be generated based on key information.
  • the PI included in the first advertising packet may be changed (or rolled) according to a predetermined time period.
  • the change period of the PI may be shorter than the change period of the key information. That is, the key information may be changed at a longer period than that of the PI.
  • the first advertising packet may further include private address information of the first device.
  • the private address information may also be changed together (or simultaneously or in the same advertising packet). Accordingly, it is possible to prevent a third party from tracking the user.
  • the first device may scan second advertising packets from one or more third devices.
  • the first device may advertise and scan the ENS packet.
  • the advertising operation of step S2120 and the scanning operation of step S2130 may be performed according to each period/interval and window/duration.
  • the first device may receive and store the second advertising packet(s) including the PI(s) of the peripheral device (ie, the third device))(s).
  • the PI(s) stored for the predetermined time period may be used to determine whether the user of the third device with which the user of the first device has close contact belongs to a risk group.
  • the first device may determine whether the PI of one or more third devices and the diagnostic key match.
  • the PI of the third device stored by the first device may be transferred to the second device.
  • the first device or the second device may determine whether to match through communication with the cloud-based key server (eg, through comparison with a diagnostic key of the cloud-based key server).
  • the first device may receive the matching information from the key server or the second device.
  • the first/second advertising packet may further include information on the health status of the corresponding user as additional information.
  • the exposure notification service may be referred to as a local/proximity contact tracking service, a local/proximity contact security tracking service, or simply a contact service.
  • a short-range wireless communication system such as a Bluetooth communication system
  • 22 is a diagram for explaining an example of a use case to which the present disclosure can be applied.
  • a device may advertise a random ID that changes frequently.
  • the device may continuously scan peripheral devices, and may define a time and duration for this. Such information may be stored for a limited time (eg, two weeks (configurable time)).
  • the user can also connect to a cloud-based key server to determine if among the random IDs he encounters is a random ID of a device associated with the user that has tested positive for the virus.
  • the device may be a wrist-worn device and may be connected to the cloud via the Internet.
  • these devices can be coordinated so that only one device can perform contact tracking-related operations at a particular time. A plurality of devices carried by one user may not need to repeatedly perform a contact tracking-related operation.
  • the device may periodically upload its random ID to another device (eg, a smartphone).
  • a device such as a smartphone may correspond to a client device
  • a wearable device performing advertising/scanning may correspond to a server device.
  • in-range operations and out-of-range operations may be defined.
  • a contact list may be defined.
  • TAN Transaction Authentication Number
  • QR code or the like may be used as a given means.
  • ID can be uploaded to the secure cloud through user authentication.
  • Any random ID that the user has contacted can be uploaded.
  • the device may upload directly, or it may be uploaded by sending it to another device.
  • IP address anonymization service may be supported to protect user personal information.
  • the danger notification may include notifying that there is a patient or confirmed person in the vicinity.
  • Such a local contact security tracking service may also be applied to identifying or notifying whether other users who have subscribed to the same service exist around the user in a similar service such as an application that supports meeting between users.
  • the contact tracking operation may operate differently according to region information in which the user is located. For example, a contact tracking-related operation may be performed more frequently in an area A where users are densely populated, and a contact tracking-related operation may be performed less frequently in a clean area B where there are few users.
  • the degree of user density or the number of peripheral devices may be related to a frequency or storage capacity of a contact tracking-related operation of the device.
  • Contact tracking related operations may include advertising and scanning of random IDs.
  • a specific device may advertise a random ID, and a specific device may scan for a random ID advertised by other nearby devices. Random IDs of peripheral devices that the specific device scans may be (temporarily) stored in the specific device.
  • time zone eg, commuting, work, home, sleeping
  • the degree of user density or the number of peripheral devices may vary. Therefore, based on the degree of user density or the number of peripheral devices, the setting of the device for one or more of advertising frequency (or interval), scanning frequency (or scanning on/off time), or storage capacity may vary. .
  • 23 is a diagram for describing a technique for utilizing contact information related to the present disclosure.
  • a tracing key is a key that is generated once per device.
  • the daily tracing key is derived from the tracing key and can be generated every 24 hours in terms of privacy.
  • a diagnosis key corresponds to a subset of the daily tracking key, and may be uploaded when the owner of the device is diagnosed as positive for the virus.
  • a rolling proximity identifier is an identifier that functions to protect personal information, and may be derived from a daily tracking key and transmitted through Bluetooth advertisement. This may be changed, for example, every 15 minutes to prevent wireless tracking of the device.
  • ADV_NONCONN_IND may be used for the packet format including the rolling proximity identifier. That is, it is not a connection-based service and may not support GATT.
  • a random address is applied to the address included in the packet to prevent device tracking (ie, tracking the physical location of the device). For example, as a randomized rotation timeout interval, a Bluetooth random private address may be defined and used. For the purpose of preventing device tracking, the rolling proximity identifier and tracking key can be changed.
  • the random address may be included in the BLE packet header, and the key may be included in the BLE advertisement data as a unique value.
  • a service UUID may indicate the existence of a service and identify a service type.
  • a 16-byte rolling proximity identifier may be included in the service data field.
  • 24 to 25 are diagrams for explaining a procedure of a technique using contact information related to the present disclosure.
  • the interval for advertising rolling proximity identifiers is subject to change, but currently it is common to apply 200 to 270 ms. Setting the advertising interval constant has a problem in that it may cause unnecessary power consumption.
  • the framework BT (BLE) entity of the first device may generate a tracking key, and may derive or generate a daily tracking key therefrom.
  • key information is transmitted to a cryptographic entity (crypto), and a rolling proximity identifier (RP ID) may be derived from the key information in the cryptographic entity and delivered to the BLE entity.
  • the BLE entity may advertise the RP ID according to a predetermined interval. From the advertisement information of the first device, the second device may receive the RP ID and store it.
  • a user device may broadcast an advertising packet including an RP ID, and scan advertising packets from other devices to receive and store the RP ID.
  • the BLE entity of the first device storing the RP ID advertised by the third device may obtain a diagnostic key list from the cloud through the application. Accordingly, in order to analyze (resolve) the diagnostic key corresponding to the RP ID, the RP ID and diagnostic key information may be delivered to the encryption entity, the encryption entity may determine whether it matches or not, and the result may be delivered to the BLE entity.
  • the BLE entity may determine a risk, transmit the number of matches to the application, and obtain contact information from the application.
  • the BLE entity may notify the user and allow access of the application, and may transmit timestamp and duration values to the application.
  • the protocol between the cloud and the application is not defined.
  • the flow between cloud, cryptographic entity, BLE entity, initial application registration, user registration, etc., exchange of credentials or token information, etc. are not clearly defined. Therefore, it is required to clearly define these procedures.
  • 26 is a diagram illustrating an example of a block diagram and message to which the present disclosure can be applied.
  • the first device and the second device may be devices owned/carried by the same single user (or the same single user group).
  • the first device may be a headset, a wearable device, or the like
  • the second device may be a mobile phone or the like.
  • Contact service related information may be exchanged between the first and second devices.
  • each of the first and second devices may exchange data through communication with a cloud server.
  • a network interface in each device may include a BLE entity, and may exchange data with an encrypted AAA (Authentication, Authorization, Accounting) manager entity.
  • AAA Authentication, Authorization, Accounting
  • 27 is a diagram for explaining a key change synchronization method to which the present disclosure can be applied.
  • key information (eg, a unique value included in data of an advertising packet, or RP ID) may be changed at a predetermined interval, and also, an advertising packet A random address (or private address) included in the header of ' may also be changed at a predetermined interval.
  • the key value and/or address value is Each may be changed periodically.
  • the key information is changed in the order of the first key, the second key, and the third key
  • the address information is changed in the order of the first address, the second address, and the third address.
  • the first key information associated with the first address may be tracked and obtained.
  • a third party having the first key information may track and obtain the second address information associated with the first key.
  • a third party having the second address information may track and obtain the second key information associated with the second address.
  • the first key information associated with the first address may be obtained by tracking.
  • the first address is changed to the second address and the first key is also changed to the second key, neither of the second key and the second address can be tracked and obtained from the first key and the first address information.
  • the BLE entity exchanges information for synchronization of address change and key change with the encryption entity, negotiation, indication or notification.
  • the BLE entity exchanges information for synchronization of address change and key change with the encryption entity, negotiation, indication or notification.
  • it is possible to determine a change interval or period commonly applied to address change and key change.
  • the interval or period at which the key information and the address information are changed may be constant or may vary dynamically.
  • the BLE entity of the first device broadcasts an advertising packet including its RP ID at a predetermined time interval (ie, an interval), and the third device receives the advertising packet through scanning and One or more RP IDs of the device can be stored.
  • the first device may also receive the advertising packet broadcast by the peripheral devices including the third device at a predetermined interval and store one or more RP IDs for each peripheral device.
  • the device may estimate the situation of its own peripheral device based on the advertising information of the peripheral devices through scanning.
  • the device can dynamically change its advertising interval by identifying the surrounding device situation.
  • the peripheral device situation includes the number of peripheral devices, the number of devices performing contact tracking related services in the vicinity, and the level of risk in the area where the user is located (e.g., the degree of risk associated with device density (the higher the density, the higher the risk) high), regional characteristics (region classification according to population density characteristics such as cities, suburbs, and regions)).
  • the device may reduce its advertising interval and transmit advertising packets more frequently. If the surrounding device situation is estimated that the user density is low, the device may increase its advertising interval to transmit advertising packets less frequently. If it is estimated that there are no devices around, the advertising interval may be set to a minimum value.
  • the advertising frequency may be associated with the scanning frequency.
  • the scanning interval may be set to be the same as the advertising interval or an integer multiple of the advertising interval.
  • a scanning duration which is a time for performing scanning for each scanning interval, may be set. The longer the scanning duration, the more identifiers of peripheral devices can be stored.
  • the storage capacity of the device is limited, it is necessary to adjust the scanning interval or the scanning duration according to the user density or the advertising interval of the peripheral device. Accordingly, one or more of the advertising interval, scanning interval, or scanning duration may be adjusted based on one or more of user density or storage capacity of the device.
  • 29 is a view for explaining a risk notification method including additional information to which the present disclosure can be applied.
  • Additional information includes application installation status, user registration status, user health status information (for example, direct health status related information such as positive/negative diagnosis results, indirect health status related information such as body temperature and pulse), region/location information ( or density information), time zone information, and the like.
  • direct health status related information such as positive/negative diagnosis results
  • indirect health status related information such as body temperature and pulse
  • region/location information or density information
  • time zone information and the like.
  • the third device may download and install the application from the cloud server through the application, or perform user registration in the cloud server.
  • positive/negative diagnosis information for the user of the third device and information on a region in which the current user is located may also be received, and this may be transmitted to the BLE entity.
  • the encryption entity of the third device may generate key information and the like based on information received from the cloud server, and may deliver it to the BLE entity.
  • the BLE entity of the third device can broadcast an advertising packet including additional information such as positive/negative diagnostic information provided from the application and key information (eg, RP ID) provided from the encryption entity. have.
  • the BLE entity of the first device may receive an advertising packet broadcast by peripheral devices, and store the RP ID and additional information for each device.
  • a diagnosis result may be uploaded to a cloud server.
  • the diagnosis result is uploaded to the cloud server with the user's consent (eg, by giving a QR code or TAN) or without the user's consent.
  • the diagnosis result may be shared between the application of the third device and the cloud server. Accordingly, the diagnostic key information may be transmitted from the cloud server to the application of the first device.
  • the application of the first device may receive the diagnostic key information from the cloud server and deliver the diagnostic key list to the BLE entity.
  • the BLE entity may deliver the RP ID and diagnostic key information to the encryption entity in order to resolve the diagnostic key corresponding to the RP ID, determine whether the encryption entity matches or not, and deliver the result to the BLE entity.
  • the BLE entity may transmit a risk to the application.
  • additional information may be additionally considered in determining the degree of risk. That is, the degree of risk may be derived from the matching result of the RP ID and the diagnostic key and/or additional information. Since the additional information includes positive/negative diagnosis information and regional information provided by the peripheral device, the degree of risk may be determined in consideration of the number of nearby positively confirmed devices, regional characteristics (density, etc.), time zone, and the like. For example, based on a predetermined threshold for each of the additional information, whether or not the level of risk may be determined.
  • the additional information may include health status information such as a user's body temperature and pulse. Although it indicates risk less directly than positive/negative diagnostic information, it can be used in situations where the confirmation is uncertain.
  • FIG. 30 is a diagram for explaining a representative device-related operation to which the present disclosure can be applied.
  • One user may carry more than one device.
  • all devices carried by one user provide a contact tracking service, redundant information is advertised, and thus unnecessary resource consumption and power consumption may be induced.
  • a representative device can be set.
  • devices #1, #2, and #3 owned or carried by user #1 may set a representative device through negotiation for a contact service (or contact tracking service).
  • one representative device may perform both advertising and scanning for other device(s), and one device is set as the advertising representative device and another device is set as the scanning representative device. may be set.
  • the representative device may serve as a relay to the cloud server for other devices. This may be determined based on the capabilities of each device.
  • device #2 When the advertising representative device of user #1 is set as device #2, device #2 sends one advertising packet (including RP ID, additional information, etc.) on behalf of devices #1 and #3. can be broadcast.
  • the scanning representative device of the user #1 when the scanning representative device of the user #1 is set as the device #1, the device #1 receives the advertising packet broadcast by the peripheral device through scanning and transmits the received information to the devices #2 and #3. can share
  • the representative device may be set for one user, or may be set for a plurality of associated users (ie, one user group).
  • user #1 and user #3 may have a parent-child relationship.
  • the device (eg, a wearable device) carried by the user #3 may perform a contact service through one of the devices (ie, a representative device) carried by the user #1 when a predetermined condition is satisfied.
  • the device of user #3 and the representative device of user #1 may check (ie, in-range check) whether they are within a predetermined distance range.
  • the device #1 of the user #1 may perform the contact service on behalf of the device of the user #3 through capability negotiation. For example, if user #3's device has information to upload to the cloud, instead of uploading it directly, it goes through user #1's device #1 and then uploaded (on behalf of user #3). can
  • devices #4 and #5 of user #2 may be configured with device #5 as a representative device for a relay role for the cloud server through the capability negotiation process.
  • device #5 may transmit information received from the cloud to device #4.
  • devices #4 and #5 may store the RP ID by receiving advertising packets broadcast by peripheral devices, respectively.
  • Device #5 may receive diagnostic key information from the cloud server and deliver it to device #4.
  • Device #4 transmits the RP ID and diagnostic key to the cloud server through device #5 for analysis (resolve) of the diagnostic key list and RP ID delivered from device #5, and receives the matching result through device #5 can do. Accordingly, devices #4 and #5 may perform risk notification.
  • 31 is a diagram for explaining an operation related to setting a representative device to which the present disclosure can be applied.
  • the contact tracing profile may support a contact tracing service. Operations between the contact tracking client and the contact tracking server, and between the contact tracking server and the cloud or user device, may be defined in terms of contact services.
  • the contact tracking service characteristic may include examples such as status information, service information, and a group parameter change control point as shown in Table 6 below. .
  • a contact tracking service local registration and contact service negotiation procedure may be performed between the plurality of devices and/or each of the plurality of devices and the cloud server.
  • the contact tracking service continuously performs advertising and scanning operations, device power consumption is high. Unnecessary power consumption may be reduced through the setting of a representative device, or a device having a good power state may perform a contact tracking service for a device not having a good power state. For example, instead of the wearable device having a low battery of user A, the mobile phone device may perform a contact tracking service operation on behalf of the wearable device. That is, the representative device setting may be dynamically changed according to the device state and surrounding circumstances.
  • 32 is a diagram for explaining an example of operation of a representative device to which the present disclosure can be applied.
  • the user device basically advertises and scans with other users' devices (eg, devices #1, #2, #3) in the vicinity.
  • Contact service-related information can be exchanged through
  • the user device may exchange contact service-related information through advertising and/or scanning of another device (eg, a representative device). That is, it is possible to design a structure in which only a specific device among devices associated with one user performs a contact service and shares the result between devices as necessary.
  • device A performs RF channel scanning instead of device B to enable devices of other users (eg, devices #1, #2, #3) nearby. may obtain contact service-related information of , and inform the device A and/or the user.
  • This structure does not only work between two devices associated with one user, but may also be applied between multiple devices of three or more.
  • contact service-related operations performed by a specific device for other device(s) are not limited to advertising and scanning, and are shared with other device(s) by sending/receiving information to/from the cloud server It may be extended to include an operation to
  • 33 is a diagram for explaining a contact service negotiation procedure to which the present disclosure can be applied.
  • device 1 and device 2 are devices associated with one user.
  • a contact service representative device selection algorithm may be performed in each device based on the exchanged information. It can be exchanged through a message that the representative device is confirmed.
  • the device selected as the representative device may perform advertising and/or scanning operations, and transmit the result to another device (eg, a device that requested scanning).
  • devices 1 and 2 are in a state in which a BLE connection is established.
  • a message including prior information for determining or calculating a device suitable to operate as a representative device according to a user setting may be exchanged between the devices 1 and 2 .
  • devices 1 and 2 may perform a negotiation procedure for setting a representative device for a contact service.
  • the negotiation procedure may include determining a suitable device for generating key information (eg, RP ID). Accordingly, a message including information for determining the representative device may be exchanged between the devices 1 and 2.
  • the representative device setting negotiation procedure may include contact service negotiation and capability negotiation.
  • a representative device to exchange contact service-related information may include selecting
  • the capability negotiation may include selecting a representative device to exchange contact service-related information with the cloud server according to device capability (eg, whether Internet access is available, whether or not to have a display function, whether or not to have authority, etc.).
  • device capability eg, whether Internet access is available, whether or not to have a display function, whether or not to have authority, etc.
  • the negotiation procedure may include a negotiation request (Negotiation Request), a negotiation response (Negotiation Response), and a negotiation confirmation (Negotiation Confirm) steps.
  • the negotiation target may include one or more of an operation related to a contact service, for example, advertising, scanning, and information exchange with a cloud server.
  • a negotiation procedure for selecting a representative device for a scanning operation may include steps of a scan negotiation request, a scan negotiation response, and scan negotiation confirmation.
  • Information on available parameters may be exchanged through the negotiation request message. For example, when the device 2 obtains information on the available parameters of the device 1, it may determine whether it is a device suitable for the representative device based on the information.
  • the negotiation response message is a response to the negotiation request, and is for sharing the determination result.
  • the negotiation confirmation message is for determining which device will operate as the representative device according to the determination result.
  • device 1 may transmit a negotiation request message including information on available parameters to device 2 .
  • Device 2 may determine a device suitable as a representative device and transmit the result to device 1 through a negotiation response message.
  • Device 1 may transmit information about which device will serve as a representative device to device 2 through a negotiation confirmation message. If device 2 is selected as the representative device, device 2 performs advertising, scanning, and/or communication with a cloud server on behalf of or on behalf of device 1, and as a result (eg, for scanning information about a nearby device) may be notified to the device 1 .
  • the parameter related to the representative device selection determination is a set of values that affect how well the device is suitable for performing the contact service.
  • the residual energy parameter among these parameters means the remaining battery capacity of the device. Even if a device with a high remaining battery power frequently or additionally performs scanning for a contact service, there is no problem compared to a device with a low remaining battery power. That is, it may be determined that it is more suitable for a device with a large remaining battery power to perform scanning (ie, to be selected as a scanning performing representative device).
  • 34 is a diagram for explaining cloud communication for a contact service to which the present disclosure can be applied.
  • the user's account is managed and provided by a User Account Manager.
  • Google acts as a user account manager and can manage the user's account and provide token-related information that can prove that the user is a specific user.
  • a contact service device manages account information for a single person because, in most cases, it is a device owned by an individual user. However, in case a single device is used by multiple users, or when one person registers multiple accounts, a number of tokens can be managed with a token store.
  • each account manager may manage tokens corresponding to the plurality of accounts for each user through the token storage.
  • the user may communicate with the cloud server through a contact service application installed in each of one or more user devices.
  • a user device may communicate with a cloud server based on user tokens through various account managers.
  • One or more contact service applications may be installed on the user device, and each contact service application may communicate with a cloud server through one or more account managers.
  • Different devices or applications may be associated with the same user account, and one device or application may be associated with different user accounts.
  • 35 is a diagram for explaining an application installation and user registration procedure to which the present disclosure can be applied.
  • Users A and B may each have accounts managed by an account manager. It is assumed that the accounts of users A and B are registered in the account manager through each user's account registration procedure.
  • the account manager may create a token associated with each user's user account and share it with the cloud server.
  • the cloud server may generate registration credentials based on information such as a user token. Accordingly, the cloud server may generate an account-based token and grant a credential, and may set an expiration period for the credential.
  • both contact service applications #1 and #2 are installed on the same user A's device.
  • Each or any one of the contact service applications (or devices) may have contact service related key generation capabilities and/or ID resolve capabilities.
  • One or more of the contact service applications #1 and #2 may generate a token on the cloud server based on the user A's account manager account, share it with the cloud through the token sharing procedure, and receive the credentials granted by the cloud. can This may be included in the application installation process or login process. Also, contact service applications (or devices) #1 and #2 may establish a local connection.
  • the cloud server can confirm that the contact service application (or device) #1 and #2 are devices related to the same user A by exchanging information registered in the account manager and the contact service application (or device). .
  • the contact service applications (or devices) #1 and #2 may perform a contact service negotiation procedure, and either one may function as a representative device. Accordingly, one or more of the contact service applications #1 and #2 may transmit the contact service related key for user A in an advertising packet, and may acquire information of a peripheral device through scanning, or the cloud It can also communicate with the server.
  • the contact service application may generate a key using the credential or resolve the ID obtained from the surroundings to confirm the confirmed patient.
  • 36 is a diagram for explaining a method of acquiring contact service application key information to which the present disclosure can be applied.
  • the user may input his/her account information (eg, ID, password, etc.) through the user browser of the contact service application.
  • his/her account information eg, ID, password, etc.
  • the user may request to register one or more devices to be linked for a contact service through a device (eg, a contact service device) addition procedure (navigate to add device).
  • a device eg, a contact service device
  • addition procedure navigate to add device
  • a device subject to a registration request may acquire a token to be used in the device by exchanging a Device Authentication Token with the cloud server.
  • the cloud server may obtain information of the corresponding device from the registration request target device or the contact service application and transmit it to the account manager, and may receive an authentication token for the corresponding device from the account manager and deliver it to the corresponding device.
  • the account manager may support an additional authentication procedure for the contact service device.
  • the account manager may deliver the registration code to the user through text, e-mail, or the like, and the user may input the registration code into the device. Through this, an additional authentication procedure and security token exchange may be performed.
  • the corresponding device may be registered as a credential contact service device and may perform a contact service operation.
  • 37 is a diagram for explaining a method of acquiring contact service account information and linking accounts between intermediaries to which the present disclosure can be applied.
  • user A may perform an authentication procedure as to whether the user A is the actual user A through a login procedure.
  • a login procedure may be performed through a method such as biometric information or a password.
  • user authentication information e.g, ID, password, etc.
  • a unique token or key is generated, the generated token or key is registered with the account manager (or cloud or web server), and authentication (eg, email authentication) procedure can be performed. If authentication fails, a procedure for generating user authentication information may be performed. If authentication is successful, the contact service device can be verified. That is, a device linked to user information may be registered for a contact service.
  • the user can register or delete the device.
  • device deletion may be performed through a user intention reconfirmation process.
  • registering a device it may be checked whether a device previously registered for a contact service has the capability to perform a contact service, and if not, another device may be selected. When the device has the contact service capability, the corresponding device may be registered for the contact service in association with user information.
  • the representative device is a device that performs scanning/advertising, but the scope of the present disclosure is not limited thereto.
  • the representative device may acquire RP IDs of peripheral devices stored in other device(s) according to advertising/scanning performed by other device(s).
  • the representative device may correspond to a client device such as a smart phone, and other user devices (eg, a wearable device) may correspond to a server device.
  • 38 is a diagram illustrating a configuration of a first device and a second device to which the present disclosure can be applied.
  • the first device 3800 may include a processor 3810 , an antenna unit 3820 , a transceiver 3830 , and a memory 3840 .
  • the processor 3810 performs baseband-related signal processing and may include a host processor 3811 and a controller processor 3815 .
  • the host processing unit 3811 and the controller processing unit 3815 may exchange information through HCI.
  • the host processing unit 3811 may process operations such as L2CAP, ATT, GATT, GAP, and LE profile layers.
  • the controller processing unit 3815 may process operations such as LL and PHY layers.
  • the processor 3810 may control the overall operation of the first device 3800 in addition to performing baseband-related signal processing.
  • the antenna unit 3820 may include one or more physical antennas.
  • the transceiver 3830 may include a radio frequency (RF) transmitter and an RF receiver.
  • the memory 3840 may store information processed by the processor 3810 and software, an operating system, and an application related to the operation of the first device 3800 , and may include components such as a buffer.
  • the processor 3810 of the first device 3800 may be configured to implement the operation of the first device (or server device) in the embodiments described in the present invention.
  • the host processing unit 3811 of the processor 3810 of the first device 3800 transmits exposure notification service related setting information provided from the second device 3850 through the transceiver 3830 and the controller processing unit 3815. can receive
  • the host processing unit 3811 transmits information to be included in the advertising packet and parameters related to broadcasting of the advertising packet to the controller processing unit 3815 based on the setting information, and based on this, the controller processing unit 3815 Broadcasting of advertising packets can be performed.
  • the advertising packet may include a proximity identifier generated based on key information, and the proximity identifier may be changed at a predetermined period.
  • the host processing unit 3811 may receive information included in the advertising packet from one or more third devices through the scanning of the transceiver 3830 and the controller processing unit 3815 .
  • the host processor 3811 may provide parameters related to scanning of the controller processor 3815 in advance.
  • the advertising packet of the third device may include a proximity identifier of the third device.
  • the host processing unit 3811 determines whether the proximity identifier of the third device matches the diagnostic key (provided from the cloud-based key server), or whether the match is provided from another device (eg, the second device). information can be received. If the proximity identifier of a specific device (or tracking key information, which is a basis for generating the proximity identifier) among a plurality of third devices matches the diagnostic key, the user is notified of the fact through the user interface of the first device. can
  • the second device 3850 may include a processor 3860 , an antenna unit 3870 , a transceiver 3880 , and a memory 3890 .
  • the processor 3860 performs baseband-related signal processing and may include a host processor 3861 and a controller processor 3865 .
  • the host processing unit 3861 and the controller processing unit 3865 may exchange information through HCI.
  • the host processor 3861 may process operations such as L2CAP, ATT, GATT, GAP, and LE profile layers.
  • the controller processing unit 3865 may process operations such as LL and PHY layers.
  • the processor 3860 may control overall operations of the second device 3860 in addition to performing baseband-related signal processing.
  • the antenna unit 3870 may include one or more physical antennas.
  • the transceiver 3880 may include an RF transmitter and an RF receiver.
  • the memory 3890 may store information processed by the processor 3860 and software, an operating system, and an application related to the operation of the second device 3850 , and may include components such as a buffer.
  • the processor 3860 of the second terminal device 3850 may be configured to implement the operation of the second device (or client device) in the embodiments described in the present invention.
  • the host processing unit 3861 of the processor 3860 of the second device 3850 generates setting information related to the exposure notification service of the first device 3800 to generate the controller processing unit 3865 and the transceiver 3880. may be transmitted to the first device 3800 through The setting information may be generated based on the capability of the first device.
  • the host processing unit 3861 may determine whether the diagnosis key matches the proximity identifier information of one or more third devices transmitted from the first device 3800 through communication with the cloud-based key server.
  • the descriptions of the first device (or server device) and the second device (or client device) in the examples of the present invention may be equally applied. , and overlapping descriptions are omitted.
  • the first device 3800 may perform the exposure notification service without setting the exposure notification service from the second device 3850 .
  • the first device 3800 or the second device 3850 alone can directly communicate with the cloud-based server, can set parameters related to the exposure notification service by itself, and the advertisement including the proximity identifier Operations such as vertising/scanning can be directly performed.
  • the first device 3800 or the second device 3850 may perform the exposure notification service alone (ie, without establishing a server-client connection with another device).
  • ASICs Application Specific Integrated Circuits
  • DSPs Digital Signal Processors
  • DSPDs Digital Signal Processing Devices
  • PLDs Programmable Logic Devices
  • FPGAs Field Programmable Gate Arrays
  • general purpose It may be implemented by a processor (general processor), a controller, a microcontroller, a microprocessor, and the like.
  • the scope of the present disclosure includes software or machine-executable instructions (eg, operating system, application, firmware, program, etc.) that cause operation according to the method of various embodiments to be executed on a device or computer, and such software or and non-transitory computer-readable media in which instructions and the like are stored and executed on a device or computer.
  • Instructions that can be used to program a processing system to perform the features described in this disclosure may be stored on/in a storage medium or computer-readable storage medium, and can be viewed using a computer program product including such storage medium.
  • Features described in the disclosure may be implemented.
  • Storage media may include, but are not limited to, high-speed random access memory such as DRAM, SRAM, DDR RAM or other random access solid state memory device, one or more magnetic disk storage devices, optical disk storage devices, flash memory devices, or may include non-volatile memory, such as other non-volatile solid state storage devices.
  • the memory optionally includes one or more storage devices located remotely from the processor(s).
  • the memory or alternatively the non-volatile memory device(s) within the memory includes a non-transitory computer-readable storage medium.
  • Features described in this disclosure may be stored on any one of the machine readable media to control hardware of a processing system, and cause the processing system to interact with other mechanisms that utilize results according to embodiments of the present disclosure. It may be incorporated into software and/or firmware.
  • Such software or firmware may include, but is not limited to, application code, device drivers, operating systems, and execution environments/containers.
  • Embodiments of the present disclosure may be applied to various wireless communication systems to increase the performance of the wireless communication system.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Databases & Information Systems (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

본 개시는 무선 통신 시스템에서 로컬 접촉 보안 추적 방법, 장치, 컴퓨터 프로그램 및 그 기록 매체에 대한 것이다. 본 개시의 일 실시예에 따른 무선 통신 시스템의 제 1 디바이스에 의해서 노출 통지 서비스를 수행하는 방법은, 상기 제 1 디바이스의 근접 식별자를 포함하는 제 1 애드버타이징 패킷을 주기적으로 브로드캐스트하는 단계; 하나 이상의 제 2 디바이스의 근접 식별자를 포함하는 하나 이상의 제 2 애드버타이징 패킷을 주기적으로 스캐닝하는 단계; 및 상기 하나 이상의 제 2 디바이스의 근접 식별자와 진단 키와의 매칭 여부를 결정하거나, 상기 매칭 여부에 대한 정보를 수신하는 단계를 포함하고, 상기 제 1 디바이스의 근접 식별자는 소정의 주기에 따라서 변경될 수 있다.

Description

무선 통신 시스템에서 로컬 접촉 보안 추적 방법, 장치, 컴퓨터 프로그램 및 그 기록 매체
본 개시는 무선 통신 시스템에서 로컬 접촉 보안 추적 방법, 장치, 컴퓨터 프로그램 및 그 기록 매체에 대한 것이다.
블루투스(Bluetooth)는 근거리 무선 통신 규격으로서, BR(Basic Rate)/EDR(Enhanced Data Rate) 기술과 LE(Low Energy) 기술을 포함한다. BR/EDR은 블루투스 클래식(classic)이라고도 하며, 블루투스 1.0 부터 적용된 BR 기술과 블루투스 2.0 이후부터 적용된 EDR 기술을 포함한다. 블루투스 4.0 이후 적용된 블루투스 LE(BLE)는 저전력으로 상대적으로 큰 데이터의 송수신을 지원하는 기술이다.
블루투스 규격은 다양한 프로파일(profile)을 포함한다. 예를 들어, HFP(Hands-Free Profile)는 하나의 디바이스가 스마트폰과 같은 오디오 게이트웨이(AG)로서 기능하고 다른 디바이스가 헤드셋과 같은 핸즈-프리 디바이스로서 기능하기 위하여 필요한 사항을 정의한다. 또한, A2DP(Advance Audio Distribution Profile)는 하나의 디바이스가 음악 재생기(player)와 같은 오디오 소스(source)로서 기능하고 다른 디바이스가 스피커와 같은 오디오 싱크(sink)로서 기능하기 위하여 필요한 사항을 정의한다.
최근 무선 디바이스의 보급이 증가하면서 다-대-다 또는 M-대-N 연결 형태의 다양한 토폴로지에서 오디오 데이터 송수신에 대한 요구가 증가하고 있다. 예를 들어, 5.1 채널 환경을 요구하는 스트리밍 서비스들이 등장하고 있으며, 종래의 5.1 채널 전용 유선 스피커의 제약에서 벗어나 다수의 블루투스 휴대형 스피커들을 이용한 5.1 채널 환경을 지원하는 것이 논의되고 있다. 그러나, 종래의 블루투스 오디오 기술은 주로 두 개의 디바이스 간의 일-대-일 연결 형태의 유스 케이스(use case)를 고려하여 개발되었기 때문에, 다수의 디바이스 간의 오디오 데이터 송수신을 지원하기에 적합하지 않고 지연(delay)이 큰 문제가 있다. 또한, 블루투스 오디오 디바이스의 개수가 증가하면서 주변 디바이스 검색을 위한 전력 소모가 증가하는 등의 문제가 있다.
종래의 블루투스 시스템에서는 사용자 간 접촉을 추적하는 방안은 마련되어 있지 않다.
본 개시의 기술적 과제는 무선 통신 시스템에서 사용자 간 접촉을 추적하는 방법 및 장치를 제공하는 것이다.
본 개시에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 개시의 일 양상에 따른 무선 통신 시스템의 제 1 디바이스에 의해서 노출 통지 서비스를 수행하는 방법은, 상기 제 1 디바이스의 근접 식별자를 포함하는 제 1 애드버타이징 패킷을 주기적으로 브로드캐스트하는 단계; 하나 이상의 제 2 디바이스의 근접 식별자를 포함하는 하나 이상의 제 2 애드버타이징 패킷을 주기적으로 스캐닝하는 단계; 및 상기 하나 이상의 제 2 디바이스의 근접 식별자와 진단 키와의 매칭 여부를 결정하거나, 상기 매칭 여부에 대한 정보를 수신하는 단계를 포함하고, 상기 제 1 디바이스의 근접 식별자는 소정의 주기에 따라서 변경될 수 있다.
본 개시의 추가적인 양상에 따른 무선 통신 시스템에서 노출 통지 서비스를 수행하는 제 1 디바이스 측의 장치는, 다른 디바이스와의 신호 송신 및 수신을 수행하기 위한 송수신기; 및 상기 송수신기 및 상기 장치를 제어하기 위한 프로세서를 포함하고, 상기 프로세서는, 상기 제 1 디바이스의 근접 식별자를 포함하는 제 1 애드버타이징 패킷을 상기 송수신기를 통하여 주기적으로 브로드캐스트하고; 하나 이상의 제 2 디바이스의 근접 식별자를 포함하는 하나 이상의 제 2 애드버타이징 패킷을 상기 송수신기를 통하여 주기적으로 스캐닝하고; 및 상기 하나 이상의 제 2 디바이스의 근접 식별자와 진단 키와의 매칭 여부를 결정하거나, 상기 매칭 여부에 대한 정보를 상기 송수신기를 통하여 수신하도록 설정되고, 상기 제 1 디바이스의 근접 식별자는 소정의 주기에 따라서 변경될 수 있다.
본 개시에 대하여 위에서 간략하게 요약된 특징들은 후술하는 본 개시의 상세한 설명의 예시적인 양상일 뿐이며, 본 개시의 범위를 제한하는 것은 아니다.
본 개시에 따르면, 무선 통신 시스템에서 사용자 간 접촉을 추적하는 방법 및 장치가 제공될 수 있다.
본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 종래의 오디오 연결 형태와 본 개시가 적용가능한 오디오 연결 형태를 예시적으로 나타내는 도면이다.
도 2는 종래의 오디오 관련 프로토콜 스택과 본 개시가 적용가능한 오디오 관련 프로토콜 스택을 예시적으로 나타내는 도면이다.
도 3은 본 개시가 적용가능한 5.1 채널 서라운드 시스템 하드웨어에 대한 예시들을 나타낸다.
도 4는 본 개시가 적용가능한 오디오 데이터 부호화/복호화 과정을 나타내는 도면이다.
도 5는 본 개시가 적용가능한 2개의 디바이스에 대한 채널 할당의 예시를 나타내는 도면이다.
도 6은 본 개시가 적용가능한 두 개의 스트림의 동기화 지연을 설명하기 위한 도면이다.
도 7은 본 개시가 적용가능한 복수의 디바이스에 대한 브로드캐스트 동작을 설명하기 위한 도면이다.
도 8 및 도 9는 본 개시가 적용가능한 ICL 타입 및 INCL 타입의 동작을 설명하기 위한 도면이다.
도 10은 본 개시가 적용가능한 브로드캐스트 오디오 스트림 상태 머신을 나타내는 도면이다.
도 11은 본 개시가 적용가능한 오디오 셋업 절차를 나타내는 도면이다.
도 12는 본 개시가 적용가능한 링크 계층 상태 머신을 나타내는 도면이다.
도 13은 본 개시가 적용가능한 오디오 토폴로지의 예시를 나타내는 도면이다.
도 14 내지 도 16은 본 개시가 적용될 수 있는 서버와 클라이언트 간의 메시지 교환 과정을 나타내는 도면이다.
도 17은 본 개시가 적용가능한 콜 서비스에 대한 상태 머신을 나타내는 도면이다.
도 18은 본 개시가 적용가능한 계층별 패킷 포맷을 나타내는 도면이다.
도 19는 본 개시가 적용가능한 데이터 유닛 포맷의 예시들을 나타내는 도면이다.
도 20은 본 개시가 적용가능한 애드버타이즈먼트 유닛 포맷의 예시들을 나타내는 도면이다.
도 21은 본 개시에 따른 노출 통지 서비스(exposure notification service, ENS) 동작을 설명하기 위한 도면이다.
도 22는 본 개시가 적용될 수 있는 유스 케이스의 예시를 설명하기 위한 도면이다.
도 23은 본 개시와 관련된 접촉 정보를 활용하는 기술을 설명하기 위한 도면이다.
도 24 내지 도 25는 본 개시와 관련된 접촉 정보를 활용하는 기술의 절차를 설명하기 위한 도면이다.
도 26은 본 개시가 적용될 수 있는 블록도 및 메시지의 예시를 나타내는 도면이다.
도 27은 본 개시가 적용될 수 있는 키 변경 동기화 방안을 설명하기 위한 도면이다.
도 28는 본 개시가 적용될 수 있는 동적 인터벌 제어 방법을 설명하기 위한 도면이다.
도 29는 본 개시가 적용될 수 있는 부가 정보를 포함한 위험도 알림 방법을 설명하기 위한 도면이다.
도 30은 본 개시가 적용될 수 있는 대표 디바이스 관련 동작을 설명하기 위한 도면이다.
도 31은 본 개시가 적용될 수 있는 대표 디바이스 설정 관련 동작을 설명하기 위한 도면이다.
도 32는 본 개시가 적용될 수 있는 대표 디바이스 동작 예시를 설명하기 위한 도면이다.
도 33은 본 개시가 적용될 수 있는 접촉 서비스 협상 절차를 설명하기 위한 도면이다.
도 34는 본 개시가 적용될 수 있는 접촉 서비스를 위한 클라우드 통신을 설명하기 위한 도면이다.
도 35는 본 개시가 적용될 수 있는 애플리케이션 설치 및 사용자 등록 절차를 설명하기 위한 도면이다.
도 36은 본 개시가 적용될 수 있는 접촉 서비스 애플리케이션 키 정보 획득 방법을 설명하기 위한 도면이다.
도 37은 본 개시가 적용될 수 있는 접촉 서비스 계정 정보 획득 및 중개자 간 계정 연동 방법을 설명하기 위한 도면이다.
도 38은 본 개시가 적용될 수 있는 제 1 디바이스 및 제 2 디바이스의 구성을 나타내는 도면이다.
이하에서는 첨부한 도면을 참고로 하여 본 개시의 실시예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나, 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다.
본 개시의 실시예를 설명함에 있어서 공지 구성 또는 기능에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그에 대한 상세한 설명은 생략한다. 그리고, 도면에서 본 개시에 대한 설명과 관계없는 부분은 생략하였으며, 유사한 부분에 대해서는 유사한 도면 부호를 붙인다.
본 개시에 있어서, 어떤 구성요소가 다른 구성요소와 "연결", "결합" 또는 "접속"되어 있다고 할 때, 이는 직접적인 연결관계 뿐만 아니라, 그 중간에 또 다른 구성요소가 존재하는 간접적인 연결관계도 포함할 수 있다. 또한 본 개시에서 용어 "포함한다" 또는 "가진다"는 언급된 특징, 단계, 동작, 요소 및/또는 구성요소의 존재를 특정하지만, 하나 이상의 다른 특징, 단계, 동작, 요소, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는다.
본 개시에 있어서, "제 1", "제 2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되고 구성요소들을 제한하기 위해서 사용되지 않으며, 특별히 언급되지 않는 한 구성요소들 간의 순서 또는 중요도 등을 한정하지 않는다. 따라서, 본 개시의 범위 내에서 일 실시예에서의 제 1 구성요소는 다른 실시예에서 제 2 구성요소라고 칭할 수도 있고, 마찬가지로 일 실시예에서의 제 2 구성요소를 다른 실시예에서 제 1 구성요소라고 칭할 수도 있다.
본 개시에 있어서, 서로 구별되는 구성요소들은 각각의 특징을 명확하게 설명하기 위함이며, 구성요소들이 반드시 분리되는 것을 의미하지는 않는다. 즉, 복수의 구성요소가 통합되어 하나의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있고, 하나의 구성요소가 분산되어 복수의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있다. 따라서, 별도로 언급하지 않더라도 이와 같이 통합된 또는 분산된 실시예도 본 개시의 범위에 포함된다.
본 개시의 다양한 실시예는 모든 가능한 구성요소들의 조합을 빠짐없이 나열한 것이 아니라 본 개시의 대표적인 양상을 설명하기 위한 것이며, 다양한 실시예에서 설명하는 구성요소들 중의 일부 또는 전부는 독립적으로 적용되거나 또는 둘 이상의 조합으로 적용될 수도 있다. 즉, 본 개시의 다양한 실시예에서 설명하는 구성요소들이 반드시 필수적인 구성요소들은 의미하는 것은 아니며, 일부는 선택적인 구성요소일 수 있다. 따라서, 일 실시예에서 설명하는 구성요소들의 부분집합으로 구성되는 실시예도 본 개시의 범위에 포함된다. 또한, 다양한 실시예에서 설명하는 구성요소들에 추가적으로 다른 구성요소를 포함하는 실시예도 본 개시의 범위에 포함된다.
본 개시의 예시적인 방법들은 설명의 명확성을 위해서 동작의 시리즈로 표현되어 있지만, 이는 단계가 수행되는 순서를 제한하기 위한 것은 아니며, 필요한 경우에는 각각의 단계가 동시에 또는 상이한 순서로 수행될 수도 있다. 또한, 본 개시에 따른 방법을 구현하기 위해서, 예시하는 단계에 추가적으로 다른 단계를 포함하거나, 일부의 단계를 제외하고 나머지 단계를 포함하거나, 또는 일부의 단계를 제외하고 추가적인 다른 단계를 포함할 수도 있다.
본 개시에서 사용된 용어는 특정 실시예에 대한 설명을 위한 것이며 청구범위를 제한하려는 것이 아니다. 실시예의 설명 및 첨부된 청구범위에서 사용되는 바와 같이, 단수 형태는 문맥상 명백하게 다르게 나타내지 않는 한 복수 형태도 포함하도록 의도한 것이다. 또한, 본 개시에 사용된 용어 "및/또는"은 관련된 열거 항목 중의 하나를 지칭할 수도 있고, 또는 그 중의 둘 이상의 임의의 및 모든 가능한 조합을 지칭하고 포함하는 것을 의미한다.
본 개시에서 사용하는 용어에 대한 정의는 다음과 같다.
오디오 싱크(audio sink)는 오디오 데이터를 오디오 소스로부터 수신하는 개체이다.
오디오 소스(audio source)는 오디오 데이터를 오디오 싱크로 전송하는 개체이다.
오디오 채널(audio channel)은 부호화된 또는 부호화되지 않은 오디오 데이터의 단일 플로우이다.
오디오 스트림(audio stream)은 오디오 소스로부터 오디오 싱크로 플로우하는 오디오 데이터를 나르는 단방향의(unidirectional) 논리적 통신 채널이다. 오디오 데이터는 오디오 스트림 세션(ASS) 상에서 플로우할 수 있다. 오디오 스트림은 하나 이상의 오디오 채널에 대한 오디오 데이터를 나를 수 있다.
오디오 그룹(audio group)은 하나 이상의 동기화된 오디오 스트림을 포함할 수 있다.
컨텐츠 타입(content type)은 오디오 그룹의 컨텐츠의 분류(classification)을 나타낸다. 분류는 오디오가 사용자에 의해서 개시되었는지 여부를 포함할 수 있다. 컨텐츠 타입의 예시는 미분류오디오(UncategorizedAudio), 링톤(Ringtone), 시스템사운드(SystemSound), 위성내비게이션(Satnav), 콜오디오(CallAudio), 미디어(Media) 등을 포함할 수 있다.
메타데이터(metadata)는 오디오 데이터의 컨텍스트(context)를 제공하고 설명하는 가변적인 길이의 데이터이다. 메타데이터는 상위 계층을 위해서 정의될 수 있다.
오디오 스트림 세션(audio stream session, ASS)은 오디오 스트림의 단방향 또는 양방향 전달/교환 과정을 의미한다. ASS의 말단(endpoint)은 오디오 스트림 세션의 오디오 입력 및/또는 오디오 출력에 해당하며, 하나의 디바이스 또는 디바이스 그룹에 대응할 수 있다. ASS의 말단은 서버 상에 존재하고 서버에 의해서 또는 클라이언트에 의해서 설정될 수 있다. 서버는 ASS 상태를 저장, 변경 및 관리할 수 있다.
QoS(Quality of Service)는 오디오 스트림에 대한 서비스 품질을 의미하며, 특정 서비스를 위한 요구조건에 대응할 수 있다.
오디오 로케이션(audio location)은 오디오를 렌더링하는 디바이스의 공간적인 배치 내에서 오디오 채널에 대해 의도된 논리적인 공간적 렌더링 위치를 의미한다. 예를 들어, 헤드셋의 왼쪽 및 오른쪽 위치가 오디오 로케이션에 해당할 수 있다. 오디오 채널에는 오디오 로케이션이 할당될 수 있다.
CBIS(Connection Based Isochronous Stream)은 코어 계층에서 정의되는 용어이며 ASS 서비스에서의 오디오 스트림에 대응하는 개념이다. 단방향 CBIS는 하나의 오디오 스트림을 가지고, 양방향(bidirectional) CBIS는 2개의 오디오 스트림을 가질 수 있다.
CBISS(Connection Based Isochronous Stream Set)은 코어 계층에서 정의되는 용어이며 ASS 서비스에서의 오디오 그룹에 대응하는 개념이다.
오디오 씬 애플리케이션(audio scene application, ASA)는 특정 컨텐츠 타입을 수행하는 오디오 그룹을 의미한다.
ASC(Audio Steam Capability)은 오디오 세션 캐퍼빌리티 설정을 위해서 필요한 파라미터들의 집합이다.
오디오 애드버타이즈먼트(Audio Advertisement)은 ASA 참가의 가용성(availability)를 디스커버하기 위한 것이다. 오디오 일반 애드버타이즈먼트(audio general advertisement)은 대상을 정하지 않은 오디오 알림이고, 오디오 다이렉티드 애드버타이즈먼트(audio directed advertisement)는 특정 대상에 대한 오디오 알림이다.
등시성 데이터(isochronous data)는 시간에 의해 한정되는 데이터를 의미한다. 예를 들어, 등시성 데이터는 비디오의 이미지에 대해 동기화될 필요가 있는 텔레비전 오디오, 또는 멀티 채널을 구성하는 다수의 디바이스에서 동기화되어 재생될 필요가 있는 오디오와 같이 시간에 종속된 오디오일 수 있다.
등시성 채널(isochronous channel)은 송신 디바이스로부터 하나 이상의 수신 디바이스로 등시성 데이터를 전송하기 위해 사용되는 논리적인 전송부를 의미한다.
등시성 스트림(isochronous stream)은 하나 이상의 등시성 채널을 나르는 논리적인 링크를 의미한다.
도 1은 종래의 오디오 연결 형태와 본 개시가 적용가능한 오디오 연결 형태를 예시적으로 나타내는 도면이다.
도 1(a)는 BR/EDR 오디오 연결 형태의 예시를 나타낸다. BR/EDR의 경우 일-대-일 연결을 지원한다. 하나의 디바이스(예를 들어, 스마트폰)가 중심(central) 디바이스로서 기능하고, 여러 디바이스들의 각각과 일-대-일로 연결될 수 있다. 즉, 복수의 일-대-일 연결이 존재할 수 있다. 이에 따라, 헤드셋을 통한 전화 통화 또는 스피커를 통한 음악 재생 등의 서비스가 지원될 수 있다. 이러한 연결 형태에서의 서비스의 중심은 오디오 소스이며, 헤드셋, 스피커, AVN(Audio Video Navigation)과 같은 오디오 싱크는 오디오 소스의 주변(peripheral) 디바이스로서 동작할 수 있다.
도 1(b)는 BLE 오디오 연결 형태의 예시를 나타낸다. BLE의 경우 다-대-다 연결을 지원할 수 있다. 이 경우, TV, 스마트폰, 게이트웨이 등의 복수의 중심 디바이스가 존재할 수 있고, 복잡한 M-대-N 연결이 구성될 수 있다. 이에 따라, 헤드셋을 통한 전화 통화 및 음악 재생의 서비스가 지원될 수 있고, 알람, 도어벨, 광고(advertising) 음성과 같은 브로드캐스트 오디오 서비스가 지원될 수 있다. 이러한 연결 형태에서의 서비스의 중심은 오디오 싱크이며, 다수의 오디오 소스를 이동하여 오디오 서비스를 사용할 수 있다.
도 2는 종래의 오디오 관련 프로토콜 스택과 본 개시가 적용가능한 오디오 관련 프로토콜 스택을 예시적으로 나타내는 도면이다.
도 2(a)는 BR/EDR 오디오 관련 프로토콜 스택의 예시를 나타낸다. L2CAP(Logical Link Control & Adaption Protocol) 계층은, 상위 계층과 하위 계층 사이에서 중재 및 조정의 기능을 한다. 상위 계층에는 RFCOMM(Radio Frequency Communication), AVDTP(Audio/Video Distribution Transport Protocol), AVCTP(Audio/Video Control Transport Protocol) 등의 프로토콜과, HFP(Hands Free Profile), A2DP(Advanced Audio Distribution Profile), AVRCP(Audio/Video Remote Control Profile) 등의 프로파일이 포함될 수 있다. 하위 계층은 MAC/PHY 계층을 포함할 수 있다. MAC(Medium Access Control) 계층은 링크 관리자(Link Manager) 및 링크 제어기(Link Controller)를 포함할 수 있고, PHY(Physical) 계층은 BR/EDR 무선(Radio)을 포함할 수 있다. 또한, SCO(Synchronous Connection Oriented)/eSCO(extended SCO)는 음성을 위한 동기 데이터 통신 경로를 제공할 수 있다. 이와 같이, BR/EDR에서는 프로파일 별로 프로토콜 스택이 설계될 수 있다. L2CAP 계층 및 BR/EDR 프로토콜, 포괄 액세스 프로파일(Generic Access Profile, GAP), BR/EDR 프로파일 계층을 통칭하여 호스트(host) 계층이라고 할 수 있고, 링크 관리자, 링크 제어기, BR/EDR 무선 계층을 제어기(controller) 계층이라고 할 수 있다. 호스트와 제어기 사이의 인터페이스는 HCI(Host Controller Interface)라 한다.
도 2(b)는 BLE 오디오 관련 프로토콜 스택의 예시를 나타낸다. 프로파일 별로 프로토콜이 구성되는 BR/EDR과 달리, BLE에서는 다양한 프로파일에 대한 공통의 프로토콜 스택이 설계될 수 있다. 이러한 공통의 프로토콜 스택을 미들웨어(middleware)라고 할 수 있다. 예를 들어, 보청기(hearing aids), 고품질 오디오/음악(high quality audio/music), 음성인식(voice recognition), 콜/미디어(call/media) 등의 다양한 프로파일에 대해서 공통의 프로토콜이 미들웨어 형태로 구성될 수 있다. 예를 들어, 미들웨어에는 디바이스 디스커버리(Discovery), 스트림 제어(Control) (또는 스트림 관리(management)), 코덱(Codec), 레거시 관리(legacy management) 등의 프로토콜이 포함될 수 있다. 또한, 코어 계층은 링크 계층(Link Layer, LL), LE 무선(Radio) (즉, PHY 계층)을 포함할 수 있고, LL에는 블루투스 5에서부터 정의된 멀티캐스트 지원 등시성(isochronous) 채널 관련 기능이 포함될 수 있다.
또한, 프로파일과 미들웨어는 호스트 계층이라 하고, 코어 계층은 제어기 계층이라 할 수 있고, 호스트와 제어기 사이에 HCI가 정의될 수 있다.
호스트는 도 2(b)에 예시된 호스트 프로파일 및 프로토콜 외에도, LE 프로파일, 포괄 액세스 프로파일(GAP), 포괄 애트리뷰트 프로파일(Generic ATTribute profile, GATT), ATT(Attribute) 프로토콜, SM(Security Manager) 등을 포함할 수 있다.
호스트로부터 제어기로 전송되는 정보는 HCI 명령 패킷(command packet)이라 칭할 수 있다. 제어기로부터 호스트로 전송되는 정보는 HCI 이벤트 패킷(event packet)이라 칭할 수 있다. 또한, 호스트와 제어기 사이에는 HCI 비동기식(asynchronous) 데이터 패킷 또는 HCI 동기식(synchronous) 데이터 패킷이 교환될 수 있다.
또한, 도 2(b)에 예시된 미들웨어 프로파일 및 서비스 외에도, 미들웨어에는 다음과 같은 다양한 프로파일 및/또는 서비스를 포함할 수 있다:
오디오 세션 캐퍼빌리티 서비스(Audio Session Capability Service, ASCS): 오디오 세션 캐퍼빌리티 서비스(ASCS)는 오디오 세션에 관련된 캐퍼빌리티를 알리거나 발견하는 것을 지원하는 서비스;
오디오 스트림 세션 서비스(Audio Stream Session Service, ASSS): 오디오 스트림 세션 서비스(ASSS)는 오디오 세션에 관련된 디스커버리, 설정, 수립, 제어, 관리를 지원하는 서비스;
오디오 입력 관리 서비스(Audio Input Management Service, AIMS): 오디오 입력의 볼륨 등의 관리를 위한 서비스;
오디오 라우팅 서비스(Audio Routing Service, ARS): 오디오 입력과 출력의 위치를 선택하기 위한 서비스;
오디오 미들웨어 프로파일(Audio Middleware Profile, AMP): 디바이스가 오디오를 분배하는 동작에 대한 기본적인 프로파일;
콜 관리 프로파일(Call Management Profile, CMP): 콜을 위해서 두 디바이스 간의 상호동작의 역할 및 절차에 대한 프로파일;
오디오 일반 미들웨어 프로파일(Audio General Middleware Profile, AGMP): 컨텐츠 및/또는 스트림 제어를 가능하게 하는 기본적인 프로파일;
그룹 식별 서비스(Group Identification Service, GIS): 그룹에 속한 디바이스의 디스커버리에 대한 서비스. 그룹 식별 서비스(GIS) 또는 그룹 식별 프로파일(Group Identification Profile, GIP)은 디바이스들이 그룹의 일부로서 디스커버되도록 할 수 있다. 그룹은 특정 시나리오를 지원하기 위해서 함께 동작하는 디바이스들의 그룹으로서 정의되며, 이러한 디바이스들을 그룹 멤버(Group Members)라고 칭할 수 있다. 예를 들어, 보청기(hearing aids)의 쌍, 이어버드(earbuds)의 쌍, 또는 멀티채널(예를 들어, 5.1CH) 오디오를 수신하는 스피커 셋과 같이 제어 명령에 함께 반응하는 디바이스들의 그룹이 이러한 예시에 해당할 수 있다;
오디오 플레이어 관리 프로파일(Audio Player Management Profile, APMP): 오디오 플레이어의 제어 또는 상호동작을 지원하는 프로파일;
오디오 플레이어 관리 서비스(Audio Player Management Service, APMS): 오디오 플레이어의 제어 또는 상호동작을 지원하는 서비스;
마이크로폰 관리 프로파일(Microphone Management Profile): 마이크로폰 상태 관리에 대한 프로파일;
마이크로폰 관리 서비스(Microphone Management Service): 마이크로폰 상태 관리를 위한 인터페이스 및 상태를 지원하는 서비스;
빠른 서비스 디스커버리 서비스(Quick Service Discovery Service, QSDS): 오디오 플레이어 관리, 콜 관리 등의 서비스에 대한 빠른 디스커버리를 지원하는 서비스;
콜 베어러 서비스(Call Bearer Service): 디바이스 상의 베어러에 대한 콜 인터페이스 및 콜 상태에 대한 관리를 지원하는 서비스;
볼륨 관리 프로파일(Volume Management Profile): 디바이스의 오디오 볼륨 관리를 지원하는 프로파일;
볼륨 관리 서비스(Volume Management Service): 디바이스의 오디오 볼륨 인터페이스 및 상태를 지원하는 서비스;
볼륨 오프셋 관리 서비스(Volume Offset Management Service): 오디오 출력에 대한 볼륨 관리를 위한 서비스.
도 3은 본 개시가 적용가능한 5.1 채널 서라운드 시스템 하드웨어에 대한 예시들을 나타낸다.
도 3에서 LE 오디오 소스 디바이스는 개시자(initiator)의 기능을 수행할 수 있고, LE 오디오 싱크 디바이스는 수용자(acceptor)의 기능을 수행할 수 있다. 개시자는 오디오 세션을 개시하는 디바이스를 의미하고, 수용자는 오디오 세션의 개시를 수락하는 디바이스를 의미한다. 여기서, 소스가 항상 개시자이거나 싱크가 항상 수용자인 것은 아니며, 소스가 수용자가 되거나 싱크가 개시자가 될 수도 있다.
예를 들어, 오디오 소스는 TV 디바이스이고, 오디오 싱크는 스피커 디바이스일 수 있다. 오디오 소스는 오디오 싱크에게 오디오 데이터를 전송할 수 있다. 또한, 오디오 소스는 오디오 싱크로부터 피드백 데이터를 수신할 수 있다. 복수의 오디오 싱크는 각각 5.1 채널 중의 하나, 즉, FL(Front Left), FR(Front Right), RL(Rear Left), RR(Rear Right), C(Center), W(Woofer)에 해당하는 오디오 데이터를 수신하여 스피커를 통해서 출력할 수 있다.
오디오 부호화기(encoder) 또는 복호화기(decoder)는 다양한 오디오 포맷을 지원할 수 있다. 예를 들어, 오디오 포맷은 BLEAC(Bluetooth Low Energy Audio Codec), Dolby 5.1CH, DTS(Digital Surround Sound) 등을 포함할 수 있으며, 각각의 포맷의 특징은 다음과 같다. BLEAC는 모노 코덱(mono codec)으로서 BLEAC의 96kbps 전송 레이트는 SBC(Sub-Band Codec)의 256kbps, MP3의 200kbps 전송 레이트와 동등한 품질을 제공할 수 있다. Dolby 5.1CH는 48 kHz 샘플링 레이트를 지원하고, 1 대 5.1 (또는 1 대 6) 채널을 지원하고, 최대 448 kbps 전송 레이트를 지원할 수 있다. DTS는 48 kHz 또는 96 kHz 샘플링 레이트를 지원하고, 2 대 6.1 채널을 지원하고, 768 kbps의 하프 레이트 및 1,536 kbps 풀 레이트의 전송 레이트를 지원할 수 있다.
도 4는 본 개시가 적용가능한 오디오 데이터 부호화/복호화 과정을 나타내는 도면이다.
도 4(a)를 참조하면 DTS 포맷의 스트림 또는 Dolby 5.1CH 포맷의 스트림이 송신단(Tx)의 DTS 복호화기 또는 Dolby 5.1CH 복호화기에 입력되어 PCM(Pulse-Code Modulation) 포맷의 오디오 신호로 출력될 수 있다. PCM 신호는 BLEAC 부호화기에 입력되어 BLEAC 포맷의 오디오 신호로 출력될 수 있다. 여기서 선택적 벤더 특정(optional vendor-specific) 정보가 추가될 수도 있다. BLEAC 신호는 BLE 인터페이스를 통하여 수신단(Rx)의 BLE 인터페이스로 전송될 수 있다. 수신단에서는 BLEAC 디코더를 통하여 BLEAC 신호를 처리하여 스피커를 통해 출력가능한 신호로 변환할 수 있다.
여기서, 송신단으로부터 복수의 수신단으로 복수의 스트림이 전달될 수 있다. 예를 들어, 복수의 스트림의 각각은 5.1CH 중의 하나의 채널에 대응하는 오디오 신호를 포함할 수 있다. 이러한 복수의 스트림은 복수의 수신단에서 수신되는 시점은 다를 수 있지만 동일한 시점에 재생(play) 또는 렌더링(rendering)이 요구되는 등시성(isochronous)을 가지며, 이러한 스트림을 CBIS (Connection Based Isochronous Stream)이라 할 수 있다. 즉, 5.1CH에 대응하는 6개의 CBIS가 송신단으로부터 수신단으로 전송될 수 있고, 이러한 6개의 CBIS의 집합을 하나의 CBISS(Connection Based Isochronous Steam Set)이라 할 수 있다.
도 4(b) 및 도 4(c)에서는 복수의 스트림을 통한 오디오 스트리밍을 개념적으로 나타낸다. 하나 이상의 오디오 스트림은 CBIS에 대응하고, 오디오 그룹은 CBISS에 대응할 수 있다. 예를 들어, 하나의 오디오 스트림이 하나의 CBIS에 대응할 수도 있고, 둘 이상의 오디오 스트림이 하나의 CBIS에 대응할 수도 있다. 복수의 CBIS는 하나의 오디오 그룹 또는 CBISS에 포함될 수 있다.
도 5는 본 개시가 적용가능한 2개의 디바이스에 대한 채널 할당의 예시를 나타내는 도면이다.
수신단은 송신단이 제공하는 타이밍 정보에 따라서 스트림 수신을 개시할 수 있다. 예를 들어, 타이밍 정보는, 타이밍 정보가 포함되는 데이터 유닛이 전송되는 시점으로부터 소정의 오프셋 이후의 시점을 지시할 수 있다. 수신단은 스트림에 포함되는 하나 이상의 채널에 해당하는 오디오 데이터를 수신할 수 있다. 예를 들어, 하나의 스트림에 포함되는 복수의 채널은 각각 복수의 수신단에게 할당될 수 있다. 하나의 스트림에 포함되는 복수의 채널(또는 복수의 오디오 데이터)은 시분할다중화(TDM) 방식으로 전송될 수 있다. 예를 들어, 제 1 타이밍에서 제 1 채널의 오디오 데이터가 전송되고, 제 2 타이밍에서 제 2 채널의 오디오 데이터가 전송될 수 있다.
브로드캐스트 수신단은 송신단으로부터 주기적으로 애드버타이징(advertising)되는 데이터 유닛에 포함되는 정보를 이용하여, 현재 획득가능한 브로드캐스트 오디오 스트림, 스트림 오프셋 값, 스트림 인터벌 값 등을 검출할 수 있다.
비연결 기반 등시성 링크인 INCL(Isochronous Non-Connection Link)의 경우, 소스 디바이스와 싱크 디바이스의 연결 없이 (예를 들어, 브로드캐스트 방식으로) 등시성 채널이 송수신될 수 있다. 송신단이 애드버타이징하는 AUX_SYNC_IND PDU(Protocol Data Unit)에 포함된 BSG(Broadcast Synch Group) 등의 정보로부터 수신단은 INCL 스트림 오프셋(stream offset) 또는 BSG 오프셋을 확인하고, 앵커 포인트 타이밍을 결정할 수 있다. 앵커 포인트로부터 INCL 스트림 전송이 시작될 수 있다. 연속되는 두 개의 앵커 포인트 간의 타이밍 차이는 인터벌(interval) (예를 들어, 도 5의 INCL CH1 인터벌 또는 ISO 인터벌)이라고 정의할 수 있다. 스트림 전송 이벤트(event) 내에는 하나 이상의 서브 이벤트(sub event)가 포함될 수 있다.
도 5의 예시에서 하나의 오디오 스트림은 2개의 채널에 대한 오디오 데이터를 포함할 수 있다. 제 1 채널(CH1)은 제 1 디바이스(디바이스 #1)에게 할당되고, 제 2 채널(CH2)은 제 2 디바이스(디바이스 #2)에게 할당될 수 있다. 앵커 포인트 이후의 하나 이상의 타이밍에서 INCL 스트림에 포함되는 CH1이 디바이스 #1에게 전송되고, 그 후에 하나 이상의 타이밍에서 CH2가 디바이스 #2에게 전송될 수 있다. 또한, INCL 스트림 이벤트는 CH1에 대한 이벤트와 CH2에 대한 이벤트를 포함할 수 있다. CH1에 대한 이벤트는 2 개의 서브이벤트를 포함할 수 있다. CH2에 대한 이벤트는 2 개의 서브이벤트를 포함할 수 있다. 서브 이벤트 간의 타이밍 차이는 서브이벤트 인터벌로 정의될 수 있다.
등시성 오디오 데이터는 제한된 수명(lifetime)을 가질 수 있다. 즉, 소정의 시간이 만료된 후에 오디오 데이터는 무효화될 수 있다. 예를 들어, ICL 채널에서 소정의 타임아웃 값이 정의될 수 있고, 복수의 디바이스로 전달된 등시성 오디오 데이터는 상기 소정의 타임아웃 값이 만료된 후에 폐기(discard)될 수 있다. 예를 들어, 타임아웃은 서브-이벤트의 개수(number of sub-events)로서 표현될 수도 있다.
도 6은 본 개시가 적용가능한 두 개의 스트림의 동기화 지연을 설명하기 위한 도면이다.
하나의 오디오 그룹에 복수의 스트림이 포함되고, 이러한 복수의 스트림은 동시에 재생될 것이 요구되는 등시성을 가지는 경우를 가정한다. 복수의 스트림은 하나의 디바이스에서 전송될 수도 있고 서로 다른 디바이스에서 전송될 수도 있다. 또한 복수의 스트림은 하나의 디바이스에서 수신될 수도 있고 서로 다른 디바이스에서 수신될 수도 있다.
블루투스 통신 방식에서는 복수의 스트림을 동시에 전송하는 것을 지원하지 않으므로, 복수의 스트림은 소정의 순서에 따라서 서로 다른 시간 자원(또는 타이밍) 상에서 TDM 방식으로 전송될 수 있다. 이 경우, 복수의 스트림의 전송 타이밍에 차이가 발생하고, 이에 따라 복수의 스트림의 수신 타이밍에도 차이가 발생할 수 있다. 또한, 복수의 스트림이 동시에 재생될 것이 요구되므로, 먼저 수신된 스트림이 먼저 재생될 수 없고 마지막 스트림이 수신될 때까지 대기한 후에 재생될 수 있다. 즉, 모든 스트림이 수신 완료되는 타이밍까지 동기화 지연(synchronization delay)이 발생할 수 있다.
도 6의 예시에서 제 1 스트림(CBIS#1) 및 제 2 스트림(CBIS#2)은 동시에 재생될 것이 요구되며, 하나의 CBISS에 포함될 수 있다. CBISS 앵커 포인트는 CBIS#1의 앵커 포인트와 동일하며, CBIS#1 오디오 데이터가 전송된 후 CBIS#1 인터벌 이후의 시점(예를 들어, T1)에 후속하는 CBIS#1 오디오 데이터가 전송될 수 있다. 다음으로 CBIS#2의 앵커 포인트에서 CBIS#2 오디오 데이터가 전송된 후 CBIS#2 인터벌 이후의 시점(예를 들어, T2)에 후속하는 CBIS#2 오디오 데이터가 전송될 수 있다. 하나의 CBISS에 포함되는 모든 스트림이 수신된 후 동시에 재생될 수 있다. 즉, 상대적으로 늦게 전송되는 CBIS#2의 수신 완료 시점에서 CBIS#1 및 CBIS#2의 오디오 데이터가 처리되어 재생될 수 있다.
여기서, CBISS의 동기화 지연은 CBISS에서 상대적으로 늦게 수신되는 CBIS#2의 수신 완료 시점(T2)까지의 시간 간격으로 정의될 수 있다. 예를 들어, CBIS#1의 수신 완료 시점(T1)과 CBIS#2의 수신 완료 시점(T2) 중에서 더 늦은 시점이 CBISS의 동기화 지연으로 결정될 수 있다. 즉, 복수의 스트림의 동기화 지연들 중에서 더 늦은 수신 완료 시점이 CBISS의 동기화 지연으로 결정될 수 있다. 구체적으로, CBIS#1 및 CBIS#2가 같은 하나의 CBISS로 묶여 있을 경우, 먼저 수신 완료된 스트림 CBIS#1은 나중에 수신 완료된 스트림 CBIS#2 정보가 전송 완료될 때까지 대기한 후 재생될 수 있다.
송신단(Tx)은 CBIS의 개수, CBIS 이벤트, 서브이벤트, 인터벌 등을 고려하여 계산된 예상 지연(Delay) 값을 수신단(Rx)에게 미리 알려줄 수 있다. 예를 들어, 송신단은 채널 설정시에 수신단에게 예상 지연 값을 알려줄 수 있다.
연결 기반 등시성 링크(Isochronous Connection Link, ICL)의 경우 송신단과 수신단은 연결된 상태이므로, 수신단은 실제 발생한 지연 값을 송신단에게 알려줄 수 있다.
INCL의 경우에는 송신단과 수신단이 연결되지 않은 상태이므로, 수신단은 실제 발생한 지연 값을 송신단에게 알려줄 수 없다. 만약 수신단으로부터 송신단으로 지연 값을 알려줄 수 있다고 하더라도, 송신단이 복수의 디바이스들의 동기화를 맞추기 위해서, 특정 디바이스의 재생 시점을 제어할 수 없다.
예를 들어, INCL인 경우에도 다수의 CBIS (예를 들어, 5.1CH의 6개 채널에 해당하는 6개의 CBIS)가 하나의 CBISS에 포함되는 경우, 송신단이 수신단으로부터 피드백을 받아서 동기화를 조절할 수도 있다. 피드백을 통해서 수신단은 자신의 지연 정보를 송신단에게 알려줄 수 있다.
도 7은 본 개시가 적용가능한 복수의 디바이스에 대한 브로드캐스트 동작을 설명하기 위한 도면이다.
오디오 소스 디바이스는 등시성 스트림들의 동시 재생을 위한 동기화 지연 값을 계산하여 복수의 오디오 싱크 디바이스에게 전달할 수 있다. 싱크 디바이스의 각각은 소스 디바이스로부터 제공된 지연 값에 기초하여 재생 타이밍을 결정할 수 있다. 즉, 소스 디바이스는 싱크 디바이스가 오디오 데이터를 수신하여 처리하기 위해서 소요되는 시간을 정확하게 알 수 없으므로, 싱크 디바이스가 재생 타이밍을 결정하기 위한 기초 정보로서 지연 값을 제공할 수 있다. 싱크 디바이스는 자신의 디바이스 특성에 따라 재생 타이밍을 결정하고 오디오 데이터를 재생할 수 있다.
예를 들어, 등시성 브로드캐스트(Isochronous Broadcast) 동작에 있어서, 소스 디바이스(예를 들어, TV)는 전송 지연(Transport Delay), 렌더링 지연(rendering delay) 등을 계산하여 싱크 디바이스(예를 들어, 스피커)에게 전달할 수 있다. 싱크 디바이스는 수신된 지연 값을 반영하여 오디오 데이터의 재생 또는 렌더링 타이밍을 조절할 수 있다. 싱크 디바이스 제조사마다 디바이스 특성이 다르기 때문에, 실제 재생 타이밍은 싱크 디바이스에서 결정하도록 할 수 있다.
만약 싱크 디바이스가 소스 디바이스에게 정보 전달이 가능한 경우에는, 싱크 디바이스가 지연 값을 계산하여 소스 디바이스에게 전달할 수 있다. 이에 따라, 소스 디바이스는 싱크 디바이스로부터 제공된 지연 값에 기초하여 전송 타이밍을 결정할 수 있다.
예를 들어, 싱크 디바이스(예를 들어, 스피커)가 소스 디바이스(예를 들어, TV)에게 정보를 전달할 수 있는 피드백 채널이 형성될 수 있다. 이 경우, 등시성 연결 기반의 유니캐스트 동작이 수행될 수 있다. 싱크 디바이스는 렌더링 지연(rendering delay) 값을 계산하여 소스 디바이스에게 피드백 채널을 통하여 전달할 수 있다. 이에 따라, 소스 디바이스는 싱크 디바이스로부터 제공된 지연 값을 반영하여 오디오 데이터의 전송 시간을 조절할 수 있다.
도 7을 참조하면 송신단은 TV이고, 두 개의 수신단인 제 1 스피커(스피커 #1) 및 제 2 스피커(스피커 #2)인 경우의 등시성 스트림 동작을 예시적으로 나타낸다. 제 1 스피커는 제 1 스트림/채널(예를 들어, 5.1CH 중에서 RR 채널), 제 2 스피커는 제 2 스트림/채널(예를 들어, 5.1CH 중에서 RL 채널)을 할당 받을 수 있다.
제 1 및 제 2 스피커는 각각 일반 오디오 일반 애드버타이즈먼트(audio general advertisement) 또는 오디오 다이렉티드 애드버타이즈먼트(audio directed advertisement)를 전송할 수 있다. TV와 제 1 스피커 또는 제 2 스피커 중의 하나 이상은 서로 연결을 맺을 수도 있고 연결을 맺지 않을 수도 있다.
TV와 스피커 중의 하나 이상이 연결을 맺은 경우에는, 스피커가 렌더링 지연 값을 계산하고 TV에게 보고할 수 있다. TV와 스피커가 연결을 맺지 않은 경우에는 TV가 전송 지연, 렌더링 지연 값 등을 계산하고 스피커에게 전달할 수 있다.
TV는 오디오 컨텐츠의 특성(content characteristics), 오디오/비디오 동기(A/V synch), 코덱 특성 등을 고려하여 동기화 작업을 수행하고 특정 오디오 스트림에 대해서 강제로 지연을 적용할 수 있다. 예를 들어, 오디오 코덱 인코딩/디코딩 지연은 BLEAC의 경우에 40ms, SBC의 경우에 200ms, APT-X의 경우에 100ms 등으로 상이하므로 코덱 특성에 따라서 지연 값이 결정될 수 있다. 또한, A/V 컨텐츠의 특성은 게임, 영화, 애니메이션 등에 따라서 상이하므로, 이를 고려하여 지연 값이 결정될 수 있다. 또한, 미디어 클럭(media clock)과 BLE 인터페이스의 클럭의 차이를 고려하여 지연 값이 결정될 수 있다. 미디어 클럭은 A/V 타임 스케일(time scale) 정보를 통해 확인할 수 있다.
또한, 도 7의 좌측에 표시된 바와 같이, 다양한 방송 표준에서 정의된 오디오/비디오 신호 처리 시간을 고려하여 지연 값이 결정될 수 있다. 예를 들어, 오디오-비디오-오디오 간의 시간 간격은, ATSC(Advanced Television Systems Committee)에서는 15ms 및 45ms, ITU-R BT.1359-1에서는 125ms 및 45ms, SMPTE(Society of Motion Picture and Television Engineers)에서는 22ms 및 22ms로 정의되며, 이러한 시간 간격을 고려하여 지연 값이 결정될 수 있다.
TV는 각각의 스트림의 렌더링 지연 값을 설정하여 스피커에게 알려주거나, 스피커로부터 제공된 지연 값에 기초하여 스트림의 전송 타이밍을 결정할 수 있다.
결정된 지연 값에 기초하여 TV는 스피커에게 스트림을 전송할 수 있다. 즉, 소스 디바이스 또는 송신단인 TV가 싱크 디바이스 또는 수신단인 스피커(들)과 지연 값을 교환하고, 지연 값을 반영하여 동기화를 맞추는 작업을 수행할 수 있다.
도 8 및 도 9는 본 개시가 적용가능한 ICL 타입 및 INCL 타입의 동작을 설명하기 위한 도면이다.
BLE에서 오디오 전송을 위한 채널은 ICL 타입과 INCL 타입으로 분류될 수 있다. ICL 채널과 INCL 채널 모두 스트림 식별자(Stream ID) 및 채널 식별자(Channel ID)를 이용하여 다수의 디바이스 및/또는 다수의 프로파일에게 오디오 데이터를 전송할 수 있다. ICL 타입과 INCL 타입에 따라서 오디오 데이터 전송을 위해 BLE 채널 상에서 어떠한 동작을 수행해야 하는지가 결정될 수 있다.
ICL 채널들의 경우에는 하나의 소스 디바이스와 하나의 싱크 디바이스 간의 포인트-대-포인트 물리 링크를 통한 단방향성 또는 양방향성 통신을 지원하는 연결 기반 유스 케이스에 해당한다. 또한, INCL 채널들의 경우에는 하나의 소스 디바이스와 하나 이상의 싱크 디바이스 간의 포인트-대-멀티포인트 물리 링크를 통한 단방향성의 통신만을 지원하는 브로드캐스트 유스 케이스에 해당한다.
디바이스의 프로토콜 스택은 상위계층으로부터 하위계층의 순서대로 프로파일 계층, 채널 관리자(channel manager) 계층, 호스트(host) 계층 및 제어기(controller) 계층을 포함할 수 있다. 프로파일 계층과 채널 관리자 계층 간에는 채널 단위로 데이터가 전달되고, 채널 관리자 계층과 호스트 계층 간에는 스트림 단위로 데이터가 전달될 수 있다.
도 8을 참조하여, ICL 타입의 경우에는 마스터(M)와 제 1 슬레이브1(S1) 간의 연결과 마스터(M)과 제 2 슬레이브(S2) 간의 연결이 존재할 수 있다. 이 경우, 두 개의 슬레이브에게 1개의 스트림에 포함되는 두 개의 채널을 채널 식별자로 구분하여 전송하는 것이 가능하다. 즉, Channel ID 1은 S1에게 할당되고, Channel ID 2는 S2에게 할당되는데, Channel ID 1 및 Channel ID 2는 모두 동일한 Stream ID 1을 통하여 전송될 수 있다. 또한, 연결 기반으로 양방향 통신이 가능하므로 슬레이브들은 마스터(M)에게 피드백 정보를 제공할 수도 있다. 예를 들어, S1이 오른쪽 귀에 장착하는 무선 이어폰이고, S2가 왼쪽 귀에 장착하는 무선 이어폰인 경우, 마스터(M)가 전송하는 음악을 S1과 S2를 통하여 스테레오로 청취하는 것이 가능하다.
도 9를 참조하여, INCL 타입의 경우에는 마스터(M)과 슬레이브들(S1, S2) 간의 연결이 없고, 슬레이브들은 마스터가 애드버타이징하는 동기화 정보에 기초하여 INCL 스트림 오프셋, 이벤트, 서브-이벤트의 타이밍에 동기화하고, 브로드캐스트되는 오디오 데이터를 수신할 수 있다. 또한, 마스터(M)는 두 가지의 프로파일(프로파일 #1 및 프로파일 #2)을 포함할 수 있다. 제 1 슬레이브(S1)은 프로파일 #1을 포함하고, 제 2 슬레이브(S2)는 프로파일 #1 및 프로파일 #2를 포함할 수 있다. 프로파일 #1에서 Channel ID 1 및 Channel ID 2가 하나의 스트림인 Stream ID 1을 통하여 마스터(M)로부터 브로드캐스트되고, 슬레이브들(S1, S2)이 각각 Channel ID 1 및 Channel ID를 프로파일 #1에서 수신하는 것은 도 8과 유사하다. 추가적으로, 프로파일 #2에서 Channel ID 1가 Stream ID 2를 통하여 마스터(M)로부터 브로드캐스트되고, 제 2 슬레이브(S2)가 Channel ID 1을 프로파일 #2에서 수신할 수 있다.
도 10은 본 개시가 적용가능한 브로드캐스트 오디오 스트림 상태 머신을 나타내는 도면이다.
브로드캐스트 오디오 스트림에 대한 제어는 브로드캐스트 송신단에서의 브로드캐스트 오디오 스트림 상태 머신(state machine) 및 상태 천이(transition)로 설명할 수 있다.
브로드캐스트 오디오 스트림 상태 머신은 브로드캐스트 송신기가 브로드캐스트 수신기(또는 브로드캐스트 디스커버리 클라이언트)와 통신하지 않거나, 연결 없이 단방향 방식으로 하나 이상의 브로드캐스트 수신기(또는 브로드캐스트 디스커버리 클라이언트)와 통신하는 것을 허용한다. 브로드캐스트 송신기는 BASS(Broadcast Audio Source Session)의 형태로 브로드캐스트 오디오 애드버타이즈먼트(audio advertisement)를 이용하여 통신할 수 있다. 브로드캐스트 오디오 스트림은 브로드캐스트 송신기에 의해서 송신될 수 있다.
AUDIO STANDBY 상태는 브로드캐스트 오디오 스트림이 전송되지 않는 상태를 의미한다.
AUDIO CONFIGURED 상태는 주기적인 애드버타이징 이벤트를 통해서 브로드캐스트 수신기(또는 브로드캐스트 디스커버리 개시자)가 오디오 스트림을 검출하도록 하는 정보를 애드버타이징하기 시작하는 상태를 의미한다. 주기적인 애드버타이징 이벤트는 애드버타이즈먼트 메타데이터(advertisement metadata), 스트림 설정(stream configuration), 동기화 정보 등을 전달하는 것을 포함할 수 있다. 이 상태에서 브로드캐스트 송신기로부터 오디오 데이터 패킷이 전송되지는 않는다.
AUDIO STREAMING 상태는 브로드캐스트 송신기에서 브로드캐스트 오디오 스트림이 활성화(enable)되어 오디오 데이터 패킷이 전송될 수 있는 상태를 의미한다. 브로드캐스트 송신기는 브로드캐스트 오디오 스트림을 전송하는 동안에 주기적인 애드버타이징을 통해서 계속하여 메타데이터 애드버타이즈먼트를 수행할 수 있다. AUDIO STANDBY 상태에서 스트림이 설정(configure stream)되면 AUDIO CONFIGURED 상태로 천이하고, AUDIO CONFIGURED 상태에서 스트림이 해제(release stream)되면 AUDIO STANDBY 상태로 천이할 수 있다. AUDIO CONFIGURED 상태에서 스트림이 활성화(enable stream)되면 AUDIO STREAMING 상태로 천이하고, AUDIO STREAMING 상태에서 스트림이 비활성화(disable stream)되면 AUDIO CONFIGURED 상태로 천이할 수 있다. AUDIO CONFIGURED 상태에서 스트림 재설정(reconfigure stream)이 발생하면 AUDIO CONFIGURED 상태로 천이할 수 있다. AUDIO STREAMING 상태에서 컨텐츠 재할당(content reassignment)이 발생하면 AUDIO STREAMING 상태로 천이할 수 있다.
도 11은 본 개시가 적용가능한 오디오 셋업 절차를 나타내는 도면이다.
디스커버리 결과가 없는 경우(즉, zero discovery) AUDIO STANDBY 상태로 천이하고, 디스커버리 결과가 있다면 ASC(Audio Stream Capability)에 대한 디스커버리를 수행하고 AUDIO STANDBY 상태로 천이할 수 있다.
ASS(Audio Stream Session) 설정이 발생하는 경우 AUDIO CONFIGURED 상태로 천이할 수 있다. AUDIO CONFIGURED 상태에서 ASS가 해제되면 AUDIO STANDBY 상태로 천이할 수 있다. AUDIO CONFIGURED 상태에서 재설정(reconfiguration)이 발생하는 경우에 ASS 설정을 거쳐 AUDIO CONFIGURED 상태로 천이할 수 있다.
ASS가 활성화되면 AUDIO STREAMING 상태로 천이할 수 있다. AUDIO STREAMING 상태에서 ASS 비활성화가 발생하면 AUDIO CONFIGURED 상태로 천이할 수 있다. AUDIO STREAMING 상태에서 컨텐츠 재할당이 발생하면 AUDIO STREAMING 상태로 천이할 수 있다.
도 12는 본 개시가 적용가능한 링크 계층 상태 머신을 나타내는 도면이다.
링크 계층(LL)의 동작은 (등시성 채널 관점에서) Standby, Advertising, Scanning, Initiating, Connection, Synchronized(synchronization), Streaming(Isochronous Broadcasting) 상태로 표현될 수 있다.
Standby 상태는 다른 상태로 천이하기 전의 대기 상태에 해당한다.
Advertising 상태에서 LL은 애드버타이징 패킷을 전송하는 애드버타이저(advertiser)로서 동작할 수 있다. Advertising 상태에서 연결을 맺는 경우 디바이스는 슬레이브(slave)로서 동작할 수 있다.
Initiating 상태에서 LL은 다른 애드버타이저로부터의 패킷을 청취(listen)하고 해당 패킷에 응답하여 연결을 개시하는 개시자(initiator)로서 동작할 수 있다. Initiating 상태에서 연결을 맺는 경우 디바이스는 마스터(master)로서 동작할 수 있다.
Scanning 상태에서 LL은 다른 애드버타이저로부터의 패킷을 청취하고 추가 정보를 요청할 수도 있는 스캐너(scanner)로서 동작할 수 있다.
Synchronized 상태는 다른 디바이스와 동기화되어 오디오 스트림을 수신하거나 수신할 수 있는 상태를 의미할 수 있다.
Streaming 상태는 동기화된 다른 디바이스에게 오디오 스트림을 전송하는 상태를 의미할 수 있다.
도 13은 본 개시가 적용가능한 오디오 토폴로지의 예시를 나타내는 도면이다.
유니캐스트의 경우에는 단방향 또는 양방향 오디오 스트림을 지원할 수 있다. 헤드셋과 스마트폰 간의 연결에 기반한 유니캐스트 오디오 데이터 송수신이 수행될 수 있고, 헤드셋과 스마트폰 간의 연결과 헤드셋과 태블릿 간의 연결에 기반한 유니캐스트 오디오 데이터 송수신이 수행될 수도 있다. 이 경우, 유니캐스트 오디오 서비스의 서버는 헤드폰이 될 수 있고, 클라이언트는 스마트폰, 태블릿 등이 될 수 있다. 또한, 헤드폰은 오디오 싱크에 해당하고, 스마트폰, 태블릿은 오디오 소스에 해당할 수 있다.
브로드캐스트의 경우에는 알림(announcement) 시스템, 도어벨(doorbell), TV 등이 브로드캐스트 방식으로 오디오 데이터를 전송하고, 브로드캐스트된 오디오 데이터를 하나 이상의 디바이스에서 수신할 수 있다. 이 경우, 브로드캐스트 오디오 서비스의 서버는 알림 시스템, 도어벨, TV 등이 될 수 있고, 클라이언트는 헤드폰이 될 수 있다. 또한, 헤드폰은 오디오 싱크에 해당하고, 알림 시스템, 도어벨, TV는 오디오 소스에 해당할 수 있다.
도 14 내지 도 16은 본 개시가 적용될 수 있는 서버와 클라이언트 간의 메시지 교환 과정을 나타내는 도면이다.
도 14 내지 도 16의 예시에서 클라이언트는 오디오 소스이고 서버는 오디오 싱크일 수 있다. 또는 클라이언트가 오디오 싱크이고 서버가 오디오 소스일 수도 있다.
도 14에서는 오디오 세션 캐퍼빌리티(ASC) 디스커버리(audio session capability discovery) 절차 및 ASC 업데이트(audio session capability update) 절차를 예시적으로 나타낸다.
도 14(a)의 오디오 세션 캐퍼빌리티 디스커버리 절차에서 클라이언트는 서버에서 ASC 디스커버리 요청(discovery request) 메시지를 전송하여 캐퍼빌리티 디스커버리를 요청하고, 이에 응답하여 서버가 클라이언트에게 ASC 디스커버리 응답(discovery response) 메시지를 전송하여 캐퍼빌리티의 세부 정보를 전달할 수 있다.
도 14(b)의 오디오 세션 캐퍼빌리티 업데이트 절차에서 서버는 클라이언트에게 ASC 업데이트 지시(update indication) 메시지를 전송하여 캐퍼빌리티 업데이트가 발생하였음을 알리고, 클라이언트는 서버에게 ASC 업데이트 확인(update confirmation) 메시지를 전송하여 캐퍼빌리티 업데이트를 수행할 것을 알릴 수 있다. 이에 후속하여 오디오 세션 캐퍼빌리티 디스커버리 절차 또는 ASC 디스커버리 절차(discovery procedure)가 수행될 수 있다.
도 14의 예시에서 이용되는 메시지의 포맷은 아래의 표 1과 같이 정의될 수 있다.
Figure PCTKR2021005695-appb-img-000001
ASC 업데이트 지시 메시지 및 ASC 업데이트 확인 메시지에는 ASC 디스커버리가 필요하다는 것을 알리는 정보 및 이에 대한 확인 정보가 각각 포함될 수 있다.
도 15에서는 유니캐스트 오디오 스트림 설정 절차 및 유니캐스트 오디오 스트림 수립 절차를 예시적으로 나타낸다.
도 15(a)의 유니캐스트 오디오 스트림 설정(unicast audio stream configuration) 절차에서, 클라이언트는 AUDIO STANDBY 상태에서 코덱 설정 요청(Codec configuration request) 메시지를 서버에게 전송하여 설정을 요청하는 코덱이 무엇인지 등을 알릴 수 있다. 이에 응답하여 서버는 클라이언트에게 코덱 설정 응답(Codec configuration response) 메시지를 전송하여 서버가 지원하는 QoS 및 렌더링 지연값 등을 알릴 수 있다. 또한, 클라이언트는 서버에게 QoS 협상 요청(negotiation request) 메시지를 전송하여 특정 오디오 스트림 세션(ASS), 오디오 그룹, 오디오 스트림을 특정하여 클라이언트가 지원하는 QoS 및 렌더링 지연값 등을 알릴 수 있다. 이에 응답하여 서버는 클라이언트에게 QoS 협상 응답(negotiation response) 메시지를 전송할 수 있다. 이에 따라, 클라이언트와 서버 간에 대역폭(BW), 비트레이트(bitrate) 등이 협상에 의해 결정될 수 있고, 클라이언트와 서버는 CONFIGURED 상태로 천이할 수 있다.
도 15(b)의 유니캐스트 오디오 스트림 수립(unicast audio stream establishment) 절차에서, 클라이언트는 AUDIO CONFIGURED 상태에서 서버에게 ASS 활성화 요청(enable request) 메시지를 전송하여 활성화를 요청하는 ASS에 대한 정보를 알릴 수 있다. 이에 응답하여 서버는 클라이언트에게 ASS 활성화 응답(enable response) 메시지를 전송하여 어떤 ASS를 활성화시키는지에 대해서 알릴 수 있다. 클라이언트에서 연결 기반 등시성 링크 파라미터에 대한 설정이 수행되고, 클라이언트와 서버는 연결 기반 등시성 스트림 연결 및 관련 파라미터를 설정함으로써 CBIS가 수립될 수 있다. 클라이언트가 오디오 싱크이고 서버가 오디오 소스인 경우, 클라이언트는 오디오 데이터를 재생할 준비를 하고(예를 들어, 버퍼/메모리, 코덱, 오디오 애플리케이션 데이터 준비 확인 등), ASS 수신 준비 명령(ASS Rx ready command) 메시지를 서버에 전송하여 이를 알릴 수 있다. 이에 따라, 서버는 오디오 데이터를 제공할 준비(예를 들어, 버퍼/메모리, 코덱, 오디오 애플리케이션 데이터 준비 확인 등)를 하고, ASS 수신 준비 통지(ASS Rx ready notification) 메시지를 클라이언트로 전송하여 이를 알릴 수 있다. 클라이언트가 오디오 소스이고 서버가 오디오 싱크인 경우, 서버는 오디오 데이터를 재생할 준비를 하여 ASS 수신 준비 지시 통지(ASS Rx ready indication) 메시지를 클라이언트에게 전송하고, 클라이언트는 ASS 수신 준비 지시 통지 메시지를 수신한 후 오디오 데이터를 제공할 준비를 할 수 있다. 이에 따라, 클라이언트와 서버는 AUDIO STREAMING 상태로 천이할 수 있다.
도 15의 예시에서 이용되는 메시지의 포맷은 아래의 표 2와 같이 정의될 수 있다.
Figure PCTKR2021005695-appb-img-000002
도 16에서는 클라이언트가 오디오 스트림을 비활성화하는 절차 및 서버가 오디오 스트림을 비활성화하는 절차를 예시적으로 나타낸다.
도 16(a)에서 클라이언트가 오디오 스트림을 비활성화하는(client disable audio streams) 절차에서, 클라이언트가 오디오 소스이고 서버가 오디오 싱크인 경우, AUDIO STREAMING 상태에서 클라이언트가 오디오 중단(audio stop) 결정을 하는 경우, ASS 비활성화 요청(disable request) 메시지를 서버로 전송할 수 있다. 이에 따라 서버는 오디오 데이터 스트리밍을 중단하고 ASS 비활성화 응답(disable response) 메시지를 클라이언트로 전송할 수 있다. 이를 수신한 클라이언트는 오디오 데이터 인코딩 및 오디오 애플리케이션 동작을 중지할 수 있다.
또는 클라이언트가 오디오 싱크이고 서버가 오디오 소스인 경우, 클라이언트는 오디오 데이터 스트리밍을 중단하고 ASS 비활성화 요청 메시지를 서버로 전송할 수 있다. 이에 따라 서버는 오디오 데이터 인코딩 및 오디오 애플리케이션 동작을 중지하고, ASS 비활성화 응답 메시지를 클라이언트로 전송할 수 있다.
이후 클라이언트와 서버는 연결 기반 등시성 스트림 해제 및 관련 파라미터 설정 해제를 수행할 수 있다. 여기서, 클라이언트와 서버간의 재연결을 대비하여 디바이스 정보가 등시성 스트림 연결 관련 파라미터와 함께 클라이언트 및/또는 서버에서 저장될 수 있다. 이에 따라, 클라이언트에서는 연결 기반 등시성 링크 관련 파라미터 설정을 해제할 수 있다. 이에 따라, 클라이언트 및 서버는 AUDIO CONFIGURED 상태로 천이할 수 있다.
도 16(b)의 예시에서 서버가 오디오 스트림을 비활성화하는 (server disable audio streams) 절차에서, 서버가 오디오 소스이고 클라이언트가 오디오 싱크인 경우, AUDIO STREAMING 상태에서 서버가 오디오 중단 결정을 하는 경우, ASS 비활성화 지시(disable indication) 메시지를 클라이언트로 전송할 수 있다. 이에 따라 클라이언트는 오디오 데이터 스트리밍을 중단하고 ASS 비활성화 확인(disable confirmation) 메시지를 서버로 전송하거나 전송하지 않을 수도 있다. ASS 비활성화 응답을 수신하거나 또는 수신하지 않더라도 서버는 오디오 데이터 인코딩 및 오디오 애플리케이션 동작을 중지할 수 있다.
또는 서버가 오디오 싱크이고 클라이언트가 오디오 소스인 경우, 서버는 오디오 데이터 스트리밍을 중단하고 ASS 비활성화 지시 메시지를 클라이언트로 전송할 수 있다. 이에 따라 클라이언트는 오디오 데이터 인코딩 및 오디오 애플리케이션 동작을 중지하고, ASS 비활성화 확인 메시지를 서버로 전송하거나 전송하지 않을 수도 있다.
이후 클라이언트와 서버는 연결 기반 등시성 스트림 해제 및 관련 파라미터 설정 해제를 수행할 수 있다. 여기서, 클라이언트와 서버간의 재연결을 대비하여 디바이스 정보가 등시성 스트림 연결 관련 파라미터와 함께 클라이언트 및/또는 서버에서 저장될 수 있다. 이에 따라, 클라이언트에서는 연결 기반 등시성 링크 관련 파라미터 설정을 해제할 수 있다. 이에 따라, 클라이언트 및 서버는 AUDIO CONFIGURED 상태로 천이할 수 있다.
도 16의 예시에서 이용되는 메시지의 포맷은 아래의 표 3과 같이 정의될 수 있다.
Figure PCTKR2021005695-appb-img-000003
아래의 표 4는 컨텐츠 재할당 요청/응답, ASS 해제 요청/응답, 일반 애드버타이즈먼트, 다이렉티드 애드버타이즈먼트 메시지 포맷을 예시적으로 나타낸다.
Figure PCTKR2021005695-appb-img-000004
도 17은 본 개시가 적용가능한 콜 서비스에 대한 상태 머신을 나타내는 도면이다.
AUDIO STANDBY 상태에서 콜이 착신(incoming)되는 경우에 CALL ACCEPTING 상태로 천이할 수 있다. CALL ACCEPTING 상태에서 콜을 수락(accept)하는 경우에 CALL ACTIVE 상태로 천이할 수 있다. CALL ACCEPTING 상태에서 콜을 거절(reject)하는 경우에 AUDIO STANDBY 상태로 천이할 수 있다. CALL ACCEPTING 상태에서 콜을 받을 수 없는 홀드(hold)의 경우에 CALL HELD 상태로 천이할 수 있고, CALL HELD 상태에서 홀드해제(unhold)되는 경우 CALL ACTIVE 상태로 천이할 수 있다. CALL HELD 상태 또는 CALL ACTIVE 상태에서 종료(terminate)되는 경우에 AUDIO STANDBY 상태로 천이할 수 있다.
또한, AUDIO STANDBY 상태에서 콜을 발신(outgoing)하는 경우에 CALL INITIATING 상태로 천이할 수 있다. CALL INITIATING 상태에서 원격지 또는 상대방에서 콜에 응답하는 경우에 CALL ACTIVE 상태로 천이할 수 있다. CALL INITIATING 상태에서 종료되는 경우 AUDIO STANDBY 상태로 천이할 수 있다.
이러한 콜 서비스 상태 머신에서, AUDIO STANDBY 상태에서 헤드셋으로 전달해야 하는 오디오 데이터가 발생할 수 있다. 예를 들어, 전화번호를 누를 때의 반응을 소리로 알림하는 경우에 헤드셋으로 오디오 데이터가 전달될 수도 있다.
또한, 콜 서비스와 관련된 다양한 무선 액세스 기술(예를 들어, 2G, 3G, 4G, 5G, Wi-Fi, GSM, CDMA, WCDMA 등)을 명시적으로 지시하는 정보가 정의될 수 있으며, 예를 들어, 1 옥텟 크기의 베어러 기술(bearer technology) 필드가 정의될 수 있다. 이는 전술한 콜 베어러 서비스(Call Bearer Service)와 관련될 수 있다.
멀티웨이 콜(Multiway Calling)의 경우에는 복수의 라인(line)이 존재할 수 있고, 도 17과 같은 상태 머신이 각각의 라인마다 유지될 수 있다. 예를 들어, 제 1 라인이 CALL ACTIVE 상태인 도중에 제 2 라인이 AUDIO STANDBY 상태에서 CALL ACCEPTING 상태로 천이하는 경우, 사용자의 제어에 따라 제 1 또는 제 2 라인을 CALL HELD 상태로 천이할 수 있다.
이하에서는, 블루투스 시스템의 논리 링크(logical links) 및 논리 트랜스포트(logical transports)에 대해서 설명한다.
다양한 애플리케이션 데이터 전송 요건을 지원하기 위해서 다양한 논리 링크가 사용될 수 있다. 각각의 논리 링크는 논리 트랜스포트와 연관(associate)되며, 이는 다양한 특성을 가질 수 있다. 이러한 특성은 플로우 제어, 확인응답(acknowledgment)/반복(repeat) 메커니즘, 시퀀스 넘버링 및 스케줄링 동작 등을 포함할 수 있다. 논리 트랜스포트는 그 타입에 따라서 다양한 타입의 논리 링크를 전달(carry)할 수 있다. 복수의 논리 링크가 동일한 하나의 논리 트랜스포트에 다중화될 수도 있다. 논리 트랜스포트는 특정 채널 상의 물리 링크에 의해서 전달될 수 있다.
논리 트랜스포트 식별정보 및 실시간 (링크 제어) 시그널링은 패킷 헤더에 포함될 수도 있고, 특정 논리 링크 식별정보는 페이로드의 헤더에 포함될 수도 있다.
아래의 표 5는 논리 트랜스포트 타입, 지원되는 논리 링크 타입, 지원되는 물리 링크 및 물리 채널 타입, 논리 트랜스포트에 대한 설명을 예시적으로 나타낸다.
Figure PCTKR2021005695-appb-img-000005
도 18은 본 개시가 적용가능한 계층별 패킷 포맷을 나타내는 도면이다.
도 18(a)는 링크 계층(LL) 패킷 포맷의 예시를 나타낸다. LL 패킷 포맷은 프리앰블(preamble), 액세스 어드레스(access address) (또는 액세스 코드), PDU 및 CRC(Cyclic Redundancy Code) 필드를 포함할 수 있다. 프리앰블은 1 옥텟 크기를 가지고, 수신측에서 주파수 동기화, 심볼 타이밍 추정, AGC(Automatic Gain Control) 트레이닝 등을 위해서 사용될 수 있으며, 미리 정해진 비트 시퀀스로 구성될 수 있다. 액세스 어드레스는 4 옥텟 크기를 가지고, 물리 채널에 대한 상관 코드로서 사용될 수 있다. PDU는 Bluetooth 4.0 버전에서 2 내지 39 옥텟 크기로 정의되고, 4.2 버전에서는 2 내지 257 옥텟 크기로 정의될 수 있다. CRC는 PDU에 대한 24 비트 길이의 체크섬으로 계산된 값을 포함할 수 있다.
도 18(b)는 도 18(a)의 PDU의 예시적인 포맷을 나타낸다. PDU는 2 가지 타입으로 정의될 수 있으며, 하나는 데이터 채널 PDU(Data channel PDU)이고, 다른 하나는 애드버타이징 채널 PDU(Advertising channel PDU)이다. 데이터 채널 PDU에 대해서는 도 19를 참조하여 구체적으로 설명하고, 애드버타이징 채널 PDU에 대해서는 도 20을 참조하여 구체적으로 설명한다.
도 18(c)는 L2CAP PDU 포맷의 예시를 나타내며, 이는 도 18(b)의 페이로드 필드의 예시적인 포맷에 해당할 수 있다. L2CAP PDU는 길이(Length), 채널 식별자(Channel ID) 및 정보 페이로드(Information Payload) 필드를 포함할 수 있다. 길이 필드는 정보 페이로드의 크기를 지시할 수 있고, 정보 페이로드 필드는 상위 계층 데이터를 포함할 수 있다. 채널 식별자 필드는 정보 페이로드 필드가 어떤 상위 계층의 데이터를 포함하는지를 나타낼 수 있다. 예를 들어, 채널 식별자 필드의 값이 0x0004인 경우에는 ATT(ATTribute protocol), 0x0006인 경우에는 SMP(Security Manager Protocol)를 지시할 수 있으며, 또는 다른 타입의 상위 계층 또는 미들웨어를 지시하는 다른 채널 식별자 값이 정의 및 사용될 수 있다.
도 18(c)의 L2CAP 패킷이 시그널링 채널 상에서 전송되는 L2CAP PDU(즉, 제어 프레임)인 경우에, 도 18(c)의 정보 페이로드 필드는 도 18(d)와 같이 구성될 수 있다. 정보 페이로드 필드는 코드(Code), 식별자(Identifier), 길이(Length) 및 데이터(Data) 필드를 포함할 수 있다. 예를 들어, 코드 필드는 L2CAP 시그널링 메시지의 타입을 지시할 수 있다. 식별자 필드는 요청과 응답을 매칭시키는 값을 포함할 수 있다. 길이 필드는 데이터 필드의 크기를 지시할 수 있다. 데이터 필드에는 애트리뷰트(attribute)가 포함될 수 있다. 애트리뷰트는 임의의 데이터의 단위이며, 예를 들어, 위치, 크기, 중량, 온도, 속도 등의 디바이스의 다양한 상태의 다양한 시점의 데이터를 포함할 수 있다.
애트리뷰트는 애트리뷰트 타입(attribute type), 애트리뷰트 핸들(attribute handle), 애트리뷰트 밸류(attribute value) 및 애트리뷰트 퍼미션(attribute permission)을 포함하는 포맷을 가질 수 있다.
애트리뷰트 타입은 UUID(Universally Unique Identifier)에 의해서 식별되는 애트리뷰트 데이터의 종류를 지시하는 값을 포함할 수 있다.
애트리뷰트 핸들은 애트리뷰트 데이터를 식별하기 위해서 서버에 의해서 할당되는 값을 포함할 수 있다.
애트리뷰트 밸류는 애트리뷰트 데이터의 값을 포함할 수 있다.
애트리뷰트 퍼미션은 GATT(Generic ATTribute profile)에 의해서 설정될 수 있고, 해당 애트리뷰트 데이터에 대한 허용되는 액세스의 종류(예를 들어, 독출(read)/기입(write) 가능 여부, 암호화(encryption) 필요 여부, 인증(authentication) 필요 여부, 권한(authorization) 필요 여부 등)를 지시하는 값을 포함할 수 있다.
ATT(Attribute protocol)/GATT(Generic Attribute Profile) 관점에서 디바이스는 서버 및/또는 클라이언트의 역할을 할 수 있다. 서버는 애트리뷰트(attribute) 및 관련된 값을 제공하는 역할을 하고, 클라이언트는 서버 상의 애트리뷰트를 디스커버(discover)하거나, 독출(read), 기입(write)하는 역할을 할 수 있다.
ATT/GATT에서 서버와 클라이언트가 애트리뷰트 데이터를 주고받는 것을 지원할 수 있다. 이를 위해서 ATT 프로토콜에서 지원되는 PDU는 6개의 메소드(method) 타입, 즉, 요청, 응답, 명령, 통지, 지시 및 확인을 포함할 수 있다.
요청(request)은 클라이언트로부터 서버에게 전송되며, 이에 대한 서버의 응답이 요구된다. 응답(response)은 서버로부터 클라이언트에게 전송되며, 클라이언트로부터의 요청이 있는 경우 전송된다. 명령(command)은 클라이언트로부터 서버에게 전송되며, 이에 대한 응답은 요구되지 않는다. 통지(notification)는 서버로부터 클라이언트에게 전송되며, 이에 대한 확인은 요구되지 않는다. 지시(indication)는 서버로부터 클라이언트에게 전송되며, 이에 대한 클라이언트의 확인이 요구된다. 확인(confirmation)은 클라이언트로부터 서버에게 전송되며, 서버로부터의 지시가 있는 경우에 전송된다.
또한, GATT는 다양한 프로파일(profile)을 지원할 수 있다. GATT 기반 프로파일의 구조는, 서비스(service) 및 특성(characteristics)으로 설명될 수 있다. 디바이스는 하나 이상의 프로파일을 지원할 수 있다. 하나의 프로파일은 0 또는 하나 이상의 서비스(service)를 포함할 수 있다. 복수의 프로파일이 동일한 서비스를 이용할 수도 있다. 하나의 서비스는 하나 이상의 특성을 포함할 수 있다. 특성은 독출(read), 기입(write), 지시(indicate) 또는 통지(notify)의 대상이 되는 데이터 값을 의미한다. 즉, 서비스는 특정 기능 또는 특징(feature)를 설명하기 위해 사용되는 데이터 구조로 이해될 수 있으며, 특성의 조합인 서비스는 디바이스가 수행하는 동작을 나타낼 수 있다. 모든 서비스는 서버에 의해서 구현되며, 하나 이상의 클라이언트 의해서 액세스될 수 있다.
도 19는 본 개시가 적용가능한 데이터 유닛 포맷의 예시들을 나타내는 도면이다.
도 19(a)는 데이터 물리 채널 (Data Physical Channel PDU(Protocol Data Unit))의 예시적인 포맷을 나타낸다. 데이터 채널 PDU는 데이터 물리 채널(예를 들어, 채널 번호 0 내지 36) 상에서 패킷을 전송하기 위해 사용될 수 있다. 데이터 물리 채널 PDU는 16 또는 24 비트 길이의 헤더, 가변 크기(예를 들어, 0 내지 251 옥텟 크기)의 페이로드를 포함하며, 추가적으로 MIC(Message Integrity Check) 필드를 더 포함할 수 있다. 예를 들어, MIC 필드는 페이로드 필드 크기가 0이 아닌 암호화된 링크 계층 연결의 경우에 포함될 수 있다.
도 19(b)에 도시하는 바와 같이, 헤더 필드는 LLID(Logical Link Identifier), NESN(Next Expected Sequence Number), SN(Sequence Number), MD(More Data), CP(CTEInfo Present), RFU(Reserved for Future Use), 길이(Length) 필드를 포함할 수 있다. RFU는 향후 필요한 경우에 사용할 수 있도록 유보된(reserved) 부분에 해당하며, 그 값은 보통 0으로 채워질 수 있다. 또한, CP 필드의 값에 따라서 헤더 필드는 CTEInfo(Constant Tone Extension Information) 서브필드를 더 포함할 수 있다. 또한, Length 필드는 페이로드의 크기를 지시할 수 있으며, MIC가 포함되는 경우에는 페이로드 및 MIC의 길이를 지시할 수 있다.
도 19(c)는 LL 제어 PDU (LL Control PDU)의 예시적인 포맷을 나타낸다. LL Control PDU는 링크 계층 연결을 제어하기 위해서 사용되는 데이터 물리 채널 PDU에 해당할 수 있다. LL Control PDU는 동작코드(Opcode)에 따라서 고정된 값을 가질 수 있다. Opcode 필드는 LL Control PDU의 타입을 지시할 수 있다. 제어데이터(CtrData) 필드는 Opcode에 의해서 특정되는 다양한 포맷 및 길이를 가질 수 있다.
예를 들어, LL Control PDU의 Opcode는 LL_CBIS_REQ, LL_CBIS_RSP, LL_CBIS_IND, LL_CBIS_TERMINATE_IND, LL_CBIS_SDU_CONFIG_REQ, LL_CBIS_SDU_CONFIG_RSP 중의 하나를 나타내는 값(예를 들어, 0x1F, 0x20, 0x21, 0x22, ...)을 가질 수 있다.
Opcode가 LL_CBIS_REQ를 지시하는 경우, CtrData 필드에는 CBISS 식별정보, CBIS 식별정보과 함께 CBIS 요청에 필요한 정보를 포함할 수 있다. 이와 유사하게, Opcode가 LL_CBIS_RSP, LL_CBIS_IND, LL_CBIS_TERMINATE_IND, LL_CBIS_SDU_CONFIG_REQ, LL_CBIS_SDU_CONFIG_RSP 중의 하나를 지시하는 각각의 경우에, CtrData는 CBIS 응답, CBIS 지시(indication), CBIS 종료 지시, CBIS SDU(Service Data Unit) 설정 요청, CBIS SDU 설정 응답에 필요한 정보를 포함할 수 있다.
도 19(d)는 오디오 데이터 PDU 포맷의 예시를 나타낸다.
오디오 데이터 PDU는 CBIS PDU 또는 브로드캐스트 등시성 PDU(broadcast isochronous PDU)일 수 있다. CBIS 스트림에서 사용되는 경우, 오디오 데이터 PDU는 CBIS PDU로서 정의될 수 있다. 브로드캐스트 등시성 스트림에서 사용되는 경우, 오디오 데이터 PDU는 브로드캐스트 등시성 PDU로서 정의될 수 있다.
오디오 데이터 PDU는 16비트 길이의 헤더 필드 및 가변적인 길이의 페이로드 필드를 포함할 수 있다. 또한, 오디오 데이터 PDU는 MIC 필드를 더 포함할 수도 있다.
CBIS PDU인 경우에 헤더 필드의 포맷은 2비트 크기의 LLID, 1비트 크기의 NESN, 1비트 크기의 SN, 1비트 크기의 CIE(Close Isochronous Event), 1비트 크기의 RFU, 1비트 크기의 NPI(Null PDU Indicator), 1비트 크기의 RFU, 9비트 크기의 Length 서브필드를 포함할 수 있다.
브로드캐스트 등시성 PDU인 경우에 헤더 필드의 포맷은 2 비트 크기의 LLID, 3비트 크기의 CSSN(Control Subevent Sequence Number), 1 비트 크기의 CSTF(Control Subevent Transmission Number), 2 비트 크기의 RFU, 8 비트 크기의 Length 서브필드를 포함할 수 있다.
오디오 데이터 PDU의 페이로드 필드는 오디오 데이터를 포함할 수 있다.
도 20은 본 개시가 적용가능한 애드버타이즈먼트 유닛 포맷의 예시들을 나타내는 도면이다.
도 20(a)는 애드버타이징 물리 채널 (Advertising Physical Channel PDU(Protocol Data Unit))의 예시적인 포맷을 나타낸다. 애드버타이징 채널 PDU는 애드버타이징 물리 채널(예를 들어, 채널 번호 37, 38, 39) 상에서 패킷을 전송하기 위해 사용될 수 있다. 애드버타이징 채널 PDU는 2 옥텟 크기의 헤더 및 6 내지 37 옥텟 크기의 페이로드로 구성될 수 있다.
도 20(b)는 애드버타이징 채널 PDU의 헤더의 예시적인 포맷을 나타낸다. 헤더는 PDU 타입(PDU Type), RFU(Reserved for Future Use), 송신 어드레스(TxAdd), 수신 어드레스(RxAdd), 길이(Length), RFU 필드를 포함할 수 있다. 헤더의 길이 필드는 페이로드의 크기를 지시할 수 있다.
도 20(c)는 애드버타이징 채널 PDU의 페이로드의 예시적인 포맷을 나타낸다. 페이로드는 6 옥텟 길이의 AdvA(Advertiser Address) 필드 및 0 내지 31 옥텟 길이의 AdvData 필드를 포함할 수 있다. AdvA 필드는 애드버타이저의 공용 주소 또는 랜덤 주소를 포함할 수 있다. AdvData 필드는 0개 이상의 애드버타이징 데이터 스트럭처(Advertising Data(AD) structure) 및 필요한 경우 패딩을 포함할 수 있다.
도 20(d)에서는 하나의 AD structure의 포맷을 나타낸다. AD structure는 3개의 필드를 포함할 수 있다. 길이(Length) 필드는 AD 데이터(AD Data) 필드의 길이를 지시할 수 있다. 즉, 길이 필드에 의해서 지시되는 값에서 1을 차감한 값이 AD Data 필드의 길이에 해당할 수 있다. AD 타입(AD Type) 필드는 AD Data 필드에 포함되는 데이터의 타입을 지시할 수 있다. AD Data 필드는 애드버타이저의 호스트로부터 제공되는 애드버타이징 데이터를 포함할 수 있다.
이하에서는 본 개시에 따른 로컬 접촉 보안 추적에 대한 예시들에 대해서 설명한다.
도 21은 본 개시에 따른 노출 통지 서비스(exposure notification service, ENS) 동작을 설명하기 위한 도면이다.
단계 S2110에서 제 1 디바이스는 제 2 디바이스로부터 노출 통지 서비스(ENS)에 관련된 설정 정보를 수신할 수 있다.
예를 들어, 제 1 디바이스는 ENS 서버 디바이스이고, 제 2 디바이스는 ENS 클라이언트 디바이스일 수 있다. 예를 들어, 제 1 디바이스는 상대적으로 낮은 성능을 가지는 디바이스(예를 들어, 웨어러블 디바이스)이고, 제 2 디바이스는 상대적으로 높은 성능을 가지는 디바이스(예를 들어, 스마트폰 디바이스)일 수 있다. 또한, 하나의 제 1 디바이스는 복수의 제 2 디바이스와 연결될 수도 있고, 복수의 제 1 디바이스가 하나의 제 2 디바이스와 연결될 수도 있다. 또한, 제 1 및 제 2 디바이스는 하나의 사용자와 연관될 수도 있고, 하나의 사용자 그룹(예를 들어, 부모와 자녀)에 연관될 수도 있다.
예를 들어, 제 2 디바이스는 제 1 디바이스의 캐퍼빌리티 등을 독출(read)하고, 제 1 디바이스가 ENS를 수행하기 위해 필요한 정보를 제 1 디바이스에게 기입(write)할 수도 있다. ENS를 수행하기 위해 필요한 정보는, 애드버타이징 정보, 애드버타이징 주기/인터벌, 스캐닝 주기/인터벌, 스캐닝 듀레이션/윈도우 등의 정보를 포함할 수 있다. 예를 들어, 애드버타이징 정보는, 후술하는 바와 같이 제 1 디바이스가 애드버타이징하는 근접 식별자를 생성하기 위해 필요한 키(예를 들어, 후술하는 예시들에서의 추적 키) 정보를 포함할 수 있다. 예를 들어, 제 1/제 2 애드버타이징 패킷에 대한 브로드캐스트/애드버타이징 인터벌, 스캐닝 인터벌, 스캐닝 듀레이션/윈도우 등은, 제 1 디바이스의 위치 정보 또는 저장 용량 중의 하나 이상과 연관되어 설정될 수도 있다.
추가적인 예시로서, 제 1 디바이스는 제 2 디바이스로부터의 노출 통지 서비스에 대한 설정 없이, 노출 통지 서비스를 수행할 수 있다. 예를 들어, 제 1 디바이스 또는 제 2 디바이스는 단독으로, 직접 클라우드-기반 서버와 통신할 수 있고, 노출 통지 서비스와 관련된 파라미터를 스스로 설정할 수 있고, 후술하는 근접 식별자를 포함하는 애드버타이징/스캐닝 등의 동작을 직접 수행할 수 있다. 예를 들어, 제 1 디바이스 또는 제 2 디바이스가 웨어러블 디바이스가 아니라 인터넷 연결 가능한 스마트폰 등의 디바이스인 경우에, 해당 디바이스는 단독으로(즉, 다른 디바이스와 서버-클라이언트 연결을 맺지 않고도) 노출 통지 서비스를 수행할 수 있다. 이 경우, 단계 S2110은 생략될 수 있으며, 후술하는 동작들은 하나의 디바이스에 의해서 수행될 수도 있다.
단계 S2120에서 제 1 디바이스는 설정 정보에 기초하여 근접 식별자(proximity identifier, PI)를 포함하는 제 1 애드버타이징 패킷을 주기적으로 브로드캐스트할 수 있다.
PI는 키 정보에 기초하여 생성될 수 있다. 제 1 애드버타이징 패킷에 포함되는 PI는 소정의 시간 주기에 따라서 변경(또는 롤링)될 수 있다. 예를 들어, PI의 변경 주기는 키 정보의 변경 주기보다 짧을 수 있다. 즉, 키 정보는 PI에 비하여 긴 주기로 변경될 수 있다.
제 1 애드버타이징 패킷은 제 1 디바이스의 프라이빗 어드레스 정보를 더 포함할 수 있다. 키 정보 또는 PI 중의 하나 이상이 변경되는 경우, 프라이빗 어드레스 정보도 함께(또는 동시에 또는 동일한 애드버타이징 패킷에서) 변경될 수 있다. 이에 따라 제 3 자가 사용자를 트래킹하는 것을 방지할 수 있다.
단계 S2130에서 제 1 디바이스는 하나 이상의 제 3 디바이스로부터의 제 2 애드버타이징 패킷을 스캐닝할 수 있다.
즉, 제 1 디바이스는 ENS 패킷을 애드버타이징하고 스캐닝할 수 있다. 단계 S2120의 애드버타이징 동작과 단계 S2130의 스캐닝 동작은 각각의 주기/인터벌 및 윈도우/듀레이션에 따라서 수행될 수 있다.
단계 S2130에서의 스캐닝에 의해서, 제 1 디바이스는 주변 디바이스(즉, 제 3 디바이스))(들)의 PI(들)를 포함하는 제 2 애드버타이징 패킷(들)을 수신 및 저장할 수 있다. 소정의 시간 구간 동안 저장된 PI(들)은, 제 1 디바이스의 사용자가 근접 접촉한 제 3 디바이스의 사용자가 위험군에 속하는지 여부를 결정하기 위해서 사용될 수 있다.
단계 S2140에서 제 1 디바이스는 하나 이상의 제 3 디바이스의 PI와 진단 키의 매칭 여부를 결정할 수 있다.
예를 들어, 제 1 디바이스가 저장한 제 3 디바이스의 PI는 제 2 디바이스로 전달될 수도 있다. 제 1 디바이스 또는 제 2 디바이스는 클라우드-기반 키 서버와의 통신을 통하여(예를 들어, 클라우드-기반 키 서버의 진단 키와의 비교를 통하여) 매칭 여부를 결정할 수 있다. 제 1 디바이스는 키 서버 또는 제 2 디바이스로부터 상기 매칭 여부에 대한 정보를 수신할 수도 있다.
또한, 제 1/제 2 애드버타이징 패킷에는 해당 사용자의 건강 상태에 대한 정보를 부가 정보로서 더 포함할 수도 있다.
이에 따라, 제 1 디바이스의 사용자가 위험군에 속하는 사용자와 근접 접촉하였는지 여부를, 제 3 디바이스의 사용자를 직접적으로 특정하지 않더라도 확인할 수 있다.
이하에서는 본 개시에 따른 노출 통지 서비스에 대한 다양한 예시들에 대해서 설명한다. 이하의 설명에서, 노출 통지 서비스는 로컬/근접 접촉 추적 서비스, 로컬/근접 접촉 보안 추적 서비스, 또는 단순히 접촉 서비스라고 칭할 수도 있다.
블루투스 통신 시스템과 같은 근거리 무선 통신 시스템을 이용하여 디바이스를 휴대하는 사용자의 로컬 또는 근접 접촉 여부를 추적하고 사용자에게 이를 알리는 것이 요구되며, 여기서 사용자의 개인 정보를 보호하는 것이 요구된다. 이는 전염병 팬데믹 상황에서 유용할 수 있다.
도 22는 본 개시가 적용될 수 있는 유스 케이스의 예시를 설명하기 위한 도면이다.
예를 들어, 디바이스는 빈번하게 변경되는 랜덤 ID를 애드버타이징할 수 있다. 또한, 디바이스는 주변 디바이스들을 지속적으로 스캐닝할 수 있으며, 이를 위한 시간 및 듀레이션을 정의할 수 있다. 이러한 정보는 제한된 시간(예를 들어, 2 주 (설정 가능한 시간)) 동안 저장될 수 있다.
또한, 사용자는 클라우드-기반 키 서버에 연결하여 자신이 마주친 랜덤 ID 중에, 바이러스에 양성으로 테스트된 사용자에 연관된 디바이스의 랜덤 ID가 있는지를 결정할 수 있다.
또한, 디바이스는 손목-착용 디바이스일 수 있고, 인터넷을 통하여 클라우드에 연결될 수 있다. 사용자가 복수의 디바이스들을 휴대하는 경우, 이들 디바이스들은 코디네이트되어 특정 시간에 하나의 디바이스만 접촉 추적에 관련된 동작을 할 수 있다. 하나의 사용자가 휴대하는 복수의 디바이스들이 중복해서 접촉 추적 관련 동작을 수행할 필요는 없을 수 있다.
또한, 디바이스(예를 들어, 웨어러블 디바이스)는 주기적으로 자신의 랜덤 ID를 다른 디바이스(예를 들어, 스마트폰)으로 업로드할 수 있다. 예를 들어, 도 21을 참조하여 설명한 예시에서, 스마트폰과 같은 디바이스는 클라이언트 디바이스에 해당할 수 있고, 애드버타이징/스캐닝을 수행하는 웨어러블 디바이스는 서버 디바이스에 해당할 수 있다.
또한, 범위-내(in-range) 동작 및 범위 밖(out-of-range) 동작이 정의될 수 있다.
또한, 접촉 리스트(contact list)가 정의될 수 있다.
감염 확증인 경우 TAN(Transaction Authentication Number)이 부여될 수 있다. 부여되는 수단으로는 QR 코드 등이 사용될 수 있다.
사용자 인증을 통하여 보안 클라우드에 ID를 업로드할 수 있다.
사용자가 접촉했던 모든 랜덤 ID가 업로드될 수 있다. 디바이스는 직접 업로드할 수도 있고, 다른 디바이스로 전송하여 업로드할 수도 있다.
또한, 사용자 개인 정보 보호를 위해서 IP 어드레스 익명처리 서비스를 지원할 수도 있다.
근접성(proximity) 및 접촉 듀레이션에 기초한 위험도(risk) 추정을 지원할 수 있다. 위험 알림은 주변에 환자 또는 확진자가 있음을 통지하는 것을 포함할 수 있다. 이러한 로컬 접촉 보안 추적 서비스는 사용자 간의 만남을 지원하는 애플리케이션 등의 유사 서비스에서, 사용자 주변에 동일한 서비스에 가입한 다른 사용자가 존재하는 여부를 파악 또는 알리는 것에도 적용될 수 있다.
또한, 접촉 추적 동작은 사용자가 위치하는 지역 정보에 따라서 다르게 동작할 수 있다. 예를 들어, 사용자가 밀집한 지역 A에서는 보다 빈번하게 접촉 추적 관련 동작을 수행하고, 사용자가 거의 없는 청정한 지역 B에서는 덜 빈번하게 접촉 추적 관련 동작을 수행할 수 있다.
보다 구체적인 예시로서, 사용자 밀집 정도 또는 주변 디바이스의 개수는, 디바이스의 접촉 추적 관련 동작의 빈도나 저장 용량(storage capacity)과 연관될 수 있다. 접촉 추적 관련 동작은 랜덤 ID의 애드버타이징 및 스캐닝을 포함할 수 있다. 예를 들어, 특정 디바이스가 랜덤 ID 애드버타이징하고, 또한 특정 디바이스가 주변의 다른 디바이스들이 애드버타이징하는 랜덤 ID를 스캐닝할 수 있다. 특정 디바이스가 스캐닝하는 주변 디바이스들의 랜덤 ID는 특정 디바이스에 (임시로) 저장될 수 있다. 또한, 지역 정보 및/또는 시간대(예를 들어, 통근, 근무, 집, 취침) 등에 따라서, 사용자 밀집 정도 또는 주변 디바이스의 개수가 달라질 수 있다. 따라서, 사용자 밀집 정도나 주변 디바이스의 개수에 기초하여, 애드버타이징 빈도(또는 인터벌), 스캐닝 빈도(또는 스캐닝 온/오프 시간), 또는 저장 용량 중의 하나 이상에 대한 디바이스의 설정이 달라질 수 있다.
도 23은 본 개시와 관련된 접촉 정보를 활용하는 기술을 설명하기 위한 도면이다.
추적 키(tracing key)는 디바이스 당 한 번 생성되는 키이다.
데일리 추적 키(daily tracing key)는 추적 키로부터 유도되며, 개인 정보 보호의 측면에서 매 24시간 마다 생성될 수 있다.
진단 키(diagnosis key)는 데일리 추적 키의 서브셋에 해당하고, 디바이스의 소유자가 바이러스에 양성으로 진단되는 경우에 업로드될 수 있다.
롤링 근접 식별자(rolling proximity identifier)는 개인정보 보호 기능을 하는 식별자로서, 데일리 추적 키로부터 유도되어 블루투스 애드버타이즈먼트를 통하여 전송될 수 있다. 이는, 예를 들어, 매 15분 마다 변경되어 디바이스의 무선 트래킹을 방지할 수 있다.
예를 들어, 롤링 근접 식별자를 포함하는 패킷 포맷은 ADV_NONCONN_IND가 사용될 수 있다. 즉, 연결 기반 서비스가 아니며, GATT를 지원하지 않을 수 있다.
또한, 패킷에 포함되는 어드레스는 랜덤 어드레스가 적용되어 디바이스 트래킹(즉, 디바이스의 물리적인 위치 이동 추적)을 방지할 수 있다. 예를 들어, 랜덤화된 로테이션 타임아웃 인터벌로, 블루투스 랜덤 프라이빗 어드레스가 정의 및 이용될 수 있다. 디바이스 트래킹을 방지하기 위한 목적으로, 롤링 근접 식별자와 추적 키를 변경할 수 있다. 예를 들어, 랜덤 어드레스는 BLE 패킷 헤더에 포함되고, 키는 고유한 값으로 BLE 애드버타이즈먼트 데이터에 포함될 수 있다.
예시적인 패킷 포맷에서 서비스 UUID는 서비스 존재를 알리고 서비스 타입을 식별하도록 할 수 있다. 16 바이트 크기의 롤링 근접 식별자는 서비스 데이터 필드에 포함될 수 있다.
도 24 내지 도 25는 본 개시와 관련된 접촉 정보를 활용하는 기술의 절차를 설명하기 위한 도면이다.
롤링 근접 식별자를 애드버타이징하는 인터벌은 변경 대상이지만, 현재 200 내지 270 ms를 적용하는 것이 일반적이다. 애드버타이징 인터벌을 일정하게 설정하는 것은 불필요한 전력 소모를 유발할 수 있는 문제점이 있다.
도 24의 예시에서 제 1 디바이스의 프레임워크 BT(BLE) 개체는 추적 키를 생성하고, 이로부터 데일리 추적 키를 유도 또는 생성할 수 있다. 이러한 키 정보는 암호화 개체(crypto)로 전달되고, 암호화 개체에서 키 정보로부터 롤링 근접 식별자(RP ID)를 유도하고 이를 BLE 개체로 전달할 수 있다. BLE 개체는 RP ID를 소정의 인터벌에 따라서 애드버타이징할 수 있다. 제 1 디바이스의 애드버타이즈먼트 정보로부터 제 2 디바이스는 RP ID를 수신하고 이를 저장할 수 있다.
본 개시에 따른 사용자 디바이스(예를 들어, 서버 디바이스)는 RP ID를 포함하는 애드버타이징 패킷을 브로드캐스트할 수도 있고, 다른 디바이스로부터의 애드버타이징 패킷을 스캐닝하여 RP ID를 수신 및 저장할 수도 있다. 도 24의 예시에서는 애드버타이징 동작을 제 1 디바이스가 수행하고, 스캐닝을 제 3 디바이스가 수행하는 예시를 설명하고, 도 25의 예시에서는 애드버타이징 동작을 제 3 디바이스가 수행하고, 스캐닝을 제 1 디바이스가 수행하는 예시에 대해서 설명한다.
도 25의 예시에서 제 3 디바이스가 애드버타이징한 RP ID를 저장한 제 1 디바이스의 BLE 개체는 클라우드로부터 애플리케이션을 통하여 진단 키 리스트를 획득할 수 있다. 이에 따라, RP ID에 해당하는 진단 키를 분석(resolve)하기 위해서 암호화 개체에게 RP ID 및 진단 키 정보를 전달하고, 암호화 개체에서 매칭 여부를 판정하고 그 결과를 BLE 개체에게 전달할 수 있다. BLE 개체는 위험도(risk)를 판단하고 매칭 개수를 애플리케이션으로 전달하고 애플리케이션으로부터 접촉 정보를 획득할 수 있다. 또한, BLE 개체는 사용자에게 통지하고 애플리케이션의 접근을 허용할 수 있으며, 타임스탬프 및 듀레이션 값을 애플리케이션으로 전달할 수 있다.
위와 같은 예시에서 클라우드와 애플리케이션간 프로토콜이 정의되어 있지 않다. 또한, 클라우드, 암호화 개체, BLE 개체 간의 플로우, 초기 애플리케이션 등록, 사용자 등록 등의 플로우, 크리덴셜 또는 토큰 정보 교환 등에 대해서도 명확하게 정의되어 있지 않다. 따라서, 이러한 절차를 명확하게 정의하는 것이 요구된다.
또한, 애드버타이징을 통하여 양성/음성 진단 여부를 알려주는 경우, 위험도 판단에서 효율적으로 이용될 수 있다. 예를 들어, 주변에 양성 확진자가 있다는 위험도를 사용자에게 알릴 수도 있다.
도 26은 본 개시가 적용될 수 있는 블록도 및 메시지의 예시를 나타내는 도면이다.
제 1 디바이스 및 제 2 디바이스는 동일한 하나의 사용자(또는 동일한 하나의 사용자 그룹)에 의해 소유/휴대되는 디바이스들일 수 있다. 예를 들어, 제 1 디바이스는 헤드셋, 웨어러블 디바이스 등일 수 있고, 제 2 디바이스는 휴대폰 등일 수 있다. 제 1 및 제 2 디바이스 간에 접촉 서비스 관련 정보가 교환될 수 있다. 또한, 제 1 및 제 2 디바이스 각각은 클라우드 서버와의 통신을 통해서 데이터를 교환할 수 있다. 각각의 디바이스 내에서 네트워크 인터페이스는 BLE 개체를 포함할 수 있고, 암호화 AAA(Authentication, Authorization, Accounting) 관리자 개체와 데이터를 주고받을 수 있다.
도 27은 본 개시가 적용될 수 있는 키 변경 동기화 방안을 설명하기 위한 도면이다.
도 23을 참조하여 설명한 바와 같이, 키 정보(예를 들어, 애드버타이징 패킷의 데이터에 포함되는 고유 값, 또는 RP ID)는 소정의 인터벌로 변경될 수 있고, 또한, 애드버타이징 패킷의 헤더에 포함되는 랜덤 어드레스(또는 프라이빗 어드레스)도 소정의 인터벌로 변경될 수 있다. 예를 들어, 악의적인 사용자 또는 해커가 디바이스가 애드버타이징하는 키 값 및/또는 패킷 헤더에 포함되는 BLE 어드레스를 보고 특정 사용자를 트래킹 또는 미행하는 것을 방지하기 위해서 키 값 및/또는 어드레스 값이 각각 주기적으로 변경될 수 있다.
그러나, 도 27(a)에 도시하는 바와 같이 키 정보와 어드레스 정보의 변경 시점이 다른 경우(즉, 동기화되지 않는 경우), 둘 중의 어느 하나를 식별한 제 3 자가 다른 하나와의 연관 관계를 통하여 변경되는 키 정보 및/또는 어드레스 정보를 트래킹할 수도 있다.
구체적인 예시로서, 키 정보가 제 1 키, 제 2 키, 제 3 키의 순서대로 변경되고, 어드레스 정보가 제 1 어드레스, 제 2 어드레스, 제 3 어드레스의 순서대로 변경되는 경우를 가정한다. 제 3 자가 제 1 어드레스를 식별한 경우, 제 1 어드레스와 연관된 제 1 키 정보를 추적하여 획득할 수 있다. 이후, 제 1 어드레스가 제 2 어드레스로 변경되지만 제 1 키 정보는 유지되는 경우, 제 1 키 정보를 가지고 있는 제 3 자는 제 1 키와 연관된 제 2 어드레스 정보를 추적하여 획득할 수 있다. 이후, 제 1 키가 제 2 키로 변경되지만 제 2 어드레스 정보는 유지되는 경우, 제 2 어드레스 정보를 가지고 있는 제 3 자는 제 2 어드레스와 연관된 제 2 키 정보를 추적하여 획득할 수 있다. 이러한 문제는 키 정보와 어드레스 정보가 변경되는 시점이 일치하지 않는 경우에 발생할 수 있다.
따라서, 키 정보와 어드레스 정보의 변경 시점을 동기화하는 것이 요구된다. 예를 들어, 도 27(b)에 도시하는 바와 같이 키 정보와 어드레스 정보의 변경 시점이 일치하는 경우(즉, 동기화되는 경우), 둘 중의 어느 하나를 식별한 제 3 자가 변경 시점 이후로는 해당 사용자를 트래킹할 수 없다.
구체적인 예시로서, 제 3 자가 제 1 어드레스를 식별한 경우, 제 1 어드레스와 연관된 제 1 키 정보를 추적하여 획득할 수도 있다. 그러나, 제 1 어드레스가 제 2 어드레스로 변경되는 동시에 제 1 키도 제 2 키로 변경되는 경우, 제 1 키 및 제 1 어드레스 정보로부터 제 2 키 및 제 2 어드레스 중의 어떤 것도 추적하여 획득할 수 없다.
이를 위해서 도 27(c)에서 도시하는 바와 같이, BLE 개체는 암호화 개체와 어드레스 변경 및 키 변경에 대한 동기화를 위한 정보를 교환(exchange), 협상(negotiation), 지시(indication) 또는 통지(notification)를 통해, 어드레스 변경 및 키 변경에 공통적으로 적용되는 변경 인터벌 또는 주기를 결정할 수 있다. 키 정보와 어드레스 정보가 변경되는 인터벌 또는 주기는 일정할 수도 있고, 동적으로 달라질 수도 있다.
도 28은 본 개시가 적용될 수 있는 동적 인터벌 제어 방법을 설명하기 위한 도면이다.
제 1 디바이스의 BLE 개체는 자신의 RP ID를 포함하는 애드버타이징 패킷을 소정의 시간 간격(즉, 인터벌)으로 브로드캐스팅하고, 제 3 디바이스는 스캐닝을 통해서 애드버타이징 패킷을 수신하고 제 1 디바이스의 하나 이상의 RP ID를 저장할 수 있다. 이와 유사하게, 제 1 디바이스도 제 3 디바이스를 포함하는 주변 디바이스들이 소정의 인터벌로 브로드캐스팅하는 애드버타이징 패킷을 수신하고 각각의 주변 디바이스 별로 하나 이상의 RP ID를 저장할 수 있다.
이에 따라, 디바이스는 스캐닝을 통해서 주변 디바이스들의 애드버타이징 정보에 기초하여, 자신의 주변 디바이스의 상황을 추정할 수 있다. 디바이스는 주변 디바이스 상황을 파악하여 자신의 애드버타이징 인터벌을 동적으로 변경할 수 있다.
예를 들어, 주변 디바이스 상황은, 주변 디바이스의 개수, 주변에서 접촉 추적 관련 서비스를 수행하는 디바이스의 개수, 자신이 위치한 지역의 위험도(예를 들어, 디바이스 밀집도와 연관된 위험도(밀집도가 높을수록 위험도가 높음), 지역 특성 (도시, 교외, 지방 등 인구 밀도 특성에 따른 지역 구분)) 등을 포함할 수 있다.
예를 들어, 주변 디바이스 상황이 사용자 밀집도가 높은 것으로 추정되는 경우, 디바이스는 자신의 애드버타이징 인터벌을 줄여서 더 빈번하게 애드버타이징 패킷을 전송할 수 있다. 만약 주변 디바이스 상황이 사용자 밀집도가 낮은 것으로 추정되는 경우, 디바이스는 자신의 애드버타이징 인터벌을 높여서 덜 빈번하게 애드버타이징 패킷을 전송할 수 있다. 만약 주변에 디바이스가 전혀 없는 것으로 추정되는 경우, 애드버타이징 인터벌은 최소값으로 설정될 수 있다.
또한, 애드버타이징 빈도는 스캐닝 빈도와 연관될 수 있다. 예를 들어, 스캐닝 인터벌은 애드버타이징 인터벌과 동일하게 또는 애드버타이징 인터벌의 정수배로 설정될 수도 있다. 또한, 스캐닝 인터벌마다 스캐닝을 수행하는 시간인 스캐닝 듀레이션이 설정될 수도 있다. 스캐닝 듀레이션이 길수록 보다 많은 주변 디바이스의 식별자를 저장할 수 있다. 디바이스의 저장 용량에 제한이 있는 경우, 사용자 밀집도 또는 주변 디바이스의 애드버타이징 인터벌에 따라서, 스캐닝 인터벌 또는 스캐닝 듀레이션을 조절할 필요가 있다. 따라서, 애드버타이징 인터벌, 스캐닝 인터벌, 또는 스캐닝 듀레이션 중의 하나 이상은, 사용자 밀집도 또는 디바이스의 저장 용량 중의 하나 이상에 기초하여 조절될 수도 있다.
도 29는 본 개시가 적용될 수 있는 부가 정보를 포함한 위험도 알림 방법을 설명하기 위한 도면이다.
부가 정보는 애플리케이션 설치 여부, 사용자 등록 여부, 사용자 건강 상태 정보(예를 들어, 양성/음성 진단 결과 등의 직접 건강 상태 관련 정보, 체온, 맥박 등의 간접 건강 상태 관련 정보), 지역/위치 정보(또는 밀집도 정보), 시간대 정보 등을 포함할 수 있다.
제 3 디바이스는 애플리케이션을 통하여 클라우드 서버로부터 애플리케이션을 다운로드하여 설치하거나, 클라우드 서버에 사용자 등록을 수행할 수 있다. 또한, 제 3 디바이스의 사용자에 대한 양성/음성 진단 정보 및 현재 사용자가 위치한 지역의 정보 등도 수신할 수 있고, 이를 BLE 개체에게 전달할 수 있다.
제 3 디바이스의 암호화 개체는 클라우드 서버로부터 수신한 정보에 기초하여 키 정보 등을 생성할 수 있고, 이를 BLE 개체에게 전달할 수 있다.
제 3 디바이스의 BLE 개체는 애플리케이션으로부터 제공 받은 양성/음성 진단 정보 등의 부가 정보 및 암호화 개체로부터 제공 받은 키 정보(예를 들어, RP ID) 등을 포함하는 애드버타이징 패킷을 브로드캐스트할 수 있다.
제 1 디바이스의 BLE 개체는 주변 디바이스들이 브로드캐스팅하는 애드버타이징 패킷을 수신하고, 디바이스 별로 RP ID 및 부가 정보를 저장할 수 있다.
부가 정보 중에서, 예를 들어, 진단 결과는 클라우드 서버에 업로드될 수 있다. 예를 들어, 제 3 디바이스의 사용자가 바이러스에 양성으로 진단되는 경우, 사용자의 동의하에(예를 들어, QR 코드 또는 TAN을 부여하여) 또는 사용자의 동의가 없더라도, 진단 결과가 클라우드 서버에 업로드되고, 진단 결과는 제 3 디바이스의 애플리케이션과 클라우드 서버 간에 공유될 수 있다. 이에 따라, 클라우드 서버로부터 제 1 디바이스의 애플리케이션으로 진단 키 정보가 전달될 수 있다.
또한, 제 1 디바이스의 애플리케이션은 클라우드 서버로부터 진단 키 정보를 수신하고, 진단 키 리스트를 BLE 개체에게 전달할 수 있다. BLE 개체는 RP ID에 해당하는 진단 키를 분석(resolve)하기 위해서 암호화 개체에게 RP ID 및 진단 키 정보를 전달하고, 암호화 개체에서 매칭 여부를 판정하고 그 결과를 BLE 개체에게 전달할 수 있다. BLE 개체는 위험도(risk)를 애플리케이션에게 전달할 수 있다.
여기서, 위험도를 결정함에 있어서 부가 정보가 추가적으로 고려될 수 있다. 즉, RP ID와 진단 키의 매칭 결과 및/또는 부가 정보로부터 위험도가 유도될 수 있다. 부가 정보는 주변 디바이스가 제공하는 양성/음성 진단 정보, 지역 정보 등을 포함하므로, 주변의 양성 확진자 디바이스의 개수, 지역 특성(밀집도 등), 시간대 등을 고려하여 위험도가 결정될 수 있다. 예를 들어, 부가 정보 각각에 대한 소정의 임계치를 기준으로, 위험도 여부 또는 레벨이 결정될 수 있다.
또한, 부가 정보는 사용자의 체온, 맥박 등의 건강 상태 정보를 포함할 수 있다. 이는 양성/음성 진단 정보보다 덜 직접적으로 위험도를 나타내지만, 확진 여부가 불확실한 상황에서 활용될 수 있다.
도 30은 본 개시가 적용될 수 있는 대표 디바이스 관련 동작을 설명하기 위한 도면이다.
하나의 사용자는 하나 이상의 디바이스를 휴대할 수 있다. 하나의 사용자가 휴대하는 모든 디바이스가 접촉 추적 서비스를 제공하는 경우 중복되는 정보가 애드버타이징되므로 불필요한 자원 소모 및 전력 소모가 유발될 수 있다. 이를 방지하기 위해서 대표 디바이스를 설정할 수 있다.
예를 들어, 사용자 #1가 소유 또는 휴대하는 디바이스 #1, #2 및 #3는 접촉 서비스(또는 접촉 추적 서비스)에 대한 협상을 통하여 대표 디바이스를 설정할 수 있다. 여기서, 하나의 대표 디바이스가 다른 디바이스(들)을 위한 애드버타이징 및 스캐닝을 모두 수행할 수도 있고, 하나의 디바이스가 애드버타이징 대표 디바이스로 설정되고 또 다른 하나의 디바이스가 스캐닝 대표 디바이스로 설정될 수도 있다. 또한, 대표 디바이스는 다른 디바이스를 위한 클라우드 서버에 대한 중계기 역할을 수행할 수도 있다. 이는 디바이스 각각의 캐퍼빌리티에 기초하여 결정될 수 있다.
사용자 #1의 애드버타이징 대표 디바이스가 디바이스 #2로 설정되는 경우, 디바이스 #2는 디바이스 #1 및 #3을 대표하여 하나의 애드버타이징 패킷(RP ID, 부가 정보 등을 포함)을 브로드캐스팅할 수 있다. 또한, 사용자 #1의 스캐닝 대표 디바이스가 디바이스 #1로 설정되는 경우, 디바이스 #1은 주변 디바이스가 브로드캐스팅하는 애드버타이징 패킷을 스캐닝을 통해 수신하고 수신된 정보를 디바이스 #2 및 #3과 공유할 수 있다.
한편, 대표 디바이스는 하나의 사용자를 위해서 설정될 수도 있지만, 연관된 복수의 사용자(즉, 하나의 사용자 그룹)를 위해서 설정될 수도 있다. 예를 들어, 사용자 #1과 사용자 #3은 부모-자녀(parent-child) 관계일 수 있다. 사용자 #3이 휴대하는 디바이스(예를 들어, 웨어러블 디바이스)는 소정의 조건을 만족하는 경우 사용자 #1이 휴대하는 디바이스들 중의 하나(즉, 대표 디바이스)를 통하여 접촉 서비스를 수행할 수 있다.
예를 들어, 사용자 #3의 디바이스와 사용자 #1의 대표 디바이스(예를 들어, 디바이스 #1)은 소정의 거리 범위 내에 있는지 여부를 체크(즉, In-range check)할 수 있다. 소정의 거리 범위 내에 있는 경우, 캐퍼빌리티 협상을 통해서 사용자 #1의 디바이스 #1이 사용자 #3의 디바이스를 대표하여 접촉 서비스를 수행할 수 있다. 예를 들어, 사용자 #3의 디바이스가 클라우드로 업로드할 정보가 있는 경우에 직접 업로드하는 것이 아니라 사용자 #1의 디바이스 #1을 거쳐서 확인 후 (사용자 #3을 대신하여(on behalf of)) 업로드될 수 있다.
한편, 사용자 #2의 디바이스 #4 및 #5는 캐퍼빌리티 협상 과정을 통해서 클라우드 서버에 대한 중계기 역할을 위한 대표 디바이스로서 디바이스 #5가 설정될 수 있다. 이 경우, 디바이스 #5는 클라우드로부터 수신되는 정보를 디바이스 #4에게 전달할 수 있다. 예를 들어, 디바이스 #4 및 #5는 각각 주변 디바이스들이 브로드캐스팅하는 애드버타이징 패킷을 수신하여 RP ID를 저장할 수 있다. 디바이스 #5는 클라우드 서버로부터 진단 키 정보를 수신하고 이를 디바이스 #4에게 전달할 수 있다. 디바이스 #4는 디바이스 #5로부터 전달된 진단 키 리스트와 RP ID의 분석(resolve)을 위해서, 디바이스 #5를 통하여 클라우드 서버로 RP ID 및 진단 키를 전송하고, 매칭 결과를 디바이스 #5를 통하여 수신할 수 있다. 이에 따라, 디바이스 #4 및 #5는 위험도 알림을 수행할 수 있다.
도 31은 본 개시가 적용될 수 있는 대표 디바이스 설정 관련 동작을 설명하기 위한 도면이다.
접촉 추적 프로파일은 접촉 추적 서비스를 지원할 수 있다. 접촉 추적 클라이언트와 접촉 추적 서버 간의 동작, 및 접촉 추적 서버와 클라우드 또는 사용자 디바이스 간의 동작이 접촉 서비스의 관점에서 정의될 수 있다.
예를 들어, 접촉 추적 서비스 특성은, 아래의 표 6과 같이 상태 정보(status information), 서비스 정보(service information), 그룹 파라미터 변경 제어 포인트(Group Parameter Change Control Point) 등의 예시를 포함할 수 있다.
특성 명칭
(Characteristic Name)
속성
(Properties)
설명
(Description)
상태 정보
(Status Information)
독출(Read),
지시(Indicate)
On, Off 와 같은 기기의 상태 정보
서비스 정보(Service Information) 독출(Read),
지시(Indicate)
기기가 제공 가능한 서비스 목록
그룹 파라미터
변경 제어 포인트
(Group Parameter
Change Control Point)
기입(Write),
지시(Indicate)
사용자 디바이스가 접촉 추적 서비스 제공 디바이스들의 애드버타이징, 스캔, 연결 파라미터들을 변경하라고 명령할 때 사용됨
동일 사용자의 복수의 디바이스 중에서 대표 디바이스를 설정하기 위해서, 복수의 디바이스 상호 및/또는 복수의 디바이스 각각과 클라우드 서버 간에, 접촉 서 추적 서비스 로컬 등록, 접촉 서비스 협상 절차가 수행될 수 있다.
접촉 추적 서비스는 애드버타이징 및 스캐닝 동작을 계속하여 수행하므로 디바이스 전력 소모가 심하다. 대표 디바이스의 설정을 통해 불필요한 전력 소모를 줄이거나, 전력 상태가 양호한 디바이스가 그렇지 않은 디바이스를 위해서 접촉 추적 서비스를 수행할 수 있다. 예를 들어, 사용자 A의 배터리가 부족한 웨어러블 디바이스 대신에, 휴대폰 디바이스가 웨어러블 디바이스를 대표하여 접촉 추적 서비스 동작을 수행할 수 있다. 즉, 대표 디바이스 설정은 디바이스 상태 및 주변 상황 등에 따라서 동적으로 변경될 수도 있다.
도 32는 본 개시가 적용될 수 있는 대표 디바이스 동작 예시를 설명하기 위한 도면이다.
도 32(a)에서 도시하는 바와 같이 BLE 접촉 서비스를 위해서 사용자 디바이스는 기본적으로 주변의 다른 사용자의 디바이스들(예를 들어, 디바이스 #1, #2, #3)과 애드버타이징 및 스캔을 통하여 접촉 서비스 관련 정보를 교환할 수 있다.
그러나, 하나의 사용자가 소유 또는 휴대하는 디바이스들이 애드버타이징/스캔 동작을 수행하더라도, 접촉 서비스의 측면에서 동일한 하나의 사용자와 연관된 정보가 교환되는 것이므로 그 효과가 증가하지는 않는다. 또한, 하나의 사용자에 연관된 모든 디바이스가 접촉 서비스 관련 정보를 교환하는 경우, 불필요한 전력 소모 및 자원 소모가 발생할 수 있다.
따라서, 접촉 서비스에서 디바이스의 전력 효율을 위해서 사용자 디바이스는 다른 디바이스(예를 들어, 대표 디바이스)의 애드버타이징 및/또는 스캔을 통하여 접촉 서비스 관련 정보를 교환할 수도 있다. 즉, 하나의 사용자와 연관된 디바이스들 중 특정 디바이스만 접촉 서비스를 수행하고, 필요에 따라 그 결과를 디바이스들 간에 공유하는 구조를 설계할 수 있다.
예를 들어, 도 32(b)에서 도시하는 바와 같이, 디바이스 A가 디바이스 B 대신에 RF 채널 스캐닝을 수행하여 주변의 다른 사용자의 디바이스들(예를 들어, 디바이스 #1, #2, #3)의 접촉 서비스 관련 정보를 획득하고 이를 디바이스 A 및/또는 사용자에게 알릴 수 있다. 이러한 구조는 하나의 사용자에 연관된 두 개의 디바이스간에만 작동하는 것은 아니며, 세 개 이상의 다수의 디바이스 간에도 적용될 수 있다. 또한, 다른 디바이스(들)을 위하여 특정 디바이스가 수행하는 접촉 서비스 관련 동작은, 애드버타이징 및 스캐닝으로 제한되는 것은 아니며, 클라우드 서버로/로부터 정보를 전송/수신하여 다른 디바이스(들)과 공유하는 동작을 포함하는 것으로 확장될 수도 있다.
도 33은 본 개시가 적용될 수 있는 접촉 서비스 협상 절차를 설명하기 위한 도면이다.
도 33의 예시에서 디바이스 1 및 디바이스 2는 하나의 사용자에 연관된 디바이스들인 것으로 가정한다.
접촉 서비스에서 대표 디바이스 선정에 필요한 정보들을 교환하고, 교환된 정보를 바탕으로 각 디바이스에서 접촉 서비스 대표 디바이스 선정 알고리즘을 수행할 수 있다. 대표 디바이스가 확정되었음을 메시지를 통해서 교환할 수 있다. 대표 디바이스로 선정된 디바이스는 애드버타이징 및/또는 스캐닝 동작을 수행하고, 그 결과를 다른 디바이스(예를 들어, 스캐닝을 요청한 디바이스)에게 전달할 수 있다.
도 33(a)의 예시에서, 디바이스 1 및 2는 BLE 연결을 맺은 상태인 것으로 가정한다. 사용자 설정에 따라서 대표 디바이스로 동작하기에 적합한 디바이스를 결정 또는 계산하기 위한 사전 정보를 포함하는 메시지가 디바이스 1 및 2 간에 교환될 수 있다. 이에 기초하여, 디바이스 1 및 2는 접촉 서비스를 위한 대표 디바이스 설정을 위한 협상 절차를 수행할 수 있다. 예를 들어, 협상 절차는 키 정보(예를 들어, RP ID)를 생성하기에 적합한 디바이스를 결정하는 것을 포함할 수 있다. 이에 따라, 대표 디바이스 확정을 위한 정보를 포함하는 메시지가 디바이스 1 및 2 간에 교환될 수 있다.
여기서, 대표 디바이스 설정 협상 절차는 접촉 서비스 협상 및 캐퍼빌리티 협상을 포함할 수 있다.
접촉 서비스 협상은 디바이스 상태에 따라서 복수의 디바이스 중에서 주변 로컬 디바이스들과 접촉 서비스 관련 정보를 교환(예를 들어, 접촉 서비스 관련 정보를 포함하는 애드버타이징 및/또는 스캐닝 동작을 수행)할 대표 디바이스를 선정하는 것을 포함할 수 있다.
캐퍼빌리티 협상은 디바이스 캐퍼빌리티(예를 들어, 인터넷 접속 가능 여부, 디스플레이 기능 보유 여부, 권한 여부 등)에 따라서 클라우드 서버와 접촉 서비스 관련 정보를 교환할 대표 디바이스를 선정하는 것을 포함할 수 있다.
추가적인 예시로서, 협상 절차(Negotiation Procedure)는 협상 요청(Negotiation Request), 협상 응답(Negotiation Response) 및 협상 확인(Negotiation Confirm) 단계를 포함할 수 있다.
협상 대상은 접촉 서비스와 관련된 동작, 예를 들어, 애드버타이징, 스캐닝, 클라우드 서버와의 정보 교환 중의 하나 이상을 포함할 수 있다. 예를 들어, 스캐닝 동작을 위한 대표 디바이스 선정을 위한 협상 절차는, 스캔 협상 요청, 스캔 협상 응답, 스캔 협상 확인의 단계를 포함할 수 있다.
협상 요청 메시지를 통하여 가용 파라미터에 대한 정보를 교환할 수 있다. 예를 들어, 디바이스 2는 디바이스 1의 가용 파라미터에 대한 정보를 획득하면 이를 기반으로 대표 디바이스에 적합한 디바이스인지 여부를 판단할 수 있다.
협상 응답 메시지는 협상 요청에 대한 응답이며, 상기 판단 결과를 공유하기 위한 것이다.
협상 확인 메시지는 상기 판단 결과에 따라서 어떤 디바이스가 대표 디바이스로 동작할 것인지를 확정하기 위한 것이다.
도 33(b)의 예시에서, 디바이스 1 및 2는 BLE 연결을 맺은 상태인 것으로 가정한다. 사용자 설정에 따라서 디바이스 1은 가용 파라미터에 대한 정보를 포함하는 협상 요청 메시지를 디바이스 2로 전송할 수 있다. 디바이스 2는 대표 디바이스로 적합한 디바이스에 대한 판단을 수행하고, 그 결과를 협상 응답 메시지를 통해서 디바이스 1에게 전달할 수 있다. 디바이스 1은 협상 확인 메시지를 통해서 어떤 디바이스가 대표 디바이스 역할을 수행할지에 대한 정보를 디바이스 2에게 전달할 수 있다. 만약 디바이스 2가 대표 디바이스로 선정되는 경우에, 디바이스 2는 디바이스 1를 대표하여 또는 대신하여 애드버타이징, 스캐닝 및/또는 클라우드 서버와의 통신을 수행하고, 그 결과(예를 들어, 스캐닝에 따른 주변 디바이스에 대한 정보)를 디바이스 1에게 알릴 수 있다.
여기서, 대표 디바이스 선정 판단에 관련된 파라미터의 예시들은 아래의 표 7과 같다.
Parameter Description
잔여 에너지
(Remained Energy)
장치에 남아있는 배터리 잔량
- 배터리 잔량이 높을수록 높은 값을 표현
할당된 컴퓨팅 자원(Assigned Computing Resource) CPU, 메모리 등 현재 남아있는 여유 컴퓨팅 자원의 평균
- 최근 t 시간 동안의 평균 값
- 암호화(Crypto) 성능, 키 생성 여부 등
연결 개수
(Number of connections)
현재 연결된 디바이스의 개수
- 현재 연결된 디바이스가 많을 수록 스캐닝을 할 수 있는 시간 슬롯의 개수가 부족하여 스캐닝 역할을 수행하기 어려움
제조사 정의
(Manufacturer define)
- 제조사가 정의
- 기-고정된 값(Pre-Fixed Value)
유스 케이스(Use case) 주위에 검색 대상 디바이스들이 매우 많은 경우
직접 설정 사용자-정의(User-define) 값을 넣고 싶은 경우
대표 디바이스 선정 판단에 관련된 파라미터는, 디바이스가 접촉 서비스를 수행하기에 얼마나 적합한지를 결정하는데 영향을 미치는 값들의 집합이다.예를 들어 이러한 파라미터 중 잔여 에너지 파라미터는 디바이스가 가진 배터리 잔량을 의미한다. 배터리 잔량이 많은 디바이스는 접촉 서비스를 위해서 빈번하게 또는 추가적으로 스캐닝을 수행하더라도, 배터리 잔량이 낮은 디바이스에 비해 무리가 없다. 즉, 배터리 잔량이 많은 디바이스가 스캐닝을 수행하는 것(즉, 스캐닝 수행 대표 디바이스로 선정되는 것)이 더 적합하다고 판정할 수 있다.
이러한 파라미터는 협상 요청 단계에서 교환될 수 있다.
도 34는 본 개시가 적용될 수 있는 접촉 서비스를 위한 클라우드 통신을 설명하기 위한 도면이다.
사용자의 계정은 사용자 계정 관리자(User Account Manager)에 의해 관리되고 제공된다. 예를 들어 사용자가 구글 계정을 만들 경우 Google은 사용자 계정 관리자로서의 역할을 수행하며, 사용자의 계정을 관리하고 사용자가 특정 사용자임을 증명할 수 있는 토큰(Token) 관련 정보를 제공할 수 있다.
접촉 서비스 디바이스는 대부분의 경우에 개인 사용자가 소유하는 디바이스이기 때문에 한 사람에 대한 계정 정보를 관리한다. 하지만 하나의 디바이스를 다수의 사용자가 사용하는 경우, 또는 한 사람이 다수의 계정을 등록하는 경우를 대비하여 토큰 저장소(Token Store)를 가지고 다수의 토큰을 관리할 수 있다.
도 34의 예시에서, 사용자 A 및 사용자 B는 각각 애플, 구글, 아마존 등의 계정 관리자에 등록된 계정을 가지고 있는 것으로 가정한다. 예를 들어, 각각의 계정 관리자에서는 하나의 사용자가 다수의 계정을 가지는 경우, 사용자 별로 다수의 계정에 대응하는 토큰을 토큰 저장소를 통하여 관리할 수 있다.
사용자는 하나 이상의 사용자 디바이스 각각에 설치된 접촉 서비스 애플리케이션을 통하여 클라우드 서버와 통신을 수행할 수 있다. 예를 들어, 사용자 디바이스는 다양한 계정 관리자를 통한 사용자 토큰을 기반으로 클라우드 서버와 통신할 수 있다. 사용자 디바이스에는 하나 이상의 접촉 서비스 애플리케이션이 설치될 수 있고, 각각의 접촉 서비스 애플리케이션은 하나 이상의 계정 관리자를 통하여 클라우드 서버와 통신할 수 있다. 서로 다른 디바이스 또는 애플리케이션이 동일한 사용자 계정에 연관될 수도 있고, 하나의 디바이스 또는 애플리케이션이 서로 다른 사용자 계정에 연관될 수도 있다.
도 35는 본 개시가 적용될 수 있는 애플리케이션 설치 및 사용자 등록 절차를 설명하기 위한 도면이다.
사용자 A 및 B는 각각 계정 관리자에 의해 관리되는 계정을 가질 수 있다. 각각의 사용자의 계정 등록 절차를 통하여 계정 관리자에 사용자 A 및 B의 계정이 등록되어 있는 것을 가정한다. 또한, 계정 관리자는 각각의 사용자의 사용자 계정에 연관되는 토큰을 생성하고 클라우드 서버와 공유할 수 있다. 클라우드 서버는 사용자 토큰 등의 정보에 기초하여 등록 크리덴셜(credential)을 생성할 수 있다. 이에 따라, 클라우드 서버는 계정 기반 토큰을 생성하고 크리덴셜을 부여할 수 있으며, 크리덴셜의 만료(expiration) 기간을 설정할 수 있다.
접촉 서비스 애플리케이션 #1 및 #2는 모두 동일한 사용자 A의 디바이스에 설치된 것으로 가정한다. 접촉 서비스 애플리케이션(또는 디바이스)의 각각 또는 어느 하나는 접촉 서비스 관련 키 생성 캐퍼빌리티 및/또는 ID 분석(resolve) 캐퍼빌리티를 가질 수 있다. 접촉 서비스 애플리케이션 #1 및 #2 중의 하나 이상은 클라우드 서버에 사용자 A의 계정 관리자 계정을 기반으로 토큰을 생성하여 토큰 공유 절차를 통해 클라우드와 공유할 수 있고, 클라우드에 의해서 부여된 크리덴셜을 받아올 수 있다. 이는 애플리케이션 설치 과정 또는 로그인 과정에 포함될 수 있다. 또한, 접촉 서비스 애플리케이션(또는 디바이스) #1 및 #2는 로컬 연결을 맺을 수 있다.
한편, 클라우드 서버는 계정 관리자에 등록된 정보와 접촉 서비스 애플리케이션(또는 디바이스)와 정보 교환을 통하여, 접촉 서비스 애플리케이션(또는 디바이스) #1 및 #2가 동일한 사용자 A에 연관되는 디바이스인 것으로 확인할 수 있다.
이에 따라, 접촉 서비스 애플리케이션(또는 디바이스) #1 및 #2는 접촉 서비스 협상 절차를 수행하여, 어느 하나가 대표 디바이스로서 기능할 수도 있다. 이에 따라, 접촉 서비스 애플리케이션 #1 및 #2 중의 하나 이상은 사용자 A에 대한 접촉 서비스 관련 키를 애드버타이징 패킷에 포함하여 전송할 수 있고, 주변 디바이스의 정보를 스캐닝을 통해 획득할 수도 있고, 클라우드 서버와 통신할 수도 있다.
또한, 접촉 서비스 애플리케이션은 크리덴셜을 이용하여 키를 생성하거나, 주변으로부터 획득한 ID를 분석(resolve)하여 확진자를 확인할 수 있다.
도 36은 본 개시가 적용될 수 있는 접촉 서비스 애플리케이션 키 정보 획득 방법을 설명하기 위한 도면이다.
사용자 크리덴셜 입력(user enter credentials) 과정에서, 사용자는 접촉 서비스 애플리케이션의 사용자 브라우저를 통하여 자신의 계정 정보(예를 들어, ID, 패스워드 등)을 입력할 수 있다.
이를 통해 사용자는 접촉 서비스 웹 포털(또는 클라우드)에 웹 로그인을 수행할 수 있다.
또한, 사용자는 디바이스(예를 들어, 접촉 서비스 디바이스) 추가 진행(navigate to add device) 절차를 통해 접촉 서비스를 위해 연동할 하나 이상의 디바이스를 등록 요청할 수 있다.
등록 요청 대상 디바이스는 디바이스 인증 토큰(Device Authentication Token)을 클라우드 서버와 교환하여 디바이스에서 사용할 토큰을 획득할 수 있다. 예를 들어, 클라우드 서버는 등록 요청 대상 디바이스 또는 접촉 서비스 애플리케이션으로부터 해당 디바이스의 정보를 획득하여 계정 관리자에게 전달하고, 계정 관리자로부터 해당 디바이스에 대한 인증 토큰을 제공받아서 해당 디바이스에게 전달할 수 있다.
한편, 계정 관리자는 접촉 서비스 디바이스에 대한 추가 인증 절차를 지원할 수 있다. 예를 들어, 계정 관리자는 사용자에게 문자, 이메일 등의 수단을 통하여 등록 코드를 전달할 수 있고, 사용자는 디바이스에 등록 코드를 입력할 수 있다. 이를 통하여 추가 인증 절차 및 보안 토큰 교환이 수행될 수 있다. 이에 따라, 해당 디바이스는 크리덴셜 접촉 서비스 디바이스로 등록되고, 접촉 서비스 동작을 수행할 수 있다.
도 37은 본 개시가 적용될 수 있는 접촉 서비스 계정 정보 획득 및 중개자 간 계정 연동 방법을 설명하기 위한 도면이다.
도 37의 예시에서, 접촉 서비스를 지원하는 시스템(예를 들어, 애플리케이션 홈)에 대해서 사용자는 A는 로그인 절차를 통하여 실제 사용자 A인지 여부에 대한 인증 절차를 수행할 수 있다. 이러한 로그인 절차는 생체정보, 패스워드 등의 방식을 통해 수행될 수 있다.
만약 로그인에 실패하는 경우 사용자 인증 정보가 존재하는지 여부를 확인하고, 그렇지 않은 경우, 즉, 신규 사용자인 경우에 사용자 인증 정보(예를 들어, 아이디, 패스워드 등)를 생성한 후, 로그인 절차가 수행될 수 있다.
만약 로그인에 실패하였지만 사용자 인증 정보가 존재하는 경우에는 고유 토큰 또는 키가 생성되고, 생성된 토큰 또는 키가 계정 관리자(또는 클라우드 또는 웹 서버)에 등록되고, 인증(예를 들어, 이메일 인증) 절차가 수행될 수 있다. 만약 인증에 실패하는 경우에 사용자 인증 정보 생성 절차가 수행될 수 있다. 인증에 성공하는 경우 접촉 서비스 디바이스를 확인할 수 있다. 즉, 접촉 서비스를 위해서 사용자 정보에 연계된 디바이스가 등록될 수 있다.
로그인에 성공하는 경우에 사용자는 디바이스를 등록하거나 삭제할 수 있다. 기존에 접촉 서비스를 위해 등록된 디바이스를 삭제하는 경우에, 사용자 의사 재확인 과정을 거쳐, 디바이스 삭제가 수행될 수 있다.
디바이스를 등록하는 경우, 기존에 접촉 서비스를 위해 등록된 디바이스가 접촉 서비스를 수행할 수 있는 캐퍼빌리티를 보유하는지 여부를 확인하고, 그렇지 않은 경우 다른 디바이스를 선택하도록 할 수 있다. 디바이스가 접촉 서비스 캐퍼빌리티를 보유한 경우에, 해당 디바이스가 사용자 정보에 연계되어 접촉 서비스를 위해 등록될 수 있다.
전술한 예시들에 있어서 대표 디바이스가 스캐닝/애드버타이징을 수행하는 디바이스인 경우를 가정하여 설명하였으나, 본 개시의 범위는 이에 제한되는 것은 아니다. 예를 들어, 대표 디바이스는 다른 디바이스(들)이 수행하는 애드버타이징/스캐닝에 따라서 다른 디바이스(들)에 저장된 주변 디바이스들의 RP ID 등을 획득할 수도 있다. 예를 들어, 대표 디바이스는 스마트폰 등의 클라이언트 디바이스에 해당하고, 그 외의 사용자 디바이스(예를 들어, 웨어러블 디바이스)가 서버 디바이스에 해당할 수도 있다.
도 38은 본 개시가 적용될 수 있는 제 1 디바이스 및 제 2 디바이스의 구성을 나타내는 도면이다.
제 1 디바이스(3800)는 프로세서(3810), 안테나부(3820), 송수신기(3830), 및 메모리(3840)를 포함할 수 있다.
프로세서(3810)는 베이스밴드 관련 신호 처리를 수행하며, 호스트 처리부(3811) 및 제어기 처리부(3815)를 포함할 수 있다. 호스트 처리부(3811) 및 제어기 처리부(3815)는 HCI를 통하여 정보를 교환할 수 있다. 호스트 처리부(3811)는 L2CAP, ATT, GATT, GAP, LE 프로파일 계층 등의 동작을 처리할 수 있다. 제어기 처리부(3815)는 LL, PHY 계층 등의 동작을 처리할 수 있다. 프로세서(3810)는 베이스밴드 관련 신호 처리를 수행하는 것 외에도, 제 1 디바이스(3800) 전반의 동작을 제어할 수도 있다.
안테나부(3820)는 하나 이상의 물리적 안테나를 포함할 수 있다. 송수신기(3830)는 RF(Radio Frequency) 송신기 및 RF 수신기를 포함할 수 있다. 메모리(3840)는 프로세서(3810)의 연산 처리된 정보, 및 제 1 디바이스(3800)의 동작에 관련된 소프트웨어, 운영체제, 애플리케이션 등을 저장할 수 있으며, 버퍼 등의 구성요소를 포함할 수도 있다.
제 1 디바이스(3800)의 프로세서(3810)는 본 발명에서 설명하는 실시예들에서의 제 1 디바이스(또는 서버 디바이스)의 동작을 구현하도록 설정될 수 있다.
예를 들어, 제 1 디바이스(3800)의 프로세서(3810)의 호스트 처리부(3811)는 제 2 디바이스(3850)로부터 제공되는 노출 통지 서비스 관련 설정 정보를 송수신기(3830) 및 제어기 처리부(3815)를 통하여 수신할 수 있다.
호스트 처리부(3811)는 설정 정보에 기초하여 애드버타이징 패킷에 포함될 정보 및 애드버타이징 패킷의 브로드캐스트에 관련된 파라미터를 제어기 처리부(3815)로 전달하고, 이에 기초하여 제어기 처리부(3815)는 애드버타이징 패킷의 브로드캐스트를 수행할 수 있다. 애드버타이징 패킷에는 키 정보에 기초하여 생성되는 근접 식별자가 포함될 수 있으며, 근접 식별자는 소정의 주기로 변경될 수 있다.
호스트 처리부(3811)는 하나 이상의 제 3 디바이스로부터의 애드버타이징 패킷에 포함된 정보를 송수신기(3830) 및 제어기 처리부(3815)의 스캐닝을 통하여 수신할 수 있다. 예를 들어, 호스트 처리부(3811)는 제어기 처리부(3815)의 스캐닝에 관련된 파라미터를 미리 제공할 수 있다. 예를 들어, 제 3 디바이스의 애드버타이징 패킷에는 제 3 디바이스의 근접 식별자가 포함될 수 있다.
호스트 처리부(3811)는 제 3 디바이스의 근접 식별자와 (클라우드-기반 키 서버로부터 제공되는) 진단 키와의 매칭 여부를 결정하거나, 다른 디바이스(예를 들어, 제 2 디바이스)로부터 제공되는 매칭 여부에 대한 정보를 수신할 수 있다. 만약 복수의 제 3 디바이스 중에서 특정 디바이스의 근접 식별자(또는 해당 근접 식별자의 생성의 기초가 되는 추적 키 정보)가 진단 키와 매칭되는 경우, 제 1 디바이스의 사용자 인터페이스를 통하여 해당 사실을 사용자에게 통지할 수 있다.
제 2 디바이스(3850)는 프로세서(3860), 안테나부(3870), 송수신기(3880), 메모리(3890)를 포함할 수 있다.
프로세서(3860)는 베이스밴드 관련 신호 처리를 수행하며, 호스트 처리부(3861) 및 제어기 처리부(3865)를 포함할 수 있다. 호스트 처리부(3861) 및 제어기 처리부(3865)는 HCI를 통하여 정보를 교환할 수 있다. 호스트 처리부(3861)는 L2CAP, ATT, GATT, GAP, LE 프로파일 계층 등의 동작을 처리할 수 있다. 제어기 처리부(3865)는 LL, PHY 계층 등의 동작을 처리할 수 있다. 프로세서(3860)는 베이스밴드 관련 신호 처리를 수행하는 것 외에도, 제 2 디바이스(3860) 전반의 동작을 제어할 수도 있다.
안테나부(3870)는 하나 이상의 물리적 안테나를 포함할 수 있다. 송수신기(3880)는 RF 송신기 및 RF 수신기를 포함할 수 있다. 메모리(3890)는 프로세서(3860)의 연산 처리된 정보, 및 제 2 디바이스(3850)의 동작에 관련된 소프트웨어, 운영체제, 애플리케이션 등을 저장할 수 있으며, 버퍼 등의 구성요소를 포함할 수도 있다.
제 2 단말 장치(3850)의 프로세서(3860)는 본 발명에서 설명하는 실시예들에서의 제 2 디바이스(또는 클라이언트 디바이스)의 동작을 구현하도록 설정될 수 있다.
예를 들어, 제 2 디바이스(3850)의 프로세서(3860)의 호스트 처리부(3861)는, 제 1 디바이스(3800)의 노출 통지 서비스에 관련된 설정 정보를 생성하여 제어기 처리부(3865) 및 송수신기(3880)를 통하여 제 1 디바이스(3800)에게 전달할 수 있다. 상기 설정 정보는 제 1 디바이스의 캐퍼빌리티에 기초하여 생성될 수 있다.
또한, 호스트 처리부(3861)는 제 1 디바이스(3800)로부터 전달되는 하나 이상의 제 3 디바이스의 근접 식별자 정보와 진단 키와의 매칭 여부를 클라우드-기반 키 서버와의 통신을 통해서 결정할 수도 있다.
제 1 디바이스(3800) 및 제 2 디바이스(3850)의 동작에 있어서 본 발명의 예시들에서 제 1 디바이스(또는 서버 디바이스) 및 제 2 디바이스(또는 클라이언트 디바이스)에 대해서 설명한 사항이 동일하게 적용될 수 있으며, 중복되는 설명은 생략한다.
추가적인 예시로서, 제 1 디바이스(3800)는 제 2 디바이스(3850)로부터의 노출 통지 서비스에 대한 설정 없이, 노출 통지 서비스를 수행할 수 있다. 예를 들어, 제 1 디바이스(3800) 또는 제 2 디바이스(3850)는 단독으로, 직접 클라우드-기반 서버와 통신할 수 있고, 노출 통지 서비스와 관련된 파라미터를 스스로 설정할 수 있고, 근접 식별자를 포함하는 애드버타이징/스캐닝 등의 동작을 직접 수행할 수 있다. 예를 들어, 제 1 디바이스(3800) 또는 제 2 디바이스(3850)는 단독으로(즉, 다른 디바이스와 서버-클라이언트 연결을 맺지 않고도) 노출 통지 서비스를 수행할 수도 있다.
본 개시의 다양한 실시예는 하드웨어, 펌웨어(firmware), 소프트웨어, 또는 그들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 범용 프로세서(general processor), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.
본 개시의 범위는 다양한 실시예의 방법에 따른 동작이 장치 또는 컴퓨터 상에서 실행되도록 하는 소프트웨어 또는 머신-실행가능한 명령들(예를 들어, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 또는 명령 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 비-일시적 컴퓨터-판독가능 매체(non-transitory computer-readable medium)를 포함한다. 본 개시에서 설명하는 특징을 수행하는 프로세싱 시스템을 프로그래밍하기 위해 사용될 수 있는 명령은 저장 매체 또는 컴퓨터 판독가능 저장 매체 상에/내에 저장될 수 있고, 이러한 저장 매체를 포함하는 컴퓨터 프로그램 제품을 이용하여 본 개시에서 설명하는 특징이 구현될 수 있다. 저장 매체는 DRAM, SRAM, DDR RAM 또는 다른 랜덤 액세스 솔리드 스테이트 메모리 디바이스와 같은 고속 랜덤 액세스 메모리를 포함할 수 있지만, 이에 제한되지 않으며, 하나 이상의 자기 디스크 저장 디바이스, 광 디스크 저장 장치, 플래시 메모리 디바이스 또는 다른 비-휘발성 솔리드 스테이트 저장 디바이스와 같은 비-휘발성 메모리를 포함할 수 있다. 메모리는 선택적으로 프로세서(들)로부터 원격에 위치한 하나 이상의 저장 디바이스를 포함한다. 메모리 또는 대안적으로 메모리 내의 비-휘발성 메모리 디바이스(들)는 비-일시적 컴퓨터 판독가능 저장 매체를 포함한다. 본 개시에서 설명하는 특징은, 머신 판독가능 매체 중 임의의 하나에 저장되어 프로세싱 시스템의 하드웨어를 제어할 수 있고, 프로세싱 시스템이 본 개시의 실시예에 따른 결과를 활용하는 다른 메커니즘과 상호작용하도록 하는 소프트웨어 및/또는 펌웨어에 통합될 수 있다. 이러한 소프트웨어 또는 펌웨어는 애플리케이션 코드, 디바이스 드라이버, 운영 체제 및 실행 환경/컨테이너를 포함할 수 있지만 이에 제한되지 않는다.
본 개시의 실시예들은 다양한 무선 통신 시스템에 적용되어, 무선 통신 시스템의 성능을 높일 수 있다.

Claims (15)

  1. 무선 통신 시스템의 제 1 디바이스에 의해서 노출 통지 서비스를 수행하는 방법에 있어서, 상기 방법은:
    상기 제 1 디바이스의 근접 식별자를 포함하는 제 1 애드버타이징 패킷을 주기적으로 브로드캐스트하는 단계;
    하나 이상의 제 2 디바이스의 근접 식별자를 포함하는 하나 이상의 제 2 애드버타이징 패킷을 주기적으로 스캐닝하는 단계; 및
    상기 하나 이상의 제 2 디바이스의 근접 식별자와 진단 키와의 매칭 여부를 결정하거나, 상기 매칭 여부에 대한 정보를 수신하는 단계를 포함하고,
    상기 제 1 디바이스의 근접 식별자는 소정의 주기에 따라서 변경되는, 방법.
  2. 제 1 항에 있어서,
    상기 제 1 디바이스의 근접 식별자는 상기 제 1 디바이스의 추적 키에 기초하여 생성되는, 방법.
  3. 제 2 항에 있어서,
    상기 제 1 디바이스의 추적 키는 상기 제 1 디바이스의 근접 식별자에 비하여 긴 주기로 변경되는, 방법.
  4. 제 2 항에 있어서,
    상기 제 1 애드버타이징 패킷은 프라이빗 어드레스 정보를 더 포함하고,
    상기 제 1 디바이스의 상기 추적 키 또는 상기 근접 식별자 중의 하나 이상은, 상기 프라이빗 어드레스와 함께 변경되는, 방법.
  5. 제 1 항에 있어서,
    상기 하나 이상의 제 2 디바이스의 근접 식별자와 진단 키와의 매칭 여부는, 클라우드-기반 키 서버와의 통신을 통하여 결정되는, 방법.
  6. 제 1 항에 있어서,
    상기 제 1 디바이스가 스캐닝하는 상기 하나 이상의 제 2 디바이스의 근접 식별자는 상기 제 1 디바이스에 의해서 저장되는, 방법.
  7. 제 1 항에 있어서,
    제 3 디바이스로부터 수신되는 노출 통지 서비스에 관련된 설정 정보에 기초하여, 상기 제 1 애드버타이징 패킷이 브로드캐스트되는, 방법.
  8. 제 7 항에 있어서,
    상기 제 1 디바이스에 의해서 획득되는 상기 하나 이상의 제 2 디바이스의 근접 식별자는 상기 제 3 디바이스로 전달되는, 방법.
  9. 제 7 항에 있어서,
    상기 제 1 디바이스는 하나 이상의 제 3 디바이스와 연결되거나, 상기 제 3 디바이스는 하나 이상의 제 1 디바이스와 연결되는, 방법.
  10. 제 1 항에 있어서,
    상기 제 1 애드버타이징 패킷 또는 상기 제 2 애드버타이징 패킷 중의 하나 이상은, 사용자 건강 상태에 대한 부가 정보를 더 포함하는, 방법.
  11. 제 1 항에 있어서,
    상기 제 1 애드버타이징 패킷의 브로드캐스트 인터벌, 상기 제 2 애드버타이징 패킷에 대한 스캐닝 인터벌, 또는 상기 제 2 애드버타이징 패킷에 대한 스캐닝 듀레이션 중의 하나 이상은, 상기 제 1 디바이스의 위치 정보 또는 상기 제 1 디바이스의 저장 용량 중의 하나 이상에 기초하여 설정되는, 방법.
  12. 제 7 항에 있어서,
    상기 제 1 디바이스 및 상기 제 3 디바이스는 특정 사용자 또는 특정 사용자 그룹에 연관되는, 방법.
  13. 제 7 항에 있어서,
    상기 제 1 디바이스는 서버 디바이스이고, 상기 제 3 디바이스는 클라이언트 디바이스인, 방법.
  14. 제 1 항에 있어서,
    상기 무선 통신 시스템은 BLE(bluetooth low energy)를 지원하는 무선 통신 시스템인, 방법.
  15. 무선 통신 시스템에서 노출 통지 서비스를 수행하는 제 1 디바이스 측의 장치에 있어서,
    다른 디바이스와의 신호 송신 및 수신을 수행하기 위한 송수신기; 및
    상기 송수신기 및 상기 장치를 제어하기 위한 프로세서를 포함하고,
    상기 프로세서는,
    상기 제 1 디바이스의 근접 식별자를 포함하는 제 1 애드버타이징 패킷을 상기 송수신기를 통하여 주기적으로 브로드캐스트하고;
    하나 이상의 제 2 디바이스의 근접 식별자를 포함하는 하나 이상의 제 2 애드버타이징 패킷을 상기 송수신기를 통하여 주기적으로 스캐닝하고; 및
    상기 하나 이상의 제 2 디바이스의 근접 식별자와 진단 키와의 매칭 여부를 결정하거나, 상기 매칭 여부에 대한 정보를 상기 송수신기를 통하여 수신하도록 설정되고,
    상기 제 1 디바이스의 근접 식별자는 소정의 주기에 따라서 변경되는, 장치.
PCT/KR2021/005695 2020-05-08 2021-05-07 무선 통신 시스템에서 로컬 접촉 보안 추적 방법, 장치, 컴퓨터 프로그램 및 그 기록 매체 WO2021225392A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20200054941 2020-05-08
KR10-2020-0054941 2020-05-08

Publications (1)

Publication Number Publication Date
WO2021225392A1 true WO2021225392A1 (ko) 2021-11-11

Family

ID=78468256

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/005695 WO2021225392A1 (ko) 2020-05-08 2021-05-07 무선 통신 시스템에서 로컬 접촉 보안 추적 방법, 장치, 컴퓨터 프로그램 및 그 기록 매체

Country Status (1)

Country Link
WO (1) WO2021225392A1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140304065A1 (en) * 2013-04-03 2014-10-09 DynamicLogic, LLC Tracking On-Line Advertisement Exposure Via Mobile Wireless Device Browsers
KR20180010434A (ko) * 2016-07-21 2018-01-31 (주)인프라칩 사물인터넷을 기반으로 병원내 환자동선 및 접촉자 추적시스템 및 그 제어방법
KR20200047457A (ko) * 2020-03-30 2020-05-07 주식회사 올라운드 전염병 환자 추척 시스템 및 이를 이용한 전염병 환자 추적 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140304065A1 (en) * 2013-04-03 2014-10-09 DynamicLogic, LLC Tracking On-Line Advertisement Exposure Via Mobile Wireless Device Browsers
KR20180010434A (ko) * 2016-07-21 2018-01-31 (주)인프라칩 사물인터넷을 기반으로 병원내 환자동선 및 접촉자 추적시스템 및 그 제어방법
KR20200047457A (ko) * 2020-03-30 2020-05-07 주식회사 올라운드 전염병 환자 추척 시스템 및 이를 이용한 전염병 환자 추적 방법

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ANONYMOUS: "Exposure Notification, Bluetooth Specification, Preliminary — Subject to Modification and Extension, v1.1", GOOGLE, 22 April 2020 (2020-04-22), XP055863315, Retrieved from the Internet <URL:https://www.blog.google/documents/62/Exposure_Notification_-_Bluetooth_Specification_v1.1.pdf/> *
ANONYMOUS: "Exposure Notification, Cryptography Specification, Preliminary — Subject to Modification and Extension, v1.2", GOOGLE, 23 April 2020 (2020-04-23), XP055863313, Retrieved from the Internet <URL:https://blog.google/documents/69/Exposure_Notification_-_Cryptography_Specification_v1.2.1.pdf/> *

Similar Documents

Publication Publication Date Title
WO2021015484A1 (ko) 무선 통신 시스템에서 적응적인 오디오 처리 방법, 장치, 컴퓨터 프로그램 및 그 기록 매체
WO2018048268A1 (ko) 블루투스 기술을 이용하여 디바이스를 연결하기 위한 방법 및 장치
WO2018169380A1 (ko) 블루투스 기술을 이용하여 오디오 신호를 처리하기 위한 방법 및 장치
WO2018038459A1 (ko) 블루투스 기술을 이용하여 디바이스를 제어하기 위한 방법 및 장치
WO2018074892A1 (ko) 블루투스 기술을 이용하여 데이터를 송수신하기 위한 방법 및 장치
WO2018222024A1 (ko) 블루투스 le 기술을 이용하여 디바이스를 연결하기 위한 방법 및 장치
WO2016175638A1 (ko) 블루투스 메쉬 네트워크에서 디바이스의 주소를 할당하기 위한 방법 및 장치
WO2017030232A1 (ko) 데이터 송수신 방법 및 이를 위한 디바이스
WO2020096412A1 (ko) 블루투스 기술을 이용하여 오디오 데이터를 수신하기 위한 방법 및 이에 대한 장치
WO2015163680A1 (ko) 무선 통신 시스템에서 블루투스 저전력 에너지 기술을 이용하여 데이터를 송수신하기 위한 방법 및 장치
WO2021040457A1 (ko) 무선 통신 시스템에서 오디오 처리 방법, 장치, 컴퓨터 프로그램 및 그 기록 매체
WO2020213959A1 (ko) 블루투스 기술을 이용하여 오디오 데이터를 수신하기 위한 방법 및 이에 대한 장치
WO2016175640A1 (ko) 블루투스를 이용한 메쉬 네트워크에서 데이터를 송수신하기 위한 방법 및 장치
WO2020149708A1 (ko) 블루투스 기술을 이용하여 오디오 서비스를 제공하기 위한 방법 및 장치
WO2021091115A1 (ko) Pc5 링크와 uu 링크 사이에서 경로 스위칭
WO2016175575A1 (ko) 블루투스 메쉬 네트워크를 이용하여 데이터를 송수신하기 위한 방법 및 장치
WO2017018604A1 (ko) 블루투스 le(low energy) 기술을 이용하여 대체 통신 수단을 연결하기 위한 방법 및 장치
WO2016175471A1 (ko) 블루투스를 이용한 메쉬 네트워크에서 데이터를 송수신하기 위한 방법 및 장치
WO2021034142A1 (ko) 리모트 ue를 위한 릴레이 ue의 동작 방법
WO2020180168A1 (ko) 블루투스 기술을 이용하여 오디오 데이터를 수신하기 위한 방법 및 이에 대한 장치
WO2021125691A1 (ko) 통신 경로 스위칭
WO2015163547A1 (ko) 무선 통신시스템에서 블루투스를 이용하여 http 데이터를 전송하기 위한 방법 및 장치
WO2021091241A1 (ko) 무선 통신 시스템에서 암호화 키 설정 방법, 장치, 컴퓨터 프로그램 및 그 기록 매체
WO2022124870A1 (ko) 근거리 무선 통신 시스템에서 데이터를 송수신하기 위한 방법 및 이에 대한 장치
WO2019235892A1 (ko) 블루투스 기술을 이용하여 디바이스의 전력을 제어하기 위한 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21799554

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21799554

Country of ref document: EP

Kind code of ref document: A1