WO2021071272A1 - 무선 통신 시스템에서 음향 노출 관리 방법, 장치, 컴퓨터 프로그램 및 그 기록 매체 - Google Patents

무선 통신 시스템에서 음향 노출 관리 방법, 장치, 컴퓨터 프로그램 및 그 기록 매체 Download PDF

Info

Publication number
WO2021071272A1
WO2021071272A1 PCT/KR2020/013719 KR2020013719W WO2021071272A1 WO 2021071272 A1 WO2021071272 A1 WO 2021071272A1 KR 2020013719 W KR2020013719 W KR 2020013719W WO 2021071272 A1 WO2021071272 A1 WO 2021071272A1
Authority
WO
WIPO (PCT)
Prior art keywords
audio
information
volume
sink
level
Prior art date
Application number
PCT/KR2020/013719
Other languages
English (en)
French (fr)
Inventor
이재호
Original Assignee
인텔렉추얼디스커버리 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인텔렉추얼디스커버리 주식회사 filed Critical 인텔렉추얼디스커버리 주식회사
Priority to KR1020227011227A priority Critical patent/KR20220080090A/ko
Priority to US17/767,591 priority patent/US20240078076A1/en
Publication of WO2021071272A1 publication Critical patent/WO2021071272A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/02Terminal devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2420/00Details of connection covered by H04R, not provided for in its groups
    • H04R2420/07Applications of wireless loudspeakers or wireless microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/01Aspects of volume control, not necessarily automatic, in sound systems

Definitions

  • the present disclosure relates to a method, an apparatus, a computer program, and a recording medium thereof for managing acoustic exposure in a wireless communication system.
  • Bluetooth is a short-range wireless communication standard and includes Basic Rate (BR)/Enhanced Data Rate (EDR) technology and Low Energy (LE) technology.
  • BR/EDR is also called Bluetooth classic, and includes BR technology applied from Bluetooth 1.0 and EDR technology applied from Bluetooth 2.0.
  • Bluetooth LE (BLE) applied after Bluetooth 4.0 is a technology that supports transmission and reception of relatively large data with low power.
  • the Bluetooth standard includes various profiles.
  • HFP Heands-Free Profile
  • AG audio gateway
  • A2DP Advance Audio Distribution Profile
  • A2DP defines what is necessary for one device to function as an audio source such as a music player and another device to function as an audio sink such as a speaker.
  • An object of the present disclosure is to provide a method and apparatus for managing acoustic exposure in a wireless communication system.
  • An additional technical problem of the present disclosure is to provide a method and apparatus for setting a volume based on information related to a sound pressure level of another device in a wireless communication system or adjusting the volume based on a volume setting by another device.
  • An additional technical problem of the present disclosure is to provide a method and apparatus for calculating and managing cumulative exposure amounts in one or more source devices or one or more sink devices in a wireless communication system.
  • a method of performing volume level reporting in a wireless communication system includes: reporting first information related to a sound pressure level (SPL) of a second device to a first device; Receiving, by the second device, second information including a volume setting from the first device; And adjusting, by the second device, a volume of the second device based on the first information and the second information.
  • SPL sound pressure level
  • An apparatus for performing volume level reporting in a wireless communication system comprising: a transceiver for transmitting and receiving signals with other apparatuses; And a processor for controlling the transceiver and the device, wherein the processor reports first information related to the sound pressure level (SPL) of the device to the other device through the transceiver; Receiving second information including a volume setting from the other device through the transceiver; It may be set to adjust the volume of the device based on the first information and the second information.
  • SPL sound pressure level
  • a method and apparatus for managing acoustic exposure in a wireless communication system may be provided.
  • a method, a method, and an apparatus for setting a volume based on information related to a sound pressure level of another device in a wireless communication system or adjusting a volume based on a volume setting by another device may be provided.
  • a method, method, and apparatus for calculating and managing an accumulated exposure amount in one or more source devices or one or more sink devices in a wireless communication system may be provided.
  • FIG. 1 is a diagram illustrating a conventional audio connection type and an audio connection type to which the present disclosure is applicable.
  • FIG. 2 is a diagram illustrating a conventional audio-related protocol stack and an audio-related protocol stack to which the present disclosure is applicable.
  • FIG. 3 shows examples of 5.1 channel surround system hardware to which the present disclosure is applicable.
  • FIG. 4 is a diagram illustrating an audio data encoding/decoding process to which the present disclosure is applicable.
  • FIG. 5 is a diagram illustrating an example of channel allocation for two devices to which the present disclosure is applicable.
  • FIG. 6 is a diagram illustrating a synchronization delay of two streams to which the present disclosure is applicable.
  • FIG. 7 is a diagram for describing a broadcast operation for a plurality of devices to which the present disclosure is applicable.
  • FIG 8 and 9 are diagrams for explaining an operation of an ICL type and an INCL type to which the present disclosure is applicable.
  • FIG. 10 is a diagram illustrating a broadcast audio stream state machine to which the present disclosure is applicable.
  • FIG. 11 is a diagram illustrating an audio setup procedure to which the present disclosure is applicable.
  • FIG. 12 is a diagram illustrating a link layer state machine to which the present disclosure is applicable.
  • FIG. 13 is a diagram illustrating an example of an audio topology to which the present disclosure is applicable.
  • 14 to 16 are diagrams illustrating a message exchange process between a server and a client to which the present disclosure can be applied.
  • 17 is a diagram illustrating a state machine for a call service to which the present disclosure is applicable.
  • FIG. 18 is a diagram illustrating a packet format for each layer to which the present disclosure is applicable.
  • 19 is a diagram illustrating examples of a data unit format to which the present disclosure is applicable.
  • FIG. 20 is a diagram illustrating examples of an advertisement unit format to which the present disclosure is applicable.
  • 21 is a diagram illustrating an example of a sound level and an exposure time to which the present disclosure is applicable.
  • FIG. 22 is a diagram illustrating a relationship between an exposure time and a sound pressure level to which the present disclosure is applicable.
  • FIG. 23 is a diagram illustrating a relationship between a plurality of devices to which the present disclosure is applicable.
  • 24 is a diagram for describing a definition of an entity to which the present disclosure is applicable.
  • 25 is a diagram for describing an example of calculating an exposure amount to which the present disclosure is applicable.
  • 26 is a diagram for describing a method of managing a cumulative exposure amount using a cloud server to which the present disclosure is applicable.
  • FIG. 27 is a diagram for describing an example of a method for reporting a volume level to which the present disclosure is applicable.
  • FIG. 28 is a diagram for describing an additional example of a method for reporting a volume level to which the present disclosure is applicable.
  • 29 is a diagram for describing an additional example of a method for reporting a volume level to which the present disclosure is applicable.
  • FIG. 30 is a diagram for describing an example of a source change procedure to which the present disclosure is applicable.
  • 31 is a diagram for explaining an additional example of a source change procedure to which the present disclosure is applicable.
  • FIG. 32 is a diagram illustrating configurations of a first device and a second device to which the present disclosure can be applied.
  • a component when a component is “connected”, “coupled” or “connected” with another component, it is not only a direct connection relationship, but also an indirect connection relationship in which another component exists in the middle. It can also include.
  • the term “comprises” or “have” specifies the presence of the recited feature, step, action, element and/or component, but one or more other features, steps, actions, elements, components and/or It does not exclude the presence or addition of groups of these.
  • first and second are used only for the purpose of distinguishing one component from other components, and are not used to limit components, unless otherwise noted, components The order or importance between them is not limited. Accordingly, within the scope of the present disclosure, a first component in one embodiment may be referred to as a second component in another embodiment, and similarly, a second component in one embodiment is referred to as a first component in another embodiment. It can also be called.
  • components that are distinguished from each other are intended to clearly describe each feature, and do not necessarily mean that the components are separated. That is, a plurality of components may be integrated into one hardware or software unit, or one component may be distributed to form a plurality of hardware or software units. Therefore, even if not stated otherwise, such integrated or distributed embodiments are also included in the scope of the present disclosure.
  • An audio sink is an entity that receives audio data from an audio source.
  • An audio source is an entity that transmits audio data to an audio sink.
  • An audio channel is a single flow of encoded or uncoded audio data.
  • An audio stream is a unidirectional logical communication channel that carries audio data flowing from an audio source to an audio sink. Audio data can flow over an audio stream session (ASS). The audio stream can carry audio data for one or more audio channels.
  • ASS audio stream session
  • An audio group may include one or more synchronized audio streams.
  • the content type represents the classification of the content of the audio group.
  • the classification may include whether the audio was initiated by the user.
  • Examples of the content type may include AbsolutAudio, Ringtone, SystemSound, Satellite Navigation, CallAudio, Media, and the like.
  • Metadata is data of variable length that provides and describes the context of audio data. Metadata can be defined for higher layers.
  • An audio stream session refers to a one-way or two-way delivery/exchange process of an audio stream.
  • the endpoint of the ASS corresponds to an audio input and/or audio output of an audio stream session, and may correspond to one device or a group of devices.
  • the end of the ASS resides on the server and can be configured by the server or by the client.
  • the server can store, change and manage the ASS state.
  • QoS Quality of Service
  • Audio location means an intended logical spatial rendering location for an audio channel within a spatial arrangement of a device that renders audio.
  • the left and right positions of the headset may correspond to the audio location.
  • An audio location may be assigned to an audio channel.
  • CBIS Connection Based Isochronous Stream
  • One-way CBIS may have one audio stream
  • a bidirectional CBIS may have two audio streams.
  • CBISS Connection Based Isochronous Stream Set
  • An audio scene application refers to an audio group that performs a specific content type.
  • ASC Audio Steam Capability
  • Audio Advertisement is intended to discover the availability of ASA participation.
  • An audio general advertisement is an untargeted audio notification, and an audio directed advertisement is an audio notification for a specific target.
  • Isochronous data refers to data limited by time.
  • the isochronous data may be time-dependent audio, such as television audio that needs to be synchronized for an image of a video, or audio that needs to be played back in synchronization in multiple devices constituting a multi-channel.
  • An isochronous channel refers to a logical transmission unit used to transmit isochronous data from a transmitting device to one or more receiving devices.
  • An isochronous stream refers to a logical link carrying one or more isochronous channels.
  • FIG. 1 is a diagram illustrating a conventional audio connection type and an audio connection type to which the present disclosure is applicable.
  • BR/EDR supports one-to-one connection.
  • One device eg, a smartphone
  • a service such as a phone call through a headset or music playback through a speaker may be supported.
  • the center of the service in this connection type is an audio source, and an audio sink such as a headset, a speaker, and Audio Video Navigation (AVN) can operate as a peripheral device of the audio source.
  • APN Audio Video Navigation
  • FIG. 1(b) shows an example of a BLE audio connection type.
  • BLE many-to-many connections can be supported.
  • a plurality of central devices such as TVs, smartphones, and gateways may exist, and a complex M-to-N connection may be configured.
  • services of phone calls and music playback through a headset may be supported, and broadcast audio services such as alarms, doorbells, and advertising voices may be supported.
  • the center of the service in this connection type is an audio sink, and an audio service can be used by moving a plurality of audio sources.
  • FIG. 2 is a diagram illustrating a conventional audio-related protocol stack and an audio-related protocol stack to which the present disclosure is applicable.
  • the L2CAP Logical Link Control & Adaption Protocol
  • the L2CAP Logical Link Control & Adaption Protocol
  • the upper layer includes protocols such as RFCOMM (Radio Frequency Communication), AVDTP (Audio/Video Distribution Transport Protocol), AVCTP (Audio/Video Control Transport Protocol), and HFP (Hands Free Profile), A2DP (Advanced Audio Distribution Profile), and AVRCP. Profiles such as (Audio/Video Remote Control Profile) may be included.
  • the lower layer may include the MAC/PHY layer.
  • the medium access control (MAC) layer may include a link manager and a link controller
  • the physical (PHY) layer may include a BR/EDR radio
  • Synchronous Connection Oriented (SCO)/extended SCO (eSCO) may provide a synchronous data communication path for voice.
  • SCO Synchronous Connection Oriented
  • eSCO Extended SCO
  • a protocol stack may be designed for each profile.
  • the L2CAP layer, BR/EDR protocol, Generic Access Profile (GAP), and BR/EDR profile layer can be collectively referred to as the host layer, and the link manager, link controller, and BR/EDR radio layer are the controllers. It can be called the (controller) layer.
  • the interface between the host and the controller is called HCI (Host Controller Interface).
  • a common protocol stack for various profiles can be designed.
  • This common protocol stack can be referred to as middleware.
  • middleware For example, for various profiles such as hearing aids, high quality audio/music, voice recognition, and call/media, a common protocol is used in the form of middleware.
  • the middleware may include protocols such as device discovery, stream control (or stream management), codec, and legacy management.
  • the core layer may include a link layer (LL), LE radio (i.e., PHY layer), and the LL includes multicast support isochronous channel-related functions defined from Bluetooth 5. I can.
  • the profile and middleware may be referred to as a host layer
  • the core layer may be referred to as a controller layer
  • HCI may be defined between the host and the controller.
  • the host includes a LE profile, a generic access profile (GAP), a generic attribute profile (GATT), an attribute (ATT) protocol, and a security manager (SM).
  • GAP generic access profile
  • GATT generic attribute profile
  • ATT attribute protocol
  • SM security manager
  • HCI command packet Information transmitted from the host to the controller may be referred to as an HCI command packet.
  • Information transmitted from the controller to the host may be referred to as an HCI event packet.
  • HCI asynchronous data packets or HCI synchronous data packets may be exchanged between the host and the controller.
  • the middleware may include various profiles and/or services as follows:
  • Audio Session Capability Service (ASCS): The Audio Session Capability Service (ASCS) is a service that supports notification or discovery of capabilities related to an audio session;
  • Audio Stream Session Service An audio stream session service (ASSS) is a service that supports discovery, setup, establishment, control, and management related to audio sessions;
  • AIMS Audio Input Management Service
  • ARS Audio Routing Service
  • Audio Middleware Profile (AMP): a basic profile for an operation in which a device distributes audio;
  • CMP Call Management Profile
  • AMP Audio General Middleware Profile
  • Group Identification Service A service for discovery of devices belonging to a group.
  • Group Identification Service or Group Identification Profile (GIP) may enable devices to be discovered as part of a group.
  • a group is defined as a group of devices that work together to support a specific scenario, and these devices can be referred to as group members.
  • a group of devices that respond together to control commands such as a pair of hearing aids, a pair of earbuds, or a set of speakers that receive multichannel (e.g., 5.1CH) audio. May be an example;
  • Audio Player Management Profile a profile that supports control or interaction of an audio player
  • Audio Player Management Service a service that supports control or interaction of an audio player
  • Microphone Management Profile a profile for microphone state management
  • Microphone Management Service a service that supports an interface and status for microphone status management
  • QSDS Quick Service Discovery Service
  • Call Bearer Service a service that supports management of a call interface and a call state for a bearer on a device
  • Volume Management Profile a profile supporting audio volume management of a device
  • Volume Management Service a service that supports the audio volume interface and state of the device
  • Volume Offset Management Service A service for volume management for audio output.
  • FIG. 3 shows examples of 5.1 channel surround system hardware to which the present disclosure is applicable.
  • the LE audio source device may perform the function of an initiator, and the LE audio sink device may perform the function of an acceptor.
  • the initiator refers to a device that initiates the audio session
  • the acceptor refers to a device that accepts the start of the audio session.
  • the source is not always the initiator or the sink is not always the receiver, and the source may be the receiver or the sink may be the initiator.
  • the audio source may be a TV device, and the audio sink may be a speaker device.
  • the audio source may transmit audio data to the audio sink.
  • the audio source may receive feedback data from an audio sink.
  • a plurality of audio syncs are audio corresponding to one of 5.1 channels, ie, FL (Front Left), FR (Front Right), RL (Rear Left), RR (Rear Right), C (Center), and W (Woofer). It can receive data and output it through a speaker.
  • An audio encoder or decoder may support various audio formats.
  • the audio format may include Bluetooth Low Energy Audio Codec (BLEAC), Dolby 5.1CH, Digital Surround Sound (DTS), and the like, and characteristics of each format are as follows.
  • BLEAC is a mono codec, and the 96kbps transmission rate of BLEAC can provide quality equivalent to 256kbps of Sub-Band Codec (SBC) and 200kbps of MP3.
  • Dolby 5.1CH supports a 48 kHz sampling rate, supports 1 to 5.1 (or 1 to 6) channels, and can support a maximum transmission rate of 448 kbps.
  • the DTS supports a 48 kHz or 96 kHz sampling rate, supports 2 to 6.1 channels, and can support a transmission rate of 768 kbps half rate and 1,536 kbps full rate.
  • FIG. 4 is a diagram illustrating an audio data encoding/decoding process to which the present disclosure is applicable.
  • a DTS format stream or a Dolby 5.1CH format stream is input to a DTS decoder or a Dolby 5.1CH decoder of a transmitter (Tx) to be output as an audio signal in a pulse-code modulation (PCM) format.
  • the PCM signal may be input to a BLEAC encoder and output as an audio signal in a BLEAC format.
  • optional vendor-specific information may be added.
  • the BLEAC signal may be transmitted to the BLE interface of the receiver Rx through the BLE interface.
  • the receiving end may process a BLEAC signal through a BLEAC decoder and convert it into a signal that can be output through a speaker.
  • a plurality of streams may be delivered from a transmitting end to a plurality of receiving ends.
  • each of the plurality of streams may include an audio signal corresponding to one channel of 5.1CH.
  • These multiple streams may have different times of reception at the multiple receivers, but have isochronous properties that require play or rendering at the same time, and these streams are referred to as CBIS (Connection Based Isochronous Streams).
  • CBIS Connection Based Isochronous Streams
  • One or more audio streams may correspond to CBIS, and audio groups may correspond to CBISS.
  • one audio stream may correspond to one CBIS, and two or more audio streams may correspond to one CBIS.
  • a plurality of CBISs may be included in one audio group or CBISS.
  • FIG. 5 is a diagram illustrating an example of channel allocation for two devices to which the present disclosure is applicable.
  • the receiving end may start receiving the stream according to the timing information provided by the transmitting end.
  • the timing information may indicate a time point after a predetermined offset from the time point at which the data unit including the timing information is transmitted.
  • the receiving end may receive audio data corresponding to one or more channels included in the stream.
  • a plurality of channels included in one stream may be allocated to a plurality of receivers, respectively.
  • a plurality of channels (or a plurality of audio data) included in one stream may be transmitted in a time division multiplexing (TDM) method.
  • TDM time division multiplexing
  • audio data of a first channel may be transmitted at a first timing
  • audio data of a second channel may be transmitted at a second timing.
  • the broadcast receiving end may detect a currently obtainable broadcast audio stream, a stream offset value, a stream interval value, and the like using information included in a data unit periodically advertised from the transmitting end.
  • an isochronous channel may be transmitted and received (eg, in a broadcast method) without a connection between a source device and a sink device.
  • BSG Broadcast Synch Group
  • PDU Protocol Data Unit
  • the receiving end can check the INCL stream offset or BSG offset, and determine the anchor point timing.
  • INCL stream transmission may start from the anchor point.
  • the timing difference between two consecutive anchor points may be defined as an interval (eg, INCL CH1 interval or ISO interval of FIG. 5).
  • One or more sub events may be included in the stream transmission event.
  • one audio stream may include audio data for two channels.
  • the first channel CH1 may be allocated to the first device (device #1), and the second channel CH2 may be allocated to the second device (device #2).
  • CH1 included in the INCL stream may be transmitted to device #1 at one or more timings after the anchor point, and then CH2 may be transmitted to device #2 at one or more timings.
  • the INCL stream event may include an event for CH1 and an event for CH2.
  • the event for CH1 may include two sub-events.
  • the event for CH2 may include two sub-events.
  • the timing difference between sub-events may be defined as a sub-event interval.
  • Isochronous audio data may have a limited lifetime. That is, audio data may be invalidated after a predetermined time has expired.
  • a predetermined timeout value may be defined in an ICL channel, and isochronous audio data transmitted to a plurality of devices may be discarded after the predetermined timeout value expires.
  • the timeout may be expressed as the number of sub-events.
  • FIG. 6 is a diagram illustrating a synchronization delay of two streams to which the present disclosure is applicable.
  • a plurality of streams are included in one audio group, and the plurality of streams have isochronous properties that are required to be reproduced simultaneously.
  • a plurality of streams may be transmitted from one device or from different devices. Also, a plurality of streams may be received by one device or by different devices.
  • a plurality of streams may be transmitted in a TDM method on different time resources (or timings) according to a predetermined order.
  • a difference occurs in transmission timing of a plurality of streams, and accordingly, a difference may occur in reception timing of a plurality of streams.
  • the stream received first cannot be reproduced first, and may be reproduced after waiting until the last stream is received. That is, a synchronization delay may occur until the timing at which all streams are received is completed.
  • the first stream (CBIS#1) and the second stream (CBIS#2) are required to be reproduced at the same time, and may be included in one CBISS.
  • the CBISS anchor point is the same as the anchor point of CBIS#1, and after CBIS#1 audio data is transmitted, CBIS#1 audio data subsequent to a time point (e.g., T1) after the CBIS#1 interval may be transmitted.
  • CBIS#2 audio data is transmitted at the anchor point of CBIS#2
  • CBIS#2 audio data subsequent to a time point (eg, T2) after the CBIS#2 interval may be transmitted.
  • the synchronization delay of the CBISS may be defined as a time interval until the reception completion point T2 of CBIS#2 received relatively late from the CBISS.
  • a later point of the reception completion time (T1) of CBIS#1 and the reception completion time (T2) of CBIS#2 may be determined as the synchronization delay of the CBISS. That is, from among the synchronization delays of a plurality of streams, a later completion time of reception may be determined as the synchronization delay of the CBISS.
  • the first received stream CBIS#1 may wait until transmission of the received stream CBIS#2 information is completed and then be played back.
  • the transmitting end Tx may inform the receiving end Rx of an expected delay value calculated in consideration of the number of CBISs, CBIS events, sub-events, and intervals. For example, the transmitting end may inform the receiving end of the expected delay value when setting the channel.
  • the receiving end can inform the transmitting end of the actual delay value.
  • the receiver cannot inform the transmitter of the actual delay value. Even if the delay value can be notified from the receiving end to the transmitting end, the transmitting end cannot control the playback timing of a specific device in order to synchronize the plurality of devices.
  • the transmitter may receive feedback from the receiver and control synchronization. . Through the feedback, the receiving end can inform the transmitting end of its own delay information.
  • FIG. 7 is a diagram for describing a broadcast operation for a plurality of devices to which the present disclosure is applicable.
  • the audio source device may calculate a synchronization delay value for simultaneous playback of isochronous streams and transmit it to a plurality of audio sink devices.
  • Each of the sink devices may determine the playback timing based on the delay value provided from the source device. That is, since the source device cannot accurately know the time it takes for the sink device to receive and process audio data, the sink device may provide the delay value as basic information for determining the playback timing.
  • the sink device may determine a playback timing and reproduce audio data according to its own device characteristics.
  • a source device e.g., TV
  • the sink device e.g., a speaker
  • the sink device may adjust the playback or rendering timing of audio data by reflecting the received delay value. Since device characteristics are different for each sink device manufacturer, the actual playback timing can be determined by the sink device.
  • the sink device may calculate a delay value and transmit the information to the source device. Accordingly, the source device may determine the transmission timing based on the delay value provided from the sink device.
  • a feedback channel through which a sink device (eg, a speaker) can transmit information to a source device may be formed.
  • a sink device eg, a speaker
  • a source device eg, a TV
  • the sink device may calculate a rendering delay value and transmit it to the source device through a feedback channel. Accordingly, the source device may adjust the transmission time of audio data by reflecting the delay value provided from the sink device.
  • an isochronous stream operation in the case of a TV as a transmitting end and a first speaker (speaker #1) and a second speaker (speaker #2), which are two receiving ends, is illustrated by way of example.
  • the first speaker may be assigned a first stream/channel (eg, an RR channel among 5.1CH), and the second speaker may be assigned a second stream/channel (eg, an RL channel among 5.1CH).
  • Each of the first and second speakers may transmit an audio general advertisement or an audio directed advertisement. At least one of the TV and the first speaker or the second speaker may or may not be connected to each other.
  • the speaker can calculate the rendering delay value and report it to the TV. If the TV and the speaker are not connected, the TV can calculate the transmission delay and the rendering delay value and deliver it to the speaker.
  • the TV may perform a synchronization task in consideration of content characteristics, audio/video synchronization (A/V synch), and codec characteristics, and apply a forcibly delay to a specific audio stream.
  • A/V synch audio/video synchronization
  • codec characteristics For example, since the audio codec encoding/decoding delay differs by 40 ms in the case of BLEAC, 200 ms in the case of SBC, and 100 ms in the case of APT-X, the delay value may be determined according to the codec characteristics.
  • a delay value may be determined in consideration of this.
  • a delay value may be determined in consideration of a difference between a media clock and a clock of the BLE interface. The media clock can be checked through A/V time scale information.
  • the delay value may be determined in consideration of audio/video signal processing time defined in various broadcasting standards.
  • the time interval between audio-video-audio is 15 ms and 45 ms in Advanced Television Systems Committee (ATSC), 125 ms and 45 ms in ITU-R BT.1359-1, and in Society of Motion Picture and Television Engineers (SMPTE). It is defined as 22ms and 22ms, and a delay value can be determined in consideration of these time intervals.
  • ATSC Advanced Television Systems Committee
  • SMPTE Society of Motion Picture and Television Engineers
  • the TV sets the rendering delay value of each stream and informs the speaker to the speaker, or determines the transmission timing of the stream based on the delay value provided from the speaker.
  • the TV may transmit a stream to the speaker. That is, the source device or the TV serving as the transmitting end may exchange a delay value with the sink device or the speaker(s) serving as the receiving end, and reflect the delay value to achieve synchronization.
  • FIG 8 and 9 are diagrams for explaining an operation of an ICL type and an INCL type to which the present disclosure is applicable.
  • Channels for audio transmission in BLE can be classified into an ICL type and an INCL type. Both the ICL channel and the INCL channel may transmit audio data to a plurality of devices and/or a plurality of profiles using a stream identifier (Stream ID) and a channel identifier (Channel ID). According to the ICL type and the INCL type, what operation should be performed on the BLE channel for audio data transmission may be determined.
  • Stream ID stream identifier
  • Channel ID channel identifier
  • ICL channels correspond to a connection-based use case that supports unidirectional or bidirectional communication through a point-to-point physical link between one source device and one sink device.
  • INCL channels correspond to a broadcast use case that supports only unidirectional communication through a point-to-multipoint physical link between one source device and one or more sink devices.
  • the protocol stack of the device may include a profile layer, a channel manager layer, a host layer, and a controller layer in the order of an upper layer to a lower layer. Data may be transferred between the profile layer and the channel manager layer in units of channels, and data may be transferred between the channel manager layer and the host layer in units of streams.
  • the slaves may provide feedback information to the master (M). For example, when S1 is a wireless earphone mounted on the right ear and S2 is a wireless earphone mounted on the left ear, it is possible to listen to music transmitted by the master M in stereo through S1 and S2.
  • the master (M) may include two profiles (profile #1 and profile #2).
  • the first slave S1 may include profile #1
  • the second slave S2 may include profile #1 and profile #2.
  • Profile #1 Channel ID 1 and Channel ID 2 are broadcast from the master (M) through one stream, Stream ID 1, and the slaves (S1, S2) set Channel ID 1 and Channel ID respectively in Profile #1.
  • Receiving is similar to FIG. 8.
  • profile #2 Channel ID 1 may be broadcast from the master (M) through Stream ID 2, and the second slave (S2) may receive Channel ID 1 in profile #2.
  • FIG. 10 is a diagram illustrating a broadcast audio stream state machine to which the present disclosure is applicable.
  • Control of the broadcast audio stream may be described as a broadcast audio stream state machine and a state transition at the broadcast transmitting end.
  • the broadcast audio stream state machine allows the broadcast transmitter to not communicate with a broadcast receiver (or broadcast discovery client), or communicate with one or more broadcast receivers (or broadcast discovery clients) in a one-way manner without a connection.
  • the broadcast transmitter may communicate using broadcast audio advertisement in the form of a BASS (Broadcast Audio Source Session).
  • BASS Broadcast Audio Source Session
  • the broadcast audio stream can be transmitted by the broadcast transmitter.
  • the AUDIO STANDBY state means a state in which broadcast audio streams are not transmitted.
  • the AUDIO CONFIGURED state refers to a state in which the broadcast receiver (or broadcast discovery initiator) starts advertising information to detect an audio stream through a periodic advertising event.
  • the periodic advertising event may include delivering advertisement metadata, stream configuration, synchronization information, and the like. In this state, no audio data packet is transmitted from the broadcast transmitter.
  • the AUDIO STREAMING state means a state in which a broadcast audio stream is enabled in a broadcast transmitter and an audio data packet can be transmitted.
  • the broadcast transmitter may continuously perform metadata advertisement through periodic advertising while transmitting the broadcast audio stream.
  • the AUDIO STANDBY state when the stream is configured (configure stream), it transitions to the AUDIO CONFIGURED state, and when the stream is released in the AUDIO CONFIGURED state, it transitions to the AUDIO STANDBY state. If the stream is enabled in the AUDIO CONFIGURED state, it transitions to the AUDIO STREAMING state. If the stream is disabled in the AUDIO STREAMING state, it transitions to the AUDIO CONFIGURED state.
  • a reconfigure stream occurs in the AUDIO CONFIGURED state, it can transition to the AUDIO CONFIGURED state. If content reassignment occurs in the AUDIO STREAMING state, the transition to the AUDIO STREAMING state is possible.
  • FIG. 11 is a diagram illustrating an audio setup procedure to which the present disclosure is applicable.
  • the state transitions to the AUDIO STANDBY state, and if there is a discovery result, the discovery for Audio Stream Capability (ASC) may be performed and the transition to the AUDIO STANDBY state.
  • ASC Audio Stream Capability
  • ASS Audio Stream Session
  • AUDIO CONFIGURED When ASS (Audio Stream Session) setting occurs, it can transition to the AUDIO CONFIGURED state. If ASS is released in the AUDIO CONFIGURED state, it can transition to the AUDIO STANDBY state. When reconfiguration occurs in the AUDIO CONFIGURED state, the transition to the AUDIO CONFIGURED state through ASS setting is possible.
  • ASS Audio Stream Session
  • ASS When ASS is activated, it can transition to the AUDIO STREAMING state. If ASS deactivation occurs in the AUDIO STREAMING state, it can transition to the AUDIO CONFIGURED state. If content reallocation occurs in the AUDIO STREAMING state, it can transition to the AUDIO STREAMING state.
  • FIG. 12 is a diagram illustrating a link layer state machine to which the present disclosure is applicable.
  • the operation of the link layer may be expressed in a state of Standby, Advertising, Scanning, Initiating, Connection, Synchronized (synchronization), and Streaming (Isochronous Broadcasting) (from an isochronous channel perspective).
  • the standby state corresponds to the standby state before transitioning to another state.
  • the LL may operate as an advertiser that transmits an advertising packet.
  • the device can operate as a slave.
  • the LL can operate as an initiator that listens to a packet from another advertiser and initiates a connection in response to the packet.
  • the device can operate as a master.
  • the LL can act as a scanner that can listen to packets from other advertisers and request additional information.
  • the Synchronized state may mean a state in which an audio stream can be received or received by being synchronized with another device.
  • the streaming state may mean a state in which an audio stream is transmitted to another synchronized device.
  • FIG. 13 is a diagram illustrating an example of an audio topology to which the present disclosure is applicable.
  • one-way or two-way audio stream can be supported.
  • Unicast audio data transmission and reception based on a connection between a headset and a smartphone may be performed, and unicast audio data transmission and reception based on a connection between a headset and a smartphone and a connection between a headset and a tablet may be performed.
  • the server of the unicast audio service may be a headphone
  • the client may be a smartphone or a tablet.
  • headphones may correspond to audio sinks
  • smartphones and tablets may correspond to audio sources.
  • an announcement system, doorbell, TV, etc. may transmit audio data in a broadcast manner, and broadcast audio data may be received by one or more devices.
  • the server of the broadcast audio service may be a notification system, a doorbell, a TV, and the like
  • the client may be a headphone.
  • headphones may correspond to audio sinks
  • notification systems, doorbells, and TVs may correspond to audio sources.
  • 14 to 16 are diagrams illustrating a message exchange process between a server and a client to which the present disclosure can be applied.
  • a client may be an audio source and a server may be an audio sink.
  • the client may be the audio sink and the server may be the audio source.
  • the client requests capacity discovery by sending an ASC discovery request message from the server, and in response, the server sends an ASC discovery response message to the client. You can transmit detailed information of the capability.
  • the server sends an ASC update indication message to the client to inform that the capability update has occurred, and the client sends an ASC update confirmation message to the server. It can be sent to notify that a capability update is to be performed. Subsequently, an audio session capability discovery procedure or an ASC discovery procedure may be performed.
  • the format of the message used in the example of FIG. 14 may be defined as shown in Table 1 below.
  • the ASC update instruction message and the ASC update confirmation message may each include information indicating that ASC discovery is required and confirmation information therefor.
  • 15 exemplarily shows a procedure for establishing a unicast audio stream and a procedure for establishing a unicast audio stream.
  • the client transmits a Codec configuration request message to the server in the AUDIO STANDBY state to determine what codec requests the setting, etc. I can tell.
  • the server may transmit a codec configuration response message to the client to inform the server of QoS and rendering delay values supported by the server.
  • the client may transmit a QoS negotiation request message to the server to specify a specific audio stream session (ASS), an audio group, and an audio stream to inform the QoS and rendering delay values supported by the client.
  • the server may transmit a QoS negotiation response message to the client. Accordingly, the bandwidth (BW), bitrate, etc. between the client and the server may be determined by negotiation, and the client and the server may transition to the CONFIGURED state.
  • the client can notify the information on the ASS requesting activation by sending an ASS activation request message to the server in the AUDIO CONFIGURED state. have.
  • the server may inform the client of which ASS to activate by sending an ASS enable response message.
  • CBIS can be established by setting the connection-based isochronous link parameter in the client, and the client and the server setting the connection-based isochronous stream connection and related parameters.
  • the client When the client is an audio sink and the server is an audio source, the client prepares to play audio data (e.g., buffer/memory, codec, audio application data readiness check, etc.), and ASS reception preparation command (ASS Rx ready command) You can notify this by sending a message to the server. Accordingly, the server prepares to provide audio data (e.g., buffer/memory, codec, audio application data preparation confirmation, etc.), and sends an ASS Rx ready notification message to the client to notify this. I can.
  • the server When the client is an audio source and the server is an audio sink, the server prepares to play audio data and transmits an ASS Rx ready indication message to the client, and the client receives the ASS reception readiness indication message. After that, you can prepare to provide the audio data. Accordingly, the client and the server can transition to the AUDIO STREAMING state.
  • the format of the message used in the example of FIG. 15 may be defined as shown in Table 2 below.
  • 16 exemplarily shows a procedure for a client to deactivate an audio stream and a procedure for a server to deactivate an audio stream.
  • ASS deactivation request (disable request) message can be transmitted to the server.
  • the server may stop streaming audio data and transmit an ASS disable response message to the client.
  • the client may stop encoding the audio data and stop the operation of the audio application.
  • the client when the client is an audio sink and the server is an audio source, the client may stop streaming audio data and transmit an ASS deactivation request message to the server. Accordingly, the server may stop encoding the audio data and the operation of the audio application, and transmit an ASS deactivation response message to the client.
  • the client and server may perform connection-based isochronous stream release and related parameter setting release.
  • device information may be stored in the client and/or the server together with parameters related to the isochronous stream connection. Accordingly, the client can cancel the connection-based isochronous link-related parameter setting. Accordingly, the client and server can transition to the AUDIO CONFIGURED state.
  • the server in the procedure in which the server disable audio streams, when the server is an audio source and the client is an audio sink, when the server decides to stop audio in the AUDIO STREAMING state, ASS It is possible to transmit a disable indication message to the client. Accordingly, the client may stop streaming audio data and may or may not send an ASS disable confirmation message to the server. The server may stop encoding the audio data and stop the audio application operation even if it receives or does not receive an ASS deactivation response.
  • the server when the server is an audio sink and the client is an audio source, the server may stop streaming audio data and transmit an ASS deactivation instruction message to the client. Accordingly, the client may stop encoding audio data and operation of the audio application, and may or may not transmit an ASS deactivation confirmation message to the server.
  • the client and server may perform connection-based isochronous stream release and related parameter setting release.
  • device information may be stored in the client and/or the server together with parameters related to the isochronous stream connection. Accordingly, the client can cancel the connection-based isochronous link-related parameter setting. Accordingly, the client and server can transition to the AUDIO CONFIGURED state.
  • the format of the message used in the example of FIG. 16 may be defined as shown in Table 3 below.
  • Table 4 exemplarily shows content reassignment request/response, ASS release request/response, general advertisement, and directed advertisement message formats.
  • 17 is a diagram illustrating a state machine for a call service to which the present disclosure is applicable.
  • incoming call in AUDIO STANDBY state it can transition to CALL ACCEPTING state.
  • CALL ACCEPTING state In the case of accepting a call from the CALL ACCEPTING state, it can transition to the CALL ACTIVE state.
  • rejecting a call in the CALL ACCEPTING state it can transition to the AUDIO STANDBY state.
  • CALL HELD state In the case of a hold that cannot receive a call in the CALL ACCEPTING state, it can transition to the CALL HELD state, and when the hold is released from the CALL HELD state, it can transition to the CALL ACTIVE state.
  • terminating from the CALL HELD state or CALL ACTIVE state it can transition to the AUDIO STANDBY state.
  • the transition to the CALL INITIATING state is possible.
  • it can transition to the CALL ACTIVE state. If it is terminated in the CALL INITIATING state, it can transition to the AUDIO STANDBY state.
  • audio data that needs to be transferred to the headset in the AUDIO STANDBY state may occur.
  • audio data may be transmitted to the headset when a sound is notified of a reaction when dialing a phone number.
  • radio access technologies e.g., 2G, 3G, 4G, 5G, Wi-Fi, GSM, CDMA, WCDMA, etc.
  • a bearer technology field having a size of 1 octet may be defined. This may be related to the above-described call bearer service.
  • a plurality of lines may exist, and a state machine as shown in FIG. 17 may be maintained for each line. For example, when the second line transitions from the AUDIO STANDBY state to the CALL ACCEPTING state while the first line is in the CALL ACTIVE state, the first or second line may be transitioned to the CALL HELD state according to the user's control.
  • Each logical link is associated with a logical transport, which can have various characteristics. These characteristics may include flow control, acknowledgment/repeat mechanisms, sequence numbering and scheduling operations, and the like.
  • a logical transport can carry various types of logical links depending on its type. Multiple logical links may be multiplexed on the same single logical transport. Logical transports can be carried by physical links on specific channels.
  • Logical transport identification information and real-time (link control) signaling may be included in the packet header, and specific logical link identification information may be included in the header of the payload.
  • Table 5 below exemplarily shows a description of a logical transport type, a supported logical link type, a supported physical link and physical channel type, and a logical transport.
  • FIG. 18 is a diagram illustrating a packet format for each layer to which the present disclosure is applicable.
  • the LL packet format may include a preamble, an access address (or access code), a PDU, and a Cyclic Redundancy Code (CRC) field.
  • the preamble has a size of 1 octet, can be used for frequency synchronization, symbol timing estimation, automatic gain control (AGC) training, etc. at the receiving side, and can be configured with a predetermined bit sequence.
  • the access address has a size of 4 octets and can be used as a correlation code for a physical channel.
  • the PDU can be defined as 2 to 39 octets in size in Bluetooth 4.0 version, and 2 to 257 octets in size in 4.2 version.
  • the CRC may include a value calculated as a 24-bit checksum for the PDU.
  • PDU can be defined in two types, one is a data channel PDU (Data channel PDU), the other is an advertising channel PDU (Advertising channel PDU).
  • Data channel PDU Data channel PDU
  • advertising channel PDU Advertising channel PDU
  • the L2CAP PDU may include a Length, a Channel ID, and an Information Payload field.
  • the length field may indicate the size of the information payload, and the information payload field may include higher layer data.
  • the channel identifier field may indicate which upper layer data is included in the information payload field. For example, if the value of the channel identifier field is 0x0004, ATT (ATTribute protocol), if 0x0006 can indicate SMP (Security Manager Protocol), or another channel identifier indicating a different type of upper layer or middleware Values can be defined and used.
  • the information payload field of FIG. 18(c) may be configured as shown in FIG. 18(d).
  • the information payload field may include a code, an identifier, a length, and a data field.
  • the code field may indicate the type of the L2CAP signaling message.
  • the identifier field may include a value matching the request and the response.
  • the length field may indicate the size of the data field.
  • the data field may include an attribute. An attribute is a unit of arbitrary data, and may include data at various times of various states of the device, such as location, size, weight, temperature, and speed.
  • An attribute may have a format including an attribute type, an attribute handle, an attribute value, and an attribute permission.
  • the attribute type may include a value indicating the type of attribute data identified by a Universally Unique Identifier (UUID).
  • UUID Universally Unique Identifier
  • Attribute handles may contain values assigned by the server to identify attribute data.
  • the attribute value may include a value of attribute data.
  • Attribute permission can be set by GATT (Generic ATTribute profile), and the type of allowed access to the attribute data (e.g., whether read/write is possible, whether encryption is required, It may include a value indicating whether authentication is required, whether authorization is required, etc.).
  • GATT Generic ATTribute profile
  • the type of allowed access to the attribute data e.g., whether read/write is possible, whether encryption is required, It may include a value indicating whether authentication is required, whether authorization is required, etc.
  • a device may act as a server and/or a client.
  • the server serves to provide an attribute and related values
  • the client can serve to discover, read, or write an attribute on the server.
  • server and client can support sending and receiving attribute data.
  • the PDU supported by the ATT protocol may include six method types, namely, request, response, command, notification, instruction, and confirmation.
  • a request is transmitted from the client to the server, and a response from the server is required.
  • Responses are sent from the server to the client, and sent when there is a request from the client.
  • Commands are sent from the client to the server, and no response is required.
  • Notifications are sent from the server to the client, and confirmation of this is not required.
  • An indication is transmitted from the server to the client, and the client's confirmation of this is required. Confirmation is transmitted from the client to the server, and when there is an instruction from the server.
  • GATT can support various profiles.
  • the structure of the GATT-based profile can be described in terms of services and characteristics.
  • a device can support more than one profile.
  • One profile may include zero or one or more services. Multiple profiles may use the same service.
  • One service may include more than one characteristic.
  • a characteristic means a data value to be read, written, indicated, or notified. That is, a service may be understood as a data structure used to describe a specific function or feature, and a service, which is a combination of characteristics, may represent an operation performed by a device. All services are implemented by the server and can be accessed by one or more clients.
  • 19 is a diagram illustrating examples of a data unit format to which the present disclosure is applicable.
  • the data channel PDU may be used to transmit a packet on a data physical channel (eg, channel numbers 0 to 36).
  • the data physical channel PDU includes a 16 or 24-bit header, a variable size (eg, 0 to 251 octet size) payload, and may further include a Message Integrity Check (MIC) field.
  • MIC Message Integrity Check
  • the MIC field may be included in the case of an encrypted link layer connection in which the payload field size is not 0.
  • the header field is LLID (Logical Link Identifier), NESN (Next Expected Sequence Number), SN (Sequence Number), MD (More Data), CP (CTEInfo Present), RFU (Reserved). for Future Use) and Length fields.
  • the RFU corresponds to a reserved part for use in future necessary cases, and its value can be usually filled with 0.
  • the header field may further include a constant tone extension information (CTEInfo) subfield according to the value of the CP field.
  • the Length field may indicate the size of the payload, and when the MIC is included, may indicate the payload and the length of the MIC.
  • the LL Control PDU may correspond to a data physical channel PDU used to control link layer connectivity.
  • the LL Control PDU may have a fixed value according to the operation code (Opcode).
  • the Opcode field may indicate the type of LL Control PDU.
  • the control data (CtrData) field may have various formats and lengths specified by Opcode.
  • the Opcode of the LL Control PDU may have a value representing one of LL_CBIS_REQ, LL_CBIS_RSP, LL_CBIS_IND, LL_CBIS_TERMINATE_IND, LL_CBIS_SDU_CONFIG_REQ, LL_CBIS_SDU_CONFIG_RSP, LL_CBIS_SDU_CONFIG_RSP, LL_CBIS_SDU_CONFIG_RSP, LL_CBIS_SDU_CONFIG_RSP, ...
  • the CtrData field may include information necessary for CBIS request along with CBISS identification information and CBIS identification information.
  • the Opcode indicates one of LL_CBIS_RSP, LL_CBIS_IND, LL_CBIS_TERMINATE_IND, LL_CBIS_SDU_CONFIG_REQ, LL_CBIS_SDU_CONFIG_RSP
  • CtrData is a CBIS response, CBIS Data Unit indication, CBIS (Service Unit indication) indication (indication) It may contain information necessary for the CBIS SDU configuration response.
  • 19(d) shows an example of an audio data PDU format.
  • the audio data PDU may be a CBIS PDU or a broadcast isochronous PDU (broadcast isochronous PDU).
  • the audio data PDU When used in a CBIS stream, the audio data PDU may be defined as a CBIS PDU.
  • the audio data PDU When used in a broadcast isochronous stream, the audio data PDU may be defined as a broadcast isochronous PDU.
  • the audio data PDU may include a 16-bit header field and a variable-length payload field.
  • the audio data PDU may further include an MIC field.
  • the format of the header field is 2-bit LLID, 1-bit NESN, 1-bit SN, 1-bit CIE (Close Isochronous Event), 1-bit RFU, 1-bit NPI (Null PDU Indicator), a 1-bit RFU, and a 9-bit Length subfield.
  • the format of the header field is LLID of 2 bits, Control Subevent Sequence Number (CSSN) of 3 bits, Control Subevent Transmission Number (CSTF) of 1 bit, RFU of 2 bits, 8 bits. It may include a Length subfield of size.
  • the payload field of the audio data PDU may include audio data.
  • FIG. 20 is a diagram illustrating examples of an advertisement unit format to which the present disclosure is applicable.
  • FIG. 20(a) shows an exemplary format of an advertising physical channel PDU (Protocol Data Unit).
  • the advertising channel PDU may be used to transmit a packet on an advertising physical channel (eg, channel numbers 37, 38, 39).
  • the advertising channel PDU may consist of a header having a size of 2 octets and a payload having a size of 6 to 37 octets.
  • the header may include a PDU type, a reserved for future use (RFU), a transmission address (TxAdd), a reception address (RxAdd), a length, and an RFU field.
  • the length field of the header may indicate the size of the payload.
  • the payload may include an AdvA (Advertiser Address) field having a length of 6 octets and an AdvData field having a length of 0 to 31 octets.
  • AdvA Advertiser Address
  • AdvData AdvData field having a length of 0 to 31 octets.
  • the AdvA field may include an advertiser's public address or a random address.
  • the AdvData field may include zero or more advertising data (AD) structures and padding if necessary.
  • AD advertising data
  • AD structure may include three fields.
  • the Length field may indicate the length of the AD Data field. That is, a value obtained by subtracting 1 from the value indicated by the length field may correspond to the length of the AD Data field.
  • the AD Type field may indicate the type of data included in the AD Data field.
  • the AD Data field may include advertising data provided from the host of the advertiser.
  • 21 is a diagram illustrating an example of a sound level and an exposure time to which the present disclosure is applicable.
  • Hearing is the composite result of several actions that transform sound waves from the ear into signals that the brain can understand. Sound waves enter the ear and vibrate the eardrum and bones, and the vibrations at this time are converted into electrical signals by the delicate hairs of the ear, and are transmitted to the brain along the nerves. The brain interprets this signal and perceives it as sound or sound.
  • the noise level is measured in decibels (dB), and generally, a sound exceeding 80dB is regarded as noise.
  • Hearing is affected by the loudness and exposure time of the noise, and very loud noises can cause hearing loss even for short exposures. That is, if repeatedly/continuously exposed to loud noise, the hairs in the ear may be permanently damaged. Examples of noise exposure limitation as disclosed in FIG. 21 indicate that as the loudness of the sound increases, even a short exposure may affect hearing. Therefore, it is required to further reduce the exposure time as the sound is louder.
  • FIG. 22 is a diagram illustrating a relationship between an exposure time and a sound pressure level to which the present disclosure is applicable.
  • the vertical axis represents the sound pressure level (SPL) in dB(A) or dBA
  • the horizontal axis represents the exposure duration per day. (safe), threatening, and traumatic areas are exemplarily shown.
  • the accumulated noise can damage the auditory nerve fibers. For example, listening to a portable music player loudly for a long time increases the risk of hearing loss. Compressed music played through most portable music players is closer to noise than the original music because of its high overall intensity. Over time, your hearing comfortably adapts to a higher volume, so even if it sounds normal and comfortable, it can actually damage your hearing. So, before your hearing adapts, you need to limit the amount of time you use earphones or headphones at high volume.
  • the sound pressure level (SPL) is used to objectify the subjective feeling of a person who judges whether the sound is large or small as an engineering index, and may be defined as in Equation 1 below.
  • P represents the pressure of the sound.
  • Pref is given by a predetermined constant of 2*10 ⁇ (-5) Pa, which corresponds to the minimum pressure that a person can perceive. That is, the SPL of the sound of the Pref size is 0 dB.
  • the A-weighting technique reflecting the volume of sound that can be perceived by humans can be used, and the value measured by the A-weighting technique is expressed in dB(A) or dBA. .
  • the sound exposure or dose may be defined as in Equation 2 below.
  • p means the sound pressure to which A-weighting is applied
  • T means the specified length of time.
  • E since the sound exposure amount E is defined as a value obtained by integrating the sound pressure p(t) that changes over a certain period of time, it may have a meaning of a value representing the sound pressure that varies within the audio content.
  • the sound exposure level (SEL) is a logarithmic expression of the amount of sound exposure relative to the human hearing threshold E 0 , and may be defined as Equation 3 below.
  • a normalized acoustic dose value of 40 hours per week may be applied as a warning criterion.
  • the acoustic exposure level may be limited to 100 dBA for 30 seconds, i.e., a dose value of more than 100 dBA for 30 seconds may be subject to warning.
  • FIG. 23 is a diagram illustrating a relationship between a plurality of devices to which the present disclosure is applicable.
  • a user connects a sports headset (sink #1) to a gym's treadmill TV (source #1) to listen to audio, and then, while moving home, music from a smartphone (source #2). It is assumed that an earbud (sink #2) is connected to the player application to listen to audio, and when you arrive at home, you listen to audio from a home TV (source #3) through a neckband headset (sink #3).
  • a problem may occur in calculating the cumulative exposure amount. For example, it is necessary to determine which device will calculate the amount of sound exposure, and how to determine it is also a question.
  • the source and/or sink device to be used is changed, how to accumulate, calculate, and manage the exposure amount in each device becomes a problem.
  • the user is informed of the sound level and the cumulative exposure amount related thereto, and by tracking and managing a predetermined exposure amount (e.g., daily/weekly exposure), it is notified to the user before reaching the maximum allowable exposure amount, or A new method is proposed to support the display of the remaining time until the exposure amount, or to automatically set the appropriate volume level in the sink by reporting/exchanging the exposure amount or volume level between devices.
  • a predetermined exposure amount e.g., daily/weekly exposure
  • the acoustic exposure management method, the acoustic exposure calculation method, and the communication method between devices supporting the same are collectively referred to as volume level reporting.
  • the volume level may correspond to an audio output or power level of the device (eg, a value in dBm or W) or a volume value expressed as a user-friendly value, and the volume/ The power level can be varied by user manipulation or other factors.
  • the sound pressure level (SPL) may be determined according to the power level of the device and the manufacturing characteristics of the device/device environment.
  • the sound exposure amount SEL or the dose may vary depending on the sound pressure level SPL and the exposure duration.
  • a related procedure is collectively referred to as a volume level report.
  • factors involved in determining the cumulative exposure amount are the power level of the sink device, power level related characteristics (eg, maximum power level, minimum power level, average power level, etc.), SPL, and SPL related factors. Characteristics (eg, maximum SPL, minimum SPL, average SPL, etc.), exposure time (or duration), or SEL.
  • subjects involved in determining the cumulative exposure amount may include entities such as a manager, an audio player, a source, and a sink. A detailed description of each individual will be described later.
  • a GATT message may be used to transmit and receive one or more elements between entities. Such a GATT message may be defined as a solicited method provided in response to a request or an unsolicited method provided even if there is no request.
  • the power level of the sink is calculated/determined by the sink, and may be provided from the sink to one or more of an administrator, an audio player, or a source.
  • the SPL may be calculated/determined by one or more of a manager, an audio player, a source, or a sink, and may be provided to one or more other entities from the entity that performed the calculation/decision.
  • the duration may be calculated/determined by one or more of a source, a sink, or an audio player, and may be provided to one or more other entities from the entity performing the calculation/decision.
  • the SEL may be calculated/determined by one or more of a manager, an audio player, a source, or a sink, and may be provided to one or more other entities from the entity that performed the calculation/decision.
  • a server may correspond to a sink
  • a client or GATT client
  • a server may correspond to one or more of a manager, an audio player, or a source.
  • the present disclosure is not limited thereto, and an entity that provides information necessary for a corresponding operation may be referred to as a server, and an entity that reads information from the server or writes information to the server may be referred to as a client.
  • a new message and procedure required for volume level reporting may be defined as shown in Table 6 below.
  • the messages and procedures defined in Table 6 can be supported by a specific profile or service.
  • 24 is a diagram for describing a definition of an entity to which the present disclosure is applicable.
  • An entity involved in a procedure for managing the sound exposure time (or the amount of sound exposure) according to the sound pressure level and warning and guiding the user may be defined as follows.
  • the source can transmit synchro audio.
  • the source may correspond to a smartphone, an audio beacon, a TV, or the like.
  • the sink can receive and render audio transmitted from the source.
  • the sink may correspond to a headset, earbuds, speaker, or the like.
  • the sink may calculate the power level or sound pressure level of the currently rendered audio.
  • the manager application manages the overall procedure, such as the calculation and management of the cumulative exposure amount, and the distribution of the role and the final summation, for example, it is possible to sum and manage the acoustic exposure time or the acoustic exposure.
  • the audio player application may perform functions related to audio transmission (eg, music selection, pause, playback of the next song, etc.).
  • functions related to audio transmission eg, music selection, pause, playback of the next song, etc.
  • a music player application is assumed as a representative example, but the same may be applied to an application that plays various audio contents.
  • the manager application, the audio player application, and the like may be composed of software entities, and may be included or implemented in any device. That is, the manager application, the audio player application, etc. may exist on the same device as the source entity, but do not necessarily exist on the same device as the source entity.
  • the manager application and/or the audio player application may exist in the same device as the sink entity, or may exist in a separate device that is neither a source nor a sink. That is, two or more of the entities described in the present disclosure may be included in the same device or different devices.
  • entities such as manager, audio player, source, and sink.
  • the manager can exchange SPL information with the sink.
  • the administrator exchanges power level or volume information with the source in the setting step (e.g., Volume Level Configuration Start or Volume Level Configuration Result message exchange procedure in Table 6). Thus, it may be set to estimate the cumulative exposure amount.
  • the administrator can mainly exchange exposure time and SPL information with sources #1 to #3. This is because the source is likely to be included in a device with higher computational power than the sink.
  • the administrator may show the summed, managed sound level (power level or SPL), and related accumulated exposure (dose) information to the user.
  • the administrator may transmit the information to one or more audio player applications to show the information to the user in each audio player application.
  • 25 is a diagram for describing an example of calculating an exposure amount to which the present disclosure is applicable.
  • the exposure amount S may be determined based on the sound pressure level SPL and the exposure duration.
  • the exposure amount S may be defined as a product of SPL and duration.
  • the exposure amount S may correspond to the aforementioned SEL.
  • the exposure amount S may be directly calculated or measured based on the SPL and the duration, and the S value may be estimated or estimated by further taking into account the SPL and another factor in addition to the duration.
  • the sink may support calculation or estimation of the sound pressure (or sound pressure level) value of the audio currently being rendered.
  • the sink can calculate the SPL based on its current power level and share it with the manager. If the sink does not have the ability to calculate the SPL, information on the correspondence between the power level (or volume) and the SPL may be shared with one or more of the manager, the source, and the sink. Accordingly, one or more of the manager, the source, and the sink may calculate or estimate the SPL of the sink.
  • the SPL or power level may be mainly calculated by the sink and shared with other entities, and the duration may be mainly calculated by the source and shared with other entities.
  • the manager, the source, and the sink may calculate or estimate the SPL, the duration, and the exposure amount S alone or two or more of them share information with each other.
  • the correspondence between the volume and/or power level and the SPL may vary depending on the manufacturing characteristics of the sink, it may be configured in the form of a matching table for each manufacturer as shown in Table 7 below.
  • the matching table for the correspondence between the volume and/or power level and the SPL is provided with information on power level characteristics (e.g., minimum power level, maximum power level, average power level, etc.), and SPL characteristics. Information (eg, minimum SPL, maximum SPL, average SPL, etc.) may be included.
  • the exposure amount S may be compared with a predetermined threshold value set in advance for the allowed absolute amount (or exposure amount), and a warning notification may be provided to the user.
  • the threshold for the allowable absolute amount may be predefined as a predetermined exposure amount value.
  • the administrator may perform a warning notification to the user by comparing the total cumulative exposure amount up to now with the first warning threshold B level.
  • the B value will correspond to the boundary value between the safe area and the threat area as in the example of FIG. 22 (e.g., an audio of 100 dBA of SPL and an SEL value corresponding to the case of listening for 8 minutes). I can.
  • a corresponding warning eg, "the cumulative exposure amount exceeds 800" may be notified to the user.
  • the administrator may perform a warning notification to the user by comparing the total cumulative exposure amount with the second warning threshold A level.
  • the A value corresponds to a safe area in the example of FIG. 22, but may be set to a value requiring a warning in advance.
  • the warning notification may be configured in the form of notifying the time taken until reaching the threat area (or B level) (ie, the allowable time) when listening to audio continuously while maintaining the current SPL.
  • allowable time allowable absolute amount (or exposure amount) / current volume (or power level or current SPL) may be defined.
  • a corresponding warning for example, "If you listen at the current volume for more than 5 minutes, your hearing may be damaged. Reduce the volume." You can notify the user.
  • the entity performing the warning notification may be a manager, but the source, sink, or audio player may directly calculate the cumulative exposure amount or receive the cumulative exposure amount from another entity, and perform the warning notification based on this.
  • the average sound size (or power level or current SPL) of the audio content being played and the remaining allowable exposure time calculated accordingly may be displayed to the user.
  • 26 is a diagram for describing a method of managing a cumulative exposure amount using a cloud server to which the present disclosure is applicable.
  • information on registration/deregistration of source(s) associated with a specific user account may be maintained and managed.
  • a user can connect a nearby public source to the cloud server for a certain period of time.
  • the source and the cloud server may be directly connected, or the source and the cloud server may be connected through a manager application on the user's side (eg, installed on the user's smartphone (eg, source #3)).
  • the connection between the source and the cloud server may mean a state in which the source is registered in the cloud server and information can be transmitted and received between the source and the cloud server.
  • the source may be set to be connected to the cloud server for a predetermined time (eg, a time when a user uses a public source).
  • a source that maintains a connection with the cloud server for a predetermined period of time can be transmitted to the cloud server by calculating the cumulative exposure amount up to the present when a predetermined period of time expires (for example, when a user stops using a public source). have.
  • the predetermined time may be extended according to the user's selection, and if there is no special selection by the user, the connection between the source and the cloud server may be terminated after the predetermined time expires.
  • the source may be permanently (or without time limit) registered on the cloud server. This may be the case for sources owned by the user, not public sources. In this case, the user may be able to continuously transmit the cumulative exposure amount from the source to the cloud server by authenticating the source to the cloud server.
  • a sharing cycle an event to be shared, and a specific user (e.g., user ID or administrator ID) can be set. I can.
  • FIG. 27 is a diagram for describing an example of a method for reporting a volume level to which the present disclosure is applicable.
  • the second device may report information related to the SPL (ie, first information) to the first device.
  • information related to the SPL is for converting the volume level (or power level) (eg, in dB, dBm or W) of the second device into an actual loudness (eg, in dBA units). It may include information on the coefficient (or acoustic sensitivity parameter).
  • a parameter capable of calculating the SPL using the volume-SPL matching information (or table) as shown in Table 7 or the power/volume level may be reported from the second device to the first device.
  • This first information may include, for example, a minimum power level or a minimum SPL, a maximum power level or a maximum SPL, an average power level or an average SPL, and the like.
  • the first device may determine the exposure amount.
  • the exposure amount may be calculated based on the volume level, power level, SPL, duration, and the like.
  • One or more of the information necessary for calculating the exposure amount may be provided from the second device.
  • the first device may transmit exposure adjustment information (ie, second information) to the second device.
  • the exposure amount adjustment information may include information setting/instructing/recommending a volume level or a power level to be adjusted to a specific value.
  • the exposure amount adjustment information may include information indicating that time and/or volume level (or power level) adjustment is required when the accumulated exposure amount up to now exceeds a predetermined threshold.
  • the second device may adjust the exposure amount based on the exposure amount adjustment information. Adjusting the exposure amount may include adjusting the volume level or the power level to a specific value. For example, based on a specific volume level set/instructed/recommended by the first device, the second device may control its own output volume based on the matching characteristic of its volume-SPL. Alternatively, the exposure amount adjustment may include modifying the exposure time and/or the volume level (or power level) based on the exposure amount adjustment information provided from the first device.
  • the first device may be a client, and the second device may be a server.
  • the first device may be a source
  • the second device may be a sink.
  • the source may include a manager/music player application or the like.
  • the description is made on the assumption of one second device, but one or more second devices may perform volume level reporting with the first device.
  • the volume level reporting procedure of FIG. 27 may be performed separately for each of the one or more second devices, and common to one or more second devices (ie, for example, so that a plurality of second devices share the volume level). )
  • the volume level reporting procedure of FIG. 27 may be performed.
  • the source or the client may determine the volume setting using the actual sound output characteristics (eg, volume-SPL matching information) of the sink or the server.
  • the sink or the server may interpret a volume setting provided from a source or a client based on its own actual sound output characteristic (eg, volume-SPL matching information) to output sound of an appropriate size. Accordingly, it is possible to consistently adjust the volume, and the actual amount of sound exposure that actually affects the user's hearing can be accurately calculated and managed.
  • FIG. 28 is a diagram for describing an additional example of a method for reporting a volume level to which the present disclosure is applicable.
  • FIG. 28 shows a situation in which a volume level (or power level) is shared among a plurality of entities. It is assumed that the source and the manager are included in the same device, or the source and the audio player are included in the same device. In the volume level reporting operation, a case in which the manager/audio player of the source side performs control.
  • the sink may be a headset, earbuds, and speaker, and the source may be a smartphone.
  • the source/administrator/audio player and sink #1 and #2 check each capability, and based on this, volume level configuration start and volume level configuration result messages are exchanged through power level, SPL, duration, and It is possible to set an entity to perform calculation/estimation of the SEL and how to transmit information to be shared between entities (S2810).
  • the source/administrator/audio player can change the volume level (or power level) of each sink (e.g. in dB, dBm or W) from sink #1 and #2 to the actual loudness (e.g., in dB, dBm or W).
  • a coefficient for conversion into dBA unit may be received (S2820).
  • each sink can determine its own power level, but the sink cannot perform SPL calculation based on the power/volume level.
  • each sink may provide the source/manager/audio player with information necessary for calculating/estimating the SPL based on its own power/volume level and power/volume level.
  • each sink may provide a source/manager/audio player with a coefficient or acoustic sensitivity parameter necessary for calculating the actual volume for each volume.
  • a parameter capable of calculating the SPL using a volume-SPL matching table as shown in Table 7 or a power/volume level may be provided.
  • the source/manager/audio player may calculate/estimate the SPL of the corresponding sink using the power level (or volume level) and coefficients/parameters received from each sink.
  • the audio stream #1 may be started (S2830). After stream #1 is started, the source/administrator/audio player determines the actual volume that the user is being exposed to, based on the current volume level (or power level) received from sink #1 (e.g., in dB, dBm or W). The loudness (eg, dBA unit) may be calculated (S2840).
  • the source/administrator/audio player is based on the current volume level (or power level) received from sink #2 (e.g., in dB, dBm or W), the user It is possible to calculate the actual loudness (eg, dBA unit) that is being exposed (S2860).
  • information such as a current volume level (or power level) and a timestamp may be transmitted from the sink to the source/administrator/audio player at a predetermined period or event-triggered (S2835 and S2845). Accordingly, the source/administrator/audio player can start calculating the cumulative exposure amount (eg, SEL).
  • the volume level (or power level) of the sink is modified during audio streaming, it is transmitted to the source/administrator/audio player along with timestamp information to calculate the variable SPL and accumulate it to calculate the exposure amount up to the current time point. have.
  • the source/administrator/audio player can calculate and monitor the total cumulative exposure amount for stream #1 in sink #1 and stream #2 in sink #2. If the total cumulative exposure to date exceeds a predetermined threshold, the user is advised to stop listening (for example, the B level threshold is exceeded in the example of FIG. 25), or the remaining time until the listening stop is recommended. Notify (e.g., exceeding the A level threshold in the example of FIG. 25), or how much time to rest after stopping listening (e.g., taking into account the accumulated exposure for the past 24 hours at the present time, the exposure amount will be reset) The predicted time point) and the like may be informed (S2870).
  • the source/administrator/audio player determines the exposure time (e.g., the time elapsed since the audio stream was started), the degree of exposure (e.g., current volume level, current power level, or current SPL, etc.), and time remaining.
  • the remaining time of the audio stream, or the warning notification time related to the A level in the example of FIG. 25), etc. can be provided to the user through a predetermined UI (for example, visual and/or auditory information).
  • a predetermined UI for example, visual and/or auditory information.
  • 29 is a diagram for describing an additional example of a method for reporting a volume level to which the present disclosure is applicable.
  • the capability check procedure may include a process in which an administrator inquires about a function supported by each entity (eg, source, sink), and each entity responds to this. .
  • each entity eg, source, sink
  • the user requests/instructs the audio transmission from the source #1 to the sink (S2910), and the administrator may perform a capability check procedure for the source #1 and the sink (S2920 and S2925). .
  • the capability may include primary properties and primary properties.
  • the main attributes may include the following information (or characteristics).
  • the sink can determine/calculate the exposure level (or SPL)
  • the source can determine/calculate the exposure level (or SPL)
  • the following information may be included for a method of determining/calculating the exposure level of the sink.
  • sink can determine/calculate exposure level (or SPL) based on volume/power level
  • the manager may determine the volume level setting (S2930). For example, among volume/power level, SPL, duration, and SEL, which entity calculates/determines what information, which entity delivers what information to which entity, and the like may be determined.
  • the manager may transmit a volume level configuration start message to source #1 and/or sink, and receive a volume level configuration result message from each of source #1 and/or sink (S2940 and S2945). That is, through the transmission and reception of a volume level configuration result message, the accumulated exposure amount is calculated and what value to exchange is determined and shared.
  • the sink may basically calculate/determine the power level corresponding to the volume level, but may additionally calculate/determine the corrected power level in consideration of the surrounding environment (S2950). For example, the sink can check and determine ambient noise through a microphone to calculate/determine the corrected power level, and calculate its own exposure level (e.g., SPL) based on the corrected power level. I can. Accordingly, the sink sends the calculated value to the administrator periodically (e.g., every 5 minutes) or when a predetermined event occurs (e.g., when the volume level is changed by the user in the sink, or audio streaming is stopped). When it is terminated), it may be notified through Status Changed Reporting (S2960).
  • S2950 Status Changed Reporting
  • the manager may determine whether the accumulated exposure amount exceeds a predetermined threshold (S2970). When the accumulated exposure amount exceeds a predetermined threshold, the administrator may inform the user of this through a UI (eg, visual and/or auditory information). Additionally, the administrator may also transmit the corresponding information to the sink through an alert reporting (S2980). Accordingly, a corresponding notification may be provided to the user according to the threshold step (eg, exceeding the A level, exceeding the B level, etc. in the example of FIG. 25) through the sync.
  • a corresponding notification may be provided to the user according to the threshold step (eg, exceeding the A level, exceeding the B level, etc. in the example of FIG. 25) through the sync.
  • the volume/power level may not be proportional to the SPL, depending on the manufacturing characteristics of each device or the device environment. Accordingly, device-to-device adjustment can be performed by checking device capabilities related to the characteristics of each device.
  • the device capability may further include information on a correspondence relationship between the volume and/or power level and the SPL (eg, a matching table, a volume curve, etc.).
  • the device capability may include surrounding environment information as described above. The surrounding environment information further includes the distance between devices (e.g., the distance between the source and the sink), signal characteristics related to the distance between the devices (e.g., received signal strength information (RSSI), pathloss, etc.). Can include. Adjustment and/or volume level setting may be performed based on the device capability.
  • RSSI received signal strength information
  • FIG. 30 is a diagram for describing an example of a source change procedure to which the present disclosure is applicable.
  • the manager and the source #1 and/or the sink may perform a capability check and volume level setting (eg, volume level configuration start and volume level configuration result message exchange) ( S3010, S3015). Accordingly, among power level, SPL, duration, and SEL, which entity calculates/determines what information, and which entity delivers what information to which entity, and the like may be determined.
  • a capability check and volume level setting eg, volume level configuration start and volume level configuration result message exchange
  • the source #1 may calculate a volume level and an application time, that is, an SPL and a duration (or start/end time) (S3020).
  • the calculated information can be transferred from source #1 to the manager.
  • SPL and duration information may be transmitted to the manager through a status changed report message periodically or on an event basis (eg, changing the volume level of the sink or ending audio streaming) (S3030). ).
  • the source #1, the manager, and/or the sink may share information on the accumulated exposure amount (eg, SEL) up to the present time (S3040 and S3045).
  • the cumulative exposure amount may be calculated/determined by the manager and shared with other entities, but may also be calculated at the source or sink and reported to the manager and other entities.
  • audio streaming from the source #1 to the sink After the audio streaming from the source #1 to the sink is terminated, audio streaming from the source #2 to the sink may be requested.
  • the manager and the source #2 and/or the sink may perform a capability check and volume level setting (eg, volume level configuration start and volume level configuration result message exchange) ( S3050, S3055). Accordingly, among power level, SPL, duration, and SEL, which entity calculates/determines what information, and which entity delivers what information to which entity, and the like may be determined.
  • SPL volume level configuration start and volume level configuration result message exchange
  • S3055 volume level configuration start and volume level configuration result message exchange
  • source #2 may calculate a volume level and application time, that is, SPL and duration (or start/end time) (S3060).
  • SPL and duration information can be transferred from source #2 to the manager.
  • SPL and duration information may be transmitted to an administrator through a status changed report message periodically or on an event basis (eg, changing a volume level of a sink or ending audio streaming).
  • the source #2, the manager, and/or the sink may share information on the accumulated exposure amount (eg, SEL) up to the present time (S3070 and S3075).
  • the cumulative exposure amount may be calculated/determined by the manager and shared with other entities, but may also be calculated at the source or sink and reported to the manager and other entities.
  • the cumulative exposure amount up to the present (that is, the accumulated exposure amount in the audio streaming process from source #1 to the sink) is source # 2)
  • the manager can be shared by the manager, and/or the sink.
  • the manager may add up the accumulated exposure amount through audio streaming from source #1 and audio streaming from source #2, and determine and monitor the total accumulated exposure amount up to now (S3080).
  • notifications such as a recommendation to stop listening, a notification of remaining time until the middle of listening, and a recommendation of a break after stopping listening may be performed.
  • notification information may be delivered to the sink through an alert reporting message (S3090), and the sink may notify the user of the corresponding information through an appropriate UI.
  • a method of discovering, connecting, and exchanging messages between a plurality of sources, managers, and/or sinks is not limited, and various technologies such as a cloud server and a Bluetooth mesh may be used.
  • 31 is a diagram for explaining an additional example of a source change procedure to which the present disclosure is applicable.
  • the manager checks the respective capabilities of source #1 and #2, audio player, and sink #1 and #2, and exchanges volume level configuration start and volume level configuration result messages to select any of the power level, SPL, duration, and SEL. It can be determined what information the entity computes/determines, which entity communicates what information to which entity, and so on.
  • the setting procedure S3110 of FIG. 31 may include various examples.
  • the manager calculates only the time (eg, duration or start/end time) information for source #1 and reports it to the manager, and sink #1 Can be set to report only their own power level to the manager.
  • time e.g, duration or start/end time
  • the manager may set that source #2 calculates the power level, SPL, duration, and SEL to report to the manager.
  • various types of settings can be performed.
  • the source #1, the manager, and the sink #1 may periodically or event-based transmission and reception of exposure amount related information according to the setting (S3110). (S3130, S3135).
  • the cumulative exposure amount may be shared by source #1, manager, and sink #1.
  • the source #2, the manager, and the sink #2 may periodically transmit and receive information related to the exposure amount according to the setting (S3110) or event-based ( S3150, S3155).
  • the cumulative exposure amount may be shared by source #2, manager, and sink #2.
  • the administrator can continuously calculate and manage the cumulative exposure amount in the process from start to end of stream #1 and stream #2.
  • the administrator may perform an alert reporting corresponding thereto (eg, an administrator notifies the user directly or through another entity) (S3160). .
  • the manager may share the accumulated exposure amount information with the audio player (S3170). Accordingly, the exposure amount information may be known to the user through an audio player that controls audio streaming.
  • the manager delivers an alert reporting message to Sink #1 or Sink #2, and recommends stopping listening, notifying the remaining time until the middle of listening, and resting time after stopping listening. Notification such as a recommendation may be performed (S3180).
  • information related to the cumulative exposure amount calculation may be managed in association with a user ID or an administrator ID. This is to manage the cumulative exposure amount for each actual user even when a user listens to audio across a plurality of sources and a plurality of sinks.
  • a predetermined threshold for the cumulative exposure amount (eg, A level, B level, etc. in FIG. 25) may be given as a preset value, and an arbitrary It can also be set to a value.
  • FIG. 32 is a diagram illustrating configurations of a first device and a second device to which the present disclosure can be applied.
  • the first device 3200 may include a processor 3210, an antenna unit 3220, a transceiver 3230, and a memory 3240.
  • the processor 3210 performs baseband-related signal processing and may include a host processing unit 3211 and a controller processing unit 3215.
  • the host processing unit 3211 and the controller processing unit 3215 may exchange information through HCI.
  • the host processing unit 3211 may process operations such as L2CAP, ATT, GATT, GAP, and LE profile layers.
  • the controller processing unit 3215 may process operations such as an LL and a PHY layer.
  • the processor 3210 may control overall operations of the first device 3200.
  • the antenna unit 3220 may include one or more physical antennas.
  • the transceiver 3230 may include a radio frequency (RF) transmitter and an RF receiver.
  • the memory 3240 may store information processed by the processor 3210 and software, an operating system, and an application related to the operation of the first device 3200, and may include components such as a buffer.
  • the processor 3210 of the first device 3200 may be configured to implement the operation of the first device (or an audio source, or a client device) in the embodiments described in the present invention.
  • the host processing unit 3211 of the processor 3210 of the first device 3200 may include a sound exposure amount management unit 3212.
  • the sound exposure amount management unit 3212 may determine a volume setting for the second device 3250 using the first information (eg, information related to the SPL of the first device) reported from the second device 3250. have. Additionally, based on the first information (eg, SPL-related information, volume level, power level, duration, etc.) of the sound exposure amount management unit 3212, the accumulated sound exposure amount may be calculated.
  • first information eg, information related to the SPL of the first device
  • the accumulated sound exposure amount may be calculated.
  • the sound exposure amount management unit 3212 may transmit second information including a volume setting for the second device 3250 to the second device 3250 through the controller processing unit 3215. Additionally, the second information may include exposure amount control information.
  • the second device 3250 may include a processor 3260, an antenna unit 3270, a transceiver 3280, and a memory 3290.
  • the processor 3260 performs baseband-related signal processing and may include a host processing unit 3261 and a controller processing unit 3265.
  • the host processing unit 3261 and the controller processing unit 3265 may exchange information through HCI.
  • the host processing unit 3261 may process operations such as L2CAP, ATT, GATT, GAP, and LE profile layers.
  • the controller processing unit 3265 may process operations such as an LL and a PHY layer.
  • the processor 3260 may control overall operations of the second device 3260.
  • the antenna unit 3270 may include one or more physical antennas.
  • the transceiver 3280 may include an RF transmitter and an RF receiver.
  • the memory 3290 may store information processed by the processor 3260 and software, an operating system, and an application related to the operation of the second device 3250, and may include components such as a buffer.
  • the processor 3260 of the second terminal device 3250 may be configured to implement the operation of the second device (or audio sink, or server device) in the embodiments described in the present invention.
  • the host processing unit 3261 of the processor 3260 of the second device 3250 may include a volume level management unit 3262.
  • the volume level management unit 3262 may transmit first information related to the SPL of the second device 3250 to the first device 3200 through the controller processing unit 3265. Additionally, the first information may include SPL related information, volume level, power level, duration, and the like.
  • the volume level manager 3262 may adjust the volume of the second device 3250 based on the first information and second information including a volume setting received from the first device 3200. Additionally, the second information may include exposure amount control information.
  • the descriptions of the source device and the sink device in the examples of the present invention may be equally applied, and duplicate descriptions will be omitted.
  • Various embodiments of the present disclosure may be implemented by hardware, firmware, software, or a combination thereof.
  • one or more ASICs Application Specific Integrated Circuits
  • DSPs Digital Signal Processors
  • DSPDs Digital Signal Processing Devices
  • PLDs Programmable Logic Devices
  • FPGAs Field Programmable Gate Arrays
  • general purpose It may be implemented by a processor (general processor), a controller, a microcontroller, a microprocessor, or the like.
  • the scope of the present disclosure is software or machine-executable instructions (e.g., operating systems, applications, firmware, programs, etc.) that cause an operation according to the method of various embodiments to be executed on a device or computer, and such software or It includes a non-transitory computer-readable medium (non-transitory computer-readable medium) which stores instructions and the like and is executable on a device or a computer. Instructions that can be used to program a processing system that performs the features described in the present disclosure may be stored on/in a storage medium or a computer-readable storage medium, and may be viewed using a computer program product including such a storage medium. Features described in the disclosure may be implemented.
  • the storage medium may include, but is not limited to, high-speed random access memory such as DRAM, SRAM, DDR RAM or other random access solid state memory device, but is not limited to one or more magnetic disk storage devices, optical disk storage devices, flash memory devices, or It may include non-volatile memory such as other non-volatile solid state storage devices.
  • the memory optionally includes one or more storage devices located remotely from the processor(s).
  • the memory, or alternatively, the non-volatile memory device(s) in the memory comprises a non-transitory computer readable storage medium.
  • Features described in the present disclosure are stored in any one of the machine-readable media to be able to control the hardware of the processing system, allowing the processing system to interact with other mechanisms that utilize results according to embodiments of the present disclosure. It can be integrated into software and/or firmware.
  • Such software or firmware may include, but is not limited to, application code, device drivers, operating systems, and execution environments/containers.
  • Embodiments of the present disclosure may be applied to various wireless communication systems, and thus performance of a wireless communication system may be improved.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Acoustics & Sound (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

본 개시는 무선 통신 시스템에서 음향 노출 관리를 위한 방법, 장치, 컴퓨터 프로그램 및 그 기록 매체에 대한 것이다. 본 개시의 일 실시예에 따른 무선 통신 시스템에서 볼륨 레벨 보고를 수행하는 방법은, 제 1 디바이스로 제 2 디바이스의 음압레벨(SPL)에 관련된 제 1 정보를 보고하는 단계; 상기 제 2 디바이스가 상기 제 1 디바이스로부터 볼륨 세팅을 포함하는 제 2 정보를 수신하는 단계; 및 상기 제 2 디바이스가 상기 제 1 정보 및 상기 제 2 정보에 기초하여 상기 제 2 디바이스의 볼륨을 조절(adjust)하는 단계를 포함할 수 있다.

Description

무선 통신 시스템에서 음향 노출 관리 방법, 장치, 컴퓨터 프로그램 및 그 기록 매체
본 개시는 무선 통신 시스템에서 음향 노출 관리를 위한 방법, 장치, 컴퓨터 프로그램 및 그 기록 매체에 대한 것이다.
블루투스(Bluetooth)는 근거리 무선 통신 규격으로서, BR(Basic Rate)/EDR(Enhanced Data Rate) 기술과 LE(Low Energy) 기술을 포함한다. BR/EDR은 블루투스 클래식(classic)이라고도 하며, 블루투스 1.0 부터 적용된 BR 기술과 블루투스 2.0 이후부터 적용된 EDR 기술을 포함한다. 블루투스 4.0 이후 적용된 블루투스 LE(BLE)는 저전력으로 상대적으로 큰 데이터의 송수신을 지원하는 기술이다.
블루투스 규격은 다양한 프로파일(profile)을 포함한다. 예를 들어, HFP(Hands-Free Profile)는 하나의 디바이스가 스마트폰과 같은 오디오 게이트웨이(AG)로서 기능하고 다른 디바이스가 헤드셋과 같은 핸즈-프리 디바이스로서 기능하기 위하여 필요한 사항을 정의한다. 또한, A2DP(Advance Audio Distribution Profile)는 하나의 디바이스가 음악 재생기(player)와 같은 오디오 소스(source)로서 기능하고 다른 디바이스가 스피커와 같은 오디오 싱크(sink)로서 기능하기 위하여 필요한 사항을 정의한다.
최근 무선 디바이스의 보급이 증가하면서 다-대-다 또는 M-대-N 연결 형태의 다양한 토폴로지에서 오디오 데이터 송수신에 대한 요구가 증가하고 있다. 예를 들어, 5.1 채널 환경을 요구하는 스트리밍 서비스들이 등장하고 있으며, 종래의 5.1 채널 전용 유선 스피커의 제약에서 벗어나 다수의 블루투스 휴대형 스피커들을 이용한 5.1 채널 환경을 지원하는 것이 논의되고 있다. 그러나, 종래의 블루투스 오디오 기술은 주로 두 개의 디바이스 간의 일-대-일 연결 형태의 유스 케이스(use case)를 고려하여 개발되었기 때문에, 다수의 디바이스 간의 오디오 데이터 송수신을 지원하기에 적합하지 않고 지연(delay)이 큰 문제가 있다. 또한, 블루투스 오디오 디바이스의 개수가 증가하면서 주변 디바이스 검색을 위한 전력 소모가 증가하는 등의 문제가 있다.
최근 다양한 오디오 디바이스 기술의 발전에 따라 사용자가 휴대하며 개인적으로 오디오 컨텐츠를 소비하는 기회가 크게 증가하고 있다. 이와 함께, 사용자가 청취하는 음향의 세기 및 시간의 증가에 따른 청력 손상 등의 문제가 제기되고 있다. 안전한 청취를 위해서 사용자가 음향에 노출되는 정도를 확인 및 관리할 필요가 있지만, 이를 지원하기 위한 디바이스간의 통신 방법 등은 마련되어 있지 않다.
본 개시의 기술적 과제는 무선 통신 시스템에서 음향 노출 관리 방법 및 장치를 제공하는 것이다.
본 개시의 추가적인 기술적 과제는 무선 통신 시스템에서 다른 디바이스의 음압레벨에 관련된 정보에 기초하여 볼륨을 세팅하거나, 다른 디바이스에 의한 볼륨 세팅에 기초하여 볼륨을 조절하는 방법 및 장치를 제공하는 것이다.
본 개시의 추가적인 기술적 과제는 무선 통신 시스템에서 하나 이상의 소스 디바이스 또는 하나 이상의 싱크 디바이스에서의 누적 노출량을 계산 및 관리하는 방법 및 장치를 제공하는 것이다.
본 개시에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 개시의 일 양상에 따른 무선 통신 시스템에서 볼륨 레벨 보고를 수행하는 방법은, 제 1 디바이스로 제 2 디바이스의 음압레벨(SPL)에 관련된 제 1 정보를 보고하는 단계; 상기 제 2 디바이스가 상기 제 1 디바이스로부터 볼륨 세팅을 포함하는 제 2 정보를 수신하는 단계; 및 상기 제 2 디바이스가 상기 제 1 정보 및 상기 제 2 정보에 기초하여 상기 제 2 디바이스의 볼륨을 조절(adjust)하는 단계를 포함할 수 있다.
본 개시의 추가적인 양상에 따른 무선 통신 시스템에서 볼륨 레벨 보고를 수행하는 장치에 있어서, 다른 장치와의 신호 송신 및 수신을 수행하기 위한 송수신기; 및 상기 송수신기 및 상기 장치를 제어하기 위한 프로세서를 포함하고, 상기 프로세서는, 상기 다른 장치로 상기 장치의 음압레벨(SPL)에 관련된 제 1 정보를 상기 송수신기를 통하여 보고하고; 상기 다른 장치로부터 볼륨 세팅을 포함하는 제 2 정보를 상기 송수신기를 통하여 수신하고; 상기 제 1 정보 및 상기 제 2 정보에 기초하여 상기 장치의 볼륨을 조절(adjust)하도록 설정될 수 있다.
본 개시에 대하여 위에서 간략하게 요약된 특징들은 후술하는 본 개시의 상세한 설명의 예시적인 양상일 뿐이며, 본 개시의 범위를 제한하는 것은 아니다.
본 개시에 따르면, 무선 통신 시스템에서 음향 노출 관리 방법 및 장치가 제공될 수 있다.
본 개시에 따르면, 무선 통신 시스템에서 다른 디바이스의 음압레벨에 관련된 정보에 기초하여 볼륨을 세팅하거나, 다른 디바이스에 의한 볼륨 세팅에 기초하여 볼륨을 조절하는 방법 및 방법 및 장치가 제공될 수 있다.
본 개시에 따르면, 무선 통신 시스템에서 하나 이상의 소스 디바이스 또는 하나 이상의 싱크 디바이스에서의 누적 노출량을 계산 및 관리하는 방법 및 방법 및 장치가 제공될 수 있다.
본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 종래의 오디오 연결 형태와 본 개시가 적용가능한 오디오 연결 형태를 예시적으로 나타내는 도면이다.
도 2는 종래의 오디오 관련 프로토콜 스택과 본 개시가 적용가능한 오디오 관련 프로토콜 스택을 예시적으로 나타내는 도면이다.
도 3은 본 개시가 적용가능한 5.1 채널 서라운드 시스템 하드웨어에 대한 예시들을 나타낸다.
도 4는 본 개시가 적용가능한 오디오 데이터 부호화/복호화 과정을 나타내는 도면이다.
도 5는 본 개시가 적용가능한 2개의 디바이스에 대한 채널 할당의 예시를 나타내는 도면이다.
도 6은 본 개시가 적용가능한 두 개의 스트림의 동기화 지연을 설명하기 위한 도면이다.
도 7은 본 개시가 적용가능한 복수의 디바이스에 대한 브로드캐스트 동작을 설명하기 위한 도면이다.
도 8 및 도 9는 본 개시가 적용가능한 ICL 타입 및 INCL 타입의 동작을 설명하기 위한 도면이다.
도 10은 본 개시가 적용가능한 브로드캐스트 오디오 스트림 상태 머신을 나타내는 도면이다.
도 11은 본 개시가 적용가능한 오디오 셋업 절차를 나타내는 도면이다.
도 12는 본 개시가 적용가능한 링크 계층 상태 머신을 나타내는 도면이다.
도 13은 본 개시가 적용가능한 오디오 토폴로지의 예시를 나타내는 도면이다.
도 14 내지 도 16은 본 개시가 적용될 수 있는 서버와 클라이언트 간의 메시지 교환 과정을 나타내는 도면이다.
도 17은 본 개시가 적용가능한 콜 서비스에 대한 상태 머신을 나타내는 도면이다.
도 18은 본 개시가 적용가능한 계층별 패킷 포맷을 나타내는 도면이다.
도 19는 본 개시가 적용가능한 데이터 유닛 포맷의 예시들을 나타내는 도면이다.
도 20은 본 개시가 적용가능한 애드버타이즈먼트 유닛 포맷의 예시들을 나타내는 도면이다.
도 21은 본 개시가 적용가능한 음향 크기 및 노출 시간의 예시를 나타내는 도면이다.
도 22는 본 개시가 적용가능한 음압 레벨과 노출 시간의 관계를 예시적으로 나타내는 도면이다.
도 23은 본 개시가 적용가능한 복수의 디바이스의 관계를 예시적으로 나타내는 도면이다.
도 24는 본 개시가 적용가능한 개체에 대한 정의를 설명하기 위한 도면이다.
도 25는 본 개시가 적용가능한 노출량 계산의 예시를 설명하기 위한 도면이다.
도 26은 본 개시가 적용가능한 클라우드 서버를 이용한 누적 노출량 관리 방법을 설명하기 위한 도면이다.
도 27은 본 개시가 적용가능한 볼륨 레벨 보고 방법의 일례를 설명하기 위한 도면이다.
도 28은 본 개시가 적용가능한 볼륨 레벨 보고 방법의 추가적인 예시를 설명하기 위한 도면이다.
도 29는 본 개시가 적용가능한 볼륨 레벨 보고 방법의 추가적인 예시를 설명하기 위한 도면이다.
도 30은 본 개시가 적용가능한 소스 변경 절차의 일례를 설명하기 위한 도면이다.
도 31은 본 개시가 적용가능한 소스 변경 절차의 추가적인 예시를 설명하기 위한 도면이다.
도 32는 본 개시가 적용될 수 있는 제 1 디바이스 및 제 2 디바이스의 구성을 나타내는 도면이다.
이하에서는 첨부한 도면을 참고로 하여 본 개시의 실시예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나, 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다.
본 개시의 실시예를 설명함에 있어서 공지 구성 또는 기능에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그에 대한 상세한 설명은 생략한다. 그리고, 도면에서 본 개시에 대한 설명과 관계없는 부분은 생략하였으며, 유사한 부분에 대해서는 유사한 도면 부호를 붙인다.
본 개시에 있어서, 어떤 구성요소가 다른 구성요소와 "연결", "결합" 또는 "접속"되어 있다고 할 때, 이는 직접적인 연결관계 뿐만 아니라, 그 중간에 또 다른 구성요소가 존재하는 간접적인 연결관계도 포함할 수 있다. 또한 본 개시에서 용어 "포함한다" 또는 "가진다"는 언급된 특징, 단계, 동작, 요소 및/또는 구성요소의 존재를 특정하지만, 하나 이상의 다른 특징, 단계, 동작, 요소, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는다.
본 개시에 있어서, "제 1", "제 2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되고 구성요소들을 제한하기 위해서 사용되지 않으며, 특별히 언급되지 않는 한 구성요소들 간의 순서 또는 중요도 등을 한정하지 않는다. 따라서, 본 개시의 범위 내에서 일 실시예에서의 제 1 구성요소는 다른 실시예에서 제 2 구성요소라고 칭할 수도 있고, 마찬가지로 일 실시예에서의 제 2 구성요소를 다른 실시예에서 제 1 구성요소라고 칭할 수도 있다.
본 개시에 있어서, 서로 구별되는 구성요소들은 각각의 특징을 명확하게 설명하기 위함이며, 구성요소들이 반드시 분리되는 것을 의미하지는 않는다. 즉, 복수의 구성요소가 통합되어 하나의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있고, 하나의 구성요소가 분산되어 복수의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있다. 따라서, 별도로 언급하지 않더라도 이와 같이 통합된 또는 분산된 실시예도 본 개시의 범위에 포함된다.
본 개시의 다양한 실시예는 모든 가능한 구성요소들의 조합을 빠짐없이 나열한 것이 아니라 본 개시의 대표적인 양상을 설명하기 위한 것이며, 다양한 실시예에서 설명하는 구성요소들 중의 일부 또는 전부는 독립적으로 적용되거나 또는 둘 이상의 조합으로 적용될 수도 있다. 즉, 본 개시의 다양한 실시예에서 설명하는 구성요소들이 반드시 필수적인 구성요소들은 의미하는 것은 아니며, 일부는 선택적인 구성요소일 수 있다. 따라서, 일 실시예에서 설명하는 구성요소들의 부분집합으로 구성되는 실시예도 본 개시의 범위에 포함된다. 또한, 다양한 실시예에서 설명하는 구성요소들에 추가적으로 다른 구성요소를 포함하는 실시예도 본 개시의 범위에 포함된다.
본 개시의 예시적인 방법들은 설명의 명확성을 위해서 동작의 시리즈로 표현되어 있지만, 이는 단계가 수행되는 순서를 제한하기 위한 것은 아니며, 필요한 경우에는 각각의 단계가 동시에 또는 상이한 순서로 수행될 수도 있다. 또한, 본 개시에 따른 방법을 구현하기 위해서, 예시하는 단계에 추가적으로 다른 단계를 포함하거나, 일부의 단계를 제외하고 나머지 단계를 포함하거나, 또는 일부의 단계를 제외하고 추가적인 다른 단계를 포함할 수도 있다.
본 개시에서 사용된 용어는 특정 실시예에 대한 설명을 위한 것이며 청구범위를 제한하려는 것이 아니다. 실시예의 설명 및 첨부된 청구범위에서 사용되는 바와 같이, 단수 형태는 문맥상 명백하게 다르게 나타내지 않는 한 복수 형태도 포함하도록 의도한 것이다. 또한, 본 개시에 사용된 용어 "및/또는"은 관련된 열거 항목 중의 하나를 지칭할 수도 있고, 또는 그 중의 둘 이상의 임의의 및 모든 가능한 조합을 지칭하고 포함하는 것을 의미한다.
본 개시에서 사용하는 용어에 대한 정의는 다음과 같다.
오디오 싱크(audio sink)는 오디오 데이터를 오디오 소스로부터 수신하는 개체이다.
오디오 소스(audio source)는 오디오 데이터를 오디오 싱크로 전송하는 개체이다.
오디오 채널(audio channel)은 부호화된 또는 부호화되지 않은 오디오 데이터의 단일 플로우이다.
오디오 스트림(audio stream)은 오디오 소스로부터 오디오 싱크로 플로우하는 오디오 데이터를 나르는 단방향의(unidirectional) 논리적 통신 채널이다. 오디오 데이터는 오디오 스트림 세션(ASS) 상에서 플로우할 수 있다. 오디오 스트림은 하나 이상의 오디오 채널에 대한 오디오 데이터를 나를 수 있다.
오디오 그룹(audio group)은 하나 이상의 동기화된 오디오 스트림을 포함할 수 있다.
컨텐츠 타입(content type)은 오디오 그룹의 컨텐츠의 분류(classification)을 나타낸다. 분류는 오디오가 사용자에 의해서 개시되었는지 여부를 포함할 수 있다. 컨텐츠 타입의 예시는 미분류오디오(UncategorizedAudio), 링톤(Ringtone), 시스템사운드(SystemSound), 위성내비게이션(Satnav), 콜오디오(CallAudio), 미디어(Media) 등을 포함할 수 있다.
메타데이터(metadata)는 오디오 데이터의 컨텍스트(context)를 제공하고 설명하는 가변적인 길이의 데이터이다. 메타데이터는 상위 계층을 위해서 정의될 수 있다.
오디오 스트림 세션(audio stream session, ASS)은 오디오 스트림의 단방향 또는 양방향 전달/교환 과정을 의미한다. ASS의 말단(endpoint)은 오디오 스트림 세션의 오디오 입력 및/또는 오디오 출력에 해당하며, 하나의 디바이스 또는 디바이스 그룹에 대응할 수 있다. ASS의 말단은 서버 상에 존재하고 서버에 의해서 또는 클라이언트에 의해서 설정될 수 있다. 서버는 ASS 상태를 저장, 변경 및 관리할 수 있다.
QoS(Quality of Service)는 오디오 스트림에 대한 서비스 품질을 의미하며, 특정 서비스를 위한 요구조건에 대응할 수 있다.
오디오 로케이션(audio location)은 오디오를 렌더링하는 디바이스의 공간적인 배치 내에서 오디오 채널에 대해 의도된 논리적인 공간적 렌더링 위치를 의미한다. 예를 들어, 헤드셋의 왼쪽 및 오른쪽 위치가 오디오 로케이션에 해당할 수 있다. 오디오 채널에는 오디오 로케이션이 할당될 수 있다.
CBIS(Connection Based Isochronous Stream)은 코어 계층에서 정의되는 용어이며 ASS 서비스에서의 오디오 스트림에 대응하는 개념이다. 단방향 CBIS는 하나의 오디오 스트림을 가지고, 양방향(bidirectional) CBIS는 2개의 오디오 스트림을 가질 수 있다.
CBISS(Connection Based Isochronous Stream Set)은 코어 계층에서 정의되는 용어이며 ASS 서비스에서의 오디오 그룹에 대응하는 개념이다.
오디오 씬 애플리케이션(audio scene application, ASA)는 특정 컨텐츠 타입을 수행하는 오디오 그룹을 의미한다.
ASC(Audio Steam Capability)은 오디오 세션 캐퍼빌리티 설정을 위해서 필요한 파라미터들의 집합이다.
오디오 애드버타이즈먼트(Audio Advertisement)은 ASA 참가의 가용성(availability)를 디스커버하기 위한 것이다. 오디오 일반 애드버타이즈먼트(audio general advertisement)은 대상을 정하지 않은 오디오 알림이고, 오디오 다이렉티드 애드버타이즈먼트(audio directed advertisement)는 특정 대상에 대한 오디오 알림이다.
등시성 데이터(isochronous data)는 시간에 의해 한정되는 데이터를 의미한다. 예를 들어, 등시성 데이터는 비디오의 이미지에 대해 동기화될 필요가 있는 텔레비전 오디오, 또는 멀티 채널을 구성하는 다수의 디바이스에서 동기화되어 재생될 필요가 있는 오디오와 같이 시간에 종속된 오디오일 수 있다.
등시성 채널(isochronous channel)은 송신 디바이스로부터 하나 이상의 수신 디바이스로 등시성 데이터를 전송하기 위해 사용되는 논리적인 전송부를 의미한다.
등시성 스트림(isochronous stream)은 하나 이상의 등시성 채널을 나르는 논리적인 링크를 의미한다.
도 1은 종래의 오디오 연결 형태와 본 개시가 적용가능한 오디오 연결 형태를 예시적으로 나타내는 도면이다.
도 1(a)는 BR/EDR 오디오 연결 형태의 예시를 나타낸다. BR/EDR의 경우 일-대-일 연결을 지원한다. 하나의 디바이스(예를 들어, 스마트폰)가 중심(central) 디바이스로서 기능하고, 여러 디바이스들의 각각과 일-대-일로 연결될 수 있다. 즉, 복수의 일-대-일 연결이 존재할 수 있다. 이에 따라, 헤드셋을 통한 전화 통화 또는 스피커를 통한 음악 재생 등의 서비스가 지원될 수 있다. 이러한 연결 형태에서의 서비스의 중심은 오디오 소스이며, 헤드셋, 스피커, AVN(Audio Video Navigation)과 같은 오디오 싱크는 오디오 소스의 주변(peripheral) 디바이스로서 동작할 수 있다.
도 1(b)는 BLE 오디오 연결 형태의 예시를 나타낸다. BLE의 경우 다-대-다 연결을 지원할 수 있다. 이 경우, TV, 스마트폰, 게이트웨이 등의 복수의 중심 디바이스가 존재할 수 있고, 복잡한 M-대-N 연결이 구성될 수 있다. 이에 따라, 헤드셋을 통한 전화 통화 및 음악 재생의 서비스가 지원될 수 있고, 알람, 도어벨, 광고(advertising) 음성과 같은 브로드캐스트 오디오 서비스가 지원될 수 있다. 이러한 연결 형태에서의 서비스의 중심은 오디오 싱크이며, 다수의 오디오 소스를 이동하여 오디오 서비스를 사용할 수 있다.
도 2는 종래의 오디오 관련 프로토콜 스택과 본 개시가 적용가능한 오디오 관련 프로토콜 스택을 예시적으로 나타내는 도면이다.
도 2(a)는 BR/EDR 오디오 관련 프로토콜 스택의 예시를 나타낸다. L2CAP(Logical Link Control & Adaption Protocol) 계층은, 상위 계층과 하위 계층 사이에서 중재 및 조정의 기능을 한다. 상위 계층에는 RFCOMM(Radio Frequency Communication), AVDTP(Audio/Video Distribution Transport Protocol), AVCTP(Audio/Video Control Transport Protocol) 등의 프로토콜과, HFP(Hands Free Profile), A2DP(Advanced Audio Distribution Profile), AVRCP(Audio/Video Remote Control Profile) 등의 프로파일이 포함될 수 있다. 하위 계층은 MAC/PHY 계층을 포함할 수 있다. MAC(Medium Access Control) 계층은 링크 관리자(Link Manager) 및 링크 제어기(Link Controller)를 포함할 수 있고, PHY(Physical) 계층은 BR/EDR 무선(Radio)을 포함할 수 있다. 또한, SCO(Synchronous Connection Oriented)/eSCO(extended SCO)는 음성을 위한 동기 데이터 통신 경로를 제공할 수 있다. 이와 같이, BR/EDR에서는 프로파일 별로 프로토콜 스택이 설계될 수 있다. L2CAP 계층 및 BR/EDR 프로토콜, 포괄 액세스 프로파일(Generic Access Profile, GAP), BR/EDR 프로파일 계층을 통칭하여 호스트(host) 계층이라고 할 수 있고, 링크 관리자, 링크 제어기, BR/EDR 무선 계층을 제어기(controller) 계층이라고 할 수 있다. 호스트와 제어기 사이의 인터페이스는 HCI(Host Controller Interface)라 한다.
도 2(b)는 BLE 오디오 관련 프로토콜 스택의 예시를 나타낸다. 프로파일 별로 프로토콜이 구성되는 BR/EDR과 달리, BLE에서는 다양한 프로파일에 대한 공통의 프로토콜 스택이 설계될 수 있다. 이러한 공통의 프로토콜 스택을 미들웨어(middleware)라고 할 수 있다. 예를 들어, 보청기(hearing aids), 고품질 오디오/음악(high quality audio/music), 음성인식(voice recognition), 콜/미디어(call/media) 등의 다양한 프로파일에 대해서 공통의 프로토콜이 미들웨어 형태로 구성될 수 있다. 예를 들어, 미들웨어에는 디바이스 디스커버리(Discovery), 스트림 제어(Control) (또는 스트림 관리(management)), 코덱(Codec), 레거시 관리(legacy management) 등의 프로토콜이 포함될 수 있다. 또한, 코어 계층은 링크 계층(Link Layer, LL), LE 무선(Radio) (즉, PHY 계층)을 포함할 수 있고, LL에는 블루투스 5에서부터 정의된 멀티캐스트 지원 등시성(isochronous) 채널 관련 기능이 포함될 수 있다.
또한, 프로파일과 미들웨어는 호스트 계층이라 하고, 코어 계층은 제어기 계층이라 할 수 있고, 호스트와 제어기 사이에 HCI가 정의될 수 있다.
호스트는 도 2(b)에 예시된 호스트 프로파일 및 프로토콜 외에도, LE 프로파일, 포괄 액세스 프로파일(GAP), 포괄 애트리뷰트 프로파일(Generic ATTribute profile, GATT), ATT(Attribute) 프로토콜, SM(Security Manager) 등을 포함할 수 있다.
호스트로부터 제어기로 전송되는 정보는 HCI 명령 패킷(command packet)이라 칭할 수 있다. 제어기로부터 호스트로 전송되는 정보는 HCI 이벤트 패킷(event packet)이라 칭할 수 있다. 또한, 호스트와 제어기 사이에는 HCI 비동기식(asynchronous) 데이터 패킷 또는 HCI 동기식(synchronous) 데이터 패킷이 교환될 수 있다.
또한, 도 2(b)에 예시된 미들웨어 프로파일 및 서비스 외에도, 미들웨어에는 다음과 같은 다양한 프로파일 및/또는 서비스를 포함할 수 있다:
오디오 세션 캐퍼빌리티 서비스(Audio Session Capability Service, ASCS): 오디오 세션 캐퍼빌리티 서비스(ASCS)는 오디오 세션에 관련된 캐퍼빌리티를 알리거나 발견하는 것을 지원하는 서비스;
오디오 스트림 세션 서비스(Audio Stream Session Service, ASSS): 오디오 스트림 세션 서비스(ASSS)는 오디오 세션에 관련된 디스커버리, 설정, 수립, 제어, 관리를 지원하는 서비스;
오디오 입력 관리 서비스(Audio Input Management Service, AIMS): 오디오 입력의 볼륨 등의 관리를 위한 서비스;
오디오 라우팅 서비스(Audio Routing Service, ARS): 오디오 입력과 출력의 위치를 선택하기 위한 서비스;
오디오 미들웨어 프로파일(Audio Middleware Profile, AMP): 디바이스가 오디오를 분배하는 동작에 대한 기본적인 프로파일;
콜 관리 프로파일(Call Management Profile, CMP): 콜을 위해서 두 디바이스 간의 상호동작의 역할 및 절차에 대한 프로파일;
오디오 일반 미들웨어 프로파일(Audio General Middleware Profile, AGMP): 컨텐츠 및/또는 스트림 제어를 가능하게 하는 기본적인 프로파일;
그룹 식별 서비스(Group Identification Service, GIS): 그룹에 속한 디바이스의 디스커버리에 대한 서비스. 그룹 식별 서비스(GIS) 또는 그룹 식별 프로파일(Group Identification Profile, GIP)은 디바이스들이 그룹의 일부로서 디스커버되도록 할 수 있다. 그룹은 특정 시나리오를 지원하기 위해서 함께 동작하는 디바이스들의 그룹으로서 정의되며, 이러한 디바이스들을 그룹 멤버(Group Members)라고 칭할 수 있다. 예를 들어, 보청기(hearing aids)의 쌍, 이어버드(earbuds)의 쌍, 또는 멀티채널(예를 들어, 5.1CH) 오디오를 수신하는 스피커 셋과 같이 제어 명령에 함께 반응하는 디바이스들의 그룹이 이러한 예시에 해당할 수 있다;
오디오 플레이어 관리 프로파일(Audio Player Management Profile, APMP): 오디오 플레이어의 제어 또는 상호동작을 지원하는 프로파일;
오디오 플레이어 관리 서비스(Audio Player Management Service, APMS): 오디오 플레이어의 제어 또는 상호동작을 지원하는 서비스;
마이크로폰 관리 프로파일(Microphone Management Profile): 마이크로폰 상태 관리에 대한 프로파일;
마이크로폰 관리 서비스(Microphone Management Service): 마이크로폰 상태 관리를 위한 인터페이스 및 상태를 지원하는 서비스;
빠른 서비스 디스커버리 서비스(Quick Service Discovery Service, QSDS): 오디오 플레이어 관리, 콜 관리 등의 서비스에 대한 빠른 디스커버리를 지원하는 서비스;
콜 베어러 서비스(Call Bearer Service): 디바이스 상의 베어러에 대한 콜 인터페이스 및 콜 상태에 대한 관리를 지원하는 서비스;
볼륨 관리 프로파일(Volume Management Profile): 디바이스의 오디오 볼륨 관리를 지원하는 프로파일;
볼륨 관리 서비스(Volume Management Service): 디바이스의 오디오 볼륨 인터페이스 및 상태를 지원하는 서비스;
볼륨 오프셋 관리 서비스(Volume Offset Management Service): 오디오 출력에 대한 볼륨 관리를 위한 서비스.
도 3은 본 개시가 적용가능한 5.1 채널 서라운드 시스템 하드웨어에 대한 예시들을 나타낸다.
도 3에서 LE 오디오 소스 디바이스는 개시자(initiator)의 기능을 수행할 수 있고, LE 오디오 싱크 디바이스는 수용자(acceptor)의 기능을 수행할 수 있다. 개시자는 오디오 세션을 개시하는 디바이스를 의미하고, 수용자는 오디오 세션의 개시를 수락하는 디바이스를 의미한다. 여기서, 소스가 항상 개시자이거나 싱크가 항상 수용자인 것은 아니며, 소스가 수용자가 되거나 싱크가 개시자가 될 수도 있다.
예를 들어, 오디오 소스는 TV 디바이스이고, 오디오 싱크는 스피커 디바이스일 수 있다. 오디오 소스는 오디오 싱크에게 오디오 데이터를 전송할 수 있다. 또한, 오디오 소스는 오디오 싱크로부터 피드백 데이터를 수신할 수 있다. 복수의 오디오 싱크는 각각 5.1 채널 중의 하나, 즉, FL(Front Left), FR(Front Right), RL(Rear Left), RR(Rear Right), C(Center), W(Woofer)에 해당하는 오디오 데이터를 수신하여 스피커를 통해서 출력할 수 있다.
오디오 부호화기(encoder) 또는 복호화기(decoder)는 다양한 오디오 포맷을 지원할 수 있다. 예를 들어, 오디오 포맷은 BLEAC(Bluetooth Low Energy Audio Codec), Dolby 5.1CH, DTS(Digital Surround Sound) 등을 포함할 수 있으며, 각각의 포맷의 특징은 다음과 같다. BLEAC는 모노 코덱(mono codec)으로서 BLEAC의 96kbps 전송 레이트는 SBC(Sub-Band Codec)의 256kbps, MP3의 200kbps 전송 레이트와 동등한 품질을 제공할 수 있다. Dolby 5.1CH는 48 kHz 샘플링 레이트를 지원하고, 1 대 5.1 (또는 1 대 6) 채널을 지원하고, 최대 448 kbps 전송 레이트를 지원할 수 있다. DTS는 48 kHz 또는 96 kHz 샘플링 레이트를 지원하고, 2 대 6.1 채널을 지원하고, 768 kbps의 하프 레이트 및 1,536 kbps 풀 레이트의 전송 레이트를 지원할 수 있다.
도 4는 본 개시가 적용가능한 오디오 데이터 부호화/복호화 과정을 나타내는 도면이다.
도 4(a)를 참조하면 DTS 포맷의 스트림 또는 Dolby 5.1CH 포맷의 스트림이 송신단(Tx)의 DTS 복호화기 또는 Dolby 5.1CH 복호화기에 입력되어 PCM(Pulse-Code Modulation) 포맷의 오디오 신호로 출력될 수 있다. PCM 신호는 BLEAC 부호화기에 입력되어 BLEAC 포맷의 오디오 신호로 출력될 수 있다. 여기서 선택적 벤더 특정(optional vendor-specific) 정보가 추가될 수도 있다. BLEAC 신호는 BLE 인터페이스를 통하여 수신단(Rx)의 BLE 인터페이스로 전송될 수 있다. 수신단에서는 BLEAC 디코더를 통하여 BLEAC 신호를 처리하여 스피커를 통해 출력가능한 신호로 변환할 수 있다.
여기서, 송신단으로부터 복수의 수신단으로 복수의 스트림이 전달될 수 있다. 예를 들어, 복수의 스트림의 각각은 5.1CH 중의 하나의 채널에 대응하는 오디오 신호를 포함할 수 있다. 이러한 복수의 스트림은 복수의 수신단에서 수신되는 시점은 다를 수 있지만 동일한 시점에 재생(play) 또는 렌더링(rendering)이 요구되는 등시성(isochronous)을 가지며, 이러한 스트림을 CBIS (Connection Based Isochronous Stream)이라 할 수 있다. 즉, 5.1CH에 대응하는 6개의 CBIS가 송신단으로부터 수신단으로 전송될 수 있고, 이러한 6개의 CBIS의 집합을 하나의 CBISS(Connection Based Isochronous Steam Set)이라 할 수 있다.
도 4(b) 및 도 4(c)에서는 복수의 스트림을 통한 오디오 스트리밍을 개념적으로 나타낸다. 하나 이상의 오디오 스트림은 CBIS에 대응하고, 오디오 그룹은 CBISS에 대응할 수 있다. 예를 들어, 하나의 오디오 스트림이 하나의 CBIS에 대응할 수도 있고, 둘 이상의 오디오 스트림이 하나의 CBIS에 대응할 수도 있다. 복수의 CBIS는 하나의 오디오 그룹 또는 CBISS에 포함될 수 있다.
도 5는 본 개시가 적용가능한 2개의 디바이스에 대한 채널 할당의 예시를 나타내는 도면이다.
수신단은 송신단이 제공하는 타이밍 정보에 따라서 스트림 수신을 개시할 수 있다. 예를 들어, 타이밍 정보는, 타이밍 정보가 포함되는 데이터 유닛이 전송되는 시점으로부터 소정의 오프셋 이후의 시점을 지시할 수 있다. 수신단은 스트림에 포함되는 하나 이상의 채널에 해당하는 오디오 데이터를 수신할 수 있다. 예를 들어, 하나의 스트림에 포함되는 복수의 채널은 각각 복수의 수신단에게 할당될 수 있다. 하나의 스트림에 포함되는 복수의 채널(또는 복수의 오디오 데이터)은 시분할다중화(TDM) 방식으로 전송될 수 있다. 예를 들어, 제 1 타이밍에서 제 1 채널의 오디오 데이터가 전송되고, 제 2 타이밍에서 제 2 채널의 오디오 데이터가 전송될 수 있다.
브로드캐스트 수신단은 송신단으로부터 주기적으로 애드버타이징(advertising)되는 데이터 유닛에 포함되는 정보를 이용하여, 현재 획득가능한 브로드캐스트 오디오 스트림, 스트림 오프셋 값, 스트림 인터벌 값 등을 검출할 수 있다.
비연결 기반 등시성 링크인 INCL(Isochronous Non-Connection Link)의 경우, 소스 디바이스와 싱크 디바이스의 연결 없이 (예를 들어, 브로드캐스트 방식으로) 등시성 채널이 송수신될 수 있다. 송신단이 애드버타이징하는 AUX_SYNC_IND PDU(Protocol Data Unit)에 포함된 BSG(Broadcast Synch Group) 등의 정보로부터 수신단은 INCL 스트림 오프셋(stream offset) 또는 BSG 오프셋을 확인하고, 앵커 포인트 타이밍을 결정할 수 있다. 앵커 포인트로부터 INCL 스트림 전송이 시작될 수 있다. 연속되는 두 개의 앵커 포인트 간의 타이밍 차이는 인터벌(interval) (예를 들어, 도 5의 INCL CH1 인터벌 또는 ISO 인터벌)이라고 정의할 수 있다. 스트림 전송 이벤트(event) 내에는 하나 이상의 서브 이벤트(sub event)가 포함될 수 있다.
도 5의 예시에서 하나의 오디오 스트림은 2개의 채널에 대한 오디오 데이터를 포함할 수 있다. 제 1 채널(CH1)은 제 1 디바이스(디바이스 #1)에게 할당되고, 제 2 채널(CH2)은 제 2 디바이스(디바이스 #2)에게 할당될 수 있다. 앵커 포인트 이후의 하나 이상의 타이밍에서 INCL 스트림에 포함되는 CH1이 디바이스 #1에게 전송되고, 그 후에 하나 이상의 타이밍에서 CH2가 디바이스 #2에게 전송될 수 있다. 또한, INCL 스트림 이벤트는 CH1에 대한 이벤트와 CH2에 대한 이벤트를 포함할 수 있다. CH1에 대한 이벤트는 2 개의 서브이벤트를 포함할 수 있다. CH2에 대한 이벤트는 2 개의 서브이벤트를 포함할 수 있다. 서브 이벤트 간의 타이밍 차이는 서브이벤트 인터벌로 정의될 수 있다.
등시성 오디오 데이터는 제한된 수명(lifetime)을 가질 수 있다. 즉, 소정의 시간이 만료된 후에 오디오 데이터는 무효화될 수 있다. 예를 들어, ICL 채널에서 소정의 타임아웃 값이 정의될 수 있고, 복수의 디바이스로 전달된 등시성 오디오 데이터는 상기 소정의 타임아웃 값이 만료된 후에 폐기(discard)될 수 있다. 예를 들어, 타임아웃은 서브-이벤트의 개수(number of sub-events)로서 표현될 수도 있다.
도 6은 본 개시가 적용가능한 두 개의 스트림의 동기화 지연을 설명하기 위한 도면이다.
하나의 오디오 그룹에 복수의 스트림이 포함되고, 이러한 복수의 스트림은 동시에 재생될 것이 요구되는 등시성을 가지는 경우를 가정한다. 복수의 스트림은 하나의 디바이스에서 전송될 수도 있고 서로 다른 디바이스에서 전송될 수도 있다. 또한 복수의 스트림은 하나의 디바이스에서 수신될 수도 있고 서로 다른 디바이스에서 수신될 수도 있다.
블루투스 통신 방식에서는 복수의 스트림을 동시에 전송하는 것을 지원하지 않으므로, 복수의 스트림은 소정의 순서에 따라서 서로 다른 시간 자원(또는 타이밍) 상에서 TDM 방식으로 전송될 수 있다. 이 경우, 복수의 스트림의 전송 타이밍에 차이가 발생하고, 이에 따라 복수의 스트림의 수신 타이밍에도 차이가 발생할 수 있다. 또한, 복수의 스트림이 동시에 재생될 것이 요구되므로, 먼저 수신된 스트림이 먼저 재생될 수 없고 마지막 스트림이 수신될 때까지 대기한 후에 재생될 수 있다. 즉, 모든 스트림이 수신 완료되는 타이밍까지 동기화 지연(synchronization delay)이 발생할 수 있다.
도 6의 예시에서 제 1 스트림(CBIS#1) 및 제 2 스트림(CBIS#2)은 동시에 재생될 것이 요구되며, 하나의 CBISS에 포함될 수 있다. CBISS 앵커 포인트는 CBIS#1의 앵커 포인트와 동일하며, CBIS#1 오디오 데이터가 전송된 후 CBIS#1 인터벌 이후의 시점(예를 들어, T1)에 후속하는 CBIS#1 오디오 데이터가 전송될 수 있다. 다음으로 CBIS#2의 앵커 포인트에서 CBIS#2 오디오 데이터가 전송된 후 CBIS#2 인터벌 이후의 시점(예를 들어, T2)에 후속하는 CBIS#2 오디오 데이터가 전송될 수 있다. 하나의 CBISS에 포함되는 모든 스트림이 수신된 후 동시에 재생될 수 있다. 즉, 상대적으로 늦게 전송되는 CBIS#2의 수신 완료 시점에서 CBIS#1 및 CBIS#2의 오디오 데이터가 처리되어 재생될 수 있다.
여기서, CBISS의 동기화 지연은 CBISS에서 상대적으로 늦게 수신되는 CBIS#2의 수신 완료 시점(T2)까지의 시간 간격으로 정의될 수 있다. 예를 들어, CBIS#1의 수신 완료 시점(T1)과 CBIS#2의 수신 완료 시점(T2) 중에서 더 늦은 시점이 CBISS의 동기화 지연으로 결정될 수 있다. 즉, 복수의 스트림의 동기화 지연들 중에서 더 늦은 수신 완료 시점이 CBISS의 동기화 지연으로 결정될 수 있다. 구체적으로, CBIS#1 및 CBIS#2가 같은 하나의 CBISS로 묶여 있을 경우, 먼저 수신 완료된 스트림 CBIS#1은 나중에 수신 완료된 스트림 CBIS#2 정보가 전송 완료될 때까지 대기한 후 재생될 수 있다.
송신단(Tx)은 CBIS의 개수, CBIS 이벤트, 서브이벤트, 인터벌 등을 고려하여 계산된 예상 지연(Delay) 값을 수신단(Rx)에게 미리 알려줄 수 있다. 예를 들어, 송신단은 채널 설정시에 수신단에게 예상 지연 값을 알려줄 수 있다.
연결 기반 등시성 링크(Isochronous Connection Link, ICL)의 경우 송신단과 수신단은 연결된 상태이므로, 수신단은 실제 발생한 지연 값을 송신단에게 알려줄 수 있다.
INCL의 경우에는 송신단과 수신단이 연결되지 않은 상태이므로, 수신단은 실제 발생한 지연 값을 송신단에게 알려줄 수 없다. 만약 수신단으로부터 송신단으로 지연 값을 알려줄 수 있다고 하더라도, 송신단이 복수의 디바이스들의 동기화를 맞추기 위해서, 특정 디바이스의 재생 시점을 제어할 수 없다.
예를 들어, INCL인 경우에도 다수의 CBIS (예를 들어, 5.1CH의 6개 채널에 해당하는 6개의 CBIS)가 하나의 CBISS에 포함되는 경우, 송신단이 수신단으로부터 피드백을 받아서 동기화를 조절할 수도 있다. 피드백을 통해서 수신단은 자신의 지연 정보를 송신단에게 알려줄 수 있다.
도 7은 본 개시가 적용가능한 복수의 디바이스에 대한 브로드캐스트 동작을 설명하기 위한 도면이다.
오디오 소스 디바이스는 등시성 스트림들의 동시 재생을 위한 동기화 지연 값을 계산하여 복수의 오디오 싱크 디바이스에게 전달할 수 있다. 싱크 디바이스의 각각은 소스 디바이스로부터 제공된 지연 값에 기초하여 재생 타이밍을 결정할 수 있다. 즉, 소스 디바이스는 싱크 디바이스가 오디오 데이터를 수신하여 처리하기 위해서 소요되는 시간을 정확하게 알 수 없으므로, 싱크 디바이스가 재생 타이밍을 결정하기 위한 기초 정보로서 지연 값을 제공할 수 있다. 싱크 디바이스는 자신의 디바이스 특성에 따라 재생 타이밍을 결정하고 오디오 데이터를 재생할 수 있다.
예를 들어, 등시성 브로드캐스트(Isochronous Broadcast) 동작에 있어서, 소스 디바이스(예를 들어, TV)는 전송 지연(Transport Delay), 렌더링 지연(rendering delay) 등을 계산하여 싱크 디바이스(예를 들어, 스피커)에게 전달할 수 있다. 싱크 디바이스는 수신된 지연 값을 반영하여 오디오 데이터의 재생 또는 렌더링 타이밍을 조절할 수 있다. 싱크 디바이스 제조사마다 디바이스 특성이 다르기 때문에, 실제 재생 타이밍은 싱크 디바이스에서 결정하도록 할 수 있다.
만약 싱크 디바이스가 소스 디바이스에게 정보 전달이 가능한 경우에는, 싱크 디바이스가 지연 값을 계산하여 소스 디바이스에게 전달할 수 있다. 이에 따라, 소스 디바이스는 싱크 디바이스로부터 제공된 지연 값에 기초하여 전송 타이밍을 결정할 수 있다.
예를 들어, 싱크 디바이스(예를 들어, 스피커)가 소스 디바이스(예를 들어, TV)에게 정보를 전달할 수 있는 피드백 채널이 형성될 수 있다. 이 경우, 등시성 연결 기반의 유니캐스트 동작이 수행될 수 있다. 싱크 디바이스는 렌더링 지연(rendering delay) 값을 계산하여 소스 디바이스에게 피드백 채널을 통하여 전달할 수 있다. 이에 따라, 소스 디바이스는 싱크 디바이스로부터 제공된 지연 값을 반영하여 오디오 데이터의 전송 시간을 조절할 수 있다.
도 7을 참조하면 송신단은 TV이고, 두 개의 수신단인 제 1 스피커(스피커 #1) 및 제 2 스피커(스피커 #2)인 경우의 등시성 스트림 동작을 예시적으로 나타낸다. 제 1 스피커는 제 1 스트림/채널(예를 들어, 5.1CH 중에서 RR 채널), 제 2 스피커는 제 2 스트림/채널(예를 들어, 5.1CH 중에서 RL 채널)을 할당 받을 수 있다.
제 1 및 제 2 스피커는 각각 일반 오디오 일반 애드버타이즈먼트(audio general advertisement) 또는 오디오 다이렉티드 애드버타이즈먼트(audio directed advertisement)를 전송할 수 있다. TV와 제 1 스피커 또는 제 2 스피커 중의 하나 이상은 서로 연결을 맺을 수도 있고 연결을 맺지 않을 수도 있다.
TV와 스피커 중의 하나 이상이 연결을 맺은 경우에는, 스피커가 렌더링 지연 값을 계산하고 TV에게 보고할 수 있다. TV와 스피커가 연결을 맺지 않은 경우에는 TV가 전송 지연, 렌더링 지연 값 등을 계산하고 스피커에게 전달할 수 있다.
TV는 오디오 컨텐츠의 특성(content characteristics), 오디오/비디오 동기(A/V synch), 코덱 특성 등을 고려하여 동기화 작업을 수행하고 특정 오디오 스트림에 대해서 강제로 지연을 적용할 수 있다. 예를 들어, 오디오 코덱 인코딩/디코딩 지연은 BLEAC의 경우에 40ms, SBC의 경우에 200ms, APT-X의 경우에 100ms 등으로 상이하므로 코덱 특성에 따라서 지연 값이 결정될 수 있다. 또한, A/V 컨텐츠의 특성은 게임, 영화, 애니메이션 등에 따라서 상이하므로, 이를 고려하여 지연 값이 결정될 수 있다. 또한, 미디어 클럭(media clock)과 BLE 인터페이스의 클럭의 차이를 고려하여 지연 값이 결정될 수 있다. 미디어 클럭은 A/V 타임 스케일(time scale) 정보를 통해 확인할 수 있다.
또한, 도 7의 좌측에 표시된 바와 같이, 다양한 방송 표준에서 정의된 오디오/비디오 신호 처리 시간을 고려하여 지연 값이 결정될 수 있다. 예를 들어, 오디오-비디오-오디오 간의 시간 간격은, ATSC(Advanced Television Systems Committee)에서는 15ms 및 45ms, ITU-R BT.1359-1에서는 125ms 및 45ms, SMPTE(Society of Motion Picture and Television Engineers)에서는 22ms 및 22ms로 정의되며, 이러한 시간 간격을 고려하여 지연 값이 결정될 수 있다.
TV는 각각의 스트림의 렌더링 지연 값을 설정하여 스피커에게 알려주거나, 스피커로부터 제공된 지연 값에 기초하여 스트림의 전송 타이밍을 결정할 수 있다.
결정된 지연 값에 기초하여 TV는 스피커에게 스트림을 전송할 수 있다. 즉, 소스 디바이스 또는 송신단인 TV가 싱크 디바이스 또는 수신단인 스피커(들)과 지연 값을 교환하고, 지연 값을 반영하여 동기화를 맞추는 작업을 수행할 수 있다.
도 8 및 도 9는 본 개시가 적용가능한 ICL 타입 및 INCL 타입의 동작을 설명하기 위한 도면이다.
BLE에서 오디오 전송을 위한 채널은 ICL 타입과 INCL 타입으로 분류될 수 있다. ICL 채널과 INCL 채널 모두 스트림 식별자(Stream ID) 및 채널 식별자(Channel ID)를 이용하여 다수의 디바이스 및/또는 다수의 프로파일에게 오디오 데이터를 전송할 수 있다. ICL 타입과 INCL 타입에 따라서 오디오 데이터 전송을 위해 BLE 채널 상에서 어떠한 동작을 수행해야 하는지가 결정될 수 있다.
ICL 채널들의 경우에는 하나의 소스 디바이스와 하나의 싱크 디바이스 간의 포인트-대-포인트 물리 링크를 통한 단방향성 또는 양방향성 통신을 지원하는 연결 기반 유스 케이스에 해당한다. 또한, INCL 채널들의 경우에는 하나의 소스 디바이스와 하나 이상의 싱크 디바이스 간의 포인트-대-멀티포인트 물리 링크를 통한 단방향성의 통신만을 지원하는 브로드캐스트 유스 케이스에 해당한다.
디바이스의 프로토콜 스택은 상위계층으로부터 하위계층의 순서대로 프로파일 계층, 채널 관리자(channel manager) 계층, 호스트(host) 계층 및 제어기(controller) 계층을 포함할 수 있다. 프로파일 계층과 채널 관리자 계층 간에는 채널 단위로 데이터가 전달되고, 채널 관리자 계층과 호스트 계층 간에는 스트림 단위로 데이터가 전달될 수 있다.
도 8을 참조하여, ICL 타입의 경우에는 마스터(M)와 제 1 슬레이브1(S1) 간의 연결과 마스터(M)과 제 2 슬레이브(S2) 간의 연결이 존재할 수 있다. 이 경우, 두 개의 슬레이브에게 1개의 스트림에 포함되는 두 개의 채널을 채널 식별자로 구분하여 전송하는 것이 가능하다. 즉, Channel ID 1은 S1에게 할당되고, Channel ID 2는 S2에게 할당되는데, Channel ID 1 및 Channel ID 2는 모두 동일한 Stream ID 1을 통하여 전송될 수 있다. 또한, 연결 기반으로 양방향 통신이 가능하므로 슬레이브들은 마스터(M)에게 피드백 정보를 제공할 수도 있다. 예를 들어, S1이 오른쪽 귀에 장착하는 무선 이어폰이고, S2가 왼쪽 귀에 장착하는 무선 이어폰인 경우, 마스터(M)가 전송하는 음악을 S1과 S2를 통하여 스테레오로 청취하는 것이 가능하다.
도 9를 참조하여, INCL 타입의 경우에는 마스터(M)과 슬레이브들(S1, S2) 간의 연결이 없고, 슬레이브들은 마스터가 애드버타이징하는 동기화 정보에 기초하여 INCL 스트림 오프셋, 이벤트, 서브-이벤트의 타이밍에 동기화하고, 브로드캐스트되는 오디오 데이터를 수신할 수 있다. 또한, 마스터(M)는 두 가지의 프로파일(프로파일 #1 및 프로파일 #2)을 포함할 수 있다. 제 1 슬레이브(S1)은 프로파일 #1을 포함하고, 제 2 슬레이브(S2)는 프로파일 #1 및 프로파일 #2를 포함할 수 있다. 프로파일 #1에서 Channel ID 1 및 Channel ID 2가 하나의 스트림인 Stream ID 1을 통하여 마스터(M)로부터 브로드캐스트되고, 슬레이브들(S1, S2)이 각각 Channel ID 1 및 Channel ID를 프로파일 #1에서 수신하는 것은 도 8과 유사하다. 추가적으로, 프로파일 #2에서 Channel ID 1가 Stream ID 2를 통하여 마스터(M)로부터 브로드캐스트되고, 제 2 슬레이브(S2)가 Channel ID 1을 프로파일 #2에서 수신할 수 있다.
도 10은 본 개시가 적용가능한 브로드캐스트 오디오 스트림 상태 머신을 나타내는 도면이다.
브로드캐스트 오디오 스트림에 대한 제어는 브로드캐스트 송신단에서의 브로드캐스트 오디오 스트림 상태 머신(state machine) 및 상태 천이(transition)로 설명할 수 있다.
브로드캐스트 오디오 스트림 상태 머신은 브로드캐스트 송신기가 브로드캐스트 수신기(또는 브로드캐스트 디스커버리 클라이언트)와 통신하지 않거나, 연결 없이 단방향 방식으로 하나 이상의 브로드캐스트 수신기(또는 브로드캐스트 디스커버리 클라이언트)와 통신하는 것을 허용한다. 브로드캐스트 송신기는 BASS(Broadcast Audio Source Session)의 형태로 브로드캐스트 오디오 애드버타이즈먼트(audio advertisement)를 이용하여 통신할 수 있다. 브로드캐스트 오디오 스트림은 브로드캐스트 송신기에 의해서 송신될 수 있다.
AUDIO STANDBY 상태는 브로드캐스트 오디오 스트림이 전송되지 않는 상태를 의미한다.
AUDIO CONFIGURED 상태는 주기적인 애드버타이징 이벤트를 통해서 브로드캐스트 수신기(또는 브로드캐스트 디스커버리 개시자)가 오디오 스트림을 검출하도록 하는 정보를 애드버타이징하기 시작하는 상태를 의미한다. 주기적인 애드버타이징 이벤트는 애드버타이즈먼트 메타데이터(advertisement metadata), 스트림 설정(stream configuration), 동기화 정보 등을 전달하는 것을 포함할 수 있다. 이 상태에서 브로드캐스트 송신기로부터 오디오 데이터 패킷이 전송되지는 않는다.
AUDIO STREAMING 상태는 브로드캐스트 송신기에서 브로드캐스트 오디오 스트림이 활성화(enable)되어 오디오 데이터 패킷이 전송될 수 있는 상태를 의미한다. 브로드캐스트 송신기는 브로드캐스트 오디오 스트림을 전송하는 동안에 주기적인 애드버타이징을 통해서 계속하여 메타데이터 애드버타이즈먼트를 수행할 수 있다. AUDIO STANDBY 상태에서 스트림이 설정(configure stream)되면 AUDIO CONFIGURED 상태로 천이하고, AUDIO CONFIGURED 상태에서 스트림이 해제(release stream)되면 AUDIO STANDBY 상태로 천이할 수 있다. AUDIO CONFIGURED 상태에서 스트림이 활성화(enable stream)되면 AUDIO STREAMING 상태로 천이하고, AUDIO STREAMING 상태에서 스트림이 비활성화(disable stream)되면 AUDIO CONFIGURED 상태로 천이할 수 있다. AUDIO CONFIGURED 상태에서 스트림 재설정(reconfigure stream)이 발생하면 AUDIO CONFIGURED 상태로 천이할 수 있다. AUDIO STREAMING 상태에서 컨텐츠 재할당(content reassignment)이 발생하면 AUDIO STREAMING 상태로 천이할 수 있다.
도 11은 본 개시가 적용가능한 오디오 셋업 절차를 나타내는 도면이다.
디스커버리 결과가 없는 경우(즉, zero discovery) AUDIO STANDBY 상태로 천이하고, 디스커버리 결과가 있다면 ASC(Audio Stream Capability)에 대한 디스커버리를 수행하고 AUDIO STANDBY 상태로 천이할 수 있다.
ASS(Audio Stream Session) 설정이 발생하는 경우 AUDIO CONFIGURED 상태로 천이할 수 있다. AUDIO CONFIGURED 상태에서 ASS가 해제되면 AUDIO STANDBY 상태로 천이할 수 있다. AUDIO CONFIGURED 상태에서 재설정(reconfiguration)이 발생하는 경우에 ASS 설정을 거쳐 AUDIO CONFIGURED 상태로 천이할 수 있다.
ASS가 활성화되면 AUDIO STREAMING 상태로 천이할 수 있다. AUDIO STREAMING 상태에서 ASS 비활성화가 발생하면 AUDIO CONFIGURED 상태로 천이할 수 있다. AUDIO STREAMING 상태에서 컨텐츠 재할당이 발생하면 AUDIO STREAMING 상태로 천이할 수 있다.
도 12는 본 개시가 적용가능한 링크 계층 상태 머신을 나타내는 도면이다.
링크 계층(LL)의 동작은 (등시성 채널 관점에서) Standby, Advertising, Scanning, Initiating, Connection, Synchronized(synchronization), Streaming(Isochronous Broadcasting) 상태로 표현될 수 있다.
Standby 상태는 다른 상태로 천이하기 전의 대기 상태에 해당한다.
Advertising 상태에서 LL은 애드버타이징 패킷을 전송하는 애드버타이저(advertiser)로서 동작할 수 있다. Advertising 상태에서 연결을 맺는 경우 디바이스는 슬레이브(slave)로서 동작할 수 있다.
Initiating 상태에서 LL은 다른 애드버타이저로부터의 패킷을 청취(listen)하고 해당 패킷에 응답하여 연결을 개시하는 개시자(initiator)로서 동작할 수 있다. Initiating 상태에서 연결을 맺는 경우 디바이스는 마스터(master)로서 동작할 수 있다.
Scanning 상태에서 LL은 다른 애드버타이저로부터의 패킷을 청취하고 추가 정보를 요청할 수도 있는 스캐너(scanner)로서 동작할 수 있다.
Synchronized 상태는 다른 디바이스와 동기화되어 오디오 스트림을 수신하거나 수신할 수 있는 상태를 의미할 수 있다.
Streaming 상태는 동기화된 다른 디바이스에게 오디오 스트림을 전송하는 상태를 의미할 수 있다.
도 13은 본 개시가 적용가능한 오디오 토폴로지의 예시를 나타내는 도면이다.
유니캐스트의 경우에는 단방향 또는 양방향 오디오 스트림을 지원할 수 있다. 헤드셋과 스마트폰 간의 연결에 기반한 유니캐스트 오디오 데이터 송수신이 수행될 수 있고, 헤드셋과 스마트폰 간의 연결과 헤드셋과 태블릿 간의 연결에 기반한 유니캐스트 오디오 데이터 송수신이 수행될 수도 있다. 이 경우, 유니캐스트 오디오 서비스의 서버는 헤드폰이 될 수 있고, 클라이언트는 스마트폰, 태블릿 등이 될 수 있다. 또한, 헤드폰은 오디오 싱크에 해당하고, 스마트폰, 태블릿은 오디오 소스에 해당할 수 있다.
브로드캐스트의 경우에는 알림(announcement) 시스템, 도어벨(doorbell), TV 등이 브로드캐스트 방식으로 오디오 데이터를 전송하고, 브로드캐스트된 오디오 데이터를 하나 이상의 디바이스에서 수신할 수 있다. 이 경우, 브로드캐스트 오디오 서비스의 서버는 알림 시스템, 도어벨, TV 등이 될 수 있고, 클라이언트는 헤드폰이 될 수 있다. 또한, 헤드폰은 오디오 싱크에 해당하고, 알림 시스템, 도어벨, TV는 오디오 소스에 해당할 수 있다.
도 14 내지 도 16은 본 개시가 적용될 수 있는 서버와 클라이언트 간의 메시지 교환 과정을 나타내는 도면이다.
도 14 내지 도 16의 예시에서 클라이언트는 오디오 소스이고 서버는 오디오 싱크일 수 있다. 또는 클라이언트가 오디오 싱크이고 서버가 오디오 소스일 수도 있다.
도 14에서는 오디오 세션 캐퍼빌리티(ASC) 디스커버리(audio session capability discovery) 절차 및 ASC 업데이트(audio session capability update) 절차를 예시적으로 나타낸다.
도 14(a)의 오디오 세션 캐퍼빌리티 디스커버리 절차에서 클라이언트는 서버에서 ASC 디스커버리 요청(discovery request) 메시지를 전송하여 캐퍼빌리티 디스커버리를 요청하고, 이에 응답하여 서버가 클라이언트에게 ASC 디스커버리 응답(discovery response) 메시지를 전송하여 캐퍼빌리티의 세부 정보를 전달할 수 있다.
도 14(b)의 오디오 세션 캐퍼빌리티 업데이트 절차에서 서버는 클라이언트에게 ASC 업데이트 지시(update indication) 메시지를 전송하여 캐퍼빌리티 업데이트가 발생하였음을 알리고, 클라이언트는 서버에게 ASC 업데이트 확인(update confirmation) 메시지를 전송하여 캐퍼빌리티 업데이트를 수행할 것을 알릴 수 있다. 이에 후속하여 오디오 세션 캐퍼빌리티 디스커버리 절차 또는 ASC 디스커버리 절차(discovery procedure)가 수행될 수 있다.
도 14의 예시에서 이용되는 메시지의 포맷은 아래의 표 1과 같이 정의될 수 있다.
Figure PCTKR2020013719-appb-T000001
ASC 업데이트 지시 메시지 및 ASC 업데이트 확인 메시지에는 ASC 디스커버리가 필요하다는 것을 알리는 정보 및 이에 대한 확인 정보가 각각 포함될 수 있다.
도 15에서는 유니캐스트 오디오 스트림 설정 절차 및 유니캐스트 오디오 스트림 수립 절차를 예시적으로 나타낸다.
도 15(a)의 유니캐스트 오디오 스트림 설정(unicast audio stream configuration) 절차에서, 클라이언트는 AUDIO STANDBY 상태에서 코덱 설정 요청(Codec configuration request) 메시지를 서버에게 전송하여 설정을 요청하는 코덱이 무엇인지 등을 알릴 수 있다. 이에 응답하여 서버는 클라이언트에게 코덱 설정 응답(Codec configuration response) 메시지를 전송하여 서버가 지원하는 QoS 및 렌더링 지연값 등을 알릴 수 있다. 또한, 클라이언트는 서버에게 QoS 협상 요청(negotiation request) 메시지를 전송하여 특정 오디오 스트림 세션(ASS), 오디오 그룹, 오디오 스트림을 특정하여 클라이언트가 지원하는 QoS 및 렌더링 지연값 등을 알릴 수 있다. 이에 응답하여 서버는 클라이언트에게 QoS 협상 응답(negotiation response) 메시지를 전송할 수 있다. 이에 따라, 클라이언트와 서버 간에 대역폭(BW), 비트레이트(bitrate) 등이 협상에 의해 결정될 수 있고, 클라이언트와 서버는 CONFIGURED 상태로 천이할 수 있다.
도 15(b)의 유니캐스트 오디오 스트림 수립(unicast audio stream establishment) 절차에서, 클라이언트는 AUDIO CONFIGURED 상태에서 서버에게 ASS 활성화 요청(enable request) 메시지를 전송하여 활성화를 요청하는 ASS에 대한 정보를 알릴 수 있다. 이에 응답하여 서버는 클라이언트에게 ASS 활성화 응답(enable response) 메시지를 전송하여 어떤 ASS를 활성화시키는지에 대해서 알릴 수 있다. 클라이언트에서 연결 기반 등시성 링크 파라미터에 대한 설정이 수행되고, 클라이언트와 서버는 연결 기반 등시성 스트림 연결 및 관련 파라미터를 설정함으로써 CBIS가 수립될 수 있다. 클라이언트가 오디오 싱크이고 서버가 오디오 소스인 경우, 클라이언트는 오디오 데이터를 재생할 준비를 하고(예를 들어, 버퍼/메모리, 코덱, 오디오 애플리케이션 데이터 준비 확인 등), ASS 수신 준비 명령(ASS Rx ready command) 메시지를 서버에 전송하여 이를 알릴 수 있다. 이에 따라, 서버는 오디오 데이터를 제공할 준비(예를 들어, 버퍼/메모리, 코덱, 오디오 애플리케이션 데이터 준비 확인 등)를 하고, ASS 수신 준비 통지(ASS Rx ready notification) 메시지를 클라이언트로 전송하여 이를 알릴 수 있다. 클라이언트가 오디오 소스이고 서버가 오디오 싱크인 경우, 서버는 오디오 데이터를 재생할 준비를 하여 ASS 수신 준비 지시 통지(ASS Rx ready indication) 메시지를 클라이언트에게 전송하고, 클라이언트는 ASS 수신 준비 지시 통지 메시지를 수신한 후 오디오 데이터를 제공할 준비를 할 수 있다. 이에 따라, 클라이언트와 서버는 AUDIO STREAMING 상태로 천이할 수 있다.
도 15의 예시에서 이용되는 메시지의 포맷은 아래의 표 2와 같이 정의될 수 있다.
Figure PCTKR2020013719-appb-T000002
도 16에서는 클라이언트가 오디오 스트림을 비활성화하는 절차 및 서버가 오디오 스트림을 비활성화하는 절차를 예시적으로 나타낸다.
도 16(a)에서 클라이언트가 오디오 스트림을 비활성화하는(client disable audio streams) 절차에서, 클라이언트가 오디오 소스이고 서버가 오디오 싱크인 경우, AUDIO STREAMING 상태에서 클라이언트가 오디오 중단(audio stop) 결정을 하는 경우, ASS 비활성화 요청(disable request) 메시지를 서버로 전송할 수 있다. 이에 따라 서버는 오디오 데이터 스트리밍을 중단하고 ASS 비활성화 응답(disable response) 메시지를 클라이언트로 전송할 수 있다. 이를 수신한 클라이언트는 오디오 데이터 인코딩 및 오디오 애플리케이션 동작을 중지할 수 있다.
또는 클라이언트가 오디오 싱크이고 서버가 오디오 소스인 경우, 클라이언트는 오디오 데이터 스트리밍을 중단하고 ASS 비활성화 요청 메시지를 서버로 전송할 수 있다. 이에 따라 서버는 오디오 데이터 인코딩 및 오디오 애플리케이션 동작을 중지하고, ASS 비활성화 응답 메시지를 클라이언트로 전송할 수 있다.
이후 클라이언트와 서버는 연결 기반 등시성 스트림 해제 및 관련 파라미터 설정 해제를 수행할 수 있다. 여기서, 클라이언트와 서버간의 재연결을 대비하여 디바이스 정보가 등시성 스트림 연결 관련 파라미터와 함께 클라이언트 및/또는 서버에서 저장될 수 있다. 이에 따라, 클라이언트에서는 연결 기반 등시성 링크 관련 파라미터 설정을 해제할 수 있다. 이에 따라, 클라이언트 및 서버는 AUDIO CONFIGURED 상태로 천이할 수 있다.
도 16(b)의 예시에서 서버가 오디오 스트림을 비활성화하는 (server disable audio streams) 절차에서, 서버가 오디오 소스이고 클라이언트가 오디오 싱크인 경우, AUDIO STREAMING 상태에서 서버가 오디오 중단 결정을 하는 경우, ASS 비활성화 지시(disable indication) 메시지를 클라이언트로 전송할 수 있다. 이에 따라 클라이언트는 오디오 데이터 스트리밍을 중단하고 ASS 비활성화 확인(disable confirmation) 메시지를 서버로 전송하거나 전송하지 않을 수도 있다. ASS 비활성화 응답을 수신하거나 또는 수신하지 않더라도 서버는 오디오 데이터 인코딩 및 오디오 애플리케이션 동작을 중지할 수 있다.
또는 서버가 오디오 싱크이고 클라이언트가 오디오 소스인 경우, 서버는 오디오 데이터 스트리밍을 중단하고 ASS 비활성화 지시 메시지를 클라이언트로 전송할 수 있다. 이에 따라 클라이언트는 오디오 데이터 인코딩 및 오디오 애플리케이션 동작을 중지하고, ASS 비활성화 확인 메시지를 서버로 전송하거나 전송하지 않을 수도 있다.
이후 클라이언트와 서버는 연결 기반 등시성 스트림 해제 및 관련 파라미터 설정 해제를 수행할 수 있다. 여기서, 클라이언트와 서버간의 재연결을 대비하여 디바이스 정보가 등시성 스트림 연결 관련 파라미터와 함께 클라이언트 및/또는 서버에서 저장될 수 있다. 이에 따라, 클라이언트에서는 연결 기반 등시성 링크 관련 파라미터 설정을 해제할 수 있다. 이에 따라, 클라이언트 및 서버는 AUDIO CONFIGURED 상태로 천이할 수 있다.
도 16의 예시에서 이용되는 메시지의 포맷은 아래의 표 3과 같이 정의될 수 있다.
Figure PCTKR2020013719-appb-T000003
아래의 표 4는 컨텐츠 재할당 요청/응답, ASS 해제 요청/응답, 일반 애드버타이즈먼트, 다이렉티드 애드버타이즈먼트 메시지 포맷을 예시적으로 나타낸다.
Figure PCTKR2020013719-appb-T000004
도 17은 본 개시가 적용가능한 콜 서비스에 대한 상태 머신을 나타내는 도면이다.
AUDIO STANDBY 상태에서 콜이 착신(incoming)되는 경우에 CALL ACCEPTING 상태로 천이할 수 있다. CALL ACCEPTING 상태에서 콜을 수락(accept)하는 경우에 CALL ACTIVE 상태로 천이할 수 있다. CALL ACCEPTING 상태에서 콜을 거절(reject)하는 경우에 AUDIO STANDBY 상태로 천이할 수 있다. CALL ACCEPTING 상태에서 콜을 받을 수 없는 홀드(hold)의 경우에 CALL HELD 상태로 천이할 수 있고, CALL HELD 상태에서 홀드해제(unhold)되는 경우 CALL ACTIVE 상태로 천이할 수 있다. CALL HELD 상태 또는 CALL ACTIVE 상태에서 종료(terminate)되는 경우에 AUDIO STANDBY 상태로 천이할 수 있다.
또한, AUDIO STANDBY 상태에서 콜을 발신(outgoing)하는 경우에 CALL INITIATING 상태로 천이할 수 있다. CALL INITIATING 상태에서 원격지 또는 상대방에서 콜에 응답하는 경우에 CALL ACTIVE 상태로 천이할 수 있다. CALL INITIATING 상태에서 종료되는 경우 AUDIO STANDBY 상태로 천이할 수 있다.
이러한 콜 서비스 상태 머신에서, AUDIO STANDBY 상태에서 헤드셋으로 전달해야 하는 오디오 데이터가 발생할 수 있다. 예를 들어, 전화번호를 누를 때의 반응을 소리로 알림하는 경우에 헤드셋으로 오디오 데이터가 전달될 수도 있다.
또한, 콜 서비스와 관련된 다양한 무선 액세스 기술(예를 들어, 2G, 3G, 4G, 5G, Wi-Fi, GSM, CDMA, WCDMA 등)을 명시적으로 지시하는 정보가 정의될 수 있으며, 예를 들어, 1 옥텟 크기의 베어러 기술(bearer technology) 필드가 정의될 수 있다. 이는 전술한 콜 베어러 서비스(Call Bearer Service)와 관련될 수 있다.
멀티웨이 콜(Multiway Calling)의 경우에는 복수의 라인(line)이 존재할 수 있고, 도 17과 같은 상태 머신이 각각의 라인마다 유지될 수 있다. 예를 들어, 제 1 라인이 CALL ACTIVE 상태인 도중에 제 2 라인이 AUDIO STANDBY 상태에서 CALL ACCEPTING 상태로 천이하는 경우, 사용자의 제어에 따라 제 1 또는 제 2 라인을 CALL HELD 상태로 천이할 수 있다.
이하에서는, 블루투스 시스템의 논리 링크(logical links) 및 논리 트랜스포트(logical transports)에 대해서 설명한다.
다양한 애플리케이션 데이터 전송 요건을 지원하기 위해서 다양한 논리 링크가 사용될 수 있다. 각각의 논리 링크는 논리 트랜스포트와 연관(associate)되며, 이는 다양한 특성을 가질 수 있다. 이러한 특성은 플로우 제어, 확인응답(acknowledgment)/반복(repeat) 메커니즘, 시퀀스 넘버링 및 스케줄링 동작 등을 포함할 수 있다. 논리 트랜스포트는 그 타입에 따라서 다양한 타입의 논리 링크를 전달(carry)할 수 있다. 복수의 논리 링크가 동일한 하나의 논리 트랜스포트에 다중화될 수도 있다. 논리 트랜스포트는 특정 채널 상의 물리 링크에 의해서 전달될 수 있다.
논리 트랜스포트 식별정보 및 실시간 (링크 제어) 시그널링은 패킷 헤더에 포함될 수도 있고, 특정 논리 링크 식별정보는 페이로드의 헤더에 포함될 수도 있다.
아래의 표 5는 논리 트랜스포트 타입, 지원되는 논리 링크 타입, 지원되는 물리 링크 및 물리 채널 타입, 논리 트랜스포트에 대한 설명을 예시적으로 나타낸다.
Figure PCTKR2020013719-appb-T000005
도 18은 본 개시가 적용가능한 계층별 패킷 포맷을 나타내는 도면이다.
도 18(a)는 링크 계층(LL) 패킷 포맷의 예시를 나타낸다. LL 패킷 포맷은 프리앰블(preamble), 액세스 어드레스(access address) (또는 액세스 코드), PDU 및 CRC(Cyclic Redundancy Code) 필드를 포함할 수 있다. 프리앰블은 1 옥텟 크기를 가지고, 수신측에서 주파수 동기화, 심볼 타이밍 추정, AGC(Automatic Gain Control) 트레이닝 등을 위해서 사용될 수 있으며, 미리 정해진 비트 시퀀스로 구성될 수 있다. 액세스 어드레스는 4 옥텟 크기를 가지고, 물리 채널에 대한 상관 코드로서 사용될 수 있다. PDU는 Bluetooth 4.0 버전에서 2 내지 39 옥텟 크기로 정의되고, 4.2 버전에서는 2 내지 257 옥텟 크기로 정의될 수 있다. CRC는 PDU에 대한 24 비트 길이의 체크섬으로 계산된 값을 포함할 수 있다.
도 18(b)는 도 18(a)의 PDU의 예시적인 포맷을 나타낸다. PDU는 2 가지 타입으로 정의될 수 있으며, 하나는 데이터 채널 PDU(Data channel PDU)이고, 다른 하나는 애드버타이징 채널 PDU(Advertising channel PDU)이다. 데이터 채널 PDU에 대해서는 도 19를 참조하여 구체적으로 설명하고, 애드버타이징 채널 PDU에 대해서는 도 20을 참조하여 구체적으로 설명한다.
도 18(c)는 L2CAP PDU 포맷의 예시를 나타내며, 이는 도 18(b)의 페이로드 필드의 예시적인 포맷에 해당할 수 있다. L2CAP PDU는 길이(Length), 채널 식별자(Channel ID) 및 정보 페이로드(Information Payload) 필드를 포함할 수 있다. 길이 필드는 정보 페이로드의 크기를 지시할 수 있고, 정보 페이로드 필드는 상위 계층 데이터를 포함할 수 있다. 채널 식별자 필드는 정보 페이로드 필드가 어떤 상위 계층의 데이터를 포함하는지를 나타낼 수 있다. 예를 들어, 채널 식별자 필드의 값이 0x0004인 경우에는 ATT(ATTribute protocol), 0x0006인 경우에는 SMP(Security Manager Protocol)를 지시할 수 있으며, 또는 다른 타입의 상위 계층 또는 미들웨어를 지시하는 다른 채널 식별자 값이 정의 및 사용될 수 있다.
도 18(c)의 L2CAP 패킷이 시그널링 채널 상에서 전송되는 L2CAP PDU(즉, 제어 프레임)인 경우에, 도 18(c)의 정보 페이로드 필드는 도 18(d)와 같이 구성될 수 있다. 정보 페이로드 필드는 코드(Code), 식별자(Identifier), 길이(Length) 및 데이터(Data) 필드를 포함할 수 있다. 예를 들어, 코드 필드는 L2CAP 시그널링 메시지의 타입을 지시할 수 있다. 식별자 필드는 요청과 응답을 매칭시키는 값을 포함할 수 있다. 길이 필드는 데이터 필드의 크기를 지시할 수 있다. 데이터 필드에는 애트리뷰트(attribute)가 포함될 수 있다. 애트리뷰트는 임의의 데이터의 단위이며, 예를 들어, 위치, 크기, 중량, 온도, 속도 등의 디바이스의 다양한 상태의 다양한 시점의 데이터를 포함할 수 있다.
애트리뷰트는 애트리뷰트 타입(attribute type), 애트리뷰트 핸들(attribute handle), 애트리뷰트 밸류(attribute value) 및 애트리뷰트 퍼미션(attribute permission)을 포함하는 포맷을 가질 수 있다.
애트리뷰트 타입은 UUID(Universally Unique Identifier)에 의해서 식별되는 애트리뷰트 데이터의 종류를 지시하는 값을 포함할 수 있다.
애트리뷰트 핸들은 애트리뷰트 데이터를 식별하기 위해서 서버에 의해서 할당되는 값을 포함할 수 있다.
애트리뷰트 밸류는 애트리뷰트 데이터의 값을 포함할 수 있다.
애트리뷰트 퍼미션은 GATT(Generic ATTribute profile)에 의해서 설정될 수 있고, 해당 애트리뷰트 데이터에 대한 허용되는 액세스의 종류(예를 들어, 독출(read)/기입(write) 가능 여부, 암호화(encryption) 필요 여부, 인증(authentication) 필요 여부, 권한(authorization) 필요 여부 등)를 지시하는 값을 포함할 수 있다.
ATT(Attribute protocol)/GATT(Generic Attribute Profile) 관점에서 디바이스는 서버 및/또는 클라이언트의 역할을 할 수 있다. 서버는 애트리뷰트(attribute) 및 관련된 값을 제공하는 역할을 하고, 클라이언트는 서버 상의 애트리뷰트를 디스커버(discover)하거나, 독출(read), 기입(write)하는 역할을 할 수 있다.
ATT/GATT에서 서버와 클라이언트가 애트리뷰트 데이터를 주고받는 것을 지원할 수 있다. 이를 위해서 ATT 프로토콜에서 지원되는 PDU는 6개의 메소드(method) 타입, 즉, 요청, 응답, 명령, 통지, 지시 및 확인을 포함할 수 있다.
요청(request)은 클라이언트로부터 서버에게 전송되며, 이에 대한 서버의 응답이 요구된다. 응답(response)은 서버로부터 클라이언트에게 전송되며, 클라이언트로부터의 요청이 있는 경우 전송된다. 명령(command)은 클라이언트로부터 서버에게 전송되며, 이에 대한 응답은 요구되지 않는다. 통지(notification)는 서버로부터 클라이언트에게 전송되며, 이에 대한 확인은 요구되지 않는다. 지시(indication)는 서버로부터 클라이언트에게 전송되며, 이에 대한 클라이언트의 확인이 요구된다. 확인(confirmation)은 클라이언트로부터 서버에게 전송되며, 서버로부터의 지시가 있는 경우에 전송된다.
또한, GATT는 다양한 프로파일(profile)을 지원할 수 있다. GATT 기반 프로파일의 구조는, 서비스(service) 및 특성(characteristics)으로 설명될 수 있다. 디바이스는 하나 이상의 프로파일을 지원할 수 있다. 하나의 프로파일은 0 또는 하나 이상의 서비스(service)를 포함할 수 있다. 복수의 프로파일이 동일한 서비스를 이용할 수도 있다. 하나의 서비스는 하나 이상의 특성을 포함할 수 있다. 특성은 독출(read), 기입(write), 지시(indicate) 또는 통지(notify)의 대상이 되는 데이터 값을 의미한다. 즉, 서비스는 특정 기능 또는 특징(feature)를 설명하기 위해 사용되는 데이터 구조로 이해될 수 있으며, 특성의 조합인 서비스는 디바이스가 수행하는 동작을 나타낼 수 있다. 모든 서비스는 서버에 의해서 구현되며, 하나 이상의 클라이언트 의해서 액세스될 수 있다.
도 19는 본 개시가 적용가능한 데이터 유닛 포맷의 예시들을 나타내는 도면이다.
도 19(a)는 데이터 물리 채널 (Data Physical Channel PDU(Protocol Data Unit))의 예시적인 포맷을 나타낸다. 데이터 채널 PDU는 데이터 물리 채널(예를 들어, 채널 번호 0 내지 36) 상에서 패킷을 전송하기 위해 사용될 수 있다. 데이터 물리 채널 PDU는 16 또는 24 비트 길이의 헤더, 가변 크기(예를 들어, 0 내지 251 옥텟 크기)의 페이로드를 포함하며, 추가적으로 MIC(Message Integrity Check) 필드를 더 포함할 수 있다. 예를 들어, MIC 필드는 페이로드 필드 크기가 0이 아닌 암호화된 링크 계층 연결의 경우에 포함될 수 있다.
도 19(b)에 도시하는 바와 같이, 헤더 필드는 LLID(Logical Link Identifier), NESN(Next Expected Sequence Number), SN(Sequence Number), MD(More Data), CP(CTEInfo Present), RFU(Reserved for Future Use), 길이(Length) 필드를 포함할 수 있다. RFU는 향후 필요한 경우에 사용할 수 있도록 유보된(reserved) 부분에 해당하며, 그 값은 보통 0으로 채워질 수 있다. 또한, CP 필드의 값에 따라서 헤더 필드는 CTEInfo(Constant Tone Extension Information) 서브필드를 더 포함할 수 있다. 또한, Length 필드는 페이로드의 크기를 지시할 수 있으며, MIC가 포함되는 경우에는 페이로드 및 MIC의 길이를 지시할 수 있다.
도 19(c)는 LL 제어 PDU (LL Control PDU)의 예시적인 포맷을 나타낸다. LL Control PDU는 링크 계층 연결을 제어하기 위해서 사용되는 데이터 물리 채널 PDU에 해당할 수 있다. LL Control PDU는 동작코드(Opcode)에 따라서 고정된 값을 가질 수 있다. Opcode 필드는 LL Control PDU의 타입을 지시할 수 있다. 제어데이터(CtrData) 필드는 Opcode에 의해서 특정되는 다양한 포맷 및 길이를 가질 수 있다.
예를 들어, LL Control PDU의 Opcode는 LL_CBIS_REQ, LL_CBIS_RSP, LL_CBIS_IND, LL_CBIS_TERMINATE_IND, LL_CBIS_SDU_CONFIG_REQ, LL_CBIS_SDU_CONFIG_RSP 중의 하나를 나타내는 값(예를 들어, 0x1F, 0x20, 0x21, 0x22, ...)을 가질 수 있다.
Opcode가 LL_CBIS_REQ를 지시하는 경우, CtrData 필드에는 CBISS 식별정보, CBIS 식별정보과 함께 CBIS 요청에 필요한 정보를 포함할 수 있다. 이와 유사하게, Opcode가 LL_CBIS_RSP, LL_CBIS_IND, LL_CBIS_TERMINATE_IND, LL_CBIS_SDU_CONFIG_REQ, LL_CBIS_SDU_CONFIG_RSP 중의 하나를 지시하는 각각의 경우에, CtrData는 CBIS 응답, CBIS 지시(indication), CBIS 종료 지시, CBIS SDU(Service Data Unit) 설정 요청, CBIS SDU 설정 응답에 필요한 정보를 포함할 수 있다.
도 19(d)는 오디오 데이터 PDU 포맷의 예시를 나타낸다.
오디오 데이터 PDU는 CBIS PDU 또는 브로드캐스트 등시성 PDU(broadcast isochronous PDU)일 수 있다. CBIS 스트림에서 사용되는 경우, 오디오 데이터 PDU는 CBIS PDU로서 정의될 수 있다. 브로드캐스트 등시성 스트림에서 사용되는 경우, 오디오 데이터 PDU는 브로드캐스트 등시성 PDU로서 정의될 수 있다.
오디오 데이터 PDU는 16비트 길이의 헤더 필드 및 가변적인 길이의 페이로드 필드를 포함할 수 있다. 또한, 오디오 데이터 PDU는 MIC 필드를 더 포함할 수도 있다.
CBIS PDU인 경우에 헤더 필드의 포맷은 2비트 크기의 LLID, 1비트 크기의 NESN, 1비트 크기의 SN, 1비트 크기의 CIE(Close Isochronous Event), 1비트 크기의 RFU, 1비트 크기의 NPI(Null PDU Indicator), 1비트 크기의 RFU, 9비트 크기의 Length 서브필드를 포함할 수 있다.
브로드캐스트 등시성 PDU인 경우에 헤더 필드의 포맷은 2 비트 크기의 LLID, 3비트 크기의 CSSN(Control Subevent Sequence Number), 1 비트 크기의 CSTF(Control Subevent Transmission Number), 2 비트 크기의 RFU, 8 비트 크기의 Length 서브필드를 포함할 수 있다.
오디오 데이터 PDU의 페이로드 필드는 오디오 데이터를 포함할 수 있다.
도 20은 본 개시가 적용가능한 애드버타이즈먼트 유닛 포맷의 예시들을 나타내는 도면이다.
도 20(a)는 애드버타이징 물리 채널 (Advertising Physical Channel PDU(Protocol Data Unit))의 예시적인 포맷을 나타낸다. 애드버타이징 채널 PDU는 애드버타이징 물리 채널(예를 들어, 채널 번호 37, 38, 39) 상에서 패킷을 전송하기 위해 사용될 수 있다. 애드버타이징 채널 PDU는 2 옥텟 크기의 헤더 및 6 내지 37 옥텟 크기의 페이로드로 구성될 수 있다.
도 20(b)는 애드버타이징 채널 PDU의 헤더의 예시적인 포맷을 나타낸다. 헤더는 PDU 타입(PDU Type), RFU(Reserved for Future Use), 송신 어드레스(TxAdd), 수신 어드레스(RxAdd), 길이(Length), RFU 필드를 포함할 수 있다. 헤더의 길이 필드는 페이로드의 크기를 지시할 수 있다.
도 20(c)는 애드버타이징 채널 PDU의 페이로드의 예시적인 포맷을 나타낸다. 페이로드는 6 옥텟 길이의 AdvA(Advertiser Address) 필드 및 0 내지 31 옥텟 길이의 AdvData 필드를 포함할 수 있다. AdvA 필드는 애드버타이저의 공용 주소 또는 랜덤 주소를 포함할 수 있다. AdvData 필드는 0개 이상의 애드버타이징 데이터 스트럭처(Advertising Data(AD) structure) 및 필요한 경우 패딩을 포함할 수 있다.
도 20(d)에서는 하나의 AD structure의 포맷을 나타낸다. AD structure는 3개의 필드를 포함할 수 있다. 길이(Length) 필드는 AD 데이터(AD Data) 필드의 길이를 지시할 수 있다. 즉, 길이 필드에 의해서 지시되는 값에서 1을 차감한 값이 AD Data 필드의 길이에 해당할 수 있다. AD 타입(AD Type) 필드는 AD Data 필드에 포함되는 데이터의 타입을 지시할 수 있다. AD Data 필드는 애드버타이저의 호스트로부터 제공되는 애드버타이징 데이터를 포함할 수 있다.
이하에서는 본 개시에 따른 볼륨 레벨 보고 방안에 대해서 설명한다.
도 21은 본 개시가 적용가능한 음향 크기 및 노출 시간의 예시를 나타내는 도면이다.
청각은 귀에서 뇌가 이해할 수 있는 신호로 음파를 변환하는 여러 작용들의 종합 결과이다. 음파는, 귀로 들어가 고막과 뼈를 진동시키며, 이때의 진동이 귀속의 섬세한 털들에 의해 전기 신호로 변환되고, 신경을 따라 뇌로 전달된다. 뇌는 이 신호를 해석하여 음향 또는 소리로 인지한다. 소음 레벨은 데시벨(dB) 단위로 측정하며, 일반적으로 80dB가 넘는 음향(sound)을 소음(noise)으로 간주한다. 청각은 소음의 크기와 노출 시간에 영향을 받으며, 아주 큰 소음은 짧은 시간의 노출에도 청각 손실을 유발할 수도 있다. 즉, 큰 소음에 반복적/지속적으로 노출되면 귓속의 털들이 영구적으로 손상될 수 있다. 도 21에 개시된 바와 같은 소음 노출 제한의 예시들은, 소리의 크기가 커질수록 짧은 시간의 노출로도 청력에 영향을 줄 수 있음을 나타낸다. 따라서, 소리가 클수록 노출되는 시간을 더욱 줄이는 것이 요구된다.
도 22는 본 개시가 적용가능한 음압 레벨과 노출 시간의 관계를 예시적으로 나타내는 도면이다.
도 22에서 세로축은 dB(A) 또는 dBA 단위의 음압 레벨(sound pressure level, SPL)을 나타내고, 가로축은 일당(per day) 노출 듀레이션(exposure duration)을 나타내며, 이러한 음압 레벨 및 노출 듀레이션에 따른 안전(safe), 위협(threatening), 외상(traumatic) 영역을 예시적으로 나타낸다. 전술한 바와 같이 누적된 소음은 청각 신경 섬유를 손상시킬 수 있다. 예를 들어, 휴대용 음악 플레이어를 큰 소리로 오래 들으면 청력을 잃을 위험이 증가한다. 대부분의 휴대용 음악 플레이어를 통해 재생되는 압축된 음악은 전체 스펙트럼의 강도(overall intensity)가 높기 때문에 원래(original) 음악보다 소음에 더 가깝다. 시간이 지날수록, 청각은 더 높은 음량에 편안하게 적응하여, 정상적이고 편안하게 들린다 할지라도 실제로는 청력에 손상을 입힐 수 있다. 따라서 청각이 적응하기 전에, 높은 음량으로 이어폰이나 헤드폰을 사용하는 시간을 제한해야 한다.
이와 관련하여, 개인용/휴대용(personal/portable) 오디오 시스템에 대한 안전한 청취(safe listening)에 관련된 국제 표준(EN50332-3 & ITU-T H.870)에서는, 사용자에게 음향 볼륨(sound volume) 및 관련된 누적 노출량(cumulative exposure), 즉, 도스(dose)를 알리고 관리하는 내용을 포함한다.
소리의 크기는 일반적으로 파스칼(Pa, 1 Pa = 1 N/m2)의 압력 단위로 표현되며, 실험적으로 소리의 크기는 파스칼의 로그 스케일로 커진다. 음압 레벨(SPL)이란 소리의 크고 작음을 판단하는 사람의 주관적인 느낌을 공학적인 지표로 객관화하기 위해 사용되는 것이며, 아래의 수학식 1과 같이 정의될 수 있다.
Figure PCTKR2020013719-appb-M000001
여기서, P는 음향의 압력을 나타낸다. Pref는 미리 정해진 상수인 2*10^(-5) Pa로 주어지며, 이는 사람이 인지할 수 있는 최소 압력의 크기에 해당한다. 즉, Pref 크기의 음향의 SPL은 0 dB가 된다.
SPL의 측정과 관련하여 사람이 인지할 수 있는 소리의 크기를 반영한 A-가중(A-weighting) 기법이 사용될 수 있으며, A-weighting 기법에 의해서 측정된 값은 dB(A) 또는 dBA로 표현한다. 음향 노출량(sound exposure) 또는 도스(dose)는 아래의 수학식 2와 같이 정의될 수 있다.
Figure PCTKR2020013719-appb-M000002
여기서, p는 A-weighting이 적용된 음압을 의미하고, T는 지정된 시간 길이를 의미한다. 이와 같이 음향 노출량(E)는 일정 시간 동안 변화하는 음압(p(t))을 적분한 값으로 정의되므로, 오디오 컨텐츠 내에서 가변하는 음압을 대표하는 값의 의미를 가질 수 있다.
음향 노출 레벨(Sound Exposure Level, SEL)은 사람의 청각의 임계치(E0)에 상대적인 음향 노출량을 로그 형태로 표현한 것이며, 아래의 수학식 3과 같이 정의될 수 있다.
Figure PCTKR2020013719-appb-M000003
예를 들어, 80dBA의 음향 노출 레벨에 대해서 주당 40시간의 정규화된 음향 도스 값은 경고의 기준으로 적용될 수 있다. 짧은 시간 동안의 음향 노출 레벨에 대해서는 30 초 동안 100dBA로 제한될 수 있으며, 즉, 30초 동안 100dBA가 넘는 도스 값은 경고의 대상이 될 수 있다.
도 23은 본 개시가 적용가능한 복수의 디바이스의 관계를 예시적으로 나타내는 도면이다.
하나의 사용자가 복수의 디바이스들을 이용하는 경우에도, 해당 사용자에 대한 누적 음향 노출량을 계산 및 관리하는 것이 요구되지만, 아직까지 이를 지원하는 방안이 마련되어 있지 않다.
도 23의 예시에서는 사용자가 체육관의 트레드밀(Treadmill) TV(소스 #1)에 스포츠용 헤드셋(싱크 #1)을 연결하여 오디오를 듣고, 그 후 집으로 이동 중에는 스마트폰(소스 #2)의 음악 플레이어 애플리케이션에 이어버드(싱크 #2)를 연결하여 오디오를 듣고, 집에 도착하여 가정 TV(소스 #3)의 오디오를 넥밴드 해드셋(싱크 #3)을 통하여 듣는 경우를 가정할 수 있다. 이와 같이, 다수의 소스 디바이스 및/또는 다수의 싱크 디바이스를 한 사람의 사용자가 사용할 경우, 누적 노출량을 계산하는데 문제가 발생할 수 있다. 예를 들어, 음향 노출량을 어떤 디바이스가 계산할 것인지 정할 필요가 있고, 또한 이를 어떻게 정할 것인지도 문제된다. 또한, 사용하는 소스 및/또는 싱크 디바이스가 변경될 경우, 각각의 디바이스에서의 노출량을 어떻게 누적하여 계산하고 관리할지가 문제된다.
따라서, 본 개시에서는 사용자에게 음향 레벨 및 이에 관련된 누적 노출량을 알려주고, 미리 정해진 노출량(예를 들어, 일당/주당 노출량)을 추적 및 관리하여 최대 허용가능한 노출량에 도달하기 전에 사용자에게 알려주거나, 최대 허용 노출량까지 남은 시간을 표시하거나, 노출량 또는 볼륨 레벨을 디바이스 간에 보고/교환하여 사용자에게 적절한 볼륨 레벨을 싱크에서 자동으로 설정하는 것 등을 지원하기 위한 새로운 방안을 제시한다.
본 개시에서는 위와 같은 음향 노출 관리 방법, 음향 노출 계산 방법 및 이를 지원하는 디바이스 간의 통신 방법은 통칭하여 볼륨 레벨 보고(volume level reporting)라 칭한다. 구체적으로는, 볼륨 레벨은 디바이스의 오디오 출력(output) 또는 파워(power) 레벨(예를 들어, dBm 또는 W 단위의 값) 또는 음량 값을 사용자 친화적인 값으로 표현한 것에 해당할 수 있으며, 볼륨/파워 레벨은 사용자의 조작이나 다른 요인에 의해서 가변할 수 있다. 디바이스의 파워 레벨 및 디바이스의 제조 특성/디바이스 환경에 따라서 음압레벨(SPL)이 결정될 수 있다. 음압레벨(SPL) 및 노출시간(duration)에 따라서 음향노출량(SEL) 또는 도스가 달라질 수 있다. 본 개시에서는 볼륨 레벨에 기초하여 최종적인 음향노출량(또는 누적 노출량) 계산 및 관리가 수행되므로, 이와 관련된 절차를 통칭하여 볼륨 레벨 보고라 칭한다.
이하에서 설명하는 바와 같이, 누적 노출량의 결정에 관여하는 요소는, 싱크 디바이스의 파워 레벨, 파워 레벨 관련 특성(예를 들어, 최대 파워 레벨, 최소 파워 레벨, 평균 파워 레벨 등), SPL, SPL 관련 특성(예를 들어, 최대 SPL, 최소 SPL, 평균 SPL 등), 노출 시간(또는 듀레이션(duration)), 또는 SEL 중의 하나 이상을 포함할 수 있다.
또한, 누적 노출량의 결정에 관여하는 주체는 관리자(manager), 오디오 플레이어(audio player), 소스(source), 싱크(sink)라는 개체들을 포함할 수 있다. 각각의 개체에 대한 구체적인 설명은 후술한다.
디바이스/개체의 캐퍼빌리티에 따라서, 누적 노출량에 관련된 요소들을 디바이스/개체가 직접 계산 또는 결정하거나, 다른 디바이스/개체로부터 제공되는 정보에 기초하여 계산 또는 추정할 수 있다. 또한, 하나 이상의 요소를 개체들 간에 송수신하기 위해서 GATT 메시지가 이용될 수 있다. 이러한 GATT 메시지는 요청에 응답하여 제공하는 요청(solicited) 방식 또는 요청이 없더라도 제공하는 비요청(unsolicited) 방식으로 정의될 수도 있다.
예를 들어, 싱크의 파워 레벨은 싱크에 의해서 계산/결정되며, 싱크로부터 관리자, 오디오 플레이어 또는 소스 중의 하나 이상에게 제공될 수도 있다.
SPL은 관리자, 오디오 플레이어, 소스 또는 싱크 중의 하나 이상에 의해서 계산/결정될 수 있으며, 계산/결정을 수행한 개체로부터 다른 하나 이상의 개체에게 제공될 수도 있다.
듀레이션은 소스, 싱크 또는 오디오 플레이어 중의 하나 이상에 의해서 계산/결정될 수 있으며, 계산/결정을 수행한 개체로부터 다른 하나 이상의 개체에게 제공될 수도 있다.
SEL은 관리자, 오디오 플레이어, 소스 또는 싱크 중의 하나 이상에 의해서 계산/결정될 수 있으며, 계산/결정을 수행한 개체로부터 다른 하나 이상의 개체에게 제공될 수도 있다.
또한, 본 개시에 따른 누적 노출량 계산 및 관리 동작은 서버-클라이언트의 관계로 설명할 수도 있다. 예를 들어, 서버(또는 GATT 서버)는 싱크에 해당하고, 클라이언트(또는 GATT 클라이언트)는 관리자, 오디오 플레이어 또는 소스 중의 하나 이상에 해당할 수도 있다. 그러나, 본 개시가 이에 제한되는 것은 아니며, 해당 동작에 필요한 정보를 제공하는 개체를 서버라 하고, 서버로부터 정보를 독출하거나 서버에 정보를 기입하는 개체를 클라이언트라 할 수 있다.
본 개시에서 볼륨 레벨 보고를 위해서 필요한 새로운 메시지 및 절차는 아래의 표 6과 같이 정의할 수 있다. 표 6에서 정의하는 메시지 및 절차는 특정 프로파일 또는 서비스에 의해서 지원될 수 있다.
Figure PCTKR2020013719-appb-T000006
Figure PCTKR2020013719-appb-I000001
도 24는 본 개시가 적용가능한 개체에 대한 정의를 설명하기 위한 도면이다.
음압레벨에 따른 음향 노출 시간(또는 음향노출량)을 관리하고 사용자에게 경고 및 안내하기 위한 절차에 관여하는 개체(entity)는 다음과 같이 정의될 수 있다.
소스는 싱크로 오디오를 전송할 수 있다. 예를 들어, 소스는 스마트폰, 오디오 비콘, TV 등에 해당할 수 있다.
싱크는 소스로부터 전송된 오디오를 수신 및 렌더링할 수 있다. 예를 들어, 싱크는 헤드셋, 이어버드, 스피커 등에 해당할 수 있다. 또한, 싱크는 현재 렌더링되는 오디오의 파워 레벨 또는 음압레벨에 대한 계산을 수행할 수 있다.
관리자 애플리케이션은 누적 노출량의 계산 및 관리의 역할 분배 및 최종 합산 등의 전반적인 절차를 관리하며, 예를 들어, 음향 노출 시간 또는 음향 노출량을 합산 및 관리할 수 있다.
오디오 플레이어 애플리케이션은 오디오 전송에 관련된 기능(예를 들어, 음악 선택, 멈춤, 다음 곡 재생 등)을 수행할 수 있다. 본 개시에서는 대표적인 예시로서 음악 플레이어 애플리케이션을 가정하여 설명하지만, 다양한 오디오 컨텐츠를 재생하는 애플리케이션에 대해서도 동일한 사항이 적용될 수 있다.
여기서, 관리자 애플리케이션, 오디오 플레이어 애플리케이션 등은 소프트웨어 개체로 구성될 수 있으며, 임의의 디바이스에 포함 또는 구현될 수 있다. 즉, 관리자 애플리케이션, 오디오 플레이어 애플리케이션 등은 소스 개체와 동일한 디바이스에 존재할 수도 있지만, 반드시 소스 개체와 동일한 디바이스에 존재할 필요는 없다. 예를 들어, 관리자 애플리케이션 및/또는 오디오 플레이어 애플리케이션은 싱크 개체와 동일한 디바이스에 존재할 수도 있고, 소스도 아니고 싱크도 아닌 별개의 디바이스에 존재할 수도 있다. 즉, 본 개시에서 설명하는 개체들 중의 둘 이상은 동일한 디바이스에 포함될 수도 있고 서로 다른 디바이스에 포함될 수도 있다. 이하에서는 관리자, 오디오 플레이어, 소스, 싱크라는 개체(entity)를 기준으로 설명한다.
싱크가 오디오 전송 시간(또는 노출 시간) 계산이 가능한 캐퍼빌리티를 가진 경우, 관리자는 싱크와 SPL 정보를 교환할 수 있다.
싱크가 오디오 전송 시간 계산에 대한 캐퍼빌리티를 가지지 못하는 경우, 관리자는 설정단계(예를 들어, 표 6의 Volume Level Configuration Start 또는 Volume Level Configuration Result 메시지 교환 절차)에서 소스와 파워 레벨 또는 볼륨 정보를 교환하여 누적 노출량을 추정할 수 있도록 설정될 수 있다.
관리자는 주로 소스 #1 내지 #3과 노출 시간 및 SPL 정보를 교환할 수 있다. 이는 소스가 싱크보다 높은 계산 능력을 가진 디바이스에 포함될 가능성이 높기 때문이다.
관리자는 사용자에게 합산, 관리 중인 음향 레벨(파워 레벨 또는 SPL) 및 관련된 누적 노출량(도스) 정보를 보여줄 수 있다. 또한, 관리자는 해당 정보를 하나 이상의 오디오 플레이어 애플리케이션에게 전달하여, 각 오디오 플레이어 애플리케이션에서 사용자에게 정보를 보여줄 수도 있다.
도 25는 본 개시가 적용가능한 노출량 계산의 예시를 설명하기 위한 도면이다.
노출량 S는 음압레벨(SPL)과 노출 듀레이션(duration)에 기초하여 결정될 수 있다. 예를 들어, 도 22의 예시와 같이 노출량 S는 SPL 및 듀레이션의 곱 연산으로 정의될 수 있다. 또는, 노출량 S는 SPL 및 듀레이션에 기초한 소정의 함수(f)로서 정의될 수도 있으며, 예를 들어, S=f(SPL*duration)으로 표현될 수 있다. 예를 들어, 노출량 S는 전술한 SEL에 해당할 수도 있다.
또한, 노출량 S는 SPL 및 듀레이션에 기초하여 직접 계산 또는 측정될 수도 있고, S 값은 SPL 및 듀레이션에 추가적인 다른 인자를 더 고려하여 추정 또는 추정될 수도 있다.
이러한 노출량 S의 계산을 위해서 싱크는 현재 렌더링되는 오디오의 음압(또는 음압레벨) 값에 대한 계산 또는 추정을 지원할 수 있다.
예를 들어, 싱크가 자신의 현재 파워 레벨에 기초하여 SPL을 계산하여 관리자와 공유할 수 있다. 만약, 싱크가 SPL에 대한 계산 능력이 없을 경우 파워 레벨(또는 볼륨)과 SPL 간의 대응관계에 대한 정보를 관리자, 소스, 싱크 중의 하나 이상과 공유할 수도 있다. 이에 따라, 관리자, 소스 또는 싱크 중의 하나 이상은 싱크의 SPL을 계산 또는 추정할 수 있다.
예를 들어, SPL 또는 파워 레벨은 싱크가 주로 계산하여 다른 개체와 공유할 수 있고, 듀레이션은 주로 소스가 계산하여 다른 개체와 공유할 수 있다. 그러나, 관리자, 소스, 싱크 중의 임의의 하나의 개체가 단독으로, 또는 그 중에서 둘 이상의 개체가 서로 정보를 공유하여 SPL, 듀레이션 및 노출량 S를 계산 또는 추정할 수도 있다.
이러한 볼륨 및/또는 파워 레벨과 SPL의 대응관계는 싱크의 제조 특성에 따라 달라질 수 있으므로, 아래의 표 7과 같이 제조사 별로 매칭 테이블 형태로 구성될 수도 있다. 예를 들어, 볼륨 및/또는 파워 레벨과 SPL의 대응 관계에 대한 매칭 테이블은, 파워 레벨 특성에 대한 정보(예를 들어, 최소 파워 레벨, 최대 파워 레벨, 평균 파워 레벨 등), SPL 특성에 대한 정보(예를 들어, 최소 SPL, 최대 SPL, 평균 SPL 등)을 포함할 수 있다.
Figure PCTKR2020013719-appb-T000007
이와 같이 노출량 S는 허용 절대량(또는 노출량)에 대해서 미리 설정된 소정의 임계치와 비교되어 사용자에게 경고 알림이 제공될 수 있다. 허용 절대량에 대한 임계치는 소정의 노출량 값으로 미리 정의될 수 있다.
예를 들어, 관리자는 현재까지의 전체 누적 노출량을 제 1 경고 임계치 B 레벨과 비교하여 사용자에게 경고 알림을 수행할 수 있다. 예를 들어, B 값은 도 22의 예시에서와 같이 안전 영역과 위협 영역의 경계 값(예를 들어, 100 dBA의 SPL의 오디오를 및 8 분 동안 청취하는 경우에 해당하는 SEL 값)에 해당할 수 있다. 또한, 도 25의 예시에서와 같이 전체 누적 노출량 S가 B level을 넘을 경우 이에 해당하는 경고(예를 들어, "누적 노출량이 800을 넘었습니다")를 사용자에게 알릴 수 있다.
추가적인 예시로서, 관리자는 전체 누적 노출량을 제 2 경고 임계치 A 레벨과 비교하여 사용자에게 경고 알림을 수행할 수도 있다. 예를 들어, A 값은 도 22의 예시에서 안전 영역에 해당하지만 사전에 경고가 필요한 값으로 설정될 수 있다. 예를 들어, 경고 알림은 현재 SPL을 유지면서 계속하여 오디오를 청취하는 경우에 위협 영역(또는 B 레벨)에 도달할 때까지 소요되는 시간(즉, 허용 시간)을 알리는 형태로 구성될 수도 있다. 여기서, 허용 시간 = 허용 절대량(또는 노출량) / 현재 볼륨 (또는 파워 레벨 또는 현재 SPL) 로 정의될 수 있다. 도 25의 예시에서 전체 누적 노출량 S가 A 레벨을 넘을 경우, 이에 해당하는 경고(예를 들어, "현재 볼륨으로 5분 이상 청취하는 경우 청력이 손상될 수 있습니다. 볼륨을 줄이세요.")를 사용자에게 알릴 수 있다.
본 개시에서 경고 알림을 수행하는 개체는 관리자일 수도 있지만, 소스, 싱크 또는 오디오 플레이어에서, 직접 누적 노출량을 계산하거나 다른 개체로부터 누적 노출량을 전달받고, 이에 기초하여 경고 알림을 수행할 수도 있다. 예를 들어, 도 25에 도시된 바와 같이 음악 플레이어 애플리케이션에서, 재생중인 오디오 컨텐츠의 평균 음향 크기(또는 power 레벨 또는 현재 SPL)와 이에 따라 계산된 남은 허용 노출 시간을 사용자에게 표시할 수 있다.
도 26은 본 개시가 적용가능한 클라우드 서버를 이용한 누적 노출량 관리 방법을 설명하기 위한 도면이다.
본 예시에 따르면 클라우드 서버(cloud server)를 이용하여 복수의 소스로부터 SPL, 노출 시간, 누적 노출량 등을 등을 수신하여, 기록 및 관리할 수 있다.
클라우드 서버에는 특정 사용자 계정에 연관된 소스(들)의 등록/해제에 대한 정보가 유지 및 관리될 수 있다.
예를 들어, 소스 임시 등록의 경우에 대한 예시는 다음과 같다.
공용으로 사용하는 소스(예를 들어, 소스 #1)인 경우, 사용자가 근처에 있는 공용 소스를 일정 시간 동안 클라우드 서버에 연결할 수 있다. 예를 들어, 소스와 클라우드 서버가 직접 연결될 수도 있고, 또는 사용자 측의(예를 들어, 사용자 스마트폰(예를 들어, 소스 #3)에 설치된) 관리자 애플리케이션을 통해 소스와 클라우드 서버가 연결될 수도 있다. 소스와 클라우드 서버가 연결되는 것은, 소스가 클라우드 서버에 등록되고, 소스와 클라우드 서버 간에 정보가 송수신될 수 있는 상태를 의미할 수 있다. 예를 들어, 소스는 클라우드 서버와 소정의 시간(예를 들어, 사용자가 공용 소스를 사용하는 시간) 동안 연결되도록 설정될 수도 있다. 소정의 시간 동안 클라우드 서버와 연결을 유지하는 소스는, 소정의 시간이 만료되는 시점(예를 들어, 사용자가 공용 소스 사용을 중지하는 경우)에 현재까지의 누적 노출량을 계산하여 클라우드 서버로 전송할 수 있다. 소정의 시간은 사용자의 선택에 따라서 연장될 수도 있고, 사용자의 특별한 선택이 없으면 소정 시간 만료 후에 소스와 클라우드 서버의 연결은 종료될 수 있다.
추가적인 예시로서, 소스는 클라우드 서버에 영구적으로(또는 기간의 제한 없이) 등록될 수도 있다. 이는 공용 소스가 아닌 사용자 개인이 소유한 소스의 경우에 해당할 수 있다. 이 경우, 사용자는 소스를 클라우드 서버에 인증하여 지속적으로 소스로부터 클라우드 서버에게 누적 노출량 전송이 가능할 수 있다.
소스가 누적 노출량 계산을 수행할 경우, 그 결과 값을 관리자 또는 클라우드 서버에게 공유/전달하기 위해서, 공유하는 주기, 공유하는 이벤트, 특정 사용자(예를 들어, 사용자 ID 또는 관리자 ID) 등이 설정될 수 있다.
도 27은 본 개시가 적용가능한 볼륨 레벨 보고 방법의 일례를 설명하기 위한 도면이다.
단계 S2710에서 제 2 디바이스는 제 1 디바이스에게 SPL에 관련된 정보(즉, 제 1 정보)를 보고할 수 있다. 예를 들어, SPL에 관련된 정보는, 제 2 디바이스의 볼륨 레벨(또는 파워 레벨)(예를 들어, dB, dBm 또는 W 단위)을 실제 음의 크기 (예를 들어, dBA 단위)로 변환하기 위한 계수에 대한 정보(또는 음향 감도 매개 변수)를 포함할 수 있다. 예를 들어, 표 7과 같은 볼륨-SPL의 매칭 정보(또는 테이블), 또는 파워/볼륨 레벨을 이용하여 SPL을 계산할 수 있는 파라미터가 제 2 디바이스로부터 제 1 디바이스에게 보고될 수 있다. 이러한 제 1 정보는, 예를 들어, 최소 파워 레벨 또는 최소 SPL, 최대 파워 레벨 또는 최대 SPL, 평균 파워 레벨 또는 평균 SPL 등을 포함할 수도 있다.
단계 S2720에서 제 1 디바이스는 노출량을 결정할 수 있다. 노출량은 볼륨 레벨, 파워 레벨, SPL, 듀레이션 등에 기초하여 계산될 수 있다. 노출량 계산에 필요한 정보 중의 하나 이상은 제 2 디바이스로부터 제공될 수 있다.
단계 S2730에서 제 1 디바이스는 노출량 조절(adjustment) 정보(즉, 제 2 정보)를 제 2 디바이스로 전송할 수 있다. 예를 들어, 노출량 조절 정보는 볼륨 레벨 또는 파워 레벨을 특정 값으로 조절하도록 세팅/지시/권고하는 정보를 포함할 수 있다. 또는, 노출량 조절 정보는, 현재까지의 누적 노출량이 소정의 임계치를 초과하는 경우에, 시간 및/또는 볼륨 레벨(또는 파워 레벨)의 조절이 필요함을 알리는 정보를 포함할 수도 있다.
단계 S2740에서 제 2 디바이스는 노출량 조절 정보에 기초하여 노출량을 조절할 수 있다. 노출량 조절은 볼륨 레벨 또는 파워 레벨을 특정 값으로 조절하는 것을 포함할 수 있다. 예를 들어, 제 1 디바이스에 의해서 세팅/지시/권고된 특정 볼륨 레벨에 기초하여, 제 2 디바이스는 자신의 볼륨-SPL의 매칭 특성에 기초하여 자신의 출력 볼륨을 제어할 수 있다. 또는, 노출량 조절은 노출 시간 및/또는 볼륨 레벨(또는 파워 레벨)을, 제 1 디바이스로부터 제공된 노출량 조절 정보에 기초하여 수정하는 것을 포함할 수 있다.
도 27의 예시에서 제 1 디바이스는 클라이언트이고, 제 2 디바이스는 서버일 수 있다. 또는, 제 1 디바이스는 소스이고, 제 2 디바이스는 싱크일 수 있다. 제 1 디바이스가 소스인 경우, 소스는 매니저/음악 플레이어 애플리케이션 등을 포함할 수 있다.
도 27의 예시에서는 하나의 제 2 디바이스를 가정하여 설명하였지만, 하나 이상의 제 2 디바이스가 제 1 디바이스와 볼륨 레벨 보고를 수행할 수 있다. 하나 이상의 제 2 디바이스의 각각에 대해서 별도로 도 27의 볼륨 레벨 보고 절차가 수행될 수도 있고, 하나 이상의 제 2 디바이스에 대해서 공통적으로(즉, 예를 들어, 복수의 제 2 디바이스가 볼륨 레벨을 공유하도록) 도 27의 볼륨 레벨 보고 절차가 수행될 수도 있다.
다양한 싱크는 그 구조에 따라서 서로 다른 음향적인 특징을 가질 수 있으며, 각각의 싱크마다 동일한 볼륨 레벨 값이라고 하더라도 상이한 크기의 음향 출력이 발생할 수 있다. 이러한 문제를 해결하기 위해서, 도 27의 예시에서 설명한 바와 같이, 소스 또는 클라이언트는 싱크 또는 서버의 실제 음향 출력 특성(예를 들어, 볼륨-SPL 매칭 정보)을 이용하여 볼륨 세팅을 결정할 수 있다. 또한, 싱크 또는 서버는 소스 또는 클라이언트로부터 제공되는 볼륨 세팅을, 자신의 실제 음향 출력 특성(예를 들어, 볼륨-SPL 매칭 정보)에 기초하여 해석하여 적절한 크기의 음향을 출력할 수 있다. 이에 따라, 일관된 볼륨 조절이 가능하게 되며, 실제로 사용자의 청력에 영향을 미치는 실제 음향 노출량이 정확하게 계산 및 관리될 수 있다.
도 28은 본 개시가 적용가능한 볼륨 레벨 보고 방법의 추가적인 예시를 설명하기 위한 도면이다.
도 28의 예시는 복수의 개체 간에 볼륨 레벨(또는 파워 레벨)을 공유하는 상황을 나타낸다. 소스와 관리자가 동일한 디바이스에 포함되거나, 소스와 오디오 플레이어가 동일한 디바이스에 포함되는 경우를 가정한다. 볼륨 레벨 보고 동작에 있어서, 소스 측의 관리자/오디오 플레이어가 제어를 수행하는 경우를 나타낸다. 예를 들어, 싱크는 헤드셋, 이어버드, 스피커일 수 있고, 소스는 스마트폰일 수 있다.
조정(calibration) 단계에서 소스/관리자/오디오 플레이어와 싱크 #1 및 #2가 각각의 캐퍼빌리티를 확인하고, 이에 기초한 volume level configuration start 및 volume level configuration result 메시지 교환을 통하여 파워 레벨, SPL, 듀레이션, SEL의 계산/추정을 수행할 개체와, 개체 간에 공유될 정보를 어떻게 전달할지 등을 설정할 수 있다(S2810).
예를 들어, 소스/관리자/오디오 플레이어는 sink #1 및 #2로부터, 각각의 싱크의 볼륨 레벨(또는 파워 레벨) (예를 들어, dB, dBm 또는 W 단위)을 실제 음의 크기 (예를 들어, dBA 단위)로 변환하기 위한 계수를 수신할 수 있다(S2820). 구체적인 예시로서, 각각의 싱크는 자신의 파워 레벨을 결정할 수 있지만, 싱크가 파워/볼륨 레벨에 기초한 SPL 계산을 수행할 수 없는 경우를 가정한다. 이 경우, 각각의 싱크는 소스/관리자/오디오 플레이어에게 자신의 파워/볼륨 레벨 및 파워/볼륨 레벨에 기반하여 SPL을 계산/추정하는데 필요한 정보를 제공할 수 있다. 예를 들어, 각각의 싱크는 소스/관리자/오디오 플레이어에게 각 볼륨 별 실제 음량 계산에 필요한 계수(coefficient) 또는 음향 감도 매개 변수를 제공할 수 있다. 예를 들어, 표 7과 같은 볼륨-SPL의 매칭 테이블, 또는 파워/볼륨 레벨을 이용하여 SPL을 계산할 수 있는 파라미터가 제공될 수 있다. 이에 따라, 소스/관리자/오디오 플레이어는 각각의 싱크로부터 수신된 파워 레벨(또는 볼륨 레벨) 및 계수/매개변수를 이용하여 해당 싱크의 SPL을 계산/추정할 수 있다.
이와 같이 누적 노출량 계산에 필요한 설정이 완료된 후, 오디오 스트림 #1이 시작될 수 있다(S2830). 스트림 #1이 시작된 후, 소스/관리자/오디오 플레이어는 싱크 #1로부터 수신되는 현재 볼륨 레벨(또는 파워 레벨) (예를 들어, dB, dBm 또는 W 단위)에 기초하여, 사용자가 노출되고 있는 실제 음의 크기 (예를 들어, dBA 단위)를 계산할 수 있다(S2840).
또한, 스트림 #2가 시작된 후(S2850), 소스/관리자/오디오 플레이어는 싱크 #2로부터 수신되는 현재 볼륨 레벨(또는 파워 레벨) (예를 들어, dB, dBm 또는 W 단위)에 기초하여, 사용자가 노출되고 있는 실제 음의 크기 (예를 들어, dBA 단위)를 계산할 수 있다(S2860).
오디오 스트리밍 도중에 소정의 주기로 또는 이벤트 기반으로(event-triggered) 싱크로부터 소스/관리자/오디오 플레이어에게 현재 볼륨 레벨(또는 파워 레벨), 타임스탬프 등의 정보가 전달될 수 있다(S2835, S2845). 이에 따라, 소스/관리자/오디오 플레이어는 누적 노출량(예를 들어, SEL) 계산을 시작할 수 있다. 오디오 스트리밍 도중에 싱크의 볼륨 레벨(또는 파워 레벨)이 수정되는 경우, 이를 타임스탬프 정보와 함께 소스/관리자/오디오 플레이어에게 전달함으로써, 가변하는 SPL을 계산하고 이를 누적하여 현재시점까지의 노출량을 계산할 수 있다.
소스/관리자/오디오 플레이어는 싱크 #1에서의 스트림 #1 및 싱크 #2에서의 스트림 #2에 대한 전체 누적 노출량을 계산 및 모니터링할 수 있다. 만약 현재까지의 전체 누적 노출량이 소정의 임계치를 넘어가면, 사용자에게 청취를 중단할 것을 권고하거나(예를 들어, 도 25의 예시에서 B 레벨 임계치 초과), 청취 중지가 권고되는 시점까지 남은 시간을 알리거나(예를 들어, 도 25의 예시에서 A 레벨 임계치 초과), 청취를 중단한 후 얼마가 쉬어야 할지(예를 들어, 현 시점에서 과거 24시간 동안의 누적 노출량을 고려하여, 노출량이 리셋될 것으로 예측되는 시점) 등을 알려줄 수 있다(S2870). 이와 같이, 소스/관리자/오디오 플레이어는 노출 시간(예를 들어, 오디오 스트림이 시작된 후 경과된 시간), 노출 정도(예를 들어, 현재 볼륨 레벨, 현재 파워 레벨, 또는 현재 SPL 등), 남은 시간(예를 들어, 오디오 스트림의 남은 시간, 또는 도 25의 예시에서 A 레벨에 관련된 경고 알림 시간 등) 등을 소정의 UI(예를 들어, 시각 및/또는 청각 정보)를 통하여 사용자에게 제공할 수 있다.
도 29는 본 개시가 적용가능한 볼륨 레벨 보고 방법의 추가적인 예시를 설명하기 위한 도면이다.
도 29의 예시에서 캐퍼빌리티 체크(capability check) 절차는 관리자가 각각의 개체(예를 들어, 소스, 싱크)가 지원하는 기능을 문의하고, 이에 대하여 각각의 개체가 응답하는 과정을 포함할 수 있다. 도 29의 예시에서는 사용자가 소스 #1으로부터 싱크로 오디오 전송을 요청/지시한 경우를 가정하므로(S2910), 관리자는 소스 #1 및 싱크에 대한 캐퍼빌리티 체크 절차를 수행할 수 있다(S2920, S2925).
예를 들어, 캐퍼빌리티는 주요 속성(primary properties) 및 선택적 속성(primary properties)을 포함할 수 있다.
주요 속성은 다음과 같은 정보(또는 특성)을 포함할 수 있다.
a. 싱크가 노출 레벨(또는 SPL) 파악/계산 가능 여부
b. 소스가 노출 레벨(또는 SPL) 파악/계산 가능 여부
c. 싱크가 알림 보고(Alert Reporting) 수신 및 사용자 음성 알림 가능 여부
d. 소스가 알림 보고 수신 및 사용자 음성 알림 가능 여부
선택적 속성 중에서 싱크의 노출 레벨 파악/계산 방법에 대해서 다음과 같은 정보(또는 특성)을 포함할 수 있다.
e. 싱크가 볼륨/파워레벨 기반 노출 레벨(또는 SPL) 파악/계산 가능 여부
f. 싱크가 마이크를 통한 주변 소음 측정 가능 여부
g. 싱크가 음성 안내를 통해 누적 노출량 초과 알림 가능 여부
도 29의 예시에서는 a. 가능, b. 불가, c. 가능, d. 불가, e. 가능, f. 가능, g. 가능의 경우를 가정한다.
이러한 캐퍼빌리티 체크 과정을 통해서 관리자는 볼륨 레벨 설정에 대한 판단을 수행할 수 있다(S2930). 예를 들어, 볼륨/파워 레벨, SPL, 듀레이션, SEL 중에서 어떤 개체가 어떤 정보를 계산/결정하고, 어떤 개체가 어떤 정보를 어떤 개체에게 전달할지 등이 결정될 수 있다.
이에 따라, 관리자는 volume level configuration start 메시지를 소스 #1 및/또는 싱크에게 전송하고, 소스 #1 및/또는 싱크 각각으로부터 volume level configuration result 메시지를 수신할 수 있다(S2940, S2945). 즉, volume level configuration result 메시지 송수신을 통하여, 누적 노출량을 어떻게 계산하여 어떤 값을 교환해 줄 것인지를 확정하여 공유한다.
싱크는 기본적으로 볼륨 레벨에 대응하는 파워 레벨을 계산/결정할 수 있지만, 이에 추가적으로 주변 환경을 고려하여 수정된 파워 레벨을 계산/결정할 수도 있다(S2950). 예를 들어, 싱크는 주변 노이즈(noise)를 마이크를 통하여 체크 및 판단하여 수정된 파워 레벨을 계산/결정할 수 있고, 수정된 파워 레벨에 기초하여 자신의 노출 정도(예를 들어, SPL)을 계산할 수 있다. 이에 따라, 싱크는 계산 완료 값을 관리자에게 주기적으로(예를 들어, 5분 마다) 또는 소정의 이벤트가 발생하는 경우(예를 들어, 싱크에서 볼륨 레벨이 사용자에 의해서 변경되는 경우 또는 오디오 스트리밍이 종료되는 경우)에 상태 변경 보고(Status Changed Reporting)을 통해 알려줄 수 있다(S2960).
또한, 관리자는 노출 누적량이 소정의 임계치를 넘는지 여부를 판단할 수 있다(S2970). 노출 누적량이 소정의 임계치를 초과하는 경우, 관리자는 사용자에게 UI(예를 들어, 시각 및/또는 청각 정보)를 통해 이를 알려줄 수 있다. 추가적으로, 관리자는 싱크에게도 알림 보고(Alert Reporting)를 통해 해당 정보를 전달할 수 있다(S2980). 이에 따라, 싱크를 통해서 임계치 단계에 따라 (예를 들어, 도 25의 예시에서 A 레벨 초과, B 레벨 초과 등) 해당하는 알림이 사용자에게 제공될 수도 있다.
전술한 바와 같이, 디바이스 별 제조 특성이나 디바이스 환경에 따라서, 볼륨/파워 레벨은 SPL과 비례하지 않을 수도 있다. 따라서 각각의 디바이스의 특성에 연관된 디바이스 캐퍼빌리티를 체크하여 디바이스 간 조정이 수행될 수 있다. 예를 들어, 디바이스 캐퍼빌리티는 볼륨 및/또는 파워 레벨과 SPL의 대응 관계에 대한 정보(예를 들어, 매칭 테이블, 볼륨 커브 등) 등을 더 포함할 수 있다. 또한, 디바이스 캐퍼빌리티는 전술한 바와 같이 주변 환경 정보를 포함할 수 있다. 주변 환경 정보에는 디바이스간 거리(예를 들어, 소스와 싱크 간의 거리), 디바이스간 거리와 연관되는 신호 특성(예를 들어, 수신 신호 세기 정보(RSSI), 경로손실(pathloss) 등) 등을 더 포함할 수 있다. 이와 같은 디바이스 캐퍼빌리티에 기초하여 조정 및/또는 볼륨 레벨 설정이 수행될 수 있다.
도 30은 본 개시가 적용가능한 소스 변경 절차의 일례를 설명하기 위한 도면이다.
소스 #1로부터 싱크로의 오디오 전송 시작 전에 관리자와 소스 #1 및/또는 싱크는 캐퍼빌리티 체크, 볼륨 레벨 설정(예를 들어, volume level configuration start 및 volume level configuration result 메시지 교환)을 수행할 수 있다(S3010, S3015). 이에 따라 파워 레벨, SPL, 듀레이션, SEL 중에서 어떤 개체가 어떤 정보를 계산/결정하고, 어떤 개체가 어떤 정보를 어떤 개체에게 전달할지 등이 결정될 수 있다. 도 30의 예시에서는 소스 #1이 SPL을 계산하는 캐퍼빌리티를 가진 경우를 가정하며, 싱크가 볼륨/파워 레벨을 소스 #1 및/또는 관리자에게 전달하는 과정이 수행될 수 있으나 도면에서는 생략되었다.
소스 #1으로부터 싱크로의 오디오 스트리밍이 시작되면서, 소스 #1은 볼륨 레벨 및 적용 시간, 즉, SPL 및 듀레이션(또는 시작/종료 시점)을 계산할 수 있다(S3020). 계산된 정보는 소스 #1로부터 관리자에게 전달될 수 있다. 또한, 오디오 스트리밍 도중에 주기적으로 또는 이벤트 기반(예를 들어, 싱크의 볼륨 레벨 변경 또는 오디오 스트리밍 종료)으로 SPL 및 듀레이션 정보가 상태 변경 보고(status changed report)메시지를 통하여 관리자에게 전달될 수 있다(S3030).
오디오 스트리밍이 종료되면 소스 #1, 관리자 및/또는 싱크는 현재까지의 누적 노출량(예를 들어, SEL) 정보를 공유할 수 있다(S3040, S3045). 누적 노출량은 관리자에서 계산/결정되어 다른 개체들에게 공유될 수도 있지만, 소스나 싱크에서 계산되어 관리자 및 다른 개체에게 보고될 수도 있다.
소스 #1으로부터 싱크로의 오디오 스트리밍이 종료된 후, 소스 #2로부터 싱크로의 오디오 스트리밍이 요청될 수 있다.
소스 #2로부터 싱크로의 오디오 전송 시작 전에 관리자와 소스 #2 및/또는 싱크는 캐퍼빌리티 체크, 볼륨 레벨 설정(예를 들어, volume level configuration start 및 volume level configuration result 메시지 교환)을 수행할 수 있다(S3050, S3055). 이에 따라 파워 레벨, SPL, 듀레이션, SEL 중에서 어떤 개체가 어떤 정보를 계산/결정하고, 어떤 개체가 어떤 정보를 어떤 개체에게 전달할지 등이 결정될 수 있다. 도 30의 예시에서는 소스 #2가 SPL을 계산하는 캐퍼빌리티를 가진 경우를 가정하며, 싱크가 볼륨/파워 레벨을 소스 #2 및/또는 관리자에게 전달하는 과정이 수행될 수 있으나 도면에서는 생략되었다.
소스 #2로부터 싱크로의 오디오 스트리밍이 시작되면서, 소스 #2는 볼륨 레벨 및 적용 시간, 즉, SPL 및 듀레이션(또는 시작/종료 시점)을 계산할 수 있다(S3060). 계산된 정보는 소스 #2로부터 관리자에게 전달될 수 있다. 또한, 오디오 스트리밍 도중에 주기적으로 또는 이벤트 기반(예를 들어, 싱크의 볼륨 레벨 변경 또는 오디오 스트리밍 종료)으로 SPL 및 듀레이션 정보가 상태 변경 보고(status changed report)메시지를 통하여 관리자에게 전달될 수 있다.
오디오 스트리밍이 종료되면 소스 #2, 관리자 및/또는 싱크는 현재까지의 누적 노출량(예를 들어, SEL) 정보를 공유할 수 있다(S3070, S3075). 누적 노출량은 관리자에서 계산/결정되어 다른 개체들에게 공유될 수도 있지만, 소스나 싱크에서 계산되어 관리자 및 다른 개체에게 보고될 수도 있다.
여기서, 소스 #2 및/또는 싱크에 대한 볼륨 레벨 설정 절차가 수행되기 전, 도중, 또는 후에, 현재까지의 누적 노출량(즉, 소스 #1으로부터 싱크로의 오디오 스트리밍 과정에서 누적된 노출량)이 소스 #2, 관리자, 및/또는 싱크에서 공유될 수 있다.
이에 따라, 관리자는 소스 #1으로부터의 오디오 스트리밍 및 소스 #2로부터의 오디오 스트리밍 과정을 통해 누적된 노출량을 합산하고, 현재까지의 전체 누적 노출량을 결정 및 모니터링할 수 있다(S3080). 전체 누적 노출량이 소정의 임계치를 넘어가면, 청취 중단 권고, 청취 중간까지 남은 시간 알림, 청취 중단 후 휴식 시간 권고 등의 알림이 수행될 수 있다. 또한, 이러한 알림 정보는 알림 보고(alert reporting) 메시지를 통하여 싱크로 전달될 수 있고(S3090), 싱크에서는 적절한 UI를 통하여 사용자에게 해당 정보를 알릴 수도 있다.
복수의 소스, 관리자 및/또는 싱크 상호간의 발견, 연결 및 메시지 교환 방법은 제한되지 않으며, 클라우드 서버, 블루투스 메쉬 등의 다양한 기술이 이용될 수도 있다.
도 31은 본 개시가 적용가능한 소스 변경 절차의 추가적인 예시를 설명하기 위한 도면이다.
관리자는 소스 #1 및 #2, 오디오 플레이어, 싱크 #1 및 #2의 각각의 캐퍼빌리티를 확인하고, volume level configuration start 및 volume level configuration result 메시지 교환을 통해 파워 레벨, SPL, 듀레이션, SEL 중에서 어떤 개체가 어떤 정보를 계산/결정하고, 어떤 개체가 어떤 정보를 어떤 개체에게 전달할지 등이 결정될 수 있다.
도 31의 설정 절차(S3110)는 다양한 예시들을 포함할 수 있다.
예를 들어, 소스 #1으로부터 싱크 #1으로의 오디오 스트리밍의 경우에, 관리자는 소스 #1은 시간(예를 들어, 듀레이션 또는 시작/종료 시점) 정보만 계산하여 관리자에게 보고하고, 싱크 #1은 자신의 파워 레벨만 관리자에게 보고할 것으로 설정할 수 있다.
추가적인 예시로서, 소스 #2로부터 싱크 #2로의 오디오 스트리밍의 경우에, 관리자는 소스 #2가 파워 레벨, SPL, 듀레이션 및 SEL을 계산하여 관리자에게 보고할 것으로 설정할 수도 있다. 이외에도 다양한 방식의 설정이 수행될 수 있다.
소스 #1으로부터 싱크 #1으로의 오디오 스트리밍 #1이 시작되면(S3120), 소스 #1, 관리자, 싱크 #1은 설정(S3110)에 따른 노출량 관련 정보를 주기적 또는 이벤트-기반으로 송수신할 수 있다(S3130, S3135). 오디오 스트리밍 도중 또는 오디오 스트리밍이 종료된 후, 누적 노출량이 소스 #1, 관리자, 싱크 #1에서 공유될 수 있다.
소스 #2로부터 싱크 #2로의 오디오 스트리밍 #2가 시작되면(S3140), 소스 #2, 관리자, 싱크 #2는 설정(S3110)에 따른 노출량 관련 정보를 주기적 또는 이벤트-기반으로 송수신할 수 있다(S3150, S3155). 오디오 스트리밍 도중 또는 오디오 스트리밍이 종료된 후, 누적 노출량이 소스 #2, 관리자, 싱크 #2에서 공유될 수 있다.
관리자는 스트림 #1 및 스트림 #2가 시작되어 종료되기까지의 과정에서 지속적으로 누적 노출량을 계산 및 관리할 수 있다. 누적 노출량이 소정의 임계치를 초과하는 것이 검출되는 경우, 관리자는 그에 해당하는 알림 보고(alert reporting) (예를 들어, 관리자가 직접 또는 다른 개체를 통해 사용자에게 알림)을 수행할 수 있다 (S3160).
예를 들어, 관리자는 누적 노출량 정보를 오디오 플레이어와 공유할 수 있다(S3170). 이에 따라, 노출량 정보는 오디오 스트리밍을 제어하는 오디오 플레이어를 통해서 사용자에게 알려질 수도 있다.
또한, 누적 노출량이 소정의 임계치를 초과하는 경우에 관리자는 싱크 #1 또는 싱크 #2에게 알림 보고(alert reporting) 메시지를 전달하여, 청취 중단 권고, 청취 중간까지 남은 시간 알림, 청취 중단 후 휴식 시간 권고 등의 알림이 수행될 수 있다(S3180).
전술한 본 개시의 다양한 예시들에 있어서, 누적 노출량 계산에 관련된 정보(예를 들어, 파워 레벨, SPL, 듀레이션, SEL 등)은 사용자 ID 또는 관리자 ID에 연계되어 관리될 수 있다. 이는, 복수의 소스, 복수의 싱크에 걸쳐서 사용자가 오디오를 청취하는 경우에도, 실제 사용자 별로 누적 노출량 관리를 하기 위함이다.
또한, 전술한 본 개시의 다양한 예시들에 있어서, 누적 노출량에 대한 소정의 임계치(예를 들어, 도 25의 A 레벨, B 레벨 등)은 미리 설정된 값으로 주어질 수도 있고, 설정 절차를 통해서 임의의 값으로 설정될 수도 있다.
도 32는 본 개시가 적용될 수 있는 제 1 디바이스 및 제 2 디바이스의 구성을 나타내는 도면이다.
제 1 디바이스(3200)는 프로세서(3210), 안테나부(3220), 송수신기(3230), 및 메모리(3240)를 포함할 수 있다.
프로세서(3210)는 베이스밴드 관련 신호 처리를 수행하며, 호스트 처리부(3211) 및 제어기 처리부(3215)를 포함할 수 있다. 호스트 처리부(3211) 및 제어기 처리부(3215)는 HCI를 통하여 정보를 교환할 수 있다. 호스트 처리부(3211)는 L2CAP, ATT, GATT, GAP, LE 프로파일 계층 등의 동작을 처리할 수 있다. 제어기 처리부(3215)는 LL, PHY 계층 등의 동작을 처리할 수 있다. 프로세서(3210)는 베이스밴드 관련 신호 처리를 수행하는 것 외에도, 제 1 디바이스(3200) 전반의 동작을 제어할 수도 있다.
안테나부(3220)는 하나 이상의 물리적 안테나를 포함할 수 있다. 송수신기(3230)는 RF(Radio Frequency) 송신기 및 RF 수신기를 포함할 수 있다. 메모리(3240)는 프로세서(3210)의 연산 처리된 정보, 및 제 1 디바이스(3200)의 동작에 관련된 소프트웨어, 운영체제, 애플리케이션 등을 저장할 수 있으며, 버퍼 등의 구성요소를 포함할 수도 있다.
제 1 디바이스(3200)의 프로세서(3210)는 본 발명에서 설명하는 실시예들에서의 제 1 디바이스(또는 오디오 소스, 또는 클라이언트 디바이스)의 동작을 구현하도록 설정될 수 있다.
예를 들어, 제 1 디바이스(3200)의 프로세서(3210)의 호스트 처리부(3211)는 음향 노출량 관리부(3212)를 포함할 수 있다.
음향 노출량 관리부(3212)는 제 2 디바이스(3250)로부터 보고되는 제 1 정보(예를 들어, 제 1 디바이스의 SPL에 관련된 정보)를 이용하여, 제 2 디바이스(3250)에 대한 볼륨 세팅을 결정할 수 있다. 추가적으로, 음향 노출량 관리부(3212) 제 1 정보(예를 들어, SPL 관련 정보, 볼륨 레벨, 파워 레벨, 듀레이션 등)에 기초하여, 누적 음향 노출량을 계산할 수 있다.
음향 노출량 관리부(3212)는 제 2 디바이스(3250)에 대한 볼륨 세팅을 포함하는 제 2 정보를 제어기 처리부(3215)를 통하여 제 2 디바이스(3250)로 전송할 수 있다. 추가적으로, 제 2 정보는 노출량 조절 정보를 포함할 수 있다.
제 2 디바이스(3250)는 프로세서(3260), 안테나부(3270), 송수신기(3280), 메모리(3290)를 포함할 수 있다.
프로세서(3260)는 베이스밴드 관련 신호 처리를 수행하며, 호스트 처리부(3261) 및 제어기 처리부(3265)를 포함할 수 있다. 호스트 처리부(3261) 및 제어기 처리부(3265)는 HCI를 통하여 정보를 교환할 수 있다. 호스트 처리부(3261)는 L2CAP, ATT, GATT, GAP, LE 프로파일 계층 등의 동작을 처리할 수 있다. 제어기 처리부(3265)는 LL, PHY 계층 등의 동작을 처리할 수 있다. 프로세서(3260)는 베이스밴드 관련 신호 처리를 수행하는 것 외에도, 제 2 디바이스(3260) 전반의 동작을 제어할 수도 있다.
안테나부(3270)는 하나 이상의 물리적 안테나를 포함할 수 있다. 송수신기(3280)는 RF 송신기 및 RF 수신기를 포함할 수 있다. 메모리(3290)는 프로세서(3260)의 연산 처리된 정보, 및 제 2 디바이스(3250)의 동작에 관련된 소프트웨어, 운영체제, 애플리케이션 등을 저장할 수 있으며, 버퍼 등의 구성요소를 포함할 수도 있다.
제 2 단말 장치(3250)의 프로세서(3260)는 본 발명에서 설명하는 실시예들에서의 제 2 디바이스(또는 오디오 싱크, 또는 서버 디바이스)의 동작을 구현하도록 설정될 수 있다.
예를 들어, 제 2 디바이스(3250)의 프로세서(3260)의 호스트 처리부(3261)는 볼륨 레벨 관리부(3262)를 포함할 수 있다.
볼륨 레벨 관리부(3262)는 제 2 디바이스(3250)의 SPL에 관련된 제 1 정보를 제어기 처리부(3265)를 통하여 제 1 디바이스(3200)로 전송할 수 있다. 추가적으로, 제 1 정보는 SPL 관련 정보, 볼륨 레벨, 파워 레벨, 듀레이션 등을 포함할 수 있다.
볼륨 레벨 관리부(3262)는 제 1 디바이스(3200)로부터 수신되는 볼륨 세팅을 포함하는 제 2 정보 및 상기 제 1 정보에 기초하여, 제 2 디바이스(3250)의 볼륨을 조절할 수 있다. 추가적으로, 제 2 정보는 노출량 조절 정보를 포함할 수 있다.
제 1 디바이스(3200) 및 제 2 디바이스(3250)의 동작에 있어서 본 발명의 예시들에서 소스 디바이스 및 싱크 디바이스에 대해서 설명한 사항이 동일하게 적용될 수 있으며, 중복되는 설명은 생략한다.
본 개시의 다양한 실시예는 하드웨어, 펌웨어(firmware), 소프트웨어, 또는 그들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 범용 프로세서(general processor), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.
본 개시의 범위는 다양한 실시예의 방법에 따른 동작이 장치 또는 컴퓨터 상에서 실행되도록 하는 소프트웨어 또는 머신-실행가능한 명령들(예를 들어, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 또는 명령 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 비-일시적 컴퓨터-판독가능 매체(non-transitory computer-readable medium)를 포함한다. 본 개시에서 설명하는 특징을 수행하는 프로세싱 시스템을 프로그래밍하기 위해 사용될 수 있는 명령은 저장 매체 또는 컴퓨터 판독가능 저장 매체 상에/내에 저장될 수 있고, 이러한 저장 매체를 포함하는 컴퓨터 프로그램 제품을 이용하여 본 개시에서 설명하는 특징이 구현될 수 있다. 저장 매체는 DRAM, SRAM, DDR RAM 또는 다른 랜덤 액세스 솔리드 스테이트 메모리 디바이스와 같은 고속 랜덤 액세스 메모리를 포함할 수 있지만, 이에 제한되지 않으며, 하나 이상의 자기 디스크 저장 디바이스, 광 디스크 저장 장치, 플래시 메모리 디바이스 또는 다른 비-휘발성 솔리드 스테이트 저장 디바이스와 같은 비-휘발성 메모리를 포함할 수 있다. 메모리는 선택적으로 프로세서(들)로부터 원격에 위치한 하나 이상의 저장 디바이스를 포함한다. 메모리 또는 대안적으로 메모리 내의 비-휘발성 메모리 디바이스(들)는 비-일시적 컴퓨터 판독가능 저장 매체를 포함한다. 본 개시에서 설명하는 특징은, 머신 판독가능 매체 중 임의의 하나에 저장되어 프로세싱 시스템의 하드웨어를 제어할 수 있고, 프로세싱 시스템이 본 개시의 실시예에 따른 결과를 활용하는 다른 메커니즘과 상호작용하도록 하는 소프트웨어 및/또는 펌웨어에 통합될 수 있다. 이러한 소프트웨어 또는 펌웨어는 애플리케이션 코드, 디바이스 드라이버, 운영 체제 및 실행 환경/컨테이너를 포함할 수 있지만 이에 제한되지 않는다.
본 개시의 실시예들은 다양한 무선 통신 시스템에 적용되어, 무선 통신 시스템의 성능을 높일 수 있다.

Claims (11)

  1. 무선 통신 시스템에서 볼륨 레벨 보고를 수행하는 방법에 있어서,
    제 1 디바이스로 제 2 디바이스의 음압레벨(SPL)에 관련된 제 1 정보를 보고하는 단계;
    상기 제 2 디바이스가 상기 제 1 디바이스로부터 볼륨 세팅을 포함하는 제 2 정보를 수신하는 단계; 및
    상기 제 2 디바이스가 상기 제 1 정보 및 상기 제 2 정보에 기초하여 상기 제 2 디바이스의 볼륨을 조절(adjust)하는 단계를 포함하는,
    볼륨 레벨 보고 방법.
  2. 제 1 항에 있어서,
    상기 제 1 정보는, 제 2 디바이스의 볼륨 레벨을 실제 음의 크기로 변환하기 위한 계수에 대한 정보, 음향 감도 매개 변수, 또는 볼륨-SPL의 매칭 정보 중의 하나 이상을 포함하는,
    볼륨 레벨 보고 방법.
  3. 제 2 항에 있어서,
    상기 제 2 정보에 포함되는 상기 볼륨 세팅은, 상기 제 1 정보를 이용하여 상기 제 1 디바이스에 의해서 결정되는,
    볼륨 레벨 보고 방법.
  4. 제 1 항에 있어서,
    상기 제 2 정보는 노출량 조절 정보이고, 상기 노출량은 제 2 디바이스의 볼륨 레벨, 파워 레벨, SPL, 또는 노출 듀레이션 중의 하나 이상에 기초하여 결정되는,
    볼륨 레벨 보고 방법.
  5. 제 4 항에 있어서,
    상기 노출량 조절 정보는, 상기 제 1 디바이스에 대한 누적 노출량, 또는 상기 제 1 디바이스 및 하나 이상의 제 3 디바이스에 대한 누적 노출량이 소정의 임계치를 초과하는 경우에 생성되는,
    볼륨 레벨 보고 방법.
  6. 제 1 항에 있어서,
    상기 제 1 정보를 보고하기 전에, 상기 제 1 디바이스와 상기 제 2 디바이스의 각각의 캐퍼빌리티를 체크하고, 상기 캐퍼빌리티에 기초하여 볼륨 레벨 설정을 수행하는 조정(calibration) 단계를 더 포함하는,
    볼륨 레벨 보고 방법.
  7. 제 1 항에 있어서,
    상기 볼륨 레벨 설정은,
    볼륨 레벨, 파워 레벨, SPL, 듀레이션, 음향노출레벨(SEL)의 계산을 수행할 주체, 또는
    상기 제 1 디바이스와 상기 제 2 디바이스 간에 교환될 정보 및 교환 방법에 대한 설정을 포함하는,
    볼륨 레벨 보고 방법.
  8. 제 1 항에 있어서,
    상기 제 1 디바이스로부터 상기 제 2 디바이스로의 오디오 스트림 도중 또는 상기 오디오 스트림이 종료된 후 상기 제 2 디바이스에서의 누적 노출량이 상기 제 1 디바이스에 의해서 결정되는,
    볼륨 레벨 보고 방법.
  9. 제 8 항에 있어서,
    상기 오디오 스트림 도중에 상기 제 2 디바이스의 볼륨 레벨이 변경되는 경우, 변경된 볼륨 레벨 및 타임스탬프 정보가 상기 제 1 디바이스에게 제공되고, 상기 변경된 볼륨 레벨 및 상기 타임스탬프 정보에 더 기초하여 상기 누적 노출량이 결정되는,
    볼륨 레벨 보고 방법.
  10. 제 1 항에 있어서,
    상기 제 1 디바이스는 소스 또는 클라이언트이고,
    상기 제 2 디바이스는 싱크 또는 서버인,
    볼륨 레벨 보고 방법.
  11. 무선 통신 시스템에서 볼륨 레벨 보고를 수행하는 장치에 있어서,
    다른 장치와의 신호 송신 및 수신을 수행하기 위한 송수신기; 및
    상기 송수신기 및 상기 장치를 제어하기 위한 프로세서를 포함하고,
    상기 프로세서는,
    상기 다른 장치로 상기 장치의 음압레벨(SPL)에 관련된 제 1 정보를 상기 송수신기를 통하여 보고하고;
    상기 다른 장치로부터 볼륨 세팅을 포함하는 제 2 정보를 상기 송수신기를 통하여 수신하고;
    상기 제 1 정보 및 상기 제 2 정보에 기초하여 상기 장치의 볼륨을 조절(adjust)하도록 설정되는,
    볼륨 레벨 보고 수행 장치.
PCT/KR2020/013719 2019-10-10 2020-10-08 무선 통신 시스템에서 음향 노출 관리 방법, 장치, 컴퓨터 프로그램 및 그 기록 매체 WO2021071272A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020227011227A KR20220080090A (ko) 2019-10-10 2020-10-08 무선 통신 시스템에서 음향 노출 관리 방법, 장치, 컴퓨터 프로그램 및 그 기록 매체
US17/767,591 US20240078076A1 (en) 2019-10-10 2020-10-08 Method, apparatus, computer program, and recording medium thereof for managing sound exposure in wireless communication system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2019-0125061 2019-10-10
KR20190125061 2019-10-10

Publications (1)

Publication Number Publication Date
WO2021071272A1 true WO2021071272A1 (ko) 2021-04-15

Family

ID=75437960

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/013719 WO2021071272A1 (ko) 2019-10-10 2020-10-08 무선 통신 시스템에서 음향 노출 관리 방법, 장치, 컴퓨터 프로그램 및 그 기록 매체

Country Status (3)

Country Link
US (1) US20240078076A1 (ko)
KR (1) KR20220080090A (ko)
WO (1) WO2021071272A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080038586A (ko) * 2006-10-30 2008-05-07 전윤호 청력손실을 방지하기 위한 오디오 볼륨 조절 방법 및 장치
KR20130071471A (ko) * 2010-08-24 2013-06-28 퀄컴 인코포레이티드 음향 에너지 노출에 기초한 자동 음량 제어
KR20160023166A (ko) * 2014-08-21 2016-03-03 삼성전자주식회사 전자장치 및 전자장치의 오디오 출력 조절 방법
KR20170103539A (ko) * 2016-03-04 2017-09-13 엘지전자 주식회사 휴대기기 및 휴대기기를 활용한 청취패턴 제어방법 및 청취패턴 제어 시스템
KR20190104820A (ko) * 2018-03-02 2019-09-11 한림대학교 산학협력단 음악성 난청 예방용 음량 조절 장치 및 시스템

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080038586A (ko) * 2006-10-30 2008-05-07 전윤호 청력손실을 방지하기 위한 오디오 볼륨 조절 방법 및 장치
KR20130071471A (ko) * 2010-08-24 2013-06-28 퀄컴 인코포레이티드 음향 에너지 노출에 기초한 자동 음량 제어
KR20160023166A (ko) * 2014-08-21 2016-03-03 삼성전자주식회사 전자장치 및 전자장치의 오디오 출력 조절 방법
KR20170103539A (ko) * 2016-03-04 2017-09-13 엘지전자 주식회사 휴대기기 및 휴대기기를 활용한 청취패턴 제어방법 및 청취패턴 제어 시스템
KR20190104820A (ko) * 2018-03-02 2019-09-11 한림대학교 산학협력단 음악성 난청 예방용 음량 조절 장치 및 시스템

Also Published As

Publication number Publication date
KR20220080090A (ko) 2022-06-14
US20240078076A1 (en) 2024-03-07

Similar Documents

Publication Publication Date Title
WO2021015484A1 (ko) 무선 통신 시스템에서 적응적인 오디오 처리 방법, 장치, 컴퓨터 프로그램 및 그 기록 매체
WO2021040457A1 (ko) 무선 통신 시스템에서 오디오 처리 방법, 장치, 컴퓨터 프로그램 및 그 기록 매체
WO2020213959A1 (ko) 블루투스 기술을 이용하여 오디오 데이터를 수신하기 위한 방법 및 이에 대한 장치
WO2018222024A1 (ko) 블루투스 le 기술을 이용하여 디바이스를 연결하기 위한 방법 및 장치
WO2018169380A1 (ko) 블루투스 기술을 이용하여 오디오 신호를 처리하기 위한 방법 및 장치
WO2020096412A1 (ko) 블루투스 기술을 이용하여 오디오 데이터를 수신하기 위한 방법 및 이에 대한 장치
WO2020149708A1 (ko) 블루투스 기술을 이용하여 오디오 서비스를 제공하기 위한 방법 및 장치
WO2018048268A1 (ko) 블루투스 기술을 이용하여 디바이스를 연결하기 위한 방법 및 장치
WO2021141197A1 (ko) 영상 감시 앰프 내장형 ip 스피커 시스템
WO2014209077A1 (en) Method and apparatus for performing device-to-device communication
WO2016175638A1 (ko) 블루투스 메쉬 네트워크에서 디바이스의 주소를 할당하기 위한 방법 및 장치
WO2020180168A1 (ko) 블루투스 기술을 이용하여 오디오 데이터를 수신하기 위한 방법 및 이에 대한 장치
WO2017030232A1 (ko) 데이터 송수신 방법 및 이를 위한 디바이스
WO2016175640A1 (ko) 블루투스를 이용한 메쉬 네트워크에서 데이터를 송수신하기 위한 방법 및 장치
WO2017018604A1 (ko) 블루투스 le(low energy) 기술을 이용하여 대체 통신 수단을 연결하기 위한 방법 및 장치
WO2018026201A1 (ko) 무선 스테레오 헤드셋 구성요소의 속성 및 상태를 결정하는 시스템
WO2021091241A1 (ko) 무선 통신 시스템에서 암호화 키 설정 방법, 장치, 컴퓨터 프로그램 및 그 기록 매체
WO2020262926A1 (ko) 무선 통신 시스템에서 주변 디바이스의 상태를 제어 및 관리하는 방법, 장치, 컴퓨터 프로그램 및 그 기록 매체
WO2020246767A1 (ko) 무선 통신 시스템에서 오디오 데이터를 제어하는 방법, 장치, 컴퓨터 프로그램 및 그 기록 매체
WO2015163547A1 (ko) 무선 통신시스템에서 블루투스를 이용하여 http 데이터를 전송하기 위한 방법 및 장치
WO2019235892A1 (ko) 블루투스 기술을 이용하여 디바이스의 전력을 제어하기 위한 방법 및 장치
WO2021006710A1 (ko) 무선 통신 시스템에서 근거리 무선 통신을 이용한 오디오 데이터 전송 방법 및 이에 대한 장치
WO2021215776A1 (ko) 무선 통신 시스템에서 채널 선택 방법, 장치, 컴퓨터 프로그램 및 그 기록 매체
WO2020262927A1 (ko) 무선 통신 시스템에서 오디오 라우팅 방법, 장치, 컴퓨터 프로그램 및 그 기록 매체
WO2021112646A1 (ko) 무선 통신 시스템에서 근거리 무선 통신을 이용한 오디오 데이터 전송 방법 및 이에 대한 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20873715

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 17767591

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20873715

Country of ref document: EP

Kind code of ref document: A1