KR102171479B1 - Method and system for digital audio co-play service - Google Patents
Method and system for digital audio co-play service Download PDFInfo
- Publication number
- KR102171479B1 KR102171479B1 KR1020190123703A KR20190123703A KR102171479B1 KR 102171479 B1 KR102171479 B1 KR 102171479B1 KR 1020190123703 A KR1020190123703 A KR 1020190123703A KR 20190123703 A KR20190123703 A KR 20190123703A KR 102171479 B1 KR102171479 B1 KR 102171479B1
- Authority
- KR
- South Korea
- Prior art keywords
- audio
- mobile device
- information
- playback
- time
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 238000000926 separation method Methods 0.000 claims description 8
- 238000004458 analytical method Methods 0.000 claims description 3
- 238000004891 communication Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 230000014509 gene expression Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B20/00—Signal processing not specific to the method of recording or reproducing; Circuits therefor
- G11B20/10—Digital recording or reproducing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
Landscapes
- Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Physics & Mathematics (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Telephonic Communication Services (AREA)
Abstract
Description
본 발명은 개인모바일 기기에서 출력되는 디지털 오디오에 대한 공동 재생 서비스를 위한 방법 및 시스템에 관한 것이다.The present invention relates to a method and system for a joint playback service for digital audio output from a personal mobile device.
최근에 멀티미디어에 대한 수요가 급증하면서 사용자가 휴대하는 모바일 기기를 이용하여 MP3 음악, 동영상을 다운로드 또는 스트리밍 방식으로 청취하거나 시청하는 서비스가 다양하게 제공되고 있다.Recently, as the demand for multimedia has increased rapidly, various services for listening to or viewing MP3 music and video in a download or streaming method using mobile devices carried by users are provided.
그런데, 사용자가 휴대하는 모바일 기기는 손에 쥐어지는 정도의 크기를 가지므로, 스피커의 크기에 제한이 있어 음량 및 음질에도 하드웨어적인 한계가 있다. 만일 여러 청취자가 하나의 모바일 기기로 음악을 듣게되는 경우 멀리 떨어진 사람은 잘 들리지 않게 될 것이다. 이러한 모바일 기기의 스피커 성능 보완을 위해 블루투스 통신 기능을 구비한 외부 스피커를 이용하는 유저들이 많은데, 이 경우 외부 스피커를 휴대해야하는 불편이 있으며 그 또한 휴대성으로 인한 크기의 제한으로 인한 음량에 한계가 있다.However, since a mobile device carried by a user has a size of a size that can be held in a hand, there is a limitation in the size of a speaker and thus there is a hardware limitation in volume and sound quality. If multiple listeners are listening to music on a single mobile device, those far away will not hear well. There are many users who use an external speaker with a Bluetooth communication function to supplement speaker performance of such mobile devices. In this case, there is an inconvenience of carrying an external speaker, and there is a limit to the volume due to a size limitation due to portability.
따라서, 본 발명은 상술한 문제점을 해결하기 위해 안출된 것으로서, 복수개의 모바일 기기에서 디지털 오디오를 동시 재생하여 여러 사람들이 함께 청취할 수 있는 디지털 오디오 공동 재생 서비스 방법 및 시스템을 제공하기 위한 것이다.Accordingly, the present invention has been conceived to solve the above-described problem, and is to provide a digital audio joint playback service method and system in which a plurality of mobile devices can simultaneously reproduce digital audio and listen to it together.
또한, 본 발명은 소리 울림을 최소화하기 위해 재생시간을 동기화하는 디지털 오디오 공동 재생 서비스 방법 및 시스템을 제공하기 위한 것이다.In addition, the present invention is to provide a digital audio joint playback service method and system that synchronizes playback times to minimize sound ringing.
본 발명의 다른 목적들은 이하에 서술되는 바람직한 실시예를 통하여 보다 명확해질 것이다.Other objects of the present invention will become more apparent through preferred embodiments described below.
본 발명의 일 측면에 따르면, 모바일 기기에서 수행되는 디지털 오디오 공동 재생 서비스 방법에 있어서, 외부 오디오를 입력받아 미리 설정된 일정시간동안 녹음하는 단계; 녹음된 오디오에 상응하는 오디오 정보를 서비스 장치로 전송하는 단계; 상기 오디오 정보에 상응하는 원본 오디오 및 재생구간을 탐색한 상기 서비스 서버로부터 탐색된 정보를 수신하는 단계; 및 상기 재생구간에 상응하는 재생시점부터 상기 원본 오디오를 재생하는 단계를 포함하는 디지털 오디오 공동 재생 서비스 방법 및 그 방법을 실행하는 프로그램이 기록된 기록매체가 제공된다.According to an aspect of the present invention, there is provided a digital audio joint playback service method performed in a mobile device, the method comprising: receiving external audio and recording for a predetermined time period; Transmitting audio information corresponding to the recorded audio to the service device; Receiving the searched information from the service server searching for an original audio and a reproduction section corresponding to the audio information; And reproducing the original audio from a playback time corresponding to the playback section, and a recording medium on which a program for executing the method is recorded.
여기서, 녹음 완료 후 상기 서비스 서버로부터 상기 탐색된 정보를 수신하기까지 소요된 시간을 고려하여 상기 재생시점을 결정할 수 있다.Here, the playback time may be determined in consideration of the time taken to receive the searched information from the service server after recording is completed.
또한, 상기 원본 오디오를 재생하는 단계는, 일정시간동안 출력음량을 일정수준 이하로 낮춘 상태에서 외부 오디오를 입력받아 녹음하는 단계; 녹음 오디오와 출력 오디오를 비교하는 단계; 및 상기 비교 결과에 따라 재생구간을 변경하는 단계를 포함할 수 있다.Further, the reproducing of the original audio may include receiving and recording external audio while lowering the output volume to a predetermined level or lower for a predetermined period of time; Comparing the recorded audio and the output audio; And changing the reproduction section according to the comparison result.
또한, 상기 서비스 서버로 측정된 위치정보를 전송하며, 상기 서비스 서버로부터 상기 위치정보에 상응하는 상기 원본 오디오를 출력하는 타 모바일 기기에 대한 위치정보를 수신하는 경우, 상기 타 모바일 기기에 대한 위치정보와 측정된 위치정보간의 차이를 상기 재생시점의 결정에 더 이용할 수 있다.In addition, when the measured location information is transmitted to the service server and location information for another mobile device that outputs the original audio corresponding to the location information is received from the service server, the location information for the other mobile device The difference between the and the measured location information can be further used to determine the playback time.
또한, 상기 오디오 정보는 녹음된 오디오의 분석에 의한 특징정보인 DNA데이터일 수 있다.In addition, the audio information may be DNA data, which is characteristic information by analysis of the recorded audio.
그리고, 모바일 기기와 통신망을 통해 결합된 서비스 서버에서 수행되는 디지털 오디오 공동 재생 서비스 방법에 있어서, 디지털 오디오를 재생하는 하나 이상의 제1 모바일 기기부터 재생오디오 식별정보, 재생시점 정보, 기기 시각정보 및 위치에 대한 정보를 포함하는 오디오 재생 정보를 수신하여 등록하는 단계; 제2 모바일 기기로부터 공동 재생 서비스가 요청된 경우, 위치를 기반으로 상기 제2 모바일 기기의 위치정보에 대응되는 오디오 재생 정보를 검색하는 단계; 검색된 오디오 재생 정보를 기반으로 현재시각과 상기 재생시점 정보 및 기기 시각정보를 이용하여 현재 재생시점을 산출하는 단계; 및 상기 제2 모바일 기기가 상기 디지털 오디오를 상기 현재 재생시점에 상응하는 재생시점부터 재생하도록, 산출된 현재 재생시점과 재생오디오에 대한 정보를 상기 제2 모바일 기기로 제공하는 단계를 포함하는, 디지털 오디오 공동 재생 서비스 방법 및 그 방법을 실행하는 프로그램이 기록된 기록매체가 제공된다.And, in the digital audio joint playback service method performed in a service server coupled through a mobile device and a communication network, from at least one first mobile device that reproduces digital audio, playback audio identification information, playback time information, device time information and location Receiving and registering audio reproduction information including information about a; When a joint playback service is requested from a second mobile device, searching for audio playback information corresponding to the location information of the second mobile device based on a location; Calculating a current playback time based on the retrieved audio playback information using the current time, the playback time information, and device time information; And providing information on the calculated current playback time and playback audio to the second mobile device so that the second mobile device reproduces the digital audio from a playback time corresponding to the current playback time. An audio joint reproduction service method and a recording medium in which a program for executing the method is recorded are provided.
여기서, 상기 제1 모바일 기기의 위치정보와 상기 제2 모바일 기기의 위치정보를 이용하여 이격거리를 산출하고, 상기 이격거리를 상기 현재 재생시점의 산출에 반영할 수 있다.Here, the separation distance may be calculated using the location information of the first mobile device and the location information of the second mobile device, and the separation distance may be reflected in the calculation of the current playback time.
또한, 상기 제1 모바일 기기 및 제2 모바일 기기 각각의 기종에 상응하는 기기 시각 차이, 상기 제2 모바일 기기와의 데이터 통신 소요시간 중 적어도 어느 하나를 상기 현재 재생시점의 산출에 반영할 수 있다.In addition, at least one of a device time difference corresponding to a model of each of the first mobile device and the second mobile device and a time required for data communication with the second mobile device may be reflected in the calculation of the current playback time.
본 발명의 다른 측면에 따르면, 디지털 오디오를 재생하는 경우, 재생오디오 식별정보, 재생시점 정보, 기기 시각정보 및 위치에 대한 정보를 포함하는 오디오 재생 정보를 생성하여 업로드하는 제1 모바일 기기; 상기 오디오 재생 정보를 등록받아 저장하는 서비스 서버; 및 상기 서비스 서버로 접속하여 상기 디지털 오디오에 대한 공동 재생 서비스를 요청하는 제2 모바일 기기를 포함하되, 상기 서비스 서버는, 위치를 기반으로 상기 제2 모바일 기기의 위치정보에 상응하는 오디오 재생 정보를 검색하고, 검색된 오디오 재생 정보를 기반으로 현재시각과 상기 재생시점 정보 및 기기 시각정보를 이용하여 현재 재생시점을 산출하며, 상기 제2 모바일 기기가 상기 디지털 오디오를 상기 현재 재생시점에 상응하는 재생시점부터 재생하도록, 산출된 현재 재생시점과 재생오디오에 대한 정보를 상기 제2 모바일 기기로 제공하는, 디지털 오디오 공동 재생 서비스 시스템이 제공된다.According to another aspect of the present invention, when reproducing digital audio, a first mobile device for generating and uploading audio reproduction information including reproduction audio identification information, reproduction time information, device time information, and location information; A service server that registers and stores the audio reproduction information; And a second mobile device that accesses the service server and requests a joint playback service for the digital audio, wherein the service server receives audio playback information corresponding to the location information of the second mobile device based on the location. Based on the searched and retrieved audio reproduction information, the current time, the reproduction time information, and the device time information are used to calculate the current reproduction time, and the second mobile device reproduces the digital audio corresponding to the current reproduction time. A digital audio joint playback service system is provided that provides information on the calculated current playback time and playback audio to the second mobile device so as to be played back from the beginning.
여기서, 상기 서비스 서버는, 상기 제1 모바일 기기의 위치정보와 상기 제2 모바일 기기의 위치정보를 이용하여 이격거리를 산출하고, 상기 이격거리를 상기 현재 재생시점의 산출에 반영할 수 있다.Here, the service server may calculate a separation distance using the location information of the first mobile device and the location information of the second mobile device, and reflect the separation distance in the calculation of the current playback time.
또한, 상기 제2 모바일 기기는 상기 서비스 서버로부터 공동 재생 서비스에 상응하는 관련정보를 취득하지 못하는 경우, 외부 오디오를 입력받아 미리 설정된 일정시간동안 녹음하고, 녹음된 오디오에 상응하는 오디오 정보를 상기 서비스 장치로 전송하며, 상기 오디오 정보에 상응하는 원본 오디오 및 재생구간을 탐색한 상기 서비스 서버로부터 탐색된 정보를 수신하고, 상기 재생구간에 상응하는 재생시점부터 상기 원본 오디오를 재생할 수 있다.In addition, when the second mobile device cannot obtain related information corresponding to the joint playback service from the service server, the second mobile device receives external audio and records it for a predetermined period of time, and provides audio information corresponding to the recorded audio to the service. The original audio corresponding to the audio information and the searched information may be received from the service server that searched for a playback section, and the original audio can be played from a playback time corresponding to the playback section.
또한, 상기 서비스 서버는 상기 제1 모바일 기기로부터의 명령에 상응하는 제어정보를 상기 제2 모바일 기기로 전송하며, 상기 제2 모바일 기기는 상기 제어정보에 따라 오디오의 재생 또는 출력을 제어할 수 있다.In addition, the service server transmits control information corresponding to a command from the first mobile device to the second mobile device, and the second mobile device may control reproduction or output of audio according to the control information. .
본 발명에 따르면, 복수개의 모바일 기기에서 디지털 오디오를 동시 재생하여 여러 사람들이 함께 청취할 수 있다.According to the present invention, digital audio can be simultaneously played by a plurality of mobile devices so that several people can listen to it together.
또한, 본 발명에 따르면 기기 처리 시간, 통신 시간 등을 고려하며 모바일의 위치에 기반한 방식으로 재생의 시간적 위치를 동기화함으로써 소리 울림에 의한 불편을 최소화할 수 있다.In addition, according to the present invention, it is possible to minimize the inconvenience caused by the sound by synchronizing the temporal location of the playback in a manner based on the location of the mobile device, taking into account the device processing time and the communication time.
도 1은 본 발명의 일 실시예에 따른 디지털 오디오 공동 재생 서비스 시스템을 개략적으로 도시한 구성도.
도 2는 본 발명의 일 실시예에 따른 녹음된 오디오의 분석에 의한 공동 재생 서비스를 제공하는 과정을 도시한 흐름도.
도 3은 본 발명의 일 실시예에 따른 모바일 기기에서 수행되는 재생 싱크 조절 과정을 도시한 흐름도.
도 4는 본 발명의 일 실시예에 따른 서비스 서버에서 수행되는 위치기반 오디오 공동 재생 서비스 과정을 도시한 흐름도.
도 5는 본 발명의 일 실시예에 따른 위치기반 오디오 공동 재생 서비스를 위해 서버에서 관리되는 오디오 재생 정보를 예시한 테이블.1 is a block diagram schematically showing a digital audio joint playback service system according to an embodiment of the present invention.
2 is a flowchart illustrating a process of providing a joint playback service by analyzing recorded audio according to an embodiment of the present invention.
3 is a flowchart illustrating a process of adjusting a playback sync performed in a mobile device according to an embodiment of the present invention.
4 is a flowchart illustrating a location-based audio joint playback service process performed in a service server according to an embodiment of the present invention.
5 is a table illustrating audio reproduction information managed by a server for a location-based audio joint reproduction service according to an embodiment of the present invention.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.In the present invention, various modifications may be made and various embodiments may be provided, and specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to a specific embodiment, it is to be understood to include all changes, equivalents, or substitutes included in the spirit and scope of the present invention.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. When a component is referred to as being "connected" or "connected" to another component, it is understood that it may be directly connected or connected to the other component, but other components may exist in the middle. Should be. On the other hand, when a component is referred to as being "directly connected" or "directly connected" to another component, it should be understood that there is no other component in the middle.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 후술될 제1 임계값, 제2 임계값 등의 용어는 실질적으로는 각각 상이하거나 일부는 동일한 값인 임계값들로 미리 지정될 수 있으나, 임계값이라는 동일한 단어로 표현될 때 혼동의 여지가 있으므로 구분의 편의상 제1, 제2 등의 용어를 병기하기로 한다. Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. These terms are used only for the purpose of distinguishing one component from another component. For example, terms such as a first threshold value and a second threshold value to be described later may be pre-designated as threshold values that are substantially different or some of the same values, but when expressed in the same word as the threshold value, there is a confusion. There is room, so for the convenience of classification, terms such as first and second will be added together.
본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present specification are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this specification, terms such as "comprise" or "have" are intended to designate the presence of features, numbers, steps, actions, components, parts, or a combination thereof described in the specification, but one or more other features. It is to be understood that the presence or addition of elements or numbers, steps, actions, components, parts, or combinations thereof, does not preclude in advance.
또한, 각 도면을 참조하여 설명하는 실시예의 구성 요소가 해당 실시예에만 제한적으로 적용되는 것은 아니며, 본 발명의 기술적 사상이 유지되는 범위 내에서 다른 실시예에 포함되도록 구현될 수 있으며, 또한 별도의 설명이 생략될지라도 복수의 실시예가 통합된 하나의 실시예로 다시 구현될 수도 있음은 당연하다.In addition, components of the embodiments described with reference to each drawing are not limited to the corresponding embodiments, and may be implemented to be included in other embodiments within the scope of maintaining the technical spirit of the present invention. Even if the description is omitted, it is natural that a plurality of embodiments may be implemented again as a unified embodiment.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일하거나 관련된 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. In addition, in the description with reference to the accompanying drawings, the same or related reference numerals are assigned to the same components regardless of the reference numerals, and redundant descriptions thereof will be omitted. In describing the present invention, when it is determined that a detailed description of related known technologies may unnecessarily obscure the subject matter of the present invention, a detailed description thereof will be omitted.
도 1은 본 발명의 일 실시예에 따른 디지털 오디오 공동 재생 서비스 시스템을 개략적으로 도시한 구성도이다.1 is a block diagram schematically illustrating a digital audio joint playback service system according to an embodiment of the present invention.
도 1을 참조하면, 본 실시예에 따른 전체 시스템은 디지털 오디오를 재생하는 제1 모바일 기기(10), 제1 모바일 기기(10)에서 재생되는 오디오와 동일한 것을 출력하고자 하는 사용자가 구비한 제2 모바일 기기(20), 및 공동 재생 서비스를 제공하기 위한 서비스 서버(30)를 포함하며, 일례에 따르면 서비스 서버(30)는 디지털 오디오 DB(40)를 운영할 수 있다.Referring to FIG. 1, the entire system according to the present embodiment includes a first
제1 모바일 기기(10) 및 제2 모바일 기기(20)는 스마트폰과 같은 통신 가능한 단말장치일 수 있으며, 오디오(오디오가 포함된 동영상도 포함)를 재생하고 출력하는 미디어 기능을 구비한 장치이다.The first
제2 모바일 기기(20)는 주변에 위치한 제1 모바일 기기(10)에서 재생 중인 오디오와 동일한 오디오를 재생하여 출력하기 위해 서비스 서버(30)를 이용한다. 이때, 제1 모바일 기기(10)와 제2 모바일 기기(20)는 동일한 오디오(예를 들어, 동일한 음악)를 재생함에 있어 재생 싱크를 맞추어 재생(즉, 재생되는 시간적 위치인 재생시점을 동기화함)하는 것이 중요하다. 재생 동기화 방식은 차후 관련 도면(도 2 또는 도 3)을 참조하여 상세히 설명하기로 한다.The second
제1 모바일 기기(10) 또는 제2 모바일 기기(20)는 스트리밍 방식 또는 다운로드 방식으로 디지털 오디오를 재생할 수 있으며, 그 오디오 제공 서비스(이하 음원 서비스라 칭함)는 도시되지 않은 별도의 서버에서 제공될 수 있으며, 이하에서는 설명의 편의상 서비스 서버(30)가 디지털오디오 DB(40)를 활용하여 음원 서비스를 함께 제공하는 것을 위주로 설명하기로 한다. 예를 들어, 서비스 서버(30)가 모바일 기기로 음원 서비스를 제공하며, 또한 해당 음원에 대한 공동 재생 서비스를 제공하는 것이다.The first
도 2는 본 발명의 일 실시예에 따른 녹음된 오디오의 분석에 의한 공동 재생 서비스를 제공하는 과정을 도시한 흐름도이고, 도 3은 본 발명의 일 실시예에 따른 모바일 기기에서 수행되는 재생 싱크 조절 과정을 도시한 흐름도이다.2 is a flowchart showing a process of providing a joint playback service by analyzing recorded audio according to an embodiment of the present invention, and FIG. 3 is a playback sync control performed in a mobile device according to an embodiment of the present invention. It is a flow chart showing the process.
일례에 따른 도 2를 참조하면, 제2 모바일 기기(20)는 외부 오디오를 입력받아 미리 설정된 일정시간(예를 들어, 1~3초 등)동안 녹음한다(S210). 예를 들어, 주변에서 들리는 음악에 대해 공동 재생 서비스를 이용하고자 하는 사용자는 자신의 모바일 기기(제2 모바일 기기(20)가 되는 것임)를 이용하는 것이며, 이때 제2 모바일 기기(20)는 마이크로폰 등의 음원입력수단을 이용하여 외부소리를 녹음하는 것이다.Referring to FIG. 2 according to an example, the second
제2 모바일 기기(20)는 녹음된 오디오에 상응하는 오디오 정보를 생성한다(S220). 일례에 따르면, 녹음된 오디오의 주파수, 파형 등의 분석에 의해 특징정보(이하 DNA데이터라 칭함)를 독출하는 것이다. 어떠한 정보에서 특징정보를 추출하여 이용하는 것은 다양한 분야(지문인식, 영상필터링 등)에서 이용되고 있으므로, 오디오에서의 특징이 되는 고유우ㅢ DAN데이터를 추출하는 개념은 당업자에게는 자명할 것이며, 모든 방식이 동일하게 적용될 수 있음은 이하의 설명을 통해 더욱 자명하게 될 것이다.The second
제2 모바일 기기(20)는 특징정보를 포함하는 오디오 정보를 서비스 서버(30)로 전송하며 공동 재생 서비스를 요청한다(S230). The second
공동 재생 서비스를 요청받은 서비스 서버(30)는 수신된 오디오 정보에 따른 DNA데이터를 갖는 원본 오디오를 구비된 디지털오디오 DB(40)에서 검색하여 인식하고, 검색된 원본 오디오에서 해당하는 재생구간을 탐색한다(S240). 예를 들어 원본 오디오가 A라는 음악이고, 해당하는 DNA데이터가 A음악의 [01:30:012 ~ 01:33:018]이라는 밀리세컨드 단위까지의 재생구간임을 인식하는 것이다. The
이렇게 탐색된 정보(원본오디오 식별정보, 재생구간 정보 등)를 서비스 서버(30)는 제2 모바일 기기(20)로 제공한다(S250).The
그러면, 제2 모바일 기기(20)는 재생구간에 상응하는 재생시점부터 원본 오디오를 재생한다(S260). 예를 들어, A음악의 [01:33:019]을 재생시점으로 하여 재생하는데, 그 이유는 녹음된 오디오의 재생구간의 마지막시점이 [01:33:018]이므로 그 다음 시점부터 재생하기 위한 것이다. Then, the second
이때, 일례에 따르면 재생구간의 마지막시점인 [01:33:018]에 딜레이 시간(예를 들어, 서비스 서버(30)와의 통신시간, 서비스 서버(30)에서의 탐색 시간, 기기 자체에서의 재생처리 시간 등을 고려한 시간)을 고려하여 재생시점을 결정할 수 있는데, 예를 들어 딜레이 시간이 10밀리세컨드인 경우 [01:33:29]가 재생시점이 될 수 있을 것이다. 즉, 제2 모바일 기기(20)는 녹음 완료 후 서비스 서버(30)로부터 재생구간 및 원본오디오 정보를 수신하기까지 소요된 시간을 더 고려하여 재생시점을 결정하는 것이다.At this time, according to an example, the delay time (for example, communication time with the
또한, 일례에 따른 도 3을 참조하면, 제2 모바일 기기(20)는 원본 오디오를 재생하기 시작하면, 일정시간(예를 들어 3초 등) 동안 출력음량을 일정수준 이하로 낮춘 상태에서 외부 오디오를 입력받아 녹음한다(S310).In addition, referring to FIG. 3 according to an example, when the second
그리고, 녹음 오디오와 출력 오디오를 비교한다(S320).Then, the recorded audio and the output audio are compared (S320).
비교 결과에 따라 재생구간을 변경하는데(S330), 예를 들어 출력 오디오가 녹음 오디오에 비해 늦다면 재생위치를 그만큼 늦추는 것이다. 이때에도 출력시 소요되는 딜레이 시간과 녹음처리에 소요되는 딜레이 시간을 고려하여 재생구간의 변경시간을 결정할 수 있다.The playback section is changed according to the comparison result (S330). For example, if the output audio is later than the recorded audio, the playback position is delayed by that amount. Even at this time, the change time of the playback section can be determined in consideration of the delay time required for output and the delay time required for recording processing.
그리고, 도면에는 도시되지 않았으나, 다른 일례에 따르면, 제2 모바일 기기(20)는 서비스 서버(30)로 측정된 위치정보를 전송하며, 서비스 서버(30)로부터 위치정보에 상응하는 원본 오디오를 출력하는 타 모바일 기기인 제1 모바일 기기(10)에 대한 위치정보를 수신하는 경우, 제1 모바일 기기(10)에 대한 위치정보와 측정된 자신의 위치정보간의 차이를 재생시점의 결정에 더 이용한다. 즉, 제2 모바일 기기(20)는 제1 모바일 기기(10)와의 이격거리를 알게되면, 그 거리에 의해 전달되는 소리의 딜레이 시간을 감안하여 재생시점을 결정하는 것이다. 즉, 소리의 전달 시간(즉, 소리의 속도를 고려하여 계산)을 고려하여 재생시점을 결정함으로써, 제2 모바일 기기(20)의 사용자는 거의 동시에 동일한 재생구간에 따른 오디오를 외부와 자신의 모바일 기기를 통해 청취할 수 있게 된다.Further, although not shown in the drawing, according to another example, the second
지금까지 설명한 공동 재생 서비스에 의하면, 제2 모바일 기기(20)의 사용자는 인식 대상 오디오가 재생되는 기기나 애플리케이션 프로그램에 구애받지 않고 인식할 수 있으며, 자신의 기기에서 같은 오디오를 재생시킬 수 있다는 장점이 있다.According to the joint playback service described so far, the user of the second
도 4는 본 발명의 일 실시예에 따른 서비스 서버(30)에서 수행되는 위치기반 오디오 공동 재생 서비스 과정을 도시한 흐름도이고, 도 5는 본 발명의 일 실시예에 따른 위치기반 오디오 공동 재생 서비스를 위해 서버에서 관리되는 오디오 재생 정보를 예시한 테이블이다.4 is a flowchart showing a location-based audio co-play service process performed by the
먼저 도 1을 참조하면, 제1 모바일 기기(10)가 재생중인 오디오에 대한 정보를 미리 서비스 서버(30)에 등록하는 방식이 이용될 수 있다.First, referring to FIG. 1, a method of registering information on audio being played by the first
즉, 제1 모바일 기기(10)는 디지털 오디오를 재생하는 경우, 재생오디오 식별정보, 재생시점 정보, 기기 시각정보 및 위치에 대한 정보를 포함하는 오디오 재생 정보를 생성하여 업로드한다. That is, when reproducing digital audio, the first
그러면, 서비스 서버(30)는, 위치를 기반으로 제2 모바일 기기(20)의 위치정보에 상응하는 오디오 재생 정보를 검색하고, 검색된 오디오 재생 정보를 기반으로 현재시각과 재생시점 정보 및 기기 시각정보를 이용하여 현재 재생시점을 산출하며, 제2 모바일 기기(20)가 디지털 오디오를 현재 재생시점에 상응하는 재생시점부터 재생하도록, 산출된 현재 재생시점과 재생오디오에 대한 정보를 제2 모바일 기기(20)로 제공하는 것이다.Then, the
이에 따른 실시예를 도시한 도 4를 참조하면, 서비스 서버(30)는 디지털 오디오를 재생하는 하나 이상의 제1 모바일 기기(10)부터 재생오디오 식별정보, 재생시점 정보, 기기 시각정보 및 위치에 대한 정보를 포함하는 오디오 재생 정보를 수신하여 등록한다(S410).Referring to FIG. 4 showing an embodiment according to this, the
서비스 서버(30)에 등록되는 정보를 도시한 도 5를 참조하면, 제1 모바일 기기(10)의 위치정보, 재생오디오 식별정보, 재생시점 정보 및 기기 시각정보가 오디오 재생 정보로서 등록될 수 있으며, 또한 도면에 도시된 바와 같이 제1 모바일 기기(10)의 기종정보까지도 더 등록받을 수 있다. 모바일 기기의 기종마다 기기 시각정보가 상이할 수 있으며, 또한 데이터 처리 속도까지도 상이할 수 있기 때문이며, 그에 따라 재생시점을 달리산출할 수 있다.Referring to FIG. 5 showing information registered in the
다시 도 4를 참조하면, 서비스 서버(30)는 제2 모바일 기기(20)로부터 공동 재생 서비스를 요청받으면(S420), 위치를 기반으로 제2 모바일 기기(20)의 위치정보에 대응되는 오디오 재생 정보를 검색한다(S430). 즉, 제2 모바일 기기(20)의 주변에 위치한 제1 모바일 기기(10)가 등록한 오디오 재생 정보를 검색하는 것이며, 만일 일정거리(예를 들어, 100미터 등) 이내에 복수개가 존재하는 경우, 제2 모바일 기기(20)에게 모두 제공하여 하나를 선택하도록 할 수 있을 것이다.Referring to FIG. 4 again, when the
서비스 서버(30)는 검색된 오디오 재생 정보를 기반으로 현재시각과 등록된 재생시점 정보 및 기기 시각정보를 이용하여 현재 재생시점을 산출한다(S440). 예를 들어 현재시각이 기기 시각정보보다 30초 뒤라면, 현재 재생시점은 재생시점 정보에 30초를 더한(서버 시각과 기기 시각이 다를 경우 이를 반영할 수 있음) 시점일 수 있다.The
여기서, 서비스 서버(30)는 제1 모바일 기기(10)의 위치정보와 제2 모바일 기기(20)의 위치정보를 이용하여 이격거리를 산출하고, 상술한 바와 같이 산출된 이격거리를 현재 재생시점의 산출에 반영할 수 있다.Here, the
또한, 제1 모바일 기기(10) 및 제2 모바일 기기(20) 각각의 기종에 상응하는 기기 시각 차이, 또는 제2 모바일 기기(20)와의 데이터 통신 소요시간 등을 현재 재생시점의 산출에 반영할 수 있다.In addition, the device time difference corresponding to each model of the first
그리고, 서비스 서버(30)는 산출된 현재 재생시점과 재생오디오에 대한 정보를 제2 모바일 기기(20)로 제공한다(S450).Then, the
그러면, 제2 모바일 기기(20)는 해당하는 디지털 오디오를 현재 재생시점에 상응하는 재생시점부터 재생한다. 예를 들어 현재 재생시점을 기반으로 상술한 바와 같은 딜레이 시간 등을 반영하여 재생시점을 결정하고, 그 재생시점부터 디지털 오디오를 재생한다.Then, the second
본 실시예에 따르면, 주변 잡음이 심한 곳, 이어폰등과 같이 각 개인만 듣는 오디오도 오인식 없이 서로 똑같이 감상할 수 있다는 장점이 있다.According to the present embodiment, there is an advantage that audio that only individuals listen to, such as a place with heavy ambient noise and earphones, can be enjoyed in the same manner without misrecognition.
여기서, 도면에는 도시되지 않았으나 일례에 따르면, 서비스 서버(30)가 제2 모바일 기기(20)의 위치에 대응되는 오디오 재생 정보를 탐색하지 못한 경우(즉, 해당하는 위치에 있는 제1 모바일 기기(10)에 의한 미리 등록된 정보가 없는 경우), 제2 모바일 기기(20)는 도 2에 도시된 바와 같은 외부 오디오의 분석 방식을 이용할 수 있다.Here, although not shown in the drawing, according to an example, when the
즉, 제2 모바일 기기(20)는 서비스 서버(30)로부터 공동 재생 서비스에 상응하는 관련정보를 취득하지 못하는 경우, 외부 오디오를 입력받아 미리 설정된 일정시간동안 녹음하고, 녹음된 오디오에 상응하는 오디오 정보를 서비스 장치로 전송하며, 오디오 정보에 상응하는 원본 오디오 및 재생구간을 탐색한 서비스 서버(30)로부터 탐색된 정보를 수신하고, 재생구간에 상응하는 재생시점부터 원본 오디오를 재생한다.That is, when the second
도 4에 따른 실시예에 의하면, 서비스 서버(30)는 각 모바일 기기의 위치를 인식하고 있으므로, 위치기반의 다양한 오디오 재생 서비스를 제공할 수 있다.According to the embodiment of FIG. 4, since the
일례에 따르면, 동일한 디지털 오디오를 함께 재생 중인 공동 재생 서비스를 이용하는 각 모바일 기기의 위치에 기반하여, 각 모바일 기기에서 출력하는 음량의 제어뿐 아니라 재생 여부 제어 등을 수행(예를 들어 서비스 서버(30)가 제어권을 가지고 통신망을 통해 각 모바일 기기를 원격 제어)할 수 있을 것이다.According to an example, based on the location of each mobile device using a joint playback service that is playing the same digital audio together, not only control the volume output from each mobile device, but also control whether to play or not (for example, the service server 30 ) Will be able to remotely control each mobile device through the network with control.
구체적인 일례에 따르면, 최초 원본 오디오를 출력하는 제1 모바일 기기(10)를 기준으로, 좌측에 위치한 제2 모바일 기기(20)들에서는 베이스음을 높혀 출력하도록 하고, 우측에 위치한 제2 모바일 기기(20)들은 특정한 이펙트를 적용하여 출력하는 등의 제어를 수행할 수 있으며, 이는 제1 모바일 기기(10)로부터의 명령에 의해 수행될 수도 있다.According to a specific example, based on the first
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to preferred embodiments of the present invention, those of ordinary skill in the relevant technical field can variously modify the present invention within the scope not departing from the spirit and scope of the present invention described in the following claims. It will be appreciated that it can be modified and changed.
10 : 제1 모바일 기기
20 : 제2 모바일 기기
30 : 서비스 서버
40 : 디지털오디오 DB10: first mobile device
20: second mobile device
30: service server
40: Digital audio DB
Claims (13)
외부 오디오를 입력받아 미리 설정된 일정시간동안 녹음하는 단계;
녹음된 오디오에 상응하는 오디오정보와, 측정된 위치정보를 서비스 서버로 전송하는 단계;
상기 서비스 서버가 상기 오디오 정보의 분석에 의해 원본 오디오 및 재생구간을 식별하고, 상기 위치정보에 상응하는 상기 원본 오디오를 출력하는 타 모바일 기기가 미리 전송한 위치정보인 타 모바일기기 위치정보를 확인함으로써, 상기 서비스 서버로부터 상기 재생구간에 대한 정보 및 상기 타 모바일기기 위치정보를 수신하는 단계;
상기 외부 오디오에 대한 녹음 완료 이후 상기 서비스 서버로부터 상기 재생구간에 대한 정보를 수신하기까지 소요된 시간 및 상기 타 모바일 기기 위치정보와 상기 측정된 위치정보 간의 이격거리에 의한 딜레이 시간을 상기 재생구간에 적용하여 재생시점을 산출하는 단계; 및
상기 원본 오디오를 산출된 재생시점부터 재생하는 단계를 포함하는 디지털 오디오 공동 재생 서비스 방법.
In the digital audio joint playback service method performed in a mobile device,
Receiving external audio and recording for a predetermined time;
Transmitting audio information corresponding to the recorded audio and the measured location information to a service server;
The service server identifies the original audio and playback section by analyzing the audio information, and checks the location information of another mobile device, which is the location information previously transmitted by another mobile device that outputs the original audio corresponding to the location information. Receiving information on the playback section and location information of the other mobile device from the service server;
After the recording of the external audio is completed, the time taken to receive the information on the playback section from the service server and the delay time according to the separation distance between the location information of the other mobile device and the measured location information are in the playback section. Applying and calculating a reproduction time point; And
And reproducing the original audio from the calculated reproduction time point.
상기 원본 오디오를 재생하는 단계는,
일정시간동안 출력음량을 일정수준 이하로 낮춘 상태에서 외부 오디오를 입력받아 녹음하는 단계;
녹음 오디오와 출력 오디오를 비교하는 단계; 및
상기 비교 결과에 따라 재생구간을 변경하는 단계를 포함하는, 디지털 오디오 공동 재생 서비스 방법.
The method according to claim 1,
Reproducing the original audio,
Receiving and recording external audio while lowering the output volume below a predetermined level for a predetermined time;
Comparing the recorded audio and the output audio; And
And changing a reproduction period according to the comparison result.
상기 오디오 정보는 녹음된 오디오의 분석에 의한 특징정보인 DNA데이터인, 디지털 오디오 공동 재생 서비스 방법.
The method according to claim 1,
The audio information is DNA data, which is characteristic information by analysis of recorded audio.
A recording medium containing instructions executable by a computer, such as an application or program module executed by a computer for performing the method of claim 1.
상기 오디오 재생 정보를 등록받아 저장하는 서비스 서버; 및
상기 제1 모바일 기기에서 외부로 출력된 오디오를 입력받아 미리 설정된 일정시간동안 녹음하고, 녹음된 오디오에 상응하는 오디오 정보와 측정된 위치정보를 상기 서비스 서버로 전송함으로써, 디지털 오디오에 대한 공동 재생 서비스를 요청하는 제2 모바일 기기를 포함하되,
상기 서비스 서버는 상기 오디오 정보의 분석에 의해 원본오디오 및 재생구간을 식별하고, 상기 제2 모바일 기기의 위치정보에 상응하는 상기 원본 오디오를 출력하는 제1 모바일 기기의 위치정보를 확인하고, 상기 재생구간에 대한 정보와 상기 제1 모바일 기기의 위치정보를 상기 제2 모바일 기기로 제공하며,
상기 제2 모바일 기기는 녹음 완료 이후 상기 서비스 서버로부터 상기 재생구간에 대한 정보를 수신하기까지 소요된 시간 및 상기 제1 모바일 기기의 위치정보와 자신의 위치정보 간의 이격거리에 의한 딜레이 시간을 상기 재생구간에 적용하여 재생시점을 산출하고, 상기 원본 오디오를 산출된 재생시점부터 재생하는, 디지털 오디오 공동 재생 서비스 시스템.
When playing digital audio, a first mobile device that generates and uploads audio reproduction information including information on reproduction audio identification information and location;
A service server that registers and stores the audio reproduction information; And
A joint playback service for digital audio by receiving the audio output from the first mobile device and recording it for a predetermined period of time, and transmitting audio information corresponding to the recorded audio and measured location information to the service server. Including a second mobile device requesting,
The service server identifies the original audio and the playback section by analyzing the audio information, checks the location information of the first mobile device outputting the original audio corresponding to the location information of the second mobile device, and plays the playback Providing section information and location information of the first mobile device to the second mobile device,
The second mobile device plays the delay time according to the distance between the location information of the first mobile device and the location information of the first mobile device and the time taken to receive the information on the playback section from the service server after the recording is completed. A digital audio joint playback service system for calculating a playback time by applying it to a section and playing the original audio from the calculated playback time.
상기 서비스 서버는 상기 제1 모바일 기기로부터의 명령에 상응하는 제어정보를 상기 제2 모바일 기기로 전송하며,
상기 제2 모바일 기기는 상기 제어정보에 따라 오디오의 재생 또는 출력을 제어하는, 디지털 오디오 공동 재생 서비스 시스템.The method of claim 10,
The service server transmits control information corresponding to the command from the first mobile device to the second mobile device,
The second mobile device controls audio reproduction or output according to the control information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190123703A KR102171479B1 (en) | 2019-10-07 | 2019-10-07 | Method and system for digital audio co-play service |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190123703A KR102171479B1 (en) | 2019-10-07 | 2019-10-07 | Method and system for digital audio co-play service |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102171479B1 true KR102171479B1 (en) | 2020-10-29 |
Family
ID=73129385
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190123703A KR102171479B1 (en) | 2019-10-07 | 2019-10-07 | Method and system for digital audio co-play service |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102171479B1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110090695A (en) * | 2010-02-04 | 2011-08-10 | 엘지전자 주식회사 | Information providing apparatus and method thereof |
JP2013068900A (en) * | 2011-09-26 | 2013-04-18 | Yamaha Corp | Information processing device and program |
KR20130050539A (en) * | 2011-11-08 | 2013-05-16 | 주식회사 엘지유플러스 | Mobile terminal and system for providing a sound source, and method for providing a sound source |
KR20130129749A (en) * | 2012-05-21 | 2013-11-29 | 엘지전자 주식회사 | Method and electronic device for easily searching for voice record |
KR101925217B1 (en) | 2017-06-20 | 2018-12-04 | 한국과학기술원 | Singing voice expression transfer system |
-
2019
- 2019-10-07 KR KR1020190123703A patent/KR102171479B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110090695A (en) * | 2010-02-04 | 2011-08-10 | 엘지전자 주식회사 | Information providing apparatus and method thereof |
JP2013068900A (en) * | 2011-09-26 | 2013-04-18 | Yamaha Corp | Information processing device and program |
KR20130050539A (en) * | 2011-11-08 | 2013-05-16 | 주식회사 엘지유플러스 | Mobile terminal and system for providing a sound source, and method for providing a sound source |
KR20130129749A (en) * | 2012-05-21 | 2013-11-29 | 엘지전자 주식회사 | Method and electronic device for easily searching for voice record |
KR101925217B1 (en) | 2017-06-20 | 2018-12-04 | 한국과학기술원 | Singing voice expression transfer system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7786367B2 (en) | Music player connection system for enhanced playlist selection | |
JP5145937B2 (en) | Content playback method and apparatus with playback start position control | |
US20170315775A1 (en) | Synchronized Playback of Media Players | |
US9854294B2 (en) | Localized audio source extraction from video recordings | |
KR101275467B1 (en) | Apparatus and method for controlling automatic equalizer of audio reproducing apparatus | |
US7848493B2 (en) | System and method for capturing media | |
US20170034263A1 (en) | Synchronized Playback of Streamed Audio Content by Multiple Internet-Capable Portable Devices | |
US20160364397A1 (en) | System and Methods for Locally Customizing Media Content for Rendering | |
US20210243528A1 (en) | Spatial Audio Signal Filtering | |
EP3703404B1 (en) | Using audio to associate a target device with credentials of an account associated with a user of a source device | |
KR101987473B1 (en) | System for synchronization between accompaniment and singing voice of online singing room service and apparatus for executing the same | |
JP2008096483A (en) | Sound output control device and sound output control method | |
US20210185474A1 (en) | System and method for use of crowdsourced microphone or other information with a digital media content environment | |
US20220366024A1 (en) | Association via audio | |
JP2010523068A (en) | How to determine a point in time in an audio signal | |
US20220343920A1 (en) | Content playback system | |
US20210345056A1 (en) | Audio content format selection | |
US9053710B1 (en) | Audio content presentation using a presentation profile in a content header | |
KR102172149B1 (en) | Method for playing contents, method for providing dialogue section data and device for playing video contents | |
KR101715070B1 (en) | System and method for providong digital sound transmission based music radio service | |
KR20180007885A (en) | Karaoke system and management method thereof | |
KR102171479B1 (en) | Method and system for digital audio co-play service | |
JP4327165B2 (en) | Music playback device | |
US20200081681A1 (en) | Mulitple master music playback | |
KR102369682B1 (en) | System for providing a playing music information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |