KR102171479B1 - Method and system for digital audio co-play service - Google Patents

Method and system for digital audio co-play service Download PDF

Info

Publication number
KR102171479B1
KR102171479B1 KR1020190123703A KR20190123703A KR102171479B1 KR 102171479 B1 KR102171479 B1 KR 102171479B1 KR 1020190123703 A KR1020190123703 A KR 1020190123703A KR 20190123703 A KR20190123703 A KR 20190123703A KR 102171479 B1 KR102171479 B1 KR 102171479B1
Authority
KR
South Korea
Prior art keywords
audio
mobile device
information
playback
time
Prior art date
Application number
KR1020190123703A
Other languages
Korean (ko)
Inventor
임성우
심해청
전종필
Original Assignee
임성우
심해청
전종필
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 임성우, 심해청, 전종필 filed Critical 임성우
Priority to KR1020190123703A priority Critical patent/KR102171479B1/en
Application granted granted Critical
Publication of KR102171479B1 publication Critical patent/KR102171479B1/en

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel

Landscapes

  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Telephonic Communication Services (AREA)

Abstract

Disclosed are a digital sound co-play service method and a system therefor. According to one aspect of the present invention, the digital sound co-play service method performed by a mobile device comprises the steps of: receiving external sound and recording the external sound for a predetermined period of time; transmitting sound information corresponding to the recorded sound to a service device; receiving searched information from a service server searching for original sound and a playback section corresponding to the sound information; and playing the original sound from a playback point corresponding to the playback section.

Description

디지털 오디오 공동 재생 서비스 방법 및 시스템{Method and system for digital audio co-play service}Method and system for digital audio co-play service

본 발명은 개인모바일 기기에서 출력되는 디지털 오디오에 대한 공동 재생 서비스를 위한 방법 및 시스템에 관한 것이다.The present invention relates to a method and system for a joint playback service for digital audio output from a personal mobile device.

최근에 멀티미디어에 대한 수요가 급증하면서 사용자가 휴대하는 모바일 기기를 이용하여 MP3 음악, 동영상을 다운로드 또는 스트리밍 방식으로 청취하거나 시청하는 서비스가 다양하게 제공되고 있다.Recently, as the demand for multimedia has increased rapidly, various services for listening to or viewing MP3 music and video in a download or streaming method using mobile devices carried by users are provided.

그런데, 사용자가 휴대하는 모바일 기기는 손에 쥐어지는 정도의 크기를 가지므로, 스피커의 크기에 제한이 있어 음량 및 음질에도 하드웨어적인 한계가 있다. 만일 여러 청취자가 하나의 모바일 기기로 음악을 듣게되는 경우 멀리 떨어진 사람은 잘 들리지 않게 될 것이다. 이러한 모바일 기기의 스피커 성능 보완을 위해 블루투스 통신 기능을 구비한 외부 스피커를 이용하는 유저들이 많은데, 이 경우 외부 스피커를 휴대해야하는 불편이 있으며 그 또한 휴대성으로 인한 크기의 제한으로 인한 음량에 한계가 있다.However, since a mobile device carried by a user has a size of a size that can be held in a hand, there is a limitation in the size of a speaker and thus there is a hardware limitation in volume and sound quality. If multiple listeners are listening to music on a single mobile device, those far away will not hear well. There are many users who use an external speaker with a Bluetooth communication function to supplement speaker performance of such mobile devices. In this case, there is an inconvenience of carrying an external speaker, and there is a limit to the volume due to a size limitation due to portability.

대한민국 등록특허 제10-1925217 (등록일자 2018년11월28일) 가창 표현 이식 시스템Korean Patent Registration No. 10-1925217 (Registration date November 28, 2018) Gachang expression transplant system

따라서, 본 발명은 상술한 문제점을 해결하기 위해 안출된 것으로서, 복수개의 모바일 기기에서 디지털 오디오를 동시 재생하여 여러 사람들이 함께 청취할 수 있는 디지털 오디오 공동 재생 서비스 방법 및 시스템을 제공하기 위한 것이다.Accordingly, the present invention has been conceived to solve the above-described problem, and is to provide a digital audio joint playback service method and system in which a plurality of mobile devices can simultaneously reproduce digital audio and listen to it together.

또한, 본 발명은 소리 울림을 최소화하기 위해 재생시간을 동기화하는 디지털 오디오 공동 재생 서비스 방법 및 시스템을 제공하기 위한 것이다.In addition, the present invention is to provide a digital audio joint playback service method and system that synchronizes playback times to minimize sound ringing.

본 발명의 다른 목적들은 이하에 서술되는 바람직한 실시예를 통하여 보다 명확해질 것이다.Other objects of the present invention will become more apparent through preferred embodiments described below.

본 발명의 일 측면에 따르면, 모바일 기기에서 수행되는 디지털 오디오 공동 재생 서비스 방법에 있어서, 외부 오디오를 입력받아 미리 설정된 일정시간동안 녹음하는 단계; 녹음된 오디오에 상응하는 오디오 정보를 서비스 장치로 전송하는 단계; 상기 오디오 정보에 상응하는 원본 오디오 및 재생구간을 탐색한 상기 서비스 서버로부터 탐색된 정보를 수신하는 단계; 및 상기 재생구간에 상응하는 재생시점부터 상기 원본 오디오를 재생하는 단계를 포함하는 디지털 오디오 공동 재생 서비스 방법 및 그 방법을 실행하는 프로그램이 기록된 기록매체가 제공된다.According to an aspect of the present invention, there is provided a digital audio joint playback service method performed in a mobile device, the method comprising: receiving external audio and recording for a predetermined time period; Transmitting audio information corresponding to the recorded audio to the service device; Receiving the searched information from the service server searching for an original audio and a reproduction section corresponding to the audio information; And reproducing the original audio from a playback time corresponding to the playback section, and a recording medium on which a program for executing the method is recorded.

여기서, 녹음 완료 후 상기 서비스 서버로부터 상기 탐색된 정보를 수신하기까지 소요된 시간을 고려하여 상기 재생시점을 결정할 수 있다.Here, the playback time may be determined in consideration of the time taken to receive the searched information from the service server after recording is completed.

또한, 상기 원본 오디오를 재생하는 단계는, 일정시간동안 출력음량을 일정수준 이하로 낮춘 상태에서 외부 오디오를 입력받아 녹음하는 단계; 녹음 오디오와 출력 오디오를 비교하는 단계; 및 상기 비교 결과에 따라 재생구간을 변경하는 단계를 포함할 수 있다.Further, the reproducing of the original audio may include receiving and recording external audio while lowering the output volume to a predetermined level or lower for a predetermined period of time; Comparing the recorded audio and the output audio; And changing the reproduction section according to the comparison result.

또한, 상기 서비스 서버로 측정된 위치정보를 전송하며, 상기 서비스 서버로부터 상기 위치정보에 상응하는 상기 원본 오디오를 출력하는 타 모바일 기기에 대한 위치정보를 수신하는 경우, 상기 타 모바일 기기에 대한 위치정보와 측정된 위치정보간의 차이를 상기 재생시점의 결정에 더 이용할 수 있다.In addition, when the measured location information is transmitted to the service server and location information for another mobile device that outputs the original audio corresponding to the location information is received from the service server, the location information for the other mobile device The difference between the and the measured location information can be further used to determine the playback time.

또한, 상기 오디오 정보는 녹음된 오디오의 분석에 의한 특징정보인 DNA데이터일 수 있다.In addition, the audio information may be DNA data, which is characteristic information by analysis of the recorded audio.

그리고, 모바일 기기와 통신망을 통해 결합된 서비스 서버에서 수행되는 디지털 오디오 공동 재생 서비스 방법에 있어서, 디지털 오디오를 재생하는 하나 이상의 제1 모바일 기기부터 재생오디오 식별정보, 재생시점 정보, 기기 시각정보 및 위치에 대한 정보를 포함하는 오디오 재생 정보를 수신하여 등록하는 단계; 제2 모바일 기기로부터 공동 재생 서비스가 요청된 경우, 위치를 기반으로 상기 제2 모바일 기기의 위치정보에 대응되는 오디오 재생 정보를 검색하는 단계; 검색된 오디오 재생 정보를 기반으로 현재시각과 상기 재생시점 정보 및 기기 시각정보를 이용하여 현재 재생시점을 산출하는 단계; 및 상기 제2 모바일 기기가 상기 디지털 오디오를 상기 현재 재생시점에 상응하는 재생시점부터 재생하도록, 산출된 현재 재생시점과 재생오디오에 대한 정보를 상기 제2 모바일 기기로 제공하는 단계를 포함하는, 디지털 오디오 공동 재생 서비스 방법 및 그 방법을 실행하는 프로그램이 기록된 기록매체가 제공된다.And, in the digital audio joint playback service method performed in a service server coupled through a mobile device and a communication network, from at least one first mobile device that reproduces digital audio, playback audio identification information, playback time information, device time information and location Receiving and registering audio reproduction information including information about a; When a joint playback service is requested from a second mobile device, searching for audio playback information corresponding to the location information of the second mobile device based on a location; Calculating a current playback time based on the retrieved audio playback information using the current time, the playback time information, and device time information; And providing information on the calculated current playback time and playback audio to the second mobile device so that the second mobile device reproduces the digital audio from a playback time corresponding to the current playback time. An audio joint reproduction service method and a recording medium in which a program for executing the method is recorded are provided.

여기서, 상기 제1 모바일 기기의 위치정보와 상기 제2 모바일 기기의 위치정보를 이용하여 이격거리를 산출하고, 상기 이격거리를 상기 현재 재생시점의 산출에 반영할 수 있다.Here, the separation distance may be calculated using the location information of the first mobile device and the location information of the second mobile device, and the separation distance may be reflected in the calculation of the current playback time.

또한, 상기 제1 모바일 기기 및 제2 모바일 기기 각각의 기종에 상응하는 기기 시각 차이, 상기 제2 모바일 기기와의 데이터 통신 소요시간 중 적어도 어느 하나를 상기 현재 재생시점의 산출에 반영할 수 있다.In addition, at least one of a device time difference corresponding to a model of each of the first mobile device and the second mobile device and a time required for data communication with the second mobile device may be reflected in the calculation of the current playback time.

본 발명의 다른 측면에 따르면, 디지털 오디오를 재생하는 경우, 재생오디오 식별정보, 재생시점 정보, 기기 시각정보 및 위치에 대한 정보를 포함하는 오디오 재생 정보를 생성하여 업로드하는 제1 모바일 기기; 상기 오디오 재생 정보를 등록받아 저장하는 서비스 서버; 및 상기 서비스 서버로 접속하여 상기 디지털 오디오에 대한 공동 재생 서비스를 요청하는 제2 모바일 기기를 포함하되, 상기 서비스 서버는, 위치를 기반으로 상기 제2 모바일 기기의 위치정보에 상응하는 오디오 재생 정보를 검색하고, 검색된 오디오 재생 정보를 기반으로 현재시각과 상기 재생시점 정보 및 기기 시각정보를 이용하여 현재 재생시점을 산출하며, 상기 제2 모바일 기기가 상기 디지털 오디오를 상기 현재 재생시점에 상응하는 재생시점부터 재생하도록, 산출된 현재 재생시점과 재생오디오에 대한 정보를 상기 제2 모바일 기기로 제공하는, 디지털 오디오 공동 재생 서비스 시스템이 제공된다.According to another aspect of the present invention, when reproducing digital audio, a first mobile device for generating and uploading audio reproduction information including reproduction audio identification information, reproduction time information, device time information, and location information; A service server that registers and stores the audio reproduction information; And a second mobile device that accesses the service server and requests a joint playback service for the digital audio, wherein the service server receives audio playback information corresponding to the location information of the second mobile device based on the location. Based on the searched and retrieved audio reproduction information, the current time, the reproduction time information, and the device time information are used to calculate the current reproduction time, and the second mobile device reproduces the digital audio corresponding to the current reproduction time. A digital audio joint playback service system is provided that provides information on the calculated current playback time and playback audio to the second mobile device so as to be played back from the beginning.

여기서, 상기 서비스 서버는, 상기 제1 모바일 기기의 위치정보와 상기 제2 모바일 기기의 위치정보를 이용하여 이격거리를 산출하고, 상기 이격거리를 상기 현재 재생시점의 산출에 반영할 수 있다.Here, the service server may calculate a separation distance using the location information of the first mobile device and the location information of the second mobile device, and reflect the separation distance in the calculation of the current playback time.

또한, 상기 제2 모바일 기기는 상기 서비스 서버로부터 공동 재생 서비스에 상응하는 관련정보를 취득하지 못하는 경우, 외부 오디오를 입력받아 미리 설정된 일정시간동안 녹음하고, 녹음된 오디오에 상응하는 오디오 정보를 상기 서비스 장치로 전송하며, 상기 오디오 정보에 상응하는 원본 오디오 및 재생구간을 탐색한 상기 서비스 서버로부터 탐색된 정보를 수신하고, 상기 재생구간에 상응하는 재생시점부터 상기 원본 오디오를 재생할 수 있다.In addition, when the second mobile device cannot obtain related information corresponding to the joint playback service from the service server, the second mobile device receives external audio and records it for a predetermined period of time, and provides audio information corresponding to the recorded audio to the service. The original audio corresponding to the audio information and the searched information may be received from the service server that searched for a playback section, and the original audio can be played from a playback time corresponding to the playback section.

또한, 상기 서비스 서버는 상기 제1 모바일 기기로부터의 명령에 상응하는 제어정보를 상기 제2 모바일 기기로 전송하며, 상기 제2 모바일 기기는 상기 제어정보에 따라 오디오의 재생 또는 출력을 제어할 수 있다.In addition, the service server transmits control information corresponding to a command from the first mobile device to the second mobile device, and the second mobile device may control reproduction or output of audio according to the control information. .

본 발명에 따르면, 복수개의 모바일 기기에서 디지털 오디오를 동시 재생하여 여러 사람들이 함께 청취할 수 있다.According to the present invention, digital audio can be simultaneously played by a plurality of mobile devices so that several people can listen to it together.

또한, 본 발명에 따르면 기기 처리 시간, 통신 시간 등을 고려하며 모바일의 위치에 기반한 방식으로 재생의 시간적 위치를 동기화함으로써 소리 울림에 의한 불편을 최소화할 수 있다.In addition, according to the present invention, it is possible to minimize the inconvenience caused by the sound by synchronizing the temporal location of the playback in a manner based on the location of the mobile device, taking into account the device processing time and the communication time.

도 1은 본 발명의 일 실시예에 따른 디지털 오디오 공동 재생 서비스 시스템을 개략적으로 도시한 구성도.
도 2는 본 발명의 일 실시예에 따른 녹음된 오디오의 분석에 의한 공동 재생 서비스를 제공하는 과정을 도시한 흐름도.
도 3은 본 발명의 일 실시예에 따른 모바일 기기에서 수행되는 재생 싱크 조절 과정을 도시한 흐름도.
도 4는 본 발명의 일 실시예에 따른 서비스 서버에서 수행되는 위치기반 오디오 공동 재생 서비스 과정을 도시한 흐름도.
도 5는 본 발명의 일 실시예에 따른 위치기반 오디오 공동 재생 서비스를 위해 서버에서 관리되는 오디오 재생 정보를 예시한 테이블.
1 is a block diagram schematically showing a digital audio joint playback service system according to an embodiment of the present invention.
2 is a flowchart illustrating a process of providing a joint playback service by analyzing recorded audio according to an embodiment of the present invention.
3 is a flowchart illustrating a process of adjusting a playback sync performed in a mobile device according to an embodiment of the present invention.
4 is a flowchart illustrating a location-based audio joint playback service process performed in a service server according to an embodiment of the present invention.
5 is a table illustrating audio reproduction information managed by a server for a location-based audio joint reproduction service according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.In the present invention, various modifications may be made and various embodiments may be provided, and specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to a specific embodiment, it is to be understood to include all changes, equivalents, or substitutes included in the spirit and scope of the present invention.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. When a component is referred to as being "connected" or "connected" to another component, it is understood that it may be directly connected or connected to the other component, but other components may exist in the middle. Should be. On the other hand, when a component is referred to as being "directly connected" or "directly connected" to another component, it should be understood that there is no other component in the middle.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 후술될 제1 임계값, 제2 임계값 등의 용어는 실질적으로는 각각 상이하거나 일부는 동일한 값인 임계값들로 미리 지정될 수 있으나, 임계값이라는 동일한 단어로 표현될 때 혼동의 여지가 있으므로 구분의 편의상 제1, 제2 등의 용어를 병기하기로 한다. Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. These terms are used only for the purpose of distinguishing one component from another component. For example, terms such as a first threshold value and a second threshold value to be described later may be pre-designated as threshold values that are substantially different or some of the same values, but when expressed in the same word as the threshold value, there is a confusion. There is room, so for the convenience of classification, terms such as first and second will be added together.

본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present specification are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this specification, terms such as "comprise" or "have" are intended to designate the presence of features, numbers, steps, actions, components, parts, or a combination thereof described in the specification, but one or more other features. It is to be understood that the presence or addition of elements or numbers, steps, actions, components, parts, or combinations thereof, does not preclude in advance.

또한, 각 도면을 참조하여 설명하는 실시예의 구성 요소가 해당 실시예에만 제한적으로 적용되는 것은 아니며, 본 발명의 기술적 사상이 유지되는 범위 내에서 다른 실시예에 포함되도록 구현될 수 있으며, 또한 별도의 설명이 생략될지라도 복수의 실시예가 통합된 하나의 실시예로 다시 구현될 수도 있음은 당연하다.In addition, components of the embodiments described with reference to each drawing are not limited to the corresponding embodiments, and may be implemented to be included in other embodiments within the scope of maintaining the technical spirit of the present invention. Even if the description is omitted, it is natural that a plurality of embodiments may be implemented again as a unified embodiment.

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일하거나 관련된 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. In addition, in the description with reference to the accompanying drawings, the same or related reference numerals are assigned to the same components regardless of the reference numerals, and redundant descriptions thereof will be omitted. In describing the present invention, when it is determined that a detailed description of related known technologies may unnecessarily obscure the subject matter of the present invention, a detailed description thereof will be omitted.

도 1은 본 발명의 일 실시예에 따른 디지털 오디오 공동 재생 서비스 시스템을 개략적으로 도시한 구성도이다.1 is a block diagram schematically illustrating a digital audio joint playback service system according to an embodiment of the present invention.

도 1을 참조하면, 본 실시예에 따른 전체 시스템은 디지털 오디오를 재생하는 제1 모바일 기기(10), 제1 모바일 기기(10)에서 재생되는 오디오와 동일한 것을 출력하고자 하는 사용자가 구비한 제2 모바일 기기(20), 및 공동 재생 서비스를 제공하기 위한 서비스 서버(30)를 포함하며, 일례에 따르면 서비스 서버(30)는 디지털 오디오 DB(40)를 운영할 수 있다.Referring to FIG. 1, the entire system according to the present embodiment includes a first mobile device 10 that reproduces digital audio, and a second user who wants to output the same audio as the first mobile device 10. A mobile device 20 and a service server 30 for providing a joint playback service are included. According to an example, the service server 30 may operate a digital audio DB 40.

제1 모바일 기기(10) 및 제2 모바일 기기(20)는 스마트폰과 같은 통신 가능한 단말장치일 수 있으며, 오디오(오디오가 포함된 동영상도 포함)를 재생하고 출력하는 미디어 기능을 구비한 장치이다.The first mobile device 10 and the second mobile device 20 may be a communication terminal device such as a smart phone, and are devices having a media function for reproducing and outputting audio (including video including audio). .

제2 모바일 기기(20)는 주변에 위치한 제1 모바일 기기(10)에서 재생 중인 오디오와 동일한 오디오를 재생하여 출력하기 위해 서비스 서버(30)를 이용한다. 이때, 제1 모바일 기기(10)와 제2 모바일 기기(20)는 동일한 오디오(예를 들어, 동일한 음악)를 재생함에 있어 재생 싱크를 맞추어 재생(즉, 재생되는 시간적 위치인 재생시점을 동기화함)하는 것이 중요하다. 재생 동기화 방식은 차후 관련 도면(도 2 또는 도 3)을 참조하여 상세히 설명하기로 한다.The second mobile device 20 uses the service server 30 to reproduce and output the same audio as the audio being played by the first mobile device 10 located nearby. At this time, when the first mobile device 10 and the second mobile device 20 play the same audio (for example, the same music), the first mobile device 10 and the second mobile device 20 synchronize with the playback sync (that is, the playback time, which is the temporal position at which they are played). ) Is important. The playback synchronization method will be described in detail later with reference to a related drawing (FIG. 2 or 3).

제1 모바일 기기(10) 또는 제2 모바일 기기(20)는 스트리밍 방식 또는 다운로드 방식으로 디지털 오디오를 재생할 수 있으며, 그 오디오 제공 서비스(이하 음원 서비스라 칭함)는 도시되지 않은 별도의 서버에서 제공될 수 있으며, 이하에서는 설명의 편의상 서비스 서버(30)가 디지털오디오 DB(40)를 활용하여 음원 서비스를 함께 제공하는 것을 위주로 설명하기로 한다. 예를 들어, 서비스 서버(30)가 모바일 기기로 음원 서비스를 제공하며, 또한 해당 음원에 대한 공동 재생 서비스를 제공하는 것이다.The first mobile device 10 or the second mobile device 20 can reproduce digital audio in a streaming method or a download method, and the audio providing service (hereinafter referred to as sound source service) may be provided by a separate server (not shown). In the following description, for convenience of explanation, the service server 30 provides a sound source service together using the digital audio DB 40. For example, the service server 30 provides a sound source service to a mobile device, and also provides a joint playback service for a corresponding sound source.

도 2는 본 발명의 일 실시예에 따른 녹음된 오디오의 분석에 의한 공동 재생 서비스를 제공하는 과정을 도시한 흐름도이고, 도 3은 본 발명의 일 실시예에 따른 모바일 기기에서 수행되는 재생 싱크 조절 과정을 도시한 흐름도이다.2 is a flowchart showing a process of providing a joint playback service by analyzing recorded audio according to an embodiment of the present invention, and FIG. 3 is a playback sync control performed in a mobile device according to an embodiment of the present invention. It is a flow chart showing the process.

일례에 따른 도 2를 참조하면, 제2 모바일 기기(20)는 외부 오디오를 입력받아 미리 설정된 일정시간(예를 들어, 1~3초 등)동안 녹음한다(S210). 예를 들어, 주변에서 들리는 음악에 대해 공동 재생 서비스를 이용하고자 하는 사용자는 자신의 모바일 기기(제2 모바일 기기(20)가 되는 것임)를 이용하는 것이며, 이때 제2 모바일 기기(20)는 마이크로폰 등의 음원입력수단을 이용하여 외부소리를 녹음하는 것이다.Referring to FIG. 2 according to an example, the second mobile device 20 receives external audio and records for a predetermined time (eg, 1 to 3 seconds, etc.) (S210). For example, a user who wants to use the joint playback service for music heard in the surroundings uses his or her mobile device (which becomes the second mobile device 20), and the second mobile device 20 is a microphone, etc. It is to record external sound using the sound source input means.

제2 모바일 기기(20)는 녹음된 오디오에 상응하는 오디오 정보를 생성한다(S220). 일례에 따르면, 녹음된 오디오의 주파수, 파형 등의 분석에 의해 특징정보(이하 DNA데이터라 칭함)를 독출하는 것이다. 어떠한 정보에서 특징정보를 추출하여 이용하는 것은 다양한 분야(지문인식, 영상필터링 등)에서 이용되고 있으므로, 오디오에서의 특징이 되는 고유우ㅢ DAN데이터를 추출하는 개념은 당업자에게는 자명할 것이며, 모든 방식이 동일하게 적용될 수 있음은 이하의 설명을 통해 더욱 자명하게 될 것이다.The second mobile device 20 generates audio information corresponding to the recorded audio (S220). According to an example, characteristic information (hereinafter referred to as DNA data) is read by analyzing the frequency and waveform of the recorded audio. Since extracting and using feature information from any information is used in various fields (fingerprint recognition, image filtering, etc.), the concept of extracting unique DAN data that is characteristic in audio will be apparent to those skilled in the art, and all methods are It will be more apparent through the following description that the same can be applied.

제2 모바일 기기(20)는 특징정보를 포함하는 오디오 정보를 서비스 서버(30)로 전송하며 공동 재생 서비스를 요청한다(S230). The second mobile device 20 transmits audio information including feature information to the service server 30 and requests a joint playback service (S230).

공동 재생 서비스를 요청받은 서비스 서버(30)는 수신된 오디오 정보에 따른 DNA데이터를 갖는 원본 오디오를 구비된 디지털오디오 DB(40)에서 검색하여 인식하고, 검색된 원본 오디오에서 해당하는 재생구간을 탐색한다(S240). 예를 들어 원본 오디오가 A라는 음악이고, 해당하는 DNA데이터가 A음악의 [01:30:012 ~ 01:33:018]이라는 밀리세컨드 단위까지의 재생구간임을 인식하는 것이다. The service server 30 requested for the joint playback service searches and recognizes the original audio having DNA data according to the received audio information in the digital audio DB 40 provided, and searches for a corresponding playback section in the searched original audio. (S240). For example, it is recognized that the original audio is music of A, and the corresponding DNA data is a playback section of music A of [01:30:012 ~ 01:33:018] up to the millisecond unit.

이렇게 탐색된 정보(원본오디오 식별정보, 재생구간 정보 등)를 서비스 서버(30)는 제2 모바일 기기(20)로 제공한다(S250).The service server 30 provides the searched information (original audio identification information, reproduction section information, etc.) to the second mobile device 20 (S250).

그러면, 제2 모바일 기기(20)는 재생구간에 상응하는 재생시점부터 원본 오디오를 재생한다(S260). 예를 들어, A음악의 [01:33:019]을 재생시점으로 하여 재생하는데, 그 이유는 녹음된 오디오의 재생구간의 마지막시점이 [01:33:018]이므로 그 다음 시점부터 재생하기 위한 것이다. Then, the second mobile device 20 reproduces the original audio from a playback time corresponding to the playback section (S260). For example, music A is played with [01:33:019] as the playback time, because the last time of the playback section of the recorded audio is [01:33:018], so will be.

이때, 일례에 따르면 재생구간의 마지막시점인 [01:33:018]에 딜레이 시간(예를 들어, 서비스 서버(30)와의 통신시간, 서비스 서버(30)에서의 탐색 시간, 기기 자체에서의 재생처리 시간 등을 고려한 시간)을 고려하여 재생시점을 결정할 수 있는데, 예를 들어 딜레이 시간이 10밀리세컨드인 경우 [01:33:29]가 재생시점이 될 수 있을 것이다. 즉, 제2 모바일 기기(20)는 녹음 완료 후 서비스 서버(30)로부터 재생구간 및 원본오디오 정보를 수신하기까지 소요된 시간을 더 고려하여 재생시점을 결정하는 것이다.At this time, according to an example, the delay time (for example, communication time with the service server 30, search time in the service server 30, playback in the device itself) at [01:33:018], which is the last time of the playback section. The playback time may be determined in consideration of the processing time and the like). For example, if the delay time is 10 milliseconds, [01:33:29] may be the playback time. That is, the second mobile device 20 further considers a playback section and a time taken to receive original audio information from the service server 30 after recording is completed to determine a playback time point.

또한, 일례에 따른 도 3을 참조하면, 제2 모바일 기기(20)는 원본 오디오를 재생하기 시작하면, 일정시간(예를 들어 3초 등) 동안 출력음량을 일정수준 이하로 낮춘 상태에서 외부 오디오를 입력받아 녹음한다(S310).In addition, referring to FIG. 3 according to an example, when the second mobile device 20 starts to play the original audio, the second mobile device 20 lowers the output volume to a certain level or less for a certain period of time (for example, 3 seconds, etc.). It receives the input and records (S310).

그리고, 녹음 오디오와 출력 오디오를 비교한다(S320).Then, the recorded audio and the output audio are compared (S320).

비교 결과에 따라 재생구간을 변경하는데(S330), 예를 들어 출력 오디오가 녹음 오디오에 비해 늦다면 재생위치를 그만큼 늦추는 것이다. 이때에도 출력시 소요되는 딜레이 시간과 녹음처리에 소요되는 딜레이 시간을 고려하여 재생구간의 변경시간을 결정할 수 있다.The playback section is changed according to the comparison result (S330). For example, if the output audio is later than the recorded audio, the playback position is delayed by that amount. Even at this time, the change time of the playback section can be determined in consideration of the delay time required for output and the delay time required for recording processing.

그리고, 도면에는 도시되지 않았으나, 다른 일례에 따르면, 제2 모바일 기기(20)는 서비스 서버(30)로 측정된 위치정보를 전송하며, 서비스 서버(30)로부터 위치정보에 상응하는 원본 오디오를 출력하는 타 모바일 기기인 제1 모바일 기기(10)에 대한 위치정보를 수신하는 경우, 제1 모바일 기기(10)에 대한 위치정보와 측정된 자신의 위치정보간의 차이를 재생시점의 결정에 더 이용한다. 즉, 제2 모바일 기기(20)는 제1 모바일 기기(10)와의 이격거리를 알게되면, 그 거리에 의해 전달되는 소리의 딜레이 시간을 감안하여 재생시점을 결정하는 것이다. 즉, 소리의 전달 시간(즉, 소리의 속도를 고려하여 계산)을 고려하여 재생시점을 결정함으로써, 제2 모바일 기기(20)의 사용자는 거의 동시에 동일한 재생구간에 따른 오디오를 외부와 자신의 모바일 기기를 통해 청취할 수 있게 된다.Further, although not shown in the drawing, according to another example, the second mobile device 20 transmits the measured location information to the service server 30, and outputs the original audio corresponding to the location information from the service server 30 When receiving the location information of the first mobile device 10, which is another mobile device, the difference between the location information of the first mobile device 10 and the measured location information of the first mobile device 10 is further used to determine the playback time. That is, when the second mobile device 20 knows the separation distance from the first mobile device 10, the second mobile device 20 determines the playback time in consideration of the delay time of the sound transmitted by the distance. That is, by determining the playback time in consideration of the transmission time of the sound (that is, calculated in consideration of the speed of the sound), the user of the second mobile device 20 transmits the audio according to the same playback section at about the same time. You will be able to listen through the device.

지금까지 설명한 공동 재생 서비스에 의하면, 제2 모바일 기기(20)의 사용자는 인식 대상 오디오가 재생되는 기기나 애플리케이션 프로그램에 구애받지 않고 인식할 수 있으며, 자신의 기기에서 같은 오디오를 재생시킬 수 있다는 장점이 있다.According to the joint playback service described so far, the user of the second mobile device 20 can recognize the recognition target audio regardless of the device or application program being played, and can play the same audio on his device. There is this.

도 4는 본 발명의 일 실시예에 따른 서비스 서버(30)에서 수행되는 위치기반 오디오 공동 재생 서비스 과정을 도시한 흐름도이고, 도 5는 본 발명의 일 실시예에 따른 위치기반 오디오 공동 재생 서비스를 위해 서버에서 관리되는 오디오 재생 정보를 예시한 테이블이다.4 is a flowchart showing a location-based audio co-play service process performed by the service server 30 according to an embodiment of the present invention, and FIG. 5 is a flow chart showing a location-based audio co-play service according to an embodiment of the present invention. This table is an example of audio reproduction information managed by the server.

먼저 도 1을 참조하면, 제1 모바일 기기(10)가 재생중인 오디오에 대한 정보를 미리 서비스 서버(30)에 등록하는 방식이 이용될 수 있다.First, referring to FIG. 1, a method of registering information on audio being played by the first mobile device 10 in the service server 30 in advance may be used.

즉, 제1 모바일 기기(10)는 디지털 오디오를 재생하는 경우, 재생오디오 식별정보, 재생시점 정보, 기기 시각정보 및 위치에 대한 정보를 포함하는 오디오 재생 정보를 생성하여 업로드한다. That is, when reproducing digital audio, the first mobile device 10 generates and uploads audio reproduction information including reproduction audio identification information, reproduction time information, device time information, and location information.

그러면, 서비스 서버(30)는, 위치를 기반으로 제2 모바일 기기(20)의 위치정보에 상응하는 오디오 재생 정보를 검색하고, 검색된 오디오 재생 정보를 기반으로 현재시각과 재생시점 정보 및 기기 시각정보를 이용하여 현재 재생시점을 산출하며, 제2 모바일 기기(20)가 디지털 오디오를 현재 재생시점에 상응하는 재생시점부터 재생하도록, 산출된 현재 재생시점과 재생오디오에 대한 정보를 제2 모바일 기기(20)로 제공하는 것이다.Then, the service server 30 searches for audio playback information corresponding to the location information of the second mobile device 20 based on the location, and the current time and playback time information and device time information based on the found audio playback information. The current playback time is calculated using, and the calculated information on the current playback time and the playback audio is calculated so that the second mobile device 20 plays the digital audio from the playback time corresponding to the current playback time. 20).

이에 따른 실시예를 도시한 도 4를 참조하면, 서비스 서버(30)는 디지털 오디오를 재생하는 하나 이상의 제1 모바일 기기(10)부터 재생오디오 식별정보, 재생시점 정보, 기기 시각정보 및 위치에 대한 정보를 포함하는 오디오 재생 정보를 수신하여 등록한다(S410).Referring to FIG. 4 showing an embodiment according to this, the service server 30 provides information on playback audio identification information, playback time information, device time information and location from one or more first mobile devices 10 that reproduce digital audio. Audio reproduction information including information is received and registered (S410).

서비스 서버(30)에 등록되는 정보를 도시한 도 5를 참조하면, 제1 모바일 기기(10)의 위치정보, 재생오디오 식별정보, 재생시점 정보 및 기기 시각정보가 오디오 재생 정보로서 등록될 수 있으며, 또한 도면에 도시된 바와 같이 제1 모바일 기기(10)의 기종정보까지도 더 등록받을 수 있다. 모바일 기기의 기종마다 기기 시각정보가 상이할 수 있으며, 또한 데이터 처리 속도까지도 상이할 수 있기 때문이며, 그에 따라 재생시점을 달리산출할 수 있다.Referring to FIG. 5 showing information registered in the service server 30, location information, playback audio identification information, playback time information, and device time information of the first mobile device 10 may be registered as audio playback information. Also, as shown in the drawing, the model information of the first mobile device 10 may be further registered. This is because device time information may be different for each mobile device type, and data processing speed may be different, and accordingly, the playback time may be calculated differently.

다시 도 4를 참조하면, 서비스 서버(30)는 제2 모바일 기기(20)로부터 공동 재생 서비스를 요청받으면(S420), 위치를 기반으로 제2 모바일 기기(20)의 위치정보에 대응되는 오디오 재생 정보를 검색한다(S430). 즉, 제2 모바일 기기(20)의 주변에 위치한 제1 모바일 기기(10)가 등록한 오디오 재생 정보를 검색하는 것이며, 만일 일정거리(예를 들어, 100미터 등) 이내에 복수개가 존재하는 경우, 제2 모바일 기기(20)에게 모두 제공하여 하나를 선택하도록 할 수 있을 것이다.Referring to FIG. 4 again, when the service server 30 receives a request for a joint playback service from the second mobile device 20 (S420), the service server 30 plays audio corresponding to the location information of the second mobile device 20 based on the location. Information is searched (S430). That is, to search for audio reproduction information registered by the first mobile device 10 located in the vicinity of the second mobile device 20, and if there are a plurality of pieces within a certain distance (eg, 100 meters), 2 It will be possible to provide all of them to the mobile device 20 so that they can select one.

서비스 서버(30)는 검색된 오디오 재생 정보를 기반으로 현재시각과 등록된 재생시점 정보 및 기기 시각정보를 이용하여 현재 재생시점을 산출한다(S440). 예를 들어 현재시각이 기기 시각정보보다 30초 뒤라면, 현재 재생시점은 재생시점 정보에 30초를 더한(서버 시각과 기기 시각이 다를 경우 이를 반영할 수 있음) 시점일 수 있다.The service server 30 calculates the current playback time using the current time, registered playback time information, and device time information based on the retrieved audio playback information (S440). For example, if the current time is 30 seconds later than the device time information, the current play time may be a time when 30 seconds are added to the play time information (this may be reflected when the server time and the device time are different).

여기서, 서비스 서버(30)는 제1 모바일 기기(10)의 위치정보와 제2 모바일 기기(20)의 위치정보를 이용하여 이격거리를 산출하고, 상술한 바와 같이 산출된 이격거리를 현재 재생시점의 산출에 반영할 수 있다.Here, the service server 30 calculates the separation distance using the location information of the first mobile device 10 and the location information of the second mobile device 20, and calculates the separation distance calculated as described above at the current playback time. Can be reflected in the calculation of.

또한, 제1 모바일 기기(10) 및 제2 모바일 기기(20) 각각의 기종에 상응하는 기기 시각 차이, 또는 제2 모바일 기기(20)와의 데이터 통신 소요시간 등을 현재 재생시점의 산출에 반영할 수 있다.In addition, the device time difference corresponding to each model of the first mobile device 10 and the second mobile device 20, or the time required for data communication with the second mobile device 20 may be reflected in the calculation of the current playback time. I can.

그리고, 서비스 서버(30)는 산출된 현재 재생시점과 재생오디오에 대한 정보를 제2 모바일 기기(20)로 제공한다(S450).Then, the service server 30 provides the calculated information on the current playback time and playback audio to the second mobile device 20 (S450).

그러면, 제2 모바일 기기(20)는 해당하는 디지털 오디오를 현재 재생시점에 상응하는 재생시점부터 재생한다. 예를 들어 현재 재생시점을 기반으로 상술한 바와 같은 딜레이 시간 등을 반영하여 재생시점을 결정하고, 그 재생시점부터 디지털 오디오를 재생한다.Then, the second mobile device 20 reproduces the corresponding digital audio from a reproduction time corresponding to the current reproduction time. For example, based on the current playback point, the playback point is determined by reflecting the above-described delay time, and the digital audio is reproduced from the playback point.

본 실시예에 따르면, 주변 잡음이 심한 곳, 이어폰등과 같이 각 개인만 듣는 오디오도 오인식 없이 서로 똑같이 감상할 수 있다는 장점이 있다.According to the present embodiment, there is an advantage that audio that only individuals listen to, such as a place with heavy ambient noise and earphones, can be enjoyed in the same manner without misrecognition.

여기서, 도면에는 도시되지 않았으나 일례에 따르면, 서비스 서버(30)가 제2 모바일 기기(20)의 위치에 대응되는 오디오 재생 정보를 탐색하지 못한 경우(즉, 해당하는 위치에 있는 제1 모바일 기기(10)에 의한 미리 등록된 정보가 없는 경우), 제2 모바일 기기(20)는 도 2에 도시된 바와 같은 외부 오디오의 분석 방식을 이용할 수 있다.Here, although not shown in the drawing, according to an example, when the service server 30 fails to search for audio reproduction information corresponding to the location of the second mobile device 20 (ie, the first mobile device at the corresponding location ( If there is no information previously registered by 10)), the second mobile device 20 may use an external audio analysis method as illustrated in FIG. 2.

즉, 제2 모바일 기기(20)는 서비스 서버(30)로부터 공동 재생 서비스에 상응하는 관련정보를 취득하지 못하는 경우, 외부 오디오를 입력받아 미리 설정된 일정시간동안 녹음하고, 녹음된 오디오에 상응하는 오디오 정보를 서비스 장치로 전송하며, 오디오 정보에 상응하는 원본 오디오 및 재생구간을 탐색한 서비스 서버(30)로부터 탐색된 정보를 수신하고, 재생구간에 상응하는 재생시점부터 원본 오디오를 재생한다.That is, when the second mobile device 20 cannot obtain related information corresponding to the joint playback service from the service server 30, the second mobile device 20 receives the external audio and records it for a predetermined time, and the audio corresponding to the recorded audio The information is transmitted to the service device, the original audio corresponding to the audio information and the searched information are received from the service server 30 that has searched for the reproduction section, and the original audio is reproduced from the reproduction time corresponding to the reproduction section.

도 4에 따른 실시예에 의하면, 서비스 서버(30)는 각 모바일 기기의 위치를 인식하고 있으므로, 위치기반의 다양한 오디오 재생 서비스를 제공할 수 있다.According to the embodiment of FIG. 4, since the service server 30 recognizes the location of each mobile device, it is possible to provide various location-based audio playback services.

일례에 따르면, 동일한 디지털 오디오를 함께 재생 중인 공동 재생 서비스를 이용하는 각 모바일 기기의 위치에 기반하여, 각 모바일 기기에서 출력하는 음량의 제어뿐 아니라 재생 여부 제어 등을 수행(예를 들어 서비스 서버(30)가 제어권을 가지고 통신망을 통해 각 모바일 기기를 원격 제어)할 수 있을 것이다.According to an example, based on the location of each mobile device using a joint playback service that is playing the same digital audio together, not only control the volume output from each mobile device, but also control whether to play or not (for example, the service server 30 ) Will be able to remotely control each mobile device through the network with control.

구체적인 일례에 따르면, 최초 원본 오디오를 출력하는 제1 모바일 기기(10)를 기준으로, 좌측에 위치한 제2 모바일 기기(20)들에서는 베이스음을 높혀 출력하도록 하고, 우측에 위치한 제2 모바일 기기(20)들은 특정한 이펙트를 적용하여 출력하는 등의 제어를 수행할 수 있으며, 이는 제1 모바일 기기(10)로부터의 명령에 의해 수행될 수도 있다.According to a specific example, based on the first mobile device 10 that initially outputs the original audio, the second mobile devices 20 located on the left are configured to output the bass sound higher, and the second mobile device located on the right ( 20) may perform control such as outputting by applying a specific effect, and this may be performed by a command from the first mobile device 10.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to preferred embodiments of the present invention, those of ordinary skill in the relevant technical field can variously modify the present invention within the scope not departing from the spirit and scope of the present invention described in the following claims. It will be appreciated that it can be modified and changed.

10 : 제1 모바일 기기
20 : 제2 모바일 기기
30 : 서비스 서버
40 : 디지털오디오 DB
10: first mobile device
20: second mobile device
30: service server
40: Digital audio DB

Claims (13)

모바일 기기에서 수행되는 디지털 오디오 공동 재생 서비스 방법에 있어서,
외부 오디오를 입력받아 미리 설정된 일정시간동안 녹음하는 단계;
녹음된 오디오에 상응하는 오디오정보와, 측정된 위치정보를 서비스 서버로 전송하는 단계;
상기 서비스 서버가 상기 오디오 정보의 분석에 의해 원본 오디오 및 재생구간을 식별하고, 상기 위치정보에 상응하는 상기 원본 오디오를 출력하는 타 모바일 기기가 미리 전송한 위치정보인 타 모바일기기 위치정보를 확인함으로써, 상기 서비스 서버로부터 상기 재생구간에 대한 정보 및 상기 타 모바일기기 위치정보를 수신하는 단계;
상기 외부 오디오에 대한 녹음 완료 이후 상기 서비스 서버로부터 상기 재생구간에 대한 정보를 수신하기까지 소요된 시간 및 상기 타 모바일 기기 위치정보와 상기 측정된 위치정보 간의 이격거리에 의한 딜레이 시간을 상기 재생구간에 적용하여 재생시점을 산출하는 단계; 및
상기 원본 오디오를 산출된 재생시점부터 재생하는 단계를 포함하는 디지털 오디오 공동 재생 서비스 방법.
In the digital audio joint playback service method performed in a mobile device,
Receiving external audio and recording for a predetermined time;
Transmitting audio information corresponding to the recorded audio and the measured location information to a service server;
The service server identifies the original audio and playback section by analyzing the audio information, and checks the location information of another mobile device, which is the location information previously transmitted by another mobile device that outputs the original audio corresponding to the location information. Receiving information on the playback section and location information of the other mobile device from the service server;
After the recording of the external audio is completed, the time taken to receive the information on the playback section from the service server and the delay time according to the separation distance between the location information of the other mobile device and the measured location information are in the playback section. Applying and calculating a reproduction time point; And
And reproducing the original audio from the calculated reproduction time point.
삭제delete 청구항 1에 있어서,
상기 원본 오디오를 재생하는 단계는,
일정시간동안 출력음량을 일정수준 이하로 낮춘 상태에서 외부 오디오를 입력받아 녹음하는 단계;
녹음 오디오와 출력 오디오를 비교하는 단계; 및
상기 비교 결과에 따라 재생구간을 변경하는 단계를 포함하는, 디지털 오디오 공동 재생 서비스 방법.
The method according to claim 1,
Reproducing the original audio,
Receiving and recording external audio while lowering the output volume below a predetermined level for a predetermined time;
Comparing the recorded audio and the output audio; And
And changing a reproduction period according to the comparison result.
삭제delete 청구항 1에 있어서,
상기 오디오 정보는 녹음된 오디오의 분석에 의한 특징정보인 DNA데이터인, 디지털 오디오 공동 재생 서비스 방법.
The method according to claim 1,
The audio information is DNA data, which is characteristic information by analysis of recorded audio.
제 1항의 방법을 수행하기 위한 컴퓨터에 의해 실행되는 애플리케이션이나 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체.
A recording medium containing instructions executable by a computer, such as an application or program module executed by a computer for performing the method of claim 1.
삭제delete 삭제delete 삭제delete 디지털 오디오를 재생하는 경우, 재생 오디오 식별정보 및 위치에 대한 정보를 포함하는 오디오 재생정보를 생성하여 업로드하는 제1 모바일 기기;
상기 오디오 재생 정보를 등록받아 저장하는 서비스 서버; 및
상기 제1 모바일 기기에서 외부로 출력된 오디오를 입력받아 미리 설정된 일정시간동안 녹음하고, 녹음된 오디오에 상응하는 오디오 정보와 측정된 위치정보를 상기 서비스 서버로 전송함으로써, 디지털 오디오에 대한 공동 재생 서비스를 요청하는 제2 모바일 기기를 포함하되,
상기 서비스 서버는 상기 오디오 정보의 분석에 의해 원본오디오 및 재생구간을 식별하고, 상기 제2 모바일 기기의 위치정보에 상응하는 상기 원본 오디오를 출력하는 제1 모바일 기기의 위치정보를 확인하고, 상기 재생구간에 대한 정보와 상기 제1 모바일 기기의 위치정보를 상기 제2 모바일 기기로 제공하며,
상기 제2 모바일 기기는 녹음 완료 이후 상기 서비스 서버로부터 상기 재생구간에 대한 정보를 수신하기까지 소요된 시간 및 상기 제1 모바일 기기의 위치정보와 자신의 위치정보 간의 이격거리에 의한 딜레이 시간을 상기 재생구간에 적용하여 재생시점을 산출하고, 상기 원본 오디오를 산출된 재생시점부터 재생하는, 디지털 오디오 공동 재생 서비스 시스템.
When playing digital audio, a first mobile device that generates and uploads audio reproduction information including information on reproduction audio identification information and location;
A service server that registers and stores the audio reproduction information; And
A joint playback service for digital audio by receiving the audio output from the first mobile device and recording it for a predetermined period of time, and transmitting audio information corresponding to the recorded audio and measured location information to the service server. Including a second mobile device requesting,
The service server identifies the original audio and the playback section by analyzing the audio information, checks the location information of the first mobile device outputting the original audio corresponding to the location information of the second mobile device, and plays the playback Providing section information and location information of the first mobile device to the second mobile device,
The second mobile device plays the delay time according to the distance between the location information of the first mobile device and the location information of the first mobile device and the time taken to receive the information on the playback section from the service server after the recording is completed. A digital audio joint playback service system for calculating a playback time by applying it to a section and playing the original audio from the calculated playback time.
삭제delete 삭제delete 청구항 10에 있어서,
상기 서비스 서버는 상기 제1 모바일 기기로부터의 명령에 상응하는 제어정보를 상기 제2 모바일 기기로 전송하며,
상기 제2 모바일 기기는 상기 제어정보에 따라 오디오의 재생 또는 출력을 제어하는, 디지털 오디오 공동 재생 서비스 시스템.
The method of claim 10,
The service server transmits control information corresponding to the command from the first mobile device to the second mobile device,
The second mobile device controls audio reproduction or output according to the control information.
KR1020190123703A 2019-10-07 2019-10-07 Method and system for digital audio co-play service KR102171479B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190123703A KR102171479B1 (en) 2019-10-07 2019-10-07 Method and system for digital audio co-play service

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190123703A KR102171479B1 (en) 2019-10-07 2019-10-07 Method and system for digital audio co-play service

Publications (1)

Publication Number Publication Date
KR102171479B1 true KR102171479B1 (en) 2020-10-29

Family

ID=73129385

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190123703A KR102171479B1 (en) 2019-10-07 2019-10-07 Method and system for digital audio co-play service

Country Status (1)

Country Link
KR (1) KR102171479B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110090695A (en) * 2010-02-04 2011-08-10 엘지전자 주식회사 Information providing apparatus and method thereof
JP2013068900A (en) * 2011-09-26 2013-04-18 Yamaha Corp Information processing device and program
KR20130050539A (en) * 2011-11-08 2013-05-16 주식회사 엘지유플러스 Mobile terminal and system for providing a sound source, and method for providing a sound source
KR20130129749A (en) * 2012-05-21 2013-11-29 엘지전자 주식회사 Method and electronic device for easily searching for voice record
KR101925217B1 (en) 2017-06-20 2018-12-04 한국과학기술원 Singing voice expression transfer system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110090695A (en) * 2010-02-04 2011-08-10 엘지전자 주식회사 Information providing apparatus and method thereof
JP2013068900A (en) * 2011-09-26 2013-04-18 Yamaha Corp Information processing device and program
KR20130050539A (en) * 2011-11-08 2013-05-16 주식회사 엘지유플러스 Mobile terminal and system for providing a sound source, and method for providing a sound source
KR20130129749A (en) * 2012-05-21 2013-11-29 엘지전자 주식회사 Method and electronic device for easily searching for voice record
KR101925217B1 (en) 2017-06-20 2018-12-04 한국과학기술원 Singing voice expression transfer system

Similar Documents

Publication Publication Date Title
US7786367B2 (en) Music player connection system for enhanced playlist selection
JP5145937B2 (en) Content playback method and apparatus with playback start position control
US20170315775A1 (en) Synchronized Playback of Media Players
US9854294B2 (en) Localized audio source extraction from video recordings
KR101275467B1 (en) Apparatus and method for controlling automatic equalizer of audio reproducing apparatus
US7848493B2 (en) System and method for capturing media
US20170034263A1 (en) Synchronized Playback of Streamed Audio Content by Multiple Internet-Capable Portable Devices
US20160364397A1 (en) System and Methods for Locally Customizing Media Content for Rendering
US20210243528A1 (en) Spatial Audio Signal Filtering
EP3703404B1 (en) Using audio to associate a target device with credentials of an account associated with a user of a source device
KR101987473B1 (en) System for synchronization between accompaniment and singing voice of online singing room service and apparatus for executing the same
JP2008096483A (en) Sound output control device and sound output control method
US20210185474A1 (en) System and method for use of crowdsourced microphone or other information with a digital media content environment
US20220366024A1 (en) Association via audio
JP2010523068A (en) How to determine a point in time in an audio signal
US20220343920A1 (en) Content playback system
US20210345056A1 (en) Audio content format selection
US9053710B1 (en) Audio content presentation using a presentation profile in a content header
KR102172149B1 (en) Method for playing contents, method for providing dialogue section data and device for playing video contents
KR101715070B1 (en) System and method for providong digital sound transmission based music radio service
KR20180007885A (en) Karaoke system and management method thereof
KR102171479B1 (en) Method and system for digital audio co-play service
JP4327165B2 (en) Music playback device
US20200081681A1 (en) Mulitple master music playback
KR102369682B1 (en) System for providing a playing music information

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant