KR20180013997A - 가라오케 처리 방법 및 시스템 - Google Patents

가라오케 처리 방법 및 시스템 Download PDF

Info

Publication number
KR20180013997A
KR20180013997A KR1020177037099A KR20177037099A KR20180013997A KR 20180013997 A KR20180013997 A KR 20180013997A KR 1020177037099 A KR1020177037099 A KR 1020177037099A KR 20177037099 A KR20177037099 A KR 20177037099A KR 20180013997 A KR20180013997 A KR 20180013997A
Authority
KR
South Korea
Prior art keywords
file
client
lyric
song
user
Prior art date
Application number
KR1020177037099A
Other languages
English (en)
Inventor
웨이펑 자오
춘 리
시앙 리우
하오지에 슈
더원 장
페이 정
리 차오
티엔원 리
시앙원 천
Original Assignee
광저우 쿠고우 컴퓨터 테크놀로지 컴퍼니, 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 광저우 쿠고우 컴퓨터 테크놀로지 컴퍼니, 리미티드 filed Critical 광저우 쿠고우 컴퓨터 테크놀로지 컴퍼니, 리미티드
Publication of KR20180013997A publication Critical patent/KR20180013997A/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • G10H1/365Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems the accompaniment information being stored on a host computer and transmitted to a reproducing terminal by means of a network, e.g. public telephone lines
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/005Musical accompaniment, i.e. complete instrumental rhythm synthesis added to a performed melody, e.g. as output by drum machines

Abstract

다른 사람과 함께 노래 부르는 가라오케 경험을 구현할 수 있는 가라오케 처리 방법 및 시스템. 제1 클라이언트(401)는 제1 사용자에 의해 입력된 제1 합창 요청을 수신하고(101); 제1 클라이언트(401)는 제1 합창 요청에 따라 서버로부터 반주 오디오 파일과 가사 파일을 획득하고, 반주 오디오 파일과 가사 파일을 이용하여 가사 부분에 따라 제1 사용자에 의해 수행된 노래 부르기를 녹음하여 제1 녹음 파일을 획득하고(102); 제1 클라이언트(401)는 제1 녹음 파일(102)에 따라 제1 가사 부분을 판단하고 문단 정보를 생성하고(103); 제1 클라이언트(401)는 제1 녹음 파일(102)과 반주 오디오 파일에 오디오 믹싱 처리를 수행하여 제1 목표 파일을 획득하고(104); 그리고, 제1 클라이언트(401)는 서버에 제1 목표 파일(102)과 문단 정보를 전송하여, 제2 클라이언트(402)는 서버로부터 제1 목표 파일(104)과 문단 정보를 획득하고 제1 목표 파일을 반주 오디오로 이용하여 문단 정보에 따라 제2 사용자에게 가라오케 서비스를 제공한다(105).

Description

가라오케 처리 방법 및 시스템
본 출원은 2015년 5월 27일 중국 특허청에 출원되고, 발명의 명칭이 "KARAOKE PROCESSING METHOD AND SYSTEM"인 중국 특허 출원 제201510280492.9호에 대한 우선권을 주장한다.
본 개시 내용은 오디오 처리 분야에 관한 것으로, 특히 가라오케 처리 방법 및 가라오케 처리 시스템에 관한 것이다.
사람들의 삶의 질 향상과 함께, 가라오케 애플리케이션이 사람들의 일상적인 생활로 점차적으로 진입하고, 풍부한 기능들이 점점 증가한다.
가라오케 애플리케이션은 음악 플레이어와 녹음 소프트웨어의 조합이고, 이는 원래 목소리를 재생할 뿐만 아니라, 사용자의 노래 부르기도 녹음하여 녹음된 노래와 반주를 혼합하여 음악 파일을 획득할 수 있다. 또한, 사용자는 더 많은 사람들이 자신의 노래를 들을 수 있도록 전술한 음악 파일을 인터넷 상으로 업로드할 수 있다.
전형적으로, 사용자가 자신의 노래를 녹음할 때, 가라오케 애플리케이션은 사용자의 노래를 녹음하기 위한 반주 역할을 하는 반주 오디오 파일을 제공한다. 그러나, 이러한 방식으로, 사용자는 단지 혼자서만 노래할 수 있고, 다른 사람들과 노래 부르는 가라오케 경험을 가질 수 없다.
다른 사람과 함께 노래 부르는 가라오케 경험을 제공하기 위하여, 본 개시 내용의 실시예에 따라 가라오케 처리 방법 및 가라오케 처리 시스템이 제공된다.
본 개시 내용의 실시예의 제1 양태에서,
1 클라이언트에 의해, 제1 사용자에 의해 입력된 제1 번갈아 노래 부르기 요청을 수신하는 단계로서, 제1 번갈아 노래 부르기 요청은 번갈아 노래 부르기 개시를 요청하는데 사용되는 단계;
제1 클라이언트에 의해, 제1 번갈아 노래 부르기 요청에 기초하여 서버로부터 노래의 반주 오디오 파일과 가사 파일을 획득하고, 제1 클라이언트에 의해 반주 오디오 파일과 가사 파일을 이용하여 가사 부분에 기초하여 제1 사용자에 의해 수행된 노래 부르기를 녹음하여, 제1 녹음 파일을 획득하는 단계;
제1 클라이언트에 의해, 제1 가사 부분을 판단하고 문단 정보를 생성하는 단계로서, 제1 가사 부분은 제1 사용자가 이미 노래 부른 가사 부분이고, 문단 정보는 제1 가사 부분을 식별하기 위한 식별 정보를 포함하는 단계;
제1 클라이언트에 의해, 제1 녹음 파일 및 반주 오디오 파일에 오디오 믹싱 처리를 수행하여 제1 목표 파일을 획득하는 단계; 및
제1 클라이언트에 의해, 제1 목표 파일 및 문단 정보를 서버에 전송하는 단계
를 포함하는, 가라오케 처리 방법이 제공된다.
본 개시 내용의 실시예의 제2 양태에서, 제1 클라이언트와 제2 클라이언트를 포함하는 가라오케 처리 시스템이 제공되며,
제1 클라이언트는, 제1 사용자에 의해 입력된 제1 번갈아 노래 부르기 요청을 수신하고 - 제1 번갈아 노래 부르기 요청은 번갈아 노래 부르기 개시를 요청하는데 사용됨 -; 제1 번갈아 노래 부르기 요청에 기초하여 서버로부터 노래의 반주 오디오 파일과 가사 파일을 획득하고, 반주 오디오 파일과 가사 파일을 이용하여 가사 부분에 기초하여 제1 사용자에 의해 수행된 노래 부르기를 녹음하여, 제1 녹음 파일을 획득하고; 제1 녹음 파일에 기초하여 제1 가사 부분을 판단하고 문단 정보를 생성하고 - 제1 가사 부분은 제1 사용자가 이미 노래 부른 가사 부분이고, 문단 정보는 제1 가사 부분을 식별하기 위한 식별 정보를 포함함 -; 제1 녹음 파일 및 반주 오디오 파일에 오디오 믹싱 처리를 수행하여 제1 목표 파일을 획득하고; 그리고, 제1 목표 파일 및 문단 정보를 서버에 전송하도록 구성되고,
제2 클라이언트는, 제1 목표 파일과 문단 정보를 서버로부터 획득하고, 제1 목표 파일을 반주 오디오로 하여 문단 정보에 기초하여 제2 사용자에게 가라오케 서비스를 제공하도록 구성된다.
본 개시 내용의 실시예에 따른 기술적 방안에서, 제1 사용자에 의해 입력된 제1 번갈아 노래 부르기 요청을 수신한 것에 따라, 제1 클라이언트는 제1 번갈아 노래 부르기 요청에 기초하여 서버로부터 반주 오디오 파일과 가사 파일을 획득하고, 반주 오디오 파일과 가사 파일을 이용하여 가사 부분에 기초하여 제1 사용자에 의해 수행된 노래 부르기를 녹음하여 제1 녹음 파일을 획득한다. 그 다음, 제1 클라이언트는 제1 가사 부분을 결정하고 문단 정보를 생성하며, 제1 가사 부분은 제1 사용자가 이미 노래 부른 가사 부분을 말하며, 문단 정보는 제1 가사 부분을 식별하기 위한 식별 정보를 포함한다. 그 다음, 제1 클라이언트는 제1 녹음 파일과 반주 오디오 파일에 오디오 믹싱 처리를 수행하여 제1 목표 파일을 획득하고, 제1 목표 파일과 문단 정보를 서버에 전송하여, 제2 클라이언트는 제1 목표 파일과 문단 정보를 서버로부터 획득하고, 제1 목표 파일을 반주 오디오로 하여 문단 정보에 기초하여 제2 사용자에게 가라오케 서비스를 제공한다. 따라서, 본 개시 내용의 실시예에서의 제1 목표 파일은 제1 가사 부분의 디스플레이 시간에만 제1 사용자의 노래 부르기를 포함하고, 제1 가사 부분 이외의 다른 가사 부분에 대한 반주를 포함한다. 이 경우에, 노래 부르기는 제2 클라이언트가 제1 목표 파일을 반주 오디오로 할 때 문단 정보에 따라 제1 가사 부분 이외의 다른 가사 부분에 기초하여 수행될 수 있다. 따라서, 제1 사용자가 제1 가사 부분의 디스플레이 시간에 노래 부르기를 수행하고 제2 사용자가 제1 가사 부분 이외의 다른 가사 부분의 디스플레이 시간에 노래 부르기를 수행하는 것이 실현될 수 있어, 다른 사람과 함께 노래 부르는 가라오케 경험을 제공한다.
도 1은 본 개시 내용의 일 실시예에 따른 가라오케 처리 방법의 개략도이다;
도 2는 본 개시 내용의 다른 실시예에 따른 가라오케 처리 방법의 개략도이다;
도 3은 본 개시 내용의 다른 실시예에 따른 가라오케 처리 방법의 개략도이다;
도 4는 본 개시 내용의 일 실시예에 따른 가라오케 처리 시스템의 개략도이다; 그리고,
도 5는 가라오케 처리 방법이 본 개시 내용의 일 실시예에 따라 적용되는 클라이언트의 개략적인 구조도이다.
다른 사람과 함께 노래를 부르는 가라오케 경험을 실현하기 위하여 본 개시 내용의 실시예에 따라 가라오케 처리 방법 및 가라오케 처리 시스템이 제공된다. 가라오케 처리 방법 및 가라오케 처리 시스템이 아래에서 상세히 설명된다.
본 개시 내용의 실시예에 따른 기술 방안은 본 개시 내용의 실시예에서 도면과 함께 명확하고 완전하게 설명된다. 명백하게, 상세한 설명은 본 개시 내용의 실시예들의 전부가 아닌 단지 일부이다. 본 개시 내용의 실시예들에 기초하여 창조적 작업 없이 당해 기술 분야에서의 통상의 기술자에 의해 획득되는 모든 다른 실시예들은 본 개시 내용의 보호 범위 내에 있다.
본 개시 내용의 명세서, 청구범위 및 도면에서의 "제1", "제2", "제3" 및 "제4"와 같은(있는 경우에) 용어는, 특정 순서나 순차적인 순서를 설명하는 것이 아니라 유사한 대상을 구별하는데 사용된다. 이러한 용어들로 설명된 데이터는, 여기에서 설명된 실시예가 여기에서 도시되고 설명된 내용 이외의 순서로 구체화될 수 있도록, 적합한 상황에서 바뀔 수 있다는 것이 이해되어야 한다. 또한, "포함한다", "구비한다"와 같은 용어 및 이의 변형은 비배타적인 "포함"을 커버하도록 의도되고, 예를 들어, 일련의 단계 또는 유닛을 포함하는 프로세스, 방법, 시스템, 제품 또는 장치는 열거된 단계 또는 유닛을 명확하게 포함할 뿐만 아니라, 명확하게 열거되지 않거나 프로세스, 방법, 제품 또는 장치에 본질적인 다른 단계 또는 유닛을 포함할 수 있다.
본 개시 내용의 실시예에서의 클라이언트(client)는 전화기, 개인용 컴퓨터(PC) 및/또는 패널 컴퓨터 또는 다른 장치를 포함할 수 있다는 것이 주목되어야 한다. 실제 구현예에서, 가라오케 서비스는 클라이언트를 통해 웹페이지로 로그인하거나, 프로그램을 클라이언트에 로딩하거나, 다양한 모바일 플랫폼을 통해 발행된 애플리케이션(App)을 이용하여 액세스될 수 있다.
본 개시 내용의 실시예에서, 서버는 네트워크를 통해 클라이언트에 연결된다. 서버는 서비스 제공자(예를 들어, 가라오케 서비스 제공자)에 의해 제공된 서비스를 관리하고 운영하기 위하여 서비스 제공자에 의해 구축될 수 있고, 서버는 다양한 서버를 포함할 수 있다.
도 1을 참조하면, 본 개시 내용의 일 실시예에 따른 가라오케 처리 방법은 단계 101 내지 105를 포함한다.
단계 101에서, 제1 클라이언트가 제1 사용자에 의해 입력된 제1 번갈아 노래 부르기 요청을 수신한다.
본 실시예에서, 제1 번갈아 노래 부르기 요청은 번갈아 노래 부르기 개시 흐름을 트리거하기 위하여 번갈아 노래 부르기 개시를 요청하는데 사용된다. 예를 들어, 실제로, 제1 클라이언트에는 제1 번갈아 노래 부르기 요청에 대응하는 버튼이 제공될 수 있다. 제1 클라이언트는 제1 사용자가 버튼을 누를 때 제1 번갈아 노래 부르기 요청을 수신한다.
단계 102에서, 제1 클라이언트는 제1 번갈아 노래 부르기 요청에 기초하여 서버로부터 노래의 반주 오디오 파일과 가사 파일을 획득하고, 제1 사용자에 의해 수행된 노래 부르기를 녹음하여 제1 녹음 파일을 획득한다. 노래 부르기는 반주 오디오 파일과 가사 파일을 이용하여 가사 부분에 기초하여 제1 사용자에 의해 수행된다.
본 실시예에서, 제1 번갈아 노래 부르기 요청을 수신한 것에 따라, 제1 클라이언트는 서버로부터 노래의 반주 오디오 파일과 가사 파일을 획득한다. 반주 오디오 파일과 원본 오디오 파일은 원시(raw) 오디오 데이터이다. 실제로, 획득된 반주 오디오 파일과 원본 오디오 파일이 mp3 포맷과 같은 압축된 포맷의 오디오 데이터라면, 제1 클라이언트는 압축된 포맷의 오디오 데이터를 원시 오디오 데이터로 압축 해제한다. 가사 파일은 가사의 디스플레이 시간을 식별하기 위한 시간 정보를 포함하여, 시간 정보에 기초하여 가사 파일을 반주 오디오 파일과 동기화하는 것을 용이하게 한다. 예를 들어, 가사 파일은 그 내에 포함된 시간 태그를 통해 가사의 디스플레이 시간을 식별하는 LRC 가사 파일을 포함할 수 있다.
본 실시예에서, 반주 오디오 파일과 가사 파일을 획득한 후에, 클라이언트는 반주 오디오 파일과 가사 파일을 재생하고, 제1 사용자는 노래 부를 임의의 가사 부분을 선택한다. 실제로, 제1 사용자는 모든 가사를 노래 부르지 않는다. 동기하여, 클라이언트는 반주 오디오 파일과 가사 파일을 이용하여 가사 부분에 기초하여 제1 사용자에 의해 수행된 노래 부르기를 녹음하여, 제1 녹음 파일을 획득한다.
단계 103에서, 제1 클라이언트는 제1 녹음 파일에 기초하여 제1 가사 부분을 결정하고 문단 정보를 생성한다.
본 실시예에서, 제1 가사 부분은 제1 사용자가 이미 노래 부른 가사 부분을 말한다. 즉, 제1 녹음 파일에 기초하여, 제1 클라이언트는 제1 사용자가 이미 노래 부른 가사 부분을 인식하고 문단 정보를 생성한다. 문단 정보는, 제1 사용자가 이미 노래 부른 가사 부분을 표시하기 위하여, 제1 가사 부분을 식별하기 위한 식별 정보를 포함한다.
선택적으로, 본 실시예에서, 식별 정보는 제1 가사 부분에 대응하는 디스플레이 시간을 포함할 수 있다. 예를 들어, 제1 가사 부분의 시작 시간은 10초이고, 제1 가사 부분의 종료 시간은 15초이며, 이와 유사하게 될 수 있다. 이 대신에, 식별 정보는 제1 가사 부분을 위한 문장 식별자를 포함할 수 있다. 예를 들어, 제1 가사 부분은 제1 문장, 제3 문장, 제5 문장 등을 포함한다. 제1 클라이언트가 식별에 기초하여 제1 가사 부분을 인식할 수 있는 한, 식별 정보의 특정 형태는 여기에 제한되지 않는다.
본 실시예에서, 제1 클라이언트는 여러 방식으로 제1 가사 부분을 결정할 수 있다. 예를 들어, 제1 클라이언트는 제1 녹음 파일의 음성의 유효성을 통해 제1 사용자가 이미 노래 부른 가사 부분을 결정할 수 있다.
예를 들어, 제1 클라이언트는 가사 부분에 대응하는 제1 사용자의 녹음 음성이 유효한지 판단하고, 가사 부분에 대응하는 제1 사용자의 녹음 음성이 유효한 경우에 가사 부분을 제1 가사 부분으로 결정한다.
선택적으로, 본 실시예에서, 제1 클라이언트는 가사 부분에 대응하는 제1 사용자의 녹음 음성의 볼륨이 제1 사전 설정값보다 더 큰지 판단하고, 녹음 음성의 볼륨이 제1 사전 설정값보다 더 큰 경우에 녹음 음성이 유효하다고 판단한다. 상기 과정은 VAD 알고리즘 또는 이의 개선된 알고리즘에 의해 수행될 수 있다.
바람직하게는, 가사 부분에 대응하는 제1 사용자의 녹음 음성이 유효하다고 판단한 후에, 제1 클라이언트는 녹음 음성이 차지하는 시간이 가사 부분에 대응하는 디스플레이 시간과 일치하는지 판단하고, 녹음 음성이 차지하는 시간이 가사 부분에 대응하는 디스플레이 시간과 일치하는 경우에, 가사 부분을 제1 가사 부분으로 결정한다.
예를 들어, 결정은 가사에서의 문장에 기초한다. 가사에서의 문장에 대응하는 녹음 음성이 유효하다고 판단된 후에, 가사에서의 문장에 대응하는 녹음 음성이 차지하는 시간이 20초 내지 30초이고 가사의 문장에 대응하는 디스플레이 시간도 20초 내지 30초인 경우에, 가사의 문장이 제1 가사 부분으로서 결정된다. 여기에서, 임계값이 설정될 수 있다. 가사의 문장에 대응하는 녹음 음성이 차지하는 시간과 가사의 문장에 대응하는 디스플레이 시간 사이의 일치 비율(coincidence ratio)이 임계값보다 큰 경우에, 가사의 문장에 대응하는 녹음 음성이 차지하는 시간이 가사의 문장에 대응하는 디스플레이 시간과 일치한다고 결정될 수 있다.
제1 가사 부분이 본 실시예에서 여기에 한정되지 않는 다른 방식으로 결정될 수 있다는 것이 이해될 수 있다. 실제로, 제1 클라이언트는 전술한 결정 방식을 이용하는 실시간 오디오 검출 모듈에 의해 제1 가사 부분을 결정할 수 있다.
단계 104에서, 제1 클라이언트는 제1 녹음 파일과 반주 오디오 파일에 오디오 믹싱 처리를 수행하여, 제1 목표 파일을 획득한다.
본 실시예에서, 오디오 믹싱 처리는, 예를 들어, 대응하는 샘플링 포인트의 데이터를 더하고 합을 2로 나누는 기존의 오디오 믹싱 알고리즘에 의해 수행될 수 있다.
선택적으로, 본 실시예에서, 제1 녹음 파일이 제1 가사 부분 이외의 다른 가사 부분에 대하여 비효율적인 것으로 판단된 일부 노이즈 또는 음성을 더 포함하는 것을 방지하기 위하여, 가라오케 처리 방법의 단계 104 이전에, 제1 클라이언트는 문단 정보에 기초하여 제1 녹음 파일에서 제1 가사 부분 이외의 다른 가사 부분에 대응하는 오디오 데이터를 클리어할 수 있다. 이러한 방식으로, 획득된 제1 녹음 파일이 제1 사용자의 노래 부르기의 유효 음성만을 포함하는 것에 대응하는 제1 가사 부분의 디스플레이 시간에서만의 오디오 파일을 포함하는 것이 보장될 수 있다.
단계 105에서, 제1 클라이언트가 제1 목표 파일과 문단 정보를 서버로 전송하여, 제2 클라이언트는 제1 목표 파일과 문단 정보를 서버로부터 획득하고, 제1 목표 파일을 반주 오디오로 하여 문단 정보에 기초하여 제2 사용자에게 가라오케 서비스를 제공한다.
본 실시예에서, 제2 클라이언트는 서버로부터 제1 목표 파일과 문단 정보를 획득한 후에, 제1 목표 파일을 반주 오디오로 하여 문단 정보에 기초하여 제2 사용자에게 가라오케 서비스를 제공할 수 있다. 제2 사용자는 문단 전보에 기초하여 이미 노래가 불린 가사 부분을 결정하고, 아직 노래가 불리지 않은 가사 부분에 기초하여 노래 부르기를 수행할 수 있다.
선택적으로, 본 실시예에서, 제1 클라이언트는 구성 파일을 생성할 수 있다. 구성 파일은 제1 사용자에 의해 사용된 사운드 효과 파라미터를 포함한다. 제1 클라이언트는 구성 파일을 서버에 전송하여, 제2 클라이언트는 제1 목표 파일을 반주 오디오로 하여 문단 정보와 구성 파일에 따라 제2 사용자에게 가라오케 서비스를 제공한다. 선택적으로, 전술한 사운드 효과 파라미터는 잔향(reverberation) 파라미터, 사운드 변조 및 톤 변조 파라미터, 음성 미화(voice-beautifying) 파라미터 등을 포함한다.
본 개시 내용의 실시예에 따른 기술적 방안에서, 제1 사용자에 의해 입력된 제1 번갈아 노래 부르기 요청을 수신한 것에 따라, 제1 클라이언트는 제1 번갈아 노래 부르기 요청에 기초하여 서버로부터 반주 오디오 파일과 가사 파일을 획득하고, 반주 오디오 파일과 가사 파일을 이용하여 가사 부분에 기초하여 제1 사용자에 의해 수행된 노래 부르기를 녹음하여 제1 녹음 파일을 획득한다. 그 다음, 제1 클라이언트는 제1 가사 부분을 결정하고 문단 정보를 생성하며, 제1 가사 부분은 제1 사용자가 이미 노래 부른 가사 부분을 말하며, 문단 정보는 제1 가사 부분을 식별하기 위한 식별 정보를 포함한다. 그 다음, 제1 클라이언트는 제1 녹음 파일과 반주 오디오 파일에 오디오 믹싱 처리를 수행하여 제1 목표 파일을 획득하고, 제1 목표 파일과 문단 정보를 서버에 전송하여, 제2 클라이언트는 제1 목표 파일과 문단 정보를 서버로부터 획득하고, 제1 목표 파일을 반주 오디오로 하여 문단 정보에 기초하여 제2 사용자에게 가라오케 서비스를 제공한다. 본 개시 내용의 실시예에서의 제1 목표 파일은 제1 가사 부분의 디스플레이 시간에만 제1 사용자의 노래 부르기를 포함하고, 제1 가사 부분 이외의 다른 가사 부분에 대한 반주를 포함한다. 이 경우에, 노래 부르기는 제2 클라이언트가 제1 목표 파일을 반주 오디오로 할 때 문단 정보에 따라 제1 가사 부분 이외의 다른 가사 부분에 기초하여 수행될 수 있다. 따라서, 제1 사용자가 제1 가사 부분의 디스플레이 시간에 노래 부르기를 수행하고 제2 사용자가 제1 가사 부분 이외의 다른 가사 부분의 디스플레이 시간에 노래 부르기를 수행하는 것이 실현될 수 있어, 다른 사람과 함께 노래 부르는 가라오케 경험을 제공한다.
도 1에 도시된 실시예에 기초하여, 제2 클라이언트가 제1 목표 파일을 반주 오디오로 하여 문단 정보에 기초하여 제2 사용자에게 가라오케 서비스를 제공하여 2명의 사용자가 함께 노래 부르는 가라오케 경험을 제공하는 방법이 아래에 더 설명된다. 도 2를 참조하면, 본 개시 내용의 다른 실시예에 따른 가라오케 처리 방법은 단계 201 내지 208을 포함한다.
단계 201에서, 제1 클라이언트가 제1 사용자에 의해 입력된 제1 번갈아 노래 부르기 요청을 수신한다.
단계 202에서, 제1 클라이언트는 제1 번갈아 노래 부르기 요청에 기초하여 서버로부터 노래의 반주 오디오 파일과 가사 파일을 획득하고, 제1 사용자에 의해 수행된 노래 부르기를 녹음하여 제1 녹음 파일을 획득한다. 노래 부르기는 반주 오디오 파일과 가사 파일을 이용하여 가사 부분에 기초하여 제1 사용자에 의해 수행된다.
단계 203에서, 제1 클라이언트는 제1 녹음 파일에 기초하여 제1 가사 부분을 결정하고 문단 정보를 생성한다.
단계 204에서, 제1 클라이언트는 제1 녹음 파일과 반주 오디오 파일에 오디오 믹싱 처리를 수행하여, 제1 목표 파일을 획득한다.
단계 205에서, 제1 클라이언트가 제1 목표 파일과 문단 정보를 서버로 전송하여, 제2 클라이언트는 제1 목표 파일과 문단 정보를 서버로부터 획득하고, 제1 목표 파일을 반주 오디오로 하여 문단 정보에 기초하여 제2 사용자에게 가라오케 서비스를 제공한다.
본 실시예에서, 단계 201 내지 205의 과정은 도 1에 도시된 실시예에서의 단계 101 내지 105의 과정과 동일하며, 여기에서 반복 설명되지 않는다.
단계 206에서, 제2 클라이언트가 제2 사용자에 의해 전송된 제2 번갈아 노래 부르기 요청을 수신한다.
본 실시예에서, 제2 번갈아 노래 부르기 요청은 번갈아 노래 부르기 합류 흐름을 트리거하기 위하여 번갈아 노래 부르기 합류를 요청하는데 사용된다. 예를 들어, 실제로, 제2 클라이언트에는 제2 번갈아 노래 부르기 요청에 대응하는 버튼이 제공될 수 있고, 제2 클라이언트는 제2 사용자가 버튼을 누를 때 제2 번갈아 노래 부르기 요청을 수신한다.
단계 207에서, 제2 클라이언트는 제2 번갈아 노래 부르기 요청에 기초하여 서버로부터 노래의 제1 목표 파일, 가사 파일 및 문단 정보를 획득하고, 제2 사용자에 의해 수행된 노래 부르기를 녹음하여 제2 녹음 파일을 획득한다. 노래 부르기는 제1 목표 파일을 반주 오디오로 하여 문단 정보에 따라 제1 가사 부분 이외의 다른 모든 가사 부분에 기초하여 제2 사용자에 의해 수행된다.
본 실시예에서, 제2 번갈아 노래 부르기 요청을 수신한 것에 따라, 제2 클라이언트는 서버로부터 제1 목표 파일, 가사 파일 및 문단 정보를 획득하고, 제1 목표 파일과 가사 파일을 재생한다. 제2 사용자는 제1 가사 부분 이외의 다른 모든 가사 부분에 기초하여 노래 부르기를 수행하고, 동기하여, 제2 클라이언트는 제1 목표 파일을 반주 오디오로 하여 문단 정보에 따라 제1 가사 부분 이외의 다른 모든 가사 부분에 기초하여 제2 사용자에 의해 수행된 노래 부르기를 녹음하여, 제2 녹음 파일을 획득한다.
선택적으로, 본 실시예에서, 구성 파일이 제1 클라이언트에 의해 서버에 전송되고 서버가 구성 파일을 더 포함하는 경우에, 단계 207에서, 제2 클라이언트는 서버로부터 노래의 제1 목표 파일, 가사 파일. 문단 정보 및 구성 파일을 획득하고, 제1 목표 파일을 반주 오디오로 하여 문단 정보 및 구성 파일에 따라 제1 가사 부분 이외의 다른 모든 가사 부분에 기초하여 제2 사용자에 의해 수행된 노래 부르기를 녹음하여, 제2 녹음 파일을 획득한다. 실제로, 클라이언트는 구성 파일에서의 사운드 효과 파라미터에 기초하여 구성을 수행하고, 제2 사용자에 의해 선택되도록 구성을 제2 사용자에게 제공한다. 또한, 제2 사용자는 실제 필요에 기초하여 파라미터 구성을 수정할 수 있다.
단계 208에서, 제2 클라이언트는 제2 녹음 파일과 제1 목표 파일에 오디오 믹싱 처리를 수행하여, 제2 목표 파일을 획득한다.
본 실시예에서, 오디오 믹싱 처리의 과정은, 예를 들어, 대응하는 샘플링 포인트의 데이터를 더하고 합을 2로 나누는 기존의 오디오 믹싱 알고리즘에 의해 수행될 수 있다.
본 실시예에서의 제2 목표 파일이 제1 가사 부분에 대응하는 제1 사용자의 노래 부르기와, 제1 가사 부분 이외의 다른 모든 가사 부분에 대응하는 제2 사용자의 노래 부르기를 포함하여, 이에 의해 2명의 사용자가 함께 노래 부르는 가라오케 경험을 제공한다는 것이 이해될 수 있다.
선택적으로, 본 실시예에서, 제2 녹음 파일이 제1 가사 부분에서 비효율적인 것으로 판단된 일부 노이즈 또는 음성을 더 포함하는 것을 방지하기 위하여, 가라오케 처리 방법의 단계 208 이전에, 제2 클라이언트는 문단 정보에 기초하여 제1 녹음 파일에서 제1 가사 부분에 대응하는 오디오 데이터를 클리어할 수 있다.
도 1에 도시된 실시예에 기초하여, 제2 클라이언트가 제1 목표 파일을 반주 오디오로 하여 문단 정보에 기초하여 제2 사용자에게 가라오케 서비스를 제공하여 다수의 사용자(3명 이상의 사용자)가 함께 노래 부르는 가라오케 경험을 제공하는 방법이 아래에 더 설명된다. 도 3을 참조하면, 본 개시 내용의 다른 실시예에 따른 가라오케 처리 방법은 단계 301 내지 310을 포함한다.
단계 301에서, 제1 클라이언트가 제1 사용자에 의해 입력된 제1 번갈아 노래 부르기 요청을 수신한다.
단계 302에서, 제1 클라이언트는 제1 번갈아 노래 부르기 요청에 기초하여 서버로부터 노래의 반주 오디오 파일과 가사 파일을 획득하고, 제1 사용자에 의해 수행된 노래 부르기를 녹음하여 제1 녹음 파일을 획득한다. 노래 부르기는 반주 오디오 파일과 가사 파일을 이용하여 가사 부분에 기초하여 제1 사용자에 의해 수행된다.
단계 303에서, 제1 클라이언트는 제1 녹음 파일에 기초하여 제1 가사 부분을 결정하고 문단 정보를 생성한다.
단계 304에서, 제1 클라이언트는 제1 녹음 파일과 반주 오디오 파일에 오디오 믹싱 처리를 수행하여, 제1 목표 파일을 획득한다.
단계 305에서, 제1 클라이언트가 제1 목표 파일과 문단 정보를 서버로 전송하여, 제2 클라이언트는 제1 목표 파일과 문단 정보를 서버로부터 획득하고, 제1 목표 파일을 반주 오디오로 하여 문단 정보에 기초하여 제2 사용자에게 가라오케 서비스를 제공한다.
본 실시예에서, 단계 301 내지 305의 과정은 도 1에 도시된 실시예에서의 단계 301 내지 305의 과정과 동일하며, 여기에서 반복 설명되지 않는다.
단계 306에서, 제2 클라이언트가 제2 사용자에 의해 전송된 제3 번갈아 노래 부르기 요청을 수신한다.
본 실시예에서, 제3 번갈아 노래 부르기 요청은, 번갈아 노래 부르기 개시 모드에서 합류 흐름을 트리거하기 위하여, 번갈아 노래 부르기 합류를 요청하고 제1 가사 부분 이외의 다른 가사 부분의 일부에만 기초하여 녹음하도록 나타내는데 사용된다. 예를 들어, 실제로, 제2 클라이언트에는 제3 번갈아 노래 부르기 요청에 대응하는 버튼이 제공될 수 있고, 제2 클라이언트는 제2 사용자가 버튼을 누를 때 제3 번갈아 노래 부르기 요청을 수신한다.
단계 307에서, 제2 클라이언트는 제3 번갈아 노래 부르기 요청에 기초하여 서버로부터 노래의 제1 목표 파일, 가사 파일 및 문단 정보를 획득하고, 제2 사용자에 의해 수행된 노래 부르기를 녹음하여 제3 녹음 파일을 획득한다. 노래 부르기는 제1 목표 파일을 반주 오디오로 하여 문단 정보에 따라 제1 가사 부분 이외의 다른 가사 부분의 일부에 기초하여 제2 사용자에 의해 수행된다.
본 실시예에서, 제3 번갈아 노래 부르기 요청을 수신한 것에 따라, 제2 클라이언트는 서버로부터 제1 목표 파일, 가사 파일 및 문단 정보를 획득하고, 제1 목표 파일과 가사 파일을 재생한다. 제2 사용자는 제1 가사 부분 이외의 다른 가사 부분의 일부에 기초하여 노래 부르기를 수행하고, 동기하여, 제2 클라이언트는 제1 목표 파일을 반주 오디오로 하여 문단 정보에 따라 제1 가사 부분 이외의 다른 가사 부분의 일부에 기초하여 제2 사용자에 의해 수행된 노래 부르기를 녹음하여, 제3 녹음 파일을 획득한다. 제2 사용자가 제1 가사 부분 이외의 다른 모든 가사 부분 대신에 제1 가사 부분 이외의 다른 가사 부분의 일부에 기초하여 노래 부르기를 수행하는 점에서, 본 실시예는 도 2에 도시된 실시예와 다르다는 점이 주목되어야 한다. 따라서, 노래는 번갈아 노래 부르기에 합류하는 다른 사용자에 의해 사용될 부분을 포함한다.
단계 308에서, 제2 클라이언트는 제2 가사 부분을 결정하고, 문단 정보에서 제2 가사 부분을 식별하기 위한 식별 정보를 추가한다.
제2 가사 부분은 제2 사용자가 노래 부르는 가사 부분을 말한다. 제2 가사 부분을 결정하기 위한 방법과 식별 정보의 형태에 대하여, 도 1에 도시된 실시예에서의 단계 103에서의 설명을 참조할 수 있으며, 여기에서 반복 설명되지 않는다.
단계 309에서, 제2 클라이언트는 제3 녹음 파일과 제1 목표 파일에 오디오 믹싱 처리를 수행하여, 제3 목표 파일을 획득한다.
본 실시예에서, 오디오 믹싱 처리의 과정은, 예를 들어, 대응하는 샘플링 포인트의 데이터를 더하고 합을 2로 나누는 기존의 오디오 믹싱 알고리즘에 의해 수행될 수 있다.
선택적으로, 본 실시예에서, 제3 녹음 파일이 제2 가사 부분 이외의 다른 가사 부분에서 비효율적인 것으로 판단된 일부 노이즈 또는 음성을 더 포함하는 것을 방지하기 위하여, 가라오케 처리 방법의 단계 309 이전에, 제2 클라이언트는 문단 정보에 기초하여 제3 녹음 파일에서 제2 가사 부분 이외의 다른 가사 부분에 대응하는 오디오 데이터를 더 클리어할 수 있다. 이러한 방식으로, 획득된 제3 녹음 파일이 제2 사용자의 노래 부르기의 유효한 음성만을 포함하는 것과 동등한 제2 가사 부분의 디스플레이 시간에만 오디오 파일을 포함하는 것이 보장될 수 있다.
단계 310에서, 제2 클라이언트가 제3 목표 파일과 문단 정보를 서버에 전송하여, 서버를 통하여, 제3 클라이언트는 제3 목표 파일을 반주 오디오로 하여 문단 정보에 따라 제1 가사 부분 및 제2 가사 부분 이외의 가사 부분에 기초하여 제3 사용자에 의해 수행된 노래 부르기를 녹음한다.
본 실시예에서, 제3 클라이언트는 서버로부터 제3 목표 파일과 문단 정보를 획득하고, 제3 목표 파일을 반주 오디오로 하여 문단 정보에 기초하여 제3 사용자에게 가라오케 서비스를 제공할 수 있다. 제3 사용자는 어느 가사 부분이 이미 노래가 불린지 판단하고(제1 사용자가 이미 노래 부른 제1 가사 부분과 제2 사용자가 이미 노래 부른 제3 가사 부분을 포함), 아직 노래가 불리지 않은 가사 부분에 기초하여 노래 부르기를 수행할 수 있다.
선택적으로, 본 실시예에서, 제2 클라이언트는 구성 파일에 제2 사용자에 의해 사용된 사운드 효과 파라미터를 더 추가할 수 있어, 제3 클라이언트는 제3 목표 파일을 반주 오디오로 하여 문단 정보와 구성 파일에 기초하여 제2 사용자에게 가라오케 서비스를 제공한다. 선택적으로, 사운드 효과 파라미터는 잔향 파라미터, 사운드 변조 및 톤 변조 파라미터, 음성 미화 파라미터 등을 포함한다.
본 실시예에서의 제3 목표 파일이 제1 가사 부분에 기초하여 제1 사용자에 의해 수행된 노래 부르기와 제2 가사 부분에 기초하여 제2 사용자에 의해 수행된 노래 부르기를 포함하고, 1 이상의 다른 사용자가 제1 가사 부분 및 제2 가사 부분 이외의 가사 부분에 기초하여 노래 부르기를 수행할 수 있어, 다수의 사용자가 함께 노래 부르는 가라오케 경험을 제공한다.
본 개시 내용의 실시예에 따른 가라오케 처리 방법이 위에 설명되었으며, 본 개시 내용의 실시예에 따른 가라오케 처리 시스템이 아래에 설명된다. 도 4를 참조하면, 본 개시 내용의 실시예에 따른 가라오케 처리 시스템은 제1 클라이언트와 제2 클라이언트를 포함한다.
제1 클라이언트(401)는, 제1 사용자에 의해 입력된 제1 번갈아 노래 부르기 요청을 수신하고(제1 번갈아 노래 부르기 요청은 번갈아 노래 부르기 개시를 요청하는데 사용된다); 제1 번갈아 노래 부르기 요청에 기초하여 서버로부터 노래의 반주 오디오 파일과 가사 파일을 획득하고, 제1 사용자에 의해 수행된 노래 부르기를 녹음하여 제1 녹음 파일을 획득하고(노래 부르기는 반주 오디오 파일과 가사 파일을 이용하여 가사 부분에 기초하여 제1 사용자에 의해 수행된다); 제1 녹음 파일에 기초하여 제1 가사 부분을 결정하고 문단 정보를 생성하고(제1 가사 부분은 제1 사용자가 이미 노래 부른 가사 부분을 말하고, 문단 정보는 제1 가사 부분을 식별하기 위한 식별 정보를 포함한다); 제1 녹음 파일과 반주 오디오 파일에 오디오 믹싱 처리를 수행하여, 제1 목표 파일을 획득하고; 그리고, 제1 목표 파일과 문단 정보를 서버로 전송하도록 구성된다.
제2 클라이언트(402)는, 제1 목표 파일과 문단 정보를 서버로부터 획득하고, 제1 목표 파일을 반주 오디오로 하여 문단 정보에 기초하여 제2 사용자에게 가라오케 서비스를 제공하도록 구성된다.
선택적으로, 제1 클라이언트(401)는 가사 부분에 대응하는 제1 사용자의 녹음 음성이 유효한지 판단하고, 가사 부분에 대응하는 제1 사용자의 녹음 음성이 유효한 경우에 가사 부분을 제1 가사 부분으로 결정할 수 있다.
선택적으로, 본 실시예에서, 제1 클라이언트(401)는 가사 부분에 대응하는 제1 사용자의 녹음 음성의 볼륨이 사전 설정값보다 더 큰지 판단하고, 녹음 음성의 볼륨이 사전 설정값보다 더 큰 경우에 녹음 음성이 유효하다고 판단하도록 구성될 수 있다.
선택적으로, 본 실시예에서, 제1 클라이언트(401)는 가사 부분에 대응하는 제1 사용자의 녹음 음성이 유효한지 판단하고, 가사 부분에 대응하는 제1 사용자의 녹음 음성이 유효한 경우에 녹음 음성이 차지하는 시간이 가사 부분에 대응하는 디스플레이 시간과 일치하는지 더 판단하고, 녹음 음성이 차지하는 시간이 가사 부분에 대응하는 디스플레이 시간과 일치하는 경우에, 가사 부분을 제1 가사 부분으로 결정하도록 구성될 수 있다.
선택적으로, 본 실시예에서, 제1 클라이언트(401)는 제1 녹음 파일과 반주 오디오 파일에 오디오 믹싱 처리를 수행하기 전에 문단 정보에 기초하여 제1 녹음 파일에서 제1 가사 부분 이외의 다른 가사 부분에 대응하는 오디오 데이터를 클리어하여 제1 목표 파일을 획득하도록 더 구성될 수 있다.
선택적으로, 본 실시예에서, 식별 정보는 제1 가사 부분에 대응하는 디스플레이 시간 또는 제1 가사 부분의 문장 식별자를 포함한다.
선택적으로, 본 실시예에서, 제1 클라이언트(401)는 제1 목표 파일과 문단 정보를 서버에 전송하기 전에 구성 파일을 생성하고, 구성 파일을 서버에 전송하도록 더 구성될 수 있다. 구성 파일은 제1 사용자에 의해 사용된 사운드 효과 파라미터를 포함한다.
선택적으로, 본 실시예에서, 제2 클라이언트(402)는 제2 사용자에 의해 전송된 제2 번갈아 노래 부르기 요청을 수신하고(제2 번갈아 노래 부르기 요청은 번갈아 노래 부르기 합류를 요청하는데 사용됨); 제2 번갈아 노래 부르기 요청에 기초하여 서버로부터 노래의 제1 목표 파일, 가사 파일 및 문단 정보를 획득하고, 제2 사용자에 의해 수행된 노래 부르기를 녹음하여 제2 녹음 파일을 획득하고(노래 부르기는 제1 목표 파일을 반주 오디오로 하여 문단 정보에 따라 제1 가사 부분 이외의 다른 모든 가사 부분에 기초하여 제2 사용자에 의해 수행된다); 그리고, 제2 녹음 파일과 제1 목표 파일에 오디오 믹싱 처리를 수행하여 제2 목표 파일을 획득하도록 구성될 수 있다.
선택적으로, 본 실시예에서, 제2 클라이언트(402)는 제2 녹음 파일과 제1 목표 파일에 오디오 믹싱 처리를 수행하여 제2 목표 파일을 획득하기 전에 문단 정보에 기초하여 제2 녹음 파일에서 제1 가사 부분에 대응하는 오디오 데이터를 클리어하도록 더 구성될 수 있다.
선택적으로, 본 실시예에서, 제2 클라이언트(402)는, 서버가 구성 파일을 더 포함하는 경우에, 서버로부터 노래의 제1 목표 파일, 가사 파일, 문단 정보 및 구성 파일을 획득하고, 제1 목표 파일을 반주 오디오로 하여 문단 정보 및 구성 파일에 따라 제1 가사 부분 이외의 다른 모든 가사 부분에 기초하여 제2 사용자에 의해 수행된 노래 부르기를 녹음하여, 제2 녹음 파일을 획득하도록 구성될 수 있다.
선택적으로, 본 실시예에서, 제2 클라이언트는, 제2 사용자에 의해 전송된 제3 번갈아 노래 부르기 요청을 수신하고(제3 번갈아 노래 부르기 요청은, 번갈아 노래 부르기 합류를 요청하고 제1 가사 부분 이외의 다른 가사 부분의 일부에만 기초하여 녹음하도록 나타내는데 사용된다); 제3 번갈아 노래 부르기 요청에 기초하여 서버로부터 노래의 제1 목표 파일, 가사 파일 및 문단 정보를 획득하고, 제2 사용자에 의해 수행된 노래 부르기를 녹음하여 제3 녹음 파일을 획득하고(노래 부르기는 제1 목표 파일을 반주 오디오로 하여 문단 정보에 따라 제1 가사 부분 이외의 다른 가사 부분의 일부에 기초하여 제2 사용자에 의해 수행된다); 제2 가사 부분을 결정하고, 문단 정보에서 제2 가사 부분을 식별하기 위한 식별 정보를 추가하고(제2 가사 부분은 제2 사용자가 이미 노래 부른 가사 부분을 말한다); 제3 녹음 파일과 제1 목표 파일에 오디오 믹싱 처리를 수행하여, 제3 목표 파일을 획득하고; 그리고, 제3 목표 파일과 문단 정보를 서버에 전송하여, 서버를 통하여, 제3 클라이언트가 제3 목표 파일을 반주 오디오로 하여 문단 정보에 따라 제1 가사 부분 및 제2 가사 부분 이외의 가사 부분에 기초하여 제3 사용자에 의해 수행된 노래 부르기를 녹음하게 하도록 구성될 수 있다.
설명의 편의와 명확성을 위하여 위에서 설명된 시스템, 장치 및 유닛의 동작 과정 여기에서 반복 설명되지 않으며, 상세를 위하여 위에서 설명된 방법 실시예에서의 대응하는 과정을 참조할 수 있다는 것은 당해 기술 분야에서의 통상의 기술자가 명확하게 알 수 있다.
본 개시 내용의 일 실시예에 따라 가라오케 처리 방법이 적용되는 클라이언트의 개략적이 구조도인 도 5가 참조된다. 본 실시예에서의 클라이언트는 컴퓨터 또는 유사한 운영 장치로서 구현된다. 실제로, 클라이언트는 또한 전화기, 패널 장치 또는 다른 장치일 수 있다.
도 5에 도시된 바와 같이, 컴퓨팅 장치(500)는 하나 이상의 프로세서(502)(단지 하나의 프로세스만이 도 5에 도시된다), 메모리(504) 및 전송 모듈(506)을 포함한다. 도 5에 도시된 구조가 단지 예시적인 것이며, 전술한 전자 장치의 구조를 한정하려고 의도되지 않는다는 것이 당해 기술 분야에서의 통상의 기술자에 의해 이해될 수 있다. 예를 들어, 컴퓨팅 장치(500)는 도 5에 도시된 컴포넌트보다 더 많거나 더 적은 컴포넌트를 더 포함할 수 있거나, 또는 도 5와 상이한 구성을 가질 수 있다.
메모리(504)는 소프트웨어 프로그램 및 모듈, 예를 들어, 본 개시 내용의 실시예에서의 가라오케 처리 방법에 대응하는 프로그램 명령/모듈을 저장하도록 구성될 수 있다. 프로세서(502)는 전술한 가라오케 처리 방법을 구현하기 위하여 메모리(504)에 저장된 소프트웨어 프로그램 및 모듈을 실행함으로써 다양한 기능 애플리케이션 및 데이터 처리를 실행한다. 메모리(504)는 고속 랜덤 메모리를 포함할 수 있고, 하나 이상의 자기 스토리지, 플래시 메모리 또는 다른 비휘발성 솔리드 스테이트 메모리와 같은 비휘발성 메모리도 포함할 수 있다. 일부 실시예에서, 메모리(504)는 프로세스(502)에 관하여 원격으로 마련된 메모리를 더 포함할 수 있고, 원격 메모리는 네트워크를 통해 장치(500)에 연결될 수 있다. 전술한 네트워크의 예는 인터넷, 인트라넷, 로컬 네트워크, 이동 통신 네트워크 및 이들의 조합을 포함할 수 있지만, 이에 한정되지 않는다.
전송 모듈(506)은 네트워크를 통해 데이터를 수신하거나 송신하도록 구성된다. 전술한 네트워크는 예를 들어 유선 네트워크 및 무선 네트워크를 포함할 수 있다. 일례에서, 전송 모듈(506)은 인터넷과 통신하기 위하여 네트워크 케이블을 통해 다른 네트워크 장치 또는 라우터에 연결될 수 있는 네트워크 인터페이스 컨트롤러(network interface controller(NIC))를 포함한다. 일례에서, 전송 모듈(506)은 무선 방식으로 인터넷과 통신하는데 사용되는 무선 주파수(radio frequency(RF)) 모듈이다.
본 개시 내용의 실시예에 따라, 개시된 시스템, 장치 및 방법이 다른 방식으로 구현될 수 있다는 것이 이해되어야 한다. 예를 들어, 설명된 장치 실시예는 단지 예시를 위한 것이다. 유닛들은 단지 논리 함수에 기초하여 분할되며, 실제로 유닛들은 다른 분할 방식으로 분할될 수 있다. 예를 들어, 다수의 유닛 또는 모듈은 조합될 수 있거나, 다른 시스템으로 통합될 수 있고, 또는 일부 특징들은 생략되거나 구현되지 않을 수 있다. 또한, 디스플레이되거나 논의된 커플링, 직접 커플링 또는 통신 연결이 전기적이거나, 기계적이거나 또는 다른 형태일 수 있는 일부 인터페이스, 장치 또는 유닛을 통해 간접 커플링 또는 통신 연결로서 구현될 수 있다.
분리된 컴포넌트로서 설명된 유닛들은 물리적으로 분리될 수 있거나 분리되지 않을 수 있다. 유닛들로서 도시된 컴포넌트들은 물리적인 유닛일 수 있거나 물리적인 유닛이 아닐 수 있다. 즉, 유닛은 한 장소에 위치될 수 있거나, 다수의 네트워크 유닛 상으로 분포될 수 있다. 유닛들의 전부 또는 일부는 실시예에 따라 해결 방안을 구현하기 위한 실제 필요에 따라 선택될 수 있다.
또한, 본 개시 내용의 실시예에 따른 기능 유닛들이 하나의 처리 유닛에 통합될 수 있거나, 유닛들이 개별적으로 존재할 수 있거나, 2 이상의 유닛이 하나의 유닛에 통합될 수 있다. 통합된 유닛은 하드웨어 또는 소프트웨어 기능 유닛의 형태로 구현될 수 있다.
통합된 유닛이 소프트웨어 기능 유닛의 형태로 구현되고, 소프트웨어 기능 유닛이 개별 제품으로 판매되거나 사용되면, 소프트웨어 기능 유닛은 또한 컴퓨터 판독 가능한 저장 매체에 저장될 수 있다. 이러한 이해에 기초하여, 본 개시 내용의 기술 방안의 본질적인 부분, 즉 기존 기술에 기여하는 본 개시 내용의 기술 방안 부분 또는 기술 방안의 전부나 일부는 컴퓨터 소프트웨어 제품의 형태로 구체화될 수 있다. 컴퓨터 소프트웨어 제품은 저장 매체에 저장되고, 본 개시 내용의 실시예에 따른 방법의 단계들의 전부 또는 일부를 구현하기 위하여 컴퓨터 장치(개인용 컴퓨터, 서버, 네트워크 장치 등일 수 있다)를 명령하기 위한 여러 명령어를 포함한다. 전술한 저장 매체는 프로그램 코드를 저장할 수 있는 다양한 매체, 예를 들어, USB 디스크, 이동식 하드 디스크 드라이브, ROM(Read-Only Memory), RAM(Random Access Memory), 자기 디스크, 광 디스크 등을 포함한다.
요약하면, 전술한 실시예들은 본 개시 내용의 기술 방안을 설명하는 데에만 사용되며, 본 개시 내용을 한정하도록 의도되지 않는다. 본 개시 내용이 전술한 실시예를 참조하여 상세히 설명되었지만, 당해 기술 분야에서의 통상의 기술자는 전술한 실시예의 기술 방안에 수정이 이루어질 수 있거나, 균등한 대체가 실시예들에서의 기술적 특징의 일부에 이루어질 수 있다는 것을 이해하여야 한다. 이러한 수정 및 대체는 기술 방안의 본질이 본 개시 내용의 실시예들에서의 기술 방안의 기술적 사상 및 범위로부터 벗어나게 하지 않을 것이다.

Claims (23)

  1. 제1 클라이언트에 의해, 제1 사용자에 의해 입력된 제1 번갈아 노래 부르기 요청을 수신하는 단계로서, 상기 제1 번갈아 노래 부르기 요청은 번갈아 노래 부르기 개시를 요청하는데 사용되는 단계;
    상기 제1 클라이언트에 의해, 상기 제1 번갈아 노래 부르기 요청에 기초하여 서버로부터 노래의 반주 오디오 파일과 가사 파일을 획득하고, 상기 제1 클라이언트에 의해 상기 반주 오디오 파일과 상기 가사 파일을 이용하여 가사 부분에 기초하여 상기 제1 사용자에 의해 수행된 노래 부르기를 녹음하여, 제1 녹음 파일을 획득하는 단계;
    상기 제1 클라이언트에 의해, 상기 제1 녹음 파일에 기초하여 제1 가사 부분을 판단하고 문단 정보를 생성하는 단계로서, 상기 제1 가사 부분은 상기 제1 사용자가 이미 노래 부른 가사 부분이고, 상기 문단 정보는 상기 제1 가사 부분을 식별하기 위한 식별 정보를 포함하는 단계;
    상기 제1 클라이언트에 의해, 상기 제1 녹음 파일 및 상기 반주 오디오 파일에 오디오 믹싱 처리를 수행하여 제1 목표 파일을 획득하는 단계; 및
    상기 제1 클라이언트에 의해, 상기 제1 목표 파일 및 상기 문단 정보를 상기 서버에 전송하는 단계
    를 포함하는,
    가라오케 처리 방법.
  2. 제1항에 있어서,
    상기 제1 클라이언트에 의해, 상기 제1 녹음 파일에 기초하여 상기 제1 가사 부분을 판단하는 단계는,
    상기 제1 클라이언트에 의해, 가사 부분에 대응하는 상기 제1 사용자의 녹음 음성이 유효한지 판단하고,
    상기 제1 클라이언트에 의해, 상기 가사 부분에 대응하는 상기 제1 사용자의 녹음 음성이 유효한 경우에, 상기 가사 부분을 상기 제1 가사 부분으로 결정하는 단계
    를 포함하는,
    가라오케 처리 방법.
  3. 제2항에 있어서,
    상기 제1 클라이언트에 의해, 가사 부분에 대응하는 상기 제1 사용자의 녹음 음성이 유효한지 판단하는 단계는,
    상기 제1 클라이언트에 의해, 상기 음성의 볼륨이 사전 설정값보다 큰지 판단하고,
    상기 제1 클라이언트에 의해, 상기 음성의 볼륨이 상기 사전 설정값보다 큰 경우에 상기 가사 부분에 대응하는 상기 제1 사용자의 상기 녹음 음성이 유효하다고 판단하는 단계
    를 포함하는,
    가라오케 처리 방법.
  4. 제1항에 있어서,
    상기 제1 클라이언트에 의해, 상기 제1 녹음 파일에 기초하여 상기 제1 가사 부분을 판단하는 단계는,
    상기 제1 클라이언트에 의해, 가사 부분에 대응하는 상기 제1 사용자의 녹음 음성이 유효한지 판단하고,
    상기 제1 클라이언트에 의해, 상기 가사 부분에 대응하는 상기 제1 사용자의 녹음 음성이 유효한 경우에 상기 녹음 음성이 차지하는 시간이 상기 가사 부분에 대응하는 디스플레이 시간과 일치하는지 판단하고,
    상기 제1 클라이언트에 의해, 상기 녹음 음성이 차지하는 시간이 상기 가사 부분에 대응하는 디스플레이 시간과 일치하는 경우에 상기 가사 부분을 상기 제1 가사 부분으로 결정하는 단계
    를 포함하는,
    가라오케 처리 방법.
  5. 제1항에 있어서,
    상기 제1 클라이언트에 의해, 상기 제1 녹음 파일 및 상기 반주 오디오 파일에 오디오 믹싱 처리를 수행하여 상기 제1 목표 파일을 획득하는 단계 전에,
    상기 제1 클라이언트에 의해, 상기 문단 정보에 기초하여 상기 제1 녹음 파일에서 상기 제1 가사 부분 이외의 다른 가사 부분에 대응하는 오디오 데이터를 클리어하는 단계
    를 더 포함하는,
    가라오케 처리 방법.
  6. 제1항에 있어서,
    상기 식별 정보는 상기 제1 가사 부분에 대응하는 디스플레이 시간 또는 상기 제1 가사 부분의 문장 식별자를 포함하는,
    가라오케 처리 방법.
  7. 제1항에 있어서,
    상기 제1 클라이언트에 의해, 상기 제1 목표 파일 및 상기 문단 정보를 상기 서버에 전송하는 단계 전에,
    상기 제1 클라이언트에 의해 구성 파일을 생성하는 단계로서, 상기 구성 파일은 상기 제1 사용자에 의해 사용되는 사운드 효과 파라미터를 포함하는 단계; 및
    상기 제1 클라이언트에 의해 상기 구성 파일을 상기 서버에게 전송하는 단계
    를 포함하는,
    가라오케 처리 방법.
  8. 제1항 내지 제7항 중 어느 한 항에 있어서,
    제2 클라이언트에 의해, 상기 제1 목표 파일과 상기 문단 정보를 상기 서버로부터 획득하고,
    상기 제2 클라이언트에 의해, 상기 제1 목표 파일을 반주 오디오로 하여 상기 문단 정보에 기초하여 제2 사용자에게 가라오케 서비스를 제공하는 단계
    를 더 포함하는,
    가라오케 처리 방법.
  9. 제8항에 있어서,
    상기 제2 클라이언트에 의해, 상기 제1 목표 파일과 상기 문단 정보를 상기 서버로부터 획득하고, 상기 제2 클라이언트에 의해, 상기 제1 목표 파일을 반주 오디오로 하여 상기 문단 정보에 기초하여 제2 사용자에게 가라오케 서비스를 제공하는 단계는,
    상기 제2 클라이언트에 의해, 상기 제2 사용자에 의해 전송된 제2 번갈아 노래 부르기 요청을 수신하는 단계로서, 상기 제2 번갈아 노래 부르기 요청은 번갈아 노래 부르기 합류를 요청하는데 사용되는 단계;
    상기 제2 클라이언트에 의해, 상기 제2 번갈아 노래 부르기 요청에 기초하여 상기 서버로부터 노래의 상기 제1 목표 파일, 상기 가사 파일 및 상기 문단 정보를 획득하고, 상기 제2 클라이언트에 의해, 상기 제1 목표 파일을 반주 오디오로 하여 상기 문단 정보에 따라 상기 제1 가사 부분 이외의 다른 모든 가사 부분에 기초하여 상기 제2 사용자에 의해 수행된 노래 부르기를 녹음하여 제2 녹음 파일을 획득하는 단계; 및
    상기 제2 클라이언트에 의해, 상기 제2 녹음 파일 및 상기 제1 목표 파일에 오디오 믹싱 처리를 수행하여 제2 목표 파일을 획득하는 단계
    를 포함하는,
    가라오케 처리 방법.
  10. 제9항에 있어서,
    상기 제2 클라이언트에 의해, 상기 제2 녹음 파일 및 상기 제1 목표 파일에 오디오 믹싱 처리를 수행하여 제2 목표 파일을 획득하는 단계 전에,
    상기 제2 클라이언트에 의해, 상기 문단 정보에 기초하여 상기 제2 녹음 파일에서 상기 제1 가사 부분에 대응하는 오디오 데이터를 클리어하는 단계
    를 더 포함하는,
    가라오케 처리 방법.
  11. 제9항에 있어서,
    상기 서버가 구성 파일을 포함하는 경우에, 상기 제2 클라이언트에 의해, 상기 제2 번갈아 노래 부르기 요청에 기초하여 상기 서버로부터 노래의 상기 제1 목표 파일, 상기 가사 파일 및 상기 문단 정보를 획득하고, 상기 제2 클라이언트에 의해, 상기 제1 목표 파일을 반주 오디오로 하여 상기 문단 정보에 따라 상기 제1 가사 부분 이외의 다른 모든 가사 부분에 기초하여 상기 제2 사용자에 의해 수행된 노래 부르기를 녹음하여 제2 녹음 파일을 획득하는 단계는,
    상기 제2 클라이언트에 의해, 상기 서버로부터 상기 노래의 상기 제1 목표 파일, 상기 가사 파일, 상기 문단 정보 및 상기 구성 파일을 획득하고,
    상기 제2 클라이언트에 의해, 상기 제1 목표 파일을 반주 오디오로 하여 상기 문단 정보 및 상기 구성 파일에 따라 상기 제1 가사 부분 이외의 다른 모든 가사 부분에 기초하여 상기 제2 사용자에 의해 수행된 노래 부르기를 녹음하여 상기 제2 녹음 파일을 획득하는 단계
    를 포함하는,
    가라오케 처리 방법.
  12. 제8항에 있어서,
    상기 제2 클라이언트에 의해, 상기 제1 목표 파일과 상기 문단 정보를 상기 서버로부터 획득하고, 상기 제2 클라이언트에 의해, 상기 제1 목표 파일을 반주 오디오로 하여 상기 문단 정보에 기초하여 상기 제2 사용자에게 가라오케 서비스를 제공하는 단계는,
    상기 제2 클라이언트에 의해, 상기 제2 사용자에 의해 전송된 제3 번갈아 노래 부르기 요청을 수신하는 단계로서, 상기 제3 번갈아 노래 부르기 요청은 번갈아 노래 부르기 합류를 요청하고 상기 제1 가사 부분 이외의 다른 가사 부분의 일부만에 기초하여 녹음하도록 나타내는데 사용되는 단계;
    상기 제2 클라이언트에 의해, 상기 제3 번갈아 노래 부르기 요청에 기초하여 상기 서버로부터 상기 노래의 상기 제1 목표 파일, 상기 가사 파일 및 상기 문단 정보를 획득하고, 상기 제2 클라이언트에 의해, 상기 제1 목표 파일을 반주 오디오로 하여 상기 문단 정보에 따라 상기 제1 가사 부분 이외의 다른 가사 부분의 일부에 기초하여 상기 제2 사용자에 의해 수행되는 노래 부르기를 녹음하여 제3 녹음 파일을 획득하는 단계;
    상기 제2 클라이언트에 의해, 제2 가사 부분을 결정하고 상기 문단 정보에 상기 제2 가사 부분을 식별하기 위한 식별 정보를 추가하는 단계로서, 상기 제2 가사 부분은 상기 제2 사용자가 이미 노래 부른 가사 부분인 단계;
    상기 제2 클라이언트에 의해, 상기 제3 녹음 파일과 상기 제1 목표 파일에 오디오 믹싱 처리를 수행하여, 제3 목표 파일을 획득하는 단계; 및
    상기 제2 클라이언트에 의해, 상기 제3 목표 파일과 문단 정보를 서버에 전송하는 단계
    를 더 포함하고,
    제3 클라이언트가 상기 서버로부터 상기 제3 목표 파일과 상기 문단 정보를 획득하고, 상기 제3 목표 파일을 반주 오디오로 하여 상기 문단 정보에 기초하여 제3 사용자에게 가라오케 서비스를 제공하는,
    가라오케 처리 방법.
  13. 제1 클라이언트; 및
    제2 클라이언트
    를 포함하고,
    상기 제1 클라이언트는, 제1 사용자에 의해 입력된 제1 번갈아 노래 부르기 요청을 수신하고 - 상기 제1 번갈아 노래 부르기 요청은 번갈아 노래 부르기 개시를 요청하는데 사용됨 -; 상기 제1 번갈아 노래 부르기 요청에 기초하여 서버로부터 노래의 반주 오디오 파일과 가사 파일을 획득하고, 상기 반주 오디오 파일과 상기 가사 파일을 이용하여 가사 부분에 기초하여 상기 제1 사용자에 의해 수행된 노래 부르기를 녹음하여, 제1 녹음 파일을 획득하고; 상기 제1 녹음 파일에 기초하여 제1 가사 부분을 판단하고 문단 정보를 생성하고 - 상기 제1 가사 부분은 상기 제1 사용자가 이미 노래 부른 가사 부분이고, 상기 문단 정보는 상기 제1 가사 부분을 식별하기 위한 식별 정보를 포함함 -; 상기 제1 녹음 파일 및 상기 반주 오디오 파일에 오디오 믹싱 처리를 수행하여 제1 목표 파일을 획득하고; 그리고, 상기 제1 목표 파일 및 상기 문단 정보를 상기 서버에 전송하도록 구성되고,
    상기 제2 클라이언트는, 상기 제1 목표 파일과 상기 문단 정보를 상기 서버로부터 획득하고, 상기 제1 목표 파일을 반주 오디오로 하여 상기 문단 정보에 기초하여 제2 사용자에게 가라오케 서비스를 제공하도록 구성되는,
    가라오케 처리 시스템.
  14. 제13항에 있어서,
    상기 제1 클라이언트는, 가사 부분에 대응하는 상기 제1 사용자의 녹음 음성이 유효한지 판단하고, 상기 가사 부분에 대응하는 상기 제1 사용자의 녹음 음성이 유효한 경우에, 상기 가사 부분을 상기 제1 가사 부분으로 결정하도록 구성되는,
    가라오케 처리 시스템.
  15. 제14항에 있어서,
    상기 제1 클라이언트는, 상기 가사 부분에 대응하는 상기 제1 사용자의 녹음 음성의 볼륨이 사전 설정값보다 큰지 판단하고, 상기 녹음 음성의 볼륨이 상기 사전 설정값보다 큰 경우에 상기 녹음 음성이 유효하다고 판단하도록 구성되는,
    가라오케 처리 시스템.
  16. 제13항에 있어서,
    상기 제1 클라이언트는,
    가사 부분에 대응하는 상기 제1 사용자의 녹음 음성의 유효한지 판단하고,
    상기 가사 부분에 대응하는 상기 제1 사용자의 녹음 음성이 유효한 경우에 상기 녹음 음성이 차지하는 시간이 상기 가사 부분에 대응하는 디스플레이 시간과 일치하는지 판단하고,
    상기 녹음 음성이 차지하는 시간이 상기 가사 부분에 대응하는 디스플레이 시간과 일치하는 경우에 상기 가사 부분을 상기 제1 가사 부분으로 결정하도록 구성되는,
    가라오케 처리 시스템.
  17. 제13항에 있어서,
    상기 제1 클라이언트는, 상기 제1 녹음 파일 및 상기 반주 오디오 파일에 오디오 믹싱 처리를 수행하여 상기 제1 목표 파일을 획득하기 전에, 상기 문단 정보에 기초하여 상기 제1 녹음 파일에서 상기 제1 가사 부분 이외의 다른 가사 부분에 대응하는 오디오 데이터를 클리어하도록 구성되는,
    가라오케 처리 시스템.
  18. 제13항에 있어서,
    상기 식별 정보는 상기 제1 가사 부분에 대응하는 디스플레이 시간 또는 상기 제1 가사 부분의 문장 식별자를 포함하는,
    가라오케 처리 시스템.
  19. 제13항에 있어서,
    상기 제1 클라이언트는,
    상기 제1 목표 파일 및 상기 문단 정보를 상기 서버에 전송하는 단계 전에, 구성 파일을 생성하도록 구성되고 - 상기 구성 파일은 상기 제1 사용자에 의해 사용되는 사운드 효과 파라미터를 포함함 -; 그리고,
    상기 구성 파일을 상기 서버에게 전송하도록 구성되는,
    가라오케 처리 시스템.
  20. 제13항 내지 제19항 중 어느 한 항에 있어서,
    상기 제2 클라이언트는,
    상기 제2 사용자에 의해 전송된 제2 번갈아 노래 부르기 요청을 수신하도록 구성되고 - 상기 제2 번갈아 노래 부르기 요청은 번갈아 노래 부르기 합류를 요청하는데 사용됨 -;
    상기 제2 번갈아 노래 부르기 요청에 기초하여 상기 서버로부터 노래의 상기 제1 목표 파일, 상기 가사 파일 및 상기 문단 정보를 획득하고, 상기 제1 목표 파일을 반주 오디오로 하여 상기 문단 정보에 따라 상기 제1 가사 부분 이외의 다른 모든 가사 부분에 기초하여 상기 제2 사용자에 의해 수행된 노래 부르기를 녹음하여 제2 녹음 파일을 획득하도록 구성되고; 그리고,
    상기 제2 녹음 파일 및 상기 제1 목표 파일에 오디오 믹싱 처리를 수행하여 제2 목표 파일을 획득하도록 구성되는,
    가라오케 처리 시스템.
  21. 제20항에 있어서,
    상기 제2 클라이언트는, 상기 제2 녹음 파일 및 상기 제1 목표 파일에 오디오 믹싱 처리를 수행하여 제2 목표 파일을 획득하기 전에, 상기 문단 정보에 기초하여 상기 제2 녹음 파일에서 상기 제1 가사 부분에 대응하는 오디오 데이터를 클리어하도록 더 구성되는,
    가라오케 처리 시스템.
  22. 제20항에 있어서,
    상기 제2 클라이언트는,
    상기 서버가 구성 파일을 포함하는 경우에, 상기 서버로부터 상기 노래의 상기 제1 목표 파일, 상기 가사 파일, 상기 문단 정보 및 상기 구성 파일을 획득하도록 구성되고; 그리고,
    상기 제1 목표 파일을 반주 오디오로 하여 상기 문단 정보 및 상기 구성 파일에 따라 상기 제1 가사 부분 이외의 다른 모든 가사 부분에 기초하여 상기 제2 사용자에 의해 수행된 노래 부르기를 녹음하여 상기 제2 녹음 파일을 획득하도록 구성되는,
    가라오케 처리 시스템.
  23. 제13항 내지 제19항 중 어느 한 항에 있어서,
    상기 제2 클라이언트는,
    상기 제2 사용자에 의해 전송된 제3 번갈아 노래 부르기 요청을 수신하도록 구성되고 - 상기 제3 번갈아 노래 부르기 요청은 번갈아 노래 부르기 합류를 요청하고 상기 제1 가사 부분 이외의 다른 가사 부분의 일부만에 기초하여 녹음하도록 나타내는데 사용됨 -;
    상기 제3 번갈아 노래 부르기 요청에 기초하여 상기 서버로부터 상기 노래의 상기 제1 목표 파일, 상기 가사 파일 및 상기 문단 정보를 획득하고, 상기 제1 목표 파일을 반주 오디오로 하여 상기 문단 정보에 따라 상기 제1 가사 부분 이외의 다른 가사 부분의 일부에 기초하여 상기 제2 사용자에 의해 수행되는 노래 부르기를 녹음하여 제3 녹음 파일을 획득하도록 구성되고;
    제2 가사 부분을 결정하고 상기 문단 정보에 상기 제2 가사 부분을 식별하기 위한 식별 정보를 추가하도록 구성되고 - 상기 제2 가사 부분은 상기 제2 사용자가 이미 노래 부른 가사 부분임 -;
    상기 제3 녹음 파일과 상기 제1 목표 파일에 오디오 믹싱 처리를 수행하여, 제3 목표 파일을 획득하도록 구성되고; 그리고,
    상기 제3 목표 파일과 문단 정보를 서버에 전송하도록 구성되고,
    제3 클라이언트는 상기 서버로부터 상기 제3 목표 파일과 상기 문단 정보를 획득하고, 상기 제3 목표 파일을 반주 오디오로 하여 상기 문단 정보에 기초하여 제3 사용자에게 가라오케 서비스를 제공하는,
    가라오케 처리 시스템.
KR1020177037099A 2015-05-27 2016-05-11 가라오케 처리 방법 및 시스템 KR20180013997A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201510280492.9A CN105023559A (zh) 2015-05-27 2015-05-27 K歌处理方法及系统
CN201510280492.9 2015-05-27
PCT/CN2016/081651 WO2016188323A1 (zh) 2015-05-27 2016-05-11 K歌处理方法及系统

Publications (1)

Publication Number Publication Date
KR20180013997A true KR20180013997A (ko) 2018-02-07

Family

ID=54413479

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020177037099A KR20180013997A (ko) 2015-05-27 2016-05-11 가라오케 처리 방법 및 시스템

Country Status (7)

Country Link
US (1) US10074351B2 (ko)
EP (1) EP3306607A4 (ko)
JP (1) JP6534452B2 (ko)
KR (1) KR20180013997A (ko)
CN (1) CN105023559A (ko)
TW (1) TWI576822B (ko)
WO (1) WO2016188323A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11877283B2 (en) 2018-09-19 2024-01-16 Sharp Kabushiki Kaisha Terminal device, base station device, and method

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018519536A (ja) 2015-05-27 2018-07-19 グァンジョウ クゥゴゥ コンピューター テクノロジー カンパニー リミテッド オーディオ処理方法、装置、およびシステム
CN105023559A (zh) * 2015-05-27 2015-11-04 腾讯科技(深圳)有限公司 K歌处理方法及系统
CN106601220A (zh) * 2016-12-08 2017-04-26 天脉聚源(北京)传媒科技有限公司 一种录制多人轮唱的方法及装置
CN106686431B (zh) * 2016-12-08 2019-12-10 杭州网易云音乐科技有限公司 一种音频文件的合成方法和设备
CN108269560A (zh) * 2017-01-04 2018-07-10 北京酷我科技有限公司 一种声音合成方法及系统
CN108269561A (zh) * 2017-01-04 2018-07-10 北京酷我科技有限公司 一种声音合成方法及系统
CN108630240B (zh) * 2017-03-23 2020-05-26 北京小唱科技有限公司 一种合唱方法及装置
CN108109652A (zh) * 2017-12-27 2018-06-01 北京酷我科技有限公司 一种k歌合唱录音的方法
US11250825B2 (en) 2018-05-21 2022-02-15 Smule, Inc. Audiovisual collaboration system and method with seed/join mechanic
CN108831425B (zh) * 2018-06-22 2022-01-04 广州酷狗计算机科技有限公司 混音方法、装置及存储介质
CN109033335B (zh) * 2018-07-20 2021-03-26 广州酷狗计算机科技有限公司 音频录制方法、装置、终端及存储介质
CN109147746B (zh) * 2018-07-27 2021-07-16 维沃移动通信有限公司 一种k歌方法及终端
CN109410972B (zh) * 2018-11-02 2023-09-01 广州酷狗计算机科技有限公司 生成音效参数的方法、装置及存储介质
CN109461430A (zh) * 2018-11-20 2019-03-12 福建海媚数码科技有限公司 一种基于卡拉ok对唱的智能角色伴唱方法及系统
US10831824B1 (en) * 2019-07-01 2020-11-10 Koye Corp. Audio segment based and/or compilation based social networking platform
EP4018434A4 (en) * 2019-08-25 2023-08-02 Smule, Inc. GENERATION OF SHORT SEGMENTS FOR USER PARTICIPATION IN VOICE RECORDING APPLICATIONS
CN110675848B (zh) * 2019-09-30 2023-05-30 腾讯音乐娱乐科技(深圳)有限公司 音频处理方法、装置及存储介质
CN111261133A (zh) * 2020-01-15 2020-06-09 腾讯科技(深圳)有限公司 演唱处理方法、装置、电子设备及存储介质
CN111241337B (zh) * 2020-01-21 2024-01-02 腾讯音乐娱乐科技(深圳)有限公司 K歌作品分享的方法和装置
CN111402844B (zh) * 2020-03-26 2024-04-09 广州酷狗计算机科技有限公司 歌曲合唱的方法、装置及系统
CN111475672B (zh) * 2020-03-27 2023-12-08 咪咕音乐有限公司 一种歌词分配方法、电子设备及存储介质
CN113691841B (zh) * 2020-05-18 2022-08-30 聚好看科技股份有限公司 一种演唱标签添加方法、快速试听方法及显示设备
CN111669642A (zh) * 2020-06-29 2020-09-15 南谊(上海)互联网科技有限公司 一种用于社交软件的信息处理系统及方法
US11256402B1 (en) 2020-08-12 2022-02-22 Facebook, Inc. Systems and methods for generating and broadcasting digital trails of visual media
US11093120B1 (en) * 2020-08-12 2021-08-17 Facebook, Inc. Systems and methods for generating and broadcasting digital trails of recorded media
USD960898S1 (en) 2020-08-12 2022-08-16 Meta Platforms, Inc. Display screen with a graphical user interface
USD960899S1 (en) 2020-08-12 2022-08-16 Meta Platforms, Inc. Display screen with a graphical user interface
CN112489610B (zh) * 2020-11-10 2024-02-23 北京小唱科技有限公司 智能合唱的方法及装置
CN113345470B (zh) * 2021-06-17 2022-10-18 青岛聚看云科技有限公司 一种k歌内容审核方法、显示设备及服务器
CN117369759A (zh) * 2022-06-30 2024-01-09 腾讯科技(深圳)有限公司 歌曲播放方法、装置、计算机设备和计算机可读存储介质

Family Cites Families (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3248792B2 (ja) * 1993-08-26 2002-01-21 ヤマハ株式会社 カラオケネットワークシステムおよびカラオケ端末装置
US5808224A (en) * 1993-09-03 1998-09-15 Yamaha Corporation Portable downloader connectable to karaoke player through wireless communication channel
JP3496689B2 (ja) * 1994-04-06 2004-02-16 ソニー株式会社 再生装置
KR960002330A (ko) * 1994-06-22 1996-01-26 김광호 영상노래반주장치
KR960002329A (ko) * 1994-06-22 1996-01-26 김광호 영상노래반주용의 기록매체, 이의 기록 및 재생방법 그리고 이에 적합한 재생장치
JP3144241B2 (ja) * 1994-10-14 2001-03-12 ヤマハ株式会社 カラオケ装置およびカラオケシステム
JP2820052B2 (ja) * 1995-02-02 1998-11-05 ヤマハ株式会社 コーラス効果付与装置
JP3952523B2 (ja) * 1996-08-09 2007-08-01 ヤマハ株式会社 カラオケ装置
JP3709631B2 (ja) * 1996-11-20 2005-10-26 ヤマハ株式会社 カラオケ装置
US5869783A (en) * 1997-06-25 1999-02-09 Industrial Technology Research Institute Method and apparatus for interactive music accompaniment
JP3743298B2 (ja) 2001-03-05 2006-02-08 ヤマハ株式会社 電子楽器
US20020132212A1 (en) 2001-03-14 2002-09-19 Andrew Hou Multi-functional portable information learning device
JP4267925B2 (ja) * 2001-04-09 2009-05-27 ミュージックプレイグラウンド・インコーポレーテッド 対話型再生によるマルチパートオーディオ演奏を記憶する媒体
US20020189429A1 (en) * 2001-06-18 2002-12-19 Ziqiang Qian Portable digital music player with synchronized recording and display
JP4188013B2 (ja) * 2002-07-17 2008-11-26 株式会社第一興商 ファイル保管サーバに預託した歌唱トラック録音ファイルをカラオケ演奏装置に取り寄せて合唱することができる通信カラオケシステム、カラオケ演奏装置
US20060077767A1 (en) * 2004-09-13 2006-04-13 Richard Young Dialog-reading game with background music and sound effects cued to text
US7917238B1 (en) * 2005-12-22 2011-03-29 Thomas Lapcevic Portable music device and systems
JP4382786B2 (ja) * 2006-08-22 2009-12-16 株式会社タイトー 音声ミックスダウン装置、音声ミックスダウンプログラム
US20090031883A1 (en) * 2007-07-31 2009-02-05 Christopher Lee Bennetts Networked karaoke system and method
JP2010014823A (ja) * 2008-07-01 2010-01-21 Nippon Telegr & Teleph Corp <Ntt> 楽曲情報制御装置
US20100089223A1 (en) * 2008-10-14 2010-04-15 Waichi Ting Microphone set providing audio and text data
JP5331494B2 (ja) * 2009-01-19 2013-10-30 株式会社タイトー カラオケサービスシステム、端末装置
CN101859561B (zh) 2009-04-07 2012-12-26 林文信 伴唱歌词自动显示方法
US8779265B1 (en) * 2009-04-24 2014-07-15 Shindig, Inc. Networks of portable electronic devices that collectively generate sound
JP2011215358A (ja) * 2010-03-31 2011-10-27 Sony Corp 情報処理装置、情報処理方法及びプログラム
TW201202936A (en) * 2010-07-08 2012-01-16 Hon Hai Prec Ind Co Ltd Portable electronic device
CN102456340A (zh) * 2010-10-19 2012-05-16 盛大计算机(上海)有限公司 基于互联网的卡拉ok对唱方法及系统
TWI480854B (zh) * 2010-11-04 2015-04-11 Fu Cheng Pan 攜帶型伴唱系統、伴唱方法及應用程式
CN102497448A (zh) 2011-12-26 2012-06-13 深圳市五巨科技有限公司 一种移动终端在线音乐播放的方法及系统
JP5811837B2 (ja) * 2011-12-27 2015-11-11 ヤマハ株式会社 表示制御装置及びプログラム
CN103295568B (zh) 2013-05-30 2015-10-14 小米科技有限责任公司 一种异步合唱方法和装置
US9224374B2 (en) * 2013-05-30 2015-12-29 Xiaomi Inc. Methods and devices for audio processing
CN203689074U (zh) * 2014-01-28 2014-07-02 福建海媚数码科技有限公司 一种嵌入式数字音效处理装置
TWM486220U (zh) * 2014-04-14 2014-09-11 Fair Sound Light Corp 家庭劇院與卡拉ok整合系統
CN203870973U (zh) * 2014-05-09 2014-10-08 黄运龙 一体式智能高效数字多媒体播放系统
CN104392711A (zh) * 2014-08-27 2015-03-04 贵阳朗玛信息技术股份有限公司 一种实现卡拉ok功能的方法及装置
TWM497842U (zh) * 2014-10-08 2015-03-21 Nat Taichung University Science & Technology 行動裝置之互動式娛樂平台
CN105845158A (zh) * 2015-01-12 2016-08-10 腾讯科技(深圳)有限公司 一种信息处理方法及客户端
JP2018519536A (ja) * 2015-05-27 2018-07-19 グァンジョウ クゥゴゥ コンピューター テクノロジー カンパニー リミテッド オーディオ処理方法、装置、およびシステム
CN104966527B (zh) * 2015-05-27 2017-04-19 广州酷狗计算机科技有限公司 K歌处理方法、装置以及k歌处理系统
CN105023559A (zh) * 2015-05-27 2015-11-04 腾讯科技(深圳)有限公司 K歌处理方法及系统
CN106815230B (zh) * 2015-11-27 2019-05-14 腾讯科技(深圳)有限公司 歌词页面生成方法及装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11877283B2 (en) 2018-09-19 2024-01-16 Sharp Kabushiki Kaisha Terminal device, base station device, and method

Also Published As

Publication number Publication date
EP3306607A4 (en) 2019-01-23
US10074351B2 (en) 2018-09-11
TW201642245A (zh) 2016-12-01
US20180158441A1 (en) 2018-06-07
JP6534452B2 (ja) 2019-06-26
TWI576822B (zh) 2017-04-01
JP2018519538A (ja) 2018-07-19
CN105023559A (zh) 2015-11-04
EP3306607A1 (en) 2018-04-11
WO2016188323A1 (zh) 2016-12-01

Similar Documents

Publication Publication Date Title
KR20180013997A (ko) 가라오케 처리 방법 및 시스템
KR102039239B1 (ko) 가라오케 처리 방법, 장치 및 시스템
US10097884B2 (en) Media playback method, client and system
JP6613347B2 (ja) 情報をプッシュする方法及び装置
US10403255B2 (en) Audio processing method, apparatus and system
CN108074557B (zh) 音调调整方法、装置及存储介质
CN103021401B (zh) 基于互联网的多人异步合唱混音合成方法及合成系统
EP3454328A1 (en) Computer implemented method for providing feedback of harmonic content relating to music track
TWI690895B (zh) 社交應用中擴展內容來源的方法及系統、用戶端和伺服器
CN105766001A (zh) 用于使用任意触发的音频处理的系统和方法
CN112086082A (zh) 电视k歌的语音交互方法、电视和存储介质
CN112037739B (zh) 一种数据处理方法、装置、电子设备
KR101813704B1 (ko) 사용자 음색 분석 장치 및 음색 분석 방법
KR101573868B1 (ko) 노래 가사 자동 디스플레이 방법, 노래 가사를 인식하는 서버 및 이 서버를 포함하는 노래 가사 자동 디스플레이 시스템
CN104954369A (zh) 多媒体内容的发送、生成和传输、播放方法和对应装置
JP7068955B2 (ja) カラオケシステム
CN108804665B (zh) 用于推送信息、接收信息的方法和设备
KR101458526B1 (ko) 공동음원 생성 서비스 시스템 및 그 방법, 그리고 이에 적용되는 장치
KR20060044147A (ko) 이동단말을 이용한 오프라인 가맹 업소에서 실시간 음원 선택과 선택된 음원의 실시간 스트리밍 서비스 제공 방법 및 그 시스템
JP2015194538A (ja) 情報処理装置、プログラム
JP2018036610A (ja) カラオケシステム
JP2002297153A (ja) 音楽データ配信システム、音楽データ配信装置、通信装置、音楽再生装置、コンピュータプログラム、及び記録媒体
JP2013210688A (ja) 配信装置、配信システム、および配信方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application