KR101136974B1 - 재생장치 및 재생방법 - Google Patents

재생장치 및 재생방법 Download PDF

Info

Publication number
KR101136974B1
KR101136974B1 KR1020050083814A KR20050083814A KR101136974B1 KR 101136974 B1 KR101136974 B1 KR 101136974B1 KR 1020050083814 A KR1020050083814 A KR 1020050083814A KR 20050083814 A KR20050083814 A KR 20050083814A KR 101136974 B1 KR101136974 B1 KR 101136974B1
Authority
KR
South Korea
Prior art keywords
data
content data
voice
audio content
audio
Prior art date
Application number
KR1020050083814A
Other languages
English (en)
Other versions
KR20060051123A (ko
Inventor
야스시 미야지마
고세이 야마시타
모토유키 다카이
요이치로 사코
도시로 데라우치
도루 사사키
유이치 사카이
Original Assignee
소니 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 주식회사 filed Critical 소니 주식회사
Publication of KR20060051123A publication Critical patent/KR20060051123A/ko
Application granted granted Critical
Publication of KR101136974B1 publication Critical patent/KR101136974B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/11Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information not detectable on the record carrier
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Abstract

재생장치는 음성 콘텐츠 데이터를 취득하는 제 1취득부와, 제 1취득부에 의해 취득된 음성 콘텐츠 데이터에 대응하는 부가 정보를 취득하는 제 2취득부와, 제 2취득부에 의해 취득된 부가 정보에 의거하여 제 1취득부에 의해 취득된 음성 콘텐츠 데이터에 신호 처리를 실시하고, 처리된 음성 콘텐츠 데이터를 출력하기 위한 신호 처리부를 포함한다.

Description

재생장치 및 재생방법{Playback apparatus and playback method}
도 1은 본 발명의 한 실시예에 따른 재생장치를 설명하는 블록도이다.
도 2a 내지 도 7b는 음성 콘텐츠 데이터에 실행된 편곡 처리의 다양한 모드를 설명하는 도면이다.
삭제
삭제
삭제
삭제
삭제
   도 8a, 도 8b 및 도 8c는 부가 데이터로서 제공되는 음악 정보와 대응하는 시간 정보를 지시하는 테이블의 예들을 설명하는 도면이다.
도 9는 원래 데이터 시계열 맵의 일례를 설명하는 도면이다.
도 10a, 도 10b 및 도 10c는 편곡 처리 정보를 나타내는 테이블의 구체적인 예들을 설명하는 도면이다.
도 11은 편곡 처리 시계열 맵의 일례를 설명하는 도면이다.
도 12 및 도 13 은 부가 데이터 판독부의 동작을 설명하는 플로차트이다.
도 14는 본 발명의 실시예에 따른 재생장치의 신호처리부의 동작을 설명하는 플로차트이다.
본 발명은 예를 들면, 컴펙트 디스크(CD), 미니 디스크(MD)(등록된 상표)), DVD(Digital Versatile Disc), 하드 디스크, 반도체 메모리 카드 등의 여러 가지의 기록매체나 인터넷 등의 네트워크를 통해서 제공되는 음성 콘텐츠 데이터의 재생장치 및 재생 방법에 관한 것이다.
휴대형의 실리콘 오디오 플레이어나 하드 디스크 음악 플레이어의 최근 폭넓은 사용에 따라, 수백~수만곡의 음악(음악 콘텐츠)을 재생장치 내부에 설치된 기록 매체로부터 기록 및 재생할 수 있다. 이것은 사용자가 휴대용 플레이어를 휴대가능하게 하고, 자신이 좋아하는 음악을 기록매체로부터 언제라도 재생해 들을 수 있게 한다.
수많은 음악이 기록 매체에 기록되고 재생할 수 있어, 사용자가 장시간 음악을 즐길 수 있다. 사용자는 재생 순서를 랜덤으로 변경하여 재생하는 이른바 "셔플(shuffle) 재생조작"을 실시함으로써 예상하지 못한 재생순서로 음악을 들을 수도 있어 사용자를 지루하게 하지 않는다. 알려진 오디오 플레이어는 그러나 미리 녹음된 음악을 단순하게 재생하고, 음악 수가 증가한다 해도 개별음악이 재생되는 음은 같다.
음악 비지니스 쇼에서 최근의 경향은 현존하는 음악을 편곡하여 제작된 다수의 리믹스(remix) 앨범이 발간되고 있음을 보이고 있다.
또, 디스크 자키(Disk Jockey)(DJs)는 기존의 음악을 사용하여 새로운 음악을 생산한다. 부가하여, 프로, 세미프로, 일반 사용자(음악 애호가)용으로 샘플링한 음성의 음조 또는 템포를 조정하여 음을 합성하기 위한 소프트웨어 및 하드웨어도 존재한다.
예를 들면, 특개(2003-044046호 공보(특허 문헌1))는 키보드나 마우스를 이용하여 사용자로부터 입력에 따라 복수의 음소재를 조합하여 음악을 대화식으로 편집하거나 재생하기 위한 정보처리 장치 및 방법이 기재되어있다. 이 공보에 기재된 기술을 이용함으로써 음소재가 비교적으로 쉽게 처리될 수 있다.
그러나, 상기 기술한 특허 문헌 1에 기재된 기술이나, 음악 편집을 위한 소프트웨어나 하드웨어는 어디까지나 어느 정도의 편곡 기술을 가진 사람을 위한 것이고, 일반사용자는 편곡된 음악만을 즐길 수 있다. DJ 등과 같은 일부 전문가(프로)는 실시간으로 편곡할 수 있다 해도, DJ의 능력, 기호, 취향에 따라 이러한 편곡이 크게 좌우된다.
따라서, 개인 사용자는 재생 템포, 재생 음조, 재생 음량 등을 간단하게 조정할 수 있도록 하거나 새로운 음성을 합성하거나 삽입하고 혹은, 사용자가 선호하는 부분을 여러 차례 반복하거나 음악의 불필요한 부분은 삭제할 필요가 있다.
상기 기술한 배경기술에서 본 발명은 많은 음성 콘텐츠 데이터를 쉽고 빠르게 독자적 편곡을 함으로써 다양한 모드로 음성 콘텐츠 데이터를 재생할 수 있는 재생장치 및 재생방법을 제공하기 위한 것이다.
본 발명의 실시예에 따르면 음성 콘텐츠 데이터를 취득하기 위한 제 1취득 수단과, 상기 제 1취득 수단에 의해 취득된 상기 음성 콘텐츠 데이터에 대응하는 부가 정보를 취득하는 제 2취득 수단과, 상기 제 2취득 수단에 의해 취득된 상기 부가 정보에 의거하여 상기 제 1취득 수단에 의해 취득된 상기 음성 콘텐츠 데이터에 신호 처리를 실시하고, 처리된 상기 음성 콘텐츠 데이터를 출력하기 위한 신호 처리 수단을 포함하는 재생장치가 제공되어있다.
상기 기술한 재생장치에 따르면, 신호처리는 제 2취득 수단에 의해 취득된 상기 부가 정보에 의거하여 상기 제 1취득 수단에 의해 취득된 상기 음성 콘텐츠 데이터 상에서 신호 처리수단에 의해 실행된다.
이 구성에 따라, 음성 콘텐츠 데이터는 신호처리가 된 후 변경될 수 있다. 따라서 콘텐츠는 원래 콘텐츠 데이터와 다른 모드로 사용자에게 제공될 수 있다.
신호 처리 수단은 상기 음성 콘텐츠 데이터에 대한 재생 템포를 조정하고, 재생음조를 조정하고, 재생 음량을 조정하고, 상기 음성 콘텐츠 데이터로의 적어도 하나의 음성 데이터를 합성하고, 적어도 하나의 음성 데이터를 삽입하고, 상기 음성 콘텐츠 데이터의 일부의 순서를 재배열(배치)하고, 일부를 반복하고, 일부를 삭제하고, 상기 음성 콘텐츠 데이터에 대한 효과에 적용되는 것 중에 적어도 하나를 실시할 수 있다.
이러한 편곡에 의해, 기존의 음성 콘텐츠 데이터로부터 재생된 콘텐츠는 음성 콘텐츠 데이터에 대응하는 부가 정보에 따라 여러 가지 모드로 편곡(어레인지)될 수 있고, 재생할 수 있는 편곡된 음성 콘텐츠 데이터의 콘텐츠가 사용자에게 제공될 수 있다. 따라서 기존 음성 콘텐츠 데이터는 다양한 새로운 모드로 재생되고, 사용자에게 제공될 수 있게 된다.
상기 부가 정보는 상기 음성 콘텐츠 데이터가 처리되는 부분을 특정하는 시간 정보와 대응할 수 있고, 상기 신호 처리 수단은 상기 시간 정보에 대응한 상기 부가 정보에 의거하여 상기 음성 콘텐츠 데이터의 일부에 신호 처리를 실시할 수 있다.
이러한 편곡에 따라, 부가 정보는 시간 정보에 의거하여 부가정보와 대응하는 음성 콘텐츠 데이터의 어느 부분을 특정할 수 있다. 이것은 신호 처리 수단이 음성 콘텐츠 데이터의 부분에 신호 처리를 쉽게 실시할 수 있게 한다.
부가 정보는 상기 음성 콘텐츠 데이터의 템포, 화음 진행, 음조, 음길이, 박자, 구조 정보, 악기의 종류 및 음량 중 적어도 하나를 포함할 수 있고, 상기 신호 처리 수단은 상기 부가 정보에 의거하여 신호처리를 실시하기 전에 상기 음성 콘텐 츠 데이터의 원래 상태를 식별할 수 있다.
이러한 편곡에 따라, 음성 콘텐츠 데이터 상에서 실행되는 신호 처리의 종류(형태)가 정확하게 특정될 수 있고, 이것에 의해 신호 처리수단이 적당한 신호처리를 실행할 수 있다.
구조 정보는 상기 음성 콘텐츠 데이터의 반복 패턴, 도입 부분, 하일라이트 부분, 제 1멜로디 부분, 제 2멜로디 부분, 후렴 부분(음악에서 다수번 반복되는 1~4 소절을 포함하는 강조 악구)중에 적어도 하나를 지시하는 시간 정보를 포함할 수 있고, 상기 신호 처리 수단은 상기 구조 정보에 의거하여 상기 음성 콘텐츠 데이터의 신호 처리 전의 원래의 데이터 구조를 식별할 수 있다.
이러한 편곡에 따라, 부가 정보는 음성 콘텐츠 데이터에 관계되는 구조 정보를 포함하고, 반복 패턴, 도입 부분, 하일라이트 부분 등과 같은 음성 콘텐츠 데이터의 구조가 이 구조 정보로부터 식별될 수 있다.
따라서, 반복을 증가하거나 줄이고, 도입 부분을 삭제하거나, 하일라이트 부분을 반복하는 등의 편곡은 신호처리수단에서 콘텐츠의 구조를 변경함으로써 쉽게 실시될 수 있다.
상기 부가 정보는 상기 음성 콘텐츠 데이터에 합성 혹은 삽입되기 위한 적어도 하나의 음성 데이터를 포함할 수 있고, 상기 신호 처리 수단은 상기 음성 콘텐츠 데이터로 상기 부가 정보에 포함된 음성 데이터를 합성 혹은 삽입할 수 있다.
이것에 의해 새로운 음성을 원래 음성 콘텐츠 데이터에(함께) 합성하거나 삽입함으로써 생성된 음성 콘텐츠 데이터를 사용자에게 제공하는 것이 가능하다.
상기 신호 처리 수단은 상기 부가 정보에 포함된 상기 음성 데이터에 템포의 조정, 음조의 조정, 음량의 조정, 효과의 적용중 적어도 하나를 실시함으로써, 상기 음성 콘텐츠 데이터로 상기 부가 정보에 포함된 음성 데이터를 합성 혹은 삽입할 수 있다.
이러한 편곡에 따라, 부가 정보에 포함된 음성 데이터는 적당하게 음성 콘텐츠 데이터에 합성하거나 삽입될 수 있다. 따라서, 이 결과 음성 콘텐츠 데이터로부터 재생된 콘텐츠는 인위적 느낌의 발생 없이 사용자에게 제공될 수 있다.
본 발명은 바람직한 실시예의 설명을 통해 첨부된 도면을 참조하여 이하에 상세하게 기술한다.
도 1에 나타낸 재생장치에서 재생동작은, CD나 MD 등과 같은 여러 가지의 기록 매체나, 또는 인터넷 등의 네트워크를 통하여 다수로 제공된 음악의 음성 콘텐츠 데이터(원래 데이터)에 원래 음성 콘텐츠 데이터와는 별개로 준비된 부가 정보를 이용하여 다양한 편곡을 행함으로써 실행될 수 있다.
도 1에 나타낸 재생장치는, 음성 콘텐츠 데이터 처리계(10), 부가 데이터(부가 정보) 처리계(20), 출력(용) 데이터 처리계(30), 제어부(40), 시간계측부(50)과 음성 콘텐츠 데이터/부가 데이터 대응 데이터베이스(이하, 간단히 대응 DB라고 한다)(60)를 포함한다.
음성 콘텐츠 데이터 처리계(10)는 도 1에 나타내는 바와 같이, 콘텐츠 데이터 기억부(11), 콘텐츠 데이터 판독부(12), 디코더부(13)와 콘텐츠 데이터 신호 처리부(14)를 포함한다. 음성 콘텐츠 데이터 처리계(10)는 콘텐츠 데이터 기억부(11)로부터 재생되는 음성 콘텐츠 데이터를 판독하고(취득하고), 판독된 음성 콘텐츠 데이터에 다양한 편곡을 행하는 처리를 실시한다.
부가 데이터 처리계(20)는 도 1에 나타내는 바와 같이, 부가 데이터 기억부 (21), 부가 데이터 판독부(22), 디코더부(23), 부가 데이터 신호 처리부(24)와, 전자음악기기(Musical Instrument Digital Interface) 발음부(25)를 포함한다. 부가 데이터 처리계(20)는 음성 콘텐츠 데이터 처리계(10)에서 처리되는 음성 콘텐츠 데이터에 대응하는 부가 데이터를 판독하고(취득하고), 취득된 부가 데이터에 의거하여 신호처리 형태를 음성 콘텐츠 데이터 처리계(10)로 통지한다. 부가 데이터 처리계(20)는 재생하고자 하는 음성 콘텐츠 데이터로 처리된 음성데이터를 합성하거나 삽입할 수 있도록 부가 데이터에 포함된 음성 데이터에 대한 처리를 실시한다.
출력 데이터 처리계(30)는 도 1에 나타낸 것처럼, 음성 가산/편집부(31)와, 출력신호처리부(32)와, 디지털-아날로그 변환부(D/A converter)(33)와, 스피커로서 출력장치부(34)를 포함하고 있다. 출력 데이터 처리계(30)는 음성 콘텐츠 데이터 처리계(10)로부터 제공된 처리된 음성 콘텐츠 데이터로 부가 데이터 처리계(20)로부터 제공된 음성 데이터를 가산(합성)하거나 삽입하고, 혹은, 음성 콘텐츠 데이터 처리계(10)로부터 제공된, 처리된 음성 콘텐츠 데이터의 일부분을 삭제하거나 처리된 음성 콘텐츠 데이터의 순서를 재배치(배열)한다. 출력 데이터 처리계(30)는 출력되는 음성 콘텐츠 데이터에 효과 처리도 실시할 수 있다.
제어부(40)는 도 1에 나타낸 바와 같이 중앙처리장치(CPU)(41), ROM(Read Only Memory)(42), RAM(Random Access Memory)(43)을 포함하는 마이크로 컴퓨터이며, 이 실시예의 재생장치의 각부를 제어하는 것이다. 제어부(40)에 사용자로부터의 조작 입력을 받아들이는 조작부(45)가 접속되어 있다. 따라서, 제어부(40)는 조작부(45)를 이용하여 사용자로부터의 입력에 따라 각부를 제어할 수 있다.
시간 계측부(50)는 콘텐츠 데이터 판독부(12), 부가 데이터 판독부(22), 부가 데이터 신호 처리부(24), MIDI 발음부(25)에서 처리용 시간을 제공하는 소위"타이밍 제어 기능"을 가지고 있다. 또, 대응 DB(60)는 재생되어야 할 음성 콘텐츠 데이터와 대응하는 부가데이터 사이에 대응을 관리한다.
음성 콘텐츠 데이터 처리계(10)에서 콘텐츠 데이터 판독부(12)는 조작부(45)를 이용해서 사용자로부터 입력에 따라 기록된 음악의 음성 콘텐츠 데이터를 판독한다. 이 경우, 음악제공원은 도 1에 나타낸 것처럼, CD, DVD 혹은 MD등의 디스크 매체(11a), 자기 디스크(11b), 반도체 메모리(11c)나 서버나 피어 투 피어(Peer to Peer)로 접속되는 퍼스널 컴퓨터, WAN(Wide Area Network)나 LAN(Local Area Network)등의 네트워크(11d)를 포함한다.
따라서, 음성 콘텐츠 데이터의 제공원이 CD 혹은 DVD혹은 MD등과 같은 광디스크(11a), 광학 자기 디스크인 경우에는, 콘텐츠 데이터 판독부(12)는 광픽업이 제공되어있다. 음성 콘텐츠 데이터의 제공원이 자기 디스크(11b)인 경우에는, 콘텐츠 데이터 판독부(12)는 자기 헤드가 제공되어있다. 음성 콘텐츠 데이터의 제공원이 반도체 메모리(11c)의 경우에는 콘텐츠 데이터 판독부(12)에 메모리에 액세스하는 액세스 수단이 제공된다. 또, 음성 콘텐츠 데이터의 제공원이 네트워크(11d)인 경우에는 콘텐츠 데이터 판독부(12)는 네트워크 접속 기능을 갖춘 통신부가 제공된다.
데이터 판독부(12)에 의해 판독된 음성 콘텐츠 데이터가 ATRAC (Adaptive Transform Acoustic Coding)방식이나 MP3(MPEG-1 Audio Layer-3)방식과 같은 데이터 압축 기술에 의해 압축되면, 디코더부(13)는 대응 압축 방법에 따라 음성 콘텐츠 테이터를 선형 펄스 코드 변조(Pulse Code Modulation) 데이터로 변환하도록 디코드 처리하고, 변환된 데이터를 콘텐츠 데이터 신호 처리부(14)에 공급한다.
삭제
한편, 부가 데이터 처리계(20)의 부가 데이터 판독부(22)는 제어부(40)의 제어하에 콘텐츠 데이터 처리계(10)의 콘텐츠 데이터 판독부(12)에 의해 판독된 음성 콘텐츠 데이터에 대응하는 부가 데이터를 판독한다. 이 실시예에서, 재생하고자하는 음성 콘텐츠 데이터와 이것에 대응하는 부가 데이터에는 같은 식별자가 부가되어 있어, 음성 콘텐츠 데이터와 대응 부가 데이터는 서로 확실히 대응될 수 있다.
음성 콘텐츠 처리계(10)와 같이, 부가 데이터를 기억하는 매체는 디스크 매체(21a)이며, 예를 들면, CD 또는 DVD와 같은 광디스크나 혹은 MD, 자기 디스크(21b), 반도체 메모리(21c)와 같은 자기광학 디스크, 혹은 WAN(Wide Area Network) 또는 LAN(Local Area Network)과 같은 네트워크(21d) 등이다. 즉, 어떤 종류의 매체도 음성 콘텐츠 데이터의 기록이나 판독을 할 수 있는 한 이용될 수 있다.
이 실시예의 부가 데이터 판독부(22)는 예를 들면, 부가 데이터에 포함되어 있는 편곡처리를 실행하기 위한 다양한 데이터로부터 데이터 테이블과 데이터 맵을 형성하도록 CPU나 메모리가 제공되어 있고, 생성된 데이터 테이블 및 데이터 맵을 이하에 상세하게 설명될 필요한 요소(부)들에 공급한다.
부가 데이터에 포함된 편곡처리용 음성 데이터는 부가 데이터 판독부(22)로부터 부가데이터 신호 처리부(24)까지 제공된다.
부가 데이터에 포함된 편곡 처리 음성 데이터가 압축되었을 경우 해당 압축방법에 따라 디코더부(23)에서 디코드되고, 선형 PCM 데이터로 변환된다. 변환된 데이터는 부가 데이터 신호 처리부(24)에 공급된다. 또, MIDI 데이터가 부가 데이터에 포함되는 경우 부가 데이터 판독부(22)로부터 MIDI 발음부(25)까지 (MIDI 데이터가)공급되고, 선형 PCM데이터로 변환된다.
시간 계측부(50)는 재생하려고하는 음성 콘텐츠 데이터에 대한 재생 시간 및 재생 위치를 관리하고, 재생 시간 및 재생 위치에 의거하여 음성 콘텐츠 데이터 및 부가 데이터에 필요한 부분을 판독하기 위해 콘텐츠 데이터 판독부(12) 및 부가 데이터 판독부(22)의 데이터의 판독 타이밍(시간) 및 판독위치를 제어한다.
음성 콘텐츠 데이터 처리계(10)의 콘텐츠 데이터 신호 처리부(14)는 부가 데이터 처리계(20)의 부가 데이터 판독부(22)로부터의 편곡처리용 음성 데이터를 수신받고, 이 수신된 편곡처리용 음성 데이터에 의거하여, 음성 콘텐츠 데이터에 의해 얻어진 콘텐츠(재생 음성)를 변경(편곡)하기 위해 음성 콘텐츠 데이터에 신호 처리를 실시한다. 보다 구체적으로는, 이하 상세히 설명될 콘텐츠 데이터 신호 처리부(14)가 템포, 음조 혹은 효과의 적용, 음량 등의 조정(변경)을 한다.
부가 데이터 처리계(20)의 부가 데이터 신호 처리부(24)는 부가 데이터에 포함된 편곡처리용 음성 데이터를 부가 데이터에 포함되는 정보에 의거하여 소정의 신호 처리를 실시함으로써 변경한다. 구체적으로는, 부가 데이터 신호 처리부(24)는 후술 하지만, 템포, 음조, 효과의 적용, 음량 등을 조정한다. 이와 같이 편곡처리용 음성 데이터에 대한 신호 처리를 실시함으로서, 편곡처리용음성 데이터는 원래 음성 콘텐츠 데이터로 합성되거나 삽입될 수 있다. 부가 데이터에 편곡처리용 음성 데이터가 포함되지 않는 경우에는 부가 데이터 신호 처리부 (24)에 대한 처리가 실시되지 않는다.
편곡처리용 음성 데이터로서 부가 데이터에 MIDI음성 발음데이터(MIDI 데이터)가 포함되는 경우에는, MIDI데이터는 MIDI발음부(25)에 공급된다. MIDI발음부(25)는 MIDI음원이 제공되어 있고, 부가 데이터 판독부(22)로부터 제공된 MIDI데이터 및 시간 계측부(50)로부터의 타이밍에 의거하여, MIDI발음부(25)의 MIDI음원이 구동되어 발음 결과가 선형PCM 데이터로서 출력되고, 선형PCM데이터는 그 후 음성 가산/편집부(31)에 공급된다.
편곡처리용 음성 데이터는 반드시 1개(항목)가 필요한 것이 아니고, 동일시간에 복수의 음성 데이터를 합성할 수 있다. 선택적으로 음성 데이터는 시간축상의 개별 시간점에 전환되고 그 후 합성될 수 있다.
위와 같이, 음성 콘텐츠 데이터 처리계(10)는 재생하여할 음성 콘텐츠 데이터가 취득되고, 부가 데이터 처리계(20)의 부가 데이터 판독부(22)에 의해 판독된 부가데이터에 포함된 편곡처리용 데이터에 의거하여 이 취득된 음성 콘텐츠 데이터 에 신호 처리를 실시한다.
또, 부가 데이터 처리계(20)에서 재생할 음성 콘텐츠 데이터에 대응한 부가 데이터가 취득되고, 이 취득한 부가 데이터에 포함되는 음성 콘텐츠 데이터를 편곡하기 위한 편곡처리용 정보를 음성 콘텐츠 데이터 처리계(10)의 콘텐츠 데이터 신호 처리부(14)에 공급한다. 부가 데이터 신호 처리부(24)는 부가 데이터에 포함되는 편곡처리용 음성데이터를 처리하고, 출력 데이터 처리계(30)의 음성 가산/편집부(31)에 처리된 편집처리용 음성 데이터를 공급하고, 음성 콘텐츠 데이터의 편집 처리에 관한 정보를 음성 가산/편집부(31)에 공급하는 처리를 실시한다.
음성 가산/편집부(31)는 부가 데이터 신호 처리부(24) 혹은 MIDI발음부(25)로부터 제공된 편집처리용 음성 데이터를 콘텐츠 데이터 신호 처리부(14)로부터 공급된 음성 콘텐츠 데이터에 가산한다. 음성 가산/편집부(31)는 음성 콘텐츠 데이터의 복수의 구간의 순서를 재배치하거나 신호 처리부(14)로부터의 제공된 음성 콘텐츠 데이터의 소정의 구간을 삭제하거나 반복부분을 변경하는 등의 편집 처리도 실시한다.
음성 가산/편집부(31)로부터 출력된 처리된 음성 콘텐츠 데이터 출력용 신호 처리부(32)에 공급된다. 편곡처리용 음성 데이터가 존재하지 않는 경우나, 음성 콘텐츠 데이터에 대한 편집 처리가 부가 데이터에 의해서 지시받지 않은 경우에는, 음성 가산/편집부(31)는 가산 처리, 편집 처리를 실시하지 않고, 콘텐츠 데이터 신호 처리부(14)로부터 음성 콘텐츠 데이터를 직접 출력용 신호 처리부(32)에 공급한다. 음성 가산/편집부(31)는 가산 처리와 편집 처리중 하나만을 실시할 수 있다.
출력용 신호 처리부(32)는 부가 데이터에 의거하여, 혹은 제어부(40)의 제어하에 음성 가산/편집 처리부(31)로부터 제공된 음성 콘텐츠 데이터에, 효과 처리 및 음량 조정 처리와 같은 최종적인 처리를 실시한다. 출력용 신호 처리부(32)는 리버브(잔향=reverb) 혹은 메아리 처리 등의 여러 가지의 효과 처리를 실시할 수 있다.
그 후 출력용 신호 처리부(32)로부터의 음성 콘텐츠 데이터는 D/A변환부(33)에 공급된다. 음성 콘텐츠 데이터는 아날로그 음성 신호로 변환되고 그후 스피커 등의 출력장치에 공급된다. 이 구성에 의해 음성 콘텐츠 데이터 처리계(10)에 의해 판독된 음성 콘텐츠 데이터는 부가 데이터 처리계(20)에 의해 판독된 부가 데이터에 따라 편곡된다. 이 편곡된 음성 콘텐츠 데이터는 출력장치(34)로부터 대응(해당)음성을 출력하기 위해 재생된다. 이후 사용자는 편곡된 음성 콘텐츠 데이터에 대응하는 음성을 청취할 수 있다.
또, 상술의 설명으로부터 보는 바와 같이, 이 실시예에서 콘텐츠 데이터 판독부(12)는 재생할 음성 콘텐츠 데이터를 취득하기 위한 제 1취득 부로서의 기능을 가지고 있고. 부가 데이터 판독부(22)는 재생할 음성 콘텐츠 데이터에 대응하는 부가 데이터를 취득하는 제 2취득부으로서의 기능을 갖추고 있다.
콘텐츠 데이터 신호 처리부(14)는 부가 데이터 신호 처리부(24), MIDI 발음부(25), 음성 가산/편집부(31) 및 출력용 신호 처리부(32)는 재생할 음성 콘텐츠 데이터를 편곡하기 위한 신호 처리부로서의 기능을 실행한다.
대응DB(60)는 음성 콘텐츠 데이터와 부가 데이터 사이의 대응(부)를 관리하기 위한 데이터베이스이며, 사용자에게 부가 데이터에 대응하는 음성 콘텐츠 데이터로부터 특정하거나 대응 부가 데이터로부터 음성 콘텐츠 데이터를 특정할 수 있는 것이다. 이 대응DB(60)는 필수는 아니지만 음성 콘텐츠 데이터를 사용자가 수작업으로 찾는 수고를 생략하거나 음성 콘텐츠 데이터로부터 이용할 수 있는 부가 데이터를 리스트업할 수 있게 한다. 따라서, 대응 DB(60)의 공급은 편리성을 향상시킨다.
다양한 데이터 구조는 대응DB(60)용으로 고려될 수 있다. 대응DB(60)는 음성 콘텐츠 데이터와 부가 데이터 사이의 대응(부)을 간단하게 관리하거나, 데이터를 음성 콘텐츠 데이터의 장르나 아티스트 등에 따라 분류하거나 부가 데이터의 편곡 처리의 종류(형태)에 따라 분류할 수 있다.
대응DB(60)는 로컬 시스템내에서 관리될 수 있고, 인터넷 등의 광역 네트워크상의 서버에서 중심적으로 관리될 수 있다. CD데이터베이스(CDDB)와 같은 기구를 이용함으로써, 목적으로 하는 음성 콘텐츠 데이터에 편곡하기 위한 부가 데이터는 콘텐츠 데이터의 곡명이나 앨범명과 함께 다운로드 될 수 있다.
이 대응된 음성 콘텐츠 데이터가 기록되는 것과 같은 소스로 제공되면서 기록될 수 있다. 즉, 음성 콘텐츠 데이터와 이것에 대응된 부가 데이터는 같은 디스크 기록매체, 자기 디스크 혹은 반도체 메모리에 기록될 수 있다.
선택적으로, 음성 콘텐츠 데이터와 이것에 대응된 부가 데이터는 네트워크상의 서버 장치로 기억될 수 있다.
이 경우에는 음성 콘텐츠 데이터 판독부(12) 및 부가 데이터 판독부(22)와 같은 구조의 판독부가 사용된다. 이 판독부는 판독된 부가 데이터를 추출하고 분리하고, 필요한 요소(부)들에 공급하는 기능을 가지고 있다.
더욱 자세하게, 판독부는 콘텐츠 데이터 신호 처리부(14), 음성 가산/편집부(31), 출력용 신호 처리부(32)에 공급되는 다양한 편곡처리를 지시하기 위한 편곡 정보와 디코더부(23)나 부가 데이터 신호 처리부(24)에 공급하는 편곡처리용 음성 데이터와 MIDI발음부(25)에 공급하는 편곡처리용 음성 데이터인 MIDI데이터를 분리 및 추출하고, 그 추출된 정보 및 데이터를 대응하는 요소들에 공급하는 기능을 가지고 있다.
부가 데이터 판독부(22)에 의해 판독된 부가 데이터에 의거하여 콘텐츠 데이터 판독부(12)에 의해 판독된 목표 테이블 음성 콘텐츠 데이터에 실행된 편곡처리의 구체적인 예를 이하 도 2a 내지 도 7b를 참조하여 설명한다.
이하에 설명하는 편곡처리는,상술한 바와 같이, 각각 콘텐츠 데이터 신호 처리부(14), 부가 데이터 신호 처리부(24), MIDI 발음부(25), 음성 가산/편집부(31) 및 출력용 신호처리부(32)로 실시되거나 상기 기술한 요소들의 기능을 합성함으로써 실시된다.
이 실시예의 재생장치는 음성 콘텐츠 데이터에 실행된 편곡처리는 템포, 음조, 음량, 효과 적용, 팬(pan)설정, 편곡처리용 음성 데이터의 부가(합성) 및 삽입, 스킵(skipping), 반복 재생, 데이터의 순서 재편집의 조정(변경)을 포함한다. 상기 기술한 편곡처리 형태는 개별적으로 이하에 기술된다.
우선, 음성 콘텐츠 데이터의 템포의 조정(변경)에 대해 도 2a를 참조하여 설명한다. 도 2a에서 (1)은 재생할 음성 콘텐츠 데이터(원래 음성 콘텐츠 데이터 )의 파형을 나타내고, (2)는 (1)에 지시된 원래(original) 음성 콘텐츠 데이터의 템포를 빠르게 함으로써 생성한(편곡된) 음성 콘텐츠 테이터를 나타낸다.
원래 음성 콘텐츠 데이터의 템포를 증가했을 경우에는 도 2a의(2)에 나타낸 것처럼, 편곡된 음성 콘텐츠 데이터의 재생 시간은 원래 음성 콘텐츠 데이터의 재생 시간보다 짧아진다. 반대로 원래 음성 콘텐츠 데이터의 템포를 느리게 했을 경우에는 편곡된 음성 콘텐츠 데이터의 재생 시간은 원래 음성 콘텐츠 데이터의 재생 시간보다 길어진다.
위와 같이, 이 실시예에서 음성 콘텐츠 데이터의 템포의 조정은 재생할 원래음성 콘텐츠 데이터(오리지날 데이터)의 전체 혹은 부분에 음조를 변경하지않고 템포만을 빠르게 하거나 늦게 하는 것에 의해서 실행된다.
다음에, 음성 데이터의 음조의 조정은 도 2b를 참조하여 이하에 기재된다. 도 2b에서 (1)은 재생할 원래 음성 콘텐츠 데이터의 파형을 나타내고, (2)는 (1)에 지시된 원래 음성 콘텐츠 데이터의 음조를 조정함으로써 생성된 처리된 음성 콘텐츠 데이터의 파형을 나타낸다.
이 실시예에서 음조의 조정은 재생할 원래 음성 콘텐츠 데이터의 전체 혹은부분에 템포를 변경하지 않고 음조 올리거나 내리는 것에 의해 실시된다. 따라서, 증가된 음조를 가지는 음성 콘텐츠 데이터에의 재생 음성은 높아지고, 반대로 감소된 음조를 가지는 음성 콘텐츠 데이터의 재생 음성은 낮아지게 된다.
음성 콘텐츠 데이터의 음량의 조정은 도 3a를 참조하여 이하에 기술된다. 도 3a에서 (1)는 재생할 원래 음성 콘텐츠 데이터의 파형을 나타내고, (2)는 (1)의 원래 음성 콘텐츠 데이터의 중앙 부분(도 3a에서 a와 b로 지시됨)에 음량을 줄임으로써, 음량을 다시 증가함으로써 생성된 편곡된 음성 콘텐츠 데이터의 파형을 나타낸다.
상기 기술한 바와 같이, 이 실시예에서 음량의 조정은 원래 음성 콘텐츠 데이터 전체 혹은 부분에 실행된다.
효과의 적용은 도 3b를 참조하여 이하에 기재된다. 도 3b에서 (1)는 재생할 원래 음성 콘텐츠 데이터(오리지날 데이터)의 파형을 나타내고, (2)는 (1)의 원래 음성 콘텐츠 데이터의 중앙부분(도 3b에서 a와 b로 지시됨)에 효과로서 왜곡을 적용함으로써 생성된 편곡된 음성 콘텐츠 데이터의 파형을 나타낸다.
상기 기술한 바와 같이, 이 실시에서, 음성 콘텐츠 데이터로 효과의 적용은 재생할 원래 음성 콘텐츠 데이터의 전체 혹은 부분에 실행된다. 효과 신호처리의 구체적인 예는 상기 기술한 왜곡뿐만 아니라 리버브, 코러스(chorus), 이퀄라이저, 로우패스 필터(Low Pass Filter)처리, 하이패스 필터(High Pass Filter)처리를 포함한다.
삭제
팬(pan)조정은 도 4를 참조하여 이하에 기술한다. 도 4에서 (1)는 재생할 원래 음성 콘텐츠 데이터의 파형을 나타내고, (2)와 (3)은 (1)의 원래 음성 콘텐츠 데이터의 파형으로부터 생성된 L(왼쪽) 채널의 음성 콘텐츠 데이터의 파형 및 R(오른쪽) 채널의 음성 콘텐츠 데이터의 파형을 나타낸다.
도 4에 나타낸 예에서 음성 콘텐츠 데이터의 중앙 부분(도 4에서 a와 b로 지시됨)에 (2)의 L채널의 음성 콘텐츠 데이터와 (3)의 R채널의 음성 콘텐츠 데이터를 연속하여 출력될 수 있도록 좌우의 밸런스가 조정된다. 이러한 편곡에 따라 음성 콘텐츠 데이터가 재생될 때 음성이 L채널로부터 R채널까지 이동된다. 이 실시예에서 복수(다수)의 채널의 음성 콘텐츠 데이터의 밸런스를 조정함으로써 음상을 이동시키기 위한 처리를 "팬(pan)설정"으로 언급한다.
도 4에 대해서는, L(왼쪽) R( 오른쪽) 2 채널의 음성 콘텐츠 데이터가 처리된다. 그러나 4채널 또는 5.1 채널을 이용하는 복수(다수)의 채널 시스템에서 왼쪽 및 오른쪽 음상의 공간적 위치뿐만 아니라, 전후, 상하 등의 음상의 공간적 위치도 변경(이동)될 수 있다.
편곡처리용 음성 데이터의 합성(가산)을 도 5를 참조하여 기술한다. 도 5에서 (1)은 재생할 원래 음성 콘텐츠 데이터의 파형을 나타내고, (2) 및 (3)은 원래 음성 콘텐츠 데이터에 합성되는 편곡처리용 음성 데이터의 파형을 나타내고, (4)는 (2) 및 (3)의 편곡처리용 음성 데이터를 합성(가산)함으로써 얻어진 편곡된 음성 콘텐츠 데이터의 파형을 나타낸다.
즉, 도 5에 나타내는 예의 경우에는 (1)에 나타낸 원래 음성 콘텐츠 데이터에 상술한 바와 같은, 부가 데이터에 포함된 (2) 및 (3)에 지시된 편곡처리용 음성 데이터가 가산(처리)됨으로써 (4)에 나타낸 편곡된 음성 콘텐츠 데이터가 생성될 수 있다.
상기 기술한 바와 같이, 이 실시예에서 편곡처리용 음성 데이터의 합성은 원 래 음성 콘텐츠 데이터의 소정의(특정의) 위치에 소정의 길이를 형성하는 적어도 하나의 편곡처리용 음성 데이터를 부가하는 것이다. 이 편곡에 따라, 원래 음악과는 다른 음성 데이터를 적어도 하나를 합성함으로써 원래의 음악에 포함되지 않았던 악기(부분)나 보컬(부분)이 부가될 수 있다.
편곡처리용 음성 데이터의 삽입은 도 6a를 참조하여 이하에 기술한다. 도6a는 편곡처리용 음성 데이터의 삽입에 대해 설명하기 위한 도이다.도 6 A에 대하고, (1)는 재생할 원래 음성 콘텐츠 데이터의 파형을 나타내고, (2)는 (1)에 지시된 원래 음성 콘텐츠 데이터의 일부분에 편곡처리용 음성 데이터를 삽입함으로써 생성한 편곡된 음성 콘텐츠 데이터의 파형을 나타낸다.
도 6a에 나타내는 예의 경우 (2)에 나타낸 음성 콘텐츠 데이터는 위치a에서 위치b까지 음성 콘텐츠 데이터를 후퇴이동시킴으로써 (1)에 원래 음성 콘텐츠 데이터의 위치a에서 위치b까지의 구간에 새로운 음성 데이터인 편곡처리용 음성 데이터를 삽입함으로써 형성한 것이다.
원래 음성 콘텐츠 데이터의 소정의 위치에 소정의 길이를 가지는 편곡처리용 데이터를 적어도 하나 삽입은 "편곡처리용 음성 데이터의 삽입"으로써 언급되었다. 삽입기술을 이용하는 것으로, 원래 음성 콘텐츠 데이터에는 포함되어 없었던 악기나 보컬 등의 새로운 파트, 혹은, 삽입용의 새로운 음성 데이터가 원래 음성 콘텐츠 데이터에 부가될 수 있다. 따라서 새로운 음성 콘텐츠 데이터(편곡된 데이터)를 형성할 수 있다, 상술한 원래 음성 컨텐츠 데이터에 편곡처리용 음성 데이터의 합성(가산)과는 다른 편곡처리용 음성 테이터의 삽입은 새로운 음성 데이 터에서 시간부(time portion)를 후퇴이동시켜 삽입한다.
음성 콘텐츠 데이터의 스킵(skipping)은 도 6을 참조하여 이하에 기술된다. 도 6에서 (1)은 재생할 원래 음성 콘텐츠 데이터의 파형를 나타내고, (2)는 (1)에 원래 음성 콘텐츠 데이터의 부분을 스킵함으로써 형성된 편곡된 음성 콘텐츠 데이터의 파형을 나타낸다.
삭제
도 6b에 나타내는 예에서 (2)에 편곡된 음성 콘텐츠 데이터는 위치a로부터 위치b까지의 원래 음성 콘텐츠 데이터를 스킵하고, 위치b 이후의 음성 콘텐츠 데이터를 처리한다. 따라서, (2)에 나타낸 편곡된 음성 콘텐츠 데이터는 (1)에서 위치 a로부터 위치 b까지의 구간의 음성 콘텐츠 데이터를 스킵함으로써(재생이 아님) 형성될 수 있다.
음성 콘텐츠 데이터의 반복 재생조작을 도 7a를 참조하여 이하에 기술한다. 도 7a에서 (1)은 재생할 원래 음성 콘텐츠 데이터의 파형을 나타내고, (2)는 (1)에 원래 음성 콘텐츠 데이터의 한 구간에(위치 a로부터 위치 b까지의 구간)반복 재생조작를 실행함으로써 형성된 처리된 음성 콘텐츠 데이터의 파형을 나타낸다.
도 7a에 나타내는 예에서 (2)에 음성 콘텐츠 데이터는 (1)에서 원래 음성 콘텐츠 데이터의 위치 a위치에서 b위치까지의 구간이 4회 반복하도록 형성되어있다. 따라서 도 7a의 화살테이블로 지시한 바와 같이,(2)에 음성 콘텐츠 데이터에서 a위치에서 b위치까지의 구간이 4회 반복되고, b위치 이후의 음성 콘텐츠 데이터가 계속된다(따라온다).
상기 기술한 바와 같이, 음성 콘텐츠 데이터의 반복 재생조작에 따라서 원래 음성 콘텐츠 데이터의 소정의 구간(데이터)을 적어도 2회 반복함으로써 새로운 음성 콘텐츠 데이터가 형성된다.
음성 콘텐츠 데이터의 순서의 재편집은 도 7b를 참조하여 이하에 기술한다. 도 7b에서 (1)는 재생할 원래 음성 콘텐츠 데이터의 파형을 나타내고, (2)는 (1)의 원래 음성 콘텐츠 데이터의 순서를 재편곡함으로써 형성된 편곡된 음성 콘텐츠 데이터의 파형을 나타낸다.
도 7b에 나타낸 예에서 (2)에서 음성 콘텐츠 데이터는 (1)에서 원래 음성 콘텐츠 데이터의 a에서 b까지의 구간의 데이터와 b에서 c까지의 구간의 데이터의 순서를 도 7b에 화살테이블로 나타낸 것처럼 재편곡함으로써 형성된다. 이와 같은 방식으로 원래 음성 콘텐츠 데이터의 소정의 구간의 순서를 재편곡함으로써 새로운 음성 콘텐츠 데이터가 생성될 수 있다.
도 2a~ 도 7b까지 나타낸 편곡처리의 적어도 하나, 더욱 바람직하게는 적어도 2개의 종류를 적용함으로 원래 음성 콘텐츠 데이터는 극적으로 변경될 수 있다.
상술한 편곡(어레인지)처리에서 재생할 원래 음성 콘텐츠 데이터의 템포, 음조(음조)의 조정은 음성 콘텐츠 데이터 처리계(10)의 콘텐츠 데이터 신호 처리부 (14)에 의해 실행되고, 편곡처리용 음성 데이터의 템포, 음조의 조정은 부가 데이터 처리계(24)에 의해 실행된다.
팬설정, 편곡처리용 음성 데이터의 합성, 편곡처리용 음성 데이터의 삽입, 스킵(skipping), 반복 재생 및 음성 콘텐츠 데이터의 순서의 재편곡은 출력 데이터 처리계(30)의 음성 가산/편집부(31)에 의해 실시된다. 음량의 조정, 효과의 적 용은 출력 데이터 처리계(30)의 출력용 신호 처리부(32)에 의해 실시된다.
소정의 효과를 적용 혹은 음량을 조정은 원래 음성 콘텐츠 데이터만 실시되는 것이 바람직하다면, 대응처리는 음성 콘텐츠 데이터 처리계(10)의 콘텐츠 데이터 신호 처리부(14)에서 실시될 수 있다.
반대로, 이러한 처리가 편곡처리용 음성 데이터에만 실시되는 것이 바람직하다면 대응처리는 부가 데이터 처리계(20)의 부가 데이터 신호 처리부(24)에서 실시될 수 있다.
도 1을 참조하여 기술된 바와 같이, 이 실시예의 재생장치는 재생해야할 원래 음성 콘텐츠 데이터를 편곡하기 위해 원래 음성 콘텐츠 데이터에 대응하는 부가 데이터가 요구된다.
이 부가 데이터는 크게 음성 콘텐츠 데이터의 기존 상태를 나타내는 음악정보와, 음성 콘텐츠 데이터나 편곡처리용 음성 데이터에 실시된 편곡처리에 관계되는 편곡처리정보 및 원래 음성 콘텐츠 데이터로 편곡처리용 음성 데이터를 합성하거나 삽입하거나 하는 편곡처리용 음성데이터로 나누어질 수 있다.
보다 구체적으로는, 부가 데이터는 (1) 재생할 원래 음성 콘텐츠 데이터에 관계되는 음악 정보와 대응하는 시간 정보, (2) 원래 음성 콘텐츠 데이터에 관계되는 구조 정보에 대응하는 시간 정보, (3) 편곡처리용 음성 데이터, (4) 편곡처리용 음성데이터에 관계되는 음악 정보와 대응하는 시간 정보, (5) 원래 음성 콘텐츠 데이터에 실행된 편곡처리에 관계되는 편곡처리용 정보와 대응하는 시간 정보를 포함한다.
즉, 정보 항목(items)(1) 및 (2)는 정보가 (재생할) 원래 음성 콘텐츠 데이터의 기존의 상태를 나타내는 음악 정보이고, 정보 항목(items)(4 및 5)은 편곡처리의 형태(종류)를 나타내는 편곡처리정보이고, 정보(3)는 편곡처리용 (음성) 데이터 그 자체이다. 이하에 부가 데이터를 구성하는 개별항목 정보(1)~(5)가 상세하게 기술된다.
우선, 원래 음성 콘텐츠 데이터에 관계되는 음악 정보와 대응하는 시간 정보(1)가 먼저 기술된다. 여기서, 원래 음성 콘텐츠 데이터에 관계되는 음악 정보는 음성 콘텐츠 데이터를 재생함으로써 출력된 음악의 템포, 스케일(키), 화음 진행, 분당 박자(비트)(BPM=Beats per Minute), 박자 정보(드럼 패턴), 박자, 음량(peak,loudness) 및 음테이블정보에 관계되는 정보를 포함한다.
템포는 음악 속도이며, 스케일(키)은 예를 들면 C 장조, D 장조 악곡, 음악의 으뜸음의 위치에 따라 결정된 음악의 특성이고, 화음 진행은 악곡의 한 화음에서 다른 화음으로의 이동이다. 또, BPM는 1분당의 박자수(4/4 박자의 악곡의 경우, 4분 음테이블의 수)이고, 박자 정보는 이 예에서는 리듬 패턴(드럼 패턴)을 나타낸다. 박자는 리듬을 기초로 한 2박자, 3박자 등과 같은 펄스 수이다. 음량은 음성의 피크 혹은 크기(level) 및 음테이블 정보는 예를 들면 MIDI데이터와 같은 악곡을 구성하는 음테이블를 나타낸다.
삭제
상기 기술한 음성 정보의 요구된(필요한) 요소들은 상세정보가 이 정보의 개시 시간 및 종료 시간을 나타내는 시간 정보에 대응할 수 있도록 부가 정보내에 포함된다. 이 실시예의 재생장치에서 음성 정보의 개시 시간과 종료시간을 나타내 는 원래 음성 콘텐츠 데이터 및 그 대응정보에 관계되는 세부사항은 테이블(표)의 형식으로 제공되어있다.
도 8a, b, c는 원래 음성 콘텐츠 데이터의 부가 데이터로서 제공된 음성 정보와 대응시간 정보사이에 대응을 나타내는 테이블의 예를 설명한다. 더욱 자세하게 도 8a는 화음 진행 테이블를 설명하고 도 8b는 드럼 패턴 진행 테이블을 설명하고, 도 8c는 템포 진행 테이블을 설명한다.
이 실시예의 재생장치에서 화음 진행을 위해 도 8a에 나타내는 바와 같이, 화음에 관계되는 정보와 그 화음의 개시 시간, 종료 시간에 대응하는 시간을 나타내는 시간 정보를 나타내는 화음 진행 테이블(테이블)가 형성되고 관리된다. 도 8a에 나타낸 화음 진행 테이블에서 시간 정보는 원래 음성 콘텐츠 데이터로부터 재생할 악곡의 선두(0초)로부터의 상대 시간을 나타낸다.
즉, 도 8a에 나타낸 화음 진행 테이블에서 화음 및 화음의 개시 시간, 화음의 종료 시간은 선두(0초)로부터 4.12초까지의 화음이 A 플랫(반음=♭)이고, 4.12초부터 8.24초까지의 화음이 E플랫이고, 8.24초부터 17.408초까지의 화음이Fm이고, 17.408초부터 22.515초까지의 화음이 D플랫 등과 같이 시간정보에 따라 연대순으로 배치되어있다. 따라서 악곡의 선두로부터 화음 진행을 사용자가 이해할 수 있게 된다.
드럼 패턴 진행의 경우에 도 8b에 나타내는 바와 같이 드럼 패턴에 관계되는 정보를 나타내는 드럼 패턴 진행 테이블과 드럼 패턴의 개시 시간과 종료 시간을 나타내는 시간정보가 형성되고 관리된다. 도 8a에 나타낸 화음 진행 테이블과 도 8b에서 나타낸 드럼 패턴 진행 테이블과 같이 시간 정보는 원래 음성 콘텐츠 데이터로부터 재생할 악곡의 선두(0초)로부터의 상대시간을 나타낸다.
즉, 도 8b에 나타낸 드럼 패턴 진행테이블에서 드럼 패턴 및 드럼 패턴의 개시 시간 및 종료시간은 음성 콘텐츠 데이터로부터 재생할 악곡의 선두(0 초)로부터 4.12초까지의 드럼 패턴이 Dr1, 4.12초부터 8.24초까지의 드럼 패턴이 Dr2, 8.24초부터 13.245초까지의 드럼 패턴이 Dr1, 13.245초부터 22.515초까지의 드럼 패턴이 Dr2등과 같은 시간 정보에 따라 연대적으로 배열되어있다. 따라서 악곡의 선두로부터 드럼 패턴의 진행을 이해할 수 있다.
일반적으로 템포, 박자, 스케일은 악곡의 선두로부터 끝까지 변함이 없는 경우가 많다. 따라서 음성 정보에 포함된 템포가 일정하면, 도 8c에 나타낸 것과 같이 템포의 수치값 및 전체악곡의 시간 범위를 나타내는 정보만을 보여주는 테이블이 생성된다.
즉, 도 8a 혹은 도 8b에 나타내는 바와 같이, 템포의 수치를 나타내는 정보는 119.45이고, 개시시간은 00.000초이고 종료시간은 27.148초이다. 악곡시에 템포가 변경되면 템포의 수치를 나타내는 정보와 템포의 개시 시간 및 종료 시간을 나타내는 시간 정보를 나타내는 테이블이 형성되어있다.
BPM, 박자 혹은 음량에 관계하여 도 8a 혹은 도 8b에 나타내는 바와 같이 개시 시간 및 종료시간을 나타내는 시간 정보 및 대응 음성 정보의 세부사항을 나타내는 테이블이 재생장치에서 형성되고 관리된다. 음표 정보에 대해서, 음표가 시간의 진행에 따라서 배열된다. 시간 정보와 대응되는 음표 정보가 필요하지 않 다. 그러나, 시간 정보는 악곡의 파타션(분할=partitions)을 관리하기 위해 제공될 수 있다.
이 예에서 악곡의 선두로부터의 시작하는 절대 시간을 시간 정보로서 이용했지만, 시간정보는 예를 들면"xx번째의 소절의 yy번째의 박자"로서 지정할 수도 있다. 절대 시간 및 소절이나 박자 사이의 변환은 BPM에 의해서 실행될 수 있다. 예를 들면, BPM=120 일때, 1박자는 0.5초이고, 180박자는 90초이고, 악곡이 4/4 박자의 경우 45번재 소절의 첫(제 1) 박자는 동일하다. 즉, 일반적으로, 시간정보는 시간 T=60(초)×n(박자)/BPM, 혹은, n(박자)=BPM×T/60에 의해 결정될 수 있다.
도 8a, 도 8b 도 8c에 나타낸 테이블 정보에 의거하여 재생할 음성 콘텐츠 데이터의 음악 정보의 시계열 맵(time-series map)(원래 데이터 시계열 맵)이 음성콘텐츠 데이터에 관계되는 음악정보의 리스트 테이블에 형성될 수 있다. 도 9는 도 8a, 도 8b 도 8c에 나타낸 테이블의 정보에 의거하여 형성된 원래 데이터 시계열 맵의 일례를 설명한다.
도 9의 상단의 파형은 각각의 개시 시간과 종료 시간을 나타내는 대응시간 정보와 대응하여 배치된 화음진행 및 드럼 패턴에 따른 원래 음성 콘텐츠 데이터를 나타낸다. 도 9에 나타내는 원래 데이터 시계열 맵은 음성 콘텐츠 데이터의 화음이나 드럼패턴의 일시적인 변화를 사용자가 파악(이해)할 수 있도록 하고, 이와 같이 음성 콘텐츠 데이터는 다양한 적용을 할 수 있다.
재생할 음성 콘텐츠 데이터에 관계되는 구조 정보와 대응하는 시간 정보 (2) 는 이하에 설명한다. 음성 콘텐츠 데이터의 구조 정보는 도입부분, A멜로디(제 1 멜로디)부분, B멜로디(제 2멜로디)부분, 하일라이트 부분, 기타 솔로 부분 및 종료 부분 등의 원래 음성 콘텐츠 데이터로부터 재생된 악곡을 형성(구성)하는 각 부분을 나타낸다. 구조정보는 반복 및 dal seigno(D.S.)에 관계되는 점프 정보를 포함한다.
도 8a, 도 8b 및 도 8c에 나타낸 테이블의 경우와 같이, 각(개별)부분을 나타내는 정보 및 각 부분의 개시시간과 종료시간을 나타내는 대응시간정보를 나타내는 표가 서로 대응하여 형성될 수 있다. 예를 들면, 음성 콘텐츠 데이터가 도입 부분인 것을 나타내는 정보 및 도입 부분의 개시 시간과 종료 시간을 나타내는 시간 정보가 서로 대응될 수 있다. 반복 및 dal seigno(D.S.)에 관계하여, 그 대응 기호가 나타날 때 타이밍(시간 정보)과 점핑 위치를 나타내는 시간 정보가 제공될 수 있다.
악곡의 구조를 파악하여, 예를 들면, 사용자는 도입 부분만 편곡하거나, 도입 부분을 삭제하거나, 하일라이트 부분을 반복함으로써 필요로 하는 악곡에 편곡을 할 수 있다.
편곡처리용 음성 데이터(3)에 대해 이하에 설명한다. 편곡처리용 음성 데이터는 도 5 혹은 도 6a에 나타낸 바와 같이, 원래 음성 콘텐츠 데이터로 다른 악기나 음성 등을 합성하거나 삽입하기 위한 음성 데이터이다. 음성 콘텐츠 데이터의 같은 소절 부분에 복수의 편곡처리용 음성 데이터를 합성하거나 삽입할 수 있어 편곡처리용 음성 데이터는, 1개이상으로 준비될 수 있다.
MIDI데이터에 의해 편곡처리용 음성이 발음하는 경우에는, 편곡처리용 음성 데이터가 존재하지 않는 경우도 있다. 그러나, 편곡처리용 음성 데이터와 MIDI데이터 양쪽 모두 이용될 수도 있다. 선택적으로 편곡처리용 음성 데이터나 MIDI데이터가 준비되지 않을 수 있다.
편곡처리용 데이터에 관계되는 음악 정보 및 대응하는 시간정보(4)는 이하 기술된다. 상기 기술한 바와 같이, 원래 음성 콘텐츠 데이터의 특징이나 형태를 정확하게 이해하지 못하면 원래 음성 콘텐츠 데이터에 적당한 편곡을 실시하는 것이 불가능하다. 이것은 편곡처리용 음성 데이터에 대해서도 같이 적용된다. 즉, 편곡처리용 음성 데이터의 특징이나 종류를 이해하지 못하면, 합성이나 삽입전에 편곡처리용 음성 데이터를 조정할 수 없게 된다.
따라서, 이 실시예에서 편곡처리용 음성 데이터가 부가 데이터에 포함하는 경우에는, 편곡처리용 음성 데이터에 관계하는 음악 정보와 대응하는 시간 정보는 부가 데이터에 포함된다. 원래 음성 콘텐츠 데이터와 같이 편곡처리용 음성 데이터는 템포, 스케일(키), 화음 진행, BPM, 박자 정보, 박자, 음표 정보 및 음량(peak, loudness)을 포함한다. 또한, 편곡처리용 (음성)데이터는 악기 정보와 길이(duration)(박자수)도 포함한다.
악기 정보는 악기의 종류(형태) 코드를 포함한다. 드럼 사운드와 같은 진동음, 특히 음계(스케일)가 없는 효과음의 경우는 음조 조정을 할 필요가 없고, 음조 조정은 실시될 수 없다. 이러한 결정은 음조의 조정이 실시될 수 있는지 될 수 없는지를 악기 정보에 의거하여 실시된다.
이 방식에서 편곡처리용 음성 데이터에 관계되는 음악 정보는 원래 음성 콘텐츠 데이터로부터 재생할 악곡의 템포, 화음 진행 및 비트 정보에 대해 위화감이 발생되지 않게 편곡처리용의 음성 데이터를 원래 음성 콘텐츠 데이터로 가산 혹은삽입하기 위해 사용된다.
사용자가 원래 음성 콘텐츠 데이터의 일부가 재생되는 것을 파악한다면 원래 음성 콘텐츠 데이터의 화음 진행, 템포 및 리듬을 식별할 수 있다. 사용자는 그후 원래 음성 콘텐츠 데이터의 템포 및 리듬에 의거하여 편곡처리용 (음성)데이터의 음조 혹은 템포를 조정한 후 편곡처리용 데이터를 합성하거나 가산하여 청취자에게 위화감을 주지 않게 음성 콘텐츠 데이터에 편곡을 실시할 수 있다. 음성이 MIDI데이터에 의거하여 발음하는 경우에는 편곡처리용 음성 데이터가 없기 때문에, 음표 정보가 이용될 수 있다.
원래 음성 콘텐츠 데이터에 실시된 편곡처리와 관계되는 편곡처리용 정보와 대응하는 시간정보(5)에 대해 이하 설명한다. 편곡처리용 정보와 대응하는 시간 정보는 원래 음성 콘텐츠 데이터에 관계하는 음악 정보를 기초로, 도 2a~도 7b에 나타낸 언제, 어느 편곡처리가 이용되는지를 나타낸다.
도 10a, b, c는 편곡 처리용 정보의 구체적인 예를 설명한다. 더욱 구체적으로, 도 10a는 원래 음성 콘텐츠 데이터에 언제, 어느 편곡처리용 데이터를, 어느 화음으로, 가산되는지를 나타내는 음성 가산 편곡처리용 정보 테이블을 설명한다.
도 10a에 나타낸 음성 가산 편곡처리용 정보 테이블은 편곡 처리의 순서를 나타내는 편곡 번호, 편곡 처리의 개시 시간 및 종료 시간을 나타내는 시간 정보, 가산하는 편곡처리용 데이터를 특정하기 위한 음성 데이터 번호, 화음 정보 및 음량 정보(음량 레벨 정보)를 포함한다.
편곡 번호가 1인 경우, 0.00초(선두)~4.12초까지의 구간의 원래 음성 켄텐츠 데이터에 음성 데이터 번호가 1인 편곡처리용 음성 데이터가 화음 A플랫(♭) 및 음량-10 dB으로 가산된다.
마찬가지로, 편곡 번호가 2인 경우, 4.12초~8.24초까지의 구간의 원래 음성 콘텐츠 데이터에 음성 데이터 번호가 2인 편곡처리용 음성 데이터를 화음 E플랫(♭), 음량-4 dB으로 가산한다.
편곡 번호가 3 및 4에 대해서 음성 데이터 번호 3 및 4를 가진 편곡처리용 음성 데이터의 2개의 다른 형태는 개별적으로 같은 화음 Fm 및 다른 음량-10dB와 -6dB를 가진 같은 구간에서 원래 음성 콘텐츠 데이터에 부가된다. 또한, 편곡 번호가 5 및 6에 대해서 음성 데이터 번호 1 및 3을 가진 편곡처리용 음성 데이터의 2개의 다른 형태는 개별적으로 같은 화음 D플랫(♭) 및 다른 음량 0 dB와 -10 dB를 가진 같은 구간에서 원래 음성 콘텐츠 데이터로 부가된다.
도 10b는 템포의 조정시간을 관리하는 위한 템포 조정 편곡처리용 (정보) 테이블이다. 즉, 도 10b에 나타낸 테이블에서 원래 음성 콘텐츠 데이터의 0.00초로부터 8.24초까지의 템포는 120.225 BPM이고, 원래 음성 콘텐츠 데이터의 8.240초부터 27.148초까지의 템포는 91.3까지 감소된다.
도 10c는 반복의 부분 및 수를 나타내는 반복 편곡 처리정보 테이블을 설명 한다. 도 10c에서 나타낸 테이블에서, 음성 콘텐츠 데이터의 선두로부터 4.12초까지는 2회 반복되고, 13. 245초에서 22.515초까지의 음성 콘텐츠 데이터는 2회 반복된다
이와 같은 방식으로 부가 데이터로서 제공된 편곡처리용 정보로부터 도 10a, b, c에 나타낸 바와 같은 편곡처리용 정보 테이블이 형성되고, 도 10a, b, c에 나타낸 바와 같은 정보를 기초로 도 11에 나타낸 바와 같은 원래 음성 콘텐츠 데이터와 편곡처리용 정보와의 대응(관계)을 관리하기 위한 편곡처리용 시계열 맵이 형성될 수 있다.
도 11에서 원래 음성 콘텐츠 데이터를 나타내는 최상단의 파형은 각 화음의 개시 시간 및 종료 시간을 나타내는 시간 정보를 동반한다. 그 후 편곡처리용 음성 데이터의 파형은 각 구간의 화음 정보와 함께 나타난다.
도 10a~도 11에서 나타낸 시간 정보는 원래 음성 콘텐츠 데이터의 재생 시간을 기준으로 하고 있다. 원래 음성 콘텐츠 데이터의 템포가 변경되면 이 시간 정보는 원래 시간 정보×재생 템포/원래 템포에 따라서 재계산된다.
상기 기술한 바와 같이, 이 실시예의 재생장치에서 재생할 음성 콘텐츠 데이터가 결정되면, 대응하는 부가 데이터가 취득된다. 이 경우, 원래 음성 콘텐츠 데이터와 대응하는 부가 데이터는 식별 정보(ID)에 의해서 서로 대응되고, 원래 음성 콘텐츠 데이터에 대응하는 대응된 부가 데이터가 판독된다.
판독된 부가 데이터는 상기 기술한 정보(1)~(5)를 포함한다. 원래 음성 콘텐츠 데이터에 대한 정보 테이블로서 도 8a, b, c에 나타낸 바와 같은 표가 형성 되고, 도 8a, b, c에 나타낸 테이블 정보로부터 도 9에 나타낸 바와 같은 원래 데이터 시계열 맵이 형성된다. 또한, 편곡처리용 정보에 대한 테이블로서 도 10a, b, c에 나타낸 바와 같은 표가 형성되고, 도 11에 나타낸 바와 같은 편곡처리용 시계열 맵은 도 10a, b, c에서 나타낸 테이블로부터 형성된다.
그 후 원래 데이터 시계열 맵과 편곡처리용 시계열 맵을 참조하여, 원래 (음성) 콘텐츠 데이터에 편곡처리가 실시되고, 따라서 편곡된 음성 콘텐츠 데이터가 생성된다. 그 후 음성 콘텐츠 데이터는 재생되고 스피커로부터 음성이 출력된다.
상술한 것처럼, 사용자로부터의 재생 지시에 응답하는 원래 음성 콘텐츠 데이터에 대응하는 부가 데이터를 취득하고, 취득된 부가 데이터에 의거하여 원래 음성 콘텐츠 데이터를 편곡하는 이 실시예의 재생장치의 동작에 대해 도 12, 도 13,도 14의 플로차트를 참조하면서 이하에 설명한다.
취득된 부가 데이터로부터 도 8a~ 도 10c에 나타낸 테이블을 형성하고, 도 9 및 도 11에 나타낸 시계열 맵을 형성하고, 도 2~ 도 7에 나타낸 각종의 편곡처리를 실행하기 위한 준비를 실시하기 위한 부가 데이터 판독부(22)의 동작을 이하에 설명한다.
도 12와 도 13은 부가 데이터 판독부(22)의 동작을 설명하는 플로차트이다. 도 12와 도 13에 플로차트에 나타낸 처리는 조작부(45)로부터 입력된 사용자의 재생지시에 따라 원래 음성 컨턴츠 데이터를 재생할 때 제어부(40)의 제어하에 부가 데이터 판독부(22)에서 실행된다.
구체적으로는, 부가 데이터 판독부(22)는 제어부(40)로부터 원래 음성 콘텐츠데이터의 식별(ID) 정보를 포함하는 부가 데이터를 판독하기 위한 지시에 대응하여 도 12와 도 13에 나타낸 처리를 개시한다. 스텝(단계)(S101)에서 부가 데이터 판독부(22)는 부가 데이터를 기록하는 부가 데이터 파일을 연다.
그 후 스텝(S102)에서 부가 데이터 판독부(22)는 재생할 음성 콘텐츠 데이터에 대응하는 부가 데이터의 각 기록을 판독하고, 부가 데이터의 판독된 기록이 원래 음성 콘텐츠 데이터의 템포, 스케일(키) 및 화음 진행을 나타내는 정보와 대응하는 시간 정보를 포함하는 음악 정보인가를 결정한다.
스텝(S102)에서 판독된 기록이 원래 음성 콘텐츠 데이터에 관계되는 음악정보가 되는 것으로 발견되면, 도 8a, b, c에 나타낸 것과 같은 음악 정보 테이블이 스텝(S103)에서 생성된다. 스텝(S102)에서 판독된 기록이 음악정보가 아니라고 판단했을 때에는 판독된 기록이 원래 음성 콘텐츠 데이터에 실행되는 편곡처리에 관계되는 편곡처리용 정보인지 아닌지를 결정하기 위한 처리가 스텝(S104)으로 진행된다.
판독된 기록이 스텝(S104)에서 편곡 처리용 정보가 되는 것으로 발견되면, 개별(각각)편곡용 정보에 의거하여 도 10a, b, c에 나타낸 것과 같은 편곡처리용 테이블이 생성되는 처리가 스텝(S105)으로 진행된다. 판독된 기록이 편곡처리용 정보가 아니라고 판단했을 때에는 판독된 기록이 편곡처리용 음성 데이터인지 아닌지를 결정하기 위한 처리가 스텝(S106)으로 진행된다.
판독된 기록이 스텝(S106)에서 편곡처리용 음성데이터로 발견되는 경우에는 편곡 처리용 음성 데이터는 소정의 메모리로 기입되거나 스텝(S107)의 음성 파일로서 개방(오픈)된다.
스텝(S106)에서 판독된 기록이 편곡처리용 음성 데이터가 아니라고 판단된 경우에는 판독된 기록은 편곡처리용 음성 데이터에 관계하는 음악정보를 의미하고, 이 음악정보는 대응하는 편곡처리용 음성 데이터와 함께 관리된다. 더욱 자세하게, 스텝(S108)에서 도 10a, b, c에 나타낸 것과 같은 편곡처리용 음성 데이터로써 음악정보 테이블이 형성된다.
그 후, 스텝(S103), 스텝(S105), 스텝(S107) 혹은 스텝(S108)이후의 처리된 기록은 부가 데이터의 최종적인 기록인지 아닌지를 결정하기 위한 처리가 도 13에서 스텝(S109)로 진행된다. 처리된 기록이 최종적인 기록이 아니라고 결정되었을 경우, 이 처리는 스텝(S102)으로 복귀하고 다른 기록이 판독되고 처리된다.
처리된 기록이 스텝(S109)에서 최종적인 기록이라고 발견되었을 경우는 도 9에 나타낸 것과 같이 원래 음성 콘텐츠 데이터에 관계하는 원래 데이터 시계열 맵이 스탭(S103)에서 형성된 음악 정보 테이블에 의거하여 생성되는 처리가 스탭(S110)으로 진행된다.
다음에, 스텝(S111)에서 부가 데이터 판독부(22)는 템포 정보를 고려하면서(시간 변환을 하면서), 스텝(S105)에서 생성된 테이블에 의거하여(기초하여) 편곡처리용 정보의 시계열 맵을 생성한다. 원래 데이터의 시계열 맵 및 편곡처리용 정보의 시계열 맵을 생성한 후에, 부가 데이터 파일은 스텝(S112)에서 닫힌다(폐쇄된다). 부가 데이터 판독부(22)는 도 12와 도 13에 나타낸 처리를 종료한다.
상기 기술한 바와 같이, 부가 데이터 판독부(22)는 재생할 음성 콘텐츠 데이터에 대응하는 부가 데이터를 취득하고, 이 취득된 부가 데이터에 포함된 원래 음성 콘텐츠 데이터에 관계되는 음악정보, 편곡처리의 시간(타이밍)과 종류에 관계되는 정보, 편곡처리용 음성 데이터 그 자체, 편곡처리용 음성 데이터에 관계되는 음악 정보를 이용함으로써, 편곡처리용 음성데이터를 이용하기 위한 준비를 실시하기 위한 원래 데이터의 시계열 맵과 편곡처리용 정보의 시계열 맵을 생성한다. 부가 데이터 판독부(22)는 편곡처리용 음성데이터를 처리하기 위한 준비를 실시하기 위해 편곡처리용 음성 데이터에 관계되는 음악 정보 테이블도 생성한다.
도 12와 도 13에 나타낸 처리에 따라 재생할 원래 음성 콘텐츠 데이터의 위치, 편곡처리의 종류, 화음 및 어떤 시간에서 요구된 탬포의 조정정보가 식별될 수있다.
이 실시예의 재생장치에서 편곡처리를 실시하는 콘텐츠 데이터 신호 처리부(14), 부가 데이터 신호처리부(24), MIDI발음부(25), 음성 가산/편집부(31) 및 출력용 신호 처리부(32)에 대한 설명은 이하에 기술된다. 도 14는 음성 콘텐츠 데이터 처리계(10), 부가 데이터 처리계(20) 및 출력 데이터 처리계(30)의 조작(동작)을 설명하는 플로차트이다.
도 14에서 나타낸 스탭에서 스텝(S201)~ 스텝(S204)은 음성 콘텐츠 데이터 처리계(10)에 의해 실시되고, 스텝(S301)~ 스텝(S306)은 부가 데이터 처리계(20)에 의해 실시되고, 스텝(S401)~ 스텝(S404)은 출력 데이터 처리계(30)에 의해 실시된다.
도 12 및 도 13에서 나타낸 처리를 실시한 후에 음성 콘텐츠 데이터 처리계(10), 부가 데이터 처리계(20), 출력 데이터 처리계(30)는 서로 대응하여 도 14에서 나타낸 처리를 실시한다.
스텝(S201)에서, 콘텐츠 데이터 판독부(12)는 재생할 원래 음성 콘텐츠 데이터를 판독하고, 이 경우에 시간 계측부(50)로부터 음성 콘텐츠 데이터의 재생위치를 취득한다.
그 다음, 스텝(S202)에서 판독 음성 콘텐츠 데이터는 디코더(13)에서 디코드되고 콘텐츠 데이터 신호 처리부(14)에 공급된다. 도 12 및 도 13을 참조하여 기술된 바와 같이 부가 데이터 판독부(22)에서 생성된 음악정보의 시계열 맵을 참조하여 콘텐츠 데이터 신호 처리부(14)는 원래 음성 콘텐츠 데이터의 현재 리듬패턴 및 화음에 관계되는 정보를 취득한다.
스텝(S203)에서 콘텐츠 데이터 신호 처리부(14)는 음성 콘텐츠 데이터를 생성하기 위해 부가 데이터 판독부(22)에 의해 생성된 템포 및 음조에 관계하는 편곡처리용 테이블를 참조(대응)하여 템포 및 음조 조정을 실시하고, 출력용 신호처리계(30)의 음성가산/편집부(31)로 생성된 음성 콘텐츠 데이터를 공급한다.
한편, 스텝(S301)의 부가 데이터 처리계(20)에서 부가 데이터 판독부(22)는 원래 음성 콘텐츠 데이터의 재생 위치를 취득한다. 그 후 스텝(302)에서 부가 데이터 판독부(22)에서 생성된 편곡처리용 시계열 맵을 참조함으로써 부가 데이터 판독부(22)는 음성 콘텐츠 데이터에 실시되는 편곡처리가 편곡처리용 음성 데이터를 위한 부가 처리인지 아닌지를 스텝(S303)에서 결정한다.
편곡처리가 스텝(S303)에서 편곡처리용 음성 데이터를 위한 부가 처리가 실시되는 것이 발견되는 경우에, 이 처리는 스텝(S304)으로 진행한다.
스텝(S304)에서 부가 데이터 판독부(22)에서 생성된 편곡처리용 음성 데이터 및 편곡처리용 정보의 시계열 맵에 관계하는 음악정보에 의거하여 부가 데이터 판독부(22)는 편곡처리용 음성데이터의 템포 및 음조를 조정하고, 이 결과의 편곡처리용 음성데이터를 음성가산/편집부(31)로 공급한다.
음성 콘텐츠 데이터에 실행되는 편곡처리가 부가(가산) 처리가 아니라고 스텝(S303)에서 결정되었을 경우 편곡처리가 MIDI데이터를 이용하여 실시된 음성발음인지 아닌지를 결정하기 위해 스텝(S305)으로 이 처리가 진행된다.
편곡처리가 스텝(S305)에서 MIDI데이터에 기초하여 음성발음이 되는 것으로 발견되면, MIDI 발음부(25)는 부가 데이터로서 제공된 MIDI데이터로부터 PCM데이터를 생성하고, 스텝(S306)에서 음성 가산/편집부(31)로 PCM데이터를 공급한다.
그 다음에, 스텝(S401)의 출력(데이터)처리계(30)에서 음성 가산/편집부(31)는 부가 데이터 신호 처리부(24)부터 공급된 조정된 템포 및 음조와 함께 편곡처리용 음성 데이터를 가산(합성)하거나 MIDI 음성 발음부(25)로부터 제공된 PCM데이터를 콘텐츠 데이터 신호 처리부(14)로부터 공급된 조정된 템포나 음조와 함께 음성 콘텐츠 데이터에 가산(부가)한다.
편곡처리가 MIDI데이터에 기초한 음성 발음이 아니라고 스텝(S305)에서 결정되면 이 처리는 스텝(S204)으로 진행된다. 스텝(S204)에서 부가 데이터 처리계 (20)의 부가 데이터 판독부(22)는 콘텐츠 데이터 신호 처리부(14)로 편곡처리용 시계열 맵에 기초한 정보를 공급하고, 콘텐츠 데이터 신호 처리부(14)는 편곡처리용 시계열 맵에 따라 다양한 편곡처리를 실시한다. 그 후 스텝(S402)에서 음성 가산/편집부(31)는 예를 들면 편곡처리용 시계열 맵에 따라 리버브 처리나 소정 구간의 순서의 삭제나 재배치(배열)함으로써 음성 콘텐츠 데이터를 편집한다.
스텝(S401) 혹은 스텝(S402) 이후에 부가 데이터 판독부(22)는 스텝(S403)에서 다른 편곡처리가 실시되는지 되지않는지를 결정한다.(편곡처리용 시계열 맵에서 다른 편곡처리가 있는지의 여부).
다른 편곡처리가 스텝(S403)에서 발견되면 이 처리는 스텝(S302)으로 복귀된다. 편곡처리가 없으면 스텝(S404)에서 리버브 처리와 같은 효과처리가 출력용신호 처리부(32)에서 전체 음성 콘텐츠 데이터 상에서 실행된다. 도 14에 나타낸 이 처리는 이후 종료한다.
여러 가지의 편곡(처리)가 실시된 음성 콘텐츠 데이터가 D/A변환되고, 이 결과 아날로그 신호가 대응 음성 콘텐츠 데이터를 재생할 수 있도록 스피커에 공급된다.
상기 기술한 바와 같은, 이 실시예의 재생장치에 따라 구체적인 신호처리가 원래 음성 콘텐츠 데이터에 실시되는 처리의 종류를 나타내는 부가 데이터에 의거하여 실시된다.
부가하여, 원래 음성 콘텐츠 데이터에 편곡처리용 음성 데이터를 부가(합성하거나 원래 음성 콘텐츠 데이터의 소정의 구간의 순서를 재배열함으로써 새로운 음성 콘텐츠 데이터가 기존 음성 콘텐츠 데이터에 의거하여 생성될 수 있다.
상기 기술한 바와 같이, 음성 콘텐츠 데이터의 동일 부분에 복수 종류의 편곡이 실시될 수 있다. 즉, 일순간의 재생 시간을 보았을 경우, 많은 종류의 편 곡(처리)이 원래 음성 콘텐츠 데이터에 동시에 실시되는 것이 가능하다.
이 실시예의 재생장치에서 편곡처리를 위해 필요한 정보는 부가 데이터로서 원래(원)음성 콘텐츠 데이터에 부가된다. 부가 데이터는 원래 음성 콘텐츠 데이터로부터 분리하여 관리되고, 실재 편곡처리는 재생조작이 실행되기 전이나 실행될때 실시된다.
따라서, 부가 데이터는 원래 음성 콘텐츠 데이터로부터 분리되어 사용자로 부터 기록매체나 네트워크를 통해 취득(습득)된다. 부가 데이터는 원래 음성 콘텐츠 데이터와 함께 제공될 수 있는 경우에 음성 콘텐츠 데이터는 한쌍의 부가 데이터를 가진 CD로 기록되고, 부가 데이터는 필요시에 판독된다.
선택적으로, 인터넷과 같은 네트워크를 통해서 음성 콘텐츠 데이터를 취득 할때 대응하는 부가 데이터를 음성 콘텐츠 데이터와 함께 제공함으로서 사용자가 이용할 수 있게 할 수 있다. 즉, 재생할 음성 콘텐츠 데이터와 대응된 부가 데이터에 공통의 식별(ID) 정보를 부가함으로써 음성 콘텐츠 데이터와는 별도로 부가 데이터만 사용자에게 제공될 수 있다.
음성 콘텐츠 데이터 처리계(10)의 콘텐츠 데이터 판독부(12)에 의해서 취득된 음성 콘텐츠 데이터는, 선형(linear)PCM 데이터의 형식이 되거나, 대응하는 데이터 압축 방법으로 압축된 음성 데이터로 압축될 수 있다.
부가 데이터로서 제공되는 편곡처리용 음성 데이터는 미리 녹음된 선형PCM 데이터, 압축된 음성 데이터 및 MIDI 데이터 중에 적어도 하나가 될 수 있다.
상기 기술한 것처럼, 부가 데이터는 원래 음성 콘텐츠 데이터를 기록하는 것 과는 다른 기록매체로부터 취득될 수 있다. 예를 들면, 음성 콘텐츠 데이터는 CD로부터 취득될 수 있고, 대응된 부가데이터는 반도체 메모리, 자기 기록 매체, 광기록 매체나 광자기 기록 매체와 같은 다른 기록매체나 인터넷과 같은 네트워크를 통해서 취득될 수 있다.
상기 기술한 바와 같이, 음성 콘텐츠 데이터와 대응하는 부가 데이터는 공통의 식별자(ID)에 의해 서로 대응될 수 있다. 간단하게, 음성 콘텐츠 데이터의 식별자를 부가 데이터로 부가하거나 역으로, 부가 데이터의 식별자가 음성 콘텐츠 데이터로 부가될 수 있다.
또, 상술의 실시예에서, 편곡처리는 음성 콘텐츠 데이터의 재생시에 실시간으로 실시되고, 그 다음 편곡된(어레인지된) 음성 콘텐츠 데이터가 재생된다.
그러나, 대응하는 부가 데이터를 이용함으로써 미리 다양한 편곡처리가 음성 콘텐츠 데이터에 실시될 수 있고, 그 후 편곡된 음성 콘텐츠 데이터가 재생된다. 즉, 부가 데이터를 이용하는 편곡처리는 배치(batch)처리로서 집합적으로 실시될 수 있고, 편곡된 음성 데이터가 재생된다.
부가하여 음성 콘텐츠 데이터의 한 부분에 다른 종류의 편곡처리를 실시하기위한 복수의 부가 데이터가 준비될 수 있고, 이후 사용자는 원하는 종류의 부가 데이터를 선택할 수 있다. 예를 들면, 아침용 편곡처리용 정보 및 저녁용 편곡처리용 정보와 같은 여러 가지 종류의 부가 정보가 동일 음성 콘텐츠 데이터에 대해 실시되고, 사용자는 원하는 종류의 부가 데이터를 선택하고 선택된 부가 데이터를 이용함으로써 음성 콘텐츠 데이터로 여러 가지 편곡(처리)을 할 수 있게 된다.
부가 데이터는 재생장치에서 사용되는 것과 다른 외부 프로그램을 사용함으로써 동적으로 생성될 수 있고, 부가 데이터 판독부(22)는 동적인 프로그램을 판독한다. 이것은 사용자 환경에 따른 이 실시예에서 만들어진 정적인 편곡의 일부 혹은 전체를 변경하는 것도 가능하게 한다. 사용자는 음악을 들으면서 스스로 편곡의 일부 혹은 전체 변경도 할 수 있다.
첨부된 청구항 또는 청구항에 상당하는 범위 내에 있는 한 설계 요구사항 및 기타 요소들에 의존하여 다양한 수정, 조합, 부분조합 및 변경이 당업자에 의해 일어날 수 있음은 당연하다.
본 발명의 실시예에 의하면 사용자는 기존의 음악 등의 음성 콘텐츠 데이터를 즐길 수 있고, 사용자는 음성 콘텐츠 데이터에 의해 제공된 음성 콘텐츠에 의거하여 기존 음악에 다양한 편곡을 실시할 수 있다.
또, 사용자의 취향에 따른 음성 콘텐츠 데이터와 같이 편곡을 실시하는 것이 가능하고, 사용자는 다양한 방식, 예를 들면 다양한 상황에 따른 자신의 무드(기분)에 의존하여 박자를 가진 음성 혹은 quite 음성으로 음악을 편집할 수 있다
부가하여, 재생하려고 하는 음성 콘텐츠 데이터가 없는 편곡처리용 정보를 포함하는 부가 정보만이 제공됨으로 음성 콘텐츠 데이터를 가지고 있는 사용자만이 부가 데이터를 이용하여 음성 콘텐츠 데이터에 신호처리를 실시하고, 개인(개별)적인 이용의 범위내에 편곡된 음성 콘텐츠 데이터를 들을 수 있다.
또, 음성 콘텐츠 데이터와는 별도로, 음성 콘텐츠 데이터에 대해 편곡을 실 시하기 위한 부가 정보를 생성하고 분배시키는 것에 의해, 새로운 모드가 음성 콘텐츠로서 제공되어 전체 음악산업의 활성화를 촉진시킬 수 있다.

Claims (15)

  1. 음성 콘텐츠 데이터를 취득하기 위한 제 1취득 수단과, 상기 제 1취득 수단에 의해 취득된 상기 음성 콘텐츠 데이터에 대응하는 부가 정보를 취득하는 제 2취득 수단과, 상기 제 2취득 수단에 의해 취득된 상기 부가 정보에 의거하여 상기 제 1취득 수단에 의해 취득된 상기 음성 콘텐츠 데이터에 신호 처리를 실시하고, 처리된 상기 음성 콘텐츠 데이터를 출력하기 위한 신호 처리 수단을 포함하는 재생장치에 있어서,
    상기 신호 처리 수단은,
    상기 음성 콘텐츠 데이터에 대한 재생 템포를 조정하고, 재생 음조를 조정하고, 재생 음량을 조정하고, 상기 음성 콘텐츠 데이터와 함께 적어도 하나의 음성 데이터를 합성하고, 상기 음성 콘텐츠 데이터로 적어도 하나의 음성 데이터를 삽입하며, 상기 음성 콘텐츠 데이터의 일부의 순서를 재배열(배치)하고, 상기 음성 콘텐츠 데이터의 일부를 반복하고, 일부를 삭제하고, 상기 음성 콘텐츠 데이터에 음향 효과(acoustic effect)를 적용하는 것 중에서 적어도 하나를 실시하는 것을 특징으로 하는 재생장치.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 제 1항에 있어서,
    상기 부가 정보는 상기 음성 콘텐츠 데이터에 합성 혹은 삽입되기 위한 적어도 하나의 음성 데이터를 포함하고,
    상기 신호 처리 수단은 상기 음성 콘텐츠 데이터로 상기 부가 정보에 포함된 음성 데이터를 합성 혹은 삽입하는 것을 특징으로 하는 재생장치.
  7. 제 6항에 있어서,
    상기 신호 처리 수단은 상기 부가 정보에 포함된 상기 음성 데이터에 템포의 조정, 음조의 조정, 음량의 조정, 음향 효과의 적용중 적어도 하나를 실시함으로써, 상기 음성 콘텐츠 데이터로 상기 부가 정보에 포함된 음성 데이터를 합성 혹은 삽입하는 것을 특징으로 하는 재생장치.
  8. 삭제
  9. 삭제
  10. 삭제
  11. 삭제
  12. 삭제
  13. 삭제
  14. 삭제
  15. 삭제
KR1020050083814A 2004-09-16 2005-09-08 재생장치 및 재생방법 KR101136974B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JPJP-P-2004-00269085 2004-09-16
JP2004269085A JP4412128B2 (ja) 2004-09-16 2004-09-16 再生装置および再生方法

Publications (2)

Publication Number Publication Date
KR20060051123A KR20060051123A (ko) 2006-05-19
KR101136974B1 true KR101136974B1 (ko) 2012-04-19

Family

ID=35453497

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050083814A KR101136974B1 (ko) 2004-09-16 2005-09-08 재생장치 및 재생방법

Country Status (5)

Country Link
US (1) US7728215B2 (ko)
EP (1) EP1638100A1 (ko)
JP (1) JP4412128B2 (ko)
KR (1) KR101136974B1 (ko)
CN (1) CN1838229B (ko)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100455255C (zh) 2002-08-09 2009-01-28 因特尔丘尔有限公司 用于调节生物节律性活动的通用节拍器
US8672852B2 (en) 2002-12-13 2014-03-18 Intercure Ltd. Apparatus and method for beneficial modification of biorhythmic activity
US7850619B2 (en) 2004-07-23 2010-12-14 Intercure Ltd. Apparatus and method for breathing pattern determination using a non-contact microphone
JP4623028B2 (ja) * 2007-03-20 2011-02-02 ヤマハ株式会社 曲編集装置およびプログラム
JP5259075B2 (ja) 2006-11-28 2013-08-07 ソニー株式会社 マッシュアップ装置およびコンテンツの作成方法
JP5259083B2 (ja) * 2006-12-04 2013-08-07 ソニー株式会社 マッシュアップ用データの配布方法、マッシュアップ方法、マッシュアップ用データのサーバ装置およびマッシュアップ装置
JP5007563B2 (ja) 2006-12-28 2012-08-22 ソニー株式会社 音楽編集装置および方法、並びに、プログラム
DE102007011436B4 (de) * 2007-03-08 2011-02-17 Burmester Audiosysteme Gmbh Vorrichtung und Verfahren zum Formen eines digitalen Audiosignals
JP4506998B2 (ja) * 2007-07-12 2010-07-21 Necソフト株式会社 自動作曲装置および自動作曲方法ならびにプログラム
US8198525B2 (en) * 2009-07-20 2012-06-12 Apple Inc. Collectively adjusting tracks using a digital audio workstation
JP5870687B2 (ja) * 2011-12-27 2016-03-01 ヤマハ株式会社 コンテンツ管理装置
JP5990962B2 (ja) * 2012-03-23 2016-09-14 ヤマハ株式会社 歌唱合成装置
JP2014052469A (ja) * 2012-09-06 2014-03-20 Sony Corp 音声処理装置、音声処理方法、及び、プログラム
CN104427389B (zh) * 2013-08-27 2018-06-26 广州艾缔亿生物科技有限公司 基于多媒体内容投入式声音信号的广告系统及方法
CN108831425B (zh) 2018-06-22 2022-01-04 广州酷狗计算机科技有限公司 混音方法、装置及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020082423A (ko) * 2001-04-19 2002-10-31 소니 가부시끼 가이샤 정보 처리 장치 및 방법, 정보 처리 시스템, 기록 매체,및 프로그램
KR20040043084A (ko) * 2002-11-15 2004-05-22 소니 가부시끼 가이샤 데이터 처리 장치, 데이터 처리 방법, 프로그램 및 데이터기록 매체

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5204969A (en) * 1988-12-30 1993-04-20 Macromedia, Inc. Sound editing system using visually displayed control line for altering specified characteristic of adjacent segment of stored waveform
JPH0385819A (ja) 1989-08-29 1991-04-11 Nec Corp 音声信号制御方式
JP3263996B2 (ja) 1992-10-21 2002-03-11 キヤノン株式会社 番組制作装置、情報伝送方法及び再生装置
JP3355748B2 (ja) 1993-12-28 2002-12-09 ヤマハ株式会社 編曲支援装置
US5728962A (en) * 1994-03-14 1998-03-17 Airworks Corporation Rearranging artistic compositions
JPH08146985A (ja) 1994-11-17 1996-06-07 Sanyo Electric Co Ltd 話速制御システム
JP4028001B2 (ja) * 1995-09-29 2007-12-26 ヤマハ株式会社 Mdマルチトラックレコーダ
JPH09146554A (ja) 1995-11-27 1997-06-06 Roland Corp 波形圧縮伸長装置
US20020023103A1 (en) * 1998-04-21 2002-02-21 Rejean Gagne System and method for accessing and manipulating time-based data using meta-clip objects
JP2000075868A (ja) 1998-08-27 2000-03-14 Roland Corp ハーモニー生成装置およびカラオケシステム
JP2000206972A (ja) 1999-01-19 2000-07-28 Roland Corp 波形デ―タの演奏制御装置
JP3491553B2 (ja) * 1999-03-02 2004-01-26 ヤマハ株式会社 演奏データ処理装置及びその記録媒体
JP3551817B2 (ja) * 1999-03-23 2004-08-11 ヤマハ株式会社 演奏データ処理装置
JP2001042866A (ja) * 1999-05-21 2001-02-16 Yamaha Corp ネットワークを介したコンテンツ提供方法及びシステム
JP3570309B2 (ja) * 1999-09-24 2004-09-29 ヤマハ株式会社 リミックス装置および記憶媒体
JP3843688B2 (ja) 2000-03-15 2006-11-08 ヤマハ株式会社 楽曲データ編集装置
JP4433566B2 (ja) * 2000-04-10 2010-03-17 ソニー株式会社 プロダクションシステム、アセットマネージメントシステム及びアーカイブシステム、プロダクション方法、アセットマネージメント方法及びアーカイブ方法
JP3870671B2 (ja) 2000-06-26 2007-01-24 ヤマハ株式会社 携帯端末装置
JP3666577B2 (ja) * 2000-07-18 2005-06-29 ヤマハ株式会社 コード進行修正装置、コード進行修正方法及び同装置に適用されるプログラムを記録したコンピュータ読取り可能な記録媒体
JP3707364B2 (ja) * 2000-07-18 2005-10-19 ヤマハ株式会社 自動作曲装置、方法及び記録媒体
US7305273B2 (en) * 2001-03-07 2007-12-04 Microsoft Corporation Audio generation system manager
US20020144588A1 (en) * 2001-04-09 2002-10-10 Naples Bradley J. Multimedia data file
JP3778024B2 (ja) 2001-07-30 2006-05-24 ソニー株式会社 情報処理装置及び情報処理方法、並びに記憶媒体
JP3867596B2 (ja) * 2002-03-19 2007-01-10 ヤマハ株式会社 演奏音提供装置、通信端末、演奏音提供方法、プログラムおよび記録媒体
JP3829780B2 (ja) * 2002-08-22 2006-10-04 ヤマハ株式会社 奏法決定装置及びプログラム
JP3938015B2 (ja) * 2002-11-19 2007-06-27 ヤマハ株式会社 音声再生装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020082423A (ko) * 2001-04-19 2002-10-31 소니 가부시끼 가이샤 정보 처리 장치 및 방법, 정보 처리 시스템, 기록 매체,및 프로그램
KR20040043084A (ko) * 2002-11-15 2004-05-22 소니 가부시끼 가이샤 데이터 처리 장치, 데이터 처리 방법, 프로그램 및 데이터기록 매체

Also Published As

Publication number Publication date
JP4412128B2 (ja) 2010-02-10
CN1838229A (zh) 2006-09-27
EP1638100A1 (en) 2006-03-22
US7728215B2 (en) 2010-06-01
CN1838229B (zh) 2011-07-06
JP2006084748A (ja) 2006-03-30
US20060054005A1 (en) 2006-03-16
KR20060051123A (ko) 2006-05-19

Similar Documents

Publication Publication Date Title
KR101136974B1 (ko) 재생장치 및 재생방법
US20110112672A1 (en) Systems and Methods of Constructing a Library of Audio Segments of a Song and an Interface for Generating a User-Defined Rendition of the Song
US5834670A (en) Karaoke apparatus, speech reproducing apparatus, and recorded medium used therefor
JP5243042B2 (ja) 音楽編集装置及び音楽編集方法
JP3503958B2 (ja) オムニバスカラオケ演奏装置
KR100283134B1 (ko) 악곡과 매칭되는 음성 효과를 생성하는 가라오케 장치 및 방법
KR20080074977A (ko) 음악 편집 장치 및 음악 편집 방법
US7442870B2 (en) Method and apparatus for enabling advanced manipulation of audio
US20020144587A1 (en) Virtual music system
CN1165951A (zh) 产生伴随于现场歌唱声的合唱声的音乐设备
JP2001092464A (ja) 楽音生成方法、楽音生成用データ記録方法および楽音生成用データを記録した記録媒体
JP3716725B2 (ja) 音声処理装置、音声処理方法および情報記録媒体
KR20090023912A (ko) 음악 데이터 처리 시스템
JP3214623B2 (ja) 電子楽音再生装置
JP4268322B2 (ja) 再生用符号化データ作成方法
JP3637196B2 (ja) 音楽再生装置
JP4563549B2 (ja) 編集装置、方法、記録媒体
JP2797644B2 (ja) 発声機能付きカラオケ装置
JP3903492B2 (ja) カラオケ装置
JP3744247B2 (ja) 波形圧縮方法及び波形生成方法
JP3613191B2 (ja) 波形生成方法及び装置
Souvignier Loops and grooves: The musician's guide to groove machines and loop sequencers
JPH0962280A (ja) カラオケ装置
JP3788096B2 (ja) 波形圧縮方法及び波形生成方法
JP4229064B2 (ja) 音声合成装置および音声合成プログラム

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
J201 Request for trial against refusal decision
B701 Decision to grant
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee