KR20040058034A - 음성 및 악곡 재생 장치 및 방법 - Google Patents
음성 및 악곡 재생 장치 및 방법 Download PDFInfo
- Publication number
- KR20040058034A KR20040058034A KR1020030095266A KR20030095266A KR20040058034A KR 20040058034 A KR20040058034 A KR 20040058034A KR 1020030095266 A KR1020030095266 A KR 1020030095266A KR 20030095266 A KR20030095266 A KR 20030095266A KR 20040058034 A KR20040058034 A KR 20040058034A
- Authority
- KR
- South Korea
- Prior art keywords
- data
- voice
- music
- user
- voice data
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 69
- 230000005236 sound signal Effects 0.000 claims abstract description 19
- 238000004891 communication Methods 0.000 claims description 4
- 230000001413 cellular effect Effects 0.000 claims description 3
- 238000010295 mobile communication Methods 0.000 claims 1
- 239000002699 waste material Substances 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 18
- 230000006870 function Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 206010028980 Neoplasm Diseases 0.000 description 2
- 201000011510 cancer Diseases 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 206010011469 Crying Diseases 0.000 description 1
- 101150065817 ROM2 gene Proteins 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000001308 synthesis method Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B1/00—Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
- H04B1/38—Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
- H04B1/40—Circuits
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0033—Recording/reproducing or transmission of music for electrophonic musical instruments
- G10H1/0041—Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H7/00—Instruments in which the tones are synthesised from a data store, e.g. computer organs
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2230/00—General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
- G10H2230/005—Device type or category
- G10H2230/021—Mobile ringtone, i.e. generation, transmission, conversion or downloading of ringing tones or other sounds for mobile telephony; Special musical data formats or protocols therefor
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/171—Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
- G10H2240/201—Physical layer or hardware aspects of transmission to or from an electrophonic musical instrument, e.g. voltage levels, bit streams, code words or symbols over a physical link connecting network nodes or instruments
- G10H2240/241—Telephone transmission, i.e. using twisted pair telephone lines or any type of telephone network
- G10H2240/251—Mobile telephone transmission, i.e. transmitting, accessing or controlling music data wirelessly via a wireless or mobile telephone receiver, analogue or digital, e.g. DECT, GSM, UMTS
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/325—Synchronizing two or more audio tracks or files according to musical features or musical timings
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Electrophonic Musical Instruments (AREA)
- Telephone Function (AREA)
- Reverberation, Karaoke And Other Acoustics (AREA)
Abstract
악곡 시퀀스 데이터는, 연주 이벤트 데이터와, 악곡 진행에 음성을 링크시키기 위한 사용자 이벤트 데이터를 포함하는, 복수의 이벤트 데이터로 구성된다. 악곡 시퀀스 데이터와는 별도로, 복수의 음성 데이터 파일이 메모리에 기억된다. 악곡 재생 시에, 악곡 시퀀스 데이터의 각 이벤트 데이터를 순차 판독하고, 판독된 연주 이벤트 데이터에 따라 악음 신호를 발생시킨다. 그 한편, 사용자 이벤트 데이터가 판독되었을 때 그에 따라 음성 재생 지시가 출력되고, 이 음성 재생 지시에 따라, 메모리로부터 음성 데이터 파일을 선택하고, 이 선택된 음성 데이터 파일에 포함되는 음성 데이터를 판독하고, 판독된 음성 데이터에 기초하여 음성 신호를 발생시킨다.
Description
본 발명은, 악곡 시퀀스 중의 지정의 타이밍에서 특정한 음성 시퀀스를 재생하는 음성 및 악곡 재생 장치 및 방법에 관한 것이다.
최근, 휴대 전화기 등의 분야에서는, 악곡에 동기시켜서 표시를 행하거나, 음성을 재생하는 것이 행해진다. 특허 문헌1에는, 소정의 타이밍에서 악곡과 음성을 동기시켜 발음시키는 기술이 개시되어 있다.
[특허 문헌1]
일본특개2002-101191호 공보
또한, 종래, 악곡에 동기시켜 음성을 발생시키는 방법으로서, 1개의 시퀀스 파일에 악곡 시퀀스와 음성 시퀀스의 양방을 정의하고, 그 파일을 재생함으로써 악곡 및 음성을 동기시켜 발생시키는 방법이 알려져 있다. 도 13은, 이 경우의 음성 및 악곡 재생 장치의 개략 구성을 도시하는 도면으로서, 음성 첨부 악곡 데이터 파일(51)을 플레이어(52)가 사운드 미들웨어(53)에 로드하고, 사운드 미들웨어(53)가 로드된 파일을 해석하여 악곡 재생용의 음원 제어 데이터 및 음성 재생용의 음원 제어 데이터를 생성하여, 음원(54)으로 출력한다. 음원(54)은 악곡용의 음원 및 음성용의 음원을 갖고, 각각의 음원에 의해서 재생한 악음 신호 및 음성 신호를 믹싱하여 스피커(55)로 출력한다.
그런데, 상술한 음성 첨부 악곡 데이터 파일 중의 음성 시퀀스는, 발음하여야 할 음성의 발음 타이밍을 나타내는 시간 정보를 포함하고 있고, 그 시간 정보에 의해서 악곡 시퀀스와의 동기가 가능하게 되어 있다. 따라서, 상술한 음성 및 악곡 재생 장치에 있어서는, 파일 작성에 있어서, 또는, 음성 시퀀스의 재생 내용을 변경하는 경우에 있어서, 쌍방의 시퀀스 내의 시간 정보를 해석하여 음성과 악곡의 동기를 확인하면서, 편집이나 해당 개소의 수정을 하지 않으면 안되고, 이 때문에, 파일의 편집, 수정에 수고가 드는 문제가 있었다. 또, 재생 음성 만이 서로 다른 복수의 재생 패턴이 필요한 경우에는, 각각의 재생 음성에 대응하여 동일한 악곡 시퀀스를 준비하지 않으면 안되어, 데이터 사이즈의 점에서 낭비가 많은 결점이 있다. 이것은, 특히, 휴대 전화기와 같이 소형의 기기에 있어서는 큰 문제가 된다.
본 발명은, 이러한 사정을 고려하여 이루어진 것으로, 그 목적은, 음성 시퀀스의 편집, 수정을 간단히 행할 수 있고, 또한, 데이터 사이즈의 낭비도 방지할 수 있는 음성 및 악곡 재생 장치 및 방법 및 프로그램 및 시퀀스 데이터 포맷을 제공하는 것에 있다.
도 1은 본 발명의 제1 실시 형태에 따른 음성 및 악곡 재생 장치의 기능 블록도.
도 2는 제1 실시 형태에 따른 음성 및 악곡 재생 장치를 적용한 휴대 전화기의 구성을 도시하는 블록도.
도 3은 제1 실시 형태에 따른 음성 및 악곡 재생 장치의 동작을 설명하기 위한 흐름도.
도 4는 제1 실시 형태에 따른 음성 및 악곡 재생 장치의 동작을 설명하기 위한 설명도.
도 5는 제1 실시 형태에 따른 음성 및 악곡 재생 장치의 제1 응용예를 설명하기 위한 설명도.
도 6은 제1 실시 형태의 제1 응용예를 설명하기 위한 흐름도.
도 7은 제1 실시 형태에 따른 음성 및 악곡 재생 장치의 제2 응용예를 설명하기 위한 설명도.
도 8은 제1 실시 형태의 제2 응용예를 설명하기 위한 흐름도.
도 9는 본 발명의 제2 실시 형태에 따른 음성 및 악곡 재생 장치의 기능 블록도.
도 10은 제2 실시 형태에 있어서의 SMAF 파일(31)의 구성을 도시하는 도면.
도 11은 제2 실시 형태의 동작을 설명하기 위한 설명도.
도 12는 제2 실시 형태의 동작을 설명하기 위한 흐름도.
도 13은 종래의 음성 및 악곡 재생 장치의 기능 블록도.
<도면의 주요 부분에 대한 부호의 설명>
1 : CPU
2 : ROM
3 : RAM
12 : 음원
12a : 악곡부
12b : 음성부
13 : 스피커
21 : 악곡 데이터 파일
22, 27, 32, 34 : 플레이어
23, 28, 33, 35 : 사운드 미들웨어
26 : 악음 데이터 파일
36 : 음원 디바이스
37 : 시퀀서
38 : 음원
39 : 음성용 음원
본 발명에 따른 음성 및 악곡 재생 장치는, 복수의 이벤트 데이터로 구성되는 악곡 시퀀스 데이터를 기억하는 제1 기억 수단- 상기 복수의 이벤트 데이터는, 연주 이벤트 데이터와, 악곡 진행에 음성을 링크시키기 위한 사용자 이벤트 데이터를 포함하고 있고 -과, 복수의 음성 데이터 파일을 기억하는 제2 기억 수단과, 상기 제1 기억 수단으로부터 상기 악곡 시퀀스 데이터의 각 이벤트 데이터를 순차 판독하는 악곡 시퀀스 재생 수단- 상기 사용자 이벤트 데이터가 판독되었을 때 그에 따라 음성 재생 지시가 출력되고 -과, 상기 악곡 시퀀스 재생 수단에 의해서 판독된 연주 이벤트 데이터에 따라 악음 신호를 발생시키는 악음 음원 수단과, 상기 악곡 시퀀스 재생 수단이 출력하는 상기 음성 재생 지시에 따라, 상기 제2 기억 수단으로부터 음성 데이터 파일을 선택하고, 이 선택된 음성 데이터 파일에 포함되는 음성 데이터를 순차 판독하는 음성 재생 수단과, 상기 음성 재생 수단에 의해 판독된 음성 데이터에 기초하여 음성 신호를 발생시키는 음성 음원 수단을 포함한다.
이에 따라, 악곡 진행의 소정의 타이밍에서 음성 데이터를 재생하는 것을 용이하게 행하는 것이 가능하다. 또한, 악곡 진행에 동기한 음성 데이터의 재생 시퀀스를, 수정하거나, 편집하거나 하는 것을 용이하게 행할 수 있게 된다.
예를 들면, 상기 음성 재생 지시는, 상기 제2 기억 수단으로부터 선택하여야 할 음성 데이터 파일을 특정하는 정보를 포함하고 있어도 된다. 또한, 사용자의 지시에 기초하여 원하는 음성 데이터 파일을 사용자 이벤트 데이터에 자유 할당하는 것이 가능하도록 하여도 된다. 또한, 사용자의 입력 조작에 따라 원하는 음성 데이터 콘텐츠를 작성하고, 이 작성된 음성 데이터 콘텐츠로 구성되는 음성 데이터 파일을 상기 제2 기억 수단에 기입할 수 있도록 하여도 된다. 그와 같이 하면, 개별의 사용자 자신에게 있어서 오리지널인 사양으로, 악곡 진행의 소정의 타이밍에서 음성 데이터를 재생하도록 프로그램하는 것을, 매우 용이하게 행하는 것이 가능하다. 이것은, 휴대 전화 또는 그 밖의 휴대 단말기기에 본 발명을 적용한 경우에, 악곡 시퀀스 데이터의 전문 지식을 갖지 않는 일반 이용자에게 있어서, 자신의 오리지널 사양에서의 악곡과 음성의 링크를 용이하게 실현시키는 것이 가능하기 때문에, 안성맞춤이다.
본 발명에 따른 음성 및 악곡 재생 방법은, 복수의 이벤트 데이터로 구성되는 악곡 시퀀스 데이터와 복수의 음성 데이터 파일을 기억하는 기억 매체를 이용하여 음성 및 악곡 재생 방법에 있어서, 상기 악곡 시퀀스 데이터를 구성하는 상기 복수의 이벤트 데이터는, 연주 이벤트 데이터와, 악곡 진행에 음성을 링크시키기 위한 사용자 이벤트 데이터를 포함하고 있고, 상기 방법은, 상기 기억 매체로부터 상기 악곡 시퀀스 데이터의 각 이벤트 데이터를 순차 판독하는 처리를 행하고, 상기 사용자 이벤트 데이터가 판독되었을 때 그에 따라 음성 재생 지시를 출력하는 악곡 시퀀스 재생 수순과, 상기 악곡 시퀀스 재생 수순이 출력하는 상기 음성 재생 지시에 따라, 상기 기억 매체로부터 음성 데이터 파일을 선택하고, 이 선택된 음성 데이터 파일에 포함되는 음성 데이터를 순차 판독하는 음성 재생 수순을 포함하며, 상기 악곡 시퀀스 재생 수순에 의해 판독된 연주 이벤트 데이터에 따라 악음 신호를 발생시키고, 상기 음성 재생 수순에 의해 판독된 음성 데이터에 기초하여 음성 신호를 발생시키도록 한 것이다.
본 발명에 따른 프로그램은, 상기한 바와 같은 음성 및 악곡 재생 방법을 컴퓨터에 실행시키는 명령군을 내용으로 한다.
또한, 본 발명은, 음성 및 악곡을 재생시키기 위한, 신규이고 또한 유용한, 시퀀스 데이터 포맷을 제공한다. 본 발명에 따른 시퀀스 데이터 포맷은, (청구항20) 연주 이벤트 데이터와 사용자 이벤트 데이터를 포함하는 복수의 이벤트 데이터로 구성되는 악곡 시퀀스 데이터를 포함하는 시퀀스 데이터 청크와, 복수의 음성 데이터 파일을 포함하는 음성 데이터 청크를 갖고, 상기 사용자 이벤트 데이터는 악곡 진행에 음성을 링크시키기 위한 것으로서, 상기 사용자 이벤트 데이터에는, 그 이벤트의 발생 타이밍에서 재생되어야할 음성 데이터 파일이 상기 음성 데이터 청크 내의 상기 복수의 음성 데이터 파일로부터 선택적으로 할당되어 있다.
이하, 첨부 도면을 참조하여 본 발명의 실시예에 대하여 상세히 설명한다. 단, 발명자들은, 이하 진술하는 실시예에 의해서 본 발명의 범위를 한정하려는 의도는 전혀 없고, 본 발명의 범위는 청구항의 기재에 기초하여 해석되야 된다.
<발명의 실시 형태>
이하, 도면을 참조하여, 본 발명의 일 실시 형태에 대하여 설명한다. 도 1은 제1 실시 형태에 따른 음성 및 악곡 재생 장치의 기능 블록도, 도 2는 음성 및 악곡 재생 장치를 적용한 휴대 전화기의 하드웨어 구성도이다. 도 2에 있어서, 부호 1은 CPU(중앙 처리 장치), 2는 CPU(1)의 프로그램이 기억된 ROM(리드 온리 메모리), 3은 데이터 일시 기억용의 RAM(랜덤 액세스 메모리)으로서, 불휘발성의 메모리가 사용되고 있다. 4는 텐키, 펑션키로 이루어지는 조작부, 5는 액정 표시기에 의한 표시부이다. 6은 통신부이고, 안테나(7)를 통하여 기지국과의 통신을 행한다.
8은 음성 처리부로서, 통신부(6)로부터 출력되는 압축 음성 데이터를 신장하고, 아날로그 신호로 변환하여 스피커(9)로 출력하고, 또한, 마이크로폰(10)으로부터의 음성 신호를 디지털 음성 데이터로 변환하고, 압축하여 통신부(6)로 출력한다. 12는 음원으로서, 악곡 재생용의 악곡부(12a)와 음성 재생용의 음성부(12b)가 설치되어 있다. 이 경우, 악곡부(12a)는 FM 방식 또는 PCM 방식에 의해서 악음 신호를 생성하는 음원이다. 또한, 음성부(12b)는 파형 중첩 방식 또는 포르만트 합성 방식에 의해서 음성을 합성하는 것이다. 상기의 악곡부(12a)에 의해서 착신 멜로디가 형성되고, 또한, 악곡부(12a) 및 음성부(12b)에 의해서 후에 진술하는 음성(이 첨부된) 악음이 재생된다. 특별히 한정하지 않는 한, 본 명세서에 있어서 「음성」이란, 대표적으로는 노랫소리, 허밍, 나레이션 등의 인간의 소리이지만, 이것에 한정하지 않고, 동물의 울음소리나, 로봇의 음성 등의 인공적으로 작성된 특수한 음성이어도 된다.
다음으로, 도 1에 있어서, 21이 악곡 데이터 파일이고, RAM(3) 내에 기억되어 있다. 이 악곡 데이터 파일(21)은, 착신 멜로디에 사용되는 악곡 데이터나 감상용의 악곡 데이터 등이 포함되어 있고, 각 악곡은 예를 들면 인터넷을 통하여 다운로드된다. 악곡 데이터 파일(21)은, 악곡부(12a)에 대한 발음지시 등의 제어 내용을 나타내는 이벤트 데이터와 그 이벤트의 발생 타이밍을 나타내는 시간 데이터로 이루어진다. 또한, 본 발명의 실시 형태에서는, 소정의 음성 데이터(예를 들면 사람의 음성을 나타내는 것)를 RAM(3)으로부터 로드할 것을 지시하는 사용자 이벤트 데이터를 포함하고 있다. 사용자 이벤트 데이터도 상기한 시간 데이터에 의해 그 발생 타이밍이 정해져 있다. 플레이어(22)는 소프트웨어이고, 악곡 데이터 파일(21) 내의 악곡 데이터를 사운드 미들웨어(23)에 로드하고, 또한, 사용자로부터의 지시에 따라 악곡 데이터 파일(21)의 제어를 행한다. 사운드 미들웨어(23)는 소프트웨어이고, 플레이어(22)로부터 공급되는 악곡 데이터를 음원 제어 데이터로 변환하여, 시간 데이터에 따라 상기 변환된 음원 제어 데이터를 순차 음원(12)(도 2)의 악곡부(12a)로 출력한다. 악곡부(12a)는 그 음원 제어 데이터를 악음 신호로 변환하여, 출력한다.
음성 데이터 파일(26)은 음성 데이터가 기록된 복수의 파일이고, RAM(3) 내에 기억된다. 플레이어(27)는 사운드 미들웨어(23)로부터 지시된 파일 번호의 음성 데이터 파일(26)을 사운드 미들웨어(28)에 로드한다. 사운드 미들웨어(28)는, 플레이어(27)로부터 공급된 음성 데이터 파일의 각 음성 데이터를 순차 음원(12)의 음성부(12b)로 출력한다. 음성부(12b)는 그 음성 데이터를 아날로그 음성 신호로 변환하여 출력한다. 음원(12)의 악곡부(12a) 및 음성부(12b)로부터 출력된 악음 신호 및 음성 신호는, 합성 회로(29)에서 합성되어, 스피커(13)로 출력된다.
다음으로, 상기 실시 형태의 동작을 도 3에 도시하는 흐름도 및 도 4에 도시하는 설명도를 참조하여 설명한다. 또, 이 실시 형태에 따른 휴대 전화기의 전화기로서의 동작은 종래의 것과 마찬가지이기 때문에 설명을 생략하고, 음성 및 악곡 재생 장치의 동작을 이하에 설명한다.
사용자가 조작부(4)에 있어서 악곡 번호를 입력하고, 계속해서 악곡 재생을 지시하면, 플레이어(22)가 악곡 데이터 파일(21)로부터, 사용자에 의해서 지시된 악곡 데이터를 판독하여, 사운드 미들웨어(23)에 로드한다(도 3의 단계 Sa1). 사운드 미들웨어(23)는, 로드된 악곡 데이터에 기초하는 악곡 재생 처리를 개시한다(단계 Sa2). 우선, 최초의 이벤트 데이터를 판독하고(단계 Sa3), 그 이벤트 데이터가 사용자 이벤트인지의 여부를 판단한다(단계 Sa4). 그리고, 사용자 이벤트가 아니었던 경우에는, 통상 이벤트(악곡 재생용 이벤트)인지의 여부를 판단한다(단계 Sa5). 그리고, 통상 이벤트이었던 경우에는, 그 이벤트 데이터를 음원(12)의 악곡부(12a)로 보낸다(단계 Sa6). 악곡부(12a)는 그 이벤트 데이터에 기초하여 악음 신호를 재생한다(단계 Sa7). 다음으로, 사운드 미들웨어(23)는, 악곡 데이터의 데이터 엔드를 검출하였는지의 여부를 판단하여 (단계 Sa8), 검출하지 않은 경우에는 다시 단계 Sa3으로 되돌아가, 다음의 이벤트의 판독을 행한다.
이후, 상술한 과정을 반복함으로써 악곡 재생이 행하여진다. 그 악곡 재생 도중에, 사용자 이벤트가 검출되면(단계 Sa4의 판단이 「예」), 사운드 미들웨어(23)가 그 사용자 이벤트를 플레이어(27)로 송신한다(단계 Sa9). 플레이어(27)는, 사용자 이벤트를 받아, 동 이벤트가 지시하는 파일 번호의 음성 데이터 파일(26)을 사운드 미들웨어(28)에 로드한다(단계 Sa10). 사운드 미들웨어(28)는, 음성 재생 처리를 개시하고(단계 Sa11), 로드된 음성 데이터를 순차 음원(12)의 음성부(12b)로 출력한다. 이에 따라, 음성부(12b)에서 음성의 재생이 행하여진다(단계 Sa12).
한편, 사운드 미들웨어(23)는, 사용자 이벤트를 플레이어(27)로 출력한 후, 데이터 엔드를 검출하였는지의 여부를 판단하여(단계 Sa8), 검출하지 않은 경우에는 다시 단계 Sa3으로 되돌아간다. 이하, 상기의 처리가 반복된다.
도 4는, 상술한 과정을 도시하는 설명도이고, 악곡 시퀀스의 도중에, 우선,사용자 이벤트1이 검출되면, 이 이벤트에 대응하는 음성 데이터1이 재생되고, 다음으로, 사용자 이벤트2가 검출되면, 이 이벤트에 대응하는 음성 데이터2가 재생되는 것을 나타내고 있다. 또한, 사용자 이벤트에 기초하여 재생되는 음성 데이터 파일은, 후술하는 바와 같이, 미리 어플리케이션 소프트웨어를 통하여, 사용자 지시에 따라, 선택된 파일의 번호가, 악곡 데이터 중의 사용자 이벤트에 기입된 것이다. 여기서, 어플리케이션 소프트웨어는 미리 ROM(2) 내에 설정되어 있어도 되고, 또는, JAVA(등록상표)에 의한 것이어도 된다.
다음으로, 상술한 음성 및 악곡 재생 장치의 제1 응용예를 설명한다.
도 5는 동 응용예의 설명도이고, 도 6은 동작을 설명하기 위한 흐름도이다.
이 응용예에 있어서는, 우선, 어플리케이션 소프트웨어가 기동되면, 질문 음성 데이터를 음성부(12b)로 출력하여 질문 음성 재생을 행한다(도 5, 도 6의 단계 Sb1). 예를 들면 퀴즈인 경우에는, Yes, No, A, B, C··· 등, 혈액형 점의 경우에는, A, B, AB, O, 별 점의 경우에는, 게자리, 사자자리··· 등의 질문 음성을 재생한다. 이 질문에 대하여, 사용자가 조작부(4)의 텐키에 의해서 회답을 행하면(단계 Sb2), 어플리케이션 소프트웨어가 그 회답을 수신하고(단계 Sb3), 수신한 회답 결과가 지시하는 음성 데이터 파일(26)의 파일 번호를 사용자 이벤트에 할당한다(단계 Sb4). 다음으로, 악곡 데이터의 재생이 행하여진다(단계 Sb5). 그 재생 도중에, 사용자 이벤트가 검출되면, 그 사용자 이벤트에 상기의 처리에 의해서 할당된 음성 데이터가 재생된다. 예를 들면, 「오늘의 운세는 대길!」이라는 말이 악음에 합쳐져서 발생된다(도 5).
다음으로, 상술한 음성 및 악곡 재생 장치의 제2 응용예를 설명한다.
도 7은 동 응용예의 설명도이고, 도 8은 동작을 설명하기 위한 흐름도이다.
이 응용예에 있어서는, 우선, 어플리케이션 소프트웨어가 기동되면, 가사 입력을 화면 표시 등에 의해 요구한다. 이 요구에 따라서, 사용자가 특정한 악곡(사용자 이벤트가 미리 설정되어 있는)을 선택하고, 악곡 내의 특정한 타이밍에 있어서의 오리지널 가사의 텍스트를 텐키에 의해 입력한다(도 7, 도 8의 단계 Sc1). 어플리케이션 소프트웨어는, 입력된 가사(1 또는 복수의 텍스트)를 음성 데이터로 변환하여, 음성 데이터 파일(26)로서 RAM(3) 내에 등록한다(단계 Sc2). 다음으로, 어플리케이션 소프트웨어는, 그 음성 데이터 파일의 파일 번호를 사용자 이벤트에 할당한다(단계 Sc3). 또한, 상술한 가사의 입력 및 할당은 하나의 악곡 데이터에 대한 1 개소에 한정되는 것이 아니라, 하나의 악곡 데이터에 대한 복수 개소(A 멜로디, B 멜로디, 브리지부(bridge portion) 등)에 입력하고 할당하도록 해도 된다.
다음으로, 악곡 데이터의 재생이 행해진다(Sc4). 그 재생 도중에, 사용자 이벤트(음성 데이터 파일의 파일 번호 할당 완료)가 검출되면, 그 사용자 이벤트에 상기의 처리에 의해서 할당된 가사의 음성 데이터가 재생된다. 예를 들면, 「해피 버스데이, 통 씨(氏)」라는 말이 악음에 합쳐서 발생된다(도 7).
또한, 오리지널 가사에 멜로디를 첨부하여 발음해도 된다. 이 경우, 가사의 각 음절에 음 높이 및 음 길이를 할당하는 방법으로는,
(1) 가사(텍스트)를 등록할 때에, 미리 결정되어 있는 음 높이나 음 길이를 나타내는 태그를 텍스트에 첨부하고, 재생 시에 음원으로는 그 태그에 따라서 재생해야할 음성의 음 높이나 음 길이를 제어하고,
(2) 악곡부 시퀀스 재생 시에, 사용자 이벤트 이후의 멜로디의 음정이나 음 높이를 추출하고, 동시에 가사(텍스트)를 구성하는 각 음절 s에 대응하는 악음을 각각에 대응하는 각 멜로디 음부 s의 음 높이 및 음 길이로 제어하여 발생시키는, 등의 방법이 있다.
또한, 상기 제1, 제2 응용예에 있어서의 어플리케이션은 미리 ROM(2) 내에 설정되어 있어도 되고, 또는, JAVA(등록상표)에 의한 것이어도 된다.
다음으로, 본 발명의 제2 실시 형태에 대하여 설명한다.
도 9는 제2 실시 형태에 따른 음성 및 악곡 재생 장치의 기능 블록도이고, 이 도면에 있어서, 31은 본 실시 형태에 있어서의 SMAF(Synthetic music Mobile Application Format) 파일이다. 여기서, SMAF란 휴대 단말기용 멀티미디어 콘텐츠의 데이터 포맷 사양의 파일이고, 본 실시 형태에 있어서는, 악곡 데이터와 음성 데이터가 1개의 파일에 기입된다. 도 10에 본 실시 형태의 SMAF 파일의 구성을 나타낸다. 이 그림에 도시하는 각 청크(데이터의 덩어리)는 다음과 같다.
Contents Info Chunk : SMAF 파일의 각종 관리용 정보가 저장된다.
Score Track chunk : 음원으로 보내는 악곡의 시퀀스 트랙을 저장한다.
Sequence Data Chunk : 실연주 데이터를 저장한다.
HV Data chunk : HV(음성)데이터 HV-1, HV-2···를 저장한다.
또한, 실연주 데이터의 시퀀스에는, 「HV Note ON」이라는 이벤트가 기록되고, 이 이벤트에 의해서 HV Data chunk의 각 데이터의 발음이 지시된다. 또, 이이벤트는 제1 실시 형태에 있어서의 사용자 이벤트에 상당한다.
32는 악곡용 재생의 플레이어, 33은 악곡용의 사운드 미들웨어, 34는 음성용의 플레이어, 35는 음성용의 사운드 미들웨어이고, 이들의 기능은 도 1의 것과 마찬가지이다. 36은 음원 디바이스이고, 내부에 악곡을 재생하기 위한 시퀀서(37), 시퀀서(37)로부터 출력되는 음원 제어 데이터에 기초하여 악음 신호를 형성하는 음원(38), 음성 재생용의 음원(39)이 각각 설치되어 있다. 그리고, 음원(38, 39)에 있어서 형성된 악음 신호 및 음성 신호가 합성 회로(40)에서 합성되고, 스피커(41)로 출력된다.
다음으로, 상기 실시 형태의 동작을 도 11, 도 12를 참조하여 설명한다.
도 11은 제2 실시 형태의 동작의 설명도이고, 도 12는 동작을 설명하기 위한 흐름도이다.
사용자에 의한 악곡 재생 지시가 있으면, 플레이어(32)가 SMAF 파일(31)로부터, 악곡 데이터를 판독하여, 사운드 미들웨어(33)에 로드한다(도 12의 단계 Sd1). 사운드 미들웨어(33)는, 로드된 악곡 데이터를 음원 제어 데이터로 변환하여, 시퀀서(37)로 출력한다(악곡 재생 개시; 단계 Sd2). 시퀀서(37)는, 우선, 공급된 음원 제어 데이터로부터 최초의 이벤트 데이터를 판독하고(단계 Sd3), 그 이벤트 데이터가 HV Note ON 이벤트인지의 여부를 판단한다(단계 Sd4). 그리고, HV Note ON 이벤트가 아니었던 경우에는, 통상 이벤트(악곡 재생용 이벤트)인지의 여부를 판단한다(단계 Sd5). 그리고, 통상 이벤트이었던 경우에는, 그 이벤트 데이터를 음원(38)으로 보낸다. 음원(38)은 그 이벤트 데이터에 기초하여 악음 신호를 재생한다(단계 Sd6). 다음으로, 시퀀서(37)는, 악곡 데이터의 데이터 엔드를 검출하였는지의 여부를 판단하여(단계 Sd7), 검출하지 않은 경우에는 다시 단계 Sd3으로 되돌아가서, 다음의 이벤트의 판독을 행한다.
이후, 상술한 과정을 반복하는 것에 의해서 악곡 재생이 행하여진다. 그 악곡 재생 도중에, HV Note ON 이벤트가 검출되면(단계 Sd4의 판단이 「예」), 시퀀서(37)가 그 HV Note ON 이벤트에 할당되어 있는 HV 데이터를 지정하는 ID를 플레이어(34)로 송신한다(단계 Sd9). 플레이어(34)는, 그 ID가 지시하는 HV 데이터를 SMAF 파일로부터 판독하여, 사운드 미들웨어(35)에 로드한다(단계 Sd10). 사운드 미들웨어(35)는, HV 데이터를 음원 제어 데이터(음성을 지정하기 위한 파라미터)로 변환하여, 음원(39)으로 출력한다. 이에 따라, 음원(39)에 있어서 음성의 재생이 행하여진다(단계 Sd11).
한편, 시퀀서(37)는, HV Note ON 이벤트를 플레이어(34)로 출력한 후, 데이터 엔드를 검출하였는지의 여부를 판단하여(단계 Sd7), 검출하지 않은 경우에는 다시 단계 Sd3으로 되돌아간다. 이하, 상기의 처리가 반복된다. 도 11은, 상술한 과정을 도시하는 설명도로서, 악곡 시퀀스의 도중에, 우선, HV Note ON 이벤트1이 검출되면, 동 이벤트에 대응하는 음성 데이터 HV-1이 재생되고, 다음으로, HV Note ON 이벤트2가 검출되면, 동 이벤트에 대응하는 음성 데이터 HV-2가 재생되는 것을 나타내고 있다.
이 제2 실시 형태에 따르면, 상술한 제1 실시 형태와 같이, 노래 소리나 나레이션이 삽입된 악곡을 재생하는 것이 가능하게 된다.
또, SMAF 파일은 콘텐츠 메이커에서 작성되고, 배신되지만, 사용자의 휴대 단말 장치에서 SMAF 파일 중의 데이터를 가공할 수 있는 기능이 있으면, 상술한 응용예2와 마찬가지의 것이 가능하다.
악곡 시퀀스 데이터 중의 1 또는 복수의 사용자 이벤트 데이터는, 개개의 악곡에 있어서, 각각 소정의 1 또는 복수의 위치(시간 위치 또는 소절 위치 등)에 미리 결합되어 있다. 이것에 의해서, 사용자가 원하는 음성 데이터 파일의 할당 조작을 행할 때에, 악곡 중에 사용자 이벤트를 결합하는 작업을 일일이 행할 필요가 없어, 매우 편하게 된다. 즉, 사용자는, 악곡 시퀀스 데이터의 파일 구성에 대한 자세한 지식이 없어도 되고, 단지, 미리 결합된 사용자 이벤트에 대응시켜 원하는 음성 데이터 파일을 할당하거나 하기만 해도 되고, 또는, 어플리케이션 소프트웨어에 의해서 자동적으로 적당한 음성 데이터 파일이 할당된다. 따라서, 휴대 전화의 일반 이용자 등, 악곡 시퀀스 데이터의 전문 지식을 갖지 않은, 아마추어 사용자에 있어서, 자기 자신의 오리지널인 음성(예를 들면 사람의 소리)을 악곡에 동기시켜 자유롭게 결합하고자 하는 경우에, 매우 손쉽게 사용하기 쉬운 것으로 된다. 그러나, 물론, 이것에 한하지 않고, 악곡 시퀀스 데이터 중의 임의의 1 또는 복수의 위치에 대응시켜 1 또는 복수의 사용자 이벤트 데이터를, 사용자 조작에 의해서 자유롭게 결합하는 것이 가능하도록 해도 된다. 그 경우에는, 사용자 자기 자신에 오리지널인 음성을 오리지널인 타이밍에서 악곡에 동기시켜 자유롭게 결합할 수 있다.
또한, 변경예로서, 1개의 사용자 이벤트 데이터에 복수의 음성 데이터 파일을 할당하고, 재생 시에는, 상기 사용자 이벤트 데이터의 타이밍을 개시점으로 하여, 상기 할당된 복수의 음성 데이터 파일을 순차 재생하도록(또는 동시에 재생해도 됨) 하여도 된다.
또, 상기 실시예에서는, 음성 데이터 파일에 의해, 일본어의 음성을 재생시키도록 설명했지만, 일본어에 한하지 않고, 영어, 중국어, 독일어, 한국어, 스페인어 등, 세계 각국의 언어를 재생시키도록 해도 된다. 또, 사람의 소리에 한하지 않고, 동물의 울음소리를 재생시키도록 해도 된다.
이상 설명한 바와 같이, 본 발명에 따르면, 사용자 이벤트를 포함하는 악곡 시퀀스 데이터 파일과, 상기 사용자 이벤트에 의해 재생이 지시되는 음성 데이터 파일이 정의되어 있고, 각각의 파일이 서로 다른 재생 수단에 의해서 처리되도록 되어 있기 때문에, 음성 시퀀스의 편집, 수정을 간단히 행하는 것이 가능한 효과가 얻어진다. 또한, 음성 시퀀스로서 복수의 패턴을 준비하는 경우에 있어서도, 음성 데이터 파일만 복수 준비하면 되어, 데이터 사이즈의 낭비도 방지할 수 있는 효과가 있다.
Claims (23)
- 복수의 이벤트 데이터로 구성되는 악곡 시퀀스 데이터를 기억하는 제1 기억 수단과 - 상기 복수의 이벤트 데이터는, 연주 이벤트 데이터와, 악곡 진행에 음성을 링크시키기 위한 사용자 이벤트 데이터를 포함하고 있음 -;복수의 음성 데이터 파일을 기억하는 제2 기억 수단과;상기 제1 기억 수단으로부터 상기 악곡 시퀀스 데이터의 각 이벤트 데이터를 순차 판독하는 악곡 시퀀스 재생 수단과 - 상기 사용자 이벤트 데이터가 판독되었을 때 그에 따라 음성 재생 지시가 출력됨 -;상기 악곡 시퀀스 재생 수단에 의해서 판독된 연주 이벤트 데이터에 따라 악음 신호를 발생시키는 악음 음원 수단과;상기 악곡 시퀀스 재생 수단이 출력하는 상기 음성 재생 지시에 따라, 상기 제2 기억 수단으로부터 음성 데이터 파일을 선택하고, 이 선택된 음성 데이터 파일에 포함되는 음성 데이터를 순차 판독하는 음성 재생 수단과;상기 음성 재생 수단에 의해 판독된 음성 데이터에 기초하여 음성 신호를 발생시키는 음성 음원 수단을 포함하는 음성 및 악곡 재생 장치.
- 제1항에 있어서,상기 음성 재생 지시는, 상기 제2 기억 수단으로부터 선택하여야 할 음성 데이터 파일을 특정하는 정보를 포함하는 음성 및 악곡 재생 장치.
- 제1항에 있어서,사용자의 지시에 기초하여 원하는 음성 데이터 파일을 사용자 이벤트 데이터에 할당하는 할당 수단을 더 포함하는 음성 및 악곡 재생 장치.
- 제1항에 있어서,원하는 음성 데이터 파일을 사용자 이벤트 데이터에 할당하기 위한 프로그램을 수신하는 수신 수단과,상기 수신 수단에서 수신한 프로그램을 실행하는 프로그램 실행 수단을 더 포함하는 음성 및 악곡 재생 장치.
- 제4항에 있어서,상기 프로그램은, 상기 프로그램 실행 수단에 의해서 해당 프로그램을 실행하는 과정에서, 사용자와 대화하고, 이 대화 결과에 따라, 할당하여야 할 음성 데이터 파일과 사용자 이벤트 데이터를 자동적으로 결정하는 음성 및 악곡 재생 장치.
- 제1항 내지 제5항 중 어느 한 항에 있어서,사용자의 입력 조작에 따라 원하는 음성 데이터 콘텐츠를 작성하고, 이 작성된 음성 데이터 콘텐츠로 구성되는 음성 데이터 파일을 상기 제2 기억 수단에 기입하는 음성 데이터 파일 작성 수단을 더 포함하는 음성 및 악곡 재생 장치.
- 제1항 내지 제5항 중 어느 한 항에 있어서,원하는 음성 데이터 콘텐츠를 사용자에게 입력시키고, 사용자 입력된 음성 데이터 콘텐츠로 구성되는 음성 데이터 파일을 상기 제2 기억 수단에 기억시키기 위한 프로그램을 수신하는 수신 수단과,상기 수신 수단에서 수신한 프로그램을 실행하는 프로그램 실행 수단을 더 포함하는 음성 및 악곡 재생 장치.
- 제7항에 있어서,상기 프로그램은, 원하는 사용자 이벤트 데이터에 대응시켜 원하는 음성 데이터 콘텐츠를 사용자에게 입력시키고, 사용자 입력된 음성 데이터 콘텐츠로 구성되는 음성 데이터 파일을 상기 제2 기억 수단에 기억시키고, 해당 음성 데이터 파일을 원하는 해당 사용자 이벤트 데이터에 할당하는 음성 및 악곡 재생 장치.
- 제7항에 있어서,상기 사용자 입력하는 음성 데이터 콘텐츠는, 사용자가 원하는 임의의 텍스트 데이터인 음성 및 악곡 재생 장치.
- 제1항에 있어서,상기 제2 기억 수단에 기억되는 상기 음성 데이터 파일에 포함되는 상기 음성 데이터는, 텍스트 데이터를 포함하며,상기 음성 음원 수단은, 상기 음성 데이터에 포함되는 상기 텍스트 데이터에 기초하여 오디오적인 음성 신호를 합성하는 음성 및 악곡 재생 장치.
- 제1항에 있어서,상기 제1 및 제2 기억 수단은, 공통의 기억 매체로 구성되는 음성 및 악곡 재생 장치.
- 제1항에 있어서,상기 음성 데이터 파일은, 사람의 소리를 나타내고 있는 음성 및 악곡 재생 장치.
- 제1항에 있어서,상기 음성 및 악곡 재생 장치는, 휴대 전화 또는 휴대 통신 단말에 내장되어 있는 음성 및 악곡 재생 장치.
- 복수의 이벤트 데이터로 구성되는 악곡 시퀀스 데이터와 복수의 음성 데이터 파일을 기억하는 기억 매체를 이용하여 음성 및 악곡을 재생하는 방법으로서, 상기악곡 시퀀스 데이터를 구성하는 상기 복수의 이벤트 데이터는, 연주 이벤트 데이터와, 악곡 진행에 음성을 링크시키기 위한 사용자 이벤트 데이터를 포함하고 있고,상기 방법은,상기 기억 매체로부터 상기 악곡 시퀀스 데이터의 각 이벤트 데이터를 순차 판독하는 처리를 행하고, 상기 사용자 이벤트 데이터가 판독되었을 때 그에 따라 음성 재생 지시를 출력하는 악곡 시퀀스 재생 수순과;상기 악곡 시퀀스 재생 수순이 출력하는 상기 음성 재생 지시에 따라, 상기 기억 매체로부터 음성 데이터 파일을 선택하고, 이 선택된 음성 데이터 파일에 포함되는 음성 데이터를 순차 판독하는 음성 재생 수순을 포함하며,상기 악곡 시퀀스 재생 수순에 의해 판독된 연주 이벤트 데이터에 따라 악음 신호를 발생시키고, 상기 음성 재생 수순에 의해 판독된 음성 데이터에 기초하여 음성 신호를 발생시키도록 하는 음성 및 악곡 재생 방법.
- 제14항에 있어서,사용자의 조작에 따라, 상기 기억 매체에 기억된 상기 악곡 시퀀스 데이터 중의 원하는 사용자 이벤트 데이터에 대하여, 상기 기억 매체에 기억된 상기 복수의 음성 데이터 파일 중의 원하는 음성 데이터 파일을 할당하는 할당 수순을 더 포함하는 음성 및 악곡 재생 방법.
- 제14항 또는 제15항에 있어서,사용자의 입력 조작에 따라 원하는 음성 데이터 콘텐츠를 작성하고, 이 작성된 음성 데이터 콘텐츠로 구성되는 음성 데이터 파일을 상기 기억 매체에 기입하는 음성 데이터 파일 작성 수순을 더 포함하는 음성 및 악곡 재생 방법.
- 제14항에 있어서,상기 음성 데이터 파일은, 사람의 소리를 나타내고 있는 음성 및 악곡 재생 방법.
- 복수의 이벤트 데이터로 구성되는 악곡 시퀀스 데이터와 복수의 음성 데이터 파일을 기억하는 기억 매체를 이용하여 음성 및 악곡 재생 방법을, 컴퓨터에 실행시키는 명령군을 내용으로 하는 프로그램으로서, 상기 악곡 시퀀스 데이터를 구성하는 상기 복수의 이벤트 데이터는, 연주 이벤트 데이터와, 악곡 진행에 음성을 링크시키기 위한 사용자 이벤트 데이터를 포함하고 있고, 상기 방법은,상기 기억 매체로부터 상기 악곡 시퀀스 데이터의 각 이벤트 데이터를 순차 판독하는 처리를 행하고, 상기 사용자 이벤트 데이터가 판독되었을 때 그에 따라 음성 재생 지시를 출력하는 악곡 시퀀스 재생 수순과;상기 악곡 시퀀스 재생 수순이 출력하는 상기 음성 재생 지시에 따라, 상기 기억 매체로부터 음성 데이터 파일을 선택하고, 이 선택된 음성 데이터 파일에 포함되는 음성 데이터를 순차 판독하는 음성 재생 수순을 포함하며,상기 악곡 시퀀스 재생 수순에 의해 판독된 연주 이벤트 데이터에 따라 악음 신호를 발생시키고, 상기 음성 재생 수순에 의해 판독된 음성 데이터에 기초하여 음성 신호를 발생시키도록 하는 프로그램.
- 제18항에 있어서,상기 방법은,사용자의 조작에 따라, 상기 기억 매체에 기억된 상기 악곡 시퀀스 데이터 중의 원하는 사용자 이벤트 데이터에 대하여, 상기 기억 매체에 기억된 상기 복수의 음성 데이터 파일 중의 원하는 음성 데이터 파일을 할당하는 할당 수순을 더 포함하는 프로그램.
- 제18항에 있어서,상기 방법은,사용자의 입력 조작에 따라 원하는 음성 데이터 콘텐츠를 작성하고, 이 작성된 음성 데이터 콘텐츠로 구성되는 음성 데이터 파일을 상기 기억 매체에 기입하는 음성 데이터 파일 작성 수순을 더 포함하는 프로그램.
- 제18항에 있어서,상기 음성 데이터 파일은, 사람의 소리를 나타내고 있는 프로그램.
- 제18항 내지 제21항 중 어느 한 항에 있어서,휴대 전화 또는 휴대 통신 단말에 내장되어 있는 컴퓨터에 의해 실행되는 데 적합한 프로그램.
- 음성 및 악곡을 재생시키기 위한 시퀀스 데이터 포맷에 있어서,연주 이벤트 데이터와 사용자 이벤트 데이터를 포함하는 복수의 이벤트 데이터로 구성되는 악곡 시퀀스 데이터를 포함하는 시퀀스 데이터 청크와, 복수의 음성 데이터 파일을 포함하는 음성 데이터 청크를 갖고상기 사용자 이벤트 데이터는 악곡 진행에 음성을 링크시키기 위한 것으로서, 이 사용자 이벤트 데이터에는, 그 이벤트의 발생 타이밍에서 재생되어야 되는 음성 데이터 파일이 상기 음성 데이터 청크 내의 상기 복수의 음성 데이터 파일로부터 선택적으로 할당되어 있는 시퀀스 데이터 포맷.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002371750A JP2004205605A (ja) | 2002-12-24 | 2002-12-24 | 音声および楽曲再生装置およびシーケンスデータフォーマット |
JPJP-P-2002-00371750 | 2002-12-24 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20040058034A true KR20040058034A (ko) | 2004-07-03 |
KR100682443B1 KR100682443B1 (ko) | 2007-02-15 |
Family
ID=32677206
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020030095266A KR100682443B1 (ko) | 2002-12-24 | 2003-12-23 | 음성 및 악곡 재생 장치 및 방법 |
Country Status (5)
Country | Link |
---|---|
US (1) | US7365260B2 (ko) |
JP (1) | JP2004205605A (ko) |
KR (1) | KR100682443B1 (ko) |
CN (1) | CN100559459C (ko) |
TW (1) | TWI250508B (ko) |
Families Citing this family (168)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9818386B2 (en) | 1999-10-19 | 2017-11-14 | Medialab Solutions Corp. | Interactive digital music recorder and player |
US7176372B2 (en) * | 1999-10-19 | 2007-02-13 | Medialab Solutions Llc | Interactive digital music recorder and player |
US8645137B2 (en) | 2000-03-16 | 2014-02-04 | Apple Inc. | Fast, language-independent method for user authentication by voice |
JP3879402B2 (ja) * | 2000-12-28 | 2007-02-14 | ヤマハ株式会社 | 歌唱合成方法と装置及び記録媒体 |
GB0500483D0 (en) * | 2005-01-11 | 2005-02-16 | Nokia Corp | Multi-party sessions in a communication system |
US20060293089A1 (en) * | 2005-06-22 | 2006-12-28 | Magix Ag | System and method for automatic creation of digitally enhanced ringtones for cellphones |
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
KR100658869B1 (ko) * | 2005-12-21 | 2006-12-15 | 엘지전자 주식회사 | 음악생성장치 및 그 운용방법 |
US8209180B2 (en) * | 2006-02-08 | 2012-06-26 | Nec Corporation | Speech synthesizing device, speech synthesizing method, and program |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US10002189B2 (en) | 2007-12-20 | 2018-06-19 | Apple Inc. | Method and apparatus for searching using an active ontology |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
US8712776B2 (en) | 2008-09-29 | 2014-04-29 | Apple Inc. | Systems and methods for selective text to speech synthesis |
US8352268B2 (en) | 2008-09-29 | 2013-01-08 | Apple Inc. | Systems and methods for selective rate of speech and speech preferences for text to speech synthesis |
US8352272B2 (en) * | 2008-09-29 | 2013-01-08 | Apple Inc. | Systems and methods for text to speech synthesis |
US8396714B2 (en) * | 2008-09-29 | 2013-03-12 | Apple Inc. | Systems and methods for concatenation of words in text to speech synthesis |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
WO2010067118A1 (en) | 2008-12-11 | 2010-06-17 | Novauris Technologies Limited | Speech recognition involving a mobile device |
US7977560B2 (en) * | 2008-12-29 | 2011-07-12 | International Business Machines Corporation | Automated generation of a song for process learning |
US8380507B2 (en) | 2009-03-09 | 2013-02-19 | Apple Inc. | Systems and methods for determining the language to use for speech generated by a text to speech engine |
US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US20120309363A1 (en) | 2011-06-03 | 2012-12-06 | Apple Inc. | Triggering notifications associated with tasks items that represent tasks to perform |
US9431006B2 (en) | 2009-07-02 | 2016-08-30 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
DE202011111062U1 (de) | 2010-01-25 | 2019-02-19 | Newvaluexchange Ltd. | Vorrichtung und System für eine Digitalkonversationsmanagementplattform |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
US20110219940A1 (en) * | 2010-03-11 | 2011-09-15 | Hubin Jiang | System and method for generating custom songs |
US10762293B2 (en) | 2010-12-22 | 2020-09-01 | Apple Inc. | Using parts-of-speech tagging and named entity recognition for spelling correction |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US8994660B2 (en) | 2011-08-29 | 2015-03-31 | Apple Inc. | Text correction processing |
US8682938B2 (en) * | 2012-02-16 | 2014-03-25 | Giftrapped, Llc | System and method for generating personalized songs |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
US9483461B2 (en) | 2012-03-06 | 2016-11-01 | Apple Inc. | Handling speech synthesis of content for multiple languages |
US9280610B2 (en) | 2012-05-14 | 2016-03-08 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
US9495129B2 (en) | 2012-06-29 | 2016-11-15 | Apple Inc. | Device, method, and user interface for voice-activated navigation and browsing of a document |
US9263060B2 (en) | 2012-08-21 | 2016-02-16 | Marian Mason Publishing Company, Llc | Artificial neural network based system for classification of the emotional content of digital music |
US9576574B2 (en) | 2012-09-10 | 2017-02-21 | Apple Inc. | Context-sensitive handling of interruptions by intelligent digital assistant |
US9547647B2 (en) | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
DE212014000045U1 (de) | 2013-02-07 | 2015-09-24 | Apple Inc. | Sprach-Trigger für einen digitalen Assistenten |
US9368114B2 (en) | 2013-03-14 | 2016-06-14 | Apple Inc. | Context-sensitive handling of interruptions |
WO2014144579A1 (en) | 2013-03-15 | 2014-09-18 | Apple Inc. | System and method for updating an adaptive speech recognition model |
CN105027197B (zh) | 2013-03-15 | 2018-12-14 | 苹果公司 | 训练至少部分语音命令系统 |
WO2014197336A1 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
AU2014278592B2 (en) | 2013-06-09 | 2017-09-07 | Apple Inc. | Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
EP3008964B1 (en) | 2013-06-13 | 2019-09-25 | Apple Inc. | System and method for emergency calls initiated by voice command |
WO2015020942A1 (en) | 2013-08-06 | 2015-02-12 | Apple Inc. | Auto-activating smart responses based on activities from remote devices |
US10296160B2 (en) | 2013-12-06 | 2019-05-21 | Apple Inc. | Method for extracting salient dialog usage from live data |
US9620105B2 (en) | 2014-05-15 | 2017-04-11 | Apple Inc. | Analyzing audio input for efficient speech and music recognition |
US10592095B2 (en) | 2014-05-23 | 2020-03-17 | Apple Inc. | Instantaneous speaking of content on touch devices |
US9502031B2 (en) | 2014-05-27 | 2016-11-22 | Apple Inc. | Method for supporting dynamic grammars in WFST-based ASR |
US9760559B2 (en) | 2014-05-30 | 2017-09-12 | Apple Inc. | Predictive text input |
US10078631B2 (en) | 2014-05-30 | 2018-09-18 | Apple Inc. | Entropy-guided text prediction using combined word and character n-gram language models |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
US10289433B2 (en) | 2014-05-30 | 2019-05-14 | Apple Inc. | Domain specific language for encoding assistant dialog |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
US9785630B2 (en) | 2014-05-30 | 2017-10-10 | Apple Inc. | Text prediction using combined word N-gram and unigram language models |
US9734193B2 (en) | 2014-05-30 | 2017-08-15 | Apple Inc. | Determining domain salience ranking from ambiguous words in natural speech |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
AU2015266863B2 (en) | 2014-05-30 | 2018-03-15 | Apple Inc. | Multi-command single utterance input method |
US10192533B2 (en) * | 2014-06-17 | 2019-01-29 | Yamaha Corporation | Controller and system for voice generation based on characters |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US10659851B2 (en) | 2014-06-30 | 2020-05-19 | Apple Inc. | Real-time digital assistant knowledge updates |
JP6305275B2 (ja) * | 2014-08-21 | 2018-04-04 | 株式会社河合楽器製作所 | 電子楽器における音声アシスト装置及びプログラム |
US10446141B2 (en) | 2014-08-28 | 2019-10-15 | Apple Inc. | Automatic speech recognition based on user feedback |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
US9606986B2 (en) | 2014-09-29 | 2017-03-28 | Apple Inc. | Integrated word N-gram and class M-gram language models |
US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US10552013B2 (en) | 2014-12-02 | 2020-02-04 | Apple Inc. | Data detection |
US9711141B2 (en) | 2014-12-09 | 2017-07-18 | Apple Inc. | Disambiguating heteronyms in speech synthesis |
US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
US10152299B2 (en) | 2015-03-06 | 2018-12-11 | Apple Inc. | Reducing response latency of intelligent automated assistants |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US10255907B2 (en) | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
DK179309B1 (en) | 2016-06-09 | 2018-04-23 | Apple Inc | Intelligent automated assistant in a home environment |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
DK179343B1 (en) | 2016-06-11 | 2018-05-14 | Apple Inc | Intelligent task discovery |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179049B1 (en) | 2016-06-11 | 2017-09-18 | Apple Inc | Data driven natural language event detection and classification |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
US10474753B2 (en) | 2016-09-07 | 2019-11-12 | Apple Inc. | Language identification using recurrent neural networks |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US11281993B2 (en) | 2016-12-05 | 2022-03-22 | Apple Inc. | Model and ensemble compression for metric learning |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
US11204787B2 (en) | 2017-01-09 | 2021-12-21 | Apple Inc. | Application integration with a digital assistant |
US10417266B2 (en) | 2017-05-09 | 2019-09-17 | Apple Inc. | Context-aware ranking of intelligent response suggestions |
DK201770383A1 (en) | 2017-05-09 | 2018-12-14 | Apple Inc. | USER INTERFACE FOR CORRECTING RECOGNITION ERRORS |
US10726832B2 (en) | 2017-05-11 | 2020-07-28 | Apple Inc. | Maintaining privacy of personal information |
US10395654B2 (en) | 2017-05-11 | 2019-08-27 | Apple Inc. | Text normalization based on a data-driven learning network |
DK201770439A1 (en) | 2017-05-11 | 2018-12-13 | Apple Inc. | Offline personal assistant |
US11301477B2 (en) | 2017-05-12 | 2022-04-12 | Apple Inc. | Feedback analysis of a digital assistant |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK201770428A1 (en) | 2017-05-12 | 2019-02-18 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
DK201770432A1 (en) | 2017-05-15 | 2018-12-21 | Apple Inc. | Hierarchical belief states for digital assistants |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
US10311144B2 (en) | 2017-05-16 | 2019-06-04 | Apple Inc. | Emoji word sense disambiguation |
DK179560B1 (en) | 2017-05-16 | 2019-02-18 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
US10303715B2 (en) | 2017-05-16 | 2019-05-28 | Apple Inc. | Intelligent automated assistant for media exploration |
US10403278B2 (en) | 2017-05-16 | 2019-09-03 | Apple Inc. | Methods and systems for phonetic matching in digital assistant services |
US10657328B2 (en) | 2017-06-02 | 2020-05-19 | Apple Inc. | Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling |
US10445429B2 (en) | 2017-09-21 | 2019-10-15 | Apple Inc. | Natural language understanding using vocabularies with compressed serialized tries |
US10755051B2 (en) | 2017-09-29 | 2020-08-25 | Apple Inc. | Rule-based natural language processing |
US10636424B2 (en) | 2017-11-30 | 2020-04-28 | Apple Inc. | Multi-turn canned dialog |
US10733982B2 (en) | 2018-01-08 | 2020-08-04 | Apple Inc. | Multi-directional dialog |
US10733375B2 (en) | 2018-01-31 | 2020-08-04 | Apple Inc. | Knowledge-based framework for improving natural language understanding |
US10789959B2 (en) | 2018-03-02 | 2020-09-29 | Apple Inc. | Training speaker recognition models for digital assistants |
US10592604B2 (en) | 2018-03-12 | 2020-03-17 | Apple Inc. | Inverse text normalization for automatic speech recognition |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
US10909331B2 (en) | 2018-03-30 | 2021-02-02 | Apple Inc. | Implicit identification of translation payload with neural machine translation |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US10984780B2 (en) | 2018-05-21 | 2021-04-20 | Apple Inc. | Global semantic word embeddings using bi-directional recurrent neural networks |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
DK201870355A1 (en) | 2018-06-01 | 2019-12-16 | Apple Inc. | VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS |
DK179822B1 (da) | 2018-06-01 | 2019-07-12 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
US11386266B2 (en) | 2018-06-01 | 2022-07-12 | Apple Inc. | Text correction |
US10892996B2 (en) | 2018-06-01 | 2021-01-12 | Apple Inc. | Variable latency device coordination |
US10944859B2 (en) | 2018-06-03 | 2021-03-09 | Apple Inc. | Accelerated task performance |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4731847A (en) * | 1982-04-26 | 1988-03-15 | Texas Instruments Incorporated | Electronic apparatus for simulating singing of song |
JPS62137082A (ja) | 1985-12-11 | 1987-06-19 | 諸木 一義 | 座敷船及び水上座敷 |
JPH0652034B2 (ja) | 1986-02-19 | 1994-07-06 | 旭化成工業株式会社 | 自動掘削機 |
JPH05341793A (ja) * | 1991-04-19 | 1993-12-24 | Pioneer Electron Corp | カラオケ演奏装置 |
JP3507090B2 (ja) * | 1992-12-25 | 2004-03-15 | キヤノン株式会社 | 音声処理装置及びその方法 |
US5703311A (en) * | 1995-08-03 | 1997-12-30 | Yamaha Corporation | Electronic musical apparatus for synthesizing vocal sounds using format sound synthesis techniques |
US6304846B1 (en) * | 1997-10-22 | 2001-10-16 | Texas Instruments Incorporated | Singing voice synthesis |
US6782299B1 (en) * | 1998-02-09 | 2004-08-24 | Sony Corporation | Method and apparatus for digital signal processing, method and apparatus for generating control data, and medium for recording program |
JP2000105595A (ja) * | 1998-09-30 | 2000-04-11 | Victor Co Of Japan Ltd | 歌唱装置及び記録媒体 |
US6327590B1 (en) | 1999-05-05 | 2001-12-04 | Xerox Corporation | System and method for collaborative ranking of search results employing user and group profiles derived from document collection content analysis |
US6459774B1 (en) * | 1999-05-25 | 2002-10-01 | Lucent Technologies Inc. | Structured voicemail messages |
US6321179B1 (en) | 1999-06-29 | 2001-11-20 | Xerox Corporation | System and method for using noisy collaborative filtering to rank and present items |
US6694297B2 (en) * | 2000-03-30 | 2004-02-17 | Fujitsu Limited | Text information read-out device and music/voice reproduction device incorporating the same |
EP1330101B1 (en) | 2000-09-25 | 2008-04-16 | Yamaha Corporation | Mobile terminal device |
US6928410B1 (en) * | 2000-11-06 | 2005-08-09 | Nokia Mobile Phones Ltd. | Method and apparatus for musical modification of speech signal |
US7058889B2 (en) * | 2001-03-23 | 2006-06-06 | Koninklijke Philips Electronics N.V. | Synchronizing text/visual information with audio playback |
JP2002311967A (ja) | 2001-04-13 | 2002-10-25 | Casio Comput Co Ltd | 替え歌作成装置及び替え歌作成プログラム及び替え歌作成方法 |
JP2002334261A (ja) | 2001-05-09 | 2002-11-22 | Noiman:Kk | 情報提供方法及び情報記録媒体並びに教習所紹介システム |
US20030200858A1 (en) * | 2002-04-29 | 2003-10-30 | Jianlei Xie | Mixing MP3 audio and T T P for enhanced E-book application |
US7299182B2 (en) * | 2002-05-09 | 2007-11-20 | Thomson Licensing | Text-to-speech (TTS) for hand-held devices |
-
2002
- 2002-12-24 JP JP2002371750A patent/JP2004205605A/ja active Pending
-
2003
- 2003-12-16 US US10/738,584 patent/US7365260B2/en not_active Expired - Fee Related
- 2003-12-23 KR KR1020030095266A patent/KR100682443B1/ko not_active IP Right Cessation
- 2003-12-24 TW TW092136718A patent/TWI250508B/zh not_active IP Right Cessation
- 2003-12-24 CN CNB2003101244039A patent/CN100559459C/zh not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US20040133425A1 (en) | 2004-07-08 |
CN1510659A (zh) | 2004-07-07 |
KR100682443B1 (ko) | 2007-02-15 |
TW200426778A (en) | 2004-12-01 |
TWI250508B (en) | 2006-03-01 |
US7365260B2 (en) | 2008-04-29 |
JP2004205605A (ja) | 2004-07-22 |
CN100559459C (zh) | 2009-11-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100682443B1 (ko) | 음성 및 악곡 재생 장치 및 방법 | |
KR100724918B1 (ko) | 발음제어장치, 그 제어방법 및 매체 | |
JP4168621B2 (ja) | 歌唱音声合成を用いた携帯電話装置及び携帯電話システム | |
KR100582154B1 (ko) | 시퀀스 데이터의 데이터 교환 포맷, 음성 재생 장치 및서버 장치 | |
JP3666366B2 (ja) | 携帯用端末装置 | |
JP3646703B2 (ja) | 音声メロディ楽曲生成装置およびそれを用いた携帯端末装置 | |
JP2005208394A (ja) | 歌声生成装置、そのプログラム並びに歌声生成機能を有する携帯通信端末 | |
KR100731232B1 (ko) | 악곡 데이터 편집 재생 장치 및 휴대 정보 단말기 | |
JPH10319993A (ja) | データ編集装置 | |
JP2003131659A (ja) | 楽音発生装置および楽音発生方法 | |
KR100612780B1 (ko) | 음성 및 악곡 재생 장치 | |
JP3795495B2 (ja) | 音源装置 | |
KR20080080013A (ko) | 휴대 단말 장치 | |
KR20010088951A (ko) | 데이터 합성을 통한 노래 구현 시스템 및 그 응용 | |
JP4153453B2 (ja) | 音楽再生装置 | |
JPH10288993A (ja) | 声帯模写機能付きカラオケ装置 | |
JP2004157238A (ja) | 携帯端末 | |
JP2005107136A (ja) | 音声および楽曲再生装置 | |
JP2004166290A (ja) | 携帯用端末装置 | |
JP2004029847A (ja) | マルチメディア制御装置 | |
JP2005234208A (ja) | 楽曲再生装置及び携帯端末装置 | |
JP2004354748A (ja) | 音声再生装置 | |
JP2006235468A (ja) | 楽曲ファイル生成装置およびそれを用いた携帯端末装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20120203 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20130104 Year of fee payment: 7 |
|
LAPS | Lapse due to unpaid annual fee |