KR20040058034A - 음성 및 악곡 재생 장치 및 방법 - Google Patents

음성 및 악곡 재생 장치 및 방법 Download PDF

Info

Publication number
KR20040058034A
KR20040058034A KR1020030095266A KR20030095266A KR20040058034A KR 20040058034 A KR20040058034 A KR 20040058034A KR 1020030095266 A KR1020030095266 A KR 1020030095266A KR 20030095266 A KR20030095266 A KR 20030095266A KR 20040058034 A KR20040058034 A KR 20040058034A
Authority
KR
South Korea
Prior art keywords
data
voice
music
user
voice data
Prior art date
Application number
KR1020030095266A
Other languages
English (en)
Other versions
KR100682443B1 (ko
Inventor
가와시마다까히로
Original Assignee
야마하 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 야마하 가부시키가이샤 filed Critical 야마하 가부시키가이샤
Publication of KR20040058034A publication Critical patent/KR20040058034A/ko
Application granted granted Critical
Publication of KR100682443B1 publication Critical patent/KR100682443B1/ko

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/40Circuits
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H7/00Instruments in which the tones are synthesised from a data store, e.g. computer organs
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2230/00General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
    • G10H2230/005Device type or category
    • G10H2230/021Mobile ringtone, i.e. generation, transmission, conversion or downloading of ringing tones or other sounds for mobile telephony; Special musical data formats or protocols herefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/201Physical layer or hardware aspects of transmission to or from an electrophonic musical instrument, e.g. voltage levels, bit streams, code words or symbols over a physical link connecting network nodes or instruments
    • G10H2240/241Telephone transmission, i.e. using twisted pair telephone lines or any type of telephone network
    • G10H2240/251Mobile telephone transmission, i.e. transmitting, accessing or controlling music data wirelessly via a wireless or mobile telephone receiver, analog or digital, e.g. DECT GSM, UMTS
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/325Synchronizing two or more audio tracks or files according to musical features or musical timings

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Telephone Function (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

악곡 시퀀스 데이터는, 연주 이벤트 데이터와, 악곡 진행에 음성을 링크시키기 위한 사용자 이벤트 데이터를 포함하는, 복수의 이벤트 데이터로 구성된다. 악곡 시퀀스 데이터와는 별도로, 복수의 음성 데이터 파일이 메모리에 기억된다. 악곡 재생 시에, 악곡 시퀀스 데이터의 각 이벤트 데이터를 순차 판독하고, 판독된 연주 이벤트 데이터에 따라 악음 신호를 발생시킨다. 그 한편, 사용자 이벤트 데이터가 판독되었을 때 그에 따라 음성 재생 지시가 출력되고, 이 음성 재생 지시에 따라, 메모리로부터 음성 데이터 파일을 선택하고, 이 선택된 음성 데이터 파일에 포함되는 음성 데이터를 판독하고, 판독된 음성 데이터에 기초하여 음성 신호를 발생시킨다.

Description

음성 및 악곡 재생 장치 및 방법{VOICE/MUSIC PIECE REPRODUCTION APPARATUS AND METHOD}
본 발명은, 악곡 시퀀스 중의 지정의 타이밍에서 특정한 음성 시퀀스를 재생하는 음성 및 악곡 재생 장치 및 방법에 관한 것이다.
최근, 휴대 전화기 등의 분야에서는, 악곡에 동기시켜서 표시를 행하거나, 음성을 재생하는 것이 행해진다. 특허 문헌1에는, 소정의 타이밍에서 악곡과 음성을 동기시켜 발음시키는 기술이 개시되어 있다.
[특허 문헌1]
일본특개2002-101191호 공보
또한, 종래, 악곡에 동기시켜 음성을 발생시키는 방법으로서, 1개의 시퀀스 파일에 악곡 시퀀스와 음성 시퀀스의 양방을 정의하고, 그 파일을 재생함으로써 악곡 및 음성을 동기시켜 발생시키는 방법이 알려져 있다. 도 13은, 이 경우의 음성 및 악곡 재생 장치의 개략 구성을 도시하는 도면으로서, 음성 첨부 악곡 데이터 파일(51)을 플레이어(52)가 사운드 미들웨어(53)에 로드하고, 사운드 미들웨어(53)가 로드된 파일을 해석하여 악곡 재생용의 음원 제어 데이터 및 음성 재생용의 음원 제어 데이터를 생성하여, 음원(54)으로 출력한다. 음원(54)은 악곡용의 음원 및 음성용의 음원을 갖고, 각각의 음원에 의해서 재생한 악음 신호 및 음성 신호를 믹싱하여 스피커(55)로 출력한다.
그런데, 상술한 음성 첨부 악곡 데이터 파일 중의 음성 시퀀스는, 발음하여야 할 음성의 발음 타이밍을 나타내는 시간 정보를 포함하고 있고, 그 시간 정보에 의해서 악곡 시퀀스와의 동기가 가능하게 되어 있다. 따라서, 상술한 음성 및 악곡 재생 장치에 있어서는, 파일 작성에 있어서, 또는, 음성 시퀀스의 재생 내용을 변경하는 경우에 있어서, 쌍방의 시퀀스 내의 시간 정보를 해석하여 음성과 악곡의 동기를 확인하면서, 편집이나 해당 개소의 수정을 하지 않으면 안되고, 이 때문에, 파일의 편집, 수정에 수고가 드는 문제가 있었다. 또, 재생 음성 만이 서로 다른 복수의 재생 패턴이 필요한 경우에는, 각각의 재생 음성에 대응하여 동일한 악곡 시퀀스를 준비하지 않으면 안되어, 데이터 사이즈의 점에서 낭비가 많은 결점이 있다. 이것은, 특히, 휴대 전화기와 같이 소형의 기기에 있어서는 큰 문제가 된다.
본 발명은, 이러한 사정을 고려하여 이루어진 것으로, 그 목적은, 음성 시퀀스의 편집, 수정을 간단히 행할 수 있고, 또한, 데이터 사이즈의 낭비도 방지할 수 있는 음성 및 악곡 재생 장치 및 방법 및 프로그램 및 시퀀스 데이터 포맷을 제공하는 것에 있다.
도 1은 본 발명의 제1 실시 형태에 따른 음성 및 악곡 재생 장치의 기능 블록도.
도 2는 제1 실시 형태에 따른 음성 및 악곡 재생 장치를 적용한 휴대 전화기의 구성을 도시하는 블록도.
도 3은 제1 실시 형태에 따른 음성 및 악곡 재생 장치의 동작을 설명하기 위한 흐름도.
도 4는 제1 실시 형태에 따른 음성 및 악곡 재생 장치의 동작을 설명하기 위한 설명도.
도 5는 제1 실시 형태에 따른 음성 및 악곡 재생 장치의 제1 응용예를 설명하기 위한 설명도.
도 6은 제1 실시 형태의 제1 응용예를 설명하기 위한 흐름도.
도 7은 제1 실시 형태에 따른 음성 및 악곡 재생 장치의 제2 응용예를 설명하기 위한 설명도.
도 8은 제1 실시 형태의 제2 응용예를 설명하기 위한 흐름도.
도 9는 본 발명의 제2 실시 형태에 따른 음성 및 악곡 재생 장치의 기능 블록도.
도 10은 제2 실시 형태에 있어서의 SMAF 파일(31)의 구성을 도시하는 도면.
도 11은 제2 실시 형태의 동작을 설명하기 위한 설명도.
도 12는 제2 실시 형태의 동작을 설명하기 위한 흐름도.
도 13은 종래의 음성 및 악곡 재생 장치의 기능 블록도.
<도면의 주요 부분에 대한 부호의 설명>
1 : CPU
2 : ROM
3 : RAM
12 : 음원
12a : 악곡부
12b : 음성부
13 : 스피커
21 : 악곡 데이터 파일
22, 27, 32, 34 : 플레이어
23, 28, 33, 35 : 사운드 미들웨어
26 : 악음 데이터 파일
36 : 음원 디바이스
37 : 시퀀서
38 : 음원
39 : 음성용 음원
본 발명에 따른 음성 및 악곡 재생 장치는, 복수의 이벤트 데이터로 구성되는 악곡 시퀀스 데이터를 기억하는 제1 기억 수단- 상기 복수의 이벤트 데이터는, 연주 이벤트 데이터와, 악곡 진행에 음성을 링크시키기 위한 사용자 이벤트 데이터를 포함하고 있고 -과, 복수의 음성 데이터 파일을 기억하는 제2 기억 수단과, 상기 제1 기억 수단으로부터 상기 악곡 시퀀스 데이터의 각 이벤트 데이터를 순차 판독하는 악곡 시퀀스 재생 수단- 상기 사용자 이벤트 데이터가 판독되었을 때 그에 따라 음성 재생 지시가 출력되고 -과, 상기 악곡 시퀀스 재생 수단에 의해서 판독된 연주 이벤트 데이터에 따라 악음 신호를 발생시키는 악음 음원 수단과, 상기 악곡 시퀀스 재생 수단이 출력하는 상기 음성 재생 지시에 따라, 상기 제2 기억 수단으로부터 음성 데이터 파일을 선택하고, 이 선택된 음성 데이터 파일에 포함되는 음성 데이터를 순차 판독하는 음성 재생 수단과, 상기 음성 재생 수단에 의해 판독된 음성 데이터에 기초하여 음성 신호를 발생시키는 음성 음원 수단을 포함한다.
이에 따라, 악곡 진행의 소정의 타이밍에서 음성 데이터를 재생하는 것을 용이하게 행하는 것이 가능하다. 또한, 악곡 진행에 동기한 음성 데이터의 재생 시퀀스를, 수정하거나, 편집하거나 하는 것을 용이하게 행할 수 있게 된다.
예를 들면, 상기 음성 재생 지시는, 상기 제2 기억 수단으로부터 선택하여야 할 음성 데이터 파일을 특정하는 정보를 포함하고 있어도 된다. 또한, 사용자의 지시에 기초하여 원하는 음성 데이터 파일을 사용자 이벤트 데이터에 자유 할당하는 것이 가능하도록 하여도 된다. 또한, 사용자의 입력 조작에 따라 원하는 음성 데이터 콘텐츠를 작성하고, 이 작성된 음성 데이터 콘텐츠로 구성되는 음성 데이터 파일을 상기 제2 기억 수단에 기입할 수 있도록 하여도 된다. 그와 같이 하면, 개별의 사용자 자신에게 있어서 오리지널인 사양으로, 악곡 진행의 소정의 타이밍에서 음성 데이터를 재생하도록 프로그램하는 것을, 매우 용이하게 행하는 것이 가능하다. 이것은, 휴대 전화 또는 그 밖의 휴대 단말기기에 본 발명을 적용한 경우에, 악곡 시퀀스 데이터의 전문 지식을 갖지 않는 일반 이용자에게 있어서, 자신의 오리지널 사양에서의 악곡과 음성의 링크를 용이하게 실현시키는 것이 가능하기 때문에, 안성맞춤이다.
본 발명에 따른 음성 및 악곡 재생 방법은, 복수의 이벤트 데이터로 구성되는 악곡 시퀀스 데이터와 복수의 음성 데이터 파일을 기억하는 기억 매체를 이용하여 음성 및 악곡 재생 방법에 있어서, 상기 악곡 시퀀스 데이터를 구성하는 상기 복수의 이벤트 데이터는, 연주 이벤트 데이터와, 악곡 진행에 음성을 링크시키기 위한 사용자 이벤트 데이터를 포함하고 있고, 상기 방법은, 상기 기억 매체로부터 상기 악곡 시퀀스 데이터의 각 이벤트 데이터를 순차 판독하는 처리를 행하고, 상기 사용자 이벤트 데이터가 판독되었을 때 그에 따라 음성 재생 지시를 출력하는 악곡 시퀀스 재생 수순과, 상기 악곡 시퀀스 재생 수순이 출력하는 상기 음성 재생 지시에 따라, 상기 기억 매체로부터 음성 데이터 파일을 선택하고, 이 선택된 음성 데이터 파일에 포함되는 음성 데이터를 순차 판독하는 음성 재생 수순을 포함하며, 상기 악곡 시퀀스 재생 수순에 의해 판독된 연주 이벤트 데이터에 따라 악음 신호를 발생시키고, 상기 음성 재생 수순에 의해 판독된 음성 데이터에 기초하여 음성 신호를 발생시키도록 한 것이다.
본 발명에 따른 프로그램은, 상기한 바와 같은 음성 및 악곡 재생 방법을 컴퓨터에 실행시키는 명령군을 내용으로 한다.
또한, 본 발명은, 음성 및 악곡을 재생시키기 위한, 신규이고 또한 유용한, 시퀀스 데이터 포맷을 제공한다. 본 발명에 따른 시퀀스 데이터 포맷은, (청구항20) 연주 이벤트 데이터와 사용자 이벤트 데이터를 포함하는 복수의 이벤트 데이터로 구성되는 악곡 시퀀스 데이터를 포함하는 시퀀스 데이터 청크와, 복수의 음성 데이터 파일을 포함하는 음성 데이터 청크를 갖고, 상기 사용자 이벤트 데이터는 악곡 진행에 음성을 링크시키기 위한 것으로서, 상기 사용자 이벤트 데이터에는, 그 이벤트의 발생 타이밍에서 재생되어야할 음성 데이터 파일이 상기 음성 데이터 청크 내의 상기 복수의 음성 데이터 파일로부터 선택적으로 할당되어 있다.
이하, 첨부 도면을 참조하여 본 발명의 실시예에 대하여 상세히 설명한다. 단, 발명자들은, 이하 진술하는 실시예에 의해서 본 발명의 범위를 한정하려는 의도는 전혀 없고, 본 발명의 범위는 청구항의 기재에 기초하여 해석되야 된다.
<발명의 실시 형태>
이하, 도면을 참조하여, 본 발명의 일 실시 형태에 대하여 설명한다. 도 1은 제1 실시 형태에 따른 음성 및 악곡 재생 장치의 기능 블록도, 도 2는 음성 및 악곡 재생 장치를 적용한 휴대 전화기의 하드웨어 구성도이다. 도 2에 있어서, 부호 1은 CPU(중앙 처리 장치), 2는 CPU(1)의 프로그램이 기억된 ROM(리드 온리 메모리), 3은 데이터 일시 기억용의 RAM(랜덤 액세스 메모리)으로서, 불휘발성의 메모리가 사용되고 있다. 4는 텐키, 펑션키로 이루어지는 조작부, 5는 액정 표시기에 의한 표시부이다. 6은 통신부이고, 안테나(7)를 통하여 기지국과의 통신을 행한다.
8은 음성 처리부로서, 통신부(6)로부터 출력되는 압축 음성 데이터를 신장하고, 아날로그 신호로 변환하여 스피커(9)로 출력하고, 또한, 마이크로폰(10)으로부터의 음성 신호를 디지털 음성 데이터로 변환하고, 압축하여 통신부(6)로 출력한다. 12는 음원으로서, 악곡 재생용의 악곡부(12a)와 음성 재생용의 음성부(12b)가 설치되어 있다. 이 경우, 악곡부(12a)는 FM 방식 또는 PCM 방식에 의해서 악음 신호를 생성하는 음원이다. 또한, 음성부(12b)는 파형 중첩 방식 또는 포르만트 합성 방식에 의해서 음성을 합성하는 것이다. 상기의 악곡부(12a)에 의해서 착신 멜로디가 형성되고, 또한, 악곡부(12a) 및 음성부(12b)에 의해서 후에 진술하는 음성(이 첨부된) 악음이 재생된다. 특별히 한정하지 않는 한, 본 명세서에 있어서 「음성」이란, 대표적으로는 노랫소리, 허밍, 나레이션 등의 인간의 소리이지만, 이것에 한정하지 않고, 동물의 울음소리나, 로봇의 음성 등의 인공적으로 작성된 특수한 음성이어도 된다.
다음으로, 도 1에 있어서, 21이 악곡 데이터 파일이고, RAM(3) 내에 기억되어 있다. 이 악곡 데이터 파일(21)은, 착신 멜로디에 사용되는 악곡 데이터나 감상용의 악곡 데이터 등이 포함되어 있고, 각 악곡은 예를 들면 인터넷을 통하여 다운로드된다. 악곡 데이터 파일(21)은, 악곡부(12a)에 대한 발음지시 등의 제어 내용을 나타내는 이벤트 데이터와 그 이벤트의 발생 타이밍을 나타내는 시간 데이터로 이루어진다. 또한, 본 발명의 실시 형태에서는, 소정의 음성 데이터(예를 들면 사람의 음성을 나타내는 것)를 RAM(3)으로부터 로드할 것을 지시하는 사용자 이벤트 데이터를 포함하고 있다. 사용자 이벤트 데이터도 상기한 시간 데이터에 의해 그 발생 타이밍이 정해져 있다. 플레이어(22)는 소프트웨어이고, 악곡 데이터 파일(21) 내의 악곡 데이터를 사운드 미들웨어(23)에 로드하고, 또한, 사용자로부터의 지시에 따라 악곡 데이터 파일(21)의 제어를 행한다. 사운드 미들웨어(23)는 소프트웨어이고, 플레이어(22)로부터 공급되는 악곡 데이터를 음원 제어 데이터로 변환하여, 시간 데이터에 따라 상기 변환된 음원 제어 데이터를 순차 음원(12)(도 2)의 악곡부(12a)로 출력한다. 악곡부(12a)는 그 음원 제어 데이터를 악음 신호로 변환하여, 출력한다.
음성 데이터 파일(26)은 음성 데이터가 기록된 복수의 파일이고, RAM(3) 내에 기억된다. 플레이어(27)는 사운드 미들웨어(23)로부터 지시된 파일 번호의 음성 데이터 파일(26)을 사운드 미들웨어(28)에 로드한다. 사운드 미들웨어(28)는, 플레이어(27)로부터 공급된 음성 데이터 파일의 각 음성 데이터를 순차 음원(12)의 음성부(12b)로 출력한다. 음성부(12b)는 그 음성 데이터를 아날로그 음성 신호로 변환하여 출력한다. 음원(12)의 악곡부(12a) 및 음성부(12b)로부터 출력된 악음 신호 및 음성 신호는, 합성 회로(29)에서 합성되어, 스피커(13)로 출력된다.
다음으로, 상기 실시 형태의 동작을 도 3에 도시하는 흐름도 및 도 4에 도시하는 설명도를 참조하여 설명한다. 또, 이 실시 형태에 따른 휴대 전화기의 전화기로서의 동작은 종래의 것과 마찬가지이기 때문에 설명을 생략하고, 음성 및 악곡 재생 장치의 동작을 이하에 설명한다.
사용자가 조작부(4)에 있어서 악곡 번호를 입력하고, 계속해서 악곡 재생을 지시하면, 플레이어(22)가 악곡 데이터 파일(21)로부터, 사용자에 의해서 지시된 악곡 데이터를 판독하여, 사운드 미들웨어(23)에 로드한다(도 3의 단계 Sa1). 사운드 미들웨어(23)는, 로드된 악곡 데이터에 기초하는 악곡 재생 처리를 개시한다(단계 Sa2). 우선, 최초의 이벤트 데이터를 판독하고(단계 Sa3), 그 이벤트 데이터가 사용자 이벤트인지의 여부를 판단한다(단계 Sa4). 그리고, 사용자 이벤트가 아니었던 경우에는, 통상 이벤트(악곡 재생용 이벤트)인지의 여부를 판단한다(단계 Sa5). 그리고, 통상 이벤트이었던 경우에는, 그 이벤트 데이터를 음원(12)의 악곡부(12a)로 보낸다(단계 Sa6). 악곡부(12a)는 그 이벤트 데이터에 기초하여 악음 신호를 재생한다(단계 Sa7). 다음으로, 사운드 미들웨어(23)는, 악곡 데이터의 데이터 엔드를 검출하였는지의 여부를 판단하여 (단계 Sa8), 검출하지 않은 경우에는 다시 단계 Sa3으로 되돌아가, 다음의 이벤트의 판독을 행한다.
이후, 상술한 과정을 반복함으로써 악곡 재생이 행하여진다. 그 악곡 재생 도중에, 사용자 이벤트가 검출되면(단계 Sa4의 판단이 「예」), 사운드 미들웨어(23)가 그 사용자 이벤트를 플레이어(27)로 송신한다(단계 Sa9). 플레이어(27)는, 사용자 이벤트를 받아, 동 이벤트가 지시하는 파일 번호의 음성 데이터 파일(26)을 사운드 미들웨어(28)에 로드한다(단계 Sa10). 사운드 미들웨어(28)는, 음성 재생 처리를 개시하고(단계 Sa11), 로드된 음성 데이터를 순차 음원(12)의 음성부(12b)로 출력한다. 이에 따라, 음성부(12b)에서 음성의 재생이 행하여진다(단계 Sa12).
한편, 사운드 미들웨어(23)는, 사용자 이벤트를 플레이어(27)로 출력한 후, 데이터 엔드를 검출하였는지의 여부를 판단하여(단계 Sa8), 검출하지 않은 경우에는 다시 단계 Sa3으로 되돌아간다. 이하, 상기의 처리가 반복된다.
도 4는, 상술한 과정을 도시하는 설명도이고, 악곡 시퀀스의 도중에, 우선,사용자 이벤트1이 검출되면, 이 이벤트에 대응하는 음성 데이터1이 재생되고, 다음으로, 사용자 이벤트2가 검출되면, 이 이벤트에 대응하는 음성 데이터2가 재생되는 것을 나타내고 있다. 또한, 사용자 이벤트에 기초하여 재생되는 음성 데이터 파일은, 후술하는 바와 같이, 미리 어플리케이션 소프트웨어를 통하여, 사용자 지시에 따라, 선택된 파일의 번호가, 악곡 데이터 중의 사용자 이벤트에 기입된 것이다. 여기서, 어플리케이션 소프트웨어는 미리 ROM(2) 내에 설정되어 있어도 되고, 또는, JAVA(등록상표)에 의한 것이어도 된다.
다음으로, 상술한 음성 및 악곡 재생 장치의 제1 응용예를 설명한다.
도 5는 동 응용예의 설명도이고, 도 6은 동작을 설명하기 위한 흐름도이다.
이 응용예에 있어서는, 우선, 어플리케이션 소프트웨어가 기동되면, 질문 음성 데이터를 음성부(12b)로 출력하여 질문 음성 재생을 행한다(도 5, 도 6의 단계 Sb1). 예를 들면 퀴즈인 경우에는, Yes, No, A, B, C··· 등, 혈액형 점의 경우에는, A, B, AB, O, 별 점의 경우에는, 게자리, 사자자리··· 등의 질문 음성을 재생한다. 이 질문에 대하여, 사용자가 조작부(4)의 텐키에 의해서 회답을 행하면(단계 Sb2), 어플리케이션 소프트웨어가 그 회답을 수신하고(단계 Sb3), 수신한 회답 결과가 지시하는 음성 데이터 파일(26)의 파일 번호를 사용자 이벤트에 할당한다(단계 Sb4). 다음으로, 악곡 데이터의 재생이 행하여진다(단계 Sb5). 그 재생 도중에, 사용자 이벤트가 검출되면, 그 사용자 이벤트에 상기의 처리에 의해서 할당된 음성 데이터가 재생된다. 예를 들면, 「오늘의 운세는 대길!」이라는 말이 악음에 합쳐져서 발생된다(도 5).
다음으로, 상술한 음성 및 악곡 재생 장치의 제2 응용예를 설명한다.
도 7은 동 응용예의 설명도이고, 도 8은 동작을 설명하기 위한 흐름도이다.
이 응용예에 있어서는, 우선, 어플리케이션 소프트웨어가 기동되면, 가사 입력을 화면 표시 등에 의해 요구한다. 이 요구에 따라서, 사용자가 특정한 악곡(사용자 이벤트가 미리 설정되어 있는)을 선택하고, 악곡 내의 특정한 타이밍에 있어서의 오리지널 가사의 텍스트를 텐키에 의해 입력한다(도 7, 도 8의 단계 Sc1). 어플리케이션 소프트웨어는, 입력된 가사(1 또는 복수의 텍스트)를 음성 데이터로 변환하여, 음성 데이터 파일(26)로서 RAM(3) 내에 등록한다(단계 Sc2). 다음으로, 어플리케이션 소프트웨어는, 그 음성 데이터 파일의 파일 번호를 사용자 이벤트에 할당한다(단계 Sc3). 또한, 상술한 가사의 입력 및 할당은 하나의 악곡 데이터에 대한 1 개소에 한정되는 것이 아니라, 하나의 악곡 데이터에 대한 복수 개소(A 멜로디, B 멜로디, 브리지부(bridge portion) 등)에 입력하고 할당하도록 해도 된다.
다음으로, 악곡 데이터의 재생이 행해진다(Sc4). 그 재생 도중에, 사용자 이벤트(음성 데이터 파일의 파일 번호 할당 완료)가 검출되면, 그 사용자 이벤트에 상기의 처리에 의해서 할당된 가사의 음성 데이터가 재생된다. 예를 들면, 「해피 버스데이, 통 씨(氏)」라는 말이 악음에 합쳐서 발생된다(도 7).
또한, 오리지널 가사에 멜로디를 첨부하여 발음해도 된다. 이 경우, 가사의 각 음절에 음 높이 및 음 길이를 할당하는 방법으로는,
(1) 가사(텍스트)를 등록할 때에, 미리 결정되어 있는 음 높이나 음 길이를 나타내는 태그를 텍스트에 첨부하고, 재생 시에 음원으로는 그 태그에 따라서 재생해야할 음성의 음 높이나 음 길이를 제어하고,
(2) 악곡부 시퀀스 재생 시에, 사용자 이벤트 이후의 멜로디의 음정이나 음 높이를 추출하고, 동시에 가사(텍스트)를 구성하는 각 음절 s에 대응하는 악음을 각각에 대응하는 각 멜로디 음부 s의 음 높이 및 음 길이로 제어하여 발생시키는, 등의 방법이 있다.
또한, 상기 제1, 제2 응용예에 있어서의 어플리케이션은 미리 ROM(2) 내에 설정되어 있어도 되고, 또는, JAVA(등록상표)에 의한 것이어도 된다.
다음으로, 본 발명의 제2 실시 형태에 대하여 설명한다.
도 9는 제2 실시 형태에 따른 음성 및 악곡 재생 장치의 기능 블록도이고, 이 도면에 있어서, 31은 본 실시 형태에 있어서의 SMAF(Synthetic music Mobile Application Format) 파일이다. 여기서, SMAF란 휴대 단말기용 멀티미디어 콘텐츠의 데이터 포맷 사양의 파일이고, 본 실시 형태에 있어서는, 악곡 데이터와 음성 데이터가 1개의 파일에 기입된다. 도 10에 본 실시 형태의 SMAF 파일의 구성을 나타낸다. 이 그림에 도시하는 각 청크(데이터의 덩어리)는 다음과 같다.
Contents Info Chunk : SMAF 파일의 각종 관리용 정보가 저장된다.
Score Track chunk : 음원으로 보내는 악곡의 시퀀스 트랙을 저장한다.
Sequence Data Chunk : 실연주 데이터를 저장한다.
HV Data chunk : HV(음성)데이터 HV-1, HV-2···를 저장한다.
또한, 실연주 데이터의 시퀀스에는, 「HV Note ON」이라는 이벤트가 기록되고, 이 이벤트에 의해서 HV Data chunk의 각 데이터의 발음이 지시된다. 또, 이이벤트는 제1 실시 형태에 있어서의 사용자 이벤트에 상당한다.
32는 악곡용 재생의 플레이어, 33은 악곡용의 사운드 미들웨어, 34는 음성용의 플레이어, 35는 음성용의 사운드 미들웨어이고, 이들의 기능은 도 1의 것과 마찬가지이다. 36은 음원 디바이스이고, 내부에 악곡을 재생하기 위한 시퀀서(37), 시퀀서(37)로부터 출력되는 음원 제어 데이터에 기초하여 악음 신호를 형성하는 음원(38), 음성 재생용의 음원(39)이 각각 설치되어 있다. 그리고, 음원(38, 39)에 있어서 형성된 악음 신호 및 음성 신호가 합성 회로(40)에서 합성되고, 스피커(41)로 출력된다.
다음으로, 상기 실시 형태의 동작을 도 11, 도 12를 참조하여 설명한다.
도 11은 제2 실시 형태의 동작의 설명도이고, 도 12는 동작을 설명하기 위한 흐름도이다.
사용자에 의한 악곡 재생 지시가 있으면, 플레이어(32)가 SMAF 파일(31)로부터, 악곡 데이터를 판독하여, 사운드 미들웨어(33)에 로드한다(도 12의 단계 Sd1). 사운드 미들웨어(33)는, 로드된 악곡 데이터를 음원 제어 데이터로 변환하여, 시퀀서(37)로 출력한다(악곡 재생 개시; 단계 Sd2). 시퀀서(37)는, 우선, 공급된 음원 제어 데이터로부터 최초의 이벤트 데이터를 판독하고(단계 Sd3), 그 이벤트 데이터가 HV Note ON 이벤트인지의 여부를 판단한다(단계 Sd4). 그리고, HV Note ON 이벤트가 아니었던 경우에는, 통상 이벤트(악곡 재생용 이벤트)인지의 여부를 판단한다(단계 Sd5). 그리고, 통상 이벤트이었던 경우에는, 그 이벤트 데이터를 음원(38)으로 보낸다. 음원(38)은 그 이벤트 데이터에 기초하여 악음 신호를 재생한다(단계 Sd6). 다음으로, 시퀀서(37)는, 악곡 데이터의 데이터 엔드를 검출하였는지의 여부를 판단하여(단계 Sd7), 검출하지 않은 경우에는 다시 단계 Sd3으로 되돌아가서, 다음의 이벤트의 판독을 행한다.
이후, 상술한 과정을 반복하는 것에 의해서 악곡 재생이 행하여진다. 그 악곡 재생 도중에, HV Note ON 이벤트가 검출되면(단계 Sd4의 판단이 「예」), 시퀀서(37)가 그 HV Note ON 이벤트에 할당되어 있는 HV 데이터를 지정하는 ID를 플레이어(34)로 송신한다(단계 Sd9). 플레이어(34)는, 그 ID가 지시하는 HV 데이터를 SMAF 파일로부터 판독하여, 사운드 미들웨어(35)에 로드한다(단계 Sd10). 사운드 미들웨어(35)는, HV 데이터를 음원 제어 데이터(음성을 지정하기 위한 파라미터)로 변환하여, 음원(39)으로 출력한다. 이에 따라, 음원(39)에 있어서 음성의 재생이 행하여진다(단계 Sd11).
한편, 시퀀서(37)는, HV Note ON 이벤트를 플레이어(34)로 출력한 후, 데이터 엔드를 검출하였는지의 여부를 판단하여(단계 Sd7), 검출하지 않은 경우에는 다시 단계 Sd3으로 되돌아간다. 이하, 상기의 처리가 반복된다. 도 11은, 상술한 과정을 도시하는 설명도로서, 악곡 시퀀스의 도중에, 우선, HV Note ON 이벤트1이 검출되면, 동 이벤트에 대응하는 음성 데이터 HV-1이 재생되고, 다음으로, HV Note ON 이벤트2가 검출되면, 동 이벤트에 대응하는 음성 데이터 HV-2가 재생되는 것을 나타내고 있다.
이 제2 실시 형태에 따르면, 상술한 제1 실시 형태와 같이, 노래 소리나 나레이션이 삽입된 악곡을 재생하는 것이 가능하게 된다.
또, SMAF 파일은 콘텐츠 메이커에서 작성되고, 배신되지만, 사용자의 휴대 단말 장치에서 SMAF 파일 중의 데이터를 가공할 수 있는 기능이 있으면, 상술한 응용예2와 마찬가지의 것이 가능하다.
악곡 시퀀스 데이터 중의 1 또는 복수의 사용자 이벤트 데이터는, 개개의 악곡에 있어서, 각각 소정의 1 또는 복수의 위치(시간 위치 또는 소절 위치 등)에 미리 결합되어 있다. 이것에 의해서, 사용자가 원하는 음성 데이터 파일의 할당 조작을 행할 때에, 악곡 중에 사용자 이벤트를 결합하는 작업을 일일이 행할 필요가 없어, 매우 편하게 된다. 즉, 사용자는, 악곡 시퀀스 데이터의 파일 구성에 대한 자세한 지식이 없어도 되고, 단지, 미리 결합된 사용자 이벤트에 대응시켜 원하는 음성 데이터 파일을 할당하거나 하기만 해도 되고, 또는, 어플리케이션 소프트웨어에 의해서 자동적으로 적당한 음성 데이터 파일이 할당된다. 따라서, 휴대 전화의 일반 이용자 등, 악곡 시퀀스 데이터의 전문 지식을 갖지 않은, 아마추어 사용자에 있어서, 자기 자신의 오리지널인 음성(예를 들면 사람의 소리)을 악곡에 동기시켜 자유롭게 결합하고자 하는 경우에, 매우 손쉽게 사용하기 쉬운 것으로 된다. 그러나, 물론, 이것에 한하지 않고, 악곡 시퀀스 데이터 중의 임의의 1 또는 복수의 위치에 대응시켜 1 또는 복수의 사용자 이벤트 데이터를, 사용자 조작에 의해서 자유롭게 결합하는 것이 가능하도록 해도 된다. 그 경우에는, 사용자 자기 자신에 오리지널인 음성을 오리지널인 타이밍에서 악곡에 동기시켜 자유롭게 결합할 수 있다.
또한, 변경예로서, 1개의 사용자 이벤트 데이터에 복수의 음성 데이터 파일을 할당하고, 재생 시에는, 상기 사용자 이벤트 데이터의 타이밍을 개시점으로 하여, 상기 할당된 복수의 음성 데이터 파일을 순차 재생하도록(또는 동시에 재생해도 됨) 하여도 된다.
또, 상기 실시예에서는, 음성 데이터 파일에 의해, 일본어의 음성을 재생시키도록 설명했지만, 일본어에 한하지 않고, 영어, 중국어, 독일어, 한국어, 스페인어 등, 세계 각국의 언어를 재생시키도록 해도 된다. 또, 사람의 소리에 한하지 않고, 동물의 울음소리를 재생시키도록 해도 된다.
이상 설명한 바와 같이, 본 발명에 따르면, 사용자 이벤트를 포함하는 악곡 시퀀스 데이터 파일과, 상기 사용자 이벤트에 의해 재생이 지시되는 음성 데이터 파일이 정의되어 있고, 각각의 파일이 서로 다른 재생 수단에 의해서 처리되도록 되어 있기 때문에, 음성 시퀀스의 편집, 수정을 간단히 행하는 것이 가능한 효과가 얻어진다. 또한, 음성 시퀀스로서 복수의 패턴을 준비하는 경우에 있어서도, 음성 데이터 파일만 복수 준비하면 되어, 데이터 사이즈의 낭비도 방지할 수 있는 효과가 있다.

Claims (23)

  1. 복수의 이벤트 데이터로 구성되는 악곡 시퀀스 데이터를 기억하는 제1 기억 수단과 - 상기 복수의 이벤트 데이터는, 연주 이벤트 데이터와, 악곡 진행에 음성을 링크시키기 위한 사용자 이벤트 데이터를 포함하고 있음 -;
    복수의 음성 데이터 파일을 기억하는 제2 기억 수단과;
    상기 제1 기억 수단으로부터 상기 악곡 시퀀스 데이터의 각 이벤트 데이터를 순차 판독하는 악곡 시퀀스 재생 수단과 - 상기 사용자 이벤트 데이터가 판독되었을 때 그에 따라 음성 재생 지시가 출력됨 -;
    상기 악곡 시퀀스 재생 수단에 의해서 판독된 연주 이벤트 데이터에 따라 악음 신호를 발생시키는 악음 음원 수단과;
    상기 악곡 시퀀스 재생 수단이 출력하는 상기 음성 재생 지시에 따라, 상기 제2 기억 수단으로부터 음성 데이터 파일을 선택하고, 이 선택된 음성 데이터 파일에 포함되는 음성 데이터를 순차 판독하는 음성 재생 수단과;
    상기 음성 재생 수단에 의해 판독된 음성 데이터에 기초하여 음성 신호를 발생시키는 음성 음원 수단
    을 포함하는 음성 및 악곡 재생 장치.
  2. 제1항에 있어서,
    상기 음성 재생 지시는, 상기 제2 기억 수단으로부터 선택하여야 할 음성 데이터 파일을 특정하는 정보를 포함하는 음성 및 악곡 재생 장치.
  3. 제1항에 있어서,
    사용자의 지시에 기초하여 원하는 음성 데이터 파일을 사용자 이벤트 데이터에 할당하는 할당 수단을 더 포함하는 음성 및 악곡 재생 장치.
  4. 제1항에 있어서,
    원하는 음성 데이터 파일을 사용자 이벤트 데이터에 할당하기 위한 프로그램을 수신하는 수신 수단과,
    상기 수신 수단에서 수신한 프로그램을 실행하는 프로그램 실행 수단
    을 더 포함하는 음성 및 악곡 재생 장치.
  5. 제4항에 있어서,
    상기 프로그램은, 상기 프로그램 실행 수단에 의해서 해당 프로그램을 실행하는 과정에서, 사용자와 대화하고, 이 대화 결과에 따라, 할당하여야 할 음성 데이터 파일과 사용자 이벤트 데이터를 자동적으로 결정하는 음성 및 악곡 재생 장치.
  6. 제1항 내지 제5항 중 어느 한 항에 있어서,
    사용자의 입력 조작에 따라 원하는 음성 데이터 콘텐츠를 작성하고, 이 작성된 음성 데이터 콘텐츠로 구성되는 음성 데이터 파일을 상기 제2 기억 수단에 기입하는 음성 데이터 파일 작성 수단을 더 포함하는 음성 및 악곡 재생 장치.
  7. 제1항 내지 제5항 중 어느 한 항에 있어서,
    원하는 음성 데이터 콘텐츠를 사용자에게 입력시키고, 사용자 입력된 음성 데이터 콘텐츠로 구성되는 음성 데이터 파일을 상기 제2 기억 수단에 기억시키기 위한 프로그램을 수신하는 수신 수단과,
    상기 수신 수단에서 수신한 프로그램을 실행하는 프로그램 실행 수단
    을 더 포함하는 음성 및 악곡 재생 장치.
  8. 제7항에 있어서,
    상기 프로그램은, 원하는 사용자 이벤트 데이터에 대응시켜 원하는 음성 데이터 콘텐츠를 사용자에게 입력시키고, 사용자 입력된 음성 데이터 콘텐츠로 구성되는 음성 데이터 파일을 상기 제2 기억 수단에 기억시키고, 해당 음성 데이터 파일을 원하는 해당 사용자 이벤트 데이터에 할당하는 음성 및 악곡 재생 장치.
  9. 제7항에 있어서,
    상기 사용자 입력하는 음성 데이터 콘텐츠는, 사용자가 원하는 임의의 텍스트 데이터인 음성 및 악곡 재생 장치.
  10. 제1항에 있어서,
    상기 제2 기억 수단에 기억되는 상기 음성 데이터 파일에 포함되는 상기 음성 데이터는, 텍스트 데이터를 포함하며,
    상기 음성 음원 수단은, 상기 음성 데이터에 포함되는 상기 텍스트 데이터에 기초하여 오디오적인 음성 신호를 합성하는 음성 및 악곡 재생 장치.
  11. 제1항에 있어서,
    상기 제1 및 제2 기억 수단은, 공통의 기억 매체로 구성되는 음성 및 악곡 재생 장치.
  12. 제1항에 있어서,
    상기 음성 데이터 파일은, 사람의 소리를 나타내고 있는 음성 및 악곡 재생 장치.
  13. 제1항에 있어서,
    상기 음성 및 악곡 재생 장치는, 휴대 전화 또는 휴대 통신 단말에 내장되어 있는 음성 및 악곡 재생 장치.
  14. 복수의 이벤트 데이터로 구성되는 악곡 시퀀스 데이터와 복수의 음성 데이터 파일을 기억하는 기억 매체를 이용하여 음성 및 악곡을 재생하는 방법으로서, 상기악곡 시퀀스 데이터를 구성하는 상기 복수의 이벤트 데이터는, 연주 이벤트 데이터와, 악곡 진행에 음성을 링크시키기 위한 사용자 이벤트 데이터를 포함하고 있고,
    상기 방법은,
    상기 기억 매체로부터 상기 악곡 시퀀스 데이터의 각 이벤트 데이터를 순차 판독하는 처리를 행하고, 상기 사용자 이벤트 데이터가 판독되었을 때 그에 따라 음성 재생 지시를 출력하는 악곡 시퀀스 재생 수순과;
    상기 악곡 시퀀스 재생 수순이 출력하는 상기 음성 재생 지시에 따라, 상기 기억 매체로부터 음성 데이터 파일을 선택하고, 이 선택된 음성 데이터 파일에 포함되는 음성 데이터를 순차 판독하는 음성 재생 수순
    을 포함하며,
    상기 악곡 시퀀스 재생 수순에 의해 판독된 연주 이벤트 데이터에 따라 악음 신호를 발생시키고, 상기 음성 재생 수순에 의해 판독된 음성 데이터에 기초하여 음성 신호를 발생시키도록 하는 음성 및 악곡 재생 방법.
  15. 제14항에 있어서,
    사용자의 조작에 따라, 상기 기억 매체에 기억된 상기 악곡 시퀀스 데이터 중의 원하는 사용자 이벤트 데이터에 대하여, 상기 기억 매체에 기억된 상기 복수의 음성 데이터 파일 중의 원하는 음성 데이터 파일을 할당하는 할당 수순을 더 포함하는 음성 및 악곡 재생 방법.
  16. 제14항 또는 제15항에 있어서,
    사용자의 입력 조작에 따라 원하는 음성 데이터 콘텐츠를 작성하고, 이 작성된 음성 데이터 콘텐츠로 구성되는 음성 데이터 파일을 상기 기억 매체에 기입하는 음성 데이터 파일 작성 수순을 더 포함하는 음성 및 악곡 재생 방법.
  17. 제14항에 있어서,
    상기 음성 데이터 파일은, 사람의 소리를 나타내고 있는 음성 및 악곡 재생 방법.
  18. 복수의 이벤트 데이터로 구성되는 악곡 시퀀스 데이터와 복수의 음성 데이터 파일을 기억하는 기억 매체를 이용하여 음성 및 악곡 재생 방법을, 컴퓨터에 실행시키는 명령군을 내용으로 하는 프로그램으로서, 상기 악곡 시퀀스 데이터를 구성하는 상기 복수의 이벤트 데이터는, 연주 이벤트 데이터와, 악곡 진행에 음성을 링크시키기 위한 사용자 이벤트 데이터를 포함하고 있고, 상기 방법은,
    상기 기억 매체로부터 상기 악곡 시퀀스 데이터의 각 이벤트 데이터를 순차 판독하는 처리를 행하고, 상기 사용자 이벤트 데이터가 판독되었을 때 그에 따라 음성 재생 지시를 출력하는 악곡 시퀀스 재생 수순과;
    상기 악곡 시퀀스 재생 수순이 출력하는 상기 음성 재생 지시에 따라, 상기 기억 매체로부터 음성 데이터 파일을 선택하고, 이 선택된 음성 데이터 파일에 포함되는 음성 데이터를 순차 판독하는 음성 재생 수순
    을 포함하며,
    상기 악곡 시퀀스 재생 수순에 의해 판독된 연주 이벤트 데이터에 따라 악음 신호를 발생시키고, 상기 음성 재생 수순에 의해 판독된 음성 데이터에 기초하여 음성 신호를 발생시키도록 하는 프로그램.
  19. 제18항에 있어서,
    상기 방법은,
    사용자의 조작에 따라, 상기 기억 매체에 기억된 상기 악곡 시퀀스 데이터 중의 원하는 사용자 이벤트 데이터에 대하여, 상기 기억 매체에 기억된 상기 복수의 음성 데이터 파일 중의 원하는 음성 데이터 파일을 할당하는 할당 수순을 더 포함하는 프로그램.
  20. 제18항에 있어서,
    상기 방법은,
    사용자의 입력 조작에 따라 원하는 음성 데이터 콘텐츠를 작성하고, 이 작성된 음성 데이터 콘텐츠로 구성되는 음성 데이터 파일을 상기 기억 매체에 기입하는 음성 데이터 파일 작성 수순을 더 포함하는 프로그램.
  21. 제18항에 있어서,
    상기 음성 데이터 파일은, 사람의 소리를 나타내고 있는 프로그램.
  22. 제18항 내지 제21항 중 어느 한 항에 있어서,
    휴대 전화 또는 휴대 통신 단말에 내장되어 있는 컴퓨터에 의해 실행되는 데 적합한 프로그램.
  23. 음성 및 악곡을 재생시키기 위한 시퀀스 데이터 포맷에 있어서,
    연주 이벤트 데이터와 사용자 이벤트 데이터를 포함하는 복수의 이벤트 데이터로 구성되는 악곡 시퀀스 데이터를 포함하는 시퀀스 데이터 청크와, 복수의 음성 데이터 파일을 포함하는 음성 데이터 청크를 갖고
    상기 사용자 이벤트 데이터는 악곡 진행에 음성을 링크시키기 위한 것으로서, 이 사용자 이벤트 데이터에는, 그 이벤트의 발생 타이밍에서 재생되어야 되는 음성 데이터 파일이 상기 음성 데이터 청크 내의 상기 복수의 음성 데이터 파일로부터 선택적으로 할당되어 있는 시퀀스 데이터 포맷.
KR1020030095266A 2002-12-24 2003-12-23 음성 및 악곡 재생 장치 및 방법 KR100682443B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002371750A JP2004205605A (ja) 2002-12-24 2002-12-24 音声および楽曲再生装置およびシーケンスデータフォーマット
JPJP-P-2002-00371750 2002-12-24

Publications (2)

Publication Number Publication Date
KR20040058034A true KR20040058034A (ko) 2004-07-03
KR100682443B1 KR100682443B1 (ko) 2007-02-15

Family

ID=32677206

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020030095266A KR100682443B1 (ko) 2002-12-24 2003-12-23 음성 및 악곡 재생 장치 및 방법

Country Status (5)

Country Link
US (1) US7365260B2 (ko)
JP (1) JP2004205605A (ko)
KR (1) KR100682443B1 (ko)
CN (1) CN100559459C (ko)
TW (1) TWI250508B (ko)

Families Citing this family (168)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9818386B2 (en) 1999-10-19 2017-11-14 Medialab Solutions Corp. Interactive digital music recorder and player
US7176372B2 (en) * 1999-10-19 2007-02-13 Medialab Solutions Llc Interactive digital music recorder and player
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
JP3879402B2 (ja) * 2000-12-28 2007-02-14 ヤマハ株式会社 歌唱合成方法と装置及び記録媒体
GB0500483D0 (en) * 2005-01-11 2005-02-16 Nokia Corp Multi-party sessions in a communication system
US20060293089A1 (en) * 2005-06-22 2006-12-28 Magix Ag System and method for automatic creation of digitally enhanced ringtones for cellphones
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
KR100658869B1 (ko) * 2005-12-21 2006-12-15 엘지전자 주식회사 음악생성장치 및 그 운용방법
WO2007091475A1 (ja) * 2006-02-08 2007-08-16 Nec Corporation 音声合成装置、音声合成方法及びプログラム
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US10002189B2 (en) 2007-12-20 2018-06-19 Apple Inc. Method and apparatus for searching using an active ontology
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US8712776B2 (en) 2008-09-29 2014-04-29 Apple Inc. Systems and methods for selective text to speech synthesis
US8352272B2 (en) * 2008-09-29 2013-01-08 Apple Inc. Systems and methods for text to speech synthesis
US8352268B2 (en) 2008-09-29 2013-01-08 Apple Inc. Systems and methods for selective rate of speech and speech preferences for text to speech synthesis
US8396714B2 (en) * 2008-09-29 2013-03-12 Apple Inc. Systems and methods for concatenation of words in text to speech synthesis
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
WO2010067118A1 (en) 2008-12-11 2010-06-17 Novauris Technologies Limited Speech recognition involving a mobile device
US7977560B2 (en) * 2008-12-29 2011-07-12 International Business Machines Corporation Automated generation of a song for process learning
US8380507B2 (en) 2009-03-09 2013-02-19 Apple Inc. Systems and methods for determining the language to use for speech generated by a text to speech engine
US10706373B2 (en) 2011-06-03 2020-07-07 Apple Inc. Performing actions associated with task items that represent tasks to perform
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
DE202011111062U1 (de) 2010-01-25 2019-02-19 Newvaluexchange Ltd. Vorrichtung und System für eine Digitalkonversationsmanagementplattform
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US20110219940A1 (en) * 2010-03-11 2011-09-15 Hubin Jiang System and method for generating custom songs
US10762293B2 (en) 2010-12-22 2020-09-01 Apple Inc. Using parts-of-speech tagging and named entity recognition for spelling correction
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US8994660B2 (en) 2011-08-29 2015-03-31 Apple Inc. Text correction processing
US8682938B2 (en) * 2012-02-16 2014-03-25 Giftrapped, Llc System and method for generating personalized songs
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US9263060B2 (en) 2012-08-21 2016-02-16 Marian Mason Publishing Company, Llc Artificial neural network based system for classification of the emotional content of digital music
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
DE212014000045U1 (de) 2013-02-07 2015-09-24 Apple Inc. Sprach-Trigger für einen digitalen Assistenten
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
WO2014144579A1 (en) 2013-03-15 2014-09-18 Apple Inc. System and method for updating an adaptive speech recognition model
KR101759009B1 (ko) 2013-03-15 2017-07-17 애플 인크. 적어도 부분적인 보이스 커맨드 시스템을 트레이닝시키는 것
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
JP6259911B2 (ja) 2013-06-09 2018-01-10 アップル インコーポレイテッド デジタルアシスタントの2つ以上のインスタンスにわたる会話持続を可能にするための機器、方法、及びグラフィカルユーザインタフェース
KR101809808B1 (ko) 2013-06-13 2017-12-15 애플 인크. 음성 명령에 의해 개시되는 긴급 전화를 걸기 위한 시스템 및 방법
DE112014003653B4 (de) 2013-08-06 2024-04-18 Apple Inc. Automatisch aktivierende intelligente Antworten auf der Grundlage von Aktivitäten von entfernt angeordneten Vorrichtungen
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US10592095B2 (en) 2014-05-23 2020-03-17 Apple Inc. Instantaneous speaking of content on touch devices
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
WO2015184186A1 (en) 2014-05-30 2015-12-03 Apple Inc. Multi-command single utterance input method
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US10289433B2 (en) 2014-05-30 2019-05-14 Apple Inc. Domain specific language for encoding assistant dialog
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
CN106463111B (zh) * 2014-06-17 2020-01-21 雅马哈株式会社 基于字符的话音生成的控制器与系统
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
JP6305275B2 (ja) * 2014-08-21 2018-04-04 株式会社河合楽器製作所 電子楽器における音声アシスト装置及びプログラム
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US9606986B2 (en) 2014-09-29 2017-03-28 Apple Inc. Integrated word N-gram and class M-gram language models
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US10152299B2 (en) 2015-03-06 2018-12-11 Apple Inc. Reducing response latency of intelligent automated assistants
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179309B1 (en) 2016-06-09 2018-04-23 Apple Inc Intelligent automated assistant in a home environment
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
US10474753B2 (en) 2016-09-07 2019-11-12 Apple Inc. Language identification using recurrent neural networks
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US11281993B2 (en) 2016-12-05 2022-03-22 Apple Inc. Model and ensemble compression for metric learning
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
US10417266B2 (en) 2017-05-09 2019-09-17 Apple Inc. Context-aware ranking of intelligent response suggestions
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
US10395654B2 (en) 2017-05-11 2019-08-27 Apple Inc. Text normalization based on a data-driven learning network
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770427A1 (en) 2017-05-12 2018-12-20 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
US11301477B2 (en) 2017-05-12 2022-04-12 Apple Inc. Feedback analysis of a digital assistant
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
US10403278B2 (en) 2017-05-16 2019-09-03 Apple Inc. Methods and systems for phonetic matching in digital assistant services
US10303715B2 (en) 2017-05-16 2019-05-28 Apple Inc. Intelligent automated assistant for media exploration
US10311144B2 (en) 2017-05-16 2019-06-04 Apple Inc. Emoji word sense disambiguation
DK179549B1 (en) 2017-05-16 2019-02-12 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US10657328B2 (en) 2017-06-02 2020-05-19 Apple Inc. Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling
US10445429B2 (en) 2017-09-21 2019-10-15 Apple Inc. Natural language understanding using vocabularies with compressed serialized tries
US10755051B2 (en) 2017-09-29 2020-08-25 Apple Inc. Rule-based natural language processing
US10636424B2 (en) 2017-11-30 2020-04-28 Apple Inc. Multi-turn canned dialog
US10733982B2 (en) 2018-01-08 2020-08-04 Apple Inc. Multi-directional dialog
US10733375B2 (en) 2018-01-31 2020-08-04 Apple Inc. Knowledge-based framework for improving natural language understanding
US10789959B2 (en) 2018-03-02 2020-09-29 Apple Inc. Training speaker recognition models for digital assistants
US10592604B2 (en) 2018-03-12 2020-03-17 Apple Inc. Inverse text normalization for automatic speech recognition
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US10909331B2 (en) 2018-03-30 2021-02-02 Apple Inc. Implicit identification of translation payload with neural machine translation
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10984780B2 (en) 2018-05-21 2021-04-20 Apple Inc. Global semantic word embeddings using bi-directional recurrent neural networks
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS
US11386266B2 (en) 2018-06-01 2022-07-12 Apple Inc. Text correction
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
US10504518B1 (en) 2018-06-03 2019-12-10 Apple Inc. Accelerated task performance

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4731847A (en) * 1982-04-26 1988-03-15 Texas Instruments Incorporated Electronic apparatus for simulating singing of song
JPS62137082A (ja) 1985-12-11 1987-06-19 諸木 一義 座敷船及び水上座敷
JPH0652034B2 (ja) 1986-02-19 1994-07-06 旭化成工業株式会社 自動掘削機
JPH05341793A (ja) * 1991-04-19 1993-12-24 Pioneer Electron Corp カラオケ演奏装置
JP3507090B2 (ja) * 1992-12-25 2004-03-15 キヤノン株式会社 音声処理装置及びその方法
US5703311A (en) * 1995-08-03 1997-12-30 Yamaha Corporation Electronic musical apparatus for synthesizing vocal sounds using format sound synthesis techniques
US6304846B1 (en) * 1997-10-22 2001-10-16 Texas Instruments Incorporated Singing voice synthesis
US6782299B1 (en) * 1998-02-09 2004-08-24 Sony Corporation Method and apparatus for digital signal processing, method and apparatus for generating control data, and medium for recording program
JP2000105595A (ja) * 1998-09-30 2000-04-11 Victor Co Of Japan Ltd 歌唱装置及び記録媒体
US6327590B1 (en) 1999-05-05 2001-12-04 Xerox Corporation System and method for collaborative ranking of search results employing user and group profiles derived from document collection content analysis
US6459774B1 (en) * 1999-05-25 2002-10-01 Lucent Technologies Inc. Structured voicemail messages
US6321179B1 (en) 1999-06-29 2001-11-20 Xerox Corporation System and method for using noisy collaborative filtering to rank and present items
US6694297B2 (en) * 2000-03-30 2004-02-17 Fujitsu Limited Text information read-out device and music/voice reproduction device incorporating the same
TW548943B (en) 2000-09-25 2003-08-21 Yamaha Corp Portable terminal device
US6928410B1 (en) * 2000-11-06 2005-08-09 Nokia Mobile Phones Ltd. Method and apparatus for musical modification of speech signal
US7058889B2 (en) * 2001-03-23 2006-06-06 Koninklijke Philips Electronics N.V. Synchronizing text/visual information with audio playback
JP2002311967A (ja) 2001-04-13 2002-10-25 Casio Comput Co Ltd 替え歌作成装置及び替え歌作成プログラム及び替え歌作成方法
JP2002334261A (ja) 2001-05-09 2002-11-22 Noiman:Kk 情報提供方法及び情報記録媒体並びに教習所紹介システム
US20030200858A1 (en) * 2002-04-29 2003-10-30 Jianlei Xie Mixing MP3 audio and T T P for enhanced E-book application
US7299182B2 (en) * 2002-05-09 2007-11-20 Thomson Licensing Text-to-speech (TTS) for hand-held devices

Also Published As

Publication number Publication date
CN100559459C (zh) 2009-11-11
US7365260B2 (en) 2008-04-29
TWI250508B (en) 2006-03-01
US20040133425A1 (en) 2004-07-08
KR100682443B1 (ko) 2007-02-15
TW200426778A (en) 2004-12-01
CN1510659A (zh) 2004-07-07
JP2004205605A (ja) 2004-07-22

Similar Documents

Publication Publication Date Title
KR100682443B1 (ko) 음성 및 악곡 재생 장치 및 방법
KR100724918B1 (ko) 발음제어장치, 그 제어방법 및 매체
JP4168621B2 (ja) 歌唱音声合成を用いた携帯電話装置及び携帯電話システム
KR100582154B1 (ko) 시퀀스 데이터의 데이터 교환 포맷, 음성 재생 장치 및서버 장치
JP3666366B2 (ja) 携帯用端末装置
JP3646703B2 (ja) 音声メロディ楽曲生成装置およびそれを用いた携帯端末装置
JPH10319993A (ja) データ編集装置
JP2005208394A (ja) 歌声生成装置、そのプログラム並びに歌声生成機能を有する携帯通信端末
JP2003131659A (ja) 楽音発生装置および楽音発生方法
KR20060050071A (ko) 악곡 데이터 편집 재생 장치 및 휴대 정보 단말기
KR100612780B1 (ko) 음성 및 악곡 재생 장치
JP3795495B2 (ja) 音源装置
KR20080080013A (ko) 휴대 단말 장치
KR20010088951A (ko) 데이터 합성을 통한 노래 구현 시스템 및 그 응용
JP4153453B2 (ja) 音楽再生装置
JPH10288993A (ja) 声帯模写機能付きカラオケ装置
JP2004157238A (ja) 携帯端末
JP2005107136A (ja) 音声および楽曲再生装置
JP2004166290A (ja) 携帯用端末装置
JP2004029847A (ja) マルチメディア制御装置
JPH0990966A (ja) カラオケ装置
JP2005234208A (ja) 楽曲再生装置及び携帯端末装置
JP2004354748A (ja) 音声再生装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120203

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20130104

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee