KR100995735B1 - 음성처리장치, 음성처리방법 및 프로그램을 기억하는 컴퓨터 판독 가능한 정보기록매체 - Google Patents

음성처리장치, 음성처리방법 및 프로그램을 기억하는 컴퓨터 판독 가능한 정보기록매체 Download PDF

Info

Publication number
KR100995735B1
KR100995735B1 KR1020087016871A KR20087016871A KR100995735B1 KR 100995735 B1 KR100995735 B1 KR 100995735B1 KR 1020087016871 A KR1020087016871 A KR 1020087016871A KR 20087016871 A KR20087016871 A KR 20087016871A KR 100995735 B1 KR100995735 B1 KR 100995735B1
Authority
KR
South Korea
Prior art keywords
pronunciation
source
interest
point
distance
Prior art date
Application number
KR1020087016871A
Other languages
English (en)
Other versions
KR20080086500A (ko
Inventor
가즈키 무라오카
료지 마키무라
Original Assignee
가부시키가이샤 코나미 데지타루 엔타테인멘토
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가부시키가이샤 코나미 데지타루 엔타테인멘토 filed Critical 가부시키가이샤 코나미 데지타루 엔타테인멘토
Publication of KR20080086500A publication Critical patent/KR20080086500A/ko
Application granted granted Critical
Publication of KR100995735B1 publication Critical patent/KR100995735B1/ko

Links

Images

Classifications

    • A63F13/10
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/54Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6063Methods for processing data by generating or executing the game program for sound processing
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6063Methods for processing data by generating or executing the game program for sound processing
    • A63F2300/6081Methods for processing data by generating or executing the game program for sound processing generating an output signal, e.g. under timing constraints, for spatialization
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/64Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car

Abstract

음성처리장치(200)에 있어서, 기억부(201)는 발음원에 대응지어지는 영역을 나타내는 정보로서 예를 들면 발음원으로부터 발음되는 음성을 변화시킬 거리 범위 를 기억한다. 판단부(202)는 발음원과, 이 발음원으로부터 발음되는 음성을 듣는 위치인 주목점의 거리를 구하고, 주목점이 기억부(201)에 기억된 거리 범위에 존재하는지 않는지를 판단한다. 변화부(203)는 주목점이 이 거리 범위에 있을 경우에 음성을 변화시킨다. 재생부(204)는 변화부(203)에 의해 변화된 음성을 재생한다.
가상공간, 발음원, 기준 거리, 주목점, 캐릭터 오브젝트

Description

음성처리장치, 음성처리방법 및 프로그램을 기억하는 컴퓨터 판독 가능한 정보기록매체{SOUND PROCESSING APPARATUS, SOUND PROCESSING METHOD, AND RECORDING MEDIUM FOR STORRING A COMPUTER-READABLE PROGRAM}
본 발명은, 가상공간 내의 발음원과 음을 듣는 위치와의 거리에 따라 효율 좋게 음을 재생하기 위해서 적합한 음성처리장치, 음성처리방법 및 프로그램을 기억하는 컴퓨터 판독 가능한 정보기록매체에 관한 것이다.
가상공간 내의 임의의 위치에 시점을 두고, 이 시점으로부터의 가상 화상을 합성하여 표시하는 시뮬레이션 게임이 잘 알려져 있다. 이와 같은 게임에서는, 가상공간 내에 오브젝트를 배치하고, 시점으로부터 오브젝트까지의 거리나 방향 등에 의거하여 시점으로부터의 오브젝트의 가상 화상을 표시하는 것에 의해서, 마치 사용자에게 가상공간 내에 있는 것 같은 현실감을 일으키게 한다. 게임의 현실감을 높이는 연출의 하나로서 음향 효과가 있고, 여러 가지 고안이 이루어지고 있다. 예를 들면, 특허문헌 1에는, 효과음의 발음원과 가상 카메라와의 거리에 의거하여 다른 2개의 사운드 데이터의 믹싱 비율을 바꾸어, 가상 카메라의 위치에서 들리는 음을 재생하는 게임 장치가 개시되고 있다. 이것에 따르면, 게임 장치는 발음원과 가상 카메라와의 거리가 가까워지면 근거리용 사운드 데이터의 비율을 크게 하여 재생하여 보다 리얼리티가 있는 효과음을 출력할 수 있다.
[특허 문헌 1]일본국특개 2005-046270호 공보
그런데, 음성처리장치에는 효과음 등을 동시에 재생할 수 있는 수(재생 트랙 수)의 하드웨어적 혹은 소프트웨어적인 제한이 있다. 한편, 종래의 음성처리장치로 재생되는 효과음은 효과음의 발음원과 그 효과음를 듣는 위치와의 거리가 떨어지면 떨어질수록, 그 효과음의 음량을 작게 하도록 제어되는 것이 일반적이다. 그리고, 그 음량이 제로가 되는 거리에 이르기까지 재생을 계속하는 경우가 많다. 그로 인해, 실질적으로 사용자에게 들리지 않을 정도까지 효과음의 음량을 줄여서 재생하는 경우에도 그 효과음의 재생을 위해서 재생 트랙을 점유해버리고, 동시 재생하는 음수가 증가했을 때에 본래 큰 음량으로 재생해야 할 다른 효과음을 올바르게 재생할 수 없는 일이 있었다. 또, 발음원과 음을 듣는 위치와의 거리가 충분히 멀리 떨어져도, 연출상 사용자에게 들리도록 하지 않으면 안되는 경우에는, 그 효과음의 재생을 위한 특별한 제어를 실행할 필요가 있어 번거로웠다.
본 발명은 이와 같은 과제를 해결하는 것이고, 가상공간 내의 발음원과 음을 듣는 위치와의 거리에 따라 효율 좋게 소리를 재생하기 위해서 적합한 음성처리장치, 음성처리방법 및 프로그램을 기억하는 컴퓨터 판독 가능한 정보기록매체을 제공하는 것을 목적으로 한다.
[과제를 해결하기 위한 수단]
이상의 목적을 달성하기 위해, 본 발명의 원리에 따라서 아래와 같은 발명을 개시한다.
본 발명의 제 1 관점에 관련되는 음성처리장치는 기억부와 판단부와 변화부와 재생부를 구비한다.
기억부는 가상공간 내에 배치된 발음원에 대응지어지는 영역을 기억한다.
판단부는 해당 발음원에 대해서, 기억부에 기억된 영역에 해당 가상공간 내에 배치된 주목점이 포함되는지 아닌지를 판단한다.
변화부는 판단부에 의해 해당 주목점이 해당 영역에 포함된다고 판단된 경우, 해당 발음원과 해당 주목점의 거리에 의거하여 해당 발음원으로부터 발음되는 음성을 변화시킨다.
재생부는 변화부에 의해 변화된 음성을 재생한다.
이에 따라, 음성처리장치는 예를 들면 캐릭터 오브젝트 마다 설정된 영역 중에 사용자 캐릭터 오브젝트가 존재하면, 캐릭터 오브젝트와 사용자 캐릭터 오브젝트와의 거리에 의거하여, 캐릭터 오브젝트로부터 발음되는 음성 마다 적절히 음성을 변화시킬 수 있다. 즉, 가상공간 내의 발음원과 그 음을 듣는 위치와의 거리에 따라 효율 좋게 재생할 수 있다.
본 발명의 그 밖의 관점에 관련되는 음성처리장치는 기억부와 판단부와 변화부와 재생부를 구비한다.
기억부는 가상공간 내에 배치된 복수의 발음원 각각에 대하여, 해당 발음원의 위치와, 해당 발음원에 대응지어지는 영역을 정하는 기준 거리와, 해당 발음원으로부터 발음되는 음성의 소정의 최저 음량을 기억하고, 해당 가상공간 내에 배치된 주목점의 위치를 기억한다.
판단부는 해당 복수의 발음원 각각에 대하여, 기억부에 기억된 발음원의 위치와 주목점의 위치에 의거하여 해당 발음원과 해당 주목점의 거리를 계산하고, 해당 발음원에 대응지어지는 영역에 해당 주목점이 포함되는지 아닌지를, 계산된 거리가 해당 발음원의 기준 거리보다 작은지 아닌지에 의해 판단한다.
변화부는 판단부에 의해 해당 주목점이 해당 영역에 포함된다고 판단된 경우, 해당 복수의 발음원 각각으로부터 발음되는 음성을, 해당 발음원과 해당 주목점의 거리가 커지면 감소하도록 미리 대응지어진 음량으로 변화시키고, 포함되지 않는다고 판단된 경우, 해당 발음원의 해당 최저 음량으로 변화시킨다.
재생부는 변화부에 의해 변화된 음성을 재생한다.
이에 따라, 음성처리장치는 예를 들면 캐릭터 오브젝트 마다 설정된 영역 중에 사용자 캐릭터 오브젝트가 존재하면, 캐릭터 오브젝트와 사용자 캐릭터 오브젝트와의 거리에 의거하여, 캐릭터 오브젝트로부터 발음되는 음성 마다 적절히 음성을 변화시킬 수 있다. 즉, 가상공간 내의 발음원과 그 음을 듣는 주목점의 위치와의 거리에 따라 효율 좋게 음성을 재생할 수 있다.
기억부는 복수의 발음원 조합 정보를 추가로 기억하고,
변화부는 해당 조합 정보가 나타내는 발음원 각각으로부터 발음되는 음성의 음량을 함께 변화시켜도 좋다.
이에 따라, 음성처리장치는 사용하는 메모리 용량을 줄일 수 있다.
본 발명의 그 밖의 관점에 관련되는 음성처리방법은 기억부를 갖는 음성처리장치에서 실행되는 음성처리방법으로서, 판단스텝과 변화스텝과 재생스텝을 구비한다.
기억부에는, 가상공간 내에 배치된 발음원에 대응지어지는 영역이 기억되고,
판단스텝은 해당 발음원에 대해서, 기억부에 기억된 영역에, 해당 가상공간 내에 배치된 주목점이 포함되는지 아닌지를 판단한다.
변화스텝은 판단스텝에 의해 해당 주목점이 해당 영역에 포함된다고 판단된 경우, 해당 발음원과 해당 주목점의 거리에 의거하여 해당 발음원으로부터 발음되는 음성을 변화시킨다.
재생스텝은 변화스텝에 의해 변화된 음성을 재생한다.
이에 따라, 이 음성처리방법을 이용한 음성처리장치는 캐릭터 오브젝트 마다 설정된 영역 중에 사용자 캐릭터 오브젝트가 존재하면, 캐릭터 오브젝트와 사용자 캐릭터 오브젝트와의 거리에 의거하여, 캐릭터 오브젝트로부터 발음되는 음성 마다 적절히 음성을 변화시킬 수 있다. 즉, 가상공간 내의 발음원과 그 소리를 듣는 위치와의 거리에 따라 효율 좋게 음성을 재생할 수 있다.
본 발명의 그 밖의 관점에 관련되는 음성처리방법은 기억부를 갖는 음성처리장치에서 실행되는 음성처리방법으로서, 판단스텝과 변화스텝과 재생스텝을 구비한다.
기억부에는, 가상공간 내에 배치된 복수의 발음원 각각에 대하여, 해당 발음원의 위치와 해당 발음원에 대응지어지는 영역을 정하는 기준 거리와, 해당 발음원으로부터 발음되는 음성의 소정의 최저 음량이 기억되고, 해당 가상공간 내에 배치된 주목점의 위치가 기억된다.
판단스텝은 해당 복수의 발음원 각각에 대하여, 기억부에 기억된 발음원의 위치와 주목점의 위치에 의거하여 해당 발음원과 해당 주목점의 거리를 계산하고, 해당 발음원에 대응지어지는 영역에 해당 주목점이 포함되는지 아닌지를, 계산된 거리가 해당 발음원의 기준 거리보다 작은지 아닌지에 의해 판단한다.
변화스텝은 판단스텝에 의해 해당 주목점이 해당 영역에 포함된다고 판단된 경우, 해당 복수의 발음원 각각으로부터 발음되는 음성을, 해당 발음원과 해당 주목점의 거리가 커지면 감소하도록 미리 대응지어진 음량으로 변화시키고, 포함되지 않는다고 판단된 경우, 해당 발음원의 해당 최저 음량으로 변화시킨다.
재생스텝은 변화스텝에 의해 변화된 음성을 재생한다.
이에 따라, 이 음성처리방법을 이용한 음성처리장치는 캐릭터 오브젝트 마다 설정된 영역 중에 사용자 캐릭터 오브젝트가 존재하면, 캐릭터 오브젝트와 사용자 캐릭터 오브젝트와의 거리에 의거하여, 캐릭터 오브젝트로부터 발음되는 음성 마다 적절히 음성을 변화시킬 수 있다. 즉, 가상공간 내의 발음원과 그 음을 듣는 위치와의 거리에 따라 효율좋게 음성을 재생할 수 있다.
본 발명의 그 밖의 관점에 관련되는 정보기록매체는 컴퓨터를, 기억부와 판단부와 변화부와 재생부로서 기능시키는 프로그램을 기억한다.
기억부는 가상공간 내에 배치된 발음원에 대응지어지는 영역을 기억한다.
판단부는 해당 발음원에 대해서, 기억부에 기억된 영역에 해당 가상공간 내에 배치된 주목점이 포함되는지 아닌지를 판단한다.
변화부는 판단부에 의해 해당 주목점이 해당 영역에 포함된다고 판단된 경우, 해당 발음원과 해당 주목점의 거리에 의거하여 해당 발음원으로부터 발음되는 음성을 변화시킨다.
재생부는 변화부에 의해 변화된 음성을 재생한다.
이에 따라, 정보기록매체는 이 프로그램에 의해서, 컴퓨터를, 캐릭터 오브젝트 마다 설정된 영역 중에 사용자 캐릭터 오브젝트가 존재하면, 캐릭터 오브젝트와 사용자 캐릭터 오브젝트와의 거리에 의거하여, 캐릭터 오브젝트로부터 발음되는 음성 마다 적절히 음성을 변화시키는 장치로서 기능시킬 수 있다.
본 발명의 그 밖의 관점에 관련되는 정보기록매체는 컴퓨터를, 기억부와 판단부와 변화부와 재생부로서 기능시키는 프로그램을 기억한다.
기억부는 가상공간 내에 배치된 복수의 발음원 각각에 대하여, 해당 발음원의 위치와 해당 발음원에 대응지어지는 영역을 정하는 기준 거리와, 해당 발음원으로부터 발음되는 음성의 소정의 최저 음량을 기억하고, 해당 가상공간 내에 배치된 주목점의 위치를 기억한다.
판단부는 해당 복수의 발음원 각각에 대하여, 기억부에 기억된 발음원의 위치와 주목점의 위치에 의거하여 해당 발음원과 해당 주목점의 거리를 계산하고, 해당 발음원에 대응지어지는 영역에 해당 주목점이 포함되는지 아닌지를, 계산된 거리가 해당 발음원의 기준 거리보다 작은지 아닌지에 의해 판단한다.
변화부는 판단부에 의해 해당 주목점이 해당 영역에 포함된다고 판단된 경우, 해당 발음원으로부터 발음되는 음성을, 해당 발음원과 해당 주목점의 거리가 커지면 감소하도록 미리 대응지어진 음량으로 변화시키고, 포함되지 않는다고 판단된 경우, 해당 발음원의 해당 최저 음량으로 변화시킨다.
재생부는 변화부에 의해 변화된 음성을 재생한다.
이에 따라, 정보기록매체는 이 프로그램에 의해서, 컴퓨터를, 캐릭터 오브젝트 마다 설정된 영역 중에 사용자 캐릭터 오브젝트가 존재하면, 캐릭터 오브젝트와 사용자 캐릭터 오브젝트와의 거리에 의거하여, 캐릭터 오브젝트로부터 발음되는 음성 마다 적절히 음성을 변화시키는 장치로서 기능시킬 수 있다.
본 발명의 그 밖의 관점에 관련되는 프로그램은 컴퓨터를, 기억부와 판단부와 변화부와 재생부로서 기능시킨다.
기억부는 가상공간 내에 배치된 발음원에 대응지어지는 영역을 기억한다.
판단부는 해당 발음원에 대해서, 기억부에 기억된 영역에, 해당 가상공간 내에 배치된 주목점이 포함되는지 아닌지를 판단한다.
변화부는 판단부에 의해 해당 주목점이 해당 영역에 포함된다고 판단된 경우, 해당 발음원과 해당 주목점의 거리에 의거하여 해당 발음원으로부터 발음되는 음성을 변화시킨다.
재생부는 변화부에 의해 변화된 음성을 재생한다.
이에 따라, 프로그램은 컴퓨터를, 캐릭터 오브젝트 마다 설정된 영역 중에 사용자 캐릭터 오브젝트가 존재하면, 캐릭터 오브젝트와 사용자 캐릭터 오브젝트와의 거리에 의거하여, 캐릭터 오브젝트로부터 발음되는 음성 마다 적절히 음성을 변화시키는 장치로서 기능시킬 수 있다.
본 발명의 그 밖의 관점에 관련되는 프로그램은 컴퓨터를, 기억부와 판단부와 변화부와 재생부로서 기능시킨다.
기억부는 가상공간 내에 배치된 복수의 발음원 각각에 대하여, 해당 발음원의 위치와, 해당 발음원에 대응지어지는 영역을 정하는 기준 거리와, 해당 발음원으로부터 발음되는 음성의 소정의 최저 음량을 기억하고, 해당 가상공간 내에 배치된 주목점의 위치를 기억한다.
판단부는 해당 복수의 발음원 각각에 대하여, 기억부에 기억된 발음원의 위치와 주목점의 위치에 의거하여 해당 발음원과 해당 주목점의 거리를 계산하고, 해당 발음원에 대응지어지는 영역에 해당 주목점이 포함되는지 아닌지를, 계산된 거리가 해당 발음원의 기준 거리보다 작은지 아닌지에 의해 판단한다.
변화부는 판단부에 의해 해당 주목점이 해당 영역에 포함된다고 판단된 경우, 해당 발음원으로부터 발음되는 음성을, 해당 발음원과 해당 주목점의 거리가 커지면 감소하도록 미리 대응지어진 음량으로 변화시키고, 포함되지 않는다고 판단된 경우, 해당 발음원의 해당 최저 음량으로 변화시킨다.
이에 따라, 프로그램은 컴퓨터를, 캐릭터 오브젝트 마다 설정된 영역 중에 사용자 캐릭터 오브젝트가 존재하면, 캐릭터 오브젝트와 사용자 캐릭터 오브젝트와의 거리에 의거하여, 캐릭터 오브젝트로부터 발음되는 음성 마다 적절히 음성을 변화시키는 장치로서 기능시킬 수 있다.
또, 본 발명의 프로그램은 콤팩트 디스크, 플렉시블 디스크(flexible disk), 하드 디스크, 광자기 디스크, 디지탈 비디오디스크, 자기테이프, 반도체 메모리 등의 컴퓨터 판독 가능한 정보기억매체에 기록할 수 있다.
상기 프로그램은 프로그램이 실행되는 컴퓨터와는 독립하여, 컴퓨터 통신망을 통하여 배포·판매할 수 있다. 또, 상기 정보기억매체는 컴퓨터와는 독립하여 배포·판매할 수 있다.
본 발명에 따르면, 가상공간 내의 발음원과 음을 듣는 위치와의 거리에 따라 효율 좋게 소리를 재생할 수 있다.
도 1은 본 발명의 음성처리장치가 실현되는 전형적인 정보처리장치의 개요 구성을 나타내는 도면이다.
도 2는 본 발명의 음성처리장치의 구성을 나타내는 도면이다.
도 3은 발음원과 주목점의 위치 관계를 설명하기 위한 도면이다.
도 4a는 실시형태 1, 2의 기억부에 기억되는 정보의 예를 나타내는 도면이다.
도 4b는 실시형태 1, 2의 기억부에 기억되는 정보의 예를 나타내는 도면이다.
도 4c는 실시형태 1, 2의 기억부에 기억되는 정보의 예를 나타내는 도면이다.
도 5a는 발음원과 주목점의 거리와, 변화부에 의해 변화된 음성의 음량과의 관계의 예를 나타내는 도면이다.
도 5b는 발음원과 주목점의 거리와, 변화부에 의해 변화된 음성의 음량과의 관계의 예를 나타내는 도면이다.
도 6은 음성제어처리를 설명하기 위한 흐름도이다.
도 7a는 발음원과 주목점의 거리와, 변화부에 의해 변화된 음성의 음량과, 재생부에 의해 재생되는/재생되지 않는 영역과의 관계의 예를 나타내는 도면이다.
도 7b는 발음원과 주목점의 거리와, 변화부에 의해 변화된 음성의 음량과, 재생부에 의해 재생되는/재생되지 않는 영역과의 관계의 예를 나타내는 도면이다.
도 8은 실시형태 2의 음성제어처리를 설명하기 위한 흐름도이다.
도 9a는 실시형태 3의 기억부에 기억되는 정보의 예를 나타내는 도면이다.
도 9b는 실시형태 3의 기억부에 기억되는 정보의 예를 나타내는 도면이다.
도 10a는 실시형태 3의 발음원과 주목점의 거리와, 변화부에 의해 변화된 음성의 음량과의 관계의 예를 나타내는 도면이다.
도 10b는 실시형태 3의 발음원과 주목점의 거리와, 변화부에 의해 변화된 음성의 음량과의 관계의 예를 나타내는 도면이다.
도 11a는 실시형태 4의 기억부에 기억되는 정보의 예를 나타내는 도면이다.
도 11b는 실시형태 4의 기억부에 기억되는 정보의 예를 나타내는 도면이다.
도 12a는 실시형태 5의 기억부에 기억되는 정보의 예를 나타내는 도면이다.
도 12b는 실시형태 5의 기억부에 기억되는 정보의 예를 나타내는 도면이다.
도 12c는 실시형태 5의 기억부에 기억되는 정보의 예를 나타내는 도면이다.
부호의 설명
100 정보처리장치 101 CPU
102 ROM 103 RAM
104 인터페이스 105 콘트롤러
106 외부 메모리 107 화상처리부
108 DVD-ROM 드라이브 109 NIC
110 음성처리부 200 음성처리장치
201 기억부 202 판단부
203 변화부 204 재생부
301 발음원 302 주목점
이하에 본 발명의 실시형태를 설명한다. 이하에서는, 이해를 용이하게 하기 위해, 게임용의 정보처리장치를 이용하여 본 발명이 실현되는 실시형태를 설명하지만, 이하에 설명하는 실시형태는 설명을 위한 것이로, 본원 발명의 범위를 제한하는 것은 아니다. 따라서, 당업자라면 이와 같은 각 요소 혹은 전체 요소를 이것과 균등한 것으로 치환한 실시형태를 적용하는 것이 가능하지만, 이들의 실시형태도 본 발명의 범위에 포함된다.
(실시형태 1)
도 1은 프로그램을 실행함으로써, 본 발명의 음성처리장치의 기능을 하는 전형적인 정보처리장치의 개요 구성을 나타내는 모식도이다. 이하, 본 도면을 참조하여 설명한다.
정보처리장치(100)는 CPU(101, Central Processing Unit)와, ROM(102, Read Only Memory)과, RAM(103, Random Access Memory)과, 인터페이스(104)와, 콘트롤 러(105)와, 외부 메모리(106)와, 화상처리부(107)와, DVD-ROM(Digital Versatile Disk - Read Only Memory) 드라이브(108)와, NIC(109, Network Interface Card)와, 음성처리부(110)를 구비한다.
게임용의 프로그램 및 데이터를 기억한 DVD-ROM을 DVD-ROM 드라이브(108)에 장착하여, 정보처리장치(100)의 전원을 투입함으로써, 해당 프로그램이 실행되고, 본 실시형태의 음성처리장치가 실현된다.
CPU(101)는 정보처리장치(100) 전체의 동작을 제어하고, 각 구성요소와 접속되고 제어 신호나 데이터를 수수한다. 또, CPU(101)는 레지스터(도시하지 않음)라고 하는 고속 액세스가 가능한 기억영역에 대하여 ALU(Arithmetic Logic Unit)(도시하지 않음)를 이용하여 가감승제 등의 산술 연산이나, 논리화, 논리곱, 논리 부정 등의 논리 연산, 비트화, 비트곱, 비트 반전, 비트 시프트, 비트 회전 등의 비트 연산 등을 실행할 수 있다. 그리고, 멀티미디어 처리 대응을 위한 가감승제 등의 포화 연산이나, 삼각함수 등, 벡터 연산 등을 고속으로 실행할 수 있도록, CPU(101) 자신이 구성되어 있는 것이나, 코프로세서(coprocessor)를 구비하여 실현되는 것이 있다.
ROM(102)에는, 전원 투입 직후에 실행되는 IPL(Initial Program Loader)이 기록되고, 이것이 실행됨으로써, DVD-ROM에 기록된 프로그램을 RAM(103)에 판독하여 CPU(101)에 의한 실행이 개시된다. 또, ROM(102)에는, 정보처리장치(100) 전체의 동작 제어에 필요한 오퍼레이팅 시스템의 프로그램이나 각종의 데이터가 기록된다.
RAM(103)은 데이터나 프로그램을 일시적으로 기억하기 위한의 것으로, DVD-ROM로부터 판독한 프로그램이나 데이터, 그 외 게임의 진행이나 채팅 통신에 필요한 데이터가 유지된다. 또, CPU(101)는 RAM(103)에 변수 영역을 설치하고, 해당 변수에 저장된 값에 대하여 직접 ALU를 작용시켜서 연산을 실행하거나, RAM(103)에 저장된 값을 일단 레지스터에 저장하고 나서 레지스터에 대하여 연산을 실행하고, 연산 결과를 메모리에 되돌려 쓰는 등의 처리를 실행한다.
인터페이스(104)를 통하여 접속된 콘트롤러(105)는 사용자가 마작 게임이나 트럼프 게임 등의 게임 실행 시에 실행하는 조작 입력을 접수한다.
인터페이스(104)를 통하여 착탈 자유롭게 접속된 외부 메모리(106)에는, 마작 게임 등의 플레이 상황(과거의 성적 등)을 나타내는 데이터, 게임의 진행 상태를 나타내는 데이터, 네트워크 대전의 경우의 채팅 통신의 로그(기록)의 데이터 등이 리라이트 가능하게 기억된다. 사용자는, 콘트롤러(105)를 통하여 지시 입력을 실행함으로써, 이들 데이터를 적절하게 외부 메모리(106)에 기록할 수 있다.
DVD-ROM 드라이브(108)에 장착되는 DVD-ROM에는, 게임을 실현하기 위한 프로그램과 게임에 부수하는 화상 데이터나 음성데이터가 기록된다. CPU(101)의 제어에 의해서, DVD-ROM 드라이브(108)는 이것에 장착된 DVD-ROM에 대한 판독처리를 실행하여, 필요한 프로그램이나 데이터를 판독하고, 이들은 RAM(103)등에 일시적으로 기억된다.
화상처리부(107)는 DVD-ROM으로부터 판독된 데이터를 CPU(101)나 화상처리부(107)가 구비하는 화상 연산 프로세서(도시하지 않음)에 의해 가공 처리한 후, 이것을 화상처리부(107)가 구비하는 프레임 메모리(도시하지 않음)에 기록한다. 프레임 메모리에 기록된 화상 정보는 소정의 동기 타이밍에서 비디오 신호로 변환되고 화상처리부(107)에 접속되는 모니터(도시하지 않음)로 출력된다. 이에 따라, 각종 화상 표시가 가능해진다.
화상 연산 프로세서는 2차원의 화상의 중첩 연산이나 알파 블렌딩 등의 투과 연산, 각종 포화 연산을 고속으로 실행할 수 있다.
또, 가상 3차원 공간에 배치되고, 각종 텍스쳐 정보가 부가된 폴리곤 정보를, Z버퍼법에 의해 렌더링 하여, 소정의 시점 위치로부터 가상 3차원 공간에 배치된 폴리곤을 소정의 시선 방향으로 부감한 렌더링 화상을 얻는 연산의 고속 실행도 가능하다.
그리고, CPU(101)와 화상 연산 프로세서가 협조 동작함으로써, 문자의 형상을 정의하는 폰트 정보에 따라서, 문자열을 2차원 화상으로서 프레임 메모리에 묘화하거나, 각 폴리곤 표면에 묘화하는 것이 가능하다.
또, 마작 게임의 패의 화상이나 트럼프 게임의 카드의 화상 등의 정보를 DVD-ROM에 준비해 두고, 이것을 프레임 메모리에 전개함으로써, 현재의 손 패나 가진 패를 화면에 표시할 수 있게 된다.
NIC(109)는 정보처리장치(100)를 인터넷 등의 컴퓨터 통신망(도시하지 않음)에 접속하기 위한의 것이고, LAN(Local Area Network)을 구성할 때에 이용되는 10BASE-T/100BASE-T 규격에 따르는 것이나, 전화 회선을 이용하여 인터넷에 접속하기 위한 아날로그 모뎀, ISDN(Integrated Services Digital Network) 모뎀, ADSL(Asymmetric Digital Subscriber Line) 모뎀, 케이블 텔레비전 회선을 이용하여 인터넷에 접속하기 위한 케이블 모뎀 등과, 이들과 CPU(101)와의 중개를 실행하는 인터페이스(도시하지 않음)에 의해 구성된다.
음성처리부(110)는 DVD-ROM으로부터 판독한 음성데이터를 아날로그 음성 신호로 변환하고, 이것에 접속된 스피커(도시하지 않음)로부터 출력시킨다. 또, CPU(101)의 제어 하에서, 게임의 진행 중에서 발생시켜야 할 효과음의 악곡 데이터를 판독하고, 음성을 스피커로부터 출력시킨다.
음성처리부(110)에서는, DVD-ROM에 기록된 음성데이터가 MIDI 데이터인 경우에는, 이것이 갖는 음원 데이터를 참조하여, MIDI 데이터를 PCM 데이터로 변환한다. 또, ADPCM(Adaptive Differential Pulse Code Modulation) 형식이나 Ogg Vorbis 형식 등의 압축제음성데이터인 경우에는, 이것을 전개하여 PCM 데이터로 변환한다. PCM 데이터는 그 샘플링 주파수에 따른 타이밍에서 D/A(Digital/Analog) 변환을 실행하여, 스피커에 출력함으로써, 음성 출력이 가능해진다.
이 외, 정보처리장치(100)는 하드 디스크 등의 대용량 외부 기억장치를 이용하여, ROM(102), RAM(103), 외부 메모리(106), DVD-ROM 드라이브(108)에 장착되는 DVD-ROM 등과 같은 기능을 하도록 구성해도 좋다.
이어서, 본 실시형태의 음성처리장치(200)가 실행하는 처리에 대하여 설명한다.
도 2는 본 실시형태의 음성처리장치(200)의 개요 구성을 나타내는 모식도이다. 음성처리장치(200)는 기억부(201)와 판단부(202)와 변화부(203)와 재생 부(204)를 구비한다.
도 3은 3차원 가상공간 내에 배치된 발음원(301)과, 발음원(301)으로부터 발해지는 음성이 도달하는 주목점(302)의 위치 관계를 나타내는 도면이다. 발음원(301)은 이 가상공간 내에서 이동 가능한 캐릭터 오브젝트이고, 게임 진행 중의 소정의 타이밍에서 음성이나 효과음을 내는 음원이다. 음성처리장치(200)는 게임 진행 중에 발음원(301)으로부터의 음성이 들리도록 소정의 음성데이터의 재생을 개시하고, 혹은 발음원(301)으로부터의 음성이 들리지 않도록 음성데이터의 재생을 정지한다. 주목점(302)은 전형적으로는 사용자 캐릭터 오브젝트가 배치되는 위치이다. 이와 같이, 음성처리장치(200)의 사용자는 가상공간 내에 배치된 사용자 캐릭터 오브젝트의 위치에 있어서의, 발음원(301)으로부터 발해지는 음성을 들을 수 있다.
음성처리장치(200)는 가상공간 내에 배치된 사용자 캐릭터 오브젝트의 위치에 있어서의, 발음원(301)으로부터 발음되는 음성의 음량을, 발음원(301)과 주목점(302)의 거리(L)가 커지면 커질수록 작게 한다. 또, 후술하는 바와 같이, 음성처리장치(200)는 발음원(301)인 캐릭터 오브젝트 마다 미리 설정된 영역을 나타내는 정보와 거리(L)에 의거하여, 발음원(301)으로부터 발음되는 음성을 제어하는 처리(이하, 「음성제어처리」라고 부른다)를 실행함으로써, 음성을 효율 좋게 재생할 수 있도록 제어한다.
기억부(201)는 가상공간 내에 배치된 발음원(301)에 대응지어서 영역을 나타내는 정보를 기억한다. 예를 들면, 기억부(201)는 발음원(301)에 대응지어서, 발 음원(301)과 주목점(302)과 거리 범위를 나타내는 정보를 기억한다. 본 실시형태에서는, 이 정보는 DVD-ROM 드라이브(108)에 장착되는 DVD-ROM에 미리 기억되어 있고, CPU(101)에 의한 제어에 의해 수시 판독된다.
그리고, CPU(101)와 DVD-ROM 드라이브(108)가 협동하여 동작하는 것에 의해, 기억부(201)로서 기능한다.
구체적으로는, 예를 들면, 기억부(201)는 도 4a에 나타내는 바와 같이, 가상공간 내에 있어서의 가상 거리를 단위로 하여, 발음원(301)에 대응지어지는 영역을 정하는 기준 거리를 기억한다. 본 도면의 경우, 기억부(201)는 발음되는 음성 「자동차의 엔진음」에 대응지어서, 발음원(301)(주행하는 자동차 오브젝트의 엔진)과 주목점(302)(주행하는 자동차 오브젝트의 엔진소리를 듣는 사용자 캐릭터 오브젝트)의 거리가 0∼100미터의 범위 내일 때, 이 음성이 재생되는 취지의 정보를 기억한다. 바꾸어 말하면, 기억부(201)는 발음원(301)과 주목점(302)의 거리가 100미터를 넘으면 재생부(204)에 의한 재생을 정지하는 취지의 정보를 기억한다. 이와 같이, 기억부(201)는 개개의 발음원(301) 또는 발음되는 음성에 대하여 따로 따로 거리 범위를 나타내는 정보를 기억한다.
혹은, 기억부(201)는 도 4b에 나타내는 바와 같이, 음성데이터의 파일명에 대응지어서, 가상공간 내에 있어서의 가상 거리를 단위로 하여 기준 거리를 기억해도 좋다. 본 도면의 경우, 기억부(201)는 파일명 「onsei01.wav」의 음성데이터(예를 들면, 주행하는 자동차 오브젝트의 엔진음)에 대응지어서, 발음원(301)(예를 들면, 주행하는 자동차 오브젝트)과 주목점(302)(예를 들면, 주행하는 자동차 오브 젝트의 엔진음을 듣는 사용자 캐릭터 오브젝트)의 거리가 0∼100미터의 범위 내일 때에 재생되는 취지의 정보를 기억한다. 이와 같이, 기억부(201)는 개개의 음성데이터에 대해 따로 따로 거리 범위를 나타내는 정보를 기억해도 좋다.
또, 발음원(301)의 가상공간 내에서의 위치에 관계없이(발음원(301)과 주목점(302)의 거리에 관계없이) 발음원(301)으로부터의 음성을 재생시키고 싶은 경우, 기억부(201)에 기억되는 정보는 도 4c에 나타내는 바와 같이, 재생할 거리 범위로서 실질적으로 거리가 무한원(無限遠)이라고 간주할 수 있을 정도로 충분히 큰 값(Linf)을 이용하여 설정되면 좋하다.
예를 들면, 기억부(201)는 각각의 효과음 등에 고유 번호를 붙여서, 이 고유 번호에 대응지어서 기준 거리를 기억해도 좋다. 또, 개개의 발음원(301)이나, 발음원(301)이 될 수 있는 캐릭터 오브젝트의 종류에 대응지어서, 기준 거리를 기억해도 좋다.
기억부(201)에 기억되고, 발음원(301)에 대응지어지는 기준 거리는 상기한 발음원(301)과 주목점(302)의 거리 범위를 나타내는 정보에 한정되지 않는다. 예를 들면, 기억부(201)는 장해물에 의한 음의 차폐이나 반사를 고려한, 음성을 전달시키는 영역, 방향, 혹은 전달 속도 등을 기억해도 좋다. 이에 따라, 더욱 현실감이 있는 음향 효과를 효율 좋게 얻을 수 있다.
또, 재생할 거리 범위를 나타내는 정보를 기억하는, 음성데이터의 소정의 포맷을 정의하여 이용해도 좋다. 이에 따라, 기억부(201)에 기억하는 데이터의 관리를 간략화할 수 있다. 또, 소정의 포맷을 이용한 음성데이터를 재생하는 경우에는 후술 하는 본 발명의 음성제어처리에 의해서 재생을 실행하고, 다른 포맷에서는 본 발명의 음성제어처리를 실행하지 않도록 제어할 수 있다.
기억부(201)는 이들의 정보를 ROM(102)이나 외부 메모리(106) 등의 다른 기억 매체에 기억하도록 구성해도 좋다.
또, 발음원(301)과 주목점(302)의 거리 범위를 나타내는 데이터를 미리 구비하는 프로그램으로서 실현되는 것이라도 좋다.
판단부(202)는 가상공간 내에 배치된 발음원(301)의 좌표치와, 발음원(301)으로부터 발음되는 음성의 주목점(302)의 좌표치에 의거하여, 발음원(301)과 주목점(302)의 거리를 구하고, 기억부(201)에 기억된 거리 범위에 주목점(302)이 포함되는지 아닌지를 판단한다. 가상공간 내에 복수의 발음원(301)이 배치되어 있는 경우에는, 판단부(202)는 발음원(301)마다 발음원(301)과 주목점(302)의 거리를 구하여, 기억부(201)에 기억된 거리 범위에 주목점(302)이 포함되는지 아닌지를 판단한다. 판단부(202)는 이 판단 결과를 변화부(203)에 입력한다.
그리고, CPU(101)와 화상처리부(107)가 협동하여 동작하는 것에 의해, 판단부(202)로서 기능한다.
여기에서, 각각의 좌표치는 일반적으로 널리 이용되고 있는 좌표계를 이용하여 표현된다. 예를 들면, 가상공간은 직교하는 3축을 이용한 직교좌표계나, 1개의 동경(動徑)과 2개의 편각을 이용한 구(球)좌표와 같은 극(極)좌표계로 표현된다. 혹은, 가상공간의 전체를 표현하는 글로벌 좌표계(월드 좌표계)와, 캐릭터 오브젝트 마다의 로컬 좌표계(보디 좌표계)를 따로 따로 설정하여 좌표 계산 등을 실행하 는 구성을 적용해도 좋다.
변화부(203)는 판단부(202)에 의해서 구해진 발음원(301)과 주목점(302)의 거리에 의거하여, 발음원(301)으로부터 발음되는 음성을 변화시킨다. 즉, 변화부(203)는 게임 진행 중에 발음원(301)으로부터 효과음 등을 발음시키는 소정의 타이밍이 되면, 판단부(202)에 의해서 구해진 거리에 대응하는 음량을 구한다.
그리고, CPU(101)와 음성처리부(110)가 협동하여 동작하는 것에 의해, 변화부(203)로서 기능한다.
음성데이터의 포맷은 임의이다. 음성처리장치(200)는 이 포맷에 대응한 음성 재생용의 소정의 프로그램 등을 미리 기억한 DVD-ROM이나 ROM(102) 등으로부터 이 프로그램 등을 판독하여 실행하고, 음성데이터를 재생할 수 있으면 좋다.
구체적으로는, 예를 들면, 변화부(203)는 도 5a에 나타내는 바와 같이, 발음원(301)과 주목점(302)의 거리가 커짐에 따라, 주목점(302)에서 취득되는 발음원(301)으로부터의 음성의 음량을 작게 한다. 발음원(301)과 주목점(302)의 거리가 소정의 임계값(Lth)보다 커지면, 변화부(203)는 발음원(301)으로부터의 음성의 음량을 소정의 음량치(Vc)근방(Vc_low 이상, Vc_high 이하의 범위)으로 유지한다.
또, 예를 들면, 변화부(203)는 도 5b에 나타내는 바와 같이, 발음원(301)과 주목점(302)의 거리가 커짐에 따라, 주목점(302)에서 취득되는 발음원(301)으로부터의 음성의 음량을 작게 한다. 발음원(301)과 주목점(302)의 거리가, 발음원(301)으로부터 발음되는 음성이 들리지 않을 정도로 충분히 떨어지면, 변화부(203)는 소정의 최저 음량으로 유지한다. 전형적으로는, 변화부(203)는 음량을 제로 혹은 제로의 근방으로 유지한다. 이와 같이, 변화부(203)는 거리가 영역(510)내이면 음량을 변화시키고, 거리가 영역(520)내이면 음량을 변화시키지 않는다.
재생부(204)는 변화부(203)에 의해 변화된 음성을 재생한다. 즉, 재생부(204)는 발음원(301)으로부터 발음되는 음성에 대응하는 음성데이터를 취득하고, 이 음성데이터에 대응한 소정의 프로그램 등으로 디코드하여, 변화부(203)에 의해 음량 등이 변화된 음성을 재생한다.
음성데이터를 판독하는 타이밍은 재생부(204)가 음성데이터의 재생을 개시하기 전이라면 좋다. DVD-ROM 등의 정보기록매체에 저장되어 있는 음악 데이터를 스트림 재생하는 경우에도 본 발명을 적용할 수 있다.
예를 들면, 주목점(302)에서 취득되는 발음원(301)으로부터의 음성이, 도 5a에 나타내는 바와 같이 변화부(203)에 의해 변화된 것으로 한다. 재생부(204)는 발음원(301)과 주목점(302)의 거리가 0이상 임계값(Lth) 이하일 때, 음량을 점점 작게 한다. 한편, 발음원(301)과 주목점(302)의 거리가 임계값(Lth)를 넘으면, 음량치(Vc)근방의 소정의 음량 범위 내로 음량을 유지한다. 이에 따라, 재생부(204)에 의해 재생되는 이 음성의 음량은, 실질적으로 음량(Vc)부근에서 일정하게 된다.
또, 예를 들면, 주목점(302)에서 취득되는 발음원(301)으로부터의 음성이, 도 5b에 나타내는 바와 같이 변화부(203)에 의해 변화되었다고 한다. 재생부(204)는 발음원(301)과 주목점(302)의 거리가 임계값(Lth)를 넘으면, 음량치를 제로로 한다. 이에 따라, 재생부(204)는 발음원(301)으로부터의 음성을 사용자에게 들리 지 않게 할 수 있다. 그리고, 도 5a와 도 5b에서는 음량의 변화를 직선적으로 나타내고 있지만, 이것에 한정되지 않고 임의로 설정할 수 있다. 음량은 거리와 함께 단조 감소하는 것이 바람직하다.
이어서, 본 실시형태의 CPU(101) 등이 실행하는 음성제어처리에 대하여, 도 6의 흐름도를 이용하여 설명한다. 이하의 설명에서는, 가상공간 내를 주행하는 자동차 오브젝트(캐릭터 오브젝트)로부터 발음되는 음성(예를 들면, 엔진음)을, 마찬가지로 가상공간 내에 배치되는 사용자 캐릭터 오브젝트의 위치에서 듣는 경우를 예로 설명한다.
우선, 판단부(202)는 발음원(301)인 캐릭터 오브젝트와, 주목점(302)인 사용자 캐릭터 오브젝트와의 거리를 구한다(스텝 S601).
이어서, 판단부(202)는 주목점(302)이 소정의 영역 내에 포함되는지 아닌지를 판단한다(스텝 S602). 예를 들면, 판단부(202)는 발음원(301)인 주행하는 자동차 오브젝트에 대응지어져 있는 거리 범위를 나타내는 정보를 기억부(201)로부터 취득하여, 스텝 S601에서 구한 거리가 이 거리 범위에 포함되는지 아닌지를 판단한다. 단, 기억부(201)에 기억되고, 소정의 영역을 나타내는 정보는 주목점(302)으로부터의 거리 범위를 나타내는 정보로 한정되지 않는다. 예를 들면, 장해물에 의한 소리의 차폐이나 반사를 고려한 영역을 나타내는 정보라도 좋다.
주목점(302)이 소정의 영역 내에 포함되지 않는 경우(스텝 S602; NO), 판단부(202)는 음성제어처리를 종료한다. 즉, 이 경우에는 발음원(301)으로부터의 음성은 재생되지 않는다. 발음원(302)으로부터 발음되는 음성을 재생중이면, 재생 부(204)는 재생을 정지한다.
주목점(302)이 소정의 영역 내에 포함되는 경우(스텝 S602; YES), 변화부(203)는 스텝 S601에서 구한 거리가 소정의 임계값(Lth)보다 큰지 크지 않은지를 판정한다(스텝 S603).
구한 거리가 소정의 임계값(Lth)보다 큰 경우(스텝 S603; YES), 변화부(203)는 발음원(301)으로부터 발음되는 음성(주행하는 자동차 오브젝트의 엔진음)의 음량을 소정의 음량 범위 내로 유지한다(스텝 S604).
한편, 구한 거리가 소정의 임계값(Lth) 이하의 경우(스텝 S603; NO), 변화부(203)는 발음원(301)으로부터 발음되는 음성에 대응하는 음성데이터를 취득한다(스텝 S605). 그리고, 직전에 동일 음성데이터를 재생하여 RAM(103) 등에 캐쉬 데이터로서 남아 있는 경우 등, 이미 음성데이터를 취득하고 있을 때에는 이 스텝을 생략 할 수 있다.
그리고, 변화부(203)는 스텝 S601에서 구한 거리에 의거하여 음량을 변화시킨다(스텝 S606). 예를 들면, 변화부(203)는 발음원(301)과 주목점(302)의 거리가 크면 클수록, 음량을 작게 변화시킨다.
그리고, 재생부(204)는 스텝 S604 또는 S606에서 변화된 음성을 재생하여 출력한다(스텝 S607).
이와 같이, 음성처리장치(200)는 기억부(201)에 기억된, 발음원(301)에 대응지어진 영역에 의거하여, 발음원(301)으로부터 발음되는 음성을 변화시킨다. 즉, 음성처리장치(200)는 가상공간 내의 발음원(301)과 그 음을 듣는 주목점(302)의 거 리에 따라서 음량을 바꾸는 것으로써, 주목점(302)에서 들리는 소리를 효율 좋게 재생할 수 있다.
그리고, 본 실시형태에서는, 음성재생장치(200)는 발음원(301) 마다 음성을 변화시켜 재생하고 있지만, 발음원(301)의 종류(예를 들면 적 캐릭터인지 아군 캐릭터인지 등) 마다, 상기의 음성제어처리에 의해서 재생하는지 하지 않는지를 제어할 수도 있다. 이 경우, 예를 들면, 기억부(201)는 발음원(301)에 대응지어서 발음원(301)의 속성 정보(예를 들면, 적인가 아군인가, 우선적으로 재생하는가 하지 않는가, 등)를 추가로 기억하고, 변화부(203) 등은 이 속성 정보에 의거하여 상기의 음성제어처리에 의해서 재생하는지 하지 않는지를 제어하면 좋다. 혹은, 음성데이터의 종류나 파일 형식에 의거하여, 상기의 음성제어처리를 실행하는지 하지 않는지를 제어해도 좋다.
(실시형태 2)
이어서, 본 발명의 다른 실시형태에 대하여 설명한다. 본 실시형태에서는, 변화부(203) 및 재생부(204)는 발음원(301)과 주목점(302)의 거리가 소정의 기준 거리(Lc)보다 큰 경우에, 발음원(301)으로부터 발음되는 음성의 처리를 정지한다. 그리고, 본 실시형태의 음성처리장치(200)의 그 밖의 구성은 상기한 실시형태와 마찬가지이기 때문에 설명을 생략한다. 이하, 상세히 기술한다.
기억부(201)는 발음원(301)으로부터 발음되는 음성에 대응지어서, 그 음성을 재생시키는 영역을 기억한다. 예를 들면, 기억부(201)는 도 4a에 나타나는 바와 같은 정보를 기억한다. 본 도면의 경우, 기억부(201)는 발음되는 음성 「자동차의 엔진음」에 대응지어서, 발음원(301)(주행하는 자동차 오브젝트의 엔진)과 주목점(302)(주행하는 자동차 오브젝트의 엔진음을 듣는 사용자 캐릭터 오브젝트)의 거리가 0∼100미터의 범위 내일 때, 이 음성이 재생되는 취지의 정보를 기억한다. 단, 거리는 가상공간 내에 있어서의 가상 거리이다. 기억부(201)는 개개의 발음원(301)에 대하여 따로 따로 거리 범위를 나타내는 정보를 기억한다. 그리고, 본 도면은 기억부(201)에 기억되는 정보의 일례에 지나지 않고, 임의로 바꾸어 설정할 수 있다.
변화부(203)는 발음원(301)과 주목점(302)의 거리가 소정의 기준 거리(Lc)보다 큰 경우에, 발음원(301)으로부터 발음되는 음성을 변화시키는 처리를 정지한다. 즉, 이 경우, 변화부(203)는 음량을 변화시키지 않는다.
재생부(204)는 발음원(301)과 주목점(302)의 거리가 소정의 기준 거리(Lc)보다 큰 경우에, 변화부(203)에 의해서 변화된 음성을 재생하는 처리를 실행하지 않는다. 즉, 이 경우, 재생부(204)는 발음원(302)으로부터의 음성을 재생하지 않는다. 예를 들면, 재생부(204)가 주목점(302)의 근처를 주행하는 자동차 오브젝트(발음원(301))로부터 발음되는 엔진음을 재생하고, 이 발음원(301)이 주목점(302)으로부터 점점 멀어지도록 이동하고 있는 것으로 한다. 이 때, 재생부(204)는 발음원(301)과 주목점(302)의 거리가 소정의 기준 거리(Lc)보다 커지면, 자동차 오브젝트로부터 발음되는 엔진음의 재생을 정지한다.
도 7a는 본 실시형태의 음성제어처리에 의해 출력되거나, 발음원(301)으로부터 발음되는 음성의 음량을 나타내는 도면의 예이다. 변화부(203)는 이 발음 원(301)에 대응지어진 영역(본 도면에서는 거리 범위)을 나타내는 정보를 기억부(201)로부터 취득한다. 주목점(302)이 이 영역 내에 있고, 또한, 거리가 0이상, Lth 이하의 경우, 음량을 거리와 함께 작게 한다. 그리고, 거리가 임계값(Lth)보다 커지면, 변화부(203)는 이 음성의 음량을 소정의 음량(Vth) 근방으로 유지한다. 그리고, 발음원(301)과 주목점(302)의 거리가 소정의 기준 거리(Lc)보다 커지면, 재생부(204)는 이 음성의 재생을 정지한다. 즉, 재생부(204)는 거리가 영역(710) 내에 있으면 발음원(301)으로부터의 음성을 재생하고, 영역(720)내에 있으면, 발음원(301)으로부터의 음성을 재생하지 않는다.
이에 따라, 음성처리장치(200)는 하드웨어적 혹은 소프트웨어적인 제한에 의해 동시에 재생할 수 있는 음수(재생 트랙 수)에 한계가 있는 경우에서도 효율 좋게 소리를 재생할 수 있다. 즉, 실질적으로 들리지 않는 음성을 재생하기 위해서 재생 트랙을 점유 해 버림으로써 동시 재생하는 음수가 증가했을 때에 본래 큰 음량으로 재생해야 할 다른 효과음이 올바르게 재생할 수 없다 라고 하는 일이 없다. 음성처리장치(200)는 가상공간 내의 발음원(301)과 그 소리를 듣는 주목점(302)의 거리에 따라 음성을 재생하거나 혹은 재생하지 않도록 제어하여, 효율 좋게 음을 재생할 수 있다.
또, 음성처리장치(200)는 발음원(301)과 주목점(302)의 거리가 소정의 기준 거리(Lc)보다 큰 경우에, 발음원(301)으로부터 발음되는 음성을 변화시키는 처리를 생략 할 수 있다. 즉, 종래는, 발음원(301)과 주목점(302)의 거리에 의거하여 음성을 변화시키는 소정의 연산(예를 들면, 소리의 반사나 차폐 등의 영향을 고려하 는 연산)을 실행하고, 그 연산의 결과 얻어지는 음량이 소정 량보다 작으면 재생하지 않도록 제어하고 있었다. 그러나, 본 발명에 따르면, 이 소정의 연산을 실행하지 않고 음성을 재생하는지 하지 않는지를 판단할 수 있고, 음성을 재생하는 처리를 대폭으로 간략화 할 수 있다.
이 소정의 기준 거리(Lc)로서, 기억부(201)에 기억된, 발음원(301)에 대응지어지는 영역을 나타내는 정보를 이용해도 좋다. 이 경우, 영역을 나타내는 정보는 발음원(301)으로부터의 음성을 재생할 거리 범위를 나타내는 정보이다. 이에 따라, 음성처리장치(200)는 발음원(301)에 대응지어지는 거리 범위 내에 주목점(302)이 없으면, 변화부(203)에 의해 음성을 변화시키지 않고, 또한, 재생부(204)에 의한 재생을 실행하지 않기 때문에, 또한 음성제어처리를 간략화 할 수 있다.
도 7b는 변화부(203)가 음성을 변화시키는지 아닌지의 판정에 이용되는 임계값(Lth)와, 재생부(204)가 이 음성을 재생하는지 하지 않는지의 판정에 이용되는 기준 거리(Lc)를 일치시켰을 경우의, 발음원(301)으로부터 발음되는 음성의 음량을 나타내는 도면의 예이다. 발음원(301)과 주목점(302)의 거리가 소정의 기준 거리(Lc)이내일 때, 변화부(203)는 이 음성의 음량을 점점 작게 변화시키고, 재생부(204)는 변화된 음성을 재생한다. 그리고, 이 기준 거리(Lc)를 넘으면, 변화부(203)는 이 음성을 변화시키지 않고, 또한, 재생부(204)는 이 음성의 재생을 실행하지 않는다.
그리고, 발음원(301)과 주목점(302)의 거리가 이 소정의 기준 거리(Lc)보다 큰 경우에는, 발음원(301)으로부터 발음되는 음성은 재생부(204)에 의해 재생되지 않기 때문에, 변화부(203)는 이 음성을 변화시켜도 변화시키지 않아도 좋다. 음성제어처리를 간략화하기 위해서는, 변화부(203)는 음성을 변화시키는 처리도 실행하지 않는 것이 바람직하다.
이어서, 본 실시형태의 CPU(101) 등이 실행하는 음성제어처리에 대해서, 도 8의 흐름도를 이용하여 설명한다.
우선, 판단부(202)는 발음원(301)과 주목점(302)의 거리를 구한다(스텝 S801).
이어서, 판단부(202)는 주목점(302)이 기억부(201)에 기억된 영역 내에 포함되는지 아닌지를 판단한다(스텝 S802).
주목점(302)이 영역 내에 포함되지 않는 경우(스텝 S802; NO), 판단부(202)는 음성제어처리를 종료한다. 즉, 이 경우에는 발음원(301)으로부터의 음성은 재생되지 않는다. 주목점(302)으로부터 발음되는 음성을 재생중이면, 재생부(204)는 재생을 정지한다.
주목점(302)이 영역내에 포함되는 경우(스텝 S802; YES), 변화부(203)는 스텝 S801에서 구한 거리가 소정의 기준 거리(Lc)보다 큰지 아닌지를 판정한다(스텝 S803).
거리가 기준 거리(Lc)보다 큰 경우(스텝 S803; YES), 재생부(204)는 발음원(301)으로부터 발음되는 음성의 재생을 정지한다(스텝 S804).
거리가 기준 거리(Lc)이하의 경우(스텝 S803; NO), 변화부(203)는 발음원(301)과 주목점(302)의 거리가 소정의 임계값(Lth)보다 큰지 아닌지를 판정한다 (스텝 S805).
거리가 임계값(Lth)보다 큰 경우(스텝 S805; YES), 변화부(203)는 발음원(301)으로부터 발음되는 음성을 변화시키지 않는다(스텝 S806).
한편, 거리가 임계값(Lth) 이하의 경우(스텝 S805; NO), 변화부(203)는 발음원(301)으로부터 발음되는 음성에 대응하는 음성데이터를 취득한다(스텝 S807).
그리고, 변화부(203)는 스텝 S801에서 구한 거리에 의거하여 음량을 변화시킨다(스텝 S808). 예를 들면, 변화부(203)는 발음원(301)과 주목점(302)의 거리가 크면 클수록, 음량을 작게 변화시킨다.
그리고, 재생부(204)는 발음원(302)로부터의 음성을 재생하여 출력한다(스텝 S809).
이와 같이, 음성처리장치(200)는 발음원(301)이 소정의 기준 거리(Lc)보다 가까이에 있으면 음성의 재생을 실행하고, 이 기준 거리(Lc)보다 멀리 있으면 음성의 재생을 정지한다. 이에 따라, 음성처리장치(200)는 가상공간 내의 발음원(301)과 그 음을 듣는 주목점(302)의 거리에 따라 효율 좋게 소리를 재생할 수 있다. 음성처리장치(200)는 발음원(301)과 주목점(302)의 거리가 소정의 임계값(Lth)보다 크면 음성을 변화시키는 처리를 실행할 필요가 없다. 그리고 발음원(301)과 주목점(302)의 거리가 기준 거리(Lc)보다 크면 음성을 재생하지 않는다. 그 때문에, 음성제어처리를 대폭으로 간략화 할 수 있다.
(실시형태 3)
이어서, 본 발명의 다른 실시형태에 대해 설명한다. 본 실시형태에서는, 변 화부(203)는 발음원(301)과 주목점(302)의 거리가 상기의 소정의 임계값(Lth)보다 큰 경우에, 발음원(301)으로부터 발음되는 음성을 소정의 최저 음량(Vmin)으로 변화시킨다. 그리고, 본 실시형태의 음성처리장치(200)의 그 밖의 구성은 상기한 실시형태와 마찬가지이기 때문에, 중복 하는 부분에 대해서는 설명을 생략한다. 이하, 상세하게 기술한다.
기억부(201)는 발음원(301)으로부터 발음되는 음성에 대응지어서, 가상공간 내에 있어서의 가상거리를 단위로 하여 그 음성을 변화시킬 거리 범위를 기억한다. 예를 들면, 기억부(201)는 도 9a에 나타나는 바와 같은 정보를 기억한다. 본 도면의 경우, 기억부(201)는 발음되는 음성 「자동차의 엔진음」에 대응지어서, 발음원(301)(주행하는 자동차 오브젝트의 엔진)과 주목점(302)(주행하는 자동차 오브젝트의 엔진소리를 듣는 사용자 캐릭터 오브젝트)의 거리가 0∼100미터의 범위 내일 때, 이 음성을 변화시키는 취지의 정보를 기억한다. 기억부(201)는 개개의 발음원(301)에 대해 따로 따로 거리 범위를 나타내는 정보를 기억한다. 그리고, 본 도면은 기억부(201)에 기억되는 정보의 일례에 지나지 않고, 임의로 바꾸어 설정할 수 있다.
혹은, 기억부(201)는 도 9b에 나타내는 바와 같이, 재생하는 음성데이터의 파일명에 대응지어서, 가상공간 내에 있어서의 가상 거리를 단위로 하여 음성을 변화시킬 거리 범위를 기억해도 좋다. 본 도면의 경우, 기억부(201)는 파일명 「onsei01.wav」의 음성데이터(예를 들면, 주행하는 자동차 오브젝트의 엔진음)에 대응지어서, 발음원(301)(예를 들면, 주행하는 자동차 오브젝트)과 주목점(302)(예를 들면, 주행하는 자동차 오브젝트의 엔진음을 듣는 사용자 캐릭터 오브젝트)의 거리가 0∼100미터의 범위 내일 때에 변화되는 취지의 정보를 기억한다. 이와 같이, 기억부(201)는 개개의 음성데이터에 대하여 따로 따로 거리 범위를 나타내는 정보를 기억해도 좋다.
변화부(203)는 판단부(202)에 의해서 구해진 발음원(301)과 주목점(302)의 거리에 의거하여, 발음원(301)으로부터 발해지는 음성을 변화시킨다. 예를 들면, 도 10a에 나타내는 바와 같이, 변화부(203)는 발음원(301)과 주목점(302)의 거리가 커짐에 따라, 주목점(302)에서 취득되는 음성의 음량을 작게 한다. 또, 변화부(203)는 발음원(301)과 주목점(302)의 거리가 소정의 임계값(Lth)보다 커지면, 주목점(302)에서 취득되는 음성의 음량을 소정의 최저 음량(Vmin)으로 한다.
혹은, 변화부(203)는 도 10b에 나타내는 바와 같이, 발음원(301)과 주목점(302)의 거리가 소정의 임계값(Lth)보다 커지면, 주목점(302)에서 취득되는 음성의 음량을, 최저 음량(Vmin) 근방의 소정의 음량 범위 내(Vmin_low 이상, Vmin_high 이하)로 유지한다. 그리고, 도 10a와 도 10b에서는 음량의 변화를 직선적으로 나타내고 있지만, 이것에 한정되는 것은 아니다.
본 실시형태에서는, 상기의 실시형태와 달리, 발음원(301)과 주목점(302)의 거리가 커져도, 재생부(204)에 의한 음성의 재생이 정지되는 일은 없고, 적어도 소정의 최저 음량 이상의 음량으로 재생된다.
이에 따라, 음성처리장치(200)는 가상공간 내의 발음원(301)과 주목점(302)의 거리가 충분히 멀리 떨어져도 연출상 사용자에게 들리도록 하지 않으면 안되는 효과음이 있는 경우에, 그 효과음을 위한 특별한 제어를 실행하는 일 없이, 최적인 음량으로 효과음을 재생할 수 있다. 그리고, 하드웨어적 혹은 소프트웨어적인 제한에 의해 동시에 재생할 수 있는 음수(재생 트랙 수)에 한계가 있는 경우에서도, 효율 좋게 음성을 재생할 수 있다.
기억부(201)는 발음원(301)에 대응지어서 재생의 우선도를 미리 기억해도 좋다. 발음원(301)의 우선도가 높으면 발음원(301)과 주목점(302)의 거리가 떨어져도 재생을 정지시키지 않도록 할 수 있다. 예를 들면, 레이싱 게임에서, 자동차의 엔진음의 우선도를 상대적으로 높게 해 둠으로써, 재생 트랙 수에 제한이 있어도 다른 효과음을 재생했을 때에 잘못하여 엔진음의 재생이 정지해 버리는 일이 없다.
또, 재생의 우선도가 설정된 발음원(301)이 가상공간 내에 복수개 존재하는 경우, 이들 발음원(301) 중 우선도가 높은 순으로 소정 수(예를 들면 재생 트랙 수)의 발음원(301)을 추출하고, 추출된 발음원(301)으로부터 발음되는 음성만을 변화시키거나 혹은 재생하도록 구성할 수도 있다.
그리고, 본 실시형태에서는, 상기의 도 6의 스텝 S604에서, 변화부(203)가 음량을 소정의 음량 범위내로 하는 대신에, 변화부(203)가 음량을 소정의 최저 음량으로 하도록 구성하면 좋다. 그 밖의 스텝은 마찬가지이기 때문에, 흐름도의 자세한 것은 생략한다.
(실시형태 4)
이어서, 본 발명의 다른 실시형태에 대하여 설명한다. 본 실시형태는 캐릭터 오브젝트로부터 발음되는 음성의 음성제어처리를 정리하여 관리할 수 있는 점에 서, 상기의 각 실시형태와 다르다. 이하 상세하게 기술한다.
기억부(201)는 특정의 캐릭터 오브젝트끼리의 조합을 나타내는 정보를 추가로 기억한다.
도 11a는 발음원(301)이 될 수 있는 캐릭터 오브젝트의 조합을 나타내는 정보의 구성예이다. 설정정보는 조합을 식별하기 위한 정보이고, 전형적으로는 번호로 나타나지만, 임의의 기호, 번호, 부호 등을 이용해도 좋다. 기억부(201)는 이 설정정보에 대응지어서 캐릭터 오브젝트의 조합을 기억한다. 예를 들면 본 도면에서는, 캐릭터 오브젝트 OBJ(2)와 OBJ(3)가 함께 세트로 이루어져 있다. 기억부(201)가 기억하는 조합의 수나, 1개의 조합에 포함되는 캐릭터 오브젝트의 수는 임의이다.
도 11b는 기억부(201)에 기억되고, 발음원(301)에 대응지어지는 영역을 정하는 기준 거리의 예이다. 기억부(201)는 발음원(301)이 될 수 있는 캐릭터 오브젝트로부터 발음되는 음성과, 발음원(301)에 대응지어지는 영역을 정하는 기준 거리와, 소정의 최저 음량을 대응지어서 기억한다. 예를 들면, 캐릭터 오브젝트 OBJ(2)와 OBJ(3)에는, 공통의 기준 거리 「D2min≤D≤D2max」가 정의되고 있다. 또, 캐릭터 오브젝트 OBJ(2)와 OBJ(3)에는, 공통의 최저 음량(V2)이 정의되고 있다.
이와 같이, 본 실시형태에서는, 기억부(201)는 각각의 발음원(301)에 대응지어서 기준 거리와 최저 음량을 기억하는 대신에, 도 11a에 나타내는 바와 같은 조합에 포함되는 각 캐릭터 오브젝트에는 도 11b에 나타내는 바와 같이 공통의 기준 거리와 최저 음량을 대응지어서 기억한다. 이에 따라서, 기억부(201)가 사용하는 메모리 용량을 줄일 수 있다.
본 실시형태에서는 기준 거리와 최저 음량의 양쪽을 공통 데이터로서 정의하고 있지만, 어느 쪽인가 한쪽만을 공통 데이터로 해도 좋다.
판단부(202)는 상기의 각 실시형태와 마찬가지로, 발음원(301)의 좌표치와 주목점(302)의 좌표치에 의거하여, 발음원(301)과 주목점(302)의 거리를 계산하고, 기억부(201)에 기억된 기준 거리가 나타내는 거리 범위에 주목점(302)이 포함되는지 아닌지를 판단한다.
변화부(203)는 판단부(202)에 의해서 계산된 발음원(301)과 주목점(302)의 거리에 의거하여, 발음원(301)으로부터 발음되는 음성을 변화시킨다. 즉, 변화부(203)는 게임 진행 중에 발음원(301)으로부터 효과음 등을 발음시키는 소정의 타이밍이 되면, 판단부(202)에 의해서 계산된 거리에 대응하는 음량으로 변화시킨다. 또, 계산된 거리가 기준 거리가 나타내는 범위에 포함되지 않는 경우에는, 변화부(203)는 기억부(201)에 기억된 최저 음량으로 변화시킨다.
그리고, 재생부(204)는 변화부(203)에 의해 변화된 음성을 재생한다.
예를 들면, 가상공간 내를 주행하는 자동차 오브젝트와 이 자동차 오브젝트에 탑승하는 캐릭터 오브젝트가 존재하는 경우, 자동차 오브젝트로부터 발음되는 음성(예를 들면, 엔진음 등)과 탑승하는 캐릭터 오브젝트로부터 발음되는 음성(예를 들면, 대사, 총성 등)의 양쪽의 음량을 함께 변화시킬 수 있다.
예를 들면, 복수의 발음원(301)이 접근하고 있거나, 접근하고 있지 않고 있 어도 주목점(302)으로부터 대략 같은 거리의 장소에 있거나 하는 경우에는, 그들 발음원(301)을 미리 1개의 조합으로 해 두면, 마찬가지이도록 음량을 변화시킬 수 있다.
이에 따라, 연출상 양쪽 함께 재생되어야 할 음성이 한쪽 밖에 재생되지 않고 음향 효과에 위화감을 주는 바와 같은 일은 없다. 즉, 발음원(301)의 조합을 미리 정의해 두면, 용이하게 음량을 마찬가지이도록 크게 시키거나, 작게 시키거나, 정지시키거나, 계속해서 재생시키거나 할 수 있다.
(실시형태 5)
본 실시형태는 상기의 실시형태를 조합한 것이다.
기억부(201)는 도 12a에 나타내는 바와 같이, 발음원(301)과 주목점(302)의 거리가 소정의 임계값보다 커졌을 때에, 실시형태 2와 같이 재생을 정지할지 혹은 실시형태 3과 같이 최저 음량으로 재생을 계속할지를 지정하는 플래그를, 발음원(301)에 대응지어서 기억해도 좋다.
예를 들면, 이 플래그에는, 실시형태 2와 같이 제어하는 경우에는 「0」, 실시형태 3과 같이 제어하는 경우에는 「1」이 설정된다. 그리고, 변화부(203)및 재생부(204)는 이 플래그값에 의거하여 상기의 실시형태의 음성제어처리를 구분하여 사용하도록 구성해도 좋다.
기억부(201)는 도 12b에 나타내는 바와 같이, 재생하는 음성데이터의 파일명에 대응지어서 이 플래그를 기억하도록 해도 좋다. 또, 도 12c에 나타내는 바와 같이, 재생할 거리 범위로서 실질적으로 거리가 무한원이라고 간주할 수 있을 정도 로 충분히 큰 값(Linf)을 이용하여 설정되는 경우에도, 재생하는 음성데이터의 파일명 혹은 발음원(301)에 대응지어서 이 플래그를 기억할 수 있다.
이에 따라, 상기의 실시형태를 용이하게 조합하여 실행할 수 있다. 그리고, 이 플래그에 의해 구분하여 사용되는 음성제어처리는 상기의 실시형태의 내용에 한정되지 않고, 이 플래그를 다른 실시형태나 다른 임의의 변형예와 조합하여 구분하여 사용하기 위해서 이용할 수 있는 것은 말할 필요도 없다.
본 발명은 상기한 실시형태에 한정되지 않고, 여러 가지의 변형 및 응용이 가능하다. 또, 상기한 실시형태를 자유롭게 조합하는 것도 가능하다.
상기의 실시형태에서는, 발음원(301)이 이동하는 자동차 오브젝트인 것으로서 설명했지만, 이것에 한정되는 것이 아닌, 오브젝트 자신이 이동하는/하지 않는 것에 관계없이, 임의의 캐릭터 오브젝트가 발음원(301)이 될 수 있는 것은 말할 필요도 없다. 또, 주목점(302)은 사용자 캐릭터 오브젝트가 배치되는 위치인 것으로서 설명했지만, 이것에 한정되는 것이 아닌, 가상공간 내에 배치된 가상 카메라의 위치나, 가상공간 내의 일인칭 시점 등이라도 좋다.
상기의 실시형태에서는, 변화부(203)는 발음원(301)으로부터 발음되는 음성의 음량을 변화시키지만, 이것에 한정되는 것은 아니다. 예를 들면, 변화부(203)는 발음원(301)에 대응지어진 영역에 주목점(302)이 존재하는 경우에, 음성을 반향시키는 효과, 특정 주파수 성분을 감쇠 혹은 증폭시키는 효과 등 다른 음성 제어를 실행하도록 구성해도 좋다. 이에 따라, 보다 현실감이 있는 음향 효과를 실현할 수 있다.
변화부(203)는 가상공간 내에서 음성을 듣는 주목점(302)에 있어서의 시선 방향도 고려하여 음성제어처리를 실행해도 좋다. 예를 들면, 주목점(302)으로부터 발음원(301) 방향으로의 방향 벡터가 시선 방향 벡터와 일치 혹은 그 근방의 소정 범위 내에 있는 경우에, 이 발음원(301)으로부터 발음되는 음성의 음량을 크게 하도록 변화시킬 수도 있다. 이에 따라, 시각 효과와 음향 효과를 아울러 보다 현실감 있는 연출을 실현할 수 있다.
또, 기억부(201)는 특정의 캐릭터 오브젝트끼리에 동일한 우선도를 설정하고, 변화부(203)는 우선도가 동일한 캐릭터 오브젝트끼리가 발음원(301)이 되는 경우에는, 이들 캐릭터 오브젝트로부터 발음되는 음성의 변화량을 동일하게 해도 좋다. 예를 들면, 가상공간 내를 주행하는 자동차 오브젝트와 이 자동차 오브젝트에 탑승하는 캐릭터 오브젝트에 동일한 우선도를 설정함으로써, 양쪽으로부터 발음되는 음성의 음량을 동일하도록 증감시킬 수 있다.
예를 들면, 음성처리장치(200)를 장치의 전부 또는 일부로서 동작시키기 위한 프로그램을 메모리 카드, CD-ROM, DVD, MO(Magneto Optical disk) 등의 컴퓨터 판독 가능한 기록매체에 저장하여 배포하고, 이것을 다른 컴퓨터에 인스톨 하고, 상기의 수단으로서 동작시키거나 혹은 상기의 공정을 실행시켜도 좋다.
그리고, 인터넷상의 서버 장치가 갖는 디스크 장치 등에 프로그램을 저장해 두고, 예를 들면, 반송파에 중첩시켜, 컴퓨터에 다운로드 등 하는 것으로 해도 좋다.
그리고, 본원에 대해서는, 일본국 특허출원 2006-085123호를 기초로 하는 우 선권을 주장하고, 해당 기초 출원의 내용을 모두 본원에 받아들이는 것으로 한다.
이상 설명한 바와 같이, 본 발명에 따르면, 가상공간 내의 발음원과 음을 듣는 위치와의 거리에 따라 효율 좋게 소리를 재생할 수 있다.

Claims (9)

  1. 삭제
  2. 가상공간 내에 배치된 복수의 발음원 각각에 대하여, 해당 발음원의 위치와, 해당 발음원에 대응지어지는 영역을 정하는 기준 거리와, 해당 발음원으로부터 발음되는 음성의 소정의 최저 음량을 기억하고, 해당 가상공간 내에 배치된 주목점의 위치를 기억하는 기억부(201)와,
    해당 복수의 발음원 각각에 대하여, 상기 기억부(201)에 기억된 발음원의 위치와 주목점의 위치에 의거하여 해당 발음원과 해당 주목점의 거리를 계산하고, 해당 발음원에 대응지어지는 영역에 해당 주목점이 포함되는지 아닌지를, 상기 계산된 거리가 해당 발음원의 기준 거리보다 작은지 아닌지에 의해 판단하는 판단 부(202)와,
    상기 판단부(202)에 의해 해당 주목점이 해당 영역에 포함된다고 판단된 경우, 해당 복수의 발음원 각각으로부터 발음되는 음성을, 해당 발음원과 해당 주목점의 거리가 커지면 감소하도록 미리 대응지어진 음량으로 변화시키고, 포함되지 않는다고 판단된 경우, 해당 발음원의 해당 최저 음량으로 변화시키는 변화부(203)와,
    상기 변화부(203)에 의해 변화된 음성을 재생하는 재생부(204)를 구비하는 것을 특징으로 하는 음성처리장치.
  3. 제 2 항에 있어서,
    상기 기억부(201)는 복수의 발음원 조합의 정보를 추가로 기억하고,
    상기 변화부(203)는 해당 조합의 정보가 나타내는 발음원 각각으로부터 발음되는 음성의 음량을 함께 변화시키는 것을 특징으로 하는 음성처리장치.
  4. 삭제
  5. 기억부(201)를 갖는 음성처리장치에서 실행되는 음성처리방법에 있어서,
    상기 기억부(201)에는, 가상공간 내에 배치된 복수의 발음원 각각에 대해서, 해당 발음원의 위치와, 해당 발음원에 대응지어지는 영역을 정하는 기준 거리와, 해당 발음원으로부터 발음되는 음성의 소정의 최저 음량이 기억되고, 해당 가상공간 내에 배치된 주목점의 위치가 기억되며,
    해당 복수의 발음원 각각에 대하여, 상기 기억부(201)에 기억된 발음원의 위치와 주목점의 위치에 의거하여 해당 발음원과 해당 주목점의 거리를 계산하고, 해당 발음원에 대응지어지는 영역에 해당 주목점이 포함되는지 아닌지를, 상기 계산된 거리가 해당 발음원의 기준 거리보다 작은지 아닌지에 의해 판단하는 판단스텝과,
    상기 판단스텝에 의해 해당 주목점이 해당 영역에 포함된다고 판단된 경우, 해당 복수의 발음원 각각으로부터 발음되는 음성을, 해당 발음원과 해당 주목점의 거리가 커지면 감소하도록 미리 대응지어진 음량으로 변화시키고, 포함되지 않는다고 판단된 경우, 해당 발음원의 해당 최저 음량으로 변화시키는 변화스텝과,
    상기 변화스텝에 의해 변화된 음성을 재생하는 재생스텝을 구비하는 것을 특 징으로 하는 음성처리방법.
  6. 삭제
  7. 컴퓨터를,
    가상공간 내에 배치된 복수의 발음원 각각에 대해서, 해당 발음원의 위치와, 해당 발음원에 대응지어지는 영역을 정하는 기준 거리와, 해당 발음원으로부터 발음되는 음성의 소정의 최저 음량을 기억하고, 해당 가상공간 내에 배치된 주목점의 위치를 기억하는 기억부(201),
    해당 복수의 발음원 각각에 대해서, 상기 기억부(201)에 기억된 발음원의 위치와 주목점의 위치에 의거하여 해당 발음원과 해당 주목점의 거리를 계산하고, 해당 발음원에 대응지어지는 영역에 해당 주목점이 포함되는지 아닌지를, 상기 계산 된 거리가 해당 발음원의 기준 거리보다 작은지 아닌지에 의해 판단하는 판단부(202),
    상기 판단부(202)에 의해 해당 주목점이 해당 영역에 포함된다고 판단된 경우, 해당 발음원으로부터 발음되는 음성을, 해당 발음원과 해당 주목점의 거리가 커지면 감소하도록 미리 대응지어진 음량으로 변화시키고, 포함되지 않는다고 판단된 경우, 해당 발음원의 해당 최저 음량으로 변화시키는 변화부(203),
    상기 변화부(203)에 의해 변화된 음성을 재생하는 재생부(204)로서 기능시키는 프로그램을 기억하는 컴퓨터 판독 가능한 정보기록매체.
  8. 삭제
  9. 삭제
KR1020087016871A 2006-03-27 2007-03-22 음성처리장치, 음성처리방법 및 프로그램을 기억하는 컴퓨터 판독 가능한 정보기록매체 KR100995735B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JPJP-P-2006-00085123 2006-03-27
JP2006085123A JP3949701B1 (ja) 2006-03-27 2006-03-27 音声処理装置、音声処理方法、ならびに、プログラム

Publications (2)

Publication Number Publication Date
KR20080086500A KR20080086500A (ko) 2008-09-25
KR100995735B1 true KR100995735B1 (ko) 2010-11-19

Family

ID=38344712

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020087016871A KR100995735B1 (ko) 2006-03-27 2007-03-22 음성처리장치, 음성처리방법 및 프로그램을 기억하는 컴퓨터 판독 가능한 정보기록매체

Country Status (7)

Country Link
US (1) US8189813B2 (ko)
EP (1) EP2000187A4 (ko)
JP (1) JP3949701B1 (ko)
KR (1) KR100995735B1 (ko)
CN (1) CN101410157B (ko)
TW (1) TWI327481B (ko)
WO (1) WO2007111224A1 (ko)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1027156A (ja) * 1996-07-10 1998-01-27 Nec Eng Ltd バスアービタ制御装置
JP2008188308A (ja) * 2007-02-06 2008-08-21 Copcom Co Ltd ゲーム装置、ゲームプログラムおよび記憶媒体
KR102341800B1 (ko) * 2007-09-26 2021-12-21 에이큐 미디어 인크 오디오-비주얼 내비게이션 및 통신
JP2010035978A (ja) * 2008-08-08 2010-02-18 Sega Corp ゲームプログラムおよびゲーム装置
US8520872B2 (en) * 2008-08-14 2013-08-27 Samsung Electronics Co., Ltd. Apparatus and method for sound processing in a virtual reality system
US10737185B2 (en) * 2009-03-18 2020-08-11 Microsoft Technology Licensing, Llc Virtual environment controls based on voice chat audio inputs
JP5036797B2 (ja) 2009-12-11 2012-09-26 株式会社スクウェア・エニックス 発音処理装置、発音処理方法、及び発音処理プログラム
JP5641834B2 (ja) * 2010-09-08 2014-12-17 株式会社カプコン ゲームプログラム及びゲーム装置
JP5538148B2 (ja) * 2010-09-08 2014-07-02 株式会社カプコン ゲームプログラム及びゲーム装置
JP5437317B2 (ja) * 2011-06-10 2014-03-12 株式会社スクウェア・エニックス ゲーム音場生成装置
JP2013102842A (ja) * 2011-11-11 2013-05-30 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP5969200B2 (ja) 2011-11-11 2016-08-17 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP6159515B2 (ja) * 2012-09-19 2017-07-05 任天堂株式会社 ゲームシステム、ゲーム装置、ゲームプログラム、およびゲーム処理制御方法
JP6154597B2 (ja) * 2012-11-16 2017-06-28 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP6209359B2 (ja) * 2013-05-14 2017-10-04 株式会社スクウェア・エニックス ビデオゲーム処理装置、及びビデオゲーム処理プログラム
CN104808962B (zh) * 2014-01-23 2019-02-05 腾讯科技(深圳)有限公司 处理播放请求的方法和装置
JP5813172B2 (ja) * 2014-04-28 2015-11-17 株式会社カプコン ゲームプログラム及びゲーム装置
US9588586B2 (en) * 2014-06-09 2017-03-07 Immersion Corporation Programmable haptic devices and methods for modifying haptic strength based on perspective and/or proximity
EP3209036A1 (en) * 2016-02-19 2017-08-23 Thomson Licensing Method, computer readable storage medium, and apparatus for determining a target sound scene at a target position from two or more source sound scenes
US10650602B2 (en) 2016-04-15 2020-05-12 Center Of Human-Centered Interaction For Coexistence Apparatus and method for three-dimensional information augmented video see-through display, and rectification apparatus
WO2017179912A1 (ko) * 2016-04-15 2017-10-19 재단법인 실감교류인체감응솔루션연구단 삼차원 정보증강 비디오 씨쓰루 디스플레이 장치 및 방법, 렉티피케이션 장치
JP6540600B2 (ja) * 2016-05-25 2019-07-10 ヤマハ株式会社 効果音生成装置、効果音生成方法およびプログラム
EP3264259A1 (en) * 2016-06-30 2018-01-03 Nokia Technologies Oy Audio volume handling
JP6670202B2 (ja) * 2016-08-10 2020-03-18 任天堂株式会社 音声処理プログラム、情報処理プログラム、音声処理方法、音声処理装置、及びゲームプログラム
EP3287867A1 (en) * 2016-08-26 2018-02-28 Nokia Technologies Oy Audio processing
EP3297298B1 (en) * 2016-09-19 2020-05-06 A-Volute Method for reproducing spatially distributed sounds
CN106531178B (zh) * 2016-11-14 2019-08-02 浪潮金融信息技术有限公司 一种音频处理方法及装置
US11096004B2 (en) 2017-01-23 2021-08-17 Nokia Technologies Oy Spatial audio rendering point extension
EP3595331A1 (en) * 2017-03-09 2020-01-15 Sony Corporation Information processing device, information processing method and recording medium
US10531219B2 (en) 2017-03-20 2020-01-07 Nokia Technologies Oy Smooth rendering of overlapping audio-object interactions
US11074036B2 (en) 2017-05-05 2021-07-27 Nokia Technologies Oy Metadata-free audio-object interactions
US10165386B2 (en) 2017-05-16 2018-12-25 Nokia Technologies Oy VR audio superzoom
JP6245567B1 (ja) * 2017-06-08 2017-12-13 裕 橋本 仮想現実体験システム
US10319228B2 (en) 2017-06-27 2019-06-11 Waymo Llc Detecting and responding to sirens
US11395087B2 (en) 2017-09-29 2022-07-19 Nokia Technologies Oy Level-based audio-object interactions
US10542368B2 (en) 2018-03-27 2020-01-21 Nokia Technologies Oy Audio content modification for playback audio
CN109550248B (zh) * 2018-11-09 2021-05-04 Oppo广东移动通信有限公司 虚拟对象位置识别方法、装置、移动终端及存储介质
JP7399623B2 (ja) 2019-03-25 2023-12-18 株式会社バンダイナムコエンターテインメント ゲームシステム、プログラム及びゲーム装置
CN110534105B (zh) * 2019-07-24 2021-10-15 珠海格力电器股份有限公司 一种语音控制方法及装置
CN114049871A (zh) * 2022-01-13 2022-02-15 腾讯科技(深圳)有限公司 基于虚拟空间的音频处理方法、装置和计算机设备
CN114627890A (zh) * 2022-05-16 2022-06-14 宏景科技股份有限公司 一种虚拟环境下多种声音的辨识方法、系统、设备和存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010023202A1 (en) * 2000-03-13 2001-09-20 Konami Corporation Video game apparatus, background sound output setting method in video game, and computer-readable recording medium storing background sound output setting program

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11347250A (ja) 1998-06-04 1999-12-21 Enix Corp ビデオゲーム装置およびプログラムを格納した記録媒体
JP3534345B1 (ja) 2002-10-22 2004-06-07 コナミ株式会社 ゲームプログラム及びゲーム装置
JP3639280B2 (ja) 2003-02-12 2005-04-20 任天堂株式会社 ゲームメッセージ表示方法およびゲームプログラム
JP3686949B2 (ja) 2003-07-31 2005-08-24 コナミ株式会社 ゲーム装置、コンピュータの制御方法及びプログラム
JP3740518B2 (ja) 2003-07-31 2006-02-01 コナミ株式会社 ゲーム装置、コンピュータの制御方法及びプログラム
JP3740548B2 (ja) 2004-01-08 2006-02-01 コナミ株式会社 ゲーム装置、ゲーム装置の制御方法及びプログラム
JP2004351229A (ja) 2004-09-07 2004-12-16 Sega Corp 画像表示方法、コンピュータゲーム処理方法及び記録媒体

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010023202A1 (en) * 2000-03-13 2001-09-20 Konami Corporation Video game apparatus, background sound output setting method in video game, and computer-readable recording medium storing background sound output setting program

Also Published As

Publication number Publication date
CN101410157B (zh) 2012-05-30
EP2000187A1 (en) 2008-12-10
CN101410157A (zh) 2009-04-15
JP3949701B1 (ja) 2007-07-25
JP2007259888A (ja) 2007-10-11
US20100260355A1 (en) 2010-10-14
KR20080086500A (ko) 2008-09-25
TW200744719A (en) 2007-12-16
TWI327481B (en) 2010-07-21
US8189813B2 (en) 2012-05-29
WO2007111224A1 (ja) 2007-10-04
EP2000187A4 (en) 2009-08-12

Similar Documents

Publication Publication Date Title
KR100995735B1 (ko) 음성처리장치, 음성처리방법 및 프로그램을 기억하는 컴퓨터 판독 가능한 정보기록매체
KR101042892B1 (ko) 게임 소리 출력장치, 게임 소리 제어 방법 및 정보 기록 매체
KR100945130B1 (ko) 게임음 출력장치, 게임음 제어방법 및 프로그램을 기록한 정보기록매체
JP3863165B2 (ja) 音声出力装置、音声出力方法、ならびに、プログラム
JP4095227B2 (ja) ビデオゲーム装置、ビデオゲームにおける背景音出力設定方法及び背景音出力設定プログラムが記録されたコンピュータ読み取り可能な記録媒体
KR100878964B1 (ko) 게임장치, 게임장치 제어방법 및 프로그램을 기록한 컴퓨터 판독가능한 정보기록매체
US7330769B2 (en) Parameterized interactive control of multiple wave table sound generation for video games and other applications
US8155324B2 (en) Voice processor, voice processing method, program, and information recording medium
JP2012050791A (ja) キャラクター表示装置、キャラクター表示方法、ならびに、プログラム
US20120077592A1 (en) Sound processing device, sound processing method, information storage medium, and program
WO2010084830A1 (ja) 音声処理装置、チャットシステム、音声処理方法、情報記憶媒体、ならびに、プログラム
JP3223170B2 (ja) ゲーム装置及び画像生成方法並びに画像生成プログラムを記録した記録媒体
JP4648707B2 (ja) プログラム、情報記憶媒体及びゲームシステム
JP4880298B2 (ja) プログラム、情報記憶媒体、及びデータ再生システム
JP2011024648A (ja) ゲーム装置、ゲーム制御方法、ならびに、プログラム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee