WO2004097800A1 - 音声再生プログラム、音声再生方法及び音声再生装置 - Google Patents

音声再生プログラム、音声再生方法及び音声再生装置 Download PDF

Info

Publication number
WO2004097800A1
WO2004097800A1 PCT/JP2004/005651 JP2004005651W WO2004097800A1 WO 2004097800 A1 WO2004097800 A1 WO 2004097800A1 JP 2004005651 W JP2004005651 W JP 2004005651W WO 2004097800 A1 WO2004097800 A1 WO 2004097800A1
Authority
WO
WIPO (PCT)
Prior art keywords
audio
speed
reproduction
data
audio data
Prior art date
Application number
PCT/JP2004/005651
Other languages
English (en)
French (fr)
Inventor
Takahito Uenishi
Makoto Yamakawa
Original Assignee
Konami Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Corporation filed Critical Konami Corporation
Priority to KR1020057020554A priority Critical patent/KR100651527B1/ko
Priority to US10/555,005 priority patent/US20070032894A1/en
Priority to DE602004025578T priority patent/DE602004025578D1/de
Priority to EP04728458A priority patent/EP1650747B1/en
Priority to CNB2004800119655A priority patent/CN100399421C/zh
Publication of WO2004097800A1 publication Critical patent/WO2004097800A1/ja
Priority to HK06108237.0A priority patent/HK1088109A1/xx

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/005Reproducing at a different information rate from the information rate of recording
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B27/00Photographic printing apparatus
    • G03B27/32Projection printing apparatus, e.g. enlarger, copying camera
    • G03B27/50Projection printing apparatus, e.g. enlarger, copying camera with slit or like diaphragm moving over original for progressive exposure
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B27/00Photographic printing apparatus
    • G03B27/32Projection printing apparatus, e.g. enlarger, copying camera
    • G03B27/52Details
    • G03B27/62Holders for the original
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/10Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using flat picture-bearing surfaces
    • H04N1/107Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using flat picture-bearing surfaces with manual scanning
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6063Methods for processing data by generating or executing the game program for sound processing
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6063Methods for processing data by generating or executing the game program for sound processing
    • A63F2300/6081Methods for processing data by generating or executing the game program for sound processing generating an output signal, e.g. under timing constraints, for spatialization
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2545CDs

Definitions

  • the present invention relates to a sound reproducing program, a sound reproducing method, and a sound reproducing apparatus.
  • the present invention relates to a sound reproduction program for reproducing sound using sound data, a sound reproduction method, and a sound reproduction device.
  • a conventional audio reproducing device there is, for example, a tape set tape recorder, etc., and in a device for reproducing analog audio such as a force set tape recorder, a recording medium such as a cassette tape is driven at a predetermined speed (recording speed). Then, by reproducing the audio signal recorded on the cassette tape, the audio is reproduced at the standard speed (1x speed). In addition, sound is reproduced at a speed higher or lower than the standard speed by changing the driving speed of the above-mentioned cassette tape.
  • CD players, DVD players, and the like as devices for reproducing digital audio instead of analog audio as described above, and these devices reproduce audio data recorded on a CD or the like at a predetermined reproduction frequency.
  • the sound can be reproduced at the standard speed, and the sound can be reproduced at a speed higher or lower than the standard speed by changing the reproduction frequency.
  • video game devices such as home video game machines that use computer-readable recording media such as CDs and DVDs also use the same playback principle as the above-described CD drive and the like, and operate at standard speed and speed. Digital audio is being played at a speed faster or slower than the speed.
  • the frequency of the played sound differs from the fundamental frequency, which is the frequency of the original sound. Will be done. For example, if audio is played back at a fast-earning speed that is twice as fast as the standard speed, the sound played back at the fast-earning speed will be twice the above fundamental frequency. Therefore, the pitch of the voice is one octave higher than the normal voice, which makes it difficult for the user to hear, Or I could not hear.
  • the present invention has been made to solve the above-described problems, and can instantaneously switch the sound reproduction speed without discomfort without imposing an excessive load on hardware such as a CPU, and achieve a more natural sound. It is an object of the present invention to provide a sound reproducing program, a sound reproducing method, and a sound reproducing device capable of outputting sound before and after switching.
  • the present invention according to claim 1 is an audio reproduction program for reproducing audio using audio data
  • Audio storage means which is prepared in advance for reproducing a predetermined audio at a plurality of different reproduction speeds, and stores a plurality of audio data respectively corresponding to the respective reproduction speeds;
  • a computer In the case where sound is output at any one of the playback speeds, a computer is made to function as audio output means for outputting a sound based on audio data corresponding to the playback speed.
  • an audio reproducing program for reproducing an audio using audio data, wherein the audio reproducing program is used for reproducing a predetermined audio at a plurality of different reproduction speeds.
  • a plurality of prepared in advance corresponding to each playback speed Voice storage means for storing voice data; playback means for outputting voice data; and voice data corresponding to the playback speed when voice is output at one of the playback speeds.
  • the computer functions as audio output means for outputting.
  • the audio storage means is prepared in advance to reproduce a predetermined audio at a plurality of different reproduction speeds, and stores a plurality of audio data respectively corresponding to the respective reproduction speeds.
  • the audio output means when outputting audio at any one of the reproduction speeds, reproduces and outputs audio based on audio data corresponding to the reproduction speed. This eliminates the need for audio processing such as creating audio data corresponding to different playback speeds when the playback speed is changed.
  • the sound storage means stores first sound data prepared in advance to reproduce a predetermined sound at a first reproduction speed, and stores the predetermined sound in the first sound data.
  • second audio data prepared in advance for playback at a second playback speed different from the playback speed of the
  • the reproduction means reproduces the first and second audio data in association with the reproduction positions of the first and second audio data read from the audio storage means, and reproduces the audio based on the first and second audio data.
  • the audio output means outputs a first audio based on the first audio data being reproduced by the reproduction means when outputting the audio at the first reproduction speed, and outputs the audio at the second reproduction speed. And outputting a second audio based on the second audio data reproduced by the reproducing means.
  • the audio storage means stores first audio data prepared in advance to reproduce the predetermined audio at the first reproduction speed, and stores the first audio data in the first audio data.
  • Second audio data prepared in advance for reproduction at a second reproduction speed different from the reproduction speed is stored.
  • the reproduction means reproduces the first and second audio data in association with the reproduction positions of the first and second audio data read from the audio storage means, and reproduces the audio based on the first and second audio data. Make it ready for output.
  • the audio output means outputs a first audio based on the first audio data being reproduced by the reproducing means when outputting the audio at the first reproduction speed, and outputs the audio at the second reproduction speed. Playback Outputting a second sound based on the second sound data reproduced by the means.
  • the first audio obtained by playing back the first audio data prepared in advance for playback at the first playback speed is output by the playback unit.
  • a second audio that is obtained by playing back second audio data prepared in advance for playback at the second playback speed is output by the playback unit. Therefore, when outputting audio at the second playback speed, the fundamental frequency of the first audio data is changed because the second audio data is prepared in advance for playback at the second playback speed. This eliminates the need for audio processing such as creating second audio data.
  • the first audio data prepared in advance to reproduce the predetermined audio at the first reproduction speed and the predetermined audio are reproduced at a second reproduction speed different from the first reproduction speed. Since the second audio data prepared in advance is reproduced in synchronization with the second audio data, the same predetermined audio (audio having the same content) can be output even when the audio playback speed is switched.
  • the present invention according to claim 3, wherein a first playback speed mode for playing back the audio output by the audio output means at the first playback speed; and Further causing the computer to function as an operation means for receiving an operation of selecting one of a second reproduction speed mode for reproducing at a reproduction speed of 2.
  • the sound output means outputs one of the sounds based on the first and second sound data in accordance with a reproduction speed mode accepted by the operation means.
  • the operating means includes: a first playback speed mode for playing back the audio output by the audio output means at the first playback speed; and the audio output by the audio output means.
  • An operation is received when the user selects one of the second playback speed modes for playing back the output at the second playback speed.
  • the audio output means outputs one of the first and second audio data in accordance with the reproduction speed mode accepted by the operation means.
  • the user can select either the first audio speed mode or the second audio speed mode.
  • the operation when either one is selected is received by the operation means, and one of the first and second sounds is output by the sound output means according to the playback speed mode received by the operation means.
  • the audio storage unit stores, as the first audio data, normal audio data prepared in advance to reproduce a predetermined audio at a standard speed, and
  • As the second audio data high-speed audio data prepared in advance to reproduce the same audio as the audio reproduced using the normal audio data at a higher speed than the standard speed and at a reproduction speed is stored.
  • the audio output means outputs a standard-speed audio based on the normal audio data when outputting audio at a standard speed, and outputs a high-speed audio based on the high-speed audio data when outputting a high-speed audio.
  • the voice storage means stores, as the first voice data, normal voice data prepared in advance for reproducing a predetermined voice at a standard speed, and As the audio data, high-speed audio data prepared in advance to reproduce the same audio as the audio reproduced using normal audio data at a reproduction speed higher than the standard speed is stored.
  • the audio output means outputs the standard-speed audio based on the normal audio data when outputting the audio at the standard speed, and outputs the high-speed audio based on the high-speed audio data when outputting the audio at a high speed.
  • a sound at the standard speed which is a reproduction of normal audio data prepared in advance for reproduction at the standard speed
  • audio is output at a high speed
  • a high-speed audio that is obtained by reproducing high-speed audio data prepared for high-speed reproduction is output.
  • audio can be output using audio data created in advance according to each of the standard speed and the high-speed playback speed, and the user can hear natural audio at a desired speed among the standard speed and the high speed. it can.
  • the reproducing unit determines a reproduction position of the first and second audio data based on a reproduced time or a remaining reproduction time of the first and second audio data.
  • the first and second audio data are reproduced in association with each other.
  • the reproducing means is capable of reproducing the first and second audio data.
  • the first and second audio data are reproduced by associating the reproduction positions of the first and second audio data based on the reproduced time or the remaining reproduction time.
  • the reproduction positions of the first and second audio data are correlated by reproducing the first and second audio data so that the reproduced time or the remaining reproduction time is the same.
  • the synchronization processing of the first and second audio data can be performed without adding data dedicated to the synchronization processing such as a check flag to the audio data.
  • the audio storage means stores the first and second audio data in which a check flag is inserted for each predetermined section of audio to be reproduced, Reproducing the first and second audio data in association with the reproduction positions of the first and second audio data based on the reproduction timing of the check flags of the first and second audio data.
  • the sound storage means stores the first and second sound data in which the check flag is inserted for each predetermined segment of the sound to be reproduced.
  • the reproduction means reproduces the first and second audio data by associating the reproduction positions of the first and second audio data based on the reproduction timing of the check flag of the first and second audio data. I do.
  • the first and second audio data are synchronized based on the playback timing of the check flag inserted at each predetermined segment of the audio, the first and second audio data are reproduced. It is possible to reproduce with high precision in synchronization with each predetermined segment.
  • the reproducing means is configured such that, when reproduction positions of the first and second audio data are shifted, when the audio is output at the first reproduction speed, The playback speed of the second audio data is adjusted so as to correspond to the playback position of the first audio data. When the audio is output at the second playback speed, the playback of the second audio data is performed. The reproduction speed of the first audio data is adjusted to correspond to a position.
  • the reproducing means is configured to output the sound at the first reproduction speed when the reproduction positions of the first and second audio data are shifted. Adjusts the playback speed of the second audio data so that it corresponds to the playback position of the first audio data, and corresponds to the playback position of the second audio data when the audio is output at the second playback speed. Adjust the playback speed of the first audio data so that
  • the reproduction speed of the other audio data is adjusted based on the audio data used for reproducing the currently output audio. This makes it possible to correct the synchronization loss without affecting the currently output audio.
  • character storage means for storing character data for generating a character representing a sound reproduced by the first and second sound data
  • the character storage means Further comprising causing the computer to further function as display means for displaying a character represented by the character data read from the at least one of the first and second sounds outputted by the sound output means in synchronization with the first and second sounds.
  • the character storage means stores character data for generating a character representing a sound reproduced by the first and second sound data.
  • the display means displays the character represented by the character data read from the character storage means in synchronization with at least V or one of the first and second sounds output by the sound output means.
  • the character represented by the character data read from the character storage means is displayed in synchronization with the sound output by the sound output means, and the character is displayed on the display screen in synchronization with the sound being reproduced. Can be displayed.
  • the present invention according to claim 9, wherein the display unit reads out from the character storage unit based on a reproduction time of the first or second audio data corresponding to a character represented by the character data. Characters represented by character data are displayed in synchronization with at least one of the first and second sounds outputted by the sound output means.
  • the display means uses the character data read from the character storage means based on the reproduction time of the first or second audio data corresponding to the character represented by the character data.
  • the character represented is output by voice output means It is displayed in synchronization with at least one of the first and second voices.
  • the synchronization between the characters and the audio can be performed without adding data dedicated to the synchronization processing such as a check flag to the character data. Synchronous processing can be performed.
  • the display means stores the reproduction time in advance for each character, and refers to the reproduction time stored for the character to be displayed, and sounds the character. It is characterized in that it is displayed in synchronization with.
  • the display means stores the reproduction time in advance for each character, refers to the reproduction time stored for the displayed character, and converts the character into a sound. Display in synchronization.
  • the synchronization processing between the character and the sound can be performed without calculating the playback time. It can be carried out.
  • the present invention according to claim 11, wherein the display unit reads out from the character storage unit based on a data amount of the first or second audio data corresponding to a character represented by the character data. Characters represented by character data are displayed in synchronization with at least one of the first and second sounds output by the audio output means.
  • the display means reads the character read from the character storage means based on the data amount of the first or second voice data corresponding to the character represented by the character data.
  • the character represented by the data is displayed in synchronization with at least one of the first and second sounds outputted by the sound output means.
  • the characters are displayed in synchronization with the voice based on the data amount of the voice data corresponding to the characters. Synchronous processing can be performed.
  • the present invention according to claim 12 is a sound reproducing method for reproducing sound by a computer using sound data, Setting a state in which a plurality of audio data corresponding to each of the reproduction speeds is prepared in advance to reproduce a predetermined audio at a plurality of different reproduction speeds, and
  • an audio reproducing method for reproducing an audio by a computer using audio data wherein the audio reproducing method reproduces a predetermined audio at a plurality of different reproduction speeds. Setting a state in which audio can be output by a plurality of audio data corresponding to each of the reproduction speeds prepared in advance, and outputting the audio at any one of the reproduction speeds. And outputting a voice based on the voice data to be output.
  • the first step is prepared in advance to reproduce a predetermined sound at a plurality of different reproduction speeds, and makes it possible to output a sound by a plurality of sound data corresponding to each reproduction speed.
  • the second step when audio is output at any one of the playback speeds, an audio is output based on audio data corresponding to the playback speed.
  • the present invention according to claim 13 is an audio reproducing apparatus that reproduces audio using audio data
  • Voice storage means for storing a plurality of voice data which are prepared in advance for playing back a predetermined voice at a plurality of different playback speeds and correspond to the respective playback speeds;
  • a sound output means for outputting a sound based on sound data corresponding to the reproduction speed.
  • a sound reproducing apparatus for reproducing sound using sound data, wherein the sound storage means prepares in advance for reproducing a predetermined sound at a plurality of different reproduction speeds. Then, a plurality of audio data corresponding to each playback speed are stored.
  • the reproduction means sets the audio data in a state capable of being output.
  • the audio output means corresponds to the reproduction speed when outputting the audio at any one of the reproduction speeds. Outputs audio based on audio data.
  • a plurality of the same audio data corresponding to the reproduction speeds prepared in advance are stored in the audio storage means.
  • the reproducing means and the audio output means when sound is output at any one of the reproduction speeds, the sound by the audio data corresponding to the reproduction speed is reproduced and output in a state where it can be output. This eliminates the need for audio processing such as creating audio data corresponding to the playback speed at the same playback frequency as the fundamental frequency when the playback speed is changed.
  • FIG. 1 is a block diagram showing the configuration of the video game device according to the first embodiment of the present invention.
  • FIG. 2 is a functional block diagram showing main functions of the video game device shown in FIG. Figure 3 shows a 1x speed audio signal A1 reproduced at 1x speed using 1x speed audio data a1, and a 2x speed audio signal reproduced at 2x speed using 2x speed audio data a2.
  • FIG. 6 is a waveform chart showing A2.
  • FIG. 4 is a flowchart showing an example of a sound reproducing process executed by the video game device shown in FIG.
  • FIG. 5 is a schematic diagram for explaining audio reproduced in the standard speed reproduction mode and the double speed reproduction mode.
  • FIG. 6 is a flowchart illustrating an example of the synchronization correction process illustrated in FIG.
  • FIG. 7 is a functional block diagram showing main functions of the video game device according to the second embodiment.
  • FIG. 8 is a flowchart showing an example of a sound reproducing process executed by the video game device shown in FIG.
  • FIG. 9 is a schematic diagram showing an example of the data structure of the reproduction time table.
  • FIG. 10 is a schematic diagram showing an example of the data structure of the audio data amount table.
  • FIG. 11 is a block diagram showing a configuration of an audio playback device according to the third embodiment of the present invention.
  • FIG. 1 is a block diagram showing a configuration of a video game device according to a first embodiment of the present invention. It is.
  • a video game device a home video game device configured by connecting a home video game machine to a home television will be described.
  • the present invention is not limited thereto, and the present invention can be similarly applied to an arcade video game device in which a monitor is integrally formed, a personal computer that functions as a video game device by executing a video game program, and the like.
  • the video game device shown in FIG. 1 includes a home-use game machine 100 and a home-use television 200.
  • the home-use game machine 100 is loaded with a computer-readable recording medium 300 on which a video game program and game data are recorded, and the video game program and game data are appropriately read to execute a game. .
  • the home game machine 100 has a CPU (Central Processing Unit) 1, a pass line 2, a graphics data generation processor 3, an interface circuit (IZF) 4, a main memory 5, a ROM (Read Only Memory) 6, and a decompression circuit. 7, Includes parallel port 8, serial port 9, drawing processor 10, audio processor 11, I / O processor 12, buffers 13 to 15, storage media drive 16, memory 17 and controller 18.
  • the home television 200 includes a television monitor 21, an amplification circuit 22 and a speed 23.
  • Path line 2 includes address path, data path, control bus, etc., CPU 1, interface circuit 4, main memory 5, ROM 6, expansion circuit 7, parallel port 8, serial port 9, drawing processor 10, audio Processor 11 and I / O processor 12 are interconnected.
  • the drawing processor 10 is connected to the buffer 13.
  • the audio processor 11 is connected to a buffer 14 and an amplifier 22.
  • the I / O processor 12 is connected to a buffer 15, a recording medium drive 16, a memory 17 and a controller 18.
  • the television monitor 21 of the home television 200 is connected to the drawing processor 10.
  • the speaker 23 is connected to the amplifier circuit 22.
  • the television monitor 21, the amplification circuit 22 and the speaker 23 are It may be housed in one housing together with the blocks making up the consumer game machine 100.
  • the television monitor 21 or the like corresponds to a display for a computer.
  • the decompression circuit 7, the drawing processor 10, the audio processor 11, the IZO processor 12, etc. are respectively mounted on a part of the program data recorded on the recording medium 300 or an expansion slot of the computer. Corresponds to the hardware on the expansion board.
  • the interface circuit 4, the parallel port 8, and the serial port 9 correspond to hardware on an expansion board mounted in an expansion slot of the computer.
  • the buffers 13 to 15 correspond to the respective storage areas of the main memory or the extended memory.
  • the graphics data generation processor 3 functions as a so-called coprocessor of the CPU 1. That is, the graphics data generation processor 3 performs coordinate transformation and light source calculation, for example, calculation of a matrix or vector in a fixed-point format by parallel processing.
  • the main processing performed by the graphics data raw J3 ⁇ 43 ⁇ 4 processor 3 is coordinate data of each vertex in the two-dimensional or virtual three-dimensional space of the image data supplied from the CPU 1, movement data, rotation data, etc.
  • the processing includes obtaining address data of an image to be processed in a predetermined display area on the basis of the image data and returning the address data to the CPU 1, calculating the luminance of the image in accordance with a distance from a light source that is virtually set, and the like.
  • the interface circuit 4 is used for an interface of a peripheral device, for example, a pointing device such as a mouse or a track pole.
  • the main memory 5 is composed of a RAM (Random Access Memory) or the like.
  • ROM 6 stores program data for an operating system of a video game device. This program is equivalent to a BIOS (Basic Input Output System) of a personal computer.
  • BIOS Basic Input Output System
  • the decompression circuit 7 is an image compliant with the MPEG (Moving Picture Experts Group) standard for moving images and the JPEG (Joint Photographic Experts Group) standard for still images.
  • a decompression process is performed on the compressed image compressed by the tiger encoding.
  • the decompression processing includes decoding processing (decoding of data encoded by Variable Length Code), inverse quantization processing, IDCT (lnverse Discrete Cosine Transform) processing, intra image restoration processing, and the like.
  • the display area is composed of an area for developing data to be displayed on the display surface of the television monitor 21.
  • the non-display area is a storage area for data that defines the skeleton, model data that defines polygons, animation data that causes the model to move, pattern data that indicates the contents of each animation, texture data, and color palette data. It consists of.
  • the texture data is two-dimensional image data.
  • the color pallet data is data for specifying a color such as texture data.
  • the CPU 1 records these data in the non-display area of the buffer 13 in advance from the recording medium 300 at once or divided into a plurality of times according to the progress of the game.
  • the drawing commands include a drawing command for drawing a three-dimensional image using polygons and a drawing command for drawing a normal two-dimensional image.
  • a polygon is a polygonal two-dimensional virtual figure, for example, a triangle or a quadrangle.
  • Drawing commands for drawing a three-dimensional image using polygons include polygon vertex coordinate data buffer 13 polygon vertex address data indicating the storage position in the display area of the display area, and a texture buffer 13 3 This is performed for each of the texture address data indicating the storage position above, the color palette address data indicating the storage position on the buffer 13 of the color palette data indicating the color of the texture, and the luminance data indicating the luminance of the texture. is there.
  • the polygon vertex address data on the display area is converted by the graphics data generation processor 3 from the polygon vertex coordinate data in the virtual three-dimensional space from the CPU 1 based on the movement amount data and the rotation amount data.
  • the data is replaced with the polygon vertex coordinate data in two dimensions.
  • Luminance The data is determined by the Dallafix data generation processor 3 based on the distance from the position indicated by the polygon vertex coordinate data after the coordinate conversion from the CPU 1 to the light source virtually arranged.
  • the polygon vertex address data indicates the address on the display area of the buffer 13.
  • the drawing processor 10 performs a process of writing texture data corresponding to the display area of the buffer 13 indicated by the three polygon vertex address data.
  • An object such as a character in the game space is composed of a plurality of polygons.
  • the CPU 1 stores the coordinate data of each polygon in the virtual three-dimensional space in the buffer 13 in association with the corresponding skeleton vector data.
  • the CPU 1 sends the graphics data generation processor 3 the 3D coordinate data of the vertices of each polygon held in the non-display area of the buffer 13 and the coordinates of the skeleton and the data of the rotation amount.
  • the obtained movement amount data and rotation amount data of each polygon are given.
  • the graphics data generation processor 3 sequentially obtains the three-dimensional coordinate data after the movement and rotation of each polygon based on the three-dimensional coordinate data of the vertices of each polygon and the movement amount data and rotation amount data of each polygon. .
  • the horizontal and vertical coordinate data of the three-dimensional coordinate data of each polygon obtained in this manner is supplied to the drawing processor 10 as address data on the display area of the buffer 13, that is, polygon vertex address data. You.
  • the drawing processor 10 writes the texture data indicated by the pre-assigned texture address data on the display area of the buffer 13 indicated by the three polygon vertex address data. As a result, on the display screen of the television module 21, an object in which texture is pasted on a large number of polygons is displayed.
  • the drawing command for drawing a normal two-dimensional image includes vertex address data, texture address data, and color palette data indicating the color of texture data. This is performed on the color palette address data indicating the storage position on the file 13 and the luminance data indicating the luminance of the texture.
  • the vertex address data is converted from vertex coordinate data on the two-dimensional plane from the CPU 1 by the Dallafix data generation processor 3 based on the movement amount data and rotation amount data from the CPU 1 force. It is obtained by doing.
  • the audio processor 11 stores ADPCM (Adaptive Differential Pulse Code Modulation) data read from the recording medium 300 in the buffer 14, and the ADPCM data stored in the buffer 14 serves as a sound source.
  • the audio processor 11 reads out the ADPCM data from the buffer 14 based on, for example, a clock signal having a frequency of 44.1 kHz.
  • the audio processor 11 performs processing such as adding noise, setting an envelope, setting a level, and adding a reverb to the read ADPCM data.
  • the audio processor 11 decodes the read ADPCM data into the original audio data, and converts the audio data into audio at the volume and reproduction frequency set by the I / O processor as described later.
  • the signal is converted to a signal and output to the amplifier circuit 22.
  • the amplification circuit 22 amplifies the audio signal and outputs it to the speaker 23, and the speaker 23 outputs the reproduced audio.
  • the audio processor 11 converts this audio data into AD PCM data. .
  • the processing of the PCM data by the program is performed directly on the main memory 5.
  • the PCM data processed on the main memory 5 is supplied to the audio processor 11 and converted into AD PCM data. Thereafter, the various processes described above are performed, and the sound is reproduced.
  • the I / O processor 12 functions not only as an input / output control but also as a decoder, and stores various data such as image data, audio data, and program data transmitted by the storage medium drive 17 as a work area buffer 15
  • the error correction processing by ECC is performed on various data read from the buffer 15 by the ECC (Error Correction Code).
  • Supply processor 1 l The error correction processing by ECC (Error Correction Code) is performed on various data read from the buffer 15 by the ECC (Error Correction Code).
  • ECC Error Correction Code
  • the main memory 5 or the audio processor 11 stores the supplied audio data in the buffer 14. Also, the I / O processor 12 sends a sound volume to the audio processor 11 so that the audio data read from the buffer 14 is reproduced according to a reproduction mode or the like instructed by the user via the controller 18. And set the playback frequency.
  • the recording medium drive 16 reads image data, audio data, and program data from the recording medium 300, and supplies the read data to the I / O processor 12.
  • a DVD-ROM drive, a CD-ROM drive, a hard disk drive, an optical disk drive, a flexible disk drive, a silicon disk drive, a cassette medium reader, and the like are used as the recording medium 300.
  • a DVD-ROM, a CD-ROM, a node disk, an optical disk, a flexible disk, a semiconductor memory, or the like is used as the recording medium 300.
  • a card-type memory is used as the memory 17.
  • the card type memory is used to hold various game parameters at the time of interruption, for example, to retain the state at the time of interruption when the game is interrupted.
  • the controller 18 is an operation device used by the user to input various operation commands, and sends an operation signal corresponding to the operation of the user to the CPU 1.
  • the controller 18 has a first button 18a, a second button 18b, a third button 18c, a fourth button 18d, an up key 18U, a down key 18D, a left key 18L, and a right key.
  • Up arrow key 18 U, down arrow key 18 D, left arrow key 18 L and right arrow key 18 R send commands to CPU 1 to move characters and cursors up, down, left and right on the screen of the television monitor 21. Used to give.
  • the start button 18e is used to instruct the CPU 1 to load a game program from the recording medium 300, and the like.
  • Select Topo 18 f is a recording medium Used to instruct the CPU 1 to make various selections regarding the game program loaded from 300 into the main memory 5.
  • buttons and keys of the controller 18 are turned on when pressed from the neutral position by an external pressing force, and return to the neutral position when the pressing force is released. It consists of an on-off switch that returns after turning off.
  • the left stick 18 SL and the right stick 18 SR are stick type controllers having almost the same configuration as a so-called joystick.
  • This stick type controller has an upright stick, and is configured to be tiltable over a 360 ° direction including front, rear, left and right with a predetermined position of the stick as a fulcrum.
  • the left stick 18 SL and the right stick 18 SR use the values of the X coordinate in the horizontal direction and the y coordinate in the front / rear direction with the origin in the upright position as the operation signal according to the tilt direction and the tilt angle of the stick.
  • the first button 18a, the second button 18b, the third button 18c, the fourth button 18d, the L1 button 18L1, the L2 button 18L2, the 1 button 1811 and the 12 button 18R2 Is used for various functions according to the game program loaded from the recording medium 300.
  • the recording medium 300 is loaded in the recording medium drive 16
  • the power switch (not shown) is turned on and the power is turned on to the video game device.
  • the CPU 1 instructs the recording medium drive 16 to read the game program from the recording medium 300 based on the operating system stored in the ROM 6.
  • the recording medium drive 16 reads out image data, audio data, and program data from the recording medium 300.
  • the read image data, audio data, and program data are supplied to the I / O processor 12, and the 1 12 processor 12 performs error correction processing on each data.
  • the image data subjected to the error correction processing by the I / O processor 12 is supplied to the decompression circuit 7 via the pass line 2.
  • the image data subjected to the above-described decompression processing by the decompression circuit 7 is supplied to the drawing processor 10 and the drawing processor 1 By 0, data is written to the non-display area of the buffer 13.
  • the audio data subjected to the error correction processing by the 10 processor 12 is written to the buffer 14 via the main memory 5 or the audio processor 11.
  • the program data subjected to the error correction processing by the I / O processor 12 is written to the main memory 5.
  • the CPU 1 advances the video game based on the game program stored in the main memory 5 and the content specified by the user using the controller 18. That is, the CPU 1 appropriately controls image processing, audio processing, internal processing, and the like, based on the content of the instruction given by the user using the controller 18.
  • image processing for example, calculation of coordinates of each skeleton or calculation of vertex coordinate data of polygons from pattern data corresponding to an animation instructed by a character, calculation of obtained three-dimensional coordinate data and viewpoint position data
  • the graphics data generation processor 3 supplies the graphics data generation processor 3 with a rendering command including address data and luminance data on the display area of the buffer 13 obtained by the graphics data generation processor 3.
  • control of the audio processing for example, there is an issuance of an audio output command to the audio processor 11, specification of a level, a repurb and the like.
  • control of the internal processing for example, an operation or the like according to the operation of the controller 18 is performed.
  • FIG. 2 is a functional block diagram showing main functions of the video game device shown in FIG.
  • the video game device has an audio output unit 101, a storage unit 102, an operation unit 103, a program execution unit 104, and a program storage unit 105.
  • the audio output unit 101 is realized by the amplifier circuit 22 and the speaker 23 shown in FIG.
  • the storage unit 102 is realized by the main memory 5 and the buffers 13 to 15 shown in FIG.
  • the storage unit 102 is prepared in advance to reproduce a predetermined audio at a plurality of different reproduction speeds, and stores a plurality of audio data respectively corresponding to each audio speed (here, from the recording medium 300).
  • the read 1x speed audio data a1 is stored as audio data for the first channel
  • the 2x speed audio data a2 is stored as audio data for the second channel.
  • the 1x speed audio data a1 is audio data prepared in advance to reproduce a predetermined audio (speed at the time of recording) at a standard speed, that is, 1x speed.
  • the double-speed audio data a2 is audio data prepared in advance to reproduce a predetermined audio (audio representing the same content as the audio reproduced at the standard speed) at the fast-earning speed.
  • the fast speed is a speed faster than the standard speed, and here is twice as fast.
  • the standard audio is audio reproduced at a standard speed
  • the fast sound is audio reproduced at a fast speed.
  • the “predetermined voice” is a voice having the same expression content and transmission content. For example, the words (words) reproduced based on each data do not differ from word to word.
  • the operation unit 103 is realized by the controller 18 shown in FIG. 1 and the like, and receives a voice reproduction speed mode instruction command from a user.
  • the sound reproduction speed mode instruction command is a command for causing the video game device to reproduce sound at a reproduction speed desired by the user.
  • the audio playback speed mode command includes a standard speed playback mode command and a fast speed playback mode command.
  • the program execution unit 104 is realized by the CPU 1, the drawing processor 10, the audio processor 11, the I / O processor 12, and the like.
  • the program execution unit 104 includes a reproduction condition determination unit 111 and a sound reproduction unit 112.
  • the playback condition determining unit 1 1 1 is mainly realized by a processor 1 2, etc., and operates at a speed corresponding to the audio playback speed mode instruction command received by the operating unit 103.
  • the reproduction frequencies of the 1x speed audio data a1 and the 2x speed audio data a2 are set in the audio reproduction unit 1 12 so that the 1x and 2x speed audio data a2 are reproduced synchronously.
  • the volume of the 1x speed audio data a1 and the 2x speed audio data a2 is set in the audio playback unit 112 so that the user can listen to only one of them.
  • the audio reproduction unit 1 12 is mainly realized by the audio processor 11 or the like, and reproduces the 1 ⁇ speed audio data a 1 and the 2 ⁇ speed audio data a 2 at the reproduction frequency and volume set by the reproduction condition determination unit 1 11. Synchronize to enable output.
  • the audio reproduction unit 112 reproduces the 1x speed audio data a1 and the 2x speed audio data a2 in association with the playback position, and puts them in a state where they can be output.
  • the audio playback unit 1 1 2 performs the 1x speed audio data a 1 so that the user can listen to only one of the 1x speed audio and the 2x speed audio corresponding to the audio playback speed mode instruction command. And the volume of 2x speed audio data a2 is set. This allows the user to hear only one voice. '
  • the program storage unit 105 is realized by a recording medium drive 16 or the like in which a computer-readable recording medium 300 is loaded, and the recording medium 300 stores a video game program including an audio reproduction program.
  • the main memory 5 functions as the program storage unit 105.
  • Figure 3 shows a 1x speed audio signal A1 reproduced at standard speed using 1x speed audio data a1, and a 2x speed audio signal reproduced at a fast speed using 2x speed audio data a2.
  • FIG. 6 is a waveform chart showing A2.
  • the vertical axis represents amplitude
  • the horizontal axis represents time.
  • the 1x speed audio data a1 is audio data that records audio to be heard by the user as standard speed audio.For example, audio that is actually uttered by a real person such as a narrator who provides explanations on video games is recorded as it is. The audio data can be used.
  • the 2x speed audio data a2 is used to perform pitch conversion processing on the 1x speed audio data a1 so that natural sound can be reproduced at the same pitch as the standard speed when played at the fast listening speed. This is audio data that has been subjected to audio conversion processing.
  • the 2x speed audio data a2 is created in advance by editing the 1x speed audio data a1 so that it will be played back at the same pitch as the 1x speed audio data a1 when played at the fast speed.
  • Audio data such as “Peak”, which is waveform editing software from Berkley Integrated Au Dio S of wear.
  • the 1x speed audio data a1 is generated by halving the playback time while maintaining the pitch by using a function called "Change Duration".
  • the above-mentioned double speed audio data a2 can also be generated by using " ⁇ im Compression / Expansion" in "Prototype 1 ssoft we re" of id Technology.
  • the 2x speed audio data is not limited to the above, and the same words as the 1x speed audio data may be separately recorded at an earlier time, or the same music may be played earlier and separately recorded.
  • the 1x speed audio signal A1 has a waveform shown in the upper part of FIG.
  • the double-speed audio signal A2 when the double-speed audio data a2 representing the same content as the 1x-speed audio data a1 is reproduced at the fast-earning speed, the double-speed audio signal A2 has the waveform shown in the lower part of FIG. It has a waveform as if the 1x speed audio signal A1 was compressed by half on the time axis.
  • the playback time X2 when the 2x speed audio data a2 is played at the fast speed is half the playback time X1 when the 1x speed audio data a1 is played at the standard speed.
  • the pitch conversion processing and the like have been performed, the pitch does not change, and it is possible to reproduce a sound that is very easy to hear, as well as the sound of the 1x speed audio signal A1.
  • FIG. 4 is a flowchart illustrating an example of a sound reproduction process performed by the video game device illustrated in FIG.
  • step 1 the reproduction condition determination unit 111 reads the 1 ⁇ speed audio data a 1 and the 2 ⁇ speed audio data a 2 stored in the recording medium 300 and stores them in the storage unit 102.
  • the playback condition determination unit 111 determines the playback frequency and volume of the 1x speed audio data a 1 and 2x speed audio data a 2 based on the audio playback speed mode instruction command.
  • the audio playback speed The command instruction command is an audio reproduction speed mode instruction command at the time of a predetermined initial setting or an audio reproduction speed mode instruction command already set by the user using the operation unit 103.
  • the reproduction condition determination unit 111 sets the reproduction frequency and volume of the 1x speed audio data a 1 to 1 Set the same playback frequency and standard volume as the fundamental frequency of the double-speed audio data a1 (for example, the middle amount of the volume adjustment range), and set the playback frequency and volume of the double-speed audio data a2 for the double-speed audio data.
  • Set the playback frequency to half the basic frequency of audio data a2 and no volume (volume 0).
  • the fundamental frequency is a reproduction frequency when each of the audio data a1 and a2 is reproduced without adjusting the reproduction frequency to change the reproduction speed.
  • the playback condition determining unit 111 sets the playback frequency and volume of the 1x speed audio data a 1 to 1x speed.
  • the reproduction frequency and volume of the double frequency audio data a2 are set to the same reproduction frequency and standard as the double frequency audio data Set to volume.
  • the audio reproduction unit 112 reads the 1x speed audio data a1 and the 2x speed audio data a2 from the storage unit 102, and sets the reproduction frequency and the reproduction frequency set in step S2.
  • the 1x speed audio data a1 and the 2x speed audio data a2 are reproduced in volume, and the audio output unit 101 outputs the reproduced audio.
  • the audio playback unit 112 plays back the 1x speed audio data a1 at the same playback frequency and the standard volume as the fundamental frequency of the 1x speed audio data a1, and
  • the 2x speed audio data a2 is played back at half the fundamental frequency of the 2x speed audio data a2 at a playback frequency and no volume, and the audio output unit 101 uses the 1x speed audio data a1. Outputs only the reproduced 1x speed audio.
  • the audio playback unit 112 plays back the 1x speed audio data a 1 at a playback frequency twice as high as the fundamental frequency of the 1x speed audio data a 1 and no volume.
  • the double-speed audio data a2 is reproduced at the same playback frequency and standard volume as the fundamental frequency of the double-speed audio data a2, and the audio output unit 101 outputs the double-speed audio data a2. Outputs only 2x speed audio reproduced using data a2.
  • FIG. 5 is a schematic diagram for explaining sounds reproduced in the standard speed reproduction mode and the fast speed reproduction mode.
  • 1 as an example of a speed for speech data a 1, audio data 1 speed for outputting the sound "hello” from the audio data A l ⁇ J 1 for normal speed
  • the sound “ko” is output
  • the 1x speed audio data C l and D 1 are played
  • the sound “n” is output.
  • the 1x speed audio data El and F1 are reproduced
  • the sound "ni” is output.
  • the 1x speed audio data Gl and HI is reproduced
  • the sound “chi” is output and the 1x speed.
  • the audio data I 1 and J 1 are reproduced, the audio “wa” is output.
  • double speed audio data for the double speed audio data A 2 ⁇ E 2 outputs sound “hello” is configured, double-speed audio data A 2
  • the sound “" is output
  • the sound data B2 is played
  • the sound “n” is output
  • the 2x speed sound data C2 is played
  • the sound “” is output.
  • the sound “chi” is output when the 2 ⁇ speed audio data D 2 is reproduced
  • the sound “wa” is output when the 2 ⁇ speed audio data E 2 is generated.
  • the 1x speed audio data A 1 to J 1 are reproduced at a playback period t 1 (reciprocal of the fundamental frequency of the 1x audio data a 1). are sequentially reproduced, the sound “hello” is output in and standard volume level the normal interval at the reproduction time T 1.
  • the double-speed audio data A2 to E2 are synchronized at a reproduction cycle of 2 Xt1 (reciprocal of half the fundamental frequency of the double-speed audio data a2). are sequentially playback, voice "Hello” is output in a free and volume one octave lower pitch than the normal pitch at playback time T 1.
  • the 1x speed audio data A1 to J1 and the 2x speed audio data A2 to E2 are reproduced in synchronization, but the 2x speed audio data A2 to E2
  • the 2x-speed sound played at a pitch one octave lower than that of 2x is output at no volume, so that it cannot be heard by the user, and the 1x-speed audio data A 1 to J1 The user can hear only the sound of the pitch at a normal speed.
  • the double-speed audio data A2 to E2 have the reproduction cycle t1 (the inverse of the fundamental frequency of the double-speed audio data a2). are sequentially reproduced in a few), the voice "Hello” is outputted on whether one standard volume at normal pitch in the reproduction time T 1 Z 2.
  • the 1x speed audio data A1 to J1 are synchronized at the playback period t1 / 2 (reciprocal of twice the fundamental frequency of the 1x speed audio data a1). are sequentially reproduced Te, voice "Hello” is output at a and free volume one octave higher pitch than the normal pitch playback time T 1/2.
  • the 1x speed audio data A1 to J1 and the 2x speed audio data A2 to E2 are reproduced synchronously, but the 1x speed audio data A1 to J1 are output. Since the sound that is one octave higher due to 2 is output at no volume, it cannot be heard by the user, and the user can hear only the sound at the normal pitch based on the double-speed sound data A2 to E2 at double speed.
  • step S4 the audio reproduction unit 112 performs a synchronous correction process described later.
  • This synchronous correction processing is set in step S2 when the reproduction timing (reproduction position) of the 1x speed audio data a1 and the 2x speed audio data a2, which should be reproduced in synchronization, is shifted.
  • This is a process for correcting the playback frequency and synchronizing the playback timings of the 1x speed audio data a1 and the 2x speed audio data a2 again.
  • FIG. 6 is a flowchart showing an example of the synchronous correction processing shown in FIG.
  • the audio reproduction unit 112 determines whether or not the reproduction timing of the 1x speed audio data a1 and the 2x speed audio data a2 is shifted. If it is not determined that the reproduction timing is not shifted (NO in step S11), the sound reproducing unit 112 sets the 1x speed audio data a1 and 2x speed set in step S2. The process returns to step 5 shown in FIG. 4 without changing the reproduction frequency of the audio data for a2.
  • step S12 the audio reproduction unit 112 transmits the 1x speed audio data a1 and the 2x speed audio data. a If the audio data whose playback position is ahead of It is determined whether or not the force is output at the volume (S12).
  • step S13 the audio reproducing unit 112 has a delayed reproduction position. Change the playback frequency of the delayed audio data to be higher than the preset playback frequency so that the audio data (audio data output at no volume) catches up with the preceding audio data. Return to step 5 shown.
  • the audio playback unit 1 1 2 adjusts the playback frequency of the preceding audio data so that the preceding audio data (audio data output at no volume) matches the delayed audio data. Is changed to be lower than the preset reproduction frequency, and the process returns to step 5 shown in FIG.
  • step S 2 If the playback timing of 1x speed audio data a 1 and 2x speed audio data a 2, which should be played back synchronously, is shifted by the above synchronization correction process, the playback frequency set in step S 2 is corrected. Thus, the reproduction timing of the 1x speed audio data a1 and the 2x speed audio data a2 can be synchronized again.
  • the synchronization correction processing is performed by changing the reproduction frequency.
  • the present invention is not particularly limited to this example.
  • step S13 the reproduction position of the delayed audio data precedes.
  • the playback position of the delayed audio data is changed so as to match the playback position of the audio data
  • step S 14 the playback position of the preceding audio data is delayed.
  • the playback position of the preceding audio data may be changed so as to match the position.
  • step S5 the reproduction condition determining unit 111 stores the unreproduced 1 ⁇ speed audio data a 1 and the 2 ⁇ speed audio data a 2 in the storage unit 102. Determine if it exists. If it is determined that the 1x speed audio data a1 and the 2x speed audio data a2 that are not reproduced do not exist (NO in step S5), the audio reproduction process ends.
  • step S6 determines whether or not the operation unit 103 has newly received a voice reproduction speed mode instruction command from the user. If it is determined that the voice playback speed mode instruction command has not been newly received (NO in step S6), the process returns to step S3 to continue the subsequent processing.
  • step 7 the playback condition determination unit 111 determines that the received voice playback speed mode instruction command has been responded to.
  • the playback frequency and volume are set in the audio playback unit 112, and then the process returns to step S3 to continue the subsequent processing.
  • the playback frequency and volume of the 1x speed audio data a1 and ⁇ 2x speed audio data a2 are changed to the playback frequency and volume according to the audio playback speed mode.
  • the playback condition determination unit 111 sets the playback frequency and volume of the 1x speed audio data a 1 in the audio playback unit 112 to 1x speed.
  • the playback frequency and the standard volume are the same as the fundamental frequency of the audio data for a1 and the playback frequency is twice the fundamental frequency of the audio data for the 1x speed a1 and the volume is not changed.
  • the reproduction condition determination unit 111 sets the reproduction frequency and volume of the double speed audio data a 2 in the audio reproduction unit 112 to a reproduction frequency half the fundamental frequency of the double speed audio data a 2 and a non-volume.
  • the same playback frequency and standard volume as the fundamental frequency of 2x speed audio data a2.
  • the playback condition determination unit 111 determines the playback frequency and volume of the 1x speed audio data a 1 in the audio playback unit 112. The playback frequency and the standard sound volume are changed from the reproduction frequency and the non-volume of twice the fundamental frequency of the 1x audio data a1 to the same as the fundamental frequency of the 1x audio data a1. Then, the reproduction condition determination unit 111 sets the reproduction frequency and volume of the double-speed audio data a 2 in the audio reproduction unit 112 from the same reproduction frequency and standard volume as the fundamental frequency of the double-speed audio data a 2. Change the playback frequency to half of the fundamental frequency of 2x speed audio data a2 and to no volume. As a result, the 2x speed sound is If the audio playback speed mode is changed during the output of, the 1x speed audio will be output at the standard speed without changing the pitch.
  • the double speed audio data a2 which is the audio data for the fast-earning speed
  • the double-speed audio data is stored in the fast-earning speed playback mode.
  • Audio data a2 is reproduced and output. This makes it possible to naturally reproduce the fast-earning sound that can be heard by the user without making the pitch one octave higher than the normal sound.
  • the 1x speed audio data a1 and the 2x speed audio data a2 are always reproduced in synchronization. For this reason, the user can listen to the sound reproduced at the desired speed without feeling uncomfortable by switching the sound reproduction speed mode even while the standard sound or the fast sound is being output. As a result, the user can reproduce the voice that he does not want to hear at double speed, and can reproduce only the voice that he wants to hear at a constant speed.
  • the following describes a method for synchronously playing two audio data with different playback speeds. For example, both audio data are played so that the ratio of the played time to the total playback time of each audio data is the same for both audio data, or the ratio of the played time of both audio data to the total playback time is compared. By reproducing both audio data, two audio data having different reproduction speeds can be synchronously reproduced.
  • both audio data can be played back so that the ratio of the remaining playback time (the time obtained by subtracting the playback time from the total playback time) to the total playback time of each audio data is the same for both audio data.
  • a predetermined check flag that can be distinguished from the voice data is used by using voice data with check flags inserted in both voice data.
  • Check both audio data By reproducing both audio data by comparing the reproduction timings of the lags, it is also possible to synchronously reproduce two audio data having different reproduction speeds.
  • the present invention can be similarly applied to audio data of various reproduction speeds.
  • 1Z for slow reproduction can be used instead of or in addition to the double speed audio data.
  • F-speed audio data for F-speed playback F is a real number
  • the F-speed audio data as described above is used as it is for the F-fold speed reproduction, but the present invention is not necessarily limited to this, and the F-fold speed approximation to the F-fold speed, for example, 0.8 XF to 1 Double speed voice data may be used for double speed.
  • the reproduction frequency is set to the value determined by the reproduction frequency X F ⁇ F 1 of the F-speed audio data.
  • FIG. 7 is a function block diagram showing main functions of the video game device according to the second embodiment of the present invention.
  • portions having the same functions as those of the video game device shown in FIG. 2 are denoted by the same reference numerals, and detailed description thereof will be omitted. Will be described.
  • the video game device shown in FIG. 7 further includes a display unit 106 for displaying characters
  • the program execution unit 104 a further includes a character display control unit 113
  • a storage unit 102 a Stores character data a 3 further.
  • the character display control unit 113 generates a character to be displayed in the display unit 106 based on the character data a3 stored in the storage unit 102, and generates the generated character as described above for the 1 ⁇ speed voice. And display on the display unit 106 in synchronization with the reproduction of the double speed audio.
  • FIG. 7 reproduces the sound stored in the recording medium 300a.
  • a description will be given of a sound reproduction process realized by executing a raw program.
  • FIG. 8 is a flowchart illustrating an example of a sound reproducing process performed by the video game device illustrated in FIG. Note that, among the steps in the flowchart shown in FIG. 8, the steps in which the same processing as the steps in the flowchart shown in FIG. 4 are executed will be assigned the same reference numerals and detailed description thereof will be omitted.
  • the reproduction condition determination unit 111 transmits the 1 ⁇ speed audio data a 1 and the 2 ⁇ speed audio data a 2 stored in the recording medium 300 a from the recording medium 300 a.
  • the data is stored in the read storage unit 102a.
  • the character display control unit 113 also stores the character data a 3 corresponding to the 1 ⁇ speed audio data a 1 and the 2 ⁇ speed audio data a 2 read by the playback condition determination unit 111 into the recording medium 3.
  • the character data a3 is data for drawing a character string describing a sound to be reproduced using the 1x speed audio data a1 and the 2x speed audio data a2.
  • the 1 ⁇ speed audio data a 1, the 2 ⁇ speed audio data a 2, and the character data a 3 are composed of data in which one phrase is one unit.
  • step S22 the character display control unit 113 is executed by the character display control unit 113 in step S3. Divide the playback time of double-speed audio data a1 or double-speed audio data a2 by the number of characters included in one phrase to calculate the drawing time per character.
  • step 23 the character display control unit 113 reads the character data a3 from the storage unit 102a, and sequentially displays the characters in accordance with the drawing time calculated in step S22. 0 is displayed on 6. After that, as in the first embodiment, the processes in steps S4 to S7 are executed, and the process returns to step S3 to continue the processes.
  • the character drawn using the character data a3 is at least one of the audio output using the 1x speed audio data a1 and the 2x speed audio data a2. They are displayed sequentially in synchronization with one. As a result, the voice output and the character display can be synchronized, and the user can receive information both visually and audibly.
  • the drawing time per character was calculated.
  • the present invention is not limited to this example, and the number of characters constituting one segment may be changed to 1 ⁇ speed audio data a 1 or 2 ⁇ speed corresponding to one segment.
  • the number of characters to be drawn per unit time is obtained by dividing by the reproduction time of the audio data for a2, and the characters are drawn in a predetermined direction according to the drawing speed, for example, from left to right or from top to bottom. You may do so.
  • a reproduction time table or an audio data amount table described below may be created in advance and stored in the storage unit 102a in advance, and characters may be synchronized with audio and displayed using these tables. Good.
  • FIG. 9 is a schematic diagram showing an example of the data structure of the reproduction time table.
  • the shown to play time table 1 3 1 9, 1 segment ( "hello.") Playback time for the standard rate for each character in the data a 3 constituting the Q 1 to Q 6 (sec) Is set and stored.
  • the character display control unit 113 refers to the reproduction time table 1331 stored in the storage unit 102a. Then, when the 1x speed audio data a 1 corresponding to the character “ko” is being reproduced at the playback time Q 1, the character display control unit 113 can generate the character data a 3 corresponding to the character “ko”.
  • the character “ko” is displayed on the display unit 106 during the reproduction time Q1.
  • the character display control unit 113 converts the characters “n”, “ni”, “chi”, “ha”, and “.” Into the reproduction times Q2, Q3, Q4, Q5, Q During the period 6, the display is made on the display unit 106 sequentially.
  • the character display control unit 113 sets the playback time Q 1 to Q 6 to half, and converts each character in the same manner as described above. The information is sequentially displayed on the display unit 106.
  • the playback time table is set based on the playback time at the standard speed.
  • the present invention is not particularly limited to this example, and the playback time table may be set based on the playback time at the fast speed.
  • the reproduction time table may be set based on the reproduction time for each of the standard speed and the fast-read speed.
  • characters may be drawn in a predetermined direction, for example, from left to right or from top to bottom, according to the drawing speed that can be displayed within each playback time.
  • FIG. 10 is a schematic diagram showing an example of the data structure of the audio data amount table.
  • Audio data quantity table 1 4 1 1 0 constitute one segment ( "hello.")
  • the audio data amount R1 to R6 (bits) of the 1x speed audio data a1 corresponding to each character of the character data a3 is stored.
  • the character display control unit 113 refers to the audio data amount table 141 stored in the storage unit 102a. Then, if the voice data amount of the 1x speed voice data a 1 currently reproduced is within the voice data amount R 1, the character display control unit 113 uses the character data a 3 corresponding to the character “ko”. As a result, the character "" is displayed on the display unit 106.
  • the character display control unit 113 compares the audio data amount of the currently reproduced 1x speed audio data a1 with the audio data amounts R2, R3, R4, R5, and R6. Are displayed on the display unit 106 in order, the characters "n J,”"ni,””chi,””ha,” and ".”
  • the character display control unit 113 converts the audio data amounts R1 to R6 into the audio data amount of the double speed audio data a2, and performs the same operation as described above. Each character is sequentially displayed on the display unit 106.
  • the audio data amount table is set based on the audio data amount of the 1x speed audio data a1, but is not particularly limited to this example, and the audio data of the 2x speed audio data a2 is set.
  • the audio data amount table may be set based on the amount, or the audio data amount table may be set based on the audio data amount for each audio data.
  • characters may be drawn in a predetermined direction, for example, from left to right or from top to bottom, according to the drawing speed that can be displayed within the reproduction time corresponding to each audio data amount. Good.
  • FIG. 11 is a block diagram showing a configuration of an audio playback device according to the third embodiment of the present invention.
  • the audio reproducing apparatus according to the present embodiment corresponds to, for example, a CD (Compact D isc) player, an MD (Mini-Disc) player, a DVD (Digital Versatile D isc) player, and the like. As a result, the audio reproduction processing is executed by the hardware.
  • the audio reproduction device shown in FIG. 11 includes an operation unit 201, a reproduction condition determination unit 202, a storage unit 203, an audio reproduction unit 204, an audio selection unit 205, and a speed 206.
  • the storage unit 203 includes a storage medium drive such as a CD, and the like.
  • the 1x speed audio data a1 and the 2x speed audio data a2 stored in the storage medium are output to the audio reproducing section 204.
  • the operation unit 203 receives an audio playback speed mode instruction command from the user. Note that the audio playback speed mode instruction command is the same as in the first embodiment.
  • the data format of the 1x speed audio data a1 and the 2x speed audio data a2 is not particularly limited.For example, the 1x speed audio data a1 and the 2x speed audio data a2 shown in Fig. 3 are used. be able to. ''
  • the playback condition determination unit 202 synchronizes the 1x speed audio data a1 and the 2x speed audio data a2 at the speed corresponding to the audio playback speed mode instruction command received by the operation unit 201.
  • the reproduction frequency of the 1x speed audio data a1 and the 2x speed audio data a2 is set in the audio reproduction unit 204 so that the audio data is reproduced.
  • the playback condition determination unit 202 also controls the audio selection unit 205 so that the user can listen to only one of the 1x speed audio and the 2x speed audio in accordance with the audio playback speed mode instruction command. Control.
  • the audio playback unit 204 reproduces the 1x speed audio data a1 and 2x speed audio data a2 in synchronization with the playback frequency set by the playback condition determination unit 202, and outputs a 1x speed audio signal. And outputs the double speed audio signal to the audio selection unit 205.
  • the audio selection unit 205 outputs one of the 1x speed audio signal and the 2x speed audio signal to the speaker 206 in accordance with the instruction of the reproduction condition determination unit 202.
  • the speaker 6 outputs a sound corresponding to the input sound signal.
  • the audio playback unit 204 stores the 1x speed audio data a1 and the 2x speed audio data a2. It reads from the unit 203 and plays back the 1x speed audio data a1 sequentially at the same playback frequency as the fundamental frequency of the 1x speed audio data a1, and outputs a 1x speed audio signal at the standard speed. Then, the audio reproduction unit 204 sequentially reproduces the 2x-speed audio data a 2 in synchronization with the 1x-speed audio data a 1 at half the reproduction frequency of the 2x-speed audio data a 2, and performs standard playback. 2x speed audio signal is output. At this time, the audio selection unit 205 outputs only the 1x speed audio signal to the speaker 206, and the user can hear only the normal pitch sound from the 1x speed audio data a1 at the standard speed. Can be.
  • the voice reproduction unit 204 reads the 1x speed audio data a 1 and the 2x speed audio data a 2 from the storage unit 203, and converts the 2x speed audio data a 2 to the same 2x speed audio data a 2 Plays back sequentially at the playback frequency and outputs the audio signal for double speed of the fast listening speed. Then, the audio reproducing unit 204 sequentially reproduces the 1 ⁇ speed audio data a 1 at a reproduction frequency twice that of the 1 ⁇ speed audio data a 1 in synchronization with the 2 ⁇ speed audio data a 2 to perform the 2 ⁇ speed. The 1x speed audio signal is output. At this time, the audio selection unit 205 outputs only the 2x-speed audio signal to the speaker 206, and the user can hear only the normal pitch sound of the 2x-speed audio data a2 at the 2x speed. Can be.
  • the 1x speed audio data and the 2x speed audio data have been described as data for reproducing audio.
  • the present invention is not particularly limited to this example, and audio for reproducing music is not limited to this example.
  • the present invention can be similarly applied to data and the like.
  • the case where the 1x speed audio data and the 2x speed audio data are stored in a recording medium or the like in advance has been described.
  • the present invention is not limited to this example. It may be distributed by the network distribution that was used. Industrial applicability
  • the reproduction speed when the reproduction speed is changed, audio processing such as creation of audio data corresponding to the reproduction speed becomes unnecessary, so that the reproduction speed can be instantaneously switched without any discomfort.
  • audio data corresponding to the playback speed can be created with sufficient processing time in advance, it is possible to output natural audio with no change in pitch or the like when the playback speed is changed.
  • audio can be output using audio data created in advance according to each reproduction speed. At this time, the same audio can be output even if the audio playback speed is switched. Also, audio processing such as creating the second audio data from the first audio data becomes unnecessary, and when played back at the second playback speed, natural sound with no change in pitch or the like is obtained using the second audio data. Sound can be reproduced. For these reasons, the audio playback speed can be switched without discomfort without imposing an excessive burden on hardware such as the CPU.
  • the processing capacity of the CPU can be sufficiently allocated to complicated image processing, and thus various playback speeds can be obtained. Various images can be displayed in real time while reproducing natural sound.
  • the user can listen to the sound at a desired reproduction speed, and can switch to the other sound during the output of one sound. At this time, even if the sound is switched during the output of the sound, the pitch and the like do not change between the sound output in the first sound speed mode and the sound output in the second sound speed mode. It can reproduce natural sounds that are easy to listen to before and after switching.
  • the user can hear a natural sound at a desired speed out of the standard speed and the high speed. You can play back the voice you do not want to hear at high speed and skip it, or you can listen to the voice at high speed when there is no time, etc. You can hear the voice in various usages.
  • the synchronization processing of the first and second audio data can be performed without adding data dedicated to synchronization processing such as a check flag to the first and second audio data. it can.
  • data dedicated to synchronization processing such as a check flag
  • the data amount of the audio data can be suppressed to the minimum necessary, and the audio data of various formats can be directly used as the first and second audio data without processing.
  • the first and second audio data can be reproduced in synchronization with high precision at predetermined intervals of the reproduced audio, so that the reproduced audio can be reproduced.
  • the two voices can be synchronized and reproduced with high precision while being easy to hear.
  • the seventh aspect of the present invention it is possible to detect the out-of-sync without affecting the output sound, so that a natural sound that is easy to hear without a sense of incongruity before and after switching is stabilized. And can be played.
  • characters can be displayed on the display screen in synchronization with the sound being reproduced, the characters can be visually and audibly transmitted to the user. It is possible to perform an easy-to-understand production.
  • the character and the voice can be synchronized without adding data dedicated to the synchronization processing such as a check flag to the character data.
  • data dedicated to the synchronization processing such as a check flag to the character data.
  • character data in various formats can be directly used as character data without processing.
  • the synchronization processing between the character and the voice can be performed without adding data dedicated to the synchronization processing such as a check flag to the character data.
  • the amount of data can be reduced to the minimum necessary, and character data in various formats can be used as it is.
  • audio processing such as creation of audio data corresponding to the reproduction speed when the reproduction speed is changed becomes unnecessary, and the audio reproduction speed is instantly changed without any uncomfortable feeling. be able to.
  • audio data corresponding to the playback speed can be created with sufficient processing time in advance. From these facts, when changing the playback speed, hardware such as CPU can output natural sound with no change in pitch or the like with a relatively small processing load.
  • audio processing such as creation of audio data corresponding to the playback speed becomes unnecessary, and the audio playback speed is instantaneously changed without any uncomfortable feeling. be able to.
  • audio data corresponding to the playback speed can be created with sufficient processing time in advance. From these facts, when the playback speed is changed, the hardware such as the CPU can output a natural sound with no change in pitch or the like with a relatively small processing load.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Input Circuits Of Receivers And Coupling Of Receivers And Audio Equipment (AREA)
  • Signal Processing Not Specific To The Method Of Recording And Reproducing (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

音声データを用いて音声を再生するための音声再生プログラムであって、所定の音声を複数の異なる再生速度で再生するために予め準備され、各再生速度に対応する複数の各音声データa1,a2を記憶する音声記憶手段102と、音声データa1,a2を出力可能な状態にする再生手段112と、前記各再生速度のうちいずれかの速度で音声を出力する場合に、該再生速度に対応する音声データによる音声を出力する音声出力手段101としてコンピュータを機能させる。

Description

音声再生プログラム、 音声再生方法及び音声再生装置 技術分野
本発明は、 音声データを用いて音声を再生するための音声再生プログラム、 音 声再生方法及び音声再生装置に関する。
背景技術
従来の音声再生装置としては、 例えば、 カ書セットテープレコーダ等があり、 力 セットテープレコーダ等のアナログ音声を再生する機器では、 カセットテープ等 の記録媒体を所定速度 (記録時の速度) で駆動して、 カセットテープに記録され た音声信号を再生することによって、 標準速度 (1倍速) で音声を再生する。 ま た、 上記のカセットテープの駆動速度を変化させて、 標準速度より速い速度や遅 い速度で音声を再生することも行われている。
一方、 上記のようなアナログ音声ではなく、 デジタル音声を再生する機器とし て、 C Dプレイヤ、 D V Dプレイヤ等があり、 これらの機器では、 C D等に記録 された音声データを所定の再生周波数で再生することによって、 標準速度で音声 を再生することができ、 また、 再生周波数を変化させることによって、 標準速度 より速い速度や遅い速度で音声を再生することもできる。 また、 C D、 D V D等 のコンピュータ読み取り可能な記録媒体を用レヽる家庭用ビデオゲーム機等のビデ ォゲーム装置も、 上記の C Dドライブ等の再生原理と同様の再生原理を用い、 標 準速度、 該速度より速い速度又は遅い速度でデジタル音声を再生している。
しかしながら、 従来の音声再生装置では、 標準速度で記録されているアナログ 音声又はデジタル音声を標準速度以外の速度で再生する場合、 再生される音声の 周波数が元の音声の周波数である基本周波数と相違することとなる。 例えば、 標 準速度に対して 2倍速い速度である早聞速度で音声を再生すると、 早聞速度で再 生された音声は上記の基本周波数の倍になってしまう。 ゆえに、 音声の音程が通 常の音声より 1オクターブ高くなつてしまい、 ユーザにとって聞きづらかったり、 又は聞き取れない場合があつた。
このため、 再生速度の切り替えによる音声の周波数の変動をアナログ信号処理 によって、 基本周波数と同じ再生周波数で、 かつ早聞速度で再生される音声とな るように修正することが行われているが、 自然な音声に修正することは困難であ つた。 また、 ソフトウェア等を用いたデジタル処理によってより自然な音声に修 正することも行われているが、 C P U (中央演算処理装置) 等の処理能力によつ ては、 視聴者であるユーザの操作に瞬時に応答して違和感なく再生速度を切り替 えることはできなかった。 特に、 音声処理だけでなく、 画像処理を主体とするビ デォゲーム装置では、 複雑な画像処理に C P Uの処理能力を配分する必要があり、 視聴者であるユーザの操作に瞬時に応答して違和感なく再生速度を切り替えるこ とはできなかった。 発明の開示
本発明は、 上記の課題を解決するためになされたもので、 C P U等のハードウ エアに過度な負担をかけることなく、 音声の再生速度を瞬時に違和感なく切り替 えることができるとともに、 より自然な音声を切り替え前後ともに出力すること ができる音声再生プログラム、 音声再生方法及び音声再生装置を提供することを 目的とするものである。
請求項 1に記載の本発明は、 音声データを用いて音声を再生するための音声再 生プログラムであって、
所定の音声を複数の異なる再生速度で再生するために予め準備され、 各再生速 度にそれぞれ対応する複数の音声データを記憶する音声記憶手段と、
前記音声データを出力可能な状態にする再生手段と、
前記各再生速度のうちいずれかの速度で音声を出力する場合に、 該再生速度に 対応する音声データによる音声を出力する音声出力手段としてコンピュータを機 能させることを特徴とする。
請求項 1に記載の本発明に従えば、 音声データを用いて音声を再生するための 音声再生プログラムであって、 音声再生プログラムは、 所定の音声を複数の異な る再生速度で再生するために予め準備され各再生速度にそれぞれ対応する複数の 音声データを記憶する音声記憶手段と、 音声データを出力可能な状態にする再生 手段と、 各再生速度のうちいずれかの速度で音声を出力する場合に再生速度に対 応する音声データによる音声を出力する音声出力手段としてコンピュータを機能 させる。
すなわち、 .音声記憶手段は、 所定の音声を複数の異なる再生速度で再生するた めに予め準備され、 各再生速度にそれぞれ対応する複数の音声データが記憶され る。 音声出力手段は、 各再生速度のうちいずれかの速度で音声を出力する場合に、 該再生速度に対応する音声データによる音声が再生され出力される。 これにより、 再生速度変更時に、 異なる再生速度に対応する音声データを作成する等の音声処 理が不要になる。
請求項 2に記載の本発明は、 前記音声記憶手段は、 所定の音声を第 1の再生速 度で再生するために予め準備された第 1の音声データと、 前記所定の音声を前記 第 1の再生速度と異なる第 2の再生速度で再生するために予め準備された第 2の 音声データとを記憶し
前記再生手段は、 前記音声記憶手段から読み出した第 1及び第 2の音声データ の再生位置を対応付けて第 1及び第 2の音声データを再生し、 前記第 1及び第 2 の音声データによる音声を出力可能な状態にし、
前記音声出力手段は、 前記第 1の再生速度で音声を出力する場合に前記再生手 段によって再生されている第 1の音声データによる第 1の音声を出力し、 前記第 2の再生速度で音声を出力する場合に前記再生手段によって再生されている前記 第 2の音声データによる第 2の音声を出力することを特徴とする。
請求項 2に記載の発明に従えば、 音声記憶手段は、 所定の音声を第 1の再生速 度で再生するために予め準備された第 1の音声データと、 前記所定の音声を第 1 の再生速度と異なる第 2の再生速度で再生するために予め準備された第 2の音声 データとを記憶する。 再生手段は、 音声記憶手段から読み出した第 1及ぴ第 2の 音声データの再生位置を対応付けて第 1及び第 2の音声データを再生し、 第 1及 ぴ第 2の音声データによる音声を出力可能な状態にする。 音声出力手段は、 第 1 の再生速度で音声を出力する場合に再生手段によって再生されている第 1の音声 データによる第 1の音声を出力し、 第 2の再生速度で音声を出力する場合に再生 手段によって再生されている第 2の音声データによる第 2の音声を出力する。 すなわち、 第 1の再生速度で音声を出力する場合には、 第 1の再生速度で再生 するために予め準備された第 1の音声データを再生した第 1の音声が、 再生手段 により出力される。 第 2の再生速度で音声を出力する場合には、 第 2の再生速度 で再生するために予め準備された第 2の音声データを再生した第 2の音声が、 再 生手段により出力される。 ゆえに、 第 2の再生速度で音声を出力する場合には、 第 2の音声データは第 2の再生速度で再生するために予め準備されているので、 第 1の音声データの基本周波数を変更して第 2の音声データを作成する等の音声 処理が不要になる。
また、 所定の音声を第 1の再生速度で再生するために予め準備された第 1の音 • 声データと、 所定の音声を第 1の再生速度と異なる第 2の再生速度で再生するた めに予め準備された第 2の音声データとが同期して再生されるので、 音声の再生 速度を切り替えても、 同じ所定の音声 (同じ内容の音声) を出力することができ る。
請求項 3に記載の本発明は、 前記音声出力手段による音声の出力を前記第 1の 再生速度で再生するための第 1の再生速度モードと、 前記音声出力手段による音 声の出力を前記第 2の再生速度で再生するための第 2の再生速度モードとのいず れか一方をユーザが選択する操作を受け付ける操作手段として前記コンピュータ をさらに機能させ、
前記音声出力手段は、 前記操作手段によって受け付けられた再生速度モードに 応じて前記第 1及び第 2の音声データによる音声のうちのいずれか一方を出力す ることを特徴とする。
請求項 3に記載の本発明に従えば、 操作手段は、 音声出力手段による音声の出 力を第 1の再生速度で再生するための第 1の再生速度モードと音声出力手段によ る音声の出力を第 2の再生速度で再生するための第 2の再生速度モードとのいず れか一方をユーザが選択したときの操作を受け付ける。 音声出力手段は、 操作手 段によって受け付けられた再生速度モードに応じて、 第 1及び第 2の音声データ による音声のうちのいずれか一方を出力する。
すなわち、 ユーザが第 1の音声速度モードと第 2の音声速度モードとのいずれ か一方を選択したときの操作が操作手段に受け付けられ、 操作手段に受け付けら れた再生速度モードに応じて第 1及び第 2の音声のうちの一方が音声出力手段に より出力される。 これにより、 ユーザは、 所望の再生速度で音声を聞くことがで きるとともに、 一方の音声の出力途中で他方の音声に切り替えることができる。 請求項 4に記載の本発明は、 前記音声記憶手段は、 前記第 1の音声データとし て、 所定の音声を標準速度で再生するために予め準備された通常音声データを記 憶するとともに、 前記第 2の音声データとして、 前記通常音声データを用いて再 生される音声と同じ音声を標準速度より速レ、再生速度で再生するために予め準備 された高速音声データを記憶し、
前記音声出力手段は、 標準速度で音声を出力する場合に前記通常音声データに よる標準速度の音声を出力し、 高速で音声を出力する場合に前記高速音声データ による高速の音声を出力することを特徴とする。
請求項 4に記載の本発明に従えば、 音声記憶手段は、 第 1の音声データとして、 所定の音声を標準速度で再生するために予め準備された通常音声データを記憶す るとともに、 第 2の音声データとして、 通常音声データを用いて再生される音声 と同じ音声を標準速度より速い再生速度で再生するために予め準備された高速音 声データを記憶する。 このとき、 音声出力手段は、 標準速度で音声を出力する場 合に通常音声データによる標準速度の音声を出力し、 高速で音声を出力する場合 に高速音声データによる高速の音声を出力する。
すなわち、 標準速度で音声を出力する場合には、,標準速度で再生するために予 め準備された通常音声データを再生した標準速度の音声が出力される。 高速で音 声を出力する場合には、 高速で再生するために予め準備された高速音声データを 再生した高速の音声が出力される。 これにより、 標準速度又は高速の各再生速度 に応じて予め作成された音声データを用いて音声を出力することができ、 ユーザ は標準速度及び高速のうち所望の速度で自然な音声を聞くことができる。
請求項 5に記載の本発明は、 前記再生手段は、 前記第 1及び第 2の音声データ の再生済み時間又は残り再生時間に基づいて、 前記第 1及ぴ第 2の音声データの 再生位置を対応付けて第 1及び第 2の音声データを再生することを特徴とする。 請求項 5に記載の本発明に従えば、 再生手段は、 第 1及び第 2の音声データの 再生済み時間又は残り再生時間に基づいて、 第 1及び第 2の音声データの再生位 置を対応付けて前記第 1及び第 2の音声データを再生する。
すなわち、 再生済み時間又は残り再生時間が同じになるように第 1及び第 2の 音声データを再生することによって、 第 1及ぴ第 2の音声データの再生位置を対 応付けている。 これにより、 チェックフラグ等の同期処理専用のデータを音声デ ータに付加することなく、 第 1及び第 2の音声データの同期処理を行うことがで さる。
請求項 6に記載の本発明は、 前記音声記憶手段は、 再生される音声の所定の区 切りごとにチェックフラグが揷入された前記第 1及び第 2の音声データを記憶し、 前記再生手段は、 前記第 1及び第 2の音声データのチヱックフラグの再生タイ ミングに基づいて前記第 1及び第 2の音声データの再生位置を対応付けて前記第 1及び第 2の音声データを再生することを特徴とする。
請求項 6に記載の本発明に従えば、 音声記憶手段は、 再生される音声の所定の 区切りごとにチヱックフラグが揷入された第 1及び第 2の音声データを記憶する。 再生手段は、 第 1及び第 2の音声データのチェックフラグの再生タイミングに基 づいて、 第 1及び第 2の音声データの再生位置を対応付けて、 第 1及び第 2の音 声データを再生する。
すなわち、 音声の所定の区切りごとに挿入されたチェックフラグの再生タイミ ングを基準に第 1及び第 2の音声データを同期させているので、 第 1及び第 2の 音声データを、 再生される音声の所定の区切りごとに高精度に同期させて再生す ることができる。
請求項 7に記載の本発明は、 前記再生手段は、 前記第 1及び第 2の音声データ の再生位置がずれた場合において、 前記第 1の再生速度で音声が出力されている ときには、 前記第 1の音声データの再生位置と対応するように前記第 2の音声デ ータの再生速度を調整し、 前記第 2の再生速度で音声が出力されているときには、 前記第 2の音声データの再生位置と対応するように前記第 1の音声データの再生 速度を調整することを特徴とする。
請求項 7に記載の本発明に従えば、 再生手段は、 第 1及び第 2の音声データの 再生位置がずれた場合において、 第 1の再生速度で音声が出力されているときに は第 1の音声データの再生位置と対応するように第 2の音声データの再生速度を 調整し、 第 2の再生速度で音声が出力されているときには第 2の音声データの再 生位置と対応するように第 1の音声データの再生速度を調整する。
すなわち、 第 1及び第 2の音声データの再生位置がずれた場合に、 現在出力さ れている音声の再生に用いられる音声データを基準にして、 他方の音声データの 再生速度を調整する。 これにより、 現在出力されている音声に影響を与えること なく、 同期ずれを補正することができる。
請求項 8に記載の本発明は、 前記第 1及ぴ第 2の音声データによつて再生され る音声を表記する文字を生成するための文字データを記憶する文字記憶手段と、 前記文字記憶手段から読み出した文字データによって表される文字を前記音声 出力手段によって出力されている第 1及び第 2の音声のうち少なくともいずれか 一方に同期させて表示する表示手段として前記コンピュータをさらに機能させる ことを特徴とする。
請求項 8に記載の本発明に従えば、 文字記憶手段は、 第 1及び第 2の音声デー タによって再生される音声を表記する文字を生成するための文字データを記憶す る。 表示手段は、 文字記憶手段から読み出した文字データによって表される文字 を、 音声出力手段によって出力されている第 1及び第 2の音声のうち少なくとも V、ずれか一方に同期させて表示する。
すなわち、 文字記憶手段から読み出した文字データによって表される文字が、 音声出力手段によって出力されている音声に同期して表示されるので、 再生され ている音声に同期させて表示画面上に文字を表示することができる。
請求項 9に記載の本発明は、 前記表示手段は、 前記文字データによって表され る文字に対応する前記第 1又は第 2の音声データの再生時間に基づいて、 前記文 字記憶手段から読み出した文字データによって表される文字を前記音声出力手段 によって出力されている第 1及ぴ第 2の音声のうち少なくともいずれか一方に同 期させて表示することを特徴とする。
請求項 9に記載の本発明に従えば、 表示手段は、 文字データによって表される 文字に対応する第 1又は第 2の音声データの再生時間に基づいて、 文字記憶手段 から読み出した文字データによって表される文字を、 音声出力手段によって出力 されている第 1及び第 2の音声のうち少なくともいずれか一方に同期させて表示 する。
すなわち、 文字に対応する音声データの再生時間を基に文字を音声に同期させ て表示しているので、 チェックフラグ等の同期処理専用のデータを文字データに 付加することなく、 文字と音声との同期処理を行うことができる。
請求項 1 0に記載の本癸明は、 前記表示手段は、 前記再生時間を文字ごとに予 め記憶し、 表示される文字に対して記憶されている再生時間を参照して当該文字 を音声に同期させて表示することを特徴とする。
請求項 1◦に記載の本発明に従えば、 表示手段は、 再生時間を文字ごとに予め 記憶し、 表示される文字に対して記憶されている再生時間を参照して、 当該文字 を音声に同期させて表示する。
すなわち、 表示される文字に対して記憶されている再生時間を参照して当該文 字を音声に同期させて表示しているので、 再生時間を計算することなく、 文字と 音声との同期処理を行うことができる。
請求項 1 1に記載の本発明は、 前記表示手段は、 前記文字データによって表さ れる文字に対応する前記第 1又は第 2の音声データのデータ量に基づいて、 前記 文字記憶手段から読み出した文字データによって表される文字を前記音声出力手 段によって出力されている第 1及び第 2の音声のうち少なくともいずれか一方に 同期させて表示することを特徴とする。
請求項 1 1に記載の本発明に従えば、 表示手段は、 文字データによって表され る文字に対応する第 1又は第 2の音声データのデータ量に基づいて、 文字記憶手 段から読み出した文字データによって表される文字を音声出力手段によって出力 されている第 1及び第 2の音声のうち少なくともいずれか一方に同期させて表示 する。
すなわち、 文字に対応する音声データのデータ量を基に文字を音声に同期させ て表示しているので、 チェックフラグ等の同期処理専用のデータを文字データに 付加することなく、 文字と音声との同期処理を行うことができる。
請求項 1 2に記載の本発明は、 音声データを用いてコンピュータにより音声を 再生する音声再生方法であって、 所定の音声を複数の異なる再生速度で再生するために予め準備され各再生速度 それぞれ対応する複数の音声データによる音声を出力可能な状態にするステップ と、
前記各再生速度のうちいずれかの速度で音声を出力する場合に、 該再生速度に 対応する音声データによる音声を出力するステップとを含むことを特徴とする。 請求項 1 2に記載の本発明に従えば、 音声データを用いてコンピュータにより 音声を再生する音声再生方法であって、 音声再生方法は、 所定の音声を複数の異 なる再生速度で再生するために予め準備され各再生速度にそれぞれ対応する複数 の音声データによる音声を出力可能な状態にするステップと、 前記各再生速度の うちいずれかの速度で音声を出力する場合に、 該再生速度に対応する音声データ による音声を出力するステップとを含む。
すなわち、 第 1ステップは、 所定の音声を複数の異なる再生速度で再生するた めに予め準備され、 各再生速度にそれぞれ対応する複数の音声データによる音声 を出力可能な状態にする。 第 2ステップは、 前記各再生速度のうちいずれかの速 度で音声を出力する場合に、 該再生速度に対応する音声データによる音声を出力 する。
請求項 1 3に記載の本発明は、 音声データを用いて音声を再生する音声再生装 置であって、
所定の音声を複数の異なる再生速度で再生するために予め準備され各再生速度 にそれぞれ対応する複数の音声データを記憶する音声記憶手段と、
前記音声データを出力可能な状態にする再生手段と、
前記各再生速度のうちいずれかの速度で音声を出力する場合に、 該再生速度に 対応する音声データによる音声を出力する音声出力手段とを備えることを特徴と する。
請求項 1 3に記載の本発明に従えば、 音声データを用いて音声を再生する音声 再生装置であって、 音声記憶手段は、 所定の音声を複数の異なる再生速度で再生 するために予め準備され、 各再生速度にそれぞれ対応する複数の音声データを記 憶する。 再生手段は、 音声データを出力可能な状態にする。 音声出力手段は、 各 再生速度のうちいずれかの速度で音声を出力する場合に、 該再生速度に対応する 音声データによる音声を出力する。
すなわち、 音声記憶手段には、 所定の音声を複数の異なる再生速度で再生する ために、 予め準備された該再生速度に対応する複数の同じ内容の音声データが記 憶される。 再生手段および音声出力手段では、 各再生速度のうちいずれかの速度 で音声を出力する場合に、 該再生速度に対応する音声データによる音声が出力可 能な状態に再生され出力される。 これにより、 再生速度変更時に基本周波数と同 じ再生周波数で当該再生速度に対応する音声データを作成する等の音声処理が不 要になる。 図面の簡単な説明
図 1は、 本発明の第 1の実施の形態のビデオゲーム装置の構成を示すプロック 図である。
図 2は、 図 1に示すビデオゲーム装置の主要機能を示す機能ブロック図である。 図 3は、 1倍速用音声データ a 1を用いて 1倍速で再生される 1倍速用音声信 号 A 1と 2倍速用音声データ a 2を用いて 2倍速で再生される 2倍速用音声信号
A 2とを示す波形図である。
図 4は、 図 2に示すビデオゲーム装置が実行する音声再生処理の一例を示すフ ローチャートである。
図 5は、 標準速度再生モード及ぴ倍速再生モードにおいて再生される音声を説 明するための模式図である。
図 6は、 図 4に示す同期補正処理の一例を示すフローチャートである。
図 7は、 第 2の実施の形態によるビデオゲーム装置の主要機能を示す機能プロ ック図である。
図 8は、 図 7に示すビデオゲーム装置が実行する音声再生処理の一例を示すフ ローチャートである。
図 9は、 再生時間テーブルのデータ構造の一例を示す模式図である。
図 1 0は、 音声データ量テーブルのデータ構造の一例を示す模式図である。
図 1 1は、 本発明の第 3の実施の形態による音声再生装置の構成を示すプロッ ク図である。 発明を実施するための最良の形態
(第 1の実施の形態)
以下、 本発明の第 1の実施の形態によるビデオゲーム装置について図面を参照 しながら説明する。
図 1は本発明の第 1の実施の形態のビデオゲーム装置の構成を示すプロック図 である。 なお、 以下の説明では、 ビデオゲーム装置の一例として家庭用ビデオゲ 一ム機を家庭用テレビジョンに接続することによって構成される家庭用ビデオゲ ーム装置について説明するが、 本発明はこの例に特に限定されず、 モニタが一体 に構成された業務用ビデオゲーム装置、 ビデオゲームプログラムを実行すること によってビデオゲーム装置として機能するパーソナルコンピュータ等にも同様に 適用することができる。
図 1に示すビデオゲーム装置は家庭用ゲーム機 1 0 0及ぴ家庭用テレビジョン 2 0 0を備える。 家庭用ゲーム機 1 0 0には、 ビデオゲームプログラム及びゲー ムデータが記録されたコンピュータ読み出し可能な記録媒体 3 0 0が装填され、 ビデオゲームプログラム及びゲームデータが適宜読み出されてゲームが実行され る。
家庭用ゲーム機 1 0 0は、 C P U (Central Processing Unit) 1、 パスライ ン 2、 グラフィックスデータ生成プロセッサ 3、 インターフェース回路 ( I Z F ) 4、 メインメモリ 5、 R OM (Read Only Memory) 6、 伸張回路 7、 パラ レルポート 8、 シリアルポート 9、 描画プロセッサ 1 0、 音声プロセッサ 1 1、 I /Oプロセッサ 1 2、 バッファ 1 3〜1 5、 記録媒体ドライブ 1 6、 メモリ 1 7及びコントローラ 1 8を含む。 家庭用テレビジョン 2 0 0はテレビジョンモニ タ 2 1、 増幅回路 2 2及ぴスピー力 2 3を含む。
C P U 1はパスライン 2およびグラフィックスデータ生成プロセッサ 3に接続 されている。 パスライン 2はアドレスパス、 データパス及ぴコントロールバス等 を含み、 C P U 1、 インターフェース回路 4、 メインメモリ 5、 R OM 6、 伸張 回路 7、 パラレルポート 8、 シリアルポート 9、 描画プロセッサ 1 0、 音声プロ セッサ 1 1及び I /Oプロセッサ 1 2を相互に接続している。
描画プロセッサ 1 0はバッファ 1 3に接続される。 音声プロセッサ 1 1はバッ ファ 1 4及び増幅回路 2 2に接続される。 I /Oプロセッサ 1 2はバッファ 1 5、 記録媒体ドライブ 1 6、 メモリ 1 7及びコントローラ 1 8に接続される。
家庭用テレビジョン 2 0 0のテレビジョンモニタ 2 1は、 描画プロセッサ 1 0 に接続される。 スピーカ 2 3は増幅回路 2 2に接続される。 なお、 業務用ビデオ ゲーム装置の場合、 テレビジョンモニタ 2 1、 増幅回路 2 2及ぴスピーカ 2 3は、 家庭用ゲーム機 1 0 0を構成する各ブロックとともに 1つの筐体に収納される場 合がある。
また、 ビデオゲーム装置がパーソナルコンピュータやワークステーション等を 核として構成されている場合、 テレビジョンモニタ 2 1等はコンピュータ用のデ イスプレイに対応する。 また、 伸張回路 7、 描画プロセッサ 1 0、 音声プロセッ サ 1 1及び I ZOプロセッサ 1 2等は、 それぞれ記録媒体 3 0 0に記録されてい るプログラムデータの一部又はコンピュータの拡張スロットに搭載される拡張ボ ード上のハードウェアに対応する。
また、 インターフェース回路 4、 パラレルポート 8及びシリアルポート 9は、 コンピュータの拡張スロットに搭載される拡張ボード上のハードウェアに対応す る。 また、 バッファ 1 3〜1 5はそれぞれメインメモリ又は拡張メモリの各記憶 エリアに対応する。
次に、 図 1に示す各構成要素について説明する。 グラフィックスデータ生成プ 口セッサ 3は C P U 1のいわばコプロセッサとしての役割を果たす。 すなわち、 グラフィックスデータ生成プロセッサ 3は座標変換や光源計算、 例えば固定小数 点形式の行列やべクトルの演算を並列処理によって行う。
グラフィックスデータ生 J¾¾プロセッサ 3が行う主な処理としては、 C P U 1か ら供給される画像データの 2次元又は仮想 3次元空間内における各頂点の座標デ ータ、 移動量データ、 回転量データ等に基づいて、 所定の表示エリア上における 処理対象画像のアドレスデータを求めて C P U 1に返す処理、 仮想的に設定され た光源からの距離に応じて画像の輝度を計算する処理等がある。
ィンターフェース回路 4は周辺デバイス、 例えばマウスやトラックポール等の ポインティングデバイス等のインターフェース用に用いられる。 メインメモリ 5 は R AM (Random Access Memory) 等で構成される。 R OM 6にはビデオゲ —ム装置のオペレーテイングシステムとなるプログラムデータが記憶されている。 このプログラムはパーソナルコンピュータの B I O S (Basic Input Output System)に相当する。
伸張回路 7は動画に対する M P E G (Moving Picture Experts Group)規格ゃ静 止画に対する J P E G(Joint Photographic Experts Group)規格に準拠したィン トラ符号化によって圧縮された圧縮画像に対して伸張処理を施す。 伸張処理はデ コード処理 (VLC: Variable Length Codeによってェンコ一ドされたデータのデ コード)、 逆量子化処理、 I D C T(lnverse Discrete Cosine Transform)処理、 イントラ画像の復元処理等を含む。
描画プロセッサ 1 0は所定時間 T (例えば、 1フレームで T = 1/60秒) ごと に C P U 1が発行する描画命令に基づいてバッファ 1 3に対する描画処理を行う, バッファ 1 3は例えば R AMで構成され、 表示エリア(フレームバッファ)と非 表示エリアとに分けられる。 表示エリアはテレビジョンモニタ 2 1の表示面上に 表示するデータの展開ェリァで構成される。 非表示ェリァはスケルトンを定義す るデータ、 ポリゴンを定義するモデルデータ、 モデルに動きを行わせるアニメ一 シヨンデータ、 各アニメーションの内容を示すパターンデータ、 テクスチャデー タ及ぴカラーパレッ トデータ等の記憶ェリァで構成される。
ここで、 テクスチャデータは 2次元の画像データである。 カラーパレットデー タはテクスチャデータ等の色を指定するためのデータである。 C P U 1は、 これ らのデータを記録媒体 3 0 0から一度に又はゲームの進行状況に応じて複数回に 分けて、 予めバッファ 1 3の非表示エリアに記録する。
また、 描画命令としては、 ポリゴンを用いて立体的な画像を描画するための描 画命令、 通常の 2次元画像を描画するための描画命令がある。 ここで、 ポリゴン は多角形の 2次元仮想図形であり、 例えば、 三角形や四角形が用いられる。
ポリゴンを用いて立体的な画像を描画するための描画命令は、 ポリゴン頂点座 標データのバッファ 1 3の表示エリア上における記憶位置を示すポリゴン頂点ァ ドレスデータ、 ポリゴンに貼り付けるテクスチャのバッファ 1 3上における記憶 位置を示すテクスチャアドレスデータ、 テクスチャの色を示すカラーパレツトデ ータのバッファ 1 3上における記憶位置を示すカラーパレツ トアドレスデータ及 びテクスチャの輝度を示す輝度データのそれぞれに対して行われるものである。 上記のデータのうち表示エリア上のポリゴン頂点ァドレスデータは、 グラフィ ックスデータ生成プロセッサ 3が C P U 1からの仮想 3次元空間上におけるポリ ゴン頂点座標データを移動量データ及び回転量データに基づいて座標変換するこ とによって 2次元上でのポリゴン頂点座標データに置換されたものである。 輝度 データは C P U 1からの上記座標変換後のポリゴン頂点座標データによって示さ れる位置から仮想的に配置された光源までの距離に基づいてダラフィックスデー タ生成プロセッサ 3によって決定される。
ポリゴン頂点ァドレスデータはバッファ 1 3の表示エリア上のァドレスを示す。 描画プロセッサ 1 0は 3個のポリゴン頂点ァドレスデータで示されるバッファ 1 3の表示ェリァの範囲に対応するテクスチャデータを書き込む処理を行う。
ゲーム空間内におけるキャラクタ等の物体は、 複数のポリゴンで構成される。 C P U 1は各ポリゴンの仮想 3次元空間上の座標データを対応するスケルトンの ベクトルデータと関連させてバッファ 1 3に記憶する。 そして、 後述するコント ローラ 1 8の操作によって、 テレビジョンモニタ 2 1の表示画面上でキャラクタ を移動させる等の場合において、 キャラクタの動きを表現したり、 キャラクタを 見ている視点位置を変えるときに、 以下の処理が行われる。
すなわち、 C P U 1はグラフィックスデータ生成プロセッサ 3に対してパッフ ァ 1 3の非表示エリア内に保持している各ポリゴンの頂点の 3次元座標データと、 スケルトンの座標及ぴその回転量のデータから求められた各ポリゴンの移動量デ ータ及び回転量データとを与える。
グラフィックスデータ生成プロセッサ 3は各ポリゴンの頂点の 3次元座標デー タと各ポリゴンの移動量データ及ぴ回転量データとに基づいて各ポリゴンの移動 後及ぴ回転後の 3次元座標データを順次求める。
このようにして求められた各ポリゴンの 3次元座標データのうち水平及ぴ垂直 方向の座標データは、 バッファ 1 3の表示エリア上のアドレスデータ、 すなわち ポリゴン頂点ァドレスデータとして描画プロセッサ 1 0に供給される。
描画プロセッサ 1 0は 3個のポリゴン頂点ァドレスデータによって示されるパ ッファ 1 3の表示エリア上に予め割り当てられているテクスチャァドレスデータ によって示されるテクスチャデータを書き込む。 これによつて、 テレビジョンモ ユタ 2 1の表示画面上には、 多数のポリゴンにテクスチャの貼り付けられた物体 が表示される。
通常の 2次元画像を描画するための描画命令は、 頂点アドレスデータ、 テクス チヤァドレスデータ、 テクスチャデータの色を示すカラーパレツトデータのパッ ファ 1 3上における記憶位置を示すカラーパレツトァドレスデータ及ぴテクスチ ャの輝度を示す輝度データに対して行われる。 これらのデータのうち頂点ァドレ スデータは、 C P U 1からの 2次元平面上における頂点座標データを C P U 1力 らの移動量データ及ぴ回転量データに基づいてダラフィックスデータ生成プロセ ッサ 3が座標変換することによって得られる。
音声プロセッサ 1 1は記録媒体 3 0 0から読み出された A D P C M (Adaptive Differential Pulse Code Modulation) データをパッファ 1 4に記憶 させ、 バッファ 1 4に記憶された AD P CMデータが音源となる。 また、 音声プ 口セッサ 1 1は、 例えば、 周波数 4 4 . 1 k H zのクロック信号に基づき、 パッ ファ 1 4から AD P CMデータを読み出す。
音声プロセッサ 1 1は、 読み出した AD P CMデータに対して、 ノイズの付加、 エンベロープの設定、 レベルの設定及びリパーブの付加等の処理を施す。 このと き、 音声プロセッサ 1 1は、 読み出した AD P CMデータを元の音声データに復 号ィ匕し、 後述するように I /Oプロセッサによって設定された音量及び再生周波 数で音声データを音声信号に変換して増幅回路 2 2へ出力する。 その後、 増幅回 路 2 2は音声信号を増幅してスピーカ 2 3へ出力し、 スピーカ 2 3は再生された 音声を出力する。
記録媒体 3 0 0から読み出される音声データが C D— D A(Compact Disk Digital Audio)等の P CM (Pulse Code Modulation) データの場合、 音声プロ セッサ 1 1はこの音声データを AD P CMデータに変換する。 また、 P CMデー タに対するプログラムによる処理は、 メインメモリ 5上において直接行われる。 メインメモリ 5上において処理された P CMデータは、 音声プロセッサ 1 1に供 給されて AD P CMデータに変換される。 その後、 上述した各種処理が施され、 音声が再生される。
I /Oプロセッサ 1 2は、 入出力制御だけでなく、 デコーダとしても機能し、 記憶媒体ドライブ 1 7によって送信された画像データ、 音声データ及びプロダラ ムデータ等の各種データを作業領域であるバッファ 1 5に格納し、 バッファ 1 5 から読み出した各種データに対して E C C (Error Correction Code)によるエラー 訂正処理を施し、 エラー訂正処理を施した各種データをメインメモリ 5又は音声 プロセッサ 1 lに供給する。
メインメモリ 5又は音声プロセッサ 11は、 供給された音声データをバッファ 14に格納する。 また、 I/Oプロセッサ 12は、 コントローラ 18を介してュ 一ザによって指示された再生モード等に応じてバッファ 14から読み出した該音 声データが再生されるように、 音声プロセッサ 11に対して音量及び再生周波数 の設定を行う。
記録媒体ドライブ 16は記録媒体 300から画像データ、 音声データ及びプロ グラムデータを読み出し、 読み出したデータを I/Oプロセッサ 12に供給する。 記録媒体ドライブ 16としては、 例えば、 DVD— ROMドライブ、 CD— RO Mドライブ、 ハードディスクドライブ、 光ディスクドライブ、 フレキシブルディ スクドライブ、 シリコンディスクドライブ、 カセット媒体読み取り機等が用いら れる。 この場合、 記録媒体 300としては、 DVD— ROM、 CD-ROM, ノヽ ードディスク、 光ディスク、 フレキシブルディスク、 半導体メモリ等が用いられ る。
メモリ 17としては、 例えばカード型のメモリが用いられる。 カード型のメモ リは、 例えばゲームを中断した場合において中断時点での状態を保持する等のよ うに、 中断時点での各種ゲームパラメータを保持するため等に用いられる。
コントローラ 18はユーザが種々の操作指令を入力するために使用する操作装 置であり、 ユーザの操作に応じた操作信号を CPU 1に送出する。 コントローラ 18には、 第 1ボタン 18 a、 第 2ポタン 18 b、 第 3ボタン 18 c、 第 4ボタ ン 18 d、 上方向キー 18U、 下方向キー 18D、 左方向キー 18 L、 右方向キ 一 18R、 L 1ボタン 18 L 1、 L 2ポタン 18 L2、 R1ボタン 18R1、 R 2ボタン 18 R 2、 スタートボタン 18 e、 セレク トポタン 18 f 、 左スティッ ク 18 S L及ぴ右スティック 18 SRが けられている。
上方向キー 18 U、 下方向キー 18 D、 左方向キー 18 L及び右方向キー 18 Rは、 例えば、 キャラクタやカーソルをテレビジョンモニタ 21の画面上で上下 左右に移動させるコマンドを C PU 1に与えるために使用される。
スタートボタン 18 eは記録媒体 300からゲームプログラムをロードするよ うに CPU 1に指示するため等に使用される。 セレク トポタン 18 f は記録媒体 300からメインメモリ 5にロードされるゲームプログラムに関する各種選択を CPU1に指示するため等に使用される。
左スティック 18 S L及ぴ右スティック 18 SRを除くコントローラ 18の各 ポタン及び各キーは、 外部からの押圧力によって中立位置から押圧されるとオン になり、 押圧力が解除されると上記中立位置に復帰してオフになるオンオフスィ ツチで構成される。
左スティック 18 S L及び右スティック 18 S Rは、 いわゆるジョイスティッ クとほぼ同一構成のスティック型コントローラである。 このスティック型コント ローラは直立したスティックを有し、 このスティックの所定位置を支点として前 後左右を含む 360° 方向に亘つて傾倒可能な構成になっている。 左スティック 18 S L及ぴ右スティック 18 SRは、 スティックの傾倒方向及ぴ傾倒角度に応 じて、 直立位置を原点とする左右方向の X座標及び前後方向の y座標の値を操作 信号として I /Oプロセッサ 12を介して C PU 1に送出する。
なお、 第 1ボタン 18 a、 第 2ボタン 18 b、 第 3ボタン 18 c、 第 4ボタン 18 d、 L 1ポタン 18 L 1、 L2ボタン 18 L 2、 1ボタン181 1及び1 2ボタン 18 R 2は、 記録媒体 300からロードされるゲームプログラムに応じ て種々の機能に使用される。
次に、 上記のビデオゲーム装置の概略動作について説明する。 記録媒体 300 が記録媒体ドライブ 16に装填されている場合、 電源スィッチ (図示省略) がォ ンされてビデオゲーム装置に電源が投入される。 すると、 CPU1は、 ROM6 に記憶されているオペレーティングシステムに基づいて、 記録媒体 300からゲ ームプログラムを読み出すように記録媒体ドライブ 16に指示する。 この指示に より、 記録媒体ドライブ 16は、 記録媒体 300から画像データ、 音声データ及 ぴプログラムデータを読み出す。 読み出された画像データ、 音声データ及びプロ グラムデータは、 I/Oプロセッサ 12に供給され、 1 〇プロセッサ 12によ つてエラ一訂正処理が各データに施される。
I/Oプロセッサ 12によってエラー訂正処理が施された画像データは、 パス ライン 2を介して伸張回路 7に供給される。 伸張回路 7によって上述した伸張処 理が行われた画像データは、 描画プロセッサ 10に供給され、 描画プロセッサ 1 0によってバッファ 1 3の非表示エリアに書き込まれる。 1 0プロセッサ 1 2 によってエラー訂正処理が施された音声データは、 メインメモリ 5又は音声プロ セッサ 1 1を介してバッファ 1 4に書き込まれる。 また、 I /Oプロセッサ 1 2 によってエラ一訂正処理が施されたプログラムデータはメインメモリ 5に書き込 まれる。
以降、 C P U 1は、 メインメモリ 5に記憶されているゲームプログラム及びュ 一ザがコントローラ 1 8を用いて指示する内容に基づいてビデオゲームを進行さ せる。 すなわち、 ユーザがコントローラ 1 8を用いて指示する内容に基づいて、 C P U 1は画像処理の制御、 音声処理の制御及び内部処理の制御等を適宜行う。 画像処理の制御として、 例えば、 キャラクタに指示されるアニメーションに該 当するパターンデータから各スケルトンの座標の計算又はポリゴンの頂点座標デ 一タの計算、 得られた 3次元座標データや視点位置データのグラフィックスデー タ生成プロセッサ 3への供給、 グラフィックスデータ生成プロセッサ 3が求めた バッファ 1 3の表示エリア上のアドレスデータや輝度データを含む描画命令の発 行等が行われる。
音声処理の制御として、 例えば、 音声プロセッサ 1 1に対する音声出力コマン ドの発行、 レベル、 リパーブ等の指定がある。 内部処理の制御として、 例えばコ ントローラ 1 8の操作に応じた演算等が行われる。
図 2は、 図 1に示すビデオゲーム装置の主要機能を示す機能プロック図である。 ビデオゲーム装置は、 音声出力部 1 0 1、 記憶部 1 0 2、 操作部 1 0 3、 プログ ラム実行部 1 0 4及びプログラム記憶部 1 0 5を有する。 音声出力部 1 0 1は、 図 1に示す増幅回路 2 2やスピーカ 2 3等によって実現される。 記憶部 1 0 2は 図 1に示すメインメモリ 5やバッファ 1 3〜1 5によって実現される。
記憶部 1 0 2は、 所定の音声を複数の異なる再生速度で再生するために予め準 備され、 各音声速度にそれぞれ対応する複数の音声データを格納する (ここでは、 記録媒体 3 0 0から読み出された 1倍速用音声データ a 1を第 1チャンネル用の 音声データとして格納し、 2倍速用音声データ a 2を第 2チャンネル用の音声デ ータとして格納する) 。 ここで、 1倍速用音声データ a 1は、 所定の音声 (記録 時の速度) を標準速度すなわち 1倍速で再生するために予め準備された音声デー タであり、 2倍速用音声データ a 2は、 所定の音声 (標準速度で再生される音声 と同じ内容を表す音声) を早聞速度で再生するために予め準備された音声データ である。 早聞速度とは、 標準速度より高速の速度のことであり、 ここでは 2倍の 速度のことである。 なお、 標準音声とは標準速度で再生された音声である、 早聞 音声とは早聞速度で再生された音声のことである。 「所定の音声」 は、 表現内容、 伝達内容が同一の音声であり、 例えば各データに基づき再生される言葉 (語) は 一言一句異ならない。
操作部 1 0 3は、 図 1に示すコントローラ 1 8等によって実現され、 ユーザか らの音声再生速度モード指示コマンドを受け付ける。 音声再生速度モード指示コ マンドとは、 ビデオゲーム装置にユーザの所望の再生速度で音声を再生させるコ マンドである。 音声再生速度モード指示コマンドには、 標準速度再生モード指示 コマンドと早聞速度再生モードコマンドがある。 標準速度再生モード指示コマン ドが操作部 1 0 3に受け付けられた場合には、 1倍速用音声データ a 1を標準速 度で再生した音声が出力され、 ユーザは標準速度で再生された音声を聞くことが できる。 一方、 早聞速度再生モード指示コマンドが操作部 1 0 3に受け付けられ た場合には、 2倍速用音声データ a 2を早聞速度で再生した音声が出力され、 ュ 一ザは早聞速度で再生された音声を聞くことができる。
プログラム実行部 1 0 4は、 C P U 1、 描画プロセッサ 1 0、 音声プロセッサ 1 1及び I /Oプロセッサ 1 2等によって実現される。 プログラム実行部 1 0 4 は、 再生条件決定部 1 1 1及び音声再生部 1 1 2を含む。
再生条件決定部 1 1 1は、 主に 1ノ0プロセッサ 1 2等によって実現され、 操 作部 1 0 3によって受け付けられた音声再生速度モード指示コマンドに応じた速 度で 1倍速用音声データ a 1及び 2倍速用音声データ a 2が同期して再生される ように、 1倍速用音声データ a 1及び 2倍速用音声データ a 2の再生周波数を音 声再生部 1 1 2に設定する。 また、 再生条件決定部 1 1 1は、 上記の 1倍速用音 声データ a 1に基づく 1倍速用音声及び 2倍速用音声データ a 2に基づく 2倍速 用音声のうち音声再生速度モードに応じた一方のみをユーザが聴取可能となるよ うに、 1倍速用音声データ a 1及び 2倍速用音声データ a 2の音量を音声再生部 1 1 2に設定する。 音声再生部 1 12は、 主に音声プロセッサ 11等によって実現され、 再生条件 決定部 1 1 1によって設定された再生周波数及び音量で、 1倍速用音声データ a 1及び 2倍速用音声データ a 2を同期させて出力可能な状態にする。 すなわち、 音声再生部 1 1 2は、 1倍速用音声データ a 1及び 2倍速用音声データ a 2の再 生位置を対応させて再生し、 出力可能な状態にする。 このとき、 音声再生部 1 1 2は、 1倍速用音声及び 2倍速用音声のうち音声再生速度モード指示コマンドに 応じた一方のみをユーザが聴取可能となるように、 1倍速用音声データ a 1及び 2倍速用音声データ a 2の音量を設定している。 これにより、 ユーザは一方の音 声のみを聞くことができる。 '
プログラム記憶部 105は、 コンピュータ読み取り可能な記録媒体 300が装 填された記録媒体ドライブ 16等で実現され、 記録媒体 300には、 音声再生プ ログラムを含むビデオゲームプログラムが記録されている。 なお、 記録媒体 30 0から音声再生プログラムが読み取られ、 当該プログラムがメインメモリ 5に記 憶されている場合、 メインメモリ 5がプログラム記憶部 105として機能する。 次に、 1倍速用音声データ a 1及び 2倍速用音声データ a 2について詳細に説 明する。 図 3は、 1倍速用音声データ a 1を用いて標準速度で再生される 1倍速 用音声信号 A 1と 2倍速用音声データ a 2を用いて早聞速度で再生される 2倍速 用音声信号 A 2とを示す波形図である。 なお、 図 3では、 縦軸は振幅、 横軸は時 間を表している。
1倍速用音声データ a 1は、 標準速度の音声としてユーザに聴取させる音声を 記録した音声データであり、 例えば、 ビデオゲームに関する説明等を行うナレー ター等の実際の人間が発声した音声をそのまま記録した音声データを用いること ができる。 一方、 2倍速用音声データ a 2は、 早聞速度で再生した場合に標準速 度と同じ音程で自然な音声を再生できるように、 1倍速用音声データ a 1に対し て音程変換処理等の音声変換処理を施した音声データである。
すなわち、 2倍速用音声データ a 2は、 早聞速度で再生した場合に 1倍速用音 声データ a 1と同じピッチで再生されるように、 1倍速用音声データ a 1を編集 して予め作成された音声データであり、 例えば B e r k l e y I n t e g r a t e d Au d i o S o f we a r社の波形編集ソフトである 「P e a k」 に おける 「Ch a n g e Du r a t i o n という機能を用いる等して、 1倍速 用音声データ a 1を音程を保ったまま再生時間を 1/2にして生成される。 なお、 「 P e a k」 以外にも、 Av i d Te c hn o l o g y社の 「 P r o t o o 1 s s o f t we r e」 におりる 「Ί i me C o m p r e s s i o n / E x p a n s i o n」 を用いて、 上記の 2倍速用音声データ a 2を生成することもでき る。
なお、 2倍速用音声データは、 上記に限られず、 1倍速音声データと同じ言葉 を早口で別途録音したものでもよいし、 同じ楽曲を早く演奏して別途録音したも のでもよい。
例えば、 上記の 1倍速用音声データ a 1を標準速度で再生した場合、 1倍速用 音声信号 A 1は、 図 3の上段に示す波形を有する。 一方、 1倍速用音声データ a 1と同じ内容を表す 2倍速用音声データ a 2を早聞速度で再生した場合、 2倍速 用音声信号 A 2は、 図 3の下段に示す波形を有し、 1倍速用音声信号 A 1を時間 軸上で 2分の 1に圧縮したような波形を有する。
このとき、 2倍速用音声データ a 2を早聞速度で再生した場合の再生時間 X 2 は、 1倍速用音声データ a 1を標準速度で再生した場合の再生時間 X 1の 2分の 1となるが、 上記のピッチ変換処理等が施されているため、 音程は変化せず、 1 倍速用音声信号 A 1の音声と同様に非常に聞き取り易い音声を再生することがで さる。
次に、 図 2に示すビデオゲーム装置が記録媒体 300に格納される音声再生プ ログラムを実行することによって実現される音声再生処理を説明する。 図 4は、 図 2に示すビデオゲーム装置が実行する音声再生処理の一例を示すフローチヤ一 トである。
まず、 ステップ 1において、 再生条件決定部 1 1 1は、 記録媒体 300に記憶 されている 1倍速用音声データ a 1及び 2倍速用音声データ a 2を読み出し、 記 憶部 102に格納させる。
次に、 ステップ 2において、 再生条件決定部 1 1 1は、 音声再生速度モード指 示コマンドに基づいて、 1倍速用音声データ a 1及ぴ 2倍速用音声データ a 2の 再生周波数及び音量を音声再生部 1 1 2に設定する。 この場合の音声再生速度モ 一ド指示コマンドは、 予め定められている初期設定時の音声再生速度モード指示 コマンド、 又はユーザが操作部 1 0 3を用いて既に設定した音声再生速度モード 指示コマンドである。
具体的には、 標準速度再生モード指示コマンドが受け付けられて標準速度再生 モードに設定されている場合、 再生条件決定部 1 1 1は、 1倍速用音声データ a 1の再生周波数及び音量を、 1倍速用音声データ a 1の基本周波数と同じ再生周 波数及び標準音量 (例えば、 音量調整範囲の中間量) に設定するとともに、 2倍 速用音声データ a 2の再生周波数及び音量を、 2倍速用音声データ a 2の基本周 波数の半分の再生周波数及び無音量 (音量 0 ) に設定する。 なお、 基本周波数は、 再生速度を変更するために再生周波数を調整することなく各音声データ a 1, a 2を再生した場合の再生周波数である。
一方、 早聞速度再生モード指示コマンドが受け付けられて早聞速度再生モード に設定されている場合、 再生条件決定部 1 1 1は、 1倍速用音声データ a 1の再 生周波数及び音量を 1倍速用音声データ a 1の基本周波数の倍の再生周波数及び 無音量に設定するとともに、 2倍速用音声データ a 2の再生周波数及び音量を 2 倍速用音声データ a 2の基本周波数と同じ再生周波数及び標準音量に設定する。 次に、 ステップ S 3において、 音声再生部 1 1 2は、 記憶部 1 0 2から 1倍速 用音声データ a 1及び 2倍速用音声データ a 2を読み出し、 ステップ S 2で設定 された再生周波数及び音量で 1倍速用音声データ a 1及び 2倍速用音声データ a 2を再生し、 音声出力部 1 0 1は、 再生された音声を出力する。
具体的には、 標準速度再生モードの場合、 音声再生部 1 1 2は、 1倍速用音声 データ a 1を 1倍速用音声データ a 1の基本周波数と同じ再生周波数及び標準音 量で再生するとともに、 2倍速用音声データ a 2を 2倍速用音声データ a 2の基 本周波数の半分の再生周波数及び無音量で再生し、 音声出力部 1 0 1は、 1倍速 用音声データ a 1を用いて再生された 1倍速用音声のみを出力する。
一方、 早聞速度再生モードの場合、 音声再生部 1 1 2は、 1倍速用音声データ a 1を 1倍速用音声データ a 1の基本周波数の倍の再生周波数及び無音量で再生 するとともに、 2倍速用音声データ a 2を 2倍速用音声データ a 2の基本周波数 と同じ再生周波数及び標準音量で再生し、 音声出力部 1 0 1は、 2倍速用音声デ ータ a 2を用いて再生された 2倍速用音声のみを出力する。 ここで、 標準速度再 生モード及び早聞速度再生モードにおいて再生される音声について詳細に説明す る。 図 5は、 標準速度再生モード及び早聞速度再生モードにおいて再生される音 声を説明するための模式図である。
なお、 図 5では、 説明を容易にするため、 1倍速用音声データ a 1の一例とし て、 1倍速用音声データ A l ~ J 1から音声 「こんにちは」 を出力するための 1 倍速用音声データが構成され、 1倍速用音声データ A 1, B 1が再生されると音 声 「こ」 が出力され、 1倍速用音声データ C l, D 1が再生されると音声 「ん」 が出力され、 1倍速用音声データ E l, F 1が再生されると音声 「に」 が出力さ れ、 1倍速用音声データ G l, H Iが再生されると音声 「ち」 が出力され、 1倍 速用音声データ I 1, J 1が再生されると音声 「は」 が出力されるものとする。 また、 2倍速用音声データ a 2の一例として、 2倍速用音声データ A 2〜E 2 から音声 「こんにちは」 を出力するための 2倍速用音声データが構成され、 2倍 速用音声データ A 2が再生されると音声 「こ」 が出力され、 音声データ B 2が再 生されると音声 「ん」 が出力され、 2倍速用音声データ C 2が再生されると音声 「に」 が出力され、 2倍速用音声データ D 2が再生されると音声 「ち」 が出力さ れ、 2倍速用音声データ E 2が S生されると音声 「は」 が出力されるものとして 説明する。
まず、 標準速度再生モードの場合、 図 5の (a ) に示すように、 1倍速用音声 データ A 1 ~ J 1が再生周期 t 1 ( 1倍用音声データ a 1の基本周波数の逆数) で順次再生され、 再生時間 T 1で音声 「こんにちは」 が通常の音程でかつ標準音 量で出力される。 一方、 図 5の (b ) に示すように、 2倍速用音声データ A 2〜 E 2が再生周期 2 X t 1 ( 2倍速用音声データ a 2の基本周波数の半分の逆数) で同期して順次再生され、 再生時間 T 1で音声 「こんにちは」 が通常の音程より 1オクターブ低い音程でかつ無音量で出力される。
このように、 標準速度再生モードでは、 1倍速用音声データ A l〜 J 1及ぴ 2 倍速用音声データ A 2〜E 2が同期して再生されるが、 2倍速用音声データ A 2 〜E 2による 1オクターブ低い音程で再生される 2倍速用音声は、 無音量で出力 されるため、 ユーザには聞こえず、 1倍速用音声データ A l ~ J 1による通常の 音程の音声のみをユーザは通常の速度で聞くことができる。
次に、 早聞速度再生モードの場合、 図 5の (c ) に示すように、 2倍速用音声 データ A 2〜E 2が再生周期 t 1 ( 2倍速用音声データ a 2の基本周波数の逆 数) で順次再生され、 再生時間 T 1 Z 2で音声 「こんにちは」 が通常の音程でか つ標準音量で出力される。 一方、 図 5の (d ) に示すように、 1倍速用音声デー タ A 1〜 J 1が再生周期 t 1 / 2 ( 1倍速用音声データ a 1の基本周波数の倍の 逆数) で同期して順次再生され、 再生時間 T 1 / 2で音声 「こんにちは」 が通常 のピッチより 1オクターブ高い音程でかつ無音量で出力される。
このように、 早聞速度再生モードでは、 1倍速用音声データ A 1〜 J 1及び 2 倍速用音声データ A 2〜E 2が同期して再生されるが、 1倍速用音声データ A 1 〜J 2による 1オクターブ高い音声は、 無音量で出力されるため、 ユーザには聞 こえず、 2倍速用音声データ A 2〜E 2による通常の音程の音声のみをユーザは 倍速で聞くことができる。
再び、 図 4を参照して、 ステップ S 4において、 音声再生部 1 1 2は、 後述す る同期捕正処理を行う。 この同期捕正処理は、 同期して再生されるべき 1倍速用 音声データ a 1と 2倍速用音声データ a 2との再生タイミング (再生位置) がず れた場合に、 ステップ S 2において設定された再生周波数を補正して 1倍速用音 声データ a 1と 2倍速用音声データ a 2との再生タイミングを再び同期させるた めの処理である。
図 6は、 図 4に示す同期捕正処理の一例を示すフローチャートである。 まず、 ステップ S 1 1において、 音声再生部 1 1 2は、 1倍速用音声データ a 1と 2倍 速用音声データ a 2との再生タイミングがずれているか否かを判断する。 再生タ イミングがずれていないと判断されない場合には (ステップ S 1 1で N O) 、 音 声再生部 1 1 2は、 ステップ S 2で設定された 1倍速用音声データ a 1及ぴ 2倍 速用音声データ a 2の再生周波数を変更することなく、 図 4に示すステップ 5に 戻る。
一方、 再生タイミングがずれていると判断された場合 (ステップ S 1 1で Y E S ) 、 ステップ S 1 2において、 音声再生部 1 1 2は、 1倍速用音声データ a 1 及ぴ 2倍速用音声データ a 2のうち再生位置が先行している音声データが通常の 音量で出力されている力否かを判断する (S 1 2 ) 。
先行している音声データが通常の音量で出力されていると判断された場合 (ス テツプ S 1 2で Y E S ) 、 ステップ S 1 3において、 音声再生部 1 1 2は、 再生 位置が遅れている音声データ (無音量で出力されている音声データ) が先行して いる音声データに追いつくように、 遅れている音声データの再生周波数を既設定 の再生周波数より高くなるように変更し、 図 4に示すステツプ 5に戻る。
一方、 先行している音声データが通常の音量で出力されていない、 すなわち遅 れている音声データが通常の音量で出力されていると判断された場合 (ステップ S 1 2で N O) 、 ステップ S 1 4において、 音声再生部 1 1 2は、 先行している 音声データ (無音量で出力されている音声データ) が遅れている音声データに合 うように、 先行している音声データの再生周波数を既設定の再生周波数より低く なるように変更し、 図 4に示すステップ 5に戻る。
上記の同期補正処理によって、 同期して再生されるべき 1倍速用音声データ a 1と 2倍速用音声データ a 2との再生タイミングがずれた場合に、 ステップ S 2 において設定された再生周波数を補正して 1倍速用音声データ a 1と 2倍速用音 声データ a 2との再生タイミングを再ぴ同期させることができる。
なお、 上記の例では、 再生周波数を変更して同期補正処理を行っているが、 こ の例に特に限定されず、 ステップ S 1 3において、 遅れている音声データの再生 位置が先行している音声データの再生位置に一致するように、 遅れている音声デ ータの再生位置を変更したり、 ステップ S 1 4において、 先行している音声デー タの再生位置が遅れている音声データの再生位置に一致するように、 先行してい る音声データの再生位置を変更してもよい。
再び、 図 4を参照して、 ステップ S 5において、 再生条件決定部 1 1 1は、 再 生されていない 1倍速用音声データ a 1及び 2倍速用音声データ a 2が記憶部 1 0 2に存在するか否かを判断する。 再生されていない 1倍速用音声データ a 1及 ぴ 2倍速用音声データ a 2が存在しないと判断された場合 (ステップ S 5で N O) 、 音声再生処理を終了する。
一方、 再生されていない 1倍速用音声データ a 1及び 2倍速用音声データ a 2 が存在すると判断された場合 (ステップ S 5で Y E S ) 、 ステップ S 6において、 再生条件決定部 1 1 1は、 操作部 1 0 3がユーザによる音声再生速度モード指示 コマンドを新たに受け付けたか否かを判断する。 音声再生速度モード指示コマン ドを新たに受け付けていないと判断された場合 (ステップ S 6で N O) 、 ステツ プ S 3に戻って以降の処理を継続する。
音声再生速度モード指示コマンドを新たに受け付けたと判断された場合 (ステ ップ S 6で Y E S ) 、 ステップ 7において、 再生条件決定部 1 1 1は、 受け付け られた音声再生速度モード指示コマンドに応じた再生周波数及び音量を音声再生 部 1 1 2に設定し、 その後、 ステップ S 3に戻って以降の処理を継続する。 この ように、 音声再生速度モードが切り替えられた場合、 1倍速用音声データ a 1及 ぴ 2倍速用音声データ a 2の再生周波数及び音量が音声再生速度モードに応じた 再生周波数及び音量に変更される。
例えば、 標準速度再生モードから早聞速度再生モードに切り替えられた場合、 再生条件決定部 1 1 1は、 音声再生部 1 1 2における 1倍速用音声データ a 1の 再生周波数及び音量を、 1倍速用音声データ a 1の基本周波数と同じ再生周波数 及び標準音量から 1倍速用音声データ a 1の基本周波数の倍の再生周波数及び無 音量に変更する。 そして、 再生条件決定部 1 1 1は、 音声再生部 1 1 2における 2倍速用音声データ a 2の再生周波数及ぴ音量を 2倍速用音声データ a 2の基本 周波数の半分の再生周波数及び無音量から 2倍速用音声データ a 2の基本周波数 と同じ再生周波数及び標準音量に変更する。 この結果、 1倍速用音声が標準速度 で出力されている途中で音声再生速度モードが切り替えられると、 音程が変更さ れることなく、 2倍速用音声が早聞速度で出力されることとなる。
一方、 早聞速度再生モードから標準速度再生モードに切り替えられた場合、 再 生条件決定部 1 1 1は、 音声再生部 1 1 2における 1倍速用音声データ a 1の再 生周波数及び音量を、 1倍速用音声データ a 1の基本周波数の倍の再生周波数及 び無音量から 1倍速用音声データ a 1の基本周波数と同じ再生周波数及び標準音 量に変更する。 そして、 再生条件決定部 1 1 1は、 音声再生部 1 1 2における 2 倍速用音声データ a 2の再生周波数及び音量を、 2倍速用音声データ a 2の基本 周波数と同じ再生周波数及び標準音量から 2倍速用音声データ a 2の基本周波数 の半分の再生周波数及び無音量に変更する。 この結果、 2倍速用音声が早聞速度 で出力されている途中で音声再生速度モードが切り替えられると、 音程が変更さ れることなく、 1倍速用音声が標準速度で出力されることとなる。
上記のように、 本実施の形態では、 早聞速度用の音声データである 2倍速用音 声データ a 2を記録媒体 3 0 0に予め格納しておき、 早聞速度再生モードにおい て 2倍速用音声データ a 2を再生して出力している。 これにより、 音程が通常の 音声より 1 オクターブ高くなることなく、 ユーザが聴取可能な早聞音声を自然 に再生することができる。 また、 1倍速用音声データ a 1と 2倍速用音声データ a 2とは常に同期して再生されている。 このため、 標準音声又は早聞音声が出力 されている途中でも、 ユーザは、 音声再生速度モードを切り替えることによって、 違和感を感じることなく所望の速度で再生される音声を聴取することができる。 これにより、 ユーザは、 聞きたくない音声を倍速で再生し、 聞きたい音声だけを 等速で再生すること等ができる。
上記の説明では、 標準音声及び早聞音声を切り替えるために再生速度が同じで ある 2つの音声データを同期して再生する場合について説明したが、 本発明が適 用される再生速度はこの例に特に限定されず、 再生速度の異なる種々の音声デー タを同期して再生することもできる。
以下に再生速度の異なる 2つの音声データを同期して再生する方法について説 明する。 例えば、 各音声データの再生総時間に対する再生済み時間の比が両音声 データで同じになるように両音声データを再生したり、 両音声データの再生済み 時間の再生総時間からの割合を比較して両音声データを再生することによって、 再生速度の異なる 2つの音声データを同期して再生することができる。
または、 各音声データの再生総時間に対する残り再生時間 (再生総時間から再 生済み時間を減算した時間) の比が両音声データで同じになるように両音声デー タを再生したり、 両音声データの残り再生時間の再生総時間の割合を比較して両 音声データを再生することによつても、 再生速度の異なる 2つの音声データを同 期して再生することができる。
あるいは、 所定データ量ごと、 例えば、 単位時間ごと、 音節ごと、 単語ごと、 又は一文字ごとに、 音声データと区別可能な所定のチヱックフラグを両音声デー タに揷入したチェックフラグ付音声データを用いて、 両音声データのチェックフ ラグの再生タイミングを比較して両音声データを再生することによつても、 再生 速度の異なる 2つの音声データを同期して再生することができる。
上記のような再生方法により、 種々の再生速度の音声データに本発明を同様に 適用することができ、 例えば、 2倍速用音声データの代わりに或いはこれに加え て、 スロー再生するための 1 Z 2倍速用音声データ、 さらに高速再生するための 3倍速用音声データ等の F倍速再生 (Fは実数) するための F倍速用音声データ にも同様に適用することができる。 また、 上記のような F倍速用音声データは、 そのまま F倍速再生に用いられることが好ましいが、 必ずしもこれには限定され ず、 F倍速と近似の F 1倍速、 例えば、 0 . 8 X F〜1 . 2 倍速に 倍速音 声データを用いてもよい。 この場合、 再生周波数は、 F倍速用音声データの再生 周波数 X F ÷ F 1で求めた値等に設定される。
(第 2の実施の形態)
次に、 本発明の第 2の実施の形態によるビデオゲーム装置はついて説明する。 本実施の形態は、 第 1の実施の形態における 1倍速用音声及び 2倍速用音声の同 期再生に加え、 出力される音声に当該音声を表す文字等を同期させて表示するも のである。 ここでは、 記録媒体 3 0 0に記録される音声再生プログラムを含むゲ ームプログラムは変更されるものの、 ビデオゲーム装置の構成は図 1に示したも のと同様であるので、 ハードウェア構成の図示及び説明は省略することとする。 図 7は、 本発明の第 2の実施の形態によるビデオゲーム装置の主要機能を示す 機能プロック図である。 なお、 図 7に示すビデオゲーム装置では、 図 2に示すビ デォゲーム装置と同様の機能を有する部分については同一符号を付して詳細な説 明を省略し、 以下本実施の形態の特徴的部分について説明する。
図 7に示すビデオゲーム装置は、 文字を表示するための表示部 1 0 6をさらに 備え、 プログラム実行部 1 0 4 aは、 文字表示制御部 1 1 3をさらに含み、 記憶 部 1 0 2 aは、 文字データ a 3をさらに格納する。 文字表示制御部 1 1 3は、 表 示部 1 0 6に表示する文字を記憶部 1 0 2に記憶される文字データ a 3に基づい て生成し、 この生成した文字を上述の 1倍速用音声及び 2倍速用音声の再生に同 期させて表示部 1 0 6に表示する。
次に、 図 7 に示すビデオゲーム装置が記録媒体 3 0 0 aに格納される音声再 生プログラムを実行することによって実現される音声再生処理を説明する。 図 8 は、 図 7に示すビデオゲーム装置が実行する音声再生処理の一例を示すフローチ ヤートである。 なお、 図 8に示すフローチャートの各ステップのうち図 4に示す フローチャートの各ステップと同様の処理が実行されるステップについては、 同 一符号を付与して詳細な説明を省略する。
まず、 ステップ 2 1において、 再生条件決定部 1 1 1は、 記録媒体 3 0 0 aに 記憶されている 1倍速用音声データ a 1及び 2倍速用音声データ a 2を記録媒体 3 0 0 aから読み出し記憶部 1 0 2 aに格納する。 また、 文字表示制御部 1 1 3 は、 再生条件決定部 1 1 1によって読み込まれた 1倍速用音声データ a 1及ぴ 2 倍速用音声データ a 2に対応する文字データ a 3を、 記録媒体 3 0 0 aから読み 込み記憶部 1 0 2 aに格納する。 ここで、 文字データ a 3は、 1倍速用音声デー タ a 1及び 2倍速用音声データ a 2を用いて再生される音声を表記した文字列を 描画するためのデータである。 本実施の形態では、 1倍速用音声データ a 1、 2 倍速用音声データ a 2及び文字データ a 3は、 1文節を一単位とするデータから 構成されている。
次に、 第 1の実施の形態と同様にステップ S 2, S 3の処理が実行された後、 ステップ S 2 2において、 文字表示制御部 1 1 3は、 ステップ S 3において再生 されている 1倍速用音声データ a 1又は 2倍速用音声データ a 2の再生時間を 1 文節に含まれる文字数で除算して、 1文字当りの描画時間を算出する。
次に、 ステップ 2 3において、 文字表示制御部 1 1 3は、 記憶部 1 0 2 aから 文字データ a 3を読み出し、 ステップ S 2 2において算出された描画時間に応じ て文字を順次表示部 1 0 6に表示させる。 その後、 第 1の実施の形態と同様にス テツプ S 4 ~ S 7の処理が実行された後にステップ S 3に戻り、 処理が継続され る。
このように、 本実施の形態では、 文字データ a 3を用いて描画される文字が、 1倍速用音声データ a 1及び 2倍速用音声データ a 2を用いて出力される音声の うち少なくともいずれか一方に同期して順次表示される。 これにより、 音声の出 力と文字の表示とを同期させることができ、 ユーザは視覚と聴覚の双方で情報を 受け取ることができる。 なお、 上記の説明では、 1文字当りの描画時間を算出したが、 この例に特に限 定されず、 1分節を構成する文字数を、 1文節に対応する 1倍速用音声データ a 1又は 2倍速用音声データ a 2の再生時間で除算して単位時間あたりの描画文字 数つまり描画速度を求め、 この描画速度に応じて文字を所定方向、 例えば、 左か ら右へ又は上から下へ描画するようにしてもよい。
また、 以下に説明する再生時間テーブル又は音声データ量テーブルを予め作成 して記憶部 1 0 2 aに予め記憶させ、 これらのテーブルを用いて文字を音声に同 期させて表示するようにしてもよい。
図 9は、 再生時間テーブルのデータ構造の一例を示す模式図である。 図 9に示 す再生時間テーブル 1 3 1には、 1分節 ( 「こんにちは。 」 ) を構成する文字デ ータ a 3の各文字ごとに標準速度時の再生時間 Q 1〜Q 6 ( s e c ) が設定され 記憶されている。 例えば、 標準速度時すなわち標準速度再生モードの場合、 文字 表示制御部 1 1 3は、 記憶部 1 0 2 aに記憶されている再生時間テーブル 1 3 1 を参照する。 そして、 文字表示制御部 1 1 3は、 文字 「こ」 に対応する 1倍速用 音声データ a 1が再生時間 Q 1で再生されているときに、 文字 「こ」 に対応する 文字データ a 3を用いることにより、 文字 「こ」 を、 再生時間 Q 1の間、 表示部 1 0 6に表示する。 同様にして、 文字表示制御部 1 1 3は、 文字 「ん」 、 「に」 、 「ち」 、 「は」 、 「。 」 を、 再生時間 Q 2, Q 3, Q 4 , Q 5 , Q 6の間、 順次 表示部 1 0 6に表示させる。 一方、 早聞速度で再生時すなわち早聞速度再生モー ドの場合、 文字表示制御部 1 1 3は、 再生時間 Q 1〜Q 6を 2分の 1 にし、 上 記と同様にして各文字を順次表示部 1 0 6に表示する。
なお、 上記の例では、 標準速度時の再生時間を基準として再生時間テーブルを 設定したが、 この例に特に限定されず、 早聞速度時の再生時間を基準として再生 時間テーブルを設定したり、 標準速度時および早聞速度時ごとに再生時間を基準 として再生時間テーブルを設定するようにしてもよい。 また、 上記の各場合にお いて、 各再生時間内で表示可能な描画速度に応じて文字を所定方向、 例えば、 左 から右へ又は上から下へ描画するようにしてもよい。
図 1 0は、 音声データ量テーブルのデータ構造の一例を示す模式図である。 図 1 0に示す音声データ量テーブル 1 4 1は、 1分節 ( 「こんにちは。 」 ) を構成 する文字データ a 3の各文字ごとに対応する 1倍速用音声データ a 1の音声デー タ量 R1〜R6 (b i t) を記憶している。 例えば、 文字表示制御部 113は、 記憶部 102 aに記憶されている音声データ量テーブル 141を参照する。 そし て、 文字表示制御部 113は、 現在再生されている 1倍速用音声データ a 1の音 声データ量が音声データ量 R 1内の場合、 文字 「こ」 に対応する文字データ a 3 を用いることにより、 文字 「こ」 を表示部 106に表示する。 同様にして、 文字 表示制御部 1 13は、 現在再生されている 1倍速用音声データ a 1の音声データ 量と各音声データ量 R 2, R 3, R 4, R 5, R 6と比較して、 文字 「ん J 、 「に」 、 「ち」 、 「は」 、 「。 」 を順次表示部 106に表示する。 一方、 早聞速 度時すなわち早聞再生モードの場合、 文字表示制御部 113は、 音声データ量 R 1〜R 6を 2倍速用音声データ a 2の音声データ量に換算し、 上記と同様にして 各文字を順次表示部 106に表示する。
なお、 上記の例では、 1倍速用音声データ a 1の音声データ量を基準として音 声データ量テーブルを設定したが、 この例に特に限定されず、 2倍速用音声デー タ a 2の音声データ量を基準として音声データ量テーブルを設定したり、 各音声 データごとの音声データ量を基準として音声データ量テーブルを設定するように してもよい。 また、 上記の各場合において、 各音声データ量に対応する再生時間 内で表示可能な描画速度に応じて文字を所定方向、 例えば、 左から右へ又は上か ら下へ描画するようにしてもよい。
(実施の形態 3 )
次に、 本発明の第 3の実施の形態による音声再生装置について説明する。 図 1 1は、 本発明の第 3の実施の形態による音声再生装置の構成を示すプロック図で ある。 なお、 本実施の形態による音声再生装置としては、 例えば、 CD (Com p a c t D i s c) プレイヤ、 MD (Mi n i— D i s c) プレイヤ、 DVD (D i g i t a l Ve r s a t i l e D i s c) プレイヤ等が該当し、 主と してハードウエアによって音声再生処理が実行される。
図 11に示す音声再生装置は、 操作部 201、 再生条件決定部 202、 記憶部 203、 音声再生部 204、 音声選択部 205及ぴスピー力 206を備える。 記憶部 203は、 CD等の記憶媒体駆動装置等から構成され、 音声再生部 20 4の指示に応じて記憶媒体に記憶されている 1倍速用音声データ a 1及び 2倍速 用音声データ a 2を音声再生部 2 0 4へ出力する。 操作部 2 0 3は、 ユーザから の音声再生速度モード指示コマンドを受け付ける。 なお、 音声再生速度モード指 示コマンドは、 第 1の実施の形態と同様である。 また、 1倍速用音声データ a 1 及び 2倍速用音声データ a 2のデータ形式は特に限定されず、 例えば、 図 3に示 す 1倍速用音声データ a 1及び 2倍速用音声データ a 2を用いることができる。 ' 再生条件決定部 2 0 2は、 操作部 2 0 1によって受け付けられた音声再生速度 モード指示コマンドに応じた速度で 1倍速用音声データ a 1及び 2倍速用音声デ ータ a 2が同期して再生されるように 1倍速用音声データ a 1及び 2倍速用音声 データ a 2の再生周波数を音声再生部 2 0 4に設定する。 また、 再生条件決定部 2 0 2は、 1倍速用音声及び 2倍速用音声のうち音声再生速度モード指示コマン ドに応じた一方のみをユーザが聴取可能となるように音声選択部 2 0 5を制御す る。
音声再生部 2 0 4は、 再生条件決定部 2 0 2によって設定された再生周波数で 1倍速用音声データ a 1及び 2倍速用音声データ a 2を同期させて再生し、 1倍 速用音声信号及び 2倍速用音声信号を音声選択部 2 0 5へ出力する。 音声選択部 2 0 5は、 再生条件決定部 2 0 2の指示に応じて、 1倍速用音声信号及び 2倍速 用音声信号のうちの一方をスピーカ 2 0 6へ出力する。 スピーカ 6は、 入力され た音声信号に応じた音声を出力する。
上記の構成により、 ユーザが操作部 2 0 1を用いて標準速度再生モードを選択 した場合、 音声再生部 2 0 4は、 1倍速用音声データ a 1及び 2倍速用音声デー タ a 2を記憶部 2 0 3から読み出し、 1倍速用音声データ a 1を 1倍速用音声デ ータ a 1の基本周波数と同じ再生周波数で順次再生して標準速度の 1倍速用音声 信号を出力する。 そして、 音声再生部 2 0 4は、 2倍速用音声データ a 2を 2倍 速用音声データ a 2の半分の再生周波数で 1倍速用音声データ a 1に同期して順 次再生して標準速度の 2倍速用音声信号を出力する。 このとき、 音声選択部 2 0 5は、 1倍速用音声信号のみをスピーカ 2 0 6へ出力し、 ユーザは、 1倍速用音 声データ a 1による通常の音程の音声のみを標準速度で聞くことができる。
一方、 ユーザが操作部 2 0 1を用いて早聞速度再生モードを選択した場合、 音 声再生部 2 0 4は、 1倍速用音声データ a 1及び 2倍速用音声データ a 2を記憶 部 2 0 3から読み出し、 2倍速用音声データ a 2を当該 2倍速用音声データ a 2 と同じ再生周波数で順次再生して早聞速度の 2倍速用音声信号を出力する。 そし て、 音声再生部 2 0 4は、 1倍速用音声データ a 1を当該 1倍速用音声データ a 1の倍の再生周波数で 2倍速用音声データ a 2に同期して順次再生して 2倍速の 1倍速用音声信号を出力する。 このとき、 音声選択部 2 0 5は、 2倍速用音声信 号のみをスピーカ 2 0 6へ出力し、 ユーザは、 2倍速用音声データ a 2による通 常の音程の音声のみを倍速で聞くことができる。
なお、 上記の各実施の形態では、 音声を再生するためのデータとして 1倍速用 音声データ及び 2倍速用音声データを説明したが、 この例に特に限定されず、 音 楽を再生するための音声データ等にも本発明を同様に適用することができる。 また、 上記の各実施の形態では、 1倍速用音声データと 2倍速用音声データと が予め記録媒体等に格納される場合について説明したが、 この例に限定されず、 インターネットゃイントラネット等を用いたネットワーク配信によって配信され るようにしてもよい。 産業上の利用可能性
請求項 1に記載の本発明によれば、 再生速度変更時に当該再生速度に対応する 音声データを作成する等の音声処理が不要になるため、 再生速度を瞬時に違和感 なく切り替えることができる。 また、 事前に充分な処理時間をかけて再生速度に 対応した音声データを作成することができるので、 再生速度を変更した場合に音 程等の変動のない自然な音声を出力することができる。
請求項 2に記載の本発明によれば、 各再生速度に応じて予め作成された音声デ ータを用いて音声を出力することができる。 このとき、 音声の再生速度を切り替 えても、 同じ内容の音声を出力することができる。 また、 第 1の音声データから 第 2の音声データを作成する等の音声処理が不要になり、 第 2の再生速度で再生 した場合、 第 2の音声データを用いて音程等の変動のない自然な音声を再生する ことができる。 これらのことから、 C P U等のハードウェアに過度な負担をかけ ることなく、 音声の再生速度を違和感なく切り替えることができる。 特に、 音声処理だけでなく、 画像処理を主体とするビデオゲーム装置に本発明 を用いた場合には、 複雑な画像処理に C P Uの処理能力を充分に配分することが できるので、 種々の再生速度で自然な音声を再生しながら、 種々の画像をリアル タイムに表示することができる。
請求項 3に記載の本発明によれば、 ユーザは所望の再生速度で音声を聞くこと ができるとともに、 一方の音声の出力途中で他方の音声に切り替えることができ る。 このとき、 音声の出力途中で音声を切り替えた場合でも、 第 1の音声速度モ ードで出力される音声と第 2の音声速度モードで出力される音声とではピッチ等 の変動がないため、 切り替え前後で違和感のない聞きやすい自然な音声を再生で きる。
請求項 4に記載の本発明によれば、 ユーザは標準速度及び高速のうち所望の速 度で自然な音声を聞くことができるので、 聞きたい音声のみを標準速度で再生さ せて聞いたり、 聞きたくない音声を高速で再生して聞き飛ばしたり、 又は、 時間 がない場合等において高速で音声を聞く等することができ、 種々の使用方法で音 声を聞くことができる。
請求項 5に記載の本発明によれば、 チヱックフラグ等の同期処理専用のデータ を第 1及び第 2の音声データに付加することなく、 第 1及び第 2の音声データの 同期処理を行うことができる。 これにより、 音声データのデータ量を必要最低限 に抑制することができるとともに、 種々の形式の音声データを加工することなく 第 1及び第 2の音声データとして直接的に用いることができる。
請求項 6に記載の本発明によれば、 第 1及び第 2の音声データを再生される音 声の所定の区切りごとに高精度に同期させて再生することができるので、 再生さ れる音声が聞き取りやすい状態で 2つの音声を高精度に同期させて再生すること ができる。
請求項 7に記載の本発明によれば、 出力されている音声に影響を与えることな く、 同期ずれを捕正することができるので、 切り替え前後で違和感のない聞きや すい自然な音声を安定して再生することができる。
請求項 8に記載の本発明によれば、 再生されている音声に同期させて表示画面 上に文字を表示させることができるので、 視覚と聴覚とによってユーザに伝達す ることができ、 わかりやすい演出を行うことができる。
請求項 9に記載の本発明によれば、 チェックフラグ等の同期処理専用のデータ を文字データに付加することなく、 文字と音声との同期処理を行うことができる ので、 文字データのデータ量を必要最低限に抑制することができるとともに、 種々の形式の文字データを加工することなく文字データとして直接的に用いるこ とができる。
請求項 1 0に記載の本発明によれば、 再生時間を計算することなく、 文字と音 声との同期処理を行うことができるので、 C P U等のハードウエアに過度な負担 をかけることなく、 同期処理を高速に行うことができる。
請求項 1 1に記載の本発明によれば、 チェックフラグ等の同期処理専用のデー タを文字データに付加することなく、 文字と音声との同期処理を行うことができ るので、 文字データのデータ量を必要最低限に削減できるとともに、 文字データ として種々の形式の文字データをそのまま用いることができる。
請求項 1 2に記載の本発明によれば、 再生速度変更時に当該再生速度に対応す る音声データを作成する等の音声処理が不要になり、 音声の再生速度を瞬時に違 和感なく変えることができる。 また、 事前に充分な処理時間をかけて再生速度に 対応した音声データを作成することができる。 これらのことから、 再生速度を変 更する場合、 C P U等のハードウェアは、 比較的小さな処理負担で、 音程等の変 動のない自然な音声を出力することができる。
請求項 1 3に記載の本発明によれば、 再生速度変更時に当該再生速度に対応す る音声データを作成する等の音声処理が不要になり、 音声の再生速度を瞬時に違 和感なく変えることができる。 また、 事前に充分な処理時間をかけて再生速度に 対応した音声データを作成することができる。 これらのことから、 再生速度を変 更した場合、 C P U等のハードウェアは、 比較的小さな処理負担で、 音程等の変 動のない自然な音声を出力することができる。

Claims

請 求 の 範 囲
1 . 音声データを用いて音声を再生するための音声再生プログラムであって、 所定の音声を複数の異なる再生速度で再生するために予め準備され各再生速度 にそれぞれ対応する複数の音声データを記憶する音声記憶手段と、
前記音声データを出力可能な状態にする再生手段と、
前記各再生速度のうちいずれかの速度で音声を出力する場合に、 該再生速度に 対応する音声データによる音声を出力する音声出力手段としてコンピュータを機 能させることを特徴とする音声再生プログラム。
2 . 前記音声記憶手段は、 所定の音声を第 1の再生速度で再生するために予め準 備された第 1の音声データと、 前記所定の音声を前記第 1の再生速度と異なる第 2の再生速度で再生するために予め準備された第 2の音声データとを記憶し、 前記再生手段は、 音声記憶手段から読み出した第 1及び第 2の音声データの再 生位置を対応付けて前記第 1及び第 2の音声データを再生し、 前記第 1及び第 2 の音声データによる音声を出力可能な状態にし、
前記音声出力手段は、 前記第 1の再生速度で音声を出力する場合に前記再生手 段によって再生されている第 1の音声データによる第 1の音声を出力し、 前記第 2の再生速度で音声を出力する場合に前記再生手段によって再生されている前記 第 2の音声データによる第 2の音声を出力することを特徴とする請求項 1に記載 の音声再生プログラム。
3 . 前記音声出力手段による音声の出力を前記第 1の再生速度で再生するための 第 1の再生速度モードと、 前記音声出力手段による音声の出力を前記第 2の再生 速度で再生するための第 2の再生速度モードとのいずれか一方をユーザが選択す る操作を受け付ける操作手段として前記コンピュータをさらに機能させ、
前記音声出力手段は、 前記操作手段によって受け付けられた再生速度モードに 応じて前記第 1及ぴ第 2の音声データによる音声のうちのいずれか一方を出力す ることを特徴とする請求項 2に記載の音声再生プログラム。
4 . 前記音声記憶手段は、 前記第 1の音声データとして、 所定の音声を標準速度 で再生するために予め準備された通常音声データを記憶するとともに、 前記第 2 の音声データとして、 前記通常音声データを用いて再生される音声と同じ内容の 音声を標準速度より速!/、再生速度で再生するために予め準備された高速音声デー タを記憶し、
前記音声出力手段は、 標準速度で音声を出力する場合に前記通常音声データに よる標準速度の音声を出力し、 高速で音声を出力する場合に前記高速音声データ による高速の音声を出力することを特徴とする請求項 2又は 3の何れかに記載の 音声再生プログラム。
5 . 前記再生手段は、 前記第 1及び第 2の音声データの再生済み時間又は残り再 生時間に基づいて、 前記第 1及び第 2の音声データの再生位置を対応付けて前記 第 1及ぴ第 2の音声データを再生することを特徴とする請求項 2〜 4の何れかに 記載の音声再生プログラム。
6 . 前記音声記憶手段は、 再生される音声の所定の区切りごとにチェックフラグ が挿入された前記第 1及び第 2の音声データを記憶し、
前記再生手段は、 前記第 1及び第 2の音声データのチヱックフラグの再生タイ ミングに基づいて前記第 1及び第 2の音声データの再生位置を対応付けて再生す ることを特徴とする請求項 2〜 4のいずれかに記載の音声再生プログラム。
7 . 前記再生手段は、 前記第 1及び第 2の音声データの再生位置がずれた場合に おいて、 前記第 1の再生速度で音声が出力されているときには、 前記第 1の音声 データの再生位置と対応するように前記第 2の音声データの再生速度を調整し、 前記第 2の再生速度で音声が出力されているときには、 前記第 2の音声データの 再生位置と対応するように前記第 1の音声データの再生速度を調整することを特 徴とする請求項 2〜 6のいずれかに記載の音声再生プログラム。
8 . 前記第 1及び第 2の音声データによって再生される音声の内容を表記する文 字を生成するための文字データを記憶する文字記憶手段と、
前記文字記憶手段から読み出した文字データによって表される文字を前記音声 出力手段によって出力されている第 1及び第 2の音声のうち少なくともいずれか 一方に同期させて表示する表示手段として前記コンピュータをさらに機能させる ことを特徴とする請求項 2〜 7のいずれかに記載の音声再生プログラム。
9 . 前記表示手段は、 前記文字データによって表される文字に対応する前記第 1 又は第 2の音声データの再生時間に基づいて、 前記文字記憶手段から読み出した 文字データによって表される文字を前記音声出力手段によって出力されている第 1及び第 2の音声のうち少なくともいずれか一方に同期させて表示することを特 徴とする請求項 8に記載の音声再生プログラム。
1 0 . 前記表示手段は、 前記再生時間を文字ごとに予め記憶し、 表示される文字 に対して記憶されている再生時間を参照して当該文字を音声に同期させて表示す ることを特徴とする請求項 9に記載の音声再生プログラム。
1 1 . 前記表示手段は、 前記文字データによって表される文字に対応する前記第 1又は第 2の音声データのデータ量に基づいて、 前記文字記憶手段から読み出し た文字データによって表される文字を前記音声出力手段によって出力されている 第 1及び第 2の音声のうち少なくともいずれか一方に同期させて表示することを 特徴とする請求項 8に記載の音声再生プログラム。
1 2 . 音声データを用いてコンピュータにより音声を再生する音声再生方法であ つて、
所定の音声を複数の異なる再生速度で再生するために予め準備され各再生速度 にそれぞれ対応する複数の音声データによる音声を出力可能な状態にするステツ プと、
前記各再生速度のうちいずれかの速度で音声を出力する場合に、 該再生速度に 対応する音声データによる音声を出力するステップとを含むことを特徴とする音 声再生方法。
1 3 . 音声データを用いて音声を再生する音声再生装置であって、
所定の音声を複数の異なる再生速度で再生するために予め準備され各再生速度 にそれぞれ対応する複数の音声データを記憶する音声記憶手段と、
前記音声データを出力可能な状態にする再生手段と、
前記各再生速度のうちいずれかの速度で音声を出力する場合に、 該再生速度に 対応する音声データによる音声を出力する音声出力手段とを備えることを特徴と する音声再生装置。
PCT/JP2004/005651 2003-05-02 2004-04-20 音声再生プログラム、音声再生方法及び音声再生装置 WO2004097800A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
KR1020057020554A KR100651527B1 (ko) 2003-05-02 2004-04-20 음성 재생 프로그램, 음성 재생 방법 및 음성 재생 장치
US10/555,005 US20070032894A1 (en) 2003-05-02 2004-04-20 Audio reproducing program, audio reproducing method and audio reproducing apparatus
DE602004025578T DE602004025578D1 (de) 2003-05-02 2004-04-20 Audio-abspielprogramm, audio-abspielverfahren und audio-abspieleinrichtung
EP04728458A EP1650747B1 (en) 2003-05-02 2004-04-20 Audio playback program, audio playback method, and audio playback device
CNB2004800119655A CN100399421C (zh) 2003-05-02 2004-04-20 声音重放方法以及声音重放装置
HK06108237.0A HK1088109A1 (en) 2003-05-02 2006-07-25 Audio reproducing method and audio reproducing apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003-127110 2003-05-02
JP2003127110A JP4133559B2 (ja) 2003-05-02 2003-05-02 音声再生プログラム、音声再生方法及び音声再生装置

Publications (1)

Publication Number Publication Date
WO2004097800A1 true WO2004097800A1 (ja) 2004-11-11

Family

ID=33410363

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/005651 WO2004097800A1 (ja) 2003-05-02 2004-04-20 音声再生プログラム、音声再生方法及び音声再生装置

Country Status (9)

Country Link
US (1) US20070032894A1 (ja)
EP (1) EP1650747B1 (ja)
JP (1) JP4133559B2 (ja)
KR (1) KR100651527B1 (ja)
CN (1) CN100399421C (ja)
DE (1) DE602004025578D1 (ja)
HK (1) HK1088109A1 (ja)
TW (1) TWI257821B (ja)
WO (1) WO2004097800A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113096623A (zh) * 2021-03-26 2021-07-09 北京儒博科技有限公司 语音处理方法、装置、电子设备及介质
TWI815161B (zh) * 2021-05-17 2023-09-11 英華達股份有限公司 音訊播放控制方法、系統及電子設備

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9836276B2 (en) * 2009-05-27 2017-12-05 Hon Hai Precision Industry Co., Ltd. Voice command processing method and electronic device utilizing the same
EP2647005B1 (en) 2010-12-03 2017-08-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for geometry-based spatial audio coding
US9020623B2 (en) * 2012-06-19 2015-04-28 Sonos, Inc Methods and apparatus to provide an infrared signal
US10262690B2 (en) * 2015-03-03 2019-04-16 Sony Semiconductor Solutions Corporation Signal processing device, signal processing system, signal processing method, and program
CN106534444A (zh) * 2016-11-13 2017-03-22 南京汉隆科技有限公司 一种声控网络话机装置及其控制方法
TWI657437B (zh) * 2018-05-25 2019-04-21 英屬開曼群島商睿能創意公司 電動載具以及播放、產生與其相關音頻訊號之方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04312169A (ja) * 1991-04-11 1992-11-04 Toshiba Corp 文書読上げ指示装置
JPH07153188A (ja) * 1993-11-29 1995-06-16 Matsushita Electric Ind Co Ltd 音声再生装置
JPH07181992A (ja) * 1993-12-22 1995-07-21 Toshiba Corp 文書読上げ装置及び方法
JPH08146985A (ja) * 1994-11-17 1996-06-07 Sanyo Electric Co Ltd 話速制御システム
JPH0916195A (ja) * 1995-07-03 1997-01-17 Canon Inc 情報処理装置及びその方法
JPH11249676A (ja) * 1998-02-27 1999-09-17 Secom Co Ltd 音声合成装置
JP2001005476A (ja) * 1999-06-22 2001-01-12 Matsushita Electric Ind Co Ltd プレゼンテーション装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4758908A (en) * 1986-09-12 1988-07-19 Fred James Method and apparatus for substituting a higher quality audio soundtrack for a lesser quality audio soundtrack during reproduction of the lesser quality audio soundtrack and a corresponding visual picture
US5040081A (en) * 1986-09-23 1991-08-13 Mccutchen David Audiovisual synchronization signal generator using audio signature comparison
US6959220B1 (en) * 1997-11-07 2005-10-25 Microsoft Corporation Digital audio signal filtering mechanism and method
US6425018B1 (en) * 1998-02-27 2002-07-23 Israel Kaganas Portable music player
AU5926099A (en) * 1998-09-15 2000-04-03 Microsoft Corporation Annotation creation and notification via electronic mail
JP3491822B2 (ja) * 1999-05-28 2004-01-26 日本ビクター株式会社 デジタル情報信号記録装置、およびデジタル情報信号記録方法
US7237254B1 (en) * 2000-03-29 2007-06-26 Microsoft Corporation Seamless switching between different playback speeds of time-scale modified data streams

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04312169A (ja) * 1991-04-11 1992-11-04 Toshiba Corp 文書読上げ指示装置
JPH07153188A (ja) * 1993-11-29 1995-06-16 Matsushita Electric Ind Co Ltd 音声再生装置
JPH07181992A (ja) * 1993-12-22 1995-07-21 Toshiba Corp 文書読上げ装置及び方法
JPH08146985A (ja) * 1994-11-17 1996-06-07 Sanyo Electric Co Ltd 話速制御システム
JPH0916195A (ja) * 1995-07-03 1997-01-17 Canon Inc 情報処理装置及びその方法
JPH11249676A (ja) * 1998-02-27 1999-09-17 Secom Co Ltd 音声合成装置
JP2001005476A (ja) * 1999-06-22 2001-01-12 Matsushita Electric Ind Co Ltd プレゼンテーション装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1650747A4 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113096623A (zh) * 2021-03-26 2021-07-09 北京儒博科技有限公司 语音处理方法、装置、电子设备及介质
CN113096623B (zh) * 2021-03-26 2023-07-14 北京如布科技有限公司 语音处理方法、装置、电子设备及介质
TWI815161B (zh) * 2021-05-17 2023-09-11 英華達股份有限公司 音訊播放控制方法、系統及電子設備

Also Published As

Publication number Publication date
TW200507676A (en) 2005-02-16
KR20050122280A (ko) 2005-12-28
KR100651527B1 (ko) 2006-11-30
EP1650747A1 (en) 2006-04-26
EP1650747A4 (en) 2009-01-07
HK1088109A1 (en) 2006-10-27
CN1784718A (zh) 2006-06-07
TWI257821B (en) 2006-07-01
JP4133559B2 (ja) 2008-08-13
US20070032894A1 (en) 2007-02-08
EP1650747B1 (en) 2010-02-17
CN100399421C (zh) 2008-07-02
DE602004025578D1 (de) 2010-04-01
JP2004333679A (ja) 2004-11-25

Similar Documents

Publication Publication Date Title
JP3686906B2 (ja) 音楽ゲームプログラム及び音楽ゲーム装置
JP2000116938A (ja) ゲームシステムおよびそのゲームを実行するためのプログラムを格納したコンピュータ読み取り可能な記憶媒体
JP3597803B2 (ja) 音量制御プログラム、音量制御方法及びビデオゲーム装置
US6828498B2 (en) Audio signal outputting method, audio signal reproduction method, and computer program product
JP4133559B2 (ja) 音声再生プログラム、音声再生方法及び音声再生装置
JP4757704B2 (ja) 音楽再生プログラム、音楽再生装置、音楽再生方法及び音楽再生システム
JP4563473B2 (ja) 再生装置、映像再生方法、映像再生プログラム、及び映像再生プログラムを記憶したコンピュータ読み取り可能な記憶媒体
KR100384919B1 (ko) 음원데이터생성방법,기록매체,및음원데이터처리장치
JP2001269483A (ja) 動画像再生方法及び音楽ゲーム装置
JP3751596B2 (ja) カラオケ装置、出力音量制御方法、ならびに、プログラム
JPH10319957A (ja) キャラクタ舞踏動作表示装置、方法および記録媒体
WO2007007522A1 (ja) ゲームプログラム、ゲーム装置及びゲーム方法
JP3942720B2 (ja) 楽音生成装置、画像生成装置、ゲーム装置及び情報記憶媒体
JP2004141352A (ja) 画像生成システム、プログラム及び情報記憶媒体
JP4880298B2 (ja) プログラム、情報記憶媒体、及びデータ再生システム
JP2605454B2 (ja) カラオケ装置
JP2008122888A (ja) カラオケ装置
JP2000254351A (ja) ビジュアルジョッキー表示方法
JP4071130B2 (ja) 制御装置、キャラクタ制御方法、ならびに、プログラム
JP2003289507A (ja) カラオケ装置
WO2011010596A1 (ja) ゲーム装置、ゲーム制御方法、情報記憶媒体、ならびに、プログラム
JP2005261500A (ja) ゲーム装置及びプログラム
JP2003271162A (ja) カラオケ装置およびカラオケ装置を実現するためのプログラム
JP2005021597A (ja) ゲーム装置、再生切替方法およびプログラム
JPH1055187A (ja) カラオケ装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 1020057020554

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 2007032894

Country of ref document: US

Ref document number: 10555005

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 20048119655

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2004728458

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1020057020554

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 2004728458

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 10555005

Country of ref document: US