WO2008018621A1 - Karaoke player and program - Google Patents

Karaoke player and program Download PDF

Info

Publication number
WO2008018621A1
WO2008018621A1 PCT/JP2007/065888 JP2007065888W WO2008018621A1 WO 2008018621 A1 WO2008018621 A1 WO 2008018621A1 JP 2007065888 W JP2007065888 W JP 2007065888W WO 2008018621 A1 WO2008018621 A1 WO 2008018621A1
Authority
WO
WIPO (PCT)
Prior art keywords
sound
singer
musical
output
signal
Prior art date
Application number
PCT/JP2007/065888
Other languages
French (fr)
Japanese (ja)
Inventor
Toshikazu Sato
Original Assignee
Yamaha Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corporation filed Critical Yamaha Corporation
Publication of WO2008018621A1 publication Critical patent/WO2008018621A1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/403Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers loud-speakers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • G10H1/366Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems with means for modifying or correcting the external signal, e.g. pitch correction, reverberation, changing a singer's voice
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/155Musical effects
    • G10H2210/265Acoustic effect simulation, i.e. volume, spatial, resonance or reverberation effects added to a musical sound, usually by appropriate filtering or delays
    • G10H2210/295Spatial effects, musical uses of multiple audio channels, e.g. stereo
    • G10H2210/301Soundscape or sound field simulation, reproduction or control for musical purposes, e.g. surround or 3D sound; Granular synthesis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/40Details of arrangements for obtaining desired directional characteristic by combining a number of identical transducers covered by H04R1/40 but not provided for in any of its subgroups
    • H04R2201/403Linear arrays of transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/20Processing of the output signals of the acoustic transducers of an array for obtaining a desired directivity characteristic

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

A technique of enabling the singer of a karaoke player to strongly hear a specific part such as a guide melody even when the signer is moving while singing is provided. The singer operates a part selection switch (123) provided to a microphone (121) and selects a part of the song to sing. The part selection switch (123) outputs an operation signal (part information) corresponding to the operated content to a direction control unit (17). When the singer sings a song to the accompaniment, the direction control unit (17) receives a sensor signal (direction information) from a position sensor (122) provided to the microphone (121) and detects the direction toward the microphone (121), i.e., toward the singer. According to the direction information outputted from the direction control unit (17), an output direction control unit (16) controls a loudspeaker array (18) to produce the guide melody corresponding to the part toward the direction of the singer.

Description

明 細 書 カラオケ演奏装置及びプログラム 技術分野  Description Karaoke Performance Equipment and Program Technical Field
本発明は、 カラオケ演奏装置及びプログラムに関する。  The present invention relates to a karaoke performance device and a program.
背景技術 Background art
カラオケ演奏装置において、 歌唱者の歌唱音声の放音方向を制御し て娯楽性を高める方法が提案されている。 例えば、 特許第 3 5 7 7 7 7 7号には、 歌唱者の歌唱音声の定位位置を変化させることにより、 カラオケ演奏に広がりを持たせる方法が開示されている。 また、 特開 2 0 0 5— 1 7 3 1 3 7号公報には、 歌唱者の歌唱音声を特定の範囲 に聞かせる技術が提案されている。 一方で、 特開平 1 0— 3 2 9 2号 公報には、 歌唱者に向けた指向性スピーカを設置し、 歌唱者のみにガ ィ ドボーカルを聞かせるというカラオケ演奏装置が提案されている。  In a karaoke performance device, a method has been proposed in which the direction of sound output of a singer's singing voice is controlled to enhance entertainment. For example, Japanese Patent No. 3 5 7 7 7 7 7 discloses a method for expanding the karaoke performance by changing the localization position of the singer's singing voice. In addition, Japanese Patent Laid-Open No. 20 05-1- 7 3 1 3 7 proposes a technique for listening to a singing voice of a singer within a specific range. On the other hand, Japanese Laid-Open Patent Publication No. Hei 10-3 2 92 2 proposes a karaoke performance device in which a directional speaker for a singer is installed so that only the singer can hear a vocal.
ところで、 特開平 1 0— 3 2 9 2号公報に記載の技術では、 歌唱者 が同じ場所で歌唱している場合にはガイ ドボーカルを聞かせることが できるものの、 歌唱者が歌唱しながら移動した場合には対応すること ができなかった。  By the way, in the technique described in Japanese Patent Laid-Open No. 10-3 2 9 2, when the singer is singing at the same place, the guide vocal can be heard, but the singer moved while singing. The case could not be handled.
本発明は上述した背景の下になされたものであり、 歌唱者が歌唱し ながら移動した場合であっても、 歌唱者にガイ ドメ口ディなどの特定 のパートを強く聞かせることのできる技術を提供することを目的とす る。  The present invention has been made under the background described above, and it is a technique that can make a singer strongly hear a specific part such as a guide mouth even when the singer moves while singing. It is intended to provide.
発明の開示 2007/065888 Disclosure of the invention 2007/065888
2 2
上記目的を達成するために、 本発明の第 1の態様によれば、 楽曲を 構成する複数のパートの楽音を表す楽音データをパート毎に記憶する 記憶手段と、 歌唱者の位置を検出して方向情報として出力方向制御手 段に供 する位置検出手段と、 前記記憶手段から前記各パートの楽音 データを読み出して、 予め定められた特定のパートの楽音信号を生成 して出力すると共に、 該特定のパートを除いたパートの一部又は全部 に対応する楽音信号を生成して出力する楽音生成手段と、 前記位置検 出手段から供給された方向情報に基づいて方向を指定して前記楽音生 成手段から供給された特定パートの楽音信号を出力する出力方向制御 手段と、 前記楽音生成手段から出力された前記特定パートを除いたパ 一トの一部または全部の楽音信号に応じた音を放音する第 1の放音手 段と、 前記出力方向制御手段から出力された前記特定のパートの楽音 信号に対し、 前記指定された方向に指向性を持たせて放音する第 2の 放音手段と、 を具備するカラオケ演奏装置が提供される。 In order to achieve the above object, according to the first aspect of the present invention, storage means for storing musical sound data representing musical sounds of a plurality of parts constituting a musical piece for each part, and detecting the position of the singer Position detection means provided to the output direction control means as direction information, and the musical tone data of each part are read from the storage means, and a musical sound signal of a predetermined specific part is generated and output. Musical tone generation means for generating and outputting a musical tone signal corresponding to a part or all of the part excluding the part, and generating the musical tone by specifying a direction based on the direction information supplied from the position detection means. Output direction control means for outputting a musical sound signal of a specific part supplied from the means, and a part or all of the musical sound signals of the part excluding the specific part outputted from the musical sound generating means. A first sound emission means for emitting sound, and a second sound sound having a directivity in the designated direction with respect to the music signal of the specific part output from the output direction control means. There is provided a karaoke performance device comprising: sound emitting means;
本発明の第 1の態様において、 前記予め定められた特定のパートの 楽音データはガイ ドメ口ディであり、 前記予め定められた特定のパー トを除いたパートの楽音データは伴奏データであることが好ましい。 また、 本発明の第 1の態様において、 前記予め定められた特定のパ ートの楽音データは、 複数のパートのメロディを示し、 前記楽音生成 手段は、 前記複数のパートのいずれかを選択する選択手段を有し、 前 記選択手段で選択されたパートの楽音信号を前記出力方向制御手段に 出力することが好ましい。  In the first aspect of the present invention, the predetermined specific part musical tone data is a guide mouthpiece, and the predetermined musical part data excluding the predetermined specific part is accompaniment data. Is preferred. In the first aspect of the present invention, the musical sound data of the predetermined specific part indicates a melody of a plurality of parts, and the musical sound generating means selects any of the plurality of parts. It is preferable that a musical tone signal of the part selected by the selection unit is output to the output direction control unit.
また、 本発明の第 1の態様において、 歌唱者の歌唱音声を収音する 収音手段と、 前記楽音生成手段から出力された前記特定パートを除い たパートの一部または全部の楽音信号に応じた音と、 前記歌唱者の歌 唱音声をミキシングして第 1の放音手段に出力するミキシング手段と、 をさらに有することが好ましい。 Further, in the first aspect of the present invention, the sound collecting means for collecting the singing voice of the singer, and according to part or all of the musical sound signal of the part excluding the specific part output from the musical sound generating means. And the song of the singer It is preferable to further include mixing means for mixing the singing voice and outputting it to the first sound emitting means.
また、 本発明の第 1の態様において、 前記選択手段は、 歌唱者の操 作に応じて操作手段から出力される信号に応じて、 前記パートを選択 することが好ましい。  In the first aspect of the present invention, it is preferable that the selection means selects the part according to a signal output from the operation means in accordance with a singer's operation.
また、 本発明の第 1の態様において、 歌唱者の歌唱音声を収音する 収音手段から出力される音声信号からピッチを検出するピッチ検出手 段を備え、 前記選択手段は、 前記ピッチ検出手段により検出されたピ ツチと前記記憶手段に記憶されたパート毎の楽音データのピッチとを 比較し、 比較結果に応じて、 一致度が最も高い楽音データのパートを 選択することが好ましい。  In the first aspect of the present invention, the apparatus further comprises a pitch detection unit that detects a pitch from an audio signal output from a sound collection unit that collects the singing voice of the singer, and the selection unit includes the pitch detection unit. It is preferable to compare the pitch detected by the above and the pitch of the musical sound data for each part stored in the storage means, and select the musical data part having the highest degree of coincidence according to the comparison result.
また、 本発明の第 1の態様において、 歌唱者の歌唱音声を収音する 収音手段に設けられたセンサからの信号を受信するセンサ信号受信手 段を備え、 前記位置検出手段は、 前記センサ信号受信手段により受信 された信号に応じて、 前記歌唱者の位置を検出することが好ましい。 また、 本発明の第 1の態様において、 列状に配置され、 各々が収音 した音声を音声信号として出力する複数の収音手段と、 前記各収音手 段からの出力信号を遅延させる複数の遅延手段と、 前記各遅延手段の 遅延時間を制御することにより、 前記複数の収音手段全体の収音方向 を制御する収音方向制御手段とを備え、 前記位置検出手段は、 前記収 音方向制御手段により収音方向が制御された前記複数の収音手段の収 音音量に応じて前記歌唱者の位置を検出することが好ましい。  In the first aspect of the present invention, there is provided a sensor signal receiving means for receiving a signal from a sensor provided in a sound collecting means for collecting a singer's singing voice, and the position detecting means comprises the sensor It is preferable to detect the position of the singer in accordance with the signal received by the signal receiving means. Further, in the first aspect of the present invention, a plurality of sound collecting means arranged in a row and outputting the sound collected by each as a sound signal, and a plurality of delaying output signals from each of the sound collecting means And a sound collection direction control means for controlling the sound collection direction of the plurality of sound collection means by controlling the delay time of each delay means, and the position detection means comprises the sound collection direction. It is preferable that the position of the singer is detected according to the sound collection volume of the plurality of sound collection means whose sound collection directions are controlled by the direction control means.
上記目的を達成するために、 本発明の第 2の態様によれば、 力ラオ ケ演奏装置にカラオケ演奏方法を実行させるプログラムであって、 前 記カラオケ演奏方法は、 楽曲を構成する複数のパートの楽音を表す楽 音データをパート毎に記憶する記憶ステップと、 歌唱者の位置を検出 して方向情報として出力方向制御部に供給する位置検出ステップと、 前記記憶された各パートの楽音データを読み出して、 予め定められた 特定のパートの楽音信号を生成して出力すると共に、 該特定のパート を除いたパートの一部又は全部に対応する楽音信号を生成して出力す る楽音生成ステップと、 前記位置検出ステップで供給された方向情報 に基づいて方向を指定して前記楽音生成ステップで供給された特定パ ートの楽音信号を出力する出力方向制御ステップと、 前記楽音生成ス テツプで出力された前記特定パートを除いたパートの一部または全部 の楽音信号に応じた音を放音する第 1の放音ステップと、 前記出力方 向制御ステップから出力された前記特定のパートの楽音信号に対し、 前記指定された方向に指向性を持たせて放音する第 2の放音ステップ と、 を具備するプログラムが提供される。 図面の簡単な説明 In order to achieve the above object, according to a second aspect of the present invention, there is provided a program for causing a powerful karaoke performance device to execute a karaoke performance method, wherein the karaoke performance method includes a plurality of parts constituting a musical composition. A memory step that stores musical sound data representing each musical sound for each part, and detects the position of the singer A position detection step for supplying the output direction control unit as direction information, reading out the stored musical tone data of each part, generating and outputting a predetermined musical tone signal of the specific part, and A tone generation step for generating and outputting a tone signal corresponding to a part or all of the part excluding the part, and the tone generation step by designating a direction based on the direction information supplied in the position detection step The output direction control step for outputting the musical sound signal of the specific part supplied in step (b), and the sound corresponding to part or all of the musical sound signal of the part excluding the specific part output in the musical sound generation step. The musical sound signal of the specific part output from the first sound emission step to be sounded and the output direction control step has directivity in the designated direction. Program comprising a second sound emission step of sound, is provided. Brief Description of Drawings
第 1図は、 カラオケ演奏装置の構成の一例を示すブロック図である。 第 2図は、 楽音データの内容の一例を示す図である。  FIG. 1 is a block diagram showing an example of the configuration of a karaoke performance device. FIG. 2 is a diagram showing an example of the contents of the musical sound data.
' 第 3図は、 入力部の構成の一例を示すブロック図である。  'FIG. 3 is a block diagram showing an example of the configuration of the input unit.
第 4図は、 カラオケ演奏装置の動作例を説明するための図である。 第 5図は、 カラオケ演奏装置の入力部の構成の一例を示すプロック 図である。  FIG. 4 is a diagram for explaining an operation example of the karaoke performance apparatus. FIG. 5 is a block diagram showing an example of the configuration of the input unit of the karaoke performance device.
第 6図は、 カラオケ演奏装置の動作例を説明するための図である。 第 7 A図は、 スピー力アレイの構成の一例を示す図である。  FIG. 6 is a diagram for explaining an operation example of the karaoke performance apparatus. FIG. 7A is a diagram showing an example of the configuration of a speaker force array.
第 7 B図は、 スピーカアレイの構成の一例を示す図である。  FIG. 7B is a diagram showing an example of the configuration of the speaker array.
第 8 A図は、 スピーカアレイの構成の一例を示す図である。  FIG. 8A shows an example of the structure of a speaker array.
第 8 B図は、 スピーカアレイの構成の一例を示す図である。 888 FIG. 8B shows an example of the structure of the speaker array. 888
発明を実施するための最良の形態 BEST MODE FOR CARRYING OUT THE INVENTION
以下、 図面を参照して、 本発明の実施形態について説明する。  Hereinafter, embodiments of the present invention will be described with reference to the drawings.
< A :第 1実施形態〉  <A: First embodiment>
< A - 1 :構成 > <A-1: Configuration>
第 1図は、 本実施形態であるカラオケ演奏装置 1の構成の一例を示 すブロック図である。 なお、 図中の矢印は、 データの流れを概略的に 示したものである。 図において、 記憶部 1 1は、 ハードディスク装置 などの記憶手段であり、 楽音データ記憶領域 1 1 1を備えている。 楽 音データ記憶領域 1 1 1には、 M I D I (Musical Instruments Digital Interface) 形式などのデータ形式の楽音データであって、 各楽曲の伴 奏楽音を構成する伴奏データが楽曲毎に記憶されているとともに、 M I D I形式などのデータ形式のメ口ディデータであって、 ガイ ドメ口 ディを表すメ口ディデータが楽曲毎に記憶されている。 以下の説明に おいては、 「伴奏データ」 と 「メロディデータ」 とを各々区別する必 要がない場合には、 これらを 「楽音データ」 と称して説明する。  FIG. 1 is a block diagram showing an example of the configuration of a karaoke performance apparatus 1 according to this embodiment. The arrows in the figure schematically show the data flow. In the figure, a storage unit 1 1 is a storage means such as a hard disk device, and includes a musical sound data storage area 1 1 1. The music data storage area 1 1 1 stores music data in a data format such as the MIDI (Musical Instruments Digital Interface) format, and accompaniment data constituting the accompaniment sound of each music is stored for each music. , Data in a data format such as MIDI format, which is stored for each song. In the following explanation, when there is no need to distinguish between “accompaniment data” and “melody data”, these will be referred to as “musical sound data”.
第 2図は、 楽音データ記憶領域 1 1 1に記憶されている楽音データ の内容の一例を示す図である。 図示のように、 この記憶領域には、 「楽 曲 I D」 と 「パート I D」 と 「楽音データ」 との各項目が互いに関連 付けて記憶されている。 これらの項目のうち、 「楽曲 I D」 の項目に は、 楽曲を識別する楽曲識別情報が記憶されている。 「パート I D」 の項目には、 複数のパートで構成される楽曲について、 その楽曲を構 成するそれぞれのパートを識別する識別情報が記憶されている。 「楽 音データ」 の項目には、 そのパートのガイ ドメロディを表すメロディ データや伴奏データなどの楽音データが記憶されている。 図に示す例 においては、 楽曲 I Dが 「0 0 1」 で示される楽曲は、 1つのパート で構成されており、 この楽曲に対して 1つの楽音データが記憶されて 7 065888 FIG. 2 is a diagram showing an example of the contents of the musical tone data stored in the musical tone data storage area 1 11. As shown in the figure, in this storage area, “music ID”, “part ID”, and “music data” are stored in association with each other. Among these items, the “song ID” item stores song identification information for identifying a song. In the “Part ID” item, identification information for identifying each part constituting the music is stored for the music composed of a plurality of parts. In the “musical sound data” item, musical sound data such as melody data and accompaniment data representing the guide melody of the part is stored. In the example shown in the figure, the song with the song ID “0 0 1” consists of one part, and one piece of musical sound data is stored for this song. 7 065888
6 6
いる。 一方、 楽曲 I Dが 「0 0 2」 で示される楽曲は、 「0 1」 〜 「0 4」 の 4つのパートで構成されており、 それぞれのパートについて楽 音データ (伴奏データやメロディデータ) が記憶されている。 Yes. On the other hand, a song whose song ID is “0 0 2” is composed of four parts “0 1” to “0 4”, and music data (accompaniment data and melody data) is stored for each part. It is remembered.
次に、 入力部 1 2の構成について、 第 3図を参照しつつ以下に説明 する。 第 3図は、 入力部 1 2の構成の一例を示すプロック図である。 図において、 マイク 1 2 1は、 歌唱者の歌唱音声を収音し、 収音した 音声を表す音声信号 (以下、 「歌唱者音声データ」 という) を出力す る収音手段である。 位置センサ 1 2 2は、 マイク 1 2 1に設けられ、 センサ信号 (以下、 「方向情報」 という) を出力する。 パート選択ス イッチ 1 2 3は、 マイク 1 2 1に設けられ、 歌唱者の操作内容に応じ た操作信号 (以下、 「パート情報」 という) を出力するスィッチであ る。 歌唱者は、 このパート選択スィッチ 1 2 3を操作することで、 楽 曲のパートを選択する。 操作部 1 2 4は、 再生キーや採点キーなどの 各種のキーを備え、 歌唱する者 (以下、 「歌唱者」 という) による操 作に応じた操作信号をカラオケ演奏部 1 3に出力する。  Next, the configuration of the input unit 12 will be described below with reference to FIG. FIG. 3 is a block diagram showing an example of the configuration of the input unit 12. In the figure, a microphone 1 2 1 is a sound collecting means for collecting a singer's singing voice and outputting a voice signal representing the collected voice (hereinafter referred to as “singer voice data”). The position sensor 1 2 2 is provided in the microphone 1 2 1 and outputs a sensor signal (hereinafter referred to as “direction information”). The part selection switch 1 2 3 is a switch that is provided in the microphone 1 2 1 and outputs an operation signal (hereinafter referred to as “part information”) according to the operation content of the singer. The singer selects the part of the musical piece by operating this part selection switch 1 2 3. The operation unit 1 2 4 has various keys such as a play key and a scoring key, and outputs an operation signal to the karaoke performance unit 13 according to an operation by a singer (hereinafter referred to as “singer”).
第 1図の説明に戻る。 カラオケ演奏部 1 3は、 楽音データ記憶領域 1 1 1から各パートの楽音データを読み出して、 各々に対応する楽音 信号を生成する楽音生成手段として機能する。 カラオケ演奏部 1 3は、 パート選択スィツチ 1 2 3の操作により選択された特定のパートの楽 音信号を出力方向制御部 1 6に供給するとともに、 当該特定のパート を除いたパートの一部又は全部に対応する楽音信号をミキサ 1 4に供 給する。 ミキサ 1 4は、 カラオケ演奏部 1 3から供給される楽音信号 とマイク 1 2 1から出力される音声信号 (歌唱者音声データ) とをミ キシングし、 スピーカ 1 5に出力する。 スピーカ 1 5は、 ミキサ 1 4 から供給される音声信号に応じた音を放音する放音手段 (第 1の放音 手段) である。 具体的には、 例えば、 カラオケ演奏部 1 3は、 楽音データ記憶領域 1 1 1から、 「パート Aガイ ドメロディデータ」 , 「パート Bガイ ド メ口ディデータ」 といったパート毎のガイ ドメ口ディデータを読み出 し、 各データに対応する楽音信号を生成して出力方向制御部 1 6に出 力するとともに、 楽音データ記憶領域 1 1 1からメ口ディパート以外 のデータである伴奏データを読み出して、 読み出した伴奏データに対 応する楽音信号を生成しミキサ 1 4に出力する。 このとき、 ミキサ 1 4は、 カラオケ演奏部 1 3から供給される伴奏データとマイ ク 1 2 1 から出力される音声信号 (歌唱者音声データ) とをミキシングし、 ス ピー力 1 5に出力する。 スピーカ 1 5からは、 伴奏音と歌唱者の歌唱 音声とが放音される。 Returning to the explanation of FIG. The karaoke performance unit 13 functions as a tone generation means for reading out the tone data of each part from the tone data storage area 11 1 1 and generating a tone signal corresponding to each part. The karaoke performance unit 1 3 supplies the music signal of the specific part selected by the operation of the part selection switch 1 2 3 to the output direction control unit 1 6 and a part of the part excluding the specific part or The music signal corresponding to all is supplied to the mixer 14. The mixer 14 mixes the musical sound signal supplied from the karaoke performance unit 13 and the audio signal (singer audio data) output from the microphone 1 2 1 and outputs the result to the speaker 15. The speaker 15 is sound emitting means (first sound emitting means) for emitting sound according to the sound signal supplied from the mixer 14. Specifically, for example, the karaoke performance section 1 3 starts from the musical sound data storage area 1 1 1, and “part A guide melody data”, “part B guide melody data”, etc. Data is read out, and a musical tone signal corresponding to each data is generated and output to the output direction control unit 16, and accompaniment data other than the mouthpiece department store is read out from the musical tone data storage area 1 1 1. The tone signal corresponding to the read accompaniment data is generated and output to the mixer 14. At this time, the mixer 14 mixes the accompaniment data supplied from the karaoke performance section 1 3 with the audio signal (singer audio data) output from the microphone 1 2 1 and outputs it to the speaker 15. . The speaker 15 emits an accompaniment sound and the singing voice of the singer.
方向制御部 1 7は、 歌唱者の位置を検出する位置検出手段として機 能するとともに、 入力部 1 2の位置センサ 1 2 2から出力される方向 情報を受信するセンサ信号受信手段、 及びパート情報の入力を受け付 けるパート情報 Λ力受付手段として機能する。 方向制御部 1 7は、 位 置センサ 1 2 2からのセンサ信号を定期的に (たとえば、 1 m s毎に) 受信する。 これにより、 マイク 1 2 1を把持しつつ歌唱する歌唱者が 移動した場合であっても、 歌唱者の方向 (位置) を随時検出すること ができる。 方向制御部 1 7は、 入力部 1 2から出力される方向情報と パート情報とに応じて、 パート毎のガイ ドメロディの放音方向を示す パート毎方向情報 (例えば、 「パート A方向情報」 , 「パート B方向 情報」 · · , など) を、 出力方向制御部 1 6に出力する。  The direction control unit 17 functions as a position detection unit that detects the position of the singer, sensor signal reception unit that receives the direction information output from the position sensor 1 2 2 of the input unit 12, and part information Part information that accepts input of Λ Functions as a force accepting means. The direction control unit 17 periodically receives the sensor signal from the position sensor 1 2 2 (for example, every 1 ms). Thereby, even if the singer who sings while holding the microphone 1 2 1 moves, the direction (position) of the singer can be detected at any time. The direction control unit 1 7 indicates the direction in which the guide melody is emitted for each part according to the direction information and part information output from the input unit 1 2 (for example, “Part A direction information”). , “Part B direction information” ···, etc.) are output to the output direction control unit 16.
出力方向制御部 1 6は、 方向制御部 1 7によって検出された方向を 指定して予め定められた特定のパー トの楽音信号をスピー力アレイ 1 8に供給する。 スピーカアレイ 1 8は、 複数のスピーカと各スピーカ に出力する信号を遅延させる複数の遅延回路 (図示省略) を備え、 出 8 The output direction control unit 16 supplies the sound signal of a specific part predetermined to the speech force array 18 by designating the direction detected by the direction control unit 17. The speaker array 18 includes a plurality of speakers and a plurality of delay circuits (not shown) for delaying signals output to the speakers. 8
力方向制御部 1 6から供給される信号に対し、 指定された方向に指向 性を持つように遅延時間を制御して放音する放音手段 (第 2の放音手 段) である。 This is a sound emission means (second sound emission means) for controlling the delay time so that the signal supplied from the force direction control unit 16 has directivity in the specified direction.
く A— 2 :動作 > A-2: Operation>
次に、 この実施形態の動作を説明する。 まず、 歌唱者は、 カラオケ 演奏装置 1の操作部 1 2 4を操作して、 歌唱したい楽曲を選択する操 作を行う。 操作部 1 2 4は、 操作された内容に応じた操作信号をカラ オケ演奏部 1 3に出力する。 カラオケ演奏部 1 3は、 操作部 1 2 4か ら出力される操作信号に応じて、 楽曲を選択し、 選択した楽曲のカラ オケ伴奏を開始する。 すなわち、 カラオケ演奏部 1 3は、 楽音データ 記憶領域 1 1 1から伴奏データを読み出してミキサ 1 4に供給し、 ミ キサ 1 4は、 伴奏データをアナログ信号に変換し、 スピーカ 1 5に供 給して、 伴奏データの表す伴奏音を放音させる。  Next, the operation of this embodiment will be described. First, the singer operates the operation unit 1 2 4 of the karaoke performance device 1 to select a song to be sung. The operation unit 1 2 4 outputs an operation signal corresponding to the operated content to the color playing unit 1 3. The karaoke performance unit 1 3 selects a song in response to the operation signal output from the operation unit 1 2 4 and starts karaoke accompaniment for the selected song. In other words, the karaoke performance unit 13 reads the accompaniment data from the musical sound data storage area 1 1 1 and supplies it to the mixer 14, and the mixer 14 converts the accompaniment data into an analog signal and supplies it to the speaker 15. Then, the accompaniment sound represented by the accompaniment data is emitted.
このとき、 歌唱者は、 マイク 1 2 1に設けられたパート選択スィッ チ 1 2 3を操作して、 どのパートを歌唱するかを選択する。 パート選 択スィッチ 1 2 3は、 操作された内容に応じた信号 (パート情報) を 方向制御部 1 7に出力する。 方向制御部 1 7は、 パート選択スィッチ 1 2 3から出力されるパート情報に応じてパートを選択する。  At this time, the singer operates the part selection switch 1 2 3 provided on the microphone 1 2 1 to select which part to sing. The part selection switch 1 2 3 outputs a signal (part information) corresponding to the operated content to the direction control unit 17. The direction control unit 17 selects a part according to the part information output from the part selection switch 1 2 3.
そして、 伴奏音が放音されると、 歌唱者は、 マイク 1 2 1を把持し て歌唱する。 このとき、 マイク 1 2 1に設けられた位置センサ 1 2 2 からのセンサ信号 (方向情報) を方向制御部 1 7が受信することによ つて、 方向制御部 1 7は、 マイク 1 2 1の方向、 すなわち歌唱者の方 向を検出する。 方向制御部 1 7は、 検出した方向を示す方向データを 出力方向制御部 1 6に出力する。 出力方向制御部 1 6は、 方向制御部 1 7から出力される方向データに応じて、 スピーカアレイ 1 8を制御 して、 歌唱者のいる方向に対して、 対応するパートのガイ ドメロディ を放音させる。 When the accompaniment sound is emitted, the singer sings by holding the microphone 1 2 1. At this time, the direction control unit 1 7 receives the sensor signal (direction information) from the position sensor 1 2 2 provided in the microphone 1 2 1, so that the direction control unit 1 7 The direction, ie the direction of the singer, is detected. The direction control unit 17 outputs direction data indicating the detected direction to the output direction control unit 16. The output direction control unit 1 6 controls the speaker array 1 8 according to the direction data output from the direction control unit 1 7. Then, the guide melody of the corresponding part is released in the direction of the singer.
< A - 3 :動作例〉  <A-3: Example of operation>
次に、 この実施形態の具体的な動作例について、 第 4図を参照しつ つ以下に説明する。 第 4図は、 カラオケ演奏装置 1が或るカラオケボ ックス 1 0 0で用いられた場合について、 力ラオケボックス 1 0 0内 を概略的に示した図である。 第 4図に示す例においては、 歌唱者 A、 歌唱者 B、 歌唱者 A, Bの歌唱音声を聴く者 (以下、 「観客」 ) C、 観客 D、 観客 Eが、 カラオケボックス 1 0 0内でカラオケ演奏を楽し んでいる。 この例においては、 歌唱者 Aと歌唱者 Bがある楽曲 Gにつ いて歌唱を行い、 一方、 ソファ 1 0 1に座っている観客 C, D, Eは、 歌唱を行わず、 歌唱者 A , Bが歌唱するのを聴取する。 歌唱者 A, B と観客 C, D, Eとの間にはテーブル 1 0 2が設置され、 テーブル 1 0 2上にカラオケ演奏装置 1のスピーカアレイ 1 8が設置されている。 なお、 この動作例においては、 歌唱者 Aが楽曲 Gのパート aを歌唱 し、 歌唱者 Bが楽曲 Gのパート bを歌唱する。 また、 以下の説明にお いては、 説明の便宜上、 歌唱者 Aが用いるマイク 1 2 1をマイク 1 2 1 Aとし、 歌唱者 Bが用いるマイク 1 2 1をマイク 1 2 1 Bとして説 明する。  Next, a specific operation example of this embodiment will be described below with reference to FIG. FIG. 4 is a diagram schematically showing the inside of the force raoke box 100 when the karaoke performance device 1 is used in a certain karaoke box 100. FIG. In the example shown in Fig. 4, singers A, singer B, singers A and B who listen to the singing voice (hereinafter referred to as "audience") C, spectator D and spectator E are in the karaoke box 1 0 0 Enjoying karaoke performance at In this example, singer A and singer B sing on song G, while audiences C, D, and E sitting on sofa 1 0 1 do not sing, singers A, Listen to B sing. A table 10 2 is installed between the singers A and B and the audience C, D and E, and a speaker array 1 8 of the karaoke performance device 1 is installed on the table 1. In this example, singer A sings part a of music G and singer B sings part b of music G. In the following explanation, for convenience of explanation, the microphone 1 2 1 used by the singer A is described as the microphone 1 2 1 A, and the microphone 1 2 1 used by the singer B is described as the microphone 1 2 1 B. .
まず、 歌唱者 A又は歌唱者 Bのいずれかが、 操作部 1 2 4を操作し て、 楽曲 Gを選択する操作を行う。 操作部 1 2 4は、 操作された内容 に応じた操作信号をカラオケ演奏部 1 3に出力し、 カラオケ演奏部 1 3は、 操作部 1 2 4から出力される操作信号に応じて楽曲 Gを選択し、 選択した楽曲 Gのカラオケ伴奏を開始する。  First, either singer A or singer B operates the operation unit 1 2 4 to select the music G. The operation unit 1 2 4 outputs an operation signal corresponding to the operated content to the karaoke performance unit 1 3, and the karaoke performance unit 1 3 outputs the music G according to the operation signal output from the operation unit 1 2 4. Select and start karaoke accompaniment for the selected song G.
また、 このとき、 歌唱者 Aは、 マイク 1 2 1 Aに設けられたパート 選択スィッチ 1 2 3 (以下、 「パート選択スィッチ 1 2 3 A」 ) を操 作して、 パート aを選択する。 一方、 歌唱者 Bは、 マイク 1 2 1 Bに 設けられたパート選択スィッチ 1 2 3 (以下、 「パート選択スィ ッチ 1 2 3 B」 ) を操作して、 パート bを選択する。 At this time, singer A operates part selection switch 1 2 3 (hereinafter referred to as “part selection switch 1 2 3 A”) provided on microphone 1 2 1 A. And select part a. On the other hand, singer B operates part selection switch 1 2 3 (hereinafter referred to as “part selection switch 1 2 3 B”) provided on microphone 1 2 1 B to select part b.
歌唱者 A, Bが、 マイク 1 2 1 A , 1 2 1 Bをそれぞれ把持しつつ カラオケ歌唱を行う と、 このとき、 歌唱者 Aが把持するマイク 1 2 1 Aに付与された位置センサ 1 2 2 (以下、 「位置センサ 1 2 2 A J ) から出力されるセンサ信号 (方向情報) を方向制御部 1 7が受信し、 方向制御部 1 7は、 受信した方向情報とパート選択スィツチ 1 2 3 A から出力されたパート情報とに応じて、 パート aのガイ ドメ口ディの 放音方向を決定する。 方向制御部 1 7は、 決定した放音方向を示す情 報を、 出力方向制御部 1 6に出力する。  When singers A and B perform karaoke singing while holding microphones 1 2 1 A and 1 2 1 B respectively, the position sensor 1 2 assigned to microphone 1 2 1 A held by singer A at this time 2 (hereinafter referred to as “position sensor 1 2 2 AJ”), the direction control unit 17 receives the sensor signal (direction information) output from the position control unit 1 7, and the direction control unit 1 7 receives the received direction information and part selection switch 1 2 3 The sound output direction of the guide mouth of part a is determined according to the part information output from A. Direction control unit 1 7 outputs information indicating the determined sound output direction to output direction control unit 1 Output to 6.
同様にして、 歌唱者 Bが把持するマイク 1 2 1 Bに付与された位置 センサ 1 2 2 (以下、 「位置センサ 1 2 2 B」 ) から出力されるセン サ信号 (方向情報) を方向制御部 1 7が受信し、 方向制御部 1 7は、 受信した方向情報とパート選択スィツチ 1 2 3 Bから出力されたパー ト情報とに応じて、 パート bのガイ ドメ口ディの放音方向を決定し、 決定した放音方向を示す情報を、 出力方向制御部 1 6に出力する。 出力方向制御部 1 6は、 方向制御部 1 7から出力されるデータに応 じて、 スピーカアレイ 1 8を制御して、 パート aのガイ ドメロディを マイク 1 2 1 Aの方向に放音させるとともに、 ノ、。ート bのガイ ドメロ ディをマイク 1 2 1 Bの方向に放音させる。  Similarly, the direction of the sensor signal (direction information) output from the position sensor 1 2 2 (hereinafter referred to as “position sensor 1 2 2 B”) assigned to the microphone 1 2 1 B held by the singer B is controlled. Part 17 receives the direction information and the direction information is output from the part selection switch 1 2 3 B according to the received direction information and the part information output from the part selection switch 1 2 3 B. The information indicating the determined sound emission direction is output to the output direction control unit 16. The output direction control unit 16 controls the speaker array 1 8 according to the data output from the direction control unit 17 and emits the guide melody of part a in the direction of the microphone 1 2 1 A. Along with. Release the guide melody of Root b in the direction of microphone 1 2 1 B.
観客 C, D , Eには、 スピーカアレイ 1 8から放音されるガイ ドメ 口ディは聞こえず、 スピーカ 1 5から放音される伴奏音と歌唱音声と が聞こえる。 このように、 この実施形態においては、 歌唱者はガイ ド メロディを聞きながら歌唱することができる一方、 観客にはガイ ドメ 口ディではなく歌唱者の歌唱音声を聞かせることができる。 また、 この実施形態においては、 マイク 1 2 1に設けられた位置セ ンサ 1 2 2からの信号によって歌唱者の位置を検出するから、 歌唱者 が移動しながら歌唱した場合であっても、 ガイ ドメ口ディを追随させ て聞かせることができる。 Audience C, D, and E cannot hear the guidance sound emitted from the speaker array 18, but can hear the accompaniment sound and singing sound emitted from the speaker 15. Thus, in this embodiment, the singer can sing while listening to the guide melody, while the audience can hear the singer's singing voice instead of the guide melody. In this embodiment, since the position of the singer is detected by a signal from the position sensor 1 2 2 provided in the microphone 1 2 1, even if the singer sings while moving, the guide You can follow up on the mess.
また、 特に、 歌唱者が複数いる場合 (デュエッ トゃハモリなど) で あっても、 それぞれの歌唱者のそのパートのガイ ドメ口ディを聞かせ ることができる。  In particular, even if there are multiple singers (such as duet humor), you can hear the guidance of each part of that singer.
なお、 この動作例においては、 歌唱者 A, 歌唱者 Bの 2人の歌唱者 が歌唱する場合について説明したが、 歌唱者の数は 2に限定されるも のではなく、 1であってもよく、 また、 2以上の複数であってもよい。 複数の歌唱者が同時に歌唱を行う場合には、 歌唱者の人数分のマイク 1 2 1を用意し、 それぞれのマイク 1 2 1に設けられた位置センサ 1 2 2からのセンサ信号に応じて、 方向制御部 1 7が、 それぞれの歌唱 者の位置を検出する。  In this operation example, the case where two singers, singer A and singer B, sang was explained. However, the number of singer is not limited to two, It may be two or more. When multiple singers sing at the same time, prepare microphones 1 2 1 for the number of singers, and according to the sensor signals from the position sensors 1 2 2 provided on each microphone 1 2 1, The direction control unit 17 detects the position of each singer.
この場合も、 観客 (歌唱していない者) には、 ガイ ドメロディは聞 こえず、 歌唱者の歌唱音声が聞こえる。  In this case as well, the audience (those who have not sung) will not hear the guide melody, but will be able to hear the singer's voice.
< B :第 2実施形態 > <B: Second embodiment>
次に、 この発明の第 2の実施形態について説明する。  Next, a second embodiment of the present invention will be described.
この発明の第 2の実施形態であるカラオケ演奏装置 (以下、 「カラ オケ演奏装置 2」 という) の構成が、 上述した第 1図に示した力ラオ ケ演奏装置 1の構成と異なる点は、 入力部の構成が異なる点である。 そのため、 以下の説明においては、 第 1図に示したカラオケ演奏装置 1 と同様の構成については、 同じ符号を付与してその説明を省略する。 第 5図は、 カラオケ演奏装置 2の入力部 2 2の構成の一例を示すブ ロック図である。 なお、 第 5図は、 上述した第 1実施形態において第 3図に示した入力部 1 2の図と対応するものである。 図において、 マ イクアレイ 2 2 1は、 複数のマイクロフォン (収音手段) (図示省略) が列状に配置され、 各々が収音した音声を音声信号として出力する複 数の収音手段の集まりである。 パート検出部 2 2 2は、 歌唱者の歌唱 音声からピッチを検出するピッチ検出手段として機能するともに、 検 出したピッチと楽音データ記憶領域 1 1 1に記憶されたパート毎のメ 口ディデータの表す音のピッチとを比較し、 該比較結果に応じて、 一 致度が最も高いメ口ディデータに対応するパートを選択するパート選 択手段として機能する。 パート検出部 2 2 2は、 検出したピッチと、 ガイ ドメ口ディデータの表すガイ ドメ口ディのピッチとを比較し、 そ の一致度が最も高いパートを、 歌唱さ.れているパートであると特定す る。 The difference between the configuration of the karaoke performance device (hereinafter referred to as “color-order performance device 2”) according to the second embodiment of the present invention and the configuration of the force-laoke performance device 1 shown in FIG. The configuration of the input unit is different. For this reason, in the following description, the same components as those of the karaoke performance apparatus 1 shown in FIG. FIG. 5 is a block diagram showing an example of the configuration of the input unit 22 of the karaoke performance device 2. As shown in FIG. FIG. 5 corresponds to the diagram of the input unit 12 shown in FIG. 3 in the first embodiment described above. In the figure, The equalizer 2 21 is a group of a plurality of sound collecting means for arranging a plurality of microphones (sound collecting means) (not shown) in a line and outputting the sound collected by each microphone as an audio signal. The part detection unit 2 2 2 functions as a pitch detection means for detecting the pitch from the singing voice of the singer, and also detects the detected pitch and the music data data for each part stored in the musical sound data storage area 1 1 1. It functions as part selection means for comparing the pitch of the sound to be represented and selecting the part corresponding to the mouthpiece data having the highest degree of matching according to the comparison result. The part detector 2 2 2 compares the detected pitch with the guide mouth pitch represented by the guide mouth data, and sings the part with the highest degree of coincidence. Is specified.
方向検出部 2 2 3は、 マイクアレイ 2 2 1に含まれる各マイクロフ オンからの出力を遅延させる複数の遅延回路と、 各遅延回路からの出 力を加算する加算回路 (図示省略) とを備えており、 各遅延回路の遅 延時間を制御することにより、 マイクアレイ 2 2 1全体の収音方向を 制御する収音方向制御手段として機能するとともに、 収音方向が制御 されたマイク口フォンの収音音量に応じて歌唱者の位置を検出する位 置検出手段として機能する。  The direction detector 2 2 3 includes a plurality of delay circuits that delay the output from each microphone included in the microphone array 2 2 1 and an adder circuit (not shown) that adds the outputs from the delay circuits. By controlling the delay time of each delay circuit, the microphone array 2 2 1 functions as a sound collection direction control means for controlling the sound collection direction of the entire microphone array, and the microphone mouthphone whose sound collection direction is controlled. It functions as a position detection means that detects the position of the singer according to the sound collection volume.
方向検出部 2 2 3は、 マイクアレイ 2 2 1の各マイクロフオンから 出力される信号の遅延とゲインを変えることにより、 マイクアレイ 2 2 1全体としての収音方向を任意に設定することができる。 この収音 方向をスキャンさせることにより、 方向検出部 2 2 3は、 音量が大き くなる位置を検出することができる。 この音量が大きくなる位置は音 源がある位置としてみなすことができるから、 その位置に歌唱者がい ると判定することができる。 この実施形態においては、 音量が大きく なる箇所を 2箇所 (最大値とその次に大きい値) で検出するようにな つている。 The direction detector 2 2 3 can arbitrarily set the sound collection direction of the microphone array 2 2 1 as a whole by changing the delay and gain of the signal output from each microphone of the microphone array 2 2 1. . By scanning the sound collection direction, the direction detection unit 2 2 3 can detect a position where the volume is increased. Since the position where the volume increases can be regarded as the position where the sound source is, it can be determined that there is a singer at that position. In this embodiment, the volume is high Are detected at two locations (the maximum value and the next largest value).
次に、 この実施形態の具体的な動作について、 第 6図を参照しつつ 以下に説明する。 第 6図は、 カラオケ演奏装置 1がカラオケボックス 1 0 0で用いられた場合について、 カラオケボックス 1 0 0内を概略 的に示した図である。  Next, the specific operation of this embodiment will be described below with reference to FIG. FIG. 6 is a diagram schematically showing the inside of the karaoke box 100 when the karaoke performance device 1 is used in the karaoke box 100.
第 6図に示す例においては、 ある楽曲 Hについて、 歌唱者 A , 歌唱 者 B , 歌唱者 Cが歌唱を行う場合について説明する。 この動作例にお いては、 歌唱者 Aがメインボーカルパート aの歌唱を行い、 歌唱者 B がハモリパート bを歌唱し、 一方、 歌唱者 Cがハモリパート cを歌唱 する。 観客 Dは、 歌唱者 A, B , Cの歌唱を聞く。  In the example shown in FIG. 6, a case where singer A, singer B, and singer C sing a song H will be described. In this example, singer A sings main vocal part a, singer B sings hamori part b, while singer C sings hamori part c. Audience D listens to singers A, B, and C.
まず、 歌唱者のいずれかが、 操作部 1 2 4を操作して楽曲 Hを選択 する操作を行う。 操作部 1 2 4は、 操作された内容に応じた操作信号 をカラオケ演奏部 1 3に出力し、 カラオケ演奏部 1 3は、 操作部 1 2 4から出力される操作信号に応じて楽曲 Hを選択し、 選択した楽曲 H のカラオケ伴奏を開始する。  First, one of the singers operates the operation unit 1 2 4 to select the music H. The operation unit 1 2 4 outputs an operation signal corresponding to the operated content to the karaoke performance unit 1 3, and the karaoke performance unit 1 3 outputs music H according to the operation signal output from the operation unit 1 2 4. Select and start karaoke accompaniment for the selected song H.
また、 このとき、 歌唱者 Aは、 マイク 1 2 1 Aに設けられたパート 選択スィ ッチ 1 2 3 (以下、 「パート選択スィッチ 1 2 3 A」 ) を操 作して、 パート aを選択する。  At this time, singer A operates part selection switch 1 2 3 (hereinafter referred to as “part selection switch 1 2 3 A”) provided on microphone 1 2 1 A to select part a. To do.
カラオケ演奏装置 1によってカラオケ伴奏が行われると、 歌唱者 A は伴奏音にあわせてメインボーカルパートを歌唱する。 同時に、 歌唱 者 Bはハモリパート bを、 歌唱者 Cがハモリパート cをそれぞれ歌唱 する。  When karaoke accompaniment is performed by the karaoke performance device 1, singer A sings the main vocal part to the accompaniment sound. At the same time, singer B sings hamori part b, and singer C sings hamori part c.
ここで、 方向検出部 2 2 3は、 マイクアレイ 2 2 1に含まれるそれ ぞれのマイクロフォンの収音音量に応じて、 歌唱者 B, 歌唱者 Cの位 置を検出する。 位置を検出すると、 方向検出部 2 2 3は、 パート毎の 歌唱者の方向を示す方向情報を、 パート毎に出力方向制御部 1 6に出 力する。 出力方向制御部 1 6は、 スピーカアレイ 1 8を制御して、 歌 唱者のいる方向に対して、 対応するパートのガイ ドメ口ディを放音す る。 Here, the direction detection unit 2 2 3 detects the positions of the singer B and the singer C according to the sound collection volume of each microphone included in the microphone array 2 2 1. When the position is detected, the direction detector 2 2 3 Direction information indicating the direction of the singer is output to the output direction control unit 16 for each part. The output direction control unit 16 controls the speaker array 18 to emit a guide part of the corresponding part in the direction in which the singer is present.
この実施形態においては、 マイクアレイ 2 2 1によって歌唱者の位 置を検出し、 検出した位置に対してガイ ドメ口ディを放音するから、 歌唱者 A, B , Cのそれぞれに、 それぞれの歌唱者が歌唱するパート のガイ ドメロディを聞かせることができる。 また、 歌唱者 A, B , C は、 自分のパート以外のガイ ドメロディが聞こえないから、 歌唱しや すい。  In this embodiment, since the position of the singer is detected by the microphone array 2 2 1 and the guide mouth mouth sound is emitted from the detected position, each of the singer A, B, and C You can hear the guide melody of the part that the singer sings. Also, singers A, B, and C can easily sing because they cannot hear the guide melodies other than their part.
また、 マイクアレイ 2 2 1によって歌唱者の位置を随時検出するか ら、 それぞれの歌唱者が移動しながら歌唱した場合であっても、 ガイ ドメ口ディを追随させて聞かせることができる。  In addition, since the position of the singer is detected at any time by the microphone array 2 21, even if each singer sings while moving, it is possible to follow and listen to the guide.
また、 この実施形態によれば、 歌唱者が複数いる場合 (デュエッ ト ゃハモリなど) 、 それぞれの歌唱者のそのパートのガイ ドメロディを 聞かせることができる。  Further, according to this embodiment, when there are a plurality of singers (such as duet or hamori), it is possible to hear the guide melody of that part of each singer.
く C :変形例 > C: Modified example>
以上、 本発明の実施形態について説明したが、 本発明は上述した実 施形態に限定されることなく、 他の様々な形態で実施可能である。 以 下にその一例を示す。  As mentioned above, although embodiment of this invention was described, this invention is not limited to embodiment mentioned above, It can implement with other various forms. An example is shown below.
( 1 ) 上述した実施形態では、 メロディデータとして、 ガイ ドメロデ ィを表すデータを用いた。 メ口ディデータはガイ ドメ口ディを表すデ ータに限らず、 例えば、 お手本となる歌唱者によって歌唱された歌唱 音声 (いわゆる、 「ガイ ドボ一カル」 ) を表す音声データであっても よく、 楽曲のメロディを表すデータであればどのようなものであって もよい。 要するに、 楽曲を構成する複数のパートの楽音を表す楽音デ ータは、 パート毎のガイ ドメロディを表すデータや、 パート毎の模範 となる歌唱音声を表すデータ、 パート毎の伴奏音を表すデータなど、 楽曲を構成する複数のパートの楽音を表す楽音データであればどのよ うなものであってもよい。 (1) In the embodiment described above, data representing guide melody is used as the melody data. The mouthpiece data is not limited to the data representing the guide mouthpiece, and may be, for example, the voice data representing the singing voice (so-called “guide vocal”) sung by a model singer. Any data that represents the melody of a song may be used. In short, a musical sound data that represents the musical sounds of multiple parts that make up a song. Music data that represents the musical sounds of multiple parts that make up a song, such as data that represents the guide melody for each part, data that represents the singing voice that serves as an example for each part, and data that represents the accompaniment sound for each part As long as it is anything.
( 2) 上述した実施形態においては、 伴奏データをスピーカ 1 5に供 給する一方、 歌唱者のパートのガイ ドメ口ディを表すメ口ディデータ をスピーカアレイ 1 8に供給した。  (2) In the embodiment described above, accompaniment data is supplied to the speaker 15, while mouthpiece data representing the guide member's guide mouthpiece data is supplied to the speaker array 18.
スピー力 1 5に供給するデータは、 特定のパートを除いたパー トの 一部に対応する楽音信号であってもよく、 又は、 特定のパートを除い たパートの全部に対応する楽音信号であってもよい。  The data supplied to the speaker 15 may be a musical sound signal corresponding to a part of a part excluding a specific part, or a musical sound signal corresponding to all of the parts excluding a specific part. May be.
( 3) 上述した第 1の実施形態では、 伴奏音と歌唱者音声とを、 スピ 一力アレイ 1 8とは別のスピーカ 1 5から放音したが、 スピー力 1 5 を備える構成とせずに、 スピーカアレイ 1 8から伴奏音と歌唱者音声 とを放音する構成としてもよい。 この場合、 例えば、 第 7 A図に示す ように、 スピーカアレイ 1 8に含まれるスピー力 1 8 a , 1 8 kから 伴奏音と歌唱音声とを放音する一方、 他のスピー力 1 8 b , 1 8 c , · · ·からガイ ドメロディを放音する構成としてもよい。  (3) In the first embodiment described above, the accompaniment sound and the singer's voice are emitted from the speaker 15 that is different from the sound power array 18, but the configuration is not provided with the sound power 15. The speaker array 18 may be configured to emit accompaniment sounds and singer voices. In this case, for example, as shown in FIG. 7A, the accompaniment sound and the singing voice are emitted from the speaker powers 18 a and 18 k included in the speaker array 18, while the other speaker powers 18 b , 18 c,... May be configured to emit a guide melody.
また、 上述した実施形態では、 指定された方向に指向性を持たせて 放音する第 2の放音手段として、 スピーカが列状に配置されたスピー 力アレイ 1 8を用いたが、 これに代えて、 例えば第 7 B図に示すよう な、 指向軸が回転可能なスピーカ 1 8 Aを用いる構成としてもよい。  In the above-described embodiment, the speaker array 18 in which speakers are arranged in a row is used as the second sound emitting means for emitting sound with directivity in the designated direction. Instead, for example, as shown in FIG. 7B, a configuration in which a speaker 18A whose directional axis is rotatable may be used.
(4 ) また、 スピーカアレイ 1 8の構成は、 以下のようであってもよ い。 第 8 A図及ぴ第 8 B図は、 スピーカアレイ 1 8の構成の一例を示 す図である。 第 8 A図はスピーカアレイ 1 8の正面図であり 、 第 8 B 図は側断面図である。 図示のように、 スピーカアレイ 1 8は、 縦方向 及ぴ横方向に列状に複数のスピーカ 1 8 1 , 1 8 1, · · · が配置さ れている。 出力方向制御部 1 6は、 出力方向信号に応じて、 スピーカ 1 8 1 , 1 8 1 , · · · に音声信号を供給することによって、 スピー 力アレイ 1 8 の指向性を制御する。 具体的には、 例えば、 第 8 B図に おいて、 スピーカ 1 8 1 aに音声信号を供給することによって、 図中 の P方向の指向性の音が放音される。 (4) The configuration of the speaker array 18 may be as follows. 8A and 8B are diagrams showing an example of the configuration of the speaker array 18. FIG. FIG. 8A is a front view of the speaker array 18, and FIG. 8B is a side sectional view. As shown, the speaker array 18 has a plurality of speakers 1 8 1, 1 8 1,... Arranged in rows in the vertical and horizontal directions. It is. The output direction control unit 16 controls the directivity of the speaker array 18 by supplying audio signals to the speakers 1 8 1, 1 8 1,... According to the output direction signal. Specifically, for example, in FIG. 8B, by supplying an audio signal to the speaker 1 8 1 a, sound having a directivity in the P direction in the figure is emitted.
( 5 ) 上述した第 1の実施形態では、 歌唱者の操作に応じてパート選 択スィ ッチ 1 2 3から出力される操作信号に応じてパートを選択し、 一方、 上述した第 2の実施形態では、 マイクアレイ 2 2 1によって収 音される歌唱音声を表す音声信号からピッチを検出し、 検出されたピ ツチとメロディデータとを比較し、 該比較結果に応じてパートを選択 した。 パー トの選択方法はこれらに限らず、 例えば、 リモコンやタツ チパネルなどの操作手段を歌唱者が操作することによって歌唱するパ ートと使用するマイクとを選択してもよい。 この場合は、 操作手段か らの操作信号に応じて、 方向制御部 1 7が、 パートを選択する。 また、 収音した音声を音声解析し、 歌詞と比較することによって、 パートを選択してもよく、 音声データを解析し、 該解析結果に応じて パートを選択すればよい。  (5) In the first embodiment described above, the part is selected in accordance with the operation signal output from the part selection switch 1 2 3 in response to the operation of the singer, while the second implementation described above. In the embodiment, the pitch is detected from the voice signal representing the singing voice collected by the microphone array 2 21, the detected pitch is compared with the melody data, and the part is selected according to the comparison result. The part selection method is not limited to these. For example, the part to be sung and the microphone to be used may be selected by operating the operation means such as a remote controller or a touch panel. In this case, the direction control unit 17 selects a part according to the operation signal from the operation means. Further, the collected voice may be analyzed by voice and compared with the lyrics to select the part, or the voice data may be analyzed and the part selected according to the analysis result.
要するに、 方向制御部 1 7が、 複数のパートで構成された楽曲につ いて、 その楽曲を構成するパートのいずれかを選択すればよい。 また、 パートを選択しない構成としてもよい。 例えば、 ハモリに対 応しておらず、 メインボーカルのみのガイ ドメ口ディを有する楽曲の 場合には、 パートを選択する必要はなく、 メィンボーカルのガイ ドメ 口ディを放音する構成とすればよい。  In short, for the music composed of a plurality of parts, the direction control unit 17 may select one of the parts constituting the music. Moreover, it is good also as a structure which does not select a part. For example, in the case of a song that does not support hamori and has a main vocal only guide piece, there is no need to select a part, and the main vocal guide piece can be emitted. Good.
( 6 ) 上述した実施形態においては、 スピーカアレイ 1 8から歌唱者 の歌唱音声や伴奏音を放音させる構成とした。 歌唱音声や伴奏音を放 音する際に、 出力方向制御部 1 6が、 スピーカアレイ 1 8に含まれる スピー力のそれぞれの指向性を別方向に制御してもよい。 このように すれば、 演奏音に広がりを持たせて、 カラオケ演奏にサラウンド感を 付与することができる。 (6) In the above-described embodiment, the singer's singing voice and accompaniment sound are emitted from the speaker array 18. When singing voice or accompaniment sound is output, output direction control unit 16 is included in speaker array 18 Each directivity of the speech force may be controlled in a different direction. In this way, it is possible to add a sense of surround to karaoke performance by spreading the performance sound.
( 7 ) 上述した実施形態においては、 スピーカ 1 5、 スピーカアレイ 1 8及び入力部 1 2がカラオケ演奏装置 1に一体となって構成されて いた。 これに代えて、 スピーカ 1 5や、 スピーカアレイ 1 8又は入力 部 1 2が、 カラオケ演奏装置 1とは別体として構成されていてもよい。  (7) In the embodiment described above, the speaker 15, the speaker array 18, and the input unit 12 are integrated with the karaoke performance apparatus 1. Instead of this, the speaker 15, the speaker array 18, or the input unit 12 may be configured separately from the karaoke performance device 1.
( 8 ) 上述した第 1の実施形態では、 マイク 1 2 1に設けられた位置 センサ 1 2 2からの信号に応じて、 歌唱者の位置を検出し、 一方、 上 述した第 2の実施形態では、 マイクアレイ 2 2 1の各マイクロフォン から出力される信号の遅延とゲインを変えることにより収音方向を設 定し、 この収音方向をスキャンさせることによって歌唱者の位置を検 出した。 歌唱者の位置の検出方法は、 上述した実施形態で示したもの に限らず、 例えば、 センサを備えたもの (例えばバツチ、 ぼう しなど) を歌唱者が着用し、 そのセンサからの信号に応じて歌唱者の位置を検 出してもよい。  (8) In the first embodiment described above, the position of the singer is detected according to the signal from the position sensor 1 2 2 provided in the microphone 1 2 1, while the second embodiment described above. Then, the sound collection direction was set by changing the delay and gain of the signal output from each microphone in the microphone array 2 2 1, and the position of the singer was detected by scanning this sound collection direction. The method for detecting the position of the singer is not limited to that shown in the above-described embodiment. For example, a singer wears a sensor (for example, a batch, a bow, etc.) and responds to a signal from the sensor. The position of the singer may be detected.
( 9 ) 上述した実施形態におけるカラオケ演奏装置 1のカラオケ演奏 部 1 3, 方向制御部 1 7, 出力方向制御部 1 6は、 専用のハードゥエ ァ回路によって実現されるようにしてもよく、または、 C P U (Central Process ing Unit) などの制御部が記憶部 1 1に記憶されたソフトウェ ァプログラムを読み出して実行することによって実現されるようにし てもよい。 また、 この場合に制御部によって実行されるプログラムは、 磁気テープ、 磁気ディスク、 フレキシブルディスク、 光記録媒体、 光 磁気記録媒体、 R A M、 R O Mなどの記録媒体に記録した状態で提供 し得る。 また、 インターネットのようなネッ トワーク経由でカラオケ 演奏装置 1にダウンロードさせることも可能である。 また、 本発明の目的は、 以下の処理を実行することによって達成さ れる。 即ち、 上述した実施形態の機能を実現するソフ トウェアのプロ グラムコードを記録した記憶媒体を、 システム或いは装置に供給し、 そのシステム或いは装置のコンピュータ (または C PUゃMP U等) が記憶媒体に格納されたプログラムコードを読み出す処理である。 この場合、 記憶媒体から読み出されたプログラムコード自体が前述 した実施の形態の機能を実現することになり、 そのプログラムコード 及び該プログラムコードを記憶した記憶媒体は本発明を構成すること になる。 (9) The karaoke performance unit 1 3, the direction control unit 17, and the output direction control unit 16 of the karaoke performance apparatus 1 in the embodiment described above may be realized by a dedicated hardware circuit, or It may be realized by a control unit such as a CPU (Central Processing Unit) reading and executing a software program stored in the storage unit 11. In this case, the program executed by the control unit can be provided in a state of being recorded on a recording medium such as a magnetic tape, a magnetic disk, a flexible disk, an optical recording medium, a magneto-optical recording medium, RAM, or ROM. It can also be downloaded to the karaoke performance device 1 via a network such as the Internet. In addition, the object of the present invention is achieved by executing the following processing. That is, a storage medium that records the program code of the software that realizes the functions of the above-described embodiments is supplied to the system or apparatus, and the computer of the system or apparatus (or CPU or MPU) is stored in the storage medium. This is a process of reading the stored program code. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the program code and the storage medium storing the program code constitute the present invention.
また、 プログラムコードを供給するための記憶媒体としては、 次の ものを用いることができる。 例えば、 フロッピー (登録商標) デイス ク、 ハードディスク、 光磁気ディスク、 CD— ROM、 CD-R, C D— RW、 DVD— ROM、 DVD-R AM, DVD— RW、 DVD + RW、 磁気テープ、 不揮発性のメモリカード、 ROM等である。 ま たは、 プログラムコードをネッ トワークを介してダウンロードしても よい。  The following can be used as a storage medium for supplying the program code. For example, floppy disk, hard disk, magneto-optical disk, CD-ROM, CD-R, CD-RW, DVD-ROM, DVD-R AM, DVD-RW, DVD + RW, magnetic tape, non-volatile Memory card, ROM, etc. Alternatively, the program code may be downloaded via a network.
また、 コンピュータが読み出したプログラムコードを実行すること により、 上記実施の形態の機能が実現される場合も本発明に含まれる。 加えて、 そのプログラムコードの指示に基づき、 コンピュータ上で稼 動している O S (オペレーティングシステム) 等が実際の処理の一部 または全部を行い、 その処理によって前述した実施形態の機能が実現 される場合も含まれる。  Further, the present invention includes a case where the functions of the above-described embodiments are realized by executing the program code read by the computer. In addition, based on the instruction of the program code, the OS (operating system) running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing. Cases are also included.
更に、 前述した実施形態の機能が以下の処理によって実現される場 合も本発明に含まれる。 即ち、 記憶媒体から読み出されたプログラム コードが、 コンピュータに挿入された機能拡張ボードやコンピュータ に接続された機能拡張ュ-ットに備わるメモリに書き込まれる。 その 後、 そのプログラムコードの指示に基づき、 その機能拡張ボードや機 能拡張ュニッ トに備わる C P U等が実際の処理の一部または全部を行 う場合である。 産業上の利用可能性 Furthermore, the present invention includes the case where the functions of the above-described embodiment are realized by the following processing. That is, the program code read from the storage medium is written to a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. That Later, based on the instruction of the program code, the CPU or the like provided in the function expansion board or function expansion unit performs part or all of the actual processing. Industrial applicability
本発明のカラオケ演奏装置及びプログラムによれば、 歌唱者が歌唱 しながら移動した場合であっても、 歌唱者にガイ ドメ口ディなどの特 定のパートを強く聞かせることができる。  According to the karaoke performance apparatus and the program of the present invention, even when the singer moves while singing, the singer can be made to hear a specific part such as a guide mouth.

Claims

請 求 の 範 囲 The scope of the claims
1 . 楽曲を構成する複数のパートの楽音を表す楽音データをパート 毎に記憶する記憶手段と、 歌唱者の位置を検出して方向情報として出 力方向制御手段に供給する位置検出手段と、 前記記憶手段から前記各 パートの楽音データを読み出して、 予め定められた特定のパートの楽 音信号を生成して出力すると共に、 該特定のパートを除いたパートの 一部又は全部に対応する楽音信号を生成して出力する楽音生成手段と、 前記位置検出手段から供給された方向情報に基づいて方向を指定して 前記楽音生成手段から供給された特定パートの楽音信号を出力する出 力方向制御手段と、 前記楽音生成手段から出力された前記特定パート を除いたパートの一部または全部の楽音信号に応じた音を放音する第1. storage means for storing, for each part, musical sound data representing the musical sounds of a plurality of parts constituting the music; position detecting means for detecting the position of the singer and supplying it to the output direction control means as direction information; The musical tone data of each part is read from the storage means, and a musical signal of a specific part that is determined in advance is generated and output, and a musical signal corresponding to a part or all of the part excluding the specific part A tone generation means for generating and outputting a sound, and an output direction control means for designating a direction based on the direction information supplied from the position detection means and outputting a tone signal of a specific part supplied from the tone generation means And a sound corresponding to part or all of the musical sound signal of the part excluding the specific part output from the musical sound generating means.
1の放音手段と、 前記出力方向制御手段から出力された前記特定パー トの楽音信号に対し、 前記指定された方向に指向性を持たせて放音す る第 2の放音手段と、 を具備するカラオケ演奏装置。 A second sound emitting means for emitting sound with directivity in the designated direction with respect to the sound signal of the specific part output from the output direction control means; Karaoke performance apparatus comprising:
2 . 前記予め定められた特定のパートの楽音データはガイ ドメロデ ィであり、 前記予め定められた特定のパートを除いたパートの楽音デ ータは伴奏データである請求の範囲第 1項記載のカラオケ演奏装置。2. The musical sound data of the predetermined specific part is a guide melody, and the musical sound data of the part excluding the predetermined specific part is accompaniment data. Karaoke performance device.
3 . 前記予め定められた特定のパートの楽音データは、 複数のパー トのメ口ディを示し、 前記楽音生成手段は、 前記複数のパートのいず れかを選択する選択手段を有し、 前記選択手段で選択されたパートの 楽音信号を前記出力方向制御手段に出力する請求の範囲第 1項記載の カラオケ演奏装置。 3. The musical sound data of the predetermined specific part indicates a plurality of part mouthpieces, and the musical sound generating means has a selecting means for selecting any of the plurality of parts, The karaoke performance device according to claim 1, wherein the musical tone signal of the part selected by the selection means is output to the output direction control means.
4 . 歌唱者の歌唱音声を収音する収音手段と、 前記楽音生成手段か ら出力された前記特定パートを除いたパートの一部または全部の楽音 信号に応じた音と、 前記歌唱者の歌唱音声をミキシングして第 1の放 音手段に出力するミキシング手段と、 をさらに有する請求の範囲第 1 項記載のカラオケ演奏装置。 4. Sound collecting means for collecting the singing voice of the singer, sound corresponding to part or all of the musical sound signal of the part excluding the specific part output from the musical sound generating means, and the singer's voice Mix the singing voice and The karaoke performance device according to claim 1, further comprising: mixing means for outputting to the sound means.
5 . 前記選択手段は、 歌唱者の操作に応じて操作手段から出力され る信号に応じて、 前記パートを選択する請求の範囲第 3項記載のカラ オケ演奏装置。  5. The karaoke performance device according to claim 3, wherein the selection means selects the part in accordance with a signal output from the operation means in response to a singer's operation.
6 . 歌唱者の歌唱音声を収音する収音手段から出力される音声信号 からピッチを検出するピッチ検出手段を備え、 前記選択手段は、 前記 ピッチ検出手段により検出されたピッチと前記記憶手段に記憶された パート毎の楽音データのピッチとを比較し、 比較結果に応じて、 一致 度が最も高い楽音データのパートを選択する請求の範囲第 3項記載の カラオケ演奏装置。  6. Pitch detection means for detecting the pitch from the sound signal output from the sound collecting means for collecting the singing voice of the singer is provided, and the selection means includes the pitch detected by the pitch detection means and the storage means. 4. The karaoke performance device according to claim 3, wherein the pitch of musical sound data stored for each part is compared, and the musical data part having the highest degree of coincidence is selected according to the comparison result.
7 . 歌唱者の歌唱音声を収音する収音手段に設けられたセンサから の信号を受信するセンサ信号受信手段を備え、 前記位置検出手段は、 前記センサ信号受信手段により受信された信号に応じて、 前記歌唱者 の位置を検出する請求の範囲第 1項記載のカラオケ演奏装置。  7. It comprises sensor signal receiving means for receiving a signal from a sensor provided in the sound collecting means for collecting the singing voice of the singer, and the position detecting means is responsive to the signal received by the sensor signal receiving means. The karaoke performance device according to claim 1, wherein the position of the singer is detected.
8 . 列状に配置され、 各々が収音した音声を音声信号として出力す る複数の収音手段と、 前記各収音手段からの出力信号を遅延させる複 数の遅延手段と、 前記各遅延手段の遅延時間を制御することにより、 前記複数の収音手段全体の収音方向を制御する収音方向制御手段とを 備え、 前記位置検出手段は、 前記収音方向制御手段により収音方向が 制御された前記複数の収音手段の収音音量に応じて前記歌唱者の位置 を検出する請求の範囲第 1項記載のカラオケ演奏装置。  8. A plurality of sound collecting means arranged in a row and each outputting sound collected as a sound signal, a plurality of delay means for delaying an output signal from each sound collecting means, and each delay A sound collection direction control means for controlling the sound collection direction of the plurality of sound collection means as a whole by controlling a delay time of the means, and the position detection means has a sound collection direction controlled by the sound collection direction control means. 2. The karaoke performance apparatus according to claim 1, wherein the position of the singer is detected according to the sound collection volume of the plurality of sound collection means controlled.
9 . カラオケ演奏装置にカラオケ演奏方法を実行させるプログラム であって、 前記カラオケ演奏方法は、 楽曲を構成する複数のパートの 楽音を表す楽音データをパート毎に記憶する記憶ステップと、 歌唱者 の位置を検出して方向情報として出力方向制御部に供給する位置検出 ステップと、 前記記憶された各パートの楽音データを読み出して、 予 め定められた特定のパートの楽音信号を生成して出力すると共に、 該 特定のパートを除いたパートの一部又は全部に対応する楽音信号.を生 成して出力する楽音生成ステップと、 前記位置検出ステップで供給さ れた方向情報に基づいて方向を指定して前記楽音生成ステップで供給 された特定パートの楽音信号を出力する出力方向制御ステップと、 前 記楽音生成ステップで出力された前記特定パートを除いたパートのー 部または全部の楽音信号に応じた音を放音する第 1の放音ステップと、 前記出力方向制御ステップから出力された前記特定のパートの楽音信 号に対し、 前記指定された方向に指向性を持たせて放音する第 2の放 音ステップと、 を具備するプログラム。 9. A program for causing a karaoke performance apparatus to execute a karaoke performance method, wherein the karaoke performance method stores a musical sound data representing musical sounds of a plurality of parts constituting a musical piece for each part, and a singer's position. Detecting the position and supplying it to the output direction controller as direction information Reading out the stored musical tone data of each part, generating and outputting a musical tone signal of a predetermined specific part, and corresponding to a part or all of the part excluding the specific part A musical sound generation step for generating and outputting a musical sound signal to be output, and a musical sound signal for a specific part supplied in the musical sound generation step is output by designating a direction based on the direction information supplied in the position detection step. An output direction control step, a first sound emission step for emitting sounds according to a part or all of the musical sound signals except the specific part output in the musical sound generation step, and the output direction. A second sound emission step of emitting sound with a directivity in the designated direction with respect to the music signal of the specific part output from the control step; .
PCT/JP2007/065888 2006-08-10 2007-08-08 Karaoke player and program WO2008018621A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006-218614 2006-08-10
JP2006218614A JP2008046150A (en) 2006-08-10 2006-08-10 Karaoke device

Publications (1)

Publication Number Publication Date
WO2008018621A1 true WO2008018621A1 (en) 2008-02-14

Family

ID=39033140

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/065888 WO2008018621A1 (en) 2006-08-10 2007-08-08 Karaoke player and program

Country Status (2)

Country Link
JP (1) JP2008046150A (en)
WO (1) WO2008018621A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5443925B2 (en) * 2009-09-30 2014-03-19 株式会社第一興商 System for identifying faces of people gathering at a karaoke party
JP5421333B2 (en) * 2011-09-09 2014-02-19 株式会社エクシング Karaoke equipment
CN110211556B (en) * 2019-05-10 2022-07-08 北京字节跳动网络技术有限公司 Music file processing method, device, terminal and storage medium

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0944171A (en) * 1995-07-31 1997-02-14 Yamaha Corp Karaoke device
JPH103292A (en) * 1996-06-17 1998-01-06 Matsushita Electric Ind Co Ltd Karaoke device
JPH10282979A (en) * 1997-04-10 1998-10-23 Matsushita Electric Ind Co Ltd Karaoke device
JPH1155784A (en) * 1997-07-31 1999-02-26 Nippon Telegr & Teleph Corp <Ntt> Method and system for in-hall loudspeaking
JPH1195770A (en) * 1997-09-17 1999-04-09 Matsushita Electric Ind Co Ltd Karaoke machine and karaoke reproducing method
JP2000099050A (en) * 1998-09-24 2000-04-07 Daiichikosho Co Ltd Karaoke device selectively reproducing and outputting plural vocal parts
JP2003084782A (en) * 2001-09-14 2003-03-19 Yoichi Tanaka Musical sound playing output branch system and microphone device
JP2004233698A (en) * 2003-01-30 2004-08-19 Ricoh Co Ltd Device, server and method to support music, and program
JP2005037827A (en) * 2003-07-18 2005-02-10 Brother Ind Ltd Musical sound generator
JP2005173137A (en) * 2003-12-10 2005-06-30 Yamaha Corp Karaoke machine

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0944171A (en) * 1995-07-31 1997-02-14 Yamaha Corp Karaoke device
JPH103292A (en) * 1996-06-17 1998-01-06 Matsushita Electric Ind Co Ltd Karaoke device
JPH10282979A (en) * 1997-04-10 1998-10-23 Matsushita Electric Ind Co Ltd Karaoke device
JPH1155784A (en) * 1997-07-31 1999-02-26 Nippon Telegr & Teleph Corp <Ntt> Method and system for in-hall loudspeaking
JPH1195770A (en) * 1997-09-17 1999-04-09 Matsushita Electric Ind Co Ltd Karaoke machine and karaoke reproducing method
JP2000099050A (en) * 1998-09-24 2000-04-07 Daiichikosho Co Ltd Karaoke device selectively reproducing and outputting plural vocal parts
JP2003084782A (en) * 2001-09-14 2003-03-19 Yoichi Tanaka Musical sound playing output branch system and microphone device
JP2004233698A (en) * 2003-01-30 2004-08-19 Ricoh Co Ltd Device, server and method to support music, and program
JP2005037827A (en) * 2003-07-18 2005-02-10 Brother Ind Ltd Musical sound generator
JP2005173137A (en) * 2003-12-10 2005-06-30 Yamaha Corp Karaoke machine

Also Published As

Publication number Publication date
JP2008046150A (en) 2008-02-28

Similar Documents

Publication Publication Date Title
JP5119932B2 (en) Keyboard instruments, piano and auto-playing piano
JP2001195054A (en) Musical instrument
JP2008020798A (en) Apparatus for teaching singing
JP2005173137A (en) Karaoke machine
WO2008018621A1 (en) Karaoke player and program
JP5417012B2 (en) Karaoke device that highlights the main voice of a song
JP7367835B2 (en) Recording/playback device, control method and control program for the recording/playback device, and electronic musical instrument
JP4470821B2 (en) Karaoke device and program
JP4123583B2 (en) Karaoke equipment
JP3972619B2 (en) Sound generator
JP5486941B2 (en) A karaoke device that makes you feel like singing to the audience
JP2008209597A (en) Karaoke device
JP2006284919A (en) Karaoke machine and program
JP4068069B2 (en) Karaoke device that automatically controls back chorus volume
KR200255782Y1 (en) Karaoke apparatus for practice on the instrumental accompaniments
JP2007057727A (en) Electronic percussion instrument amplifier system with musical sound reproducing function
JP4107212B2 (en) Music playback device
JPH0417000A (en) Karaoke device
JP2006259474A (en) Karaoke device
JP2020170935A (en) Sound signal processing device and sound signal processing method
JP6651729B2 (en) Electronic music device and program
JP5375869B2 (en) Music playback device, music playback method and program
JP2007233078A (en) Evaluation device, control method, and program
JP2009008934A (en) Music reproduction device
JP2005107286A (en) Karaoke machine and program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07792528

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: RU

122 Ep: pct application non-entry in european phase

Ref document number: 07792528

Country of ref document: EP

Kind code of ref document: A1