JP2003084779A - Karaoke system - Google Patents

Karaoke system

Info

Publication number
JP2003084779A
JP2003084779A JP2001272294A JP2001272294A JP2003084779A JP 2003084779 A JP2003084779 A JP 2003084779A JP 2001272294 A JP2001272294 A JP 2001272294A JP 2001272294 A JP2001272294 A JP 2001272294A JP 2003084779 A JP2003084779 A JP 2003084779A
Authority
JP
Japan
Prior art keywords
karaoke
microphone unit
unit
shape
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001272294A
Other languages
Japanese (ja)
Other versions
JP4759888B2 (en
Inventor
Yoshiki Nishitani
善樹 西谷
Shinichi Muramatsu
伸一 村松
Eiko Kobayashi
詠子 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2001272294A priority Critical patent/JP4759888B2/en
Publication of JP2003084779A publication Critical patent/JP2003084779A/en
Application granted granted Critical
Publication of JP4759888B2 publication Critical patent/JP4759888B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a karaoke system which enables a user to control production of musical sounds based on musical piece data without complicated operation or the like even while singing a karaoke musical piece. SOLUTION: When a singer sings to a microphone unit 140 in accordance with the accompaniment of the karaoke musical piece, his or her singing voice is supplied to a karaoke device main body part 110. When the singer moves the microphone unit 140 while singing the karaoke musical piece, the movement is detected by an operation sensor MS incorporated in the microphone unit 140, and the movement track or the like of the movement is detected by the karaoke device main body part 110. Performance control information is generated by the detected movement track or the like, and performance of the karaoke musical piece based on musical piece data is controlled by the performance control information.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、曲データに基づい
て楽音を発生するカラオケシステムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a karaoke system for generating musical tones based on music data.

【0002】[0002]

【従来の技術】カラオケ装置では、歌唱者は多数のカラ
オケ曲の中から歌唱したい曲を選択指示することによ
り、選択指示したカラオケ曲に対応する曲データ(MI
DI(Musical Instrument Digital Interface)データ
等)を読み出して再生することによりカラオケ曲の演奏
がなされている。
2. Description of the Related Art In a karaoke apparatus, a singer selects and instructs a song to be sung from a large number of karaoke songs, and the song data (MI
A karaoke piece is played by reading and reproducing DI (Musical Instrument Digital Interface) data or the like.

【0003】このように現在のカラオケ装置では、歌唱
者は多数のカラオケ曲の中から歌唱するカラオケ曲を選
択することができ、自身の歌唱能力に合致しないカラオ
ケ曲等を選択してしまうこともある。このような場合、
通常のカラオケ演奏を行うと、歌唱者がそのカラオケ演
奏に合わせて歌唱することができなくなってしまう。こ
のような不都合を解消するために、通常のカラオケ装置
には、その装置本体にテンポ、音高、音量等の演奏パラ
メータを設定するための操作パネル等が設けられてい
る。この操作パネルを適宜操作することにより、各歌唱
者が自身の歌唱能力に応じてカラオケ演奏の際のテンポ
や音高等を設定することができるようになっている。
As described above, in the present karaoke apparatus, the singer can select a karaoke piece to be sung from a large number of karaoke pieces, and may select a karaoke piece or the like which does not match his or her singing ability. is there. In such cases,
When a normal karaoke performance is performed, the singer cannot sing along with the karaoke performance. In order to eliminate such an inconvenience, a normal karaoke apparatus is provided with an operation panel or the like for setting performance parameters such as tempo, pitch, and volume in the apparatus body. By properly operating this operation panel, each singer can set the tempo, pitch, etc. at the time of karaoke performance according to his or her singing ability.

【0004】[0004]

【発明が解決しようとする課題】しかし、歌唱者がある
カラオケ曲の歌唱を開始した後に、テンポやピッチ等を
変更したいと思うこともある。例えば、歌唱開始前はテ
ンポや音高を変更せずそのままで歌唱できると歌唱者が
思っていた場合に、実際に歌唱した時にある部分がうま
く歌唱できない等の理由によってテンポや音高を変更し
たいと思う場合や、周囲の聴取者の雰囲気等によって演
奏のテンポを速くしたり、遅くしたりしたいと思う場合
などである。このような場合、歌唱者はカラオケ曲を歌
唱しながら、操作パネルを適宜調整操作するといった作
業を行う等、煩雑かつ歌唱の妨げとなる作業を行わなく
てはならなかった。
However, there are times when the singer wants to change the tempo, pitch, etc. after starting to sing a karaoke piece. For example, if the singer thought that he could sing the song without changing the tempo or pitch before starting singing, he would like to change the tempo or pitch due to the reason that some parts could not be sung well when actually singing. Or the tempo of the performance may be made faster or slower depending on the atmosphere of listeners around. In such a case, the singer had to perform a complicated work that hinders the singing, such as performing an operation of appropriately adjusting the operation panel while singing a karaoke song.

【0005】本発明は、上記の事情を考慮してなされた
ものであり、カラオケ曲の歌唱中であっても、煩雑な操
作等を行うことなく、曲データに基づく楽音発生を制御
することができるカラオケシステムを提供することを目
的とする。
The present invention has been made in consideration of the above circumstances, and it is possible to control the generation of musical tones based on music data without performing a complicated operation even while singing a karaoke music. The purpose is to provide a karaoke system that can.

【0006】[0006]

【課題を解決するための手段】上記課題を解決するた
め、本発明に係るカラオケシステムは、使用者が携帯可
能なユニットであって、当該ユニットを携帯する使用者
の動作を検出する動作検出ユニットと、曲データに基づ
いて演奏を行うカラオケ装置とを備えたカラオケシステ
ムであって、前記カラオケ装置は、前記動作検出ユニッ
トによって検出された使用者の動作検出結果を取得する
取得手段と、前記曲データと、前記取得手段によって取
得された動作検出結果とに基づいて楽音を発生する楽音
発生手段とを有することを特徴としている。
In order to solve the above problems, a karaoke system according to the present invention is a unit which can be carried by a user and which detects a motion of a user carrying the unit. And a karaoke system for performing a performance based on music data, wherein the karaoke device acquires an operation detection result of a user detected by the operation detection unit, and the music. It is characterized by having a musical sound generating means for generating a musical sound based on the data and the motion detection result acquired by the acquiring means.

【0007】この構成では、使用者はカラオケ曲を歌唱
する際に、携帯している動作検出ユニットを動かすこと
により、その動きに応じてカラオケ曲の曲データに応じ
た楽音発生を制御することができる。例えば、動作検出
ユニットを予め決められたように動かすことにより、曲
データに基づく演奏における演奏テンポ、音高等の演奏
に関するパラメータ等を変更できるようにすれば、使用
者はカラオケ装置に設けられた操作部等を操作すること
なく、携帯している動作検出ユニットを動かすといった
カラオケ曲を歌唱しながら容易に行える動作で上記のよ
うな演奏パラメータを変更等することができる。
With this configuration, when the user sings a karaoke song, the user can control the generation of a musical tone according to the song data of the karaoke song by moving the motion detecting unit carried by the user. it can. For example, if the motion detection unit is moved in a predetermined manner so that the performance tempo in the performance based on the music data, the performance-related parameters such as the pitch, and the like can be changed, the user can operate the karaoke device. It is possible to change the performance parameters as described above by an operation that can be easily performed while singing a karaoke piece such as moving a carried operation detection unit without operating a section or the like.

【0008】[0008]

【発明の実施の形態】以下、図面を参照して本発明の実
施形態について説明する。 A.実施形態の構成 まず、図1は本発明の一実施形態に係るカラオケシステ
ムの外観を模式的に示す図である。当該カラオケシステ
ム100は、例えばカラオケ専用の個室等に設置され、
カラオケ装置本体部(カラオケ装置)110と、表示装
置120と、スピーカ130と、マイクロホンユニット
(動作検出ユニット)140と、照明装置150とを備
えている。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings. A. Configuration of Embodiment First, FIG. 1 is a diagram schematically showing an appearance of a karaoke system according to an embodiment of the present invention. The karaoke system 100 is installed in, for example, a private room dedicated to karaoke,
The karaoke device main unit (karaoke device) 110, a display device 120, a speaker 130, a microphone unit (motion detection unit) 140, and a lighting device 150 are provided.

【0009】照明装置150は、当該カラオケシステム
100が設置される室内の天井等に設けられ、室内(特
に歌唱者)に光を照射する。照明装置150は、その照
射する光の色や光の強度等を調整することが可能であ
る。そして、カラオケ装置本体部110から図示せぬ信
号ケーブル等を介して供給される制御信号に基づいて照
明装置150の照射する光の色や強度を制御することが
できるようになっている。
The illumination device 150 is provided on the ceiling or the like in the room where the karaoke system 100 is installed, and illuminates the room (especially the singer) with light. The illuminating device 150 can adjust the color of the emitted light, the intensity of the light, and the like. Then, the color and intensity of the light emitted from the lighting device 150 can be controlled based on a control signal supplied from the karaoke device main body 110 via a signal cable or the like (not shown).

【0010】マイクロホンユニット140は、歌唱者が
当該カラオケシステム100を利用してカラオケ曲を歌
唱する際に使用するマイクロホンを搭載したユニットで
あり、従来より一般的なカラオケシステムで使用されて
いるマイクロホンとほぼ同様の外観形状となっている。
図2に示すように、マイクロホンユニット140は、動
作センサMSと、CPU(Central Processing Unit)
11と、メモリ12と、表示ユニット13と、操作スイ
ッチ14と、マイクロホン15とを備えている。すなわ
ち、このマイクロホンユニット140は、通常のカラオ
ケシステムで使用されるマイクロホン15に加え、動作
センサMS等の構成要素を付加した構成となっている。
The microphone unit 140 is a unit equipped with a microphone that is used by a singer to sing a karaoke song using the karaoke system 100, and is the same as a microphone used in a conventional karaoke system. The appearance is almost the same.
As shown in FIG. 2, the microphone unit 140 includes a motion sensor MS and a CPU (Central Processing Unit).
11, a memory 12, a display unit 13, an operation switch 14, and a microphone 15. That is, the microphone unit 140 has a configuration in which constituent elements such as the motion sensor MS are added to the microphone 15 used in a normal karaoke system.

【0011】動作センサMSは、当該マイクロホンユニ
ット140を把持して歌唱等する歌唱者の動作を検出
し、その動作検出結果をCPU11に出力する。動作セ
ンサMSとしては、3次元加速度センサ、3次元速度セ
ンサ、2次元加速度センサ、2次元速度センサ等のセン
サを用いることができるが、本実施形態では2次元加速
度センサを採用しており、図示のように動作センサMS
は、x軸検出部MSxとy軸検出部MSyとを有してい
る。これらのx軸検出部MSxおよびy軸検出部MSy
は、それぞれx軸方向(水平方向)およびy軸方向(垂
直方向)の加速度を検出する。
The motion sensor MS detects a motion of a singer who holds the microphone unit 140 and sings, and outputs the motion detection result to the CPU 11. As the motion sensor MS, a sensor such as a three-dimensional acceleration sensor, a three-dimensional speed sensor, a two-dimensional acceleration sensor, or a two-dimensional speed sensor can be used. In the present embodiment, the two-dimensional acceleration sensor is used, Motion sensor MS like
Has an x-axis detector MSx and a y-axis detector MSy. These x-axis detection unit MSx and y-axis detection unit MSy
Detects acceleration in the x-axis direction (horizontal direction) and y-axis direction (vertical direction), respectively.

【0012】CPU11は、ROM(Read Only Memor
y)等から構成されるメモリ12に記録されたプログラ
ムにしたがい動作センサMS、表示ユニット13等のユ
ニット各部を制御する。CPU11は、動作センサMS
から検出結果が供給されると、所定の周期(例えば、2
5msec)毎にこの検出結果に応じた動作検出信号を信号
ケーブル160(図1参照)を介してカラオケ装置本体
部110(図1参照)に出力する。なお、マイクロホン
ユニット140からカラオケ装置本体部110への信号
出力は、信号ケーブル160を介してカラオケ装置本体
部110に動作検出結果を出力する、いわゆる有線通信
によって行うものに限定されるわけではなく、無線通信
を用いるようにしてもよい。
The CPU 11 is a ROM (Read Only Memory).
The operation sensor MS, the display unit 13, and other unit parts are controlled according to a program recorded in the memory 12 including y). CPU11 is a motion sensor MS
When the detection result is supplied from the
Every 5 msec), an operation detection signal corresponding to this detection result is output to the karaoke apparatus main body 110 (see FIG. 1) via the signal cable 160 (see FIG. 1). Note that the signal output from the microphone unit 140 to the karaoke device main body 110 is not limited to what is performed by so-called wired communication, in which the operation detection result is output to the karaoke device main body 110 via the signal cable 160. Wireless communication may be used.

【0013】表示ユニット13は、例えば、7セグメン
ト形式のLED(Light Emitting Diode)またはLCD
(Liquid Crystal Display)表示器や1または複数のL
ED発光器等を有しており、動作状態や設定状態等の各
種情報を表示する。操作スイッチ14は、当該マイクロ
ホンユニット140の電源のオン/オフやモード設定等
の各種設定を行うために用いられるスイッチである。
The display unit 13 is, for example, a 7-segment type LED (Light Emitting Diode) or LCD.
(Liquid Crystal Display) Display and one or more L
It has an ED light emitting device and the like, and displays various information such as an operating state and a setting state. The operation switch 14 is a switch used for performing various settings such as power on / off of the microphone unit 140 and mode setting.

【0014】マイクロホン15は、当該マイクロホンユ
ニット140を所持する歌唱者の歌唱音声等が入力され
ると、その入力音声に応じた音声信号を信号ケーブル1
60(図1参照)を介してカラオケ装置本体部110に
出力する。
When a singing voice of a singer who holds the microphone unit 140 is input to the microphone 15, an audio signal corresponding to the input voice is input to the signal cable 1 of the microphone 15.
It outputs to the karaoke apparatus main body part 110 via 60 (refer FIG. 1).

【0015】このようなマイクロホンユニット140の
各構成要素には、図示せぬ電池電源から駆動電力が供給
されるが、このような電池電源としては、一次電池を用
いるようにしてもよいし、充電可能な二次電池を用いる
ようにしてもよい。
Driving power is supplied to each component of such a microphone unit 140 from a battery power source (not shown). As such a battery power source, a primary battery may be used, or charging may be performed. Possible secondary batteries may be used.

【0016】次に、図3を参照しながらカラオケ装置本
体部110、表示装置120およびスピーカ130の構
成について説明する。同図に示すように、カラオケ装置
本体部110は、バス32に接続されるCPU21と、
ROM22と、RAM23と、HDD(Hard Disk Driv
e)24と、通信インターフェース25と、操作部26
と、照明装置インターフェース27と、表示制御部28
と、音源装置29と、DSP(Digital Signal Process
or)30と、受信処理回路31とを備えている。
Next, the configurations of the karaoke device main body 110, the display device 120 and the speaker 130 will be described with reference to FIG. As shown in the figure, the karaoke device body 110 includes a CPU 21 connected to a bus 32,
ROM22, RAM23, HDD (Hard Disk Drive
e) 24, communication interface 25, and operation unit 26
A lighting device interface 27 and a display control unit 28.
, Tone generator 29, DSP (Digital Signal Process)
or) 30 and a reception processing circuit 31.

【0017】CPU21は、各種演算処理を行い、カラ
オケ装置本体部110の装置各部を制御する。ROM2
2には、当該カラオケ装置本体部110を起動するため
に必要な起動プログラムが記憶されている。当該カラオ
ケ装置本体部110の電源がオンされると、この起動プ
ログラムがCPU21によって読み出され、当該起動プ
ログラムにしたがってCPU21がHDD24に記憶さ
れたシステムプログラムやアプリケーションプログラム
をRAM23にロードし、これらにしたがった処理を実
行する。HDD24には、これらのプログラムの他、カ
ラオケ演奏に用いられる複数の曲データが記憶されてい
る。本実施形態においては、カラオケ演奏に用いる曲デ
ータとしてMIDIデータを用いており、HDD24に
はカラオケ曲の演奏を行うためのMIDIデータが記憶
されている。
The CPU 21 controls various parts of the karaoke device body 110 by performing various arithmetic processes. ROM2
2 stores a start-up program necessary for starting the karaoke apparatus main body 110. When the power supply of the karaoke apparatus main body 110 is turned on, the boot program is read by the CPU 21, and the CPU 21 loads the system program and the application program stored in the HDD 24 into the RAM 23 according to the boot program and follows them. Perform the processing. In addition to these programs, the HDD 24 stores a plurality of song data used for karaoke performance. In this embodiment, MIDI data is used as music data used for karaoke performance, and the HDD 24 stores MIDI data for performing karaoke music.

【0018】通信インターフェース25は、公衆回線網
やISDN(Integrated ServicesDigital Network)等
の図示せぬ通信網を介してセンタ局との間でデータ通信
を行うためのインターフェースである。このカラオケ装
置本体部110では、HDD24に記憶されていないカ
ラオケ曲の演奏指示等があった場合には、センタ局に対
して当該カラオケ曲の曲データの配信要求を行い、当該
要求に応じて図示せぬ通信網を介して配信される曲デー
タを通信インターフェース25が受信して当該装置に取
り込むことにより、このカラオケ曲の演奏を行うことが
できるようになっている。
The communication interface 25 is an interface for performing data communication with the center station via a communication network (not shown) such as a public line network or ISDN (Integrated Services Digital Network). In the karaoke apparatus main body 110, when there is a performance instruction of a karaoke piece which is not stored in the HDD 24, a distribution request is made to the center station for the music piece data of the karaoke piece, and according to the request, The communication interface 25 receives the music piece data distributed via a communication network (not shown) and fetches the music piece data into the device, so that the karaoke music piece can be played.

【0019】操作部26は、テンキーや各種スイッチ群
等を備えており、使用者がこれらのスイッチ等を操作し
て、予約するカラオケ曲の指定や、各種モードの設定、
音量、テンポ等の楽音パラメータの設定等を入力するこ
とができる。
The operation unit 26 is provided with a ten-key pad, various switch groups, etc., and the user operates these switches and the like to specify a karaoke piece to be reserved and set various modes.
It is possible to input the setting of musical tone parameters such as volume and tempo.

【0020】照明装置インターフェース27は、上述し
た照明装置150(図1参照)に図示せぬ信号ケーブル
を介して制御信号を出力するためのインターフェースで
ある。
The lighting device interface 27 is an interface for outputting a control signal to the above-described lighting device 150 (see FIG. 1) via a signal cable (not shown).

【0021】表示制御部28は、CDチェンジャ34か
ら供給される映像データに対応する映像上に、演奏中の
カラオケ曲の曲データに示される歌詞等の文字データを
スーパーインポーズして映像・歌詞データを生成する。
表示制御部28は、生成した映像・歌詞データを表示装
置120に出力し、これにより表示装置120に映像・
歌詞データに対応した映像が表示される。CDチェンジ
ャ34は、カラオケ演奏時にCPU21の制御にしたが
ってCD−ROMにMPEG等の形式で記録されている
映像データを選択して再生し、再生した映像データを表
示制御部28に出力する。
The display control unit 28 superimposes character data such as lyrics shown in the song data of the karaoke song being played on the image corresponding to the image data supplied from the CD changer 34, and the image / lyrics are displayed. Generate data.
The display control unit 28 outputs the generated video / lyric data to the display device 120, so that the video / lyric data is displayed on the display device 120.
The video corresponding to the lyrics data is displayed. The CD changer 34 selects and reproduces the video data recorded in the CD-ROM in the format such as MPEG under the control of the CPU 21 during the karaoke performance, and outputs the reproduced video data to the display control unit 28.

【0022】音源装置29は、使用者によって選択され
たカラオケ曲に対応する曲データに基づいて楽音信号を
生成する。本実施形態では、曲データとしてMIDIデ
ータを用いているので、音源装置29はMIDI音源装
置である。また、音源装置29は、曲データに基づいて
楽音信号を生成する際に、CPU21から供給される演
奏制御情報にしたがってテンポ、音量、タイミング、音
色等の演奏パラメータを制御する。すなわち、音源装置
29は曲データを忠実な楽音信号を生成するのではな
く、曲データに示される内容に、CPU21から供給さ
れる演奏制御情報を反映させた楽音信号を生成する。
The sound source device 29 generates a musical tone signal based on the music data corresponding to the karaoke music selected by the user. In the present embodiment, since MIDI data is used as the music data, the sound source device 29 is a MIDI sound source device. Further, the tone generator 29 controls performance parameters such as tempo, volume, timing, and tone color according to the performance control information supplied from the CPU 21 when generating a tone signal based on the music data. That is, the tone generator 29 does not generate a tone signal faithful to the song data, but generates a tone signal in which the performance control information supplied from the CPU 21 is reflected in the content shown in the song data.

【0023】DSP30は、音源装置29によって生成
された楽音信号に対し、CPU21から供給される演奏
制御情報にしたがってエコーの付与、残響効果付与、お
よび音像を特定の位置に定位させるための処理等を行
う。このようにDSP30によって効果等が付与された
楽音信号がアンプ33に出力される。アンプ33におい
て、DSP30から供給される楽音信号と、マイクロホ
ンユニット140(図1および図2参照)から供給され
る音声信号とがミキシングされ増幅等された後、ミキシ
ング等された楽音信号がスピーカ130に出力され、歌
唱音とカラオケ曲の演奏音とを含む楽音が放音される。
The DSP 30 performs processing such as echo addition, reverberation effect addition, and processing for locating a sound image at a specific position on the tone signal generated by the tone generator 29 according to the performance control information supplied from the CPU 21. To do. In this way, the tone signal to which the effects and the like have been added by the DSP 30 is output to the amplifier 33. In the amplifier 33, the musical tone signal supplied from the DSP 30 and the audio signal supplied from the microphone unit 140 (see FIGS. 1 and 2) are mixed and amplified, and then the mixed musical tone signal is supplied to the speaker 130. A musical sound including the singing sound and the performance sound of the karaoke piece is output and is emitted.

【0024】B.カラオケ演奏時の処理 次に、上記構成のカラオケシステム100によるカラオ
ケ演奏時の処理について説明する。まず、使用者によっ
て操作部26を介してあるカラオケ曲を指定するための
曲番号等が入力されると、CPU21は、入力された曲
番号に対応するカラオケ曲の曲データをHDD24から
読み出し、RAM23に一時記憶させる。そして、CP
U21はRAM23に一時記憶させた曲データを順次読
み出して音源装置29に出力する。
B. Processing during karaoke performance Next, the processing during karaoke performance by the karaoke system 100 having the above configuration will be described. First, when a user inputs a song number or the like for designating a certain karaoke song via the operation unit 26, the CPU 21 reads out song data of the karaoke song corresponding to the entered song number from the HDD 24, and the RAM 23. To temporarily store. And CP
U21 sequentially reads the music data temporarily stored in the RAM 23 and outputs it to the tone generator 29.

【0025】また、CPU21は、入力された曲番号に
よって特定されるカラオケ曲に対応した映像データを記
録したCD−ROMから、当該映像データを読み出すよ
うにCDチェンジャ34に指示する。これによりCDチ
ェンジャ34は、CPU21によって指定された映像デ
ータを読み出し、表示制御部28に出力する。これによ
り音源装置29によって曲データに応じた楽音信号の生
成が開始されるとともに、表示装置120にカラオケ曲
に対応した映像が表示される。
Further, the CPU 21 instructs the CD changer 34 to read the video data from the CD-ROM in which the video data corresponding to the karaoke music specified by the inputted music number is recorded. As a result, the CD changer 34 reads the video data designated by the CPU 21 and outputs it to the display controller 28. As a result, the tone generator 29 starts to generate a musical tone signal corresponding to the song data, and the display device 120 displays an image corresponding to the karaoke song.

【0026】以上のようにカラオケシステム100で
は、通常の一般的なカラオケシステムと同様、使用者に
指定されたカラオケ曲の楽曲演奏および映像表示を開始
することになるが、本実施形態に係るカラオケシステム
100では、カラオケ装置本体部110のCPU21の
制御の下、使用者がマイクロホンユニット140に対し
て行った動作をカラオケ曲の演奏に反映させるための処
理が行われるとともに、使用者のマイクロホンユニット
140に対する動作を照明装置150による照射方法や
表示装置120に表示される映像等に反映させるための
処理が行われる。
As described above, in the karaoke system 100, the music performance and the video display of the karaoke music designated by the user are started as in the case of the ordinary general karaoke system, but the karaoke according to the present embodiment. In the system 100, under the control of the CPU 21 of the karaoke apparatus main body 110, processing for reflecting the operation performed by the user on the microphone unit 140 in the performance of the karaoke piece is performed, and the microphone unit 140 of the user is performed. A process for reflecting the operation for (1) on the irradiation method by the illumination device 150, the image displayed on the display device 120, and the like is performed.

【0027】ここで、図4は上記のようなマイクロホン
ユニット140に対する使用者の動作内容を反映した楽
曲演奏等を行うための処理を行う際のカラオケシステム
100の機能構成である。同図に示すように、上述した
ようにカラオケ曲等を指定してカラオケ曲の演奏が開始
されると、使用者(以下、歌唱者とする)はマイクロホ
ンユニット140を把持して歌唱することになる。この
ような歌唱時に歌唱者が把持している手を動かす等して
マイクロホンユニット140を動かした場合、その動作
内容が動作センサMSによって検出される。本実施形態
では、動作センサMSとしてx軸検出部MSxおよびy
軸検出部MSyを採用しているので、歌唱者のマイクロ
ホンユニット140に対する動作はX軸方向の加速度α
xと、Y軸方向の加速度αyといった各軸方向の加速度
として検出される。この検出結果が所定周期(25mse
c)毎にマイクロホンユニット140からカラオケ装置
本体部110に出力される。
Here, FIG. 4 shows a functional configuration of the karaoke system 100 when performing a process for performing a music performance or the like that reflects the operation content of the user with respect to the microphone unit 140 as described above. As shown in the figure, when a karaoke song or the like is designated and the karaoke song is started to be played as described above, the user (hereinafter referred to as a singer) holds the microphone unit 140 and sings. Become. When the microphone unit 140 is moved by moving the hand held by the singer during such a singing operation, the operation content is detected by the operation sensor MS. In the present embodiment, the x-axis detection units MSx and y are used as the motion sensor MS.
Since the axis detection unit MSy is adopted, the singer's action with respect to the microphone unit 140 is the acceleration α in the X-axis direction.
x and acceleration in each axis direction such as acceleration αy in the Y axis direction are detected. This detection result is a predetermined cycle (25 mse
It is output from the microphone unit 140 to the karaoke apparatus main body 110 for each c).

【0028】マイクロホンユニット140から送信され
る歌唱者の動作検出結果を示す信号を受信したカラオケ
装置本体部110においては、まず受信した動作検出信
号に対して受信処理回路31による所定のフィルタリン
グ処理等の受信処理が行われ、カラオケ装置本体部11
0で処理可能な信号に変換して装置に取り込む。このよ
うにして当該装置に取り込まれた動作検出信号(αx、
αy)は移動軌跡検出処理部41およびピーク検出処理
部42に供給される。
In the karaoke device main body 110 which has received the signal indicating the result of the singer's motion detection transmitted from the microphone unit 140, first, the reception processing circuit 31 performs a predetermined filtering process on the received motion detection signal. Reception processing is performed, and the karaoke device main body 11
It is converted into a signal that can be processed by 0 and taken into the device. In this way, the motion detection signal (αx,
αy) is supplied to the movement locus detection processing unit 41 and the peak detection processing unit 42.

【0029】移動軌跡検出処理部41は、受信処理回路
31から供給される動作検出信号(αx,αy)を解析
し、当該解析結果からマイクロホンユニット140の移
動軌跡を検出する。ここで、移動軌跡検出部41による
移動軌跡の検出は、αxおよびαyが予め設定された微
小な設定値よりも小さい値である時点(つまり、ほとん
どマイクロホンユニット140が動かされていない状
態)から当該設定値よりもαxまたはαyが大きくなっ
た時点で動作が開始されたと判断し、この動作開始を検
出した後、αxおよびαyが予め設定された微小な設定
値よりも小さくなった時点を一区切りとして行われる。
すなわち、移動軌跡検出処理部41は、αxまたはαy
が設定値よりも大きくなった時点を始点とし、その始点
検出後αxおよびαyが設定値よりも小さくなるまでの
マイクロホンユニット140の一連の動きによる移動軌
跡を、動作検出信号(αx,αy)に基づいて検出す
る。
The movement locus detection processing unit 41 analyzes the movement detection signal (αx, αy) supplied from the reception processing circuit 31, and detects the movement locus of the microphone unit 140 from the analysis result. Here, the detection of the movement locus by the movement locus detection unit 41 is performed from the time when αx and αy are values smaller than a preset minute set value (that is, the microphone unit 140 is hardly moved). It is judged that the operation has started when αx or αy becomes larger than the set value, and after detecting the start of this operation, the time when αx and αy become smaller than the preset minute set value is regarded as one break. Done.
That is, the movement locus detection processing unit 41 determines that αx or αy
Is set as a start point, and after the start point is detected, a movement locus of a series of movements of the microphone unit 140 until αx and αy become smaller than the set value is set as a motion detection signal (αx, αy). Detect based on.

【0030】移動軌跡検出部41は、上述したような一
連の動作中に受信処理回路31から供給されるαxおよ
びαyから、マイクロホンユニット140の移動軌跡に
関する情報を求める。ここで、移動軌跡に関する情報と
は、その移動軌跡が描く形状情報や、その移動軌跡を描
く際の移動方向を示す情報等である。なお、上述したよ
うにαxおよびαyの値から一連の動作の移動軌跡の検
出期間を設定するようにしてもよいが、マイクロホンユ
ニット140に移動軌跡を検出する期間を指定するスイ
ッチ等を設け、当該スイッチが押下されている間のみ移
動軌跡検出処理部41がαxおよびαyに応じて1つの
移動軌跡を検出するようにしてもよい。この場合には、
操作者は移動軌跡を検出させる動きをする間だけ上記ス
イッチを押下したまま所望の動作を行えばよい。
The movement locus detector 41 obtains information on the movement locus of the microphone unit 140 from αx and αy supplied from the reception processing circuit 31 during the series of operations described above. Here, the information about the movement locus is shape information drawn by the movement locus, information indicating a movement direction when the movement locus is drawn, and the like. As described above, the movement locus detection period of a series of operations may be set from the values of αx and αy. The movement locus detection processing unit 41 may detect one movement locus according to αx and αy only while the switch is pressed. In this case,
The operator may perform a desired operation while pressing the switch only while performing a movement for detecting the movement locus.

【0031】移動軌跡検出処理部41は、以上のように
受信処理回路31から供給される動作検出信号αx,α
yからマイクロホンユニット140の移動軌跡に関する
情報を検出し、その検出結果を演奏制御情報生成部44
および表示および照明制御部43に出力する。
The movement locus detection processing section 41 has the motion detection signals αx, α supplied from the reception processing circuit 31 as described above.
Information regarding the movement trajectory of the microphone unit 140 is detected from y, and the detection result is used as the performance control information generation unit 44.
And output to the display and illumination control unit 43.

【0032】ピーク検出処理部42は、受信処理回路3
1から供給される動作検出信号(αx,αy)のピーク
値を検出する。より具体的には、まず、受信処理回路3
1から供給される動作検出信号αx,αyから、次式
(1)で表わされる加速度の絶対値|α|を求める。 |α|=(αx*αx+αy*αy)1/2 ……(1)
The peak detection processing section 42 includes the reception processing circuit 3
The peak value of the motion detection signal (αx, αy) supplied from 1 is detected. More specifically, first, the reception processing circuit 3
From the motion detection signals αx and αy supplied from 1, the absolute value of acceleration | α | expressed by the following equation (1) is obtained. | Α | = (αx * αx + αy * αy) 1/2 (1)

【0033】このように動作検出信号αx,αyが供給
される毎に、ピーク検出処理部42はその動作検出信号
から加速度の絶対値|α|を求め、この絶対値|α|の
時間経過波形のローカルピーク発生時間、ローカルピー
ク値等の情報を検出する。
Thus, every time the motion detection signals αx and αy are supplied, the peak detection processing section 42 obtains the absolute value of acceleration | α | from the motion detection signal, and the time-dependent waveform of this absolute value | α | Information such as the local peak occurrence time and local peak value of is detected.

【0034】ピーク検出処理部42は、以上のように受
信処理回路31から供給される動作検出信号αx,αy
からマイクロホンユニット140の動きの加速度のピー
ク値に関する情報を検出し、その検出結果を演奏制御情
報生成部44および表示および照明制御部43に出力す
る。
The peak detection processing section 42 receives the motion detection signals αx and αy supplied from the reception processing circuit 31 as described above.
The information on the peak value of the acceleration of the movement of the microphone unit 140 is detected from, and the detection result is output to the performance control information generation unit 44 and the display / illumination control unit 43.

【0035】演奏制御情報生成部44は、制御情報テー
ブル45を参照することにより、上記のように移動軌跡
検出処理部41が検出した移動軌跡に関する情報および
ピーク検出処理部42が検出したピーク値に関する情報
とに基づいて、音源装置29による曲データに応じたカ
ラオケ曲の演奏を制御するための演奏制御情報を生成す
る。図5に示すように、制御情報テーブル45には、移
動軌跡の形状(移動方向を含む)と、制御内容を示す情
報とが対応付けられて記憶されている。ここで、制御内
容としては、発生させる楽音の音色の設定、テンポの設
定、音量の設定、付与する効果(残響効果)、音像を特
定の位置に定位させる等の楽曲演奏に関する種々の制御
内容であり、図示の例では、「1回転円形で時計回り」
に「音色をピアノ」にするといったカラオケ曲演奏に対
する制御内容が対応付けられており、「1回転円形で反
時計回り」に「音色をオルガン」にするといった制御内
容が対応付けられている。
By referring to the control information table 45, the performance control information generation unit 44 relates to the information on the movement locus detected by the movement locus detection processing unit 41 and the peak value detected by the peak detection processing unit 42 as described above. Based on the information, the performance control information for controlling the performance of the karaoke music according to the music data by the tone generator 29 is generated. As shown in FIG. 5, the control information table 45 stores the shape of the movement trajectory (including the movement direction) and the information indicating the control content in association with each other. Here, the control contents include various control contents relating to music performance such as setting tone color of a generated musical tone, setting tempo, setting volume, imparting effect (reverberation effect), and locating sound image at a specific position. Yes, in the example shown, "1 rotation circle and clockwise"
Is associated with the control content for the karaoke piece performance such as "timbre is piano", and the control content is such that "timbre is organ with counterclockwise rotation".

【0036】演奏制御情報生成部44は、このように形
状と演奏制御内容とが対応付けられて記憶された制御情
報テーブル45を参照することにより、移動軌跡検出処
理部41から供給される移動軌跡に関する情報に基づい
て、音源装置29やDSP30を制御するための演奏制
御情報を生成する。具体的に例示すると、歌唱者により
マイクロホンユニット140が1回転円形で時計回りに
動かされた場合には、演奏制御情報生成部44は、この
動きに応じて検出された移動軌跡に関する情報に基づい
て音源装置29に対して音色をピアノにすることを指示
するための演奏制御情報を生成する。また、演奏制御情
報生成部44は、このような制御情報テーブル45を参
照し、移動軌跡検出処理部41から供給される移動軌跡
に関する情報に応じた演奏制御情報を生成するととも
に、ピーク検出処理部42から供給されるピーク値に関
する情報に応じて演奏制御情報を生成する。例えば、ピ
ーク検出処理部42から供給されるローカルピーク値に
応じた音量を発生させるための演奏制御情報等を生成す
る。
The performance control information generation unit 44 refers to the control information table 45 in which the shape and the performance control content are stored in association with each other in this way, and thereby the motion trajectory supplied from the motion trajectory detection processing unit 41. Performance control information for controlling the tone generator device 29 and the DSP 30 is generated based on the information regarding the above. As a specific example, when the singer moves the microphone unit 140 clockwise in a one-rotation circle, the performance control information generation unit 44, based on the information about the movement trajectory detected according to this movement. Performance control information for instructing the tone generator 29 to set the tone color to piano is generated. Further, the performance control information generation unit 44 refers to the control information table 45 as described above, generates performance control information according to the information regarding the movement trajectory supplied from the movement trajectory detection processing unit 41, and also performs the peak detection processing unit. The performance control information is generated according to the information about the peak value supplied from 42. For example, performance control information or the like for generating a volume corresponding to the local peak value supplied from the peak detection processing unit 42 is generated.

【0037】このように演奏制御情報生成部44によっ
て生成されたカラオケ曲の演奏を制御するための演奏制
御情報が音源装置29およびDSP30に供給される。
音源装置29には、上述したように歌唱者によって設定
されたカラオケ曲の曲データ(MIDIデータ)がRA
M23から読み出されて順次供給されている。音源装置
29は、このように順次供給されるMIDIデータにし
たがって楽音信号を生成する。この際、音源装置29
は、演奏制御情報生成部44から供給される演奏制御情
報を反映させて楽音信号を生成する。例えば、上述した
ようにピアノの音色にするといった演奏制御情報が供給
された場合には、音高、タイミング、テンポ等はMID
Iデータにしたがい、音色については演奏制御情報にし
たがった「ピアノ」の音色を採用する。つまり、音源装
置29は、演奏制御情報によって指定されたパラメータ
(この場合、音色)以外のパラメータはMIDIデータ
にしたがい、演奏制御情報に指定されたパラメータにつ
いてはその制御内容にしたがって楽音信号を生成するの
である。
The performance control information for controlling the performance of the karaoke piece thus generated by the performance control information generating section 44 is supplied to the tone generator 29 and the DSP 30.
In the tone generator 29, the song data (MIDI data) of the karaoke song set by the singer as described above is RA.
It is read from M23 and sequentially supplied. The tone generator 29 generates a musical tone signal according to the MIDI data thus sequentially supplied. At this time, the sound source device 29
Generates a tone signal by reflecting the performance control information supplied from the performance control information generation unit 44. For example, when the performance control information such as the tone color of the piano is supplied as described above, the pitch, timing, tempo, etc. are MID.
According to the I data, the tone color of "piano" according to the performance control information is adopted as the tone color. That is, the tone generator 29 generates a tone signal according to the control content of the parameters specified in the performance control information according to the MIDI data, except for the parameters (timbre in this case) specified by the performance control information. Of.

【0038】このように演奏制御情報を反映して生成さ
れた楽音信号は音源装置29からDSP30に供給され
る。DSP30は、音源装置29から供給される楽音信
号に対して、演奏制御情報生成部44から供給される演
奏制御情報にしたがった信号処理を施す。例えば、演奏
制御情報がエコーを付与することを指示するものであれ
ば、DSP30はその指示にしたがったエコーを付与す
るための信号処理を施す。このようにDSP30は、演
奏制御情報にしたがった信号処理を施した後、処理後の
楽音信号をアンプ33に出力する。
The musical tone signal generated by reflecting the performance control information in this way is supplied from the tone generator 29 to the DSP 30. The DSP 30 subjects the musical tone signal supplied from the tone generator 29 to signal processing according to the performance control information supplied from the performance control information generation unit 44. For example, if the performance control information is an instruction to give an echo, the DSP 30 performs signal processing for giving an echo according to the instruction. In this way, the DSP 30 performs signal processing according to the performance control information and then outputs the processed musical tone signal to the amplifier 33.

【0039】DSP30から出力された楽音信号がアン
プ33において適宜増幅等され、マイクロホンユニット
140から供給される音声信号(歌唱音)とミキシング
された後、スピーカ130に出力される。これによりス
ピーカ130からは、歌唱者がマイクロホンユニット1
40に対して行った動作を反映させた楽音信号に応じた
カラオケ曲の演奏音が歌唱音とともに放音されるのであ
る。
The musical tone signal output from the DSP 30 is appropriately amplified by the amplifier 33, mixed with the audio signal (singing sound) supplied from the microphone unit 140, and then output to the speaker 130. As a result, the singer performs the microphone unit 1 from the speaker 130.
The performance sound of the karaoke piece corresponding to the musical sound signal reflecting the operation performed on 40 is emitted together with the singing sound.

【0040】また、移動軌跡検出処理部41によって検
出された移動軌跡に関する情報と、ピーク検出処理部4
2によって検出されたピーク値に関する情報は、表示お
よび照明制御部43に供給される。表示および照明制御
部43では、移動軌跡に関する情報およびピーク値に関
する情報に基づいて、表示装置120に表示させる内容
を制御するための表示制御情報や、照明装置150の照
射内容を制御するための照明制御情報を生成し、各々の
制御情報を表示装置120および照明装置150に出力
する。
Information regarding the movement locus detected by the movement locus detection processing unit 41 and the peak detection processing unit 4 are also provided.
Information regarding the peak value detected by 2 is supplied to the display and illumination control unit 43. The display / illumination control unit 43 controls the display control information for controlling the content displayed on the display device 120 and the illumination for controlling the irradiation content of the illumination device 150 based on the information about the movement trajectory and the information about the peak value. The control information is generated and each control information is output to the display device 120 and the lighting device 150.

【0041】本実施形態においては、表示および照明制
御部43が生成する表示制御情報は、歌唱者の動作によ
ってカラオケ曲演奏の際に使用されるパラメータ(音
色、音高、音量等)のうちどのパラメータがどのように
変更されたかを示す文字情報をスーパーインポーズさせ
るための画像情報等である。このような表示制御情報を
生成する場合において、マイクロホンユニット140の
動きによってカラオケ曲の演奏のあるパートの音色をピ
アノにするといった制御がなされると、CDチェンジャ
34から読み出された背景画像等に「音色をピアノ音に
変更中」といった文字情報がスーパーインポーズされて
表示装置120に表示されることになる。なお、表示制
御情報はこのようなスーパーインポーズ用の画像情報に
限定されるものではなく、表示装置120の表示内容を
変更できるものであればよく、例えばCDチェンジャ3
4から読み出す画像データの変更を指示するといった制
御情報であってもよい。
In the present embodiment, the display control information generated by the display and illumination control section 43 is one of the parameters (timbre, pitch, volume, etc.) used when the karaoke piece is played by the operation of the singer. It is image information or the like for superimposing character information indicating how the parameters have been changed. In the case where such display control information is generated, when the tone color of the part in which the karaoke piece is played is changed to piano by the movement of the microphone unit 140, the background image read from the CD changer 34 is displayed. Character information such as "changing tone color to piano sound" is superimposed and displayed on the display device 120. The display control information is not limited to such superimposing image information, but may be any information that can change the display content of the display device 120, such as the CD changer 3.
The control information may be an instruction to change the image data read out from No. 4.

【0042】また、本実施形態においては、表示および
照明制御部43が生成する照明制御情報は、照明装置1
50の照射する光の色、強さ等を制御するための情報で
ある。例えば、ピーク検出処理部42によって検出され
たローカルピーク値が大きくなった場合に、表示および
照明制御部43が照明装置150の照射する光が強くな
るような照明制御情報を生成し、ローカルピーク値が小
さくなった場合に照明装置150の照射する光が弱くな
るような照明制御情報を生成するといった具合である。
このようにすれば、検出されたローカルピーク値、つま
り歌唱者がマイクロホンユニット140を動かす加速度
の大きさの度合いに応じた強さの光が照明装置150か
ら照射されることになる。また、照明装置150が照射
する位置等を変更できる構成(スポットライトの照射位
置等を変更できるなど)であれば、表示および照明制御
部43が照射位置を制御するための照明制御情報を生成
し、照明装置150に出力するようにしてもよい。
In the present embodiment, the lighting control information generated by the display and lighting control section 43 is the lighting device 1.
This is information for controlling the color, intensity, etc. of the light emitted by 50. For example, when the local peak value detected by the peak detection processing unit 42 becomes large, the display and lighting control unit 43 generates the lighting control information such that the light emitted from the lighting device 150 becomes strong, and the local peak value is calculated. The illumination control information is generated such that the light emitted from the illumination device 150 becomes weaker when the illumination becomes smaller.
In this way, the detected local peak value, that is, light having an intensity corresponding to the degree of acceleration of the singing person moving the microphone unit 140 is emitted from the illumination device 150. In addition, if the configuration is such that the irradiation position of the lighting device 150 can be changed (such as the irradiation position of the spotlight can be changed), the display and lighting control unit 43 generates the lighting control information for controlling the irradiation position. , May be output to the lighting device 150.

【0043】このように本実施形態に係るカラオケシス
テム100では、歌唱者がマイクロホンユニット140
を動かすことによってカラオケ曲の演奏内容を制御する
ことができるとともに、表示装置120の表示内容や、
照明装置150による照射内容等も制御できるようにな
っている。
As described above, in the karaoke system 100 according to this embodiment, the singer is the microphone unit 140.
By moving the, it is possible to control the performance content of the karaoke song, and the content displayed on the display device 120 and
It is also possible to control the irradiation content and the like by the lighting device 150.

【0044】C.カラオケ演奏にマイクロホンユニット
の動きを反映させる方法の具体例 以上のようにカラオケシステム100では、曲データに
忠実にカラオケ曲の演奏を行うのではなく、そのカラオ
ケ曲の演奏等に歌唱者が歌唱のために把持等しているマ
イクロホンユニット140の動きを反映させることがで
きる。ここで、マイクロホンユニット140をどのよう
に動かせば、カラオケ曲の演奏にどのように反映させる
ことができるかは、上述した制御情報テーブル45の記
憶内容によって決まるものであり、この制御情報テーブ
ル45の内容を適宜変更することで様々な動作パターン
に様々な制御内容を割り当てることができる。以下にお
いては、図5に例示するような情報が制御情報テーブル
45に登録されている場合において、歌唱者がマイクロ
ホンユニット140を円形(図9、図10参照)、三角
形(図11、図12参照)、四角形(図13、図14参
照)、八の字型(図15、図16参照)に動かした場合
を例に挙げ、マイクロホンユニット140の動きをカラ
オケ曲演奏に反映させる方法について説明する。
C. Concrete Example of Method for Reflecting Movement of Microphone Unit in Karaoke Performance As described above, in the karaoke system 100, the singer does not perform the karaoke piece faithfully to the song data, but rather sings the song by the singer. Therefore, it is possible to reflect the movement of the microphone unit 140 that is being gripped. Here, how the microphone unit 140 is moved and how it can be reflected in the performance of the karaoke piece is determined by the stored contents of the control information table 45 described above. Various control contents can be assigned to various operation patterns by appropriately changing the contents. In the following, when the information illustrated in FIG. 5 is registered in the control information table 45, the singer makes the microphone unit 140 circular (see FIGS. 9 and 10) and triangular (see FIGS. 11 and 12). ), A quadrangle (see FIGS. 13 and 14), and a figure of eight (see FIGS. 15 and 16) as an example, a method of reflecting the movement of the microphone unit 140 in the karaoke piece performance will be described.

【0045】上述したようにマイクロホンユニット14
0の動きを曲演奏に反映させるために、移動軌跡検出処
理部41がその移動軌跡を検出し、該検出結果を曲演奏
に反映させている。本実施形態では、移動軌跡検出処理
部41は、予め用意記憶している図8に示す形状認識用
テーブルを用い、図6および図7に示す手順にしたがっ
てマイクロホンユニット140から供給されるαx、α
yに基づいて移動軌跡形状を検出するようにしている。
As described above, the microphone unit 14
In order to reflect the movement of 0 in the music performance, the movement locus detection processing unit 41 detects the movement locus and reflects the detection result in the music performance. In the present embodiment, the movement locus detection processing unit 41 uses the shape recognition table shown in FIG. 8 which is prepared and stored in advance, and αx, α supplied from the microphone unit 140 according to the procedure shown in FIGS. 6 and 7.
The movement trajectory shape is detected based on y.

【0046】C−1.マイクロホンユニット140を円
形状に沿って動かした場合 ここで、図6および図7に示す手順にしたがった移動軌
跡の検出処理について、マイクロホンユニット140を
具体的に種々の形状に沿って移動させた場合を各々例に
挙げて説明する。まず、図9に示すように、操作者がマ
イクロホンユニット140を時計回り円形状に沿って移
動させた場合について説明する。
C-1. When the microphone unit 140 is moved along a circular shape Here, regarding the movement locus detection processing according to the procedure shown in FIGS. 6 and 7, when the microphone unit 140 is specifically moved along various shapes. Will be described as an example. First, a case where the operator moves the microphone unit 140 along a clockwise circular shape as shown in FIG. 9 will be described.

【0047】操作者がマイクロホンユニット140を移
動させると、移動軌跡検出処理部41は、αx、αyに
基づいてマイクロホンユニット140が移動を開始した
こと、つまり移動開始始点SPを検出し(ステップSa
1)、形状認識のために用いる認識ポイントカウント数
NPを1に設定する(ステップSa2)。ここで、認識
ポイントカウント数NPは、形状認識のためにマイクロ
ホンユニット140が移動する方向を認識するための認
識点の数を示すカウント数であり、認識ポイントカウン
ト数NP=1は1つ目の認識点NP1、認識ポイントカ
ウント数NP=2は2つの目の認識点NP2を示す。
When the operator moves the microphone unit 140, the movement locus detection processing section 41 detects that the microphone unit 140 has started movement based on αx and αy, that is, the movement start starting point SP (step Sa
1), the recognition point count number NP used for shape recognition is set to 1 (step Sa2). Here, the recognition point count number NP is a count number indicating the number of recognition points for recognizing the moving direction of the microphone unit 140 for shape recognition, and the recognition point count number NP = 1 is the first. The recognition point NP1 and the recognition point count number NP = 2 indicate the recognition point NP2 of the second eye.

【0048】この後、移動軌跡検出処理部41は、マイ
クロホンユニット140の始点SPからの1つ目の認識
点NP1への移動方向を検出する(ステップSa3)。
ここで、時計回り円形状に沿った動作をした場合には、
図9に示すように、検出された始点SPからマイクロホ
ンユニット140の移動方向、つまり始点SPから1つ
目の認識点NP1への方向が右下方向となる。このよう
に始点SPから認識点NP1への方向が検出され、その
後もマイクロホンユニット140が動き続けると、移動
軌跡検出処理部41の処理はステップSa4に進み、認
識ポイントカウント数NPに2が設定される。そして、
始点SPから右下に移動した後のマイクロホンユニット
140の移動方向、つまり1つ目の認識点NP1から2
つ目の認識点NPへの方向を検出する(ステップSa
6)。
After that, the movement locus detection processing unit 41 detects the movement direction of the microphone unit 140 from the starting point SP to the first recognition point NP1 (step Sa3).
Here, when the operation along the clockwise circular shape is performed,
As shown in FIG. 9, the moving direction of the microphone unit 140 from the detected start point SP, that is, the direction from the start point SP to the first recognition point NP1 is the lower right direction. In this way, when the direction from the starting point SP to the recognition point NP1 is detected and the microphone unit 140 continues to move thereafter, the process of the movement locus detection processing unit 41 proceeds to step Sa4, and the recognition point count number NP is set to 2. It And
The moving direction of the microphone unit 140 after moving from the start point SP to the lower right, that is, the first recognition points NP1 to NP2.
The direction to the second recognition point NP is detected (step Sa
6).

【0049】ここで、ステップSa3で始点SPから1
つ目の認識点NP1への方向が「右下」と検出された場
合において、1つ目の認識点NP1から2つめの認識点
NP2への方向が「左下」と検出された時には、マイク
ロホンユニット140が「時計回り円形状」に沿って移
動していると判断し、移動軌跡検出処理部41は形状フ
ラグ「時計回り円形状」を設定する(ステップSa
8)。
Here, in step Sa3, 1 from the starting point SP.
When the direction to the second recognition point NP1 is detected as "lower right", when the direction from the first recognition point NP1 to the second recognition point NP2 is detected as "lower left", the microphone unit is detected. It is determined that 140 is moving along the “clockwise circular shape”, and the movement locus detection processing unit 41 sets the shape flag “clockwise circular shape” (step Sa
8).

【0050】このように移動軌跡検出処理部41は、マ
イクロホンユニット140が移動軌跡が「時計回り円形
状」に沿って移動していると判断し、そのような形状フ
ラグを設定すると、以降は図8に示す形状認識用テーブ
ルを参照し、その判断した形状に沿ってマイクロホンユ
ニット140が移動しているか否かを確認する処理を行
う。
In this way, the movement locus detection processing unit 41 determines that the movement locus of the microphone unit 140 is moving along the "clockwise circular shape", and if such a shape flag is set, the following steps will be performed. A process for checking whether or not the microphone unit 140 is moving along the determined shape by referring to the shape recognition table shown in FIG.

【0051】まず、このような確認処理の詳細な説明に
先立ち、図8に示す形状認識用テーブルの内容について
説明する。同図に示すように、形状認識用テーブルに
は、「時計回り円形状」、「反時計回り円形状」、「時
計回り四角形」、「反時計回り四角形」、「時計回り三
角形」、「反時計回り三角形」、「時計回り八の字」お
よび「反時計回り八の字」といった当該移動軌跡検出処
理部41が識別可能な形状の各々に対応付けて、「カウ
ント数」と、認識点NP1、NP2……に対応する移動
方向とが格納されている。ここで、各認識点に対応する
移動方向とは、認識点NP1の場合には、始点SPから
の移動方向を示す。図示のテーブルでは、「時計回り円
形状」の認識点NP1に対応する方向として「右下」と
いった方向が格納されているが、これは「時計回り円形
状」の移動軌跡を検出する条件が、始点SPから認識点
NP1への方向が「右下」であることを示している。ま
た、認識点NP2、NP3……については、1つ前の認
識点からの移動方向に対応した方向が格納されている。
図示のテーブルでは、「時計回り円形状」の認識点NP
2に対応する方向として「左下」といった方向が格納さ
れているが、これは「時計回り円形状」の移動軌跡を検
出する条件が、認識点NP1から認識点NP2への方向
が「左下」であることを示している。
Prior to a detailed description of such confirmation processing, the contents of the shape recognition table shown in FIG. 8 will be described. As shown in the figure, in the shape recognition table, there are "clockwise circular shape", "counterclockwise circular shape", "clockwise quadrangle", "counterclockwise quadrangle", "clockwise triangle", and "counterclockwise triangle". The "count number" and the recognition point NP1 are associated with each of the shapes identifiable by the movement locus detection processing unit 41, such as "clockwise triangle", "clockwise eight-character", and "counterclockwise eight-character". , NP2 ... And the moving direction corresponding to the NP2 are stored. Here, the moving direction corresponding to each recognition point indicates the moving direction from the starting point SP in the case of the recognition point NP1. In the illustrated table, a direction such as "lower right" is stored as a direction corresponding to the recognition point NP1 of "clockwise circular shape". This indicates that the direction from the starting point SP to the recognition point NP1 is "lower right". Further, for the recognition points NP2, NP3, ..., The directions corresponding to the moving directions from the immediately preceding recognition point are stored.
In the illustrated table, the recognition point NP of “clockwise circular shape”
Although a direction such as "lower left" is stored as the direction corresponding to 2, the condition for detecting a "clockwise circular" movement locus is that the direction from the recognition point NP1 to the recognition point NP2 is "lower left". It indicates that there is.

【0052】「カウント数」は各形状の移動軌跡の検出
を完了するまでに通過したか否かが検出される認識点の
数を示すデータが格納される。「時計回り円形状」の場
合には、「4」が格納されており、これは「時計回り円
形状」といった移動軌跡の検出を完了するまで4つの認
識点を通過したか否かが確認されることを意味し、この
形状に対しては認識点NP1〜認識点NP4といった4
つの認識点に対応する方向が格納されることになる。ま
た、「時計回り八の字」に対応する「カウント数」には
「8」が格納されており、これは「時計回り八の字」と
いった移動軌跡の検出を完了するまでに8つの認識点を
通過したか否かが確認されることを意味している。
The "count number" stores data indicating the number of recognition points at which it is detected whether or not the movement locus of each shape has been passed until the detection is completed. In the case of “clockwise circular shape”, “4” is stored, and it is confirmed whether or not four recognition points have been passed until the detection of the movement trajectory such as “clockwise circular shape” is completed. This means that the recognition point NP1 to recognition point NP4 is 4 for this shape.
The direction corresponding to one recognition point will be stored. Also, "8" is stored in the "count number" corresponding to the "clockwise eight-shaped". This is eight recognition points until the detection of the movement trajectory such as "clockwise eight-shaped" is completed. It means that it is confirmed whether or not the vehicle has passed.

【0053】以上のようなデータが格納された形状認識
用テーブルを参照し、移動軌跡検出処理部41はフラグ
を設定した形状に沿ってマイクロホンユニット140が
移動しているか否かを確認する処理を行うのである。
By referring to the shape recognition table in which the above data is stored, the movement locus detection processing unit 41 performs processing for confirming whether or not the microphone unit 140 is moving along the flagged shape. Do it.

【0054】まず、上述したように「時計回り円形状」
の形状フラグが設定されると(ステップSa8)、移動
軌跡検出処理部41は、設定した形状フラグに対応付け
られた「カウント数」から現在の認識ポイントカウント
数NPを減算し、これに1をインクリメントした値を認
識ポイントカウント数NPとして設定する(ステップS
a12)。具体的には、現在の認識ポイントカウント数
NPは2であり、「時計回り円形状」に対応する「カウ
ント数」は4であるから、認識ポイントカウント数NP
を4−2+1=3に設定する。そして、移動軌跡検出処
理部41は、上記認識点NP2からのマイクロホンユニ
ット140の移動方向、つまり次の認識点である認識点
NP3への方向が、形状認識用テーブルの「時計回り円
形状」の「NP3」に対応する方向、すなわち「左上」
と一致するか否かを判別する(ステップSa13)。こ
こで、両者が一致する場合には、マイクロホンユニット
140が設定した形状フラグに示される形状である「時
計回り円形状」に沿って移動していることが確認され、
両者が一致しない場合には「時計回り円形状」に沿って
移動していないと判断される。
First, as described above, "clockwise circular shape"
When the shape flag is set (step Sa8), the movement locus detection processing unit 41 subtracts the current recognition point count number NP from the “count number” associated with the set shape flag, and sets 1 to this. The incremented value is set as the recognition point count number NP (step S
a12). Specifically, since the current recognition point count number NP is 2 and the “count number” corresponding to the “clockwise circular shape” is 4, the recognition point count number NP
Is set to 4-2 + 1 = 3. Then, the movement locus detection processing unit 41 indicates that the movement direction of the microphone unit 140 from the recognition point NP2, that is, the direction to the next recognition point NP3 is the “clockwise circular shape” of the shape recognition table. Direction corresponding to "NP3", that is, "upper left"
Then, it is determined whether or not (step Sa13). Here, when they match, it is confirmed that the microphone unit 140 is moving along the “clockwise circular shape” which is the shape indicated by the shape flag set by the microphone unit 140,
If they do not match, it is determined that they have not moved along the “clockwise circular shape”.

【0055】ここで、マイクロホンユニット140が
「時計回り円形状」に沿って移動していないと判断する
と(ステップSa13の判別「NO」)、移動軌跡検出
処理部41は形状認識ができないと判別し(ステップS
a14)、上記設定した形状フラグをリセットする。
If it is determined that the microphone unit 140 has not moved along the "clockwise circular shape" (determination "NO" in step Sa13), the movement locus detection processing unit 41 determines that the shape cannot be recognized. (Step S
a14), reset the shape flag set above.

【0056】一方、マイクロホンユニット140が「時
計回り円形状」に沿って移動していることが確認される
と(ステップSa13の判別「YES」)、移動軌跡検
出処理部41は、認識ポイントカウント数NP(この時
点では、3)が形状認識用テーブルの「カウント数」に
格納された値(=4)と一致するか否かを判別する(ス
テップSa15)。つまり、移動軌跡検出処理部41は
設定した形状フラグに示される形状を認識するために必
要な数の認識点での方向チェックを行ったか否かを判別
し、認識ポイントカウント数NPとカウント数が不一致
の場合には(全ての認識点での方向チェックが終わって
いない場合には)、認識ポイントカウント数NPに1を
インクリメントする(ステップSa16)、すなわち認
識ポイントカウント数NP=4に設定する。そして、移
動軌跡検出処理部41は、処理をステップSa13に戻
し、新たに設定された認識ポイントカウント数NPに対
応する認識点である認識点NP4に関してのチェックを
行う。具体的には、移動軌跡検出処理部41は、形状認
識用テーブルの「NP4」に格納された方向「右上」
と、マイクロホンユニット140の認識点NP3からの
移動方向、つまり認識点NP3からNP4への方向とが
一致するか否かを判別する(ステップSa13)。
On the other hand, when it is confirmed that the microphone unit 140 is moving along the “clockwise circular shape” (determination “YES” in step Sa13), the movement locus detection processing unit 41 causes the recognition point count number. It is determined whether NP (3 at this point) matches the value (= 4) stored in the “count number” of the shape recognition table (step Sa15). In other words, the movement locus detection processing unit 41 determines whether or not the direction check has been performed at the number of recognition points required to recognize the shape indicated by the set shape flag, and the recognition point count number NP and the count number are When they do not match (when the direction check is not completed at all recognition points), the recognition point count number NP is incremented by 1 (step Sa16), that is, the recognition point count number NP = 4 is set. Then, the movement locus detection processing unit 41 returns the processing to step Sa13, and checks the recognition point NP4 which is the recognition point corresponding to the newly set recognition point count number NP. Specifically, the movement locus detection processing unit 41 determines that the direction “upper right” stored in “NP4” of the shape recognition table.
And the moving direction of the microphone unit 140 from the recognition point NP3, that is, the direction from the recognition point NP3 to the recognition point NP4, is determined (step Sa13).

【0057】ここで、両者が一致する場合には、マイク
ロホンユニット140が設定した形状フラグに示される
形状である「時計回り円形状」に沿って移動しているこ
とが確認され、両者が一致しない場合には「時計回り円
形状」に沿って移動していないと判断される。
If the two match, it is confirmed that the microphone unit 140 is moving along the "clockwise circular shape" which is the shape indicated by the shape flag set by the microphone unit 140, and the two do not match. In this case, it is determined that the movement is not along the “clockwise circular shape”.

【0058】そして、マイクロホンユニット140が
「時計回り円形状」に沿って移動していないと判断する
と(ステップSa13の判別「NO」)、移動軌跡検出
処理部41は形状認識ができないと判別し(ステップS
a14)、上記設定した形状フラグをリセットする。一
方、、マイクロホンユニット140が「時計回り円形
状」に沿って移動していることが確認されると(ステッ
プSa13の判別「YES」)、移動軌跡検出処理部4
1は、認識ポイントカウント数NP(この時点では、
4)が形状認識用テーブルの「カウント数」に格納され
た値(=4)と一致するか否かを判別する(ステップS
a15)。ここでの判別は「YES」となるため、移動
軌跡検出処理部41は処理をステップSa17に進め
る。すなわち、設定した形状フラグに示す形状である
「時計回り円形状」に沿ってマイクロホンユニット14
0が移動したと断定し、形状認識を完了する。
When it is determined that the microphone unit 140 is not moving along the "clockwise circular shape" (determination "NO" in step Sa13), the movement locus detection processing unit 41 determines that the shape cannot be recognized ( Step S
a14), reset the shape flag set above. On the other hand, when it is confirmed that the microphone unit 140 is moving along the “clockwise circular shape” (determination “YES” in step Sa13), the movement locus detection processing unit 4
1 is the recognition point count number NP (at this point,
It is determined whether or not 4) matches the value (= 4) stored in the "count number" of the shape recognition table (step S).
a15). Since the determination here is “YES”, the movement locus detection processing unit 41 advances the processing to step Sa17. That is, the microphone unit 14 is moved along the “clockwise circular shape” that is the shape indicated by the set shape flag.
It is concluded that 0 has moved, and the shape recognition is completed.

【0059】以上のようにして完了する移動軌跡検出処
理部41からの認識結果を受けた演奏制御情報生成部4
4は、この認識結果(円形、時計回り)に応じた演奏制
御情報(音色をピアノにする)を生成して音源装置29
に出力する。この演奏制御情報が供給された音源装置2
9においては、音色以外のパラメータについては指定さ
れたカラオケ曲に対応するMIDIデータに特定される
音高、タイミング、テンポに従った楽音信号であって、
音色については「ピアノ」の音色の楽音を発生するため
の楽音信号が生成される。
The performance control information generation unit 4 which has received the recognition result from the movement locus detection processing unit 41 completed as described above.
4 generates performance control information (timbre is piano) according to the recognition result (circular, clockwise) to generate the sound source device 29.
Output to. Sound source device 2 to which this performance control information is supplied
In 9, the parameters other than the tone color are tone signals according to the pitch, timing and tempo specified by the MIDI data corresponding to the designated karaoke piece,
As for the timbre, a musical tone signal for generating a musical tone of the "piano" timbre is generated.

【0060】以上のような処理を行うことにより、歌唱
者がマイクロホンユニット140を円形で時計回りに回
転させた場合には、MIDIデータに基づくカラオケ曲
の演奏にこの円形時計回り動作に対応した制御内容(音
色をピアノにする)を反映させることができる。
By performing the above processing, when the singer rotates the microphone unit 140 in a circular clockwise direction, a control corresponding to the circular clockwise operation for playing a karaoke piece based on MIDI data is performed. It is possible to reflect the contents (set the tone to piano).

【0061】次に、図10に示すように、操作者がマイ
クロホンユニット140を反時計回り(反時計回り)円
形状に沿って移動させた場合について説明する。操作者
がマイクロホンユニット140を移動させると、移動軌
跡検出処理部41は、αx、αyに基づいてマイクロホ
ンユニット140が移動を開始したこと、つまり移動開
始始点SPを検出し(ステップSa1)、形状認識のた
めに用いる認識ポイントカウント数NPを1に設定する
(ステップSa2)。
Next, as shown in FIG. 10, a case where the operator moves the microphone unit 140 along a counterclockwise (counterclockwise) circular shape will be described. When the operator moves the microphone unit 140, the movement locus detection processing unit 41 detects that the microphone unit 140 has started movement based on αx and αy, that is, the movement start start point SP (step Sa1), and recognizes the shape. The recognition point count number NP used for is set to 1 (step Sa2).

【0062】この後、移動軌跡検出処理部41は、マイ
クロホンユニット140の始点SPからの1つ目の認識
点NP1への移動方向を検出する(ステップSa3)。
ここで、反時計回り円形状に沿った動作をした場合に
は、図10に示すように、検出された始点SPからマイ
クロホンユニット140の移動方向、つまり始点SPか
ら1つ目の認識点NP1への方向が左下方向となる。し
たがって、移動軌跡検出処理部41の処理はステップS
a5に進み、認識ポイントカウント数NPに2が設定さ
れる。そして、始点SPから左下に移動した後のマイク
ロホンユニット140の移動方向、つまり1つ目の認識
点NP1から2つ目の認識点NP2への方向を検出する
(ステップSa7)。
After that, the movement locus detection processing section 41 detects the movement direction of the microphone unit 140 from the starting point SP to the first recognition point NP1 (step Sa3).
Here, when the operation is performed along the counterclockwise circular shape, as shown in FIG. 10, the moving direction of the microphone unit 140 from the detected start point SP, that is, from the start point SP to the first recognition point NP1. Is the lower left direction. Therefore, the process of the movement locus detection processing unit 41 is performed in step S
Proceeding to a5, the recognition point count number NP is set to 2. Then, the moving direction of the microphone unit 140 after moving from the start point SP to the lower left, that is, the direction from the first recognition point NP1 to the second recognition point NP2 is detected (step Sa7).

【0063】ここで、ステップSa3で始点SPから1
つ目の認識点NP1への方向が「左下」と検出された場
合において、1つ目の認識点NP1から2つめの認識点
NP2への方向が「右下」と検出された時には、マイク
ロホンユニット140が「反時計回り円形状」に沿って
移動していると判断し、移動軌跡検出処理部41は形状
フラグ「反時計回り円形状」を設定する(ステップSa
10)。
Here, in step Sa3, 1 from the starting point SP.
When the direction to the second recognition point NP1 is detected as "lower left", when the direction from the first recognition point NP1 to the second recognition point NP2 is detected as "lower right", the microphone unit is detected. It is determined that 140 is moving along the “counterclockwise circular shape”, and the movement locus detection processing unit 41 sets the shape flag “counterclockwise circular shape” (step Sa
10).

【0064】このように移動軌跡検出処理部41は、マ
イクロホンユニット140が「反時計回り円形状」に沿
って移動していると判断し、そのような形状フラグを設
定すると、以降は図8に示す形状認識用テーブルを参照
し、その判断した形状に沿ってマイクロホンユニット1
40が移動しているか否かを確認する処理を行う。すな
わち、形状認識用テーブルの「反時計回り円形状」に対
応付けられた「カウント数」および「NP1」〜「NP
4」に格納されたデータを用い、上述した「時計回り円
形状」の確認処理(ステップSa12〜ステップSa1
7)と同様の手順で確認処理を行う。したがって、図1
0に示すようにマイクロホンユニット140を動かした
場合には、移動軌跡検出処理部41によってその移動軌
跡が「反時計回り円形状」であると断定される。そし
て、この形状認識結果が移動軌跡検出処理部41から演
奏制御情報生成部44に出力される。これにより円形反
時計回り(反時計回り)に対応した制御内容(音色をオ
ルガンにする)を指示するための演奏制御情報が演奏制
御情報生成部44から音源装置29に供給される。この
演奏制御情報が供給された音源装置29においては、音
色以外のパラメータについては指定されたカラオケ曲に
対応するMIDIデータに特定される音高、タイミン
グ、テンポに従った楽音信号であって、音色については
「オルガン」の音色の楽音を発生するための楽音信号が
生成される。
In this way, the movement locus detection processing unit 41 determines that the microphone unit 140 is moving along the "counterclockwise circular shape", and if such a shape flag is set, the movement shown in FIG. The microphone unit 1 is referred to according to the determined shape by referring to the shape recognition table shown.
A process for confirming whether or not 40 is moving is performed. That is, the "count number" and "NP1" to "NP" associated with the "counterclockwise circular shape" in the shape recognition table.
4 ”is used to confirm the above-mentioned“ clockwise circular shape ”(step Sa12 to step Sa1).
The confirmation process is performed in the same procedure as 7). Therefore, FIG.
When the microphone unit 140 is moved as shown in 0, the movement locus detection processing unit 41 determines that the movement locus is “counterclockwise circular shape”. Then, the result of shape recognition is output from the movement trajectory detection processing unit 41 to the performance control information generation unit 44. As a result, performance control information for instructing the control contents (timbre to be an organ) corresponding to the circular counterclockwise direction (counterclockwise direction) is supplied from the performance control information generating section 44 to the tone generator 29. In the tone generator 29 to which the performance control information is supplied, the parameters other than the tone color are tone signals in accordance with the pitch, timing, and tempo specified by the MIDI data corresponding to the specified karaoke piece, For, a tone signal for generating a tone of the "organ" tone color is generated.

【0065】以上のような処理を行うことにより、歌唱
者がマイクロホンユニット140を円形で反時計回りに
回転させた場合には、MIDIデータに基づくカラオケ
曲の演奏にこの円形時計回り動作に対応した制御内容
(音色をオルガン音にする)を反映させることができ
る。
By performing the above-described processing, when the singer rotates the microphone unit 140 in a counterclockwise direction in a circle, this circular clockwise operation corresponds to the performance of a karaoke piece based on MIDI data. It is possible to reflect the control content (tones are changed to organ sounds).

【0066】C−2.マイクロホンユニット140を三
角形状に沿って動かした場合 次に、図11に示すように、操作者がマイクロホンユニ
ット140を時計回り三角形状に沿って移動させた場合
について説明する。操作者がマイクロホンユニット14
0を移動させると、移動軌跡検出処理部41は、αx、
αyに基づいてマイクロホンユニット140が移動を開
始したこと、つまり移動開始始点SPを検出し(ステッ
プSa1)、形状認識のために用いる認識ポイントカウ
ント数NPを1に設定する(ステップSa2)。
C-2. When the microphone unit 140 is moved along the triangular shape Next, as shown in FIG. 11, a case where the operator moves the microphone unit 140 along the clockwise triangular shape will be described. The operator operates the microphone unit 14
When 0 is moved, the movement locus detection processing unit 41 causes αx,
Based on αy, the microphone unit 140 starts moving, that is, the movement start point SP is detected (step Sa1), and the recognition point count number NP used for shape recognition is set to 1 (step Sa2).

【0067】この後、移動軌跡検出処理部41は、マイ
クロホンユニット140の始点SPからの1つ目の認識
点NP1への移動方向を検出する(ステップSa3)。
ここで、時計回り三角形状に沿った動作をした場合に
は、図11に示すように、検出された始点SPからマイ
クロホンユニット140の移動方向、つまり始点SPか
ら1つ目の認識点NP1への方向が右下方向となる。し
たがって、移動軌跡検出処理部41の処理はステップS
a4に進み、認識ポイントカウント数NPに2が設定さ
れる。そして、始点SPから右下に移動した後のマイク
ロホンユニット140の移動方向、つまり1つ目の認識
点NP1から2つ目の認識点NP2への方向を検出する
(ステップSa6)。
After that, the movement locus detection processing section 41 detects the movement direction of the microphone unit 140 from the starting point SP to the first recognition point NP1 (step Sa3).
Here, when the operation is performed along the clockwise triangular shape, as shown in FIG. 11, the moving direction of the microphone unit 140 from the detected start point SP, that is, from the start point SP to the first recognition point NP1. The direction is the lower right direction. Therefore, the process of the movement locus detection processing unit 41 is performed in step S
Proceeding to a4, the recognition point count number NP is set to 2. Then, the moving direction of the microphone unit 140 after moving from the start point SP to the lower right, that is, the direction from the first recognition point NP1 to the second recognition point NP2 is detected (step Sa6).

【0068】ここで、ステップSa3で始点SPから1
つ目の認識点NP1への方向が「右下」と検出された場
合において、1つ目の認識点NP1から2つめの認識点
NP2への方向が「左横」と検出された時には、マイク
ロホンユニット140が「時計回り三角形状」に沿って
移動していると判断し、移動軌跡検出処理部41は形状
フラグ「時計回り三角形状」を設定する(ステップSa
9)。
Here, in step Sa3, 1 from the starting point SP.
When the direction to the second recognition point NP1 is detected as "lower right", when the direction from the first recognition point NP1 to the second recognition point NP2 is detected as "left side", the microphone It is determined that the unit 140 is moving along the "clockwise triangular shape", and the movement locus detection processing unit 41 sets the shape flag "clockwise triangular shape" (step Sa
9).

【0069】このように移動軌跡検出処理部41は、マ
イクロホンユニット140が移動軌跡が「時計回り三角
形状」に沿って移動していると判断し、そのような形状
フラグを設定すると、以降は図8に示す形状認識用テー
ブルを参照し、その判断した形状に沿ってマイクロホン
ユニット140が移動しているか否かを確認する処理を
行う。すなわち、形状認識用テーブルの「時計回り三角
形状」に対応付けられた「カウント数」および「NP
1」〜「NP3」に格納されたデータを用い、上述した
「時計回り円形状」の確認処理(ステップSa12〜ス
テップSa17)と同様の手順で確認処理を行う。した
がって、図11に示すようにマイクロホンユニット14
0を動かした場合には、移動軌跡検出処理部41によっ
てその移動軌跡が「時計回り三角形状」であると断定さ
れる。この認識結果が移動軌跡検出処理部41から演奏
制御情報生成部44に出力される。これにより三角形時
計回りに対応した制御内容(拍手音を挿入(図5参
照))を指示するための演奏制御情報が演奏制御情報生
成部44から音源装置29に供給される。この演奏制御
情報が供給された音源装置29においては、カラオケ曲
に対応するMIDIデータに従った楽音信号に拍手音の
音声信号が加算された楽音信号が生成される。
In this way, the movement locus detection processing unit 41 determines that the movement locus of the microphone unit 140 is moving along the "clockwise triangular shape", and if such a shape flag is set, the following steps are performed. A process for checking whether or not the microphone unit 140 is moving along the determined shape by referring to the shape recognition table shown in FIG. That is, the "count number" and the "NP" associated with the "clockwise triangular shape" in the shape recognition table.
Using the data stored in "1" to "NP3", the confirmation processing is performed in the same procedure as the above-described "clockwise circular shape" confirmation processing (steps Sa12 to Sa17). Therefore, as shown in FIG.
When 0 is moved, the movement locus detection processing unit 41 determines that the movement locus is “clockwise triangular”. This recognition result is output from the movement trajectory detection processing unit 41 to the performance control information generation unit 44. As a result, performance control information for instructing the control content (inserting a clap sound (see FIG. 5)) corresponding to the clockwise triangle is supplied from the performance control information generation unit 44 to the sound source device 29. In the tone generator 29 to which the performance control information is supplied, a musical tone signal is generated by adding a clapping voice signal to the musical tone signal according to the MIDI data corresponding to the karaoke piece.

【0070】以上のような処理を行うことにより、歌唱
者がマイクロホンユニット140を三角形状に沿って時
計回りに回転させた場合には、MIDIデータに基づく
カラオケ曲の演奏にこの三角形時計回り動作に対応した
制御内容(拍手音を挿入する)を反映させることができ
る。
By performing the above-described processing, when the singer rotates the microphone unit 140 clockwise along the triangle, the triangle clockwise operation is performed when playing a karaoke piece based on MIDI data. The corresponding control content (inserting a clap sound) can be reflected.

【0071】次に、図12に示すように、操作者がマイ
クロホンユニット140を反時計回り三角形状に沿って
移動させた場合について説明する。操作者がマイクロホ
ンユニット140を移動させると、移動軌跡検出処理部
41は、αx、αyに基づいてマイクロホンユニット1
40が移動を開始したこと、つまり移動開始始点SPを
検出し(ステップSa1)、形状認識のために用いる認
識ポイントカウント数NPを1に設定する(ステップS
a2)。
Next, a case where the operator moves the microphone unit 140 along the counterclockwise triangular shape as shown in FIG. 12 will be described. When the operator moves the microphone unit 140, the movement locus detection processing unit 41 causes the microphone unit 1 to move based on αx and αy.
40 has started moving, that is, the movement start starting point SP is detected (step Sa1), and the recognition point count number NP used for shape recognition is set to 1 (step S).
a2).

【0072】この後、移動軌跡検出処理部41は、マイ
クロホンユニット140の始点SPからの1つ目の認識
点NP1への移動方向を検出する(ステップSa3)。
ここで、反時計回り三角形状に沿った動作をした場合に
は、図12に示すように、検出された始点SPからマイ
クロホンユニット140の移動方向、つまり始点SPか
ら1つ目の認識点NP1への方向が左下方向となる。し
たがって、移動軌跡検出処理部41の処理はステップS
a5に進み、認識ポイントカウント数NPに2が設定さ
れる。そして、始点SPから右下に移動した後のマイク
ロホンユニット140の移動方向、つまり1つ目の認識
点NP1から2つ目の認識点NP2への方向を検出する
(ステップSa6)。
After that, the movement locus detection processing unit 41 detects the movement direction of the microphone unit 140 from the starting point SP to the first recognition point NP1 (step Sa3).
Here, when the operation is performed along the counterclockwise triangular shape, as shown in FIG. 12, the moving direction of the microphone unit 140 from the detected start point SP, that is, from the start point SP to the first recognition point NP1. Is the lower left direction. Therefore, the process of the movement locus detection processing unit 41 is performed in step S
Proceeding to a5, the recognition point count number NP is set to 2. Then, the moving direction of the microphone unit 140 after moving from the start point SP to the lower right, that is, the direction from the first recognition point NP1 to the second recognition point NP2 is detected (step Sa6).

【0073】ここで、ステップSa3で始点SPから1
つ目の認識点NP1への方向が「左下」と検出された場
合において、1つ目の認識点NP1から2つめの認識点
NP2への方向が「右横」と検出された時には、マイク
ロホンユニット140が「反時計回り三角形状」に沿っ
て移動していると判断し、移動軌跡検出処理部41は形
状フラグ「反時計回り三角形状」を設定する(ステップ
Sa9)。
Here, in step Sa3, 1 from the starting point SP.
When the direction to the second recognition point NP1 is detected as "lower left", when the direction from the first recognition point NP1 to the second recognition point NP2 is detected as "right side", the microphone unit is detected. It is determined that 140 is moving along the "counterclockwise triangular shape", and the movement locus detection processing unit 41 sets the shape flag "counterclockwise triangular shape" (step Sa9).

【0074】このように移動軌跡検出処理部41は、マ
イクロホンユニット140が「反時計回り三角形状」に
沿って移動していると判断し、そのような形状フラグを
設定すると、以降は図8に示す形状認識用テーブルを参
照し、その判断した形状に沿ってマイクロホンユニット
140が移動しているか否かを確認する処理を行う。す
なわち、形状認識用テーブルの「反時計回り三角形状」
に対応付けられた「カウント数」および「NP1」〜
「NP3」に格納されたデータを用い、上述した「時計
回り円形状」の確認処理(ステップSa12〜ステップ
Sa17)と同様の手順で確認処理を行う。したがっ
て、図12に示すようにマイクロホンユニット140を
動かした場合には、移動軌跡検出処理部41によってそ
の移動軌跡が「反時計回り三角形状」であると断定さ
れ、当該断定された形状に応じた楽音制御等が行われる
ことになる。
In this way, the movement locus detection processing unit 41 determines that the microphone unit 140 is moving along the "counterclockwise triangular shape", and if such a shape flag is set, thereafter, FIG. The processing for checking whether or not the microphone unit 140 is moving along the determined shape is performed by referring to the shape recognition table shown. That is, the "counterclockwise triangular shape" of the shape recognition table
"Count number" and "NP1" associated with
Using the data stored in "NP3", the confirmation processing is performed in the same procedure as the above-described "clockwise circular shape" confirmation processing (steps Sa12 to Sa17). Therefore, when the microphone unit 140 is moved as shown in FIG. 12, the movement locus detection processing unit 41 determines that the movement locus is “counterclockwise triangular shape”, and according to the determined shape. Musical tone control etc. will be performed.

【0075】C−3.マイクロホンユニット140を四
角形状に沿って移動させた場合 次に、図13に示すように、操作者がマイクロホンユニ
ット140を時計回り四角形状に沿って移動させた場合
について説明する。操作者がマイクロホンユニット14
0を移動させると、移動軌跡検出処理部41は、αx、
αyに基づいてマイクロホンユニット140が移動を開
始したこと、つまり移動開始始点SPを検出し(ステッ
プSa1)、形状認識のために用いる認識ポイントカウ
ント数NPを1に設定する(ステップSa2)。
C-3. When the microphone unit 140 is moved along the quadrangular shape Next, as shown in FIG. 13, a case where the operator moves the microphone unit 140 along the clockwise quadrangular shape will be described. The operator operates the microphone unit 14
When 0 is moved, the movement locus detection processing unit 41 causes αx,
Based on αy, the microphone unit 140 starts moving, that is, the movement start point SP is detected (step Sa1), and the recognition point count number NP used for shape recognition is set to 1 (step Sa2).

【0076】この後、移動軌跡検出処理部41は、マイ
クロホンユニット140の始点SPからの1つ目の認識
点NP1への移動方向を検出する(ステップSa3)。
ここで、時計回り四角形状に沿った動作をした場合に
は、図13に示すように、検出された始点SPからマイ
クロホンユニット140の移動方向、つまり始点SPか
ら1つ目の認識点NP1への方向が右横方向となる。し
たがって、移動軌跡検出処理部41の処理はステップS
a18に進み、マイクロホンユニット140が「時計回
り四角形状」に沿って移動していると判断し、移動軌跡
検出処理部41は形状フラグ「時計回り四角形状」を設
定する。
After that, the movement locus detection processing unit 41 detects the movement direction of the microphone unit 140 from the starting point SP to the first recognition point NP1 (step Sa3).
Here, when the operation is performed along the clockwise quadrangular shape, as shown in FIG. 13, the moving direction of the microphone unit 140 from the detected start point SP, that is, from the start point SP to the first recognition point NP1. The direction is the right lateral direction. Therefore, the process of the movement locus detection processing unit 41 is performed in step S
Proceeding to a18, it is determined that the microphone unit 140 is moving along the "clockwise quadrangular shape", and the movement locus detection processing unit 41 sets the shape flag "clockwise quadrangular shape".

【0077】このように移動軌跡検出処理部41は、マ
イクロホンユニット140が「時計回り四角形状」に沿
って移動していると判断し、そのような形状フラグを設
定すると、以降は図8に示す形状認識用テーブルを参照
し、その判断した形状に沿ってマイクロホンユニット1
40が移動しているか否かを確認する処理を行う。すな
わち、形状認識用テーブルの「時計回り四角形状」に対
応付けられた「カウント数」および「NP1」〜「NP
4」に格納されたデータを用い、上述した「時計回り円
形状」の確認処理(ステップSa12〜ステップSa1
7)と同様の手順で確認処理を行う。したがって、図1
3に示すようにマイクロホンユニット140を動かした
場合には、移動軌跡検出処理部41によってその移動軌
跡が「時計回り四角形状」であると断定される。そし
て、この認識結果が移動軌跡検出処理部41から演奏制
御情報生成部44に出力される。これにより四角形時計
回りに対応した制御内容(音色をギターにする)を指示
するための演奏制御情報が演奏制御情報生成部44から
音源装置29に供給される。この演奏制御情報が供給さ
れた音源装置29においては、音色以外のパラメータに
ついては指定されたカラオケ曲に対応するMIDIデー
タに特定される音高、タイミング、テンポに従った楽音
信号であって、音色については「ギター」の音色の楽音
を発生するための楽音信号が生成される。
In this way, the movement locus detection processing unit 41 judges that the microphone unit 140 is moving along the "clockwise quadrangular shape", and if such a shape flag is set, the steps thereafter are shown in FIG. The microphone unit 1 is referred to according to the determined shape by referring to the shape recognition table.
A process for confirming whether or not 40 is moving is performed. That is, the “count number” and “NP1” to “NP” associated with the “clockwise quadrangular shape” in the shape recognition table.
4 ”is used to confirm the above-mentioned“ clockwise circular shape ”(step Sa12 to step Sa1).
The confirmation process is performed in the same procedure as 7). Therefore, FIG.
When the microphone unit 140 is moved as shown in FIG. 3, the movement locus detection processing unit 41 determines that the movement locus is “clockwise quadrangular”. Then, the recognition result is output from the movement trajectory detection processing unit 41 to the performance control information generation unit 44. As a result, the performance control information for instructing the control content corresponding to the quadrangle clockwise (the tone color is changed to the guitar) is supplied from the performance control information generation unit 44 to the sound source device 29. In the tone generator 29 to which the performance control information is supplied, the parameters other than the tone color are tone signals in accordance with the pitch, timing and tempo specified by the MIDI data corresponding to the specified karaoke piece, For, the tone signal for generating the tone of the "guitar" is generated.

【0078】以上のような処理を行うことにより、歌唱
者がマイクロホンユニット140を四角形状に沿って時
計回りに回転させた場合には、MIDIデータに基づく
カラオケ曲の演奏にこの四角形時計回り動作に対応した
制御内容(音色をギター音にする)を反映させることが
できる。
By performing the above-described processing, when the singer rotates the microphone unit 140 clockwise along the square shape, the square clockwise operation is performed in the performance of the karaoke piece based on the MIDI data. It is possible to reflect the corresponding control content (changing the tone color to a guitar tone).

【0079】次に、図14に示すように、操作者がマイ
クロホンユニット140を反時計回り四角形状に沿って
移動させた場合について説明する。操作者がマイクロホ
ンユニット140を移動させると、移動軌跡検出処理部
41は、αx、αyに基づいてマイクロホンユニット1
40が移動を開始したこと、つまり移動開始始点SPを
検出し(ステップSa1)、形状認識のために用いる認
識ポイントカウント数NPを1に設定する(ステップS
a2)。
Next, as shown in FIG. 14, the case where the operator moves the microphone unit 140 along the counterclockwise quadrangular shape will be described. When the operator moves the microphone unit 140, the movement locus detection processing unit 41 causes the microphone unit 1 to move based on αx and αy.
40 has started moving, that is, the movement start starting point SP is detected (step Sa1), and the recognition point count number NP used for shape recognition is set to 1 (step S).
a2).

【0080】この後、移動軌跡検出処理部41は、マイ
クロホンユニット140の始点SPからの1つ目の認識
点NP1への移動方向を検出する(ステップSa3)。
ここで、反時計回り四角形状に沿った動作をした場合に
は、図14に示すように、検出された始点SPからマイ
クロホンユニット140の移動方向、つまり始点SPか
ら1つ目の認識点NP1への方向がほぼ真下方向とな
る。したがって、移動軌跡検出処理部41の処理はステ
ップSa19に進み、マイクロホンユニット140が
「反時計回り四角形状」に沿って移動していると判断
し、移動軌跡検出処理部41は形状フラグ「反時計回り
四角形状」を設定する。
After that, the movement locus detection processing unit 41 detects the movement direction of the microphone unit 140 from the starting point SP to the first recognition point NP1 (step Sa3).
Here, when the operation is performed along the counterclockwise quadrangular shape, as shown in FIG. 14, the moving direction of the microphone unit 140 from the detected start point SP, that is, from the start point SP to the first recognition point NP1. The direction of is almost downward. Therefore, the processing of the movement locus detection processing unit 41 proceeds to step Sa19, determines that the microphone unit 140 is moving along the "counterclockwise quadrangular shape", and the movement locus detection processing unit 41 determines that the shape flag "counterclockwise". Set "circular quadrilateral".

【0081】このように移動軌跡検出処理部41は、マ
イクロホンユニット140が「反時計回り四角形状」に
沿って移動していると判断し、そのような形状フラグを
設定すると、以降は図8に示す形状認識用テーブルを参
照し、その判断した形状に沿ってマイクロホンユニット
140が移動しているか否かを確認する処理を行う。す
なわち、形状認識用テーブルの「反時計回り四角形状」
に対応付けられた「カウント数」および「NP1」〜
「NP4」に格納されたデータを用い、上述した「時計
回り円形状」の確認処理(ステップSa12〜ステップ
Sa17)と同様の手順で確認処理を行う。したがっ
て、図14に示すようにマイクロホンユニット140を
動かした場合には、移動軌跡検出処理部41によってそ
の移動軌跡が「反時計回り四角形状」であると断定され
る。そして、この認識結果が移動軌跡検出処理部41か
ら演奏制御情報生成部44に出力される。これにより四
角形時計回りに対応した制御内容(音色をギターにす
る)を指示するための演奏制御情報が演奏制御情報生成
部44から音源装置29に供給される。この演奏制御情
報が供給された音源装置29においては、音色以外のパ
ラメータについては指定されたカラオケ曲に対応するM
IDIデータに特定される音高、タイミング、テンポに
従った楽音信号であって、音色については「ギター」の
音色の楽音を発生するための楽音信号が生成される。
In this way, the movement locus detection processing unit 41 judges that the microphone unit 140 is moving along the "counterclockwise quadrangular shape", and if such a shape flag is set, thereafter, FIG. The processing for checking whether or not the microphone unit 140 is moving along the determined shape is performed by referring to the shape recognition table shown. That is, the "counterclockwise quadrangular shape" of the shape recognition table
"Count number" and "NP1" associated with
Using the data stored in “NP4”, the confirmation process is performed in the same procedure as the above-described “clockwise circular shape” confirmation process (steps Sa12 to Sa17). Therefore, when the microphone unit 140 is moved as shown in FIG. 14, the movement locus detection processing unit 41 determines that the movement locus is “counterclockwise quadrangular”. Then, the recognition result is output from the movement trajectory detection processing unit 41 to the performance control information generation unit 44. As a result, the performance control information for instructing the control content corresponding to the quadrangle clockwise (the tone color is changed to the guitar) is supplied from the performance control information generation unit 44 to the sound source device 29. In the tone generator 29 to which the performance control information is supplied, the parameters other than the tone color correspond to the designated karaoke piece M.
A tone signal is generated according to the pitch, timing, and tempo specified by the IDI data, and a tone signal for generating a tone color of "guitar" is generated.

【0082】以上のような処理を行うことにより、歌唱
者がマイクロホンユニット140を四角形状に沿って時
計回りに回転させた場合には、MIDIデータに基づく
カラオケ曲の演奏にこの四角形時計回り動作に対応した
制御内容(音色をギター音にする)を反映させることが
できる。
By performing the above processing, when the singer rotates the microphone unit 140 in a clockwise direction along a square shape, the square clockwise movement is performed in playing a karaoke piece based on MIDI data. It is possible to reflect the corresponding control content (changing the tone color to a guitar tone).

【0083】C−4.マイクロホンユニット140を八
の字型に沿って動かした場合 次に、図15に示すように、操作者がマイクロホンユニ
ット140を時計回り八の字型に沿って移動させた場合
について説明する。操作者がマイクロホンユニット14
0を移動させると、移動軌跡検出処理部41は、αx、
αyに基づいてマイクロホンユニット140が移動を開
始したこと、つまり移動開始始点SPを検出し(ステッ
プSa1)、形状認識のために用いる認識ポイントカウ
ント数NPを1に設定する(ステップSa2)。
C-4. When the microphone unit 140 is moved along the figure eight shape Next, as shown in FIG. 15, a case where the operator moves the microphone unit 140 along the figure eight shape clockwise will be described. The operator operates the microphone unit 14
When 0 is moved, the movement locus detection processing unit 41 causes αx,
Based on αy, the microphone unit 140 starts moving, that is, the movement start point SP is detected (step Sa1), and the recognition point count number NP used for shape recognition is set to 1 (step Sa2).

【0084】この後、移動軌跡検出処理部41は、マイ
クロホンユニット140の始点SPからの1つ目の認識
点NP1への移動方向を検出する(ステップSa3)。
ここで、時計回り八の字型に沿った動作をした場合に
は、図15に示すように、検出された始点SPからマイ
クロホンユニット140の移動方向、つまり始点SPか
ら1つ目の認識点NP1への方向が右上方向となる。し
たがって、移動軌跡検出処理部41の処理はステップS
a20に進み、マイクロホンユニット140が「時計回
り八の字型」に沿って移動していると判断し、移動軌跡
検出処理部41は形状フラグ「時計回り八の字型」を設
定する。
After that, the movement locus detection processing section 41 detects the movement direction of the microphone unit 140 from the starting point SP to the first recognition point NP1 (step Sa3).
Here, when the operation is performed in the clockwise eight-character shape, as shown in FIG. 15, the moving direction of the microphone unit 140 from the detected start point SP, that is, the first recognition point NP1 from the start point SP. The direction to is the upper right direction. Therefore, the process of the movement locus detection processing unit 41 is performed in step S
Proceeding to a20, it is determined that the microphone unit 140 is moving along the "clockwise eight-shaped", and the movement locus detection processing unit 41 sets the shape flag "clockwise eight-shaped".

【0085】このように移動軌跡検出処理部41は、マ
イクロホンユニット140が「時計回り八の字型」に沿
って移動していると判断し、そのような形状フラグを設
定すると、以降は図8に示す形状認識用テーブルを参照
し、その判断した形状に沿ってマイクロホンユニット1
40が移動しているか否かを確認する処理を行う。すな
わち、形状認識用テーブルの「時計回り八の字型」に対
応付けられた「カウント数」および「NP1」〜「NP
8」に格納されたデータを用い、上述した「時計回り円
形状」の確認処理(ステップSa12〜ステップSa1
7)と同様の手順で確認処理を行う。より具体的には、
上記のように形状フラグが設定された後、マイクロホン
ユニット140の移動軌跡が「時計回り八の字型」に対
応付けられた「NP2」〜{NP8」に格納される方
向、つまり「右下」→「左下」→「左上」……「右下」
→「右上」に沿って移動しているか否かを確認する。し
たがって、図15に示すようにマイクロホンユニット1
40を動かした場合には、移動軌跡検出処理部41によ
ってその移動軌跡が「時計回り八の字型」であると断定
される。該認識結果が移動軌跡検出処理部41から演奏
制御情報生成部44に出力される。これにより八の字型
時計回りに対応した制御内容(例えば、音色をトランペ
ットにする)を指示するための演奏制御情報が演奏制御
情報生成部44から音源装置29に供給される。この演
奏制御情報が供給された音源装置29においては、音色
以外のパラメータについては指定されたカラオケ曲に対
応するMIDIデータに特定される音高、タイミング、
テンポに従った楽音信号であって、音色については「ト
ランペット」の音色の楽音を発生するための楽音信号が
生成される。
In this way, the movement locus detection processing unit 41 judges that the microphone unit 140 is moving along the "clockwise eight-shaped", and if such a shape flag is set, thereafter, FIG. The shape recognition table shown in FIG.
A process for confirming whether or not 40 is moving is performed. That is, the "count number" and "NP1" to "NP" associated with the "clockwise octagonal shape" of the shape recognition table.
8 "using the data stored in the" clockwise circular shape "confirmation process (step Sa12 to step Sa1).
The confirmation process is performed in the same procedure as 7). More specifically,
After the shape flag is set as described above, the direction in which the movement locus of the microphone unit 140 is stored in "NP2" to "NP8" associated with "clockwise eight-shaped", that is, "lower right" → “Lower left” → “Upper left” …… “Lower right”
→ Check if you are moving along the "upper right". Therefore, as shown in FIG.
When 40 is moved, the movement locus detection processing unit 41 determines that the movement locus is “clockwise eight-shaped”. The recognition result is output from the movement locus detection processing unit 41 to the performance control information generation unit 44. As a result, performance control information for instructing the control content corresponding to the figure-eight clockwise direction (for example, the tone color is made into a trumpet) is supplied from the performance control information generation unit 44 to the tone generator 29. In the tone generator 29 to which the performance control information is supplied, for the parameters other than the tone color, the pitch and timing specified by the MIDI data corresponding to the designated karaoke piece,
A tone signal according to the tempo is generated, and a tone signal for generating a tone having a tone color of "trumpet" is generated.

【0086】以上のような処理を行うことにより、歌唱
者がマイクロホンユニット140を八の字形状に沿って
時計回りに回転させた場合には、MIDIデータに基づ
くカラオケ曲の演奏にこの八の字型時計回り動作に対応
した制御内容(音色をトランペット音にする)を反映さ
せることができる。
By performing the above-described processing, when the singer rotates the microphone unit 140 clockwise along the figure-eight shape, the figure-eight figure is used for playing the karaoke piece based on the MIDI data. It is possible to reflect the control content corresponding to the model clockwise operation (making the tone color a trumpet sound).

【0087】次に、図16に示すように、操作者がマイ
クロホンユニット140を反時計回り八の字型に沿って
移動させた場合について説明する。操作者がマイクロホ
ンユニット140を移動させると、移動軌跡検出処理部
41は、αx、αyに基づいてマイクロホンユニット1
40が移動を開始したこと、つまり移動開始始点SPを
検出し(ステップSa1)、形状認識のために用いる認
識ポイントカウント数NPを1に設定する(ステップS
a2)。
Next, as shown in FIG. 16, a case where the operator moves the microphone unit 140 along a counterclockwise eight-shape will be described. When the operator moves the microphone unit 140, the movement locus detection processing unit 41 causes the microphone unit 1 to move based on αx and αy.
40 has started moving, that is, the movement start starting point SP is detected (step Sa1), and the recognition point count number NP used for shape recognition is set to 1 (step S).
a2).

【0088】この後、移動軌跡検出処理部41は、マイ
クロホンユニット140の始点SPからの1つ目の認識
点NP1への移動方向を検出する(ステップSa3)。
ここで、反時計回り八の字型に沿った動作をした場合に
は、図16に示すように、検出された始点SPからマイ
クロホンユニット140の移動方向、つまり始点SPか
ら1つ目の認識点NP1への方向が真下方向となる。し
たがって、移動軌跡検出処理部41の処理はステップS
a21に進み、マイクロホンユニット140が「反時計
回り八の字型」に沿って移動していると判断し、移動軌
跡検出処理部41は形状フラグ「反時計回り八の字型」
を設定する。
After that, the movement locus detection processing section 41 detects the movement direction of the microphone unit 140 from the starting point SP to the first recognition point NP1 (step Sa3).
Here, when the operation is performed in the counterclockwise eight-shape, as shown in FIG. 16, the moving direction of the microphone unit 140 from the detected start point SP, that is, the first recognition point from the start point SP. The direction toward NP1 is directly below. Therefore, the process of the movement locus detection processing unit 41 is performed in step S
Proceeding to a21, it is determined that the microphone unit 140 is moving along the "counterclockwise eight-shaped", and the movement locus detection processing unit 41 causes the shape flag "counterclockwise eight-shaped".
To set.

【0089】このように移動軌跡検出処理部41は、マ
イクロホンユニット140が「反時計回り八の字型」に
沿って移動していると判断し、そのような形状フラグを
設定すると、以降は図8に示す形状認識用テーブルを参
照し、その判断した形状に沿ってマイクロホンユニット
140が移動しているか否かを確認する処理を行う。す
なわち、形状認識用テーブルの「反時計回り八の字型」
に対応付けられた「カウント数」および「NP1」〜
「NP8」に格納されたデータを用い、上述した「時計
回り円形状」の確認処理(ステップSa12〜ステップ
Sa17)と同様の手順で確認処理を行う。より具体的
には、上記のように形状フラグが設定された後、マイク
ロホンユニット140の移動軌跡が「反時計回り八の字
型」に対応付けられた「NP2」〜{NP8」に格納さ
れる方向、つまり「左下」→「右下」→「右上」……
「左下」→「左上」に沿って移動しているか否かを確認
する。したがって、図16に示すようにマイクロホンユ
ニット140を動かした場合には、移動軌跡検出処理部
41によってその移動軌跡が「反時計回り八の字型」で
あると断定される。該認識結果が移動軌跡検出処理部4
1から演奏制御情報生成部44に出力される。これによ
り八の字型反時計回りに対応した制御内容(例えば、音
色をクラリネットにする)を指示するための演奏制御情
報が演奏制御情報生成部44から音源装置29に供給さ
れる。この演奏制御情報が供給された音源装置29にお
いては、音色以外のパラメータについては指定されたカ
ラオケ曲に対応するMIDIデータに特定される音高、
タイミング、テンポに従った楽音信号であって、音色に
ついては「クラリネット」の音色の楽音を発生するため
の楽音信号が生成される。
In this way, the movement locus detection processing unit 41 determines that the microphone unit 140 is moving along the "counterclockwise eight-shape" and sets such a shape flag. A process for checking whether or not the microphone unit 140 is moving along the determined shape by referring to the shape recognition table shown in FIG. That is, the "counterclockwise figure eight" of the shape recognition table
"Count number" and "NP1" associated with
Using the data stored in “NP8”, the confirmation processing is performed in the same procedure as the above-described “clockwise circular shape” confirmation processing (steps Sa12 to Sa17). More specifically, after the shape flag is set as described above, the movement trajectory of the microphone unit 140 is stored in “NP2” to {NP8 ”associated with“ counterclockwise eight-shaped ”. Direction, that is, “lower left” → “lower right” → “upper right” ……
Check if you are moving along the "lower left" → "upper left". Therefore, when the microphone unit 140 is moved as shown in FIG. 16, the movement locus detection processing unit 41 determines that the movement locus is “counterclockwise eight-shaped”. The recognition result is the movement locus detection processing unit 4
1 to the performance control information generation unit 44. As a result, performance control information for instructing the control content corresponding to an eight-shaped counterclockwise rotation (for example, setting the tone color to clarinet) is supplied from the performance control information generation unit 44 to the sound source device 29. In the tone generator 29 to which the performance control information is supplied, for the parameters other than the tone color, the pitch specified by the MIDI data corresponding to the specified karaoke piece,
A tone signal is generated according to the timing and the tempo, and a tone signal for generating a tone of the "clarinet" tone color is generated.

【0090】以上のような処理を行うことにより、歌唱
者がマイクロホンユニット140を八の字形状に沿って
時計回りに回転させた場合には、MIDIデータに基づ
くカラオケ曲の演奏にこの八の字型反時計回り動作に対
応した制御内容(音色をクラリネット音にする)を反映
させることができる。
By performing the above processing, when the singer rotates the microphone unit 140 in the clockwise direction along the figure-eight shape, the figure-eight figure is used for playing the karaoke piece based on the MIDI data. It is possible to reflect the control content corresponding to the counterclockwise motion of the mold (making the tone color a clarinet sound).

【0091】以上説明したのが移動軌跡検出処理部41
によるマイクロホンユニット140の移動軌跡を検出す
るための処理手順の具体例であるが、上記形状以外の形
状、例えば波形や山型等についても、図8に示す形状認
識用テーブルにそれらの形状を認識するための情報を格
納しておくことにより認識することが可能であり、上記
形状以外の形状を認識させたい場合には、その形状に応
じて形状認識用テーブルや上記処理手順を適宜変更すれ
ばよい。
The movement locus detection processing unit 41 has been described above.
8 is a specific example of a processing procedure for detecting the movement locus of the microphone unit 140 according to the above, the shapes other than the above shapes, such as a waveform and a mountain shape, are recognized in the shape recognition table shown in FIG. It is possible to recognize by storing the information for doing so. If you want to recognize a shape other than the above-mentioned shape, you can change the shape recognition table and the above processing procedure appropriately according to the shape. Good.

【0092】以上説明したように本実施形態に係るカラ
オケシステム100では、カラオケ曲を歌唱する歌唱者
が把持するマイクロホンユニット140を、円形、四角
形、三角形、八の字型等の種々の形状に沿って移動させ
ることにより、その形状に割り当てられた制御内容をカ
ラオケ曲の演奏に反映させることができる。したがっ
て、歌唱者が予めどのような形状に沿ってマイクロホン
ユニット140を移動させれば、どのような制御内容が
反映されるかといったことを知っていれば、自身がカラ
オケ曲を歌唱している間に、音色、テンポ、タイミン
グ、音量等の種々の楽音パラメータをマイクロホンユニ
ット140を所定形状に沿って移動させることにより制
御することができる。したがって、カラオケ曲の歌唱中
にカラオケ装置本体部110に設けられた操作部のスイ
ッチ群等を操作するといった煩雑な操作を行わずに、マ
イクロホンユニット140を所望の形状に沿って移動さ
せるといった歌唱しながら容易に行える動作によって種
々の演奏に関するパラメータを変更等することができる
のである。
As described above, in the karaoke system 100 according to the present embodiment, the microphone unit 140 held by the singer who sings a karaoke piece is arranged along various shapes such as a circle, a quadrangle, a triangle, and a figure eight shape. By moving the shape, the control content assigned to the shape can be reflected in the performance of the karaoke piece. Thus, while it is moved to the microphone unit 140 singer along the any shape in advance, if you know that such what control contents are reflected, which itself is singing karaoke In addition, various musical tone parameters such as tone color, tempo, timing, and volume can be controlled by moving the microphone unit 140 along a predetermined shape. Therefore, singing such as moving the microphone unit 140 along a desired shape without performing a complicated operation such as operating a switch group of an operation unit provided in the karaoke apparatus body 110 during singing a karaoke song. However, it is possible to change various performance-related parameters and the like by means of operations that can be easily performed.

【0093】また、歌唱者は、マイクロホンユニット1
40を所定の形状に移動させることによってカラオケ曲
の演奏だけではなく、他の機器、例えば照明装置150
や表示装置120の表示内容等を制御することができ
る。したがって、マイクロホンユニット140を素早く
動かす等することにより、当該カラオケシステム100
が設置された室内を明るくしたり、マイクロホンユニッ
ト140をゆっくりと動かすことによって室内を暗くし
たりするといったことも可能である。また、一つの動
作、例えば八の字型反時計回りといった形状に沿ってマ
イクロホンユニット140を移動させることにより、こ
のような照明装置150の制御、表示装置120の表示
内容の制御、およびカラオケ曲の演奏内容の制御を行う
ようにすれば、例えば歌唱者がある動作を行った場合に
カラオケ曲の演奏テンポを速くし、照明装置150の点
滅照射させる周期を速くし、さらに表示装置120に疾
走感のある映像等を表示するといった曲演奏、照明およ
び表示の連携した制御を行わせるようにすることもでき
る。
The singer is the microphone unit 1
By moving 40 to a predetermined shape, not only the performance of a karaoke piece but also another device, for example, a lighting device 150.
The display content of the display device 120 and the like can be controlled. Therefore, by moving the microphone unit 140 quickly, the karaoke system 100
It is also possible to lighten the room in which is installed, or to darken the room by slowly moving the microphone unit 140. In addition, by moving the microphone unit 140 along one operation, for example, in the shape of an eight-shaped counterclockwise, control of the lighting device 150, control of the display content of the display device 120, and karaoke music. If the performance content is controlled, for example, when the singer performs a certain action, the performance tempo of the karaoke piece is increased, the blinking and illuminating period of the lighting device 150 is increased, and the display device 120 feels fast. It is also possible to perform a coordinated control of music performance such as displaying a certain image, lighting, and display.

【0094】D.変形例 なお、本発明は、上述した実施形態に限定されるもので
はなく、以下に例示するような種々の変形が可能であ
る。
D. Modifications The present invention is not limited to the above-described embodiment, and various modifications as exemplified below are possible.

【0095】(変形例1)上述した実施形態において
は、マイクロホンユニット140の移動軌跡が描く形状
や動きの速さ(絶対値|α|)等に応じてカラオケ曲の
演奏の際の音色を変更したり、所定の音を挿入したりす
るといった制御を行うようになっていたが、カラオケ曲
の演奏の際にこれ以外の演奏内容の制御を行うようにし
てもよい。例えば、ある形状に沿ってマイクロホンユニ
ット140を移動させた場合には、カラオケ曲の演奏音
の仮想音源の位置がカラオケ装置本体部110の位置か
ら離れた位置となるようにDSP30を制御する一方
で、他の形状に沿ってマイクロホンユニット140を移
動させた場合には、仮想音源の位置がカラオケ装置本体
部110に近い位置となるようにDSP30を制御する
といったような音像定位制御を行うようにしてもよい。
このように動作センサMSの検出結果(移動軌跡)に応
じて仮想音源位置を制御する場合、DSP30は、目標
となる仮想音源の位置に応じた遅延処理やパンニング処
理を音源装置29から供給された楽音信号に対して施す
ようにすればよい。
(Modification 1) In the above-described embodiment, the tone color at the time of playing a karaoke piece is changed according to the shape drawn by the movement trajectory of the microphone unit 140, the speed of movement (absolute value | α |), and the like. However, it is also possible to perform control such as insertion or insertion of a predetermined sound, but it is also possible to perform control of other performance contents when performing a karaoke piece. For example, when the microphone unit 140 is moved along a certain shape, the DSP 30 is controlled so that the position of the virtual sound source of the performance sound of the karaoke piece is located away from the position of the karaoke device body 110. When the microphone unit 140 is moved along another shape, sound image localization control such as controlling the DSP 30 so that the position of the virtual sound source is close to the karaoke device main body 110 is performed. Good.
When the virtual sound source position is controlled according to the detection result (movement locus) of the motion sensor MS in this way, the DSP 30 is supplied from the sound source device 29 with delay processing and panning processing according to the position of the target virtual sound source. It may be applied to the tone signal.

【0096】また、上記のように動作センサMSの検出
結果(移動軌跡)に応じて仮想音源の位置を制御すると
いった制御を行う以外にも、動作センサMSの検出結果
に応じて所定の広さの音場空間を再現するための制御を
行うようにしてもよい。例えば、ある形状に沿ってマイ
クロホンユニット140を移動させた場合には、カラオ
ケ曲の演奏音があたかも広い空間(コンサートホール
等)内で再生されているかのような残響効果付与処理を
楽音信号に施すようにDSP30に指示するようにして
もよい。このように楽音信号に残響音を付与する方法と
しては、いわゆるインパルス応答畳み込み方式の残響音
付与方法が知られている。このインパルス応答畳み込み
方式の残響音付与方法は、コンサートホール等の音場空
間においてインパルス音を発生した際に採取されるイン
パルス応答を予め記憶させておき、楽音信号のサンプル
データ列に対し、予め記憶されているインパルス応答を
畳み込むことにより残響の付与された楽音信号を得ると
いうものである。上記のようにマイクロホンユニット1
40がある形状に沿って移動させられ、その動作検出結
果に応じて上記のような残響効果付与処理を行う場合、
DSP30が音源装置29から供給される楽音信号に対
して上記のようなインパルス応答畳み込み処理を行うよ
うにすればよい。
Further, in addition to the control such as controlling the position of the virtual sound source according to the detection result (movement locus) of the motion sensor MS as described above, a predetermined area is determined according to the detection result of the motion sensor MS. You may make it control for reproducing the sound field space of. For example, when the microphone unit 140 is moved along a certain shape, the reverberation effect imparting process is performed on the musical tone signal as if the performance sound of the karaoke piece is reproduced in a wide space (such as a concert hall). The DSP 30 may be instructed to do so. As a method of imparting reverberation to a musical tone signal in this way, a so-called impulse response convolution type reverberation imparting method is known. This impulse response convolutional reverberation sound adding method stores in advance the impulse response collected when an impulse sound is generated in a sound field space such as a concert hall, and stores it in advance for a sample data string of a musical tone signal. By convoluting the impulse response, the reverberant tone signal is obtained. Microphone unit 1 as above
When 40 is moved along a certain shape and the above reverberation effect imparting process is performed according to the motion detection result,
The DSP 30 may perform the above-described impulse response convolution processing on the tone signal supplied from the tone generator 29.

【0097】(変形例2)また、マイクロホンユニット
140に搭載された動作センサMSの検出結果をカラオ
ケ曲の演奏、照明および表示にどのように反映させるか
は、上記実施形態で説明した例に限定されるものではな
い。例えば、動作センサMSによって検出された動作検
出信号αx,αyの絶対値|α|が、所定値より大きく
なるタイミングを検出し、当該検出したタイミングに応
じてカラオケ曲の演奏テンポ、照明の発光タイミング等
を制御するようにしてもよい。このようにすれば、歌唱
者がマイクロホンユニット140を周期的に大きく動か
すといった動作を行えば、その大きく動かしたタイミン
グが検出され、この検出タイミングに応じて演奏テンポ
等を制御することができる。例えば、歌唱者がマイクロ
ホンユニット140を大きく動かす時間間隔を短くした
場合にカラオケ曲の演奏テンポが速くなるようにし、マ
イクロホンユニット140を大きく動かす時間間隔を長
くした場合にカラオケ曲の演奏テンポが遅くなるといっ
た制御を行うようにしてもよい。
(Modification 2) Further, how to reflect the detection result of the motion sensor MS mounted on the microphone unit 140 to the performance, illumination and display of the karaoke piece is limited to the example described in the above embodiment. It is not something that will be done. For example, a timing at which the absolute value | α | of the motion detection signals αx and αy detected by the motion sensor MS becomes larger than a predetermined value is detected, and the performance tempo of the karaoke piece and the light emission timing of the illumination are detected according to the detected timing. Etc. may be controlled. With this configuration, if the singer performs a motion of periodically moving the microphone unit 140 largely, the timing of the large motion is detected, and the performance tempo and the like can be controlled according to the detected timing. For example, if the singer shortens the time interval during which the microphone unit 140 is greatly moved, the playing tempo of the karaoke song becomes faster, and if the time interval during which the microphone unit 140 is greatly moved is increased, the playing tempo of the karaoke song becomes slower. Such control may be performed.

【0098】(変形例3)また、上述した実施形態にお
いては、マイクロホンユニット140の移動軌跡に応じ
て音色や挿入音を制御するようにしていたが、これらの
制御に加えマイクロホンユニット140がある形状に沿
って移動させられているときの位置に応じて音量等を制
御するようにしてもよい。例えば、図9に示すようにマ
イクロホンユニット140を円形時計回りに沿って移動
させた場合に、移動軌跡検出処理部41がその移動軌跡
形状における位置を逐一演奏制御情報生成部44に出力
し、演奏制御情報生成部44がその位置情報に応じて音
量等を制御するための演奏制御情報を生成するようにし
てもよい。この場合、演奏制御情報生成部44は、始点
SPよりも図の下側の位置にいくにつれて音量を小さく
することを指示する演奏制御情報を生成する等すれば、
マイクロホンユニット140が始点SP近傍を移動して
いるときは比較的大きな音量で楽音が発生させられ、認
識点NP1および認識点NP3近傍を移動しているとき
は若干発生音量が小さくなり、認識点NP2近傍を移動
しているときに発生音量をさらに小さくするといった音
量調整を行うことができる。また、このようなマイクロ
ホンユニット140の始点SPを基準とした相対的な位
置に応じて音量等を制御するようにすれば、歌唱者がよ
り大きな円形状に沿ってマイクロホンユニット140を
移動させた場合には、その移動軌跡が始点SPに対して
より下側の位置を通過することになる。すなわち、より
大きな円形状に沿ってマイクロホンユニット140を動
かすとその動きにより変更される音量幅が大きくなり、
逆により小さな円形状に沿ってマイクロホンユニット1
40を動かすとその動きにより変更される音量の幅が小
さくなる。したがって、歌唱者はマイクロホンユニット
140をある形状に沿って移動させる場合に、その形状
を描く大きさを調整することで、音量等のパラメータの
変更幅を自在に制御することができる。
(Modification 3) Further, in the above-described embodiment, the timbre and the inserted sound are controlled according to the movement locus of the microphone unit 140. However, in addition to these controls, the shape in which the microphone unit 140 exists You may make it control a sound volume etc. according to the position when it is being moved along. For example, when the microphone unit 140 is moved in a circular clockwise direction as shown in FIG. 9, the movement locus detection processing unit 41 outputs the position in the movement locus shape to the performance control information generation unit 44, and the performance is performed. The control information generation unit 44 may generate performance control information for controlling the volume and the like according to the position information. In this case, if the performance control information generation unit 44 generates performance control information for instructing to decrease the volume as it goes to a position lower than the start point SP in the figure,
When the microphone unit 140 is moving in the vicinity of the starting point SP, a musical sound is generated with a relatively large volume, and when moving in the vicinity of the recognition point NP1 and the recognition point NP3, the generated volume is slightly reduced, and the recognition point NP2 is generated. It is possible to perform volume adjustment such that the generated volume is further reduced when moving in the vicinity. If the volume and the like are controlled according to the relative position of the starting point SP of the microphone unit 140 as a reference, when the singer moves the microphone unit 140 along a larger circular shape. Therefore, the movement locus passes through a position lower than the starting point SP. That is, when the microphone unit 140 is moved along a larger circular shape, the volume range changed by the movement increases,
Conversely, the microphone unit 1 along a smaller circular shape
When 40 is moved, the width of the volume changed by the movement becomes smaller. Therefore, when the singer moves the microphone unit 140 along a certain shape, the singer can freely control the change range of parameters such as volume by adjusting the size of the shape.

【0099】(変形例4)また、上述した実施形態にお
いては、歌唱者のマイクロホンユニット140に対する
動作を検出する動作センサMSとして2次元加速度セン
サを用いていたが、歌唱者等(歌唱者に限定されない)
のマイクロホンユニット140に対する何らかの動作を
検出することができるものであればよく、3次元加速度
センサ、3次元速度センサ、2次元速度センサ、傾斜セ
ンサ、歪みセンサ、衝撃センサ等の種々のセンサを用い
ることができる。
(Modification 4) In the above-described embodiment, the two-dimensional acceleration sensor is used as the motion sensor MS for detecting the motion of the singer with respect to the microphone unit 140. However, the singer, etc. (limited to the singer) Not)
Any type of sensor such as a three-dimensional acceleration sensor, a three-dimensional speed sensor, a two-dimensional speed sensor, a tilt sensor, a strain sensor, an impact sensor, or the like may be used as long as it can detect any operation with respect to the microphone unit 140. You can

【0100】(変形例5)また、上述した実施形態にお
いては、歌唱者が歌唱音を入力するマイクロホン15を
備えたマイクロホンユニット140に動作センサMSを
搭載するようにしていたが、マイクロホン15とは別筐
体内に動作センサMSを搭載した動作検出ユニットとし
て構成するようにしてもよい。このよう動作センサMS
をマイクロホン15と別筐体に搭載する場合には、図1
7に示すように、歌唱者はマイクロホンを搭載した棒状
のマイクロホンユニット300を一方の手に把持し、他
方の手に動作センサを搭載した棒状の動作検出ユニット
310を把持して利用することができる。また、動作検
出ユニット310は棒状等に限られるものではなく、歌
唱者等の動きを検出できる位置に装着できればよく、例
えば歌唱者等の手や足等に巻き付けて装着することがで
きるタイプのものであってもよいし、身体の一部に貼り
付ける等によって装着することができるタイプのもので
あってもよい。
(Fifth Modification) In the above-described embodiment, the motion sensor MS is mounted on the microphone unit 140 having the microphone 15 for the singer to input the singing sound. You may make it comprise as a motion detection unit which mounts the motion sensor MS in another housing. Such motion sensor MS
If the microphone is mounted in a separate housing from the microphone 15,
As shown in FIG. 7, the singer can hold and use the rod-shaped microphone unit 300 equipped with a microphone in one hand and the rod-shaped motion detection unit 310 equipped with a motion sensor in the other hand. . Further, the motion detection unit 310 is not limited to a rod shape or the like, and may be any type as long as it can be attached to a position where the movement of a singer or the like can be detected, and for example, a type that can be attached around the hand or foot of the singer or the like. Or may be of a type that can be attached by being attached to a part of the body.

【0101】(変形例6)また、上述した実施形態にお
いては、マイクロホンユニット140に内蔵した1つの
動作センサMSの検出結果に応じてカラオケ曲の演奏、
照明、表示等を制御するようにしていたが、複数の動作
センサMSの検出結果に応じてカラオケ曲の演奏等を制
御するようにしてもよい。複数の動作センサMSを用い
る場合には、各々の動作センサMSに予め制御対象を割
り当てておき、例えばある動作センサMSはカラオケ曲
演奏、他の動作センサMSは照明および表示といったよ
うに割り当てておき、各々の動作センサMSの検出結果
に応じて割り当てられた制御対象を制御するようにして
もよいし、複数の動作センサMSの検出結果の平均を求
め、該検出結果の平均に応じてカラオケ曲の演奏等を制
御するようにしてもよい。
(Modification 6) In the above-described embodiment, a karaoke piece is played in accordance with the detection result of one motion sensor MS built in the microphone unit 140.
Although the lighting, the display, and the like are controlled, the performance of the karaoke piece or the like may be controlled according to the detection results of the plurality of motion sensors MS. When a plurality of motion sensors MS are used, a control target is assigned to each motion sensor MS in advance, for example, one motion sensor MS is assigned a karaoke song performance, and another motion sensor MS is assigned such as lighting and display. , The control object assigned according to the detection result of each motion sensor MS may be controlled, or the average of the detection results of the plurality of motion sensors MS may be obtained, and the karaoke piece may be calculated according to the average of the detection results. May be controlled.

【0102】(変形例7)また、上述した実施形態にお
いては、歌唱者がマイクロホンユニット140を動かす
ことにより、カラオケ曲の楽曲演奏を制御することがで
きるようになっていたが、曲データがボーカル音データ
を含んでいる場合には、当該ボーカル音データに基づく
ボーカル音の発生を動作センサMSの検出結果に応じて
制御するようにしてもよい。
(Variation 7) Further, in the above-described embodiment, the singer can control the music performance of the karaoke music by moving the microphone unit 140, but the music data is vocal. When the sound data is included, the generation of vocal sound based on the vocal sound data may be controlled according to the detection result of the motion sensor MS.

【0103】上述したようにカラオケ演奏用の曲データ
として用いられるMIDIデータには、楽曲演奏のため
の伴奏トラック、歌詞表示のための歌詞トラックに加
え、ボーカルトラックを含むデータもある。ボーカル音
トラックは、プロの歌手が歌唱したボーカル音をデータ
化したものであり、例えばプロ歌手が歌うことにより生
成された音声信号をADPCM(Adaptive Differentia
l Pulse Code Modulation)データ化したものなどが用
いられる。ボーカル音トラックを含む曲データに基づい
た演奏を行う場合、カラオケ装置本体部110に音声再
生装置を設け、該音声再生装置がボーカル音トラックの
ボーカル音データを再生することによりボーカル音が再
生されるようになっている。このようなボーカル音トラ
ックのボーカル音データの再生に、動作センサMSの動
作検出結果を反映させるようにしてもよい。例えば、上
述した実施形態のように検出した移動軌跡の形状に応じ
てボーカル音の再生音量を制御したり、再生されるボー
カル音にエコーを付与したりするといったことを行うよ
うにしてもよい。
As described above, the MIDI data used as music data for karaoke performance includes data including a vocal track in addition to an accompaniment track for music performance and a lyrics track for displaying lyrics. The vocal sound track is a data of a vocal sound sung by a professional singer. For example, an ADPCM (Adaptive Differentia) audio signal generated by singing by a professional singer.
Pulse Code Modulation) Data is used. When performing a performance based on song data including a vocal sound track, the karaoke device body 110 is provided with an audio reproduction device, and the audio reproduction device reproduces the vocal sound data of the vocal sound track to reproduce the vocal sound. It is like this. The operation detection result of the operation sensor MS may be reflected in the reproduction of the vocal sound data of the vocal sound track. For example, the reproduction volume of the vocal sound may be controlled or an echo may be added to the reproduced vocal sound according to the shape of the movement trajectory detected as in the above-described embodiment.

【0104】(変形例8)また、上述した実施形態にお
いては、歌唱者がマイクロホンユニット140を動かす
ことにより、カラオケ曲の楽曲演奏を制御することがで
きるようになっていたが、歌詞情報およびメロディー情
報に基づいて歌唱音を合成する歌唱合成器をカラオケ装
置本体部110に搭載し、動作センサMSの検出結果に
応じてこの歌唱合成器による歌唱音合成を制御するよう
にしてもよい。
(Variation 8) In the above-described embodiment, the singer can control the performance of the karaoke piece by moving the microphone unit 140. However, the lyrics information and the melody can be controlled. A singing voice synthesizer that synthesizes a singing voice based on information may be mounted on the karaoke device body 110, and singing voice synthesis by the singing voice synthesizer may be controlled according to the detection result of the motion sensor MS.

【0105】図18に示すように、当該カラオケシステ
ム100’のカラオケ装置本体部110’は、上記実施
形態におけるカラオケ装置本体部110に歌唱合成器1
80を加えた構成となっている。歌唱合成器180は、
カラオケ演奏用の曲データに含まれる歌詞情報(MID
Iデータの場合、歌詞トラック)およびメロディー情報
(MIDIデータの場合、伴奏トラック)にしたがって
歌唱音信号を合成する。歌唱合成器180としては、公
知の種々の歌唱合成装置を用いることができ、例えば規
則合成技術を応用した歌唱合成器等を用いることができ
る。規則合成技術を応用した歌唱合成器は、音素や複数
の音素を含む音素連鎖を単位とする音声試料データを記
憶したデータベースを有しており、歌詞情報にしたがっ
て必要となる音素等の音声試料データを当該データベー
スから読み出して接続することにより歌唱音信号を合成
するものであり、このような歌唱合成器を用いることが
できる。
As shown in FIG. 18, the karaoke device body 110 'of the karaoke system 100' is the same as the karaoke device body 110 in the above embodiment.
It has a configuration in which 80 is added. The singing synthesizer 180
Lyrics information included in song data for karaoke performance (MID
In the case of I data, the singing sound signal is synthesized according to the lyric track) and the melody information (accompaniment track in the case of MIDI data). As the singing voice synthesizer 180, various known singing voice synthesizing devices can be used, and for example, a singing voice synthesizer to which a rule synthesizing technique is applied can be used. The singing voice synthesizer applying the rule synthesis technology has a database that stores voice sample data in units of phonemes and phoneme chains containing multiple phonemes. Is read from the database and connected to synthesize a singing sound signal, and such a singing synthesizer can be used.

【0106】この変形例において、歌唱合成器180に
は移動軌跡検出処理部41によって検出された移動軌跡
に関する情報と、ピーク検出処理部42によって検出さ
れたピーク値に関する情報といった歌唱者がマイクロホ
ンユニット140に対して行った動作に応じた情報が供
給される。歌唱合成器180は、上記のような曲データ
に示される歌詞情報およびメロディー情報に忠実に歌唱
音信号を合成するのではなく、移動軌跡検出処理部41
およびピーク検出処理部42から供給される動作に関す
る情報を反映させた歌唱音信号を合成し、アンプ33に
出力する。より具体的には、、歌唱合成器180は、移
動軌跡に関する情報やピーク値に関する情報に対応付け
て歌唱音合成に反映させる制御内容を記述したテーブル
を有している。そして、歌唱合成器180は、ある移動
軌跡に関する情報、例えば円形時計回り(図7参照)の
移動軌跡であるといった情報が供給された場合には、当
該テーブルに円形時計回りの移動軌跡であるといった情
報に対応付けられた制御内容、例えば女性の声で歌唱音
信号を合成する等の制御内容を歌唱音合成に反映させる
のである。
In this modified example, the singing voice synthesizer 180 includes a microphone unit 140 in which the singer has information such as information about the movement locus detected by the movement locus detection processing unit 41 and information about the peak value detected by the peak detection processing unit 42. Information is supplied according to the operation performed on the. The singing voice synthesizer 180 does not synthesize the singing voice signal faithfully to the lyrics information and the melody information shown in the song data as described above, but moves the locus detection processing unit 41.
And the singing sound signal reflecting the information on the operation supplied from the peak detection processing unit 42 is synthesized and output to the amplifier 33. More specifically, the singing voice synthesizer 180 has a table that describes the control content to be reflected in the singing voice synthesis in association with the information regarding the movement trajectory and the information regarding the peak value. Then, when the singing voice synthesizer 180 is supplied with information about a certain movement locus, for example, a movement locus in a circular clockwise direction (see FIG. 7), it is said that the table is a circular clockwise movement locus. The control content associated with the information, for example, the control content of synthesizing the singing sound signal with a female voice is reflected in the singing sound synthesis.

【0107】また、上記のように動作センサMSの検出
結果に応じて女性の声で歌唱音信号を合成するといった
音色に関する制御を行う以外にも、動作センサMSの検
出結果に応じて歌唱合成器180が歌唱音信号を合成す
るタイミング、音量等種々の要素を制御するようにして
もよい。例えば、四角形時計回り形状(図9参照)に沿
ってマイクロホンユニット140を移動させた場合に、
その動作検出結果に応じて歌唱合成器180が歌唱音信
号の合成を開始するようにし、四角形反時計回り形状
(図10参照)に沿ってマイクロホンユニット140を
移動させた場合に、その動作検出結果に応じて歌唱合成
器180が歌唱音信号の合成を停止するといった制御を
行うようにしてもよい。このようにすれば、歌唱者が当
該カラオケシステム100’を利用してデュエット曲を
歌唱する際に、歌唱者が相手方の歌唱パートを歌唱させ
ようと思ったときにはマイクロホンユニット140を四
角形時計回りの形状に沿って移動させれば、相手方の歌
唱パートの歌唱音が歌唱合成器180によって合成され
る。一方、歌唱者が相手方の歌唱パートの歌唱を停止さ
せようと思ったときにはマイクロホンユニット140を
四角形反時計回りの形状に沿って移動させれば、相手方
の歌唱パートの歌唱音の合成を停止することができる。
したがって、歌唱者はデュエット曲の相手方の歌唱パー
トの進行をマイクロホンユニット140を移動させると
いった歌唱しながら容易に行える動作によって任意に制
御することができる。
In addition to the timbre control such as synthesizing a singing sound signal with a female voice according to the detection result of the motion sensor MS as described above, a singing voice synthesizer according to the detection result of the motion sensor MS Various elements such as the timing at which 180 synthesizes the singing sound signal and the volume may be controlled. For example, when the microphone unit 140 is moved along a rectangular clockwise shape (see FIG. 9),
When the singing voice synthesizer 180 starts synthesizing the singing sound signal according to the action detection result and the microphone unit 140 is moved along the quadrangle counterclockwise shape (see FIG. 10), the action detection result The singing voice synthesizer 180 may perform control such that the singing voice signal stops synthesizing. In this way, when the singer uses the karaoke system 100 'to sing a duet song, when the singer wants to sing the other party's singing part, the microphone unit 140 has a rectangular clockwise shape. When moved along, the singing sound of the singing part of the other party is synthesized by the singing synthesizer 180. On the other hand, when the singer wants to stop the singing of the singing part of the other party, the microphone unit 140 can be moved along the shape of the quadrangle counterclockwise to stop the synthesis of the singing sound of the singing part of the other party. You can
Therefore, the singer can arbitrarily control the progress of the singing part of the other party of the duet song by an operation that can be easily performed while singing, such as moving the microphone unit 140.

【0108】(変形例9)また、上述した実施形態にお
いて、動作センサMSの検出結果(移動軌跡等)に応じ
て曲演奏、照明および表示等を制御する際に、演奏中の
カラオケ曲に応じた制御を行うようにしてもよい。例え
ば、歌唱者が選択したカラオケ曲の曲調に応じて動作セ
ンサMSの検出結果に基づく照明および表示等の制御内
容を変更するようにしてもよい。すなわち、歌唱者がマ
イクロホンユニット140に対して同じ動作を行った場
合にも、演奏中のカラオケ曲がアップテンポの曲である
か、スローバラードの曲であるかに応じて、異なる制御
を行うようにしてもよい。例えば、アップテンポの曲の
場合、照明装置150の照射する光の強さを制御できる
範囲を明るめにする、表示内容を疾走感のある映像とす
る等の制御を行い、スローバラードの場合には照明装置
150の照射する光の強さを制御できる範囲を暗めに
し、表示内容をゆったりとしたイメージのある映像等に
する等の制御を行うようにすればよい。このように曲調
に応じて制御内容を変更する場合には、予め曲データに
曲調を識別するための情報を含めておき、あるカラオケ
曲が指定された場合、その曲データに含まれる曲調を識
別する情報を参照して、どのような制御態様で制御を行
うかを決定するようにすればよい。
(Modification 9) Further, in the above-described embodiment, when controlling the music performance, lighting, display, etc. according to the detection result (movement locus etc.) of the motion sensor MS, the karaoke music being played is controlled. You may make it perform the control. For example, the control contents such as illumination and display based on the detection result of the motion sensor MS may be changed according to the tone of the karaoke song selected by the singer. That is, even when the singer performs the same operation with respect to the microphone unit 140, different control is performed depending on whether the karaoke piece being played is an uptempo piece or a slow ballad piece. You may For example, in the case of an up-tempo song, control is performed such that the controllable range of the intensity of the light emitted by the lighting device 150 is made brighter, the displayed content is a moving image, and in the case of a slow ballad. The control range may be such that the controllable range of the intensity of the light emitted from the illumination device 150 is darkened and the display content is a video with a loose image. When the control content is changed according to the tune in this way, information for identifying the tune is included in the song data in advance, and when a certain karaoke song is designated, the tune included in the song data is identified. The control mode may be determined by referring to the information to be controlled.

【0109】[0109]

【発明の効果】以上説明したように、本発明によれば、
カラオケ曲の歌唱中であっても、煩雑な操作等を行うこ
となく、曲データに基づく楽音発生を制御することがで
きる。
As described above, according to the present invention,
Even while singing a karaoke song, it is possible to control the tone generation based on the song data without performing a complicated operation.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明の一実施形態に係るカラオケシステム
の外観を模式的に示す図である。
FIG. 1 is a diagram schematically showing an appearance of a karaoke system according to an embodiment of the present invention.

【図2】 前記カラオケシステムの構成要素であるマイ
クロホンユニットの構成を示すブロック図である。
FIG. 2 is a block diagram showing a configuration of a microphone unit that is a component of the karaoke system.

【図3】 前記カラオケシステムの構成要素であるカラ
オケ装置本体部の構成を示すブロック図である。
FIG. 3 is a block diagram showing a configuration of a karaoke device body which is a component of the karaoke system.

【図4】 カラオケ曲演奏時における前記カラオケシス
テムの機能構成を示すブロック図である。
FIG. 4 is a block diagram showing a functional configuration of the karaoke system when playing a karaoke piece.

【図5】 前記カラオケシステムの制御情報テーブルに
格納される情報の一例を示す図である。
FIG. 5 is a diagram showing an example of information stored in a control information table of the karaoke system.

【図6】 前記マイクロホンユニットの移動軌跡を検出
するための処理手順を示すフローチャートである。
FIG. 6 is a flowchart showing a processing procedure for detecting a movement locus of the microphone unit.

【図7】 前記マイクロホンユニットの移動軌跡を検出
するための処理手順を示すフローチャートである。
FIG. 7 is a flowchart showing a processing procedure for detecting a movement trajectory of the microphone unit.

【図8】 前記マイクロホンユニットの移動軌跡検出に
用いられる形状認識用テーブルの内容を説明するための
図である。
FIG. 8 is a diagram for explaining the contents of a shape recognition table used for detecting the movement trajectory of the microphone unit.

【図9】 前記マイクロホンユニットの移動軌跡検出処
理を説明するための図である。
FIG. 9 is a diagram for explaining a movement trajectory detection process of the microphone unit.

【図10】 前記マイクロホンユニットの移動軌跡検出
処理を説明するための図である。
FIG. 10 is a diagram for explaining a movement trajectory detection process of the microphone unit.

【図11】 前記マイクロホンユニットの移動軌跡検出
処理を説明するための図である。
FIG. 11 is a diagram for explaining a movement trajectory detection process of the microphone unit.

【図12】 前記マイクロホンユニットの移動軌跡検出
処理を説明するための図である。
FIG. 12 is a diagram for explaining a movement trajectory detection process of the microphone unit.

【図13】 前記マイクロホンユニットの移動軌跡検出
処理を説明するための図である。
FIG. 13 is a diagram illustrating a movement locus detection process of the microphone unit.

【図14】 前記マイクロホンユニットの移動軌跡検出
処理を説明するための図である。
FIG. 14 is a diagram for explaining a movement trajectory detection process of the microphone unit.

【図15】 前記マイクロホンユニットの移動軌跡検出
処理を説明するための図である。
FIG. 15 is a diagram for explaining a movement trajectory detection process of the microphone unit.

【図16】 前記マイクロホンユニットの移動軌跡検出
処理を説明するための図である。
FIG. 16 is a diagram for explaining a movement trajectory detection process of the microphone unit.

【図17】 前記カラオケシステムの変形例の外観を模
式的に示す図である。
FIG. 17 is a diagram schematically showing an appearance of a modified example of the karaoke system.

【図18】 カラオケ曲演奏時における前記カラオケシ
ステムの変形例の機能構成を示すブロック図である。
FIG. 18 is a block diagram showing a functional configuration of a modified example of the karaoke system when playing a karaoke piece.

【符号の説明】[Explanation of symbols]

11……CPU、12……メモリ、15……マイクロホ
ン、21……CPU、22……ROM、23……RA
M、28……表示制御部、29……音源装置、30……
DSP、33……アンプ、41……移動軌跡検出処理
部、42……ピーク検出処理部、43……表示および照
明制御部、44……演奏制御情報生成部、100……カ
ラオケシステム、110……カラオケ装置本体部、12
0……表示装置、130……スピーカ、140……マイ
クロホンユニット、150……照明装置、180……歌
唱合成器、300……マイクロホンユニット、310…
…動作検出ユニット、MS……動作センサ
11 ... CPU, 12 ... Memory, 15 ... Microphone, 21 ... CPU, 22 ... ROM, 23 ... RA
M, 28 ... Display control unit, 29 ... Sound source device, 30 ...
DSP, 33 ... Amplifier, 41 ... Movement locus detection processing unit, 42 ... Peak detection processing unit, 43 ... Display and lighting control unit, 44 ... Performance control information generation unit, 100 ... Karaoke system, 110 ... ... Karaoke device body, 12
0 ... Display device, 130 ... Speaker, 140 ... Microphone unit, 150 ... Lighting device, 180 ... Singing synthesizer, 300 ... Microphone unit, 310 ...
… Motion detection unit, MS… Motion sensor

───────────────────────────────────────────────────── フロントページの続き (72)発明者 小林 詠子 静岡県浜松市中沢町10番1号 ヤマハ株式 会社内 Fターム(参考) 5D108 BB06 BE03 BG06 5D378 FF07 MM12 MM16 MM65 MM68 MM97    ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Kobayashi Eiko             Yamaha stock, 10-1 Nakazawa-machi, Hamamatsu-shi, Shizuoka             In the company F term (reference) 5D108 BB06 BE03 BG06                 5D378 FF07 MM12 MM16 MM65 MM68                       MM97

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 使用者が携帯可能なユニットであって、
当該ユニットを携帯する使用者の動作を検出する動作検
出ユニットと、曲データに基づいて演奏を行うカラオケ
装置とを備えたカラオケシステムであって、 前記カラオケ装置は、 前記動作検出ユニットによって検出された使用者の動作
検出結果を取得する取得手段と、 前記曲データと、前記取得手段によって取得された動作
検出結果とに基づいて楽音を発生する楽音発生手段とを
有することを特徴とするカラオケシステム。
1. A unit that can be carried by a user,
A karaoke system including a motion detection unit that detects a motion of a user carrying the unit, and a karaoke device that performs a performance based on song data, wherein the karaoke device is detected by the motion detection unit. A karaoke system comprising: an acquisition unit that acquires a user's motion detection result; and a musical sound generation unit that generates a musical sound based on the music data and the motion detection result acquired by the acquisition unit.
【請求項2】 前記楽音発生手段は、前記動作検出結果
に基づいて曲データによって特定される発生すべき楽音
のテンポ、楽音の音量、タイミング、音色および効果の
少なくとも1つを制御することを特徴とする請求項1に
記載のカラオケシステム。
2. The musical tone generating means controls at least one of a tempo of a musical tone to be generated, a tone volume, a timing, a tone color, and an effect to be generated which are specified by music data based on the operation detection result. The karaoke system according to claim 1.
【請求項3】 前記楽音発生手段は、前記動作検出結果
に基づいて、前記曲データに基づいて発生させる楽音の
音像位置を制御することを特徴とする請求項1または2
に記載のカラオケシステム。
3. The musical tone generating means controls a sound image position of a musical tone generated based on the music data, based on the result of the motion detection.
Karaoke system described in.
【請求項4】 前記動作検出ユニットは、使用者の音声
を入力するマイクロホンを有しており、 前記楽音発生手段は、前記曲データに基づく楽音と前記
マイクロホンに入力された音声を合成して発音すること
を特徴とする請求項1ないし3のいずれかに記載のカラ
オケシステム。
4. The motion detection unit has a microphone for inputting a user's voice, and the musical sound generating means produces a sound by synthesizing a musical sound based on the music data and a voice input to the microphone. The karaoke system according to any one of claims 1 to 3, wherein
【請求項5】 前記曲データにボーカル音データが含ま
れている場合に、前記楽音発生手段は、前記動作検出結
果に基づいて前記ボーカル音データに基づくボーカル音
の発生を制御することを特徴とする請求項1ないし4の
いずれかに記載のカラオケシステム。
5. When the music data includes vocal sound data, the musical sound generating means controls generation of vocal sound based on the vocal sound data based on the motion detection result. The karaoke system according to any one of claims 1 to 4, wherein:
【請求項6】 前記カラオケ装置は、前記曲データに含
まれる歌詞情報およびメロディー情報に基づいて歌唱音
を合成する歌唱音合成器を有しており、 前記歌唱音合成器は、前記取得手段によって取得された
動作検出結果に応じて歌唱音の合成を制御することを特
徴とする請求項1ないし5のいずれかに記載のカラオケ
システム。
6. The karaoke device has a singing sound synthesizer for synthesizing a singing sound based on the lyrics information and the melody information included in the song data, and the singing sound synthesizer uses the acquisition means. The karaoke system according to any one of claims 1 to 5, wherein synthesis of a singing sound is controlled according to the acquired motion detection result.
【請求項7】 前記カラオケ装置は、前記楽音発生手段
による前記曲データに基づく楽音発生の際に、画像を表
示する表示手段と、 前記取得手段によって取得された動作検出結果に基づい
て前記表示手段に表示される画像を制御する表示制御手
段とをさらに備えることを特徴とする請求項1ないし6
のいずれかに記載のカラオケシステム。
7. The karaoke device, when the musical tone is generated by the musical tone generating means based on the music data, a displaying means for displaying an image, and the displaying means based on the motion detection result acquired by the acquiring means. 7. A display control means for controlling an image displayed on the display, further comprising:
Karaoke system according to any one of.
【請求項8】 前記取得手段によって取得された動作検
出結果に基づいて、当該カラオケシステムの使用者の周
囲の環境を制御する環境制御手段をさらに具備すること
を特徴とする請求項1ないし7のいずれかに記載のカラ
オケシステム。
8. The environment control means for controlling the environment around the user of the karaoke system based on the motion detection result acquired by the acquisition means. Karaoke system according to any one.
【請求項9】 前記環境制御手段は、前記使用者の周囲
に光を照射する照明装置を有しており、前記取得手段に
よって取得された動作検出結果に基づいて前記照明装置
を制御することを特徴とする請求項8に記載のカラオケ
システム。
9. The environment control means includes a lighting device that irradiates light around the user, and controls the lighting device based on a motion detection result acquired by the acquisition means. The karaoke system according to claim 8, which is characterized in that.
JP2001272294A 2001-09-07 2001-09-07 Karaoke system Expired - Fee Related JP4759888B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001272294A JP4759888B2 (en) 2001-09-07 2001-09-07 Karaoke system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001272294A JP4759888B2 (en) 2001-09-07 2001-09-07 Karaoke system

Publications (2)

Publication Number Publication Date
JP2003084779A true JP2003084779A (en) 2003-03-19
JP4759888B2 JP4759888B2 (en) 2011-08-31

Family

ID=19097689

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001272294A Expired - Fee Related JP4759888B2 (en) 2001-09-07 2001-09-07 Karaoke system

Country Status (1)

Country Link
JP (1) JP4759888B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007293042A (en) * 2006-04-25 2007-11-08 Nintendo Co Ltd Music performance program and music performance device
JP2008299038A (en) * 2007-05-31 2008-12-11 Daiichikosho Co Ltd Karaoke system with background image presenting function
JP2011221064A (en) * 2010-04-05 2011-11-04 Brother Ind Ltd Karaoke system
WO2012095440A3 (en) * 2011-01-13 2012-10-26 Sennheiser Electronic Gmbh & Co. Kg Microphone system with a hand-held microphone

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03297095A (en) * 1990-04-17 1991-12-27 Brother Ind Ltd Illumination controller of music sound generating device
JPH0654388A (en) * 1992-04-07 1994-02-25 Yamaha Corp Sound parameter controller
JPH07146687A (en) * 1993-04-02 1995-06-06 J M C:Kk Karaoke (accompaniment to recorded music) production device
JPH07199977A (en) * 1993-12-29 1995-08-04 Roland Corp Karaoke device
JPH07319487A (en) * 1994-05-19 1995-12-08 Sanyo Electric Co Ltd Sound image control device
JPH09198057A (en) * 1996-01-19 1997-07-31 Sony Corp Sound reproduction device
JPH10143151A (en) * 1996-01-30 1998-05-29 Pfu Ltd Conductor device
JPH1115489A (en) * 1997-06-24 1999-01-22 Yamaha Corp Singing sound synthesizing device
JPH1124684A (en) * 1997-07-08 1999-01-29 Daiichi Kosho:Kk Karaoke (sing-along music) amusement system
JP2000047677A (en) * 1998-07-31 2000-02-18 Yamaha Corp Karaoke device
JP2001195059A (en) * 2000-01-11 2001-07-19 Yamaha Corp Musical performance interface

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03297095A (en) * 1990-04-17 1991-12-27 Brother Ind Ltd Illumination controller of music sound generating device
JPH0654388A (en) * 1992-04-07 1994-02-25 Yamaha Corp Sound parameter controller
JPH07146687A (en) * 1993-04-02 1995-06-06 J M C:Kk Karaoke (accompaniment to recorded music) production device
JPH07199977A (en) * 1993-12-29 1995-08-04 Roland Corp Karaoke device
JPH07319487A (en) * 1994-05-19 1995-12-08 Sanyo Electric Co Ltd Sound image control device
JPH09198057A (en) * 1996-01-19 1997-07-31 Sony Corp Sound reproduction device
JPH10143151A (en) * 1996-01-30 1998-05-29 Pfu Ltd Conductor device
JPH1115489A (en) * 1997-06-24 1999-01-22 Yamaha Corp Singing sound synthesizing device
JPH1124684A (en) * 1997-07-08 1999-01-29 Daiichi Kosho:Kk Karaoke (sing-along music) amusement system
JP2000047677A (en) * 1998-07-31 2000-02-18 Yamaha Corp Karaoke device
JP2001195059A (en) * 2000-01-11 2001-07-19 Yamaha Corp Musical performance interface

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007293042A (en) * 2006-04-25 2007-11-08 Nintendo Co Ltd Music performance program and music performance device
JP2008299038A (en) * 2007-05-31 2008-12-11 Daiichikosho Co Ltd Karaoke system with background image presenting function
JP2011221064A (en) * 2010-04-05 2011-11-04 Brother Ind Ltd Karaoke system
WO2012095440A3 (en) * 2011-01-13 2012-10-26 Sennheiser Electronic Gmbh & Co. Kg Microphone system with a hand-held microphone

Also Published As

Publication number Publication date
JP4759888B2 (en) 2011-08-31

Similar Documents

Publication Publication Date Title
JP3598598B2 (en) Karaoke equipment
JP3879357B2 (en) Audio signal or musical tone signal processing apparatus and recording medium on which the processing program is recorded
JP2921428B2 (en) Karaoke equipment
JP2838977B2 (en) Karaoke equipment
JPH0816181A (en) Effect addition device
JPH0744183A (en) Karaoke playing device
JP4038836B2 (en) Karaoke equipment
JP4759888B2 (en) Karaoke system
JP2000122674A (en) Karaoke (sing-along music) device
JP3829780B2 (en) Performance method determining device and program
JPH10268895A (en) Voice signal processing device
JP6406273B2 (en) Karaoke device and program
JP3618203B2 (en) Karaoke device that allows users to play accompaniment music
JP2004219947A (en) Musical sound editing system
JPH11338480A (en) Karaoke (prerecorded backing music) device
JP4033146B2 (en) Karaoke equipment
JP6638673B2 (en) Training device, training program and training method
JP7158331B2 (en) karaoke device
JPH1091172A (en) Karaoke sing-along machine
JP6651729B2 (en) Electronic music device and program
JP2002221978A (en) Vocal data forming device, vocal data forming method and singing tone synthesizer
JPH06202676A (en) Karaoke contrller
JP7468495B2 (en) Information processing device, electronic musical instrument, information processing system, information processing method, and program
JP2004302232A (en) Karaoke playing method and karaoke system for processing choral song and vocal ensemble song
JPH10124074A (en) Musical sound generating device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080722

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091006

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100824

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101021

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110523

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140617

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees