JP2006171215A - Data processor and program for conducting guidance display associated with music playing and lyrics display - Google Patents

Data processor and program for conducting guidance display associated with music playing and lyrics display Download PDF

Info

Publication number
JP2006171215A
JP2006171215A JP2004361651A JP2004361651A JP2006171215A JP 2006171215 A JP2006171215 A JP 2006171215A JP 2004361651 A JP2004361651 A JP 2004361651A JP 2004361651 A JP2004361651 A JP 2004361651A JP 2006171215 A JP2006171215 A JP 2006171215A
Authority
JP
Japan
Prior art keywords
data
display
instruction data
processing
timing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004361651A
Other languages
Japanese (ja)
Other versions
JP4380521B2 (en
Inventor
Yukio Tada
幸生 多田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2004361651A priority Critical patent/JP4380521B2/en
Publication of JP2006171215A publication Critical patent/JP2006171215A/en
Application granted granted Critical
Publication of JP4380521B2 publication Critical patent/JP4380521B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To enable a user to conduct an appropriate action according to the operation and the conditions of video cameras or the like, in a karaoke system in which imaging is conducted together with the playing of a karaoke music. <P>SOLUTION: In a karaoke system 1, automatic playing and lyrics display of a karaoke music are conducted and guidance display to be presented to the user is conducted for the action or the condition of video cameras 15 at the present moment, or in the near future, in accordance with the sequence data which are included in karaoke data 1001 to instruct the actions of the video cameras or the like or the instruction data transmitted to a karaoke machine 10 by a controller 11 in accordance with the user's operations. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、カラオケシステムにおけるデータ処理技術に関する。   The present invention relates to a data processing technique in a karaoke system.

カラオケ楽曲の演奏に伴い歌唱を行うユーザを撮像する技術がある。   There is a technique for imaging a user who sings along with the performance of karaoke music.

例えば、特許文献1は、カラオケ楽曲の演奏データに対応して予め準備された時系列データであるカメラ制御データに従い、カラオケ楽曲の演奏に応じてズーミングおよびパンニングの動作を行うビデオカメラを備えたカラオケ装置を提案している。
特開2002−311969号公報
For example, Patent Document 1 discloses a karaoke provided with a video camera that performs zooming and panning operations according to performance of karaoke music according to camera control data that is time-series data prepared in advance corresponding to performance data of karaoke music. A device is proposed.
JP 2002-311969 A

特許文献1に記載の従来技術による場合、ユーザはビデオカメラの動作を予め知ることができないため、ビデオカメラの動作に応じてポーズを決める等の適した動作を行うことが困難であった。   In the case of the conventional technique described in Patent Document 1, since the user cannot know the operation of the video camera in advance, it is difficult to perform an appropriate operation such as determining a pose according to the operation of the video camera.

上記の状況に鑑み、本発明は、カラオケ楽曲の演奏とともに撮像が行われるカラオケシステムにおいて、ユーザが、ビデオカメラ等の撮像関連装置の動作や状態に応じて適した動作を行うことを可能とする手段を提供することを目的とする。   In view of the above situation, the present invention enables a user to perform an operation suitable for the operation and state of an imaging-related device such as a video camera in a karaoke system in which imaging is performed along with the performance of karaoke music. It aims to provide a means.

上記課題を達成するために、本発明は、楽曲の演奏を指示する演奏指示データを出力する演奏指示データ出力手段と、歌詞の表示を指示する歌詞表示指示データを、前記楽曲の進行において当該歌詞が表示されるべきタイミングを示すタイミングデータに対応付けて記憶する歌詞表示指示データ記憶手段と、撮像装置、画像データの加工を行う加工装置、撮像装置の移動を行う移動装置および照明装置の少なくとも1により実行されるべき処理を指示する処理指示データを、前記楽曲の進行において当該処理が実行されるべきタイミングを示すタイミングデータに対応付けて記憶する処理指示データ記憶手段と、前記演奏指示データ出力手段による演奏指示データの出力と並行して、前記処理指示データを、当該処理指示データに対応付けられたタイミングデータに応じたタイミングで出力する処理指示データ出力手段と、前記演奏指示データ出力手段による演奏指示データの出力および前記処理指示データ出力手段による処理指示データの出力と並行して、前記歌詞表示指示データにより指示される歌詞を当該歌詞表示指示データに対応付けられたタイミングデータに応じたタイミングで表示するとともに、前記処理指示データ出力手段により出力される処理指示データに応じたガイダンスを当該処理指示データに対応付けられたタイミングデータに応じたタイミングで表示することを指示する表示指示データを出力する表示指示データ出力手段とを備えることを特徴とするデータ処理装置を提供する。   In order to achieve the above object, the present invention provides performance instruction data output means for outputting performance instruction data for instructing performance of music, and lyrics display instruction data for instructing display of lyrics. At least one of lyrics display instruction data storage means for storing the timing data indicating the timing at which the image is to be displayed, the imaging device, the processing device for processing the image data, the moving device for moving the imaging device, and the lighting device Processing instruction data storage means for storing processing instruction data for instructing a process to be executed in association with timing data indicating a timing at which the process should be executed in the progress of the music; and the performance instruction data output means In parallel with the output of the performance instruction data by, the processing instruction data is associated with the processing instruction data. The lyric display in parallel with the processing instruction data output means for outputting at a timing according to the timing data, the output of the performance instruction data by the performance instruction data output means and the output of the processing instruction data by the processing instruction data output means The lyrics designated by the instruction data are displayed at a timing corresponding to the timing data associated with the lyrics display instruction data, and guidance according to the process instruction data output by the process instruction data output means is displayed. There is provided a data processing apparatus comprising: display instruction data output means for outputting display instruction data for instructing display at a timing according to timing data associated with data.

また、本発明は、楽曲の演奏を指示する演奏指示データを出力する演奏指示データ出力手段と、歌詞の表示を指示する歌詞表示指示データを、前記楽曲の進行において当該歌詞が表示されるべきタイミングを示すタイミングデータに対応付けて記憶する歌詞表示指示データ記憶手段と、撮像装置の位置、撮像装置の方向、撮像装置の処理、照明装置の位置、照明装置の方向、照明装置の処理および画像データの加工を行う加工装置の処理のうち、少なくとも1に関する現在の状態もしくは所定期間内に予定されている状態の変化を示す状態データを受け取る状態データ入力手段と、前記演奏指示データ出力手段による演奏指示データの出力と並行して、前記歌詞表示指示データにより指示される歌詞を当該歌詞表示指示データに対応付けられたタイミングデータに応じたタイミングで表示するとともに、前記状態データ入力手段により受け取られる状態データに応じたガイダンスを表示することを指示する表示指示データを出力する表示指示データ出力手段とを備えることを特徴とするデータ処理装置を提供する。   The present invention also provides performance instruction data output means for outputting performance instruction data for instructing performance of music and lyrics display instruction data for instructing display of lyrics at a timing at which the lyrics should be displayed in the progress of the music. Lyric display instruction data storage means for storing in association with the timing data indicating, and the position of the imaging device, the direction of the imaging device, the processing of the imaging device, the position of the lighting device, the direction of the lighting device, the processing of the lighting device and the image data Among the processes of the processing apparatus that performs the processing of the above, state data input means for receiving state data indicating a change in the current state or a state scheduled within a predetermined period of at least one, and a performance instruction by the performance instruction data output means In parallel with the data output, the lyrics designated by the lyrics display instruction data are associated with the lyrics display instruction data. And display instruction data output means for outputting display instruction data for instructing to display guidance according to the state data received by the state data input means while displaying at timing according to the timing data. A data processing apparatus is provided.

上記いずれの構成のデータ処理装置によっても、当該データ処理装置により表示指示データを受け取る表示手段は、カラオケ楽曲の歌詞表示を行うとともに、撮像装置、加工装置、移動装置もしくは照明装置の現在の状態および近未来に実行される処理をユーザに対し通知するガイダンス表示を同時に行うため、ユーザはそれらの装置の動作に応じて、好ましい画像データが生成されるために必要な振る舞いを行うことができる。   In any of the above-described data processing devices, the display means for receiving the display instruction data by the data processing device displays the lyrics of the karaoke music, and the current state of the imaging device, processing device, moving device or lighting device and Since guidance display for notifying the user of processing to be executed in the near future is performed at the same time, the user can perform the behavior necessary for generating preferable image data in accordance with the operation of the devices.

また、好ましい態様において、前記表示指示データ出力手段は、前記表示指示データとして、特定の処理を実行中もしくは所定期間内に特定の処理を実行予定の撮像装置もしくは照明装置を示す、文字、図形、記号もしくはこれらの結合もしくはこれらと色彩との結合の表示またはランプの点灯による表示を指示するデータを出力するように構成されていてもよい。   Further, in a preferred aspect, the display instruction data output means includes, as the display instruction data, a character, a figure, an illumination device indicating an imaging device or a lighting device that is executing a specific process or scheduled to execute a specific process within a predetermined period, It may be configured to output data instructing display of a symbol, a combination thereof, a combination of these and a color, or a display by lighting a lamp.

かかる構成のデータ処理装置によれば、表示手段により、処理を実行中もしくは近未来に実行予定の装置がユーザに通知されるため、ユーザは、例えば撮像処理中の撮像装置に身体を向ける等の適した振る舞いを行うことができる。   According to the data processing apparatus having such a configuration, the display unit notifies the user of an apparatus that is executing the process or is scheduled to be executed in the near future. For example, the user turns the body toward the imaging apparatus that is performing the imaging process. Appropriate behavior can be performed.

また、他の好ましい態様において、前記表示指示データ出力手段は、前記表示指示データとして、撮像装置、加工装置、移動装置もしくは照明装置の現在の状態もしくは所定時間後に予定されている状態に応じて、異なる態様の表示を指示するデータを出力するように構成されていてもよい。   Further, in another preferred aspect, the display instruction data output means, as the display instruction data, according to a current state of an imaging device, a processing device, a moving device, or a lighting device or a state scheduled after a predetermined time, Data for instructing display of different modes may be output.

かかる構成のデータ処理装置によれば、表示手段により、撮像装置等の現在もしくは将来の状態の詳細が表示態様によりユーザに通知されるため、ユーザは、例えば加工装置により実行中の加工処理の種類に応じて適した振る舞いを行うことができる。   According to the data processing apparatus having such a configuration, the display unit notifies the user of the details of the current or future state of the imaging apparatus or the like in the display mode. Depending on the situation, it is possible to perform a suitable behavior.

また、他の好ましい態様において、前記データ処理装置はユーザの位置を示す位置データを受け取る位置データ入力手段を備え、前記表示指示データ出力手段は、前記表示指示データとして、前記歌詞と前記ガイダンスに加え、前記位置データにより示される位置の同時表示を指示するデータを出力するように構成されていてもよい。   In another preferred embodiment, the data processing device includes position data input means for receiving position data indicating a user's position, and the display instruction data output means adds the lyrics and the guidance as the display instruction data. Further, it may be configured to output data instructing simultaneous display of the position indicated by the position data.

かかる構成のデータ処理装置によれば、表示手段により、ユーザの現在位置が表示される結果、ユーザは自分の位置を撮像装置等の位置との関係で容易に把握でき、撮像装置等の動作に応じた振る舞いをより容易に行うことができる。   According to the data processing apparatus having such a configuration, the current position of the user is displayed by the display unit. As a result, the user can easily grasp his / her position in relation to the position of the imaging apparatus or the like, and the operation of the imaging apparatus or the like can be performed. The corresponding behavior can be performed more easily.

また、他の好ましい態様において、前記データ処理装置はユーザの画像データを受け取る画像データ入力手段を備え、前記表示指示データ出力手段は、前記表示指示データとして、前記歌詞と前記ガイダンスに加え、前記画像データにより示される画像の同時表示を指示するデータを出力するように構成されていてもよい。   In another preferred embodiment, the data processing device includes image data input means for receiving image data of a user, and the display instruction data output means includes the image as the display instruction data in addition to the lyrics and the guidance. Data for instructing simultaneous display of images indicated by the data may be output.

かかる構成のデータ処理装置によれば、表示手段によりユーザの現在の画像が表示される結果、ユーザは自分の振る舞いの結果得られる画像を確認しつつ、自分の振る舞いを修正等することができる。   According to the data processing apparatus having such a configuration, as a result of displaying the user's current image by the display means, the user can correct his / her behavior while confirming the image obtained as a result of his / her behavior.

また、本発明は、上記のデータ処理装置により行われる処理をコンピュータに実行させるプログラムを提供する。   The present invention also provides a program that causes a computer to execute processing performed by the data processing apparatus.

[1.第1実施形態]
[1.1.カラオケシステムの構成]
図1は、本発明の実施形態にかかるカラオケシステム1がカラオケボックスに設置された様子を示している。また、図2は、カラオケシステム1の構成を示している。ただし、図1において、図2に示される赤外線受信器20a〜lは図の簡略化のため省略されている。カラオケシステム1は、カラオケ装置10、カラオケ装置10に対しユーザの指示を与えるためのコントローラ11、ユーザの声を拾音しその声を示す音信号をカラオケ装置10に出力すると同時に断続的に所定の周波数の超音波を発するとともに継続的に所定の波長の赤外線を照射する機能を備えたマイク12aおよびb、カラオケ装置10から出力される音信号を増幅するアンプ13、アンプ13から出力される音信号を音に変換し出力するスピーカ14LおよびR、撮像した画像を示す画像データを順次生成して出力するビデオカメラ15a〜d、ビデオカメラ15a〜dの位置および方向をモータ等により各々変化させるカメラ移動装置16a〜d、指定された色および明るさの光をユーザに照射する照明装置17a〜h、カラオケ装置10から出力される画像データに従い画像表示を行うディスプレイ18a〜d、超音波を受信し受信した超音波の波形を示す電気信号をカラオケ装置10に出力する超音波受信器19a〜d、そしてカラオケ装置10から出力されるデータをフラッシュメモリ等の記憶媒体に記憶するメディアドライブ21を備えている。また、カラオケ装置10はインターネット22に接続されている。
[1. First Embodiment]
[1.1. Configuration of karaoke system]
FIG. 1 shows a state in which a karaoke system 1 according to an embodiment of the present invention is installed in a karaoke box. FIG. 2 shows the configuration of the karaoke system 1. However, in FIG. 1, the infrared receivers 20a to 20l shown in FIG. 2 are omitted for simplification of the drawing. The karaoke system 1 includes a karaoke device 10, a controller 11 for giving a user instruction to the karaoke device 10, picks up a user's voice and outputs a sound signal indicating the voice to the karaoke device 10 at the same time intermittently. Microphones 12a and b having a function of emitting ultrasonic waves of a frequency and continuously irradiating infrared rays of a predetermined wavelength, an amplifier 13 for amplifying a sound signal output from the karaoke apparatus 10, and a sound signal output from the amplifier 13 14L and R that convert and output sound into sound, video cameras 15a to 15d that sequentially generate and output image data indicating captured images, and camera movements that change the positions and directions of the video cameras 15a to 15d by a motor or the like Devices 16a to 16d, lighting devices 17a to 17h for irradiating a user with light of a specified color and brightness, karaoke Displays 18a-d for displaying images in accordance with image data output from the device 10, ultrasonic receivers 19a-d for receiving ultrasonic waves and outputting electrical signals indicating the waveforms of the received ultrasonic waves to the karaoke apparatus 10, and karaoke A media drive 21 for storing data output from the apparatus 10 in a storage medium such as a flash memory is provided. The karaoke apparatus 10 is connected to the Internet 22.

カラオケシステム1は、上記のようにマイク、スピーカ、ビデオカメラ、カメラ移動装置、照明装置、ディスプレイ、超音波受信器および赤外線受信器をそれぞれ複数備えているが、以下、複数の同種の構成部を区別する必要がない場合には、単にマイク12のように呼ぶ。また、カラオケシステム1が備えるマイク12等の数は例示であり、超音波受信器19の数が4以上である点、また赤外線受信器20が後述するようにユーザの身体の方向を特定可能な程度に多数である点を除き、自由に変更可能である。   The karaoke system 1 includes a plurality of microphones, speakers, video cameras, camera moving devices, lighting devices, displays, ultrasonic receivers, and infrared receivers as described above. When it is not necessary to distinguish between them, they are simply called as the microphone 12. In addition, the number of microphones 12 and the like provided in the karaoke system 1 is an example, the number of ultrasonic receivers 19 is four or more, and the direction of the user's body can be specified by the infrared receiver 20 as will be described later. It can be changed freely except for the large number.

マイク12aおよびbは、各々、超音波を発生する超音波発生器121aおよびbを備えており、上述したように断続的に超音波を発生するが、超音波発生器121aおよびbの発生する超音波の周波数は互いに異なり、いずれの超音波がマイク12aおよびbのいずれから発せされたものであるかの区別が可能となっている。超音波発生器121aおよびbは、カラオケルーム内においてマイク12aおよびbから発せられた超音波が超音波受信器19a〜dに到達するために要する時間よりも十分に長い時間間隔で、超音波の発生を繰り返す。より具体的には、例えば超音波発生器121aおよびbは、0.5秒間、超音波を発した後、1秒間は超音波を発せず、その後、同様の処理を繰り返す。これは、後述する位置方向算出部205の処理において、マイク12aおよびbからの距離が異なる超音波受信器19a〜dの各々が次々と受信する超音波のうち、いずれが同じタイミングでマイク12aおよびbから発せされたものであるかを容易に区別可能とするためである。   Each of the microphones 12a and 12b includes ultrasonic generators 121a and 121b that generate ultrasonic waves, and intermittently generates ultrasonic waves as described above, but the ultrasonic waves generated by the ultrasonic generators 121a and 121b are generated. The frequencies of the sound waves are different from each other, and it is possible to distinguish which ultrasonic wave is emitted from any of the microphones 12a and b. The ultrasonic generators 121a and 121b are arranged at a time interval sufficiently longer than the time required for the ultrasonic waves emitted from the microphones 12a and 12b to reach the ultrasonic receivers 19a to 19d in the karaoke room. Repeat occurrence. More specifically, for example, the ultrasonic generators 121a and 121b emit ultrasonic waves for 0.5 seconds, do not emit ultrasonic waves for 1 second, and then repeat the same processing. This is because, in the processing of the position / direction calculation unit 205 described later, among the ultrasonic waves received by the ultrasonic receivers 19a to 19d having different distances from the microphones 12a and 12b one after another, the microphone 12a and This is because it can be easily distinguished whether it is emitted from b.

また、マイク12aおよびbは、各々、赤外線を発生する赤外線発生器122aおよびbを備えており、上述したように継続的に赤外線を照射するが、赤外線発生器122aおよびbの発生する赤外線の波長は互いに異なり、いずれの赤外線がマイク12aおよびbのいずれから発せされたものであるかの区別が可能となっている。図3は、マイク12に赤外線発生器122が配置されている様子を示す図である。赤外線発生器122は、マイク12の本体部とヘッド部の接合部にリング状に配置されており、その外周面には同じ波長の赤外線を照射可能な多数の赤外線発光ダイオード1221が配置されている。マイク12は、このようにリング状に配置された赤外線発光ダイオード1221から赤外線を様々な方向に照射することができる。ただし、マイク12から様々な方向に赤外線を照射可能であれば、赤外線発光ダイオード1221の配置方法はリング状である必要はない。   In addition, the microphones 12a and b are respectively provided with infrared generators 122a and b that generate infrared rays, and continuously irradiate infrared rays as described above. However, the wavelengths of infrared rays generated by the infrared generators 122a and b are as follows. Are different from each other, and it is possible to distinguish which infrared rays are emitted from any of the microphones 12a and b. FIG. 3 is a diagram illustrating a state in which the infrared generator 122 is disposed in the microphone 12. The infrared generator 122 is arranged in a ring shape at the junction between the main body and the head of the microphone 12, and a large number of infrared light emitting diodes 1221 capable of emitting infrared rays of the same wavelength are arranged on the outer peripheral surface thereof. . The microphone 12 can irradiate infrared rays in various directions from the infrared light emitting diodes 1221 arranged in a ring shape in this way. However, if infrared rays can be emitted from the microphone 12 in various directions, the arrangement method of the infrared light emitting diodes 1221 does not need to be ring-shaped.

続いて、カラオケ装置10の構成を説明する。カラオケ装置10は記憶部101、入出力I/F(Interface)102および制御部103を備えている。記憶部101は、制御部103による各種処理を指示するプログラムを予め記憶し、また制御部103により生成されるデータを一時的に記憶する。さらに、記憶部101は予め、複数のカラオケデータ1001を記憶している。   Then, the structure of the karaoke apparatus 10 is demonstrated. The karaoke apparatus 10 includes a storage unit 101, an input / output I / F (Interface) 102, and a control unit 103. The storage unit 101 stores a program for instructing various processes by the control unit 103 in advance, and temporarily stores data generated by the control unit 103. Furthermore, the storage unit 101 stores a plurality of karaoke data 1001 in advance.

以下、カラオケデータ1001の内容を説明する。図4は、カラオケデータ1001の構成を模式的に示している。図4においては、記憶部101に記憶されているカラオケデータ1001として、各々異なる楽曲に関する3つのカラオケデータ1001、すなわちカラオケデータ1001a〜cが例示されている。カラオケデータ1001は、カラオケ楽曲の自動演奏およびディスプレイ18に表示される画像生成に関連する各種処理を指示するデータである。カラオケデータ1001は、管理データ、シーケンスデータおよびソースデータ群を含んでいる。管理データは、カラオケデータを識別するための識別番号および楽曲名を示すデータである。   Hereinafter, the contents of the karaoke data 1001 will be described. FIG. 4 schematically shows the configuration of the karaoke data 1001. In FIG. 4, as the karaoke data 1001 stored in the storage unit 101, three karaoke data 1001 relating to different music pieces, that is, karaoke data 1001a to 1001c are illustrated. Karaoke data 1001 is data for instructing various processes related to automatic performance of karaoke music and image generation displayed on the display 18. Karaoke data 1001 includes management data, sequence data, and source data group. The management data is data indicating an identification number and a song name for identifying karaoke data.

図4に示されるように、シーケンスデータは、カラオケ楽曲の自動演奏を指示するサウンドトラック、照明装置17の動作を指示する照明トラック、ビデオカメラ15およびカメラ移動装置16の動作を指示するカメラトラック、画像データの加工処理を指示するビジュアルトラックを含んでいる。   As shown in FIG. 4, the sequence data includes a sound track for instructing automatic performance of karaoke music, a lighting track for instructing operation of the lighting device 17, a camera track for instructing operations of the video camera 15 and the camera moving device 16, It includes a visual track that directs image data processing.

サウンドトラックは、カラオケ楽曲の自動演奏を指示する演奏制御データであり、例えばSMF(Standard MIDI File)形式のデータである。図5は、サウンドトラックの内容を例示している。ただし、図5においては、説明のため、SMFの表現形式を簡便化している。サウンドトラックは、互いに対応付けられたタイミングデータとイベントデータからなるタイミング付イベントデータを複数、含んでいる。タイミングデータは、楽曲におけるタイミングを示すデータである。この点はサウンドトラックに含まれるタイミングデータに限らず、以下に説明するいずれのトラックに含まれるタイミングデータに関しても同様である。一方、イベントデータはいずれのトラックに含まれるものであるかに応じてその内容が異なる。以下、それらのいくつかを例示するが、イベントデータの種類は以下に説明するものに限られないことは言うまでもない。   The sound track is performance control data for instructing automatic performance of karaoke music, and is, for example, data in SMF (Standard MIDI File) format. FIG. 5 illustrates the contents of a sound track. However, in FIG. 5, the SMF expression format is simplified for the sake of explanation. The sound track includes a plurality of event data with timing including timing data and event data associated with each other. Timing data is data indicating the timing of music. This is not limited to the timing data included in the sound track, and the same applies to the timing data included in any of the tracks described below. On the other hand, the contents of the event data differ depending on which track is included in the event data. Hereinafter, some of them will be exemplified, but it goes without saying that the types of event data are not limited to those described below.

サウンドトラックに含まれるイベントデータは、楽音の発音に関する指示および発音される音に対する効果付加の指示を行うデータである。例えば、イベントデータ[1ch:ノートオン:D4:74]は、第1のチャンネルに割り当てられた音色の音高D4の楽音を、音強74で発音することを指示している。ここで、チャンネルとは楽曲に含まれる個々の演奏パートのことである。また、例えばイベントデータ[1ch:ディレイ:0.5秒]は、第1のチャンネルの音に対し0.5秒のディレイ効果を付加することを指示している。また、例えばイベントデータ[3ch:再生:S514.wav]は、第3のチャンネルとして、音データファイル「S514.wav」に格納される音データの再生を行うことを指示している。   The event data included in the sound track is data for instructing the pronunciation of a musical sound and adding an effect to the sound to be generated. For example, the event data [1ch: note on: D4: 74] indicates that a musical tone having a tone pitch D4 assigned to the first channel is to be generated with a tone strength of 74. Here, the channel is an individual performance part included in the music. Also, for example, event data [1ch: delay: 0.5 seconds] instructs to add a 0.5 second delay effect to the sound of the first channel. Further, for example, event data [3ch: reproduction: S514. wav] instructs to reproduce the sound data stored in the sound data file “S514.wav” as the third channel.

照明トラックに含まれるイベントデータは、照明装置17の動作を指示するタイミング付イベントデータの集まりである。以下、イベントデータにより制御される照明装置17の動作は照明の色および強さであるものとして説明するが、例えばフォーカスの強さの変更等、他の動作の制御をイベントデータにより指示するようにしてもよい。図6は、照明トラックの内容を例示している。例えば、イベントデータ[照明1:色:赤]は、照明1に割り当てられた照明装置17に対し、照明の色として赤を選択することを指示している。本実施形態においては、照明1〜8の各々には照明装置17a〜hが割り当てられているものとする。また、例えば、イベントデータ[照明1:強さ:0→5:3.2秒]は、照明1、すなわち照明装置17aに対し、照明の強さを「0」で示される強さから「5」で示される強さに3.2秒間で変更することを指示している。以下の説明において、照明の強さを示す数値は「0」〜「9」のいずれかの整数値をとるものとし、大きな整数値はより強い照明を示すものとする。また、「0」は照明の消灯を示す。従って、例えば、イベントデータ[照明1:強さ:0]は、照明装置17aに対し照明の消灯を指示している。このように、変更に要する時間を指定しないイベントデータは、その変更を瞬時に行うことを指示している。   The event data included in the lighting track is a collection of timed event data that instructs the operation of the lighting device 17. Hereinafter, the operation of the lighting device 17 controlled by the event data will be described as being the color and intensity of the illumination. However, for example, the control of other operations such as changing the focus intensity is instructed by the event data. May be. FIG. 6 illustrates the contents of the lighting track. For example, the event data [lighting 1: color: red] instructs the lighting device 17 assigned to the lighting 1 to select red as the lighting color. In the present embodiment, it is assumed that lighting devices 17a to 17h are assigned to each of the lighting devices 1 to 8. Further, for example, the event data [lighting 1: intensity: 0 → 5: 3.2 seconds] indicates that the lighting intensity of the lighting 1, that is, the lighting device 17 a, from the strength indicated by “0” to “5” It is instructed to change the strength indicated by "" in 3.2 seconds. In the following description, the numerical value indicating the intensity of illumination assumes an integer value of “0” to “9”, and a large integer value indicates stronger illumination. “0” indicates that the illumination is turned off. Therefore, for example, the event data [illumination 1: intensity: 0] instructs the illumination device 17a to turn off the illumination. Thus, the event data that does not specify the time required for the change instructs that the change be performed instantaneously.

カメラトラックは、ビデオカメラ15およびカメラ移動装置16の動作を指示するタイミング付イベントデータの集まりである。以下、イベントデータにより制御されるビデオカメラ15の動作は撮像処理の開始・終了およびズームの強さの変更であるものとして説明するが、例えばフォーカスの強さの変更等、他の動作の制御をイベントデータにより指示するようにしてもよい。また、イベントデータにより制御されるカメラ移動装置16の動作はビデオカメラ15の位置変更および左右方向の方向変更であるものとして説明するが、例えば垂直方向の方向変更等、他の動作の制御をイベントデータにより指示するようにしてもよい。図7は、カメラトラックの内容を例示している。例えば、イベントデータ[カメラ1:位置:4]は、カメラ1に割り当てられたビデオカメラ15が取り付けられたカメラ移動装置16に対し、ビデオカメラ15の位置を「4」で示される位置に移動することを指示している。本実施形態においては、カメラ1〜4の各々にはビデオカメラ15a〜dが割り当てられているものとする。また、カメラ位置を示す数値は「1」〜「9」のいずれかの整数値をとるものとし、数値の増加に伴い、ビデオカメラ15の位置がユーザから見て右から左に変化するものとする。   The camera track is a collection of timed event data for instructing the operations of the video camera 15 and the camera moving device 16. Hereinafter, the operation of the video camera 15 controlled by the event data will be described as the start / end of the imaging process and the change of the zoom strength. However, other operations such as a change of the focus strength are controlled. You may make it instruct | indicate by event data. The operation of the camera moving device 16 controlled by the event data will be described as changing the position of the video camera 15 and changing the direction in the left-right direction. However, other operations such as changing the direction in the vertical direction are controlled by the event. You may make it instruct | indicate by data. FIG. 7 illustrates the contents of the camera track. For example, the event data [Camera 1: Position: 4] moves the position of the video camera 15 to the position indicated by “4” with respect to the camera moving device 16 to which the video camera 15 assigned to the camera 1 is attached. I have indicated that. In the present embodiment, it is assumed that video cameras 15a to 15d are assigned to the cameras 1 to 4, respectively. The numerical value indicating the camera position is an integer value of “1” to “9”, and as the numerical value increases, the position of the video camera 15 changes from right to left as viewed from the user. To do.

また、例えば、イベントデータ[カメラ1:ズーム:7]は、カメラ1に割り当てられたビデオカメラ15、すなわちビデオカメラ15aに対し、ズームの倍率を「7」で示される倍率に変更することを指示している。ズームの倍率を示す数値は「1」〜「9」のいずれかの整数値をとるものとし、数値が大きい程、ズームの倍率が大きいことを示すものとする。また、例えば、イベントデータ[カメラ1:方向:3]はビデオカメラ15aが取り付けられたカメラ移動装置16、すなわちカメラ移動装置16aに対し、ビデオカメラ15aの撮像方向を「3」で示される方向に変更することを指示している。ビデオカメラ15の撮像方向を示す数値は「1」〜「9」のいずれかの整数値をとるものとし、数値の増加に伴い、ビデオカメラ15の撮像方向が右から左に変化するものとする。そして、カメラ位置を示す数値とカメラ方向を示す数値とが一致する場合、ビデオカメラ15はカラオケルームの中心付近を向くようになっている。従って、例えば、イベントデータ[カメラ1:位置:4→6:4.2秒]および[カメラ1:方向:4→6:4.2秒]が同じタイミングでカメラ移動装置16aに送信された場合、カメラ移動装置16aはこれらのイベントデータに従い、カメラ移動装置16aの位置を移動させるとともに撮像方向を変更する結果、カメラ移動装置16aはユーザから見て右から左に移動しつつ、常にカラオケルームの中心付近を向くことになる。また、イベントデータ[カメラ1:ON]および[カメラ1:OFF]はそれぞれ、カメラ移動装置16aの撮像処理の開始および終了を指示するイベントデータである。   For example, the event data [Camera 1: Zoom: 7] instructs the video camera 15 assigned to the camera 1, that is, the video camera 15 a to change the zoom magnification to the magnification indicated by “7”. is doing. The numerical value indicating the zoom magnification is an integer value from “1” to “9”, and the larger the numerical value is, the higher the zoom magnification is. Further, for example, the event data [camera 1: direction: 3] indicates that the imaging direction of the video camera 15a is the direction indicated by “3” with respect to the camera moving device 16 to which the video camera 15a is attached, that is, the camera moving device 16a. It is instructed to change. The numerical value indicating the imaging direction of the video camera 15 takes an integer value of “1” to “9”, and the imaging direction of the video camera 15 changes from right to left as the numerical value increases. . When the numerical value indicating the camera position matches the numerical value indicating the camera direction, the video camera 15 faces the vicinity of the center of the karaoke room. Therefore, for example, when event data [Camera 1: Position: 4 → 6: 4.2 seconds] and [Camera 1: Direction: 4 → 6: 4.2 seconds] are transmitted to the camera moving device 16a at the same timing. The camera moving device 16a moves the position of the camera moving device 16a and changes the imaging direction in accordance with these event data. As a result, the camera moving device 16a moves from right to left as viewed from the user, and always moves the karaoke room. It turns to the vicinity of the center. The event data [Camera 1: ON] and [Camera 1: OFF] are event data for instructing the start and end of the imaging process of the camera moving device 16a, respectively.

ビジュアルトラックは、ディスプレイ18に表示されるべき画像を示す画像データの生成を指示するタイミング付イベントデータの集まりである。本実施形態においてディスプレイ18に表示される画像は、複数の表示レイヤをスーパーインポーズして得られる画像であり、表示レイヤは最背後から前面方向に向かい、背景レイヤ、第1レイヤ、第2レイヤ、・・・、第#レイヤ、歌詞レイヤの順に並んでいる。ただし、「#」は任意の自然数である。カラオケ装置10は、ビジュアルトラックに従い、各表示レイヤに関し指定されたソースの画像データに対し加工処理を施した後、それらを合成処理することにより、表示用の画像データを生成する。ただし、ディスプレイ18に実際に表示される画像は、後述するように、ビジュアルトラックに従って生成された画像データに対し、さらにガイダンス表示の画像データがスーパーインポーズされたものである。   The visual track is a collection of timed event data instructing generation of image data indicating an image to be displayed on the display 18. In the present embodiment, the image displayed on the display 18 is an image obtained by superimposing a plurality of display layers. The display layer is directed from the back to the front, and the background layer, the first layer, and the second layer. ,..., Arranged in the order of the # layer and the lyrics layer. However, “#” is an arbitrary natural number. The karaoke apparatus 10 generates image data for display by performing processing on the source image data specified for each display layer in accordance with the visual track and then synthesizing them. However, as will be described later, the image actually displayed on the display 18 is obtained by superimposing the guidance display image data on the image data generated according to the visual track.

図8は、ビジュアルトラックの内容を例示している。例えば、イベントデータ[背景レイヤ:ソース:S713.jpeg]は、背景レイヤに配置する画像データのソースとして、静止画データファイル「S713.jpeg」に格納される静止画データを用いることを指示している。以下、拡張子が「.jpeg」であるファイルは静止画データファイル、拡張子が「.mpeg」であるファイルは動画データファイルであるものとする。従って、例えばイベントデータ[背景レイヤ:ソース:S151.mpeg]は、背景レイヤに配置する画像データのソースとして、動画データファイル「S151.mpeg」に格納される動画データの再生により得られる画像データを順次用いることを指示している。同様に、イベントデータ[第1レイヤ:ソース:カメラ1]は、第1レイヤに配置する画像データのソースとして、カメラ1、すなわちビデオカメラ15aの撮像処理により生成される画像データを順次用いることを指示している。   FIG. 8 illustrates the contents of the visual track. For example, event data [background layer: source: S713. jpeg] instructs to use the still image data stored in the still image data file “S713.jpeg” as the source of the image data to be arranged in the background layer. In the following, it is assumed that a file with the extension “.jpeg” is a still image data file, and a file with the extension “.mpeg” is a moving image data file. Therefore, for example, event data [background layer: source: S151. mpeg] instructs to sequentially use image data obtained by reproducing moving image data stored in the moving image data file “S151.mpeg” as a source of image data to be arranged in the background layer. Similarly, the event data [first layer: source: camera 1] sequentially uses image data generated by the imaging processing of the camera 1, that is, the video camera 15a, as the source of image data arranged in the first layer. I am instructing.

また、例えば、イベントデータ[第1レイヤ:窓サイズ:7]、[第1レイヤ:窓形状:長方形]および[第1レイヤ:窓位置:(120,80)]は、各々、第1レイヤにサイズ「7」で示される窓を開き、その窓の形状を長方形に変更し、さらにその窓の代表点(例えば窓形状が長方形であれば対角線の交点等)がディスプレイ18の画面上の座標(120,80)に一致するように窓の位置を変更することを指示している。窓が開かれた場合、そのレイヤに配置された画像は窓の内側にのみ表示される。窓の外側は透過表示となるため、その部分には下位レイヤの画像が表示されることになる。   Also, for example, event data [first layer: window size: 7], [first layer: window shape: rectangular], and [first layer: window position: (120, 80)] are respectively stored in the first layer. A window indicated by size “7” is opened, the window shape is changed to a rectangle, and the representative point of the window (for example, the intersection of diagonal lines if the window shape is a rectangle) is the coordinates on the screen of the display 18 ( 120, 80) is instructed to change the window position. When a window is opened, the image placed in that layer is displayed only inside the window. Since the outside of the window is transmissive display, an image of a lower layer is displayed in that portion.

また、例えば、イベントデータ[第1レイヤ:フェードイン:3.6秒]は第1レイヤに配置されている画像データに対し3.6秒間かけてフェードイン処理を施すこと、またイベントデータ[背景レイヤ:色調:カラー→セピア:3.6秒]は背景レイヤに配置されている画像データに対し3.6秒間かけてカラーからセピア色への色調変更処理を施すことを指示している。これらの画像データの加工処理は例示であり、ビジュアルトラックには、ディゾルブ処理、モーフィング処理等、様々な加工処理を指示するイベントデータが含まれ得る。   Further, for example, event data [first layer: fade-in: 3.6 seconds] is obtained by performing fade-in processing over 3.6 seconds on image data arranged in the first layer, and event data [background Layer: Color tone: Color → Sepia: 3.6 seconds] instructs the image data arranged in the background layer to be subjected to a color change process from color to sepia over 3.6 seconds. The processing of these image data is an example, and the visual track can include event data for instructing various types of processing such as a dissolve process and a morph process.

イベントデータ[歌詞レイヤ:(32,140):「時」:黄:表示]は、歌詞レイヤ上の座標(32,140)で示される位置に、文字「時」を黄色で表示することを指示している。また、イベントデータ[歌詞レイヤ:(32,140):消去]は、歌詞レイヤ上の座標(32,140)で示される位置に表示されている文字を消去、すなわち非表示にすることを指示している。   Event data [lyric layer: (32, 140): “hour”: yellow: display] indicates that the character “hour” is displayed in yellow at the position indicated by the coordinates (32, 140) on the lyrics layer. is doing. Further, the event data [lyric layer: (32, 140): erase] instructs to erase the character displayed at the position indicated by the coordinates (32, 140) on the lyrics layer, that is, to hide it. ing.

上記のように、ビジュアルトラックにより指示される各表示レイヤにおける表示が合成されることにより、図9に示すような画像を示す画像データが生成されることになる。図9において、表示部分181は背景レイヤによる表示部分、表示部分182は第1レイヤによる表示部分、表示部分183は歌詞レイヤによる表示部分を示している。   As described above, the display in each display layer indicated by the visual track is combined, and image data indicating an image as shown in FIG. 9 is generated. In FIG. 9, a display part 181 shows a display part by a background layer, a display part 182 shows a display part by a first layer, and a display part 183 shows a display part by a lyrics layer.

カラオケデータ1001(図4参照)に含まれるソースデータ群は、上述したサウンドトラックに含まれるイベントデータにより再生指示がなされる音データおよび上述したビジュアルトラックに含まれるイベントデータにより表示指示がなされる静止画データもしくは再生指示がなされる動画データを格納する各種ファイルの集合である。   The source data group included in the karaoke data 1001 (see FIG. 4) is a still data instructed to be displayed by the sound data instructed to be played by the event data included in the sound track and the event data included in the visual track. It is a set of various files for storing image data or moving image data for which a reproduction instruction is given.

図2に戻り、カラオケ装置10の構成説明を続ける。入出力I/F102は、カラオケ装置10に含まれる記憶部101および制御部103がコントローラ11、マイク12、アンプ13、ビデオカメラ15、カメラ移動装置16、照明装置17、ディスプレイ18、超音波受信器19、メディアドライブ21およびインターネット22との間でアナログ信号およびデジタル信号の入出力を行うためのインタフェースである。また、入出力I/F102はA/D(Analog to Digital)コンバータおよびD/A(Digital to Analog)コンバータを備えており、必要に応じてアナログ信号とデジタル信号との間の変換を行う。   Returning to FIG. 2, the description of the configuration of the karaoke apparatus 10 is continued. The input / output I / F 102 includes a storage unit 101 and a control unit 103 included in the karaoke device 10, a controller 11, a microphone 12, an amplifier 13, a video camera 15, a camera moving device 16, a lighting device 17, a display 18, and an ultrasonic receiver. 19, an interface for inputting / outputting analog signals and digital signals between the media drive 21 and the Internet 22. The input / output I / F 102 includes an A / D (Analog to Digital) converter and a D / A (Digital to Analog) converter, and performs conversion between an analog signal and a digital signal as necessary.

制御部103は、カラオケデータ1001に含まれるサウンドトラックに従い、カラオケ楽曲の演奏音を示す音データを生成するとともに、マイク12により拾音された音を示す音声データに各種加工処理を施し、その結果得られる音データをカラオケ楽曲の演奏音を示す音データに合成処理した後、アンプ13に出力する。また、制御部103は、カラオケデータ1001に含まれる照明トラックに従い、照明装置17の動作制御を行う。また、制御部103は、カラオケデータ1001に含まれるカメラトラックに従い、ビデオカメラ15およびカメラ移動装置16の動作制御を行う。また、制御部103は、カラオケデータ1001に含まれるビジュアルトラックに従い、ユーザの画像データ、カラオケデータ1001のソースデータ群に含まれる画像データ等に各種加工処理および合成処理を施し画像データを生成し、生成した画像データをディスプレイ18に出力する。さらに、制御部103は、加工処理および合成処理により生成した音データおよび画像データをビデオデータとして記憶部101に記憶させる。   The control unit 103 generates sound data indicating the performance sound of the karaoke music according to the sound track included in the karaoke data 1001, and performs various processing processes on the sound data indicating the sound picked up by the microphone 12, as a result. The obtained sound data is synthesized with sound data indicating the performance sound of karaoke music, and then output to the amplifier 13. Further, the control unit 103 controls the operation of the lighting device 17 according to the lighting track included in the karaoke data 1001. The control unit 103 controls the operation of the video camera 15 and the camera moving device 16 according to the camera track included in the karaoke data 1001. Further, the control unit 103 generates image data by performing various kinds of processing processing and synthesis processing on the user image data, the image data included in the source data group of the karaoke data 1001, and the like according to the visual track included in the karaoke data 1001. The generated image data is output to the display 18. Further, the control unit 103 causes the storage unit 101 to store sound data and image data generated by the processing process and the synthesis process as video data.

制御部103の構成部は、音データの処理に関する音データブロック201、画像データの処理に関する画像データブロック202、ビデオカメラ15、カメラ移動装置16および照明装置17の動作制御に関する動作制御ブロック203、カラオケデータ1001に含まれるシーケンスデータに従い音データブロック201、画像データブロック202および動作制御ブロック203に対しイベントデータの送信を行うイベントデータ再生部204、超音波受信器19から入力される信号に従いマイク12の各々の位置を算出する位置方向算出部205に区分される。また、制御部103は発振器(図示略)を備えており、制御部103の構成部の処理は発振器により生成されるクロック信号に基づき同期がとられている。   The configuration unit of the control unit 103 includes a sound data block 201 related to sound data processing, an image data block 202 related to image data processing, an operation control block 203 related to operation control of the video camera 15, the camera moving device 16 and the illumination device 17, karaoke. Event data reproduction unit 204 that transmits event data to sound data block 201, image data block 202, and operation control block 203 according to sequence data included in data 1001, and microphone 12 according to a signal input from ultrasonic receiver 19 A position / direction calculation unit 205 that calculates each position is divided. The control unit 103 includes an oscillator (not shown), and the processing of the components of the control unit 103 is synchronized based on a clock signal generated by the oscillator.

音データブロック201は、イベントデータ再生部204から送信されるイベントデータに従い様々な楽音を示す音データを出力する音源部2011と、イベントデータ再生部204から送信されるイベントデータに従いカラオケデータ1001のソースデータ群に含まれる音データの再生を行う音データ再生部2012を備えている。また、音データブロック201は、イベントデータ再生部204から送信されるイベントデータに従い、マイク12により拾音された音を示す音データと音源部2011および音データ再生部2012から送信される音データの各々に各種エフェクト処理等の加工処理を施した後、それらを合成処理して得られる音データをアンプ13に対し出力する音データ加工処理部2013を備えている。   The sound data block 201 includes a sound source unit 2011 that outputs sound data indicating various musical sounds according to event data transmitted from the event data reproducing unit 204, and a source of karaoke data 1001 according to event data transmitted from the event data reproducing unit 204. A sound data reproduction unit 2012 that reproduces sound data included in the data group is provided. The sound data block 201 includes sound data indicating the sound picked up by the microphone 12 and sound data transmitted from the sound source unit 2011 and the sound data reproducing unit 2012 according to the event data transmitted from the event data reproducing unit 204. A sound data processing unit 2013 is provided for outputting to the amplifier 13 sound data obtained by performing processing such as various effect processing on each of them and then synthesizing them.

画像データブロック202は、イベントデータ再生部204から送信されるイベントデータに従いカラオケデータ1001のソースデータ群に含まれる動画データを再生する動画データ再生部2021と、イベントデータ再生部204から送信されるイベントデータに従い歌詞画面を示す画像データを順次生成する歌詞画面生成部2022と、イベントデータ再生部204から送信されるイベントデータおよび位置方向算出部205から送信されるマイク座標データ(後述)に従いユーザに対するガイダンスの表示画面を示す画像データを順次生成するガイダンス画面生成部2023と、イベントデータ再生部204から送信されるイベントデータに従い、動画データ再生部2021、歌詞画面生成部2022、ガイダンス画面生成部2023およびビデオカメラ15の各々から送信される画像データ、そしてカラオケデータ1001のソースデータ群に含まれる静止画データに各種エフェクト処理等の加工処理を施した後、それらを合成処理する画像データ加工処理部2024を備えている。画像の合成処理には、例えば、ある画像に別の画像をスーパーインポーズする処理や、ある画像から別の画像が透けて見えるように両画像を合成する処理が含まれる。画像データ加工処理部2024により生成された画像データはディスプレイ18に送信される。   The image data block 202 includes a moving image data reproducing unit 2021 that reproduces moving image data included in the source data group of the karaoke data 1001 according to the event data transmitted from the event data reproducing unit 204, and an event transmitted from the event data reproducing unit 204. A lyric screen generation unit 2022 that sequentially generates image data indicating a lyric screen according to the data, and guidance to the user according to event data transmitted from the event data reproduction unit 204 and microphone coordinate data (described later) transmitted from the position / direction calculation unit 205 In accordance with event data transmitted from the event data reproducing unit 204, the guidance screen generating unit 2023 that sequentially generates image data indicating the display screen of the video, the moving image data reproducing unit 2021, the lyrics screen generating unit 2022, and the guidance screen generating unit 202 And image data transmitted from each of the video cameras 15 and an image data processing unit that performs various processing such as effect processing on still image data included in the source data group of the karaoke data 1001 and then synthesizes them. 2024 is provided. The image composition process includes, for example, a process of superimposing another image on an image and a process of compositing both images so that another image can be seen through the image. The image data generated by the image data processing unit 2024 is transmitted to the display 18.

ガイダンス画面生成部2023により生成される画像データにより示されるガイダンスとは、歌唱を行っているユーザに対し、以下に例示するような様々な情報を提供する表示である。
(a)現在、いずれのビデオカメラ15により撮像された画像がディスプレイ18の表示に用いられているか。
(b)ディスプレイ18の表示に用いられる画像の撮像を行うビデオカメラ15が変更される場合、いつのタイミングでその変更が行われるか。
(c)ディスプレイ18の表示に用いられる画像の撮像を行うビデオカメラ15が変更される場合、変更後のビデオカメラ15はいずれのビデオカメラ15であるか。
(d)ビデオカメラ15の各々の現在の位置はどこか。
(e)ビデオカメラ15の各々の現在の撮像方向はどの方向か。
(f)ビデオカメラ15の各々の現在のズーム倍率はどの程度か。
(g)ユーザの現在の位置はどこか。
(h)現在、照明装置17の各々がいずれの色で光を照射しているか。
(i)現在、照明装置17の各々がどの程度の強さで光を照射しているか。
(j)照明装置17が光の照射を開始もしくは停止する場合、いつのタイミングでその開始もしくは停止が行われるか。
(k)ビデオカメラ15により撮像された画像に対しディゾルブ処理等の各種加工処理が施される場合、いずれの種類の加工処理が行われるか。
(l)ビデオカメラ15により撮像された画像に対しディゾルブ処理等の各種加工処理が施される場合、どの時間帯に加工処理が行われるか。
The guidance indicated by the image data generated by the guidance screen generation unit 2023 is a display that provides various information as exemplified below to a user who is singing.
(A) Which video camera 15 is currently used for displaying on the display 18 by the video camera 15.
(B) When the video camera 15 that captures an image used for display on the display 18 is changed, when is the change made?
(C) When the video camera 15 that captures an image used to display the display 18 is changed, which video camera 15 is the changed video camera 15?
(D) Where is the current position of each video camera 15?
(E) Which is the current imaging direction of each video camera 15?
(F) What is the current zoom magnification of each video camera 15?
(G) Where is the user's current location?
(H) In which color each of the illumination devices 17 is currently irradiating light.
(I) At what intensity each of the illumination devices 17 emits light.
(J) When the lighting device 17 starts or stops the light irradiation, when is the start or stop being performed?
(K) When various types of processing such as dissolve processing are performed on the image captured by the video camera 15, which type of processing is performed.
(L) When various types of processing such as dissolve processing are performed on an image captured by the video camera 15, at which time zone the processing is performed.

具体的なガイダンスの表示例については、後述する動作説明において併せて説明する。また、上記以外にも、例えば照明装置17により照射される光の色や強さが徐々に変化する場合にどの時間帯にその変更が行われるか等、ガイダンスの内容としては様々なものが考えられる。   A specific guidance display example will be described together in the operation description to be described later. In addition to the above, for example, there are various guidance contents such as in which time zone the change is made when the color or intensity of the light irradiated by the lighting device 17 gradually changes. It is done.

動作制御ブロック203は、イベントデータ再生部204から送信されるイベントデータに従い、ビデオカメラ15、カメラ移動装置16および照明装置17の各々の動作制御を行うカメラ動作制御部2031、移動動作制御部2032および照明動作制御部2033を備えている。   The operation control block 203 includes a camera operation control unit 2031, a movement operation control unit 2032, and a movement operation control unit 2032 that perform operation control of the video camera 15, the camera moving device 16, and the lighting device 17 in accordance with event data transmitted from the event data reproducing unit 204. An illumination operation control unit 2033 is provided.

イベントデータ再生部204は、カラオケデータ1001のシーケンスデータに含まれるタイミングデータにより示されるタイミングで、各々のイベントデータを、その内容に応じて以下のように各構成部に送信する。   The event data reproducing unit 204 transmits each event data to each component unit according to the content at the timing indicated by the timing data included in the sequence data of the karaoke data 1001 as follows.

(a)サウンドトラックに含まれる楽音の発音を指示するイベントデータ→音源部2011。
(b)サウンドトラックに含まれる音データの再生を指示するイベントデータ→音データ再生部2012。
(c)サウンドトラックに含まれる音に対するエフェクト処理を指示するイベントデータ→音データ加工処理部2013。
(d)照明トラックに含まれるイベントデータ→照明動作制御部2033。
(e)カメラトラックに含まれるカメラ位置およびカメラの撮像方向に関するイベントデータ→移動動作制御部2032。
(f)カメラトラックに含まれるカメラのズーム倍率およびON/OFFに関するイベントデータ→カメラ動作制御部2031。
(g)ビジュアルトラックに含まれる動画データの再生を指示するイベントデータ→動画データ再生部2021。
(h)ビジュアルトラックに含まれる歌詞表示を指示するイベントデータ→歌詞画面生成部2022。
(i)ビジュアルトラックに含まれる歌詞表示を指示するイベントデータ以外のイベントデータ→画像データ加工処理部2024。
(A) Event data for instructing pronunciation of a musical tone included in a sound track → sound source unit 2011.
(B) Event data instructing reproduction of sound data included in the sound track → sound data reproduction unit 2012.
(C) Event data instructing effect processing for sound included in the sound track → sound data processing unit 2013.
(D) Event data included in the lighting track → lighting operation control unit 2033.
(E) Event data regarding the camera position and the imaging direction of the camera included in the camera track → the movement operation control unit 2032.
(F) Event data regarding camera zoom magnification and ON / OFF included in the camera track → camera operation control unit 2031.
(G) Event data instructing reproduction of moving image data included in the visual track → moving image data reproducing unit 2021.
(H) Event data instructing display of lyrics included in the visual track → lyric screen generation unit 2022.
(I) Event data other than event data instructing display of lyrics included in the visual track → image data processing unit 2024.

上記に加え、イベントデータ再生部204は、カラオケデータ1001のシーケンスデータに含まれるタイミングデータにより示されるタイミングよりも所定時間、例えば10秒間だけ早いタイミングで、以下のイベントデータをガイダンス画面生成部2023に送信する。
(イ)照明トラックに含まれるイベントデータ。
(ロ)カメラトラックに含まれるイベントデータ。
(ハ)ビジュアルトラックに含まれるイベントデータのうち、ソースとしていずれかのビデオカメラ15を指定するイベントデータ。
In addition to the above, the event data reproducing unit 204 sends the following event data to the guidance screen generating unit 2023 at a timing earlier by a predetermined time, for example, 10 seconds than the timing indicated by the timing data included in the sequence data of the karaoke data 1001. Send.
(A) Event data included in the lighting track.
(B) Event data included in the camera track.
(C) Event data that designates one of the video cameras 15 as a source among the event data included in the visual track.

上記のように、イベントデータ再生部204はガイダンス画面生成部2023に対し、タイミングデータにより示されるタイミング、すなわち照明装置17の点灯・消灯やビデオカメラ15の切替等が実際に実行されるタイミングよりも早いタイミングでイベントデータを送信するので、ガイダンス画面生成部2023はそれらのイベントの発生を前もってユーザに知らせるガイダンス表示用の画像データを生成することができる。   As described above, the event data reproduction unit 204 gives the guidance screen generation unit 2023 the timing indicated by the timing data, that is, the timing when the lighting device 17 is turned on / off and the video camera 15 is actually switched. Since the event data is transmitted at an early timing, the guidance screen generation unit 2023 can generate image data for guidance display that informs the user in advance of the occurrence of those events.

位置方向算出部205は、カラオケルーム(図1参照)の上方に配置された超音波受信器19a〜dの各々から超音波を示す音データを受信する。超音波受信器19a〜dにより拾音される超音波は、マイク12aおよびbの各々に備えられた超音波発生器121aおよびbから断続的に発せられる超音波である。上述したように、超音波発生器121aおよびbの各々から発せられる超音波は互いに周波数が異なっており、位置方向算出部205は、超音波受信器19a〜dの各々から、2つの異なる周波数の超音波が混合した音を示す音データを受信する。そこで位置方向算出部205は、2つの各々の周波数に関し、一方の周波数を含み他方の周波数を含まない周波数帯の成分のみを通過させるバンドパスフィルタで超音波受信器19から受信した音データを濾波する。そのような濾波処理により得られる音データは、それぞれ、超音波発生器121aから発せられた超音波を示すデータおよび超音波発生器121bから発せられた超音波を示すデータである。   The position / direction calculation unit 205 receives sound data indicating ultrasonic waves from each of the ultrasonic receivers 19a to 19d disposed above the karaoke room (see FIG. 1). The ultrasonic waves picked up by the ultrasonic receivers 19a to 19d are ultrasonic waves emitted intermittently from the ultrasonic generators 121a and 121b provided in the microphones 12a and 12b, respectively. As described above, the ultrasonic waves generated from each of the ultrasonic generators 121a and 121b have different frequencies from each other, and the position / direction calculation unit 205 receives two different frequencies from each of the ultrasonic receivers 19a to 19d. Sound data indicating a sound mixed with ultrasonic waves is received. Therefore, the position / direction calculation unit 205 filters the sound data received from the ultrasonic receiver 19 with a band-pass filter that passes only the components of the frequency band that includes one frequency and does not include the other frequency for each of the two frequencies. To do. The sound data obtained by such filtering processing is data indicating the ultrasonic waves emitted from the ultrasonic generator 121a and data indicating the ultrasonic waves emitted from the ultrasonic generator 121b, respectively.

位置方向算出部205は、超音波受信器19a〜dの各々から受信した音データに関し、上記の濾波処理を行うことにより、以下のように8組のデータを生成する。
(a)超音波発生器121aから発せられ、超音波受信器19aにより受信された超音波を示すデータ(「超音波データaa」と呼ぶ)。
(b)超音波発生器121aから発せられ、超音波受信器19bにより受信された超音波を示すデータ(「超音波データab」と呼ぶ)。
(c)超音波発生器121aから発せられ、超音波受信器19cにより受信された超音波を示すデータ(「超音波データac」と呼ぶ)。
(d)超音波発生器121aから発せられ、超音波受信器19dにより受信された超音波を示すデータ(「超音波データad」と呼ぶ)。
(e)超音波発生器121bから発せられ、超音波受信器19aにより受信された超音波を示すデータ(「超音波データba」と呼ぶ)。
(f)超音波発生器121bから発せられ、超音波受信器19bにより受信された超音波を示すデータ(「超音波データbb」と呼ぶ)。
(g)超音波発生器121bから発せられ、超音波受信器19cにより受信された超音波を示すデータ(「超音波データbc」と呼ぶ)。
(h)超音波発生器121bから発せられ、超音波受信器19dにより受信された超音波を示すデータ(「超音波データbd」と呼ぶ)。
The position / direction calculation unit 205 generates eight sets of data as follows by performing the above-described filtering process on the sound data received from each of the ultrasonic receivers 19a to 19d.
(A) Data indicating the ultrasonic wave emitted from the ultrasonic generator 121a and received by the ultrasonic receiver 19a (referred to as “ultrasonic data aa”).
(B) Data indicating the ultrasonic wave emitted from the ultrasonic generator 121a and received by the ultrasonic receiver 19b (referred to as “ultrasonic data ab”).
(C) Data indicating the ultrasonic wave emitted from the ultrasonic generator 121a and received by the ultrasonic receiver 19c (referred to as “ultrasonic data ac”).
(D) Data indicating an ultrasonic wave emitted from the ultrasonic generator 121a and received by the ultrasonic receiver 19d (referred to as “ultrasonic data ad”).
(E) Data indicating the ultrasonic wave emitted from the ultrasonic generator 121b and received by the ultrasonic receiver 19a (referred to as “ultrasonic data ba”).
(F) Data indicating the ultrasonic wave emitted from the ultrasonic generator 121b and received by the ultrasonic receiver 19b (referred to as “ultrasonic data bb”).
(G) Data indicating the ultrasonic wave emitted from the ultrasonic generator 121b and received by the ultrasonic receiver 19c (referred to as “ultrasonic data bc”).
(H) Data indicating the ultrasonic wave emitted from the ultrasonic generator 121b and received by the ultrasonic receiver 19d (referred to as “ultrasonic data bd”).

超音波データaa、ab、acおよびadは、同じ超音波を示すデータであるが、マイク12aに設けられた超音波発生器121aと、超音波受信器19a〜dの各々との距離が異なるため、超音波受信器19a〜dの各々がそれらを受信するタイミングが異なる。超音波データba、bb、bcおよびbdについても同様である。位置方向算出部205は、このタイミングの差異に基づき、マイク12aおよびbのカラオケルームにおける位置を算出する。マイク12aおよびbのカラオケルームにおける位置の算出方法は同じであるため、以下、マイク12aの位置を算出する場合を例として、その算出方法を例示する。   The ultrasonic data aa, ab, ac, and ad are data indicating the same ultrasonic wave, but the distance between the ultrasonic generator 121a provided in the microphone 12a and each of the ultrasonic receivers 19a to 19d is different. The timing at which each of the ultrasonic receivers 19a to 19d receives them is different. The same applies to the ultrasonic data ba, bb, bc and bd. The position / direction calculation unit 205 calculates the positions of the microphones 12a and 12b in the karaoke room based on the timing difference. Since the calculation method of the positions of the microphones 12a and b in the karaoke room is the same, the calculation method will be exemplified below by taking the case of calculating the position of the microphone 12a as an example.

図10はカラオケルームを上方から見た図である。図10においては、超音波受信器19a〜dの各々の位置が点A(0,0,r)、点B(0,q,r)、点C(p,q,r)および点D(p,0、r)として示されている。また、マイク12aの位置が点X(x,y,z)として示されている。ここで、p、qおよびrはカラオケルームの幅、奥行きおよび高さを示す定数(メートル)である。一方、x、yおよびzはマイク12aの座標を示す変数(メートル)である。ここで、以下の方程式が成立する。ただし、tA、tB、tCおよびtDは、それぞれ点Xから発せられた音が点A〜Dの各々に達するまでに要する時間(秒)を示し、Sは空気中を音が伝播する速さ(メートル/秒)を示す。

Figure 2006171215
FIG. 10 is a view of the karaoke room as viewed from above. In FIG. 10, the positions of the ultrasonic receivers 19a to 19d are point A (0, 0, r), point B (0, q, r), point C (p, q, r) and point D ( p, 0, r). Further, the position of the microphone 12a is shown as a point X (x, y, z). Here, p, q, and r are constants (meters) indicating the width, depth, and height of the karaoke room. On the other hand, x, y and z are variables (meters) indicating the coordinates of the microphone 12a. Here, the following equation holds. Where t A , t B , t C and t D indicate the time (seconds) required for the sound emitted from the point X to reach each of the points A to D, and S propagates the sound in the air. Indicates the speed (meter / second).
Figure 2006171215

ところで、既に述べたように、超音波発生器121は、例えば0.5秒間、超音波を発し続けた後、1秒間、超音波を発しない。従って、位置方向算出部205は、超音波受信器19a〜dのいずれからも超音波データを受け取らない期間が約1秒間続いた後、超音波受信器19a〜dの各々から約0.5秒間の超音波データaa〜adを受信する。そのように受信される超音波データは超音波発生器121aから発せられた同じ超音波を示すデータである。位置方向算出部205は、例えば超音波データaaの値の立ち上がりタイミング、すなわち超音波データaaの値がノイズ成分のレベルを上回る所定の値を下から上に横切って変化する先頭データの受信タイミングを基準とし、超音波データab〜adの各々の立ち上がりタイミングまでの時間(秒)をt1、t2およびt3として算出する。 By the way, as already described, the ultrasonic generator 121 does not emit ultrasonic waves for 1 second after continuing to emit ultrasonic waves for 0.5 seconds, for example. Therefore, the position / direction calculation unit 205 continues for about 1 second from each of the ultrasonic receivers 19a to 19d after the period in which the ultrasonic data is not received from any of the ultrasonic receivers 19a to 19d continues for about 1 second. The ultrasonic data aa to ad are received. The ultrasonic data received as such is data indicating the same ultrasonic wave emitted from the ultrasonic generator 121a. For example, the position / direction calculation unit 205 sets the rising timing of the value of the ultrasound data aa, that is, the reception timing of the leading data that changes across the predetermined value in which the value of the ultrasound data aa exceeds the level of the noise component from the bottom to the top. a reference to calculate the time until the rise timing of each of the ultrasound data ab~ad (seconds) as t 1, t 2 and t 3.

例えば、点Xが図10に示される位置にある場合、以下の方程式が成立する。

Figure 2006171215
For example, when the point X is at the position shown in FIG. 10, the following equation holds.
Figure 2006171215

式1〜式4を、式5〜式7に代入することにより、3つの式からなる3元2次連立方程式が得られる。ここで、x、yおよびzは正値をとるので、位置方向算出部205はこの連立方程式を解くことにより、x、yおよびzを一意に算出することができる。以上が、位置方向算出部205がマイク12の位置を算出する方法である。   By substituting Equations 1 to 4 into Equations 5 to 7, a ternary simultaneous equation consisting of three equations is obtained. Here, since x, y, and z have positive values, the position / direction calculation unit 205 can uniquely calculate x, y, and z by solving the simultaneous equations. The above is the method by which the position / direction calculation unit 205 calculates the position of the microphone 12.

位置方向算出部205は、上記のように算出したマイク12aおよびbの各々の位置を示す座標データXa(xa,ya,za)およびXb(xb,yb,zb)(以下、「マイク座標データ」と呼ぶ)をガイダンス画面生成部2023に順次送信する。マイク座標データは、ガイダンス画面生成部2023において、ユーザの位置を示す画像データの生成に用いられる。 The position / direction calculation unit 205 has coordinate data X a (x a , y a , z a ) and X b (x b , y b , z b ) indicating the positions of the microphones 12a and b calculated as described above. (Hereinafter referred to as “microphone coordinate data”) are sequentially transmitted to the guidance screen generation unit 2023. The microphone coordinate data is used by the guidance screen generation unit 2023 to generate image data indicating the position of the user.

ところで、位置方向算出部205がマイク12の位置を算出する方法は上記のものに限られない。例えば、マイク12の高さ方向の位置が無視できる程度に小さい場合には、二次元平面におけるマイク12の位置、すなわちxおよびyのみを求めるようにしてもよい。その場合、変数が2つとなるので、超音波受信器19の数は3つ以上であればよい。また、マイク12に超音波発生器121を設ける代わりに、図10の超音波受信器19a〜dの位置に超音波発生器121を配置し、マイク12にディスプレイ18を設け、位置方向算出部205はマイク12から超音波データを受信するように構成することにより、上記と類似の算出方法に従い位置方向算出部205がマイク12の位置を算出するようにしてもよい。   By the way, the method by which the position / direction calculation unit 205 calculates the position of the microphone 12 is not limited to the above. For example, when the position of the microphone 12 in the height direction is small enough to be ignored, only the position of the microphone 12 in the two-dimensional plane, that is, x and y may be obtained. In that case, since there are two variables, the number of ultrasonic receivers 19 may be three or more. Further, instead of providing the ultrasonic generator 121 in the microphone 12, the ultrasonic generator 121 is arranged at the position of the ultrasonic receivers 19 a to 19 d in FIG. 10, the display 18 is provided in the microphone 12, and the position / direction calculating unit 205. May be configured to receive ultrasonic data from the microphone 12 so that the position / direction calculation unit 205 calculates the position of the microphone 12 according to a calculation method similar to the above.

位置方向算出部205は、上記のように超音波受信器19から超音波を示す音データを受信する一方で、カラオケルーム(図1参照)の壁面の同じ高さに配置された赤外線受信器20a〜lのうち、赤外線を受信しているものの各々から、いずれの波長の赤外線を受信中であるかを示す受信通知データを十分に短い間隔、例えば10ミリ秒間隔で受信する。   The position / direction calculation unit 205 receives the sound data indicating the ultrasonic waves from the ultrasonic receiver 19 as described above, while the infrared receiver 20a disposed at the same height of the wall surface of the karaoke room (see FIG. 1). The reception notification data indicating which wavelength of infrared light is being received is received at a sufficiently short interval, for example, an interval of 10 milliseconds, from each of those receiving infrared rays.

図11は、図10と同様にカラオケルームを上方から見た図であるが、超音波受信器19の代わりに赤外線受信器20の配置位置を示している。図11において、点Xはマイク12aの位置を示し、点Xから延びている実線矢印はマイク12aを使用中のユーザの正面方向を示している。また、点Xから延びている点線は、マイク12aから照射される赤外線がカラオケルームの壁に届く範囲の境界を示している。すなわち、マイク12aの赤外線発生器122から照射される赤外線の一部は、ユーザの身体に遮られ、カラオケルームの壁まで届かない。従って、図11において点Xの周りに付された実線両側矢印で示される方向に向けて照射された赤外線のみがカラオケルームの壁に届く。その結果、この場合、赤外線受信器20a〜fは位置方向算出部205に対し受信通知データを送信するが、赤外線受信器20g〜lは受信通知データを送信しない。   FIG. 11 is a view of the karaoke room as seen from above as in FIG. 10, but shows the arrangement position of the infrared receiver 20 instead of the ultrasonic receiver 19. In FIG. 11, a point X indicates the position of the microphone 12a, and a solid line arrow extending from the point X indicates the front direction of the user who is using the microphone 12a. Moreover, the dotted line extended from the point X has shown the boundary of the range which the infrared rays irradiated from the microphone 12a reach the wall of a karaoke room. That is, a part of infrared rays irradiated from the infrared generator 122 of the microphone 12a is blocked by the user's body and does not reach the wall of the karaoke room. Therefore, only the infrared rays irradiated in the direction indicated by the solid-line double-sided arrow attached around the point X in FIG. 11 reach the wall of the karaoke room. As a result, in this case, the infrared receivers 20a to 20f transmit the reception notification data to the position / direction calculation unit 205, but the infrared receivers 20g to 20l do not transmit the reception notification data.

位置方向算出部205は、上記のように、一部の赤外線受信器20から受信通知データを受信すると、算出したマイク12aの位置を示す座標データと、受信した受信通知データの送信元の赤外線受信器20の位置を示す座標データに基づき、ユーザの正面方向を推定する。すなわち、位置方向算出部205は、点Xから赤外線が届く範囲が点Xの周りに付された点線両側矢印で示される範囲であると仮定して、その範囲の中央方向、すなわち点Xから延びている点線矢印の方向にユーザが向いている、と推定する。位置方向算出部205は、推定した方向を示すデータ(以下、「ユーザ方向データ」と呼ぶ)をガイダンス画面生成部2023に順次送信する。ユーザ方向データは、ガイダンス画面生成部2023において、ユーザの方向を示す画像データの生成に用いられる。位置方向算出部205により推定されるユーザの方向は、図11に示されるように実際の方向との間に誤差を生じるが、赤外線受信器20の数を増やすことにより、その誤差を実用的な範囲まで小さくすることができる。   When receiving the reception notification data from some of the infrared receivers 20 as described above, the position / direction calculation unit 205 receives the calculated coordinate data indicating the position of the microphone 12a and the infrared reception of the transmission source of the received reception notification data. Based on the coordinate data indicating the position of the container 20, the front direction of the user is estimated. That is, the position / direction calculation unit 205 assumes that the range in which infrared rays reach from the point X is a range indicated by a dotted double-sided arrow attached around the point X, and extends from the center of the range, that is, from the point X. It is estimated that the user is facing in the direction of the dotted arrow. The position / direction calculation unit 205 sequentially transmits data indicating the estimated direction (hereinafter referred to as “user direction data”) to the guidance screen generation unit 2023. The user direction data is used by the guidance screen generation unit 2023 to generate image data indicating the user direction. The user direction estimated by the position / direction calculation unit 205 causes an error between the actual direction as shown in FIG. 11, but by increasing the number of infrared receivers 20, the error can be reduced to a practical one. Can be reduced to a range.

ところで、位置方向算出部205がユーザの方向を推定する方法は上記のものに限られない。例えば、マイク12に方位計を設け、方位計により計測される方位に基づき、ユーザの方向を推定するようにしてもよい。   By the way, the method by which the position / direction calculation unit 205 estimates the direction of the user is not limited to the above. For example, an azimuth meter may be provided in the microphone 12, and the user's direction may be estimated based on the azimuth measured by the azimuth meter.

また、上記のように、超音波によりマイク12の位置を特定し、赤外線によりユーザの方向を推定する代わりに、画像解析処理によりそれらを同時に行うことも考えられる。具体的には、例えばカラオケルームの天井に、床方向に撮像を行うビデオカメラを配置し、そのビデオカメラの撮像処理により得られる画像データから所定の条件を満たす画像を抽出する機能を備えた画像解析部をカラオケ装置10に設ける。画像解析部は、天井に配置されたビデオカメラから送信される画像データから、人間の頭部に相当する大きさのほぼ円形の画像を抽出し、その位置をユーザの位置として特定する。また、画像解析部は、同様にビデオカメラから送信される画像データから、マイクの色・形状に合致する画像を抽出し、その位置をマイク12の位置として特定する。その場合、例えばマイク12の色に特徴を持たせる等により、マイク12の画像抽出の精度を高めることができる。また、マイク12aおよびbの色を互いに異ならせることにより、画像解析部はいずれの画像がいずれのマイク12に対応するかを特定することができる。画像解析部は、そのように特定したユーザの位置からマイク12の位置に向かう方向を、ユーザの正面方向と推定し、ユーザの位置および方向を示すデータを順次、ガイダンス画面生成部2023に送信する。   Further, as described above, instead of specifying the position of the microphone 12 using ultrasonic waves and estimating the direction of the user using infrared rays, it is conceivable to perform them simultaneously by image analysis processing. Specifically, for example, an image having a function of arranging a video camera that performs imaging in the floor direction on the ceiling of a karaoke room and extracting an image that satisfies a predetermined condition from image data obtained by imaging processing of the video camera. An analysis unit is provided in the karaoke apparatus 10. The image analysis unit extracts a substantially circular image having a size corresponding to a human head from image data transmitted from a video camera arranged on the ceiling, and specifies the position as the position of the user. Similarly, the image analysis unit extracts an image that matches the color and shape of the microphone from the image data transmitted from the video camera, and specifies the position as the position of the microphone 12. In that case, for example, the accuracy of image extraction of the microphone 12 can be improved by giving a characteristic to the color of the microphone 12. Further, by making the colors of the microphones 12 a and b different from each other, the image analysis unit can specify which image corresponds to which microphone 12. The image analysis unit estimates the direction from the identified user position to the position of the microphone 12 as the front direction of the user, and sequentially transmits data indicating the user position and direction to the guidance screen generation unit 2023. .

また、画像解析処理によりユーザの位置および方向を特定もしくは推定する代わりに、加速度センサをマイク12に設けることにより、同様の結果を得ることもできる。その場合、マイク12は加速度センサにより検出される加速度およびその方向に基づき、初期位置からの移動方向および移動距離を推定する演算部を備えるようにする。ユーザは、カラオケシステム1を利用するにあたり、マイク12を持ってカラオケルームの所定位置に所定方向に向かって立ち、マイク12に対し所定のボタンを押下する等により、マイク12の演算部に対し初期位置の設定を行うと同時に、演算の開始を指示する。その後、ユーザの動きによりマイク12が移動すると、演算部はその移動方向および移動距離を推定し、初期位置にそれらを順次加算していくことにより、現在のマイク12の位置および方向を推定する。マイク12はそのように推定された位置および方向を示すデータを順次、ガイダンス画面生成部2023に送信する。   Further, instead of specifying or estimating the position and direction of the user by image analysis processing, a similar result can be obtained by providing an acceleration sensor in the microphone 12. In this case, the microphone 12 is provided with a calculation unit that estimates the moving direction and moving distance from the initial position based on the acceleration detected by the acceleration sensor and its direction. When using the karaoke system 1, the user stands at a predetermined position in the karaoke room with a microphone 12 in a predetermined direction, and presses a predetermined button on the microphone 12. At the same time as setting the position, it instructs the start of calculation. Thereafter, when the microphone 12 is moved by the user's movement, the calculation unit estimates the moving direction and moving distance, and sequentially adds them to the initial position, thereby estimating the current position and direction of the microphone 12. The microphone 12 sequentially transmits data indicating the position and direction thus estimated to the guidance screen generation unit 2023.

[1.2.カラオケシステムの動作]
以下、カラオケシステム1の動作を説明する。以下の説明において、同時に2名のユーザがカラオケシステム1を利用するものとするが、同時に利用可能なユーザの数はカラオケシステム1が備えるマイク12の数を上限として自由に変更可能である。
[1.2. Operation of karaoke system]
Hereinafter, the operation of the karaoke system 1 will be described. In the following description, it is assumed that two users use the karaoke system 1 at the same time, but the number of users who can use the karaoke system 1 at the same time can be freely changed up to the number of microphones 12 included in the karaoke system 1.

[1.2.1.ユーザによる選択操作]
図12は、ユーザがカラオケシステム1の利用を開始する際にディスプレイ18に表示される画面を例示している。ユーザがコントローラ11を用いてカラオケ装置10に対し動作開始の指示を行うと、カラオケ装置10はまず、図12(a)の画面をディスプレイ18に表示させ、ユーザに手動モードと自動モードのいずれかを選択するように促す。自動モードとは、カラオケ装置10が、ビデオカメラ15、カメラ移動装置16および照明装置17の制御処理と、画像データ加工処理部2024による画像データのソースとしていずれかのビデオカメラ15を選択する処理を、カラオケデータ1001に含まれるイベントデータに従い行うモードである。一方、手動モードとは、カラオケ装置10がそれらの処理を、ユーザによるコントローラ11を用いたカラオケ装置10に対する指示に従い行うモードである。
[1.2.1. Selection operation by the user]
FIG. 12 illustrates a screen displayed on the display 18 when the user starts using the karaoke system 1. When the user instructs the karaoke apparatus 10 to start operation using the controller 11, the karaoke apparatus 10 first displays the screen of FIG. 12A on the display 18, and allows the user to select either the manual mode or the automatic mode. Prompt to select. The automatic mode is a process in which the karaoke device 10 controls the video camera 15, the camera moving device 16, and the lighting device 17 and selects one of the video cameras 15 as a source of image data by the image data processing unit 2024. This mode is performed according to event data included in karaoke data 1001. On the other hand, the manual mode is a mode in which the karaoke apparatus 10 performs these processes in accordance with instructions from the user to the karaoke apparatus 10 using the controller 11.

より具体的には、図12(a)の画面において、ユーザにより手動モードが選択された場合、イベントデータ再生部204がシーケンスデータに含まれるイベントデータをカラオケ装置10の各構成部に送信する際、照明トラックおよびカメラトラックに含まれるイベントデータを動作制御ブロック203に送信しない。また、イベントデータ再生部204は、ビジュアルトラックに含まれるイベントデータのうち、各表示レイヤのソースとしていずれかのビデオカメラ15を指定するイベントデータを画像データ加工処理部2024に送信しない。その代わり、動作制御ブロック203および画像データ加工処理部2024は、ユーザの操作に応じてコントローラ11から送信される指示データに従い、ビデオカメラ15等の制御処理や、加工処理に用いる画像データのソースの選択処理を行う。   More specifically, when the manual mode is selected by the user on the screen of FIG. 12A, the event data reproducing unit 204 transmits event data included in the sequence data to each component of the karaoke apparatus 10. Event data included in the illumination track and the camera track is not transmitted to the operation control block 203. Also, the event data playback unit 204 does not transmit, to the image data processing unit 2024, event data that designates one of the video cameras 15 as the source of each display layer among the event data included in the visual track. Instead, the operation control block 203 and the image data processing unit 2024 follow the instruction data transmitted from the controller 11 according to the user's operation, and control the video camera 15 and the like as the source of the image data used for the processing. Perform the selection process.

ユーザの操作に応じてコントローラ11から送信される指示データには、カラオケ装置10に対し即時実行すべき処理を指示するもののほか、例えば「5秒後にカメラ1からカメラ4に切り替える」といった近い将来に行われるべき処理や、「5秒間で照明2の色を赤から青に変化させる」といった一定の処理時間を伴う処理を指示するものも含まれる。   In the instruction data transmitted from the controller 11 in response to the user's operation, in addition to instructing the karaoke apparatus 10 to execute the process immediately, for example, “switch from camera 1 to camera 4 after 5 seconds” in the near future. Also included is a process to be performed and an instruction for a process with a certain processing time such as “change the color of the illumination 2 from red to blue in 5 seconds”.

ビデオカメラ15等の制御処理およびビデオカメラ15の選択処理以外の処理に関しては、手動モード、自動モードのいずれのモードにおいても、カラオケ装置10はイベントデータに従ってそれらの処理を行う。   Regarding the processes other than the control process of the video camera 15 and the selection process of the video camera 15, the karaoke apparatus 10 performs these processes in accordance with the event data in both the manual mode and the automatic mode.

図12(a)の画面においてユーザがコントローラ11を用いて、いずれかのモードを選択した後、「OK」ボタンを押下する操作を行うと、カラオケ装置10は図12(b)の画面をディスプレイ18に表示させ、ユーザにガイダンス表示の対象として、カメラおよび照明の各々につき、それらを選択するか否かの指示を促す。   When the user selects one of the modes using the controller 11 on the screen of FIG. 12A and performs an operation of pressing the “OK” button, the karaoke apparatus 10 displays the screen of FIG. 18, and prompts the user to select whether or not to select each of the camera and illumination as guidance display targets.

図12(b)の画面においてユーザがコントローラ11を用いて、カメラ、照明の各々につき、ガイダンス表示を行うか否かを示すチェックを付ける操作もしくは外す操作をした後、「OK」ボタンを押下する操作を行うと、カラオケ装置10は図12(c)の画面をディスプレイ18に表示させ、ユーザにガイダンス表示の方法を選択するように促す。本実施形態においては、例として、ガイダンス表示の方法は「文字で表示」、「バーで表示」、「配置図で表示(1)」および「配置図で表示(2)」のいずれかを選択可能であるものとする。これらの方法が各々、どのような表示に対応するかは、以下の「ガイダンス表示の態様」において説明する。   In the screen of FIG. 12B, the user uses the controller 11 to perform an operation of checking or unchecking whether or not to perform guidance display for each of the camera and lighting, and then pressing the “OK” button. When the operation is performed, the karaoke apparatus 10 displays the screen of FIG. 12C on the display 18 and prompts the user to select a guidance display method. In this embodiment, as an example, the guidance display method is selected from “display with characters”, “display with bars”, “display with layout (1)”, and “display with layout (2)”. It shall be possible. The display corresponding to each of these methods will be described in the “guidance display mode” below.

[1.2.2.シーケンスデータの再生処理]
図12(c)の画面においてユーザがコントローラ11を用いて、いずれかの方法を選択する操作をした後、「OK」ボタンを押下する操作を行うと、カラオケ装置10は図12(d)の画面をディスプレイ18に表示させ、ユーザに楽曲を選択するように促す。カラオケ装置10は図12(d)の画面の表示にあたり、記憶部101に記憶されているカラオケデータ1001の各々に含まれる管理データから楽曲名を示すデータを読み出し、それらをリスト表示し、ユーザに選択可能とする。
[1.2.2. Sequence data playback processing]
When the user performs an operation of selecting one of the methods using the controller 11 on the screen of FIG. 12C and then performs an operation of pressing the “OK” button, the karaoke apparatus 10 displays the screen shown in FIG. A screen is displayed on the display 18 and prompts the user to select a song. When the karaoke apparatus 10 displays the screen of FIG. 12D, the karaoke device 10 reads out data indicating the music title from the management data included in each of the karaoke data 1001 stored in the storage unit 101, displays them as a list, and displays it to the user. Selectable.

図12(d)の画面においてユーザがコントローラ11を用いて、いずれかの楽曲を選択する操作をした後、「OK」ボタンを押下する操作を行うと、カラオケ装置10はまず、ユーザに選択された楽曲名に対応するカラオケデータ1001に含まれるシーケンスデータを記憶部101から読み出す。以下の処理において、カラオケ装置10は読み出したカラオケデータ1001に含まれるシーケンスデータおよびソースデータ群を用いる。   When the user performs an operation of selecting one of the songs using the controller 11 on the screen of FIG. 12D and then performs an operation of pressing the “OK” button, the karaoke device 10 is first selected by the user. The sequence data included in the karaoke data 1001 corresponding to the tune name is read from the storage unit 101. In the following processing, the karaoke apparatus 10 uses sequence data and source data group included in the read karaoke data 1001.

ユーザにより自動モードが選択されている場合、イベントデータ再生部204は、ガイダンス画面生成部2023に対し送信するイベントデータの先読み処理を行う。すなわち、イベントデータ再生部204は、サウンドトラックに従ったカラオケ楽曲の再生の開始タイミングを基準として、(イ)照明トラックに含まれるイベントデータ、(ロ)カメラトラックに含まれるイベントデータ、(ハ)ビジュアルトラックに含まれるイベントデータのうち、ソースとしていずれかのビデオカメラ15を指定するイベントデータ、のそれぞれを、対応付けられているタイミングデータに従ったタイミングよりも所定時間、例えば10秒間だけ早いタイミングで、ガイダンス画面生成部2023に順次送信する処理を開始する。その後、カラオケ楽曲の再生の開始タイミングになると、イベントデータ再生部204は、シーケンスデータに含まれるイベントデータを、対応付けられているタイミングデータに従ったタイミングで、イベントデータの種類に応じたガイダンス画面生成部2023以外の構成部に順次送信する処理を開始する。その結果、ガイダンス画面生成部2023はイベントデータ再生部204から、カラオケ楽曲の自動演奏よりも所定時間だけ早いタイミングで、ビデオカメラ15の切替タイミング等の情報を得ることができる。   When the automatic mode is selected by the user, the event data reproduction unit 204 performs prefetch processing of event data to be transmitted to the guidance screen generation unit 2023. That is, the event data playback unit 204 uses (b) event data included in the illumination track, (b) event data included in the camera track, and (c) based on the start timing of playback of the karaoke music according to the sound track. Among the event data included in the visual track, each of the event data that designates one of the video cameras 15 as a source is a timing earlier by a predetermined time, for example, 10 seconds than the timing according to the associated timing data Then, the process of sequentially transmitting to the guidance screen generation unit 2023 is started. Thereafter, when the playback timing of karaoke music is reached, the event data playback unit 204 displays the event data included in the sequence data at a timing according to the associated timing data, according to the type of event data. A process of sequentially transmitting to components other than the generation unit 2023 is started. As a result, the guidance screen generation unit 2023 can obtain information such as the switching timing of the video camera 15 from the event data playback unit 204 at a timing earlier than the automatic performance of the karaoke music by a predetermined time.

一方、ユーザにより手動モードが選択されている場合、上述したように、イベントデータ再生部204は上記(イ)〜(ハ)のイベントデータをガイダンス画面生成部2023に送信せず、ガイダンス画面生成部2023はイベントデータ再生部204からそれらのイベントデータを受信する代わりに、コントローラ11からユーザによる同様の指示を受信する。従って、イベントデータ再生部204は、上記のガイダンス画面生成部2023に対するイベントデータの先読みおよび送信を行うことなく、シーケンスデータに含まれるイベントデータを、対応付けられているタイミングデータに従ったタイミングで、イベントデータの種類に応じたガイダンス画面生成部2023以外の構成部に順次送信する処理を開始する。   On the other hand, when the manual mode is selected by the user, as described above, the event data reproducing unit 204 does not transmit the event data of (A) to (C) to the guidance screen generating unit 2023, and the guidance screen generating unit 2023 receives the same instruction | indication by a user from the controller 11, instead of receiving those event data from the event data reproduction | regeneration part 204. FIG. Therefore, the event data reproduction unit 204 does not perform prefetching and transmission of event data to the guidance screen generation unit 2023 described above, and the event data included in the sequence data at a timing according to the associated timing data. A process of sequentially transmitting to components other than the guidance screen generator 2023 corresponding to the type of event data is started.

音データブロック201は、イベントデータ再生部204から送信されるイベントデータに従い、カラオケ楽曲の自動演奏を行うとともに、マイク12により拾音される音声を示す音声データおよびカラオケ楽曲の自動演奏を示す音データに加工処理を施し、それらを合成処理して生成した音データを順次、アンプ13に出力する。その際、入出力I/F102によりデジタル信号からアナログ信号への変換が行われる。アンプ13は入出力I/F102を介して音データブロック201から入力される音信号を増幅する。アンプ13により増幅された音信号はスピーカ14により発音される。そのように発音される音は、カラオケ楽曲の演奏音とユーザの歌唱音がエフェクト処理およびミキシング処理された音である。   The sound data block 201 performs automatic performance of karaoke music according to the event data transmitted from the event data reproducing unit 204, and also includes sound data indicating voice picked up by the microphone 12 and sound data indicating automatic performance of karaoke music. The sound data generated by performing the processing process and synthesizing them are sequentially output to the amplifier 13. At that time, conversion from a digital signal to an analog signal is performed by the input / output I / F 102. The amplifier 13 amplifies the sound signal input from the sound data block 201 via the input / output I / F 102. The sound signal amplified by the amplifier 13 is generated by the speaker 14. The sound thus generated is a sound obtained by effect processing and mixing processing of the performance sound of karaoke music and the user's singing sound.

また、動作制御ブロック203は、イベントデータ再生部204から送信されるイベントデータに従い、ビデオカメラ15に対し撮像処理のON/OFFやズーム倍率変更を指示する制御データを、カメラ移動装置16に対しビデオカメラ15の移動および撮像方向の変更を指示する制御データを、また照明装置17に対し照明の色および強さの変更を指示する制御データをそれぞれ送信する。その制御データに応じて、ビデオカメラ15、カメラ移動装置16および照明装置17は各々指定された動作を行う結果、ビデオカメラ15から画像データ加工処理部2024に送信される一連の画像データは変化に富んだものとなる。   The operation control block 203 also provides control data for instructing the video camera 15 to turn on / off the imaging process and change the zoom magnification in accordance with the event data transmitted from the event data reproducing unit 204, and to the camera moving device 16. Control data for instructing the movement of the camera 15 and the change of the imaging direction and the control data for instructing the illumination device 17 to change the color and intensity of the illumination are transmitted. In accordance with the control data, the video camera 15, the camera moving device 16, and the illumination device 17 each perform a designated operation, and as a result, a series of image data transmitted from the video camera 15 to the image data processing unit 2024 changes. It will be rich.

また、画像データブロック202は、イベントデータ再生部204から送信されるイベントデータに従い以下のように画像データを生成し、生成した画像データをディスプレイ18に送信する。まず、動画データ再生部2021はイベントデータ再生部204から動画データの再生を指示するイベントデータを受信し、受信したイベントデータにより指示される動画データをソースデータ群から読み出し、読み出した動画データの再生により得られる画像データを順次、画像データ加工処理部2024に送信する。また、歌詞画面生成部2022はイベントデータ再生部204から歌詞表示を指示するイベントデータを受信し、受信したイベントデータに従い、指定された文字を指定された位置および態様で表示する画像データを生成し、生成した画像データを順次、画像データ加工処理部2024に送信する。また、ガイダンス画面生成部2023はイベントデータ再生部204からビデオカメラ15の選択処理やカメラ移動装置16によるビデオカメラ15の移動処理、照明装置17による照明の色等の変更処理などを指示するイベントデータを受信し、受信したイベントデータに従い、それらの処理の結果および近い将来に実行予定の処理を示す画像データを生成し、生成した画像データを順次、画像データ加工処理部2024に送信する。   Further, the image data block 202 generates image data as follows according to the event data transmitted from the event data reproducing unit 204, and transmits the generated image data to the display 18. First, the moving image data reproducing unit 2021 receives event data instructing reproduction of moving image data from the event data reproducing unit 204, reads out moving image data instructed by the received event data from the source data group, and reproduces the read moving image data. Are sequentially transmitted to the image data processing unit 2024. The lyric screen generation unit 2022 receives the event data instructing the lyric display from the event data reproduction unit 204, and generates image data for displaying the specified character in the specified position and manner according to the received event data. The generated image data is sequentially transmitted to the image data processing unit 2024. In addition, the guidance screen generation unit 2023 instructs the event data reproduction unit 204 to perform selection processing of the video camera 15, movement processing of the video camera 15 by the camera moving device 16, processing for changing the illumination color or the like by the lighting device 17, and the like. In accordance with the received event data, image data indicating the results of those processes and processes scheduled to be executed in the near future is generated, and the generated image data is sequentially transmitted to the image data processing unit 2024.

画像データ加工処理部2024は、イベントデータ再生部204から受信したイベントデータに従い、ビデオカメラ15および動画データ再生部2021の各々から送信される画像データと、ソースデータ群に含まれる静止画データに対し加工処理を行うことにより、各表示レイヤの画像データを生成する。画像データ加工処理部2024は、生成した各表示レイヤの画像データを、背景レイヤ、第1レイヤ、第2レイヤ・・・の順にスーパーインポーズして、新たな画像データを生成する。さらに、画像データ加工処理部2024は、歌詞画面生成部2022から送信される歌詞レイヤの画像データおよびガイダンス画面生成部2023から送信されるガイダンス表示の画像データを、生成した画像データにスーパーインポーズすることにより、背景画像、ユーザの画像、歌詞およびガイダンスを含む画像データを生成する。画像データ加工処理部2024は、そのように生成した画像データを順次ディスプレイ18に送信する。   The image data processing unit 2024 operates on the image data transmitted from each of the video camera 15 and the moving image data reproduction unit 2021 and the still image data included in the source data group according to the event data received from the event data reproduction unit 204. Image data of each display layer is generated by performing the processing. The image data processing unit 2024 superimposes the generated image data of each display layer in the order of the background layer, the first layer, the second layer, and so on to generate new image data. Further, the image data processing unit 2024 superimposes the lyrics layer image data transmitted from the lyrics screen generation unit 2022 and the guidance display image data transmitted from the guidance screen generation unit 2023 on the generated image data. Thus, image data including a background image, a user image, lyrics, and guidance is generated. The image data processing unit 2024 sequentially transmits the image data thus generated to the display 18.

[1.2.3.ガイダンス表示の態様]
図13は、カラオケ装置10によりシーケンスデータの再生処理が行われている際にディスプレイ18に表示される画面を例示した図である。図12(c)の画面において、ユーザにより「文字で表示」が選択された場合には、図13(a)に示すようなガイダンス表示を含む画面が表示される。図13(a)の画面においては、歌詞表示の近傍に、その歌詞の発声タイミングにおいて撮像処理を行う予定のビデオカメラ15を文字により示す表示物1301と、同じく歌詞の発声タイミングにおいて照明装置17のいずれかにより照射される予定の光の色を文字により示す表示物1302が示される。
[1.2.3. Guidance display mode]
FIG. 13 is a diagram illustrating a screen displayed on the display 18 when the karaoke apparatus 10 is performing sequence data reproduction processing. When “display with text” is selected by the user on the screen of FIG. 12C, a screen including a guidance display as shown in FIG. 13A is displayed. In the screen of FIG. 13 (a), in the vicinity of the lyric display, the display object 1301 showing the video camera 15 scheduled to perform imaging processing at the utterance timing of the lyric and the lighting device 17 at the utterance timing of the lyrics. A display object 1302 is displayed that indicates the color of the light that is to be irradiated by either of the characters.

表示物1301および表示物1302は、ガイダンス画面生成部2023が画像データのソースを指定するイベントデータ、ビデオカメラ15の撮像処理のON/OFFを指示するイベントデータ、照明の色および強さを指定するイベントデータ、もしくはそれらのイベントデータの代わりにユーザの操作に応じてコントローラ11から送信される指示データに基づき生成したものである。   The display object 1301 and the display object 1302 specify event data for the guidance screen generation unit 2023 to specify the source of image data, event data for instructing ON / OFF of the imaging process of the video camera 15, and the color and intensity of illumination. The event data is generated based on the instruction data transmitted from the controller 11 in response to a user operation instead of the event data.

図13(a)の例によれば、歌唱を行っているユーザは、「時の流れは」の歌詞を歌い終わった後、自分を撮像するビデオカメラ15がビデオカメラ15a(カメラ1に対応)からビデオカメラ15c(カメラ3に対応)に切り替わると同時に、照明の色が変化することを、「時の流れは」の歌詞を歌っている間に予め知ることができる。   According to the example of FIG. 13A, after the user who is singing sings the lyrics of “The flow of time”, the video camera 15 that captures the image of the user is the video camera 15a (corresponding to the camera 1). At the same time as the video camera 15c (corresponding to the camera 3) is switched, it is possible to know in advance that the color of the illumination changes while singing the lyrics of “The flow of time”.

図12(c)の画面において、ユーザにより「バーで表示」が選択された場合には、図13(b)に示すようなガイダンス表示を含む画面が表示される。図13(b)の画面においては、歌詞表示の近傍に、その歌詞の発声タイミングにおいて撮像処理を行う予定のビデオカメラ15をバーにより示す表示物1311と、同じく歌詞の発声タイミングにおいて光の照射を行う予定の照明装置17をバーにより示す表示物1312が示される。また、図13(b)に示される表示物1313は、カラオケ楽曲における現在のタイミングを示す表示である。表示物1311において、バーの太さは、例えばビデオカメラ15のズーム倍率の大きさを示している。また、表示物1311に含まれるカメラ1のバーからカメラ3のバーに向けて引かれた斜め線は、その時間帯において、例えば、カメラ1から送信される画像データをフェードアウトさせつつ、カメラ3から送信される画像データをフェードインさせる処理、すなわちディゾルブ処理を行うことを示している。このような加工処理の種類は複数あるため、それらの種類をバーもしくは斜め線の色で区別したり、バーもしくは斜め線の近傍に文字で加工処理の種類を表示するようにしてもよい。表示物1312において、バーの太さは、例えば照明装置17の照射光の強さを示している。また、バーの色は、照明装置17の照射光の色を示している。   When “display with bar” is selected by the user on the screen of FIG. 12C, a screen including a guidance display as shown in FIG. 13B is displayed. In the screen of FIG. 13B, in the vicinity of the lyric display, the display object 1311 showing the video camera 15 to be imaged at the utterance timing of the lyric with a bar, and light irradiation at the utterance timing of the lyrics as well. A display object 1312 showing a lighting device 17 to be performed by a bar is shown. Moreover, the display thing 1313 shown by FIG.13 (b) is a display which shows the present timing in a karaoke music. In the display object 1311, the thickness of the bar indicates the size of the zoom magnification of the video camera 15, for example. In addition, the diagonal line drawn from the camera 1 bar to the camera 3 bar included in the display object 1311 causes the image data transmitted from the camera 1 to fade out from the camera 3 in that time zone, for example. It shows that a process for fading in image data to be transmitted, that is, a dissolve process is performed. Since there are a plurality of types of such processing, the types may be distinguished by the color of the bar or diagonal line, or the type of processing may be displayed in the vicinity of the bar or diagonal line. In the display object 1312, the thickness of the bar indicates, for example, the intensity of irradiation light from the illumination device 17. Further, the color of the bar indicates the color of the irradiation light of the lighting device 17.

表示物1311、表示物1312および表示物1313は、ガイダンス画面生成部2023が画像データのソースを指示するイベントデータ、ビデオカメラ15のズーム倍率の変更や撮像処理のON/OFFを指示するイベントデータ、画像データに対する各種加工処理を指示するイベントデータ、照明の色や強さを指示するイベントデータ、もしくはそれらのイベントデータの代わりにユーザの操作に応じてコントローラ11から送信される指示データに基づき生成したものである。   The display object 1311, the display object 1312, and the display object 1313 include event data for the guidance screen generation unit 2023 to instruct the source of the image data, event data for instructing to change the zoom magnification of the video camera 15 and ON / OFF of the imaging process, Generated based on event data for instructing various types of processing on image data, event data for instructing the color and intensity of illumination, or instruction data transmitted from the controller 11 in response to a user operation instead of the event data Is.

図13(b)の例によれば、ユーザは、自分を撮影するビデオカメラ15の切替タイミングおよび照明の色の変更タイミングに加え、各ビデオカメラ15のズーム倍率や照明の強さの変化、複数のビデオカメラ15から送信される画像データを用いた加工処理の行われる時間帯等の詳細な情報を、歌唱中に予め知ることができる。   According to the example of FIG. 13B, in addition to the switching timing of the video camera 15 that captures the image and the timing of changing the color of the illumination, the user can change the zoom magnification and illumination intensity of each video camera 15, a plurality of times. Detailed information such as a time zone during which processing using image data transmitted from the video camera 15 is performed can be known in advance during singing.

図12(c)の画面において、ユーザにより「配置図で表示(1)」が選択された場合には、図13(c)に示すようなガイダンス表示を含む画面が表示される。図13(c)の画面においては、歌詞表示の近傍に、その歌詞の発声タイミングにおいて撮像処理を行う予定であるビデオカメラ15、光の照射を行う予定である照明装置17、現在のユーザの位置および方向を示す表示物1321および表示物1322が示される。表示物1321および表示物1322に含まれる四角形は撮像処理を行うビデオカメラ15の位置を示している。ビデオカメラ15を示す四角形は、カメラ移動装置16による移動に伴い、表示物1321および表示物1322の中で移動する。表示物1321および表示物1322に含まれる円形は光の照射を行う照明装置17の位置を示すと同時に、円形表示の色により、照射される光の色を示している。また、表示物1321および表示物1322の中央付近に示される円形と三角形の結合図形は、ユーザの現在の位置および方向を示す図形であり、ユーザの動きに応じて常時、その表示位置および方向が変化する。   In the screen of FIG. 12C, when “display in layout (1)” is selected by the user, a screen including a guidance display as shown in FIG. 13C is displayed. In the screen of FIG. 13C, in the vicinity of the lyric display, the video camera 15 that is scheduled to perform imaging processing at the utterance timing of the lyric, the illumination device 17 that is scheduled to perform light irradiation, and the current user position And a display object 1321 and a display object 1322 indicating the direction. The squares included in the display object 1321 and the display object 1322 indicate the position of the video camera 15 that performs the imaging process. A square indicating the video camera 15 moves in the display object 1321 and the display object 1322 as the camera moving device 16 moves. The circles included in the display object 1321 and the display object 1322 indicate the position of the illuminating device 17 that irradiates light, and at the same time indicate the color of the irradiated light by the color of the circular display. A combined figure of a circle and a triangle shown near the center of the display object 1321 and the display object 1322 is a figure indicating the current position and direction of the user, and the display position and direction are always changed according to the user's movement. Change.

表示物1321および表示物1322は、ガイダンス画面生成部2023が画像データのソースを指示するイベントデータ、ビデオカメラ15の撮像処理のON/OFFを指示するイベントデータ、ビデオカメラ15の移動を指示するイベントデータ、照明の色や強さを指示するイベントデータ、もしくはそれらのイベントデータの代わりにユーザの操作に応じてコントローラ11から送信される指示データと、位置方向算出部205から送信されるマイク座標データおよびユーザ方向データに基づき生成したものである。   The display object 1321 and the display object 1322 are event data for the guidance screen generation unit 2023 to instruct the source of the image data, event data to instruct ON / OFF of the imaging process of the video camera 15, and an event to instruct the movement of the video camera 15. Data, event data indicating the color and intensity of illumination, or instruction data transmitted from the controller 11 in response to a user operation instead of the event data, and microphone coordinate data transmitted from the position / direction calculation unit 205 And generated based on user direction data.

図13(c)の例によれば、ユーザは、どの位置に配置されたビデオカメラ15がどのタイミングで自分を撮像するか、またどの位置に配置された照明装置17がどのタイミングで、またどの色で光の照射を行うかを、歌唱中に予め、視覚的に容易に知ることができる。   According to the example of FIG. 13C, the user can determine at which timing the video camera 15 arranged at which position and the lighting device 17 arranged at which position and at which timing. Whether or not to irradiate light with colors can be easily and visually known in advance during singing.

図12(c)の画面において、ユーザにより「配置図で表示(2)」が選択された場合には、図13(d)に示すようなガイダンス表示を含む画面が表示される。図13(d)の画面においては、画面全体をカラオケルームを上方から見た様子に見立て、照明装置17の各々を示す表示物1331、ビデオカメラ15の各々を示す表示物1332、ユーザを示す表示物1333が対応する位置に示される。表示物1331は、その大きさおよび色により、対応する照明装置17が現在照射している光の強さおよび色を示す。また、表示物1331は、対応する照明装置17が近い将来に光の照射を終了する場合、その終了をユーザに対し予め通知するために、例えば点滅表示される。さらに、照明装置17が光の照射を終了するタイミングを正確にユーザに知らせるために、表示物1331の近傍に照射の終了タイミングまでの残余時間が「3!」「2!」「1!」のようにカウントダウン表示されるようにしてもよい。表示物1334はそのような表示を例示したものである。   In the screen of FIG. 12C, when “display in layout diagram (2)” is selected by the user, a screen including a guidance display as shown in FIG. 13D is displayed. In the screen of FIG. 13D, the entire screen is viewed as if the karaoke room is viewed from above, a display object 1331 indicating each of the lighting devices 17, a display object 1332 indicating each of the video cameras 15, and a display indicating the user. Object 1333 is shown in the corresponding position. The display object 1331 indicates the intensity and color of the light currently irradiated by the corresponding lighting device 17 according to the size and color. In addition, when the corresponding lighting device 17 finishes the light irradiation in the near future, the display object 1331 is displayed in a blinking manner, for example, in order to notify the user of the end in advance. Further, in order to accurately notify the user of the timing when the illumination device 17 ends the light irradiation, the remaining time until the irradiation end timing is “3!” “2!” “1!” In the vicinity of the display object 1331. In this way, a countdown display may be performed. The display object 1334 exemplifies such display.

また、近い将来に光の照射を開始する照明装置17がある場合、その照明装置17に対応する表示物1331が点滅表示される。ただし、近い将来にその照射を終了する照明装置17に対応する表示物1331と区別するために、近い将来に照射を開始する照明装置17に対応する表示物1331は、例えば中抜き(円形の輪郭のみ着色)で表示される。この場合も、表示物1331の近傍に照射の開始タイミングまでの残余時間が「3!」「2!」「1!」のようにカウントダウン表示されるようにしてもよい。   When there is a lighting device 17 that starts light irradiation in the near future, a display object 1331 corresponding to the lighting device 17 is displayed in a blinking manner. However, in order to distinguish from the display object 1331 corresponding to the illumination device 17 that will end the irradiation in the near future, the display object 1331 corresponding to the illumination device 17 that starts the irradiation in the near future is, for example, a hollow (circular outline). Only colored). Also in this case, the remaining time until the irradiation start timing may be displayed in the vicinity of the display object 1331 as “3!”, “2!”, “1!”.

表示物1332は、その位置、方向および大きさにより、それぞれ、現在撮像処理を行っているビデオカメラ15の位置、撮像方向およびズーム倍率を示す。従って、カメラ移動装置16によりビデオカメラ15の位置や撮像方向が変更されると、それに伴い、画面における表示物1332の位置および方向も変化する。また、表示物1332は、照明装置17を示す表示物1331と同様に、対応するビデオカメラ15が近い将来に撮像処理を終了する場合、その終了をユーザに対し予め通知するために、例えば点滅表示される。その終了タイミングを正確にユーザに知らせるために、表示物1332の近傍に撮像処理の終了タイミングまでの残余時間をカウントダウン表示するようにしてもよい点も表示物1331の場合と同様である。   The display object 1332 indicates the position, imaging direction, and zoom magnification of the video camera 15 that is currently performing imaging processing, depending on the position, direction, and size thereof. Therefore, when the position and imaging direction of the video camera 15 are changed by the camera moving device 16, the position and direction of the display object 1332 on the screen change accordingly. Similarly to the display object 1331 indicating the lighting device 17, the display object 1332 is displayed in a blinking manner, for example, in order to notify the user in advance when the corresponding video camera 15 ends the imaging process in the near future. Is done. Similar to the case of the display object 1331, the remaining time until the end timing of the imaging process may be counted down in the vicinity of the display object 1332 in order to accurately notify the user of the end timing.

また、近い将来に撮像処理を開始するビデオカメラ15がある場合、表示物1331の場合と同様に、そのビデオカメラ15に対応する表示物1332が中抜きで点滅表示される。その開始タイミングを正確にユーザに知らせるために、表示物1332の近傍に撮像処理の開始タイミングまでの残余時間をカウントダウン表示するようにしてもよい点も表示物1331の場合と同様である。   In addition, when there is a video camera 15 that starts imaging processing in the near future, the display object 1332 corresponding to the video camera 15 is displayed blinking with a hollow as in the case of the display object 1331. Similar to the case of the display object 1331, the remaining time until the start timing of the imaging process may be counted down in the vicinity of the display object 1332 in order to accurately notify the user of the start timing.

表示物1333は、ユーザの現在の位置および方向を示す図形であり、ユーザの動きに応じて常時、その表示位置および方向が変化する。表示物1331〜表示物1334は、ガイダンス画面生成部2023が画像データのソースを指示するイベントデータ、ビデオカメラ15のズーム倍率の変更および撮像処理のON/OFFを指示するイベントデータ、ビデオカメラ15の移動および撮像方向の変更を指示するイベントデータ、照明の色や強さを指示するイベントデータ、もしくはそれらのイベントデータの代わりにユーザの操作に応じてコントローラ11から送信される指示データと、位置方向算出部205から送信されるマイク座標データおよびユーザ方向データに基づき生成したものである。   The display object 1333 is a figure indicating the current position and direction of the user, and the display position and direction always change according to the movement of the user. The display object 1331 to the display object 1334 are event data for the guidance screen generation unit 2023 to instruct the source of image data, event data for instructing to change the zoom magnification of the video camera 15 and ON / OFF of the imaging process, and Event data for instructing movement and change of imaging direction, event data for instructing the color and intensity of illumination, or instruction data transmitted from the controller 11 in response to a user operation instead of these event data, and position direction This is generated based on microphone coordinate data and user direction data transmitted from the calculation unit 205.

図13(d)の例によれば、ユーザは、現在の照明装置17およびビデオカメラ15の動作状況や、ビデオカメラ15の位置および撮像方向の詳細を視覚的に容易に知ることができるとともに、近い将来に動作を終了もしくは開始するビデオカメラ15および照明装置17がある場合、そのタイミングを歌唱中に予め知ることができる。   According to the example of FIG. 13D, the user can easily know the current operation status of the lighting device 17 and the video camera 15 and the details of the position and imaging direction of the video camera 15 visually. If there is a video camera 15 and a lighting device 17 that will end or start operation in the near future, the timing can be known in advance during singing.

ガイダンス表示の態様としては、図13に示されるもの以外に様々なものが考えられる。例えば、照明装置17により照射される光の色が変化する場合において、図13(d)に示されるガイダンス表示において、現在の照明装置17の状態を示す表示物1331の近傍に、近い将来の照明装置17の状態を示す表示物を表示させるようにしてもよい。また、近い将来に処理を終了もしくは開始するビデオカメラ15等を示すために表示物を点滅表示させる代わりに、例えばその表示物の濃淡を変化させるようにしてもよい。   Various forms of guidance display other than those shown in FIG. 13 are conceivable. For example, when the color of light irradiated by the lighting device 17 changes, in the guidance display shown in FIG. 13D, the near future lighting near the display object 1331 indicating the current state of the lighting device 17 A display object indicating the state of the device 17 may be displayed. Further, instead of blinking the display object to indicate the video camera 15 or the like that will end or start processing in the near future, for example, the shade of the display object may be changed.

上記のように、カラオケシステム1によれば、ディスプレイ18にカラオケ楽曲の歌詞とともに、ビデオカメラ15、カメラ移動装置16および照明装置17の現在の状態および近い将来のそれらの状態を示すガイダンスが表示されるので、ユーザは歌唱中において、予めビデオカメラ15等の状態変化に応じた動作を予定することが可能となる。その結果、ユーザはビデオカメラ15の切替に適したタイミングでポーズを取るなど、従来技術によれば困難であった動作を容易に行うことができ、快適に歌唱および歌唱に伴う動作を楽しむことができる。また、ディスプレイ18には、ビデオカメラ15等の動作タイミングに同期して動作を行うユーザの映像が表示されるため、観る者にとっても好ましい。   As described above, according to the karaoke system 1, along with the lyrics of the karaoke music, the display 18 displays guidance indicating the current state of the video camera 15, the camera moving device 16, and the lighting device 17 and their state in the near future. Therefore, the user can schedule an operation according to a change in the state of the video camera 15 or the like in advance during singing. As a result, the user can easily perform operations that have been difficult according to the prior art, such as posing at a timing suitable for switching the video camera 15, and can comfortably enjoy singing and operations associated with singing. it can. Further, since the video of the user who operates in synchronization with the operation timing of the video camera 15 or the like is displayed on the display 18, it is preferable for the viewer.

ユーザは、カラオケ楽曲の演奏が終了すると、カラオケ装置10の音データ加工処理部2013により生成された音データおよび画像データ加工処理部2024により生成された画像データをビデオデータとして、メディアドライブ21を介してフラッシュメモリ等の記憶媒体に記憶させたり、インターネット22を介して希望するサーバ装置等に送信することができる。その結果、ユーザはカラオケシステム1により生成されたビデオデータを自宅等で繰り返し楽しんだり、友人に送信したりすることができる。   When the performance of the karaoke music piece is completed, the user uses the sound data generated by the sound data processing unit 2013 of the karaoke apparatus 10 and the image data generated by the image data processing unit 2024 as video data via the media drive 21. Can be stored in a storage medium such as a flash memory, or transmitted to a desired server device or the like via the Internet 22. As a result, the user can repeatedly enjoy the video data generated by the karaoke system 1 at home or send it to a friend.

ところで、カラオケ装置10は、専用のハードウェアにより実現されてもよいし、汎用コンピュータにアプリケーションプログラムに従った処理を実行させることにより実現されてもよい。カラオケ装置10が汎用コンピュータにより実現される場合、制御部103の各構成部は、汎用コンピュータが備えるCPU(Central Processing Unit)およびCPUの制御下で動作するDSP(Digital Signal Processor)が、アプリケーションプログラムに含まれる各モジュールに従った処理を同時並行して行うことにより、汎用コンピュータの機能として実現される。   By the way, the karaoke apparatus 10 may be realized by dedicated hardware, or may be realized by causing a general-purpose computer to execute processing according to an application program. When the karaoke apparatus 10 is realized by a general-purpose computer, each component of the control unit 103 includes a CPU (Central Processing Unit) provided in the general-purpose computer and a DSP (Digital Signal Processor) operating under the control of the CPU in the application program. It is realized as a function of a general-purpose computer by performing processing according to each included module in parallel.

また、上述した実施形態においては、照明装置17の位置および方向は固定されているものとして説明したが、照明装置の位置および方向を変更可能とし、その変更を予め、ガイダンス表示によってユーザに通知するようにしてもよい。その表示方法は、ビデオカメラ15に関するものと同様のものが採用可能である。   In the embodiment described above, the position and direction of the lighting device 17 are described as being fixed. However, the position and direction of the lighting device can be changed, and the change is notified to the user in advance by a guidance display. You may do it. A display method similar to that for the video camera 15 can be used.

また、上述した実施形態においては、ディスプレイ18により表示される画像データに、ガイダンス画面生成部2023により生成されるガイダンス表示の画像データをスーパーインポーズすることにより歌詞表示等とガイダンス表示を同時表示させるようにしているが、例えばディスプレイ18の近傍にビデオカメラ15や照明装置17の各々に対応するLED(Light Emitting Diode)を設け、それらを点灯、明滅、消灯等することにより、歌唱中のユーザに対し、ビデオカメラ15、カメラ移動装置16および照明装置17の動作を予め通知するようにしてもよい。   In the above-described embodiment, the image data displayed on the display 18 is superimposed on the image data of the guidance display generated by the guidance screen generation unit 2023, thereby displaying the lyrics display and the guidance display at the same time. However, for example, an LED (Light Emitting Diode) corresponding to each of the video camera 15 and the lighting device 17 is provided in the vicinity of the display 18 and is turned on, flickering, turned off, etc. On the other hand, the operations of the video camera 15, the camera moving device 16, and the lighting device 17 may be notified in advance.

また、上述した実施形態においては、ディスプレイ18はカラオケルームの壁面に配置されているものとして説明したが、例えば小型液晶で構成されるディスプレイ18をマイク12に取り付けるようにしてもよい。   In the above-described embodiment, the display 18 has been described as being disposed on the wall surface of the karaoke room. However, for example, the display 18 formed of a small liquid crystal may be attached to the microphone 12.

[2.第2実施形態]
上記の第1実施形態においては、カラオケシステム1は、カラオケ装置10と、カラオケ装置10に接続されるマイク12等の各種装置の組合せにより構成されている。しかしながら、本発明にかかるカラオケシステムの構成部のいずれを組み合わせて同じ筐体に配置するかは自由に変更可能である。図14は、本発明にかかるカラオケシステムを、図2で示したカラオケシステム1とは異なる配置により実現したカラオケシステム2の構成を示したブロック図である。以下、カラオケシステム2を本発明の第2実施形態として説明する。
[2. Second Embodiment]
In said 1st Embodiment, the karaoke system 1 is comprised by the combination of various apparatuses, such as the karaoke apparatus 10 and the microphone 12 connected to the karaoke apparatus 10. FIG. However, it can be freely changed which of the components of the karaoke system according to the present invention is combined and arranged in the same housing. 14 is a block diagram showing a configuration of a karaoke system 2 in which the karaoke system according to the present invention is realized by an arrangement different from that of the karaoke system 1 shown in FIG. Hereinafter, the karaoke system 2 will be described as a second embodiment of the present invention.

ただし、カラオケシステム2の構成および動作は、カラオケシステム1のものと多くの点で共通しているので、以下、カラオケシステム2がカラオケシステム1と異なる点のみ説明する。図14において、カラオケシステム2の構成部のうち、カラオケシステム1と同様の構成部に関しては、同じ符合が付されている。また、図14においては図の簡略化のため、各構成部間の詳細なデータフローを示す矢印が省略され、また複数個からなる同種の構成部は1つのみ示されている。   However, since the configuration and operation of the karaoke system 2 are similar to those of the karaoke system 1 in many respects, only the points where the karaoke system 2 is different from the karaoke system 1 will be described below. In FIG. 14, among the constituent parts of the karaoke system 2, constituent parts that are the same as those of the karaoke system 1 are given the same reference numerals. Further, in FIG. 14, for simplification of the drawing, an arrow indicating a detailed data flow between the components is omitted, and only one component of the same kind composed of a plurality of components is shown.

カラオケシステム2は、カラオケシステム1のカラオケ装置10の代わりに、音データ処理装置31、画像データ処理装置32および中央管理装置33を備えている。音データ処理装置31は、カラオケシステム1における音データブロック201に含まれる構成部を含む制御部1031と、記憶部1011および入出力I/F1021を備えている。画像データ処理装置32は、カラオケシステム1における画像データブロック202に含まれる構成部と超音波受信器19、赤外線受信器20および位置方向算出部205を含む制御部1032と、記憶部1012および入出力I/F1022を備えている。中央管理装置33は、カラオケシステム1におけるイベントデータ再生部204を含む制御部1033と、記憶部1013および入出力I/F1023を備えている。   The karaoke system 2 includes a sound data processing device 31, an image data processing device 32, and a central management device 33 instead of the karaoke device 10 of the karaoke system 1. The sound data processing device 31 includes a control unit 1031 that includes components included in the sound data block 201 in the karaoke system 1, a storage unit 1011, and an input / output I / F 1021. The image data processing device 32 includes a configuration unit included in the image data block 202 in the karaoke system 1, a control unit 1032 including an ultrasonic receiver 19, an infrared receiver 20, and a position / direction calculation unit 205, a storage unit 1012, and an input / output unit. An I / F 1022 is provided. The central management device 33 includes a control unit 1033 including an event data reproduction unit 204 in the karaoke system 1, a storage unit 1013, and an input / output I / F 1023.

入出力I/F1021〜1023は、カラオケ装置10の入出力I/F102と同様に、他の装置との間でデータの入出力を行うためのインタフェースである。記憶部1011〜1013は、カラオケ装置10の記憶部101と同様に、制御部1031〜1033による各種処理を指示するプログラムを予め記憶し、また制御部1031〜1033により生成されるデータを一時的に記憶する。また、例えば中央管理装置33の記憶部1013は、予め、複数のカラオケデータ1001を記憶している。   Input / output I / Fs 1021 to 1023 are interfaces for inputting / outputting data to / from other devices in the same manner as the input / output I / F 102 of the karaoke apparatus 10. Similar to the storage unit 101 of the karaoke apparatus 10, the storage units 1011 to 1013 store programs for instructing various processes by the control units 1031 to 1033 in advance, and temporarily generate data generated by the control units 1031 to 1033. Remember. Further, for example, the storage unit 1013 of the central management device 33 stores a plurality of karaoke data 1001 in advance.

また、カラオケシステム2におけるビデオカメラ15、カメラ移動装置16および照明装置17はそれぞれ、カメラ動作制御部2031、移動動作制御部2032および照明動作制御部2033を備えている。   In addition, the video camera 15, the camera moving device 16, and the lighting device 17 in the karaoke system 2 include a camera operation control unit 2031, a moving operation control unit 2032, and a lighting operation control unit 2033, respectively.

カラオケシステム2において、ユーザがコントローラ11を用いてカラオケ楽曲の再生を指示すると、中央管理装置33はユーザにより選択された楽曲に対応するカラオケデータ1001に含まれるシーケンスデータに従い、イベントデータの内容に従い、音データ処理装置31、画像データ処理装置32、ビデオカメラ15、カメラ移動装置16および照明装置17の各々にイベントデータを送信する。また、中央管理装置33は、イベントデータの送信に先立ち、もしくは並行して、イベントデータにより指示される処理に要するソースデータを、音データ処理装置31もしくは画像データ処理装置32に送信する。ただし、中央管理装置33がソースデータを送信する代わりに、音データ処理装置31および画像データ処理装置32が、各々処理に必要なソースデータを予め記憶部1011および記憶部1012に記憶しておいてもよい。   In the karaoke system 2, when the user instructs playback of the karaoke music using the controller 11, the central management device 33 follows the sequence data included in the karaoke data 1001 corresponding to the music selected by the user, according to the contents of the event data, Event data is transmitted to each of the sound data processing device 31, the image data processing device 32, the video camera 15, the camera moving device 16, and the lighting device 17. The central management device 33 transmits source data required for processing instructed by the event data to the sound data processing device 31 or the image data processing device 32 prior to or in parallel with the transmission of the event data. However, instead of the central management device 33 transmitting the source data, the sound data processing device 31 and the image data processing device 32 store the source data necessary for each processing in the storage unit 1011 and the storage unit 1012 in advance. Also good.

音データ処理装置31は、中央管理装置33から受信したイベントデータに従い、音データの再生処理および加工処理を行い、生成した音データをアンプ13に出力する。また、音データ処理装置31は生成した音データを中央管理装置33に送信し、中央管理装置33は音データ処理装置31から送信された音データを記憶部1013に記憶する。   The sound data processing device 31 performs sound data reproduction processing and processing processing according to the event data received from the central management device 33, and outputs the generated sound data to the amplifier 13. The sound data processing device 31 transmits the generated sound data to the central management device 33, and the central management device 33 stores the sound data transmitted from the sound data processing device 31 in the storage unit 1013.

画像データ処理装置32は、中央管理装置33から受信したイベントデータに従い、画像データの再生処理および加工処理を行い、生成した画像データをディスプレイ18に送信する。また、画像データ処理装置32は生成した画像データを中央管理装置33に送信し、中央管理装置33は画像データ処理装置32から送信された画像データを記憶部1013に記憶する。   The image data processing device 32 performs image data reproduction processing and processing processing according to the event data received from the central management device 33, and transmits the generated image data to the display 18. The image data processing device 32 transmits the generated image data to the central management device 33, and the central management device 33 stores the image data transmitted from the image data processing device 32 in the storage unit 1013.

上記のように、記憶部1013に順次記憶された音データおよび画像データはビデオデータとして統合され、ユーザの指示により再生、送信、記憶媒体への保存等がなされる。   As described above, the sound data and the image data sequentially stored in the storage unit 1013 are integrated as video data, and are reproduced, transmitted, stored in a storage medium, and the like according to a user instruction.

以上説明したカラオケシステム2によっても、第1実施形態におけるカラオケシステム1と同様に、ディスプレイ18に表示される画像には、歌詞画面生成部2022により生成される歌詞表示の画像に加え、ガイダンス画面生成部2023により生成されるガイダンス表示の画像が合成される結果、ユーザはカラオケ楽曲の歌詞とともに、ビデオカメラ15、カメラ移動装置16および照明装置17の現在の状態および近い将来のそれらの状態を、歌唱中に予め知ることができる。その結果、ユーザは、予めビデオカメラ15等の状態変化に応じた動作を予定することが可能となる。   Also in the karaoke system 2 described above, in the same way as the karaoke system 1 in the first embodiment, the image displayed on the display 18 includes a guidance screen generation in addition to the lyric display image generated by the lyric screen generation unit 2022. As a result of synthesizing the guidance display image generated by the unit 2023, the user sings the current state of the video camera 15, the camera moving device 16, and the lighting device 17 and their state in the near future together with the lyrics of the karaoke music. You can know in advance. As a result, the user can schedule an operation corresponding to the state change of the video camera 15 or the like in advance.

ところで、音データ処理装置31、画像データ処理装置32および中央管理装置33は、専用のハードウェアにより実現されてもよいし、汎用コンピュータにアプリケーションプログラムに従った処理を実行させることにより実現されてもよい。音データ処理装置31、画像データ処理装置32および中央管理装置33が汎用コンピュータにより実現される場合、制御部1031、制御部1032および制御部1033の各構成部は、汎用コンピュータが備えるCPUおよびCPUの制御下で動作するDSPが、アプリケーションプログラムに含まれる各モジュールに従った処理を同時並行して行うことにより、汎用コンピュータの機能として実現される。   By the way, the sound data processing device 31, the image data processing device 32, and the central management device 33 may be realized by dedicated hardware, or may be realized by causing a general-purpose computer to execute processing according to an application program. Good. When the sound data processing device 31, the image data processing device 32, and the central management device 33 are realized by a general-purpose computer, each component of the control unit 1031, the control unit 1032, and the control unit 1033 includes a CPU included in the general-purpose computer and the CPU. A DSP operating under control performs the processing according to each module included in the application program in parallel, and is realized as a function of a general-purpose computer.

本発明の第1実施形態に係るカラオケシステムをカラオケボックスに設置した様子を示した図である。It is the figure which showed a mode that the karaoke system which concerns on 1st Embodiment of this invention was installed in the karaoke box. 本発明の第1実施形態に係るカラオケシステムの構成を示したブロック図である。It is the block diagram which showed the structure of the karaoke system which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係るマイクに赤外線発生器が配置されている様子を例示した図である。It is the figure which illustrated a mode that the infrared generator was arranged in the microphone concerning a 1st embodiment of the present invention. 本発明の第1実施形態に係るカラオケデータの構成を模式的に示した図である。It is the figure which showed typically the structure of the karaoke data which concern on 1st Embodiment of this invention. 本発明の第1実施形態に係るサウンドトラックの内容を例示した図である。It is the figure which illustrated the contents of the sound track concerning a 1st embodiment of the present invention. 本発明の第1実施形態に係る照明トラックの内容を例示した図である。It is the figure which illustrated the contents of the lighting track concerning a 1st embodiment of the present invention. 本発明の第1実施形態に係るカメラトラックの内容を例示した図である。It is the figure which illustrated the contents of the camera track concerning a 1st embodiment of the present invention. 本発明の第1実施形態に係るビジュアルトラックの内容を例示した図である。It is the figure which illustrated the contents of the visual track concerning a 1st embodiment of the present invention. 本発明の第1実施形態に係るカラオケシステムのディスプレイに表示される画面を例示した図である。It is the figure which illustrated the screen displayed on the display of the karaoke system which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る超音波受信器を配置したカラオケルームを上方から見た図である。It is the figure which looked at the karaoke room which has arrange | positioned the ultrasonic receiver which concerns on 1st Embodiment of this invention from upper direction. 本発明の第1実施形態に係る赤外線受信器を配置したカラオケルームを上方から見た図である。It is the figure which looked at the karaoke room which has arrange | positioned the infrared receiver which concerns on 1st Embodiment of this invention from upper direction. 本発明の第1実施形態に係るカラオケシステムのディスプレイに表示される画面を例示した図である。It is the figure which illustrated the screen displayed on the display of the karaoke system which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係るカラオケシステムのディスプレイに表示される画面を例示した図である。It is the figure which illustrated the screen displayed on the display of the karaoke system which concerns on 1st Embodiment of this invention. 本発明の第2実施形態に係るカラオケシステムの構成を示したブロック図である。It is the block diagram which showed the structure of the karaoke system which concerns on 2nd Embodiment of this invention.

符号の説明Explanation of symbols

1・2…カラオケシステム、10…カラオケ装置、11…コントローラ、12…マイク、13…アンプ、14…スピーカ、15…ビデオカメラ、16…カメラ移動装置、17…照明装置、18…ディスプレイ、19…超音波受信器、20…赤外線受信器、21…メディアドライブ、22…インターネット、31…音データ処理装置、32…画像データ処理装置、33…中央管理装置、101・1011・1012・1013…記憶部、102・1021・1022・1023…入出力I/F、103・1031・1032・1033…制御部、121…超音波発生器、122…赤外線発生器、181…表示部分、182…表示部分、183…表示部分、201…音データブロック、202…画像データブロック、203…動作制御ブロック、204…イベントデータ再生部、205…位置方向算出部、1001…カラオケデータ、1221…赤外線発光ダイオード、2011…音源部、2012…音データ再生部、2013…音データ加工処理部、2021…動画データ再生部、2022…歌詞画面生成部、2023…ガイダンス画面生成部、2024…画像データ加工処理部、2031…カメラ動作制御部、2032…移動動作制御部、2033…照明動作制御部。   1, 2 ... Karaoke system, 10 ... Karaoke device, 11 ... Controller, 12 ... Microphone, 13 ... Amplifier, 14 ... Speaker, 15 ... Video camera, 16 ... Camera moving device, 17 ... Lighting device, 18 ... Display, 19 ... Ultrasonic wave receiver, 20 ... Infrared receiver, 21 ... Media drive, 22 ... Internet, 31 ... Sound data processing device, 32 ... Image data processing device, 33 ... Central management device, 101, 1011, 1012, 1013 ... Storage unit , 102, 1021, 1022, 1023, input / output I / F, 103, 1031, 1032, 1033, control unit, 121, ultrasonic generator, 122, infrared generator, 181, display portion, 182, display portion, 183 ... display part 201 ... sound data block 202 ... image data block 203 ... operation control block 04 ... Event data playback unit, 205 ... Position / direction calculation unit, 1001 ... Karaoke data, 1221 ... Infrared light emitting diode, 2011 ... Sound source unit, 2012 ... Sound data playback unit, 2013 ... Sound data processing unit, 2021 ... Movie data playback , 2022 ... Lyric screen generator, 2023 ... Guidance screen generator, 2024 ... Image data processing unit, 2031 ... Camera operation controller, 2032 ... Moving operation controller, 2033 ... Lighting operation controller.

Claims (8)

楽曲の演奏を指示する演奏指示データを出力する演奏指示データ出力手段と、
歌詞の表示を指示する歌詞表示指示データを、前記楽曲の進行において当該歌詞が表示されるべきタイミングを示すタイミングデータに対応付けて記憶する歌詞表示指示データ記憶手段と、
撮像装置、画像データの加工を行う加工装置、撮像装置の移動を行う移動装置および照明装置の少なくとも1により実行されるべき処理を指示する処理指示データを、前記楽曲の進行において当該処理が実行されるべきタイミングを示すタイミングデータに対応付けて記憶する処理指示データ記憶手段と、
前記演奏指示データ出力手段による演奏指示データの出力と並行して、前記処理指示データを、当該処理指示データに対応付けられたタイミングデータに応じたタイミングで出力する処理指示データ出力手段と、
前記演奏指示データ出力手段による演奏指示データの出力および前記処理指示データ出力手段による処理指示データの出力と並行して、前記歌詞表示指示データにより指示される歌詞を当該歌詞表示指示データに対応付けられたタイミングデータに応じたタイミングで表示するとともに、前記処理指示データ出力手段により出力される処理指示データに応じたガイダンスを当該処理指示データに対応付けられたタイミングデータに応じたタイミングで表示することを指示する表示指示データを出力する表示指示データ出力手段と
を備えることを特徴とするデータ処理装置。
Performance instruction data output means for outputting performance instruction data for instructing the performance of music;
Lyrics display instruction data storage means for storing lyrics display instruction data for instructing display of lyrics in association with timing data indicating the timing at which the lyrics should be displayed in the progression of the music;
Processing instruction data for instructing processing to be executed by at least one of an imaging device, a processing device that processes image data, a moving device that moves the imaging device, and a lighting device is executed in the progress of the music. Processing instruction data storage means for storing in association with timing data indicating the timing to be performed;
In parallel with the performance instruction data output by the performance instruction data output means, processing instruction data output means for outputting the processing instruction data at a timing according to timing data associated with the processing instruction data;
In parallel with the output of the performance instruction data by the performance instruction data output means and the output of the processing instruction data by the processing instruction data output means, the lyrics indicated by the lyrics display instruction data are associated with the lyrics display instruction data. Display at a timing according to the timing data associated with the processing instruction data, and display at a timing according to the timing data associated with the processing instruction data. A data processing device comprising: display instruction data output means for outputting display instruction data for instructing.
楽曲の演奏を指示する演奏指示データを出力する演奏指示データ出力手段と、
歌詞の表示を指示する歌詞表示指示データを、前記楽曲の進行において当該歌詞が表示されるべきタイミングを示すタイミングデータに対応付けて記憶する歌詞表示指示データ記憶手段と、
撮像装置の位置、撮像装置の方向、撮像装置の処理、照明装置の位置、照明装置の方向、照明装置の処理および画像データの加工を行う加工装置の処理のうち、少なくとも1に関する現在の状態もしくは所定期間内に予定されている状態の変化を示す状態データを受け取る状態データ入力手段と、
前記演奏指示データ出力手段による演奏指示データの出力と並行して、前記歌詞表示指示データにより指示される歌詞を当該歌詞表示指示データに対応付けられたタイミングデータに応じたタイミングで表示するとともに、前記状態データ入力手段により受け取られる状態データに応じたガイダンスを表示することを指示する表示指示データを出力する表示指示データ出力手段と
を備えることを特徴とするデータ処理装置。
Performance instruction data output means for outputting performance instruction data for instructing the performance of music;
Lyrics display instruction data storage means for storing lyrics display instruction data for instructing display of lyrics in association with timing data indicating the timing at which the lyrics should be displayed in the progression of the music;
Current state of at least one of the position of the imaging device, the direction of the imaging device, the processing of the imaging device, the position of the lighting device, the direction of the lighting device, the processing of the lighting device and the processing of the processing device that processes the image data State data input means for receiving state data indicating a change in state scheduled within a predetermined period;
In parallel with the output of the performance instruction data by the performance instruction data output means, the lyrics indicated by the lyrics display instruction data are displayed at a timing according to the timing data associated with the lyrics display instruction data, and A display instruction data output means for outputting display instruction data for instructing to display guidance according to the state data received by the state data input means.
前記表示指示データ出力手段は、前記表示指示データとして、特定の処理を実行中もしくは所定期間内に特定の処理を実行予定の撮像装置もしくは照明装置を示す、文字、図形、記号もしくはこれらの結合もしくはこれらと色彩との結合の表示またはランプの点灯による表示を指示するデータを出力する
ことを特徴とする請求項1または2に記載のデータ処理装置。
The display instruction data output means includes, as the display instruction data, a character, a figure, a symbol, or a combination thereof, indicating an imaging device or a lighting device that is executing a specific process or is scheduled to execute a specific process within a predetermined period. The data processing apparatus according to claim 1 or 2, wherein data instructing display of combination of these and color or display by lighting of a lamp is output.
前記表示指示データ出力手段は、前記表示指示データとして、撮像装置、加工装置、移動装置もしくは照明装置の現在の状態もしくは所定時間後に予定されている状態に応じて、異なる態様の表示を指示するデータを出力する
ことを特徴とする請求項1または2に記載のデータ処理装置。
The display instruction data output means instructs the display instruction data to display different modes depending on the current state of the imaging device, processing device, moving device, or lighting device or a state scheduled after a predetermined time. The data processing apparatus according to claim 1, wherein:
ユーザの位置を示す位置データを受け取る位置データ入力手段を備え、
前記表示指示データ出力手段は、前記表示指示データとして、前記歌詞と前記ガイダンスに加え、前記位置データにより示される位置の同時表示を指示するデータを出力する
ことを特徴とする請求項1または2に記載のデータ処理装置。
Position data input means for receiving position data indicating the position of the user,
The display instruction data output means outputs, as the display instruction data, data instructing simultaneous display of a position indicated by the position data, in addition to the lyrics and the guidance. The data processing apparatus described.
ユーザの画像データを受け取る画像データ入力手段を備え、
前記表示指示データ出力手段は、前記表示指示データとして、前記歌詞と前記ガイダンスに加え、前記画像データにより示される画像の同時表示を指示するデータを出力する
ことを特徴とする請求項1または2に記載のデータ処理装置。
Comprising image data input means for receiving user image data;
The display instruction data output means outputs, as the display instruction data, data instructing simultaneous display of an image indicated by the image data in addition to the lyrics and the guidance. The data processing apparatus described.
楽曲の演奏を指示する演奏指示データを出力する処理と、
歌詞の表示を指示する歌詞表示指示データを、前記楽曲の進行において当該歌詞が表示されるべきタイミングを示すタイミングデータに対応付けて記憶する処理と、
撮像装置、画像データの加工を行う加工装置、撮像装置の移動を行う移動装置および照明装置の少なくとも1により実行されるべき処理を指示する処理指示データを、前記楽曲の進行において当該処理が実行されるべきタイミングを示すタイミングデータに対応付けて記憶する処理と、
前記演奏指示データの出力と並行して、前記処理指示データを、当該処理指示データに対応付けられたタイミングデータに応じたタイミングで出力する出力処理と、
前記演奏指示データの出力および前記処理指示データの出力と並行して、前記歌詞表示指示データにより指示される歌詞を当該歌詞表示指示データに対応付けられたタイミングデータに応じたタイミングで表示するとともに、前記出力処理において出力される処理指示データに応じたガイダンスを当該処理指示データに対応付けられたタイミングデータに応じたタイミングで表示することを指示する表示指示データを出力する処理と
をコンピュータに実行させることを特徴とするプログラム。
A process of outputting performance instruction data for instructing the performance of the music;
A process of storing lyrics display instruction data instructing display of lyrics in association with timing data indicating a timing at which the lyrics should be displayed in the progress of the music;
Processing instruction data for instructing processing to be executed by at least one of an imaging device, a processing device that processes image data, a moving device that moves the imaging device, and a lighting device is executed in the progress of the music. Processing associated with timing data indicating the timing to be performed;
In parallel with the output of the performance instruction data, an output process for outputting the processing instruction data at a timing according to timing data associated with the processing instruction data;
In parallel with the output of the performance instruction data and the output of the processing instruction data, the lyrics indicated by the lyrics display instruction data are displayed at a timing according to the timing data associated with the lyrics display instruction data. Causing the computer to execute a process of outputting display instruction data instructing to display guidance corresponding to the process instruction data output in the output process at a timing corresponding to the timing data associated with the process instruction data. A program characterized by that.
楽曲の演奏を指示する演奏指示データを出力する処理と、
歌詞の表示を指示する歌詞表示指示データを、前記楽曲の進行において当該歌詞が表示されるべきタイミングを示すタイミングデータに対応付けて記憶する処理と、
撮像装置の位置、撮像装置の方向、撮像装置の処理、照明装置の位置、照明装置の方向、照明装置の処理および画像データの加工を行う加工装置の処理のうち、少なくとも1に関する現在の状態もしくは所定期間内に予定されている状態の変化を示す状態データを受け取る入力処理と、
前記演奏指示データの出力と並行して、前記歌詞表示指示データにより指示される歌詞を当該歌詞表示指示データに対応付けられたタイミングデータに応じたタイミングで表示するとともに、前記入力処理において受け取られる状態データに応じたガイダンスを表示することを指示する表示指示データを出力する処理と
をコンピュータに実行させることを特徴とするプログラム。
A process of outputting performance instruction data for instructing the performance of the music;
A process of storing lyrics display instruction data instructing display of lyrics in association with timing data indicating a timing at which the lyrics should be displayed in the progress of the music;
Current state of at least one of the position of the imaging device, the direction of the imaging device, the processing of the imaging device, the position of the lighting device, the direction of the lighting device, the processing of the lighting device and the processing of the processing device that processes the image data An input process for receiving state data indicating a state change scheduled within a predetermined period;
In parallel with the output of the performance instruction data, the lyrics designated by the lyrics display instruction data are displayed at a timing corresponding to the timing data associated with the lyrics display instruction data and received in the input process A program for causing a computer to execute a process of outputting display instruction data instructing to display guidance according to data.
JP2004361651A 2004-12-14 2004-12-14 Data processing apparatus and program for displaying guidance along with music performance and lyrics display Expired - Fee Related JP4380521B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004361651A JP4380521B2 (en) 2004-12-14 2004-12-14 Data processing apparatus and program for displaying guidance along with music performance and lyrics display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004361651A JP4380521B2 (en) 2004-12-14 2004-12-14 Data processing apparatus and program for displaying guidance along with music performance and lyrics display

Publications (2)

Publication Number Publication Date
JP2006171215A true JP2006171215A (en) 2006-06-29
JP4380521B2 JP4380521B2 (en) 2009-12-09

Family

ID=36672070

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004361651A Expired - Fee Related JP4380521B2 (en) 2004-12-14 2004-12-14 Data processing apparatus and program for displaying guidance along with music performance and lyrics display

Country Status (1)

Country Link
JP (1) JP4380521B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010139946A (en) * 2008-12-15 2010-06-24 Roland Corp Electronic musical instrument
JP2012208281A (en) * 2011-03-29 2012-10-25 Xing Inc Karaoke machine
KR101382359B1 (en) * 2012-10-11 2014-04-08 주식회사 금영 A karaoke apparatus and a karaoke system for dynamically synthesizing external video to the internal video
JP2015049262A (en) * 2013-08-30 2015-03-16 株式会社第一興商 Communication karaoke system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010139946A (en) * 2008-12-15 2010-06-24 Roland Corp Electronic musical instrument
JP2012208281A (en) * 2011-03-29 2012-10-25 Xing Inc Karaoke machine
KR101382359B1 (en) * 2012-10-11 2014-04-08 주식회사 금영 A karaoke apparatus and a karaoke system for dynamically synthesizing external video to the internal video
JP2015049262A (en) * 2013-08-30 2015-03-16 株式会社第一興商 Communication karaoke system

Also Published As

Publication number Publication date
JP4380521B2 (en) 2009-12-09

Similar Documents

Publication Publication Date Title
JP5772111B2 (en) Display control device
CN108766408A (en) A kind of electronic musical instrument ensemble system and method
US9275615B2 (en) Information processing terminal that displays information related to a function selected based on a positional relation, and system
JP5748078B2 (en) Music performance apparatus and music performance program
JP2008131379A (en) Distribution system and terminal device
JP4380521B2 (en) Data processing apparatus and program for displaying guidance along with music performance and lyrics display
JP6501344B2 (en) Karaoke scoring system considering listener&#39;s evaluation
JP2012194241A (en) Evaluation device
JP3077192B2 (en) Electronic musical instruments compatible with performance environments
JP2014035436A (en) Voice processing device
JP2013156543A (en) Posting reproducer and program
JP5486941B2 (en) A karaoke device that makes you feel like singing to the audience
JP2006217183A (en) Data processor and program for generating multimedia data
JP2006222694A (en) Data processor and program for informing user of standing position
JP5780258B2 (en) Portable terminal device, portable terminal program, server, and image browsing system
JP5256682B2 (en) Information processing apparatus, information processing method, and program
JP4586787B2 (en) Live performance karaoke system
JPH10240276A (en) Karaoke device
JP6657866B2 (en) Sound effect imparting device and sound effect imparting program
JP6440434B2 (en) Karaoke system
JP5800247B2 (en) Karaoke system and karaoke device
WO2016017623A1 (en) Reference display device, reference display method, and program
JP2021103215A (en) Karaoke device
JP2008244888A (en) Communication device, communication method, and program
JP6264251B2 (en) Karaoke device, program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071023

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090512

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090901

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090914

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121002

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121002

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131002

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees