JP7434083B2 - karaoke equipment - Google Patents

karaoke equipment Download PDF

Info

Publication number
JP7434083B2
JP7434083B2 JP2020110447A JP2020110447A JP7434083B2 JP 7434083 B2 JP7434083 B2 JP 7434083B2 JP 2020110447 A JP2020110447 A JP 2020110447A JP 2020110447 A JP2020110447 A JP 2020110447A JP 7434083 B2 JP7434083 B2 JP 7434083B2
Authority
JP
Japan
Prior art keywords
information
mobile terminal
instrument
musical
sound source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020110447A
Other languages
Japanese (ja)
Other versions
JP2022007453A (en
Inventor
大樹 中林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daiichikosho Co Ltd
Original Assignee
Daiichikosho Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daiichikosho Co Ltd filed Critical Daiichikosho Co Ltd
Priority to JP2020110447A priority Critical patent/JP7434083B2/en
Publication of JP2022007453A publication Critical patent/JP2022007453A/en
Application granted granted Critical
Publication of JP7434083B2 publication Critical patent/JP7434083B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Stereophonic System (AREA)
  • Auxiliary Devices For Music (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Circuit For Audible Band Transducer (AREA)

Description

本発明はカラオケ装置に関する。 The present invention relates to a karaoke device.

複数の異なる楽器の楽音信号を同時に生成し、それぞれの楽音信号を独立して出力(所謂、インディヴィジュアル・アウト)することができる音源(所謂、マルチティンバー音源)を備えた電子楽器が知られている。マルチティンバー音源が出力する複数の楽音信号に基づく楽器音は、それぞれ独立したスピーカから放音することができる。 Electronic musical instruments are known that are equipped with sound sources (so-called multitimbral sound sources) that can simultaneously generate musical sound signals from multiple different musical instruments and output each musical sound signal independently (so-called individual output). There is. Instrument sounds based on a plurality of musical sound signals output by a multitimbral sound source can be emitted from independent speakers.

たとえば、マルチティンバー音源で生成した楽音信号に基づくギター、ベース、ドラムの楽器音を、適切な位置に設置されたスピーカから別々に放音することにより、バンドのライブ演奏の様な臨場感を得ることができる。 For example, by emitting guitar, bass, and drum instrument sounds based on musical sound signals generated by a multitimbral sound source separately from speakers installed at appropriate locations, you can create a realistic feeling similar to a live performance by a band. be able to.

特許文献1には、第1音色の楽音信号を外部に出力するための第1の出力端子と、第2音色の楽音信号を外部に出力するための第2の出力端子とを備えた電子楽器が開示されている。 Patent Document 1 discloses an electronic musical instrument that includes a first output terminal for outputting a musical tone signal of a first tone to the outside, and a second output terminal for outputting a musical tone signal of a second tone to the outside. is disclosed.

特開平9-330083号公報Japanese Patent Application Publication No. 9-330083

ところで、一般的なカラオケ装置においては、マルチティンバー音源で生成した複数の楽音信号をディジタル・ミキサによりステレオ・ミックスし、カラオケ演奏音として放音している。従って、一のスピーカから複数の楽器音がまとまって放音されることになるため、ライブ演奏のような臨場感が得られない。 By the way, in a typical karaoke apparatus, a plurality of musical tone signals generated by a multitimbral sound source are stereo-mixed by a digital mixer and emitted as karaoke performance sound. Therefore, since a plurality of musical instrument sounds are collectively emitted from one speaker, it is not possible to obtain a sense of presence similar to that of a live performance.

本発明の目的は、ライブ演奏のような臨場感のあるカラオケ演奏を可能とするカラオケ装置を提供することにある。 SUMMARY OF THE INVENTION An object of the present invention is to provide a karaoke apparatus that enables karaoke performances that have a realistic feel similar to live performances.

上記目的を達成するための一の発明は、利用者が所有する携帯端末と通信可能なカラオケ装置であって、選曲された楽曲の演奏データに基づいて、当該楽曲の演奏に使用されている楽器を示す楽器情報を特定する特定部と、前記カラオケ装置が設置されている部屋内における前記携帯端末の位置を示す第1の位置情報を取得する取得部と、取得した前記第1の位置情報に対応する携帯端末と、特定した前記楽器情報とを対応付けたアサイン情報を生成する生成部と、楽曲の演奏データに基づいて楽器毎の楽音信号を生成し、楽器毎に独立して出力する音源を制御する音源制御部であって、前記アサイン情報に含まれる楽器情報が示す楽器の楽音信号を当該楽器情報に対応付けられた携帯端末に送信させ、且つ特定された前記楽器情報のうち、前記アサイン情報に含まれない楽器情報が示す楽器の楽音信号を放音手段に出力させる音源制御部と、を有するカラオケ装置である。
本発明の他の特徴については、後述する明細書及び図面の記載により明らかにする。
One invention to achieve the above object is a karaoke device that can communicate with a mobile terminal owned by a user, and which uses a musical instrument that is used to play a selected song based on performance data of the song. an identification unit that identifies musical instrument information indicating the karaoke device; an acquisition unit that acquires first position information indicating the position of the mobile terminal in a room in which the karaoke device is installed; a generation unit that generates assignment information that associates a compatible mobile terminal with the specified instrument information; and a sound source that generates a musical tone signal for each instrument based on performance data of a song and outputs it independently for each instrument. a sound source control unit that controls a musical tone signal of a musical instrument indicated by musical instrument information included in the assignment information to a mobile terminal associated with the musical instrument information; The karaoke apparatus includes a sound source control section that causes a sound emitting means to output a musical tone signal of a musical instrument indicated by musical instrument information not included in assignment information.
Other features of the present invention will become clear from the description and drawings described below.

本発明によれば、ライブ演奏のような臨場感のあるカラオケ演奏ができる。 According to the present invention, it is possible to perform a karaoke performance with a realistic feeling similar to a live performance.

第1実施形態に係るカラオケルームを示す図である。It is a diagram showing a karaoke room according to the first embodiment. 第1実施形態に係るカラオケ装置を示す図である。FIG. 1 is a diagram showing a karaoke apparatus according to a first embodiment. 第1実施形態に係るカラオケ本体を示す図である。It is a figure showing a karaoke main body concerning a 1st embodiment. 第1実施形態に係るカラオケルーム内を詳細に示す図である。It is a diagram showing the inside of the karaoke room according to the first embodiment in detail. 第1実施形態に係るアサインテーブルを示す図である。FIG. 3 is a diagram showing an assignment table according to the first embodiment. 第1実施形態に係るカラオケ装置の処理を示すフローチャートである。It is a flowchart which shows the processing of the karaoke apparatus concerning a 1st embodiment. 変形例1に係る定位指定情報と楽器情報との対応を示す図である。7 is a diagram showing the correspondence between localization designation information and musical instrument information according to Modification 1. FIG. 変形例1に係るカラオケルーム内を詳細に示す図である。7 is a diagram showing details of the inside of a karaoke room according to modification 1. FIG. 第2実施形態に係るカラオケ装置の処理を示すフローチャートである。It is a flowchart which shows the processing of the karaoke apparatus concerning a 2nd embodiment.

<第1実施形態>
図1~図6を参照して、第1実施形態に係るカラオケ装置について説明する。
<First embodiment>
A karaoke apparatus according to a first embodiment will be described with reference to FIGS. 1 to 6.

==カラオケ装置==
カラオケ装置Kは、カラオケ演奏、及び利用者がカラオケ歌唱を行うための装置である。カラオケ装置Kは、カラオケルームR内に設置されている。カラオケルームRは「部屋」の一例である。
==Karaoke machine==
The karaoke device K is a device for performing karaoke and for users to sing karaoke. Karaoke device K is installed in karaoke room R. Karaoke room R is an example of a "room."

図1に示す利用者U1~利用者U3は、カラオケ装置Kを利用する者である。利用者それぞれは携帯端末M1~携帯端末M3を所有する。携帯端末は、スマートフォン等の端末であり、カラオケ装置専用のアプリケーションソフトウェア(以下、「専用アプリ」)や、各種音声を放音するためのスピーカ等を備えている。 Users U1 to U3 shown in FIG. 1 are those who use the karaoke apparatus K. Each user owns a mobile terminal M1 to a mobile terminal M3. The mobile terminal is a terminal such as a smartphone, and is equipped with application software dedicated to the karaoke device (hereinafter referred to as "dedicated application"), a speaker for emitting various sounds, and the like.

利用者は、カラオケルームRに入室後、携帯端末を操作し、予めインストールしてある専用アプリを起動させる。携帯端末は、専用アプリを実行し、カラオケ装置Kとのペアリングを行う。ペアリングは公知の手法により行うことができる。ペアリングが終了した後、カラオケ装置Kと携帯端末とは通信可能となる。なお、ペアリングに伴い、カラオケ装置Kは、各携帯端末を識別するための端末識別情報(たとえば、端末ID)を取得する。 After entering Karaoke Room R, the user operates a mobile terminal to start a pre-installed dedicated application. The mobile terminal executes a dedicated application and performs pairing with the karaoke device K. Pairing can be performed using a known method. After the pairing is completed, the karaoke device K and the mobile terminal can communicate with each other. In addition, along with the pairing, the karaoke apparatus K acquires terminal identification information (for example, terminal ID) for identifying each mobile terminal.

図2に示すように、本実施形態に係るカラオケ装置Kは、カラオケ本体10、スピーカ20、表示装置30、マイク40、リモコン装置50、及び撮影手段60を備える。 As shown in FIG. 2, the karaoke apparatus K according to the present embodiment includes a karaoke main body 10, a speaker 20, a display device 30, a microphone 40, a remote control device 50, and a photographing means 60.

カラオケ本体10は、選曲された楽曲の演奏制御、歌詞や背景映像等の表示制御、マイク40を通じて入力された音声信号の処理といった、カラオケ演奏やカラオケ歌唱に関する各種の制御を行う。スピーカ20は、カラオケ本体10からの信号に基づいて放音するための構成である。スピーカ20は、「放音手段」の一例である。本実施形態では、カラオケルームR内に2つのスピーカ(左スピーカ20a及び右スピーカ20b)が一定の間隔を開けて配置されている(図4参照)。なお、スピーカ20の数は2つに限られない。表示装置30は、カラオケ本体10からの信号に基づいて映像や画像を画面に表示するための構成である。マイク40は、利用者のカラオケ歌唱に基づく歌唱音声をアナログの音声信号に変換してカラオケ本体10に入力するための構成である。リモコン装置50は、カラオケ本体10に対する各種操作をおこなうための装置である。撮影手段60は、カラオケ装置Kが設置されているカラオケルームR内を撮影可能なカメラである。 The karaoke main body 10 performs various controls related to karaoke performance and singing, such as controlling the performance of selected songs, controlling the display of lyrics and background images, and processing audio signals input through the microphone 40. The speaker 20 is configured to emit sound based on a signal from the karaoke main body 10. The speaker 20 is an example of a "sound emitting means." In this embodiment, two speakers (a left speaker 20a and a right speaker 20b) are arranged at a constant interval in the karaoke room R (see FIG. 4). Note that the number of speakers 20 is not limited to two. The display device 30 is configured to display videos and images on a screen based on signals from the karaoke main body 10. The microphone 40 is configured to convert the singing voice based on the user's karaoke singing into an analog audio signal and input it to the karaoke main body 10. The remote control device 50 is a device for performing various operations on the karaoke main body 10. The photographing means 60 is a camera capable of photographing the inside of the karaoke room R where the karaoke apparatus K is installed.

図2に示すように、カラオケ本体10は、制御部11、通信部12、記憶部13、音響処理部14、表示処理部15、及び操作部16を備える。各構成はインターフェース(図示なし)を介してバスBに接続されている。 As shown in FIG. 2, the karaoke main body 10 includes a control section 11, a communication section 12, a storage section 13, a sound processing section 14, a display processing section 15, and an operation section 16. Each component is connected to bus B via an interface (not shown).

制御部11は、CPU11aおよびメモリ11bを備える。CPU11aは、メモリ11bに記憶された動作プログラムを実行することにより各種の制御機能を実現する。メモリ11bは、CPU11aに実行されるプログラムを記憶したり、プログラムの実行時に各種情報を一時的に記憶したりする記憶装置である。 The control unit 11 includes a CPU 11a and a memory 11b. The CPU 11a implements various control functions by executing operating programs stored in the memory 11b. The memory 11b is a storage device that stores programs to be executed by the CPU 11a and temporarily stores various information when the programs are executed.

通信部12は、各携帯端末との通信を行うためのインターフェースを提供する。 The communication unit 12 provides an interface for communicating with each mobile terminal.

記憶部13は、各種のデータを記憶する大容量の記憶装置であり、たとえばハードディスクドライブなどである。 The storage unit 13 is a large-capacity storage device that stores various data, and is, for example, a hard disk drive.

記憶部13は、楽曲のカラオケ演奏を行うための楽曲データと、楽曲識別情報とを紐付けて記憶している。楽曲識別情報は、たとえば楽曲IDのような、楽曲毎に設定された固有の情報である。楽曲データは、演奏データ、利用者によるカラオケ歌唱を採点するためのリファレンスデータ等を含む。 The storage unit 13 stores music data for performing a karaoke performance of music and music identification information in association with each other. The song identification information is unique information set for each song, such as a song ID. The music data includes performance data, reference data for scoring karaoke singing by users, and the like.

演奏データは、カラオケ演奏音の元となるデータである。演奏データは、たとえば、MIDI形式のデータであり、楽曲の演奏に使用されている楽器毎に、チャンネルが異なる演奏情報と音色指定情報が含まれる。演奏情報は、楽音信号に対応するデータである。音色指定情報は、楽音信号に基づく楽器音の音色を指定するための情報である。 The performance data is the source data of the karaoke performance sound. The performance data is, for example, MIDI format data, and includes performance information and timbre designation information for different channels for each instrument used to perform the music. Performance information is data corresponding to musical tone signals. The timbre specification information is information for specifying the timbre of the musical instrument sound based on the musical tone signal.

また、記憶部13は、楽曲のカラオケ演奏に合わせて歌詞テロップを表示装置30等に表示させるための歌詞テロップデータ、カラオケ演奏時に表示装置30等に表示される背景画像等の背景画像データ等を楽曲毎に記憶する。 The storage unit 13 also stores lyrics caption data for displaying lyrics captions on the display device 30 etc. in accordance with the karaoke performance of the song, background image data such as a background image displayed on the display device 30 etc. during the karaoke performance, etc. Memorize each song.

音響処理部14は、制御部11の制御に基づき、楽曲のカラオケ演奏に関する制御、及びマイク40を通じて入力された歌唱音声に基づく音声信号の処理を行う。音響処理部14は、音源14aを備える。音源14aは、演奏データに基づいて楽音信号を生成し、ミキサ(図示なし)を介してスピーカ20に出力する。また、本実施形態に係る音源14aは、生成された楽音信号の一部を携帯端末に送信することができる。具体的に、音源14aは、マルチティンバー音源であり、演奏データに含まれる音色指定情報により、楽器毎の楽音信号を生成するための音色をチャンネル毎に設定する。そして、音源14aは、演奏情報に基づいて楽器毎の楽音信号を生成し、楽器毎に独立して出力する。 Under the control of the control unit 11 , the audio processing unit 14 controls the karaoke performance of music and processes audio signals based on singing voices input through the microphone 40 . The acoustic processing section 14 includes a sound source 14a. The sound source 14a generates a musical tone signal based on the performance data and outputs it to the speaker 20 via a mixer (not shown). Furthermore, the sound source 14a according to this embodiment can transmit a part of the generated musical tone signal to the mobile terminal. Specifically, the sound source 14a is a multitimbral sound source, and a tone color for generating a musical tone signal for each musical instrument is set for each channel based on tone color designation information included in the performance data. Then, the sound source 14a generates musical tone signals for each musical instrument based on the performance information, and outputs them independently for each musical instrument.

表示処理部15は、制御部11の制御に基づき、表示装置30やリモコン装置50における各種表示に関する処理を行う。たとえば、表示処理部15は、楽曲のカラオケ演奏時における背景映像に歌詞テロップや各種アイコンが重ねられた映像を表示装置30に表示させる制御を行う。操作部16は、パネルスイッチおよびリモコン受信回路などからなり、利用者によるカラオケ装置Kのパネルスイッチやリモコン装置50の操作に応じて選曲信号、演奏中止信号などの操作信号を制御部11に対して出力する。制御部11は、操作部16からの操作信号を検出し、対応する処理を実行する。 The display processing section 15 performs processing related to various displays on the display device 30 and the remote control device 50 under the control of the control section 11 . For example, the display processing unit 15 controls the display device 30 to display an image in which lyrics captions and various icons are superimposed on a background image during a karaoke performance of a song. The operation unit 16 includes a panel switch, a remote control receiving circuit, etc., and sends operation signals such as a song selection signal and a performance stop signal to the control unit 11 in response to the user's operation of the panel switch of the karaoke device K or the remote control device 50. Output. The control unit 11 detects an operation signal from the operation unit 16 and executes a corresponding process.

==カラオケ本体==
図3に示すように、本実施形態に係るカラオケ本体10は、特定部100、取得部200、生成部300、及び音源制御部400を備える。特定部100、取得部200、生成部300、及び音源制御部400は、CPU11aがメモリ11bに記憶されるプログラムを実行することにより実現される。
==Karaoke body==
As shown in FIG. 3, the karaoke main body 10 according to the present embodiment includes a specifying section 100, an acquiring section 200, a generating section 300, and a sound source controlling section 400. The identification unit 100, the acquisition unit 200, the generation unit 300, and the sound source control unit 400 are realized by the CPU 11a executing a program stored in the memory 11b.

[特定部]
特定部100は、選曲された楽曲の演奏データに基づいて、楽器情報を特定する。楽器情報は、楽曲の演奏に使用されている楽器を示す。楽器情報は、たとえば楽器名として特定される。特定部100は、特定した楽器情報を生成部300に出力する。
[Specific part]
The identification unit 100 identifies musical instrument information based on the performance data of the selected song. The musical instrument information indicates the musical instrument used to play the music. The musical instrument information is specified as a musical instrument name, for example. The specifying unit 100 outputs the specified musical instrument information to the generating unit 300.

ここで、図1の例において、利用者U1により楽曲Xが選曲されたとする。この場合、特定部100は、楽曲Xの演奏データを記憶部13から読み出す。そして、特定部100は、楽曲Xの演奏データに含まれる全チャンネルの音色指定情報を抽出することにより、楽器情報を特定する。なお、演奏データがMIDI形式の場合、音色指定情報は、所定バイトの数値(音色指定番号)として表現されている。この場合、特定部100は、予め記憶部13に記憶されている音色指定番号と楽器情報との対照テーブルを参照することにより、楽器情報を特定することができる。 Here, in the example of FIG. 1, assume that music X is selected by user U1. In this case, the specifying unit 100 reads the performance data of the song X from the storage unit 13. Then, the specifying unit 100 specifies the musical instrument information by extracting the timbre designation information of all channels included in the performance data of the song X. Note that when the performance data is in MIDI format, the tone color designation information is expressed as a numerical value (tone color designation number) of a predetermined byte. In this case, the specifying unit 100 can specify the musical instrument information by referring to a comparison table between tone color designation numbers and musical instrument information stored in the storage unit 13 in advance.

以下、楽曲Xの演奏データに基づいて、6種類(「ギター」、「ベース」、「ピアノ」、「サックス」、「トランペット」、「ドラムセット」)の楽器情報が特定されたとする。 In the following, it is assumed that six types of musical instrument information ("guitar", "bass", "piano", "saxophone", "trumpet", and "drum set") are specified based on the performance data of song X.

[取得部]
取得部200は、カラオケ装置が設置されている部屋内における携帯端末の位置を示す第1の位置情報を取得する。
[Acquisition part]
The acquisition unit 200 acquires first position information indicating the position of the mobile terminal in the room where the karaoke device is installed.

取得部200は、公知の手法を用い、撮影手段60により撮影された携帯端末の映像からその位置を求めることができる。部屋内における携帯端末の位置は、ある位置(たとえば、左スピーカ20a及び右スピーカ20b)を基準としたXYの座標値で示すことができる。 The acquisition unit 200 can obtain the position from the image of the mobile terminal photographed by the photographing means 60 using a known method. The position of the mobile terminal in the room can be indicated by XY coordinate values based on a certain position (for example, the left speaker 20a and the right speaker 20b).

撮影手段60は、各利用者がカラオケルームRに入室し、携帯端末とカラオケ装置Kとのペアリングが完了した後、撮影を開始し、映像を取得部200に送信する。取得部200は、受信した映像をペアリングの際に取得した端末識別情報と対応付ける。その後、第1の位置情報の取得は、様々なタイミングで行うことができる。たとえば、取得部200は、ある楽曲が選曲された時点や、選曲された楽曲のカラオケ演奏が開始される時点において受信した映像に基づいて、第1の位置情報を取得することができる。 After each user enters the karaoke room R and the pairing between the mobile terminal and the karaoke device K is completed, the photographing means 60 starts photographing and transmits the video to the acquisition section 200. The acquisition unit 200 associates the received video with the terminal identification information acquired during pairing. After that, acquisition of the first position information can be performed at various timings. For example, the acquisition unit 200 can acquire the first position information based on the video received at the time when a certain song is selected or when the karaoke performance of the selected song is started.

たとえば、図1の例において、利用者U1により選曲された楽曲Xのカラオケ演奏が開始される際、取得部200は、その時点において撮影された映像から、携帯端末M1~携帯端末M3の位置情報(X1、Y1)、(X2、Y2)、(X3、Y3)を取得する。取得部200は、各位置情報に対して端末識別情報を紐付け、生成部300に出力する。位置情報(X1、Y1)、(X2、Y2)、(X3、Y3)は、それぞれ「第1の位置情報」の一例である。 For example, in the example of FIG. 1, when the karaoke performance of song Obtain (X1, Y1), (X2, Y2), (X3, Y3). The acquisition unit 200 associates terminal identification information with each location information and outputs it to the generation unit 300. The position information (X1, Y1), (X2, Y2), and (X3, Y3) are each examples of "first position information."

なお、取得部200は、携帯端末に対し、第1の位置情報の取得が必要なタイミングで発光させる指示信号を送信してもよい。携帯端末は、指示信号に基づいて発光(たとえば表示画面の点灯)を行う。撮影手段60は、発光している携帯端末を撮影し、その映像をカラオケ装置Kに送信する。この場合、取得部200は、発光した位置を示す位置情報に対して端末識別情報を紐付けることができる。 Note that the acquisition unit 200 may transmit an instruction signal to the mobile terminal to cause the mobile terminal to emit light at a timing when acquisition of the first position information is necessary. The mobile terminal emits light (for example, lights up the display screen) based on the instruction signal. The photographing means 60 photographs the mobile terminal emitting light and transmits the image to the karaoke apparatus K. In this case, the acquisition unit 200 can link the terminal identification information to the position information indicating the position where the light was emitted.

[生成部]
生成部300は、取得した第1の位置情報に対応する携帯端末と、特定した楽器情報とを対応付けたアサイン情報を生成する。
[Generation part]
The generation unit 300 generates assignment information that associates the mobile terminal corresponding to the acquired first position information with the specified musical instrument information.

上記例のように、特定部100から6種類の楽器情報が出力され、且つ取得部200から携帯端末M1~携帯端末M3それぞれの位置情報が出力されたとする。この場合、生成部300は、各携帯端末に対して、いずれか1の楽器情報を対応付けることで3つのアサイン情報を生成する。 Assume that, as in the above example, six types of musical instrument information are output from the specifying unit 100, and the position information of each of the mobile terminals M1 to M3 is output from the acquisition unit 200. In this case, the generation unit 300 generates three pieces of assignment information by associating any one piece of musical instrument information with each mobile terminal.

アサイン情報の生成は様々な方法で行うことができる。本実施形態において、生成部300は、取得した第1の位置情報、及び放音手段の位置を示す第2の位置情報に基づいて、アサイン情報を生成する。 Assignment information can be generated in various ways. In this embodiment, the generation unit 300 generates assignment information based on the acquired first position information and second position information indicating the position of the sound emitting means.

図4は、カラオケルームR内における左スピーカ20a、右スピーカ20b、テーブルTの上に置かれた携帯端末M1~携帯端末M3を示している。図4において、カラオケ本体10等の記載は省略している。 FIG. 4 shows a left speaker 20a, a right speaker 20b, and mobile terminals M1 to M3 placed on a table T in a karaoke room R. In FIG. 4, the description of the karaoke main body 10 and the like is omitted.

生成部300は、各携帯端末の位置と、左スピーカ20a及び右スピーカ20bのセンターラインCLとの距離に応じてアサイン情報を生成する。具体的に、生成部300は、撮影手段60により撮影された映像を公知の手法を利用して解析することで、各携帯端末の位置情報(X1、Y1)、(X2、Y2)、(X3、Y3)に基づいて、各携帯端末とセンターラインCLとの距離を求める。なお、この例におけるセンターラインCLの位置は、左スピーカ20a及び右スピーカ20bの位置によって決まるものであり、「第2の位置情報」の一例である。 The generation unit 300 generates assignment information according to the position of each mobile terminal and the distance from the center line CL of the left speaker 20a and the right speaker 20b. Specifically, the generation unit 300 analyzes the video shot by the shooting means 60 using a known method, thereby generating the position information (X1, Y1), (X2, Y2), (X3) of each mobile terminal. , Y3), the distance between each mobile terminal and the center line CL is determined. Note that the position of the center line CL in this example is determined by the positions of the left speaker 20a and the right speaker 20b, and is an example of "second position information."

またこの例において、記憶部13はアサインテーブルを記憶している(図5参照)。アサインテーブルは、カラオケ演奏で使用される楽器のうち、センターラインCLに近い位置で放音させることが好ましい順に楽器情報を列挙したものである。なお、アサインテーブルはどの楽曲に対しても適用可能な共通のテーブルであってもよいし、楽曲毎に異なるテーブルが設定されていてもよい。 Furthermore, in this example, the storage unit 13 stores an assignment table (see FIG. 5). The assignment table lists information on musical instruments used in karaoke performance in the order in which it is preferable to emit sound at a position close to the center line CL. Note that the assignment table may be a common table that can be applied to any song, or a different table may be set for each song.

生成部300は、センターラインCLとの距離が近い順に、図5に示すアサインテーブルを参照し、各携帯端末(具体的には各携帯端末の端末識別情報)に対して楽器情報の紐付けを行う。 The generation unit 300 refers to the assignment table shown in FIG. 5 in order of distance from the center line CL, and associates musical instrument information with each mobile terminal (specifically, the terminal identification information of each mobile terminal). conduct.

図4の場合、生成部300は、センターラインCLに距離が近い順に、携帯端末M2に対して楽器情報「ギター」を対応付けたアサイン情報A1を生成し、携帯端末M1に対して楽器情報「ベース」を対応付けたアサイン情報A2を生成し、携帯端末M3に対して楽器情報「サックス」を対応付けたアサイン情報A3を生成する。生成部300は、生成したアサイン情報を音源制御部400に出力する。 In the case of FIG. 4, the generation unit 300 generates assignment information A1 in which musical instrument information "guitar" is associated with the mobile terminal M2 in order of distance from the center line CL, and musical instrument information "guitar" is associated with the mobile terminal M1. Assignment information A2 is generated in which musical instrument information "saxophone" is associated with the mobile terminal M3, and assignment information A3 is generated in which musical instrument information "saxophone" is associated with the mobile terminal M3. The generation section 300 outputs the generated assignment information to the sound source control section 400.

[音源制御部]
音源制御部400は音源14aを制御する。また本実施形態において、音源制御部400は、アサイン情報に含まれる楽器情報が示す楽器の楽音信号を当該楽器情報に対応付けられた携帯端末に送信させ、且つ特定された楽器情報のうち、アサイン情報に含まれない楽器情報が示す楽器の楽音信号を放音手段に出力させる。
[Sound source control section]
The sound source control section 400 controls the sound source 14a. Furthermore, in this embodiment, the sound source control unit 400 transmits the musical tone signal of the instrument indicated by the instrument information included in the assignment information to the mobile terminal associated with the instrument information, and To cause a sound emitting means to output a musical tone signal of a musical instrument indicated by musical instrument information not included in the information.

上述の通り、音源14aは、演奏データに基づいて楽器毎の楽音信号を生成し、楽器毎に独立して出力することができる。音源制御部400は、アサイン情報に基づいて、音源14aが出力する楽音信号の一部を、カラオケ装置Kを利用する利用者が所有する携帯端末に送信させる。携帯端末は、受信した楽音信号に基づいて、所定の音色で楽器音を放音することができる。一方、音源制御部400は、音源14aを制御し、アサイン情報に含まれない楽器情報が示す楽器の楽音信号についてはスピーカ20から出力させる。 As described above, the sound source 14a can generate a musical tone signal for each musical instrument based on the performance data and output it independently for each musical instrument. Based on the assignment information, the sound source control unit 400 causes a part of the musical tone signal outputted by the sound source 14a to be transmitted to a mobile terminal owned by a user using the karaoke apparatus K. The mobile terminal can emit musical instrument sounds with predetermined tones based on the received musical tone signals. On the other hand, the sound source control unit 400 controls the sound source 14a and causes the speaker 20 to output the musical tone signal of the musical instrument indicated by the musical instrument information not included in the assignment information.

具体的に、上記例において、生成部300からアサイン情報A1~アサイン情報A3が出力されたとする。音源制御部400は、アサイン情報A1を参照し、携帯端末M2に対して楽器情報「ギター」に対応する楽音信号を送信するよう音源14aを制御する。同様に、音源制御部400は、アサイン情報A2を参照し、携帯端末M1に対して楽器情報「ベース」に対応する楽音信号を送信するよう音源14aを制御する。また、音源制御部400は、アサイン情報A3を参照し、携帯端末M3に対して楽器情報「サックス」に対応する楽音信号を送信するよう音源14aを制御する。各携帯端末への楽音信号の送信は、それぞれの携帯端末の端末識別情報に基づいて行われる。 Specifically, in the above example, assume that the generation unit 300 outputs assignment information A1 to assignment information A3. The sound source control unit 400 refers to the assignment information A1 and controls the sound source 14a to transmit a musical tone signal corresponding to the musical instrument information "guitar" to the mobile terminal M2. Similarly, the sound source control unit 400 refers to the assignment information A2 and controls the sound source 14a to transmit a musical tone signal corresponding to the musical instrument information "Bass" to the mobile terminal M1. The sound source control unit 400 also refers to the assignment information A3 and controls the sound source 14a to transmit a musical tone signal corresponding to the musical instrument information "saxophone" to the mobile terminal M3. Transmission of musical tone signals to each mobile terminal is performed based on the terminal identification information of each mobile terminal.

その結果、携帯端末M1からは「ベース」の楽器音が放音され、携帯端末M2からは「ギター」の楽器音が放音され、携帯端末M3からは「サックス」の楽器音が放音される。 As a result, the musical instrument sound "Bass" is emitted from the mobile terminal M1, the instrumental sound "Guitar" is emitted from the mobile terminal M2, and the instrumental sound "Saxophone" is emitted from the mobile terminal M3. Ru.

一方、アサイン情報に含まれない楽器情報が示す楽器(「ピアノ」、「トランペット」、「ドラムセット」)の楽音信号について、音源制御部400は、左スピーカ20a及び右スピーカ20bから放音するよう音源14aを制御する。音源14aは、これら3つの楽器の楽音信号をミキサに出力する。ミキサは、3つの楽器の楽音信号をステレオ・ミックスしたミキシング信号を生成し、左スピーカ20a及び右スピーカ20bに出力する。その結果、左スピーカ20a及び右スピーカ20bからはそれぞれ、「ピアノ」、「トランペット」、「ドラムセット」の楽器音が放音される。なお、ミキサによる処理は、アサイン情報に含まれない楽器情報が示す楽器が2種類以上の場合のみ実施される。 On the other hand, the sound source control unit 400 controls the sound source control unit 400 to emit musical sound signals from the musical instruments ("piano", "trumpet", "drum set") indicated by the instrument information not included in the assignment information from the left speaker 20a and the right speaker 20b. Controls the sound source 14a. The sound source 14a outputs musical tone signals of these three musical instruments to a mixer. The mixer generates a mixing signal by stereo-mixing the musical tone signals of the three musical instruments, and outputs it to the left speaker 20a and the right speaker 20b. As a result, musical instrument sounds such as "piano", "trumpet", and "drum set" are emitted from the left speaker 20a and the right speaker 20b, respectively. Note that the process by the mixer is performed only when there are two or more types of musical instruments indicated by the musical instrument information not included in the assignment information.

また、カラオケ装置Kから各携帯端末に楽音信号を送信する際、デジタル通信特有の遅延が生じる可能性がある。その結果、カラオケ装置Kから放音される楽器音と携帯端末から放音される楽器音とがずれる可能性がある。 Further, when transmitting musical tone signals from the karaoke apparatus K to each mobile terminal, there is a possibility that a delay peculiar to digital communication may occur. As a result, there is a possibility that the musical instrument sounds emitted from the karaoke device K and the musical instrument sounds emitted from the mobile terminal are misaligned.

そこで、音源制御部400は、音源14aを制御し、アサイン情報に含まれない楽器情報が示す楽器の楽音信号を、アサイン情報に含まれる楽器情報が示す楽器の楽音信号の送信から所定時間遅延させて放音手段に出力させることでもよい。 Therefore, the sound source control section 400 controls the sound source 14a to delay the musical tone signal of the musical instrument indicated by the musical instrument information not included in the assignment information by a predetermined period of time from the transmission of the musical tone signal of the musical instrument indicated by the instrument information included in the assignment information. Alternatively, the sound may be outputted to the sound emitting means.

==カラオケ装置における処理について==
次に、図6を参照して本実施形態に係るカラオケ装置Kにおける処理の具体例について述べる。図6は、カラオケ装置Kにおける処理例を示すフローチャートである。この例では、図1に示す状況において、利用者U1が楽曲Xを選曲したとする。また、各利用者が所有する携帯端末とカラオケ装置Kとはペアリングが完了しているとする。
==About processing in karaoke equipment==
Next, a specific example of processing in the karaoke apparatus K according to this embodiment will be described with reference to FIG. FIG. 6 is a flowchart showing an example of processing in the karaoke apparatus K. In this example, assume that user U1 selects song X in the situation shown in FIG. It is also assumed that pairing between the mobile terminal owned by each user and the karaoke device K has been completed.

特定部100は、選曲された楽曲Xの演奏データに基づいて、楽曲Xの演奏に使用されている楽器を示す楽器情報を特定する(楽器情報を特定。ステップ10)。 The specifying unit 100 specifies instrument information indicating the instrument used to perform the song X based on the performance data of the selected song X (Identifies the instrument information. Step 10).

取得部200は、カラオケ装置Kが設置されているカラオケルームR内における携帯端末M1~携帯端末M3の位置を示す第1の位置情報を取得する(携帯端末毎に第1の位置情報を取得。ステップ11)。 The acquisition unit 200 acquires first position information indicating the positions of the mobile terminals M1 to M3 in the karaoke room R in which the karaoke apparatus K is installed (first position information is acquired for each mobile terminal. Step 11).

生成部300は、ステップ11で取得した第1の位置情報に対応する携帯端末と、ステップ10で特定した楽器情報とを対応付けたアサイン情報を生成する(携帯端末毎にアサイン情報を生成。ステップ12)。 The generation unit 300 generates assignment information that associates the mobile terminal corresponding to the first location information acquired in step 11 with the musical instrument information specified in step 10 (generates assignment information for each mobile terminal. Step 12).

楽曲Xのカラオケ演奏開始(ステップ13)に伴い、音源制御部400は、音源14aを制御し、アサイン情報に含まれる楽器情報が示す楽器の楽音信号を当該楽器情報に対応付けられた携帯端末に送信させる(各携帯端末に楽音信号を送信。ステップ14)。また、音源制御部400は、音源14aを制御し、ステップ10で特定された楽器情報のうち、アサイン情報に含まれない楽器情報が示す楽器の楽音信号を放音手段に出力させる(アサイン情報に含まれない楽器情報が示す楽器の楽音信号を放音手段に出力。ステップ15)。ステップ14及びステップ15の処理に基づき、カラオケ装置Kのスピーカ20及び携帯端末M1~携帯端末M3からは、各楽音信号に基づく楽器音が放音される。 With the start of the karaoke performance of song (Send a musical tone signal to each mobile terminal. Step 14). Furthermore, the sound source control section 400 controls the sound source 14a to cause the sound emitting means to output a musical tone signal of the instrument indicated by the instrument information not included in the assignment information among the instrument information specified in step 10 (in accordance with the assignment information). Output the musical tone signal of the instrument indicated by the instrument information not included to the sound emitting means. Step 15). Based on the processing in steps 14 and 15, musical instrument sounds based on each musical tone signal are emitted from the speaker 20 of the karaoke apparatus K and the mobile terminals M1 to M3.

カラオケ装置Kは、楽曲Xのカラオケ演奏が終了するまで(ステップ16でYの場合まで)、ステップ14及びステップ15の処理を繰り返し行う。 The karaoke apparatus K repeatedly performs the processing of steps 14 and 15 until the karaoke performance of the song X ends (until Y in step 16).

以上から明らかなように、本実施形態に係るカラオケ装置Kは、利用者が所有する携帯端末と通信可能である。カラオケ装置Kは、選曲された楽曲の演奏データに基づいて、当該楽曲の演奏に使用されている楽器を示す楽器情報を特定する特定部100と、カラオケ装置Kが設置されている部屋内における携帯端末の位置を示す第1の位置情報を取得する取得部200と、取得した第1の位置情報に対応する携帯端末と、特定した楽器情報とを対応付けたアサイン情報を生成する生成部300と、楽曲の演奏データに基づいて楽器毎の楽音信号を生成し、楽器毎に独立して出力する音源14aを制御する音源制御部400であって、アサイン情報に含まれる楽器情報が示す楽器の楽音信号を当該楽器情報に対応付けられた携帯端末に送信させ、且つ特定された楽器情報のうち、アサイン情報に含まれない楽器情報が示す楽器の楽音信号を放音手段に出力させる音源制御部400と、を有する。 As is clear from the above, the karaoke apparatus K according to this embodiment can communicate with a mobile terminal owned by a user. The karaoke device K includes an identification unit 100 that identifies instrument information indicating the instrument used to perform the selected song based on the performance data of the selected song, and a mobile phone in the room where the karaoke device K is installed. an acquisition unit 200 that acquires first location information indicating the location of the terminal; a generation unit 300 that generates assignment information that associates the mobile terminal corresponding to the acquired first location information with the specified musical instrument information; , a sound source control unit 400 that controls a sound source 14a that generates a musical sound signal for each instrument based on performance data of a song and outputs it independently for each instrument, the musical sound of the instrument indicated by the instrument information included in the assignment information. A sound source control unit 400 that causes a signal to be transmitted to a mobile terminal associated with the musical instrument information, and that causes the sound emitting means to output a musical tone signal of the instrument indicated by the musical instrument information that is not included in the assignment information among the specified musical instrument information. and has.

このようなカラオケ装置Kによれば、カラオケ演奏を構成する複数の楽器音のうち、一部の楽器音を部屋内に置かれた携帯端末から放音させることができる。よって、利用者は、カラオケ装置のスピーカから複数の楽器音がまとまって放音される場合に比べ、実際に楽器演奏がされているような感覚でカラオケ演奏を聴くことができる。すなわち、本実施形態に係るカラオケ装置Kによれば、ライブ演奏のような臨場感のあるカラオケ演奏が可能となる。 According to such a karaoke apparatus K, some of the plurality of musical instrument sounds constituting a karaoke performance can be emitted from a mobile terminal placed in a room. Therefore, compared to the case where a plurality of musical instrument sounds are emitted all at once from the speakers of the karaoke device, the user can listen to the karaoke performance with the feeling of actually playing a musical instrument. That is, according to the karaoke apparatus K according to the present embodiment, it is possible to perform a karaoke performance with a sense of presence like a live performance.

また、本実施形態に係る生成部300は、取得した第1の位置情報、及び放音手段の位置を示す第2の位置情報に基づいて、アサイン情報を生成することができる。このようにカラオケ装置Kが備える放音手段との位置関係を考慮して生成されたアサイン情報を用いることにより、より臨場感のあるカラオケ演奏が可能となる。 Further, the generation unit 300 according to the present embodiment can generate assignment information based on the acquired first position information and second position information indicating the position of the sound emitting means. By using the assignment information generated in consideration of the positional relationship with the sound emitting means provided in the karaoke apparatus K in this way, it is possible to perform a karaoke performance with a more realistic feeling.

また、本実施形態に係る音源制御部400は、アサイン情報に含まれない楽器情報が示す楽器の楽音信号を、アサイン情報に含まれる楽器情報が示す楽器の楽音信号の送信から所定時間遅延させて放音手段に出力させることができる。このようなカラオケ装置Kによれば、デジタル通信特有の遅延の影響を受けることなく、臨場感のあるカラオケ演奏が可能となる。 Further, the sound source control unit 400 according to the present embodiment delays the musical tone signal of the musical instrument indicated by the musical instrument information not included in the assignment information by a predetermined period of time from the transmission of the musical tone signal of the musical instrument indicated by the musical instrument information included in the assignment information. It can be outputted to the sound emitting means. According to such karaoke apparatus K, it is possible to perform karaoke with a sense of realism without being affected by delays peculiar to digital communication.

<変形例1>
アサイン情報の生成は、上記実施形態の例に限られない。
<Modification 1>
Generation of assignment information is not limited to the example of the above embodiment.

本変形例において、特定部100は、選曲された楽曲の演奏データに基づいて、定位指定情報を更に特定する。定位指定情報は、楽器情報が示す楽器が配置される最適な位置を示す。定位指定情報は、チャンネル毎に設定されているものであり、音色指定情報と共に、楽曲の演奏データに含まれる。すなわち、定位指定情報は楽器毎に設定されている。また、定位指定情報は、左端を0、中央を64、右端を127とする0-127のいずれかの値が設定され、楽曲毎に最適な値が設定されている。図7は、楽曲Xにおける定位指定情報と楽器情報との対応を示す図である。 In this modification, the specifying unit 100 further specifies the localization designation information based on the performance data of the selected song. The localization designation information indicates the optimal position at which the musical instrument indicated by the musical instrument information is placed. The localization designation information is set for each channel, and is included in the music performance data together with the timbre designation information. That is, the localization designation information is set for each musical instrument. Furthermore, the localization designation information is set to any value from 0 to 127, with 0 at the left end, 64 at the center, and 127 at the right end, and the optimal value is set for each song. FIG. 7 is a diagram showing the correspondence between localization designation information and instrument information in song X.

また、定位指定情報は、ある空間(たとえば、カラオケルーム)におけるX座標の値として示すことができる。カラオケルームR内において、定位指定情報を0-127の数値で示す場合、左スピーカ20aの位置を「X=0」とし、中央(図4におけるセンターラインCLに相当する位置)を「X=64」とし、右スピーカ20bの位置を「X=127」とすることができる(図8参照)。この場合、各楽器は、定位指定情報として0-127のいずれかの値を設定することができる。 Further, the localization designation information can be indicated as an X coordinate value in a certain space (for example, a karaoke room). In the karaoke room R, when the localization designation information is expressed as a numerical value from 0 to 127, the position of the left speaker 20a is set to "X=0", and the center (position corresponding to the center line CL in FIG. 4) is set to "X=64". ”, and the position of the right speaker 20b can be set to “X=127” (see FIG. 8). In this case, each musical instrument can set any value from 0 to 127 as localization designation information.

特定部100は、特定した定位指定情報を、特定した楽器情報と併せて生成部300に出力する。たとえば、図7の例において、特定部100は、楽器情報「ギター」について定位指定情報「X=80」を紐付けて生成部300に出力する。 The specifying unit 100 outputs the specified localization designation information to the generating unit 300 together with the specified musical instrument information. For example, in the example of FIG. 7, the specifying unit 100 associates the localization designation information “X=80” with the musical instrument information “guitar” and outputs it to the generating unit 300.

一方、本変形例において、生成部300は、取得した第1の位置情報、及び特定した定位指定情報に基づいて、アサイン情報を生成する。 On the other hand, in this modification, the generation unit 300 generates assignment information based on the acquired first position information and the specified localization designation information.

たとえば、特定部100から6種類の楽器情報及び定位指定情報が出力され、且つ取得部200から携帯端末M1~携帯端末M3それぞれの位置情報が出力されたとする。なお、ここでの位置情報は、カラオケルームRにおけるX座標の値として示されているとする。具体的に、携帯端末M1の位置情報が「X=32」であり、携帯端末M2の位置情報が「X=74」であり、携帯端末M3の位置情報が「X=106」であったとする(図8参照)。 For example, assume that the specifying unit 100 outputs six types of musical instrument information and localization designation information, and the acquiring unit 200 outputs position information for each of the mobile terminals M1 to M3. Note that the position information here is assumed to be indicated as the value of the X coordinate in the karaoke room R. Specifically, assume that the location information of mobile terminal M1 is "X = 32," the location information of mobile terminal M2 is "X = 74," and the location information of mobile terminal M3 is "X = 106." (See Figure 8).

この場合、生成部300は、取得した各携帯端末の位置情報と、定位指定情報とを比較し、各位置情報に対して最も近い定位指定情報を決定する。そして、生成部300は、決定した定位指定情報に紐付けられている楽器情報に基づいて、アサイン情報を生成する。たとえば、生成部300は、携帯端末M1の位置情報「X=32」と一致する定位指定情報「X=32」を決定し、当該定位指定情報に紐付けられている楽器情報「ベース」を特定する。生成部300は、携帯端末M1に対して楽器情報「ベース」を対応付けたアサイン情報A4を生成する。同様に、生成部300は、携帯端末M2の位置情報「X=74」に最も近い定位指定情報「X=80」を決定し、当該定位指定情報に紐付けられている楽器情報「ギター」を特定する。生成部300は、携帯端末M2に対して楽器情報「ギター」を対応付けたアサイン情報A5を生成する。また、生成部300は、携帯端末M3の位置情報「106」に最も近い定位指定情報「112」を決定し、当該定位指定情報に紐付けられている楽器情報「サックス」を特定する。生成部300は、携帯端末M3に対して楽器情報「サックス」を対応付けたアサイン情報A6を生成する。生成部300は、生成したアサイン情報を音源制御部400に出力する。 In this case, the generation unit 300 compares the acquired location information of each mobile terminal with the localization designation information, and determines the localization designation information closest to each location information. The generation unit 300 then generates assignment information based on the musical instrument information linked to the determined localization designation information. For example, the generation unit 300 determines the localization designation information “X=32” that matches the location information “X=32” of the mobile terminal M1, and specifies the musical instrument information “Bass” that is linked to the localization designation information. do. The generation unit 300 generates assignment information A4 that associates the musical instrument information "bass" with the mobile terminal M1. Similarly, the generation unit 300 determines the localization designation information “X=80” that is closest to the location information “X=74” of the mobile terminal M2, and generates the musical instrument information “guitar” linked to the localization designation information. Identify. The generation unit 300 generates assignment information A5 that associates the musical instrument information "guitar" with the mobile terminal M2. Furthermore, the generation unit 300 determines the localization designation information "112" that is closest to the location information "106" of the mobile terminal M3, and specifies the musical instrument information "saxophone" that is linked to the localization designation information. The generation unit 300 generates assignment information A6 that associates the musical instrument information "saxophone" with the mobile terminal M3. The generation section 300 outputs the generated assignment information to the sound source control section 400.

このように本変形例に係るカラオケ装置Kにおいて、特定部100は、選曲された楽曲の演奏データに基づいて、楽器情報が示す楽器が配置される最適な位置を示す定位指定情報を更に特定する。生成部300は、取得した第1の位置情報、及び特定した定位指定情報に基づいて、アサイン情報を生成する。このようなカラオケ装置Kによれば、楽器が配置される最適な位置に基づいて当該楽器の楽器音を放音させることにより、更に臨場感のあるカラオケ演奏が可能となる。 In this way, in the karaoke apparatus K according to the present modification, the specifying unit 100 further specifies localization designation information indicating the optimal position at which the instrument indicated by the musical instrument information is placed, based on the performance data of the selected song. . The generation unit 300 generates assignment information based on the acquired first position information and the specified localization designation information. According to such a karaoke apparatus K, by emitting the sound of the musical instrument based on the optimal position where the musical instrument is placed, it is possible to perform a karaoke performance with a more realistic feeling.

<変形例2>
また、第1の位置情報及び第2の位置情報に基づいてアサイン情報を生成する代わりに、第1の位置情報及びカラオケ歌唱を行う利用者(すなわち歌唱者)の位置情報に基づいてアサイン情報を生成してもよい。
<Modification 2>
Furthermore, instead of generating the assignment information based on the first location information and the second location information, the assignment information is generated based on the first location information and the location information of the user (i.e., the singer) who performs karaoke singing. May be generated.

具体的に、生成部300は、撮影手段60により撮影された映像を公知の手法を利用して解析することで、歌唱者の位置を特定し、歌唱者の位置と各携帯端末の位置との距離を求める。 Specifically, the generation unit 300 specifies the singer's position by analyzing the video photographed by the photographing means 60 using a known method, and calculates the relationship between the singer's position and the position of each mobile terminal. Find the distance.

またこの例の場合、記憶部13は、歌唱者に近い順に最適な楽器情報を設定したアサインテーブルを記憶している。 Further, in the case of this example, the storage unit 13 stores an assignment table in which optimal instrument information is set in order of proximity to the singer.

生成部300は、歌唱者との距離が近い位置情報から順に、アサインテーブルを参照し、各携帯端末(具体的には各携帯端末の端末識別情報)に対して楽器情報の紐付けを行う。 The generation unit 300 refers to the assignment table in order of location information that is closest to the singer, and associates musical instrument information with each mobile terminal (specifically, the terminal identification information of each mobile terminal).

このようなカラオケ装置Kによれば、歌唱者の近くで放音することが好ましい楽器音を携帯端末から放音させることが可能となる。 According to such karaoke device K, it is possible to emit musical instrument sounds that are preferably emitted near the singer from the mobile terminal.

<第2実施形態>
次に図9を参照して、第2実施形態に係るカラオケ装置について説明する。本実施形態では、利用者による携帯端末の操作に応じて、放音される楽器音を調整する例について述べる。第1実施形態と同様の構成については説明を省略する。
<Second embodiment>
Next, with reference to FIG. 9, a karaoke apparatus according to a second embodiment will be described. In this embodiment, an example will be described in which the emitted musical instrument sound is adjusted in accordance with the operation of the mobile terminal by the user. Description of the same configuration as in the first embodiment will be omitted.

[音源制御部]
本実施形態に係る音源制御部400は、音源14aから出力される楽音信号を調整するための調整信号を一の携帯端末から受信した場合、当該一の携帯端末に送信される楽音信号を、当該調整信号に基づいて調整するよう音源14aを制御する。
[Sound source control section]
When the sound source control unit 400 according to the present embodiment receives an adjustment signal for adjusting the musical tone signal output from the sound source 14a from one mobile terminal, the sound source control unit 400 controls the musical tone signal transmitted to the one mobile terminal. The sound source 14a is controlled to be adjusted based on the adjustment signal.

本実施形態において、各携帯端末において専用アプリを実行することにより、利用者は放音される楽器音を調整することができる。 In this embodiment, by running a dedicated application on each mobile terminal, the user can adjust the musical instrument sounds that are emitted.

たとえば、専用アプリを実行した状態の携帯端末を利用者が持ち上げたとする。この場合、携帯端末は、持ち上げられた高さを求め、求めた高さに応じた音量制御信号を、端末識別情報と紐付けてカラオケ装置Kに送信する。たとえば、利用者が携帯端末を10cm持ち上げたとする。この場合、携帯端末は、音量を10%大きくする音量制御信号を送信する。 For example, suppose a user picks up a mobile device with a dedicated application running on it. In this case, the mobile terminal determines the raised height, and transmits a volume control signal corresponding to the determined height to the karaoke apparatus K in association with the terminal identification information. For example, assume that the user lifts the mobile terminal 10 cm. In this case, the mobile terminal transmits a volume control signal that increases the volume by 10%.

また、専用アプリを実行した状態の携帯端末の表示画面を利用者がタッチしたとする。この場合、携帯端末は、表示画面に触れた指の位置や指の数を検出し、指の位置及び数に応じたエフェクト制御信号を、端末識別情報と紐付けてカラオケ装置Kに送信する。たとえば、利用者がエフェクトとしてディストーションをかけたいと考えたとする。この場合、利用者は、携帯端末の表示画面においてディストーションに対応するアイコン部分を選択する。この際、アイコン部分に置かれる指の数に応じてディストーションの強度(深さ)を調整することができる。たとえば、アイコン部分を2本の指で触れた場合、携帯端末は、5段階のうち、下から2番目の強度のディストーションを付与するエフェクト制御信号を送信する。 Further, assume that the user touches the display screen of the mobile terminal while the dedicated application is running. In this case, the mobile terminal detects the position and number of fingers touching the display screen, and sends an effect control signal corresponding to the position and number of fingers to the karaoke apparatus K in association with the terminal identification information. For example, suppose a user wants to apply distortion as an effect. In this case, the user selects an icon portion corresponding to distortion on the display screen of the mobile terminal. At this time, the intensity (depth) of the distortion can be adjusted depending on the number of fingers placed on the icon area. For example, when the icon portion is touched with two fingers, the mobile terminal transmits an effect control signal that applies distortion of the second lowest intensity among five levels.

或いは、専用アプリを実行した状態の携帯端末を利用者が左右に振る動作をおこなったとする。この場合、携帯端末は、振る動作に基づいて周期を検出し、周期に応じたビブラート制御信号を、端末識別情報と紐付けてカラオケ装置Kに送信する。たとえば、利用者が携帯端末を周期fで振っているとする。この場合、携帯端末は、周期fのビブラートを付与するビブラート制御信号を送信する。 Alternatively, suppose that the user shakes the mobile terminal running the dedicated application from side to side. In this case, the mobile terminal detects the cycle based on the shaking motion, and transmits a vibrato control signal corresponding to the cycle to the karaoke apparatus K in association with the terminal identification information. For example, assume that the user is shaking the mobile terminal at a frequency f. In this case, the mobile terminal transmits a vibrato control signal that provides vibrato with period f.

なお、音量制御信号、エフェクト制御信号、ビブラート制御信号は、「調整信号」の一例である。 Note that the volume control signal, effect control signal, and vibrato control signal are examples of "adjustment signals."

ここで、携帯端末M1から音量を10%大きくする音量制御信号が送信され、携帯端末M2から、5段階のうち、下から2番目の強度のディストーションを付与するエフェクト制御信号が送信され、携帯端末M3から周期fのビブラートを付与するビブラート制御信号が送信されたとする。 Here, the mobile terminal M1 transmits a volume control signal to increase the volume by 10%, and the mobile terminal M2 transmits an effect control signal to apply distortion of the second lowest intensity among the five levels. Assume that a vibrato control signal that provides a vibrato with a period f is transmitted from M3.

この場合、音源制御部400は、第1実施形態で説明したアサイン情報A1を参照し、携帯端末M2に対して楽器情報「ギター」に対応する楽音信号を送信する際、エフェクト制御信号に基づくディストーションを付与するよう音源14aを制御する。 In this case, the sound source control section 400 refers to the assignment information A1 described in the first embodiment, and when transmitting the musical tone signal corresponding to the musical instrument information "guitar" to the mobile terminal M2, the sound source control section 400 applies distortion based on the effect control signal. The sound source 14a is controlled to provide the following.

同様に、音源制御部400は、アサイン情報A2を参照し、携帯端末M1に対して楽器情報「ベース」に対応する楽音信号を送信する際、音量制御信号に基づいて10%音量を大きくするよう音源14aを制御する。また、音源制御部400は、アサイン情報A3を参照し、携帯端末M3に対して楽器情報「サックス」に対応する楽音信号を送信する際、ビブラート制御信号に基づいて周期fでビブラートを付与するよう音源14aを制御する。 Similarly, the sound source control section 400 refers to the assignment information A2, and when transmitting the musical tone signal corresponding to the musical instrument information "Bass" to the mobile terminal M1, the sound source control section 400 instructs the mobile terminal M1 to increase the volume by 10% based on the volume control signal. Controls the sound source 14a. Further, the sound source control unit 400 refers to the assignment information A3, and when transmitting a musical tone signal corresponding to the musical instrument information "saxophone" to the mobile terminal M3, the sound source control unit 400 is configured to apply vibrato at a period f based on the vibrato control signal. Controls the sound source 14a.

その結果、携帯端末M1からは音量が通常より大きい「ベース」の楽器音が放音され、携帯端末M2からはディストーションのエフェクトがかかった「ギター」の楽器音が放音され、携帯端末M3からはビブラートが付与された「サックス」の楽器音が放音される。 As a result, mobile terminal M1 emits a "bass" musical instrument sound with a higher volume than usual, mobile terminal M2 emits a "guitar" instrumental sound with a distortion effect, and mobile terminal M3 emits a "guitar" musical instrument sound with a distortion effect. The sound of a ``saxophone'' instrument with vibrato is emitted.

==カラオケ装置における処理について==
次に、図9を参照して本実施形態に係るカラオケ装置Kにおける処理の具体例について述べる。図9は、カラオケ装置Kにおける処理例を示すフローチャートである。この例では、図1に示す状況において、利用者U1が楽曲Xを選曲したとする。また、各利用者が所有する携帯端末とカラオケ装置Kとはペアリングが完了しているとする。
==About processing in karaoke equipment==
Next, a specific example of processing in the karaoke apparatus K according to this embodiment will be described with reference to FIG. FIG. 9 is a flowchart showing an example of processing in the karaoke apparatus K. In this example, assume that user U1 selects song X in the situation shown in FIG. It is also assumed that pairing between the mobile terminal owned by each user and the karaoke device K has been completed.

ステップ20からステップ23は、第1実施形態のステップ10からステップ13と同様である。 Steps 20 to 23 are similar to steps 10 to 13 of the first embodiment.

ステップ23の後、音源14aから出力される楽音信号を調整するための調整信号を一の携帯端末から受信した場合(ステップ24でYの場合)、音源制御部400は、当該一の携帯端末に送信される楽音信号を、当該調整信号に基づいて調整するよう音源14aを制御する。音源制御部400は、音源14aを制御し、調整信号に基づいて調整された楽音信号を当該楽器情報に対応付けられた携帯端末に送信させる(携帯端末に調整された楽音信号を送信。ステップ25)。 After step 23, if an adjustment signal for adjusting the musical tone signal output from the sound source 14a is received from one mobile terminal (Y in step 24), the sound source control unit 400 transmits the adjustment signal to the one mobile terminal. The sound source 14a is controlled to adjust the transmitted musical tone signal based on the adjustment signal. The sound source control unit 400 controls the sound source 14a and causes the musical tone signal adjusted based on the adjustment signal to be transmitted to the mobile terminal associated with the musical instrument information (sends the adjusted musical tone signal to the mobile terminal. Step 25 ).

一方、音源14aから出力される楽音信号を調整するための調整信号をいずれの携帯端末からも受信しなかった場合(ステップ24でNの場合)、音源制御部400は、音源14aを制御し、アサイン情報に含まれる楽器情報が示す楽器の楽音信号を当該楽器情報に対応付けられた携帯端末に送信させる(各携帯端末に楽音信号を送信。ステップ26)。なお、ステップ25において、調整信号を送信した携帯端末以外の携帯端末に対しては、ステップ26と同様の処理を実行する。 On the other hand, if the adjustment signal for adjusting the musical tone signal output from the sound source 14a is not received from any mobile terminal (N in step 24), the sound source control section 400 controls the sound source 14a, The musical tone signal of the musical instrument indicated by the musical instrument information included in the assignment information is transmitted to the mobile terminal associated with the musical instrument information (musical tone signal is transmitted to each mobile terminal. Step 26). Note that in step 25, the same process as step 26 is executed for mobile terminals other than the mobile terminal that transmitted the adjustment signal.

また、音源制御部400は、音源14aを制御し、ステップ20で特定された楽器情報のうち、アサイン情報に含まれない楽器情報が示す楽器の楽音信号を放音手段に出力させる(アサイン情報に含まれない楽器情報が示す楽器の楽音信号を放音手段に出力。ステップ27)。ステップ25またはステップ26の処理、及びステップ27の処理に基づき、カラオケ装置Kのスピーカ20及び携帯端末M1~携帯端末M3からは、各楽音信号に基づく楽器音が放音される。 Furthermore, the sound source control section 400 controls the sound source 14a to cause the sound emitting means to output a musical tone signal of the instrument indicated by the instrument information not included in the assignment information among the instrument information specified in step 20 (in accordance with the assignment information). The musical tone signal of the instrument indicated by the instrument information not included is output to the sound emitting means. Step 27). Based on the process in step 25 or 26 and the process in step 27, the speaker 20 of the karaoke apparatus K and the mobile terminals M1 to M3 emit musical instrument sounds based on each musical tone signal.

カラオケ装置Kは、楽曲Xのカラオケ演奏が終了するまで(ステップ28でYの場合まで)、ステップ24からステップ27の処理を繰り返し行う。 The karaoke apparatus K repeatedly performs the processes from step 24 to step 27 until the karaoke performance of the song X ends (until Y in step 28).

以上から明らかなように、本実施形態に係るカラオケ装置Kにおいて、音源制御部400は、音源14aから出力される楽音信号を調整するための調整信号を一の携帯端末から受信した場合、当該一の携帯端末に送信される楽音信号を、当該調整信号に基づいて調整するよう音源14aを制御する。 As is clear from the above, in the karaoke apparatus K according to the present embodiment, when the sound source control unit 400 receives an adjustment signal for adjusting the musical tone signal output from the sound source 14a from one mobile terminal, the sound source control unit 400 The sound source 14a is controlled to adjust the musical tone signal transmitted to the mobile terminal based on the adjustment signal.

このようなカラオケ装置Kによれば、利用者が携帯端末を操作することにより、放音される楽器音に変化を与えることができる。よって、利用者は、自らがライブ演奏に参加しているような感覚を楽しむことができる。 According to such karaoke device K, the user can change the emitted musical instrument sound by operating the mobile terminal. Therefore, the user can enjoy the feeling of participating in a live performance.

<その他>
上記実施形態は、例として提示したものであり、発明の範囲を限定するものではない。上記の構成は、適宜組み合わせて実施することが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。上記実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
<Others>
The above embodiments are presented as examples and do not limit the scope of the invention. The above configurations can be implemented in appropriate combinations, and various omissions, substitutions, and changes can be made without departing from the gist of the invention. The above-described embodiments and their modifications are included within the scope and gist of the invention as well as within the scope of the invention described in the claims and its equivalents.

100 特定部
200 取得部
300 生成部
400 音源制御部
K カラオケ装置
100 identification unit 200 acquisition unit 300 generation unit 400 sound source control unit K karaoke device

Claims (5)

利用者が所有する携帯端末と通信可能なカラオケ装置であって、
選曲された楽曲の演奏データに基づいて、当該楽曲の演奏に使用されている楽器を示す楽器情報を特定する特定部と、
前記カラオケ装置が設置されている部屋内における前記携帯端末の位置を示す第1の位置情報を取得する取得部と、
取得した前記第1の位置情報に対応する携帯端末と、特定した前記楽器情報とを対応付けたアサイン情報を生成する生成部と、
楽曲の演奏データに基づいて楽器毎の楽音信号を生成し、楽器毎に独立して出力する音源を制御する音源制御部であって、前記アサイン情報に含まれる楽器情報が示す楽器の楽音信号を当該楽器情報に対応付けられた携帯端末に送信させ、且つ特定された前記楽器情報のうち、前記アサイン情報に含まれない楽器情報が示す楽器の楽音信号を放音手段に出力させる音源制御部と、
を有するカラオケ装置。
A karaoke device that can communicate with a mobile terminal owned by a user,
an identification unit that identifies instrument information indicating an instrument used to perform the selected song based on the performance data of the selected song;
an acquisition unit that acquires first position information indicating a position of the mobile terminal in a room where the karaoke device is installed;
a generation unit that generates assignment information that associates a mobile terminal corresponding to the acquired first location information with the specified musical instrument information;
A sound source control unit that generates a musical sound signal for each instrument based on performance data of a song and controls a sound source that outputs independently for each instrument, the sound source control unit generating a musical sound signal of the instrument indicated by the instrument information included in the assignment information. a sound source control unit that causes a mobile terminal associated with the musical instrument information to transmit the musical sound signal and outputs, to a sound emitting means, a musical tone signal of an instrument indicated by musical instrument information that is not included in the assignment information among the specified musical instrument information; ,
A karaoke machine with
前記音源制御部は、前記アサイン情報に含まれない楽器情報が示す楽器の楽音信号を、前記アサイン情報に含まれる楽器情報が示す楽器の楽音信号の送信から所定時間遅延させて放音手段に出力させることを特徴とする請求項1記載のカラオケ装置。 The sound source control section outputs the musical tone signal of the musical instrument indicated by the musical instrument information not included in the assignment information to the sound emitting means after delaying the musical tone signal of the instrument indicated by the instrument information included in the assignment information by a predetermined time. The karaoke apparatus according to claim 1, characterized in that: 前記生成部は、取得した前記第1の位置情報、及び前記放音手段の位置を示す第2の位置情報に基づいて、前記アサイン情報を生成することを特徴とする請求項1または2記載のカラオケ装置。 3. The generating unit generates the assignment information based on the acquired first position information and second position information indicating the position of the sound emitting means. Karaoke equipment. 前記特定部は、前記選曲された楽曲の演奏データに基づいて、前記楽器情報が示す楽器が配置される最適な位置を示す定位指定情報を更に特定し、
前記生成部は、取得した前記第1の位置情報、及び特定した前記定位指定情報に基づいて、前記アサイン情報を生成することを特徴とする請求項1または2記載のカラオケ装置。
The specifying unit further specifies localization designation information indicating an optimal position at which the instrument indicated by the instrument information is placed, based on the performance data of the selected song,
The karaoke apparatus according to claim 1 or 2, wherein the generation unit generates the assignment information based on the acquired first position information and the specified localization designation information.
前記音源制御部は、前記音源から出力される楽音信号を調整するための調整信号を一の携帯端末から受信した場合、当該一の携帯端末に送信される楽音信号を、当該調整信号に基づいて調整するよう前記音源を制御することを特徴とする請求項1から4のいずれか一つに記載のカラオケ装置。 When the sound source control section receives an adjustment signal for adjusting a musical tone signal output from the sound source from one mobile terminal, the sound source control section adjusts the musical tone signal to be transmitted to the one mobile terminal based on the adjustment signal. The karaoke apparatus according to any one of claims 1 to 4, characterized in that the sound source is controlled to adjust the sound source.
JP2020110447A 2020-06-26 2020-06-26 karaoke equipment Active JP7434083B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020110447A JP7434083B2 (en) 2020-06-26 2020-06-26 karaoke equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020110447A JP7434083B2 (en) 2020-06-26 2020-06-26 karaoke equipment

Publications (2)

Publication Number Publication Date
JP2022007453A JP2022007453A (en) 2022-01-13
JP7434083B2 true JP7434083B2 (en) 2024-02-20

Family

ID=80110432

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020110447A Active JP7434083B2 (en) 2020-06-26 2020-06-26 karaoke equipment

Country Status (1)

Country Link
JP (1) JP7434083B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003108125A (en) 2001-10-02 2003-04-11 Namco Ltd Information providing system, portable terminal device, program, and information storage medium
JP2008116625A (en) 2006-11-02 2008-05-22 Yamaha Corp Portable terminal device
US20140069261A1 (en) 2012-09-07 2014-03-13 Eternal Electronics Limited Karaoke system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003108125A (en) 2001-10-02 2003-04-11 Namco Ltd Information providing system, portable terminal device, program, and information storage medium
JP2008116625A (en) 2006-11-02 2008-05-22 Yamaha Corp Portable terminal device
US20140069261A1 (en) 2012-09-07 2014-03-13 Eternal Electronics Limited Karaoke system

Also Published As

Publication number Publication date
JP2022007453A (en) 2022-01-13

Similar Documents

Publication Publication Date Title
CN1248135C (en) Network based music playing/song accompanying service system and method
US20070137462A1 (en) Wireless communications device with audio-visual effect generator
JP2016521381A (en) Electronic musical instruments and music playing methods
WO2007032173A1 (en) Information processor and controller device
JP5748078B2 (en) Music performance apparatus and music performance program
JP2019205105A (en) Reproduction system and reproduction method
JP6729052B2 (en) Performance instruction device, performance instruction program, and performance instruction method
JP5130348B2 (en) Karaoke collaboration using portable electronic devices
JP7434083B2 (en) karaoke equipment
JP3861381B2 (en) Karaoke equipment
JP4259533B2 (en) Performance system, controller used in this system, and program
JP2014066922A (en) Musical piece performing device
JP5397637B2 (en) Karaoke equipment
KR20180001323A (en) Electric drum connectable to smaart phone
JP5803956B2 (en) Karaoke system and karaoke device
JP2983122B2 (en) Electronic musical instrument
JP5800247B2 (en) Karaoke system and karaoke device
JP7117229B2 (en) karaoke equipment
JP2007279696A (en) Concert system, controller and program
JP2023092863A (en) karaoke device
JP3136701B2 (en) Music signal generator
JP2022007182A (en) Karaoke device and electronic percussion device
JP2017073590A (en) Program for sound signal processing device
JP6558123B2 (en) Karaoke device and karaoke program
JP2022114309A (en) Online session server device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230420

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240207

R150 Certificate of patent or registration of utility model

Ref document number: 7434083

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150