JP2019040167A - Karaoke device and control method thereof - Google Patents

Karaoke device and control method thereof Download PDF

Info

Publication number
JP2019040167A
JP2019040167A JP2017172518A JP2017172518A JP2019040167A JP 2019040167 A JP2019040167 A JP 2019040167A JP 2017172518 A JP2017172518 A JP 2017172518A JP 2017172518 A JP2017172518 A JP 2017172518A JP 2019040167 A JP2019040167 A JP 2019040167A
Authority
JP
Japan
Prior art keywords
voice signal
singing voice
karaoke apparatus
output
singing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017172518A
Other languages
Japanese (ja)
Inventor
安田 知弘
Tomohiro Yasuda
知弘 安田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2017172518A priority Critical patent/JP2019040167A/en
Publication of JP2019040167A publication Critical patent/JP2019040167A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

To provide a karaoke device and a control method thereof that enable previously-prepared voice to be selectively output.SOLUTION: A voice selection unit 116 selects whether or not to output a singing voice signal previously prepared, in accordance with the state of a selection switch SW 138. A mixer 118 mixes and outputs singing voice received from a microphone 130, a voice signal output from the voice selection unit 116, and accompaniment for music reproduced by an accompaniment reproduction unit 106.SELECTED DRAWING: Figure 1

Description

本発明はカラオケ装置およびその制御方法に関する。  The present invention relates to a karaoke apparatus and a control method thereof.

さまざまな付加機能(楽曲の進行に合わせた歌詞の表示機能、キーやテンポの変更機能、採点機能、エコーなどのエフェクト機能など)を提供するカラオケ装置が知られている(特許文献1)。しかし、従来のカラオケ装置は、付加機能を含め、ユーザが、歌詞および旋律を覚えている楽曲を歌唱するための伴奏演奏を提供することを基本的な目的として構成されている。  There is known a karaoke apparatus that provides various additional functions (such as a function for displaying lyrics in accordance with the progress of music, a function for changing keys and tempo, a scoring function, an effect function such as echo) (Patent Document 1). However, the conventional karaoke apparatus is configured for providing an accompaniment performance for a user to sing a song that remembers lyrics and melodies, including additional functions.

従来技術文献Prior art documents

特許文献Patent Literature

特開2012−194317号公報JP 2012-194317 A

例えばテレビコマーシャル等では、放映時間の関係から楽曲の一部だけが流される。そういった楽曲は、繰り返し放映される部分については多くの人が知って(覚えて)いるが、他の部分については知られていないといったことがよくある。カラオケの利用者がこういった楽曲を歌唱したいと思っても、知らない区間については伴奏の演奏をただ聞き流すだけで、面白みがなく、場合によっては場の雰囲気をしらけさせてしまう。また、知らない区間を覚えようと思っても旋律の音声と画面上の歌詞とが提供されるだけのため、旋律と歌詞との対応などが分かりづらい。また、主旋律にハーモニーを加える副旋律(コーラスパート)がある楽曲や、デュエット曲などは、一人での歌唱では成立しない。  For example, in TV commercials, only a part of music is played due to the broadcast time. Many people know (remember) the parts of such songs that are repeatedly aired, but not the other parts. Even if a karaoke user wants to sing such music, he simply listens to the accompaniment performance in an unknown section, and is uninteresting, and in some cases, the atmosphere of the place is irritated. Also, even if you want to learn an unknown section, it is difficult to understand the correspondence between the melody and the lyrics because only the melody voice and the lyrics on the screen are provided. Also, a song with a sub-melody (chorus part) that adds harmony to the main melody, a duet song, etc. cannot be established by singing alone.

本発明はこのような従来のカラオケ装置の課題を解決するためになされたものである。従って、本発明の目的は、予め用意された音声を選択的に出力可能なカラオケ装置およびその制御方法を提供することである。  The present invention has been made to solve the problems of such a conventional karaoke apparatus. Accordingly, an object of the present invention is to provide a karaoke apparatus capable of selectively outputting a prepared voice and a control method thereof.

本発明の目的は、楽曲の歌唱音声データを再生して歌唱音声信号を生成する再生手段と、再生手段が生成する歌唱音声信号を選択的に出力する選択手段と、マイクから入力される音声信号と、選択手段が出力するパート別歌唱音声信号とを出力する出力手段と、を有し、選択手段は、歌唱音声信号を出力するか出力しないかをユーザの指示に基づいて切り替える、ことを特徴とするカラオケ装置によって達成される。  An object of the present invention is to reproduce a singing voice data of a song to generate a singing voice signal, a selection means to selectively output a singing voice signal generated by the reproducing means, and an audio signal input from a microphone. And output means for outputting the singing voice signal classified by part output by the selection means, and the selection means switches between outputting or not outputting the singing voice signal based on a user instruction. This is achieved by a karaoke device.

本発明によれば、予め用意された音声を選択的に出力可能なカラオケ装置およびその制御方法を提供することができる。  ADVANTAGE OF THE INVENTION According to this invention, the karaoke apparatus which can selectively output the audio | voice prepared beforehand, and its control method can be provided.

本発明の実施形態に係るカラオケ装置の機能構成例を示す図である。It is a figure which shows the function structural example of the karaoke apparatus which concerns on embodiment of this invention. 実施形態に係るカラオケ装置の動作に関するフローチャートである。It is a flowchart regarding operation | movement of the karaoke apparatus which concerns on embodiment.

以下、添付図面を参照して本発明の例示的な実施形態について説明する。図1は、本発明を実施可能なカラオケ装置の機能構成例を示すブロック図である。なお、本実施形態に係るカラオケ装置は、楽曲データをネットワークを介してアクセス可能なサーバーから受信するものとするが、楽曲データの少なくとも一部についてはカラオケ装置内に有する構成であってよい。ここで、楽曲データとは、伴奏データ、歌詞データ、旋律データ、パート別歌唱音声データ、および映像データなど、楽曲に関する種々のデータの総称である。また、本実施形態のカラオケ装置はカラオケアプリケーションを実行可能な任意の電子機器において実現可能であり、このような電子機器にはパーソナルコンピュータ、タブレット端末、ゲーム機などが含まれるが、それらに限定されない。  Hereinafter, exemplary embodiments of the present invention will be described with reference to the accompanying drawings. FIG. 1 is a block diagram showing a functional configuration example of a karaoke apparatus capable of implementing the present invention. The karaoke apparatus according to the present embodiment receives music data from a server accessible via a network. However, at least part of the music data may be included in the karaoke apparatus. Here, the music data is a general term for various data related to music such as accompaniment data, lyrics data, melody data, singing voice data by part, and video data. In addition, the karaoke apparatus of the present embodiment can be realized in any electronic device that can execute a karaoke application. Such electronic devices include, but are not limited to, a personal computer, a tablet terminal, and a game machine. .

カラオケ装置10は、本体100と、マイク130と、ディスプレイ200と、スピーカー300とを有する。なお、マイク130、ディスプレイ200、およびスピーカー300の少なくとも一つは本体100に内蔵されてもよい。本実施形態において、マイク130は、代理歌唱の再生オン/オフを指示するためのスイッチ138を有する。なお、ここではマイク130がワイヤレスマイクである構成について説明するが、ワイヤードマイクであってもよい。  The karaoke apparatus 10 includes a main body 100, a microphone 130, a display 200, and a speaker 300. Note that at least one of the microphone 130, the display 200, and the speaker 300 may be built in the main body 100. In the present embodiment, the microphone 130 has a switch 138 for instructing on / off of the proxy song reproduction. In addition, although the structure where the microphone 130 is a wireless microphone is demonstrated here, a wired microphone may be sufficient.

制御部101は例えば1つ以上のプログラマブルプロセッサと、ROMと、RAMとを有し、ROMに記憶されたプログラムをRAMにロードして実行することにより、カラオケ装置10の各機能ブロックの動作を制御し、カラオケ装置10の各種機能を実現する。なお、制御部101は少なくとも一部の制御をASICやASSPなどのハードウェアによって実現してもよい。制御部101は各機能ブロックと通信可能に接続されているが、図では明瞭化のために接続の記載を省略している。また、本体100の機能ブロックの少なくとも一部は、制御部101が有するプログラマブルプロセッサがプログラムを実行することによって実現されてもよい。  The control unit 101 has, for example, one or more programmable processors, a ROM, and a RAM, and controls the operation of each functional block of the karaoke apparatus 10 by loading the program stored in the ROM and executing it. Thus, various functions of the karaoke apparatus 10 are realized. Note that the control unit 101 may realize at least a part of control by hardware such as ASIC or ASSP. Although the control unit 101 is communicably connected to each functional block, the connection is not shown in the figure for the sake of clarity. In addition, at least a part of the functional blocks of the main body 100 may be realized by a programmable processor included in the control unit 101 executing a program.

本体100において、ネットワークインターフェース(I/F)102は、サーバー400などの外部機器との通信インターフェースである。ネットワークI/F102は1つ以上の有線および/または無線通信規格に準拠した通信をサポートし、規格に応じたアンテナ、コネクタ、送受信回路などを有する。  In the main body 100, a network interface (I / F) 102 is a communication interface with an external device such as the server 400. The network I / F 102 supports communication conforming to one or more wired and / or wireless communication standards, and includes an antenna, a connector, a transmission / reception circuit, and the like according to the standard.

分離部104は、サーバー400から受信する楽曲データを、データの種類ごとに分離する。本実施形態ではサーバー400から受信する楽曲データが、伴奏データ、旋律データ、歌詞データ、パート別歌唱データ、および映像データの5種類のデータを含みうるものとするが、例えば本体100に保存されているデータについては含まれない場合もある。なお、旋律データとは歌唱の対象となる音程(主旋律)を示すデータである。なお、伴奏データ、旋律データ、および歌詞データは、例えばMIDI(Musical Instrument Digital Interface)データのように統合された形式であってもよい。  The separation unit 104 separates music data received from the server 400 for each type of data. In the present embodiment, the music data received from the server 400 can include five types of data: accompaniment data, melody data, lyrics data, part-by-part singing data, and video data. Some data may not be included. The melody data is data indicating a pitch (main melody) to be sung. The accompaniment data, melody data, and lyrics data may be in an integrated format such as MIDI (Musical Instrument Digital Interface) data.

パート別歌唱データは、人間の音声または合成音声が楽曲を歌唱している音声データであり、楽曲が複数の歌唱パートを有する場合には歌唱パートごとに独立した音声データが用意されている。本実施形態では複数人で歌唱する楽曲については、斉唱パートは1つのパートとして、互いに歌唱内容が異なる区間を有するパートはそれぞれ別パートとして取り扱い、パート別歌唱データを用意する。なお、斉唱パートを複数のパートとして取り扱い、歌唱人数分のパート別歌唱データを用意してもよい。この場合、斉唱パートに関する複数のパート別歌唱データは歌唱者(声質)を異ならせてもよい。パート別歌唱データの再生時間は全パートについて同一であり、歌唱のない区間については無音の音声データが含まれるものとする。  The part-by-part singing data is voice data in which a human voice or synthesized voice sings a song, and when the song has a plurality of song parts, independent voice data is prepared for each song part. In this embodiment, for a piece of music sung by a plurality of people, the singing part is treated as one part, the parts having sections with different singing contents are handled as separate parts, and singing data by part is prepared. Note that the singing part may be handled as a plurality of parts, and part-specific singing data for the number of singers may be prepared. In this case, the singers (voice quality) may be different in the plurality of pieces of singing data related to the singing part. It is assumed that the reproduction time of the part-by-part singing data is the same for all the parts, and silent audio data is included in the section without singing.

分離部104は、パート別歌唱データを音声再生部105へ、伴奏データおよび旋律データを伴奏再生部106へ、歌詞データを歌詞映像生成部120へ、映像データを映像再生部122へ、それぞれ出力する。なお、分離部104は、含まれていない種類のデータについては出力しない。  The separation unit 104 outputs the singing data for each part to the audio reproduction unit 105, the accompaniment data and the melody data to the accompaniment reproduction unit 106, the lyrics data to the lyrics video generation unit 120, and the video data to the video reproduction unit 122. . Note that the separation unit 104 does not output data of a type that is not included.

音声再生部105は、パート別歌唱データを再生し、得られたアナログ音声信号を音声選択部116に出力する。  The audio reproduction unit 105 reproduces the part-specific song data and outputs the obtained analog audio signal to the audio selection unit 116.

伴奏再生部106は、伴奏データを再生し、得られたアナログ音声信号をミキサー118に出力する。伴奏データは例えばMIDI(Musical Instrument Digital Interface)データのような、所定の規格に準拠したデータであってよい。  The accompaniment reproducing unit 106 reproduces accompaniment data, and outputs the obtained analog audio signal to the mixer 118. The accompaniment data may be data that conforms to a predetermined standard, such as MIDI (Musical Instrument Digital Interface) data.

マイク音声受信部110は、マイク130の音声送信部から歌唱音声信号を受信し、ミキサー118に出力する。SW状態受信部112は、マイク130の状態送信部136から、マイク130の選択SW138の状態を表す信号(状態信号)を受信し、音声選択部116に出力する。  The microphone sound receiving unit 110 receives the singing sound signal from the sound transmitting unit of the microphone 130 and outputs the singing sound signal to the mixer 118. The SW state reception unit 112 receives a signal (state signal) indicating the state of the selection SW 138 of the microphone 130 from the state transmission unit 136 of the microphone 130 and outputs the signal to the voice selection unit 116.

上述したように、マイク130は、スピーカー300に出力するパート別歌唱データを選択するための選択スイッチ(SW)138を1つ以上有する。選択SW138は例えば押下状態と非押下状態、タッチ状態と非タッチ状態、オン状態とオフ状態など、2つの状態を有することのできる任意の電子デバイスである。選択SW138の状態を表す信号(状態信号)は状態送信部136を通じて本体100のSW状態受信部112に送信される。  As described above, the microphone 130 has one or more selection switches (SW) 138 for selecting part-specific song data to be output to the speaker 300. The selection SW 138 is an arbitrary electronic device that can have two states, such as a pressed state and a non-pressed state, a touch state and a non-touch state, and an on state and an off state. A signal (state signal) indicating the state of the selection SW 138 is transmitted to the SW state reception unit 112 of the main body 100 through the state transmission unit 136.

また、マイク130に入力された音声を表す電気信号(歌唱音声信号)は、音声送信部134を通じて本体100のマイク音声受信部110に送信される。なお、ここでは理解を容易にするために状態信号と歌唱音声信号とが別個に送受信される構成としたが、歌唱音声信号と状態信号とを多重化した1つの信号を送信し、本体100で歌唱音声信号と状態信号とを分離するように構成してもよい。  In addition, an electrical signal (singing voice signal) representing voice input to the microphone 130 is transmitted to the microphone voice receiving unit 110 of the main body 100 through the voice transmission unit 134. Here, in order to facilitate understanding, the state signal and the singing voice signal are transmitted and received separately, but one signal obtained by multiplexing the singing voice signal and the state signal is transmitted, and the main body 100 You may comprise so that a singing voice signal and a status signal may be isolate | separated.

音声選択部116は、SW状態受信部112からの状態信号に応じて、音声再生部105からのパート別歌唱音声信号の1つ以上を出力するか、いずれも出力しない。状態信号が表す選択SW138の状態と、出力する歌唱パートとの関係は、予め定めておくことができる。例えば楽曲データまたはカラオケ装置10がサポートする最大歌唱パート数に等しい数の選択SW138がある場合、選択SW138のそれぞれを1つの歌唱パートに対応づけ、選択SW138の第1の状態を出力(選択)、第2の状態を非出力(非選択)に割り当てることができる。第1の状態は例えば選択SW138の押下状態、タッチ状態、またはオン状態、第2の状態は選択SW138の非押下状態、非タッチ状態、またはオフ状態であってよい。また、楽曲データまたはカラオケ装置10がサポートする最大歌唱パート数よりも選択SW138の数が少ない場合には、複数の選択SW138の状態の組み合わせを出力する歌唱パートの組み合わせに対応づけることができる。  The audio selection unit 116 outputs one or more part-by-part singing audio signals from the audio reproduction unit 105 according to the state signal from the SW state reception unit 112, or does not output any of them. The relationship between the state of the selection SW 138 represented by the state signal and the song part to be output can be determined in advance. For example, when there are a number of selection SWs 138 equal to the number of song data or the maximum number of singing parts supported by the karaoke apparatus 10, each of the selection SW 138s is associated with one singing part, and the first state of the selection SW 138 is output (selected). The second state can be assigned to non-output (non-selection). For example, the first state may be a pressed state, a touch state, or an on state of the selection SW 138, and the second state may be a non-pressed state, a non-touch state, or an off state of the selection SW 138. Further, when the number of selection SW 138 is smaller than the maximum number of song parts supported by the music data or the karaoke apparatus 10, it is possible to correspond to a combination of song parts for outputting a combination of states of a plurality of selection SW 138.

音声選択部116は状態信号が示す各選択SW138の状態のうち、第1の状態の選択SW138に対応するパート別歌唱音声信号をミキサー118に出力し、第2の状態の選択SW138に対応するパート別歌唱音声信号はミキサー118に出力しない。  Of the states of the selection SW 138 indicated by the state signal, the sound selection unit 116 outputs the part-by-part singing sound signal corresponding to the selection SW 138 in the first state to the mixer 118, and the part corresponding to the selection SW 138 in the second state. The separate singing voice signal is not output to the mixer 118.

なお、選択SW138を、マイク130に設ける代わりに、あるいはマイク130に設けるのとは別に、リモコン140や操作部128などに設けてもよい。この場合、音声選択部116は、制御部101を通じて受信する状態信号に応じて、ミキサー118に出力するパート別歌唱音声信号を制御する。  Note that the selection SW 138 may be provided in the remote controller 140, the operation unit 128, or the like instead of being provided in the microphone 130 or separately from the microphone 130. In this case, the voice selection unit 116 controls the part-by-part singing voice signal output to the mixer 118 according to the state signal received through the control unit 101.

ミキサー118は、マイク音声受信部110からの本人歌唱音声信号と、伴奏再生部106からの伴奏音声信号と、音声選択部116からのパート別歌唱音声信号とをミキシングして付加機能部119に出力する。付加機能部119は、ミキサー118が出力する歌唱音声に対して例えばエコーなどの音響効果を付加したり、ピッチを変更したり、採点を行ったりする。これら、歌唱音声に関する付加機能は既知構成により実現できる。付加機能部119が実施する機能は操作部128やリモコン140などを通じてユーザが設定可能である。付加機能部119は設定に応じて効果を付加した音声信号をスピーカー300に出力する。なお、付加機能部119はミキサー118に入力する本人歌唱音声や代理歌唱音声を処理するように構成してもよい。例えばアンプを内蔵しているスピーカー300は、付加機能部119(またはミキサー118)からの音声信号を可聴音声に変換して出力する。例えば、既存のカラオケ装置に対し、マイク入力に代えて本人歌唱音声信号とパート別歌唱音声信号とをミキシングした音声信号を入力することで、既存のカラオケ装置が有する様々な付加機能をそのまま利用することができる。  The mixer 118 mixes the principal singing voice signal from the microphone voice receiving unit 110, the accompaniment voice signal from the accompaniment playback unit 106, and the part-by-part singing voice signal from the voice selection unit 116, and outputs them to the additional function unit 119. To do. The additional function unit 119 adds an acoustic effect such as an echo to the singing voice output from the mixer 118, changes the pitch, and performs scoring. These additional functions related to the singing voice can be realized by a known configuration. The functions performed by the additional function unit 119 can be set by the user through the operation unit 128, the remote controller 140, or the like. The additional function unit 119 outputs an audio signal to which an effect is added according to the setting to the speaker 300. Note that the additional function unit 119 may be configured to process the person singing voice or the proxy singing voice input to the mixer 118. For example, the speaker 300 incorporating the amplifier converts an audio signal from the additional function unit 119 (or the mixer 118) into an audible sound and outputs it. For example, by inputting a voice signal obtained by mixing a person's singing voice signal and a part-by-part singing voice signal in place of a microphone input to an existing karaoke apparatus, various additional functions of the existing karaoke apparatus are used as they are. be able to.

リモコン140および操作部128は、ユーザがカラオケ装置10に指示を入力するための入力デバイスであり、スイッチ、キー、ダイヤルなどを有する。リモコン140からのデータは受信部129で受信され、制御部101に通知される。また、本体100に設けられた操作部118の操作は制御部101が直接検出する。制御部101はリモコン140または操作部128の操作内容に応じた動作を実行する。例えば、リモコン140や操作部128で楽曲の予約操作が行われた場合、制御部101はネットワークI/F102を通じてサーバー400に楽曲データの配信を要求する。また、再生中の楽曲のキー変更操作がなされた場合、制御部101は伴奏再生部106に再生キーの変更を指示する。
また、選択SW138がリモコン140や操作部128に設けられている場合、制御部101は選択SW138の状態を示す状態信号を音声選択部116に供給する。
The remote controller 140 and the operation unit 128 are input devices for the user to input instructions to the karaoke apparatus 10 and include switches, keys, dials, and the like. Data from the remote controller 140 is received by the receiving unit 129 and notified to the control unit 101. Further, the operation of the operation unit 118 provided in the main body 100 is directly detected by the control unit 101. The control unit 101 executes an operation corresponding to the operation content of the remote controller 140 or the operation unit 128. For example, when a music reservation operation is performed with the remote controller 140 or the operation unit 128, the control unit 101 requests the server 400 to distribute music data through the network I / F 102. When the key change operation of the music being played is performed, the control unit 101 instructs the accompaniment playback unit 106 to change the playback key.
When the selection SW 138 is provided in the remote controller 140 or the operation unit 128, the control unit 101 supplies a state signal indicating the state of the selection SW 138 to the voice selection unit 116.

歌詞映像生成部120は、分離部104から受信した歌詞データに基づいて、映像に重畳する歌詞表示データを生成し、映像合成部126に出力する。映像再生部122は、分離部104から受信した映像データもしくは映像データベース124から読み出された映像データを再生して映像合成部126に出力する。映像再生部122は、例えば、再生する楽曲に対応付けられた映像データが映像データベース124に含まれている場合には映像データベース124に保存されている映像データを再生する。  The lyric video generation unit 120 generates lyric display data to be superimposed on the video based on the lyric data received from the separation unit 104 and outputs the lyric display data to the video synthesis unit 126. The video reproduction unit 122 reproduces the video data received from the separation unit 104 or the video data read from the video database 124 and outputs the video data to the video composition unit 126. For example, when the video database 124 includes video data associated with the music to be played back, the video playback unit 122 plays back the video data stored in the video database 124.

映像合成部126は、映像再生部122からの映像データと、歌詞映像生成部120からの映像データとを合成し、表示用画像データを生成し、ディスプレイ200に出力する。  The video synthesis unit 126 synthesizes the video data from the video playback unit 122 and the video data from the lyrics video generation unit 120 to generate display image data, and outputs the display image data to the display 200.

このような構成を有するカラオケ装置10における歌唱音声切替動作について、図2のフローチャートを用いてさらに説明する。図2は、1曲の楽曲の再生に関する処理を、選択SW138によるパート別歌唱音声の再生に着目して記載したフローチャートである。制御部101は、ネットワークI/F102を通じて受信した楽曲データを、分離部104によって例えば伴奏データ、旋律データ、歌詞データ、映像データ、パート別歌唱音声データに分離させる。なお、受信データの形式によって分離すべきデータの種別は異なってよい。  The singing voice switching operation in the karaoke apparatus 10 having such a configuration will be further described with reference to the flowchart of FIG. FIG. 2 is a flowchart describing a process related to the reproduction of one piece of music, focusing on reproduction of part-by-part singing voice by the selection SW 138. The control unit 101 causes the separation unit 104 to separate the music data received through the network I / F 102 into, for example, accompaniment data, melody data, lyrics data, video data, and part-specific singing voice data. Note that the type of data to be separated may be different depending on the format of the received data.

分離したデータは楽曲を再生する順番になるまで例えば分離部104内のバッファに蓄積しておく。楽曲の再生を開始するタイミングになると制御部101は、分離部104から伴奏再生部106、音声再生部105、歌詞映像生成部120、さらに必要に応じて映像再生部122に各種の供給を開始させる。これにより、伴奏再生部106による伴奏再生および映像再生部122による映像再生、歌詞映像生成部120による歌詞画像生成、音声再生部105によるパート別歌唱音声データの再生が開始される(S201)。  The separated data is stored, for example, in a buffer in the separation unit 104 until the music is played back. When it is time to start playing the music, the control unit 101 starts the supply from the separation unit 104 to the accompaniment playback unit 106, the audio playback unit 105, the lyrics video generation unit 120, and the video playback unit 122 as necessary. . Thereby, accompaniment playback by the accompaniment playback unit 106, video playback by the video playback unit 122, lyrics image generation by the lyric video generation unit 120, and playback of part-by-part singing voice data by the voice playback unit 105 are started (S201).

マイク音声受信部110は、マイク130から受信した歌唱音声信号をミキサー118に出力する。また、およびSW状態受信部112はマイク130から受信した状態信号を音声選択部に116に出力する。S203で音声選択部116は、状態信号が第1の状態を示す選択SW138に対応するパート別歌唱音声信号をミキサー118に出力する。音声選択部116はまた、状態信号が第2の状態を示す選択SW138に対応するパート別歌唱音声信号については遮断してミキサー118に出力しない。  The microphone sound receiving unit 110 outputs the singing sound signal received from the microphone 130 to the mixer 118. Further, the SW state reception unit 112 outputs the state signal received from the microphone 130 to the voice selection unit 116. In S <b> 203, the voice selection unit 116 outputs the part-specific singing voice signal corresponding to the selection SW 138 whose state signal indicates the first state to the mixer 118. The voice selection unit 116 also blocks the part-by-part singing voice signal corresponding to the selection SW 138 whose state signal indicates the second state and does not output it to the mixer 118.

音声選択部116はS205で状態信号が変化したか否か判定し、変化したと判定されればS203へ処理を戻し、変化したと判定されなければS207へ処理を進める。これにより、楽曲の再生中にユーザが選択SW138の状態を変更すると、変更に応じて出力/遮断されるパート別歌唱音声信号が変化する。  The voice selection unit 116 determines whether or not the state signal has changed in S205. If it is determined that the state signal has changed, the process returns to S203, and if it has not been determined, the process proceeds to S207. Accordingly, when the user changes the state of the selection SW 138 during the reproduction of the music, the part-by-part singing voice signal that is output / blocked according to the change changes.

S209で制御部101は、楽曲の終了条件が満たされたか否かを判定し、終了条件が満たされたと判定されれば処理を終了し、終了したと判定されなければ処理をS205に戻して処理を継続する。楽曲の終了条件は、例えば楽曲の最後まで再生が終了したこと、あるいは楽曲の終了が指示されたことであってよい。楽曲の終了が指示された場合、制御部101は楽曲の再生処理も終了する。なお、制御部101は、楽曲の再生予約が残っていれば、次の楽曲の再生処理を開始する。  In step S209, the control unit 101 determines whether or not the music end condition is satisfied. If it is determined that the end condition is satisfied, the process ends. If not, the process returns to step S205. Continue. The music end condition may be, for example, that the reproduction has been completed to the end of the music, or that the end of the music has been instructed. When the end of the music is instructed, the control unit 101 also ends the music playback process. Note that the control unit 101 starts the process of reproducing the next music if there is a music reproduction reservation remaining.

このように、本実施形態によれば、楽曲の歌唱パートごとに用意された歌唱音声を選択的にカラオケ装置10で再生するようにした。そのため、ユーザは例えば楽曲の一部しか覚えていない場合であっても、覚えていない部分については用意された歌唱音声を再生させることができる。そのため、覚えていない区間について伴奏だけが再生されて気まずい思いをするといったことが無くなる。また、デュエット曲の一方のパートを練習する場合に、もう一方のパートの歌唱音声をカラオケ装置10に再生させることで、歌い出しのタイミングなどをより効果的に練習することができる。  Thus, according to the present embodiment, the singing voice prepared for each singing part of the music is selectively reproduced by the karaoke apparatus 10. Therefore, even if the user remembers only a part of the music, for example, the prepared singing voice can be reproduced for the part that is not remembered. For this reason, only the accompaniment is reproduced in the section that is not remembered, and there is no feeling of awkwardness. Further, when practicing one part of a duet song, the singing timing of the other part can be practiced more effectively by causing the karaoke apparatus 10 to reproduce the singing voice of the other part.

なお、上述の実施形態ではパート別歌唱音声データが、予め録音された人間の歌唱音声データである構成について説明した。しかし、カラオケ装置10で音声を合成する構成でもよい。  In the above-described embodiment, the configuration in which the part-by-part singing voice data is pre-recorded human singing voice data has been described. However, the structure which synthesize | combines a voice with the karaoke apparatus 10 may be sufficient.

また、上述した実施形態では楽曲データに含まれるパート別歌唱音声データを全チャネル分再生してから、音声選択部116で出力するパートを選択する構成であった。しかし、出力するパートについてだけパート別歌唱音声データを再生するように構成してもよい。この場合、例えば選択SW138の状態信号を分離部104にも供給し、出力するパートに対応するパート別歌唱音声データだけを音声再生部105に供給すればよい。あるいは、例えば選択SW138の状態信号を音声再生部105にも供給し、出力するパートに対応するパート別歌唱音声データだけを再生するように音声再生部105を制御しても良い。  In the above-described embodiment, the part-by-part singing voice data included in the music data is reproduced for all channels, and then the voice selection unit 116 selects the part to be output. However, the singing voice data for each part may be reproduced only for the part to be output. In this case, for example, the state signal of the selection SW 138 may be supplied also to the separation unit 104 and only the part-by-part singing voice data corresponding to the part to be output may be supplied to the voice reproduction unit 105. Alternatively, for example, the state signal of the selection SW 138 may be supplied to the sound reproduction unit 105, and the sound reproduction unit 105 may be controlled so as to reproduce only the part-by-part singing sound data corresponding to the part to be output.

なお、上述したパート別歌唱音声の再生および出力制御に係る動作を実現するためのコンピュータプログラムや、このコンピュータプログラムを保存した記録媒体もまた本発明を構成する。  In addition, the computer program for implement | achieving the operation | movement which concerns on reproduction | regeneration and output control of the song sound according to part mentioned above, and the recording medium which preserve | saved this computer program also comprise this invention.

101…システム制御部、104…分離部、105…音声再生部、106…伴奏再生部、110…マイク音声受信部、112…SW状態受信部、116…音声選択部、118…ミキサー、130…マイク、138…選択SW138、300…スピーカー、400…サーバー  DESCRIPTION OF SYMBOLS 101 ... System control part 104 ... Separation part 105 ... Audio | voice reproduction | regeneration part 106 ... Accompaniment reproduction | regeneration part 110 ... Microphone audio | voice reception part 112 ... SW state reception part 116 ... Audio | voice selection part 118 ... Mixer 130 ... Microphone 138: Selection SW 138, 300 ... Speaker, 400 ... Server

Claims (8)

楽曲の歌唱音声データを再生して歌唱音声信号を生成する再生手段と、
前記再生手段が生成する歌唱音声信号を選択的に出力する選択手段と、
マイクから入力される音声信号と、前記選択手段が出力する歌唱音声信号とを出力する出力手段と、を有し、
前記選択手段は、前記歌唱音声信号を出力するか出力しないかをユーザの指示に基づいて切り替える、
ことを特徴とするカラオケ装置。
Reproducing means for reproducing the singing voice data of the music and generating a singing voice signal;
Selection means for selectively outputting a singing voice signal generated by the reproduction means;
An output means for outputting an audio signal input from a microphone and a singing audio signal output by the selection means;
The selection means switches whether to output the singing voice signal or not based on a user instruction,
A karaoke apparatus characterized by that.
前記ユーザの指示が、前記マイク、前記カラオケ装置の本体、または前記カラオケ装置のリモコンを通じて前記カラオケ装置に入力されることを特徴とする請求項1に記載のカラオケ装置。  2. The karaoke apparatus according to claim 1, wherein the user instruction is input to the karaoke apparatus through the microphone, the main body of the karaoke apparatus, or a remote control of the karaoke apparatus. 前記ユーザの指示が、前記マイク、前記カラオケ装置の本体、および前記カラオケ装置のリモコンの1つ以上に設けられたスイッチの操作を通じて前記カラオケ装置に入力されることを特徴とする請求項1または2に記載のカラオケ装置。  3. The user's instruction is input to the karaoke device through an operation of a switch provided on one or more of the microphone, the main body of the karaoke device, and the remote controller of the karaoke device. Karaoke apparatus as described in 1. 前記選択手段は、前記スイッチが第1の状態のときは前記歌唱音声信号を出力し、前記スイッチが第2の状態のときは前記歌唱音声信号を出力しないことを特徴とする請求項3に記載のカラオケ装置。  The said selection means outputs the said singing voice signal when the said switch is a 1st state, and does not output the said singing voice signal when the said switch is a 2nd state. Karaoke equipment. 前記再生手段は、前記楽曲の歌唱パートに応じた複数の前記歌唱音声信号を再生し、
前記選択手段は、前記歌唱音声信号ごとに出力するか出力しないかを切り替えることを特徴とする請求項請求項1から4のいずれか1項に記載のカラオケ装置。
The reproduction means reproduces a plurality of the singing voice signals corresponding to the singing part of the music,
5. The karaoke apparatus according to claim 1, wherein the selection unit switches between outputting and not outputting each singing voice signal. 6.
前記出力手段は、前記マイクから入力される音声信号と、前記選択手段が出力する前記歌唱音声信号とを合成して出力し、
前記カラオケ装置は、前記選択手段が出力する前記歌唱音声信号または前記出力手段が出力する音声信号に対して音響効果の付加、ピッチの変更、または採点の1つ以上を行う付加機能手段をさらに有することを特徴とする請求項1から5のいずれか1項に記載のカラオケ装置。
The output means synthesizes and outputs a voice signal input from the microphone and the singing voice signal output by the selection means,
The karaoke apparatus further includes additional function means for adding one or more of an acoustic effect, a pitch change, or a scoring to the singing voice signal output from the selection means or the voice signal output from the output means. The karaoke apparatus according to claim 1, wherein the karaoke apparatus is a karaoke apparatus.
楽曲の歌唱音声データを再生して歌唱音声信号を生成する再生工程と、
前記再生工程で生成された歌唱音声信号を選択的に出力する選択工程と、
マイクから入力される音声信号と、前記選択手段が出力するパート別歌唱音声信号とを出力する出力工程と、を有し、
前記選択工程では、前記歌唱音声信号を出力するか出力しないかをユーザの指示に基づいて切り替える、
ことを特徴とするカラオケ装置の制御方法。
A reproduction step of reproducing the singing voice data of the music to generate a singing voice signal;
A selection step of selectively outputting the singing voice signal generated in the reproduction step;
An output step of outputting a voice signal input from a microphone and a part-by-part singing voice signal output by the selection means;
In the selection step, whether to output the singing voice signal or not to switch based on a user instruction,
A method for controlling a karaoke apparatus.
請求項7に記載のカラオケ装置の制御方法の各工程をコンピュータに実行させるためのプログラム。  The program for making a computer perform each process of the control method of the karaoke apparatus of Claim 7.
JP2017172518A 2017-08-23 2017-08-23 Karaoke device and control method thereof Pending JP2019040167A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017172518A JP2019040167A (en) 2017-08-23 2017-08-23 Karaoke device and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017172518A JP2019040167A (en) 2017-08-23 2017-08-23 Karaoke device and control method thereof

Publications (1)

Publication Number Publication Date
JP2019040167A true JP2019040167A (en) 2019-03-14

Family

ID=65726857

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017172518A Pending JP2019040167A (en) 2017-08-23 2017-08-23 Karaoke device and control method thereof

Country Status (1)

Country Link
JP (1) JP2019040167A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112902951A (en) * 2021-01-21 2021-06-04 深圳市镭神智能系统有限公司 Positioning method, device and equipment of driving equipment and storage medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112902951A (en) * 2021-01-21 2021-06-04 深圳市镭神智能系统有限公司 Positioning method, device and equipment of driving equipment and storage medium

Similar Documents

Publication Publication Date Title
US5484291A (en) Apparatus and method of playing karaoke accompaniment
JP2007093921A (en) Information distribution device
JP3861381B2 (en) Karaoke equipment
JP2019040167A (en) Karaoke device and control method thereof
JP2004205818A (en) Karaoke machine
KR100928152B1 (en) Karaoke system using karaoke mic having vibration function and method there of
JP2014066922A (en) Musical piece performing device
JP4453580B2 (en) Karaoke system and karaoke device
JP2005037846A (en) Information setting device and method for music reproducing device
JP5397637B2 (en) Karaoke equipment
JP2000089774A (en) Karaoke device
JP2008187549A (en) Support system for playing musical instrument
JP3743985B2 (en) Karaoke equipment
KR20140125440A (en) Acoustic processing device and communication acoustic processing system
JP7192831B2 (en) Performance system, terminal device, electronic musical instrument, method, and program
JPH10187175A (en) Musical sound reproducing device
JP2006184684A (en) Music reproducing device
JP3804498B2 (en) Content generation apparatus and program
JP3565065B2 (en) Karaoke equipment
JP2991159B2 (en) Karaoke equipment
JP2005189878A (en) Music player, music playing method, and program
JP4153453B2 (en) Music player
JP4299747B2 (en) Electronic sampler
JP2023032143A (en) karaoke device
CN116741124A (en) Sound processing system and sound processing method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200824

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210618

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210629

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211221