JP2011221064A - Karaoke system - Google Patents

Karaoke system Download PDF

Info

Publication number
JP2011221064A
JP2011221064A JP2010086678A JP2010086678A JP2011221064A JP 2011221064 A JP2011221064 A JP 2011221064A JP 2010086678 A JP2010086678 A JP 2010086678A JP 2010086678 A JP2010086678 A JP 2010086678A JP 2011221064 A JP2011221064 A JP 2011221064A
Authority
JP
Japan
Prior art keywords
information
timbre
accompaniment
accompaniment music
program
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010086678A
Other languages
Japanese (ja)
Inventor
Kaoru Uenosono
薫 上之薗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2010086678A priority Critical patent/JP2011221064A/en
Publication of JP2011221064A publication Critical patent/JP2011221064A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Selective Calling Equipment (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a karaoke system which converts a timbre of a voice and allows a user to easily select the type of timbre converted.SOLUTION: The karaoke system comprises: a karaoke main body 20 having output signal generation means which generates an output signal based on a voice signal outputted from a microphone 30 and the information of accompaniment music; a speaker 40 which reproduces the output signal into a voice; a gradient sensor for measuring gradient; and a mobile terminal 60 having communicating means which transmits the gradient information measured by the gradient sensor to the karaoke main body. The karaoke main body 20 has timbre type determination means which determines a timbre type to which the voice signal output from the microphone 30 is converted based on the gradient information and timbre conversion means which converts the timbre of the voice signal output from the microphone 30 in order to generate the conversion voice information based on the timbre type.

Description

本発明は、音声の音色を変換するカラオケシステムに関する。   The present invention relates to a karaoke system for converting the timbre of a voice.

従来から特許文献1に示されるように、ユーザーによる音声の音色を変換するカラオケシステムが提案されている。   Conventionally, as shown in Patent Document 1, a karaoke system for converting the tone of a voice by a user has been proposed.

特開平1−20597号公報JP-A-1-20597

特許文献1に示されるカラオケシステムでは、変換する音色が固定されていたので、変換する音色を容易に選択することが困難であった。
本発明は、上記問題を解決し、音声の音色を変換するカラオケシステムにおいて、ユーザーが容易に変換する音色の種類を選択することができるカラオケシステムを提供することを目的とする。
In the karaoke system shown in Patent Document 1, since the timbre to be converted is fixed, it is difficult to easily select the timbre to be converted.
An object of the present invention is to solve the above problems and provide a karaoke system that allows a user to easily select a timbre type to be converted in a karaoke system that converts a timbre of a voice.

上記課題を解決するためになされた請求項1に記載の発明は、
音声から音声信号を生成するマイクロフォンと、
伴奏音楽情報を取得する伴奏音楽情報取得手段と、前記マイクロフォンから出力される音声信号及び前記伴奏情報取得手段が取得した伴奏音楽情報に基づいて出力信号を生成する出力信号生成手段を有するカラオケ装置本体と、
前記出力信号を音声に再生するスピーカーとからなるカラオケシステムにおいて、
傾度を測定する傾度センサーと、
前記傾度センサーが測定した傾度情報を前記カラオケ装置本体に送信する通信手段を有する携帯端末を更に有し、
前記カラオケ装置本体は、
前記携帯端末が送信する傾度情報に基づき、マイクロフォンが出力する音声信号が変換される音色種類を決定する音色種類決定手段と、
前記音色種類決定手段が決定した音色種類に基づいて、マイクロフォンが出力する音声信号の音色を変換して変換音声情報を生成する音色変換手段を更に有し、
出力信号生成手段は、前記変換音声情報と伴奏音楽情報を合成して出力信号を生成することを特徴とする。
The invention according to claim 1, which has been made to solve the above problems,
A microphone that generates an audio signal from audio;
Accompaniment music information acquisition means for acquiring accompaniment music information, and an output signal generation means for generating an output signal based on an audio signal output from the microphone and accompaniment music information acquired by the accompaniment information acquisition means When,
In a karaoke system comprising a speaker that reproduces the output signal as audio,
A tilt sensor for measuring the tilt,
A portable terminal further comprising a communication means for transmitting the inclination information measured by the inclination sensor to the karaoke apparatus body;
The karaoke apparatus body is
A timbre type determining means for determining a timbre type to which an audio signal output from the microphone is converted based on the gradient information transmitted by the portable terminal;
Further comprising timbre conversion means for converting the timbre of the voice signal output from the microphone to generate converted voice information based on the timbre type determined by the timbre type determination means;
The output signal generation means generates the output signal by synthesizing the converted voice information and the accompaniment music information.

請求項2に記載の発明は、請求項1に記載の発明において、
音色種類決定手段は、携帯端末が送信する傾度情報を閾値に基づき、前記携帯端末の姿勢を判定し、音色種類を決定することを特徴とする。
これにより、音色の種類が確実に決定される。
The invention according to claim 2 is the invention according to claim 1,
The timbre type determining means determines the timbre type by determining the attitude of the mobile terminal based on the gradient information transmitted by the mobile terminal based on a threshold value.
Thereby, the kind of timbre is determined reliably.

請求項3に記載の発明は、請求項1又は請求項2に記載の発明において、
カラオケ装置本体は、マイクロフォンが出力した音声信号の音程を、伴奏音楽情報に基づいて補正する音程補正手段を更に有することを特徴とする。
これにより、ユーザーが伴奏音楽の音程を外して発声した場合であっても、伴奏音楽に合った変換音声情報が生成される。
The invention according to claim 3 is the invention according to claim 1 or 2,
The karaoke apparatus main body further includes pitch correction means for correcting the pitch of the audio signal output from the microphone based on the accompaniment music information.
Thus, even when the user utters the accompaniment music at a different pitch, converted voice information suitable for the accompaniment music is generated.

請求項4に記載の発明は、請求項1〜請求項3に記載の発明において、
カラオケ装置本体は、マイクロフォンが出力した音声信号のリズムを、伴奏音楽情報に基づいて補正するリズム補正手段を更に有することを特徴とする。
これにより、ユーザーが伴奏音楽のリズムを外して発声した場合であっても、伴奏音楽に合った変換音声情報が生成される。
The invention according to claim 4 is the invention according to claims 1 to 3,
The karaoke apparatus main body further includes rhythm correction means for correcting the rhythm of the audio signal output from the microphone based on the accompaniment music information.
Thereby, even if the user utters the rhythm of the accompaniment music, the converted voice information suitable for the accompaniment music is generated.

請求項5に記載の発明は、請求項1〜請求項4に記載の発明において、
携帯端末は、加速度を測定する加速度センサーを更に有し、
送信手段は、前記加速度センサーが測定した加速度情報を、通信手段を介して前記カラオケ装置本体に送信し、
カラオケ装置本体は、携帯端末から送信された加速度情報に基づいて音色変換手段が生成した変換音声情報に効果を付加する効果付加手段を更に有することを特徴とする。
これにより、ユーザーは、携帯端末を動かすという簡単な操作により、変換音声情報に効果を付加させることが可能となる。
The invention according to claim 5 is the invention according to claims 1 to 4,
The portable terminal further includes an acceleration sensor that measures acceleration,
The transmission means transmits the acceleration information measured by the acceleration sensor to the karaoke apparatus body through the communication means,
The karaoke apparatus main body further includes effect adding means for adding an effect to the converted voice information generated by the timbre converting means based on the acceleration information transmitted from the portable terminal.
Thereby, the user can add an effect to the converted voice information by a simple operation of moving the mobile terminal.

本発明によれば、カラオケ装置本体は携帯端末の傾度情報に基づき音色種類を決定するので、ユーザーは携帯端末を傾けるという容易な操作により、楽音の種類を選択することが可能となる。   According to the present invention, since the karaoke apparatus main body determines the timbre type based on the inclination information of the mobile terminal, the user can select the type of musical sound by an easy operation of tilting the mobile terminal.

本発明の実施の形態を示すカラオケシステムの全体図である。1 is an overall view of a karaoke system showing an embodiment of the present invention. カラオケシステムのブロック図である。It is a block diagram of a karaoke system. メイン処理のフロー図である。It is a flowchart of a main process. 音色決定処理のフロー図である。It is a flowchart of a timbre determination process. 音程補正処理のフロー図である。It is a flowchart of a pitch correction process. リズム補正処理のフロー図である。It is a flowchart of a rhythm correction process. 効果付加処理のフロー図である。It is a flowchart of an effect addition process. 音色決定の説明図である。It is explanatory drawing of timbre determination. 音程比較処理の説明図である。It is explanatory drawing of a pitch comparison process. リズム補正処理の説明図である。It is explanatory drawing of a rhythm correction process. 付加効果処理の説明図である。It is explanatory drawing of an additional effect process.

(本発明の概要)
以下に図面を参照しつつ、本発明の好ましい実施の形態を示す。図1に示されるように、本発明のカラオケシステム100は、カラオケ装置本体20と、このカラオケ本体装置20と接続しているマイクロフォン30、スピーカー40、画像表示装置50、携帯端末60とから構成されている。カラオケ装置本体20は、公衆通信網900と接続している。カラオケ装置本体20は、公衆通信網900から「伴奏動画情報」を取得する。そして、カラオケ装置本体20は、「伴奏動画情報」から「伴奏音楽情報」を抽出し、この「伴奏音楽情報」とマイクロフォン30から出力された「音声信号」を合成して「出力信号」を生成する。そして、前記「出力信号」スピーカー40に出力する。また、カラオケ装置本体20は、取得した「伴奏動画情報」から「伴奏動画信号」を生成し、当該「伴奏動画信号」を画像表示装置50に出力する。
(Outline of the present invention)
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. As shown in FIG. 1, the karaoke system 100 of the present invention includes a karaoke device main body 20, a microphone 30 connected to the karaoke main device 20, a speaker 40, an image display device 50, and a portable terminal 60. ing. The karaoke apparatus body 20 is connected to the public communication network 900. The karaoke apparatus body 20 acquires “accompaniment video information” from the public communication network 900. Then, the karaoke apparatus body 20 extracts the “accompaniment music information” from the “accompaniment video information” and combines the “accompaniment music information” with the “voice signal” output from the microphone 30 to generate an “output signal”. To do. Then, the “output signal” is output to the speaker 40. Further, the karaoke apparatus body 20 generates an “accompaniment video signal” from the acquired “accompaniment video information” and outputs the “accompaniment video signal” to the image display device 50.

ユーザーは、スピーカー40から再生される伴奏音楽を聴きながら、或いは、画像表示装置50で表示される伴奏動画を見ながら、マイクロフォン30に発声する。本発明では、マイクロフォン30から出力された「音声信号」は、カラオケ装置本体20で音色が変換されて、スピーカー40に出力される。ユーザーは、携帯端末60を傾けることにより、「音声信号」が変換される音色の種類を選択できるようになっている。また、ユーザーは、携帯端末60を、振ることにより、「音声信号」に効果を付加することができるようになっている。以下に、このような機能を実現するカラオケシステム100について詳細に説明する。   The user utters the microphone 30 while listening to the accompaniment music reproduced from the speaker 40 or watching the accompaniment moving image displayed on the image display device 50. In the present invention, the “voice signal” output from the microphone 30 is converted into a timbre by the karaoke apparatus body 20 and output to the speaker 40. The user can select the type of timbre to which the “voice signal” is converted by tilting the portable terminal 60. Further, the user can add an effect to the “voice signal” by shaking the mobile terminal 60. Below, the karaoke system 100 which implement | achieves such a function is demonstrated in detail.

(カラオケシステムのブロック図)
図2を用いて、以下にカラオケシステム100のブロック図の説明をする。カラオケ装置本体20は、CPU11、記憶部13、音声入力インターフェース14、出力信号生成部15、画像生成部16、通信部17、外部通信部18、操作部19を有している。これらの構成は、相互にバス9で接続されている。
(Karaoke system block diagram)
A block diagram of the karaoke system 100 will be described below with reference to FIG. The karaoke apparatus body 20 includes a CPU 11, a storage unit 13, a voice input interface 14, an output signal generation unit 15, an image generation unit 16, a communication unit 17, an external communication unit 18, and an operation unit 19. These components are connected to each other by a bus 9.

CPU(Central Processing Unit)11は、記憶部13と協動して、各種演算、処理を行う。   A CPU (Central Processing Unit) 11 performs various calculations and processes in cooperation with the storage unit 13.

記憶部13は、主記憶装置であるRAM(Random Access Memory)及び、不揮発性メモリーやハードディスク等の補助記憶装置から構成されている。RAMは、CPU11のワーキングエリアとして使用され、CPU11で処理されるプログラムや、CPU11が処理するデータを、そのアドレス空間に一時的に記憶する。
記憶部13の補助記憶装置には、制御部30を制御する各種プログラムやパラメータが記憶されている。当該各種プログラムが、CPU11で処理されることにより、各種機能を実現している。記憶部13の補助記憶装置には、伴奏動画情報取得プログラム13a、伴奏音楽情報取得プログラム13b、出力信号生成プログラム13c、音色種類決定プログラム13d、音色変換プログラム13e、音程補正プログラム13f、リズム補正プログラム13g、効果付加プログラム13h、伴奏動画生成プログラム13iが記憶されている。また、記憶部13は、伴奏動画情報記憶領域13j、伴奏音楽情報記憶領域13k、傾斜情報記憶領域13m、加速度情報記憶領域13n、音声情報記憶領域13p、音色種類記憶領域13q、変換音声情報記憶領域13rを有している。
The storage unit 13 includes a RAM (Random Access Memory) that is a main storage device, and an auxiliary storage device such as a nonvolatile memory or a hard disk. The RAM is used as a working area for the CPU 11 and temporarily stores programs processed by the CPU 11 and data processed by the CPU 11 in its address space.
Various programs and parameters for controlling the control unit 30 are stored in the auxiliary storage device of the storage unit 13. Various functions are realized by the various programs being processed by the CPU 11. The auxiliary storage device of the storage unit 13 includes an accompaniment video information acquisition program 13a, an accompaniment music information acquisition program 13b, an output signal generation program 13c, a timbre type determination program 13d, a timbre conversion program 13e, a pitch correction program 13f, and a rhythm correction program 13g. Further, an effect addition program 13h and an accompaniment moving image generation program 13i are stored. The storage unit 13 includes an accompaniment video information storage area 13j, an accompaniment music information storage area 13k, a tilt information storage area 13m, an acceleration information storage area 13n, a voice information storage area 13p, a tone color type storage area 13q, and a converted voice information storage area. 13r.

伴奏動画情報取得プログラム13aは、外部通信部18を介して「伴奏動画情報」を取得し、伴奏動画情報記憶領域13jに記憶させるプログラムである。
伴奏音楽情報取得プログラム13bは、伴奏動画情報記憶領域13jに記憶された「伴奏動画情報」から「伴奏音楽情報」を抽出して取得し、伴奏音楽情報記憶領域13kに記憶させるプログラムである。
出力信号生成プログラム13cは、伴奏音楽情報記憶領域13kに記憶されている「伴奏音楽情報」及び変換音声情報記憶領域13rに記憶されている「変換音声情報」を合成して「合成音声情報」を生成し、当該「変換音声情報」を出力信号生成部15に出力して、出力信号生成部15で「出力信号」を生成させるプログラムである。
音色種類決定プログラム13dは、携帯端末60の傾斜センサー64が出力した「傾斜情報」に基づいて、「音声情報」を変換する音色の種類を決定するプログラムである。
音色変換プログラム13eは、「音声情報」の音色を変換して「変換音声情報」を生成するプログラムである。
音程補正プログラム13fは、「音声情報」の「伴奏音楽情報」からの音程のズレを補正するプログラムである。
リズム補正プログラム13gは、「音声情報」の「伴奏音楽情報」からのリズムのズレを補正するプログラムである。
効果付加プログラム13hは、携帯端末60の加速度センサー65が出力した「加速度情報」に基づいて、「変換音声情報」に効果を付加させるプログラムである。
伴奏動画生成プログラム13iは、伴奏動画情報記憶領域13jに記憶されている「伴奏動画情報」から、画像表示装置50に出力される「動画信号」を生成する描画命令を画像生成部16に出力するプログラムである。
なお、伴奏動画情報取得プログラム13a、伴奏音楽情報取得プログラム13b、出力信号生成プログラム13c、音色種類決定プログラム13d、音色変換プログラム13e、音程補正プログラム13f、リズム補正プログラム13g、効果付加プログラム13h、伴奏動画生成プログラム13iを、ASIC(Application Specific Integrated Circuit)として構成することとしても差し支えない。
The accompaniment moving image information acquisition program 13a is a program for acquiring “accompaniment moving image information” via the external communication unit 18 and storing it in the accompaniment moving image information storage area 13j.
The accompaniment music information acquisition program 13b is a program that extracts and acquires “accompaniment music information” from “accompaniment video information” stored in the accompaniment video information storage area 13j and stores it in the accompaniment music information storage area 13k.
The output signal generation program 13c synthesizes “synthesized voice information” by synthesizing “accompanied music information” stored in the accompaniment music information storage area 13k and “converted voice information” stored in the converted voice information storage area 13r. This is a program that generates and outputs the “converted speech information” to the output signal generation unit 15 and causes the output signal generation unit 15 to generate an “output signal”.
The timbre type determination program 13d is a program for determining the timbre type for converting the “voice information” based on the “tilt information” output from the tilt sensor 64 of the portable terminal 60.
The timbre conversion program 13e is a program that converts the timbre of “voice information” to generate “converted voice information”.
The pitch correction program 13f is a program for correcting a pitch shift from “accompaniment music information” of “voice information”.
The rhythm correction program 13g is a program for correcting a rhythm shift from “accompaniment music information” of “audio information”.
The effect addition program 13h is a program for adding an effect to the “converted voice information” based on the “acceleration information” output from the acceleration sensor 65 of the mobile terminal 60.
The accompaniment moving image generation program 13i outputs a drawing command for generating a “moving image signal” to be output to the image display device 50 from the “accompaniment moving image information” stored in the accompaniment moving image information storage area 13j to the image generation unit 16. It is a program.
Accompaniment video information acquisition program 13a, accompaniment music information acquisition program 13b, output signal generation program 13c, tone color type determination program 13d, tone color conversion program 13e, pitch correction program 13f, rhythm correction program 13g, effect addition program 13h, accompaniment video The generation program 13i may be configured as an ASIC (Application Specific Integrated Circuit).

伴奏動画情報記憶領域13jには、伴奏動画情報取得プログラム13aによって取得された「伴奏動画情報」が記憶される。
伴奏音楽情報記憶領域13kには、伴奏音楽情報取得プログラム13bによって取得された「伴奏音楽情報」が記憶される。なお、「伴奏音楽情報」には、MIDIデータ(Musical Instrument Digital Interface)が含まれる。
傾斜情報記憶領域13mには、携帯端末60から送信された「傾斜情報」が順次記憶される。
加速度情報記憶領域13nには、携帯端末60から送信された「加速度情報」が順次記憶される。
音声情報記憶領域13pには、音声入力インターフェース14が生成した「音声情報」が記憶される。
音色種類記憶領域13qには、音色種類決定プログラム13dが決定した音色の種類が記憶される。
変換音声情報記憶領域13rには、音色変換プログラム13eが生成した「変換音色情報」が記憶される。
The accompaniment video information storage area 13j stores “accompaniment video information” acquired by the accompaniment video information acquisition program 13a.
The accompaniment music information storage area 13k stores “accompaniment music information” acquired by the accompaniment music information acquisition program 13b. The “accompaniment music information” includes MIDI data (Musical Instrument Digital Interface).
The “inclination information” transmitted from the portable terminal 60 is sequentially stored in the inclination information storage area 13m.
In the acceleration information storage area 13n, “acceleration information” transmitted from the portable terminal 60 is sequentially stored.
The “voice information” generated by the voice input interface 14 is stored in the voice information storage area 13p.
The timbre type storage area 13q stores the timbre type determined by the timbre type determination program 13d.
In the converted voice information storage area 13r, “converted timbre information” generated by the timbre conversion program 13e is stored.

音声入力インターフェース14には、マイクロフォン30が接続している。音声入力インターフェース14とマイクロフォン30との接続方式には、有線及び無線の両方の接続方式が含まれる。音声入力インターフェース14は、マイクロフォン30から出力された「音声信号」の物理的・論理的な形式を変換して「音声情報」を生成し、当該「音声情報」をバス9に出力する。   A microphone 30 is connected to the voice input interface 14. The connection method between the voice input interface 14 and the microphone 30 includes both wired and wireless connection methods. The voice input interface 14 converts the physical / logical format of the “voice signal” output from the microphone 30 to generate “voice information”, and outputs the “voice information” to the bus 9.

出力信号生成部15には、スピーカー40が接続している。出力信号生成部15は、デジタル信号をアナログ信号に変換するD/Aコンバータ及びアナログ信号を増幅するオペアンプを有している。   A speaker 40 is connected to the output signal generator 15. The output signal generation unit 15 includes a D / A converter that converts a digital signal into an analog signal and an operational amplifier that amplifies the analog signal.

画像生成部16には、LCD(Liquid Crystal Display)等の画像表示装置50が接続している。画像生成部15は、GPU(Graphics Processing Unit)及びVRAMを有している。GPUは、伴奏動画生成プログラム13iからの描画命令により、「画像データ」を生成し、VRAMに記憶させる。VRAMに記憶された「画像データ」は、「画像信号」として画像表示装置50に出力される。   An image display device 50 such as an LCD (Liquid Crystal Display) is connected to the image generation unit 16. The image generation unit 15 includes a GPU (Graphics Processing Unit) and a VRAM. The GPU generates “image data” in accordance with a drawing command from the accompaniment moving image generation program 13 i and stores it in the VRAM. The “image data” stored in the VRAM is output to the image display device 50 as an “image signal”.

通信部17は、携帯端末60と通信を行う装置である。通信部17は、赤外線通信やブルートゥース(登録商標)による無線規格のインターフェースとなっている。   The communication unit 17 is a device that communicates with the mobile terminal 60. The communication unit 17 is a wireless standard interface based on infrared communication or Bluetooth (registered trademark).

外部通信部18は、いわゆるインターネットや公衆通信電話通信網等の公衆通信網と接続している。外部通信部18には、LAN(Local Area Network)や、USB(Unversal Serial Bus)、IEEE1394、RS232、RS422その他通信インターフェースや、IEEE802に規定されているいわゆる無線LAN等の無線インターフェースが含まれる。カラオケ装置本体20は、外部通信部18を介して、「伴奏動画情報」を取得する。   The external communication unit 18 is connected to a public communication network such as a so-called Internet or a public communication telephone communication network. The external communication unit 18 includes a LAN (Local Area Network), USB (Universal Serial Bus), IEEE1394, RS232, RS422, and other communication interfaces, and a wireless interface such as a so-called wireless LAN defined in IEEE802. The karaoke apparatus body 20 acquires “accompaniment video information” via the external communication unit 18.

操作部19は、ユーザーが、カラオケ装置本体20の操作を行うためのものである。操作部19は、複数のボタンやタッチパネル等の入力部と、入力部から出力された入力操作信号の物理的・論理的な形式を変換してバス9に出力する入力インターフェースとから構成されている。ユーザーは、操作部19を操作することにより、スピーカー40や画像表示装置50で再生させる「伴奏動画情報」を選択することができる。   The operation unit 19 is for the user to operate the karaoke apparatus body 20. The operation unit 19 includes an input unit such as a plurality of buttons and a touch panel, and an input interface that converts a physical / logical format of an input operation signal output from the input unit and outputs the converted signal to the bus 9. . The user can select “accompaniment moving image information” to be reproduced by the speaker 40 or the image display device 50 by operating the operation unit 19.

携帯端末60は、傾斜センサー64、加速度センサー65を有する所謂スマートフォンやPDA(Personal Digital Assistant)等の携帯端末である。
携帯端末60は、CPU61、記憶部63、傾斜センサー64、加速度センサー65、通信部66を有していて、これらの構成は、相互にバス69で接続されている。
CPU61は、記憶部63と協動して、各種演算、処理を行う。
The mobile terminal 60 is a mobile terminal such as a so-called smart phone having a tilt sensor 64 and an acceleration sensor 65 or a PDA (Personal Digital Assistant).
The portable terminal 60 includes a CPU 61, a storage unit 63, a tilt sensor 64, an acceleration sensor 65, and a communication unit 66, and these components are connected to each other via a bus 69.
The CPU 61 performs various calculations and processes in cooperation with the storage unit 63.

記憶部63は、主記憶装置であるRAM(Random Access Memory)及び、不揮発性メモリーやハードディスク等の補助記憶装置から構成されている。RAMは、CPU61のワーキングエリアとして使用され、CPU61で処理されるプログラムや、CPU61が処理するデータを、そのアドレス空間に一時的に記憶する。
記憶部63の補助記憶装置には、携帯端末60を制御する各種プログラムやパラメータが記憶されている。携帯端末60が、スマートフォンである場合には、記憶部63の補助記憶装置には、通話機能及びメール機能を実現するプログラムが記憶されている。
The storage unit 63 includes a RAM (Random Access Memory) that is a main storage device and an auxiliary storage device such as a nonvolatile memory or a hard disk. The RAM is used as a working area of the CPU 61, and temporarily stores a program processed by the CPU 61 and data processed by the CPU 61 in its address space.
Various programs and parameters for controlling the portable terminal 60 are stored in the auxiliary storage device of the storage unit 63. When the portable terminal 60 is a smartphone, the auxiliary storage device of the storage unit 63 stores a program that realizes a call function and a mail function.

傾斜センサー64は、携帯端末60のX、Y、Zの3方向の傾度を測定するセンサーである。傾斜センサー64で測定され生成された「傾斜情報」は、通信部66を介して、カラオケ装置本体20に送信される。なお、「傾斜情報」は、数ミリ〜数10ミリ秒の間隔をおいて、カラオケ装置本体20に送信される。   The inclination sensor 64 is a sensor that measures the inclination of the mobile terminal 60 in three directions of X, Y, and Z. The “tilt information” measured and generated by the tilt sensor 64 is transmitted to the karaoke apparatus body 20 via the communication unit 66. The “tilt information” is transmitted to the karaoke apparatus body 20 at intervals of several milliseconds to several tens of milliseconds.

加速度センサー65は、携帯端末60のX、Y、Zの3方向の加速度を検知するセンサーである。加速度センサー65で検知され生成された「加速度情報」は、通信部66を介して、カラオケ装置本体20に送信される。なお、「加速度情報」は、数ミリ〜数10ミリ秒の間隔をおいて、カラオケ装置本体20に送信される。   The acceleration sensor 65 is a sensor that detects accelerations in the X, Y, and Z directions of the mobile terminal 60. The “acceleration information” detected and generated by the acceleration sensor 65 is transmitted to the karaoke apparatus body 20 via the communication unit 66. The “acceleration information” is transmitted to the karaoke apparatus body 20 at intervals of several milliseconds to several tens of milliseconds.

通信部66は、カラオケ装置本体20の通信部17と通信をする装置である。通信部66は。赤外線通信やブルートゥース(登録商標)等通信部17のインターフェースに対応した無線規格のインターフェースとなっている。   The communication unit 66 is a device that communicates with the communication unit 17 of the karaoke apparatus body 20. The communication unit 66. This is a wireless standard interface corresponding to the interface of the communication unit 17 such as infrared communication or Bluetooth (registered trademark).

(メイン処理の説明)
以下に、図3を用いて、カラオケ装置本体20で実行されるメイン処理について説明する。
ユーザーが操作部19を操作することにより、スピーカー40や画像表示装置50で再生される「伴奏動画情報」を選択すると、メイン処理が開始し、S11の処理に進む。
S11「伴奏音楽情報取得」の処理において、伴奏動画情報取得プログラム13aは、外部通信部18を介して「伴奏動画情報」を取得し、伴奏動画情報記憶領域13jに記憶させる。そして、伴奏音楽情報取得プログラム13bは、伴奏動画情報記憶領域13jに記憶された「伴奏動画情報」から「伴奏音楽情報」を抽出して取得し、伴奏音楽情報記憶領域13kに記憶させる。S11の処理が終了すると、S12の処理に進む。
(Description of main processing)
Below, the main process performed with the karaoke apparatus main body 20 is demonstrated using FIG.
When the user operates the operation unit 19 to select “accompaniment video information” to be played back by the speaker 40 or the image display device 50, the main process starts and the process proceeds to S11.
In the process of S11 “accompaniment music information acquisition”, the accompaniment video information acquisition program 13a acquires “accompaniment video information” via the external communication unit 18 and stores it in the accompaniment video information storage area 13j. And the accompaniment music information acquisition program 13b extracts and acquires "accompaniment music information" from the "accompaniment moving image information" memorize | stored in the accompaniment moving image information storage area 13j, and memorize | stores it in the accompaniment music information storage area 13k. When the process of S11 ends, the process proceeds to S12.

S12「伴奏音楽情報再生開始」の処理において、出力信号生成プログラム13cは、伴奏音楽情報記憶領域13kに記憶されている「伴奏音楽情報」を出力信号生成部15に出力する。出力信号生成部15は、「出力信号」を生成し、スピーカー40に出力する。なお、S12の処理において、伴奏動画生成プログラム13iは、伴奏動画情報記憶領域13jに記憶されている「伴奏動画情報」から、画像表示装置50に出力される「動画信号」を生成する描画命令を画像生成部16に出力する。S12の処理が終了すると、S13の判断処理に進む。   In the process of S12 “Accompaniment music information reproduction start”, the output signal generation program 13c outputs “accompaniment music information” stored in the accompaniment music information storage area 13k to the output signal generation unit 15. The output signal generation unit 15 generates an “output signal” and outputs it to the speaker 40. In the process of S12, the accompaniment moving image generation program 13i generates a drawing command for generating a “moving image signal” to be output to the image display device 50 from the “accompaniment moving image information” stored in the accompaniment moving image information storage area 13j. The image is output to the image generation unit 16. When the process of S12 ends, the process proceeds to the determination process of S13.

S13の判断処理において、CPU11は、バス9に「伴奏音楽情報」及び「伴奏動画情報」の再生を中止する「再生中止信号」が入力されたか否かを判断する。「再生中止信号」は、ユーザーが操作部19を操作することにより、又は出力信号生成プログラム13cが伴奏音楽情報記憶領域13kに記憶されている「伴奏音楽情報」を末尾まで出力することにより、バス9に対して入力される。CPU11が、「再生中止信号」がバス9に入力されたと判断した場合には(S13の判断処理がYES)、S31の処理に進む。一方で、CPU11が、「再生中止信号」がバス9に入力されていない判断した場合には(S13の判断処理がNO)、S14の判断処理に進む。   In the determination process of S <b> 13, the CPU 11 determines whether or not a “reproduction stop signal” for stopping reproduction of “accompaniment music information” and “accompaniment video information” is input to the bus 9. The “reproduction stop signal” is generated when the user operates the operation unit 19 or the output signal generation program 13c outputs “accompaniment music information” stored in the accompaniment music information storage area 13k to the end. 9 is input. If the CPU 11 determines that the “reproduction stop signal” has been input to the bus 9 (YES in S13), the process proceeds to S31. On the other hand, if the CPU 11 determines that the “reproduction stop signal” has not been input to the bus 9 (NO in S13), the process proceeds to S14.

S14「音声入力有り」の判断処理において、CPU11は、音声入力インターフェース14からバス9に、「音声情報」が入力されたか否かを判断する。CPU11が、音声入力インターフェース14からバス9に、「音声情報」が入力されたと判断した場合には(S14の判断処理がYES)、前記「音声情報」を音声情報記憶領域13pに記憶し、S15の処理に進む。CPU11が、音声入力インターフェース14からバス9に、「音声情報」が入力されていないと判断した場合には(S14の判断処理がNO)、S13の判断処理に戻る。   In the determination process of S14 “with voice input”, the CPU 11 determines whether or not “voice information” has been input from the voice input interface 14 to the bus 9. When the CPU 11 determines that “voice information” is input from the voice input interface 14 to the bus 9 (YES in S14), the “voice information” is stored in the voice information storage area 13p, and S15. Proceed to the process. If the CPU 11 determines that “voice information” is not input from the voice input interface 14 to the bus 9 (NO in S14), the process returns to the determination process in S13.

S15「音色決定処理」において、音色種類決定プログラム13dは、「音声情報」を変換する音色の種類を決定する音色決定処理を実行する。詳しくは、図4に示される音色変換処理のフローを用いて、後述する。S15の処理が終了すると、S16の処理に進む。   In S15 “timbre determination process”, the timbre type determination program 13d executes a timbre determination process for determining a timbre type for converting “voice information”. Details will be described later with reference to the timbre conversion processing flow shown in FIG. When the process of S15 ends, the process proceeds to S16.

S16「音程補正処理」において、音程補正プログラム13fは、「音声信号」の音程の「伴奏音楽情報」からのズレを補正する音程補正処理を実行する。詳しくは、図5に示される音程補正処理のフローを用いて、後述する。S16の処理が終了すると、S17の処理に進む。   In S16 “pitch correction process”, the pitch correction program 13f executes a pitch correction process for correcting a shift of the pitch of the “voice signal” from the “accompaniment music information”. Details will be described later with reference to the flow of pitch correction processing shown in FIG. When the process of S16 ends, the process proceeds to S17.

S17「リズム補正処理」において、リズム補正プログラム13gは、「音声情報」のリズムの「伴奏音楽情報」からのズレを補正するリズム補正処理を実行する。詳しくは、図6に示されるリズム補正処理のフローを用いて、後述する。S17の処理が終了すると、S18の判断処理に進む。   In S17 “Rhythm correction process”, the rhythm correction program 13g executes a rhythm correction process for correcting a deviation of the “sound information” rhythm from the “accompaniment music information”. Details will be described later using the flow of the rhythm correction process shown in FIG. When the process of S17 ends, the process proceeds to the determination process of S18.

S18「音色変換処理」において、音色変換プログラム13eは、音声情報記憶領域13pに記憶されている「音声情報」を、S15の処理で決定され音色種類記憶領域13qに記憶された音色の種類に変換して「変換音声情報」を生成し、変換音声情報記憶領域13rに記憶させる。なお、音色種類記憶領域13qにnothingと記憶されている場合には(S15−2の処理において、音色種類決定プログラム13dがA=0、B=0と判断し、S15−3の処理において、音色種類決定プログラム13dが音色をnothingと音色を決定した場合)、S18の処理において、音色変換プログラム13eは、特に処理を行わない。S18の処理が終了すると、S19の判断処理に進む。   In S18 “tone conversion process”, the timbre conversion program 13e converts the “voice information” stored in the voice information storage area 13p into the timbre type determined in the process of S15 and stored in the timbre type storage area 13q. Then, “converted voice information” is generated and stored in the converted voice information storage area 13r. If nothing is stored in the timbre type storage area 13q (in the processing of S15-2, the timbre type determination program 13d determines that A = 0 and B = 0, and in the processing of S15-3, the timbre In the case where the type determination program 13d determines the timbre as nothing and the timbre), in the process of S18, the timbre conversion program 13e performs no particular process. When the process of S18 ends, the process proceeds to the determination process of S19.

S19「動作入力有り」の判断処理において、CPU11は、バス9に所定値以上の「加速度情報」が入力されたか否かを判断する。CPU11が、バス9に所定値以上の「加速度情報」が入力されたと判断した場合には(S19の判断処理がYES)、S20の処理に進む。CPU11が、バス9に所定値以上の「加速度情報」が入力されていない判断した場合には(S19の判断処理がNO)、S21の処理に進む。   In the determination process of S19 “operation input present”, the CPU 11 determines whether or not “acceleration information” of a predetermined value or more is input to the bus 9. When the CPU 11 determines that “acceleration information” equal to or greater than a predetermined value is input to the bus 9 (YES in S19), the process proceeds to S20. When the CPU 11 determines that “acceleration information” of a predetermined value or more is not input to the bus 9 (NO in S19), the process proceeds to S21.

S20「付加効果処理」において、効果付加プログラム13hは、携帯端末60の加速度センサー65が出力した「加速度情報」に基づいて、「変換音声情報」に効果を付加させる付加効果処理を実行する。詳しくは、図7に示される効果付加処理のフローを用いて後述する。S20の処理が終了すると、S21の処理に進む。   In S20 “addition effect processing”, the effect addition program 13h executes addition effect processing for adding an effect to the “converted voice information” based on the “acceleration information” output from the acceleration sensor 65 of the mobile terminal 60. Details will be described later with reference to the flow of effect addition processing shown in FIG. When the process of S20 ends, the process proceeds to S21.

S21「出力信号生成」の処理において、出力信号生成プログラム13cは、伴奏音楽情報記憶領域13kに記憶されている「伴奏音楽情報」及び変換音声情報記憶領域13rに記憶されている「変換音声情報」を合成して「合成音声情報」を生成し、当該「合成音声情報」を出力信号生成部15に出力する。出力信号生成部15は、「出力信号」を生成して、当該「出力信号」をスピーカー40に出力する。スピーカー40は、「出力信号」を音声として再生する。S21の処理が終了すると、S13の判断処理に戻る。   In the process of S21 “output signal generation”, the output signal generation program 13c executes “accompaniment music information” stored in the accompaniment music information storage area 13k and “converted audio information” stored in the converted audio information storage area 13r. To generate “synthesized speech information”, and output the “synthesized speech information” to the output signal generation unit 15. The output signal generation unit 15 generates an “output signal” and outputs the “output signal” to the speaker 40. The speaker 40 reproduces the “output signal” as sound. When the process of S21 ends, the process returns to the determination process of S13.

S31「伴奏音楽情報再生終了」の処理において、出力信号生成プログラム13cは、出力信号生成部15への「伴奏音楽情報」の出力を停止する。また、伴奏動画生成プログラム13iは、画像生成部16への描画命令の出力を停止する。S31の処理が終了すると、メイン処理が終了する。   In the process of S31 “Accompaniment music information reproduction end”, the output signal generation program 13c stops outputting the “accompaniment music information” to the output signal generation unit 15. In addition, the accompaniment moving image generation program 13 i stops outputting the drawing command to the image generation unit 16. When the process of S31 ends, the main process ends.

(音色決定処理)
図4を用いて、以下に音色決定処理について説明する。
音色決定処理が開始すると、S15−1の処理に進む。
S15−1「情報取得」の処理において、音色種類決定プログラム13dは、傾斜情報記憶領域13mに記憶されている「傾斜情報」及び加速度情報記憶領域13nに記憶されている「加速度情報」を取得し、RAMのワーキングエリアに記憶させる。S15−1の処理が終了すると、S15−2の処理に進む。
(Tone determination processing)
The timbre determination process will be described below with reference to FIG.
When the tone determination process starts, the process proceeds to S15-1.
In the processing of S15-1 “information acquisition”, the timbre type determination program 13d acquires “inclination information” stored in the inclination information storage area 13m and “acceleration information” stored in the acceleration information storage area 13n. And stored in the working area of the RAM. When the process of S15-1 ends, the process proceeds to S15-2.

S15−2「姿勢算出」の処理において、音色種類決定プログラム13dは、RAMのワーキングエリアに記憶されている「傾斜情報」及び「加速度情報」に基づいて、携帯端末60の傾度を算出する。具体的には、まず、音色種類決定プログラム13dは、「加速度情報」に基づいて、重力方向を算出する。次に、音色種類決定プログラム13dは、前記算出した重力方向及び「傾度情報」から、携帯端末60の姿勢を算出する。図8を用いて、具体的に説明する。図8の(A)、(B)、(D)示されるように携帯端末60に対するX、Y、Z座標が設定されている。なお、X座標方向は携帯端末60の幅方向であり、Y座標方向はX座標方向と直交する携帯端末60の縦方向であり。Z座標方法はX座標方向及びY座標方向と直交する携帯端末60の厚さ方向である。音色種類決定プログラム13dは、重力方向及び「傾度情報」から、携帯端末60のXZ平面上における傾き角θxz(図8の(A)に示す)及び、携帯端末60のYZ平面上における傾き角θyz(図8の(B)に示す)を算出する。そして、音色種類決定プログラム13dは、算出された携帯端末60の傾き角θxz及びθyzを、図8の(C)に示される基準に照合せることにより、A及びBの値を算出する。なお、AとBの初期値は1である。
図8の(C)に示される基準を詳述すると、携帯端末60の傾き角θxz及びθyzを、下式1〜4を満たすか否かによってA及びBの値が決定される。
−5°≦θxz≦5°…式1
−5°≦θyz≦5°…式2
式1及び式2の両方満たす場合には、A=0、B=0と決定される。
θyz≦θxy…式3
式1及び式2を満たすこと無く、式3を満たす場合には、A=2と決定される。
θyz≦−θxy…式4
式1及び式2を満たすこと無く、式4を満たす場合には、B=2と決定される。
S15−2の処理が終了すると、S15−3の処理に進む。
In the process of S15-2 “posture calculation”, the timbre type determination program 13d calculates the inclination of the portable terminal 60 based on the “tilt information” and “acceleration information” stored in the working area of the RAM. Specifically, first, the timbre type determination program 13d calculates the direction of gravity based on the “acceleration information”. Next, the tone color type determination program 13d calculates the attitude of the portable terminal 60 from the calculated gravity direction and “gradient information”. This will be specifically described with reference to FIG. As shown in FIGS. 8A, 8B, and 8D, X, Y, and Z coordinates for the portable terminal 60 are set. The X coordinate direction is the width direction of the mobile terminal 60, and the Y coordinate direction is the vertical direction of the mobile terminal 60 orthogonal to the X coordinate direction. The Z coordinate method is the thickness direction of the portable terminal 60 orthogonal to the X coordinate direction and the Y coordinate direction. The tone color type determination program 13d determines the inclination angle θxz (shown in FIG. 8A) of the portable terminal 60 on the XZ plane and the inclination angle θyz of the portable terminal 60 on the YZ plane from the direction of gravity and the “gradient information”. (Shown in FIG. 8B) is calculated. Then, the timbre type determination program 13d calculates the values of A and B by collating the calculated inclination angles θxz and θyz of the portable terminal 60 with the reference shown in FIG. The initial value of A and B is 1.
The criteria shown in FIG. 8C will be described in detail. The values of A and B are determined depending on whether the inclination angles θxz and θyz of the mobile terminal 60 satisfy the following expressions 1 to 4.
−5 ° ≦ θxz ≦ 5 ° ... Formula 1
−5 ° ≦ θyz ≦ 5 ° Formula 2
When both Expression 1 and Expression 2 are satisfied, it is determined that A = 0 and B = 0.
θyz ≦ θxy Equation 3
When Expression 3 is satisfied without satisfying Expression 1 and Expression 2, A = 2 is determined.
θyz ≦ −θxy (Formula 4)
If Expression 4 is satisfied without satisfying Expression 1 and Expression 2, B = 2 is determined.
When the process of S15-2 is completed, the process proceeds to S15-3.

S15−3「音色決定」の処理において、音色種類決定プログラム13dは、S15−2の処理で算出された携帯端末60の姿勢に基づいて、音色を決定し、決定した音色の種類を音色種類記憶領域13qに記憶させる。具体的には、音色種類決定プログラム13dは、S15−2の処理で決定されたA及びBを図8の(E)に示される基準に照合させることにより音色を決定する。なお本実施形態では、図8の(E)に示されるように、音色の種類は、楽器の楽音となっている。S15−3の処理が終了すると、音色決定処理が終了する。
このように、音色種類決定プログラム13dは、「傾度情報」から所定閾値(図8の(C)に示される基準)を用いて、携帯端末60の姿勢を判定し、更に、携帯端末60の姿勢から音色の種類を決定することにしたので、音色の種類が確実に決定される。
In the process of S15-3 “Tone determination”, the timbre type determination program 13d determines a timbre based on the attitude of the mobile terminal 60 calculated in the process of S15-2, and stores the determined timbre type as a timbre type. It memorize | stores in the area | region 13q. Specifically, the timbre type determination program 13d determines the timbre by collating A and B determined in S15-2 with the reference shown in FIG. In this embodiment, as shown in FIG. 8E, the timbre type is a musical tone of a musical instrument. When the process of S15-3 is completed, the timbre determination process is terminated.
As described above, the timbre type determination program 13d determines the attitude of the portable terminal 60 from the “gradient information” using the predetermined threshold (the reference shown in FIG. 8C), and further determines the attitude of the portable terminal 60. Therefore, the timbre type is determined with certainty.

(音程補正処理)
図5を用いて、以下に音程補正処理のフローについて説明する。音程補正処理が開始すると、S16−1の処理に進む。
S16−1「音声情報取得」の処理において、音程補正プログラム13fは、音声情報記憶領域13pに記憶された「音声情報」を、RAMのワーキングエリアに記憶させる。S16−1の処理が終了すると、S16−2の処理に進む。
(Pitch correction processing)
The flow of the pitch correction process will be described below with reference to FIG. When the pitch correction process is started, the process proceeds to S16-1.
In the process of S16-1 “acquisition of voice information”, the pitch correction program 13f stores the “voice information” stored in the voice information storage area 13p in the working area of the RAM. When the process of S16-1 ends, the process proceeds to S16-2.

S16−2「伴奏音楽情報取得」の処理において、音程補正プログラム13fは、伴奏音楽情報記憶領域13kに記憶された「伴奏音楽情報」を、RAMのワーキングエリアに記憶させる。S16−2の処理が終了すると、S16−3の処理に進む。   In the process of S16-2 “accompaniment music information acquisition”, the pitch correction program 13f stores the “accompaniment music information” stored in the accompaniment music information storage area 13k in the working area of the RAM. When the process of S16-2 ends, the process proceeds to S16-3.

S16−3「音程のズレが所定以上」の判断処理において、音程補正プログラム13fは、RAMのワーキングエリアに記憶された「伴奏音楽情報」と「音声情報」を比較し、「音声情報」の音程が「伴奏音楽信号情報」の音程から所定以上ズレているか否かを判断する。なお、図9において、縦方向は音程、横方向は時間を意味する。図9の(1)や(2)に示されるように、音程補正プログラム13fが、「音声情報」の音程が「伴奏音楽信号情報」の音程に基づく音程から所定以上(例えば、四分音以上)ズレていると判断した場合には(S16−3の判断処理がYES)、S16−4の処理に進む。一方で、音程補正プログラム13fが、「音声情報」の音程が「伴奏音楽信号情報」の音程から所定以上ズレていないと判断した場合には(S16−3の判断処理がNO)、音程補正処理が終了する。なお、「伴奏音楽信号情報」の音程に基づく音程とは、「伴奏音楽信号情報」の音程に一致する音程はもちろん、「伴奏音楽信号情報」の音程と所定の関係にある音程(例えば、「伴奏音楽信号情報」の音程から、1オクターブずれた音程や、3度又は5度ずれた和音の関係にある音程など)も含む意である。   In the determination process of S16-3 “pitch deviation is not less than a predetermined value”, the pitch correction program 13f compares the “accompaniment music information” stored in the working area of the RAM with the “voice information”, and the pitch of the “voice information”. Is deviated from the pitch of “accompaniment music signal information” by a predetermined amount or more. In FIG. 9, the vertical direction means the pitch, and the horizontal direction means time. As shown in (1) and (2) of FIG. 9, the pitch correction program 13f determines that the pitch of “speech information” is greater than or equal to a pitch based on the pitch of “accompaniment music signal information” (eg, a quarter tone or more). ) If it is determined that there is a deviation (YES in S16-3), the process proceeds to S16-4. On the other hand, when the pitch correction program 13f determines that the pitch of “speech information” is not shifted from the pitch of “accompaniment music signal information” by a predetermined amount or more (NO in S16-3), the pitch correction processing is performed. Ends. Note that the pitch based on the pitch of the “accompaniment music signal information” is not only a pitch that matches the pitch of the “accompaniment music signal information” but also a pitch that has a predetermined relationship with the pitch of the “accompaniment music signal information” (for example, “ It is meant to include a pitch shifted by one octave from a pitch of the “accompaniment music signal information” or a pitch in a chord relationship shifted by 3 or 5 degrees.

S16−4「音程補正」の処理において、音程補正プログラム13fは、図9の(3)、(4)に示されるように、S16−4の判断処理でズレていると判断した「音声情報」の音程を補正し、RAMのワーキングエリアに更新記憶させる。具体的には、図9の(3)(4)以外の音と同様に、「伴奏音楽信号情報」の音程に基づく音程となるように、音程が補正される。S16−4の処理が終了すると、音程補正処理が終了する。
この音程補正処理により、ユーザーがスピーカー40から再生される伴奏音楽の音程を外して発声した場合であっても、伴奏音楽に合った「変換音声情報」が生成される。
In the process of S16-4 “pitch correction”, the pitch correction program 13f determines that “sound information” has been shifted in the determination process of S16-4 as shown in (3) and (4) of FIG. Is corrected and stored in the working area of the RAM. Specifically, the pitch is corrected so that the pitch is based on the pitch of the “accompaniment music signal information”, as with the sounds other than (3) and (4) in FIG. When the process of S16-4 ends, the pitch correction process ends.
By this pitch correction process, even if the user utters the musical accompaniment that is reproduced from the speaker 40, “converted voice information” that matches the accompaniment music is generated.

(リズム補正処理)
図6を用いて、以下にリズム補正処理のフローについて説明する。リズム補正処理が開始すると、S17−1の処理に進む。
S17−1「リズムのズレが所定以上」の処理において、リズム補正プログラム13gは、RAMのワーキングエリアに記憶された「伴奏音楽情報」と「音声情報」を比較し、「音声情報」のリズムが「伴奏音楽情報」のリズムから所定以上ずれているか否かを判断する。なお、図10において、横軸は時間(デルタタイム)を意味する。図10の(1)〜(4)に示されるように、リズム補正プログラム13gが、「音声情報」のリズムが「伴奏音楽情報」のリズムから所定以上ずれていると判断した場合には(S17−1の判断処理がYES)、S17−2の処理に進む。一方で、リズム補正プログラム13gが、「音声情報」のリズムが「伴奏音楽情報」のリズムから所定以上ずれていないと判断した場合には(S17−1の判断処理がNO)、リズム補正処理が終了する。
(Rhythm correction processing)
The flow of the rhythm correction process will be described below using FIG. When the rhythm correction process is started, the process proceeds to S17-1.
In the process of S17-1 “Rhythm deviation is not less than a predetermined value”, the rhythm correction program 13g compares the “accompaniment music information” and the “voice information” stored in the working area of the RAM, and the rhythm of the “voice information” is It is determined whether or not the rhythm of the “accompaniment music information” deviates by a predetermined amount or more. In FIG. 10, the horizontal axis represents time (delta time). As shown in (1) to (4) of FIG. 10, when the rhythm correction program 13g determines that the rhythm of “audio information” is deviated from the rhythm of “accompaniment music information” by a predetermined amount or more (S17). -1 determination process is YES), the process proceeds to S17-2. On the other hand, if the rhythm correction program 13g determines that the rhythm of “voice information” is not deviated from the rhythm of “accompaniment music information” by a predetermined amount or more (NO in S17-1), the rhythm correction process is performed. finish.

S17−2「リズム補正処理」の処理において、リズム補正プログラム13gは、図10の(5)〜(8)に示されるように、S17−1の判断処理において、ズレていると判断した「音声情報」のリズムを補正し、音声情報記憶領域13pに更新記憶させる。具体的には、図10の(5)〜(8)に示されるように、リズム補正プログラム13gは「音声情報」の早く入力を止めてしまった音を「伴奏音楽情報」に合うように伸ばす処理や、早く入力してしまった音を「伴奏音楽情報」に合うように入力を遅らせる処理を行う。S17−2の処理が終了すると、リズム補正処理が終了する。
このリズム補正処理により、ユーザーがスピーカー40から再生される伴奏音楽のリズムを外して発声した場合であっても、伴奏音楽に合った「変換音声情報」が生成される。
In the process of S17-2 “Rhythm correction process”, the rhythm correction program 13g, as shown in (5) to (8) of FIG. The rhythm of “information” is corrected and updated and stored in the voice information storage area 13p. Specifically, as shown in (5) to (8) of FIG. 10, the rhythm correction program 13g extends the sound that has been stopped to input "voice information" early so as to match the "accompaniment music information". Processing is performed and processing for delaying input so that the sound that has been input earlier matches the “accompaniment music information” is performed. When the process of S17-2 ends, the rhythm correction process ends.
By this rhythm correction processing, even if the user utters the accompaniment music reproduced from the speaker 40, “converted sound information” that matches the accompaniment music is generated.

(効果付加処理)
図7を用いて、以下に効果付加処理のフローについて説明する。
効果付加処理が開始すると、S20−1の処理に進む。
S20−1「加速度データ取得」の処理において、効果付加プログラム13hは、加速度情報記憶領域13nに記憶された「加速度情報」をRAMのワーキングエリアに記憶させる。S20−1の処理が終了すると、S20−2の処理に進む。
(Effect addition processing)
The effect adding process flow will be described below with reference to FIG.
When the effect addition process is started, the process proceeds to S20-1.
In the processing of S20-1 “Acquire acceleration data”, the effect addition program 13h stores “acceleration information” stored in the acceleration information storage area 13n in the working area of the RAM. When the process of S20-1 ends, the process proceeds to S20-2.

S20−2「動き認識」の処理において、効果付加プログラム13hは、RAMのワーキングエリアに記憶された「加速度情報」から、携帯端末60の動きを認識する。具体的には、図11の(A)、(B)に示されるように、効果付加プログラム13hは、携帯端末60のX、Y、Z座標方向の動きを認識する。S20−2の処理が終了すると、S20−3の処理に進む。   In the process of S20-2 “motion recognition”, the effect addition program 13h recognizes the motion of the mobile terminal 60 from the “acceleration information” stored in the working area of the RAM. Specifically, as shown in FIGS. 11A and 11B, the effect addition program 13 h recognizes the movement of the mobile terminal 60 in the X, Y, and Z coordinate directions. When the process of S20-2 ends, the process proceeds to S20-3.

S20−3「付加効果決定」の処理において、効果付加プログラム13hは、S20−2の処理で認識された携帯端末60の動きから、付加効果を決定する。具体的には、効果付加プログラム13hは、図11の(C)の表に示されるような基準により、「変換音声情報」に付加する効果(例えば、出力を遅らせる、ビブラートを付加するなど)を決定する。つまり、ユーザーが携帯端末60をX、Y、Zの特定の方向に振った場合には、振った方向に対応する効果が決定される。或いは、図11の(D)に示されように、効果付加プログラム13hは、携帯端末60の回転等の特定の動きを検知して、「変換音声情報」に付加する効果を決定する。S20−3の処理が終了すると、S20−4の処理に進む。   In the process of S20-3 “determination of additional effect”, the effect addition program 13h determines the additional effect from the movement of the mobile terminal 60 recognized in the process of S20-2. Specifically, the effect addition program 13h provides an effect (for example, delaying output, adding vibrato, etc.) to be added to the “converted audio information” based on the criteria shown in the table of FIG. decide. That is, when the user swings the mobile terminal 60 in specific directions of X, Y, and Z, the effect corresponding to the swing direction is determined. Alternatively, as illustrated in FIG. 11D, the effect addition program 13 h detects a specific movement such as rotation of the mobile terminal 60 and determines an effect to be added to the “converted sound information”. When the process of S20-3 ends, the process proceeds to S20-4.

S20−4「効果付加」の処理において、効果付加プログラム13hは、「変換音声情報」にS20−3の処理で決定された効果を付加し、変換音声情報記憶領域13rに更新記憶させる。S20−4の処理が終了すると、効果付加処理が終了する。
この効果付加処理により、ユーザーは、携帯端末60を動かすという簡単な操作により、「変換音声情報」に効果を付加させることが可能となる。
In the process of S20-4 “add effect”, the effect addition program 13h adds the effect determined in the process of S20-3 to “converted voice information”, and updates and stores it in the converted voice information storage area 13r. When the process of S20-4 ends, the effect addition process ends.
By this effect addition process, the user can add an effect to the “converted voice information” by a simple operation of moving the mobile terminal 60.

(総括)
以上説明したように、本発明では、ユーザーが携帯端末60を傾けるという簡単な操作により、ユーザーが発声した音声が変換される音色の種類を選択できるようになっている。
(Summary)
As described above, according to the present invention, the type of timbre to which the voice uttered by the user is converted can be selected by a simple operation in which the user tilts the portable terminal 60.

なお、以上説明した実施形態では、カラオケ装置本体20は、「伴奏動画情報」を取得しているが、動画無しの「伴奏音楽情報」を取得する実施形態であっても差し支えない。また、以上説明した実施形態では、カラオケ装置本体20は「伴奏動画情報」や「伴奏音楽情報」を公衆通信網900から取得しているが、DVDやCDROM等リムーバブルディスクに記憶さされた「伴奏動画情報」や「伴奏音楽情報」を、DVDドライブやCDドライブ等の読み取り装置で取得することにしても差し支えない。   In the embodiment described above, the karaoke apparatus body 20 acquires “accompaniment video information”, but may be an embodiment that acquires “accompaniment music information” without a video. Further, in the embodiment described above, the karaoke apparatus body 20 acquires “accompaniment video information” and “accompaniment music information” from the public communication network 900, but “accompaniment” stored in a removable disk such as a DVD or CDROM. The “moving image information” and “accompaniment music information” may be acquired by a reading device such as a DVD drive or a CD drive.

以上、現時点において、もっとも、実践的であり、かつ好ましいと思われる実施形態に関連して本発明を説明したが、本発明は、本願明細書中に開示された実施形態に限定されるものではなく、請求の範囲および明細書全体から読み取れる発明の要旨あるいは思想に反しない範囲で適宜変更可能であり、そのような変更を伴うカラオケシステムもまた技術的範囲に包含されるものとして理解されなければならない。   Although the present invention has been described above in connection with the most practical and preferred embodiments at the present time, the present invention is not limited to the embodiments disclosed herein. The invention can be changed as appropriate without departing from the spirit or concept of the invention that can be read from the claims and the entire specification, and a karaoke system with such changes should also be understood as being included in the technical scope. Don't be.

9 バス
11 CPU
13 記憶部
13a 伴奏動画情報取得プログラム
13b 伴奏音楽情報取得プログラム
13c 出力信号生成プログラム
13d 音色種類決定プログラム
13e 音色変換プログラム
13f 音程補正プログラム
13g リズム補正プログラム
13h 効果付加プログラム
13i 伴奏動画生成プログラム
13j 伴奏動画情報記憶領域
13k 伴奏音楽情報記憶領域
13m 傾斜情報記憶領域
13n 加速度情報記憶領域
13p 音声情報記憶領域
13q 音色種類記憶領域
13r 変換音声情報記憶領域
14 音声入力インターフェース
15 出力信号生成部
16 画像生成部
17 通信部
18 外部通信部
19 操作部
20 カラオケ装置本体
30 マイクロフォン
40 スピーカー
50 画像表示装置
60 携帯端末
61 CPU
63 記憶部
64 傾斜センサー
65 加速度センサー
66 通信部
69 バス
100 カラオケシステム
900 公衆通信網
9 Bus 11 CPU
13 storage unit 13a accompaniment video information acquisition program 13b accompaniment music information acquisition program 13c output signal generation program 13d tone color type determination program 13e tone color conversion program 13f pitch correction program 13g rhythm correction program 13h effect addition program 13i accompaniment video generation program 13j accompaniment video information Storage area 13k Accompaniment music information storage area 13m Tilt information storage area 13n Acceleration information storage area 13p Voice information storage area 13q Tone type storage area 13r Conversion voice information storage area 14 Voice input interface 15 Output signal generation section 16 Image generation section 17 Communication section 18 External Communication Unit 19 Operation Unit 20 Karaoke Device Main Body 30 Microphone 40 Speaker 50 Image Display Device 60 Portable Terminal 61 CPU
63 storage unit 64 tilt sensor 65 acceleration sensor 66 communication unit 69 bus 100 karaoke system 900 public communication network

Claims (5)

音声から音声信号を生成するマイクロフォンと、
伴奏音楽情報を取得する伴奏音楽情報取得手段と、前記マイクロフォンから出力される音声信号及び前記伴奏情報取得手段が取得した伴奏音楽情報に基づいて出力信号を生成する出力信号生成手段を有するカラオケ装置本体と、
前記出力信号を音声に再生するスピーカーとからなるカラオケシステムにおいて、
傾度を測定する傾度センサーと、
前記傾度センサーが測定した傾度情報を前記カラオケ装置本体に送信する通信手段を有する携帯端末を更に有し、
前記カラオケ装置本体は、
前記携帯端末が送信する傾度情報に基づき、マイクロフォンが出力する音声信号が変換される音色種類を決定する音色種類決定手段と、
前記音色種類決定手段が決定した音色種類に基づいて、マイクロフォンが出力する音声信号の音色を変換して変換音声情報を生成する音色変換手段を更に有し、
出力信号生成手段は、前記変換音声情報と伴奏音楽情報を合成して出力信号を生成することを特徴とするカラオケシステム。
A microphone that generates an audio signal from audio;
Accompaniment music information acquisition means for acquiring accompaniment music information, and an output signal generation means for generating an output signal based on an audio signal output from the microphone and accompaniment music information acquired by the accompaniment information acquisition means When,
In a karaoke system comprising a speaker that reproduces the output signal as audio,
A tilt sensor for measuring the tilt,
A portable terminal further comprising a communication means for transmitting the inclination information measured by the inclination sensor to the karaoke apparatus body;
The karaoke apparatus body is
A timbre type determining means for determining a timbre type to which an audio signal output from the microphone is converted based on the gradient information transmitted by the portable terminal;
Further comprising timbre conversion means for converting the timbre of the voice signal output from the microphone to generate converted voice information based on the timbre type determined by the timbre type determination means;
The karaoke system characterized in that the output signal generation means generates the output signal by synthesizing the converted voice information and the accompaniment music information.
音色種類決定手段は、携帯端末が送信する傾度情報を閾値に基づき、前記携帯端末の姿勢を判定し、音色種類を決定することを特徴とする請求項1に記載のカラオケシステム。   2. The karaoke system according to claim 1, wherein the timbre type determining means determines the timbre type by determining the attitude of the mobile terminal based on the gradient information transmitted by the mobile terminal based on a threshold value. カラオケ装置本体は、マイクロフォンが出力した音声信号の音程を、伴奏音楽情報に基づいて補正する音程補正手段を更に有することを特徴とする請求項1又は請求項2に記載のカラオケシステム。   3. The karaoke system according to claim 1, wherein the karaoke apparatus main body further includes pitch correction means for correcting the pitch of the audio signal output from the microphone based on the accompaniment music information. カラオケ装置本体は、マイクロフォンが出力した音声信号のリズムを、伴奏音楽情報に基づいて補正するリズム補正手段を更に有することを特徴とする請求項1〜請求項3のいずれかに記載のカラオケシステム。   The karaoke system according to any one of claims 1 to 3, wherein the karaoke apparatus main body further includes rhythm correction means for correcting the rhythm of the audio signal output from the microphone based on the accompaniment music information. 携帯端末は、加速度を測定する加速度センサーを更に有し、
送信手段は、前記加速度センサーが測定した加速度情報を、通信手段を介して前記カラオケ装置本体に送信し、
カラオケ装置本体は、携帯端末から送信された加速度情報に基づいて音色変換手段が生成した変換音声情報に効果を付加する効果付加手段を更に有することを特徴とする請求項1〜請求項4のいずれかに記載のカラオケシステム。
The portable terminal further includes an acceleration sensor that measures acceleration,
The transmission means transmits the acceleration information measured by the acceleration sensor to the karaoke apparatus body through the communication means,
The karaoke apparatus main body further includes effect adding means for adding an effect to the converted voice information generated by the timbre converting means based on the acceleration information transmitted from the portable terminal. The karaoke system described in Crab.
JP2010086678A 2010-04-05 2010-04-05 Karaoke system Pending JP2011221064A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010086678A JP2011221064A (en) 2010-04-05 2010-04-05 Karaoke system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010086678A JP2011221064A (en) 2010-04-05 2010-04-05 Karaoke system

Publications (1)

Publication Number Publication Date
JP2011221064A true JP2011221064A (en) 2011-11-04

Family

ID=45038167

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010086678A Pending JP2011221064A (en) 2010-04-05 2010-04-05 Karaoke system

Country Status (1)

Country Link
JP (1) JP2011221064A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014113316A (en) * 2012-12-10 2014-06-26 Gree Inc Method and program for controlling music game, and music game system
WO2015020025A1 (en) * 2013-08-09 2015-02-12 ヤマハ株式会社 Pitch correction device and pitch correction method
JP2016142843A (en) * 2015-01-30 2016-08-08 株式会社第一興商 Karaoke system having pitch shift function for harmony singing
JP2019086801A (en) * 2013-10-17 2019-06-06 ヤマハ株式会社 Audio processing method and audio processing apparatus
JP7324957B1 (en) * 2023-04-27 2023-08-10 真太郎 上田 sound equipment

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10171475A (en) * 1996-12-10 1998-06-26 Yamaha Corp Karaoke (accompaniment to recorded music) device
JP2001324987A (en) * 2000-05-15 2001-11-22 Victor Co Of Japan Ltd Karaoke device
JP2003084779A (en) * 2001-09-07 2003-03-19 Yamaha Corp Karaoke system
JP2007240930A (en) * 2006-03-09 2007-09-20 Xing Inc Electronic quick reference device
JP2009008934A (en) * 2007-06-28 2009-01-15 Brother Ind Ltd Music reproduction device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10171475A (en) * 1996-12-10 1998-06-26 Yamaha Corp Karaoke (accompaniment to recorded music) device
JP2001324987A (en) * 2000-05-15 2001-11-22 Victor Co Of Japan Ltd Karaoke device
JP2003084779A (en) * 2001-09-07 2003-03-19 Yamaha Corp Karaoke system
JP2007240930A (en) * 2006-03-09 2007-09-20 Xing Inc Electronic quick reference device
JP2009008934A (en) * 2007-06-28 2009-01-15 Brother Ind Ltd Music reproduction device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014113316A (en) * 2012-12-10 2014-06-26 Gree Inc Method and program for controlling music game, and music game system
WO2015020025A1 (en) * 2013-08-09 2015-02-12 ヤマハ株式会社 Pitch correction device and pitch correction method
JP2015034923A (en) * 2013-08-09 2015-02-19 ヤマハ株式会社 Pitch correction device
JP2019086801A (en) * 2013-10-17 2019-06-06 ヤマハ株式会社 Audio processing method and audio processing apparatus
JP2016142843A (en) * 2015-01-30 2016-08-08 株式会社第一興商 Karaoke system having pitch shift function for harmony singing
JP7324957B1 (en) * 2023-04-27 2023-08-10 真太郎 上田 sound equipment

Similar Documents

Publication Publication Date Title
CN111326132B (en) Audio processing method and device, storage medium and electronic equipment
US7842875B2 (en) Scheme for providing audio effects for a musical instrument and for controlling images with same
US11437004B2 (en) Audio performance with far field microphone
TW200951764A (en) Gesture-related feedback in electronic entertainment system
JP2011221064A (en) Karaoke system
US20130278380A1 (en) Electronic device including finger movement based musical tone generation and related methods
JP4906776B2 (en) Voice control device
JP2013195647A (en) Touch detection device, touch detection unit, and touch detection method
KR100617719B1 (en) Apparatus and method for generating movement dependent sound in a mobile communication terminal equipment
WO2020136892A1 (en) Control device, electronic musical instrument system, and control method
KR20060025411A (en) Main apparatus for singing room machinery and mp3
CN102246224B (en) A method and device for modifying playback of digital musical content
JP4585473B2 (en) Electronic sampler
JP6159515B2 (en) GAME SYSTEM, GAME DEVICE, GAME PROGRAM, AND GAME PROCESSING CONTROL METHOD
JP2007034002A (en) Personal digital assistant
JP2006251023A (en) Electronic musical instrument using attitude angle detection device, and control method thereof
JP5949879B2 (en) Touch detection device, touch detection method, and electronic musical instrument
JP2009205039A (en) Audio data conversion/reproduction system, audio data conversion device and audio data reproduction device
WO2019054012A1 (en) Information processing device and program
JP2015138160A (en) Character musical performance image creation device, character musical performance image creation method, character musical performance system, and character musical performance method
JPH08123448A (en) Image processor using waveform analysis of sound signal
US20230419946A1 (en) Sound generation device and control method thereof, program, and electronic musical instrument
WO2023236054A1 (en) Audio generation method and apparatus, and storage medium
WO2024124495A1 (en) Audio processing method and apparatus, terminal, and storage medium
KR20070008065A (en) Mobile phone with the function of sound effect output and sound effect output method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120919

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130920

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140304