JP2016183989A - Information processing device and program - Google Patents

Information processing device and program Download PDF

Info

Publication number
JP2016183989A
JP2016183989A JP2015062743A JP2015062743A JP2016183989A JP 2016183989 A JP2016183989 A JP 2016183989A JP 2015062743 A JP2015062743 A JP 2015062743A JP 2015062743 A JP2015062743 A JP 2015062743A JP 2016183989 A JP2016183989 A JP 2016183989A
Authority
JP
Japan
Prior art keywords
motion
information
music
output
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015062743A
Other languages
Japanese (ja)
Other versions
JP6287921B2 (en
Inventor
弘明 松場
Hiroaki Matsuba
弘明 松場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2015062743A priority Critical patent/JP6287921B2/en
Publication of JP2016183989A publication Critical patent/JP2016183989A/en
Application granted granted Critical
Publication of JP6287921B2 publication Critical patent/JP6287921B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

PROBLEM TO BE SOLVED: To make it possible to heighten the sense of presence as if it were singing before an audience.SOLUTION: An information processing device comprises: acquisition means for acquiring musical data indicating a piece of music; output control means for making the piece of music that the musical data acquired by the acquisition means indicates outputted by output means; detection means for detecting a motion of a user while the piece of music is being outputted by the output means; determination means for determining motion information indicating a repetitive motion on the basis of the motion detected by the detection means; and display control means for making a video indicating an object that does the repetitive motion that the motion information determined by the determination means indicates displayed by display means while the piece of music is being outputted by the output means.SELECTED DRAWING: Figure 1

Description

本発明は、カラオケの楽曲の出力中に、観客を示す映像を表示させる情報処理装置の技術分野に関する。   The present invention relates to a technical field of an information processing apparatus that displays an image showing a spectator during output of karaoke music.

特許文献1には、ユーザが観客の前で歌うと同様な疑似体験を可能とするカラオケ装置が開示されている。具体的に、特許文献1には、歌手がステージで歌ったときの観客の反応を録画した映像をディスプレイ装置に再生し、スピーカで再生される音をバックに、ディスプレイ装置で再生される歌手等や観客の反応を見ながらユーザが歌うことが開示されている。   Patent Document 1 discloses a karaoke device that enables a similar simulated experience when a user sings in front of an audience. Specifically, Japanese Patent Laid-Open No. 2004-26883 discloses a singer that is reproduced on a display device by playing back a video that records the reaction of the audience when the singer sang on the stage, and a sound that is reproduced by a speaker in the background. It is disclosed that the user sings while watching the reaction of the audience.

特開2004−287362号公報JP 2004-287362 A

しかしながら、ディスプレイ装置に表示される観客の反応は予め録画されたものであり、ユーザが実際に歌うときの動作に応じて観客の反応が変わるものではない。そのため、ユーザに対して観客が反応しているという感覚が希薄となるので、観客の前でユーザが歌っているような臨場感が不足する。   However, the audience reaction displayed on the display device is recorded in advance, and the audience reaction does not change according to the operation when the user actually sings. For this reason, the sense that the audience is responding to the user is diminished, and there is a lack of realism as if the user is singing in front of the audience.

本発明は、以上の点に鑑みてなされたものであり、あたかも観客の前で歌っているかのような臨場感を高めることを可能とする情報処理装置等を提供することを課題とする。   The present invention has been made in view of the above points, and an object of the present invention is to provide an information processing apparatus and the like that can enhance a sense of reality as if singing in front of a spectator.

上記課題を解決するために、請求項1に記載の発明は、楽曲を示す楽曲データ を取得する取得手段と、前記取得手段により取得された前記楽曲データが示す楽曲を出力手段により出力させる出力制御手段と、前記出力手段による前記楽曲の出力中に、ユーザの動作を検出する検出手段と、前記検出手段により検出された動作に基づいて、繰り返し動作を示す動作情報を決定する決定手段と、前記出力手段による前記楽曲の出力中に、前記決定手段により決定された前記動作情報が示す繰り返し動作を行うオブジェクトを示す映像を表示手段に表示させる表示制御手段と、を備えることを特徴とする。   In order to solve the above-mentioned problem, the invention according to claim 1 is characterized in that an acquisition means for acquiring music data indicating a music and an output control for causing the output means to output a music indicated by the music data acquired by the acquisition means. Means for detecting a user action during the output of the music by the output means, a determination means for determining action information indicating a repetitive action based on the action detected by the detection means, And display control means for displaying on the display means a video indicating an object that performs the repetitive motion indicated by the motion information determined by the determination means while the music is being output by the output means.

請求項2に記載の発明は、請求項1に記載の情報処理装置において、前記決定手段は、前記検出手段により前記ユーザの動作の検出が開始されてから前記検出手段により所定運動量以下のユーザの動作が検出されるまでの間に検出された前記ユーザの動作に基づいて、前記動作情報を決定することを特徴とする。   According to a second aspect of the present invention, in the information processing apparatus according to the first aspect, the determination unit is configured to detect a user's motion less than or equal to a predetermined amount of exercise by the detection unit after the detection unit starts detecting the operation of the user. The motion information is determined based on the motion of the user detected until the motion is detected.

請求項3に記載の発明は、請求項2に記載の情報処理装置において、前記検出手段により前記ユーザの動作の検出が開始されてから第1所定時間が経過した後に前記検出手段により前記所定運動量以下のユーザの動作が検出されるまでに検出された前記ユーザの動作に基づいて、前記動作情報を決定することを特徴とする。   According to a third aspect of the present invention, in the information processing apparatus according to the second aspect, the predetermined momentum is detected by the detection unit after a first predetermined time has elapsed since the detection unit started detecting the user's movement. The motion information is determined based on the user motion detected until the following user motion is detected.

請求項4に記載の発明は、請求項1乃至3の何れか1項に記載の情報処理装置において、前記検出手段により検出された動作の中から、前記ユーザが繰り返し行った動作を特定する特定手段を更に備え、前記決定手段は、前記特定手段により特定された動作に基づいて、前記オブジェクトが行う繰り返し動作を示す前記動作情報を決定することを特徴とする。   According to a fourth aspect of the present invention, in the information processing apparatus according to any one of the first to third aspects, the identification that identifies the operation repeatedly performed by the user from among the operations detected by the detecting means. Means for determining the action information indicating the repetitive action performed by the object based on the action specified by the specifying means.

請求項5に記載の発明は、請求項1乃至4の何れか1項に記載の情報処理装置において、予め定められた繰り返し動作を示す所定動作情報を複数記憶する所定動作情報記憶手段を更に備え、前記決定手段は、前記検出手段により検出された動作に基づいて、前記所定動作情報記憶手段に記憶された複数の所定動作情報のうち何れかの所定動作情報を決定し、前記表示制御手段は、前記決定手段により決定された前記所定動作情報が示す動作を行う前記オブジェクトを示す映像を前記表示手段に表示させることを特徴とする。   According to a fifth aspect of the present invention, in the information processing apparatus according to any one of the first to fourth aspects, the information processing apparatus further includes predetermined operation information storage means for storing a plurality of predetermined operation information indicating a predetermined repetitive operation. The determining unit determines any predetermined operation information among a plurality of predetermined operation information stored in the predetermined operation information storage unit based on the operation detected by the detection unit; The display means displays an image showing the object performing the action indicated by the predetermined action information determined by the determining means.

請求項6に記載の発明は、請求項5に記載の情報処理装置において、前記決定手段は、前記所定動作情報記憶手段に記憶された前記複数の所定動作情報のうち、前記検出手段により検出された動作と類似する動作を示す所定動作情報を決定し、前記検出手段により検出された動作と類似する動作を示す所定動作情報が前記所定動作情報記憶手段に記憶されていない場合、前記検出手段により検出された動作を示す動作情報を、前記オブジェクトが行う繰り返し動作を示す前記動作情報に決定することを特徴とする。   According to a sixth aspect of the present invention, in the information processing apparatus according to the fifth aspect, the determining unit is detected by the detecting unit among the plurality of predetermined operation information stored in the predetermined operation information storage unit. Predetermined operation information indicating an operation similar to the detected operation is determined, and when the predetermined operation information indicating an operation similar to the operation detected by the detection unit is not stored in the predetermined operation information storage unit, the detection unit The motion information indicating the detected motion is determined as the motion information indicating the repeated motion performed by the object.

請求項7に記載の発明は、請求項1乃至6の何れか1項に記載の情報処理装置において、前記取得手段は、複数の演奏パートで構成される楽曲を示す前記楽曲データを取得し、前記決定手段により決定された前記動作情報を、前記複数の演奏パートのうちの何れかに割り当てる割当手段を更に備え、前記表示制御手段は、前記割当手段により前記動作情報が割り当てられた演奏パートが前記出力手段により出力されているとき、前記動作情報が示す繰り返し動作を行う前記オブジェクトを示す映像を前記表示手段に表示させることを特徴とする。   The invention according to claim 7 is the information processing apparatus according to any one of claims 1 to 6, wherein the acquisition unit acquires the music data indicating a music composed of a plurality of performance parts, The apparatus further comprises assigning means for assigning the motion information determined by the determining means to any one of the plurality of performance parts, and the display control means includes a performance part to which the motion information is assigned by the assigning means. When output by the output means, the display means displays a video showing the object performing the repetitive motion indicated by the motion information.

請求項8に記載の発明は、請求項7に記載の情報処理装置において、前記取得手段は、互いに種類が同じ2以上の演奏パートを含む複数の演奏パートで構成される楽曲を示す前記楽曲データを取得し、前記割当手段は、前記決定手段により決定された前記動作情報と、前記決定手段により前記動作情報が決定された前記ユーザの動作が前記検出手段により検出されたときに前記出力手段により出力されていた演奏パートの種類を示す種類情報とを対応付けて種類情報記憶手段に記憶させ、前記表示制御手段は、前記種類情報記憶手段に記憶された前記種類情報が示す種類の演奏パートが前記出力手段により出力されているとき、前記種類情報に対応付けて前記種類情報記憶手段に記憶された前記動作情報が示す繰り返し動作を行う前記オブジェクトを示す映像を前記表示手段に表示させることを特徴とする。   The invention according to claim 8 is the information processing apparatus according to claim 7, wherein the acquisition means indicates the music data indicating music composed of a plurality of performance parts including two or more performance parts of the same type. And the assigning means outputs the operation information determined by the determining means and the output means when the detecting means detects the user's action for which the action information is determined by the determining means. The type information indicating the type of the performance part that has been output is associated with and stored in the type information storage means, and the display control means includes the type of performance part indicated by the type information stored in the type information storage means. The object that performs a repetitive operation indicated by the operation information stored in the type information storage unit in association with the type information when being output by the output unit. An image indicating the transfected and wherein the to be displayed on the display means.

請求項9に記載の発明は、請求項1乃至8の何れか1項に記載の情報処理装置において、前記出力手段による前記楽曲の出力中に、動作の実行の要求を示す要求情報を前記表示手段に表示させる第2表示制御手段を更に備え、前記決定手段は、前記表示手段に前記要求情報が表示されてから前記検出手段により検出された動作に基づいて、前記動作情報を決定することを特徴とする。   According to a ninth aspect of the present invention, in the information processing apparatus according to any one of the first to eighth aspects, the request information indicating a request to execute an operation is output during the output of the music by the output unit. A second display control unit for displaying the operation information on the basis of an operation detected by the detection unit after the request information is displayed on the display unit. Features.

請求項10に記載の発明は、請求項1乃至9の何れか1項に記載の情報処理装置において、前記決定手段は、前記検出手段により前記ユーザの動作の検出が開始されてから第2所定時間が経過する前までに前記繰り返し動作が決定されなかった場合、前記ユーザの動作の検出が開始されてから前記第2所定時間が経過するまでに前記検出手段により検出された前記ユーザの動作に基づいて、前記動作情報を決定することを特徴とする。   According to a tenth aspect of the present invention, in the information processing apparatus according to any one of the first to ninth aspects, the determination unit is configured to perform a second predetermined operation after the detection unit starts detecting the user's action. If the repetitive motion is not determined before the time elapses, the user motion detected by the detection means is detected before the second predetermined time elapses after the detection of the user motion is started. The operation information is determined based on the information.

請求項11に記載の発明は、請求項1乃至10の何れか1項に記載の情報処理装置において、前記決定手段により決定された前記動作情報が示す繰り返し動作が行われる速さを、前記繰り返し動作の周期と、前記取得手段により取得された前記楽曲データが示す楽曲のテンポとに基づいて調整する調整手段を更に備え、前記表示制御手段は、前記決定手段により決定された前記動作情報が示す繰り返し動作を前記調整手段により調整された速度で行う前記オブジェクトを示す映像を前記表示手段に表示させることを特徴とする。   According to an eleventh aspect of the present invention, in the information processing apparatus according to any one of the first to tenth aspects, the speed at which the repetitive motion indicated by the motion information determined by the determining means is performed is the repetitive speed. The apparatus further includes an adjusting unit that adjusts based on a cycle of the operation and a tempo of the music indicated by the music data acquired by the acquiring unit, and the display control unit indicates the operation information determined by the determining unit An image showing the object for performing a repetitive operation at a speed adjusted by the adjusting means is displayed on the display means.

請求項12に記載の発明は、楽曲を示す楽曲データを取得する取得ステップと、前記取得ステップにより取得された前記楽曲データが示す楽曲を出力手段により出力させる出力制御ステップと、前記出力手段による前記楽曲の出力中に、ユーザの動作を検出する検出ステップと、前記検出ステップにより検出された動作に基づいて、繰り返し動作を示す動作情報を決定する決定ステップと、前記出力手段による前記楽曲の出力中に、前記決定ステップにより決定された前記動作情報が示す繰り返し動作を行うオブジェクトを示す映像を表示手段に表示させる表示制御ステップと、をコンピュータに実行させることを特徴とする。   The invention according to claim 12 is an acquisition step of acquiring music data indicating a music, an output control step of outputting a music indicated by the music data acquired by the acquisition step by an output means, and the output means by the output means. A detection step for detecting a user's motion during the output of the music, a determination step for determining motion information indicating a repetitive motion based on the motion detected by the detection step, and the output of the music by the output means Further, the display control step of causing the display means to display a video indicating the object that performs the repetitive motion indicated by the motion information determined in the determination step is performed by the computer.

請求項1又は12に記載の発明によれば、ユーザが動作を行うことに応じて、繰り返し動作を行うオブジェクトの映像が表示される。そのため、オブジェクトを観客としてユーザが見ることにより、あたかも観客の前で歌っているかのような臨場感を高めることができる。   According to the first or twelfth aspect of the present invention, an image of an object that repeatedly performs an operation is displayed in response to the user performing an operation. Therefore, when the user views the object as a spectator, it is possible to enhance a sense of presence as if singing in front of the spectator.

請求項2に記載の発明によれば、ユーザの動作の終わりを適切に検出することができる。   According to the second aspect of the present invention, it is possible to appropriately detect the end of the user's operation.

請求項3に記載の発明によれば、短くとも第1所定時間の間のユーザの動作に基づいて、繰り返し動作を決定することができる。   According to the third aspect of the present invention, it is possible to determine the repetitive motion based on the user motion during the first predetermined time at least.

請求項4に記載の発明によれば、ユーザが繰り返し動作を行った場合に、繰り返し動作を行うオブジェクトの映像を表示させることができる。   According to the fourth aspect of the present invention, when the user repeatedly performs a motion, it is possible to display an image of an object that performs the repetitive motion.

請求項5に記載の発明によれば、ユーザが何らかの基準に合わない動作を行ったとしても、その基準に合う繰り返し動作を行うオブジェクトを表示させることができる。   According to the fifth aspect of the present invention, even if the user performs an operation that does not meet some criteria, an object that performs a repetitive operation that meets the criteria can be displayed.

請求項6に記載の発明によれば、予め定められた繰り返し動作と非類似の動作をユーザが行った場合にも、繰り返し動作を行うオブジェクトを表示させることができる。   According to the sixth aspect of the present invention, even when the user performs a dissimilar operation to a predetermined repetitive operation, an object that performs the repetitive operation can be displayed.

請求項7に記載の発明によれば、演奏パートの単位で、繰り返し動作を行うオブジェクトを表示させることができる。   According to the seventh aspect of the present invention, it is possible to display an object that performs repetitive actions in units of performance parts.

請求項8に記載の発明によれば、繰り返し動作が検出された動作をユーザが行った演奏パートと同じ種類の演奏パートが出力されているときに、繰り返し動作を行うオブジェクトを表示させることができる。   According to the eighth aspect of the present invention, when a performance part of the same type as the performance part performed by the user who has performed the operation in which the repetitive motion is detected is output, the object that performs the repetitive motion can be displayed. .

請求項9に記載の発明によれば、表示された要求情報を見ることで、ユーザは動作を開始することができる。そのため、繰り返し動作を決定するためのユーザの動作を適切に検出することができる。   According to the ninth aspect of the invention, the user can start the operation by viewing the displayed request information. Therefore, it is possible to appropriately detect the user's operation for determining the repetitive operation.

請求項10に記載の発明によれば、ユーザが動作を行ったにも関わらず、繰り返し動作を行うオブジェクトがいつまで経っても表示されないという事態を防止することができる。   According to the tenth aspect of the present invention, it is possible to prevent a situation in which an object that performs a repetitive motion is not displayed indefinitely despite the user performing a motion.

請求項11に記載の発明によれば、出力される楽曲のテンポに合わせて繰り返し動作を行うオブジェクトを表示させることができる。   According to the eleventh aspect of the present invention, it is possible to display an object that repeatedly performs an operation in accordance with the tempo of the music to be output.

一実施形態のカラオケシステムSの概要構成例を示す図である。It is a figure showing an example of outline composition of karaoke system S of one embodiment. (A)は、楽曲リストの構成例を示す図である。(B)は、楽曲構成情報の構成例を示す図である。(C)は、動作検出用パラメータ情報の構成例を示す図である。(D)は、既定繰り返し動作の内容の例を示す図である。(E)は、RAMに記憶された相対運動量の例である。(A) is a figure which shows the structural example of a music list. (B) is a figure showing an example of composition of music composition information. (C) is a figure which shows the structural example of the parameter information for operation | movement detection. (D) is a figure which shows the example of the content of default repetition operation | movement. (E) is an example of the relative momentum stored in the RAM. (A)は、入力動作実行要求情報の表示例を示す図である。(B)は、歌唱者が手を振る動作行う様子の一例を模式的に示す図である。(A) is a figure which shows the example of a display of input operation execution request information. (B) is a figure which shows typically an example of a mode that a singer performs the operation | movement which shakes a hand. 動作データのデータフローの一例を示す図である。It is a figure which shows an example of the data flow of operation data. カラオケ装置2における演奏描画メイン処理の一例を示すフローチャートである。It is a flowchart which shows an example of the performance drawing main process in the karaoke apparatus. (A)は、カラオケ装置2における観客動作設定処理の第1の例を示すフローチャートである。(B)は、カラオケ装置2における観客動作設定処理の第2の例を示すフローチャートである。(A) is a flowchart which shows the 1st example of the audience operation | movement setting process in the karaoke apparatus 2. FIG. (B) is a flowchart showing a second example of audience operation setting processing in the karaoke apparatus 2. (A)は、カラオケ装置2における指定動作生成処理の一例を示すフローチャートである。(B)は、カラオケ装置2における入力繰り返し動作生成処理の一例を示すフローチャートである。(C)は、カラオケ装置2における既定繰り返し動作取得処理の一例を示す図である。(A) is a flowchart which shows an example of the designated operation | movement production | generation process in the karaoke apparatus 2. FIG. (B) is a flowchart illustrating an example of an input repetition operation generation process in the karaoke apparatus 2. (C) is a figure which shows an example of the default repetition operation | movement acquisition process in the karaoke apparatus 2. FIG.

以下、本発明の実施形態を図面に基づいて説明する。なお、以下に説明する実施の形態は、例えばカラオケ店舗において利用されるカラオケシステムに対して、本発明を適用した場合の実施形態である。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In addition, embodiment described below is embodiment at the time of applying this invention with respect to the karaoke system utilized in a karaoke store, for example.

[1.カラオケシステムの構成及び動作の概要]
始めに、図1を参照して、本実施形態のカラオケシステムの構成の概要を説明する。図1は、本実施形態のカラオケシステムSの概要構成例を示す図である。図1に示すように、カラオケシステムSは、選曲装置1、カラオケ装置2、及び距離画像カメラ3を含んで構成される。カラオケ装置2は、本発明の情報処理装置の一例である。選曲装置1、カラオケ装置2、及び距離画像カメラ3は、例えば、カラオケ店舗のカラオケルーム(客室)に設置される。選曲装置1は、例えば赤外線により同室内のカラオケ装置2と通信可能になっている。選曲装置1及びカラオケ装置2は、例えばLAN(Local Area Network)、及びアクセスポイントAPを介して互いに通信可能になっている。カラオケ装置2と距離画像カメラ3とは接続可能である。例えば、USB(Universal Serial Bus)ケーブル等を用いて接続されてもよいし、LANを介して接続されてもよい。
[1. Outline of configuration and operation of karaoke system]
First, the outline of the configuration of the karaoke system of the present embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating a schematic configuration example of the karaoke system S of the present embodiment. As shown in FIG. 1, the karaoke system S includes a music selection device 1, a karaoke device 2, and a distance image camera 3. The karaoke apparatus 2 is an example of an information processing apparatus of the present invention. The music selection device 1, the karaoke device 2, and the distance image camera 3 are installed, for example, in a karaoke room (guest room) of a karaoke store. The music selection device 1 can communicate with the karaoke device 2 in the same room, for example, by infrared rays. The music selection device 1 and the karaoke device 2 can communicate with each other via, for example, a LAN (Local Area Network) and an access point AP. The karaoke device 2 and the distance image camera 3 can be connected. For example, it may be connected using a USB (Universal Serial Bus) cable or the like, or may be connected via a LAN.

選曲装置1は、カラオケ店舗の客室を利用するユーザがカラオケ楽曲を選択するために用いられる。   The music selection device 1 is used by a user who uses a guest room of a karaoke store to select karaoke music.

距離画像カメラ3は、距離画像を撮影可能なカメラである。距離画像は、距離画像カメラ3から被写体までの距離を画素ごとに表す画像である。距離画像カメラ3は、歌唱者が楽曲に合わせて行う動作を検出するために用いられる。具体的に、距離画像カメラ3は、距離画像カメラ3が設置された位置から歌唱者の複数の身体部位までの距離を検出する。距離が検出される身体部位は、例えば、首、肩、肘、手首、腰、膝、くるぶし等の関節であってもよい。例えば、距離画像カメラ3は、被写体までの距離を示す画素値を画素ごとに示す距離画像データを生成し、距離画像データをカラオケ装置2へ送信する。距離画像カメラ3は、所定のフレームレートで距離画像を撮影し、距離画像を撮影するごとに距離画像データを送信する。このときのフレームレートは、例えばディスプレイ5が映像を表示する際のフレームレートと同一であってもよい。距離画像カメラ3は、例えば、赤外線を発光するLED(light-emitting diode)と、赤外線を受光するCCDイメージセンサを備えてもよい。この場合、距離画像カメラ3は、例えば、LEDから発光された赤外線が被写体に反射してCCDイメージセンサに受光されるまでの時間を計測する。そして、距離画像カメラ3は、計測した時間に基づいて、被写体までの距離を画素ごとに決定する。また、距離画像カメラ3は、例えば、複数のCCDイメージセンサを備えるステレオカメラであってもよい。この場合、距離画像カメラ3は、複数のCCDイメージセンサで撮影した複数の画像に基づいて被写体までの距離を画素ごとに計算し、距離画像データを生成してもよい。   The range image camera 3 is a camera that can capture a range image. The distance image is an image representing the distance from the distance image camera 3 to the subject for each pixel. The distance image camera 3 is used for detecting an operation performed by a singer in accordance with the music. Specifically, the distance image camera 3 detects distances from a position where the distance image camera 3 is installed to a plurality of body parts of the singer. The body part from which the distance is detected may be, for example, a joint such as a neck, shoulder, elbow, wrist, waist, knee, or ankle. For example, the distance image camera 3 generates distance image data indicating a pixel value indicating the distance to the subject for each pixel, and transmits the distance image data to the karaoke apparatus 2. The distance image camera 3 captures a distance image at a predetermined frame rate, and transmits distance image data every time a distance image is captured. The frame rate at this time may be the same as the frame rate when the display 5 displays an image, for example. The distance image camera 3 may include, for example, an LED (light-emitting diode) that emits infrared rays and a CCD image sensor that receives infrared rays. In this case, for example, the distance image camera 3 measures the time until the infrared light emitted from the LED is reflected by the subject and received by the CCD image sensor. Then, the distance image camera 3 determines the distance to the subject for each pixel based on the measured time. The distance image camera 3 may be a stereo camera including a plurality of CCD image sensors, for example. In this case, the distance image camera 3 may calculate the distance to the subject for each pixel based on a plurality of images taken by a plurality of CCD image sensors, and generate distance image data.

カラオケ装置2は、ユーザにより選曲されたカラオケ楽曲を再生する演奏装置である。カラオケ装置2は、スピーカ4及びディスプレイ5と接続されている。スピーカ4は、本発明の出力手段の一例である。ディスプレイ5は、本発明の表示手段の一例である。カラオケ装置2は、スピーカ4によりカラオケの楽曲を出力する。カラオケ楽曲の再生中、カラオケ装置2は、距離画像カメラ3から所定のフレームレートで送信されてくる距離画像に基づいて、歌唱者の動作を検出する。カラオケ装置2は、検出された動作に基づいて、繰り返し動作を決定する。繰り返し動作は、複数回繰り返して行われる動作である。カラオケ楽曲の再生中、カラオケ装置2は、決定された繰り返し動作を行う観客キャラクターを示す映像をディスプレイ5に表示する。観客キャラクターは、例えば、人間、動物、仮想上の生き物、ロボット等のかたちをしたオブジェクトである。カラオケ装置2は、1つの観客キャラクターを表示させてもよいし、複数の観客キャラクターを表示させてもよい。   The karaoke apparatus 2 is a performance apparatus that reproduces karaoke music selected by the user. The karaoke apparatus 2 is connected to a speaker 4 and a display 5. The speaker 4 is an example of the output means of the present invention. The display 5 is an example of the display means of the present invention. The karaoke apparatus 2 outputs karaoke music by the speaker 4. During the reproduction of karaoke music, the karaoke device 2 detects the operation of the singer based on the distance image transmitted from the distance image camera 3 at a predetermined frame rate. The karaoke apparatus 2 determines a repetitive operation based on the detected operation. The repetitive operation is an operation performed repeatedly a plurality of times. During the reproduction of the karaoke music, the karaoke apparatus 2 displays a video showing the spectator character performing the determined repetitive motion on the display 5. The audience character is an object in the form of, for example, a human being, an animal, a virtual creature, or a robot. The karaoke apparatus 2 may display one spectator character or may display a plurality of spectator characters.

[2.カラオケ装置2の構成]
次に、図1及び図2を参照して、カラオケ装置2の構成について説明する。図1に示すように、カラオケ装置2は、制御部21、記憶部22、ビデオRAM23、映像再生部24、映像制御部25、マイク制御部26、シンセサイザ27、ミキシングアンプ28、操作部29a、操作処理部29b、赤外線受信部29c、及びLAN通信部29d等を備えて構成される。制御部21は、CPU、ROM、及びRAM等により構成される。制御部21は、時計機能及び計時機能を有する。記憶部22は、例えば、ハードディスク等により構成される。記憶部22は、所定動作情報記憶手段及び種類情報記憶手段のそれぞれの一例である。所定動作情報記憶手段及び種類情報記憶手段は、所定動作情報記憶手段及び種類情報記憶手段が同一の記憶デバイスであってもよいし、互いに異なる記憶デバイスであってもよい。記憶部22には、OS、カラオケ装置処理プログラム、ミュージックシーケンサ、3Dエンジン等のプログラムが記憶されている。制御部21は、OS及びカラオケ装置処理プログラムを実行することにより、カラオケ装置2全体を統括制御する。カラオケ装置処理プログラムは、所定のサーバ装置からダウンロードされてもよいし、記録媒体に記録されてドライブ装置を介して読み込まれるようにしてもよい。
[2. Configuration of Karaoke Device 2]
Next, with reference to FIG.1 and FIG.2, the structure of the karaoke apparatus 2 is demonstrated. As shown in FIG. 1, the karaoke apparatus 2 includes a control unit 21, a storage unit 22, a video RAM 23, a video reproduction unit 24, a video control unit 25, a microphone control unit 26, a synthesizer 27, a mixing amplifier 28, an operation unit 29a, and an operation. A processing unit 29b, an infrared receiving unit 29c, a LAN communication unit 29d, and the like are provided. The control unit 21 includes a CPU, a ROM, a RAM, and the like. The control unit 21 has a clock function and a clock function. The storage unit 22 is configured by, for example, a hard disk. The storage unit 22 is an example of each of predetermined operation information storage means and type information storage means. The predetermined operation information storage unit and the type information storage unit may be the same storage device as the predetermined operation information storage unit and the type information storage unit, or may be different storage devices. The storage unit 22 stores programs such as an OS, a karaoke device processing program, a music sequencer, and a 3D engine. The control unit 21 performs overall control of the entire karaoke apparatus 2 by executing the OS and the karaoke apparatus processing program. The karaoke device processing program may be downloaded from a predetermined server device, or may be recorded on a recording medium and read via a drive device.

また、記憶部22には、楽曲データ、楽曲リスト、楽曲構成情報、動作検出用パラメータ情報、既定繰り返し動作データ、通常動作データが記憶される。楽曲データは、カラオケ楽曲を示す。また、楽曲データは、カラオケ楽曲をスピーカ4により出力させるデータである。楽曲データの例として、例えば、MIDI(Musical Instrument Digital Interface)データ、生演奏の音をPCM(Pulse Code Modulation)等で符号化したデータ等が上げられる。本実施形態においては、楽曲データとしてMIDIデータを用いる場合を例として説明する。楽曲データは、カラオケ楽曲のオリジナルのテンポを含む。カラオケ楽曲ごとに、楽曲データと楽曲IDとが対応付けて記憶部22に記憶される。楽曲IDは、カラオケ楽曲を識別可能な識別情報である。例えば、楽曲IDは、楽曲番号であってもよい。   The storage unit 22 stores music data, music list, music composition information, motion detection parameter information, default repeated motion data, and normal motion data. The music data indicates karaoke music. The music data is data for outputting the karaoke music by the speaker 4. Examples of music data include MIDI (Musical Instrument Digital Interface) data, data obtained by encoding live performance sounds using PCM (Pulse Code Modulation), and the like. In the present embodiment, a case where MIDI data is used as music data will be described as an example. The music data includes the original tempo of the karaoke music. For each karaoke song, song data and song ID are stored in the storage unit 22 in association with each other. The music ID is identification information that can identify the karaoke music. For example, the music ID may be a music number.

図2(A)は、楽曲リストの構成例を示す図である。楽曲リストは、カラオケ楽曲に関する情報が登録されているリストである。具体的に楽曲リストには、カラオケ楽曲ごとに、楽曲ID及び観客動作指定パート種別が登録される。観客動作指定パート種別は、カラオケ装置2により決定された繰り返し動作を行う観客キャラクターの映像が表示される演奏パートの種別である。すなわち、観客動作指定パート種別が示す演奏パートがスピーカ4から出力されているとき、カラオケ装置2により決定された繰り返し動作を行う観客キャラクターの映像が表示される。カラオケ楽曲は、複数の演奏パートで構成されている。演奏パートの種別の例として、イントロ、Aメロ、Bメロ、間奏、サビ、アウトロ等が挙げられる。1つの楽曲の中に種別が互いに同じである複数の演奏パートが含まれていてもよい。1つの楽曲に対して1つの観客動作指定パート種別が設定されてもよいし、複数の観客動作指定パート種別が設定されてもよい。また、例えばカラオケシステムSの管理者が、カラオケ楽曲ごとに、観客動作指定パート種別を設定してもよい。   FIG. 2A is a diagram illustrating a configuration example of a music list. The music list is a list in which information on karaoke music is registered. Specifically, in the music list, for each karaoke music, the music ID and the audience action designation part type are registered. The audience action designation part type is a type of performance part on which a video of a spectator character performing a repetitive action determined by the karaoke apparatus 2 is displayed. That is, when the performance part indicated by the audience action designation part type is output from the speaker 4, an image of the audience character performing the repeated action determined by the karaoke apparatus 2 is displayed. Karaoke music is composed of a plurality of performance parts. Examples of types of performance parts include intro, A melody, B melody, interlude, rust, and outro. A plurality of performance parts having the same type may be included in one piece of music. One audience motion designation part type may be set for one music piece, or a plurality of audience motion designation part types may be set. Further, for example, the administrator of the karaoke system S may set the audience operation designation part type for each karaoke piece.

図2(B)は、楽曲構成情報の構成例を示す図である。楽曲構成情報は、カラオケ楽曲を構成する複数の演奏パートに関する情報である。カラオケ楽曲ごとに、楽曲構成情報と楽曲IDとが対応付けて記憶部22に記憶される。具体的に、楽曲構成情報は、カラオケ楽曲を構成する演奏パートごとに、演奏番号及びパート種別を含む。演奏番号は、カラオケ楽曲を構成する複数の演奏パートのうち、パート種別が示す種別の演奏パートが演奏される順番を示す番号である。   FIG. 2B is a diagram illustrating a configuration example of music configuration information. The music composition information is information relating to a plurality of performance parts constituting the karaoke music. For each karaoke song, the song composition information and the song ID are stored in the storage unit 22 in association with each other. Specifically, the music composition information includes a performance number and a part type for each performance part constituting the karaoke music. The performance number is a number indicating the order in which the performance parts of the type indicated by the part type are played among the plurality of performance parts constituting the karaoke music piece.

図2(C)は、動作検出用パラメータ情報の構成例を示す図である。動作検出用パラメータ情報は、歌唱者の動作を検出するための予め定められたパラメータを含む。具体的に、動作検出用パラメータ情報は、検出判定時間、検出判定運動量、最大取得時間、及び最低取得時間を含む。検出判定時間及び検出判定運動量は、歌唱者の動作の検出を終了させるか否かを判定するためのパラメータである。具体的に、制御部21は、歌唱者の動作の検出中、検出判定時間が示す直近所定時間の間における歌唱者の身体部位の運動量が検出判定運動量以下である場合、歌唱者の動作の検出を終了させる。最大取得時間は、歌唱者の動作を検出する時間の最大値である。最小取得時間は、歌唱者の動作を検出する時間の最小値である。   FIG. 2C is a diagram illustrating a configuration example of the motion detection parameter information. The motion detection parameter information includes predetermined parameters for detecting the motion of the singer. Specifically, the motion detection parameter information includes a detection determination time, a detection determination exercise amount, a maximum acquisition time, and a minimum acquisition time. The detection determination time and the detection determination momentum are parameters for determining whether or not the detection of the singer's motion is to be terminated. Specifically, during the detection of the singer's motion, the control unit 21 detects the singer's motion when the momentum of the singer's body part during the latest predetermined time indicated by the detection determination time is equal to or less than the detection determination momentum. End. The maximum acquisition time is the maximum value of the time for detecting the singer's movement. The minimum acquisition time is the minimum value of the time for detecting the singer's movement.

既定繰り返し動作データは、観客キャラクターにより行わせることが可能な予め定められた繰り返し動作を定義する動作データである。動作データは、観客キャラクターに行わせる動作又は歌唱者が行った動作を示すデータである。動作データは、時系列に沿って、動作の進行に応じた三次元空間における観客キャラクター又は歌唱者の各身体部位の座標を含む。例えば、動作の開始から、ディスプレイ5に表示される映像のフレームレートの逆数の時間が経過するごとに、経過した時間と、各身体部位の座標とが対応付けられていてもよい。身体部位の座標は、例えば三次元座標である。しかしながら、身体部位の座標は二次元座標であってもよい。予め定められた繰り返し動作を、既定繰り返し動作という。既定繰り返し動作は、例えば自然な動作である。既定繰り返し動作ごとに、既定繰り返し動作データと既定動作IDとが対応付けて記憶部22に記憶される。既定動作IDは、既定繰り返し動作を識別する識別情報である。図2(D)は、既定繰り返し動作の内容の例を示す図である。既定繰り返し動作として、例えば、拳を上げる動作、手拍子、手を横に振る動作、ジャンプ、回転等が挙げられる。例えば、全ての既定繰り返し動作のテンポが一致するように、各既定繰り返し動作データが生成されてもよい。既定繰り返し動作のテンポは、例えば既定繰り返し動作が1秒間に行われる回数であってもよい。   The predetermined repetitive motion data is motion data that defines a predetermined repetitive motion that can be performed by the spectator character. The action data is data indicating actions to be performed by the audience character or actions performed by the singer. The motion data includes the coordinates of each body part of the audience character or singer in the three-dimensional space according to the progress of the motion along the time series. For example, every time when the reciprocal time of the frame rate of the video displayed on the display 5 elapses from the start of the operation, the elapsed time may be associated with the coordinates of each body part. The coordinates of the body part are, for example, three-dimensional coordinates. However, the coordinates of the body part may be two-dimensional coordinates. The predetermined repetitive operation is called a default repetitive operation. The predetermined repeated operation is, for example, a natural operation. For each predetermined repetition operation, the predetermined repetition operation data and the predetermined operation ID are stored in the storage unit 22 in association with each other. The default operation ID is identification information for identifying a default repetitive operation. FIG. 2D is a diagram illustrating an example of the contents of the default repetition operation. Examples of the predetermined repetitive operation include an operation of raising a fist, a clapping hand, an operation of shaking a hand, jump, rotation, and the like. For example, each predetermined repetition operation data may be generated so that the tempos of all the predetermined repetition operations coincide. The tempo of the default repeat operation may be, for example, the number of times that the default repeat operation is performed per second.

通常動作データは、歌唱者の動作に基づいて繰り返し動作が決定されていない状態において、観客キャラクターにより行われる動作を示す動作データである。   The normal motion data is motion data indicating a motion performed by the spectator character in a state where the repetitive motion is not determined based on the singer's motion.

制御部21は、3Dエンジンを実行して、動作データに基づいて、観客キャラクターの静止画像を順次生成する。生成された静止画像の映像信号を制御部21がビデオRAM23へ順次出力することで、ディスプレイ5には、動作を行う観客キャラクターの映像が表示される。   The control unit 21 executes the 3D engine and sequentially generates still images of the spectator characters based on the motion data. The control unit 21 sequentially outputs the generated still image video signal to the video RAM 23, whereby the video of the spectator character performing the operation is displayed on the display 5.

制御部21は、ミュージックシーケンサを実行することにより、設定されたテンポに従って各種のイベントを発生させる。イベントとして、例えば、MIDIクロック、MIDIイベント、演奏パート切り替わりイベント等がある。MIDIクロックは、再生速度に応じた時間間隔で出力されるイベントである。MIDIイベントは、楽曲の再生を制御するためのイベントである。制御部21は、MIDIイベントをシンセサイザ27へ出力する。これにより、制御部21は、スピーカ4によりカラオケ楽曲を出力させる。演奏パート切り替わりイベントは、再生される演奏パートが切り替わったことを通知するイベントである。   The control unit 21 generates various events according to the set tempo by executing the music sequencer. Examples of the event include a MIDI clock, a MIDI event, a performance part switching event, and the like. The MIDI clock is an event output at a time interval corresponding to the reproduction speed. The MIDI event is an event for controlling the reproduction of music. The control unit 21 outputs a MIDI event to the synthesizer 27. Thereby, the control unit 21 causes the speaker 4 to output karaoke music. The performance part switching event is an event for notifying that the performance part to be reproduced has been switched.

シンセサイザ27は、MIDIイベントに基づいて、カラオケ楽曲の音声信号をミキシングアンプ28へ出力する。マイク制御部26は、マイクにより集音されたユーザの音声信号をミキシングアンプ28へ出力する。また、マイク制御部26は、マイクからの音声信号を所定のサンプリング周波数でサンプリングし、サンプルデータを制御部21へ出力する。ミキシングアンプ28は、シンセサイザ27からの音声信号とマイク制御部26からの音声信号とをミキシングしてスピーカ4へ出力する。また、映像信号等はビデオRAM23及び映像再生部24により再生される。そして、映像制御部25は、再生された映像信号をディスプレイ5へ出力する。また、制御部21は、ユーザによる操作部29aからの指示を、操作処理部29bを介して受け付ける。また、制御部21は、赤外線受信部29cを介して、選曲装置1からの各種指令を受信することができる。LAN通信部29dは、有線LANに接続して通信を行うためのものである。   The synthesizer 27 outputs an audio signal of karaoke music to the mixing amplifier 28 based on the MIDI event. The microphone control unit 26 outputs the user's voice signal collected by the microphone to the mixing amplifier 28. Further, the microphone control unit 26 samples the audio signal from the microphone at a predetermined sampling frequency, and outputs the sample data to the control unit 21. The mixing amplifier 28 mixes the audio signal from the synthesizer 27 and the audio signal from the microphone control unit 26 and outputs them to the speaker 4. The video signal and the like are reproduced by the video RAM 23 and the video reproduction unit 24. Then, the video control unit 25 outputs the reproduced video signal to the display 5. Moreover, the control part 21 receives the instruction | indication from the operation part 29a by a user via the operation process part 29b. The control unit 21 can receive various commands from the music selection device 1 via the infrared receiving unit 29c. The LAN communication unit 29d is for communicating by connecting to a wired LAN.

[3.繰り返し動作を行う観客キャラクターの表示]
歌唱者があたかも観客の前で歌っているかのような臨場感を高めるため、制御部21は、カラオケ楽曲の再生中における歌唱者の動作に基づく繰り返し動作を決定し、決定された繰り返し動作を行う観客キャラクターをディスプレイ5に表示させる。観客キャラクターに行わせる繰り返し動作を、指定動作という。
[3. Display of spectator characters performing repetitive actions]
In order to enhance the presence as if the singer is singing in front of the audience, the control unit 21 determines a repetitive action based on the action of the singer during the reproduction of the karaoke music, and performs the determined repetitive action. A spectator character is displayed on the display 5. The repeated action that the spectator character performs is called a designated action.

先ず、制御部21は、カラオケ楽曲の再生中、距離画像カメラ3から所定のフレームレートで送信されてくる距離画像に基づいて、歌唱者の動作を検出する。検出される動作を、入力動作という。例えば、制御部21は、距離画像ごとに、距離画像から歌唱者の各身体部位の座標を検出する。制御部21は、距離画像ごとに検出された各身体部位を時系列に沿って含む動作データを生成する。この動作データを入力動作データという。入力動作データは、歌唱者の入力動作を示すデータである。これにより、制御部21は、歌唱者の動作を検出する。   First, the control unit 21 detects the operation of the singer based on the distance image transmitted from the distance image camera 3 at a predetermined frame rate during the reproduction of the karaoke music. The detected operation is called an input operation. For example, the control part 21 detects the coordinate of each body part of a singer from a distance image for every distance image. The control unit 21 generates motion data including each body part detected for each distance image in time series. This operation data is referred to as input operation data. The input operation data is data indicating the input operation of the singer. Thereby, the control part 21 detects operation | movement of a singer.

距離画像から座標を取得する方法について説明する。例えば、機械学習を用いる方法がある。例えば、カラオケシステムSの管理者は、人間が様々な動作を行う様子を映した多数の距離画像を用意する。また、管理者は、距離画像に対応する各身体部位の座標を用意する。例えば、管理者が手作業で座標を作成してもよい。そして、距離画像と座標の組を教師データとする。距離画像は例題に相当し、座標は解答に相当する。管理者は、教師データを機械学習用の所定の情報処理に入力する。情報処理装置は、教師データを用いて所定の機械学習を実行し、距離画像から各身体部位の座標を推定するための推測モデルの情報を生成する。カラオケ装置2は、生成された推測モデルの情報を予め記憶する。カラオケ装置2は、推測モデルの情報に基づいて、距離画像カメラ3から受信した距離画像データから各身体部位の座標を決定する。距離画像データから座標を取得する方法については、例えば、2011年にIEEE CVPR 2011にてJamie Shottonらにより発表された「Real-Time Human Pose Recognition in Parts from Single Depth Images」に開示されているので、詳しい説明は省略する。なお、距離画像カメラ3が、例えば、距離画像と推測モデルの情報に基づいて、各身体部位の座標を決定してもよい。そして、カラオケ装置2は、距離画像カメラ3から座標を取得してもよい。   A method for acquiring coordinates from the distance image will be described. For example, there is a method using machine learning. For example, the administrator of the karaoke system S prepares a number of distance images that show how humans perform various operations. In addition, the administrator prepares coordinates of each body part corresponding to the distance image. For example, the administrator may create the coordinates manually. A set of distance images and coordinates is used as teacher data. The distance image corresponds to an example, and the coordinates correspond to an answer. The administrator inputs teacher data to predetermined information processing for machine learning. The information processing apparatus performs predetermined machine learning using the teacher data, and generates information on a speculation model for estimating the coordinates of each body part from the distance image. The karaoke apparatus 2 stores information on the generated speculation model in advance. The karaoke apparatus 2 determines the coordinates of each body part from the distance image data received from the distance image camera 3 based on the information of the guess model. The method for obtaining coordinates from range image data is disclosed in “Real-Time Human Pose Recognition in Parts from Single Depth Images” published by Jamie Shotton et al. In IEEE CVPR 2011 in 2011. Detailed description is omitted. The distance image camera 3 may determine the coordinates of each body part, for example, based on information on the distance image and the estimation model. Then, the karaoke apparatus 2 may acquire coordinates from the distance image camera 3.

歌唱者の動作の検出を開始するタイミングの例を説明する。例えば、制御部21は、カラオケ楽曲を構成する複数の演奏パートのうち、観客動作指定パート種別の演奏パートの
再生が開始したとき、歌唱者に対して動作の実行を要求する入力動作実行要求情報をディスプレイ5に表示させてもよい。そして、制御部21は、入力動作実行要求情報が表示されたときから、歌唱者の動作の検出を開始してもよい。図3(A)は、入力動作実行要求情報の表示例を示す図である。例えば、図3(A)に示すように、制御部21は、歌唱者キャラクター110及び観客キャラクター120とともに、入力動作実行要求情報130をディスプレイ5に表示させてもよい。歌唱者キャラクター110は、歌唱者を示すオブジェクトである。入力動作実行要求情報130は、例えば「観客にしてもらう動作を行ってください!」等のメッセージであってもよい。表示された入力動作実行要求情報を見ることで、歌唱者は動作を開始することができる。
The example of the timing which starts detection of a singer's operation | movement is demonstrated. For example, the control unit 21 inputs input operation execution request information for requesting the singer to execute an operation when reproduction of a performance part of the audience operation designation part type among a plurality of performance parts constituting the karaoke piece is started. May be displayed on the display 5. And the control part 21 may start the detection of a singer's operation | movement from when input operation execution request information is displayed. FIG. 3A is a diagram illustrating a display example of input operation execution request information. For example, as illustrated in FIG. 3A, the control unit 21 may display the input action execution request information 130 on the display 5 together with the singer character 110 and the audience character 120. The singer character 110 is an object indicating a singer. The input operation execution request information 130 may be, for example, a message such as “Please perform an operation for the audience!”. The singer can start the operation by looking at the displayed input operation execution request information.

また例えば、制御部21は、直近の検出判定時間における歌唱者の身体部位の運動量が検出判定運動量以上になったとき、歌唱者の動作の検出を開始してもよい。例えば、カラオケ楽曲の再生中、制御部21は、距離画像カメラ3から送信されてくる距離画像ごとに、各身体部位の座標を検出する。制御部21は、今回検出した身体部位の座標と、前回検出した身体部位の座標との差の全身体部位についての合計値を、相対運動量として計算する。そして、制御部21は、計算した相対運動量を、フレームレートに応じた時間間隔ごとにRAMに記憶させる。図2(E)は、RAMに記憶された相対運動量の例である。制御部21は、RAMに記憶された相対運動量のうち、直近の検出判定時間の間の相対運動量の合計を、歌唱者の身体部位の運動量として計算する。   Further, for example, the control unit 21 may start detecting the operation of the singer when the momentum of the body part of the singer in the latest detection determination time becomes equal to or greater than the detection determination momentum. For example, during playback of karaoke music, the control unit 21 detects the coordinates of each body part for each distance image transmitted from the distance image camera 3. The control unit 21 calculates the total value of the difference between the body part coordinates detected this time and the body part coordinates detected last time as a relative momentum. And the control part 21 memorize | stores the calculated relative momentum in RAM for every time interval according to a frame rate. FIG. 2E shows an example of relative momentum stored in the RAM. The control part 21 calculates the sum of the relative momentum during the latest detection determination time among the relative momentum memorize | stored in RAM as a momentum of a singer's body part.

歌唱者の動作の検出を終了させるタイミングの例を説明する。例えば、制御部21は、歌唱者の動作の検出中、直近の検出判定時間における歌唱者の身体部位の運動量が検出判定運動量以下になったとき、歌唱者の動作の検出を終了してもよい。すなわち、制御部21は、歌唱者の動作の検出が開始されてから、検出判定運動量以下の運動量が検出されるまでの間に検出された動作の入力動作データを生成する。これにより、歌唱者の動作の終わりを適切に検出することができる。   The example of the timing which complete | finishes the detection of a singer's motion is demonstrated. For example, the control unit 21 may end the detection of the singer's motion when the momentum of the singer's body part in the most recent detection determination time becomes equal to or less than the detection determination momentum during the detection of the singer's motion. . That is, the control part 21 produces | generates the input operation data of the operation | movement detected after the detection of the operation | movement of a singer is started until the momentum below a detection determination exercise amount is detected. Thereby, the end of operation | movement of a singer can be detected appropriately.

また例えば、制御部21は、歌唱者の動作の検出が開始されてから最低取得時間が経過した後で、直近の検出判定時間における歌唱者の身体部位の運動量が検出判定運動量以下になったとき、歌唱者の動作の検出を終了してもよい。すなわち、制御部21は、歌唱者の動作の検出が開始されてから最低取得時間が経過するまでは、直近の検出判定時間における歌唱者の身体部位の運動量が検出判定運動量以下になったとしても、検出を継続する。これにより、短くとも最低取得時間の間の歌唱者の動作に基づいて、繰り返し動作を決定することができる。   Further, for example, when the minimum acquisition time has elapsed since the detection of the singer's motion has started, the control unit 21 has the momentum of the singer's body part in the most recent detection determination time less than or equal to the detection determination momentum. The detection of the singer's movement may be terminated. That is, even if the momentum of the singer's body part in the latest detection determination time becomes equal to or less than the detection determination momentum until the minimum acquisition time elapses after the detection of the movement of the singer is started. , Continue detection. Thereby, based on the operation | movement of a singer during the minimum acquisition time at the shortest, it is possible to determine the repetitive operation.

また例えば、歌唱者の動作の検出が開始されてから最大取得時間が経過するまでに、観客キャラクターに行わせる繰り返し動作が決定されなかった場合、制御部21は、この時点で歌唱者の動作の検出を終了してもよい。すなわち、制御部21は、歌唱者の動作の検出が開始されてから最大取得時間が経過するまでの間に検出された動作の入力動作データを生成する。これにより、歌唱者が動作を行ったにも関わらず、繰り返し動作を行う観客キャラクターがいつまで経っても表示されないという事態を防止することができる。なお、本実施形態においては、カラオケ楽曲を構成する全演奏パートについて最大取得時間は共通である。しかしながら、最大取得時間は、例えば歌唱者の動作の検出が開始されてから、その検出が開始されたときにスピーカ4により出力されていた演奏パートが終了するまでの時間であってもよい。   Also, for example, if the repeated action to be performed by the audience character is not determined before the maximum acquisition time elapses after the detection of the singer's action, the control unit 21 determines the singer's action at this time. The detection may be terminated. That is, the control part 21 produces | generates the input motion data of the motion detected until the maximum acquisition time passes after the detection of a singer's motion is started. Accordingly, it is possible to prevent a situation in which a spectator character that performs a repetitive motion is not displayed indefinitely even though the singer performs a motion. In the present embodiment, the maximum acquisition time is common for all performance parts constituting the karaoke music piece. However, the maximum acquisition time may be, for example, the time from the start of detection of the singer's motion until the end of the performance part output by the speaker 4 when the detection is started.

歌唱者の動作を検出すると、制御部21は、検出された動作を示す入力動作データに基づいて、指定動作データを決定する。指定動作データは、観客キャラクターに行わせる繰り返し動作である指定動作を示す動作データである。例えば、制御部21は、入力動作データそのものを、指定動作データに決定してもよい。   When detecting the operation of the singer, the control unit 21 determines the designated operation data based on the input operation data indicating the detected operation. The designated action data is action data indicating a designated action that is a repeated action to be performed by the spectator character. For example, the control unit 21 may determine the input operation data itself as designated operation data.

また例えば、制御部21は、入力動作データに基づいて、検出された動作の中から、歌唱者が繰り返し行った動作を特定してもよい。歌唱者が繰り返し行った動作を、入力繰り返し動作という。そして、制御部21は、入力繰り返し動作に基づいて、指定動作データを決定してもよい。歌唱者が同じ動作を繰り返し行うと、同じ姿勢が周期的に現れる。図3(B)は、歌唱者が手を振る動作を行う様子の一例を模式的に示す図である。図3(B)に示すように、或る時刻T1において歌唱者が例えば左手を挙げて、手を振る動作を開始させる。歌唱者は、左手を一度左方向に移動させて、右方向に移動させる。すると、時刻T2において歌唱者の左手の位置は、手を振る動作を開始した時点に戻る。歌唱者がこのような動作を繰り返し行うことにより、手を振る動作が繰り返し行われる。制御部21は、例えば歌唱者が或る姿勢をとった時刻T1から所定の運動量以上の身体部位の移動の後、歌唱者が同じ姿勢をとった時刻T2を特定してもよい。例えば、制御部21は、時刻T1の各身体部位の座標と、時刻T2の各身体部位の座標との差が所定値未満である場合、時刻T1における歌唱者の姿勢と時刻T2における歌唱者の姿勢とが同じであると判定してもよい。次いで、制御部21は、時刻T1〜T2の間の動作と、時刻T2〜T3の間の動作とを比較する。例えば時刻T2から時刻T3までの長さは、時刻T1から時刻T2までの長さと同じであってもよい。時刻T1〜T2の間の動作と時刻T2〜T3の間の動作とが同じである場合、制御部21は、歌唱者が繰り返し動作を行ったと判定してもよい。例えば、制御部21は、入力動作データにおいて、時刻T1〜T2の間の動作中における各身体部位の座標と、時刻T2〜T3の間の動作中における各身体部位の座標との差を時系列に沿って計算してもよい。そして、制御部21は、計算した差の平均値が所定値以下である場合、同じ動作であると判定してもよい。歌唱者が繰り返し動作を行ったと判定した場合、制御部21は、例えば時刻T1〜T2の間の動作を、入力繰り返し動作として抽出してもよい。例えば、制御部21は、入力動作データに含まれる身体部位の座標のうち、時刻T1〜T2の間の身体部位の座標を、入力繰り返し動作を示す動作データとして抽出する。この動作データを、入力繰り返し動作データという。入力動作の中から同じ動作を特定することができなかった場合、制御部21は、指定動作データを決定しなくてもよい。また、制御部21は、例えば自己相関関数により、入力動作データから入力繰り返し動作を抽出してもよい。   In addition, for example, the control unit 21 may specify an operation repeatedly performed by the singer from the detected operations based on the input operation data. The operation performed repeatedly by the singer is called input repetition operation. And the control part 21 may determine designation | designated operation | movement data based on an input repetition operation | movement. When the singer repeats the same action, the same posture appears periodically. FIG. 3B is a diagram schematically illustrating an example of a state in which a singer shakes his hand. As shown in FIG. 3B, at a certain time T1, the singer starts moving his hand with his left hand, for example. The singer moves the left hand once in the left direction and moves it in the right direction. Then, at time T2, the position of the left hand of the singer returns to the time when the movement of waving is started. When the singer repeats such an operation, the operation of waving is repeated. Control part 21 may specify time T2 when a singer took the same posture after movement of a body part more than a predetermined momentum from time T1 when a singer took a certain posture, for example. For example, when the difference between the coordinates of each body part at time T1 and the coordinates of each body part at time T2 is less than a predetermined value, the control unit 21 determines the posture of the singer at time T1 and the singer's attitude at time T2. It may be determined that the posture is the same. Next, the control unit 21 compares the operation between times T1 and T2 with the operation between times T2 and T3. For example, the length from time T2 to time T3 may be the same as the length from time T1 to time T2. When the operation between the times T1 and T2 and the operation between the times T2 and T3 are the same, the control unit 21 may determine that the singer has repeatedly performed the operation. For example, in the input motion data, the control unit 21 calculates the time series of the difference between the coordinates of each body part during the operation between times T1 and T2 and the coordinates of each body part during the operation between times T2 and T3. You may calculate along. And the control part 21 may determine with it being the same operation | movement, when the average value of the calculated difference is below a predetermined value. When it is determined that the singer has performed a repetitive operation, the control unit 21 may extract, for example, an operation between times T1 and T2 as an input repetitive operation. For example, the control unit 21 extracts the coordinates of the body part between times T1 and T2 among the coordinates of the body part included in the input action data as action data indicating the input repeated action. This operation data is referred to as input repetition operation data. When the same operation cannot be specified from the input operations, the control unit 21 does not have to determine the designated operation data. Moreover, the control part 21 may extract an input repetition operation | movement from input operation data, for example with an autocorrelation function.

また例えば、制御部21は、入力動作又は入力繰り返し動作に基づいて、複数の既定動作データの中から、指定動作データを決定してもよい。これにより、歌唱者が望ましくない動作を行ったとしても、望ましい繰り返し動作を行う観客キャラクターを表示させることができる。例えば、制御部21は、入力動作データ又は入力繰り返し動作データに類似する既定繰り返し動作データを、指定動作データに決定してもよい。例えば、制御部21は、入力動作データ又は入力繰り返し動作データと、記憶部22に記憶された各既定繰り返し動作データとの類似度を計算する。例えば、制御部21は、入力動作データ又は入力繰り返し動作データに含まれる身体部位の座標と、既定繰り返し動作データに含まれる身体部位の座標との差を時系列に沿って計算する。そして、制御部21は、計算した差の平均値に基づいて、類似度を計算してもよい。制御部21は、計算した類似度が所定値以上の既定繰り返し動作データのうち最大の類似度が計算された既定繰り返し動作データを、指定動作の動作データに決定してもよい。類似度が所定値以上の既定繰り返し動作データがなかった場合、制御部21は、例えば入力動作データ又は入力繰り返し動作データを、指定動作データに決定してもよい。   Further, for example, the control unit 21 may determine the designated operation data from a plurality of predetermined operation data based on the input operation or the input repetition operation. Thereby, even if a singer performs an undesired operation | movement, the audience character which performs a desirable repeating operation | movement can be displayed. For example, the control unit 21 may determine default repeated motion data similar to the input motion data or the input repeated motion data as the designated motion data. For example, the control unit 21 calculates the similarity between the input motion data or the input repeated motion data and each predetermined repeated motion data stored in the storage unit 22. For example, the control unit 21 calculates the difference between the coordinates of the body part included in the input motion data or the input repeated motion data and the coordinates of the body part included in the default repeated motion data along a time series. And the control part 21 may calculate a similarity based on the average value of the calculated difference. The control unit 21 may determine, as the operation data of the designated operation, the predetermined repetition operation data for which the maximum similarity is calculated among the predetermined repetition operation data whose calculated similarity is equal to or greater than a predetermined value. When there is no predetermined repetitive motion data whose similarity is equal to or greater than a predetermined value, the control unit 21 may determine, for example, input motion data or input repetitive motion data as designated motion data.

制御部21は、決定した指定動作データが示す指定動作が行われる速度を、指定動作の周期と、スピーカ4から出力中のカラオケ楽曲のテンポに基づいて調整してもよい。例えば、制御部21は、楽曲のテンポの逆数の自然数倍の周期で繰り返し動作が行われるように、繰り返し動作の周期を調整してもよい。例えば、制御部21は、繰り返し動作の周期が楽曲のテンポの逆数の自然数倍の周期と一致するように、指定動作データを伸縮させてもよい。これにより、スピーカ4から出力される楽曲のテンポに合わせて繰り返し動作を行う観客キャラクターを表示させることができる。指定動作データの長さを短くする場合、制御部21は、例えば動作データから、指定動作の元の周期と楽曲のテンポの逆数の自然数倍の周期との比率に応じた時間間隔で、身体部位の座標を削除してもよい。この場合、1回の指定動作の時間が短くなり、指定動作が行われる速度が速くなる。指定動作データの長さを長くする場合、制御部21は、例えば動作データに、指定動作の元の周期と楽曲のテンポの逆数の自然数倍の周期との比率に応じた時間間隔で、身体部位の座標を追加する。追加される身体部位の座標は、例えば座標が追加される位置の前の座標と後ろの座標との平均値等であってもよい。この場合、1回の指定動作の時間が長くなり、指定動作が行われる速度が遅くなる。   The control unit 21 may adjust the speed at which the designated operation indicated by the determined designated operation data is performed based on the cycle of the designated operation and the tempo of the karaoke song being output from the speaker 4. For example, the control unit 21 may adjust the cycle of the repetitive operation so that the repetitive operation is performed at a cycle that is a natural number times the reciprocal of the tempo of the music. For example, the control unit 21 may expand and contract the designated operation data so that the cycle of the repetitive operation matches a cycle that is a natural number times the reciprocal of the tempo of the music. Thereby, it is possible to display a spectator character that performs a repeated operation in accordance with the tempo of the music output from the speaker 4. When shortening the length of the designated motion data, for example, the control unit 21 determines the body at a time interval corresponding to the ratio between the original cycle of the designated motion and the cycle that is a natural number times the reciprocal of the tempo of the music. The coordinates of the part may be deleted. In this case, the time for one designated operation is shortened, and the speed at which the designated operation is performed is increased. When increasing the length of the designated motion data, for example, the control unit 21 adds the motion data to the body at a time interval corresponding to the ratio between the original cycle of the designated motion and a cycle that is a natural number times the inverse of the tempo of the music. Add the coordinates of the part. The coordinates of the body part to be added may be, for example, an average value of coordinates before and after the position where the coordinates are added. In this case, the time for one designated operation becomes longer, and the speed at which the designated operation is performed becomes slower.

指定動作データを決定した場合、制御部21は、決定した指定動作データに基づいて、指定動作を繰り返し行う観客キャラクターを示す映像をディスプレイ5に表示させる。   When the designated motion data is determined, the control unit 21 causes the display 5 to display an image indicating the audience character that repeatedly performs the designated motion based on the determined designated motion data.

制御部21は、例えば決定した指定動作データを、スピーカ4から出力中の楽曲を構成する複数の演奏パートのうちの何れかに割り当ててもよい。そして、制御部21は、割り当てられた演奏パートがスピーカ4から出力されているときに、指定動作を繰り返し行う観客キャラクターを示す映像を表示させてもよい。これにより、演奏パートの単位で、指定動作を繰り返し行う観客キャラクターを表示させることができる。例えば、制御部21は、決定した指定動作データを、指定動作データが決定された入力動作が検出されたときに出力されていた演奏パートのパート種別と対応付けてRAMに記憶させてもよい。そして、制御部21は、記憶されたパート種別の演奏パートが出力されているとき、そのパート種別に対応付けてRAMに記憶された指定動作データが示す指定動作を繰り返し行う観客キャラクターを示す映像を表示させてもよい。これにより、検出された動作を歌唱者が行った演奏パートと同じ種類の演奏パートが出力されているときに、繰り返し動作を行う観客キャラクターを表示させることができる。   For example, the control unit 21 may assign the determined designated operation data to any one of a plurality of performance parts constituting the music being output from the speaker 4. And the control part 21 may display the image | video which shows the audience character which repeats designation | designated operation | movement, when the assigned performance part is output from the speaker 4. FIG. Accordingly, it is possible to display a spectator character that repeatedly performs the designated operation in units of performance parts. For example, the control unit 21 may store the determined designated action data in the RAM in association with the part type of the performance part that was output when the input action for which the designated action data was determined was detected. Then, when the performance part of the stored part type is output, the control unit 21 displays a video showing a spectator character that repeatedly performs the specified action indicated by the specified action data stored in the RAM in association with the part type. It may be displayed. Thereby, when the performance part of the same kind as the performance part which the singer performed the detected operation | movement is output, the audience character which performs a repetition operation | movement can be displayed.

また例えば、制御部21は、演奏パートとは無関係に、決定した指定動作を繰り返し行う観客キャラクターを表示させてもよい。例えば、制御部21は、新しい指定動作データを決定することができたタイミングごとに、新しい指定動作を行う観客キャラクターの表示を開始してもよい。   Further, for example, the control unit 21 may display a spectator character that repeatedly performs the designated operation that is determined regardless of the performance part. For example, the control unit 21 may start displaying a spectator character performing a new designated action at each timing when new designated action data can be determined.

[4.カラオケシステムSの動作]
次に、カラオケシステムSの動作について説明する。図4は、動作データのデータフローの一例を示す図である。図4に示すように、制御部21は、検出された歌唱者の動作を示す入力動作データを生成する(ステップS1)。次いで、制御部21は、入力動作データに基づいて、歌唱者の動作の中で繰り返し行われた動作を示す入力繰り返し動作データを生成する(ステップS2)。次いで、制御部21は、入力繰り返し動作データに類似する既定繰り返し動作データを記憶部22から検索する(ステップS3)。そして、制御部21は、検索された既定繰り返し動作データを、未修正繰り返し動作データに設定する(ステップS4)。一方、入力繰り返し動作データに類似する既定繰り返し動作データが存在しない場合、制御部21は、入力繰り返し動作データを、未修正繰り返し動作データに設定する。制御部21は、再生されるカラオケ楽曲のテンポに基づいて未修正繰り返し動作データを伸縮調整することにより、修正済繰り返し動作データを生成する(ステップS5)。修正済繰り返し動作データは、伸縮調整された繰り返し動作を示す動作データである。次いで、制御部21は、修正済繰り返し動作データを指定動作データに設定する(ステップS6)。指定動作データは、決定された繰り返し動作を示す動作データである。そして、制御部21は、指定動作データを観客動作データに設定する(ステップS7)。観客動作データは、観客キャラクターに行わせる動作を示す動作データである。指定動作データが決定されていない場合、観客動作データには通常動作データが設定される。
[4. Operation of Karaoke System S]
Next, the operation of the karaoke system S will be described. FIG. 4 is a diagram illustrating an example of a data flow of operation data. As shown in FIG. 4, the control part 21 produces | generates the input operation | movement data which show the operation | movement of the detected singer (step S1). Subsequently, the control part 21 produces | generates the input repetition operation | movement data which show the operation | movement repeatedly performed in operation | movement of a singer based on input operation data (step S2). Next, the control unit 21 searches the storage unit 22 for predetermined repetitive motion data similar to the input repetitive motion data (step S3). Then, the control unit 21 sets the retrieved default repeated motion data as unmodified repeated motion data (step S4). On the other hand, when there is no default repeated motion data similar to the input repeated motion data, the control unit 21 sets the input repeated motion data as unmodified repeated motion data. The control unit 21 generates corrected repeated motion data by adjusting the expansion / contraction of the uncorrected repeated motion data based on the tempo of the karaoke piece to be played back (step S5). The corrected repetitive motion data is motion data indicating a repetitive motion adjusted for expansion and contraction. Next, the control unit 21 sets the corrected repeated motion data as designated motion data (step S6). The designated operation data is operation data indicating the determined repetitive operation. And the control part 21 sets designation | designated operation | movement data to audience operation | movement data (step S7). Audience action data is action data indicating actions to be performed by the spectator character. When the designated motion data is not determined, normal motion data is set as the spectator motion data.

図5は、カラオケ装置2における演奏描画メイン処理の一例を示すフローチャートである。演奏描画メイン処理は、カラオケ装置2が起動されたときに開始される。図5に示すように、制御部21は、再生されるカラオケ楽曲の情報を取得する(ステップS11)。具体的に、制御部21は、選曲装置1を用いて選択されたカラオケ楽曲の楽曲IDを選曲装置1から取得する。次いで、制御部21は、取得した楽曲IDに対応する楽曲データ及び楽曲構成情報を記憶部22から取得する。次いで、制御部21は、取得した楽曲IDに対応する観客動作指定パート種別を記憶部22から取得する(ステップS12)。次いで、制御部21は、演奏番号Nを1に設定する。次いで、制御部21は、観客動作データに、記憶部22に記憶された通常動作データを設定する(ステップS13)。   FIG. 5 is a flowchart showing an example of the performance drawing main process in the karaoke apparatus 2. The performance drawing main process is started when the karaoke apparatus 2 is activated. As shown in FIG. 5, the control part 21 acquires the information of the karaoke music reproduced | regenerated (step S11). Specifically, the control unit 21 acquires the song ID of the karaoke song selected using the song selection device 1 from the song selection device 1. Next, the control unit 21 acquires music data and music configuration information corresponding to the acquired music ID from the storage unit 22. Next, the control unit 21 acquires the audience motion designation part type corresponding to the acquired music ID from the storage unit 22 (step S12). Next, the control unit 21 sets the performance number N to 1. Next, the control unit 21 sets the normal operation data stored in the storage unit 22 in the audience operation data (step S13).

次いで、制御部21は、楽曲データに基づいて、カラオケ楽曲の再生を開始する(ステップS14)。このとき、制御部21は、楽曲データに含まれるカラオケ楽曲のテンポに従って、カラオケ楽曲を再生する。これにより、スピーカ4から、カラオケ楽曲が出力される。また、制御部21は、距離画像カメラ3による距離画像の撮影を開始させ、距離画像カメラ3から距離画像を受信する。そして、制御部21は、距離画像に基づく歌唱者の各身体部位の座標の検出、及び身体部位の座標に基づく相対運動量のRAMへの記憶を開始する。   Subsequently, the control part 21 starts reproduction | regeneration of karaoke music based on music data (step S14). At this time, the control unit 21 reproduces the karaoke music according to the tempo of the karaoke music included in the music data. Thereby, the karaoke music is output from the speaker 4. Further, the control unit 21 starts to capture a distance image by the distance image camera 3 and receives the distance image from the distance image camera 3. And the control part 21 starts the memory | storage to RAM of the relative momentum based on the coordinate of each body part of a singer based on a distance image, and the coordinate of a body part.

次いで、制御部21は、3Dエンジンを実行することにより、現在の観客動作データに基づいて、観客動作データが示す動作を行う観客キャラクターの映像の表示を開始させる(ステップS15)。制御部21は、フレームレートに従って観客動作データから各身体部位の座標を取得しながら、観客キャラクターの映像を含む静止画像を順次生成し、生成した静止画像をビデオRAM23へ順次出力する。次いで、制御部21は、観客動作設定処理を実行する(ステップS16)。観客動作設定処理は、観客動作データの設定を行うための処理である。観客動作設定の詳細は後述する。次いで、制御部21は、カラオケ楽曲の再生が終了するか否かを判定する(ステップS17)。このとき、制御部21は、カラオケ楽曲の再生が終了しないと判定した場合には(ステップS17:NO)、ステップS16に進む。一方、制御部21は、カラオケ楽曲の再生が終了すると判定した場合には(ステップS17:YES)、ステップS18に進む。   Next, the control unit 21 starts the display of the video of the spectator character performing the motion indicated by the spectator motion data based on the current spectator motion data by executing the 3D engine (step S15). The control unit 21 sequentially generates still images including the video of the spectator character while acquiring the coordinates of each body part from the spectator motion data according to the frame rate, and sequentially outputs the generated still images to the video RAM 23. Subsequently, the control part 21 performs audience operation setting processing (step S16). The audience motion setting process is a process for setting audience motion data. Details of the audience operation setting will be described later. Next, the control unit 21 determines whether or not the reproduction of the karaoke music is finished (step S17). At this time, if the control unit 21 determines that the reproduction of the karaoke song is not finished (step S17: NO), the control unit 21 proceeds to step S16. On the other hand, when the control unit 21 determines that the reproduction of the karaoke music piece is finished (step S17: YES), the control unit 21 proceeds to step S18.

ステップS18において、制御部21は、3Dエンジンの実行を停止することにより、観客動作データが示す動作を行う観客キャラクターの映像の表示を停止させる。次いで、制御部21は、カラオケ装置2が停止するか否かを判定する(ステップS19)。このとき、制御部21は、カラオケ装置2が停止しないと判定した場合には(ステップS19:NO)、ステップS11に進む。一方、制御部21は、カラオケ装置2が停止すると判定した場合には(ステップS19:YES)、演奏描画メイン処理を終了させる。   In step S18, the control unit 21 stops the display of the video of the spectator character performing the motion indicated by the spectator motion data by stopping the execution of the 3D engine. Subsequently, the control part 21 determines whether the karaoke apparatus 2 stops (step S19). At this time, when the control unit 21 determines that the karaoke apparatus 2 does not stop (step S19: NO), the control unit 21 proceeds to step S11. On the other hand, when it determines with the karaoke apparatus 2 stopping (step S19: YES), the control part 21 complete | finishes a performance drawing main process.

図6(A)は、カラオケ装置2における観客動作設定処理の第1の例を示すフローチャートである。図6(A)に示す処理例は、観客動作指定パート種別の演奏パートの再生中に入力動作実行要求情報を表示させ、観客動作指定パート種別の演奏パートの再生中の歌唱者の動作を検出する場合の処理例である。また、図6(A)に示す処理例は、検出された動作に基づいて決定された繰り返し動作を、観客動作指定パート種別の演奏パートを再生しているときに、観客キャラクターが行う映像を表示する場合の処理例である。   FIG. 6A is a flowchart showing a first example of audience operation setting processing in the karaoke apparatus 2. In the processing example shown in FIG. 6A, the input operation execution request information is displayed during the reproduction of the performance part of the audience action designation part type, and the operation of the singer during the reproduction of the performance part of the audience action designation part type is detected. This is an example of processing when In addition, the processing example shown in FIG. 6A displays the video performed by the spectator character when playing the performance part of the spectator motion designation part type with the repetitive motion determined based on the detected motion. This is an example of processing when

図6(A)に示すように、制御部21は、ミュージックシーケンサから演奏パート切り替わりイベントが出力されることにより、演奏パートの切り替わりを検知したか否かを判定する(ステップS21)。このとき、制御部21は、演奏パートの切り替わりを検知していないと判定した場合には(ステップS21:NO)、観客動作設定処理を終了させる。一方、制御部21は、演奏パートの切り替わりを検知したと判定した場合には(ステップS21:YES)、ステップS22に進む。   As shown in FIG. 6A, the control unit 21 determines whether or not a performance part change has been detected by outputting a performance part change event from the music sequencer (step S21). At this time, when it is determined that the performance part switching is not detected (step S21: NO), the control unit 21 ends the audience motion setting process. On the other hand, if the control unit 21 determines that the switching of the performance part has been detected (step S21: YES), the control unit 21 proceeds to step S22.

ステップS22において、制御部21は、演奏番号Nに1を加算する。次いで、制御部21は、楽曲構成情報から演奏番号Nに対応するパート種別を取得する。次いで、制御部21は、取得したパート種別に対応する指定動作データが既に記憶部22に記憶されているか否かを判定する。このとき、制御部21は、指定動作データが記憶部22に記憶されていると判定した場合には(ステップS22:YES)、ステップS23に進む。一方、制御部21は、指定動作データが記憶部22に記憶されていないと判定した場合には(ステップS22:NO)、ステップS24に進む。   In step S22, the control unit 21 adds 1 to the performance number N. Next, the control unit 21 acquires the part type corresponding to the performance number N from the music composition information. Next, the control unit 21 determines whether or not the designated operation data corresponding to the acquired part type is already stored in the storage unit 22. At this time, if the control unit 21 determines that the designated operation data is stored in the storage unit 22 (step S22: YES), the control unit 21 proceeds to step S23. On the other hand, when it is determined that the designated operation data is not stored in the storage unit 22 (step S22: NO), the control unit 21 proceeds to step S24.

ステップS23において、制御部21は、観客動作データに、取得したパート種別に対応する指定動作データを設定する。次いで、制御部21は、観客動作設定処理を終了させる。3Dエンジンを実行中の制御部21は、新しく設定された観客動作データに基づいて、繰り返し動作を行う観客キャラクターの映像の表示を開始させる。   In step S23, the control unit 21 sets designated motion data corresponding to the acquired part type in the audience motion data. Next, the control unit 21 ends the audience operation setting process. The control unit 21 that is executing the 3D engine starts displaying the video of the spectator character that performs the repetitive motion based on the newly set spectator motion data.

ステップS24において、制御部21は、観客動作データに、通常動作データを設定する。次いで、制御部21は、演奏番号Nに対応するパート種別が、観客動作指定パート種別のうちの何れかと一致するか否かを判定する(ステップS25)。このとき、制御部21は、演奏番号Nに対応するパート種別が、観客動作指定パート種別のうち何れとも一致しないと判定した場合には(ステップS25:NO)、観客動作設定処理を終了させる。この場合、3Dエンジンを実行中の制御部21は、観客動作データとして設定された通常動作データが示す動作を行う観客キャラクターの映像の表示を開始させる。一方、制御部21は、演奏番号Nに対応するパート種別が、観客動作指定パート種別のうち何れかと一致すると判定した場合には(ステップS25:YES)、ステップS26に進む。   In step S24, the control unit 21 sets normal operation data in the audience operation data. Next, the control unit 21 determines whether or not the part type corresponding to the performance number N matches any of the audience motion designation part types (step S25). At this time, if the control unit 21 determines that the part type corresponding to the performance number N does not match any of the audience motion designation part types (step S25: NO), the control unit 21 ends the audience motion setting process. In this case, the control unit 21 that is executing the 3D engine starts displaying the video of the spectator character performing the motion indicated by the normal motion data set as the spectator motion data. On the other hand, if the control unit 21 determines that the part type corresponding to the performance number N matches any one of the audience motion designation part types (step S25: YES), the control unit 21 proceeds to step S26.

ステップS26において、制御部21は、入力動作実行要求情報をディスプレイ5に表示させる。次いで、制御部21は、指定動作生成処理を実行する(ステップS27)。指定動作生成処理は、指定動作データを生成するための処理である。指定動作生成処理の詳細は後述する。次いで、制御部21は、指定動作生成処理において指定動作データの生成が成功したか否かを判定する(ステップS28)。このとき、制御部21は、指定動作データの生成が失敗したと判定した場合には(ステップS28:NO)、ステップS30に進む。この場合、3Dエンジンを実行中の制御部21は、観客動作データとして設定された通常動作データが示す動作を行う観客キャラクターの映像の表示を開始させる。一方、制御部21は、指定動作データの生成が成功したと判定した場合には(ステップS28:YES)、ステップS29に進む。   In step S <b> 26, the control unit 21 displays input operation execution request information on the display 5. Next, the control unit 21 executes a designated action generation process (step S27). The specified action generation process is a process for generating specified action data. Details of the specified action generation process will be described later. Next, the control unit 21 determines whether or not the generation of the designated motion data has succeeded in the designated motion generation process (step S28). At this time, if the control unit 21 determines that the generation of the designated operation data has failed (step S28: NO), the control unit 21 proceeds to step S30. In this case, the control unit 21 that is executing the 3D engine starts displaying the video of the spectator character performing the motion indicated by the normal motion data set as the spectator motion data. On the other hand, if the control unit 21 determines that the generation of the designated operation data has been successful (step S28: YES), the control unit 21 proceeds to step S29.

ステップS29において、制御部21は、観客動作データに、指定動作生成処理で生成されてRAMに記憶された指定動作データを設定して、ステップS30に進む。3Dエンジンを実行中の制御部21は、新しく設定された観客動作データに基づいて、繰り返し動作を行う観客キャラクターの映像の表示を開始させる。   In step S29, the control unit 21 sets the designated motion data generated by the designated motion generation process and stored in the RAM in the audience motion data, and the process proceeds to step S30. The control unit 21 that is executing the 3D engine starts displaying the video of the spectator character that performs the repetitive motion based on the newly set spectator motion data.

ステップS30において、制御部21は、指定動作生成処理による指定動作データの生成の成否を示す情報をディスプレイ5に表示して、観客動作設定処理を終了させる。   In step S30, the control unit 21 displays information indicating the success or failure of the generation of the designated motion data by the designated motion generation process on the display 5, and ends the audience motion setting process.

図6(B)は、カラオケ装置2における観客動作設定処理の第2の例を示すフローチャートである。図6(B)に示す例は、直近の運動量が検出判定運動量以上である場合に歌唱者の動作の検出を開始する場合の例である。   FIG. 6B is a flowchart showing a second example of the audience operation setting process in the karaoke apparatus 2. The example shown in FIG. 6B is an example in the case where the detection of the singer's motion is started when the most recent momentum is equal to or greater than the detection determination momentum.

図6(B)に示すように、制御部21は、直近の検出判定時間の間にRAMに記憶された相対運動量の合計を、直近の運動量として計算する。そして、制御部21は、計算した運動量が、検出判定運動量以上であるか否かを判定する(ステップS31)。このとき、制御部21は、計算した運動量が検出判定運動量以上ではないと判定した場合には(ステップS31:NO)、観客動作設定処理を終了させる。一方、制御部21は、計算した運動量が検出判定運動量以上であると判定した場合には(ステップS31:YES)、ステップS32に進む。   As shown in FIG. 6B, the control unit 21 calculates the sum of the relative momentum stored in the RAM during the latest detection determination time as the latest momentum. And the control part 21 determines whether the calculated exercise amount is more than a detection determination exercise amount (step S31). At this time, when it is determined that the calculated exercise amount is not equal to or greater than the detection determination exercise amount (step S31: NO), the control unit 21 ends the audience operation setting process. On the other hand, when it is determined that the calculated exercise amount is equal to or greater than the detection determination exercise amount (step S31: YES), the control unit 21 proceeds to step S32.

ステップS32において、制御部21は、指定動作生成処理を実行する。次いで、制御部21は、指定動作生成処理において指定動作データの生成が成功したか否かを判定する(ステップS33)。このとき、制御部21は、指定動作データの生成が失敗したと判定した場合には(ステップS33:NO)、観客動作設定処理を終了させる。一方、制御部21は、指定動作データの生成が成功したと判定した場合には(ステップS33:YES)、ステップS34に進む。   In step S32, the control unit 21 executes a designated action generation process. Next, the control unit 21 determines whether or not the generation of designated motion data has succeeded in the designated motion generation process (step S33). At this time, when it is determined that the generation of the designated motion data has failed (step S33: NO), the control unit 21 ends the audience motion setting process. On the other hand, if the control unit 21 determines that the generation of the designated operation data has been successful (step S33: YES), the control unit 21 proceeds to step S34.

ステップS34において、制御部21は、観客動作データに、指定動作生成処理で生成されてRAMに記憶された指定動作データを設定して、観客動作設定処理を終了させる。3Dエンジンを実行中の制御部21は、新しく設定された観客動作データに基づいて、繰り返し動作を行う観客キャラクターの映像の表示を開始させる。   In step S34, the control unit 21 sets the designated motion data generated by the designated motion generation process and stored in the RAM in the audience motion data, and ends the audience motion setting process. The control unit 21 that is executing the 3D engine starts displaying the video of the spectator character that performs the repetitive motion based on the newly set spectator motion data.

図7(A)は、カラオケ装置2における指定動作生成処理の一例を示すフローチャートである。図7(A)に示すように、制御部21は、入力繰り返し動作生成処理を実行する(ステップS41)。入力繰り返し動作生成処理は、入力繰り返し動作データを生成するための処理である。入力繰り返し動作生成処理の詳細は後述する。次いで、制御部21は、入力繰り返し動作生成処理における入力繰り返し動作データの生成が成功したか否かを判定する(ステップS42)。このとき、制御部21は、入力繰り返し動作データの生成が失敗したと判定した場合には(ステップS42:NO)、ステップS50に進む。ステップS50において、制御部21は、指定動作データの生成が失敗したと判定して、指定動作生成処理を終了させる。一方、制御部21は、入力繰り返し動作データの生成が成功したと判定した場合には(ステップS42:YES)、ステップS43に進む。   FIG. 7A is a flowchart illustrating an example of the designated action generation process in the karaoke apparatus 2. As shown in FIG. 7A, the control unit 21 executes an input repetition operation generation process (step S41). The input repetition operation generation process is a process for generating input repetition operation data. Details of the input repetition operation generation processing will be described later. Next, the control unit 21 determines whether or not the generation of the input repetition operation data in the input repetition operation generation process has succeeded (step S42). At this time, if the control unit 21 determines that the generation of the input repetition operation data has failed (step S42: NO), the control unit 21 proceeds to step S50. In step S50, the control unit 21 determines that the generation of the designated operation data has failed, and ends the designated operation generation process. On the other hand, when the control unit 21 determines that the generation of the input repetitive motion data has been successful (step S42: YES), the control unit 21 proceeds to step S43.

ステップS43において、制御部21は、既定繰り返し動作取得処理を実行する。既定繰り返し動作取得処理は、生成された入力繰り返し動作データに類似する既定繰り返し動作データを取得するための処理である。既定繰り返し動作取得処理の詳細は後述する。次いで、制御部21は、既定繰り返し動作取得処理の結果、入力繰り返し動作データに類似する既定繰り返し動作データが存在するか否かを判定する(ステップS44)。このとき、制御部21は、類似する既定繰り返し動作データが存在すると判定した場合には(ステップS44:YES)、ステップS45に進む。ステップS45において、制御部21は、未修正繰り返し動作データに、取得された既定繰り返し動作データを設定して、ステップS47に進む。一方、制御部21は、類似する既定繰り返し動作データが存在しないと判定した場合には(ステップS44:NO)、ステップS46に進む。ステップS46において、制御部21は、未修正繰り返し動作データに、生成された入力繰り返し動作データを設定して、ステップS47に進む。   In step S43, the control unit 21 executes a default repeated operation acquisition process. The default repeated motion acquisition process is a process for acquiring default repeated motion data similar to the generated input repeated motion data. Details of the default repetition operation acquisition process will be described later. Next, the control unit 21 determines whether or not there is default repeated motion data similar to the input repeated motion data as a result of the default repeated motion acquisition process (step S44). At this time, if the control unit 21 determines that similar default repetitive motion data exists (step S44: YES), the control unit 21 proceeds to step S45. In step S45, the control unit 21 sets the obtained default repeated motion data in the unmodified repeated motion data, and proceeds to step S47. On the other hand, when it is determined that there is no similar default repetitive motion data (step S44: NO), the control unit 21 proceeds to step S46. In step S46, the control unit 21 sets the generated input repeated motion data in the unmodified repeated motion data, and proceeds to step S47.

ステップS47において、制御部21は、再生中のカラオケ楽曲の楽曲データからテンポを取得する。次いで、制御部21は、取得したテンポの逆数の自然数倍の周期で繰り返し動作が行われるように、未修正繰り返し動作データを伸縮することにより、修正済繰り返し動作データを生成する。次いで、制御部21は、指定動作データに、生成された修正済繰り返し動作データを設定する(ステップS48)。次いで、制御部21は、指定動作データを、演奏番号Nに対応するパート種別に対応付けて記憶部22に記憶させて(ステップS49)、指定動作生成処理を終了させる。   In step S47, the control unit 21 acquires the tempo from the music data of the karaoke music being reproduced. Next, the control unit 21 generates corrected repeated motion data by expanding and contracting the uncorrected repeated motion data so that the repeated motion is performed at a cycle that is a natural number times the reciprocal of the acquired tempo. Next, the control unit 21 sets the generated corrected repeated motion data in the designated motion data (step S48). Next, the control unit 21 stores the designated operation data in the storage unit 22 in association with the part type corresponding to the performance number N (step S49), and ends the designated operation generation process.

図7(B)は、カラオケ装置2における入力繰り返し動作生成処理の一例を示すフローチャートである。図7(B)に示すように、制御部21は、入力動作の検出を開始する(ステップS51)。入力動作の検出において、制御部21は、距離画像カメラ3から距離画像を受信するごとに、歌唱者の各身体部位の座標を検出し、各身体部位の座標をRAMに記憶させる。   FIG. 7B is a flowchart illustrating an example of an input repetition operation generation process in the karaoke apparatus 2. As shown in FIG. 7B, the control unit 21 starts detecting an input operation (step S51). In detecting the input operation, the control unit 21 detects the coordinates of each body part of the singer and stores the coordinates of each body part in the RAM every time a distance image is received from the distance image camera 3.

次いで、制御部21は、入力動作の検出が開始されてから最大取得時間が経過したか否かを判定する(ステップS52)。このとき、制御部21は、最大取得時間が経過したと判定した場合には(ステップS52:YES)、ステップS55に進む。一方、制御部21は、最大取得時間が経過していないと判定した場合には(ステップS52:NO)、ステップS53に進む。   Next, the control unit 21 determines whether or not the maximum acquisition time has elapsed since the detection of the input operation was started (step S52). At this time, when it is determined that the maximum acquisition time has elapsed (step S52: YES), the control unit 21 proceeds to step S55. On the other hand, when it is determined that the maximum acquisition time has not elapsed (step S52: NO), the control unit 21 proceeds to step S53.

ステップS53において、制御部21は、入力動作の検出が開始されてから最低取得時間が経過したか否かを判定する。このとき、制御部21は、最低取得時間が経過したと判定した場合には(ステップS53:YES)、ステップS54に進む。一方、制御部21は、最低取得時間が経過していないと判定した場合には(ステップS53:NO)、ステップS52に進む。   In step S53, the control unit 21 determines whether or not the minimum acquisition time has elapsed since the detection of the input operation was started. At this time, if the control unit 21 determines that the minimum acquisition time has elapsed (step S53: YES), the control unit 21 proceeds to step S54. On the other hand, when it is determined that the minimum acquisition time has not elapsed (step S53: NO), the control unit 21 proceeds to step S52.

ステップS54において、制御部21は、直近の検出判定時間の間にRAMに記憶された相対運動量の合計を、直近の運動量として計算する。そして、制御部21は、計算した運動量が、検出判定運動量以下であるか否かを判定する。このとき、制御部21は、計算した運動量が検出判定運動量以下ではないと判定した場合には(ステップS54:NO)、ステップS52に進む。一方、制御部21は、計算した運動量が検出判定運動量以下であると判定した場合には(ステップS54:YES)、ステップS55に進む。   In step S54, the control unit 21 calculates the sum of the relative momentum stored in the RAM during the latest detection determination time as the latest momentum. And the control part 21 determines whether the calculated exercise amount is below a detection determination exercise amount. At this time, when it is determined that the calculated exercise amount is not equal to or less than the detection determination exercise amount (step S54: NO), the control unit 21 proceeds to step S52. On the other hand, when it is determined that the calculated exercise amount is equal to or less than the detection determination exercise amount (step S54: YES), the control unit 21 proceeds to step S55.

ステップS55において、制御部21は、入力動作の検出を終了させる。そして、制御部21は、入力動作の検出が開始されてからRAMに記憶された身体部位の座標を含む入力動作データを生成する。次いで、制御部21は、入力動作データから、動作が行われていない期間の身体部位の座標を除去する(ステップS56)。例えば、制御部21は、入力動作データの先頭から、相対運動量が連続して所定値以下である身体部位の座標を除去し、また入力動作データの末尾から、相対運動量が連続して所定値以下である身体部位の座標を除去してもよい。次いで、制御部21は、入力動作データから、繰り返し行われた動作部分の座標の抽出を行う(ステップS57)。繰り返し行われた動作部分の座標を抽出することができた場合、制御部21は、抽出された座標を含む入力繰り返し動作データを生成する。繰り返し行われた動作部分の座標を抽出することができなかった場合、制御部21は、入力繰り返し動作データの生成は失敗したと判定する。ステップS57を終えると、制御部21は、入力繰り返し動作生成処理を終了させる。   In step S55, the control unit 21 ends the detection of the input operation. And the control part 21 produces | generates the input motion data containing the coordinate of the body part memorize | stored in RAM after the detection of input motion was started. Next, the control unit 21 removes the coordinates of the body part during the period in which the motion is not performed from the input motion data (step S56). For example, the control unit 21 removes the coordinates of the body part whose relative momentum is continuously below a predetermined value from the beginning of the input motion data, and the relative momentum is continuously below the predetermined value from the end of the input motion data. The body part coordinates may be removed. Next, the control unit 21 extracts the coordinates of the repeated motion part from the input motion data (step S57). When it is possible to extract the coordinates of the repetitively performed motion part, the control unit 21 generates input repetitive motion data including the extracted coordinates. When it is not possible to extract the coordinates of the repeated motion part, the control unit 21 determines that the generation of the repeated input motion data has failed. When step S57 is completed, the control unit 21 ends the input repetition operation generation process.

図7(C)は、カラオケ装置2における既定繰り返し動作取得処理の一例を示す図である。図7(C)に示すように、制御部21は、既定繰り返し動作のテンポを取得する(ステップS61)。次いで、制御部21は、入力繰り返し動作データの長さを、既定繰り返し動作のテンポに合わせて変更する(ステップS62)。例えば、制御部21は、入力繰り返し動作が行われる時間の長さが、既定繰り返し動作のテンポの逆数と一致するように、入力繰り返し動作データを調整する。次いで、制御部21は、長さが変更された入力繰り返し動作データに類似する既定繰り返し動作データを、記憶部22から検索して取得する(ステップS63)。そして、制御部21は、既定繰り返し動作取得処理を終了させる。   FIG. 7C is a diagram illustrating an example of a default repeated motion acquisition process in the karaoke apparatus 2. As shown in FIG. 7C, the control unit 21 acquires the tempo of the default repetition operation (step S61). Next, the control unit 21 changes the length of the input repetition operation data in accordance with the tempo of the default repetition operation (step S62). For example, the control unit 21 adjusts the input repeat operation data so that the length of time during which the input repeat operation is performed matches the reciprocal of the tempo of the default repeat operation. Next, the control unit 21 retrieves and acquires predetermined repetitive motion data similar to the input repetitive motion data whose length has been changed from the storage unit 22 (step S63). Then, the control unit 21 ends the default repeated action acquisition process.

以上説明したように、本実施形態によれば、カラオケ装置2が、スピーカ4による楽曲の出力中に、歌唱者の動作を検出する。また、カラオケ装置2が、検出された動作に基づいて、繰り返し動作を示す動作データを決定する。また、カラオケ装置2が、スピーカ4による楽曲の出力中に、決定された動作データが示す繰り返し動作を行う観客キャラクターを示す映像をディスプレイ5に表示させる。従って、歌唱者が動作を行うことに応じて、繰り返し動作を行う観客キャラクターの映像が表示される。そのため、観客キャラクターを観客として歌唱者が見ることにより、あたかも観客の前で歌っているかのような臨場感を高めることができる。   As described above, according to the present embodiment, the karaoke device 2 detects the operation of the singer during the output of music by the speaker 4. Further, the karaoke apparatus 2 determines operation data indicating a repetitive operation based on the detected operation. Further, the karaoke device 2 displays an image showing the audience character performing the repetitive motion indicated by the determined motion data during the output of the music by the speaker 4 on the display 5. Therefore, the video of the spectator character performing the repetitive motion is displayed in response to the singer performing the motion. Therefore, when the singer sees the audience character as the audience, it is possible to enhance the sense of presence as if singing in front of the audience.

1 選曲装置
2 カラオケ装置
3 距離画像カメラ
4 スピーカ
5 ディスプレイ
S カラオケシステム
DESCRIPTION OF SYMBOLS 1 Music selection apparatus 2 Karaoke apparatus 3 Distance image camera 4 Speaker 5 Display S Karaoke system

Claims (12)

楽曲を示す楽曲データを取得する取得手段と、
前記取得手段により取得された前記楽曲データが示す楽曲を出力手段により出力させる出力制御手段と、
前記出力手段による前記楽曲の出力中に、ユーザの動作を検出する検出手段と、
前記検出手段により検出された動作に基づいて、繰り返し動作を示す動作情報を決定する決定手段と、
前記出力手段による前記楽曲の出力中に、前記決定手段により決定された前記動作情報が示す繰り返し動作を行うオブジェクトを示す映像を表示手段に表示させる表示制御手段と、
を備えることを特徴とする情報処理装置。
Obtaining means for obtaining music data indicating the music;
Output control means for causing the output means to output the music indicated by the music data acquired by the acquisition means;
Detecting means for detecting a user's action during output of the music by the output means;
A determination unit that determines operation information indicating a repetitive operation based on the operation detected by the detection unit;
Display control means for displaying on the display means a video indicating an object that performs the repetitive motion indicated by the motion information determined by the determination means during the output of the music by the output means;
An information processing apparatus comprising:
請求項1に記載の情報処理装置において、
前記決定手段は、前記検出手段により前記ユーザの動作の検出が開始されてから前記検出手段により所定運動量以下のユーザの動作が検出されるまでの間に検出された前記ユーザの動作に基づいて、前記動作情報を決定することを特徴とする情報処理装置。
The information processing apparatus according to claim 1,
The determining means is based on the user's action detected between the start of detection of the user's action by the detecting means and the detection of the user's action below a predetermined amount of exercise by the detecting means. An information processing apparatus that determines the operation information.
請求項2に記載の情報処理装置において、
前記検出手段により前記ユーザの動作の検出が開始されてから第1所定時間が経過した後に前記検出手段により前記所定運動量以下のユーザの動作が検出されるまでに検出された前記ユーザの動作に基づいて、前記動作情報を決定することを特徴とする情報処理装置。
The information processing apparatus according to claim 2,
Based on the user's action detected by the detecting means until the user's action equal to or less than the predetermined exercise amount is detected after a first predetermined time has elapsed since the detection means started detecting the user's action. An information processing apparatus that determines the operation information.
請求項1乃至3の何れか1項に記載の情報処理装置において、
前記検出手段により検出された動作の中から、前記ユーザが繰り返し行った動作を特定する特定手段を更に備え、
前記決定手段は、前記特定手段により特定された動作に基づいて、前記オブジェクトが行う繰り返し動作を示す前記動作情報を決定することを特徴とする情報処理装置。
The information processing apparatus according to any one of claims 1 to 3,
Further comprising a specifying means for specifying an action repeatedly performed by the user from the actions detected by the detecting means;
The information processing apparatus, wherein the determining unit determines the motion information indicating a repetitive motion performed by the object based on the motion specified by the specifying unit.
請求項1乃至4の何れか1項に記載の情報処理装置において、
予め定められた繰り返し動作を示す所定動作情報を複数記憶する所定動作情報記憶手段を更に備え、
前記決定手段は、前記検出手段により検出された動作に基づいて、前記所定動作情報記憶手段に記憶された複数の所定動作情報のうち何れかの所定動作情報を決定し、
前記表示制御手段は、前記決定手段により決定された前記所定動作情報が示す動作を行う前記オブジェクトを示す映像を前記表示手段に表示させることを特徴とする情報処理装置。
The information processing apparatus according to any one of claims 1 to 4,
Further comprising predetermined operation information storage means for storing a plurality of predetermined operation information indicating predetermined repetitive operations;
The determining means determines any predetermined operation information among a plurality of predetermined operation information stored in the predetermined operation information storage means based on the operation detected by the detection means,
The information processing apparatus, wherein the display control unit causes the display unit to display a video indicating the object performing the operation indicated by the predetermined motion information determined by the determination unit.
請求項5に記載の情報処理装置において、
前記決定手段は、前記所定動作情報記憶手段に記憶された前記複数の所定動作情報のうち、前記検出手段により検出された動作と類似する動作を示す所定動作情報を決定し、前記検出手段により検出された動作と類似する動作を示す所定動作情報が前記所定動作情報記憶手段に記憶されていない場合、前記検出手段により検出された動作を示す動作情報を、前記オブジェクトが行う繰り返し動作を示す前記動作情報に決定することを特徴とする情報処理装置。
The information processing apparatus according to claim 5,
The determining means determines predetermined action information indicating an action similar to the action detected by the detecting means from the plurality of predetermined action information stored in the predetermined action information storage means, and is detected by the detecting means. If the predetermined motion information indicating the motion similar to the motion performed is not stored in the predetermined motion information storage means, the motion indicating the motion detected by the detection means is the motion indicating the repeated motion performed by the object An information processing apparatus characterized by determining information.
請求項1乃至6の何れか1項に記載の情報処理装置において、
前記取得手段は、複数の演奏パートで構成される楽曲を示す前記楽曲データを取得し、
前記決定手段により決定された前記動作情報を、前記複数の演奏パートのうちの何れかに割り当てる割当手段を更に備え、
前記表示制御手段は、前記割当手段により前記動作情報が割り当てられた演奏パートが前記出力手段により出力されているとき、前記動作情報が示す繰り返し動作を行う前記オブジェクトを示す映像を前記表示手段に表示させることを特徴とする情報処理装置。
The information processing apparatus according to any one of claims 1 to 6,
The acquisition means acquires the music data indicating a music composed of a plurality of performance parts,
An allocation unit that allocates the motion information determined by the determination unit to any one of the plurality of performance parts;
The display control means displays, on the display means, a video showing the object performing the repetitive action indicated by the action information when the performance part assigned with the action information by the assigning means is output by the output means. An information processing apparatus characterized in that
請求項7に記載の情報処理装置において、
前記取得手段は、互いに種類が同じ2以上の演奏パートを含む複数の演奏パートで構成される楽曲を示す前記楽曲データを取得し、
前記割当手段は、前記決定手段により決定された前記動作情報と、前記決定手段により前記動作情報が決定された前記ユーザの動作が前記検出手段により検出されたときに前記出力手段により出力されていた演奏パートの種類を示す種類情報とを対応付けて種類情報記憶手段に記憶させ、
前記表示制御手段は、前記種類情報記憶手段に記憶された前記種類情報が示す種類の演奏パートが前記出力手段により出力されているとき、前記種類情報に対応付けて前記種類情報記憶手段に記憶された前記動作情報が示す繰り返し動作を行う前記オブジェクトを示す映像を前記表示手段に表示させることを特徴とする情報処理装置。
The information processing apparatus according to claim 7,
The acquisition means acquires the music data indicating a music composed of a plurality of performance parts including two or more performance parts of the same type.
The allocating means was output by the output means when the operation information determined by the determining means and the user action for which the operation information was determined by the determining means were detected by the detecting means The type information indicating the type of the performance part is associated with the type information and stored in the type information storage means.
When the performance part of the type indicated by the type information stored in the type information storage unit is output by the output unit, the display control unit is stored in the type information storage unit in association with the type information. An information processing apparatus that causes the display unit to display a video indicating the object that performs the repetitive motion indicated by the motion information.
請求項1乃至8の何れか1項に記載の情報処理装置において、
前記出力手段による前記楽曲の出力中に、動作の実行の要求を示す要求情報を前記表示手段に表示させる第2表示制御手段を更に備え、
前記決定手段は、前記表示手段に前記要求情報が表示されてから前記検出手段により検出された動作に基づいて、前記動作情報を決定することを特徴とする情報処理装置。
The information processing apparatus according to any one of claims 1 to 8,
A second display control means for causing the display means to display request information indicating an operation execution request while the music is being output by the output means;
The information processing apparatus according to claim 1, wherein the determination unit determines the operation information based on an operation detected by the detection unit after the request information is displayed on the display unit.
請求項1乃至9の何れか1項に記載の情報処理装置において、
前記決定手段は、前記検出手段により前記ユーザの動作の検出が開始されてから第2所定時間が経過する前までに前記繰り返し動作が決定されなかった場合、前記ユーザの動作の検出が開始されてから前記第2所定時間が経過するまでに前記検出手段により検出された前記ユーザの動作に基づいて、前記動作情報を決定することを特徴とする情報処理装置。
The information processing apparatus according to any one of claims 1 to 9,
The determination unit starts detecting the user's operation when the repetitive operation is not determined before the second predetermined time elapses after the detection unit starts detecting the user's operation. The operation information is determined based on the operation of the user detected by the detection means until the second predetermined time elapses.
請求項1乃至10の何れか1項に記載の情報処理装置において、
前記決定手段により決定された前記動作情報が示す繰り返し動作が行われる速さを、前記繰り返し動作の周期と、前記取得手段により取得された前記楽曲データが示す楽曲のテンポとに基づいて調整する調整手段を更に備え、
前記表示制御手段は、前記決定手段により決定された前記動作情報が示す繰り返し動作を前記調整手段により調整された速度で行う前記オブジェクトを示す映像を前記表示手段に表示させることを特徴とする情報処理装置。
The information processing apparatus according to any one of claims 1 to 10,
Adjustment for adjusting the speed at which the repetitive motion indicated by the motion information determined by the determining means is performed based on the cycle of the repetitive motion and the tempo of the music indicated by the music data acquired by the acquiring means Further comprising means,
The display control means causes the display means to display an image showing the object for performing the repetitive motion indicated by the motion information determined by the determination means at a speed adjusted by the adjustment means. apparatus.
楽曲を示す楽曲データを取得する取得ステップと、
前記取得ステップにより取得された前記楽曲データが示す楽曲を出力手段により出力させる出力制御ステップと、
前記出力手段による前記楽曲の出力中に、ユーザの動作を検出する検出ステップと、
前記検出ステップにより検出された動作に基づいて、繰り返し動作を示す動作情報を決定する決定ステップと、
前記出力手段による前記楽曲の出力中に、前記決定ステップにより決定された前記動作情報が示す繰り返し動作を行うオブジェクトを示す映像を表示手段に表示させる表示制御ステップと、
をコンピュータに実行させることを特徴とするプログラム。
An acquisition step of acquiring music data indicating the music;
An output control step of causing the output means to output the music indicated by the music data acquired by the acquisition step;
A detection step of detecting a user's action during the output of the music by the output means;
A determination step for determining operation information indicating a repetitive operation based on the operation detected by the detection step;
A display control step of causing the display means to display a video indicating an object that performs the repetitive motion indicated by the motion information determined by the determination step during the output of the music by the output means;
A program that causes a computer to execute.
JP2015062743A 2015-03-25 2015-03-25 Information processing apparatus and program Active JP6287921B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015062743A JP6287921B2 (en) 2015-03-25 2015-03-25 Information processing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015062743A JP6287921B2 (en) 2015-03-25 2015-03-25 Information processing apparatus and program

Publications (2)

Publication Number Publication Date
JP2016183989A true JP2016183989A (en) 2016-10-20
JP6287921B2 JP6287921B2 (en) 2018-03-07

Family

ID=57243021

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015062743A Active JP6287921B2 (en) 2015-03-25 2015-03-25 Information processing apparatus and program

Country Status (1)

Country Link
JP (1) JP6287921B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020181082A (en) * 2019-04-25 2020-11-05 株式会社第一興商 Karaoke system

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09160575A (en) * 1995-12-08 1997-06-20 Yamaha Corp Karaoke display device
JP2002042168A (en) * 2000-07-31 2002-02-08 Taito Corp Dance image enhancement composition device
JP2007072194A (en) * 2005-09-07 2007-03-22 Xing Inc Man type picture control unit
JP2009261533A (en) * 2008-04-23 2009-11-12 Internatl Business Mach Corp <Ibm> Operation object control device, system, method and program
JP2012088521A (en) * 2010-10-20 2012-05-10 Mega Chips Corp Amusement system
JP2014123085A (en) * 2012-12-21 2014-07-03 Sachiko Miki Device, method, and program for further effectively performing and providing body motion and so on to be performed by viewer according to singing in karaoke
JP2014235301A (en) * 2013-05-31 2014-12-15 株式会社第一興商 Command input discrimination system using gesture
JP2015060061A (en) * 2013-09-18 2015-03-30 日本コントロールシステム株式会社 Karaoke device, image output method, and program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09160575A (en) * 1995-12-08 1997-06-20 Yamaha Corp Karaoke display device
JP2002042168A (en) * 2000-07-31 2002-02-08 Taito Corp Dance image enhancement composition device
JP2007072194A (en) * 2005-09-07 2007-03-22 Xing Inc Man type picture control unit
JP2009261533A (en) * 2008-04-23 2009-11-12 Internatl Business Mach Corp <Ibm> Operation object control device, system, method and program
JP2012088521A (en) * 2010-10-20 2012-05-10 Mega Chips Corp Amusement system
JP2014123085A (en) * 2012-12-21 2014-07-03 Sachiko Miki Device, method, and program for further effectively performing and providing body motion and so on to be performed by viewer according to singing in karaoke
JP2014235301A (en) * 2013-05-31 2014-12-15 株式会社第一興商 Command input discrimination system using gesture
JP2015060061A (en) * 2013-09-18 2015-03-30 日本コントロールシステム株式会社 Karaoke device, image output method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020181082A (en) * 2019-04-25 2020-11-05 株式会社第一興商 Karaoke system
JP7249859B2 (en) 2019-04-25 2023-03-31 株式会社第一興商 karaoke system

Also Published As

Publication number Publication date
JP6287921B2 (en) 2018-03-07

Similar Documents

Publication Publication Date Title
CN100435728C (en) Method and apparatus for rendition of content data
JP6942300B2 (en) Computer graphics programs, display devices, transmitters, receivers, video generators, data converters, data generators, information processing methods and information processing systems
JP6699677B2 (en) Information processing method, information processing apparatus, and program
JP2006201438A (en) Apparatus and method for reproduction
JP6268287B2 (en) Moving image generating apparatus, moving image generating method, and program
JP7243026B2 (en) Performance analysis method, performance analysis device and program
JP2013171070A (en) Music information processing apparatus and music information processing method
WO2019156091A1 (en) Information processing method
JP6287921B2 (en) Information processing apparatus and program
CN113272890A (en) Image control system and image control method
JP5928279B2 (en) Exercise support apparatus and program
WO2021085105A1 (en) Information processing device, proposal device, information processing method, and proposal method
JP5772124B2 (en) Karaoke equipment
JP5935775B2 (en) Information processing apparatus and program
CN112402952A (en) Interactive method and terminal based on audio and virtual image
JP5939217B2 (en) Information processing apparatus, information processing system, and program
JP5949638B2 (en) Information processing apparatus and program
JP5949688B2 (en) Information processing apparatus and program
JP5954287B2 (en) Information processing apparatus and program
JP5954288B2 (en) Information processing apparatus and program
JP5958389B2 (en) Information processing apparatus and program
JP5942914B2 (en) Information processing apparatus and program
JP6361430B2 (en) Information processing apparatus and program
JP5949687B2 (en) Information processing apparatus and program
JP6048136B2 (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180122

R150 Certificate of patent or registration of utility model

Ref document number: 6287921

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150