JP2017181858A - Evaluation control device - Google Patents

Evaluation control device Download PDF

Info

Publication number
JP2017181858A
JP2017181858A JP2016070463A JP2016070463A JP2017181858A JP 2017181858 A JP2017181858 A JP 2017181858A JP 2016070463 A JP2016070463 A JP 2016070463A JP 2016070463 A JP2016070463 A JP 2016070463A JP 2017181858 A JP2017181858 A JP 2017181858A
Authority
JP
Japan
Prior art keywords
user
position information
information
body part
observation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016070463A
Other languages
Japanese (ja)
Inventor
前川 陽平
Yohei Maekawa
陽平 前川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2016070463A priority Critical patent/JP2017181858A/en
Publication of JP2017181858A publication Critical patent/JP2017181858A/en
Pending legal-status Critical Current

Links

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

PROBLEM TO BE SOLVED: To comparatively evaluate each of singing users by using the positions of bodies of the singing users who cannot learn the singing state of each other than singing voice and the position of a body of a comparison object person.SOLUTION: An evaluation control device determines that a first user is detected S10 when positional information on a user having first posture is received from a state detection device. Movement of body parts indicated by first bone information indicates movement of body parts of the user or movement of body parts of an avatar. Movement of body parts indicated by second bone information indicates movement of body parts of a comparison object person. The evaluation control device calculates sum and difference of an evaluation value evaluating movement of body parts indicated by the calculated first bone information and an evaluation value evaluating movement of body parts indicated by the second bone information S32, and outputs the calculated results on a display.SELECTED DRAWING: Figure 3

Description

本発明は、利用者の動きを検知し、所定の比較対象者の動きと相対比較することにより、利用者の動きの相性を評価する評価制御装置に関する。   The present invention relates to an evaluation control apparatus that detects a user's movement and evaluates the compatibility of the user's movement by comparing the movement with a predetermined comparison person's movement.

従来、複数人の唄い手の歌唱の音声を取得し、音声から求めた唄い手のピッチ・リズムの差と、音量の差から、唄い手の相性を判断し、相性の判断結果を示す内容を表示するカラオケ装置が考案されている。   Conventionally, the singing voice of multiple ugly hands is obtained, and the content of the judgment of the hunting hand is judged from the difference in pitch and rhythm of the craving hand obtained from the voice and the difference in volume. A karaoke device for display has been devised.

特開2007−156330号公報JP 2007-156330 A

特許文献1に記載の技術を用いると、唄い手は、歌唱が終わった後に、複数人の唄い手間での歌唱音声の相性を知ることができる。複数の唄い手の相性は、歌唱音声の相性のほか、唄い手の歌唱時の身体の相対位置によっても判断することは可能であると考えられる。複数の唄い手それぞれは、歌唱中は歌唱に集中するため、互いの歌唱時の相対位置を認識することはできず、互いの歌唱中の状態を歌唱音声以外について知ることができない。   When the technique described in Patent Document 1 is used, the scolder can know the compatibility of the singing voice among a plurality of scoops after the singing is finished. It can be considered that the compatibility of a plurality of ugly hands can be determined not only by the singing voice compatibility but also by the relative position of the body when singing the ugly hand. Since each of the ugly hands concentrates on the singing during the singing, the relative positions at the time of singing cannot be recognized, and the state during the singing other than the singing voice cannot be known.

本発明は、上述した問題点を解決するためになされたものであり、歌唱中の利用者の身体の位置と、比較対象者の身体の位置とを用いて、歌唱中の利用者を相対評価することを目的とする。   The present invention has been made to solve the above-described problems, and relative evaluation of a user who is singing using the position of the body of the user who is singing and the position of the body of the person to be compared is performed. The purpose is to do.

請求項1に記載の評価制御装置は、所定の空間内にいるユーザを観測対象者として識別する識別手段と、所定の楽曲の再生中に前記識別手段により識別した前記観測対象者の特定の身体部位の位置情報を、前記楽曲の再生時間を示す時間情報と対応付けて取得する観測取得手段と、前記楽曲の再生開始時間から再生終了時間までの前記時間情報が対応付けられた位置情報であって、前記観測取得手段により前記位置情報が取得された前記観測対象者とは異なる所定の比較対象者の前記特定の身体部位の位置情報を取得する比較取得手段と、前記観測取得手段により取得された前記観測対象者の前記位置情報と、前記比較読出手段により読み出された前記比較対象者の前記位置情報とを、それぞれの前記時間情報が対応する前記楽曲の再生開始時間から再生終了時間までの同一タイミングにおいて比較し、比較したタイミングにおける前記観測対象者について、前記比較対象者との前記特定の身体部位の相対距離と、前記比較対象者に近づく向きを正とする前記特定の身体部位の向きおよび傾きの少なくともいずれかと、を判定する判定手段と、前記判定手段による判定結果に応じて、前記楽曲の再生中の前記観測対象者の動きを評価した結果を出力させる出力制御手段と、を備えることを特徴とする。   The evaluation control apparatus according to claim 1, wherein an identification unit that identifies a user in a predetermined space as an observation target, and a specific body of the observation target that is identified by the identification unit during reproduction of a predetermined music piece The position acquisition information is obtained by associating the position information of the part with the time information indicating the reproduction time of the music and the time information from the reproduction start time to the reproduction end time of the music. Acquired by the observation acquisition means, the comparison acquisition means for acquiring the position information of the specific body part of a predetermined comparison target person different from the observation target person from which the position information was acquired by the observation acquisition means. In addition, the position information of the observation subject and the position information of the comparison subject read by the comparison and reading unit are started to reproduce the music corresponding to the respective time information. The relative distance of the specific body part from the comparison target person and the direction approaching the comparison target person are positive for the observation target person at the same timing from the end to the reproduction end time. A determination unit configured to determine at least one of a direction and an inclination of the specific body part; and a result of evaluating the movement of the observation target during reproduction of the music in accordance with a determination result by the determination unit. And an output control means.

請求項2に記載の評価制御装置は、前記所定の空間内で再生される楽曲の再生開始時間および再生終了時間を検知する検知手段と、前記観測取得手段により取得した前記観測対象者の前記位置情報を、前記位置情報を取得したときの時間を示す時間情報と対応付けて記憶部に記憶する記憶手段と、を備え、前記観測取得手段は、前記検知手段により検知される楽曲の再生開始時間から再生終了時間までに対応する前記時間情報が対応付けられた前記観測対象者の前記位置情報を、前記記憶部から読み出して取得するものであり、前記比較取得手段は、前記楽曲の再生開始時間から再生終了時間までの前記時間情報が対応付けられた位置情報であって、前記読出手段により前記位置情報が読み出された前記観測対象者とは異なる所定の比較対象者の前記特定の身体部位の位置情報を、記憶部から読み出して取得するものであり、前記観測取得手段により取得された前記楽曲の再生開始時間から再生終了時間までの前記位置情報により示される前記観測対象者の移動遷移を決定する第1決定手段と、前記比較取得手段により取得された前記楽曲の再生開始時間から再生終了時間までの前記位置情報により示される前記比較対象者の移動遷移を決定する第2決定手段と、を備え、前記判定手段は、前記第1決定手段により決定された前記観測対象者の移動遷移と、前記第2決定手段により決定された前記比較対象者の移動遷移とを、前記時間情報と対応する前記楽曲の再生開始時間から再生終了時間までの所定タイミングごとに比較し、比較したタイミングにおける前記観測対象者について、前記比較対象者との前記特定の身体部位の相対距離の距離遷移と、前記比較対象者に近づく向きを正とする前記特定の身体部位の向きおよび傾きの少なくともいずれかの方向遷移と、を判定し、前記出力制御手段は、前記判定手段による前記距離遷移および前記方向遷移の判定結果に応じて、前記楽曲の再生開始時間から再生終了時間までの前記観測対象者の動きを評価した結果を出力させることを特徴とする。   The evaluation control apparatus according to claim 2, wherein the position of the observation target acquired by the detection means that detects the playback start time and the playback end time of the music played in the predetermined space, and the observation acquisition means Storage means for storing information in a storage unit in association with time information indicating the time when the position information was acquired, and the observation acquisition means is a music reproduction start time detected by the detection means The position information of the person to be observed associated with the time information corresponding to the reproduction end time is read out from the storage unit, and the comparison and acquisition unit is configured to obtain the reproduction start time of the music piece. Position information associated with the time information from the reproduction end time to the reproduction end time, and a predetermined comparison object different from the observation target person from which the position information was read by the reading means The position information of the specific body part is read out from the storage unit and acquired, and the observation indicated by the position information from the reproduction start time to the reproduction end time of the music acquired by the observation acquisition means First determination means for determining the movement transition of the target person, and determination of the movement transition of the comparison target indicated by the position information from the reproduction start time to the reproduction end time of the music acquired by the comparison acquisition means. Second determination means, wherein the determination means includes the movement transition of the observation target determined by the first determination means and the movement transition of the comparison target determined by the second determination means. The time information is compared at a predetermined timing from the playback start time to the playback end time of the music corresponding to the time information. A distance transition of the relative distance of the specific body part with the comparison target person, and a direction transition of at least one of the direction and inclination of the specific body part with the direction approaching the comparison target person being positive. The output control unit determines a result of evaluating the movement of the observation target person from the reproduction start time to the reproduction end time of the music according to the determination result of the distance transition and the direction transition by the determination unit. It is characterized by outputting.

請求項3に記載の評価制御装置は、前記観測取得手段により取得した前記観測対象者の特定の身体部位の前記位置情報に従って、前記観測対象者の特定の身体部位の位置を反映した反映人物像を、所定の表示部上に表示する表示制御手段を備え、前記判定手段は、前記表示部上に表示される前記反映人物像の位置情報を、前記観測対象者の前記位置情報として、前記比較対象者の前記位置情報と比較することを特徴とする。   The evaluation control apparatus according to claim 3, wherein the reflected person image reflects the position of the specific body part of the observation subject according to the position information of the specific body part of the observation subject acquired by the observation acquisition unit. Is displayed on a predetermined display unit, and the determination unit uses the position information of the reflected human image displayed on the display unit as the position information of the observation subject. It compares with the said positional information on a subject, It is characterized by the above-mentioned.

請求項4に記載の評価制御装置は、前記比較取得手段は、空間内に設けられる表示部に表示される仮想人物像を前記比較対象者として、前記空間内の前記表示部上の前記仮想人物像の前記特定の身体部位の位置情報を取得するものであり、前記判定手段は、所定の基準位置からの前記観測対象者の位置情報と、前記所定の基準位置からの前記表示部上の前記仮想人物像の前記位置情報とを比較し、前記相対距離と、前記向き及び傾きの少なくともいずれかと、を判定することを特徴とする。   The evaluation control apparatus according to claim 4, wherein the comparison and acquisition unit uses the virtual person image displayed on the display unit provided in the space as the comparison target person and the virtual person on the display unit in the space. Position information of the specific body part of the image is acquired, and the determination means includes the position information of the observation target person from a predetermined reference position and the display unit on the display unit from the predetermined reference position. The position information of the virtual person image is compared to determine the relative distance and at least one of the direction and the inclination.

請求項5に記載の評価制御装置は、前記判定手段は、前記表示部上に表示される前記反映人物像の前記位置情報と、前記比較取得手段により取得された前記表示部上に表示される前記仮想人物像の前記位置情報とを、比較し、前記表示部上の前記反映人物像について、前記仮想人物像との前記相対距離と、前記向きおよび傾きの少なくともいずれかと、を判定することを特徴とする。   The evaluation control apparatus according to claim 5, wherein the determination unit is displayed on the position information of the reflected person image displayed on the display unit and the display unit acquired by the comparison acquisition unit. Comparing the position information of the virtual person image and determining the relative distance of the reflected person image on the display unit from the virtual person image and at least one of the orientation and the inclination. Features.

請求項6に記載の評価制御装置は、前記識別手段は、所定の空間内にいる第1のユーザを前記観測対象者として識別し、前記所定の空間内にいる第2のユーザを比較対象者として識別し、観測取得手段は、前記識別手段により前記観測対象者と識別された前記第1のユーザの特定の身体部位の位置情報を取得し、前記比較取得手段は、前記識別手段により前記比較対象者と識別された前記第2のユーザの特定の身体部位の位置情報を取得し、前記判定手段は、前記第1のユーザの前記位置情報と、前記第2のユーザの前記位置情報とを、前記楽曲の再生開始時間から再生終了時間までの同一タイミングにおいて比較し、比較したタイミングにおける前記第1のユーザについて、前記第2のユーザとの前記特定の身体部位の相対距離と、前記第2のユーザに近づく向きを正とする前記特定の身体部位の向きおよび傾きの少なくともいずれかと、を第1のユーザの判定結果として判定し、比較したタイミングにおける前記第2のユーザについて、前記第1のユーザとの前記特定の身体部位の相対距離と、前記第1のユーザに近づく向きを正とする前記特定の身体部位の向きおよび傾きの少なくともいずれかと、を第2のユーザの判定結果として判定し、前記出力制御手段は、前記楽曲の再生開始時間から再生終了時間までの前記観測対象者および前記比較対象者の動きの相対関係を評価した結果を出力させる
ことを特徴とする。
The evaluation control apparatus according to claim 6, wherein the identification unit identifies the first user in the predetermined space as the observation target and the second user in the predetermined space as the comparison target person. The observation acquisition unit acquires position information of a specific body part of the first user identified as the observation target by the identification unit, and the comparison acquisition unit acquires the comparison by the identification unit. The position information of the specific body part of the second user identified as the target person is acquired, and the determination unit obtains the position information of the first user and the position information of the second user. The first user at the same timing from the reproduction start time to the reproduction end time of the music, and the relative distance of the specific body part with the second user at the compared timing, At least one of the direction and inclination of the specific body part with the direction approaching the user as positive is determined as the determination result of the first user, and the first user is compared with the first The relative distance of the specific body part to the user and at least one of the direction and inclination of the specific body part with the direction approaching the first user as positive are determined as the determination result of the second user. The output control means outputs the result of evaluating the relative relationship between the observation subject and the comparison subject from the reproduction start time to the reproduction end time of the music.

請求項7に記載の評価制御プログラムは、コンピュータにより実行されるプログラムであって、所定の空間内にいるユーザを観測対象者として識別する識別ステップと、前記識別ステップにより識別した前記観測対象者の特定の身体部位の位置情報を取得する観測取得ステップと、前記楽曲の再生開始時間から再生終了時間までの前記時間情報が対応付けられた位置情報であって、前記観測取得ステップにより前記位置情報が取得された前記観測対象者とは異なる所定の比較対象者の前記特定の身体部位の位置情報を取得する比較取得ステップと、前記観測取得ステップにより取得された前記観測対象者の前記位置情報と、前記比較読出手段により読み出された前記比較対象者の前記位置情報とを、それぞれの前記時間情報が対応する前記楽曲の再生開始時間から再生終了時間までの同一タイミングにおいて比較し、比較したタイミングにおける前記観測対象者について、前記比較対象者との前記特定の身体部位の相対距離と、前記比較対象者に近づく向きを正とする前記特定の身体部位の向きおよび傾きの少なくともいずれかと、を判定する判定ステップと、判定ステップによる判定結果に応じて、前記楽曲の再生開始時間から再生終了時間までの前記観測対象者の動きを評価した結果を出力させる出力制御ステップと、を備えることを特徴とする。   The evaluation control program according to claim 7 is a program executed by a computer, wherein an identification step of identifying a user in a predetermined space as an observation target, and the observation target identified by the identification step An observation acquisition step for acquiring position information of a specific body part is associated with the time information from the reproduction start time to the reproduction end time of the music, and the position information is obtained by the observation acquisition step. A comparison acquisition step of acquiring position information of the specific body part of a predetermined comparison target person different from the acquired observation target person, and the position information of the observation target person acquired by the observation acquisition step; The position information of the person to be compared read by the comparison reading means is the music corresponding to the time information. For the observation target person at the same timing from the reproduction start time to the reproduction end time, the relative distance of the specific body part from the comparison target person and the direction approaching the comparison target person. A determination step of determining at least one of the direction and inclination of the specific body part to be positive, and depending on a determination result by the determination step, the observation target person from the reproduction start time to the reproduction end time of the music piece And an output control step for outputting a result of evaluating the movement.

請求項1記載の評価制御装置によれば、判定手段により、観測取得手段により取得した観測対象者の位置情報を、比較取得手段により取得した比較対象者の位置情報と、楽曲の再生開始から再生終了までにおいて比較し、観測対象者を比較対象者に対して判定することにより、楽曲の再生中における比較対象者に対する観測対象者の動きを、評価することができる。   According to the evaluation control apparatus of claim 1, the determination unit reproduces the position information of the observation target acquired by the observation acquisition unit and the position information of the comparison target acquired by the comparison acquisition unit and the reproduction of the music from the start of reproduction. By comparing until the end and determining the observation target person with respect to the comparison target person, it is possible to evaluate the movement of the observation target person relative to the comparison target person during reproduction of the music.

請求項2記載の評価制御装置によれば、判定手段により、第1決定手段により決定した楽曲の再生中の観測対象者の移動遷移を、第2決定手段により決定した楽曲の再生中の比較対象者の移動遷移に対して比較し、観測対象者の移動推移を、比較対象者の移動推移に対して判定することにより、楽曲の再生中における比較対象者の移動推移に対する観測対象者の移動推移を、評価することができる。   According to the evaluation control apparatus of claim 2, the movement transition of the observation target person during reproduction of the music determined by the first determination means is compared with the comparison target during reproduction of the music determined by the second determination means by the determination means. The movement transition of the observation target relative to the movement transition of the comparison target during the reproduction of the music is determined by comparing the movement transition of the observation target with respect to the movement transition of the comparison target person. Can be evaluated.

請求項3記載の評価制御装置によれば、観測対象者の位置情報として、表示制御手段により表示された反映人物像の位置情報を用いて、比較対象者の位置情報とを比較することにより、比較対象者に対し、観測対象者の位置情報の代わりに反映人物像の位置情報を用いて、観測対象者の動きを評価することが可能である。   According to the evaluation control device according to claim 3, by using the position information of the reflected person image displayed by the display control means as the position information of the observation target person, by comparing the position information of the comparison target person, For the comparison target person, it is possible to evaluate the movement of the observation target person using the position information of the reflected person image instead of the position information of the observation target person.

請求項4記載の評価制御装置によれば、観測対象者の位置情報と、比較対象者として表示部に表示された仮想人物像の位置情報とを比較することにより、比較対象者が仮想人物である場合であっても、比較対象者に対する観測対象者の動きを評価することが可能である。   According to the evaluation control apparatus of the fourth aspect, the comparison target person is a virtual person by comparing the position information of the observation target person with the position information of the virtual person image displayed on the display unit as the comparison target person. Even in some cases, it is possible to evaluate the movement of the observation subject relative to the comparison subject.

請求項5記載の評価制御装置によれば、反映人物像の位置情報と、仮想人物像の位置情報とを用いて比較し、判定することにより、表示部上に表示された人物像により、観測対象者の動きを評価することが可能である。   According to the evaluation control device of claim 5, the position information of the reflected person image and the position information of the virtual person image are compared and determined, and the observation is performed by the person image displayed on the display unit. It is possible to evaluate the movement of the subject.

請求項6記載の評価制御装置によれば、同一空間内にいる第1のユーザおよび第2のユーザの位置情報を比較し、判定することにより、第1のユーザおよび第2のユーザをそれぞれ観測対象者および比較対象者としたユーザ間の動きの相対関係を評価することが可能である。   According to the evaluation control apparatus according to claim 6, the first user and the second user are respectively observed by comparing and determining the position information of the first user and the second user in the same space. It is possible to evaluate the relative relationship of movement between the target user and the comparison target user.

請求項7記載のプログラムによれば、判定ステップにより、観測取得ステップにより取得した観測対象者の位置情報を、比較取得ステップにより取得した比較対象者の位置情報と、楽曲の再生開始から再生終了までにおいて比較し、観測対象者を比較対象者に対して判定することにより、楽曲の再生中における比較対象者に対する観測対象者の動きを、評価することができる。   According to the program according to claim 7, from the determination step, the position information of the person to be observed acquired by the observation acquisition step, the position information of the person to be compared acquired by the comparison acquisition step, and the reproduction start to the reproduction end of the music The movement of the observation target with respect to the comparison target during the reproduction of the music can be evaluated by comparing the observation target and determining the observation target with respect to the comparison target.

本実施形態の評価制御装置1の使用例を示す概要図である。It is a schematic diagram which shows the usage example of the evaluation control apparatus 1 of this embodiment. 評価制御装置1の電気的構成の概略を示す説明図である。2 is an explanatory diagram showing an outline of an electrical configuration of an evaluation control device 1. FIG. 評価制御装置1のCPU11により実行される評価制御処理の処理手順を示すフローチャートである。3 is a flowchart showing a processing procedure of evaluation control processing executed by a CPU 11 of the evaluation control device 1. 評価制御処理のサブフローチャートの処理手順を示す図である。It is a figure which shows the process sequence of the sub flowchart of an evaluation control process. 評価制御処理において実行される判定処理の判定基準を示す図である。It is a figure which shows the criterion of the determination process performed in an evaluation control process. 判定処理による判定結果が記憶されたときの記憶内容の構成を説明する図である。It is a figure explaining the structure of the memory content when the determination result by a determination process is memorize | stored.

以下、本発明の実施の形態について図面を参照して説明する。図1(A)〜図1(D)は、本発明の評価処理装置の一実施形態である評価処理装置1の使用例を示す概要図である。評価処理装置1は、例えば、カラオケルームなどの部屋内に設置されて使用される。図1(A)〜図1(D)に示すように、評価処理装置1の使用時は、評価処理装置1と共に、状態検知装置2、カラオケ装置3、ディスプレイ5、スピーカ6が備えられる。評価処理装置1は、状態検知装置2、カラオケ装置3、ディスプレイ5と電気的に接続されている。スピーカ6は、カラオケ装置3と電気的に接続されている。本実施形態では、ディスプレイ5は、部屋内の1つの壁に設けられた一例を示すが、ディスプレイ5の構成はこれに限らない。ディスプレイ5に代えて、プロジェクタが設けられ、プロジェクタにより壁または設置される投影スクリーンに画像を投影するものであってもよい。スピーカ6は、備えられなくてもよい。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1A to FIG. 1D are schematic diagrams illustrating a usage example of an evaluation processing apparatus 1 which is an embodiment of the evaluation processing apparatus of the present invention. The evaluation processing apparatus 1 is installed and used in a room such as a karaoke room, for example. As shown in FIGS. 1 (A) to 1 (D), when the evaluation processing device 1 is used, a state detection device 2, a karaoke device 3, a display 5, and a speaker 6 are provided together with the evaluation processing device 1. The evaluation processing device 1 is electrically connected to the state detection device 2, the karaoke device 3, and the display 5. The speaker 6 is electrically connected to the karaoke apparatus 3. In this embodiment, the display 5 shows an example provided on one wall in the room, but the configuration of the display 5 is not limited to this. Instead of the display 5, a projector may be provided, and an image may be projected onto a projection screen installed on the wall or by the projector. The speaker 6 may not be provided.

評価処理装置1は、少なくとも1人以上のユーザにより使用される。図1(A)は、評価処理装置1が、ユーザU1およびユーザU2の2人のユーザにより使用される第1例を示す図である。図1(B)は、評価処理装置1が、ユーザU1およびユーザU2の2人のユーザにより使用される第2例を示す図である。第2例では、ユーザU1およびユーザU2の身体部位の位置が状態検知装置2により検知され、ユーザU1の身体部位の位置を反映したアバタA1と、ユーザU2の身体部位の位置を反映したアバタA2とが、ディスプレイ5に表示される例を示す。   The evaluation processing device 1 is used by at least one user. FIG. 1A is a diagram illustrating a first example in which the evaluation processing device 1 is used by two users, a user U1 and a user U2. FIG. 1B is a diagram illustrating a second example in which the evaluation processing device 1 is used by two users, the user U1 and the user U2. In the second example, the positions of the body parts of the user U1 and the user U2 are detected by the state detection device 2, and an avatar A1 that reflects the position of the body part of the user U1 and an avatar A2 that reflects the position of the body part of the user U2 Shows an example displayed on the display 5.

図1(C)および図1(D)は、評価処理装置1が、ユーザU1の1人のユーザにより使用される例を示す第3例および第4例である。第3例および第4例には、第1例および第2例において居たユーザU2は居ない、あるいは第1例および第2例において検知されていたユーザU2の身体部位の位置は検知されない。図1(C)に示す第3例および図1(D)に示す第4例では、ディスプレイ5には、第2例に示されるユーザU2の身体部位の位置を反映したアバタA2の代わりに、バーチャル人物V2が表示される。バーチャル人物V2の身体部位の動きは、後述のように評価処理装置1に予め記憶されている。図1(D)に示す第4例では、ユーザU1の身体部位の位置が状態検知装置2により検知され、ユーザU1の身体部位の位置を反映したアバタA1が、ディスプレイ5に表示される。ユーザU1およびユーザU2は、例えば、カラオケ装置3によりカラオケ楽曲が再生されると、スピーカ6により出力されるカラオケ楽曲の演奏音に合わせて歌唱を行う。   FIGS. 1C and 1D are a third example and a fourth example in which the evaluation processing apparatus 1 is used by one user U1. In the third example and the fourth example, there is no user U2 who was in the first example and the second example, or the position of the body part of the user U2 detected in the first example and the second example is not detected. In the third example shown in FIG. 1C and the fourth example shown in FIG. 1D, the display 5 instead of the avatar A2 reflecting the position of the body part of the user U2 shown in the second example, A virtual person V2 is displayed. The movement of the body part of the virtual person V2 is stored in advance in the evaluation processing device 1 as described later. In the fourth example shown in FIG. 1D, the position of the body part of the user U1 is detected by the state detection device 2, and the avatar A1 reflecting the position of the body part of the user U1 is displayed on the display 5. For example, when a karaoke piece is reproduced by the karaoke device 3, the user U <b> 1 and the user U <b> 2 sing according to the performance sound of the karaoke piece outputted from the speaker 6.

[評価処理装置1の電気的構成]
図2は、評価処理装置1の電気的構成および評価処理装置1と電気的に接続される外部機器との電気的接続の概略を示すブロック図である。評価処理装置1と電気的に接続される外部機器には、例えば、状態検知装置2、カラオケ装置3、ディスプレイ5がある。評価処理装置1は、CPU11、情報受信部12、ROM13、RAM14を備える。CPU11は、情報受信部12と、ROM13と、RAM14と、ディスプレイ5と、カラオケ装置3とが電気的に接続される。情報受信部12には、外部機器の状態検知装置2が電気的に接続される。状態検知装置2は、例えば、赤外線センサや深度センサ等のセンサにより、ユーザの位置を検知する。状態検知装置2は、予め複数の身体部位の位置関係を定めた多種の基本ボーン情報を記憶しており、センサにより検知した位置が対応する身体部位を、基本ボーン情報を参照することで特定することが可能である。状態検知装置2は、ユーザの身体部位の位置を示す位置情報として、x座標、y座標、z座標で構成される座標情報と、その座標情報が示す身体部位とを対応付けて情報受信部12に通知する。本実施形態では、身体部位の例として、頭、首、右肩、左肩を用いる。首の代わりに、両肩の中心を、首として定めてもよい。本実施形態では、x座標、y座標、z座標は、図1(A)内に示す各方向を示す座標とする。さらに、本実施形態において、評価処理装置1がディスプレイ5にユーザの画像を表示可能な機能を備える場合には、状態検知装置2は、カメラ機能を備えることが望ましい。このとき、状態検知装置2は、カメラ機能による撮影画像を順次、評価処理装置1へ送信する。情報受信部12は、状態検知装置2から、状態検知装置2により検知されるユーザの身体部位の位置情報を受信する。
[Electrical Configuration of Evaluation Processing Apparatus 1]
FIG. 2 is a block diagram showing an outline of an electrical configuration of the evaluation processing apparatus 1 and an electrical connection with an external device electrically connected to the evaluation processing apparatus 1. Examples of external devices that are electrically connected to the evaluation processing device 1 include a state detection device 2, a karaoke device 3, and a display 5. The evaluation processing apparatus 1 includes a CPU 11, an information receiving unit 12, a ROM 13, and a RAM 14. In the CPU 11, the information receiving unit 12, the ROM 13, the RAM 14, the display 5, and the karaoke device 3 are electrically connected. The information receiving unit 12 is electrically connected to the state detection device 2 of the external device. The state detection device 2 detects the position of the user with a sensor such as an infrared sensor or a depth sensor, for example. The state detection device 2 stores a variety of basic bone information in which the positional relationship between a plurality of body parts is determined in advance, and identifies the body part corresponding to the position detected by the sensor by referring to the basic bone information. It is possible. The state detection device 2 associates coordinate information including x coordinates, y coordinates, and z coordinates as position information indicating the position of the user's body part with the body part indicated by the coordinate information, and receives the information receiving unit 12. Notify In the present embodiment, the head, neck, right shoulder, and left shoulder are used as examples of body parts. Instead of the neck, the center of both shoulders may be defined as the neck. In the present embodiment, the x coordinate, the y coordinate, and the z coordinate are coordinates indicating each direction shown in FIG. Furthermore, in the present embodiment, when the evaluation processing device 1 has a function capable of displaying a user image on the display 5, the state detection device 2 desirably has a camera function. At this time, the state detection device 2 sequentially transmits captured images by the camera function to the evaluation processing device 1. The information receiving unit 12 receives the position information of the user's body part detected by the state detection device 2 from the state detection device 2.

カラオケ装置3には、評価処理装置1のほか、入力装置4と、スピーカ6とが電気的に接続される。入力装置4は、例えばユーザからカラオケ装置3により再生させるカラオケ楽曲の指定を受け付ける。カラオケ装置3は、入力装置4により指定されたカラオケ楽曲を再生し、スピーカ6から演奏音を出力する。カラオケ装置3は、カラオケ楽曲の再生を開始するとき、およびカラオケ楽曲の再生を終了するとき、評価処理装置1へ、再生開始および再生終了を通知する。入力装置4は、カラオケ装置3と一体に構成されてもよい。ディスプレイ5には、カラオケ装置3により再生されるカラオケ楽曲の歌詞と、評価処理装置1により行われる処理の結果とが出力され、表示される。   In addition to the evaluation processing device 1, an input device 4 and a speaker 6 are electrically connected to the karaoke device 3. The input device 4 receives, for example, designation of karaoke music to be played back by the karaoke device 3 from the user. The karaoke device 3 reproduces the karaoke music specified by the input device 4 and outputs a performance sound from the speaker 6. The karaoke device 3 notifies the evaluation processing device 1 of the start of reproduction and the end of reproduction when starting reproduction of karaoke music and ending reproduction of karaoke music. The input device 4 may be configured integrally with the karaoke device 3. On the display 5, lyrics of karaoke music reproduced by the karaoke device 3 and results of processing performed by the evaluation processing device 1 are output and displayed.

評価処理装置1のROM13は、評価制御プログラム記憶領域131と、判定条件記憶領域132と、ユーザ反映アバタ情報記憶領域133と、バーチャル人物情報記憶領域134とを備える。評価制御プログラム記憶領域131には、CPU11により実行される評価制御プログラムが記憶される。評価制御装置1は、CPU11により評価制御プログラムが実行されることにより、後述する評価制御処理を実行する。判定条件記憶領域132には、評価制御処理における判定処理に用いる判定条件を記憶する。判定条件の詳細は、後述の評価制御処理において詳述する。判定条件記憶領域132に記憶される判定処理は、後述する第1ボーン判定処理と、第2ボーン判定処理に用いられる。   The ROM 13 of the evaluation processing apparatus 1 includes an evaluation control program storage area 131, a determination condition storage area 132, a user reflection avatar information storage area 133, and a virtual person information storage area 134. The evaluation control program storage area 131 stores an evaluation control program executed by the CPU 11. The evaluation control device 1 executes an evaluation control process to be described later by executing an evaluation control program by the CPU 11. The determination condition storage area 132 stores determination conditions used for the determination process in the evaluation control process. Details of the determination condition will be described in detail in an evaluation control process described later. The determination process stored in the determination condition storage area 132 is used for a first bone determination process and a second bone determination process described later.

ユーザ反映アバタ情報記憶領域133には、ユーザ反映アバタ情報が記憶される。ユーザ反映アバタ情報は、図1(B)および図1(D)のアバタA1に示すように、ユーザU1の身体部位の位置を反映したアバタ画像をディスプレイ5に表示するための情報である。ユーザ反映アバタ情報には、例えば、キャラクタや動物を模した画像データであって、ヒトの身体部位に対応するパーツごとに分割されてなる画像データが、パーツ画像として含まれる。評価制御装置1は、CPU11により実行される評価制御処理において、ユーザU1の身体を、ユーザ反映アバタ情報のパーツ画像を組み合わせて再現し、且つ、状態検知装置2により検知したユーザU1の身体部位の位置を、ユーザU1の身体を再現するパーツ画像の位置に反映して作成したアバタ画像を、ディスプレイ5に表示させる。   The user reflection avatar information storage area 133 stores user reflection avatar information. The user reflected avatar information is information for displaying on the display 5 an avatar image reflecting the position of the body part of the user U1, as shown in an avatar A1 in FIGS. 1B and 1D. The user reflected avatar information includes, for example, image data imitating a character or an animal and divided into parts corresponding to human body parts as part images. In the evaluation control process executed by the CPU 11, the evaluation control device 1 reproduces the body of the user U1 by combining the part images of the user reflected avatar information and detects the body part of the user U1 detected by the state detection device 2. An avatar image created by reflecting the position on the position of the part image that reproduces the body of the user U1 is displayed on the display 5.

バーチャル人物情報記憶領域134には、バーチャル人物情報が記憶される。バーチャル人物情報は、図1(C)および図1(D)のバーチャル人物V2に示すような仮想人物画像をディスプレイ5に表示するための情報である。仮想人物画像とは、実在するユーザを反映しない仮想人物を示す画像である。仮想人物画像には、仮想人物の身体部位の位置情報と、表示タイミングとが対応付けて記憶される。表示タイミングは、例えば、仮想人物画像をバーチャル人物V2として、表示を開始してからの経過時間を示す情報である。これにより、仮想人物であるバーチャル人物V2の身体部位の位置の遷移を特定することが可能である。CPU11は、時間情報の遷移に沿って、身体部位の位置の遷移を表す仮想人物画像を、バーチャル人物V2としてディスプレイ5に表示する。バーチャル人物情報記憶領域143には、複数種類のバーチャル人物情報が記憶されてもよい。   Virtual person information is stored in the virtual person information storage area 134. The virtual person information is information for displaying a virtual person image as shown by the virtual person V2 in FIGS. 1C and 1D on the display 5. A virtual person image is an image showing a virtual person that does not reflect a real user. In the virtual person image, the position information of the body part of the virtual person and the display timing are stored in association with each other. The display timing is, for example, information indicating an elapsed time from the start of display with the virtual person image as the virtual person V2. Thereby, the transition of the position of the body part of virtual person V2 which is a virtual person can be specified. CPU11 displays the virtual person image showing the transition of the position of a body part on the display 5 as the virtual person V2 along with the transition of time information. In the virtual person information storage area 143, a plurality of types of virtual person information may be stored.

RAM14は、第1ボーン情報蓄積記憶領域141と、第2ボーン情報蓄積記憶領域142と、第1判定情報記憶領域143と、第2判定情報記憶領域144とを備える。第1ボーン情報蓄積記憶領域141および第2ボーン情報蓄積記憶領域142には、状態検知部2から取得されるユーザの身体部位の位置を示す位置情報と、取得された時間を示す時間情報とが対応付けられて、ボーン情報として記憶される。ユーザの身体部位の位置を示す位置情報は、状態検知部2から定期的に複数回取得される。取得された複数回の身体部位の位置情報は、時間情報と対応付けて、第1ボーン情報蓄積記憶領域141と第2ボーン情報蓄積記憶領域142に、それぞれボーン情報として蓄積される。   The RAM 14 includes a first bone information storage area 141, a second bone information storage area 142, a first determination information storage area 143, and a second determination information storage area 144. In the first bone information storage area 141 and the second bone information storage area 142, position information indicating the position of the user's body part acquired from the state detector 2 and time information indicating the acquired time are stored. Corresponding and stored as bone information. Position information indicating the position of the user's body part is periodically acquired from the state detection unit 2 a plurality of times. The acquired position information of a plurality of body parts is stored as bone information in the first bone information storage area 142 and the second bone information storage area 142 in association with time information.

第1ボーン情報蓄積記憶領域141には、CPU11により評価制御処理が実行されることにより、例えば、図1(A)に示すユーザU1の身体部位の位置を示す位置情報と、位置を取得したときの時間情報とが対応付けられて、第1ボーン情報として記憶される。あるいは、図1(B)および図1(D)に示すようにディスプレイ5にユーザU1の身体部位の位置を反映したアバタA1が表示されるとき、第1ボーン情報蓄積記憶領域141には、アバタA1のパーツ画像が表示されるディスプレイ5上で、パーツ画像に含まれる身体部位の表示位置を示す情報と、ディスプレイ5にそのパーツ画像が表示されるときの時間情報とが対応付けられて、第1ボーン情報として記憶されてもよい。   In the first bone information storage area 141, when the CPU 11 executes the evaluation control process, for example, the position information indicating the position of the body part of the user U1 shown in FIG. 1A and the position are acquired. Are associated with each other and stored as first bone information. Alternatively, as shown in FIGS. 1B and 1D, when the avatar A1 reflecting the position of the body part of the user U1 is displayed on the display 5, the first bone information accumulation storage area 141 has an avatar. On the display 5 on which the part image of A1 is displayed, information indicating the display position of the body part included in the part image is associated with time information when the part image is displayed on the display 5, It may be stored as 1-bone information.

第2ボーン情報蓄積記憶領域142には、CPU11により評価制御処理が実行されることにより、例えば、図1(A)に示すユーザU2の身体部位の位置を示す位置情報と、位置を取得したときの時間情報とが対応付けられて、第2ボーン情報として記憶される。あるいは、図1(B)に示すようにディスプレイ5にユーザU2の身体部位の位置を反映したアバタA2が表示されるとき、第2ボーン情報蓄積記憶領域142には、アバタA2のパーツ画像が表示されるディスプレイ5上で、パーツ画像に含まれる身体部位の表示位置を示す情報と、ディスプレイ5にそのパーツ画像が表示されるときの時間情報とが対応付けられて、第2ボーン情報として記憶されてもよい。あるいは、図1(C)および図1(D)に示すようにディスプレイ5にバーチャル人物V2が表示されるとき、第2ボーン情報蓄積記憶領域142には、仮想人物画像として対応付けられている仮想人物の身体部位の位置情報から定められる表示位置であって、バーチャル人物V2を示す仮想人物画像が表示されるディスプレイ5上の表示位置を示す情報と、ディスプレイ5にその仮想人物画像が表示されるときの時間情報とが対応付けられて、第2ボーン情報として記憶されてもよい。   When the CPU 11 executes the evaluation control process in the second bone information storage area 142, for example, the position information indicating the position of the body part of the user U2 shown in FIG. 1A and the position are acquired. Are associated with each other and stored as second bone information. Alternatively, as shown in FIG. 1B, when the avatar A2 reflecting the position of the body part of the user U2 is displayed on the display 5, the part image of the avatar A2 is displayed in the second bone information storage area 142. Information indicating the display position of the body part included in the part image is associated with time information when the part image is displayed on the display 5 and stored as second bone information. May be. Alternatively, as shown in FIG. 1C and FIG. 1D, when the virtual person V2 is displayed on the display 5, the virtual corresponding to the virtual person image is stored in the second bone information storage area 142. Information indicating the display position on the display 5 on which the virtual person image indicating the virtual person V2 is displayed, and the virtual person image is displayed on the display 5, which is a display position determined from the position information of the body part of the person. Time information may be associated with each other and stored as second bone information.

第1判定情報記憶領域143および第2判定情報記憶領域144には、CPU11により実行される評価制御処理の第1ボーン判定処理および第2ボーン判定処理により判定される判定結果が記憶される。判定結果の詳細は後述する。第1判定情報記憶領域143には、第1ボーン判定処理により判定される判定結果が記憶される。第2判定情報記憶領域144には、第2ボーン判定処理により判定される判定結果が記憶される。   In the first determination information storage area 143 and the second determination information storage area 144, determination results determined by the first bone determination process and the second bone determination process of the evaluation control process executed by the CPU 11 are stored. Details of the determination result will be described later. In the first determination information storage area 143, the determination result determined by the first bone determination process is stored. In the second determination information storage area 144, the determination result determined by the second bone determination process is stored.

[評価制御装置1の動作の説明]
本実施形態の評価制御装置1の動作および作用について、図3〜図6を参照して説明する。図3、図4(A)〜図4(C)は、評価制御装置1の動作の処理手順を示すフローチャートである。図3は、評価制御装置1のCPU11により実行される評価制御プログラムの評価制御処理の処理手順を示すフローチャートである。図4(A)、図4(B)、図4(C)は、それぞれ評価制御処理に評価制御プログラム含まれるユーザ検出処理、第1ボーン判定処理、第2ボーン判定処理の処理手順を示すサブフローチャートである。図5(A)〜図5(C)は、図4(B)に示す第1ボーン判定処理および図4(C)に示す第2ボーン判定処理に用いられる判定条件を説明する説明図である。図5(A)〜図5(C)に示す各判定条件は、ROM13の判定条件記憶領域132に記憶される。図6(A)〜図6(B)は、第1ボーン判定処理および第2ボーン判定処理により判定された判定結果が記憶される判定結果テーブルを示す図である。図6(C)は、評価制御処理において、第1ボーン情報または第2ボーン情報について判定結果から比率算出が行われた算出結果テーブルを示す図である。第1ボーン判定処理により判定された判定結果が記憶される判定結果テーブルおよび第1ボーン情報が対応する算出結果テーブルは、RAM14の第1判定情報記憶領域143に記憶される。第2ボーン判定処理により判定された判定結果が記憶される判定結果テーブルおよび第2ボーン情報が対応する算出結果テーブルは、RAM14の第2判定情報記憶領域144に記憶される。
[Description of Operation of Evaluation Control Device 1]
The operation and action of the evaluation control apparatus 1 of the present embodiment will be described with reference to FIGS. 3 and 4A to 4C are flowcharts showing the processing procedure of the operation of the evaluation control device 1. FIG. FIG. 3 is a flowchart showing the processing procedure of the evaluation control process of the evaluation control program executed by the CPU 11 of the evaluation control device 1. 4 (A), 4 (B), and 4 (C) are sub views showing the processing procedures of the user detection process, the first bone determination process, and the second bone determination process, respectively, included in the evaluation control program in the evaluation control process. It is a flowchart. FIG. 5A to FIG. 5C are explanatory diagrams for explaining determination conditions used in the first bone determination process shown in FIG. 4B and the second bone determination process shown in FIG. 4C. . Each determination condition shown in FIGS. 5A to 5C is stored in the determination condition storage area 132 of the ROM 13. FIGS. 6A to 6B are diagrams illustrating a determination result table in which the determination results determined by the first bone determination process and the second bone determination process are stored. FIG. 6C is a diagram illustrating a calculation result table in which the ratio calculation is performed from the determination result for the first bone information or the second bone information in the evaluation control process. A determination result table storing the determination result determined by the first bone determination process and a calculation result table corresponding to the first bone information are stored in the first determination information storage area 143 of the RAM 14. The determination result table storing the determination result determined by the second bone determination process and the calculation result table corresponding to the second bone information are stored in the second determination information storage area 144 of the RAM 14.

図3を用いて、評価制御処理の処理手順を説明する。図3に示す評価制御処理は、評価制御装置1の電源がONされたとき、CPU11によって評価制御プログラムが実行されることにより開始される。   The procedure of the evaluation control process will be described with reference to FIG. The evaluation control process shown in FIG. 3 is started when the evaluation control program is executed by the CPU 11 when the power supply of the evaluation control apparatus 1 is turned on.

評価制御装置1の電源がONされると、ステップS10が実行される。ステップS10では、図4(A)に示すステップS102〜ステップS124のユーザ検出処理が実行される。図4(A)に示すユーザ検出処理のステップS102では、1人目のユーザが検出されたか否かが判断される。ステップS102では、例えば、所定の第1の恰好をしたユーザの位置情報を、状態検知装置2から受信したとき、1人目のユーザが検出されたと判断される。1人目のユーザが検出されたと判断されたとき(S102:YES)、判断された以降で、判断されたユーザをユーザU1と特定して身体部位の位置情報によるユーザU1の検出が継続して行われる。1人目のユーザが検出されたと判断されないとき(S102:NO)、ステップS102の処理が繰り返し実行される。   When the evaluation control apparatus 1 is powered on, step S10 is executed. In step S10, the user detection process in steps S102 to S124 shown in FIG. 4A is executed. In step S102 of the user detection process shown in FIG. 4A, it is determined whether or not the first user has been detected. In step S102, for example, when the position information of the user who has performed the predetermined first preference is received from the state detection device 2, it is determined that the first user has been detected. When it is determined that the first user has been detected (S102: YES), after the determination is made, the determined user is identified as the user U1, and the user U1 is continuously detected based on the position information of the body part. Is called. When it is not determined that the first user has been detected (S102: NO), the process of step S102 is repeatedly executed.

ステップS104では、ユーザU1を示す画像をディスプレイ5に表示する設定がされたか否かが判断される。ステップS104では、例えば、ステップS102において特定したユーザU1が所定の第2の恰好をしたことを示すユーザの位置情報、またはユーザU1による画像を表示する指示を示す情報を受信することにより、ユーザU1を示す画像をディスプレイ5に表示する設定がされたと判断される。あるいは、評価制御装置1を利用するいずれかのユーザにより予め設定された設定情報または評価制御装置1のカメラ機能の有無に応じて設定された設定情報を取得して判断されるものであってもよい。ユーザU1を示す画像をディスプレイ5に表示する設定がされたと判断されるとき(S104:YES)、ステップS106の処理が実行される。ユーザU1を示す画像をディスプレイ5に表示する設定がされたと判断されないとき(S104:NO)、ステップS112の処理が実行される。   In step S104, it is determined whether or not an image indicating the user U1 has been set to be displayed on the display 5. In step S104, for example, the user U1 specified in step S102 receives the user position information indicating that the user U1 has performed the predetermined second preference, or information indicating an instruction to display an image by the user U1, thereby receiving the user U1. It is determined that the setting for displaying the image indicating is on the display 5 has been made. Alternatively, it may be determined by acquiring setting information set in advance by any user using the evaluation control device 1 or setting information set according to the presence or absence of the camera function of the evaluation control device 1. Good. When it is determined that the image indicating the user U1 is set to be displayed on the display 5 (S104: YES), the process of step S106 is executed. When it is not determined that the image indicating the user U1 is set to be displayed on the display 5 (S104: NO), the process of step S112 is executed.

ステップS106では、ユーザU1の身体部位の位置を反映したアバタ画像をディスプレイ5に表示する設定がされたか否かが判断される。ステップS106では、例えば、ステップS102において特定したユーザU1が所定の第3の恰好をしたことを示すユーザの位置情報、またはユーザU1によるアバタ画像を表示する指示を示す情報を受信することにより、ユーザU1の身体部位の位置を反映したアバタ画像をディスプレイ5に表示する設定がされたと判断される。あるいは、評価制御装置1を利用するいずれかのユーザにより予め設定された設定情報または評価制御装置1の機能に応じて設定された設定情報を取得して判断されるものであってもよい。ユーザU1の身体部位の位置を反映したアバタ画像をディスプレイ5に表示する設定がされたと判断されるとき(S106:YES)、ステップS110の処理が実行される。ユーザU1の身体部位の位置を反映したアバタ画像をディスプレイ5に表示する設定がされたと判断されないとき(S106:NO)、ステップS108の処理が実行される。   In step S106, it is determined whether or not an avatar image reflecting the position of the body part of the user U1 is set to be displayed on the display 5. In step S106, for example, the user U1 specified in step S102 receives the user position information indicating that the user U1 has performed the predetermined third appearance, or information indicating an instruction to display an avatar image by the user U1, thereby receiving the user. It is determined that the avatar image reflecting the position of the body part of U1 is set to be displayed on the display 5. Alternatively, it may be determined by acquiring setting information set in advance by any user using the evaluation control device 1 or setting information set according to the function of the evaluation control device 1. When it is determined that the avatar image reflecting the position of the body part of the user U1 is set to be displayed on the display 5 (S106: YES), the process of step S110 is executed. When it is not determined that the avatar image that reflects the position of the body part of the user U1 is displayed on the display 5 (S106: NO), the process of step S108 is executed.

ステップS108では、状態検知装置2のカメラ機能により撮影されたユーザU1の画像を第1ユーザの画像としてディスプレイ5に表示させる処理が行われる。ステップS108が実行されることにより、ディスプレイ5に表示される第1ユーザの画像は、状態検知装置2から撮影画像を受信する度に更新される。ステップS110では、状態検出装置2から受信したユーザU1の位置情報の各身体部位に対応するパーツ画像を、ROM13のユーザ反映アバタ情報記憶領域133から読み出し、状態検出装置2から受信した位置情報の各身体部位と対応付けられた座標情報を反映して作成したアバタ画像が、ディスプレイ5に表示される。   In step S108, a process of displaying the image of the user U1 captured by the camera function of the state detection device 2 on the display 5 as the image of the first user is performed. By executing step S108, the image of the first user displayed on the display 5 is updated each time a captured image is received from the state detection device 2. In step S110, the part image corresponding to each body part of the position information of the user U1 received from the state detection device 2 is read from the user reflection avatar information storage area 133 of the ROM 13, and each position information received from the state detection device 2 is read. An avatar image created by reflecting the coordinate information associated with the body part is displayed on the display 5.

ステップS112では、図1(C)および図1(D)のバーチャル人物V2に示すような仮想人物画像をディスプレイ5に表示する設定がされているか否かが判断される。ステップS112では、例えば、ユーザU1による、仮想人物画像をディスプレイ5に表示する指示を示す情報を受信することにより、仮想人物画像をディスプレイ5に表示する設定がされたと判断される。あるいは、評価制御装置1を利用するいずれかのユーザにより予め設定された設定情報または評価制御装置1の機能に応じて設定された設定情報を取得して判断されるものであってもよい。仮想人物画像をディスプレイ5に表示する設定がされていると判断されたとき(ステップS112:YES)、ステップS114の処理が実行される。仮想人物画像をディスプレイ5に表示する設定がされていると判断されないとき(ステップS112:NO)、ステップS116の処理が実行される。ステップS114では、ROM13のバーチャル人物情報記憶領域134に記憶されている仮想人物画像が、対応付けられた時間情報に従ってディスプレイ5に表示される。   In step S112, it is determined whether or not a setting for displaying a virtual person image as shown by the virtual person V2 in FIGS. 1C and 1D on the display 5 is made. In step S112, for example, by receiving information indicating an instruction to display the virtual person image on the display 5 by the user U1, it is determined that the setting for displaying the virtual person image on the display 5 has been made. Alternatively, it may be determined by acquiring setting information set in advance by any user using the evaluation control device 1 or setting information set according to the function of the evaluation control device 1. When it is determined that the virtual person image is set to be displayed on the display 5 (step S112: YES), the process of step S114 is executed. When it is not determined that the virtual person image is set to be displayed on the display 5 (step S112: NO), the process of step S116 is executed. In step S114, the virtual person image stored in the virtual person information storage area 134 of the ROM 13 is displayed on the display 5 according to the associated time information.

ステップS116では、2人目のユーザが検出されたか否かが判断される。ステップS116では、1人目のユーザが検出されたと判断され、1人目のユーザとして検出したユーザU1の検出が継続されているとき、ユーザU1とは異なる所定の第1の恰好をしたユーザの位置情報を、新たに状態検知装置2から受信したとき、2人目のユーザが検出されたと判断される。2人目のユーザが検出されたと判断されたとき(S116:YES)、判断された以降で、判断された新たなユーザをユーザU2と特定して身体部位の位置情報によるユーザU2の検出が継続して行われる。2人目のユーザが検出されたと判断されないとき(S102:NO)、ステップS116の処理が繰り返し実行される。   In step S116, it is determined whether or not a second user has been detected. In step S116, when it is determined that the first user is detected and the detection of the user U1 detected as the first user is continued, the position information of the user who has a predetermined first preference different from the user U1. Is newly received from the state detection device 2, it is determined that the second user has been detected. When it is determined that the second user has been detected (S116: YES), after the determination, the determined new user is identified as the user U2, and the detection of the user U2 based on the position information of the body part is continued. Done. When it is not determined that the second user has been detected (S102: NO), the process of step S116 is repeatedly executed.

ステップS118では、ユーザU2を示す画像をディスプレイ5に表示する設定がされたか否かが判断される。ステップS118では、例えば、ステップS116において特定したユーザU2が所定の第2の恰好をしたことを示すユーザの位置情報、またはユーザU2による画像を表示する指示を示す情報を受信することにより、ユーザU2を示す画像をディスプレイ5に表示する設定がされたと判断される。あるいは、評価制御装置1を利用するいずれかのユーザにより予め設定された設定情報または評価制御装置1のカメラ機能の有無に応じて設定された設定情報を取得して判断されるものであってもよい。ユーザU2を示す画像をディスプレイ5に表示する設定がされたと判断されるとき(S118:YES)、ステップS118の処理が実行される。ユーザU1を示す画像をディスプレイ5に表示する設定がされたと判断されないとき(S118:NO)、ユーザ検出処理が終了される。   In step S118, it is determined whether or not an image indicating the user U2 has been set to be displayed on the display 5. In step S118, for example, by receiving the user's location information indicating that the user U2 specified in step S116 has performed the predetermined second preference, or information indicating an instruction to display an image by the user U2, the user U2 It is determined that the setting for displaying the image indicating is on the display 5 has been made. Alternatively, it may be determined by acquiring setting information set in advance by any user using the evaluation control device 1 or setting information set according to the presence or absence of the camera function of the evaluation control device 1. Good. When it is determined that the image indicating the user U2 is set to be displayed on the display 5 (S118: YES), the process of step S118 is executed. When it is not determined that an image indicating the user U1 is set to be displayed on the display 5 (S118: NO), the user detection process is terminated.

ステップS120では、ユーザU2の身体部位の位置を反映したアバタ画像をディスプレイ5に表示する設定がされたか否かが判断される。ステップS120では、例えば、ステップS116において特定したユーザU2が所定の第3の恰好をしたことを示すユーザの位置情報、またはユーザU2によるアバタ画像を表示する指示を示す情報を受信することにより、ユーザU2の身体部位の位置を反映したアバタ画像をディスプレイ5に表示する設定がされたと判断される。あるいは、評価制御装置1を利用するいずれかのユーザにより予め設定された設定情報または評価制御装置1の機能に応じて設定された設定情報を取得して判断されるものであってもよい。ユーザU2の身体部位の位置を反映したアバタ画像をディスプレイ5に表示する設定がされたと判断されるとき(S120:YES)、ステップS124の処理が実行される。ユーザU2の身体部位の位置を反映したアバタ画像をディスプレイ5に表示する設定がされたと判断されないとき(S120:NO)、ステップS122の処理が実行される。   In step S120, it is determined whether or not the avatar image reflecting the position of the body part of the user U2 is set to be displayed on the display 5. In step S120, for example, the user U2 specified in step S116 receives the user's position information indicating that the user has performed the predetermined third appearance, or information indicating an instruction to display an avatar image by the user U2, thereby receiving the user. It is determined that the avatar image reflecting the position of the body part of U2 is set to be displayed on the display 5. Alternatively, it may be determined by acquiring setting information set in advance by any user using the evaluation control device 1 or setting information set according to the function of the evaluation control device 1. When it is determined that the avatar image reflecting the position of the body part of the user U2 is set to be displayed on the display 5 (S120: YES), the process of step S124 is executed. When it is not determined that the avatar image reflecting the position of the body part of the user U2 is set on the display 5 (S120: NO), the process of step S122 is executed.

ステップS122では、状態検知装置2のカメラ機能により撮影されたユーザU2の画像を第2ユーザの画像としてディスプレイ5に表示させる処理が行われる。ステップS122が実行されることにより、ディスプレイ5に表示される第2ユーザの画像は、状態検知装置2から撮影画像を受信する度に更新される。ステップS124では、状態検知装置2から送信されるユーザの身体部位の位置を示す位置情報に従って、ユーザU2の身体部位の位置を、ROM13のユーザ反映アバタ情報記憶領域133に記憶されたパーツ画像の位置に反映して作成したアバタ画像が、ディスプレイ5に表示される。   In step S122, the process of displaying the image of the user U2 captured by the camera function of the state detection device 2 on the display 5 as the image of the second user is performed. By executing step S122, the image of the second user displayed on the display 5 is updated every time a captured image is received from the state detection device 2. In step S124, according to the position information indicating the position of the user's body part transmitted from the state detection device 2, the position of the body part of the user U2 is stored in the position of the part image stored in the user reflected avatar information storage area 133 of the ROM 13. The avatar image created by reflecting the above is displayed on the display 5.

ステップS118においてユーザU1を示す画像をディスプレイ5に表示する設定がされたと判断されないとき、ステップS122によりユーザU2の画像がディスプレイ5に表示さされるとき、またはステップS124によりユーザU2の身体部位の位置をパーツ画像の位置に反映して作成したアバタ画像がディスプレイ5に表示されるとき、ユーザ検出処理が終了される。ユーザ検出処理が終了されると、図3に示す評価制御処理のステップS12の処理が実行される。   When it is not determined in step S118 that the image indicating the user U1 is displayed on the display 5, the image of the user U2 is displayed on the display 5 in step S122, or the position of the body part of the user U2 is determined in step S124. When the avatar image created by reflecting the position of the part image is displayed on the display 5, the user detection process is terminated. When the user detection process is finished, the process of step S12 of the evaluation control process shown in FIG. 3 is executed.

ステップS12では、カラオケ装置3によるカラオケ楽曲の再生が開始されたか否かが判断される。ステップS12では、カラオケ装置3からカラオケ楽曲の再生開始が通知されたと判断したとき、カラオケ楽曲の再生が開始されたと判断され(S12:YES)、ステップS14の処理が実行される。ステップS12では、カラオケ装置3からカラオケ楽曲の再生開始が通知されたと判断しないとき、カラオケ楽曲の再生が開始されたと判断されず(S12:NO)、ステップS12の処理が繰り返し実行される。   In step S12, it is determined whether or not the karaoke device 3 has started playing karaoke music. In step S12, when it is determined that the start of reproduction of karaoke music has been notified from the karaoke apparatus 3, it is determined that reproduction of karaoke music has been started (S12: YES), and the process of step S14 is executed. In step S12, when it is not determined that the karaoke device 3 has started the reproduction of karaoke music, it is not determined that the reproduction of karaoke music has been started (S12: NO), and the process of step S12 is repeatedly executed.

ステップS14では、ステップS12においてカラオケ楽曲の再生が開始されたと判断されてから、状態検知装置2により検知されたユーザの身体部位の位置情報が、取得された時間情報と対応付けて記憶される。具体的には、ユーザ検出処理により検出され、1人目のユーザと特定されたユーザU1について、ステップS12においてカラオケ楽曲の再生が開始されたと判断されてから、状態検出装置2から受信した位置情報である頭、首、右肩、左肩のいずれかの身体部位および各身体部位の位置を示す座標情報(x座標,y座標,z座標)と、位置情報を取得したときの時間情報とを、第1ボーン情報として、第1ボーン情報蓄積記憶領域141に記憶する。または、図1(B)および図1(D)のアバタA1のように、ユーザU1の身体部位の位置を反映して作成したアバタA1に示すアバタ画像をディスプレイ5に表示させる場合は、状態検出装置2から受信した位置情報の座標情報に代えて、ステップS108の処理により作成されたアバタ画像に含まれる各身体部位に対応するパーツ画像が、ディスプレイ5上で表示される位置を示す表示上の座標情報を、時間情報と対応付けて、第1ボーン情報として第1ボーン情報蓄積記憶手段141に記憶してもよい。このとき、時間情報は、状態検出装置2から受信した位置情報を取得したときの時間情報または作成したアバタ画像をディスプレイ5に表示させるときの時間情報である。   In step S14, the position information of the user's body part detected by the state detection device 2 after it is determined in step S12 that the reproduction of the karaoke music has been started is stored in association with the acquired time information. Specifically, for the user U1 detected by the user detection process and identified as the first user, the position information received from the state detection device 2 after it is determined in step S12 that the reproduction of karaoke music has started. Coordinate information (x coordinate, y coordinate, z coordinate) indicating the position of each body part and any body part of a certain head, neck, right shoulder, left shoulder, and time information when the position information is acquired, The first bone information is stored in the first bone information storage area 141 as 1 bone information. Alternatively, when the avatar image shown in the avatar A1 created by reflecting the position of the body part of the user U1 is displayed on the display 5 like the avatar A1 in FIGS. Instead of the coordinate information of the position information received from the apparatus 2, the part image corresponding to each body part included in the avatar image created by the process of step S108 is displayed on the display indicating the position where the part image is displayed on the display 5. The coordinate information may be stored in the first bone information storage unit 141 as the first bone information in association with the time information. At this time, the time information is time information when the position information received from the state detection device 2 is acquired or time information when the created avatar image is displayed on the display 5.

さらに、ステップS14では、ユーザ検出処理により2人目のユーザと特定されたユーザU2について、ステップS12においてカラオケ楽曲の再生が開始されたと判断されてから、状態検出装置2から受信した位置情報である頭、首、右肩、左肩のいずれかの身体部位および各身体部位の位置を示す座標情報(x座標,y座標,z座標)と、位置情報を取得したときの時間情報とを、第2ボーン情報として、第2ボーン情報蓄積記憶領域142に記憶する。または、第1ボーン情報と同様に、図1(B)および図1(D)のアバタA1のように、ユーザU1の身体部位の位置を反映して作成したアバタA1に示すアバタ画像をディスプレイ5に表示させる場合は、作成されたアバタ画像に含まれる各身体部位に対応するパーツ画像が、ディスプレイ5上で表示される位置を示す表示上の座標情報を、時間情報と対応付けて、第2ボーン情報として第2ボーン情報蓄積記憶手段142に記憶してもよい。   Furthermore, in step S14, for the user U2 identified as the second user by the user detection process, the head which is the positional information received from the state detection device 2 after it is determined in step S12 that the reproduction of karaoke music has been started. , The body part of any one of the neck, right shoulder, and left shoulder, and coordinate information (x coordinate, y coordinate, z coordinate) indicating the position of each body part, and time information when the position information is acquired, the second bone The information is stored in the second bone information storage area 142 as information. Alternatively, similarly to the first bone information, the avatar image shown in the avatar A1 created by reflecting the position of the body part of the user U1 is displayed on the display 5 like the avatar A1 in FIGS. 1B and 1D. If the part image corresponding to each body part included in the created avatar image is displayed on the display 5, the coordinate information on the display indicating the position displayed on the display 5 is associated with the time information, You may memorize | store in the 2nd bone information storage storage means 142 as bone information.

また、ステップS14における第2ボーン情報の別の例として、ユーザ検出処理においてディスプレイ5に仮想人物画像を表示する設定がされているときの図1(C)および図1(D)のバーチャル人物V2について、ステップS12においてカラオケ楽曲の再生が開始されたと判断されてから、バーチャル人物V2を示す仮想人物画像がディスプレイ5に表示されたときの仮想人物画像に対応付けてバーチャル人物情報記憶領域134に記憶されている仮想人物の身体部位の位置情報と、表示されたときの時間情報とを、第2ボーン情報として、第2ボーン情報蓄積記憶領域142に記憶するものであってもよい。表示されたときの時間情報は、バーチャル人物情報記憶領域134に、身体情報の位置情報対応付けて記憶されている表示タイミングから算出されるものであってもよい。   As another example of the second bone information in step S14, the virtual person V2 shown in FIGS. 1C and 1D when the user detection process is set to display a virtual person image. Since it is determined in step S12 that the reproduction of the karaoke music has been started, the virtual person image indicating the virtual person V2 is stored in the virtual person information storage area 134 in association with the virtual person image when displayed on the display 5. The position information of the body part of the virtual person being displayed and the time information when the virtual person is displayed may be stored in the second bone information storage area 142 as second bone information. The time information when displayed may be calculated from the display timing stored in the virtual person information storage area 134 in association with the position information of the physical information.

ステップS16では、ステップS12で再生が開始されたカラオケ楽曲の再生がカラオケ装置3により終了されたか否かが判断される。ステップS16では、カラオケ装置3からカラオケ楽曲の再生終了が通知されたと判断したとき、カラオケ楽曲の再生が終了されたと判断され(S16:YES)、ステップS18の処理が実行される。ステップS18では、カラオケ装置3からカラオケ楽曲の再生終了が通知されたと判断しないとき、カラオケ楽曲の再生が終了されたと判断されず(S16:NO)、ステップS14の処理が繰り返し実行される。ステップS14では、ステップS16においてカラオケ楽曲の再生が終了されたと判断されるまで、第1ボーン情報および第2ボーン情報が、それぞれ第1ボーン情報蓄積記憶領域141および第2ボーン情報蓄積記憶領域142に繰り返し記憶される。   In step S16, it is determined whether or not the karaoke apparatus 3 has finished reproducing the karaoke music that has been reproduced in step S12. In step S16, when it is determined that the end of reproduction of the karaoke music has been notified from the karaoke apparatus 3, it is determined that the reproduction of the karaoke music has been completed (S16: YES), and the process of step S18 is executed. In step S18, when it is not determined that the karaoke song 3 has been notified of the end of reproduction of karaoke music, it is not determined that the reproduction of karaoke music has been completed (S16: NO), and the process of step S14 is repeatedly executed. In step S14, the first bone information and the second bone information are stored in the first bone information accumulation storage area 141 and the second bone information accumulation storage area 142, respectively, until it is determined in step S16 that the reproduction of the karaoke music piece is finished. It is memorized repeatedly.

ステップS18では、第1ボーン判定処理が行われる。ステップS18の第1ボーン判定処理に続くステップS20では、第2ボーン判定処理が行われる。第1ボーン判定処理は、図4(B)に示すステップS182〜ステップS194の処理が行われる。第1ボーン判定処理では、第1ボーン情報蓄積記憶領域141に記憶されたカラオケ楽曲の再生開始から再生終了までの第1ボーン情報が繰り返し読み出され、判定される。第2ボーン判定処理は、図4(C)に示すステップS202〜ステップS214の処理が行われる。第2ボーン判定処理では、第2ボーン情報蓄積記憶領域142に記憶されたカラオケ楽曲の再生開始から再生終了までの第2ボーン情報が繰り返し読み出され、判定される。第1ボーン判定処理のステップS182〜ステップS186の処理と、第2ボーン判定処理のステップS202〜ステップS206の処理とは、処理が同一であり、第1ボーン判定処理のステップS188〜ステップS194の処理と、第2ボーン判定処理のステップS208〜ステップS214の処理とは、処理内容が対応するため、以下では、第1ボーン判定処理および第2ボーン判定処理の各処理の詳細を並行して説明する。   In step S18, a first bone determination process is performed. In step S20 following the first bone determination process in step S18, a second bone determination process is performed. In the first bone determination process, the processes in steps S182 to S194 shown in FIG. 4B are performed. In the first bone determination process, the first bone information from the start of playback to the end of playback of karaoke music stored in the first bone information storage area 141 is repeatedly read and determined. In the second bone determination process, the processes in steps S202 to S214 shown in FIG. 4C are performed. In the second bone determination process, the second bone information from the start of playback to the end of playback of the karaoke music stored in the second bone information storage area 142 is repeatedly read and determined. The processes of steps S182 to S186 of the first bone determination process and the processes of steps S202 to S206 of the second bone determination process are the same, and the processes of steps S188 to S194 of the first bone determination process are the same. Since the processing contents correspond to the processing of step S208 to step S214 of the second bone determination process, details of the first bone determination process and the second bone determination process will be described below in parallel. .

ステップS182およびステップS202では、第1ボーン情報蓄積記憶領域141に記憶された第1ボーン情報のうち、より早い時間情報が対応付けられている第1ボーン情報の位置情報が読み出される。ステップS184ステップS204では、第2ボーン情報蓄積記憶領域141に記憶された第2ボーン情報のうち、ステップS182およびステップS202において読み出された第1ボーン情報の時間情報と同じまたは近い時間情報が対応付けられている第2ボーン情報の位置情報が読み出される。ステップS182およびステップS202では第1ボーン情報として、ステップS184およびステップS204では第2ボーン情報として、1つの時間情報ごとに、同一の時間情報が対応付けられた複数の身体部位についての位置情報が読み出される。例えば、同一の時間情報が対応付けられた頭、首、左肩、右肩のそれぞれの位置を示す各座標情報が、第1ボーン情報および第2ボーン情報として読み出される。   In steps S182 and S202, the position information of the first bone information associated with earlier time information among the first bone information stored in the first bone information storage area 141 is read. In step S184, in step S204, time information that is the same as or close to the time information of the first bone information read in steps S182 and S202 among the second bone information stored in the second bone information storage area 141 corresponds. The position information of the attached second bone information is read out. In step S182 and step S202, position information about a plurality of body parts associated with the same time information is read for each piece of time information as first bone information and in step S184 and step S204 as second bone information. It is. For example, coordinate information indicating the positions of the head, neck, left shoulder, and right shoulder associated with the same time information is read as first bone information and second bone information.

ステップS186〜ステップS190の処理、およびステップS206〜ステップS210の処理では、それぞれステップS182およびステップS184と,ステップS202およびステップS204において読み出された同一の第1ボーン情報および第2ボーン情報について判定処理が行われる。ステップS186〜ステップS190の処理およびステップS206〜ステップS210では、ステップS182およびステップS202において読み出された第1ボーン情報の座標情報と、ステップS184およびステップS208において読み出された第2ボーン情報の座標情報とを比較することにより、判定処理が行われる。   In the processing from step S186 to step S190 and the processing from step S206 to step S210, the determination processing is performed for the same first bone information and second bone information read in steps S182 and S184, and steps S202 and S204, respectively. Is done. In steps S186 to S190 and steps S206 to S210, the coordinate information of the first bone information read in steps S182 and S202 and the coordinates of the second bone information read in steps S184 and S208. A determination process is performed by comparing the information.

ステップS186およびステップS206では、第1ボーン情報と第2ボーン情報との距離が、図5(A)に示す判定条件に従って判定される。図5(A)は、ROM13の判定条件記憶領域132に記憶された距離判定条件および条件に応じた距離算出式を示す図である。ステップS186およびステップS206では、ステップS182およびステップS202において読み出された第1ボーン情報の座標情報と、ステップS184およびステップS204において読み出された第2ボーン情報の座標情報とを比較し、図5(A)に示す判定条件に従って距離が判定される。   In step S186 and step S206, the distance between the first bone information and the second bone information is determined according to the determination condition shown in FIG. FIG. 5A is a diagram illustrating the distance determination condition stored in the determination condition storage area 132 of the ROM 13 and a distance calculation formula corresponding to the condition. In steps S186 and S206, the coordinate information of the first bone information read in steps S182 and S202 is compared with the coordinate information of the second bone information read in steps S184 and S204, and FIG. The distance is determined according to the determination condition shown in (A).

より具体的には、ステップS186およびステップS206では、第1ボーン情報をAとして、第1ボーン情報のうち右肩のx座標を右肩Ax、左肩のx座標を左肩Axとし、右肩のz座標を右肩Az、左肩のz座標を左肩Azとする。第2ボーン情報をBとして、第2ボーン情報のうち右肩のx座標を右肩Bx、左肩のx座標を左肩Bxとし、右肩のz座標を右肩Bz、左肩のz座標を左肩Bzとする。   More specifically, in steps S186 and S206, the first bone information is A, the right shoulder x coordinate of the first bone information is the right shoulder Ax, the left shoulder x coordinate is the left shoulder Ax, and the right shoulder z The coordinates are the right shoulder Az, and the z coordinate of the left shoulder is the left shoulder Az. The second bone information is B, the right shoulder x coordinate of the second bone information is the right shoulder Bx, the left shoulder x coordinate is the left shoulder Bx, the right shoulder z coordinate is the right shoulder Bz, and the left shoulder z coordinate is the left shoulder Bz. And

ステップS186およびステップS206では、図5(A)の距離条件に示すように左肩Axと左肩Bxとを比較し、左肩Ax<左肩Bxであれば、(左肩Bx,左肩Bz)から(右肩Ax,右肩Az)を引いた差分の直線距離を判定距離と定める。左肩Ax>左肩Bxであれば、(左肩Ax,左肩Az)から(右肩Bx,右肩Bz)を引いた差分の直線距離を判定距離と定める。   In step S186 and step S206, as shown in the distance condition of FIG. 5A, the left shoulder Ax and the left shoulder Bx are compared. If left shoulder Ax <left shoulder Bx, (left shoulder Bx, left shoulder Bz) to (right shoulder Ax) , Right shoulder Az) is determined as the determination distance. If left shoulder Ax> left shoulder Bx, a linear distance of a difference obtained by subtracting (right shoulder Bx, right shoulder Bz) from (left shoulder Ax, left shoulder Az) is determined as a determination distance.

ステップS188では、第1ボーン情報の、第2ボーン情報に対する向きが判定される。ステップS208では、第2ボーン情報の、第1ボーン情報に対する向きが判定される。ステップS188およびステップS208による判定は、図5(B)に示す判定条件を用いて行われる。図5(B)は、ROM13の判定条件記憶領域132に記憶された向き判定条件を示す図である。ステップS188およびステップS208では、ステップS182およびステップS202において読み出された第1ボーン情報の座標情報と、ステップS184およびステップS204において読み出された第2ボーン情報の座標情報とを比較し、図5(B)に示す判定条件に従って向きが判定される。   In step S188, the orientation of the first bone information with respect to the second bone information is determined. In step S208, the orientation of the second bone information with respect to the first bone information is determined. The determinations in step S188 and step S208 are performed using the determination conditions shown in FIG. FIG. 5B is a diagram showing the orientation determination conditions stored in the determination condition storage area 132 of the ROM 13. In steps S188 and S208, the coordinate information of the first bone information read in steps S182 and S202 is compared with the coordinate information of the second bone information read in steps S184 and S204, and FIG. The direction is determined according to the determination condition shown in (B).

より具体的には、ステップS188およびステップS208では、第1ボーン情報をAとして、第1ボーン情報のうち左肩のx座標を左肩Axとし、右肩のz座標を右肩Az、左肩のz座標を左肩Azとする。第2ボーン情報をBとして、第2ボーン情報のうち左肩のx座標を左肩Bxとし、右肩のz座標を右肩Bz、左肩のz座標を左肩Bzとする。ステップS188およびステップS208では、図5(B)に示すように向き条件1として、左肩Axと左肩Bxとを比較し、左肩Ax<左肩Bxであるか、左肩Ax>左肩Bxであるかが判定される。   More specifically, in steps S188 and S208, the first bone information is A, the left shoulder x coordinate of the first bone information is the left shoulder Ax, the right shoulder z coordinate is the right shoulder Az, and the left shoulder z coordinate. Is the left shoulder Az. The second bone information is B, the x coordinate of the left shoulder of the second bone information is the left shoulder Bx, the z coordinate of the right shoulder is the right shoulder Bz, and the z coordinate of the left shoulder is the left shoulder Bz. In step S188 and step S208, as shown in FIG. 5B, as the orientation condition 1, the left shoulder Ax and the left shoulder Bx are compared, and it is determined whether the left shoulder Ax <the left shoulder Bx or the left shoulder Ax> the left shoulder Bx. Is done.

ステップS188では、向き条件1にて、左肩Ax<左肩Bxであると判定されたとき、向き条件2として、右肩Azから左肩Azを引いた差分が所定距離以上であるか否か、または左肩Azから右肩Azを引いた差分が所定距離以上であるか否か、が判定される。向き条件1にて、左肩Ax>左肩Bxであると判定されたとき、向き条件2として、左肩Azから右肩Azを引いた差分が所定距離以上であるか否か、または右肩Azから左肩Azを引いた差分が所定距離以上であるか否か、が判定される。   In step S188, when it is determined in the orientation condition 1 that the left shoulder Ax <the left shoulder Bx, as the orientation condition 2, whether the difference obtained by subtracting the left shoulder Az from the right shoulder Az is equal to or greater than a predetermined distance, or the left shoulder It is determined whether or not the difference obtained by subtracting the right shoulder Az from Az is equal to or greater than a predetermined distance. When it is determined in the orientation condition 1 that the left shoulder Ax> the left shoulder Bx, as the orientation condition 2, whether the difference obtained by subtracting the right shoulder Az from the left shoulder Az is equal to or greater than a predetermined distance, or the right shoulder Az to the left shoulder It is determined whether or not the difference obtained by subtracting Az is a predetermined distance or more.

例えば、ステップS188では、図5(B)に示すように、左肩Ax<左肩Bx(向き条件1)および右肩Az−左肩Az>5cm(向き条件2)を満たすとき、または左肩Ax>左肩Bx(向き条件1)および左肩Az−右肩Az>5cm(向き条件2)を満たすとき、第1ボーン情報が相手向きであると判断される。左肩Ax<左肩Bx(向き条件1)および左肩Az−右肩Az>5cm(向き条件2)を満たすとき、または左肩Ax>左肩Bx(向き条件1)および右肩Az−左肩Az>5cm(向き条件2)を満たすとき、第1ボーン情報が相手向きとは反対向きであると判断される。   For example, in step S188, as shown in FIG. 5B, when left shoulder Ax <left shoulder Bx (orientation condition 1) and right shoulder Az−left shoulder Az> 5 cm (orientation condition 2), or left shoulder Ax> left shoulder Bx When (orientation condition 1) and left shoulder Az−right shoulder Az> 5 cm (orientation condition 2) are satisfied, it is determined that the first bone information is facing the other party. When left shoulder Ax <left shoulder Bx (orientation condition 1) and left shoulder Az−right shoulder Az> 5 cm (orientation condition 2), or left shoulder Ax> left shoulder Bx (orientation condition 1) and right shoulder Az−left shoulder Az> 5 cm (orientation) When the condition 2) is satisfied, it is determined that the first bone information is in the direction opposite to the partner direction.

ステップS208では、向き条件1にて、左肩Ax<左肩Bxであると判定されたとき、向き条件2として、左肩Bzから右肩Bzを引いた差分が所定距離以上であるか否か、または右肩Bzから左肩Bzを引いた差分が所定距離以上であるか否か、が判定される。向き条件1にて、左肩Ax>左肩Bxであると判定されたとき、向き条件2として、右肩Bzから左肩Bzを引いた差分が所定距離以上であるか否か、または左肩Bzから右肩Bzを引いた差分が所定距離以上であるか否か、が判定される。   In step S208, when it is determined in the orientation condition 1 that the left shoulder Ax <the left shoulder Bx, as the orientation condition 2, whether the difference obtained by subtracting the right shoulder Bz from the left shoulder Bz is equal to or greater than a predetermined distance, It is determined whether or not the difference obtained by subtracting the left shoulder Bz from the shoulder Bz is greater than or equal to a predetermined distance. When it is determined in the orientation condition 1 that the left shoulder Ax> the left shoulder Bx, as the orientation condition 2, whether the difference obtained by subtracting the left shoulder Bz from the right shoulder Bz is equal to or greater than a predetermined distance, or the left shoulder Bz to the right shoulder It is determined whether or not the difference obtained by subtracting Bz is greater than or equal to a predetermined distance.

例えば、ステップS208では、図5(B)に示すように、左肩Ax<左肩Bx(向き条件1)および左肩Bz−右肩Bz>5cm(向き条件2)を満たすとき、または左肩Ax>左肩Bx(向き条件1)および右肩Bz−左肩Bz>5cm(向き条件2)を満たす
とき、第2ボーン情報が相手向きであると判断される。左肩Ax<左肩Bx(向き条件1)および右肩Bz−左肩Bz>5cm(向き条件2)を満たすとき、または左肩Ax>左肩Bx(向き条件1)および左肩Bz−右肩Bz>5cm(向き条件2)を満たすとき、第2ボーン情報が相手向きとは反対向きであると判断される。ステップS188およびステップ208において、左肩Ax,Azおよび右肩Az、左肩Bx,Bzおよび右肩Bzが、向き条件1および向き条件2のいずれにも合致しない場合、その第1ボーン情報または第2ボーン情報は、正面向きであると判定される。
For example, in step S208, as shown in FIG. 5B, when left shoulder Ax <left shoulder Bx (orientation condition 1) and left shoulder Bz−right shoulder Bz> 5 cm (orientation condition 2), or left shoulder Ax> left shoulder Bx When (orientation condition 1) and right shoulder Bz−left shoulder Bz> 5 cm (orientation condition 2) are satisfied, it is determined that the second bone information is facing the other party. When left shoulder Ax <left shoulder Bx (orientation condition 1) and right shoulder Bz−left shoulder Bz> 5 cm (orientation condition 2) or left shoulder Ax> left shoulder Bx (orientation condition 1) and left shoulder Bz−right shoulder Bz> 5 cm (orientation) When the condition 2) is satisfied, it is determined that the second bone information is in the direction opposite to the partner direction. In step S188 and step 208, if the left shoulder Ax, Az and right shoulder Az, left shoulder Bx, Bz and right shoulder Bz do not match either the orientation condition 1 or the orientation condition 2, the first bone information or the second bone The information is determined to be front-facing.

ステップS190では、第1ボーン情報の、第2ボーン情報に対する角度が判定される。ステップS210では、第2ボーン情報の、第1ボーン情報に対する角度が判定される。ステップS190およびステップS210による判定は、図5(C)に示す判定条件を用いて行われる。図5(C)は、ROM13の判定条件記憶領域132に記憶された角度判定条件を示す図である。ステップS190およびステップS210では、ステップS182およびステップS202において読み出された第1ボーン情報の座標情報と、ステップS184およびステップS204において読み出された第2ボーン情報の座標情報とを比較し、図5(C)に示す角度判定条件に従って傾きが判定される。   In step S190, the angle of the first bone information with respect to the second bone information is determined. In step S210, the angle of the second bone information with respect to the first bone information is determined. The determinations in step S190 and step S210 are performed using the determination conditions shown in FIG. FIG. 5C is a diagram showing the angle determination conditions stored in the determination condition storage area 132 of the ROM 13. In steps S190 and S210, the coordinate information of the first bone information read in steps S182 and S202 is compared with the coordinate information of the second bone information read in steps S184 and S204, and FIG. The inclination is determined according to the angle determination condition shown in (C).

より具体的には、ステップS190およびステップS210では、第1ボーン情報をAとして、第1ボーン情報のうち左肩のx座標を左肩Axとし、頭のx座標を頭Axとし、首のx座標を首Axとする。第2ボーン情報をBとして、第2ボーン情報のうち左肩のx座標を左肩Bxとし、頭のx座標を頭Bx、首のx座標を首Bxとする。   More specifically, in steps S190 and S210, the first bone information is A, the left shoulder x coordinate of the first bone information is the left shoulder Ax, the head x coordinate is the head Ax, and the neck x coordinate is The neck is Ax. The second bone information is B, the left shoulder x coordinate of the second bone information is the left shoulder Bx, the head x coordinate is the head Bx, and the neck x coordinate is the neck Bx.

ステップS190およびステップS210では、図5(C)に示すように角度条件1として、左肩Axと左肩Bxとを比較し、左肩Ax<左肩Bxであるか、左肩Ax>左肩Bxであるかが判定される。ステップS190では、角度条件1にて、左肩Ax<左肩Bxであると判定されたとき、角度条件2として、頭Axから首Axを引いた差分が所定距離以上であるか否か、または首Axから頭Axを引いた差分が所定距離以上であるか否か、が判定される。角度条件1にて、左肩Ax>左肩Bxであると判定されたとき、角度条件2として、首Axから頭Axを引いた差分が所定距離以上であるか否か、または頭Axから首Axを引いた差分が所定距離以上であるか否か、が判定される。   In step S190 and step S210, as shown in FIG. 5C, as the angle condition 1, the left shoulder Ax and the left shoulder Bx are compared to determine whether the left shoulder Ax <the left shoulder Bx or the left shoulder Ax> the left shoulder Bx. Is done. In step S190, when it is determined in the angle condition 1 that the left shoulder Ax <the left shoulder Bx, as the angle condition 2, whether the difference obtained by subtracting the neck Ax from the head Ax is equal to or greater than a predetermined distance, or the neck Ax It is determined whether or not the difference obtained by subtracting the head Ax from the predetermined distance is greater than or equal to a predetermined distance. When it is determined in the angle condition 1 that the left shoulder Ax> the left shoulder Bx, as the angle condition 2, whether the difference obtained by subtracting the head Ax from the neck Ax is equal to or greater than a predetermined distance, or the neck Ax from the head Ax It is determined whether or not the subtracted difference is a predetermined distance or more.

例えば、ステップS190では、図5(C)に示すように、左肩Ax<左肩Bx(角度条件1)および頭Ax−首Ax>2cm(角度条件2)を満たすとき、または左肩Ax>左肩Bx(角度条件1)および首Ax−頭Ax>2cm(角度条件2)を満たすとき、第1ボーン情報の頭部が相手方向へ傾いている相手傾きであると判断される。左肩Ax<左肩Bx(角度条件1)および首Ax−頭Ax>2cm(角度条件2)を満たすとき、または左肩Ax>左肩Bx(角度条件1)および頭Ax−首Ax>5cm(角度条件2)を満たすとき、第1ボーン情報の頭部が相手方向とは反対の方向へ傾いている反対傾きであると判断される。   For example, in step S190, as shown in FIG. 5C, when left shoulder Ax <left shoulder Bx (angle condition 1) and head Ax−neck Ax> 2 cm (angle condition 2), or left shoulder Ax> left shoulder Bx ( When the angle condition 1) and the neck Ax−the head Ax> 2 cm (angle condition 2) are satisfied, it is determined that the head of the first bone information is an opponent inclination in which the head is inclined in the opponent direction. When left shoulder Ax <left shoulder Bx (angle condition 1) and neck Ax−head Ax> 2 cm (angle condition 2), or left shoulder Ax> left shoulder Bx (angle condition 1) and head Ax−neck Ax> 5 cm (angle condition 2) ), It is determined that the head of the first bone information has an opposite inclination that is inclined in a direction opposite to the opponent direction.

ステップS210では、角度条件1にて、左肩Ax<左肩Bxであると判定されたとき、角度条件2として、首Bxから頭Bxを引いた差分が所定距離以上であるか否か、または頭Bxから首Bxを引いた差分が所定距離以上であるか否か、が判断される。角度条件1にて、左肩Ax>左肩Bxであると判定されたとき、頭Bxから首Bxを引いた差分が所定距離以上であるか否か、または首Bxから頭Bxを引いた差分が所定距離以上であるか否か、が判断される。   In step S210, when it is determined that the left shoulder Ax <the left shoulder Bx in the angle condition 1, whether the difference obtained by subtracting the head Bx from the neck Bx is equal to or greater than a predetermined distance as the angle condition 2, or the head Bx It is determined whether or not the difference obtained by subtracting the neck Bx from the distance is equal to or greater than a predetermined distance. When it is determined that the left shoulder Ax> the left shoulder Bx in the angle condition 1, whether or not the difference obtained by subtracting the neck Bx from the head Bx is equal to or greater than a predetermined distance, or the difference obtained by subtracting the head Bx from the neck Bx is predetermined. It is determined whether the distance is equal to or greater than the distance.

例えば、ステップS210では、図5(C)に示すように、左肩Ax<左肩Bx(角度条件1)および頭Bx−首Ax>2cm(角度条件2)を満たすとき、または左肩Ax>左肩Bx(向き条件1)および首Ax−頭Ax>2cm(角度条件2)を満たすとき、第2ボーン情報の頭部が相手方向へ傾いている相手傾きであると判断される。左肩Ax<左肩Bx(向き条件1)および首Ax−頭Ax>2cm(向き条件2)を満たすとき、または左肩Ax>左肩Bx(向き条件1)および頭Ax−首Ax>2cm(向き条件2)を満たすとき、第2ボーン情報の頭部が相手方向とは反対の方向へ傾いている反対傾きであると判断される。ステップS190およびステップ210において、左肩Ax、頭Ax,首Ax、左肩Bx、頭Bx、首Bxが、傾き条件1および傾き条件2のいずれにも合致しない場合、その第1ボーン情報の頭部または第2ボーン情報の頭部は、正面向きであると判定される。   For example, in step S210, as shown in FIG. 5C, when left shoulder Ax <left shoulder Bx (angle condition 1) and head Bx−neck Ax> 2 cm (angle condition 2), or left shoulder Ax> left shoulder Bx ( When the orientation condition 1) and the neck Ax−head Ax> 2 cm (angle condition 2) are satisfied, it is determined that the head of the second bone information is the other party inclination that is inclined in the other party direction. When satisfying left shoulder Ax <left shoulder Bx (orientation condition 1) and neck Ax−head Ax> 2 cm (orientation condition 2), or left shoulder Ax> left shoulder Bx (orientation condition 1) and head Ax−neck Ax> 2 cm (orientation condition 2) ), It is determined that the head of the second bone information has an opposite inclination that is inclined in a direction opposite to the opponent direction. In step S190 and step 210, if the left shoulder Ax, head Ax, neck Ax, left shoulder Bx, head Bx, and neck Bx do not match either the tilt condition 1 or the tilt condition 2, the head of the first bone information or The head of the second bone information is determined to be facing the front.

ステップS192およびステップS202では、ステップS186〜ステップS190による第1ボーン情報の判定結果およびステップS206〜ステップS210による第2ボーン情報の判定結果が、図6(A)および図6(B)に示す判定結果テーブルにして、それぞれRAM14の第1判定情報記憶領域143および第2判定情報記憶領域144に記憶される。   In steps S192 and S202, the determination results of the first bone information in steps S186 to S190 and the determination results of the second bone information in steps S206 to S210 are the determinations shown in FIGS. 6 (A) and 6 (B). The result table is stored in the first determination information storage area 143 and the second determination information storage area 144 of the RAM 14, respectively.

具体的には、ステップS192では、ステップS186〜ステップS190の処理により判定された第1ボーン情報が、ステップS186により判定された距離から、密接距離、個体距離、社会距離のいずれに該当するかが判断され、且つ、ステップS188により判定された結果から相手向き、反対向き、正面向きのいずれに該当するかが判断される。各距離は、密接距離、個体距離、社会距離の順に、第1ボーン情報と第2ボーン情報との間の距離が遠い閾値が設定されている。例えば、ステップS186により判定された第1ボーン情報の距離が、45cm未満であるとき密接距離に該当すると判断され、45cm以上120cm未満であるとき個体距離に該当すると判断され、120cm以上であるとき社会距離に該当すると判断される。ステップS192では、ステップS186〜ステップS190の処理により判定された第1ボーン情報が、距離および向きにおいて、図6(A)に示す組み合わせ項目IE、PE、SE、IA、PA、SA、IS、PS、SSのいずれの組み合わせ項目に該当するかが判断され、該当する組み合わせ項目が+1とカウントされ、第1判定情報記憶領域143の図6(A)に示す判定結果テーブルAが更新記憶される。   Specifically, in step S192, whether the first bone information determined by the processing in steps S186 to S190 corresponds to the close distance, the individual distance, or the social distance from the distance determined in step S186. It is determined, and from the result determined in step S188, it is determined whether it corresponds to the opponent direction, the opposite direction, or the front direction. For each distance, thresholds are set such that the distance between the first bone information and the second bone information is long in the order of close distance, individual distance, and social distance. For example, when the distance of the first bone information determined in step S186 is less than 45 cm, it is determined that it corresponds to the close distance, and when it is 45 cm or more and less than 120 cm, it is determined that it corresponds to the individual distance, and when it is 120 cm or more It is judged that it corresponds to the distance. In step S192, the first bone information determined by the processing in steps S186 to S190 is the combination of items IE, PE, SE, IA, PA, SA, IS, PS shown in FIG. , SS, the combination item is counted as +1, and the determination result table A shown in FIG. 6A of the first determination information storage area 143 is updated and stored.

さらに、ステップS192では、ステップS190により判定された結果から、第1ボーン情報の頭部が、相手傾き、反対傾き、正面のいずれに該当するかが判断される。ステップS192では、第1ボーン情報の頭部が、傾きにおいて、図6(B)に示す傾き項目SLE、SLA、SLSのいずれの傾き項目に該当するかが判断され、該当する傾き項目が+1とカウントされ、第1判定情報記憶領域143の図6(B)に示す判定結果テーブルBが更新記憶される。   Furthermore, in step S192, it is determined from the result determined in step S190 whether the head of the first bone information corresponds to the opponent's inclination, the opposite inclination, or the front. In step S192, it is determined whether the head of the first bone information corresponds to the tilt item SLE, SLA, or SLS shown in FIG. 6B in the tilt, and the corresponding tilt item is +1. The determination result table B shown in FIG. 6B in the first determination information storage area 143 is updated and stored.

同様に、ステップS212では、ステップS206〜ステップS210の処理により判定された第2ボーン情報が、ステップS206により判定された距離から、密接距離、個体距離、社会距離のいずれに該当するかが判断され、且つ、ステップS208により、相手向き、反対向き、正面向きのいずれに該当するかが判断される。各距離は、密接距離、個体距離、社会距離の順に、第1ボーン情報と第2ボーン情報との間の距離が遠い閾値が設定されている。例えば、ステップS206により判定された第2ボーン情報の距離が、45cm未満であるとき密接距離に該当すると判断され、45cm以上120cm未満であるとき個体距離に該当すると判断され、120cm以上であるとき社会距離に該当すると判断される。ステップS212では、ステップS206〜ステップS210の処理により判定された第2ボーン情報が、距離および向きにおいて、図6(A)に示す組み合わせ項目IE、PE、SE、IA、PA、SA、IS、PS、SSのいずれの組み合わせ項目に該当するかが判断され、該当する組み合わせ項目が+1とカウントされ、第2判定情報記憶領域144の図6(A)に示す判定結果テーブルAが更新記憶される。   Similarly, in step S212, it is determined whether the second bone information determined by the processing in steps S206 to S210 corresponds to the close distance, the individual distance, or the social distance from the distance determined in step S206. And it is judged by step S208 whether it corresponds to a partner direction, an opposite direction, or a front direction. For each distance, thresholds are set such that the distance between the first bone information and the second bone information is long in the order of close distance, individual distance, and social distance. For example, when the distance of the second bone information determined in step S206 is less than 45 cm, it is determined that it corresponds to the close distance, and when it is 45 cm or more and less than 120 cm, it is determined that it corresponds to the individual distance. It is judged that it corresponds to the distance. In step S212, the second bone information determined by the processing in steps S206 to S210 is the combination items IE, PE, SE, IA, PA, SA, IS, PS shown in FIG. , SS, which combination item is determined, the corresponding combination item is counted as +1, and the determination result table A shown in FIG. 6A in the second determination information storage area 144 is updated and stored.

さらに、ステップS212では、ステップS210により判定された結果から、第2ボーン情報の頭部が、相手傾き、反対傾き、正面のいずれに該当するかが判断される。ステップS212では、第2ボーン情報の頭部が、傾きにおいて、図6(B)に示す傾き項目SLE、SLA、SLSのいずれの傾き項目に該当するかが判断され、該当する傾き項目が+1とカウントされ、第2判定情報記憶領域144の図6(B)に示す判定結果テーブルBが更新記憶される。   Further, in step S212, based on the result determined in step S210, it is determined whether the head of the second bone information corresponds to the opponent inclination, the opposite inclination, or the front. In step S212, it is determined whether the head of the second bone information corresponds to the tilt item SLE, SLA, or SLS shown in FIG. 6B in the tilt, and the corresponding tilt item is +1. The determination result table B shown in FIG. 6B in the second determination information storage area 144 is updated and stored.

ステップS194およびステップS214では,ステップS14において蓄積されたすべての第1ボーン情報およびすべての第2ボーン情報について判定が終了したか否かが判断される。ステップS194において、すべての第1ボーン情報の判定が終了したと判断されないとき(ステップS194:NO)、すべての第1ボーン情報の判定が終了したと判断されるまで、ステップS182〜ステップS192の処理が行われる。ステップS214において、すべての第2ボーン情報の判定が終了したと判断されないとき(ステップS214:NO)、すべての第2ボーン情報の判定が終了したと判断されるまで、ステップS202〜ステップS212の処理が行われる。すべての第1ボーン情報の判定が終了したと判断され(ステップS194:YES)、且つすべての第2ボーン情報の判定が終了したと判断されると(ステップS214:YES)、第1ボーン判定処理および第2ボーン判定処理が終了し、評価制御処理のステップS22の処理が実行される。   In step S194 and step S214, it is determined whether or not the determination is completed for all the first bone information and all the second bone information accumulated in step S14. If it is not determined in step S194 that all of the first bone information has been determined (step S194: NO), the processes in steps S182 to S192 are performed until it is determined that all of the first bone information has been determined. Is done. When it is not determined in step S214 that all the second bone information has been determined (step S214: NO), the processes in steps S202 to S212 are performed until it is determined that all the second bone information has been determined. Is done. When it is determined that all the first bone information has been determined (step S194: YES) and all the second bone information has been determined (step S214: YES), the first bone determination processing is performed. And the 2nd bone determination process is complete | finished and the process of step S22 of an evaluation control process is performed.

ステップS22、およびステップS22に続くステップS24では、ステップS18の第1ボーン判定処理により判定された第1ボーン情報について、相手向き、反対向き、正面のそれぞれに該当する第1ボーン情報の比率が算出される。ステップS26、およびステップS26に続くステップS28では、ステップS20の第2ボーン判定処理により判定された第2ボーン情報について、相手向き、反対向き、正面のそれぞれに該当する第2ボーン情報の比率が算出される。   In step S22 following step S22 and step S22, for the first bone information determined by the first bone determination process in step S18, the ratio of the first bone information corresponding to each of the opposite direction, the opposite direction, and the front is calculated. Is done. In step S26 following step S26 and step S26, for the second bone information determined by the second bone determination process in step S20, the ratio of the second bone information corresponding to the opponent direction, the opposite direction, and the front direction is calculated. Is done.

ステップS22では、ステップS18の第1ボーン判定処理により判定され、RAM14の第1判定情報記憶領域143に記憶された図6(B)に示す判定結果テーブルBの相手傾き回数SLE、反対傾き回数SLA、正面向き回数SLSから、SLE+SLA+SLSを母集合として各傾き項目の頻度の比率である傾き別比率として、相手傾き比率SRE、正面比率SRS、相手傾き比率SRAがそれぞれ算出される。算出された第1ボーン情報の各傾き別比率は、第1判定情報記憶領域143の図6(C)に示す算出結果テーブルCに記憶される。   In step S22, the counter inclination number SLA and the counter inclination number SLA of the determination result table B shown in FIG. 6B, which are determined by the first bone determination process of step S18 and stored in the first determination information storage area 143 of the RAM 14, are stored. From the front-facing number of times SLS, the opponent inclination ratio SRE, the front ratio SRS, and the opponent inclination ratio SRA are respectively calculated as the ratio by inclination, which is the ratio of the frequency of each inclination item, with SLE + SLA + SLS as a population. The calculated ratios by inclination of the first bone information are stored in the calculation result table C shown in FIG. 6C of the first determination information storage area 143.

同様に、ステップS26では、ステップS20の第2ボーン判定処理により判定され、RAM14の第2判定情報記憶領域144に記憶された図6(B)に示す判定結果テーブルBから、傾き別比率として、相手傾き比率SRE、正面比率SRS、相手傾き比率SRAがそれぞれ算出される。算出された第2ボーン情報の各傾き別比率は、第2判定情報記憶領域144の図6(C)に示す算出結果テーブルCに記憶される。   Similarly, in step S26, from the determination result table B shown in FIG. 6B, which is determined by the second bone determination process of step S20 and stored in the second determination information storage area 144 of the RAM 14, as a ratio by inclination, The opponent inclination ratio SRE, the front ratio SRS, and the opponent inclination ratio SRA are calculated. The calculated ratios by inclination of the second bone information are stored in the calculation result table C shown in FIG. 6C in the second determination information storage area 144.

ステップS24では、ステップS18の第1ボーン判定処理により判定され、RAM14の第1判定情報記憶領域143に記憶された図6(A)に示す判定結果テーブルAの距離と向きとの組み合わせに応じて其々示される各項目の相手向き、反対向き、正面向きのそれぞれのカウント数から、各向き項目の頻度の比率である向き別比率として、相手向き比率ER、正面向き比率SR,反対向き比率ARがそれぞれ算出される。各向き別比率は、距離と向きとの組み合わせに応じた各項目であるIE+IA+IS+PE+PA+PS+SE+SA+SSの和を母集合として、IE+PE+SEの和から相手向き比率ERが算出され、IA+PA+SAの和から反対向き比率ARが算出され、IS+PS+SSの和から正面向き比率SRが算出される。算出された第1ボーン情報の各向き別比率は、第1判定情報記憶領域143の図6(C)に示す算出結果テーブルに記憶される。   In step S24, according to the combination of the distance and orientation of the determination result table A shown in FIG. 6A, which is determined by the first bone determination process of step S18 and stored in the first determination information storage area 143 of the RAM 14. From the respective counter numbers, the opposite direction, and the front direction count of each item shown, the opposite direction ratio ER, the front direction ratio SR, and the reverse direction ratio AR as the ratio by direction that is the ratio of the frequency of each direction item. Are calculated respectively. For each orientation ratio, the sum of IE + IA + IS + PE + PA + PS + SE + SA + SS, which is each item according to the combination of distance and orientation, is used as a mother set, and the opponent orientation ratio ER is calculated from the sum of IE + PE + SE, and the opposite direction ratio AR is calculated from the sum of IA + PA + SA. , The front-facing ratio SR is calculated from the sum of IS + PS + SS. The calculated ratio for each direction of the first bone information is stored in the calculation result table shown in FIG. 6C of the first determination information storage area 143.

ステップS28では、ステップS20の第2ボーン判定処理により判定され、RAM14の第2判定情報記憶領域144に記憶された図6(A)に示す判定結果テーブルAの距離と向きとの組み合わせに応じて其々示される各項目の相手向き、反対向き、正面向きのそれぞれのカウント数から、各向き項目の頻度の比率である向き別比率として、相手向き比率ER、正面向き比率SR、反対向き比率ARがそれぞれ算出される。算出された第2ボーン情報の各向き別比率は、第2判定情報記憶領域144の図6(C)に示す算出結果テーブルに記憶される。   In step S28, according to the combination of the distance and orientation of the determination result table A shown in FIG. 6A, which is determined by the second bone determination process of step S20 and stored in the second determination information storage area 144 of the RAM 14. From the respective counter numbers, the opposite direction, and the front direction count of each item shown, the opposite direction ratio ER, the front direction ratio SR, and the reverse direction ratio AR as the ratio by direction that is the ratio of the frequency of each direction item. Are calculated respectively. The calculated ratio for each direction of the second bone information is stored in the calculation result table shown in FIG. 6C of the second determination information storage area 144.

ステップS30では、第1ボーン情報により示される身体部位の動きと、第2ボーン情報により示される身体部位の動きとを評価する。本実施形態の評価制御装置1が第1例の使用例で使用される場合、第1ボーン情報により示される身体部位の動きは、ユーザU1の身体部位の位置の動きを示し、第2ボーン情報により示される身体部位の動きは、ユーザU2の身体部位の位置の動きを示すものである。ユーザU1の動きは、第1判定情報記憶領域143に記憶された図6(A)に示す判定結果テーブルAおよび図6(C)に示す算出結果テーブルCを用いて評価値が算出される。ユーザU2の動きは、第2判定情報記憶領域143に記憶された図6(A)に示す判定結果テーブルAおよび図6(C)に示す算出結果テーブルCを用いて評価値が算出される。評価値Vを算出する式は、たとえば、下記(1)に示すように定義される。   In step S30, the movement of the body part indicated by the first bone information and the movement of the body part indicated by the second bone information are evaluated. When the evaluation control apparatus 1 of the present embodiment is used in the first example of use, the movement of the body part indicated by the first bone information indicates the movement of the position of the body part of the user U1, and the second bone information The movement of the body part indicated by indicates the movement of the position of the body part of the user U2. The evaluation value of the movement of the user U1 is calculated using the determination result table A shown in FIG. 6A and the calculation result table C shown in FIG. 6C stored in the first determination information storage area 143. The evaluation value of the movement of the user U2 is calculated using the determination result table A shown in FIG. 6A and the calculation result table C shown in FIG. 6C stored in the second determination information storage area 143. The equation for calculating the evaluation value V is defined as shown in (1) below, for example.

V=50*(IE*SRE*ER+IA*SRA*AR+IS*SRS*SR)+25*(PE*SRE*ER+PA*SRA*AR+PS*SRS*SR)+25*(SE*SRE*ER+SA*SRA*AR+SS*SRS*SR)・・・(1)   V = 50 * (IE * SRE * ER + IA * SRA * AR + IS * SRS * SR) + 25 * (PE * SRE * ER + PA * SRA * AR + PS * SRS * SR) + 25 * (SE * SRE * ER + SA * SRA * AR + SS * SRS * SR) (1)

なお、ステップS30で評価される第1ボーン情報および第2ボーン情報は、本実施形態の評価処理装置1の使用例により異なる。例えば、本実施形態の評価制御装置1が第2例の使用例で使用される場合、第1ボーン情報により示される身体部位の動きは、ユーザU1の身体部位の動きまたはアバタA1の身体部位の動きを示し、第2ボーン情報により示される身体部位の動きは、ユーザU2の身体部位の位置の動きまたはアバタA2の身体部位の動きを示すものである。   Note that the first bone information and the second bone information evaluated in step S30 differ depending on the usage example of the evaluation processing apparatus 1 of the present embodiment. For example, when the evaluation control device 1 of the present embodiment is used in the second example of use, the movement of the body part indicated by the first bone information is the movement of the body part of the user U1 or the body part of the avatar A1. The movement of the body part indicated by the second bone information indicates the movement of the position of the body part of the user U2 or the movement of the body part of the avatar A2.

本実施形態の評価制御装置1が第2例の使用例で使用される場合、第1ボーン情報により示される身体部位の動きは、ユーザU1の身体部位の動きまたはアバタA1の身体部位の動きを示し、第2ボーン情報により示される身体部位の動きは、ユーザU2の身体部位の位置の動きまたはアバタA2の身体部位の動きを示すものである。本実施形態の評価制御装置1が第2例の使用例で使用される場合、第1ボーン情報により示される身体部位の動きは、ユーザU1の身体部位の動きを示し、第2ボーン情報により示される身体部位の動きは、バーチャル人物V2の身体部位の動きを示すものである。本実施形態の評価制御装置1が第2例の使用例で使用される場合、第1ボーン情報により示される身体部位の動きは、ユーザU1の身体部位の動きまたはアバタA1の身体部位の動きを示し、第2ボーン情報により示される身体部位の動きは、バーチャル人物V2の身体部位の動きを示すものである。   When the evaluation control apparatus 1 of the present embodiment is used in the second example of use, the movement of the body part indicated by the first bone information is the movement of the body part of the user U1 or the movement of the body part of the avatar A1. The movement of the body part indicated by the second bone information indicates the movement of the body part of the user U2 or the movement of the body part of the avatar A2. When the evaluation control device 1 according to the present embodiment is used in the usage example of the second example, the movement of the body part indicated by the first bone information indicates the movement of the body part of the user U1, and is indicated by the second bone information. The movement of the body part indicated indicates the movement of the body part of the virtual person V2. When the evaluation control apparatus 1 of the present embodiment is used in the second example of use, the movement of the body part indicated by the first bone information is the movement of the body part of the user U1 or the movement of the body part of the avatar A1. The movement of the body part indicated by the second bone information indicates the movement of the body part of the virtual person V2.

ステップS32では、ステップS30において算出された第1ボーン情報により示される身体部位の動きを評価した評価値V1と、第2ボーン情報により示される身体部位の動きを評価した評価値V2との和および差を算出し、算出した結果をディスプレイ5に出力する制御が行われる。これにより、少なくともユーザU1は、カラオケ楽曲の再生開始から再生終了までの自分と他のユーザまたはアバタ等の比較対象者との相性を知ることができる。   In step S32, the sum of the evaluation value V1 that evaluates the movement of the body part indicated by the first bone information calculated in step S30 and the evaluation value V2 that evaluates the movement of the body part indicated by the second bone information and Control for calculating the difference and outputting the calculated result to the display 5 is performed. Thereby, at least the user U1 can know the compatibility between himself / herself and another user or a comparison target person such as an avatar from the start of playback to the end of playback of karaoke music.

ステップS34では、評価制御装置1の終了指示が行われたか否かが判断される。評価処理装置1の終了指示が行われたと判断されると(ステップS34:YES)、評価制御処理が終了される。評価処理装置1の終了指示が行われたと判断されないと(ステップS34:NO)、ステップS10の処理が再び実行される。   In step S34, it is determined whether an instruction to end the evaluation control apparatus 1 has been issued. If it is determined that an instruction to end the evaluation processing apparatus 1 has been issued (step S34: YES), the evaluation control process is ended. If it is not determined that the end instruction of the evaluation processing apparatus 1 has been issued (step S34: NO), the process of step S10 is executed again.

なお、上記実施形態においては、ディスプレイ5は、ユーザU1が居る空間と同一の空間に設置されていた。ディスプレイ5が設置される場所は、これに限らない。例えば、ユーザU1が居る空間とは離れた遠隔地の空間に設けられた表示装置に、ユーザU1の身体部位の動きを示す映像が表示されるものであってもよい。   In the above embodiment, the display 5 is installed in the same space as the space where the user U1 is located. The place where the display 5 is installed is not limited to this. For example, an image showing the movement of the body part of the user U1 may be displayed on a display device provided in a remote space away from the space where the user U1 is present.

1 評価処理装置
2 状態検知装置
3 カラオケ装置
5 ディスプレイ
11 CPU
13 ROM
131 評価制御プログラム記憶領域
132 判定条件記憶領域
14 RAM
131 第1ボーン情報蓄積記憶領域
132 第2ボーン情報蓄積記憶領域
133 第2判定情報記憶領域
134 第2判定情報記憶領域
DESCRIPTION OF SYMBOLS 1 Evaluation processing apparatus 2 State detection apparatus 3 Karaoke apparatus 5 Display 11 CPU
13 ROM
131 Evaluation control program storage area 132 Judgment condition storage area 14 RAM
131 First bone information storage area 132 Second bone information storage area 133 Second determination information storage area 134 Second determination information storage area

Claims (7)

所定の空間内にいるユーザを観測対象者として識別する識別手段と、
所定の楽曲の再生中に前記識別手段により識別した前記観測対象者の特定の身体部位の位置情報を、前記楽曲の再生時間を示す時間情報と対応付けて取得する観測取得手段と、
前記楽曲の再生開始時間から再生終了時間までの前記時間情報が対応付けられた位置情報であって、前記観測取得手段により前記位置情報が取得された前記観測対象者とは異なる所定の比較対象者の前記特定の身体部位の位置情報を取得する比較取得手段と、
前記観測取得手段により取得された前記観測対象者の前記位置情報と、前記比較読出手段により読み出された前記比較対象者の前記位置情報とを、それぞれの前記時間情報が対応する前記楽曲の再生開始時間から再生終了時間までの同一タイミングにおいて比較し、比較したタイミングにおける前記観測対象者について、前記比較対象者との前記特定の身体部位の相対距離と、前記比較対象者に近づく向きを正とする前記特定の身体部位の向きおよび傾きの少なくともいずれかと、を判定する判定手段と、
前記判定手段による判定結果に応じて、前記楽曲の再生中の前記観測対象者の動きを評価した結果を出力させる出力制御手段と、
を備える評価制御装置。
Identification means for identifying a user in a predetermined space as an observation target;
Observation acquisition means for acquiring position information of a specific body part of the observation target person identified by the identification means during reproduction of a predetermined music in association with time information indicating the reproduction time of the music;
Predetermined comparison target person that is position information associated with the time information from the reproduction start time to the reproduction end time of the music, and is different from the observation target person from which the position information was acquired by the observation acquisition means Comparison acquisition means for acquiring position information of the specific body part of
Reproduction of the music corresponding to the time information corresponding to the position information of the observation target acquired by the observation acquisition means and the position information of the comparison target read by the comparison reading means Comparison is made at the same timing from the start time to the reproduction end time, and the relative distance of the specific body part to the comparison target person and the direction approaching the comparison target person are positive for the observation target person at the compared timing. Determination means for determining at least one of the direction and inclination of the specific body part to be performed;
Output control means for outputting a result of evaluating the movement of the observation target person during reproduction of the music according to the determination result by the determination means;
An evaluation control device comprising:
前記所定の空間内で再生される楽曲の再生開始時間および再生終了時間を検知する検知手段と、
前記観測取得手段により取得した前記観測対象者の前記位置情報を、前記位置情報を取得したときの時間を示す時間情報と対応付けて記憶部に記憶する記憶手段と、を備え、
前記観測取得手段は、前記検知手段により検知される楽曲の再生開始時間から再生終了時間までに対応する前記時間情報が対応付けられた前記観測対象者の前記位置情報を、前記記憶部から読み出して取得するものであり、
前記比較取得手段は、前記楽曲の再生開始時間から再生終了時間までの前記時間情報が対応付けられた位置情報であって、前記読出手段により前記位置情報が読み出された前記観測対象者とは異なる所定の比較対象者の前記特定の身体部位の位置情報を、記憶部から読み出して取得するものであり、
前記観測取得手段により取得された前記楽曲の再生開始時間から再生終了時間までの前記位置情報により示される前記観測対象者の移動遷移を決定する第1決定手段と、
前記比較取得手段により取得された前記楽曲の再生開始時間から再生終了時間までの前記位置情報により示される前記比較対象者の移動遷移を決定する第2決定手段と、を備え、
前記判定手段は、前記第1決定手段により決定された前記観測対象者の移動遷移と、前記第2決定手段により決定された前記比較対象者の移動遷移とを、前記時間情報と対応する前記楽曲の再生開始時間から再生終了時間までの所定タイミングごとに比較し、比較したタイミングにおける前記観測対象者について、前記比較対象者との前記特定の身体部位の相対距離の距離遷移と、前記比較対象者に近づく向きを正とする前記特定の身体部位の向きおよび傾きの少なくともいずれかの方向遷移と、を判定し、
前記出力制御手段は、前記判定手段による前記距離遷移および前記方向遷移の判定結果に応じて、前記楽曲の再生開始時間から再生終了時間までの前記観測対象者の動きを評価した結果を出力させる
ことを特徴とする請求項1に記載の評価制御装置。
Detecting means for detecting a reproduction start time and a reproduction end time of the music reproduced in the predetermined space;
Storage means for storing the position information of the observation target acquired by the observation acquisition means in a storage unit in association with time information indicating the time when the position information was acquired;
The observation acquisition means reads from the storage unit the position information of the observation subject associated with the time information corresponding to the music from the reproduction start time to the reproduction end time detected by the detection means. To get and
The comparison acquisition means is position information in which the time information from the reproduction start time to the reproduction end time of the music is associated, and the observation subject from which the position information is read by the reading means The position information of the specific body part of a different predetermined comparison target person is read out from the storage unit and acquired.
First determination means for determining a movement transition of the observation target indicated by the position information from a reproduction start time to a reproduction end time of the music acquired by the observation acquisition means;
Second determination means for determining movement transition of the comparison target indicated by the position information from the reproduction start time to the reproduction end time of the music acquired by the comparison acquisition means,
The determination means corresponds to the piece of music in which the transition transition of the observation target determined by the first determination means and the transition transition of the comparison target determined by the second determination means correspond to the time information. For each predetermined timing from the reproduction start time to the reproduction end time, and for the observation target person at the compared timing, the distance transition of the relative distance of the specific body part with the comparison target person, and the comparison target person Determining a direction transition of at least one of the direction and inclination of the specific body part with the direction approaching the positive being positive,
The output control means outputs a result of evaluating the movement of the observation subject from the reproduction start time to the reproduction end time of the music according to the determination result of the distance transition and the direction transition by the determination means. The evaluation control apparatus according to claim 1.
前記観測取得手段により取得した前記観測対象者の特定の身体部位の前記位置情報に従って、前記観測対象者の特定の身体部位の位置を反映した反映人物像を、所定の表示部上に表示する表示制御手段を備え、
前記判定手段は、前記表示部上に表示される前記反映人物像の位置情報を、前記観測対象者の前記位置情報として、前記比較対象者の前記位置情報と比較する
ことを特徴とする請求項1または2に記載の評価制御装置。
Display that displays a reflected human image reflecting the position of the specific body part of the observation subject on a predetermined display unit according to the position information of the specific body part of the observation subject acquired by the observation acquisition means With control means,
The determination means compares position information of the reflected human image displayed on the display unit with the position information of the comparison target person as the position information of the observation target person. 3. The evaluation control device according to 1 or 2.
前記比較取得手段は、空間内に設けられる表示部に表示される仮想人物像を前記比較対象者として、前記空間内の前記表示部上の前記仮想人物像の前記特定の身体部位の位置情報を取得するものであり、
前記判定手段は、所定の基準位置からの前記観測対象者の位置情報と、前記所定の基準位置からの前記表示部上の前記仮想人物像の前記位置情報とを比較し、前記相対距離と、前記向き及び傾きの少なくともいずれかと、を判定する
ことを特徴とする請求項1〜3のいずれかに記載の評価制御装置。
The comparison acquisition means uses the virtual person image displayed on the display unit provided in the space as the comparison target person, and the position information of the specific body part of the virtual person image on the display unit in the space. To get and
The determination means compares the position information of the observation target person from a predetermined reference position with the position information of the virtual person image on the display unit from the predetermined reference position, and the relative distance, The evaluation control apparatus according to claim 1, wherein at least one of the direction and the inclination is determined.
前記判定手段は、前記表示部上に表示される前記反映人物像の前記位置情報と、前記比較取得手段により取得された前記表示部上に表示される前記仮想人物像の前記位置情報とを、比較し、前記表示部上の前記反映人物像について、前記仮想人物像との前記相対距離と、前記向きおよび傾きの少なくともいずれかと、を判定する
ことを特徴とする請求項4に記載の評価制御装置。
The determination unit includes the position information of the reflected person image displayed on the display unit, and the position information of the virtual person image displayed on the display unit acquired by the comparison acquisition unit. 5. The evaluation control according to claim 4, wherein the evaluation is performed by comparing the reflected human image on the display unit with the relative distance from the virtual human image and at least one of the orientation and the inclination. apparatus.
前記識別手段は、所定の空間内にいる第1のユーザを前記観測対象者として識別し、前記所定の空間内にいる第2のユーザを比較対象者として識別し、
観測取得手段は、前記識別手段により前記観測対象者と識別された前記第1のユーザの特定の身体部位の位置情報を取得し、
前記比較取得手段は、前記識別手段により前記比較対象者と識別された前記第2のユーザの特定の身体部位の位置情報を取得し、
前記判定手段は、前記第1のユーザの前記位置情報と、前記第2のユーザの前記位置情報とを、前記楽曲の再生開始時間から再生終了時間までの同一タイミングにおいて比較し、比較したタイミングにおける前記第1のユーザについて、前記第2のユーザとの前記特定の身体部位の相対距離と、前記第2のユーザに近づく向きを正とする前記特定の身体部位の向きおよび傾きの少なくともいずれかと、を第1のユーザの判定結果として判定し、比較したタイミングにおける前記第2のユーザについて、前記第1のユーザとの前記特定の身体部位の相対距離と、前記第1のユーザに近づく向きを正とする前記特定の身体部位の向きおよび傾きの少なくともいずれかと、を第2のユーザの判定結果として判定し、
前記出力制御手段は、前記楽曲の再生開始時間から再生終了時間までの前記観測対象者および前記比較対象者の動きの相対関係を評価した結果を出力させる
ことを特徴とする請求項1〜3のいずれかに記載の評価制御装置。
The identifying means identifies a first user in a predetermined space as the observation target, identifies a second user in the predetermined space as a comparison target,
The observation acquisition means acquires position information of a specific body part of the first user identified as the observation subject by the identification means,
The comparison acquisition means acquires position information of a specific body part of the second user identified as the comparison target person by the identification means,
The determination means compares the position information of the first user with the position information of the second user at the same timing from the reproduction start time to the reproduction end time of the music, and at the timing compared. For the first user, at least one of the relative distance of the specific body part with the second user and the direction and inclination of the specific body part with the direction approaching the second user as positive, As the determination result of the first user, the relative distance of the specific body part to the first user and the direction approaching the first user are corrected for the second user at the compared timing. Determining at least one of the direction and inclination of the specific body part as a determination result of the second user,
The said output control means outputs the result of having evaluated the relative relationship of the movement of the said observation subject and the said comparison subject from the reproduction start time to the reproduction end time of the said music. The evaluation control apparatus according to any one of the above.
コンピュータにより実行されるプログラムであって、
所定の空間内にいるユーザを観測対象者として識別する識別ステップと、
前記識別ステップにより識別した前記観測対象者の特定の身体部位の位置情報を取得する観測取得ステップと、
前記楽曲の再生開始時間から再生終了時間までの前記時間情報が対応付けられた位置情報であって、前記観測取得ステップにより前記位置情報が取得された前記観測対象者とは異なる所定の比較対象者の前記特定の身体部位の位置情報を取得する比較取得ステップと、
前記観測取得ステップにより取得された前記観測対象者の前記位置情報と、前記比較読出手段により読み出された前記比較対象者の前記位置情報とを、それぞれの前記時間情報が対応する前記楽曲の再生開始時間から再生終了時間までの同一タイミングにおいて比較し、比較したタイミングにおける前記観測対象者について、前記比較対象者との前記特定の身体部位の相対距離と、前記比較対象者に近づく向きを正とする前記特定の身体部位の向きおよび傾きの少なくともいずれかと、を判定する判定ステップと、
判定ステップによる判定結果に応じて、前記楽曲の再生開始時間から再生終了時間までの前記観測対象者の動きを評価した結果を出力させる出力制御ステップと、
を備えることを特徴とする評価制御プログラム。
A program executed by a computer,
An identification step for identifying a user in a predetermined space as an observation target;
An observation acquisition step of acquiring position information of a specific body part of the observation subject identified by the identification step;
Predetermined comparison target person that is position information associated with the time information from the reproduction start time to the reproduction end time of the music, and is different from the observation target person from which the position information was acquired by the observation acquisition step A comparative acquisition step of acquiring position information of the specific body part of
The reproduction of the music corresponding to the time information corresponding to the position information of the observation target acquired by the observation acquisition step and the position information of the comparison target read by the comparison reading unit Comparison is made at the same timing from the start time to the reproduction end time, and the relative distance of the specific body part to the comparison target person and the direction approaching the comparison target person are positive for the observation target person at the compared timing A determination step of determining at least one of a direction and an inclination of the specific body part to be performed;
According to the determination result by the determination step, an output control step for outputting a result of evaluating the movement of the observation subject from the reproduction start time to the reproduction end time of the music;
An evaluation control program comprising:
JP2016070463A 2016-03-31 2016-03-31 Evaluation control device Pending JP2017181858A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016070463A JP2017181858A (en) 2016-03-31 2016-03-31 Evaluation control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016070463A JP2017181858A (en) 2016-03-31 2016-03-31 Evaluation control device

Publications (1)

Publication Number Publication Date
JP2017181858A true JP2017181858A (en) 2017-10-05

Family

ID=60004492

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016070463A Pending JP2017181858A (en) 2016-03-31 2016-03-31 Evaluation control device

Country Status (1)

Country Link
JP (1) JP2017181858A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007156330A (en) * 2005-12-08 2007-06-21 Taito Corp Karaoke device with compatibility determination function

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007156330A (en) * 2005-12-08 2007-06-21 Taito Corp Karaoke device with compatibility determination function

Similar Documents

Publication Publication Date Title
EP2993615B1 (en) Scoring device and scoring method
US20180032304A1 (en) Methods and devices for identifying object in virtual reality communication, and virtual reality equipment
JP4627052B2 (en) Audio output method and apparatus linked to image
WO2017120068A1 (en) Active speaker location detection
JP2011033993A (en) Information presenting apparatus and method for presenting information
KR101263686B1 (en) Karaoke system and apparatus using augmented reality, karaoke service method thereof
CN107005761B (en) Information processing apparatus, information processing system, control method, and program
JP2014217627A (en) Physical action evaluation device, karaoke system, and program
CN103141080A (en) User interface system and method using thermal imaging
JP2007036874A (en) Viewer information measurement system and matching system employing same
US10970932B2 (en) Provision of virtual reality content
CN111858993B (en) Article finding guiding system for special article
JP2007072194A (en) Man type picture control unit
JP4409545B2 (en) Three-dimensional position specifying device and method, depth position specifying device
JP2017181858A (en) Evaluation control device
JP2009239346A (en) Photographing device
JP2021118456A (en) Computer program, method, and server device
JP5318016B2 (en) GAME SYSTEM, GAME SYSTEM CONTROL METHOD, AND PROGRAM
JP6531567B2 (en) Karaoke apparatus and program for karaoke
JP2014233477A (en) Game program and game device
KR101953964B1 (en) A Smart Digital Frame and Contents Providing System Using this
JP5772124B2 (en) Karaoke equipment
US20240212306A1 (en) Performance Recording System, Performance Recording Method, and Recording Medium
JP5600201B1 (en) GAME PROGRAM AND GAME DEVICE
JP2020020891A (en) Karaoke device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170831

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180607

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180626

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190308