JP2000200088A - Karaoke sing-along machine - Google Patents

Karaoke sing-along machine

Info

Publication number
JP2000200088A
JP2000200088A JP10377230A JP37723098A JP2000200088A JP 2000200088 A JP2000200088 A JP 2000200088A JP 10377230 A JP10377230 A JP 10377230A JP 37723098 A JP37723098 A JP 37723098A JP 2000200088 A JP2000200088 A JP 2000200088A
Authority
JP
Japan
Prior art keywords
data
marker
singer
color
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10377230A
Other languages
Japanese (ja)
Inventor
Haruji Taniguchi
晴次 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ART WING KK
Nagase and Co Ltd
Original Assignee
ART WING KK
Nagase and Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ART WING KK, Nagase and Co Ltd filed Critical ART WING KK
Priority to JP10377230A priority Critical patent/JP2000200088A/en
Publication of JP2000200088A publication Critical patent/JP2000200088A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

PROBLEM TO BE SOLVED: To enhance the actual feel of participation in a KARAOKE sing-along event via motion, such as choreography, by detecting the movements of motion detecting markers disposed on the body surface of a singer and forming and outputting singer motion data, such as choreography motion, in real time in synchronization with KARAOKE sing-along playing in accordance with the detection information thereof. SOLUTION: Color cameras 15 detect the movements of the plural motion detecting markers disposed at the prescribed positions on the body surface of the singer GAL. A singer motion data forming means forms the singer motion data, such as choreography motion, which the singer GAL carries out while singing in real time in synchronization with the KARAOKE sing-along playing. A singer motion data outputting means outputs the singer motion data in synchronization with the KARAOKE sing-along playing. If the singer GAL, thereupon, induces the choreography motion, this motion is transmitted to a computer graphic image CG and the same motion as the motion of the singer GAL is carried out on the screen of a monitor 109.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明はカラオケ装置に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a karaoke apparatus.

【0002】[0002]

【従来の技術】カラオケ装置は周知の通り、所定の曲を
選択するとスピーカから曲が流れ、その演奏曲の歌詞テ
ロップが背景画像とともにモニタに表示されるものであ
る。一般的なカラオケ装置においては、歌詞内容に関連
した動画像を背景画像としてモニタ表示されるものが多
いが、ごく最近になって「振付カラオケ」あるいは略し
て「フリカラ」等と称される機種が普及しはじめ、愛好
者の関心を集めている。これは、一般的な背景画像に代
えて、その歌の振付動作のコンピュータグラフィック
(以下、コンピュータグラフィックを「CG」と略記す
る)動画を表示するもので、歌唱者はCG動画を見なが
ら歌に合わせて振付けを踊る楽しみを享受することがで
きる。この場合、例えば、プロのダンサーの模範振付動
作をモーションキャプチャシステムにより取り込み、そ
の動作データを用いた公知のCG技術を用いることによ
り、ダンサーの動きを忠実に模写したアニメーションキ
ャラクタのCG動画が得られる。これを、カラオケ演奏
と同期して動画再生することで、利用者が行う振付動作
の模範として利用することができる。
2. Description of the Related Art As is well known, a karaoke apparatus is such that when a predetermined music piece is selected, the music piece is played from a speaker, and the lyrics telop of the music piece is displayed on a monitor together with a background image. In a general karaoke apparatus, a moving image related to the contents of the lyrics is often displayed on a monitor as a background image. However, recently, a model called “choreography karaoke” or “flicker” for short has recently been used. It has begun to spread and has attracted the interest of enthusiasts. This displays a computer graphic (hereinafter, computer graphic is abbreviated as "CG") moving image of the choreographic operation of the song instead of a general background image. You can enjoy the fun of choreography. In this case, for example, a CG moving image of an animation character faithfully replicating the dancer's motion can be obtained by capturing the model choreography motion of a professional dancer with a motion capture system and using a known CG technique using the motion data. . This can be used as an example of a choreography operation performed by a user by reproducing a moving image in synchronization with a karaoke performance.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上記従
来のカラオケ装置では、曲演奏とともに振付動作のCG
動画が一方的に流れるのみであり、カラオケ装置の利用
者は、CG動画を見ながらこれを真似て振付けを踊るこ
とで自己満足するのが精々である。また、特定のアイド
ル歌手等の熱烈なファンであれば、アイドル願望を成就
させるために、振付を踊りながら絶唱して自己の夢見る
世界に没入するといったことも十分ありうる。しかしな
がら、上記従来のカラオケ装置では、その場で振付けを
踊っているのが本物のアイドルではなく、当の歌唱者で
あることは覆い隠しようのない事実であり、夢と現実の
ギャップにさいなまれないようにするには、相当強靭な
虚栄心ならびに想像力の持続が要求される。また、表示
装置に表示されるのが、ソフィスティケートされたプロ
の動きを写し取ったCG動画であるから、これに見入る
うちに、自分自身の踊りとの質的な隔たりが却って増幅
実感されるといった弊害も生じうる。すなわち、せっか
く振付けを踊りながら歌唱していても、利用者を現実に
引き戻す要素が多すぎ、自らをアイドルにダブらせた仮
想現実(バーチャルリアリティー)を体感させるには程
遠いと言わざるをえない。
However, in the above-mentioned conventional karaoke apparatus, the CG of the choreography operation together with the music performance is performed.
The moving image only flows unilaterally, and the user of the karaoke apparatus is at best satisfied with watching the CG moving image and performing choreography while imitating the moving image. In addition, an enthusiastic fan, such as a specific idol singer, may well be able to perform choreography while dancing and immerse himself in the dreaming world in order to fulfill his idol desire. However, in the above-mentioned conventional karaoke apparatus, it is not a real idol that choreography is performed on the spot, but it is an irreplaceable singer, and it is an fact that it is impossible to obscure it. To do so requires a fairly strong vanity and a sustained imagination. Also, since what is displayed on the display device is a CG movie that captures the movements of professionals who have been sofitified, the qualitative gap from the dance of one's own will be amplified rather than looking at it. Can also occur. In other words, even if you sing while dancing the choreography, there are too many elements to bring the user back to reality, and it is far from being able to experience virtual reality (virtual reality) that made yourself idle. .

【0004】一方、向上心の高い利用者であれば、CG
動画に表れているプロのダンサーの動きを見て振付練習
に励むことも考えられる。この場合、通常の利用者であ
れば、自分の踊りがどの程度向上したかを知りたく思う
ことが当然の成り行きといえる。しかしながら、上記の
従来のカラオケ装置は、利用者の踊りの内容を客観的に
評価する機能を備えておらず、まして、その評価をカラ
オケ演奏毎に即時に行う機能を有するものは皆無であ
る。なお、特開平10−301586号公報には、歌唱
音声とともに歌唱者の歌唱姿をビデオ記録できる装置も
提案されているが、これは歌唱姿が単に録画されるだけ
のものであり、客観的な評価を行うものではない。そし
て、従来のカラオケ装置のこれらの欠点はすべて、利用
者自身の動作が装置側の機能に何ら反映されないとい
う、共通の原因に根差すものである。
On the other hand, if a user is highly motivated, CG
Watching the movements of professional dancers appearing in the video, you may try to practice choreography. In this case, it can be said that ordinary users want to know how much their dance has improved. However, the above-mentioned conventional karaoke apparatus does not have a function of objectively evaluating the content of a user's dance, and none of the conventional karaoke apparatuses has a function of immediately performing the evaluation for each karaoke performance. Japanese Patent Application Laid-Open No. Hei 10-301586 also proposes a device capable of video recording a singing figure of a singer together with a singing voice. It does not evaluate. All of these drawbacks of the conventional karaoke apparatus are rooted in a common cause that the operation of the user himself is not reflected in the function of the apparatus at all.

【0005】本発明の課題は、利用者自身の動作を取り
込んで装置側の機能に反映させることにより、振付等の
動作を介したカラオケイベントへの参加実感を、従来の
カラオケ装置と比較してはるかに高めることができ、例
えば利用者自身をアイドル歌手化するといった仮想現実
効果に富む演出を行ったり、あるいは利用者の歌唱しな
がらの振付動作を客観的に評価したりするなど、これま
での装置にはない斬新な効果が達成可能なカラオケ装置
を提供することにある。
[0005] An object of the present invention is to compare the karaoke device with a conventional karaoke device by capturing the user's own operation and reflecting it on the function of the device, thereby realizing participation in a karaoke event through operations such as choreography. It can be much more enhanced, for example, performing a rich effect of virtual reality effect such as turning the user into an idol singer, or objectively evaluating the choreographic movement of the user while singing, etc. It is an object of the present invention to provide a karaoke apparatus that can achieve a novel effect not found in the apparatus.

【0006】[0006]

【課題を解決するための手段及び作用・効果】本発明
は、カラオケ演奏手段と、歌詞表示手段と、その歌詞表
示手段に表示される歌詞を見ながら歌唱するためのマイ
クと、そのマイクから入力された歌唱音声を出力する歌
唱音声出力部とを備えたカラオケ装置において、上記の
課題を解決するために、歌唱者の身体表面の所定位置に
複数設けられた動作検出マーカの動きを検出する動作検
出手段と、その動作検出手段が検出する検出情報に基づ
いて、歌唱者が歌いながら行う振付動作等の動作のデー
タである歌唱者動作データを、カラオケ演奏に合わせて
リアルタイム作成する歌唱者動作データ作成手段と、そ
の歌唱者動作データをカラオケ演奏に合わせて出力する
歌唱者動作データ出力手段とを備えたことを特徴とす
る。
SUMMARY OF THE INVENTION The present invention provides a karaoke performance means, a lyrics display means, a microphone for singing while watching the lyrics displayed on the lyrics display means, and an input from the microphone. In order to solve the above-mentioned problem, in a karaoke apparatus provided with a singing voice output unit for outputting a selected singing voice, an operation of detecting the motion of a plurality of motion detection markers provided at predetermined positions on the body surface of the singer Based on the detection means and the detection information detected by the motion detection means, singer motion data which is singer motion data, which is data of motion such as choreography performed by the singer while singing, is created in real time according to the karaoke performance It is characterized by comprising creator means and singer operation data output means for outputting the singer operation data according to the karaoke performance.

【0007】該本発明のカラオケ装置おいては、歌唱者
の身体表面(着衣表面であってもよい)に設けられた動
作検出マーカの動きを動作検出手段にて検出し、その検
出情報に基づいて振付動作等の歌唱者動作データを、カ
ラオケ演奏に合わせてリアルタイム作成・出力するよう
にした。その出力される歌唱者動作データを活用するこ
とで、カラオケ装置の利用者自身の動作を装置側の機能
に種々の形態にて反映させることが可能となり、例えば
振付等の動作を介したカラオケイベントへの参加実感
を、従来のカラオケ装置と比較してはるかに高めること
ができる。
In the karaoke apparatus of the present invention, the movement of the movement detecting marker provided on the body surface of the singer (which may be a clothing surface) is detected by the movement detecting means, and based on the detected information. The singer's movement data, such as choreography, is created and output in real time according to the karaoke performance. By utilizing the output singer operation data, it is possible to reflect the operation of the user of the karaoke apparatus in various forms on the function of the apparatus, and for example, a karaoke event through an operation such as choreography. The feeling of participation in the karaoke can be greatly enhanced as compared with the conventional karaoke apparatus.

【0008】上記本発明のカラオケ装置には、上記出力
される歌唱者動作データに基づいて、歌唱者動作を反映
したコンピュータグラフィック動画像(歌唱者対応CG
動画像)を合成する歌唱者対応CG動画像合成手段と、
その歌唱者対応CG動画像をカラオケ演奏に合わせて出
力する歌唱者対応CG動画像出力手段とを設けることが
できる。これにより、次のような斬新な効果を達成する
ことができる。
According to the karaoke apparatus of the present invention, a computer graphic moving image (singer-compatible CG) reflecting the singer operation based on the output singer operation data is provided.
CG moving image synthesizing means for singers for synthesizing moving images),
A singer-compatible CG moving image output means for outputting the singer-compatible CG moving image in accordance with the karaoke performance can be provided. As a result, the following novel effects can be achieved.

【0009】例えば、歌唱者対応CG動画像を、歌手
やダンサー等の人間モデルの動画像とすれば、歌唱者自
らの振付等の動作が歌手やダンサーのCG動画像の動き
に反映された形で出力・表示されることとなる。憧れの
歌手やダンサーのCG動画像が、自身の動作通りに動く
のを見ながら歌唱することで、利用者は自らがCG動画
像の表す歌手やダンサーになり切ったつもりでカラオケ
を楽しむことができる。すなわち、利用者自身をいわば
アイドル歌手化するといった仮想現実的効果を大いに高
めることができる。また、人間モデルに代えてアニメー
ションキャラクタのCG動画像を使用すれば、現実には
絶対に入り込むことができないアニメーションの世界に
自らを没入させながら歌唱及び振付けを楽しむという、
風変わりな体験をすることが可能 となる。
For example, if a CG moving image corresponding to a singer is a moving image of a human model such as a singer or a dancer, the movement of the singer himself such as choreography is reflected in the movement of the CG moving image of the singer or the dancer. Will be output and displayed. By singing while watching the CG moving image of the admired singer or dancer move according to his / her own movement, the user can enjoy karaoke as if he / she was the singer or dancer represented by the CG moving image. it can. In other words, the virtual reality effect of making the user himself an idol singer can be greatly enhanced. Also, if a CG moving image of an animated character is used instead of a human model, the user can enjoy singing and choreography while immersing himself in an animation world that can never enter the real world.
You will have a quirky experience.

【0010】他方、やや奇抜な発想ではあるが、例えば
利用者から見て異性の歌手やアニメーションキャラクタ
のCG動画像を、歌唱者対応CG動画像として用いるこ
とも可能である。例えば、昨今では女装を趣味とする男
性の数も増加しつつあるが、現実に女装を実行に移すに
は相当の勇気が必要であり、女装したくとも願望のみで
留まっている潜在的な女装願望者(いわゆる「隠れ女装
願望者」)がかなりの数存在すると見られる。そこで、
例えば女性アイドル歌手のCG動画像を歌唱者対応CG
動画像として使用すれば、実際に女装しなくとも女性ア
イドル歌手の気分を味わうことができるので、上記のよ
うな隠れ女装願望者は溜飲を下げることができる。この
場合、マイクから入力された歌唱音声を出力する歌唱音
声出力部に、入力音声波形を変調することにより原音声
とは異質の音声波形にこれを変換する音声変換部を設け
ることができる。例えば、男性の音声波形を女性的な高
音の音声波形に変換することで、歌唱する声が女性的な
ものに変じて出力されるので一層効果的である。
On the other hand, although it is a somewhat strange idea, for example, a CG moving image of a singer or an animation character of the opposite sex as viewed from the user can be used as a CG moving image corresponding to a singer. For example, in recent years, the number of men who have a hobby as a transvestite is increasing, but it takes considerable courage to actually put the transvestite into practice. It appears that there is a considerable number of aspirants (so-called "hidden transvestites"). Therefore,
For example, a female idol singer's CG video is converted to a singer's CG
If used as a moving image, the female idol singer can enjoy the feeling of a female idol singer without actually dressing up, so that the above-mentioned hidden transvestite applicant can reduce drinking. In this case, the singing voice output unit that outputs the singing voice input from the microphone can be provided with a voice conversion unit that converts the input voice waveform into a voice waveform different from the original voice by modulating the input voice waveform. For example, by converting a male voice waveform into a feminine high-pitched voice waveform, the singing voice is converted into a feminine voice and output, which is more effective.

【0011】プロの歌手やダンサーによる模範動作の
動画像データを記憶する模範動作動画像データ記憶手段
を設け、その模範動作動画像データに基づく模範動作動
画像に、歌唱者対応CG動画像として、歌唱者側に設け
られた動作検出マーカ位置を表す画像、あるいは動作検
出マーカ位置に対応してCG等により合成される歌唱者
の輪郭画像を重ね表示する。この表示を見ながら動作す
ることで、利用者は、模範動作動画像と自分自身の動作
とのずれをリアルタイムにて確認することができる。そ
の結果、動作矯正の指針を得ることができ、振付け練習
等において大変効果的である。
[0011] A model operation moving image data storage means for storing moving image data of a model operation performed by a professional singer or dancer is provided, and a model operation moving image based on the model operation moving image data is stored as a CG video corresponding to a singer. An image representing the position of the motion detection marker provided on the singer side, or a contour image of the singer synthesized by CG or the like corresponding to the position of the motion detection marker is displayed in a superimposed manner. By operating while looking at this display, the user can check in real time the deviation between the exemplary operation moving image and his / her own operation. As a result, a guideline for motion correction can be obtained, which is very effective in choreography practice and the like.

【0012】上記カラオケ装置には、歌唱者対応CG動
画像と組み合わされるべき1又は複数の人間モデルない
しアニメーションキャラクタの動画像(以下、随伴動画
像という)の画像データを記憶する随伴動画像データ記
憶手段と、その随伴動画像データに基づく随伴動画像を
歌唱者対応CG動画像とフレーム合成して、これを歌唱
者対応CG動画像出力手段に出力させる随伴動画像合成
出力制御手段を設けることができる。例えば、人気アイ
ドルペアやアイドルグループの歌を歌いながら振付け動
作する場合、メンバーの特定の一人を歌唱者対応CG動
画像にて表し、残りのメンバーを随伴動画像として合成
表示すれば、そのペアやグループの一員になったつもり
で楽しく歌唱及び振付け動作を行うことができる。ま
た、複数メンバーの息の合った振付け動作も、随伴動画
像の動作に歌唱者対応CG動画像を組み合わせること
で、一人で歌唱しているにも拘わらずリアルに再現する
ことができる。
The karaoke apparatus has an accompanying moving image data storage for storing image data of one or more moving images of a human model or an animation character (hereinafter referred to as an accompanying moving image) to be combined with a CG moving image corresponding to a singer. Means and an accompanying moving image synthesizing output control means for synthesizing the accompanying moving image based on the accompanying moving image data with the singing person corresponding CG moving image and outputting the synthesized image to the singer corresponding CG moving image output means. it can. For example, when performing a choreography operation while singing a song of a popular idol pair or idol group, a specific one of the members is represented by a CG video corresponding to the singer, and the remaining members are synthesized and displayed as an accompanying video. Singing and choreography can be performed happily with the intention of becoming a member of the group. Also, a choreography motion in which a plurality of members fit together can be realistically reproduced by combining the operation of the accompanying moving image with the CG moving image corresponding to the singer, even though the singing is performed alone.

【0013】なお、歌唱者対応CG動画像出力手段は歌
詞表示手段に兼用することができる。この構成によれ
ば、歌唱者対応CG動画像により自分の振付け動作を確
認しながら、歌詞の確認も容易に行うことができる。そ
の結果、歌詞がうろ覚えの曲であってもこれに攪乱され
ることなく存分に歌って踊れ、立体的なカラオケ効果を
楽しむことができる。
The singer's CG moving image output means can also be used as the lyrics display means. According to this configuration, it is possible to easily confirm the lyrics while confirming the user's choreography operation based on the singer's CG moving image. As a result, it is possible to sing and dance satisfactorily without being disturbed by a song whose lyrics are memorized, and to enjoy a three-dimensional karaoke effect.

【0014】次に、本発明のカラオケ装置には、歌唱者
が行うべき基準となる歌唱者動作の動作データ(基準動
作データ)を記憶する基準動作データ記憶手段と、その
基準動作データと歌唱者動作データとの比較に基づいて
歌唱者動作の評価を行う歌唱者動作評価手段と、その評
価結果を出力する歌唱者動作評価結果出力手段とを設け
ることができる。歌唱者動作データと基準動作データと
を比較することにより、利用者が行う振付け動作等を客
観的に評価することが可能となる。そして、その評価結
果を出力することにより、例えば利用者は自らの振付け
動作の実力を定量的に確認することができ、その後の振
付け練習等に大いに参考にすることができる。また、カ
ラオケパーティ等の集いにおいては、歌唱しながら振付
け動作を披露し合い、評価結果を出力することでその場
を大いに盛り上げることができる。歌唱者動作データは
各時刻毎の動作検出マーカの位置の情報を含み、また、
基準動作データは、各時刻毎に動作検出マーカが位置す
べき標準的な位置(以下、標準マーカ位置という)の情
報を含むものとすることができ、歌唱者動作評価手段
は、各時刻毎に動作検出マーカ位置と標準マーカ位置と
が所定の位置関係を満足しているか否かを判別し、その
判別結果に基づいてポイントの加算及び/又は減算を行
い、当該ポイント値の大小によって歌唱者動作の評価を
行うものとすることができる。ポイント値の大小によっ
て歌唱者動作の評価を行うことで、評価結果をより理解
しやすいものとすることができる。
Next, in the karaoke apparatus of the present invention, reference operation data storage means for storing operation data (reference operation data) of a singer operation as a reference to be performed by the singer, the reference operation data and the singer A singer motion evaluator for evaluating a singer motion based on comparison with the motion data and a singer motion evaluation result output device for outputting the evaluation result can be provided. By comparing the singer's motion data with the reference motion data, it becomes possible to objectively evaluate a choreographic motion or the like performed by the user. Then, by outputting the evaluation result, for example, the user can quantitatively confirm the ability of his or her own choreography operation, and can greatly refer to the subsequent choreography practice and the like. Further, in a gathering such as a karaoke party, the choreography operation is performed while singing, and the evaluation result is output, thereby greatly enlivening the place. The singer motion data includes information on the position of the motion detection marker at each time,
The reference motion data may include information on a standard position (hereinafter, referred to as a standard marker position) where the motion detection marker should be positioned at each time, and the singer motion evaluation unit performs motion detection at each time. It is determined whether or not the marker position and the standard marker position satisfy a predetermined positional relationship, and points are added and / or subtracted based on the determination result, and the singer's motion is evaluated based on the magnitude of the point value. Can be performed. By evaluating the singer's motion based on the magnitude of the point value, the evaluation result can be made easier to understand.

【0015】次に、動作検出手段は、歌唱者を被写体と
して、該被写体に動作検出マーカとしてのカラーマーカ
を取り付けるか、又はその被写体の一部をカラーマーカ
として定めた状態において、その被写体の動作を撮影す
る1又は複数のカラーカメラと、カラーカメラからの映
像出力に基づくカラー映像信号を、そのデコード処理を
通じて各映像信号に含まれる色情報を特定数の色グルー
プに統合・集約することにより、カラー映像信号よりも
データ数の少ない画像データ(以下、色統合画像データ
という)を生成する色統合画像データ生成手段と、その
生成された色統合画像データに対し、カラーマーカの色
として予め指定された色(以下、マーカ指定色という)
の画素のデータを抽出するマーカ指定色抽出手段と、そ
の抽出されたマーカ指定色画素データに基づき、撮影さ
れた被写体のカラーマーカ位置を演算し、その演算結果
として得られるマーカ位置データを被写体の動作データ
として出力するマーカ位置データ演算・出力手段とを備
えるものとすることができる。
Next, the motion detecting means sets the singer as a subject, attaches a color marker as a motion detection marker to the subject, or sets a part of the subject as a color marker, and By integrating one or a plurality of color cameras for photographing a color video signal based on a video output from the color camera and integrating color information included in each video signal into a specific number of color groups through a decoding process, A color integrated image data generating means for generating image data having a smaller number of data than the color video signal (hereinafter referred to as color integrated image data); and the generated color integrated image data is designated in advance as a color of a color marker. Color (hereinafter referred to as the marker designated color)
A marker-specified color extracting means for extracting pixel data of the subject; calculating a color marker position of the photographed subject based on the extracted marker-specified color pixel data; and calculating the marker position data obtained as a result of the calculation. Marker position data calculation / output means for outputting as operation data.

【0016】カメラが撮影するカラーマーカを含めた被
写体のカラー画像は、例えばRGB映像信号の膨大な色
情報にて構成されているため情報量が莫大となり、その
ままでは動作データのリアルタイム作成に事実上不都合
なものとなる。そこで、被写体上のカラーマーカの画像
情報を特定数の色グループに統合・集約することで、情
報量が劇的に減ずるのでリアルタイム処理が容易とな
り、カラオケ装置全体のハードウェア構成も簡素化する
ことができる。
A color image of a subject including a color marker captured by a camera is composed of a huge amount of color information of, for example, an RGB video signal, and the amount of information is enormous. It is inconvenient. Therefore, by integrating and aggregating the image information of the color markers on the subject into a specific number of color groups, the amount of information is dramatically reduced, real-time processing is facilitated, and the hardware configuration of the entire karaoke apparatus is simplified. Can be.

【0017】また、動作検出手段は、動作検出マーカと
してのカラーマーカとして、1個のカラーマーカの表面
が、2以上の異なるマーカ色にて着色された複数領域に
区分されたものを用い、歌唱者を被写体として、該被写
体にそのカラーマーカを取り付けるか、又はその被写体
の一部をカラーマーカとして定めた状態において、その
被写体の動作を撮影するカラーカメラと、撮影された被
写体の動画像の、各フレームの画像データにおいて、マ
ーカ色に対応する特定の2以上の色が混在して存在する
領域をマーカ画像として特定するマーカ画像特定手段
と、その特定されたマーカ画像を構成するマーカ画素の
画素平面上の位置情報に基づいて、マーカ画素の集合と
して表されるマーカ画像の位置データを生成するマーカ
位置データ生成手段と、各動画フレーム毎に生成された
マーカ画像の位置データを、被写体の動作データとして
出力する動作データ出力手段とを備えるものとすること
ができる。
The motion detection means uses a color marker as a motion detection marker whose surface is divided into a plurality of areas colored by two or more different marker colors to sing. With a person as a subject, the color marker is attached to the subject, or in a state where a part of the subject is defined as a color marker, a color camera that captures the motion of the subject, and a moving image of the captured subject, Marker image specifying means for specifying, as a marker image, an area in which two or more specific colors corresponding to the marker colors are present in the image data of each frame, and the pixels of the marker pixels constituting the specified marker image Marker position data generation means for generating position data of a marker image represented as a set of marker pixels based on position information on a plane , The position data of the generated marker image for each video frame can be made and a motion data output means for outputting the operation data of the subject.

【0018】上記構成によれば、被写体の体に付けるマ
ーカの色として、1個のカラーマーカの表面が、2以上
の異なるマーカ色にて着色された複数領域に区分された
ものを用い、マーカ色に対応する特定の2以上の色が混
在して存在する領域をマーカ画像として特定するように
した。その結果、色の組み合わせの異なるマーカ同士
は、一部の領域が同色に着色されていたとしても、異な
るマーカとして識別されるので、従来のモーションキャ
プチャシステムと比較してマーカ数も大幅に増やすこと
が可能となる。例えば、8色を識別色として採用する場
合、2色を組み合わせたマーカでは最大では28種類、
3色を組み合わせたマーカでは最大で56種類ものマー
カの識別が可能となる。
According to the above arrangement, the color of the marker attached to the body of the subject is such that the surface of one color marker is divided into a plurality of areas colored by two or more different marker colors, An area where two or more specific colors corresponding to the colors are present is specified as a marker image. As a result, markers with different color combinations are identified as different markers even if some areas are colored in the same color, so the number of markers can be significantly increased compared to conventional motion capture systems. Becomes possible. For example, when eight colors are used as identification colors, a maximum of 28 markers can be used for a combination of two colors.
With a marker combining three colors, it is possible to identify as many as 56 types of markers.

【0019】また、動作検出手段は、各フレームの画像
データに対し、予め定められた形状及び大きさの仮想的
なマスク領域を、その画像データの画素平面上において
移動可能に設定するマスク領域設定手段と、各画素に対
し設定される複数の色のうち、2以上のものをマーカ色
に対する判別指定色として指定し、また、パターン条件
として、判別指定色画素のマスク領域内における個数、
判別指定色画素のマスク領域内における位置、及び判別
指定色画素が複数含まれる場合においてはそれらの相対
的な配置関係、の少なくとも1つを含むものを予め定
め、画素平面上に設定されたマスク領域において各判別
指定色の画素が、そのパターン条件に適合しているか否
かを判別するパターン適合判別手段と、マスク領域を画
素平面上で走査するマスク領域走査手段と、各走査位置
のマスク領域に対応する対象画素のうち、パターン条件
に適合と判別された画素(以下、適合画素という)を抽
出する適合画素抽出手段とを含み、マーカ位置データ生
成手段は、その抽出された適合画素の画素平面上の位置
情報に基づいてマーカ位置情報を生成するものとして構
成することができる。
The motion detecting means sets a mask area of a predetermined shape and size for the image data of each frame so as to be movable on a pixel plane of the image data. Means, and two or more colors among a plurality of colors set for each pixel are designated as discrimination designation colors for the marker color, and the number of discrimination designation color pixels in the mask area as a pattern condition;
A mask including at least one of the position of the discrimination-designated color pixel in the mask area and, when a plurality of discrimination-designated color pixels are included, at least one of their relative arrangement relations, is set on the pixel plane. Pattern matching determining means for determining whether or not a pixel of each determination designated color in the area matches the pattern condition; mask area scanning means for scanning the mask area on a pixel plane; and mask area at each scanning position And a suitable pixel extracting means for extracting a pixel determined to be suitable for the pattern condition (hereinafter, referred to as a suitable pixel) among the target pixels corresponding to. It can be configured to generate marker position information based on position information on a plane.

【0020】上記の構成では、画素平面上に移動可能に
設定されるマスク領域に対し、2以上の判別指定色を同
時に指定し、パターン条件として、各判別指定色の画素
がマスク領域内に共存していることを必須として定め、
画素平面上に設定されたマスク領域において各判別指定
色の画素が、そのパターン条件に適合しているか否かを
判別するようにした。これにより、マスク内において2
以上の色の画素を同時検出する形でパターンマッチング
(適合)が行われるので、2以上の色が混在した画像を
直接的にかつ精度高く認識可能となる。また、判別の条
件は、判別指定色画素の個数と位置、及び判別指定色画
素が複数含まれる場合においてはそれらの相対的な配置
関係、の少なくとも1つを含むものが使用されるので処
理内容が簡略化でき、リアルタイム処理への適用も容易
に図ることができる。なお、画素の個数や位置あるいは
相対位置は、同一色の画素のみに着目して検出を行って
もよいし、色の異なる画素同士の合計個数や相対位置等
を検出するようにしてもよい。
In the above configuration, two or more discriminating designated colors are simultaneously designated for a mask area set to be movable on a pixel plane, and pixels of each discriminating designated color coexist in the mask area as a pattern condition. Is defined as mandatory,
In the mask area set on the pixel plane, it is determined whether or not the pixel of each designated color matches the pattern condition. Thereby, 2 in the mask
Since pattern matching (adaptation) is performed in such a manner that pixels of the above colors are simultaneously detected, it is possible to directly and accurately recognize an image in which two or more colors are mixed. In addition, since the discrimination conditions include at least one of the number and position of the discrimination-designated color pixels and, when a plurality of discrimination-designated color pixels are included, their relative arrangement relations, the processing contents Can be simplified, and application to real-time processing can be easily achieved. The number, position, or relative position of pixels may be detected by focusing only on pixels of the same color, or the total number, relative position, or the like of pixels having different colors may be detected.

【0021】この場合、設定されたマスク領域と所定の
位置関係を満足する1又は複数の画素を対象画素とし
て、その対象画素に対しパターン適合判別手段による判
別結果に応じた特定の出力状態を規定する対象画素デー
タを生成する対象画素データ生成手段を設けることがで
きる。対象画素データ生成手段は、判別指定色の画素の
配列がパターン条件に適合すると判別された場合には、
対象画素の出力状態を第一の出力状態に設定するデータ
を生成する一方、非適合と判別した場合には、対象画素
の出力状態を記第一の出力状態とは異なる第二の出力状
態に設定するデータを生成するとすることができる。こ
の構成は、パターン条件に適合する画素集合を、二値の
画像領域として認識したい場合に特に有効である。
In this case, one or a plurality of pixels satisfying a predetermined positional relationship with the set mask area are set as target pixels, and a specific output state is defined for the target pixel in accordance with the result of the determination by the pattern matching determining means. Target pixel data generating means for generating target pixel data to be generated. The target pixel data generating means, when it is determined that the arrangement of the pixels of the designated color for determination matches the pattern condition,
While generating data for setting the output state of the target pixel to the first output state, if it is determined to be non-conforming, the output state of the target pixel is changed to a second output state different from the first output state. It is possible to generate data to be set. This configuration is particularly effective when it is desired to recognize a pixel set that meets the pattern condition as a binary image area.

【0022】また、本発明の動画処理装置では、マスク
領域を画素平面上で走査するマスク領域走査手段と、各
走査位置のマスク領域に対応する対象画素のうち、パタ
ーン条件に適合と判別された画素(以下、適合画素とい
う)を抽出する適合画素抽出手段とを設けることができ
る。これにより、パターン条件に適合する画素からなる
領域を容易に抽出できる。具体的には、抽出された適合
画素のデータを、適合画素の集合として表される抽出画
像のデータとして出力する抽出画像データ出力手段を設
ける形とする。なお、色の違い、あるいは色の組み合わ
せの違い等により、2種以上の画像領域を互いに区別し
た形で抽出したい場合には、それぞれの種別を特定する
ための情報を適合画素データに付加する形で生成すれば
よい。
Further, in the moving image processing apparatus of the present invention, the mask area scanning means for scanning the mask area on the pixel plane and the target pixel corresponding to the mask area at each scanning position are determined to be suitable for the pattern condition. A suitable pixel extracting means for extracting a pixel (hereinafter, referred to as a suitable pixel) can be provided. This makes it possible to easily extract a region composed of pixels that meet the pattern condition. More specifically, an extracted image data output unit that outputs the data of the extracted suitable pixels as data of an extracted image represented as a set of suitable pixels is provided. If it is desired to extract two or more types of image areas in a form that is distinguished from each other due to a difference in color or a combination of colors, information for specifying each type is added to the matching pixel data. Can be generated by:

【0023】また、抽出された適合画素の画素平面上の
位置情報に基づいて、適合画素の集合として表される抽
出画像の位置データを生成する抽出画像位置データ生成
手段を設けることもできる。これによれば、動画中の特
定のオブジェクト(例えばカラーマーカである)を抽出
画像として抽出し、その位置データを生成することで、
動画中でのオブジェクトの動きを容易にデータ化するこ
とが可能となる。
Further, there may be provided extracted image position data generating means for generating position data of an extracted image represented as a set of suitable pixels based on the position information of the extracted suitable pixels on the pixel plane. According to this, by extracting a specific object (for example, a color marker) in a moving image as an extracted image and generating position data thereof,
The movement of an object in a moving image can be easily converted into data.

【0024】原動画映像信号のデコード処理を通じて各
映像信号に含まれる色情報を特定数の色グループに統合
・集約することにより、デコード前の映像信号よりもデ
ータ数の少ない色統合画像データを生成する色統合画像
データ生成手段を設ける場合、マーカ画像特定手段は、
色統合画像データにおいてマーカ画像を特定するものと
することができる。例えば、色の数を設定マーカ色と同
数程度に集約統合することで、マーカ識別に必要十分量
の情報を残して、あとのデータを削減できるので、装置
構成を大幅に簡略化でき、リアルタイム処理への対応も
容易となる。
By integrating and aggregating the color information included in each video signal into a specific number of color groups through decoding of the original video signal, color integrated image data having a smaller number of data than the video signal before decoding is generated. When the color integrated image data generating means is provided, the marker image specifying means
A marker image can be specified in the color integrated image data. For example, by integrating and integrating the number of colors to the same number as the set marker colors, it is possible to save the necessary and sufficient amount of information for marker identification and to reduce the amount of subsequent data. It is easy to respond to

【0025】マスク領域設定手段は、マスク領域内の各
画素に対応する色データ格納メモリ部が画素転送の時系
列順に配列されるとともに、画素転送クロックに同期し
て、それら色データ格納メモリ部に対し、各画素の色デ
ータを配列上流側から順送り的に転送・格納する転送制
御機能を有した転送制御機能付きメモリ回路部を含むも
のとして構成できる。これによれば、画素平面上でのマ
スクの設定及び移動が、画素転送クロックに同期したパ
イプライン処理によってハードウェア的になされるので
処理速度が飛躍的に向上し、歌唱者の動作を撮影しなが
らのリアルタイム処理を容易に実現できる。
The mask area setting means arranges the color data storage memory sections corresponding to the respective pixels in the mask area in chronological order of pixel transfer, and stores the color data storage memory sections in the color data storage memory sections in synchronization with the pixel transfer clock. On the other hand, it can be configured to include a memory circuit unit with a transfer control function having a transfer control function of sequentially transferring and storing the color data of each pixel from the upstream side of the array. According to this, the setting and movement of the mask on the pixel plane are performed in a hardware manner by pipeline processing synchronized with the pixel transfer clock, so that the processing speed is dramatically improved, and the operation of the singer is photographed. While real-time processing can be easily realized.

【0026】また、パターン適合判別手段は、設定され
たマスク領域内の各画素に対応して、該画素が判別指定
色に設定されているか否かが二値入力される色データ入
力端子を備え、それら色データ入力端子の入力状態の組
み合わせに一対一に対応する形で二値の判別結果を生成
・出力するハードウェアロジック判別回路を含むものと
して構成することができる。この構成によれば、パター
ン適合判別手段が、CPU等で構成された制御主体に負
担をかけないハードウェアロジックで構成されるので処
理速度が飛躍的に向上し、歌唱者の動作を撮影しながら
のリアルタイム処理を容易に実現できる。なお、ハード
ウェアロジック判別回路は、例えば論理回路あるいはプ
ログラマブルロジックデバイス(PLD)、さらにはル
ックアップテーブルメモリ等で構成できる。
The pattern matching determining means has a color data input terminal corresponding to each pixel in the set mask area for binaryly inputting whether or not the pixel is set to the specified color. And a hardware logic determination circuit that generates and outputs a binary determination result in a one-to-one correspondence with a combination of the input states of the color data input terminals. According to this configuration, since the pattern matching determination unit is configured by hardware logic that does not impose a burden on a control unit configured by a CPU or the like, the processing speed is dramatically improved, and the operation of the singer is photographed while being shot. Real-time processing can be easily realized. Note that the hardware logic determination circuit can be configured by, for example, a logic circuit or a programmable logic device (PLD), and furthermore, a look-up table memory or the like.

【0027】また、判別指定色として2種以上のものが
指定される場合、判別回路はその判別指定色に等しい数
だけ設けることができる。この場合、対象画素データ生
成手段は、各判別指定色の判別回路からの判別結果が二
値入力される複数の判別結果入力端子を備え、それら判
別結果入力端子の入力状態の組み合わせに一対一に対応
する形で、第一の出力状態及び第二の出力状態のいずれ
かを対象画素データとして出力するハードウェアロジッ
クデータ生成回路を含むものとして構成することができ
る。この構成によれば、対象画素データ生成手段が、C
PUに負担をかけないハードウェアロジックで構成され
るので処理速度が飛躍的に向上し、歌唱者の動作を撮影
しながらのリアルタイム処理を容易に実現できる。
When two or more types of designated colors are designated, the same number of discriminating circuits as the designated colors can be provided. In this case, the target pixel data generating means includes a plurality of determination result input terminals to which the determination result from the determination circuit for each determination designation color is binary-input, and one-to-one corresponding to a combination of the input states of the determination result input terminals. In a corresponding manner, the present invention can be configured to include a hardware logic data generation circuit that outputs one of the first output state and the second output state as target pixel data. According to this configuration, the target pixel data generation unit sets C
The processing speed is drastically improved because of the hardware logic that does not burden the PU, and real-time processing while photographing the singer's movement can be easily realized.

【0028】本発明の動画処理装置には、カラー映像信
号を、そのデコード処理を通じて輝度の情報である輝度
情報と、色彩成分の情報である色彩情報とに分離する情
報分離手段と、その輝度情報により色彩情報を補正する
色彩情報補正手段とを設けることができる。この場合、
色統合画像データ生成手段は、その補正された色彩情報
を主体としてこれを特定数の色グループに統合・集約す
ることにより色統合画像データを生成するものとするこ
とができる。これにより、前記したシステムの簡素化と
ともに、光量変化の影響を受けにくいシステム構成が実
現される。
The moving picture processing apparatus according to the present invention comprises: an information separating means for separating a color video signal into luminance information as luminance information and color information as color component information through decoding processing; And color information correcting means for correcting color information. in this case,
The color integrated image data generating means may generate color integrated image data by mainly integrating and correcting the corrected color information into a specific number of color groups. Thereby, the system configuration is simplified and the system configuration is less likely to be affected by a change in light amount.

【0029】また、カラー映像信号をデジタル変換する
映像信号デジタル変換手段と、そのデジタル変換された
カラー映像信号を所定の時間間隔にて取り込むことによ
り、被写体の画像データを生成する画像データ生成手段
とを設けることができる。この場合、情報分離手段は、
画像データの画素の色彩情報に対しこれを単一の成分か
らなる輝度情報と、第一色彩成分と第二色彩成分との2
成分からなる色彩情報とに分離するものとされ、色統合
画像データ生成手段は、第一色彩成分情報と第二色彩成
分情報とをそれぞれ特定数のグループに分割した場合
の、それら第一色彩成分情報グループと第二色彩成分情
報グループとの各組合せと、統合後の色彩情報(以下、
統合後色彩情報という)との対応関係を記憶した色彩統
合用ルックアップテーブルメモリを備え、各画素につい
て、その第一色彩成分と第二色彩成分とが対応する統合
後色彩情報を色統合用ルックアップテーブルメモリから
字引的に読み出して、これをその画素の色彩データとす
るものとして構成することができる。この構成によれ
ば、カラー画像データの2つの色彩成分の統合処理を、
ルックアップテーブル(以下、LUTと略記する場合が
ある)メモリを用いて迅速に行うことができ、これによ
って演算に関与するデータ量が大幅に減少させることが
できるから、簡素な回路構成で動画処理を迅速に行うこ
とができるようになる。
A video signal digital conversion means for converting the color video signal into a digital signal; and an image data generating means for generating the image data of the subject by capturing the digitally converted color video signal at predetermined time intervals. Can be provided. In this case, the information separation means
With respect to the color information of the pixel of the image data, the color information is divided into luminance information composed of a single component, and a first color component and a second color component.
And color information composed of color components, and the color integrated image data generating means, when the first color component information and the second color component information are divided into a specific number of groups, respectively, Each combination of the information group and the second color component information group and the integrated color information (hereinafter, referred to as
And a color integration look-up table memory storing the correspondence relationship with the integrated color information. For each pixel, the integrated color information corresponding to the first color component and the second color component is stored in the color integration lookup table. It can be configured such that it is read out from the up-table memory in a character-by-character manner and is used as color data of the pixel. According to this configuration, the integration processing of the two color components of the color image data is performed by
This process can be performed quickly using a look-up table (hereinafter, sometimes abbreviated as LUT) memory, and the amount of data involved in the calculation can be greatly reduced. Can be done quickly.

【0030】具体的には、色彩情報補正手段は、統合後
色彩情報と輝度情報とをそれぞれ特定数のグループに分
割した場合の、それら統合後色彩情報グループと輝度情
報グループとの各組合せと、輝度補正後の色彩情報との
対応関係を記憶した補正用ルックアップテーブルメモリ
を備え、各画素について、その統合後色彩情報と輝度情
報とが対応する輝度補正後色彩情報を、その画素の補正
後色データとして補正用ルックアップテーブルメモリか
ら字引的に読み出すものとすることができる。この構成
では、補正用ルックアップテーブルメモリの使用により
輝度情報を統合後色彩情報に組み込む形で補正を行うこ
とにより、情報量の削減を一層効果的に行うことが可能
となり、かつ光量変化の影響もより受けにくくなるの
で、生成されるマーカ位置データの精度も高くなる。
More specifically, the color information correcting means, when the integrated color information and the luminance information are divided into a specific number of groups, respectively, includes each combination of the integrated color information group and the luminance information group; A correction look-up table memory storing the correspondence relationship with the color information after the luminance correction is provided. For each pixel, the corrected color information corresponding to the integrated color information and the luminance information corresponds to the corrected color information of the pixel. The color data may be read from the correction look-up table memory in a text-based manner. In this configuration, the amount of information can be reduced more effectively by performing correction by incorporating the luminance information into the integrated color information by using the correction look-up table memory. Therefore, the accuracy of the generated marker position data also increases.

【0031】なお、上記構成では、2種の色彩情報を統
合後に、輝度情報の繰り込み(補正)を行うようにして
いたが、この順序を逆とすること、すなわち、色彩情報
をそれぞれ輝度により補正した後、それらを統合するよ
うに構成してもよい。具体的には色彩情報補正手段は、
第一色彩成分及び第二色彩成分のそれぞれに対応して、
その色彩情報と輝度情報とをそれぞれ特定数のグループ
に分割した場合の、それら色彩情報グループと輝度情報
グループとの各組合せと、輝度補正後の色彩情報との対
応関係を記憶した第一及び第二の補正用ルックアップテ
ーブルメモリを備え、各画素について、各色彩情報と輝
度情報とが対応する輝度補正後色彩成分情報を、その画
素の補正後色彩成分情報として、それぞれ対応する補正
用ルックアップテーブルメモリから字引的に読み出すも
のとする。そして、色統合画像データ生成手段におい
て、第一色彩成分情報と第二色彩成分情報とはそれぞれ
輝度補正後のものを使用するようにする。
In the above-described configuration, after integrating two kinds of color information, the renormalization (correction) of the luminance information is performed. However, the order is reversed, that is, the color information is corrected by the respective luminance. Then, they may be configured to be integrated. Specifically, the color information correction means
For each of the first color component and the second color component,
When each of the color information and the luminance information is divided into a specific number of groups, a first and a second storing a correspondence relationship between each combination of the color information group and the luminance information group and the color information after the luminance correction. A correction look-up table memory for each pixel, and for each pixel, the corrected color component information corresponding to each color information and the luminance information is used as the corrected color component information of the pixel as the corresponding correction lookup table. It shall be read out from the table memory. Then, in the color integrated image data generating means, the first color component information and the second color component information each used after the luminance correction are used.

【0032】また、適合画素の集合として表される抽出
画像の位置データを生成する抽出画像位置データ生成手
段は、画像データ毎の、指定色画素データに基づく抽出
画像位置データの演算・出力を、画素の転送周期(例え
ば、画素の転送クロックパルスの周期)と同期して逐次
行うものとして構成することができる。この構成によれ
ば、画素の転送周期に同期(例えば、転送クロックパル
スの周波数は8〜30MHz程度である)させて、各画
像フレームの抽出画像位置データの演算をパイプライン
的に高速で行うことができるから、例えばモーションキ
ャプチャシステムの場合、フレーム毎のマーカ位置デー
タを含む動作データの作成を撮影時にリアルタイムで行
うことが可能となる。特に、10MHz(例えば14〜
15MHz)以上のクロックパルス周波数を採用するこ
とにより、動作データのリアルタイム作成にとりわけ好
適な高速処理環境を実現することができる。
The extracted image position data generating means for generating the position data of the extracted image represented as a set of matching pixels, calculates and outputs the extracted image position data based on the designated color pixel data for each image data. It can be configured such that the transfer is performed sequentially in synchronization with the transfer cycle of the pixel (for example, the cycle of the transfer clock pulse of the pixel). According to this configuration, the calculation of the extracted image position data of each image frame is performed at a high speed in a pipeline manner in synchronization with the transfer cycle of the pixels (for example, the frequency of the transfer clock pulse is about 8 to 30 MHz). Therefore, for example, in the case of a motion capture system, it is possible to create operation data including marker position data for each frame in real time during shooting. In particular, 10 MHz (for example, 14 to
By using a clock pulse frequency of 15 MHz or higher, a high-speed processing environment particularly suitable for real-time creation of operation data can be realized.

【0033】一般に、カラー画像データは、RGBの三
原色表示において各色成分を8ビット(256段階)の
データとして記述した場合(輝度成分と2種の色彩成分
のそれぞれを8ビットで記述した場合も同じ)、28×
8×28=1677万通りもの膨大な情報量となり、パ
ソコン等に使用される低廉なCPUの処理能力ではリア
ルタイム演算は到底不可能に近い。しかしながら、上記
本発明の方式のように、色情報の統合・集約により情報
量を減ずることにより、処理速度の比較的遅い低廉なC
PU(コンピュータ)においてもリアルタイム演算が可
能となるのである。
In general, color image data is described in a case where each color component is described as 8-bit (256 steps) data in RGB three-primary color display (the same applies when a luminance component and two kinds of color components are each described in 8 bits). ) 28 ×
2 8 × 2 8 = 16,770,000 patterns of enormous amount of information, and real-time operation is almost impossible with the processing ability of inexpensive CPUs used in personal computers and the like. However, by reducing the amount of information by integrating and aggregating color information as in the above-described method of the present invention, a low-cost C
The real-time operation is also possible in the PU (computer).

【0034】この場合、抽出画像位置データ生成手段
は、各画像データのフレームに対し、抽出画像領域に含
まれる画素の水平方向の座標成分xの総和Σxと、同じ
く垂直方向の座標成分yの総和Σyと、各領域中の画素
総数nとを含む抽出画像位置データを演算・出力するも
のとして構成することができる。これによれば、得られ
るΣx、Σy及びnのデータをもとに、抽出画像(例え
ばカラーマーカの画像)の重心位置Gを、(Σx/n,
Σy/n)により簡単に求めることができる。重心位置
は、例えばカラーマーカの回転移動の影響を受けないの
で動作データとして扱いやすく、本発明に有用である。
In this case, the extracted image position data generating means generates, for each frame of the image data, the sum Σx of the horizontal coordinate components x of the pixels included in the extracted image area and the sum of the vertical coordinate components y similarly. It can be configured to calculate and output extracted image position data including Σy and the total number n of pixels in each area. According to this, based on the obtained data of Σx, Σy, and n, the center of gravity G of the extracted image (for example, the image of the color marker) is calculated as (Σx / n,
Σy / n). Since the center of gravity is not affected by, for example, the rotational movement of the color marker, it is easy to handle as motion data, and is useful in the present invention.

【0035】かつ、Σx及びΣyは、例えば通常の走査
方式によるビデオ撮影装置系に必ず設けられている画像
の同期制御部を流用して、簡単に演算できる利点があ
る。すなわち、撮影装置からの映像信号は画素に分解さ
れ、走査線毎に区切られてシーケンシャルに転送され
る。この転送時において、画素データ列には、水平方向
及び垂直方向の同期信号が挿入されるのが通常であるか
ら、画素転送クロック周期が一定であれば、受像側でそ
の水平同期信号を受けてからの転送画素の個数をカウン
トすることで、各画素の画面上における水平方向座標を
特定することが可能となる。なお、転送画素のカウント
は、当然のことながら画素転送クロックパルスを利用で
きるので、迅速処理が可能であることはいうまでもな
い。他方、垂直同期信号を受けてから、所期の画素位置
までの走査線本数(例えば1走査線毎に挿入される水平
同期信号の数と等価である)をカウントすることによ
り、垂直方向座標も特定することができる。また、Σ
x、Σy及びnは、いずれも単純な加算量であるから、
加算器を用いた極めて簡単な回路構成により迅速な処理
が可能であり、前記したリアルタイム演算を行う上でも
有利である。
Further, Δx and Δy have the advantage that they can be easily calculated, for example, by diverting the image synchronization control unit always provided in the video photographing apparatus system using the ordinary scanning method. That is, the video signal from the photographing device is decomposed into pixels, separated for each scanning line, and sequentially transferred. At the time of this transfer, the horizontal and vertical synchronization signals are usually inserted into the pixel data string. Therefore, if the pixel transfer clock cycle is constant, the image receiving side receives the horizontal synchronization signal. By counting the number of transfer pixels from, the horizontal coordinate of each pixel on the screen can be specified. Since the transfer pixel count can of course use the pixel transfer clock pulse, it goes without saying that quick processing is possible. On the other hand, by counting the number of scanning lines (e.g., equivalent to the number of horizontal synchronization signals inserted for each scanning line) from the reception of the vertical synchronization signal to the intended pixel position, the vertical coordinates are also calculated. Can be identified. Also, Σ
Since x, Σy and n are all simple addition amounts,
A very simple circuit configuration using an adder enables quick processing, which is advantageous in performing the above-described real-time calculation.

【0036】次に、本発明にてルックアップテーブルメ
モリを使用する場合、第一及び第二の色彩成分情報、輝
度情報あるいは統合後色彩情報等の、読出し対象データ
特定情報をアドレス線にて指定することにより、そのア
ドレスにて指定されるメモリセルから、読出し対象デー
タ特定情報にて特定される読出し対象データが字引的に
読み出されるものとして構成することができる。また、
各画像データに対する、ルックアップテーブルメモリか
らの読出し対象データの読出し処理を、画素の転送周期
と同期して逐次的に行わせる読出し制御手段が設けるこ
とができる。上記構成のルックアップテーブルメモリの
採用により、読出し対象データ特定情報をアドレス線に
て指定することで、読出し対象データに迅速にアクセス
できる。その結果、画素転送周期と同期した高速処理が
実現し、前記したリアルタイム処理も無理なく行うこと
が可能となる。
Next, when a lookup table memory is used in the present invention, read target data specifying information such as first and second color component information, luminance information or integrated color information is specified by an address line. By doing so, the read target data specified by the read target data specifying information can be read from the memory cell specified by the address in a text-based manner. Also,
It is possible to provide read control means for sequentially performing read processing of read target data from the look-up table memory for each image data in synchronization with a pixel transfer cycle. By adopting the look-up table memory having the above configuration, the read target data can be quickly accessed by specifying the read target data specifying information by the address line. As a result, high-speed processing synchronized with the pixel transfer cycle is realized, and the above-described real-time processing can be performed without difficulty.

【0037】[0037]

【発明の実施の形態】以下、本発明のカラオケ装置の実
施の形態を、図面に示す実施例を参照して説明する。図
1は、本発明の一実施例たるカラオケ装置1の全体の電
気的構成の一例を示すブロック図である。装置は大きく
分けてカラオケ装置本体100と、これに接続された動
作データ作成システム(歌唱者動作データ作成手段)2
とからなる。動作データ作成システム2は、大きく分け
て画像入出力部(画像データ生成手段)4、画像抽出機
構部5、抽出画像データ出力制御部6及びマーカ画素計
数部(抽出画像位置データ生成手段、動作データ出力手
段)7の4つの部分を備えており、I/Oポート9にお
いてカラオケ装置本体100に接続されている。また、
動作データ作成システム2には、画素転送クロックパル
スを与えるクロックパルス発生回路や、その他、画像入
出力部4における各種制御を司るシステムコントローラ
3が設けられている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an embodiment of the karaoke apparatus according to the present invention will be described with reference to an embodiment shown in the drawings. FIG. 1 is a block diagram showing an example of the overall electrical configuration of a karaoke apparatus 1 according to one embodiment of the present invention. The apparatus is roughly divided into a karaoke apparatus main body 100 and an operation data creation system (singer operation data creation means) 2 connected thereto.
Consists of The operation data creation system 2 is roughly divided into an image input / output unit (image data generation unit) 4, an image extraction mechanism unit 5, an extracted image data output control unit 6, and a marker pixel counting unit (extracted image position data generation unit, operation data The output unit 7 includes four parts, and is connected to the karaoke apparatus main body 100 at an I / O port 9. Also,
The operation data creation system 2 is provided with a clock pulse generation circuit that supplies a pixel transfer clock pulse, and a system controller 3 that performs various controls in the image input / output unit 4.

【0038】図30に示すように、上記カラオケ装置1
を使用するに当たってカラオケ装置の利用者(歌唱者)
GALは、体の所定の位置にカラーマーカMKを複数取
り付ける。カラーマーカとしては全体が単色に着色され
たものを使用してもよいが、本実施例では、1個のマー
カの表面が、2以上の異なるマーカ色にて着色された複
数領域に区分されたものを用いる。図32に示すよう
に、この実施例では、例えば球状のマーカの表面を、互
いに略90°の角度にて交差する2本の大円にて4つの
領域に区切り、これらを互い違いに2色にて塗り分けた
マーカを用いている。
As shown in FIG. 30, the karaoke apparatus 1
Users of karaoke equipment (singers) in using karaoke
The GAL attaches a plurality of color markers MK at predetermined positions on the body. As the color markers, those which are entirely colored in a single color may be used, but in the present embodiment, the surface of one marker is divided into a plurality of regions colored with two or more different marker colors. Use something. As shown in FIG. 32, in this embodiment, for example, the surface of a spherical marker is divided into four regions by two great circles crossing each other at an angle of about 90 °, and these are alternately changed into two colors. Markers that are painted separately.

【0039】マーカMKの取り付け位置は、歌唱者の振
付け動作をどの程度まで正確に取り込むかに応じて適宜
設定すればよいが、例えば体全身の動きを違和感なく表
現できる動作データを得るには、関節にて区切られた体
の各部にマーカを分散させて取り付けることが望まし
い。この実施例では、頭部に1箇所(図35:M1)、
胴体に2箇所(胸部近傍に1箇所(図35:M2)、腹
部近傍に1箇所(図35:M3))、左右の腕に各2箇
所(肘関節を挟んで各1箇所ずつ(図35:M4〜M
7))、左右の脚に各2箇所(膝関節を挟んで各1箇所
ずつ(図35:M8〜M11))の計11箇所にマーカを
取り付けているが、これに限られるものではない。例え
ば、歌唱者GALの動きをより精密に取込むために、さ
らに多数のマーカを取付けるようにしてもよい。
The mounting position of the marker MK may be appropriately set in accordance with the degree to which the singer's choreography is accurately captured. For example, in order to obtain motion data capable of expressing the movement of the whole body without discomfort, It is desirable to disperse and attach markers to each part of the body separated by joints. In this embodiment, one location on the head (FIG. 35: M1),
Two places on the torso (one place near the chest (FIG. 35: M2), one place near the abdomen (FIG. 35: M3)), and two places on the left and right arms (one place each with the elbow joint in between (FIG. 35) : M4 to M
7)), markers are attached to the left and right legs at a total of 11 locations, each at two locations (one at each location across the knee joint (FIG. 35: M8 to M11)), but the present invention is not limited to this. For example, more markers may be attached to capture the movement of the singer GAL more precisely.

【0040】マーカMKは、歌唱者GALに対し各種着
脱固定手段により取り付けることができる。例えば腕や
脚については、着脱固定手段としての紐状あるいは帯状
の可橈性部材131の中間部にマーカMKを取り付け、
該可橈性部材131を腕や脚に巻き付けて結びとめる方
式や、リング状のゴムバンドにマーカMKを取り付け、
腕や脚に嵌め方式が可能である。また、頭については、
マーカMKを取り付けたヘアバンド130を嵌める構成
としているが、図31に示すようにマーカMKを取り付
けた帽子132をかぶるようにしてもよい。一方、胴体
のマーカは、歌唱者GALの着衣に、着脱固定手段とし
て図32に示すような安全ピン133や、両面粘着テー
プあるいは圧着ファスナ等を用いて固定することができ
る。また、図示はしていないが、マーカMKをはじめか
ら取り付けた専用のスーツをカラオケ装置1が設置され
る店側にて用意しておき、歌唱者GALがその都度これ
を借りて着用することも考えられる。
The marker MK can be attached to the singer GAL by various detachable fixing means. For example, for an arm or a leg, a marker MK is attached to an intermediate portion of a string-shaped or band-shaped flexible member 131 as a detachable fixing means,
A method of wrapping the flexible member 131 around an arm or a leg and tying it, or attaching a marker MK to a ring-shaped rubber band
A fitting method is possible on an arm or a leg. As for the head,
Although the hair band 130 to which the marker MK is attached is fitted, a hat 132 to which the marker MK is attached may be worn as shown in FIG. On the other hand, the torso marker can be fixed to the clothing of the singer GAL using a safety pin 133 as shown in FIG. 32, a double-sided adhesive tape, a pressure-sensitive fastener, or the like as a detachable fixing means. Although not shown, a special suit to which the marker MK is attached from the beginning is prepared at the shop where the karaoke apparatus 1 is installed, and the singer GAL can borrow and wear the suit each time. Conceivable.

【0041】以下、本発明にて使用可能なカラーマーカ
の他の態様について説明する。図24(a)〜(o)
は、プレート状に形成したマーカMKの各種例を示して
いる。図にも示す通り、マーカの外形は種々のものが採
用可能であり、その塗り分けパターンも、平行分割
((a)、(g)、(h)、)、放射状分割((b)、
(c)、(d)、(f)、(i)、(k)、(l)、
(m)、(n))、同心円状分割((e)、(j)、
(o))等、さまざまなものが可能である。このうち、
(a)、(b)、(e)、(f)、(k)、(n)は2
色マーカ、(c)、(g)、(j)、(l)は3色マー
カ、(h)、(m)、(o)は4色マーカの例である。
また、マーカ寸法は最大さしわたしで2〜8cm程度
(例えば5cm程度)のものを使用することが、被写体
に着用の違和感がなく、かつマーカ認識の精度を確保す
る観点から望ましいといえる。
Hereinafter, another embodiment of the color marker usable in the present invention will be described. FIG. 24 (a) to (o)
Shows various examples of the marker MK formed in a plate shape. As shown in the figure, various shapes of the marker can be adopted, and the coloring pattern is also divided into parallel divisions ((a), (g), (h)), radial divisions ((b),
(C), (d), (f), (i), (k), (l),
(M), (n)), concentric divisions ((e), (j),
(O)) and so on. this house,
(A), (b), (e), (f), (k) and (n) are 2
The color markers (c), (g), (j), and (l) are examples of three-color markers, and (h), (m), and (o) are examples of four-color markers.
Further, it can be said that it is desirable to use a marker having a maximum dimension of about 2 to 8 cm (for example, about 5 cm) from the viewpoint of preventing the subject from feeling uncomfortable wearing and ensuring the accuracy of marker recognition.

【0042】一方、プレート状のマーカの場合、例えば
横方向からマーカが撮影されると死角に入ってマーカ色
が識別不能となる場合がある。このような不具合を解消
するためには、図32にすでに示したものも含め、立体
形状マーカを使用することが有効である。この実施例で
は、マーカ上の色をマーカ指定色として、全ての色が同
時検出された場合にのみマーカ検出と判別されるので、
見る角度によって一部の色しか現われなくなるような塗
り分けパターンは、マーカ検出されない場合がありうる
ので望ましくない。従って、任意の方向において全ての
マーカ色が視認できるよう、各色の領域が分散あるいは
入り組んで形成された形のものが望ましいといえる。図
25〜図27には、その立体マーカのいくつかの例を示
している。例えば図25及び図26では、マーカ全体を
球状に形成しており、図25では、その球表面を六角形
状の領域と五角形状の領域とで隙間なく埋め尽くした、
サッカーボール状の塗り分けパターンを採用している。
(a)は2色マーカ、(b)は3色マーカの例であり、
(c)は各領域をそれぞれ放射状に分割して、さらに細
かく3色で塗り分けた例を示している。
On the other hand, in the case of a plate-shaped marker, for example, if the marker is photographed from the lateral direction, it may enter a blind spot and the marker color cannot be identified. In order to solve such a problem, it is effective to use a three-dimensional marker including those already shown in FIG. In this embodiment, since the color on the marker is set as the marker designated color, it is determined that the marker is detected only when all the colors are detected at the same time.
A coloring pattern in which only a part of the color appears depending on the viewing angle is not desirable because the marker may not be detected. Therefore, it can be said that it is desirable that each color region is formed in a dispersed or intricate manner so that all marker colors can be visually recognized in an arbitrary direction. 25 to 27 show some examples of the three-dimensional marker. For example, in FIGS. 25 and 26, the entire marker is formed in a spherical shape, and in FIG. 25, the spherical surface is completely filled with a hexagonal region and a pentagonal region,
A soccer ball pattern is used.
(A) is an example of a two-color marker, (b) is an example of a three-color marker,
(C) shows an example in which each area is radially divided and further divided into three colors.

【0043】また、図26(a)、(b)は、経線状の
区分線Vにより、同図(c)及び(d)は緯線状の区分
線Tにより球表面を区分して、それぞれ2色又は3色に
塗り分けた例を示す。また、(e)は、背景領域Mと、
これに分散させた不定形状の分散領域Dとを3色にて塗
り分けた例を示している。また、立体形状のマーカは、
球状のものに限らず、各種形状のものを採用できる。例
えば、図27は、球状の本体表面から、角状(あるいは
針状)の突出部が複数突出した外形を有し、各突出部の
外面を3色に塗り分けた例である。
FIGS. 26 (a) and 26 (b) show the sphere surface divided by meridian dividing lines V, and FIGS. 26 (c) and (d) An example in which a color or three colors are applied is shown. (E) shows a background area M,
An example is shown in which an irregularly shaped dispersion region D dispersed therein is painted in three colors. The three-dimensional marker is
Not only a spherical shape but also various shapes can be adopted. For example, FIG. 27 shows an example in which a plurality of angular (or needle-like) protrusions have an outer shape protruding from a spherical main body surface, and the outer surface of each protrusion is painted in three colors.

【0044】このような、複数色に塗り分けたマーカM
Kを採用することにより、互いに識別可能なマーカの数
を、単色のマーカを使用する場合と比較して大幅に増や
すことができる。例えば6色(COR1〜COR6)のマーカ
指定色から任意のものを選択して、マーカ色としてこれ
を使用する場合を考えると、単色マーカの場合は、表1
に示す通り、色の数に等しい6種類のマーカのみが可能
である。表中、「1」は採用する色を示し、「0」は採
用しない色を示す。また、MK1〜MK6は、それぞれ
マーカの番号を表す。
The marker M painted in a plurality of colors as described above.
By employing K, the number of markers that can be distinguished from each other can be significantly increased as compared with the case where a single-color marker is used. For example, consider a case where an arbitrary color is selected from the six marker colors (COR1 to COR6) and used as the marker color.
As shown, only six types of markers equal to the number of colors are possible. In the table, “1” indicates a color to be adopted, and “0” indicates a color not to be adopted. MK1 to MK6 each represent a marker number.

【0045】[0045]

【表1】 [Table 1]

【0046】しかしながら、2色マーカの場合は表2に
示す通り、6から2を選択する組み合わせの数(62
に等しい種類のマーカを使用できるようになる。また、
3色マーカでは表3に示す通り、63=20通りのマー
カが使用可能となる。例えば、表3のMK#2は、COR
1,COR2及びCOR4の3色にてマーカ表面が塗り分けら
れていることを意味する。
However, in the case of a two-color marker, as shown in Table 2, the number of combinations for selecting from 2 to 6 ( 6 C 2 )
Can be used. Also,
As shown in Table 3, the three-color markers allow 6 C 3 = 20 markers to be used. For example, MK # 2 in Table 3 corresponds to COR
It means that the marker surface is separately painted in three colors of 1, COR2 and COR4.

【0047】[0047]

【表2】 [Table 2]

【0048】[0048]

【表3】 [Table 3]

【0049】図33に示すように、このようにカラーマ
ーカMKを着用した歌唱者GALは、互いに異なる方向
から複数台(この実施例では2台)のカラーカメラ15
にて撮影される。これらカラーカメラ15は、例えばよ
く知られたCCDカメラを使用できる。また、本実施例
では、歌唱するためのマイク116は吊り下げ式のもの
を使用しているが、あるいは図示しないスタンド等に取
り付けて配置するものや、ペンダントマイク等を体に取
り付けるようにしてもよい。また、マイク116を手に
持って歌唱してもよい。
As shown in FIG. 33, the singer GAL wearing the color marker MK has a plurality of (two in this embodiment) color cameras 15 from different directions.
Photographed at As the color cameras 15, for example, well-known CCD cameras can be used. Further, in this embodiment, the microphone 116 for singing is of a hanging type, but may be mounted on a stand or the like (not shown) or a pendant microphone may be mounted on the body. Good. Alternatively, the user may sing while holding the microphone 116 in his hand.

【0050】図2は、画像入出力部4の詳細を示すブロ
ック図である。カラーカメラ15はビデオデコーダ16
に接続されている。図10に示すように、カラオケ装置
本体100からの指令により作動するビデオスイッチ3
に複数のカラーカメラ15を接続し、あるカメラ15に
おいて被写体上の所定のカラーマーカが死角に入った場
合に、死角に入っていないカメラ15に適宜切り替えて
使用するようにしている。また、2台のカメラ15,1
5使用により、カラーマーカの位置をステレオ撮影し、
マーカの三次元重心位置を算出するようにしてもよい。
FIG. 2 is a block diagram showing details of the image input / output unit 4. The color camera 15 is a video decoder 16
It is connected to the. As shown in FIG. 10, a video switch 3 operated by a command from the karaoke apparatus main body 100.
Are connected to a plurality of color cameras 15, and when a predetermined color marker on a subject in a certain camera 15 enters a blind spot, the camera 15 is appropriately switched to a camera 15 not in the blind spot. Also, two cameras 15, 1
By using 5, the position of the color marker is photographed in stereo,
The position of the three-dimensional center of gravity of the marker may be calculated.

【0051】カラーカメラ15のR(赤色信号)、G
(緑色信号)及びB(青色信号)の各映像信号(あるい
はビデオコンポジット信号)は、輝度と色を分離した1
表現形式であるY、Cr、Cvによるデジタル信号にデ
コードされる。なお、この実施例では、装置の概念をわ
かりやすくするために、各信号のデータビット数は6ビ
ットと、やや小さく設定されているが、当然のことなが
ら信号のデータビット数はこれに限られるものではな
く、また、6ビット以外のものが採用されたとしても装
置の基本的な構成は全く変わらない(一般的には、各色
の信号としては8ビットのものが使用されることが多い
ようである)。
R (red signal), G of the color camera 15
(Green signal) and B (blue signal) video signals (or video composite signals) are 1
It is decoded into a digital signal in Y, Cr, Cv, which is an expression format. In this embodiment, the number of data bits of each signal is set slightly smaller at 6 bits in order to make the concept of the device easier to understand, but the number of data bits of the signal is naturally limited to this. The basic configuration of the device is not changed at all even if a signal other than 6 bits is used (generally, signals of each color are often 8 bits). Is).

【0052】ここでY、Cr、Cvによる映像の表現形
式は公知であるため、詳しい説明は省略するが、Yは輝
度の信号であり、また、Cr,Cvは彩度と色相が特定
された色情報の信号であり、色相と彩度とを独立パラメ
ータとした二次元座標空間を張るものとなる(第一及び
第二の色彩成分情報に相当する)。このような表現形式
を用いることで、色は色相と彩度の二次元空間で表わさ
れるため色指定が容易になり、また輝度が独立している
ため、照明の影響を受けにくい処理が可能となる利点が
ある。
Here, since the image expression format using Y, Cr, and Cv is known, detailed description is omitted, but Y is a luminance signal, and Cr and Cv are specified for chroma and hue. It is a signal of color information, and forms a two-dimensional coordinate space in which hue and saturation are independent parameters (corresponding to first and second color component information). By using such an expression format, colors are represented in a two-dimensional space of hue and saturation, making it easy to specify colors. Also, since the luminance is independent, processing that is not easily affected by lighting can be performed. There are advantages.

【0053】デコードされたY、Cr、Cvの各デジタ
ル信号は、ルックアップテーブルメモリ群18(以下、
ルックアップテーブルメモリを「LUT」と略記する場
合がある)に入力される。LUT群18には、2つのL
UT回路19,20が設けられている。公知のように、
ルックアップテーブルメモリは、予め全ての入力データ
に対する演算結果をメモリに登録しておき、アドレス線
をデータ入力に用いて、登録されたデータを選択出力す
ることにより字引的に演算結果を出力する機能を有する
ものである。
The decoded Y, Cr, and Cv digital signals are stored in a look-up table memory group 18 (hereinafter, referred to as a look-up table memory group 18).
The look-up table memory is sometimes abbreviated as “LUT”). The LUT group 18 includes two L
UT circuits 19 and 20 are provided. As is known,
The look-up table memory has a function of registering calculation results for all input data in the memory in advance and outputting the calculation results in a subscripted manner by selectively outputting the registered data using an address line for data input. It has.

【0054】データ処理の流れを概略的に言えば、色彩
統合用LUT回路20で画像データを限られた数の色グ
ループに分割・統合して、所定種類(例えば6ビットで
あれば64種類、8ビットであれば256種類)の色グ
ループに統合する。また、輝度組込用LUT回路19
は、輝度の信号により統合後の色彩データに補正をかけ
る。まず色彩統合用LUT回路20には、Crデータと
Cvデータとが入力される。そして、カラーマーカとし
て使用される複数種の色グループに統合(集約)され、
輝度組込用LUT回路19において輝度を含めて必要な
色グループに分割・統合される。ここでは、COR(色)
1〜COR6の6ビットの色グループ番号情報として出力
されるようになっている。
Generally speaking, the flow of data processing is as follows. Image data is divided and integrated into a limited number of color groups by the color integration LUT circuit 20, and a predetermined type (for example, 64 types for 6 bits, (8 bits, 256 types). Also, the LUT circuit 19 for incorporating a luminance
Corrects the integrated color data with a luminance signal. First, Cr data and Cv data are input to the color integration LUT circuit 20. Then, they are integrated (aggregated) into multiple types of color groups used as color markers,
The luminance is incorporated into the necessary color groups including the luminance in the luminance-incorporating LUT circuit 19. Here, COR (color)
The information is output as 6-bit color group number information of 1 to COR6.

【0055】例えば8ビットの場合を例にとれば、Cr
成分が8ビット、Cv成分が8ビットであるから、特定
される色成分は6万数千通りあるが、これが256種類
の色グループに分割・統合される。概念的に言えば、必
要な色グループが1から256まで256通り予め設定
(登録)され、これが輝度組込用LUT回路19に登録
されている。Crデータ及びCvデータ等の全ての組合
せは、これら256通りの色グループのいずれかに属す
るようにLUT回路20,19でいわば順次ふるい分け
られる(分類される)。言い換えれば、色データ(色彩
あるいは輝度)の全ての入力データ(16ビットのデー
タの個々)に対する演算結果(256の色グループ)を
メモリに登録し、アドレス線をデータ入力に用いて、予
め登録されたデータ(すなわち256色グループのいず
れか)を選択出力することにより、16ビットの色成分
が8ビットの色グループに統合されることになる。図4
は、そのLUT回路のメモリセル部の一例をごく概念的
に示すものであり、16ビットの入力データをデータA
及びデータBとして、それらの内容に対応したアドレス
線の選択により、対応するセルの登録データDR11,D
R12‥‥等のいずれかが読み出される二次元テーブルと
なっている。
For example, in the case of 8 bits, Cr
Since the component is 8 bits and the Cv component is 8 bits, there are 60,000 thousands of specified color components, which are divided and integrated into 256 types of color groups. Conceptually speaking, 256 necessary color groups from 1 to 256 are set (registered) in advance, and are registered in the luminance-incorporated LUT circuit 19. All combinations of Cr data, Cv data, and the like are sorted (classified) by the LUT circuits 20 and 19 so as to belong to any of these 256 color groups. In other words, the operation results (256 color groups) of all input data (individual 16-bit data) of color data (color or luminance) are registered in the memory, and registered in advance using address lines for data input. By selectively outputting the data (that is, any one of the 256 color groups), the 16-bit color components are integrated into the 8-bit color group. FIG.
Schematically shows an example of a memory cell portion of the LUT circuit, and 16-bit input data is converted to data A
By selecting an address line corresponding to those contents as the data B and the data B, the registration data DR11, D
R2 の is a two-dimensional table to be read.

【0056】なお、LUT回路19,20には、スタテ
ィックラム(SRAM)が用いられており、256通り
の色データは任意に設定することができる。SRAMは
リフレッシュのための回路部が不要であるから、システ
ム全体の簡略化に貢献している。例えば、入力画像24
ビット(Y:8ビット、Cr:8ビット、Cv:8ビッ
ト)の約1677万色の色表現をカラーカメラ毎に統合
・分割し、256種類の色グループ信号として出力する
ことにより、情報量を約1/6万にまとめることで容易
な計算が実現されるのである。
Note that a static ram (SRAM) is used for the LUT circuits 19 and 20, and 256 kinds of color data can be arbitrarily set. The SRAM does not require a circuit section for refreshing, thus contributing to simplification of the entire system. For example, input image 24
The amount of information can be reduced by integrating and dividing the color representation of about 16.77 million colors (Y: 8 bits, Cr: 8 bits, Cv: 8 bits) for each color camera and outputting 256 types of color group signals. An easy calculation can be realized by reducing the number to about 1 / 60,000.

【0057】各LUT回路19又は20は同一のハード
ウェア構成を有し、これをより詳細に示したものが図3
である。この図3全体が1つのLUT回路を構成し、例
えば図2の色彩統合用LUT回路20に相当するものと
なる。図3でデータA及びデータBの各入力信号は、そ
れぞれCr、Cvに相当するもので、それがODの6ビ
ットの信号となって出力される。LUTメモリ160に
は、LUTメモリコントローラ159(以下、LMCN
と記す:この実施例では、図2のシステムコントローラ
3に組み込まれている)が付属し、また、そのデータの
入力側に、D型フリップフロップ回路161,162
が、また、出力側にD型フリップフロップ回路164が
設けられている(以下、本明細書ではD型フリップフロ
ップ回路のことをDラッチと称する)。これらのDラッ
チは、いずれもアウトプットコントロール端子(インヒ
ビット入力端子)OCを有するものが使用されている。
Each LUT circuit 19 or 20 has the same hardware configuration, which is shown in more detail in FIG.
It is. 3 constitutes one LUT circuit, and corresponds to, for example, the color integration LUT circuit 20 in FIG. In FIG. 3, the input signals of data A and data B correspond to Cr and Cv, respectively, and are output as 6-bit signals of OD. The LUT memory 160 includes an LUT memory controller 159 (hereinafter, LMCN).
In this embodiment, the D-type flip-flop circuits 161 and 162 are provided on the input side of the data.
However, a D-type flip-flop circuit 164 is provided on the output side (hereinafter, the D-type flip-flop circuit is referred to as a D-latch in this specification). Each of these D-latches has an output control terminal (inhibit input terminal) OC.

【0058】カラオケ装置本体100からのデータバス
は、双方向バストランシーババッファ166を介してL
UTメモリ160に接続される。また、カラオケ装置本
体100からのアドレスバスは、バスバッファ168,
169を介してLUTメモリ160のデータA用のアド
レスとデータB用のアドレスとにそれぞれつながってい
る。
The data bus from the karaoke apparatus main body 100 is connected to the L through the bidirectional bus transceiver buffer 166.
Connected to UT memory 160. The address bus from the karaoke apparatus main body 100 has a bus buffer 168,
169 are connected to the address for data A and the address for data B in the LUT memory 160, respectively.

【0059】LUT回路に初期設定を行う場合、カラオ
ケ装置本体100はLUTメモリ制御信号(LMCN
T)を用いてLMCN159にバス要求命令を送る。こ
れに従い、LMCN159は、Dラッチ161,16
2,164のアウトプットコントロール信号(OC)を
制御し、データフリップフロップ161〜165の出力
を非能動状態とするとともに、双方向バストランシーバ
バッファ166及びバスバッファ168,169の出力
イネーブル信号Gを制御し、これらの出力を能動状態に
する。これにより、カラオケ装置本体100がLUTメ
モリ160に対し読み書きができる状態になり、初期設
定が行われる。
When performing initial setting for the LUT circuit, the karaoke apparatus main body 100 uses the LUT memory control signal (LMCN).
Send a bus request command to LMCN 159 using T). According to this, the LMCN 159 sets the D latches 161, 16
2, 164 output control signals (OC) to make the outputs of the data flip-flops 161 to 165 inactive and to control the output enable signal G of the bidirectional bus transceiver buffer 166 and the bus buffers 168, 169. Then, these outputs are activated. As a result, the karaoke apparatus main body 100 can read and write to the LUT memory 160, and initialization is performed.

【0060】LUTメモリ160へのデータ入力終了
後、カラオケ装置本体100は前記LMCNTを用いて
LMCN159にバス解放命令(演算実行命令)を送
る。これにより、LMCN159は双方向バストランシ
ーババッファ166及びバスバッファ168,169の
出力イネーブル信号Gを制御し、Dラッチ161,16
2,164のアウトプットコントロール信号(OC)を
制御し、Dラッチ161,162の出力を能動状態にす
る。その結果、LUTメモリ160への入力データAと
データBにより字引的に求められた演算結果がODに出
力されるようになる。ここで、Dラッチ161,162
その他は処理を行う画素の転送クロックパルスを用いて
これに同期して動作させることで、高速演算処理を実現
している。なお、各DラッチにおけるCKはクロックパ
ルス入力の端子であり、双方向バストランシーババッフ
ァ166のDIRはバス方向制御信号入力の端子であ
る。そして、前述の通りクロックパルスは、システムコ
ントローラ3(図2)に組み込まれたパルス発生回路が
発する画素転送クロックパルスが使用される。
After the data input to the LUT memory 160 is completed, the karaoke apparatus main body 100 sends a bus release command (operation execution command) to the LMCN 159 using the LMCNT. As a result, the LMCN 159 controls the output enable signal G of the bidirectional bus transceiver buffer 166 and the bus buffers 168 and 169, and the D latches 161 and 16
2, 164 output control signals (OC), and the outputs of the D latches 161, 162 are activated. As a result, the calculation result obtained by the input data A and the data B to the LUT memory 160 is output to the OD. Here, the D latches 161 and 162
In other cases, high-speed arithmetic processing is realized by using a transfer clock pulse of a pixel to be processed and operating in synchronization therewith. Note that CK in each D latch is a clock pulse input terminal, and DIR of the bidirectional bus transceiver buffer 166 is a bus direction control signal input terminal. As described above, a pixel transfer clock pulse generated by a pulse generation circuit incorporated in the system controller 3 (FIG. 2) is used as the clock pulse.

【0061】こうして情報量を減じられ、例えばCOR1
〜COR6の6ビット情報にまとめられた画像データは、
図2において一旦フレームメモリ21に蓄積された後、
図1の画像抽出部5に入力される。フレームメモリ21
では、飛越し走査にて出力されてくるカメラからの映像
信号を奇数走査メモリ22と偶数走査メモリ23とにそ
れぞれ格納し、これを合成することで、順次走査信号に
走査変換する役割を果たす。なお、LUTメモリ群18
とフレームメモリ21とへのデータの読み書き制御は、
システムコントローラからの制御信号LTCNT及びF
MCNTにより行われる。
In this way, the amount of information can be reduced.
Image data compiled into 6-bit information of ~ COR6
In FIG. 2, after being temporarily stored in the frame memory 21,
It is input to the image extraction unit 5 of FIG. Frame memory 21
Then, the video signal output from the camera output by the interlaced scanning is stored in the odd-numbered scanning memory 22 and the even-numbered scanning memory 23, respectively, and is synthesized to perform scan conversion into a sequential scanning signal. The LUT memory group 18
The control of reading and writing data to and from the frame memory 21 is as follows.
Control signals LTCNT and F from system controller
Performed by MCNT.

【0062】以下、画像抽出部5で行われる処理の内容
を概略説明し、次いでその処理機能がハードウェア的に
どのように実現されるかについて説明する。該画像抽出
部5(図1)では、撮影された画像上に上記のようなカ
ラー間の画像が存在するか否かを、次のような流れにて
判別し、そのマーカの抽出画像データを生成・出力す
る。すなわち、図12に示すように、図2のフレームメ
モリ21から出力される動画フレームの画素平面SC上
に、所定の大きさ及び形状のマスク領域(以下、単にマ
スクともいう)MKを、該画素平面上にて縦横に移動可
能に設定する。具体的には、マスクMSKは、走査線の
例えば左端から右端に向けて水平移動し、右端に到達し
たら、走査線1本分だけ下に移動して左端に戻り、同様
に水平移動を繰り返す形で画素平面SC上を走査され
る。
Hereinafter, the contents of the processing performed by the image extracting unit 5 will be briefly described, and then, how the processing functions will be realized by hardware will be described. The image extracting unit 5 (FIG. 1) determines whether or not the image between the colors exists on the photographed image according to the following flow, and extracts the extracted image data of the marker. Generate and output. That is, as shown in FIG. 12, a mask area (hereinafter, also simply referred to as a mask) MK of a predetermined size and shape is placed on the pixel plane SC of the moving image frame output from the frame memory 21 of FIG. Set to be movable vertically and horizontally on a plane. More specifically, the mask MSK moves horizontally from, for example, the left end to the right end of the scanning line, and when it reaches the right end, moves down by one scanning line and returns to the left end. Is scanned on the pixel plane SC.

【0063】例えば、図12(a)に示すように、マス
クMSKが画素平面SC上のある位置に存在している場
合を考える。ここでは、マスクMSKとして、水平方向
(走査線と平行な方向)に3個、垂直方向(走査線と直
交する方向)に3個の、画素P0〜P9の都合9個の画素
をマトリックス状に配列しているものを採用するが、マ
スクMSKの形態はこれに限られるものではなく、例え
ば図14に示すように水平方向に一列に画素が並ぶも
の、あるいは円状のものなど、各種採用することができ
る。
For example, consider the case where the mask MSK exists at a certain position on the pixel plane SC as shown in FIG. Here, as the mask MSK, three pixels in the horizontal direction (direction parallel to the scanning line) and three pixels in the vertical direction (direction orthogonal to the scanning line), that is, nine pixels P0 to P9 are arranged in a matrix. Although the arrangement is adopted, the form of the mask MSK is not limited to this. For example, various arrangements may be employed, such as a arrangement in which pixels are arranged in a horizontal line as shown in FIG. be able to.

【0064】例えばCOR1とCOR2とからなる2色のマー
カ(例えば図24(a)に示すようなもの)を使用して
いる場合、その像が撮影されれば、図12に示すように
画素平面SC上に、COR1の画像領域(以下、COR1領域
という)とCOR2の画像領域(以下、COR2領域という)
とが隣接して現われているはずである。例えば、マスク
MSKがCOR1領域とCOR2領域との境界BDにまたがる
形で位置している場合、マスクMSK内においてはCOR
1の画素とCOR2の画素とが同時に検出される形とな
る。他方、この境界BDから外れてマスクMSKが位置
している場合は、COR1とCOR2とは全く検出されない
か、一方のみが検出される形となる。しかし、たとえ一
方の色が検出されたとしても、それがマーカの画像に由
来するものであるかどうかは判別がつかない。なぜな
ら、別のマーカMSKでその色を使用している可能性も
あるからである。従って、このような場合は、マスクM
KはマーカMKを検出していないと判別するのである。
なお、マーカとして識別が可能となるためには、マーカ
MKの背景部分が、マーカ色であるCOR1及びCOR2のい
ずれとも異なる色(例えばCOR3)になっていなければ
ならない。従って、使用する画像データは、最低3つの
色の画素が混在したものが使用される形となっているこ
とは自明であろう。
For example, when a marker of two colors consisting of COR1 and COR2 (for example, as shown in FIG. 24 (a)) is used, if the image is taken, the pixel plane as shown in FIG. On the SC, an image area of COR1 (hereinafter referred to as COR1 area) and an image area of COR2 (hereinafter referred to as COR2 area)
Should appear adjacent to each other. For example, when the mask MSK is located so as to extend over the boundary BD between the COR1 region and the COR2 region, the COR
One pixel and the COR2 pixel are detected simultaneously. On the other hand, when the mask MSK is located outside the boundary BD, COR1 and COR2 are not detected at all, or only one of them is detected. However, even if one color is detected, it cannot be determined whether or not it is derived from the image of the marker. This is because another marker MSK may use the color. Therefore, in such a case, the mask M
K determines that the marker MK has not been detected.
Note that the background portion of the marker MK must be a different color (for example, COR3) from any of the marker colors COR1 and COR2 to be able to be identified as a marker. Therefore, it is obvious that the image data to be used is one in which pixels of at least three colors are mixed.

【0065】さて、マスクMSKがマーカMKを検出し
ているかどうかを最も簡便に判別するには、マスクMS
K内に全てのマーカ指定色の画素がそれぞれ1個でも含
まれているかどうかをチェックすればよい。この場合、
マスク内に指定色の画素が1個でも存在していれば、図
17に示すいずれか1つのパターン条件に適合するはず
である。図中、ハッチングを施した画素が指定色の画素
であり、他はそれ以外の色の画素であることを示してい
る。従って、各画素毎の色データのうち、指定色の色デ
ータを含む画素が、図17のいずれかのパターンに当て
はまっているかどうかを、マーカMKに含まれる全ての
色について順次チェックすればよいわけである。このチ
ェックは、例えば指定色の色データが2値のデータであ
れば、各画素P0〜P8に対する指定色の設定状態をx
(0)〜x(8)として、それらの論理和をとることで簡単に
調べることができる。
The simplest way to determine whether the mask MSK has detected the marker MK is to use the mask MSK.
It is sufficient to check whether or not K contains at least one pixel of each marker-specified color. in this case,
If at least one pixel of the designated color exists in the mask, it should satisfy any one of the pattern conditions shown in FIG. In the drawing, hatched pixels indicate pixels of the designated color, and the others indicate pixels of other colors. Therefore, among the color data for each pixel, it is only necessary to sequentially check whether or not the pixel including the color data of the designated color applies to any of the patterns in FIG. 17 for all the colors included in the marker MK. It is. In this check, for example, if the color data of the designated color is binary data, the setting state of the designated color for each of the pixels P0 to P8 is x
It can be easily checked by taking the logical sum of (0) to x (8).

【0066】しかしながら、指定色の画素が1個存在す
るか否かのみでチェックを行おうとすると、図19
(a)のに示すように、ノイズ等の影響で突発的に発
生した孤立画素PCの影響を受けて、マーカを誤検出し
てしまう危険性がある。この場合は、例えばマスク内に
最低2以上の指定色の画素が存在しているか否か、ある
いはさらに厳しい条件として、複数の画素が特定の位置
関係を満足した形で存在しているか否かを調べるように
する。例えば、指定色の画素が、上下左右のいずれかに
2以上隣接して存在しているか否かを調べるためのパタ
ーン条件を、図18に示している。このようなパターン
条件を採用すれば、マーカ検出と判別されるのは、図1
9の及びのようなパターンであり、やはマーカ
なしと判別される。なお、斜めの隣接画素をパターン条
件に含めることで、図19ののパターンもマーカ検出
と判別されうることは容易に理解されるであろう。
However, if an attempt is made to check only whether or not one pixel of the designated color exists, FIG.
As shown in (a), there is a risk that a marker is erroneously detected under the influence of an isolated pixel PC suddenly generated due to the influence of noise or the like. In this case, for example, it is determined whether at least two or more pixels of the specified color exist in the mask, or as a more severe condition, whether or not a plurality of pixels exist in a form satisfying a specific positional relationship. Try to find out. For example, FIG. 18 shows a pattern condition for checking whether two or more pixels of the designated color are adjacent to any of the upper, lower, left, and right sides. If such a pattern condition is adopted, it is determined that the marker is detected as shown in FIG.
This is a pattern like 9 and, and it is determined that there is no marker. It should be easily understood that by including the diagonally adjacent pixels in the pattern condition, the pattern of FIG. 19 can also be determined as the marker detection.

【0067】さて、マスクMSK内の指定色の画素配列
に対し、上記のようなパターンマッチングを行うことに
より、マーカ検出と判別された場合には、そのマスクM
SKの位置を代表する画素(対象画素)を、マーカ画素
(抽出画素)として抽出し、その画素のアドレスに対し
て、検出された指定色の組み合わせに合致するマーカ番
号のデータを出力する。なお、図13に示すように、対
象画素SPCは、本実施例では、マスクMSK内の左下
の画素P6 として定めるが、これに限定されるものでは
なく、また、マスクMSKと一定の位置関係を保持する
条件さえ満たしていれば、対象画素SPCをマスクMS
Kの外に設定してもよい。
By performing the above-described pattern matching on the pixel array of the designated color in the mask MSK, if it is determined that the marker has been detected, the mask M
A pixel (target pixel) representing the position of the SK is extracted as a marker pixel (extracted pixel), and data of a marker number that matches the detected combination of the designated colors is output to the address of the pixel. As shown in FIG. 13, the target pixel SPC is defined as the lower left pixel P6 in the mask MSK in the present embodiment, but is not limited to this. If the condition for holding is satisfied, the target pixel SPC is masked MS
It may be set outside K.

【0068】例えば特定のマーカ番号に着目して見た場
合、画素平面上のある対象画素のアドレスについて、そ
のマーカ番号のデータが格納されていれば、対象画素の
出力状態は第一の出力状態になっており、同じく格納さ
れていなければ、対象画素の出力状態は第二の出力状態
になっていると考えることができる。そして、第一の出
力状態になっている対象画素は、そのマーカ番号のマー
カ画素である。
For example, when focusing on a specific marker number, if the data of the marker number is stored for the address of a certain target pixel on the pixel plane, the output state of the target pixel becomes the first output state. , And if they are not stored, the output state of the target pixel can be considered to be the second output state. Then, the target pixel in the first output state is the marker pixel of the marker number.

【0069】図12(a)に示すマーカMKの場合、CO
R1とCOR2とをマーカMK指定色として、図18のパタ
ーン条件にてマッチングを行いながら、マスクMSKを
画素平面SC上で走査した場合、マーカ画素は図12
(b)のような形で抽出される。これらマーカ画素は、
図12(a)の境界BDの左側に沿って縦3個、横2個
の形で配列して抽出マーカ画像を形成する。この抽出マ
ーカ画像は、もとのマーカMKの画像のうち、境界BD
に沿う一部領域のみを取り出したものに相当する。
In the case of the marker MK shown in FIG.
When the mask MSK is scanned on the pixel plane SC while performing the matching under the pattern conditions of FIG. 18 using R1 and COR2 as the marker MK designated colors, the marker pixel becomes as shown in FIG.
It is extracted in the form as shown in (b). These marker pixels are
An extracted marker image is formed by arranging three vertically and two horizontally along the left side of the boundary BD in FIG. This extracted marker image is a boundary BD of the image of the original marker MK.
Is obtained by extracting only a part of the region along.

【0070】なお、図22には、各種マーカにおける抽
出マーカ画像EIの例を示している((a)〜(c)は
図24の(a)〜(c)の、(d)は図25(a)の各
マーカを使用した場合をそれぞれ示している)。なお、
Gは、抽出マーカ画像EIの各画素の位置座標から後述
する方法にて算出される、マーカ重心位置である。
FIG. 22 shows examples of extracted marker images EI for various markers ((a) to (c) are FIGS. 24 (a) to (c), and (d) is FIG. (A) shows the case where each marker is used.) In addition,
G is a marker centroid position calculated from the position coordinates of each pixel of the extracted marker image EI by a method described later.

【0071】他方、複数色のマーカ検出(あるいはモー
ションキャプチャとしての使用)という目的を離れ、例
えば特定のある1つの色のみを指定色として設定した場
合、マスクMSKと一定の位置関係を保持する画素を対
象画素とし、パターンマッチングした場合にこれを抽出
画素として設定することで、画像抽出部5(図1)を、
指定色に対する一種の画像フィルタとして利用すること
ができる(これは、例えば工業検査技術等へ応用するこ
とが可能である)。例えば、図18のパターン条件を採
用すると、図19(a)のやのパターンは、図21
(b)に示すように、マスクMSKをどのように位置合
わせしてみてもパターンマッチングしないから、図19
(b)、に示すように抽出画素が現われず、いわば
ノイズ除去される形となる。他方やのパターンで
は、異なる位置のマスクMSKに対して同じ画素が共通
にマッチングする結果、画素が補われて画像が強化され
る。例えばのパターンの中央に開いた穴は、図21
(a)に示すマスクMSK位置で抽出画素EPCが現わ
れる結果、埋められる形となる。
On the other hand, if the purpose of detecting a marker of a plurality of colors (or use as a motion capture) is deviated and, for example, only one specific color is set as a designated color, a pixel having a certain positional relationship with the mask MSK is maintained. Is set as a target pixel, and when pattern matching is performed, this is set as an extraction pixel, so that the image extraction unit 5 (FIG. 1)
It can be used as a kind of image filter for a designated color (this can be applied to, for example, industrial inspection technology). For example, if the pattern condition of FIG. 18 is adopted, the pattern of “ya” in FIG.
As shown in FIG. 19B, no matter how the mask MSK is aligned, no pattern matching is performed.
As shown in (b), the extracted pixel does not appear, so that the noise is removed. In the other pattern, the same pixel is commonly matched to the mask MSK at a different position, so that the pixel is supplemented and the image is enhanced. For example, the hole opened in the center of the pattern is shown in FIG.
As a result, the extracted pixel EPC appears at the mask MSK position shown in FIG.

【0072】図20(a)〜(i)は、マスクMSKの
走査により、図19ののパターンに対してフィルタリ
ング処理が施される様子を表している。それぞれ右側の
図では、マスクMSKを実線により表し、対象画素は右
下がりのハッチングして、フィルタリング前の指定色画
素は右上がりのハッチングでそれぞれ示している(対象
画素とフィルタリング前の指定色画素とが重なる場合
は、双方のハッチングが入っている)。また、左側の図
では、抽出画素を右下がりのハッチングで表している。
(c)のステップでは、図18のいずれのパターンにも
マッチングしていないから、その前の(b)の段階とで
抽出画素の状態は変化していない。それ以外のステップ
は、全てパターンマッチングしている場合であり、対応
する新たな抽出画素が増えていることがわかる。
FIGS. 20 (a) to 20 (i) show how the filtering process is performed on the pattern of FIG. 19 by scanning the mask MSK. In each of the right diagrams, the mask MSK is represented by a solid line, the target pixel is hatched to the lower right, and the designated color pixel before filtering is indicated by the upper right hatching (the target pixel and the designated color pixel before filtering are indicated by hatching right, respectively). If they overlap, they are both hatched.) Further, in the left-hand drawing, the extracted pixels are represented by hatching falling to the right.
In the step (c), since the pattern does not match any of the patterns in FIG. 18, the state of the extracted pixel has not changed from the previous step (b). The other steps are all cases where pattern matching is performed, and it can be seen that corresponding new extracted pixels are increasing.

【0073】上記のような画像抽出部5の機能は、例え
ば図5及び図7に示すハードウェア構成により実現する
ことができる。まず、図2のフレームメモリ21からの
6つの色データCOR1〜COR6は、画像抽出部5の前段部
分を構成する図5のマスク設定処理回路30に入力され
る。マスク設定処理回路30はマスク領域設定手段とし
て機能するものであり、マスクMSK内の各画素に対応
するデータ格納メモリ部32が画素転送の時系列順に、
すなわち上流側から直列的に配列された構成を有し、画
素転送クロックに同期して、それらデータ格納メモリ部
32に対し、各画素の色データ(COR1〜COR6:出力設
定状態データ)を配列上流側から順送り的に転送・格納
する、データ転送制御機能を有した転送制御機能付きメ
モリ回路部として作動する。
The function of the image extracting unit 5 as described above can be realized by, for example, the hardware configuration shown in FIGS. 5 and 7. First, the six color data COR1 to COR6 from the frame memory 21 in FIG. 2 are input to the mask setting processing circuit 30 in FIG. The mask setting processing circuit 30 functions as a mask area setting unit. The data storage memory unit 32 corresponding to each pixel in the mask MSK stores the data in the time series of pixel transfer.
That is, it has a configuration in which the color data (COR1 to COR6: output setting state data) of each pixel is arranged upstream in the data storage memory unit 32 in synchronization with the pixel transfer clock. It operates as a memory circuit unit with a transfer control function having a data transfer control function for sequentially transferring and storing data from the side.

【0074】具体的には、動画フレームの走査方向と平
行に隣接配列する複数の画素(走査方向配列画素:ここ
では、図13においてP0〜P2、P3〜P5、P6〜P8の
各3個ずつ)を包含する形でマスク領域を設定するため
に、各データ格納メモリ部32は1種のシフトメモリ回
路として構成されている(従って、それら自身転送制御
機能付きメモリ回路部として機能するものである)。具
体的には、走査方向配列画素に1対1に対応する複数の
メモリセル33を有し、画素転送クロックを受ける毎に
対応する画素の色データを、転送時系列順にメモリシフ
トしながら順次格納するものとして機能する。各シフト
メモリ回路32の各メモリセル33の色データは、マス
ク内の対応する画素の色データとして、データ出力部3
4から出力される。シフトメモリを採用することで、マ
スクMSKに対する走査線方向の相対的な画素転送、す
なわちマスクMSKの走査線方向の相対移動処理が、パ
イプライン処理の形で実現される。これにより、画素平
面上でのマスクMSKの移動を迅速に行うことができ、
リアルタイム処理等への対応上一層有利となる。
More specifically, a plurality of pixels (pixels arranged in the scanning direction: in this case, three pixels P0 to P2, P3 to P5, and P6 to P8 in FIG. ), The data storage memory sections 32 are configured as one type of shift memory circuit (therefore, they themselves function as a memory circuit section with a transfer control function). ). Specifically, a plurality of memory cells 33 corresponding one-to-one to the pixels arranged in the scanning direction are provided, and each time a pixel transfer clock is received, the color data of the corresponding pixel is sequentially stored while being memory-shifted in the transfer time series. It acts as something to do. The color data of each memory cell 33 of each shift memory circuit 32 is used as the color data of the corresponding pixel in the mask as the data output unit 3.
4 is output. By adopting the shift memory, the pixel transfer relative to the mask MSK in the scanning line direction, that is, the relative movement processing of the mask MSK in the scanning line direction is realized in the form of pipeline processing. Thereby, the mask MSK can be moved quickly on the pixel plane,
This is more advantageous for real-time processing.

【0075】シフトメモリ回路32の個々のメモリセル
33は、色データの入力方向上流側に位置するもののデ
ータ出力端子が、その下流側に位置するもののデータ入
力端子に接続される形で直列配置され、各クロック入力
端子に画素転送クロック(PCK)が入力されるD型フ
リップフロップ回路(Dラッチ)により構成されてい
る。そして、各Dラッチのデータ出力端子から、データ
出力部としてのデータ出力線34が分岐して設けられて
いる。Dラッチの組み合わせにより、パイプライン処理
回路が安価に実現されている。なお、31は、色データ
入力の入力ラッチ用のD型フリップフロップ回路であ
る。
The individual memory cells 33 of the shift memory circuit 32 are arranged in series such that the data output terminal is located on the upstream side in the color data input direction, but is connected to the data input terminal on the downstream side. And a D-type flip-flop circuit (D-latch) in which a pixel transfer clock (PCK) is input to each clock input terminal. Then, a data output line 34 as a data output unit is branched from a data output terminal of each D latch. A pipeline processing circuit is realized at low cost by combining the D latches. Reference numeral 31 denotes a D-type flip-flop circuit for input latch of color data.

【0076】他方、動画フレームの走査方向と直角に隣
接配列する画素(走査直交方向配列画素:ここでは、図
13においてP0,P3,P6、P1,P4,P7、P2,P
5,P8の各3個ずつ)を包含する形でマスク領域を設定
するために、各データ格納メモリ部32は、入力最先頭
側に位置するもの(32(A))を除いた残余のメモリ
部(後続メモリ部:32(B),32(C))に個別に
対応して設けられ、各後続メモリ回路に格納すべき画素
の1つ前の走査線上の画素の色データを記憶するライン
メモリ回路35(LN−1,LN−2)を備えている。
これらラインメモリ回路35は、先頭メモリ回路32
(A)に入力される画素に走査線上の転送位置が対応す
る画素の色データを、対応するメモリエリアから読み出
して、対応する後続メモリ回路32(B),32(C)
に対し転送する。1走査線前の画素の色データをライン
メモリに一時退避させることで、複数走査線にまたがる
マスク設定及びその移動処理が安価にかつ高速で実現さ
れる。
On the other hand, pixels arranged adjacent to the moving image frame at right angles to the scanning direction (pixels arranged in the scanning orthogonal direction: here, P0, P3, P6, P1, P4, P7, P2, P2 in FIG. 13)
In order to set the mask area in such a manner as to include three mask areas (5 and P8 each), each data storage memory section 32 has a memory area other than the memory area (32 (A)) located on the input topmost side. Line (subsequent memory unit: 32 (B), 32 (C)), which is provided individually for each of the following memory circuits and stores color data of a pixel on a scanning line immediately before a pixel to be stored in each subsequent memory circuit. The memory circuit 35 (LN-1, LN-2) is provided.
These line memory circuits 35 are
The color data of the pixel whose transfer position on the scanning line corresponds to the pixel input to (A) is read from the corresponding memory area, and the corresponding subsequent memory circuit 32 (B), 32 (C) is read.
Forward to By temporarily saving the color data of the pixel one scanning line before in the line memory, the mask setting over a plurality of scanning lines and the moving process thereof can be realized at low cost and at high speed.

【0077】なお、図5では、図面が煩雑化することを
避けるため、データ出力部としてのデータ出力線34
は、COR1に関係する出力C10〜C18のみを示して
いる。また、各出力のマスクMSK内の対応位置を図6
に示している。ただし、実際は、COR2〜COR6の各出力
C20〜C28、‥‥、C60〜C68からもデータ出
力線34が分岐しており、それぞれ対応色のマスクMS
Kが形成されるようになっていることはいうまでもな
い。
In FIG. 5, in order to avoid complication of the drawing, the data output line 34 as a data output unit is shown.
Shows only outputs C10 to C18 related to COR1. FIG. 6 shows a corresponding position in the mask MSK of each output.
Is shown in However, actually, the data output lines 34 are also branched from the outputs C20 to C28,..., C60 to C68 of the COR2 to COR6, and the masks MS of the corresponding colors are respectively provided.
It goes without saying that K is formed.

【0078】図15は、COR1〜COR6の特定の1つのも
のに着目して見た場合の、マスクMSK内のデータの流
れ、及びラインメモリ回路35(LN−1,LN−2)
内のデータ格納状態を示すものである。(a)では、1
番目の走査線の先頭の3つの画素がマスクMSK内に入
った状態を示している。この状態では、後続メモリ回路
32(B)のラインメモリ回路LN−1に対し、その1
番目の走査線のデータが順次書き込まれていく。この状
態で新しい画素の転送を1個受けると、データ格納メモ
リ部32がシフトメモリになっていることから、マスク
内の最も古い画素の色データが、新しくマスクMSK内
に入る画素の色データに押し出される形でメモリシフト
し、マスクMSKは1画素分だけ画素平面上にて右側に
移動する。
FIG. 15 shows the flow of data in the mask MSK and the line memory circuit 35 (LN-1, LN-2) when focusing on one specific one of COR1 to COR6.
1 shows the data storage state of the data. In (a), 1
This shows a state where the first three pixels of the second scanning line have entered the mask MSK. In this state, the line memory circuit LN-1 of the succeeding memory circuit 32 (B) is
The data of the scanning line is sequentially written. When one new pixel is transferred in this state, the color data of the oldest pixel in the mask is replaced with the color data of the pixel newly entering the mask MSK because the data storage memory unit 32 is a shift memory. The memory shift is performed in an extruded manner, and the mask MSK moves rightward on the pixel plane by one pixel.

【0079】図15(b)は1ライン目の画素転送が終
わって水平同期信号を受け、2ライン目の画素転送に入
った状態を示している。図5に示すよう、各ラインメモ
リ回路35は、水平同期信号HSNCがリセット信号と
して入力されるようになっており、水平同期信号HSN
Cを受けて新たなラインの画素が転送される際には、そ
の画素の格納アドレスがリセットされ、図15(b)の
ラインメモリ回路LN−1のように、再び先頭側から上
書きする形でデータが書き込まれてゆく。また、図5に
示すように、ラインメモリ回路LN−1のデータはライ
ンメモリ回路LN−2にシリアル転送されコピーされ
る。その結果、ラインメモリ回路LN−2は、先頭メモ
リ回路32(A)から見れば、2ライン前のデータを記
憶するものとなる。そして、図15(c)に示すよう
に、2ライン目の画素転送が1個進む毎に、先のライン
の対応するデータをラインメモリ回路LN−1から読み
出しては、後続メモリ回路32(B)に出力を行う。
FIG. 15B shows a state in which the pixel transfer of the first line is completed, the horizontal synchronization signal is received, and the pixel transfer of the second line is started. As shown in FIG. 5, each line memory circuit 35 receives the horizontal synchronizing signal HSNC as a reset signal and outputs the horizontal synchronizing signal HSN.
When a pixel of a new line is transferred in response to C, the storage address of the pixel is reset and, as in the line memory circuit LN-1 in FIG. Data is written. Further, as shown in FIG. 5, the data of the line memory circuit LN-1 is serially transferred to the line memory circuit LN-2 and copied. As a result, the line memory circuit LN-2 stores data two lines before as seen from the top memory circuit 32 (A). Then, as shown in FIG. 15C, every time the pixel transfer of the second line advances by one, the corresponding data of the previous line is read out from the line memory circuit LN-1, and is read out from the subsequent memory circuit 32 (B ).

【0080】図15(d)は、3ライン目の画素転送に
入った状態を示し、ラインメモリ回路LN−1からは前
述した通り後続メモリ回路32(B)へのデータ転送が
行われ、ラインメモリ回路LN−2からは後続メモリ回
路32(C)へのデータ転送が行われる。(e)は3ラ
イン目の先頭の3つの画素のデータがマスクMSK内に
入った状態を示し、図16(a)に示すように、画素平
面SC上の左上の9個の画素がマスクMSKに覆われた
形に対応する。この状態で1個の画素が転送される毎
に、マスクMSKは1画素分ずつ走査方向に移動してゆ
き、右端まで行き着いて水平同期信号を受けると、1ラ
イン下がった位置において左端に戻り、再び走査を開始
する。こうして画面の下端まで到達して垂直同期信号
(VSNC)を受けるとフレームがクリアされ、再び次
のフレームに対して同じ処理が動画フレーム切り替えに
同期してリアルタイムに進んでゆくこととなる。
FIG. 15D shows a state in which pixel transfer on the third line has been started. Data transfer from the line memory circuit LN-1 to the succeeding memory circuit 32 (B) is performed as described above. Data transfer from the memory circuit LN-2 to the subsequent memory circuit 32 (C) is performed. FIG. 16E shows a state in which the data of the first three pixels on the third line have entered the mask MSK. As shown in FIG. 16A, the upper left nine pixels on the pixel plane SC have the mask MSK. Corresponding to the shape covered by In this state, each time one pixel is transferred, the mask MSK moves one pixel at a time in the scanning direction. When the mask MSK reaches the right end and receives the horizontal synchronizing signal, it returns to the left end at a position one line lower, Start scanning again. When the frame reaches the lower end of the screen and receives the vertical synchronization signal (VSNC), the frame is cleared, and the same process for the next frame proceeds in real time in synchronization with the moving image frame switching.

【0081】さて、各色のマスクMSKの色データ(マ
スク内の画素数に対応したビット数:個々では9ビッ
ト)は、マスク設定処理回路30からそれぞれデータ出
力線34を経て、図7に示すパターン適合判別・出力回
路40内の、ハードウェアロジック判別回路41(パタ
ーン適合判別手段)に入力される。ハードウェアロジッ
ク判別回路41は、指定色の種類(COR1〜COR6)に対
応した数だけ設けられており、マスク設定処理回路30
からの各画素の色データが二値入力されるデータ入力端
子44(ここでは9入力となる)を備え、それらデータ
入力端子44の入力状態の組み合わせに一対一に対応す
る形で二値の判別結果を生成・出力するものとなってい
る。
The color data of the mask MSK for each color (the number of bits corresponding to the number of pixels in the mask: 9 bits each) is transmitted from the mask setting processing circuit 30 to the pattern shown in FIG. The data is input to a hardware logic determining circuit 41 (pattern matching determining means) in the matching determining / outputting circuit 40. The hardware logic determination circuits 41 are provided by the number corresponding to the types of designated colors (COR1 to COR6), and the mask setting processing circuit 30
, And has a data input terminal 44 (here, 9 inputs) into which the color data of each pixel is binary-inputted. It generates and outputs results.

【0082】ハードウェアロジック判別回路41は、具
体的には論理回路にて構成できる。例えば、図17のパ
ターン条件を使用する場合は、これを9入力のOR回路
1個で簡単に構成できる。他方、図18のように、特定
の2個の画素の色が判別指定色に設定されているか否か
を判別する場合では、図8(a)に示すように、各パタ
ーンにおいて判別指定色となるべき画素の入力と、そう
でない入力とを互いに反転させた9入力AND回路47
を、調べるべきパターン条件の種類だけ設けた回路を例
示できる。このような論理回路は、例えばプログラマブ
ルロジックデバイス(PLD)により実現してもよい。
また、複数のパターン条件からいずれかのものを選択し
て用いることができるように、各パターン条件に対応す
る複数の判別回路を組み込んでおき、セレクタ入力(こ
こではSL1とSL2の2ビット入力)により切替可能
としておけば便利である。なお、本実施例では、各ハー
ドウェアロジック判別回路41へのセレクタ入力は、レ
ジスタ43を介してカラオケ装置本体100により与え
られるようになっている。
The hardware logic discrimination circuit 41 can be specifically constituted by a logic circuit. For example, when the pattern condition shown in FIG. 17 is used, the pattern condition can be easily constituted by one 9-input OR circuit. On the other hand, as shown in FIG. 18, when it is determined whether or not the colors of two specific pixels are set as the discrimination designated colors, as shown in FIG. 9-input AND circuit 47 in which the input of the pixel to be formed and the input of the other pixel are inverted.
Can be exemplified by the types of pattern conditions to be examined. Such a logic circuit may be realized by, for example, a programmable logic device (PLD).
Also, a plurality of discriminating circuits corresponding to each pattern condition are incorporated so that any one of the plurality of pattern conditions can be selected and used, and selector inputs (here, 2-bit inputs of SL1 and SL2) are provided. It is convenient if it can be switched by. In this embodiment, the selector input to each hardware logic determination circuit 41 is provided by the karaoke apparatus main body 100 via the register 43.

【0083】他方、ハードウェアロジック判別回路41
は、図8(b)に示すように、各画素の色設定状態の全
ての組み合わせP1〜PN(ここでは9ビットなのでN=
512)に対応する出力OPを記憶したLUT回路48
を用いてもよい。ここでは、セレクタ入力毎にパターン
条件が切り替えられるよう、2次元のLUT回路が使用
されている。この場合、マスク設定処理回路30からの
各画素の色データの入力(及びセレクタ入力)は、LU
T回路48に対しアドレス線入力される形となる。
On the other hand, the hardware logic determination circuit 41
As shown in FIG. 8B, all combinations P1 to PN of the color setting state of each pixel (here, 9 bits, N =
LUT circuit 48 storing the output OP corresponding to (512)
May be used. Here, a two-dimensional LUT circuit is used so that the pattern condition can be switched for each selector input. In this case, the input (and the selector input) of the color data of each pixel from the mask setting processing circuit 30 is LU
An address line is input to the T circuit 48.

【0084】図7に戻り、各ハードウェアロジック判別
回路41からの判別結果出力(すなわち、各色COR1〜C
OR6のパターンマッチング結果)は、ハードウェアロジ
ックデータ生成回路42に入力される。ハードウェアロ
ジックデータ生成回路42は、各判別指定色の判別回路
からの判別結果が二値入力され、それら判別結果入力端
子の入力状態の組み合わせに一対一に対応する形で、第
一の出力状態及び第二出力状態のいずれかを対象画素デ
ータとして出力する。ここでは、マーカ検出の場合には
マーカ番号のデータを第一の出力状態として出力し、マ
ーカ検出でない場合はマーカ番号のどれにも対応しない
出力を第二の出力状態として出力する。また、ハードウ
ェアロジックデータ生成回路42は、6ビット入力5ビ
ット出力のデコーダで構成されており、マーカ指定色の
設定をセレクタ入力SL1,SL2により選択し(すな
わち、4色マーカまでの設定が可能である)、COR1〜C
OR6の判別結果出力に基づいてマーカ番号のデータを出
力するようになっている。例えば、表2において、セレ
クタ入力SL1,SL2によりCOR1とCOR2とがマーカ
指定色として選択された場合は¥、COR1とCOR2との判
別入力がアクティブの場合にマーカ番号1を出力するの
である。なお、この実施例では、COR1〜COR6のうちCO
R1側が優先されるようになっており、多数検出による
誤符号化を抑制するようにしている。
Returning to FIG. 7, the judgment result output from each hardware logic judgment circuit 41 (that is, each of the colors COR1 to CORC)
The pattern matching result of OR6) is input to the hardware logic data generation circuit 42. The hardware logic data generation circuit 42 receives the discrimination result from the discrimination circuit of each discrimination designated color as a binary value, and outputs the first output state in a form corresponding to the combination of the input states of the discrimination result input terminals on a one-to-one basis. And the second output state is output as target pixel data. Here, in the case of marker detection, the data of the marker number is output as the first output state, and in the case of not detecting the marker, an output corresponding to none of the marker numbers is output as the second output state. The hardware logic data generation circuit 42 is composed of a decoder of 6-bit input and 5-bit output, and the setting of the marker designation color is selected by the selector inputs SL1 and SL2 (that is, setting of up to four color markers is possible. ), COR1-C
Marker number data is output based on the determination result output of OR6. For example, in Table 2, when COR1 and COR2 are selected as the marker designation colors by the selector inputs SL1 and SL2, ¥, and when the discrimination input between COR1 and COR2 is active, the marker number 1 is output. In this embodiment, CO1 to COR6 of CO1
The R1 side is prioritized so that erroneous encoding due to multiple detection is suppressed.

【0085】こうして生成されたマーカ番号のデータ
は、抽出画像(マーカ画像)のデータとして、図1の抽
出画像データ出力制御部6とマーカ画素計数部7とに送
られる。図9に示すように、マーカ画素計数部7は、指
定されたマーカ番号の画素のx座標値の和Σx、同y座
標値の和Σy、及び画素数nを各々演算する3つの加算
器55〜57を含んでいる。各加算器の出力累計はデー
タメモリ58に記憶されるとともに、その結果がカラオ
ケ装置本体100に出力される。データメモリ58に
は、Σx−メモリ、Σyメモリ及びnメモリが形成され
ている。
The data of the marker number thus generated is sent to the extracted image data output control unit 6 and the marker pixel counting unit 7 in FIG. 1 as the data of the extracted image (marker image). As shown in FIG. 9, the marker pixel counting unit 7 includes three adders 55 for calculating the sum Σx of the x coordinate values of the pixels of the designated marker number, the sum Σy of the same y coordinate values, and the number of pixels n. ~ 57. The output total of each adder is stored in the data memory 58, and the result is output to the karaoke apparatus main body 100. The data memory 58 includes a $ x-memory, a $ y memory, and an n memory.

【0086】Σx−メモリは、初期状態においてゼロク
リアされている。サブコントローラ54は、カラオケ装
置本体100からのアドレス情報に基づいて、各マーカ
色毎のΣxデータの格納エリアのアドレスを指定するア
ドレスコントローラを内蔵し、画素の色に応じて、対応
するアドレスのメモリエリアを選択する。初めの処理画
素が入ってくると、その画素のマーカ番号データがアド
レスコントローラを経てΣx−メモリのアドレス線に入
力されることとなる。
The $ x memory is initially cleared to zero. The sub-controller 54 has a built-in address controller for designating the address of the storage area of the $ x data for each marker color based on the address information from the karaoke apparatus main body 100. Select an area. When the first processed pixel comes in, the marker number data of that pixel is input to the address line of the $ x-memory via the address controller.

【0087】そして、画像転送の同期制御部(図2のシ
ステムコントローラ3に内蔵されている)により生成さ
れる水平同期信号を基準として、xカウンタ52が、対
象となる画素が転送されてくるまでの転送画素個数をカ
ウントし、その画素の画面上における水平方向座標値と
して加算器55に入力される。なお、画素の転送制御
は、図2のシステムコントローラ3内のクロックパルス
発生部が発するクロックパルス信号に従って制御され
る。他方、Σx−メモリのその時点での記憶値は加算器
55へフィードバックされ、xカウンタ52からのカウ
ント値(すなわち、新たな画素のx座標値)とΣx−メ
モリの累積加算値とが加算器55により加算され、さら
に図示しないバッファ等を通じて、Σx−メモリの同じ
アドレスに再び書き込まれて加算記憶値が更新されて、
1画素の処理が終了する。
Then, based on the horizontal synchronizing signal generated by the image transfer synchronizing control unit (built-in to the system controller 3 in FIG. 2), the x counter 52 operates until the target pixel is transferred. Is transferred to the adder 55 as a horizontal coordinate value of the pixel on the screen. The transfer control of the pixels is controlled according to a clock pulse signal generated by a clock pulse generator in the system controller 3 of FIG. On the other hand, the current value stored in the Σx-memory is fed back to the adder 55, and the count value (ie, the x coordinate value of the new pixel) from the x counter 52 and the cumulative addition value of the Σx-memory are added to the adder 55. 55, and are written again to the same address of the $ x-memory through a buffer or the like (not shown) to update the added storage value.
The processing for one pixel ends.

【0088】次に、画素のΣyを演算するための加算器
56は、Σy−メモリと対をなす。作動は、Σxの演算
系と略同様であるが、加算器56に入力されるのは、画
素のy座標値、すなわち同期制御部からの垂直同期信号
を受けてから、対象となる画素位置までの走査線本数
(例えば1走査線毎に挿入される水平同期信号の数で代
用できる)をカウントするyカウンタ53のカウント出
力値であり、その加算出力値は、該y座標の累積加算値
である。
Next, an adder 56 for calculating Σy of a pixel is paired with Σy-memory. The operation is substantially the same as that of the arithmetic system of が x, except that the input to the adder 56 is from the y-coordinate value of the pixel, that is, from the reception of the vertical synchronization signal from the synchronization control unit to the target pixel position. Is the count output value of the y counter 53 for counting the number of scanning lines (for example, the number of horizontal synchronization signals inserted for each scanning line), and the added output value is the cumulative addition value of the y coordinate. is there.

【0089】また、nを演算するための加算器57は、
その出力累計を記憶するnメモリと対をなす。作動は、
Σxの演算系と略同様であるが、加算器57に入力され
るのは、指定のマーカ番号の画素が一個入る毎にカウン
トパルスを一個発する画素カウンタ(図示せず)の出力
であり、その加算出力値は、対応するカラーマーカの画
像領域(マーカ画像)の総画素数nである。
The adder 57 for calculating n is
It forms a pair with the n memory that stores the output total. The operation is
The operation system is substantially the same as that of the calculation system of Σx, but what is input to the adder 57 is the output of a pixel counter (not shown) that emits one count pulse each time one pixel of the designated marker number enters. The addition output value is the total number n of pixels of the image area (marker image) of the corresponding color marker.

【0090】この一連の動作を、現在作動状態にあるカ
ラーカメラ15(図2)の画面全体に行うと、各カラー
マーカ(CM)のx座標の総和ΣxがΣx−メモリに、
同じくy座標の総和ΣyがΣy−メモリに、さらに、画
素総数nがnメモリに、それぞれ演算結果として記憶さ
れた状態となる。この記憶値は、それぞれカラオケ装置
本体100に転送される。そして、1フレームの画像デ
ータの処理が終了すると、フレームカウンタからの信号
により各メモリの内容がクリアされ、次のフレームの画
像データに対して同じ処理が繰り返される。こうして、
カラーカメラ15の撮影により逐次生成される画像デー
タに対し、各カラーマーカの上記Σx、Σy及びnの値
が、マーカ位置データとしてリアルタイムにて演算・生
成され、カラオケ装置本体100に出力されることとな
る。
When this series of operations is performed on the entire screen of the currently operating color camera 15 (FIG. 2), the sum x of the x coordinates of each color marker (CM) is stored in the Δx-memory,
Similarly, a state is obtained in which the sum Σy of the y-coordinates is stored in the 、 y-memory and the total number of pixels n is stored in the n-memory as a calculation result. The stored values are respectively transferred to the karaoke apparatus main body 100. When the processing of the image data of one frame is completed, the contents of each memory are cleared by the signal from the frame counter, and the same processing is repeated for the image data of the next frame. Thus,
The values of に よ り x, 及 び y, and n of each color marker are calculated and generated in real time as marker position data with respect to image data sequentially generated by photographing with the color camera 15 and output to the karaoke apparatus main body 100. Becomes

【0091】例えば図11のフローチャートに示すよう
に、図1のカラオケ装置本体100側では、S1で指定
されたカラーマーカの番号(アドレス)を出力し、S2
〜S4で、そのカラーマーカのΣx、Σy及びnの値を
リードする。そして、これを用いることにより、例えば
図22等に示すように、抽出されたマーカ画像の重心座
標Gを演算し、これを歌唱者が行う振付け動作データと
して取得することができる。
For example, as shown in the flowchart of FIG. 11, the karaoke apparatus main body 100 of FIG. 1 outputs the number (address) of the color marker designated in S1 and S2
In S4, the values of Σx, Σy and n of the color marker are read. Then, by using this, as shown in, for example, FIG. 22, the barycentric coordinate G of the extracted marker image is calculated, and this can be acquired as choreography motion data performed by the singer.

【0092】なお、動作データ作成システム2の回路構
成は、リアルタイムデータ作成に適したものであれば、
上記のものに限られるものではない。
The circuit configuration of the operation data creation system 2 is not limited as long as it is suitable for real-time data creation.
It is not limited to the above.

【0093】一方、抽出画像データ出力制御部6は、マ
ーカ番号のデータを画素アドレスと対応付けた形でフレ
ームメモリ21に蓄積してマーカ画像データとなし、こ
れをカラオケ装置本体100側からの要求に従い転送す
る。カラオケ装置本体100側ではこのマーカ画像デー
タにより、例えばマーカ画像の形状解析等を行うことが
可能となる。
On the other hand, the extracted image data output control section 6 accumulates the marker number data in the frame memory 21 in a form associated with the pixel address to form marker image data. Transfer according to. The karaoke apparatus main body 100 can perform, for example, shape analysis of the marker image on the basis of the marker image data.

【0094】なお、3色以上に塗り分けたマーカを使用
する場合、一部のマーカ色を無視して、これを見掛け
上、少ない色で塗り分けられたマーカとして認識するこ
とも可能である。このような処理は、図7において、ハ
ードウェアロジックデータ生成回路42に対する指定色
の設定数を減ずるだけで、簡単に行うことができる。図
23は、このような処理の応用例を示している。すなわ
ち、(a)に示すマーカMKは、本来COR1〜COR3の3
色で塗り分けられているのであるが、このうちCOR1とC
OR2のみを採用すると、COR3の領域はマーカMKに属
していないものと判断されるので、マーカ画像EI1
は、COR1とCOR2の境界付近に現われ、重心位置G1も
マーカ画像EI1内のものとして演算される。他方、CO
R2とCOR3のみを採用すると、COR1の領域はマーカM
Kに属していないものと判断されるので、マーカ画像E
I2は、COR2とCOR3の境界付近に現われ、重心位置G
2はマーカ画像EI2内のものとして演算される。これ
らの重心位置G1,G2は、元のマーカMK内において異
なる座標値を有するものとなるから、例えば画像上のG
1,G2の値から、マーカMKのカメラに対する姿勢を検
出できる。例えば、図23(b)は、線分G1,G2の水
平線Xに対する傾斜角度から、マーカMKの水平線Xに
対する傾斜角度θを求める例を示すものであり、(c)
は、線分G1G2の長さから、鉛直面z(紙面と一致させ
ている)に対する前後方向の傾斜角度φを求める例を示
している。
When using markers that are painted in three or more colors, it is also possible to ignore some of the marker colors and apparently recognize them as markers painted in fewer colors. Such processing can be easily performed only by reducing the number of designated colors set in the hardware logic data generation circuit 42 in FIG. FIG. 23 shows an application example of such processing. That is, the marker MK shown in (a) is originally three of COR1 to COR3.
They are painted in different colors, of which COR1 and C
If only OR2 is adopted, it is determined that the area of COR3 does not belong to the marker MK.
Appears near the boundary between COR1 and COR2, and the barycentric position G1 is also calculated as that in the marker image EI1. On the other hand, CO
If only R2 and COR3 are adopted, the area of COR1 is the marker M
Since it is determined that the image does not belong to K, the marker image E
I2 appears near the boundary between COR2 and COR3, and the center of gravity G
2 is calculated as that in the marker image EI2. Since these barycentric positions G1 and G2 have different coordinate values in the original marker MK, for example, G1 on the image
The attitude of the marker MK with respect to the camera can be detected from the values of 1, G2. For example, FIG. 23B shows an example in which the inclination angle θ of the marker MK with respect to the horizontal line X is obtained from the inclination angles of the line segments G1 and G2 with respect to the horizontal line X, and FIG.
Shows an example in which the inclination angle φ in the front-rear direction with respect to the vertical plane z (coincident with the paper surface) is obtained from the length of the line segment G1G2.

【0095】次に、図1に戻り、カラオケ装置本体10
0の電気的構成について説明する。カラオケ装置本体1
00は、I/Oポート9とこれに接続されるCPU10
2、ROM103、RAM104を主体とする主制御部
101を有する。主制御部101はさらに、振付モデル
CG合成部(歌唱者対応CG動画像合成手段)105、
圧縮動画デコーダ106、歌詞テロップ合成部110、
フレーム画像合成部107及び音楽データデコーダ11
1を含み、それぞれI/Oポート9に接続されている。
フレーム画像合成部107にはモニタ制御部108が接
続され、これに歌詞表示手段、歌唱者動作データ出力手
段、歌唱者対応CG動画像出力手段及び歌唱者動作評価
結果出力手段の主体をなすモニタ109が接続される。
Next, returning to FIG.
The electrical configuration of 0 will be described. Karaoke device body 1
00 is an I / O port 9 and a CPU 10 connected thereto.
2, a main control unit 101 mainly including a ROM 103 and a RAM 104; The main control unit 101 further includes a choreography model CG synthesizing unit (singer CG moving image synthesizing unit) 105,
Compressed video decoder 106, lyrics telop synthesizing section 110,
Frame image synthesizing section 107 and music data decoder 11
1 are connected to the I / O port 9 respectively.
A monitor control unit 108 is connected to the frame image synthesizing unit 107, and a monitor 109 serving as a main body of a lyric display unit, a singer operation data output unit, a singer CG moving image output unit, and a singer operation evaluation result output unit. Is connected.

【0096】また、音楽データデコーダ111にはアン
プミキサ112が接続され、これにスピーカ113と、
前述のマイク116が接続されている。これら音楽デー
タデコーダ111、アンプ112及びスピーカ113は
カラオケ演奏手段の主体をなる。
The music data decoder 111 is connected to an amplifier mixer 112, to which a speaker 113 and
The microphone 116 described above is connected. The music data decoder 111, the amplifier 112, and the speaker 113 constitute a karaoke playing means.

【0097】また、I/Oポート9には、図示しない選
曲等のためのキーを備えた入力部117と、同じくその
入力作業を無線遠隔操作で行うためのリモコン119か
らの無線信号を受けるリモコン受信部118、及びカラ
オケ演奏に必要な各種データを記憶した記憶装置120
が接続されている。
The I / O port 9 has an input unit 117 having keys (not shown) for music selection and the like, and a remote controller for receiving a radio signal from a remote controller 119 for performing the input operation by radio remote control. Receiving unit 118 and storage device 120 storing various data necessary for karaoke performance
Is connected.

【0098】図28は、ROM103、RAM104及
び記憶装置120の内容を模式的に示すものである。R
OM103には、カラオケ装置1の全体の制御を司る制
御プログラム103aが記憶されている。また、RAM
104には、CPU102(図1)が、該制御プログラ
ム103aを実行する際に使用するワークエリア104
a、得点カウンタ104b、及び選曲メモリ104cが
形成されている。記憶装置120には、カラオケデータ
120a、振付モデルCGデータ120b、圧縮背景動
画データ120c及び標準振付データ120dが記憶さ
れている。
FIG. 28 schematically shows the contents of the ROM 103, the RAM 104, and the storage device 120. R
The OM 103 stores a control program 103a that controls the entire karaoke apparatus 1. Also, RAM
A work area 104 used when the CPU 102 (FIG. 1) executes the control program 103a is provided in the work area 104.
a, a score counter 104b, and a music selection memory 104c. The storage device 120 stores karaoke data 120a, choreography model CG data 120b, compressed background moving image data 120c, and standard choreography data 120d.

【0099】図29に示すように、カラオケデータ12
0aは、カラオケ曲の音楽データ、歌詞データ、振付イ
ンデックス及び背景画像インデックスを、曲番号と対応
付けて記憶したものである。音楽データは、カラオケ演
奏の音声波形データをデジタル化・圧縮したデジタル圧
縮音データ、あるいはMIDI(Musical InstrumentDi
gital Interface)データにより構成され、各カラオケ
曲の演奏音源となるものである。該音楽データは、図1
の音楽データデコーダ111に送られて、そこでカラオ
ケ演奏音信号に変換される。例えばデジタル圧縮音デー
タの場合は、音楽データデコーダ111は、そのデジタ
ル圧縮音データを圧縮解除して、さらにアナログのカラ
オケ演奏音信号に変換する役割を果たすこととなる。一
方、MIDIデータの場合、音楽データデコーダ111
はMIDIシーケンサ、又はそれを内蔵したMIDI対
応楽器あるいはシンセサイザなどで構成され、MIDI
データに含まれる各音の音高、音の強さ、音の長さ、音
色等の信号データに基づいて、カラオケ演奏音信号を合
成する役割を果たす。この音信号はアンプミキサ112
を経てスピーカ113から出力される。また、マイク1
16からの歌唱者の音声信号は、アンプミキサ112に
おいて上記のカラオケ演奏音信号とミキシングされ、同
様にスピーカ113から出力される。
As shown in FIG. 29, the karaoke data 12
0a stores music data, lyrics data, a choreographic index, and a background image index of a karaoke song in association with a song number. The music data is digital compressed sound data obtained by digitizing and compressing audio waveform data of a karaoke performance, or MIDI (Musical Instrument Diode).
Gital Interface) data, and serves as a performance sound source for each karaoke song. The music data is shown in FIG.
Is transmitted to a music data decoder 111, where it is converted into a karaoke performance sound signal. For example, in the case of digital compressed sound data, the music data decoder 111 plays a role of decompressing the digital compressed sound data and further converting it into an analog karaoke performance sound signal. On the other hand, in the case of MIDI data, the music data decoder 111
Is composed of a MIDI sequencer or a MIDI-compatible instrument or synthesizer incorporating the MIDI sequencer.
It plays a role of synthesizing a karaoke performance sound signal based on signal data such as pitch, sound intensity, sound length, and timbre of each sound included in the data. This sound signal is supplied to the amplifier mixer 112.
Is output from the speaker 113 through Also, microphone 1
The singer's voice signal from 16 is mixed with the above karaoke performance sound signal in the amplifier mixer 112 and output from the speaker 113 in the same manner.

【0100】次に、歌詞データは、モニタ109に表示
させる各カラオケ曲の歌詞テロップの内容を文字コード
等により記述したものである。これは、図1の歌詞テロ
ップ合成部に送られ、そこで文字コードに対応する文字
フォントデータを用いて、歌詞テロップに含まれる文字
の映像信号に変換される。
Next, the lyrics data describes the contents of the lyrics telop of each karaoke song to be displayed on the monitor 109 using character codes or the like. This is sent to the lyrics telop synthesizing unit in FIG. 1, where it is converted into a video signal of the characters included in the lyrics telop using the character font data corresponding to the character code.

【0101】図29に戻り、振付インデックスは、本発
明のカラオケ装置の特徴部でもある振付モードの使用が
可能なカラオケ曲に限って付与されており、その曲の振
付モード実行に必要な後述の各種データを特定するため
のものである。他方、背景画像インデックスは、その曲
に合わせてモニタ109に歌詞テロップとともに流す背
景画像の動画データを特定するためのものである。
Returning to FIG. 29, the choreography index is given only to karaoke songs that can use the choreography mode, which is also a feature of the karaoke apparatus of the present invention. This is for specifying various data. On the other hand, the background image index is for specifying moving image data of a background image to be sent together with the lyrics telop to the monitor 109 in accordance with the music.

【0102】次に、振付モデルCGデータ120bは、
曲毎のモデルCGデータと、振付モード選択時に背景画
像に代えて使用される、随伴動画像データとしての振付
モード用動画データとを、振付インデックスと対応付け
た形で記憶したものである。モデルCGデータと振付モ
ード用動画データとは対をなし、図34に示すように、
昨今人気上昇中のある女性アイドルペアPFの動画像
(実写画像又はその加工画像でもよいし、これをモチー
フにしたアニメーションキャラクタでもよい)をモニタ
109に表示させるためのものである。このうち、モデ
ルCGデータは、ペアPFのうちの一方の女の子のコン
ピュータグラフィック画像CG(歌唱者対応CG動画
像)を表すためのコンピュータグラフィック画像データ
であり、振付モード用動画データは、他方の女の子の動
画像(随伴動画像)SIを表すための動画像データであ
る。モデルの動画像CG及びSIのうち、少なくとも一
方に対し、3次元動画像データに対する座標変換を行な
うことで、モデルに対する視点を変更した状態(例えば
上方や背後から見た状態)でこれを動画出力することも
できる。これにより、歌唱者は、動画上のモデルの動き
を種々の角度から参照できるので、例えば動画像CGを
見れば自分の動きを、同じくSIを見れば模範動作をよ
り詳細に確認することが可能となる。
Next, the choreography model CG data 120b is
Model CG data for each song and choreography mode moving image data as accompanying moving image data used in place of the background image when the choreography mode is selected are stored in association with the choreography index. The model CG data and the choreography mode moving image data form a pair, and as shown in FIG.
This is for displaying on the monitor 109 a moving image of a female idol pair PF, which has recently been gaining in popularity (a real image or a processed image thereof, or an animated character using this as a motif). Among them, the model CG data is computer graphic image data for representing a computer graphic image CG (CG moving image corresponding to a singer) of one girl of the pair PF, and the moving image data for choreography mode is the other girl. This is moving image data for representing the moving image (accompanying moving image) SI. By performing coordinate transformation on at least one of the model moving images CG and SI with respect to the three-dimensional moving image data, this is output as a moving image in a state where the viewpoint of the model is changed (for example, when viewed from above or behind). You can also. Thereby, the singer can refer to the movement of the model on the moving image from various angles, so that the singer can check his own movement by looking at the moving image CG, and can check the model movement more closely by looking at the SI, for example. Becomes

【0103】図35に示すように、女の子のコンピュー
タグラフィック画像CGは、歌唱者GALが身に付けて
いるカラーマーカM1〜M11に対応して11のパーツP1
〜P11に分れており、それぞれ目印位置G1〜G11が定
められている。モデルCGデータは、これらの各パーツ
P1〜P11を表す三次元画像データの組で構成されてい
る。図1の振付モデルCG合成部105は、動作データ
作成システム2から送られてくる各カラーマーカの位置
データに基づいて、各パーツP1〜P11のモニタ109
の表示画面上の表示位置及び角度を定め、上記の三次元
画像データを用いて、コンピュータグラフィック画像C
Gのデータを各フレーム毎に生成する役割を果たす。一
方、振付モード用動画データは圧縮動画像データとして
構成されており、図1の圧縮動画デコーダ106にて圧
縮解除される。フレーム画像合成部107は図示しない
フレームメモリとその周辺制御回路等を含んで構成さ
れ、図38に示すように、フレーム毎にコンピュータグ
ラフィック画像CGと、随伴動画像SIと、歌詞テロッ
プの画像TPとをフレーム合成する。フレームメモリ内
の合成画像情報は、モニタ制御部108を経て映像信号
となり、垂直同期信号によりフレーム毎にモニタ109
に出力される。
As shown in FIG. 35, the computer graphic image CG of the girl has eleven parts P1 corresponding to the color markers M1 to M11 worn by the singer GAL.
To P11, and mark positions G1 to G11 are respectively defined. The model CG data is composed of a set of three-dimensional image data representing these parts P1 to P11. The choreography model CG synthesis unit 105 in FIG. 1 monitors the monitors 109 of the parts P1 to P11 based on the position data of each color marker sent from the motion data creation system 2.
The display position and the angle on the display screen of the computer graphic image C are determined by using the three-dimensional image data.
It plays a role of generating G data for each frame. On the other hand, the choreographic mode moving image data is configured as compressed moving image data, and is decompressed by the compressed moving image decoder 106 in FIG. The frame image synthesizing unit 107 includes a frame memory (not shown) and its peripheral control circuit and the like. As shown in FIG. 38, the computer graphic image CG, the accompanying moving image SI, the lyrics telop image TP Are frame synthesized. The synthesized image information in the frame memory is converted into a video signal via the monitor control unit 108, and the monitor 109 receives a vertical synchronization signal for each frame.
Is output to

【0104】次に、図29において、圧縮背景動画デー
タ120cは、各種背景画像の圧縮動画データを背景画
像インデックスと対応付けて記憶したものである。振付
モードが選択されなかったり、はじめから振付モード対
応でない曲が選択された場合は、その曲番号に付された
背景画像インデックスを参照して、対応する圧縮動画デ
ータが読み出され、図1の圧縮動画デコーダ106にて
圧縮解除された後、フレーム画像合成部107にて歌詞
テロップの映像TPと合成されて、モニタ制御部108
を経てモニタ109に出力される。
Next, in FIG. 29, the compressed background moving image data 120c stores compressed moving image data of various background images in association with a background image index. If the choreography mode is not selected or a song that does not support the choreography mode is selected from the beginning, the corresponding compressed moving image data is read out with reference to the background image index assigned to the song number, and FIG. After being decompressed by the compressed video decoder 106, the image is synthesized with the video TP of the lyrics telop by the frame image synthesizing unit 107, and
Is output to the monitor 109 via

【0105】また、図29の標準振付データ120d
は、例えばプロの歌手やダンサー(例えば当の女性アイ
ドルペアPFの女の子でもよい)に、図33と全く同じ
形態でカラーマーカMKを着用させ、その模範的な振付
動作を前記した動作データ作成システム2により動作デ
ータ化したもので、フレーム毎の各マーカMKの重心位
置座標(以下、基準位置座標という)の集合として記述
されている。これは、後述する通り、歌唱者の振付動作
に対する得点評価を行うときに使用される。なお、図2
9において、標準振付データ120dに対応させて、模
範的な振付動作を行うモデルの動画像データ(以下、模
範振付動画データという:図29)を合わせて記憶させ
ておくこともできる。
The standard choreographic data 120d shown in FIG.
33, a professional singer or dancer (for example, a girl of the female idol pair PF in question) may wear a color marker MK in exactly the same form as in FIG. 2, which is described as a set of barycentric position coordinates (hereinafter referred to as reference position coordinates) of each marker MK for each frame. As will be described later, this is used when performing a score evaluation for the singer's choreography. Note that FIG.
In FIG. 9, moving image data of a model performing an exemplary choreography operation (hereinafter, referred to as exemplary choreography moving image data: FIG. 29) may be stored in association with the standard choreography data 120d.

【0106】なお、上記のデータは、例えば新曲追加あ
るいは振付モード対応経の変更等に応じて、新しいデー
タを、図1のモデム121及び通信回線を介して、サー
バ122より配信を受けることができる。
The above data can be distributed from the server 122 via the modem 121 and the communication line in FIG. 1 in accordance with, for example, the addition of a new song or a change in the choreography mode correspondence. .

【0107】以下、カラオケ装置1の作動についてフロ
ーチャートを用いて説明する。図41は、選曲処理の流
れを示すものである。S101はて選曲待ちの状態であ
り、図1のリモコン119あるいは入力部117により
曲番号の入力され選曲が行われると、S103にて選曲
メモリ104c(図28)の状態を確認する。もしメモ
リフル状態であればS104に進み、モニタ109への
画面表示等によりメモリフルのエラー通知を行う。一
方、メモリフルでなければS105に進み、シフトメモ
リとして形成された選曲メモリ104c(図28)の末
尾のセルに、入力された局番号を書き込む。利用者はさ
らにリモコン119あるいは入力部117のキー操作に
より、振付モードを選択するか否か(S106)、ある
いは採点モードを選択するか否か(S109)の入力を
行う。各モードがもし選択された場合は、それぞれ振付
モードの選択及び設定(S108)と、採点モードの選
択及び設定(S110)をそれぞれ行う。図28に示す
ように、その設定内容は、曲番号とともに選曲メモリ1
04cに記憶される。なお、振付モード対応でない曲に
対して振付モードの選択が行われた場合は、S107か
らS111に進み、モニタ109への画面表示等により
振付モード選択が不可能である旨の通知を行う。以上で
選曲処理は終了する。
Hereinafter, the operation of the karaoke apparatus 1 will be described with reference to a flowchart. FIG. 41 shows the flow of the music selection process. S101 is a music selection waiting state. When a music number is input by the remote controller 119 or the input unit 117 in FIG. 1 and music selection is performed, the state of the music selection memory 104c (FIG. 28) is confirmed in S103. If the memory is full, the process proceeds to step S104, and a memory full error is notified by displaying a screen on the monitor 109 or the like. On the other hand, if the memory is not full, the process proceeds to S105, and the input station number is written in the last cell of the music selection memory 104c (FIG. 28) formed as a shift memory. The user further inputs by a key operation of the remote controller 119 or the input unit 117 whether to select the choreography mode (S106) or to select the scoring mode (S109). If each mode is selected, the selection and setting of the choreography mode (S108) and the selection and setting of the scoring mode are performed (S110). As shown in FIG. 28, the setting contents are set together with the song number in the song selection memory 1.
04c. If a choreography mode is selected for a song that does not support the choreography mode, the process proceeds from step S107 to step S111, and a notification that the choreography mode cannot be selected is made by displaying a screen on the monitor 109 or the like. Thus, the music selection processing ends.

【0108】図42には、カラオケ演奏処理の流れを示
すものである。まず、S201で、選曲メモリ104c
(図28)の先頭のエリアをリードする。曲番号がここ
にストアされていればS203に進み、記憶装置120
にアクセスして、その曲番号に対応するカラオケデータ
120a(図29)を読み出す(S203、S20
4)。そして、S205において振付モードが選択され
ていない場合はS206に進み、背景画像インデックス
(図29)を参照して、対応する背景画像の圧縮動画デ
ータを読み出す。そして、S207に進み、カラオケデ
ータ120aの音楽データに基づくカラオケ演奏(S2
07a)が行われ、同じく歌詞データに基づく歌詞テロ
ップが背景画像と合成されてモニタ109(図1)に表
示される(S207b、S207c)。歌唱者は、これ
を見ながらマイク116を用いて歌唱する。曲演奏が終
了すれば、S213に進んで選曲メモリ104cがメモ
リシフトし、S201に返って次の曲の処理を同様に繰
り返す。以上は、公知のカラオケ装置と略同様の処理で
ある。
FIG. 42 shows the flow of the karaoke performance process. First, in S201, the music selection memory 104c
The first area (FIG. 28) is read. If the music number is stored here, the process proceeds to S203, and the storage device 120
To read the karaoke data 120a (FIG. 29) corresponding to the song number (S203, S20).
4). If the choreography mode is not selected in S205, the process proceeds to S206, and the compressed moving image data of the corresponding background image is read out with reference to the background image index (FIG. 29). Then, the process proceeds to S207, where the karaoke performance based on the music data of the karaoke data 120a (S2
07a) is performed, and the lyrics telop based on the lyrics data is also combined with the background image and displayed on the monitor 109 (FIG. 1) (S207b, S207c). The singer sings using the microphone 116 while watching this. When the music performance is completed, the process proceeds to S213, where the music selection memory 104c performs a memory shift, and returns to S201 to repeat the processing of the next music in the same manner. The above is substantially the same processing as that of a known karaoke apparatus.

【0109】一方、S205にて振付モードが選択され
ている場合はS208に進み、カラオケデータ120a
中の振付インデックスを参照して、必要な随伴動画像を
作るための振付モード用動画データ(図28)を読み出
す。そして、S209において採点モードが選択されて
いる場合はS211に進み、同じく選択されていない場
合はS210に進む。これらの流れの違いは、採点処理
が行われるか行われないかのみであるので、以下、採点
処理を行うS211の流れについて説明を行う。
On the other hand, if the choreography mode is selected in S205, the process proceeds to S208, where the karaoke data 120a
The moving image data for choreography mode (FIG. 28) for creating a necessary accompanying moving image is read out with reference to the choreography index in FIG. If the scoring mode is selected in S209, the process proceeds to S211. If the scoring mode is not selected, the process proceeds to S210. The only difference between these flows is whether or not the scoring process is performed. Therefore, the flow of S211 for performing the scoring process will be described below.

【0110】S211aにおける曲演奏と、S211b
における歌詞テロップの作成については、振付モード被
選択の場合と同じである。そして、該振付モードでは、
図36に示すように、歌唱者GALは体にカラーマーカ
MKを着用し、カメラ15,15の前で振付を踊る。す
でに詳しく説明した通り、各カラーマーカMKの動きが
カメラ15,15にて撮影され、動作データ作成システ
ム2において各時刻毎のマーカ重心位置が動作データと
して作成される。図43はこれを用いた振り付けモデル
CG作成処理(図42のS211c)の流れを示すもの
である。この場合、振付動作を開始する前に、歌唱者G
ALは、カメラ15,15の前で決められたポーズ(例
えば図30に示すように脚を少し開き、両手を横に垂れ
た自然体のポーズ)を取る。動作データ作成システム2
は、このときの各マーカMKの重心位置データを生成
し、カラオケ装置本体100(図1)側に転送する。装
置本体100側では初期設定処理として、対応するモデ
ルCGデータに対し、対応する自然体ポーズを取ったと
きの各パーツP1〜P11の目印位置G1〜G11(図35)
を、自然体ポーズの歌唱者側の各マーカM1〜M11の重
心位置に合わせ込む。これにより、歌唱者によって身長
や体形が異なる場合でも、画一的な流れによりモデルC
G作成が可能となる。
The music performance in S211a and S211b
Is the same as in the case of choreography mode selection. And in the choreography mode,
As shown in FIG. 36, the singer GAL wears the color marker MK on his body and dances choreography in front of the cameras 15 and 15. As already described in detail, the movement of each color marker MK is photographed by the cameras 15, 15, and the marker center position at each time is created as operation data in the operation data creation system 2. FIG. 43 shows the flow of a choreography model CG creation process using this (S211c in FIG. 42). In this case, before starting the choreography operation, the singer G
The AL takes a pose determined in front of the cameras 15 and 15 (for example, a pose of a natural body with its legs slightly opened and both hands laid down as shown in FIG. 30). Motion data creation system 2
Generates the center-of-gravity position data of each marker MK at this time and transfers it to the karaoke apparatus main body 100 (FIG. 1). In the apparatus main body 100, as initial setting processing, landmark positions G1 to G11 of the parts P1 to P11 when a corresponding natural pose is taken with respect to the corresponding model CG data (FIG. 35).
To the center of gravity of each of the markers M1 to M11 on the singer side in the natural pose. As a result, even if the height and body shape differ depending on the singer, the model C
G can be created.

【0111】図43に戻り、上記のような初期設定の
後、歌唱者GALが曲に合わせて歌いながら振付け動作
を開始すると、S301でフレーム取り込みタイミング
に対応する時刻にて、各マーカの重心位置のデータが動
作データ作成システム2から取り込まれる。そして、S
302では、振付モデルCG合成部105において、図
35のコンピュータグラフィック画像CG(振り付けモ
デルCG)の各パーツP1〜P11の基準位置G1〜G11
を、動作データ作成システム2から送られてくる各カラ
ーマーカの重心位置に重ね合わせる。そして、S303
では、さらに各パーツP1〜P11の三次元画像データ
に、必要な回転処理を施して、モデル(アイドルペアP
Fの一方の女の子)のコンピュータグラフィック画像C
Gのデータを生成し、例えば振付モデルCG合成部10
5内のCGメモリにこれを記憶する。そして、垂直同期
信号等によりフレーム更新が指示された場合は、S30
5に進んでCGメモリをクリアし、S301に戻って次
のフレームにつき同じ処理を繰り返す。
Referring back to FIG. 43, after the initial setting as described above, when the singer GAL starts the choreography operation while singing along with the music, in S301, the barycentric position of each marker is set at the time corresponding to the frame fetch timing. Is taken in from the operation data creation system 2. And S
At 302, the reference positions G1 to G11 of the parts P1 to P11 of the computer graphic image CG (choreography model CG) in FIG.
Is superimposed on the position of the center of gravity of each color marker sent from the motion data creation system 2. And S303
Then, the necessary rotation processing is performed on the three-dimensional image data of each of the parts P1 to P11, and the model (idle pair P
Computer graphic image C of one girl in F)
G data is generated, for example, a choreography model CG synthesis unit 10
5 is stored in the CG memory. Then, when a frame update is instructed by a vertical synchronization signal or the like, S30
Proceeding to 5, the CG memory is cleared, and the process returns to S301 to repeat the same processing for the next frame.

【0112】図42に戻り、こうして合成されたコンピ
ュータグラフィック画像CGは、S211dにおいて、
すでに説明した通り随伴動画像SI(図36等)と合成
される。随伴動画像SIは、カラオケ曲の再生と同期し
て、歌唱者GALの動きとは無関係に再生される。例え
ば、この動きが歌唱者GALが行うべき振付動作と略同
じである場合(すなわち、図34において、アイドルペ
アPFの2人の女の子が、ほとんど同じ振付動作を行う
場合)、歌唱者GALは、これを模範動作として参照し
つつ振付け動作を行うことができる。また、図29の標
準振付データ120dにおいて別途、模範振付動画デー
タを用意しておき、これを別のモニタ等に再生して模範
動作参照するように構成してもよい。
Returning to FIG. 42, the computer graphic image CG synthesized in this way is obtained in S211d.
As described above, the image is synthesized with the accompanying moving image SI (FIG. 36 and the like). The accompanying moving image SI is reproduced irrespective of the movement of the singer GAL in synchronization with the reproduction of the karaoke song. For example, when this movement is substantially the same as the choreography operation to be performed by the singer GAL (that is, in FIG. 34, when two girls of the idle pair PF perform almost the same choreography operation), the singer GAL performs The choreography operation can be performed while referring to this as an exemplary operation. In addition, the model choreography moving image data may be separately prepared in the standard choreography data 120d of FIG.

【0113】そして、歌唱者GALが振付動作を起こせ
ば、これがコンピュータグラフィック画像CGに伝わ
り、歌唱者GALと同じ動作をモニタの画面上で行う。
例えば、図36に示すように、歌唱者GALがじっと立
っているだけでは、コンピュータグラフィック画像CG
も立ったままの姿勢を継続するが、正しく振付動作すれ
ば、図37のようにコンピュータグラフィック画像CG
も歌唱者GALに合わせて振付動作することとなる。
If the singer GAL performs a choreography operation, this is transmitted to the computer graphic image CG, and the same operation as the singer GAL is performed on the screen of the monitor.
For example, as shown in FIG. 36, when the singer GAL stands still, the computer graphic image CG
Will continue to stand, but if the choreography is performed correctly, the computer graphic image CG will be displayed as shown in FIG.
Also performs a choreography operation in accordance with the singer GAL.

【0114】一方、図42において採点処理211e
は、上記のコンピュータグラフィック画像合成処理と並
行して実行される。その処理の流れの一例を図44に示
す。まず、図29において、カラオケデータ120aの
振付インデックスに対応する標準振付データが読み出さ
れる。そして、S401にて、現在のフレームの各マー
カの基準位置座標をリードする。そして、S402〜S
407では、図39に示すように、歌唱者の全てのマー
カ(あるいは定められた一部のマーカ)MKについて、
基準位置座標SGと所定の位置関係を満たす判定領域J
A内に、マーカMKの重心位置MGが入っているか否か
を判定し、入っていれば図28の得点カウンタ104b
内にてポイント加算し、入っていなければポイント不加
算とする処理を行い、これを全ての(あるいは定められ
た一部の)動画フレームについて繰り返す。その結果、
判定領域JA内に重心位置MGが入る回数が多いほど、
得点カウンタ104b内の累積ポイント値が高くなり、
優秀な振付動作と判定されることとなる。なお、一定の
持ちポイントを設定し、判定領域JAから重心位置MG
が外れる毎に減点する方式を採用してもよい。
On the other hand, in FIG.
Is executed in parallel with the computer graphic image synthesis processing described above. FIG. 44 shows an example of the processing flow. First, in FIG. 29, standard choreography data corresponding to the choreography index of the karaoke data 120a is read. Then, in S401, the reference position coordinates of each marker of the current frame are read. And S402-S
At 407, as shown in FIG. 39, for all the markers (or some defined markers) MK of the singer,
Judgment area J that satisfies a predetermined positional relationship with reference position coordinates SG
It is determined whether or not the center of gravity MG of the marker MK is included in A, and if it is, the score counter 104b of FIG.
Is added, and if not included, the point is not added, and this process is repeated for all (or a predetermined part of) moving image frames. as a result,
As the number of times that the center of gravity position MG falls within the determination area JA is larger,
The accumulated point value in the score counter 104b increases,
It is determined that the choreography is excellent. Note that a fixed holding point is set, and the center of gravity position MG is determined from the determination area JA.
May be adopted for deducting points each time the value is deviated.

【0115】そして、曲演奏が終了すれば、S408か
らS409に進み、得点カウンタ104b内の累積ポイ
ント値を読み出して、これをそのまま、あるいは定めら
れた満点値(例えば100点)に対する相対得点に換算
する等の処理を行い、得点算出する。
When the music performance is completed, the process proceeds from step S408 to step S409, in which the accumulated point value in the score counter 104b is read out and converted into a score as it is or relative to a predetermined full score (for example, 100). Then, a score is calculated.

【0116】図42に戻り、得点算出されればS212
に進み、例えば図40に示すように、モニタ109(あ
るいは別途設けられた表示装置)の得点表示領域PW
に、そのポイントを表示させる。なお、得点表示する代
わりに、得点値に対応する視覚的(例えば、評価コメン
トの出力)、聴覚的(例えば、拍手やブーイング)、も
しくはそれらの組み合わせによる評価出力を行うように
してもよい。
Returning to FIG. 42, if the score is calculated, S212
Then, as shown in FIG. 40, for example, as shown in FIG.
To display that point. Instead of displaying the score, the evaluation output may be performed visually (for example, output of an evaluation comment), aurally (for example, applause or booing), or a combination thereof, corresponding to the score value.

【0117】以下、図42ではS213に進んでメモリ
シフトし、S201に返って同様の処理を繰り返す。
In FIG. 42, the process proceeds to S213 to shift the memory, and returns to S201 to repeat the same processing.

【0118】なお、図45に示すように、コンピュータ
グラフィック画像CGを表示するのに代え、前記した模
範振付動画データによる模範動作画像MIを表示すると
ともに、歌唱者対応CG動画像として、歌唱者に取り付
けられたマーカ位置を示すマーカ画像MJ(あるいは、
(a)に示すようなマーカ画像MJを結んで得られる骨
格画像SK、あるいは(b)に示すようなこれに肉付け
した輪郭画像SH)を、該模範動作画像MIに重ね表示
するようにしてもよい。こうすれば、歌唱者は、自分の
振付動作が模範動作とどれだけずれているかを容易に視
覚確認することができ、練習等に便利である。
As shown in FIG. 45, instead of displaying the computer graphic image CG, the model operation image MI based on the model choreography moving image data described above is displayed, and the singer is displayed as a singer-supported CG moving image. A marker image MJ indicating the position of the attached marker (or
A skeleton image SK obtained by connecting the marker images MJ as shown in (a) or a contour image SH which is fleshed out as shown in (b) may be superimposed on the model operation image MI. Good. In this way, the singer can easily visually confirm how much his or her choreography motion deviates from the model motion, which is convenient for practice and the like.

【0119】なお、上記本発明のカラオケ装置には、歌
唱者の歌唱波形を標準波形と比較する等の手法により、
歌唱を評価する公知の歌唱評価機能を付加することがで
きる。この場合、前記した振付評価と組合わせて、歌唱
・振付の総合評価を行なうようにすれば、より斬新な効
果が得られる。
The karaoke apparatus of the present invention employs a technique such as comparing a singer's singing waveform with a standard waveform.
A known singing evaluation function for evaluating singing can be added. In this case, if a comprehensive evaluation of singing and choreography is performed in combination with the above-described choreography evaluation, a more novel effect can be obtained.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施例たるカラオケ装置の電気的構
成を全体的に示すブロック図。
FIG. 1 is a block diagram showing an overall electrical configuration of a karaoke apparatus according to an embodiment of the present invention.

【図2】その画像入出力部の内容を示すブロック図。FIG. 2 is a block diagram showing the contents of the image input / output unit.

【図3】ルックアップテーブルメモリ回路の具体的な構
成例を示す回路図。
FIG. 3 is a circuit diagram showing a specific configuration example of a look-up table memory circuit.

【図4】二次元ルックアップテーブルのデータ内容を概
念的に示す図。
FIG. 4 is a diagram conceptually showing data contents of a two-dimensional lookup table.

【図5】画像抽出部のマスク設定処理回路の一例を示す
回路図。
FIG. 5 is a circuit diagram showing an example of a mask setting processing circuit of the image extracting unit.

【図6】データ出力線の位置とマスク領域内の画素位置
との対応関係を示す説明図。
FIG. 6 is an explanatory diagram showing a correspondence relationship between a position of a data output line and a pixel position in a mask area.

【図7】画像抽出部のパターン適合判別・出力回路の一
例を示す回路図。
FIG. 7 is a circuit diagram showing an example of a pattern matching determination / output circuit of the image extraction unit.

【図8】ハードウェアロジック判別回路をゲート又はル
ックアップテーブルメモリを用いて構成する例を示す
図。
FIG. 8 is a diagram illustrating an example in which a hardware logic determination circuit is configured using a gate or a lookup table memory.

【図9】抽出画像データ出力制御部とマーカ画素計数部
の構成例を示す回路図。
FIG. 9 is a circuit diagram showing a configuration example of an extracted image data output control unit and a marker pixel counting unit.

【図10】複数のカメラの切替回路の例を示すブロック
図。
FIG. 10 is a block diagram illustrating an example of a switching circuit of a plurality of cameras.

【図11】カラーマーカの重心位置演算の一例を示すフ
ローチャート。
FIG. 11 is a flowchart illustrating an example of calculating the center of gravity of a color marker.

【図12】画素平面上のマスク領域設定状態と、それに
基づくマーカ抽出状態の一例を示す説明図。
FIG. 12 is an explanatory diagram showing an example of a mask area setting state on a pixel plane and a marker extraction state based on the state.

【図13】マスク領域の説明図。FIG. 13 is an explanatory diagram of a mask region.

【図14】マスク領域の別の例を示す説明図。FIG. 14 is an explanatory diagram showing another example of a mask region.

【図15】マスク領域とラインメモリの作動説明図。FIG. 15 is an explanatory diagram of the operation of a mask area and a line memory.

【図16】画素平面上にてマスク領域を走査する様子を
示す説明図。
FIG. 16 is an explanatory diagram showing a state of scanning a mask area on a pixel plane.

【図17】1画素検出を行う場合のパターン条件のいく
つかの例を示す説明図。
FIG. 17 is an explanatory diagram showing some examples of pattern conditions when performing one-pixel detection.

【図18】隣接2画素の検出を行う場合のパターン条件
のいくつかの例を示す説明図。
FIG. 18 is an explanatory diagram showing some examples of pattern conditions when detecting two adjacent pixels.

【図19】パターンマッチングによる動画フィルタ処理
のいくつかの例を示す説明図。
FIG. 19 is an explanatory diagram showing some examples of moving image filter processing by pattern matching.

【図20】その処理の流れの一例を示す説明図。FIG. 20 is an explanatory diagram showing an example of the processing flow.

【図21】同じく別の例を示す説明図。FIG. 21 is an explanatory view showing another example.

【図22】マーカ抽出の各種例を示す説明図。FIG. 22 is an explanatory diagram showing various examples of marker extraction.

【図23】3色以上のマーカを、それよりも少数色のマ
ーカとして認識する方法と、そのいくつかの利用例を示
す説明図。
FIG. 23 is an explanatory diagram showing a method of recognizing a marker of three or more colors as a marker of a smaller number of colors, and some usage examples thereof.

【図24】プレート状マーカの各種例を示す正面図。FIG. 24 is a front view showing various examples of a plate-shaped marker.

【図25】立体マーカの各種例を示す正面図。FIG. 25 is a front view showing various examples of a three-dimensional marker.

【図26】同じく別のいくつかの例を示す正面図。FIG. 26 is a front view showing some other examples.

【図27】同じくさらに別の例を示す正面図。FIG. 27 is a front view showing still another example.

【図28】図1のROM、RAM及び記憶装置の内容を
模式的に示す図。
FIG. 28 is a diagram schematically showing contents of a ROM, a RAM, and a storage device in FIG. 1;

【図29】記憶装置の内容をさらに詳しく示す模式図。FIG. 29 is a schematic view showing the contents of a storage device in more detail;

【図30】カラーマーカの固定形態の一例を示す斜視
図。
FIG. 30 is a perspective view showing an example of a fixed form of a color marker.

【図31】その変形例を示す図。FIG. 31 is a diagram showing a modified example thereof.

【図32】同じく別の変形例を示す図。FIG. 32 is a diagram showing another modified example.

【図33】カラーマーカを取り付けた歌唱者の動作を撮
影する様子を説明する斜視図。
FIG. 33 is a perspective view illustrating a state in which a singer with a color marker attached is photographed.

【図34】モニタへの動画像の表示形態の一例を示す
図。
FIG. 34 is a diagram showing an example of a display mode of a moving image on a monitor.

【図35】歌唱者に取り付けたカラーマーカと、コンピ
ュータグラフィック画像との対応関係を示す図。
FIG. 35 is a diagram showing a correspondence relationship between a color marker attached to a singer and a computer graphic image.

【図36】本発明のカラオケ装置の作用説明図。FIG. 36 is an operation explanatory view of the karaoke apparatus of the present invention.

【図37】同じく別の作用説明図。FIG. 37 is another operation explanatory view.

【図38】コンピュータグラフィック画像と随伴動画像
と歌詞テロップとを合成する様子を説明する図。
FIG. 38 is an exemplary view for explaining how a computer graphic image, an accompanying moving image, and a lyrics telop are combined;

【図39】採点処理方式の一例を示す説明図。FIG. 39 is an explanatory diagram showing an example of a scoring processing method.

【図40】得点表示形態の一例を示す説明図。FIG. 40 is an explanatory diagram showing an example of a score display mode.

【図41】選曲処理の一例の流れを示すフローチャー
ト。
FIG. 41 is a flowchart showing the flow of an example of a music selection process.

【図42】カラオケ演奏処理の一例の流れを示すフロー
チャート。
FIG. 42 is a flowchart showing the flow of an example of a karaoke performance process.

【図43】振付モデルCG作成処理の一例の流れを示す
フローチャート。
FIG. 43 is a flowchart showing the flow of an example of a choreography model CG creation process.

【図44】採点処理の一例の流れを示すフローチャー
ト。
FIG. 44 is a flowchart showing a flow of an example of a scoring process.

【図45】歌唱者対応CG動画像のいくつかの変形態様
を示す説明図。
FIG. 45 is an explanatory view showing some modified modes of the singer-supported CG moving image.

【符号の説明】[Explanation of symbols]

1 カラオケ装置 2 動作データ作成システム(歌唱者動作データ作成手
段) 4 画像入出力制御部(色統合画像データ生成手段) 7 マーカ画素計数部(抽出画像位置データ生成手段、
動作データ出力手段) 15 カラーカメラ(動作検出手段) 30 マスク設定処理回路(マスク領域設定手段、マス
ク領域走査手段) 32 データ格納メモリ部(転送制御機能付きメモリ回
路部) 33 D型フリップフロップ回路(メモリセル) 34 データ出力線(データ出力部) 35 LN−1,LN−2 ラインメモリ回路 40 パターン適合判別・出力回路 41 ハードウェアロジック判別回路(パターン適合判
別手段) 42 ハードウェアロジックデータ生成回路(対象画素
データ生成手段、適合画素抽出手段、抽出画素データ出
力手段) MSK マスク領域 SC 画素平面 C10〜C18 画素 SPC 対象画素 MK カラーマーカ 100 カラオケ装置本体部 101 主制御部(歌唱者動作評価手段) 102 CPU 103 ROM 104 RAM 105 振付モデルCG合成部(歌唱者対応CG動画像
合成手段) 106 圧縮背景動画デコーダ 107 フレーム画像合成部(随伴動画像合成出力制御
手段) 108 モニタ制御部 109 モニタ(歌詞表示手段、歌唱者動作データ出力
手段、歌唱者対応CG動画像出力手段、歌唱者動作評価
結果出力手段) 110 歌詞テロップ合成部 111 音楽データデコーダ(カラオケ演奏手段) 112 アンプ(カラオケ演奏手段) 113 スピーカ(カラオケ演奏手段) 114 A/D変換器 115 マイクアンプ 116 マイク 117 入力部 118 リモコン受信部 119 リモコン 120 記憶装置(随伴動画像データ記憶手段、基準動
作データ記憶手段) 121 モデム 122 サーバ
DESCRIPTION OF SYMBOLS 1 Karaoke apparatus 2 Motion data creation system (singer motion data creation means) 4 Image input / output control section (color integrated image data creation means) 7 Marker pixel counting section (extracted image position data creation means,
Operation data output unit) 15 Color camera (operation detection unit) 30 Mask setting processing circuit (mask area setting unit, mask area scanning unit) 32 Data storage memory unit (memory circuit unit with transfer control function) 33 D-type flip-flop circuit ( Memory cell) 34 data output line (data output unit) 35 LN-1, LN-2 line memory circuit 40 pattern matching judgment / output circuit 41 hardware logic judgment circuit (pattern matching judgment means) 42 hardware logic data generation circuit ( MSK mask area SC Pixel plane C10 to C18 Pixel SPC Target pixel MK Color marker 100 Karaoke apparatus main body 101 Main control unit (singer motion evaluation unit) 102 CPU 103 ROM 104 AM 105 Choreography model CG synthesizing unit (CG moving image synthesizing unit corresponding to singer) 106 Compressed background moving image decoder 107 Frame image synthesizing unit (combined moving image synthesizing output control unit) 108 Monitor control unit 109 Monitor (lyric display unit, singer operation) Data output means, singer-response CG moving image output means, singer motion evaluation result output means) 110 lyrics telop synthesis section 111 music data decoder (karaoke performance means) 112 amplifier (karaoke performance means) 113 speaker (karaoke performance means) 114 A / D converter 115 Microphone amplifier 116 Microphone 117 Input unit 118 Remote control receiving unit 119 Remote control 120 Storage device (combined moving image data storage unit, reference operation data storage unit) 121 Modem 122 Server

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 カラオケ演奏手段と、歌詞表示手段と、
その歌詞表示手段に表示される歌詞を見ながら歌唱する
ためのマイクと、そのマイクから入力された歌唱音声を
出力する歌唱音声出力部とを備えたカラオケ装置におい
て、 歌唱者の身体表面の所定位置に複数設けられた動作検出
マーカの動きを検出する動作検出手段と、 その動作検出手段が検出する検出情報に基づいて、前記
歌唱者が歌いながら行う振付動作等の動作のデータであ
る歌唱者動作データを、カラオケ演奏に合わせてリアル
タイム作成する歌唱者動作データ作成手段と、 その歌唱者動作データを前記カラオケ演奏に合わせて出
力する歌唱者動作データ出力手段とを備えたことを特徴
とするカラオケ装置。
1. Karaoke performance means, lyrics display means,
In a karaoke apparatus provided with a microphone for singing while watching the lyrics displayed on the lyrics display means and a singing voice output unit for outputting a singing voice input from the microphone, a predetermined position on the body surface of the singer Motion detecting means for detecting the movement of a plurality of motion detecting markers provided in the singer, based on the detection information detected by the motion detecting means, the singer motion being data of a choreography motion or the like performed by the singer while singing. A karaoke apparatus comprising: singer operation data creating means for creating data in real time in accordance with a karaoke performance; and singer operation data output means for outputting the singer operation data in accordance with the karaoke performance. .
【請求項2】 前記出力される歌唱者動作データに基づ
いて、前記歌唱者動作を反映したコンピュータグラフィ
ック動画像(以下、歌唱者対応CG動画像という)を合
成する歌唱者対応CG動画像合成手段と、 その歌唱者対応CG動画像を前記カラオケ演奏に合わせ
て出力する歌唱者対応CG動画像出力手段とを備える請
求項1記載のカラオケ装置。
2. A singer-compatible CG moving image synthesizing unit that synthesizes a computer graphic moving image (hereinafter, referred to as a singer-corresponding CG moving image) reflecting the singer operation based on the output singer operation data. The karaoke apparatus according to claim 1, further comprising: a singer-compatible CG moving image output unit that outputs the singer-compatible CG moving image in accordance with the karaoke performance.
【請求項3】 前記歌唱者対応CG動画像は、歌手やダ
ンサー等の人間モデルの動画像又はアニメーションキャ
ラクタの動画像である請求項2記載のカラオケ装置。
3. The karaoke apparatus according to claim 2, wherein the CG moving image corresponding to the singer is a moving image of a human model such as a singer or a dancer or a moving image of an animation character.
【請求項4】 前記歌唱者対応CG動画像と組み合わさ
れるべき1又は複数の人間モデルないしアニメーション
キャラクタの動画像(以下、随伴動画像という)の画像
データを記憶する随伴動画像データ記憶手段と、 その随伴動画像データに基づく随伴動画像を前記歌唱者
対応CG動画像とフレーム合成して、これを前記歌唱者
対応CG動画像出力手段に出力させる随伴動画像合成出
力制御手段を含む請求項2又は3記載のカラオケ装置。
4. An accompanying moving image data storage means for storing image data of one or a plurality of moving images of a human model or an animation character (hereinafter, referred to as an accompanying moving image) to be combined with the CG moving image corresponding to the singer; 3. An output control means for synthesizing an accompanying moving image based on the accompanying moving image data with the CG moving image corresponding to the singer and outputting the synthesized image to the CG moving image corresponding to the singer. Or the karaoke apparatus according to 3.
【請求項5】 前記歌唱者対応CG動画像出力手段は前
記歌詞表示手段に兼用されている請求項2ないし4のい
ずれかに記載のカラオケ装置。
5. The karaoke apparatus according to claim 2, wherein said singing person corresponding CG moving image output means is also used as said lyrics display means.
【請求項6】 前記歌唱者が行うべき基準となる歌唱者
動作の動作データ(以下、基準動作データという)を記
憶する基準動作データ記憶手段と、 その基準動作データと前記歌唱者動作データとの比較に
基づいて歌唱者動作の評価を行う歌唱者動作評価手段
と、 その評価結果を出力する歌唱者動作評価結果出力手段と
を備える請求項1ないし5のいずれかに記載のカラオケ
装置。
6. A reference operation data storage means for storing operation data (hereinafter, referred to as reference operation data) of a singer operation as a reference to be performed by the singer, and the reference operation data and the singer operation data The karaoke apparatus according to any one of claims 1 to 5, further comprising: a singer motion evaluation unit that evaluates the singer motion based on the comparison; and a singer motion evaluation result output unit that outputs the evaluation result.
【請求項7】 前記歌唱者動作データは各時刻毎の前記
動作検出マーカの位置の情報を含み、また、前記基準動
作データは、各時刻毎に前記動作検出マーカが位置すべ
き標準的な位置(以下、標準マーカ位置という)の情報
を含むものであり、 前記歌唱者動作評価手段は、各時刻毎に動作検出マーカ
位置と標準マーカ位置とが所定の位置関係を満足してい
るか否かを判別し、その判別結果に基づいてポイントの
加算及び/又は減算を行い、当該ポイント値の大小によ
って前記歌唱者動作の評価を行うものである請求項6記
載のカラオケ装置。
7. The singer motion data includes information on the position of the motion detection marker at each time, and the reference motion data includes a standard position at which the motion detection marker should be positioned at each time. (Hereinafter referred to as a standard marker position), and the singer motion evaluation means determines whether the motion detection marker position and the standard marker position satisfy a predetermined positional relationship at each time. 7. The karaoke apparatus according to claim 6, wherein the karaoke apparatus is configured to make a determination, add and / or subtract points based on a result of the determination, and evaluate the singer's movement based on the magnitude of the point value.
【請求項8】 前記動作検出手段は、 前記歌唱者を被写体として、該被写体に前記動作検出マ
ーカとしてのカラーマーカを取り付けるか、又はその被
写体の一部をカラーマーカとして定めた状態において、
その被写体の動作を撮影する1又は複数のカラーカメラ
と、 前記カラーカメラからの映像出力に基づくカラー映像信
号を、そのデコード処理を通じて各映像信号に含まれる
色情報を特定数の色グループに統合・集約することによ
り、前記カラー映像信号よりもデータ数の少ない画像デ
ータ(以下、色統合画像データという)を生成する色統
合画像データ生成手段と、 その生成された色統合画像データに対し、前記カラーマ
ーカの色として予め指定された色(以下、マーカ指定色
という)の画素のデータを抽出するマーカ指定色抽出手
段と、 その抽出されたマーカ指定色画素データに基づき、撮影
された被写体のカラーマーカ位置を演算し、その演算結
果として得られるマーカ位置データを前記被写体の動作
データとして出力するマーカ位置データ演算・出力手段
とを備える請求項1ないし7のいずれかに記載のカラオ
ケ装置。
8. The motion detection means, wherein the singer is a subject, and a color marker as the motion detection marker is attached to the subject, or a part of the subject is defined as a color marker,
One or a plurality of color cameras for photographing the movement of the subject, and a color video signal based on a video output from the color camera are integrated with color information included in each video signal into a specific number of color groups through decoding processing. A color integrated image data generating means for generating image data having a smaller number of data than the color video signal (hereinafter referred to as color integrated image data); A marker designation color extracting means for extracting pixel data of a color designated in advance as a marker color (hereinafter referred to as a marker designation color); and a color marker of a photographed subject based on the extracted marker designation color pixel data. A marker position for calculating a position and outputting marker position data obtained as a result of the calculation as motion data of the subject Karaoke apparatus according to any one of claims 1 to 7 and a chromatography data calculation and output unit.
【請求項9】 前記動作検出手段は、 前記動作検出マーカとしてのカラーマーカとして、1個
のカラーマーカの表面が、2以上の異なるマーカ色にて
着色された複数領域に区分されたものを用い、前記歌唱
者を被写体として、該被写体にそのカラーマーカを取り
付けるか、又はその被写体の一部をカラーマーカとして
定めた状態において、その被写体の動作を撮影するカラ
ーカメラと、 前記撮影された被写体の動画像の、各フレームの画像デ
ータにおいて、前記マーカ色に対応する特定の2以上の
色が混在して存在する領域をマーカ画像として特定する
マーカ画像特定手段と、 その特定されたマーカ画像を構成するマーカ画素の前記
画素平面上の位置情報に基づいて、前記マーカ画素の集
合として表されるマーカ画像の位置データを生成するマ
ーカ位置データ生成手段と、 各動画フレーム毎に生成された前記マーカ画像の位置デ
ータを、前記被写体の動作データとして出力する動作デ
ータ出力手段とを備える請求項1ないし8のいずれかに
記載のカラオケ装置。
9. The motion detecting means uses, as the color marker as the motion detection marker, a color marker whose surface is divided into a plurality of regions colored with two or more different marker colors. With the singer as a subject, either attaching a color marker to the subject or defining a part of the subject as a color marker, a color camera for photographing the motion of the subject, A marker image specifying means for specifying, as a marker image, an area in which two or more specific colors corresponding to the marker colors exist in the image data of each frame of the moving image; and forming the specified marker image. Generating position data of a marker image represented as a set of the marker pixels based on the position information of the marker pixels on the pixel plane 9. The karaoke machine according to claim 1, further comprising: marker position data generating means; and motion data output means for outputting position data of the marker image generated for each moving image frame as motion data of the subject. apparatus.
【請求項10】 各フレームの画像データに対し、予め
定められた形状及び大きさの仮想的なマスク領域を、そ
の画像データの画素平面上において移動可能に設定する
マスク領域設定手段と、 前記各画素に対し設定される複数の色のうち、1又は2
以上のものを前記マーカ色に対する判別指定色として指
定し、また、パターン条件として、判別指定色画素のマ
スク領域内における個数、判別指定色画素のマスク領域
内における位置、及び判別指定色画素が複数含まれる場
合においてはそれらの相対的な配置関係、の少なくとも
1つを含むものを予め定め、前記画素平面上に設定され
たマスク領域において各判別指定色の画素が、そのパタ
ーン条件に適合しているか否かを判別するパターン適合
判別手段と、 前記マスク領域を前記画素平面上で走査するマスク領域
走査手段と、 各走査位置のマスク領域に対応する対象画素のうち、前
記パターン条件に適合と判別された画素(以下、適合画
素という)を抽出する適合画素抽出手段とを含み、 前記マーカ位置データ生成手段は、その抽出された前記
適合画素の前記画素平面上の位置情報に基づいて前記マ
ーカ位置情報を生成するものである請求項9記載のカラ
オケ装置。
10. A mask area setting means for setting a virtual mask area of a predetermined shape and size for image data of each frame so as to be movable on a pixel plane of the image data. 1 or 2 among a plurality of colors set for the pixel
The above are designated as the discrimination designated colors for the marker color, and the number of discrimination designated color pixels in the mask area, the position of the discrimination designated color pixels in the mask area, and the plurality of discrimination designated color pixels are specified as the pattern conditions. In the case where it is included, a pixel that includes at least one of their relative arrangement relations is determined in advance, and in the mask area set on the pixel plane, the pixel of each discrimination designated color matches the pattern condition. Pattern matching determining means for determining whether or not there is a mask area; mask area scanning means for scanning the mask area on the pixel plane; and determining that the target pixel corresponding to the mask area at each scanning position matches the pattern condition. Pixel extraction means for extracting the extracted pixels (hereinafter referred to as “adapted pixels”). Wherein the karaoke device according to claim 9 and generates the marker position information based on position information on the pixel plane adaptation pixels.
JP10377230A 1998-12-29 1998-12-29 Karaoke sing-along machine Pending JP2000200088A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10377230A JP2000200088A (en) 1998-12-29 1998-12-29 Karaoke sing-along machine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10377230A JP2000200088A (en) 1998-12-29 1998-12-29 Karaoke sing-along machine

Publications (1)

Publication Number Publication Date
JP2000200088A true JP2000200088A (en) 2000-07-18

Family

ID=18508478

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10377230A Pending JP2000200088A (en) 1998-12-29 1998-12-29 Karaoke sing-along machine

Country Status (1)

Country Link
JP (1) JP2000200088A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006514366A (en) * 2003-02-11 2006-04-27 株式会社ソニー・コンピュータエンタテインメント Real-time motion capture method and apparatus
JP2006201610A (en) * 2005-01-21 2006-08-03 Olympus Corp Observing method and observation auxiliary device
JP2009521758A (en) * 2005-12-23 2009-06-04 ソニー ピクチャーズ エンターテイメント インコーポレーテッド Group tracking in motion capture
KR101276734B1 (en) 2011-10-10 2013-06-20 (주)레이딕스텍 System and method for testing flexibility of the body
JP2015097639A (en) * 2013-11-19 2015-05-28 日本コントロールシステム株式会社 Karaoke device, dance scoring method, and program
JP2018534557A (en) * 2015-10-15 2018-11-22 プラネット・インテレクチュアル・プロパティ・エンタープライゼズ・ピーティーワイ・リミテッド Device for reading IVD assays
KR20200056496A (en) * 2018-11-09 2020-05-25 주식회사 더미리 Virtual reality karaoke system and method using pose transfer artificial intelligence
WO2023157652A1 (en) * 2022-02-17 2023-08-24 ソニーグループ株式会社 Program, image processing device, and image processing method
JP7425698B2 (en) 2020-07-29 2024-01-31 株式会社第一興商 karaoke equipment

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006514366A (en) * 2003-02-11 2006-04-27 株式会社ソニー・コンピュータエンタテインメント Real-time motion capture method and apparatus
JP4723863B2 (en) * 2003-02-11 2011-07-13 株式会社ソニー・コンピュータエンタテインメント Real-time motion capture method and apparatus
JP2006201610A (en) * 2005-01-21 2006-08-03 Olympus Corp Observing method and observation auxiliary device
JP2009521758A (en) * 2005-12-23 2009-06-04 ソニー ピクチャーズ エンターテイメント インコーポレーテッド Group tracking in motion capture
KR101276734B1 (en) 2011-10-10 2013-06-20 (주)레이딕스텍 System and method for testing flexibility of the body
JP2015097639A (en) * 2013-11-19 2015-05-28 日本コントロールシステム株式会社 Karaoke device, dance scoring method, and program
JP2018534557A (en) * 2015-10-15 2018-11-22 プラネット・インテレクチュアル・プロパティ・エンタープライゼズ・ピーティーワイ・リミテッド Device for reading IVD assays
JP2022000633A (en) * 2015-10-15 2022-01-04 ルーモス・ダイアグノスティクス・アイピー・ピーティーワイ・リミテッド Device for reading IVD assay
US11300513B2 (en) 2015-10-15 2022-04-12 Lumos Diagnostics IP Pty Ltd Device for reading an IVD assay
JP7343551B2 (en) 2015-10-15 2023-09-12 ルーモス・ダイアグノスティクス・アイピー・ピーティーワイ・リミテッド Device for reading IVD assays
KR20200056496A (en) * 2018-11-09 2020-05-25 주식회사 더미리 Virtual reality karaoke system and method using pose transfer artificial intelligence
KR102234024B1 (en) 2018-11-09 2021-04-01 주식회사 더미리 Virtual reality karaoke system and method using pose transfer artificial intelligence
JP7425698B2 (en) 2020-07-29 2024-01-31 株式会社第一興商 karaoke equipment
WO2023157652A1 (en) * 2022-02-17 2023-08-24 ソニーグループ株式会社 Program, image processing device, and image processing method

Similar Documents

Publication Publication Date Title
US20170221379A1 (en) Information terminal, motion evaluating system, motion evaluating method, and recording medium
US7053915B1 (en) Method and system for enhancing virtual stage experience
US6958751B2 (en) Image processing device, image processing method and recording medium
US7202886B2 (en) Videophone terminal
JP5525923B2 (en) Image processing program, image processing apparatus, image processing system, and image processing method
US7827488B2 (en) Image tracking and substitution system and methodology for audio-visual presentations
US20160267894A1 (en) Computerized percussion instrument
US10166477B2 (en) Image processing device, image processing method, and image processing program
JPWO2017013925A1 (en) Information processing apparatus, information processing method, and program
JP2002196855A (en) Image processor, image processing method, recording medium, computer program and semiconductor device
US20040244570A1 (en) Performance instruction apparatus and performance instruction program used in the performance instruction apparatus
JP2000200088A (en) Karaoke sing-along machine
JPH11212582A (en) Karaoke device provided with choreography scoring function
JP6431259B2 (en) Karaoke device, dance scoring method, and program
JP2011243019A (en) Image display system
JPH10207347A (en) Operation comparator
US11076120B1 (en) Method and system for synchronization of controller movements
JPH10198821A (en) Image processor, image processing method, and recording medium
JP2003085571A (en) Coloring toy
JPH09311759A (en) Method and device for gesture recognition
JP3588883B2 (en) Karaoke equipment
JP2008076765A (en) Musical performance system
JP6398938B2 (en) Projection control apparatus and program
JP2004110383A (en) Image forming system, its program and information storage medium
JP5499001B2 (en) Game device and program