JP2006215497A - カラオケ端末装置 - Google Patents

カラオケ端末装置 Download PDF

Info

Publication number
JP2006215497A
JP2006215497A JP2005030976A JP2005030976A JP2006215497A JP 2006215497 A JP2006215497 A JP 2006215497A JP 2005030976 A JP2005030976 A JP 2005030976A JP 2005030976 A JP2005030976 A JP 2005030976A JP 2006215497 A JP2006215497 A JP 2006215497A
Authority
JP
Japan
Prior art keywords
image
storage area
reference image
information
cpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005030976A
Other languages
English (en)
Other versions
JP4257300B2 (ja
Inventor
Hisao Ito
久雄 伊東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nihon Brainware Co
Original Assignee
Nihon Brainware Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nihon Brainware Co filed Critical Nihon Brainware Co
Priority to JP2005030976A priority Critical patent/JP4257300B2/ja
Publication of JP2006215497A publication Critical patent/JP2006215497A/ja
Application granted granted Critical
Publication of JP4257300B2 publication Critical patent/JP4257300B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】 カラオケ端末装置において、特定の背景に限定されること無く任意の背景と合成処理をした画像を即時に提供して、歌唱者の興趣向上を図る。
【解決手段】 カラオケ端末装置1は、基準画像と合成前画像の各画素を数値化し、画素の差分から抽出対象領域を認識する抽出対象部分認識手段25と、抽出対象部分を抽出する対象部分抽出手段26と、合成処理を行う合成手段40と、合成画像と音声情報収集手段32で収集した歌唱者の音声情報とを出力する出力手段50と、を含む。
【選択図】 図1

Description

本発明は、背景に限定されずに、合成画像を動画像として、その場で出力するカラオケ端末装置に関するものである。
従来、カラオケ端末装置は、利用者の歌唱中に、歌詞と共にあらかじめ撮影された、かつ決められた画像を一定の周期で繰り返し表示するカラオケ端末装置が知られている。
また、クロマキーと呼ばれる手法を利用して、歌唱者を任意の背景と共に合成して表示するカラオケ端末装置がある。クロマキーの手法を用いれば、映像画面から特定色(青色が用いられることが多いが、グリーンを用いることもある)を抜き取って、マスク画像を作成し、そのマスク画像と任意の背景とを合成することができる。
特開2004‐334049号公報
しかしながら、上述した撮影済み背景を一定の周期で表示するカラオケ端末装置において、どのような機種であっても機能等により差別化できるものではなく、ワンパターンとなってしまう。また、長時間の利用や回数を重ねて利用した場合には、繰り返し同じ画像が表示されることになり、利用者を飽きさせることとなる。
また、前述のクロマキー手法のように利用者の歌唱中の画像と背景を合成して表示する方法も知られているが、画像の抽出にクロマキーを使用するため、背景色がクロマキーブルー等の限られた色に背景が限定されてしまう。その結果、歌唱者は、例えばクロマキーブルー一色を背景に歌唱することになり、利用者の興趣をそぐことになる。さらに、あらかじめ決められた透明領域をもったフレーム画像を撮影画像の上に合成する場合でも、撮影画像の背景がそのまま合成画像にも写されてしまうため、合成画像の品質としては低いものになる。
本発明は、上述したような課題に鑑みてなされたものであり、背景にとらわれることなく歌唱者を撮影し、任意の背景画像との合成画像を動画像として合成してその場で出力することができるカラオケ端末装置を提供することを目的とする。
そこで、撮影する背景に関係なく合成画像を出力するには、対象となる歌唱者である動体を認識し、透明領域を持つマスク画像を作成して任意の背景画像と合成する必要がある。ここで、任意の動画像において、抽出対象部分を特定する方法としては、動きベクトルを利用する方法や、動的輪郭モデルを利用するもの、輪郭の特徴点の変化を追跡するもの等が挙げられる。
動きベクトルを利用した方法は、入力画像を予め定めた大きさのブロックに分割し、現画像において似たブロックの位置との差分を「動きベクトル」として計算する。この方法では、演算量が非常に大きくなり、即時性が要求されるカラオケ装置には使用できない。またブロックの解像度を上げたとしても、ブロック単位での解像度にすぎず、画素単位の輪郭データを正確に求めることはできない。
動的輪郭モデルを利用した方法は、輪郭の形状に応じて与えられる内部エネルギーと、画像の性質に応じて与えられる画像エネルギー、及び外部から与えられる外部エネルギーの総和が最小になるように輪郭を変形させていき、エネルギーが最小のときに画像上の対象物の輪郭が抽出できる。しかし、動的輪郭モデルはエネルギーのバランスを調節するパラメータによって検出できる輪郭が変化するため、目的の輪郭を検出するためのパラメータを決定するのが非常に困難であり、また、対象物が凹型の場合にはうまく輪郭を抽出できないという問題がある。したがって、この方法も初期設定が困難で、即時性かつ対象を歌唱者のみに限定しないことが要求されるカラオケ端末装置に使用することは困難である。
以上のような課題を解決するために、本発明は、以下のようカラオケ端末装置を提供する。
(1)少なくとも伴奏音を含む伴奏情報を発生する伴奏音発生手段と、カラオケに関する情報を制御するカラオケ情報制御手段と、を有するカラオケ端末装置であって、歌唱者の音声及び前記伴奏情報を保存する音声情報保存領域と、基準画像を保存する基準画像保存領域と、合成前画像を保存する合成前画像保存領域と、抽出対象部分を保存する抽出対象部分保存領域と、前記歌唱者が選択可能な撮影済み背景画像を保存する背景画像保存領域と、を備え、前記カラオケ情報制御手段は、前記歌唱者の音声及び前記伴奏情報を収集して前記音声情報保存領域に保存する音声情報収集手段と、基準画像を収集して前記基準画像保存領域に保存する基準画像収集手段と、合成前画像を収集して前記合成前画像保存領域に保存する合成前画像収集手段と、前記基準画像保存領域に保存した基準画像及び前記合成前画像保存領域に保存した合成前画像をそれぞれの画素毎において色を数値化して比較し、差のある画素を抽出対象部分として認識する抽出対象部分認識手段と、前記抽出対象部分認識手段によって認識された抽出対象部分を抽出して前記対象部分保存領域に保存する対象部分抽出手段と、前記背景画像保存領域に保存した背景画像の上に、前記対象部分保存領域に保存した抽出画像を重ねて合成する合成手段と、前記合成手段によって合成した合成画像を前記音声情報保存部分に保存した音声情報と共に出力する出力手段と、を含むカラオケ端末装置。
(1)に記載の発明によれば、基準画像を基準画像保存領域に保存し、抽出部分認識手段は、収集した合成前画像のフレーム毎に基準画像と比較し、色に差がある部分を抽出して、マスク画像を作成し、合成手段は、利用者が任意に選択した背景画像を合成することができ、背景にとらわれない合成画像を出力することができる。
(2)前記基準画像収集手段及び前記合成前画像収集手段は、複眼カメラにより構成されている(1)に記載のカラオケ端末装置。
(3)前記基準画像収集手段は、一連の動画像を収集する際に、あらかじめ背景のいずれかに記された基準点に基づいて、複眼の各カメラの向きを調整した上で、複眼カメラの一方が前記一連の動画像の収集時間に含まれるある時点の合成前画像を収集して、前記合成前画像保存領域に保存し、他方が当該ある時点の基準画像を収集して前記基準画像保存領域に保存する、(2)に記載のカラオケ端末装置。
(2)又は(3)に記載の発明によれば、予め複眼の各カメラの向きを基準点にあわせた複眼カメラを使用して画像を収集することにより、収集した複眼画像を照合したときに色が一致しない部分が生じる。その部分が前記基準画像にない新規な部分として認識できる。初期設定することなく、また複雑な演算を行わずに歌唱者の抽出が可能になる。
(4)前記基準画像は、一連の動画像を収集する前に予め収集された画像であり、前記合成前画像は、前記一連の動画像の収集時間に含まれるある時点に収集された画像である、(1)に記載のカラオケ端末装置。
(4)の発明によれば、予め収集された前記合成前画像と前記基準画像との色調の差がある画素を抽出対象部として認識することにより、前記基準画像との差分が抽出対象部となる。その結果、複雑な演算を必要とせず、単純な比較プログラムによりマスク画像の作成を行うことができる。また、クロマキーのように背景の限定無く合成画像を出力することができ、カラオケの利用者の興趣をそぐことも無い。また、前記合成前画像と、予め収集された前記基準画像とを比較するため、抽出対象部分がほとんど変動しない場合でも、抽出対象部分を特定することができる。
(5)前記カラオケ情報制御手段は、動画像の収集時間に含まれる所定の期間の照明を制御する制御信号情報を出力し、前記基準画像収集手段は、前記一連の動画像を収集する前に予め基準画像を収集して、前記制御信号情報と共に前記基準画像保存領域に保存し、前記合成前画像収集手段は、前記所定の期間に含まれるある時点の合成前画像を収集して、前記制御信号情報と共に合成前画像保存領域に保存し、前記抽出部分認識手段は、前記基準画像と前記合成前画像とを前記制御信号情報に基づいて同期させて比較する(4)に記載のカラオケ端末装置。
(5)の発明によれば、前記基準画像を収集する際に、照明の制御情報と共に一定の時間に含まれる一連の画像として前記基準画像保存領域に保存しておくことにより、前記合成画像を収集する際に一連の基準画像とフレーム単位で時間軸を合わせ、同一の時間軸にあるフレームとを比較して動体を認識することにより、照明の変化にも対応した合成画像を提供することができる。
(6)前記基準画像は、前記一連の動画像の収集時間に含まれるある時点の1フレーム前に収集された画像であり、前記合成前画像は、前記ある時点に収集された画像である、(1)に記載のカラオケ端末装置。
(6)の発明によれば、前記基準画像は、ある時点における前記合成前画像の1フレーム前となるため、カラオケ部屋の環境が大きく変化する場合でも、抽出対象部分を特定することができる。
(7)前記抽出対象部分認識手段は、前記抽出対象部分の認識において、前記抽出対象部分の輪郭を捉えてその動きを追跡し、前記対象部分抽出手段は、前記輪郭に囲まれた画素を抽出対象部分として抽出する、(1)から(6)のいずれかに記載のカラオケ端末装置。
(7)の発明によれば輪郭データのみに基づいて、前記抽出対象部分を認識することにより、より演算量を減少させ、装置の負担を軽くすることができる。その結果、簡便に合成画像を出力できる。
(8)少なくとも伴奏音を含む伴奏情報を発生する伴奏音発生手段と、カラオケに関する情報を制御するカラオケ情報制御手段と、を有するカラオケ端末装置であって、歌唱者の音声及び前記伴奏情報を保存する音声情報保存領域と、前記歌唱者が選択可能な撮影済み背景画像を保存する背景画像保存領域と、を備え、前記カラオケ情報制御手段は、前記歌唱者の音声及び前記伴奏情報を収集して前記音声情報保存領域に保存する音声情報収集手段と、一連の動画像を収集して前記合成前画像保存領域に保存する画像収集手段と、前記一連の動画像の上に前記背景画像保存領域に保存した背景画像を重ねて合成する合成手段と、前記合成手段によって合成した合成画像を前記音声情報保存部分に保存した音声情報と共に出力する出力手段と、を含み、
前記背景画像は、あらかじめ前記抽出画像の上から重ねて合成するための透明部分が設定されており、透明部分のエッジの透明度は除々に変化する、カラオケ端末装置。
(8)に記載の発明によれば、前記背景画像に予め透明部分を設定しておくことにより、合成処理の演算量を低減させつつエッジの部分をぼかして合成し、より簡便に品質の高い合成処理を行うことができる。
(9)前記合成前画像は、画像の出力に必要な出力対象画素領域の周囲にブレ補償領域に相当する画素を含み、前記抽出部分認識手段は、前記ある時点において、前記合成前画像保存領域に保存した合成前画像について、画素毎に色を数値化した後に、前記基準画像保存領域に保存した基準画像を上下左右に1画素毎にシフトをして比較し、前記出力対象画素領域全体の各画素毎の前記色の数値の差分の総和が最も小さくなる場合の、前記シフトの量だけ前記合成前画像をシフトして、前記合成前画像保存領域に保存する(1)から(7)のいずれかに記載のカラオケ端末装置。
(9)に記載の発明によれば、出力対象領域の周りにブレ補償領域に相当する画素を合成前画像に含めて撮影しておくことにより、振動等によるブレがあった場合にその分画像をシフトさせて合成前画像として保存することができる。その結果、ブレの影響を受けることなく、合成処理を行い、より品質の高い画像を提供することができる。
(10)前記カラオケ端末装置は、ネットワーク上のサーバと通信可能であり、前記出力手段は、歌唱者の操作に基づいて合成画像データを前記サーバに送信する(1)から(9)のいずれかに記載のカラオケ端末装置。
(10)に記載の発明によれば、ネットワーク上のサーバに合成画像データを送信することにより、カラオケ部屋という枠に限られること無く、実際に歌唱した結果である歌唱情報を合成画像と共に外部に公開することができ、多くの人に聞いてもらう機会を提供し、歌唱者の意欲を触発することができる。これにより、歌唱者の興趣向上を図ることができる。
この発明によれば、カラオケ端末装置において、特定の背景に限定されること無く任意の背景と合成処理をした画像を即時に提供することができ、歌唱者の興趣向上を図る事ができる。
[カラオケ端末装置の構成]
以下に、本発明の好適な実施形態を図面に基づいて説明する。
カラオケ端末装置は、図1のブロック図に示すように、伴奏音発生手段10と、カラオケ情報制御手段20から構成される。
伴奏音発生手段10は既存の伴奏情報が歌唱者に選択された結果に応じて、伴奏情報に含まれる画像を表示部に表示し、伴奏情報に含まれる伴奏音を発生させる機能を有する。既存の伴奏情報には、伴奏音が含まれている。尚、伴奏情報には少なくとも伴奏音を含むものであればよい。
カラオケ情報制御手段20は、図1に示すように、合成前画像収集手段21、基準画像収集手段22、抽出対象部分認識手段25、対象部分抽出手段26、合成手段40、出力手段50、音声情報収集手段32を少なくとも含む。このカラオケ情報制御手段20は、収集した一連の動画像の一部分を抽出し、事前に選択された背景と合成して出力する。
図1に示される合成前画像収集手段21は、合成前画像を収集するためのものである。合成前画像収集手段21は、ビデオカメラ232Aで構成されるが、カメラの台数は1台とは限定されない。そして収集した合成画像を合成前画像保存領域に保存する。
図1に示される基準画像収集手段22は、基準画像を収集するものである。基準画像収集手段22はビデオカメラ232Aで構成されるが、上記合成前画像収集手段21を構成するビデオカメラ232Aを兼用してもよい。兼用する場合は、合成前画像を収集する前に、基準画像を収集しておく必要がある。そして、収集した基準画像を、基準画像保存領域に保存する。
図1に示される抽出対象部分認識手段25は、合成処理を行う際に、合成前画像から週出すべき抽出対象部分を認識する。抽出対象部分の認識については、後の図9から図14において説明するように1つの方法に限定されない。
図1に示される対象部分抽出手段26は、抽出対象部分認識手段25において認識した抽出対象部分を、合成前画像から抽出して、マスク画像を作成し、背景画像と合成するために、対象部分抽出領域に保存する。
図1に示される合成手段40は、対象部分保存領域27に保存したマスク画像を予め選択された背景画像と合成する。
図1に示される出力手段50は、合成手段40において作成された音声情報と合成画像を出力する。出力場所は、表示部210を構成するディスプレイやミキシングアンプ218に出力してもよく、また、ネットワーク上のサーバに送信してもよい。
[カラオケ端末装置の電気的構成]
カラオケ端末装置の電気的構成を図2によって、説明する。
図2に示すように、カラオケ端末装置20においては、データBUSに、制御部であるCPU202、メモリ204、通信インターフェイス(以降、通信I/F206と称する。)、RAID(Redundant Arrays of Inexpensive Disks)等で構成された記憶部208、液晶表示パネルやCRT等で構成された表示部210、リモコンやキーボード等からなる操作部212、音声データから音声を発生させるためのシンセサイザ216、音声を編集し、増幅させるためのミキシングアンプ218、画像及び音声を編集するためのAVデータ処理部220が接続されている。
また、制御手段としてのミキシングアンプ218には、歌唱者の発する音声を収集するマイク、音声を発生するスピーカ214等が接続されている。この歌唱者とは、カラオケの伴奏情報に対して歌唱する者を示す。また、利用者とは、カラオケの伴奏情報に対する歌唱者のみならず、歌唱をしていなくても、カラオケ部屋においてカラオケ端末装置を利用する者を示す。
ミキシングアンプ218は、CPU202から供給されるコマンドに応じて、接続されているマイク、スピーカ214の制御を行う機能を有する。ミキシングアンプ218は、CPU202から供給されるコマンドに応じて、マイクから入力された歌唱者の音声を収集する機能を有する。ミキシングアンプ218は、CPU202から供給されるコマンドに応じて、集音マイクから入力された利用者の音声を収集する機能を有する。ミキシングアンプ218は、CPU202から供給されるコマンドに応じて、収集された音声をスピーカ214から発生させる機能を有する。ミキシングアンプ218は、CPU202から供給されるコマンドに応じて、収集された音声をAVデータ処理部220に供給する機能を有する。このため、CPU202は、ミキシングアンプ218に対して、各種のコマンドを送信することにより、各種の機能を実行させることとなる。
また、制御手段としてのAVデータ処理部220には、ビデオカメラ232A、232B、…等が接続されている。歌唱者の動画像を撮影するビデオカメラ232Aは1台に限定されない。
AVデータ処理部220は、CPU202から供給されるコマンドに応じて、ビデオカメラ232A、232B、…から供給される利用者の画像及び歌唱者の画像を収集する機能を有する。AVデータ処理部220は、CPU202から供給されるコマンドに応じて、ミキシングアンプ218から供給される音声を記憶する機能を有する。AVデータ処理部220は、CPU202から供給されるコマンドに応じて、収集した画像及び供給された音声を編集する機能、予め記憶されている特殊合成画像を用いて、画像を編集する機能を有する。また、AVデータ処理部220は、収集手段の一部に相当する。更には、AVデータ処理部220は、収集された画像情報を編集する編集手段の一部に相当する。このため、CPU202は、AVデータ処理部220に対して、各種のコマンドを送信することにより、各種の機能を実行させることとなる。
CPU202は、記憶部208に記憶されたプログラムに従って、各種の処理を実行する機能を有する。また、CPU202は、記憶部208に保存されたプログラムを読み出して実行することにより、上記ハードウェアと協働して後述する各種の手段を実現している。
また、記憶部208には、伴奏音及び画像を含む伴奏情報、CPU202によりカラオケ情報制御サーバの動作を制御するためのプログラム等が記憶されている。伴奏情報とは、カラオケの伴奏音とその伴奏音に対して同期して表示部210に表示される画像を含むものであり、選曲番号を含む選曲情報と対応付けられている。具体的なプログラムについては後述する。
尚、本実施形態においては、プログラム等を記憶する媒体として記憶部208を用いるように構成したが、本発明はこれに限らず、コンピュータにより読み取り可能な記憶媒体であれば別態様であってもよく、例えば、ROM、CD−ROM及びDVD等の記憶媒体に記録されていてもよい。また、これらのプログラムは、予め記録されているものでなくとも、電源投入後にメモリ204等に記録されるものでもよい。更にまた、プログラムの各々が別々の記憶媒体に記録されていてもよい。
メモリ204は、CPU202の一時記憶領域として種々のフラグや変数の値を記憶する機能を有する。メモリ204に記憶されるデータの具体例としては、以下のようなものがある。
伴奏発生中であるか否かを判定するための伴奏中フラグ、選曲した曲情報を示す選曲情報、歌唱者の画像及び音声を収集するか否かを判定するための歌唱記憶フラグ、カラオケ端末装置の稼動状態に異常があるか否かを判定するための稼動フラグ等がメモリ204に記憶されている。また、選曲情報は、実行中である選曲情報と実行待機中である選曲情報とを含む。
尚、本実施形態においては、CPU202の一時記憶領域としてメモリ204を用いているが、本発明はこれに限らず、読み書き可能な記憶媒体であればよい。
図3に示されるカラオケ端末装置20の正面には、表示部210が備えられている。この表示部210は、複数の表示領域210a、210b、210c、210d、を有している。メイン表示領域である表示領域210aには、後述するように、選択された画像が表示される。表示領域210b、表示領域210cには、伴奏情報に含まれる画像が表示される。表示領域210dには、歌唱者の画像が表示される。この歌唱者の画像は、カラオケの伴奏情報に対する歌唱者の画像であり、後述する歌唱情報に含まれている。また、この歌唱情報は、歌唱者の画像及び音声、伴奏情報を含むものである。
尚、本実施形態においては、表示部210を1つの表示装置として構成したが、本発明はこれに限らず、複数の表示装置として構成してもよい。
表示部210の下方には、カラオケ演奏装置102と、画像合成装置104と、が備えられている。
画像合成装置104は、特殊合成画像を生成する機能、集音マイクから周辺の音声を収集する機能、を有する。画像合成装置104は、収集手段の一部に相当する。また、画像合成装置104は、収集された歌唱情報を編集する編集手段の一部に相当する。
画像合成装置104の側方には、メイン画面切換スイッチ106が備えられている。このメイン画面切換スイッチ106は、メイン表示領域である表示領域210aに表示させる画面を操作に応じて切り換える機能を有する。
また、このカラオケ端末装置20には、リモコン108、無線キーボード110が備えられている。リモコン108、無線キーボード110の操作に応じて、各種の機能が実行される。リモコン108、無線キーボード110は、後述する操作部212(図3参照)の一部に相当する。
尚、本実施形態においては、カラオケ演奏装置102と、画像合成装置104と、を備える構成としたが、本発明はこれに限らず、カラオケ演奏装置102と、画像合成装置104等の各種の装置を省略してもよく、この場合には、それらの有している機能を他の装置に備える構成とすることが好適である。もちろん、このカラオケ演奏装置102は、一体であっても別体であってもよい。
[カラオケ情報制御手段の動作]
上述したように構成されたカラオケ情報制御手段20の動作について図4を用いて説明する。
図4に示すように、ステップS11においては、選曲処理を実行する。この処理において、CPU202は、各種の入力操作等に応じて、選曲に応じた伴奏を発生させるべく、伴奏を発生するための選曲情報の処理を行う。詳しくは、図5を用いて後述する。この処理が終了した場合には、ステップS12に処理を移す。
ステップS12において、CPU202は、合成モード選択処理を実行する。この処理において、CPU202は、合成処理を行うか否かの判別を行い、合成処理を行うと判別した場合は、基準画像を収集し、基準画像保存領域に保存する。さらに、利用者が選択した背景画像データを背景画像保存領域28に渡す。詳しくは、図6を用いて後述する。この処理が終了した場合には、ステップS13に処理を移す。
ステップS13において、CPU202は伴奏発生処理を実行する。この処理において、CPU202は、伴奏データをAVデータ処理部220に渡す。AVデータ処理部は、受け取った伴奏データに基づいて、スピーカ214を通じて伴奏を発生する。この処理が終了した場合には、ステップS14に処理を移す。
ステップS14において、CPU202は、撮影開始処理を実行する。この処理において、CPU202は、ステップS12で基準画像を収集済みである場合は、合成前画像を収集して合成前画像保存領域23に保存する。また、ステップS13において、基準画像を収集していない場合は、基準画像及び合成前画像を収集する。詳しくは図7から図8で後述する。この処理が終了した場合には、ステップS15に処理を移す。
ステップS15において、CPU202は、抽出対象部分認識処理を行う。この処理において、CPU202は、合成前画像保存領域23から合成前画像を読み出し、背景画像保存領域28に保存された背景に合成する部分を抽出する。この、抽出対象部分認識処理は、いくつかのバリエーションがあり、詳しくは、後述の図9から図14において後述する。この処理が終了した場合には、ステップS16に処理を移す。
ステップS16において、CPU202は、対象部分抽出処理を行う。この処理において、CPU202は、ステップS15の抽出対象部分認識処理において抽出された抽出対象部分を合成前画像から抽出する処理を行う。CPU202は、抽出対象部分についてのマスク画像を作成し、合成前画像と重ね合わせ、抽出対象部分のみを合成前画像から抜き出す。そしてCPU202は、合成前画像から抜き出した抽出対象部分を対象部分保存領域27に保存する。この処理が終了した場合には、ステップS17に処理を移す。
ステップS17において、CPU202は、合成処理を行う。この処理において、CPU202は、対象部分保存領域27から抽出画像を読み込み、かつ背景画像保存領域28から、事前に選択済みの背景画像と重ねあわせて合成画像を作成する。この処理が終了した場合には、ステップS18に処理を移す。
ステップS18において、CPU202は、出力処理を行う。この処理において、CPU202は、音声情報保存領域34に保存された音声情報と合成画像を同期させて、合成画像を表示部210に、音声情報をAVデータ処理装置に渡す。すなわち、表示部210に合成画像を表示するためのデータを供給し、ミキシングアンプ218に音声情報を供給する。また、図6のステップS62で合成処理を行わないと選択した場合には、CPU202は、合成処理を行わない伴奏用デモ画面のデータを供給する。これにより、表示部210は合成画像又は伴奏用デモ画面を表示し、スピーカ214は音声情報を再生することとなる。この処理が終了した場合には、ステップS19に処理を移す。
ステップS19において、CPU202は、伴奏が終了するか否かを判断する。この処理において、CPU202は、伴奏終了と判断した場合には、ステップS20に処理を移す。また、伴奏終了で無いと判断した場合には、ステップS14に処理を移す。すなわち、CPU202は、撮影開始処理から始まる画像合成処理を繰り返すことになる。
ステップS20において、CPU202は、伴奏終了処理を行う。この処理において、CPU202は、AVデータ処理部に伴奏データを渡すのを終了する。これにより、スピーカ214は音声情報の再生を終了する。また、CPU202は、音声情報の収集も終了する。この処理が終了した場合には、ステップS21に処理を移す。
ステップS21において、CPU202は、撮影終了処理を行う。この処理において、CPU202は、合成前画像及び基準画像の収集を終了する。また、CPU202は、合成画像を表示するためのデータを供給するのを終了する。この処理が終了した場合には、ステップS11に処理を移す。すなわち、伴奏発生準備に戻り、これまでの処理を繰り返すことになる。
[選曲処理]
図4のステップS11において実行されるサブルーチンについて、図5を用いて説明する。
ステップS31においては、曲番号の入力操作の有無を判別する。この処理において、CPU202は、リモコン108、無線キーボード110等の操作部212の操作に応じて、曲番号入力操作があったか否かを判断することとなる。CPU202は、曲番号入力操作があったと判別した場合には、ステップS32に処理を移す。一方、CPU202は、曲番号入力操作があったとは判別しなかった場合には、ステップS33に処理を移す。
ステップS31の処理により曲番号入力操作があったと判別された場合には、選曲情報記憶処理を実行する(ステップS32)。この処理において、CPU202は、入力操作に応じた選曲情報を実行待機中の選曲情報として記憶する。この処理が終了した場合には、ステップS33に処理を移す。
ステップS33においては、伴奏中であるか否かの判断を行う。この処理において、CPU202は、伴奏発生手段が伴奏を発生させているか否かにより、伴奏中であるか否かを判断する。CPU202は、伴奏中であると判別した場合には、本サブルーチンを終了する。一方、CPU202は、伴奏中であるとは判別しなかった場合には、ステップS34に処理を移す。
ステップS33の処理により伴奏終了中であると判別された場合には、選曲情報があるか否かの判断を行う(ステップS34)。この処理において、CPU202は、実行待機中である選曲情報を読み出し、実行待機中である選曲情報が全て空情報であるか否かを判定することにより、選曲情報があるか否かを判断することとなる。CPU202は、選曲情報があると判別した場合には、本サブルーチンを終了する。一方、CPU202は、選曲情報があるとは判別しなかった場合には、ステップS35に処理を移す。
ステップS34の処理により選曲情報がないと判別された場合には、選曲情報に基づく選曲処理を実行する(ステップS35)。この処理において、CPU202は、実行順序に従って、実行待機中である選曲情報の一つを実行中である選曲情報として記憶する。この処理が終了した場合には、本サブルーチンを終了する。
[合成モード選択処理]
図4のステップS12において実行されるサブルーチンについて、図6を用いて説明する。
ステップS61において、CPU202は、合成モード選択画面表示処理を行う。この処理において、CPU202は、表示部210に、利用者に合成モードを選択させる画面のデータを供給する。この処理が終了した場合には、ステップS62に処理を移す。
ステップS62において、CPU202は、合成処理を行うか否かを判別する。この処理において、CPU202は、ステップS61でリモコン108や無線キーボード110から入力されたデータにより、合成処理を行うか否かを判別する。CPU202は、合成処理を行うと判別した場合には、ステップS63に処理を移す。また、合成処理を行わないと判別した場合には、本サブルーチンを終了する。
ステップS63において、CPU202は、基準画像を事前に撮影するか否かを判別する。この処理において、CPU202は、ビデオカメラ232A、232Bの構成情報や、後に行う抽出対象部分認識処理において、どのようなバリエーションを選択したかにより、基準画像を事前に撮影するか否かを判別する。基準画像を事前に撮影すると判別した場合には、ステップS64にその処理を移す。また、基準画像を事前に撮影すると判別しなかった場合には、本サブルーチンを終了する。
ステップS64において、CPU202は、基準画像収集処理を行う。この処理において、CPU202は基準画像収集手段22により、基準画像を収集する。この処理が終了した場合には、ステップS65に処理を移す。
ステップS65において、CPU202は、基準画像保存処理を行う。この処理において、CPU202は、ステップS64で収集した基準画像を、基準画像保存領域24に保存する。この処理が終了した場合には、ステップS66に処理を移す。
ステップS66において、CPU202は、背景画像指定処理を行う。この処理において、CPU202は、任意の背景画像を記憶部208から読み出す。この背景画像は、利用者により、選択できてもよい。
ステップS67において、CPU202は、基準画像をセットする。この処理においてCPU202は、基準画像保存領域24に保存した基準画像をメモリ204に読み込む。この処理が終了した場合には、ステップS68に処理を移す。
ステップS68において、CPU202は、基準画像セットフラグを有効の値として保存する。この処理が終了した場合には、本サブルーチンは終了する。
[撮影開始処理]
図4のステップS14において実行されるサブルーチンについて、図7から図8を用いて説明する。撮影開始処理については、いくつかのバリエーションがあり、状況に応じてカラオケ端末装置の構成にふさわしい処理を選択できる。
[撮影開始処理(背景差分)]
図7のステップS71において、CPU202は、基準画像セットフラグが有効であるか否かの判断を行う。この処理において、CPU202は、基準画像セットフラグを読み出し、有効であるか否かを判断する。CPU202は、基準画像セットフラグが有効であると判別した場合には、ステップS72に処理を移す。一方、CPU202は、基準画像フラグが有効であると判別しなかった場合には、図4のステップS12に処理を移す。
ステップS72において、CPU202は、合成前画像収集処理を行う。この処理において、CPU202は合成前画像収集手段21により、合成前画像を収集する。この処理が終了した場合には、ステップS73に処理を移す。
ステップS73において、CPU202は、合成前画像保存処理を行う。この処理において、CPU202は、ステップS72で収集した合成前画像を、合成前画像保存領域23に保存する。この処理が終了した場合には、本サブルーチンを終了する。また、背景差分を使用するときとなっているが、これは、事前に基準画像を収集し、保存する必要のある他の方法に使用してもよい。
[撮影開始処理(フレーム間差分)]
図8のステップS81において、CPU202は、基準画像収集処理を行う。この処理において、CPU202は基準画像収集手段22により、基準画像を収集する。この処理が終了した場合には、ステップS82に処理を移す。
ステップS82において、CPU202は、基準画像保存処理を行う。この処理において、CPU202は、ステップS81で収集した基準画像を、基準画像保存領域24に保存する。この処理が終了した場合には、ステップS83に処理を移す。
ステップS83において、CPU202は、合成前画像収集処理を行う。この処理において、CPU202は合成前画像収集手段21により、合成前画像を収集する。この処理が終了した場合には、ステップS84に処理を移す。
ステップS84において、CPU202は、合成前画像保存処理を行う。この処理において、CPU202は、ステップS83で収集した合成前画像を、合成前画像保存領域23に保存する。この処理が終了した場合には、本サブルーチンを終了する。また、フレーム間差分を使用するときとなっているが、これは、事前に基準画像を収集する必要が無く、基準画像と同時に収集し、保存する他の方法に使用してもよい。
[抽出対象部分認識処理]
図4のステップS15において実行されるサブルーチンについて、図9から図14を用いて説明する。抽出対象部分認識処理については、いくつかのバリエーションがあり、状況に応じてカラオケ端末装置の構成にふさわしい処理を選択できる。
[抽出対象部分認識処理1]
図9を用いて、抽出対象部分認識処理のバリエーションの1つ目を説明する。
ステップS111において、CPU202は、基準画像保存領域24から基準画像を読み出し、各画素の数値化を行う。そして、CPU202は、基準画像数値を記憶する。この処理が終了した場合には、ステップS112に処理を移す。
ステップS112において、CPU202は、合成前画像保存領域23から合成前画像を読み出し、各画素の数値化を行う。そして、CPU202は、合成前画像数値を記憶する。この処理が終了した場合には、ステップS113に処理を移す。
ステップS113において、CPU202は、差分処理を行う。この処理において、CPU202は、ステップS112で求めた合成前画像数値から、ステップS111で求めた基準画像数値の差分を計算する。この処理が終了した場合には、ステップS114に処理を移す。
ステップS114において、CPU202は、差分値の保存処理を行う。この処理において、CPU202は、ステップS113で求めた差分値を記憶する。この処理が終了した場合には、本サブルーチンを終了する。
上述のステップS111からステップS114までの処理により、基準画像と合成前画像との差分のある部分を抽出対象部分として認識する。
[抽出対象部分認識処理2]
図10を用いて、抽出対象部分認識処理のバリエーションの2つ目を説明する。この抽出対象部分認識処理の2つ目については、CPU202は特に、複眼カメラにより動画像を収集する場合に、選択する。また、この処理を選択する場合には、複眼カメラの一方のカメラから収集する画像を基準画像として保存するため、基準画像を予め収集し、保存する必要はない。
また、複眼カメラを使用する場合は、複眼カメラのいずれか一方のカメラ241aを撮影対象243に焦点を合わせてセットする(図11)。その際マーク245が、必ず画面のいずれかに撮影されるようにする必要がある(画像257)。また、他方のカメラ241bは、カメラ241aの左右どちらかに設置し、その際、マーク245の位置が、カメラ241aで撮影したときと同じ位置に来るように焦点をあわせる(画像259)。これにより、カメラ241aで撮影した画像257とカメラ241bで撮影した画像259の背景が、画像257と画像259を重ね合わせたとき一致するようになる。その一方で撮影対象243のみが、画像257と画像259を重ね合わせたときにずれて表示される。
ステップS121において、CPU202は、基準画像数値情報保存処理を行う。この処理において、CPU202は、ステップS121において取得した基準画像の各画素の数値化を行う。そして、CPU202は、基準画像数値を記憶する。この処理が終了した場合には、ステップS122に処理を移す。
ステップS122において、CPU202は、合成前画像の数値情報保存処理を行う。この処理において、CPU202は、合成前画像の各画素の数値化を行う。そして、CPU202は、合成前画像数値として記憶する。この処理が終了した場合には、ステップS123に処理を移す。
ステップS123において、CPU202は、差分処理を行う。この処理において、CPU202は、ステップS122で求めた合成前画像数値から、ステップS123で求めた基準画像数値の差分を計算する。この処理が終了した場合には、ステップS124に処理を移す。
ステップS124において、CPU202は、シフト値補正処理を行う。この処理において、CPU202は、予め複眼カメラ241a、241bの視差をシフト値として記憶しており、そのシフト値を用いてステップS123で求めた画素の差分値に対し、視差を補正する。この処理を行うことにより、視差のずれのない抽出対処領域を認識できる。この処理が終了した場合には、ステップS125に処理を移す。
ステップS125において、CPU202は、補正済み差分値保存処理を行う。この処理において、CPU202は、ステップS123で求めた補正済み差分値を記憶する。この処理が終了した場合には、本サブルーチンを終了する。
[抽出対象部分認識処理3]
図12を用いて、抽出対象部分認識処理のバリエーションの3つ目を説明する。
ステップS131において、CPU202は、基準画像保存領域24から基準画像を読み出し、各画素の数値化を行う。そして、CPU202は、基準画像数値を記憶する。この処理が終了した場合には、ステップS132に処理を移す。
ステップS132において、CPU202は、合成前画像の数値情報保存処理を行う。この処理において、CPU202は、合成前画像の各画素の数値化を行う。そして、CPU202は、合成前画像数値を記憶する。この処理が終了した場合には、ステップS133に処理を移す。
ステップS133において、CPU202は、差分処理を行う。この処理において、CPU202は、ステップS132で求めた合成前画像数値から、ステップS131で求めた基準画像数値の差分を計算する。この処理が終了した場合には、ステップS134に処理を移す。
ステップS134において、CPU202は、差分値の保存処理を行う。この処理において、CPU202は、ステップS133で求めた差分値を記憶する。この処理が終了した場合には、ステップS135に処理を移す。
ステップS135において、CPU202は、二値化処理を行う。この処理において、CPU202は、ステップS134で保存した差分値について、予め設定したしきい値を使用して二値化処理を行う。この処理が終了した場合には、ステップS136に処理を移す。
ステップS136において、CPU202は、細線化処理を行う。この処理において、CPU202は、ステップS135で二値化処理をした画像の画素値の0と1の境界線を認識し、細線化処理を行う。そして、CPU202は、細線化処理の結果、抽出対象部分の輪郭を抽出する。この処理が終了した場合には、本サブルーチンを終了する。
[抽出対象部分認識処理4]
図13を用いて、抽出対象部分認識処理のバリエーションの4つ目を説明する。
ステップS141において、CPU202は、基準画像保存領域24から制御信号情報を読み出す。そして、CPU202は、制御信号情報と基準画像と同期する。
ステップS142において、CPU202は、基準画像の数値情報保存処理を行う。この処理において、CPU202は、基準画像画像保存領域23から、基準画像を読み出し、基準画像の各画素の数値化を行う。そして、CPU202は、基準画像数値を記憶する。この処理が終了した場合には、ステップS143に処理を移す
ステップS143において、CPU202は、合成前画像の数値情報保存処理を行う。この処理において、CPU202は、合成前画像保存領域23から、合成前画像を読み出し、合成前画像の各画素の数値化を行う。そして、CPU202は、合成前画像数値を記憶する。この処理が終了した場合には、ステップS144に処理を移す。
ステップS144において、CPU202は、差分処理を行う。この処理において、CPU202は、ステップS143で求めた合成前画像数値から、ステップS142で求めた基準画像数値の差分を計算する。この処理が終了した場合には、ステップS145に処理を移す。
ステップS145において、CPU202は、差分値の保存処理を行う。この処理において、CPU202は、ステップS144で求めた差分値を記憶する。この処理が終了した場合には、本サブルーチンを終了する。
[抽出対象部分認識処理5]
図14を用いて、抽出対象部分認識処理のバリエーションの4つ目を説明する。
ステップS151において、CPU202は、合成前画像の数値情報保存処理を行う。この処理において、CPU202は、合成前画像保存領域23から、合成前画像を読み出し、合成前画像の各画素の数値化を行う。そして、CPU202は、合成前画像数値を記憶する。この処理が終了した場合には、ステップS152に処理を移す。
ステップS152において、CPU202は、基準画像のシフト比較処理を行う。この処理において、CPU202は、基準画像保存領域24から基準画像を読みこみ、その基準画像をブレ補償領域について上下左右に1画素づつシフトさせる。その際、基準画像の各画素を数値化しておき、基準画像と、出力対象領域全体との画素の差の総和が最も小さくなる場所を計算する。そして、画素の差の総和が最小になる場所と元の基準画像との距離と向きを求め、その値をシフト値としてCPU202は記憶する。この処理が終了した場合には、ステップS153に処理を移す。
ステップS153において、CPU202は、合成前画像のシフト処理を行う。この処理において、CPU202は、ステップS152において求めたシフト値を使用して、合成前画像の位置を補正する。この処理が終了した場合には、ステップS154に処理を移す。
ステップS154において、CPU203は、シフト値により位置を補正した合成前画像を合成前画像保存領域に保存する。この処理が終了した場合には、本サブルーチンを終了する。
尚、この5つ目の抽出対象部分認識処理は、この処理を行ったあと、さらに他の抽出対象部分認識処理を行ってもよい。
以上、本発明の実施形態を説明したが、具体例を例示したに過ぎず、特に本発明を限定しない。また、本発明の実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施形態に記載された効果に限定されない。
本発明の実施例である、カラオケ端末装置の構成を示すブロック図である。 本発明の実施例である、カラオケ端末装置のハードウェア構成を示す図である。 本発明の実施例である、カラオケ端末装置の表示部210の画面イメージである。 本発明の実施例である、カラオケ端末装置が実行する動作を示すフローチャート図である。 本発明の実施例である、カラオケ端末装置が実行する動作を示すフローチャート図である。 本発明の実施例である、カラオケ端末装置が実行する動作を示すフローチャート図である。 本発明の実施例である、カラオケ端末装置が実行する動作を示すフローチャート図である。 本発明の実施例である、カラオケ端末装置が実行する動作を示すフローチャート図である。 本発明の実施例である、カラオケ端末装置が実行する動作を示すフローチャート図である。 本発明の実施例である、カラオケ端末装置が実行する動作を示すフローチャート図である。 本発明の実施例である、カラオケ端末装置が複眼カメラで動画を収集するときの概念図である。 本発明の実施例である、カラオケ端末装置が実行する動作を示すフローチャート図である。 本発明の実施例であるカラオケ端末装置が実行する動作を示すフローチャート図である。 本発明の実施例である、カラオケ端末装置が実行する動作を示すフローチャート図である。
符号の説明
1 カラオケ端末装置
10 伴奏音発生手段
20 カラオケ情報制御手段
21 合成前画像収集手段
22 基準画像収集手段
25 抽出対象部分認識手段
26 対象部分抽出手段
32 音声情報収集手段
40 合成手段
50 出力手段

Claims (10)

  1. 少なくとも伴奏音を含む伴奏情報を発生する伴奏音発生手段と、
    カラオケに関する情報を制御するカラオケ情報制御手段と、を有するカラオケ端末装置であって、
    歌唱者の音声及び前記伴奏情報を保存する音声情報保存領域と、
    基準画像を保存する基準画像保存領域と、
    合成前画像を保存する合成前画像保存領域と、
    抽出対象部分を保存する抽出対象部分保存領域と、
    前記歌唱者が選択可能な撮影済み背景画像を保存する背景画像保存領域と、を備え、
    前記カラオケ情報制御手段は、
    前記歌唱者の音声及び前記伴奏情報を収集して前記音声情報保存領域に保存する音声情報収集手段と、
    基準画像を収集して前記基準画像保存領域に保存する基準画像収集手段と、
    合成前画像を収集して前記合成前画像保存領域に保存する合成前画像収集手段と、
    前記基準画像保存領域に保存した基準画像及び前記合成前画像保存領域に保存した合成前画像をそれぞれの画素毎において色を数値化して比較し、差のある画素を抽出対象部分として認識する抽出対象部分認識手段と、
    前記抽出対象部分認識手段によって認識された抽出対象部分を抽出して前記対象部分保存領域に保存する対象部分抽出手段と、
    前記背景画像保存領域に保存した背景画像の上に、前記対象部分保存領域に保存した抽出画像を重ねて合成する合成手段と、
    前記合成手段によって合成した合成画像を前記音声情報保存部分に保存した音声情報と共に出力する出力手段と、を備えるカラオケ端末装置。
  2. 前記基準画像収集手段及び前記合成前画像収集手段は、複眼カメラにより構成されている請求項1に記載のカラオケ端末装置。
  3. 前記基準画像収集手段は、一連の動画像を収集する際に、あらかじめ背景のいずれかに記された基準点に基づいて、複眼の各カメラの向きを調整した上で、複眼カメラの一方が前記一連の動画像の収集時間に含まれるある時点の合成前画像を収集して、前記合成前画像保存領域に保存し、他方が当該ある時点の基準画像を収集して前記基準画像保存領域に保存する、請求項2に記載のカラオケ端末装置。
  4. 前記基準画像は、一連の動画像を収集する前に予め収集された画像であり、
    前記合成前画像は、前記一連の動画像の収集時間に含まれるある時点に収集された画像である、請求項1に記載のカラオケ端末装置。
  5. 前記カラオケ情報制御部は、動画像の収集時間に含まれる所定の期間の照明を制御する制御信号情報を出力し、
    前記基準画像収集手段は、前記一連の動画像を収集する前に予め基準画像を収集して、前記制御信号情報と共に前記基準画像保存領域に保存し、
    前記合成前画像収集手段は、前記所定の期間に含まれるある時点の合成前画像を収集して、前記制御信号情報と共に合成前画像保存領域に保存し、
    前記抽出部分認識手段は、前記基準画像と前記合成前画像とを前記制御信号情報に基づいて同期させて比較する請求項4に記載のカラオケ端末装置。
  6. 前記基準画像は、前記一連の動画像の収集時間に含まれるある時点の1フレーム前に収集された画像であり、
    前記合成前画像は、前記ある時点に収集された画像である、請求項1に記載のカラオケ端末装置。
  7. 前記抽出対象部分認識手段は、前記抽出対象部分の認識において、前記抽出対象部分の輪郭を捉えてその動きを追跡し、
    前記対象部分抽出手段は、前記輪郭に囲まれた画素を抽出対象部分として抽出する、請求項1から6のいずれかに記載のカラオケ端末装置。
  8. 少なくとも伴奏音を含む伴奏情報を発生する伴奏音発生手段と、
    カラオケに関する情報を制御するカラオケ情報制御手段と、を有するカラオケ端末装置であって、
    歌唱者の音声及び前記伴奏情報を保存する音声情報保存領域と、
    前記歌唱者が選択可能な撮影済み背景画像を保存する背景画像保存領域と、を備え、
    前記カラオケ情報制御手段は、前記歌唱者の音声及び前記伴奏情報を収集して前記音声情報保存領域に保存する音声情報収集手段と、
    一連の動画像を収集して前記合成前画像保存領域に保存する画像収集手段と、
    前記一連の動画像の上に前記背景画像保存領域に保存した背景画像を重ねて合成する合成手段と、
    前記合成手段によって合成した合成画像を前記音声情報保存部分に保存した音声情報と共に出力する出力手段と、を含み、
    前記背景画像は、あらかじめ前記抽出画像の上から重ねて合成するための透明部分が設定されており、透明部分のエッジの透明度は除々に変化する、カラオケ端末装置。
  9. 前記合成前画像は、画像の出力に必要な出力対象画素領域の周囲にブレ補償領域に相当する画素を含み、前記抽出部分認識手段は、前記ある時点において、前記合成前画像保存領域に保存した合成前画像について、画素毎に色を数値化した後に、前記基準画像保存領域に保存した基準画像を上下左右に1画素毎にシフトをして比較し、前記出力対象画素領域全体の各画素毎の前記色の数値の差分の総和が最も小さくなる場合の、前記シフトの量だけ前記合成前画像をシフトして、前記合成前画像保存領域に保存する、請求項1から7のいずれかに記載のカラオケ端末装置。
  10. 前記カラオケ端末装置は、ネットワーク上のサーバと通信可能であり、
    前記出力手段は、歌唱者の操作に基づいて合成画像データを前記サーバに送信する請求項1から9のいずれかに記載のカラオケ端末装置。
JP2005030976A 2005-02-07 2005-02-07 カラオケ端末装置 Expired - Fee Related JP4257300B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005030976A JP4257300B2 (ja) 2005-02-07 2005-02-07 カラオケ端末装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005030976A JP4257300B2 (ja) 2005-02-07 2005-02-07 カラオケ端末装置

Publications (2)

Publication Number Publication Date
JP2006215497A true JP2006215497A (ja) 2006-08-17
JP4257300B2 JP4257300B2 (ja) 2009-04-22

Family

ID=36978760

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005030976A Expired - Fee Related JP4257300B2 (ja) 2005-02-07 2005-02-07 カラオケ端末装置

Country Status (1)

Country Link
JP (1) JP4257300B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012208281A (ja) * 2011-03-29 2012-10-25 Xing Inc カラオケ装置
CN108040497A (zh) * 2015-06-03 2018-05-15 思妙公司 基于从异地分布的表演者捕获的内容自动产生协调的视听作品

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012208281A (ja) * 2011-03-29 2012-10-25 Xing Inc カラオケ装置
CN108040497A (zh) * 2015-06-03 2018-05-15 思妙公司 基于从异地分布的表演者捕获的内容自动产生协调的视听作品

Also Published As

Publication number Publication date
JP4257300B2 (ja) 2009-04-22

Similar Documents

Publication Publication Date Title
CN103002210B (zh) 图像处理装置以及图像处理方法
JP5214826B2 (ja) 立体パノラマ画像作成装置、立体パノラマ画像作成方法及び立体パノラマ画像作成プログラム並びに立体パノラマ画像再生装置、立体パノラマ画像再生方法及び立体パノラマ画像再生プログラム、記録媒体
CN102047652B (zh) 摄像装置、集成电路及摄像方法
CN106797498A (zh) 信息处理设备、信息处理方法和程序
JPH11234560A (ja) マルチメディア編集方法及び装置
JP2016119600A (ja) 編集装置及び編集方法
JP2008271237A (ja) 画像処理装置と画像処理方法および画像処理プログラム、並びに再生情報生成装置と再生情報生成方法及び再生情報生成プログラム
CN108900764A (zh) 拍摄方法和电子装置以及拍摄控制方法和服务器
US20140086551A1 (en) Information processing apparatus and information processing method
JP7428763B2 (ja) 情報取得システム
CN107368491B (zh) 影像制作系统及方法
AU2014200042B2 (en) Method and apparatus for controlling contents in electronic device
CN113439447A (zh) 使用深度学习图像分析的房间声学仿真
JP2011071573A (ja) 画像処理装置
US20120229678A1 (en) Image reproducing control apparatus
CN106101576A (zh) 一种增强现实照片的拍摄方法、装置及移动终端
CN103218772A (zh) 控制点设定方法以及控制点设定装置
JP2022510658A (ja) 仮想カメラパスを決定するシステム及び方法
JP4257300B2 (ja) カラオケ端末装置
JP2001169309A (ja) 情報記録装置および情報再生装置
JP5408037B2 (ja) 画像処理装置及び方法、並びにプログラム
JP2005316300A (ja) 楽音生成機能を備えた半導体装置およびこれを用いた携帯型電子機器、携帯電話装置、眼鏡器具並びに眼鏡器具セット
JP2005033554A (ja) 画像再生システム及び画像再生プログラム、並びに画像再生方法
JP2012027340A (ja) カラオケ装置及びカラオケ歌唱者の静止画出力方法
JP2005175839A (ja) 画像表示装置、画像表示方法、プログラムおよび記憶媒体

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070605

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080212

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080902

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081031

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20081031

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20081105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090127

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090202

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120206

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120206

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120206

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120206

Year of fee payment: 3

S303 Written request for registration of pledge or change of pledge

Free format text: JAPANESE INTERMEDIATE CODE: R316303

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120206

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees