JP2012233997A - Karaoke device - Google Patents
Karaoke device Download PDFInfo
- Publication number
- JP2012233997A JP2012233997A JP2011101459A JP2011101459A JP2012233997A JP 2012233997 A JP2012233997 A JP 2012233997A JP 2011101459 A JP2011101459 A JP 2011101459A JP 2011101459 A JP2011101459 A JP 2011101459A JP 2012233997 A JP2012233997 A JP 2012233997A
- Authority
- JP
- Japan
- Prior art keywords
- song
- data
- image
- identification information
- terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000033001 locomotion Effects 0.000 claims description 46
- 230000005540 biological transmission Effects 0.000 claims description 19
- 230000004044 response Effects 0.000 claims description 19
- 238000013500 data storage Methods 0.000 claims description 2
- 238000004891 communication Methods 0.000 abstract description 25
- 230000009471 action Effects 0.000 abstract description 8
- 238000004364 calculation method Methods 0.000 description 46
- 230000004048 modification Effects 0.000 description 23
- 238000012986 modification Methods 0.000 description 23
- 238000010586 diagram Methods 0.000 description 20
- 230000006870 function Effects 0.000 description 6
- 238000000034 method Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 210000000689 upper leg Anatomy 0.000 description 2
- 241000282693 Cercopithecidae Species 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 241000238631 Hexapoda Species 0.000 description 1
- 241000252794 Sphinx Species 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000000245 forearm Anatomy 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000008929 regeneration Effects 0.000 description 1
- 238000011069 regeneration method Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Landscapes
- Reverberation, Karaoke And Other Acoustics (AREA)
Abstract
Description
本発明は、カラオケ装置による曲の再生に合わせて像を表示する技術に関する。 The present invention relates to a technique for displaying an image in accordance with the reproduction of a song by a karaoke apparatus.
演奏の進行に合わせて、カラオケ装置にその演奏を盛り上げるための演出を行わせる技術が開発されている。例えば、特許文献1には、演奏の進行に一致する歌詞表示とともに、動きを伴うポリゴン像が表示されるカラオケ装置が記載されている。
As the performance progresses, a technology has been developed that allows the karaoke apparatus to produce an effect to excite the performance. For example,
ところで、カラオケの曲をユーザが選択するときに用いられる端末が知られている。この端末は、曲を選択するための目次の情報をユーザに提示して、ユーザから曲を選択する操作を受け付けて、無線通信などによりカラオケ装置にその操作に応じた信号を送信する。しかしながら、この端末は選曲に用いられても、上述したような演出のために用いられることはなかった。 By the way, a terminal used when a user selects a karaoke song is known. This terminal presents information of a table of contents for selecting a song to the user, accepts an operation for selecting a song from the user, and transmits a signal corresponding to the operation to the karaoke apparatus by wireless communication or the like. However, even if this terminal is used for music selection, it has not been used for the effects as described above.
本発明は、上述の事情に鑑みてなされたものであり、ユーザの操作に応じて曲を特定する端末ごとに、その曲の再生に伴って動く像を表示させることを目的とする。 The present invention has been made in view of the above-described circumstances, and an object of the present invention is to display an image that moves with the reproduction of a song for each terminal that identifies the song in accordance with a user operation.
上述した課題を解決するため、本発明に係るカラオケ装置は、端末と、本体装置とを具備し、前記端末は、曲を識別する曲識別情報と、前記曲の再生に伴って仮想空間において動作する像を識別する像識別情報とを対応付けて記憶する記憶手段と、ユーザに指定された曲の曲識別情報を特定する第1特定手段と、前記第1特定手段により特定された曲識別情報に対応する像識別情報を前記記憶手段の記憶内容に基づいて特定する第2特定手段と、ユーザの操作に応じて前記仮想空間における視点を特定する第3特定手段と、前記第1特定手段により特定された前記曲識別情報を前記本体装置に送信し、当該曲識別情報が示す曲の再生を要求する第1要求手段と、前記第2特定手段により特定された前記像識別情報を前記本体装置に送信し、当該像識別情報が示す像を、前記曲の再生に伴って前記仮想空間において動作させたときの、当該像の当該仮想空間における位置および姿勢を示す空間データの送信を要求する第2要求手段と、前記第2要求手段による要求に応じて前記本体装置から送信された空間データと、前記第3特定手段により特定された前記視点とに基づいて、当該視点から前記仮想空間における前記像を見たときの前記画像を表示する表示手段とを有し、前記本体装置は、前記第1要求手段による要求に応じて前記曲識別情報が示す曲を再生する再生手段と、前記第2要求手段による要求に応じて前記空間データを生成する生成手段と、前記生成手段が生成した前記空間データを前記端末に送信する送信手段とを有することを特徴とする。 In order to solve the above-described problems, a karaoke apparatus according to the present invention includes a terminal and a main device, and the terminal operates in a virtual space along with song identification information for identifying a song and reproduction of the song. Storage means for associating and storing image identification information for identifying an image to be recorded, first specifying means for specifying song identification information of a song designated by the user, and song identification information specified by the first specifying means Second identification means for identifying image identification information corresponding to the storage means based on the stored contents of the storage means, third identification means for identifying a viewpoint in the virtual space in accordance with a user operation, and the first identification means The main body apparatus transmits the specified music identification information to the main body apparatus, and requests the reproduction of the music indicated by the music identification information, and the image identification information specified by the second specifying means. Send to us Second request means for requesting transmission of spatial data indicating the position and orientation of the image in the virtual space when the image indicated by the image identification information is operated in the virtual space as the music is reproduced; When viewing the image in the virtual space from the viewpoint based on the spatial data transmitted from the main body device in response to the request from the second request means and the viewpoint specified by the third specifying means Display means for displaying the image, and the main body device reproduces the music indicated by the music identification information in response to the request from the first request means, and responds to the request from the second request means. In response, the apparatus includes a generation unit that generates the spatial data and a transmission unit that transmits the spatial data generated by the generation unit to the terminal.
また、本発明に係るカラオケ装置は、端末と、本体装置とを具備し、前記端末は、曲を識別する曲識別情報と、前記曲の再生に伴って仮想空間において動作する像を識別する像識別情報とを対応付けて記憶する記憶手段と、ユーザに指定された曲の曲識別情報を特定する第1特定手段と、前記第1特定手段により特定された曲識別情報に対応する像識別情報を前記記憶手段の記憶内容に基づいて特定する第2特定手段と、ユーザの操作に応じて前記仮想空間における視点を特定する第3特定手段と、前記第1特定手段により特定された前記曲識別情報を前記本体装置に送信し、当該曲識別情報が示す曲の再生を要求する第1要求手段と、前記曲識別情報と、前記第2特定手段により特定された前記像識別情報とを前記本体装置に送信し、前記曲識別情報が示す曲の再生に伴って前記仮想空間において前記像識別情報が示す像に行わせる動作を示す動作データの送信と、当該像識別情報が示す像の形状を示す形状データの送信とを要求する第2要求手段と、前記第2要求手段による要求に応じて前記本体装置から送信された前記動作データおよび前記形状データと、前記第3特定手段により特定された前記視点とに基づいて、当該視点から前記仮想空間における前記像を見たときの前記画像を表示する表示手段とを有し、前記本体装置は、像識別情報で識別される像の形状を示す形状データを、当該像識別情報ごとに対応付けて記憶する形状データ記憶手段と、前記第1要求手段による要求に応じて前記曲識別情報が示す曲を再生する再生手段と、前記第2要求手段による要求に応じて前記動作データおよび前記形状データを生成する生成手段と、前記生成手段が生成した前記動作データおよび前記形状データを前記端末に送信する送信手段とを有することを特徴とする。 The karaoke apparatus according to the present invention includes a terminal and a main device, and the terminal identifies music identification information for identifying a song and an image for identifying an image that operates in a virtual space along with the reproduction of the song. Storage means for associating and storing identification information, first specifying means for specifying song identification information of a song designated by the user, and image identification information corresponding to the song identification information specified by the first specifying means Based on the stored contents of the storage means, second specifying means for specifying a viewpoint in the virtual space according to a user operation, and the song identification specified by the first specifying means First information means for transmitting information to the main body device and requesting reproduction of the music indicated by the music identification information; the music identification information; and the image identification information specified by the second specification means. Sent to the device, Transmission of operation data indicating an operation to be performed on the image indicated by the image identification information in the virtual space in association with reproduction of the music indicated by the identification information, and transmission of shape data indicating the shape of the image indicated by the image identification information Based on the second request means to request, the operation data and the shape data transmitted from the main body device in response to the request by the second request means, and the viewpoint specified by the third specification means, Display means for displaying the image when the image in the virtual space is viewed from the viewpoint, and the main body device stores shape data indicating the shape of the image identified by the image identification information. Shape data storage means for storing information in association with each other, reproduction means for reproducing the music indicated by the music identification information in response to a request from the first request means, and response to a request from the second request means And a sending means for sending said the operation data and generating means for generating the shape data, the operation data and the shape data the generating unit has generated to the terminal.
また、本発明に係るカラオケ装置は、上述した態様において、前記端末を複数具備し、前記本体装置の前記送信手段は、前記複数の端末のそれぞれから前記第2要求手段により要求されたデータを、当該各端末にそれぞれ送信することを特徴とする。 Moreover, the karaoke apparatus which concerns on this invention comprises the said terminal in multiple in the aspect mentioned above, The said transmission means of the said main body apparatus receives the data requested | required by the said 2nd request means from each of these terminals. It transmits to the said each terminal, It is characterized by the above-mentioned.
本発明によれば、ユーザの操作に応じて曲を特定する端末ごとに、その曲の再生に伴って動く像を表示させることができる。 ADVANTAGE OF THE INVENTION According to this invention, the image which moves with the reproduction | regeneration of the music can be displayed for every terminal which specifies music according to a user's operation.
<実施形態>
(カラオケシステムの構成)
図1は、本発明の実施形態に係るカラオケシステム9の構成を示す図である。カラオケシステム9は、カラオケ装置3、インターネット等のネットワーク4、およびサーバ5を備える。カラオケ装置3は、端末1および本体装置2を有する。
サーバ5は、ネットワーク4を介して曲を表す曲データをカラオケ装置3の本体装置2に供給する。本体装置2は、サーバ5から供給された曲データを記憶する。端末1は、曲を特定するための操作をユーザから受け付けて、その操作に応じた信号を本体装置2に送信する。本体装置2は、端末1から信号を受け取り、この信号が示す曲の曲データを特定してその曲データに応じた演奏を行う。
<Embodiment>
(Composition of karaoke system)
FIG. 1 is a diagram showing a configuration of a karaoke system 9 according to an embodiment of the present invention. The karaoke system 9 includes a
The server 5 supplies song data representing a song to the
(カラオケ装置の構成)
図2は、本発明の実施形態に係るカラオケ装置3の構成を示す図である。カラオケ装置3の端末1は、制御部11、記憶部12、操作部13、表示部14、および近距離通信部15を有する。カラオケ装置3の本体装置2は、制御部21、記憶部22、操作部23、表示部24、近距離通信部25、通信部26、および放音部27を有する。
(Composition of karaoke equipment)
FIG. 2 is a diagram showing a configuration of the
(端末の構成)
図2に基づき、端末1の構成について説明する。
制御部11は、CPU(Central Processing Unit)、ROM(Read Only Memory)、およびRAM(Random Access Memory)を備え、CPUが、ROMに記憶されているブートローダーや記憶部12に記憶されているプログラムをRAMに読み出して実行することにより、端末1の各部を制御する。記憶部12は、EEPROM(Electrically Erasable Programmable Read Only Memory)などの大容量の記憶手段であり、制御部11により利用されるプログラムを記憶する。
(Terminal configuration)
Based on FIG. 2, the structure of the
The
表示部14は、表示画面141を有し、制御部11の制御の下、操作を促す対話型ウインドウや本体装置2から送られたデータに基づいて人物像などをこの表示画面141に表示する。表示部14の表示画面141は、例えば、液晶を用いた表示素子などにより構成される。
The
操作部13は、ボタンなど各種の指示を入力するための操作子131と、表示部14の表示画面141に重ねて配置された透明の感圧部材を備え、この感圧部材によりユーザの指などが触れた位置を検出して、この位置に応じた座標を示す信号を出力するタッチパネル132と、端末1の筐体の運動状態や姿勢などを検知してこれらに応じた信号を出力するセンサ133を備える。センサ133は、具体的には、加速度センサや角速度センサなどを含む。ユーザは、操作子131のボタンなどを押したり、タッチパネル132に触れたり、端末1の筐体を持ってその姿勢を変化させてセンサ133にこれを検知させたりすることで、端末1を用いたカラオケ装置3に対する操作を行う。操作部13は、これら操作子131、タッチパネル132、およびセンサ133などによりユーザの操作を受け付けてその操作内容に応じた信号を制御部11に送る。
The
近距離通信部15は、本体装置2との間で制御情報や各種のデータを通信するインターフェースであり、例えばIEEE 802.11、やIEEE 802.15などに準拠した近距離無線通信回路、IrDA(Infrared Data Association)などに準拠した無線インターフェースなどである。
The near
また、記憶部12は、目次データベース(以下、データベースを「DB」とも表記する)121と、対応表122とを備える。目次DB121は、ユーザに曲を特定させるための目次データを記憶する。対応表122は、各曲に固有の識別情報である曲番号と、人物像の識別情報である人物像番号とを対応付けて記憶する。人物像とは、曲の再生に伴って動作する像であって、例えば、歌手やダンサーを模倣またはデフォルメした像である。対応表122で各曲番号にそれぞれ対応付けられた人物像番号は、その曲番号に示す曲をユーザが特定したときに端末1で表示される人物像の人物像番号を表している。
The
ここで、図3〜図7を用いて、記憶部12の記憶内容について説明する。図3は、目次DB121の一例を示す図である。目次DB121は、曲番号、曲名、歌手名、ジャンル名、および発表年をそれぞれ示すフィールドを有し、各フィールドに記述されたデータを関連付ける。曲番号は、曲を識別する識別情報であり、1つの曲につき1つだけ割り当てられた固有の番号である。曲名はその曲の名前、すなわちタイトルを示す文字列である。歌手名はその曲を歌う歌手や演奏するグループなどの名前を示す文字列である。ジャンル名は、その曲が属する音楽のジャンルを示す文字列である。発表年は、その曲が公に発表された西暦年を示す数値である。
Here, the contents stored in the
一般に曲は曲名によって識別されるものであるが、同じ作詞家が歌詞を書き、同じ作曲家が作曲した曲が複数の歌手によって歌われることもあり、また、共通する題材を取り上げた結果、曲名が完全に一致する全く別の曲が作られることもある。また、同じ歌手が過去に発表した自分の持ち歌を後になって改めて録音するなどして発表しなおすこともある。この目次DB121は、曲名と、曲名以外のフィールドのうちいずれか1つとを組み合わせると必ずユニークなレコードが特定されるように記述されているが、このユニークなレコードをユニークな曲番号と対応付けることで、曲番号によって曲が特定されるように構成されている。図3に示すように、例えば、曲番号「P01」には、曲名「○▽○」、歌手名「あ○△」、ジャンル名「ポップ」、および発表年「2002」が対応付けられている。
In general, songs are identified by the title of the song, but the same songwriter writes the lyrics, and the song composed by the same composer may be sung by multiple singers. Sometimes a completely different song is created that completely matches. In some cases, the same singer re-releases his own songs that have been released in the past, such as recording again later. The table of
図4は、表示画面141に表示される選曲メニューの一例を示す図である。選曲メニューは、端末1を使ってユーザが曲を特定するときに最初に表示されるメニューである。図4に示す選曲メニューは、「歌手名別」「曲名別」「ジャンル名別」「発表年別」の4つの項目を有する。ユーザはこの4つの項目からいずれかを選択して、自分の望む曲を探す。
FIG. 4 is a diagram showing an example of the music selection menu displayed on the
図5は、表示画面141に表示される歌手名のリストの一例を示す図である。この歌手名のリストは、図4に示した選曲メニューが表示されているときに、「歌手名別」の項目をユーザが選択した場合に、表示画面141に表示されるリストである。このリストは、歌手名を、その頭文字ごとに分類して配列する。図5に示す例では、五十音の各行にそれぞれ対応する複数のウインドウが重畳されて表示されている。各ウインドウの上部には、そのウインドウを選択するためのタブが設けられている。このタブには、五十音の各行を表す文字「あ」「か」「さ」「た」「な」「は」が記述されている。なお、「次頁」と記述されたタブは「ま」「や」「ら」「わ」の各文字を記述したタブを有するウインドウを表示させるためのボタンとして機能する。この例においては、タブ「あ」が選択されているため、五十音の各行のうち「あ」行の頭文字を有する歌手名がウインドウ内の上下方向に配列される。なお、これらの歌手名のリストがウインドウ内の上下方向に入りきらない場合には、ウインドウの右端にあるスクロールバーを用いて上下に移動させられるようになっている。また、「ローマ字」と記述されたボタンの位置にユーザが触れると、歌手名の頭文字を用いた分類が五十音別からローマ字別に切り替わるようになっている。
FIG. 5 is a diagram showing an example of a singer name list displayed on the
図6は、表示画面141に表示される歌手別の曲名リストの一例を示す図である。この曲名リストは、図5に示した歌手名のリストが表示されているときに、歌手名「あ○△」の項目をユーザが選択した場合に、表示画面141に表示されるリストである。このリストは、「あ○△」が発表した持ち歌の曲名をウインドウ内の上下方向に配列したものである。なお、これら曲名のリストがウインドウ内の上下方向に入りきらない場合には、ウインドウの右端にあるスクロールバーを用いて上下に移動させられるようになっている。
FIG. 6 is a diagram illustrating an example of a song name list for each singer displayed on the
ユーザが、図6に示した歌手別の曲名リストが表示されているときに、曲名「○▽○」の項目を選択した場合、歌手名「あ○△」と曲名「○▽○」とが特定されるため、目次DB121において、これらの組に対応付けられた曲番号「P01」が定まる。
When the user selects the item “○ ▽ ○” when the song name list for each singer shown in FIG. 6 is displayed, the singer name “A ○ △” and the song name “○ ▽ ○” are displayed. Therefore, the music number “P01” associated with these sets is determined in the table of
図7は、対応表122および指示信号の一例を示す図である。図7(a)に示す対応表122において、例えば曲番号「P01」は人物像番号「M01」に対応付けられている。したがって、曲番号「P01」に示す曲をユーザが選択した場合に、対応表122において、その曲番号「P01」に対応付けられている人物像番号「M01」が制御部11によって特定される。
FIG. 7 is a diagram illustrating an example of the correspondence table 122 and the instruction signal. In the correspondence table 122 shown in FIG. 7A, for example, the song number “P01” is associated with the person image number “M01”. Therefore, when the user selects the song indicated by the song number “P01”, the
これにより端末1の制御部11は、図7(b)に示すように、曲番号「P01」に人物像番号「M01」を付加した信号を生成し、これをユーザの選曲に基づく指示を示す指示信号として、近距離通信部15を用いて本体装置2へ送信する。その結果、人物像番号「M01」で識別される人物像の人物像データが、本体装置2から端末1へ送られ、端末1の表示画面141にこの人物像が表示される。
As a result, the
(本体装置の構成)
図2に戻り、カラオケ装置3の本体装置2の構成について説明する。
制御部21は、CPU、ROM、およびRAMを備え、CPUが、ROMに記憶されているブートローダーや記憶部22に記憶されているプログラムをRAMに読み出して実行することにより、本体装置2の各部を制御する。記憶部22は、ハードディスクドライブなどの大容量の記憶手段であり、制御部21により利用されるプログラムを記憶する。また、記憶部22は、曲を示す曲データを記憶する曲DB221と、人物像を示す人物像データを記憶する人物像DB222とを備える。
(Configuration of main unit)
Returning to FIG. 2, the configuration of the
The
ここで、図8〜図12を用いて、記憶部22の記憶内容について説明する。図8は、曲DB221の一例を示す図である。曲データは、演奏データ、背景データ、歌詞データ、および動作データを含む。演奏データとは、その曲が演奏されるときに発音される楽音と、その発音されるタイミングとを対応付けたデータである。背景データとは、演奏の進行に伴って本体装置2において表示される静止画像や動画などと、その表示されるタイミングとを対応付けたデータである。歌詞データとは、演奏の進行にあわせて表示すべき歌詞の情報を時系列に記録したデータであり、歌詞を表す文字列と、色替えのタイミングなどが記述されたものである。動作データとは、演奏の進行に伴って端末1において表示される人物像の動作と、その表示されるタイミングとを対応付けたデータである。曲DB221は、曲番号、演奏データ、背景データ、歌詞データ、および動作データをそれぞれ示すフィールドを有し、各フィールドに記述されたデータを関連付ける。これにより、曲DB221は、曲番号と曲データとを対応付けて記憶する。
Here, the contents stored in the
図9は、演奏データ、背景データ、歌詞データ、および動作データの各データ構造を示す図である。図9(a)に示すように各データは、いずれもヘッダ部とデータ本体部とに区画されている。ヘッダ部には、データ本体部に格納された情報の取り扱いに用いるパラメータやその情報の記述形式の種類などが記述されている。データ本体部に格納された情報は、図9(b)に示すように、「時間」を示すタイミング情報と「イベント」を示すイベント情報とが対応付けられたリスト構造を有する。 FIG. 9 is a diagram showing data structures of performance data, background data, lyrics data, and motion data. As shown in FIG. 9A, each data is divided into a header part and a data body part. In the header part, parameters used for handling information stored in the data body part, the type of description format of the information, and the like are described. As shown in FIG. 9B, the information stored in the data body has a list structure in which timing information indicating “time” and event information indicating “event” are associated with each other.
このイベント情報は、データが演奏データであれば、例えばノートオンやノートオフなど、楽音の演奏に関するイベントを表すものである。また、このイベント情報は、背景データであれば、静止画像や、新たに描かれるべきフレームの画像を直前のフレームの画像から予測するために用いられるフレーム間予測情報など、背景の表示に関するイベントを表すものである。また、このイベント情報は、歌詞データであれば、歌詞を示す文字列や、その文字列のうちどの部分を歌っているかをその文字列中の各文字の色を変化させることにより示す場合において、その色替え位置に関するイベントを表すものである。また、このイベント情報は、動作データであれば、例えば人物像の移動方向や、人物像を構成する関節まわりの運動方向の情報など、人物像の動作に関するイベントを表すものである。タイミング情報は、これらのイベントを発生させるべきタイミングを表すものである。 If the data is performance data, this event information represents an event related to musical performance such as note-on and note-off. Also, if this event information is background data, events related to background display such as still images and inter-frame prediction information used for predicting a frame image to be newly drawn from the image of the immediately preceding frame are included. It represents. In addition, if the event information is lyrics data, in the case of indicating by changing the color of each character in the character string indicating the lyrics and which part of the character string is being sung, It represents an event related to the color change position. In addition, if the event information is motion data, it represents an event related to the motion of the person image, such as information on the moving direction of the person image and the motion direction around the joints constituting the person image. The timing information represents the timing at which these events should be generated.
図9(b)に示すように、タイミング情報「123」には、イベント情報「イベントα」が対応付けられている。これはタイミング情報「123」が示すタイミング(例えば、曲の演奏開始から123ミリ秒経過したタイミングや、123回目にフレームを描き換えるタイミングなど)に、イベントαを発生させることを表している。 As shown in FIG. 9B, the event information “event α” is associated with the timing information “123”. This represents that the event α is generated at the timing indicated by the timing information “123” (for example, the timing at which 123 milliseconds have elapsed from the start of the music performance, the timing at which the frame is redrawn at the 123rd time, or the like).
図10は、人物像DB222の一例を示す図である。人物像DB222は、人物像を識別する番号である人物像番号と、その人物像のデータである人物像データとを対応付けて記憶する。図11は、端末1で表示される人物像の概略を説明するための図である。図11に示すように、人物像は、仮想的な直交座標空間であるxyz座標空間(仮想空間)に配置される。人物像は、人間の体の形状を部位ごとにそれぞれポリゴンのパーツCHとして表現し、これら複数のパーツCHを組み合わせて構成されている。複数のパーツCHは、人物像データにおいて樹形構造で記憶されている。図12は、人物像データの樹形構造の一例を示す図である。図12に示すように、人物像データにおいて複数のパーツは、腰を示すパーツを根とする樹形構造をなしている。すなわち、根のパーツである「腰」には、「胸」「右上腿」「左上腿」の3つのパーツが接続されており、さらに「胸」には、「頭」「右上腕」「左上腕」の3つのパーツが接続されている。人物像データには、各パーツの形状を表すポリゴンデータと、標準の状態における各パーツ間の接続位置や角度などが記述されている。人物像データには、さらに各パーツの表面の質感や色合い、模様などを示すテクスチャーデータを含んでいてもよい。要するに、人物像DB222は、人物像番号(像識別情報)で識別される人物像の形状を示す人物像データ(形状データ)を、その人物像番号ごとに対応付けて記憶する。
FIG. 10 is a diagram illustrating an example of the
動作データは、演奏の進行に合わせた動作を人物像に行わせるために必要なパラメータが記載されている。これらのパラメータは、例えば、xyz座標空間上における人物像の配置を示す数値や、その人物像の各パーツ間の接続位置や角度の変化を示す数値などである。図11に示す例において、人物像の配置を示す数値とは、「腰」の重心POの座標である。また、パーツ間の接続の角度を示す数値とは、例えば図11に示すように人物像の左上腕と左前腕との角度JAである。 In the motion data, parameters necessary for causing the human figure to perform a motion in accordance with the progress of the performance are described. These parameters are, for example, a numerical value indicating the arrangement of the human image in the xyz coordinate space, a numerical value indicating a change in the connection position or angle between the parts of the human image, and the like. In the example shown in FIG. 11, the numerical value indicating the arrangement of the human image is the coordinates of the center of gravity PO of “waist”. Further, the numerical value indicating the connection angle between the parts is, for example, an angle JA between the upper left arm and the left forearm of the person image as shown in FIG.
図2に戻って本体装置2の説明を続ける。
表示部24は、表示画面241を有し、制御部21の制御の下、曲DB221から読み出された曲データのうち、歌詞データや背景データに基づいて、曲の演奏の進行に一致する歌詞や背景映像などをこの表示画面241に表示する。表示部24の表示画面241は、例えば、液晶を用いた表示素子などにより構成される。
Returning to FIG. 2, the description of the
The
操作部23は、ボタンなど各種の指示を入力するための操作子231と、ユーザが発する歌唱音声を収音した音信号を放音部27へ送出するマイク232とを備える。操作子231は、ユーザにより入力された指示を示す信号を制御部21に送出する。
The
近距離通信部25は、端末1の近距離通信部15との間で制御情報や各種のデータを通信するインターフェースであり、例えばIEEE 802.11、やIEEE 802.15などに準拠した近距離無線通信回路、IrDAなどに準拠した無線インターフェースなどである。
The short-
通信部26は、ネットワーク4を介してサーバ5から曲データを受信するためのインターフェースであり、例えば各種のモデムやIMT-2000に準拠した無線通信回路、あるいは、USB(Universal Serial Bus)規格に準拠したシリアルインターフェースなどである。
The
放音部27は、音源回路(TG:Tone Generator)と、ミキサと、増幅器と、スピーカとを備える。音源回路は曲DB221から読み出された曲データのうち、演奏データに基づいて楽音の合成を行う。ミキサは、音源回路により合成された楽音と、マイク232により送出された音信号とを決められた割合でミキシングする。増幅器は、ミキサによりミキシングされた信号を増幅する。スピーカは増幅器で増幅された信号に応じた音を放音する。
The
(カラオケ装置の機能的構成)
図13は、カラオケ装置3の機能的構成の一例を示すブロック図である。図13に示すように、カラオケ装置3に備えられている端末1の制御部11と、本体装置2の制御部21は、それぞれ様々な機能を実現する。具体的には、制御部11は、第1特定部111、第2特定部112、第3特定部113、第1要求部114、第2要求部115、および表示制御部116として機能する。また、制御部21は、再生部211、生成部212、および送信部213として機能する。以下、これらの機能について説明する。なお、端末1と本体装置2との通信は、図2で示したように近距離通信部15および近距離通信部25を介して行われるが、図13においてこれらを省略する。
(Functional configuration of karaoke equipment)
FIG. 13 is a block diagram illustrating an example of a functional configuration of the
第1特定部111(第1特定手段)は、操作部13の操作子131やタッチパネル132が受け付けたユーザの操作に応じて、そのユーザによって指定された曲の識別情報を特定する。具体的に、第1特定部111は、上述した図4に示すようなメニュー画面を表示部14の表示画面141に表示させ、操作子131やタッチパネル132を介したユーザの指示を受け付けて、記憶部12の目次DB121に記憶されているいずれか1つの曲番号(曲識別情報)を特定する。
The first specifying unit 111 (first specifying unit) specifies the identification information of the song designated by the user in response to the user's operation received by the
第2特定部112(第2特定手段)は、第1特定部111により特定された曲番号に対応する人物像番号(像識別情報)を、対応表122に基づいて特定する。具体的に、第2特定部112は、第1特定部111によって特定された曲番号を、対応表122の中から探し出し、その曲番号に対応付けられた人物像番号を特定する。
The second specifying unit 112 (second specifying unit) specifies the person image number (image identification information) corresponding to the song number specified by the first specifying unit 111 based on the correspondence table 122. Specifically, the second specifying
第3特定部113(第3特定手段)は、センサ133によって検知したユーザの操作に応じて、上述したxyz座標空間における視点を特定する。この視点は、xyz座標空間を見る位置や方向、画角などを特定するものであって、この視点からxyz座標空間を見つけたときの画像が端末1の表示部14に表示される。視点については後述する。
The third specifying unit 113 (third specifying unit) specifies the viewpoint in the above-described xyz coordinate space in accordance with the user operation detected by the
第1要求部114(第1要求手段)は、第1特定部111により特定された曲番号を本体装置2に送信し、その曲番号が示す曲の再生を要求する。
再生部211(再生手段)は、第1要求部114による要求に応じて上述した曲番号が示す曲を再生する。具体的に、再生部211は、曲番号を指定した曲の再生の要求を端末1から受け取ると、記憶部22の曲DB221からこの曲番号に対応付けられた曲データを探し出し、その曲データに含まれる演奏データを読み出す。そして、再生部211は、読みだした演奏データに応じた楽音信号を生成し、放音部27を用いて、この楽音信号に応じた放音を行わせる。
The first requesting unit 114 (first requesting unit) transmits the music number specified by the first specifying unit 111 to the
The reproduction unit 211 (reproduction unit) reproduces the song indicated by the above-described song number in response to the request from the
第2要求部115(第2要求手段)は、第2特定部112により特定された人物像番号を本体装置2に送信し、その人物像番号が示す人物像を、上述した曲の再生に伴ってxyz座標空間において動作させたときの、その人物像のxyz座標空間における位置および姿勢を示す空間データの送信を要求する。
生成部212(生成手段)は、第2要求部115による要求に応じて空間データを生成する。具体的に、生成部212は、人物像番号を端末1から受け取ると、記憶部22の人物像DB222からこの人物像番号に対応付けられた人物像データを探し出す。また、生成部212は、再生部211で探し出された上述の曲データから動作データを読み出す。そして、生成部212は、動作データと人物像データとを用いて空間データを生成する。すなわち、生成部212は、読みだした人物像データに基づく人物像の各パーツを、動作データに基づいてxyz座標空間のそれぞれの位置に配置して、空間データを生成する。
The second requesting unit 115 (second requesting unit) transmits the person image number specified by the second specifying
The generation unit 212 (generation unit) generates spatial data in response to a request from the
送信部213(送信手段)は、生成部212で生成された空間データを端末1に送信する。表示制御部116(表示手段)は、本体装置2から送信された空間データと、第3特定部113により特定された視点に基づいて、上述したxyz座標空間における人物像をその視点から見たときの画像を表示部14の表示画面141を用いて表示する。
The transmission unit 213 (transmission unit) transmits the spatial data generated by the generation unit 212 to the
(カラオケ装置の動作)
図14は、カラオケ装置3における人物像の表示に関する演算の流れを示す図である。まず、カラオケ装置3は人物像データと動作データとを用いて第1演算を行う。第1演算とは、人物像データが示す人物像を動作データに基づいてxyz座標空間に配置するとともに、この人物像にポーズ(姿勢)を取らせるための演算である。第1演算により、xyz座標空間において人物像が取るべきポーズを取り、配置されるべき位置に配置された空間を示す空間データが生成される。したがって、第1演算は、図13における生成部212が行う。なお、図14に破線で示すように、第1演算は、既に生成された空間データをさらに用いて、新たな空間データを生成してもよい。この場合、動作データには、例えば前回のタイミングから今回のタイミングまでの動作の差分を示すデータが記述されていればよい。
(Karaoke device operation)
FIG. 14 is a diagram showing a flow of calculation regarding display of a person image in the
次に、カラオケ装置3は、第1演算で得られた空間データと、xyz座標空間において人物像を見る視点座標や画角などを表す視点データと、xyz座標空間において人物像に光を照射する光源の位置やその光の色などを表す光源データとを用いて第2演算を行う。視点データとは、例えば図11において視点座標PVと画角VAである。視点座標PVは、xyz座標空間における視点の座標を示す。画角VAは、xyz座標空間において視点座標PVから見える視野の範囲を示す。光源データに含まれる光源の位置とは、例えば図11における光源PLである。第2演算は、いわゆる三次元レンダリングと呼ばれる演算を含む。図11に示す例において、第2演算は、光源PLから照射される光が人物像データを構成する各パーツCHの表面によって反射される割合を計算し、その表面から反射される反射光のうち、視点座標PVに向かうものを抽出する。そして抽出されたこれらの反射光に応じた色の階調値を画角VAによって定まる画像領域に配置することで視点座標PVから画角VAの範囲でxyz座標空間を見たときに見える画像を示した画像データを生成する。したがって、第2演算は、図13における表示制御部116が行う。
Next, the
図15は、カラオケ装置3における演算を行う構成と、そのタイミングとを示す図である。端末1の制御部11は、操作部13で受け付けた操作に基づいて記憶部12の目次DB121から曲番号を特定し(ステップS101)、対応表122を参照してその曲番号に対応付けられた人物像番号を特定する(ステップS102)。そして制御部11は、近距離通信部15を用いて、図7(b)に示したような指示信号を本体装置2の近距離通信部25へ送信する(ステップS103)。
FIG. 15 is a diagram showing a configuration for performing calculation in the
本体装置2の制御部21は、指示信号を受け取るとこの指示信号が示す曲番号に対応付けられた曲データを曲DB221から見つけ出し、これに含まれる演奏データを読み出して曲の演奏を行う(ステップS104)。また、制御部21は、指示信号が示す人物像番号に対応付けられた人物像データを人物像DB222から見つけ出し、この人物像データと上述した曲データに含まれる動作データとを用いて第1演算を行う(ステップS105)。なお、制御部21は、曲データに含まれる背景データや歌詞データに基づいて、演奏の進行に伴って表示されるべき背景映像や歌詞を表示部24の表示画面241に表示させる。
When the
端末1のセンサ133は、端末1の筐体の姿勢を検知し、この姿勢に応じた信号を制御部11に送る(ステップS106)。制御部11は、センサ133が検知した筐体の姿勢に応じて、xyz座標空間における視点データを加工して、現在の視点を特定する(ステップS107)。例えば、ユーザによって端末1の筐体が傾けられた場合に、制御部11はセンサ133から送られた信号を解析してその傾きの角度を求め、この角度に応じて視点データに含まれる画角が傾くようにそのデータ内容を書き換える。また、制御部11は、操作部13の操作子131やタッチパネル132により受け付けられた操作に応じて視点データを加工してもよい。なお、この例では光源データはxyz座標空間において固定されているものとする。
The
制御部21は、第1演算を行うことにより生成された空間データを、近距離通信部25を用いて端末1へ送信する(ステップS108)。端末1の制御部11は、本体装置2から送信された空間データと、上述した光源データと、視点データとを用いて第2演算を行う(ステップS109)。そして、制御部11は、第2演算により生成された画像データに応じた画像を、表示部14の表示画面141に表示させる(ステップS110)。
The
以上、説明したようにカラオケ装置3は、端末1による曲の特定に応じて人物像を特定するので、曲を特定した端末1と特定された曲との組に応じて端末1の表示部14に表示させる人物像が決まる。したがって、選曲に用いた端末1ごとに固有の人物像を表示させるサービスがカラオケ装置3によって提供される。
As described above, since the
また、カラオケ装置3は、端末1の表示部14と本体装置2の表示部24とに個別の画像を表示させる。図16はカラオケ装置3によって表示部14と表示部24とにそれぞれ表示される画像例を示した図である。図16(a)に示す画像は、端末1の表示部14に表示される画像の例であり、選曲とともに特定された人物像が演奏の進行に伴って動作データに応じた踊りを踊る様子が表現されている。一方、図16(b)に示す画像は、本体装置2の表示部24に表示される画像の例であり、背景データに応じた背景と、歌詞データに応じた歌詞とが重ね合わせられて表現されている。したがって、カラオケ装置3は、本体装置2に提供する画像とは別に、選曲に用いた端末1に固有の画像として、人物像が動作する様子を表現した画像をその端末1に提供する。
Further, the
また、カラオケ装置3は、ユーザが選曲に用いた端末1に、図16(a)に示すような画像を表示させるので、ユーザは選曲のときに端末1の表示部14に向けていた視線を動かすこと無く、曲の再生に伴って人物像が動作する様子を見ることができる。つまり、選曲から曲の再生に移行しても、ユーザは視線を動かす必要がない。
そして、カラオケ装置3では、選曲の後で、曲が再生されている間にも、その曲の再生に合わせて動作する人物像が端末1の表示部14により表示されるので機器(端末1)の有効利用が図られる。
Moreover, since the
In the
<変形例>
以上、本発明の実施形態について説明したが、本発明は以下のように、さまざまな態様で実施可能である。
(変形例1)
上述した実施形態において、記憶部12が有する対応表122は読出し専用の表であってもよいが、更新可能な表であってもよい。例えば、端末1の操作部13を用いてユーザが対応表122を編集可能なように構成されていてもよい。また、本体装置2が記憶部22に対応表を記憶しており、端末1の制御部11が近距離通信部15を用いてこの対応表を本体装置2から獲得して、対応表122を更新してもよい。この場合、本体装置2は、サーバ5などの外部装置から送られる情報に応じて記憶部22に記憶させる対応表を更新するようにしてもよい。
<Modification>
As mentioned above, although embodiment of this invention was described, this invention can be implemented in various aspects as follows.
(Modification 1)
In the embodiment described above, the correspondence table 122 included in the
(変形例2)
上述した実施形態において、第1演算は生成部212、つまり、本体装置2の制御部21により行われていたが、端末1の制御部11により行われてもよい。図17は、変形例2のカラオケ装置3における演算を行う構成と、そのタイミングとを示す図である。図17に示す動作の流れと図15に示す動作の流れとで共通する工程は、共通の符号を付して説明を省略する。
(Modification 2)
In the above-described embodiment, the first calculation is performed by the generation unit 212, that is, the
本体装置2の制御部21は、指示信号を受け取るとこの指示信号が示す人物像番号に対応付けられた人物像データを人物像DB222から見つけ出し、この人物像データを端末1へ送信する(ステップS201)。また、制御部21は、指示信号が示す曲番号に対応付けられた曲データを曲DB221から見つけ出し、これに含まれる演奏データを読み出して曲の演奏を行うとともに(ステップS104)、上述した曲データに含まれる動作データを端末1へ送信する(ステップS202)。端末1は、ステップS201で本体装置2から得た人物像データと、ステップS202で本体装置2から得た動作データとを用いて、第1演算を行う(ステップS203)。これにより、本体装置2の制御部21によって第1演算を行った場合に比べて、制御部21の負荷は低減される。
When receiving the instruction signal, the
なお、この場合、図13に示した第2要求部115は、第1特定部111により特定された曲番号と、第2特定部112により特定された人物像番号とを本体装置2に送信する。そして、第2要求部115は、曲番号が示す曲の再生に伴ってxyz座標空間において人物像番号が示す人物像に行わせる動作を示す動作データの送信と、人物像番号が示す人物像の形状を示す人物像データの送信とを要求する。
また、この場合、図13に示した生成部212は、第2要求部115による要求に応じて空間データの代わりに動作データおよび人物像データを生成する。具体的に、生成部212は、探し出した曲データから動作データを抽出することで、この動作データを生成するとともに、第2要求部115による要求に含まれる人物像番号に対応付けられた人物像データを人物像DB222から見つけ出すことで、この人物像データを生成する。
In this case, the
In this case, the generation unit 212 illustrated in FIG. 13 generates motion data and human image data instead of the spatial data in response to a request from the
また、この場合、図13に示した送信部213は、生成部212が生成した動作データおよび人物像データを端末1に送信する。
そして、この場合、図13に示した表示制御部116は、第2要求部115による要求に応じて本体装置2から送信された動作データおよび人物像データと、第3特定部113により特定された視点とに基づいて、その視点からxyz座標空間における上述の人物像を見たときの画像を表示する。したがって、この場合、表示制御部116は、図14に示した第1演算を行って、さらに第2演算を行う。
In this case, the transmission unit 213 illustrated in FIG. 13 transmits the operation data and the person image data generated by the generation unit 212 to the
In this case, the
(変形例3)
上述した実施形態において、人物像DB222は本体装置2の記憶部22に記憶されていたが、これに相当する内容を端末1の記憶部12に記憶させてもよい。例えば、図2に破線で示すように、記憶部12に上述した人物像DB222と共通する記憶内容を有する人物像DB123を記憶させてもよい。この場合、端末1は上述した指示信号に加えて、人物像番号で特定される人物像データを人物像DB123から読み出して本体装置2へ送信すればよい。この人物像データを受け取った本体装置2の制御部21は、この人物像データと上述した動作データに基づいて第1演算を行えばよい。なお、この変形例3において、変形例2に示すように端末1の制御部11に第1演算を行わせる場合には、本体装置2と端末1との間で人物像データを遣り取りする必要はない。この場合、端末1の制御部11が人物像DB123から読みだした人物像データと、本体装置2から受け取った動作データとを用いて第1演算を行うからである。
(Modification 3)
In the above-described embodiment, the
なお、この場合、図13に示した第2要求部115は、第2特定部112により特定された人物像番号を本体装置2に送信しなくてもよい。第2要求部115は、第1特定部111により特定された曲番号を本体装置2に送信して、その曲番号が示す曲の再生に伴ってxyz座標空間において上述の人物像番号が示す人物像に行わせる動作を示す動作データの送信を要求すればよい。
また、この場合、図13に示した生成部212は、第2要求部115による要求に応じて空間データの代わりに動作データを生成する。したがって、この場合、図13に示した送信部213は、生成部212が生成した動作データを端末1に送信する。
そして、この場合、図13に示した表示制御部116は、第2要求部115による要求に応じて本体装置2から送信された動作データと、人物像DB123から読み出した人物像データと、第3特定部113により特定された視点とに基づいて、その視点からxyz座標空間における上述の人物像を見たときの画像を表示する。
In this case, the
In this case, the generation unit 212 illustrated in FIG. 13 generates operation data instead of the spatial data in response to a request from the
In this case, the
(変形例4)
カラオケ装置3は、複数の端末1を備えていてもよい。またこの場合、曲を特定した端末1以外の端末1は、曲を特定した端末1と異なる人物像を表示してもよい。図18は、変形例4のカラオケ装置3における演算を行う構成と、そのタイミングとを示す図である。図18に示す動作の流れと図15に示す動作の流れとで共通する工程は、共通の符号を付す。共通する工程については説明を省略する場合がある。
(Modification 4)
The
カラオケ装置3は、端末1a,1bと、本体装置2とを備える。図18に示す例において、端末1aは、ユーザの操作を受け付けて曲を特定する一方、端末1bは、曲を特定しないが、人物像番号を特定し(ステップS301)、この人物像番号を含む指示信号を本体装置2に送信する(ステップS302)。本体装置2の制御部21は、ステップS103で端末1aから取得した指示信号(以下、指示信号aという)を用いて曲の演奏を行う(ステップS104)。また、制御部21は、指示信号aと、ステップS302で端末1bから取得した指示信号(以下、指示信号bという)とを参照して、第1演算を行う(ステップS105)。この第1演算において、指示信号aにより示される人物像番号と、指示信号bにより示される人物像番号とは異なる場合があるため、制御部21は、それぞれ個別の空間データを生成し、端末1a,1bのそれぞれに送信する(ステップS108,S305)。
The
端末1bのセンサ133は、端末1bの筐体の姿勢を検知し、この姿勢に応じた信号を制御部11に送る(ステップS303)。端末1bの制御部11は、端末1bのセンサ133が検知した筐体の姿勢に応じて、xyz座標空間における視点データを加工して、現在の視点を特定する(ステップS304)。
The
また、本体装置2から空間データを取得した端末1bの制御部11は、その空間データと、ステップS304で加工された視点データと、xyz座標空間において固定されている光源データとを用いて第2演算を行う(ステップS306)。そして、端末1bの制御部11は、第2演算により生成された画像データに応じた画像を、端末1bの表示部14の表示画面141に表示させる(ステップS307)
In addition, the
以上により、カラオケ装置3は、本体装置2に提供する画像とは別に、選曲に用いた端末1aと、選曲に用いられなかった端末1bとに、それぞれ個別の人物像が動作する様子を表現した画像を各端末1にそれぞれ提供する。したがって、複数の端末1は、各端末1に対応付けられた人物像が踊る様子を、それぞれ個別に各表示部14に表示させる。
As described above, the
なお、ステップS301において端末1bの制御部11が行う人物像番号の特定の処理は、本体装置2が、端末1aから曲番号と人物像番号とを含む指示信号aを受け取った後に行われてもよい。この場合、本体装置2が受け取った指示信号aから曲番号を読み出して端末1bに送ってもよい。端末1bの制御部11は、本体装置2から送られた曲番号を自身の記憶部12に記憶されている対応表122から参照して、これに対応付けられている人物像番号を特定することで、ステップS301を実現してもよい。
It should be noted that the person image number specifying process performed by the
(変形例5)
上述した実施形態において、光源データは、xyz座標空間において固定されていたが、端末1による操作に応じて特定されるように構成されていてもよい。図19は、変形例5のカラオケ装置3における光源を特定する構成と、そのタイミングとを示す図である。図19に示す動作の流れと図15に示す動作の流れとで共通する工程は、共通の符号を付す。共通する工程については説明を省略する場合がある。
(Modification 5)
In the above-described embodiment, the light source data is fixed in the xyz coordinate space. However, the light source data may be configured to be specified according to an operation by the
カラオケ装置3は、端末1a,1cと、本体装置2とを備える。図19に示す例において、端末1aは、ユーザの操作を受け付けて曲を特定する一方、端末1cは、曲を特定しないが、端末1cのセンサ133は、端末1cの筐体の姿勢を検知し、この姿勢に応じた信号を制御部11に送る(ステップS401)。そして、端末1cの制御部11は、端末1cのセンサ133が検知した筐体の姿勢に応じて、xyz座標空間における光源データを加工して、現在の光源の座標を特定する(ステップS402)。
The
光源の座標を特定した端末1cの制御部11は、この座標を含むデータである光源データを生成し、近距離通信部15を用いて本体装置2へ送信する(ステップS403)。本体装置2は、破線で示すように、この光源データを端末1aに転送する。
The
本体装置2から空間データを取得した端末1aの制御部11は、その空間データと、ステップS107で加工された視点データと、ステップS403で本体装置2から転送された光源データとを用いて第2演算を行う(ステップS109)。そして、端末1aの制御部11は、第2演算により生成された画像データに応じた画像を、端末1aの表示部14の表示画面141に表示させる(ステップS110)。なお、光源データは選曲に用いられなかった端末1cで生成されていたが、選曲に用いた端末1aで生成されてもよい。
The
以上により、カラオケ装置3は、端末1を用いて光源の位置などを決める。これにより、ユーザは、端末1を操作して、人物像を撮影するためのアングルを決定することができることに加えて、その人物像に当てる光を決定することができる。すなわち、ユーザは、人物像が踊る様子をカメラマンがするように撮影する楽しみを享受することに加えて、照明係がするようにその人物像を照らし出す光を調節する楽しみを享受することができる。
As described above, the
(変形例6)
上述した第1演算および第2演算を行う構成は、それぞれの負荷に応じて決められてもよい。例えば、本体装置2の制御部21により第1演算を行う場合に、CPUの負荷を表す数値が予め決められた閾値を超えたときには、制御部21は、第1演算を端末1に行わせる旨の指示を端末1へ送るようにしてもよい。また、端末1や本体装置2は、それぞれに備えられたCPUの負荷を監視して、この負荷を表す数値が予め決められた閾値を下回ったときには、他の構成に対して、演算能力に余裕がある旨の通知を送るようにしてもよい。この場合、上述した通知を送った端末1または本体装置2は、他の構成が実行していた演算を代行すればよい。
(Modification 6)
The configuration for performing the first calculation and the second calculation described above may be determined according to each load. For example, when the first calculation is performed by the
(変形例7)
上述した実施形態において、人物像は、人間の体を15個の部位に対応するパーツとして表現していたが、パーツの個数はこれに限られない。例えば、右手、左手のパーツにそれぞれ指のパーツを設けてもよいし、頭と胸とのパーツ間に首のパーツを設けてもよい。
(Modification 7)
In the above-described embodiment, the human image represents the human body as parts corresponding to 15 parts, but the number of parts is not limited to this. For example, finger parts may be provided for the right hand part and the left hand part, respectively, or a neck part may be provided between the head and chest parts.
(変形例8)
上述した実施形態において、人物像は、人間の体を部位ごとにそれぞれポリゴンのパーツとして表現し、これら複数のパーツを組み合わせて構成されていたが、人物像は、人間の体を表現したものに限られない。人物像は、例えば猫や猿、昆虫などといった人間以外の生物の体を表現したものであってもよいし、スフィンクスやケンタウロスといった架空の生物の体、あるいはロボットなどの無生物の姿を表現したものであってもよい。また、例えば、マフラーや袖といった衣服・アクセサリーなどの物体も人物像に含めてもよい。この場合、これらの物体は、人物像のうち、動作データに動作が記述されたパーツに合わせて、動くように構成されていてもよい。例えば、マフラーの動きは、そのマフラーが巻かれている首の部分の動きと、マフラーの質量、周囲の圧などを加味した物理演算により求められてもよい。要するに人物像は、曲の再生に伴って動作する像であれば何でもよい。
(Modification 8)
In the above-described embodiment, the human figure represents the human body as a polygon part for each part, and is configured by combining these parts. However, the human figure is a representation of the human body. Not limited. The human figure may be a representation of a non-human creature such as a cat, monkey, or insect, or a fictional creature such as a sphinx or centaur, or an inanimate figure such as a robot. It may be. For example, objects such as clothes and accessories such as mufflers and sleeves may be included in the person image. In this case, these objects may be configured to move in accordance with a part of the human image whose motion is described in the motion data. For example, the movement of the muffler may be obtained by physical calculation in consideration of the movement of the neck portion around which the muffler is wound, the mass of the muffler, the surrounding pressure, and the like. In short, the person image may be any image as long as the image operates along with the reproduction of the music.
(変形例9)
上述した実施形態において、曲DB221は、曲番号と曲データとを対応付けて記憶し、曲データには、1つの動作データが記述されていたが、曲データには複数の動作データが記述されていてもよい。この場合、複数の動作データの各ヘッダ部には、その動作データを識別する識別情報として動作番号が記述されており、端末1は、本体装置2へ送信する指示信号に、曲番号と人物像番号とに加えて、いずれか1つの動作データを特定するための動作番号を含めてもよい。動作番号を含む指示信号を受け取った本体装置2は、その動作番号に基づいて、複数の動作データから1つの動作データを特定して、上述した第1演算を行ったり、特定したその動作データを端末1へ送ったりすればよい。
(Modification 9)
In the above-described embodiment, the
1つの曲であっても、複数の歌手がその曲の歌を歌う場合や、複数の踊り手がその曲に合わせて踊る場合には、一般に複数の異なる動作が各人に割り当てられている。この構成によれば、曲データに複数の動作データが記述されていて、ユーザはそれらからいずれか1つを選択することができるので、例えば、ユーザは複数の踊り手がそれぞれ異なった振付で踊る曲において、所望する踊り手の振付を学習することができる。 Even if it is one song, when a plurality of singers sing a song of the song, or when a plurality of dancers dance to the song, a plurality of different actions are generally assigned to each person. According to this configuration, a plurality of motion data are described in the music data, and the user can select any one of them. For example, the user dances with a plurality of dancers with different choreographies. You can learn the choreography of the dancer you want in the song.
なお、端末1が指示信号に動作番号を含める態様としては、端末1がユーザの操作に応じて曲を特定した後、さらにユーザの操作を受け付けて動作番号を特定してもよい。また、予め対応表122に、曲番号と人物像番号と上述した動作番号とを対応付けて記述し、曲番号が特定されたことに連動して人物像番号と動作番号とが特定されるようにしてもよい。また、人物像番号と動作番号とが1対1の対応関係がある場合には、人物像番号で動作番号を代用してもよい。例えば、複数の動作データの各ヘッダ部には、人物像番号が記述されていてもよい。
In addition, as a mode in which the
(変形例10)
上述した実施形態において、対応表122は、1つの曲番号に1つの人物像番号を対応付けていたが、1つの曲番号に複数の人物像番号を対応付けてもよい。例えば、図7(a)に破線で示すように、対応表122には、曲番号と人物像番号(1人目)と、さらに『人物像番号(2人目)』を対応付けていてもよい。この場合、曲データに1人目の人物像の動作を示す動作データ(以下、動作データAという)に加えて、2人目の人物像の動作を示す動作データ(以下、動作データBという)が記述されているのであれば、端末1の制御部11や本体装置2の制御部21は、1人目の人物像番号が示す人物像に動作データAが示す動作を行わせ、2人目の人物像番号が示す人物像に動作データBが示す動作を行わせるように、第1演算を行って空間データを生成すればよい。
(Modification 10)
In the above-described embodiment, the correspondence table 122 associates one person image number with one song number, but may associate a plurality of person image numbers with one song number. For example, as shown by a broken line in FIG. 7A, the correspondence table 122 may associate a song number, a person image number (first person), and “person image number (second person)”. In this case, motion data indicating the motion of the second person image (hereinafter referred to as motion data B) is described in addition to motion data indicating the motion of the first person image (hereinafter referred to as motion data A). If so, the
具体的には、例えば、曲番号「P01」に示す曲をユーザが選択した場合に、制御部11は、図7(a)に示す対応表122において、その曲番号「P01」に対応付けられている1人目の人物像番号「M01」と、2人目の人物像番号「M11」とを特定する。
Specifically, for example, when the user selects the song indicated by the song number “P01”, the
これにより端末1の制御部11は、図7(b)に示すように、曲番号「P01」に1人目の人物像番号「M01」と2人目の人物像番号「M11」とを付加した信号を生成し、これをユーザの選曲に基づく指示を示す指示信号として、近距離通信部15を用いて本体装置2へ送信する。その結果、人物像番号「M01」で識別される1人目の人物像の人物像データと、人物像番号「M11」で識別される2人目の人物像の人物像データとが、それぞれ動作データA、動作データBに対応付けられて第1演算が行われて空間データが生成される。生成された空間データと、上述した光源データと、視点データとを用いて第2演算が行われることにより画像データが生成されると、端末1aの制御部11は、この画像データに応じた画像を、表示部14の表示画面141に表示させればよい。これにより、表示画面141には、複数(この場合2人)の人物像が、上述の曲番号で特定される曲の再生に伴ってそれぞれ個別に動作する様子が表示される。
As a result, the
すなわち、曲データに複数の動作データが記述されている曲であって1画面に複数の人物像を表示したい曲(デュエット曲やグループ曲など)がある場合、ユーザは、対応表122においてその曲の曲番号に複数の人物像番号を対応付けて記憶させればよい。これにより、ユーザは、上記の曲の再生に伴って、複数の人物像がそれぞれ異なる動作で踊る映像を端末1の表示画面141に表示させることができる。
That is, if there is a song (such as a duet song or a group song) for which a plurality of person images are to be displayed on one screen in a song in which a plurality of motion data is described in the song data, A plurality of person image numbers may be stored in association with the song number. Thereby, the user can display on the
なお、このように1つの曲番号に対して、複数の人物像番号と複数の動作データとが対応付けられている場合には、人物像番号および動作データのそれぞれに付された順序(この場合、1人目、2人目の別)に基づいて、人物像番号と動作データとを関連づければよい。また、対応表122は、1つの曲番号に3以上の人物像番号を対応付けてもよい。 When a plurality of person image numbers and a plurality of motion data are associated with one music number in this way, the order assigned to each of the person image numbers and the operation data (in this case) The person image number and the operation data may be associated with each other based on the first person and the second person). In the correspondence table 122, three or more person image numbers may be associated with one music number.
またここで、m,nが1以上の自然数とし、対応表122において或る1つの曲番号に対応付けて記述されている人物像番号の個数mが、その曲番号で特定される曲データに含まれる動作データの個数nよりも多い(すなわち、m>n)場合、(n+1)人目からm人目までの人物像番号が示す人物像には、1人目からm人目までのいずれかの動作データが示す動作を行わせるようにしてもよいし、これらを順に割り当ててもよい。また、この場合、(n+1)人目からm人目までの人物像番号が示す人物像は使用しなくてもよい。 Here, m and n are natural numbers of 1 or more, and the number m of the person image numbers described in association with one music number in the correspondence table 122 is the music data specified by the music number. When the number of motion data included is larger than n (that is, m> n), any one of the motion data from the first to the m-th person is included in the human image indicated by the (n + 1) th to m-th person image numbers. May be performed, or these may be assigned in order. In this case, the person images indicated by the person image numbers from the (n + 1) -th person to the m-th person may not be used.
そして、対応表122において或る1つの曲番号に対応付けて記述されている人物像番号の個数mが、その曲番号で特定される曲データに含まれる動作データの個数nよりも少ない(すなわち、m<n)場合、(m+1)人目からn人目までの動作データには、1人目からm人目までのいずれかの人物像番号が示す人物像を割り当ててもよいし、これらを順に割り当ててもよいし、予め定められた人物像を割り当ててもよい。また、この場合、(m+1)人目からn人目までの動作データは使用しなくてもよい。 The number m of person image numbers described in correspondence with a certain music number in the correspondence table 122 is smaller than the number n of motion data included in the music data specified by the music number (that is, , M <n), the (m + 1) -th to n-th person motion data may be assigned a person image indicated by any one of the first to m-th person image numbers, or these may be assigned in order. Alternatively, a predetermined person image may be assigned. In this case, the operation data from the (m + 1) th person to the nth person may not be used.
例えば、図7(a)に示す対応表122において、曲番号「P02」には、1人目の人物像番号「M02」が対応付けられているが、2人目の人物像番号は未設定である。この場合において、曲番号「P02」で識別される曲データに1人目および2人目の各動作データが記述されているとするならば、2人目の動作データに対応付けられる人物像番号が未設定ということになる。この場合であっても、記憶部12または記憶部22に、上述したようなルールが記憶されていれば、制御部11または制御部21は、そのルールに従って、未設定の人物像番号を新たに設定したり、未設定の人物像番号に対応する動作データを使用しないように制限したりすることができる。
For example, in the correspondence table 122 shown in FIG. 7A, the song number “P02” is associated with the first person image number “M02”, but the second person image number is not set. . In this case, if each of the first and second motion data is described in the music data identified by the music number “P02”, the person image number associated with the second motion data is not set. It turns out that. Even in this case, if the above-described rule is stored in the
(変形例11)
上述した実施形態において、曲データは、演奏データ、背景データ、歌詞データ、および動作データを含むものであったが、曲の進行に伴ってユーザに提示する情報を示す提示データを含んでいてもよい。この提示データとは、例えば、動作データに示される動作を数秒間先行して知らせるものであってもよい。この場合、ユーザは振付が複雑になる直前にそのことを警告されるので、振付の学習を効率的に行うことができる。また、提示データは、仮想空間における視点の位置についてアドバイスするものであってもよい。具体的には、提示データは、あるタイミングに差し掛かったときに、視点を右側に動かした方がよいことを示す矢印などを端末1の表示部14に表示させるための制御データであってもよい。
(Modification 11)
In the above-described embodiment, the song data includes performance data, background data, lyrics data, and motion data, but may include presentation data indicating information to be presented to the user as the song progresses. Good. This presentation data may be, for example, information that notifies the operation indicated in the operation data several seconds in advance. In this case, since the user is warned immediately before the choreography becomes complicated, the choreography can be learned efficiently. Further, the presentation data may provide advice on the position of the viewpoint in the virtual space. Specifically, the presentation data may be control data for causing the
(変形例12)
上述した実施形態において、端末1の操作部13には、加速度センサや角速度センサなどを含むセンサ133を備えていたが、筐体の運動状態や姿勢などを検知してこれらに応じた信号を出力するセンサ133はこれに限られない。例えば、ユーザの体を撮影するカメラと、そのカメラで撮影された画像を解析するプロセッサなどにより、その運動状態や姿勢などを検知する構成を含んでいてもよい。
(Modification 12)
In the above-described embodiment, the
(変形例13)
上述した実施形態において、選曲に用いられた端末1は、曲の再生中に人物像が動作する様子を表現した画像を表示部14に表示させていたが、この画像の表示中に、ユーザの操作を受け付けて、選曲を行ってもよい。具体的に、端末1は、人物像が動作する様子を表現した画像を表示部14の表示画面141に表示させるとともに、その表示画面141の一部に「切り替えボタン」を表示させる。この「切り替えボタン」が表示されている位置にユーザの指などが触れると、タッチパネル132がユーザの触れた位置を検知して、画面を切り替える旨の指示を制御部11に送る。この指示を受けた制御部11は、図4に示したような選曲メニューを表示画面141に表示させる。これにより、端末1は、曲の再生に合わせて動作する人物像を表示することで、曲の再生を演出するとともに、その表示が行われている間にも、選曲をする機能を実現することができる。
なお、制御部11は、表示画面141に、人物像が動作する様子に重畳して選曲メニューを表示させてもよいし、表示画面141の表示領域を分割して、このうちの一方に人物像が動作する様子を表示させ、他方に選曲メニューを表示させてもよい。
(Modification 13)
In the above-described embodiment, the
The
(変形例14)
上述した実施形態におけるプログラムは、磁気記録媒体(磁気テープ、磁気ディスクなど)、光記録媒体(光ディスクなど)、光磁気記録媒体、半導体メモリなどのコンピュータ読み取り可能な記録媒体に記憶した状態で提供し得る。また、端末1や本体装置2は、プログラムをネットワーク経由でダウンロードしてもよい。
(Modification 14)
The program in the above-described embodiment is provided in a state stored in a computer-readable recording medium such as a magnetic recording medium (magnetic tape, magnetic disk, etc.), an optical recording medium (optical disk, etc.), a magneto-optical recording medium, or a semiconductor memory. obtain. Further, the
1(1a,1b,1c)…端末、11…制御部、111…第1特定部、112…第2特定部、113…第3特定部、114…第1要求部、115…第2要求部、116…表示制御部、12…記憶部、121…目次DB、122…対応表、123…人物像DB、13…操作部、131…操作子、132…タッチパネル、133…センサ、14…表示部、141…表示画面、15…近距離通信部、2…本体装置、21…制御部、211…再生部、212…生成部、213…送信部、22…記憶部、23…操作部、231…操作子、232…マイク、24…表示部、241…表示画面、25…近距離通信部、26…通信部、27…放音部、3…カラオケ装置、4…ネットワーク、5…サーバ、9…カラオケシステム、CH…パーツ、JA…角度、PL…光源、PO…重心、PV…視点座標、VA…画角 DESCRIPTION OF SYMBOLS 1 (1a, 1b, 1c) ... Terminal, 11 ... Control part, 111 ... 1st specific part, 112 ... 2nd specific part, 113 ... 3rd specific part, 114 ... 1st request part, 115 ... 2nd request part , 116 ... display control unit, 12 ... storage unit, 121 ... table of contents DB, 122 ... correspondence table, 123 ... person image DB, 13 ... operation unit, 131 ... operator, 132 ... touch panel, 133 ... sensor, 14 ... display unit , 141 ... display screen, 15 ... short-range communication unit, 2 ... main unit, 21 ... control unit, 211 ... reproduction unit, 212 ... generation unit, 213 ... transmission unit, 22 ... storage unit, 23 ... operation unit, 231 ... Operator, 232 ... Microphone, 24 ... Display unit, 241 ... Display screen, 25 ... Short range communication unit, 26 ... Communication unit, 27 ... Sound emitting unit, 3 ... Karaoke apparatus, 4 ... Network, 5 ... Server, 9 ... Karaoke system, CH ... parts, JA ... angle, P ... light source, PO ... the center of gravity, PV ... viewpoint coordinates, VA ... the angle of view
Claims (3)
本体装置と
を具備し、
前記端末は、
曲を識別する曲識別情報と、前記曲の再生に伴って仮想空間において動作する像を識別する像識別情報とを対応付けて記憶する記憶手段と、
ユーザに指定された曲の曲識別情報を特定する第1特定手段と、
前記第1特定手段により特定された曲識別情報に対応する像識別情報を前記記憶手段の記憶内容に基づいて特定する第2特定手段と、
ユーザの操作に応じて前記仮想空間における視点を特定する第3特定手段と、
前記第1特定手段により特定された前記曲識別情報を前記本体装置に送信し、当該曲識別情報が示す曲の再生を要求する第1要求手段と、
前記第2特定手段により特定された前記像識別情報を前記本体装置に送信し、当該像識別情報が示す像を、前記曲の再生に伴って前記仮想空間において動作させたときの、当該像の当該仮想空間における位置および姿勢を示す空間データの送信を要求する第2要求手段と、
前記第2要求手段による要求に応じて前記本体装置から送信された空間データと、前記第3特定手段により特定された前記視点とに基づいて、当該視点から前記仮想空間における前記像を見たときの前記画像を表示する表示手段と
を有し、
前記本体装置は、
前記第1要求手段による要求に応じて前記曲識別情報が示す曲を再生する再生手段と、
前記第2要求手段による要求に応じて前記空間データを生成する生成手段と、
前記生成手段が生成した前記空間データを前記端末に送信する送信手段と
を有する
ことを特徴とするカラオケ装置。 A terminal,
A main unit and
The terminal
Storage means for storing song identification information for identifying a song and image identification information for identifying an image operating in a virtual space in association with reproduction of the song;
First identifying means for identifying song identification information of a song designated by the user;
Second specifying means for specifying image identification information corresponding to the music identification information specified by the first specifying means based on the storage content of the storage means;
Third specifying means for specifying a viewpoint in the virtual space according to a user operation;
First request means for transmitting the song identification information identified by the first identification means to the main unit and requesting reproduction of the song indicated by the song identification information;
The image identification information specified by the second specifying means is transmitted to the main device, and the image indicated by the image identification information is operated in the virtual space along with the reproduction of the music. Second request means for requesting transmission of spatial data indicating the position and orientation in the virtual space;
When viewing the image in the virtual space from the viewpoint based on the spatial data transmitted from the main body device in response to the request from the second request means and the viewpoint specified by the third specifying means Display means for displaying the image of
The main unit is
Playback means for playing back the song indicated by the song identification information in response to a request from the first request means;
Generating means for generating the spatial data in response to a request by the second request means;
Transmitting means for transmitting the spatial data generated by the generating means to the terminal.
本体装置と
を具備し、
前記端末は、
曲を識別する曲識別情報と、前記曲の再生に伴って仮想空間において動作する像を識別する像識別情報とを対応付けて記憶する記憶手段と、
ユーザに指定された曲の曲識別情報を特定する第1特定手段と、
前記第1特定手段により特定された曲識別情報に対応する像識別情報を前記記憶手段の記憶内容に基づいて特定する第2特定手段と、
ユーザの操作に応じて前記仮想空間における視点を特定する第3特定手段と、
前記第1特定手段により特定された前記曲識別情報を前記本体装置に送信し、当該曲識別情報が示す曲の再生を要求する第1要求手段と、
前記曲識別情報と、前記第2特定手段により特定された前記像識別情報とを前記本体装置に送信し、前記曲識別情報が示す曲の再生に伴って前記仮想空間において前記像識別情報が示す像に行わせる動作を示す動作データの送信と、当該像識別情報が示す像の形状を示す形状データの送信とを要求する第2要求手段と、
前記第2要求手段による要求に応じて前記本体装置から送信された前記動作データおよび前記形状データと、前記第3特定手段により特定された前記視点とに基づいて、当該視点から前記仮想空間における前記像を見たときの前記画像を表示する表示手段と
を有し、
前記本体装置は、
像識別情報で識別される像の形状を示す形状データを、当該像識別情報ごとに対応付けて記憶する形状データ記憶手段と、
前記第1要求手段による要求に応じて前記曲識別情報が示す曲を再生する再生手段と、
前記第2要求手段による要求に応じて前記動作データおよび前記形状データを生成する生成手段と、
前記生成手段が生成した前記動作データおよび前記形状データを前記端末に送信する送信手段と
を有する
ことを特徴とするカラオケ装置。 A terminal,
A main unit and
The terminal
Storage means for storing song identification information for identifying a song and image identification information for identifying an image operating in a virtual space in association with reproduction of the song;
First identifying means for identifying song identification information of a song designated by the user;
Second specifying means for specifying image identification information corresponding to the music identification information specified by the first specifying means based on the storage content of the storage means;
Third specifying means for specifying a viewpoint in the virtual space according to a user operation;
First request means for transmitting the song identification information identified by the first identification means to the main unit and requesting reproduction of the song indicated by the song identification information;
The music identification information and the image identification information specified by the second specifying means are transmitted to the main device, and the image identification information indicates in the virtual space as the music indicated by the music identification information is reproduced. Second request means for requesting transmission of operation data indicating an operation to be performed on the image and transmission of shape data indicating the shape of the image indicated by the image identification information;
Based on the motion data and the shape data transmitted from the main body device in response to a request by the second request means, and the viewpoint specified by the third specifying means, the viewpoint in the virtual space from the viewpoint Display means for displaying the image when the image is viewed, and
The main unit is
Shape data storage means for storing shape data indicating the shape of the image identified by the image identification information in association with each image identification information;
Playback means for playing back the song indicated by the song identification information in response to a request from the first request means;
Generating means for generating the motion data and the shape data in response to a request by the second request means;
A karaoke apparatus comprising: transmission means for transmitting the motion data and the shape data generated by the generation means to the terminal.
前記本体装置の前記送信手段は、
前記複数の端末のそれぞれから前記第2要求手段により要求されたデータを、当該各端末にそれぞれ送信する
ことを特徴とする請求項1または2に記載のカラオケ装置。 A plurality of the terminals,
The transmission means of the main unit is
The karaoke apparatus according to claim 1 or 2, wherein the data requested by the second request unit from each of the plurality of terminals is transmitted to each terminal.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011101459A JP5981095B2 (en) | 2011-04-28 | 2011-04-28 | Karaoke device, terminal and main unit |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011101459A JP5981095B2 (en) | 2011-04-28 | 2011-04-28 | Karaoke device, terminal and main unit |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012233997A true JP2012233997A (en) | 2012-11-29 |
JP5981095B2 JP5981095B2 (en) | 2016-08-31 |
Family
ID=47434373
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011101459A Expired - Fee Related JP5981095B2 (en) | 2011-04-28 | 2011-04-28 | Karaoke device, terminal and main unit |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5981095B2 (en) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1195778A (en) * | 1997-09-19 | 1999-04-09 | Pioneer Electron Corp | Synchronous video forming method and karaoke machine using the same |
JPH11133987A (en) * | 1997-10-24 | 1999-05-21 | Daiichikosho Co Ltd | Karaoke device having feature in arranged animation display |
JPH11224084A (en) * | 1997-12-02 | 1999-08-17 | Yamaha Corp | Musical-sound responding image generation system, method and device and recording medium therefor |
JP2004177586A (en) * | 2002-11-26 | 2004-06-24 | Matsushita Electric Ind Co Ltd | Mobile communication terminal, and device and system for content reproduction |
JP2006011192A (en) * | 2004-06-29 | 2006-01-12 | Xing Inc | Electronic quick chart device |
JP2008089652A (en) * | 2006-09-29 | 2008-04-17 | Xing Inc | Karaoke device |
JP2008158996A (en) * | 2006-12-26 | 2008-07-10 | Chugoku Electric Power Co Inc:The | Information processor and information processing method |
JP2009223517A (en) * | 2008-03-14 | 2009-10-01 | Fujitsu Ltd | Information processing system, information processing method, and computer program |
JP2010224372A (en) * | 2009-03-25 | 2010-10-07 | Brother Ind Ltd | Avatar data creating device used in karaoke system |
JP2010280356A (en) * | 2009-06-08 | 2010-12-16 | Toyota Motor Corp | Onboard system, and load distribution method |
JP2011039854A (en) * | 2009-08-12 | 2011-02-24 | Brother Industries Ltd | Display terminal unit, and program and display method therefor |
-
2011
- 2011-04-28 JP JP2011101459A patent/JP5981095B2/en not_active Expired - Fee Related
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1195778A (en) * | 1997-09-19 | 1999-04-09 | Pioneer Electron Corp | Synchronous video forming method and karaoke machine using the same |
JPH11133987A (en) * | 1997-10-24 | 1999-05-21 | Daiichikosho Co Ltd | Karaoke device having feature in arranged animation display |
JPH11224084A (en) * | 1997-12-02 | 1999-08-17 | Yamaha Corp | Musical-sound responding image generation system, method and device and recording medium therefor |
JP2004177586A (en) * | 2002-11-26 | 2004-06-24 | Matsushita Electric Ind Co Ltd | Mobile communication terminal, and device and system for content reproduction |
JP2006011192A (en) * | 2004-06-29 | 2006-01-12 | Xing Inc | Electronic quick chart device |
JP2008089652A (en) * | 2006-09-29 | 2008-04-17 | Xing Inc | Karaoke device |
JP2008158996A (en) * | 2006-12-26 | 2008-07-10 | Chugoku Electric Power Co Inc:The | Information processor and information processing method |
JP2009223517A (en) * | 2008-03-14 | 2009-10-01 | Fujitsu Ltd | Information processing system, information processing method, and computer program |
JP2010224372A (en) * | 2009-03-25 | 2010-10-07 | Brother Ind Ltd | Avatar data creating device used in karaoke system |
JP2010280356A (en) * | 2009-06-08 | 2010-12-16 | Toyota Motor Corp | Onboard system, and load distribution method |
JP2011039854A (en) * | 2009-08-12 | 2011-02-24 | Brother Industries Ltd | Display terminal unit, and program and display method therefor |
Also Published As
Publication number | Publication date |
---|---|
JP5981095B2 (en) | 2016-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10953336B2 (en) | Role simulation method and terminal apparatus in VR scene | |
CN106924966B (en) | Game device and processing method | |
JP5420833B2 (en) | Game system | |
JP4247626B2 (en) | Playback apparatus and playback method | |
JP4755672B2 (en) | Content editing apparatus, method and program | |
JP3534345B1 (en) | GAME PROGRAM AND GAME DEVICE | |
JP2006235268A (en) | Radio terminal device and karaoke system | |
JP2009284953A (en) | Game device, game processing method, and program | |
JP2019101050A (en) | Program for assisting in performing musical instrument in virtual space, computer-implemented method for assisting in selecting musical instrument, and information processor | |
JP4238270B2 (en) | Game terminal, difficulty setting device, program, and recording medium | |
JP2008125721A (en) | Game device, operation evaluation method, and program | |
JP2010066789A (en) | Avatar editing server and avatar editing program | |
JP6438869B2 (en) | Karaoke device and karaoke program | |
JP7184661B2 (en) | Programs and electronics | |
JP6070652B2 (en) | Reference display device and program | |
JP5981095B2 (en) | Karaoke device, terminal and main unit | |
JP6196839B2 (en) | A communication karaoke system characterized by voice switching processing during communication duets | |
JP2018201652A (en) | Computer system and program | |
JP4918010B2 (en) | GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM | |
JP5210908B2 (en) | Moving image generating device, game device, moving image generating method, and program | |
JP6603734B2 (en) | GAME PROGRAM AND GAME DEVICE | |
JP2004283264A (en) | Game device, its control method, and program | |
JP6065224B2 (en) | Karaoke equipment | |
JP2015081985A (en) | Apparatus and system for realizing coordinated performance by multiple persons | |
JP6037557B2 (en) | Singing action advance notification system in collaboration singing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140220 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150212 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150217 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150414 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20150609 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150909 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20150917 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20151030 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160728 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5981095 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |