JP2012233997A - Karaoke device - Google Patents

Karaoke device Download PDF

Info

Publication number
JP2012233997A
JP2012233997A JP2011101459A JP2011101459A JP2012233997A JP 2012233997 A JP2012233997 A JP 2012233997A JP 2011101459 A JP2011101459 A JP 2011101459A JP 2011101459 A JP2011101459 A JP 2011101459A JP 2012233997 A JP2012233997 A JP 2012233997A
Authority
JP
Japan
Prior art keywords
song
data
image
identification information
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011101459A
Other languages
Japanese (ja)
Other versions
JP5981095B2 (en
Inventor
Yukio Tada
幸生 多田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2011101459A priority Critical patent/JP5981095B2/en
Publication of JP2012233997A publication Critical patent/JP2012233997A/en
Application granted granted Critical
Publication of JP5981095B2 publication Critical patent/JP5981095B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

PROBLEM TO BE SOLVED: To allow each terminal searching for a song according to a user's operation to display a moving image following the playback of the song.SOLUTION: In a karaoke device, a control part 11 searches a contents table DB121 for a song number according to an operation of a user on an operation part 13, identifies the person image number related to the song number by referring to a correspondence table 122, and sends an instruction signal to a main device 2 using a short-distance communication part 15. A control part 21 locates, from a song DB221, song data related to the song number indicated by the instruction signal that the main device 2 receives, reads out performance data to play the song, locates, from a person image DB222, person image data related to the person image number, generates spacial data using the person image data and action data included in the song data, and sends the spacial data to a terminal 1. The control part 11 locates eye point data depending on the posture of a frame detected by a sensor 133, and displays, on a display screen 141, an image according to the spacial and eye point data.

Description

本発明は、カラオケ装置による曲の再生に合わせて像を表示する技術に関する。   The present invention relates to a technique for displaying an image in accordance with the reproduction of a song by a karaoke apparatus.

演奏の進行に合わせて、カラオケ装置にその演奏を盛り上げるための演出を行わせる技術が開発されている。例えば、特許文献1には、演奏の進行に一致する歌詞表示とともに、動きを伴うポリゴン像が表示されるカラオケ装置が記載されている。   As the performance progresses, a technology has been developed that allows the karaoke apparatus to produce an effect to excite the performance. For example, Patent Document 1 describes a karaoke device that displays a polygon image accompanied by a motion as well as a lyric display that matches the progress of a performance.

特許第3668547号公報Japanese Patent No. 3668547

ところで、カラオケの曲をユーザが選択するときに用いられる端末が知られている。この端末は、曲を選択するための目次の情報をユーザに提示して、ユーザから曲を選択する操作を受け付けて、無線通信などによりカラオケ装置にその操作に応じた信号を送信する。しかしながら、この端末は選曲に用いられても、上述したような演出のために用いられることはなかった。   By the way, a terminal used when a user selects a karaoke song is known. This terminal presents information of a table of contents for selecting a song to the user, accepts an operation for selecting a song from the user, and transmits a signal corresponding to the operation to the karaoke apparatus by wireless communication or the like. However, even if this terminal is used for music selection, it has not been used for the effects as described above.

本発明は、上述の事情に鑑みてなされたものであり、ユーザの操作に応じて曲を特定する端末ごとに、その曲の再生に伴って動く像を表示させることを目的とする。   The present invention has been made in view of the above-described circumstances, and an object of the present invention is to display an image that moves with the reproduction of a song for each terminal that identifies the song in accordance with a user operation.

上述した課題を解決するため、本発明に係るカラオケ装置は、端末と、本体装置とを具備し、前記端末は、曲を識別する曲識別情報と、前記曲の再生に伴って仮想空間において動作する像を識別する像識別情報とを対応付けて記憶する記憶手段と、ユーザに指定された曲の曲識別情報を特定する第1特定手段と、前記第1特定手段により特定された曲識別情報に対応する像識別情報を前記記憶手段の記憶内容に基づいて特定する第2特定手段と、ユーザの操作に応じて前記仮想空間における視点を特定する第3特定手段と、前記第1特定手段により特定された前記曲識別情報を前記本体装置に送信し、当該曲識別情報が示す曲の再生を要求する第1要求手段と、前記第2特定手段により特定された前記像識別情報を前記本体装置に送信し、当該像識別情報が示す像を、前記曲の再生に伴って前記仮想空間において動作させたときの、当該像の当該仮想空間における位置および姿勢を示す空間データの送信を要求する第2要求手段と、前記第2要求手段による要求に応じて前記本体装置から送信された空間データと、前記第3特定手段により特定された前記視点とに基づいて、当該視点から前記仮想空間における前記像を見たときの前記画像を表示する表示手段とを有し、前記本体装置は、前記第1要求手段による要求に応じて前記曲識別情報が示す曲を再生する再生手段と、前記第2要求手段による要求に応じて前記空間データを生成する生成手段と、前記生成手段が生成した前記空間データを前記端末に送信する送信手段とを有することを特徴とする。   In order to solve the above-described problems, a karaoke apparatus according to the present invention includes a terminal and a main device, and the terminal operates in a virtual space along with song identification information for identifying a song and reproduction of the song. Storage means for associating and storing image identification information for identifying an image to be recorded, first specifying means for specifying song identification information of a song designated by the user, and song identification information specified by the first specifying means Second identification means for identifying image identification information corresponding to the storage means based on the stored contents of the storage means, third identification means for identifying a viewpoint in the virtual space in accordance with a user operation, and the first identification means The main body apparatus transmits the specified music identification information to the main body apparatus, and requests the reproduction of the music indicated by the music identification information, and the image identification information specified by the second specifying means. Send to us Second request means for requesting transmission of spatial data indicating the position and orientation of the image in the virtual space when the image indicated by the image identification information is operated in the virtual space as the music is reproduced; When viewing the image in the virtual space from the viewpoint based on the spatial data transmitted from the main body device in response to the request from the second request means and the viewpoint specified by the third specifying means Display means for displaying the image, and the main body device reproduces the music indicated by the music identification information in response to the request from the first request means, and responds to the request from the second request means. In response, the apparatus includes a generation unit that generates the spatial data and a transmission unit that transmits the spatial data generated by the generation unit to the terminal.

また、本発明に係るカラオケ装置は、端末と、本体装置とを具備し、前記端末は、曲を識別する曲識別情報と、前記曲の再生に伴って仮想空間において動作する像を識別する像識別情報とを対応付けて記憶する記憶手段と、ユーザに指定された曲の曲識別情報を特定する第1特定手段と、前記第1特定手段により特定された曲識別情報に対応する像識別情報を前記記憶手段の記憶内容に基づいて特定する第2特定手段と、ユーザの操作に応じて前記仮想空間における視点を特定する第3特定手段と、前記第1特定手段により特定された前記曲識別情報を前記本体装置に送信し、当該曲識別情報が示す曲の再生を要求する第1要求手段と、前記曲識別情報と、前記第2特定手段により特定された前記像識別情報とを前記本体装置に送信し、前記曲識別情報が示す曲の再生に伴って前記仮想空間において前記像識別情報が示す像に行わせる動作を示す動作データの送信と、当該像識別情報が示す像の形状を示す形状データの送信とを要求する第2要求手段と、前記第2要求手段による要求に応じて前記本体装置から送信された前記動作データおよび前記形状データと、前記第3特定手段により特定された前記視点とに基づいて、当該視点から前記仮想空間における前記像を見たときの前記画像を表示する表示手段とを有し、前記本体装置は、像識別情報で識別される像の形状を示す形状データを、当該像識別情報ごとに対応付けて記憶する形状データ記憶手段と、前記第1要求手段による要求に応じて前記曲識別情報が示す曲を再生する再生手段と、前記第2要求手段による要求に応じて前記動作データおよび前記形状データを生成する生成手段と、前記生成手段が生成した前記動作データおよび前記形状データを前記端末に送信する送信手段とを有することを特徴とする。   The karaoke apparatus according to the present invention includes a terminal and a main device, and the terminal identifies music identification information for identifying a song and an image for identifying an image that operates in a virtual space along with the reproduction of the song. Storage means for associating and storing identification information, first specifying means for specifying song identification information of a song designated by the user, and image identification information corresponding to the song identification information specified by the first specifying means Based on the stored contents of the storage means, second specifying means for specifying a viewpoint in the virtual space according to a user operation, and the song identification specified by the first specifying means First information means for transmitting information to the main body device and requesting reproduction of the music indicated by the music identification information; the music identification information; and the image identification information specified by the second specification means. Sent to the device, Transmission of operation data indicating an operation to be performed on the image indicated by the image identification information in the virtual space in association with reproduction of the music indicated by the identification information, and transmission of shape data indicating the shape of the image indicated by the image identification information Based on the second request means to request, the operation data and the shape data transmitted from the main body device in response to the request by the second request means, and the viewpoint specified by the third specification means, Display means for displaying the image when the image in the virtual space is viewed from the viewpoint, and the main body device stores shape data indicating the shape of the image identified by the image identification information. Shape data storage means for storing information in association with each other, reproduction means for reproducing the music indicated by the music identification information in response to a request from the first request means, and response to a request from the second request means And a sending means for sending said the operation data and generating means for generating the shape data, the operation data and the shape data the generating unit has generated to the terminal.

また、本発明に係るカラオケ装置は、上述した態様において、前記端末を複数具備し、前記本体装置の前記送信手段は、前記複数の端末のそれぞれから前記第2要求手段により要求されたデータを、当該各端末にそれぞれ送信することを特徴とする。   Moreover, the karaoke apparatus which concerns on this invention comprises the said terminal in multiple in the aspect mentioned above, The said transmission means of the said main body apparatus receives the data requested | required by the said 2nd request means from each of these terminals. It transmits to the said each terminal, It is characterized by the above-mentioned.

本発明によれば、ユーザの操作に応じて曲を特定する端末ごとに、その曲の再生に伴って動く像を表示させることができる。   ADVANTAGE OF THE INVENTION According to this invention, the image which moves with the reproduction | regeneration of the music can be displayed for every terminal which specifies music according to a user's operation.

本発明の実施形態に係るカラオケシステムの構成を示す図である。It is a figure which shows the structure of the karaoke system which concerns on embodiment of this invention. 本発明の実施形態に係るカラオケ装置の構成を示す図である。It is a figure which shows the structure of the karaoke apparatus which concerns on embodiment of this invention. 目次データベースの一例を示す図である。It is a figure which shows an example of a table of contents database. 表示画面に表示される選曲メニューの一例を示す図である。It is a figure which shows an example of the music selection menu displayed on a display screen. 表示画面に表示される歌手名のリストの一例を示す図である。It is a figure which shows an example of the list | wrist of the singer name displayed on a display screen. 表示画面に表示される歌手別の曲名リストの一例を示す図である。It is a figure which shows an example of the song name list according to singer displayed on a display screen. 対応表および指示信号の一例を示す図である。It is a figure which shows an example of a correspondence table and an instruction signal. 曲データベースの一例を示す図である。It is a figure which shows an example of a music database. データ構造を示す図である。It is a figure which shows a data structure. 人物像データベースの一例を示す図である。It is a figure which shows an example of a person image database. 端末で表示される人物像の概略を説明するための図である。It is a figure for demonstrating the outline of the person image displayed on a terminal. 人物像データの樹形構造の一例を示す図である。It is a figure which shows an example of the tree structure of person image data. カラオケ装置の機能的構成の一例を示すブロック図である。It is a block diagram which shows an example of a functional structure of a karaoke apparatus. カラオケ装置における人物像の表示に関する演算の流れを示す図である。It is a figure which shows the flow of the calculation regarding the display of the person image in a karaoke apparatus. カラオケ装置における演算を行う構成と、そのタイミングとを示す図である。It is a figure which shows the structure which performs the calculation in a karaoke apparatus, and its timing. カラオケ装置によってそれぞれ表示される画像例を示した図である。It is the figure which showed the example of an image each displayed by a karaoke apparatus. 変形例2における演算を行う構成と、そのタイミングとを示す図である。It is a figure which shows the structure which performs the calculation in the modification 2, and its timing. 変形例4における演算を行う構成と、そのタイミングとを示す図である。It is a figure which shows the structure which performs the calculation in the modification 4, and its timing. 変形例5における光源を特定する構成と、そのタイミングとを示す図である。It is a figure which shows the structure which identifies the light source in the modification 5, and its timing.

<実施形態>
(カラオケシステムの構成)
図1は、本発明の実施形態に係るカラオケシステム9の構成を示す図である。カラオケシステム9は、カラオケ装置3、インターネット等のネットワーク4、およびサーバ5を備える。カラオケ装置3は、端末1および本体装置2を有する。
サーバ5は、ネットワーク4を介して曲を表す曲データをカラオケ装置3の本体装置2に供給する。本体装置2は、サーバ5から供給された曲データを記憶する。端末1は、曲を特定するための操作をユーザから受け付けて、その操作に応じた信号を本体装置2に送信する。本体装置2は、端末1から信号を受け取り、この信号が示す曲の曲データを特定してその曲データに応じた演奏を行う。
<Embodiment>
(Composition of karaoke system)
FIG. 1 is a diagram showing a configuration of a karaoke system 9 according to an embodiment of the present invention. The karaoke system 9 includes a karaoke device 3, a network 4 such as the Internet, and a server 5. The karaoke device 3 includes a terminal 1 and a main device 2.
The server 5 supplies song data representing a song to the main device 2 of the karaoke device 3 via the network 4. The main device 2 stores the music data supplied from the server 5. The terminal 1 receives an operation for specifying a song from the user, and transmits a signal corresponding to the operation to the main body device 2. The main device 2 receives a signal from the terminal 1, specifies the music data of the music indicated by this signal, and performs the performance according to the music data.

(カラオケ装置の構成)
図2は、本発明の実施形態に係るカラオケ装置3の構成を示す図である。カラオケ装置3の端末1は、制御部11、記憶部12、操作部13、表示部14、および近距離通信部15を有する。カラオケ装置3の本体装置2は、制御部21、記憶部22、操作部23、表示部24、近距離通信部25、通信部26、および放音部27を有する。
(Composition of karaoke equipment)
FIG. 2 is a diagram showing a configuration of the karaoke apparatus 3 according to the embodiment of the present invention. The terminal 1 of the karaoke apparatus 3 includes a control unit 11, a storage unit 12, an operation unit 13, a display unit 14, and a short-range communication unit 15. The main device 2 of the karaoke device 3 includes a control unit 21, a storage unit 22, an operation unit 23, a display unit 24, a short-range communication unit 25, a communication unit 26, and a sound emission unit 27.

(端末の構成)
図2に基づき、端末1の構成について説明する。
制御部11は、CPU(Central Processing Unit)、ROM(Read Only Memory)、およびRAM(Random Access Memory)を備え、CPUが、ROMに記憶されているブートローダーや記憶部12に記憶されているプログラムをRAMに読み出して実行することにより、端末1の各部を制御する。記憶部12は、EEPROM(Electrically Erasable Programmable Read Only Memory)などの大容量の記憶手段であり、制御部11により利用されるプログラムを記憶する。
(Terminal configuration)
Based on FIG. 2, the structure of the terminal 1 is demonstrated.
The control unit 11 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory), and the CPU stores a boot loader stored in the ROM and a program stored in the storage unit 12. Are read into the RAM and executed to control each part of the terminal 1. The storage unit 12 is a large-capacity storage unit such as an EEPROM (Electrically Erasable Programmable Read Only Memory), and stores a program used by the control unit 11.

表示部14は、表示画面141を有し、制御部11の制御の下、操作を促す対話型ウインドウや本体装置2から送られたデータに基づいて人物像などをこの表示画面141に表示する。表示部14の表示画面141は、例えば、液晶を用いた表示素子などにより構成される。   The display unit 14 includes a display screen 141, and displays a person image and the like on the display screen 141 based on data sent from the interactive window that prompts the operation and the main body device 2 under the control of the control unit 11. The display screen 141 of the display unit 14 is configured by, for example, a display element using liquid crystal.

操作部13は、ボタンなど各種の指示を入力するための操作子131と、表示部14の表示画面141に重ねて配置された透明の感圧部材を備え、この感圧部材によりユーザの指などが触れた位置を検出して、この位置に応じた座標を示す信号を出力するタッチパネル132と、端末1の筐体の運動状態や姿勢などを検知してこれらに応じた信号を出力するセンサ133を備える。センサ133は、具体的には、加速度センサや角速度センサなどを含む。ユーザは、操作子131のボタンなどを押したり、タッチパネル132に触れたり、端末1の筐体を持ってその姿勢を変化させてセンサ133にこれを検知させたりすることで、端末1を用いたカラオケ装置3に対する操作を行う。操作部13は、これら操作子131、タッチパネル132、およびセンサ133などによりユーザの操作を受け付けてその操作内容に応じた信号を制御部11に送る。   The operation unit 13 includes an operation element 131 for inputting various instructions such as buttons, and a transparent pressure-sensitive member arranged on the display screen 141 of the display unit 14. A touch panel 132 that detects a position touched by the touch panel and outputs a signal indicating coordinates according to the position, and a sensor 133 that detects a motion state and a posture of the casing of the terminal 1 and outputs a signal corresponding to the motion state. Is provided. Specifically, the sensor 133 includes an acceleration sensor, an angular velocity sensor, and the like. The user uses the terminal 1 by pressing a button or the like of the operation element 131, touching the touch panel 132, or holding the casing of the terminal 1 to change its posture and causing the sensor 133 to detect this. Operation with respect to the karaoke apparatus 3 is performed. The operation unit 13 receives a user operation from the operation element 131, the touch panel 132, the sensor 133, and the like, and sends a signal corresponding to the operation content to the control unit 11.

近距離通信部15は、本体装置2との間で制御情報や各種のデータを通信するインターフェースであり、例えばIEEE 802.11、やIEEE 802.15などに準拠した近距離無線通信回路、IrDA(Infrared Data Association)などに準拠した無線インターフェースなどである。   The near field communication unit 15 is an interface that communicates control information and various data with the main body device 2. For example, a near field communication circuit compliant with IEEE 802.11, IEEE 802.15, etc., IrDA (Infrared Data Association) Wireless interface etc.

また、記憶部12は、目次データベース(以下、データベースを「DB」とも表記する)121と、対応表122とを備える。目次DB121は、ユーザに曲を特定させるための目次データを記憶する。対応表122は、各曲に固有の識別情報である曲番号と、人物像の識別情報である人物像番号とを対応付けて記憶する。人物像とは、曲の再生に伴って動作する像であって、例えば、歌手やダンサーを模倣またはデフォルメした像である。対応表122で各曲番号にそれぞれ対応付けられた人物像番号は、その曲番号に示す曲をユーザが特定したときに端末1で表示される人物像の人物像番号を表している。   The storage unit 12 includes a table of contents database (hereinafter, the database is also referred to as “DB”) 121 and a correspondence table 122. The table of contents DB 121 stores table of contents data for allowing a user to specify a song. The correspondence table 122 stores a song number that is identification information unique to each song and a person image number that is identification information of a person image in association with each other. A person image is an image that moves along with the reproduction of a song, for example, an image imitating or deforming a singer or dancer. The person image number associated with each song number in the correspondence table 122 represents the person image number of the person image displayed on the terminal 1 when the user specifies the song indicated by the song number.

ここで、図3〜図7を用いて、記憶部12の記憶内容について説明する。図3は、目次DB121の一例を示す図である。目次DB121は、曲番号、曲名、歌手名、ジャンル名、および発表年をそれぞれ示すフィールドを有し、各フィールドに記述されたデータを関連付ける。曲番号は、曲を識別する識別情報であり、1つの曲につき1つだけ割り当てられた固有の番号である。曲名はその曲の名前、すなわちタイトルを示す文字列である。歌手名はその曲を歌う歌手や演奏するグループなどの名前を示す文字列である。ジャンル名は、その曲が属する音楽のジャンルを示す文字列である。発表年は、その曲が公に発表された西暦年を示す数値である。   Here, the contents stored in the storage unit 12 will be described with reference to FIGS. FIG. 3 is a diagram illustrating an example of the table of contents DB 121. The table of contents DB 121 has fields indicating a song number, a song name, a singer name, a genre name, and an announcement year, and associates data described in each field. The song number is identification information for identifying a song, and is a unique number assigned to each song. The song name is a character string indicating the name of the song, that is, the title. The singer name is a character string indicating the name of a singer who sings the song or a group performing the song. The genre name is a character string indicating the genre of music to which the song belongs. The release year is a number that indicates the year in which the song was publicly announced.

一般に曲は曲名によって識別されるものであるが、同じ作詞家が歌詞を書き、同じ作曲家が作曲した曲が複数の歌手によって歌われることもあり、また、共通する題材を取り上げた結果、曲名が完全に一致する全く別の曲が作られることもある。また、同じ歌手が過去に発表した自分の持ち歌を後になって改めて録音するなどして発表しなおすこともある。この目次DB121は、曲名と、曲名以外のフィールドのうちいずれか1つとを組み合わせると必ずユニークなレコードが特定されるように記述されているが、このユニークなレコードをユニークな曲番号と対応付けることで、曲番号によって曲が特定されるように構成されている。図3に示すように、例えば、曲番号「P01」には、曲名「○▽○」、歌手名「あ○△」、ジャンル名「ポップ」、および発表年「2002」が対応付けられている。   In general, songs are identified by the title of the song, but the same songwriter writes the lyrics, and the song composed by the same composer may be sung by multiple singers. Sometimes a completely different song is created that completely matches. In some cases, the same singer re-releases his own songs that have been released in the past, such as recording again later. The table of contents DB 121 describes that a unique record is always specified when a song name and any one of the fields other than the song name are combined, but this unique record is associated with a unique song number. The song is identified by the song number. As shown in FIG. 3, for example, the song number “P01” is associated with the song name “○ ▽ ○”, the singer name “A ○ △”, the genre name “pop”, and the announcement year “2002”. .

図4は、表示画面141に表示される選曲メニューの一例を示す図である。選曲メニューは、端末1を使ってユーザが曲を特定するときに最初に表示されるメニューである。図4に示す選曲メニューは、「歌手名別」「曲名別」「ジャンル名別」「発表年別」の4つの項目を有する。ユーザはこの4つの項目からいずれかを選択して、自分の望む曲を探す。   FIG. 4 is a diagram showing an example of the music selection menu displayed on the display screen 141. The song selection menu is a menu that is displayed first when the user specifies a song using the terminal 1. The music selection menu shown in FIG. 4 has four items of “by singer name”, “by song name”, “by genre name”, and “by announcement year”. The user selects one of these four items and searches for a song he desires.

図5は、表示画面141に表示される歌手名のリストの一例を示す図である。この歌手名のリストは、図4に示した選曲メニューが表示されているときに、「歌手名別」の項目をユーザが選択した場合に、表示画面141に表示されるリストである。このリストは、歌手名を、その頭文字ごとに分類して配列する。図5に示す例では、五十音の各行にそれぞれ対応する複数のウインドウが重畳されて表示されている。各ウインドウの上部には、そのウインドウを選択するためのタブが設けられている。このタブには、五十音の各行を表す文字「あ」「か」「さ」「た」「な」「は」が記述されている。なお、「次頁」と記述されたタブは「ま」「や」「ら」「わ」の各文字を記述したタブを有するウインドウを表示させるためのボタンとして機能する。この例においては、タブ「あ」が選択されているため、五十音の各行のうち「あ」行の頭文字を有する歌手名がウインドウ内の上下方向に配列される。なお、これらの歌手名のリストがウインドウ内の上下方向に入りきらない場合には、ウインドウの右端にあるスクロールバーを用いて上下に移動させられるようになっている。また、「ローマ字」と記述されたボタンの位置にユーザが触れると、歌手名の頭文字を用いた分類が五十音別からローマ字別に切り替わるようになっている。   FIG. 5 is a diagram showing an example of a singer name list displayed on the display screen 141. This list of singer names is a list displayed on the display screen 141 when the user selects the “by singer name” item when the music selection menu shown in FIG. 4 is displayed. In this list, singer names are classified and arranged according to their initials. In the example shown in FIG. 5, a plurality of windows corresponding to each line of the Japanese syllabary are superimposed and displayed. A tab for selecting the window is provided at the top of each window. In this tab, characters “a”, “ka”, “sa”, “ta”, “na”, and “ha” representing each line of the Japanese syllabary are described. The tab described as “next page” functions as a button for displaying a window having tabs describing characters “ma”, “ya”, “ra”, and “wa”. In this example, since the tab “A” is selected, the names of the singers having the initials of the “A” line among the lines of the Japanese syllabary are arranged vertically in the window. If the list of singer names does not fit in the vertical direction in the window, the list can be moved up and down using a scroll bar at the right end of the window. In addition, when the user touches the position of a button described as “Romaji”, the classification using the initial letters of the singer's name is switched from alphabet to alphabet.

図6は、表示画面141に表示される歌手別の曲名リストの一例を示す図である。この曲名リストは、図5に示した歌手名のリストが表示されているときに、歌手名「あ○△」の項目をユーザが選択した場合に、表示画面141に表示されるリストである。このリストは、「あ○△」が発表した持ち歌の曲名をウインドウ内の上下方向に配列したものである。なお、これら曲名のリストがウインドウ内の上下方向に入りきらない場合には、ウインドウの右端にあるスクロールバーを用いて上下に移動させられるようになっている。   FIG. 6 is a diagram illustrating an example of a song name list for each singer displayed on the display screen 141. This song name list is a list displayed on the display screen 141 when the user selects the item of the singer name “A ○ Δ” when the singer name list shown in FIG. 5 is displayed. In this list, the names of songs owned by “AOO” are arranged in the vertical direction in the window. If the list of music titles does not fit in the vertical direction in the window, it can be moved up and down using a scroll bar at the right end of the window.

ユーザが、図6に示した歌手別の曲名リストが表示されているときに、曲名「○▽○」の項目を選択した場合、歌手名「あ○△」と曲名「○▽○」とが特定されるため、目次DB121において、これらの組に対応付けられた曲番号「P01」が定まる。   When the user selects the item “○ ▽ ○” when the song name list for each singer shown in FIG. 6 is displayed, the singer name “A ○ △” and the song name “○ ▽ ○” are displayed. Therefore, the music number “P01” associated with these sets is determined in the table of contents DB 121.

図7は、対応表122および指示信号の一例を示す図である。図7(a)に示す対応表122において、例えば曲番号「P01」は人物像番号「M01」に対応付けられている。したがって、曲番号「P01」に示す曲をユーザが選択した場合に、対応表122において、その曲番号「P01」に対応付けられている人物像番号「M01」が制御部11によって特定される。   FIG. 7 is a diagram illustrating an example of the correspondence table 122 and the instruction signal. In the correspondence table 122 shown in FIG. 7A, for example, the song number “P01” is associated with the person image number “M01”. Therefore, when the user selects the song indicated by the song number “P01”, the control unit 11 identifies the person image number “M01” associated with the song number “P01” in the correspondence table 122.

これにより端末1の制御部11は、図7(b)に示すように、曲番号「P01」に人物像番号「M01」を付加した信号を生成し、これをユーザの選曲に基づく指示を示す指示信号として、近距離通信部15を用いて本体装置2へ送信する。その結果、人物像番号「M01」で識別される人物像の人物像データが、本体装置2から端末1へ送られ、端末1の表示画面141にこの人物像が表示される。   As a result, the control unit 11 of the terminal 1 generates a signal in which the person image number “M01” is added to the music number “P01” as shown in FIG. 7B, and indicates the instruction based on the user's music selection. An instruction signal is transmitted to the main device 2 using the short-range communication unit 15. As a result, the person image data of the person image identified by the person image number “M01” is sent from the main unit 2 to the terminal 1, and this person image is displayed on the display screen 141 of the terminal 1.

(本体装置の構成)
図2に戻り、カラオケ装置3の本体装置2の構成について説明する。
制御部21は、CPU、ROM、およびRAMを備え、CPUが、ROMに記憶されているブートローダーや記憶部22に記憶されているプログラムをRAMに読み出して実行することにより、本体装置2の各部を制御する。記憶部22は、ハードディスクドライブなどの大容量の記憶手段であり、制御部21により利用されるプログラムを記憶する。また、記憶部22は、曲を示す曲データを記憶する曲DB221と、人物像を示す人物像データを記憶する人物像DB222とを備える。
(Configuration of main unit)
Returning to FIG. 2, the configuration of the main device 2 of the karaoke apparatus 3 will be described.
The control unit 21 includes a CPU, a ROM, and a RAM, and the CPU reads out the boot loader stored in the ROM and the program stored in the storage unit 22 to the RAM and executes the program, whereby each unit of the main body device 2 is executed. To control. The storage unit 22 is a large-capacity storage unit such as a hard disk drive, and stores a program used by the control unit 21. In addition, the storage unit 22 includes a song DB 221 that stores song data indicating a song, and a person image DB 222 that stores person image data indicating a person image.

ここで、図8〜図12を用いて、記憶部22の記憶内容について説明する。図8は、曲DB221の一例を示す図である。曲データは、演奏データ、背景データ、歌詞データ、および動作データを含む。演奏データとは、その曲が演奏されるときに発音される楽音と、その発音されるタイミングとを対応付けたデータである。背景データとは、演奏の進行に伴って本体装置2において表示される静止画像や動画などと、その表示されるタイミングとを対応付けたデータである。歌詞データとは、演奏の進行にあわせて表示すべき歌詞の情報を時系列に記録したデータであり、歌詞を表す文字列と、色替えのタイミングなどが記述されたものである。動作データとは、演奏の進行に伴って端末1において表示される人物像の動作と、その表示されるタイミングとを対応付けたデータである。曲DB221は、曲番号、演奏データ、背景データ、歌詞データ、および動作データをそれぞれ示すフィールドを有し、各フィールドに記述されたデータを関連付ける。これにより、曲DB221は、曲番号と曲データとを対応付けて記憶する。   Here, the contents stored in the storage unit 22 will be described with reference to FIGS. FIG. 8 is a diagram illustrating an example of the music DB 221. The song data includes performance data, background data, lyrics data, and motion data. The performance data is data in which a musical sound that is generated when the music is played is associated with a timing at which the musical sound is generated. The background data is data in which a still image or a moving image displayed on the main device 2 as the performance progresses and the display timing are associated with each other. The lyric data is data in which lyric information to be displayed is recorded in time series in accordance with the progress of the performance, and describes a character string representing the lyrics, timing of color change, and the like. The motion data is data in which the motion of the person image displayed on the terminal 1 as the performance progresses is associated with the display timing. The song DB 221 has fields indicating song numbers, performance data, background data, lyrics data, and motion data, and associates data described in each field. Accordingly, the song DB 221 stores the song number and the song data in association with each other.

図9は、演奏データ、背景データ、歌詞データ、および動作データの各データ構造を示す図である。図9(a)に示すように各データは、いずれもヘッダ部とデータ本体部とに区画されている。ヘッダ部には、データ本体部に格納された情報の取り扱いに用いるパラメータやその情報の記述形式の種類などが記述されている。データ本体部に格納された情報は、図9(b)に示すように、「時間」を示すタイミング情報と「イベント」を示すイベント情報とが対応付けられたリスト構造を有する。   FIG. 9 is a diagram showing data structures of performance data, background data, lyrics data, and motion data. As shown in FIG. 9A, each data is divided into a header part and a data body part. In the header part, parameters used for handling information stored in the data body part, the type of description format of the information, and the like are described. As shown in FIG. 9B, the information stored in the data body has a list structure in which timing information indicating “time” and event information indicating “event” are associated with each other.

このイベント情報は、データが演奏データであれば、例えばノートオンやノートオフなど、楽音の演奏に関するイベントを表すものである。また、このイベント情報は、背景データであれば、静止画像や、新たに描かれるべきフレームの画像を直前のフレームの画像から予測するために用いられるフレーム間予測情報など、背景の表示に関するイベントを表すものである。また、このイベント情報は、歌詞データであれば、歌詞を示す文字列や、その文字列のうちどの部分を歌っているかをその文字列中の各文字の色を変化させることにより示す場合において、その色替え位置に関するイベントを表すものである。また、このイベント情報は、動作データであれば、例えば人物像の移動方向や、人物像を構成する関節まわりの運動方向の情報など、人物像の動作に関するイベントを表すものである。タイミング情報は、これらのイベントを発生させるべきタイミングを表すものである。   If the data is performance data, this event information represents an event related to musical performance such as note-on and note-off. Also, if this event information is background data, events related to background display such as still images and inter-frame prediction information used for predicting a frame image to be newly drawn from the image of the immediately preceding frame are included. It represents. In addition, if the event information is lyrics data, in the case of indicating by changing the color of each character in the character string indicating the lyrics and which part of the character string is being sung, It represents an event related to the color change position. In addition, if the event information is motion data, it represents an event related to the motion of the person image, such as information on the moving direction of the person image and the motion direction around the joints constituting the person image. The timing information represents the timing at which these events should be generated.

図9(b)に示すように、タイミング情報「123」には、イベント情報「イベントα」が対応付けられている。これはタイミング情報「123」が示すタイミング(例えば、曲の演奏開始から123ミリ秒経過したタイミングや、123回目にフレームを描き換えるタイミングなど)に、イベントαを発生させることを表している。   As shown in FIG. 9B, the event information “event α” is associated with the timing information “123”. This represents that the event α is generated at the timing indicated by the timing information “123” (for example, the timing at which 123 milliseconds have elapsed from the start of the music performance, the timing at which the frame is redrawn at the 123rd time, or the like).

図10は、人物像DB222の一例を示す図である。人物像DB222は、人物像を識別する番号である人物像番号と、その人物像のデータである人物像データとを対応付けて記憶する。図11は、端末1で表示される人物像の概略を説明するための図である。図11に示すように、人物像は、仮想的な直交座標空間であるxyz座標空間(仮想空間)に配置される。人物像は、人間の体の形状を部位ごとにそれぞれポリゴンのパーツCHとして表現し、これら複数のパーツCHを組み合わせて構成されている。複数のパーツCHは、人物像データにおいて樹形構造で記憶されている。図12は、人物像データの樹形構造の一例を示す図である。図12に示すように、人物像データにおいて複数のパーツは、腰を示すパーツを根とする樹形構造をなしている。すなわち、根のパーツである「腰」には、「胸」「右上腿」「左上腿」の3つのパーツが接続されており、さらに「胸」には、「頭」「右上腕」「左上腕」の3つのパーツが接続されている。人物像データには、各パーツの形状を表すポリゴンデータと、標準の状態における各パーツ間の接続位置や角度などが記述されている。人物像データには、さらに各パーツの表面の質感や色合い、模様などを示すテクスチャーデータを含んでいてもよい。要するに、人物像DB222は、人物像番号(像識別情報)で識別される人物像の形状を示す人物像データ(形状データ)を、その人物像番号ごとに対応付けて記憶する。   FIG. 10 is a diagram illustrating an example of the person image DB 222. The person image DB 222 stores a person image number that is a number for identifying a person image and person image data that is data of the person image in association with each other. FIG. 11 is a diagram for explaining an outline of a person image displayed on the terminal 1. As shown in FIG. 11, the human image is arranged in an xyz coordinate space (virtual space) that is a virtual orthogonal coordinate space. The human image is configured by expressing the shape of the human body as a polygonal part CH for each part and combining these parts CH. The plurality of parts CH are stored in a tree structure in the person image data. FIG. 12 is a diagram illustrating an example of a tree structure of person image data. As shown in FIG. 12, in the human image data, the plurality of parts have a tree-like structure with the part indicating the waist as a root. That is, three parts of “chest”, “upper right thigh”, and “upper left thigh” are connected to the “hip” that is the root part, and “head”, “upper right arm”, “upper left” are further connected to “chest”. Three parts of "arms" are connected. In the person image data, polygon data representing the shape of each part and the connection position and angle between the parts in the standard state are described. The person image data may further include texture data indicating the texture, color, pattern, etc. of the surface of each part. In short, the person image DB 222 stores person image data (shape data) indicating the shape of the person image identified by the person image number (image identification information) in association with each person image number.

動作データは、演奏の進行に合わせた動作を人物像に行わせるために必要なパラメータが記載されている。これらのパラメータは、例えば、xyz座標空間上における人物像の配置を示す数値や、その人物像の各パーツ間の接続位置や角度の変化を示す数値などである。図11に示す例において、人物像の配置を示す数値とは、「腰」の重心POの座標である。また、パーツ間の接続の角度を示す数値とは、例えば図11に示すように人物像の左上腕と左前腕との角度JAである。   In the motion data, parameters necessary for causing the human figure to perform a motion in accordance with the progress of the performance are described. These parameters are, for example, a numerical value indicating the arrangement of the human image in the xyz coordinate space, a numerical value indicating a change in the connection position or angle between the parts of the human image, and the like. In the example shown in FIG. 11, the numerical value indicating the arrangement of the human image is the coordinates of the center of gravity PO of “waist”. Further, the numerical value indicating the connection angle between the parts is, for example, an angle JA between the upper left arm and the left forearm of the person image as shown in FIG.

図2に戻って本体装置2の説明を続ける。
表示部24は、表示画面241を有し、制御部21の制御の下、曲DB221から読み出された曲データのうち、歌詞データや背景データに基づいて、曲の演奏の進行に一致する歌詞や背景映像などをこの表示画面241に表示する。表示部24の表示画面241は、例えば、液晶を用いた表示素子などにより構成される。
Returning to FIG. 2, the description of the main unit 2 will be continued.
The display unit 24 has a display screen 241, and under the control of the control unit 21, lyrics that match the progress of the performance of the song based on the lyrics data and the background data among the song data read from the song DB 221. And a background video are displayed on the display screen 241. The display screen 241 of the display unit 24 is configured by, for example, a display element using liquid crystal.

操作部23は、ボタンなど各種の指示を入力するための操作子231と、ユーザが発する歌唱音声を収音した音信号を放音部27へ送出するマイク232とを備える。操作子231は、ユーザにより入力された指示を示す信号を制御部21に送出する。   The operation unit 23 includes an operation element 231 for inputting various instructions such as buttons, and a microphone 232 that transmits a sound signal obtained by collecting a singing voice uttered by the user to the sound emission unit 27. The operator 231 sends a signal indicating an instruction input by the user to the control unit 21.

近距離通信部25は、端末1の近距離通信部15との間で制御情報や各種のデータを通信するインターフェースであり、例えばIEEE 802.11、やIEEE 802.15などに準拠した近距離無線通信回路、IrDAなどに準拠した無線インターフェースなどである。   The short-range communication unit 25 is an interface that communicates control information and various data with the short-range communication unit 15 of the terminal 1. For example, a short-range wireless communication circuit compliant with IEEE 802.11, IEEE 802.15, or the like, IrDA Wireless interface etc.

通信部26は、ネットワーク4を介してサーバ5から曲データを受信するためのインターフェースであり、例えば各種のモデムやIMT-2000に準拠した無線通信回路、あるいは、USB(Universal Serial Bus)規格に準拠したシリアルインターフェースなどである。   The communication unit 26 is an interface for receiving music data from the server 5 via the network 4, for example, various modems, wireless communication circuits compliant with IMT-2000, or USB (Universal Serial Bus) standards Serial interface.

放音部27は、音源回路(TG:Tone Generator)と、ミキサと、増幅器と、スピーカとを備える。音源回路は曲DB221から読み出された曲データのうち、演奏データに基づいて楽音の合成を行う。ミキサは、音源回路により合成された楽音と、マイク232により送出された音信号とを決められた割合でミキシングする。増幅器は、ミキサによりミキシングされた信号を増幅する。スピーカは増幅器で増幅された信号に応じた音を放音する。   The sound emitting unit 27 includes a sound source circuit (TG), a mixer, an amplifier, and a speaker. The tone generator circuit synthesizes musical sounds based on performance data among the music data read from the music DB 221. The mixer mixes the musical sound synthesized by the sound source circuit and the sound signal transmitted from the microphone 232 at a predetermined ratio. The amplifier amplifies the signal mixed by the mixer. The speaker emits a sound corresponding to the signal amplified by the amplifier.

(カラオケ装置の機能的構成)
図13は、カラオケ装置3の機能的構成の一例を示すブロック図である。図13に示すように、カラオケ装置3に備えられている端末1の制御部11と、本体装置2の制御部21は、それぞれ様々な機能を実現する。具体的には、制御部11は、第1特定部111、第2特定部112、第3特定部113、第1要求部114、第2要求部115、および表示制御部116として機能する。また、制御部21は、再生部211、生成部212、および送信部213として機能する。以下、これらの機能について説明する。なお、端末1と本体装置2との通信は、図2で示したように近距離通信部15および近距離通信部25を介して行われるが、図13においてこれらを省略する。
(Functional configuration of karaoke equipment)
FIG. 13 is a block diagram illustrating an example of a functional configuration of the karaoke apparatus 3. As illustrated in FIG. 13, the control unit 11 of the terminal 1 and the control unit 21 of the main body device 2 provided in the karaoke apparatus 3 each realize various functions. Specifically, the control unit 11 functions as a first specifying unit 111, a second specifying unit 112, a third specifying unit 113, a first request unit 114, a second request unit 115, and a display control unit 116. Further, the control unit 21 functions as a reproduction unit 211, a generation unit 212, and a transmission unit 213. Hereinafter, these functions will be described. In addition, although communication with the terminal 1 and the main body apparatus 2 is performed via the near field communication part 15 and the near field communication part 25 as shown in FIG. 2, these are abbreviate | omitted in FIG.

第1特定部111(第1特定手段)は、操作部13の操作子131やタッチパネル132が受け付けたユーザの操作に応じて、そのユーザによって指定された曲の識別情報を特定する。具体的に、第1特定部111は、上述した図4に示すようなメニュー画面を表示部14の表示画面141に表示させ、操作子131やタッチパネル132を介したユーザの指示を受け付けて、記憶部12の目次DB121に記憶されているいずれか1つの曲番号(曲識別情報)を特定する。   The first specifying unit 111 (first specifying unit) specifies the identification information of the song designated by the user in response to the user's operation received by the operator 131 or the touch panel 132 of the operation unit 13. Specifically, the first specifying unit 111 displays the above-described menu screen as shown in FIG. 4 on the display screen 141 of the display unit 14, receives a user instruction via the operator 131 or the touch panel 132, and stores the menu screen. Any one song number (song identification information) stored in the table of contents DB 121 of the unit 12 is specified.

第2特定部112(第2特定手段)は、第1特定部111により特定された曲番号に対応する人物像番号(像識別情報)を、対応表122に基づいて特定する。具体的に、第2特定部112は、第1特定部111によって特定された曲番号を、対応表122の中から探し出し、その曲番号に対応付けられた人物像番号を特定する。   The second specifying unit 112 (second specifying unit) specifies the person image number (image identification information) corresponding to the song number specified by the first specifying unit 111 based on the correspondence table 122. Specifically, the second specifying unit 112 searches the correspondence table 122 for the song number specified by the first specifying unit 111, and specifies the person image number associated with the song number.

第3特定部113(第3特定手段)は、センサ133によって検知したユーザの操作に応じて、上述したxyz座標空間における視点を特定する。この視点は、xyz座標空間を見る位置や方向、画角などを特定するものであって、この視点からxyz座標空間を見つけたときの画像が端末1の表示部14に表示される。視点については後述する。   The third specifying unit 113 (third specifying unit) specifies the viewpoint in the above-described xyz coordinate space in accordance with the user operation detected by the sensor 133. This viewpoint specifies the position, direction, angle of view, and the like of viewing the xyz coordinate space, and an image when the xyz coordinate space is found from this viewpoint is displayed on the display unit 14 of the terminal 1. The viewpoint will be described later.

第1要求部114(第1要求手段)は、第1特定部111により特定された曲番号を本体装置2に送信し、その曲番号が示す曲の再生を要求する。
再生部211(再生手段)は、第1要求部114による要求に応じて上述した曲番号が示す曲を再生する。具体的に、再生部211は、曲番号を指定した曲の再生の要求を端末1から受け取ると、記憶部22の曲DB221からこの曲番号に対応付けられた曲データを探し出し、その曲データに含まれる演奏データを読み出す。そして、再生部211は、読みだした演奏データに応じた楽音信号を生成し、放音部27を用いて、この楽音信号に応じた放音を行わせる。
The first requesting unit 114 (first requesting unit) transmits the music number specified by the first specifying unit 111 to the main device 2 and requests the reproduction of the music indicated by the music number.
The reproduction unit 211 (reproduction unit) reproduces the song indicated by the above-described song number in response to the request from the first request unit 114. Specifically, when the playback unit 211 receives a playback request for a song for which a song number is specified from the terminal 1, the playback unit 211 searches the song DB 221 in the storage unit 22 for song data associated with the song number, and stores the song data in the song data. Read the performance data included. Then, the reproduction unit 211 generates a musical sound signal corresponding to the read performance data, and uses the sound emitting unit 27 to emit sound according to the musical sound signal.

第2要求部115(第2要求手段)は、第2特定部112により特定された人物像番号を本体装置2に送信し、その人物像番号が示す人物像を、上述した曲の再生に伴ってxyz座標空間において動作させたときの、その人物像のxyz座標空間における位置および姿勢を示す空間データの送信を要求する。
生成部212(生成手段)は、第2要求部115による要求に応じて空間データを生成する。具体的に、生成部212は、人物像番号を端末1から受け取ると、記憶部22の人物像DB222からこの人物像番号に対応付けられた人物像データを探し出す。また、生成部212は、再生部211で探し出された上述の曲データから動作データを読み出す。そして、生成部212は、動作データと人物像データとを用いて空間データを生成する。すなわち、生成部212は、読みだした人物像データに基づく人物像の各パーツを、動作データに基づいてxyz座標空間のそれぞれの位置に配置して、空間データを生成する。
The second requesting unit 115 (second requesting unit) transmits the person image number specified by the second specifying unit 112 to the main body device 2, and the person image indicated by the person image number is associated with the reproduction of the music described above. Requesting the transmission of spatial data indicating the position and orientation of the person image in the xyz coordinate space when operated in the xyz coordinate space.
The generation unit 212 (generation unit) generates spatial data in response to a request from the second request unit 115. Specifically, when the generation unit 212 receives a person image number from the terminal 1, the generation unit 212 searches the person image DB 222 of the storage unit 22 for person image data associated with the person image number. In addition, the generation unit 212 reads operation data from the above-described song data searched for by the reproduction unit 211. Then, the generation unit 212 generates spatial data using the operation data and the person image data. That is, the generation unit 212 generates spatial data by arranging each part of the human image based on the read human image data at each position in the xyz coordinate space based on the motion data.

送信部213(送信手段)は、生成部212で生成された空間データを端末1に送信する。表示制御部116(表示手段)は、本体装置2から送信された空間データと、第3特定部113により特定された視点に基づいて、上述したxyz座標空間における人物像をその視点から見たときの画像を表示部14の表示画面141を用いて表示する。   The transmission unit 213 (transmission unit) transmits the spatial data generated by the generation unit 212 to the terminal 1. When the display control unit 116 (display unit) views the person image in the xyz coordinate space described above from the viewpoint based on the spatial data transmitted from the main device 2 and the viewpoint specified by the third specifying unit 113. These images are displayed using the display screen 141 of the display unit 14.

(カラオケ装置の動作)
図14は、カラオケ装置3における人物像の表示に関する演算の流れを示す図である。まず、カラオケ装置3は人物像データと動作データとを用いて第1演算を行う。第1演算とは、人物像データが示す人物像を動作データに基づいてxyz座標空間に配置するとともに、この人物像にポーズ(姿勢)を取らせるための演算である。第1演算により、xyz座標空間において人物像が取るべきポーズを取り、配置されるべき位置に配置された空間を示す空間データが生成される。したがって、第1演算は、図13における生成部212が行う。なお、図14に破線で示すように、第1演算は、既に生成された空間データをさらに用いて、新たな空間データを生成してもよい。この場合、動作データには、例えば前回のタイミングから今回のタイミングまでの動作の差分を示すデータが記述されていればよい。
(Karaoke device operation)
FIG. 14 is a diagram showing a flow of calculation regarding display of a person image in the karaoke apparatus 3. First, the karaoke apparatus 3 performs a first calculation using the person image data and the operation data. The first calculation is a calculation for placing the person image indicated by the person image data in the xyz coordinate space based on the operation data and causing the person image to take a pose (posture). By the first calculation, a pose to be taken by the person image in the xyz coordinate space is taken, and spatial data indicating the space arranged at the position to be arranged is generated. Accordingly, the first calculation is performed by the generation unit 212 in FIG. As indicated by a broken line in FIG. 14, the first calculation may generate new spatial data by further using the already generated spatial data. In this case, the operation data only needs to describe data indicating a difference in operation from the previous timing to the current timing, for example.

次に、カラオケ装置3は、第1演算で得られた空間データと、xyz座標空間において人物像を見る視点座標や画角などを表す視点データと、xyz座標空間において人物像に光を照射する光源の位置やその光の色などを表す光源データとを用いて第2演算を行う。視点データとは、例えば図11において視点座標PVと画角VAである。視点座標PVは、xyz座標空間における視点の座標を示す。画角VAは、xyz座標空間において視点座標PVから見える視野の範囲を示す。光源データに含まれる光源の位置とは、例えば図11における光源PLである。第2演算は、いわゆる三次元レンダリングと呼ばれる演算を含む。図11に示す例において、第2演算は、光源PLから照射される光が人物像データを構成する各パーツCHの表面によって反射される割合を計算し、その表面から反射される反射光のうち、視点座標PVに向かうものを抽出する。そして抽出されたこれらの反射光に応じた色の階調値を画角VAによって定まる画像領域に配置することで視点座標PVから画角VAの範囲でxyz座標空間を見たときに見える画像を示した画像データを生成する。したがって、第2演算は、図13における表示制御部116が行う。   Next, the karaoke apparatus 3 irradiates light on the person image in the xyz coordinate space, the spatial data obtained by the first calculation, the viewpoint data indicating the viewpoint coordinates and the angle of view of the person image in the xyz coordinate space, and the like. The second calculation is performed using light source data representing the position of the light source and the color of the light. The viewpoint data is, for example, viewpoint coordinates PV and angle of view VA in FIG. The viewpoint coordinate PV indicates the coordinates of the viewpoint in the xyz coordinate space. The angle of view VA indicates the range of the visual field that can be seen from the viewpoint coordinate PV in the xyz coordinate space. The position of the light source included in the light source data is, for example, the light source PL in FIG. The second operation includes a so-called three-dimensional rendering. In the example shown in FIG. 11, the second calculation calculates the ratio that the light emitted from the light source PL is reflected by the surface of each part CH constituting the human image data, and out of the reflected light reflected from the surface Then, the object that goes to the viewpoint coordinate PV is extracted. Then, by arranging the gradation value of the color corresponding to the extracted reflected light in the image area determined by the angle of view VA, an image that can be seen when viewing the xyz coordinate space in the range of the view angle VA to the angle of view VA is obtained. The shown image data is generated. Accordingly, the second calculation is performed by the display control unit 116 in FIG.

図15は、カラオケ装置3における演算を行う構成と、そのタイミングとを示す図である。端末1の制御部11は、操作部13で受け付けた操作に基づいて記憶部12の目次DB121から曲番号を特定し(ステップS101)、対応表122を参照してその曲番号に対応付けられた人物像番号を特定する(ステップS102)。そして制御部11は、近距離通信部15を用いて、図7(b)に示したような指示信号を本体装置2の近距離通信部25へ送信する(ステップS103)。   FIG. 15 is a diagram showing a configuration for performing calculation in the karaoke apparatus 3 and its timing. The control unit 11 of the terminal 1 specifies the song number from the table of contents DB 121 of the storage unit 12 based on the operation received by the operation unit 13 (step S101), and is associated with the song number with reference to the correspondence table 122. A person image number is specified (step S102). And the control part 11 transmits the instruction | indication signal as shown in FIG.7 (b) to the near field communication part 25 of the main body apparatus 2 using the near field communication part 15 (step S103).

本体装置2の制御部21は、指示信号を受け取るとこの指示信号が示す曲番号に対応付けられた曲データを曲DB221から見つけ出し、これに含まれる演奏データを読み出して曲の演奏を行う(ステップS104)。また、制御部21は、指示信号が示す人物像番号に対応付けられた人物像データを人物像DB222から見つけ出し、この人物像データと上述した曲データに含まれる動作データとを用いて第1演算を行う(ステップS105)。なお、制御部21は、曲データに含まれる背景データや歌詞データに基づいて、演奏の進行に伴って表示されるべき背景映像や歌詞を表示部24の表示画面241に表示させる。   When the control unit 21 of the main device 2 receives the instruction signal, it finds the music data associated with the music number indicated by the instruction signal from the music DB 221 and reads the performance data included therein to perform the music (step) S104). Further, the control unit 21 finds out the person image data associated with the person image number indicated by the instruction signal from the person image DB 222, and uses the person image data and the operation data included in the music data described above to perform the first calculation. Is performed (step S105). The control unit 21 causes the display screen 241 of the display unit 24 to display background video and lyrics to be displayed as the performance progresses based on the background data and lyrics data included in the song data.

端末1のセンサ133は、端末1の筐体の姿勢を検知し、この姿勢に応じた信号を制御部11に送る(ステップS106)。制御部11は、センサ133が検知した筐体の姿勢に応じて、xyz座標空間における視点データを加工して、現在の視点を特定する(ステップS107)。例えば、ユーザによって端末1の筐体が傾けられた場合に、制御部11はセンサ133から送られた信号を解析してその傾きの角度を求め、この角度に応じて視点データに含まれる画角が傾くようにそのデータ内容を書き換える。また、制御部11は、操作部13の操作子131やタッチパネル132により受け付けられた操作に応じて視点データを加工してもよい。なお、この例では光源データはxyz座標空間において固定されているものとする。   The sensor 133 of the terminal 1 detects the attitude of the casing of the terminal 1, and sends a signal corresponding to this attitude to the control unit 11 (step S106). The control unit 11 processes the viewpoint data in the xyz coordinate space according to the posture of the casing detected by the sensor 133, and specifies the current viewpoint (step S107). For example, when the housing of the terminal 1 is tilted by the user, the control unit 11 analyzes the signal sent from the sensor 133 to obtain the tilt angle, and the angle of view included in the viewpoint data according to this angle. The data contents are rewritten so that is inclined. In addition, the control unit 11 may process the viewpoint data in accordance with an operation received by the operator 131 of the operation unit 13 or the touch panel 132. In this example, it is assumed that the light source data is fixed in the xyz coordinate space.

制御部21は、第1演算を行うことにより生成された空間データを、近距離通信部25を用いて端末1へ送信する(ステップS108)。端末1の制御部11は、本体装置2から送信された空間データと、上述した光源データと、視点データとを用いて第2演算を行う(ステップS109)。そして、制御部11は、第2演算により生成された画像データに応じた画像を、表示部14の表示画面141に表示させる(ステップS110)。   The control unit 21 transmits the spatial data generated by performing the first calculation to the terminal 1 using the short-range communication unit 25 (step S108). The control unit 11 of the terminal 1 performs the second calculation using the spatial data transmitted from the main device 2, the above-described light source data, and viewpoint data (Step S109). And the control part 11 displays the image according to the image data produced | generated by 2nd calculation on the display screen 141 of the display part 14 (step S110).

以上、説明したようにカラオケ装置3は、端末1による曲の特定に応じて人物像を特定するので、曲を特定した端末1と特定された曲との組に応じて端末1の表示部14に表示させる人物像が決まる。したがって、選曲に用いた端末1ごとに固有の人物像を表示させるサービスがカラオケ装置3によって提供される。   As described above, since the karaoke apparatus 3 identifies a person image according to the song specified by the terminal 1, the display unit 14 of the terminal 1 according to the set of the terminal 1 that identifies the song and the identified song. The person image to be displayed is determined. Therefore, the karaoke apparatus 3 provides a service for displaying a unique person image for each terminal 1 used for music selection.

また、カラオケ装置3は、端末1の表示部14と本体装置2の表示部24とに個別の画像を表示させる。図16はカラオケ装置3によって表示部14と表示部24とにそれぞれ表示される画像例を示した図である。図16(a)に示す画像は、端末1の表示部14に表示される画像の例であり、選曲とともに特定された人物像が演奏の進行に伴って動作データに応じた踊りを踊る様子が表現されている。一方、図16(b)に示す画像は、本体装置2の表示部24に表示される画像の例であり、背景データに応じた背景と、歌詞データに応じた歌詞とが重ね合わせられて表現されている。したがって、カラオケ装置3は、本体装置2に提供する画像とは別に、選曲に用いた端末1に固有の画像として、人物像が動作する様子を表現した画像をその端末1に提供する。   Further, the karaoke apparatus 3 displays individual images on the display unit 14 of the terminal 1 and the display unit 24 of the main body device 2. FIG. 16 is a diagram showing an example of images displayed on the display unit 14 and the display unit 24 by the karaoke apparatus 3. The image shown in FIG. 16 (a) is an example of an image displayed on the display unit 14 of the terminal 1, and a person image specified together with music selection dances according to operation data as the performance progresses. It is expressed. On the other hand, the image shown in FIG. 16B is an example of an image displayed on the display unit 24 of the main device 2, and is expressed by superimposing the background corresponding to the background data and the lyrics corresponding to the lyrics data. Has been. Therefore, the karaoke device 3 provides the terminal 1 with an image representing the behavior of the person image as an image unique to the terminal 1 used for music selection, in addition to the image provided to the main body device 2.

また、カラオケ装置3は、ユーザが選曲に用いた端末1に、図16(a)に示すような画像を表示させるので、ユーザは選曲のときに端末1の表示部14に向けていた視線を動かすこと無く、曲の再生に伴って人物像が動作する様子を見ることができる。つまり、選曲から曲の再生に移行しても、ユーザは視線を動かす必要がない。
そして、カラオケ装置3では、選曲の後で、曲が再生されている間にも、その曲の再生に合わせて動作する人物像が端末1の表示部14により表示されるので機器(端末1)の有効利用が図られる。
Moreover, since the karaoke apparatus 3 displays an image as shown in FIG. 16A on the terminal 1 used by the user for music selection, the user looks at the line of sight toward the display unit 14 of the terminal 1 at the time of music selection. Without moving, you can see how the figure moves as the song plays. In other words, even when shifting from music selection to music playback, the user does not need to move his line of sight.
In the karaoke apparatus 3, since the person image that operates in accordance with the reproduction of the song is displayed on the display unit 14 of the terminal 1 even while the song is being reproduced after the music selection, the device (terminal 1) Can be used effectively.

<変形例>
以上、本発明の実施形態について説明したが、本発明は以下のように、さまざまな態様で実施可能である。
(変形例1)
上述した実施形態において、記憶部12が有する対応表122は読出し専用の表であってもよいが、更新可能な表であってもよい。例えば、端末1の操作部13を用いてユーザが対応表122を編集可能なように構成されていてもよい。また、本体装置2が記憶部22に対応表を記憶しており、端末1の制御部11が近距離通信部15を用いてこの対応表を本体装置2から獲得して、対応表122を更新してもよい。この場合、本体装置2は、サーバ5などの外部装置から送られる情報に応じて記憶部22に記憶させる対応表を更新するようにしてもよい。
<Modification>
As mentioned above, although embodiment of this invention was described, this invention can be implemented in various aspects as follows.
(Modification 1)
In the embodiment described above, the correspondence table 122 included in the storage unit 12 may be a read-only table, or may be a table that can be updated. For example, the user may be configured to be able to edit the correspondence table 122 using the operation unit 13 of the terminal 1. Further, the main device 2 stores a correspondence table in the storage unit 22, and the control unit 11 of the terminal 1 acquires the correspondence table from the main device 2 using the short-range communication unit 15 and updates the correspondence table 122. May be. In this case, the main device 2 may update the correspondence table stored in the storage unit 22 in accordance with information transmitted from an external device such as the server 5.

(変形例2)
上述した実施形態において、第1演算は生成部212、つまり、本体装置2の制御部21により行われていたが、端末1の制御部11により行われてもよい。図17は、変形例2のカラオケ装置3における演算を行う構成と、そのタイミングとを示す図である。図17に示す動作の流れと図15に示す動作の流れとで共通する工程は、共通の符号を付して説明を省略する。
(Modification 2)
In the above-described embodiment, the first calculation is performed by the generation unit 212, that is, the control unit 21 of the main device 2, but may be performed by the control unit 11 of the terminal 1. FIG. 17 is a diagram illustrating a configuration for performing calculations in the karaoke apparatus 3 according to the second modification and the timing thereof. The steps common to the operation flow shown in FIG. 17 and the operation flow shown in FIG.

本体装置2の制御部21は、指示信号を受け取るとこの指示信号が示す人物像番号に対応付けられた人物像データを人物像DB222から見つけ出し、この人物像データを端末1へ送信する(ステップS201)。また、制御部21は、指示信号が示す曲番号に対応付けられた曲データを曲DB221から見つけ出し、これに含まれる演奏データを読み出して曲の演奏を行うとともに(ステップS104)、上述した曲データに含まれる動作データを端末1へ送信する(ステップS202)。端末1は、ステップS201で本体装置2から得た人物像データと、ステップS202で本体装置2から得た動作データとを用いて、第1演算を行う(ステップS203)。これにより、本体装置2の制御部21によって第1演算を行った場合に比べて、制御部21の負荷は低減される。   When receiving the instruction signal, the control unit 21 of the main device 2 finds out the person image data associated with the person image number indicated by the instruction signal from the person image DB 222 and transmits the person image data to the terminal 1 (step S201). ). In addition, the control unit 21 finds music data associated with the music number indicated by the instruction signal from the music DB 221, reads performance data included in the music data 221, plays the music (step S 104), and the music data described above. Is transmitted to the terminal 1 (step S202). The terminal 1 performs a first calculation using the person image data obtained from the main device 2 in step S201 and the operation data obtained from the main device 2 in step S202 (step S203). Thereby, compared with the case where the 1st calculation is performed by the control part 21 of the main body apparatus 2, the load of the control part 21 is reduced.

なお、この場合、図13に示した第2要求部115は、第1特定部111により特定された曲番号と、第2特定部112により特定された人物像番号とを本体装置2に送信する。そして、第2要求部115は、曲番号が示す曲の再生に伴ってxyz座標空間において人物像番号が示す人物像に行わせる動作を示す動作データの送信と、人物像番号が示す人物像の形状を示す人物像データの送信とを要求する。
また、この場合、図13に示した生成部212は、第2要求部115による要求に応じて空間データの代わりに動作データおよび人物像データを生成する。具体的に、生成部212は、探し出した曲データから動作データを抽出することで、この動作データを生成するとともに、第2要求部115による要求に含まれる人物像番号に対応付けられた人物像データを人物像DB222から見つけ出すことで、この人物像データを生成する。
In this case, the second request unit 115 illustrated in FIG. 13 transmits the song number specified by the first specifying unit 111 and the person image number specified by the second specifying unit 112 to the main body device 2. . Then, the second request unit 115 transmits operation data indicating an operation to be performed on the person image indicated by the person image number in the xyz coordinate space in association with the reproduction of the song indicated by the song number, and the person image indicated by the person image number. Requesting transmission of human image data indicating a shape.
In this case, the generation unit 212 illustrated in FIG. 13 generates motion data and human image data instead of the spatial data in response to a request from the second request unit 115. Specifically, the generation unit 212 generates the operation data by extracting the operation data from the searched music data, and at the same time, the person image associated with the person image number included in the request by the second request unit 115 The person image data is generated by finding the data from the person image DB 222.

また、この場合、図13に示した送信部213は、生成部212が生成した動作データおよび人物像データを端末1に送信する。
そして、この場合、図13に示した表示制御部116は、第2要求部115による要求に応じて本体装置2から送信された動作データおよび人物像データと、第3特定部113により特定された視点とに基づいて、その視点からxyz座標空間における上述の人物像を見たときの画像を表示する。したがって、この場合、表示制御部116は、図14に示した第1演算を行って、さらに第2演算を行う。
In this case, the transmission unit 213 illustrated in FIG. 13 transmits the operation data and the person image data generated by the generation unit 212 to the terminal 1.
In this case, the display control unit 116 illustrated in FIG. 13 is specified by the third specifying unit 113 and the operation data and the person image data transmitted from the main body device 2 in response to a request from the second request unit 115. Based on the viewpoint, an image when the above-described person image in the xyz coordinate space is viewed from the viewpoint is displayed. Therefore, in this case, the display control unit 116 performs the first calculation shown in FIG. 14 and further performs the second calculation.

(変形例3)
上述した実施形態において、人物像DB222は本体装置2の記憶部22に記憶されていたが、これに相当する内容を端末1の記憶部12に記憶させてもよい。例えば、図2に破線で示すように、記憶部12に上述した人物像DB222と共通する記憶内容を有する人物像DB123を記憶させてもよい。この場合、端末1は上述した指示信号に加えて、人物像番号で特定される人物像データを人物像DB123から読み出して本体装置2へ送信すればよい。この人物像データを受け取った本体装置2の制御部21は、この人物像データと上述した動作データに基づいて第1演算を行えばよい。なお、この変形例3において、変形例2に示すように端末1の制御部11に第1演算を行わせる場合には、本体装置2と端末1との間で人物像データを遣り取りする必要はない。この場合、端末1の制御部11が人物像DB123から読みだした人物像データと、本体装置2から受け取った動作データとを用いて第1演算を行うからである。
(Modification 3)
In the above-described embodiment, the person image DB 222 is stored in the storage unit 22 of the main device 2, but content corresponding to this may be stored in the storage unit 12 of the terminal 1. For example, as indicated by a broken line in FIG. 2, the storage unit 12 may store a person image DB 123 having the same storage contents as the person image DB 222 described above. In this case, the terminal 1 may read out the person image data specified by the person image number from the person image DB 123 and transmit it to the main body device 2 in addition to the instruction signal described above. The control unit 21 of the main device 2 that has received the person image data may perform the first calculation based on the person image data and the operation data described above. In the third modification, when the control unit 11 of the terminal 1 performs the first calculation as shown in the second modification, it is necessary to exchange the human image data between the main body device 2 and the terminal 1. Absent. In this case, the control unit 11 of the terminal 1 performs the first calculation using the person image data read from the person image DB 123 and the operation data received from the main device 2.

なお、この場合、図13に示した第2要求部115は、第2特定部112により特定された人物像番号を本体装置2に送信しなくてもよい。第2要求部115は、第1特定部111により特定された曲番号を本体装置2に送信して、その曲番号が示す曲の再生に伴ってxyz座標空間において上述の人物像番号が示す人物像に行わせる動作を示す動作データの送信を要求すればよい。
また、この場合、図13に示した生成部212は、第2要求部115による要求に応じて空間データの代わりに動作データを生成する。したがって、この場合、図13に示した送信部213は、生成部212が生成した動作データを端末1に送信する。
そして、この場合、図13に示した表示制御部116は、第2要求部115による要求に応じて本体装置2から送信された動作データと、人物像DB123から読み出した人物像データと、第3特定部113により特定された視点とに基づいて、その視点からxyz座標空間における上述の人物像を見たときの画像を表示する。
In this case, the second request unit 115 illustrated in FIG. 13 may not transmit the person image number specified by the second specifying unit 112 to the main body device 2. The second requesting unit 115 transmits the song number specified by the first specifying unit 111 to the main body device 2, and the person indicated by the above-described person image number in the xyz coordinate space with the reproduction of the song indicated by the song number. What is necessary is just to request | require transmission of the operation | movement data which shows the operation | movement performed on an image.
In this case, the generation unit 212 illustrated in FIG. 13 generates operation data instead of the spatial data in response to a request from the second request unit 115. Therefore, in this case, the transmission unit 213 illustrated in FIG. 13 transmits the operation data generated by the generation unit 212 to the terminal 1.
In this case, the display control unit 116 illustrated in FIG. 13 receives the operation data transmitted from the main device 2 in response to the request from the second request unit 115, the human image data read from the human image DB 123, and the third Based on the viewpoint specified by the specifying unit 113, an image when the above-described person image in the xyz coordinate space is viewed from the viewpoint is displayed.

(変形例4)
カラオケ装置3は、複数の端末1を備えていてもよい。またこの場合、曲を特定した端末1以外の端末1は、曲を特定した端末1と異なる人物像を表示してもよい。図18は、変形例4のカラオケ装置3における演算を行う構成と、そのタイミングとを示す図である。図18に示す動作の流れと図15に示す動作の流れとで共通する工程は、共通の符号を付す。共通する工程については説明を省略する場合がある。
(Modification 4)
The karaoke apparatus 3 may include a plurality of terminals 1. In this case, the terminals 1 other than the terminal 1 that has specified the song may display a different person image from the terminal 1 that has specified the song. FIG. 18 is a diagram illustrating a configuration for performing calculation in the karaoke apparatus 3 of the modification 4 and the timing thereof. The steps common to the flow of operation shown in FIG. 18 and the flow of operation shown in FIG. 15 are denoted by common reference numerals. Description of common steps may be omitted.

カラオケ装置3は、端末1a,1bと、本体装置2とを備える。図18に示す例において、端末1aは、ユーザの操作を受け付けて曲を特定する一方、端末1bは、曲を特定しないが、人物像番号を特定し(ステップS301)、この人物像番号を含む指示信号を本体装置2に送信する(ステップS302)。本体装置2の制御部21は、ステップS103で端末1aから取得した指示信号(以下、指示信号aという)を用いて曲の演奏を行う(ステップS104)。また、制御部21は、指示信号aと、ステップS302で端末1bから取得した指示信号(以下、指示信号bという)とを参照して、第1演算を行う(ステップS105)。この第1演算において、指示信号aにより示される人物像番号と、指示信号bにより示される人物像番号とは異なる場合があるため、制御部21は、それぞれ個別の空間データを生成し、端末1a,1bのそれぞれに送信する(ステップS108,S305)。   The karaoke device 3 includes terminals 1 a and 1 b and a main device 2. In the example shown in FIG. 18, the terminal 1a accepts the user's operation and specifies the song, while the terminal 1b does not specify the song but specifies the person image number (step S301) and includes this person image number. An instruction signal is transmitted to the main device 2 (step S302). The control unit 21 of the main device 2 performs a song using the instruction signal (hereinafter referred to as instruction signal a) acquired from the terminal 1a in step S103 (step S104). The control unit 21 performs the first calculation with reference to the instruction signal a and the instruction signal acquired from the terminal 1b in step S302 (hereinafter referred to as instruction signal b) (step S105). In the first calculation, since the person image number indicated by the instruction signal a and the person image number indicated by the instruction signal b may be different, the control unit 21 generates individual spatial data, and the terminal 1a , 1b (steps S108 and S305).

端末1bのセンサ133は、端末1bの筐体の姿勢を検知し、この姿勢に応じた信号を制御部11に送る(ステップS303)。端末1bの制御部11は、端末1bのセンサ133が検知した筐体の姿勢に応じて、xyz座標空間における視点データを加工して、現在の視点を特定する(ステップS304)。   The sensor 133 of the terminal 1b detects the attitude of the casing of the terminal 1b, and sends a signal corresponding to this attitude to the control unit 11 (step S303). The control unit 11 of the terminal 1b processes the viewpoint data in the xyz coordinate space according to the posture of the casing detected by the sensor 133 of the terminal 1b, and specifies the current viewpoint (step S304).

また、本体装置2から空間データを取得した端末1bの制御部11は、その空間データと、ステップS304で加工された視点データと、xyz座標空間において固定されている光源データとを用いて第2演算を行う(ステップS306)。そして、端末1bの制御部11は、第2演算により生成された画像データに応じた画像を、端末1bの表示部14の表示画面141に表示させる(ステップS307)   In addition, the control unit 11 of the terminal 1b that has acquired the spatial data from the main device 2 uses the spatial data, the viewpoint data processed in step S304, and the light source data fixed in the xyz coordinate space. Calculation is performed (step S306). And the control part 11 of the terminal 1b displays the image according to the image data produced | generated by 2nd calculation on the display screen 141 of the display part 14 of the terminal 1b (step S307).

以上により、カラオケ装置3は、本体装置2に提供する画像とは別に、選曲に用いた端末1aと、選曲に用いられなかった端末1bとに、それぞれ個別の人物像が動作する様子を表現した画像を各端末1にそれぞれ提供する。したがって、複数の端末1は、各端末1に対応付けられた人物像が踊る様子を、それぞれ個別に各表示部14に表示させる。   As described above, the karaoke apparatus 3 expresses a state in which individual human images operate on the terminal 1a used for music selection and the terminal 1b not used for music selection separately from the image provided to the main body apparatus 2. An image is provided to each terminal 1. Therefore, the plurality of terminals 1 individually display on the respective display units 14 the manner in which the person image associated with each terminal 1 dances.

なお、ステップS301において端末1bの制御部11が行う人物像番号の特定の処理は、本体装置2が、端末1aから曲番号と人物像番号とを含む指示信号aを受け取った後に行われてもよい。この場合、本体装置2が受け取った指示信号aから曲番号を読み出して端末1bに送ってもよい。端末1bの制御部11は、本体装置2から送られた曲番号を自身の記憶部12に記憶されている対応表122から参照して、これに対応付けられている人物像番号を特定することで、ステップS301を実現してもよい。   It should be noted that the person image number specifying process performed by the control unit 11 of the terminal 1b in step S301 may be performed after the main device 2 receives the instruction signal a including the song number and the person image number from the terminal 1a. Good. In this case, the music number may be read from the instruction signal a received by the main device 2 and sent to the terminal 1b. The control unit 11 of the terminal 1b refers to the song number sent from the main body device 2 from the correspondence table 122 stored in its own storage unit 12, and identifies the person image number associated therewith. Thus, step S301 may be realized.

(変形例5)
上述した実施形態において、光源データは、xyz座標空間において固定されていたが、端末1による操作に応じて特定されるように構成されていてもよい。図19は、変形例5のカラオケ装置3における光源を特定する構成と、そのタイミングとを示す図である。図19に示す動作の流れと図15に示す動作の流れとで共通する工程は、共通の符号を付す。共通する工程については説明を省略する場合がある。
(Modification 5)
In the above-described embodiment, the light source data is fixed in the xyz coordinate space. However, the light source data may be configured to be specified according to an operation by the terminal 1. FIG. 19 is a diagram illustrating a configuration for specifying a light source and its timing in the karaoke apparatus 3 of the fifth modification. The steps common to the operation flow shown in FIG. 19 and the operation flow shown in FIG. 15 are denoted by the same reference numerals. Description of common steps may be omitted.

カラオケ装置3は、端末1a,1cと、本体装置2とを備える。図19に示す例において、端末1aは、ユーザの操作を受け付けて曲を特定する一方、端末1cは、曲を特定しないが、端末1cのセンサ133は、端末1cの筐体の姿勢を検知し、この姿勢に応じた信号を制御部11に送る(ステップS401)。そして、端末1cの制御部11は、端末1cのセンサ133が検知した筐体の姿勢に応じて、xyz座標空間における光源データを加工して、現在の光源の座標を特定する(ステップS402)。   The karaoke device 3 includes terminals 1 a and 1 c and a main device 2. In the example shown in FIG. 19, the terminal 1a accepts the user's operation and specifies the music, while the terminal 1c does not specify the music, but the sensor 133 of the terminal 1c detects the attitude of the casing of the terminal 1c. Then, a signal corresponding to this posture is sent to the control unit 11 (step S401). And the control part 11 of the terminal 1c processes the light source data in xyz coordinate space according to the attitude | position of the housing | casing which the sensor 133 of the terminal 1c detected, and specifies the coordinate of the present light source (step S402).

光源の座標を特定した端末1cの制御部11は、この座標を含むデータである光源データを生成し、近距離通信部15を用いて本体装置2へ送信する(ステップS403)。本体装置2は、破線で示すように、この光源データを端末1aに転送する。   The control unit 11 of the terminal 1c that has identified the coordinates of the light source generates light source data that is data including the coordinates, and transmits the light source data to the main device 2 using the short-range communication unit 15 (step S403). The main body device 2 transfers this light source data to the terminal 1a as indicated by a broken line.

本体装置2から空間データを取得した端末1aの制御部11は、その空間データと、ステップS107で加工された視点データと、ステップS403で本体装置2から転送された光源データとを用いて第2演算を行う(ステップS109)。そして、端末1aの制御部11は、第2演算により生成された画像データに応じた画像を、端末1aの表示部14の表示画面141に表示させる(ステップS110)。なお、光源データは選曲に用いられなかった端末1cで生成されていたが、選曲に用いた端末1aで生成されてもよい。   The control unit 11 of the terminal 1a that acquired the spatial data from the main device 2 uses the spatial data, the viewpoint data processed in step S107, and the light source data transferred from the main device 2 in step S403. Calculation is performed (step S109). And the control part 11 of the terminal 1a displays the image according to the image data produced | generated by 2nd calculation on the display screen 141 of the display part 14 of the terminal 1a (step S110). The light source data was generated by the terminal 1c that was not used for music selection, but may be generated by the terminal 1a used for music selection.

以上により、カラオケ装置3は、端末1を用いて光源の位置などを決める。これにより、ユーザは、端末1を操作して、人物像を撮影するためのアングルを決定することができることに加えて、その人物像に当てる光を決定することができる。すなわち、ユーザは、人物像が踊る様子をカメラマンがするように撮影する楽しみを享受することに加えて、照明係がするようにその人物像を照らし出す光を調節する楽しみを享受することができる。   As described above, the karaoke apparatus 3 determines the position of the light source using the terminal 1. Thereby, in addition to being able to determine the angle for photographing the person image by operating the terminal 1, the user can determine the light applied to the person image. In other words, the user can enjoy the enjoyment of adjusting the light that illuminates the person image as if the lighting staff, in addition to the enjoyment of taking a picture of a human figure dancing like a photographer. .

(変形例6)
上述した第1演算および第2演算を行う構成は、それぞれの負荷に応じて決められてもよい。例えば、本体装置2の制御部21により第1演算を行う場合に、CPUの負荷を表す数値が予め決められた閾値を超えたときには、制御部21は、第1演算を端末1に行わせる旨の指示を端末1へ送るようにしてもよい。また、端末1や本体装置2は、それぞれに備えられたCPUの負荷を監視して、この負荷を表す数値が予め決められた閾値を下回ったときには、他の構成に対して、演算能力に余裕がある旨の通知を送るようにしてもよい。この場合、上述した通知を送った端末1または本体装置2は、他の構成が実行していた演算を代行すればよい。
(Modification 6)
The configuration for performing the first calculation and the second calculation described above may be determined according to each load. For example, when the first calculation is performed by the control unit 21 of the main body device 2, the control unit 21 causes the terminal 1 to perform the first calculation when a numerical value representing the CPU load exceeds a predetermined threshold. May be sent to the terminal 1. In addition, the terminal 1 and the main device 2 monitor the load of the CPU provided in each, and when the numerical value representing this load falls below a predetermined threshold value, there is a surplus in computing capacity over other configurations. You may make it send the notification that there exists. In this case, the terminal 1 or the main body device 2 that has sent the above-described notification may perform a calculation performed by another configuration.

(変形例7)
上述した実施形態において、人物像は、人間の体を15個の部位に対応するパーツとして表現していたが、パーツの個数はこれに限られない。例えば、右手、左手のパーツにそれぞれ指のパーツを設けてもよいし、頭と胸とのパーツ間に首のパーツを設けてもよい。
(Modification 7)
In the above-described embodiment, the human image represents the human body as parts corresponding to 15 parts, but the number of parts is not limited to this. For example, finger parts may be provided for the right hand part and the left hand part, respectively, or a neck part may be provided between the head and chest parts.

(変形例8)
上述した実施形態において、人物像は、人間の体を部位ごとにそれぞれポリゴンのパーツとして表現し、これら複数のパーツを組み合わせて構成されていたが、人物像は、人間の体を表現したものに限られない。人物像は、例えば猫や猿、昆虫などといった人間以外の生物の体を表現したものであってもよいし、スフィンクスやケンタウロスといった架空の生物の体、あるいはロボットなどの無生物の姿を表現したものであってもよい。また、例えば、マフラーや袖といった衣服・アクセサリーなどの物体も人物像に含めてもよい。この場合、これらの物体は、人物像のうち、動作データに動作が記述されたパーツに合わせて、動くように構成されていてもよい。例えば、マフラーの動きは、そのマフラーが巻かれている首の部分の動きと、マフラーの質量、周囲の圧などを加味した物理演算により求められてもよい。要するに人物像は、曲の再生に伴って動作する像であれば何でもよい。
(Modification 8)
In the above-described embodiment, the human figure represents the human body as a polygon part for each part, and is configured by combining these parts. However, the human figure is a representation of the human body. Not limited. The human figure may be a representation of a non-human creature such as a cat, monkey, or insect, or a fictional creature such as a sphinx or centaur, or an inanimate figure such as a robot. It may be. For example, objects such as clothes and accessories such as mufflers and sleeves may be included in the person image. In this case, these objects may be configured to move in accordance with a part of the human image whose motion is described in the motion data. For example, the movement of the muffler may be obtained by physical calculation in consideration of the movement of the neck portion around which the muffler is wound, the mass of the muffler, the surrounding pressure, and the like. In short, the person image may be any image as long as the image operates along with the reproduction of the music.

(変形例9)
上述した実施形態において、曲DB221は、曲番号と曲データとを対応付けて記憶し、曲データには、1つの動作データが記述されていたが、曲データには複数の動作データが記述されていてもよい。この場合、複数の動作データの各ヘッダ部には、その動作データを識別する識別情報として動作番号が記述されており、端末1は、本体装置2へ送信する指示信号に、曲番号と人物像番号とに加えて、いずれか1つの動作データを特定するための動作番号を含めてもよい。動作番号を含む指示信号を受け取った本体装置2は、その動作番号に基づいて、複数の動作データから1つの動作データを特定して、上述した第1演算を行ったり、特定したその動作データを端末1へ送ったりすればよい。
(Modification 9)
In the above-described embodiment, the song DB 221 stores song numbers and song data in association with each other, and one piece of motion data is described in the song data, but a plurality of pieces of motion data are described in the song data. It may be. In this case, an operation number is described as identification information for identifying the operation data in each header portion of the plurality of operation data, and the terminal 1 includes a song number and a person image in the instruction signal transmitted to the main device 2. In addition to the number, an operation number for specifying any one operation data may be included. The main body device 2 that has received the instruction signal including the operation number specifies one operation data from a plurality of operation data based on the operation number, and performs the above-described first calculation or the specified operation data. What is necessary is just to send to the terminal 1.

1つの曲であっても、複数の歌手がその曲の歌を歌う場合や、複数の踊り手がその曲に合わせて踊る場合には、一般に複数の異なる動作が各人に割り当てられている。この構成によれば、曲データに複数の動作データが記述されていて、ユーザはそれらからいずれか1つを選択することができるので、例えば、ユーザは複数の踊り手がそれぞれ異なった振付で踊る曲において、所望する踊り手の振付を学習することができる。   Even if it is one song, when a plurality of singers sing a song of the song, or when a plurality of dancers dance to the song, a plurality of different actions are generally assigned to each person. According to this configuration, a plurality of motion data are described in the music data, and the user can select any one of them. For example, the user dances with a plurality of dancers with different choreographies. You can learn the choreography of the dancer you want in the song.

なお、端末1が指示信号に動作番号を含める態様としては、端末1がユーザの操作に応じて曲を特定した後、さらにユーザの操作を受け付けて動作番号を特定してもよい。また、予め対応表122に、曲番号と人物像番号と上述した動作番号とを対応付けて記述し、曲番号が特定されたことに連動して人物像番号と動作番号とが特定されるようにしてもよい。また、人物像番号と動作番号とが1対1の対応関係がある場合には、人物像番号で動作番号を代用してもよい。例えば、複数の動作データの各ヘッダ部には、人物像番号が記述されていてもよい。   In addition, as a mode in which the terminal 1 includes the operation number in the instruction signal, after the terminal 1 specifies a song according to the user's operation, the operation number may be specified by further accepting the user's operation. In addition, in the correspondence table 122, the song number, the person image number, and the action number described above are described in association with each other, and the person image number and the action number are specified in conjunction with the song number being specified. It may be. If the person image number and the action number have a one-to-one correspondence, the person image number may be substituted for the action number. For example, a person image number may be described in each header portion of a plurality of operation data.

(変形例10)
上述した実施形態において、対応表122は、1つの曲番号に1つの人物像番号を対応付けていたが、1つの曲番号に複数の人物像番号を対応付けてもよい。例えば、図7(a)に破線で示すように、対応表122には、曲番号と人物像番号(1人目)と、さらに『人物像番号(2人目)』を対応付けていてもよい。この場合、曲データに1人目の人物像の動作を示す動作データ(以下、動作データAという)に加えて、2人目の人物像の動作を示す動作データ(以下、動作データBという)が記述されているのであれば、端末1の制御部11や本体装置2の制御部21は、1人目の人物像番号が示す人物像に動作データAが示す動作を行わせ、2人目の人物像番号が示す人物像に動作データBが示す動作を行わせるように、第1演算を行って空間データを生成すればよい。
(Modification 10)
In the above-described embodiment, the correspondence table 122 associates one person image number with one song number, but may associate a plurality of person image numbers with one song number. For example, as shown by a broken line in FIG. 7A, the correspondence table 122 may associate a song number, a person image number (first person), and “person image number (second person)”. In this case, motion data indicating the motion of the second person image (hereinafter referred to as motion data B) is described in addition to motion data indicating the motion of the first person image (hereinafter referred to as motion data A). If so, the control unit 11 of the terminal 1 and the control unit 21 of the main device 2 perform the operation indicated by the operation data A on the person image indicated by the first person image number, and the second person image number. The spatial data may be generated by performing the first calculation so that the action indicated by the action data B is performed on the person image indicated by.

具体的には、例えば、曲番号「P01」に示す曲をユーザが選択した場合に、制御部11は、図7(a)に示す対応表122において、その曲番号「P01」に対応付けられている1人目の人物像番号「M01」と、2人目の人物像番号「M11」とを特定する。   Specifically, for example, when the user selects the song indicated by the song number “P01”, the control unit 11 is associated with the song number “P01” in the correspondence table 122 illustrated in FIG. The first person image number “M01” and the second person image number “M11” are specified.

これにより端末1の制御部11は、図7(b)に示すように、曲番号「P01」に1人目の人物像番号「M01」と2人目の人物像番号「M11」とを付加した信号を生成し、これをユーザの選曲に基づく指示を示す指示信号として、近距離通信部15を用いて本体装置2へ送信する。その結果、人物像番号「M01」で識別される1人目の人物像の人物像データと、人物像番号「M11」で識別される2人目の人物像の人物像データとが、それぞれ動作データA、動作データBに対応付けられて第1演算が行われて空間データが生成される。生成された空間データと、上述した光源データと、視点データとを用いて第2演算が行われることにより画像データが生成されると、端末1aの制御部11は、この画像データに応じた画像を、表示部14の表示画面141に表示させればよい。これにより、表示画面141には、複数(この場合2人)の人物像が、上述の曲番号で特定される曲の再生に伴ってそれぞれ個別に動作する様子が表示される。   As a result, the control unit 11 of the terminal 1 adds the first person image number “M01” and the second person image number “M11” to the song number “P01” as shown in FIG. 7B. Is transmitted to the main unit 2 using the short-range communication unit 15 as an instruction signal indicating an instruction based on the user's music selection. As a result, the person image data of the first person image identified by the person image number “M01” and the person image data of the second person image identified by the person image number “M11” are respectively the operation data A. The first calculation is performed in association with the motion data B to generate spatial data. When image data is generated by performing the second calculation using the generated spatial data, the above-described light source data, and viewpoint data, the control unit 11 of the terminal 1a displays an image corresponding to the image data. May be displayed on the display screen 141 of the display unit 14. As a result, the display screen 141 displays a state in which a plurality of (in this case, two) person images individually operate as the music specified by the music number is reproduced.

すなわち、曲データに複数の動作データが記述されている曲であって1画面に複数の人物像を表示したい曲(デュエット曲やグループ曲など)がある場合、ユーザは、対応表122においてその曲の曲番号に複数の人物像番号を対応付けて記憶させればよい。これにより、ユーザは、上記の曲の再生に伴って、複数の人物像がそれぞれ異なる動作で踊る映像を端末1の表示画面141に表示させることができる。   That is, if there is a song (such as a duet song or a group song) for which a plurality of person images are to be displayed on one screen in a song in which a plurality of motion data is described in the song data, A plurality of person image numbers may be stored in association with the song number. Thereby, the user can display on the display screen 141 of the terminal 1 a video in which a plurality of human images dance with different motions as the above-described music is reproduced.

なお、このように1つの曲番号に対して、複数の人物像番号と複数の動作データとが対応付けられている場合には、人物像番号および動作データのそれぞれに付された順序(この場合、1人目、2人目の別)に基づいて、人物像番号と動作データとを関連づければよい。また、対応表122は、1つの曲番号に3以上の人物像番号を対応付けてもよい。   When a plurality of person image numbers and a plurality of motion data are associated with one music number in this way, the order assigned to each of the person image numbers and the operation data (in this case) The person image number and the operation data may be associated with each other based on the first person and the second person). In the correspondence table 122, three or more person image numbers may be associated with one music number.

またここで、m,nが1以上の自然数とし、対応表122において或る1つの曲番号に対応付けて記述されている人物像番号の個数mが、その曲番号で特定される曲データに含まれる動作データの個数nよりも多い(すなわち、m>n)場合、(n+1)人目からm人目までの人物像番号が示す人物像には、1人目からm人目までのいずれかの動作データが示す動作を行わせるようにしてもよいし、これらを順に割り当ててもよい。また、この場合、(n+1)人目からm人目までの人物像番号が示す人物像は使用しなくてもよい。   Here, m and n are natural numbers of 1 or more, and the number m of the person image numbers described in association with one music number in the correspondence table 122 is the music data specified by the music number. When the number of motion data included is larger than n (that is, m> n), any one of the motion data from the first to the m-th person is included in the human image indicated by the (n + 1) th to m-th person image numbers. May be performed, or these may be assigned in order. In this case, the person images indicated by the person image numbers from the (n + 1) -th person to the m-th person may not be used.

そして、対応表122において或る1つの曲番号に対応付けて記述されている人物像番号の個数mが、その曲番号で特定される曲データに含まれる動作データの個数nよりも少ない(すなわち、m<n)場合、(m+1)人目からn人目までの動作データには、1人目からm人目までのいずれかの人物像番号が示す人物像を割り当ててもよいし、これらを順に割り当ててもよいし、予め定められた人物像を割り当ててもよい。また、この場合、(m+1)人目からn人目までの動作データは使用しなくてもよい。   The number m of person image numbers described in correspondence with a certain music number in the correspondence table 122 is smaller than the number n of motion data included in the music data specified by the music number (that is, , M <n), the (m + 1) -th to n-th person motion data may be assigned a person image indicated by any one of the first to m-th person image numbers, or these may be assigned in order. Alternatively, a predetermined person image may be assigned. In this case, the operation data from the (m + 1) th person to the nth person may not be used.

例えば、図7(a)に示す対応表122において、曲番号「P02」には、1人目の人物像番号「M02」が対応付けられているが、2人目の人物像番号は未設定である。この場合において、曲番号「P02」で識別される曲データに1人目および2人目の各動作データが記述されているとするならば、2人目の動作データに対応付けられる人物像番号が未設定ということになる。この場合であっても、記憶部12または記憶部22に、上述したようなルールが記憶されていれば、制御部11または制御部21は、そのルールに従って、未設定の人物像番号を新たに設定したり、未設定の人物像番号に対応する動作データを使用しないように制限したりすることができる。   For example, in the correspondence table 122 shown in FIG. 7A, the song number “P02” is associated with the first person image number “M02”, but the second person image number is not set. . In this case, if each of the first and second motion data is described in the music data identified by the music number “P02”, the person image number associated with the second motion data is not set. It turns out that. Even in this case, if the above-described rule is stored in the storage unit 12 or the storage unit 22, the control unit 11 or the control unit 21 newly sets an unset person image number according to the rule. It can be set or restricted so that operation data corresponding to an unset person image number is not used.

(変形例11)
上述した実施形態において、曲データは、演奏データ、背景データ、歌詞データ、および動作データを含むものであったが、曲の進行に伴ってユーザに提示する情報を示す提示データを含んでいてもよい。この提示データとは、例えば、動作データに示される動作を数秒間先行して知らせるものであってもよい。この場合、ユーザは振付が複雑になる直前にそのことを警告されるので、振付の学習を効率的に行うことができる。また、提示データは、仮想空間における視点の位置についてアドバイスするものであってもよい。具体的には、提示データは、あるタイミングに差し掛かったときに、視点を右側に動かした方がよいことを示す矢印などを端末1の表示部14に表示させるための制御データであってもよい。
(Modification 11)
In the above-described embodiment, the song data includes performance data, background data, lyrics data, and motion data, but may include presentation data indicating information to be presented to the user as the song progresses. Good. This presentation data may be, for example, information that notifies the operation indicated in the operation data several seconds in advance. In this case, since the user is warned immediately before the choreography becomes complicated, the choreography can be learned efficiently. Further, the presentation data may provide advice on the position of the viewpoint in the virtual space. Specifically, the presentation data may be control data for causing the display unit 14 of the terminal 1 to display an arrow or the like indicating that it is better to move the viewpoint to the right when a certain timing is reached. .

(変形例12)
上述した実施形態において、端末1の操作部13には、加速度センサや角速度センサなどを含むセンサ133を備えていたが、筐体の運動状態や姿勢などを検知してこれらに応じた信号を出力するセンサ133はこれに限られない。例えば、ユーザの体を撮影するカメラと、そのカメラで撮影された画像を解析するプロセッサなどにより、その運動状態や姿勢などを検知する構成を含んでいてもよい。
(Modification 12)
In the above-described embodiment, the operation unit 13 of the terminal 1 includes the sensor 133 including an acceleration sensor, an angular velocity sensor, and the like. However, the movement state and posture of the housing are detected, and signals corresponding to these are output. The sensor 133 to perform is not limited to this. For example, a configuration may be included in which a motion state or posture is detected by a camera that captures the user's body and a processor that analyzes an image captured by the camera.

(変形例13)
上述した実施形態において、選曲に用いられた端末1は、曲の再生中に人物像が動作する様子を表現した画像を表示部14に表示させていたが、この画像の表示中に、ユーザの操作を受け付けて、選曲を行ってもよい。具体的に、端末1は、人物像が動作する様子を表現した画像を表示部14の表示画面141に表示させるとともに、その表示画面141の一部に「切り替えボタン」を表示させる。この「切り替えボタン」が表示されている位置にユーザの指などが触れると、タッチパネル132がユーザの触れた位置を検知して、画面を切り替える旨の指示を制御部11に送る。この指示を受けた制御部11は、図4に示したような選曲メニューを表示画面141に表示させる。これにより、端末1は、曲の再生に合わせて動作する人物像を表示することで、曲の再生を演出するとともに、その表示が行われている間にも、選曲をする機能を実現することができる。
なお、制御部11は、表示画面141に、人物像が動作する様子に重畳して選曲メニューを表示させてもよいし、表示画面141の表示領域を分割して、このうちの一方に人物像が動作する様子を表示させ、他方に選曲メニューを表示させてもよい。
(Modification 13)
In the above-described embodiment, the terminal 1 used for music selection displays an image representing a behavior of a person image during the reproduction of the music on the display unit 14. The operation may be accepted and music selection may be performed. Specifically, the terminal 1 displays on the display screen 141 of the display unit 14 an image representing how the person image operates, and displays a “switch button” on a part of the display screen 141. When a user's finger or the like touches the position where the “switch button” is displayed, the touch panel 132 detects the position touched by the user and sends an instruction to the control unit 11 to switch the screen. Receiving this instruction, the control unit 11 displays a music selection menu as shown in FIG. 4 on the display screen 141. As a result, the terminal 1 displays a person image that operates in accordance with the reproduction of the song, thereby producing a reproduction of the song and realizing a function of selecting a song while the display is being performed. Can do.
The control unit 11 may display a music selection menu on the display screen 141 so as to be superimposed on the manner in which the person image operates, or divide the display area of the display screen 141 and display the person image on one of them. May be displayed, and the music selection menu may be displayed on the other side.

(変形例14)
上述した実施形態におけるプログラムは、磁気記録媒体(磁気テープ、磁気ディスクなど)、光記録媒体(光ディスクなど)、光磁気記録媒体、半導体メモリなどのコンピュータ読み取り可能な記録媒体に記憶した状態で提供し得る。また、端末1や本体装置2は、プログラムをネットワーク経由でダウンロードしてもよい。
(Modification 14)
The program in the above-described embodiment is provided in a state stored in a computer-readable recording medium such as a magnetic recording medium (magnetic tape, magnetic disk, etc.), an optical recording medium (optical disk, etc.), a magneto-optical recording medium, or a semiconductor memory. obtain. Further, the terminal 1 and the main device 2 may download the program via a network.

1(1a,1b,1c)…端末、11…制御部、111…第1特定部、112…第2特定部、113…第3特定部、114…第1要求部、115…第2要求部、116…表示制御部、12…記憶部、121…目次DB、122…対応表、123…人物像DB、13…操作部、131…操作子、132…タッチパネル、133…センサ、14…表示部、141…表示画面、15…近距離通信部、2…本体装置、21…制御部、211…再生部、212…生成部、213…送信部、22…記憶部、23…操作部、231…操作子、232…マイク、24…表示部、241…表示画面、25…近距離通信部、26…通信部、27…放音部、3…カラオケ装置、4…ネットワーク、5…サーバ、9…カラオケシステム、CH…パーツ、JA…角度、PL…光源、PO…重心、PV…視点座標、VA…画角 DESCRIPTION OF SYMBOLS 1 (1a, 1b, 1c) ... Terminal, 11 ... Control part, 111 ... 1st specific part, 112 ... 2nd specific part, 113 ... 3rd specific part, 114 ... 1st request part, 115 ... 2nd request part , 116 ... display control unit, 12 ... storage unit, 121 ... table of contents DB, 122 ... correspondence table, 123 ... person image DB, 13 ... operation unit, 131 ... operator, 132 ... touch panel, 133 ... sensor, 14 ... display unit , 141 ... display screen, 15 ... short-range communication unit, 2 ... main unit, 21 ... control unit, 211 ... reproduction unit, 212 ... generation unit, 213 ... transmission unit, 22 ... storage unit, 23 ... operation unit, 231 ... Operator, 232 ... Microphone, 24 ... Display unit, 241 ... Display screen, 25 ... Short range communication unit, 26 ... Communication unit, 27 ... Sound emitting unit, 3 ... Karaoke apparatus, 4 ... Network, 5 ... Server, 9 ... Karaoke system, CH ... parts, JA ... angle, P ... light source, PO ... the center of gravity, PV ... viewpoint coordinates, VA ... the angle of view

Claims (3)

端末と、
本体装置と
を具備し、
前記端末は、
曲を識別する曲識別情報と、前記曲の再生に伴って仮想空間において動作する像を識別する像識別情報とを対応付けて記憶する記憶手段と、
ユーザに指定された曲の曲識別情報を特定する第1特定手段と、
前記第1特定手段により特定された曲識別情報に対応する像識別情報を前記記憶手段の記憶内容に基づいて特定する第2特定手段と、
ユーザの操作に応じて前記仮想空間における視点を特定する第3特定手段と、
前記第1特定手段により特定された前記曲識別情報を前記本体装置に送信し、当該曲識別情報が示す曲の再生を要求する第1要求手段と、
前記第2特定手段により特定された前記像識別情報を前記本体装置に送信し、当該像識別情報が示す像を、前記曲の再生に伴って前記仮想空間において動作させたときの、当該像の当該仮想空間における位置および姿勢を示す空間データの送信を要求する第2要求手段と、
前記第2要求手段による要求に応じて前記本体装置から送信された空間データと、前記第3特定手段により特定された前記視点とに基づいて、当該視点から前記仮想空間における前記像を見たときの前記画像を表示する表示手段と
を有し、
前記本体装置は、
前記第1要求手段による要求に応じて前記曲識別情報が示す曲を再生する再生手段と、
前記第2要求手段による要求に応じて前記空間データを生成する生成手段と、
前記生成手段が生成した前記空間データを前記端末に送信する送信手段と
を有する
ことを特徴とするカラオケ装置。
A terminal,
A main unit and
The terminal
Storage means for storing song identification information for identifying a song and image identification information for identifying an image operating in a virtual space in association with reproduction of the song;
First identifying means for identifying song identification information of a song designated by the user;
Second specifying means for specifying image identification information corresponding to the music identification information specified by the first specifying means based on the storage content of the storage means;
Third specifying means for specifying a viewpoint in the virtual space according to a user operation;
First request means for transmitting the song identification information identified by the first identification means to the main unit and requesting reproduction of the song indicated by the song identification information;
The image identification information specified by the second specifying means is transmitted to the main device, and the image indicated by the image identification information is operated in the virtual space along with the reproduction of the music. Second request means for requesting transmission of spatial data indicating the position and orientation in the virtual space;
When viewing the image in the virtual space from the viewpoint based on the spatial data transmitted from the main body device in response to the request from the second request means and the viewpoint specified by the third specifying means Display means for displaying the image of
The main unit is
Playback means for playing back the song indicated by the song identification information in response to a request from the first request means;
Generating means for generating the spatial data in response to a request by the second request means;
Transmitting means for transmitting the spatial data generated by the generating means to the terminal.
端末と、
本体装置と
を具備し、
前記端末は、
曲を識別する曲識別情報と、前記曲の再生に伴って仮想空間において動作する像を識別する像識別情報とを対応付けて記憶する記憶手段と、
ユーザに指定された曲の曲識別情報を特定する第1特定手段と、
前記第1特定手段により特定された曲識別情報に対応する像識別情報を前記記憶手段の記憶内容に基づいて特定する第2特定手段と、
ユーザの操作に応じて前記仮想空間における視点を特定する第3特定手段と、
前記第1特定手段により特定された前記曲識別情報を前記本体装置に送信し、当該曲識別情報が示す曲の再生を要求する第1要求手段と、
前記曲識別情報と、前記第2特定手段により特定された前記像識別情報とを前記本体装置に送信し、前記曲識別情報が示す曲の再生に伴って前記仮想空間において前記像識別情報が示す像に行わせる動作を示す動作データの送信と、当該像識別情報が示す像の形状を示す形状データの送信とを要求する第2要求手段と、
前記第2要求手段による要求に応じて前記本体装置から送信された前記動作データおよび前記形状データと、前記第3特定手段により特定された前記視点とに基づいて、当該視点から前記仮想空間における前記像を見たときの前記画像を表示する表示手段と
を有し、
前記本体装置は、
像識別情報で識別される像の形状を示す形状データを、当該像識別情報ごとに対応付けて記憶する形状データ記憶手段と、
前記第1要求手段による要求に応じて前記曲識別情報が示す曲を再生する再生手段と、
前記第2要求手段による要求に応じて前記動作データおよび前記形状データを生成する生成手段と、
前記生成手段が生成した前記動作データおよび前記形状データを前記端末に送信する送信手段と
を有する
ことを特徴とするカラオケ装置。
A terminal,
A main unit and
The terminal
Storage means for storing song identification information for identifying a song and image identification information for identifying an image operating in a virtual space in association with reproduction of the song;
First identifying means for identifying song identification information of a song designated by the user;
Second specifying means for specifying image identification information corresponding to the music identification information specified by the first specifying means based on the storage content of the storage means;
Third specifying means for specifying a viewpoint in the virtual space according to a user operation;
First request means for transmitting the song identification information identified by the first identification means to the main unit and requesting reproduction of the song indicated by the song identification information;
The music identification information and the image identification information specified by the second specifying means are transmitted to the main device, and the image identification information indicates in the virtual space as the music indicated by the music identification information is reproduced. Second request means for requesting transmission of operation data indicating an operation to be performed on the image and transmission of shape data indicating the shape of the image indicated by the image identification information;
Based on the motion data and the shape data transmitted from the main body device in response to a request by the second request means, and the viewpoint specified by the third specifying means, the viewpoint in the virtual space from the viewpoint Display means for displaying the image when the image is viewed, and
The main unit is
Shape data storage means for storing shape data indicating the shape of the image identified by the image identification information in association with each image identification information;
Playback means for playing back the song indicated by the song identification information in response to a request from the first request means;
Generating means for generating the motion data and the shape data in response to a request by the second request means;
A karaoke apparatus comprising: transmission means for transmitting the motion data and the shape data generated by the generation means to the terminal.
前記端末を複数具備し、
前記本体装置の前記送信手段は、
前記複数の端末のそれぞれから前記第2要求手段により要求されたデータを、当該各端末にそれぞれ送信する
ことを特徴とする請求項1または2に記載のカラオケ装置。
A plurality of the terminals,
The transmission means of the main unit is
The karaoke apparatus according to claim 1 or 2, wherein the data requested by the second request unit from each of the plurality of terminals is transmitted to each terminal.
JP2011101459A 2011-04-28 2011-04-28 Karaoke device, terminal and main unit Expired - Fee Related JP5981095B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011101459A JP5981095B2 (en) 2011-04-28 2011-04-28 Karaoke device, terminal and main unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011101459A JP5981095B2 (en) 2011-04-28 2011-04-28 Karaoke device, terminal and main unit

Publications (2)

Publication Number Publication Date
JP2012233997A true JP2012233997A (en) 2012-11-29
JP5981095B2 JP5981095B2 (en) 2016-08-31

Family

ID=47434373

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011101459A Expired - Fee Related JP5981095B2 (en) 2011-04-28 2011-04-28 Karaoke device, terminal and main unit

Country Status (1)

Country Link
JP (1) JP5981095B2 (en)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1195778A (en) * 1997-09-19 1999-04-09 Pioneer Electron Corp Synchronous video forming method and karaoke machine using the same
JPH11133987A (en) * 1997-10-24 1999-05-21 Daiichikosho Co Ltd Karaoke device having feature in arranged animation display
JPH11224084A (en) * 1997-12-02 1999-08-17 Yamaha Corp Musical-sound responding image generation system, method and device and recording medium therefor
JP2004177586A (en) * 2002-11-26 2004-06-24 Matsushita Electric Ind Co Ltd Mobile communication terminal, and device and system for content reproduction
JP2006011192A (en) * 2004-06-29 2006-01-12 Xing Inc Electronic quick chart device
JP2008089652A (en) * 2006-09-29 2008-04-17 Xing Inc Karaoke device
JP2008158996A (en) * 2006-12-26 2008-07-10 Chugoku Electric Power Co Inc:The Information processor and information processing method
JP2009223517A (en) * 2008-03-14 2009-10-01 Fujitsu Ltd Information processing system, information processing method, and computer program
JP2010224372A (en) * 2009-03-25 2010-10-07 Brother Ind Ltd Avatar data creating device used in karaoke system
JP2010280356A (en) * 2009-06-08 2010-12-16 Toyota Motor Corp Onboard system, and load distribution method
JP2011039854A (en) * 2009-08-12 2011-02-24 Brother Industries Ltd Display terminal unit, and program and display method therefor

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1195778A (en) * 1997-09-19 1999-04-09 Pioneer Electron Corp Synchronous video forming method and karaoke machine using the same
JPH11133987A (en) * 1997-10-24 1999-05-21 Daiichikosho Co Ltd Karaoke device having feature in arranged animation display
JPH11224084A (en) * 1997-12-02 1999-08-17 Yamaha Corp Musical-sound responding image generation system, method and device and recording medium therefor
JP2004177586A (en) * 2002-11-26 2004-06-24 Matsushita Electric Ind Co Ltd Mobile communication terminal, and device and system for content reproduction
JP2006011192A (en) * 2004-06-29 2006-01-12 Xing Inc Electronic quick chart device
JP2008089652A (en) * 2006-09-29 2008-04-17 Xing Inc Karaoke device
JP2008158996A (en) * 2006-12-26 2008-07-10 Chugoku Electric Power Co Inc:The Information processor and information processing method
JP2009223517A (en) * 2008-03-14 2009-10-01 Fujitsu Ltd Information processing system, information processing method, and computer program
JP2010224372A (en) * 2009-03-25 2010-10-07 Brother Ind Ltd Avatar data creating device used in karaoke system
JP2010280356A (en) * 2009-06-08 2010-12-16 Toyota Motor Corp Onboard system, and load distribution method
JP2011039854A (en) * 2009-08-12 2011-02-24 Brother Industries Ltd Display terminal unit, and program and display method therefor

Also Published As

Publication number Publication date
JP5981095B2 (en) 2016-08-31

Similar Documents

Publication Publication Date Title
US10953336B2 (en) Role simulation method and terminal apparatus in VR scene
CN106924966B (en) Game device and processing method
JP5420833B2 (en) Game system
JP4247626B2 (en) Playback apparatus and playback method
JP4755672B2 (en) Content editing apparatus, method and program
JP3534345B1 (en) GAME PROGRAM AND GAME DEVICE
JP2006235268A (en) Radio terminal device and karaoke system
JP2009284953A (en) Game device, game processing method, and program
JP2019101050A (en) Program for assisting in performing musical instrument in virtual space, computer-implemented method for assisting in selecting musical instrument, and information processor
JP4238270B2 (en) Game terminal, difficulty setting device, program, and recording medium
JP2008125721A (en) Game device, operation evaluation method, and program
JP2010066789A (en) Avatar editing server and avatar editing program
JP6438869B2 (en) Karaoke device and karaoke program
JP7184661B2 (en) Programs and electronics
JP6070652B2 (en) Reference display device and program
JP5981095B2 (en) Karaoke device, terminal and main unit
JP6196839B2 (en) A communication karaoke system characterized by voice switching processing during communication duets
JP2018201652A (en) Computer system and program
JP4918010B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP5210908B2 (en) Moving image generating device, game device, moving image generating method, and program
JP6603734B2 (en) GAME PROGRAM AND GAME DEVICE
JP2004283264A (en) Game device, its control method, and program
JP6065224B2 (en) Karaoke equipment
JP2015081985A (en) Apparatus and system for realizing coordinated performance by multiple persons
JP6037557B2 (en) Singing action advance notification system in collaboration singing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150414

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150909

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20150917

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20151030

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160728

R150 Certificate of patent or registration of utility model

Ref document number: 5981095

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees