JP7258441B2 - karaoke device - Google Patents

karaoke device Download PDF

Info

Publication number
JP7258441B2
JP7258441B2 JP2019158283A JP2019158283A JP7258441B2 JP 7258441 B2 JP7258441 B2 JP 7258441B2 JP 2019158283 A JP2019158283 A JP 2019158283A JP 2019158283 A JP2019158283 A JP 2019158283A JP 7258441 B2 JP7258441 B2 JP 7258441B2
Authority
JP
Japan
Prior art keywords
image data
display
unit
face
singer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019158283A
Other languages
Japanese (ja)
Other versions
JP2021039141A (en
Inventor
直孝 野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daiichikosho Co Ltd
Original Assignee
Daiichikosho Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daiichikosho Co Ltd filed Critical Daiichikosho Co Ltd
Priority to JP2019158283A priority Critical patent/JP7258441B2/en
Publication of JP2021039141A publication Critical patent/JP2021039141A/en
Application granted granted Critical
Publication of JP7258441B2 publication Critical patent/JP7258441B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)

Description

本発明は、カラオケ装置に関する。 The present invention relates to a karaoke machine.

従来、カラオケ装置には複数の映像出力端子が設けられており、複数台のディスプレイを接続可能となっている。このようなカラオケ装置をカラオケボックスやナイト店などのカラオケ店舗に導入する場合、利用者がカラオケルーム内のどこに居ても何れかのディスプレイを視認できるように、各ディスプレイが配置される。そして、これら全てのディスプレイに歌詞テロップを表示することで、歌唱者は何れかのディスプレイに表示される歌詞を見ながら歌唱することが可能となる。 2. Description of the Related Art Conventionally, a karaoke machine is provided with a plurality of video output terminals so that a plurality of displays can be connected. When such a karaoke apparatus is installed in a karaoke bar, such as a karaoke box or a night bar, the displays are arranged so that the user can see any one of the displays wherever he is in the karaoke room. By displaying lyrics telops on all of these displays, the singer can sing while looking at the lyrics displayed on any of the displays.

また、近年ではディスプレイが大画面化したことにより、カラオケ事業者はアーティストのライブ映像といった高精細なカラオケ映像を提供するようになってきている。それに伴い、そのような高精細なカラオケ映像をじっくり見て楽しみたいという利用者が増えている。このようにカラオケ映像をじっくり楽しみたい利用者にとってみれば、上記のように全てのディスプレイに歌詞テロップが表示されることは、ライブ映像を楽しむ上でかえって邪魔になる可能性がある。 In recent years, as displays have become larger screens, karaoke operators have come to provide high-definition karaoke videos, such as live videos of artists. Along with this, the number of users who want to thoroughly enjoy watching such high-definition karaoke videos is increasing. For users who want to thoroughly enjoy the karaoke video, the display of lyric telops on all displays as described above may hinder the enjoyment of the live video.

そこで、歌詞テロップを表示させるディスプレイと歌詞テロップを表示させないディスプレイとを切り替える技術が提案されている(特許文献1,2参照)。特許文献1には、カラオケ演奏中に利用者がリモコン装置を使用して、各ディスプレイの表示モードを、歌詞テロップを表示する歌詞表示モードと、演奏曲リストなどの情報を表示する情報表示モードとに手動で切り替える技術が記載されている。特許文献2には、各モニタにリモコン受光部を設け、楽曲の予約信号を受信したリモコン受光部に対応するモニタにその楽曲のカラオケ映像を表示させ、それ以外のモニタには任意の映像を表示させることで、表示モードを自動で切り替える技術が記載されている。 Therefore, techniques for switching between a display that displays lyrics telops and a display that does not display lyrics telops have been proposed (see Patent Literatures 1 and 2). In Patent Document 1, a user uses a remote control device during a karaoke performance to change the display mode of each display into a lyric display mode that displays lyric telops and an information display mode that displays information such as a list of songs played. A technique for manually switching to . In Patent Document 2, each monitor is provided with a remote control light-receiving part, and the monitor corresponding to the remote control light-receiving part that receives the reservation signal of the song displays the karaoke video of the song, and the other monitors display any video. A technique for automatically switching the display mode is described.

特開平9-114477号公報JP-A-9-114477 特開平11-126085号公報JP-A-11-126085

しかし、カラオケ店舗の利用者は、時間の経過や飲酒量の増加によって場が盛り上がってくると、着席しての歌唱に物足りず、席を立って動いたり踊ったりしながら歌唱する場合がある。したがって、特許文献2に記載の技術のように、歌詞テロップを表示するディスプレイが固定されてしまうと、歌唱者は、そのディスプレイを注視しなければならず、自由に動くことができなくなり、歌唱を楽しむことができなくなる。一方、特許文献1に記載の技術を用いて歌詞テロップを表示するディスプレイを切り替えることはできるが、歌唱者が歌唱中にディスプレイを切り替えることは煩わしい。また、歌唱者が歌唱しながらリモコン装置を操作してディスプレイを確実に切り替えることは困難である。 However, as time goes by and the place becomes lively due to an increase in the amount of alcohol consumed, users of karaoke establishments may find it unsatisfactory to sit down and sing while moving or dancing. . Therefore, if the display that displays the lyric telop is fixed as in the technique described in Patent Document 2, the singer must gaze at the display and cannot move freely, which prevents singing. you won't be able to enjoy it. On the other hand, although it is possible to switch the display that displays the lyrics telop using the technology described in Patent Document 1, it is troublesome for the singer to switch the display while singing. Moreover, it is difficult for a singer to reliably switch displays by operating a remote controller while singing.

本発明は例えば上述したような問題に鑑みなされたものであり、本発明の課題は、カラオケ歌唱中において、歌唱者がカラオケ歌唱を楽しむことができ、且つ、歌唱者以外の利用者がカラオケ映像を見て楽しむことが可能なカラオケ装置を提供することにある。 The present invention has been made in view of the above problems, for example, and an object of the present invention is to enable a singer to enjoy karaoke singing while singing karaoke, and to allow users other than the singer to enjoy karaoke videos. To provide a karaoke device with which users can enjoy watching

上記課題を解決するために、本発明のカラオケ装置は、複数の表示部と、前記複数の表示部のそれぞれに対応付けて設けられて各表示部の表示方向の被写体を撮影する複数の撮影部と、が接続されているカラオケ装置において、歌唱者により選曲された楽曲の演奏データに基づいて前記楽曲を演奏する演奏制御部と、前記楽曲の演奏に伴って背景映像と歌詞テロップとを表示部に表示する表示制御部と、予め登録された、顔特徴を示す顔特徴データの中から、前記歌唱者の前記顔特徴データを取得する顔特徴データ取得部と、前記複数の撮影部から出力される撮影画像データから、顔画像を示す顔画像データを検出する顔画像データ検出部と、前記顔画像データ検出部により検出された前記顔画像データの中から、前記歌唱者の前記顔特徴データと一致する前記顔画像データを抽出する顔画像データ抽出部と、前記顔画像データ抽出部により抽出された前記顔画像データから、前記歌唱者の顔方向を検出する顔方向検出部と、前記顔方向検出部の検出結果に基づいて、前記複数の撮影部から出力される撮影画像データの中から、前記歌唱者の顔方向がより正面に近い撮影画像データを選択する撮影画像データ選択部と、を有し、前記表示制御部は、前記撮影画像データ選択部で選択された撮影画像データを出力した撮影部に対応付けられている表示部に歌詞テロップを表示し、該表示部以外の表示部には歌詞テロップを表示しない制御を行うことを特徴とする。 In order to solve the above problems, the karaoke apparatus of the present invention includes a plurality of display units, and a plurality of photographing units provided in association with each of the plurality of display units for photographing a subject in the display direction of each display unit. In the karaoke device connected to, a performance control unit that plays the song based on the performance data of the song selected by the singer, and a display unit that displays a background image and lyrics telop along with the performance of the song , a facial feature data acquisition unit that acquires the facial feature data of the singer from the facial feature data indicating the facial features registered in advance, and output from the plurality of photographing units a face image data detection unit for detecting face image data representing a face image from the photographed image data of the singer; and the facial feature data of the singer from the face image data detected by the face image data detection unit. a face image data extraction unit for extracting the matching face image data; a face direction detection unit for detecting the face direction of the singer from the face image data extracted by the face image data extraction unit; and the face direction. a photographed image data selection unit that selects photographed image data in which the face direction of the singer is closer to the front from the photographed image data output from the plurality of photographing units based on the detection result of the detection unit; The display control unit displays the lyrics telop on the display unit associated with the image capturing unit that outputs the captured image data selected by the captured image data selection unit, and displays the lyrics telop on the display unit other than the display unit. is characterized by performing control not to display the lyric telop.

本発明によれば、カラオケ歌唱中において、歌唱者がカラオケ歌唱を楽しむことができ、且つ、歌唱者以外の利用者がカラオケ映像を見て楽しむことができる。 According to the present invention, a singer can enjoy singing karaoke while singing karaoke, and users other than the singer can enjoy watching karaoke video.

第1実施形態に係るカラオケ装置を備えるカラオケシステムの構成図である。1 is a configuration diagram of a karaoke system provided with a karaoke device according to a first embodiment; FIG. 第1実施形態に係るカラオケ装置の構成を示すブロック図である。1 is a block diagram showing the configuration of a karaoke device according to a first embodiment; FIG. 第1実施形態に係るカラオケ装置の映像入出力部の構成を示すブロック図である。3 is a block diagram showing the configuration of a video input/output unit of the karaoke device according to the first embodiment; FIG. 第1実施形態に係るカラオケ装置を備えるカラオケシステムの動作を示すシーケンス図である。4 is a sequence diagram showing the operation of the karaoke system including the karaoke device according to the first embodiment; FIG. 第1実施形態に係る楽曲予約画面の一例を示す図である。4 is a diagram showing an example of a song reservation screen according to the first embodiment; FIG. 第1実施形態に係るカラオケ装置のカラオケ演奏時の動作を示すフローチャートである。4 is a flow chart showing the operation of the karaoke device according to the first embodiment during karaoke performance. 第1実施形態に係る各カメラから出力される撮影画像データによって示される撮影画像の一例を示す図である。4A and 4B are diagrams showing an example of a captured image represented by captured image data output from each camera according to the first embodiment; FIG. 第2実施形態に係る楽曲予約画面の一例を示す図である。FIG. 11 is a diagram showing an example of a song reservation screen according to the second embodiment; FIG. 第2実施形態に係るカラオケ装置のカラオケ演奏時の動作を示すフローチャートである。It is a flowchart which shows the operation|movement at the time of a karaoke performance of the karaoke apparatus based on 2nd Embodiment. 第2実施形態に係る各カメラから出力される撮影画像データによって示される撮影画像の一例を示す図である。FIG. 10 is a diagram showing an example of a captured image represented by captured image data output from each camera according to the second embodiment;

<第1実施形態>
図1、図2、及び図3を参照して、第1実施形態に係るカラオケ装置について説明する。図1は、第1実施形態に係るカラオケ装置3を備えるカラオケシステム1の構成図である。図2は、第1実施形態に係るカラオケ装置3の構成を示すブロック図である。図3は、第1実施形態に係るカラオケ装置3の映像入出力部33の構成を示すブロック図である。
<First embodiment>
A karaoke apparatus according to the first embodiment will be described with reference to FIGS. 1, 2, and 3. FIG. FIG. 1 is a configuration diagram of a karaoke system 1 including a karaoke device 3 according to the first embodiment. FIG. 2 is a block diagram showing the configuration of the karaoke device 3 according to the first embodiment. FIG. 3 is a block diagram showing the configuration of the video input/output unit 33 of the karaoke device 3 according to the first embodiment.

図1に示すように、カラオケシステム1は、サーバ装置2、複数のカラオケ装置3、複数のリモコン装置4を備えていて、それぞれ相互に情報通信を行うことができる。また、図1に示すように、カラオケ装置3とリモコン装置4とで無線LAN(ローカルエリアネットワーク)5が構築されていて、無線LAN5はルータとモデム(いずれも図示なし)を介してインターネット6に接続されている。また、サーバ装置2は、ルータとモデム(いずれも図示なし)を介してインターネット6に接続されている。なお、図1では、1台のカラオケ装置3に1台のリモコン装置4が接続されているが、1台のカラオケ装置3に複数台のリモコン装置4が接続されていてもよい。 As shown in FIG. 1, a karaoke system 1 includes a server device 2, a plurality of karaoke devices 3, and a plurality of remote control devices 4, which can communicate information with each other. Also, as shown in FIG. 1, a wireless LAN (local area network) 5 is constructed by the karaoke device 3 and the remote control device 4, and the wireless LAN 5 is connected to the Internet 6 via a router and a modem (both not shown). It is connected. The server device 2 is also connected to the Internet 6 via a router and a modem (both not shown). Although one remote control device 4 is connected to one karaoke device 3 in FIG. 1 , a plurality of remote control devices 4 may be connected to one karaoke device 3 .

図2に示すように、サーバ装置2は、カラオケシステム1を利用する利用者の識別情報(以下、利用者IDと呼ぶ。)をログインパスワード、顔特徴データ、歌唱履歴等と対応付けて格納する、利用者データベース21を有する。顔特徴データとは、利用者の顔の特徴を示すデータであり、少なくとも顔の輪郭及び、目、鼻、口の位置を特定可能な情報である。例えば、顔特徴データは、利用者の顔を撮影して得られる画像データである。 As shown in FIG. 2, the server device 2 stores identification information of users who use the karaoke system 1 (hereinafter referred to as user IDs) in association with login passwords, facial feature data, singing histories, and the like. , has a user database 21 . The facial feature data is data indicating features of the user's face, and is information capable of specifying at least the outline of the face and the positions of the eyes, nose, and mouth. For example, facial feature data is image data obtained by photographing a user's face.

カラオケ装置3は、記憶部31と、通信回路32と、映像入出力部33と、カラオケ装置3における各種処理を制御するCPU(中央演算処理装置)等の制御部34と、音響処理部35とを有する。 The karaoke device 3 includes a storage unit 31, a communication circuit 32, a video input/output unit 33, a control unit 34 such as a CPU (central processing unit) that controls various processes in the karaoke device 3, and an audio processing unit 35. have

記憶部31は、例えばフラッシュメモリ等の半導体記憶装置、または例えばハードディスク等の磁気記憶装置を有している。記憶部31は、後述するログイン利用者管理テーブルや予約楽曲管理テーブルを格納する。また、記憶部31は、後述する演奏データを格納する。通信回路32は、ルータ及びインターネット6を介して他の装置(本実施形態では、サーバ装置2)と通信を行うための回路を有している。また、通信回路32は、他の装置(本実施形態では、リモコン装置4)と無線LANを構築するための回路を有している。 The storage unit 31 has a semiconductor storage device such as a flash memory, or a magnetic storage device such as a hard disk. The storage unit 31 stores a login user management table and a reserved music management table, which will be described later. The storage unit 31 also stores performance data, which will be described later. The communication circuit 32 has a circuit for communicating with another device (the server device 2 in this embodiment) via the router and the Internet 6 . The communication circuit 32 also has a circuit for building a wireless LAN with another device (the remote control device 4 in this embodiment).

映像入出力部33は、複数の映像出力端子と複数の映像入力端子とを有し、一つの映像出力端子に対して、一つの映像入力端子が対応付けられている。本実施形態では、映像入出力部33は、図3に示すように、3つの映像出力端子331a,331b,331cと3つの映像入力端子332a,332b,332cとを有する。そして、映像出力端子331aと映像入力端子332aが、映像出力端子331bと映像入力端子332bが、映像出力端子331cと映像入力端子332cがそれぞれ対応付けられている。 The video input/output unit 33 has a plurality of video output terminals and a plurality of video input terminals, and one video input terminal is associated with one video output terminal. In this embodiment, as shown in FIG. 3, the video input/output unit 33 has three video output terminals 331a, 331b, 331c and three video input terminals 332a, 332b, 332c. The video output terminal 331a is associated with the video input terminal 332a, the video output terminal 331b is associated with the video input terminal 332b, and the video output terminal 331c is associated with the video input terminal 332c.

映像出力端子331a,331b,331cには複数の表示部(ディスプレイ)が接続されている。具体的には、映像出力端子331aにディスプレイ10aが、映像出力端子331bにディスプレイ10bが、映像出力端子331cにディスプレイ10cが接続されている。ディスプレイ10a,10b,10cは、カラオケ装置3が設置されるカラオケルームのレイアウトに応じて、利用者がカラオケルーム内のどこに居ても何れかのディスプレイを視認できるように、カラオケルーム内に配置される。 A plurality of display units (displays) are connected to the video output terminals 331a, 331b, and 331c. Specifically, the display 10a is connected to the video output terminal 331a, the display 10b is connected to the video output terminal 331b, and the display 10c is connected to the video output terminal 331c. The displays 10a, 10b, and 10c are arranged in the karaoke room so that the user can visually recognize one of the displays depending on the layout of the karaoke room in which the karaoke device 3 is installed. be.

映像入力端子332a,332b,332cには複数の撮影部であるカメラが接続されている。具体的には、映像入力端子332aにカメラ11aが、映像入力端子332bにカメラ11bが、映像入力端子332cにカメラ11cが接続されている。 Cameras, which are a plurality of photographing units, are connected to the video input terminals 332a, 332b, and 332c. Specifically, the video input terminal 332a is connected to the camera 11a, the video input terminal 332b is connected to the camera 11b, and the video input terminal 332c is connected to the camera 11c.

カメラ11a,11b,11cは、ディスプレイ10a,10b,10cの表示方向を撮影可能なように配置される。本実施形態では、カメラ11aがディスプレイ10aの表示方向の被写体を撮影し、カメラ11bがディスプレイ10bの表示方向の被写体を撮影し、カメラ11cがディスプレイ10cの表示方向の被写体を撮影する。ここで、ディスプレイの表示方向とは、ディスプレイの画面に対面する方向であり、ディスプレイの前方である。 The cameras 11a, 11b and 11c are arranged so as to be able to photograph the display directions of the displays 10a, 10b and 10c. In this embodiment, the camera 11a captures the subject in the display direction of the display 10a, the camera 11b captures the subject in the display direction of the display 10b, and the camera 11c captures the subject in the display direction of the display 10c. Here, the display direction of the display is the direction facing the screen of the display, which is the front of the display.

また、カメラ11a,11b,11cは、撮影して得られた撮影画像データをカラオケ装置3の映像入力端子332a,332b,332cに出力する。具体的には、カメラ11aが、ディスプレイ10aの表示方向の撮影画像データCD1を映像入力端子332aに出力する。カメラ11bが、ディスプレイ10bの表示方向の撮影画像データCD2を映像入力端子332bに出力する。カメラ11cが、ディスプレイ10cの表示方向の撮影画像データCD3を映像入力端子332cに出力する。 The cameras 11a, 11b, and 11c also output captured image data obtained by capturing images to video input terminals 332a, 332b, and 332c of the karaoke machine 3, respectively. Specifically, the camera 11a outputs captured image data CD1 in the display direction of the display 10a to the video input terminal 332a. The camera 11b outputs captured image data CD2 in the display direction of the display 10b to the video input terminal 332b. The camera 11c outputs the captured image data CD3 in the display direction of the display 10c to the video input terminal 332c.

制御部34は、例えば記憶部31に記憶されたコンピュータプログラムを読み取って実行することにより、後述する機能ブロック341~347として機能する。 The control unit 34 functions as functional blocks 341 to 347, which will be described later, by reading and executing computer programs stored in the storage unit 31, for example.

演奏制御部341は、利用者(歌唱者)により選曲された楽曲の演奏データに基づいて楽曲を演奏する。表示制御部342は、楽曲の演奏に伴って、背景映像及び歌詞テロップをディスプレイ10a,10b,10cに表示する制御を行う。顔特徴データ取得部343は、歌唱者の顔特徴データを取得する。 The performance control unit 341 plays music based on the performance data of the music selected by the user (singer). The display control unit 342 performs control to display background images and lyric telops on the displays 10a, 10b, and 10c as the music is played. The facial feature data acquisition unit 343 acquires facial feature data of the singer.

顔画像データ検出部344は、カメラ11a,11b,11cから入力される撮影画像データCD1,CD2,CD3から、顔画像データを検出する。顔画像データ抽出部345は、顔特徴データ取得部343により取得された歌唱者の顔特徴データに基づいて、顔画像データ検出部344により検出された顔画像データから、歌唱者の顔画像データを抽出する。顔方向検出部346は、顔画像データ抽出部345により抽出された歌唱者の顔画像データに基づいて、歌唱者の顔方向を検出する。撮影画像データ選択部347は、顔方向検出部346により検出された歌唱者の顔方向に基づいて、カメラ11a,11b,11cから入力される撮影画像データから、歌唱者の顔方向がより正面に近い撮影画像データを選択する。 The face image data detection unit 344 detects face image data from the photographed image data CD1, CD2 and CD3 input from the cameras 11a, 11b and 11c. The face image data extraction unit 345 extracts the face image data of the singer from the face image data detected by the face image data detection unit 344 based on the face feature data of the singer acquired by the face feature data acquisition unit 343. Extract. The face direction detection unit 346 detects the face direction of the singer based on the singer's face image data extracted by the face image data extraction unit 345 . Based on the face direction of the singer detected by the face direction detection unit 346, the photographed image data selection unit 347 selects the face direction of the singer from the photographed image data input from the cameras 11a, 11b, and 11c. Select the closest photographed image data.

音響処理部35は、演奏制御部341の制御に基づき、楽曲に対する演奏の制御およびマイク(マイクロフォン)8を通じて入力された歌唱音声信号の処理を行う。音響処理部35は、たとえばMIDI音源、A/Dコンバータ、DSP(Digital Signal Processor)を含むミキサ、D/Aコンバータ、アンプ(いずれも図示なし)を含む。演奏制御部341は、予約された楽曲の演奏データを、テンポクロック信号に基づいて記憶部31から順次読み出し、MIDI音源に入力する。MIDI音源は、入力された演奏データに基づいて楽音信号を生成する。A/Dコンバータは、マイク8から入力される歌唱音声信号をデジタル音声データに変換し、ミキサ(DSP)に入力する。ミキサは、上記楽音信号および上記デジタル音声データを適当な比率でミキシングする。D/Aコンバータはミキシング信号をアナログ音声信号に変換し、アンプは、D/Aコンバータからのアナログ音声信号を増幅し、放音信号としてスピーカ9へ出力する。これにより、スピーカ9からは放音信号に基づくカラオケ演奏音およびマイク8からの歌唱音声が放音される。 The acoustic processing unit 35 controls the performance of music and processes the singing voice signal input through the microphone 8 under the control of the performance control unit 341 . The sound processing unit 35 includes, for example, a MIDI sound source, an A/D converter, a mixer including a DSP (Digital Signal Processor), a D/A converter, and an amplifier (all not shown). The performance control unit 341 sequentially reads the performance data of the reserved music pieces from the storage unit 31 based on the tempo clock signal, and inputs them to the MIDI sound source. The MIDI tone generator generates musical tone signals based on the input performance data. The A/D converter converts the singing voice signal input from the microphone 8 into digital voice data and inputs it to the mixer (DSP). A mixer mixes the musical tone signal and the digital audio data at an appropriate ratio. The D/A converter converts the mixed signal into an analog audio signal, and the amplifier amplifies the analog audio signal from the D/A converter and outputs it to the speaker 9 as a sound emission signal. As a result, the karaoke performance sound based on the sound emission signal and the singing voice from the microphone 8 are emitted from the speaker 9 .

リモコン装置4は、タッチパネル41と、記憶部42と、通信回路43と、CPU(中央演算処理装置)等の制御部44とを有する。 The remote control device 4 has a touch panel 41, a storage section 42, a communication circuit 43, and a control section 44 such as a CPU (Central Processing Unit).

タッチパネル41は、各種情報を表示する表示部として機能するとともに、ユーザの入力操作を受け付ける入力部として機能する。記憶部42は、例えばフラッシュメモリ等の半導体記憶装置を有している。通信回路43は、カラオケ装置3と無線LAN5を構築するための回路を有している。 The touch panel 41 functions as a display unit that displays various types of information, and also functions as an input unit that receives user input operations. The storage unit 42 has a semiconductor storage device such as a flash memory. The communication circuit 43 has a circuit for constructing the karaoke device 3 and the wireless LAN 5 .

制御部44は、例えば記憶部42に記憶されたコンピュータプログラムを読み取って実行することにより、リモコン装置4における各種処理を制御する。本実施形態では、制御部44は、楽曲の検索メニューや楽曲の検索結果などの各種情報を示す画面(後述する楽曲検索画面や楽曲予約画面など)をタッチパネル41に表示する。また、制御部44は、ユーザがタッチパネル41介して入力した情報を、通信回路43を介してカラオケ装置3やサーバ装置2に送信する。 The control unit 44 controls various processes in the remote control device 4 by reading and executing computer programs stored in the storage unit 42, for example. In the present embodiment, the control unit 44 displays on the touch panel 41 a screen (a music search screen, a music reservation screen, etc., which will be described later) showing various information such as a music search menu and music search results. Further, the control unit 44 transmits information input by the user via the touch panel 41 to the karaoke device 3 and the server device 2 via the communication circuit 43 .

続いて、図4及び図5を参照して、利用者が楽曲予約をする際のカラオケシステム1の動作を説明する。 Next, with reference to FIGS. 4 and 5, the operation of the karaoke system 1 when a user reserves music will be described.

図4は、利用者が楽曲予約をする際のカラオケシステム1の動作を示すシーケンス図である。図5は、第1実施形態に係る楽曲予約画面の一例を示す図である。まず、利用者はリモコン装置4を使用して利用者IDとパスワードとの入力によるログイン操作を行う。リモコン装置4の制御部44は、ログイン操作により入力された利用者IDとパスワードの組み合わせをサーバ装置2に送信する(ステップS401)。 FIG. 4 is a sequence diagram showing the operation of the karaoke system 1 when a user reserves a song. FIG. 5 is a diagram showing an example of a song reservation screen according to the first embodiment. First, the user uses the remote controller 4 to perform a login operation by entering a user ID and a password. The control unit 44 of the remote control device 4 transmits the combination of the user ID and password input by the login operation to the server device 2 (step S401).

サーバ装置2は、リモコン装置4から受信した利用者IDとパスワードの組み合わせに対応する、歌唱履歴や顔特徴データを、リモコン装置4に送信する(ステップS402)。リモコン装置4の制御部44は、サーバ装置2から受信した顔特徴データを利用者IDと共に、ログイン利用者情報としてカラオケ装置3に送信する(ステップS403)。 Server device 2 transmits to remote control device 4 the singing history and facial feature data corresponding to the combination of the user ID and password received from remote control device 4 (step S402). The control unit 44 of the remote control device 4 transmits the facial feature data received from the server device 2 together with the user ID to the karaoke device 3 as login user information (step S403).

カラオケ装置3の制御部34は、通信回路32を介して、リモコン装置4から送信されたログイン利用者情報を受信する。そして、制御部34は、受信したログイン利用者情報をログイン利用者管理テーブルに登録する(ステップS404)。ログイン利用者管理テーブルは、利用者の利用者IDと顔特徴データとを対応づけて格納するテーブルである。 The control unit 34 of the karaoke device 3 receives the login user information transmitted from the remote control device 4 via the communication circuit 32 . Then, the control unit 34 registers the received login user information in the login user management table (step S404). The login user management table is a table that stores user IDs of users and facial feature data in association with each other.

次いで、利用者は、リモコン装置4を操作して、リモコン装置4のタッチパネル41に楽曲検索画面(図示なし)を表示させる。そして、利用者は、楽曲検索画面から予約候補の楽曲(歌唱を希望する楽曲)を検索し、検索結果から予約候補の楽曲を決定する。すると、リモコン装置4の制御部44は、タッチパネル41に、図5に示す楽曲予約画面50を表示させる。その際、制御部44は、楽曲予約画面50に利用者アイコン(カラオケ装置3にログインしている利用者のアイコン)の一覧51を表示する。利用者は、楽曲予約画面50に表示されている、利用者アイコンの一覧51から、自身の利用者アイコンを選択する。図5に示す例では、3人の利用者の利用者アイコン52~54が表示されていて、利用者アイコン53が選択されている様子が示されている。なお、利用者が他の利用者の予約操作を代行して行う場合には、該他の利用者の利用者アイコンを選択すればよい。また、利用者アイコンは、利用者毎のログイン操作時にリモコン装置4がサーバ装置2から受信し、当該利用者の利用者IDと対応付けられている。 Next, the user operates the remote control device 4 to display a song search screen (not shown) on the touch panel 41 of the remote control device 4 . Then, the user searches for reservation candidate music (music desired to be sung) from the music search screen, and determines the reservation candidate music from the search results. Then, the control unit 44 of the remote control device 4 causes the touch panel 41 to display the song reservation screen 50 shown in FIG. At that time, the control unit 44 displays a list 51 of user icons (icons of users logged into the karaoke device 3) on the song reservation screen 50. FIG. The user selects his/her own user icon from the user icon list 51 displayed on the music reservation screen 50 . In the example shown in FIG. 5, user icons 52 to 54 of three users are displayed, and user icon 53 is selected. When the user performs the reservation operation on behalf of another user, the user icon of the other user may be selected. Further, the user icon is received by the remote control device 4 from the server device 2 when each user performs a login operation, and is associated with the user ID of the user.

利用者が楽曲予約画面上の転送ボタン55を押下すると、リモコン装置4の制御部44は、予約候補として決定された楽曲の識別情報(以下、楽曲IDと呼ぶ。)と利用者IDとを予約楽曲情報としてカラオケ装置3に送信する(ステップS411)。なお、ここで送信される利用者IDは、予約操作において選択された利用者アイコンに対応する利用者の利用者IDである。カラオケ装置3の制御部34は、リモコン装置4から受信した予約楽曲情報を予約楽曲管理テーブルに登録する(ステップS412)。 When the user presses the transfer button 55 on the song reservation screen, the controller 44 of the remote controller 4 reserves the identification information of the song determined as a reservation candidate (hereinafter referred to as song ID) and the user ID. It is transmitted to the karaoke device 3 as music information (step S411). The user ID transmitted here is the user ID of the user corresponding to the user icon selected in the reservation operation. The controller 34 of the karaoke device 3 registers the reserved music piece information received from the remote control device 4 in the reserved music management table (step S412).

図6及び図7を参照して、第1実施形態に係るカラオケ装置3のカラオケ演奏時の動作について説明する。図6は、第1実施形態に係るカラオケ装置3のカラオケ演奏時の動作を示すフローチャートである。まず、カラオケ装置3の制御部34は、予約楽曲管理テーブルに登録された予約楽曲情報を読み出す(ステップS601)。なお、予約楽曲情報は、登録順に従って1つずつ(一曲ずつ)読み出されるものとする。また、読み出された予約楽曲情報は、予約楽曲管理テーブルから削除されるものとする。次いで、制御部34は、読み出した予約楽曲情報に含まれる楽曲IDに対応する楽曲データ、歌詞テロップデータ、及び背景映像データを記憶部31から読み出す(ステップS602)。さらに、制御部34(より具体的には顔特徴データ取得部343)は、予約楽曲情報に含まれる利用者IDに対応する顔特徴データをログイン利用者管理テーブルから読み出す(ステップS603)。 The operation of the karaoke apparatus 3 according to the first embodiment during karaoke performance will be described with reference to FIGS. 6 and 7. FIG. FIG. 6 is a flow chart showing the operation of the karaoke device 3 according to the first embodiment during karaoke performance. First, the control unit 34 of the karaoke device 3 reads reserved music information registered in the reserved music management table (step S601). It is assumed that the reserved music information is read one by one (one by one) in the order of registration. Further, it is assumed that the read reserved music information is deleted from the reserved music management table. Next, the control unit 34 reads the song data, lyrics telop data, and background image data corresponding to the song ID included in the read reserved song information from the storage unit 31 (step S602). Furthermore, the control unit 34 (more specifically, the facial feature data acquisition unit 343) reads facial feature data corresponding to the user ID included in the reserved music information from the login user management table (step S603).

制御部34は、読み出した楽曲データ、歌詞テロップデータ、及び背景映像データに基づいて、カラオケ演奏(楽曲の演奏)と、各ディスプレイに対する背景映像の表示と歌詞テロップの表示とを開始する(ステップS604)。制御部34は、カラオケ演奏が終了するまで、ステップS606~S610の処理を所定時間毎に繰り返す(ステップS605)。 Based on the read music data, lyrics telop data, and background image data, the control unit 34 starts performing karaoke (music performance) and displaying background images and lyrics telops on each display (step S604). ). The control unit 34 repeats the processing of steps S606 to S610 at predetermined time intervals until the karaoke performance ends (step S605).

まず、制御部34(より具体的には顔画像データ検出部344)は、カメラ11a,11b,11cから継続的に入力される撮影画像データCD1,CD2,CD3に基づいて、利用者の顔画像データを検出する(ステップS606)。顔画像データの検出方法としては、例えば、特開2000-2833号公報に記載の方法がある。この方法では、エッジ検出により各撮影画像データが示す視野内の画像の輪郭を抽出し、輪郭で囲まれた領域のうち、所定以上の大きさの面積を有する領域を顔画像領域として検出する。さらに、顔画像データ検出部344は、検出した顔画像領域の輪郭や顔画像領域内における目、鼻、及び口の位置を利用して、利用者の顔画像の特徴を認識することにより、各撮影画像データから顔画像データを検出する。図7は、各カメラから入力される撮影画像データによって示される撮影画像の一例を示す図である。なお、図7における破線の枠は、顔画像データとして検出された領域を模式的に示している。ここでは、図7に示すように、撮影画像データCD1から2名の利用者の顔画像データが検出されたとする。また、撮影画像データCD2から3名の利用者の顔画像データが検出されたとする。さらに、撮影画像データCD3から1名の利用者の顔画像データが検出されたとする。 First, the control unit 34 (more specifically, the face image data detection unit 344) detects the user's face image based on the photographed image data CD1, CD2, and CD3 continuously input from the cameras 11a, 11b, and 11c. Data is detected (step S606). As a method of detecting face image data, for example, there is a method described in Japanese Patent Application Laid-Open No. 2000-2833. In this method, edge detection is used to extract the contour of the image within the field of view indicated by each shot image data, and the region surrounded by the contour and having an area larger than a predetermined size is detected as the face image region. Furthermore, the face image data detection unit 344 uses the detected outline of the face image area and the positions of the eyes, nose, and mouth in the face image area to recognize the features of the user's face image, thereby Face image data is detected from photographed image data. FIG. 7 is a diagram showing an example of a captured image represented by captured image data input from each camera. A dashed frame in FIG. 7 schematically shows an area detected as face image data. Here, as shown in FIG. 7, it is assumed that face image data of two users are detected from the photographed image data CD1. It is also assumed that face image data of three users are detected from the photographed image data CD2. Furthermore, it is assumed that the face image data of one user is detected from the photographed image data CD3.

次いで、顔画像データ抽出部345は、ステップS606で検出された各顔画像データの中から、ログイン利用者管理テーブルから読み出した歌唱者の顔特徴データと一致する顔画像データ、すなわち歌唱者の顔画像データを抽出する(ステップS607)。顔画像データ抽出部345は、例えば、特開2010-262072号公報の段落0046に記載の方法を用いて、顔特徴データと各撮影画像データの顔画像データとにおいて、顔の輪郭及び、目、鼻、口の位置を比較してその一致度を数値化する。そして、顔画像データ抽出部345は、一致度が所定の閾値以下であれば、両者は一致していないと判断し、一致度が所定の閾値を超えていれば、両者は一致していると判断する。このようにして、顔画像データ抽出部345は、各撮影画像データから検出された顔画像データの中から、歌唱者の顔画像データを抽出する。ここでは、図7に示すように、撮影画像データCD1から検出された顔画像データの中から、歌唱者の顔特徴データと一致すると判断された顔画像データFD1が抽出されたとする。また、撮影画像データCD2から検出された顔画像データの中から、歌唱者の顔特徴データと一致すると判断された顔画像データFD2が抽出されたとする。さらに、撮影画像データCD3から検出された顔画像データの中から、歌唱者の顔特徴データと一致すると判断された顔画像データFD3が抽出されたとする。 Next, the face image data extraction unit 345 extracts face image data that matches the face feature data of the singer read from the login user management table, that is, the face of the singer, from among the face image data detected in step S606. Image data is extracted (step S607). The face image data extracting unit 345 extracts the contour of the face, eyes, Compare the positions of the nose and mouth and quantify the degree of matching. Then, the face image data extracting unit 345 determines that the two do not match when the degree of matching is equal to or less than a predetermined threshold, and determines that the two match when the degree of matching exceeds the predetermined threshold. to decide. In this way, the face image data extraction unit 345 extracts the face image data of the singer from among the face image data detected from each photographed image data. Here, as shown in FIG. 7, it is assumed that facial image data FD1 that has been determined to match the facial feature data of the singer is extracted from facial image data detected from photographed image data CD1. It is also assumed that facial image data FD2 determined to match the facial feature data of the singer is extracted from the facial image data detected from the photographed image data CD2. Furthermore, it is assumed that facial image data FD3, which is determined to match the facial feature data of the singer, is extracted from facial image data detected from photographed image data CD3.

次いで、制御部34(より具体的には顔方向検出部346)は、歌唱者の顔特徴データと一致するとして抽出された全ての顔画像データ(顔画像データFD1,FD2,FD3)について、顔の向き(以下、顔方向と呼ぶ。)を検出する(ステップS608)。顔方向の検出方法としては、例えば、特開2015-109614号公報の段落0018~0022に記載の方法がある。この方法では、顔画像データから目、鼻等の特徴点である水平ラインと垂直ラインを検出し、その検出結果から顔の回転角度を判断する。そして、顔の回転角度に基づいて歌唱者の顔方向を検出する。顔方向検出部346は、このような方法を用いて、歌唱者の顔画像データから歌唱者の顔方向を検出する。ここでは、顔画像データFD1によって示される歌唱者の顔方向が正面向き(図7における手前方向)として検出され、顔画像データFD2によって示される歌唱者の顔方向が右向き(図7における左方向)として検出され、顔画像データFD3によって示される歌唱者の顔方向が左向き(図7における右方向)として検出されたとする。 Next, the control unit 34 (more specifically, the face direction detection unit 346) detects all face image data (face image data FD1, FD2, FD3) extracted as matching the facial feature data of the singer. direction (hereinafter referred to as face direction) is detected (step S608). As a face direction detection method, for example, there is a method described in paragraphs 0018 to 0022 of Japanese Patent Application Laid-Open No. 2015-109614. In this method, horizontal lines and vertical lines, which are feature points such as eyes and nose, are detected from face image data, and the rotation angle of the face is determined from the detection results. Then, the direction of the singer's face is detected based on the rotation angle of the face. The face direction detection unit 346 detects the face direction of the singer from the face image data of the singer using such a method. Here, the face direction of the singer indicated by the face image data FD1 is detected as facing the front (the front direction in FIG. 7), and the face direction of the singer indicated by the face image data FD2 is the right direction (left direction in FIG. 7). , and the face direction of the singer indicated by the face image data FD3 is detected as leftward (rightward in FIG. 7).

次いで、制御部34(より具体的には撮影画像データ選択部347)は、ステップS608の検出結果に基づき、歌唱者の顔方向がより正面に近い顔画像データを含む撮影画像データを選択する(ステップS609)。顔画像データが示す歌唱者の顔方向が正面に近いということは、その顔画像データを含む撮影画像データを出力するカメラの方を歌唱者が注視していることになる。図7に示す例では、顔方向が正面向きである顔画像データFD1を含む撮影画像データCD1が選択される。 Next, the control unit 34 (more specifically, the photographed image data selection unit 347) selects photographed image data including face image data in which the singer's face direction is closer to the front based on the detection result of step S608 ( step S609). The fact that the singer's face direction indicated by the face image data is close to the front means that the singer is gazing at the camera that outputs the photographed image data including the face image data. In the example shown in FIG. 7, photographed image data CD1 including face image data FD1 whose face direction is frontal is selected.

最後に、制御部34(より具体的には表示制御部342)は、歌詞テロップの表示と非表示の制御を行う(ステップS610)。その際、表示制御部342は、ステップS609で選択された撮影画像データCD1を出力するカメラ11aが接続された映像入力端子332aに対応する映像出力端子331aに接続されたディスプレイ10aを、歌唱者が注視するディスプレイとして特定する。そして、表示制御部342は、特定したディスプレイ10aに歌詞テロップを表示し、ディスプレイ10b及びディスプレイ10cには歌詞テロップを表示しないように制御する。なお、表示制御部342は、歌詞テロップの表示区間でのみ歌詞テロップの表示と非表示の制御を行うこととし、前奏や間奏といった歌詞テロップの非表示区間においては、歌唱者が注視するディスプレイが特定されたとしても、歌詞テロップの表示と非表示の制御は行わないこととしてもよい。 Finally, the control unit 34 (more specifically, the display control unit 342) controls display and non-display of the lyrics telop (step S610). At that time, the display control unit 342 displays the display 10a connected to the video output terminal 331a corresponding to the video input terminal 332a to which the camera 11a that outputs the captured image data CD1 selected in step S609 is connected. Identify it as a display to watch. Then, the display control unit 342 controls to display the lyric telop on the specified display 10a and not to display the lyric telop on the displays 10b and 10c. The display control unit 342 controls display and non-display of the lyric telop only in the lyric telop display section. Even if it is displayed, the display and non-display control of the lyric telop may not be performed.

制御部34は、ステップS606~S610の処理をカラオケ演奏が終了するまで所定時間毎に繰り返し、カラオケ演奏が終了すると処理を終了する。なお、予約楽曲管理テーブルに予約楽曲情報が残っている場合には、制御部34は、それらの予約楽曲情報に対してステップS601~S610の処理を繰り返し実行する。なお、所定時間は、例えば歌唱者が、あるディスプレイから他のディスプレイに顔の向きを90度変える場合に、顔方向を30度ずつ検出できる程度の短い時間が望ましい。この場合、歌唱者の顔の向きが60度変わった時点で、他のディスプレイが歌唱者の注視するディスプレイとして特定されて歌詞テロップが表示されるため、歌唱者に歌詞表示の遅れによる違和感を与えることがない。 The control unit 34 repeats the processing of steps S606 to S610 at predetermined time intervals until the karaoke performance ends, and terminates the processing when the karaoke performance ends. Note that, when reserved music information remains in the reserved music management table, the control section 34 repeatedly executes the processing of steps S601 to S610 for the reserved music information. It should be noted that the predetermined time is desirably short enough to detect the direction of the face by 30 degrees, for example, when the singer changes the direction of the face from one display to another by 90 degrees. In this case, when the direction of the singer's face changes by 60 degrees, another display is specified as the display that the singer is paying attention to, and the lyric telop is displayed. never

以上、第1実施形態によれば、歌唱者は、体の向きや姿勢、場所に応じて自分が見やすいディスプレイを注視することで、そのディスプレイのみに歌詞テロップを表示させることができる。また、歌唱者以外の利用者は、歌詞テロップが表示されているディスプレイ以外の何れかのディスプレイを見ることで、カラオケ映像を楽しむことができる。 As described above, according to the first embodiment, the singer can display the lyric telop only on the display by focusing on the display that is easy for the singer to see according to the orientation, posture, and location of the body. Also, users other than the singer can enjoy the karaoke video by looking at any display other than the display on which the lyrics telop is displayed.

<第2実施形態>
次に、第2実施形態に係るカラオケシステム1について説明する。第2実施形態に係るカラオケシステム1は、利用者が楽曲検索画面にてデュエット楽曲を選曲した場合に、楽曲予約画面にてデュエット楽曲の歌唱パート毎に利用者に利用者アイコンを指定させて、歌唱パートと歌唱者とを対応付けする。
<Second embodiment>
Next, the karaoke system 1 according to the second embodiment will be described. When the user selects a duet song on the song search screen, the karaoke system 1 according to the second embodiment causes the user to specify a user icon for each singing part of the duet song on the song reservation screen, Associate singing parts with singers.

なお、第2実施形態のカラオケシステム1の構成は、第1実施形態と同様である。したがって、第2実施形態については第1実施形態と同様な構成については説明を省略する。また、第2実施形態に係るカラオケシステム1においては、第1実施形態と同一の名称には同一の符号を付して説明する。 The configuration of the karaoke system 1 of the second embodiment is the same as that of the first embodiment. Therefore, for the second embodiment, the description of the configuration similar to that of the first embodiment will be omitted. Also, in the karaoke system 1 according to the second embodiment, the same reference numerals are given to the same names as in the first embodiment.

また、利用者が楽曲予約をする際の第2実施形態に係るカラオケシステム1の動作は、図4に示す第1実施形態に係るカラオケシステム1の動作と同様である。ただし、利用者が、楽曲検索画面にてデュエット楽曲を予約候補の楽曲として決定した場合には、リモコン装置4の制御部44は、タッチパネル41に、図8に示す楽曲予約画面80を表示させる。 Also, the operation of the karaoke system 1 according to the second embodiment when the user reserves a song is the same as the operation of the karaoke system 1 according to the first embodiment shown in FIG. However, when the user determines a duet song as a reservation candidate song on the song search screen, the control unit 44 of the remote controller 4 causes the touch panel 41 to display a song reservation screen 80 shown in FIG.

図8は、第2実施形態に係る楽曲予約画面の一例を示す図である。図8に示すように、楽曲予約画面80には、歌唱パート毎に利用者アイコンの一覧81が表示され、歌唱パート毎に歌唱者を指定することが可能となっている。なお、本実施形態では、説明を簡単にするため、第1歌唱パートと第2歌唱パートの2つの歌唱パートを含むデュエット楽曲が予約された場合を例にする。 FIG. 8 is a diagram showing an example of a song reservation screen according to the second embodiment. As shown in FIG. 8, on the music reservation screen 80, a list 81 of user icons is displayed for each singing part, and it is possible to designate a singer for each singing part. In addition, in this embodiment, for the sake of simplicity, it is assumed that a duet song containing two singing parts, a first singing part and a second singing part, is reserved.

例えば、利用者X,Yが、楽曲予約画面80にて、予約候補のデュエット楽曲の第1歌唱パートに利用者Xの利用者アイコン83を指定し、第2歌唱パートに利用者Yの利用者アイコン82を指定したとする。その状態で楽曲予約画面の転送ボタン85が押下されると、ステップS411にて、予約候補の楽曲ID、第1歌唱パートのID、利用者Xの利用者ID、第2歌唱パートのID、及び利用者Yの利用者IDが予約楽曲情報としてカラオケ装置3に送信される。歌唱パートのIDは、歌唱パートを特定可能な識別情報であり、例えば歌唱パートのパートナンバーである。なお、このような歌唱パートのIDと利用者IDを含む予約楽曲情報が送信された際には、カラオケ装置3では、第1歌唱パートのIDと利用者Xの利用者IDが対応付けられ、第2歌唱パートのIDと利用者Yの利用者IDが対応付けられる。 For example, on the song reservation screen 80, users X and Y specify the user icon 83 of user X as the first singing part of the duet song of the reservation candidate, and user Y's user icon 83 as the second singing part. Assume that the icon 82 is specified. In this state, when the transfer button 85 on the music reservation screen is pressed, in step S411, the music ID of the reservation candidate, the ID of the first singing part, the user ID of user X, the ID of the second singing part, and The user ID of the user Y is transmitted to the karaoke machine 3 as reserved music information. The singing part ID is identification information that can identify the singing part, and is, for example, the part number of the singing part. When the reserved music information including the singing part ID and the user ID is transmitted, the karaoke device 3 associates the ID of the first singing part with the user ID of the user X, The ID of the second singing part and the user ID of user Y are associated with each other.

図9は、第2実施形態に係るカラオケ装置3のカラオケ演奏時の動作を示すフローチャートである。なお、ステップS901,S902,S904の処理は、ステップS601,S602,S604の処理と同様であるが、ステップS903では、制御部34(より具体的には顔特徴データ取得部343)は、予約楽曲情報に含まれる第1歌唱パートのIDに対応付けられた利用者IDに対応する利用者Xの顔特徴データと、第2歌唱パートのIDに対応付けられた利用者IDに対応する利用者Yの顔特徴データを、ログイン利用者管理テーブルから読み出す。 FIG. 9 is a flow chart showing the operation of the karaoke machine 3 according to the second embodiment during karaoke performance. The processing of steps S901, S902, and S904 is the same as the processing of steps S601, S602, and S604, but in step S903, the control unit 34 (more specifically, the facial feature data acquisition unit 343) Facial feature data of user X corresponding to the user ID associated with the ID of the first singing part included in the information, and user Y corresponding to the user ID associated with the ID of the second singing part included in the information from the login user management table.

ステップS904の後、制御部34は、カラオケ演奏が終了するまで、ステップS906~S910の処理を所定時間毎に各歌唱パートに対して交互に繰り返す(ステップS905)。 After step S904, the control unit 34 alternately repeats the processing of steps S906 to S910 for each singing part at predetermined time intervals until the karaoke performance ends (step S905).

まず、第1歌唱パートに対して行われるステップS906~S910の処理を説明する。制御部34(より具体的には顔画像データ検出部344)は、各カメラから継続的に入力される撮影画像データに基づいて、利用者の顔画像データを検出する(ステップS906)。顔画像データの検出方法は、ステップS606の処理と同様である。なお、ここでは、カメラ11a,11b,11cから図10に示す撮影画像データCD1,CD2,CD3が入力されたものとする。 First, the processing of steps S906 to S910 performed for the first singing part will be described. The control unit 34 (more specifically, the face image data detection unit 344) detects the user's face image data based on the photographed image data continuously input from each camera (step S906). The method of detecting face image data is the same as the processing in step S606. Here, it is assumed that photographed image data CD1, CD2 and CD3 shown in FIG. 10 are input from the cameras 11a, 11b and 11c.

次いで、顔画像データ抽出部345は、ステップS906で検出した各顔画像データの中から、ログイン利用者管理テーブルから読み出した利用者Xの顔特徴データと一致する顔画像データを抽出する(ステップS907)。ここでは、図10に示すように、撮影画像データCD1の顔画像データの中から、利用者Xの顔特徴データと一致する顔画像データとして顔画像データFD4が抽出されたとする。また、撮影画像データCD2の顔画像データの中から、利用者Xの顔特徴データと一致する顔画像データとして顔画像データFD5が抽出されたとする。 Next, the facial image data extraction unit 345 extracts facial image data that matches the facial feature data of user X read from the logged-in user management table from each facial image data detected in step S906 (step S907). ). Here, as shown in FIG. 10, it is assumed that face image data FD4 is extracted as face image data matching face feature data of user X from the face image data of photographed image data CD1. It is also assumed that facial image data FD5 is extracted as facial image data that matches the facial feature data of user X from the facial image data of photographed image data CD2.

次いで、制御部34(より具体的には顔方向検出部346)は、利用者X(第1歌唱パートの歌唱者)の顔特徴データと一致するとして抽出された全ての顔画像データ(顔画像データFD4,FD5)について顔方向を検出する(ステップS908)。顔方向の検出方法は、ステップS608と同様である。ここでは、顔画像データFD4によって示される利用者Xの顔方向が左向き(図10における右方向)として検出され、顔画像データFD5によって示される利用者Xの顔方向が正面向き(図10における手前方向)として検出される。 Next, the control unit 34 (more specifically, the face direction detection unit 346) extracts all face image data (face image The face direction is detected for the data FD4, FD5) (step S908). The face direction detection method is the same as in step S608. Here, the face direction of the user X indicated by the face image data FD4 is detected as facing left (right direction in FIG. 10), and the face direction of the user X indicated by the face image data FD5 is detected facing front (front side in FIG. 10). direction).

次いで、制御部34(より具体的には撮影画像データ選択部347)は、ステップS908の検出結果に基づき、利用者Xの顔方向がより正面に近い顔画像データを含む撮影画像データを選択する(ステップS909)。ここでは、顔方向が正面向きである顔画像データFD5を含む撮影画像データCD2が選択される。 Next, the control unit 34 (more specifically, the captured image data selection unit 347) selects captured image data including face image data in which the face direction of the user X is closer to the front based on the detection result of step S908. (Step S909). Here, the photographed image data CD2 including the face image data FD5 in which the face is facing forward is selected.

最後に、制御部34(より具体的には表示制御部342)は、第1歌唱パートの歌詞テロップの表示と非表示を制御する(ステップS910)。その際、表示制御部342は、ステップS909で選択された撮影画像データCD2を出力するカメラ11bが接続された映像入力端子332bに対応する映像出力端子331bに接続されたディスプレイ10bを、利用者Xが注視するディスプレイとして特定する。そして、表示制御部342は、特定されたディスプレイ10bに第1歌唱パートの歌詞テロップを表示し、ディスプレイ10a及びディスプレイ10cに第1歌唱パートの歌詞テロップを表示しないように制御する。なお、表示制御部342は、第1歌唱パートの歌詞テロップの表示区間でのみ第1歌唱パートの歌詞テロップの表示と非表示の制御を行うこととし、第1歌唱パートの歌詞テロップの非表示区間においては、第1歌唱パートの歌唱者が注視するディスプレイが特定されたとしても、第1歌唱パートの歌詞テロップの表示と非表示の制御は行わないこととしてもよい。 Finally, the control unit 34 (more specifically, the display control unit 342) controls display and non-display of the lyrics telop of the first singing part (step S910). At this time, the display control unit 342 causes the display 10b connected to the video output terminal 331b corresponding to the video input terminal 332b connected to the camera 11b that outputs the captured image data CD2 selected in step S909 to the user X. identify as the display that is gazing at. Then, the display control unit 342 controls to display the lyrics telop of the first singing part on the specified display 10b and not to display the lyrics telop of the first singing part on the displays 10a and 10c. Note that the display control unit 342 controls display and non-display of the lyric telops of the first singing part only in the display period of the lyric telops of the first singing part. In , even if the display that the singer of the first singing part is watching is specified, the display and non-display of the lyric telop of the first singing part may not be controlled.

制御部34は、ステップS906~S910の処理を第1歌唱パートの演奏に対して行う。そして、第1歌唱パートに対する処理が終了すると、制御部34は、第2歌唱パートに対してステップS906~S910の処理を開始する。 The control section 34 performs the processing of steps S906 to S910 on the performance of the first singing part. When the processing for the first singing part is completed, the control section 34 starts the processing of steps S906 to S910 for the second singing part.

次いで、第2歌唱パートに対して行われるステップS906~S910の処理を説明する。制御部34(より具体的には顔画像データ検出部344)は、各カメラから継続的に入力される撮影画像データに基づいて、利用者の顔画像データを検出する(ステップS906)。なお、ここでは、カメラ11a,11b,11cから、図10に示す撮影画像データCD1,CD2,CD3が入力されたものとする。 Next, the processing of steps S906 to S910 performed for the second singing part will be explained. The control unit 34 (more specifically, the face image data detection unit 344) detects the user's face image data based on the photographed image data continuously input from each camera (step S906). Here, it is assumed that photographed image data CD1, CD2 and CD3 shown in FIG. 10 are input from the cameras 11a, 11b and 11c.

次いで、顔画像データ抽出部345は、ステップS906で検出した各顔画像データの中から、ログイン管理テーブルから読み出した利用者Yの顔特徴データと一致する顔画像データを抽出する(ステップS907)。ここでは、撮影画像データCD1の顔画像データの中から、利用者Yの顔特徴データと一致する顔画像データとして顔画像データFD6が抽出されたとする。また、撮影画像データCD2の顔画像データの中から、利用者Yの顔特徴データと一致する顔画像データとして顔画像データFD7が抽出されたとする。 Next, the facial image data extracting unit 345 extracts facial image data that matches the facial feature data of user Y read from the login management table from each facial image data detected in step S906 (step S907). Here, it is assumed that face image data FD6 is extracted as face image data matching the face feature data of user Y from the face image data of photographed image data CD1. It is also assumed that facial image data FD7 is extracted as facial image data matching the facial feature data of user Y from the facial image data of photographed image data CD2.

次いで、制御部34(より具体的には顔方向検出部346)は、利用者Y(第2歌唱パートの歌唱者)の顔特徴データと一致するとして抽出された全ての顔画像データ(顔画像データFD6,FD7)について顔方向を検出する(ステップS908)。ここでは、顔画像データFD6によって示される利用者Yの顔方向が左向き(図10における右方向)であると検出され、顔画像データFD7によって示される利用者Yの顔方向が正面向き(図10における手前方向)であると検出されたとする。 Next, the control unit 34 (more specifically, the face direction detection unit 346) extracts all face image data (face image The face direction is detected for the data FD6, FD7) (step S908). Here, it is detected that the face direction of the user Y indicated by the face image data FD6 is facing left (to the right in FIG. 10), and the face direction of the user Y indicated by the face image data FD7 is facing forward (toward the front in FIG. 10). ) is detected.

次いで、制御部34(より具体的には撮影画像データ選択部347)は、ステップS908の検出結果に基づき、利用者Yの顔方向がより正面に近い顔画像データを含む撮影画像データを選択する(ステップS909)。ここでは、顔方向が正面向きである顔画像データFD7を含む撮影画像データCD2が選択されたとする。 Next, the control unit 34 (more specifically, the captured image data selection unit 347) selects captured image data including face image data in which the face direction of user Y is closer to the front based on the detection result of step S908. (Step S909). Here, it is assumed that the photographed image data CD2 including the face image data FD7 with the face facing forward is selected.

最後に、制御部34(より具体的には表示制御部342)は、第2歌唱パートの歌詞テロップの表示と非表示を制御する(ステップS910)。具体的には、表示制御部342は、選択された撮影画像データCD2を出力するカメラ11bが接続された映像入力端子332bに対応する映像出力端子331bに接続されたディスプレイ10bを、利用者Yが注視するディスプレイとして特定する。そして、表示制御部342は、特定したディスプレイ10bに第2歌唱パートの歌詞テロップを表示し、ディスプレイ10a及びディスプレイ10cに第2歌唱パートの歌詞テロップを表示しないように制御する。なお、表示制御部342は、第2歌唱パートの歌詞テロップの表示区間でのみ第2歌唱パートの歌詞テロップの表示と非表示の制御を行うこととし、第2歌唱パートの歌詞テロップの非表示区間においては、第2歌唱パートの歌唱者が注視するディスプレイが特定されたとしても、第2歌唱パートの歌詞テロップの表示と非表示の制御は行わないこととしてもよい。 Finally, the control unit 34 (more specifically, the display control unit 342) controls display and non-display of the lyrics telop of the second singing part (step S910). Specifically, the display control unit 342 causes the user Y to control the display 10b connected to the video output terminal 331b corresponding to the video input terminal 332b to which the camera 11b that outputs the selected captured image data CD2 is connected. Identify it as a display to watch. Then, the display control unit 342 controls to display the lyrics telop of the second singing part on the specified display 10b and not to display the lyrics telop of the second singing part on the displays 10a and 10c. The display control unit 342 controls display and non-display of the lyric telops of the second singing part only in the display period of the lyric telops of the second singing part. In , even if the display that the singer of the second singing part is watching is specified, the display and non-display of the lyric telop of the second singing part may not be controlled.

制御部34は、ステップS906~S910の処理を第2歌唱パートに対して行う。そして、第2歌唱パートに対する処理が終了すると、制御部34は、第1歌唱パートに対する処理に戻る。制御部34は、ステップS906~S910の処理をカラオケ演奏が終了するまで所定時間毎に各歌唱パートに対して交互に繰り返し、カラオケ演奏が終了すると処理を終了する。なお、予約楽曲管理テーブルに予約楽曲情報が残っている場合には、制御部34は、それらの予約楽曲情報に対してステップS901~S910の処理を繰り返し実行する。また、第2実施形態では、第1歌唱パートと第2歌唱パートそれぞれに対してステップS906~S910の処理を交互に繰り返したが、一つの撮影画像データの中から各歌唱パートの歌唱者の顔特長データと一致する顔画像データを同時に抽出し、抽出された顔画像データによって示される各歌唱パートの歌唱者の顔方向を同時に検出し、この検出結果に基づいて、各歌唱パートの歌唱者の顔方向が正面向きである顔画像データを同時に抽出することで、ステップS906~S910の処理を各歌唱パートに対して一度に行ってもよい。 The control section 34 performs the processing of steps S906 to S910 on the second singing part. When the processing for the second singing part is completed, the control section 34 returns to the processing for the first singing part. The control unit 34 alternately repeats the processing of steps S906 to S910 for each singing part at predetermined time intervals until the karaoke performance ends, and ends the processing when the karaoke performance ends. Note that when reserved music information remains in the reserved music management table, the control unit 34 repeatedly executes the processing of steps S901 to S910 for the reserved music information. In the second embodiment, the processing of steps S906 to S910 is alternately repeated for each of the first singing part and the second singing part. Face image data that matches the feature data is extracted at the same time, the face direction of the singer of each singing part indicated by the extracted face image data is detected at the same time, and based on this detection result, the singer of each singing part is identified. By simultaneously extracting face image data in which the face is facing forward, steps S906 to S910 may be performed for each singing part at once.

以上、第2実施形態によれば、利用者が複数の歌唱パートで構成されたデュエット楽曲などを歌唱パート毎に歌唱者を決めて歌唱する場合においても、第1実施形態と同様の効果を得ることができる。つまり、各歌唱パートの歌唱者は、歌唱中に体の向きや姿勢、場所に応じて自分が見やすいディスプレイを注視することで、そのディスプレイのみに自分が担当する歌唱パートの歌詞テロップを表示させることができる。また、歌唱者以外の利用者は、歌詞テロップが表示されているディスプレイ以外の何れかのディスプレイを見ることで、カラオケ映像を楽しむことが可能となる。 As described above, according to the second embodiment, even when the user decides a singer for each singing part and sings a duet song composed of a plurality of singing parts, the same effect as the first embodiment can be obtained. be able to. In other words, the singer of each singing part can display the lyrics telop of the singing part in charge only on that display by focusing on the display that is easy for him/her to see according to the direction, posture, and location of the body while singing. can be done. Also, users other than the singer can enjoy the karaoke video by looking at any display other than the display on which the lyrics telop is displayed.

<変形例1>
第1、第2実施形態では、各カメラから出力される撮影画像データから、歌唱者の顔方向が正面に近い顔画像データを含む撮影画像データを1つ選択する構成を例にしたが、この構成に限定されない。例えば、歌唱者の顔方向が正面に近い顔画像データを含む撮影画像データが複数選択され、それらの顔画像データに基づく歌唱者の顔方向が同じ程度に正面に近い場合も想定される。したがって、そのような場合には、ステップS609やステップS909で選択された各撮影画像データの出力元であるカメラに対応付けられている各ディスプレイに表示する歌詞テロップの透過率を、選択された撮影画像データの個数に応じて変更しても良い。例えば、選択された撮影画像データが2つである場合には、各ディスプレイに表示する歌詞テロップの透過率を50%に設定してもよい。また例えば、選択された撮影画像データが3つである場合には、各ディスプレイに表示する歌詞テロップの透過率を67%にしてもよい。これにより、例えば歌唱者が動いたり踊ったりしながら歌唱した場合に、歌唱者の視線付近にあるディスプレイに歌詞テロップを表示させることが可能となる。また、選択された撮影画像データの個数が増えるに従って歌詞テロップの透過率を上げるようにしているので、歌詞テロップを表示するディスプレイ台数が増えた場合でも、歌唱者以外の利用者はカラオケ映像を楽しむことが可能となる。
<Modification 1>
In the first and second embodiments, one photographed image data including face image data in which the face direction of the singer is close to the front is selected from the photographed image data output from each camera. Not limited to configuration. For example, it is conceivable that a plurality of photographed image data containing face image data in which the singer's face direction is close to the front is selected, and the singer's face direction based on the face image data is similarly close to the front. Therefore, in such a case, the transmittance of the lyric telop displayed on each display associated with the camera that is the output source of each shot image data selected in step S609 or step S909 is It may be changed according to the number of image data. For example, if two shot image data are selected, the transmittance of the lyrics telop displayed on each display may be set to 50%. Further, for example, when three shot image data are selected, the transmittance of the lyrics telop displayed on each display may be set to 67%. As a result, for example, when a singer sings while moving or dancing, it is possible to display lyrics telops on a display near the singer's line of sight. In addition, since the transmittance of the lyric telop is increased as the number of selected photographed image data increases, even if the number of displays displaying the lyric telop increases, users other than the singer can enjoy the karaoke video. becomes possible.

なお、本発明は、請求の範囲および明細書全体から読み取ることのできる発明の要旨または思想に反しない範囲で適宜変更可能であり、そのような変更を伴うカラオケ装置およびカラオケシステムもまた本発明の技術思想に含まれる。 It should be noted that the present invention can be modified as appropriate within a range that does not contradict the gist or idea of the invention that can be read from the scope of claims and the entire specification, and karaoke machines and karaoke systems that involve such modifications are also subject to the scope of the present invention. Included in technical thought.

3 カラオケ装置
10a,10b,10c ディスプレイ(表示部)
11a,11b,11c カメラ(撮影部)
341 演奏制御部
342 表示制御部
343 顔特徴データ取得部
344 顔画像データ検出部
345 顔画像データ抽出部
346 顔方向検出部
347 撮影画像データ選択部
3 karaoke device 10a, 10b, 10c display (display unit)
11a, 11b, 11c Camera (shooting unit)
341 performance control unit 342 display control unit 343 face feature data acquisition unit 344 face image data detection unit 345 face image data extraction unit 346 face direction detection unit 347 photographed image data selection unit

Claims (3)

複数の表示部と、前記複数の表示部のそれぞれに対応付けて設けられて各表示部の表示方向の被写体を撮影する複数の撮影部と、が接続されているカラオケ装置において、
歌唱者により選曲された楽曲の演奏データに基づいて前記楽曲を演奏する演奏制御部と、
前記楽曲の演奏に伴って背景映像と歌詞テロップとを表示部に表示する表示制御部と、
予め登録された、顔特徴を示す顔特徴データの中から、前記歌唱者の前記顔特徴データを取得する顔特徴データ取得部と、
前記複数の撮影部から出力される撮影画像データから、顔画像を示す顔画像データを検出する顔画像データ検出部と、
前記顔画像データ検出部により検出された前記顔画像データの中から、前記歌唱者の前記顔特徴データと一致する前記顔画像データを抽出する顔画像データ抽出部と、
前記顔画像データ抽出部により抽出された前記顔画像データから、前記歌唱者の顔方向を検出する顔方向検出部と、
前記顔方向検出部の検出結果に基づいて、前記複数の撮影部から出力される撮影画像データの中から、前記歌唱者の顔方向がより正面に近い撮影画像データを選択する撮影画像データ選択部と、を有し、
前記表示制御部は、前記撮影画像データ選択部で選択された撮影画像データを出力した撮影部に対応付けられている表示部に歌詞テロップを表示し、該表示部以外の表示部には歌詞テロップを表示しない制御を行うことを特徴とするカラオケ装置。
In a karaoke device connected to a plurality of display units and a plurality of photographing units provided in association with each of the plurality of display units for photographing a subject in a display direction of each display unit,
A performance control unit that plays the song based on the performance data of the song selected by the singer;
a display control unit that displays a background image and lyric telops on a display unit as the music is played;
a facial feature data acquisition unit that acquires the facial feature data of the singer from the facial feature data indicating facial features registered in advance;
a face image data detection unit for detecting face image data representing a face image from the photographed image data output from the plurality of photographing units;
a face image data extraction unit for extracting the face image data that matches the face feature data of the singer from the face image data detected by the face image data detection unit;
A face direction detection unit that detects the face direction of the singer from the face image data extracted by the face image data extraction unit;
A photographed image data selection unit that selects photographed image data in which the face direction of the singer is closer to the front from the photographed image data output from the plurality of photographing units based on the detection result of the face direction detection unit. and
The display control unit displays the lyric telop on the display unit associated with the photographing unit that outputs the photographed image data selected by the photographed image data selection unit, and displays the lyric telop on the display units other than the display unit. A karaoke device characterized by performing control not to display .
前記顔特徴データ取得部は、前記演奏制御部にて演奏される前記楽曲がデュエット楽曲である場合、予め登録された前記顔特徴データの中から歌唱者の顔特徴データを前記楽曲の歌唱パート毎に取得し、
前記顔画像データ抽出部は、前記顔画像データ検出部により検出された前記顔画像データの中から、前記顔特徴データ取得部により取得された前記顔特徴データと一致する前記顔画像データを前記歌唱パート毎に、抽出し、
前記顔方向検出部は、前記顔画像データ抽出部により抽出された前記顔画像データから、前記歌唱パート毎に歌唱者の顔方向を検出し、
前記撮影画像データ選択部は、前記顔方向検出部の検出結果に基づいて、前記複数の撮影部から送信される撮影画像データの中から、歌唱者の顔方向がより正面に近い撮影画像データを前記歌唱パート毎に選択し、
前記表示制御部は、前記撮影画像データ選択部で選択された撮影画像データを送信した撮影部と対応付けられている表示部に歌詞テロップを表示し、該表示部以外の表示部には歌詞テロップを表示しない制御を前記歌唱パート毎に行うことを特徴とする請求項1に記載のカラオケ装置。
When the music played by the performance control unit is a duet, the facial feature data acquisition unit obtains the facial feature data of the singer from the facial feature data registered in advance for each singing part of the song. to get to
The facial image data extracting unit extracts the facial image data that matches the facial feature data acquired by the facial feature data acquiring unit from the facial image data detected by the facial image data detecting unit. For each part, extract
The face direction detection unit detects the face direction of the singer for each singing part from the face image data extracted by the face image data extraction unit,
The photographed image data selection unit, based on the detection result of the face direction detection unit, selects the photographed image data in which the singer's face direction is closer to the front from the photographed image data transmitted from the plurality of photographing units. Select for each singing part,
The display control unit displays the lyric telop on the display unit associated with the photographing unit that transmitted the photographed image data selected by the photographed image data selection unit, and displays the lyric telop on the display units other than the display unit. 2. The karaoke apparatus according to claim 1, wherein control is performed for each singing part so as not to display .
前記表示制御部は、前記撮影画像データ選択部で複数の撮影画像データが選択された場合に、前記撮影画像データ選択部で選択された撮影画像データの個数が増えるに従って、表示部に表示する歌詞テロップの透過率を上げる制御を行うことを特徴とする請求項1または請求項2に記載のカラオケ装置。 The display control unit displays lyrics on the display unit as the number of pieces of photographed image data selected by the photographed image data selection unit increases when a plurality of pieces of photographed image data are selected by the photographed image data selection unit. 3. The karaoke apparatus according to claim 1, wherein control is performed to increase the transmittance of telops.
JP2019158283A 2019-08-30 2019-08-30 karaoke device Active JP7258441B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019158283A JP7258441B2 (en) 2019-08-30 2019-08-30 karaoke device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019158283A JP7258441B2 (en) 2019-08-30 2019-08-30 karaoke device

Publications (2)

Publication Number Publication Date
JP2021039141A JP2021039141A (en) 2021-03-11
JP7258441B2 true JP7258441B2 (en) 2023-04-17

Family

ID=74849203

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019158283A Active JP7258441B2 (en) 2019-08-30 2019-08-30 karaoke device

Country Status (1)

Country Link
JP (1) JP7258441B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005189669A (en) 2003-12-26 2005-07-14 Daiichikosho Co Ltd Lyrics telop display system of karaoke machine
JP2010262072A (en) 2009-04-30 2010-11-18 Daiichikosho Co Ltd Digital television-compatible karaoke system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09114477A (en) * 1995-10-20 1997-05-02 Brother Ind Ltd Karaoke equipment
JPH11126085A (en) * 1997-10-23 1999-05-11 Yamaha Corp Karaoke device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005189669A (en) 2003-12-26 2005-07-14 Daiichikosho Co Ltd Lyrics telop display system of karaoke machine
JP2010262072A (en) 2009-04-30 2010-11-18 Daiichikosho Co Ltd Digital television-compatible karaoke system

Also Published As

Publication number Publication date
JP2021039141A (en) 2021-03-11

Similar Documents

Publication Publication Date Title
CN110267081A (en) Method for stream processing, device, system, electronic equipment and storage medium is broadcast live
CN106385614A (en) Picture synthesis method and apparatus
JP5169239B2 (en) Information processing apparatus and method, and program
JP5739369B2 (en) Karaoke equipment
JP7258441B2 (en) karaoke device
JP4786225B2 (en) Karaoke device, program, and ranking summary server
JP2022176206A (en) Information processing device, moving image synthesis method and moving image synthesis program
JP6110731B2 (en) Command input recognition system by gesture
JP5310682B2 (en) Karaoke equipment
JP5794934B2 (en) Collaboration song recording system
JP5325012B2 (en) Karaoke system with singer image shooting function
JP2010262072A (en) Digital television-compatible karaoke system
JP2014092592A (en) Collaboration singing video display system
JP6177050B2 (en) Online karaoke system
JP6266234B2 (en) Karaoke system
JP5033513B2 (en) Music playback system with image display function
JP5243909B2 (en) Karaoke system
JP2012118286A (en) Karaoke system adaptive to user attribute
JP2010074437A (en) Method, device and program for adding annotation, and computer readable recording medium
JP6037557B2 (en) Singing action advance notification system in collaboration singing
JP2017215370A (en) Karaoke system
JP6242236B2 (en) Karaoke device and karaoke song video data editing program
JP6502728B2 (en) Karaoke system and program
JP2016071186A (en) Karaoke device and program
JP6264251B2 (en) Karaoke device, program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220715

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230404

R150 Certificate of patent or registration of utility model

Ref document number: 7258441

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150