JP7442979B2 - karaoke system - Google Patents

karaoke system Download PDF

Info

Publication number
JP7442979B2
JP7442979B2 JP2019098353A JP2019098353A JP7442979B2 JP 7442979 B2 JP7442979 B2 JP 7442979B2 JP 2019098353 A JP2019098353 A JP 2019098353A JP 2019098353 A JP2019098353 A JP 2019098353A JP 7442979 B2 JP7442979 B2 JP 7442979B2
Authority
JP
Japan
Prior art keywords
singing
karaoke
penlight
server device
motion data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019098353A
Other languages
Japanese (ja)
Other versions
JP2020194030A (en
Inventor
政之 鎌田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daiichikosho Co Ltd
Original Assignee
Daiichikosho Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daiichikosho Co Ltd filed Critical Daiichikosho Co Ltd
Priority to JP2019098353A priority Critical patent/JP7442979B2/en
Publication of JP2020194030A publication Critical patent/JP2020194030A/en
Application granted granted Critical
Publication of JP7442979B2 publication Critical patent/JP7442979B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)

Description

本発明はカラオケシステムに関する。 The present invention relates to a karaoke system.

スマートフォンのような利用者端末を利用し、誰でも気軽にライブ配信を行うことができるサービスやプラットフォーム(以下、ライブ配信サービス)が普及している。このようなライブ配信サービスの中には、カラオケ用の音源を利用できるものも存在する(非特許文献1及び2参照。以下、カラオケ配信対応サービス)。 Services and platforms (hereinafter referred to as live streaming services) that allow anyone to easily perform live streaming using user terminals such as smartphones are becoming widespread. Among such live distribution services, there are also those that can use sound sources for karaoke (see Non-Patent Documents 1 and 2; hereinafter referred to as karaoke distribution compatible services).

カラオケ配信対応サービスの利用者は、自己の利用者端末から放音される演奏音に合わせてカラオケ歌唱を行いながら、自らがカラオケ歌唱する姿を利用者端末で撮影する。利用者端末は、撮影された動画像を用いて歌唱動画を生成し、サーバ装置にストリーミング送信する。一方、他の利用者は、自らの利用者端末を用いてサーバ装置にアクセスすることにより、ストリーミング送信されている歌唱動画を自由に視聴することができる。 A user of a karaoke distribution compatible service performs karaoke singing along with the performance sound emitted from his or her user terminal, and photographs himself or herself singing karaoke using his or her user terminal. The user terminal generates a singing video using the captured video and transmits it to the server device by streaming. On the other hand, other users can freely view the streaming singing video by accessing the server device using their own user terminals.

この際、カラオケ歌唱を行った利用者は、歌唱動画を視聴した利用者からのコメントやギフト(カラオケ配信対応サービス内で使用可能な仮想通貨等)を受信することができる。 At this time, the user who performed the karaoke singing can receive comments and gifts (such as virtual currency that can be used within the karaoke distribution compatible service) from the users who watched the singing video.

ところで、アーティストのライブコンサートや各種イベント等においては、観客参加型の演出方法が採用されることがある。たとえば、楽曲の演奏や演出に合わせて多数の観客がそれぞれ携帯発光装置(たとえば、ペンライトや腕時計型の発光体)を動かすことで演出効果を高めると共に、アーティストと観客の一体感を得る方法がある。 Incidentally, in live concerts by artists and various events, audience participation type production methods are sometimes adopted. For example, a large number of audience members can individually move their portable light-emitting devices (e.g., penlights or wristwatch-shaped light-emitting devices) in time with the performance or production of a song, increasing the performance effect and creating a sense of unity between the artist and the audience. be.

特許文献1には、複数色を発光可能なペンライトを利用した演出用発光装置が開示されている。特許文献1に開示された演出用発光装置は、複数の携帯発光装置(ペンライト)の発光色を、無線接続された一台の発光状態制御装置によって制御することで、観客席において任意の光の文字、画像、模様を表現することができる。 Patent Document 1 discloses a light-emitting device for effect that uses a penlight that can emit light in multiple colors. The light emitting device for performance disclosed in Patent Document 1 controls the emitted light color of a plurality of portable light emitting devices (penlights) by one wirelessly connected light emitting state control device, so that arbitrary light can be generated in the audience seats. It is possible to express characters, images, and patterns.

特開2003-036981号公報JP2003-036981A

「SHOWROOM」、株式会社第一興商、SHOWROOM株式会社、[令和1年5月6日検索]、インターネット、<URL:https://prtimes.jp/main/html/rd/p/000000434.000014607.html>"SHOWROOM", Daiichi Kosho Co., Ltd., SHOWROOM Co., Ltd., [searched on May 6, 2021], Internet, <URL: https://prtimes.jp/main/html/rd/p/000000434.000014607. html>

「LINE LIVE」、株式会社エクシング、LINE株式会社、[令和1年5月6日検索]、インターネット、<URL:https://prtimes.jp/main/html/rd/p/000001318.000001594.html>"LINE LIVE", Xing Co., Ltd., LINE Co., Ltd., [Searched on May 6, 2021], Internet, <URL: https://prtimes.jp/main/html/rd/p/000001318.000001594.html>

本発明の目的は、ライブ配信されている歌唱動画の視聴者に対し、ライブコンサートにおけるアーティストと観客の一体感と類似する感覚を与えることが可能なカラオケシステムを提供することにある。 An object of the present invention is to provide a karaoke system that can give viewers of live-streamed singing videos a feeling similar to the sense of unity between an artist and audience at a live concert.

上記目的を達成するための一の発明は、複数の利用者端末、及び当該利用者端末と通信可能なサーバ装置を含むカラオケシステムであって、前記利用者端末のうち、カラオケ歌唱を行う歌唱者が操作する歌唱者端末は、楽曲の演奏データに基づいてカラオケ演奏を行う演奏処理部と、前記演奏処理部が行うカラオケ演奏の演奏音と、集音手段により集音されたカラオケ歌唱の歌唱音声と、撮影手段によりカラオケ歌唱を行う前記歌唱者を撮影して得られる動画像とに基づいて歌唱動画を生成し、前記サーバ装置にストリーミング送信する転送部と、を有し、前記利用者端末のうち、前記歌唱動画を視聴する複数の視聴者が操作する複数の視聴者端末は、前記サーバ装置がライブ配信する歌唱動画を表示手段に表示させる表示制御部と、前記視聴者端末の動きを検出し、モーションデータとして前記サーバ装置に送信する検出部と、を有し、前記サーバ装置は、受信した複数の前記モーションデータのそれぞれに基づいて、実際に使用されるペンライトの動きを模擬した少なくとも一つのペンライト映像を生成する生成部と、前記歌唱者端末がストリーミング送信する前記歌唱動画に対し、生成した複数の前記ペンライト映像を合成して前記視聴者端末にライブ配信する配信部と、を有するカラオケシステムである。
本発明の他の特徴については、後述する明細書及び図面の記載により明らかにする。
One invention for achieving the above object is a karaoke system including a plurality of user terminals and a server device capable of communicating with the user terminals, wherein a singer who performs karaoke singing among the user terminals The singer terminal operated by the singer terminal includes a performance processing section that performs karaoke performance based on the performance data of the song, the performance sound of the karaoke performance performed by the performance processing section, and the singing voice of the karaoke singing collected by the sound collection means. and a transfer unit that generates a singing video based on a video obtained by photographing the singer performing karaoke singing using a photographing means, and transmits the video by streaming to the server device, Among them, the plurality of viewer terminals operated by the plurality of viewers who view the singing video include a display control unit that displays the singing video live-distributed by the server device on a display means, and a display control unit that detects the movement of the viewer terminal. and a detection unit that transmits motion data to the server device, and the server device includes at least one sensor that simulates the movement of a penlight that is actually used, based on each of the plurality of received motion data. a generation unit that generates one penlight video; a distribution unit that combines the plurality of generated penlight videos with respect to the singing video streamed by the singer terminal and delivers it live to the viewer terminal; This is a karaoke system with
Other features of the present invention will become clear from the description and drawings described below.

本発明によれば、ライブ配信されている歌唱動画の視聴者に対し、ライブコンサートにおけるアーティストと観客の一体感と類似する感覚を与えることができる。 According to the present invention, it is possible to provide viewers of a live singing video with a feeling similar to the sense of unity between an artist and audience at a live concert.

実施形態に係るカラオケシステムの概略を示す図である。1 is a diagram schematically showing a karaoke system according to an embodiment. 実施形態に係る歌唱者端末を示す図である。It is a figure showing a singer terminal concerning an embodiment. 実施形態に係る視聴者端末を示す図である。FIG. 2 is a diagram showing a viewer terminal according to an embodiment. 実施形態に係るサーバ装置を示す図である。FIG. 1 is a diagram showing a server device according to an embodiment. 実施形態に係るカラオケシステムの処理を示すフローチャートである。It is a flow chart showing processing of a karaoke system concerning an embodiment.

図1~図5を参照して、第実施形態に係るカラオケシステムについて説明する。 A karaoke system according to a first embodiment will be described with reference to FIGS. 1 to 5.

==カラオケシステム==
カラオケシステム1は、歌唱動画をライブ配信するためのシステムである。歌唱動画は、カラオケ歌唱を行う歌唱者を撮影して得られた動画像に、カラオケ演奏の演奏音及び歌唱音声を合成したものである。図1に示すように、本実施形態に係るカラオケシステム1は、複数の利用者端末、及びサーバ装置Sを備える。
==Karaoke system==
Karaoke system 1 is a system for live streaming singing videos. A singing video is a video obtained by photographing a singer performing karaoke singing, and synthesizes the performance sound and singing voice of the karaoke performance. As shown in FIG. 1, the karaoke system 1 according to this embodiment includes a plurality of user terminals and a server device S.

利用者端末は、カラオケシステム1の利用者が所有するスマートフォンやパーソナルコンピュータである。本実施形態に係る利用者端末には、カラオケシステム1を利用するための専用アプリケーションソフトウェア(以下、「ライブ配信アプリ」)がインストールされている。ライブ配信アプリは、サーバ装置Sや、サーバ装置Sが提供するWebサイトからダウンロードすることで入手できる。 The user terminal is a smartphone or a personal computer owned by a user of the karaoke system 1. Dedicated application software (hereinafter referred to as "live distribution application") for using the karaoke system 1 is installed on the user terminal according to the present embodiment. The live distribution application can be obtained by downloading from the server device S or a website provided by the server device S.

ライブ配信アプリは、ライブ配信を行うための歌唱動画を生成するモード(生成モード)と、ライブ配信された歌唱動画を視聴するモード(視聴モード)を備えている。 The live distribution application has a mode (generation mode) for generating a singing video for performing live distribution, and a mode (viewing mode) for viewing the live distributed singing video.

生成モードでは、サーバ装置Sから受信したカラオケ演奏用の演奏データに基づいてカラオケ演奏を行うことができる。また、生成モードで生成される歌唱動画は、サーバ装置Sに順次、ストリーミング送信することができる。すなわち、本実施形態におけるライブ配信アプリを実行することにより、利用者は、カラオケ配信対応サービスを受けることができる。生成モード及び視聴モードの詳細については後述する。 In the generation mode, a karaoke performance can be performed based on the performance data for karaoke performance received from the server device S. Further, the singing videos generated in the generation mode can be sequentially streamed and transmitted to the server device S. That is, by executing the live distribution application in this embodiment, the user can receive a karaoke distribution compatible service. Details of the generation mode and viewing mode will be described later.

図1の例において、利用者U1は、所有する利用者端末M1により、自己のカラオケ歌唱を撮影する。利用者端末M1は、カラオケ歌唱に基づく歌唱動画を生成し、サーバ装置Sにストリーミング送信する。また、不特定多数の利用者U2~利用者Unは、自己の利用者端末M2~利用者端末Mnにより、サーバ装置Sがライブ配信する歌唱動画を視聴する。すなわち、利用者U1は「歌唱者」に相当し、利用者U2~利用者Unは「視聴者」に相当する。また、利用者端末M1は「歌唱者端末」に相当し、利用者端末M2~利用者端末Mnは「視聴者端末」に相当する。歌唱者端末は、利用者端末のうち、カラオケ歌唱を行う歌唱者が操作する端末である。視聴者端末は、利用者端末のうち、歌唱動画を視聴する視聴者が操作する端末である。 In the example of FIG. 1, user U1 photographs his own karaoke singing using user terminal M1 that he owns. The user terminal M1 generates a singing video based on karaoke singing and transmits it to the server device S by streaming. Further, an unspecified number of users U2 to Un use their own user terminals M2 to Mn to view the singing videos live distributed by the server device S. That is, the user U1 corresponds to a "singer", and the users U2 to Un correspond to "viewers". Further, the user terminal M1 corresponds to a "singer terminal", and the user terminals M2 to Mn correspond to "viewer terminals". Among the user terminals, the singer terminal is a terminal operated by a singer who performs karaoke singing. The viewer terminal is a terminal among user terminals that is operated by a viewer who views a singing video.

サーバ装置Sは、各種情報を管理したり、各利用者端末に対して歌唱動画をライブ配信するコンピュータである。 The server device S is a computer that manages various information and delivers live singing videos to each user terminal.

==歌唱者端末==
図2を参照して、歌唱者端末の構成について説明する。以下、歌唱者端末として、図1における利用者端末M1を例に説明する。図2に示すように、利用者端末M1は、記憶手段10、通信手段11、表示手段12、入力手段13、集音手段14、撮影手段15、放音手段16、及び制御手段17を備える。各構成はインターフェース(図示なし)を介してバスBに接続されている。
==Singer terminal==
With reference to FIG. 2, the configuration of the singer terminal will be described. Hereinafter, the user terminal M1 in FIG. 1 will be described as an example of the singer terminal. As shown in FIG. 2, the user terminal M1 includes a storage means 10, a communication means 11, a display means 12, an input means 13, a sound collection means 14, a photographing means 15, a sound emitting means 16, and a control means 17. Each component is connected to bus B via an interface (not shown).

[記憶手段、通信手段、表示手段、入力手段、集音手段、撮影手段、放音手段]
記憶手段10は、各種のデータを記憶する大容量の記憶装置である。記憶手段10は、ライブ配信アプリでカラオケ演奏が可能な楽曲の楽曲名や楽曲識別情報や端末識別情報を記憶する。楽曲識別情報は、楽曲を識別するための楽曲ID等、各楽曲に固有の情報である。端末識別情報は、利用者端末を識別するための端末ID等、各利用者端末に固有の情報である。
[Storage means, communication means, display means, input means, sound collection means, photographing means, sound emission means]
The storage means 10 is a large capacity storage device that stores various data. The storage means 10 stores song names, song identification information, and terminal identification information of songs that can be performed in karaoke using the live distribution application. The song identification information is information unique to each song, such as a song ID for identifying the song. The terminal identification information is information unique to each user terminal, such as a terminal ID for identifying the user terminal.

通信手段11は、サーバ装置Sとの接続を行うためのインターフェースを提供する。表示手段12は、各種情報を表示させるディスプレイである。入力手段13は、利用者が各種指示入力を行うための構成である。なお、一般的なスマートフォンでは、表示手段12がタッチパネル形式で構成されており、入力手段13として機能する。 The communication means 11 provides an interface for connection with the server device S. The display means 12 is a display that displays various information. The input means 13 is configured for the user to input various instructions. Note that in a typical smartphone, the display means 12 is configured in the form of a touch panel, and functions as the input means 13.

利用者端末M1の集音手段14は、歌唱者(利用者U1)の歌唱音声を集音するためのマイクである。撮影手段15は、利用者端末に備え付けられているカメラである。利用者端末M1の撮影手段15は、カラオケ歌唱を行う歌唱者(利用者U1)を撮影する。放音手段16は、音声を放音するためのイヤホン等である。 The sound collecting means 14 of the user terminal M1 is a microphone for collecting the singing voice of the singer (user U1). The photographing means 15 is a camera installed in the user terminal. The photographing means 15 of the user terminal M1 photographs a singer (user U1) performing karaoke singing. The sound emitting means 16 is an earphone or the like for emitting sound.

通常、カラオケ配信対応サービスを利用する際に、歌唱者は、スタンド等に利用者端末を固定し、少し離れた場所においてワイヤレス・イヤホンでカラオケ演奏音を聴きながら、ワイヤレス・マイクで歌唱を行い、撮影手段15に動画像を撮影させる。ワイヤレス・イヤホンからは、ワイヤレス・マイクで集音された歌唱音声がカラオケ演奏音とともに放音される。歌唱音声にはエコーなどの残響効果を付与することもできる。本実施形態におけるカラオケ配信対応サービスにおいても同様の方法で歌唱音声等を得ることができる。すなわち、集音手段14は、利用者端末M1で利用可能なワイヤレス・マイクのような別部材を含む。また、放音手段16は、利用者端末M1で利用可能なワイヤレス・イヤホンのような別部材を含む。 Normally, when using a karaoke distribution compatible service, the singer fixes the user terminal on a stand, etc., and sings with a wireless microphone while listening to the karaoke performance sound with wireless earphones at a slightly distant location. The photographing means 15 is caused to photograph a moving image. The singing voice collected by the wireless microphone is emitted from the wireless earphones along with the karaoke performance sound. It is also possible to add reverberation effects such as echo to the singing voice. Singing sounds and the like can be obtained in the same manner in the karaoke distribution compatible service in this embodiment. That is, the sound collecting means 14 includes a separate member such as a wireless microphone that can be used in the user terminal M1. Further, the sound emitting means 16 includes another member such as a wireless earphone that can be used in the user terminal M1.

[制御手段]
制御手段17は、利用者端末M1における各種の制御を行う。制御手段17は、CPUおよびメモリ(いずれも図示無し)を備える。CPUは、メモリに記憶されたプログラムを実行することにより各種の機能を実現する。
[Control means]
The control means 17 performs various controls on the user terminal M1. The control means 17 includes a CPU and a memory (both not shown). The CPU implements various functions by executing programs stored in memory.

ライブ配信アプリを起動し、生成モードが選択された場合(利用者がカラオケ配信対応サービスの利用を希望する場合)、制御手段17は、演奏処理部17a及び転送部17bとして機能する。 When the live distribution application is started and the generation mode is selected (when the user desires to use a karaoke distribution compatible service), the control means 17 functions as a performance processing section 17a and a transfer section 17b.

(演奏処理部)
演奏処理部17aは、楽曲の演奏データに基づいてカラオケ演奏を行う。具体的に、演奏処理部17aは、演奏データに基づいて演奏音を生成し、放音手段16から放音させる。
(Performance processing section)
The performance processing section 17a performs karaoke performance based on the performance data of the music. Specifically, the performance processing section 17a generates a performance sound based on the performance data, and causes the sound emitting means 16 to emit the sound.

演奏データは、たとえばサーバ装置Sから取得することができる。具体例として、利用者U1が、利用者端末M1を介してカラオケ歌唱のライブ配信を希望する楽曲Xを選曲したとする。この場合、演奏処理部17aは、楽曲Xの楽曲IDをサーバ装置Sに送信する。サーバ装置Sは、利用者端末M1から受信した楽曲IDに基づいて楽曲Xの演奏データを読み出し、利用者端末M1に送信する。演奏処理部17aは、受信した楽曲Xの演奏データに基づいて演奏音を生成する。なお、記憶手段10が予め複数の楽曲の演奏データを記憶しておくことでもよい。この場合、演奏処理部17aは、利用者U1が選曲した楽曲の演奏データを読み出し、当該演奏データに基づいて演奏音を生成する。 The performance data can be obtained from the server device S, for example. As a specific example, it is assumed that the user U1 selects a song X for which he desires live distribution of karaoke singing via the user terminal M1. In this case, the performance processing unit 17a transmits the song ID of the song X to the server device S. The server device S reads the performance data of the song X based on the song ID received from the user terminal M1, and transmits it to the user terminal M1. The performance processing unit 17a generates performance sounds based on the received performance data of the song X. Note that the storage means 10 may store performance data of a plurality of songs in advance. In this case, the performance processing unit 17a reads the performance data of the music piece selected by the user U1, and generates the performance sound based on the performance data.

利用者U1は、演奏音に併せてカラオケ歌唱を行う。集音手段14は、利用者U1のカラオケ歌唱による歌唱音声を集音する。また、撮影手段15は、少なくとも利用者U1がカラオケ歌唱を行っている間、利用者U1の姿(具体的には顔や上半身)を撮影する。すなわち、利用者U1は、動画像の自撮りを行う。 User U1 performs karaoke singing along with the performance sound. The sound collecting means 14 collects the singing voice of the user U1 singing at karaoke. Further, the photographing means 15 photographs the figure (specifically, the face and upper body) of the user U1 at least while the user U1 is singing karaoke. That is, the user U1 takes a self-portrait of a moving image.

なお、一般に、カラオケ歌唱が可能な楽曲には、演奏データと併せて、楽曲の歌詞を表示させるための歌詞テロップデータが準備されている。演奏処理部17aは、歌詞テロップデータに基づいて歌詞を生成し、演奏音と同期して表示手段12に歌詞を表示させることができる。歌詞テロップデータは、演奏データと同様の方法で取得することができる。 Note that, in general, for songs that can be sung at karaoke, lyrics caption data for displaying the lyrics of the song is prepared together with the performance data. The performance processing section 17a can generate lyrics based on the lyrics telop data and display the lyrics on the display means 12 in synchronization with the performance sound. Lyrics telop data can be obtained in the same manner as performance data.

(転送部)
転送部17bは、演奏処理部17aが行うカラオケ演奏の演奏音と、集音手段14により集音されたカラオケ歌唱の歌唱音声と、撮影手段15によりカラオケ歌唱を行う歌唱者を撮影して得られる動画像とに基づいて歌唱動画を生成し、サーバ装置Sにストリーミング送信する。
(transfer section)
The transfer unit 17b obtains the performance sound of the karaoke performance performed by the performance processing unit 17a, the singing voice of the karaoke singing collected by the sound collecting means 14, and the photographing of the singer performing the karaoke singing by the photographing means 15. A singing video is generated based on the video image and streamed to the server device S.

転送部17bは、演奏音、歌唱音声、及び歌唱者の動画像を合成し、歌唱動画を生成する。各音声と動画像の合成は、公知の手法を用いることができる。転送部17bは、通信手段11を介し、生成する歌唱動画を順次サーバ装置Sにストリーミング送信する。 The transfer unit 17b synthesizes the performance sound, the singing voice, and the moving image of the singer to generate a singing moving image. A known method can be used to synthesize each sound and a moving image. The transfer unit 17b sequentially transmits the generated singing videos to the server device S via the communication means 11 by streaming.

==視聴者端末==
次に、図3を参照して、視聴者端末の構成について説明する。以下、視聴者端末として、図1における利用者端末M2を例に説明する。なお、利用者端末M3~利用者端末Mnも同様の構成を有する。
==Viewer terminal==
Next, the configuration of the viewer terminal will be described with reference to FIG. 3. Hereinafter, the user terminal M2 in FIG. 1 will be described as an example of the viewer terminal. Note that the user terminals M3 to Mn also have similar configurations.

図3に示すように、利用者端末M2のハードウェア構成は、利用者端末M1と同様である。一方、ライブ配信アプリを起動し、視聴モードが選択された場合、制御手段17は、表示制御部17c、検出部17d、及び設定部17eとして機能する。 As shown in FIG. 3, the hardware configuration of the user terminal M2 is similar to that of the user terminal M1. On the other hand, when the live distribution application is started and the viewing mode is selected, the control means 17 functions as a display control section 17c, a detection section 17d, and a setting section 17e.

(表示制御部)
表示制御部17cは、サーバ装置Sがライブ配信する歌唱動画を表示手段12に表示させる。
(Display control section)
The display control unit 17c causes the display unit 12 to display the singing video live-distributed by the server device S.

たとえば、利用者U2は、視聴モードを選択した後、表示手段12に表示される検索画面で視聴したい歌唱動画を選択する。利用者U1がストリーミング送信中の歌唱動画を選択した場合、表示制御部17cは、サーバ装置Sにアクセスし、利用者U1がストリーミング送信中の歌唱動画のライブ配信を受け、表示手段12に表示させる。よって、利用者U2は利用者U1がストリーミング送信中の歌唱動画を視聴することができる。また、歌唱動画を視聴する利用者U2は、入力手段13を用いてコメントを入力したり、利用者U1に対してギフトを提供することができる。 For example, after selecting the viewing mode, the user U2 selects a singing video that he/she wishes to view on the search screen displayed on the display means 12. When the user U1 selects the singing video being streamed, the display control unit 17c accesses the server device S, receives the live streaming of the singing video being streamed by the user U1, and displays it on the display means 12. . Therefore, the user U2 can view the singing video that the user U1 is currently streaming. Moreover, the user U2 who views the singing video can input a comment using the input means 13, or can provide a gift to the user U1.

(検出部)
検出部17dは、視聴者端末の動きを検出し、モーションデータとしてサーバ装置Sに送信する。
(Detection unit)
The detection unit 17d detects the movement of the viewer terminal and transmits it to the server device S as motion data.

視聴者端末の動きの検出は、視聴者端末に内蔵されている加速度センサ(図示なし)を用いた公知の技術により行うことができる。 Detection of the movement of the viewer terminal can be performed by a known technique using an acceleration sensor (not shown) built into the viewer terminal.

たとえば、ライブ配信アプリを起動し、視聴モードを選択した場合、表示手段12にペンライト映像を合成するかどうかの選択画面が表示される。利用者U2は、入力手段13を介して「合成する」旨の選択を行った後、歌唱動画のカラオケ歌唱に合わせて、利用者端末M2を左右や上下に振る動作を繰り返し行う。 For example, when a live distribution application is started and a viewing mode is selected, a selection screen for selecting whether to synthesize a penlight video is displayed on the display unit 12. After the user U2 selects "to synthesize" via the input means 13, the user U2 repeatedly shakes the user terminal M2 left and right and up and down in accordance with the karaoke singing of the singing video.

この場合、検出部17dは、利用者端末M2の動きを検出し、モーションデータMDとしてサーバ装置Sに送信する。 In this case, the detection unit 17d detects the movement of the user terminal M2 and transmits it to the server device S as motion data MD.

なお、視聴者端末を振る動作は、ある一定期間だけ(たとえば、5秒間、或いはカラオケ演奏中の楽曲の2小節分)行うことでよい。その後、視聴者は視聴者端末で歌唱動画を視聴することができる。 Note that the action of shaking the viewer terminal may be performed only for a certain period of time (for example, 5 seconds or 2 bars of the song being played at karaoke). After that, the viewer can watch the singing video on the viewer terminal.

(設定部)
設定部17eは、ペンライト映像の発光態様を決定するための発光情報を設定する。
(setting section)
The setting unit 17e sets light emission information for determining the light emission mode of the penlight image.

ペンライト映像は、サーバ装置Sにより生成される映像である(詳細は後述)。発光態様は、ペンライト映像における発光色(ペンライト映像の色)、輝度、点灯パターン(常時点灯、点滅など)等である。 The penlight video is a video generated by the server device S (details will be described later). The light emission mode includes the light emission color in the penlight image (color of the penlight image), brightness, lighting pattern (always on, blinking, etc.).

たとえば、ライブ配信アプリを起動し、視聴モードを選択した場合、表示手段12に発光態様の選択画面が表示される。利用者U2は、入力手段13を介し、複数の発光態様の中から任意の発光態様(たとえば、発光色:赤)を選択する。設定部17eは、選択された発光態様を利用者端末M2のモーションデータMDに対応する発光情報として設定する。 For example, when a live distribution application is started and a viewing mode is selected, a light emission mode selection screen is displayed on the display means 12. The user U2 selects an arbitrary light emission mode (e.g., light emission color: red) from among the plurality of light emission modes via the input means 13. The setting unit 17e sets the selected light emission mode as light emission information corresponding to the motion data MD of the user terminal M2.

検出部17dは、設定された発光情報をモーションデータMDと併せてサーバ装置Sに送信する。 The detection unit 17d transmits the set light emission information to the server device S together with the motion data MD.

==サーバ装置==
図4はサーバ装置Sのハードウェア構成例を示す図である。サーバ装置Sは、記憶手段20、通信手段21、及び制御手段22を備える。各構成はインターフェース(図示なし)を介してバスBに接続されている。
==Server device==
FIG. 4 is a diagram showing an example of the hardware configuration of the server device S. As shown in FIG. The server device S includes a storage means 20, a communication means 21, and a control means 22. Each component is connected to bus B via an interface (not shown).

記憶手段20は、各種のデータを記憶する大容量の記憶装置である。たとえば、記憶手段20は、カラオケ演奏を行うための複数の楽曲について楽曲データを記憶する。楽曲データは、楽曲識別情報が付与されている。楽曲データは、演奏データ、リファレンスデータ、歌詞テロップデータ等を含む。通信手段21は、サーバ装置Sと各利用者端末とを接続するためのインターフェースを提供する。 The storage means 20 is a large capacity storage device that stores various data. For example, the storage means 20 stores music data regarding a plurality of songs for performing karaoke. The song data is given song identification information. The music data includes performance data, reference data, lyrics telop data, and the like. The communication means 21 provides an interface for connecting the server device S and each user terminal.

制御手段22は、サーバ装置Sにおける各種の制御を行う。図4に示すように、本実施形態に係る制御手段22は、生成部22a及び配信部22bとして機能する。 The control means 22 performs various controls in the server device S. As shown in FIG. 4, the control means 22 according to this embodiment functions as a generation section 22a and a distribution section 22b.

(生成部)
生成部22aは、受信したモーションデータに基づいて、少なくとも一つのペンライト映像を生成する。また、本実施形態において、生成部22aは、受信した発光情報に基づいて、複数のペンライト映像の発光態様を設定する。
(Generation part)
The generation unit 22a generates at least one penlight image based on the received motion data. Furthermore, in the present embodiment, the generation unit 22a sets the light emission mode of the plurality of penlight images based on the received light emission information.

ペンライト映像は、実際に使用されるペンライトの動きを模擬した映像である。 The penlight video is a video that simulates the movement of a penlight that is actually used.

たとえば、利用者端末M2からモーションデータMDを受信したとする。この場合、生成部22aは、モーションデータMDが示す動きでペンライトの画が動く映像を生成する。ペンライト映像の生成は、公知のCG技術を用いることができる。 For example, assume that motion data MD is received from the user terminal M2. In this case, the generation unit 22a generates an image in which the penlight image moves with the movement indicated by the motion data MD. A known CG technique can be used to generate the penlight image.

また、生成部22aがモーションデータMDと併せて「発光色:赤」という発光情報を受信したとする。この場合、生成部22aは、ペンライトの画が赤色で発光しながら動く映像を生成する。 Further, it is assumed that the generation unit 22a receives the light emission information "light emission color: red" together with the motion data MD. In this case, the generation unit 22a generates an image in which the penlight moves while emitting red light.

なお、生成部22aは、受信した一のモーションデータに基づいて、複数のペンライト映像を生成してもよい。この場合、一のモーションデータに基づいて生成された複数のペンライト映像は、全て同じ映像となる。 Note that the generation unit 22a may generate a plurality of penlight images based on one received motion data. In this case, the plurality of penlight images generated based on one motion data are all the same image.

(配信部)
配信部22bは、歌唱者端末がストリーミング送信する歌唱動画に対し、生成したペンライト映像を合成して視聴者端末にライブ配信する。
(Distribution Department)
The distribution unit 22b synthesizes the generated penlight video with the singing video streamed by the singer terminal and delivers it live to the viewer terminal.

歌唱動画をライブ配信する方法は公知の手法を利用することができる。たとえば、上記例で述べたように、利用者U1の利用者端末M1からストリーミング送信されている歌唱動画を利用者U2が選択したとする。この場合、配信部22bは、利用者U2が所有する利用者端末M2に対し、利用者端末M1がストリーミング送信中の歌唱動画のライブ配信を行う。 A publicly known method can be used to live distribute the singing video. For example, as described in the above example, it is assumed that the user U2 selects a singing video that is being streamed and transmitted from the user terminal M1 of the user U1. In this case, the distribution unit 22b performs live distribution of the singing video being streamed by the user terminal M1 to the user terminal M2 owned by the user U2.

利用者U2がペンライト映像の合成を選択している場合、生成部22aは、ペンライト映像を生成する。配信部22bは、利用者端末M1がストリーミング送信する歌唱動画に対し、生成部22aにより生成されたペンライト映像を合成して利用者端末M2にライブ配信を行う。利用者端末M2の表示制御部17cは、ペンライト映像が合成された歌唱動画を表示手段12に表示させる。 When the user U2 selects the combination of penlight images, the generation unit 22a generates a penlight image. The distribution unit 22b combines the singing video streamed by the user terminal M1 with the penlight video generated by the generation unit 22a, and performs live distribution to the user terminal M2. The display control unit 17c of the user terminal M2 causes the display unit 12 to display the singing video in which the penlight video has been synthesized.

なお、複数の利用者U2~利用者Unが利用者U1の歌唱動画を視聴している場合、複数の利用者端末M2~利用者端末Mnから複数のモーションデータが送信されることがある。この場合、生成部22aは、複数のモーションデータのそれぞれに基づいて複数のペンライト映像を生成する。また、配信部22bは、生成された複数のペンライト映像を歌唱動画に合成して各視聴者端末に対してライブ配信する。逆に、生成部22aは、複数のモーションデータの一部(但し、2つ以上)のみを用いてペンライト映像を生成してもよい。また、配信部22bは、生成された複数のペンライト映像の一部のみを歌唱動画に合成してライブ配信してもよい。 Note that when a plurality of users U2 to Un are viewing the singing video of the user U1, a plurality of motion data may be transmitted from a plurality of user terminals M2 to Mn. In this case, the generation unit 22a generates a plurality of penlight images based on each of the plurality of motion data. Further, the distribution unit 22b synthesizes the plurality of generated penlight videos into a singing video and live-distributes the video to each viewer terminal. Conversely, the generation unit 22a may generate the penlight video using only some (however, two or more) of the plurality of motion data. Further, the distribution unit 22b may synthesize only a portion of the plurality of generated penlight videos into a singing video and live-distribute the video.

==カラオケシステムにおける処理について==
次に、図5を参照して本実施形態に係るカラオケシステム1における処理について述べる。図5は、カラオケシステム1における処理を示すフローチャートである。この例では、歌唱者端末からストリーミング送信されている歌唱動画を、一の視聴者端末で視聴する例について述べる。
==About processing in the karaoke system==
Next, processing in the karaoke system 1 according to this embodiment will be described with reference to FIG. FIG. 5 is a flowchart showing processing in the karaoke system 1. In this example, an example will be described in which a singing video streamed from a singer terminal is viewed on one viewer terminal.

歌唱者端末の演奏処理部17aは、楽曲の演奏データに基づいてカラオケ演奏を行う(カラオケ演奏を開始。ステップ10)。集音手段14は、カラオケ歌唱の歌唱音声を集音する。また、撮影手段15は、カラオケ歌唱を行う歌唱者を撮影し、動画像を得る。 The performance processing unit 17a of the singer terminal performs karaoke performance based on the performance data of the song (starts karaoke performance. Step 10). The sound collecting means 14 collects singing voices of karaoke singing. Further, the photographing means 15 photographs a singer performing karaoke singing to obtain a moving image.

転送部17bは、カラオケ演奏の演奏音、歌唱音声、及び動画像に基づいて歌唱動画を生成し、サーバ装置Sにストリーミング送信する(歌唱動画をストリーミング送信。ステップ11)。 The transfer unit 17b generates a singing video based on the performance sound of the karaoke performance, the singing voice, and the moving image, and transmits the singing video by streaming to the server device S (streaming transmits the singing video. Step 11).

サーバ装置Sの配信部22bは、歌唱者端末がストリーミング送信中の歌唱動画を視聴者端末にライブ配信する(歌唱動画をライブ配信。ステップ12)。 The distribution unit 22b of the server device S live-distributes the singing video being streamed by the singer terminal to the viewer terminal (live-distributes the singing video. Step 12).

視聴者端末の表示制御部17cは、サーバ装置Sがライブ配信する歌唱動画を表示手段12に表示させる(歌唱動画を表示。ステップ13)。視聴者は、歌唱者の歌唱動画を視聴することができる。 The display control unit 17c of the viewer terminal causes the display means 12 to display the singing video live-distributed by the server device S (displays the singing video. Step 13). Viewers can watch videos of singers singing.

ここで、視聴者が、視聴者端末の表示手段12に表示された発光態様の選択画面で任意の発光態様を選択する。設定部17eは、選択された発光態様を視聴者端末における発光情報として設定する(発光情報の設定。ステップ14)。 Here, the viewer selects an arbitrary light emission mode on the light emission mode selection screen displayed on the display means 12 of the viewer terminal. The setting unit 17e sets the selected light emission mode as light emission information on the viewer terminal (setting of light emission information. Step 14).

その後、視聴者は、歌唱動画の演奏音に合わせて、視聴者端末を振る動作を行う。この場合、検出部17dは、視聴者端末の動きを検出し、モーションデータ及びステップ14で設定された発光情報を併せてサーバ装置Sに送信する(モーションデータ及び発光情報の送信。ステップ15)。 After that, the viewer shakes the viewer terminal in accordance with the performance sound of the singing video. In this case, the detection unit 17d detects the movement of the viewer terminal, and transmits the motion data and the light emission information set in step 14 together to the server device S (transmission of motion data and light emission information. Step 15).

サーバ装置Sの生成部22aは、受信したモーションデータMD及び発光情報に基づいて、実際に使用されるペンライトの動きを模擬したペンライト映像を生成する(ペンライト映像を生成。ステップ16)。 The generation unit 22a of the server device S generates a penlight image that simulates the movement of a penlight that is actually used, based on the received motion data MD and light emission information (generates a penlight image. Step 16).

配信部22bは、歌唱者端末がストリーミング送信する歌唱動画に対し、ステップ16で生成したペンライト映像を合成して視聴者端末にライブ配信する(ペンライト映像を合成してライブ配信。ステップ17)。 The distribution unit 22b combines the penlight video generated in step 16 with the singing video streamed by the singer terminal and delivers it live to the viewer terminal (synthesizes the penlight video and delivers it live. Step 17) .

視聴者端末の表示制御部17cは、サーバ装置Sがライブ配信するペンライト映像が合成された歌唱動画を表示手段12に表示させる(ペンライト映像が合成された歌唱動画を表示。ステップ18)。 The display control unit 17c of the viewer terminal causes the display unit 12 to display the singing video in which the penlight video that is live-distributed by the server device S is synthesized (displays the singing video in which the penlight video is synthesized. Step 18).

以上から明らかなように、本実施形態に係るカラオケシステム1は、複数の利用者端末、及び当該利用者端末と通信可能なサーバ装置Sを含む。利用者端末のうち、カラオケ歌唱を行う歌唱者が操作する歌唱者端末は、楽曲の演奏データに基づいてカラオケ演奏を行う演奏処理部17aと、演奏処理部17aが行うカラオケ演奏の演奏音と、集音手段14により集音されたカラオケ歌唱の歌唱音声と、撮影手段15によりカラオケ歌唱を行う歌唱者を撮影して得られる動画像とに基づいて歌唱動画を生成し、サーバ装置Sにストリーミング送信する転送部17bと、を有する。利用者端末のうち、歌唱動画を視聴する複数の視聴者が操作する複数の視聴者端末は、サーバ装置Sがライブ配信する歌唱動画を表示手段12に表示させる表示制御部17cと、視聴者端末の動きを検出し、モーションデータとしてサーバ装置Sに送信する検出部17dと、を有する。サーバ装置Sは、受信した複数のモーションデータのそれぞれに基づいて、実際に使用されるペンライトの動きを模擬した少なくとも一つのペンライト映像を生成する生成部22aと、歌唱者端末がストリーミング送信する歌唱動画に対し、生成した複数のペンライト映像を合成して視聴者端末にライブ配信する配信部22bと、を有する。 As is clear from the above, the karaoke system 1 according to the present embodiment includes a plurality of user terminals and a server device S that can communicate with the user terminals. Among the user terminals, the singer terminal operated by the singer who performs karaoke singing includes a performance processing unit 17a that performs karaoke performance based on the performance data of the song, a performance sound of the karaoke performance performed by the performance processing unit 17a, A singing video is generated based on the singing voice of karaoke singing collected by the sound collecting means 14 and a moving image obtained by photographing the singer performing karaoke singing by the photographing means 15, and is streamed to the server device S. and a transfer unit 17b. Among the user terminals, the plurality of viewer terminals operated by the plurality of viewers who view the singing video have a display control unit 17c that causes the display means 12 to display the singing video that is live-distributed by the server device S, and a viewer terminal. and a detection unit 17d that detects the movement of and transmits it to the server device S as motion data. The server device S includes a generation unit 22a that generates at least one video of a penlight that simulates the movement of a penlight that is actually used based on each of the plurality of received motion data, and a singer terminal that performs streaming transmission. It has a distribution unit 22b that combines a plurality of generated penlight videos with the singing video and delivers the composite live to the viewer terminal.

このようなカラオケシステム1によれば、複数の視聴者端末の動きに応じたモーションデータのそれぞれに基づいて複数のペンライト映像を生成し、その複数のペンライト映像を歌唱動画に合成して表示させることができる。このようにペンライトによる演出が模擬された歌唱動画を視聴する視聴者は、コンサート会場で実際にペンライトを振っているのと同じ感覚を持つことができる。すなわち、本実施形態に係るカラオケシステム1によれば、ライブ配信されている歌唱動画の視聴者に対し、ライブコンサートにおけるアーティストと観客の一体感と類似する感覚(すなわち、歌唱者との一体感)を与えることができる。 According to the karaoke system 1, a plurality of light penlight videos are generated based on motion data corresponding to the movements of a plurality of viewer terminals, and the plurality of light penlight videos are combined into a singing video and displayed. can be done. In this way, viewers who watch a singing video that simulates the performance using a penlight can have the same feeling as actually waving a penlight at a concert venue. That is, according to the karaoke system 1 according to the present embodiment, viewers of live-streamed singing videos are provided with a feeling similar to the sense of unity between the artist and the audience at a live concert (i.e., a sense of unity with the singer). can be given.

また、視聴者端末は、ペンライト映像の発光態様を決定するための発光情報を設定する設定部17eを有し、検出部17dは、設定された発光情報をモーションデータと併せてサーバ装置Sに送信し、生成部22aは、受信した発光情報に基づいて、ペンライト映像の発光態様を設定してもよい。このようなカラオケシステム1によれば、視聴者が希望する発光態様に応じたペンライト映像を生成することができる。 Furthermore, the viewer terminal has a setting unit 17e that sets light emission information for determining the light emission mode of the penlight image, and the detection unit 17d sends the set light emission information to the server device S together with the motion data. The generating unit 22a may set the light emitting mode of the penlight image based on the received light emitting information. According to the karaoke system 1 as described above, it is possible to generate a penlight image according to the light emission mode desired by the viewer.

なお、設定部17eは必須の構成ではない。たとえば、予め複数の発光情報をサーバ装置S側で記憶しておくことも可能である。この場合、生成部22aは、ペンライト映像を生成する際に一の発光情報を選択する。そして、生成部22aは、選択した発光情報に基づいてペンライト映像の発光態様を決定する。 Note that the setting section 17e is not an essential component. For example, it is also possible to store a plurality of pieces of light emission information in advance on the server device S side. In this case, the generation unit 22a selects one light emission information when generating the penlight image. Then, the generation unit 22a determines the light emission mode of the penlight image based on the selected light emission information.

また、生成部22aは、受信した一のモーションデータに基づいて、複数のペンライト映像を生成してもよい。このようなカラオケシステム1によれば、一のモーションデータに基づいて生成された複数のペンライト映像を表示させることができる。従って、視聴者の数が少ない場合であっても、多数のペンライトが振られている様子を模擬的に実現することができる。 Further, the generation unit 22a may generate a plurality of penlight images based on one received motion data. According to such karaoke system 1, a plurality of penlight images generated based on one motion data can be displayed. Therefore, even when the number of viewers is small, it is possible to simulate the appearance of many penlights being waved.

<その他>
上記実施形態では、ライブ配信される歌唱動画を視聴している途中で視聴者端末を振る動作を行う例について述べた。この場合、視聴者が視聴者端末を振っている間は歌唱動画の音声しか聴くことができない。一方、記憶手段10に予め記憶させておいた所定のモーションデータを利用することも可能である。この場合、検出部17dは、記憶手段10に予め記憶されている所定のモーションデータを読み出し、視聴者端末の動きに応じたモーションデータとしてサーバ装置Sに送信する。このように予め記憶されているモーションデータを利用することにより、視聴者は歌唱動画の視聴に専念できる。
<Others>
In the above embodiment, an example has been described in which the viewer shakes the viewer terminal while viewing a live-distributed singing video. In this case, while the viewer is shaking the viewer terminal, only the audio of the singing video can be heard. On the other hand, it is also possible to use predetermined motion data stored in the storage means 10 in advance. In this case, the detection unit 17d reads predetermined motion data stored in advance in the storage means 10, and transmits it to the server device S as motion data corresponding to the movement of the viewer terminal. By using motion data stored in advance in this way, the viewer can concentrate on watching the singing video.

所定のモーションデータは、たとえば、予め決定されているいくつかのパターンの中から一のパターンを採用することができる。このとき、採用された一のパターンをカラオケ演奏する楽曲のテンポ情報に基づいて補正し、所定のモーションデータとしてもよい。 As the predetermined motion data, for example, one pattern from several predetermined patterns can be adopted. At this time, the adopted pattern may be corrected based on tempo information of the song to be performed in karaoke, and may be used as predetermined motion data.

或いは、予め検出部17dにより取得したモーションデータを記憶手段10に記憶させておき、当該モーションデータを所定のモーションデータとして採用することができる。この場合、視聴者の好みに合った動きのペンライト映像を表示させることができる。 Alternatively, the motion data acquired by the detection unit 17d can be stored in the storage means 10 in advance, and the motion data can be employed as the predetermined motion data. In this case, it is possible to display a moving penlight image that matches the viewer's preference.

また、配信部22bは、ペンライト映像を合成した歌唱動画を歌唱者端末に対してライブ配信してもよい。この場合、歌唱者は、ペンライト映像が合成された歌唱動画を視認することができるため、ライブコンサートにおけるアーティストと観客の一体感と類似する感覚(すなわち、視聴者との一体感)を得ることができる。 Further, the distribution unit 22b may live-distribute the singing video synthesized with the penlight video to the singer terminal. In this case, the singer can view the singing video in which the video of the penlight has been synthesized, so they can experience a feeling similar to the sense of unity between the artist and the audience at a live concert (i.e., a sense of unity with the audience). I can do it.

上記実施形態は、例として提示したものであり、発明の範囲を限定するものではない。上記の構成は、適宜組み合わせて実施することが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。上記実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 The above embodiments are presented as examples and do not limit the scope of the invention. The above configurations can be implemented in appropriate combinations, and various omissions, substitutions, and changes can be made without departing from the gist of the invention. The above-described embodiments and their modifications are included within the scope and gist of the invention as well as within the scope of the invention described in the claims and its equivalents.

1 カラオケシステム
17a 演奏処理部
17b 転送部
17c 表示制御部
17d 検出部
17e 設定部
22a 生成部
22b 配信部
M1 利用者端末(歌唱者端末)
M2 利用者端末(視聴者端末)
S サーバ装置
1 Karaoke system 17a Performance processing unit 17b Transfer unit 17c Display control unit 17d Detection unit 17e Setting unit 22a Generation unit 22b Distribution unit M1 User terminal (singer terminal)
M2 User terminal (viewer terminal)
S server device

Claims (5)

複数の利用者端末、及び当該利用者端末と通信可能なサーバ装置を含むカラオケシステムであって、
前記利用者端末のうち、カラオケ歌唱を行う歌唱者が操作する歌唱者端末は、
楽曲の演奏データに基づいてカラオケ演奏を行う演奏処理部と、
前記演奏処理部が行うカラオケ演奏の演奏音と、集音手段により集音されたカラオケ歌唱の歌唱音声と、撮影手段によりカラオケ歌唱を行う前記歌唱者を撮影して得られる動画像とに基づいて歌唱動画を生成し、前記サーバ装置にストリーミング送信する転送部と、
を有し、
前記利用者端末のうち、前記歌唱動画を視聴する複数の視聴者が操作する複数の視聴者端末は、
前記サーバ装置がライブ配信する歌唱動画を表示手段に表示させる表示制御部と、
前記視聴者端末の動きを検出し、モーションデータとして前記サーバ装置に送信する検出部と、
を有し、
前記サーバ装置は、
受信した複数の前記モーションデータのそれぞれに基づいて、実際に使用されるペンライトの動きを模擬した少なくとも一つのペンライト映像を生成する生成部と、
前記歌唱者端末がストリーミング送信する前記歌唱動画に対し、生成した複数の前記ペンライト映像を合成して前記視聴者端末にライブ配信する配信部と、
を有するカラオケシステム。
A karaoke system including a plurality of user terminals and a server device capable of communicating with the user terminals,
Among the user terminals, the singer terminal operated by the singer who performs karaoke singing is
a performance processing unit that performs karaoke performance based on the performance data of the song;
Based on the performance sound of the karaoke performance performed by the performance processing section, the singing voice of karaoke singing collected by the sound collecting means, and the moving image obtained by photographing the singer performing karaoke singing by the photographing means. a transfer unit that generates a singing video and streams it to the server device;
has
Among the user terminals, a plurality of viewer terminals operated by a plurality of viewers who watch the singing video are:
a display control unit that causes a display unit to display a singing video that is live distributed by the server device;
a detection unit that detects a movement of the viewer terminal and transmits it as motion data to the server device;
has
The server device includes:
a generation unit that generates at least one penlight image simulating the movement of a penlight that is actually used, based on each of the plurality of received motion data;
a distribution unit that combines the plurality of generated penlight videos with the singing video streamed by the singer terminal and delivers the result live to the viewer terminal;
A karaoke system with
前記視聴者端末は、前記ペンライト映像の発光態様を決定するための発光情報を設定する設定部を有し、
前記検出部は、設定された前記発光情報を前記モーションデータと併せて前記サーバ装置に送信し、
前記生成部は、受信した前記発光情報に基づいて、前記ペンライト映像の発光態様を設定することを特徴とする請求項1記載のカラオケシステム。
The viewer terminal has a setting unit that sets light emission information for determining a light emission mode of the penlight image,
The detection unit transmits the set light emission information together with the motion data to the server device,
The karaoke system according to claim 1, wherein the generation unit sets a light emission mode of the penlight image based on the received light emission information.
前記生成部は、受信した一の前記モーションデータに基づいて、複数のペンライト映像を生成することを特徴とする請求項1または2記載のカラオケシステム。 The karaoke system according to claim 1 or 2, wherein the generation unit generates a plurality of penlight images based on the received one of the motion data. 前記検出部は、記憶手段に予め記憶されている所定のモーションデータを読み出し、前記モーションデータとして前記サーバ装置に送信することを特徴とする請求項1から3のいずれか一つに記載のカラオケシステム。 The karaoke system according to any one of claims 1 to 3, wherein the detection unit reads predetermined motion data stored in advance in a storage means and transmits it to the server device as the motion data. . 前記検出部は、前記所定のモーションデータとして、前記検出部が検出した前記視聴者端末の動きに基づくモーションデータを記憶させることを特徴とする請求項4記載のカラオケシステム。 5. The karaoke system according to claim 4, wherein the detection unit stores motion data based on the movement of the viewer terminal detected by the detection unit as the predetermined motion data.
JP2019098353A 2019-05-27 2019-05-27 karaoke system Active JP7442979B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019098353A JP7442979B2 (en) 2019-05-27 2019-05-27 karaoke system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019098353A JP7442979B2 (en) 2019-05-27 2019-05-27 karaoke system

Publications (2)

Publication Number Publication Date
JP2020194030A JP2020194030A (en) 2020-12-03
JP7442979B2 true JP7442979B2 (en) 2024-03-05

Family

ID=73548263

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019098353A Active JP7442979B2 (en) 2019-05-27 2019-05-27 karaoke system

Country Status (1)

Country Link
JP (1) JP7442979B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118176829A (en) * 2021-12-16 2024-06-11 阿尔卑斯阿尔派株式会社 Performance system, performance control device, and performance device

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014123085A (en) 2012-12-21 2014-07-03 Sachiko Miki Device, method, and program for further effectively performing and providing body motion and so on to be performed by viewer according to singing in karaoke

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006047754A (en) * 2004-08-05 2006-02-16 Namco Ltd Karaoke information distribution system, program, information storage medium, and karaoke information distributing method
JP5783629B2 (en) * 2011-07-08 2015-09-24 株式会社ドワンゴ Video display system, video display method, video display control program, operation information transmission program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014123085A (en) 2012-12-21 2014-07-03 Sachiko Miki Device, method, and program for further effectively performing and providing body motion and so on to be performed by viewer according to singing in karaoke

Also Published As

Publication number Publication date
JP2020194030A (en) 2020-12-03

Similar Documents

Publication Publication Date Title
JP6823852B2 (en) Methods, digital jukebox systems and recording media
US20140298174A1 (en) Video-karaoke system
JP6315568B2 (en) Online karaoke system and server
JP2020017242A (en) Three-dimensional content distribution system, three-dimensional content distribution method, and computer program
JP7417176B2 (en) Information processing device, video distribution method, and video distribution program
WO2015151766A1 (en) Projection photographing system, karaoke device, and simulation device
JP4755672B2 (en) Content editing apparatus, method and program
JP7465019B2 (en) Information processing device, information processing method, and information processing program
JP4981370B2 (en) Movie generation system and movie generation method
CN113302945A (en) Augmented reality filter for captured audiovisual performances
WO2022190917A1 (en) Information processing device, information processing terminal, information processing method, and program
JP6688378B1 (en) Content distribution system, distribution device, reception device, and program
JP7442979B2 (en) karaoke system
KR20200028830A (en) Real-time computer graphics video broadcasting service system
WO2018008434A1 (en) Musical performance presentation device
KR101809617B1 (en) My-concert system
JP7149193B2 (en) karaoke system
JP6548499B2 (en) Karaoke system
GB2532644A (en) Digital jukebox device with karaoke and/or photo booth features, and associated methods
JP7027300B2 (en) Information processing equipment, information processing methods and information processing programs
KR20180119410A (en) Method for providing karaoke game service based on virtual reality
JP2022173870A (en) Appreciation system, appreciation device, and program
JP7249859B2 (en) karaoke system
JP7149203B2 (en) karaoke system
JP7117236B2 (en) karaoke system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220401

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240221

R150 Certificate of patent or registration of utility model

Ref document number: 7442979

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150