JP2022018875A - Computer program, information processing method, and information processing device - Google Patents

Computer program, information processing method, and information processing device Download PDF

Info

Publication number
JP2022018875A
JP2022018875A JP2020122290A JP2020122290A JP2022018875A JP 2022018875 A JP2022018875 A JP 2022018875A JP 2020122290 A JP2020122290 A JP 2020122290A JP 2020122290 A JP2020122290 A JP 2020122290A JP 2022018875 A JP2022018875 A JP 2022018875A
Authority
JP
Japan
Prior art keywords
user
live
image
information
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020122290A
Other languages
Japanese (ja)
Other versions
JP7469977B2 (en
Inventor
充男 久保田
Mitsuo Kubota
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NKB Inc
Original Assignee
NKB Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NKB Inc filed Critical NKB Inc
Priority to JP2020122290A priority Critical patent/JP7469977B2/en
Publication of JP2022018875A publication Critical patent/JP2022018875A/en
Application granted granted Critical
Publication of JP7469977B2 publication Critical patent/JP7469977B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a computer program and the like capable of enhancing the degree of a user's satisfaction in viewing a live moving image.SOLUTION: The computer program causes a computer to execute processing of: acquiring a distribution instruction of a live moving image in a live facility; acquiring a participation request into a BOX room in which a plurality of users associated with predetermined seat tickets can participate; and on the basis of the acquired distribution instruction and participation request, displaying on a display unit an image plane containing the live moving image and a BOX room image including user images related to the respective users permitted to participate in the BOX room.SELECTED DRAWING: Figure 9

Description

本技術は、コンピュータプログラム、情報処理方法及び情報処理装置に関する。 The present technology relates to computer programs, information processing methods and information processing devices.

ライブ施設におけるライブをインターネット等の通信ネットワークを介して、リアルタイム中継することにより、ライブ動画を共有するサービスが知られている。 A service for sharing a live video by relaying a live concert in a live facility in real time via a communication network such as the Internet is known.

特許文献1には、全周カメラと、前記全周カメラで撮影された全周動画を取得して時系列の全周フレーム画像データを生成する全周画像生成手段と、前記全周フレーム画像データから通信端末装置において実時間でストリーミング再生可能な形式の全周動画データを生成する全周動画データ生成手段と、前記全周動画データを、前記通信端末装置に配信するライブ配信用サーバと、前記ライブ配信用サーバから配信された前記全周動画データを実時間でストリーミング再生し、ユーザによる視線の指示に応じた範囲の動画映像を表示する全周動画ライブ再生手段と、を備える全周動画ライブ配信システムが開示されている。特許文献1に記載の技術によれば、ユーザが全周動画をライブで視聴することができる。 Patent Document 1 describes an all-around camera, an all-around image generation means that acquires an all-around moving image taken by the all-around camera and generates time-series all-around frame image data, and the all-around frame image data. An all-around video data generation means that generates all-around video data in a format that can be streamed in real time in a communication terminal device, a live distribution server that distributes the all-around video data to the communication terminal device, and the above. An all-around video live that includes an all-around video live playback means that stream-plays the all-around video data distributed from a live distribution server in real time and displays a video image in a range according to a user's line-of-sight instruction. The delivery system is disclosed. According to the technique described in Patent Document 1, a user can watch a full-circle moving image live.

特開2013-161360号公報Japanese Unexamined Patent Publication No. 2013-161360

しかしながら、自宅等でライブ動画を視聴するユーザにとっては、視聴者間、あるいはライブ出演者とのコミュニケーションが十分でなく、ユーザがライブ動画で十分な満足度を得られない場合がある。また、出演者側にとっても、どのようなユーザがライブ動画を視聴しているのかが分からないという問題がある。 However, for a user who watches a live video at home or the like, communication between viewers or with a live performer may not be sufficient, and the user may not be sufficiently satisfied with the live video. In addition, there is a problem that the performers do not know what kind of user is watching the live video.

本開示の目的は、ライブ動画の視聴におけるユーザの満足度を向上させることが可能なコンピュータプログラム等を提供することである。 An object of the present disclosure is to provide a computer program or the like capable of improving user satisfaction in viewing live moving images.

本開示の一態様に係るコンピュータプログラムは、ライブ施設におけるライブ動画の配信指示を取得し、所定の座席券に関連付けられる複数のユーザが参加可能なBOXルームへの参加要求を取得し、取得した前記配信指示及び参加要求に基づき、前記ライブ動画と、前記BOXルームへの参加が許可された複数のユーザそれぞれに係るユーザ画像を含むBOXルーム画像とを含む画面を表示部に表示する処理をコンピュータに実行させる。 The computer program according to one aspect of the present disclosure acquires an instruction to distribute a live video in a live facility, acquires a request to participate in a BOX room in which a plurality of users associated with a predetermined seat ticket can participate, and acquires the above-mentioned. Based on the distribution instruction and the participation request, the computer is processed to display a screen including the live video and the BOX room image including the user image related to each of the plurality of users who are permitted to participate in the BOX room on the display unit. Let it run.

本開示の一態様に係るコンピュータプログラムは、ライブ施設におけるライブ動画を視聴するユーザに係る座席券に関する情報を取得し、前記ライブ動画の視聴中における所定の座席券に関連付けられる複数のユーザが参加可能なBOXルームへの参加が許可された複数のユーザそれぞれに係るユーザ画像を取得し、取得した前記座席券に関する情報と、前記BOXルームへの参加が許可された複数のユーザそれぞれに係る前記ユーザ画像とを関連付けて前記ライブ施設内の出力装置に出力する処理をコンピュータに実行させる。 The computer program according to one aspect of the present disclosure acquires information on a seat ticket for a user who watches a live video in a live facility, and a plurality of users associated with a predetermined seat ticket while watching the live video can participate. User images related to each of the plurality of users who are permitted to participate in the BOX room are acquired, and the acquired information on the seat ticket and the user images related to each of the plurality of users who are permitted to participate in the BOX room. The computer is made to execute the process of outputting to the output device in the live facility in association with.

本開示の一態様に係る情報処理方法は、ライブ施設におけるライブ動画の配信指示を取得し、所定の座席券に関連付けられる複数のユーザが参加可能なBOXルームへの参加要求を取得し、前記ライブ動画を取得し、前記ライブ動画の視聴中における前記BOXルームへの参加が許可された複数のユーザそれぞれに係るユーザ画像を取得し、取得した前記配信指示及び参加要求に基づき、前記ライブ動画と、前記BOXルームへの参加が許可された複数のユーザそれぞれに係るユーザ画像を含むBOXルーム画像とを含む画面情報を生成し、生成した前記画面情報を出力する。 The information processing method according to one aspect of the present disclosure obtains an instruction to distribute a live video in a live facility, obtains a request to participate in a BOX room in which a plurality of users associated with a predetermined seat ticket can participate, and obtains the above-mentioned live. A video is acquired, and a user image relating to each of a plurality of users who are permitted to participate in the BOX room while viewing the live video is acquired, and based on the acquired distribution instruction and participation request, the live video and the live video are displayed. Screen information including a BOX room image including a user image relating to each of a plurality of users permitted to participate in the BOX room is generated, and the generated screen information is output.

本開示の一態様に係る情報処理装置は、ライブ施設におけるライブ動画の配信指示を取得する第1取得部と、所定の座席券に関連付けられる複数のユーザが参加可能なBOXルームへの参加要求を取得する第2取得部と、前記ライブ動画を取得する第3取得部と、前記ライブ動画の視聴中における前記BOXルームへの参加が許可された複数のユーザそれぞれに係るユーザ画像を取得する第4取得部と、前記第1取得部が取得した配信指示及び前記第2取得部が取得した参加要求に基づき、前記第3取得部が取得したライブ動画と、前記第4取得部が取得した前記BOXルームへの参加が許可された複数のユーザそれぞれに係るユーザ画像を含むBOXルーム画像とを含む画面情報を生成する生成部と、前記生成部が生成した画面情報を出力する出力部とを備える。 The information processing apparatus according to one aspect of the present disclosure requests a first acquisition unit for acquiring a live video distribution instruction in a live facility and a request for participation in a BOX room in which a plurality of users associated with a predetermined seat ticket can participate. A fourth acquisition unit for acquiring a second acquisition unit, a third acquisition unit for acquiring the live video, and a plurality of users who are permitted to participate in the BOX room while watching the live video. The live video acquired by the third acquisition unit and the BOX acquired by the fourth acquisition unit based on the acquisition unit, the distribution instruction acquired by the first acquisition unit, and the participation request acquired by the second acquisition unit. It includes a generation unit that generates screen information including a BOX room image including a user image relating to each of a plurality of users who are permitted to participate in the room, and an output unit that outputs screen information generated by the generation unit.

本開示によれば、ライブ動画の視聴におけるユーザの満足度を向上させることができる。 According to the present disclosure, it is possible to improve the satisfaction of the user in viewing the live video.

第1実施形態における動画配信システムの概要図である。It is a schematic diagram of the moving image distribution system in 1st Embodiment. 情報処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of an information processing apparatus. ユーザ情報DBのレコードレイアウトを例示する説明図である。It is explanatory drawing which illustrates the record layout of the user information DB. ライブ動画DBのレコードレイアウトを例示する説明図である。It is explanatory drawing which illustrates the record layout of a live moving image DB. 座席券情報DBのレコードレイアウトを例示する説明図である。It is explanatory drawing which illustrates the record layout of the seat ticket information DB. 中継装置等の構成を示すブロック図である。It is a block diagram which shows the structure of a relay device and the like. 端末装置の構成を示すブロック図である。It is a block diagram which shows the structure of a terminal apparatus. 動画配信システムにて実行される処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the processing procedure executed in a moving image distribution system. 動画配信システムにて実行されるライブ動画配信に係る処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the processing procedure which concerns on the live video distribution executed by the video distribution system. 動画配信システムにて実行されるライブ動画配信に係る処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the processing procedure which concerns on the live video distribution executed by the video distribution system. 端末装置の表示部に表示される表示画面の一例を示す図である。It is a figure which shows an example of the display screen displayed on the display part of a terminal apparatus. 出力装置のモニタに表示されるモニタ画面の一例を示す図である。It is a figure which shows an example of the monitor screen displayed on the monitor of an output device. 第3実施形態における動画配信システムにて実行される処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the processing procedure executed by the moving image distribution system in 3rd Embodiment. 第4実施形態における学習モデルの概要図である。It is a schematic diagram of the learning model in 4th Embodiment. 第4実施形態における動画配信システムにて実行される処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the processing procedure executed by the moving image distribution system in 4th Embodiment. 第4実施形態における出力装置のモニタに表示されるモニタ画面の一例を示す図である。It is a figure which shows an example of the monitor screen displayed on the monitor of the output device in 4th Embodiment. 第5実施形態における動画配信システムにて実行される処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the processing procedure executed by the moving image distribution system in 5th Embodiment.

本発明をその実施の形態を示す図面を参照して具体的に説明する。 The present invention will be specifically described with reference to the drawings showing the embodiments thereof.

(第1実施形態)
図1は、第1実施形態における動画配信システム100の概要図である。動画配信システム100は、ライブ動画を配信する情報処理装置1と、複数のライブ施設2内に設置される撮影装置21及び出力装置22と接続される中継装置23と、ライブ動画を視聴する複数ユーザの端末装置3とを含む。情報処理装置1は、出力装置22及び端末装置3それぞれとの間で、インターネット等のネットワークNを介して情報の送受信が可能である。
(First Embodiment)
FIG. 1 is a schematic diagram of the moving image distribution system 100 according to the first embodiment. The video distribution system 100 includes an information processing device 1 that distributes a live video, a relay device 23 that is connected to a shooting device 21 and an output device 22 installed in a plurality of live facilities 2, and a plurality of users who watch the live video. The terminal device 3 of the above is included. The information processing device 1 can transmit and receive information between the output device 22 and the terminal device 3 via a network N such as the Internet.

情報処理装置1は例えば、動画配信サービスの提供者によって管理される、サーバコンピュータである。情報処理装置1は、各ライブ施設2で撮影されたライブ動画を取得し、取得したライブ動画をストリーミング形式で端末装置3へ配信する動画配信サーバとして機能する。また情報処理装置1は、ライブ動画を視聴するユーザの端末装置3から取得したユーザ画像を、他のユーザの端末装置3や、ライブ施設2内の出力装置22へ配信するユーザ画像配信サーバとして機能する。 The information processing device 1 is, for example, a server computer managed by a provider of a video distribution service. The information processing device 1 functions as a video distribution server that acquires live moving images shot at each live facility 2 and distributes the acquired live moving images to the terminal device 3 in a streaming format. Further, the information processing device 1 functions as a user image distribution server that distributes a user image acquired from the terminal device 3 of the user who watches the live video to the terminal device 3 of another user or the output device 22 in the live facility 2. do.

動画配信システム100により配信されるライブ動画とは、例えば、ライブ施設2において行われるライブ、音楽コンサート、演劇、スポーツの試合等を撮影した動画データである。ライブ動画は、例えば美術館、水族館等におけるガイドツアー等を撮影した動画データであってもよい。ライブ動画は、ライブ施設2において撮影されリアルタイムでストリーミング形式にて配信される。情報処理装置1は、各ライブ施設2から取得した多数のライブ動画を管理し、各ユーザの希望に応じたライブ動画を端末装置3へ配信する。 The live video distributed by the video distribution system 100 is, for example, video data obtained by shooting a live performance, a music concert, a play, a sports game, or the like performed at the live facility 2. The live moving image may be moving image data obtained by shooting a guided tour or the like in a museum, an aquarium, or the like. The live video is shot at the live facility 2 and delivered in real time in a streaming format. The information processing device 1 manages a large number of live videos acquired from each live facility 2, and distributes live videos according to the wishes of each user to the terminal device 3.

各ライブ施設2には、撮影装置21、出力装置22及び中継装置23が備えられている。撮影装置21は、例えばCCD(Charge Coupled Device)イメージセンサ等の撮像素子及びレンズ等を有するカメラである。撮影装置21は、レンズを介して入射した光を撮像素子にて光電変換し、画像データとして出力する。撮影装置21は、連続して撮影した複数の画像データからなる動画データを生成する。また、撮影装置21は、マイクロフォン等の音声入力デバイスを備え、ライブ施設2における音声を集音する。撮影装置21は、画像データ及び音声データの時間軸を合わせた音声付きのライブ動画を取得する。ライブ動画は、例えばフルハイビジョン等の、高い解像度にて撮影されることが好ましい。撮影装置21は、例えばライブ施設2内の座席に設置され、ライブ中におけるライブ動画を取得する。撮影装置21は、撮影方向(パン・チルト角度)を変更することができ、ユーザの要求に応じた視線方向のライブ動画を撮影する。撮影装置21は、ユーザの所有する座席券の座席番号に応じて、ライブ施設2内の異なる位置に複数台設置されてよい。撮影装置21は、座席に設置されるものに限定されず、美術館のガイドツアー等の場合においては、撮影者により把持され、場所を移動しながらライブ施設2内を撮影するものであってよい。 Each live facility 2 is provided with a photographing device 21, an output device 22, and a relay device 23. The photographing device 21 is a camera having an image pickup device such as a CCD (Charge Coupled Device) image sensor, a lens, and the like. The photographing device 21 photoelectrically converts the light incident through the lens by the image pickup element and outputs it as image data. The photographing device 21 generates moving image data including a plurality of continuously photographed image data. Further, the photographing device 21 is provided with a voice input device such as a microphone, and collects the voice in the live facility 2. The photographing device 21 acquires a live moving image with sound in which the time axes of the image data and the sound data are aligned. The live moving image is preferably shot at a high resolution such as full high definition. The photographing device 21 is installed, for example, in a seat in the live facility 2, and acquires a live moving image during the live. The shooting device 21 can change the shooting direction (pan / tilt angle), and shoots a live moving image in the line-of-sight direction according to the user's request. A plurality of photographing devices 21 may be installed at different positions in the live facility 2 according to the seat number of the seat ticket owned by the user. The photographing device 21 is not limited to the one installed in the seat, and in the case of a guided tour of a museum or the like, the photographing device 21 may be grasped by the photographer and photograph the inside of the live facility 2 while moving from place to place.

出力装置22は、例えば大型ディスプレイ、大型スクリーン、プロジェクタ等のモニタ222及びスピーカ223等を備える装置である(図6参照)。出力装置22は、ライブ施設2内において出演者から視認可能な位置に設けられ、ライブ動画を視聴するユーザの画像、音声等を出演者に対して出力する。出力装置22は、例えばスマートフォン、タブレット端末等の可搬型の装置であってもよい。 The output device 22 is a device including, for example, a large display, a large screen, a monitor 222 such as a projector, a speaker 223, and the like (see FIG. 6). The output device 22 is provided in the live facility 2 at a position visible to the performers, and outputs images, sounds, and the like of the user who views the live moving image to the performers. The output device 22 may be a portable device such as a smartphone or a tablet terminal.

中継装置23は、例えばサーバコンピュータ、パーソナルコンピュータ等である。中継装置23は、有線又は無線により撮影装置21及び出力装置22それぞれと接続されており、ネットワークNを介した情報処理装置1と撮影装置21及び出力装置22との間の通信を中継する。中継装置23は、例えばルータ、ゲートウェイ等であってもよい。中継装置23は、撮影装置21から入力される画像データを情報処理装置1へ送信する。中継装置23は、情報処理装置1から受信した画像又は音声を含む情報を出力装置22へ出力する。 The relay device 23 is, for example, a server computer, a personal computer, or the like. The relay device 23 is connected to each of the photographing device 21 and the output device 22 by wire or wirelessly, and relays the communication between the information processing device 1 and the photographing device 21 and the output device 22 via the network N. The relay device 23 may be, for example, a router, a gateway, or the like. The relay device 23 transmits the image data input from the photographing device 21 to the information processing device 1. The relay device 23 outputs information including an image or sound received from the information processing device 1 to the output device 22.

端末装置3はそれぞれ、例えばパーソナルコンピュータ、スマートフォン、タブレット端末等の情報端末装置である。動画配信サービスを利用するユーザは、端末装置3を用いて情報処理装置1から配信されるライブ動画を鑑賞することができる。ユーザはまた、端末装置3を用いて、ライブ動画を同時に視聴する他のユーザや、ライブ施設2の出演者に対し、ユーザ自身を撮影したユーザ画像やユーザ音声を情報処理装置1により配信することができる。 Each of the terminal devices 3 is an information terminal device such as a personal computer, a smartphone, or a tablet terminal. A user who uses the video distribution service can watch a live video distributed from the information processing device 1 using the terminal device 3. The user also uses the terminal device 3 to distribute the user image and the user voice of the user himself / herself to other users who simultaneously watch the live video and the performers of the live facility 2 by the information processing device 1. Can be done.

動画配信システム100における動画配信サービスでは、ライブ動画の視聴を希望するユーザは、予め座席券を購入する。座席券は、例えば、ライブ施設2の座席番号毎に販売される。座席券は、座席位置や、座席カテゴリ等に応じて複数の種類に分けられ、それぞれの種類に応じた価格で販売されている。例えば、座席の種類には、一人につき一席が用意される一般席や、グループシート・カップルシート等、複数人で利用可能なBOX席が含まれている。BOX席の座席券を購入したユーザは、ライブ動画の配信時に、端末装置3を用いて同一のBOX席のグループメンバーであるBOXルームユーザのみが参加可能なBOXルームに参加し、ライブ動画を視聴することができる。BOXルーム(グループルーム)とは、端末装置3の表示画面にて提供される、限定されたBOXルームユーザ間の画像やチャットボードを含むコミュニケーション空間であり、仮想的に生成されるBOX席である。 In the video distribution service in the video distribution system 100, a user who wants to watch a live video purchases a seat ticket in advance. Seat tickets are sold, for example, for each seat number of the live facility 2. Seat tickets are divided into a plurality of types according to the seat position, seat category, etc., and are sold at prices according to each type. For example, the types of seats include general seats in which one seat is prepared for each person, and BOX seats that can be used by a plurality of people, such as group seats and couple seats. A user who has purchased a BOX seat ticket uses the terminal device 3 to participate in a BOX room where only BOX room users who are group members of the same BOX seat can participate and watch the live video when the live video is distributed. can do. The BOX room (group room) is a communication space provided on the display screen of the terminal device 3 including images and chat boards between limited BOX room users, and is a virtually generated BOX seat. ..

上述のように動画配信システム100では、ネットワークNを介したライブ動画の配信において、ユーザ同士のコミュニケーションが可能なBOXルームを提供することで、離れた場所でライブ動画を視聴するユーザ間におけるコミュニケーションを促進することができる。また、ライブ施設2内に設置される出力装置22を用いて、ユーザからのリアクションをリアルタイムで出演者へ表示する。出演者は、ユーザのリアクションを見ながらライブを進行することができ、ユーザのリアクションに応じた発信が可能となる。従って、ユーザ同士に加え、ユーザ及び出演者間におけるコミュニケーションが可能となり、双方における満足度を向上することができる。 As described above, in the video distribution system 100, in the distribution of live video via network N, by providing a BOX room in which users can communicate with each other, communication between users who watch live video at a remote place can be performed. Can be promoted. Further, the reaction from the user is displayed to the performers in real time by using the output device 22 installed in the live facility 2. The performer can proceed with the live while watching the reaction of the user, and it is possible to make a transmission according to the reaction of the user. Therefore, it is possible to communicate between the users and the performers in addition to the users, and it is possible to improve the satisfaction level of both.

このような動画配信システム100の構成及び詳細な処理内容について以下に説明する。 The configuration and detailed processing contents of such a moving image distribution system 100 will be described below.

図2は、情報処理装置1の構成を示すブロック図である。情報処理装置1は、制御部10、記憶部11及び通信部12を備える。情報処理装置1は説明を容易にするために1台のサーバコンピュータとして説明するが、複数のサーバコンピュータで処理又は機能を分散させた構成とすることが好ましく、複数のサーバコンピュータをネットワークで接続して構築されるクラウドサーバであることが好ましい。 FIG. 2 is a block diagram showing the configuration of the information processing apparatus 1. The information processing device 1 includes a control unit 10, a storage unit 11, and a communication unit 12. The information processing apparatus 1 is described as one server computer for the sake of simplicity, but it is preferable that the information processing apparatus 1 has a configuration in which processing or functions are distributed among a plurality of server computers, and a plurality of server computers are connected by a network. It is preferable that it is a cloud server constructed by.

制御部10は、一又は複数のCPU(Central Processing Unit )又はGPU(Graphics Processing Unit)を用いたプロセッサであり、内蔵するROM(Read Only Memory)及びRAM(Random Access Memory)等のメモリを用い、各構成部を制御して処理を実行する。 The control unit 10 is a processor using one or a plurality of CPUs (Central Processing Units) or GPUs (Graphics Processing Units), and uses a built-in memory such as a ROM (Read Only Memory) and a RAM (Random Access Memory). Control each component to execute processing.

通信部12は、ネットワークNを介した通信を実現する通信デバイスである。制御部10は、通信部12を介して撮影装置21からライブ動画データを取得する。制御部10は、通信部12を介して出力装置22へユーザのリアクションに関する情報を出力する。制御部10は、通信部12を介して端末装置3へライブ動画を配信する。 The communication unit 12 is a communication device that realizes communication via the network N. The control unit 10 acquires live moving image data from the photographing device 21 via the communication unit 12. The control unit 10 outputs information regarding the user's reaction to the output device 22 via the communication unit 12. The control unit 10 distributes a live moving image to the terminal device 3 via the communication unit 12.

記憶部11は、ハードディスク、SSD(Solid State Drive )等の記憶装置を含む。記憶部11には、プログラム1Pを含む制御部10が参照するプログラム及びデータが記憶されている。制御部10は、プログラム1Pに基づき、後述するライブ動画及びユーザ画像等の配信に関する処理を実行する。 The storage unit 11 includes a storage device such as a hard disk and an SSD (Solid State Drive). The storage unit 11 stores programs and data referred to by the control unit 10 including the program 1P. The control unit 10 executes a process related to distribution of a live moving image, a user image, or the like, which will be described later, based on the program 1P.

記憶部11に記憶されるプログラム1Pは、当該プログラム1Pを読み取り可能に記録した非一時的な記録媒体1Aにより提供されてもよい。記録媒体1Aは、例えば、CD-ROM、USB(Universal Serial Bus)メモリ、SD(Secure Digital)カード、マイクロSDカード、コンパクトフラッシュ(登録商標)などの可搬型メモリである。この場合、制御部10は、不図示の読取装置を用いて記録媒体1Aからプログラム1Pを読み取り、読み取ったプログラム1Pを記憶部11に記憶する。また、記憶部11に記憶されるプログラム1Pは、通信部12を介した通信により提供されてもよい。この場合、制御部10は、通信部12を通じてプログラム1Pを取得し、取得したプログラム1Pを記憶部11に記憶する。なお記憶部11は、複数の記憶装置により構成されていてもよく、情報処理装置1に接続された外部記憶装置であってもよい。 The program 1P stored in the storage unit 11 may be provided by a non-temporary recording medium 1A in which the program 1P is readablely recorded. The recording medium 1A is, for example, a portable memory such as a CD-ROM, a USB (Universal Serial Bus) memory, an SD (Secure Digital) card, a micro SD card, and a compact flash (registered trademark). In this case, the control unit 10 reads the program 1P from the recording medium 1A using a reading device (not shown), and stores the read program 1P in the storage unit 11. Further, the program 1P stored in the storage unit 11 may be provided by communication via the communication unit 12. In this case, the control unit 10 acquires the program 1P through the communication unit 12, and stores the acquired program 1P in the storage unit 11. The storage unit 11 may be composed of a plurality of storage devices, or may be an external storage device connected to the information processing device 1.

また、記憶部11には、ユーザ情報DB(Data Base :データベース)111、ライブ動画DB112、座席券情報DB113等が記憶されている。記憶部11には、学習モデル1Mが記憶されていてもよい。学習モデル1Mについては、他の実施形態で詳述する。 Further, the storage unit 11 stores a user information DB (Data Base: database) 111, a live moving image DB 112, a seat ticket information DB 113, and the like. The learning model 1M may be stored in the storage unit 11. The learning model 1M will be described in detail in another embodiment.

図3は、ユーザ情報DB111のレコードレイアウトを例示する説明図である。ユーザ情報DB111は、動画配信サービスのユーザに関するユーザ情報を格納するデータベースである。ユーザ情報DB111には、複数のユーザそれぞれのユーザID、氏名、住所、年齢、ユーザが使用する端末装置3を識別する端末装置情報(例えばIPアドレス等)、クレジットカード番号、座席券・商品等の購入履歴等の情報が対応付けられて格納されている。ユーザ情報は、ユーザが初めて動画配信サービスを利用する際に情報処理装置1にて提供される登録用の画面を用いて収集される。ユーザは端末装置3に表示される登録用の画面上において、ユーザに対して発行されているアカウント情報に対応させてユーザ情報を登録することができる。また、ユーザ情報は、ユーザアカウント情報に対応させて座席券・商品等が購入される都度、記録される。ユーザ情報DB111の記憶内容は図3に示す例に限定されない。 FIG. 3 is an explanatory diagram illustrating the record layout of the user information DB 111. The user information DB 111 is a database that stores user information about users of the video distribution service. The user information DB 111 contains user IDs, names, addresses, ages of each of a plurality of users, terminal device information (for example, IP address, etc.) that identifies the terminal device 3 used by the user, a credit card number, a seat ticket, a product, and the like. Information such as purchase history is associated and stored. The user information is collected using the registration screen provided by the information processing apparatus 1 when the user uses the video distribution service for the first time. The user can register the user information in correspondence with the account information issued to the user on the registration screen displayed on the terminal device 3. In addition, the user information is recorded each time a seat ticket, a product, or the like is purchased in correspondence with the user account information. The stored contents of the user information DB 111 are not limited to the example shown in FIG.

図4は、ライブ動画DB112のレコードレイアウトを例示する説明図である。情報処理装置1は、中継装置23を介して取得した各ライブ施設2におけるライブ動画をライブ動画DB112に記録している。ライブ動画DB112には、ライブ動画を識別するライブ動画ID、動画データ、ライブを識別するライブ識別情報(例えばライブID、ライブ名称及び開催日時等)、ライブ動画を撮影する撮影装置21を識別する撮影装置情報(例えば装置の固有アドレス)、ライブ動画の配信開始時刻及び終了時刻を含む配信日時等が対応付けられて格納されている。ライブ動画DB112の内容は、随時更新される。ライブ動画DB112の記憶内容は図4に示す例に限定されない。 FIG. 4 is an explanatory diagram illustrating the record layout of the live moving image DB 112. The information processing device 1 records the live moving image in each live facility 2 acquired via the relay device 23 in the live moving image DB 112. The live video DB 112 includes a live video ID for identifying the live video, video data, live identification information for identifying the live (for example, live ID, live name, date and time, etc.), and shooting for identifying the shooting device 21 for shooting the live video. Device information (for example, the unique address of the device), the delivery date and time including the delivery start time and end time of the live moving image, and the like are stored in association with each other. The contents of the live video DB 112 are updated at any time. The stored content of the live moving image DB 112 is not limited to the example shown in FIG.

図5は、座席券情報DB113のレコードレイアウトを例示する説明図である。座席券情報DB113は、ユーザの購入した座席券に関する情報を格納するデータベースである。座席券情報DB113には、座席券情報を識別する座席券ID、ライブを識別するライブ識別情報(例えばライブID、ライブ名称及び開催日時等)、座席番号、座席券の購入者に関する情報(例えばユーザID)、座席券の購入日、座席数、招待者に関する情報(例えばユーザID)、ライブ動画ID等が対応付けられて格納されている。座席数とは、1つの座席番号に含まれる座席の数であり、1枚の座席券で同時にライブ動画を視聴することのできるユーザの人数に相当する。招待者とは、座席券の購入者からライブ動画の視聴に招待されたユーザであり、当該座席券の利用を許可されたユーザである。ライブ動画IDとは、座席券IDに対応するライブ動画を識別する識別情報であり、当該座席券IDの座席に設置された撮影装置21により撮影されるライブ動画のライブ動画IDが含まれる。 FIG. 5 is an explanatory diagram illustrating the record layout of the seat ticket information DB 113. The reserved-seat ticket information DB 113 is a database that stores information about the reserved-seat ticket purchased by the user. In the seat ticket information DB 113, a seat ticket ID for identifying seat ticket information, live identification information for identifying a live (for example, live ID, live name, date and time, etc.), a seat number, and information regarding a seat ticket purchaser (for example, a user) are stored. ID), the purchase date of the seat ticket, the number of seats, information about the invitee (for example, user ID), live video ID, etc. are stored in association with each other. The number of seats is the number of seats included in one seat number, and corresponds to the number of users who can watch live videos at the same time with one seat ticket. The invitee is a user who is invited to watch the live video by the purchaser of the seat ticket and is a user who is permitted to use the seat ticket. The live video ID is identification information for identifying a live video corresponding to the seat ticket ID, and includes a live video ID of the live video shot by the shooting device 21 installed in the seat of the seat ticket ID.

座席券情報は、例えば座席券販売会社のサーバ装置又は購入者の端末装置3等と通信を行うことにより、ユーザアカウントに対応付けて座席券が販売される都度、記録される。BOX席の座席券を購入したユーザ(購入者)は、購入後、座席券の種類毎に設定される座数に応じた招待可能枠の範囲内で、他のユーザ(招待者)を招待することができる。情報処理装置1は、購入者の端末装置3等を介して招待者に関する情報を収集し、座席券情報DB113に記録する。座席券情報DB113の記憶内容は図5に示す例に限定されない。 The seat ticket information is recorded each time the seat ticket is sold in association with the user account by communicating with, for example, the server device of the seat ticket sales company or the terminal device 3 of the purchaser. After purchasing a BOX seat ticket, the user (purchaser) invites other users (inviters) within the range of the inviteable slots according to the number of seats set for each type of seat ticket. be able to. The information processing device 1 collects information about the invitee via the purchaser's terminal device 3 and the like, and records it in the seat ticket information DB 113. The stored content of the seat ticket information DB 113 is not limited to the example shown in FIG.

図6は、中継装置23等の構成を示すブロック図である。中継装置23は、制御部230、記憶部231、通信部232及び入出力部233を備える。 FIG. 6 is a block diagram showing the configuration of the relay device 23 and the like. The relay device 23 includes a control unit 230, a storage unit 231 and a communication unit 232 and an input / output unit 233.

制御部230は、一又は複数のCPU又はGPUを用いたプロセッサであり、内蔵するROM及びRAM等のメモリを用い、各構成部を制御して処理を実行する。記憶部231は、ハードディスク、SSD等の記憶装置を含む。記憶部231には、制御部230が参照するプログラム及びデータが記憶されている。 The control unit 230 is a processor using one or a plurality of CPUs or GPUs, and uses a built-in memory such as a ROM and a RAM to control each component and execute processing. The storage unit 231 includes a storage device such as a hard disk and an SSD. The storage unit 231 stores programs and data referred to by the control unit 230.

通信部232は、ネットワークNを介した通信を実現する通信デバイスである。制御部230は、通信部232を介して情報処理装置1へライブ動画を出力すると共に、情報処理装置1から出力装置22へ出力する画像データ、音声データ等を取得する。 The communication unit 232 is a communication device that realizes communication via the network N. The control unit 230 outputs a live moving image to the information processing device 1 via the communication unit 232, and acquires image data, audio data, and the like to be output from the information processing device 1 to the output device 22.

入出力部233は、撮影装置21及び出力装置22をそれぞれ接続する入出力インタフェースである。入出力部233と、撮影装置21及び出力装置22それぞれとの間の接続は有線であってもよく、無線であってもよい。撮影装置21により撮影された画像データ及び音声データは、不図示のエンコーダを介し、入出力部233へ入力される。エンコーダは、撮影装置21から入力されたライブ動画を、リアルタイムで圧縮・符号化して、インターネット配信に適した動画データを生成する。制御部230は、入出力部233を通して撮影装置21から得られる信号を取得する。制御部230は、ユーザの操作による撮影方向の変更指示に関する信号を情報処理装置1から取得した場合、当該信号を入出力部233を通して撮影装置21へ出力する。また、制御部230は、入出力部233を通して情報処理装置1から取得した画面データ、音声データ等を出力装置22へ出力する。出力装置22は、モニタ222へ画面を表示する共に、スピーカ223により音声を出力する。 The input / output unit 233 is an input / output interface for connecting the photographing device 21 and the output device 22, respectively. The connection between the input / output unit 233 and each of the photographing device 21 and the output device 22 may be wired or wireless. The image data and audio data captured by the photographing device 21 are input to the input / output unit 233 via an encoder (not shown). The encoder compresses and encodes the live moving image input from the photographing device 21 in real time, and generates moving image data suitable for Internet distribution. The control unit 230 acquires a signal obtained from the photographing device 21 through the input / output unit 233. When the control unit 230 acquires a signal related to an instruction to change the shooting direction by the user's operation from the information processing device 1, the control unit 230 outputs the signal to the shooting device 21 through the input / output unit 233. Further, the control unit 230 outputs screen data, audio data, and the like acquired from the information processing device 1 through the input / output unit 233 to the output device 22. The output device 22 displays a screen on the monitor 222 and outputs sound by the speaker 223.

上記では、撮影装置21及び出力装置22は中継装置23を介して情報処理装置1と通信する例を説明したが、本実施形態は限定されるものではない。撮影装置21及び出力装置22はそれぞれ通信機能を備え、中継装置23を介することなくネットワークNを通して情報処理装置1とデータの送受信を行うものであってよい。 In the above, the example in which the photographing device 21 and the output device 22 communicate with the information processing device 1 via the relay device 23 has been described, but the present embodiment is not limited. The photographing device 21 and the output device 22 each have a communication function, and may transmit and receive data to and from the information processing device 1 through the network N without going through the relay device 23.

図7は、端末装置3の構成を示すブロック図である。端末装置3は、制御部30、記憶部31、通信部32、表示部33、操作部34、音声入力部35、音声出力部36、撮影部37を備える。 FIG. 7 is a block diagram showing the configuration of the terminal device 3. The terminal device 3 includes a control unit 30, a storage unit 31, a communication unit 32, a display unit 33, an operation unit 34, a voice input unit 35, a voice output unit 36, and a photographing unit 37.

制御部30は、CPU又はGPU等のプロセッサと、メモリ等を含む。制御部30は、プロセッサ、メモリ、記憶部31、及び通信部32を集積した1つのハードウェア(SoC:System On a Chip)として構成されていてもよい。制御部30は、記憶部31に記憶されているプログラム3Pに基づき、各構成部を制御して処理を実行する。 The control unit 30 includes a processor such as a CPU or GPU, a memory, and the like. The control unit 30 may be configured as one piece of hardware (SoC: System On a Chip) in which a processor, a memory, a storage unit 31, and a communication unit 32 are integrated. The control unit 30 controls each component unit to execute processing based on the program 3P stored in the storage unit 31.

記憶部31は、例えばフラッシュメモリ等の不揮発性メモリを含む。記憶部31には、プログラム3Pを含む制御部30が参照するプログラム及びデータが記憶されている。制御部30は、プログラム3Pに基づき、後述するライブ動画及び画面情報の受信、ユーザ画像の送信等に関する処理を実行する。 The storage unit 31 includes a non-volatile memory such as a flash memory. The storage unit 31 stores programs and data referred to by the control unit 30 including the program 3P. Based on the program 3P, the control unit 30 executes processing related to reception of live moving images and screen information, transmission of user images, and the like, which will be described later.

記憶部31に記憶されるプログラム3Pは、当該プログラム3Pを読み取り可能に記録した非一時的な記録媒体3Aにより提供されてもよい。この場合、制御部30は、不図示の読取装置を用いて記録媒体3Aからプログラム3Pを読み取り、読み取ったプログラム3Pを記憶部31に記憶する。また、記憶部31に記憶されるプログラム3Pは、通信部32を介した通信により提供されてもよい。この場合、制御部30は、通信部32を通じてプログラム3Pを取得し、取得したプログラム3Pを記憶部31に記憶する。 The program 3P stored in the storage unit 31 may be provided by a non-temporary recording medium 3A in which the program 3P is readablely recorded. In this case, the control unit 30 reads the program 3P from the recording medium 3A using a reading device (not shown), and stores the read program 3P in the storage unit 31. Further, the program 3P stored in the storage unit 31 may be provided by communication via the communication unit 32. In this case, the control unit 30 acquires the program 3P through the communication unit 32, and stores the acquired program 3P in the storage unit 31.

通信部32は、公衆通信網又はキャリアネットワークを含むネットワークNを介した情報処理装置1との通信を実現する通信デバイスである。制御部30は、通信部32を介し、情報処理装置1から画面情報を取得すると共に、ユーザの画像データ、音声データを情報処理装置1へ出力する The communication unit 32 is a communication device that realizes communication with the information processing device 1 via a network N including a public communication network or a carrier network. The control unit 30 acquires screen information from the information processing device 1 via the communication unit 32, and outputs user image data and voice data to the information processing device 1.

表示部33は、液晶パネル、有機EL(Electro Luminescence)ディスプレイ等のディスプレイ装置を含む。表示部33は、制御部30からの指示に従ってライブ動画を含む各種の情報を表示する。操作部34は、ユーザの操作を受け付けるインタフェースであり、例えば物理ボタン、マウス、ディスプレイ内蔵のタッチパネルデバイス等を含む。操作部34は、ユーザからの操作入力を受け付け、操作内容に応じた制御信号を制御部30へ送出する。 The display unit 33 includes a display device such as a liquid crystal panel and an organic EL (Electro Luminescence) display. The display unit 33 displays various information including a live moving image according to an instruction from the control unit 30. The operation unit 34 is an interface that accepts user operations, and includes, for example, a physical button, a mouse, a touch panel device with a built-in display, and the like. The operation unit 34 receives an operation input from the user and sends a control signal according to the operation content to the control unit 30.

音声入力部35は、ユーザの音声情報の入力を受け付けるための音声入力デバイスであり、マイクロフォン等を用いる。音声入力部35は、音波を音声データに変換し、変換した音声データを制御部30に与える。音声出力部36は、音声を再生するための音声出力デバイスであり、スピーカ等を用いる。音声出力部36は、制御部30からの音声出力制御に従い、音声データを音波に変換して出力する。 The voice input unit 35 is a voice input device for receiving a user's voice information input, and uses a microphone or the like. The voice input unit 35 converts sound waves into voice data, and gives the converted voice data to the control unit 30. The audio output unit 36 is an audio output device for reproducing audio, and uses a speaker or the like. The voice output unit 36 converts the voice data into sound waves and outputs the voice data according to the voice output control from the control unit 30.

撮影部37は、CMOS(Complementary Metal Oxide Semiconductor )、又はCCD(Charge Coupled Device )等のイメージセンサを備えた撮影装置である。撮影部37は、制御部30の制御指示に基づき、ユーザの静止画又は動画を含むユーザ画像を撮影する。 The photographing unit 37 is an imaging device provided with an image sensor such as a CMOS (Complementary Metal Oxide Semiconductor) or a CCD (Charge Coupled Device). The shooting unit 37 shoots a user image including a still image or a moving image of the user based on the control instruction of the control unit 30.

図8は、動画配信システム100にて実行される処理手順の一例を示すフローチャートである。例えば上述したようにユーザ情報の登録が済んでいる状態で、購入者又は招待者であるユーザが端末装置3を用いてプログラム3Pを選択し、アカウント情報を用いてログインすると、端末装置3の制御部30及び情報処理装置1の制御部10が以下の処理を実行する。 FIG. 8 is a flowchart showing an example of a processing procedure executed by the moving image distribution system 100. For example, when the user who is the purchaser or the invitee selects the program 3P using the terminal device 3 and logs in using the account information in the state where the user information has been registered as described above, the control of the terminal device 3 is performed. The unit 30 and the control unit 10 of the information processing device 1 execute the following processing.

端末装置3の制御部30は、プログラム3Pに従って、ライブ動画配信サービスに係る受付画像を表示部33に表示する(ステップS11)。受付画像には、例えば配信を希望するライブ動画に関するライブ識別情報、座席番号及びパスコード等の入力欄と、配信指示を受け付けるための配信ボタンとが含まれている。ライブ動画の視聴に際し、ユーザは予め座席番号及びパスコード等が記載された座席券を購入する。BOX席の座席番号を有する座席券を購入したユーザ(購入者)は、購入後、当該座席券の席数に応じた人数の他ユーザ(招待者)に対し、例えば座席番号及びパスコード等を付した招待メールを送信することにより、BOX席へ招待する。招待者は、招待メールを受信し、座席番号及びパスコードを取得する。 The control unit 30 of the terminal device 3 displays the reception image related to the live video distribution service on the display unit 33 according to the program 3P (step S11). The reception image includes, for example, an input field for live identification information, a seat number, a passcode, etc. regarding a live video to be distributed, and a distribution button for receiving a distribution instruction. When viewing a live video, the user purchases a seat ticket with a seat number, passcode, etc. in advance. After purchasing a seat ticket with a seat number for a BOX seat, the user (purchaser) gives, for example, a seat number and a passcode to other users (inviters) according to the number of seats in the seat ticket. Invite to the BOX seat by sending the attached invitation mail. The invitee receives the invitation email and obtains a seat number and passcode.

なお、座席番号及びパスコードの通知方法は限定されるものではない。例えば、情報処理装置1又は座席券販売会社等のサーバ装置から座席券の購入者又は招待者の端末装置3へ、座席番号及びパスコードを取得するためのURL等のリンク先情報が送信されてもよい。又は、情報処理装置1又は座席券販売会社等のサーバ装置から座席券の購入者又は招待者の端末装置3へ、ライブ動画ID、ユーザID及び座席券ID等を埋め込んだURL等のリンク先情報が送信されてもよい。 The method of notifying the seat number and passcode is not limited. For example, link information such as a URL for acquiring a seat number and a passcode is transmitted from the information processing device 1 or a server device such as a seat ticket sales company to the terminal device 3 of the seat ticket purchaser or the invitee. May be good. Alternatively, link destination information such as a URL in which a live video ID, a user ID, a seat ticket ID, etc. are embedded from the information processing device 1 or a server device such as a seat ticket sales company to the terminal device 3 of the seat ticket purchaser or the invitee. May be sent.

制御部30は、受付画像を用いてユーザの操作部34の操作を受け付け、ライブ識別情報、座席番号、パスコード等を含むライブ動画の配信指示を取得する(ステップS12)。制御部30は、端末装置3の識別情報、ライブ識別情報、座席番号及びパスコード等を含むライブ動画の配信指示を情報処理装置1へ送信する(ステップS13)。 The control unit 30 receives an operation of the user's operation unit 34 using the reception image, and acquires a live video distribution instruction including a live identification information, a seat number, a passcode, and the like (step S12). The control unit 30 transmits a distribution instruction of the live moving image including the identification information, the live identification information, the seat number, the passcode, and the like of the terminal device 3 to the information processing device 1 (step S13).

情報処理装置1の制御部10は、端末装置3の識別情報、ライブ名称、座席番号及びパスコード等を含むライブ動画の配信指示を受信する(ステップS14)。制御部10は、配信指示を取得する第1取得部として機能する。制御部10は、ユーザ情報DB111を参照して、ログインに係る端末装置3の識別情報に関連付けられるユーザIDを取得する(ステップS15)。また制御部10は、座席券情報DB113を参照して、ライブ識別情報及び座席番号に関連付けられる座席券IDを特定し(ステップS16)、特定した座席券IDに関連付けられる購入者及び紹介者のユーザIDを取得する。 The control unit 10 of the information processing device 1 receives a distribution instruction of a live moving image including identification information, a live name, a seat number, a passcode, and the like of the terminal device 3 (step S14). The control unit 10 functions as a first acquisition unit for acquiring a distribution instruction. The control unit 10 refers to the user information DB 111 and acquires a user ID associated with the identification information of the terminal device 3 related to login (step S15). Further, the control unit 10 refers to the seat ticket information DB 113 to specify the seat ticket ID associated with the live identification information and the seat number (step S16), and the user of the purchaser and the introducer associated with the specified seat ticket ID. Get an ID.

制御部10は、ユーザの認証処理を実行する(ステップS17)。制御部10は、取得した座席番号及びパスコードが予め記憶する認証データと一致し、且つ、ログインに係るユーザIDが座席券IDに関連付けられる購入者又は紹介者に含まれている場合、ログインユーザを座席券の正規ユーザとして認証する。 The control unit 10 executes the user authentication process (step S17). When the acquired seat number and passcode match the authentication data stored in advance, and the user ID related to login is included in the purchaser or introducer associated with the seat ticket ID, the control unit 10 is a logged-in user. Is authenticated as a legitimate user of the seat ticket.

認証しないと判定した場合(ステップS17:NO)、制御部10は処理を終了する。制御部10は、認証不可を示す情報を端末装置3へ出力し、再度入力を受け付けるものであってもよい。 If it is determined not to authenticate (step S17: NO), the control unit 10 ends the process. The control unit 10 may output information indicating that authentication is not possible to the terminal device 3 and accept the input again.

認証すると判定した場合(ステップS17:YES)、制御部10は、例えばBOXルームへの参加ボタンを含む画面情報を生成することにより、BOXルームへの参加問い合わせを端末装置3へ送信する(ステップS18)。BOXルームには、複数人で利用可能なBOX席を利用するユーザのみが参加できる。 When it is determined to authenticate (step S17: YES), the control unit 10 transmits an inquiry for participation in the BOX room to the terminal device 3 by generating screen information including, for example, a button for joining the BOX room (step S18). ). Only users who use BOX seats that can be used by multiple people can participate in the BOX room.

端末装置3の制御部30は、BOXルームへの参加問い合わせを受信し(ステップS19)、参加問い合わせに基づく画面を表示部33に表示する。制御部30は、例えば参加ボタンの押下操作の受け付け等により、BOXルームへの参加要求を取得する(ステップS20)。制御部30は、取得した参加要求を情報処理装置1へ送信する(ステップS21)。 The control unit 30 of the terminal device 3 receives the participation inquiry to the BOX room (step S19), and displays a screen based on the participation inquiry on the display unit 33. The control unit 30 acquires a participation request to the BOX room, for example, by accepting an operation of pressing the participation button (step S20). The control unit 30 transmits the acquired participation request to the information processing device 1 (step S21).

情報処理装置1の制御部10は、BOXルームへの参加要求を受信する(ステップS22)。制御部10は、参加要求を取得する第2取得部として機能する。制御部10は、参加要求を受信したユーザIDのユーザを、座席番号のBOXルームのBOXルームユーザに追加し(ステップS23)、BOXルームへの参加を許可する許可情報を端末装置3へ送信する(ステップS24)。 The control unit 10 of the information processing apparatus 1 receives a request to participate in the BOX room (step S22). The control unit 10 functions as a second acquisition unit for acquiring a participation request. The control unit 10 adds the user of the user ID who received the participation request to the BOX room user of the BOX room of the seat number (step S23), and transmits the permission information permitting the participation in the BOX room to the terminal device 3. (Step S24).

端末装置3の制御部30は、許可情報を受信する(ステップS25)。制御部30は、受信した許可情報を示す画面を表示部33に表示し、一連の処理を終了する。制御部30は、許可情報として、参加したグループのBOXルーム画像を表示部33に表示してもよい。 The control unit 30 of the terminal device 3 receives the permission information (step S25). The control unit 30 displays a screen showing the received permission information on the display unit 33, and ends a series of processes. The control unit 30 may display the BOX room image of the participating group on the display unit 33 as permission information.

上述の処理において、ライブ動画の配信指示及びBOXルームへの参加要求はそれぞれ取得されるものに限定されず、まとめて取得されてもよい。例えば、端末装置3の制御部30は、表示部33に表示されるリンク先情報のクリック操作を受け付けることにより、配信指示及び参加要求を取得し、情報処理装置1へ送信する。情報処理装置1の制御部10は、配信指示及び参加要求を取得し、リンク先情報に応じた画像を表示する。 In the above process, the live video distribution instruction and the participation request to the BOX room are not limited to those acquired, but may be acquired collectively. For example, the control unit 30 of the terminal device 3 acquires the distribution instruction and the participation request by accepting the click operation of the link destination information displayed on the display unit 33, and transmits the distribution instruction and the participation request to the information processing device 1. The control unit 10 of the information processing apparatus 1 acquires a distribution instruction and a participation request, and displays an image corresponding to the link destination information.

上述の処理が実行され、ライブ施設2におけるライブが開始する。図9及び図10は、動画配信システム100にて実行されるライブ動画配信に係る処理手順の一例を示すフローチャートである。ライブ動画の配信対象となるライブ施設2内には、ライブ開始前に、ユーザの購入した座席券に係る座席番号の座席上に撮影装置21が設置されている。ライブ動画の配信開始時刻になり、撮影装置21にて撮影が開始されると、情報処理装置1の制御部10及び端末装置3の制御部30が以下の処理を実行する。 The above process is executed, and the live at the live facility 2 starts. 9 and 10 are flowcharts showing an example of a processing procedure related to live video distribution executed by the video distribution system 100. In the live facility 2 to which the live moving image is distributed, the photographing device 21 is installed on the seat of the seat number related to the seat ticket purchased by the user before the start of the live. When the distribution start time of the live moving image comes and the shooting is started by the shooting device 21, the control unit 10 of the information processing device 1 and the control unit 30 of the terminal device 3 execute the following processing.

情報処理装置1の制御部10は、中継装置23を介して撮影装置21からリアルタイムでライブ動画を受信し(ステップS31)、受信したライブ動画をライブ動画IDに関連付けてライブ動画DB112に記憶する。ライブ施設2内に撮影装置21が複数備えられている場合においては、制御部10は、各撮影装置21による複数のライブ動画を取得し、それぞれのライブ動画IDを関連付けて記憶する。制御部10は、ライブ動画を取得する第3取得部として機能する。 The control unit 10 of the information processing device 1 receives a live moving image in real time from the photographing device 21 via the relay device 23 (step S31), associates the received live moving image with the live moving image ID, and stores the received live moving image in the live moving image DB 112. When a plurality of photographing devices 21 are provided in the live facility 2, the control unit 10 acquires a plurality of live moving images by each photographing device 21 and stores the live moving image IDs in association with each other. The control unit 10 functions as a third acquisition unit for acquiring a live moving image.

制御部10は、図8の処理により配信指示を取得した端末装置3へライブ動画の配信を開始する(ステップS32)。端末装置3には、当該端末装置3に係る座席券IDに応じたライブ動画IDのライブ動画、すなわち座席番号に応じた撮影装置21により撮影されるライブ動画が配信される。ライブ動画は、画像データ及び音声データを含み、例えばストリーミング形式の通信プロトコルによりリアルタイムで配信される。 The control unit 10 starts distribution of the live moving image to the terminal device 3 that has acquired the distribution instruction by the process of FIG. 8 (step S32). A live moving image of a live moving image ID corresponding to a seat ticket ID related to the terminal device 3, that is, a live moving image taken by a shooting device 21 according to a seat number is delivered to the terminal device 3. The live moving image includes image data and audio data, and is delivered in real time by, for example, a communication protocol in a streaming format.

制御部10は、撮影装置21から取得したライブ動画に、VFX(Visual Effects)等の手法を用いて編集を施したライブ動画を配信してもよい。 The control unit 10 may deliver a live moving image obtained by editing the live moving image obtained from the shooting device 21 by using a method such as VFX (Visual Effects).

制御部30は、撮影部37を介してユーザを撮影したユーザ画像の取得を開始する(ステップS33)。制御部10は、ユーザ画像を取得する第4取得部として機能する。制御部30は、取得したユーザ画像をリアルタイムで圧縮・符号化して、インターネット配信に適したファイル形式の動画データに変換したユーザ画像を生成する。制御部30は、生成したユーザ画像を情報処理装置1へ送信する(ステップS34)。この場合において、制御部30は、音声入力部35により取得したユーザ音声をユーザ画像と関連付けて情報処理装置1へ送信してもよい。すなわち、ユーザ画像は、ユーザ音声を含む動画データであってよい。なお、制御部30は、情報処理装置1等から取得する許可信号に応じて、音声入力部35による音声入力のオン/オフを切り替えるものであってよい。 The control unit 30 starts acquiring a user image obtained by photographing the user via the photographing unit 37 (step S33). The control unit 10 functions as a fourth acquisition unit for acquiring a user image. The control unit 30 compresses and encodes the acquired user image in real time, and generates a user image converted into moving image data in a file format suitable for Internet distribution. The control unit 30 transmits the generated user image to the information processing device 1 (step S34). In this case, the control unit 30 may transmit the user voice acquired by the voice input unit 35 to the information processing apparatus 1 in association with the user image. That is, the user image may be moving image data including the user voice. The control unit 30 may switch on / off the voice input by the voice input unit 35 according to the permission signal acquired from the information processing device 1 or the like.

情報処理装置1の制御部10は、ユーザ画像を受信し(ステップS35)、一時的に記憶部11に記憶する。制御部10は、ユーザ画像の配信を開始する(ステップS36)。ユーザ画像は、例えばストリーミング形式の通信プロトコルによりリアルタイムで配信される。 The control unit 10 of the information processing apparatus 1 receives the user image (step S35) and temporarily stores it in the storage unit 11. The control unit 10 starts distribution of the user image (step S36). User images are delivered in real time, for example, by a streaming communication protocol.

制御部10は、受信したユーザ画像に基づき、ユーザの参加しているBOXルームの各BOXルームユーザに係るユーザ画像を含むBOXルーム画像を生成する。制御部10は、BOXルーム画像とライブ動画とを含む画面情報を生成する(ステップS37)。制御部10は、画面情報を生成する生成部として機能する。制御部10は、生成した画面情報を端末装置3へ送信する(ステップS38)。制御部10は、画面情報を出力する出力部として機能する。 The control unit 10 generates a BOX room image including a user image related to each BOX room user of the BOX room in which the user participates, based on the received user image. The control unit 10 generates screen information including a BOX room image and a live moving image (step S37). The control unit 10 functions as a generation unit that generates screen information. The control unit 10 transmits the generated screen information to the terminal device 3 (step S38). The control unit 10 functions as an output unit that outputs screen information.

端末装置3の制御部30は、画面情報を受信する(ステップS39)。制御部30は、受信した画面情報に基づく表示画面330を表示部33に表示する(ステップS40)。画面情報と共に音声データを取得した場合には、制御部30は、音声出力部36により音声を出力する。 The control unit 30 of the terminal device 3 receives screen information (step S39). The control unit 30 displays the display screen 330 based on the received screen information on the display unit 33 (step S40). When the audio data is acquired together with the screen information, the control unit 30 outputs the audio by the audio output unit 36.

図11は、端末装置3の表示部33に表示される表示画面330の一例を示す図である。図11に示す例にて、表示画面330には複数の領域が含まれ、各領域には、ライブ動画像331、商品購入画像332、チャットルーム画像333、BOXルーム画像334及びツールバー335等がそれぞれ表示されている。ライブ動画像331の表示領域には、撮影装置21から取得したライブ動画像がリアルタイムで表示される。 FIG. 11 is a diagram showing an example of a display screen 330 displayed on the display unit 33 of the terminal device 3. In the example shown in FIG. 11, the display screen 330 includes a plurality of areas, and each area includes a live moving image 331, a product purchase image 332, a chat room image 333, a BOX room image 334, a toolbar 335, and the like. It is displayed. In the display area of the live moving image 331, the live moving image acquired from the photographing device 21 is displayed in real time.

商品購入画像332の表示領域には、ライブ動画に関する各種の商品の購入を受け付ける商品購入画像が表示される。ユーザは、商品購入画像332を利用して、例えばCD、ライブ限定グッズ等の商品を購入することができる。商品には、デジタルコンテンツが含まれていてもよい。情報処理装置1の制御部10は、例えばユーザDB111を参照して、ユーザ属性や購入履歴に基づくお勧め商品を特定し、特定したお勧め商品を含む商品購入画像332を生成する。ユーザは、表示画面330を用いて、通常ライブ施設2において販売される商品を、現地に行くことなく購入することができる。 In the display area of the product purchase image 332, a product purchase image that accepts the purchase of various products related to the live video is displayed. The user can purchase a product such as a CD or a live limited goods by using the product purchase image 332. The product may include digital content. The control unit 10 of the information processing apparatus 1 specifies, for example, the recommended product based on the user attribute and the purchase history with reference to the user DB 111, and generates a product purchase image 332 including the specified recommended product. The user can purchase the product normally sold at the live facility 2 without going to the site by using the display screen 330.

チャットルーム画像333の表示領域には、BOXルームユーザによるチャット画像が表示される。制御部10は、表示画面330により、BOXルームへの参加を許可したBOXルームユーザによるチャットルームを提供する。制御部10は、各BOXルームユーザからチャット入力を受け付けた都度、チャットルーム画像333を更新する。 A chat image by a BOX room user is displayed in the display area of the chat room image 333. The control unit 10 provides a chat room by the BOX room user who is permitted to participate in the BOX room by the display screen 330. The control unit 10 updates the chat room image 333 each time a chat input is received from each BOX room user.

BOXルーム画像334の表示領域には、ユーザが参加するBOXルームに係る画像が表示されており、各BOXルームユーザの端末装置3から取得した複数のユーザ画像が含まれている。制御部10は、各BOXルームユーザの端末装置3からユーザ画像を取得した場合、座席券情報DB113を参照して、当該ユーザ画像のユーザIDが含まれるBOXルームを特定する。制御部10は、特定したBOXルームにおけるBOXルーム画像上の各ユーザIDが割り当てられた位置に、対応するユーザIDのユーザ画像をそれぞれ表示するBOXルーム画像を生成する。制御部30は、ストリーミング形式で配信されるライブ動画及びユーザ画像を含む表示画面情報を受信し表示部33に表示する。 The display area of the BOX room image 334 displays an image related to the BOX room in which the user participates, and includes a plurality of user images acquired from the terminal device 3 of each BOX room user. When the control unit 10 acquires a user image from the terminal device 3 of each BOX room user, the control unit 10 refers to the seat ticket information DB 113 and identifies the BOX room including the user ID of the user image. The control unit 10 generates a BOX room image that displays the user image of the corresponding user ID at the position to which each user ID is assigned on the BOX room image in the specified BOX room. The control unit 30 receives display screen information including live moving images and user images distributed in a streaming format and displays them on the display unit 33.

ツールバー335の表示領域には、撮影装置21の視点操作のための操作ボタン336、拍手操作を受け付けるための拍手ボタン337、画面表示を切り替えるための切替ボタン338等を含むバーが表示される。端末装置3の制御部30は、ユーザによる各ボタン操作を受け付け、受け付けた操作信号を情報処理装置1へ送信する。 In the display area of the toolbar 335, a bar including an operation button 336 for operating the viewpoint of the photographing device 21, an applause button 337 for accepting an applause operation, a switching button 338 for switching the screen display, and the like is displayed. The control unit 30 of the terminal device 3 receives each button operation by the user and transmits the received operation signal to the information processing device 1.

ユーザは、操作ボタン336を操作することにより、撮影装置21の撮影方向を右、左及び正面に変更することができる。端末装置3の制御部30は、各方向に応じた操作ボタン336の操作を受け付けた場合、受け付けた操作信号を情報処理装置1へ送信する。情報処理装置1は、操作信号を受信し、中継装置23を介して座席券IDに関連付けられる撮影装置21へと撮影方向の変更指示を出力する。撮影装置21は、変更指示に応じて撮影方向を変更する。操作ボタンは、上下方向の操作ボタン336を含み、チルト操作を受け付けるものであってもよい。操作ボタン336により切替可能な撮影装置21の撮影方向は、各座席の種類に応じて異なるものであってよい。例えば、情報処理装置1の制御部10は、座席券IDと、当該座席券IDに係る撮影装置21のチルト・パン角度の変更可能範囲の設定情報とを関連付けて記憶しておき、変更可能角度の範囲内で撮影装置21の撮影方向の変更指示を出力するものであってよい。 The user can change the shooting direction of the shooting device 21 to the right, left, and front by operating the operation button 336. When the control unit 30 of the terminal device 3 receives the operation of the operation button 336 corresponding to each direction, the control unit 30 transmits the received operation signal to the information processing device 1. The information processing device 1 receives the operation signal and outputs an instruction to change the shooting direction to the shooting device 21 associated with the seat ticket ID via the relay device 23. The photographing device 21 changes the photographing direction according to the change instruction. The operation button may include an operation button 336 in the vertical direction and may accept a tilt operation. The shooting direction of the shooting device 21 that can be switched by the operation button 336 may be different depending on the type of each seat. For example, the control unit 10 of the information processing apparatus 1 stores the seat ticket ID and the setting information of the changeable range of the tilt / pan angle of the photographing device 21 related to the seat ticket ID in association with each other, and stores the changeable angle. The instruction for changing the photographing direction of the photographing apparatus 21 may be output within the range of.

ユーザは、切替ボタン338を操作することにより、ライブ動画像以外の表示領域の表示又は非表示を切り替えることができる。制御部30は、切替ボタン338の押下操作を取得し、ライブ動画像の表示領域を変更し、全画面フレームにてライブ動画を表示する。切替ボタン338は、各表示領域に対する操作毎に複数設けられていてもよい。拍手ボタン337については、他の実施形態で詳述する。 The user can switch the display or non-display of the display area other than the live moving image by operating the switching button 338. The control unit 30 acquires the pressing operation of the switching button 338, changes the display area of the live moving image, and displays the live moving image in the full screen frame. A plurality of switching buttons 338 may be provided for each operation for each display area. The applause button 337 will be described in detail in other embodiments.

ユーザは、表示画面330を利用して、ライブ動画の視聴を行うと共に、ユーザ間におけるコミュニケーションや買い物などを楽しむことができる。なお表示画面330は、上述したライブ動画像331、商品購入画像332、チャットルーム画像333、BOXルーム画像334及びツールバー335等を全て含む構成に限定されるものでない。 The user can use the display screen 330 to watch the live video and enjoy communication and shopping between the users. The display screen 330 is not limited to the configuration including all of the above-mentioned live moving image 331, product purchase image 332, chat room image 333, BOX room image 334, toolbar 335, and the like.

図9に戻り、説明を続ける。上述のユーザ画像は、BOXルームユーザに加え、出演者にも共有される。情報処理装置1の制御部10は、取得した各ユーザのユーザ画像からなる画面情報を含む出力情報を生成する(ステップS41)。出力情報には、ユーザ音声が含まれていてもよい。制御部10は、生成した出力情報を中継装置23へ送信する(ステップS42)。 Returning to FIG. 9, the explanation will be continued. The above-mentioned user image is shared not only with the BOX room user but also with the performers. The control unit 10 of the information processing apparatus 1 generates output information including screen information consisting of acquired user images of each user (step S41). The output information may include user voice. The control unit 10 transmits the generated output information to the relay device 23 (step S42).

中継装置23の制御部230は、出力情報を受信する。制御部230は、受信した画面情報に基づくモニタ画面を出力装置22のモニタ222に表示する。 The control unit 230 of the relay device 23 receives the output information. The control unit 230 displays a monitor screen based on the received screen information on the monitor 222 of the output device 22.

図12は、出力装置22のモニタ222に表示されるモニタ画面の一例を示す図である。図12Aは、BOX席のBOXルームユーザのユーザ画像を含むモニタ画面224の例を示す図である。図12Bは、一般席のユーザのユーザ画像を含むモニタ画面225の例を示す図である。情報処理装置1の制御部10は、ライブ動画の配信と並行して、ライブ動画を視聴する各ユーザの端末装置3から、リアルタイムでユーザ画像を取得する。制御部10は、各端末装置3に関連付けられる座席券IDに応じて、座席券の種類毎にユーザ画像を表示するモニタ画面情報を生成し、生成したモニタ画面を出力装置22へ出力する。制御部10は、モニタ画面情報と共に、モニタ画面情報に含まれるユーザ画像に対応付けて取得したユーザ音声を出力してもよい。 FIG. 12 is a diagram showing an example of a monitor screen displayed on the monitor 222 of the output device 22. FIG. 12A is a diagram showing an example of a monitor screen 224 including a user image of a BOX room user in a BOX seat. FIG. 12B is a diagram showing an example of a monitor screen 225 including a user image of a user in a general seat. The control unit 10 of the information processing apparatus 1 acquires a user image in real time from the terminal device 3 of each user who watches the live moving image in parallel with the distribution of the live moving image. The control unit 10 generates monitor screen information for displaying a user image for each type of seat ticket according to the seat ticket ID associated with each terminal device 3, and outputs the generated monitor screen to the output device 22. The control unit 10 may output the user voice acquired in association with the user image included in the monitor screen information together with the monitor screen information.

例えば、図12Aに示す如く、座席の種類がBOX席である複数のユーザ画像2241は、各BOX席の座席番号のグループ単位で表示される。各BOX席の画像2242には、座席番号又は座席の種類等が認識可能に対応付けられており、その他の座席種類のユーザ画像と区別して表示される。BOX席の画像2242は、BOXルームで共有されるBOXルーム画像であってよい。図12Bに示す如く、座席の種類がBOX席以外(例えば一般席)であるユーザ画像2251は、一覧で表示される。一覧表示される一般席のユーザ画像それぞれには、各座席番号が対応付けられていてもよい。情報処理装置1の制御部10又は中継装置23の制御部230は、画面の切り替え指示を取得し、取得した切り替え指示に応じたBOX席又は一般席のいずれか一方のモニタ画面を表示してよい。複数のユーザ画像2241を含むBOX席の画像2242又はBOX席以外のユーザ画像2251は、モニタ画面上において、各ライブ施設2における各ユーザの座席位置に対応する位置にそれぞれ配置されてもよい。 For example, as shown in FIG. 12A, a plurality of user images 2241 whose seat type is a BOX seat are displayed in groups of seat numbers of each BOX seat. The seat number, the seat type, and the like are recognizablely associated with the image 2242 of each BOX seat, and are displayed separately from the user images of other seat types. The image 2242 of the BOX seat may be a BOX room image shared in the BOX room. As shown in FIG. 12B, the user image 2251 whose seat type is other than the BOX seat (for example, a general seat) is displayed in a list. Each seat number may be associated with each of the user images of the general seats displayed in the list. The control unit 10 of the information processing device 1 or the control unit 230 of the relay device 23 may acquire a screen switching instruction and display a monitor screen of either a BOX seat or a general seat in response to the acquired switching instruction. .. The image 2242 of the BOX seat including the plurality of user images 2241 or the user image 2251 other than the BOX seat may be arranged at a position corresponding to the seat position of each user in each live facility 2 on the monitor screen.

ライブの出演者は、出力装置22に表示されるユーザ画像や音声により、ネットワークNを介してライブ動画を視聴するユーザのリアクションを取得し、また出力装置22を介してユーザとコミュニケーションを行うことができる。ユーザ画像は、座席の種類毎に分けて表示されるため、出演者はグループ毎のメンバー構成やリアクションを容易に認識することができる。 The performer of the live can acquire the reaction of the user who watches the live video via the network N by the user image and the sound displayed on the output device 22, and can communicate with the user via the output device 22. can. Since the user image is displayed separately for each type of seat, the performers can easily recognize the member composition and reaction for each group.

図9に戻り、説明を続ける。情報処理装置1の制御部10は、ライブ動画の配信を終了するか否かを判定する(ステップS43)。例えばライブ動画の配信終了時刻でないことにより配信を終了しないと判定した場合(ステップS43:NO)、制御部10は、処理をステップS35へ戻し、ライブ動画の配信を継続する。表示画面情報及び出力情報の生成及び送信は、ライブ動画の配信終了時まで継続的に行われる。 Returning to FIG. 9, the explanation will be continued. The control unit 10 of the information processing apparatus 1 determines whether or not to end the distribution of the live moving image (step S43). For example, when it is determined that the distribution is not terminated because it is not the delivery end time of the live video (step S43: NO), the control unit 10 returns the process to step S35 and continues the distribution of the live video. The display screen information and the output information are continuously generated and transmitted until the end of the distribution of the live video.

一方、ライブ動画の配信終了時刻であることにより配信を終了すると判定した場合(ステップS43:YES)、制御部10は配信の終了を端末装置3へ通知する(ステップS44)。制御部10は、ライブ動画の配信を終了し(ステップS45)、一連の処理を終了する。 On the other hand, when it is determined that the distribution is terminated because it is the distribution end time of the live video (step S43: YES), the control unit 10 notifies the terminal device 3 of the end of the distribution (step S44). The control unit 10 ends the distribution of the live moving image (step S45), and ends a series of processes.

端末装置3の制御部30は、配信の終了通知を取得する(ステップS46)。制御部30は、処理を終了するか否かを判定する(ステップS47)。終了通知を取得しておらず、処理を終了しないと判定した場合(ステップS47:NO)、制御部30は、処理をステップS34に戻す。一方、終了通知を取得したことにより、処理を終了すると判定した場合(ステップS47:YES)、制御部30は、ユーザ画像の送信、画面情報の受信を終了する。制御部30は、表示画面330の表示を終了し(ステップS48)、一連の処理を終了する。 The control unit 30 of the terminal device 3 acquires the delivery end notification (step S46). The control unit 30 determines whether or not to end the process (step S47). If it is determined that the process is not completed because the end notification has not been acquired (step S47: NO), the control unit 30 returns the process to step S34. On the other hand, when it is determined that the process is terminated by acquiring the end notification (step S47: YES), the control unit 30 ends the transmission of the user image and the reception of the screen information. The control unit 30 ends the display of the display screen 330 (step S48), and ends a series of processes.

上述の図8から図10において、処理手順は図8から図9の例に限定されるものではない。各処理手順は、その順序を変更して実行されてもよく、また並行して複数の処理が実行されてもよい。情報処理装置1の制御部10は、ライブ動画の配信、ユーザ画像の配信、出力情報の出力を並行して行うものであってよい。 In FIGS. 8 to 10 described above, the processing procedure is not limited to the example of FIGS. 8 to 9. Each processing procedure may be executed in a different order, or a plurality of processings may be executed in parallel. The control unit 10 of the information processing apparatus 1 may distribute a live moving image, distribute a user image, and output output information in parallel.

上述の処理において、情報処理装置1の制御部10は、ライブ動画像331、商品購入画像332、チャットルーム画像333、及びBOXルーム画像334をそれぞれ表示する複数の領域を含む画面情報を生成し、送信する例を説明したが、本実施形態は限定されるものではない。制御部10は、全ての領域に対応する画面情報を生成し、送信するものに限られず、各領域単位での画面情報をそれぞれに非同期で生成し、出力するものであってよい。 In the above process, the control unit 10 of the information processing apparatus 1 generates screen information including a plurality of areas for displaying the live moving image 331, the product purchase image 332, the chat room image 333, and the BOX room image 334, respectively. Although an example of transmission has been described, the present embodiment is not limited. The control unit 10 is not limited to generating and transmitting screen information corresponding to all areas, and may asynchronously generate and output screen information for each area.

上述の処理においては、表示画面330が、ライブ動画の配信開始時刻から配信終了時刻の間に端末装置3の表示部33に表示される例を説明したが、本実施形態は限定されるものではない。例えば、表示画面330は配信開始時刻から配信終了時刻の間以外の時間に表示され、ライブの開催前後において、ユーザによる商品の購入受け付けや、BOXルームの提供を行うものであってよい。 In the above processing, an example in which the display screen 330 is displayed on the display unit 33 of the terminal device 3 between the distribution start time and the distribution end time of the live moving image has been described, but the present embodiment is not limited. do not have. For example, the display screen 330 may be displayed at a time other than the time between the distribution start time and the distribution end time, and the user may accept the purchase of the product or provide the BOX room before and after the live performance.

上述の処理によれば、ネットワークNを介したライブ動画の視聴において、ライブ動画と共に表示される各種の情報により、ユーザの臨場感を高めることができる。ユーザ画像が配信されることにより、ユーザ同士又はユーザ及び出演者間におけるコミュニケーションを促進し、ユーザ及び出演者の満足度を向上させ得る。 According to the above-mentioned processing, when viewing a live moving image via the network N, various information displayed together with the live moving image can enhance the user's sense of presence. By distributing the user image, communication between users or between users and performers can be promoted, and the satisfaction level of users and performers can be improved.

(第2実施形態)
第2実施形態では、出演者及びBOXルームユーザ間によるファン交流を提供する構成を説明する。以下では、第2実施形態について、第1実施形態と異なる点を説明する。後述する構成を除く他の構成については第1実施形態の動画配信システム100と同様であるので、共通する構成については同一の符号を付してその詳細な説明を省略する。
(Second Embodiment)
In the second embodiment, a configuration for providing fan exchange between the performers and the BOX room user will be described. Hereinafter, the second embodiment will be described as different from the first embodiment. Since the other configurations other than the configurations described later are the same as those of the moving image distribution system 100 of the first embodiment, the common configurations are designated by the same reference numerals and detailed description thereof will be omitted.

第2実施形態の情報処理装置1は、ライブ動画として、全ての観客に対するライブ映像とは別に、出演者との特別交流が可能なファンサービスに関するライブ動画を配信する。ファンサービスは、例えば、ライブ終了後に行われ、所定の座席番号の座席券を利用するBOXルームユーザのみが参加することができる。情報処理装置1の制御部10は、予め座席券IDと、ファンサービス動画の配信の有無とを関連付けて記憶している。制御部10は、座席券IDに対応するファンサービスへの参加資格を有するユーザIDを特定し、特定したユーザIDに係る端末装置3へ、ファンサービスを撮影するライブ動画を配信する。本実施形態によれば、所定の座席券を利用するBOXルームユーザは、出演者とBOXルームユーザのみとの間における特別なコミュニケーションが可能となり、ユーザの満足度をさらに向上させることができる。 The information processing apparatus 1 of the second embodiment delivers, as a live video, a live video related to a fan service capable of special interaction with performers, in addition to the live video for all spectators. The fan service is performed after the end of the live, for example, and only the BOX room user who uses the seat ticket of the predetermined seat number can participate. The control unit 10 of the information processing apparatus 1 stores in advance the seat ticket ID and the presence / absence of distribution of the fan service video. The control unit 10 identifies a user ID who is qualified to participate in the fan service corresponding to the seat ticket ID, and distributes a live video for shooting the fan service to the terminal device 3 related to the specified user ID. According to the present embodiment, the BOX room user who uses the predetermined seat ticket can perform special communication only between the performer and the BOX room user, and can further improve the user's satisfaction.

(第3実施形態)
第3実施形態では、アバターにより生成されるユーザ画像を表示する構成を説明する。以下では、第3実施形態について、第1実施形態と異なる点を説明する。後述する構成を除く他の構成については第1実施形態の動画配信システム100と同様であるので、共通する構成については同一の符号を付してその詳細な説明を省略する。
(Third Embodiment)
In the third embodiment, a configuration for displaying a user image generated by the avatar will be described. Hereinafter, the differences between the third embodiment and the first embodiment will be described. Since the other configurations other than the configurations described later are the same as those of the moving image distribution system 100 of the first embodiment, the common configurations are designated by the same reference numerals and detailed description thereof will be omitted.

図13は、第3実施形態における動画配信システム100にて実行される処理手順の一例を示すフローチャートである。情報処理装置1の制御部10は、アバターを生成するためのアバターコンテンツを含む画面情報を生成し、生成したアバターコンテンツを含む画面情報を端末装置3へ送信する(ステップS51)。 FIG. 13 is a flowchart showing an example of a processing procedure executed by the moving image distribution system 100 according to the third embodiment. The control unit 10 of the information processing apparatus 1 generates screen information including avatar contents for generating an avatar, and transmits the screen information including the generated avatar contents to the terminal device 3 (step S51).

端末装置3の制御部30は、アバターコンテンツを含む画面情報を受信し(ステップS52)、受信した画面情報に基づく画面を表示部33に表示する(ステップS53)。制御部30は、ユーザの操作部34の操作によるアバターの選択を受け付ける(ステップS54)。制御部30は、選択されたコンテンツによるアバター画像を生成する(ステップS55)。制御部30は、生成したアバター画像を情報処理装置1へ送信する(ステップS56)。 The control unit 30 of the terminal device 3 receives screen information including avatar content (step S52), and displays a screen based on the received screen information on the display unit 33 (step S53). The control unit 30 accepts the selection of the avatar by the operation of the operation unit 34 of the user (step S54). The control unit 30 generates an avatar image based on the selected content (step S55). The control unit 30 transmits the generated avatar image to the information processing device 1 (step S56).

情報処理装置1の制御部10は、アバター画像を受信する(ステップS57)。制御部10は、受信したアバター画像を、ユーザ画像として記憶する。制御部10は、記憶したアバター画像であるユーザ画像を用いて、表示画面情報又は出力情報を生成する。端末装置3やモニタ222には、アバター画像が表示される。アバターコンテンツには、例えば季節やライブ内容に応じたキャラクター、衣装、装飾品等が含まれている。ユーザは、ライブ動画の配信毎に、ライブに参加するユーザ自身の代わりにアバターを変身させることができる。アバター生成画面は、仮想的な更衣室として機能する。 The control unit 10 of the information processing apparatus 1 receives the avatar image (step S57). The control unit 10 stores the received avatar image as a user image. The control unit 10 generates display screen information or output information using a user image which is a stored avatar image. An avatar image is displayed on the terminal device 3 and the monitor 222. The avatar content includes, for example, characters, costumes, decorations, etc. according to the season and live content. Each time a live video is delivered, the user can transform the avatar on behalf of the user who participates in the live. The avatar generation screen functions as a virtual changing room.

なお、ユーザ画像は、アバターを用いて生成するものに限定されない。情報処理装置1は、例えば季節、ライブ内容、ライブ施設2等に応じた背景コンテンツを提供してもよい。ユーザは端末装置3を用いて、好みの背景コンテンツを選択し、端末装置3により撮影されるユーザの撮像画像と、選択した背景コンテンツとを重畳させたユーザ画像を生成してもよい。背景コンテンツは、同一BOXルームに参加する全てのユーザ画像に共通して適用されてもよい。背景コンテンツは、各ユーザ画像の背景に適用されるものに限定されず、BOXルーム画像の周囲に設けられる枠の背景として適用されるものであってもよい。同一コンテンツをBOXルームに適用することで、BOXルームユーザ間の連帯感をより高めることができる。 The user image is not limited to the one generated by using the avatar. The information processing device 1 may provide background content according to, for example, the season, live content, live facility 2, and the like. The user may select a favorite background content using the terminal device 3 and generate a user image in which the captured image of the user captured by the terminal device 3 and the selected background content are superimposed. The background content may be applied in common to all user images participating in the same BOX room. The background content is not limited to the one applied to the background of each user image, and may be applied as the background of the frame provided around the BOX room image. By applying the same content to the BOX room, the sense of solidarity among the BOX room users can be further enhanced.

上記のアバターコンテンツ又は背景コンテンツは、座席券の種類に応じてBOXルームのBOXルームユーザに対し限定的に提供されてよい。座席券の種類に応じた限定コンテンツを用いたユーザ画像又はBOXルーム画像を表示することにより、他の座席券のユーザ画像との差別化を図ることができる。本実施形態によれば、ユーザはライブ毎に異なるアバター又は背景を表示させてライブ動画を視聴することができるため、ユーザの満足度をさらに向上させることができる。 The above avatar content or background content may be provided in a limited manner to the BOX room user of the BOX room depending on the type of the seat ticket. By displaying a user image or a BOX room image using limited content according to the type of seat ticket, it is possible to differentiate from the user image of other seat tickets. According to the present embodiment, the user can display a different avatar or background for each live and watch the live video, so that the user's satisfaction can be further improved.

(第4実施形態)
第4実施形態では、ユーザのリアクションに応じたさらなる画像又は音声を出力装置22に出力する構成を説明する。以下では、第4実施形態について、第1実施形態と異なる点を説明する。後述する構成を除く他の構成については第1実施形態の動画配信システム100と同様であるので、共通する構成については同一の符号を付してその詳細な説明を省略する。
(Fourth Embodiment)
In the fourth embodiment, a configuration for outputting further images or sounds according to the user's reaction to the output device 22 will be described. Hereinafter, the fourth embodiment will be described as different from the first embodiment. Since the other configurations other than the configurations described later are the same as those of the moving image distribution system 100 of the first embodiment, the common configurations are designated by the same reference numerals and detailed description thereof will be omitted.

第4実施形態の情報処理装置1は、記憶部11に、図2に示す如く学習モデル1Mを記憶している。学習モデル1Mは、機械学習により生成された学習モデルであり、ユーザを撮影したユーザ画像の入力に応じて当該ユーザの盛り上がり度を示すデータを出力する。学習モデル1Mは、その定義情報によって定義される。学習モデル1Mの定義情報は、例えば、学習モデル1Mの構造情報や層の情報、各層が備えるノードの情報、学習済みのパラメータ等を含む。記憶部11には、学習モデル1Mに関する定義情報が記憶されている。 The information processing apparatus 1 of the fourth embodiment stores the learning model 1M in the storage unit 11 as shown in FIG. The learning model 1M is a learning model generated by machine learning, and outputs data indicating the degree of excitement of the user in response to the input of the user image captured by the user. The learning model 1M is defined by the definition information. The definition information of the learning model 1M includes, for example, structural information of the learning model 1M, information on layers, information on nodes included in each layer, learned parameters, and the like. Definition information about the learning model 1M is stored in the storage unit 11.

図14は、第4実施形態における学習モデル1Mの概要図である。学習モデル1Mは予め、情報処理装置1又は外部装置において、ニューラルネットワークを用いた深層学習によって、生成され、学習される。学習アルゴリズムは、例えばCNN(Convolution Neural Network)である。 FIG. 14 is a schematic diagram of the learning model 1M according to the fourth embodiment. The learning model 1M is generated and learned in advance by deep learning using a neural network in the information processing device 1 or an external device. The learning algorithm is, for example, CNN (Convolution Neural Network).

学習モデル1Mは、端末装置3の撮影部37により撮影された、ライブ動画を視聴するユーザのユーザ画像を入力する入力層と、当該ユーザのライブ動画に対する盛り上がり度を示す情報を出力する出力層と、特徴量を抽出する中間層(隠れ層)とを備える。中間層は、入力データの特徴量を抽出する複数のノードを有し、各種パラメータを用いて抽出された特徴量を出力層に受け渡す。入力層に、画像データが入力された場合、学習済みパラメータによって中間層で演算が行なわれ、出力層から、盛り上がり度に関する出力情報が出力される。 The learning model 1M includes an input layer for inputting a user image of a user who watches a live video taken by the shooting unit 37 of the terminal device 3, and an output layer for outputting information indicating the degree of excitement for the live video of the user. , It is provided with an intermediate layer (hidden layer) for extracting features. The intermediate layer has a plurality of nodes for extracting the feature amount of the input data, and passes the feature amount extracted using various parameters to the output layer. When image data is input to the input layer, operations are performed in the intermediate layer according to the learned parameters, and output information regarding the degree of excitement is output from the output layer.

学習モデル1Mの入力層へ入力される入力情報は、ユーザ画像に限定されず、例えば端末装置3の音声入力部35により取得されたユーザ音声が入力要素に含まれてよい。あるいは、後述する拍手ボタンの操作に関する情報が入力要素に含まれてよい。 The input information input to the input layer of the learning model 1M is not limited to the user image, and for example, the user voice acquired by the voice input unit 35 of the terminal device 3 may be included in the input element. Alternatively, the input element may include information regarding the operation of the applause button described later.

盛り上がり度は、例えば1から5の5段階に分別され、盛り上がり度の数値が高い程、ユーザの盛り上がりが大きいことを示す。例えば、ユーザ画像におけるユーザの笑顔が検出された場合には盛り上がり度が大きいと判断される。ユーザ画像におけるユーザの所定動作(例えば拍手動作、ダンス動作等)が検出された場合には盛り上がり度が大きいと判断される。音声データにおける歓声、拍手音が大きい場合には盛り上がり度が大きいと判断される。学習モデル1Mの出力層は、設定されている盛り上がり度に各々対応するチャネルを含み、各盛り上がり度に対する確度をスコアとして出力する。情報処理装置1は、スコアが最も高い盛り上がり度、あるいはスコアが閾値以上である盛り上がり度を出力層の出力値とすることができる。なお出力層は、それぞれの盛り上がり度の確度を出力する複数の出力ノードを有する代わりに、最も確度の高い盛り上がり度を出力する1個の出力ノードを有してもよい。なお、盛り上がり度は5段階に分類される例に限定されない。盛り上がり度は、5段階以外の複数段階に分類されてもよく、百分率で表されてもよい。 The degree of excitement is classified into five stages from 1 to 5, for example, and the higher the value of the degree of excitement, the greater the excitement of the user. For example, when a user's smile is detected in the user image, it is determined that the degree of excitement is high. When a predetermined user's motion (for example, applause motion, dance motion, etc.) is detected in the user image, it is determined that the degree of excitement is large. When the cheers and clapping sounds in the voice data are loud, it is judged that the degree of excitement is high. The output layer of the learning model 1M includes channels corresponding to each set degree of excitement, and outputs the accuracy for each degree of excitement as a score. The information processing apparatus 1 can use the degree of excitement having the highest score or the degree of excitement having a score equal to or higher than the threshold value as the output value of the output layer. The output layer may have one output node that outputs the most accurate degree of excitement instead of having a plurality of output nodes that output the accuracy of each degree of excitement. The degree of excitement is not limited to the examples classified into five stages. The degree of excitement may be classified into a plurality of stages other than the five stages, or may be expressed as a percentage.

制御部10は、過去に収集した大量のユーザ画像に、既知の盛り上がり度が付与された情報群を訓練データとして予め収集して学習モデル1Mを学習する。盛り上がり度は、例えばユーザから取得したアンケート結果やライブ管理者の判断等により決定される盛り上がり度を正解ラベルとしてよい。制御部10は、ユーザ画像に応じた盛り上がり度を出力するよう、例えば誤差逆伝播法を用いて、学習モデル1Mを構成する各種パラメータ及び重み等を学習する。 The control unit 10 learns the learning model 1M by previously collecting as training data a group of information to which a known degree of excitement is added to a large amount of user images collected in the past. As the degree of excitement, for example, the degree of excitement determined by the questionnaire result obtained from the user or the judgment of the live manager may be used as the correct label. The control unit 10 learns various parameters and weights constituting the learning model 1M by using, for example, an error back-propagation method so as to output the degree of excitement according to the user image.

学習モデル1Mは、CNNに限定されるものではない。学習モデル1Mは、時系列データを取得した場合にはリカレントニューラルネットワーク(RNN:Recurrent Neural Network)でもよい。学習モデル1Mは、ニューラルネットワークを用いないサポートベクタマシン、回帰木等、他の学習アルゴリズムで構築された学習モデルであってよい。 The learning model 1M is not limited to CNN. The learning model 1M may be a recurrent neural network (RNN) when time series data is acquired. The learning model 1M may be a learning model constructed by another learning algorithm such as a support vector machine that does not use a neural network or a regression tree.

第4実施形態における端末装置3の表示部33に表示される表示画面330には、図11に示す如く拍手ボタン337が含まれている。ユーザは、拍手ボタン337を操作することで、ライブ動画に対する盛り上がりの感情を出演者へ通知することができる。 As shown in FIG. 11, the display screen 330 displayed on the display unit 33 of the terminal device 3 according to the fourth embodiment includes the applause button 337. By operating the applause button 337, the user can notify the performers of the excitement of the live video.

図15は、第4実施形態における動画配信システム100にて実行される処理手順の一例を示すフローチャートである。ライブ動画の配信が開始され、端末装置3の表示部33には、プログラム3Pに従い拍手ボタン337を含む表示画面330が表示される。 FIG. 15 is a flowchart showing an example of a processing procedure executed by the moving image distribution system 100 according to the fourth embodiment. Distribution of the live moving image is started, and the display screen 330 including the applause button 337 is displayed on the display unit 33 of the terminal device 3 according to the program 3P.

ユーザは、ライブ動画の視聴中において、出演者に拍手を送りたい場合に、拍手ボタン337をタップする。端末装置3の制御部30は、操作部34により、ユーザの拍手ボタン337の押下操作を受け付ける(ステップS61)。制御部30は、拍手ボタン337の操作を受け付けたことを示す操作信号を情報処理装置1へ送信する(ステップS62)。 The user taps the applause button 337 when he / she wants to applaud the performer while watching the live video. The control unit 30 of the terminal device 3 accepts the user's applause button 337 pressing operation by the operation unit 34 (step S61). The control unit 30 transmits an operation signal indicating that the operation of the applause button 337 has been accepted to the information processing device 1 (step S62).

情報処理装置1の制御部10は、操作信号を受信する(ステップS63)。また、制御部10は、所定のタイミングにて、記憶部11に記憶するユーザ画像を読み出す(ステップS64)。制御部10は、ユーザ画像を入力情報として学習モデル1Mに入力し(ステップS65)、出力される盛り上がり度を取得する(ステップS66)。学習モデル1Mには、ユーザ画像の他、ユーザ音声、拍手ボタン337の操作を受け付けたことを示す操作信号等が入力されてもよい。 The control unit 10 of the information processing apparatus 1 receives an operation signal (step S63). Further, the control unit 10 reads out the user image stored in the storage unit 11 at a predetermined timing (step S64). The control unit 10 inputs the user image as input information into the learning model 1M (step S65), and acquires the output degree of excitement (step S66). In addition to the user image, the learning model 1M may be input with a user voice, an operation signal indicating that the operation of the applause button 337 has been accepted, and the like.

制御部10は、取得した操作信号又は盛り上がり度に基づき、画面情報又は音声を含むリアクション情報を生成する(ステップS67)。例えば、制御部10は、拍手ボタン337の操作信号に応じた拍手音、合成音声を含むリアクション情報を生成する。制御部10は、操作信号の連続回数、連続時間に応じて音声データの音量や音声パターンを変化させてもよい。又は、制御部10は、盛り上がり度の状態又は推移を示す盛り上がり度グラフ又はオブジェクトを含む画面情報をリアクション情報として生成してもよい。制御部10は、学習モデル1Mから出力された盛り上がり度の数値に応じて、盛り上がり度グラフのバーの長さ、色を変化させたリアクション情報を生成する。制御部10は、盛り上がり度に応じた拍手音、合成音声を含むリアクション情報を生成してもよい。制御部10は、、操作信号又は盛り上がり度に基づき、オブジェクトの大きさ、色及び表示態様のいずれか1つを変化させたリアクション情報を生成してもよい。制御部10は、ユーザ画像又はBOX席の画像の枠又は背景の色を変化させたリアクション情報を生成してもよい。制御部10は、ユーザ画像のアバターサイズ変化させたリアクション情報を生成してもよい。リアクション情報は、所定間隔において各ユーザの端末装置3から取得した操作信号又は盛り上がり度を合計し、合計したデータに基づき生成されるものであってよい。 The control unit 10 generates reaction information including screen information or voice based on the acquired operation signal or degree of excitement (step S67). For example, the control unit 10 generates reaction information including a clapping sound and a synthetic voice corresponding to the operation signal of the clapping button 337. The control unit 10 may change the volume of the voice data and the voice pattern according to the number of consecutive operation signals and the continuous time. Alternatively, the control unit 10 may generate screen information including a swelling degree graph or an object showing the state or transition of the swelling degree as reaction information. The control unit 10 generates reaction information in which the length and color of the bar of the swelling degree graph are changed according to the numerical value of the swelling degree output from the learning model 1M. The control unit 10 may generate reaction information including a clapping sound and a synthetic voice according to the degree of excitement. The control unit 10 may generate reaction information in which any one of the size, color, and display mode of the object is changed based on the operation signal or the degree of excitement. The control unit 10 may generate reaction information in which the frame or background color of the user image or the image of the BOX seat is changed. The control unit 10 may generate reaction information in which the avatar size of the user image is changed. The reaction information may be generated based on the total data obtained by totaling the operation signals or the degree of excitement acquired from the terminal device 3 of each user at predetermined intervals.

制御部10は、生成したリアクション情報を中継装置23へ送信する(ステップS68)。中継装置23の制御部230は、リアクション情報を受信する。制御部230は、受信した画面情報に基づくモニタ画面を出力装置22のモニタ222に表示すると共に、音声をスピーカ223により出力する。リアクション情報は、ユーザ画像に関連付けて出力装置22に表示されてもよい。これにより、例えば出演者は、ユーザのユーザ画像と拍手ボタン337の操作状況とを対応付けて認識することができる。 The control unit 10 transmits the generated reaction information to the relay device 23 (step S68). The control unit 230 of the relay device 23 receives the reaction information. The control unit 230 displays the monitor screen based on the received screen information on the monitor 222 of the output device 22, and outputs the sound by the speaker 223. The reaction information may be displayed on the output device 22 in association with the user image. Thereby, for example, the performer can recognize the user image of the user and the operation status of the applause button 337 in association with each other.

図16は、第4実施形態における出力装置22のモニタ222に表示されるモニタ画面226の一例を示す図である。モニタ画面226には、ユーザ画像2261に対応付けてリアクション情報2262が表示されている。図16の例では、各ユーザ画像2261は、ライブ施設2における座席の配置に対応付けてモニタ画面226上に表示されている。情報処理装置1の制御部10は、ライブ施設2における座席位置と座席番号とを関連付けたMAP情報を予め記憶している。制御部10は、各ユーザ画像2261に係る座席券IDに基づき、各ユーザ画像2261をライブ施設2の座席位置及び座席番号に応じて画面上に配置するモニタ画面情報を生成する。例えば、2階のBOX席のユーザ画像2261からなるBOX席の画像2263は、BOX席単位で画面上側に配置される。1階の一般席のユーザ画像2261は、一覧で画面下側に配置される。 FIG. 16 is a diagram showing an example of a monitor screen 226 displayed on the monitor 222 of the output device 22 according to the fourth embodiment. Reaction information 2262 is displayed on the monitor screen 226 in association with the user image 2261. In the example of FIG. 16, each user image 2261 is displayed on the monitor screen 226 in association with the arrangement of seats in the live facility 2. The control unit 10 of the information processing apparatus 1 stores in advance MAP information in which the seat position and the seat number in the live facility 2 are associated with each other. The control unit 10 generates monitor screen information for arranging each user image 2261 on the screen according to the seat position and seat number of the live facility 2 based on the seat ticket ID related to each user image 2261. For example, the image 2263 of the BOX seat composed of the user image 2261 of the BOX seat on the second floor is arranged on the upper side of the screen in units of BOX seats. The user image 2261 of the general seat on the first floor is arranged at the lower side of the screen in the list.

ユーザ画像2261には、各ユーザ画像に係るリアクション情報2262が関連付けて表示されている。図16の例では、リアクション情報2262は、盛り上がり度に応じて大きさが異なる拍手マークにて表示されている。情報処理装置1の制御部10は、ユーザ単位、又は座席券の種類単位で取得した盛り上がり度に応じて、大きさを変化させた拍手マークを生成し、生成した拍手マークをユーザ画像2261又はBOX席の画像2263に重畳表示する。盛り上がり度が高くなると、拍手マークのサイズが大きくなる。リアクション情報又はモニタ画面情報は、端末装置3へ送信されることによりユーザ側に表示されてもよい。 The reaction information 2262 related to each user image is associated and displayed on the user image 2261. In the example of FIG. 16, the reaction information 2262 is displayed with applause marks having different sizes depending on the degree of excitement. The control unit 10 of the information processing apparatus 1 generates applause marks whose size is changed according to the degree of excitement acquired for each user or each type of seat ticket, and the generated applause marks are used as the user image 2261 or BOX. It is superimposed and displayed on the image 2263 of the seat. The higher the degree of excitement, the larger the size of the applause mark. The reaction information or the monitor screen information may be displayed on the user side by being transmitted to the terminal device 3.

本実施形態によれば、出力装置22からユーザのリアクションに応じた画像や効果音が出力され、出演者は容易にユーザの座席番号やリアクションを認識することができる。ユーザと出演者とのコミュニケーションを促進し、双方における満足度をさらに向上させ得る。 According to the present embodiment, an image or a sound effect corresponding to the user's reaction is output from the output device 22, and the performer can easily recognize the user's seat number or reaction. Communication between the user and the performer can be promoted, and the satisfaction level of both parties can be further improved.

(第5実施形態)
第5実施形態では、出演者の指示に応じた画像又は音声を出力装置22に出力する構成を説明する。以下では、第5実施形態について、第1実施形態と異なる点を説明する。後述する構成を除く他の構成については第1実施形態の動画配信システム100と同様であるので、共通する構成については同一の符号を付してその詳細な説明を省略する。
(Fifth Embodiment)
In the fifth embodiment, a configuration for outputting an image or sound according to the instructions of the performers to the output device 22 will be described. Hereinafter, the fifth embodiment will be described as different from the first embodiment. Since the other configurations other than the configurations described later are the same as those of the moving image distribution system 100 of the first embodiment, the common configurations are designated by the same reference numerals and detailed description thereof will be omitted.

図17は、第5実施形態における動画配信システム100にて実行される処理手順の一例を示すフローチャートである。
ライブ施設2のモニタ222には、複数のユーザ画像と、当該ユーザ画像に係る座席番号又は座席の種類が対応付けて表示されている。ライブの出演者は、モニタ222に表示される画面を通して、特定の座席番号を指定しユーザとの対話を行う。ライブの出演者は、モニタ222のタップ操作等により、いずれかの座席番号(例えばBOX席A)を指定する。中継装置23の制御部230は、モニタ222のタップ操作の受け付け等により、座席番号の指定を受け付ける(ステップS71)。制御部230は、タップ操作の位置座標等を含む指定情報を取得する。制御部230は、取得した指定情報を情報処理装置1へ送信する(ステップS72)。
FIG. 17 is a flowchart showing an example of a processing procedure executed by the moving image distribution system 100 according to the fifth embodiment.
On the monitor 222 of the live facility 2, a plurality of user images and seat numbers or seat types related to the user images are displayed in association with each other. The performers of the live perform a dialogue with the user by designating a specific seat number through the screen displayed on the monitor 222. The performer of the concert designates one of the seat numbers (for example, BOX seat A) by tapping the monitor 222 or the like. The control unit 230 of the relay device 23 accepts the designation of the seat number by accepting the tap operation of the monitor 222 or the like (step S71). The control unit 230 acquires designated information including the position coordinates of the tap operation. The control unit 230 transmits the acquired designated information to the information processing device 1 (step S72).

情報処理装置1の制御部10は、指定情報を受信する(ステップS73)。制御部10は、出力装置22に表示している画面情報(出力情報)に含まれる各ユーザ画像の表示位置と、指定情報とに基づき、出演者の指定した座席番号を特定する(ステップS74)。なお、指定情報の取得又は座席番号の特定方法は限定されない。制御部10は、指定情報としてライブ動画に含まれる音声データを取得し、取得した出演者の音声データを解析することにより、座席番号を特定してもよい。 The control unit 10 of the information processing apparatus 1 receives the designated information (step S73). The control unit 10 identifies the seat number designated by the performer based on the display position of each user image included in the screen information (output information) displayed on the output device 22 and the designated information (step S74). .. The method of acquiring designated information or specifying the seat number is not limited. The control unit 10 may specify the seat number by acquiring the audio data included in the live moving image as the designated information and analyzing the acquired audio data of the performers.

制御部10は、特定した座席番号に係る各ユーザ画像を含むBOX席の画像(例えばBOX席AのBOXルーム画像)の表示領域を変更し、当該BOX席の画像を拡大表示する画面情報を生成する(ステップS75)。制御部10は、生成した画面情報を中継装置23へ送信する(ステップS76)。この場合において、制御部10は、特定した座席番号に係るユーザ画像に対応付けられるユーザ音声のみを取得し、取得したユーザ音声を画面情報に関連付けて出力してもよい。制御部10は、特定した座席番号に係るユーザの端末装置3の音声入力のみを有効にすることで、特定した座席番号に係る端末装置3からのユーザ音声を取得してよい。この場合において、制御部10は、一定時間経過後、又は出演者から終了を示す所定キーワード、合図を取得したときは、端末装置3の音声入力を終了してよい。 The control unit 10 changes the display area of the BOX seat image (for example, the BOX room image of the BOX seat A) including each user image related to the specified seat number, and generates screen information for enlarging the image of the BOX seat. (Step S75). The control unit 10 transmits the generated screen information to the relay device 23 (step S76). In this case, the control unit 10 may acquire only the user voice associated with the user image related to the specified seat number, and may output the acquired user voice in association with the screen information. The control unit 10 may acquire the user voice from the terminal device 3 related to the specified seat number by enabling only the voice input of the user terminal device 3 related to the specified seat number. In this case, the control unit 10 may end the voice input of the terminal device 3 after a certain period of time has elapsed, or when a predetermined keyword or signal indicating the end is acquired from the performer.

中継装置23の制御部230は、画面情報を受信する(ステップS77)。制御部230は、受信した画面情報に基づく画面を出力装置22のモニタ222に表示すると共に、音声をスピーカ223により出力し(ステップS78)一連の処理を終了する。制御部230は、処理をステップS71の戻しループ処理を実行してもよい。本実施形態によれば、出演者からの発信内容に応じて出力情報が変化するため、ユーザと出演者とのコミュニケーションをより促進し、ユーザ参加型の動画配信システムを実現することができる。 The control unit 230 of the relay device 23 receives screen information (step S77). The control unit 230 displays a screen based on the received screen information on the monitor 222 of the output device 22, outputs audio by the speaker 223 (step S78), and ends a series of processes. The control unit 230 may execute the return loop process of step S71 for the process. According to the present embodiment, since the output information changes according to the content transmitted from the performer, it is possible to further promote communication between the user and the performer and realize a user-participation type video distribution system.

上述の各実施形態において、ライブ動画は、リアルタイムで配信するものに限定されない。情報処理装置1は、取得したライブ動画を収集管理し、任意のタイミングにて送信されるユーザの配信指示に応じて端末装置3へライブ動画を配信するオンデマンドサービスを提供してもよい。この場合、情報処理装置1による出力装置22への出力情報の出力処理は省略されてもよい。 In each of the above embodiments, the live video is not limited to the one delivered in real time. The information processing device 1 may provide an on-demand service that collects and manages acquired live moving images and distributes live moving images to the terminal device 3 in response to a user's distribution instruction transmitted at an arbitrary timing. In this case, the output processing of the output information to the output device 22 by the information processing device 1 may be omitted.

上述の各実施形態において、情報処理装置1の制御部10が実行する処理の一部は、端末装置3の制御部30で実行されてもよく、又は中継装置23の制御部230で実行されてもよい。また、処理の順序が変動または省略されてもよい。 In each of the above-described embodiments, a part of the processing executed by the control unit 10 of the information processing device 1 may be executed by the control unit 30 of the terminal device 3 or executed by the control unit 230 of the relay device 23. May be good. Further, the order of processing may be changed or omitted.

第1実施形態から第5実施形態に示した例は、各実施形態に示した構成の全部又は一部を組み合わせて他の実施の形態を実現することが可能である。 In the examples shown in the first to fifth embodiments, it is possible to realize other embodiments by combining all or a part of the configurations shown in each embodiment.

今回開示された実施の形態は全ての点で例示であって、制限的なものではない。本発明の範囲は、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内での全ての変更が含まれる。 The embodiments disclosed this time are exemplary in all respects and are not restrictive. The scope of the present invention is indicated by the scope of claims and includes all modifications within the meaning and scope equivalent to the scope of claims.

100 動画配信システム
1 情報処理装置
10 制御部
11 記憶部
12 通信部
1P プログラム
1M 学習モデル
2 ライブ施設
21 撮影装置
22 出力装置
222 モニタ
223 スピーカ
23 中継装置
230 制御部
231 記憶部
232 通信部
233 入出力部
3 端末装置
30 制御部
31 記憶部
32 通信部
33 表示部
34 操作部
35 音声入力部
36 音声出力部
37 撮影部
3P プログラム
100 Video distribution system 1 Information processing device 10 Control unit 11 Storage unit 12 Communication unit 1P program 1M Learning model 2 Live facility 21 Imaging device 22 Output device 222 Monitor 223 Speaker 23 Relay device 230 Control unit 231 Storage unit 232 Communication unit 233 Input / output Unit 3 Terminal device 30 Control unit 31 Storage unit 32 Communication unit 33 Display unit 34 Operation unit 35 Audio input unit 36 Audio output unit 37 Imaging unit 3P program

Claims (12)

ライブ施設におけるライブ動画の配信指示を取得し、
所定の座席券に関連付けられる複数のユーザが参加可能なBOXルームへの参加要求を取得し、
取得した前記配信指示及び参加要求に基づき、前記ライブ動画と、前記BOXルームへの参加が許可された複数のユーザそれぞれに係るユーザ画像を含むBOXルーム画像とを含む画面を表示部に表示する
処理をコンピュータに実行させるためのコンピュータプログラム。
Obtained live video distribution instructions at live facilities,
Get a request to join a BOX room that can be attended by multiple users associated with a given seat ticket
A process of displaying a screen including the live video and a BOX room image including a user image relating to each of a plurality of users permitted to participate in the BOX room on the display unit based on the acquired distribution instruction and participation request. A computer program that lets a computer run.
前記BOXルームへの参加が許可された複数のユーザ間で共有されるグループチャットを含む前記画面を前記表示部に表示する
処理をコンピュータに実行させるための請求項1に記載のコンピュータプログラム。
The computer program according to claim 1, wherein a computer is executed to display the screen including a group chat shared among a plurality of users who are permitted to participate in the BOX room on the display unit.
拍手操作を受け付ける拍手ボタンを前記表示部に表示し、
前記拍手ボタンの操作を受け付けた場合、前記拍手ボタンの操作を受け付けたことを示す操作信号を外部装置へ出力する
処理をコンピュータに実行させるための請求項1又は請求項2に記載のコンピュータプログラム。
The applause button that accepts the applause operation is displayed on the display unit, and the applause button is displayed.
The computer program according to claim 1 or 2, wherein when the operation of the applause button is accepted, the computer is made to execute a process of outputting an operation signal indicating that the operation of the applause button is accepted to an external device.
前記ライブ動画に関する商品の購入画像を含む前記画面を前記表示部に表示する
処理をコンピュータに実行させるための請求項1から請求項3のいずれか1項に記載のコンピュータプログラム。
The computer program according to any one of claims 1 to 3, for causing a computer to execute a process of displaying the screen including a purchased image of a product related to the live video on the display unit.
前記BOXルームへの参加が許可された複数のユーザと、ライブの出演者との交流が可能な特別交流画像を含む前記画面を前記表示部に表示する
処理をコンピュータに実行させるための請求項1から請求項4のいずれか1項に記載のコンピュータプログラム。
1. Claim 1 for causing a computer to perform a process of displaying the screen including a special exchange image capable of interacting with a plurality of users permitted to participate in the BOX room and a live performer on the display unit. The computer program according to any one of claims 4.
前記ライブ動画に応じた背景又はアバターの選択を受け付け、
受け付けた前記背景又はアバターにより生成される前記BOXルーム画像を含む前記画面を前記表示部に表示する
処理をコンピュータに実行させるための請求項1から請求項5のいずれか1項に記載のコンピュータプログラム。
Accepting the selection of background or avatar according to the live video,
The computer program according to any one of claims 1 to 5, for causing a computer to execute a process of displaying the screen including the BOX room image generated by the received background or avatar on the display unit. ..
ライブ施設におけるライブ動画を視聴するユーザに係る座席券に関する情報を取得し、
前記ライブ動画の視聴中における所定の座席券に関連付けられる複数のユーザが参加可能なBOXルームへの参加が許可された複数のユーザそれぞれに係るユーザ画像を取得し、
取得した前記座席券に関する情報と、前記BOXルームへの参加が許可された複数のユーザそれぞれに係る前記ユーザ画像とを関連付けて前記ライブ施設内の出力装置に出力する
処理をコンピュータに実行させるためのコンピュータプログラム。
Obtain information about seat tickets for users who watch live videos at live facilities,
A user image relating to each of a plurality of users who are permitted to participate in a BOX room in which a plurality of users associated with a predetermined seat ticket while watching the live video can participate is acquired.
To make a computer execute a process of associating the acquired information about the seat ticket with the user image of each of the plurality of users who are permitted to participate in the BOX room and outputting the information to the output device in the live facility. Computer program.
前記BOXルームへの参加が許可された複数のユーザそれぞれに係る前記ユーザ画像と、所定の座席以外の座席券に関連付けられ前記BOXルームへ参加していないユーザに係る前記ユーザ画像とを区別して表示する画面情報を前記出力装置に出力する
処理をコンピュータに実行させるための請求項7に記載のコンピュータプログラム。
The user image relating to each of the plurality of users permitted to participate in the BOX room and the user image relating to a user who is associated with a seat ticket other than a predetermined seat and does not participate in the BOX room are displayed separately. The computer program according to claim 7, wherein the computer executes a process of outputting the screen information to be output to the output device.
前記ユーザによる拍手ボタンの操作を受け付けたことを示す操作信号を取得し、
取得した操作信号に応じた画像又は音声を前記出力装置に出力する
処理をコンピュータに実行させるための請求項7又は請求項8に記載のコンピュータプログラム。
An operation signal indicating that the operation of the applause button by the user has been accepted is acquired, and the operation signal is acquired.
The computer program according to claim 7 or 8, for causing a computer to execute a process of outputting an image or sound corresponding to an acquired operation signal to the output device.
前記ユーザ画像に基づいて、前記ユーザの盛り上がり度を判定し、
前記ユーザの盛り上がり度の判定結果に応じた画像又は音声を前記出力装置に出力する
処理をコンピュータに実行させるための請求項7から請求項9のいずれか1項に記載のコンピュータプログラム。
Based on the user image, the degree of excitement of the user is determined.
The computer program according to any one of claims 7 to 9, for causing a computer to execute a process of outputting an image or sound according to a determination result of the degree of excitement of the user to the output device.
ライブ施設におけるライブ動画の配信指示を取得し、
所定の座席券に関連付けられる複数のユーザが参加可能なBOXルームへの参加要求を取得し、
前記ライブ動画を取得し、
前記ライブ動画の視聴中における前記BOXルームへの参加が許可された複数のユーザそれぞれに係るユーザ画像を取得し、
取得した前記配信指示及び参加要求に基づき、前記ライブ動画と、前記BOXルームへの参加が許可された複数のユーザそれぞれに係るユーザ画像を含むBOXルーム画像とを含む画面情報を生成し、
生成した前記画面情報を出力する
情報処理方法。
Obtained live video distribution instructions at live facilities,
Get a request to join a BOX room that can be attended by multiple users associated with a given seat ticket
Get the live video and
Acquire user images relating to each of a plurality of users who are permitted to participate in the BOX room while watching the live video.
Based on the acquired distribution instruction and participation request, screen information including the live video and a BOX room image including a user image relating to each of a plurality of users permitted to participate in the BOX room is generated.
An information processing method that outputs the generated screen information.
ライブ施設におけるライブ動画の配信指示を取得する第1取得部と、
所定の座席券に関連付けられる複数のユーザが参加可能なBOXルームへの参加要求を取得する第2取得部と、
前記ライブ動画を取得する第3取得部と、
前記ライブ動画の視聴中における前記BOXルームへの参加が許可された複数のユーザそれぞれに係るユーザ画像を取得する第4取得部と、
前記第1取得部が取得した配信指示及び前記第2取得部が取得した参加要求に基づき、前記第3取得部が取得したライブ動画と、前記第4取得部が取得した前記BOXルームへの参加が許可された複数のユーザそれぞれに係るユーザ画像を含むBOXルーム画像とを含む画面情報を生成する生成部と、
前記生成部が生成した画面情報を出力する出力部とを備える
情報処理装置。
The first acquisition department that acquires live video distribution instructions at live facilities,
A second acquisition unit that acquires a request to participate in a BOX room in which multiple users associated with a predetermined seat ticket can participate, and
The third acquisition unit that acquires the live video,
A fourth acquisition unit that acquires user images relating to each of a plurality of users who are permitted to participate in the BOX room while watching the live video, and a fourth acquisition unit.
Participation in the live video acquired by the third acquisition unit and the BOX room acquired by the fourth acquisition unit based on the distribution instruction acquired by the first acquisition unit and the participation request acquired by the second acquisition unit. A generator that generates screen information including a BOX room image that includes user images for each of the plurality of authorized users.
An information processing device including an output unit that outputs screen information generated by the generation unit.
JP2020122290A 2020-07-16 2020-07-16 COMPUTER PROGRAM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING APPARATUS Active JP7469977B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020122290A JP7469977B2 (en) 2020-07-16 2020-07-16 COMPUTER PROGRAM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING APPARATUS

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020122290A JP7469977B2 (en) 2020-07-16 2020-07-16 COMPUTER PROGRAM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING APPARATUS

Publications (2)

Publication Number Publication Date
JP2022018875A true JP2022018875A (en) 2022-01-27
JP7469977B2 JP7469977B2 (en) 2024-04-17

Family

ID=80203154

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020122290A Active JP7469977B2 (en) 2020-07-16 2020-07-16 COMPUTER PROGRAM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING APPARATUS

Country Status (1)

Country Link
JP (1) JP7469977B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023162224A1 (en) * 2022-02-28 2023-08-31 日本電気株式会社 Information processing system, information processing method, and computer-readable medium

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003125366A (en) 2001-10-11 2003-04-25 Sony Corp Communication system, communication method, communication program and information processor
US20090290024A1 (en) 2008-05-21 2009-11-26 Larson Bradley R Providing live event media content to spectators
JP4950978B2 (en) 2008-10-08 2012-06-13 株式会社ソニー・コンピュータエンタテインメント Information processing apparatus and information processing method
JP2016034087A (en) 2014-07-31 2016-03-10 Front Row Holdings株式会社 Video display system
JP6442379B2 (en) 2015-08-04 2018-12-19 株式会社 ディー・エヌ・エー Server, program and method for providing video chat
US10621784B2 (en) 2017-09-29 2020-04-14 Sony Interactive Entertainment America Llc Venue mapping for virtual reality spectating of live events
US11551645B2 (en) 2018-06-07 2023-01-10 Sony Interactive Entertainment Inc. Information processing system, information processing method, and computer program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023162224A1 (en) * 2022-02-28 2023-08-31 日本電気株式会社 Information processing system, information processing method, and computer-readable medium

Also Published As

Publication number Publication date
JP7469977B2 (en) 2024-04-17

Similar Documents

Publication Publication Date Title
JP6474932B2 (en) COMMUNICATION TERMINAL, COMMUNICATION METHOD, PROGRAM, AND COMMUNICATION SYSTEM
CN106792228B (en) Live broadcast interaction method and system
KR20110088778A (en) Terminal and method for providing augmented reality
JP7123520B2 (en) MOVIE RECORDING DEVICE, MOVIE GENERATION METHOD, AND PROGRAM
JP2010540145A (en) Online reporting apparatus and method
WO2014073277A1 (en) Communication terminal, communication method, program, and communication system
JP6273206B2 (en) Communication terminal, communication method, and program
WO2014073275A1 (en) Image processing device, image processing method, and program
US20230350543A1 (en) Information processing system, information processing method, and computer program
TW202341038A (en) Computer-readable storage medium, terminal, and server
JP2018011849A (en) Moving image recording device, moving image distribution method, and program
JP7415390B2 (en) Purchased product management system, user terminal, server, purchased product management method, and program
KR20200008706A (en) Production system and production method for virtual reality contents
JP2020191620A (en) Video distribution method, video distribution device, and computer program
JP7469977B2 (en) COMPUTER PROGRAM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING APPARATUS
JP6130985B1 (en) Message video providing apparatus, message video providing method, and message video providing program
TW201740367A (en) Cloud-based system for broadcasting live musical performances
JP7360855B2 (en) Information processing method, program and information processing device
CN113313840A (en) Real-time virtual system and real-time virtual interaction method
US20160055531A1 (en) Marketing of authenticated articles thru social networking
JP7378851B2 (en) display device
JP7288990B2 (en) Video distribution system, video distribution method and video distribution program
JP6923735B1 (en) Video distribution system, video distribution method and video distribution program
JP7194239B2 (en) Video distribution system, video distribution method and video distribution program
JP7089815B1 (en) server

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230411

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240328

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240405