JP2023182937A - Reaction management device and program - Google Patents

Reaction management device and program Download PDF

Info

Publication number
JP2023182937A
JP2023182937A JP2022096213A JP2022096213A JP2023182937A JP 2023182937 A JP2023182937 A JP 2023182937A JP 2022096213 A JP2022096213 A JP 2022096213A JP 2022096213 A JP2022096213 A JP 2022096213A JP 2023182937 A JP2023182937 A JP 2023182937A
Authority
JP
Japan
Prior art keywords
reaction
video
program
presentation
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022096213A
Other languages
Japanese (ja)
Inventor
彩花 西出
Ayaka Nishide
敏 西村
Satoshi Nishimura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2022096213A priority Critical patent/JP2023182937A/en
Publication of JP2023182937A publication Critical patent/JP2023182937A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

To reflect the reaction of viewers in a shooting studio.SOLUTION: A reaction management device can communicate with an operation terminal used by a viewer who views video and a presentation device installed in a shooting studio where the video is recorded. The reaction management device includes a reaction receiving unit that receives reaction information representing a reaction by the viewer from the operation terminal, and a presentation control unit that transmits a control signal for presenting the reaction to the presentation device based on the reaction information.SELECTED DRAWING: Figure 3

Description

本発明は、反応管理装置及びプログラムに関する。 The present invention relates to a reaction management device and program.

従来から、撮影スタジオに観覧者を入れて映像番組を収録する公開番組収録が行われている。近年では、オンライン会議ツールを用いて観覧者が遠隔地から番組を観覧する番組制作手法も利用されている。 2. Description of the Related Art Conventionally, public program recording has been carried out in which viewers are placed in a filming studio to record a video program. In recent years, program production methods have also been used in which viewers view programs from remote locations using online conferencing tools.

一方、インターネットに接続されたテレビを用いた双方向放送技術により視聴者が番組に参加する番組制作手法がある。例えば、特許文献1には、視聴者端末で視聴者が入力した投票情報をインターネット経由で集計し、集計結果を放送映像に反映させることで、臨場感に富む視聴者参加型番組を実現する双方向型放送視聴システムが開示されている。 On the other hand, there is a program production method in which viewers participate in the program using interactive broadcasting technology using a television connected to the Internet. For example, Patent Document 1 discloses that voting information input by viewers at viewer terminals is aggregated via the Internet, and the aggregate results are reflected in broadcast images, thereby realizing a viewer-participation program with a rich sense of realism. An interactive broadcast viewing system is disclosed.

特許第4340398号公報Patent No. 4340398

しかしながら、観覧者が遠隔地から番組を観覧する場合、撮影スタジオでは視聴者の反応をリアルタイムに把握することができない。その結果、出演者のパフォーマンスを十分に引き出すことができず、盛り上がりに欠ける映像番組となる場合がある。 However, when a viewer views a program from a remote location, the filming studio cannot grasp the viewer's reaction in real time. As a result, it may not be possible to bring out the full performance of the performers, resulting in a video program that lacks excitement.

本発明の一態様は、上記のような技術的課題に鑑みて、視聴者の反応を撮影スタジオに反映することを目的とする。 In view of the above-mentioned technical problems, one aspect of the present invention aims to reflect the reactions of viewers in a shooting studio.

上記の課題を解決するために、本発明の一態様の反応管理装置は、映像を視聴する視聴者が用いる操作端末及び映像を収録する撮影スタジオに設置された提示装置と通信可能な反応管理装置であって、操作端末から視聴者による反応を表す反応情報を受信する反応受信部と、反応情報に基づいて提示装置に対して反応を提示するための制御信号を送信する提示制御部と、を備える。 In order to solve the above problems, a reaction management device according to one aspect of the present invention is a reaction management device that can communicate with an operation terminal used by a viewer who views a video and a presentation device installed in a shooting studio where the video is recorded. A reaction receiving unit that receives reaction information representing a reaction by a viewer from an operation terminal, and a presentation control unit that transmits a control signal for presenting a reaction to a presentation device based on the reaction information. Be prepared.

本発明の一態様によれば、視聴者の反応を撮影スタジオに反映することができる。 According to one aspect of the present invention, reactions of viewers can be reflected in the shooting studio.

番組演出システムの全体構成の一例を示すブロック図である。FIG. 1 is a block diagram showing an example of the overall configuration of a program production system. コンピュータのハードウェア構成の一例を示すブロック図である。FIG. 2 is a block diagram showing an example of the hardware configuration of a computer. 番組演出システムの機能構成の一例を示すブロック図である。FIG. 1 is a block diagram showing an example of a functional configuration of a program production system. 番組演出方法の処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the processing procedure of a program presentation method. 操作画面の一例を示す概念図である。FIG. 3 is a conceptual diagram showing an example of an operation screen.

以下、本発明の各実施形態について添付の図面を参照しながら説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省略する。 Embodiments of the present invention will be described below with reference to the accompanying drawings. Note that, in this specification and the drawings, components having substantially the same functional configuration are designated by the same reference numerals and redundant explanation will be omitted.

[概要]
従来、テレビ電波を介して放送されるテレビ番組又は通信ネットワークを介して配信される動画コンテンツ(以下、「映像番組」と総称する)の制作現場において、撮影スタジオに大人数の観覧者を入れて映像番組を収録する公開番組収録が行われていた。公開番組収録では、観覧者の反応は視聴者の反応を事前に知るためのバロメーターになる。また、観覧者の反応が出演者の気分を高揚させることで、より良いパフォーマンスを引き出したり、撮影スタジオ全体の雰囲気を盛り上げたりすることに繋がる効果もある。
[overview]
Conventionally, at the production site of television programs broadcast via TV radio waves or video content distributed via communication networks (hereinafter collectively referred to as "video programs"), large numbers of viewers are placed in the filming studio. A public program recording was being conducted to record a video program. When recording public programs, the audience's reactions serve as a barometer for knowing the audience's reactions in advance. Additionally, the audience's reaction lifts the mood of the performers, which has the effect of bringing out better performances and enlivening the overall atmosphere of the filming studio.

しかしながら、例えば感染症の流行等による社会情勢の変化に起因して、公開番組収録が困難となる場合がある。撮影スタジオに観覧者を入れずに制作された番組では、視聴者の存在を肌で感じることができず、従来よりも盛り上がりに欠ける印象となることが少なくない。このため、オンライン会議ツール等を用いて遠隔地から疑似的に番組を観覧する番組制作手法が利用されている。なお、公知のオンライン会議ツールとして、例えば、参考文献1に開示された技術がある。 However, due to changes in the social situation due to the spread of infectious diseases, for example, it may become difficult to record public programs. Programs that are produced without viewers in the filming studio are unable to feel the presence of the viewers, and often leave the impression of being less exciting than in the past. For this reason, a program production method is used in which a program is viewed in a simulated manner from a remote location using an online conference tool or the like. Note that, as a known online conference tool, for example, there is a technique disclosed in Reference Document 1.

〔参考文献1〕Zoom Video Communications Inc,"ビデオ カンファレンス、クラウド電話、ウェビナー、チャット、仮想イベント | Zoom",[online],[令和4年5月11日検索],インターネット<URL: https://zoom.us/> [Reference 1] Zoom Video Communications Inc, "Video conference, cloud telephony, webinar, chat, virtual event | Zoom", [online], [Retrieved May 11, 2020], Internet <URL: https:/ /zoom.us/>

遠隔地から番組を観覧する番組制作手法は、種々の事情により撮影スタジオで番組を観覧することが困難である視聴者であっても、番組観覧に参加することが可能になるという利点もある。種々の事情とは、例えば、重度の病気や怪我、又は遠方に居住している等が挙げられる。 The program production method of viewing a program from a remote location also has the advantage that even viewers who have difficulty viewing the program from a filming studio due to various circumstances can participate in viewing the program. Various circumstances include, for example, severe illness or injury, or living far away.

なお、テレビ受像機のリモートコントローラに設けられた所定のボタン(例えば、「dボタン」等)やハイブリッドキャスト等を利用したアンケート形式の番組参加方法が、視聴者参加型番組として多く使われている(例えば、参考文献2参照)。また、リモートコントローラのボタンやハイブリッドキャスト等は、映像番組の品質を向上するためのアンケートにも活用されている(例えば、参考文献3参照)。これらの手法は、番組制作者にとって、視聴者の意見を巨視的に把握するための有効な手段となっている。 In addition, a survey-style program participation method using a predetermined button on the remote controller of a television receiver (for example, the "d button") or Hybrid Cast is often used for viewer participation programs. (For example, see Reference 2). In addition, remote controller buttons, Hybrid Cast, and the like are also used in questionnaires to improve the quality of video programs (for example, see Reference 3). These methods have become effective means for program producers to grasp viewer opinions macroscopically.

〔参考文献2〕特開2003-009127号公報
〔参考文献3〕特開2014-217024号公報
[Reference document 2] Japanese Patent Application Publication No. 2003-009127 [Reference document 3] Japanese Patent Application Publication No. 2014-217024

オンライン会議ツールを利用した観覧手法では、観覧者は収録中や放送中の長時間、常に端末のカメラから顔を映している必要がある。例えば、観覧者が自宅等から参加する場合、自宅内で発生する種々の出来事に対処しながら観覧することになる。そのため、観覧者は番組観覧に集中することが難しく、ストレスとなることがある。このような事情から、オンライン会議ツールを利用した観覧手法には消極的な視聴者は少なくない。 Viewing methods that use online conferencing tools require viewers to keep their faces visible through their terminal cameras for long periods of time during recording and broadcasting. For example, if viewers participate from their homes, they will watch while dealing with various events that occur inside their homes. Therefore, it is difficult for viewers to concentrate on watching the program, which may cause stress. Due to these circumstances, many viewers are reluctant to use online conference tools for viewing.

一方、アンケート形式の番組参加方法は、自分の意見が多数の中の1つに過ぎないことを実感させられるため、参加感が低いと感じる視聴者も多い。また。視聴者のボタン操作等による入力情報を、例えばインターネットを経由してスタジオ設備にアップロードする際には、伝送遅延が避けられない。そのため、視聴者の反応を番組進行のタイミングに合わせてスタジオ設備に反映させることは困難である。 On the other hand, many viewers feel that the questionnaire-based program participation method has a low sense of participation because they are made to feel that their opinion is just one of many. Also. When information input by a viewer's button operations or the like is uploaded to studio equipment via the Internet, for example, transmission delays are unavoidable. Therefore, it is difficult to reflect the reactions of viewers on studio equipment in accordance with the timing of program progress.

本発明の一実施形態は、映像を視聴する視聴者が用いる操作端末から視聴者による反応を受信し、撮影スタジオに設置された提示装置から視聴者による反応を提示する。したがって、本発明の一実施形態によれば、視聴者の反応を撮影スタジオに反映することができる。これにより、映像番組の制作者や出演者は、遠隔にいる視聴者の反応を把握し、番組制作に活用することが可能となる。 In one embodiment of the present invention, reactions by the viewer are received from an operation terminal used by the viewer viewing the video, and the reaction by the viewer is presented from a presentation device installed in a shooting studio. Therefore, according to an embodiment of the present invention, the reactions of viewers can be reflected in the shooting studio. This makes it possible for producers and performers of video programs to understand the reactions of remote viewers and utilize them in program production.

[実施形態]
本発明の一実施形態は、映像番組を収録する撮影スタジオにおいて、当該映像番組を視聴する視聴者による反応を提示する番組演出システムである。本実施形態における番組演出システムは、撮影スタジオが設置された番組制作施設から視聴者が存在する視聴施設に、インターネット等を介して映像番組を送信する。視聴施設では、視聴者が映像番組を視聴し、視聴者による反応を取得する。番組制作施設では、視聴施設で取得された反応情報に基づいて、撮影スタジオに設置された提示装置を用いて視聴者の反応を提示する。
[Embodiment]
One embodiment of the present invention is a program production system that presents reactions by viewers who view a video program in a filming studio that records the video program. The program production system in this embodiment transmits a video program from a program production facility where a shooting studio is installed to a viewing facility where viewers are present via the Internet or the like. At the viewing facility, viewers view video programs and obtain reactions from the viewers. At the program production facility, viewers' reactions are presented using a presentation device installed in the filming studio based on the reaction information acquired at the viewing facility.

本実施形態における番組演出システムは、インターネット等の通信ネットワークを介して反応情報を伝送するため、遅延が発生することがある。そのため、本実施形態における番組演出システムは、遅延によるずれが許容されない演出の場合には、リハーサル等により事前に反応情報を収集し、リハーサルの進行状況と対応付けて記憶しておく。その後、本番放送では、事前に収集した反応情報に基づいて、番組進行と同期しながら提示装置を用いて視聴者の反応を提示する。 Since the program production system in this embodiment transmits reaction information via a communication network such as the Internet, delays may occur. Therefore, in the case of a production in which a deviation due to a delay is not tolerated, the program production system in this embodiment collects reaction information in advance through a rehearsal or the like and stores it in association with the progress status of the rehearsal. Thereafter, during the actual broadcast, the viewer's reactions are presented using a presentation device in synchronization with the progress of the program, based on the reaction information collected in advance.

<番組演出システムの全体構成>
まず、本実施形態における番組演出システムの全体構成を、図1を参照しながら説明する。図1は、本実施形態における番組演出システムの全体構成の一例を示すブロック図である。
<Overall configuration of program production system>
First, the overall configuration of the program production system in this embodiment will be explained with reference to FIG. 1. FIG. 1 is a block diagram showing an example of the overall configuration of a program production system according to this embodiment.

図1に示されているように、本実施形態における番組演出システム1は、反応管理装置10、提示装置11、番組制作装置12、映像送信装置13、操作端末21及び受像機22を含む。反応管理装置10、提示装置11、番組制作装置12、映像送信装置13、操作端末21及び受像機22は、LAN(Local Area Network)又はインターネット等の通信ネットワークN1を介してデータ通信可能に接続されている。 As shown in FIG. 1, the program production system 1 in this embodiment includes a reaction management device 10, a presentation device 11, a program production device 12, a video transmission device 13, an operation terminal 21, and a receiver 22. The reaction management device 10, the presentation device 11, the program production device 12, the video transmission device 13, the operation terminal 21, and the receiver 22 are connected to enable data communication via a communication network N1 such as a LAN (Local Area Network) or the Internet. ing.

反応管理装置10、提示装置11、番組制作装置12及び映像送信装置13は、番組制作施設E1に設置される。番組制作施設E1は、通信ネットワークN1又は放送電波N2を介して配信又は放送される映像番組を制作するための設備を有する施設である。番組制作施設E1は、例えば、テレビ局等である。 The reaction management device 10, the presentation device 11, the program production device 12, and the video transmission device 13 are installed in the program production facility E1. The program production facility E1 is a facility that has equipment for producing video programs that are distributed or broadcast via the communication network N1 or broadcast waves N2. The program production facility E1 is, for example, a television station.

番組制作施設E1には、撮影スタジオE2が設置される。撮影スタジオE2には、少なくともフロアが設けられる。フロアには、映像番組の内容に応じた大道具又は小道具等のセットが設けられる。映像番組の出演者は、フロアにおいて種々のパフォーマンスを行う。 A photography studio E2 is installed in the program production facility E1. The photography studio E2 is provided with at least a floor. On the floor, a set of props or small props is provided depending on the content of the video program. Performers of the video program perform various performances on the floor.

撮影スタジオE2には、観覧席が設けられてもよい。観覧席は、フロア全体を視認可能な位置に設けられる。例えば公開番組収録では、観覧者が観覧席からフロアで収録される映像番組を観覧する。 The photography studio E2 may be provided with viewing seats. The bleachers will be located in positions where the entire floor can be viewed. For example, when recording a public program, viewers watch the video program recorded on the floor from the audience seats.

番組制作施設E1には、2台のカメラC1,C2が存在する。カメラC1は、番組制作に用いる映像素材を撮影するためのカメラである。なお、カメラC1は、番組制作施設E1内の各装置と有線又は無線の通信回線を介して通信可能であれば、番組制作施設E1の外に存在してもよい。 There are two cameras C1 and C2 in the program production facility E1. The camera C1 is a camera for photographing video materials used in program production. Note that the camera C1 may exist outside the program production facility E1 as long as it can communicate with each device within the program production facility E1 via a wired or wireless communication line.

カメラC2は、撮影スタジオE2内を撮影するためのカメラである。カメラC2は、少なくとも提示装置11が画角に入るように撮影スタジオE2内の所定の位置に設置される。 Camera C2 is a camera for photographing the interior of photography studio E2. The camera C2 is installed at a predetermined position in the photography studio E2 so that at least the presentation device 11 is included in the angle of view.

以下、カメラC1により撮影された映像を「スタジオ映像」と呼ぶ。また、カメラC2により撮影された映像を「俯瞰映像」と呼ぶ。 Hereinafter, the video captured by the camera C1 will be referred to as a "studio video." Further, the video captured by camera C2 is referred to as an "overhead video".

カメラC1が、画角に提示装置11が入るように固定して設置されている場合、カメラC2は存在しなくてもよい。この場合、カメラC1により撮影された映像は、スタジオ映像及び俯瞰映像の両方として用いられる。 If the camera C1 is fixedly installed so that the presentation device 11 is included in the angle of view, the camera C2 may not be present. In this case, the video captured by camera C1 is used as both a studio video and an overhead video.

操作端末21及び受像機22は、視聴施設E3に設置される。視聴施設E3は、映像番組を視聴するための設備を有する施設である。視聴施設E3は、例えば、視聴者の住居等である。 The operating terminal 21 and the receiver 22 are installed in the viewing facility E3. The viewing facility E3 is a facility that has equipment for viewing video programs. The viewing facility E3 is, for example, a viewer's residence.

反応管理装置10は、視聴者による反応を表す反応情報を管理するパーソナルコンピュータ、ワークステーション、サーバ等の情報処理装置である。反応管理装置10は、操作端末21から反応情報を受信し、視聴者による反応を提示するための制御信号を提示装置11に送信する。 The reaction management device 10 is an information processing device such as a personal computer, a workstation, or a server that manages reaction information representing reactions by viewers. The reaction management device 10 receives reaction information from the operation terminal 21 and transmits a control signal for presenting the reaction by the viewer to the presentation device 11.

提示装置11は、視聴者による反応を提示する電子機器である。提示装置11は、反応管理装置10から制御信号を受信し、制御信号に従って視聴者による反応に対応する動作を行う。 The presentation device 11 is an electronic device that presents reactions by viewers. The presentation device 11 receives a control signal from the reaction management device 10, and performs an operation corresponding to the reaction by the viewer according to the control signal.

反応に対応する動作は、提示装置11の構成によって異なる。当該動作は、撮影スタジオE2内に存在する人物が視覚、聴覚又は触覚等を通じて知覚可能な態様で行われる。撮影スタジオE2内に存在する人物とは、例えば、フロアにおいてパフォーマンスを行う出演者、又は番組制作における種々の業務に従事する製作者等である。 The operation corresponding to the reaction differs depending on the configuration of the presentation device 11. This operation is performed in a manner that can be perceived by the person present in the photographic studio E2 through visual, auditory, or tactile senses. The persons existing in the shooting studio E2 include, for example, performers who perform on the floor, or producers who are engaged in various tasks in program production.

提示装置11の一例は、有線又は無線の通信回線を介して操作可能な照明器具である。当該照明器具は、例えば、発光ダイオード(LED; Light-Emitting Diode)等により複数の色で発光可能な光源を有する。通信ネットワークを介して操作可能な照明器具は、例えば、下記参考文献4に開示されている。 An example of the presentation device 11 is a lighting fixture that can be operated via a wired or wireless communication line. The lighting equipment has a light source that can emit light in a plurality of colors using, for example, a light-emitting diode (LED). A lighting fixture that can be operated via a communication network is disclosed, for example, in Reference 4 below.

〔参考文献4〕シグニファイジャパン合同会社,"スマートライトで暮らしが変わる | Philips Hue",[online],[令和4年5月11日検索],インターネット<URL: https://www.philips-hue.com/ja-jp> [Reference 4] Signify Japan LLC, "Changing your life with smart lights | Philips Hue", [online], [Searched on May 11, 2020], Internet <URL: https://www.philips -hue.com/ja-jp>

提示装置11は、各視聴者と一対一で対応する複数の照明器具から構成される。提示装置11は、操作端末21から受信した反応情報に基づく制御信号に従って、当該操作端末21を利用する視聴者に対応する照明器具を、当該視聴者の反応に応じた色、明るさ又は点滅パターン等で発光させる。 The presentation device 11 is comprised of a plurality of lighting fixtures that correspond one-on-one with each viewer. According to the control signal based on the reaction information received from the operation terminal 21, the presentation device 11 controls the lighting equipment corresponding to the viewer who uses the operation terminal 21 in a color, brightness, or blinking pattern according to the reaction of the viewer. etc. to emit light.

提示装置11の他の例は、大型ディスプレイ、スピーカアレイ、駆動可能なスタジオセット、出演者又は製作者に装着されるウェアラブルデバイス等である。大型ディスプレイによる提示装置11は、例えば、各視聴者に対応する複数の領域を有する画面を表示し、視聴者の反応に応じた表示態様で各領域を表示する。 Other examples of the presentation device 11 are a large display, a speaker array, a drivable studio set, a wearable device worn by a performer or producer, and the like. The presentation device 11 using a large display displays, for example, a screen having a plurality of areas corresponding to each viewer, and displays each area in a display mode according to the reaction of the viewer.

スピーカアレイによる提示装置11は、例えば、各視聴者に対応する複数のスピーカから構成され、視聴者の反応に応じた音声及び音量等で音響信号を出力する。スタジオセットによる提示装置11は、例えば、各視聴者に対応する複数のセットから構成され、視聴者の反応に応じた形態に変化する(例えば、キャラクターが挙手する、拍手をする等)。ウェアラブルデバイスによる提示装置11は、例えば、視聴者の反応に応じたパターン及び大きさで振動する。 The speaker array presentation device 11 includes, for example, a plurality of speakers corresponding to each viewer, and outputs an audio signal with a sound, volume, etc. according to the reaction of the viewer. The studio set presentation device 11 is, for example, composed of a plurality of sets corresponding to each viewer, and changes its form in response to the viewer's reaction (for example, a character raises his hand, claps, etc.). The presentation device 11, which is a wearable device, vibrates in a pattern and size depending on the viewer's reaction, for example.

提示装置11は、撮影スタジオE2内のフロア又は観覧席等に設置される。ただし、提示装置11の設置位置はフロア又は観覧席に限定されず、フロアに存在する出演者から知覚可能、かつ、カメラC2から撮影可能な位置であれば、任意の位置に設置することができる。 The presentation device 11 is installed on the floor or the audience seats in the photography studio E2. However, the installation position of the presentation device 11 is not limited to the floor or the audience seats, but can be installed at any position as long as it is perceivable by the performers on the floor and can be photographed by the camera C2. .

番組制作装置12は、スタジオ映像を用いて映像番組を制作する設備機器である。番組制作装置12は、カメラC1と有線又は無線の通信経路により電気的に接続され、スタジオ映像を取得可能に構成されている。番組制作装置12は、番組制作に用いられる種々の機能を備えた複数の装置により構成されてもよい。番組制作装置12は、制作された映像番組を、放送電波N2を介して視聴施設E3に放送するための設備を含んでもよい。 The program production device 12 is equipment that produces video programs using studio video. The program production device 12 is electrically connected to the camera C1 via a wired or wireless communication path, and is configured to be able to acquire studio video. The program production device 12 may include a plurality of devices having various functions used in program production. The program production device 12 may include equipment for broadcasting the produced video program to the viewing facility E3 via the broadcast radio waves N2.

映像送信装置13は、映像番組及び俯瞰映像を送信するパーソナルコンピュータ、ワークステーション、サーバ等の情報処理装置である。映像送信装置13は、カメラC2と有線又は無線の通信経路により電気的に接続され、俯瞰映像を取得可能に構成されている。映像送信装置13は、番組制作装置12から取得した映像番組、及びカメラC2から取得した俯瞰映像を、通信ネットワークN1を介して視聴施設E3に送信する。 The video transmitting device 13 is an information processing device such as a personal computer, a workstation, or a server that transmits video programs and bird's-eye views. The video transmitting device 13 is electrically connected to the camera C2 via a wired or wireless communication path, and is configured to be able to obtain an overhead video. The video transmitting device 13 transmits the video program acquired from the program production device 12 and the bird's-eye view video acquired from the camera C2 to the viewing facility E3 via the communication network N1.

操作端末21は、視聴者が操作するパーソナルコンピュータ、タブレット端末、スマートフォン等の情報処理端末である。操作端末21は、映像送信装置13から映像番組及び俯瞰映像を受信し、視聴者に対して表示する。 The operating terminal 21 is an information processing terminal such as a personal computer, a tablet terminal, or a smartphone operated by the viewer. The operating terminal 21 receives a video program and an overhead video from the video transmitting device 13, and displays the video to the viewer.

受像機22は、視聴者が映像番組を視聴するテレビ受像機、セットトップボックス、パーソナルコンピュータ等の電子機器である。受像機22は、番組制作装置12から放送電波N2を介して映像番組を受信し、視聴者に対して表示する。 The receiver 22 is an electronic device such as a television receiver, a set-top box, or a personal computer on which a viewer views a video program. The receiver 22 receives the video program from the program production device 12 via the broadcast wave N2 and displays it to the viewer.

なお、図1に示した番組演出システム1の全体構成は一例であって、用途や目的に応じて様々なシステム構成例があり得る。例えば、反応管理装置10は、複数台のコンピュータにより実現してもよいし、クラウドコンピューティングのサービスとして実現してもよい。また、例えば、番組演出システム1は、反応管理装置10、番組制作装置12及び映像送信装置13がそれぞれ備えるべき機能を兼ね備えたスタンドアローンの情報処理装置により実現してもよい。 Note that the overall configuration of the program production system 1 shown in FIG. 1 is one example, and there may be various system configuration examples depending on the use and purpose. For example, the reaction management device 10 may be realized by a plurality of computers, or may be realized as a cloud computing service. Further, for example, the program production system 1 may be realized by a stand-alone information processing device that has functions that should be provided by the reaction management device 10, the program production device 12, and the video transmission device 13, respectively.

<番組演出システムのハードウェア構成>
次に、本実施形態における番組演出システム1のハードウェア構成を、図2を参照しながら説明する。
<Hardware configuration of program production system>
Next, the hardware configuration of the program production system 1 in this embodiment will be explained with reference to FIG. 2.

≪コンピュータのハードウェア構成≫
本実施形態における反応管理装置10、番組制作装置12、映像送信装置13及び操作端末21は、例えばコンピュータにより実現される。図2は、本実施形態におけるコンピュータのハードウェア構成の一例を示すブロック図である。
≪Computer hardware configuration≫
The reaction management device 10, program production device 12, video transmission device 13, and operation terminal 21 in this embodiment are realized by, for example, a computer. FIG. 2 is a block diagram showing an example of the hardware configuration of the computer in this embodiment.

図2に示されているように、本実施形態におけるコンピュータ500は、CPU(Central Processing Unit)501、ROM(Read Only Memory)502、RAM(Random Access Memory)503、HDD(Hard Disk Drive)504、入力装置505、表示装置506、通信I/F(Interface)507及び外部I/F508を有する。CPU501、ROM502及びRAM503は、いわゆるコンピュータを形成する。コンピュータ500の各ハードウェアは、バスライン509を介して相互に接続されている。なお、入力装置505及び表示装置506は外部I/F508に接続して利用する形態であってもよい。 As shown in FIG. 2, the computer 500 in this embodiment includes a CPU (Central Processing Unit) 501, a ROM (Read Only Memory) 502, a RAM (Random Access Memory) 503, an HDD (Hard Disk Drive) 504, It has an input device 505, a display device 506, a communication I/F (Interface) 507, and an external I/F 508. CPU501, ROM502, and RAM503 form what is called a computer. Each piece of hardware in the computer 500 is interconnected via a bus line 509. Note that the input device 505 and the display device 506 may be connected to an external I/F 508 for use.

CPU501は、ROM502又はHDD504等の記憶装置からプログラムやデータをRAM503上に読み出し、処理を実行することで、コンピュータ500全体の制御や機能を実現する演算装置である。 The CPU 501 is an arithmetic unit that implements control and functions of the entire computer 500 by reading programs and data from a storage device such as the ROM 502 or the HDD 504 onto the RAM 503 and executing processing.

ROM502は、電源を切ってもプログラムやデータを保持することができる不揮発性の半導体メモリ(記憶装置)の一例である。ROM502は、HDD504にインストールされている各種プログラムをCPU501が実行するために必要な各種プログラム、データ等を格納する主記憶装置として機能する。具体的には、ROM502には、コンピュータ500の起動時に実行されるBIOS(Basic Input/Output System)、EFI(Extensible Firmware Interface)等のブートプログラムや、OS(Operating System)設定、ネットワーク設定等のデータが格納されている。 The ROM 502 is an example of a nonvolatile semiconductor memory (storage device) that can retain programs and data even when the power is turned off. The ROM 502 functions as a main storage device that stores various programs, data, etc. necessary for the CPU 501 to execute various programs installed on the HDD 504 . Specifically, the ROM 502 stores data such as boot programs such as BIOS (Basic Input/Output System) and EFI (Extensible Firmware Interface) that are executed when the computer 500 is started, OS (Operating System) settings, and network settings. is stored.

RAM503は、電源を切るとプログラムやデータが消去される揮発性の半導体メモリ(記憶装置)の一例である。RAM503は、例えば、DRAM(Dynamic Random Access Memory)やSRAM(Static Random Access Memory)等である。RAM503は、HDD504にインストールされている各種プログラムがCPU501によって実行される際に展開される作業領域を提供する。 The RAM 503 is an example of a volatile semiconductor memory (storage device) whose programs and data are erased when the power is turned off. The RAM 503 is, for example, DRAM (Dynamic Random Access Memory) or SRAM (Static Random Access Memory). The RAM 503 provides a work area where various programs installed on the HDD 504 are expanded when the CPU 501 executes them.

HDD504は、プログラムやデータを格納している不揮発性の記憶装置の一例である。HDD504に格納されるプログラムやデータには、コンピュータ500全体を制御する基本ソフトウェアであるOS、及びOS上において各種機能を提供するアプリケーション等がある。なお、コンピュータ500はHDD504に替えて、記憶媒体としてフラッシュメモリを用いる記憶装置(例えばSSD:Solid State Drive等)を利用するものであってもよい。 The HDD 504 is an example of a nonvolatile storage device that stores programs and data. The programs and data stored in the HDD 504 include an OS, which is basic software that controls the entire computer 500, and applications that provide various functions on the OS. Note that, instead of the HDD 504, the computer 500 may use a storage device (for example, SSD: Solid State Drive) that uses flash memory as a storage medium.

入力装置505は、ユーザが各種信号を入力するために用いるタッチパネル、操作キーやボタン、キーボードやマウス、音声等の音データを入力するマイクロホン等である。 The input device 505 is a touch panel used by the user to input various signals, operation keys or buttons, a keyboard or mouse, a microphone used to input sound data such as voice, or the like.

表示装置506は、画面を表示する液晶や有機EL(Electro-Luminescence)等のディスプレイ、音声等の音データを出力するスピーカ等で構成されている。 The display device 506 includes a display such as a liquid crystal or organic EL (Electro-Luminescence) that displays a screen, a speaker that outputs sound data such as audio, and the like.

通信I/F507は、通信ネットワークに接続し、コンピュータ500がデータ通信を行うためのインタフェースである。 The communication I/F 507 is an interface that connects to a communication network and allows the computer 500 to perform data communication.

外部I/F508は、外部装置とのインタフェースである。外部装置には、ドライブ装置510等がある。 External I/F 508 is an interface with an external device. The external device includes a drive device 510 and the like.

ドライブ装置510は、記録媒体511をセットするためのデバイスである。ここでいう記録媒体511には、CD-ROM、フレキシブルディスク、光磁気ディスク等のように情報を光学的、電気的あるいは磁気的に記録する媒体が含まれる。また、記録媒体511には、ROM、フラッシュメモリ等のように情報を電気的に記録する半導体メモリ等が含まれていてもよい。これにより、コンピュータ500は外部I/F508を介して記録媒体511の読み取り及び/又は書き込みを行うことができる。 The drive device 510 is a device for setting the recording medium 511. The recording medium 511 here includes a medium that records information optically, electrically, or magnetically, such as a CD-ROM, a flexible disk, and a magneto-optical disk. Further, the recording medium 511 may include a semiconductor memory or the like that electrically records information, such as a ROM or a flash memory. Thereby, the computer 500 can read and/or write to the recording medium 511 via the external I/F 508.

なお、HDD504にインストールされる各種プログラムは、例えば、配布された記録媒体511が外部I/F508に接続されたドライブ装置510にセットされ、記録媒体511に記録された各種プログラムがドライブ装置510により読み出されることでインストールされる。あるいは、HDD504にインストールされる各種プログラムは、通信I/F507を介して、通信ネットワークとは異なる他のネットワークよりダウンロードされることでインストールされてもよい。 Note that the various programs installed on the HDD 504 are, for example, when the distributed recording medium 511 is set in the drive device 510 connected to the external I/F 508, and the various programs recorded on the recording medium 511 are read by the drive device 510. It is installed by Alternatively, various programs to be installed on the HDD 504 may be installed by being downloaded from a network different from the communication network via the communication I/F 507.

<番組演出システムの機能構成>
続いて、本実施形態における番組演出システムの機能構成を、図3を参照しながら説明する。図3は、本実施形態における番組演出システム1の機能構成の一例を示すブロック図である。
<Functional configuration of program production system>
Next, the functional configuration of the program production system in this embodiment will be explained with reference to FIG. 3. FIG. 3 is a block diagram showing an example of the functional configuration of the program production system 1 in this embodiment.

≪番組制作装置の機能構成≫
図3に示されているように、本実施形態における番組制作装置12は、映像取得部121、番組編集部122及び番組送信部123を備える。
≪Functional configuration of program production equipment≫
As shown in FIG. 3, the program production device 12 in this embodiment includes a video acquisition section 121, a program editing section 122, and a program transmission section 123.

映像取得部121、番組編集部122及び番組送信部123は、例えば、図2に示されているHDD504からRAM503上に展開されたプログラムがCPU501に実行させる処理によって実現される。 The video acquisition section 121, the program editing section 122, and the program transmission section 123 are realized, for example, by a process in which a program loaded from the HDD 504 onto the RAM 503 shown in FIG. 2 is executed by the CPU 501.

映像取得部121は、カメラC1からスタジオ映像を取得する。 The video acquisition unit 121 acquires studio video from the camera C1.

番組編集部122は、製作者等の操作に応じて、映像取得部121が取得したスタジオ映像に基づいて、映像番組を生成する。番組編集部122は、スタジオ映像に対して、他の映像素材を組み合わせたり、字幕を挿入したり、効果音や背景音楽を挿入したりすることにより編集を行い、映像番組を生成する。 The program editing section 122 generates a video program based on the studio video acquired by the video acquisition section 121 in response to an operation by a producer or the like. The program editing unit 122 edits the studio video by combining other video materials, inserting subtitles, sound effects, and background music, and generates a video program.

番組送信部123は、番組編集部122が生成した映像番組を映像送信装置13に送信する。また、番組送信部123は、番組編集部122が生成した映像番組を、放送電波N2を介して放送する。 The program transmitter 123 transmits the video program generated by the program editor 122 to the video transmitter 13. Further, the program transmitting section 123 broadcasts the video program generated by the program editing section 122 via the broadcast radio wave N2.

≪映像送信装置の機能構成≫
図3に示されているように、本実施形態における映像送信装置13は、映像取得部131及び映像送信部132を備える。
≪Functional configuration of video transmission device≫
As shown in FIG. 3, the video transmission device 13 in this embodiment includes a video acquisition section 131 and a video transmission section 132.

映像取得部131及び映像送信部132は、例えば、図2に示されているHDD504からRAM503上に展開されたプログラムがCPU501に実行させる処理によって実現される。 The video acquisition unit 131 and the video transmission unit 132 are realized, for example, by a process in which a program loaded from the HDD 504 onto the RAM 503 shown in FIG. 2 is executed by the CPU 501.

映像取得部131は、番組制作装置12から映像番組を受信する。また、映像取得部131は、カメラC2から俯瞰映像を取得する。 The video acquisition unit 131 receives a video program from the program production device 12. Further, the image acquisition unit 131 acquires an overhead image from the camera C2.

映像送信部132は、映像取得部131が取得した映像番組及び俯瞰映像と、映像番組の収録モードを表すモード情報とを、通信ネットワークN1を介して操作端末21に送信する。映像番組の収録モードは、生放送モード、リハーサルモード及び再生モードのいずれかである。モード情報は、製作者等により予め設定される。 The video transmitting unit 132 transmits the video program and the bird's-eye view video acquired by the video acquiring unit 131, and mode information representing the recording mode of the video program to the operating terminal 21 via the communication network N1. The video program recording mode is one of live broadcast mode, rehearsal mode, and playback mode. The mode information is set in advance by the manufacturer or the like.

モード情報は、例えば、映像番組を表す映像信号のMTE(Media Timed Event)に含めることができる。MTEとは、MPEG-DASH(Dynamic Adaptive Streaming over HTTP)動画に含めることができるトリガ信号である。 The mode information can be included, for example, in an MTE (Media Timed Event) of a video signal representing a video program. MTE is a trigger signal that can be included in MPEG-DASH (Dynamic Adaptive Streaming over HTTP) video.

≪操作端末の機能構成≫
図3に示されているように、本実施形態における操作端末21は、映像受信部211、映像表示部212、反応入力部213、モード判定部214及び反応送信部215を備える。
≪Functional configuration of the operating terminal≫
As shown in FIG. 3, the operating terminal 21 in this embodiment includes a video receiving section 211, a video display section 212, a reaction input section 213, a mode determination section 214, and a reaction transmission section 215.

映像受信部211、モード判定部214及び反応送信部215は、例えば、図2に示されているHDD504からRAM503上に展開されたプログラムがCPU501に実行させる処理によって実現される。映像表示部212は、例えば、図2に示されている表示装置506によって実現される。反応入力部213は、例えば、図2に示されている入力装置505によって実現される。 The video receiving section 211, the mode determining section 214, and the reaction transmitting section 215 are realized, for example, by a process that causes the CPU 501 to execute a program loaded from the HDD 504 onto the RAM 503 shown in FIG. The video display unit 212 is realized, for example, by the display device 506 shown in FIG. 2. The reaction input unit 213 is realized, for example, by the input device 505 shown in FIG. 2.

映像受信部211は、映像送信装置13から映像番組、俯瞰映像及びモード情報を受信する。映像受信部211は、受信した映像番組に基づいて、基準時刻を記憶する。基準時刻は、映像番組の進行状況を示す時刻である。基準時刻の一例は、映像番組の開始時刻である。基準時刻の他の例は、映像番組を構成するコーナー又は企画の開始時刻である。基準時刻の他の例は、音楽番組又は演芸番組における演目の開始時刻である。 The video receiving unit 211 receives a video program, an overhead video, and mode information from the video transmitting device 13. The video receiving unit 211 stores a reference time based on the received video program. The reference time is a time that indicates the progress of the video program. An example of the reference time is the start time of a video program. Another example of the reference time is the start time of a corner or project that constitutes a video program. Another example of the reference time is the start time of a program in a music program or entertainment program.

映像表示部212は、映像受信部211が受信した映像番組及び俯瞰映像を、表示装置506等に表示された操作画面に表示する。 The video display unit 212 displays the video program and overhead video received by the video reception unit 211 on an operation screen displayed on the display device 506 or the like.

反応入力部213は、操作画面における視聴者による操作を受け付ける。反応入力部213は、受け付けた操作に基づいて、視聴者による反応を表す反応情報を生成する。反応情報には、視聴者を識別する識別情報(以下、「視聴者ID」とも呼ぶ)、及び視聴者による反応の内容を示す反応内容情報が含まれる。 The reaction input unit 213 accepts operations by the viewer on the operation screen. The reaction input unit 213 generates reaction information representing a reaction by the viewer based on the received operation. The reaction information includes identification information for identifying the viewer (hereinafter also referred to as "viewer ID") and reaction content information indicating the content of the reaction by the viewer.

反応入力部213は、視聴者による操作に基づかずに反応情報を生成してもよい。例えば、反応入力部213は、視聴者に装着したウェアラブルデバイス等を用いて取得される生体情報に基づいて、反応情報を生成してもよい。生体情報は、例えば、脳波、脈拍、呼吸数又は視線等である。また、例えば、反応入力部213は、視聴者の顔画像を用いた感情認識結果又は視聴者の発話を用いた音声認識結果に基づいて、反応情報を生成してもよい。 The reaction input unit 213 may generate reaction information not based on operations by the viewer. For example, the reaction input unit 213 may generate reaction information based on biological information acquired using a wearable device or the like worn by the viewer. The biological information is, for example, brain waves, pulse, breathing rate, or line of sight. Further, for example, the reaction input unit 213 may generate reaction information based on the emotion recognition result using the viewer's facial image or the voice recognition result using the viewer's utterance.

モード判定部214は、映像受信部211が受信したモード情報に基づいて、映像番組の収録モードを判定する。モード判定部214は、収録モードがリハーサルモードである場合、反応時刻を計算する。反応時刻は、映像受信部211が記憶した基準時刻から反応入力部213が反応情報を生成した時刻までの経過時間である。 The mode determining unit 214 determines the recording mode of the video program based on the mode information received by the video receiving unit 211. The mode determination unit 214 calculates the reaction time when the recording mode is the rehearsal mode. The reaction time is the elapsed time from the reference time stored by the video reception unit 211 to the time when the reaction input unit 213 generated reaction information.

反応送信部215は、反応入力部213により生成された反応情報を反応管理装置10に送信する。反応送信部215は、収録モードがリハーサルモードである場合、反応時刻を表す情報を反応情報に含めて反応管理装置10に送信する。 The reaction sending unit 215 sends the reaction information generated by the reaction input unit 213 to the reaction management device 10. When the recording mode is the rehearsal mode, the reaction transmitter 215 includes information representing the reaction time in the reaction information and transmits the reaction information to the reaction management device 10 .

≪受像機の機能構成≫
図3に示されているように、本実施形態における受像機22は、番組受信部221及び番組表示部222を備える。
≪Functional configuration of receiver≫
As shown in FIG. 3, the receiver 22 in this embodiment includes a program receiving section 221 and a program display section 222.

番組受信部221は、放送電波N2を介して映像番組を受信する。 The program receiving unit 221 receives a video program via the broadcast radio wave N2.

番組表示部222は、番組受信部221が受信した映像番組を、液晶ディスプレイ等の表示装置に表示する。 The program display section 222 displays the video program received by the program receiving section 221 on a display device such as a liquid crystal display.

≪反応管理装置の機能構成≫
図3に示されているように、本実施形態における反応管理装置10は、反応受信部101、記憶制御部102、反応記憶部103及び提示制御部104を備える。
≪Functional configuration of reaction control device≫
As shown in FIG. 3, the reaction management device 10 in this embodiment includes a reaction reception section 101, a storage control section 102, a reaction storage section 103, and a presentation control section 104.

反応受信部101、記憶制御部102及び提示制御部104は、例えば、図2に示されているHDD504からRAM503上に展開されたプログラムがCPU501に実行させる処理によって実現される。反応記憶部103は、例えば、図2に示されているHDD504を用いて実現される。 The reaction receiving unit 101, the storage control unit 102, and the presentation control unit 104 are realized, for example, by processing that causes the CPU 501 to execute a program loaded from the HDD 504 onto the RAM 503 shown in FIG. The reaction storage unit 103 is realized using, for example, the HDD 504 shown in FIG. 2.

反応受信部101は、操作端末21から視聴者による反応を表す反応情報を受信する。 The reaction receiving unit 101 receives reaction information representing reactions by viewers from the operating terminal 21 .

記憶制御部102は、反応受信部101が受信した反応情報に反応時刻を表す情報が含まれるとき、反応情報を反応記憶部103に記憶する。 The storage control unit 102 stores the reaction information in the reaction storage unit 103 when the reaction information received by the reaction receiving unit 101 includes information indicating a reaction time.

反応記憶部103には、反応情報が時系列に並べられた反応リストが記憶される。 The reaction storage unit 103 stores a reaction list in which reaction information is arranged in chronological order.

提示制御部104は、反応情報に基づいて反応を提示するための制御信号を、提示装置11に対して送信する。制御信号は、視聴者ID及び制御内容情報を含む。視聴者IDは、反応情報に含まれる視聴者IDである。制御内容情報は、反応情報に含まれる反応内容情報に基づいて生成される。 The presentation control unit 104 transmits a control signal for presenting a reaction based on the reaction information to the presentation device 11. The control signal includes a viewer ID and control content information. The viewer ID is a viewer ID included in the reaction information. The control content information is generated based on the reaction content information included in the reaction information.

制御内容情報は、視聴者による反応に応じて提示装置11に行わせる動作の内容を表す情報である。動作の内容は、例えば、照明器具を発光させる色、明るさ又は点滅パターン等を指定する情報である。 The control content information is information representing the content of the operation to be performed by the presentation device 11 in response to a reaction by the viewer. The content of the operation is, for example, information specifying the color, brightness, blinking pattern, etc. in which the lighting equipment emits light.

提示制御部104は、反応記憶部103に反応リストが記憶されているときは、反応リストに含まれる反応情報に基づいて、番組進行と反応時刻とが同期するように、制御信号を提示装置11に送信する。一方、反応記憶部103に反応リストが記憶されていないときは、提示制御部104は、反応受信部101が受信した反応情報に基づいて、即時に制御信号を提示装置11に送信する。 When the reaction list is stored in the reaction storage unit 103, the presentation control unit 104 sends a control signal to the presentation device 11 based on the reaction information included in the reaction list so that the program progress and the reaction time are synchronized. Send to. On the other hand, when the reaction list is not stored in the reaction storage section 103, the presentation control section 104 immediately transmits a control signal to the presentation device 11 based on the reaction information received by the reaction reception section 101.

なお、上記のとおり、反応リストは映像番組の収録モードがリハーサルであるときに記憶される。したがって、反応記憶部103に反応リストが記憶されているときとは、リハーサルが行われた後に本番放送が行われているときに相当する。 Note that, as described above, the reaction list is stored when the recording mode of the video program is rehearsal. Therefore, the time when the reaction list is stored in the reaction storage unit 103 corresponds to the time when the actual broadcast is being performed after the rehearsal has been performed.

≪提示装置の機能構成≫
図3に示されているように、本実施形態における提示装置11は、信号受信部111及び1以上の反応提示部112を備える。反応提示部112の数は、少なくとも視聴者の数と同数となるように構成される。各反応提示部112は、視聴者IDが割り当てられており、各視聴者と一対一に対応付けられている。
≪Functional configuration of presentation device≫
As shown in FIG. 3, the presentation device 11 in this embodiment includes a signal receiving section 111 and one or more reaction presentation sections 112. The number of reaction presentation units 112 is configured to be at least the same as the number of viewers. Each reaction presentation unit 112 is assigned a viewer ID and is associated with each viewer on a one-to-one basis.

信号受信部111は、反応管理装置10から制御信号を受信する。信号受信部111は、制御信号に含まれる視聴者IDが割り当てられた反応提示部112に、制御信号に含まれる制御内容情報を送る。 The signal receiving unit 111 receives a control signal from the reaction management device 10. The signal receiving unit 111 sends the control content information included in the control signal to the reaction presentation unit 112 to which the viewer ID included in the control signal is assigned.

反応提示部112は、信号受信部111から受け取った制御内容情報に従って、視聴者の反応を提示するための動作を行う。反応を提示するための動作は、例えば、制御内容情報で指定された色、明るさ又は点滅パターン等で照明器具を発光させる動作である。 The reaction presentation section 112 performs an operation for presenting the viewer's reaction according to the control content information received from the signal reception section 111. The action for presenting a reaction is, for example, an action of causing a lighting fixture to emit light in a color, brightness, blinking pattern, etc. specified by the control content information.

<番組演出システムの処理手順>
次に、本実施形態における番組演出システム1が実行する番組演出方法の処理手順を、図4を参照しながら説明する。図4は、本実施形態における番組演出方法の処理手順の一例を示すフローチャートである。
<Processing procedure of program production system>
Next, the processing procedure of the program production method executed by the program production system 1 in this embodiment will be explained with reference to FIG. 4. FIG. 4 is a flowchart showing an example of the processing procedure of the program production method in this embodiment.

ステップS1において、番組制作装置12が備える映像取得部121は、カメラC1からスタジオ映像を取得する。次に、映像取得部121は、取得したスタジオ映像を番組編集部122に送る。 In step S1, the video acquisition unit 121 included in the program production device 12 acquires studio video from the camera C1. Next, the video acquisition unit 121 sends the acquired studio video to the program editing unit 122.

番組編集部122は、映像取得部121からスタジオ映像を受け取る。次に、番組編集部122は、製作者等の操作に応じて、スタジオ映像を編集し、映像番組を生成する。続いて、番組編集部122は、生成した映像番組を番組送信部123に送る。 The program editing section 122 receives studio video from the video acquisition section 121. Next, the program editing unit 122 edits the studio video according to the operations of the producer and the like to generate a video program. Subsequently, the program editing section 122 sends the generated video program to the program transmitting section 123.

番組送信部123は、番組編集部122から映像番組を受け取る。続いて、番組送信部123は、受け取った映像番組を映像送信装置13に送信する。 The program transmitting section 123 receives the video program from the program editing section 122. Subsequently, the program transmitter 123 transmits the received video program to the video transmitter 13.

映像送信装置13では、映像取得部131が、番組制作装置12から映像番組を受信する。次に、映像取得部131は、カメラC2から俯瞰映像を取得する。続いて、映像取得部131は、取得した映像番組及び俯瞰映像を映像送信部132に送る。 In the video transmission device 13 , a video acquisition unit 131 receives a video program from the program production device 12 . Next, the image acquisition unit 131 acquires an overhead image from the camera C2. Subsequently, the video acquisition unit 131 sends the acquired video program and bird's-eye view video to the video transmission unit 132.

映像送信部132は、映像番組及び俯瞰映像を映像取得部131から受け取る。次に、映像送信部132は、映像番組、俯瞰映像及び予め設定されたモード情報を、通信ネットワークN1を介して操作端末21に送信する。 The video transmitter 132 receives the video program and the bird's-eye view video from the video acquirer 131. Next, the video transmitter 132 transmits the video program, the bird's-eye view video, and the preset mode information to the operating terminal 21 via the communication network N1.

ステップS2において、操作端末21が備える映像受信部211は、映像番組、俯瞰映像及びモード情報を映像送信装置13から受信する。次に、映像受信部211は、受信した映像番組に基づいて、基準時刻を記憶する。続いて、映像受信部211は、映像番組及び俯瞰映像を映像表示部212に送る。また、映像受信部211は、モード情報をモード判定部214に送る。 In step S2, the video receiving unit 211 included in the operating terminal 21 receives the video program, the bird's-eye view video, and the mode information from the video transmitting device 13. Next, the video receiving unit 211 stores a reference time based on the received video program. Subsequently, the video receiving section 211 sends the video program and the bird's-eye view video to the video display section 212. Further, the video receiving section 211 sends mode information to the mode determining section 214.

映像表示部212は、映像受信部211から映像番組及び俯瞰映像を受け取る。次に、映像表示部212は、受け取った映像番組及び俯瞰映像を表示装置506等に表示された操作画面に表示する。 The video display section 212 receives the video program and the overhead video from the video reception section 211. Next, the video display unit 212 displays the received video program and bird's-eye view video on an operation screen displayed on the display device 506 or the like.

ステップS3において、操作端末21が備える反応入力部213は、操作画面における視聴者による操作を受け付ける。次に、反応入力部213は、受け付けた操作に基づいて、反応情報を生成する。続いて、反応入力部213は、反応情報を反応送信部215に送る。 In step S3, the reaction input unit 213 included in the operation terminal 21 receives an operation by the viewer on the operation screen. Next, the reaction input unit 213 generates reaction information based on the received operation. Subsequently, the reaction input section 213 sends the reaction information to the reaction transmission section 215.

≪操作画面≫
ここで、本実施形態における操作画面について、図5を参照しながら説明する。図5は、本実施形態における操作画面の一例を示す概念図である。
≪Operation screen≫
Here, the operation screen in this embodiment will be explained with reference to FIG. 5. FIG. 5 is a conceptual diagram showing an example of an operation screen in this embodiment.

図5に示されているように、本実施形態における操作画面1000は、映像番組表示領域1010、俯瞰映像表示領域1020及び操作領域1030を有する。 As shown in FIG. 5, the operation screen 1000 in this embodiment includes a video program display area 1010, an overhead video display area 1020, and an operation area 1030.

映像番組表示領域1010には、映像番組が表示される。俯瞰映像表示領域1020には、俯瞰映像が表示される。操作領域1030には視聴者による反応を入力するための入力項目が表示される。 A video program is displayed in the video program display area 1010. An overhead view image is displayed in the overhead view image display area 1020. Input items for inputting reactions by the viewer are displayed in the operation area 1030.

操作領域1030には、点灯状態選択欄1031、色表示欄1032及び色選択欄1033が含まれる。点灯状態選択欄1031には、視聴者に対応付けられた照明器具の現在の点灯状態(オン又はオフ)が表示される。色表示欄1032には、視聴者に対応付けられた照明器具の現在の発光色が表示される。色選択欄1033には、照明器具で発光可能な色が表示される。 The operation area 1030 includes a lighting state selection field 1031, a color display field 1032, and a color selection field 1033. The lighting state selection field 1031 displays the current lighting state (on or off) of the lighting fixture associated with the viewer. The color display column 1032 displays the current color of light emitted from the lighting fixture associated with the viewer. The color selection column 1033 displays colors that can be emitted by the lighting equipment.

点灯状態選択欄1031を操作することで、照明器具の点灯状態を切り替えるための操作が受け付けられる。色選択欄1033において所望の色を選択することで、照明器具の発光色を変更するための操作が受け付けられる。 By operating the lighting state selection field 1031, an operation for switching the lighting state of the lighting fixture is accepted. By selecting a desired color in the color selection field 1033, an operation for changing the emitted light color of the lighting fixture is accepted.

図5に示されている操作画面1000は一例であって、映像番組及び俯瞰映像は任意の態様で表示することができる。例えば、映像番組と俯瞰映像とを異なるウィンドウで表示し、視聴者の操作により表示する映像を切り替えてもよい。また、操作領域1030に表示される入力項目は、提示装置11の構成によって異なる。操作領域1030は、提示装置11が動作可能な項目であれば、どのような入力項目を有していてもよい。 The operation screen 1000 shown in FIG. 5 is an example, and the video program and the bird's-eye view video can be displayed in any manner. For example, the video program and the bird's-eye view video may be displayed in different windows, and the displayed video may be switched by the viewer's operation. Furthermore, the input items displayed in the operation area 1030 differ depending on the configuration of the presentation device 11. The operation area 1030 may have any input items as long as they are operable by the presentation device 11.

図4に戻って説明する。ステップS4において、操作端末21が備えるモード判定部214は、モード情報を映像受信部211から受け取る。次に、モード判定部214は、受け取ったモード情報に基づいて、映像番組の収録モードを判定する。収録モードが生放送モードである場合、モード判定部214は、ステップS5に処理を進める。収録モードがリハーサルモードである場合、モード判定部214は、ステップS8に処理を進める。収録モードが再生モードである場合、モード判定部214は、ステップS13に処理を進める。 The explanation will be returned to FIG. 4. In step S4, the mode determining unit 214 included in the operating terminal 21 receives mode information from the video receiving unit 211. Next, the mode determining unit 214 determines the recording mode of the video program based on the received mode information. If the recording mode is the live broadcast mode, the mode determination unit 214 advances the process to step S5. If the recording mode is the rehearsal mode, the mode determination unit 214 advances the process to step S8. If the recording mode is the playback mode, the mode determination unit 214 advances the process to step S13.

≪収録モードが生放送モードである場合≫
ステップS5において、操作端末21が備える反応送信部215は、反応情報を反応入力部213から受け取る。次に、反応送信部215は、受け取った反応情報を反応管理装置10に送信する。
≪When the recording mode is live broadcast mode≫
In step S5, the reaction transmission section 215 included in the operation terminal 21 receives reaction information from the reaction input section 213. Next, the reaction transmitter 215 transmits the received reaction information to the reaction management device 10.

反応管理装置10では、反応受信部101が、反応情報を操作端末21から受信する。次に、反応受信部101は、受信した反応情報を提示制御部104に送る。 In the reaction management device 10 , the reaction receiving section 101 receives reaction information from the operating terminal 21 . Next, the reaction receiving section 101 sends the received reaction information to the presentation control section 104.

ステップS6において、反応管理装置10が備える提示制御部104は、反応受信部101から反応情報を受け取る。次に、提示制御部104は、受け取った反応情報に基づいて、制御信号を生成する。続いて、提示制御部104は、生成した制御信号を提示装置11に送信する。 In step S6, the presentation control unit 104 included in the reaction management device 10 receives reaction information from the reaction reception unit 101. Next, the presentation control unit 104 generates a control signal based on the received reaction information. Subsequently, the presentation control unit 104 transmits the generated control signal to the presentation device 11.

提示装置11では、信号受信部111が、反応管理装置10から制御信号を受信する。次に、信号受信部111は、制御信号に含まれる視聴者IDに対応する反応提示部112に、制御信号に含まれる制御内容情報を送る。 In the presentation device 11 , a signal receiving unit 111 receives a control signal from the reaction management device 10 . Next, the signal receiving section 111 sends the control content information included in the control signal to the reaction presentation section 112 corresponding to the viewer ID included in the control signal.

反応提示部112は、信号受信部111から制御内容情報を受け取る。次に、反応提示部112は、受け取った制御内容情報に基づいて、視聴者の反応を提示するための動作を行う。 The reaction presenting section 112 receives control content information from the signal receiving section 111. Next, the reaction presentation unit 112 performs an operation for presenting the viewer's reaction based on the received control content information.

ステップS7において、反応管理装置10が備える提示制御部104は、生放送による映像番組が終了しているか否か、及び操作端末21が終了しているか否かを判定する。映像番組が終了しているとき、又は操作端末21が終了しているとき、提示制御部104は、処理を終了する。映像番組が終了していないとき、かつ操作端末21が終了していないとき、提示制御部104は、ステップS3に処理を戻す。 In step S7, the presentation control unit 104 included in the reaction management device 10 determines whether the live video program has ended and whether the operation terminal 21 has ended. When the video program has ended or when the operating terminal 21 has ended, the presentation control unit 104 ends the process. When the video program has not ended and when the operation terminal 21 has not ended, the presentation control unit 104 returns the process to step S3.

≪収録モードがリハーサルモードである場合≫
ステップS8において、操作端末21が備えるモード判定部214は、映像受信部211が記憶した基準時刻からの経過時間を、反応時刻として計算する。次に、モード判定部214は、計算した反応時刻を反応送信部215に送る。
≪When the recording mode is rehearsal mode≫
In step S8, the mode determining unit 214 included in the operating terminal 21 calculates the elapsed time from the reference time stored by the video receiving unit 211 as the reaction time. Next, the mode determining unit 214 sends the calculated reaction time to the reaction transmitting unit 215.

ステップS9において、操作端末21が備える反応送信部215は、反応入力部213から反応情報を受け取る。次に、反応送信部215は、モード判定部214から反応時刻を受け取る。続いて、反応送信部215は、反応時刻を表す情報を反応情報に含めて反応管理装置10に送信する。 In step S9, the reaction transmission section 215 included in the operation terminal 21 receives reaction information from the reaction input section 213. Next, the reaction transmitting section 215 receives the reaction time from the mode determining section 214. Subsequently, the reaction transmitter 215 includes information representing the reaction time in the reaction information and transmits the reaction information to the reaction management device 10 .

反応管理装置10では、反応受信部101が、反応情報を操作端末21から受信する。次に、反応受信部101は、反応情報を記憶制御部102に送る。 In the reaction management device 10 , the reaction receiving section 101 receives reaction information from the operating terminal 21 . Next, the reaction receiving section 101 sends the reaction information to the storage control section 102.

ステップS10において、反応管理装置10が備える記憶制御部102は、反応受信部101から反応情報を受け取る。次に、記憶制御部102は、受け取った反応情報を反応記憶部103に記憶されている反応リストの末尾に記憶する。続いて、記憶制御部102は、反応情報を提示制御部104に送る。 In step S<b>10 , the storage control unit 102 included in the reaction management device 10 receives reaction information from the reaction reception unit 101 . Next, the storage control unit 102 stores the received reaction information at the end of the reaction list stored in the reaction storage unit 103. Subsequently, the storage control unit 102 sends the reaction information to the presentation control unit 104.

ステップS11において、反応管理装置10が備える提示制御部104は、記憶制御部102から反応情報を受け取る。次に、提示制御部104は、受け取った反応情報に基づいて、制御信号を生成する。続いて、提示制御部104は、生成した制御信号を提示装置11に送信する。 In step S11, the presentation control unit 104 included in the reaction management device 10 receives reaction information from the storage control unit 102. Next, the presentation control unit 104 generates a control signal based on the received reaction information. Subsequently, the presentation control unit 104 transmits the generated control signal to the presentation device 11.

提示装置11では、信号受信部111が、反応管理装置10から制御信号を受信する。次に、信号受信部111は、制御信号に含まれる視聴者IDに対応する反応提示部112に、制御信号に含まれる制御内容情報を送る。 In the presentation device 11 , a signal receiving unit 111 receives a control signal from the reaction management device 10 . Next, the signal receiving section 111 sends the control content information included in the control signal to the reaction presentation section 112 corresponding to the viewer ID included in the control signal.

反応提示部112は、信号受信部111から制御内容情報を受け取る。次に、反応提示部112は、受け取った制御内容情報に基づいて、視聴者の反応を提示するための動作を行う。 The reaction presenting section 112 receives control content information from the signal receiving section 111. Next, the reaction presentation unit 112 performs an operation for presenting the viewer's reaction based on the received control content information.

ステップS12において、反応管理装置10が備える提示制御部104は、リハーサルによる映像番組が終了しているか否か、及び操作端末21が終了しているか否かを判定する。映像番組が終了しているとき、又は操作端末21が終了しているとき、提示制御部104は、ステップS13に処理を進める。映像番組が終了していないとき、かつ操作端末21が終了していないとき、提示制御部104は、ステップS3に処理を戻す。 In step S12, the presentation control unit 104 included in the reaction management device 10 determines whether the rehearsal video program has ended and whether the operation terminal 21 has ended or not. When the video program has ended or when the operation terminal 21 has ended, the presentation control unit 104 advances the process to step S13. When the video program has not ended and when the operation terminal 21 has not ended, the presentation control unit 104 returns the process to step S3.

≪収録モードが再生モードである場合≫
ステップS13において、番組制作装置12が備える番組送信部123は、製作者等の操作に応じて、本番放送を開始する。具体的には、番組送信部123は、番組編集部122が生成した映像番組を、放送電波N2を介して放送する。
<<When recording mode is playback mode>>
In step S13, the program transmitter 123 included in the program production device 12 starts the actual broadcast in response to an operation by the producer or the like. Specifically, the program transmitter 123 broadcasts the video program generated by the program editor 122 via the broadcast radio wave N2.

視聴施設E3では、受像機22が備える番組受信部221が、放送電波N2を介して映像番組を受信する。次に、番組受信部221は、映像番組を番組表示部222に送る。 In the viewing facility E3, a program receiving section 221 included in the television receiver 22 receives the video program via the broadcast wave N2. Next, the program receiving section 221 sends the video program to the program display section 222.

番組表示部222は、番組受信部221から映像番組を受け取る。次に、番組表示部222は、受け取った映像番組を液晶ディスプレイ等の表示装置に表示する。 The program display section 222 receives the video program from the program reception section 221. Next, the program display unit 222 displays the received video program on a display device such as a liquid crystal display.

ステップS14において、反応管理装置10が備える提示制御部104は、反応記憶部103から反応リストを読み出す。次に、提示制御部104は、反応リストに含まれる反応情報に基づいて、制御信号を生成する。続いて、提示制御部104は、番組進行と反応時刻とが同期するように、制御信号を提示装置11に送信する。 In step S14, the presentation control unit 104 included in the reaction management device 10 reads the reaction list from the reaction storage unit 103. Next, the presentation control unit 104 generates a control signal based on the reaction information included in the reaction list. Subsequently, the presentation control unit 104 transmits a control signal to the presentation device 11 so that the program progress and the reaction time are synchronized.

提示装置11では、信号受信部111が、反応管理装置10から制御信号を受信する。次に、信号受信部111は、制御信号に含まれる視聴者IDに対応する反応提示部112に、制御信号に含まれる制御内容情報を送る。 In the presentation device 11 , a signal receiving unit 111 receives a control signal from the reaction management device 10 . Next, the signal receiving section 111 sends the control content information included in the control signal to the reaction presentation section 112 corresponding to the viewer ID included in the control signal.

反応提示部112は、信号受信部111から制御内容情報を受け取る。次に、反応提示部112は、受け取った制御内容情報に基づいて、視聴者の反応を提示するための動作を行う。 The reaction presenting section 112 receives control content information from the signal receiving section 111. Next, the reaction presentation unit 112 performs an operation for presenting the viewer's reaction based on the received control content information.

<実施形態の効果>
本実施形態における番組演出システムは、映像番組を視聴する視聴者が用いる操作端末から視聴者による反応を表す反応情報を受信し、撮影スタジオに設置された提示装置から視聴者による反応を提示する。したがって、本実施形態における番組演出システムによれば、視聴者の反応を撮影スタジオに反映することができる。
<Effects of embodiment>
The program production system in this embodiment receives reaction information representing reactions by viewers from an operation terminal used by viewers who view a video program, and presents reactions by the viewers from a presentation device installed in a shooting studio. Therefore, according to the program production system of this embodiment, the reactions of viewers can be reflected in the shooting studio.

特に、本実施形態における番組演出システムは、リハーサルを視聴する視聴者による反応を表す反応情報を、反応時刻と関連付けて反応リストに記録し、その後に行われる本番放送では反応リストに記録された反応情報に基づいて、提示装置から視聴者による反応を提示する。したがって、本実施形態における番組演出システムによれば、視聴者の反応を受信する際の伝送遅延に影響されず、番組進行と同期して視聴者の反応を提示することができる。 In particular, the program production system in this embodiment records reaction information representing reactions by viewers viewing a rehearsal in a reaction list in association with reaction times, and in the subsequent actual broadcast, reactions recorded in the reaction list are recorded. Based on the information, the presentation device presents a reaction by the viewer. Therefore, according to the program production system of this embodiment, the viewer's reactions can be presented in synchronization with the progress of the program without being affected by transmission delays when receiving the viewer's reactions.

さらに、本実施形態における番組演出システムは、各視聴者と一対一に対応する提示装置から、各視聴者による反応を提示する。また、本実施形態における番組演出システムは、提示装置を撮影した撮影スタジオの俯瞰映像を視聴者に対して表示する。したがって、本実施形態における番組演出システムによれば、視聴者に自身の反応が番組演出に反映されていることを認識させることができ、視聴者の参加感を向上することができる。 Furthermore, the program production system in this embodiment presents reactions by each viewer from a presentation device that corresponds one-on-one with each viewer. Furthermore, the program production system according to the present embodiment displays to the viewer an overhead video of the shooting studio in which the presentation device was photographed. Therefore, according to the program production system of this embodiment, viewers can be made aware that their own reactions are reflected in the program production, and the viewer's sense of participation can be improved.

例えば、本実施形態における番組演出システムは、複数の色で発光可能な照明器具を用いて、視聴者の反応に応じた色、明るさ又は点滅パターン等で照明器具を発光させる。したがって、本実施形態における番組演出システムによれば、視覚を通じて直感的に視聴者の反応を把握することができる。 For example, the program production system in this embodiment uses lighting equipment that can emit light in a plurality of colors, and causes the lighting equipment to emit light in a color, brightness, blinking pattern, etc. depending on the viewer's reaction. Therefore, according to the program production system of this embodiment, it is possible to intuitively grasp the viewer's reaction visually.

[変形例]
上記の実施形態では、収録モードが生放送モード、リハーサルモード及び再生モードのいずれかであり、収録モードに応じて反応情報を提示するための処理を切り替える例を説明した。ここで、同一の番組内であっても演出に合わせて処理を切り替えてもよい。
[Modified example]
In the above embodiment, an example has been described in which the recording mode is one of live broadcast mode, rehearsal mode, and playback mode, and the process for presenting reaction information is switched depending on the recording mode. Here, the processing may be switched according to the performance even within the same program.

例えば、遅延が許容されないシーンでは収録モードをリハーサルモードに設定し、事前に収集した反応情報を用いて番組進行と同期しながら視聴者の反応を提示するように構成してもよい。一方、遅延が許容されるシーンでは収録モードを生放送モードに設定し、操作端末から受信した反応情報を用いて即時に視聴者の反応を提示するように構成してもよい。 For example, the recording mode may be set to rehearsal mode in a scene where delay is not acceptable, and the viewer's reactions may be presented in synchronization with the progress of the program using reaction information collected in advance. On the other hand, in scenes where a delay is acceptable, the recording mode may be set to live broadcast mode, and the viewer's reaction may be immediately presented using reaction information received from the operating terminal.

遅延が許容されないシーンとは、例えば、音楽番組における楽曲演奏や、演芸番組における演目披露等が挙げられる。遅延が許容されるシーンとは、スポーツ中継やトーク番組等が挙げられる。 Scenes in which delays are not tolerated include, for example, the performance of music in a music program, the presentation of a program in an entertainment program, and the like. Scenes where delays are acceptable include sports broadcasts, talk shows, and the like.

このように、事前に収集した反応情報と操作端末から受信した反応情報とを、演出の性質に応じて適切に使い分けることで、撮影スタジオの盛り上がりと視聴者の参加感とをバランスよく向上することが可能となる。 In this way, by appropriately using the reaction information collected in advance and the reaction information received from the operation terminal depending on the nature of the production, it is possible to improve the excitement in the shooting studio and the sense of participation of the viewers in a well-balanced manner. becomes possible.

[補足]
上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」とは、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)や従来の回路モジュール等の機器を含むものとする。
[supplement]
Each function of the embodiments described above can be realized by one or more processing circuits. Here, the term "processing circuit" as used herein refers to a processor programmed to execute each function by software, such as a processor implemented by an electronic circuit, or a processor designed to execute each function explained above. This includes devices such as ASICs (Application Specific Integrated Circuits), DSPs (Digital Signal Processors), FPGAs (Field Programmable Gate Arrays), and conventional circuit modules.

以上、本発明の実施の形態について詳述したが、本発明はこれらの実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形又は変更が可能である。 Although the embodiments of the present invention have been described in detail above, the present invention is not limited to these embodiments, and various modifications or variations can be made within the scope of the gist of the present invention as described in the claims. Changes are possible.

1 番組演出システム
10 反応管理装置
101 反応受信部
102 記憶制御部
103 反応記憶部
104 提示制御部
11 提示装置
111 信号受信部
112 反応提示部
12 番組制作装置
121 映像取得部
122 番組編集部
123 番組送信部
13 映像送信装置
131 映像取得部
132 映像送信部
21 操作端末
211 映像受信部
212 映像表示部
213 反応入力部
214 モード判定部
215 反応送信部
22 受像機
221 番組受信部
222 番組表示部
1 Program production system 10 Reaction management device 101 Reaction reception section 102 Storage control section 103 Reaction storage section 104 Presentation control section 11 Presentation device 111 Signal reception section 112 Reaction presentation section 12 Program production device 121 Video acquisition section 122 Program editing section 123 Program transmission Section 13 Video transmission device 131 Video acquisition section 132 Video transmission section 21 Operation terminal 211 Video reception section 212 Video display section 213 Reaction input section 214 Mode judgment section 215 Reaction transmission section 22 Receiver 221 Program reception section 222 Program display section

Claims (8)

映像を視聴する視聴者が用いる操作端末及び前記映像を収録する撮影スタジオに設置された提示装置と通信可能な反応管理装置であって、
前記操作端末から前記視聴者による反応を表す反応情報を受信する反応受信部と、
前記反応情報に基づいて前記提示装置に対して前記反応を提示するための制御信号を送信する提示制御部と、
を備える反応管理装置。
A reaction management device capable of communicating with an operating terminal used by a viewer viewing a video and a presentation device installed in a filming studio where the video is recorded,
a reaction receiving unit that receives reaction information representing a reaction by the viewer from the operation terminal;
a presentation control unit that transmits a control signal for presenting the reaction to the presentation device based on the reaction information;
A reaction management device comprising:
請求項1に記載の反応管理装置であって、
前記映像における基準時刻からの経過時間を前記反応情報と関連付けて記憶部に記憶する記憶制御部をさらに備える、
反応管理装置。
The reaction management device according to claim 1,
further comprising a storage control unit that stores in a storage unit an elapsed time from a reference time in the video in association with the reaction information;
Reaction control device.
請求項2に記載の反応管理装置であって、
前記提示制御部は、
前記記憶部に前記反応情報が記憶されているとき、前記記憶部に記憶された前記反応情報に基づいて前記制御信号を送信し、
前記記憶部に前記反応情報が記憶されていないとき、前記反応受信部が受信した前記反応情報に基づいて前記制御信号を送信する、
反応管理装置。
The reaction management device according to claim 2,
The presentation control unit includes:
When the reaction information is stored in the storage unit, transmitting the control signal based on the reaction information stored in the storage unit,
when the reaction information is not stored in the storage unit, transmitting the control signal based on the reaction information received by the reaction receiving unit;
Reaction control device.
請求項1に記載の反応管理装置であって、
前記映像は、前記提示装置を撮影した映像を含む、
反応管理装置。
The reaction management device according to claim 1,
The video includes a video captured by the presentation device.
Reaction control device.
請求項1に記載の反応管理装置であって、
前記提示装置は、前記撮影スタジオに存在する人物が視覚、聴覚又は触覚を通じて知覚可能に前記反応を提示する、
反応管理装置。
The reaction management device according to claim 1,
The presentation device presents the reaction so that a person present in the photography studio can perceive it through sight, hearing, or touch.
Reaction control device.
請求項5に記載の反応管理装置であって、
前記提示装置は、複数の色で発光可能な照明器具であり、
前記提示制御部は、前記反応に応じた色、明るさ又は点滅パターンで前記照明器具を発光させる、
反応管理装置。
The reaction management device according to claim 5,
The presentation device is a lighting device that can emit light in multiple colors,
The presentation control unit causes the lighting device to emit light in a color, brightness, or blinking pattern according to the reaction.
Reaction control device.
請求項6に記載の反応管理装置であって、
前記提示装置は、前記視聴者と一対一に対応付けられた複数の前記照明器具を含む、
反応管理装置。
The reaction management device according to claim 6,
The presentation device includes a plurality of the lighting fixtures in one-to-one correspondence with the viewer.
Reaction control device.
コンピュータを請求項1から7のいずれかに記載の反応管理装置として機能させるためのプログラム。 A program for causing a computer to function as the reaction management device according to any one of claims 1 to 7.
JP2022096213A 2022-06-15 2022-06-15 Reaction management device and program Pending JP2023182937A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022096213A JP2023182937A (en) 2022-06-15 2022-06-15 Reaction management device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022096213A JP2023182937A (en) 2022-06-15 2022-06-15 Reaction management device and program

Publications (1)

Publication Number Publication Date
JP2023182937A true JP2023182937A (en) 2023-12-27

Family

ID=89321335

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022096213A Pending JP2023182937A (en) 2022-06-15 2022-06-15 Reaction management device and program

Country Status (1)

Country Link
JP (1) JP2023182937A (en)

Similar Documents

Publication Publication Date Title
KR102619771B1 (en) Remotely performance directing system and method
JP4655190B2 (en) Information processing apparatus and method, recording medium, and program
US9483228B2 (en) Live engine
US20150124171A1 (en) Multiple vantage point viewing platform and user interface
US20190089996A1 (en) Virtualized and automated real time video production system
US20110304735A1 (en) Method for Producing a Live Interactive Visual Immersion Entertainment Show
US20180227501A1 (en) Multiple vantage point viewing platform and user interface
EP2926626B1 (en) Method for creating ambience lighting effect based on data derived from stage performance
US9883244B2 (en) Multi-source video navigation
CN103368932A (en) Multi-screen video playback system and related multi-screen control device
WO2012100114A2 (en) Multiple viewpoint electronic media system
US10664225B2 (en) Multi vantage point audio player
JP2024019661A (en) Information processing device, information processing method, and information processing program
WO2017002642A1 (en) Information device and display processing method
US20150304724A1 (en) Multi vantage point player
KR102242371B1 (en) Live untact studio broadcasting system and its operating method
JP2023182937A (en) Reaction management device and program
US11871046B2 (en) Method and system for production and presentation of live performance with virtual venue to plurality of remote audience devices by cloud-based interactive video communications
CN115767158A (en) Synchronous playing method, terminal equipment and storage medium
CN112004100B (en) Driving method for integrating multiple audio and video sources into single audio and video source
JP2016213667A (en) Feeling feed-back device
US11985380B2 (en) Video output method and video output apparatus
EP3321795A1 (en) An apparatus and associated methods
US20230269435A1 (en) System and method for the creation and management of virtually enabled studio
KR102625045B1 (en) Video editing device, video editing method, and computer program