JP2020030223A - Collaborative display system - Google Patents

Collaborative display system Download PDF

Info

Publication number
JP2020030223A
JP2020030223A JP2016238929A JP2016238929A JP2020030223A JP 2020030223 A JP2020030223 A JP 2020030223A JP 2016238929 A JP2016238929 A JP 2016238929A JP 2016238929 A JP2016238929 A JP 2016238929A JP 2020030223 A JP2020030223 A JP 2020030223A
Authority
JP
Japan
Prior art keywords
display
terminal
information
server
light emission
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016238929A
Other languages
Japanese (ja)
Inventor
村上 知広
Tomohiro Murakami
知広 村上
有 珍田
Yu Chinda
有 珍田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Octrise Ltd
Original Assignee
Octrise Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Octrise Ltd filed Critical Octrise Ltd
Priority to JP2016238929A priority Critical patent/JP2020030223A/en
Priority to PCT/JP2017/042512 priority patent/WO2018105436A1/en
Publication of JP2020030223A publication Critical patent/JP2020030223A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F19/00Advertising or display means not otherwise provided for
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/12Synchronisation between the display unit and other units, e.g. other display units, video-disc players
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk

Abstract

To provide a collaborative display system characterized in that plural terminals each having a display part collaborate with one another to constitute a sole pseudo display.SOLUTION: A terminal 3 downloads motion picture data, which contains all-pixel display information on a content, from a server 2 (step S101), and receives entry of a seat number 5 from a user (step S102). Thereafter, the terminal 3 identifies a pixel position of a responsible pixel on the basis of the entered seat number and map data 20 (step S103), and produces output data of the responsible pixel on the basis of the identified pixel position (step S104).SELECTED DRAWING: Figure 4

Description

本発明は、表示部を有する複数の端末が連携して単一の擬似ディスプレイを構成する連携表示システムに関するものである。   The present invention relates to a cooperative display system in which a plurality of terminals having a display unit cooperate to configure a single pseudo display.

従来、コンサートなどのイベントにおいて、観客がケミカルライトや電池式のペンライトを用いて歌手などを応援することが行われている。近年は、無線通信を介して制御可能なペンライトも存在する(特許文献1参照)。特許文献1に記載のペンライトによれば、一斉に消灯、点灯、色の変更を行うことができ、会場の一体感を演出することができる。   2. Description of the Related Art Conventionally, in events such as concerts, spectators have cheered on singers using chemical lights or battery-powered penlights. In recent years, there is also a penlight that can be controlled via wireless communication (see Patent Document 1). According to the penlight described in Patent Literature 1, it is possible to simultaneously turn off, turn on, and change the color, thereby producing a sense of unity in the venue.

また、特許文献2には、より汎用性が高く、各装置が統一的な動作を行う協働システムが開示されている。特許文献2に記載の協働システムによれば、親機が信号を発信し、協働装置が信号を受信するとともに、他の協働装置に同様の信号を送信することを繰り返すので、波紋が広がるように信号を伝えていくことができる。   Further, Patent Literature 2 discloses a cooperative system having higher versatility and in which each device performs unified operation. According to the cooperative system described in Patent Literature 2, the master unit transmits a signal, the cooperating device receives the signal, and repeatedly transmits the same signal to another cooperating device. We can convey signal to spread.

特許第5910192号公報Japanese Patent No. 5910192 実用新案登録第3193196号公報Japanese Utility Model Registration No. 3193196

しかしながら、特許文献1及び2のいずれにおいても、ペンライトや協働装置の正確な位置を把握することについて記載されていないため、ペンライトや協働装置が連動して巨大な単一の擬似ディスプレイを構成することはできない。   However, neither Patent Literature 1 nor Patent Document 2 describes that the exact position of the penlight or the cooperating device is grasped. Cannot be constructed.

本発明は、前述した問題点に鑑みてなされたものであり、その目的とすることは、表示部を有する複数の端末が連携して単一の擬似ディスプレイを構成する連携表示システムを提供することである。   The present invention has been made in view of the above-described problems, and an object of the present invention is to provide a cooperative display system in which a plurality of terminals having a display unit cooperate to form a single pseudo-display. It is.

前述した目的を達成するための第1の発明は、表示部を有する複数の端末が連携して単一の擬似ディスプレイを構成し、動画像のコンテンツを表示する連携表示システムであって、前記端末と通信可能なサーバを備え、前記端末が、前記コンテンツの全画素の表示情報を含む動画データを記憶するステップと、前記端末が、座席番号の入力を受け付けるステップと、前記端末が、前記座席番号と前記擬似ディスプレイ内の画素位置との対応付けを示すマップデータに基づいて、自らが担当する画素の前記画素位置を特定するステップと、前記端末が、前記動画データの中から、特定される前記画素位置に関する前記表示情報を抽出するステップと、を含む事前準備処理と、前記端末が、前記サーバからの命令に従い、前記表示情報を表示するステップ、を含む表示処理と、を実行することを特徴とする連携表示システムである。第1の発明によって、表示部を有する複数の端末が連携して単一の擬似ディスプレイを構成することができる。特に、座席番号が定められている会場であれば、容易に擬似ディスプレイを構成することができる。   According to a first aspect of the present invention, there is provided a cooperative display system in which a plurality of terminals having a display unit cooperate to constitute a single pseudo-display and display moving image content. A terminal capable of communicating with the terminal, the terminal stores moving image data including display information of all pixels of the content, the terminal accepts an input of a seat number, and the terminal And based on map data indicating the correspondence between the pixel position in the pseudo display and the step of specifying the pixel position of the pixel in charge of itself, the terminal, the terminal specified from the video data, A preparatory process including a step of extracting the display information related to a pixel position; and the terminal displays the display information according to a command from the server. Step a cooperative display system and executes a display processing, the containing. According to the first aspect, a plurality of terminals having a display unit can cooperate to configure a single pseudo display. In particular, if the venue has a fixed seat number, the pseudo display can be easily configured.

第1の発明における前記事前準備処理は、更に、前記端末が、抽出される前記表示情報を時系列順に即時に読み出し可能な状態とするステップ、を含むようにしても良い。これによって、各端末の処理速度の違いにより、表示開始までの遅延時間が大きくなることを防ぐことができる。一般に、動画のデコードはCPUの負荷が大きく、処理速度の違いにより表示を開始するまでの時間が大幅にばらつくことが想定される。全画素数の動画データではなく、表示を担当する1画素の表示データを事前に用意することで、その都度デコードすることなく、すぐに表示できるようになる。ひいては、表示開始の遅延時間のばらつきを最小限に抑えることができる。   The preparatory processing according to the first invention may further include a step of setting the terminal so that the terminal can immediately read out the extracted display information in chronological order. Thus, it is possible to prevent an increase in delay time until the start of display due to a difference in processing speed of each terminal. In general, decoding of a moving image imposes a heavy load on the CPU, and it is assumed that the time required to start display varies greatly due to a difference in processing speed. By preparing display data of one pixel in charge of display instead of moving image data of the total number of pixels in advance, it is possible to immediately display without decoding each time. As a result, it is possible to minimize the variation in the delay time of the display start.

また、第1の発明における前記事前準備処理は、更に、前記端末が、前記表示情報の中から得られる情報に基づいて音声チャンネル及び音量を特定するステップと、前記端末が、特定される前記音声チャンネル及び前記音量に基づく音情報を時系列順に即時に読み出し可能な状態とするステップと、を含むようにしても良い。これによって、端末は、表示処理の際、音情報もすぐに読み出すことができる。   In addition, the advance preparation processing in the first invention further includes a step in which the terminal specifies an audio channel and a volume based on information obtained from the display information, and the terminal includes Setting the sound information based on the sound channel and the sound volume to be immediately readable in chronological order. This allows the terminal to immediately read out the sound information during the display processing.

また、第1の発明における前記表示処理は、更に、前記サーバが、前記動画データの先頭フレームの表示開始命令を前記端末に送信するステップと、前記端末が、前記表示開始命令を受信すると、前記先頭フレームから時系列順に前記表示情報を表示するステップと、前記サーバが、所定の間隔で表示同期命令を前記端末に送信するステップと、前記端末が、前記表示同期命令を受信する前に所定フレーム数分の前記表示情報を表示した場合、前記表示同期命令を受信した後に所定フレーム数分の次フレームに関する前記表示情報を表示し、前記所定フレーム数分の前記表示情報を表示する前に前記表示同期命令を受信した場合、即時に前記所定フレーム数分の次フレームに関する前記表示情報を表示するステップと、を含むようにしても良い。これによって、再生時間が長い動画像であっても、徐々に表示がずれていくことを防ぎ、最後まで表示のずれの発生を抑制することができる。   Further, in the display processing according to the first aspect, the server further includes a step of transmitting a display start instruction of a head frame of the moving image data to the terminal; and the terminal receives the display start instruction. Displaying the display information in chronological order from the first frame, the server transmitting a display synchronization command to the terminal at a predetermined interval, and the terminal receiving a display synchronization command at a predetermined frame before receiving the display synchronization command. When displaying the display information for several frames, displaying the display information for the next frame for a predetermined frame number after receiving the display synchronization command, and displaying the display information before displaying the display information for the predetermined frame number. Displaying the display information about the next frame for the predetermined number of frames immediately after receiving the synchronization command. . As a result, even if the moving image has a long playback time, it is possible to prevent the display from gradually shifting, and to suppress the occurrence of the display shift to the end.

また、第1の発明における前記表示処理において、前記端末が、前記表示情報を表示することに同期して、前記音情報を出力するようにしても良い。これによって、擬似ディスプレイ上の表示と音声の連動が可能となる。   Further, in the display processing according to the first aspect, the terminal may output the sound information in synchronization with displaying the display information. Thus, the display on the pseudo display and the sound can be linked.

第2の発明は、表示部を有する複数の端末が連携して単一の擬似ディスプレイを構成し、動画像のコンテンツを表示する連携表示システムであって、前記端末と通信可能なサーバと、前記擬似ディスプレイ内の領域を撮影する撮影装置とを備え、前記端末が、前記端末の識別情報を色又は発光パターンを用いて前記サーバに伝達する機能を提供するためのプログラムを記憶するステップと、前記端末が、前記端末の前記識別情報と前記色又は前記発光パターンの対応付けを示す識別情報発光変換データに基づいて、自らの前記識別情報を前記色又は前記発光パターンに変換するステップと、前記端末が、変換される前記色又は前記発光パターンを表示するステップと、前記撮影装置が、前記擬似ディスプレイ内に含まれる前記端末の前記表示部を撮影するステップと、前記サーバが、前記撮影装置による撮影結果を解析し、前記端末ごとに前記色又は前記発光パターンを抽出するステップと、前記サーバが、抽出される前記色又は前記発光パターンの位置に基づいて、前記擬似ディスプレイ内の画素位置を特定するステップと、前記サーバが、前記識別情報発光変換データを参照し、抽出される前記色又は前記発光パターンに基づいて前記識別情報を特定するステップと、前記サーバが、前記識別情報と対応付けられる前記画素位置を前記端末に送信するステップと、前記端末が、前記識別情報と対応付けられる前記画素位置を受信し、前記コンテンツの中から、自らの前記識別情報と対応付けられる前記画素位置に関する表示情報を抽出するステップと、を含む事前準備処理と、前記端末が、前記サーバからの命令に従い、前記表示情報を表示するステップ、を含む表示処理と、を実行することを特徴とする連携表示システムである。第2の発明によって、表示部を有する複数の端末が連携して単一の擬似ディスプレイを構成することができる。特に、座席番号が定められていない会場であっても、担当画素を各端末にマッピングすることが可能になる。   A second invention is a cooperative display system in which a plurality of terminals having a display unit cooperate to form a single pseudo display and display moving image content, and a server capable of communicating with the terminal, Comprising a photographing device for photographing an area in a pseudo display, wherein the terminal stores a program for providing a function of transmitting identification information of the terminal to the server using a color or a light emission pattern; and A step of converting the identification information of the terminal into the color or the light emission pattern based on identification information light emission conversion data indicating the correspondence between the identification information and the color or the light emission pattern of the terminal; Displaying the color or the light emission pattern to be converted, and wherein the photographing device displays the display of the terminal included in the pseudo display. Photographing, the server analyzes the photographing result by the photographing device, and extracts the color or the light emitting pattern for each terminal; and the server extracts the color or the light emitting pattern to be extracted. Identifying a pixel position in the pseudo display based on the position, and the server identifies the identification information based on the extracted color or emission pattern with reference to the identification information light emission conversion data Step and the server, the step of transmitting the pixel position associated with the identification information to the terminal, the terminal receives the pixel position associated with the identification information, from the content, A step of extracting display information about the pixel position associated with the identification information of the own, Serial terminal, in accordance with instructions from the server, a cooperative display system and executes a display process including the step of displaying the display information. According to the second aspect, a plurality of terminals having a display unit can cooperate to form a single pseudo display. In particular, the assigned pixel can be mapped to each terminal even in a venue where a seat number is not defined.

第3の発明は、表示部を有する複数の端末が連携して単一の擬似ディスプレイを構成し、動画像のコンテンツを表示する連携表示システムであって、前記端末と通信可能なサーバと、前記擬似ディスプレイ内の領域を撮影する撮影装置とを備え、前記端末が、ユーザによる入力情報を入力するステップと、前記端末が、前記入力情報と色又は発光パターンの対応付けを示す入力情報発光変換データに基づいて、入力される前記入力情報を前記色又は前記発光パターンに変換するステップと、前記端末が、変換される前記色又は前記発光パターンを表示するステップと、前記撮影装置が、前記擬似ディスプレイ内に含まれる前記端末の前記表示部を撮影するステップと、前記サーバが、前記撮影装置による撮影結果を解析し、前記端末ごとに前記色又は前記発光パターンを抽出するステップと、前記サーバが、前記入力情報発光変換データを参照し、抽出される前記色又は前記発光パターンに基づいて前記入力情報を特定するステップと、を含む情報収集処理を実行することを特徴とする連携表示システムである。第3の発明によって、サーバは、擬似ディスプレイ内の端末からアンケート結果やメッセージを同時に読み取ることができるので、数万人規模のアンケート結果も高速に集計したり、複数のメッセージをリアルタイムに取得したりすることができる。これによって、アンケート結果に基づいて再生する動画を選択することができる。例えば、投票結果の多い動画コンテンツを優先して再生することができる。また、性別や年齢、誰のファンなのかを区別した表示を行う等の演出にアンケート結果を使用することができる。例えば、性別等の情報に基づいて、客席のグループごとに(例えば、レフト側とライト側等)、表示コンテンツを変えることができる。   A third invention is a cooperative display system in which a plurality of terminals having a display unit cooperate to constitute a single pseudo-display and display moving image content, wherein a server capable of communicating with the terminal, A photographing device for photographing an area in a pseudo display, wherein the terminal inputs input information by a user, and the terminal outputs input information light emission conversion data indicating correspondence between the input information and a color or a light emission pattern. Converting the input information to be input into the color or the light emission pattern based on the: the terminal displays the color or the light emission pattern to be converted; and Photographing the display unit of the terminal included in the server, the server analyzes a photographing result by the photographing device, and Information collection including: extracting a color or the light emission pattern; and the server referring to the input information light emission conversion data and specifying the input information based on the extracted color or light emission pattern. A cooperative display system that performs a process. According to the third aspect, the server can simultaneously read the questionnaire results and the messages from the terminal in the pseudo display, so that the questionnaire results of tens of thousands of people can be aggregated at a high speed, and a plurality of messages can be obtained in real time. can do. Thereby, a moving image to be reproduced can be selected based on the questionnaire result. For example, video content with a large number of voting results can be preferentially reproduced. In addition, the questionnaire results can be used for effects such as gender, age, and a display that distinguishes who the fan is. For example, the display content can be changed for each group of the seats (for example, the left side and the right side) based on information such as gender.

本発明により、表示部を有する複数の端末が連携して単一の擬似ディスプレイを構成する連携表示システムを提供することができる。   According to the present invention, it is possible to provide a cooperative display system in which a plurality of terminals having a display unit cooperate to configure a single pseudo display.

第1実施形態における連携表示システム1aの概要を示す図The figure which shows the outline | summary of the cooperation display system 1a in 1st Embodiment. ダウンロードデータの一例を示す図Diagram showing an example of download data 出力データ50の一例を示す図The figure which shows an example of the output data 50 第1実施形態における事前準備処理の流れを示すフローチャートFlowchart showing the flow of the preparatory processing in the first embodiment 第1実施形態における表示処理の流れを示すフローチャートFlowchart showing the flow of display processing in the first embodiment 第1実施形態における同期処理を説明する図FIG. 4 is a diagram illustrating a synchronization process according to the first embodiment. 第2実施形態における連携表示システム1bの概要を示す図The figure which shows the outline | summary of the cooperation display system 1b in 2nd Embodiment. 識別情報発光変換データ60の一例を示す図The figure which shows an example of the identification information light emission conversion data 60 第2実施形態における事前準備処理の流れを示すフローチャートFlowchart showing the flow of the preparatory processing in the second embodiment 入力情報発光変換データ70の一例を示す図The figure which shows an example of the input information light emission conversion data 70 第2実施形態におけるアンケート集計処理の流れを示すフローチャートFlow chart showing the flow of a questionnaire totalizing process in the second embodiment

以下図面に基づいて、本発明の実施形態を詳細に説明する。本発明の連携表示システムでは、表示部を有する複数の端末が連携して単一の擬似ディスプレイを構成する。擬似ディスプレイには、例えば動画像等のコンテンツを表示する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the cooperative display system of the present invention, a plurality of terminals having a display unit cooperate to form a single pseudo display. On the pseudo display, for example, content such as a moving image is displayed.

<第1実施形態>
図1は、第1実施形態における連携表示システム1aの概要を示す図である。図1の擬似ディスプレイ4は、単一の筐体から構成されるディスプレイではなく、異なる筐体の複数の端末3の表示部から構成される擬似的なディスプレイである。端末3は、互いに離間して配置される。図1では、擬似ディスプレイ4が構成される空間として、コンサート等のイベントを開催する会場の観客席の一部を模式的に示している。観客は、例えばスマートフォン等の端末3を所持し、予め定められている座席番号5の座席に着席する。図1に示すA1、A2等の番号が座席番号5である。
<First embodiment>
FIG. 1 is a diagram illustrating an outline of a cooperative display system 1a according to the first embodiment. The pseudo display 4 in FIG. 1 is not a display configured with a single housing, but a pseudo display configured with display units of a plurality of terminals 3 having different housings. The terminals 3 are arranged apart from each other. FIG. 1 schematically illustrates a part of a spectator seat of a venue where an event such as a concert is held as a space where the pseudo display 4 is configured. The spectator has a terminal 3 such as a smartphone, for example, and sits on a seat having a predetermined seat number 5. Numbers such as A1 and A2 shown in FIG.

連携表示システム1aは、複数の端末3と、各端末3と通信可能に接続されるサーバ2によって構成される。通信手段は特に限定されるものではないが、会場内であれば、例えば、BLE(Bluetooth(登録商標) Low Energy)等の近距離無線通信技術やWiFiを用いても良い。また、端末3とサーバ2は直接通信を行うだけでなく、中継機能を有する中継端末を介して通信を行っても良い。また、会場外で事前にデータのやり取りを行う場合、端末3とサーバ2はインターネットを介して通信を行っても良い。但し、コンサート等の公演会場において、端末3が数多く存在する場合(例えば、数万台)、個々の端末3とサーバ2が個別の通信を行うと、通信回線が破綻してしまう。そこで、このような場合、個々の端末3とサーバ2は個別の通信を行わず、サーバ2側から一方的に情報を配信する通信方式(ブロードキャスト:放送)を用いることが一般的である。   The cooperative display system 1a includes a plurality of terminals 3 and a server 2 communicably connected to each terminal 3. Although the communication means is not particularly limited, for example, a short-range wireless communication technology such as BLE (Bluetooth (registered trademark) Low Energy) or WiFi may be used within the venue. Further, the terminal 3 and the server 2 may communicate not only directly but also via a relay terminal having a relay function. Further, when exchanging data in advance outside the venue, the terminal 3 and the server 2 may communicate via the Internet. However, when there are a large number of terminals 3 (for example, tens of thousands) in a performance hall such as a concert or the like, if the individual terminals 3 and the server 2 perform individual communication, the communication line is broken. Therefore, in such a case, it is general that the individual terminal 3 and the server 2 do not perform individual communication but use a communication method (broadcast: broadcast) in which the server 2 side unilaterally distributes information.

各端末3は、外部の光が入らない屋内や夜間の屋外等に配置され、擬似ディスプレイ4に表示するコンテンツの一部分の表示処理を担当する。本実施形態では、各端末3は1画素分の表示処理を担当し、複数の端末3が連携することによって、単一の擬似ディスプレイ4を実現する。擬似ディスプレイ4に表示を行う際は、会場内の照明を可能な限り消灯することによって、複数の端末3の表示部に出力されるRGB値、すなわち光点の集まりが、あたかもドット絵のように見える。図1では、複数の端末3が連携し、擬似ディスプレイ4に数字の「1」を表示している。   Each terminal 3 is arranged indoors or outside at night where no external light enters, and is in charge of displaying a part of the content displayed on the pseudo display 4. In the present embodiment, each terminal 3 is in charge of a display process for one pixel, and a plurality of terminals 3 cooperate to realize a single pseudo display 4. When the display on the pseudo display 4 is performed, by turning off the lighting in the venue as much as possible, the RGB values output to the display units of the plurality of terminals 3, that is, the collection of light spots, is displayed as if it were a dot picture. appear. In FIG. 1, a plurality of terminals 3 cooperate and display the numeral “1” on the pseudo display 4.

図1では、35台の端末3を図示しているが、端末3の数は限定されるものではない。イベントの観客数に応じて、数台〜数万台の端末3によって単一の擬似ディスプレイ4を構成することができる。また、擬似ディスプレイ4は、1つの会場内に複数設定しても良い。例えば、観客席がステージの周囲に配置されている場合、ステージから見た4つの方向ごとに擬似ディスプレイ4を設定しても良い。   In FIG. 1, 35 terminals 3 are illustrated, but the number of terminals 3 is not limited. Depending on the number of spectators at the event, several to tens of thousands of terminals 3 can constitute a single pseudo-display 4. Further, a plurality of pseudo displays 4 may be set in one venue. For example, when the audience seats are arranged around the stage, the pseudo display 4 may be set for each of the four directions viewed from the stage.

サーバ2及び端末3は、制御部としてのCPU(「Central Processing Unit」の略)、主記憶部としてのメモリ、補助記憶部としてのHDD(「Hard Disk Drive」の略)やフラッシュメモリ、外部記憶部としての記憶媒体、表示部としての液晶ディスプレイ、入力部としてのキーボードやマウス、タッチパネルディスプレイ、無線通信部としての無線モジュール等を有する。補助記憶部としてのHDDやフラッシュメモリには、OS(「Operating System」の略)、アプリケーションプログラム、処理に必要なデータ等が記憶されている。端末3及びサーバ2のCPUは、補助記憶部からOSやアプリケーションプログラムを読み出して主記憶部に格納し、主記憶部にアクセスしながら、その他の機器を制御し、後述する処理を実行する。また、端末3は、音出力部としてのスピーカ等を有しても良い。   The server 2 and the terminal 3 include a CPU (short for “Central Processing Unit”) as a control unit, a memory as a main storage, an HDD (short for “Hard Disk Drive”) or flash memory as an auxiliary storage, and an external storage. It has a storage medium as a unit, a liquid crystal display as a display unit, a keyboard and mouse as an input unit, a touch panel display, a wireless module as a wireless communication unit, and the like. An HDD (abbreviation of “Operating System”), an application program, data necessary for processing, and the like are stored in an HDD or a flash memory as an auxiliary storage unit. The CPU of the terminal 3 and the CPU of the server 2 read the OS and the application program from the auxiliary storage unit, store them in the main storage unit, control other devices while accessing the main storage unit, and execute processing described later. Further, the terminal 3 may include a speaker or the like as a sound output unit.

サーバ2は、1台で構成されても良いし、複数台で構成されても良い。インターネットを介して端末3と接続されるサーバ2(例えば、スマートフォンのアプリやコンテンツのダウンロードに対応するサーバ)は、会場外のデータセンターに設置されても良い。一方、BLE等の近距離無線通信を介して端末3と接続されるサーバ2は、会場内に設置される。以下では、説明を簡潔にするために、設置場所によってサーバ2を区別しないものとする。   The server 2 may be composed of one server or a plurality of servers. The server 2 connected to the terminal 3 via the Internet (for example, a server corresponding to downloading of an application or content of a smartphone) may be installed in a data center outside the venue. On the other hand, the server 2 connected to the terminal 3 via short-range wireless communication such as BLE is installed in the venue. Hereinafter, for the sake of simplicity, it is assumed that the server 2 is not distinguished depending on the installation location.

図2は、ダウンロードデータの一例を示す図である。ダウンロードデータは、予めサーバ2に記憶されており、各端末3へ配信する共通のデータである。第1実施形態では、ダウンロードデータは、例えば、動画データ10、マップデータ20、色相音声変換データ30及び輝度音量変換データ40を含む。色相音声変換データ30及び輝度音量変換データ40は、端末3が音情報を出力する際、表示情報に基づいて音情報の切替を制御する場合に用いられる。各端末3は、これらのデータをサーバ2から事前にダウンロードしておく。   FIG. 2 is a diagram illustrating an example of the download data. The download data is common data stored in the server 2 in advance and distributed to each terminal 3. In the first embodiment, the download data includes, for example, moving image data 10, map data 20, hue / sound conversion data 30, and brightness / volume conversion data 40. The hue sound conversion data 30 and the brightness / volume conversion data 40 are used when the terminal 3 outputs sound information and controls switching of sound information based on display information. Each terminal 3 downloads these data from the server 2 in advance.

動画データ10は、擬似ディスプレイ4に表示されるコンテンツの全画素の表示情報を含む。動画データ10に含まれる表示情報は、例えば、画素ごとのRGB値である。動画データ10は、音情報を含んでも良い。また、動画データ10は、単一の動画ファイルでも良いし、複数の動画ファイルに分割されていても良い。   The moving image data 10 includes display information of all pixels of the content displayed on the pseudo display 4. The display information included in the moving image data 10 is, for example, an RGB value for each pixel. The moving image data 10 may include sound information. Further, the moving image data 10 may be a single moving image file or may be divided into a plurality of moving image files.

マップデータ20は、担当画素を各端末3にマッピングするために用いられる。マップデータ20は、例えば、擬似ディスプレイ4に含まれる座席の座席番号21と、座席番号21に対応するコンテンツの画素位置22を含む。座席番号21は、図1に示す座席番号5と同様の意味を持つデータ項目である。画素位置22は、コンテンツの各画素の位置をX座標、Y座標で示したものである。端末3は、マップデータ20を参照することによって、座席番号21に基づいて担当画素を決定することができる。   The map data 20 is used for mapping the assigned pixel to each terminal 3. The map data 20 includes, for example, the seat number 21 of the seat included in the pseudo display 4 and the pixel position 22 of the content corresponding to the seat number 21. The seat number 21 is a data item having the same meaning as the seat number 5 shown in FIG. The pixel position 22 indicates the position of each pixel of the content by an X coordinate and a Y coordinate. The terminal 3 can determine the assigned pixel based on the seat number 21 by referring to the map data 20.

擬似ディスプレイ4が複数設定される場合、動画データ10及びマップデータ20は、擬似ディスプレイ4ごとに異なるものを複数配信しても良い。   When a plurality of pseudo displays 4 are set, a plurality of different moving image data 10 and map data 20 may be distributed for each pseudo display 4.

色相音声変換データ30は、色相31によって音声チャンネル32の切替を制御するために用いられ、色相31と音声チャンネル32とが対応付けられている。色相音声変換データ30としては、例えば、RGB値によって特定される色相31を2つの範囲に分割し、左右(L、R)の音声チャンネル32に対応付けても良い。尚、RGB値から色相を特定する方法は、既存のカラーモデルを用いることができる。尚、ここでは、色相31を例に挙げているが、音声チャンネル32と対応付けられる情報は、この例に限定されるものではなく、表示情報の中から得られる情報であれば、どのような情報でも良い。例えば、端末3は、動画データに含まれるRGBそれぞれのLSB(最下位ビット)や輝度値のLSBを、表示とは独立して音声チャンネルを切り替える信号として利用しても良い。   The hue sound conversion data 30 is used for controlling the switching of the sound channel 32 by the hue 31, and the hue 31 and the sound channel 32 are associated with each other. As the hue sound conversion data 30, for example, the hue 31 specified by the RGB values may be divided into two ranges and associated with the left and right (L, R) sound channels 32. In addition, as a method of specifying a hue from an RGB value, an existing color model can be used. Here, the hue 31 is taken as an example, but the information associated with the audio channel 32 is not limited to this example, and any information can be obtained from the display information. Information is fine. For example, the terminal 3 may use the LSB (least significant bit) of each of RGB included in the moving image data or the LSB of the luminance value as a signal for switching the audio channel independently of the display.

輝度音量変換データ40は、輝度41によって音量42の切替を制御するために用いられ、輝度41と音量42とが対応付けられている。輝度音量変換データ40としては、例えば、RGB値によって特定される輝度41が大きくなるにつれて音量が大きくなるように対応付けても良い。尚、RGB値から輝度を特定する方法は、既存のカラーモデルを用いることができる。尚、ここでは、輝度41を例に挙げているが、音量42と対応付けられる情報は、この例に限定されるものではなく、表示情報の中から得られる情報であれば、どのような情報でも良い。   The brightness / volume conversion data 40 is used to control switching of the volume 42 by the brightness 41, and the brightness 41 and the volume 42 are associated with each other. For example, the brightness / volume conversion data 40 may be associated so that the volume increases as the brightness 41 specified by the RGB values increases. An existing color model can be used as a method of specifying the luminance from the RGB values. Here, the brightness 41 is taken as an example, but the information associated with the volume 42 is not limited to this example, and any information that can be obtained from the display information will be described. But it is good.

端末3は、色相音声変換データ30及び輝度音量変換データ40によって、RGB値から音声チャンネルや音量に変換し、表示と音声を同期して制御することが可能となる。これによって、擬似ディスプレイ4上の表示と音声の同期が可能となる。1台分の端末3の音量は小さくても、数万台集まることによって、例えば、光点の移動に連動して音が動き回るような演出が可能になる。   The terminal 3 can convert the RGB values into an audio channel and an audio volume by using the hue audio conversion data 30 and the luminance volume conversion data 40, and can control the display and the audio in synchronization. As a result, the display on the pseudo display 4 and the audio can be synchronized. Even if the volume of one terminal 3 is low, by gathering tens of thousands of terminals 3, for example, it is possible to produce an effect in which the sound moves around in conjunction with the movement of the light spot.

図3は、出力データ50の一例を示す図である。出力データ50は、各端末3が出力する時系列順の表示情報や音情報であって、各端末3によって事前にダウンロードする動画データ10に基づいて生成される。具体的な生成方法は、図4を参照しながら後述する。出力データ50は、RGB値51、音量52及び音声チャンネル53等を含む。RGB値51は、端末3の表示部に表示する表示情報である。音量52は、端末3の音出力部に出力する音情報の一つであり、端末3のスピーカから出力する音声の音量である。音声チャンネル53は、音情報の一つであり、端末3のスピーカから出力する音声の音声チャンネルを識別する番号である。   FIG. 3 is a diagram illustrating an example of the output data 50. The output data 50 is chronological display information and sound information output from each terminal 3 and is generated based on the moving image data 10 downloaded in advance by each terminal 3. A specific generation method will be described later with reference to FIG. The output data 50 includes an RGB value 51, a volume 52, an audio channel 53, and the like. The RGB value 51 is display information to be displayed on the display unit of the terminal 3. The sound volume 52 is one of the sound information to be output to the sound output unit of the terminal 3 and is the sound volume of the sound output from the speaker of the terminal 3. The audio channel 53 is one of the sound information, and is a number for identifying the audio channel of the sound output from the speaker of the terminal 3.

表示情報としては、RGB値51に限らず、グレースケール値や、特定の色相に関するON/OFFの値等、各画素の画素値に関するものであれば、どのようなものでも良い。   The display information is not limited to the RGB value 51, and may be any information such as a gray scale value or an ON / OFF value related to a specific hue, as long as it is related to the pixel value of each pixel.

図4は、第1実施形態における事前準備処理の流れを示すフローチャートである。図4に示すように、端末3は、連携表示システム1aに関するアプリとデータをサーバ2からダウンロードし(ステップS101)、アプリをインストールする。ダウンロードするデータは、図2に示すデータである。   FIG. 4 is a flowchart illustrating the flow of the preparatory processing according to the first embodiment. As shown in FIG. 4, the terminal 3 downloads an application and data relating to the cooperative display system 1a from the server 2 (Step S101), and installs the application. The data to be downloaded is the data shown in FIG.

次に、端末3は、タッチディスプレイ等を介して、ユーザから座席番号5の入力を受け付ける(ステップS102)。尚、座席番号5の入力受付手段は、この例に限定されるものではない。例えば、端末3が、座席番号の情報を有するバーコードをスキャンしても良いし、電子チケットから座席番号を取得しても良い。   Next, the terminal 3 receives an input of the seat number 5 from the user via a touch display or the like (Step S102). The input receiving means for the seat number 5 is not limited to this example. For example, the terminal 3 may scan a barcode having information of the seat number, or may acquire the seat number from the electronic ticket.

次に、端末3は、座席番号とマップデータ20に基づいて自らの担当画素の画素位置を特定する(ステップS103)。具体的には、端末3は、マップデータ20を参照し、ステップS102において入力される座席番号に対応する画素位置22を特定する。   Next, the terminal 3 specifies the pixel position of its assigned pixel based on the seat number and the map data 20 (Step S103). Specifically, the terminal 3 refers to the map data 20 and specifies the pixel position 22 corresponding to the seat number input in step S102.

次に、端末3は、ステップS103において特定される画素位置22に基づいて、担当画素の出力データを生成する(ステップS104)。具体的には、端末3は、動画データ10の中から、担当画素の画素位置22に関するRGB値をフレーム番号順(=時系列順)に抽出し、出力データ50とする。音情報も出力する場合、端末3は、動画データ10の中から、音量52及び音声チャンネル53に関するデータを抽出し、RGB値51が記憶されるファイルと独立したファイルに記憶しても良い。又は、端末3は、前述の色相音声変換データ30を用いて、動画データ10の中から、RGB値に関する色相に基づいて音声チャンネルを特定するとともに、輝度音量変換データ40を用いて、RGB値に関する輝度に基づいて音量を特定し、1チャンネル(モノラル)の音声信号として記憶しても良い。尚、音声チャンネルを特定するための情報は、色相に限らず、表示情報の中から得られる情報であれば、どのような情報でも良い。例えば、端末3は、動画データに含まれるRGBそれぞれのLSB(最下位ビット)や輝度値のLSBを、表示とは独立して音声チャンネルを切り替える信号として利用しても良い。同様に、音量を特定するための情報は、輝度に限らず、表示情報の中から得られる情報であれば、どのような情報でも良い。   Next, the terminal 3 generates output data of the responsible pixel based on the pixel position 22 specified in Step S103 (Step S104). Specifically, the terminal 3 extracts the RGB values related to the pixel position 22 of the assigned pixel from the moving image data 10 in the order of frame numbers (= time-sequential order), and sets the extracted data as output data 50. When outputting the sound information, the terminal 3 may extract the data relating to the volume 52 and the sound channel 53 from the moving image data 10 and store the data in a file independent of the file in which the RGB values 51 are stored. Alternatively, the terminal 3 specifies an audio channel from the moving image data 10 based on the hue relating to the RGB value using the above-described hue audio conversion data 30, and uses the luminance / volume conversion data 40 to specify the RGB channel. The volume may be specified based on the luminance and stored as a one-channel (monaural) audio signal. The information for specifying the audio channel is not limited to the hue, and may be any information as long as it is information obtained from the display information. For example, the terminal 3 may use the LSB (least significant bit) of each of RGB included in the moving image data or the LSB of the luminance value as a signal for switching the audio channel independently of the display. Similarly, the information for specifying the sound volume is not limited to the luminance, and may be any information as long as the information can be obtained from the display information.

端末3は、自らが担当する画素の出力データ50を生成することによって、擬似ディスプレイ4上の1画素分の表示情報を表示したり、音情報を出力したりすることができる。   The terminal 3 can display the display information for one pixel on the pseudo display 4 and output the sound information by generating the output data 50 of the pixel in charge of the terminal 3 itself.

次に、端末3は、担当画素の出力データ50を主記憶部に常駐させておく(ステップS105)。尚、端末3は、出力データ50を主記憶部に常駐させておく他に、容量の小さいファイルに分割して補助記憶部に記憶しておいても良い。いずれの場合も、端末3は、表示処理の際、担当画素の出力データ50を即時に読み出し可能な状態となる。同様に、端末3は、ステップS104において特定される音量及び音声チャンネルに基づく音情報を時系列順に即時に読み出し可能な状態としておく。   Next, the terminal 3 stores the output data 50 of the assigned pixel in the main storage unit (step S105). Note that the terminal 3 may store the output data 50 in the auxiliary storage unit by dividing the output data 50 into small files in addition to making it resident in the main storage unit. In any case, the terminal 3 is in a state where the output data 50 of the assigned pixel can be immediately read out during the display processing. Similarly, the terminal 3 is in a state where sound information based on the volume and the audio channel specified in step S104 can be immediately read out in chronological order.

コンテンツが動画像の場合、全体のデータサイズが数百MB〜数GBになることもあるが、数千台〜数万台の端末3が分担することによって、各端末3の担当画素の出力データ50は数MB以下になるため、主記憶部に常駐させておくことが可能なデータサイズとなる。尚、各端末3は、数秒の短い動画ごとに、主記憶部に出力データ50を常駐させても良い。   When the content is a moving image, the entire data size may be several hundred MB to several GB. However, when thousands to tens of thousands of terminals 3 share the output data of the assigned pixel of each terminal 3 Since 50 is less than several MB, the data size is such that it can be resident in the main storage unit. Note that each terminal 3 may have the output data 50 resident in the main storage unit for each short moving image of several seconds.

動画像のデコード処理は、CPUによる負荷が重いため、各端末3にリアルタイムにデコード処理を実行させると、端末3の性能の違いにより、表示開始までのレスポンスのばらつきが大きくなる。場合によっては、1秒前後のばらつきが発生する。そこで、予め動画像をデコードしておき、図3に示す出力データ50のように、画素ごとの情報に変換しておくことによって、ばらつきを最小限に抑えることが可能となる。   Since the load of the CPU is heavy in the decoding processing of the moving image, if each terminal 3 executes the decoding processing in real time, the variation in the response until the start of the display increases due to the difference in the performance of the terminal 3. In some cases, a variation of about one second occurs. Therefore, by decoding the moving image in advance and converting it into information for each pixel as in the output data 50 shown in FIG. 3, it is possible to minimize variations.

尚、色相音声変換データ30や輝度音量変換データ40を用いて音情報を制御する場合、端末3は、RGB値のみを出力データ50として主記憶部に常駐させ、表示処理の際、リアルタイムにRGB値から音情報に変換しても良い。   When sound information is controlled using the hue / speech conversion data 30 and the luminance / volume conversion data 40, the terminal 3 causes only the RGB values to be resident in the main storage unit as output data 50, and performs real-time RGB processing when performing display processing. The value may be converted to sound information.

端末3が最終的に必要なデータは、自らが担当する画素の出力データ50のみである。従って、ユーザが会場に到着してから、端末3がサーバ2に座席番号を送信し、サーバ2が端末3ごとに出力データ50を生成して送信することも考えられる。しかしながら、端末3が数万台になると、サーバ2に対する負荷が同時間帯に集中してしまう。そこで、本実施の形態では、端末3が事前にサーバ2から共通のデータをダウンロードしておき、端末3が必要なデータを生成する。これによって、サーバ2の負荷を時間的に分散することができる。   The terminal 3 finally needs only the output data 50 of the pixel in charge of itself. Therefore, after the user arrives at the venue, the terminal 3 may transmit the seat number to the server 2, and the server 2 may generate and transmit the output data 50 for each terminal 3. However, when the number of terminals 3 becomes tens of thousands, the load on the server 2 is concentrated in the same time zone. Therefore, in the present embodiment, the terminal 3 downloads common data from the server 2 in advance, and the terminal 3 generates necessary data. Thereby, the load on the server 2 can be distributed over time.

図5は、第1実施形態における表示処理の流れを示すフローチャートである。図5は、端末3の処理内容を示すものである。図5に示す表示処理の前提として、図4に示す事前準備処理を完了しておく必要がある。そして、端末3は、サーバ2からの命令に従い、事前準備処理において準備される表示情報を表示する。   FIG. 5 is a flowchart illustrating the flow of the display process according to the first embodiment. FIG. 5 shows the processing contents of the terminal 3. As a premise of the display processing shown in FIG. 5, it is necessary to complete the preliminary preparation processing shown in FIG. Then, the terminal 3 displays the display information prepared in the preparatory processing according to the command from the server 2.

以下では、全ての端末3が同一のフレームレートで出力データ50の表示処理を実行するものとする。また、端末3ごとの表示処理のずれを回避するために、出力データ50を所定間隔で複数のセットに分割し、セットの切り替わりのタイミングでサーバ2が同期命令を全ての端末3に送信するものとする。例えば、フレームレートが30fps、所定間隔が1秒の場合、1セットは30フレーム分となる。BLEを介して通信を行う場合、サーバ2は、同期命令をブロードキャストで送信する。   Hereinafter, it is assumed that all the terminals 3 execute the display processing of the output data 50 at the same frame rate. Further, in order to avoid a shift in display processing for each terminal 3, the output data 50 is divided into a plurality of sets at predetermined intervals, and the server 2 transmits a synchronization command to all the terminals 3 at the timing of switching the sets. And For example, when the frame rate is 30 fps and the predetermined interval is 1 second, one set corresponds to 30 frames. When performing communication via BLE, the server 2 transmits a synchronization command by broadcast.

動画データ10が複数のファイルに分割されている場合、例えば、動画ファイル番号の末尾に連番を付す等によって動画ファイルの時系列順を特定し、複数の動画ファイルを連続して再生することもできる。   When the moving image data 10 is divided into a plurality of files, the chronological order of the moving image files may be specified by, for example, adding a serial number to the end of the moving image file number, and the plurality of moving image files may be continuously reproduced. it can.

図5に示すように、端末3は、先頭動画ファイルの先頭フレームを表示対象フレームに設定する(ステップS201)。尚、コンテンツが複数存在する場合、ステップS201の前に、端末3は、サーバ2から、どのコンテンツを表示するのかを特定するコンテンツ特定命令を受信し、表示するコンテンツを決定するようにしても良い。   As illustrated in FIG. 5, the terminal 3 sets the first frame of the first moving image file as a display target frame (step S201). When there are a plurality of contents, before step S201, the terminal 3 may receive, from the server 2, a content specifying command for specifying which content is to be displayed, and determine the content to be displayed. .

次に、サーバ2から表示開始命令を受信する(ステップS202)。BLEを介して通信を行う場合、サーバ2は、表示開始命令をブロードキャストで送信する。   Next, a display start command is received from the server 2 (step S202). When performing communication via BLE, the server 2 transmits a display start command by broadcast.

次に、端末3は、現在の表示対象フレームの画素値(=出力データ50のRGB値51)を表示部に表示する(ステップS203)。端末3は、現在の表示対象フレームの画素値を表示部に表示することに同期して、出力データ50の音量52及び音声チャンネル53に基づく音情報を音出力部に出力しても良い。   Next, the terminal 3 displays the pixel value of the current display target frame (= the RGB value 51 of the output data 50) on the display unit (Step S203). The terminal 3 may output the sound information based on the volume 52 and the sound channel 53 of the output data 50 to the sound output unit in synchronization with displaying the pixel value of the current display target frame on the display unit.

次に、端末3は、最終動画ファイルの最終フレームに到達したか否か確認する(ステップS204)。最終動画ファイルの最終フレームに到達していない場合(ステップS204のNo)、端末3は、次フレームを表示対象フレームに設定し(ステップS205)、同期カウンタを1増加する(ステップS206)。   Next, the terminal 3 checks whether or not the final frame of the final moving image file has been reached (step S204). When the last frame of the last moving image file has not been reached (No in step S204), the terminal 3 sets the next frame as a display target frame (step S205), and increases the synchronization counter by 1 (step S206).

次に、端末3は、サーバ2から同期命令を受信したか否か確認する(ステップS207)。同期命令を受信した場合(ステップS207のYes)、端末3はステップS210に進み、同期命令を受信していない場合(ステップS207のNo)、端末3はステップS208に進む。   Next, the terminal 3 checks whether a synchronization command has been received from the server 2 (step S207). If the synchronization command has been received (Yes in step S207), the terminal 3 proceeds to step S210. If the synchronization command has not been received (No in step S207), the terminal 3 proceeds to step S208.

ステップS208に進むと、端末3は、同期カウンタが所定数、すなわち1セットに含まれるフレーム数に到達したか否か確認する。同期カウンタが所定数に到達していない場合(ステップS208のNo)、端末3は、ステップS203から繰り返す。一方、同期カウンタが所定数に到達している場合(ステップS208のYes)、端末3は、サーバ2から同期命令を受信するまで待機し(ステップS209)、同期命令を受信するとステップS210に進む。   In step S208, the terminal 3 checks whether the synchronization counter has reached a predetermined number, that is, the number of frames included in one set. If the synchronization counter has not reached the predetermined number (No in step S208), the terminal 3 repeats from step S203. On the other hand, when the synchronization counter has reached the predetermined number (Yes in step S208), the terminal 3 waits until a synchronization command is received from the server 2 (step S209), and upon receiving the synchronization command, proceeds to step S210.

ステップS210に進むと、端末3は、同期カウンタをリセットする。そして、端末3は、次セット(次動画ファイルの先頭セットの場合もある。)の先頭フレームを表示対象フレームに設定し(ステップS211)、ステップS203から繰り返す。表示対象フレームが最終動画ファイルの最終フレームに到達すると(ステップS204のYes)、端末3は処理を終了する。   In step S210, the terminal 3 resets the synchronization counter. Then, the terminal 3 sets the first frame of the next set (which may be the first set of the next moving image file) as the display target frame (step S211), and repeats from step S203. When the display target frame reaches the final frame of the final moving image file (Yes in step S204), the terminal 3 ends the processing.

図6は、第1実施形態における同期処理を説明する図である。図6(a)に示すように、同期処理を行わない場合、再生時間が長い動画像では、最初のフレームで表示開始命令によって表示タイミングを合わせても、端末3の処理速度の違いから、徐々に表示のずれが大きくなる。そこで、図6(b)に示すように、本実施の形態では同期処理を行い、サーバ2は定期的に同期命令を送信する。そして、図6(b)に示す端末3aのように、処理速度が遅い端末3、すなわち1セットに含まれる全てのフレームの表示を終了する前に、同期命令を受信する端末3は、処理中のセットに含まれるフレームの表示を中断し、次のセットの先頭フレームの表示を行う。一方、図6(b)に示す端末3bのように、処理速度が速い端末3、すなわち同期命令を受信する前に、1セットに含まれる全てのフレームの表示を終了する端末3は、同期命令を受信するまで次のフレームを表示せずに待機する。これによって、再生時間が長い動画像であっても、徐々に表示がずれていくことを防ぎ、最後まで表示のずれを最小限に抑えることができる。   FIG. 6 is a diagram illustrating the synchronization processing according to the first embodiment. As shown in FIG. 6A, when the synchronization processing is not performed, in the case of a moving image having a long reproduction time, even if the display timing is adjusted by the display start command in the first frame, the processing speed of the terminal 3 gradually increases. The display shift becomes large. Therefore, as shown in FIG. 6B, in the present embodiment, a synchronization process is performed, and the server 2 periodically transmits a synchronization command. Then, like the terminal 3a shown in FIG. 6B, the terminal 3 having a low processing speed, that is, the terminal 3 receiving the synchronization command before the display of all the frames included in one set ends, The display of the frames included in the set is suspended, and the display of the first frame of the next set is performed. On the other hand, like the terminal 3b shown in FIG. 6B, the terminal 3 which has a high processing speed, that is, the terminal 3 which finishes displaying all the frames included in one set before receiving the synchronization command, Waits until receiving the next frame without displaying the next frame. Thus, even for a moving image having a long reproduction time, it is possible to prevent the display from gradually shifting, and to minimize the display shift to the end.

以上、第1実施形態における連携表示システム1aによれば、表示部を有する複数の端末3が連携して単一の擬似ディスプレイ4を構成することができる。特に、第1実施形態では、ユーザが座席番号を入力し、端末3が予め定められるマップデータ20を参照することによって、担当画素を各端末3にマッピングするので、容易に単一の擬似ディスプレイ4を構成することができる。   As described above, according to the cooperative display system 1a in the first embodiment, a plurality of terminals 3 having a display unit can cooperate to configure a single pseudo display 4. In particular, in the first embodiment, the user inputs the seat number, and the terminal 3 refers to the predetermined map data 20 to map the assigned pixel to each terminal 3. Can be configured.

<第2実施形態>
図7は、第2実施形態における連携表示システム1bの概要を示す図である。第1実施形態では、各端末3の位置を特定可能な座席番号5を利用して担当画素を各端末3にマッピングしたが、第2実施形態では、座席番号5を利用できない会場における担当画素のマッピング方法を提供する。尚、第1実施形態と同様の要素については同一の符号を付し、重複する説明を省略する。
<Second embodiment>
FIG. 7 is a diagram illustrating an outline of a cooperative display system 1b according to the second embodiment. In the first embodiment, the assigned pixel is mapped to each terminal 3 using the seat number 5 capable of specifying the position of each terminal 3. However, in the second embodiment, the assigned pixel in the venue where the seat number 5 cannot be used is Provides a mapping method. Note that the same reference numerals are given to the same elements as those in the first embodiment, and redundant description will be omitted.

連携表示システム1bは、複数の端末3と、各端末3と通信可能に接続されるサーバ2と、擬似ディスプレイ4内に含まれる全ての端末3の表示部を撮影し、サーバ2と通信可能に接続される撮影装置6と、によって構成される。サーバ2と撮影装置6は、例えばUSBケーブルやHDMI(登録商標)ケーブル等の有線によって接続される。   The cooperative display system 1b captures images of the plurality of terminals 3, the server 2 communicably connected to each terminal 3, and the display units of all the terminals 3 included in the pseudo display 4, and enables communication with the server 2. And an imaging device 6 to be connected. The server 2 and the photographing device 6 are connected by a cable such as a USB cable or an HDMI (registered trademark) cable.

連携表示システム1bにおいても、各端末3が1画素分の表示処理を担当し、複数の端末3が連携することによって、単一の擬似ディスプレイ4を実現する。図7に示す例では、複数の端末3が連携し、擬似ディスプレイ4に数字の「2」を表示している。   Also in the cooperative display system 1b, each terminal 3 is in charge of one pixel of display processing, and a plurality of terminals 3 cooperate to realize a single pseudo display 4. In the example illustrated in FIG. 7, the plurality of terminals 3 cooperate and display the numeral “2” on the pseudo display 4.

撮影装置6は、所定のフレームレートで動画像を撮影するビデオカメラであり、各端末3の表示部の発光を識別可能な画質の動画像が得られる位置に設置される。撮影装置6は、1台で構成されても良いし、複数台で構成されても良い。   The image capturing device 6 is a video camera that captures a moving image at a predetermined frame rate, and is installed at a position where a moving image with image quality that can identify light emission of the display unit of each terminal 3 is obtained. The photographing device 6 may be constituted by one unit or a plurality of units.

図8は、識別情報発光変換データ60の一例を示す図である。識別情報発光変換データ60は、予めサーバ2及び端末3の記憶部に記憶されている。第2実施形態では、担当画素を各端末3にマッピングするために、予め定められる識別情報発光変換データ60を用いる。   FIG. 8 is a diagram illustrating an example of the identification information light emission conversion data 60. The identification information light emission conversion data 60 is stored in the storage units of the server 2 and the terminal 3 in advance. In the second embodiment, predetermined identification information light emission conversion data 60 is used to map a responsible pixel to each terminal 3.

識別情報発光変換データ60は、例えば、端末3を識別する識別番号61ごとに、RGB値62と発光パターン63を含む。RGB値62は、端末3の表示部に表示する色情報である。発光パターン63は、端末3が発光するタイミングのパターンを示している。例えば、「0」は発光しない、「1」は発光する、を意味する。フレームレートが30fpsの場合、発光パターン63は、「0」又は「1」の数字を30個含むようにしても良い。RGB値62及び発光パターン63は、識別番号61ごとに異なる組み合わせとする。   The identification information light emission conversion data 60 includes, for example, an RGB value 62 and a light emission pattern 63 for each identification number 61 for identifying the terminal 3. The RGB value 62 is color information to be displayed on the display unit of the terminal 3. The light emission pattern 63 indicates a pattern of timing at which the terminal 3 emits light. For example, “0” means no light emission, and “1” means light emission. When the frame rate is 30 fps, the light emission pattern 63 may include 30 numbers “0” or “1”. The RGB value 62 and the light emission pattern 63 are different combinations for each identification number 61.

端末3が識別情報発光変換データ60に基づいて発光し、撮影装置6が端末3の表示部を撮影し、サーバ2が撮影装置6による撮影結果を解析することによって、端末3はサーバ2に自らの識別番号を伝達できる。また、サーバ2は、擬似ディスプレイ4内の端末3の位置も特定できるので、担当画素を各端末3にマッピングすることが可能になる。   The terminal 3 emits light based on the identification information light emission conversion data 60, the photographing device 6 photographs the display unit of the terminal 3, and the server 2 analyzes the photographing result by the photographing device 6, so that the terminal 3 can communicate with the server 2 itself. Can be transmitted. Further, since the server 2 can also specify the position of the terminal 3 in the pseudo display 4, it becomes possible to map the assigned pixel to each terminal 3.

尚、端末3を識別するための識別情報としては、図8に示すような連番(例えば、連携表示システム1b内において自動付番される連続番号)の識別番号61に限らず、端末3の個体識別番号でも良いし、端末3のユーザのメールアドレスでも良い。   Note that the identification information for identifying the terminal 3 is not limited to the identification number 61 of a serial number (for example, a serial number automatically numbered in the association display system 1b) as shown in FIG. The identification number may be used, or the mail address of the user of the terminal 3 may be used.

図9は、第2実施形態における事前準備処理の流れを示すフローチャートである。サーバ2及び端末3は、予め識別情報発光変換データ60を記憶部に記憶している。図9に示すように、端末3は、アプリケーションプログラムとデータをサーバ2からダウンロードし(ステップS301)、アプリケーションプログラムをインストールする。このアプリケーションプログラムは、後述するステップS302及びS303の処理、すなわち端末3の識別情報を色又は発光パターンを用いてサーバ2に伝達する機能を提供するためのプログラムである。ステップS301は、会場外で予め実行しておいても良い。アプリは、表示処理の他、後述する表示位置特定処理の内容を含む。ダウンロードするデータは、図2に示す動画データ10と図8に示す識別情報発光変換データ60であり、必要に応じて、図2に示す色相音声変換データ30及び輝度音量変換データ40も含む。   FIG. 9 is a flowchart illustrating the flow of the preparatory processing according to the second embodiment. The server 2 and the terminal 3 store the identification information light emission conversion data 60 in the storage unit in advance. As shown in FIG. 9, the terminal 3 downloads an application program and data from the server 2 (Step S301), and installs the application program. This application program is a program for providing a process of steps S302 and S303 described later, that is, a function of transmitting the identification information of the terminal 3 to the server 2 using a color or a light emission pattern. Step S301 may be performed in advance outside the venue. The application includes, in addition to the display processing, the content of a display position specifying processing described later. The data to be downloaded are the moving image data 10 shown in FIG. 2 and the identification information light emission conversion data 60 shown in FIG. 8, and also include the hue sound conversion data 30 and the luminance volume conversion data 40 shown in FIG.

次に、各端末3は、識別情報発光変換データ60に基づいて、自らの識別情報を発光パターンに変換し(ステップS302)、会場内において一斉に、発光パターンを表示部に表示する(ステップS303)。これに対して、撮影装置6は、擬似ディスプレイ4内の端末3の表示部を動画撮影し、撮影結果をサーバ2に送信する(ステップS304)。   Next, each terminal 3 converts its own identification information into a light emission pattern based on the identification information light emission conversion data 60 (step S302), and simultaneously displays the light emission pattern on the display unit in the venue (step S303). ). On the other hand, the image capturing device 6 captures a moving image of the display unit of the terminal 3 in the pseudo display 4, and transmits the captured result to the server 2 (step S304).

次に、サーバ2は、撮影装置6による撮影結果を解析し、端末3ごとに発光パターンを抽出し、端末3の発光位置、識別番号及び発光補正値を特定する(ステップS305)。   Next, the server 2 analyzes a photographing result of the photographing device 6, extracts a light emission pattern for each terminal 3, and specifies a light emission position, an identification number, and a light emission correction value of the terminal 3 (step S305).

端末3の発光位置の特定方法については、2つの方法を説明する。例えば、予め擬似ディスプレイ4内の横方向及び縦方向の座席数が明らかな場合、サーバ2は、横方向及び縦方向の座席数を横方向及び縦方向の画素数として記憶部に記憶しておく。そして、サーバ2は、横方向及び縦方向の画素数に基づいて、撮影装置6による撮影結果の各フレームの画像を各画素に分割し、端末3の発光点の画素位置を特定する。   Two methods will be described for the method of specifying the light emitting position of the terminal 3. For example, if the number of seats in the horizontal and vertical directions in the pseudo display 4 is known in advance, the server 2 stores the number of seats in the horizontal and vertical directions in the storage unit as the number of pixels in the horizontal and vertical directions. . Then, the server 2 divides the image of each frame obtained by the imaging device 6 into pixels based on the number of pixels in the horizontal direction and the vertical direction, and specifies the pixel position of the light emitting point of the terminal 3.

また、例えば、予め擬似ディスプレイ4内の横方向及び縦方向の座席数が不明な場合、サーバ2は、撮影装置6による撮影結果の画像から発光点の数を算出し、コンテンツのアスペクト比に応じて、発光点の数から横方向及び縦方向の画素数を算出しても良い。例えば、発光点の数が1,200個、コンテンツのアスペクト比が4:3の場合、横方向の画素数が40、縦方向の画素数が30となる。そして、サーバ2は、横方向及び縦方向の画素数に基づいて、撮影装置6による撮影結果の画像を各画素に分割し、端末3の発光点の画素位置を特定する。この方法であれば、概ね各端末3が1つの画素を担当することになる。尚、複数の端末3が同じ画素を担当しても良いし、どの端末3も担当しない画素が存在しても良い。但し、コンテンツの欠損画素をなくすためには、全ての画素について1つ以上の端末3が担当するように横方向及び縦方向の画素数を算出することが望ましい。   Further, for example, when the numbers of seats in the horizontal and vertical directions in the pseudo display 4 are not known in advance, the server 2 calculates the number of light emitting points from the image obtained by the imaging device 6 and calculates the number of light emitting points according to the aspect ratio of the content. Then, the number of pixels in the horizontal and vertical directions may be calculated from the number of light emitting points. For example, when the number of light emitting points is 1,200 and the aspect ratio of the content is 4: 3, the number of pixels in the horizontal direction is 40 and the number of pixels in the vertical direction is 30. Then, the server 2 divides the image obtained by the imaging device 6 into pixels based on the number of pixels in the horizontal direction and the vertical direction, and specifies the pixel position of the light emitting point of the terminal 3. In this method, each terminal 3 generally handles one pixel. Note that a plurality of terminals 3 may be in charge of the same pixel, or there may be a pixel which is not in charge of any terminal 3. However, in order to eliminate defective pixels in the content, it is desirable to calculate the number of pixels in the horizontal and vertical directions so that one or more terminals 3 are in charge of all the pixels.

尚、擬似ディスプレイ4内の横方向及び縦方向の座席数が不明な場合であっても、横方向及び縦方向の画素数を固定しても良い。すなわち、サーバ2は、設定値として横方向及び縦方向の画素数を記憶部に記憶しておいても良い。この場合、コンテンツの欠損画素をなくすためには、横方向及び縦方向の画素数を小さく設定しておくことが望ましい。   Even if the number of seats in the horizontal and vertical directions in the pseudo display 4 is unknown, the number of pixels in the horizontal and vertical directions may be fixed. That is, the server 2 may store the number of pixels in the horizontal direction and the vertical direction in the storage unit as the set value. In this case, in order to eliminate defective pixels in the content, it is desirable to set the number of pixels in the horizontal and vertical directions small.

次に、端末3の識別番号の特定方法について説明する。サーバ2は、撮影装置6による撮影結果の画像から、発光点ごとに色情報と発光パターンを算出する。そして、サーバ2は、識別情報発光変換データ60の中から最も近いRGB値62と発光パターン63の組み合わせを検索し、識別番号61を特定する。   Next, a method of specifying the identification number of the terminal 3 will be described. The server 2 calculates color information and a light emission pattern for each light emitting point from the image obtained by the image capturing device 6. Then, the server 2 searches the identification information light emission conversion data 60 for the closest combination of the RGB value 62 and the light emission pattern 63 and specifies the identification number 61.

次に、端末3の発光補正値の特定方法について説明する。スマートフォン等の端末3の表示部は、機種によって色や輝度の違いがある。そこで、それらの違いを吸収するために、サーバ2は、撮影装置6による撮影結果の画像から、端末3の発光補正値を特定する。例えば、端末3は、端末3ごとの発光パターンを表示部に表示した後、色調補正や輝度補正を行うための発光パターンを表示部に表示する。例えば、全ての端末3は、同一の輝度の設定値で発光パターンを表示し、サーバ2は、全ての発光点の輝度の平均を算出し、各発光点の輝度との差分を輝度補正に関する発光補正値に設定する。   Next, a method of specifying the light emission correction value of the terminal 3 will be described. The display unit of the terminal 3 such as a smartphone has different colors and brightness depending on the model. Therefore, in order to absorb those differences, the server 2 specifies the light emission correction value of the terminal 3 from the image obtained by the imaging device 6. For example, the terminal 3 displays a light emission pattern for each terminal 3 on the display unit, and then displays a light emission pattern for performing color tone correction and luminance correction on the display unit. For example, all the terminals 3 display the light emission pattern with the same luminance setting value, the server 2 calculates the average of the luminance of all the light emission points, and calculates the difference between the luminance of each light emission point and the light emission related to the luminance correction. Set the correction value.

図9の説明に戻る。次に、サーバ2は、端末3ごとの担当画素の画素位置と発光補正値を端末3に送信する(ステップS306)。また、サーバ2は、必要に応じて、横方向及び縦方向の画素数も端末3に送信する。サーバ2は、識別番号に基づいて送信先の端末3を特定し、インターネット又は1対1の無線通信を介して、担当画素の画素位置と発光補正値を送信しても良い。又は、サーバ2は、WiFiを介して、全ての端末3の識別番号と担当画素の画素位置及び発光補正値との対応付けをブロードキャスト通信によって配信しても良い。   Returning to the description of FIG. Next, the server 2 transmits the pixel position of the assigned pixel and the light emission correction value for each terminal 3 to the terminal 3 (Step S306). The server 2 also transmits the number of pixels in the horizontal direction and the vertical direction to the terminal 3 as necessary. The server 2 may specify the destination terminal 3 based on the identification number, and transmit the pixel position of the responsible pixel and the light emission correction value via the Internet or one-to-one wireless communication. Alternatively, the server 2 may distribute the associations of the identification numbers of all the terminals 3 with the pixel positions of the assigned pixels and the light emission correction values via WiFi, via WiFi.

次に、端末3は、担当画素の画素位置と発光補正値を受信し(ステップS307)、発光補正値に基づいて担当画素の出力データを補正する(ステップS308)。例えば、平均よりも発光点の輝度が低い端末3は、高輝度の設定値で担当画素の出力データを表示するように出力データを補正する。そして、端末3は、担当画素の出力データを主記憶部に常駐させておく(ステップS309)。尚、端末3は、必要に応じて、サーバ2から受信する横方向及び縦方向の画素数に基づいてコンテンツの動画像をデコードし、担当画素の出力データを抽出する。   Next, the terminal 3 receives the pixel position and the light emission correction value of the assigned pixel (Step S307), and corrects the output data of the assigned pixel based on the emission correction value (Step S308). For example, the terminal 3 whose luminance at the light emitting point is lower than the average corrects the output data so that the output data of the assigned pixel is displayed with the high luminance set value. Then, the terminal 3 stores the output data of the assigned pixel in the main storage unit (step S309). The terminal 3 decodes the moving image of the content based on the number of pixels in the horizontal direction and the vertical direction received from the server 2 as needed, and extracts output data of the assigned pixel.

以上の通り、第2実施形態では、識別番号ごとの発光パターンを含む識別情報発光変換データ60を予め作成しておき、端末3が自らの識別番号に対応する発光パターンを表示部に表示し、撮影装置6が端末3の表示部を撮影し、サーバ2が撮影装置6による撮影結果を解析することによって端末3の識別番号及び担当画素の画素位置を特定する。これによって、座席番号5が定められていない会場であっても、担当画素を各端末3にマッピングすることが可能になる。尚、第2実施形態における表示処理は、第1実施形態における表示処理と同様に実行可能であるため、説明を省略する。   As described above, in the second embodiment, the identification information light emission conversion data 60 including the light emission pattern for each identification number is created in advance, and the terminal 3 displays the light emission pattern corresponding to its own identification number on the display unit. The photographing device 6 photographs the display unit of the terminal 3, and the server 2 analyzes the photographing result of the photographing device 6 to specify the identification number of the terminal 3 and the pixel position of the assigned pixel. Thus, the assigned pixel can be mapped to each terminal 3 even in a venue where the seat number 5 is not defined. Note that the display processing according to the second embodiment can be executed in the same manner as the display processing according to the first embodiment, and a description thereof will be omitted.

図10は、入力情報発光変換データ70の一例を示す図である。入力情報発光変換データ70は、予めサーバ2及び端末3の記憶部に記憶されている。第2実施形態では、観客に対するアンケート結果を集計するために、予め定められる入力情報発光変換データ70を用いる。   FIG. 10 is a diagram illustrating an example of the input information light emission conversion data 70. The input information light emission conversion data 70 is stored in the storage units of the server 2 and the terminal 3 in advance. In the second embodiment, predetermined input information light emission conversion data 70 is used to total the questionnaire results for the audience.

入力情報発光変換データ70は、例えば、アンケートの回答に関する入力値71ごとに、RGB値72と発光パターン73を含む。RGB値72は、図8に示すRGB値62と同様の意味を持つデータ項目である。発光パターン73は、図8に示す発光パターン63と同様の意味を持つデータ項目である。RGB値72及び発光パターン73は、入力値71ごとに異なる組み合わせとする。図10に示す例では、アンケートは、1、2、3、・・・のように、番号で回答する。   The input information light emission conversion data 70 includes, for example, an RGB value 72 and a light emission pattern 73 for each input value 71 relating to a questionnaire response. The RGB value 72 is a data item having the same meaning as the RGB value 62 shown in FIG. The light emission pattern 73 is a data item having the same meaning as the light emission pattern 63 shown in FIG. The RGB value 72 and the light emission pattern 73 are different combinations for each input value 71. In the example shown in FIG. 10, the questionnaire is answered by a number such as 1, 2, 3,.

図11は、第2実施形態におけるアンケート集計処理の流れを示すフローチャートである。第2実施形態では、サーバ2が複数の端末3から一括して情報を収集する情報収集処理を実行できる。アンケート集計処理は、情報収集処理の一例である。   FIG. 11 is a flowchart showing the flow of the questionnaire totalizing process in the second embodiment. In the second embodiment, the server 2 can execute an information collection process of collecting information from a plurality of terminals 3 at a time. The questionnaire totalizing process is an example of an information collecting process.

サーバ2及び端末3は、予め入力情報発光変換データ70を記憶部に記憶している。図11に示すように、端末3は、ユーザからアンケート結果を受け付けて、入力部を介してアンケート結果を入力する(ステップS401)。   The server 2 and the terminal 3 store the input information light emission conversion data 70 in the storage unit in advance. As shown in FIG. 11, the terminal 3 receives a questionnaire result from a user and inputs the questionnaire result via the input unit (Step S401).

次に、端末3は、入力情報発光変換データ70に基づいて、ステップS401において入力されるアンケート結果を発光パターンに変換し(ステップS402)、会場内において一斉に、変換される発光パターンを表示部に表示する(ステップS403)。これに対して、撮影装置6は、擬似ディスプレイ4内の端末3の表示部を撮影し、撮影結果をサーバ2に送信する(ステップS404)。   Next, the terminal 3 converts the questionnaire result input in step S401 into a light emission pattern based on the input information light emission conversion data 70 (step S402), and simultaneously displays the converted light emission pattern in the hall. (Step S403). On the other hand, the photographing device 6 photographs the display unit of the terminal 3 in the pseudo display 4 and transmits the photographed result to the server 2 (step S404).

次に、サーバ2は、撮影装置6による撮影結果を解析し、端末3ごとに発光パターンを抽出し、アンケート結果を特定する(ステップS405)。具体的には、サーバ2が、撮影装置6による撮影結果の画像から、発光点ごとに色情報と発光パターンを算出する。そして、サーバ2が、入力情報発光変換データ70の中から最も近いRGB値72と発光パターン73の組み合わせを検索し、入力値71を特定する。   Next, the server 2 analyzes the photographing result of the photographing device 6, extracts a light emission pattern for each terminal 3, and specifies a questionnaire result (step S405). Specifically, the server 2 calculates the color information and the light emission pattern for each light emitting point from the image obtained by the image capturing device 6. Then, the server 2 searches the input information light emission conversion data 70 for the closest combination of the RGB value 72 and the light emission pattern 73 and specifies the input value 71.

そして、サーバ2はアンケート結果を集計する(ステップS406)。サーバ2は、BLE等を介して端末3にアンケート結果を送信しても良い。また、会場内に擬似ディスプレイ4とは異なる大画面ディスプレイが存在する場合、サーバ2は、ステップS406において集計されるアンケート結果を大画面ディスプレイに出力しても良い。   Then, the server 2 totals the questionnaire results (step S406). The server 2 may transmit the questionnaire result to the terminal 3 via BLE or the like. When a large screen display different from the pseudo display 4 exists in the venue, the server 2 may output the questionnaire results totaled in step S406 to the large screen display.

端末3の数は、撮影装置6の撮影結果によって各端末3の表示部の発光を識別可能である限り、制限がない。そして、サーバ2は、擬似ディスプレイ4内の端末3からアンケート結果を同時に読み取ることができるので、数万人規模のアンケート結果も高速に集計することができる。これによって、アンケート結果に基づいて再生する動画を選択することができる。例えば、投票結果の多い動画コンテンツを優先して再生することができる。また、性別や年齢、誰のファンなのかを区別した表示を行う等の演出にアンケート結果を使用することができる。例えば、性別等の情報に基づいて、客席のグループごとに(例えば、レフト側とライト側等)、表示コンテンツを変えることができる。   The number of the terminals 3 is not limited as long as the light emission of the display unit of each terminal 3 can be identified by the photographing result of the photographing device 6. Since the server 2 can simultaneously read the questionnaire results from the terminal 3 in the pseudo display 4, the server 2 can also collect the questionnaire results of tens of thousands of people at a high speed. Thereby, a moving image to be reproduced can be selected based on the questionnaire result. For example, video content with a large number of voting results can be preferentially reproduced. In addition, the questionnaire results can be used for effects such as gender, age, and a display that distinguishes who the fan is. For example, the display content can be changed for each group of the seats (for example, the left side and the right side) based on information such as gender.

また、連携表示システム1bは、情報収集処理の一例としてメッセージ収集処理も実現することができる。例えば、図10に示す入力情報発光変換データ70を拡張し、数字だけでなく、文字についても発光パターンを対応付けておく(例えば、文字コードに対応付けて発光パターンを定義しておく。)。端末3は、送りたいメッセージを構成する1文字ごとに発光パターンを切り替えて表示部に表示する。サーバ2は、撮影装置6による撮影結果を解析し、発光パターンごとに文字を特定し、メッセージを復元する。そして、サーバ2は、擬似ディスプレイ4とは異なる大画面ディスプレイに、復元されるメッセージをリアルタイムに出力しても良い。これによって、例えば、メッセージの復元ごとに大画面ディスプレイに出力を開始し、複数のメッセージが時系列順に川のように流れる表示形態を実現することができる。   The cooperative display system 1b can also implement a message collection process as an example of the information collection process. For example, the input information light-emission conversion data 70 shown in FIG. 10 is extended, and light-emitting patterns are associated not only with numbers but also with characters (for example, light-emitting patterns are defined in association with character codes). The terminal 3 switches the light emission pattern for each character constituting the message to be sent and displays the light emission pattern on the display unit. The server 2 analyzes the photographing result of the photographing device 6, specifies a character for each light emission pattern, and restores a message. Then, the server 2 may output the restored message on a large screen display different from the pseudo display 4 in real time. Thereby, for example, the output is started to the large-screen display every time the message is restored, and a display form in which a plurality of messages flow like a river in chronological order can be realized.

以上、添付図面を参照しながら、本発明に係る連携表示システム等の好適な実施形態について説明したが、本発明はかかる例に限定されない。当業者であれば、本願で開示した技術的思想の範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   As described above, the preferred embodiments of the cooperative display system and the like according to the present invention have been described with reference to the accompanying drawings, but the present invention is not limited to such examples. It is obvious to those skilled in the art that various changes or modifications can be made within the scope of the technical idea disclosed in the present application, and these naturally belong to the technical scope of the present invention. I understand.

1a、1b.........表示連携システム
2.........サーバ
3.........端末
4.........擬似ディスプレイ
5.........座席番号
6.........撮影装置
10.........動画データ
20.........マップデータ
30.........色相音声変換データ
40.........輝度音量変換データ
50.........出力データ
60.........識別情報発光変換データ
70.........入力情報発光変換データ
1a, 1b ... Display coordination system 2 ... Server 3 ... Terminal 4 ... Pseudo display 5 ......... seat number 6 ......... shooting device 10 ......... video data 20 ......... map data 30 .. ....... Hue sound conversion data 40 ...... Brightness / volume conversion data 50 ......... Output data 60 ......... Identification information emission Conversion data 70 ............ Input information light emission conversion data

Claims (7)

表示部を有する複数の端末が連携して単一の擬似ディスプレイを構成し、動画像のコンテンツを表示する連携表示システムであって、
前記端末と通信可能なサーバを備え、
前記端末が、前記コンテンツの全画素の表示情報を含む動画データを記憶するステップと、
前記端末が、座席番号の入力を受け付けるステップと、
前記端末が、前記座席番号と前記擬似ディスプレイ内の画素位置との対応付けを示すマップデータに基づいて、自らが担当する画素の前記画素位置を特定するステップと、
前記端末が、前記動画データの中から、特定される前記画素位置に関する前記表示情報を抽出するステップと、
を含む事前準備処理と、
前記端末が、前記サーバからの命令に従い、前記表示情報を表示するステップ、
を含む表示処理と、
を実行することを特徴とする連携表示システム。
A cooperative display system in which a plurality of terminals having a display unit cooperate to constitute a single pseudo display, and display moving image content,
A server capable of communicating with the terminal,
The terminal stores moving image data including display information of all pixels of the content,
Wherein the terminal accepts an input of a seat number;
The terminal, based on the map data indicating the association between the seat number and the pixel position in the pseudo display, identifying the pixel position of the pixel that is responsible for itself,
The terminal, from the video data, extracting the display information regarding the specified pixel position,
Advance preparation processing including
The terminal displaying the display information according to a command from the server;
A display process including
And a cooperative display system.
前記事前準備処理は、更に、
前記端末が、抽出される前記表示情報を時系列順に即時に読み出し可能な状態とするステップ、
を含むことを特徴とする請求項1に記載の連携表示システム。
The advance preparation process further includes:
A step in which the terminal is in a state where the display information to be extracted can be immediately read in chronological order;
The link display system according to claim 1, further comprising:
前記事前準備処理は、更に、
前記端末が、前記表示情報の中から得られる情報に基づいて音声チャンネル及び音量を特定するステップと、
前記端末が、特定される前記音声チャンネル及び前記音量に基づく音情報を時系列順に即時に読み出し可能な状態とするステップと、
を含むことを特徴とする請求項2に記載の連携表示システム。
The advance preparation process further includes:
Wherein the terminal specifies an audio channel and a volume based on information obtained from the display information;
The terminal, the sound channel based on the specified audio channel and the sound volume in a state that can be immediately read in chronological order sound information,
The link display system according to claim 2, comprising:
前記表示処理は、更に、
前記サーバが、前記動画データの先頭フレームの表示開始命令を前記端末に送信するステップと、
前記端末が、前記表示開始命令を受信すると、前記先頭フレームから時系列順に前記表示情報を表示するステップと、
前記サーバが、所定の間隔で表示同期命令を前記端末に送信するステップと、
前記端末が、前記表示同期命令を受信する前に所定フレーム数分の前記表示情報を表示した場合、前記表示同期命令を受信した後に所定フレーム数分の次フレームに関する前記表示情報を表示し、前記所定フレーム数分の前記表示情報を表示する前に前記表示同期命令を受信した場合、即時に前記所定フレーム数分の次フレームに関する前記表示情報を表示するステップと、
を含むことを特徴とする請求項1乃至請求項3のいずれかに記載の連携表示システム。
The display processing further includes:
The server transmits a display start command of a first frame of the moving image data to the terminal,
The terminal, when receiving the display start command, displaying the display information in chronological order from the first frame,
The server transmitting a display synchronization command to the terminal at predetermined intervals;
If the terminal displays the display information for a predetermined number of frames before receiving the display synchronization command, the terminal displays the display information for the next frame for the predetermined number of frames after receiving the display synchronization command, When the display synchronization command is received before displaying the display information for a predetermined number of frames, displaying the display information on the next frame for the predetermined number of frames immediately,
The linked display system according to any one of claims 1 to 3, further comprising:
前記表示処理において、前記端末が、前記表示情報を表示することに同期して、前記音情報を出力することを特徴とする請求項3に記載の連携表示システム。   4. The cooperative display system according to claim 3, wherein in the display processing, the terminal outputs the sound information in synchronization with displaying the display information. 表示部を有する複数の端末が連携して単一の擬似ディスプレイを構成し、動画像のコンテンツを表示する連携表示システムであって、
前記端末と通信可能なサーバと、前記擬似ディスプレイ内の領域を撮影する撮影装置とを備え、
前記端末が、前記端末の識別情報を色又は発光パターンを用いて前記サーバに伝達する機能を提供するためのプログラムを記憶するステップと、
前記端末が、前記端末の前記識別情報と前記色又は前記発光パターンの対応付けを示す識別情報発光変換データに基づいて、自らの前記識別情報を前記色又は前記発光パターンに変換するステップと、
前記端末が、変換される前記色又は前記発光パターンを表示するステップと、
前記撮影装置が、前記擬似ディスプレイ内に含まれる前記端末の前記表示部を撮影するステップと、
前記サーバが、前記撮影装置による撮影結果を解析し、前記端末ごとに前記色又は前記発光パターンを抽出するステップと、
前記サーバが、抽出される前記色又は前記発光パターンの位置に基づいて、前記擬似ディスプレイ内の画素位置を特定するステップと、
前記サーバが、前記識別情報発光変換データを参照し、抽出される前記色又は前記発光パターンに基づいて前記識別情報を特定するステップと、
前記サーバが、前記識別情報と対応付けられる前記画素位置を前記端末に送信するステップと、
前記端末が、前記識別情報と対応付けられる前記画素位置を受信し、前記コンテンツの中から、自らの前記識別情報と対応付けられる前記画素位置に関する表示情報を抽出するステップと、
を含む事前準備処理と、
前記端末が、前記サーバからの命令に従い、前記表示情報を表示するステップ、
を含む表示処理と、
を実行することを特徴とする連携表示システム。
A cooperative display system in which a plurality of terminals having a display unit cooperate to constitute a single pseudo display, and display moving image content,
A server capable of communicating with the terminal, and a photographing device that photographs an area in the pseudo display,
The terminal, a step of storing a program for providing a function of transmitting the identification information of the terminal to the server using a color or light emission pattern,
The terminal, based on the identification information light emission conversion data indicating the correspondence between the identification information and the color or the light emitting pattern of the terminal, the step of converting its own identification information into the color or the light emitting pattern,
The terminal displays the color or the light emission pattern to be converted,
The image capturing apparatus captures the display unit of the terminal included in the pseudo display,
The server analyzes a photographing result by the photographing device, and extracts the color or the light emission pattern for each terminal;
The server specifying a pixel position in the pseudo display based on the position of the color or the light emission pattern to be extracted;
The server refers to the identification information light emission conversion data, and specifies the identification information based on the extracted color or the light emission pattern,
The server transmits the pixel position associated with the identification information to the terminal,
The terminal receives the pixel position associated with the identification information, from the content, extracting display information about the pixel position associated with its own identification information,
Preparation process including
The terminal displaying the display information according to a command from the server;
A display process including
And a cooperative display system.
表示部を有する複数の端末が連携して単一の擬似ディスプレイを構成し、動画像のコンテンツを表示する連携表示システムであって、
前記端末と通信可能なサーバと、前記擬似ディスプレイ内の領域を撮影する撮影装置とを備え、
前記端末が、ユーザによる入力情報を入力するステップと、
前記端末が、前記入力情報と色又は発光パターンの対応付けを示す入力情報発光変換データに基づいて、入力される前記入力情報を前記色又は前記発光パターンに変換するステップと、
前記端末が、変換される前記色又は前記発光パターンを表示するステップと、
前記撮影装置が、前記擬似ディスプレイ内に含まれる前記端末の前記表示部を撮影するステップと、
前記サーバが、前記撮影装置による撮影結果を解析し、前記端末ごとに前記色又は前記発光パターンを抽出するステップと、
前記サーバが、前記入力情報発光変換データを参照し、抽出される前記色又は前記発光パターンに基づいて前記入力情報を特定するステップと、
を含む情報収集処理を実行することを特徴とする連携表示システム。
A cooperative display system in which a plurality of terminals having a display unit cooperate to constitute a single pseudo display, and display moving image content,
A server capable of communicating with the terminal, and a photographing device that photographs an area in the pseudo display,
The terminal inputs information input by the user,
The terminal, based on input information light emission conversion data indicating the correspondence between the input information and color or light emission pattern, the input information to be input is converted to the color or the light emission pattern,
The terminal displays the color or the light emission pattern to be converted,
The image capturing apparatus captures the display unit of the terminal included in the pseudo display,
The server analyzes a photographing result by the photographing device, and extracts the color or the light emission pattern for each terminal;
A step in which the server refers to the input information light emission conversion data and specifies the input information based on the extracted color or the light emission pattern;
A cooperative display system characterized by executing an information collection process including:
JP2016238929A 2016-12-09 2016-12-09 Collaborative display system Pending JP2020030223A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016238929A JP2020030223A (en) 2016-12-09 2016-12-09 Collaborative display system
PCT/JP2017/042512 WO2018105436A1 (en) 2016-12-09 2017-11-28 Cooperative display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016238929A JP2020030223A (en) 2016-12-09 2016-12-09 Collaborative display system

Publications (1)

Publication Number Publication Date
JP2020030223A true JP2020030223A (en) 2020-02-27

Family

ID=62491954

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016238929A Pending JP2020030223A (en) 2016-12-09 2016-12-09 Collaborative display system

Country Status (2)

Country Link
JP (1) JP2020030223A (en)
WO (1) WO2018105436A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024034412A1 (en) * 2022-08-10 2024-02-15 ソニーグループ株式会社 Information processing system, information processing device and method, and program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023061262A (en) * 2021-10-19 2023-05-01 キヤノン株式会社 image display system

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08125760A (en) * 1994-10-28 1996-05-17 Hitachi Ltd Information processor
JP4483180B2 (en) * 2003-03-04 2010-06-16 日本電気株式会社 Synchronous video playback system
JP2005244931A (en) * 2004-01-26 2005-09-08 Seiko Epson Corp Multi-screen video reproducing system
JP5067595B2 (en) * 2005-10-17 2012-11-07 ソニー株式会社 Image display apparatus and method, and program
JP2008164986A (en) * 2006-12-28 2008-07-17 Fuji Electric Holdings Co Ltd Video display system
JP6241103B2 (en) * 2013-07-19 2017-12-06 株式会社リコー Collective output system, terminal device and output program
JP2016038514A (en) * 2014-08-08 2016-03-22 キヤノン株式会社 Display control device, display device, control method of display control device and display device and program thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024034412A1 (en) * 2022-08-10 2024-02-15 ソニーグループ株式会社 Information processing system, information processing device and method, and program

Also Published As

Publication number Publication date
WO2018105436A1 (en) 2018-06-14

Similar Documents

Publication Publication Date Title
US10645506B2 (en) Electronic device and music visualization method thereof
US9918058B2 (en) Information processing to allow projector units to project images in cooperation
JP2018110354A (en) Communication terminal, image communication system, communication method, and program
KR101970358B1 (en) Central server and performance system including central server
US10303419B2 (en) Information processing system, display processing apparatus, display processing method, and recording medium
CN109547724B (en) Video stream data processing method, electronic equipment and storage device
US11743590B2 (en) Communication terminal, image communication system, and method for displaying image
US20220103763A1 (en) Communication management apparatus, image communication system, communication management method, and recording medium
JP2018036540A (en) Display device, and method for controlling display device
KR102247264B1 (en) Performance directing system
JP6241103B2 (en) Collective output system, terminal device and output program
JP2020030223A (en) Collaborative display system
JP2008085555A (en) Information display device, display control method and display control program
JP2014142467A (en) Image output device and control method thereof, system, program, and storage medium
JP2020067629A (en) Image processing device and image processing method
WO2019102886A1 (en) Performance control system, control device, and wireless communication terminal
KR20200050448A (en) Performance directing system
US10616724B2 (en) Method, device, and non-transitory computer-readable recording medium for supporting relay broadcasting using mobile device
US10970828B2 (en) Image processing apparatus, image processing system, image processing method, and recording medium
CN210015702U (en) Ferris wheel multimedia informatization vocal accompaniment system
JP2016184921A (en) Information setting device, information management device, information generating device, and method and program for controlling them
KR20170059310A (en) Device for transmitting tele-presence image, device for receiving tele-presence image and system for providing tele-presence image
JP2016225823A (en) Display system, information terminal, display device, reproduction control program, and reproduction control method
KR20070121913A (en) System and method for providing dance moving picture and program recording medium
JP6492460B2 (en) Transmission terminal, transmission method, and program

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20161222