JP2020030223A - Collaborative display system - Google Patents
Collaborative display system Download PDFInfo
- Publication number
- JP2020030223A JP2020030223A JP2016238929A JP2016238929A JP2020030223A JP 2020030223 A JP2020030223 A JP 2020030223A JP 2016238929 A JP2016238929 A JP 2016238929A JP 2016238929 A JP2016238929 A JP 2016238929A JP 2020030223 A JP2020030223 A JP 2020030223A
- Authority
- JP
- Japan
- Prior art keywords
- display
- terminal
- information
- server
- light emission
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09F—DISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
- G09F19/00—Advertising or display means not otherwise provided for
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/12—Synchronisation between the display unit and other units, e.g. other display units, video-disc players
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
Abstract
Description
本発明は、表示部を有する複数の端末が連携して単一の擬似ディスプレイを構成する連携表示システムに関するものである。 The present invention relates to a cooperative display system in which a plurality of terminals having a display unit cooperate to configure a single pseudo display.
従来、コンサートなどのイベントにおいて、観客がケミカルライトや電池式のペンライトを用いて歌手などを応援することが行われている。近年は、無線通信を介して制御可能なペンライトも存在する(特許文献1参照)。特許文献1に記載のペンライトによれば、一斉に消灯、点灯、色の変更を行うことができ、会場の一体感を演出することができる。
2. Description of the Related Art Conventionally, in events such as concerts, spectators have cheered on singers using chemical lights or battery-powered penlights. In recent years, there is also a penlight that can be controlled via wireless communication (see Patent Document 1). According to the penlight described in
また、特許文献2には、より汎用性が高く、各装置が統一的な動作を行う協働システムが開示されている。特許文献2に記載の協働システムによれば、親機が信号を発信し、協働装置が信号を受信するとともに、他の協働装置に同様の信号を送信することを繰り返すので、波紋が広がるように信号を伝えていくことができる。
Further,
しかしながら、特許文献1及び2のいずれにおいても、ペンライトや協働装置の正確な位置を把握することについて記載されていないため、ペンライトや協働装置が連動して巨大な単一の擬似ディスプレイを構成することはできない。
However, neither
本発明は、前述した問題点に鑑みてなされたものであり、その目的とすることは、表示部を有する複数の端末が連携して単一の擬似ディスプレイを構成する連携表示システムを提供することである。 The present invention has been made in view of the above-described problems, and an object of the present invention is to provide a cooperative display system in which a plurality of terminals having a display unit cooperate to form a single pseudo-display. It is.
前述した目的を達成するための第1の発明は、表示部を有する複数の端末が連携して単一の擬似ディスプレイを構成し、動画像のコンテンツを表示する連携表示システムであって、前記端末と通信可能なサーバを備え、前記端末が、前記コンテンツの全画素の表示情報を含む動画データを記憶するステップと、前記端末が、座席番号の入力を受け付けるステップと、前記端末が、前記座席番号と前記擬似ディスプレイ内の画素位置との対応付けを示すマップデータに基づいて、自らが担当する画素の前記画素位置を特定するステップと、前記端末が、前記動画データの中から、特定される前記画素位置に関する前記表示情報を抽出するステップと、を含む事前準備処理と、前記端末が、前記サーバからの命令に従い、前記表示情報を表示するステップ、を含む表示処理と、を実行することを特徴とする連携表示システムである。第1の発明によって、表示部を有する複数の端末が連携して単一の擬似ディスプレイを構成することができる。特に、座席番号が定められている会場であれば、容易に擬似ディスプレイを構成することができる。 According to a first aspect of the present invention, there is provided a cooperative display system in which a plurality of terminals having a display unit cooperate to constitute a single pseudo-display and display moving image content. A terminal capable of communicating with the terminal, the terminal stores moving image data including display information of all pixels of the content, the terminal accepts an input of a seat number, and the terminal And based on map data indicating the correspondence between the pixel position in the pseudo display and the step of specifying the pixel position of the pixel in charge of itself, the terminal, the terminal specified from the video data, A preparatory process including a step of extracting the display information related to a pixel position; and the terminal displays the display information according to a command from the server. Step a cooperative display system and executes a display processing, the containing. According to the first aspect, a plurality of terminals having a display unit can cooperate to configure a single pseudo display. In particular, if the venue has a fixed seat number, the pseudo display can be easily configured.
第1の発明における前記事前準備処理は、更に、前記端末が、抽出される前記表示情報を時系列順に即時に読み出し可能な状態とするステップ、を含むようにしても良い。これによって、各端末の処理速度の違いにより、表示開始までの遅延時間が大きくなることを防ぐことができる。一般に、動画のデコードはCPUの負荷が大きく、処理速度の違いにより表示を開始するまでの時間が大幅にばらつくことが想定される。全画素数の動画データではなく、表示を担当する1画素の表示データを事前に用意することで、その都度デコードすることなく、すぐに表示できるようになる。ひいては、表示開始の遅延時間のばらつきを最小限に抑えることができる。 The preparatory processing according to the first invention may further include a step of setting the terminal so that the terminal can immediately read out the extracted display information in chronological order. Thus, it is possible to prevent an increase in delay time until the start of display due to a difference in processing speed of each terminal. In general, decoding of a moving image imposes a heavy load on the CPU, and it is assumed that the time required to start display varies greatly due to a difference in processing speed. By preparing display data of one pixel in charge of display instead of moving image data of the total number of pixels in advance, it is possible to immediately display without decoding each time. As a result, it is possible to minimize the variation in the delay time of the display start.
また、第1の発明における前記事前準備処理は、更に、前記端末が、前記表示情報の中から得られる情報に基づいて音声チャンネル及び音量を特定するステップと、前記端末が、特定される前記音声チャンネル及び前記音量に基づく音情報を時系列順に即時に読み出し可能な状態とするステップと、を含むようにしても良い。これによって、端末は、表示処理の際、音情報もすぐに読み出すことができる。 In addition, the advance preparation processing in the first invention further includes a step in which the terminal specifies an audio channel and a volume based on information obtained from the display information, and the terminal includes Setting the sound information based on the sound channel and the sound volume to be immediately readable in chronological order. This allows the terminal to immediately read out the sound information during the display processing.
また、第1の発明における前記表示処理は、更に、前記サーバが、前記動画データの先頭フレームの表示開始命令を前記端末に送信するステップと、前記端末が、前記表示開始命令を受信すると、前記先頭フレームから時系列順に前記表示情報を表示するステップと、前記サーバが、所定の間隔で表示同期命令を前記端末に送信するステップと、前記端末が、前記表示同期命令を受信する前に所定フレーム数分の前記表示情報を表示した場合、前記表示同期命令を受信した後に所定フレーム数分の次フレームに関する前記表示情報を表示し、前記所定フレーム数分の前記表示情報を表示する前に前記表示同期命令を受信した場合、即時に前記所定フレーム数分の次フレームに関する前記表示情報を表示するステップと、を含むようにしても良い。これによって、再生時間が長い動画像であっても、徐々に表示がずれていくことを防ぎ、最後まで表示のずれの発生を抑制することができる。 Further, in the display processing according to the first aspect, the server further includes a step of transmitting a display start instruction of a head frame of the moving image data to the terminal; and the terminal receives the display start instruction. Displaying the display information in chronological order from the first frame, the server transmitting a display synchronization command to the terminal at a predetermined interval, and the terminal receiving a display synchronization command at a predetermined frame before receiving the display synchronization command. When displaying the display information for several frames, displaying the display information for the next frame for a predetermined frame number after receiving the display synchronization command, and displaying the display information before displaying the display information for the predetermined frame number. Displaying the display information about the next frame for the predetermined number of frames immediately after receiving the synchronization command. . As a result, even if the moving image has a long playback time, it is possible to prevent the display from gradually shifting, and to suppress the occurrence of the display shift to the end.
また、第1の発明における前記表示処理において、前記端末が、前記表示情報を表示することに同期して、前記音情報を出力するようにしても良い。これによって、擬似ディスプレイ上の表示と音声の連動が可能となる。 Further, in the display processing according to the first aspect, the terminal may output the sound information in synchronization with displaying the display information. Thus, the display on the pseudo display and the sound can be linked.
第2の発明は、表示部を有する複数の端末が連携して単一の擬似ディスプレイを構成し、動画像のコンテンツを表示する連携表示システムであって、前記端末と通信可能なサーバと、前記擬似ディスプレイ内の領域を撮影する撮影装置とを備え、前記端末が、前記端末の識別情報を色又は発光パターンを用いて前記サーバに伝達する機能を提供するためのプログラムを記憶するステップと、前記端末が、前記端末の前記識別情報と前記色又は前記発光パターンの対応付けを示す識別情報発光変換データに基づいて、自らの前記識別情報を前記色又は前記発光パターンに変換するステップと、前記端末が、変換される前記色又は前記発光パターンを表示するステップと、前記撮影装置が、前記擬似ディスプレイ内に含まれる前記端末の前記表示部を撮影するステップと、前記サーバが、前記撮影装置による撮影結果を解析し、前記端末ごとに前記色又は前記発光パターンを抽出するステップと、前記サーバが、抽出される前記色又は前記発光パターンの位置に基づいて、前記擬似ディスプレイ内の画素位置を特定するステップと、前記サーバが、前記識別情報発光変換データを参照し、抽出される前記色又は前記発光パターンに基づいて前記識別情報を特定するステップと、前記サーバが、前記識別情報と対応付けられる前記画素位置を前記端末に送信するステップと、前記端末が、前記識別情報と対応付けられる前記画素位置を受信し、前記コンテンツの中から、自らの前記識別情報と対応付けられる前記画素位置に関する表示情報を抽出するステップと、を含む事前準備処理と、前記端末が、前記サーバからの命令に従い、前記表示情報を表示するステップ、を含む表示処理と、を実行することを特徴とする連携表示システムである。第2の発明によって、表示部を有する複数の端末が連携して単一の擬似ディスプレイを構成することができる。特に、座席番号が定められていない会場であっても、担当画素を各端末にマッピングすることが可能になる。 A second invention is a cooperative display system in which a plurality of terminals having a display unit cooperate to form a single pseudo display and display moving image content, and a server capable of communicating with the terminal, Comprising a photographing device for photographing an area in a pseudo display, wherein the terminal stores a program for providing a function of transmitting identification information of the terminal to the server using a color or a light emission pattern; and A step of converting the identification information of the terminal into the color or the light emission pattern based on identification information light emission conversion data indicating the correspondence between the identification information and the color or the light emission pattern of the terminal; Displaying the color or the light emission pattern to be converted, and wherein the photographing device displays the display of the terminal included in the pseudo display. Photographing, the server analyzes the photographing result by the photographing device, and extracts the color or the light emitting pattern for each terminal; and the server extracts the color or the light emitting pattern to be extracted. Identifying a pixel position in the pseudo display based on the position, and the server identifies the identification information based on the extracted color or emission pattern with reference to the identification information light emission conversion data Step and the server, the step of transmitting the pixel position associated with the identification information to the terminal, the terminal receives the pixel position associated with the identification information, from the content, A step of extracting display information about the pixel position associated with the identification information of the own, Serial terminal, in accordance with instructions from the server, a cooperative display system and executes a display process including the step of displaying the display information. According to the second aspect, a plurality of terminals having a display unit can cooperate to form a single pseudo display. In particular, the assigned pixel can be mapped to each terminal even in a venue where a seat number is not defined.
第3の発明は、表示部を有する複数の端末が連携して単一の擬似ディスプレイを構成し、動画像のコンテンツを表示する連携表示システムであって、前記端末と通信可能なサーバと、前記擬似ディスプレイ内の領域を撮影する撮影装置とを備え、前記端末が、ユーザによる入力情報を入力するステップと、前記端末が、前記入力情報と色又は発光パターンの対応付けを示す入力情報発光変換データに基づいて、入力される前記入力情報を前記色又は前記発光パターンに変換するステップと、前記端末が、変換される前記色又は前記発光パターンを表示するステップと、前記撮影装置が、前記擬似ディスプレイ内に含まれる前記端末の前記表示部を撮影するステップと、前記サーバが、前記撮影装置による撮影結果を解析し、前記端末ごとに前記色又は前記発光パターンを抽出するステップと、前記サーバが、前記入力情報発光変換データを参照し、抽出される前記色又は前記発光パターンに基づいて前記入力情報を特定するステップと、を含む情報収集処理を実行することを特徴とする連携表示システムである。第3の発明によって、サーバは、擬似ディスプレイ内の端末からアンケート結果やメッセージを同時に読み取ることができるので、数万人規模のアンケート結果も高速に集計したり、複数のメッセージをリアルタイムに取得したりすることができる。これによって、アンケート結果に基づいて再生する動画を選択することができる。例えば、投票結果の多い動画コンテンツを優先して再生することができる。また、性別や年齢、誰のファンなのかを区別した表示を行う等の演出にアンケート結果を使用することができる。例えば、性別等の情報に基づいて、客席のグループごとに(例えば、レフト側とライト側等)、表示コンテンツを変えることができる。 A third invention is a cooperative display system in which a plurality of terminals having a display unit cooperate to constitute a single pseudo-display and display moving image content, wherein a server capable of communicating with the terminal, A photographing device for photographing an area in a pseudo display, wherein the terminal inputs input information by a user, and the terminal outputs input information light emission conversion data indicating correspondence between the input information and a color or a light emission pattern. Converting the input information to be input into the color or the light emission pattern based on the: the terminal displays the color or the light emission pattern to be converted; and Photographing the display unit of the terminal included in the server, the server analyzes a photographing result by the photographing device, and Information collection including: extracting a color or the light emission pattern; and the server referring to the input information light emission conversion data and specifying the input information based on the extracted color or light emission pattern. A cooperative display system that performs a process. According to the third aspect, the server can simultaneously read the questionnaire results and the messages from the terminal in the pseudo display, so that the questionnaire results of tens of thousands of people can be aggregated at a high speed, and a plurality of messages can be obtained in real time. can do. Thereby, a moving image to be reproduced can be selected based on the questionnaire result. For example, video content with a large number of voting results can be preferentially reproduced. In addition, the questionnaire results can be used for effects such as gender, age, and a display that distinguishes who the fan is. For example, the display content can be changed for each group of the seats (for example, the left side and the right side) based on information such as gender.
本発明により、表示部を有する複数の端末が連携して単一の擬似ディスプレイを構成する連携表示システムを提供することができる。 According to the present invention, it is possible to provide a cooperative display system in which a plurality of terminals having a display unit cooperate to configure a single pseudo display.
以下図面に基づいて、本発明の実施形態を詳細に説明する。本発明の連携表示システムでは、表示部を有する複数の端末が連携して単一の擬似ディスプレイを構成する。擬似ディスプレイには、例えば動画像等のコンテンツを表示する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the cooperative display system of the present invention, a plurality of terminals having a display unit cooperate to form a single pseudo display. On the pseudo display, for example, content such as a moving image is displayed.
<第1実施形態>
図1は、第1実施形態における連携表示システム1aの概要を示す図である。図1の擬似ディスプレイ4は、単一の筐体から構成されるディスプレイではなく、異なる筐体の複数の端末3の表示部から構成される擬似的なディスプレイである。端末3は、互いに離間して配置される。図1では、擬似ディスプレイ4が構成される空間として、コンサート等のイベントを開催する会場の観客席の一部を模式的に示している。観客は、例えばスマートフォン等の端末3を所持し、予め定められている座席番号5の座席に着席する。図1に示すA1、A2等の番号が座席番号5である。
<First embodiment>
FIG. 1 is a diagram illustrating an outline of a cooperative display system 1a according to the first embodiment. The
連携表示システム1aは、複数の端末3と、各端末3と通信可能に接続されるサーバ2によって構成される。通信手段は特に限定されるものではないが、会場内であれば、例えば、BLE(Bluetooth(登録商標) Low Energy)等の近距離無線通信技術やWiFiを用いても良い。また、端末3とサーバ2は直接通信を行うだけでなく、中継機能を有する中継端末を介して通信を行っても良い。また、会場外で事前にデータのやり取りを行う場合、端末3とサーバ2はインターネットを介して通信を行っても良い。但し、コンサート等の公演会場において、端末3が数多く存在する場合(例えば、数万台)、個々の端末3とサーバ2が個別の通信を行うと、通信回線が破綻してしまう。そこで、このような場合、個々の端末3とサーバ2は個別の通信を行わず、サーバ2側から一方的に情報を配信する通信方式(ブロードキャスト:放送)を用いることが一般的である。
The cooperative display system 1a includes a plurality of
各端末3は、外部の光が入らない屋内や夜間の屋外等に配置され、擬似ディスプレイ4に表示するコンテンツの一部分の表示処理を担当する。本実施形態では、各端末3は1画素分の表示処理を担当し、複数の端末3が連携することによって、単一の擬似ディスプレイ4を実現する。擬似ディスプレイ4に表示を行う際は、会場内の照明を可能な限り消灯することによって、複数の端末3の表示部に出力されるRGB値、すなわち光点の集まりが、あたかもドット絵のように見える。図1では、複数の端末3が連携し、擬似ディスプレイ4に数字の「1」を表示している。
Each
図1では、35台の端末3を図示しているが、端末3の数は限定されるものではない。イベントの観客数に応じて、数台〜数万台の端末3によって単一の擬似ディスプレイ4を構成することができる。また、擬似ディスプレイ4は、1つの会場内に複数設定しても良い。例えば、観客席がステージの周囲に配置されている場合、ステージから見た4つの方向ごとに擬似ディスプレイ4を設定しても良い。
In FIG. 1, 35
サーバ2及び端末3は、制御部としてのCPU(「Central Processing Unit」の略)、主記憶部としてのメモリ、補助記憶部としてのHDD(「Hard Disk Drive」の略)やフラッシュメモリ、外部記憶部としての記憶媒体、表示部としての液晶ディスプレイ、入力部としてのキーボードやマウス、タッチパネルディスプレイ、無線通信部としての無線モジュール等を有する。補助記憶部としてのHDDやフラッシュメモリには、OS(「Operating System」の略)、アプリケーションプログラム、処理に必要なデータ等が記憶されている。端末3及びサーバ2のCPUは、補助記憶部からOSやアプリケーションプログラムを読み出して主記憶部に格納し、主記憶部にアクセスしながら、その他の機器を制御し、後述する処理を実行する。また、端末3は、音出力部としてのスピーカ等を有しても良い。
The
サーバ2は、1台で構成されても良いし、複数台で構成されても良い。インターネットを介して端末3と接続されるサーバ2(例えば、スマートフォンのアプリやコンテンツのダウンロードに対応するサーバ)は、会場外のデータセンターに設置されても良い。一方、BLE等の近距離無線通信を介して端末3と接続されるサーバ2は、会場内に設置される。以下では、説明を簡潔にするために、設置場所によってサーバ2を区別しないものとする。
The
図2は、ダウンロードデータの一例を示す図である。ダウンロードデータは、予めサーバ2に記憶されており、各端末3へ配信する共通のデータである。第1実施形態では、ダウンロードデータは、例えば、動画データ10、マップデータ20、色相音声変換データ30及び輝度音量変換データ40を含む。色相音声変換データ30及び輝度音量変換データ40は、端末3が音情報を出力する際、表示情報に基づいて音情報の切替を制御する場合に用いられる。各端末3は、これらのデータをサーバ2から事前にダウンロードしておく。
FIG. 2 is a diagram illustrating an example of the download data. The download data is common data stored in the
動画データ10は、擬似ディスプレイ4に表示されるコンテンツの全画素の表示情報を含む。動画データ10に含まれる表示情報は、例えば、画素ごとのRGB値である。動画データ10は、音情報を含んでも良い。また、動画データ10は、単一の動画ファイルでも良いし、複数の動画ファイルに分割されていても良い。
The moving
マップデータ20は、担当画素を各端末3にマッピングするために用いられる。マップデータ20は、例えば、擬似ディスプレイ4に含まれる座席の座席番号21と、座席番号21に対応するコンテンツの画素位置22を含む。座席番号21は、図1に示す座席番号5と同様の意味を持つデータ項目である。画素位置22は、コンテンツの各画素の位置をX座標、Y座標で示したものである。端末3は、マップデータ20を参照することによって、座席番号21に基づいて担当画素を決定することができる。
The map data 20 is used for mapping the assigned pixel to each
擬似ディスプレイ4が複数設定される場合、動画データ10及びマップデータ20は、擬似ディスプレイ4ごとに異なるものを複数配信しても良い。
When a plurality of
色相音声変換データ30は、色相31によって音声チャンネル32の切替を制御するために用いられ、色相31と音声チャンネル32とが対応付けられている。色相音声変換データ30としては、例えば、RGB値によって特定される色相31を2つの範囲に分割し、左右(L、R)の音声チャンネル32に対応付けても良い。尚、RGB値から色相を特定する方法は、既存のカラーモデルを用いることができる。尚、ここでは、色相31を例に挙げているが、音声チャンネル32と対応付けられる情報は、この例に限定されるものではなく、表示情報の中から得られる情報であれば、どのような情報でも良い。例えば、端末3は、動画データに含まれるRGBそれぞれのLSB(最下位ビット)や輝度値のLSBを、表示とは独立して音声チャンネルを切り替える信号として利用しても良い。
The hue sound conversion data 30 is used for controlling the switching of the
輝度音量変換データ40は、輝度41によって音量42の切替を制御するために用いられ、輝度41と音量42とが対応付けられている。輝度音量変換データ40としては、例えば、RGB値によって特定される輝度41が大きくなるにつれて音量が大きくなるように対応付けても良い。尚、RGB値から輝度を特定する方法は、既存のカラーモデルを用いることができる。尚、ここでは、輝度41を例に挙げているが、音量42と対応付けられる情報は、この例に限定されるものではなく、表示情報の中から得られる情報であれば、どのような情報でも良い。
The brightness / volume conversion data 40 is used to control switching of the
端末3は、色相音声変換データ30及び輝度音量変換データ40によって、RGB値から音声チャンネルや音量に変換し、表示と音声を同期して制御することが可能となる。これによって、擬似ディスプレイ4上の表示と音声の同期が可能となる。1台分の端末3の音量は小さくても、数万台集まることによって、例えば、光点の移動に連動して音が動き回るような演出が可能になる。
The
図3は、出力データ50の一例を示す図である。出力データ50は、各端末3が出力する時系列順の表示情報や音情報であって、各端末3によって事前にダウンロードする動画データ10に基づいて生成される。具体的な生成方法は、図4を参照しながら後述する。出力データ50は、RGB値51、音量52及び音声チャンネル53等を含む。RGB値51は、端末3の表示部に表示する表示情報である。音量52は、端末3の音出力部に出力する音情報の一つであり、端末3のスピーカから出力する音声の音量である。音声チャンネル53は、音情報の一つであり、端末3のスピーカから出力する音声の音声チャンネルを識別する番号である。
FIG. 3 is a diagram illustrating an example of the output data 50. The output data 50 is chronological display information and sound information output from each terminal 3 and is generated based on the moving
表示情報としては、RGB値51に限らず、グレースケール値や、特定の色相に関するON/OFFの値等、各画素の画素値に関するものであれば、どのようなものでも良い。
The display information is not limited to the
図4は、第1実施形態における事前準備処理の流れを示すフローチャートである。図4に示すように、端末3は、連携表示システム1aに関するアプリとデータをサーバ2からダウンロードし(ステップS101)、アプリをインストールする。ダウンロードするデータは、図2に示すデータである。
FIG. 4 is a flowchart illustrating the flow of the preparatory processing according to the first embodiment. As shown in FIG. 4, the
次に、端末3は、タッチディスプレイ等を介して、ユーザから座席番号5の入力を受け付ける(ステップS102)。尚、座席番号5の入力受付手段は、この例に限定されるものではない。例えば、端末3が、座席番号の情報を有するバーコードをスキャンしても良いし、電子チケットから座席番号を取得しても良い。
Next, the
次に、端末3は、座席番号とマップデータ20に基づいて自らの担当画素の画素位置を特定する(ステップS103)。具体的には、端末3は、マップデータ20を参照し、ステップS102において入力される座席番号に対応する画素位置22を特定する。
Next, the
次に、端末3は、ステップS103において特定される画素位置22に基づいて、担当画素の出力データを生成する(ステップS104)。具体的には、端末3は、動画データ10の中から、担当画素の画素位置22に関するRGB値をフレーム番号順(=時系列順)に抽出し、出力データ50とする。音情報も出力する場合、端末3は、動画データ10の中から、音量52及び音声チャンネル53に関するデータを抽出し、RGB値51が記憶されるファイルと独立したファイルに記憶しても良い。又は、端末3は、前述の色相音声変換データ30を用いて、動画データ10の中から、RGB値に関する色相に基づいて音声チャンネルを特定するとともに、輝度音量変換データ40を用いて、RGB値に関する輝度に基づいて音量を特定し、1チャンネル(モノラル)の音声信号として記憶しても良い。尚、音声チャンネルを特定するための情報は、色相に限らず、表示情報の中から得られる情報であれば、どのような情報でも良い。例えば、端末3は、動画データに含まれるRGBそれぞれのLSB(最下位ビット)や輝度値のLSBを、表示とは独立して音声チャンネルを切り替える信号として利用しても良い。同様に、音量を特定するための情報は、輝度に限らず、表示情報の中から得られる情報であれば、どのような情報でも良い。
Next, the
端末3は、自らが担当する画素の出力データ50を生成することによって、擬似ディスプレイ4上の1画素分の表示情報を表示したり、音情報を出力したりすることができる。
The
次に、端末3は、担当画素の出力データ50を主記憶部に常駐させておく(ステップS105)。尚、端末3は、出力データ50を主記憶部に常駐させておく他に、容量の小さいファイルに分割して補助記憶部に記憶しておいても良い。いずれの場合も、端末3は、表示処理の際、担当画素の出力データ50を即時に読み出し可能な状態となる。同様に、端末3は、ステップS104において特定される音量及び音声チャンネルに基づく音情報を時系列順に即時に読み出し可能な状態としておく。
Next, the
コンテンツが動画像の場合、全体のデータサイズが数百MB〜数GBになることもあるが、数千台〜数万台の端末3が分担することによって、各端末3の担当画素の出力データ50は数MB以下になるため、主記憶部に常駐させておくことが可能なデータサイズとなる。尚、各端末3は、数秒の短い動画ごとに、主記憶部に出力データ50を常駐させても良い。
When the content is a moving image, the entire data size may be several hundred MB to several GB. However, when thousands to tens of thousands of
動画像のデコード処理は、CPUによる負荷が重いため、各端末3にリアルタイムにデコード処理を実行させると、端末3の性能の違いにより、表示開始までのレスポンスのばらつきが大きくなる。場合によっては、1秒前後のばらつきが発生する。そこで、予め動画像をデコードしておき、図3に示す出力データ50のように、画素ごとの情報に変換しておくことによって、ばらつきを最小限に抑えることが可能となる。
Since the load of the CPU is heavy in the decoding processing of the moving image, if each terminal 3 executes the decoding processing in real time, the variation in the response until the start of the display increases due to the difference in the performance of the
尚、色相音声変換データ30や輝度音量変換データ40を用いて音情報を制御する場合、端末3は、RGB値のみを出力データ50として主記憶部に常駐させ、表示処理の際、リアルタイムにRGB値から音情報に変換しても良い。
When sound information is controlled using the hue / speech conversion data 30 and the luminance / volume conversion data 40, the
端末3が最終的に必要なデータは、自らが担当する画素の出力データ50のみである。従って、ユーザが会場に到着してから、端末3がサーバ2に座席番号を送信し、サーバ2が端末3ごとに出力データ50を生成して送信することも考えられる。しかしながら、端末3が数万台になると、サーバ2に対する負荷が同時間帯に集中してしまう。そこで、本実施の形態では、端末3が事前にサーバ2から共通のデータをダウンロードしておき、端末3が必要なデータを生成する。これによって、サーバ2の負荷を時間的に分散することができる。
The
図5は、第1実施形態における表示処理の流れを示すフローチャートである。図5は、端末3の処理内容を示すものである。図5に示す表示処理の前提として、図4に示す事前準備処理を完了しておく必要がある。そして、端末3は、サーバ2からの命令に従い、事前準備処理において準備される表示情報を表示する。
FIG. 5 is a flowchart illustrating the flow of the display process according to the first embodiment. FIG. 5 shows the processing contents of the
以下では、全ての端末3が同一のフレームレートで出力データ50の表示処理を実行するものとする。また、端末3ごとの表示処理のずれを回避するために、出力データ50を所定間隔で複数のセットに分割し、セットの切り替わりのタイミングでサーバ2が同期命令を全ての端末3に送信するものとする。例えば、フレームレートが30fps、所定間隔が1秒の場合、1セットは30フレーム分となる。BLEを介して通信を行う場合、サーバ2は、同期命令をブロードキャストで送信する。
Hereinafter, it is assumed that all the
動画データ10が複数のファイルに分割されている場合、例えば、動画ファイル番号の末尾に連番を付す等によって動画ファイルの時系列順を特定し、複数の動画ファイルを連続して再生することもできる。
When the moving
図5に示すように、端末3は、先頭動画ファイルの先頭フレームを表示対象フレームに設定する(ステップS201)。尚、コンテンツが複数存在する場合、ステップS201の前に、端末3は、サーバ2から、どのコンテンツを表示するのかを特定するコンテンツ特定命令を受信し、表示するコンテンツを決定するようにしても良い。
As illustrated in FIG. 5, the
次に、サーバ2から表示開始命令を受信する(ステップS202)。BLEを介して通信を行う場合、サーバ2は、表示開始命令をブロードキャストで送信する。
Next, a display start command is received from the server 2 (step S202). When performing communication via BLE, the
次に、端末3は、現在の表示対象フレームの画素値(=出力データ50のRGB値51)を表示部に表示する(ステップS203)。端末3は、現在の表示対象フレームの画素値を表示部に表示することに同期して、出力データ50の音量52及び音声チャンネル53に基づく音情報を音出力部に出力しても良い。
Next, the
次に、端末3は、最終動画ファイルの最終フレームに到達したか否か確認する(ステップS204)。最終動画ファイルの最終フレームに到達していない場合(ステップS204のNo)、端末3は、次フレームを表示対象フレームに設定し(ステップS205)、同期カウンタを1増加する(ステップS206)。
Next, the
次に、端末3は、サーバ2から同期命令を受信したか否か確認する(ステップS207)。同期命令を受信した場合(ステップS207のYes)、端末3はステップS210に進み、同期命令を受信していない場合(ステップS207のNo)、端末3はステップS208に進む。
Next, the
ステップS208に進むと、端末3は、同期カウンタが所定数、すなわち1セットに含まれるフレーム数に到達したか否か確認する。同期カウンタが所定数に到達していない場合(ステップS208のNo)、端末3は、ステップS203から繰り返す。一方、同期カウンタが所定数に到達している場合(ステップS208のYes)、端末3は、サーバ2から同期命令を受信するまで待機し(ステップS209)、同期命令を受信するとステップS210に進む。
In step S208, the
ステップS210に進むと、端末3は、同期カウンタをリセットする。そして、端末3は、次セット(次動画ファイルの先頭セットの場合もある。)の先頭フレームを表示対象フレームに設定し(ステップS211)、ステップS203から繰り返す。表示対象フレームが最終動画ファイルの最終フレームに到達すると(ステップS204のYes)、端末3は処理を終了する。
In step S210, the
図6は、第1実施形態における同期処理を説明する図である。図6(a)に示すように、同期処理を行わない場合、再生時間が長い動画像では、最初のフレームで表示開始命令によって表示タイミングを合わせても、端末3の処理速度の違いから、徐々に表示のずれが大きくなる。そこで、図6(b)に示すように、本実施の形態では同期処理を行い、サーバ2は定期的に同期命令を送信する。そして、図6(b)に示す端末3aのように、処理速度が遅い端末3、すなわち1セットに含まれる全てのフレームの表示を終了する前に、同期命令を受信する端末3は、処理中のセットに含まれるフレームの表示を中断し、次のセットの先頭フレームの表示を行う。一方、図6(b)に示す端末3bのように、処理速度が速い端末3、すなわち同期命令を受信する前に、1セットに含まれる全てのフレームの表示を終了する端末3は、同期命令を受信するまで次のフレームを表示せずに待機する。これによって、再生時間が長い動画像であっても、徐々に表示がずれていくことを防ぎ、最後まで表示のずれを最小限に抑えることができる。
FIG. 6 is a diagram illustrating the synchronization processing according to the first embodiment. As shown in FIG. 6A, when the synchronization processing is not performed, in the case of a moving image having a long reproduction time, even if the display timing is adjusted by the display start command in the first frame, the processing speed of the
以上、第1実施形態における連携表示システム1aによれば、表示部を有する複数の端末3が連携して単一の擬似ディスプレイ4を構成することができる。特に、第1実施形態では、ユーザが座席番号を入力し、端末3が予め定められるマップデータ20を参照することによって、担当画素を各端末3にマッピングするので、容易に単一の擬似ディスプレイ4を構成することができる。
As described above, according to the cooperative display system 1a in the first embodiment, a plurality of
<第2実施形態>
図7は、第2実施形態における連携表示システム1bの概要を示す図である。第1実施形態では、各端末3の位置を特定可能な座席番号5を利用して担当画素を各端末3にマッピングしたが、第2実施形態では、座席番号5を利用できない会場における担当画素のマッピング方法を提供する。尚、第1実施形態と同様の要素については同一の符号を付し、重複する説明を省略する。
<Second embodiment>
FIG. 7 is a diagram illustrating an outline of a cooperative display system 1b according to the second embodiment. In the first embodiment, the assigned pixel is mapped to each terminal 3 using the
連携表示システム1bは、複数の端末3と、各端末3と通信可能に接続されるサーバ2と、擬似ディスプレイ4内に含まれる全ての端末3の表示部を撮影し、サーバ2と通信可能に接続される撮影装置6と、によって構成される。サーバ2と撮影装置6は、例えばUSBケーブルやHDMI(登録商標)ケーブル等の有線によって接続される。
The cooperative display system 1b captures images of the plurality of
連携表示システム1bにおいても、各端末3が1画素分の表示処理を担当し、複数の端末3が連携することによって、単一の擬似ディスプレイ4を実現する。図7に示す例では、複数の端末3が連携し、擬似ディスプレイ4に数字の「2」を表示している。
Also in the cooperative display system 1b, each
撮影装置6は、所定のフレームレートで動画像を撮影するビデオカメラであり、各端末3の表示部の発光を識別可能な画質の動画像が得られる位置に設置される。撮影装置6は、1台で構成されても良いし、複数台で構成されても良い。
The
図8は、識別情報発光変換データ60の一例を示す図である。識別情報発光変換データ60は、予めサーバ2及び端末3の記憶部に記憶されている。第2実施形態では、担当画素を各端末3にマッピングするために、予め定められる識別情報発光変換データ60を用いる。
FIG. 8 is a diagram illustrating an example of the identification information light emission conversion data 60. The identification information light emission conversion data 60 is stored in the storage units of the
識別情報発光変換データ60は、例えば、端末3を識別する識別番号61ごとに、RGB値62と発光パターン63を含む。RGB値62は、端末3の表示部に表示する色情報である。発光パターン63は、端末3が発光するタイミングのパターンを示している。例えば、「0」は発光しない、「1」は発光する、を意味する。フレームレートが30fpsの場合、発光パターン63は、「0」又は「1」の数字を30個含むようにしても良い。RGB値62及び発光パターン63は、識別番号61ごとに異なる組み合わせとする。
The identification information light emission conversion data 60 includes, for example, an
端末3が識別情報発光変換データ60に基づいて発光し、撮影装置6が端末3の表示部を撮影し、サーバ2が撮影装置6による撮影結果を解析することによって、端末3はサーバ2に自らの識別番号を伝達できる。また、サーバ2は、擬似ディスプレイ4内の端末3の位置も特定できるので、担当画素を各端末3にマッピングすることが可能になる。
The
尚、端末3を識別するための識別情報としては、図8に示すような連番(例えば、連携表示システム1b内において自動付番される連続番号)の識別番号61に限らず、端末3の個体識別番号でも良いし、端末3のユーザのメールアドレスでも良い。
Note that the identification information for identifying the
図9は、第2実施形態における事前準備処理の流れを示すフローチャートである。サーバ2及び端末3は、予め識別情報発光変換データ60を記憶部に記憶している。図9に示すように、端末3は、アプリケーションプログラムとデータをサーバ2からダウンロードし(ステップS301)、アプリケーションプログラムをインストールする。このアプリケーションプログラムは、後述するステップS302及びS303の処理、すなわち端末3の識別情報を色又は発光パターンを用いてサーバ2に伝達する機能を提供するためのプログラムである。ステップS301は、会場外で予め実行しておいても良い。アプリは、表示処理の他、後述する表示位置特定処理の内容を含む。ダウンロードするデータは、図2に示す動画データ10と図8に示す識別情報発光変換データ60であり、必要に応じて、図2に示す色相音声変換データ30及び輝度音量変換データ40も含む。
FIG. 9 is a flowchart illustrating the flow of the preparatory processing according to the second embodiment. The
次に、各端末3は、識別情報発光変換データ60に基づいて、自らの識別情報を発光パターンに変換し(ステップS302)、会場内において一斉に、発光パターンを表示部に表示する(ステップS303)。これに対して、撮影装置6は、擬似ディスプレイ4内の端末3の表示部を動画撮影し、撮影結果をサーバ2に送信する(ステップS304)。
Next, each terminal 3 converts its own identification information into a light emission pattern based on the identification information light emission conversion data 60 (step S302), and simultaneously displays the light emission pattern on the display unit in the venue (step S303). ). On the other hand, the
次に、サーバ2は、撮影装置6による撮影結果を解析し、端末3ごとに発光パターンを抽出し、端末3の発光位置、識別番号及び発光補正値を特定する(ステップS305)。
Next, the
端末3の発光位置の特定方法については、2つの方法を説明する。例えば、予め擬似ディスプレイ4内の横方向及び縦方向の座席数が明らかな場合、サーバ2は、横方向及び縦方向の座席数を横方向及び縦方向の画素数として記憶部に記憶しておく。そして、サーバ2は、横方向及び縦方向の画素数に基づいて、撮影装置6による撮影結果の各フレームの画像を各画素に分割し、端末3の発光点の画素位置を特定する。
Two methods will be described for the method of specifying the light emitting position of the
また、例えば、予め擬似ディスプレイ4内の横方向及び縦方向の座席数が不明な場合、サーバ2は、撮影装置6による撮影結果の画像から発光点の数を算出し、コンテンツのアスペクト比に応じて、発光点の数から横方向及び縦方向の画素数を算出しても良い。例えば、発光点の数が1,200個、コンテンツのアスペクト比が4:3の場合、横方向の画素数が40、縦方向の画素数が30となる。そして、サーバ2は、横方向及び縦方向の画素数に基づいて、撮影装置6による撮影結果の画像を各画素に分割し、端末3の発光点の画素位置を特定する。この方法であれば、概ね各端末3が1つの画素を担当することになる。尚、複数の端末3が同じ画素を担当しても良いし、どの端末3も担当しない画素が存在しても良い。但し、コンテンツの欠損画素をなくすためには、全ての画素について1つ以上の端末3が担当するように横方向及び縦方向の画素数を算出することが望ましい。
Further, for example, when the numbers of seats in the horizontal and vertical directions in the
尚、擬似ディスプレイ4内の横方向及び縦方向の座席数が不明な場合であっても、横方向及び縦方向の画素数を固定しても良い。すなわち、サーバ2は、設定値として横方向及び縦方向の画素数を記憶部に記憶しておいても良い。この場合、コンテンツの欠損画素をなくすためには、横方向及び縦方向の画素数を小さく設定しておくことが望ましい。
Even if the number of seats in the horizontal and vertical directions in the
次に、端末3の識別番号の特定方法について説明する。サーバ2は、撮影装置6による撮影結果の画像から、発光点ごとに色情報と発光パターンを算出する。そして、サーバ2は、識別情報発光変換データ60の中から最も近いRGB値62と発光パターン63の組み合わせを検索し、識別番号61を特定する。
Next, a method of specifying the identification number of the
次に、端末3の発光補正値の特定方法について説明する。スマートフォン等の端末3の表示部は、機種によって色や輝度の違いがある。そこで、それらの違いを吸収するために、サーバ2は、撮影装置6による撮影結果の画像から、端末3の発光補正値を特定する。例えば、端末3は、端末3ごとの発光パターンを表示部に表示した後、色調補正や輝度補正を行うための発光パターンを表示部に表示する。例えば、全ての端末3は、同一の輝度の設定値で発光パターンを表示し、サーバ2は、全ての発光点の輝度の平均を算出し、各発光点の輝度との差分を輝度補正に関する発光補正値に設定する。
Next, a method of specifying the light emission correction value of the
図9の説明に戻る。次に、サーバ2は、端末3ごとの担当画素の画素位置と発光補正値を端末3に送信する(ステップS306)。また、サーバ2は、必要に応じて、横方向及び縦方向の画素数も端末3に送信する。サーバ2は、識別番号に基づいて送信先の端末3を特定し、インターネット又は1対1の無線通信を介して、担当画素の画素位置と発光補正値を送信しても良い。又は、サーバ2は、WiFiを介して、全ての端末3の識別番号と担当画素の画素位置及び発光補正値との対応付けをブロードキャスト通信によって配信しても良い。
Returning to the description of FIG. Next, the
次に、端末3は、担当画素の画素位置と発光補正値を受信し(ステップS307)、発光補正値に基づいて担当画素の出力データを補正する(ステップS308)。例えば、平均よりも発光点の輝度が低い端末3は、高輝度の設定値で担当画素の出力データを表示するように出力データを補正する。そして、端末3は、担当画素の出力データを主記憶部に常駐させておく(ステップS309)。尚、端末3は、必要に応じて、サーバ2から受信する横方向及び縦方向の画素数に基づいてコンテンツの動画像をデコードし、担当画素の出力データを抽出する。
Next, the
以上の通り、第2実施形態では、識別番号ごとの発光パターンを含む識別情報発光変換データ60を予め作成しておき、端末3が自らの識別番号に対応する発光パターンを表示部に表示し、撮影装置6が端末3の表示部を撮影し、サーバ2が撮影装置6による撮影結果を解析することによって端末3の識別番号及び担当画素の画素位置を特定する。これによって、座席番号5が定められていない会場であっても、担当画素を各端末3にマッピングすることが可能になる。尚、第2実施形態における表示処理は、第1実施形態における表示処理と同様に実行可能であるため、説明を省略する。
As described above, in the second embodiment, the identification information light emission conversion data 60 including the light emission pattern for each identification number is created in advance, and the
図10は、入力情報発光変換データ70の一例を示す図である。入力情報発光変換データ70は、予めサーバ2及び端末3の記憶部に記憶されている。第2実施形態では、観客に対するアンケート結果を集計するために、予め定められる入力情報発光変換データ70を用いる。
FIG. 10 is a diagram illustrating an example of the input information light emission conversion data 70. The input information light emission conversion data 70 is stored in the storage units of the
入力情報発光変換データ70は、例えば、アンケートの回答に関する入力値71ごとに、RGB値72と発光パターン73を含む。RGB値72は、図8に示すRGB値62と同様の意味を持つデータ項目である。発光パターン73は、図8に示す発光パターン63と同様の意味を持つデータ項目である。RGB値72及び発光パターン73は、入力値71ごとに異なる組み合わせとする。図10に示す例では、アンケートは、1、2、3、・・・のように、番号で回答する。
The input information light emission conversion data 70 includes, for example, an
図11は、第2実施形態におけるアンケート集計処理の流れを示すフローチャートである。第2実施形態では、サーバ2が複数の端末3から一括して情報を収集する情報収集処理を実行できる。アンケート集計処理は、情報収集処理の一例である。
FIG. 11 is a flowchart showing the flow of the questionnaire totalizing process in the second embodiment. In the second embodiment, the
サーバ2及び端末3は、予め入力情報発光変換データ70を記憶部に記憶している。図11に示すように、端末3は、ユーザからアンケート結果を受け付けて、入力部を介してアンケート結果を入力する(ステップS401)。
The
次に、端末3は、入力情報発光変換データ70に基づいて、ステップS401において入力されるアンケート結果を発光パターンに変換し(ステップS402)、会場内において一斉に、変換される発光パターンを表示部に表示する(ステップS403)。これに対して、撮影装置6は、擬似ディスプレイ4内の端末3の表示部を撮影し、撮影結果をサーバ2に送信する(ステップS404)。
Next, the
次に、サーバ2は、撮影装置6による撮影結果を解析し、端末3ごとに発光パターンを抽出し、アンケート結果を特定する(ステップS405)。具体的には、サーバ2が、撮影装置6による撮影結果の画像から、発光点ごとに色情報と発光パターンを算出する。そして、サーバ2が、入力情報発光変換データ70の中から最も近いRGB値72と発光パターン73の組み合わせを検索し、入力値71を特定する。
Next, the
そして、サーバ2はアンケート結果を集計する(ステップS406)。サーバ2は、BLE等を介して端末3にアンケート結果を送信しても良い。また、会場内に擬似ディスプレイ4とは異なる大画面ディスプレイが存在する場合、サーバ2は、ステップS406において集計されるアンケート結果を大画面ディスプレイに出力しても良い。
Then, the
端末3の数は、撮影装置6の撮影結果によって各端末3の表示部の発光を識別可能である限り、制限がない。そして、サーバ2は、擬似ディスプレイ4内の端末3からアンケート結果を同時に読み取ることができるので、数万人規模のアンケート結果も高速に集計することができる。これによって、アンケート結果に基づいて再生する動画を選択することができる。例えば、投票結果の多い動画コンテンツを優先して再生することができる。また、性別や年齢、誰のファンなのかを区別した表示を行う等の演出にアンケート結果を使用することができる。例えば、性別等の情報に基づいて、客席のグループごとに(例えば、レフト側とライト側等)、表示コンテンツを変えることができる。
The number of the
また、連携表示システム1bは、情報収集処理の一例としてメッセージ収集処理も実現することができる。例えば、図10に示す入力情報発光変換データ70を拡張し、数字だけでなく、文字についても発光パターンを対応付けておく(例えば、文字コードに対応付けて発光パターンを定義しておく。)。端末3は、送りたいメッセージを構成する1文字ごとに発光パターンを切り替えて表示部に表示する。サーバ2は、撮影装置6による撮影結果を解析し、発光パターンごとに文字を特定し、メッセージを復元する。そして、サーバ2は、擬似ディスプレイ4とは異なる大画面ディスプレイに、復元されるメッセージをリアルタイムに出力しても良い。これによって、例えば、メッセージの復元ごとに大画面ディスプレイに出力を開始し、複数のメッセージが時系列順に川のように流れる表示形態を実現することができる。
The cooperative display system 1b can also implement a message collection process as an example of the information collection process. For example, the input information light-emission conversion data 70 shown in FIG. 10 is extended, and light-emitting patterns are associated not only with numbers but also with characters (for example, light-emitting patterns are defined in association with character codes). The
以上、添付図面を参照しながら、本発明に係る連携表示システム等の好適な実施形態について説明したが、本発明はかかる例に限定されない。当業者であれば、本願で開示した技術的思想の範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。 As described above, the preferred embodiments of the cooperative display system and the like according to the present invention have been described with reference to the accompanying drawings, but the present invention is not limited to such examples. It is obvious to those skilled in the art that various changes or modifications can be made within the scope of the technical idea disclosed in the present application, and these naturally belong to the technical scope of the present invention. I understand.
1a、1b.........表示連携システム
2.........サーバ
3.........端末
4.........擬似ディスプレイ
5.........座席番号
6.........撮影装置
10.........動画データ
20.........マップデータ
30.........色相音声変換データ
40.........輝度音量変換データ
50.........出力データ
60.........識別情報発光変換データ
70.........入力情報発光変換データ
1a, 1b ...
Claims (7)
前記端末と通信可能なサーバを備え、
前記端末が、前記コンテンツの全画素の表示情報を含む動画データを記憶するステップと、
前記端末が、座席番号の入力を受け付けるステップと、
前記端末が、前記座席番号と前記擬似ディスプレイ内の画素位置との対応付けを示すマップデータに基づいて、自らが担当する画素の前記画素位置を特定するステップと、
前記端末が、前記動画データの中から、特定される前記画素位置に関する前記表示情報を抽出するステップと、
を含む事前準備処理と、
前記端末が、前記サーバからの命令に従い、前記表示情報を表示するステップ、
を含む表示処理と、
を実行することを特徴とする連携表示システム。 A cooperative display system in which a plurality of terminals having a display unit cooperate to constitute a single pseudo display, and display moving image content,
A server capable of communicating with the terminal,
The terminal stores moving image data including display information of all pixels of the content,
Wherein the terminal accepts an input of a seat number;
The terminal, based on the map data indicating the association between the seat number and the pixel position in the pseudo display, identifying the pixel position of the pixel that is responsible for itself,
The terminal, from the video data, extracting the display information regarding the specified pixel position,
Advance preparation processing including
The terminal displaying the display information according to a command from the server;
A display process including
And a cooperative display system.
前記端末が、抽出される前記表示情報を時系列順に即時に読み出し可能な状態とするステップ、
を含むことを特徴とする請求項1に記載の連携表示システム。 The advance preparation process further includes:
A step in which the terminal is in a state where the display information to be extracted can be immediately read in chronological order;
The link display system according to claim 1, further comprising:
前記端末が、前記表示情報の中から得られる情報に基づいて音声チャンネル及び音量を特定するステップと、
前記端末が、特定される前記音声チャンネル及び前記音量に基づく音情報を時系列順に即時に読み出し可能な状態とするステップと、
を含むことを特徴とする請求項2に記載の連携表示システム。 The advance preparation process further includes:
Wherein the terminal specifies an audio channel and a volume based on information obtained from the display information;
The terminal, the sound channel based on the specified audio channel and the sound volume in a state that can be immediately read in chronological order sound information,
The link display system according to claim 2, comprising:
前記サーバが、前記動画データの先頭フレームの表示開始命令を前記端末に送信するステップと、
前記端末が、前記表示開始命令を受信すると、前記先頭フレームから時系列順に前記表示情報を表示するステップと、
前記サーバが、所定の間隔で表示同期命令を前記端末に送信するステップと、
前記端末が、前記表示同期命令を受信する前に所定フレーム数分の前記表示情報を表示した場合、前記表示同期命令を受信した後に所定フレーム数分の次フレームに関する前記表示情報を表示し、前記所定フレーム数分の前記表示情報を表示する前に前記表示同期命令を受信した場合、即時に前記所定フレーム数分の次フレームに関する前記表示情報を表示するステップと、
を含むことを特徴とする請求項1乃至請求項3のいずれかに記載の連携表示システム。 The display processing further includes:
The server transmits a display start command of a first frame of the moving image data to the terminal,
The terminal, when receiving the display start command, displaying the display information in chronological order from the first frame,
The server transmitting a display synchronization command to the terminal at predetermined intervals;
If the terminal displays the display information for a predetermined number of frames before receiving the display synchronization command, the terminal displays the display information for the next frame for the predetermined number of frames after receiving the display synchronization command, When the display synchronization command is received before displaying the display information for a predetermined number of frames, displaying the display information on the next frame for the predetermined number of frames immediately,
The linked display system according to any one of claims 1 to 3, further comprising:
前記端末と通信可能なサーバと、前記擬似ディスプレイ内の領域を撮影する撮影装置とを備え、
前記端末が、前記端末の識別情報を色又は発光パターンを用いて前記サーバに伝達する機能を提供するためのプログラムを記憶するステップと、
前記端末が、前記端末の前記識別情報と前記色又は前記発光パターンの対応付けを示す識別情報発光変換データに基づいて、自らの前記識別情報を前記色又は前記発光パターンに変換するステップと、
前記端末が、変換される前記色又は前記発光パターンを表示するステップと、
前記撮影装置が、前記擬似ディスプレイ内に含まれる前記端末の前記表示部を撮影するステップと、
前記サーバが、前記撮影装置による撮影結果を解析し、前記端末ごとに前記色又は前記発光パターンを抽出するステップと、
前記サーバが、抽出される前記色又は前記発光パターンの位置に基づいて、前記擬似ディスプレイ内の画素位置を特定するステップと、
前記サーバが、前記識別情報発光変換データを参照し、抽出される前記色又は前記発光パターンに基づいて前記識別情報を特定するステップと、
前記サーバが、前記識別情報と対応付けられる前記画素位置を前記端末に送信するステップと、
前記端末が、前記識別情報と対応付けられる前記画素位置を受信し、前記コンテンツの中から、自らの前記識別情報と対応付けられる前記画素位置に関する表示情報を抽出するステップと、
を含む事前準備処理と、
前記端末が、前記サーバからの命令に従い、前記表示情報を表示するステップ、
を含む表示処理と、
を実行することを特徴とする連携表示システム。 A cooperative display system in which a plurality of terminals having a display unit cooperate to constitute a single pseudo display, and display moving image content,
A server capable of communicating with the terminal, and a photographing device that photographs an area in the pseudo display,
The terminal, a step of storing a program for providing a function of transmitting the identification information of the terminal to the server using a color or light emission pattern,
The terminal, based on the identification information light emission conversion data indicating the correspondence between the identification information and the color or the light emitting pattern of the terminal, the step of converting its own identification information into the color or the light emitting pattern,
The terminal displays the color or the light emission pattern to be converted,
The image capturing apparatus captures the display unit of the terminal included in the pseudo display,
The server analyzes a photographing result by the photographing device, and extracts the color or the light emission pattern for each terminal;
The server specifying a pixel position in the pseudo display based on the position of the color or the light emission pattern to be extracted;
The server refers to the identification information light emission conversion data, and specifies the identification information based on the extracted color or the light emission pattern,
The server transmits the pixel position associated with the identification information to the terminal,
The terminal receives the pixel position associated with the identification information, from the content, extracting display information about the pixel position associated with its own identification information,
Preparation process including
The terminal displaying the display information according to a command from the server;
A display process including
And a cooperative display system.
前記端末と通信可能なサーバと、前記擬似ディスプレイ内の領域を撮影する撮影装置とを備え、
前記端末が、ユーザによる入力情報を入力するステップと、
前記端末が、前記入力情報と色又は発光パターンの対応付けを示す入力情報発光変換データに基づいて、入力される前記入力情報を前記色又は前記発光パターンに変換するステップと、
前記端末が、変換される前記色又は前記発光パターンを表示するステップと、
前記撮影装置が、前記擬似ディスプレイ内に含まれる前記端末の前記表示部を撮影するステップと、
前記サーバが、前記撮影装置による撮影結果を解析し、前記端末ごとに前記色又は前記発光パターンを抽出するステップと、
前記サーバが、前記入力情報発光変換データを参照し、抽出される前記色又は前記発光パターンに基づいて前記入力情報を特定するステップと、
を含む情報収集処理を実行することを特徴とする連携表示システム。 A cooperative display system in which a plurality of terminals having a display unit cooperate to constitute a single pseudo display, and display moving image content,
A server capable of communicating with the terminal, and a photographing device that photographs an area in the pseudo display,
The terminal inputs information input by the user,
The terminal, based on input information light emission conversion data indicating the correspondence between the input information and color or light emission pattern, the input information to be input is converted to the color or the light emission pattern,
The terminal displays the color or the light emission pattern to be converted,
The image capturing apparatus captures the display unit of the terminal included in the pseudo display,
The server analyzes a photographing result by the photographing device, and extracts the color or the light emission pattern for each terminal;
A step in which the server refers to the input information light emission conversion data and specifies the input information based on the extracted color or the light emission pattern;
A cooperative display system characterized by executing an information collection process including:
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016238929A JP2020030223A (en) | 2016-12-09 | 2016-12-09 | Collaborative display system |
PCT/JP2017/042512 WO2018105436A1 (en) | 2016-12-09 | 2017-11-28 | Cooperative display system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016238929A JP2020030223A (en) | 2016-12-09 | 2016-12-09 | Collaborative display system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020030223A true JP2020030223A (en) | 2020-02-27 |
Family
ID=62491954
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016238929A Pending JP2020030223A (en) | 2016-12-09 | 2016-12-09 | Collaborative display system |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2020030223A (en) |
WO (1) | WO2018105436A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024034412A1 (en) * | 2022-08-10 | 2024-02-15 | ソニーグループ株式会社 | Information processing system, information processing device and method, and program |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023061262A (en) * | 2021-10-19 | 2023-05-01 | キヤノン株式会社 | image display system |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08125760A (en) * | 1994-10-28 | 1996-05-17 | Hitachi Ltd | Information processor |
JP4483180B2 (en) * | 2003-03-04 | 2010-06-16 | 日本電気株式会社 | Synchronous video playback system |
JP2005244931A (en) * | 2004-01-26 | 2005-09-08 | Seiko Epson Corp | Multi-screen video reproducing system |
JP5067595B2 (en) * | 2005-10-17 | 2012-11-07 | ソニー株式会社 | Image display apparatus and method, and program |
JP2008164986A (en) * | 2006-12-28 | 2008-07-17 | Fuji Electric Holdings Co Ltd | Video display system |
JP6241103B2 (en) * | 2013-07-19 | 2017-12-06 | 株式会社リコー | Collective output system, terminal device and output program |
JP2016038514A (en) * | 2014-08-08 | 2016-03-22 | キヤノン株式会社 | Display control device, display device, control method of display control device and display device and program thereof |
-
2016
- 2016-12-09 JP JP2016238929A patent/JP2020030223A/en active Pending
-
2017
- 2017-11-28 WO PCT/JP2017/042512 patent/WO2018105436A1/en active Application Filing
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024034412A1 (en) * | 2022-08-10 | 2024-02-15 | ソニーグループ株式会社 | Information processing system, information processing device and method, and program |
Also Published As
Publication number | Publication date |
---|---|
WO2018105436A1 (en) | 2018-06-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10645506B2 (en) | Electronic device and music visualization method thereof | |
US9918058B2 (en) | Information processing to allow projector units to project images in cooperation | |
JP2018110354A (en) | Communication terminal, image communication system, communication method, and program | |
KR101970358B1 (en) | Central server and performance system including central server | |
US10303419B2 (en) | Information processing system, display processing apparatus, display processing method, and recording medium | |
CN109547724B (en) | Video stream data processing method, electronic equipment and storage device | |
US11743590B2 (en) | Communication terminal, image communication system, and method for displaying image | |
US20220103763A1 (en) | Communication management apparatus, image communication system, communication management method, and recording medium | |
JP2018036540A (en) | Display device, and method for controlling display device | |
KR102247264B1 (en) | Performance directing system | |
JP6241103B2 (en) | Collective output system, terminal device and output program | |
JP2020030223A (en) | Collaborative display system | |
JP2008085555A (en) | Information display device, display control method and display control program | |
JP2014142467A (en) | Image output device and control method thereof, system, program, and storage medium | |
JP2020067629A (en) | Image processing device and image processing method | |
WO2019102886A1 (en) | Performance control system, control device, and wireless communication terminal | |
KR20200050448A (en) | Performance directing system | |
US10616724B2 (en) | Method, device, and non-transitory computer-readable recording medium for supporting relay broadcasting using mobile device | |
US10970828B2 (en) | Image processing apparatus, image processing system, image processing method, and recording medium | |
CN210015702U (en) | Ferris wheel multimedia informatization vocal accompaniment system | |
JP2016184921A (en) | Information setting device, information management device, information generating device, and method and program for controlling them | |
KR20170059310A (en) | Device for transmitting tele-presence image, device for receiving tele-presence image and system for providing tele-presence image | |
JP2016225823A (en) | Display system, information terminal, display device, reproduction control program, and reproduction control method | |
KR20070121913A (en) | System and method for providing dance moving picture and program recording medium | |
JP6492460B2 (en) | Transmission terminal, transmission method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20161222 |