WO2018105436A1 - 連携表示システム - Google Patents

連携表示システム Download PDF

Info

Publication number
WO2018105436A1
WO2018105436A1 PCT/JP2017/042512 JP2017042512W WO2018105436A1 WO 2018105436 A1 WO2018105436 A1 WO 2018105436A1 JP 2017042512 W JP2017042512 W JP 2017042512W WO 2018105436 A1 WO2018105436 A1 WO 2018105436A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
terminal
information
light emission
server
Prior art date
Application number
PCT/JP2017/042512
Other languages
English (en)
French (fr)
Inventor
村上 知広
有 珍田
Original Assignee
村上 知広
株式会社オクトライズ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 村上 知広, 株式会社オクトライズ filed Critical 村上 知広
Publication of WO2018105436A1 publication Critical patent/WO2018105436A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F19/00Advertising or display means not otherwise provided for
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/12Synchronisation between the display unit and other units, e.g. other display units, video-disc players
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk

Abstract

表示部を有する複数の端末が連携して単一の擬似ディスプレイを構成する連携表示システムを提供する。端末(3)は、コンテンツの全画素の表示情報を含む動画データをサーバ(2)からダウンロードし(ステップS101)、ユーザから座席番号(5)の入力を受け付ける(ステップS102)。次に、端末(3)は、入力される座席番号とマップデータ(20)に基づいて自らの担当画素の画素位置を特定し(ステップS103)特定される画素位置に基づいて、担当画素の出力データを生成する(ステップS104)。

Description

連携表示システム
 本発明は、表示部を有する複数の端末が連携して単一の擬似ディスプレイを構成する連携表示システムに関するものである。
 従来、コンサートなどのイベントにおいて、観客がケミカルライトや電池式のペンライトを用いて歌手などを応援することが行われている。近年は、無線通信を介して制御可能なペンライトも存在する(特許文献1参照)。特許文献1に記載のペンライトによれば、一斉に消灯、点灯、色の変更を行うことができ、会場の一体感を演出することができる。
 また、特許文献2には、より汎用性が高く、各装置が統一的な動作を行う協働システムが開示されている。特許文献2に記載の協働システムによれば、親機が信号を発信し、協働装置が信号を受信するとともに、他の協働装置に同様の信号を送信することを繰り返すので、波紋が広がるように信号を伝えていくことができる。
特許第5910192号公報 実用新案登録第3193196号公報
 しかしながら、特許文献1及び2のいずれにおいても、ペンライトや協働装置の正確な位置を把握することについて記載されていないため、ペンライトや協働装置が連動して巨大な単一の擬似ディスプレイを構成することはできない。
 本発明は、前述した問題点に鑑みてなされたものであり、その目的とすることは、表示部を有する複数の端末が連携して単一の擬似ディスプレイを構成する連携表示システムを提供することである。
 前述した目的を達成するための第1の発明は、表示部を有する複数の端末が連携して単一の擬似ディスプレイを構成し、動画像のコンテンツを表示する連携表示システムであって、前記端末と通信可能なサーバを備え、前記端末が、前記コンテンツの全画素の表示情報を含む動画データを記憶するステップと、前記端末が、座席番号の入力を受け付けるステップと、前記端末が、前記座席番号と前記擬似ディスプレイ内の画素位置との対応付けを示すマップデータに基づいて、自らが担当する画素の前記画素位置を特定するステップと、前記端末が、前記動画データの中から、特定される前記画素位置に関する前記表示情報を抽出するステップと、を含む事前準備処理と、前記端末が、前記サーバからの命令に従い、前記表示情報を表示するステップ、を含む表示処理と、を実行することを特徴とする連携表示システムである。第1の発明によって、表示部を有する複数の端末が連携して単一の擬似ディスプレイを構成することができる。特に、座席番号が定められている会場であれば、容易に擬似ディスプレイを構成することができる。
 第1の発明における前記事前準備処理は、更に、前記端末が、抽出される前記表示情報を時系列順に即時に読み出し可能な状態とするステップ、を含むようにしても良い。これによって、各端末の処理速度の違いにより、表示開始までの遅延時間が大きくなることを防ぐことができる。一般に、動画のデコードはCPUの負荷が大きく、処理速度の違いにより表示を開始するまでの時間が大幅にばらつくことが想定される。全画素数の動画データではなく、表示を担当する1画素の表示データを事前に用意することで、その都度デコードすることなく、すぐに表示できるようになる。ひいては、表示開始の遅延時間のばらつきを最小限に抑えることができる。
 また、第1の発明における前記事前準備処理は、更に、前記端末が、前記表示情報の中から得られる情報に基づいて音声チャンネル及び音量を特定するステップと、前記端末が、特定される前記音声チャンネル及び前記音量に基づく音情報を時系列順に即時に読み出し可能な状態とするステップと、を含むようにしても良い。これによって、端末は、表示処理の際、音情報もすぐに読み出すことができる。
 また、第1の発明における前記表示処理は、更に、前記サーバが、前記動画データの先頭フレームの表示開始命令を前記端末に送信するステップと、前記端末が、前記表示開始命令を受信すると、前記先頭フレームから時系列順に前記表示情報を表示するステップと、前記サーバが、所定の間隔で表示同期命令を前記端末に送信するステップと、前記端末が、前記表示同期命令を受信する前に所定フレーム数分の前記表示情報を表示した場合、前記表示同期命令を受信した後に所定フレーム数分の次フレームに関する前記表示情報を表示し、前記所定フレーム数分の前記表示情報を表示する前に前記表示同期命令を受信した場合、即時に前記所定フレーム数分の次フレームに関する前記表示情報を表示するステップと、を含むようにしても良い。これによって、再生時間が長い動画像であっても、徐々に表示がずれていくことを防ぎ、最後まで表示のずれの発生を抑制することができる。
 また、第1の発明における前記表示処理において、前記端末が、前記表示情報を表示することに同期して、前記音情報を出力するようにしても良い。これによって、擬似ディスプレイ上の表示と音声の連動が可能となる。
 第2の発明は、表示部を有する複数の端末が連携して単一の擬似ディスプレイを構成し、動画像のコンテンツを表示する連携表示システムであって、前記端末と通信可能なサーバと、前記擬似ディスプレイ内の領域を撮影する撮影装置とを備え、前記端末が、前記端末の識別情報を色又は発光パターンを用いて前記サーバに伝達する機能を提供するためのプログラムを記憶するステップと、前記端末が、前記端末の前記識別情報と前記色又は前記発光パターンの対応付けを示す識別情報発光変換データに基づいて、自らの前記識別情報を前記色又は前記発光パターンに変換するステップと、前記端末が、変換される前記色又は前記発光パターンを表示するステップと、前記撮影装置が、前記擬似ディスプレイ内に含まれる前記端末の前記表示部を撮影するステップと、前記サーバが、前記撮影装置による撮影結果を解析し、前記端末ごとに前記色又は前記発光パターンを抽出するステップと、前記サーバが、抽出される前記色又は前記発光パターンの位置に基づいて、前記擬似ディスプレイ内の画素位置を特定するステップと、前記サーバが、前記識別情報発光変換データを参照し、抽出される前記色又は前記発光パターンに基づいて前記識別情報を特定するステップと、前記サーバが、前記識別情報と対応付けられる前記画素位置を前記端末に送信するステップと、前記端末が、前記識別情報と対応付けられる前記画素位置を受信し、前記コンテンツの中から、自らの前記識別情報と対応付けられる前記画素位置に関する表示情報を抽出するステップと、を含む事前準備処理と、前記端末が、前記サーバからの命令に従い、前記表示情報を表示するステップ、を含む表示処理と、を実行することを特徴とする連携表示システムである。第2の発明によって、表示部を有する複数の端末が連携して単一の擬似ディスプレイを構成することができる。特に、座席番号が定められていない会場であっても、担当画素を各端末にマッピングすることが可能になる。
 第3の発明は、表示部を有する複数の端末が連携して単一の擬似ディスプレイを構成し、動画像のコンテンツを表示する連携表示システムであって、前記端末と通信可能なサーバと、前記擬似ディスプレイ内の領域を撮影する撮影装置とを備え、前記端末が、ユーザによる入力情報を入力するステップと、前記端末が、前記入力情報と色又は発光パターンの対応付けを示す入力情報発光変換データに基づいて、入力される前記入力情報を前記色又は前記発光パターンに変換するステップと、前記端末が、変換される前記色又は前記発光パターンを表示するステップと、前記撮影装置が、前記擬似ディスプレイ内に含まれる前記端末の前記表示部を撮影するステップと、前記サーバが、前記撮影装置による撮影結果を解析し、前記端末ごとに前記色又は前記発光パターンを抽出するステップと、前記サーバが、前記入力情報発光変換データを参照し、抽出される前記色又は前記発光パターンに基づいて前記入力情報を特定するステップと、を含む情報収集処理を実行することを特徴とする連携表示システムである。第3の発明によって、サーバは、擬似ディスプレイ内の端末からアンケート結果やメッセージを同時に読み取ることができるので、数万人規模のアンケート結果も高速に集計したり、複数のメッセージをリアルタイムに取得したりすることができる。これによって、アンケート結果に基づいて再生する動画を選択することができる。例えば、投票結果の多い動画コンテンツを優先して再生することができる。また、性別や年齢、誰のファンなのかを区別した表示を行う等の演出にアンケート結果を使用することができる。例えば、性別等の情報に基づいて、客席のグループごとに(例えば、レフト側とライト側等)、表示コンテンツを変えることができる。
 本発明により、表示部を有する複数の端末が連携して単一の擬似ディスプレイを構成する連携表示システムを提供することができる。
第1実施形態における連携表示システム1aの概要を示す図 ダウンロードデータの一例を示す図 出力データ50の一例を示す図 第1実施形態における事前準備処理の流れを示すフローチャート 第1実施形態における表示処理の流れを示すフローチャート 第1実施形態における同期処理を説明する図 第2実施形態における連携表示システム1bの概要を示す図 識別情報発光変換データ60の一例を示す図 第2実施形態における事前準備処理の流れを示すフローチャート 入力情報発光変換データ70の一例を示す図 第2実施形態におけるアンケート集計処理の流れを示すフローチャート
 以下図面に基づいて、本発明の実施形態を詳細に説明する。本発明の連携表示システムでは、表示部を有する複数の端末が連携して単一の擬似ディスプレイを構成する。擬似ディスプレイには、例えば動画像等のコンテンツを表示する。
<第1実施形態>
 図1は、第1実施形態における連携表示システム1aの概要を示す図である。図1の擬似ディスプレイ4は、単一の筐体から構成されるディスプレイではなく、異なる筐体の複数の端末3の表示部から構成される擬似的なディスプレイである。端末3は、互いに離間して配置される。図1では、擬似ディスプレイ4が構成される空間として、コンサート等のイベントを開催する会場の観客席の一部を模式的に示している。観客は、例えばスマートフォン等の端末3を所持し、予め定められている座席番号5の座席に着席する。図1に示すA1、A2等の番号が座席番号5である。
 連携表示システム1aは、複数の端末3と、各端末3と通信可能に接続されるサーバ2によって構成される。通信手段は特に限定されるものではないが、会場内であれば、例えば、BLE(Bluetooth(登録商標) Low Energy)等の近距離無線通信技術やWiFiを用いても良い。また、端末3とサーバ2は直接通信を行うだけでなく、中継機能を有する中継端末を介して通信を行っても良い。また、会場外で事前にデータのやり取りを行う場合、端末3とサーバ2はインターネットを介して通信を行っても良い。但し、コンサート等の公演会場において、端末3が数多く存在する場合(例えば、数万台)、個々の端末3とサーバ2が個別の通信を行うと、通信回線が破綻してしまう。そこで、このような場合、個々の端末3とサーバ2は個別の通信を行わず、サーバ2側から一方的に情報を配信する通信方式(ブロードキャスト:放送)を用いることが一般的である。
 各端末3は、外部の光が入らない屋内や夜間の屋外等に配置され、擬似ディスプレイ4に表示するコンテンツの一部分の表示処理を担当する。本実施形態では、各端末3は1画素分の表示処理を担当し、複数の端末3が連携することによって、単一の擬似ディスプレイ4を実現する。擬似ディスプレイ4に表示を行う際は、会場内の照明を可能な限り消灯することによって、複数の端末3の表示部に出力されるRGB値、すなわち光点の集まりが、あたかもドット絵のように見える。図1では、複数の端末3が連携し、擬似ディスプレイ4に数字の「1」を表示している。
 図1では、35台の端末3を図示しているが、端末3の数は限定されるものではない。イベントの観客数に応じて、数台~数万台の端末3によって単一の擬似ディスプレイ4を構成することができる。また、擬似ディスプレイ4は、1つの会場内に複数設定しても良い。例えば、観客席がステージの周囲に配置されている場合、ステージから見た4つの方向ごとに擬似ディスプレイ4を設定しても良い。
 サーバ2及び端末3は、制御部としてのCPU(「Central Processing Unit」の略)、主記憶部としてのメモリ、補助記憶部としてのHDD(「Hard Disk Drive」の略)やフラッシュメモリ、外部記憶部としての記憶媒体、表示部としての液晶ディスプレイ、入力部としてのキーボードやマウス、タッチパネルディスプレイ、無線通信部としての無線モジュール等を有する。補助記憶部としてのHDDやフラッシュメモリには、OS(「Operating System」の略)、アプリケーションプログラム、処理に必要なデータ等が記憶されている。端末3及びサーバ2のCPUは、補助記憶部からOSやアプリケーションプログラムを読み出して主記憶部に格納し、主記憶部にアクセスしながら、その他の機器を制御し、後述する処理を実行する。また、端末3は、音出力部としてのスピーカ等を有しても良い。
 サーバ2は、1台で構成されても良いし、複数台で構成されても良い。インターネットを介して端末3と接続されるサーバ2(例えば、スマートフォンのアプリやコンテンツのダウンロードに対応するサーバ)は、会場外のデータセンターに設置されても良い。一方、BLE等の近距離無線通信を介して端末3と接続されるサーバ2は、会場内に設置される。以下では、説明を簡潔にするために、設置場所によってサーバ2を区別しないものとする。
 図2は、ダウンロードデータの一例を示す図である。ダウンロードデータは、予めサーバ2に記憶されており、各端末3へ配信する共通のデータである。第1実施形態では、ダウンロードデータは、例えば、動画データ10、マップデータ20、色相音声変換データ30及び輝度音量変換データ40を含む。色相音声変換データ30及び輝度音量変換データ40は、端末3が音情報を出力する際、表示情報に基づいて音情報の切替を制御する場合に用いられる。各端末3は、これらのデータをサーバ2から事前にダウンロードしておく。
 動画データ10は、擬似ディスプレイ4に表示されるコンテンツの全画素の表示情報を含む。動画データ10に含まれる表示情報は、例えば、画素ごとのRGB値である。動画データ10は、音情報を含んでも良い。また、動画データ10は、単一の動画ファイルでも良いし、複数の動画ファイルに分割されていても良い。
 マップデータ20は、担当画素を各端末3にマッピングするために用いられる。マップデータ20は、例えば、擬似ディスプレイ4に含まれる座席の座席番号21と、座席番号21に対応するコンテンツの画素位置22を含む。座席番号21は、図1に示す座席番号5と同様の意味を持つデータ項目である。画素位置22は、コンテンツの各画素の位置をX座標、Y座標で示したものである。端末3は、マップデータ20を参照することによって、座席番号21に基づいて担当画素を決定することができる。
 擬似ディスプレイ4が複数設定される場合、動画データ10及びマップデータ20は、擬似ディスプレイ4ごとに異なるものを複数配信しても良い。
 色相音声変換データ30は、色相31によって音声チャンネル32の切替を制御するために用いられ、色相31と音声チャンネル32とが対応付けられている。色相音声変換データ30としては、例えば、RGB値によって特定される色相31を2つの範囲に分割し、左右(L、R)の音声チャンネル32に対応付けても良い。尚、RGB値から色相を特定する方法は、既存のカラーモデルを用いることができる。尚、ここでは、色相31を例に挙げているが、音声チャンネル32と対応付けられる情報は、この例に限定されるものではなく、表示情報の中から得られる情報であれば、どのような情報でも良い。例えば、端末3は、動画データに含まれるRGBそれぞれのLSB(最下位ビット)や輝度値のLSBを、表示とは独立して音声チャンネルを切り替える信号として利用しても良い。
 輝度音量変換データ40は、輝度41によって音量42の切替を制御するために用いられ、輝度41と音量42とが対応付けられている。輝度音量変換データ40としては、例えば、RGB値によって特定される輝度41が大きくなるにつれて音量が大きくなるように対応付けても良い。尚、RGB値から輝度を特定する方法は、既存のカラーモデルを用いることができる。尚、ここでは、輝度41を例に挙げているが、音量42と対応付けられる情報は、この例に限定されるものではなく、表示情報の中から得られる情報であれば、どのような情報でも良い。
 端末3は、色相音声変換データ30及び輝度音量変換データ40によって、RGB値から音声チャンネルや音量に変換し、表示と音声を同期して制御することが可能となる。これによって、擬似ディスプレイ4上の表示と音声の同期が可能となる。1台分の端末3の音量は小さくても、数万台集まることによって、例えば、光点の移動に連動して音が動き回るような演出が可能になる。
 図3は、出力データ50の一例を示す図である。出力データ50は、各端末3が出力する時系列順の表示情報や音情報であって、各端末3によって事前にダウンロードする動画データ10に基づいて生成される。具体的な生成方法は、図4を参照しながら後述する。出力データ50は、RGB値51、音量52及び音声チャンネル53等を含む。RGB値51は、端末3の表示部に表示する表示情報である。音量52は、端末3の音出力部に出力する音情報の一つであり、端末3のスピーカから出力する音声の音量である。音声チャンネル53は、音情報の一つであり、端末3のスピーカから出力する音声の音声チャンネルを識別する番号である。
 表示情報としては、RGB値51に限らず、グレースケール値や、特定の色相に関するON/OFFの値等、各画素の画素値に関するものであれば、どのようなものでも良い。
 図4は、第1実施形態における事前準備処理の流れを示すフローチャートである。図4に示すように、端末3は、連携表示システム1aに関するアプリとデータをサーバ2からダウンロードし(ステップS101)、アプリをインストールする。ダウンロードするデータは、図2に示すデータである。
 次に、端末3は、タッチディスプレイ等を介して、ユーザから座席番号5の入力を受け付ける(ステップS102)。尚、座席番号5の入力受付手段は、この例に限定されるものではない。例えば、端末3が、座席番号の情報を有するバーコードをスキャンしても良いし、電子チケットから座席番号を取得しても良い。
 次に、端末3は、座席番号とマップデータ20に基づいて自らの担当画素の画素位置を特定する(ステップS103)。具体的には、端末3は、マップデータ20を参照し、ステップS102において入力される座席番号に対応する画素位置22を特定する。
 次に、端末3は、ステップS103において特定される画素位置22に基づいて、担当画素の出力データを生成する(ステップS104)。具体的には、端末3は、動画データ10の中から、担当画素の画素位置22に関するRGB値をフレーム番号順(=時系列順)に抽出し、出力データ50とする。音情報も出力する場合、端末3は、動画データ10の中から、音量52及び音声チャンネル53に関するデータを抽出し、RGB値51が記憶されるファイルと独立したファイルに記憶しても良い。又は、端末3は、前述の色相音声変換データ30を用いて、動画データ10の中から、RGB値に関する色相に基づいて音声チャンネルを特定するとともに、輝度音量変換データ40を用いて、RGB値に関する輝度に基づいて音量を特定し、1チャンネル(モノラル)の音声信号として記憶しても良い。尚、音声チャンネルを特定するための情報は、色相に限らず、表示情報の中から得られる情報であれば、どのような情報でも良い。例えば、端末3は、動画データに含まれるRGBそれぞれのLSB(最下位ビット)や輝度値のLSBを、表示とは独立して音声チャンネルを切り替える信号として利用しても良い。同様に、音量を特定するための情報は、輝度に限らず、表示情報の中から得られる情報であれば、どのような情報でも良い。
 端末3は、自らが担当する画素の出力データ50を生成することによって、擬似ディスプレイ4上の1画素分の表示情報を表示したり、音情報を出力したりすることができる。
 次に、端末3は、担当画素の出力データ50を主記憶部に常駐させておく(ステップS105)。尚、端末3は、出力データ50を主記憶部に常駐させておく他に、容量の小さいファイルに分割して補助記憶部に記憶しておいても良い。いずれの場合も、端末3は、表示処理の際、担当画素の出力データ50を即時に読み出し可能な状態となる。同様に、端末3は、ステップS104において特定される音量及び音声チャンネルに基づく音情報を時系列順に即時に読み出し可能な状態としておく。
 コンテンツが動画像の場合、全体のデータサイズが数百MB~数GBになることもあるが、数千台~数万台の端末3が分担することによって、各端末3の担当画素の出力データ50は数MB以下になるため、主記憶部に常駐させておくことが可能なデータサイズとなる。尚、各端末3は、数秒の短い動画ごとに、主記憶部に出力データ50を常駐させても良い。
 動画像のデコード処理は、CPUによる負荷が重いため、各端末3にリアルタイムにデコード処理を実行させると、端末3の性能の違いにより、表示開始までのレスポンスのばらつきが大きくなる。場合によっては、1秒前後のばらつきが発生する。そこで、予め動画像をデコードしておき、図3に示す出力データ50のように、画素ごとの情報に変換しておくことによって、ばらつきを最小限に抑えることが可能となる。
 尚、色相音声変換データ30や輝度音量変換データ40を用いて音情報を制御する場合、端末3は、RGB値のみを出力データ50として主記憶部に常駐させ、表示処理の際、リアルタイムにRGB値から音情報に変換しても良い。
 端末3が最終的に必要なデータは、自らが担当する画素の出力データ50のみである。従って、ユーザが会場に到着してから、端末3がサーバ2に座席番号を送信し、サーバ2が端末3ごとに出力データ50を生成して送信することも考えられる。しかしながら、端末3が数万台になると、サーバ2に対する負荷が同時間帯に集中してしまう。そこで、本実施の形態では、端末3が事前にサーバ2から共通のデータをダウンロードしておき、端末3が必要なデータを生成する。これによって、サーバ2の負荷を時間的に分散することができる。
 図5は、第1実施形態における表示処理の流れを示すフローチャートである。図5は、端末3の処理内容を示すものである。図5に示す表示処理の前提として、図4に示す事前準備処理を完了しておく必要がある。そして、端末3は、サーバ2からの命令に従い、事前準備処理において準備される表示情報を表示する。
 以下では、全ての端末3が同一のフレームレートで出力データ50の表示処理を実行するものとする。また、端末3ごとの表示処理のずれを回避するために、出力データ50を所定間隔で複数のセットに分割し、セットの切り替わりのタイミングでサーバ2が同期命令を全ての端末3に送信するものとする。例えば、フレームレートが30fps、所定間隔が1秒の場合、1セットは30フレーム分となる。BLEを介して通信を行う場合、サーバ2は、同期命令をブロードキャストで送信する。
 動画データ10が複数のファイルに分割されている場合、例えば、動画ファイル番号の末尾に連番を付す等によって動画ファイルの時系列順を特定し、複数の動画ファイルを連続して再生することもできる。
 図5に示すように、端末3は、先頭動画ファイルの先頭フレームを表示対象フレームに設定する(ステップS201)。尚、コンテンツが複数存在する場合、ステップS201の前に、端末3は、サーバ2から、どのコンテンツを表示するのかを特定するコンテンツ特定命令を受信し、表示するコンテンツを決定するようにしても良い。
 次に、サーバ2から表示開始命令を受信する(ステップS202)。BLEを介して通信を行う場合、サーバ2は、表示開始命令をブロードキャストで送信する。
 次に、端末3は、現在の表示対象フレームの画素値(=出力データ50のRGB値51)を表示部に表示する(ステップS203)。端末3は、現在の表示対象フレームの画素値を表示部に表示することに同期して、出力データ50の音量52及び音声チャンネル53に基づく音情報を音出力部に出力しても良い。
 次に、端末3は、最終動画ファイルの最終フレームに到達したか否か確認する(ステップS204)。最終動画ファイルの最終フレームに到達していない場合(ステップS204のNo)、端末3は、次フレームを表示対象フレームに設定し(ステップS205)、同期カウンタを1増加する(ステップS206)。
 次に、端末3は、サーバ2から同期命令を受信したか否か確認する(ステップS207)。同期命令を受信した場合(ステップS207のYes)、端末3はステップS210に進み、同期命令を受信していない場合(ステップS207のNo)、端末3はステップS208に進む。
 ステップS208に進むと、端末3は、同期カウンタが所定数、すなわち1セットに含まれるフレーム数に到達したか否か確認する。同期カウンタが所定数に到達していない場合(ステップS208のNo)、端末3は、ステップS203から繰り返す。一方、同期カウンタが所定数に到達している場合(ステップS208のYes)、端末3は、サーバ2から同期命令を受信するまで待機し(ステップS209)、同期命令を受信するとステップS210に進む。
 ステップS210に進むと、端末3は、同期カウンタをリセットする。そして、端末3は、次セット(次動画ファイルの先頭セットの場合もある。)の先頭フレームを表示対象フレームに設定し(ステップS211)、ステップS203から繰り返す。表示対象フレームが最終動画ファイルの最終フレームに到達すると(ステップS204のYes)、端末3は処理を終了する。
 図6は、第1実施形態における同期処理を説明する図である。図6(a)に示すように、同期処理を行わない場合、再生時間が長い動画像では、最初のフレームで表示開始命令によって表示タイミングを合わせても、端末3の処理速度の違いから、徐々に表示のずれが大きくなる。そこで、図6(b)に示すように、本実施の形態では同期処理を行い、サーバ2は定期的に同期命令を送信する。そして、図6(b)に示す端末3aのように、処理速度が遅い端末3、すなわち1セットに含まれる全てのフレームの表示を終了する前に、同期命令を受信する端末3は、処理中のセットに含まれるフレームの表示を中断し、次のセットの先頭フレームの表示を行う。一方、図6(b)に示す端末3bのように、処理速度が速い端末3、すなわち同期命令を受信する前に、1セットに含まれる全てのフレームの表示を終了する端末3は、同期命令を受信するまで次のフレームを表示せずに待機する。これによって、再生時間が長い動画像であっても、徐々に表示がずれていくことを防ぎ、最後まで表示のずれを最小限に抑えることができる。
 以上、第1実施形態における連携表示システム1aによれば、表示部を有する複数の端末3が連携して単一の擬似ディスプレイ4を構成することができる。特に、第1実施形態では、ユーザが座席番号を入力し、端末3が予め定められるマップデータ20を参照することによって、担当画素を各端末3にマッピングするので、容易に単一の擬似ディスプレイ4を構成することができる。
<第2実施形態>
 図7は、第2実施形態における連携表示システム1bの概要を示す図である。第1実施形態では、各端末3の位置を特定可能な座席番号5を利用して担当画素を各端末3にマッピングしたが、第2実施形態では、座席番号5を利用できない会場における担当画素のマッピング方法を提供する。尚、第1実施形態と同様の要素については同一の符号を付し、重複する説明を省略する。
 連携表示システム1bは、複数の端末3と、各端末3と通信可能に接続されるサーバ2と、擬似ディスプレイ4内に含まれる全ての端末3の表示部を撮影し、サーバ2と通信可能に接続される撮影装置6と、によって構成される。サーバ2と撮影装置6は、例えばUSBケーブルやHDMI(登録商標)ケーブル等の有線によって接続される。
 連携表示システム1bにおいても、各端末3が1画素分の表示処理を担当し、複数の端末3が連携することによって、単一の擬似ディスプレイ4を実現する。図7に示す例では、複数の端末3が連携し、擬似ディスプレイ4に数字の「2」を表示している。
 撮影装置6は、所定のフレームレートで動画像を撮影するビデオカメラであり、各端末3の表示部の発光を識別可能な画質の動画像が得られる位置に設置される。撮影装置6は、1台で構成されても良いし、複数台で構成されても良い。
 図8は、識別情報発光変換データ60の一例を示す図である。識別情報発光変換データ60は、予めサーバ2及び端末3の記憶部に記憶されている。第2実施形態では、担当画素を各端末3にマッピングするために、予め定められる識別情報発光変換データ60を用いる。
 識別情報発光変換データ60は、例えば、端末3を識別する識別番号61ごとに、RGB値62と発光パターン63を含む。RGB値62は、端末3の表示部に表示する色情報である。発光パターン63は、端末3が発光するタイミングのパターンを示している。例えば、「0」は発光しない、「1」は発光する、を意味する。フレームレートが30fpsの場合、発光パターン63は、「0」又は「1」の数字を30個含むようにしても良い。RGB値62及び発光パターン63は、識別番号61ごとに異なる組み合わせとする。
 端末3が識別情報発光変換データ60に基づいて発光し、撮影装置6が端末3の表示部を撮影し、サーバ2が撮影装置6による撮影結果を解析することによって、端末3はサーバ2に自らの識別番号を伝達できる。また、サーバ2は、擬似ディスプレイ4内の端末3の位置も特定できるので、担当画素を各端末3にマッピングすることが可能になる。
 尚、端末3を識別するための識別情報としては、図8に示すような連番(例えば、連携表示システム1b内において自動付番される連続番号)の識別番号61に限らず、端末3の個体識別番号でも良いし、端末3のユーザのメールアドレスでも良い。
 図9は、第2実施形態における事前準備処理の流れを示すフローチャートである。サーバ2及び端末3は、予め識別情報発光変換データ60を記憶部に記憶している。図9に示すように、端末3は、アプリケーションプログラムとデータをサーバ2からダウンロードし(ステップS301)、アプリケーションプログラムをインストールする。このアプリケーションプログラムは、後述するステップS302及びS303の処理、すなわち端末3の識別情報を色又は発光パターンを用いてサーバ2に伝達する機能を提供するためのプログラムである。ステップS301は、会場外で予め実行しておいても良い。アプリは、表示処理の他、後述する表示位置特定処理の内容を含む。ダウンロードするデータは、図2に示す動画データ10と図8に示す識別情報発光変換データ60であり、必要に応じて、図2に示す色相音声変換データ30及び輝度音量変換データ40も含む。
 次に、各端末3は、識別情報発光変換データ60に基づいて、自らの識別情報を発光パターンに変換し(ステップS302)、会場内において一斉に、発光パターンを表示部に表示する(ステップS303)。これに対して、撮影装置6は、擬似ディスプレイ4内の端末3の表示部を動画撮影し、撮影結果をサーバ2に送信する(ステップS304)。
 次に、サーバ2は、撮影装置6による撮影結果を解析し、端末3ごとに発光パターンを抽出し、端末3の発光位置、識別番号及び発光補正値を特定する(ステップS305)。
 端末3の発光位置の特定方法については、2つの方法を説明する。例えば、予め擬似ディスプレイ4内の横方向及び縦方向の座席数が明らかな場合、サーバ2は、横方向及び縦方向の座席数を横方向及び縦方向の画素数として記憶部に記憶しておく。そして、サーバ2は、横方向及び縦方向の画素数に基づいて、撮影装置6による撮影結果の各フレームの画像を各画素に分割し、端末3の発光点の画素位置を特定する。
 また、例えば、予め擬似ディスプレイ4内の横方向及び縦方向の座席数が不明な場合、サーバ2は、撮影装置6による撮影結果の画像から発光点の数を算出し、コンテンツのアスペクト比に応じて、発光点の数から横方向及び縦方向の画素数を算出しても良い。例えば、発光点の数が1,200個、コンテンツのアスペクト比が4:3の場合、横方向の画素数が40、縦方向の画素数が30となる。そして、サーバ2は、横方向及び縦方向の画素数に基づいて、撮影装置6による撮影結果の画像を各画素に分割し、端末3の発光点の画素位置を特定する。この方法であれば、概ね各端末3が1つの画素を担当することになる。尚、複数の端末3が同じ画素を担当しても良いし、どの端末3も担当しない画素が存在しても良い。但し、コンテンツの欠損画素をなくすためには、全ての画素について1つ以上の端末3が担当するように横方向及び縦方向の画素数を算出することが望ましい。
 尚、擬似ディスプレイ4内の横方向及び縦方向の座席数が不明な場合であっても、横方向及び縦方向の画素数を固定しても良い。すなわち、サーバ2は、設定値として横方向及び縦方向の画素数を記憶部に記憶しておいても良い。この場合、コンテンツの欠損画素をなくすためには、横方向及び縦方向の画素数を小さく設定しておくことが望ましい。
 次に、端末3の識別番号の特定方法について説明する。サーバ2は、撮影装置6による撮影結果の画像から、発光点ごとに色情報と発光パターンを算出する。そして、サーバ2は、識別情報発光変換データ60の中から最も近いRGB値62と発光パターン63の組み合わせを検索し、識別番号61を特定する。
 次に、端末3の発光補正値の特定方法について説明する。スマートフォン等の端末3の表示部は、機種によって色や輝度の違いがある。そこで、それらの違いを吸収するために、サーバ2は、撮影装置6による撮影結果の画像から、端末3の発光補正値を特定する。例えば、端末3は、端末3ごとの発光パターンを表示部に表示した後、色調補正や輝度補正を行うための発光パターンを表示部に表示する。例えば、全ての端末3は、同一の輝度の設定値で発光パターンを表示し、サーバ2は、全ての発光点の輝度の平均を算出し、各発光点の輝度との差分を輝度補正に関する発光補正値に設定する。
 図9の説明に戻る。次に、サーバ2は、端末3ごとの担当画素の画素位置と発光補正値を端末3に送信する(ステップS306)。また、サーバ2は、必要に応じて、横方向及び縦方向の画素数も端末3に送信する。サーバ2は、識別番号に基づいて送信先の端末3を特定し、インターネット又は1対1の無線通信を介して、担当画素の画素位置と発光補正値を送信しても良い。又は、サーバ2は、WiFiを介して、全ての端末3の識別番号と担当画素の画素位置及び発光補正値との対応付けをブロードキャスト通信によって配信しても良い。
 次に、端末3は、担当画素の画素位置と発光補正値を受信し(ステップS307)、発光補正値に基づいて担当画素の出力データを補正する(ステップS308)。例えば、平均よりも発光点の輝度が低い端末3は、高輝度の設定値で担当画素の出力データを表示するように出力データを補正する。そして、端末3は、担当画素の出力データを主記憶部に常駐させておく(ステップS309)。尚、端末3は、必要に応じて、サーバ2から受信する横方向及び縦方向の画素数に基づいてコンテンツの動画像をデコードし、担当画素の出力データを抽出する。
 以上の通り、第2実施形態では、識別番号ごとの発光パターンを含む識別情報発光変換データ60を予め作成しておき、端末3が自らの識別番号に対応する発光パターンを表示部に表示し、撮影装置6が端末3の表示部を撮影し、サーバ2が撮影装置6による撮影結果を解析することによって端末3の識別番号及び担当画素の画素位置を特定する。これによって、座席番号5が定められていない会場であっても、担当画素を各端末3にマッピングすることが可能になる。尚、第2実施形態における表示処理は、第1実施形態における表示処理と同様に実行可能であるため、説明を省略する。
 図10は、入力情報発光変換データ70の一例を示す図である。入力情報発光変換データ70は、予めサーバ2及び端末3の記憶部に記憶されている。第2実施形態では、観客に対するアンケート結果を集計するために、予め定められる入力情報発光変換データ70を用いる。
 入力情報発光変換データ70は、例えば、アンケートの回答に関する入力値71ごとに、RGB値72と発光パターン73を含む。RGB値72は、図8に示すRGB値62と同様の意味を持つデータ項目である。発光パターン73は、図8に示す発光パターン63と同様の意味を持つデータ項目である。RGB値72及び発光パターン73は、入力値71ごとに異なる組み合わせとする。図10に示す例では、アンケートは、1、2、3、・・・のように、番号で回答する。
 図11は、第2実施形態におけるアンケート集計処理の流れを示すフローチャートである。第2実施形態では、サーバ2が複数の端末3から一括して情報を収集する情報収集処理を実行できる。アンケート集計処理は、情報収集処理の一例である。
 サーバ2及び端末3は、予め入力情報発光変換データ70を記憶部に記憶している。図11に示すように、端末3は、ユーザからアンケート結果を受け付けて、入力部を介してアンケート結果を入力する(ステップS401)。
 次に、端末3は、入力情報発光変換データ70に基づいて、ステップS401において入力されるアンケート結果を発光パターンに変換し(ステップS402)、会場内において一斉に、変換される発光パターンを表示部に表示する(ステップS403)。これに対して、撮影装置6は、擬似ディスプレイ4内の端末3の表示部を撮影し、撮影結果をサーバ2に送信する(ステップS404)。
 次に、サーバ2は、撮影装置6による撮影結果を解析し、端末3ごとに発光パターンを抽出し、アンケート結果を特定する(ステップS405)。具体的には、サーバ2が、撮影装置6による撮影結果の画像から、発光点ごとに色情報と発光パターンを算出する。そして、サーバ2が、入力情報発光変換データ70の中から最も近いRGB値72と発光パターン73の組み合わせを検索し、入力値71を特定する。
 そして、サーバ2はアンケート結果を集計する(ステップS406)。サーバ2は、BLE等を介して端末3にアンケート結果を送信しても良い。また、会場内に擬似ディスプレイ4とは異なる大画面ディスプレイが存在する場合、サーバ2は、ステップS406において集計されるアンケート結果を大画面ディスプレイに出力しても良い。
 端末3の数は、撮影装置6の撮影結果によって各端末3の表示部の発光を識別可能である限り、制限がない。そして、サーバ2は、擬似ディスプレイ4内の端末3からアンケート結果を同時に読み取ることができるので、数万人規模のアンケート結果も高速に集計することができる。これによって、アンケート結果に基づいて再生する動画を選択することができる。例えば、投票結果の多い動画コンテンツを優先して再生することができる。また、性別や年齢、誰のファンなのかを区別した表示を行う等の演出にアンケート結果を使用することができる。例えば、性別等の情報に基づいて、客席のグループごとに(例えば、レフト側とライト側等)、表示コンテンツを変えることができる。
 また、連携表示システム1bは、情報収集処理の一例としてメッセージ収集処理も実現することができる。例えば、図10に示す入力情報発光変換データ70を拡張し、数字だけでなく、文字についても発光パターンを対応付けておく(例えば、文字コードに対応付けて発光パターンを定義しておく。)。端末3は、送りたいメッセージを構成する1文字ごとに発光パターンを切り替えて表示部に表示する。サーバ2は、撮影装置6による撮影結果を解析し、発光パターンごとに文字を特定し、メッセージを復元する。そして、サーバ2は、擬似ディスプレイ4とは異なる大画面ディスプレイに、復元されるメッセージをリアルタイムに出力しても良い。これによって、例えば、メッセージの復元ごとに大画面ディスプレイに出力を開始し、複数のメッセージが時系列順に川のように流れる表示形態を実現することができる。
 以上、添付図面を参照しながら、本発明に係る連携表示システム等の好適な実施形態について説明したが、本発明はかかる例に限定されない。当業者であれば、本願で開示した技術的思想の範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。
 1a、1b………表示連携システム
 2………サーバ
 3………端末
 4………擬似ディスプレイ
 5………座席番号
 6………撮影装置
 10………動画データ
 20………マップデータ
 30………色相音声変換データ
 40………輝度音量変換データ
 50………出力データ
 60………識別情報発光変換データ
 70………入力情報発光変換データ

Claims (7)

  1.  表示部を有する複数の端末が連携して単一の擬似ディスプレイを構成し、動画像のコンテンツを表示する連携表示システムであって、
     前記端末と通信可能なサーバを備え、
     前記端末が、前記コンテンツの全画素の表示情報を含む動画データを記憶するステップと、
     前記端末が、座席番号の入力を受け付けるステップと、
     前記端末が、前記座席番号と前記擬似ディスプレイ内の画素位置との対応付けを示すマップデータに基づいて、自らが担当する画素の前記画素位置を特定するステップと、
     前記端末が、前記動画データの中から、特定される前記画素位置に関する前記表示情報を抽出するステップと、
    を含む事前準備処理と、
     前記端末が、前記サーバからの命令に従い、前記表示情報を表示するステップ、
    を含む表示処理と、
    を実行することを特徴とする連携表示システム。
  2.  前記事前準備処理は、更に、
     前記端末が、抽出される前記表示情報を時系列順に即時に読み出し可能な状態とするステップ、
    を含むことを特徴とする請求項1に記載の連携表示システム。
  3.  前記事前準備処理は、更に、
     前記端末が、前記表示情報の中から得られる情報に基づいて音声チャンネル及び音量を特定するステップと、
     前記端末が、特定される前記音声チャンネル及び前記音量に基づく音情報を時系列順に即時に読み出し可能な状態とするステップと、
    を含むことを特徴とする請求項2に記載の連携表示システム。
  4.  前記表示処理は、更に、
     前記サーバが、前記動画データの先頭フレームの表示開始命令を前記端末に送信するステップと、
     前記端末が、前記表示開始命令を受信すると、前記先頭フレームから時系列順に前記表示情報を表示するステップと、
     前記サーバが、所定の間隔で表示同期命令を前記端末に送信するステップと、
     前記端末が、前記表示同期命令を受信する前に所定フレーム数分の前記表示情報を表示した場合、前記表示同期命令を受信した後に所定フレーム数分の次フレームに関する前記表示情報を表示し、前記所定フレーム数分の前記表示情報を表示する前に前記表示同期命令を受信した場合、即時に前記所定フレーム数分の次フレームに関する前記表示情報を表示するステップと、
    を含むことを特徴とする請求項1乃至請求項3のいずれかに記載の連携表示システム。
  5.  前記表示処理において、前記端末が、前記表示情報を表示することに同期して、前記音情報を出力することを特徴とする請求項3に記載の連携表示システム。
  6.  表示部を有する複数の端末が連携して単一の擬似ディスプレイを構成し、動画像のコンテンツを表示する連携表示システムであって、
     前記端末と通信可能なサーバと、前記擬似ディスプレイ内の領域を撮影する撮影装置とを備え、
     前記端末が、前記端末の識別情報を色又は発光パターンを用いて前記サーバに伝達する機能を提供するためのプログラムを記憶するステップと、
     前記端末が、前記端末の前記識別情報と前記色又は前記発光パターンの対応付けを示す識別情報発光変換データに基づいて、自らの前記識別情報を前記色又は前記発光パターンに変換するステップと、
     前記端末が、変換される前記色又は前記発光パターンを表示するステップと、
     前記撮影装置が、前記擬似ディスプレイ内に含まれる前記端末の前記表示部を撮影するステップと、
     前記サーバが、前記撮影装置による撮影結果を解析し、前記端末ごとに前記色又は前記発光パターンを抽出するステップと、
     前記サーバが、抽出される前記色又は前記発光パターンの位置に基づいて、前記擬似ディスプレイ内の画素位置を特定するステップと、
     前記サーバが、前記識別情報発光変換データを参照し、抽出される前記色又は前記発光パターンに基づいて前記識別情報を特定するステップと、
     前記サーバが、前記識別情報と対応付けられる前記画素位置を前記端末に送信するステップと、
     前記端末が、前記識別情報と対応付けられる前記画素位置を受信し、前記コンテンツの中から、自らの前記識別情報と対応付けられる前記画素位置に関する表示情報を抽出するステップと、
    を含む事前準備処理と、
     前記端末が、前記サーバからの命令に従い、前記表示情報を表示するステップ、
    を含む表示処理と、
    を実行することを特徴とする連携表示システム。
  7.  表示部を有する複数の端末が連携して単一の擬似ディスプレイを構成し、動画像のコンテンツを表示する連携表示システムであって、
     前記端末と通信可能なサーバと、前記擬似ディスプレイ内の領域を撮影する撮影装置とを備え、
     前記端末が、ユーザによる入力情報を入力するステップと、
     前記端末が、前記入力情報と色又は発光パターンの対応付けを示す入力情報発光変換データに基づいて、入力される前記入力情報を前記色又は前記発光パターンに変換するステップと、
     前記端末が、変換される前記色又は前記発光パターンを表示するステップと、
     前記撮影装置が、前記擬似ディスプレイ内に含まれる前記端末の前記表示部を撮影するステップと、
     前記サーバが、前記撮影装置による撮影結果を解析し、前記端末ごとに前記色又は前記発光パターンを抽出するステップと、
     前記サーバが、前記入力情報発光変換データを参照し、抽出される前記色又は前記発光パターンに基づいて前記入力情報を特定するステップと、
    を含む情報収集処理を実行することを特徴とする連携表示システム。
PCT/JP2017/042512 2016-12-09 2017-11-28 連携表示システム WO2018105436A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-238929 2016-12-09
JP2016238929A JP2020030223A (ja) 2016-12-09 2016-12-09 連携表示システム

Publications (1)

Publication Number Publication Date
WO2018105436A1 true WO2018105436A1 (ja) 2018-06-14

Family

ID=62491954

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/042512 WO2018105436A1 (ja) 2016-12-09 2017-11-28 連携表示システム

Country Status (2)

Country Link
JP (1) JP2020030223A (ja)
WO (1) WO2018105436A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023067933A1 (ja) * 2021-10-19 2023-04-27 キヤノン株式会社 画像表示システム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024034412A1 (ja) * 2022-08-10 2024-02-15 ソニーグループ株式会社 情報処理システム、情報処理装置および方法、並びにプログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08125760A (ja) * 1994-10-28 1996-05-17 Hitachi Ltd 情報処理装置
JP2004264735A (ja) * 2003-03-04 2004-09-24 Nec Corp 同期式映像再生システム
JP2005244931A (ja) * 2004-01-26 2005-09-08 Seiko Epson Corp マルチ画面映像再生システム
JP2007110582A (ja) * 2005-10-17 2007-04-26 Sony Corp 画像表示装置および方法、並びにプログラム
JP2008164986A (ja) * 2006-12-28 2008-07-17 Fuji Electric Holdings Co Ltd 映像表示システム
JP2015022592A (ja) * 2013-07-19 2015-02-02 株式会社リコー 集合出力システム、端末装置および出力プログラム
JP2016038514A (ja) * 2014-08-08 2016-03-22 キヤノン株式会社 表示制御装置、表示装置、それらの制御方法、およびプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08125760A (ja) * 1994-10-28 1996-05-17 Hitachi Ltd 情報処理装置
JP2004264735A (ja) * 2003-03-04 2004-09-24 Nec Corp 同期式映像再生システム
JP2005244931A (ja) * 2004-01-26 2005-09-08 Seiko Epson Corp マルチ画面映像再生システム
JP2007110582A (ja) * 2005-10-17 2007-04-26 Sony Corp 画像表示装置および方法、並びにプログラム
JP2008164986A (ja) * 2006-12-28 2008-07-17 Fuji Electric Holdings Co Ltd 映像表示システム
JP2015022592A (ja) * 2013-07-19 2015-02-02 株式会社リコー 集合出力システム、端末装置および出力プログラム
JP2016038514A (ja) * 2014-08-08 2016-03-22 キヤノン株式会社 表示制御装置、表示装置、それらの制御方法、およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"Three companies in Akita will collaborate to develop ''huge screen'' using smartphones", AKITAKEIZAI SHIMBUN, 21 July 2016 (2016-07-21), Retrieved from the Internet <URL:https://akita.keizai.biz/headline/2532> [retrieved on 20180118] *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023067933A1 (ja) * 2021-10-19 2023-04-27 キヤノン株式会社 画像表示システム

Also Published As

Publication number Publication date
JP2020030223A (ja) 2020-02-27

Similar Documents

Publication Publication Date Title
US11812232B2 (en) Electronic device and music visualization method thereof
US9398255B2 (en) Information processing apparatus, information processing system and information processing method
KR101970358B1 (ko) 중앙 서버 및 이를 포함하는 공연 시스템
US9524698B2 (en) System and method for collectively displaying image by using a plurality of mobile devices
US10303419B2 (en) Information processing system, display processing apparatus, display processing method, and recording medium
JPWO2016110943A1 (ja) 映像表示装置、映像表示方法、及び映像表示システム
WO2018105436A1 (ja) 連携表示システム
US20230283888A1 (en) Processing method and electronic device
JPWO2015119216A1 (ja) 情報端末、システム、制御方法及び記憶媒体
US10244207B2 (en) Videoconference communication device
JP6241103B2 (ja) 集合出力システム、端末装置および出力プログラム
US20200084360A1 (en) Control system for controlling plurality of user terminals
CN104469078A (zh) 互动投影控制方法和系统
JP6600975B2 (ja) コレオグラフィ作成支援方法、コレオグラフィ作成支援プログラムおよび情報処理装置
CN113475091A (zh) 显示设备及其图像显示方法
US10970828B2 (en) Image processing apparatus, image processing system, image processing method, and recording medium
KR100746700B1 (ko) 시스템-온-칩 기반 led 신호 처리 장치
JP6187037B2 (ja) 画像処理サーバ、画像処理システム及びプログラム
CN210015702U (zh) 摩天轮多媒体资讯化伴唱系统
JP2016225823A (ja) 表示システム、情報端末、表示装置、再生制御プログラム及び再生制御方法
CN110795052B (zh) 显示控制方法、显示控制装置、显示系统和电子设备
CN111143014B (zh) 一种拼墙系统场景缩略图的生成方法及系统
KR20170063273A (ko) 위치 기반 스마트 단말 그룹 제어 장치 및 방법
KR20240050054A (ko) 디스플레이 장치 및 그 동작 방법
JP2021086372A (ja) 表示装置およびその制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17878014

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205N DATED 16/09/2019)

NENP Non-entry into the national phase

Ref country code: JP

NENP Non-entry into the national phase

Ref country code: JP

122 Ep: pct application non-entry in european phase

Ref document number: 17878014

Country of ref document: EP

Kind code of ref document: A1