JP2015022592A - 集合出力システム、端末装置および出力プログラム - Google Patents

集合出力システム、端末装置および出力プログラム Download PDF

Info

Publication number
JP2015022592A
JP2015022592A JP2013151153A JP2013151153A JP2015022592A JP 2015022592 A JP2015022592 A JP 2015022592A JP 2013151153 A JP2013151153 A JP 2013151153A JP 2013151153 A JP2013151153 A JP 2013151153A JP 2015022592 A JP2015022592 A JP 2015022592A
Authority
JP
Japan
Prior art keywords
output
content
position information
unit
terminal device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013151153A
Other languages
English (en)
Other versions
JP6241103B2 (ja
Inventor
國枝 孝之
Takayuki Kunieda
孝之 國枝
彰吾 百武
Shogo Momotake
彰吾 百武
北川 英明
Hideaki Kitagawa
英明 北川
裕史 森岡
Yuji Morioka
裕史 森岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2013151153A priority Critical patent/JP6241103B2/ja
Priority to US14/332,527 priority patent/US9986066B2/en
Publication of JP2015022592A publication Critical patent/JP2015022592A/ja
Application granted granted Critical
Publication of JP6241103B2 publication Critical patent/JP6241103B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/131Protocols for games, networked simulations or virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/08Protocols specially adapted for terminal emulation, e.g. Telnet

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)
  • Digital Computer Display Output (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】コンテンツの各部分を多数の情報処理装置間で連係して出力して全体として1のコンテンツを構成する。【解決手段】サーバ装置と、複数の端末装置とを含む集合出力システムにおいて、サーバ装置は、複数の要素を含むコンテンツを出力する領域内の予め定められた各位置を示す各位置情報を、コンテンツの複数の要素それぞれに関連付けたマップを生成する。端末装置は、当該領域内における出力位置情報を取得してサーバ装置に送信する。サーバ装置は、端末装置からの出力位置情報に対応する位置情報に関連付けられた要素をマップに基づき取得し、要素を含むコンテンツに関連付けられた時間情報を取得し、取得された要素と時間情報とを出力位置情報を送信した端末装置に送信する。端末装置は、出力位置情報に応じてサーバ装置から送信された、要素と時間情報とを受信して、要素を時間情報に示されるタイミングで出力させる。【選択図】図1

Description

本発明は、集合出力システム、端末装置および出力プログラムに関する。
近年、複数の情報処理装置間で同一のコンテンツを表示させ、表示されたコンテンツに対する操作を共有可能な画面共有システムが開発されている(特許文献1参照)。この画面共有システムによれば、当該多数の情報処理装置のうち1の情報処理装置に対する入力操作により、多数の情報処理装置に表示されたコンテンツを一斉に切り替えることが可能である。
ところで、従来から、大規模な競技場などで、観客席に並んだ、フリップボードを持った観客がタイミングに合わせてフリップボードの内容を変えて、多数のフリップボードからなる所定の図形を構成するパフォーマンス(マスゲームと呼ぶ)が行われている。観客席の全面を使った図形を構成することが可能なので、競技などの応援を効果的に行うことができる。また、観客席の全面を使用した巨大な図形を構成可能なので、競技などの様子がテレビジョン放送により放映されるような場合でも、視聴者が図形を容易に認識可能である。
上述のマスゲームで用いられるフリップボードは、表示可能な情報が限られており、多彩な表現が困難であった。また、上述のマスゲームでは、表示されている図形を他の図形に切り替える際には、フリップボードを持つ各人が何らかの合図に従いフリップボードを一斉に動かす必要があり、各人の動作を同期させることが困難であった。またそのため、上述のマスゲームは、速いタイミングで図形を切り替えることが困難であった。
一方、特許文献1の技術によれば、多数の画像の切り替えを同期させることが容易であり、それにより、表示するコンテンツを速いタイミングで次々と切り替えることも容易である。また、特許文献1では、情報処理装置を用いて画像を表示するため、より多くの画像を切り替えて表示させることができる。しかしながら、特許文献1は、多数の情報処理装置で共通のコンテンツを表示させるため、上述したマスゲームのような利用は困難であるという問題点があった。
本発明は、上記に鑑みてなされたものであって、コンテンツの各部分を多数の情報処理装置間で連係して出力して全体として1のコンテンツを構成することを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、情報処理装置と、複数の端末装置とを含む集合出力システムであって、情報処理装置は、複数の要素を含むコンテンツを、コンテンツの出力を制御するタイミングを示す時間情報と関連付けて保持するコンテンツ保持部と、コンテンツを出力する領域内の予め定められた各位置を示す各位置情報をコンテンツの複数の要素それぞれに関連付けたマップを生成するマップ生成部と、位置情報に対応する、コンテンツを出力するための位置を示す出力位置情報を端末装置から受信する第1受信部と、出力位置情報に対応する位置情報に関連付けられた要素をマップに基づき取得し、要素を含むコンテンツに関連付けられた時間情報を取得する要素取得部と、要素取得部に取得された要素と時間情報とを出力位置情報の送信元の端末装置に送信する第1送信部とを有し、端末装置は、領域内における出力位置情報を取得する位置情報取得部と、出力位置情報を情報処理装置に送信する第2送信部と、第2送信部から送信された出力位置情報に応じて情報処理装置から送信された、要素と時間情報とを受信する第2受信部と、要素を時間情報に示されるタイミングで出力させる出力部とを有することを特徴とする。
本発明によれば、コンテンツの各部分を多数の情報処理装置間で連係して出力して全体として1のコンテンツを構成することができるという効果を奏する。
図1は、第1の実施形態に係る集合出力システムの一例の構成を概略的に示す図である。 図2は、第1の実施形態に係る集合出力システムによるコンテンツ出力の例をより具体的に示す図である。 図3は、第1の実施形態に係るサーバ装置の機能を説明するための一例の機能ブロック図である。 図4は、第1の実施形態に係る端末装置の機能を説明するための一例の機能ブロック図である。 図5は、第1の実施形態に係るサーバ装置の一例の動作を示すフローチャートである。 図6は、第1の実施形態に係る位置情報について説明するための図である。 図7は、第1の実施形態に係るマップ生成部の処理を説明するための図である。 図8は、第1の実施形態に係るマップ生成部による処理の例をより具体的に説明するための図である。 図9は、第1の実施形態に係るマップ生成部による処理の例をより具体的に説明するための図である。 図10は、第1の実施形態に係るマップ生成部による処理の例をより具体的に説明するための図である。 図11は、第1の実施形態に係る端末装置の一例の動作を示すフローチャートである。 図12は、座席番号の表示例を示す図である。 図13は、第1の実施形態に係る、各端末装置が各要素の出力を同時に開始しない場合の例を示す図である。 図14は、第1の実施形態に係る端末装置の一例の構成を示すブロック図である。 図15は、第1の実施形態に係るサーバ装置の一例の構成を示すブロック図である。 図16は、第2の実施形態に適用可能な、画像検索システムを含むサーバ装置の機能を示す一例の機能ブロック図である。
以下に添付図面を参照して、集合出力システム、端末装置および出力プログラムの実施形態を詳細に説明する。
(第1の実施形態)
図1は、第1の実施形態に係る集合出力システムの一例の構成を概略的に示す図である。図1において、集合出力システムは、情報処理装置としてのサーバ装置10と、サーバ装置10とネットワークを介して通信可能な複数の端末装置20、20、…とを含む。サーバ装置10は、1以上のコンピュータを含んで構成される。端末装置20は、例えばスマートフォンやタブレット型コンピュータであって、ディスプレイ、カメラおよびスピーカを備えると共に、通信機能を備え、電話通信、音再生、撮像による画像の取得、ならびに、データ通信など複数の機能を実行可能とされている。
集合出力システムは、サーバ装置10が、コンテンツに基づき、コンテンツをそれぞれ所定の出力位置で出力される複数の要素を生成し、生成された各要素を、コンテンツを出力するタイミングを制御する時間情報と共に、それぞれ所定の出力位置に配置される複数の端末装置20、20、…に送信する。各端末装置20、20、…が、サーバ装置10から送信された各要素を、時間情報に従い出力することで、各端末装置20、20、…の出力の全体として、1のコンテンツを構成することができる。
各端末装置20、20、…は、自身がコンテンツを出力すべき位置を示す出力位置情報を取得し、取得した出力位置情報をサーバ装置10に送信する。
サーバ装置10は、画像などのコンテンツを予め取得する。なお、コンテンツは、静止画像や動画像に限られず、例えば、複数の音または複数のタイミングで鳴動される音であってもよい。以下では、サーバ装置10が取得するコンテンツが画像であるものとして説明する。
サーバ装置10は、さらに、各端末装置20、20、…にコンテンツを出力させる位置を示す各位置情報を含む位置情報群を予め取得する。サーバ装置10は、コンテンツに基づき、位置情報群に含まれる各位置情報にそれぞれ対応する要素を生成する。コンテンツが画像の場合、要素は、例えば、画像を位置情報群に含まれる各位置情報に従い分割した各分割領域内の画像である。また、コンテンツが動画像の場合、要素は、例えば、動画像のフレームを位置情報群に含まれる各位置情報に従い分割した各分割領域に位置が対応する、各フィールドの画像である。さらに、各要素には、要素の出力を制御するタイミングを示す時間情報が付加される。時間情報は、より具体的には、要素を出力する時刻を示す。
サーバ装置10は、端末装置20、20、…から送信された各出力位置情報に応じて、対応する要素を各端末装置20、20、…に送信する。各端末装置20、20、…は、サーバ装置10から送信された要素を保持する。各端末装置20、20、…は、各々保持した要素を、タイマなどの制御に従い、要素に付加される時間情報に従い出力する。要素が画像に基づくものであれば、要素は、時間情報に従ったタイミングで端末装置20が有するディスプレイに表示される。
このとき、各端末装置20、20、…が、各々が取得した出力位置情報に応じた位置に配置されれば、各端末装置20、20、…の各要素の出力により、全体として1のコンテンツを出力することができる。
図2(a)〜図2(c)は、第1の実施形態に係る集合出力システムによるコンテンツ出力の例をより具体的に示す。なお、以下において、コンテンツは、複数の静止画像を指定された時間で切り替えて順次表示する、所謂スライドショーによる動画像であるものとして説明する。コンテンツが動画像の場合、要素は、例えば、動画像のフレームを所定に分割した各領域に含まれる、フィールド毎の各画像を含むものとする。また、コンテンツに付加される時間情報は、少なくとも動画像の出力開始時刻を指定する1以上の時刻を含む。
図2(a)〜図2(c)において、例えばある施設30内の所定の領域31を、コンテンツ出力を実行する対象とする。以下、この領域31を対象領域31と呼ぶ。サーバ装置10は、対象領域31内の各位置を示す位置情報と、各位置を識別するための識別情報とを予め取得し、取得した位置情報と識別情報とを関連付けて保持する。
一例として、施設30が競技場や劇場の観客席とすると、対象領域31内の各位置は、各座席に対応する。図2(a)〜図2(c)の例では、対象領域31において、5行×5列に座席が配置されている。この場合、位置情報は、対象領域31内における各座席の配置位置に対応し、識別情報は、各座席の座席番号に対応させることができる。位置情報は、絶対的な座標を用いて示してもよいし、例えばある座席を基準とした相対的な位置を示す情報であってもよい。
サーバ装置10は、コンテンツに基づき、各位置情報に対応する各要素を生成する。そして、サーバ装置10は、生成した各要素と、各要素に対応する位置情報に関連付けられた識別情報とを関連付けたマップを作成する。したがって、サーバ装置10は、与えられた識別情報に対応する要素を取得することができる。
図2(a)〜図2(c)において、各端末装置20、20、…は、それぞれが取得した出力位置情報に応じた位置に配置され、各位置情報すなわち各識別情報に対応する要素を予めサーバ装置10から取得しているものとする。例えば、各端末装置20、20、…は、それぞれの座席番号を識別情報としてサーバ装置10に送信する。サーバ装置10は、送信された座席番号に関連付けられた位置情報に対応する要素を、時間情報を付加して座席番号の送信元に送信する。
図2(a)は、コンテンツの出力開始時の様子の例を示す。図2(a)において、各端末装置20、20、…のうち塗り潰されて示される端末装置20は、要素に従いディスプレイに濃色画像、例えば黒色の黒画像が表示され、白抜きで示される端末装置20は、要素に従いディスプレイに淡色画像、例えば白色の白画像が表示される。このように、各端末装置20、20、…が位置に応じた要素をそれぞれ表示させることで、全体として一つのコンテンツ(この例では「×(バツ)」の表示)が出力される。
各端末装置20、20、…は、要素に付加された時間情報に従い、時間情報に示される時刻でディスプレイに表示する要素を切り替える。図2(b)は、要素が切り替えられた各端末装置20、20、…の様子の例を示す。図2(b)の例では、各要素に従い、図2(a)の「×」の例に対して各端末装置20、20、…の表示が切り替えられることで、図2(a)の「×」の表示が、全体として「○(丸)」の表示に切り替えられている。
各端末装置20、20、…は、要素に付加された時間情報に従い、更に次のタイミングで、ディスプレイに表示する要素を切り替える。この例では、図2(b)に例示した「○」の表示が、全体として「+(十字)」の表示に切り替えられている。
このように、第1の実施形態によれば、各端末装置20、20、…は、出力位置情報に応じてサーバ装置10から送信された各要素を、各要素に付加された時間情報に従い表示させることで、全体として1のコンテンツを表現することができる。また、各端末装置20、20、…において、表示させる要素を時間情報に従い切り替えることで、動画像によるコンテンツを表現することができる。
図3は、第1の実施形態に係るサーバ装置10の機能を説明するための一例の機能ブロック図である。サーバ装置10は、受信部101と、コンテンツ保持部102と、マップ生成部103と、要素取得部104と、送信部105とを有する。なお、これら受信部101、コンテンツ保持部102、マップ生成部103、要素取得部104および送信部105は、それぞれCPU(Central Processing Unit)上で動作するプログラムにより構成してもよいし、一部または全部を、互いに協働して動作するハードウェアによって構成してもよい。
受信部101は、端末装置20から送信された出力位置情報をネットワークを介して受信する。コンテンツ保持部102は、端末装置20、20、…に表現させるためのコンテンツを保持する。また、コンテンツ保持部102は、保持するコンテンツの出力時刻を示す時刻情報を、コンテンツに関連付けて保持する。マップ生成部103は、コンテンツ保持部102に保持されるコンテンツの出力を行う領域内の各位置を示す位置情報に基づき当該コンテンツから各要素を生成し、位置情報と生成した各要素とを関連付けるマップを生成する。
要素取得部104は、受信部101により受信された出力位置情報に基づきマップ生成部103で生成されたマップを参照し、当該出力位置情報に対応する要素を取得する。要素取得部104は、予め作成した、識別情報と位置情報とを対応付けるテーブルから、識別情報に対応する位置情報を取得する。そして、取得した位置情報によりマップを参照し、マップに関連付けられた要素を取得する。
送信部105は、要素取得部104で取得された要素を、受信部101が受信した当該要素に対応する位置情報の送信元の端末装置20に対して送信する。このとき、送信部105は、当該要素を含むコンテンツに関連付けられた時間情報を、要素に付加して送信する。
図4は、第1の実施形態に係る端末装置20の機能を説明するための一例の機能ブロック図である。端末装置20は、位置情報取得部201と、送信部202と、受信部203と、タイマ204と、出力部205とを有する。なお、これら位置情報取得部201、送信部202、受信部203およびタイマ204は、それぞれCPU上で動作するプログラムにより構成してもよいし、一部または全部を、互いに協働して動作するハードウェアによって構成してもよい。
位置情報取得部201は、端末装置20がサーバ装置10から取得するコンテンツ(要素)を出力すべき位置を示す出力位置情報を取得する。位置情報取得部201は、当該位置に対応する識別情報を出力位置情報として取得してもよいし、当該位置を直接的に示す情報(座標情報など)を出力位置情報として取得してもよい。また、位置情報取得部201は、ユーザ操作により座席番号といった識別情報を直接的に入力して出力位置情報を取得してもよいし、後述するように、識別情報を撮像した撮像画像を、出力位置情報として取得してもよい。
送信部202は、位置情報取得部201で取得した出力位置情報を、サーバ装置10に送信する。受信部203は、送信部202から送信された出力位置情報に応じてサーバ装置10から送信された要素を受信する。
タイマ204は、時間を計測する。出力部205は、受信部203に受信された要素を出力する。このとき、出力部205は、タイマ204で計測される時間と、要素に付加される時間情報に示される時刻とを比較し、時間情報に示されるタイミングで要素の出力を行う。要素が画像に基づくものであれば、出力部205は、端末装置20が有するディスプレイに対して当該要素を表示させることで、要素の出力を行う。また、要素が音に基づくものであれば、出力部205は、端末装置20が有する音出力機能を用いてスピーカなどを鳴動させることで、要素の出力を行う。
図5は、第1の実施形態に係るサーバ装置10の一例の動作を示すフローチャートである。ステップS10で、サーバ装置10は、外部から取得したコンテンツをコンテンツ保持部102に保持し、コンテンツの登録を行う。このとき、サーバ装置10は、当該コンテンツを出力するタイミングを示す時間情報も共に取得し、コンテンツと関連付けてコンテンツ保持部102に保持する。ここでは、コンテンツは、スライドショーを表示する動画像であるものとする。
次のステップS11で、サーバ装置10においてマップ生成部103は、ステップS10で登録したコンテンツを出力する領域内の各位置を示す各位置情報を取得する。図6を用いて、第1の実施形態に係る位置情報について説明する。図6において、対象領域31は、例えば競技場や劇場の観客席の所定のエリアであって、座席32、32、…が5列×5行のマトリクス状に配置されているものとする。また、各座席32、32、…は、行方向に座席番号「1」、「2」、…が割り当てられ、列方向に座席番号「A」、「B」、…が割り当てられているものとする。すなわち、各座席32、32、…は、座席番号が座席番号「A−1」、「B−2」、「C−4」などのように定義される。この座席番号は、各座席32、32、…を識別するための識別情報である。
一例として、この座席32、32、…の配置に対して、各行にX座標を割り当て、各列にY座標を割り当てる。図6の例の場合、例えば左上隅の座席番号「A−1」の位置が座標(0,0)とされ、座席番号「B−2」の位置が座標(1,1)、座席番号「E−3」の位置が座標(2,4)とされる。第1の実施形態では、この座標を、位置情報として用いる。なお、ここでは、位置情報をある座席32を基準とした相対的な位置を示す情報として説明したが、これはこの例に限定されない。例えば、位置情報は、緯度および経度などを用いた絶対的な位置を示す情報としてもよい。
次のステップS12で、マップ生成部103は、ステップS10で登録したコンテンツに基づき、位置情報毎の要素を生成する。図7(a)に例示されるように、マップ生成部103は、コンテンツである動画像のフレーム40を位置情報に応じて分割し、各分割領域4100、4110、…、4140、…、4104、…、4114、…、4144を生成する。コンテンツである動画像における各フィールドの、これら各分割領域4100、4110、…、4140、…、4104、…、4114、…、4144にそれぞれ位置が対応する領域の各画像が、それぞれコンテンツを構成する要素となる。
マップ生成部103は、生成された各分割領域4100、4110、…、4140、…、4104、…、4114、…、4144に対して、各位置情報に対応する各座標(0,0)、(1,0)、…、(4,0)、…、(0,4)、…、(1,4)、…、(4,4)をそれぞれ割り当てる。
次のステップS13で、マップ生成部103は、各要素を出力位置情報に対応付けたマップを生成する。例えば、マップ生成部103は、図7(b)に例示されるように、上述した各座標(0,0)、(1,0)、…、(4,0)、…、(0,4)、…、(1,4)、…、(4,4)に対して、対応する位置情報に割り当てられた座席番号を関連付けて、各座席番号と各要素とが関連付けられたマップを生成する。
図8〜図10を用いて、第1の実施形態に係るマップ生成部103による処理の例について、より具体的に説明する。一例として、上述の図2(a)〜図2(c)に示したように、時間情報に従い、対象領域31内の全体としてのコンテンツの表示が「×(バツ)」の表示、「○(丸)」の表示、「+(十字)」の表示、…と順次変化する場合について考える。
例えば、最初の「×」の表示の場合、マップ生成部103は、図8に例示される画像50に対して各分割領域4100〜4144を適用する。その結果、画像50は、図9に例示されるように、各分割領域4100〜4144単位の各要素からなる画像51に変換される。マップ生成部103は、各要素に対して、各分割領域4100〜4144に対応する座席番号「A−1」〜「E−5」をそれぞれ関連付けてマップを生成する。サーバ装置10は、端末装置20から送信された座席番号に基づきこのマップを参照することで、座席番号に応じた要素を特定することができる。
さらに、マップ生成部103は、各要素の時間情報との関連付けも行う。図10は、各要素と時間情報との関連付けの例を示す。なお、図10において、斜線を付した要素63は例えば黒画像を示し、白抜きの要素62は例えば白画像を示す。また、要素が並べられた各行の左端に、座席番号「A−1」、「A−2」、…が示されている。
時間情報60は、各分割領域4100〜4130の各要素が切り替えられるタイミングを示している。すなわち、図10は、各分割領域4100〜4130について、時間に応じて出力する各要素を示すプレイリストである。図10の例では、時間情報は、時刻「2013年4月10日 18時00分」、時刻「2013年4月10日 18時01分」、時刻「2013年4月10日 18時02分」、時刻「2013年4月10日 18時03分」、…の各時刻を示す情報を含み、これら各時刻のタイミングで、各分割領域4100〜4130において各要素が切り替えられることが示される。
次のステップS14で、サーバ装置10は、端末装置20からの要素のダウンロード(DL)要求の有無を判定する。端末装置20からのDL要求が無いと判定した場合、処理がステップS14に戻される。一方、サーバ装置10は、受信部101に端末装置20からDL要求が受信され、当該端末装置20から、要素のDL要求があったと判定した場合、処理を次のステップS15に移行させる。なお、端末装置20からの要素のDL要求は、出力位置情報を含んでなされる。
ステップS15で、サーバ装置10において要素取得部104は、ステップS13で生成されたマップを、端末装置20からのDL要求に含まれる出力位置情報(例えば座席番号)に基づき参照し、当該出力位置情報に対応する要素を取得して、送信部105に渡す。送信部105は、要素取得部104から渡された要素に時間情報を付加して、DL要求の送信元となる端末装置20に送信する。
次のステップS16で、サーバ装置10は、コンテンツを構成する全要素のダウンロードが完了したか否かを判定する。サーバ装置10は、全要素のダウンロードが完了していないと判定した場合、処理をステップS14に戻す。また、サーバ装置10は、全要素のダウンロードが完了したと判定した場合、図5のフローチャートによる一連の処理を終了させる。
これに限らず、サーバ装置10は、ステップS16で、所定時刻になったか否かを判定してもよい。例えば、サーバ装置10は、コンテンツに対応する時間情報に示される最も遅い時刻になったら、全要素のDLが完了したか否かに関わらず、要素のDLを締め切るようにすることが考えられる。また、サーバ装置10は、全要素のうち所定割合以上の要素がダウンロードされたか否かを判定してもよい。さらに、サーバ装置10は、所定時刻になったか否かの判定と、全要素のうち所定割合以上のダウンロードがあったか否かの判定とを組み合わせてもよい。
図11は、第1の実施形態に係る端末装置20の一例の動作を示すフローチャートである。ステップS20で、端末装置20における位置情報取得部201は、コンテンツを出力すべき位置を示す出力位置情報を取得する。コンテンツを出力する対象領域31が観客席であるこの例では、出力位置情報は、例えば座席に付与された座席番号を適用することができる。
図12(a)は、座席番号が各座席に直接的に掲示される例を示す。例えば、図12(a)において、座席番号70、70、…が各座席71、71、…の所定位置に設けられるプレートなどに表示されて、ユーザに提示される。また例えば、指定席の場合、図12(b)に例示されるように、入場チケット72に座席番号70が印字されてユーザに提示される。
位置情報取得部201は、端末装置20に対してユーザ操作などにより直接的に入力された座席番号を、出力位置情報として取得することができる。これに限らず、端末装置20に被写体を撮像し撮像画像を出力する撮像部を設け、座席番号が提示される部分を撮像部で撮像し、得られた撮像画像に基づき座席番号を取得してもよい。この場合、撮像画像に対してOCR(Optical Character Recognition)処理を施し、撮像画像から座席番号を抽出してもよい。
これに限らず、図12(c)に例示されるように、座席番号を例えばQRコード(登録商標)といった、マトリクス形二次元コード73に符号化し、符号化したマトリクス型二次元コード73を入場チケット72に印刷してもよい。ユーザは、端末装置20を操作して撮像部により撮像を行い、この座席番号を含むマトリクス形二次元コード73を含む撮像画像を取得する。位置情報取得部201は、このマトリクス形二次元コード73をデコードして座席番号を抽出する。
説明は図11のフローチャートに戻り、次のステップS21で、端末装置20において、送信部202は、要素のDLを要求するDL要求を、サーバ装置10に送信する。このとき、端末装置20は、DL要求に対して、ステップS20で取得した出力位置情報を付加して送信する。サーバ装置10は、端末装置20から送信されたDL要求に応じて、DL要求に付加された出力位置情報に対応する要素を、時間情報を付加して端末装置20に送信する(図5のステップS14およびステップS15)。
次のステップS22で、受信部203は、ステップS21で送信したDL要求に応じてサーバ装置10から送信された要素と、要素に付加された時間情報とを受信する。受信された要素は、端末装置20が有するメモリやストレージに保持される。また、要素に付加されて受信された時間情報は、出力部205に渡される。
次のステップS23で、出力部205は、タイマ204から出力される時刻情報を参照して、現在の時刻が、要素に付加された時間情報に示される時刻と一致するか否かを判定する。出力部205は、一致しないと判定した場合、再びステップS23の判定処理を実行する。一方、現在の時刻が要素に負荷された時間情報に示される時刻と一致すると判定した場合、処理をステップS24に移行させる。
なお、タイマ204は、予め基準となる時刻情報に基づき時間合わせを実行しておくと好ましい。基準となる時刻情報は、端末装置20をインターネットに接続し、NTP(Network Time Protocol)を用いて取得することが考えられる。これに限らず、基準となる時刻情報は、サーバ装置10から提供してもよい。すなわち、1のコンテンツを構成する複数の要素を出力する各端末装置20、20、…間で時刻情報を同期させることができれば、基準となる時刻情報の取得方法は限定されない。
ステップS24で、出力部205は、要素の出力を行う。要素が画像であるこの例では、出力部205は、端末装置20が有するディスプレイにこの画像を表示させることで、要素の出力を行う。
また、コンテンツが画像であっても、要素は、画像に限られない。例えば、コンテンツが画像である場合において、要素は、位置情報に応じた色を表示させるためのコマンドであってもよい。一例として、R(赤色)、G(緑色)およびB(青色)の輝度をそれぞれ指定するコマンドを、要素として用いることが考えられる。出力部205は、このコマンドに従った色でディスプレイを発光させることで、要素の出力を行う。
次のステップS25で、出力部205は、時間情報に示される全てのタイミングでの要素の出力が終了したか否かを判定する。出力部205は、未だ要素が出力されていないタイミングが存在すると判定した場合には、処理をステップS23に戻す。一方、出力部205は、時間情報に示されるすべてのタイミングでの要素の出力が終了したと判定した場合、図11のフローチャートによる一連の処理を終了させる。
なお、上述のステップS20〜ステップS22による、出力位置情報の取得から要素の受信までの処理を実行するタイミングは、時間情報に示される最も遅い時刻以前であれば、特に限定されない。例えば、ユーザ操作により座席番号を端末装置20に入力する場合や、入場チケット72の画像に基づき座席番号を端末装置に入力する場合は、端末装置20を保持するユーザが、出力位置情報が示す位置に到達する以前に、端末装置20にステップS20〜ステップS22の処理を実行させることが可能である。
また例えば、端末装置20を保持するユーザが出力位置情報が示す位置に到着した後に、端末装置20にステップS20〜ステップS22の処理を実行させてもよい。
また、上述では、各端末装置20、20、…が時間情報に示される最も早い時刻から同時に要素の出力を開始するように説明したが、実際には、各端末装置20、20、…は、必ずしも同時に要素の出力を開始できるとは限らない。一例として、ある端末装置20を保持するユーザが、時間情報に示される最も早い時間に対して遅れて出力位置情報が示す位置に到着したような場合が考えられる。他の例として、ある端末装置20において、時間情報に示される最も早い時間に対して遅れて要素のダウンロードが完了するような場合も考えられる。
図13は、第1の実施形態に係る、各端末装置20、20、…が各要素の出力を同時に開始しない場合の例を示す。なお、図13において、座席番号「A−1」、「A−2」、「A−3」および「B−1」の各行に、時間情報60が示す時刻毎に、各座席番号「A−1」〜「B−1」を出力位置情報として出力される各要素が太枠にて示されている。
図13において、出力位置情報が座席番号「A−1」で示される出力位置では、時間情報60に示される最も早い時刻「2013年4月10日 18時00分」に合わせて要素の出力が開始されている。
一方、他の座席番号「A−2」、「A−3」および「B−1」で示される各出力位置では、それぞれ、時刻情報60に示される最も早い時刻に対して遅れて要素の出力が開始されている。例えば、座席番号「A−2」で示される出力位置では、時間情報60に2番目に示される時刻「2013年4月10日 18時01分」から要素の出力が開始されている。この座席番号「A−2」の場合、例えば2013年4月10日の18時00分から18時01分の間に、サーバ装置10から端末装置20への要素のダウンロードが完了したことが考えられる。この場合、図11のフローチャートのステップS23およびステップS24に示されるように、端末装置20は、時間情報における次の時刻を待機して、要素の出力を行う。
このように、各端末装置20、20、…は、サーバ装置10から要素および時間情報がダウンロードされた時刻より後の、時間情報に示される、当該時刻の直近の時刻から要素の出力を開始する。
図14は、第1の実施形態に係る端末装置20の一例の構成を示す。図14に例示される端末装置20において、バス401に対してCPU402、ROM403、RAM404および表示制御部405が接続される。また、バス401に対して、ストレージ407、データI/F408、入力部409および通信I/F410が接続される。さらに、バス401に対して、撮像部420および音処理部421が接続される。なお、図14は、端末装置20において、第1の実施形態と関わりの深い部分を抽出して示し、第1の実施形態と直接的な関わりの薄い電話通信機能などの記載は省略されている。
ストレージ407は、データを不揮発に記憶することが可能な記憶媒体であって、例えばフラッシュメモリなどの不揮発性の半導体メモリである。これに限らず、ストレージ407としてハードディスクドライブを用いてもよい。CPU402は、ROM403およびストレージ407に記憶されるプログラムに従い、RAM404をワークメモリとして用いて、この端末装置20の全体を制御する。表示制御部405は、CPU402により生成された表示制御信号を、表示装置406が表示可能な信号に変換して出力する。
ストレージ407は、上述のCPU402が実行するためのプログラムや各種データが格納される。データI/F408は、外部からのデータの入力を行う。データI/F408としては、例えば、USB(Universal Serial Bus)やIEEE1394(Institute of Electrical and Electronics Engineers 1394)などによるインタフェースを適用することができる。
入力部409は、ユーザ入力を受け付けて所定の制御信号を出力する入力デバイスを含む。ユーザは、例えば表示装置406に対する表示に応じて入力デバイスを操作することで、端末装置20に対して指示を出すことができる。なお、ユーザ入力を受け付ける入力デバイスを、表示装置406と一体的に構成し、押圧した位置に応じた制御信号を出力すると共に、表示装置406の画像を透過するタッチパネルとして構成すると、好ましい。
通信I/F410は、所定のプロトコルを用いてネットワークと通信を行う。撮像部420は、光学系と、撮像素子と、光学系および撮像素子の制御駆動回路と、撮像素子から出力される信号に所定の処理を施して画像データとして出力する。
撮像部420は、入力部409に対するユーザ操作による指示に従い、撮像機能を実行する。撮像部420で撮像され得られた撮像画像は、例えばバス401を介して通信I/F410に送られ、CPU402の命令に従いネットワークを介してサーバ装置10に送信される。
音処理部421は、例えばデジタルデータによる音データをアナログ信号による音信号に変換する。音処理部421は、この音信号に対してさらに音質補正処理、増幅処理などを施して、音出力部422に供給する。音出力部422は、例えばスピーカであって、音処理部421から供給された音信号に応じて鳴動される。これに限らず、音処理部422は、MIDI(Musical Instrument Digital Interface)データなどの演奏制御データに従い音を出力するようにしてもよい。
上述した位置情報取得部201、送信部202、受信部203、タイマ204および出力部205は、CPU402上で動作する1以上のプログラムによって実現される。以下、これら複数のプログラムを、一括して「出力プログラム」と呼ぶ。出力プログラムは、ネットワークに接続されたコンピュータ上に格納し、図示されないネットワーク経由で端末装置20にダウンロードさせることにより提供するように構成することができる。また、出力プログラムを、ネットワーク経由で提供または配布するように構成してもよい。出力プログラムのうち一部または全部を、ROM403に予め記憶させて提供することも考えられる。
これに限らず、出力プログラムは、インストール可能な形式または実行可能な形式のファイルでCD(Compact Disk)、DVD(Digital Versatile Disk)などのコンピュータで読み取り可能な記録媒体に記録して提供してもよい。この場合、記録媒体に記録された出力プログラムは、例えばデータI/F408に接続された外部のドライブ装置を介して端末装置20に供給される。これに限らず、記録媒体に記録された出力プログラムを、パーソナルコンピュータなど他の情報処理装置上に一旦記憶させ、この他の情報処理装置から通信I/F410やデータI/F408を介した通信により、端末装置20に供給してもよい。
出力プログラムは、例えば、上述した各部(位置情報取得部201、送信部202、受信部203、タイマ204および出力部205)を含むモジュール構成となっており、実際のハードウェアとしてはCPU402が例えばストレージ407から出力プログラムを読み出して実行することにより上記各部が主記憶装置(例えばRAM404)上にロードされ、各部が主記憶装置上に生成されるようになっている。
図15は、第1の実施形態に係るサーバ装置10の一例の構成を示す。図15に示されるように、サーバ装置10は、ハードウェア構成として一般的なコンピュータの構成を適用することができる。すなわち、図15に例示されるサーバ装置10において、バス581に対してCPU502、ROM503、RAM504、表示制御部505、ストレージ507、データI/F508、入力部509および通信I/F510が接続される。
ストレージ507は、データを不揮発に記憶することが可能な記憶媒体であって、例えばハードディスクドライブである。これに限らず、ストレージ407としてフラッシュメモリなどの不揮発性の半導体メモリを用いてもよい。CPU502は、ROM503およびストレージ507に記憶されるプログラムに従い、RAM504をワークメモリとして用いて、このサーバ装置10の全体を制御する。表示制御部505は、CPU502により生成された表示制御信号を、表示装置506が表示可能な信号に変換して出力する。
ストレージ507は、上述のCPU502が実行するためのプログラムや各種データが格納される。データI/F508は、外部からのデータの入力を行うためのインターフェイスであって、例えば、USBやIEEE1394などによるインターフェイスを適用することができる。入力部509は、ユーザ入力を受け付けて所定の制御信号を出力する、キーボードやマウスなどの入力デバイスを含む。通信I/F510は、所定のプロトコルを用いてネットワークと通信を行う。
上述した受信部101、コンテンツ保持部102、マップ生成部103、要素取得部104および送信部105は、CPU402上で動作する1以上のプログラムによって実現される。なお、コンテンツ保持部102は、保持するコンテンツを例えばストレージ507に格納する。以下、これら1以上のプログラムを、一括して「サーバ側プログラム」と呼ぶ。サーバ側プログラムは、ネットワークを介してサーバ装置10に供給してもよいし、インストール可能な形式または実行可能な形式のファイルでCD、DVDなどのコンピュータで読み取り可能な記録媒体に記録して供給してもよい。
サーバ側プログラムは、例えば、上述した各部(受信部101、コンテンツ保持部102、マップ生成部103、要素取得部104および送信部105)を含むモジュール構成となっており、実際のハードウェアとしてはCPU502が例えばストレージ507から出力プログラムを読み出して実行することにより上記各部が主記憶装置(例えばRAM504)上にロードされ、各部が主記憶装置上に生成されるようになっている。
なお、上述では、コンテンツが画像であるものとして説明したが、これはこの例に限定されない。例えば、コンテンツは、音であってもよい。この場合、各位置情報で示される各位置で出力される各音をコンテンツの要素と考えることができる。各音は、例えば所定の位置情報に基づきグループ分けされた各グループで異なる音程の音としてもよいし、当該各グループで異なる音色としてもよい。さらに、各音は、当該グループ毎に出力時刻をずらしてもよい。さらにまた、これら異なる音程、異なる音色および異なる出力時刻を組み合わせてもよい。
サーバ装置10は、音を出力するためのデータを、音そのものをサンプリングしたオーディオデータの形式で各端末装置20、20、…にダウンロードさせることができる。これに限らず、サーバ装置10は、音を出力するためのデータを、MIDIデータといった演奏制御データとして各端末装置20、20、…にダウンロードさせてもよい。この場合、音処理部421は、演奏制御データに従い音信号を生成し、音出力部422に供給する。
また、上述では、コンテンツとして用いる画像が予めサーバ装置10側で用意されているものとして説明したが、これはこの例に限定されない。例えば、サーバ装置10は、ユーザから提供されたユーザ画像を、コンテンツを構成する要素として用いることができる。例えば、端末装置20のユーザの顔写真の画像を、コンテンツを構成する要素として用いることが考えられる。この場合、ユーザ画像による要素を出力するか否かを制御することで、各端末装置20、20、…による全体としてのコンテンツを出力することができる。また、サーバ装置10は、ユーザ画像の各画素によるRGB値の平均値などを求め、求められた値を当該ユーザ画像の色として、コンテンツの適切な位置の要素として用いることができる。
さらに、サーバ装置10は、出力が完了した各要素からコンテンツを再構成することができる。例えば、サーバ装置10は、指定されたタイミングで出力が完了した各要素を纏めて出力位置情報に従い再配置して、コンテンツを再構成する。サーバ装置10は、再構成されたコンテンツを、端末装置20からの要求に応じて要求元の端末装置20に送信する。これにより、当該端末装置20のユーザは、後にそのコンテンツを自宅などで再生して鑑賞することができる。この場合において、端末装置20がサーバ装置10に対して、再構成されたコンテンツの要求と共に出力位置情報を送信するようにできる。これにより、サーバ装置10は、当該端末装置20により出力された要素の位置を特定する情報を再構成されたコンテンツに付加して端末装置20に送信することができる。
さらにまた、各端末装置20、20、…からサーバ装置10に対してメッセージを送信し、送信したメッセージに応じたコンテンツを出力することができる。例えば、サーバ装置10は、各端末装置20、20、…からのメッセージを受信すると、受信したメッセージを表示するためのコンテンツを作成する。サーバ装置10は、作成したコンテンツに基づき、位置情報に従い各要素を生成する。そして、サーバ装置10は、各端末装置20、20、…から取得済みの各出力位置情報に基づき、生成した各要素を各端末装置20、20、…に送信する。この送信は、プッシュ通知を用いて行うと好ましい。これにより、ユーザからのメッセージを、各端末装置20、20、…により全体として表示させることができる。
(第2の実施形態)
次に、第2の実施形態について説明する。上述の第1の実施形態では、撮像画像から座席番号を抽出する方法として、OCRを用いた方法を適用していた。第2の実施形態においては、撮像画像から座席番号を抽出する手段として、画像に含まれるオブジェクトに関連付けられた連携情報を検索する画像検索システムを用いた例である。第2の実施形態に適用可能な画像検索システムは、例えば、オブジェクトと連携情報とが関連付けられて格納されるデータベースを含む。画像検索システムは、送信された撮像画像に含まれるオブジェクトを抽出し、抽出したオブジェクトに関連付けられる連携情報を検索して、検索された連携情報を撮像画像の送信元に送信する。
図16は、第2の実施形態に適用可能な、画像検索システムを含むサーバ装置10’の機能を示す一例の機能ブロック図である。なお、図16において、上述した図3と共通する部分には同一の符号を付して、詳細な説明を省略する。図16において、サーバ装置10’は、図3のサーバ装置10に対して、画像検索システムの機能を実現する画像検索部106が追加されている。なお、図16において、データベース107は、上述のオブジェクトと連携情報とが関係付けられて格納されるデータベースに対応する。この例では、画像検索部106およびデータベース107がサーバ装置10’内に設けられているが、これはこの例に限定されず、画像検索部106およびデータベース107がサーバ装置10’外に構成されていてもよい。
上述した図5および図11のフローチャートを参照しながら、第2の実施形態によるサーバ装置10’の一例の動作について説明する。フローチャートの実行に先立って、データベースには、座席番号を示す画像がオブジェクトとして予め登録されると共に、当該オブジェクトに、座席番号が連携情報として予め関連付けられる。
サーバ装置10’は、図5のステップS10〜ステップS13に従い、コンテンツの登録と、位置情報の取得と、コンテンツの位置情報毎の要素の生成と、各要素と各出力位置情報とを関連付けるマップ生成を実行する。
一方、ユーザは、端末装置20の撮像部により、座席71に設けられた、座席番号70が表示されるプレートや、入場チケット72に印刷される座席番号70を含む範囲を撮像する(図11のステップS20)。端末装置20は、撮像して得られた撮像画像を、要素のDL要求と共にサーバ装置10’に送信する(図11のステップS21)。
サーバ装置10’は、端末装置20から送信された要素のDL要求と撮像画像とを受信すると(図5のステップS14)、画像検索部106により、端末装置20から送信された撮像画像からオブジェクトを抽出してデータベース107を参照し、当該オブジェクトに関連付けられた座席番号を取得する。画像検索部106は、取得した座席番号を、撮像画像の送信元の端末装置20の出力位置情報として要素取得部104に渡す。
要素取得部104は、マップ生成部103により生成されたマップを、画像検索部106から渡された出力位置情報に基づき参照し、当該出力位置情報に対応する要素を取得して、送信部105に渡す。送信部105は、要素取得部104から渡された要素を、DL要求の送信元となる端末装置20に送信する(図5のステップS15)。サーバ装置10’のステップS15以降の処理は、図5のステップS15以降の処理と同一であるので、ここでの説明を省略する。
端末装置20は、サーバ装置10’の送信部105から送信された要素を受信する(図11のステップS22)。端末装置20における以降の処理は、図11のステップS22以降の処理と同一であるので、ここでの説明を省略する。
このように、第2の実施形態によれば、端末装置20内でOCR処理などを行うこと無しに、撮像画像をサーバ装置10’に送信するだけで、当該端末装置20に対応する要素を取得することができる。
なお、上述の実施形態は、本発明の好適な実施の例ではあるがこれに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変形による実施が可能である。
10,10’ サーバ装置
20 端末装置
31 対象領域
40 フレーム
4100〜4144 分割領域
50,51 画像
60 時間情報
70 座席番号
101,203 受信部
102 コンテンツ保持部
103 マップ生成部
104 要素取得部
105,202 送信部
106 画像検索部
201 位置情報取得部
204 タイマ
205 出力部
特開2012−108872号公報

Claims (10)

  1. 情報処理装置と、複数の端末装置とを含む集合出力システムであって、
    前記情報処理装置は、
    複数の要素を含むコンテンツを、該コンテンツの出力を制御するタイミングを示す時間情報と関連付けて保持するコンテンツ保持部と、
    前記コンテンツを出力する領域内の予め定められた各位置を示す各位置情報を該コンテンツの複数の前記要素それぞれに関連付けたマップを生成するマップ生成部と、
    前記位置情報に対応する、前記コンテンツを出力するための位置を示す出力位置情報を前記端末装置から受信する第1受信部と、
    前記出力位置情報に対応する前記位置情報に関連付けられた前記要素を前記マップに基づき取得し、該要素を含む前記コンテンツに関連付けられた前記時間情報を取得する要素取得部と、
    前記要素取得部に取得された前記要素と前記時間情報とを前記出力位置情報の送信元の前記端末装置に送信する第1送信部と
    を有し、
    前記端末装置は、
    前記領域内における前記出力位置情報を取得する位置情報取得部と、
    前記出力位置情報を前記情報処理装置に送信する第2送信部と、
    前記第2送信部から送信された前記出力位置情報に応じて前記情報処理装置から送信された、前記要素と前記時間情報とを受信する第2受信部と、
    前記要素を前記時間情報に示される前記タイミングで出力させる出力部と
    を有する
    ことを特徴とする集合出力システム。
  2. 前記コンテンツ保持部は、
    複数の前記要素を含む画像である前記コンテンツを保持し、
    前記出力部は、
    画像の表示を行う表示部に前記要素を出力させる
    ことを特徴とする請求項1に記載の集合出力システム。
  3. 前記コンテンツ保持部は、
    それぞれ色を出力するための複数の前記要素を含むコンテンツを保持する
    ことを特徴とする請求項2に記載の集合出力システム。
  4. 前記コンテンツ保持部は、
    複数の前記要素それぞれにより出力される前記色が前記時間情報に示される前記タイミング毎に変化する前記コンテンツを保持する
    ことを特徴とする請求項3に記載の集合出力システム。
  5. 前記コンテンツ保持部は、
    ユーザにより取得された画像を前記要素に含めた前記コンテンツを保持する
    ことを特徴とする請求項2乃至請求項4の何れか1項に記載の集合出力システム。
  6. 前記コンテンツ保持部は、
    それぞれ音を出力するための複数の前記要素を含む前記コンテンツを保持し、
    前記出力部は、
    音を出力する音出力部に前記要素を出力させる
    ことを特徴とする請求項1に記載の集合出力システム。
  7. 前記端末装置は、
    被写体を撮像して撮像画像を取得する撮像部をさらに有し、
    前記第2送信部は、
    出力位置情報が含まれる被写体を前記撮像部により撮像した撮像画像を前記情報処理装置に送信し、
    前記情報処理装置は、
    前記出力位置情報を含む画像と前記位置情報とが関連付けられて格納される格納部と、
    前記第1受信部で前記撮像画像を受信し、受信された該撮像画像に含まれる前記出力位置情報を含む画像に基づき、該出力位置情報を含む画像に関連付けられる前記位置情報を検索する検索部と
    をさらに有し、
    前記要素取得部は、
    前記検索部で検索された前記位置情報に関連付けられた前記要素を前記マップに基づき取得する
    ことを特徴とする請求項1乃至請求項6の何れか1項に記載の集合出力システム。
  8. 前記コンテンツ保持部は、
    指定された前記タイミングにおける、前記コンテンツが含む複数の前記要素を纏めて出力する
    ことを特徴とする請求項1乃至請求項7の何れか1項に記載の集合出力システム。
  9. コンテンツを出力するための位置を示す出力位置情報を取得する位置情報取得部と、
    前記出力位置情報を、複数の要素を含むコンテンツを該コンテンツの出力を制御するタイミングを示す時間情報と関連付けて保持し、該コンテンツを出力する領域内の各位置を示す各位置情報を該コンテンツの複数の該要素それぞれに関連付けたマップを生成する情報処理装置に送信する送信部と、
    前記送信部から送信された前記出力位置情報に応じて前記情報処理装置から送信された、前記要素と前記時間情報とを受信する受信部と、
    前記要素を前記時間情報に示される前記タイミングで出力させる出力部と
    を有する
    ことを特徴とする端末装置。
  10. コンテンツを出力するための位置を示す出力位置情報を取得する位置情報取得ステップと、
    前記出力位置情報を、複数の要素を含むコンテンツを該コンテンツの出力を制御するタイミングを示す時間情報と関連付けて保持し、該コンテンツを出力する領域内の各位置を示す各位置情報を該コンテンツの複数の該要素それぞれに関連付けたマップを生成する情報処理装置に送信する送信ステップと、
    前記送信ステップにより送信された前記出力位置情報に応じて前記情報処理装置から送信された、前記要素と前記時間情報とを受信する受信ステップと、
    前記要素を前記時間情報に示される前記タイミングで出力させる出力ステップと
    をコンピュータに実行させるための出力プログラム。
JP2013151153A 2013-07-19 2013-07-19 集合出力システム、端末装置および出力プログラム Active JP6241103B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013151153A JP6241103B2 (ja) 2013-07-19 2013-07-19 集合出力システム、端末装置および出力プログラム
US14/332,527 US9986066B2 (en) 2013-07-19 2014-07-16 Collective output system, collective output method and terminal device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013151153A JP6241103B2 (ja) 2013-07-19 2013-07-19 集合出力システム、端末装置および出力プログラム

Publications (2)

Publication Number Publication Date
JP2015022592A true JP2015022592A (ja) 2015-02-02
JP6241103B2 JP6241103B2 (ja) 2017-12-06

Family

ID=52344509

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013151153A Active JP6241103B2 (ja) 2013-07-19 2013-07-19 集合出力システム、端末装置および出力プログラム

Country Status (2)

Country Link
US (1) US9986066B2 (ja)
JP (1) JP6241103B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018105436A1 (ja) * 2016-12-09 2018-06-14 村上 知広 連携表示システム
JP2020520601A (ja) * 2017-05-12 2020-07-09 ファンライト シーオー., エルティーディー.Fanlight Co., Ltd. 複数のユーザ端末を制御するクラウド制御システム
JP2022050714A (ja) * 2015-06-18 2022-03-30 ファンライト シーオー., エルティーディー. 無線照明制御システム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6600975B2 (ja) * 2015-04-17 2019-11-06 富士通株式会社 コレオグラフィ作成支援方法、コレオグラフィ作成支援プログラムおよび情報処理装置
US11588697B2 (en) * 2021-01-21 2023-02-21 Dell Products L.P. Network time parameter configuration based on logical host group

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002143363A (ja) * 2000-11-09 2002-05-21 Nippon Telegr & Teleph Corp <Ntt> マスゲーム支援システム
JP2008011475A (ja) * 2006-06-30 2008-01-17 Sharp Corp 表示装置およびその音出力方法
JP2008096756A (ja) * 2006-10-12 2008-04-24 Sharp Corp 多画面表示システムおよびその表示方法
JP2012169739A (ja) * 2011-02-10 2012-09-06 Nippon Telegr & Teleph Corp <Ntt> 映像分割再生方法、映像再生方法、映像分割再生システム、及び映像分割再生プログラム
JP2012177769A (ja) * 2011-02-25 2012-09-13 Nec Casio Mobile Communications Ltd 連携表示システム、連携表示方法、および携帯端末

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6965785B2 (en) * 2001-07-17 2005-11-15 Wildseed Ltd. Cooperative wireless luminescent imagery
US8606949B2 (en) * 2005-04-20 2013-12-10 Jupiter Systems Interconnection mechanism for multiple data streams
CA2706695C (en) * 2006-12-04 2019-04-30 Lynx System Developers, Inc. Autonomous systems and methods for still and moving picture production
US20080267504A1 (en) * 2007-04-24 2008-10-30 Nokia Corporation Method, device and computer program product for integrating code-based and optical character recognition technologies into a mobile visual search
JP6035712B2 (ja) 2010-10-26 2016-11-30 株式会社リコー 画面共有サービス提供システム、情報処理装置、画面共有サービス提供方法、画面共有サービス提供プログラム、及びプログラム
US9240006B2 (en) * 2011-11-30 2016-01-19 At&T Intellectual Property I, L.P. Wireless transactions for enhancing customer experience
US9075801B2 (en) * 2013-01-18 2015-07-07 Nokia Technologies Oy Method and apparatus for sharing content via encoded data representations

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002143363A (ja) * 2000-11-09 2002-05-21 Nippon Telegr & Teleph Corp <Ntt> マスゲーム支援システム
JP2008011475A (ja) * 2006-06-30 2008-01-17 Sharp Corp 表示装置およびその音出力方法
JP2008096756A (ja) * 2006-10-12 2008-04-24 Sharp Corp 多画面表示システムおよびその表示方法
JP2012169739A (ja) * 2011-02-10 2012-09-06 Nippon Telegr & Teleph Corp <Ntt> 映像分割再生方法、映像再生方法、映像分割再生システム、及び映像分割再生プログラム
JP2012177769A (ja) * 2011-02-25 2012-09-13 Nec Casio Mobile Communications Ltd 連携表示システム、連携表示方法、および携帯端末

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022050714A (ja) * 2015-06-18 2022-03-30 ファンライト シーオー., エルティーディー. 無線照明制御システム
WO2018105436A1 (ja) * 2016-12-09 2018-06-14 村上 知広 連携表示システム
JP2020520601A (ja) * 2017-05-12 2020-07-09 ファンライト シーオー., エルティーディー.Fanlight Co., Ltd. 複数のユーザ端末を制御するクラウド制御システム
JP7018074B2 (ja) 2017-05-12 2022-02-09 ファンライト シーオー., エルティーディー. 複数のユーザ端末を制御するクラウド制御システム
US11297253B2 (en) 2017-05-12 2022-04-05 Fanlight Co., Ltd. Control system for controlling plurality of user terminals
US11647297B2 (en) 2017-05-12 2023-05-09 Fanlight Co., Ltd. Control system for controlling plurality of user terminals based on seat information of ticket of event venue

Also Published As

Publication number Publication date
US20150026295A1 (en) 2015-01-22
JP6241103B2 (ja) 2017-12-06
US9986066B2 (en) 2018-05-29

Similar Documents

Publication Publication Date Title
JP6241103B2 (ja) 集合出力システム、端末装置および出力プログラム
JP6089828B2 (ja) 情報処理システムおよび情報処理方法
US9979766B2 (en) System and method for reproducing source information
CN109769132B (zh) 一种基于帧同步的多路远程直播视频解说方法
KR20190129752A (ko) 전자 서명을 생성하기 위한 방법 및 전자 디바이스
JP2023153790A (ja) プログラム
CN108629726A (zh) 信息处理装置、图像显示方法、显示系统以及记录介质
WO2018105436A1 (ja) 連携表示システム
JP2017059121A (ja) 画像管理装置、画像管理方法及びプログラム
JP2020057329A (ja) ガイドシステム
JP7167629B2 (ja) ガイドシステム
CN112188269B (zh) 视频播放方法和装置以及视频生成方法和装置
KR20200118876A (ko) 콘텐츠 재생 프로그램, 콘텐츠 재생 방법 및 콘텐츠 재생 시스템
JP2021500765A (ja) ユーザ端末をグループとして連結し、グループと関連するコンテンツを含むサービスを提供する、方法および装置
JP6007098B2 (ja) 歌唱動画生成システム
WO2020008930A1 (ja) 照明システム、通信インターフェース装置、照明装置、及び、照明制御方法
JP7132643B2 (ja) 撮影装置、画像の生産方法、およびプログラム
JP2008090526A (ja) 会議情報保存装置、システム、会議情報表示装置及びプログラム
JP6977847B2 (ja) 画像管理装置、画像管理方法及びプログラム
US20230280961A1 (en) Device management system, information processing system, information processing device, device management method, and non-transitory recording medium
JPWO2014109062A1 (ja) コンテンツ伝送システム、コンテンツ伝送装置及びコンテンツ伝送方法
KR102599521B1 (ko) 공연 영상 컨텐츠의 생성 방법 및 이를 수행하기 위한 서버
US20220284664A1 (en) Image Display System, Display Control Method, and Light Emission Control Method
US20240078989A1 (en) Information processing method, information processing apparatus, storage medium for storing program, and information processing system
US20210158595A1 (en) Information processing apparatus, information processing method, and information processing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160707

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171010

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171023

R151 Written notification of patent or utility model registration

Ref document number: 6241103

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151