JP2004287004A - Display system - Google Patents

Display system Download PDF

Info

Publication number
JP2004287004A
JP2004287004A JP2003077890A JP2003077890A JP2004287004A JP 2004287004 A JP2004287004 A JP 2004287004A JP 2003077890 A JP2003077890 A JP 2003077890A JP 2003077890 A JP2003077890 A JP 2003077890A JP 2004287004 A JP2004287004 A JP 2004287004A
Authority
JP
Japan
Prior art keywords
person
unit
display
effect
photographing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003077890A
Other languages
Japanese (ja)
Inventor
Kazuhisa Watanabe
和久 渡邊
Naoaki Yamamoto
尚明 山本
Takumi Ikeda
巧 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2003077890A priority Critical patent/JP2004287004A/en
Publication of JP2004287004A publication Critical patent/JP2004287004A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a display system having more enhanced entertainment properties. <P>SOLUTION: The display system is provided with a photographing means 1 for photographing a prescribed space area and persons entering the space area, an effect compositing means 2 for compositing effects with video images photographed by the photographing means 1, and a display means 3 for displaying video images having effects composited by the effect compositing means 2, and the display system has the photographing means 1 and the display means 3 installed in a space which unspecified persons visit, so that the display system can be utilized by unspecified persons. Thus the display system having the more enhanced entertainment properties is realized. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、不特定人が訪れる空間に設置されるディスプレイシステムに関する。
【0002】
【従来の技術】
大規模な展示場、競技場に設置される大型映像スクリーンや、建築物の壁面に設置されるビルボードが既知である(例えば、下記特許文献1を参照)。
【0003】
【特許文献1】特開2001−215424号公報
【0004】
【発明が解決しようとする課題】
主要幹線駅の周辺等、多くの人が佇むいわゆる待ち合わせ場所には、広告目的のディスプレイやビルボードが設置されている。ディスプレイ、ビルボード自体が待ち合わせの目印となっていることも多い。
【0005】
しかしながら、上記の如きディスプレイやビルボードでは純然たるCMや出来合いのコンテンツが放映されることが専らであり、それを見ている人との間に直接的な関わり合いは存在しない。従って、待ち合わせ時の暇つぶしにはなるもののそれ以上の楽しみを提供できるものではなく、待ち合わせをしている人にとって必ずしも親しみが持てるものとなってはいない。
【0006】
以上の問題に鑑みて、本発明は、よりエンタテインメント性を高めたディスプレイシステムを提供しようとするものである。
【0007】
【課題を解決するための手段】
上述した課題を解決すべく、本発明では、図1に示すように、所定の空間領域及び該空間領域に進入した人を撮影する撮影手段1と、前記撮影手段1が撮影した映像にエフェクトを合成するエフェクト合成手段2と、前記エフェクト合成手段2によりエフェクトを合成した映像を表示する表示手段3とを具備して、前記撮影手段1並びに前記表示手段3を不特定人が訪れる空間に設置して不特定人の利用に供することができるディスプレイシステムを構成した。このようなものであれば、その場に存在する人が主体的に撮影、表示対象となり得るため、該ディスプレイシステムを用いて遊び、大いに楽しむことができる。勿論、該ディスプレイシステムにおける表示手段3の表示領域の一部に広告を表示してもよく、このときには従前と比較してより高い広告効果を期待できる。
【0008】
前記表示手段3は、前記撮影手段1が撮影した人を略等身大に表示し得る寸法を有するものであることが好ましい。
【0009】
図2に示すように、前記空間領域に進入した人が該空間領域の内に存在している時間若しくはその累積を計測する計測手段4をさらに具備し、前記エフェクト合成手段2が、前記計測手段4により計測される、前記人が前記空間領域の内に存在している時間若しくはその累積に応じたエフェクトを合成するものであれば、例えば待ち合わせをしている人が待っている時間の長さを示すようなエフェクトを合成するようなことが可能となる。
【0010】
図3に示すように、前記撮影手段1が撮影した映像を記憶する記憶手段5をさらに具備し、前記記憶手段5が記憶している映像を前記表示手段3が表示し得るように構成すれば、ミュージシャンや芸人、その他の人が行うライブやパフォーマンスをコンテンツとして記憶させて、事後的に再生できるものとなる。即ち、決して出来合いではないオリジナルのコンテンツを放映することが可能となり、アマチュアミュージシャンや芸人等に発表の機会を提供することにもつながる。
【0011】
前記撮影手段1を介して光学的に入力される、前記映像を前記記憶手段5に記憶させる録画または前記記憶手段5が記憶している映像を前記表示手段3に表示させる再生を制御する制御命令を解釈する命令解釈手段6をさらに具備するものであれば、録画命令や再生命令を入力するための操作入力デバイスを別途設ける必要がない。
【0012】
【発明の実施の形態】
以下、本発明の実施の形態を、図面を参照して説明する。本実施形態におけるディスプレイシステムは、所定の空間領域R及び該空間領域Rに進入した人Pを撮影する撮影手段1と、前記撮影手段1が撮影した映像にエフェクトを合成するエフェクト合成手段2と、前記エフェクト合成手段2によりエフェクトを合成した映像を表示する表示手段3とを主要な構成要素とする。そして、該ディスプレイシステムの撮影手段1並びに表示手段3は不特定人Pが訪れる空間に設置して、不特定人Pの利用に供する。
【0013】
撮影手段1は、例えば、既知のビデオカメラを利用して構成できる。撮影手段1は、表示手段3の画面に臨む空間領域R及び該空間領域R内に存在する人Pを撮影する。撮影手段1は、図4に例示するように表示手段3の画面に対向するように設置してもよく、あるいは、図5に例示するように表示手段3の画面の方向と略同一方向を向くように(特に、表示手段3の画面に埋め込むような態様で)設置してもよい。撮影手段1は、パンやティルトを行わない定点観測型のものとすることが簡便であるが、パンやティルトを行い得るものであっても構わない。また、撮影手段1は、単数でもよく、複数でもよい。
【0014】
他方、表示手段3は、例えば、LED表示機、液晶ディスプレイ、プラズマディスプレイ等や、スクリーンと該スクリーンに映像を投影するプロジェクタとの組み合わせ、その他である。表示手段3は、図7、図8に示すように、撮影手段1が撮影した人Pを略等身大に表示し得る寸法を有するものであることが好ましい。図示例のものは、該表示手段3を設置している地面若しくは床面の近傍から人Pの身長を超える高さ位置までの画面表示領域を有している。
【0015】
しかして、エフェクト合成手段2は、撮影手段1が出力する映像データまたは映像信号を取得し、必要に応じてその映像にエフェクトを合成し、表示手段3に表示させるべき映像データまたは映像信号を出力する役割を担う。エフェクト合成手段2は、例えば、図6に示すように、プロセッサ2a、メインメモリ2b、ハードディスクドライブその他の補助記憶デバイス2c、表示制御デバイス2d、入力インタフェース2e、等のハードウェア資源を具備する。表示制御装置2dは、プロセッサ2aより受けた描画指示をもとに表示させるべき画像を構成し、映像データまたは映像信号を生成して表示手段3に向けて送出する機能を有するビデオチップ(あるいは、グラフィクスチップ)、画像データ等を一時的に格納しておく役割を担うビデオメモリ(Video RAM)等のデバイスを用いてなり、入力インタフェース2eは、撮影手段1が撮影した映像の映像データを受信するデータ通信インタフェースまたは映像信号をディジタルデータに変換するビデオキャプチャ(デジタイザ)等のデバイスを用いてなる。通常、プロセッサ2aによって実行されるべきプログラムが補助記憶デバイス2cに格納されており、プログラムの実行の際には補助記憶デバイス2cからメインメモリ2bに読み込まれ、プロセッサ2aによって解読される。そして、該プログラムに従い上記のハードウェア資源を作動して、少なくともエフェクト合成手段2としての機能を発揮するようにしている。
【0016】
エフェクト合成手段2は、撮影手段1よりもたらされる映像を解析することで該撮影手段1が撮影した人Pの動態を解析する。エフェクト合成手段2が種々のエフェクトを合成する処理を開始あるいは終了するための条件が予め設定されており、解析の結果得られた人Pの動態が該条件に合致した場合、合致した条件に即したエフェクトを合成する処理を開始あるいは終了する。
【0017】
エフェクト合成手段2が合成するエフェクトは、撮影された人Pを対象としたもの、撮影された人Pの映像を利用したもの、または、撮影された人Pと関わり合いを有する態様のものであることが好ましい。以降、エフェクトの具体例を列挙する。図7(a)に示すものは、撮影対象(即ち、表示対象)となっている人Pが空間領域R内に存在している時間若しくはその累積に応じたエフェクトを合成している例である。つまり、待ち合わせをしている人Pが所定の時間より長く待たされているようなときに、その事実を明示するメッセージM1や暗示(いわば、当人の気持ちを代弁)するマークM2等を映像中に表示する。この場合のディスプレイシステムは、空間領域Rに進入した人Pが該空間領域Rの内に存在している時間若しくはその累積を計測する計測手段4をも具備する。計測手段4は、例えば、RFID(Radio Frequency IDentification;識別情報を記録する記録媒体に対し、電磁波を用いて情報の記録または読出を行う認識方法)技術を利用して構成できる。即ち、計測手段4は、人Pが所持し、当該人Pを識別する識別子を記憶しているRFIDタグTと、空間領域R内に存在している人Pが所持するRFIDタグTより送信される識別子を受信するRFIDリーダAと、RFIDリーダAを介して識別子を取得することで空間領域Rの内に存在している人Pを感知し、当該人Pが存在している時間若しくはその累積をカウントするカウンタとを構成要素とする。カウンタは、エフェクト合成手段として機能するハードウェア2とは別個のものとしてもよいが、エフェクト合成手段として機能するハードウェア2がプログラムによりカウンタとしての機能をも発揮するものとすることが好ましい。このときには、RFIDリーダAと、エフェクト合成手段として機能するハードウェア2とを電気通信回線を介して通信可能に接続する。エフェクト合成手段2は、計測手段4のカウンタにより計測された、撮影対象となった人Pが空間領域Rの内に存在している時間若しくはその累積を参照して、これに応じたメッセージM1、マークM2等の画像を元の映像に合成する処理を実行、その結果得られる映像の映像データまたは映像信号を表示手段3に向けて送出する。因みに、上記の如きRFIDシステムを付帯させてあれば、撮影対象となる人Pを識別した上で、映像に合成すべきエフェクトの態様を決定することが可能である。勿論、RFIDシステムは、空間領域R内に人Pが存在しているか否かを感知する感知手段として機能する。よって、該感知手段が人Pの存在を感知しているときにはエフェクト合成手段2がエフェクト処理を実行する一方、人Pの存在を感知していないときはエフェクト処理を実行しないものとすることも可能である。
【0018】
エフェクト合成手段2が実行する処理の手順を図11ないし図13に示すフローチャートを参照して述べると、エフェクト合成手段2は、撮影手段1が撮影する空間領域R内に人が存在しているか否かを感知して(ステップS1)、人が存在している場合にはエフェクト合成処理を行い(ステップS2)、エフェクトを合成した映像を表示手段3に表示させる(ステップS3)。一方で、人が存在していない場合にはエフェクト合成処理を行わない。エフェクト合成処理を行わないときには、撮影手段1が撮影した映像をそのまま表示手段3に表示させる(ステップS4)ことができる。図7(a)に例示するようなエフェクトを合成する処理(ステップS2)を行うにあたり、撮影対象となった人Pが空間領域Rの内に存在している時間若しくはその累積を参照し(ステップS21)、これに応じたメッセージM1、マークM2等の画像を元の映像に合成する処理を実行する(ステップS22)。
【0019】
図7(b)、図7(c)に示すものは、撮影した人Pの映像に直接的なエフェクトを合成、言い換えるならば撮影した人Pの映像を利用した映像を生成する例である。図7(b)に示す例では、表示手段3の画面の前(の空間領域R内)にいる人Pがジャンプすると、画面に映し出されている当該人Sは落下することなく空中で停止、またはどこまでも飛び上がっていってしまう。図7(c)に示す例では、表示手段3の画面の前にいる人Pが移動すると、画面に映し出されている当該人Sの足下に擬音M3が合成される。さらには、表示手段3の画面の前にいる人Pが所定速度よりも速く移動すると、言い換えるならば走ると、画面に映し出されている当該人Sが現実世界の人Pよりも速く走り抜けていってしまう。これらの如きエフェクトを合成する処理(ステップS2)を行うにあたり、エフェクト合成手段2は、背景差分、フレーム間差分その他の方法によりエフェクトの対象となる人Pの像Sを元の映像より抽出する処理を実行する(ステップS23)。その上で、抽出した人Pの像Sの移動の向きやスピード等を判断して合成すべきエフェクトを選択したり(ステップS24)、抽出した人Pの像Sを利用したエフェクト合成処理を実行したり(ステップS25)する。人Pがジャンプする例では、撮影対象の人Pの像Sと背景の映像とを互いに分離し、空中に停止またはどこまでも飛び上がっていってしまうように人Pの像Sを変位させながら背景の映像に重ね合わせる処理を実行する。また、人Pを追い抜く人が現れる例では、撮影対象の人Pの像Sと背景の映像とを互いに分離し、人Pの像Sにおける時間軸を背景の映像におけるそれよりも高速化して背景の映像に重ね合わせる(ちょうど早送り再生している人Pの像Sを背景の映像に重ね合わせるような)処理を実行する。但し、単に映像のあるフレームを取り出し、当該フレームを静止画として表示手段3に表示させることで図7(b)の如きエフェクトを実現してもよく、映像をメインメモリ2bにキャッシュしてしかる後これを早送り再生することで図7(c)の如きエフェクトを実現してもよい。そして、その結果得られる映像の映像データまたは映像信号を表示手段3に向けて送出する。
【0020】
加えて、本実施形態におけるディスプレイシステムは、前記撮影手段1が撮影した映像を記憶する記憶手段5をさらに具備して、前記記憶手段5が記憶している映像を前記表示手段3が表示し得る。記憶手段5は、例えば、エフェクト合成手段として機能するハードウェア2に実装されたメインメモリ2b若しくは補助記憶デバイス2cの所要の記憶領域を利用してなる。因みに、記憶手段5が記憶している映像コンテンツを示す画像Nや記憶手段5が記憶している映像コンテンツのインデックス等を表示手段3の画面に表示して、映像コンテンツの存在を人々に告知するようにしてもよい。
【0021】
さらに、撮影手段1が撮影した映像を記憶手段5に記憶させる旨を指示する録画命令、または、記憶手段5が記憶している映像を表示手段3に表示させる旨を指示する再生命令や、早送り再生、再生一時停止、再生すべきコンテンツの選択その他の制御命令を、撮影手段1を介して光学的に入力できるように構成することが好ましい。この場合のディスプレイシステムは、撮影手段1を介して光学的に入力される制御命令を解釈する命令解釈手段6をも具備する。より具体的には、エフェクト合成手段として機能するハードウェア2がプログラムにより命令解釈手段6としての機能をも発揮するものとしている。録画命令、再生命令は、例えば、図10(a)、図10(b)に示すように、録画命令(図10(a))、再生命令(図10(b))を意味する文字、図形等を記載したオブジェクトOや、あるいは録画命令、再生命令を意味する形状をなすオブジェクトOを使用して入力する。
【0022】
即ち、上記の如きオブジェクトOを撮影手段1に向けて提示すると、これを撮影した映像が命令解釈手段6にもたらされる。命令解釈手段6が実行する処理の手順を図14に示すフローチャートを参照して述べると、命令解釈手段6は、撮影された映像を取得し(ステップS5)、録画命令、再生命令を意味する文字、図形、形状等を画像解析により抽出することで、入力された命令を解釈する。典型的には、録画命令、再生命令等の制御命令を意味する文字、図形、形状等の幾何学的特徴に着目したテンプレートマッチングを行い(ステップS6)、入力された命令を解釈する。そして、解釈した命令に従いハードウェア2を制御して(ステップS7)、撮影手段1よりもたらされる映像を記憶手段5に記憶したり、記憶手段5に記憶されている映像コンテンツを読み出して表示手段3に表示したりする。但し、人Pの特定のジェスチャーを以て制御命令とし、命令解釈手段6がこれらを解析して録画あるいは再生を実施するものとしてもよい。
【0023】
本実施形態によれば、所定の空間領域R及び該空間領域Rに進入した人Pを撮影する撮影手段1と、前記撮影手段1が撮影した映像にエフェクトを合成するエフェクト合成手段2と、前記エフェクト合成手段2によりエフェクトを合成した映像を表示する表示手段3とを具備して、前記撮影手段1並びに前記表示手段3を不特定人Pが訪れる空間に設置して不特定人Pの利用に供することができるディスプレイシステムを構成したため、その場に存在する人Pが主体的に撮影、表示対象となり得ることとなる。従って、その場に存在する人Pが該ディスプレイシステムを用いて遊び、大いに楽しむことができるものとなる。勿論、該ディスプレイシステムにおける表示手段3の表示領域の一部に広告を表示してもよく、このときには従前と比較してより高い広告効果を期待できる。
【0024】
前記表示手段3は、前記撮影手段1が撮影した人Pを略等身大に表示し得る寸法を有するものであるため、ちょうど自分自身を映し出す鏡のようでありながら、映し出された自身の像にエフェクトが合成されるものとなって、全ての人の興味を引くことができる優れたエンタテインメント性を発揮する。
【0025】
前記空間領域Rに進入した人Pが該空間領域Rの内に存在している時間若しくはその累積を計測する計測手段4をさらに具備し、前記エフェクト合成手段2が、前記計測手段4により計測される、前記人Pが前記空間領域Rの内に存在している時間若しくはその累積に応じたエフェクトを合成するものであるため、例えば待ち合わせをしている人Pが待っている時間の長さを示すようなエフェクトを合成するようなことが可能となっている。
【0026】
前記撮影手段1が撮影した映像を記憶する記憶手段5をさらに具備し、前記記憶手段5が記憶している映像を前記表示手段3が表示し得るように構成したため、ミュージシャンや芸人、その他の人が行うライブやパフォーマンスをコンテンツとして記憶させて、事後的に再生できるものとなる。即ち、決して出来合いではないオリジナルのコンテンツを放映することが可能となり、アマチュアミュージシャンや芸人等に発表の機会を提供することにもつながる。
【0027】
前記撮影手段1を介して光学的に入力される、前記映像を前記記憶手段5に記憶させる旨を指示する録画命令、前記記憶手段5が記憶している映像を前記表示手段3に表示させる旨を指示する再生命令等の制御命令を解釈する命令解釈手段6をさらに具備するため、録画命令や再生命令を入力するための操作入力デバイスを別途設ける必要がない。
【0028】
なお、本発明は以上に詳述した実施形態に限られるものではない。特に、ディスプレイシステムを、前記空間領域Rにおける音声を録音する録音手段並びに前記録音手段が録音した音声を出力する音声出力手段をも具備するものとしてもよい。この場合、エフェクト合成手段2が、映像のみならず音声にもエフェクトを合成することを妨げない。さらには、記憶手段5が、映像のみならず音声をも記憶することを妨げない。
【0029】
エフェクト合成手段2が、記憶手段5に記憶させるべき映像にエフェクトを合成することを妨げない。また、コンテンツの再生の際に、記憶手段5に記憶されている映像にエフェクトを合成した上で表示手段3に表示させることを妨げない。
【0030】
本発明に係るエフェクト合成手段2は、パーソナルコンピュータその他の汎用的なコンピュータにプログラムをインストールして構成することが可能であって、専用のハードウェアを製造することが必須であるわけではない。
【0031】
その他各部の具体的構成や図11ないし図14に示す処理の手順等は上記実施形態に限られるものではなく、本発明の趣旨を逸脱しない範囲で種々変形が可能である。
【0032】
【発明の効果】
以上に詳述した本発明によれば、よりエンタテインメント性を高めたディスプレイシステムを実現可能となる。
【図面の簡単な説明】
【図1】本発明に係るディスプレイシステムの機能ブロック図
【図2】本発明に係るディスプレイシステムの機能ブロック図
【図3】本発明に係るディスプレイシステムの機能ブロック図
【図4】撮影手段及び表示手段の設置の態様を模式的に示す上面図
【図5】撮影手段及び表示手段の設置の態様を模式的に示す上面図
【図6】ディスプレイシステムが具備するハードウェアリソースを示す図
【図7】エフェクト合成手段によるエフェクトを例示する図
【図8】RFIDタグ、RFIDリーダを例示する図
【図9】記憶手段が記憶している映像コンテンツを示す画像を表示手段の画面に表示した状態を例示する図
【図10】撮影手段を介して入力される制御命令を例示する図
【図11】エフェクト合成手段が実行する処理の手順を示すフローチャート
【図12】同フローチャート
【図13】同フローチャート
【図14】命令解釈手段が実行する処理の手順を示すフローチャート
【符号の説明】
1…撮影手段
2…エフェクト合成手段
3…表示手段
R…所定の空間領域
P…不特定人
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a display system installed in a space visited by an unspecified person.
[0002]
[Prior art]
2. Description of the Related Art There are known large-sized video screens installed in large-scale exhibition halls and stadiums, and billboards installed on the walls of buildings (for example, see Patent Document 1 below).
[0003]
[Patent Document 1] Japanese Patent Application Laid-Open No. 2001-215424
[Problems to be solved by the invention]
Advertisement displays and billboards are installed in so-called meeting places where many people stand, such as around major arterial stations. In many cases, the display and billboard itself are the sign of the meeting.
[0005]
However, pure CM and ready-made content are exclusively broadcast on the display and billboard as described above, and there is no direct relationship with the person watching it. Therefore, although it can kill time at the time of meeting, it cannot provide more fun, and it is not always friendly to the person who is meeting.
[0006]
In view of the above problems, an object of the present invention is to provide a display system with further improved entertainment.
[0007]
[Means for Solving the Problems]
In order to solve the above-mentioned problem, according to the present invention, as shown in FIG. 1, a photographing means 1 for photographing a predetermined space area and a person who has entered the space area, and applying an effect to an image photographed by the photographing means 1. An effect synthesizing means 2 for synthesizing, and a display means 3 for displaying an image obtained by synthesizing the effect by the effect synthesizing means 2 are provided. The photographing means 1 and the display means 3 are installed in a space where an unspecified person visits. Thus, a display system that can be used by an unspecified person was constructed. In such a case, since a person present at the place can be the subject of shooting and display independently, it is possible to play and greatly enjoy using the display system. Of course, an advertisement may be displayed in a part of the display area of the display means 3 in the display system. At this time, a higher advertisement effect can be expected as compared with the related art.
[0008]
It is preferable that the display unit 3 has a size capable of displaying a person photographed by the photographing unit 1 in a substantially life-size manner.
[0009]
As shown in FIG. 2, the apparatus further includes a measuring unit 4 for measuring a time during which a person who has entered the space area has been present in the space area or an accumulation thereof, and wherein the effect synthesizing means 2 includes the measuring means. 4, if the person is present in the spatial area or if it is to synthesize an effect corresponding to the accumulation thereof, for example, the length of time the person waiting is waiting Can be synthesized.
[0010]
As shown in FIG. 3, if it is further provided with a storage unit 5 for storing an image captured by the imaging unit 1, the display unit 3 can display the image stored in the storage unit 5. Live and performances performed by musicians, entertainers, and other people are stored as content, and can be reproduced later. In other words, it is possible to broadcast original content that is never completed, and this also provides amateur musicians, entertainers, and the like with the opportunity to make presentations.
[0011]
A control command optically input via the photographing means 1 for controlling recording for storing the video in the storage means 5 or reproduction for displaying the video stored in the storage means 5 on the display means 3 As long as it further includes the command interpreting means 6 for interpreting the command, there is no need to separately provide an operation input device for inputting a recording command or a playback command.
[0012]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings. The display system according to the present embodiment includes: a photographing unit 1 for photographing a predetermined spatial region R and a person P who has entered the spatial region R; an effect combining unit 2 for combining an effect with a video captured by the photographing unit 1; A display unit 3 for displaying an image obtained by combining the effects by the effect combining unit 2 is a main component. Then, the photographing means 1 and the display means 3 of the display system are installed in a space where the unspecified person P visits, and are used by the unspecified person P.
[0013]
The photographing unit 1 can be configured using, for example, a known video camera. The photographing means 1 photographs a spatial area R facing the screen of the display means 3 and a person P present in the spatial area R. The photographing unit 1 may be installed so as to face the screen of the display unit 3 as illustrated in FIG. 4, or may be oriented substantially in the same direction as the screen of the display unit 3 as illustrated in FIG. 5. (Particularly in such a manner as to be embedded in the screen of the display means 3). It is simple to use a fixed point observation type that does not perform panning or tilting, but the imaging unit 1 may be one that can perform panning or tilting. Further, the number of photographing means 1 may be one or plural.
[0014]
On the other hand, the display means 3 is, for example, an LED display, a liquid crystal display, a plasma display, or the like, a combination of a screen and a projector that projects an image on the screen, or the like. As shown in FIGS. 7 and 8, it is preferable that the display means 3 has a size capable of displaying the person P photographed by the photographing means 1 in substantially the same size. The illustrated example has a screen display area from the vicinity of the ground or floor where the display means 3 is installed to a height position exceeding the height of the person P.
[0015]
Thus, the effect synthesizing means 2 acquires the video data or the video signal output from the photographing means 1, synthesizes the effect with the video as required, and outputs the video data or the video signal to be displayed on the display means 3. Take the role of. The effect synthesizing means 2 includes, for example, hardware resources such as a processor 2a, a main memory 2b, a hard disk drive and other auxiliary storage devices 2c, a display control device 2d, and an input interface 2e, as shown in FIG. The display control device 2d configures an image to be displayed based on the drawing instruction received from the processor 2a, generates a video data or a video signal, and has a function of transmitting the generated video signal or video signal to the display unit 3 (or A device such as a video chip (Video RAM) that temporarily stores image data and the like is used. The input interface 2e receives video data of a video image captured by the image capturing unit 1. It uses a data communication interface or a device such as a video capture (digitizer) for converting a video signal into digital data. Usually, a program to be executed by the processor 2a is stored in the auxiliary storage device 2c. When the program is executed, the program is read from the auxiliary storage device 2c into the main memory 2b and decoded by the processor 2a. Then, the above-mentioned hardware resources are operated according to the program, so that at least the function as the effect synthesizing means 2 is exhibited.
[0016]
The effect synthesizing unit 2 analyzes the dynamics of the person P photographed by the photographing unit 1 by analyzing the image provided by the photographing unit 1. Conditions for the effect synthesizing means 2 to start or end the processing for synthesizing various effects are set in advance, and when the dynamics of the person P obtained as a result of the analysis matches the conditions, the conditions are immediately set to the matched conditions. The processing for synthesizing the effect obtained is started or ended.
[0017]
The effect synthesized by the effect synthesizing means 2 is an effect for the photographed person P, an effect using the image of the photographed person P, or an aspect having an association with the photographed person P. Is preferred. Hereinafter, specific examples of the effects are listed. FIG. 7A shows an example in which an effect corresponding to the time during which the person P to be photographed (that is, the display object) exists in the spatial region R or the accumulation thereof is synthesized. . That is, when the waiting person P is waiting longer than a predetermined time, a message M1 indicating the fact or a mark M2 indicating the suggestion (in other words, the feeling of the person) is displayed in the video. To be displayed. The display system in this case also includes a measuring means 4 for measuring the time during which the person P who has entered the space area R is present in the space area R or the accumulation thereof. The measurement unit 4 can be configured using, for example, an RFID (Radio Frequency Identification) recognition technology for recording or reading information on a recording medium that records identification information using electromagnetic waves. That is, the measuring unit 4 transmits the RFID tag T which is possessed by the person P and stores the identifier for identifying the person P, and the RFID tag T which is possessed by the person P present in the space area R. An RFID reader A that receives an identifier and a person P present in the spatial region R by acquiring the identifier via the RFID reader A, and detects the time during which the person P exists or the accumulated time. And a counter for counting. The counter may be separate from the hardware 2 functioning as the effect synthesizing means, but it is preferable that the hardware 2 functioning as the effect synthesizing means also exerts the function as the counter by a program. At this time, the RFID reader A and the hardware 2 functioning as effect synthesizing means are communicably connected via an electric communication line. The effect synthesizing unit 2 refers to the time during which the person P to be photographed is present in the spatial region R or the accumulation thereof, and measures the message M1, A process for synthesizing an image such as the mark M2 with the original video is executed, and video data or a video signal of the video obtained as a result is transmitted to the display unit 3. Incidentally, if the above-mentioned RFID system is attached, it is possible to identify the person P to be photographed and determine the mode of the effect to be combined with the video. Of course, the RFID system functions as sensing means for sensing whether or not the person P exists in the spatial region R. Therefore, when the sensing means senses the presence of the person P, the effect synthesizing means 2 may execute the effect processing, while when the sensing means does not sense the presence of the person P, the effect processing may not be executed. It is.
[0018]
The procedure of the processing executed by the effect synthesizing unit 2 will be described with reference to flowcharts shown in FIGS. 11 to 13. The effect synthesizing unit 2 determines whether or not a person exists in the spatial region R imaged by the imaging unit 1. This is sensed (step S1), and if there is a person, effect combining processing is performed (step S2), and a video combined with the effect is displayed on the display means 3 (step S3). On the other hand, if no person exists, the effect combining process is not performed. When the effect synthesizing process is not performed, the image photographed by the photographing means 1 can be directly displayed on the display means 3 (step S4). In performing the process of synthesizing the effect as illustrated in FIG. 7A (step S2), the time during which the person P to be imaged exists in the spatial region R or the accumulation thereof is referred to (step S2). S21), a process of combining the image such as the message M1, the mark M2, and the like with the original video is executed (step S22).
[0019]
FIGS. 7B and 7C show an example in which a direct effect is combined with the image of the photographed person P, in other words, an image using the photographed image of the person P is generated. In the example shown in FIG. 7B, when the person P in front of (in the space area R) of the screen of the display means 3 jumps, the person S shown on the screen stops in the air without falling, Or jump up everywhere. In the example shown in FIG. 7C, when the person P in front of the screen of the display means 3 moves, the onomatopoeic sound M3 is synthesized under the feet of the person S displayed on the screen. Furthermore, when the person P in front of the screen of the display means 3 moves faster than the predetermined speed, in other words, when the person P runs, the person S displayed on the screen runs faster than the person P in the real world. Would. In performing the processing for synthesizing these effects (step S2), the effect synthesizing unit 2 extracts the image S of the person P to be subjected to the effect from the original video by using a background difference, an inter-frame difference, or another method. Is executed (step S23). Then, an effect to be combined is selected by judging the direction and speed of movement of the extracted image P of the person P (step S24), and an effect combining process using the extracted image S of the person P is executed. (Step S25). In the example in which the person P jumps, the image S of the person P to be photographed and the background image are separated from each other, and the image of the background is displaced so that the image S of the person P stops or jumps up in the air. Is executed. Further, in an example in which a person overtaking the person P appears, the image S of the person P to be photographed and the background image are separated from each other, and the time axis of the image S of the person P is made faster than that of the background image to increase the background. (Such as superimposing the image S of the person P performing fast forward reproduction on the background image). However, the effect as shown in FIG. 7B may be realized by simply taking out a certain frame of the video and displaying the frame as a still image on the display means 3, and after the video is cached in the main memory 2b. The effect as shown in FIG. 7 (c) may be realized by fast-forwarding this. Then, the video data or video signal of the video obtained as a result is transmitted to the display means 3.
[0020]
In addition, the display system according to the present embodiment may further include a storage unit 5 that stores the image captured by the imaging unit 1, and the display unit 3 may display the image stored in the storage unit 5. . The storage unit 5 uses, for example, a required storage area of the main memory 2b or the auxiliary storage device 2c mounted on the hardware 2 functioning as an effect synthesizing unit. Incidentally, the image N indicating the video content stored in the storage means 5 and the index of the video content stored in the storage means 5 are displayed on the screen of the display means 3 to notify people of the existence of the video content. You may do so.
[0021]
Further, a recording instruction for instructing that the image photographed by the photographing means 1 is stored in the storage means 5, a reproduction instruction for instructing that the image stored in the storage means 5 is displayed on the display means 3, a fast forward It is preferable to be configured so that playback, playback pause, selection of content to be played, and other control commands can be optically input via the photographing means 1. The display system in this case also includes a command interpreting means 6 for interpreting a control command optically input via the photographing means 1. More specifically, the hardware 2 functioning as the effect synthesizing means also functions as the instruction interpreting means 6 by a program. For example, as shown in FIGS. 10A and 10B, the recording command and the reproduction command are characters and graphics meaning a recording command (FIG. 10A) and a reproduction command (FIG. 10B). And the like, or an object O having a shape meaning a recording instruction and a reproduction instruction.
[0022]
That is, when the object O as described above is presented to the photographing unit 1, a video image of the object O is provided to the command interpreting unit 6. The procedure of the process executed by the command interpreting means 6 will be described with reference to a flowchart shown in FIG. 14. The command interpreting means 6 acquires a photographed video (step S5), and outputs a recording command and a character representing a playback command. , A figure, a shape, and the like are extracted by image analysis to interpret the input command. Typically, template matching is performed by paying attention to geometric features such as characters, graphics, and shapes that mean control commands such as a recording command and a playback command (step S6), and the input command is interpreted. Then, the hardware 2 is controlled in accordance with the interpreted command (step S7), and the video provided by the photographing unit 1 is stored in the storage unit 5, or the video content stored in the storage unit 5 is read and displayed. Or to be displayed. However, a control command may be made using a specific gesture of the person P, and the command interpreting means 6 may analyze these and execute recording or playback.
[0023]
According to the present embodiment, a photographing unit 1 for photographing a predetermined space region R and a person P entering the space region R, an effect synthesizing unit 2 for synthesizing an effect with a video photographed by the photographing unit 1, A display unit 3 for displaying an image obtained by synthesizing the effect by the effect synthesizing unit 2; and the photographing unit 1 and the display unit 3 are installed in a space where the unspecified person P visits to use the unspecified person P. Since the display system that can be provided is configured, the person P present at the place can be the subject of shooting and display. Therefore, the person P present at the place can play and greatly enjoy using the display system. Of course, an advertisement may be displayed in a part of the display area of the display means 3 in the display system. At this time, a higher advertisement effect can be expected as compared with the related art.
[0024]
Since the display means 3 has a size capable of displaying a person P photographed by the photographing means 1 in a substantially life-size manner, the display means 3 is just like a mirror for reflecting oneself, while displaying the image of oneself. The effects are synthesized and show excellent entertainment that can attract everyone's interest.
[0025]
The apparatus further includes measuring means 4 for measuring the time during which the person P who has entered the space area R is present in the space area R or the accumulation thereof, and the effect synthesizing means 2 is measured by the measuring means 4 Since the effect is based on the time during which the person P is present in the spatial region R or an effect corresponding to the accumulation thereof, for example, the length of time that the waiting person P is waiting is It is possible to combine the effects as shown.
[0026]
It further includes a storage unit 5 for storing the image captured by the imaging unit 1, and the display unit 3 is configured to display the image stored in the storage unit 5, so that musicians, entertainers, and other persons can be displayed. Live and performance performed by the user are stored as content, and can be reproduced later. In other words, it is possible to broadcast original content that is never completed, and this also provides amateur musicians, entertainers, and the like with the opportunity to make presentations.
[0027]
A recording instruction optically input through the photographing unit 1 for instructing the storage unit 5 to store the video, and displaying the video stored in the storage unit 5 on the display unit 3. Command interpreting means 6 for interpreting a control command such as a playback command for instructing a recording command or the like, it is not necessary to separately provide an operation input device for inputting a recording command or a playback command.
[0028]
Note that the present invention is not limited to the embodiment described in detail above. In particular, the display system may include a recording unit that records the sound in the spatial region R, and a sound output unit that outputs the sound recorded by the recording unit. In this case, it does not prevent the effect synthesizing unit 2 from synthesizing the effect not only with the video but also with the audio. Furthermore, it does not prevent the storage unit 5 from storing not only video but also audio.
[0029]
This does not prevent the effect synthesizing unit 2 from synthesizing the effect with the video to be stored in the storage unit 5. Further, at the time of reproducing the content, it does not prevent the video stored in the storage unit 5 from being combined with the effect and displayed on the display unit 3.
[0030]
The effect synthesizing means 2 according to the present invention can be configured by installing a program on a personal computer or other general-purpose computer, and it is not essential to manufacture dedicated hardware.
[0031]
In addition, the specific configuration of each unit and the procedure of the processing shown in FIGS. 11 to 14 are not limited to the above embodiment, and various modifications can be made without departing from the spirit of the present invention.
[0032]
【The invention's effect】
According to the present invention described in detail above, it is possible to realize a display system with further improved entertainment.
[Brief description of the drawings]
FIG. 1 is a functional block diagram of a display system according to the present invention. FIG. 2 is a functional block diagram of a display system according to the present invention. FIG. 3 is a functional block diagram of a display system according to the present invention. FIG. 5 is a top view schematically showing an installation mode of the means. FIG. 5 is a top view schematically showing an installation mode of the photographing means and the display means. FIG. 6 is a diagram showing hardware resources included in the display system. FIG. 8 is a view showing an example of an effect by the effect synthesizing means. FIG. 8 is a view showing an example of an RFID tag and an RFID reader. FIG. 9 is a view showing a state in which an image showing video contents stored in the storage means is displayed on the screen of the display means. FIG. 10 is a diagram exemplifying a control command input via the photographing means. FIG. 11 is a flowchart showing a procedure of processing executed by the effect synthesizing means. Chart 12] [Explanation of symbols] a flowchart showing the procedure of processing the flowchart 13 the flow 14 instruction interpreting means is executed
Reference Signs List 1 photographing means 2 effect synthesizing means 3 display means R predetermined space area P unspecified person

Claims (5)

所定の空間領域及び該空間領域に進入した人を撮影する撮影手段と、
前記撮影手段が撮影した映像にエフェクトを合成するエフェクト合成手段と、
前記エフェクト合成手段によりエフェクトを合成した映像を表示する表示手段とを具備してなり、
前記撮影手段並びに前記表示手段を不特定人が訪れる空間に設置して不特定人の利用に供することができるディスプレイシステム。
Photographing means for photographing a predetermined space area and a person who has entered the space area;
Effect synthesizing means for synthesizing an effect with the image shot by the shooting means,
Display means for displaying an image obtained by synthesizing the effect by the effect synthesizing means,
A display system in which the photographing unit and the display unit are installed in a space visited by an unspecified person and can be used by an unspecified person.
前記表示手段は、前記撮影手段が撮影した人を略等身大に表示し得る寸法を有するものである請求項1記載のディスプレイシステム。2. The display system according to claim 1, wherein the display means has a size capable of displaying a person photographed by the photographing means in a substantially life-size manner. 前記空間領域に進入した人が該空間領域の内に存在している時間若しくはその累積を計測する計測手段をさらに具備し、
前記エフェクト合成手段が、前記計測手段により計測される、前記人が前記空間領域の内に存在している時間若しくはその累積に応じたエフェクトを合成する請求項1又は2記載のディスプレイシステム。
The apparatus further includes a measurement unit that measures a time or a cumulative time that the person who has entered the space area is present in the space area,
The display system according to claim 1, wherein the effect synthesizing unit synthesizes an effect measured by the measuring unit according to a time during which the person is present in the space area or an accumulation thereof.
前記撮影手段が撮影した映像を記憶する記憶手段をさらに具備し、
前記記憶手段が記憶している映像を前記表示手段が表示し得るように構成した請求項1、2又は3記載のディスプレイシステム。
The image capturing apparatus further includes a storage unit configured to store an image captured by the imaging unit,
4. The display system according to claim 1, wherein the display unit is configured to display an image stored in the storage unit.
前記撮影手段を介して光学的に入力される、前記映像を前記記憶手段に記憶させる録画または前記記憶手段が記憶している映像を前記表示手段に表示させる再生を制御する制御命令を解釈する命令解釈手段をさらに具備する請求項4記載のディスプレイシステム。A command for optically inputting via the photographing unit, a command for interpreting a control command for controlling recording for storing the video in the storage unit or reproducing for displaying the video stored in the storage unit on the display unit. The display system according to claim 4, further comprising an interpreting unit.
JP2003077890A 2003-03-20 2003-03-20 Display system Pending JP2004287004A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003077890A JP2004287004A (en) 2003-03-20 2003-03-20 Display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003077890A JP2004287004A (en) 2003-03-20 2003-03-20 Display system

Publications (1)

Publication Number Publication Date
JP2004287004A true JP2004287004A (en) 2004-10-14

Family

ID=33292532

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003077890A Pending JP2004287004A (en) 2003-03-20 2003-03-20 Display system

Country Status (1)

Country Link
JP (1) JP2004287004A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013020136A (en) * 2011-07-12 2013-01-31 Canon Inc Display controller, control method of display controller, program, and recording medium
CN106131457A (en) * 2016-06-28 2016-11-16 广东欧珀移动通信有限公司 A kind of GIF image generating method, device and terminal unit
CN106303291A (en) * 2016-09-30 2017-01-04 努比亚技术有限公司 A kind of image processing method and terminal

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013020136A (en) * 2011-07-12 2013-01-31 Canon Inc Display controller, control method of display controller, program, and recording medium
CN106131457A (en) * 2016-06-28 2016-11-16 广东欧珀移动通信有限公司 A kind of GIF image generating method, device and terminal unit
CN106303291A (en) * 2016-09-30 2017-01-04 努比亚技术有限公司 A kind of image processing method and terminal
CN106303291B (en) * 2016-09-30 2019-06-07 努比亚技术有限公司 A kind of image processing method and terminal

Similar Documents

Publication Publication Date Title
TWI253860B (en) Method for generating a slide show of an image
JP6249202B2 (en) Image display device, image display method, and program
US20160014350A1 (en) Overlay non-video content on a mobile device
EP2413597B1 (en) Thumbnail generation device and method of generating thumbnail
US20130265333A1 (en) Augmented Reality Based on Imaged Object Characteristics
TWI520610B (en) Television control apparatus and associated method
US20090185745A1 (en) Electronic Apparatus and Image Display Method
KR102170693B1 (en) Imaging apparatus and method for providing imaging information therein
US8958686B2 (en) Information processing device, synchronization method, and program
JP2007281680A (en) Image processor and image display method
US20120307109A1 (en) Video extraction device, image capturing apparatus, program, and recording medium
JP4414708B2 (en) Movie display personal computer, data display system, movie display method, movie display program, and recording medium
JP2000322602A (en) Device and method for processing image and medium
JP2014096661A (en) Method for realtime diminishing of moving object in moving image during photographing of moving image, moving image photographing apparatus for the same, and program for mentioned moving image photographing apparatus
US11211097B2 (en) Generating method and playing method of multimedia file, multimedia file generation apparatus and multimedia file playback apparatus
JP2010045765A (en) Reproducing apparatus
JP2014220724A (en) Display controller, display control method and program
US9607651B2 (en) Method and apparatus for controlling contents in electronic device
US8244005B2 (en) Electronic apparatus and image display method
JP2010015076A (en) Display system, display control device, and display control method
JP6058257B2 (en) Image output apparatus, image output method, and program
JP2011205601A (en) Image processing device, and image processing method
KR102138835B1 (en) Apparatus and method for providing information exposure protecting image
JP2004287004A (en) Display system
JP5619214B2 (en) Image processing apparatus, image processing program, and image processing method