JP2012208558A - Display control apparatus, terminal device, communication system, and program - Google Patents
Display control apparatus, terminal device, communication system, and program Download PDFInfo
- Publication number
- JP2012208558A JP2012208558A JP2011071595A JP2011071595A JP2012208558A JP 2012208558 A JP2012208558 A JP 2012208558A JP 2011071595 A JP2011071595 A JP 2011071595A JP 2011071595 A JP2011071595 A JP 2011071595A JP 2012208558 A JP2012208558 A JP 2012208558A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image data
- display
- series
- distribution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
本発明は、カメラとディスプレイとを有する端末装置の動作を制御する技術に関する。 The present invention relates to a technique for controlling the operation of a terminal device having a camera and a display.
スマートフォン等の端末装置に提供されるサービスの中にはAR(Augmented
Reality:拡張現実)と呼ばれる技術を利用したものがある。ARは、端末装置の利用者の眼前の景色をカメラにより撮影した撮影画像データにその撮影画像データ内の物に関わる注釈情報(アノテーション)を合成し、撮影画像データと注釈情報とを合成した合成画像データをディスプレイを介して利用者に提示する技術である。ARに関わるシステムを開示した文献として、例えば、特許文献1がある。この文献1に開示されたシステムは、利用者に携帯される情報提供端末、及び各情報提供端末と通信網を介して接続されるサーバを有する。このシステムでは、情報提供端末は、利用者の眼前の景色をカメラにより撮影すると共に、自らの位置を示す位置情報をサーバに送信する。サーバは、情報提供端末から受信した位置情報によって情報提供端末の位置を把握し、その情報提供端末のカメラの撮影範囲内に写り込んでいる物に関わる注釈情報である仮想表示情報を情報提供端末へ送信する。情報提供端末は、サーバから受信した仮想表示情報をカメラの撮影結果である視界情報に合成し、仮想表示情報と視界情報とを合成した画面をディスプレイに表示させる。
Among the services provided to terminal devices such as smartphones, AR (Augmented
There is something that uses a technology called Reality. AR synthesizes annotation information (annotation) related to an object in the photographed image data with the photographed image data obtained by photographing the scenery in front of the user of the terminal device with the camera, and synthesizes the photographed image data and the annotation information. This is a technique for presenting image data to a user via a display. For example, Patent Document 1 discloses a document that discloses a system related to AR. The system disclosed in Document 1 includes an information providing terminal carried by a user and a server connected to each information providing terminal via a communication network. In this system, the information providing terminal captures a scene in front of the user with a camera and transmits position information indicating its own position to the server. The server grasps the position of the information providing terminal based on the position information received from the information providing terminal, and displays virtual display information that is annotation information related to an object reflected in the shooting range of the camera of the information providing terminal. Send to. The information providing terminal synthesizes the virtual display information received from the server with the view information that is the result of photographing by the camera, and causes the display to display a screen that combines the virtual display information and the view information.
ところで、カメラの撮影範囲にそれ自体が画像表示を行う物である画像表示装置が含まれていると、カメラの撮影画像データ内における画像表示装置の表示画像の表示領域にモアレと呼ばれる縞模様が現れて表示内容の鮮明さが低下する、といった問題がある。例えば、小規模な小売店が多数集まっている商業施設では、各小売店の店頭に画像表示装置が設置され、小売店毎のお買い得情報やタイムセールスケージュールなどの画像が表示されていることが多く、このような商業施設においてARを利用すると、上記問題点は顕著となる。 By the way, when an image display device that itself displays an image is included in the shooting range of the camera, a striped pattern called a moire pattern is displayed in the display area of the display image of the image display device in the captured image data of the camera. There is a problem that it appears and the clearness of the displayed content is lowered. For example, in a commercial facility where many small retail stores are gathered, an image display device is installed at the storefront of each retail store, and images such as bargain information and time sales schedules for each retail store are displayed. In many cases, the use of AR in such commercial facilities makes the above-mentioned problem prominent.
本発明は上記課題に鑑みて為されたものであり、ARシステムにおいて端末装置のカメラの撮影範囲に画像を表示中の画像表示装置が含まれており、当該画像を一部に含む画像を端末装置に表示させる場合であっても、端末装置の表示画像の画質の劣化を抑えることを可能にする技術を提供することを目的とする。 The present invention has been made in view of the above problems, and includes an image display device that displays an image in the shooting range of the camera of the terminal device in the AR system. It is an object of the present invention to provide a technique that makes it possible to suppress deterioration in image quality of a display image of a terminal device even when it is displayed on a device.
本発明は、サーバ装置から送信される一連の配信画像データに従って動画像を表示する複数の画像表示装置のうちの少なくとも1つを含む撮影範囲内をカメラにより撮影して得られる一連の撮影画像データを取得する撮影画像取得手段と、前記撮影画像取得手段により取得した一連の撮影画像データが表す画像に写っている画像表示装置であって、前記撮影画像データが表す画像から抽出されるマーカと前記カメラの位置および撮影方向との少なくとも一方によって特定される画像表示装置へ配信される一連の配信画像データを要求するメッセージを前記サーバ装置に送り、このメッセージを受けたことを契機として前記サーバ装置から送られてくる一連の配信画像データを取得する配信画像取得手段と、前記撮影画像取得手段により取得した一連の撮影画像データの各々と前記配信画像取得手段により取得した一連の撮影画像データの各々とを比較し、この比較の結果に基づいて当該一連の撮影画像データの表す画像に写っている画像表示装置の表示画像を画像表示装置毎に特定し、当該一連の撮影画像データにおける画像表示装置の表示画像を前記配信画像取得手段により取得した一連の配信画像データのうちの該当するものの表す画像に差替えて合成画像データを生成し、当該合成画像データが表す画像を表示装置に表示させる表示制御手段とを具備する表示制御装置を提供する。 The present invention provides a series of photographed image data obtained by photographing a photographing range including at least one of a plurality of image display devices that display a moving image according to a series of distribution image data transmitted from a server device. A captured image acquisition means for acquiring image, an image display device shown in a series of captured image data acquired by the captured image acquisition means, a marker extracted from the image represented by the captured image data, and the A message requesting a series of distribution image data distributed to the image display device specified by at least one of the position of the camera and the shooting direction is sent to the server device, and the server device is triggered by receiving this message. Acquired by the distribution image acquisition means for acquiring a series of distribution image data sent, and the captured image acquisition means Each of the series of photographed image data is compared with each of the series of photographed image data acquired by the distribution image acquisition means, and an image display shown in the image represented by the series of photographed image data based on the result of the comparison A display image of the device is specified for each image display device, and the display image of the image display device in the series of captured image data is replaced with an image representing a corresponding one of the series of distribution image data acquired by the distribution image acquisition unit. A display control device including display control means for generating composite image data and displaying an image represented by the composite image data on a display device.
この発明では、撮影画像データの表す画像に写っている画像表示装置の表示画像が、サーバ装置からその画像表示装置に送信されているものと同じ配信画像データが表す画像に差替えられ、この差替え後の画像が撮影結果の画像として表示装置に表示される。従って、撮影画像データの表す画像内に画像を表示中の画像表示装置が含まれている場合であっても、モアレのない表示画像を表示装置に表示させることができる。 In the present invention, the display image of the image display device shown in the image represented by the captured image data is replaced with an image represented by the same distribution image data transmitted from the server device to the image display device. Is displayed on the display device as an image of the photographing result. Therefore, even if the image represented by the captured image data includes an image display device that is displaying an image, a display image without moire can be displayed on the display device.
以下、図面を参照しつつ本発明の実施形態について説明する。
<第1実施形態>
図1は、本発明の第1実施形態である表示制御装置を含む通信システムの構成を示す図である。この通信システムは、商業施設内の各小売店の店頭に設置された画像表示装置1m(m=1,2…)と、同施設の管理センター内に設置されたサーバ装置50と、利用者に携帯される端末装置20n(n=1,2…)とを有する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<First Embodiment>
FIG. 1 is a diagram showing a configuration of a communication system including a display control apparatus according to the first embodiment of the present invention. The communication system includes an image display device 1 m (m = 1, 2,...) Installed at a retail store in a commercial facility, a server device 50 installed in the management center of the facility, and a user. Terminal devices 20 n (n = 1, 2,...)
画像表示装置1m(m=1,2…)は、矩形状の画像表示面を持ったディスプレイである。サーバ装置50は、各画像表示装置1mが設置された店舗におけるお買い得情報やタイムスケジュールなどに関わる動画像コンテンツCNTmを配信する配信サーバとしての役割を果たす装置である。 The image display device 1 m (m = 1, 2,...) Is a display having a rectangular image display surface. The server device 50 is a device that serves as a distribution server that distributes moving image content CNT m related to bargain information, a time schedule, and the like at a store where each image display device 1 m is installed.
図2に示すように、サーバ装置50は、画像表示装置1mを送信先とする動画像コンテンツCNTmの一連のフレーム画像データFVm−k(k=1,2…N:kは、フレーム順を示すインデックスである)の右上の位置(より具体的には、画像データFVm−k内における右端から当該画像データFVm−kの主走査方向の幅Xの1/L(例えば、L=12とする)の距離X/Lだけ左に離れ且つ上端から当該画像データFVm−kの副走査方向の幅Yの1/Lの距離Y/Lだけ下に離れた位置)に画像表示装置1mの識別情報IDmを示すQRコード(登録商標)を上書きしたものを配信画像データCVm−k(k=1,2…N)とし、この一連の配信画像データCVm−k(k=1,2…N)を画像表示装置1mに送信する。また、サーバ装置50は、端末装置20nからの要求に応じて、画像表示装置1mを送信先とするものと同じ配信画像データCVm−kを端末装置20nに送信する。サーバ装置50の構成の詳細については、後述する。
As illustrated in FIG. 2, the server device 50 includes a series of frame image data FV m -k (k = 1, 2... N: k) of the moving image content CNT m having the image display device 1 m as a transmission destination. upper right position of an index) indicating the order (more specifically, the image data FV m the image data from the right end in the -k FV m -k of 1 / L in the main scanning direction of the width X (eg, L = 12) and is displayed to the left by a distance X / L, and from the top by a distance Y / L that is 1 / L of the width Y in the sub-scanning direction of the image data FV m -k. and QR code indicating the identification information ID m of the apparatus 1 m deliver that overwrites the (R) image data CV m -k (k = 1,2 ... N), the series of distribution image data CV m -k ( be transmitted k = 1,2 ... N) to the image display device 1 m . Further, in response to a request from the
各端末装置20nは、通話機能、ブラウジング機能、メーラ機能などといったスマートフォンとしての各種機能と、本発明の第1実施形態である表示制御装置としての機能とを併有する装置である。ここで、端末装置20n内におけるスマートフォンとしての機能を司る各部については、本発明との関係が希薄であるため、図示及びその説明を割愛する。
Each
端末装置20nの筐体2は、手の中に収まる寸法を持った扁平な板状をなしている。筐体2の表面には3つの開口21,22,23が設けられている。これらのうち表面の大部分を占める中央の開口21からはタッチパネルディスプレイ31が露出している。筐体2内における開口22の底の位置にはスピーカ32が固定されている。筐体2内における左側の開口23の底の位置にはマイクロホン33が固定されている。筐体2の裏面の一角には開口24が設けられている。筐体2内における開口24の底の位置には、カメラ34がその撮影方向を開口24に向けて固定されている。カメラ34は、当該カメラ34の撮影範囲内を撮影した撮影結果である撮影画像データPV−i(i=1,2…:iは撮影時刻を示すインデックスである)を出力する。
The
端末装置20nの筐体2には、GPS(Global Positioning System)センサ35、方位角センサ36、仰俯角センサ37、無線通信部38、及び制御部39が内蔵されている。GPSセンサ35は、当該端末装置20nの位置(より具体的には緯度と経度)を検出し、検出した位置を示す位置データDPを出力する。方位角センサ36は、図3(A)に示すように、当該端末装置20nを含む水平面における真北と当該端末装置20nのカメラ34が向いている方向との間の角度である方位角θ1を検出し、検出した方位角θ1を示す方位角データDθ1を出力する。仰俯角センサ37は、図3(B)に示すように、当該端末装置20nを含む鉛直面における水平方向と当該端末装置20nのカメラ34が向いている方向との間の角度である仰俯角θ2を検出し、検出した仰俯角θ2を示す仰俯角データDθ2を出力する。
The
図1において、無線通信部38は、制御部39による制御の下、移動体通信網91における基地局にアクセスし、移動体通信網91やインターネット92に接続されている他の装置とデータを送受信する。制御部39は、当該端末装置20nの制御中枢としての役割を果たす装置である。制御部39は、CPU41、RAM42、およびROM43を有する。CPU41は、RAM42をワークエリアとして利用しつつ、ROM43内の表示制御プログラムを実行する。表示制御プログラムは、次の3つの機能を有する。
a1.撮影画像取得機能
これは、カメラ34から出力される撮影画像データPV−iを取得する機能である。
b1.配信画像取得機能
これは、一連の撮影画像データPV−iが表す画像に写っている画像表示装置1mであって、撮影画像データPV−iから抽出されるマーカであるQRコードとカメラ34の位置および撮影方向との少なくとも一方によって特定される画像表示装置1mへ配信されている一連の配信画像データCVm−kを要求するメッセージMSG1またはMSG2をサーバ装置50に送り、メッセージMSG1またはMSG2を受けたことを契機としてサーバ装置50から送られてくる一連の配信画像データCVm−kを取得する機能である。
c1.表示制御機能
これは、一連の撮影画像データPV−iの各々と一連の配信画像データCVm−kの各々とを比較し、この比較の結果に基づいて当該一連の撮影画像データPV−iの表す画像に写っている画像表示装置1mの表示画像を画像表示装置1m毎に特定し、当該一連の撮影画像データPV−iにおける画像表示装置1mの表示画像を一連の配信画像データCVm−kのうちの該当するものの表す画像に差替えて合成画像データWV−kを生成し、当該合成画像データWV−kが表す画像をタッチパネルディスプレイ31に表示させる機能である。
In FIG. 1, the
a1. Captured Image Acquisition Function This is a function for acquiring captured image data PV-i output from the
b1. Distribution image acquisition function This is an image display device 1 m shown in an image represented by a series of captured image data PV-i, and a QR code that is a marker extracted from the captured image data PV-i and the
c1. Display control function This compares each of the series of captured image data PV-i with each of the series of distributed image data CV m -k, and based on the result of this comparison, a display image of the image display device 1 m contained in the image specified in the image display device every 1 m representing, the series of photographed image data PV-i series of delivery a display image of the image display device 1 m in the image data CV This is a function of generating composite image data WV-k by replacing the image represented by the corresponding one of m -k and displaying the image represented by the composite image data WV-k on the
次に、サーバ装置50の構成について説明する。サーバ装置50は、制御部59、ハードディスク64、及びNIC65を有する。制御部59は、当該サーバ装置50の制御中枢としての役割を果たす装置である。制御部59は、CPU61、RAM62、及びROM63を有する。CPU61は、RAM62をワークエリアとして利用しつつ、ROM63やハードディスク64に記憶されたプログラムを実行する。ハードディスク64には、動画像データベースDBと画像配信プログラムとが記憶されている。
Next, the configuration of the server device 50 will be described. The server device 50 includes a
動画像データベースDBは、画像表示装置1m(m=1,2…)の各々と対応するレコードの集合体である。図4に示すように、動画像データベースDBにおける各レコードは、「ID」、「位置」、「コンテンツ」、及び「スケジュール」の4つのフィールドを有する。「ID」のフィールドは、画像表示装置1mの識別情報IDmを示す。「位置」のフィールドは、画像表示装置1mが設置されている位置の位置データDPを示す。「コンテンツ」のフィールドは、画像表示装置1mを送信先とする動画像コンテンツCNTmの配信画像データCVm−k(k=1,2…N)を示す。「スケジュール」のフィールドは、動画像コンテンツCNTmにおける最初の配信画像データCVm−1から最後の配信画像データデータCVm−Nまでの各々の再生予定時刻を配列したデータであるスケジュールデータSCDmを示す。 The moving image database DB is a collection of records corresponding to each of the image display devices 1 m (m = 1, 2,...). As shown in FIG. 4, each record in the moving image database DB has four fields of “ID”, “position”, “content”, and “schedule”. The “ID” field indicates identification information ID m of the image display device 1 m . The “position” field indicates position data DP of a position where the image display device 1 m is installed. The “content” field indicates distribution image data CV m -k (k = 1, 2,... N) of moving image content CNT m having the image display device 1 m as a transmission destination. The field of “schedule” is schedule data SCD m which is data in which the respective reproduction scheduled times from the first distribution image data CV m −1 to the last distribution image data data CV m −N in the moving image content CNT m are arranged. Indicates.
画像配信プログラムは、次の2つの機能を有する。
a2.画像表示装置向け画像配信機能
これは、動画像データベースDBにおける各画像表示装置1mを送信先とする動画像コンテンツCNTmの配信画像データCVm−k(k=1,2…N)とスケジュールデータSCDmをRAM62に読み出し、スケジュールデータSCDmにおける各配信画像データCVm−kの再生予定時刻と画像表示装置1mにおけるそれらの表示時刻とが一致するように配信画像データCVm−kの送信時刻を制御しつつ、配信画像データCVm−kを画像表示装置1mに送信する機能である。
b2.端末装置向け画像配信機能
これは、端末装置20nからメッセージMSG1またはMSG2を受け取った場合に、メッセージMSG1またはMSG2の要求を満たす動画像コンテンツCNTmの配信画像データCVm−kを端末装置20nに送信する機能である。
The image distribution program has the following two functions.
a2. Image distribution function for image display device This is the distribution image data CV m -k (k = 1, 2... N) and schedule of the moving image content CNT m with each image display device 1 m in the moving image database DB as the transmission destination. reading data SCD m to RAM 62, the distribution image data CV m -k as the display time thereof in each delivery the image data CV m reproduction scheduled time and the image display device 1 m of -k in the schedule data SCD m matches This is a function of transmitting the distribution image data CV m -k to the image display device 1 m while controlling the transmission time.
b2. Image distribution function for terminal device When the message MSG1 or MSG2 is received from the
次に、本実施形態の動作を説明する。図5は、本実施形態の動作を示すフローチャートである。図5において、端末装置20nのCPU41は、表示制御プログラムが起動されている間、ステップS100乃至ステップS160bの処理を行う。これらの処理のうちステップS110は、撮影画像取得機能の働きにより実行される処理であり、ステップS120、ステップS130、ステップS140a、ステップS150a、ステップS140b、及びステップS150bは、配信画像取得機能の働きにより実行される処理であり、ステップS160a及びステップS160bは、表示制御機能の働きにより実行される処理である。
Next, the operation of this embodiment will be described. FIG. 5 is a flowchart showing the operation of the present embodiment. In FIG. 5, the
サーバ装置50のCPU61は、画像配信プログラムが起動されている間、ステップS200乃至ステップS210bの処理を行う。これらの処理のうちステップS200は、画像表示装置向け画像配信機能の働きによって実行される処理であり、ステップS210a及びステップS210bは、端末装置向け画像配信機能の働きによって実行される処理である。
The
図5において、サーバ装置50のCPU61は、画像配信プログラムが起動されると、画像表示装置向け画像提供処理を開始する(S200)。この処理では、CPU61は、動画像データベースDBにおける各画像表示装置1mを送信先とする動画像コンテンツCNTmの配信画像データCVm−k(k=1,2…N)とそのスケジュールデータSCDmをRAM62に読み出す。CPU61は、各画像表示装置1mを送信先とする動画像コンテンツCNTmの配信画像データCVm−k(k=1,2…N)について、スケジュールデータSCDmにおける各配信画像データCVm−kの再生予定時刻と画像表示装置1mにおけるそれらの表示時刻とが一致するように配信画像データCVm−kの送信時刻を制御しつつ、配信画像データCVm−kを画像表示装置1mに送信する。これ以降、CPU61は、端末装置20nからのメッセージMSG1またはMSG2の受信の有無を監視する。
In FIG. 5, when the image distribution program is started, the
端末装置20nのCPU61は、表示制御プログラムが起動されると、撮影指示ボタンとしての役割を果たすアイコンICNをタッチパネルディスプレイ31に表示させる(S100)。端末装置20nの利用者は、自身の前方の画像表示装置1mがカメラ34の撮影範囲内に収まるようにカメラ34の向きとズームを調整し、アイコンICNをタッチする。
When the display control program is activated, the
端末装置20nのCPU41は、カメラ34から出力される撮影画像データPV−iのうちアイコンICNがタッチされた直後の撮影画像データPV−iを取得する(S110)。そして、CPU41は、当該撮影画像データPV−iからのQRコードの抽出を試みる(S120)。このステップS120では、CPU41は、撮影画像データPV−iに対してQRコード認識処理を施す。QRコード認識処理の詳細については、特許文献2を参照されたい。ここで、QRコード認識処理におけるQRコードの認識の確度は、画像表示装置1mに対するカメラ34の向きや画像表示装置1mからカメラ34までの距離に依存する。このため、カメラ34が画像表示装置1mと正対しておりカメラ34から画像表示装置1mまでの距離が近い場合には認識の確度は高くなるが、そうでない場合には認識の確度は低くなる。
The
端末装置20nのCPU41は、撮影画像データPV−iからQRコードを抽出できた場合(S130:Yes)、そのQRコードが示す識別情報IDmを含むメッセージMSG1を組み立て、このメッセージMSG1を無線通信部38を介して送信する(S140a)。メッセージMSG1は、移動体通信網91及びインターネット92を経由してサーバ装置50へ転送される。
The CPU41 of the
サーバ装置50のCPU61は、メッセージMSG1を受信した場合、端末装置向け画像提供処理を開始する(S210a)。このステップS210aにおける端末装置向け画像提供処理では、CPU61は、メッセージMSG1から識別情報IDmを取り出し、この識別情報IDmにより識別される画像表示装置1mを特定し、この画像表示装置1mを送信先とするものと同じ配信画像データCVm−kを端末装置20nに送信する。これ以降、CPU61は、端末装置向け画像提供処理と上述した画像表示装置向け画像提供処理の2つの処理を行う。これにより、同じ種類の動画像コンテンツCNTmの配信画像データCVm−kが画像表示装置1mと端末装置20nの両装置に送られる。
When receiving the message MSG1, the
端末装置20nのCPU41は、メッセージMSG1をサーバ装置50に送信した後、同装置50から送られてくる動画像コンテンツCNTmの配信画像データCVm−kを無線通信部38から取得してRAM42に記憶する処理を開始する(S150a)。また、CPU41は、この処理と併せて表示制御処理を開始する(S160a)。ステップS160aにおける表示制御処理では、CPU41は、カメラ34から出力された撮影画像データPV−iを取得する度に、その撮影画像データPV−iとサーバ装置50から送られてくる動画像コンテンツCNTm(例えば、動画像コンテンツCNT1とする)の最新の配信画像データCV1−kとを処理対象として、次に示す第1乃至第5の処理を行う。
The CPU41 of the
第1の処理では、図6に示すように、撮影画像データPV−iにQRコード認識処理を施し、撮影画像データPV−i内におけるQRコードの表示領域ARGを求める。第2の処理では、図7に示すように、撮影画像データPV−i内におけるQRコードの表示領域ARGの右上隅から当該QRコードの一辺HのR(例えば、R=2とする)倍の距離H・Rだけ右上の方向に離れた点A1、点A1から距離H・S(例えば、S=13とする)だけ左に離れた点A2、点A2から距離H・Q(例えば、Q=10とする)だけ下に離れた点A3、及び点A3から距離H・Sだけ右に離れた点A4の4点に囲まれた領域を解析対象領域ARHとする。そして、この領域ARH内の画像データPVARH−iを切り出す。 In the first process, as shown in FIG. 6, the captured image data PV-i is subjected to a QR code recognition process to obtain a QR code display area ARG in the captured image data PV-i. In the second process, as shown in FIG. 7, R (for example, R = 2) times one side H of the QR code from the upper right corner of the QR code display area ARG in the captured image data PV-i. A point A1 that is separated by a distance H · R in the upper right direction, a point A2 that is separated from the point A1 by a distance H · S (eg, S = 13) to the left, and a distance H · Q (eg, Q = An area surrounded by four points, that is, a point A3 that is separated downward by 10) and a point A4 that is separated from the point A3 by a distance H · S to the right is defined as an analysis target area ARH. Then, the image data PV ARH -i in this area ARH is cut out.
第3の処理では、図8に示すように、画像データPVARH−iと配信画像データCV1−kをSIFT(Scale-Invariant Feature Transform)アルゴリズムに従って解析することにより、画像データPVARH−iが表す画像の特徴点Pと配信画像データCV1−kが表す画像の特徴点Pを個別に抽出する。SIFTアルゴリズムの詳細については、非特許文献1を参照されたい。 In the third process, as shown in FIG. 8, by analyzing the image data PV ARH -i and distribution image data CV 1 -k according SIFT (Scale-Invariant Feature Transform) algorithm, the image data PV ARH -i is The feature point P of the image to be represented and the feature point P of the image represented by the distribution image data CV 1 -k are individually extracted. Refer to Non-Patent Document 1 for details of the SIFT algorithm.
第4の処理では、図9に示すように、画像データPVARH−iから抽出した特徴点Pの撮影画像データPV−i内における位置と配信画像データCV1−kから抽出した特徴点Pの配信画像データCV1−k内における位置とを比較することにより、撮影画像データPV−i内における画像表示装置1mの表示画像の領域ARJを特定する。 In the fourth process, as shown in FIG. 9, the position of the feature point P extracted from the image data PV ARH -i in the captured image data PV-i and the feature point P extracted from the distribution image data CV 1 -k. The area ARJ of the display image of the image display device 1 m in the captured image data PV-i is specified by comparing the position in the distribution image data CV 1 -k.
第5の処理では、図10に示すように、配信画像データCV1−kを当該配信画像データCV1−kが表す画像の外郭OUTCVと領域ARJの外郭OUTARJとが一致するようにアフィン変換したものを配信画像データCV1’−kとする。そして、撮影画像データPV−iにおける領域ARJ内の画像(すなわち、画像表示装置1mの表示画像)を配信画像データCV1’−kが表す画像に差替えた合成画像データWV−kを生成し、この合成画像データWV−kが表す画像をタッチパネルディスプレイ31に表示させる。
In the fifth process, as shown in FIG. 10, affine distribution image data CV 1 -k as the outer OUT ARJ of the outer OUT CV and region ARJ of the distribution image data CV 1 -k represents image matches The converted image is defined as distribution image data CV 1 '-k. Then, the composite image data WV-k is generated by replacing the image in the area ARJ in the captured image data PV-i (that is, the display image of the image display device 1 m ) with the image represented by the distribution image data CV 1 ′ -k. Then, the image represented by the composite image data WV-k is displayed on the
CPU41は、ステップS130においてQRコードを抽出できなかった場合(S130:No)、端末装置20n内のセンサ35,36,及び37から出力された位置データDP、方位角データDθ1、及び仰俯角データDθ2を含むメッセージMSG2を組み立て、このメッセージMSG2を無線通信部38を介して送信する(S140b)。このメッセージMSG2は、移動体通信網91及びインターネット92を経由してサーバ装置50へ転送される。
CPU41, when unable to extract the QR code in step S130 (S130: No), the terminal device 20 a
サーバ装置50のCPU61は、メッセージMSG2を受信した場合、端末装置向け画像提供処理を開始する(S210b)。ステップS210bにおける端末向け画像提供処理では、CPU61は、メッセージMSG2から位置データDP、方位角データDθ1、及び仰俯角データDθ2を取り出し、これらの3種類のデータDP,Dθ1,Dθ2からカメラ34の位置及び撮影方向を計算する。CPU61は、この位置及び撮影方向から決まるカメラ34の撮影範囲と動画像データベースDBにおける各レコードの「位置」のフィールドが示す位置との重複の有無を個別に判定し、カメラ34の撮影範囲内にある画像表示装置1mを探索する。そして、CPU61は、カメラ34の撮影範囲内にあるとみなした画像表示装置1mを送信先とする動画像コンテンツCNTmの配信画像データCVm−kを画像表示装置1mと端末装置20nに送信する処理を行う。ここで、CPU61は、カメラ43の撮影範囲内に複数個の画像表示装置1mがあるとみなした場合、それら複数の画像表示装置1mの各々について、当該画像表示装置1mを送信先とする動画像コンテンツCNTmの配信画像データCVm−kを画像表示装置1mと端末装置20nに送信する処理を行う。
When receiving the message MSG2, the
端末装置20nのCPU61は、メッセージMSG2をサーバ装置50に送信した後、同装置50から送られてくる動画像コンテンツCNTmの配信画像データCVm−kを無線通信部38から取得してRAM62に記憶する処理を開始する(S150b)。また、CPU61は、この処理と併せて表示制御処理を開始する(S160b)。ステップS160bにおける表示制御処理では、CPU61は、カメラ43から出力される撮影画像データPV−iが表す画像の全領域を解析対象領域ARGとした上で、上述した第3乃至第5の処理と同様の処理を行う。より詳細に説明すると、CPU61は、サーバ装置50から送られてくる動画像コンテンツCNTmの種類が1種類である場合と複数種類である場合の各々において、次のような処理を行う。
CPU61 of the
a3.動画像コンテンツCNTmの種類が1種類である場合
この場合、CPU61は、撮影画像データPV−i自体(すなわち、撮影画像データPV−iが表す画像の全領域)をSIFTアルゴリズムに従って解析し、撮影画像データPV−iが表す画像の特徴点Pを抽出する。また、CPU61は、サーバ装置50から送られてくる1種類の動画像コンテンツCNTm(例えば、動画像コンテンツCNT3とする)の配信画像データCV3−kを同様のアルゴリズムに従って解析し、配信画像データCV3−kが表す画像の特徴点Pを抽出する。CPU61は、撮影画像データPV−i内における特徴点Pの位置と配信画像データCV3−k内における特徴点Pの位置とを比較することにより、撮影画像データPV−i内における画像表示装置1mの表示画像の領域ARJを決定する。CPU61は、画像データCV3−kをアフィン変換したものを画像データCV3’−kとし、撮影画像データPV−i内における画像表示装置1mの表示画像を画像データCV3’−kが表す画像に差替えた合成画像データWV−kを生成し、合成画像データWV−kが表す画像をタッチパネルディスプレイ31に表示させる。
a3. In the case where there is only one type of moving image content CNT m In this case, the
b3.動画像コンテンツCNTmの種類が複数種類である場合
この場合、CPU61は、撮影画像データPV−i自体をSIFTアルゴリズムに従って解析し、撮影画像データPV−iが表す画像の特徴点Pを抽出する。また、サーバ装置50から送られてくる複数種類の動画像コンテンツCNTm(例えば、2種類の動画像コンテンツCNT3およびCNT4とする)の配信画像データCV3−k及びCV4−kを同様のアルゴリズムに従って解析し、配信画像データCV3−k及びCV4−kが表す画像の特徴点Pを各々抽出する。CPU61は、撮影画像データPV−i内における特徴点Pの位置と配信画像データCV3−k内における特徴点Pの位置、及び撮影画像データPV−i内における特徴点Pの位置と配信画像データCV4−k内における特徴点Pの位置を各々比較する。CPU61は、これらの比較の結果を利用して、撮影画像データPV−i内における画像表示装置1mの表示画像の領域ARJを決定するとともに、配信画像データCV3−k及びCV4−kの中から領域ARJ内の画像に最も近い表示内容を持ったもの(例えば、画像データCV3−kとする)を選択する。そして、CPU61は、この選択した画像データCV3−kをアフィン変換したものを画像データCV3’−kとし、撮影画像データPV−i内における画像表示装置1mの表示画像を画像データCV3’−kが表す画像に差替えた合成画像データWV−kを生成し、当該合成画像データWV−kが表す画像をタッチパネルディスプレイ31に表示させる。
b3. When there are a plurality of types of moving image content CNT m In this case, the
以上説明したように、本実施形態では、撮影画像データPV−iが表す画像に写っている画像表示装置1mの表示画像が、サーバ装置50からその画像表示装置1mに送信されているものと同じ画像データCVm−kが表す画像に差替えられ、差替え後の画像が撮影結果の画像としてタッチパネルディスプレイ31に表示される。よって、撮影画像データPV−iが表す画像内に画像表示装置1mの画像が含まれている場合であっても、モアレのない表示画像をタッチパネルディスプレイ31に表示させることができる。
As described above, in the present embodiment, the display image of the image display device 1 m reflected in the image represented by the captured image data PV-i is transmitted from the server device 50 to the image display device 1 m . Is replaced with an image represented by the same image data CV m -k, and the image after the replacement is displayed on the
また、本実施形態では、撮影画像データPV−iからのQRコードの抽出を試み、QRコードが抽出できた場合には、撮影画像データPV−iが示す画像内においてQRコードに対して所定の位置関係を持った領域を解析対象領域ARHとし、領域ARH内の画像データPVARH−iと画像データCVm−kとを比較し、この比較の結果に基づいて撮影画像データPV−i内における画像表示装置1mの表示画面の領域ARJを特定する。よって、撮影画像データPV−iが表す画像の全表示領域を解析対象領域ARHとするよりも、領域ARJの特定に要する演算量が少なくなる。従って、撮影画像データPV−iが表す画像内における画像表示装置1mの表示画面の探索の速度を向上させることができる。 In the present embodiment, extraction of a QR code from the photographed image data PV-i is attempted, and when the QR code can be extracted, a predetermined code is applied to the QR code in the image indicated by the photographed image data PV-i. The region having the positional relationship is set as the analysis target region ARH, and the image data PV ARH -i and the image data CV m -k in the region ARH are compared, and the image data PV-i in the captured image data PV-i is compared based on the comparison result. identify areas ARJ of the display screen of the image display device 1 m. Therefore, the amount of calculation required for specifying the area ARJ is smaller than when the entire display area of the image represented by the captured image data PV-i is the analysis target area ARH. Therefore, it is possible to increase the speed of the search display screen of the image display device 1 m in the image represented by the captured image data PV-i.
<第2実施形態>
次に、本発明の第2実施形態について説明する。上記実施形態におけるステップS160aの表示制御処理は最新の撮影画像データPV−i及び最新の配信画像データCVm−kを処理対象として行われた。このため、端末装置20nにおける表示制御処理の1フレームあたりの処理時間と、画像表示装置1mにおける画像表示処理の1フレームあたりの処理時間(1フレーム分の配信画像データCVm−kの受信から表示までの処理時間)との関係によっては、撮影画像データPV−iにおける画像表示装置1mの表示画面をその装置1mが現に表示しているものより前や後のフレームの配信画像データCVm−kが表す画像に差替えてしまうことも起こり得る。この場合、タッチパネルディスプレイ31の表示画面内における画像表示装置1mの表示画面の表示内容とその画像表示装置1mが現に表示している表示画面の表示内容との間にずれが発生してしまう。そこで、本実施形態では、撮影画像データPV−iとこれに埋め込む配信画像データCVm−kとの間の時間軸上の位置関係を調整することにより、タッチパネルディスプレイ31の表示画面内における画像表示装置1mの表示画面の表示内容とその画像表示装置1mが現に表示している表示画面の表示内容とを一致させる。
Second Embodiment
Next, a second embodiment of the present invention will be described. The display control process in step S160a in the above embodiment is performed on the latest captured image data PV-i and the latest distribution image data CV m -k. Therefore, the processing time per frame of the display control process in the
図11は、本実施形態の動作を示すフローチャートである。本実施形態では、端末装置20nのCPU41は、ステップS150aの処理の開始後に時間差算出処理を行い(S151a)、この時間差算出処理の実行後に表示制御処理(S161a)を行う。時間差算出処理では、CPU41は、カメラ34から出力される撮影画像データPV−iとサーバ装置50から送られてくる動画像コンテンツCNTm(例えば、動画像コンテンツCNT6とする)の配信画像データCV6−kとを処理対象として、次のような処理を行う。図12に示すように、CPU41は、当該時間差算出処理の開始時点から時間長T(例えば、T=10秒とする)以上が経過した時刻を基準時刻tBASISとし、この時刻tBASISにおいて取得された撮影画像データPV−iを時間差検出用撮影画像データPVV−iとする。CPU41は、画像データPVV−i内における解析対象領域ARHを決定し、領域ARH内の画像データPVVARH−iを切り出す。CPU41は、時刻tBASIS−Tから時刻tBASIS+Tまでの時間長2Tの間に取得された複数個(図12の例では、簡便のため、3個とする)の配信画像データCV6−(k+1),CV6−(k+2),及びCV6−(k+3)と配信画像データPVVARH−iとを比較し、配信画像データCV6−(k+1),CV6−(k+2),及びCV6−(k+3)の中から画像データPVV−i内における画像表示装置1mの表示画面に最も近い表示内容を持ったもの(例えば、画像データCV6−(k+1)とする)を選択する。そして、CPU41は、この選択した配信画像データCV6−(k+1)が取得された時刻tSELと時刻tBASISとの間の時間差Δt(Δt=tBASIS−tSEL)を求める。
FIG. 11 is a flowchart showing the operation of this embodiment. In the present embodiment, the
端末装置20nのCPU41は、時間差算出処理において時間差Δtを算出した後、表示制御処理を開始する(S161a)。ステップS161aの表示制御処理では、CPU41は、上記時間差Δtが短縮されるように撮影画像データPV−iと配信画像データCV6−kとの間の時間軸上の位置関係を調整し、時間軸上の位置関係を調整した撮影画像データPV−iと配信画像データCV6−kとを用いて上述した合成画像データWV−kの生成を行う。より具体的には、時間差Δtの符号が負である場合(時刻tSELが時刻tBASISよりも早かった場合)と時間差Δtの符号が正である場合(時刻tSELが時刻tBASISよりも遅かった場合)の各々において、次のような処理を行う。
a4.時間差Δtの符号が負である場合
この場合、図13(A)に示すように、カメラ34が撮影画像データPV−iを出力する度に、その最新の撮影画像データPV−iと、最新の撮影画像データPV−iよりも時間差Δtだけ後に取得された配信画像データCV6−kとを組とする。そして、各組の各々について、上述した第1乃至第5の処理と同様の処理を行う。
b4.時間差Δtの符号が正である場合
この場合、図13(B)に示すように、カメラ34が撮影画像データPV−iを出力する度に、その最新の撮影画像データPV−iよりも時間差Δtだけ先に取得された撮影画像データPV−iと、最新の配信画像データCV6−kとを組にする。そして、各組の各々について、上述した第1乃至第5の処理と同様の処理を行う。
After calculating the time difference Δt in the time difference calculation process, the
a4. When the sign of the time difference Δt is negative In this case, as shown in FIG. 13A, every time the
b4. When the sign of the time difference Δt is positive In this case, as shown in FIG. 13B, every time the
図11において、CPU41は、ステップS150bの処理の開始後に時間差算出処理を行い(S151b)、この時間差算出処理の実行後に表示制御処理(S161b)を行う。ステップS151b及びステップS161bの処理内容はステップS151a及びステップS161aの処理内容と同様である。
In FIG. 11, the
本実施形態によると、CPU41は、時間差Δtが短縮されるように撮影画像データPV−iと配信画像データCVm−kとの間の時間軸上の位置関係を調整する。よって、タッチパネルディスプレイ31の表示画像内における画像表示装置1mの表示画像の表示内容とその装置1mが現に表示している表示画像の表示内容との間のずれの発生を防止することができる。
According to the present embodiment, the
以上、この発明の第1及び第2実施形態について説明したが、この発明には他にも実施形態があり得る。例えば、以下の通りである。
(1)上記第1及び第2実施形態では、サーバ装置50から画像表示装置1mに送信される配信画像データCVm−k(k=1,2…N)の全てがQRコードの画像を一部に含んだものであった。しかし、配信画像データCVm−k(k=1,2…N)のうちの少なくとも1つにQRコードが含まれていればよい。例えば、先頭の数フレーム分の画像データCVm−kのみをQRコードを含んだものとしてもよい。この場合において、端末装置20nのCPU41は、その先頭の数フレームに後続するフレームの画像データCVm−kについても同じ位置にQRコードがあるとみなして、撮影画像データPV−iが示す画像内における画像表示装置1mの表示画像の探索を行ってもよい。この技術的手段によると、先頭の数フレームを用いた画像表示装置1mの表示画像の探索の完了後にカメラ34のアングルが多少変わっても、画像表示装置1mの表示画像の位置を捕捉することができる。
Although the first and second embodiments of the present invention have been described above, there may be other embodiments in the present invention. For example, it is as follows.
(1) In the first and second embodiments, all of the distribution image data CV m -k (k = 1, 2,... N) transmitted from the server device 50 to the image display device 1 m are images of QR codes. It was included in part. However, it is only necessary that the QR code is included in at least one of the distribution image data CV m -k (k = 1, 2,... N). For example, only the first few frames of image data CV m -k may include a QR code. In this case, the
(2)上記第1及び第2実施形態において、サーバ装置50は、画像表示装置1mと端末装置20nに送信する配信画像データCVm−kの解像度を各々のタッチパネルディスプレイ31の解像度に合わせて変換した上でその送信を行ってもよい。例えば、画像表示装置1mの画像表示面の縦横の画素数が1024×768であり、端末装置20nのタッチパネルディスプレイ31の縦横の画素数が800×600である場合は、元の配信画像データCVm−kの解像度を800×600に変換したものを端末装置20nに送信するとよい。また、端末装置20nのCPU41は、サーバ装置50から送られてくる動画像コンテンツCNTmの配信画像データCVm−kの解像度とタッチパネルディスプレイ31の解像度が異なる場合には、配信画像データCVm−kの解像度をタッチパネルディスプレイ31の解像度に合わせる解像度変換を配信画像データCVm−kに施した後に合成画像データWV−kを生成してもよい。
(2) In the first and second embodiments, the server device 50 matches the resolution of the distribution image data CV m -k transmitted to the image display device 1 m and the
(3)上記第1及び第2実施形態において、画像表示装置1mの筺体2における画像表示面の外の近傍の所定の位置にQRコードを記しておいてもよい。この場合において、端末装置20nのCPU41は、カメラ34の撮影画像データPV−iから画像表示面の外の位置にあるQRコードの抽出を試み、撮影画像データPV−iが表す画像においてQRコードと所定の位置関係にある領域を解析対象領域ARHにするとよい。
(3) In the first and second embodiments, a QR code may be written at a predetermined position near the outside of the image display surface in the
(4)上記第1実施形態において、サーバ装置50が、配信画像データCVm−kと同期再生する情報(例えば、端末装置20nのタッチパネルディスプレイ31の表示画像内における画像表示装置1mの表示画像の近傍の位置に表示させるテキスト情報やスピーカ32から放音させる音声情報:以下、これらの情報を付加情報という)を端末装置20nに送信してもよい。この場合において、端末装置20nのCPU41は、付加情報に含まれるテキスト情報を合成画像データWV−kが表す画像の一部としてタッチパネルディスプレイ31に表示させ、付加情報に含まれる音声情報をスピーカ32から放音させるとよい。また、第2実施形態では、付加情報に含まれるテキスト情報の表示時刻や音声情報の放音時刻を時間差Δtに基づいて調整するとよい。
(4) In the first embodiment, information that the server device 50 reproduces in synchronization with the distribution image data CV m -k (for example, display of the image display device 1 m in the display image of the
(5)上記第1及び第2実施形態は、本発明をスマートフォンである端末装置20nに適用したものであった。しかし、本発明の適用の対象となる装置はスマートフォンに限られない。例えば、通信機能を搭載したビデオカメラに本発明を適用してもよい。この場合において、ビデオカメラ内のCPUが生成した一連の合成画像データWV−kをビデオカメラ内のハードディスクに記憶させ、ハードディスク内の合成画像データWV−kを映像出力端子を介して外部のディスプレイに出力するようにしてもよい。
(5) the first and second embodiments were those of the present invention is applied to the
(6)上記第1及び第2実施形態では、画像データPVARH−iが示す画像の特徴点P及び画像データCVm−kが示す画像の特徴点Pを得るための解析アルゴリズムとしてSIFTを採用した。しかし、SIFT以外の解析アルゴリズム(例えば、SURF((Speeded Up Robust Features))を採用してもよい。 (6) In the first and second embodiments, SIFT is employed as an analysis algorithm for obtaining the feature point P of the image indicated by the image data PV ARH -i and the feature point P of the image indicated by the image data CV m -k. did. However, analysis algorithms other than SIFT (for example, SURF ((Speeded Up Robust Features)) may be adopted.
(7)上記第1及び第2実施形態において、端末装置20nの利用者が、自身の前方の複数個の画像表示装置1m(例えば、画像表示装置18及び19とする)がカメラ34の撮影範囲内に収まるようして撮影を行っている場合には、撮影画像データPV−iにおける画像表示装置18の表示画像と画像表示装置19の表示画像を各々に送信されているものと同じ画像データCVm’−kが表す画像に差替えた合成画像データWV−kを生成してもよい。この場合において、合成画像データWV−kにおける画像表示装置18または19の表示画面があまりに小さい場合は、差替えによる画質の向上が期待できないため、小さい方の表示画面の差替えを行わないようにしてもよい。
(7) In the first and second embodiments, the user of the
(8)上記第1及び第2実施形態では、端末装置20は、QRコードと、当該端末装置20のカメラ34の位置及び撮影方向と、のうちの一方から撮影画像データPV−iが表す画像に写っている画像表示装置1mを特定した。しかし、GPSセンサ35,方位角センサ36,仰俯角センサ37やその他の各種センサにより検出される物理量のみを用いて、撮影画像データPV−iが表す画像に写っている画像表示装置1mを特定してもよい。
(8) In the first and second embodiments, the
(9)上記第1及び第2実施形態において、撮影画像データPV−iが表す画像に写っている画像表示装置1mを特定するためのマークとして、画像表示装置1mの近傍に配置された看板を利用し、撮影画像データPV−iが示す画像から抽出した看板の画像から当該撮影画像データPV−iが表す画像に写っている画像表示装置1mを特定してもよい。 (9) In the first and second embodiments, as a mark for specifying the image display device 1 m shown in the image represented by the captured image data PV-i, the mark is arranged in the vicinity of the image display device 1 m . utilizing signboard may specify the image display device 1 m from billboard images extracted from the image represented by the captured image data PV-i is reflected in the image represented by the captured image data PV-i.
(10)上記第1及び第2実施形態では、撮影画像データPV−i及び配信画像データCVm−kの取得から合成画像データWV−kの生成に至るまでの処理を端末装置20のCPU39が行った。しかし、この処理を端末装置20と移動体通信網91及びインターネット92を介して接続された他の装置が行ってもよい。例えば、端末装置20がそのカメラ34の撮影結果である撮影画像データPV−iをサーバ装置50に送信し、サーバ装置50がこの撮影画像データPV−iから合成画像データWV−kを生成して端末装置20へ返信し、端末装置20が当該合成画像データWV−kが表す画像をタッチパネルディスプレイ31に表示させてもよい。
(10) In the first and second embodiments, the
1…画像表示装置、2…筐体、20…端末装置、21,22,23,24…開口、31…タッチパネルディスプレイ、32…スピーカ、33…マイクロホン、34…カメラ、35…GPSセンサ、36…方位角センサ、37…仰俯角センサ、38…無線通信部、50…サーバ装置、39,59…制御部、41,61…CPU、42,62…RAM、43,63…ROM、64…ハードディスク、65…NIC、91…移動体通信網、92…インターネット。
DESCRIPTION OF SYMBOLS 1 ... Image display apparatus, 2 ... Housing | casing, 20 ... Terminal device, 21, 22, 23, 24 ... Opening, 31 ... Touch panel display, 32 ... Speaker, 33 ... Microphone, 34 ... Camera, 35 ... GPS sensor, 36 ...
Claims (8)
前記撮影画像取得手段により取得した一連の撮影画像データが表す画像に写っている画像表示装置であって、前記撮影画像データが表す画像から抽出されるマーカと前記カメラの位置および撮影方向との少なくとも一方によって特定される画像表示装置へ配信される一連の配信画像データを要求するメッセージを前記サーバ装置に送り、このメッセージを受けたことを契機として前記サーバ装置から送られてくる一連の配信画像データを取得する配信画像取得手段と、
前記撮影画像取得手段により取得した一連の撮影画像データの各々と前記配信画像取得手段により取得した一連の撮影画像データの各々とを比較し、この比較の結果に基づいて当該一連の撮影画像データの表す画像に写っている画像表示装置の表示画像を画像表示装置毎に特定し、当該一連の撮影画像データにおける画像表示装置の表示画像を前記配信画像取得手段により取得した一連の配信画像データのうちの該当するものの表す画像に差替えて合成画像データを生成し、当該合成画像データが表す画像を表示装置に表示させる表示制御手段と
を具備することを特徴とする表示制御装置。 Shooting to acquire a series of captured image data obtained by capturing a shooting range including at least one of a plurality of image display devices that display moving images according to a series of distribution image data transmitted from the server device. Image acquisition means;
An image display device shown in an image represented by a series of photographed image data acquired by the photographed image acquisition means, wherein at least a marker extracted from an image represented by the photographed image data, a position of the camera, and a photographing direction A series of distribution image data sent from the server apparatus when a message requesting a series of distribution image data distributed to the image display apparatus specified by one side is sent to the server apparatus. Distribution image acquisition means for acquiring
Each of the series of captured image data acquired by the captured image acquisition unit is compared with each of the series of captured image data acquired by the distribution image acquisition unit, and based on the result of this comparison, Among the series of distribution image data obtained by specifying the display image of the image display apparatus shown in the image to be displayed for each image display apparatus and acquiring the display image of the image display apparatus in the series of photographed image data by the distribution image acquisition means A display control device comprising: display control means for generating composite image data by replacing the image represented by the corresponding image, and displaying the image represented by the composite image data on the display device.
前記表示制御手段は、前記時間差が短縮されるように前記撮影画像取得手段により取得される撮影画像データと前記配信画像取得手段により取得される配信画像データとの間の時間軸上の位置関係を調整し、時間軸上の位置関係を調整した撮影画像データと配信画像データとを用いて前記合成画像データの生成を行うことを特徴とする請求項1に記載の表示制御装置。 The photographic image data in the series of photographic image data acquired by the photographic image acquisition means is taken as time difference detection photographic image data, and the distribution image is received during a predetermined time length including the acquisition time of the time difference detection photographic image data. From among a plurality of distribution image data acquired by the acquisition means, select distribution image data having a display content closest to the display image of the image display device shown in the image represented by the time difference detection image data, Comprising a time difference calculating means for calculating a time difference between the acquisition time of the selected distribution image data and the acquisition time of the time difference detection photographic image data;
The display control unit determines a positional relationship on the time axis between the captured image data acquired by the captured image acquisition unit and the distribution image data acquired by the distribution image acquisition unit so that the time difference is shortened. The display control apparatus according to claim 1, wherein the composite image data is generated using the captured image data adjusted and the positional relationship on the time axis adjusted, and the distribution image data.
表示手段と、
前記カメラにより取得した一連の撮影画像データが表す画像に写っている画像表示装置であって、前記撮影画像データが表す画像から抽出されるマーカと前記カメラの位置および撮影方向との少なくとも一方によって特定される画像表示装置へ配信される一連の配信画像データを要求するメッセージを前記サーバ装置に送り、このメッセージを受けたことを契機として前記サーバ装置から送られてくる一連の配信画像データを取得する配信画像取得手段と、
前記カメラにより取得した一連の撮影画像データの各々と前記配信画像取得手段により取得した一連の配信画像データの各々とを比較し、この比較の結果に基づいて当該一連の撮影画像データの表す画像に写っている画像表示装置の表示画像を画像表示装置毎に特定し、当該一連の撮影画像データにおける画像表示装置の表示画像を前記配信画像取得手段により取得した一連の配信画像データのうちの該当するものの表す画像に差替えて合成画像データを生成し、当該合成画像データが表す画像を表示手段に表示させる表示制御手段と
を具備することを特徴とする端末装置。 A camera,
Display means;
An image display device that is shown in an image represented by a series of captured image data acquired by the camera, and is identified by at least one of a marker extracted from the image represented by the captured image data, the position of the camera, and the imaging direction A message requesting a series of delivery image data to be delivered to the image display device to be sent is sent to the server device, and a series of delivery image data sent from the server device is acquired when this message is received Delivery image acquisition means;
Each of the series of captured image data acquired by the camera is compared with each of the series of distribution image data acquired by the distribution image acquisition means, and based on the result of this comparison, an image represented by the series of captured image data is obtained. A display image of the image display device that is shown is identified for each image display device, and the display image of the image display device in the series of photographed image data corresponds to the series of distribution image data acquired by the distribution image acquisition means. A terminal device comprising: display control means for generating composite image data in place of an image represented by a thing, and causing the display means to display an image represented by the composite image data.
(B)複数の画像表示装置と、
(C)前記複数の画像表示装置の各々に表示させる動画を表す一連の画像データを画像表示装置毎に記憶したサーバ装置と、
(D)前記カメラにより撮影して得られる一連の撮影画像データの表す画像を前記表示手段に表示させる際の表示制御を行う表示制御装置であって、
前記複数の画像表示装置の少なくとも1つを含む撮影範囲を前記端末装置のカメラにより撮影して得られる一連の撮影画像データが表す画像に写っている画像表示装置であって、前記撮影画像データが表す画像から抽出されるマーカと前記カメラの位置および撮影方向との少なくとも一方によって特定される画像表示装置へ配信される一連の配信画像データを要求するメッセージを前記サーバ装置に送り、このメッセージを受けたことを契機として前記サーバ装置から送られてくる一連の配信画像データの各々と当該一連の撮影画像データの各々とを比較し、この比較の結果に基づいて当該一連の撮影画像データの表す画像に写っている画像表示装置の表示画像を特定し、当該一連の撮影画像データにおける画像表示装置の表示画像を前記サーバ装置から取得した一連の配信画像データのうちの該当するものの表す画像に差替えて合成画像データを生成し、当該合成画像データの表す画像を前記端末装置の表示手段に表示させる表示制御装置と
を具備することを特徴とする通信システム。 (A) a terminal device having a camera and display means;
(B) a plurality of image display devices;
(C) a server device that stores a series of image data representing a moving image to be displayed on each of the plurality of image display devices for each image display device;
(D) a display control device that performs display control when displaying on the display means an image represented by a series of captured image data obtained by photographing with the camera;
An image display device showing an image represented by a series of photographed image data obtained by photographing a photographing range including at least one of the plurality of image display devices with a camera of the terminal device, wherein the photographed image data is A message requesting a series of distribution image data to be distributed to the image display device specified by at least one of the marker extracted from the image to be displayed and the position and shooting direction of the camera is sent to the server device, and this message is received. In response to this, each of the series of delivery image data sent from the server device is compared with each of the series of photographed image data, and the image represented by the series of photographed image data based on the result of the comparison The image displayed on the image display device is identified, and the image displayed on the image display device in the series of photographed image data is determined as the support image. A display control device that generates composite image data by replacing the image represented by the corresponding one of the series of distribution image data acquired from the device, and displays the image represented by the composite image data on the display unit of the terminal device; A communication system comprising:
サーバ装置から送信される一連の配信画像データに従って動画像を表示する複数の画像表示装置のうちの少なくとも1つを含む撮影範囲内をカメラにより撮影して得られる一連の撮影画像データを取得する撮影画像取得手段と、
前記撮影画像取得手段により取得した一連の撮影画像データから抽出されるマーカと前記カメラの位置および撮影方向との少なくとも一方から当該一連の撮影画像データの表す画像に写っている画像表示装置を特定し、当該画像表示装置に向けて配信される一連の配信画像データを要求するメッセージを前記サーバ装置に送り、このメッセージを受けたことを契機として前記サーバ装置から送られてくる一連の配信画像データを取得する配信画像取得手段と、
前記撮影画像取得手段により取得した一連の撮影画像データの各々と前記配信画像取得手段により取得した一連の配信画像データの各々とを比較し、この比較の結果に基づいて当該一連の撮影画像データの表す画像に写っている画像表示装置の表示画像を画像表示装置毎に特定し、当該一連の撮影画像データにおける画像表示装置の表示画像を前記配信画像取得手段により取得した一連の配信画像データのうちの該当するものの表す画像に差替えて合成画像データを生成し、当該合成画像データが表す画像を表示装置に表示させる表示制御手段と
として機能させることを特徴とするプログラム。
Computer
Shooting to acquire a series of captured image data obtained by capturing a shooting range including at least one of a plurality of image display devices that display moving images according to a series of distribution image data transmitted from the server device. Image acquisition means;
An image display device that is reflected in an image represented by the series of photographed image data is identified from at least one of a marker extracted from the series of photographed image data acquired by the photographed image acquisition unit and the position and direction of the camera. A message requesting a series of distribution image data to be distributed to the image display device is sent to the server device, and a series of distribution image data sent from the server device when the message is received Distribution image acquisition means for acquiring;
Each of the series of captured image data acquired by the captured image acquisition unit is compared with each of the series of distribution image data acquired by the distribution image acquisition unit, and based on the comparison result, Among the series of distribution image data obtained by specifying the display image of the image display apparatus shown in the image to be displayed for each image display apparatus and acquiring the display image of the image display apparatus in the series of photographed image data by the distribution image acquisition means A program that generates composite image data by replacing an image represented by the corresponding image, and functions as display control means for displaying the image represented by the composite image data on a display device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011071595A JP2012208558A (en) | 2011-03-29 | 2011-03-29 | Display control apparatus, terminal device, communication system, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011071595A JP2012208558A (en) | 2011-03-29 | 2011-03-29 | Display control apparatus, terminal device, communication system, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012208558A true JP2012208558A (en) | 2012-10-25 |
Family
ID=47188269
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011071595A Withdrawn JP2012208558A (en) | 2011-03-29 | 2011-03-29 | Display control apparatus, terminal device, communication system, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012208558A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014096780A (en) * | 2012-10-11 | 2014-05-22 | Casio Comput Co Ltd | Information output device and program |
JP2014106490A (en) * | 2012-11-29 | 2014-06-09 | Buffalo Inc | Code image processing system, code image display apparatus, image display apparatus, and program |
CN104714720A (en) * | 2014-12-30 | 2015-06-17 | 上海孩子国科教设备有限公司 | Method for achieving self scanning and client terminal |
CN112639681A (en) * | 2018-08-23 | 2021-04-09 | 苹果公司 | Method and apparatus for process data sharing |
-
2011
- 2011-03-29 JP JP2011071595A patent/JP2012208558A/en not_active Withdrawn
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014096780A (en) * | 2012-10-11 | 2014-05-22 | Casio Comput Co Ltd | Information output device and program |
JP2014106490A (en) * | 2012-11-29 | 2014-06-09 | Buffalo Inc | Code image processing system, code image display apparatus, image display apparatus, and program |
CN104714720A (en) * | 2014-12-30 | 2015-06-17 | 上海孩子国科教设备有限公司 | Method for achieving self scanning and client terminal |
CN104714720B (en) * | 2014-12-30 | 2017-12-12 | 上海孩子国科教设备有限公司 | To realize the method and client of itself scanning |
CN112639681A (en) * | 2018-08-23 | 2021-04-09 | 苹果公司 | Method and apparatus for process data sharing |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230037595A1 (en) | Image management system, image management method, and computer program product | |
US9661214B2 (en) | Depth determination using camera focus | |
US9159169B2 (en) | Image display apparatus, imaging apparatus, image display method, control method for imaging apparatus, and program | |
CN108154058B (en) | Graphic code display and position area determination method and device | |
US20190333478A1 (en) | Adaptive fiducials for image match recognition and tracking | |
CN112243583B (en) | Multi-endpoint mixed reality conference | |
US9591149B2 (en) | Generation of a combined image of a presentation surface | |
WO2019015405A1 (en) | Virtual prop allocation method, server, client and storage medium | |
US10347298B2 (en) | Method and apparatus for smart video rendering | |
JP6046874B1 (en) | Information processing apparatus, information processing method, and program | |
CN110089117B (en) | Processing and formatting video for interactive presentation | |
JPWO2012049941A1 (en) | Moving image distribution system and moving image distribution method | |
JP2012208558A (en) | Display control apparatus, terminal device, communication system, and program | |
US10600060B1 (en) | Predictive analytics from visual data | |
JP2017163195A (en) | Image processing system, program, and image processing method | |
JP6617547B2 (en) | Image management system, image management method, and program | |
JP2016194783A (en) | Image management system, communication terminal, communication system, image management method, and program | |
JP2016194784A (en) | Image management system, communication terminal, communication system, image management method, and program | |
JP2007526680A (en) | Method and apparatus for formatting and displaying content | |
JP2013214158A (en) | Display image retrieval device, display control system, display control method, and program | |
JP6265524B2 (en) | POSITION INFORMATION USAGE SYSTEM, INFORMATION PROCESSING METHOD, AND PROGRAM | |
US9058674B1 (en) | Enhancing resolution of single images | |
JP2017182548A (en) | Image management system, image management method, image communication system, and program | |
WO2019198261A1 (en) | System for controlling display device on basis of identified capture range | |
KR101572349B1 (en) | Voting system and object presence system using computing device and operatiog method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140603 |