JP2013214158A - Display image retrieval device, display control system, display control method, and program - Google Patents

Display image retrieval device, display control system, display control method, and program Download PDF

Info

Publication number
JP2013214158A
JP2013214158A JP2012083241A JP2012083241A JP2013214158A JP 2013214158 A JP2013214158 A JP 2013214158A JP 2012083241 A JP2012083241 A JP 2012083241A JP 2012083241 A JP2012083241 A JP 2012083241A JP 2013214158 A JP2013214158 A JP 2013214158A
Authority
JP
Japan
Prior art keywords
image
specific
information
display
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012083241A
Other languages
Japanese (ja)
Inventor
Mitsuhiro Wagatsuma
光洋 我妻
Toshihiro Nakae
俊博 中江
Koichi Nishio
浩一 西尾
Naoya Miyashita
直也 宮下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Comware Corp
Original Assignee
NTT Comware Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Comware Corp filed Critical NTT Comware Corp
Priority to JP2012083241A priority Critical patent/JP2013214158A/en
Publication of JP2013214158A publication Critical patent/JP2013214158A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To enable a moving image to be displayed as information associated with a photographing position without downloading a large file.SOLUTION: A display image retrieval device comprises: an image feature amount calculation unit 23 that calculates a photographed image feature amount indicating a feature of a photographed image on the basis of image data of the photographed image; an image feature amount comparison unit 26 that acquires specific area information indicating a specific area with a feature matching or similar to that of a specific image in the photographed image on the basis of specific image feature amount information indicating the feature of the specific image and the photographed image feature amount; and a specific image motion setting unit 31 that outputs motion information for controlling a movement of a motion image included in the specific area and the specific area information to a display unit 15.

Description

本発明は、撮影した撮影画像に応じたコンテンツを検索し、検索により得たコンテンツを表示部に表示させる表示画像検索装置、表示制御システム、表示制御方法、およびプログラムに関する。   The present invention relates to a display image search device, a display control system, a display control method, and a program that search for content corresponding to a captured image and display the content obtained by the search on a display unit.

仮想現実感(VR:Virtual Reality)技術を利用して、ユーザの存在する実空間を、ユーザ視点で表示された仮想空間によって表現して携帯端末に表示するシステムがある。
また、拡張現実感(AR:Augmented Reality)技術を利用して、ユーザの現在の位置を示す位置情報とこの位置でモバイルデバイスが撮影した画像に基づき、この撮影した位置に関連付けられた情報を、撮影した画像とともにモバイルデバイスに表示させ、ユーザに提供するシステムがある。この拡張現実感技術を利用したシステムとしては、セカイカメラ(Tonchidot Corporation, http://sekaicamera.com/ )やLayar( http://layar.com/ )などがあり、注目を集めている。
There is a system that uses a virtual reality (VR) technology to display a real space in which a user exists in a virtual space displayed from a user viewpoint and displays the real space on a mobile terminal.
Also, using augmented reality (AR) technology, based on position information indicating the current position of the user and an image captured by the mobile device at this position, information associated with the captured position is obtained. There is a system in which a captured image is displayed on a mobile device and provided to a user. As a system using this augmented reality technology, there are Sekai Camera (Tonchidot Corporation, http://secamera.com/) and Layar (http://layer.com/), which are attracting attention.

例えば、拡張現実感技術を利用した技術として、二次元バーコード等のマーカを撮影し、当該二次元バーコードと一意に関連付けられたコンテンツを撮影した画像に合成して表示させるものがある(例えば、特許文献1参照)。
また、撮影した画像データの内容を認識する画像認識装置として、撮影された位置に応じて、撮影された画像データの内容を表わすキーワードを抽出するものがある(例えば、特許文献2参照)。
For example, as a technique using augmented reality technology, a marker such as a two-dimensional barcode is photographed, and a content uniquely associated with the two-dimensional barcode is synthesized and displayed on the photographed image (for example, , See Patent Document 1).
Further, as an image recognition device that recognizes the content of captured image data, there is a device that extracts a keyword representing the content of captured image data according to the captured position (see, for example, Patent Document 2).

特開2008−249407号公報JP 2008-249407 A 特開2007−41762号公報JP 2007-41762 A

上述のように、AR技術を利用することで、撮影した位置に関連付けられた情報を撮影した画像とともに、撮影した位置に関連付けられた情報を表示させることができる。撮影した位置に関連付けられた情報として動画情報が表示できると、ユーザが撮影した画像に重畳される動画を見ながら、数々の仮想体験を味わうことができ、ユーザの楽しみも向上する。   As described above, by using the AR technology, it is possible to display information associated with the taken position together with an image obtained by photographing information associated with the taken position. If moving image information can be displayed as information associated with a captured position, a user can enjoy a number of virtual experiences while viewing the moving image superimposed on the image captured by the user, and the user's enjoyment is also improved.

しかしながら、撮影した位置に関連付けられた情報として動画を表示させるためには、動画ファイルをダウンロードする必要がある。動画ファイルはデータ容量が大きく、モバイルデバイスで動画ファイルをダウンロードすると、ネットワークのトラフィックに対する負担が大きい。また、動画をダウンロードするには多くの時間を必要とし、モバイルデバイス上で動画が動き出すまでに、時間がかかってしまう。   However, in order to display a moving image as information associated with the shooting position, it is necessary to download a moving image file. Video files have a large data capacity, and downloading video files on mobile devices places a heavy burden on network traffic. Also, it takes a lot of time to download a video, and it takes time for the video to start moving on the mobile device.

また、撮影した位置に関連付けられた情報を撮影した画像とともに、撮影した位置に関連付けられた情報を表示させる場合に、動画ファイルをダウンロードして撮影した画像に重畳表示するようにすると、照明環境などの影響により、撮影された画像とダウンロードした画像とで色が異なってしまうことが多い。   In addition, when displaying the information associated with the taken position together with the image taken with the information associated with the taken position, if a video file is downloaded and superimposed on the taken image, the lighting environment, etc. In many cases, the color of a captured image differs from that of a downloaded image due to the influence of the above.

上述の課題を鑑み、本発明は、大容量のファイルをダウンロードすることなく、撮影した位置に関連付けられた情報として動きのある画像を表示することができる表示画像検索装置、表示制御システム、表示制御方法、およびプログラムを提供することを目的とする。   In view of the above-described problems, the present invention provides a display image search device, a display control system, and display control that can display a moving image as information associated with a captured position without downloading a large-capacity file. It is an object to provide a method and a program.

上述の課題を解決するために、本発明に係る表示画像検索装置は、撮影部が撮影した撮影画像の画像データを入力する入力部と、前記画像データに基づき、当該撮影画像の特徴を示す撮影画像特徴量を算出する画像特徴量算出部と、検索対象である特定画像の特徴を示す特定画像特徴量情報と前記撮影画像特徴量に基づいて、前記撮影画像において前記特定画像と特徴の一致または類似する特定領域を示す特定領域情報を取得する画像特徴量比較部と、前記特定領域に含まれる動作画像の動きを制御する動作情報と前記特定領域情報とを表示部へ出力する特定画像動作設定部と、を備える。   In order to solve the above-described problem, a display image search device according to the present invention includes an input unit that inputs image data of a captured image captured by the capturing unit, and a capturing that indicates the characteristics of the captured image based on the image data. Based on the image feature amount calculation unit for calculating the image feature amount, the specific image feature amount information indicating the feature of the specific image that is the search target, and the captured image feature amount, An image feature amount comparison unit that acquires specific region information indicating a similar specific region, a specific image operation setting that outputs motion information for controlling the motion of a motion image included in the specific region and the specific region information to a display unit A section.

上述の表示画像検索装置において、前記特定領域内において前記動作画像に対応する動作画像領域を示す動作画像領域情報および前記動作情報を記憶する記憶部をさらに備え、前記特定画像動作設定部は、前記動作画像が移動して表示される場合に、当該動作画像領域の少なくとも一部に背景画像を合成するための合成情報とを前記表示部に出力する。   In the above-described display image search device, the specific image operation setting unit further includes a storage unit that stores the operation image region information indicating the operation image region corresponding to the operation image in the specific region and the operation information. When the motion image is moved and displayed, synthesis information for synthesizing a background image on at least a part of the motion image area is output to the display unit.

上述の表示画像検索装置において、前記特定画像動作設定部は、前記背景画像の色を示す背景画像色情報と前記撮影画像の色を示す撮影画像色情報に基づいて、前記撮影画像に対応する色に前記背景画像の色を補正するための補正情報を、前記表示部へ出力する。   In the above-described display image search device, the specific image operation setting unit includes a color corresponding to the captured image based on background image color information indicating the color of the background image and captured image color information indicating the color of the captured image. Then, correction information for correcting the color of the background image is output to the display unit.

上述の表示画像検索装置において、前記特定画像動作設定部は、前記動作画像の動きを指示する動作指示情報に基づき、前記動作画像の動きを制御する制御情報を前記表示部に出力する。   In the above-described display image search device, the specific image operation setting unit outputs control information for controlling the movement of the motion image to the display unit based on the operation instruction information for instructing the motion of the motion image.

本発明に係る表示制御システムは、上記のうち一の表示画像検索装置と、前記表示画像検索装置とネットワークを介して接続され、前記撮影部と、前記表示部とを備える表示装置と、を備え、前記表示装置は、前記表示画像検索装置から出力される情報を受信する通信部と、前記表示画像検索装置から受信した前記特定領域情報に基づき前記撮影画像から前記特定領域に含まれる前記動作画像を取得し、前記動作情報に基づき前記動作画像の動きを制御する制御部をさらに備える。   A display control system according to the present invention includes one of the above display image search devices, and a display device that is connected to the display image search device via a network and includes the photographing unit and the display unit. The display device includes a communication unit that receives information output from the display image search device, and the operation image included in the specific region from the captured image based on the specific region information received from the display image search device. And a control unit that controls movement of the motion image based on the motion information.

本発明に係る表示制御方法は、撮影部が撮影した撮影画像に動作する画像を表示させる表示制御方法であって、前記撮影画像の画像データを入力し、前記画像データに基づき、当該撮影画像の特徴を示す撮影画像特徴量を算出し、検索対象である特定画像の特徴を示す特定画像特徴量情報と前記撮影画像特徴量に基づいて、前記撮影画像において前記特定画像と特徴の一致または類似する特定領域を示す特定領域情報を取得し、前記特定領域に含まれる動作画像の動きを制御する動作情報と前記特定領域情報とを表示部へ出力する。   A display control method according to the present invention is a display control method for displaying an image to be operated on a captured image captured by a capturing unit, wherein image data of the captured image is input, and the captured image is captured based on the image data. Based on the specific image feature amount information indicating the feature of the specific image to be searched and the captured image feature amount, the captured image is matched or similar to the specific image. The specific area information indicating the specific area is acquired, and the motion information for controlling the motion of the motion image included in the specific area and the specific area information are output to the display unit.

本発明に係るプログラムは、コンピュータを、撮影部が撮影した撮影画像の画像データを入力する入力手段、前記画像データに基づき、当該撮影画像の特徴を示す撮影画像特徴量を算出する画像特徴量算出手段、検索対象である特定画像の特徴を示す特定画像特徴量情報と前記撮影画像特徴量に基づいて、前記撮影画像において前記特定画像と特徴の一致または類似する特定領域を示す特定領域情報を取得する画像特徴量比較手段、前記特定領域に含まれる動作画像の動きを制御する動作情報と前記特定領域情報とを表示部へ出力する特定画像動作設定手段、として機能させるためのプログラムである。   The program according to the present invention includes an input means for inputting image data of a photographed image photographed by the photographing unit to the computer, and an image feature quantity calculation for computing a photographed image feature quantity indicating the feature of the photographed image based on the image data. Means for acquiring specific region information indicating a specific region having a feature matching or similar to the specific image in the captured image based on the specific image feature amount information indicating the feature of the specific image to be searched and the captured image feature amount; This is a program for functioning as image feature amount comparison means for performing, and as specific image action setting means for outputting the action information for controlling the movement of the action image included in the specified area and the specified area information to the display unit.

本発明によれば、撮影画像の中から登録画像を認識した後に、動画をダウンロードすることなく、撮影画像の一部が動き出したかのような視覚効果を与えることができる。また登録画像の認識後、動画を重畳させるのではなく、動作部分を切り出して動作させることによって、撮影する際の照明環境などの影響で、登録画像と撮影画像の中に写る登録画像領域の色が異なってしまっても撮影画像の一部が動き出したかのような視覚効果を与えることができる。   According to the present invention, it is possible to provide a visual effect as if a part of a captured image starts moving without downloading a moving image after recognizing a registered image from the captured images. In addition, after recognizing the registered image, the color of the registered image area that appears in the registered image and the captured image is affected by the lighting environment at the time of shooting by cutting out the motion part and operating it instead of superimposing the moving image. Even if they are different, it is possible to give a visual effect as if a part of the photographed image has started to move.

また、本発明によれば、撮影画像の一部を切り出して動作させているため、動作範囲は表示部が表示可能な範囲全体に及び、より広い範囲で動作を制御することができる。また、動作画像が描かれていた領域に合成される画像を記憶することによって動作画像が描かれていた領域が欠落してしまうことを防ぎ、また動作画像が描かれていた領域に合成される画像に、他の領域と同じ色変換を施すことによってより、自然に撮影画像の一部が動き出したかのような視覚効果を与えることができる。   Further, according to the present invention, since a part of the captured image is cut out and operated, the operation range covers the entire range that can be displayed by the display unit, and the operation can be controlled in a wider range. In addition, by storing an image to be synthesized in the area where the motion image was drawn, it is possible to prevent the area where the motion image was drawn from being lost, and to be synthesized in the area where the motion image was drawn. By performing the same color conversion on the image as in other areas, it is possible to give a visual effect as if a part of the captured image started to move naturally.

撮影画像の一例を示す図である。It is a figure which shows an example of a picked-up image. 表示の一例を示す図である。It is a figure which shows an example of a display. 表示の他の例を示す図である。It is a figure which shows the other example of a display. 画像検索表示システムの機能ブロック図である。It is a functional block diagram of an image search display system. 特定画像位置テーブルの一例を示す図である。It is a figure which shows an example of a specific image position table. 特定画像データの一例を示す図である。It is a figure which shows an example of specific image data. 撮影画像特徴量の一例を示す図である。It is a figure which shows an example of the picked-up image feature-value. 特定画像特徴量テーブルの一例を示す図である。It is a figure which shows an example of the specific image feature-value table. 位置変換を説明するための参考図である。It is a reference figure for demonstrating position conversion. 特定画像付加情報テーブルの一例を示す図である。It is a figure which shows an example of a specific image additional information table. 特定画像動作情報の一例を示す図である。It is a figure which shows an example of specific image operation information. 動作画像テーブルの一例を示す図である。It is a figure which shows an example of an operation | movement image table. 登録装置の構成の一例を示す図である。It is a figure which shows an example of a structure of a registration apparatus. 登録装置の動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of a registration apparatus. 特定画像に基づき動作画像を作成する場合の一例を説明するための参考図である。It is a reference figure for explaining an example in the case of creating an operation picture based on a specific picture. 登録装置の動作の他の例を示すフローチャートである。It is a flowchart which shows the other example of operation | movement of a registration apparatus. 動作画像と背景画像から特定画像を作成する場合の一例を説明するための参考図である。FIG. 10 is a reference diagram for explaining an example when a specific image is created from an operation image and a background image. 表示制御方法の一例を示すシーケンス図である。It is a sequence diagram which shows an example of the display control method. センサを備えた表示装置の説明図である。It is explanatory drawing of the display apparatus provided with the sensor. 動作の記述の他の例を示す図である。It is a figure which shows the other example of description of operation | movement. 表示制御方法の他の例を示すシーケンス図である。It is a sequence diagram which shows the other example of the display control method. 色補正を説明するための参考図である。It is a reference diagram for explaining color correction.

以下、本発明の一実施形態による画像検索表示システムについて、図面を参照して詳細に説明する。
図1は、撮影画像の一例を示す図である。図1は、表示装置1が撮像した画像である。この画像には、例えば、ある繁華街の風景を写した画像であって、画面右側に大きなビルB1の画像が、画面中央にビルB1よりも小さいビルB2の画像が、それぞれ含まれている。このビルB1には、大型ディスプレイが設置されている。ビルB2には、貸広告を掲示する大きな貸広告スペースが設けられている。
ビルB1の大型ディスプレイには、ネコの画像O1が表示されている。なお、ビルB1の大型ディスプレイは、撮影画像上、右辺が長く、左辺が短く歪んでいる。また、ビル2の貸広告スペースについても撮影画像上、上辺と下辺が湾曲している。
Hereinafter, an image search and display system according to an embodiment of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a diagram illustrating an example of a captured image. FIG. 1 is an image captured by the display device 1. This image includes, for example, an image of a certain downtown area, and includes an image of a large building B1 on the right side of the screen and an image of a building B2 smaller than the building B1 at the center of the screen. A large display is installed in this building B1. Building B2 is provided with a large rental advertisement space for posting rental advertisements.
A cat image O1 is displayed on the large display of the building B1. Note that the large display of the building B1 has a long right side and a short left side that is distorted in the captured image. In addition, regarding the rental advertisement space of the building 2, the upper side and the lower side are curved on the photographed image.

図2は、表示の一例を示す図である。図2の表示は、表示装置1が図1の撮影画像に基づき表示をしたものである。
この図において、ネコの画像O2は、図1のネコの画像O1(動作画像)が動き出し、移動したものである。なお、移動には、動作画像が前に飛び出すような移動、または、後ろに引っ込むような移動(例えば、ビルB1の大型ディスプレイの表示面の法線方向へ移動)も含まれる。このように、画像検索表示システムでは、特定画像(図6(a)のネコの画像)を予め記憶し、表示装置1は、その特定画像に特徴が一致又は類似する動作画像(ネコの画像O1)の動きを制御する。
また、この図において、領域R1は、図1のネコの画像O1が表示されていた領域(動作画像領域)を表す。この領域R1には、画像(図2では、画像bk1の一部)が合成されている。このように、画像検索表示システムでは、特定画像の背景画像(図15(c)参照)を予め記憶し、表示装置1は、動作画像領域に背景画像を合成する。
FIG. 2 is a diagram illustrating an example of display. The display in FIG. 2 is displayed by the display device 1 based on the photographed image in FIG.
In this figure, the cat image O2 is the one in which the cat image O1 (motion image) in FIG. Note that the movement includes a movement such that the motion image jumps forward or a movement that retracts backward (for example, movement in the normal direction of the display surface of the large display of the building B1). Thus, in the image search and display system, a specific image (the cat image in FIG. 6A) is stored in advance, and the display apparatus 1 operates an action image (cat image O1) whose features match or are similar to the specific image. ) Control the movement.
In this figure, a region R1 represents a region (operation image region) where the cat image O1 of FIG. 1 was displayed. In this region R1, an image (a part of the image bk1 in FIG. 2) is synthesized. Thus, in the image search / display system, the background image of the specific image (see FIG. 15C) is stored in advance, and the display device 1 synthesizes the background image in the motion image area.

図3は、表示の他の例を示す図である。図3の表示は、表示装置1が図1の撮影画像に基づき表示をしたものである。
この図において、ネコの画像O3は、図2のネコの画像O2がさらに移動するとともに、拡大・縮小、および回転をしたものである。また、回転には、画面の法線を回転軸とするものや、画面内の軸を回転軸とするものが含まれている。このように、動作画像の動きには、例えば、移動、拡大・縮小、および回転が含まれる。
この図において、領域R2は、図2のネコの画像O2が表示されていた領域を表す。例えば、ネコの画像O3は、領域R2からネコの画像O3の位置へ移動し、そこから回転や拡大といった動きをしたものである。
FIG. 3 is a diagram illustrating another example of display. The display in FIG. 3 is displayed by the display device 1 based on the photographed image in FIG.
In this figure, a cat image O3 is obtained by further enlarging / reducing and rotating the cat image O2 of FIG. In addition, the rotation includes those having the normal line of the screen as the rotation axis and those having the axis in the screen as the rotation axis. As described above, the motion of the motion image includes, for example, movement, enlargement / reduction, and rotation.
In this figure, a region R2 represents a region where the cat image O2 of FIG. 2 was displayed. For example, the cat image O3 moves from the region R2 to the position of the cat image O3, and moves from there to rotate or enlarge.

図4は、画像検索表示システムの機能ブロック図である。
図4に示す通り、画像検索表示システムは、表示装置1と表示画像検索装置2を備える。本実施形態において、表示装置1と表示画像検索装置2は、ネットワークNWを介して通信可能に接続されている。
なお、本実施形態では、表示装置1と表示画像検索装置2は、それぞれ異なるデバイスであって、ネットワークNWを経由して接続されている構成を例に以下説明するが、本発明はこれに限られない。例えば、表示装置1が、表示画像検索装置2を内部に備える構成であってもよい。また、ネットワークNWは、有線あるいは無線のいずれであってもよく、例えば、電話回線、インターネット回線、無線LAN通信方式等を利用した通信を行うものであればよい。
FIG. 4 is a functional block diagram of the image search / display system.
As shown in FIG. 4, the image search / display system includes a display device 1 and a display image search device 2. In the present embodiment, the display device 1 and the display image search device 2 are communicably connected via a network NW.
In the present embodiment, the display device 1 and the display image search device 2 are different devices, and will be described as an example in which the display device 1 and the display image search device 2 are connected via the network NW. However, the present invention is not limited to this. I can't. For example, the display device 1 may include the display image search device 2 inside. The network NW may be either wired or wireless. For example, any network that performs communication using a telephone line, an Internet line, a wireless LAN communication method, or the like may be used.

<表示装置1について>
表示装置1は、例えば、カメラ付き携帯電話や、通信機能付きカメラ等のモバイルデバイスが利用可能である。この表示装置1は、拡張現実感技術を利用して得られるコンテンツを撮影された画像に合成して表示するARモードを設定する機能が搭載されており、以下、このARモードが設定されている場合に利用する機能と動作を中心に説明する。
<About display device 1>
As the display device 1, for example, a mobile device such as a mobile phone with a camera or a camera with a communication function can be used. The display device 1 is equipped with a function for setting an AR mode in which content obtained by using augmented reality technology is combined with a captured image and displayed. This AR mode is set below. The functions and operations used in the case will be mainly described.

表示装置1は、端末制御部11と、撮影部12と、位置情報検出部13と、計時部14と、表示部15と、通信部16と、記憶部17と、操作部18を備える。
撮影部12は、被写体からの光を受光し、受光した光を光電変換して画像データを生成し、出力する。つまり、撮影部12は、被写体を撮影して画像データを出力する。
この撮影部12は、画像データとして、撮影画像データD(n)とリアルタイム再生画像データとを出力する。このリアルタイム再生画像データは、撮影部12が撮影する画像をリアルタイムで表示部15に表示するため撮影部12から出力される画像データである。これにより、ユーザは、表示部15に表示されている画像をみながら、表示部15に表示された被写体を撮影することができる。
一方、撮影画像データD(n)は、リアルタイム再生画像データに基づく画像が表示部15に表示されている状態において、操作部18が入力されたユーザからの撮影指示に基づき、撮影部12が被写体を撮影して得られる画像データである。
The display device 1 includes a terminal control unit 11, a photographing unit 12, a position information detection unit 13, a timing unit 14, a display unit 15, a communication unit 16, a storage unit 17, and an operation unit 18.
The imaging unit 12 receives light from the subject, photoelectrically converts the received light, generates image data, and outputs the image data. That is, the photographing unit 12 photographs a subject and outputs image data.
The photographing unit 12 outputs photographed image data D (n) and real-time reproduction image data as image data. The real-time reproduction image data is image data output from the photographing unit 12 in order to display an image photographed by the photographing unit 12 on the display unit 15 in real time. As a result, the user can take an image of the subject displayed on the display unit 15 while viewing the image displayed on the display unit 15.
On the other hand, when the image based on the real-time reproduction image data is displayed on the display unit 15, the image capturing unit 12 detects the captured image data D (n) based on the image capturing instruction from the user input by the operation unit 18. Is image data obtained by photographing.

位置情報検出部13は、例えば、GPS(Global Positioning System)を利用して、表示装置1が撮影時に存在する位置を示す撮影位置情報P(n)を検出して、出力する。この撮影位置情報P(n)は、例えば、緯度、経度、高度により決定される地球上における絶対的な位置を示す。
なお、本実施形態において、撮影時とは、例えば、操作部18のシャッターボタンをユーザが押下したタイミングであってもよく、撮影画像データD(n)が生成されたタイミングであってもよい。
The position information detection unit 13 uses, for example, GPS (Global Positioning System) to detect and output shooting position information P (n) indicating a position where the display device 1 is present at the time of shooting. The photographing position information P (n) indicates an absolute position on the earth determined by, for example, latitude, longitude, and altitude.
In the present embodiment, the time of shooting may be, for example, the timing when the user presses the shutter button of the operation unit 18 or the timing when the captured image data D (n) is generated.

計時部14は、年月日および時刻を計時しており、撮影時に計時した年月日と時刻を示す撮影日時情報T(n)を出力する。   The timekeeping unit 14 measures the date and time and outputs shooting date / time information T (n) indicating the date and time measured at the time of shooting.

端末制御部11は、表示装置1を統括的に制御する。この端末制御部11は、撮影部12から出力される撮影画像データD(n){n=1,2・・・}に、この撮影画像データD(n)が撮影された位置を示す撮影位置情報P(n)と、この撮影画像データD(n)が撮影された日時を示す撮影日時情報T(n)とを対応付けて、記憶部17に格納する。なお、nは、撮影部12によって撮影された撮影画像データを他の撮影画像データから識別するための識別情報である撮影画像ID(Identification)である。   The terminal control unit 11 comprehensively controls the display device 1. The terminal control unit 11 captures the captured image data D (n) {n = 1, 2...} Output from the capturing unit 12 and indicates the position where the captured image data D (n) is captured. Information P (n) and shooting date / time information T (n) indicating the date / time when the shot image data D (n) was shot are associated with each other and stored in the storage unit 17. Note that n is a captured image ID (Identification) that is identification information for identifying captured image data captured by the capturing unit 12 from other captured image data.

また、端末制御部11は、撮影部12によって連続的に撮影されるリアルタイム再生画像データを端末制御部11から入力し、撮影部12が撮影する画像をリアルタイムで表示部15に表示する。ここで、端末制御部11は、画像の一部(図1では、ネコの画像O1)を切り出し、切り出した画像(動作画像)の動きを制御する(図2、3参照)。また、端末制御部11は、切り出した画像の背景に画像を合成する(図2、3参照)。
具体的には、端末制御部11は、表示画像検索装置2から動作画像領域情報、動作画像、動作情報、および合成情報を取得する。端末制御部11は、取得した動作画像領域情報が示す動作画像領域に、合成情報が示す背景画像を合成する。端末制御部11は、動作情報に基づいて、動作画像の動きを制御する。なお、端末制御部11は、ユーザ操作に基づいて、動作画像の動きを制御してもよい。また、端末制御部11は、撮影画像の動作画像領域から画像を切り出すことで、動作画像を生成してもよい。
In addition, the terminal control unit 11 inputs real-time reproduction image data continuously captured by the imaging unit 12 from the terminal control unit 11 and displays an image captured by the imaging unit 12 on the display unit 15 in real time. Here, the terminal control unit 11 cuts out a part of the image (cat image O1 in FIG. 1) and controls the movement of the cut-out image (motion image) (see FIGS. 2 and 3). Further, the terminal control unit 11 synthesizes an image with the background of the cut image (see FIGS. 2 and 3).
Specifically, the terminal control unit 11 acquires motion image area information, motion images, motion information, and synthesis information from the display image search device 2. The terminal control unit 11 combines the background image indicated by the combination information with the action image area indicated by the acquired action image area information. The terminal control unit 11 controls the motion of the motion image based on the motion information. Note that the terminal control unit 11 may control the movement of the motion image based on a user operation. In addition, the terminal control unit 11 may generate an operation image by cutting out an image from the operation image area of the captured image.

表示部15は、例えば、液晶ディスプレイ等であって、端末制御部11から入力された情報に基づく画像を表示する。   The display unit 15 is a liquid crystal display, for example, and displays an image based on information input from the terminal control unit 11.

通信部16は、ネットワークNWを介して表示画像検索装置2から送信される情報を受信して端末制御部11に出力し、端末制御部11から入力された情報をネットワークNWを介して表示画像検索装置2に送信する。   The communication unit 16 receives information transmitted from the display image search device 2 via the network NW, outputs the information to the terminal control unit 11, and retrieves the information input from the terminal control unit 11 via the network NW. Transmit to device 2.

記憶部17は、撮影部12によって生成された撮影画像データD(n)と、撮影位置情報P(n)と、撮影日時情報T(n)とを対応付けて記憶する。また、記憶部17は、表示装置1が動作するためのプログラムを記憶する。   The storage unit 17 stores the captured image data D (n) generated by the imaging unit 12, the imaging position information P (n), and the imaging date / time information T (n) in association with each other. The storage unit 17 also stores a program for operating the display device 1.

操作部18は、例えば、電源のON/OFFを入力する電源ボタン、ユーザからの撮影指示を入力するシャッターボタン等を含む。   The operation unit 18 includes, for example, a power button for inputting power ON / OFF, a shutter button for inputting a photographing instruction from the user, and the like.

<表示画像検索装置2について>
表示画像検索装置2は、通信部21と、第1記憶部22と、画像特徴量算出部23と、位置情報比較部24と、第2記憶部25と、画像特徴量比較部26と、画像識別部27と、第3記憶部28と、第4記憶部29と、特定画像付加情報取得部30と、特定画像動作設定部31と、第5記憶部32とを備える。
<About the display image search device 2>
The display image search device 2 includes a communication unit 21, a first storage unit 22, an image feature amount calculation unit 23, a position information comparison unit 24, a second storage unit 25, an image feature amount comparison unit 26, and an image. An identification unit 27, a third storage unit 28, a fourth storage unit 29, a specific image additional information acquisition unit 30, a specific image operation setting unit 31, and a fifth storage unit 32 are provided.

通信部21は、表示装置1との間で情報の入出力を行うインターフェースであって、ネットワークNWを介して表示装置1から送信される撮影画像データD(n)と、撮影位置情報P(n)と、撮影日時情報T(n)を受信する。この通信部21は、撮影画像データD(n)を画像特徴量算出部23および特定画像動作設定部31に、撮影位置情報P(n)を位置情報比較部24と特定画像付加情報取得部30に、撮影日時情報T(n)を特定画像付加情報取得部30に、それぞれ出力する。また、通信部21は、特定画像動作設定部31から入力された動作データを、ネットワークNWを介して表示装置1に送信する。
なお、通信部21は、本実施形態のように、表示装置1と表示画像検索装置2とがネットワークNWを介して接続されている場合、上述のように表示装置1と情報の送受信を行う機能を有する。一方、図示しないが、表示画像検索装置2が表示装置1に内蔵されている場合、表示装置1と情報の入出力を行う機能を有する。つまり、通信部21は、表示装置1から情報を入力する入力部、および、表示装置1(表示部15)へ情報を出力する出力部として機能する。
The communication unit 21 is an interface for inputting / outputting information to / from the display device 1, and the captured image data D (n) transmitted from the display device 1 via the network NW and the captured position information P (n ) And shooting date / time information T (n). The communication unit 21 uses the photographed image data D (n) as the image feature amount calculation unit 23 and the specific image operation setting unit 31, and the photographing position information P (n) as the position information comparison unit 24 and the specific image additional information acquisition unit 30. In addition, the shooting date / time information T (n) is output to the specific image additional information acquisition unit 30, respectively. The communication unit 21 transmits the operation data input from the specific image operation setting unit 31 to the display device 1 via the network NW.
Note that, when the display device 1 and the display image search device 2 are connected via the network NW as in the present embodiment, the communication unit 21 functions to transmit and receive information to and from the display device 1 as described above. Have On the other hand, although not shown, when the display image search device 2 is built in the display device 1, it has a function of inputting / outputting information to / from the display device 1. That is, the communication unit 21 functions as an input unit that inputs information from the display device 1 and an output unit that outputs information to the display device 1 (display unit 15).

第1記憶部22は、例えば表示画像検索装置2の管理者により予め登録された特定画像位置テーブル220を記憶する。
この特定画像位置テーブル220は、図5に示す通り、特定画像IDと、特定画像に関連する付加情報を提供可能な位置を示す特定画像位置情報とを対応付けるテーブルである。この特定画像位置情報は、緯度と、経度と、高度と、位置誤差許容距離を示す情報を含む。
特定画像IDは、特定画像を識別するための識別情報である。なお、この特定画像IDが割り当てられている特定画像データは、この特定画像IDと対応付けて第1記憶部22に格納されている。
The first storage unit 22 stores a specific image position table 220 registered in advance by an administrator of the display image search device 2, for example.
As shown in FIG. 5, the specific image position table 220 is a table that associates a specific image ID with specific image position information indicating a position where additional information related to the specific image can be provided. The specific image position information includes information indicating latitude, longitude, altitude, and position error allowable distance.
The specific image ID is identification information for identifying the specific image. Note that the specific image data to which the specific image ID is assigned is stored in the first storage unit 22 in association with the specific image ID.

例えば、第1記憶部22は、図6に示すような、特定画像ID1、2、3の特定画像データ100、200、300を格納している。
図6(a)に示す通り、特定画像データ100は、特定画像ID1が割り当てられており、ネコの画像である。
また、図6(b)に示す通り、特定画像データ200は、特定画像ID2が割り当てられており、イヌの画像である。
さらに、図6(c)に示す通り、特定画像データ300は、特定画像ID3が割り当てられており、ロケットの画像である。
図6(a)〜(c)の特定画像データは、それぞれ、特徴点やその特徴点の特徴量が異なる。
For example, the first storage unit 22 stores specific image data 100, 200, and 300 having specific image IDs 1, 2, and 3 as shown in FIG.
As shown in FIG. 6A, the specific image data 100 is assigned a specific image ID1, and is a cat image.
Further, as shown in FIG. 6B, the specific image data 200 is a dog image to which a specific image ID2 is assigned.
Furthermore, as shown in FIG. 6C, the specific image data 300 is assigned a specific image ID3 and is a rocket image.
The specific image data in FIGS. 6A to 6C are different in feature points and feature amounts of the feature points.

図5に戻って、緯度、経度、および高度は、特定画像IDの特定画像データに対応する特定画像位置を示す情報である。この特定画像位置は、例えば、特定画像データが表わされたポスターや大型ディスプレイが設置されている位置である。
位置誤差許容距離は、緯度、経度、および高度によって、特定画像位置とみなされる一定の範囲を示す情報である。この位置誤差許容距離は、例えば、特定画像位置を中心とする円の半径を示す距離である。
Returning to FIG. 5, latitude, longitude, and altitude are information indicating the specific image position corresponding to the specific image data of the specific image ID. The specific image position is, for example, a position where a poster or a large display in which specific image data is represented is installed.
The position error allowable distance is information indicating a certain range that is regarded as a specific image position by latitude, longitude, and altitude. This position error allowable distance is, for example, a distance indicating the radius of a circle centered on the specific image position.

図4に戻って、画像特徴量算出部23は、撮影画像データD(n)に基づき、この画像の特徴を示す画像特徴量(以下、撮影画像特徴量という)を算出する。この撮影画像特徴量は、例えば、色の成分、明るさ、エッジ画像等の画像の特徴を数値化したものである。なお、画像特徴量が一定の閾値以上の数値を有する点(例えば、画素)を特徴点という。また、特徴点の撮像画像内における位置は、(X,Y)座標値で示される(図9(b)参照)。画像特徴量算出部23は、各特徴点について、撮影画像特徴量および(X,Y)座標値を対応付けた特徴点情報を生成する。画像特徴量算出部23は、撮像画像内のすべての特徴点についての特徴点情報を含む、撮影画像特徴量情報を生成する。   Returning to FIG. 4, the image feature amount calculation unit 23 calculates an image feature amount (hereinafter referred to as a captured image feature amount) indicating the feature of the image based on the captured image data D (n). This photographed image feature amount is obtained by quantifying image features such as color components, brightness, and edge images. Note that a point (for example, a pixel) in which the image feature amount has a numerical value equal to or greater than a certain threshold is referred to as a feature point. Further, the position of the feature point in the captured image is indicated by (X, Y) coordinate values (see FIG. 9B). The image feature amount calculation unit 23 generates feature point information in which the captured image feature amount and the (X, Y) coordinate value are associated with each feature point. The image feature amount calculation unit 23 generates captured image feature amount information including feature point information for all feature points in the captured image.

この撮影画像特徴量の一例を図7に示す。図7に示す通り、画像特徴量算出部23は、例えば、撮影画像データD(n)に基づき撮影画像特徴量を算出し、例えば、撮影画像特徴量群C1、C2、C3を得る。
この撮影画像特徴量群C1は、撮影画像データD(n)の画像内において、ビルB1の大型ディスプレイに表示された「映画タイトル」の文字画像に対応する画像領域から算出された特徴点の集合である。
撮影画像特徴量群C2は、撮影画像データD(n)の画像内において、ビルB1の大型ディスプレイに表示されたネコの画像に対応する画像領域から算出された特徴点の集合である。
撮影画像特徴量群C3は、撮影画像データD(n)の画像内において、ビルB2の貸広告のスペースに表示されたネコの画像に対応する画像領域から算出された特徴点の集合である。
なお、撮影画像特徴量群C2とC3は、ともにネコの画像に対応する画像領域から算出される特徴点の集合であり、その特徴点の分布は類似している。また、撮影画像特徴量群C2の特徴点は、特に、図6(a)の特定画像データの特徴点と類似している。
An example of the captured image feature amount is shown in FIG. As illustrated in FIG. 7, the image feature amount calculation unit 23 calculates a captured image feature amount based on the captured image data D (n), for example, and obtains captured image feature amount groups C1, C2, and C3.
This photographed image feature quantity group C1 is a set of feature points calculated from an image area corresponding to the character image of “movie title” displayed on the large display of the building B1 in the photographed image data D (n). It is.
The photographed image feature quantity group C2 is a set of feature points calculated from an image area corresponding to a cat image displayed on the large display of the building B1 in the photographed image data D (n).
The photographed image feature quantity group C3 is a set of feature points calculated from an image area corresponding to a cat image displayed in the rental advertisement space of the building B2 in the photographed image data D (n) image.
Note that the photographed image feature quantity groups C2 and C3 are a set of feature points calculated from an image area corresponding to a cat image, and the distribution of the feature points is similar. Further, the feature points of the photographed image feature quantity group C2 are particularly similar to the feature points of the specific image data in FIG.

図4に戻って、位置情報比較部24は、通信部21から撮影位置情報P(n)を入力される。この位置情報比較部24は、特定画像位置テーブル220を参照して、入力された撮影位置情報P(n)に基づき、対応する特定画像IDを検索する。つまり、位置情報比較部24は、特定画像位置情報の示す範囲に撮影位置情報P(n)の示す撮影位置を含む特定画像データを検索する。
言い換えると、位置情報比較部24は、第1記憶部22に記憶されている全ての特定画像データの中から、撮影位置情報に対応する特定画像データを検索によって得ることで、画像特徴量比較部26による比較対象を撮影位置情報に対応するものに限定する処理を行っている。
Returning to FIG. 4, the position information comparison unit 24 receives the shooting position information P (n) from the communication unit 21. The position information comparison unit 24 refers to the specific image position table 220 and searches for the corresponding specific image ID based on the input shooting position information P (n). That is, the position information comparison unit 24 searches for specific image data that includes the shooting position indicated by the shooting position information P (n) within the range indicated by the specific image position information.
In other words, the position information comparison unit 24 obtains the specific image data corresponding to the shooting position information from all the specific image data stored in the first storage unit 22 by searching, and thereby the image feature amount comparison unit. 26 is performed to limit the comparison target to that corresponding to the shooting position information.

具体的に説明すると、位置情報比較部24は、撮影位置情報P(n)が示す位置が、特定画像位置テーブル220に示された緯度、経度、高度を中心とし位置誤差許容距離を半径とする特定画像位置範囲内となる特定画像IDがあるか否かを判断する。この位置情報比較部24は、この撮影位置情報P(n)の示す位置が特定画像位置範囲内となる特定画像IDを検索によって得た場合、この検索によって得た特定画像IDを画像特徴量比較部26に出力する。
なお、特定画像特徴量テーブル250において、特定の緯度、経度、高度、位置誤差許容距離と対応付けられていない特定画像IDの特定画像データは、位置情報比較部24により検索結果の候補から除外せず、位置情報比較部24によって画像特徴量比較部26に出力される。
More specifically, the position information comparison unit 24 uses the position indicated by the shooting position information P (n) as the center with the latitude, longitude, and altitude indicated in the specific image position table 220 as the radius. It is determined whether there is a specific image ID that falls within the specific image position range. When the position information comparison unit 24 obtains a specific image ID in which the position indicated by the shooting position information P (n) is within the specific image position range by the search, the specific image ID obtained by the search is compared with the image feature amount. To the unit 26.
In the specific image feature amount table 250, the specific image data of the specific image ID that is not associated with the specific latitude, longitude, altitude, and position error allowable distance is excluded from the search result candidates by the position information comparison unit 24. First, the position information comparison unit 24 outputs the image feature amount comparison unit 26.

第2記憶部25は、例えば表示画像検索装置2の管理者により予め登録された特定画像特徴量テーブル250を記憶する。
この特定画像特徴量テーブル250は、図8に示す通り、特定画像IDと、特定画像の特徴を示す特定画像特徴量情報とを対応付けるテーブルである。この特定画像特徴量情報は、特定画像における特徴点の特徴点縦座標と、特徴点横座標と、特徴点特徴量とを示す情報を含む。
この特徴点縦座標と特徴点横座標は、対応する特定画像IDの画像内において特定の特徴量を示す特徴点の位置を示す情報である。特徴点特徴量は、この特徴点縦座標と特徴点横座標が示す特徴点の特徴量を示す情報である。なお、各特定画像IDに対応付けられている特徴点特徴量の数は、各特定画像IDに応じて決まる。この特徴量は、例えば、様々な観点によって抽出されてもよく、複数の種類の特徴量を抽出する場合には、特徴量は、ベクトルとなる。図示においては、簡略化のため、特徴点についての1つの種類の特徴量を示す。
The second storage unit 25 stores, for example, a specific image feature amount table 250 registered in advance by an administrator of the display image search device 2.
As shown in FIG. 8, the specific image feature amount table 250 is a table that associates a specific image ID with specific image feature amount information indicating the characteristics of the specific image. The specific image feature amount information includes information indicating the feature point ordinate, the feature point abscissa, and the feature point feature amount of the feature point in the specific image.
The feature point ordinate and the feature point abscissa are information indicating the position of the feature point indicating the specific feature amount in the image of the corresponding specific image ID. The feature point feature amount is information indicating the feature amount of the feature point indicated by the feature point ordinate and the feature point abscissa. Note that the number of feature point feature quantities associated with each specific image ID is determined according to each specific image ID. This feature amount may be extracted from various viewpoints, for example, and when a plurality of types of feature amounts are extracted, the feature amount is a vector. In the drawing, for simplification, one kind of feature amount for feature points is shown.

図4に戻って、画像特徴量比較部26は、特定画像特徴量テーブル250を参照して、位置情報比較部24の検索によって得られた特定画像IDに対応する特徴量を読み出し、この特定画像IDに対応する特徴量と、画像特徴量算出部23によって生成された撮影画像特徴量情報の撮影画像特徴量とを比較して、撮影画像データD(n)の画像内に含まれる特徴量と類似する特徴量を有する特定画像(類似特定画像とも称する)を検出する。   Returning to FIG. 4, the image feature amount comparison unit 26 reads the feature amount corresponding to the specific image ID obtained by the search of the position information comparison unit 24 with reference to the specific image feature amount table 250, and this specific image. The feature amount corresponding to the ID and the captured image feature amount of the captured image feature amount information generated by the image feature amount calculation unit 23 are compared, and the feature amount included in the image of the captured image data D (n) A specific image (also referred to as a similar specific image) having a similar feature amount is detected.

具体的に説明すると、この画像特徴量比較部26は、例えば、特定画像ID毎に特徴量を読み出し、読み出した特徴量と撮影画像特徴量情報の撮影画像特徴量とが一致するか否かを判定する。ここで、一致とは、特徴量の値が閾値T1以内の場合をいう。なお、1つの特徴点に対して複数種類(例えば、色の成分、明るさの2種類)の特徴量がある場合には、画像特徴量比較部26は、同じ種類同士の特徴量を比較する。画像特徴量比較部26は、比較した特徴量の値が閾値T1以内となる特徴量の種類の数を計数し、計数した数が閾値以上になる場合に、類似すると判定してもよい。
画像特徴量比較部26は、一致すると判定した特徴点の数を計数する。例えば、画像特徴量比較部26は、計数した特徴点の数を特定画像IDの特徴点の総数で除算し、除算した値を、特徴量類似度とする。なお、画像特徴量比較部26は、他の手法を用いて、特徴量類似度を算出してもよい。画像特徴量比較部26は、特徴量類似度と特定画像IDを対応付けて記憶する。
画像特徴量比較部26は、上記の処理を、全ての特定画像IDに対して行う。画像特徴量比較部26は、最大となる特徴量類似度に対応する特定画像IDを抽出し、抽出した特定画像IDの特定画像を、類似特定画像として検出する。
画像特徴量比較部26は、検出した類似特定画像の特定画像IDと、その特定画像IDに対応する特定画像特徴量情報と、撮影画像特徴量情報とを、画像識別部27へ出力する。
More specifically, for example, the image feature amount comparison unit 26 reads a feature amount for each specific image ID, and determines whether or not the read feature amount matches the captured image feature amount of the captured image feature amount information. judge. Here, “match” means a case where the value of the feature value is within the threshold value T1. When there are a plurality of types of feature amounts (for example, two types of color components and brightness) for one feature point, the image feature amount comparison unit 26 compares the same types of feature amounts. . The image feature amount comparison unit 26 may count the number of types of feature amounts whose compared feature amount values are within the threshold value T1, and may determine that they are similar when the counted number is equal to or greater than the threshold value.
The image feature quantity comparison unit 26 counts the number of feature points determined to match. For example, the image feature amount comparison unit 26 divides the counted number of feature points by the total number of feature points of the specific image ID, and sets the divided value as the feature amount similarity. Note that the image feature amount comparison unit 26 may calculate the feature amount similarity using another method. The image feature amount comparison unit 26 stores the feature amount similarity and the specific image ID in association with each other.
The image feature amount comparison unit 26 performs the above processing for all the specific image IDs. The image feature amount comparison unit 26 extracts the specific image ID corresponding to the maximum feature amount similarity, and detects the specific image of the extracted specific image ID as the similar specific image.
The image feature amount comparison unit 26 outputs the specific image ID of the detected similar specific image, the specific image feature amount information corresponding to the specific image ID, and the captured image feature amount information to the image identification unit 27.

画像識別部27は、画像特徴量比較部26から入力された特定画像特徴量情報および撮影画像特徴量情報に基づいて、特定画像と、その特定画像に類似する撮影画像内の画像(類似画像とも称する)と、の位置の対応関係を示す変換行列Aを算出する。
例えば、図9(a)に示す通り、オリジナルの特定画像の画像内における位置を(x,y)座標値で示す。また、図9(b)に示す通り、撮影画像内における位置を(X,Y)座標値で示す。
Based on the specific image feature amount information and the captured image feature amount information input from the image feature amount comparison unit 26, the image identification unit 27 selects a specific image and an image in a captured image similar to the specific image (both similar images). The conversion matrix A indicating the correspondence between the positions is calculated.
For example, as shown in FIG. 9A, the position of the original specific image in the image is indicated by (x, y) coordinate values. Further, as shown in FIG. 9B, the position in the captured image is indicated by (X, Y) coordinate values.

画像識別部27は、特定画像特徴量情報から特徴点を抽出し、その特徴点と一致する特徴点を、撮影画像特徴量情報から抽出する。ここで、一致とは、特徴量の値が閾値以内の場合をいうが、この閾値は閾値T1と異なっていてもよいし、同じであってもよい。画像識別部27は、特定画像特徴量情報から抽出した特徴点について、特徴点縦座標および特徴点横座標をそれぞれ、次式(1)の(x,y)へ代入する。画像識別部27は、撮影画像特徴量情報から抽出した特徴点について、抽出した特徴点について、(X,Y)座標値を、次式(1)の(X,Y)へ代入する。なお、撮影画像特徴量情報から抽出した特徴点が複数ある場合には、それらの(X,Y)座標値の平均値を、次式(1)の(X,Y)へ代入してもよい。   The image identification unit 27 extracts feature points from the specific image feature amount information, and extracts feature points that match the feature points from the captured image feature amount information. Here, “match” refers to a case where the value of the feature value is within a threshold value, but this threshold value may be different from or equal to the threshold value T1. The image identification unit 27 substitutes the feature point ordinate and the feature point abscissa for (x, y) in the following equation (1) for the feature points extracted from the specific image feature amount information. For the feature points extracted from the captured image feature amount information, the image identification unit 27 substitutes the (X, Y) coordinate values for the extracted feature points into (X, Y) of the following equation (1). When there are a plurality of feature points extracted from the captured image feature amount information, the average value of the (X, Y) coordinate values may be substituted into (X, Y) in the following equation (1). .

Figure 2013214158
Figure 2013214158

画像識別部27は、代入の結果、行列Axyの各成分を未知数とする数式を生成する。画像識別部27は、上記の処理を予め定めれら回数だけ繰り返し、その回数の数の数式を生成する。画像識別部27は、生成した数式を、連立させて解くことにより、行列Axyを算出する。 As a result of the substitution, the image identification unit 27 generates a mathematical expression having each component of the matrix A xy as an unknown. The image identification unit 27 repeats the above process a predetermined number of times, and generates a mathematical expression for the number of times. The image identification unit 27 calculates the matrix A xy by solving the generated mathematical formulas simultaneously.

画像識別部27は、動作情報(図11参照)を参照して、動作画像にz方向の移動量があるか否かを判定する。ここで、z方向は、特徴点縦座標および特徴点横座標に直交する座標である。動作画像にz方向の移動量がないと判定した場合には、画像識別部27は、行列Axyを変換行列Aとする。一方、動作画像にz方向の移動量があると判定した場合には、画像識別部27は、行列Axyzを算出し、算出した行列Axyzを変換行列Aとする。 The image identification unit 27 refers to the motion information (see FIG. 11) to determine whether or not the motion image has a movement amount in the z direction. Here, the z direction is a coordinate orthogonal to the feature point ordinate and the feature point abscissa. When it is determined that there is no movement amount in the z direction in the motion image, the image identification unit 27 sets the matrix A xy as the transformation matrix A. On the other hand, when it is determined that the motion image has a movement amount in the z direction, the image identification unit 27 calculates the matrix A xyz and sets the calculated matrix A xyz as the conversion matrix A.

ここで、行列Axyzについて説明をする。
動作画像の動作は、図11に示したように、特定画像の座標値に対応する(x、y、z)の三次元で設定している。これは、例えば、動作画像が、その表示面(印刷面を含む)から飛び出すような三次元的な動作を記述できるようにするためである。しかしながら、上式は、z方向への飛び出しや引っ込みを、撮影画像で表現するための情報が不足する。そこで、画像識別部27は、(x,y)座標値にz座標値を加えた(x,y,z)座標値を、撮影画像内の座標値へ変換する行列Axyz(式(6))を算出する。
この行列Axyzは、式(2)とおき、式(3)の条件から求められる。なお、Lは正の値である。
Here, the matrix A xyz will be described.
As shown in FIG. 11, the motion image is set in three dimensions (x, y, z) corresponding to the coordinate values of the specific image. This is because, for example, the operation image can describe a three-dimensional operation such that the operation image pops out from the display surface (including the print surface). However, the above formula lacks information for expressing the jumping out or retracting in the z direction with a captured image. Therefore, the image identification unit 27 converts the (x, y, z) coordinate value obtained by adding the z coordinate value to the (x, y) coordinate value into a coordinate value in the captured image, a matrix A xyz (formula (6)). ) Is calculated.
This matrix A xyz is obtained from the condition of the expression (3), as in the expression (2). Note that L is a positive value.

Figure 2013214158
Figure 2013214158

Figure 2013214158
具体的に、方程式に書き下すと、式(4)となる。ここで、A11、A12、A21、A22は、式(1)の行列Axyの成分である。
Figure 2013214158
Specifically, when written in an equation, equation (4) is obtained. Here, A 11 , A 12 , A 21 , A 22 are components of the matrix A xy in Expression (1).

Figure 2013214158
Figure 2013214158

画像識別部27は、Lの2次方程式である式(4)を解き、Lの解(単にLと称する)を算出する。画像識別部27は、算出したLを式(5)を用いて、iおよびjを算出する。 Image identification unit 27 solves Equation (4) is a quadratic equation of L 2, and calculates the solution of L 2 a (simply referred to as L 2). The image identification unit 27 calculates i z and j z by using the calculated L 2 using Expression (5).

Figure 2013214158
Figure 2013214158

画像識別部27は、算出したiおよびjと行列Axyの各成分とに基づいて、式(6)を生成する。 The image identification unit 27 generates Expression (6) based on the calculated i z and j z and each component of the matrix A xy .

Figure 2013214158
Figure 2013214158

画像識別部27が算出した変換行列Aは、オリジナルの特定画像を撮影内の位置に位置変換させるための変換規則である。ただし、変換規則は行列でなくてもよいし、変換規則は特定画像の部分毎にあってもよい。例えば、画像識別部27は、x座標値毎又はy座標値毎の変換行列Aを算出してもよい。なお、この変換行列Aに従って、特定画像が撮影画像内に位置変換された場合、撮影画像内における特定画像が位置する領域を、以下、動作画像領域という。つまり、画像識別部27は、撮影画像内に写る動作画像領域の位置を示す情報を算出する。言い換えると、画像識別部27は、特定画像の特徴量と撮影画像の特徴量に基づいて、撮影画像において特定画像と特徴の一致又は類似する動作画像領域を決定する。なお、撮影画像内における動作画像領域の画像が、動作画像となる。ただし、本発明はこれに限らず、動作画像領域の画像を別の画像としてもよく、例えば、特定画像を変換行列Aにより変換した画像であってもよい。   The conversion matrix A calculated by the image identification unit 27 is a conversion rule for converting the position of the original specific image to a position in the photographing. However, the conversion rule may not be a matrix, and the conversion rule may be provided for each part of the specific image. For example, the image identification unit 27 may calculate a conversion matrix A for each x coordinate value or each y coordinate value. Note that when the position of the specific image is converted in the captured image according to the conversion matrix A, the area where the specific image is located in the captured image is hereinafter referred to as an operation image area. That is, the image identification unit 27 calculates information indicating the position of the motion image area that appears in the captured image. In other words, the image identification unit 27 determines a motion image region having a matching or similar feature to the specific image in the captured image based on the feature amount of the specific image and the feature amount of the captured image. Note that the image in the motion image area in the captured image is the motion image. However, the present invention is not limited to this, and the image in the motion image area may be another image. For example, an image obtained by converting a specific image by the conversion matrix A may be used.

画像識別部27は、変換行列Aと類似特定画像の特定画像IDとを、特定画像付加情報取得部30へ出力する。
第3記憶部28は、オリジナルの特定画像や特徴量抽出画像の画像データを記憶する領域である特定画像データ記憶領域280を備える。
The image identification unit 27 outputs the conversion matrix A and the specific image ID of the similar specific image to the specific image additional information acquisition unit 30.
The third storage unit 28 includes a specific image data storage area 280 that is an area for storing image data of an original specific image and a feature amount extracted image.

第4記憶部29は、例えば表示画像検索装置2の管理者により予め登録された特定画像付加情報テーブル290を記憶する。
この特定画像付加情報テーブル290は、図10に示す通り、特定画像IDと、特定画像に関連する付加情報を示す特定画像付加情報と、この特定画像IDに対応する特定画像付加情報を撮影時の条件に応じてさらに特定するための情報である撮影条件情報とを対応付けるテーブルである。この撮影条件情報は、緯度と、経度と、高度と、位置誤差許容距離と、年/月/日と、時刻とを含む。
The fourth storage unit 29 stores a specific image additional information table 290 registered in advance by the administrator of the display image search device 2, for example.
As shown in FIG. 10, the specific image additional information table 290 includes a specific image ID, specific image additional information indicating additional information related to the specific image, and specific image additional information corresponding to the specific image ID at the time of shooting. It is a table which matches imaging condition information which is information for further specifying according to conditions. This photographing condition information includes latitude, longitude, altitude, allowable position error distance, year / month / day, and time.

緯度、経度、高度、位置誤差許容距離は、特定画像IDに対応する特定画像付加情報を撮影時の位置に応じてさらに特化させることを可能にするための情報である。
年/月/日と、時刻は、特定画像IDに対応する特定画像付加情報を撮影時の日時に応じてさらに特化させることを可能にするための情報である。
コンテンツURLは、特定画像と関連するコンテンツをインターネットを介して提供するURL( Uniform Resource Locator )である。
動画ファイル名は、特定画像と関連する動画ファイルを示す情報である。なお、この動画ファイル名で示す動画ファイルは、第4の記憶部29に保存されている。
スライドショー画像数と、スライドショー画像表示フレームレートは、特定画像と関連するスライドショーの画像枚数と、このスライドショーを表示させる際のフレームレートを示す情報である。
The latitude, longitude, altitude, and position error allowable distance are information for allowing the specific image additional information corresponding to the specific image ID to be further specialized according to the position at the time of shooting.
The year / month / day and time are information for allowing the specific image additional information corresponding to the specific image ID to be further specialized according to the date and time at the time of shooting.
The content URL is a URL (Uniform Resource Locator) that provides content related to a specific image via the Internet.
The moving image file name is information indicating a moving image file associated with the specific image. Note that the moving image file indicated by the moving image file name is stored in the fourth storage unit 29.
The number of slide show images and the slide show image display frame rate are information indicating the number of slide show images associated with the specific image and the frame rate for displaying the slide show.

特定画像付加情報取得部30は、特定画像付加情報テーブル310から、画像識別部27から入力された特定画像IDに対応する特定画像付加情報を読み出す。また、特定画像付加情報取得部30は、特定画像付加情報テーブル310から、通信部21から入力された撮影位置情報と撮影日時情報に対応する特定画像付加情報を読み出す。特定画像付加情報取得部30は、特定画像ID、特定画像付加情報、および変換行列Aを、特定画像動作設定部31へ出力する。
特定画像動作設定部31は、特定画像付加情報取得部30および通信部21から入力された情報に基づいて、次の(1)〜(4)の処理を行う。
The specific image additional information acquisition unit 30 reads the specific image additional information corresponding to the specific image ID input from the image identification unit 27 from the specific image additional information table 310. The specific image additional information acquisition unit 30 reads specific image additional information corresponding to the shooting position information and the shooting date / time information input from the communication unit 21 from the specific image additional information table 310. The specific image additional information acquisition unit 30 outputs the specific image ID, the specific image additional information, and the conversion matrix A to the specific image operation setting unit 31.
The specific image operation setting unit 31 performs the following processes (1) to (4) based on information input from the specific image additional information acquisition unit 30 and the communication unit 21.

(1)動作画像領域の算出
特定画像動作設定部31は、動作画像テーブル320(図12)から、特定画像付加情報取得部30から入力された特定画像IDに対応する動作画像領域情報を読み出す。特定画像動作設定部31は、動作画像領域情報に含まれるマスク画像であって、特定画像のマスク画像(図15(b))を抽出する。マスク画像とは、例えば、画素値のある位置のビット値が「1」であり、画素値の無い位置のビット値が「0」(透明)の画像である。
特定画像動作設定部31は、抽出したマスク画像に対して変換行列Aを左から演算することで、撮影画像のマスク画像を生成する。この撮影画像のマスク画像は、動作画像領域を示す。つまり、特定画像動作設定部31は、動作画像領域を算出する。
(1) Calculation of Motion Image Region The specific image motion setting unit 31 reads the motion image region information corresponding to the specific image ID input from the specific image additional information acquisition unit 30 from the motion image table 320 (FIG. 12). The specific image operation setting unit 31 extracts a mask image (FIG. 15B) of the specific image, which is a mask image included in the operation image region information. The mask image is, for example, an image in which the bit value at a position with a pixel value is “1” and the bit value at a position without a pixel value is “0” (transparent).
The specific image operation setting unit 31 calculates a conversion matrix A from the left with respect to the extracted mask image, thereby generating a mask image of the captured image. The mask image of the photographed image indicates an operation image area. That is, the specific image operation setting unit 31 calculates an operation image area.

(2)動作画像の生成
特定画像動作設定部31は、通信部21から入力された撮影画像データD(n)から、算出した動作画像領域の画像を抽出する(例えば、図1のネコの画像O1)。つまり、特定画像動作設定部31は、動作画像を生成する。なお、表示装置が動作画像の生成を行う場合には、特定画像動作設定部31は、動作画像の生成を行わなくてもよい。
(2) Generation of Motion Image The specific image motion setting unit 31 extracts an image of the calculated motion image area from the captured image data D (n) input from the communication unit 21 (for example, the cat image in FIG. 1). O1). That is, the specific image operation setting unit 31 generates an operation image. Note that, when the display device generates a motion image, the specific image motion setting unit 31 does not have to generate a motion image.

(3)背景画像の生成
特定画像動作設定部31は、動作画像テーブル320から、特定画像付加情報取得部30から入力された特定画像IDに対応する動作画像領域情報(図11参照)を読み出す。特定画像動作設定部31は、特定画像の背景画像(図15(c))を抽出する。特定画像動作設定部31は、抽出した背景画像に対して変換行列Aを左から演算することで、動作画像領域に合成される背景画像(例えば、図2の領域R1の画像)を生成する。
(3) Generation of Background Image The specific image operation setting unit 31 reads, from the operation image table 320, operation image area information (see FIG. 11) corresponding to the specific image ID input from the specific image additional information acquisition unit 30. The specific image operation setting unit 31 extracts a background image (FIG. 15C) of the specific image. The specific image operation setting unit 31 calculates a conversion matrix A from the left with respect to the extracted background image, thereby generating a background image to be combined with the operation image region (for example, an image of the region R1 in FIG. 2).

(4)動作情報の生成
特定画像動作設定部31は、動作画像テーブル320から、特定画像付加情報取得部30から入力された特定画像IDに対応する特定画像動作情報を読み出す。特定画像動作設定部31は、読み出した特定画像動作情報に含まれる動作画像の(x,y,z)座標値に対して、変換行列Aを左から演算する。これにより、特定画像動作設定部31は、動作画像の撮影画像内での動きを示す動作情報を生成する。
(4) Generation of Motion Information The specific image motion setting unit 31 reads the specific image motion information corresponding to the specific image ID input from the specific image additional information acquisition unit 30 from the motion image table 320. The specific image operation setting unit 31 calculates the transformation matrix A from the left with respect to the (x, y, z) coordinate values of the operation image included in the read specific image operation information. Accordingly, the specific image operation setting unit 31 generates operation information indicating the movement of the operation image in the captured image.

特定画像付加情報取得部30は、算出した動作画像領域を示す情報、生成した動作画像、背景画像を示す合成情報、および動作情報を、動作データとして、通信部21へ出力する。   The specific image additional information acquisition unit 30 outputs the information indicating the calculated motion image region, the generated motion image, the composite information indicating the background image, and the motion information to the communication unit 21 as motion data.

図11は、特定画像動作情報の一例を示す図である。特定画像動作情報は、特定画像の動きを表す情報である。なお、特定画像動作情報に基づいて生成された動作情報は、動作画像の動きを表す情報となる。この図において、Timeは、経過時間を示す、x,y,zは、例えば特定画像の中心のx,y,z座標値を示す。
特定画像動作情報は、例えば、図11に示す通り、基準時からの経過時間に対応する特定画像の位置が規定されている。なお初期位置の特定画像が、基準時から経過時間(例えば、ミリ秒)経過後にある位置が規定されている。例えば、図11の特定画像動作情報は、経過時間「1000」ミリ秒のときに座標(100,0,0)の位置にあった特定画像が、経過時間「2000」ミリ秒のときに座標(100,0,100)の位置にあることを示す。つまり、図11の特定画像動作情報は、特定画像がz方向へ飛び出す(又は引っ込む)ことを表す。なお、画像の動作の記述方法は、これに限定されるものではない。また、特定画像が複数ある場合には、それぞれの特定画像に対して、特定画像動作情報が記述される。
FIG. 11 is a diagram illustrating an example of specific image operation information. The specific image operation information is information representing the movement of the specific image. Note that the motion information generated based on the specific image motion information is information representing the motion image motion. In this figure, Time indicates the elapsed time, and x, y, and z indicate, for example, the x, y, and z coordinate values of the center of the specific image.
In the specific image operation information, for example, as shown in FIG. 11, the position of the specific image corresponding to the elapsed time from the reference time is defined. Note that the position where the specific image at the initial position is after the elapse of time (for example, milliseconds) from the reference time is defined. For example, the specific image operation information shown in FIG. 11 includes coordinates when the specific image at the position of the coordinate (100, 0, 0) when the elapsed time is “1000” milliseconds and the elapsed time “2000” milliseconds. 100, 0, 100). That is, the specific image operation information in FIG. 11 represents that the specific image jumps out (or retracts) in the z direction. Note that the description method of the operation of the image is not limited to this. In addition, when there are a plurality of specific images, specific image operation information is described for each specific image.

次に、図12を参照して、動作画像テーブル320の一例について説明する。
図12に示す通り、特定画像IDに対応して、動作画像領域情報および特定画像動作情報が記憶される。ここでは、特定画像ID1の特定画像については、動作画像領域情報(1_a.png)と、特定画像動作情報(起動記述1_a)とが、それぞれ対応付けられている。なお、図12では、簡略化のため、動作画像領域情報として、画像を示す情報が1つ格納されていが、特定画像のマスク画像を示す情報、および背景画像を示す情報の2つが格納されている。
Next, an example of the operation image table 320 will be described with reference to FIG.
As shown in FIG. 12, the operation image area information and the specific image operation information are stored in correspondence with the specific image ID. Here, for the specific image of the specific image ID1, the action image area information (1_a.png) and the specific image action information (activation description 1_a) are associated with each other. In FIG. 12, for simplification, one piece of information indicating an image is stored as operation image area information, but two pieces of information indicating a mask image of a specific image and information indicating a background image are stored. Yes.

表示装置1は、動作データを、表示画像検索装置2から通信部16を介して入力し、これらの情報を表示装置1の端末制御部11に出力する。端末制御部11は、受信した動作データに基づいて、撮影画像データD(n)の動作画像領域に背景画像を合成し、動作情報に基づいて動作画像を動かす。これにより、ユーザには、撮影画像から動作画像が切り出され、切り出された動作画像が動き出すように見える。
なお、動作情報において規定されていない経過時間については、端末制御部11は、例えば、位置を線形補間する。これにより、ユーザには、動作画像が連続して動くように見える。
The display device 1 inputs operation data from the display image search device 2 via the communication unit 16 and outputs the information to the terminal control unit 11 of the display device 1. Based on the received motion data, the terminal control unit 11 synthesizes a background image in the motion image area of the captured image data D (n) and moves the motion image based on the motion information. Thereby, it seems to the user that the motion image is cut out from the captured image, and the cut-out motion image starts to move.
In addition, about the elapsed time which is not prescribed | regulated in operation | movement information, the terminal control part 11 carries out the linear interpolation of a position, for example. Thereby, it seems to the user that the motion image moves continuously.

次に、図13を参照して、動作画像テーブル320に動作画像領域情報および特定画像動作情報を登録する登録装置5の例について説明する。なお、ここでは、登録装置5を表示画像検索装置2とは別体として説明しているが、登録装置5の機能を表示画像検索装置2としてのサーバ内に実現してもよい。
図13に示すように、登録装置5は、登録処理部51と、操作入力部52と、表示部53と、画像記憶部54とを備える。
Next, an example of the registration apparatus 5 that registers the operation image area information and the specific image operation information in the operation image table 320 will be described with reference to FIG. Here, the registration device 5 is described as being separate from the display image search device 2, but the function of the registration device 5 may be realized in a server as the display image search device 2.
As illustrated in FIG. 13, the registration device 5 includes a registration processing unit 51, an operation input unit 52, a display unit 53, and an image storage unit 54.

登録処理部51は、動作画像テーブル320への登録処理を実行する。操作入力部52は、キーボードやマウス等からなり、オペレータの操作入力を受け付ける。表示部53は、液晶ディスプレイ等からなり、ソース画像や処理画像の表示を行う。画像記憶部54は、特定画像として登録すべき画像を記憶する。   The registration processing unit 51 executes registration processing in the operation image table 320. The operation input unit 52 includes a keyboard, a mouse, and the like, and accepts operator input. The display unit 53 includes a liquid crystal display or the like, and displays a source image and a processed image. The image storage unit 54 stores an image to be registered as a specific image.

なお、動作画像領域情報および特定画像動作情報の動作画像テーブル320への登録には、特定画像から動作画像を切り抜いて動作画像領域情報を登録する処理(以下、切り抜き登録処理という)と、動作画像領域情報が示す動作画像と合成情報が示す背景画像を合成して特定画像を登録する処理(以下、合成登録処理という)とがある。   The registration of the motion image area information and the specific image motion information in the motion image table 320 includes a process of cutting out the motion image from the specific image and registering the motion image area information (hereinafter referred to as a cutout registration process), and a motion image. There is a process of registering a specific image by combining the motion image indicated by the area information and the background image indicated by the composite information (hereinafter referred to as a composite registration process).

先に、図14を参照して、切り抜き登録処理の一例について説明する。図14は、切り抜き登録処理の一例を説明するためのフローチャートである。
オペレータは、画像を指定する(ステップST101)。オペレータは、この画像内において、特定画像を指定する(ステップST102)。登録すべき特定画像が指定されると、登録処理部51は、指定された情報に基づき、動作画像領域情報を生成し、動作画像テーブル320に登録する(ステップST103)。
First, an example of the cutout registration process will be described with reference to FIG. FIG. 14 is a flowchart for explaining an example of the cutout registration process.
The operator designates an image (step ST101). The operator designates a specific image in this image (step ST102). When a specific image to be registered is designated, the registration processing unit 51 generates motion image area information based on the designated information and registers it in the motion image table 320 (step ST103).

例えば、ステップST101で、オペレータは、画像として図15(a)に示すような画像を指定する。オペレータは、特定画像として、ネコの画像の部分を指定する(図6(a))。この場合、登録処理部51は、図15(b)に示すマスク画像を生成する。マスク画像は、例えば、PNG(Portable Network Graphics)形式の画像である。マスク画像は、例えば、ネコの画像の部分に値を有し、それ以外の部分は透明(値なし)となる。登録処理部51は、特定画像とマスク画像を動作画像領域情報として、特定画像IDに対応させて登録する。   For example, in step ST101, the operator designates an image as shown in FIG. The operator designates a cat image portion as the specific image (FIG. 6A). In this case, the registration processing unit 51 generates a mask image shown in FIG. The mask image is, for example, an image in PNG (Portable Network Graphics) format. For example, the mask image has a value in a cat image portion, and the other portions are transparent (no value). The registration processing unit 51 registers the specific image and the mask image as operation image area information in association with the specific image ID.

ステップST103で、動作画像領域情報が登録されたら、次に、オペレータは、動作画像の動作を記述して入力する(ステップST104)。これにより、登録処理部51は、特定画像動作情報を生成し、生成した特定画像動作情報を、ステップS103での特定画像IDに対応させて登録する(ステップST105)。
次に、登録処理部51は、この特定画像の特徴量を抽出し(ステップST106)、特定画像の特徴量として、特定画像特徴量テーブル250に登録する(ステップST107)。そして、登録処理部51は、登録処理を終了するか否かを判定し(ステップST108)、登録処理を終了しなければ、次の画像の登録処理に移り(ステップST109)、ステップST101にリターンする。
If the motion image area information is registered in step ST103, the operator then describes and inputs the motion image motion (step ST104). As a result, the registration processing unit 51 generates specific image operation information, and registers the generated specific image operation information in association with the specific image ID in step S103 (step ST105).
Next, the registration processing unit 51 extracts the feature amount of the specific image (step ST106), and registers it as the feature amount of the specific image in the specific image feature amount table 250 (step ST107). Then, the registration processing unit 51 determines whether or not to end the registration process (step ST108). If the registration process is not ended, the registration processing unit 51 proceeds to a registration process for the next image (step ST109) and returns to step ST101. .

次に、図16を参照して、背景画像とマスク画像とを合成して背景画像を登録する処理(合成登録処理)の一例について説明する。図16は、合成登録処理の一例を示すフローチャートである。
オペレータは、背景画像を含む画像(例えば、図17)を指定する(ステップST201)。オペレータは、マスク画像(例えば、図15(b))を指定する(ステップST202)。登録処理部51は、ステップST201で指定された画像と、ステップST202で指定されたマスク画像と、を合成する(ステップST203)。これにより、登録処理部51は、背景画像(例えば、図15(c))を生成する。登録処理部51は、生成した背景画像を、ステップST202で指定されたマスク画像を含む動作画像領域情報に含ませて、動作画像テーブル320に登録する(ステップST204)。
Next, an example of processing for registering a background image by combining the background image and the mask image (composite registration processing) will be described with reference to FIG. FIG. 16 is a flowchart illustrating an example of the composition registration process.
The operator designates an image (for example, FIG. 17) including a background image (step ST201). The operator designates a mask image (for example, FIG. 15B) (step ST202). The registration processing unit 51 combines the image specified in step ST201 and the mask image specified in step ST202 (step ST203). Thereby, the registration process part 51 produces | generates a background image (for example, FIG.15 (c)). The registration processing unit 51 registers the generated background image in the motion image table 320 by including it in the motion image area information including the mask image specified in step ST202 (step ST204).

次に、図18を参照して、本実施形態に係る画像検索表示方法の一例について説明する。図18は、本実施形態に係る画像検索表示方法の一例を説明するためのフローチャートである。
表示画像検索装置2は、撮影画像特徴量と特定画像の特徴量とに基づき、変換行列Aを算出する。表示画像検索装置2は、変換行列と特定画像のマスク画像に基づいて、動作画像領域を算出する。つまり、撮像画像上の特定画像の位置を算出する(ステップST11)。表示画像検索装置2は、ステップST11で算出された動作画像領域を含む動作データを、表示装置1へ送信する(ステップST12)。
Next, an example of an image search display method according to the present embodiment will be described with reference to FIG. FIG. 18 is a flowchart for explaining an example of the image search display method according to the present embodiment.
The display image search device 2 calculates the transformation matrix A based on the captured image feature amount and the feature amount of the specific image. The display image search device 2 calculates an operation image area based on the conversion matrix and the mask image of the specific image. That is, the position of the specific image on the captured image is calculated (step ST11). The display image search device 2 transmits motion data including the motion image region calculated in step ST11 to the display device 1 (step ST12).

表示装置1は、ステップS12で送信された動作データを受信する(ステップS13)。表示装置1は、ステップS13で受信された動作データに含まれる動作画像領域に基づいて、撮像画像の動作画像領域を特定する。つまり、表示装置1は、撮像画像中の特定画像の位置を設定する(ステップST14)。
表示画像検索装置2は、動作画像を生成し、生成した動作画像を含む動作データを表示装置1へ送信する(ステップST15)。表示装置1は、ステップST15で送信された動作画像を受信する(ステップS16)。
表示画像検索装置2は、背景画像を生成し、生成した背景画像を示す合成情報を含む動作データを表示装置1へ送信する(ステップST17)。表示装置1は、ステップST17で送信された合成情報を受信する(ステップS18)。
The display device 1 receives the operation data transmitted in step S12 (step S13). The display device 1 specifies the motion image area of the captured image based on the motion image area included in the motion data received in step S13. That is, the display device 1 sets the position of the specific image in the captured image (step ST14).
The display image search device 2 generates an operation image and transmits operation data including the generated operation image to the display device 1 (step ST15). The display device 1 receives the operation image transmitted in step ST15 (step S16).
The display image search device 2 generates a background image and transmits operation data including composite information indicating the generated background image to the display device 1 (step ST17). The display device 1 receives the synthesis information transmitted in step ST17 (step S18).

表示装置1は、ステップST14で特定された動作画像領域に、ステップS18で受信された背景画像を合成(重畳)することで、動作画像領域を補完する。表示装置1は、合成後の画像に、ステップS16で受信された動作画像を重ねる。ここで、表示装置1は、例えば、合成後の画像のレイヤと、動作画像のレイヤを分ける。これにより、表示装置1は、動作画像を切り出す(ステップST19)。
表示画像検索装置2は、動作情報を生成し、生成した動作情報を含む動作データを表示装置1へ送信する(ステップST20)。表示装置1は、ステップST20で送信された動作情報を受信する(ステップS21)。
表示装置1は、受信した動作情報を読み込む(ステップST22)。表示装置1は、ステップST19で切り出した動作画像を、ステップST22で読み込んだ動作情報に基づいて動かす(ステップS23)。
The display device 1 supplements the motion image region by combining (superimposing) the background image received in step S18 on the motion image region specified in step ST14. The display device 1 superimposes the operation image received in step S16 on the combined image. Here, the display device 1 divides, for example, the layer of the combined image and the layer of the motion image. Thereby, the display apparatus 1 cuts out an operation | movement image (step ST19).
The display image search device 2 generates operation information and transmits operation data including the generated operation information to the display device 1 (step ST20). The display device 1 receives the operation information transmitted in step ST20 (step S21).
The display device 1 reads the received operation information (step ST22). The display device 1 moves the motion image cut out in step ST19 based on the motion information read in step ST22 (step S23).

このように、本実施形態では、表示装置1は表示画像検索装置2から動画ファイルをダウンロードすることなく、撮影された画像に関連する動く画像を表示することができる。また、表示装置1の表示部15に表示される画像は、表示装置1の撮影部12で撮影された撮影画像から切り出した動作画像が動くので、撮影画像に合わせた自然な画像となり、撮影する周囲環境との影響で表示画像検索装置2に登録した画像と表示装置1で撮影した画像との明るさや色が異なっていても、その影響を受けることがない。また、本実施形態では、撮影された画像の一部が動き出すような画像となるので、ユーザに独特の視覚効果を与えることができ、このような視覚効果を利用した各種のサービスが期待できる。
また、例えば、表示装置1で撮影した撮影画像に対応する動作画像や動作の記述を複数用意しておき、ユーザ毎の選択やランダムに、表示画像検索装置2から表示装置1に提供する動作画像や動作の記述を切り替えるようにしてもよい。このようにすると、ユーザは、同一の撮影画像に対して、各種の動きの画像を見ることができる。また、このことを利用した各種のサービスが期待できる。
Thus, in the present embodiment, the display device 1 can display a moving image related to the captured image without downloading a moving image file from the display image search device 2. Further, the image displayed on the display unit 15 of the display device 1 is a natural image that matches the captured image because the motion image cut out from the captured image captured by the imaging unit 12 of the display device 1 is moved. Even if the brightness and color of the image registered in the display image search device 2 and the image captured by the display device 1 are different due to the influence of the surrounding environment, the image is not affected. Further, in the present embodiment, since a part of the captured image starts to move, a unique visual effect can be given to the user, and various services using such a visual effect can be expected.
In addition, for example, a plurality of operation images and operation descriptions corresponding to captured images captured by the display device 1 are prepared, and operation images provided from the display image search device 2 to the display device 1 are selected or randomly selected for each user. And the description of the operation may be switched. In this way, the user can see images of various movements with respect to the same captured image. In addition, various services using this can be expected.

ところで、上述の図11に示したような動作情報の記述は、表示画像検索装置2側で表示画像検索装置2の運営者側が所定の動作を提供しているものであり、動作画像の動きは、動作情報の記述に従って、一意に決められる。しかし、本発明はこれに限らず、画像検索表示システムは、ユーザの各種の入力に応じて、動作画像の動きを変えてもよい。これにより、ユーザの楽しみが増大する。   By the way, the description of the operation information as shown in FIG. 11 described above is that the operator of the display image search device 2 provides a predetermined operation on the display image search device 2 side, and the motion of the operation image is It is uniquely determined according to the description of the operation information. However, the present invention is not limited to this, and the image search and display system may change the movement of the motion image in accordance with various types of user input. This increases the enjoyment of the user.

[第2実施形態]
なお、ここでユーザの入力とは、操作部18のキーボードやボタンによる入力だけではない。例えば、表示装置1の表示部15上に接触センサ19がある場合には、表示部15をタッチやスライドあるいはフリック等の操作をすることが入力となり、また、表示装置1に重力センサ20を設けた場合には、ユーザが表示装置1の方向を変えたり、ユーザが表示装置1を所定の動きで振ったりするような動作が入力となる。さらに、各種のセンサを設ければ、これらのセンサを利用した入力が行える。つまり、接触センサ19、重力センサ20、その他各種のセンサの検出結果は、動作画像の動きを指示する動作指示情報である。
ここでは、このようなセンサを用いた入力により動作画像の動きを変えるような処理の一例として、物理モデルによる例について説明する。
図19に示すように、表示装置1が重力センサ20を有している場合、特定画像動作設定部31および端末制御部11に、以下のような物理モデルを登録しておく。具体的には、動作画像の座標(X,Y)がΔt秒毎に(X0,Y0)、(X1,Y1)、(X2,Y2)、…と変化していくとして、重力センサ20の重力の方向(gx,gy)を計測する場合、
[Second Embodiment]
Here, the input by the user is not limited to the input by the keyboard or buttons of the operation unit 18. For example, when the contact sensor 19 is present on the display unit 15 of the display device 1, an operation such as touching, sliding, or flicking the display unit 15 is input, and a gravity sensor 20 is provided on the display device 1. In such a case, an operation in which the user changes the direction of the display device 1 or the user shakes the display device 1 with a predetermined movement is input. Furthermore, if various sensors are provided, input using these sensors can be performed. That is, the detection results of the contact sensor 19, the gravity sensor 20, and other various sensors are operation instruction information that instructs the movement of the operation image.
Here, an example based on a physical model will be described as an example of processing for changing the motion of an operation image by input using such a sensor.
As shown in FIG. 19, when the display device 1 includes the gravity sensor 20, the following physical models are registered in the specific image operation setting unit 31 and the terminal control unit 11. Specifically, it is assumed that the coordinate (X, Y) of the motion image changes (X0, Y0), (X1, Y1), (X2, Y2),. When measuring the direction (gx, gy) of

Figure 2013214158
Figure 2013214158

として更新することができる。例えば、この物理モデルは、図20に示すように記述して、送受信することができる。 Can be updated as. For example, this physical model can be described and transmitted as shown in FIG.

端末制御部11は、図20に示したような動作の記述を受信すると、上記の物理モデルに従って、動作画像を更新表示する。すなわち、端末制御部11は、Δt秒後の動作画像の位置を上式に従って計算し、撮影部12に表示する。また、接触センサ19から動作画像内に入力があった場合には、   When receiving the description of the operation as shown in FIG. 20, the terminal control unit 11 updates and displays the operation image according to the physical model. That is, the terminal control unit 11 calculates the position of the motion image after Δt seconds according to the above formula and displays it on the photographing unit 12. In addition, when there is an input in the operation image from the contact sensor 19,

Figure 2013214158
Figure 2013214158

として動作を指で止め、指で動かせるようにしてもよい。 The operation may be stopped with a finger and moved with a finger.

[第3実施形態]
次に、本実施形態に係る画像検索表示方法の他の例について説明する。図21は、本実施形態に係る画像検索表示方法の他の例を説明するためのフローチャートである。図21と図18とを比較すると、図21のステップST42〜ST45、ST47の処理が異なる。図21のステップS31〜ステップST41の処理は、それぞれ、図18のステップS11〜S21の処理と同様であるので、説明は省略する。
[Third Embodiment]
Next, another example of the image search / display method according to the present embodiment will be described. FIG. 21 is a flowchart for explaining another example of the image search and display method according to the present embodiment. When FIG. 21 is compared with FIG. 18, the processes of steps ST42 to ST45 and ST47 of FIG. 21 are different. The processes in steps S31 to ST41 in FIG. 21 are the same as the processes in steps S11 to S21 in FIG.

画像識別部27は、色補正のためのサンプル点を抽出し(ステップST42)、抽出したサンプル点の情報から、色補正の変換行列Aを算出する(ステップST43)。そして、特定画像動作設定部31は、ステップST43で算出された変換行列Aを通信部21に送り、通信部21は、変換行列Aを表示装置1に送信する(ステップST44)。表示装置1の通信部16は、変換行列Aを受信する(ステップST45)。
表示装置1は、ステップST39で切り出した動作画像を、ステップST46で読み込んだ動作情報に基づいて動かす。また、表示装置1は、ステップST45で受信された変換行列Aを用いて、ステップST38で受信された背景画像を色補正し、色補正した背景画像を動作画像領域に合成する(ステップS47)。
Image identification unit 27 extracts sample points for color correction (step ST42), the information of the extracted sample points to calculate the transformation matrix A c of the color correction (step ST43). The specific image operation setting unit 31 sends the transformation matrix A c calculated in step ST43 to the communication unit 21, communication unit 21 transmits the transformation matrix A c to the display device 1 (step ST44). The communication unit 16 of the display device 1 receives the transformation matrix A c (step ST45).
The display device 1 moves the motion image cut out in step ST39 based on the motion information read in step ST46. The display device 1, using the transformation matrix A c received in step ST45, the background image received at step ST38 and color correction, synthesizes the background image color correction operation image area (step S47) .

この例では、動作画像が切り出されて動いた後の領域に背景画像を合成し、また、この背景画像の色を補正して、より、自然な合成を行えるようにしている。つまり、図15(b)に示したような動作画像領域情報を表示画像検索装置2から表示装置1に送信し、表示装置1の表示部15で動作画像を動かして表示させた場合、動作画像領域に表示される画像がなくなってしまい、例えば白色あるいは黒色となる。このため、動作画像が切り出されて移動した場合、動作画像領域が白色等に見えてしまい、不自然な画像となる。
また、例えば、表示画像検索装置2から背景画像を受信する場合にも、受信した背景画像の色合いがその周囲の色合いと合わない場合がある。
In this example, the background image is synthesized with the area after the motion image is cut out and moved, and the color of the background image is corrected so that more natural synthesis can be performed. That is, when the motion image area information as shown in FIG. 15B is transmitted from the display image search device 2 to the display device 1 and the motion image is moved and displayed on the display unit 15 of the display device 1, the motion image is displayed. The image displayed in the area disappears, and for example, white or black. For this reason, when the motion image is cut out and moved, the motion image region appears white or the like, resulting in an unnatural image.
For example, even when a background image is received from the display image search device 2, the received background image may not match the surrounding color.

そこで、この例では、ステップST42〜ステップST45で、表示画像検索装置2で生成された色補正の変換行列を表示装置1に送り、背景画像の色補正を行うようにしている。これにより、動作画像が動いた後の動作画像領域も、自然な画像として見える。   Therefore, in this example, in step ST42 to step ST45, the color correction conversion matrix generated by the display image search device 2 is sent to the display device 1 to perform color correction of the background image. As a result, the motion image area after the motion image has moved appears as a natural image.

色変換を行う場合、画像識別部27は、特定画像と、その類似画像と、の色の対応関係を示す変換行列Aを算出する。ここで、画像識別部27は、変換行列(A・A)を、変換行列Aとして算出する。ここで、行列Aは、位置の対応関係を示す変換行列(第1の実施形態)であり、行列Aは、色の対応関係を示す変換行列である。なお、(A・A)は、行列Aで変換された座標各々の色情報に対して、Aを演算することを表す。
具体的に説明すると、画像識別部27は、オリジナルの特定画像とその類似画像とから、色補正のためのサンプル点を抽出する。本実施形態において、画像識別部27は、図22(a)に示すように、特定画像上において定義されるサンプル点p1,p2、p3・・・に基づき、撮影画像データD(n)の中から、図22(b)に示すように、サンプル点p1,p2、p3・・・に対応するサンプル点P1,P2、P3・・・を求める。なお、サンプル点P1の(X,Y)座標値は、(x,y)座標値に左から行列Aを演算することで得られる。
When performing color conversion, the image identification unit 27 calculates a conversion matrix A indicating the color correspondence between the specific image and the similar image. Here, the image identification unit 27 calculates the transformation matrix (A c · A s ) as the transformation matrix A. Here, the matrix A s is a conversion matrix (first embodiment) indicating the correspondence between positions, and the matrix A c is a conversion matrix indicating the correspondence between colors. Note that (A c · A s ) represents that A c is calculated for the color information of each coordinate converted by the matrix A s .
More specifically, the image identification unit 27 extracts sample points for color correction from the original specific image and its similar image. In this embodiment, as shown in FIG. 22 (a), the image identification unit 27 is based on the sample points p1, p2, p3,... Defined on the specific image. From FIG. 22B, sample points P1, P2, P3... Corresponding to the sample points p1, p2, p3. Incidentally, (X, Y) coordinates of the sample points P1 is obtained by calculating the matrix A s from the left (x, y) coordinate values.

また、画像識別部27は、特定画像におけるサンプル点p1,p2、p3・・・の色情報(r,g,b)、(r,g,b)、(r,g,b)・・・の色変換を実施する。具体的説明すると、画像識別部27は、これら色情報(r,g,b)、(r,g,b)、(r,g,b)・・・を、それぞれ対応するサンプル点P1,P2、P3・・・の色情報(R,G,B)、(R,G,B)、(R,G,B)・・・に変換するような行列Aを算出する。
以下、画像識別部27による行列Aの算出方法の一例について説明する。
例えば、特定画像におけるサンプル点p1,p2の色情報(r,g,b)、(r,g,b)を、以下のように示すものとする。
The image identification unit 27, color information of the sample points p1, p2, p3 · · · in the specific image (r 1, g 1, b 1), (r 2, g 2, b 2), (r 3, g 3, b 3) to perform a color conversion of .... More specifically, the image identification unit 27 outputs the color information (r 1 , g 1 , b 1 ), (r 2 , g 2 , b 2 ), (r 3 , g 3 , b 3 ). , Color information (R 1 , G 1 , B 1 ), (R 2 , G 2 , B 2 ), (R 3 , G 3 , B 3 ). It calculates a matrix a c as converted to ....
Hereinafter, an example of a method for calculating the matrix Ac by the image identification unit 27 will be described.
For example, the color information (r 1 , g 1 , b 1 ) and (r 2 , g 2 , b 2 ) of the sample points p1 and p2 in the specific image are shown as follows.

Figure 2013214158
Figure 2013214158

また、例えば、撮影画像データD(n)に含まれる特定画像におけるサンプル点P1,P2の色情報(R,G,B)、(R,G,B)を、以下のように示すものとする。 Further, for example, the color information (R 1 , G 1 , B 1 ) and (R 2 , G 2 , B 2 ) of the sample points P1 and P2 in the specific image included in the captured image data D (n) are It shall be shown as follows.

Figure 2013214158
Figure 2013214158

画像識別部27は、それぞれ対応するサンプル点p1の色情報とP1の色情報、p2の色情報とP2の色情報とをそれぞれ近づけるようにする色補正変換係数Fを算出する。
なお、以下の式(11)によって、それぞれ対応するサンプル点p1の色情報とP1の色情報、p2の色情報とP2の色情報とが関連づけられる。
画像識別部27は、式(11)に示す式を最小化する行列Eを算出することにより、以下に示す式(12)の行列Cと行列Dとに対して、以下に示す式(13)の擬似逆行列を用いて、式(14)の行列Aの最適解を算出する。画像識別部27は、行列(A・A)を、変換行列Aとして算出する。
The image identification unit 27 calculates the color correction conversion coefficient F that makes the color information of the corresponding sample point p1 and the color information of P1, and the color information of p2 and the color information of P2 close to each other.
Note that the following equation (11) associates the color information of the corresponding sample point p1 with the color information of P1, and the color information of p2 and the color information of P2.
The image identification unit 27 calculates a matrix E that minimizes the expression shown in Expression (11), whereby the following Expression (13) is obtained for the matrix C and the matrix D in Expression (12) shown below. Is used to calculate the optimal solution of the matrix A c in equation (14). The image identification unit 27 calculates the matrix (A c · A s ) as the transformation matrix A.

Figure 2013214158
Figure 2013214158

Figure 2013214158
Figure 2013214158

Figure 2013214158
Figure 2013214158

Figure 2013214158
Figure 2013214158

なお、RANSAC法等の以下の論文に記載された技術を用いてもよい。   Note that techniques described in the following papers such as the RANSAC method may be used.

M. A. Fischler and R. C. Bolles, “Random sample consensus: A paradigm for model fitting with applications to image analysis and automated cartography,"Commun. ACM, no.24, vol.6, pp.381-395, June 1981. M. A. Fischler and R. C. Bolles, “Random sample consensus: A paradigm for model fitting with applications to image analysis and automated cartography,” Commun. ACM, no.24, vol.6, pp.381-395, June 1981.

表示画像検索装置2は、上式の色補正の行列Aを表示装置1に送り、表示装置1の端末制御部11は、合成処理を行う際に、行列Aに基づいて、合成部分の色変換を行う。具体的には、表示装置1は、背景画像に対して、行列Aを左から演算する。表示装置1は、演算後の背景画像を動作画像領域に重畳する。これにより、表示装置1から送られてきた撮影画像の撮影環境に応じて、背景部分の色変換を行うことができる。
なお、本実施形態において、表示画像検索装置2は、行列Aを用いて、背景画像の色変換を行った後の画像を背景画像としてもよい。
The display image search device 2 sends the above-described color correction matrix A c to the display device 1, and the terminal control unit 11 of the display device 1 performs synthesis processing based on the matrix A c when performing the synthesis processing. Perform color conversion. Specifically, the display device 1 calculates the matrix Ac from the left with respect to the background image. The display device 1 superimposes the calculated background image on the motion image area. Thereby, the color conversion of the background portion can be performed in accordance with the shooting environment of the shot image sent from the display device 1.
In the present embodiment, the display image retrieval device 2, using the matrix A c, the image may be the background image after the color conversion of the background image.

また、図15(b)に示したように、背景情報が透明で、動作画像を切り出す場合には、以下の論文に記載された技術を用いて合成を行ってもよい。   As shown in FIG. 15B, when background information is transparent and an action image is cut out, composition may be performed using the technique described in the following paper.

W. AU AND R. TAKEI, Image inpainting with the Navier-Stokes equations.
Available at Final Report APMA 930 SFU, 2002.
W. AU AND R. TAKEI, Image inpainting with the Navier-Stokes equations.
Available at Final Report APMA 930 SFU, 2002.

なお、本発明は上述の実施形態に限られず、例えば、以下のような構成であってもよい。
例えば、表示装置1は、撮影画像の動作画像領域から、動作画像を切り出してもよい。この場合、表示画像検索装置2は、動作画像を生成しなくてもよい。
また、表示画像検索装置2は、動作画像に対して、変換行列Aの逆行列を左から演算することで、動作画像について特定画像に相当する画像(撮影特定画像とも称する)を生成してもよい。この場合、表示画像検索装置2は、生成した撮影特定画像、変換行列A、および特定画像動作情報を含む動作データを、表示装置1へ送信してもよい。表示装置1は、受信した撮影特定画像を、変換行列Aで変換することで、動作画像を生成する。表示装置1は、特定画像動作情報に含まれる動作画像の(x,y,z)座標値に対して、変換行列Aを左から演算する。これにより、表示装置1は、動作画像の撮影画像内での動きを示す動作情報を生成する。
In addition, this invention is not restricted to the above-mentioned embodiment, For example, the following structures may be sufficient.
For example, the display device 1 may cut out the motion image from the motion image region of the captured image. In this case, the display image search device 2 may not generate an operation image.
Further, the display image search device 2 calculates an inverse matrix of the transformation matrix A from the left with respect to the motion image, thereby generating an image corresponding to the specific image (also referred to as a captured specific image) for the motion image. Good. In this case, the display image search device 2 may transmit operation data including the generated captured specific image, the conversion matrix A, and the specific image operation information to the display device 1. The display device 1 generates an operation image by converting the received captured specific image with the conversion matrix A. The display device 1 calculates the transformation matrix A from the left for the (x, y, z) coordinate values of the motion image included in the specific image motion information. Thereby, the display device 1 generates motion information indicating the motion of the motion image in the captured image.

また、表示画像検索装置2は、動作画像として、特定画像に対して変換行列Aを左から演算したものを、表示装置1へ送信してもよい。つまり、表示画像検索装置2は、特定画像の位置変更等し、動作画像領域の形状と同じ形状に変換したものを、動作画像としてもよい。   Further, the display image search device 2 may transmit to the display device 1 an operation image obtained by calculating the conversion matrix A from the left with respect to the specific image. In other words, the display image search device 2 may change the position of the specific image and convert it into the same shape as the shape of the motion image area as the motion image.

また、合成には、補完や補間が含まれる。ここで、補完とは、補間とは、例えば、定義されていない値域での値を周りにある値域の値から定義しなおすことをいう。また、動作画像領域に背景画像を合成することには、動作画像領域に、予め定められた画素値を設定することも含まれる。また、合成情報は、例えば線形補間を示す情報であってもよく、その場合、表示装置1は、動作画像領域を、その周辺の画素値に基づいて、例えば線形補間する。また、合成情報が示す背景画像は、淡色であってもよい。   The synthesis includes complementation and interpolation. Here, the term “complement” refers to, for example, redefining a value in an undefined value range from a value in a surrounding value range. Further, combining the background image with the motion image area includes setting a predetermined pixel value in the motion image area. Further, the synthesis information may be information indicating, for example, linear interpolation. In this case, the display device 1 performs, for example, linear interpolation on the motion image area based on the surrounding pixel values. Further, the background image indicated by the synthesis information may be a light color.

また、上述の各ステップを実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、また、表示装置1および表示画像検索装置2の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、検出対象物の形状情報の推定値を算出する処理を行ってもよい。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
In addition, a program for realizing the above steps is recorded on a computer-readable recording medium, and a program for realizing the functions of the display device 1 and the display image search device 2 is computer-readable. The estimated value of the shape information of the object to be detected may be calculated by reading the program recorded on the recording medium and causing the computer system to read and execute the program.
The “computer-readable recording medium” means a flexible disk, a magneto-optical disk, a ROM, a writable nonvolatile memory such as a flash memory, a portable medium such as a CD-ROM, a hard disk built in a computer system, etc. This is a storage device.

さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムに既に記録されているプログラムとの組合せで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
Further, the “computer-readable recording medium” means a volatile memory (for example, DRAM (Dynamic DRAM) in a computer system that becomes a server or a client when a program is transmitted through a network such as the Internet or a communication line such as a telephone line. Random Access Memory)), etc., which hold programs for a certain period of time.
The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, what is called a difference file (difference program) may be sufficient.

11・・・端末制御部、12・・・撮影部、13・・・位置情報検出部、14・・・計時部、15・・・表示部、16・・・通信部、17・・・記憶部、18・・・操作部、21・・・通信部、22・・・第1記憶部、23・・・画像特徴量算出部、24・・・位置情報比較部、25・・・第2記憶部、26・・・画像特徴量比較部、27・・・画像識別部、28・・・第3記憶部、29・・・第4記憶部、30・・・特定画像付加情報取得部、31・・・特定画像動作設定部、32・・・第5記憶部、320・・・動作画像テーブル   DESCRIPTION OF SYMBOLS 11 ... Terminal control part, 12 ... Image pick-up part, 13 ... Position information detection part, 14 ... Time measuring part, 15 ... Display part, 16 ... Communication part, 17 ... Memory | storage 18, operation unit 21, communication unit 22, first storage unit 23, image feature amount calculation unit 24, position information comparison unit 25, second Storage unit 26... Image feature amount comparison unit 27... Image identification unit 28... Third storage unit 29 29 Fourth storage unit 30. 31 ... specific image operation setting unit, 32 ... fifth storage unit, 320 ... operation image table

Claims (7)

撮影部が撮影した撮影画像の画像データを入力する入力部と、
前記画像データに基づき、当該撮影画像の特徴を示す撮影画像特徴量を算出する画像特徴量算出部と、
検索対象である特定画像の特徴を示す特定画像特徴量情報と前記撮影画像特徴量に基づいて、前記撮影画像において前記特定画像と特徴の一致または類似する特定領域を示す特定領域情報を取得する画像特徴量比較部と、
前記特定領域に含まれる動作画像の動きを制御する動作情報と前記特定領域情報とを表示部へ出力する特定画像動作設定部と、
を備えることを特徴とする表示画像検索装置。
An input unit for inputting image data of a photographed image taken by the photographing unit;
An image feature amount calculation unit that calculates a captured image feature amount indicating the feature of the captured image based on the image data;
An image for acquiring specific area information indicating a specific area that matches or is similar to the specific image in the captured image based on the specific image feature amount information indicating the characteristic of the specific image to be searched and the captured image feature amount A feature comparison unit;
A specific image operation setting unit that outputs operation information for controlling movement of an operation image included in the specific region and the specific region information to a display unit;
A display image retrieval apparatus comprising:
前記特定領域内において前記動作画像に対応する動作画像領域を示す動作画像領域情報および前記動作情報を記憶する記憶部をさらに備え、
前記特定画像動作設定部は、
前記動作画像が移動して表示される場合に、当該動作画像領域の少なくとも一部に背景画像を合成するための合成情報とを前記表示部に出力することを特徴とする請求項1に記載の表示画像検索装置。
A motion image area information indicating a motion image area corresponding to the motion image in the specific area, and a storage unit for storing the motion information;
The specific image operation setting unit includes:
The composition information for synthesizing a background image to at least a part of the motion image area is output to the display unit when the motion image is moved and displayed. Display image search device.
前記特定画像動作設定部は、
前記背景画像の色を示す背景画像色情報と前記撮影画像の色を示す撮影画像色情報に基づいて、前記撮影画像に対応する色に前記背景画像の色を補正するための補正情報を、前記表示部へ出力することを特徴とする請求項2に記載の表示画像検索装置。
The specific image operation setting unit includes:
Based on background image color information indicating the color of the background image and captured image color information indicating the color of the captured image, correction information for correcting the color of the background image to a color corresponding to the captured image, The display image search apparatus according to claim 2, wherein the display image search apparatus outputs to a display unit.
前記特定画像動作設定部は、
前記動作画像の動きを指示する動作指示情報に基づき、前記動作画像の動きを制御する制御情報を前記表示部に出力することを特徴とする請求項1から3のうちいずれか一項に記載の表示画像検索装置。
The specific image operation setting unit includes:
The control information for controlling the motion of the motion image is output to the display unit based on the motion instruction information for instructing the motion of the motion image. Display image search device.
上記請求項1から4のいずれか一項に記載の表示画像検索装置と、
前記表示画像検索装置とネットワークを介して接続され、前記撮影部と、前記表示部とを備える表示装置と、を備え、
前記表示装置は、
前記表示画像検索装置から出力される情報を受信する通信部と、
前記表示画像検索装置から受信した前記特定領域情報に基づき前記撮影画像から前記特定領域に含まれる前記動作画像を取得し、前記動作情報に基づき前記動作画像の動きを制御する制御部をさらに備えることを特徴とする表示制御システム。
The display image search device according to any one of claims 1 to 4,
A display device that is connected to the display image search device via a network and includes the photographing unit and the display unit;
The display device
A communication unit that receives information output from the display image search device;
The image processing apparatus further includes a control unit that acquires the motion image included in the specific area from the captured image based on the specific area information received from the display image search device and controls movement of the motion image based on the motion information. A display control system.
撮影部が撮影した撮影画像に動作する画像を表示させる表示制御方法であって、
前記撮影画像の画像データを入力し、
前記画像データに基づき、当該撮影画像の特徴を示す撮影画像特徴量を算出し、
検索対象である特定画像の特徴を示す特定画像特徴量情報と前記撮影画像特徴量に基づいて、前記撮影画像において前記特定画像と特徴の一致または類似する特定領域を示す特定領域情報を取得し、
前記特定領域に含まれる動作画像の動きを制御する動作情報と前記特定領域情報とを表示部へ出力する
ことを特徴とする表示制御方法。
A display control method for displaying an operating image on a captured image captured by a capturing unit,
Input the image data of the captured image,
Based on the image data, a captured image feature amount indicating the characteristics of the captured image is calculated,
Based on the specific image feature amount information indicating the characteristics of the specific image to be searched and the captured image feature amount, specific area information indicating a specific area that matches or is similar to the specific image in the captured image is acquired;
A display control method comprising: outputting operation information for controlling movement of an operation image included in the specific region and the specific region information to a display unit.
コンピュータを、
撮影部が撮影した撮影画像の画像データを入力する入力手段、
前記画像データに基づき、当該撮影画像の特徴を示す撮影画像特徴量を算出する画像特徴量算出手段、
検索対象である特定画像の特徴を示す特定画像特徴量情報と前記撮影画像特徴量に基づいて、前記撮影画像において前記特定画像と特徴の一致または類似する特定領域を示す特定領域情報を取得する画像特徴量比較手段、
前記特定領域に含まれる動作画像の動きを制御する動作情報と前記特定領域情報とを表示部へ出力する特定画像動作設定手段、
として機能させるためのプログラム。
Computer
Input means for inputting image data of a photographed image photographed by the photographing unit;
An image feature amount calculating means for calculating a photographed image feature amount indicating a feature of the photographed image based on the image data;
An image for acquiring specific area information indicating a specific area that matches or is similar to the specific image in the captured image based on the specific image feature amount information indicating the characteristic of the specific image to be searched and the captured image feature amount Feature comparison means,
Specific image operation setting means for outputting operation information for controlling movement of an operation image included in the specific region and the specific region information to a display unit;
Program to function as.
JP2012083241A 2012-03-30 2012-03-30 Display image retrieval device, display control system, display control method, and program Pending JP2013214158A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012083241A JP2013214158A (en) 2012-03-30 2012-03-30 Display image retrieval device, display control system, display control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012083241A JP2013214158A (en) 2012-03-30 2012-03-30 Display image retrieval device, display control system, display control method, and program

Publications (1)

Publication Number Publication Date
JP2013214158A true JP2013214158A (en) 2013-10-17

Family

ID=49587448

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012083241A Pending JP2013214158A (en) 2012-03-30 2012-03-30 Display image retrieval device, display control system, display control method, and program

Country Status (1)

Country Link
JP (1) JP2013214158A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015158862A (en) * 2014-02-25 2015-09-03 株式会社ソニー・コンピュータエンタテインメント Image generation device, image generation method, program, and computer readable information storage medium
JP2015184777A (en) * 2014-03-20 2015-10-22 コニカミノルタ株式会社 augmented reality display device, augmented reality display system, augmented reality display method, and augmented reality display program
KR20220021076A (en) * 2020-08-12 2022-02-22 태나다 주식회사 Method and Apparatus for synthesizing 3-dimensional virtual object to video data

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004526266A (en) * 2001-05-08 2004-08-26 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ How to combine multiple views
JP2008199587A (en) * 2007-01-18 2008-08-28 Matsushita Electric Ind Co Ltd Image coding apparatus, image decoding apparatus and methods thereof
JP2010239464A (en) * 2009-03-31 2010-10-21 Casio Computer Co Ltd Image compositing device, image reproducing device, and program
US20110201362A1 (en) * 2010-02-12 2011-08-18 Samsung Electronics Co., Ltd. Augmented Media Message
JP2012018663A (en) * 2010-06-10 2012-01-26 Nintendo Co Ltd Image processing program, image processing apparatus, image processing system and image processing method
JP2012053776A (en) * 2010-09-02 2012-03-15 Ntt Comware Corp Display image search device, display device, display image search system, and display image search method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004526266A (en) * 2001-05-08 2004-08-26 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ How to combine multiple views
JP2008199587A (en) * 2007-01-18 2008-08-28 Matsushita Electric Ind Co Ltd Image coding apparatus, image decoding apparatus and methods thereof
JP2010239464A (en) * 2009-03-31 2010-10-21 Casio Computer Co Ltd Image compositing device, image reproducing device, and program
US20110201362A1 (en) * 2010-02-12 2011-08-18 Samsung Electronics Co., Ltd. Augmented Media Message
JP2012018663A (en) * 2010-06-10 2012-01-26 Nintendo Co Ltd Image processing program, image processing apparatus, image processing system and image processing method
JP2012053776A (en) * 2010-09-02 2012-03-15 Ntt Comware Corp Display image search device, display device, display image search system, and display image search method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015158862A (en) * 2014-02-25 2015-09-03 株式会社ソニー・コンピュータエンタテインメント Image generation device, image generation method, program, and computer readable information storage medium
US9563982B2 (en) 2014-02-25 2017-02-07 Sony Corporation Image generating device, image generating method, program, and computer-readable information storage medium
JP2015184777A (en) * 2014-03-20 2015-10-22 コニカミノルタ株式会社 augmented reality display device, augmented reality display system, augmented reality display method, and augmented reality display program
KR20220021076A (en) * 2020-08-12 2022-02-22 태나다 주식회사 Method and Apparatus for synthesizing 3-dimensional virtual object to video data
KR102419290B1 (en) * 2020-08-12 2022-07-12 태나다 주식회사 Method and Apparatus for synthesizing 3-dimensional virtual object to video data

Similar Documents

Publication Publication Date Title
KR101535579B1 (en) Augmented reality interaction implementation method and system
US9699375B2 (en) Method and apparatus for determining camera location information and/or camera pose information according to a global coordinate system
US8692885B2 (en) Method and apparatus for capture and distribution of broadband data
TW201203170A (en) Information processing device, information processing system, and program
JP2008530676A (en) Storing information for access using acquired images
JP5544250B2 (en) Display image search method
JP2014071850A (en) Image processing apparatus, terminal device, image processing method, and program
JP2010237804A (en) System and method for searching image
US10068157B2 (en) Automatic detection of noteworthy locations
JP2015002423A (en) Image processing apparatus, server and storage medium
KR102197615B1 (en) Method of providing augmented reality service and server for the providing augmented reality service
JP2011233005A (en) Object displaying device, system, and method
US11457248B2 (en) Method to insert ad content into a video scene
JP2013214158A (en) Display image retrieval device, display control system, display control method, and program
CN104871179A (en) Method and system for image capture and facilitated annotation
JP2016194783A (en) Image management system, communication terminal, communication system, image management method, and program
JP2016194784A (en) Image management system, communication terminal, communication system, image management method, and program
JP5837404B2 (en) Image processing apparatus and image processing method
KR20130082755A (en) Service server and method by object recognition
JP2020101847A (en) Image file generator, method for generating image file, image generator, method for generating image, image generation system, and program
KR101399633B1 (en) Method and apparatus of composing videos
JP6652253B2 (en) 3D object shape estimation device
JP2016004466A (en) Information creation device and method, terminal device, computer program and recording medium
KR101640020B1 (en) Augmentated image providing system and method thereof
CN109348132B (en) Panoramic shooting method and device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140106

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150310