JP2013214158A - Display image retrieval device, display control system, display control method, and program - Google Patents
Display image retrieval device, display control system, display control method, and program Download PDFInfo
- Publication number
- JP2013214158A JP2013214158A JP2012083241A JP2012083241A JP2013214158A JP 2013214158 A JP2013214158 A JP 2013214158A JP 2012083241 A JP2012083241 A JP 2012083241A JP 2012083241 A JP2012083241 A JP 2012083241A JP 2013214158 A JP2013214158 A JP 2013214158A
- Authority
- JP
- Japan
- Prior art keywords
- image
- specific
- information
- display
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、撮影した撮影画像に応じたコンテンツを検索し、検索により得たコンテンツを表示部に表示させる表示画像検索装置、表示制御システム、表示制御方法、およびプログラムに関する。 The present invention relates to a display image search device, a display control system, a display control method, and a program that search for content corresponding to a captured image and display the content obtained by the search on a display unit.
仮想現実感(VR:Virtual Reality)技術を利用して、ユーザの存在する実空間を、ユーザ視点で表示された仮想空間によって表現して携帯端末に表示するシステムがある。
また、拡張現実感(AR:Augmented Reality)技術を利用して、ユーザの現在の位置を示す位置情報とこの位置でモバイルデバイスが撮影した画像に基づき、この撮影した位置に関連付けられた情報を、撮影した画像とともにモバイルデバイスに表示させ、ユーザに提供するシステムがある。この拡張現実感技術を利用したシステムとしては、セカイカメラ(Tonchidot Corporation, http://sekaicamera.com/ )やLayar( http://layar.com/ )などがあり、注目を集めている。
There is a system that uses a virtual reality (VR) technology to display a real space in which a user exists in a virtual space displayed from a user viewpoint and displays the real space on a mobile terminal.
Also, using augmented reality (AR) technology, based on position information indicating the current position of the user and an image captured by the mobile device at this position, information associated with the captured position is obtained. There is a system in which a captured image is displayed on a mobile device and provided to a user. As a system using this augmented reality technology, there are Sekai Camera (Tonchidot Corporation, http://secamera.com/) and Layar (http://layer.com/), which are attracting attention.
例えば、拡張現実感技術を利用した技術として、二次元バーコード等のマーカを撮影し、当該二次元バーコードと一意に関連付けられたコンテンツを撮影した画像に合成して表示させるものがある(例えば、特許文献1参照)。
また、撮影した画像データの内容を認識する画像認識装置として、撮影された位置に応じて、撮影された画像データの内容を表わすキーワードを抽出するものがある(例えば、特許文献2参照)。
For example, as a technique using augmented reality technology, a marker such as a two-dimensional barcode is photographed, and a content uniquely associated with the two-dimensional barcode is synthesized and displayed on the photographed image (for example, , See Patent Document 1).
Further, as an image recognition device that recognizes the content of captured image data, there is a device that extracts a keyword representing the content of captured image data according to the captured position (see, for example, Patent Document 2).
上述のように、AR技術を利用することで、撮影した位置に関連付けられた情報を撮影した画像とともに、撮影した位置に関連付けられた情報を表示させることができる。撮影した位置に関連付けられた情報として動画情報が表示できると、ユーザが撮影した画像に重畳される動画を見ながら、数々の仮想体験を味わうことができ、ユーザの楽しみも向上する。 As described above, by using the AR technology, it is possible to display information associated with the taken position together with an image obtained by photographing information associated with the taken position. If moving image information can be displayed as information associated with a captured position, a user can enjoy a number of virtual experiences while viewing the moving image superimposed on the image captured by the user, and the user's enjoyment is also improved.
しかしながら、撮影した位置に関連付けられた情報として動画を表示させるためには、動画ファイルをダウンロードする必要がある。動画ファイルはデータ容量が大きく、モバイルデバイスで動画ファイルをダウンロードすると、ネットワークのトラフィックに対する負担が大きい。また、動画をダウンロードするには多くの時間を必要とし、モバイルデバイス上で動画が動き出すまでに、時間がかかってしまう。 However, in order to display a moving image as information associated with the shooting position, it is necessary to download a moving image file. Video files have a large data capacity, and downloading video files on mobile devices places a heavy burden on network traffic. Also, it takes a lot of time to download a video, and it takes time for the video to start moving on the mobile device.
また、撮影した位置に関連付けられた情報を撮影した画像とともに、撮影した位置に関連付けられた情報を表示させる場合に、動画ファイルをダウンロードして撮影した画像に重畳表示するようにすると、照明環境などの影響により、撮影された画像とダウンロードした画像とで色が異なってしまうことが多い。 In addition, when displaying the information associated with the taken position together with the image taken with the information associated with the taken position, if a video file is downloaded and superimposed on the taken image, the lighting environment, etc. In many cases, the color of a captured image differs from that of a downloaded image due to the influence of the above.
上述の課題を鑑み、本発明は、大容量のファイルをダウンロードすることなく、撮影した位置に関連付けられた情報として動きのある画像を表示することができる表示画像検索装置、表示制御システム、表示制御方法、およびプログラムを提供することを目的とする。 In view of the above-described problems, the present invention provides a display image search device, a display control system, and display control that can display a moving image as information associated with a captured position without downloading a large-capacity file. It is an object to provide a method and a program.
上述の課題を解決するために、本発明に係る表示画像検索装置は、撮影部が撮影した撮影画像の画像データを入力する入力部と、前記画像データに基づき、当該撮影画像の特徴を示す撮影画像特徴量を算出する画像特徴量算出部と、検索対象である特定画像の特徴を示す特定画像特徴量情報と前記撮影画像特徴量に基づいて、前記撮影画像において前記特定画像と特徴の一致または類似する特定領域を示す特定領域情報を取得する画像特徴量比較部と、前記特定領域に含まれる動作画像の動きを制御する動作情報と前記特定領域情報とを表示部へ出力する特定画像動作設定部と、を備える。 In order to solve the above-described problem, a display image search device according to the present invention includes an input unit that inputs image data of a captured image captured by the capturing unit, and a capturing that indicates the characteristics of the captured image based on the image data. Based on the image feature amount calculation unit for calculating the image feature amount, the specific image feature amount information indicating the feature of the specific image that is the search target, and the captured image feature amount, An image feature amount comparison unit that acquires specific region information indicating a similar specific region, a specific image operation setting that outputs motion information for controlling the motion of a motion image included in the specific region and the specific region information to a display unit A section.
上述の表示画像検索装置において、前記特定領域内において前記動作画像に対応する動作画像領域を示す動作画像領域情報および前記動作情報を記憶する記憶部をさらに備え、前記特定画像動作設定部は、前記動作画像が移動して表示される場合に、当該動作画像領域の少なくとも一部に背景画像を合成するための合成情報とを前記表示部に出力する。 In the above-described display image search device, the specific image operation setting unit further includes a storage unit that stores the operation image region information indicating the operation image region corresponding to the operation image in the specific region and the operation information. When the motion image is moved and displayed, synthesis information for synthesizing a background image on at least a part of the motion image area is output to the display unit.
上述の表示画像検索装置において、前記特定画像動作設定部は、前記背景画像の色を示す背景画像色情報と前記撮影画像の色を示す撮影画像色情報に基づいて、前記撮影画像に対応する色に前記背景画像の色を補正するための補正情報を、前記表示部へ出力する。 In the above-described display image search device, the specific image operation setting unit includes a color corresponding to the captured image based on background image color information indicating the color of the background image and captured image color information indicating the color of the captured image. Then, correction information for correcting the color of the background image is output to the display unit.
上述の表示画像検索装置において、前記特定画像動作設定部は、前記動作画像の動きを指示する動作指示情報に基づき、前記動作画像の動きを制御する制御情報を前記表示部に出力する。 In the above-described display image search device, the specific image operation setting unit outputs control information for controlling the movement of the motion image to the display unit based on the operation instruction information for instructing the motion of the motion image.
本発明に係る表示制御システムは、上記のうち一の表示画像検索装置と、前記表示画像検索装置とネットワークを介して接続され、前記撮影部と、前記表示部とを備える表示装置と、を備え、前記表示装置は、前記表示画像検索装置から出力される情報を受信する通信部と、前記表示画像検索装置から受信した前記特定領域情報に基づき前記撮影画像から前記特定領域に含まれる前記動作画像を取得し、前記動作情報に基づき前記動作画像の動きを制御する制御部をさらに備える。 A display control system according to the present invention includes one of the above display image search devices, and a display device that is connected to the display image search device via a network and includes the photographing unit and the display unit. The display device includes a communication unit that receives information output from the display image search device, and the operation image included in the specific region from the captured image based on the specific region information received from the display image search device. And a control unit that controls movement of the motion image based on the motion information.
本発明に係る表示制御方法は、撮影部が撮影した撮影画像に動作する画像を表示させる表示制御方法であって、前記撮影画像の画像データを入力し、前記画像データに基づき、当該撮影画像の特徴を示す撮影画像特徴量を算出し、検索対象である特定画像の特徴を示す特定画像特徴量情報と前記撮影画像特徴量に基づいて、前記撮影画像において前記特定画像と特徴の一致または類似する特定領域を示す特定領域情報を取得し、前記特定領域に含まれる動作画像の動きを制御する動作情報と前記特定領域情報とを表示部へ出力する。 A display control method according to the present invention is a display control method for displaying an image to be operated on a captured image captured by a capturing unit, wherein image data of the captured image is input, and the captured image is captured based on the image data. Based on the specific image feature amount information indicating the feature of the specific image to be searched and the captured image feature amount, the captured image is matched or similar to the specific image. The specific area information indicating the specific area is acquired, and the motion information for controlling the motion of the motion image included in the specific area and the specific area information are output to the display unit.
本発明に係るプログラムは、コンピュータを、撮影部が撮影した撮影画像の画像データを入力する入力手段、前記画像データに基づき、当該撮影画像の特徴を示す撮影画像特徴量を算出する画像特徴量算出手段、検索対象である特定画像の特徴を示す特定画像特徴量情報と前記撮影画像特徴量に基づいて、前記撮影画像において前記特定画像と特徴の一致または類似する特定領域を示す特定領域情報を取得する画像特徴量比較手段、前記特定領域に含まれる動作画像の動きを制御する動作情報と前記特定領域情報とを表示部へ出力する特定画像動作設定手段、として機能させるためのプログラムである。 The program according to the present invention includes an input means for inputting image data of a photographed image photographed by the photographing unit to the computer, and an image feature quantity calculation for computing a photographed image feature quantity indicating the feature of the photographed image based on the image data. Means for acquiring specific region information indicating a specific region having a feature matching or similar to the specific image in the captured image based on the specific image feature amount information indicating the feature of the specific image to be searched and the captured image feature amount; This is a program for functioning as image feature amount comparison means for performing, and as specific image action setting means for outputting the action information for controlling the movement of the action image included in the specified area and the specified area information to the display unit.
本発明によれば、撮影画像の中から登録画像を認識した後に、動画をダウンロードすることなく、撮影画像の一部が動き出したかのような視覚効果を与えることができる。また登録画像の認識後、動画を重畳させるのではなく、動作部分を切り出して動作させることによって、撮影する際の照明環境などの影響で、登録画像と撮影画像の中に写る登録画像領域の色が異なってしまっても撮影画像の一部が動き出したかのような視覚効果を与えることができる。 According to the present invention, it is possible to provide a visual effect as if a part of a captured image starts moving without downloading a moving image after recognizing a registered image from the captured images. In addition, after recognizing the registered image, the color of the registered image area that appears in the registered image and the captured image is affected by the lighting environment at the time of shooting by cutting out the motion part and operating it instead of superimposing the moving image. Even if they are different, it is possible to give a visual effect as if a part of the photographed image has started to move.
また、本発明によれば、撮影画像の一部を切り出して動作させているため、動作範囲は表示部が表示可能な範囲全体に及び、より広い範囲で動作を制御することができる。また、動作画像が描かれていた領域に合成される画像を記憶することによって動作画像が描かれていた領域が欠落してしまうことを防ぎ、また動作画像が描かれていた領域に合成される画像に、他の領域と同じ色変換を施すことによってより、自然に撮影画像の一部が動き出したかのような視覚効果を与えることができる。 Further, according to the present invention, since a part of the captured image is cut out and operated, the operation range covers the entire range that can be displayed by the display unit, and the operation can be controlled in a wider range. In addition, by storing an image to be synthesized in the area where the motion image was drawn, it is possible to prevent the area where the motion image was drawn from being lost, and to be synthesized in the area where the motion image was drawn. By performing the same color conversion on the image as in other areas, it is possible to give a visual effect as if a part of the captured image started to move naturally.
以下、本発明の一実施形態による画像検索表示システムについて、図面を参照して詳細に説明する。
図1は、撮影画像の一例を示す図である。図1は、表示装置1が撮像した画像である。この画像には、例えば、ある繁華街の風景を写した画像であって、画面右側に大きなビルB1の画像が、画面中央にビルB1よりも小さいビルB2の画像が、それぞれ含まれている。このビルB1には、大型ディスプレイが設置されている。ビルB2には、貸広告を掲示する大きな貸広告スペースが設けられている。
ビルB1の大型ディスプレイには、ネコの画像O1が表示されている。なお、ビルB1の大型ディスプレイは、撮影画像上、右辺が長く、左辺が短く歪んでいる。また、ビル2の貸広告スペースについても撮影画像上、上辺と下辺が湾曲している。
Hereinafter, an image search and display system according to an embodiment of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a diagram illustrating an example of a captured image. FIG. 1 is an image captured by the
A cat image O1 is displayed on the large display of the building B1. Note that the large display of the building B1 has a long right side and a short left side that is distorted in the captured image. In addition, regarding the rental advertisement space of the
図2は、表示の一例を示す図である。図2の表示は、表示装置1が図1の撮影画像に基づき表示をしたものである。
この図において、ネコの画像O2は、図1のネコの画像O1(動作画像)が動き出し、移動したものである。なお、移動には、動作画像が前に飛び出すような移動、または、後ろに引っ込むような移動(例えば、ビルB1の大型ディスプレイの表示面の法線方向へ移動)も含まれる。このように、画像検索表示システムでは、特定画像(図6(a)のネコの画像)を予め記憶し、表示装置1は、その特定画像に特徴が一致又は類似する動作画像(ネコの画像O1)の動きを制御する。
また、この図において、領域R1は、図1のネコの画像O1が表示されていた領域(動作画像領域)を表す。この領域R1には、画像(図2では、画像bk1の一部)が合成されている。このように、画像検索表示システムでは、特定画像の背景画像(図15(c)参照)を予め記憶し、表示装置1は、動作画像領域に背景画像を合成する。
FIG. 2 is a diagram illustrating an example of display. The display in FIG. 2 is displayed by the
In this figure, the cat image O2 is the one in which the cat image O1 (motion image) in FIG. Note that the movement includes a movement such that the motion image jumps forward or a movement that retracts backward (for example, movement in the normal direction of the display surface of the large display of the building B1). Thus, in the image search and display system, a specific image (the cat image in FIG. 6A) is stored in advance, and the
In this figure, a region R1 represents a region (operation image region) where the cat image O1 of FIG. 1 was displayed. In this region R1, an image (a part of the image bk1 in FIG. 2) is synthesized. Thus, in the image search / display system, the background image of the specific image (see FIG. 15C) is stored in advance, and the
図3は、表示の他の例を示す図である。図3の表示は、表示装置1が図1の撮影画像に基づき表示をしたものである。
この図において、ネコの画像O3は、図2のネコの画像O2がさらに移動するとともに、拡大・縮小、および回転をしたものである。また、回転には、画面の法線を回転軸とするものや、画面内の軸を回転軸とするものが含まれている。このように、動作画像の動きには、例えば、移動、拡大・縮小、および回転が含まれる。
この図において、領域R2は、図2のネコの画像O2が表示されていた領域を表す。例えば、ネコの画像O3は、領域R2からネコの画像O3の位置へ移動し、そこから回転や拡大といった動きをしたものである。
FIG. 3 is a diagram illustrating another example of display. The display in FIG. 3 is displayed by the
In this figure, a cat image O3 is obtained by further enlarging / reducing and rotating the cat image O2 of FIG. In addition, the rotation includes those having the normal line of the screen as the rotation axis and those having the axis in the screen as the rotation axis. As described above, the motion of the motion image includes, for example, movement, enlargement / reduction, and rotation.
In this figure, a region R2 represents a region where the cat image O2 of FIG. 2 was displayed. For example, the cat image O3 moves from the region R2 to the position of the cat image O3, and moves from there to rotate or enlarge.
図4は、画像検索表示システムの機能ブロック図である。
図4に示す通り、画像検索表示システムは、表示装置1と表示画像検索装置2を備える。本実施形態において、表示装置1と表示画像検索装置2は、ネットワークNWを介して通信可能に接続されている。
なお、本実施形態では、表示装置1と表示画像検索装置2は、それぞれ異なるデバイスであって、ネットワークNWを経由して接続されている構成を例に以下説明するが、本発明はこれに限られない。例えば、表示装置1が、表示画像検索装置2を内部に備える構成であってもよい。また、ネットワークNWは、有線あるいは無線のいずれであってもよく、例えば、電話回線、インターネット回線、無線LAN通信方式等を利用した通信を行うものであればよい。
FIG. 4 is a functional block diagram of the image search / display system.
As shown in FIG. 4, the image search / display system includes a
In the present embodiment, the
<表示装置1について>
表示装置1は、例えば、カメラ付き携帯電話や、通信機能付きカメラ等のモバイルデバイスが利用可能である。この表示装置1は、拡張現実感技術を利用して得られるコンテンツを撮影された画像に合成して表示するARモードを設定する機能が搭載されており、以下、このARモードが設定されている場合に利用する機能と動作を中心に説明する。
<About display
As the
表示装置1は、端末制御部11と、撮影部12と、位置情報検出部13と、計時部14と、表示部15と、通信部16と、記憶部17と、操作部18を備える。
撮影部12は、被写体からの光を受光し、受光した光を光電変換して画像データを生成し、出力する。つまり、撮影部12は、被写体を撮影して画像データを出力する。
この撮影部12は、画像データとして、撮影画像データD(n)とリアルタイム再生画像データとを出力する。このリアルタイム再生画像データは、撮影部12が撮影する画像をリアルタイムで表示部15に表示するため撮影部12から出力される画像データである。これにより、ユーザは、表示部15に表示されている画像をみながら、表示部15に表示された被写体を撮影することができる。
一方、撮影画像データD(n)は、リアルタイム再生画像データに基づく画像が表示部15に表示されている状態において、操作部18が入力されたユーザからの撮影指示に基づき、撮影部12が被写体を撮影して得られる画像データである。
The
The
The photographing
On the other hand, when the image based on the real-time reproduction image data is displayed on the
位置情報検出部13は、例えば、GPS(Global Positioning System)を利用して、表示装置1が撮影時に存在する位置を示す撮影位置情報P(n)を検出して、出力する。この撮影位置情報P(n)は、例えば、緯度、経度、高度により決定される地球上における絶対的な位置を示す。
なお、本実施形態において、撮影時とは、例えば、操作部18のシャッターボタンをユーザが押下したタイミングであってもよく、撮影画像データD(n)が生成されたタイミングであってもよい。
The position
In the present embodiment, the time of shooting may be, for example, the timing when the user presses the shutter button of the
計時部14は、年月日および時刻を計時しており、撮影時に計時した年月日と時刻を示す撮影日時情報T(n)を出力する。
The
端末制御部11は、表示装置1を統括的に制御する。この端末制御部11は、撮影部12から出力される撮影画像データD(n){n=1,2・・・}に、この撮影画像データD(n)が撮影された位置を示す撮影位置情報P(n)と、この撮影画像データD(n)が撮影された日時を示す撮影日時情報T(n)とを対応付けて、記憶部17に格納する。なお、nは、撮影部12によって撮影された撮影画像データを他の撮影画像データから識別するための識別情報である撮影画像ID(Identification)である。
The
また、端末制御部11は、撮影部12によって連続的に撮影されるリアルタイム再生画像データを端末制御部11から入力し、撮影部12が撮影する画像をリアルタイムで表示部15に表示する。ここで、端末制御部11は、画像の一部(図1では、ネコの画像O1)を切り出し、切り出した画像(動作画像)の動きを制御する(図2、3参照)。また、端末制御部11は、切り出した画像の背景に画像を合成する(図2、3参照)。
具体的には、端末制御部11は、表示画像検索装置2から動作画像領域情報、動作画像、動作情報、および合成情報を取得する。端末制御部11は、取得した動作画像領域情報が示す動作画像領域に、合成情報が示す背景画像を合成する。端末制御部11は、動作情報に基づいて、動作画像の動きを制御する。なお、端末制御部11は、ユーザ操作に基づいて、動作画像の動きを制御してもよい。また、端末制御部11は、撮影画像の動作画像領域から画像を切り出すことで、動作画像を生成してもよい。
In addition, the
Specifically, the
表示部15は、例えば、液晶ディスプレイ等であって、端末制御部11から入力された情報に基づく画像を表示する。
The
通信部16は、ネットワークNWを介して表示画像検索装置2から送信される情報を受信して端末制御部11に出力し、端末制御部11から入力された情報をネットワークNWを介して表示画像検索装置2に送信する。
The
記憶部17は、撮影部12によって生成された撮影画像データD(n)と、撮影位置情報P(n)と、撮影日時情報T(n)とを対応付けて記憶する。また、記憶部17は、表示装置1が動作するためのプログラムを記憶する。
The
操作部18は、例えば、電源のON/OFFを入力する電源ボタン、ユーザからの撮影指示を入力するシャッターボタン等を含む。
The
<表示画像検索装置2について>
表示画像検索装置2は、通信部21と、第1記憶部22と、画像特徴量算出部23と、位置情報比較部24と、第2記憶部25と、画像特徴量比較部26と、画像識別部27と、第3記憶部28と、第4記憶部29と、特定画像付加情報取得部30と、特定画像動作設定部31と、第5記憶部32とを備える。
<About the display
The display
通信部21は、表示装置1との間で情報の入出力を行うインターフェースであって、ネットワークNWを介して表示装置1から送信される撮影画像データD(n)と、撮影位置情報P(n)と、撮影日時情報T(n)を受信する。この通信部21は、撮影画像データD(n)を画像特徴量算出部23および特定画像動作設定部31に、撮影位置情報P(n)を位置情報比較部24と特定画像付加情報取得部30に、撮影日時情報T(n)を特定画像付加情報取得部30に、それぞれ出力する。また、通信部21は、特定画像動作設定部31から入力された動作データを、ネットワークNWを介して表示装置1に送信する。
なお、通信部21は、本実施形態のように、表示装置1と表示画像検索装置2とがネットワークNWを介して接続されている場合、上述のように表示装置1と情報の送受信を行う機能を有する。一方、図示しないが、表示画像検索装置2が表示装置1に内蔵されている場合、表示装置1と情報の入出力を行う機能を有する。つまり、通信部21は、表示装置1から情報を入力する入力部、および、表示装置1(表示部15)へ情報を出力する出力部として機能する。
The
Note that, when the
第1記憶部22は、例えば表示画像検索装置2の管理者により予め登録された特定画像位置テーブル220を記憶する。
この特定画像位置テーブル220は、図5に示す通り、特定画像IDと、特定画像に関連する付加情報を提供可能な位置を示す特定画像位置情報とを対応付けるテーブルである。この特定画像位置情報は、緯度と、経度と、高度と、位置誤差許容距離を示す情報を含む。
特定画像IDは、特定画像を識別するための識別情報である。なお、この特定画像IDが割り当てられている特定画像データは、この特定画像IDと対応付けて第1記憶部22に格納されている。
The
As shown in FIG. 5, the specific image position table 220 is a table that associates a specific image ID with specific image position information indicating a position where additional information related to the specific image can be provided. The specific image position information includes information indicating latitude, longitude, altitude, and position error allowable distance.
The specific image ID is identification information for identifying the specific image. Note that the specific image data to which the specific image ID is assigned is stored in the
例えば、第1記憶部22は、図6に示すような、特定画像ID1、2、3の特定画像データ100、200、300を格納している。
図6(a)に示す通り、特定画像データ100は、特定画像ID1が割り当てられており、ネコの画像である。
また、図6(b)に示す通り、特定画像データ200は、特定画像ID2が割り当てられており、イヌの画像である。
さらに、図6(c)に示す通り、特定画像データ300は、特定画像ID3が割り当てられており、ロケットの画像である。
図6(a)〜(c)の特定画像データは、それぞれ、特徴点やその特徴点の特徴量が異なる。
For example, the
As shown in FIG. 6A, the specific image data 100 is assigned a specific image ID1, and is a cat image.
Further, as shown in FIG. 6B, the specific image data 200 is a dog image to which a specific image ID2 is assigned.
Furthermore, as shown in FIG. 6C, the specific image data 300 is assigned a specific image ID3 and is a rocket image.
The specific image data in FIGS. 6A to 6C are different in feature points and feature amounts of the feature points.
図5に戻って、緯度、経度、および高度は、特定画像IDの特定画像データに対応する特定画像位置を示す情報である。この特定画像位置は、例えば、特定画像データが表わされたポスターや大型ディスプレイが設置されている位置である。
位置誤差許容距離は、緯度、経度、および高度によって、特定画像位置とみなされる一定の範囲を示す情報である。この位置誤差許容距離は、例えば、特定画像位置を中心とする円の半径を示す距離である。
Returning to FIG. 5, latitude, longitude, and altitude are information indicating the specific image position corresponding to the specific image data of the specific image ID. The specific image position is, for example, a position where a poster or a large display in which specific image data is represented is installed.
The position error allowable distance is information indicating a certain range that is regarded as a specific image position by latitude, longitude, and altitude. This position error allowable distance is, for example, a distance indicating the radius of a circle centered on the specific image position.
図4に戻って、画像特徴量算出部23は、撮影画像データD(n)に基づき、この画像の特徴を示す画像特徴量(以下、撮影画像特徴量という)を算出する。この撮影画像特徴量は、例えば、色の成分、明るさ、エッジ画像等の画像の特徴を数値化したものである。なお、画像特徴量が一定の閾値以上の数値を有する点(例えば、画素)を特徴点という。また、特徴点の撮像画像内における位置は、(X,Y)座標値で示される(図9(b)参照)。画像特徴量算出部23は、各特徴点について、撮影画像特徴量および(X,Y)座標値を対応付けた特徴点情報を生成する。画像特徴量算出部23は、撮像画像内のすべての特徴点についての特徴点情報を含む、撮影画像特徴量情報を生成する。
Returning to FIG. 4, the image feature
この撮影画像特徴量の一例を図7に示す。図7に示す通り、画像特徴量算出部23は、例えば、撮影画像データD(n)に基づき撮影画像特徴量を算出し、例えば、撮影画像特徴量群C1、C2、C3を得る。
この撮影画像特徴量群C1は、撮影画像データD(n)の画像内において、ビルB1の大型ディスプレイに表示された「映画タイトル」の文字画像に対応する画像領域から算出された特徴点の集合である。
撮影画像特徴量群C2は、撮影画像データD(n)の画像内において、ビルB1の大型ディスプレイに表示されたネコの画像に対応する画像領域から算出された特徴点の集合である。
撮影画像特徴量群C3は、撮影画像データD(n)の画像内において、ビルB2の貸広告のスペースに表示されたネコの画像に対応する画像領域から算出された特徴点の集合である。
なお、撮影画像特徴量群C2とC3は、ともにネコの画像に対応する画像領域から算出される特徴点の集合であり、その特徴点の分布は類似している。また、撮影画像特徴量群C2の特徴点は、特に、図6(a)の特定画像データの特徴点と類似している。
An example of the captured image feature amount is shown in FIG. As illustrated in FIG. 7, the image feature
This photographed image feature quantity group C1 is a set of feature points calculated from an image area corresponding to the character image of “movie title” displayed on the large display of the building B1 in the photographed image data D (n). It is.
The photographed image feature quantity group C2 is a set of feature points calculated from an image area corresponding to a cat image displayed on the large display of the building B1 in the photographed image data D (n).
The photographed image feature quantity group C3 is a set of feature points calculated from an image area corresponding to a cat image displayed in the rental advertisement space of the building B2 in the photographed image data D (n) image.
Note that the photographed image feature quantity groups C2 and C3 are a set of feature points calculated from an image area corresponding to a cat image, and the distribution of the feature points is similar. Further, the feature points of the photographed image feature quantity group C2 are particularly similar to the feature points of the specific image data in FIG.
図4に戻って、位置情報比較部24は、通信部21から撮影位置情報P(n)を入力される。この位置情報比較部24は、特定画像位置テーブル220を参照して、入力された撮影位置情報P(n)に基づき、対応する特定画像IDを検索する。つまり、位置情報比較部24は、特定画像位置情報の示す範囲に撮影位置情報P(n)の示す撮影位置を含む特定画像データを検索する。
言い換えると、位置情報比較部24は、第1記憶部22に記憶されている全ての特定画像データの中から、撮影位置情報に対応する特定画像データを検索によって得ることで、画像特徴量比較部26による比較対象を撮影位置情報に対応するものに限定する処理を行っている。
Returning to FIG. 4, the position
In other words, the position
具体的に説明すると、位置情報比較部24は、撮影位置情報P(n)が示す位置が、特定画像位置テーブル220に示された緯度、経度、高度を中心とし位置誤差許容距離を半径とする特定画像位置範囲内となる特定画像IDがあるか否かを判断する。この位置情報比較部24は、この撮影位置情報P(n)の示す位置が特定画像位置範囲内となる特定画像IDを検索によって得た場合、この検索によって得た特定画像IDを画像特徴量比較部26に出力する。
なお、特定画像特徴量テーブル250において、特定の緯度、経度、高度、位置誤差許容距離と対応付けられていない特定画像IDの特定画像データは、位置情報比較部24により検索結果の候補から除外せず、位置情報比較部24によって画像特徴量比較部26に出力される。
More specifically, the position
In the specific image feature amount table 250, the specific image data of the specific image ID that is not associated with the specific latitude, longitude, altitude, and position error allowable distance is excluded from the search result candidates by the position
第2記憶部25は、例えば表示画像検索装置2の管理者により予め登録された特定画像特徴量テーブル250を記憶する。
この特定画像特徴量テーブル250は、図8に示す通り、特定画像IDと、特定画像の特徴を示す特定画像特徴量情報とを対応付けるテーブルである。この特定画像特徴量情報は、特定画像における特徴点の特徴点縦座標と、特徴点横座標と、特徴点特徴量とを示す情報を含む。
この特徴点縦座標と特徴点横座標は、対応する特定画像IDの画像内において特定の特徴量を示す特徴点の位置を示す情報である。特徴点特徴量は、この特徴点縦座標と特徴点横座標が示す特徴点の特徴量を示す情報である。なお、各特定画像IDに対応付けられている特徴点特徴量の数は、各特定画像IDに応じて決まる。この特徴量は、例えば、様々な観点によって抽出されてもよく、複数の種類の特徴量を抽出する場合には、特徴量は、ベクトルとなる。図示においては、簡略化のため、特徴点についての1つの種類の特徴量を示す。
The
As shown in FIG. 8, the specific image feature amount table 250 is a table that associates a specific image ID with specific image feature amount information indicating the characteristics of the specific image. The specific image feature amount information includes information indicating the feature point ordinate, the feature point abscissa, and the feature point feature amount of the feature point in the specific image.
The feature point ordinate and the feature point abscissa are information indicating the position of the feature point indicating the specific feature amount in the image of the corresponding specific image ID. The feature point feature amount is information indicating the feature amount of the feature point indicated by the feature point ordinate and the feature point abscissa. Note that the number of feature point feature quantities associated with each specific image ID is determined according to each specific image ID. This feature amount may be extracted from various viewpoints, for example, and when a plurality of types of feature amounts are extracted, the feature amount is a vector. In the drawing, for simplification, one kind of feature amount for feature points is shown.
図4に戻って、画像特徴量比較部26は、特定画像特徴量テーブル250を参照して、位置情報比較部24の検索によって得られた特定画像IDに対応する特徴量を読み出し、この特定画像IDに対応する特徴量と、画像特徴量算出部23によって生成された撮影画像特徴量情報の撮影画像特徴量とを比較して、撮影画像データD(n)の画像内に含まれる特徴量と類似する特徴量を有する特定画像(類似特定画像とも称する)を検出する。
Returning to FIG. 4, the image feature
具体的に説明すると、この画像特徴量比較部26は、例えば、特定画像ID毎に特徴量を読み出し、読み出した特徴量と撮影画像特徴量情報の撮影画像特徴量とが一致するか否かを判定する。ここで、一致とは、特徴量の値が閾値T1以内の場合をいう。なお、1つの特徴点に対して複数種類(例えば、色の成分、明るさの2種類)の特徴量がある場合には、画像特徴量比較部26は、同じ種類同士の特徴量を比較する。画像特徴量比較部26は、比較した特徴量の値が閾値T1以内となる特徴量の種類の数を計数し、計数した数が閾値以上になる場合に、類似すると判定してもよい。
画像特徴量比較部26は、一致すると判定した特徴点の数を計数する。例えば、画像特徴量比較部26は、計数した特徴点の数を特定画像IDの特徴点の総数で除算し、除算した値を、特徴量類似度とする。なお、画像特徴量比較部26は、他の手法を用いて、特徴量類似度を算出してもよい。画像特徴量比較部26は、特徴量類似度と特定画像IDを対応付けて記憶する。
画像特徴量比較部26は、上記の処理を、全ての特定画像IDに対して行う。画像特徴量比較部26は、最大となる特徴量類似度に対応する特定画像IDを抽出し、抽出した特定画像IDの特定画像を、類似特定画像として検出する。
画像特徴量比較部26は、検出した類似特定画像の特定画像IDと、その特定画像IDに対応する特定画像特徴量情報と、撮影画像特徴量情報とを、画像識別部27へ出力する。
More specifically, for example, the image feature
The image feature
The image feature
The image feature
画像識別部27は、画像特徴量比較部26から入力された特定画像特徴量情報および撮影画像特徴量情報に基づいて、特定画像と、その特定画像に類似する撮影画像内の画像(類似画像とも称する)と、の位置の対応関係を示す変換行列Aを算出する。
例えば、図9(a)に示す通り、オリジナルの特定画像の画像内における位置を(x,y)座標値で示す。また、図9(b)に示す通り、撮影画像内における位置を(X,Y)座標値で示す。
Based on the specific image feature amount information and the captured image feature amount information input from the image feature
For example, as shown in FIG. 9A, the position of the original specific image in the image is indicated by (x, y) coordinate values. Further, as shown in FIG. 9B, the position in the captured image is indicated by (X, Y) coordinate values.
画像識別部27は、特定画像特徴量情報から特徴点を抽出し、その特徴点と一致する特徴点を、撮影画像特徴量情報から抽出する。ここで、一致とは、特徴量の値が閾値以内の場合をいうが、この閾値は閾値T1と異なっていてもよいし、同じであってもよい。画像識別部27は、特定画像特徴量情報から抽出した特徴点について、特徴点縦座標および特徴点横座標をそれぞれ、次式(1)の(x,y)へ代入する。画像識別部27は、撮影画像特徴量情報から抽出した特徴点について、抽出した特徴点について、(X,Y)座標値を、次式(1)の(X,Y)へ代入する。なお、撮影画像特徴量情報から抽出した特徴点が複数ある場合には、それらの(X,Y)座標値の平均値を、次式(1)の(X,Y)へ代入してもよい。
The
画像識別部27は、代入の結果、行列Axyの各成分を未知数とする数式を生成する。画像識別部27は、上記の処理を予め定めれら回数だけ繰り返し、その回数の数の数式を生成する。画像識別部27は、生成した数式を、連立させて解くことにより、行列Axyを算出する。
As a result of the substitution, the
画像識別部27は、動作情報(図11参照)を参照して、動作画像にz方向の移動量があるか否かを判定する。ここで、z方向は、特徴点縦座標および特徴点横座標に直交する座標である。動作画像にz方向の移動量がないと判定した場合には、画像識別部27は、行列Axyを変換行列Aとする。一方、動作画像にz方向の移動量があると判定した場合には、画像識別部27は、行列Axyzを算出し、算出した行列Axyzを変換行列Aとする。
The
ここで、行列Axyzについて説明をする。
動作画像の動作は、図11に示したように、特定画像の座標値に対応する(x、y、z)の三次元で設定している。これは、例えば、動作画像が、その表示面(印刷面を含む)から飛び出すような三次元的な動作を記述できるようにするためである。しかしながら、上式は、z方向への飛び出しや引っ込みを、撮影画像で表現するための情報が不足する。そこで、画像識別部27は、(x,y)座標値にz座標値を加えた(x,y,z)座標値を、撮影画像内の座標値へ変換する行列Axyz(式(6))を算出する。
この行列Axyzは、式(2)とおき、式(3)の条件から求められる。なお、Lは正の値である。
Here, the matrix A xyz will be described.
As shown in FIG. 11, the motion image is set in three dimensions (x, y, z) corresponding to the coordinate values of the specific image. This is because, for example, the operation image can describe a three-dimensional operation such that the operation image pops out from the display surface (including the print surface). However, the above formula lacks information for expressing the jumping out or retracting in the z direction with a captured image. Therefore, the
This matrix A xyz is obtained from the condition of the expression (3), as in the expression (2). Note that L is a positive value.
画像識別部27は、L2の2次方程式である式(4)を解き、L2の解(単にL2と称する)を算出する。画像識別部27は、算出したL2を式(5)を用いて、izおよびjzを算出する。
画像識別部27は、算出したizおよびjzと行列Axyの各成分とに基づいて、式(6)を生成する。
The
画像識別部27が算出した変換行列Aは、オリジナルの特定画像を撮影内の位置に位置変換させるための変換規則である。ただし、変換規則は行列でなくてもよいし、変換規則は特定画像の部分毎にあってもよい。例えば、画像識別部27は、x座標値毎又はy座標値毎の変換行列Aを算出してもよい。なお、この変換行列Aに従って、特定画像が撮影画像内に位置変換された場合、撮影画像内における特定画像が位置する領域を、以下、動作画像領域という。つまり、画像識別部27は、撮影画像内に写る動作画像領域の位置を示す情報を算出する。言い換えると、画像識別部27は、特定画像の特徴量と撮影画像の特徴量に基づいて、撮影画像において特定画像と特徴の一致又は類似する動作画像領域を決定する。なお、撮影画像内における動作画像領域の画像が、動作画像となる。ただし、本発明はこれに限らず、動作画像領域の画像を別の画像としてもよく、例えば、特定画像を変換行列Aにより変換した画像であってもよい。
The conversion matrix A calculated by the
画像識別部27は、変換行列Aと類似特定画像の特定画像IDとを、特定画像付加情報取得部30へ出力する。
第3記憶部28は、オリジナルの特定画像や特徴量抽出画像の画像データを記憶する領域である特定画像データ記憶領域280を備える。
The
The
第4記憶部29は、例えば表示画像検索装置2の管理者により予め登録された特定画像付加情報テーブル290を記憶する。
この特定画像付加情報テーブル290は、図10に示す通り、特定画像IDと、特定画像に関連する付加情報を示す特定画像付加情報と、この特定画像IDに対応する特定画像付加情報を撮影時の条件に応じてさらに特定するための情報である撮影条件情報とを対応付けるテーブルである。この撮影条件情報は、緯度と、経度と、高度と、位置誤差許容距離と、年/月/日と、時刻とを含む。
The
As shown in FIG. 10, the specific image additional information table 290 includes a specific image ID, specific image additional information indicating additional information related to the specific image, and specific image additional information corresponding to the specific image ID at the time of shooting. It is a table which matches imaging condition information which is information for further specifying according to conditions. This photographing condition information includes latitude, longitude, altitude, allowable position error distance, year / month / day, and time.
緯度、経度、高度、位置誤差許容距離は、特定画像IDに対応する特定画像付加情報を撮影時の位置に応じてさらに特化させることを可能にするための情報である。
年/月/日と、時刻は、特定画像IDに対応する特定画像付加情報を撮影時の日時に応じてさらに特化させることを可能にするための情報である。
コンテンツURLは、特定画像と関連するコンテンツをインターネットを介して提供するURL( Uniform Resource Locator )である。
動画ファイル名は、特定画像と関連する動画ファイルを示す情報である。なお、この動画ファイル名で示す動画ファイルは、第4の記憶部29に保存されている。
スライドショー画像数と、スライドショー画像表示フレームレートは、特定画像と関連するスライドショーの画像枚数と、このスライドショーを表示させる際のフレームレートを示す情報である。
The latitude, longitude, altitude, and position error allowable distance are information for allowing the specific image additional information corresponding to the specific image ID to be further specialized according to the position at the time of shooting.
The year / month / day and time are information for allowing the specific image additional information corresponding to the specific image ID to be further specialized according to the date and time at the time of shooting.
The content URL is a URL (Uniform Resource Locator) that provides content related to a specific image via the Internet.
The moving image file name is information indicating a moving image file associated with the specific image. Note that the moving image file indicated by the moving image file name is stored in the
The number of slide show images and the slide show image display frame rate are information indicating the number of slide show images associated with the specific image and the frame rate for displaying the slide show.
特定画像付加情報取得部30は、特定画像付加情報テーブル310から、画像識別部27から入力された特定画像IDに対応する特定画像付加情報を読み出す。また、特定画像付加情報取得部30は、特定画像付加情報テーブル310から、通信部21から入力された撮影位置情報と撮影日時情報に対応する特定画像付加情報を読み出す。特定画像付加情報取得部30は、特定画像ID、特定画像付加情報、および変換行列Aを、特定画像動作設定部31へ出力する。
特定画像動作設定部31は、特定画像付加情報取得部30および通信部21から入力された情報に基づいて、次の(1)〜(4)の処理を行う。
The specific image additional
The specific image
(1)動作画像領域の算出
特定画像動作設定部31は、動作画像テーブル320(図12)から、特定画像付加情報取得部30から入力された特定画像IDに対応する動作画像領域情報を読み出す。特定画像動作設定部31は、動作画像領域情報に含まれるマスク画像であって、特定画像のマスク画像(図15(b))を抽出する。マスク画像とは、例えば、画素値のある位置のビット値が「1」であり、画素値の無い位置のビット値が「0」(透明)の画像である。
特定画像動作設定部31は、抽出したマスク画像に対して変換行列Aを左から演算することで、撮影画像のマスク画像を生成する。この撮影画像のマスク画像は、動作画像領域を示す。つまり、特定画像動作設定部31は、動作画像領域を算出する。
(1) Calculation of Motion Image Region The specific image
The specific image
(2)動作画像の生成
特定画像動作設定部31は、通信部21から入力された撮影画像データD(n)から、算出した動作画像領域の画像を抽出する(例えば、図1のネコの画像O1)。つまり、特定画像動作設定部31は、動作画像を生成する。なお、表示装置が動作画像の生成を行う場合には、特定画像動作設定部31は、動作画像の生成を行わなくてもよい。
(2) Generation of Motion Image The specific image
(3)背景画像の生成
特定画像動作設定部31は、動作画像テーブル320から、特定画像付加情報取得部30から入力された特定画像IDに対応する動作画像領域情報(図11参照)を読み出す。特定画像動作設定部31は、特定画像の背景画像(図15(c))を抽出する。特定画像動作設定部31は、抽出した背景画像に対して変換行列Aを左から演算することで、動作画像領域に合成される背景画像(例えば、図2の領域R1の画像)を生成する。
(3) Generation of Background Image The specific image
(4)動作情報の生成
特定画像動作設定部31は、動作画像テーブル320から、特定画像付加情報取得部30から入力された特定画像IDに対応する特定画像動作情報を読み出す。特定画像動作設定部31は、読み出した特定画像動作情報に含まれる動作画像の(x,y,z)座標値に対して、変換行列Aを左から演算する。これにより、特定画像動作設定部31は、動作画像の撮影画像内での動きを示す動作情報を生成する。
(4) Generation of Motion Information The specific image
特定画像付加情報取得部30は、算出した動作画像領域を示す情報、生成した動作画像、背景画像を示す合成情報、および動作情報を、動作データとして、通信部21へ出力する。
The specific image additional
図11は、特定画像動作情報の一例を示す図である。特定画像動作情報は、特定画像の動きを表す情報である。なお、特定画像動作情報に基づいて生成された動作情報は、動作画像の動きを表す情報となる。この図において、Timeは、経過時間を示す、x,y,zは、例えば特定画像の中心のx,y,z座標値を示す。
特定画像動作情報は、例えば、図11に示す通り、基準時からの経過時間に対応する特定画像の位置が規定されている。なお初期位置の特定画像が、基準時から経過時間(例えば、ミリ秒)経過後にある位置が規定されている。例えば、図11の特定画像動作情報は、経過時間「1000」ミリ秒のときに座標(100,0,0)の位置にあった特定画像が、経過時間「2000」ミリ秒のときに座標(100,0,100)の位置にあることを示す。つまり、図11の特定画像動作情報は、特定画像がz方向へ飛び出す(又は引っ込む)ことを表す。なお、画像の動作の記述方法は、これに限定されるものではない。また、特定画像が複数ある場合には、それぞれの特定画像に対して、特定画像動作情報が記述される。
FIG. 11 is a diagram illustrating an example of specific image operation information. The specific image operation information is information representing the movement of the specific image. Note that the motion information generated based on the specific image motion information is information representing the motion image motion. In this figure, Time indicates the elapsed time, and x, y, and z indicate, for example, the x, y, and z coordinate values of the center of the specific image.
In the specific image operation information, for example, as shown in FIG. 11, the position of the specific image corresponding to the elapsed time from the reference time is defined. Note that the position where the specific image at the initial position is after the elapse of time (for example, milliseconds) from the reference time is defined. For example, the specific image operation information shown in FIG. 11 includes coordinates when the specific image at the position of the coordinate (100, 0, 0) when the elapsed time is “1000” milliseconds and the elapsed time “2000” milliseconds. 100, 0, 100). That is, the specific image operation information in FIG. 11 represents that the specific image jumps out (or retracts) in the z direction. Note that the description method of the operation of the image is not limited to this. In addition, when there are a plurality of specific images, specific image operation information is described for each specific image.
次に、図12を参照して、動作画像テーブル320の一例について説明する。
図12に示す通り、特定画像IDに対応して、動作画像領域情報および特定画像動作情報が記憶される。ここでは、特定画像ID1の特定画像については、動作画像領域情報(1_a.png)と、特定画像動作情報(起動記述1_a)とが、それぞれ対応付けられている。なお、図12では、簡略化のため、動作画像領域情報として、画像を示す情報が1つ格納されていが、特定画像のマスク画像を示す情報、および背景画像を示す情報の2つが格納されている。
Next, an example of the operation image table 320 will be described with reference to FIG.
As shown in FIG. 12, the operation image area information and the specific image operation information are stored in correspondence with the specific image ID. Here, for the specific image of the specific image ID1, the action image area information (1_a.png) and the specific image action information (activation description 1_a) are associated with each other. In FIG. 12, for simplification, one piece of information indicating an image is stored as operation image area information, but two pieces of information indicating a mask image of a specific image and information indicating a background image are stored. Yes.
表示装置1は、動作データを、表示画像検索装置2から通信部16を介して入力し、これらの情報を表示装置1の端末制御部11に出力する。端末制御部11は、受信した動作データに基づいて、撮影画像データD(n)の動作画像領域に背景画像を合成し、動作情報に基づいて動作画像を動かす。これにより、ユーザには、撮影画像から動作画像が切り出され、切り出された動作画像が動き出すように見える。
なお、動作情報において規定されていない経過時間については、端末制御部11は、例えば、位置を線形補間する。これにより、ユーザには、動作画像が連続して動くように見える。
The
In addition, about the elapsed time which is not prescribed | regulated in operation | movement information, the
次に、図13を参照して、動作画像テーブル320に動作画像領域情報および特定画像動作情報を登録する登録装置5の例について説明する。なお、ここでは、登録装置5を表示画像検索装置2とは別体として説明しているが、登録装置5の機能を表示画像検索装置2としてのサーバ内に実現してもよい。
図13に示すように、登録装置5は、登録処理部51と、操作入力部52と、表示部53と、画像記憶部54とを備える。
Next, an example of the
As illustrated in FIG. 13, the
登録処理部51は、動作画像テーブル320への登録処理を実行する。操作入力部52は、キーボードやマウス等からなり、オペレータの操作入力を受け付ける。表示部53は、液晶ディスプレイ等からなり、ソース画像や処理画像の表示を行う。画像記憶部54は、特定画像として登録すべき画像を記憶する。
The
なお、動作画像領域情報および特定画像動作情報の動作画像テーブル320への登録には、特定画像から動作画像を切り抜いて動作画像領域情報を登録する処理(以下、切り抜き登録処理という)と、動作画像領域情報が示す動作画像と合成情報が示す背景画像を合成して特定画像を登録する処理(以下、合成登録処理という)とがある。 The registration of the motion image area information and the specific image motion information in the motion image table 320 includes a process of cutting out the motion image from the specific image and registering the motion image area information (hereinafter referred to as a cutout registration process), and a motion image. There is a process of registering a specific image by combining the motion image indicated by the area information and the background image indicated by the composite information (hereinafter referred to as a composite registration process).
先に、図14を参照して、切り抜き登録処理の一例について説明する。図14は、切り抜き登録処理の一例を説明するためのフローチャートである。
オペレータは、画像を指定する(ステップST101)。オペレータは、この画像内において、特定画像を指定する(ステップST102)。登録すべき特定画像が指定されると、登録処理部51は、指定された情報に基づき、動作画像領域情報を生成し、動作画像テーブル320に登録する(ステップST103)。
First, an example of the cutout registration process will be described with reference to FIG. FIG. 14 is a flowchart for explaining an example of the cutout registration process.
The operator designates an image (step ST101). The operator designates a specific image in this image (step ST102). When a specific image to be registered is designated, the
例えば、ステップST101で、オペレータは、画像として図15(a)に示すような画像を指定する。オペレータは、特定画像として、ネコの画像の部分を指定する(図6(a))。この場合、登録処理部51は、図15(b)に示すマスク画像を生成する。マスク画像は、例えば、PNG(Portable Network Graphics)形式の画像である。マスク画像は、例えば、ネコの画像の部分に値を有し、それ以外の部分は透明(値なし)となる。登録処理部51は、特定画像とマスク画像を動作画像領域情報として、特定画像IDに対応させて登録する。
For example, in step ST101, the operator designates an image as shown in FIG. The operator designates a cat image portion as the specific image (FIG. 6A). In this case, the
ステップST103で、動作画像領域情報が登録されたら、次に、オペレータは、動作画像の動作を記述して入力する(ステップST104)。これにより、登録処理部51は、特定画像動作情報を生成し、生成した特定画像動作情報を、ステップS103での特定画像IDに対応させて登録する(ステップST105)。
次に、登録処理部51は、この特定画像の特徴量を抽出し(ステップST106)、特定画像の特徴量として、特定画像特徴量テーブル250に登録する(ステップST107)。そして、登録処理部51は、登録処理を終了するか否かを判定し(ステップST108)、登録処理を終了しなければ、次の画像の登録処理に移り(ステップST109)、ステップST101にリターンする。
If the motion image area information is registered in step ST103, the operator then describes and inputs the motion image motion (step ST104). As a result, the
Next, the
次に、図16を参照して、背景画像とマスク画像とを合成して背景画像を登録する処理(合成登録処理)の一例について説明する。図16は、合成登録処理の一例を示すフローチャートである。
オペレータは、背景画像を含む画像(例えば、図17)を指定する(ステップST201)。オペレータは、マスク画像(例えば、図15(b))を指定する(ステップST202)。登録処理部51は、ステップST201で指定された画像と、ステップST202で指定されたマスク画像と、を合成する(ステップST203)。これにより、登録処理部51は、背景画像(例えば、図15(c))を生成する。登録処理部51は、生成した背景画像を、ステップST202で指定されたマスク画像を含む動作画像領域情報に含ませて、動作画像テーブル320に登録する(ステップST204)。
Next, an example of processing for registering a background image by combining the background image and the mask image (composite registration processing) will be described with reference to FIG. FIG. 16 is a flowchart illustrating an example of the composition registration process.
The operator designates an image (for example, FIG. 17) including a background image (step ST201). The operator designates a mask image (for example, FIG. 15B) (step ST202). The
次に、図18を参照して、本実施形態に係る画像検索表示方法の一例について説明する。図18は、本実施形態に係る画像検索表示方法の一例を説明するためのフローチャートである。
表示画像検索装置2は、撮影画像特徴量と特定画像の特徴量とに基づき、変換行列Aを算出する。表示画像検索装置2は、変換行列と特定画像のマスク画像に基づいて、動作画像領域を算出する。つまり、撮像画像上の特定画像の位置を算出する(ステップST11)。表示画像検索装置2は、ステップST11で算出された動作画像領域を含む動作データを、表示装置1へ送信する(ステップST12)。
Next, an example of an image search display method according to the present embodiment will be described with reference to FIG. FIG. 18 is a flowchart for explaining an example of the image search display method according to the present embodiment.
The display
表示装置1は、ステップS12で送信された動作データを受信する(ステップS13)。表示装置1は、ステップS13で受信された動作データに含まれる動作画像領域に基づいて、撮像画像の動作画像領域を特定する。つまり、表示装置1は、撮像画像中の特定画像の位置を設定する(ステップST14)。
表示画像検索装置2は、動作画像を生成し、生成した動作画像を含む動作データを表示装置1へ送信する(ステップST15)。表示装置1は、ステップST15で送信された動作画像を受信する(ステップS16)。
表示画像検索装置2は、背景画像を生成し、生成した背景画像を示す合成情報を含む動作データを表示装置1へ送信する(ステップST17)。表示装置1は、ステップST17で送信された合成情報を受信する(ステップS18)。
The
The display
The display
表示装置1は、ステップST14で特定された動作画像領域に、ステップS18で受信された背景画像を合成(重畳)することで、動作画像領域を補完する。表示装置1は、合成後の画像に、ステップS16で受信された動作画像を重ねる。ここで、表示装置1は、例えば、合成後の画像のレイヤと、動作画像のレイヤを分ける。これにより、表示装置1は、動作画像を切り出す(ステップST19)。
表示画像検索装置2は、動作情報を生成し、生成した動作情報を含む動作データを表示装置1へ送信する(ステップST20)。表示装置1は、ステップST20で送信された動作情報を受信する(ステップS21)。
表示装置1は、受信した動作情報を読み込む(ステップST22)。表示装置1は、ステップST19で切り出した動作画像を、ステップST22で読み込んだ動作情報に基づいて動かす(ステップS23)。
The
The display
The
このように、本実施形態では、表示装置1は表示画像検索装置2から動画ファイルをダウンロードすることなく、撮影された画像に関連する動く画像を表示することができる。また、表示装置1の表示部15に表示される画像は、表示装置1の撮影部12で撮影された撮影画像から切り出した動作画像が動くので、撮影画像に合わせた自然な画像となり、撮影する周囲環境との影響で表示画像検索装置2に登録した画像と表示装置1で撮影した画像との明るさや色が異なっていても、その影響を受けることがない。また、本実施形態では、撮影された画像の一部が動き出すような画像となるので、ユーザに独特の視覚効果を与えることができ、このような視覚効果を利用した各種のサービスが期待できる。
また、例えば、表示装置1で撮影した撮影画像に対応する動作画像や動作の記述を複数用意しておき、ユーザ毎の選択やランダムに、表示画像検索装置2から表示装置1に提供する動作画像や動作の記述を切り替えるようにしてもよい。このようにすると、ユーザは、同一の撮影画像に対して、各種の動きの画像を見ることができる。また、このことを利用した各種のサービスが期待できる。
Thus, in the present embodiment, the
In addition, for example, a plurality of operation images and operation descriptions corresponding to captured images captured by the
ところで、上述の図11に示したような動作情報の記述は、表示画像検索装置2側で表示画像検索装置2の運営者側が所定の動作を提供しているものであり、動作画像の動きは、動作情報の記述に従って、一意に決められる。しかし、本発明はこれに限らず、画像検索表示システムは、ユーザの各種の入力に応じて、動作画像の動きを変えてもよい。これにより、ユーザの楽しみが増大する。
By the way, the description of the operation information as shown in FIG. 11 described above is that the operator of the display
[第2実施形態]
なお、ここでユーザの入力とは、操作部18のキーボードやボタンによる入力だけではない。例えば、表示装置1の表示部15上に接触センサ19がある場合には、表示部15をタッチやスライドあるいはフリック等の操作をすることが入力となり、また、表示装置1に重力センサ20を設けた場合には、ユーザが表示装置1の方向を変えたり、ユーザが表示装置1を所定の動きで振ったりするような動作が入力となる。さらに、各種のセンサを設ければ、これらのセンサを利用した入力が行える。つまり、接触センサ19、重力センサ20、その他各種のセンサの検出結果は、動作画像の動きを指示する動作指示情報である。
ここでは、このようなセンサを用いた入力により動作画像の動きを変えるような処理の一例として、物理モデルによる例について説明する。
図19に示すように、表示装置1が重力センサ20を有している場合、特定画像動作設定部31および端末制御部11に、以下のような物理モデルを登録しておく。具体的には、動作画像の座標(X,Y)がΔt秒毎に(X0,Y0)、(X1,Y1)、(X2,Y2)、…と変化していくとして、重力センサ20の重力の方向(gx,gy)を計測する場合、
[Second Embodiment]
Here, the input by the user is not limited to the input by the keyboard or buttons of the
Here, an example based on a physical model will be described as an example of processing for changing the motion of an operation image by input using such a sensor.
As shown in FIG. 19, when the
として更新することができる。例えば、この物理モデルは、図20に示すように記述して、送受信することができる。 Can be updated as. For example, this physical model can be described and transmitted as shown in FIG.
端末制御部11は、図20に示したような動作の記述を受信すると、上記の物理モデルに従って、動作画像を更新表示する。すなわち、端末制御部11は、Δt秒後の動作画像の位置を上式に従って計算し、撮影部12に表示する。また、接触センサ19から動作画像内に入力があった場合には、
When receiving the description of the operation as shown in FIG. 20, the
として動作を指で止め、指で動かせるようにしてもよい。 The operation may be stopped with a finger and moved with a finger.
[第3実施形態]
次に、本実施形態に係る画像検索表示方法の他の例について説明する。図21は、本実施形態に係る画像検索表示方法の他の例を説明するためのフローチャートである。図21と図18とを比較すると、図21のステップST42〜ST45、ST47の処理が異なる。図21のステップS31〜ステップST41の処理は、それぞれ、図18のステップS11〜S21の処理と同様であるので、説明は省略する。
[Third Embodiment]
Next, another example of the image search / display method according to the present embodiment will be described. FIG. 21 is a flowchart for explaining another example of the image search and display method according to the present embodiment. When FIG. 21 is compared with FIG. 18, the processes of steps ST42 to ST45 and ST47 of FIG. 21 are different. The processes in steps S31 to ST41 in FIG. 21 are the same as the processes in steps S11 to S21 in FIG.
画像識別部27は、色補正のためのサンプル点を抽出し(ステップST42)、抽出したサンプル点の情報から、色補正の変換行列Acを算出する(ステップST43)。そして、特定画像動作設定部31は、ステップST43で算出された変換行列Acを通信部21に送り、通信部21は、変換行列Acを表示装置1に送信する(ステップST44)。表示装置1の通信部16は、変換行列Acを受信する(ステップST45)。
表示装置1は、ステップST39で切り出した動作画像を、ステップST46で読み込んだ動作情報に基づいて動かす。また、表示装置1は、ステップST45で受信された変換行列Acを用いて、ステップST38で受信された背景画像を色補正し、色補正した背景画像を動作画像領域に合成する(ステップS47)。
The
この例では、動作画像が切り出されて動いた後の領域に背景画像を合成し、また、この背景画像の色を補正して、より、自然な合成を行えるようにしている。つまり、図15(b)に示したような動作画像領域情報を表示画像検索装置2から表示装置1に送信し、表示装置1の表示部15で動作画像を動かして表示させた場合、動作画像領域に表示される画像がなくなってしまい、例えば白色あるいは黒色となる。このため、動作画像が切り出されて移動した場合、動作画像領域が白色等に見えてしまい、不自然な画像となる。
また、例えば、表示画像検索装置2から背景画像を受信する場合にも、受信した背景画像の色合いがその周囲の色合いと合わない場合がある。
In this example, the background image is synthesized with the area after the motion image is cut out and moved, and the color of the background image is corrected so that more natural synthesis can be performed. That is, when the motion image area information as shown in FIG. 15B is transmitted from the display
For example, even when a background image is received from the display
そこで、この例では、ステップST42〜ステップST45で、表示画像検索装置2で生成された色補正の変換行列を表示装置1に送り、背景画像の色補正を行うようにしている。これにより、動作画像が動いた後の動作画像領域も、自然な画像として見える。
Therefore, in this example, in step ST42 to step ST45, the color correction conversion matrix generated by the display
色変換を行う場合、画像識別部27は、特定画像と、その類似画像と、の色の対応関係を示す変換行列Aを算出する。ここで、画像識別部27は、変換行列(Ac・As)を、変換行列Aとして算出する。ここで、行列Asは、位置の対応関係を示す変換行列(第1の実施形態)であり、行列Acは、色の対応関係を示す変換行列である。なお、(Ac・As)は、行列Asで変換された座標各々の色情報に対して、Acを演算することを表す。
具体的に説明すると、画像識別部27は、オリジナルの特定画像とその類似画像とから、色補正のためのサンプル点を抽出する。本実施形態において、画像識別部27は、図22(a)に示すように、特定画像上において定義されるサンプル点p1,p2、p3・・・に基づき、撮影画像データD(n)の中から、図22(b)に示すように、サンプル点p1,p2、p3・・・に対応するサンプル点P1,P2、P3・・・を求める。なお、サンプル点P1の(X,Y)座標値は、(x,y)座標値に左から行列Asを演算することで得られる。
When performing color conversion, the
More specifically, the
また、画像識別部27は、特定画像におけるサンプル点p1,p2、p3・・・の色情報(r1,g1,b1)、(r2,g2,b2)、(r3,g3,b3)・・・の色変換を実施する。具体的説明すると、画像識別部27は、これら色情報(r1,g1,b1)、(r2,g2,b2)、(r3,g3,b3)・・・を、それぞれ対応するサンプル点P1,P2、P3・・・の色情報(R1,G1,B1)、(R2,G2,B2)、(R3,G3,B3)・・・に変換するような行列Acを算出する。
以下、画像識別部27による行列Acの算出方法の一例について説明する。
例えば、特定画像におけるサンプル点p1,p2の色情報(r1,g1,b1)、(r2,g2,b2)を、以下のように示すものとする。
The
Hereinafter, an example of a method for calculating the matrix Ac by the
For example, the color information (r 1 , g 1 , b 1 ) and (r 2 , g 2 , b 2 ) of the sample points p1 and p2 in the specific image are shown as follows.
また、例えば、撮影画像データD(n)に含まれる特定画像におけるサンプル点P1,P2の色情報(R1,G1,B1)、(R2,G2,B2)を、以下のように示すものとする。 Further, for example, the color information (R 1 , G 1 , B 1 ) and (R 2 , G 2 , B 2 ) of the sample points P1 and P2 in the specific image included in the captured image data D (n) are It shall be shown as follows.
画像識別部27は、それぞれ対応するサンプル点p1の色情報とP1の色情報、p2の色情報とP2の色情報とをそれぞれ近づけるようにする色補正変換係数Fを算出する。
なお、以下の式(11)によって、それぞれ対応するサンプル点p1の色情報とP1の色情報、p2の色情報とP2の色情報とが関連づけられる。
画像識別部27は、式(11)に示す式を最小化する行列Eを算出することにより、以下に示す式(12)の行列Cと行列Dとに対して、以下に示す式(13)の擬似逆行列を用いて、式(14)の行列Acの最適解を算出する。画像識別部27は、行列(Ac・As)を、変換行列Aとして算出する。
The
Note that the following equation (11) associates the color information of the corresponding sample point p1 with the color information of P1, and the color information of p2 and the color information of P2.
The
なお、RANSAC法等の以下の論文に記載された技術を用いてもよい。 Note that techniques described in the following papers such as the RANSAC method may be used.
M. A. Fischler and R. C. Bolles, “Random sample consensus: A paradigm for model fitting with applications to image analysis and automated cartography,"Commun. ACM, no.24, vol.6, pp.381-395, June 1981. M. A. Fischler and R. C. Bolles, “Random sample consensus: A paradigm for model fitting with applications to image analysis and automated cartography,” Commun. ACM, no.24, vol.6, pp.381-395, June 1981.
表示画像検索装置2は、上式の色補正の行列Acを表示装置1に送り、表示装置1の端末制御部11は、合成処理を行う際に、行列Acに基づいて、合成部分の色変換を行う。具体的には、表示装置1は、背景画像に対して、行列Acを左から演算する。表示装置1は、演算後の背景画像を動作画像領域に重畳する。これにより、表示装置1から送られてきた撮影画像の撮影環境に応じて、背景部分の色変換を行うことができる。
なお、本実施形態において、表示画像検索装置2は、行列Acを用いて、背景画像の色変換を行った後の画像を背景画像としてもよい。
The display
In the present embodiment, the display
また、図15(b)に示したように、背景情報が透明で、動作画像を切り出す場合には、以下の論文に記載された技術を用いて合成を行ってもよい。 As shown in FIG. 15B, when background information is transparent and an action image is cut out, composition may be performed using the technique described in the following paper.
W. AU AND R. TAKEI, Image inpainting with the Navier-Stokes equations.
Available at Final Report APMA 930 SFU, 2002.
W. AU AND R. TAKEI, Image inpainting with the Navier-Stokes equations.
Available at Final Report APMA 930 SFU, 2002.
なお、本発明は上述の実施形態に限られず、例えば、以下のような構成であってもよい。
例えば、表示装置1は、撮影画像の動作画像領域から、動作画像を切り出してもよい。この場合、表示画像検索装置2は、動作画像を生成しなくてもよい。
また、表示画像検索装置2は、動作画像に対して、変換行列Aの逆行列を左から演算することで、動作画像について特定画像に相当する画像(撮影特定画像とも称する)を生成してもよい。この場合、表示画像検索装置2は、生成した撮影特定画像、変換行列A、および特定画像動作情報を含む動作データを、表示装置1へ送信してもよい。表示装置1は、受信した撮影特定画像を、変換行列Aで変換することで、動作画像を生成する。表示装置1は、特定画像動作情報に含まれる動作画像の(x,y,z)座標値に対して、変換行列Aを左から演算する。これにより、表示装置1は、動作画像の撮影画像内での動きを示す動作情報を生成する。
In addition, this invention is not restricted to the above-mentioned embodiment, For example, the following structures may be sufficient.
For example, the
Further, the display
また、表示画像検索装置2は、動作画像として、特定画像に対して変換行列Aを左から演算したものを、表示装置1へ送信してもよい。つまり、表示画像検索装置2は、特定画像の位置変更等し、動作画像領域の形状と同じ形状に変換したものを、動作画像としてもよい。
Further, the display
また、合成には、補完や補間が含まれる。ここで、補完とは、補間とは、例えば、定義されていない値域での値を周りにある値域の値から定義しなおすことをいう。また、動作画像領域に背景画像を合成することには、動作画像領域に、予め定められた画素値を設定することも含まれる。また、合成情報は、例えば線形補間を示す情報であってもよく、その場合、表示装置1は、動作画像領域を、その周辺の画素値に基づいて、例えば線形補間する。また、合成情報が示す背景画像は、淡色であってもよい。
The synthesis includes complementation and interpolation. Here, the term “complement” refers to, for example, redefining a value in an undefined value range from a value in a surrounding value range. Further, combining the background image with the motion image area includes setting a predetermined pixel value in the motion image area. Further, the synthesis information may be information indicating, for example, linear interpolation. In this case, the
また、上述の各ステップを実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、また、表示装置1および表示画像検索装置2の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、検出対象物の形状情報の推定値を算出する処理を行ってもよい。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
In addition, a program for realizing the above steps is recorded on a computer-readable recording medium, and a program for realizing the functions of the
The “computer-readable recording medium” means a flexible disk, a magneto-optical disk, a ROM, a writable nonvolatile memory such as a flash memory, a portable medium such as a CD-ROM, a hard disk built in a computer system, etc. This is a storage device.
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムに既に記録されているプログラムとの組合せで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
Further, the “computer-readable recording medium” means a volatile memory (for example, DRAM (Dynamic DRAM) in a computer system that becomes a server or a client when a program is transmitted through a network such as the Internet or a communication line such as a telephone line. Random Access Memory)), etc., which hold programs for a certain period of time.
The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, what is called a difference file (difference program) may be sufficient.
11・・・端末制御部、12・・・撮影部、13・・・位置情報検出部、14・・・計時部、15・・・表示部、16・・・通信部、17・・・記憶部、18・・・操作部、21・・・通信部、22・・・第1記憶部、23・・・画像特徴量算出部、24・・・位置情報比較部、25・・・第2記憶部、26・・・画像特徴量比較部、27・・・画像識別部、28・・・第3記憶部、29・・・第4記憶部、30・・・特定画像付加情報取得部、31・・・特定画像動作設定部、32・・・第5記憶部、320・・・動作画像テーブル
DESCRIPTION OF
Claims (7)
前記画像データに基づき、当該撮影画像の特徴を示す撮影画像特徴量を算出する画像特徴量算出部と、
検索対象である特定画像の特徴を示す特定画像特徴量情報と前記撮影画像特徴量に基づいて、前記撮影画像において前記特定画像と特徴の一致または類似する特定領域を示す特定領域情報を取得する画像特徴量比較部と、
前記特定領域に含まれる動作画像の動きを制御する動作情報と前記特定領域情報とを表示部へ出力する特定画像動作設定部と、
を備えることを特徴とする表示画像検索装置。 An input unit for inputting image data of a photographed image taken by the photographing unit;
An image feature amount calculation unit that calculates a captured image feature amount indicating the feature of the captured image based on the image data;
An image for acquiring specific area information indicating a specific area that matches or is similar to the specific image in the captured image based on the specific image feature amount information indicating the characteristic of the specific image to be searched and the captured image feature amount A feature comparison unit;
A specific image operation setting unit that outputs operation information for controlling movement of an operation image included in the specific region and the specific region information to a display unit;
A display image retrieval apparatus comprising:
前記特定画像動作設定部は、
前記動作画像が移動して表示される場合に、当該動作画像領域の少なくとも一部に背景画像を合成するための合成情報とを前記表示部に出力することを特徴とする請求項1に記載の表示画像検索装置。 A motion image area information indicating a motion image area corresponding to the motion image in the specific area, and a storage unit for storing the motion information;
The specific image operation setting unit includes:
The composition information for synthesizing a background image to at least a part of the motion image area is output to the display unit when the motion image is moved and displayed. Display image search device.
前記背景画像の色を示す背景画像色情報と前記撮影画像の色を示す撮影画像色情報に基づいて、前記撮影画像に対応する色に前記背景画像の色を補正するための補正情報を、前記表示部へ出力することを特徴とする請求項2に記載の表示画像検索装置。 The specific image operation setting unit includes:
Based on background image color information indicating the color of the background image and captured image color information indicating the color of the captured image, correction information for correcting the color of the background image to a color corresponding to the captured image, The display image search apparatus according to claim 2, wherein the display image search apparatus outputs to a display unit.
前記動作画像の動きを指示する動作指示情報に基づき、前記動作画像の動きを制御する制御情報を前記表示部に出力することを特徴とする請求項1から3のうちいずれか一項に記載の表示画像検索装置。 The specific image operation setting unit includes:
The control information for controlling the motion of the motion image is output to the display unit based on the motion instruction information for instructing the motion of the motion image. Display image search device.
前記表示画像検索装置とネットワークを介して接続され、前記撮影部と、前記表示部とを備える表示装置と、を備え、
前記表示装置は、
前記表示画像検索装置から出力される情報を受信する通信部と、
前記表示画像検索装置から受信した前記特定領域情報に基づき前記撮影画像から前記特定領域に含まれる前記動作画像を取得し、前記動作情報に基づき前記動作画像の動きを制御する制御部をさらに備えることを特徴とする表示制御システム。 The display image search device according to any one of claims 1 to 4,
A display device that is connected to the display image search device via a network and includes the photographing unit and the display unit;
The display device
A communication unit that receives information output from the display image search device;
The image processing apparatus further includes a control unit that acquires the motion image included in the specific area from the captured image based on the specific area information received from the display image search device and controls movement of the motion image based on the motion information. A display control system.
前記撮影画像の画像データを入力し、
前記画像データに基づき、当該撮影画像の特徴を示す撮影画像特徴量を算出し、
検索対象である特定画像の特徴を示す特定画像特徴量情報と前記撮影画像特徴量に基づいて、前記撮影画像において前記特定画像と特徴の一致または類似する特定領域を示す特定領域情報を取得し、
前記特定領域に含まれる動作画像の動きを制御する動作情報と前記特定領域情報とを表示部へ出力する
ことを特徴とする表示制御方法。 A display control method for displaying an operating image on a captured image captured by a capturing unit,
Input the image data of the captured image,
Based on the image data, a captured image feature amount indicating the characteristics of the captured image is calculated,
Based on the specific image feature amount information indicating the characteristics of the specific image to be searched and the captured image feature amount, specific area information indicating a specific area that matches or is similar to the specific image in the captured image is acquired;
A display control method comprising: outputting operation information for controlling movement of an operation image included in the specific region and the specific region information to a display unit.
撮影部が撮影した撮影画像の画像データを入力する入力手段、
前記画像データに基づき、当該撮影画像の特徴を示す撮影画像特徴量を算出する画像特徴量算出手段、
検索対象である特定画像の特徴を示す特定画像特徴量情報と前記撮影画像特徴量に基づいて、前記撮影画像において前記特定画像と特徴の一致または類似する特定領域を示す特定領域情報を取得する画像特徴量比較手段、
前記特定領域に含まれる動作画像の動きを制御する動作情報と前記特定領域情報とを表示部へ出力する特定画像動作設定手段、
として機能させるためのプログラム。 Computer
Input means for inputting image data of a photographed image photographed by the photographing unit;
An image feature amount calculating means for calculating a photographed image feature amount indicating a feature of the photographed image based on the image data;
An image for acquiring specific area information indicating a specific area that matches or is similar to the specific image in the captured image based on the specific image feature amount information indicating the characteristic of the specific image to be searched and the captured image feature amount Feature comparison means,
Specific image operation setting means for outputting operation information for controlling movement of an operation image included in the specific region and the specific region information to a display unit;
Program to function as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012083241A JP2013214158A (en) | 2012-03-30 | 2012-03-30 | Display image retrieval device, display control system, display control method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012083241A JP2013214158A (en) | 2012-03-30 | 2012-03-30 | Display image retrieval device, display control system, display control method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013214158A true JP2013214158A (en) | 2013-10-17 |
Family
ID=49587448
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012083241A Pending JP2013214158A (en) | 2012-03-30 | 2012-03-30 | Display image retrieval device, display control system, display control method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013214158A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015158862A (en) * | 2014-02-25 | 2015-09-03 | 株式会社ソニー・コンピュータエンタテインメント | Image generation device, image generation method, program, and computer readable information storage medium |
JP2015184777A (en) * | 2014-03-20 | 2015-10-22 | コニカミノルタ株式会社 | augmented reality display device, augmented reality display system, augmented reality display method, and augmented reality display program |
KR20220021076A (en) * | 2020-08-12 | 2022-02-22 | 태나다 주식회사 | Method and Apparatus for synthesizing 3-dimensional virtual object to video data |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004526266A (en) * | 2001-05-08 | 2004-08-26 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | How to combine multiple views |
JP2008199587A (en) * | 2007-01-18 | 2008-08-28 | Matsushita Electric Ind Co Ltd | Image coding apparatus, image decoding apparatus and methods thereof |
JP2010239464A (en) * | 2009-03-31 | 2010-10-21 | Casio Computer Co Ltd | Image compositing device, image reproducing device, and program |
US20110201362A1 (en) * | 2010-02-12 | 2011-08-18 | Samsung Electronics Co., Ltd. | Augmented Media Message |
JP2012018663A (en) * | 2010-06-10 | 2012-01-26 | Nintendo Co Ltd | Image processing program, image processing apparatus, image processing system and image processing method |
JP2012053776A (en) * | 2010-09-02 | 2012-03-15 | Ntt Comware Corp | Display image search device, display device, display image search system, and display image search method |
-
2012
- 2012-03-30 JP JP2012083241A patent/JP2013214158A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004526266A (en) * | 2001-05-08 | 2004-08-26 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | How to combine multiple views |
JP2008199587A (en) * | 2007-01-18 | 2008-08-28 | Matsushita Electric Ind Co Ltd | Image coding apparatus, image decoding apparatus and methods thereof |
JP2010239464A (en) * | 2009-03-31 | 2010-10-21 | Casio Computer Co Ltd | Image compositing device, image reproducing device, and program |
US20110201362A1 (en) * | 2010-02-12 | 2011-08-18 | Samsung Electronics Co., Ltd. | Augmented Media Message |
JP2012018663A (en) * | 2010-06-10 | 2012-01-26 | Nintendo Co Ltd | Image processing program, image processing apparatus, image processing system and image processing method |
JP2012053776A (en) * | 2010-09-02 | 2012-03-15 | Ntt Comware Corp | Display image search device, display device, display image search system, and display image search method |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015158862A (en) * | 2014-02-25 | 2015-09-03 | 株式会社ソニー・コンピュータエンタテインメント | Image generation device, image generation method, program, and computer readable information storage medium |
US9563982B2 (en) | 2014-02-25 | 2017-02-07 | Sony Corporation | Image generating device, image generating method, program, and computer-readable information storage medium |
JP2015184777A (en) * | 2014-03-20 | 2015-10-22 | コニカミノルタ株式会社 | augmented reality display device, augmented reality display system, augmented reality display method, and augmented reality display program |
KR20220021076A (en) * | 2020-08-12 | 2022-02-22 | 태나다 주식회사 | Method and Apparatus for synthesizing 3-dimensional virtual object to video data |
KR102419290B1 (en) * | 2020-08-12 | 2022-07-12 | 태나다 주식회사 | Method and Apparatus for synthesizing 3-dimensional virtual object to video data |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101535579B1 (en) | Augmented reality interaction implementation method and system | |
US9699375B2 (en) | Method and apparatus for determining camera location information and/or camera pose information according to a global coordinate system | |
US8692885B2 (en) | Method and apparatus for capture and distribution of broadband data | |
TW201203170A (en) | Information processing device, information processing system, and program | |
JP2008530676A (en) | Storing information for access using acquired images | |
JP5544250B2 (en) | Display image search method | |
JP2014071850A (en) | Image processing apparatus, terminal device, image processing method, and program | |
JP2010237804A (en) | System and method for searching image | |
US10068157B2 (en) | Automatic detection of noteworthy locations | |
JP2015002423A (en) | Image processing apparatus, server and storage medium | |
KR102197615B1 (en) | Method of providing augmented reality service and server for the providing augmented reality service | |
JP2011233005A (en) | Object displaying device, system, and method | |
US11457248B2 (en) | Method to insert ad content into a video scene | |
JP2013214158A (en) | Display image retrieval device, display control system, display control method, and program | |
CN104871179A (en) | Method and system for image capture and facilitated annotation | |
JP2016194783A (en) | Image management system, communication terminal, communication system, image management method, and program | |
JP2016194784A (en) | Image management system, communication terminal, communication system, image management method, and program | |
JP5837404B2 (en) | Image processing apparatus and image processing method | |
KR20130082755A (en) | Service server and method by object recognition | |
JP2020101847A (en) | Image file generator, method for generating image file, image generator, method for generating image, image generation system, and program | |
KR101399633B1 (en) | Method and apparatus of composing videos | |
JP6652253B2 (en) | 3D object shape estimation device | |
JP2016004466A (en) | Information creation device and method, terminal device, computer program and recording medium | |
KR101640020B1 (en) | Augmentated image providing system and method thereof | |
CN109348132B (en) | Panoramic shooting method and device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140106 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20150310 |