JP2015056041A - Image generation system, image generation method, image generation program, line of sight prediction system, line of sight prediction method, and line of sight prediction program - Google Patents
Image generation system, image generation method, image generation program, line of sight prediction system, line of sight prediction method, and line of sight prediction program Download PDFInfo
- Publication number
- JP2015056041A JP2015056041A JP2013189294A JP2013189294A JP2015056041A JP 2015056041 A JP2015056041 A JP 2015056041A JP 2013189294 A JP2013189294 A JP 2013189294A JP 2013189294 A JP2013189294 A JP 2013189294A JP 2015056041 A JP2015056041 A JP 2015056041A
- Authority
- JP
- Japan
- Prior art keywords
- pattern
- image
- replacement
- image generation
- evaluation target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明の一側面は、画像生成システム、画像生成方法、画像生成プログラム、視線予測システム、視線予測方法、および視線予測プログラムに関する。 One aspect of the present invention relates to an image generation system, an image generation method, an image generation program, a gaze prediction system, a gaze prediction method, and a gaze prediction program.
従来から、シーン内において視覚的注意を惹き付ける傾向がある領域を予測する技術が知られている。例えば下記特許文献1には、入力されたシーンを受信し、視覚的注意モデルを入力されたシーンに適用し、入力されたシーン内の、視覚的注意を引き付ける傾向がある領域を予測するように機能する視覚的注意モジュールと、視覚的注意モジュールと相互作用して、識別された領域の少なくとも一つが堅牢(顕著)である、又はシーンが堅牢である、という程度を決定するように機能する堅牢性(顕著性)評価モジュールとを含むコンピュータシステムが記載されている。また、下記特許文献2,3には、そのコンピュータシステムと類似の機能を備えるシステムが記載されている。 2. Description of the Related Art Conventionally, a technique for predicting a region that tends to attract visual attention in a scene is known. For example, Patent Document 1 below receives an input scene, applies a visual attention model to the input scene, and predicts a region in the input scene that tends to attract visual attention. A functional visual attention module and a robust functioning to interact with the visual attention module to determine the degree to which at least one of the identified areas is robust (prominent) or the scene is robust A computer system is described that includes a sexiness (saliency) assessment module. Patent Documents 2 and 3 below describe systems having functions similar to those of the computer system.
特許文献1〜3に記載のコンピュータシステムを用いて視覚的注意に関する評価、すなわち視線予測を行う際には、評価対象となるシーンの画像を用意する必要がある。一つのシーンについて評価するとしても、そのシーン内における特定の領域についてパターンを入れ替えたりしながら視線予測処理を行うことが多い。例えば、最も効果的にユーザの注意を惹き付ける看板を予測するとしても、デザイン(形状、模様、色など)を微妙に変えながら多くのパターンについて評価することが多い。 When performing an evaluation relating to visual attention using the computer systems described in Patent Documents 1 to 3, that is, a gaze prediction, it is necessary to prepare an image of a scene to be evaluated. Even if one scene is evaluated, the line-of-sight prediction process is often performed while changing the pattern for a specific area in the scene. For example, even if the signboard that most effectively attracts the user's attention is predicted, many patterns are often evaluated while slightly changing the design (shape, pattern, color, etc.).
したがって、一般に視線予測を行おうとする場合には、一つのシーンについての評価を行う場合でも当該シーンについて多数の画像を用意する必要がある。しかし、それらの画像をユーザが一つ一つ準備するのは容易ではない。そこで、シーン内において視覚的注意を惹き付ける傾向がある領域を予測するために用いる画像を簡単に得られる仕組みが望まれている。 Therefore, in general, when performing line-of-sight prediction, it is necessary to prepare a large number of images for a scene even when evaluating one scene. However, it is not easy for the user to prepare these images one by one. Therefore, a mechanism that can easily obtain an image used for predicting a region that tends to attract visual attention in a scene is desired.
本発明の一側面に係る画像生成システムは、一または複数のプロセッサを備え、少なくとも一つのプロセッサが、入力画像を受け付け、置換対象パターンと置換パターンとを関連付けて記憶する記憶部を参照して、入力画像内で特定された置換対象パターンを置換パターンに置換することで、評価対象画像を生成し、評価対象画像において視覚的注意を惹き付ける傾向がある領域を予測する処理を視線予測システムにおいて実行するために、該評価対象画像を出力する。 An image generation system according to an aspect of the present invention includes one or a plurality of processors, and at least one processor receives an input image and refers to a storage unit that stores a replacement target pattern and a replacement pattern in association with each other, By replacing the replacement target pattern specified in the input image with the replacement pattern, the evaluation target image is generated, and the process that predicts the region that tends to attract visual attention in the evaluation target image is executed in the gaze prediction system In order to do so, the evaluation target image is output.
このような側面においては、置換対象パターンに対応する置換パターンが予め記憶されており、そのデータを用いて、入力画像に含まれる置換対象パターンが置換パターンに置き換えられる。そして、この置換により生成された評価対象画像が、視覚的注意を惹き付ける傾向がある領域の予測のために出力される。この一連の処理により入力画像の一部が自動的に変換されるので、ユーザは、あるシーンについて一つの入力画像さえ用意すれば、その入力画像から、一部の領域が異なる評価対象画像を得ることが可能になる。すなわち、シーン内において視覚的注意を惹き付ける傾向がある領域を予測するために用いる画像を簡単に得ることができる。 In such an aspect, a replacement pattern corresponding to the replacement target pattern is stored in advance, and the replacement target pattern included in the input image is replaced with the replacement pattern using the data. Then, the evaluation target image generated by this replacement is output for prediction of a region that tends to attract visual attention. Since a part of the input image is automatically converted by this series of processing, if the user prepares only one input image for a certain scene, an evaluation target image having a part of a different area is obtained from the input image. It becomes possible. That is, it is possible to easily obtain an image used for predicting a region that tends to attract visual attention in a scene.
本発明の一側面によれば、シーン内において視覚的注意を惹き付ける傾向がある領域を予測するために用いる画像を簡単に得ることができる。 According to an aspect of the present invention, it is possible to easily obtain an image used for predicting a region that tends to attract visual attention in a scene.
以下、添付図面を参照しながら本発明の実施形態を詳細に説明する。なお、図面の説明において同一又は同等の要素には同一の符号を付し、重複する説明を省略する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the description of the drawings, the same or equivalent elements are denoted by the same reference numerals, and redundant description is omitted.
図1〜8を用いて、実施形態に係る画像生成システムの機能および構成を説明する。本実施形態において、画像生成システムは視線予測システム1の一部である。視線予測システム1は、シーン内において視覚的注意を惹き付ける傾向がある領域を予測するコンピュータシステムである。図1に示すように、ユーザはユーザ端末TからネットワークN経由で視線予測システム1にアクセスして、所望のシーンについての評価結果を得ることができる。 The function and configuration of the image generation system according to the embodiment will be described with reference to FIGS. In the present embodiment, the image generation system is a part of the line-of-sight prediction system 1. The line-of-sight prediction system 1 is a computer system that predicts a region that tends to attract visual attention in a scene. As shown in FIG. 1, the user can access the line-of-sight prediction system 1 from the user terminal T via the network N and obtain an evaluation result for a desired scene.
ユーザ端末Tの種類は限定されず、例えば据置型又は携帯型のパーソナルコンピュータでもよいし、高機能携帯電話機(スマートフォン)や携帯電話機、携帯情報端末(PDA)などの携帯端末でもよい。また、ネットワークNの具体的な構成も限定されず、例えばインターネット、専用線、およびLAN(Local Area Network)の少なくとも一つから構成されてもよい。図1では3台のユーザ端末Tを示しているが、視線予測システム1におけるユーザ端末Tの台数は限定されない。 The type of the user terminal T is not limited, and may be a stationary or portable personal computer, or a portable terminal such as a high-function mobile phone (smart phone), a mobile phone, or a personal digital assistant (PDA). The specific configuration of the network N is not limited, and may be configured from at least one of the Internet, a dedicated line, and a LAN (Local Area Network), for example. Although three user terminals T are shown in FIG. 1, the number of user terminals T in the line-of-sight prediction system 1 is not limited.
図1に示すように、視線予測システム1は画像生成システム10および解析システム20を含む。画像生成システム10は評価対象のシーンを撮影した画像(本明細書では「評価対象画像」という)を効率的に生成し、解析システム20はその評価対象画像の中で人の視線がどこに集まりやすいかを予測する。本実施形態の特徴は画像生成システム10にあるが、この画像生成システム10の理解を容易にするために、まず解析システム20の動作を説明する。
As shown in FIG. 1, the line-of-sight prediction system 1 includes an
図2に示すように、解析システム20は評価対象画像を受け付け(ステップS11)、その画像に対して視線予測を実行し(ステップS12)、最後にその評価結果を出力する(ステップS13)。ステップS11〜S13で示される一連の処理は、評価対象画像において視覚的注意を惹き付ける傾向がある領域を予測する解析ステップに相当する。
As shown in FIG. 2, the
ステップS11において解析システム20に入力される評価対象画像は静止画であっても動画であってもよい。本実施形態では、説明を簡単にするために、評価対象画像が静止画であることを前提とする。評価対象画像の被写体、すなわち、シーンは限定されない。例えば、評価対象画像は、広告や看板などが存在する市街地または店舗内を示す画像であってもよいし、広告、看板、商品陳列棚、店舗内POP、または、印刷ラベルもしくはカード類そのものを示す画像であってもよいし、商品または商品パッケージそのものを示す画像であってもよいし、ウェブページのキャプチャ画像であってもよい。これらの「画像」は、写真であってもよいし、コンピュータ・グラフィックスであってもよい。本実施形態では、広告や看板などが存在する市街地の画像を評価対象画像とした例を用いて説明する。
The evaluation target image input to the
ステップS12において、解析システム20は評価対象画像に対する人の視線の動きをシミュレーションする。この処理においては様々な従来技術を用いることができるので本明細書では具体的な手法の説明を省略するが、例えば、上記特許文献1〜3に記載の手法を用いて視線予測を実行してもよい。
In step S <b> 12, the
ステップS13において解析システム20は評価結果を表示するが、結果の表現方法も限定されない。評価結果の表示例を図3に示す。例えば、解析システム20は評価対象画像50に対して、視線の集まりやすさの分布を色分けによって示すヒートマップ51を出力してもよい。あるいは、解析システム20はその分布を数個の段階(例えば3段階)に分けて示すリージョンマップ52を出力してもよい。このリージョンマップ52は、視線が集まる領域を枠で示すと共に各領域についての視線の集中度合いを数値で示す手法であるが、図3ではその数値を省略している。あるいは、解析システム20は視線の動きを線で示す視線トラッキングチャート53を出力してもよい。なお、評価結果の表示については上記特許文献1〜3にも記載されている。このように表現方法は様々であるが、いずれにせよ、ユーザはその評価結果から、視線を集めやすい(顕著性が高い)デザインが何かを知ることができる。
In step S13, the
また、評価結果の出力先も限定されず、例えば解析システム20は図3に示すような評価結果をユーザ端末Tに送信して当該端末T上に表示させてもよいし、この送信に代えてまたは加えて、任意の記憶部にその結果を格納してもよい。
Also, the output destination of the evaluation result is not limited. For example, the
ユーザはこの解析システム20を用いて、例えば人目を惹き付ける看板または広告を予測することができるが、そのためには、一つの看板または広告について複数種類のデザイン案を予め用意し、個々の案について解析システム20に予測させる必要がある。例えば、ある商店街においてどのような看板が目立つかを知りたい場合には、ユーザは、その看板の部分だけが異なる複数枚の商店街の画像を解析システム20に入力する必要がある。このような作業をユーザ自身が行うのは容易ではないが、視線予測システム1は画像生成システム10を備えているので、ユーザは複数パターンの評価対象画像を容易に得ることができる。
The user can use this
画像生成システム10は評価対象画像を自動的にまたは半自動的に生成するためにパターンデータベース30を参照する。視線予測システム1において画像生成システム10とパターンデータベース30とは別々であってもよく、この場合には画像生成システム10はネットワークを介してパターンデータベース30にアクセスする。あるいは、1台のコンピュータが画像生成システム10およびパターンデータベース30の双方を実装してもよい。
The
パターンデータベース30は、モデル毎に用意された複数のパターンを記憶する装置(記憶部)である。本明細書における「モデル」とは置換の対象となるオブジェクトである。オブジェクトの例としては、市街地に設置される看板または広告、ウェブページにおけるバナー広告やロゴなどが挙げられるが、モデルとして設定されるオブジェクトはこれらに限定されない。
The
パターンデータベース30に記憶されるパターン情報の例を図4に示す。パターン情報のレコードはモデルごとに用意され、各モデルに対して、拡張現実感(Augmented Reality(AR))で用いられるような一つのマーカ(marker)と、複数のパターンとが関連付けられる。パターンは画像のことであり、その作成方法は特に限定されない。例えば、パターンはコンピュータ・グラフィックスにより作成されてもよいし、実風景の画像から作成されてもよいし、あるいは、手描きのイラストをスキャンニングすることで作成されてもよい。
An example of pattern information stored in the
図4の例では、モデルAについての三つのパターンとモデルBについての二つのパターンとを示している。モデルAについては、中央に星印を配する点で3パターンは共通するが、前景及び背景の色の組合せがパターン間で異なる。モデルBについては、文字の配置と背景のデザインとがパターン間で異なる。個々のモデルにおいていくつのパターンを用意するかは限定されず、また、パターンの個数をモデル間で統一させる必要はない。 In the example of FIG. 4, three patterns for model A and two patterns for model B are shown. For model A, the three patterns are common in that an asterisk is placed at the center, but the combination of foreground and background colors differs between the patterns. For model B, the arrangement of characters and the background design differ between patterns. The number of patterns prepared in each model is not limited, and the number of patterns does not need to be unified among the models.
図4に示すように、各パターンは、オリジナルのパターン画像(左側)と、黒い外縁で示されるマスク画像(右側)との組合せにより形成される。パターン画像およびマスク画像の大きさは同じである。マスク画像は、パターン画像を入力画像に重畳する際に当該パターン画像の余分な部分を透明にするために用いられる。例えば、モデルBのパターンは、入力画像に重畳された際には四角形ではなく八角形のマークとして表現される。一方、マーカはパターンのように画像は二つに分かれておらず、外枠付きの一つの画像として用意される。 As shown in FIG. 4, each pattern is formed by a combination of an original pattern image (left side) and a mask image (right side) indicated by a black outer edge. The pattern image and the mask image have the same size. The mask image is used to make an extra portion of the pattern image transparent when the pattern image is superimposed on the input image. For example, the pattern of the model B is expressed as an octagonal mark instead of a quadrangle when superimposed on the input image. On the other hand, the marker is prepared as a single image with an outer frame, instead of being divided into two like a pattern.
なお、パターンデータベースおよびパターン情報の具体的な構成は図4の態様に限定されず、任意の正規化又は冗長化を行ってよい。例えば、後述するようにマーカを用いることなくパターンを置換するのであれば、パターン情報においてマーカを省略することができる。図4ではマーカおよびパターンを2次元画像で示しているが、マーカおよびパターンは3次元画像であってもよい。 The specific configurations of the pattern database and the pattern information are not limited to those shown in FIG. 4, and any normalization or redundancy may be performed. For example, if the pattern is replaced without using a marker as will be described later, the marker can be omitted in the pattern information. In FIG. 4, the marker and the pattern are shown as a two-dimensional image, but the marker and the pattern may be a three-dimensional image.
次に、画像生成システム10について詳細に説明する。画像生成システム10のハードウェア構成は図5に示す通りである。画像生成システム10は、オペレーティングシステムやアプリケーション・プログラムなどを実行するCPU101と、ROM及びRAMで構成される主記憶部102と、ハードディスクやフラッシュメモリなどで構成される補助記憶部103と、ネットワークカードあるいは無線通信モジュールで構成される通信制御部104と、キーボードやマウスなどの入力装置105と、ディスプレイなどの出力装置106とを備えている。
Next, the
後述する画像生成システム10の各機能的構成要素は、CPU101又は主記憶部102の上に所定のソフトウェアを読み込ませ、CPU101の制御の下で通信制御部104や入力装置105、出力装置106などを動作させ、主記憶部102又は補助記憶部103におけるデータの読み出し及び書き込みを行うことで実現される。処理に必要なデータやデータベースは主記憶部102又は補助記憶部103内に格納される。
Each functional component of the
なお、画像生成システム10は1台のコンピュータで構成されてもよいし、複数台のコンピュータで構成されていてもよい。
Note that the
図6に示すように、画像生成システム10は機能的構成要素として受付部11、生成部12、および出力部13を備えている。これらの機能は主に少なくとも一つのプロセッサ(CPU101)が動作することで実現される。
As illustrated in FIG. 6, the
受付部11は、ユーザにより指定された入力画像を受け付ける機能要素である。受付部11は取得した入力画像を生成部12に出力する。受付部11はユーザ端末Tから送られてきた入力画像を受信してもよいし、ユーザ端末Tからの指示に基づいて、所定の記憶部(例えば、メモリやデータベースなど)から画像を読み出してもよい。入力画像の例を図7に示す。入力画像61,62はともに市街地の写真であるが、入力画像61では看板61a,61bには実際のデザインが描かれているのに対して、入力画像62では看板62a,62bの部分にマーカが掲げられている。現実世界において看板部分にマーカを貼ることは通常は困難なので入力画像61を用いる方が現実的ではあるが、本発明はマーカを含む入力画像62を排除しない。
The accepting
生成部12は、入力画像の一部を置換することで評価対象画像を生成する機能要素である。一つの入力画像において複数の領域で置換が発生する可能性があるが、以下では、説明を簡単にするために、一つの領域での置換について説明する。
The
まず、生成部12は置換対象パターンを特定する。マーカレス(markerless)の入力画像が入力された場合には、生成部12はユーザ操作に応じて置換対象パターンを特定してもよい。この場合には、ユーザはパターンを置き換えたい領域をタッチ操作やマウス操作などにより指定し、ユーザ端末Tがその領域を示すデータを画像生成システム10に送信し、生成部12がそのデータで示される領域を保持する。あるいは、生成部12はこのようなユーザ操作に依存することなく自動的に置換対象パターンを特定してもよい。この場合には、生成部12は入力画像内の任意の領域とパターンデータベース30内の各パターンとを比較(パターンマッチング)することで置換対象パターンを特定する。なお、パターンマッチングそのものは周知であり、具体的には、特徴量マッチング(特徴点ベースマッチング)、テンプレートマッチング(相関ベースマッチング)等の手法があるが、任意の手法を用いてよい。
First, the
マーカを含む入力画像が入力された場合には、生成部12はパターンデータベース30内のマーカを用いたパターンマッチングにより、ユーザ操作に依存することなく入力画像内のマーカを置換対象パターンとして特定する。この場合でもパターンマッチングの具体的な手法は任意に決めてよい。
When an input image including a marker is input, the
続いて、生成部12は、置換対象パターンと入れ替えるための置換パターンを取得する。ここで、置換パターンとは、モデルが置換対象パターンと共通し、かつ当該置換対象パターンとは異なるパターンのことである。生成部12は、置換対象パターンに対応する1以上の置換パターンをパターンデータベース30から選択するためのユーザインタフェースをユーザ端末Tに提供し、そのインタフェースを介して選択された1以上の置換パターンを取得してもよい。あるいは、生成部12はパターンデータベース30を参照して、置換対象パターンに対応する置換パターンをユーザ操作に依存することなく読み出してもよい。
Subsequently, the
続いて、生成部12は取得した置換パターンの大きさおよび姿勢を置換対象パターンと合わせるために当該置換パターンを射影変換により変形させ、変形された置換パターンを入力画像に重畳する。
Subsequently, the
変換前の座標を(x,y)とし、変換後の座標を(x´,y´)とすると、射影変換は下記式で表される。
x´=(a1x+b1y+c1)/(a0x+b0y+c0)
y´=(a2x+b2y+c2)/(a0x+b0y+c0)
If the coordinates before conversion are (x, y) and the coordinates after conversion are (x ′, y ′), the projective transformation is expressed by the following equation.
x ′ = (a 1 x + b 1 y + c 1 ) / (a 0 x + b 0 y + c 0 )
y ′ = (a 2 x + b 2 y + c 2 ) / (a 0 x + b 0 y + c 0 )
これらの式において独立した未知数は8個なので、4点以上の座標が得られれば未知数を求めることができる。そこで、生成部12は置換対象パターンおよび置換パターンのそれぞれから4頂点の座標を特定する。生成部12はユーザにより指定された点を頂点として取得してもよいし、各パターンを解析することで頂点を取得してもよい。あるいは、各パターンの4頂点の座標をパターン情報に予め含めておき、生成部12がパターンデータベース30からその頂点座標を読み出してもよい。生成部12は置換対象パターンにおける頂点(xn,yn)および置換パターンにおける頂点(x´n,y´n)(共に、n=1,2,3,4)を上記の射影変換の式に代入することで、下記式で示される射影変換マトリクスP1(第2の射影変換マトリクス)を求める。なお、sは、同次座標表現における任意の実数である(s≠0)。
続いて、生成部12は置換対象パターンと置換パターンとのそれぞれにおいて多数の特徴点の座標を求め、個々の特徴点について特徴量を算出する。特徴点の検出および特徴量の求め方は任意であり、例えばORB、SIFT、SURFなどの周知のアルゴリズムを用いることができる。入力画像内の置換対象パターンが不鮮明である可能性があるので、生成部12は特徴量を算出する前に置換対象パターンに対して先鋭化処理および/または平滑化処理を実行してもよい。先鋭化処理は、画像内のぼやけた輪郭を強調するフィルタ処理であり、アンシャープ・マスキング(unsharp masking)とも呼ばれる。この先鋭化処理は周知の技術である。平滑化処理は、画像内の輝度値を滑らかにする処理、あるいは画像中のノイズを除去する処理であり、この技術も周知である。この平滑化処理はガウシアンフィルタ等の平滑化フィルタを用いて行われる。
Subsequently, the
続いて、生成部12は双方のパターンの特徴量を比較し、例えばロバスト推定手法の一つであるRANSAC等を用いて、下記式で示される射影変換マトリクスP2(第1の射影変換マトリクス)を算出する。sは、同次座標表現における任意の実数である(s≠0)。
続いて、生成部12は、置換対象パターンの歪みを示すマトリクスP1,P2を含む下記式を用いて置換パターンの座標を(x,y)から(x´,y´)に変換する。座標(x,y)はオリジナルの置換パターン(パターン情報で定義されている置換パターン)の座標であり、座標(x´,y´)は変形後の置換パターンの座標である。生成部12は変形させた置換パターンを入力画像に重畳する。
この式に示すように、生成部12はマトリクスP1を用いなくてもよい。マトリクスP1は、変形の精度をさらに向上させるために用いられ、例えば、置換対象パターンの姿勢が置換パターンと一定以上異なる場合においてその効果が顕著である。このようにマトリクスP1は補助的な役割を担うので、生成部12は射影変換においてマトリクスP2のみを算出および利用してもよい。
As shown in this equation,
生成部12は、重畳された置換パターンの違和感を低減するために、その置換パターンの色およびぼけ具合を周囲の領域に合わせる。色およびぼけ具合の補正についても周知技術を用いることができる。なお、生成部12は置換パターンの色を補正した後にその置換パターンを入力画像に重畳してもよい。
The
色補正は、色空間に対応する変換マトリクスMまたはM´を用いて下記式で示される。MはRGB表色系を用いる場合の変換マトリクスであり、M´はL*C*h表色系を用いる場合の変換マトリクスである。また、R,G,Bはそれぞれ、置換パターンのオリジナルの3原色(赤、緑、青)であり、R´,G´,B´はそれぞれ、置換パターンの調整後の3原色である。L*,C*,hはそれぞれ、置換パターンのオリジナルの明度、彩度、および色相であり、L*´,C*´,h´はそれぞれ、置換パターンの調整後の明度、彩度、および色相である。なお、色補正では任意の色空間を用いてよい。
生成部12はユーザがスライダなどのユーザインタフェースを介して入力したRGB値またはL*C*h値に基づいて変換マトリクスを求めてもよい。あるいは、生成部12はユーザ操作に依存することなく周知技術を用いて変換マトリクスを求めてもよい。
The
ぼけ具合の補正は、例えばガウシアンフィルタ等の平滑化フィルタを用いた平滑化処理により実現できる。平滑化処理に用いるマトリクスHは平滑化フィルタのサイズ(例えば3×3や5×5など)に応じて決まる。フィルタサイズに関して、生成部12は、ユーザがスライダなどのユーザインタフェースを介して入力した値を受け付けてもよいし、ユーザ操作に依存することなく周知技術を用いて決定してもよい。
The correction of the degree of blur can be realized by a smoothing process using a smoothing filter such as a Gaussian filter. The matrix H used for the smoothing process is determined according to the size of the smoothing filter (for example, 3 × 3 or 5 × 5). Regarding the filter size, the
生成部12は、入力画像に重畳された置換パターンに変換マトリクスMまたはM´を適用することで該パターンの色を補正する。さらに、生成部12はその置換パターンにマトリクスHを適用することで該パターンをぼかす。
The
以上の処理により、入力画像の一つの領域において置換対象パターンが置換パターンに置き換わる。一つの入力画像において複数の置換対象パターンが存在するか、またはユーザにより複数の置換対象パターンが指定されるのであれば、生成部12は上記の置換を各置換対象パターンについて実行する。この際には、各種マトリクスP1,P2,M(またはM´),Hは置換対象パターンごとに生成される。生成部12はすべての置換対象パターンについて処理することで一つ目の評価対象画像を生成する。
With the above processing, the replacement target pattern is replaced with the replacement pattern in one area of the input image. If a plurality of replacement target patterns exist in one input image, or if a plurality of replacement target patterns are designated by the user, the
生成部12が一つの入力画像から複数の評価対象画像を生成することもあり得る。例えば図4に示すモデルAが入力画像の一つの領域に含まれているならば、生成部12がそのモデルAについてパターン1〜3を個々に適用することで三つの評価対象画像を生成し得る。この場合において、その領域における置換パターンの変形、色補正、およびぼけ具合の補正は三つのパターン間で共通である。したがって、生成部12は一つ目の評価対象画像を生成する際に算出した各種マトリクスP1,P2,M(またはM´),Hを保持し、二つ目以降の評価対象画像を生成する際にこれらのマトリクスを再利用する。もし図4に示すモデルA,Bの双方が入力画像に含まれているならば、生成部12がモデルAについてパターン1〜3を個々に適用し、モデルBについてパターン1,2を個々に適用するので、合計6(=3×2)個の評価対象画像を生成し得る。生成部12は生成した一または複数の評価対象画像を出力部13に出力する。
The
出力部13は、解析システム20での処理のために(すなわち、評価対象画像において視覚的注意を惹き付ける傾向がある領域を予測する処理のために)、評価対象画像を出力する機能要素である。図8は出力の例であり、図4に示すモデルAの各パターンを適用した三つの評価対象画像を示している。看板61a,61bにパターン1が貼られている入力画像61が受け付けられたのであれば、パターン2に置き換えられた評価対象画像72とパターン3に置き換えられた評価対象画像73とが出力される。看板62a,62bにマーカが貼られている入力画像62が受け付けられたのであれば、パターン1に置き換えられた評価対象画像71と、上記の評価対象画像72,73とが出力される。図8では表現されていないが、看板71a,71b,72a,72b,73a,73bには必要に応じて色補正および平滑化処理が施される。
The
出力部13は評価対象画像をユーザに確認させるために当該画像をユーザ端末Tに送信してもよい。この場合には、ユーザは送られてきた評価対象画像を確認した後に、ユーザ端末Tを操作して視線予測の処理を解析システム20に指示する。あるいは、出力部13は評価対象画像を解析システム20に出力してもよく、この場合には、ユーザは解析システム20から単独でまたは評価対象画像と共に送られてくる評価結果を確認する。
The
次に、図9を用いて、画像生成システム10の動作を説明するとともに本実施形態に係る画像生成方法について説明する。
Next, the operation of the
受付部11が入力画像を受け付けると(ステップS21、受付ステップ)、生成部12が評価対象画像を生成する。具体的には、生成部12は置換対象パターンを特定するとともに(ステップS22)、置換パターンを取得する(ステップS23)。これら2種類のパターンはユーザにより指定されてもよいし、ユーザ操作に依存することなく自動的に決定されてもよい。
When the
続いて、生成部12は4頂点に基づく射影変換と特徴点に基づく射影変換により置換パターンを変形させる(ステップS24)。このステップS24において、生成部12は特徴点に基づく射影変換のみを実行してもよい。続いて、生成部12は変換した置換パターンを入力画像に重畳した上で(ステップS25)、その置換パターンに対する色補正および平滑化処理を実行する(ステップS26)。これにより、一つの置換パターンのはめ込みが完了する。
Subsequently, the
生成部12は、処理すべき置換対象パターンが他に存在すれば、ステップS22〜S26の処理を繰り返し(ステップS27参照)、これにより一つの評価対象画像が完成する(ステップS28)。生成部12は、生成すべき評価対象画像が他に存在すれば、生成ステップに相当するステップS22〜S28の処理を繰り返す(ステップS29参照)。最後に、出力部13が生成された1以上の評価対象画像を出力する(ステップS30、出力ステップ)。生成された評価対象画像は、ユーザ操作によりまたは自動的に解析システム20に入力され、解析システム20はその評価対象画像に対して視線予測処理を実行する。したがって、本実施形態に係る視線予測方法は、図2および図9に示す処理を含む。
If there are other replacement target patterns to be processed, the
次に、図10を用いて、画像生成システム10を実現するための画像生成プログラムP1を説明する。
Next, an image generation program P1 for realizing the
画像生成プログラムP1は、メインモジュールP10、受付モジュールP11、生成モジュールP12、および出力モジュールP13を備えている。 The image generation program P1 includes a main module P10, a reception module P11, a generation module P12, and an output module P13.
メインモジュールP10は、画像生成機能を統括的に制御する部分である。受付モジュールP11、生成モジュールP12、および出力モジュールP13を実行することにより実現される機能はそれぞれ、上記の受付部11、生成部12、および出力部13の機能と同様である。
The main module P10 is a part that comprehensively controls the image generation function. The functions realized by executing the reception module P11, the generation module P12, and the output module P13 are the same as the functions of the
画像生成プログラムP1は、例えば、CD−ROMやDVD−ROM、半導体メモリ等の有形の記録媒体に固定的に記録された上で提供されてもよい。また、画像生成プログラムP1は、搬送波に重畳されたデータ信号として通信ネットワークを介して提供されてもよい。また、画像生成プログラムP1は、解析システム20を実現するための解析プログラムとともに、視線予測プログラムとして提供されてもよい。
The image generation program P1 may be provided after being fixedly recorded on a tangible recording medium such as a CD-ROM, DVD-ROM, or semiconductor memory. The image generation program P1 may be provided as a data signal superimposed on a carrier wave via a communication network. The image generation program P1 may be provided as a line-of-sight prediction program together with an analysis program for realizing the
以上説明したように、本発明の一側面に係る画像生成システムは、一または複数のプロセッサを備え、少なくとも一つのプロセッサが、入力画像を受け付け、置換対象パターンと置換パターンとを関連付けて記憶する記憶部を参照して、入力画像内で特定された置換対象パターンを置換パターンに置換することで、評価対象画像を生成し、評価対象画像において視覚的注意を惹き付ける傾向がある領域を予測する処理を視線予測システムにおいて実行するために、該評価対象画像を出力する。 As described above, the image generation system according to one aspect of the present invention includes one or a plurality of processors, and at least one processor receives an input image and stores a replacement target pattern and a replacement pattern in association with each other. Processing for generating an evaluation target image by referring to the replacement part and replacing the replacement target pattern specified in the input image with a replacement pattern, and predicting a region that tends to attract visual attention in the evaluation target image Is output in the line-of-sight prediction system.
また、本発明の一側面に係る画像生成方法は、少なくとも一つのプロセッサが入力画像を受け付ける受付ステップと、プロセッサが、置換対象パターンと置換パターンとを関連付けて記憶する記憶部を参照して、入力画像内で特定された置換対象パターンを置換パターンに置換することで、評価対象画像を生成する生成ステップと、プロセッサが、評価対象画像において視覚的注意を惹き付ける傾向がある領域を予測する処理を視線予測システムにおいて実行するために、該評価対象画像を出力する出力ステップとを含む。 The image generation method according to one aspect of the present invention includes an accepting step in which at least one processor receives an input image, and an input with reference to a storage unit that stores the replacement target pattern and the replacement pattern in association with each other. A generation step for generating an evaluation target image by replacing the replacement target pattern specified in the image with a replacement pattern, and a process for predicting an area in the evaluation target image that tends to attract visual attention. An output step of outputting the evaluation target image for execution in the line-of-sight prediction system.
また、本発明の一側面に係る画像生成プログラムは、入力画像を受け付ける受付ステップと、置換対象パターンと置換パターンとを関連付けて記憶する記憶部を参照して、入力画像内で特定された置換対象パターンを置換パターンに置換することで、評価対象画像を生成する生成ステップと、評価対象画像において視覚的注意を惹き付ける傾向がある領域を予測する処理を視線予測システムにおいて実行するために、該評価対象画像を出力する出力ステップとをコンピュータに実行させる。 In addition, the image generation program according to one aspect of the present invention refers to a receiving step that receives an input image, and a storage unit that stores the replacement target pattern and the replacement pattern in association with each other. In order to execute a generation step of generating an evaluation target image by replacing a pattern with a replacement pattern and a process of predicting a region that tends to attract visual attention in the evaluation target image in the gaze prediction system. Causing the computer to execute an output step of outputting the target image.
このような側面においては、置換対象パターンに対応する置換パターンが予め記憶されており、そのデータを用いて、入力画像に含まれる置換対象パターンが置換パターンに置き換えられる。そして、この置換により生成された評価対象画像が、視覚的注意を惹き付ける傾向がある領域の予測のために出力される。この一連の処理により入力画像の一部が自動的に変換されるので、ユーザは、あるシーンについて一つの入力画像さえ用意すれば、その入力画像から、一部の領域が異なる評価対象画像を得ることが可能になる。すなわち、シーン内において視覚的注意を惹き付ける傾向がある領域を予測するために用いる画像を簡単に得ることができる。 In such an aspect, a replacement pattern corresponding to the replacement target pattern is stored in advance, and the replacement target pattern included in the input image is replaced with the replacement pattern using the data. Then, the evaluation target image generated by this replacement is output for prediction of a region that tends to attract visual attention. Since a part of the input image is automatically converted by this series of processing, if the user prepares only one input image for a certain scene, an evaluation target image having a part of a different area is obtained from the input image. It becomes possible. That is, it is possible to easily obtain an image used for predicting a region that tends to attract visual attention in a scene.
本発明の別の側面では、少なくとも一つのプロセッサが、入力画像中の置換対象パターンの歪みを示す射影変換マトリクスを算出し、射影変換マトリクスを置換パターンに適用することで該置換パターンを変形させ、特定された置換対象パターンを、変形された置換パターンに置換してもよい。このように、入力画像中の置換対象パターンに合わせて置換パターンを変形させてからその置換パターンを入力画像に適用することで、違和感の少ない評価対象画像を生成することができる。 In another aspect of the present invention, at least one processor calculates a projective transformation matrix indicating distortion of a replacement target pattern in the input image, and transforms the replacement pattern by applying the projective transformation matrix to the replacement pattern. The identified replacement target pattern may be replaced with a modified replacement pattern. In this way, by changing the replacement pattern in accordance with the replacement target pattern in the input image and applying the replacement pattern to the input image, it is possible to generate an evaluation target image with less discomfort.
本発明の別の側面では、少なくとも一つのプロセッサが、入力画像中の置換対象パターンの特徴点の座標と、置換パターンの特徴点の座標とから第1の射影変換マトリクスを算出し、第1の射影変換マトリクスを置換パターンに適用することで該置換パターンを変形させてもよい。特徴点の座標から射影変換マトリクスを求めることで、置換パターンを精度良く変形させることができる。 In another aspect of the present invention, at least one processor calculates a first projective transformation matrix from the coordinates of the feature points of the replacement target pattern in the input image and the coordinates of the feature points of the replacement pattern. The replacement pattern may be transformed by applying a projective transformation matrix to the replacement pattern. By obtaining the projective transformation matrix from the coordinates of the feature points, the replacement pattern can be accurately deformed.
本発明の別の側面では、少なくとも一つのプロセッサが、入力画像中の置換対象パターンにおいて指定された4頂点の座標と、置換パターンにおいて指定された4頂点の座標とから第2の射影変換マトリクスを算出し、置換パターンに対して、第2の射影変換マトリクスを適用し、その後さらに第1の射影変換マトリクスを適用することで、該置換パターンを変形させてもよい。まず、頂点座標から求めた射影変換マトリクスを用いて置換パターンを大雑把に変形させてから、特徴点の座標から得た射影変換マトリクスを用いてその置換パターンをさらに変形させることで、置換パターンをより精度良く変形させることができる。 In another aspect of the present invention, at least one processor generates a second projective transformation matrix from the coordinates of the four vertices specified in the replacement target pattern in the input image and the coordinates of the four vertices specified in the replacement pattern. The replacement pattern may be transformed by calculating, applying the second projective transformation matrix to the replacement pattern, and then applying the first projective transformation matrix. First, roughly replace the replacement pattern using the projection transformation matrix obtained from the vertex coordinates, and then further modify the replacement pattern using the projection transformation matrix obtained from the coordinates of the feature points. It can be deformed with high accuracy.
本発明の別の側面では、少なくとも一つのプロセッサが、記憶部に記憶されている置換対象パターンと入力画像内の領域とを比較することで、該入力画像内に存在する置換対象パターンを特定してもよい。この場合には、ユーザが置換対象パターンを自ら特定する手間が省けるので、そのユーザの作業負荷をさらに軽減することができる。 In another aspect of the present invention, at least one processor identifies a replacement target pattern existing in the input image by comparing the replacement target pattern stored in the storage unit with an area in the input image. May be. In this case, the user can save time and labor for specifying the replacement target pattern, and the work load on the user can be further reduced.
本発明の一側面に係る視線予測システムは、上記の画像生成システムと、評価対象画像において視覚的注意を惹き付ける傾向がある領域を予測する解析システムとを備える。 A line-of-sight prediction system according to one aspect of the present invention includes the above-described image generation system and an analysis system that predicts a region that tends to attract visual attention in an evaluation target image.
本発明の一側面に係る視線予測方法は、上記の画像生成方法により出力された評価対象画像において視覚的注意を惹き付ける傾向がある領域を予測する解析ステップを含む。 A gaze prediction method according to an aspect of the present invention includes an analysis step of predicting a region that tends to attract visual attention in an evaluation target image output by the image generation method.
本発明の一側面に係る視線予測プログラムは、上記の画像生成プログラムと、評価対象画像において視覚的注意を惹き付ける傾向がある領域を予測する解析ステップをコンピュータに実行させるための解析プログラムとを含む。 A line-of-sight prediction program according to an aspect of the present invention includes the above-described image generation program and an analysis program for causing a computer to execute an analysis step of predicting a region that tends to attract visual attention in an evaluation target image. .
以上、本発明をその実施形態に基づいて詳細に説明した。しかし、本発明は上記実施形態に限定されるものではない。本発明は、その要旨を逸脱しない範囲で様々な変形が可能である。 The present invention has been described in detail based on the embodiments. However, the present invention is not limited to the above embodiment. The present invention can be variously modified without departing from the gist thereof.
本発明が動画にも適用可能であることは上述した通りである。この場合には、画像生成システム10は最初のフレームについては上記実施形態(静止画に対する処理)と同様に評価対象フレームを生成し、その後のフレームについては、オプティカルフロー(動体追跡)を用いて前フレームの置換パターンを動かすことで評価対象フレームを生成してもよい。あるいは、画像生成システム10は各フレームについて上記実施形態(静止画に対する処理)と同様に評価対象フレームを生成してもよい。
As described above, the present invention can also be applied to moving images. In this case, the
上記実施形態では生成部12が色補正および平滑化処理を実行したが、これらの処理の一方または双方を省略してもよい。また、射影変換による置換パターンの変形も省略可能である。
In the above embodiment, the
本発明は単体のコンピュータにも適用可能である。例えば、視線予測システム全体の機能をユーザ端末に実装してもよい。あるいは、画像生成システムおよび解析システムの機能をユーザ端末に実装し、パターンデータベースをネットワーク上に配置してもよい。この場合には、ユーザ端末はそのパターンデータベースに都度アクセスしながら評価対象画像の作成および視線予測を実行する。あるいは、ユーザ端末が画像生成システム10およびパターンデータベース30の機能も備え、そのユーザ端末がネットワークNを介して解析システム20にアクセスしてもよい。
The present invention can also be applied to a single computer. For example, you may implement the function of the whole gaze prediction system in a user terminal. Alternatively, the functions of the image generation system and the analysis system may be mounted on the user terminal, and the pattern database may be arranged on the network. In this case, the user terminal executes the creation of the evaluation target image and the gaze prediction while accessing the pattern database each time. Alternatively, the user terminal may also have the functions of the
1…視線予測システム、10…画像生成システム、11…受付部、12…生成部、13…出力部、20…解析システム、30…パターンデータベース(記憶部)、101…CPU(プロセッサ)、P1…画像生成プログラム、P10…メインモジュール、P11…受付モジュール、P12…生成モジュール、P13…出力モジュール、T…ユーザ端末。 DESCRIPTION OF SYMBOLS 1 ... Gaze prediction system, 10 ... Image generation system, 11 ... Reception part, 12 ... Generation part, 13 ... Output part, 20 ... Analysis system, 30 ... Pattern database (memory | storage part), 101 ... CPU (processor), P1 ... Image generation program, P10 ... main module, P11 ... reception module, P12 ... generation module, P13 ... output module, T ... user terminal.
Claims (10)
少なくとも一つの前記プロセッサが、
入力画像を受け付け、
置換対象パターンと置換パターンとを関連付けて記憶する記憶部を参照して、前記入力画像内で特定された前記置換対象パターンを前記置換パターンに置換することで、評価対象画像を生成し、
前記評価対象画像において視覚的注意を惹き付ける傾向がある領域を予測する処理を視線予測システムにおいて実行するために、該評価対象画像を出力する、
画像生成システム。 With one or more processors,
At least one of the processors is
Accept input images,
By referring to the storage unit that stores the replacement target pattern and the replacement pattern in association with each other, by replacing the replacement target pattern specified in the input image with the replacement pattern, an evaluation target image is generated,
Outputting the evaluation target image in order to execute a process of predicting a region that tends to attract visual attention in the evaluation target image in the gaze prediction system;
Image generation system.
前記入力画像中の前記置換対象パターンの歪みを示す射影変換マトリクスを算出し、
前記射影変換マトリクスを前記置換パターンに適用することで該置換パターンを変形させ、
前記特定された置換対象パターンを、変形された前記置換パターンに置換する、
請求項1に記載の画像生成システム。 The at least one processor comprises:
Calculating a projective transformation matrix indicating distortion of the replacement target pattern in the input image;
Deforming the replacement pattern by applying the projective transformation matrix to the replacement pattern;
Replacing the specified replacement target pattern with the modified replacement pattern;
The image generation system according to claim 1.
前記入力画像中の前記置換対象パターンの特徴点の座標と、前記置換パターンの特徴点の座標とから第1の射影変換マトリクスを算出し、
前記第1の射影変換マトリクスを前記置換パターンに適用することで該置換パターンを変形させる、
請求項2に記載の画像生成システム。 The at least one processor comprises:
Calculating a first projective transformation matrix from the coordinates of the feature points of the replacement target pattern in the input image and the coordinates of the feature points of the replacement pattern;
Deforming the replacement pattern by applying the first projective transformation matrix to the replacement pattern;
The image generation system according to claim 2.
前記入力画像中の前記置換対象パターンにおいて指定された4頂点の座標と、前記置換パターンにおいて指定された4頂点の座標とから第2の射影変換マトリクスを算出し、
前記置換パターンに対して、前記第2の射影変換マトリクスを適用し、その後さらに前記第1の射影変換マトリクスを適用することで、該置換パターンを変形させる、
請求項3に記載の画像生成システム。 The at least one processor comprises:
Calculating a second projective transformation matrix from the coordinates of the four vertices specified in the replacement target pattern in the input image and the coordinates of the four vertices specified in the replacement pattern;
Applying the second projective transformation matrix to the replacement pattern, and then applying the first projective transformation matrix to deform the replacement pattern;
The image generation system according to claim 3.
請求項1〜4のいずれか一項に記載の画像生成システム。 The at least one processor identifies the replacement target pattern existing in the input image by comparing the replacement target pattern stored in the storage unit with a region in the input image;
The image generation system as described in any one of Claims 1-4.
前記プロセッサが、置換対象パターンと置換パターンとを関連付けて記憶する記憶部を参照して、前記入力画像内で特定された前記置換対象パターンを前記置換パターンに置換することで、評価対象画像を生成する生成ステップと、
前記プロセッサが、前記評価対象画像において視覚的注意を惹き付ける傾向がある領域を予測する処理を視線予測システムにおいて実行するために、該評価対象画像を出力する出力ステップと
を含む画像生成方法。 An accepting step in which at least one processor accepts an input image;
The processor generates an evaluation target image by referring to a storage unit that stores the replacement target pattern and the replacement pattern in association with each other and replacing the replacement target pattern specified in the input image with the replacement pattern. Generating step to
An image generation method including: an output step of outputting the evaluation target image so that the processor predicts a region in the evaluation target image that tends to attract visual attention in the line-of-sight prediction system.
置換対象パターンと置換パターンとを関連付けて記憶する記憶部を参照して、前記入力画像内で特定された前記置換対象パターンを前記置換パターンに置換することで、評価対象画像を生成する生成ステップと、
前記評価対象画像において視覚的注意を惹き付ける傾向がある領域を予測する処理を視線予測システムにおいて実行するために、該評価対象画像を出力する出力ステップと
をコンピュータに実行させる画像生成プログラム。 A reception step for receiving an input image;
A generation step of generating an evaluation target image by replacing the replacement target pattern specified in the input image with the replacement pattern with reference to a storage unit that stores the replacement target pattern and the replacement pattern in association with each other. ,
An image generation program for causing a computer to execute an output step of outputting an evaluation target image in order to execute a process of predicting a region that tends to attract visual attention in the evaluation target image in the gaze prediction system.
前記評価対象画像において視覚的注意を惹き付ける傾向がある領域を予測する解析システムと
を備える視線予測システム。 The image generation system according to any one of claims 1 to 5,
A line-of-sight prediction system comprising: an analysis system that predicts a region that tends to attract visual attention in the evaluation target image.
前記評価対象画像において視覚的注意を惹き付ける傾向がある領域を予測する解析ステップをコンピュータに実行させるための解析プログラムと
を含む視線予測プログラム。
An image generation program according to claim 7;
A line-of-sight prediction program including an analysis program for causing a computer to execute an analysis step of predicting an area that tends to attract visual attention in the evaluation target image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013189294A JP2015056041A (en) | 2013-09-12 | 2013-09-12 | Image generation system, image generation method, image generation program, line of sight prediction system, line of sight prediction method, and line of sight prediction program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013189294A JP2015056041A (en) | 2013-09-12 | 2013-09-12 | Image generation system, image generation method, image generation program, line of sight prediction system, line of sight prediction method, and line of sight prediction program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015056041A true JP2015056041A (en) | 2015-03-23 |
Family
ID=52820400
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013189294A Pending JP2015056041A (en) | 2013-09-12 | 2013-09-12 | Image generation system, image generation method, image generation program, line of sight prediction system, line of sight prediction method, and line of sight prediction program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015056041A (en) |
-
2013
- 2013-09-12 JP JP2013189294A patent/JP2015056041A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109508681B (en) | Method and device for generating human body key point detection model | |
US10121099B2 (en) | Information processing method and system | |
US11687220B2 (en) | Interactive image recoloring | |
US10186084B2 (en) | Image processing to enhance variety of displayable augmented reality objects | |
US20200005511A1 (en) | Determining Image Handle Locations | |
JP2017108401A5 (en) | Smartphone based method, smart phone and computer readable medium | |
JP6491517B2 (en) | Image recognition AR device, posture estimation device, and posture tracking device | |
CN112233125B (en) | Image segmentation method, device, electronic equipment and computer readable storage medium | |
JP5021061B2 (en) | Non-visualization information embedding device, non-visualization information recognition device, non-visualization information embedding method, non-visualization information recognition method, non-visualization information embedding program, and non-visualization information recognition program | |
JP5983540B2 (en) | Medium or function identification method and program, article including marker, and marker arrangement method | |
JP2023520786A (en) | Image analysis for tracking, decoding, and locating multiple optical patterns | |
US9779699B2 (en) | Image processing device, image processing method, computer readable medium | |
KR102218608B1 (en) | Real time overlay placement in videos for augmented reality applications | |
JP2011135556A (en) | Method of generating display object, digital media providing system, computer program therefor and display object | |
JP6334927B2 (en) | Additional information display device and additional information display program | |
US11216998B2 (en) | Jointly editing related objects in a digital image | |
JP2016029546A (en) | Image processing device, image processing method, and image processing program | |
JP6017343B2 (en) | Database generation device, camera posture estimation device, database generation method, camera posture estimation method, and program | |
CN114332895A (en) | Text image synthesis method, text image synthesis device, text image synthesis equipment, storage medium and program product | |
JP6121302B2 (en) | Attitude parameter estimation device, attitude parameter estimation system, attitude parameter estimation method, and program | |
JP2016081225A (en) | Information presenting system | |
JP7145440B2 (en) | LEARNING DATA GENERATION METHOD, LEARNING DATA GENERATION DEVICE, AND PROGRAM | |
JP2013210793A (en) | System, method, and program for optimizing ar display | |
KR101910931B1 (en) | Method for providing 3d ar contents service on food using 64bit-identifier | |
JP2015125541A (en) | Line-of-sight prediction system, line-of-sight prediction method, and line-of-sight prediction program |