JP4664047B2 - Image processing apparatus and image processing method - Google Patents
Image processing apparatus and image processing method Download PDFInfo
- Publication number
- JP4664047B2 JP4664047B2 JP2004326994A JP2004326994A JP4664047B2 JP 4664047 B2 JP4664047 B2 JP 4664047B2 JP 2004326994 A JP2004326994 A JP 2004326994A JP 2004326994 A JP2004326994 A JP 2004326994A JP 4664047 B2 JP4664047 B2 JP 4664047B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- image processing
- probability
- region
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は、撮影画像から撮影画像に含まれる撮影対象を学習、又は判別する画像処理装置及び画像処理方法に関する。 The present invention relates to an image processing apparatus and an image processing method for learning or determining a shooting target included in a shot image from a shot image.
従来、撮影画像から当該撮影画像に含まれる撮影対象を判別する際に用いられる特徴量には様々なものがある。色の特徴量や形状(構図)の特徴量などが、その例である。近年、これら複数の画像特徴量を組み合わせて高次元特徴量を作成し、撮影対象の判別を行う方法が提案されている(例えば、特許文献1参照)。これらの手法においては、画像から特徴量を抽出する際に、画面全体もしくは画面中の特定の認識領域に対して、一定の次元数を用いて特徴量が抽出されている。
しかしながら、撮影対象を画像中央部に位置するように対象を撮影すると、画像の縁の部分には対象以外の背景が写ることが多く、縁の部分の背景の影響で、特徴量に含まれるノイズが多くなる。このため、特徴量を用いた判別の正解率が低下する。 However, when the subject is photographed so that the subject is located in the center of the image, the background other than the subject often appears in the edge portion of the image, and noise included in the feature amount due to the influence of the background of the edge portion. Will increase. For this reason, the correct answer rate of the discrimination using the feature amount is lowered.
そこで、本発明は、上記の課題に鑑み、ノイズの少ない特徴量を抽出し、撮影画像から撮影画像に含まれる撮影対象を正しく判別する画像処理装置及び画像処理方法を提供することを目的とする。 SUMMARY OF THE INVENTION In view of the above problems, an object of the present invention is to provide an image processing apparatus and an image processing method that extract a feature amount with less noise and correctly determine a shooting target included in a shot image from a shot image. .
上記目的を達成するため、本発明の第1の特徴は、撮影画像から撮影画像に含まれる撮影対象の学習、又は判別の少なくとも一方を行う画像処理装置であって、(a)任意の数の領域に分割された撮影画像の各領域において、撮影対象が写る確率を推定する確率推定手段と、(b)確率推定手段によって推定された確率を元に、各領域における画像の表現方法を変更する表現変更手段と、(c)表現変更手段によって変更された表現方法を用いて、特徴ベクトルを抽出する特徴量抽出手段と、(d)特徴量抽出手段によって抽出された各領域における特徴ベクトルを組み合わせることにより、撮影画像全体の特徴ベクトルを作成する特徴ベクトル作成手段と、(e)撮影画像全体の特徴ベクトルを元に、撮影画像の学習、又は判別の少なくとも一方を行う手段とを備える画像処理装置であることを要旨とする。 In order to achieve the above object, a first feature of the present invention is an image processing apparatus that performs at least one of learning or discrimination of a shooting target included in a shot image from a shot image, and (a) an arbitrary number of In each area of the captured image divided into areas, a probability estimation unit that estimates the probability that the imaging target is captured, and (b) the image representation method in each area is changed based on the probability estimated by the probability estimation unit. (C) a feature amount extracting unit that extracts a feature vector using the expression method changed by the expression changing unit, and (d) a feature vector in each region extracted by the feature amount extracting unit. And (e) at least learning or discrimination of the captured image based on the feature vector of the entire captured image. And summarized in that an image processing apparatus comprising means for performing one.
第1の特徴に係る画像処理装置によると、領域毎の表現を変化させることにより、ノイズの少ない特徴量を抽出し、撮影画像から撮影画像に含まれる撮影対象を正しく判別することができる。 According to the image processing device according to the first feature, by changing the expression for each region, it is possible to extract a feature amount with less noise and correctly determine a shooting target included in the shot image from the shot image.
又、第1の特徴に係る画像処理装置の確率推定手段は、撮影対象の大きさに関する事前情報を元に、撮影対象が撮影画像中に写る各領域の統計量を求めて、確率を推定してもよい。 The probability estimating means of the image processing apparatus according to the first feature estimates the probability by obtaining a statistic of each region where the shooting target appears in the shot image based on prior information on the size of the shooting target. May be.
この画像処理装置によると、撮影対象の大きさに応じて、確率を推定することができる。 According to this image processing apparatus, the probability can be estimated according to the size of the subject to be photographed.
又、第1の特徴に係る画像処理装置の表現変更手段は、各領域から得られる特徴ベクトルの頻度、あるいは、特徴ベクトルの次元数を用いて、画像の表現方法を変更してもよい。 In addition, the expression changing unit of the image processing apparatus according to the first feature may change the image expressing method using the frequency of the feature vector obtained from each region or the number of dimensions of the feature vector.
この画像処理装置によると、特徴ベクトルの情報を用いて、画像の表現方法を変更することができる。 According to this image processing apparatus, it is possible to change an image representation method using feature vector information.
又、第1の特徴に係る画像処理装置において、学習、又は判別の少なくとも一方を行う撮影対象を、撮影を行った端末装置の位置情報及び撮影対象の位置情報により選択してもよい。 In addition, in the image processing apparatus according to the first feature, the photographing target to be learned or discriminated may be selected based on the position information of the terminal device that has performed the photographing and the position information of the photographing target.
この画像処理装置によると、端末装置の位置情報と撮影対象の位置情報から、処理が必要な撮影対象を絞り込むことができる。 According to this image processing apparatus, it is possible to narrow down the shooting target that needs to be processed from the position information of the terminal device and the position information of the shooting target.
本発明の第2の特徴は、撮影画像から撮影画像に含まれる撮影対象の学習、又は判別の少なくとも一方を行う画像処理方法であって、(a)任意の数の領域に分割された撮影画像の各領域において、撮影対象が写る確率を推定するステップと、(b)推定された確率を元に、各領域における画像の表現方法を変更するステップと、(c)変更された表現方法を用いて、特徴ベクトルを抽出するステップと、(d)抽出された各領域における特徴ベクトルを組み合わせることにより、撮影画像全体の特徴ベクトルを作成するステップと、(e)撮影画像全体の特徴ベクトルを元に、撮影対象の学習、又は判別の少なくとも一方を行うステップとを含む画像処理方法であることを要旨とする。 A second feature of the present invention is an image processing method that performs at least one of learning or discrimination of a shooting target included in a shot image from a shot image, and (a) a shot image divided into an arbitrary number of regions (B) using the estimated probability, (b) changing the image representation method in each region based on the estimated probability, and (c) using the modified expression method. Extracting a feature vector; (d) creating a feature vector of the entire captured image by combining the extracted feature vectors in each region; and (e) based on the feature vector of the entire captured image. The gist of the present invention is an image processing method including a step of performing at least one of learning or discrimination of an imaging target.
第2の特徴に係る画像処理方法によると、領域毎の表現を変化させることにより、ノイズの少ない特徴量を抽出し、撮影画像から撮影画像に含まれる撮影対象を正しく判別することができる。 According to the image processing method according to the second feature, it is possible to extract a feature amount with less noise by changing the expression for each region, and to correctly determine the shooting target included in the shot image from the shot image.
本発明によると、ノイズの少ない特徴量を抽出し、撮影画像から撮影画像に含まれる撮影対象を正しく判別する画像処理装置及び画像処理方法を提供することができる。 According to the present invention, it is possible to provide an image processing apparatus and an image processing method that extract feature amounts with less noise and correctly determine a shooting target included in a shot image from a shot image.
次に、図面を参照して、本発明の実施の形態を説明する。以下の図面の記載において、同一又は類似の部分には、同一又は類似の符号を付している。ただし、図面は模式的なものであることに留意すべきである。 Next, embodiments of the present invention will be described with reference to the drawings. In the following description of the drawings, the same or similar parts are denoted by the same or similar reference numerals. However, it should be noted that the drawings are schematic.
(画像処理システム)
本実施形態に係る画像処理システムは、図1に示すように、ユーザの入力を受け付けて画像処理サーバ1(画像処理装置)に処理を依頼し、画像処理サーバ1での処理結果を出力する端末装置2a、2b、2cと、通信ネットワーク(移動通信網、LAN、インターネット等)3を介して、端末装置2a、2b、2cからの処理依頼を受け付けて処理を行い、端末装置2a、2b、2cに処理結果を送信する画像処理サーバ1とを備える。
(Image processing system)
As illustrated in FIG. 1, the image processing system according to the present embodiment receives a user input, requests processing from the image processing server 1 (image processing apparatus), and outputs a processing result in the
ユーザは、端末装置2a、2b、2cを、学習モードと判別モードの2種類のモードを切り換えて使用することができる。「学習モード」とは、既知である撮影対象を撮影し、この撮影画像と撮影対象を特定する情報を画像処理サーバ1へ送信することにより、画像処理サーバ1が撮影画像を学習するモードである。一方、「判別モード」とは、未知である撮影対象を撮影し、この撮影画像を画像処理サーバ1へ送信することにより、画像処理サーバ1が撮影対象を判別し、判別結果を、端末装置2a、2b、2cへ送信するモードである。
The user can use the terminal devices 2a, 2b, and 2c by switching between two modes, a learning mode and a discrimination mode. The “learning mode” is a mode in which the
学習モードである場合、画像処理サーバ1は、端末装置2a、2b、2cから受信した、登録対象情報、登録対象関連情報、撮影対象を撮影した撮影画像から、撮影対象のグルーピングを行い、各撮影対象情報及び画像を記憶する。ここで、「登録対象情報」とは、撮影画像に写っている撮影対象を特定するための情報である。又、「登録対象関連情報」とは、撮影対象の位置情報、撮影対象に関連する情報(名称、URLなど)などである。
When in the learning mode, the
判別モードである場合、画像処理サーバ1は、端末装置2a、2b、2cの位置情報と、端末装置2a、2b、2cから受信した撮影画像が撮影された位置に近い、予め登録された撮影対象の登録対象情報、登録対象関連情報などを取り出し、撮影画像に含まれる撮影対象を確率的に判別する。又、画像処理サーバ1は、判別結果となる複数の撮影対象の候補と、各候補が撮影対象である確率と、それら撮影対象に関連する情報を端末装置2a、2b、2cに送信する。
When it is in the discrimination mode, the
画像処理サーバ1は、図2に示すように、通信手段11と、判別手段12と、特徴量抽出手段13と、登録手段14と、学習手段15と、演算装置16と、記憶装置17と、重み付け手段18と、確率推定手段30と、表現変更手段31と、特徴ベクトル作成手段32とを備える。
As shown in FIG. 2, the
通信手段11は、通信ネットワーク3(移動通信網、LAN、インターネット等)を介し、端末装置2a、2b、2cから、撮影画像及び撮影対象の情報を受信する。又、通信手段11は、判別モードである場合、通信ネットワーク3(移動通信網、LAN、インターネット等)を介し、端末装置2a、2b、2cへ撮影対象の情報及び判別結果を送信する。 The communication unit 11 receives photographed images and information of photographing objects from the terminal devices 2a, 2b, and 2c via the communication network 3 (mobile communication network, LAN, Internet, etc.). When the communication unit 11 is in the discrimination mode, the communication unit 11 transmits information about the imaging target and the discrimination result to the terminal devices 2a, 2b, and 2c via the communication network 3 (mobile communication network, LAN, Internet, etc.).
確率推定手段30は、任意の数の領域に分割された撮影画像の各領域において、撮影対象が写る確率を推定する。この各領域における確率は、後に詳述するが、例えば、図13や図16に示すような値となる。このような確率を推定する際、確率推定手段30は、例えば、図10に示すような、撮影対象の大きさに関する事前情報を元に、撮影対象が撮影画像中に写る各領域の統計量を求めて、確率を推定する。尚、撮影対象の大きさに関する事前情報は、記憶装置17に予め登録されていてもよい。又、予め、撮影対象の大きさに関する事前情報が登録されていなくても、確率推定手段30は、図11〜図13に示すような、後に詳述する方法を用いて、確率を推定することができる。
The probability estimating means 30 estimates the probability that a shooting target is captured in each area of the captured image divided into an arbitrary number of areas. The probability in each area will be described in detail later, and is, for example, a value as shown in FIG. 13 or FIG. When estimating such a probability, the probability estimating means 30 calculates, for example, the statistic of each region in which the shooting target appears in the shot image based on the prior information on the size of the shooting target as shown in FIG. Find the probability. Note that prior information regarding the size of the subject to be photographed may be registered in the
表現変更手段31は、確率推定手段30によって推定された確率を元に、各領域における画像の表現方法を変更する。又、表現変更手段31は、例えば、各領域から得られる特徴ベクトルの頻度、あるいは、特徴ベクトルの次元(あるいは、特徴ベクトルの頻度と特徴ベクトルの次元の両方)を用いて、画像の表現方法を変更する。この変更方法については、後に詳述する。
The
特徴量抽出手段13は、任意の数の領域に分割された撮影画像の各領域において、撮影対象を判別する際の指標となる特徴量(特徴ベクトル)を抽出する。このとき、特徴量抽出手段13は、表現変更手段31によって変更された表現方法を用いて、特徴ベクトルを抽出する。
The feature
特徴ベクトル作成手段32は、特徴量抽出手段13によって抽出された各領域における特徴ベクトルを組み合わせることにより、撮影画像全体の特徴ベクトルを作成する。
The feature
又、特徴量抽出手段13は、例えば、撮影画像の任意の領域毎に、均等色空間で表現された撮影画像の信号を量子化し、均等色空間における各軸の量子化レベルの値の頻度を色ヒストグラムとして抽出する。ここで、「色空間」には、均等色空間(L*、a*、b*空間)、RGB色空間、CMYK色空間、L*、u*、v*空間、YUV空間、XYZ空間などの様々な色空間が含まれる。そして、特徴量抽出手段13は、任意の領域毎の色ヒストグラムを結合し、撮影画像全体の特徴量を抽出する。即ち、特徴量抽出手段13は、既知の撮影画像1枚毎に、次元数(V)分の要素を有する撮影画像全体の特徴量(x)を抽出する。特徴量(x)は、一定の要素数を有するベクトルである。以下の説明において、x、x’は、ベクトルである。又、lを既知の撮影対象の番号、nを撮影画像毎に付与した番号、vを特徴量の次元の番号とすると、複数の既知の撮影対象に属する撮影画像の特徴量Xは、各要素x(l) (n,v)からなるマトリクスで表される。
The feature
学習手段15(パラメータ算出手段)は、式(1)を用いて、特徴量抽出手段13によって抽出された特徴量に基づいて、学習パラメータΘを算出する。Vを特徴量の最大次元、Lを既知の撮影対象の数とすると、学習パラメータΘは、各要素θ(v,l)をV×L個並べたマトリクスである。
式(1)において、lは既知の撮影対象の番号、Lは既知の撮影対象の数、N(l)はl番目の既知の撮影対象に対する撮影画像の数、vは特徴量の次元の番号、Vは特徴量の最大次元数、x(l) (n,v)はl番目の既知の撮影対象に属するn番目の撮影画像のv番目の次元の特徴量、γは任意の値、θ(v,l)はl番目の既知の撮影対象に属する特徴量のv番目の次元における学習パラメータである。 In Equation (1), l is the number of a known object, L is the number of known objects, N (l) is the number of images taken for the l-th known object, and v is the feature dimension number. , V is the maximum number of dimensions of the feature quantity, x (l) (n, v) is the feature quantity of the vth dimension of the nth captured image belonging to the lth known imaging target, γ is an arbitrary value, θ (v, l) is a learning parameter in the v-th dimension of the feature quantity belonging to the l-th known imaging target.
上記の説明において、v、l、n(小文字)は変数であり、V、L、N(大文字)は固定値である。又、x、x’(小文字)は、ベクトルであり、X及びΘ(大文字)は、マトリクスである。 In the above description, v, l, and n (lowercase) are variables, and V, L, and N (uppercase) are fixed values. X and x '(lower case) are vectors, and X and Θ (upper case) are matrices.
具体的には、学習手段15(パラメータ算出手段)は、式(1)を用いて、l番目の既知の撮影対象に属する特徴量のv番目の次元の学習パラメータθ (v,l)を算出する。 Specifically, the learning unit 15 (parameter calculation unit) calculates the v-th dimension learning parameter θ (v, l) of the feature quantity belonging to the l-th known imaging target using the equation (1). To do.
判別手段12は、判別モードの際に受信した撮影画像について、式(2)を用いて、学習手段15(パラメータ算出手段)によって算出された学習パラメータを用いることにより、未知の撮影対象を判別する。
式(2)において、x’(v)は未知の撮影対象が含まれる撮影画像のv番目の次元の特徴量、F(l)は未知の撮影対象がl番目の既知の撮影対象に属する度合いを示す判別値である。 In Expression (2), x ′ (v) is the feature quantity of the v th dimension of the captured image including the unknown imaging target, and F (l) is the degree to which the unknown imaging target belongs to the l th known imaging target. Is a discriminating value.
具体的には、判別手段12は、l番目の既知の撮影対象に属する特徴量のv番目の次元の学習パラメータθ (v,l)を用いて、未知の撮影対象が含まれる撮影画像に属する特徴量x’が、l番目の既知の撮影対象に属する度合いを示すF(l)の値を算出する。ここで、F(l)の値が大きいほど、未知の撮影対象は、l番目の既知の撮影対象である確率が高いと判断する。
Specifically, the
このように、式(2)によるF(l)の算出をL回行えば、F(l)の値に応じて、未知の撮影対象がL種類の撮影対象のどれに属するかを順位付けて判別することができる。 In this way, if F (l) is calculated L times according to equation (2), according to the value of F (l) , which of the L types of imaging targets the unknown imaging target belongs to is ranked. Can be determined.
登録手段14は、演算装置16を介して記憶装置17に撮影画像毎の特徴量や学習パラメータを登録する。
The registration unit 14 registers the feature amount and learning parameter for each captured image in the
重み付け手段18は、任意の領域毎の色ヒストグラムに、任意の重みを掛け合わせる。特徴量抽出手段13は、重み付け手段18によって、重みを掛け合わされた任意の領域毎の色ヒストグラムを結合する。任意の重みは、例えば、任意の領域毎の色ヒストグラムの頻度の値の合計値の逆数とすることができる。
The weighting means 18 multiplies the color histogram for each arbitrary region by an arbitrary weight. The feature
演算装置16は、通信手段11と、判別手段12と、特徴量抽出手段13と、登録手段14と、学習手段15と、記憶装置17、重み付け手段18の動作を制御する。
The
又、本発明の実施の形態に係る画像処理サーバ1は、処理制御装置(CPU)を有し、通信手段11、判別手段12、特徴量抽出手段13、登録手段14、学習手段15、重み付け手段18、確率推定手段30、表現変更手段31、特徴ベクトル作成手段32などをモジュールとしてCPUに内蔵する構成とすることができる。これらのモジュールは、パーソナルコンピュータ等の汎用コンピュータにおいて、所定のプログラム言語を利用するための専用プログラムを実行することにより実現することができる。
The
又、記憶装置17は、複数の撮影画像の特徴量、複数の撮影画像それぞれに基づいて算出された複数の所定の学習パラメータ、撮影画像データ、登録対象情報、登録対象関連情報、判定値、撮影対象の大きさに関する事前情報などを保存する記録媒体である。記録媒体は、例えば、RAM、ROM、ハードディスク、フレキシブルディスク、コンパクトディスク、ICチップ、カセットテープなどが挙げられる。このような記録媒体によれば、撮影画像データ、学習パラメータ、登録対象情報などの保存、運搬、販売などを容易に行うことができる。
In addition, the
端末装置2a、2b、2cは、学習モードと判別モードの2種類のモードを切り換えることができる。 The terminal devices 2a, 2b, and 2c can switch between two types of modes, a learning mode and a discrimination mode.
学習モードである場合、端末装置2a、2b、2cは、搭載されたカメラによって、既知の撮影対象を撮影する。端末装置2a、2b、2cは、予めユーザによって登録された登録対象情報と登録対象関連情報とともに、撮影画像を画像処理サーバ1に送信する。又、画像処理サーバ1は、学習処理を行う撮影対象を、撮影を行った端末装置2の位置情報及び登録対象関連情報に含まれる撮影対象の位置情報により選択する。
In the learning mode, the terminal devices 2a, 2b, and 2c photograph a known subject to be photographed using the mounted camera. The terminal devices 2a, 2b, and 2c transmit the captured image to the
一方、判別モードである場合、端末装置2a、2b、2cは、搭載されたカメラによって、未知の撮影対象を撮影する。端末装置2a、2b、2cは、登録対象関連情報とともに、撮影画像を画像処理サーバ1に送信する。又、画像処理サーバ1は、判別処理を行う撮影対象を、撮影を行った端末装置2の位置情報及び登録対象関連情報に含まれる撮影対象の位置情報により選択する。そして、端末装置2a、2b、2cは、画像処理サーバ1から判別結果となる複数の撮影対象の候補と、各候補が撮影対象である確率と、それら撮影対象に関連する情報を受信し、上述したF(l)の値を元に「登録対象情報」と「登録対象関連情報」を順位付けて、ユーザに提示する。ユーザは、それら順位付けされた候補の中から所望のデータを簡単に取り出すことができる。
On the other hand, in the discrimination mode, the terminal devices 2a, 2b, and 2c take an image of an unknown shooting target with the mounted camera. The terminal devices 2a, 2b, and 2c transmit the captured image to the
端末装置2は、図3に示すように、入力手段21と、通信手段22と、出力手段23と、撮影手段24と、測位手段25と、演算装置26と、記憶装置27とを備える。
As shown in FIG. 3, the
通信手段22は、通信ネットワーク3(移動通信網、LAN、インターネット等)を介し、画像処理サーバ1へ、撮影画像及び撮影対象の情報を送信する。又、通信手段22は、判別モードである場合、通信ネットワーク3(移動通信網、LAN、インターネット等)を介し、画像処理サーバ1から、撮影対象の情報及び判別結果を受信する。
The
撮影手段24は、具体的には、搭載されたカメラなどを指し、対象を撮影し、撮影画像を取得する。
Specifically, the
測位手段25は、端末装置2の位置や撮影対象の位置を測位する。測位手段25は、例えば、GPS、基地局との連動、超音波、電子コンパスなどを組み合わせて測位を行ってもよい。
The positioning means 25 measures the position of the
入力手段21は、タッチパネル、キーボード、マウス、携帯電話のボタン等の機器を指す。入力手段21から入力操作が行われると対応するキー情報が演算装置26に伝達される。出力手段23は、モニタなどの画面を指し、液晶表示装置(LCD)、発光ダイオード(LED)パネル、エレクトロルミネッセンス(EL)パネル等が使用可能である。
The input means 21 refers to devices such as a touch panel, a keyboard, a mouse, and a cellular phone button. When an input operation is performed from the input means 21, corresponding key information is transmitted to the
演算装置26は、入力手段21と、通信手段22と、出力手段23と、撮影手段24と、測位手段25と、記憶装置27の動作を制御する。又、演算装置26は、入力手段21から入力されたキー情報などによって、学習モードと判別モードを切り換える切換手段として動作する。
The
記憶装置27は、撮影画像、登録対象情報、登録対象関連情報などを保存する記録媒体である。
The
(画像処理方法)
次に、本実施形態に係る画像処理方法について、図4〜21を用いて説明する。
(Image processing method)
Next, an image processing method according to the present embodiment will be described with reference to FIGS.
まず、撮影画像の登録方法について、図4を用いて説明する。 First, a method for registering captured images will be described with reference to FIG.
(イ)まず、ステップS101において、端末装置2は、学習モードにおいて既知の登録対象を撮影し、その撮影画像を取得する。
(A) First, in step S101, the
(ロ)次に、ステップS102において、端末装置2は、登録対象情報を入力し、ステップS103において、端末装置2は、登録対象関連情報を入力する。登録対象情報及び登録対象関連情報の入力は、撮影前に予め行っていても構わない。例えば、撮影した画像が図9に示すような洋菓子店舗の場合、「登録対象情報」として、“ケーキ屋”などを入力し、「登録対象関連情報」として、“AAA洋菓子店”、AAA洋菓子店の住所、AAA洋菓子店のURLなどを入力する。
(B) Next, in step S102, the
(ハ)次に、ステップS104において、端末装置2は、登録対象を撮影した地点の位置情報、測位誤差、撮影時刻、可能であれば撮影対象までの距離や方向を取得し、登録対象関連情報に含めて記憶する。
(C) Next, in step S104, the
(ニ)次に、ステップS105において、端末装置2は、画像処理サーバ1に登録対象情報、登録対象関連情報、撮影画像データを送信する。
(D) Next, in step S <b> 105, the
(ホ)次に、ステップS106において、画像処理サーバ1は、登録対象情報、登録対象関連情報、撮影画像データを受信する。そして、ステップS107において、画像処理サーバ1は、登録画像の特徴量を抽出する。この特徴量の抽出方法は、後に詳述する。
(E) Next, in step S106, the
(へ)次に、ステップS108において、画像処理サーバ1は、登録対象情報、登録対象関連情報、登録対象画像、特徴量及び画像処理サーバ1での登録時刻を記憶装置17に記憶する。
(F) Next, in step S108, the
次に、撮影対象を学習する方法について、図5を用いて説明する。 Next, a method for learning an imaging target will be described with reference to FIG.
(イ)まず、ステップS201において、画像処理サーバ1は、記憶装置17から登録対象情報、登録対象関連情報、撮影画像データ、特徴量を読み出す。
(A) First, in step S201, the
(ロ)次に、ステップS202において、画像処理サーバ1は、登録対象関連情報に含まれる位置情報による対象のグルーピングを行って撮影対象を絞り込む。後述する撮影対象の判別時に随時学習を行う場合は、端末装置2から端末装置2の位置情報を受信して、検索範囲内にある撮影対象を学習する。ここで、「検索範囲」とは、判別対象を中心として半径が(測位誤差)+(対象までの距離)以内のエリアを指す。又、ここで用いる位置情報は、任意の位置を受け付けることが可能である。例えば、予め判別が行われそうな位置を用いて学習を行っても良いし、端末の位置情報を用いて判別する際に随時学習を行っても良い。
(B) Next, in step S202, the
(ハ)次に、ステップS203において、画像処理サーバ1は、撮影対象の学習を行う。具体的には、上述した式(1)を用いて学習パラメータの算出を行う。
(C) Next, in step S203, the
(ニ)次に、ステップS204において、画像処理サーバ1は、対象の学習結果(学習パラメータ)を記憶する。
(D) Next, in step S204, the
次に、撮影対象を判別する方法について、図6を用いて説明する。 Next, a method for determining an imaging target will be described with reference to FIG.
(イ)まず、ステップS301において、端末装置2は、判別モードにおいて未知の撮影対象を撮影し、撮影画像を取得する。次に、ステップS302において、端末装置2は、未知の撮影対象に関する登録対象関連情報を取得する。
(A) First, in step S301, the
(ロ)次に、ステップS303において、端末装置2は、画像処理サーバ1に登録対象関連情報及び撮影画像データを送信する。次に、ステップS304において、画像処理サーバ1は、登録対象関連情報及び撮影画像データを受信する。次に、ステップS305において、画像処理サーバ1は、撮影画像の特徴量を抽出する。この特徴量の抽出方法は、後に詳述する。
(B) Next, in step S <b> 303, the
(ハ)次に、ステップS306において、画像処理サーバ1は、判別対象の絞り込みを行う。次に、ステップS307において、画像処理サーバ1は、検索範囲の学習が完了しているか否か判断する。完了している場合は、ステップS308の処理に進み、完了していない場合は、ステップS309の処理に進む。
(C) Next, in step S306, the
(ニ)ステップS309において、画像処理サーバ1は、図5のステップS203において説明した学習を行う。そして、ステップS308において、画像処理サーバ1は、撮影画像の特徴量と学習パラメータを用いて対象判別を確率的に行う。具体的には、具体的には、上述した式(2)を用いて判定値を求め、判別候補となる撮影画像を求める。
(D) In step S309, the
(ホ)次に、ステップS310において、画像処理サーバ1は、判別結果の候補に関する登録対象情報及び登録対象関連情報を記憶装置17から読み出し、登録対象情報、登録対象関連情報、判別結果を端末装置2に送信する。そして、ステップS311において、端末装置2は、登録対象情報、登録対象関連情報、判別結果を受信する。
(E) Next, in step S310, the
(へ)次に、ステップS312において、端末装置2は、確率的な判別結果を元に登録対象情報と登録対象関連情報に優先度をつけて(例えば、確率の高い候補を画面の上部に表示するなど)ユーザに提示する。これにより、ユーザは未知の撮影対象に関連したURL等のアドレスを元にして、ネットワークから更に撮影対象に関連する情報を引き出すことができる。
(F) Next, in step S312, the
図6に示す判別処理によると、例えば、ユーザが、端末装置2によって未知の撮影対象である店舗Aを撮影し、その撮影画像を画像処理サーバ1へ送信すると、画像処理サーバ1が店舗Aを判別し、店舗Aの名称、URL等を端末装置2に送信することができる。このため、端末装置2は、撮影画像からその撮影対象に関する情報を容易に得ることができる。
According to the determination processing shown in FIG. 6, for example, when the user images a store A that is an unknown image capturing object by the
次に、図4のステップS107及び図6のステップS305における特徴量の抽出方法の詳細について、図7を用いて説明する。 Next, details of the feature amount extraction method in step S107 in FIG. 4 and step S305 in FIG. 6 will be described with reference to FIG.
(イ)まず、ステップS401において、画像処理サーバ1は、端末装置2に搭載したカメラによって撮影対象の撮影画像を取得する。ここでは、図9に示す画像を取得したことを例にとり説明する。この取得した画像は、カメラや端末装置2の機能によりホワイトバランス等の一般的な画像補正を行われていてもよい。
(A) First, in step S401, the
(ロ)次に、ステップS402において、画像処理サーバ1は、取得画像にノイズ除去の画像補正処理を施す。尚、画像補正処理は、必ずしも必要ではなく、状況に応じて施せばよい。
(B) Next, in step S402, the
(ハ)次に、ステップS403において、画像処理サーバ1は、特徴量の抽出を行う。
(C) Next, in step S403, the
ステップS403における、特徴量の抽出方法の詳細を図8を用いて説明する。 Details of the feature amount extraction method in step S403 will be described with reference to FIG.
(イ)まず、ステップS501において、画像処理サーバ1は、撮影画像を格子状にI×J分割する。領域の分割方法として、図9では、格子状に分割したものを示したが、放射状でも円形状でもよく、分割形状はこれに限らない。又、領域は等分割されなくてもよい。
(A) First, in step S501, the
(ロ)次に、ステップS502において、画像処理サーバ1は、各領域に対象が写っている確率を推定する。画像の各領域において対象が写る確率を推定するには、撮影の条件と対象の大きさのデータを元に画像の各領域において対象が写る確率を推定することができる。例えば、「撮影対象を撮影画像の中央に、撮影画像の領域一杯に撮影する」という撮影条件を設定し、3個の撮影対象の大きさのデータがあった場合、3個の撮影対象の大きさの縦横比から、画像中に対象が写る頻度を求める。撮影画像の各領域において撮影対象が写る頻度を撮影対象の大きさのデータ数で割ることで、画像の各領域において対象が写る確率を求める。
(B) Next, in step S502, the
具体的な計算例を以下に示す。図10に示すように、3つの対象に関するサイズが与えられているとする。すると、各対象は図11のように画像中に写ることが想定される(ここでは、説明を簡単にする為、撮影画像の縦横比は1の場合について説明する)。 A specific calculation example is shown below. As shown in FIG. 10, it is assumed that sizes regarding three objects are given. Then, it is assumed that each object appears in the image as shown in FIG. 11 (here, in order to simplify the description, the case where the aspect ratio of the captured image is 1 will be described).
又、各対象の各領域における頻度は、図12に示すようになる。ここで、図13に示すように、対象の総数で頻度を割った値を、各領域における対象の写る確率とみなすことができる。 Moreover, the frequency in each area | region of each object becomes as shown in FIG. Here, as shown in FIG. 13, a value obtained by dividing the frequency by the total number of objects can be regarded as the probability that the object appears in each region.
上記は、対象のサイズが既知であるとした場合の例を述べたが、例えば対象を撮影した画像に写っている領域を元に、同様の計算方法で対象が写る範囲の確率を求めても良い。 The above describes an example in which the size of the target is known. For example, the probability of the range in which the target is captured can be obtained by the same calculation method based on the area captured in the image obtained by capturing the target. good.
更に、対象に関するデータが無い場合には、何かしらの分布を用いて、重み付けを行っても良い。図14〜16を用いて、3×3領域に分割した場合に、画面中央部の領域の確率が高くなるように、標準二次元正規分布を用いて(二次元正規分布等、他の分布でも構わない)、各領域の次元数を決定し、値を調節する方法を述べる。まず、図14は、中心の領域を0とし、この中心領域からの距離を各領域毎に表したものである。図15は、各領域の値に対して、所定の関数を用いて変換した結果である。ここで、用いた累積分布関数値は、
である。ここで、rは、図14に示す距離マトリクス、μ=0、σ=1として計算した。 It is. Here, r was calculated with the distance matrix shown in FIG. 14, μ = 0, and σ = 1.
そして、図16に示す正規化累積分布関数値を、画像の各領域に対象が写る確率とみなす。図16では、各領域の合計値(画面全体)を1として正規化を行った例であるが、図13に示すように、画面の中央領域を1として正規化しても構わない。画面の中央には撮影対象が存在する確率が非常に高いため、図13に示す正規化も有用である。 Then, the normalized cumulative distribution function value shown in FIG. 16 is regarded as the probability that the object appears in each area of the image. FIG. 16 shows an example in which normalization is performed by setting the total value (entire screen) of each region as 1, but normalization may be performed by setting the central region of the screen as 1 as shown in FIG. Since there is a very high probability that an imaging target exists in the center of the screen, normalization shown in FIG. 13 is also useful.
(ハ)次に、ステップS503において、確率に基づいて、次元数や頻度を変更する際の重みを決定する。このとき、ステップS502において推定した確率をそのまま重みとして用いてもよい。ステップS504において、次元数を変更するか否か判断し、変更する場合は、ステップS505において、重みに基づいて次元数を変更し、変更しない場合は、ステップS506において、次元数を固定とする。 (C) Next, in step S503, weights for changing the number of dimensions and frequency are determined based on the probability. At this time, the probability estimated in step S502 may be used as it is as a weight. In step S504, it is determined whether or not the number of dimensions is to be changed. If so, the number of dimensions is changed based on the weight in step S505. If not, the number of dimensions is fixed in step S506.
ここで、次元数を変更する方法について述べる。次元数を変更する場合は、画像の各領域に対象が写る確率に応じて、量子化のビット数を変えることで、画像の各領域から抽出する特徴ベクトルの次元数を変える。図17では、図16に示す確率を元に、量子化ビット数を算出し、色空間と量子化ビット数をかけることで、次元数を算出している。このようにして算出した次元数に応じて、図18に示すように、色ヒストグラムの次元数を変更する。例えば、図19に示すように、撮影画像の中央部と、周囲と、中央部と周囲の間で、色ヒストグラムの次元数を変更する場合について説明する。図19では、中央部では9次元、周囲では3次元、中央部と周囲の間では、6次元の次元数としている。中央部には撮影対象が存在する確率が高いため、中央部の次元数を上げている。 Here, a method for changing the number of dimensions will be described. When changing the number of dimensions, the number of dimensions of the feature vector extracted from each area of the image is changed by changing the number of quantization bits according to the probability that the object appears in each area of the image. In FIG. 17, the number of quantization bits is calculated based on the probability shown in FIG. 16, and the number of dimensions is calculated by multiplying the color space and the number of quantization bits. In accordance with the number of dimensions calculated in this manner, the number of dimensions of the color histogram is changed as shown in FIG. For example, as shown in FIG. 19, a case will be described in which the dimensionality of the color histogram is changed between the center portion and the periphery of the captured image, and between the center portion and the periphery. In FIG. 19, the number of dimensions is 9 dimensions at the center, 3 dimensions at the periphery, and 6 dimensions between the center and the periphery. Since there is a high probability that an object to be photographed exists in the center, the number of dimensions in the center is increased.
(ニ)次に、ステップS507において、画像処理サーバ1は、領域毎に、画像を視覚的に均等な空間である均等色空間(L*、a*、b*)で表現する。ここで、撮影画像を格子状にI×J分割した場合、i,j番目の領域における次元数をVi,jとする。例えば、各分割領域における次元数は、図18のように示される。そして、i,j番目の領域における各領域のVi,j次元で、特徴量(特徴量は色ヒストグラム、周波数、画素値等でも構わない)を抽出する。本実施形態では、色ヒストグラムで抽出したとして話を進める。各領域の色ヒストグラムは、Vi,j次元の特徴量(Vi,j個の要素を有するベクトル値)として表される。ステップS508において、画像処理サーバ1は、均等色空間における各軸を独立に、次元数に基づいた量子化を行う。そして、ステップS509において、画像処理サーバ1は、L*、a*、b*の量子化レベルの値の頻度を算出する。
(D) Next, in step S507, the
(ホ)次に、ステップS510において、画像処理サーバ1は、頻度の調整を行うか否か判断し、調整を行う場合はステップS511に進み、重みに基づいた頻度の調整を行い、調整を行わない場合は、ステップS512に進む。
(E) Next, in step S510, the
ここで、ステップS511において、頻度を調整する場合は、画像の各領域から画像の各領域の次元数によって抽出した特徴ベクトルの値に、画像の各領域に対象が写る確率の値をかける。例えば、図20に示すように、撮影画像の中央部と、周囲と、中央部と周囲の間で、色ヒストグラムの頻度を調整する。図20では、中央部、周囲、中央部と周囲の間では、すべて6次元であるが、各領域において、頻度を増加したり、減少したりする。中央部には撮影対象が存在する確率が高いため、中央部に近いほど、頻度を増加している。 In step S511, when the frequency is adjusted, the value of the feature vector extracted from each area of the image according to the number of dimensions of each area of the image is multiplied by the value of the probability that the object appears in each area of the image. For example, as shown in FIG. 20, the frequency of the color histogram is adjusted between the center portion and the periphery of the captured image and between the center portion and the periphery. In FIG. 20, the center part, the periphery, and between the center part and the periphery are all six-dimensional, but the frequency is increased or decreased in each region. Since there is a high probability that an object to be photographed exists in the center, the frequency increases as the distance from the center increases.
尚、次元数の変更、頻度の調整は、どちらか一方を行ってもよく、両方を行ってもよい。両方を行った場合は、図21に示すように、各領域毎に次元数が変化し、かつ、領域毎に頻度を調整することとなる。 Note that either one of the dimensionality change and the frequency adjustment may be performed, or both may be performed. When both are performed, as shown in FIG. 21, the number of dimensions changes for each region, and the frequency is adjusted for each region.
(へ)次に、ステップS513において、画像処理サーバ1は、上記の次元数と頻度を調節した、画像の各領域のヒストグラムを結合し、撮影画像全体の特徴ベクトルを抽出する。例えば、ステップS501において、撮影画像を格子状にI×J分割した場合、i,j番目の領域における次元数をVi,jとする。各領域の特徴量を結合して、全ての領域の特徴量を結合した特徴量の次元Vは、
で表される。 It is represented by
図18に示す結果の場合は、全体のヒストグラムは、45次元+27次元×4ブロック+15次元×4ブロック=213次元ベクトルとなる。 In the case of the result shown in FIG. 18, the entire histogram is 45 dimensions + 27 dimensions × 4 blocks + 15 dimensions × 4 blocks = 213 dimensions vector.
(ト)次に、ステップS514において、全体のヒストグラム(213次元ベクトル)を正規化する。尚、正規化処理は、必ずしも必要ではなく、状況に応じて施せばよい。 (G) Next, in step S514, the entire histogram (213-dimensional vector) is normalized. The normalization process is not necessarily required, and may be performed according to the situation.
(作用及び効果)
本実施形態に係る画像処理サーバ1(画像処理装置)及び画像処理方法によると、通常、撮影対象は画像中央部に位置することを利用し、対象が映っている可能性の高い画像中央部の表現(次元数や頻度)を高めて、背景が映っている可能性が低い画像の周囲の表現(次元数や頻度)を低下させることで、より対象の情報を含み、かつノイズの少ない画像特徴量を抽出することができる。このため、撮影画像から撮影画像に含まれる撮影対象を正しく判別することができる。
(Action and effect)
According to the image processing server 1 (image processing apparatus) and the image processing method according to the present embodiment, the shooting target is usually located in the center of the image, and the center of the image where the target is likely to be reflected is used. Image features that contain more information of interest and are less noisy by increasing the representation (number of dimensions and frequency) and reducing the surrounding representation (number of dimensions and frequency) of images that are less likely to show the background The amount can be extracted. For this reason, it is possible to correctly determine the shooting target included in the shot image from the shot image.
又、画像処理サーバ1の確率推定手段30は、撮影対象の大きさに関する事前情報を元に、撮影対象が撮影画像中に写る各領域の統計量を求めて、確率を推定することができる。
Further, the probability estimating means 30 of the
又、画像処理サーバ1の表現変更手段31は、各領域から得られる特徴ベクトルの頻度、あるいは、特徴ベクトルの次元数を用いて、画像の表現方法を変更することができる。
The
又、画像処理サーバ1において、学習、又は判別の少なくとも一方を行う撮影対象を、撮影を行った端末装置2の位置情報及び撮影対象の位置情報により選択することができる。このため、撮影対象の位置情報から、処理が必要な撮影対象を絞り込むことができる。
Further, in the
又、上述した式(1)及び式(2)は、いわゆるNB(ナイーブ・ベイズ)の手法であり、未知の撮影対象が既知の撮影対象に該当する確率を、複数の既知の撮影対象それぞれに算出することができ、かつ、処理速度が早いという利点を有する。 Further, the above-described formulas (1) and (2) are so-called NB (Naive Bayes) techniques, and the probability that an unknown shooting target corresponds to a known shooting target is assigned to each of a plurality of known shooting targets. It has the advantage that it can be calculated and the processing speed is fast.
(その他の実施の形態)
本発明は上記の実施の形態によって記載したが、この開示の一部をなす論述及び図面はこの発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。
(Other embodiments)
Although the present invention has been described according to the above-described embodiments, it should not be understood that the descriptions and drawings constituting a part of this disclosure limit the present invention. From this disclosure, various alternative embodiments, examples, and operational techniques will be apparent to those skilled in the art.
例えば、上述した実施形態において、NB(ナイーブ・ベイズ)の手法を用いて、学習パラメータを取得し、未知の撮影対象を判別する例を示した。しかし、NBに限らず、他のベイズ手法やSVM(サポート・ベクター・マシン)、kNN(kニアレスト・ネイバー)、LVQ(ラーニング・ベクター・クォンタイゼーション)などの他のアルゴリズムを用いて、学習パラメータを取得し、未知の撮影対象を判別しても構わない。 For example, in the above-described embodiment, an example has been shown in which learning parameters are acquired using an NB (Naive Bayes) method to determine an unknown imaging target. However, not only NB, but also other Bayesian methods and other algorithms such as SVM (Support Vector Machine), kNN (k Nearest Neighbor), LVQ (Learning Vector Quantization), etc. May be obtained to determine an unknown imaging target.
又、実施形態に係る画像処理サーバ1は、通信手段11と、判別手段12と、特徴量抽出手段13と、登録手段14と、学習手段15と、重み付け手段18と、確率推定手段30と、表現変更手段31と、特徴ベクトル作成手段32とをモジュールとしてCPUに内蔵する構成とすることができると説明したが、それらが二つあるいはそれ以上のCPUに分かれていても構わない。その際はそれらのCPU間でデータのやりとりが行えるようにバスなどで装置間を接続しているとする。
The
このように、本発明はここでは記載していない様々な実施の形態等を含むことは勿論である。従って、本発明の技術的範囲は上記の説明から妥当な特許請求の範囲に係る発明特定事項によってのみ定められるものである。 As described above, the present invention naturally includes various embodiments not described herein. Therefore, the technical scope of the present invention is defined only by the invention specifying matters according to the scope of claims reasonable from the above description.
1 画像処理サーバ
2 端末装置
3 通信ネットワーク
11 通信手段
12 判別手段
13 特徴量抽出手段
14 登録手段
15 学習手段
16 演算装置
17 記憶装置
18 重み付け手段
21 入力手段
22 通信手段
23 出力手段
24 撮影手段
25 測位手段
26 演算装置
27 記憶装置
30 確率推定手段
31 表現変更手段
32 特徴ベクトル作成手段
DESCRIPTION OF
Claims (5)
任意の数の領域に分割された撮影画像の各領域において、前記撮影対象が写る確率を推定する確率推定手段と、
前記確率推定手段によって推定された確率を元に、前記各領域における画像の表現方法を変更する表現変更手段と、
前記表現変更手段によって変更された表現方法を用いて、特徴ベクトルを抽出する特徴量抽出手段と、
前記特徴量抽出手段によって抽出された前記各領域における特徴ベクトルを組み合わせることにより、前記撮影画像全体の特徴ベクトルを作成する特徴ベクトル作成手段と、
前記撮影画像全体の特徴ベクトルを元に、撮影対象の学習、又は判別の少なくとも一方を行う手段と
を備え、
前記表現変更手段は、前記各領域から得られる特徴ベクトルの次元数を用いて、画像の表現方法を変更し、
前記表現変更手段による前記表現方法の変更は、前記各領域において、前記確率推定手段によって推定された確率が高いことに応じて、数が増えるように前記次元数が変更されることを特徴とする画像処理装置。 An image processing device that performs at least one of learning or discrimination of a shooting target included in a captured image from a captured image,
Probability estimation means for estimating the probability that the subject is captured in each region of the captured image divided into an arbitrary number of regions;
Based on the probability estimated by the probability estimating means, the expression changing means for changing the expression method of the image in each region;
Feature amount extraction means for extracting feature vectors using the expression method changed by the expression change means;
Feature vector creation means for creating a feature vector of the entire captured image by combining feature vectors in the respective regions extracted by the feature amount extraction means;
Means for performing at least one of learning or discrimination of an imaging target based on the feature vector of the entire captured image;
The expression changing means changes the image expression method using the dimensionality of the feature vector obtained from each region ,
The change of the expression method by the expression changing means is characterized in that the number of dimensions is changed so that the number increases in accordance with a high probability estimated by the probability estimating means in each region. Image processing device.
前記画像処理装置が、任意の数の領域に分割された撮影画像の各領域において、前記撮影対象が写る確率を推定するステップと、
前記画像処理装置が、前記推定された確率を元に、前記各領域における画像の表現方法を変更するステップと、
前記画像処理装置が、前記変更された表現方法を用いて、特徴ベクトルを抽出するステップと、
前記画像処理装置が、前記抽出された前記各領域における特徴ベクトルを組み合わせることにより、前記撮影画像全体の特徴ベクトルを作成するステップと、
前記画像処理装置が、前記撮影画像全体の特徴ベクトルを元に、撮影対象の学習、又は判別の少なくとも一方を行うステップと
を含み、
前記表現するステップでは、前記各領域から得られる特徴ベクトルの次元数を用いて、画像の表現方法を変更し、
前記表現方法の変更は、前記各領域において、前記確率推定手段によって推定された確率が高いことに応じて、数が増えるように前記次元数が変更されることを特徴とする画像処理方法。 An image processing method in an image processing apparatus that performs at least one of learning or discrimination of a shooting target included in a captured image from a captured image,
The image processing apparatus estimating a probability that the photographing object appears in each region of the photographed image divided into an arbitrary number of regions;
The image processing apparatus, based on the estimated probability, changing a representation method of the image in each region;
The image processing apparatus using the modified representation method to extract a feature vector;
The image processing device creating a feature vector of the entire captured image by combining the extracted feature vectors in each of the regions;
The image processing apparatus includes a step of performing at least one of learning or discrimination of an imaging target based on a feature vector of the entire captured image,
In the step of expressing, using the number of dimensions of the feature vector obtained from each region, the method of expressing the image is changed ,
In the image processing method, the number of dimensions is changed so that the number increases in accordance with a high probability estimated by the probability estimation unit in each region .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004326994A JP4664047B2 (en) | 2004-11-10 | 2004-11-10 | Image processing apparatus and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004326994A JP4664047B2 (en) | 2004-11-10 | 2004-11-10 | Image processing apparatus and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006139418A JP2006139418A (en) | 2006-06-01 |
JP4664047B2 true JP4664047B2 (en) | 2011-04-06 |
Family
ID=36620218
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004326994A Expired - Fee Related JP4664047B2 (en) | 2004-11-10 | 2004-11-10 | Image processing apparatus and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4664047B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103106668B (en) * | 2011-11-09 | 2016-08-03 | 佳能株式会社 | The method and system of image-region is described based on color histogram |
JP6292122B2 (en) | 2012-09-24 | 2018-03-14 | 日本電気株式会社 | Object information extraction apparatus, object information extraction program, and object information extraction method |
CN112639869A (en) * | 2018-08-30 | 2021-04-09 | 株式会社Ntt数据Ccs | Server device for crop growth stage determination system, growth stage determination method, and program |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06350989A (en) * | 1993-06-04 | 1994-12-22 | Fuji Photo Film Co Ltd | Picture data compression processing method |
JPH1091634A (en) * | 1996-08-15 | 1998-04-10 | Hewlett Packard Co <Hp> | Photographic image retrieval system |
JPH11127306A (en) * | 1997-10-22 | 1999-05-11 | Nikon Corp | Image formation point detecting device |
JPH11213158A (en) * | 1998-01-29 | 1999-08-06 | Canon Inc | Image processor, its method and memory readable by computer |
JP2000163569A (en) * | 1998-11-30 | 2000-06-16 | Mitsubishi Electric Corp | Improving method and device for picture quality |
JP2001134765A (en) * | 1999-11-09 | 2001-05-18 | Canon Inc | Method and device for retrieving image |
JP2002312792A (en) * | 2001-04-13 | 2002-10-25 | Sony Corp | Image processor and image processing method and recording medium and its program |
-
2004
- 2004-11-10 JP JP2004326994A patent/JP4664047B2/en not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06350989A (en) * | 1993-06-04 | 1994-12-22 | Fuji Photo Film Co Ltd | Picture data compression processing method |
JPH1091634A (en) * | 1996-08-15 | 1998-04-10 | Hewlett Packard Co <Hp> | Photographic image retrieval system |
JPH11127306A (en) * | 1997-10-22 | 1999-05-11 | Nikon Corp | Image formation point detecting device |
JPH11213158A (en) * | 1998-01-29 | 1999-08-06 | Canon Inc | Image processor, its method and memory readable by computer |
JP2000163569A (en) * | 1998-11-30 | 2000-06-16 | Mitsubishi Electric Corp | Improving method and device for picture quality |
JP2001134765A (en) * | 1999-11-09 | 2001-05-18 | Canon Inc | Method and device for retrieving image |
JP2002312792A (en) * | 2001-04-13 | 2002-10-25 | Sony Corp | Image processor and image processing method and recording medium and its program |
Also Published As
Publication number | Publication date |
---|---|
JP2006139418A (en) | 2006-06-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7978918B2 (en) | Digital image cropping using a blended map | |
US8605955B2 (en) | Methods and apparatuses for half-face detection | |
JP5159515B2 (en) | Image processing apparatus and control method thereof | |
US7720851B2 (en) | Active context-based concept fusion | |
US8478068B2 (en) | Image processing device, electronic instrument, and information storage medium for evaluating composition of input image | |
CN112529951A (en) | Method and device for acquiring extended depth of field image and electronic equipment | |
JP5279654B2 (en) | Image tracking device, image tracking method, and computer program | |
WO2020232909A1 (en) | Pedestrian visual tracking method, model training method and device, apparatus and storage medium | |
US9058655B2 (en) | Region of interest based image registration | |
US20160267339A1 (en) | Image processing apparatus and method of generating face image | |
US11600003B2 (en) | Image processing apparatus and control method for an image processing apparatus that extract a region of interest based on a calculated confidence of unit regions and a modified reference value | |
CN101983507A (en) | Automatic redeye detection | |
CN111598065A (en) | Depth image acquisition method, living body identification method, apparatus, circuit, and medium | |
CN113283485A (en) | Target detection method, training method of model thereof, related device and medium | |
Rahman et al. | Real-time face-priority auto focus for digital and cell-phone cameras | |
JP4664047B2 (en) | Image processing apparatus and image processing method | |
JP6511950B2 (en) | Image processing apparatus, image processing method and program | |
JP2007207055A (en) | Image processor, program, information storage medium and image processing method | |
JP5099120B2 (en) | Template matching device, camera equipped with template matching device, computer matching program for computer | |
CN111753796A (en) | Method and device for identifying key points in image, electronic equipment and storage medium | |
JP4741804B2 (en) | Image processing apparatus and image processing method | |
JP4769416B2 (en) | Image processing apparatus and image processing method | |
CN113284199A (en) | Image gray area determination method, electronic device and server | |
JP5206300B2 (en) | Program, camera, image processing apparatus, and method for calculating focus degree of image | |
JP2003256838A (en) | Image processor and image processing method and its program and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071005 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100701 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100720 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100921 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101012 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101210 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110104 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110106 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4664047 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140114 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |