JP2006013651A - Characteristic point detection apparatus, characteristic point detecting method, and characteristic point detection program - Google Patents
Characteristic point detection apparatus, characteristic point detecting method, and characteristic point detection program Download PDFInfo
- Publication number
- JP2006013651A JP2006013651A JP2004184480A JP2004184480A JP2006013651A JP 2006013651 A JP2006013651 A JP 2006013651A JP 2004184480 A JP2004184480 A JP 2004184480A JP 2004184480 A JP2004184480 A JP 2004184480A JP 2006013651 A JP2006013651 A JP 2006013651A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- feature point
- frequency side
- detecting
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
- Compression Of Band Width Or Redundancy In Fax (AREA)
Abstract
Description
本発明は、サーバ側のデータ受信処理と並列に特徴点検出処理を実行する特徴点検出装置、及び、そのような特徴点検出装置を含む透かし検出装置、透かし検出システムに関する。 The present invention relates to a feature point detection device that executes feature point detection processing in parallel with server-side data reception processing, and a watermark detection device and watermark detection system including such a feature point detection device.
図1に示すようにデジタルカメラ(カメラ付き携帯電話2でもよい)を用いて電子透かし入り画像31が印刷された印刷物3を撮影し、サーバ1において透かしの検出を行う透かし検出システム100がある(例えば、特許文献1)。
As shown in FIG. 1, there is a
そのようなシステムにおいては、透かしの検出率を向上させるため、検出側(サーバ1)にて様々な処理が必要である。その一つとして、電子透かしが埋め込まれている領域を切り出す「画像領域の切り出し処理」がある(例えば、非特許文献1)。 In such a system, various processes are required on the detection side (server 1) in order to improve the watermark detection rate. As one of them, there is an “image region extraction process” for extracting an area in which a digital watermark is embedded (for example, Non-Patent Document 1).
画像領域の切り出しは、通常、撮影画像から検出された特徴点(画像領域の頂点や、画像中のエッジなど)に基づいて行われる。一般的には、図19に示すように、透かし入り画像の4つのコーナーを検出し、検出されたコーナ位置に基づいて透かし入り画像の画像領域を切り出す、という方式がよく用いられている。 The image area is usually cut out based on feature points (vertices of the image area, edges in the image, etc.) detected from the captured image. In general, as shown in FIG. 19, a method of detecting four corners of a watermarked image and cutting out an image area of the watermarked image based on the detected corner position is often used.
図20は、このような透かし検出システム100における処理のタイミングチャートを示したものである。カメラ付き携帯電話2により透かし入り画像31が印刷された印刷物3が撮影されると、撮影画像データはサーバ1へ一旦送信される。サーバ1は、その撮影画像データを受信したのち、撮影画像データの復号処理、特徴点の検出処理、検出した特徴点を利用した電子透かしが埋め込まれている画像領域の切り出し処理、透かし検出処理を行う。そして、サーバ1で検出された透かし情報は再びカメラ付き携帯電話2に送信される。或いは、検出された透かし情報に基づくサービスデータ(例えば映像コンテンツや音楽コンテンツなど)がカメラ付き携帯電話2に送信される。
FIG. 20 shows a processing timing chart in such a
ところで、JPEG2000と呼ばれる、ウェーブレット変換を利用した高品位画像圧縮方式の規格がある。JPEG2000符号化方式では、パス(サブビットプレーン)を最小単位として符号が構成されている。即ち、符号化された後にパス単位にある優先度を付け、復号時の時間的優先度を制御したりすることができる。優先度としては、L:レイヤ、R:空間解像度レベル、P:位置、C:色成分の4つがある(非特許文献2)。 Incidentally, there is a standard for a high-quality image compression method using wavelet transform called JPEG2000. In the JPEG2000 encoding method, a code is configured with a pass (sub-bit plane) as a minimum unit. That is, it is possible to give priority in pass units after encoding and control temporal priority during decoding. There are four priorities: L: layer, R: spatial resolution level, P: position, and C: color component (Non-Patent Document 2).
図21及び図22は、図19での説明に用いた撮影画像をウェーブレット変換によりステージ分解されたときの様子を示すものである。図21は、画像信号にアナリシスバンクを適用して、画像を4つの帯域(LL、LH、HL、HH)に分解(これを「1ステージの分解」という)したときの処理例である。アナリシスバンクとは、信号を2つの帯域に分解する働きがあり、符号化器で使用される。この処理例によれば、最低域(LL)の画像が他の帯域に比べて多くのエネルギを持ち、原画像に最も近い画質を維持している。JPEG2000では、この最低域(LL)に対して更に分解を続ける。図22は、2ステージ分解の例である(なお、JPEG2000では5ステージ分解がデフォルトである)。 FIG. 21 and FIG. 22 show a state when the captured image used for the explanation in FIG. 19 is stage-decomposed by wavelet transformation. FIG. 21 shows an example of processing when an analysis bank is applied to an image signal, and the image is decomposed into four bands (LL, LH, HL, HH) (this is referred to as “one-stage decomposition”). An analysis bank has a function of decomposing a signal into two bands and is used in an encoder. According to this processing example, the image in the lowest range (LL) has more energy than other bands, and maintains the image quality closest to the original image. In JPEG2000, this lowest range (LL) is further decomposed. FIG. 22 is an example of two-stage decomposition (in JPEG 2000, five-stage decomposition is the default).
図23は、2ステージ分解されたときのJPEG2000形式の画像ファイルのデータ構造を示したものである。この場合、画像ファイルのデータ部は解像度レベルごとに階層化された構造になっている。即ち、解像度に基づいて階層符号化された画像データを構成する低域側から高域側までの周波数帯域が異なる複数の画像データの内、低域側の画像データが前にあって、高域側の画像データが後ろにある。 FIG. 23 shows the data structure of an image file in the JPEG 2000 format when it is decomposed in two stages. In this case, the data portion of the image file has a hierarchical structure for each resolution level. That is, among the plurality of image data having different frequency bands from the low frequency side to the high frequency side constituting the hierarchically encoded image data based on the resolution, the low frequency side image data precedes the high frequency image data. The side image data is behind.
このようなデータ構造のJPEG2000画像を送信した場合、まず低域側の画像データが送信され、続いて高域側の画像データが送信されることとなる。
しかしながら、このような透かし検出システム100では、撮影画像データのサーバ1への送信が全て完了してから、各処理を行っていた。そのためクライアントは、透かし入り画像の送信開始から、透かし抽出結果を取得するまで、長い時間待たされるという問題があった。
However, in such a
本発明は、JPEG2000のデータ構造を利用して、サーバ側のデータ受信処理と特徴点検出処理を並列に実行することにより、システムにおける処理時間の短縮化を図ることを第1の目的とする。 The first object of the present invention is to reduce the processing time in the system by executing the data reception process and the feature point detection process on the server side in parallel using the data structure of JPEG2000.
ところで、電子透かしが埋め込まれている画像領域の切り出し処理においては、特徴点を高精度に検出することが重要である。特徴点(例えば透かし入り画像領域のコーナ)が正しく検出できなければ、透かし入り画像から透かし情報を正しく読み出すことができないからである。 By the way, it is important to detect feature points with high accuracy in the clipping process of an image region in which a digital watermark is embedded. This is because the watermark information cannot be correctly read out from the watermarked image unless the feature point (for example, the corner of the watermarked image region) can be detected correctly.
しかし、デジタルカメラ等で撮影された画像には手ぶれや照明の影響によるノイズが載っており、特徴点検出精度の低下を引き起こす。したがって、撮影画像データから高精度に特徴点を検出するためには、ノイズ除去処理も必要な処理の1つである。 However, images taken with a digital camera or the like contain noise due to camera shake and illumination, which causes a reduction in feature point detection accuracy. Therefore, in order to detect feature points with high accuracy from captured image data, noise removal processing is one of the necessary processing.
一般にノイズ除去処理にはガウシアンフィルタに代表される平滑化フィルタが用いられる。平滑化フィルタは対象画素に近い画素に大きな重みを、対象画素から遠い画素には小さい重みを付けた加重平均をとる。よって、ノイズ除去処理後はエッジがぼやけた、言い換えれば高周波成分がカットされた画像が生成される。 In general, a smoothing filter represented by a Gaussian filter is used for noise removal processing. The smoothing filter takes a weighted average in which a large weight is given to pixels close to the target pixel and a small weight is given to pixels far from the target pixel. Therefore, after the noise removal processing, an edge is blurred, in other words, an image in which a high frequency component is cut is generated.
このことより、JPEG2000における低域の画像とノイズ除去処理後の画像は類似した特性を持つと考えられる。そこで、本発明は、JPEG2000のデータ構造を利用して、透かし検出率を向上させることも第2の目的とするものである。 From this, it is considered that the low-frequency image in JPEG 2000 and the image after noise removal processing have similar characteristics. Therefore, a second object of the present invention is to improve the watermark detection rate by using the data structure of JPEG2000.
請求項1の特徴点検出装置は、階層符号化された画像データから特徴点を検出する特徴点検出装置であって、前記階層符号化された画像データを構成する低域側から高域側までの周波数帯域が異なる複数の画像データの内、低域側の画像デ−タのみに基づいて特徴点を検出することを特徴とする。
The feature point detection apparatus according to
ここで、特徴点とは、例えば画像領域の頂点や、画像中のエッジのことをいう。階層符号化された画像データとは、例えばJPEG2000のように、画像データが解像度に応じて分解された構造になっている画像データのことをいう。 Here, the feature point means, for example, a vertex of an image area or an edge in an image. Hierarchically encoded image data refers to image data having a structure in which image data is decomposed according to resolution, such as JPEG2000.
請求項1の特徴点検出装置によれば、高周波成分がカットされた低域成分の画像デ−タに基づいて特徴点を検出するので、特徴点の検出がより正確なものとなる。 According to the feature point detecting apparatus of the first aspect, since the feature point is detected based on the image data of the low frequency component from which the high frequency component is cut, the feature point can be detected more accurately.
請求項2の特徴点検出装置は、階層符号化された画像データから特徴点を検出する特徴点検出装置であって、第1の特徴点候補検出手段と、第2の特徴点候補検出手段と、特徴点決定手段とを含む。第1の特徴点候補検出手段は、前記階層符号化された画像データを構成する低域側から高域側までの周波数帯域が異なるn個(n:自然数)の画像データの内、低域側のl(l<n、l:自然数)個の画像デ−タから得られた第1の特徴点候補を検出する。第2の特徴点候補検出手段は、前記n個の画像データの内、低域側のm(l<m<n、m:自然数)個の画像デ−タから得られた第2の特徴点候補を検出する。特徴点決定手段は、前記第1の特徴点候補検出手段により検出された前記第1の特徴点候補の座標と、前記第2の特徴点候補検出手段により検出された前記第2の特徴点候補の座標とが「一致」したとき、当該特徴点候補を前記階層符号化された画像データの特徴点であると決定する。
The feature point detection apparatus according to
請求項3の特徴点検出装置は、階層符号化された画像データから特徴点を検出する特徴点検出装置であって、第1の特徴点候補検出手段と、第2の特徴点候補検出手段と、特徴点決定手段とを含む。第1の特徴点候補検出手段は、前記階層符号化された画像データを構成する低域側から高域側までの周波数帯域が異なるn個(n:自然数)の画像データの内、低域側のl(l<n、l:自然数)個の画像デ−タから得られた第1の特徴点候補を検出する。第2の特徴点候補検出手段は、前記n個の画像データの内、低域側のm(l<m<n、m:自然数)個の画像デ−タから得られた第2の特徴点候補を検出する。座標変換手段は、前記第1の特徴点候補検出手段によって検出された前記第1の特徴点候補の座標値、及び、前記第2の特徴点候補検出手段によって検出された前記第2の特徴点候補の座標値を、原画像サイズにおける座標値に変換する。特徴点決定手段は、前記座標変換手段により変換された、前記第1の特徴点候補の原画像サイズにおける座標値と、前記座標変換手段により変換された、前記第2の特徴点候補の原画像サイズにおける座標値とが一致したとき、当該座標値を前記階層符号化された画像データの特徴点の座標値であると決定する。
The feature point detection apparatus according to
請求項4の画像処理装置は、階層符号化された画像データを受信する受信部と、前記受信部が受信した前記画像データから特徴点を検出する特徴点検出部とを含む。前記受信部が、前記階層符号化された画像データを構成する低域側から高域側までの周波数帯域が異なる複数の画像データの内、低域側の画像デ−タを受信したとき、前記特徴点検出部は、前記受信部による高域側の画像データの受信を待つことなく前記低域側の画像デ−タのみから特徴点の検出処理を開始することを特徴とする。 According to a fourth aspect of the present invention, there is provided an image processing apparatus including a reception unit that receives hierarchically encoded image data and a feature point detection unit that detects a feature point from the image data received by the reception unit. When the receiving unit receives image data on the low frequency side among a plurality of image data having different frequency bands from the low frequency side to the high frequency side constituting the hierarchically encoded image data, The feature point detection unit starts the feature point detection process from only the low-frequency image data without waiting for reception of high-frequency image data by the reception unit.
請求項5の特徴点検出方法は、階層符号化された画像データから特徴点を検出する特徴点検出方法であって、前記階層符号化された画像データを構成する低域側から高域側までの周波数帯域が異なる複数の画像データの内、低域側の画像デ−タのみに基づいて特徴点を検出することを特徴とする。
The feature point detection method according to
請求項6の特徴点検出方法は、階層符号化された画像データを構成する低域側から高域側までの周波数帯域が異なる複数の画像データの内、低域側の画像デ−タを受信する受信ステップと、前記受信ステップにおいて受信された前記画像データから特徴点を検出する特徴点検出ステップと、前記特徴点検出ステップは、前記複数の画像データの内、高域側の画像デ−タを受信する前に、前記受信ステップにおいて受信された前記低域側の画像デ−タのみから特徴点の検出処理を開始することを特徴とする。
The feature point detection method according to
請求項7の特徴点検出プログラムは、階層符号化された画像データから特徴点を検出する機能を、コンピュータに実現させることを特徴とした、特徴点検出プログラムであって、前記階層符号化された画像データを構成する低域側から高域側までの周波数帯域が異なる複数の画像データの内、低域側の画像デ−タのみに基づいて特徴点を検出する機能を、コンピュータに実現させることを特徴とする。
The feature point detection program according to
請求項8の画像処理プログラムは、階層符号化された画像データを構成する低域側から高域側までの周波数帯域が異なる複数の画像データの内、低域側の画像デ−タを受信する受信ステップと、前記受信ステップにおいて受信された前記画像データから特徴点を検出する特徴点検出ステップと、前記特徴点検出ステップは、前記複数の画像データの内、高域側の画像デ−タを受信する前に、前記受信ステップにおいて受信された前記低域側の画像デ−タのみから特徴点の検出処理を開始することを特徴とする。
The image processing program according to
本発明の透かし検出システムによれば、クライアント側における、透かし入り画像の送信開始から透かし抽出結果を取得するまでの待ち時間を短縮することができる。また、特徴点を高精度で検出することができるので、透かし検出率を向上させることができる。 According to the watermark detection system of the present invention, the waiting time from the start of transmission of a watermarked image to the acquisition of a watermark extraction result on the client side can be reduced. In addition, since the feature points can be detected with high accuracy, the watermark detection rate can be improved.
再び図1を参照して、本発明が適用される透かし検出システム100の構成を示す。透かし検出システム100は、サーバ1、カメラ付き携帯電話2で構成される。カメラ付き携帯電話2は、印刷物3を撮影した画像データ(JPEG2000形式)を生成し、この画像データをサーバ1へ送信する。
Referring again to FIG. 1, the configuration of a
サーバ1は、カメラ付き携帯電話2から送信されてきた画像データから透かし検出を行う。また、サーバ1は、カメラ付き携帯電話2に透かし検出結果を返信する。或いは、サーバ1は、透かし検出結果に応じたサービスデータをカメラ付き携帯電話2に送信する。
The
通常JPEG2000形式では5ステージ分解が標準的であるが、本実施形態では説明の簡単化のため、カメラ付き携帯電話2が内蔵するJPEG2000符号化器は、図22で示したような、2ステージ分解された形式に符号化するものと仮定して以後の説明を行う。即ち、カメラ付き携帯電話2からは、図23で示したような構造を有する撮影画像データがサーバ1へ送信されてくるものとする。
Normally, the 5-stage decomposition is standard in the JPEG2000 format. However, in the present embodiment, for simplicity of explanation, the JPEG2000 encoder incorporated in the camera-equipped
図2を参照して、本発明が適用される透かし検出システム100のサーバ1の構成を説明する。
With reference to FIG. 2, the configuration of the
サーバ1は、送受信部11、特徴点検出処理部12、画像領域切り出し処理部13、透かし検出処理部14、復号処理部15、画像合成部16、及び、制御部17からなる。
The
送受信部11は、カメラ付き携帯電話2から送信されてきた撮影画像データを受信したり、カメラ付き携帯電話2へ透かし検出結果データや透かし検出結果に応じたサービスデータを送信したりする。
The transmission / reception unit 11 receives photographed image data transmitted from the camera-equipped
復号処理部15は、送受信部11が受信した符号化画像データを復号化する。ここでいう復号化とは、主として、ステージ分解された画像データを合成することにより画像データを再構成することを指す。この画像データの合成には、例えば、シンセシスバンクと呼ばれるものが使用される。シンセシスバンクとは、2つの帯域信号を1つに合成する働きがあり、復号化器で使用されるものである。
The
特徴点検出処理部12は、復号処理部15により復号化された画像データから透かし入り画像領域を切り出すために用いられる特徴点(例えば、透かし入り画像領域の4コーナ)を検出する処理を行う。
The feature point
この特徴点検出処理部12は、特徴点候補検出処理部121、特徴点決定部122からなる。特徴点候補検出処理部121は、ステージ分解された画像データ、或いは復号処理部15により復号化した画像データから特徴点候補を抽出する。カメラ付き携帯電話2からサーバ1へ送信されてくる画像データが2ステージ分解された符号化画像データであるとした場合、特徴点候補抽出の対象となる前記のステージ分解された画像データとは、図22或いは図23でいうところの2LL成分の画像データである。また、復号処理部15により復号化した画像データとは、2LL成分の画像データ、2LH成分の画像データ、2HL成分の画像データ、2HH成分の画像データに基づいて復号処理部15により再構成されたLL成分の画像データのことである。
The feature point
特徴点決定部122は、特徴点候補検出処理部121により検出された特徴点候補から特徴点を決定する。制御部17は、各種設定を行ったり、サーバ1の各構成を制御する。
The feature point determination unit 122 determines a feature point from the feature point candidates detected by the feature point candidate
画像領域切り出し処理部13は、復号処理部15により復号化された撮影画像データから、透かし入り画像領域の切り出し処理を行う。この切り出し処理においては、特徴点検出処理部12により検出された特徴点が利用される。
The image region
透かし検出処理部14は、画像領域切り出し処理部13で切り出された画像領域から透かしを検出する処理を行う。
The watermark
なお、これらの構成は、ハードウエア的には、任意のコンピュータのCPU、メモリ、その他のLSIで実現でき、ソフトウエア的にはメモリにロードされた画像処理機能および電子透かし埋め込み機能のあるプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウエアのみ、ソフトウエアのみ、またはそれらの組み合わせによっていろいろな形で実現できることは、当業者には理解されるところである。 These configurations can be realized in hardware by a CPU, memory, or other LSI of any computer, and in software, a program having an image processing function and a digital watermark embedding function loaded in the memory, etc. Here, functional blocks realized by their cooperation are depicted. Therefore, those skilled in the art will understand that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.
図3は、本発明が適用される透かし検出システム100における電子透かし検出処理のタイムチャートを示したものである。
FIG. 3 shows a time chart of digital watermark detection processing in the
カメラ付き携帯電話2により撮影された画像データは、DWT(DiscreteWavelett Transform、離散ウェーブレット変換)により符号化され、図23で示したような解像度により階層化された構造の画像データに変換される。このような画像データを受信する従来のサーバ1は、図4に示すように、画像データの全てを受信してから復号処理、特徴点検出処理等を行っていたので、カメラ付き携帯電話2のユーザにとっては、透かし入り画像の送信から、サーバ1からのレスポンスを得るまでの間、長い時間待たされるという問題があった。
Image data captured by the camera-equipped
これに対し、本実施形態のサーバ1は、画像データの全てを受信してから復号処理、特徴点検出処理等を行うのではなく、到着した一部の画像データ(例えば2LL成分の画像データなど)を利用して,随時特徴点候補の検出処理等を行っていくものである。
On the other hand, the
(ステップS1:初期設定処理)
再び図3を参照して、サーバ1の送受信部11が、ヘッダ部を受信すると、制御部17はヘッダの内容を解析し、到着したデータがJPEG2000形式の画像データであって、かつ透かし入り画像データであることを認識する(ステップS1)。そして、制御部17は、本実施形態により説明される、透かし検出処理を行うためのプログラムを起動させる。
(Step S1: Initial setting process)
Referring to FIG. 3 again, when the transmission / reception unit 11 of the
(ステップS2:特徴点候補検出処理)
送受信部11が、2LL成分の画像データを受信すると、このデータは特徴点検出処理部12の特徴点候補検出処理部121と、復号処理部15の両方に転送される。特徴点候補検出処理部121は、2LL成分の画像データから特徴点候補の検出処理を行う(ステップS2)。特徴点を画像領域のコーナー点とした場合、例えば図5(a)で示すように、複数のコーナー点が2LL成分の画像データから検出される。この特徴点候補検出処理については後で詳しく述べる。
(Step S2: feature point candidate detection processing)
When the transmission / reception unit 11 receives 2LL component image data, the data is transferred to both the feature point candidate
(ステップS3:復号処理)
2LL成分の画像データに続いて、送受信部11が、2LH成分の画像データ、2HL成分の画像データ、2HH成分の画像データを受信すると、これらのデータは復号処理部15に転送される。これらの3つの画像データと、既に転送されてきた2LL成分の画像データの4つの画像データから、復号処理部15は、1つのLL成分の画像データを生成する(ステップS3)。この復号処理には、シンセシスバンクが用いられる。
(Step S3: Decoding process)
When the transmission / reception unit 11 receives 2LH component image data, 2HL component image data, and 2HH component image data following the 2LL component image data, these data are transferred to the
なお、上記では、2LH成分、2HL成分、2HH成分の3つ画像データが到着したら復号処理を行うと説明したが、まず2LH成分の画像データが到着したら、既に復号処理部15に転送されている2LL成分の画像データと2LH成分の画像データにより垂直処理(垂直方向の1次元畳み込み処理)を行ってもよい。続いて、2HL成分、2HH成分の画像データが到着したら2HL成分の画像データと2HH成分の画像データにより垂直処理を行い、そして垂直処理により得られた2つの画像データを水平処理(水平方向の1次元畳み込み処理)することによりLL成分の画像データを生成するものであっても良い。
In the above description, it has been described that the decoding process is performed when the three image data of the 2LH component, the 2HL component, and the 2HH component arrive. However, when the image data of the 2LH component arrives first, it has already been transferred to the
(ステップS4:特徴点候補検出処理)
復号処理部15により、LL成分の画像データが生成されると、特徴点候補検出処理部121は、LL成分の画像データから特徴点候補の検出処理を行う(ステップS4)。特徴点を画像領域のコーナー点とした場合、例えば図5(b)で示すように、複数のコーナー点がLL成分の画像データから検出される。この特徴点候補検出処理については後で詳しく述べるが、対象となる画像データが異なること以外は、ステップS2での処理と全く同様である。
(Step S4: feature point candidate detection process)
When LL component image data is generated by the
(ステップS5:特徴点決定処理)
特徴点候補検出処理部121による特徴点候補検出処理(ステップS4)が終了すると、特徴点決定部122は、ステップS4で検出された特徴点候補と、ステップS2で検出された特徴点候補とに基づいて、特徴点を決定する(ステップS5)。この特徴点決定処理についても後で詳しく述べる。
(Step S5: feature point determination processing)
When the feature point candidate detection process (step S4) by the feature point candidate
(ステップS6:復号処理)
送受信部11が、LH成分の画像データ、HL成分の画像データ、HH成分の画像データを受信すると、これらのデータは復号処理部15に転送される。これらの3つの画像データと、既に復号処理部15により生成されたLL成分の画像データの4つの画像データから、復号処理部15は、原画像データ(符号化される前の画像データ)を生成する(ステップS6)。
(Step S6: Decoding process)
When the transmission / reception unit 11 receives LH component image data, HL component image data, and HH component image data, these data are transferred to the
(ステップS7:画像領域切り出し処理)
ステップS6で、復号化された原画像データに対し、画像領域切り出し処理部13は透かし入り画像領域の切り出し処理を行う(ステップS7)。この切り出し処理においては、ステップS5で決定された特徴点が利用される。
(Step S7: Image region cutout process)
In step S6, the image area
(ステップS8:透かし検出処理)
ステップS7で切り出された画像領域から、透かし検出処理部14は透かしを検出する処理を行う。透かし検出処理により検出された情報に基づいて、サーバ1は、ユーザ(カメラ付き携帯電話2のユーザ)が欲するサービス内容(例えば、音楽コンテンツ配信など)を認識し、サーバ1は適切なコンテンツデータをカメラ付き携帯電話2に送信する。
(Step S8: Watermark detection processing)
From the image area cut out in step S7, the watermark
以上が、本実施例の透かし検出システム100におけるサーバ1の処理の概略である。次に、ステップS2及びS4の特徴点候補検出処理、およびステップS5の特徴点決定処理の詳細について述べる。
The above is the outline of the processing of the
(ステップS2及びS4の特徴点候補検出処理の詳細)
図6から図8を参照して、ステップS2及びステップS4の特徴点候補検出処理の詳細例について説明する。いま、原画像の画像サイズが、縦1024画素、横1280画素であると仮定すると、2LL成分の画像データのサイズは、縦256画素、横320画素となる。
(Details of feature point candidate detection processing in steps S2 and S4)
A detailed example of the feature point candidate detection process in steps S2 and S4 will be described with reference to FIGS. Assuming that the image size of the original image is 1024 pixels vertically and 1280 pixels horizontally, the size of the image data of the 2LL component is 256 pixels vertically and 320 pixels horizontally.
図6のフローチャートを参照して、特徴点候補検出処理部121が行うステップS2の処理手順を説明する。ステップS2においては、この2LL成分の画像データに対する特徴点候補検出処理が行われる。ステップS21では、2LL成分の画像データの全座標点について特徴点検出フィルタによる演算処理が行われる。
With reference to the flowchart of FIG. 6, the process procedure of step S2 which the feature point candidate
ステップS22では、フィルタ演算結果が所定値以上であった点の座標を第1の特徴点候補リストに追加する。この第1の特徴点候補リストとは図7に示されるようなものであり、特徴点候補検出処理部121が有する記憶領域内に一時的に記憶されるものとする。本実施例では、A2(80,40)、B2(240,40)、C2(80,200)、D2(240,200)の4点(図8aも参照のこと)が特徴点候補として、特徴点候補検出処理部121により検出され、これらの特徴点候補が第1の特徴点候補リストに格納される。
In step S22, the coordinates of the point whose filter calculation result is equal to or greater than a predetermined value are added to the first feature point candidate list. This first feature point candidate list is as shown in FIG. 7 and is temporarily stored in the storage area of the feature point candidate
なお、ステップS5の処理は、特徴点候補検出処理の対象となる画像がLL成分の画像データである点がステップS2と異なるだけであって、処理内容はステップS2と同様である。図7、図8(b)を参照して、本実施例では、A1(160,80)、B1(480,80)、C1(320,280)、D1(160,400)、E1(480,400)の5点が特徴点候補として、特徴点候補検出処理部121により検出され、これらの特徴点候補も第1の特徴点候補リストに格納される。
Note that the process of step S5 is different from step S2 only in that the image that is the target of the feature point candidate detection process is LL component image data, and the processing content is the same as step S2. With reference to FIGS. 7 and 8B, in this embodiment, A1 (160, 80), B1 (480, 80), C1 (320, 280), D1 (160, 400), E1 (480, 400) are detected as feature point candidates by the feature point candidate
(ステップS5の特徴点決定処理の詳細)
図9から図12を参照して、特徴点決定部122が行う、ステップS5の特徴点決定処理の詳細例について説明する。ここでは、上記の図6から図8を参照して説明した、ステップS2及びステップS5の特徴点候補検出処理において検出された特徴点候補に基づいて特徴点決定を行うものとして説明する。
(Details of feature point determination processing in step S5)
A detailed example of the feature point determination process in step S5 performed by the feature point determination unit 122 will be described with reference to FIGS. Here, description will be made on the assumption that feature point determination is performed based on the feature point candidates detected in the feature point candidate detection processing in step S2 and step S5 described with reference to FIGS.
図9のフローチャートを参照して、ステップS5の処理手順を説明する。 With reference to the flowchart of FIG. 9, the process procedure of step S5 is demonstrated.
ステップS51では、図7の第1の特徴点候補リストの全特徴点候補について座標変換処理を行う。即ち、2LL成分画像データ、及びLL成分画像データにおいて検出された特徴点候補の位置を示す座標を、原画像における位置を示す座標に変換する処理を行う。2LL成分画像データについては、x座標値、y座標値をそれぞれ4倍する。LL成分画像データについては、x座標値、y座標値をそれぞれ2倍する。 In step S51, coordinate conversion processing is performed on all feature point candidates in the first feature point candidate list of FIG. In other words, the 2LL component image data and the coordinates indicating the position of the feature point candidate detected in the LL component image data are converted into coordinates indicating the position in the original image. For 2LL component image data, the x coordinate value and the y coordinate value are each multiplied by four. For the LL component image data, the x coordinate value and the y coordinate value are each doubled.
その演算結果は、ステップS52において、図10で示すような第2の特徴点候補リストに格納される。第2の特徴点候補リストには、2LL成分画像データにおける特徴点候補A2、B2、C2、D2の座標に対して座標変換した、A'2、B'2、C'2、D'2の4点の座標値や、LL成分画像データにおける特徴点候補の座標に対して座標変換した、A'1、B'1、C'1、D'1、E'1の5点の座標値が格納される。 In step S52, the calculation result is stored in the second feature point candidate list as shown in FIG. In the second feature point candidate list, A′2, B′2, C′2, and D′ 2 obtained by performing coordinate transformation on the coordinates of the feature point candidates A2, B2, C2, and D2 in the 2LL component image data. The coordinate values of four points and the coordinate values of five points A′1, B′1, C′1, D′ 1, and E′1, which are coordinate-converted with respect to the coordinates of the feature point candidates in the LL component image data, are as follows. Stored.
ステップS53では、第2の特徴点候補リストを参照し、双方の画像データから検出された座標値が一致している特徴点候補を調べる。座標値が一致している特徴点候補は、特徴点であると決定される。第2の特徴点候補リストを参照すると、特徴点候補A'2とA'1、B'2とB'1、C'2とD'1、D'2とE'1、の4組の座標値が一致している(図11も参照のこと)。これら4組の座標値は原画像データにおける特徴点の座標値であるとみなされ、図12で示す特徴点リストに格納される。 In step S53, the second feature point candidate list is referred to, and feature point candidates whose coordinate values detected from both image data match are examined. A feature point candidate whose coordinate values match is determined to be a feature point. Referring to the second feature point candidate list, four sets of feature point candidates A'2 and A'1, B'2 and B'1, C'2 and D'1, D'2 and E'1, The coordinate values match (see also FIG. 11). These four sets of coordinate values are regarded as the coordinate values of the feature points in the original image data, and are stored in the feature point list shown in FIG.
なお、ステップS5の処理は、特徴点候補検出処理の対象となる画像がLL成分の画像データである点がステップS2と異なるだけであって、処理内容はステップS2と同様である。図7、図8(b)を参照して、本実施例では、A1(160,80)、B1(480,80)、C1(320,280)、D1(160,400)、E1(480,400)の5点が特徴点候補として、特徴点候補検出処理部121により検出され、これらの特徴点候補も第1の特徴点候補リストに格納される。
Note that the process of step S5 is different from step S2 only in that the image that is the target of the feature point candidate detection process is LL component image data, and the processing content is the same as step S2. With reference to FIGS. 7 and 8B, in this embodiment, A1 (160, 80), B1 (480, 80), C1 (320, 280), D1 (160, 400), E1 (480, 400) are detected as feature point candidates by the feature point candidate
なお、2LL成分画像データにおける特徴点候補と、LL成分画像データにおける特徴点候補とが一致するべきであるにも係わらず、2LL成分画像データの画像サイズと、LL成分画像データの画像サイズの違いに起因して、座標変換後の特徴点候補の座標値が若干異なる場合がある。例えば、図10の第2の特徴点候補リストでは、2LL成分画像データにおける特徴点候補に関する座標値は4の倍数値しかとらないのに対し、LL成分画像データにおける特徴点候補に関する座標値は2の倍数値しかとらない。したがって、このような場合は、2LL成分画像データにおける特徴点候補に関する座標値と、LL成分画像データにおける特徴点候補に関する座標値の差が2である場合も、2LL成分画像データにおける特徴点候補の座標と、LL成分画像データにおける特徴点候補の座標とが一致するものとみなしても良い。
(3ステージ分解された画像データからの特徴点検出処理)
図13で示すような、3ステージ分解された符号化画像から、特徴点検出を行う場合の一例を、図14から図18を参照して説明する。
Note that the difference between the image size of the 2LL component image data and the image size of the LL component image data even though the feature point candidate in the 2LL component image data and the feature point candidate in the LL component image data should match. Due to this, the coordinate values of feature point candidates after coordinate conversion may be slightly different. For example, in the second feature point candidate list of FIG. 10, the coordinate value related to the feature point candidate in the 2LL component image data is only a multiple of 4, whereas the coordinate value related to the feature point candidate in the LL component image data is 2 Only takes a multiple of. Therefore, in such a case, even when the difference between the coordinate value related to the feature point candidate in the 2LL component image data and the coordinate value related to the feature point candidate in the LL component image data is 2, the feature point candidate in the 2LL component image data You may consider that a coordinate and the coordinate of the feature point candidate in LL component image data correspond.
(Feature point detection processing from 3-stage decomposed image data)
An example of performing feature point detection from an encoded image that has been decomposed in three stages as shown in FIG. 13 will be described with reference to FIGS. 14 to 18.
図14は、3LL成分画像データ、2LL成分画像データ、1LL成分画像データから、特徴点候補検出部121により検出された特徴点候補の座標を示す第1の特徴点候補リストである。3LL成分画像データからは3点、2LL成分画像データからは5点、LL成分画像データからは7点の特徴点候補が検出されている。なお、2LL成分画像データは、3LL、3LH、3HL、3HHの4つの画像データの合成により再構成されたものである。
FIG. 14 is a first feature point candidate list indicating the coordinates of feature point candidates detected by the feature point
図15は、このような場合に、特徴点決定部122が行う特徴点決定処理(ステップS5変形例)における処理手順を示すフローチャートである。 FIG. 15 is a flowchart illustrating a processing procedure in the feature point determination process (modified example of step S5) performed by the feature point determination unit 122 in such a case.
ステップS61では、図14の第1の特徴点候補リストの全特徴点候補について座標変換処理を行う。即ち、3LL、2LL、LL成分画像データにおいて検出された特徴点候補の位置を示す座標値を、原画像における位置を示す座標値に変換する処理を行う。その演算結果は、ステップS62において、図16で示すような第2の特徴点候補リストに格納される。第2の特徴点候補リストには、3LL、2LL、LL成分画像データにおける特徴点候補の座標に対して座標変換したものの座標値が格納される。 In step S61, coordinate conversion processing is performed for all feature point candidates in the first feature point candidate list of FIG. That is, a process of converting the coordinate value indicating the position of the feature point candidate detected in the 3LL, 2LL, and LL component image data into the coordinate value indicating the position in the original image is performed. In step S62, the calculation result is stored in the second feature point candidate list as shown in FIG. The second feature point candidate list stores coordinate values obtained by performing coordinate conversion on the feature point candidate coordinates in the 3LL, 2LL, and LL component image data.
ステップS63では、第2の特徴点候補リストを参照し、同リストに格納されている座標値が一致する画像データの数を計数する。その計数結果は、図17で示す第3の特徴点候補リストに格納される。例えば、座標値(320,160)は、3LL、2LL、LLの3つの画像データに基づいて検出された座標点候補の座標値であるので、第3の特徴点候補リストには、座標値(320,160)と、検出画像数3が、特徴点番号1の特徴点候補のデータとして、格納される。
In step S63, the second feature point candidate list is referred to, and the number of image data whose coordinate values stored in the list match is counted. The counting result is stored in the third feature point candidate list shown in FIG. For example, since the coordinate values (320, 160) are coordinate values of coordinate point candidates detected based on the three image data of 3LL, 2LL, and LL, the coordinate value ( 320, 160) and the number of detected
同様にして、座標値(960,160)は、3LL、2LLの2つの画像から検出されたので、座標値(960,160)と、検出画像数2が、特徴点番号2の特徴点候補のデータとして格納される。以下、同様にして、特徴点番号3から10までの特徴点候補に係るデータが格納される。
Similarly, since the coordinate value (960, 160) is detected from two images of 3LL and 2LL, the coordinate value (960, 160) and the number of detected
ステップS64では、第3の特徴点候補リストが参照され、検出画像数が所定値以上であった特徴点候補を特徴点であると決定する。ここで、検出画像数が2以上であった特徴点候補を特徴点であるとしたとき、特徴点番号1、2、3、4の4つの特徴点候補が特徴点として決定される。決定された特徴点は図18で示すような特徴点リストに格納される。
In step S64, the third feature point candidate list is referred to, and a feature point candidate whose detected image number is equal to or larger than a predetermined value is determined as a feature point. Here, assuming that feature point candidates whose detected images are two or more are feature points, four feature point candidates of
(特徴点決定部122で決定された特徴点の数が少ない場合の処理)
特徴点決定部122で決定された特徴点の数が少ない場合の処理について述べる。例えば、画像領域切り出し処理部13で行う画像領域切り出し処理に先立って、4つの特徴点を検出しておく必要がある場合において、3つの特徴点しか検出できなかった場合である。このような場合の処理としては、以下のようなものが考えられる。
(Processing when the number of feature points determined by the feature point determination unit 122 is small)
A process when the number of feature points determined by the feature point determination unit 122 is small will be described. For example, when it is necessary to detect four feature points prior to the image region cut-out process performed by the image region cut-
第1には、図15のステップS64でいうところの検出画像数を下げることである。これによって、ステップS64において第4の特徴点が決定される可能性が生じる。 The first is to reduce the number of detected images in step S64 in FIG. As a result, there is a possibility that the fourth feature point is determined in step S64.
第2には、特徴点候補検出処理部121が行う特徴点検出処理をやり直すことである。例えば、図6のステップS22の特徴点検出フィルタ処理結果の閾値を下げ、より多くの特徴点候補が第1の特徴点候補リストに追加されるようにすることである。
Secondly, the feature point detection processing performed by the feature point candidate
(特徴点決定部122で決定された特徴点の数が多すぎた場合の処理)
特徴点決定部122で決定された特徴点の数が多すぎた場合の処理について述べる。例えば、画像領域切り出し処理部13で行う画像領域切り出し処理に先立って、4つの特徴点を検出しておく必要がある場合において、6つの特徴点を検出してしまった場合である。このような場合の処理としては、以下のようなものが考えられる。
(Processing when there are too many feature points determined by the feature point determination unit 122)
A process when the number of feature points determined by the feature point determination unit 122 is too large will be described. For example, in the case where four feature points need to be detected prior to the image region cut-out process performed by the image region cut-
第1には、図15のステップS64でいうところの検出画像数を上げることである。これによって、ステップS64において第5、第6の特徴点は決定されない可能性が生じる。 The first is to increase the number of detected images in step S64 of FIG. As a result, the fifth and sixth feature points may not be determined in step S64.
第2には、特徴点候補検出処理部121が行う特徴点検出処理をやり直すことである。例えば、図6のステップS22の特徴点検出フィルタ処理結果の閾値を上げ、より少ない特徴点候補が第1の特徴点候補リストに追加されるようにすることである。
Secondly, the feature point detection processing performed by the feature point candidate
第3には、特徴点決定部122で決定された特徴点の座標値に基づいて、検出された特徴点が適切なものかどうかを推測する処理を行うことである。例えば、画像領域の4つのコーナーを特徴点と定めた場合、特徴点決定部122で決定されたn個(n:自然数、n>4)の特徴点候補から任意の4点を選択する。ここで、選択の組み合わせはnC4通りである。選択された4点より形成される図形の形状と画像領域の形状の類似度が最も高い組み合わせを、特徴点と決定することがえられる。 Third, based on the coordinate value of the feature point determined by the feature point determination unit 122, a process of estimating whether the detected feature point is appropriate is performed. For example, when four corners of the image region are determined as feature points, arbitrary four points are selected from n (n: natural number, n> 4) feature point candidates determined by the feature point determination unit 122. Here, there are n C 4 combinations of selections. The combination having the highest similarity between the shape of the figure formed from the four selected points and the shape of the image region can be determined as the feature point.
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施の形態の説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is shown not by the above description of the embodiments but by the scope of claims for patent, and is intended to include meanings equivalent to the scope of claims for patent and all modifications within the scope.
上記実施例では、特に透かし入り画像領域の切り出し処理のための特徴点(画像領域の四角)検出について詳しく説明したが、本発明は一般的な画像における特徴点検出にも適用できる。 In the above-described embodiment, the feature point (square of the image area) detection for extracting a watermarked image area has been described in detail. However, the present invention can also be applied to feature point detection in a general image.
また、上記実施例ではJPEG2000符号化方式による画像データからの特徴点検出について説明したが、本発明は、他の方式による階層符号化された画像データにも適用できる。 In the above embodiment, the feature point detection from the image data by the JPEG2000 encoding method has been described. However, the present invention can also be applied to image data that has been hierarchically encoded by another method.
1 サーバ
11 送受信部
12 特徴点検出処理部
13 画像領域切り出し処理部
14 透かし検出処理部
15 復号処理部
17 制御部
121 特徴点候補検出処理部
122 特徴点決定部
DESCRIPTION OF
Claims (8)
前記階層符号化された画像データを構成する低域側から高域側までの周波数帯域が異なる複数の画像データの内、低域側の画像デ−タのみに基づいて特徴点を検出することを特徴とする、特徴点検出装置。 A feature point detection device for detecting feature points from hierarchically encoded image data,
Detecting feature points based only on image data on the low frequency side among a plurality of image data having different frequency bands from the low frequency side to the high frequency side constituting the hierarchically encoded image data. A feature point detection device.
前記階層符号化された画像データを構成する低域側から高域側までの周波数帯域が異なるn個(n:自然数)の画像データの内、
低域側のl(l<n、l:自然数)個の画像デ−タから得られた第1の特徴点候補を検出する第1の特徴点候補検出手段と、
低域側のm(l<m<n、m:自然数)個の画像デ−タから得られた第2の特徴点候補を検出する第2の特徴点候補検出手段と、
前記第1の特徴点候補検出手段により検出された前記第1の特徴点候補の座標と、前記第2の特徴点候補検出手段により検出された前記第2の特徴点候補の座標とが一致したとき、当該特徴点候補を前記階層符号化された画像データの特徴点であると決定する特徴点決定手段、とを含む特徴点検出装置。 A feature point detection device for detecting feature points from hierarchically encoded image data,
Among n (n: natural number) image data having different frequency bands from the low frequency side to the high frequency side constituting the hierarchically encoded image data,
First feature point candidate detection means for detecting first feature point candidates obtained from l (l <n, l: natural number) image data on the low frequency side;
Second feature point candidate detection means for detecting second feature point candidates obtained from m (l <m <n, m: natural number) image data on the low frequency side;
The coordinates of the first feature point candidate detected by the first feature point candidate detecting means coincide with the coordinates of the second feature point candidate detected by the second feature point candidate detecting means. And a feature point determining means for determining that the feature point candidate is a feature point of the hierarchically encoded image data.
前記階層符号化された画像データを構成する低域側から高域側までの周波数帯域が異なるn個(n:自然数)の画像データの内、
低域側のl(l<n、l:自然数)個の画像デ−タから得られた第1の特徴点候補を検出する第1の特徴点候補検出手段と、
低域側のm(l<m<n、m:自然数)個の画像デ−タから得られた第2の特徴点候補を検出する第2の特徴点候補検出手段と、
前記第1の特徴点候補検出手段によって検出された前記第1の特徴点候補の座標値、及び、前記第2の特徴点候補検出手段によって検出された前記第2の特徴点候補の座標値を、原画像サイズにおける座標値に変換する座標変換手段と、
前記座標変換手段により変換された、前記第1の特徴点候補の原画像サイズにおける座標値と、前記座標変換手段により変換された、前記第2の特徴点候補の原画像サイズにおける座標値とが一致したとき、当該座標値を前記階層符号化された画像データの特徴点の座標値であると決定する特徴点決定手段、とを含む特徴点検出装置。 A feature point detection device for detecting feature points from hierarchically encoded image data,
Among n (n: natural number) image data having different frequency bands from the low frequency side to the high frequency side constituting the hierarchically encoded image data,
First feature point candidate detection means for detecting first feature point candidates obtained from l (l <n, l: natural number) image data on the low frequency side;
Second feature point candidate detection means for detecting second feature point candidates obtained from m (l <m <n, m: natural number) image data on the low frequency side;
The coordinate value of the first feature point candidate detected by the first feature point candidate detection unit and the coordinate value of the second feature point candidate detected by the second feature point candidate detection unit , Coordinate conversion means for converting the coordinate value in the original image size,
The coordinate value in the original image size of the first feature point candidate converted by the coordinate conversion unit and the coordinate value in the original image size of the second feature point candidate converted by the coordinate conversion unit. And a feature point determining unit that determines that the coordinate value is the coordinate value of the feature point of the hierarchically encoded image data when the two coincide with each other.
前記受信部が受信した前記画像データから特徴点を検出する特徴点検出部とを含み、
前記受信部が、前記階層符号化された画像データを構成する低域側から高域側までの周波数帯域が異なる複数の画像データの内、低域側の画像デ−タを受信したとき、
前記特徴点検出部は、前記受信部による高域側の画像データの受信を待つことなく前記低域側の画像デ−タのみから特徴点の検出処理を開始することを特徴とする、画像処理装置。 A receiving unit for receiving the hierarchically encoded image data;
A feature point detection unit that detects a feature point from the image data received by the reception unit,
When the receiving unit receives image data on the low frequency side among a plurality of image data having different frequency bands from the low frequency side to the high frequency side constituting the hierarchically encoded image data,
The feature point detection unit starts a feature point detection process from only the low-frequency image data without waiting for reception of high-frequency image data by the reception unit. apparatus.
前記階層符号化された画像データを構成する低域側から高域側までの周波数帯域が異なる複数の画像データの内、低域側の画像デ−タのみから特徴点を検出することを特徴とする、特徴点検出方法。 A feature point detection method for detecting a feature point from hierarchically encoded image data,
A feature point is detected only from low-frequency side image data among a plurality of pieces of image data having different frequency bands from a low frequency side to a high frequency side constituting the hierarchically encoded image data. A feature point detection method.
前記受信ステップにおいて受信された前記画像データから特徴点を検出する特徴点検出ステップと、
前記特徴点検出ステップは、前記複数の画像データの内、高域側の画像デ−タを受信する前に、前記受信ステップにおいて受信された前記低域側の画像デ−タのみから特徴点の検出処理を開始することを特徴とする、画像処理方法。 A reception step of receiving image data on the low frequency side among a plurality of image data having different frequency bands from the low frequency side to the high frequency side constituting the hierarchically encoded image data;
A feature point detecting step of detecting a feature point from the image data received in the receiving step;
In the feature point detection step, before receiving the high-frequency side image data of the plurality of image data, the feature point detection step is performed only from the low-frequency side image data received in the reception step. An image processing method characterized by starting a detection process.
前記階層符号化された画像データを構成する低域側から高域側までの周波数帯域が異なる複数の画像データの内、低域側の画像デ−タのみに基づいて特徴点を検出する機能を、コンピュータに実現させることを特徴とした、特徴点検出プログラム。 A feature point detection program characterized by causing a computer to realize a function of detecting feature points from hierarchically encoded image data,
A function of detecting feature points based only on low-frequency side image data among a plurality of image data having different frequency bands from the low frequency side to the high frequency side constituting the hierarchically encoded image data A feature point detection program characterized by being realized by a computer.
前記受信ステップにおいて受信された前記画像データから特徴点を検出する特徴点検出ステップと、
前記特徴点検出ステップは、前記複数の画像データの内、高域側の画像デ−タを受信する前に、前記受信ステップにおいて受信された前記低域側の画像デ−タのみから特徴点の検出処理を開始することを特徴とする、画像処理プログラム。
A reception step of receiving image data on the low frequency side among a plurality of image data having different frequency bands from the low frequency side to the high frequency side constituting the hierarchically encoded image data;
A feature point detecting step of detecting a feature point from the image data received in the receiving step;
In the feature point detection step, before receiving the high-frequency side image data of the plurality of image data, the feature point detection step is performed only from the low-frequency side image data received in the reception step. An image processing program for starting a detection process.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004184480A JP2006013651A (en) | 2004-06-23 | 2004-06-23 | Characteristic point detection apparatus, characteristic point detecting method, and characteristic point detection program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004184480A JP2006013651A (en) | 2004-06-23 | 2004-06-23 | Characteristic point detection apparatus, characteristic point detecting method, and characteristic point detection program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006013651A true JP2006013651A (en) | 2006-01-12 |
Family
ID=35780391
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004184480A Pending JP2006013651A (en) | 2004-06-23 | 2004-06-23 | Characteristic point detection apparatus, characteristic point detecting method, and characteristic point detection program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006013651A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007306501A (en) * | 2006-05-15 | 2007-11-22 | Fujifilm Corp | Image processing method, image processing device, and image processing program |
JP2010109486A (en) * | 2008-10-28 | 2010-05-13 | Seiko Instruments Inc | Image processing device, and image processing program |
-
2004
- 2004-06-23 JP JP2004184480A patent/JP2006013651A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007306501A (en) * | 2006-05-15 | 2007-11-22 | Fujifilm Corp | Image processing method, image processing device, and image processing program |
JP2010109486A (en) * | 2008-10-28 | 2010-05-13 | Seiko Instruments Inc | Image processing device, and image processing program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4317230B2 (en) | Image processing method based on header information | |
US6665446B1 (en) | Image processing apparatus and method | |
JP4064196B2 (en) | Client computer, server computer, program, storage medium, image data processing system, and image data processing method | |
US7027654B1 (en) | Video compression system | |
US20100080472A1 (en) | Image processing apparatus, moving image decoding apparatus, moving image encoding apparatus and method | |
JP4768728B2 (en) | Method and apparatus for encoding a block of values | |
US7302105B2 (en) | Moving image coding apparatus, moving image decoding apparatus, and methods therefor | |
JP2002325170A (en) | Image processing unit and its method, and program code, storage medium | |
CN111107370B (en) | Video watermark embedding processing method and device, electronic equipment and storage medium | |
JP2004221950A (en) | Image processor, program, and storage medium | |
KR20100016272A (en) | Image compression and decompression using the pixon method | |
JP2000341689A (en) | Wavelet inverse converting device and its method and wavelet decoding device and its method | |
CN113763224A (en) | Image processing method and device | |
CN112637607A (en) | Image coding method and device | |
JP2006013651A (en) | Characteristic point detection apparatus, characteristic point detecting method, and characteristic point detection program | |
WO2023178662A1 (en) | Image and video coding using multi-sensor collaboration and frequency adaptive processing | |
CN111754378B (en) | Image processing method, image processing device, storage medium and electronic device | |
Seo et al. | An efficient quantization watermarking on the lowest wavelet subband | |
JP2011082594A (en) | Image pre-filter device, image encoding device and image decoding device | |
US20010024523A1 (en) | Reduction of artifacts in a DWT-based compression scheme by adjusting inverse quantized transform data according to noise values | |
JP2003244444A (en) | Image processor | |
JP5244841B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2003125189A (en) | Image processing system, information embedding device, information detection device, information embedding method, and information detection method | |
JP2004213202A (en) | Image processing method, image processor, image pickup unit, program and recording medium | |
JP2008109386A (en) | Image encoding apparatus and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20051227 |