JP2006013651A - Characteristic point detection apparatus, characteristic point detecting method, and characteristic point detection program - Google Patents

Characteristic point detection apparatus, characteristic point detecting method, and characteristic point detection program Download PDF

Info

Publication number
JP2006013651A
JP2006013651A JP2004184480A JP2004184480A JP2006013651A JP 2006013651 A JP2006013651 A JP 2006013651A JP 2004184480 A JP2004184480 A JP 2004184480A JP 2004184480 A JP2004184480 A JP 2004184480A JP 2006013651 A JP2006013651 A JP 2006013651A
Authority
JP
Japan
Prior art keywords
image data
feature point
frequency side
detecting
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004184480A
Other languages
Japanese (ja)
Inventor
Satoru Takeuchi
悟 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2004184480A priority Critical patent/JP2006013651A/en
Publication of JP2006013651A publication Critical patent/JP2006013651A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a characteristic point detection apparatus for utilizing the data structure of the JPEG 2000 so as to detect a characteristic point with high accuracy without the need for noise elimination processing wherein a computing time can be shortened through parallel processing. <P>SOLUTION: Upon the receipt of image data of 2LL components by a transmission reception section 11, a characteristic point candidate detection processing section 121 carries out detection processing of characteristic point candidates from the image data of the 2LL components (S2). A decoding processing section 15 generates image data of one LL component (S3). The characteristic point candidate detection processing section 121 carries out detection processing of characteristic point candidates from the image data of the LL components (S4). A characteristic point determining section 122 determines a characteristic point on the basis of the characteristic point candidates detected in S4 and the characteristic point candidates detected in S2 (S5). A decode processing section 15 generates original image data (S6). An image region segmentation processing section 13 applies segmentation processing of a watermark embedded image region to the original image data (S7). A watermark detection processing section 14 carries out processing of detecting watermarks. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、サーバ側のデータ受信処理と並列に特徴点検出処理を実行する特徴点検出装置、及び、そのような特徴点検出装置を含む透かし検出装置、透かし検出システムに関する。   The present invention relates to a feature point detection device that executes feature point detection processing in parallel with server-side data reception processing, and a watermark detection device and watermark detection system including such a feature point detection device.

図1に示すようにデジタルカメラ(カメラ付き携帯電話2でもよい)を用いて電子透かし入り画像31が印刷された印刷物3を撮影し、サーバ1において透かしの検出を行う透かし検出システム100がある(例えば、特許文献1)。   As shown in FIG. 1, there is a watermark detection system 100 that uses a digital camera (or a mobile phone 2 with a camera) to photograph a printed matter 3 on which an image 31 with a digital watermark is printed, and detects a watermark in the server 1 ( For example, Patent Document 1).

そのようなシステムにおいては、透かしの検出率を向上させるため、検出側(サーバ1)にて様々な処理が必要である。その一つとして、電子透かしが埋め込まれている領域を切り出す「画像領域の切り出し処理」がある(例えば、非特許文献1)。   In such a system, various processes are required on the detection side (server 1) in order to improve the watermark detection rate. As one of them, there is an “image region extraction process” for extracting an area in which a digital watermark is embedded (for example, Non-Patent Document 1).

画像領域の切り出しは、通常、撮影画像から検出された特徴点(画像領域の頂点や、画像中のエッジなど)に基づいて行われる。一般的には、図19に示すように、透かし入り画像の4つのコーナーを検出し、検出されたコーナ位置に基づいて透かし入り画像の画像領域を切り出す、という方式がよく用いられている。   The image area is usually cut out based on feature points (vertices of the image area, edges in the image, etc.) detected from the captured image. In general, as shown in FIG. 19, a method of detecting four corners of a watermarked image and cutting out an image area of the watermarked image based on the detected corner position is often used.

図20は、このような透かし検出システム100における処理のタイミングチャートを示したものである。カメラ付き携帯電話2により透かし入り画像31が印刷された印刷物3が撮影されると、撮影画像データはサーバ1へ一旦送信される。サーバ1は、その撮影画像データを受信したのち、撮影画像データの復号処理、特徴点の検出処理、検出した特徴点を利用した電子透かしが埋め込まれている画像領域の切り出し処理、透かし検出処理を行う。そして、サーバ1で検出された透かし情報は再びカメラ付き携帯電話2に送信される。或いは、検出された透かし情報に基づくサービスデータ(例えば映像コンテンツや音楽コンテンツなど)がカメラ付き携帯電話2に送信される。   FIG. 20 shows a processing timing chart in such a watermark detection system 100. When the printed matter 3 on which the watermarked image 31 is printed is photographed by the camera-equipped mobile phone 2, the photographed image data is once transmitted to the server 1. After receiving the captured image data, the server 1 performs a decoding process of the captured image data, a feature point detection process, an image region extraction process in which a digital watermark using the detected feature point is embedded, and a watermark detection process. Do. The watermark information detected by the server 1 is transmitted again to the camera-equipped mobile phone 2. Alternatively, service data (for example, video content or music content) based on the detected watermark information is transmitted to the camera-equipped mobile phone 2.

ところで、JPEG2000と呼ばれる、ウェーブレット変換を利用した高品位画像圧縮方式の規格がある。JPEG2000符号化方式では、パス(サブビットプレーン)を最小単位として符号が構成されている。即ち、符号化された後にパス単位にある優先度を付け、復号時の時間的優先度を制御したりすることができる。優先度としては、L:レイヤ、R:空間解像度レベル、P:位置、C:色成分の4つがある(非特許文献2)。   Incidentally, there is a standard for a high-quality image compression method using wavelet transform called JPEG2000. In the JPEG2000 encoding method, a code is configured with a pass (sub-bit plane) as a minimum unit. That is, it is possible to give priority in pass units after encoding and control temporal priority during decoding. There are four priorities: L: layer, R: spatial resolution level, P: position, and C: color component (Non-Patent Document 2).

図21及び図22は、図19での説明に用いた撮影画像をウェーブレット変換によりステージ分解されたときの様子を示すものである。図21は、画像信号にアナリシスバンクを適用して、画像を4つの帯域(LL、LH、HL、HH)に分解(これを「1ステージの分解」という)したときの処理例である。アナリシスバンクとは、信号を2つの帯域に分解する働きがあり、符号化器で使用される。この処理例によれば、最低域(LL)の画像が他の帯域に比べて多くのエネルギを持ち、原画像に最も近い画質を維持している。JPEG2000では、この最低域(LL)に対して更に分解を続ける。図22は、2ステージ分解の例である(なお、JPEG2000では5ステージ分解がデフォルトである)。   FIG. 21 and FIG. 22 show a state when the captured image used for the explanation in FIG. 19 is stage-decomposed by wavelet transformation. FIG. 21 shows an example of processing when an analysis bank is applied to an image signal, and the image is decomposed into four bands (LL, LH, HL, HH) (this is referred to as “one-stage decomposition”). An analysis bank has a function of decomposing a signal into two bands and is used in an encoder. According to this processing example, the image in the lowest range (LL) has more energy than other bands, and maintains the image quality closest to the original image. In JPEG2000, this lowest range (LL) is further decomposed. FIG. 22 is an example of two-stage decomposition (in JPEG 2000, five-stage decomposition is the default).

図23は、2ステージ分解されたときのJPEG2000形式の画像ファイルのデータ構造を示したものである。この場合、画像ファイルのデータ部は解像度レベルごとに階層化された構造になっている。即ち、解像度に基づいて階層符号化された画像データを構成する低域側から高域側までの周波数帯域が異なる複数の画像データの内、低域側の画像データが前にあって、高域側の画像データが後ろにある。   FIG. 23 shows the data structure of an image file in the JPEG 2000 format when it is decomposed in two stages. In this case, the data portion of the image file has a hierarchical structure for each resolution level. That is, among the plurality of image data having different frequency bands from the low frequency side to the high frequency side constituting the hierarchically encoded image data based on the resolution, the low frequency side image data precedes the high frequency image data. The side image data is behind.

このようなデータ構造のJPEG2000画像を送信した場合、まず低域側の画像データが送信され、続いて高域側の画像データが送信されることとなる。
特表2002−544637号公報 金谷健一著 「画像理解 −3次元認識の数理−」 第3章 「インタフェース」、2002年1月号、CQ出版社、pp46−58
When a JPEG2000 image having such a data structure is transmitted, first, low-frequency image data is transmitted, and then high-frequency image data is transmitted.
Japanese translation of PCT publication No. 2002-544637 Kenichi Kanaya “Image Understanding -Mathematical Mathematical 3D Recognition” Chapter 3 "Interface", January 2002 issue, CQ Publisher, pp 46-58

しかしながら、このような透かし検出システム100では、撮影画像データのサーバ1への送信が全て完了してから、各処理を行っていた。そのためクライアントは、透かし入り画像の送信開始から、透かし抽出結果を取得するまで、長い時間待たされるという問題があった。   However, in such a watermark detection system 100, each processing is performed after transmission of the captured image data to the server 1 is completed. Therefore, there is a problem that the client has to wait for a long time from the start of transmission of the watermarked image to the acquisition of the watermark extraction result.

本発明は、JPEG2000のデータ構造を利用して、サーバ側のデータ受信処理と特徴点検出処理を並列に実行することにより、システムにおける処理時間の短縮化を図ることを第1の目的とする。   The first object of the present invention is to reduce the processing time in the system by executing the data reception process and the feature point detection process on the server side in parallel using the data structure of JPEG2000.

ところで、電子透かしが埋め込まれている画像領域の切り出し処理においては、特徴点を高精度に検出することが重要である。特徴点(例えば透かし入り画像領域のコーナ)が正しく検出できなければ、透かし入り画像から透かし情報を正しく読み出すことができないからである。   By the way, it is important to detect feature points with high accuracy in the clipping process of an image region in which a digital watermark is embedded. This is because the watermark information cannot be correctly read out from the watermarked image unless the feature point (for example, the corner of the watermarked image region) can be detected correctly.

しかし、デジタルカメラ等で撮影された画像には手ぶれや照明の影響によるノイズが載っており、特徴点検出精度の低下を引き起こす。したがって、撮影画像データから高精度に特徴点を検出するためには、ノイズ除去処理も必要な処理の1つである。   However, images taken with a digital camera or the like contain noise due to camera shake and illumination, which causes a reduction in feature point detection accuracy. Therefore, in order to detect feature points with high accuracy from captured image data, noise removal processing is one of the necessary processing.

一般にノイズ除去処理にはガウシアンフィルタに代表される平滑化フィルタが用いられる。平滑化フィルタは対象画素に近い画素に大きな重みを、対象画素から遠い画素には小さい重みを付けた加重平均をとる。よって、ノイズ除去処理後はエッジがぼやけた、言い換えれば高周波成分がカットされた画像が生成される。   In general, a smoothing filter represented by a Gaussian filter is used for noise removal processing. The smoothing filter takes a weighted average in which a large weight is given to pixels close to the target pixel and a small weight is given to pixels far from the target pixel. Therefore, after the noise removal processing, an edge is blurred, in other words, an image in which a high frequency component is cut is generated.

このことより、JPEG2000における低域の画像とノイズ除去処理後の画像は類似した特性を持つと考えられる。そこで、本発明は、JPEG2000のデータ構造を利用して、透かし検出率を向上させることも第2の目的とするものである。   From this, it is considered that the low-frequency image in JPEG 2000 and the image after noise removal processing have similar characteristics. Therefore, a second object of the present invention is to improve the watermark detection rate by using the data structure of JPEG2000.

請求項1の特徴点検出装置は、階層符号化された画像データから特徴点を検出する特徴点検出装置であって、前記階層符号化された画像データを構成する低域側から高域側までの周波数帯域が異なる複数の画像データの内、低域側の画像デ−タのみに基づいて特徴点を検出することを特徴とする。   The feature point detection apparatus according to claim 1 is a feature point detection apparatus for detecting a feature point from hierarchically encoded image data, from a low frequency side to a high frequency side constituting the hierarchically encoded image data. The feature point is detected based only on the low-frequency side image data among the plurality of image data having different frequency bands.

ここで、特徴点とは、例えば画像領域の頂点や、画像中のエッジのことをいう。階層符号化された画像データとは、例えばJPEG2000のように、画像データが解像度に応じて分解された構造になっている画像データのことをいう。   Here, the feature point means, for example, a vertex of an image area or an edge in an image. Hierarchically encoded image data refers to image data having a structure in which image data is decomposed according to resolution, such as JPEG2000.

請求項1の特徴点検出装置によれば、高周波成分がカットされた低域成分の画像デ−タに基づいて特徴点を検出するので、特徴点の検出がより正確なものとなる。   According to the feature point detecting apparatus of the first aspect, since the feature point is detected based on the image data of the low frequency component from which the high frequency component is cut, the feature point can be detected more accurately.

請求項2の特徴点検出装置は、階層符号化された画像データから特徴点を検出する特徴点検出装置であって、第1の特徴点候補検出手段と、第2の特徴点候補検出手段と、特徴点決定手段とを含む。第1の特徴点候補検出手段は、前記階層符号化された画像データを構成する低域側から高域側までの周波数帯域が異なるn個(n:自然数)の画像データの内、低域側のl(l<n、l:自然数)個の画像デ−タから得られた第1の特徴点候補を検出する。第2の特徴点候補検出手段は、前記n個の画像データの内、低域側のm(l<m<n、m:自然数)個の画像デ−タから得られた第2の特徴点候補を検出する。特徴点決定手段は、前記第1の特徴点候補検出手段により検出された前記第1の特徴点候補の座標と、前記第2の特徴点候補検出手段により検出された前記第2の特徴点候補の座標とが「一致」したとき、当該特徴点候補を前記階層符号化された画像データの特徴点であると決定する。   The feature point detection apparatus according to claim 2 is a feature point detection apparatus that detects a feature point from hierarchically encoded image data, and includes a first feature point candidate detection unit, a second feature point candidate detection unit, And feature point determination means. The first feature point candidate detection means includes a low frequency side among n (n: natural number) image data having different frequency bands from the low frequency side to the high frequency side constituting the hierarchically encoded image data. First feature point candidates obtained from l (l <n, l: natural number) image data are detected. The second feature point candidate detection means is a second feature point obtained from m (l <m <n, m: natural number) image data on the low frequency side of the n image data. Detect candidates. The feature point determination means includes the coordinates of the first feature point candidate detected by the first feature point candidate detection means, and the second feature point candidate detected by the second feature point candidate detection means. When the “coordinates” match, the feature point candidate is determined to be a feature point of the hierarchically encoded image data.

請求項3の特徴点検出装置は、階層符号化された画像データから特徴点を検出する特徴点検出装置であって、第1の特徴点候補検出手段と、第2の特徴点候補検出手段と、特徴点決定手段とを含む。第1の特徴点候補検出手段は、前記階層符号化された画像データを構成する低域側から高域側までの周波数帯域が異なるn個(n:自然数)の画像データの内、低域側のl(l<n、l:自然数)個の画像デ−タから得られた第1の特徴点候補を検出する。第2の特徴点候補検出手段は、前記n個の画像データの内、低域側のm(l<m<n、m:自然数)個の画像デ−タから得られた第2の特徴点候補を検出する。座標変換手段は、前記第1の特徴点候補検出手段によって検出された前記第1の特徴点候補の座標値、及び、前記第2の特徴点候補検出手段によって検出された前記第2の特徴点候補の座標値を、原画像サイズにおける座標値に変換する。特徴点決定手段は、前記座標変換手段により変換された、前記第1の特徴点候補の原画像サイズにおける座標値と、前記座標変換手段により変換された、前記第2の特徴点候補の原画像サイズにおける座標値とが一致したとき、当該座標値を前記階層符号化された画像データの特徴点の座標値であると決定する。   The feature point detection apparatus according to claim 3 is a feature point detection apparatus that detects a feature point from hierarchically encoded image data, and includes a first feature point candidate detection unit, a second feature point candidate detection unit, And feature point determination means. The first feature point candidate detection means includes a low frequency side among n (n: natural number) image data having different frequency bands from the low frequency side to the high frequency side constituting the hierarchically encoded image data. First feature point candidates obtained from l (l <n, l: natural number) image data are detected. The second feature point candidate detection means is a second feature point obtained from m (l <m <n, m: natural number) image data on the low frequency side of the n image data. Detect candidates. The coordinate conversion means includes coordinate values of the first feature point candidates detected by the first feature point candidate detection means, and the second feature points detected by the second feature point candidate detection means. Candidate coordinate values are converted into coordinate values in the original image size. The feature point determining means is a coordinate value in the original image size of the first feature point candidate converted by the coordinate converting means, and an original image of the second feature point candidate converted by the coordinate converting means. When the coordinate value in size matches, the coordinate value is determined as the coordinate value of the feature point of the hierarchically encoded image data.

請求項4の画像処理装置は、階層符号化された画像データを受信する受信部と、前記受信部が受信した前記画像データから特徴点を検出する特徴点検出部とを含む。前記受信部が、前記階層符号化された画像データを構成する低域側から高域側までの周波数帯域が異なる複数の画像データの内、低域側の画像デ−タを受信したとき、前記特徴点検出部は、前記受信部による高域側の画像データの受信を待つことなく前記低域側の画像デ−タのみから特徴点の検出処理を開始することを特徴とする。   According to a fourth aspect of the present invention, there is provided an image processing apparatus including a reception unit that receives hierarchically encoded image data and a feature point detection unit that detects a feature point from the image data received by the reception unit. When the receiving unit receives image data on the low frequency side among a plurality of image data having different frequency bands from the low frequency side to the high frequency side constituting the hierarchically encoded image data, The feature point detection unit starts the feature point detection process from only the low-frequency image data without waiting for reception of high-frequency image data by the reception unit.

請求項5の特徴点検出方法は、階層符号化された画像データから特徴点を検出する特徴点検出方法であって、前記階層符号化された画像データを構成する低域側から高域側までの周波数帯域が異なる複数の画像データの内、低域側の画像デ−タのみに基づいて特徴点を検出することを特徴とする。   The feature point detection method according to claim 5 is a feature point detection method for detecting a feature point from hierarchically encoded image data, from a low frequency side to a high frequency side constituting the hierarchically encoded image data. The feature point is detected based only on the low-frequency side image data among the plurality of image data having different frequency bands.

請求項6の特徴点検出方法は、階層符号化された画像データを構成する低域側から高域側までの周波数帯域が異なる複数の画像データの内、低域側の画像デ−タを受信する受信ステップと、前記受信ステップにおいて受信された前記画像データから特徴点を検出する特徴点検出ステップと、前記特徴点検出ステップは、前記複数の画像データの内、高域側の画像デ−タを受信する前に、前記受信ステップにおいて受信された前記低域側の画像デ−タのみから特徴点の検出処理を開始することを特徴とする。   The feature point detection method according to claim 6 receives image data on the low frequency side among a plurality of image data having different frequency bands from the low frequency side to the high frequency side constituting the hierarchically encoded image data. A receiving step, a feature point detecting step for detecting a feature point from the image data received in the receiving step, and a feature point detecting step comprising: image data on a high frequency side of the plurality of image data. Before receiving the feature point, the feature point detection process is started only from the low-frequency image data received in the reception step.

請求項7の特徴点検出プログラムは、階層符号化された画像データから特徴点を検出する機能を、コンピュータに実現させることを特徴とした、特徴点検出プログラムであって、前記階層符号化された画像データを構成する低域側から高域側までの周波数帯域が異なる複数の画像データの内、低域側の画像デ−タのみに基づいて特徴点を検出する機能を、コンピュータに実現させることを特徴とする。   The feature point detection program according to claim 7 is a feature point detection program for causing a computer to realize a function of detecting a feature point from hierarchically encoded image data. To allow a computer to realize a feature point detection function based on only low-frequency side image data among a plurality of image data having different frequency bands from the low frequency side to the high frequency side constituting the image data. It is characterized by.

請求項8の画像処理プログラムは、階層符号化された画像データを構成する低域側から高域側までの周波数帯域が異なる複数の画像データの内、低域側の画像デ−タを受信する受信ステップと、前記受信ステップにおいて受信された前記画像データから特徴点を検出する特徴点検出ステップと、前記特徴点検出ステップは、前記複数の画像データの内、高域側の画像デ−タを受信する前に、前記受信ステップにおいて受信された前記低域側の画像デ−タのみから特徴点の検出処理を開始することを特徴とする。   The image processing program according to claim 8 receives image data on the low frequency side among a plurality of image data having different frequency bands from the low frequency side to the high frequency side constituting the hierarchically encoded image data. A receiving step; a feature point detecting step for detecting a feature point from the image data received in the receiving step; and the feature point detecting step comprising: extracting image data on a high frequency side from the plurality of image data. Before reception, feature point detection processing is started only from the image data on the low frequency side received in the reception step.

本発明の透かし検出システムによれば、クライアント側における、透かし入り画像の送信開始から透かし抽出結果を取得するまでの待ち時間を短縮することができる。また、特徴点を高精度で検出することができるので、透かし検出率を向上させることができる。   According to the watermark detection system of the present invention, the waiting time from the start of transmission of a watermarked image to the acquisition of a watermark extraction result on the client side can be reduced. In addition, since the feature points can be detected with high accuracy, the watermark detection rate can be improved.

再び図1を参照して、本発明が適用される透かし検出システム100の構成を示す。透かし検出システム100は、サーバ1、カメラ付き携帯電話2で構成される。カメラ付き携帯電話2は、印刷物3を撮影した画像データ(JPEG2000形式)を生成し、この画像データをサーバ1へ送信する。   Referring again to FIG. 1, the configuration of a watermark detection system 100 to which the present invention is applied is shown. The watermark detection system 100 includes a server 1 and a mobile phone 2 with a camera. The camera-equipped mobile phone 2 generates image data (JPEG2000 format) of the printed material 3 and transmits the image data to the server 1.

サーバ1は、カメラ付き携帯電話2から送信されてきた画像データから透かし検出を行う。また、サーバ1は、カメラ付き携帯電話2に透かし検出結果を返信する。或いは、サーバ1は、透かし検出結果に応じたサービスデータをカメラ付き携帯電話2に送信する。   The server 1 performs watermark detection from the image data transmitted from the camera-equipped mobile phone 2. The server 1 returns a watermark detection result to the camera-equipped mobile phone 2. Alternatively, the server 1 transmits service data corresponding to the watermark detection result to the camera-equipped mobile phone 2.

通常JPEG2000形式では5ステージ分解が標準的であるが、本実施形態では説明の簡単化のため、カメラ付き携帯電話2が内蔵するJPEG2000符号化器は、図22で示したような、2ステージ分解された形式に符号化するものと仮定して以後の説明を行う。即ち、カメラ付き携帯電話2からは、図23で示したような構造を有する撮影画像データがサーバ1へ送信されてくるものとする。   Normally, the 5-stage decomposition is standard in the JPEG2000 format. However, in the present embodiment, for simplicity of explanation, the JPEG2000 encoder incorporated in the camera-equipped mobile phone 2 has a 2-stage decomposition as shown in FIG. The following description will be made on the assumption that the data is encoded in the above format. That is, it is assumed that photographed image data having a structure as shown in FIG. 23 is transmitted from the camera-equipped mobile phone 2 to the server 1.

図2を参照して、本発明が適用される透かし検出システム100のサーバ1の構成を説明する。   With reference to FIG. 2, the configuration of the server 1 of the watermark detection system 100 to which the present invention is applied will be described.

サーバ1は、送受信部11、特徴点検出処理部12、画像領域切り出し処理部13、透かし検出処理部14、復号処理部15、画像合成部16、及び、制御部17からなる。   The server 1 includes a transmission / reception unit 11, a feature point detection processing unit 12, an image region cutout processing unit 13, a watermark detection processing unit 14, a decoding processing unit 15, an image composition unit 16, and a control unit 17.

送受信部11は、カメラ付き携帯電話2から送信されてきた撮影画像データを受信したり、カメラ付き携帯電話2へ透かし検出結果データや透かし検出結果に応じたサービスデータを送信したりする。   The transmission / reception unit 11 receives photographed image data transmitted from the camera-equipped mobile phone 2 or transmits watermark detection result data or service data corresponding to the watermark detection result to the camera-equipped cellular phone 2.

復号処理部15は、送受信部11が受信した符号化画像データを復号化する。ここでいう復号化とは、主として、ステージ分解された画像データを合成することにより画像データを再構成することを指す。この画像データの合成には、例えば、シンセシスバンクと呼ばれるものが使用される。シンセシスバンクとは、2つの帯域信号を1つに合成する働きがあり、復号化器で使用されるものである。   The decoding processing unit 15 decodes the encoded image data received by the transmission / reception unit 11. Decoding as used herein mainly refers to reconstructing image data by synthesizing image data subjected to stage decomposition. For example, what is called a synthesis bank is used for the synthesis of the image data. The synthesis bank has a function of combining two band signals into one, and is used in a decoder.

特徴点検出処理部12は、復号処理部15により復号化された画像データから透かし入り画像領域を切り出すために用いられる特徴点(例えば、透かし入り画像領域の4コーナ)を検出する処理を行う。   The feature point detection processing unit 12 performs processing for detecting feature points (for example, four corners of the watermarked image region) used to cut out the watermarked image region from the image data decoded by the decoding processing unit 15.

この特徴点検出処理部12は、特徴点候補検出処理部121、特徴点決定部122からなる。特徴点候補検出処理部121は、ステージ分解された画像データ、或いは復号処理部15により復号化した画像データから特徴点候補を抽出する。カメラ付き携帯電話2からサーバ1へ送信されてくる画像データが2ステージ分解された符号化画像データであるとした場合、特徴点候補抽出の対象となる前記のステージ分解された画像データとは、図22或いは図23でいうところの2LL成分の画像データである。また、復号処理部15により復号化した画像データとは、2LL成分の画像データ、2LH成分の画像データ、2HL成分の画像データ、2HH成分の画像データに基づいて復号処理部15により再構成されたLL成分の画像データのことである。   The feature point detection processing unit 12 includes a feature point candidate detection processing unit 121 and a feature point determination unit 122. The feature point candidate detection processing unit 121 extracts a feature point candidate from the stage-decomposed image data or the image data decoded by the decoding processing unit 15. If the image data transmitted from the camera-equipped mobile phone 2 to the server 1 is encoded image data that has been decomposed into two stages, the stage-decomposed image data that is the target of feature point candidate extraction is: This is the image data of the 2LL component as referred to in FIG. The image data decoded by the decoding processing unit 15 is reconstructed by the decoding processing unit 15 based on 2LL component image data, 2LH component image data, 2HL component image data, and 2HH component image data. LL component image data.

特徴点決定部122は、特徴点候補検出処理部121により検出された特徴点候補から特徴点を決定する。制御部17は、各種設定を行ったり、サーバ1の各構成を制御する。   The feature point determination unit 122 determines a feature point from the feature point candidates detected by the feature point candidate detection processing unit 121. The control unit 17 performs various settings and controls each configuration of the server 1.

画像領域切り出し処理部13は、復号処理部15により復号化された撮影画像データから、透かし入り画像領域の切り出し処理を行う。この切り出し処理においては、特徴点検出処理部12により検出された特徴点が利用される。   The image region cutout processing unit 13 performs a watermarked image region cutout process from the captured image data decoded by the decoding processing unit 15. In this cutout process, the feature points detected by the feature point detection processing unit 12 are used.

透かし検出処理部14は、画像領域切り出し処理部13で切り出された画像領域から透かしを検出する処理を行う。   The watermark detection processing unit 14 performs processing for detecting a watermark from the image region cut out by the image region cut-out processing unit 13.

なお、これらの構成は、ハードウエア的には、任意のコンピュータのCPU、メモリ、その他のLSIで実現でき、ソフトウエア的にはメモリにロードされた画像処理機能および電子透かし埋め込み機能のあるプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウエアのみ、ソフトウエアのみ、またはそれらの組み合わせによっていろいろな形で実現できることは、当業者には理解されるところである。   These configurations can be realized in hardware by a CPU, memory, or other LSI of any computer, and in software, a program having an image processing function and a digital watermark embedding function loaded in the memory, etc. Here, functional blocks realized by their cooperation are depicted. Therefore, those skilled in the art will understand that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.

図3は、本発明が適用される透かし検出システム100における電子透かし検出処理のタイムチャートを示したものである。   FIG. 3 shows a time chart of digital watermark detection processing in the watermark detection system 100 to which the present invention is applied.

カメラ付き携帯電話2により撮影された画像データは、DWT(DiscreteWavelett Transform、離散ウェーブレット変換)により符号化され、図23で示したような解像度により階層化された構造の画像データに変換される。このような画像データを受信する従来のサーバ1は、図4に示すように、画像データの全てを受信してから復号処理、特徴点検出処理等を行っていたので、カメラ付き携帯電話2のユーザにとっては、透かし入り画像の送信から、サーバ1からのレスポンスを得るまでの間、長い時間待たされるという問題があった。   Image data captured by the camera-equipped mobile phone 2 is encoded by DWT (Discrete Wavelet Transform, discrete wavelet transform), and converted into image data having a layered structure with a resolution as shown in FIG. As shown in FIG. 4, the conventional server 1 that receives such image data performs decoding processing, feature point detection processing, and the like after receiving all of the image data. For the user, there is a problem that a long time is required from the transmission of the watermarked image until the response from the server 1 is obtained.

これに対し、本実施形態のサーバ1は、画像データの全てを受信してから復号処理、特徴点検出処理等を行うのではなく、到着した一部の画像データ(例えば2LL成分の画像データなど)を利用して,随時特徴点候補の検出処理等を行っていくものである。   On the other hand, the server 1 of this embodiment does not perform the decoding process, the feature point detection process, etc. after receiving all of the image data, but a part of the arrived image data (for example, 2LL component image data, etc.) ) To perform feature point candidate detection processing, etc., as needed.

(ステップS1:初期設定処理)
再び図3を参照して、サーバ1の送受信部11が、ヘッダ部を受信すると、制御部17はヘッダの内容を解析し、到着したデータがJPEG2000形式の画像データであって、かつ透かし入り画像データであることを認識する(ステップS1)。そして、制御部17は、本実施形態により説明される、透かし検出処理を行うためのプログラムを起動させる。
(Step S1: Initial setting process)
Referring to FIG. 3 again, when the transmission / reception unit 11 of the server 1 receives the header, the control unit 17 analyzes the contents of the header, and the arrived data is JPEG2000 format image data, and the watermarked image is received. It recognizes that it is data (step S1). And the control part 17 starts the program for performing the watermark detection process demonstrated by this embodiment.

(ステップS2:特徴点候補検出処理)
送受信部11が、2LL成分の画像データを受信すると、このデータは特徴点検出処理部12の特徴点候補検出処理部121と、復号処理部15の両方に転送される。特徴点候補検出処理部121は、2LL成分の画像データから特徴点候補の検出処理を行う(ステップS2)。特徴点を画像領域のコーナー点とした場合、例えば図5(a)で示すように、複数のコーナー点が2LL成分の画像データから検出される。この特徴点候補検出処理については後で詳しく述べる。
(Step S2: feature point candidate detection processing)
When the transmission / reception unit 11 receives 2LL component image data, the data is transferred to both the feature point candidate detection processing unit 121 of the feature point detection processing unit 12 and the decoding processing unit 15. The feature point candidate detection processing unit 121 performs feature point candidate detection processing from 2LL component image data (step S2). When the feature points are corner points of the image area, for example, as shown in FIG. 5A, a plurality of corner points are detected from the image data of 2LL components. This feature point candidate detection process will be described in detail later.

(ステップS3:復号処理)
2LL成分の画像データに続いて、送受信部11が、2LH成分の画像データ、2HL成分の画像データ、2HH成分の画像データを受信すると、これらのデータは復号処理部15に転送される。これらの3つの画像データと、既に転送されてきた2LL成分の画像データの4つの画像データから、復号処理部15は、1つのLL成分の画像データを生成する(ステップS3)。この復号処理には、シンセシスバンクが用いられる。
(Step S3: Decoding process)
When the transmission / reception unit 11 receives 2LH component image data, 2HL component image data, and 2HH component image data following the 2LL component image data, these data are transferred to the decoding processing unit 15. The decoding processing unit 15 generates one LL component image data from these three image data and the four image data of the already transferred 2LL component image data (step S3). A synthesis bank is used for this decoding process.

なお、上記では、2LH成分、2HL成分、2HH成分の3つ画像データが到着したら復号処理を行うと説明したが、まず2LH成分の画像データが到着したら、既に復号処理部15に転送されている2LL成分の画像データと2LH成分の画像データにより垂直処理(垂直方向の1次元畳み込み処理)を行ってもよい。続いて、2HL成分、2HH成分の画像データが到着したら2HL成分の画像データと2HH成分の画像データにより垂直処理を行い、そして垂直処理により得られた2つの画像データを水平処理(水平方向の1次元畳み込み処理)することによりLL成分の画像データを生成するものであっても良い。   In the above description, it has been described that the decoding process is performed when the three image data of the 2LH component, the 2HL component, and the 2HH component arrive. However, when the image data of the 2LH component arrives first, it has already been transferred to the decoding processing unit 15. Vertical processing (vertical one-dimensional convolution processing) may be performed using 2LL component image data and 2LH component image data. Subsequently, when the image data of 2HL component and 2HH component arrive, vertical processing is performed using the image data of 2HL component and the image data of 2HH component, and the two image data obtained by the vertical processing are processed horizontally (1 in the horizontal direction). Image data of the LL component may be generated by performing (dimensional convolution processing).

(ステップS4:特徴点候補検出処理)
復号処理部15により、LL成分の画像データが生成されると、特徴点候補検出処理部121は、LL成分の画像データから特徴点候補の検出処理を行う(ステップS4)。特徴点を画像領域のコーナー点とした場合、例えば図5(b)で示すように、複数のコーナー点がLL成分の画像データから検出される。この特徴点候補検出処理については後で詳しく述べるが、対象となる画像データが異なること以外は、ステップS2での処理と全く同様である。
(Step S4: feature point candidate detection process)
When LL component image data is generated by the decoding processing unit 15, the feature point candidate detection processing unit 121 performs feature point candidate detection processing from the LL component image data (step S4). When the feature points are corner points of the image area, for example, as shown in FIG. 5B, a plurality of corner points are detected from the image data of the LL component. The feature point candidate detection process will be described in detail later, but is exactly the same as the process in step S2 except that the target image data is different.

(ステップS5:特徴点決定処理)
特徴点候補検出処理部121による特徴点候補検出処理(ステップS4)が終了すると、特徴点決定部122は、ステップS4で検出された特徴点候補と、ステップS2で検出された特徴点候補とに基づいて、特徴点を決定する(ステップS5)。この特徴点決定処理についても後で詳しく述べる。
(Step S5: feature point determination processing)
When the feature point candidate detection process (step S4) by the feature point candidate detection processing unit 121 ends, the feature point determination unit 122 determines whether the feature point candidate is detected in step S4 and the feature point candidate detected in step S2. Based on this, feature points are determined (step S5). This feature point determination process will also be described in detail later.

(ステップS6:復号処理)
送受信部11が、LH成分の画像データ、HL成分の画像データ、HH成分の画像データを受信すると、これらのデータは復号処理部15に転送される。これらの3つの画像データと、既に復号処理部15により生成されたLL成分の画像データの4つの画像データから、復号処理部15は、原画像データ(符号化される前の画像データ)を生成する(ステップS6)。
(Step S6: Decoding process)
When the transmission / reception unit 11 receives LH component image data, HL component image data, and HH component image data, these data are transferred to the decoding processing unit 15. From these three pieces of image data and the four pieces of image data of the LL component image data already generated by the decoding processing unit 15, the decoding processing unit 15 generates original image data (image data before encoding). (Step S6).

(ステップS7:画像領域切り出し処理)
ステップS6で、復号化された原画像データに対し、画像領域切り出し処理部13は透かし入り画像領域の切り出し処理を行う(ステップS7)。この切り出し処理においては、ステップS5で決定された特徴点が利用される。
(Step S7: Image region cutout process)
In step S6, the image area segmentation processing unit 13 performs a watermarked image area segmentation process on the decoded original image data (step S7). In this cut-out process, the feature points determined in step S5 are used.

(ステップS8:透かし検出処理)
ステップS7で切り出された画像領域から、透かし検出処理部14は透かしを検出する処理を行う。透かし検出処理により検出された情報に基づいて、サーバ1は、ユーザ(カメラ付き携帯電話2のユーザ)が欲するサービス内容(例えば、音楽コンテンツ配信など)を認識し、サーバ1は適切なコンテンツデータをカメラ付き携帯電話2に送信する。
(Step S8: Watermark detection processing)
From the image area cut out in step S7, the watermark detection processing unit 14 performs processing for detecting a watermark. Based on the information detected by the watermark detection process, the server 1 recognizes the service content (for example, music content distribution) desired by the user (user of the camera-equipped mobile phone 2), and the server 1 receives appropriate content data. It transmits to the mobile phone 2 with a camera.

以上が、本実施例の透かし検出システム100におけるサーバ1の処理の概略である。次に、ステップS2及びS4の特徴点候補検出処理、およびステップS5の特徴点決定処理の詳細について述べる。   The above is the outline of the processing of the server 1 in the watermark detection system 100 of the present embodiment. Next, details of the feature point candidate detection process in steps S2 and S4 and the feature point determination process in step S5 will be described.

(ステップS2及びS4の特徴点候補検出処理の詳細)
図6から図8を参照して、ステップS2及びステップS4の特徴点候補検出処理の詳細例について説明する。いま、原画像の画像サイズが、縦1024画素、横1280画素であると仮定すると、2LL成分の画像データのサイズは、縦256画素、横320画素となる。
(Details of feature point candidate detection processing in steps S2 and S4)
A detailed example of the feature point candidate detection process in steps S2 and S4 will be described with reference to FIGS. Assuming that the image size of the original image is 1024 pixels vertically and 1280 pixels horizontally, the size of the image data of the 2LL component is 256 pixels vertically and 320 pixels horizontally.

図6のフローチャートを参照して、特徴点候補検出処理部121が行うステップS2の処理手順を説明する。ステップS2においては、この2LL成分の画像データに対する特徴点候補検出処理が行われる。ステップS21では、2LL成分の画像データの全座標点について特徴点検出フィルタによる演算処理が行われる。   With reference to the flowchart of FIG. 6, the process procedure of step S2 which the feature point candidate detection process part 121 performs is demonstrated. In step S2, feature point candidate detection processing is performed on the image data of the 2LL component. In step S21, calculation processing by a feature point detection filter is performed for all coordinate points of 2LL component image data.

ステップS22では、フィルタ演算結果が所定値以上であった点の座標を第1の特徴点候補リストに追加する。この第1の特徴点候補リストとは図7に示されるようなものであり、特徴点候補検出処理部121が有する記憶領域内に一時的に記憶されるものとする。本実施例では、A2(80,40)、B2(240,40)、C2(80,200)、D2(240,200)の4点(図8aも参照のこと)が特徴点候補として、特徴点候補検出処理部121により検出され、これらの特徴点候補が第1の特徴点候補リストに格納される。   In step S22, the coordinates of the point whose filter calculation result is equal to or greater than a predetermined value are added to the first feature point candidate list. This first feature point candidate list is as shown in FIG. 7 and is temporarily stored in the storage area of the feature point candidate detection processing unit 121. In this embodiment, four points A2 (80, 40), B2 (240, 40), C2 (80, 200), and D2 (240, 200) (see also FIG. 8a) are used as feature point candidates. The feature point candidates are detected by the point candidate detection processing unit 121 and stored in the first feature point candidate list.

なお、ステップS5の処理は、特徴点候補検出処理の対象となる画像がLL成分の画像データである点がステップS2と異なるだけであって、処理内容はステップS2と同様である。図7、図8(b)を参照して、本実施例では、A1(160,80)、B1(480,80)、C1(320,280)、D1(160,400)、E1(480,400)の5点が特徴点候補として、特徴点候補検出処理部121により検出され、これらの特徴点候補も第1の特徴点候補リストに格納される。   Note that the process of step S5 is different from step S2 only in that the image that is the target of the feature point candidate detection process is LL component image data, and the processing content is the same as step S2. With reference to FIGS. 7 and 8B, in this embodiment, A1 (160, 80), B1 (480, 80), C1 (320, 280), D1 (160, 400), E1 (480, 400) are detected as feature point candidates by the feature point candidate detection processing unit 121, and these feature point candidates are also stored in the first feature point candidate list.

(ステップS5の特徴点決定処理の詳細)
図9から図12を参照して、特徴点決定部122が行う、ステップS5の特徴点決定処理の詳細例について説明する。ここでは、上記の図6から図8を参照して説明した、ステップS2及びステップS5の特徴点候補検出処理において検出された特徴点候補に基づいて特徴点決定を行うものとして説明する。
(Details of feature point determination processing in step S5)
A detailed example of the feature point determination process in step S5 performed by the feature point determination unit 122 will be described with reference to FIGS. Here, description will be made on the assumption that feature point determination is performed based on the feature point candidates detected in the feature point candidate detection processing in step S2 and step S5 described with reference to FIGS.

図9のフローチャートを参照して、ステップS5の処理手順を説明する。   With reference to the flowchart of FIG. 9, the process procedure of step S5 is demonstrated.

ステップS51では、図7の第1の特徴点候補リストの全特徴点候補について座標変換処理を行う。即ち、2LL成分画像データ、及びLL成分画像データにおいて検出された特徴点候補の位置を示す座標を、原画像における位置を示す座標に変換する処理を行う。2LL成分画像データについては、x座標値、y座標値をそれぞれ4倍する。LL成分画像データについては、x座標値、y座標値をそれぞれ2倍する。   In step S51, coordinate conversion processing is performed on all feature point candidates in the first feature point candidate list of FIG. In other words, the 2LL component image data and the coordinates indicating the position of the feature point candidate detected in the LL component image data are converted into coordinates indicating the position in the original image. For 2LL component image data, the x coordinate value and the y coordinate value are each multiplied by four. For the LL component image data, the x coordinate value and the y coordinate value are each doubled.

その演算結果は、ステップS52において、図10で示すような第2の特徴点候補リストに格納される。第2の特徴点候補リストには、2LL成分画像データにおける特徴点候補A2、B2、C2、D2の座標に対して座標変換した、A'2、B'2、C'2、D'2の4点の座標値や、LL成分画像データにおける特徴点候補の座標に対して座標変換した、A'1、B'1、C'1、D'1、E'1の5点の座標値が格納される。   In step S52, the calculation result is stored in the second feature point candidate list as shown in FIG. In the second feature point candidate list, A′2, B′2, C′2, and D′ 2 obtained by performing coordinate transformation on the coordinates of the feature point candidates A2, B2, C2, and D2 in the 2LL component image data. The coordinate values of four points and the coordinate values of five points A′1, B′1, C′1, D′ 1, and E′1, which are coordinate-converted with respect to the coordinates of the feature point candidates in the LL component image data, are as follows. Stored.

ステップS53では、第2の特徴点候補リストを参照し、双方の画像データから検出された座標値が一致している特徴点候補を調べる。座標値が一致している特徴点候補は、特徴点であると決定される。第2の特徴点候補リストを参照すると、特徴点候補A'2とA'1、B'2とB'1、C'2とD'1、D'2とE'1、の4組の座標値が一致している(図11も参照のこと)。これら4組の座標値は原画像データにおける特徴点の座標値であるとみなされ、図12で示す特徴点リストに格納される。   In step S53, the second feature point candidate list is referred to, and feature point candidates whose coordinate values detected from both image data match are examined. A feature point candidate whose coordinate values match is determined to be a feature point. Referring to the second feature point candidate list, four sets of feature point candidates A'2 and A'1, B'2 and B'1, C'2 and D'1, D'2 and E'1, The coordinate values match (see also FIG. 11). These four sets of coordinate values are regarded as the coordinate values of the feature points in the original image data, and are stored in the feature point list shown in FIG.

なお、ステップS5の処理は、特徴点候補検出処理の対象となる画像がLL成分の画像データである点がステップS2と異なるだけであって、処理内容はステップS2と同様である。図7、図8(b)を参照して、本実施例では、A1(160,80)、B1(480,80)、C1(320,280)、D1(160,400)、E1(480,400)の5点が特徴点候補として、特徴点候補検出処理部121により検出され、これらの特徴点候補も第1の特徴点候補リストに格納される。   Note that the process of step S5 is different from step S2 only in that the image that is the target of the feature point candidate detection process is LL component image data, and the processing content is the same as step S2. With reference to FIGS. 7 and 8B, in this embodiment, A1 (160, 80), B1 (480, 80), C1 (320, 280), D1 (160, 400), E1 (480, 400) are detected as feature point candidates by the feature point candidate detection processing unit 121, and these feature point candidates are also stored in the first feature point candidate list.

なお、2LL成分画像データにおける特徴点候補と、LL成分画像データにおける特徴点候補とが一致するべきであるにも係わらず、2LL成分画像データの画像サイズと、LL成分画像データの画像サイズの違いに起因して、座標変換後の特徴点候補の座標値が若干異なる場合がある。例えば、図10の第2の特徴点候補リストでは、2LL成分画像データにおける特徴点候補に関する座標値は4の倍数値しかとらないのに対し、LL成分画像データにおける特徴点候補に関する座標値は2の倍数値しかとらない。したがって、このような場合は、2LL成分画像データにおける特徴点候補に関する座標値と、LL成分画像データにおける特徴点候補に関する座標値の差が2である場合も、2LL成分画像データにおける特徴点候補の座標と、LL成分画像データにおける特徴点候補の座標とが一致するものとみなしても良い。
(3ステージ分解された画像データからの特徴点検出処理)
図13で示すような、3ステージ分解された符号化画像から、特徴点検出を行う場合の一例を、図14から図18を参照して説明する。
Note that the difference between the image size of the 2LL component image data and the image size of the LL component image data even though the feature point candidate in the 2LL component image data and the feature point candidate in the LL component image data should match. Due to this, the coordinate values of feature point candidates after coordinate conversion may be slightly different. For example, in the second feature point candidate list of FIG. 10, the coordinate value related to the feature point candidate in the 2LL component image data is only a multiple of 4, whereas the coordinate value related to the feature point candidate in the LL component image data is 2 Only takes a multiple of. Therefore, in such a case, even when the difference between the coordinate value related to the feature point candidate in the 2LL component image data and the coordinate value related to the feature point candidate in the LL component image data is 2, the feature point candidate in the 2LL component image data You may consider that a coordinate and the coordinate of the feature point candidate in LL component image data correspond.
(Feature point detection processing from 3-stage decomposed image data)
An example of performing feature point detection from an encoded image that has been decomposed in three stages as shown in FIG. 13 will be described with reference to FIGS. 14 to 18.

図14は、3LL成分画像データ、2LL成分画像データ、1LL成分画像データから、特徴点候補検出部121により検出された特徴点候補の座標を示す第1の特徴点候補リストである。3LL成分画像データからは3点、2LL成分画像データからは5点、LL成分画像データからは7点の特徴点候補が検出されている。なお、2LL成分画像データは、3LL、3LH、3HL、3HHの4つの画像データの合成により再構成されたものである。   FIG. 14 is a first feature point candidate list indicating the coordinates of feature point candidates detected by the feature point candidate detection unit 121 from 3LL component image data, 2LL component image data, and 1LL component image data. Three feature point candidates are detected from 3LL component image data, five points from 2LL component image data, and seven points from LL component image data. The 2LL component image data is reconstructed by combining four image data of 3LL, 3LH, 3HL, and 3HH.

図15は、このような場合に、特徴点決定部122が行う特徴点決定処理(ステップS5変形例)における処理手順を示すフローチャートである。   FIG. 15 is a flowchart illustrating a processing procedure in the feature point determination process (modified example of step S5) performed by the feature point determination unit 122 in such a case.

ステップS61では、図14の第1の特徴点候補リストの全特徴点候補について座標変換処理を行う。即ち、3LL、2LL、LL成分画像データにおいて検出された特徴点候補の位置を示す座標値を、原画像における位置を示す座標値に変換する処理を行う。その演算結果は、ステップS62において、図16で示すような第2の特徴点候補リストに格納される。第2の特徴点候補リストには、3LL、2LL、LL成分画像データにおける特徴点候補の座標に対して座標変換したものの座標値が格納される。   In step S61, coordinate conversion processing is performed for all feature point candidates in the first feature point candidate list of FIG. That is, a process of converting the coordinate value indicating the position of the feature point candidate detected in the 3LL, 2LL, and LL component image data into the coordinate value indicating the position in the original image is performed. In step S62, the calculation result is stored in the second feature point candidate list as shown in FIG. The second feature point candidate list stores coordinate values obtained by performing coordinate conversion on the feature point candidate coordinates in the 3LL, 2LL, and LL component image data.

ステップS63では、第2の特徴点候補リストを参照し、同リストに格納されている座標値が一致する画像データの数を計数する。その計数結果は、図17で示す第3の特徴点候補リストに格納される。例えば、座標値(320,160)は、3LL、2LL、LLの3つの画像データに基づいて検出された座標点候補の座標値であるので、第3の特徴点候補リストには、座標値(320,160)と、検出画像数3が、特徴点番号1の特徴点候補のデータとして、格納される。   In step S63, the second feature point candidate list is referred to, and the number of image data whose coordinate values stored in the list match is counted. The counting result is stored in the third feature point candidate list shown in FIG. For example, since the coordinate values (320, 160) are coordinate values of coordinate point candidates detected based on the three image data of 3LL, 2LL, and LL, the coordinate value ( 320, 160) and the number of detected images 3 are stored as feature point candidate data of feature point number 1.

同様にして、座標値(960,160)は、3LL、2LLの2つの画像から検出されたので、座標値(960,160)と、検出画像数2が、特徴点番号2の特徴点候補のデータとして格納される。以下、同様にして、特徴点番号3から10までの特徴点候補に係るデータが格納される。   Similarly, since the coordinate value (960, 160) is detected from two images of 3LL and 2LL, the coordinate value (960, 160) and the number of detected images 2 are feature point candidates of feature point number 2. Stored as data. Similarly, data relating to feature point candidates from feature point numbers 3 to 10 are stored.

ステップS64では、第3の特徴点候補リストが参照され、検出画像数が所定値以上であった特徴点候補を特徴点であると決定する。ここで、検出画像数が2以上であった特徴点候補を特徴点であるとしたとき、特徴点番号1、2、3、4の4つの特徴点候補が特徴点として決定される。決定された特徴点は図18で示すような特徴点リストに格納される。   In step S64, the third feature point candidate list is referred to, and a feature point candidate whose detected image number is equal to or larger than a predetermined value is determined as a feature point. Here, assuming that feature point candidates whose detected images are two or more are feature points, four feature point candidates of feature point numbers 1, 2, 3, and 4 are determined as feature points. The determined feature points are stored in a feature point list as shown in FIG.

(特徴点決定部122で決定された特徴点の数が少ない場合の処理)
特徴点決定部122で決定された特徴点の数が少ない場合の処理について述べる。例えば、画像領域切り出し処理部13で行う画像領域切り出し処理に先立って、4つの特徴点を検出しておく必要がある場合において、3つの特徴点しか検出できなかった場合である。このような場合の処理としては、以下のようなものが考えられる。
(Processing when the number of feature points determined by the feature point determination unit 122 is small)
A process when the number of feature points determined by the feature point determination unit 122 is small will be described. For example, when it is necessary to detect four feature points prior to the image region cut-out process performed by the image region cut-out processing unit 13, only three feature points can be detected. As processing in such a case, the following can be considered.

第1には、図15のステップS64でいうところの検出画像数を下げることである。これによって、ステップS64において第4の特徴点が決定される可能性が生じる。   The first is to reduce the number of detected images in step S64 in FIG. As a result, there is a possibility that the fourth feature point is determined in step S64.

第2には、特徴点候補検出処理部121が行う特徴点検出処理をやり直すことである。例えば、図6のステップS22の特徴点検出フィルタ処理結果の閾値を下げ、より多くの特徴点候補が第1の特徴点候補リストに追加されるようにすることである。   Secondly, the feature point detection processing performed by the feature point candidate detection processing unit 121 is performed again. For example, the threshold value of the feature point detection filter processing result in step S22 of FIG. 6 is lowered so that more feature point candidates are added to the first feature point candidate list.

(特徴点決定部122で決定された特徴点の数が多すぎた場合の処理)
特徴点決定部122で決定された特徴点の数が多すぎた場合の処理について述べる。例えば、画像領域切り出し処理部13で行う画像領域切り出し処理に先立って、4つの特徴点を検出しておく必要がある場合において、6つの特徴点を検出してしまった場合である。このような場合の処理としては、以下のようなものが考えられる。
(Processing when there are too many feature points determined by the feature point determination unit 122)
A process when the number of feature points determined by the feature point determination unit 122 is too large will be described. For example, in the case where four feature points need to be detected prior to the image region cut-out process performed by the image region cut-out processing unit 13, six feature points have been detected. As processing in such a case, the following can be considered.

第1には、図15のステップS64でいうところの検出画像数を上げることである。これによって、ステップS64において第5、第6の特徴点は決定されない可能性が生じる。   The first is to increase the number of detected images in step S64 of FIG. As a result, the fifth and sixth feature points may not be determined in step S64.

第2には、特徴点候補検出処理部121が行う特徴点検出処理をやり直すことである。例えば、図6のステップS22の特徴点検出フィルタ処理結果の閾値を上げ、より少ない特徴点候補が第1の特徴点候補リストに追加されるようにすることである。   Secondly, the feature point detection processing performed by the feature point candidate detection processing unit 121 is performed again. For example, the threshold value of the feature point detection filter processing result in step S22 of FIG. 6 is raised so that fewer feature point candidates are added to the first feature point candidate list.

第3には、特徴点決定部122で決定された特徴点の座標値に基づいて、検出された特徴点が適切なものかどうかを推測する処理を行うことである。例えば、画像領域の4つのコーナーを特徴点と定めた場合、特徴点決定部122で決定されたn個(n:自然数、n>4)の特徴点候補から任意の4点を選択する。ここで、選択の組み合わせは通りである。選択された4点より形成される図形の形状と画像領域の形状の類似度が最も高い組み合わせを、特徴点と決定することがえられる。 Third, based on the coordinate value of the feature point determined by the feature point determination unit 122, a process of estimating whether the detected feature point is appropriate is performed. For example, when four corners of the image region are determined as feature points, arbitrary four points are selected from n (n: natural number, n> 4) feature point candidates determined by the feature point determination unit 122. Here, there are n C 4 combinations of selections. The combination having the highest similarity between the shape of the figure formed from the four selected points and the shape of the image region can be determined as the feature point.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施の形態の説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is shown not by the above description of the embodiments but by the scope of claims for patent, and is intended to include meanings equivalent to the scope of claims for patent and all modifications within the scope.

上記実施例では、特に透かし入り画像領域の切り出し処理のための特徴点(画像領域の四角)検出について詳しく説明したが、本発明は一般的な画像における特徴点検出にも適用できる。   In the above-described embodiment, the feature point (square of the image area) detection for extracting a watermarked image area has been described in detail. However, the present invention can also be applied to feature point detection in a general image.

また、上記実施例ではJPEG2000符号化方式による画像データからの特徴点検出について説明したが、本発明は、他の方式による階層符号化された画像データにも適用できる。   In the above embodiment, the feature point detection from the image data by the JPEG2000 encoding method has been described. However, the present invention can also be applied to image data that has been hierarchically encoded by another method.

符号の説明Explanation of symbols

1 サーバ
11 送受信部
12 特徴点検出処理部
13 画像領域切り出し処理部
14 透かし検出処理部
15 復号処理部
17 制御部
121 特徴点候補検出処理部
122 特徴点決定部
DESCRIPTION OF SYMBOLS 1 Server 11 Transmission / reception part 12 Feature point detection process part 13 Image area cut-out process part 14 Watermark detection process part 15 Decoding process part 17 Control part 121 Feature point candidate detection process part 122 Feature point determination part

透かし検出システム100を示す図である。1 is a diagram illustrating a watermark detection system 100. FIG. 本発明が適用される透かし検出システム100のサーバ1の構成である。It is the structure of the server 1 of the watermark detection system 100 to which this invention is applied. 本発明が適用される透かし検出システム100における電子透かし検出処理のタイムチャートを示したものである。2 is a time chart of digital watermark detection processing in the watermark detection system 100 to which the present invention is applied. 従来の透かし検出システムにおける電子透かし検出処理のタイムチャートを示したものである。It is a time chart of digital watermark detection processing in a conventional watermark detection system. (a)2LL成分画像データから検出される特徴点候補の一例、(b)LL成分画像データから検出される特徴点候補の一例を示した図である。(A) It is a figure showing an example of a feature point candidate detected from 2LL component image data, and (b) an example of a feature point candidate detected from LL component image data. 特徴点候補検出処理(ステップS2、ステップS4)の手順を示すフローチャートである。It is a flowchart which shows the procedure of a feature point candidate detection process (step S2, step S4). 第1の特徴点候補リストである。It is a 1st feature point candidate list. 特徴点候補の位置について示した図である。It is the figure shown about the position of the feature point candidate. 特徴点決定処理(ステップS5)の手順を示すフローチャートである。It is a flowchart which shows the procedure of a feature point determination process (step S5). 第2の特徴点候補リストである。It is a 2nd feature point candidate list. 2LL成分画像データ、LL成分画像データから検出された特徴点候補の座標値を原画像サイズにおける座標値に変換したときの特徴点候補の位置について示した図である。It is the figure which showed about the position of the feature point candidate when converting the coordinate value of the feature point candidate detected from 2LL component image data and LL component image data into the coordinate value in an original image size. 特徴点リストの図である。It is a figure of a feature point list. 3ステージ分解された符号化画像を示す図である。It is a figure which shows the encoding image decomposed | disassembled into 3 stages. 第1の特徴点候補リストの図である。It is a figure of the 1st feature point candidate list. 特徴点決定処理(ステップS5変形例)の詳細を示すフローチャートである。It is a flowchart which shows the detail of a feature point determination process (step S5 modification). 第2の特徴点候補リストの図である。It is a figure of the 2nd feature point candidate list. 第3の特徴点候補リストの図である。It is a figure of the 3rd feature point candidate list. 特徴点リストの図である。It is a figure of a feature point list. 画像領域の切り出し処理を説明する図である。It is a figure explaining the extraction process of an image area. 従来の透かし検出システム100におけるタイミングチャートを示したものである。2 is a timing chart in the conventional watermark detection system 100. ウェーブレット変換における1ステージ分解を示す図である。It is a figure which shows 1 stage decomposition | disassembly in wavelet transformation. ウェーブレット変換における2ステージ分解を示す図である。It is a figure which shows 2 stage decomposition | disassembly in a wavelet transform. 2ステージ分解されたときのJPEG2000形式の画像ファイルのデータ構造を示したものである。It shows the data structure of an image file in JPEG2000 format when it is decomposed in two stages.

Claims (8)

階層符号化された画像データから特徴点を検出する特徴点検出装置であって、
前記階層符号化された画像データを構成する低域側から高域側までの周波数帯域が異なる複数の画像データの内、低域側の画像デ−タのみに基づいて特徴点を検出することを特徴とする、特徴点検出装置。
A feature point detection device for detecting feature points from hierarchically encoded image data,
Detecting feature points based only on image data on the low frequency side among a plurality of image data having different frequency bands from the low frequency side to the high frequency side constituting the hierarchically encoded image data. A feature point detection device.
階層符号化された画像データから特徴点を検出する特徴点検出装置であって、
前記階層符号化された画像データを構成する低域側から高域側までの周波数帯域が異なるn個(n:自然数)の画像データの内、
低域側のl(l<n、l:自然数)個の画像デ−タから得られた第1の特徴点候補を検出する第1の特徴点候補検出手段と、
低域側のm(l<m<n、m:自然数)個の画像デ−タから得られた第2の特徴点候補を検出する第2の特徴点候補検出手段と、
前記第1の特徴点候補検出手段により検出された前記第1の特徴点候補の座標と、前記第2の特徴点候補検出手段により検出された前記第2の特徴点候補の座標とが一致したとき、当該特徴点候補を前記階層符号化された画像データの特徴点であると決定する特徴点決定手段、とを含む特徴点検出装置。
A feature point detection device for detecting feature points from hierarchically encoded image data,
Among n (n: natural number) image data having different frequency bands from the low frequency side to the high frequency side constituting the hierarchically encoded image data,
First feature point candidate detection means for detecting first feature point candidates obtained from l (l <n, l: natural number) image data on the low frequency side;
Second feature point candidate detection means for detecting second feature point candidates obtained from m (l <m <n, m: natural number) image data on the low frequency side;
The coordinates of the first feature point candidate detected by the first feature point candidate detecting means coincide with the coordinates of the second feature point candidate detected by the second feature point candidate detecting means. And a feature point determining means for determining that the feature point candidate is a feature point of the hierarchically encoded image data.
階層符号化された画像データから特徴点を検出する特徴点検出装置であって、
前記階層符号化された画像データを構成する低域側から高域側までの周波数帯域が異なるn個(n:自然数)の画像データの内、
低域側のl(l<n、l:自然数)個の画像デ−タから得られた第1の特徴点候補を検出する第1の特徴点候補検出手段と、
低域側のm(l<m<n、m:自然数)個の画像デ−タから得られた第2の特徴点候補を検出する第2の特徴点候補検出手段と、
前記第1の特徴点候補検出手段によって検出された前記第1の特徴点候補の座標値、及び、前記第2の特徴点候補検出手段によって検出された前記第2の特徴点候補の座標値を、原画像サイズにおける座標値に変換する座標変換手段と、
前記座標変換手段により変換された、前記第1の特徴点候補の原画像サイズにおける座標値と、前記座標変換手段により変換された、前記第2の特徴点候補の原画像サイズにおける座標値とが一致したとき、当該座標値を前記階層符号化された画像データの特徴点の座標値であると決定する特徴点決定手段、とを含む特徴点検出装置。
A feature point detection device for detecting feature points from hierarchically encoded image data,
Among n (n: natural number) image data having different frequency bands from the low frequency side to the high frequency side constituting the hierarchically encoded image data,
First feature point candidate detection means for detecting first feature point candidates obtained from l (l <n, l: natural number) image data on the low frequency side;
Second feature point candidate detection means for detecting second feature point candidates obtained from m (l <m <n, m: natural number) image data on the low frequency side;
The coordinate value of the first feature point candidate detected by the first feature point candidate detection unit and the coordinate value of the second feature point candidate detected by the second feature point candidate detection unit , Coordinate conversion means for converting the coordinate value in the original image size,
The coordinate value in the original image size of the first feature point candidate converted by the coordinate conversion unit and the coordinate value in the original image size of the second feature point candidate converted by the coordinate conversion unit. And a feature point determining unit that determines that the coordinate value is the coordinate value of the feature point of the hierarchically encoded image data when the two coincide with each other.
階層符号化された画像データを受信する受信部と、
前記受信部が受信した前記画像データから特徴点を検出する特徴点検出部とを含み、
前記受信部が、前記階層符号化された画像データを構成する低域側から高域側までの周波数帯域が異なる複数の画像データの内、低域側の画像デ−タを受信したとき、
前記特徴点検出部は、前記受信部による高域側の画像データの受信を待つことなく前記低域側の画像デ−タのみから特徴点の検出処理を開始することを特徴とする、画像処理装置。
A receiving unit for receiving the hierarchically encoded image data;
A feature point detection unit that detects a feature point from the image data received by the reception unit,
When the receiving unit receives image data on the low frequency side among a plurality of image data having different frequency bands from the low frequency side to the high frequency side constituting the hierarchically encoded image data,
The feature point detection unit starts a feature point detection process from only the low-frequency image data without waiting for reception of high-frequency image data by the reception unit. apparatus.
階層符号化された画像データから特徴点を検出する特徴点検出方法であって、
前記階層符号化された画像データを構成する低域側から高域側までの周波数帯域が異なる複数の画像データの内、低域側の画像デ−タのみから特徴点を検出することを特徴とする、特徴点検出方法。
A feature point detection method for detecting a feature point from hierarchically encoded image data,
A feature point is detected only from low-frequency side image data among a plurality of pieces of image data having different frequency bands from a low frequency side to a high frequency side constituting the hierarchically encoded image data. A feature point detection method.
階層符号化された画像データを構成する低域側から高域側までの周波数帯域が異なる複数の画像データの内、低域側の画像デ−タを受信する受信ステップと、
前記受信ステップにおいて受信された前記画像データから特徴点を検出する特徴点検出ステップと、
前記特徴点検出ステップは、前記複数の画像データの内、高域側の画像デ−タを受信する前に、前記受信ステップにおいて受信された前記低域側の画像デ−タのみから特徴点の検出処理を開始することを特徴とする、画像処理方法。
A reception step of receiving image data on the low frequency side among a plurality of image data having different frequency bands from the low frequency side to the high frequency side constituting the hierarchically encoded image data;
A feature point detecting step of detecting a feature point from the image data received in the receiving step;
In the feature point detection step, before receiving the high-frequency side image data of the plurality of image data, the feature point detection step is performed only from the low-frequency side image data received in the reception step. An image processing method characterized by starting a detection process.
階層符号化された画像データから特徴点を検出する機能を、コンピュータに実現させることを特徴とした、特徴点検出プログラムであって、
前記階層符号化された画像データを構成する低域側から高域側までの周波数帯域が異なる複数の画像データの内、低域側の画像デ−タのみに基づいて特徴点を検出する機能を、コンピュータに実現させることを特徴とした、特徴点検出プログラム。
A feature point detection program characterized by causing a computer to realize a function of detecting feature points from hierarchically encoded image data,
A function of detecting feature points based only on low-frequency side image data among a plurality of image data having different frequency bands from the low frequency side to the high frequency side constituting the hierarchically encoded image data A feature point detection program characterized by being realized by a computer.
階層符号化された画像データを構成する低域側から高域側までの周波数帯域が異なる複数の画像データの内、低域側の画像デ−タを受信する受信ステップと、
前記受信ステップにおいて受信された前記画像データから特徴点を検出する特徴点検出ステップと、
前記特徴点検出ステップは、前記複数の画像データの内、高域側の画像デ−タを受信する前に、前記受信ステップにおいて受信された前記低域側の画像デ−タのみから特徴点の検出処理を開始することを特徴とする、画像処理プログラム。
A reception step of receiving image data on the low frequency side among a plurality of image data having different frequency bands from the low frequency side to the high frequency side constituting the hierarchically encoded image data;
A feature point detecting step of detecting a feature point from the image data received in the receiving step;
In the feature point detection step, before receiving the high-frequency side image data of the plurality of image data, the feature point detection step is performed only from the low-frequency side image data received in the reception step. An image processing program for starting a detection process.
JP2004184480A 2004-06-23 2004-06-23 Characteristic point detection apparatus, characteristic point detecting method, and characteristic point detection program Pending JP2006013651A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004184480A JP2006013651A (en) 2004-06-23 2004-06-23 Characteristic point detection apparatus, characteristic point detecting method, and characteristic point detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004184480A JP2006013651A (en) 2004-06-23 2004-06-23 Characteristic point detection apparatus, characteristic point detecting method, and characteristic point detection program

Publications (1)

Publication Number Publication Date
JP2006013651A true JP2006013651A (en) 2006-01-12

Family

ID=35780391

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004184480A Pending JP2006013651A (en) 2004-06-23 2004-06-23 Characteristic point detection apparatus, characteristic point detecting method, and characteristic point detection program

Country Status (1)

Country Link
JP (1) JP2006013651A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007306501A (en) * 2006-05-15 2007-11-22 Fujifilm Corp Image processing method, image processing device, and image processing program
JP2010109486A (en) * 2008-10-28 2010-05-13 Seiko Instruments Inc Image processing device, and image processing program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007306501A (en) * 2006-05-15 2007-11-22 Fujifilm Corp Image processing method, image processing device, and image processing program
JP2010109486A (en) * 2008-10-28 2010-05-13 Seiko Instruments Inc Image processing device, and image processing program

Similar Documents

Publication Publication Date Title
JP4317230B2 (en) Image processing method based on header information
US6665446B1 (en) Image processing apparatus and method
JP4064196B2 (en) Client computer, server computer, program, storage medium, image data processing system, and image data processing method
US7027654B1 (en) Video compression system
US20100080472A1 (en) Image processing apparatus, moving image decoding apparatus, moving image encoding apparatus and method
JP4768728B2 (en) Method and apparatus for encoding a block of values
US7302105B2 (en) Moving image coding apparatus, moving image decoding apparatus, and methods therefor
JP2002325170A (en) Image processing unit and its method, and program code, storage medium
CN111107370B (en) Video watermark embedding processing method and device, electronic equipment and storage medium
JP2004221950A (en) Image processor, program, and storage medium
KR20100016272A (en) Image compression and decompression using the pixon method
JP2000341689A (en) Wavelet inverse converting device and its method and wavelet decoding device and its method
CN113763224A (en) Image processing method and device
CN112637607A (en) Image coding method and device
JP2006013651A (en) Characteristic point detection apparatus, characteristic point detecting method, and characteristic point detection program
WO2023178662A1 (en) Image and video coding using multi-sensor collaboration and frequency adaptive processing
CN111754378B (en) Image processing method, image processing device, storage medium and electronic device
Seo et al. An efficient quantization watermarking on the lowest wavelet subband
JP2011082594A (en) Image pre-filter device, image encoding device and image decoding device
US20010024523A1 (en) Reduction of artifacts in a DWT-based compression scheme by adjusting inverse quantized transform data according to noise values
JP2003244444A (en) Image processor
JP5244841B2 (en) Image processing apparatus, image processing method, and image processing program
JP2003125189A (en) Image processing system, information embedding device, information detection device, information embedding method, and information detection method
JP2004213202A (en) Image processing method, image processor, image pickup unit, program and recording medium
JP2008109386A (en) Image encoding apparatus and method

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20051227