JP2011103696A - Image compressing method and image compressing apparatus - Google Patents

Image compressing method and image compressing apparatus Download PDF

Info

Publication number
JP2011103696A
JP2011103696A JP2011028605A JP2011028605A JP2011103696A JP 2011103696 A JP2011103696 A JP 2011103696A JP 2011028605 A JP2011028605 A JP 2011028605A JP 2011028605 A JP2011028605 A JP 2011028605A JP 2011103696 A JP2011103696 A JP 2011103696A
Authority
JP
Japan
Prior art keywords
image
value
unit
image input
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011028605A
Other languages
Japanese (ja)
Inventor
Koi Hasebe
光威 長谷部
Bunpei Irie
文平 入江
Takuma Akagi
琢麿 赤木
Toshio Sato
俊雄 佐藤
Hiroshi Sukegawa
寛 助川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2011028605A priority Critical patent/JP2011103696A/en
Publication of JP2011103696A publication Critical patent/JP2011103696A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Compression Of Band Width Or Redundancy In Fax (AREA)

Abstract

【課題】冗長性を持たせ、符号化処理での圧縮効率を高めることができる画像圧縮方法および画像圧縮装置を提供する。
【解決手段】認識対象を含む画像に対し圧縮処理を行なう画像圧縮方法において、認識対象を含む画像を入力し、この入力された画像に対し所定のフィルタ処理を行なうことでフィルタ内の中間値を取得し、この取得した中間値と現在の注目画素値とを比較し、両者の差があらかじめ定められた閾値以上である場合は注目画素に対し何も処理を行なわず、閾値未満の場合は現在の注目画素値を前記取得した中間値で置き換える処理を注目画素が全画素を対象にするまで繰り返し実施することで平滑化処理を行ない、この平滑化された画像に対しその出現頻度に応じて可変長符号化を行なう。
【選択図】図10
The present invention provides an image compression method and an image compression apparatus capable of providing redundancy and increasing the compression efficiency in encoding processing.
In an image compression method for performing compression processing on an image including a recognition target, an image including the recognition target is input, and a predetermined filter process is performed on the input image to obtain an intermediate value in the filter. The acquired intermediate value is compared with the current pixel value of interest, and if the difference between the two is equal to or greater than a predetermined threshold value, no processing is performed on the pixel of interest. The process of replacing the target pixel value of the target pixel value with the acquired intermediate value is repeatedly performed until the target pixel covers all the pixels, and smoothing processing is performed. The smoothed image is variable according to the appearance frequency. Perform long coding.
[Selection] Figure 10

Description

本発明の実施形態は、たとえば、郵便物処理装置や顔照合装置などにおいて認識対象を含む画像に対し圧縮処理を行なう画像圧縮方法および画像圧縮装置に関する。   Embodiments described herein relate generally to an image compression method and an image compression apparatus that perform compression processing on an image including a recognition target in, for example, a mail processing apparatus or a face collation apparatus.

たとえば、郵便物処理装置では、処理時間の制約のため、文字認識等に必要な解像度を保持した画像の伝送時間が問題となっている。また、顔照合装置においても、照合した顔画像を分析用にログとして記録しており、客先でのログ画像の抽出時間が問題となっている。これらの問題に対して、画像に対し圧縮処理を施すことで伝送コストを軽減する方法、あるいは、画像を可逆圧縮する方法が知られている。   For example, in a mail processing apparatus, there is a problem in the transmission time of an image having a resolution necessary for character recognition or the like due to processing time restrictions. Also, in the face collation device, the collated face image is recorded as a log for analysis, and there is a problem of the log image extraction time at the customer site. In order to solve these problems, a method for reducing the transmission cost by compressing an image or a method for reversibly compressing an image is known.

画像に対し圧縮処理を施すことで伝送コストを軽減する方法は、可逆方式による静止画データの符号化において隣接するピクセル差分値を算出し、その出現頻度に応じた可変長符号を割り当てることで、圧縮率の良好な可変長符号化が行なえる画像符号化方法である。   The method of reducing the transmission cost by compressing the image is to calculate the adjacent pixel difference value in the encoding of the still image data by the lossless method, and assign the variable length code according to the appearance frequency, This is an image coding method capable of performing variable length coding with a good compression rate.

画像を可逆圧縮する方法は、隣接画素の輝度情報の差分値の正または負の2値情報と絶対値を算出し、画素ごとにビットマップ展開して符号化することで、効率よく可逆的な圧縮が行なえる多値情報圧縮方法である。   The method of reversibly compressing an image is a reversible and efficient method by calculating positive or negative binary information and absolute value of the difference value of luminance information of adjacent pixels, and performing bitmap development for each pixel and encoding. This is a multi-value information compression method capable of compression.

ところが、上記従来の方法では、可逆圧縮において圧縮率の良好な符号化を行なうことができるが、可逆圧縮であるため圧縮率には限界がある。また、いわゆるJPEGなどの一般的な不可逆圧縮では、認識対象の特徴が失われ、認識に影響を与えてしまう。   However, in the conventional method, encoding with a good compression rate can be performed in lossless compression, but the compression rate is limited because of lossless compression. Further, in general irreversible compression such as so-called JPEG, a feature to be recognized is lost, which affects recognition.

特開平9−116765号公報JP-A-9-116765 特開2000−156861号公報JP 2000-156861 A

本発明が解決しようとする課題は、冗長性を持たせ、符号化処理での圧縮効率を高めることができる画像圧縮方法および画像圧縮装置を提供することである。   The problem to be solved by the present invention is to provide an image compression method and an image compression apparatus capable of providing redundancy and improving the compression efficiency in the encoding process.

実施形態に係る画像圧縮方法は、認識対象を含む画像に対し圧縮処理を行なう画像圧縮方法において、前記認識対象を含む画像を入力する画像入力ステップと、この画像入力ステップにより入力された画像に対し平滑化処理を行なうもので、前記画像入力ステップにより入力された画像に対し所定のフィルタ処理を行なうことでフィルタ内の中間値を取得し、この取得した中間値と現在の注目画素値とを比較し、両者の差があらかじめ定められた閾値以上である場合は注目画素に対し何も処理を行なわず、閾値未満の場合は現在の注目画素値を前記取得した中間値で置き換える処理を注目画素が全画素を対象にするまで繰り返し実施する平滑化ステップと、この平滑化ステップにより平滑化された画像に対し隣接する画素間の差分値を算出する差分値算出ステップと、この差分値算出ステップにより算出された差分値に対しその出現頻度に応じて可変長符号化を行なう符号化ステップとを具備している。   An image compression method according to an embodiment is an image compression method for performing compression processing on an image including a recognition target, an image input step for inputting an image including the recognition target, and an image input by the image input step. Performs smoothing processing, obtains an intermediate value in the filter by performing a predetermined filtering process on the image input in the image input step, and compares the acquired intermediate value with the current target pixel value If the difference between the two is equal to or greater than a predetermined threshold value, no processing is performed on the target pixel. If the difference is less than the threshold value, the target pixel is replaced with the acquired intermediate value. A smoothing step that is repeated until all pixels are targeted, and a difference value between adjacent pixels for the image smoothed by the smoothing step is calculated. A difference value calculation step, and a coding step of performing variable-length coding in accordance with the appearance frequency to the difference value calculated by the difference value calculation step.

第1の実施形態に係る画像圧縮装置の構成を概略的に示すブロック図。1 is a block diagram schematically showing the configuration of an image compression apparatus according to a first embodiment. 平滑化処理部の処理内容を示す説明図。Explanatory drawing which shows the processing content of a smoothing process part. 平滑化処理部の処理手順を示すフローチャート。The flowchart which shows the process sequence of a smoothing process part. 第2の実施形態に係る画像圧縮装置の構成を概略的に示すブロック図。FIG. 5 is a block diagram schematically showing the configuration of an image compression apparatus according to a second embodiment. 特徴抽出部の処理内容を表わす説明図。Explanatory drawing showing the processing content of a feature extraction part. 階調変換部の処理内容を表わす説明図。Explanatory drawing showing the processing content of a gradation conversion part. 第3の実施形態に係る画像圧縮装置の構成を概略的に示すブロック図。FIG. 9 is a block diagram schematically showing the configuration of an image compression apparatus according to a third embodiment. 差分対象判別部の処理手順を示すフローチャート。The flowchart which shows the process sequence of a difference object discrimination | determination part. 差分値算出処理部の処理内容を表す説明図。Explanatory drawing showing the processing content of a difference value calculation process part. 第4の実施形態に係る画像圧縮装置の構成を概略的に示すブロック図。FIG. 10 is a block diagram schematically showing the configuration of an image compression apparatus according to a fourth embodiment. 平滑化差分処理部の処理手順を示すフローチャート。The flowchart which shows the process sequence of a smoothing difference process part. 第5の実施形態に係る画像圧縮装置の構成を概略的に示すブロック図。FIG. 10 is a block diagram schematically showing the configuration of an image compression apparatus according to a fifth embodiment. 外れ値確認部の処理内容を表わす説明図。Explanatory drawing showing the processing content of an outlier confirmation part.

以下、実施形態について図面を参照して説明する。
まず、第1の実施形態について説明する。
図1は、第1の実施形態に係る画像圧縮装置の構成を概略的に示すものである。第1の実施形態に係る画像圧縮装置は、画像入力手段としての画像入力部101、平滑化手段としての平滑化処理部102、符号化手段としての符号化部103、および、データ出力部104から構成されている。
Hereinafter, embodiments will be described with reference to the drawings.
First, the first embodiment will be described.
FIG. 1 schematically shows the configuration of an image compression apparatus according to the first embodiment. The image compression apparatus according to the first embodiment includes an image input unit 101 as an image input unit, a smoothing processing unit 102 as a smoothing unit, an encoding unit 103 as an encoding unit, and a data output unit 104. It is configured.

画像入力部101は、たとえば、テレビジョンカメラやイメージスキャナ等で構成され、認識対象を含む画像を収集し、その収集した画像を平滑化処理部102に入力する。具体的には、たとえば、横方向が640画素、縦方向が480画素のデジタル濃淡画像として収集し入力する。   The image input unit 101 includes, for example, a television camera or an image scanner, collects an image including a recognition target, and inputs the collected image to the smoothing processing unit 102. Specifically, for example, it is collected and inputted as a digital grayscale image having 640 pixels in the horizontal direction and 480 pixels in the vertical direction.

平滑化処理部102は、画像入力部101により入力された画像に対し平滑化処理を行ない、その処理結果を符号化部103に出力する。具体的には、たとえば、図2に示すように、3x3のメディアンフィルタ処理を行なうもので、当該フィルタ処理の数式を下記数1に示す。
[数1]
|Median(f(x+i,y+i))-f(x,y)|>=Th f(x,y)=f(x,y)
|Median(f(x+i,y+i))-f(x,y)|< Th f(x,y)=Median(f(x+i,y+i))
以下、フィルタ処理の一連の流れについて図3に示すフローチャートを参照して説明する。まず、図2に示すような3x3のメディアンフィルタにより、フィルタ内(3x3)の中間値を取得する(ステップS1)。次に、取得した中間値と現在の注目画素値とを比較し(ステップS2)、両者の差があらかじめ定められた閾値以上である場合は注目画素に対し何も処理を行なわず、閾値未満の場合は現在の注目画素値をステップS1で取得した中間値で置き換える(ステップS3)。これらの処理を注目画素が全画素を対象にするまで繰り返し実施することで処理結果を得る。以上のようなフィルタ処理で平滑化処理を実現する。
The smoothing processing unit 102 performs smoothing processing on the image input by the image input unit 101 and outputs the processing result to the encoding unit 103. Specifically, for example, as shown in FIG. 2, 3 × 3 median filter processing is performed.
[Equation 1]
| Median (f (x + i, y + i))-f (x, y) |> = Th f (x, y) = f (x, y)
| Median (f (x + i, y + i))-f (x, y) | <Th f (x, y) = Median (f (x + i, y + i))
Hereinafter, a series of flow of the filtering process will be described with reference to a flowchart shown in FIG. First, an intermediate value in the filter (3 × 3) is acquired by a 3 × 3 median filter as shown in FIG. 2 (step S1). Next, the acquired intermediate value is compared with the current pixel value of interest (step S2), and if the difference between the two is equal to or greater than a predetermined threshold value, no processing is performed on the pixel of interest, and is less than the threshold value. In this case, the current pixel value of interest is replaced with the intermediate value acquired in step S1 (step S3). The processing result is obtained by repeating these processes until the target pixel covers all the pixels. Smoothing processing is realized by the filter processing as described above.

符号化部103は、平滑化処理部102から得られる画像に対し可変長符号化処理を行ない、その処理結果をデータ出力部104に出力する。具体的には、まず、平滑化処理部102から得られる画像に対し得られたデータ値ごとの出現頻度を算出する。データ値ごとの出現頻度がわかれば、出現頻度の高いデータ値ほどビット数の少ない符号を割り当てる方法によって、それぞれのデータ値にハフマン符号を割り当てることが可能であり、ハフマン符号理論に基づいて可変長符号化を行なう。なお、本実施形態ではハフマン符号化の方法を使用したが、符号化の方法としては必ずしもハフマン符号化の方法を用いる必要はなく、たとえば、ランレングス符号化などでもよい。   The encoding unit 103 performs variable length encoding processing on the image obtained from the smoothing processing unit 102, and outputs the processing result to the data output unit 104. Specifically, first, the appearance frequency for each data value obtained for the image obtained from the smoothing processing unit 102 is calculated. If the appearance frequency for each data value is known, it is possible to assign a Huffman code to each data value by assigning a code with a smaller number of bits to a data value with a higher appearance frequency, and variable length based on Huffman code theory Encoding is performed. Although the Huffman encoding method is used in the present embodiment, the Huffman encoding method is not necessarily used as the encoding method, and for example, run length encoding may be used.

データ出力部104は、符号化部103から得られる符号化された画像を圧縮処理済み画像として出力する。   The data output unit 104 outputs the encoded image obtained from the encoding unit 103 as a compressed image.

以上説明したように、第1の実施形態によれば、重要な画像情報(たとえば、急激な輝度勾配)を保持しつつ、圧縮に適した平滑化処理を行なうことで冗長性を持たせ、符号化処理での圧縮効率を高めることができる。   As described above, according to the first embodiment, redundancy is provided by performing smoothing processing suitable for compression while retaining important image information (for example, a steep luminance gradient). The compression efficiency in the conversion process can be increased.

次に、第2の実施形態について説明する。
図4は、第2の実施形態に係る画像圧縮装置の構成を概略的に示すものである。第2の実施形態に係る画像圧縮装置は、画像入力手段としての画像入力部201、特徴抽出手段としての特徴抽出部202、階調変換手段としての階調変換処理部203、符号化手段としての符号化部204、および、データ出力部205から構成されている。
Next, a second embodiment will be described.
FIG. 4 schematically shows a configuration of an image compression apparatus according to the second embodiment. An image compression apparatus according to the second embodiment includes an image input unit 201 as an image input unit, a feature extraction unit 202 as a feature extraction unit, a gradation conversion processing unit 203 as a gradation conversion unit, and an encoding unit. It comprises an encoding unit 204 and a data output unit 205.

なお、画像入力部201、符号化部204およびデータ出力部205は、前述した第1の実施形態における画像入力部101、符号化部103およびデータ出力部104と同じであるのでその説明は省略する。   Since the image input unit 201, the encoding unit 204, and the data output unit 205 are the same as the image input unit 101, the encoding unit 103, and the data output unit 104 in the first embodiment described above, description thereof is omitted. .

特徴抽出部202は、画像入力部201により入力された画像に対し認識対象の輝度特徴を抽出し、階調変換処理部203に出力する。具体的には、たとえば、認識対象が書状の場合、文字領域と書状領域(背景領域)の2つが特徴として得られる。そのため、図5に示すように輝度ヒストグラムを求め、2つの極大値(Max1、Max2)を抽出する。抽出した極大値付近の輝度値は文字領域、書状領域を表しているため、極大値より階調変換処理部203で用いる閾値(Th1、Th2)を求める。閾値の求め方としては、単純に極大値から一定値離れた値を閾値(Th1、Th2)としてもよいし、輝度ヒストグラムの累積値が一定になった値を閾値(Th1、Th2)としてもよい。   The feature extraction unit 202 extracts a luminance feature to be recognized from the image input by the image input unit 201 and outputs it to the gradation conversion processing unit 203. Specifically, for example, when the recognition target is a letter, two features, a character area and a letter area (background area), are obtained as features. Therefore, a luminance histogram is obtained as shown in FIG. 5, and two maximum values (Max1, Max2) are extracted. Since the extracted luminance value near the maximum value represents a character area and a letter area, threshold values (Th1, Th2) used by the gradation conversion processing unit 203 are obtained from the maximum value. As a method of obtaining the threshold value, a value that is a fixed value away from the maximum value may be simply used as the threshold value (Th1, Th2), or a value in which the cumulative value of the luminance histogram becomes constant may be used as the threshold value (Th1, Th2). .

階調変換処理部203は、特徴抽出部202から得られた閾値(Th1、Th2)を基に固定値を割り当てる階調変換処理を行ない、その処理結果を符号化部204に出力する。具体的には、たとえば、認識対象が書状の場合、特徴抽出部202から得られた閾値(Th1、Th2)により下記数2で示される計算を行なうことで変換することができる。この階調変換の説明図を図6に示す。
[数2]
f(x,y)<=Th1 f’(x,y)=Th1
f(x,y)>=Th2 f’(x,y)=Th2
以上説明したように、第2の実施形態によれば、認識に影響を与えない階調変換を行なうことで冗長性を持たせ、符号化処理での圧縮効率を高めることができる。
The gradation conversion processing unit 203 performs gradation conversion processing for assigning a fixed value based on the threshold values (Th1, Th2) obtained from the feature extraction unit 202, and outputs the processing result to the encoding unit 204. Specifically, for example, when the recognition target is a letter, it can be converted by performing the calculation represented by the following formula 2 using the threshold values (Th1, Th2) obtained from the feature extraction unit 202. An explanatory diagram of this gradation conversion is shown in FIG.
[Equation 2]
f (x, y) <= Th1 f ′ (x, y) = Th1
f (x, y)> = Th2 f ′ (x, y) = Th2
As described above, according to the second embodiment, it is possible to provide redundancy by performing gradation conversion that does not affect recognition, and to increase the compression efficiency in the encoding process.

次に、第3の実施形態について説明する。
図7は、第3の実施形態に係る画像圧縮装置の構成を概略的に示すものである。第3の実施形態に係る画像圧縮装置は、画像入力手段としての画像入力部301、顔領域検出手段としての顔領域検出部302、差分対象判別手段としての差分対象判別部303、差分値算出手段としての差分値算出処理部304、符号化手段としての符号化部305、および、データ出力部306から構成されている。
Next, a third embodiment will be described.
FIG. 7 schematically shows a configuration of an image compression apparatus according to the third embodiment. An image compression apparatus according to the third embodiment includes an image input unit 301 as an image input unit, a face region detection unit 302 as a face region detection unit, a difference target determination unit 303 as a difference target determination unit, and a difference value calculation unit. As a difference value calculation processing unit 304, an encoding unit 305 as an encoding unit, and a data output unit 306.

なお、符号化部305およびデータ出力部306は、前述した第1の実施形態における符号化部103およびデータ出力部104と同じであるのでその説明は省略する。   Note that the encoding unit 305 and the data output unit 306 are the same as the encoding unit 103 and the data output unit 104 in the first embodiment described above, and thus description thereof is omitted.

画像入力部301は、たとえば、テレビジョンカメラ等で構成され、顔照合を行なう人物に対して顔を含む複数フレームの画像を収集し、その収集した画像を顔領域検出部302に入力する。具体的には、たとえば、横方向が512画素、縦方向が512画素のデジタル濃淡画像として収集し入力する。   The image input unit 301 is configured by, for example, a television camera, collects a plurality of frames of images including faces for a person who performs face matching, and inputs the collected images to the face area detection unit 302. Specifically, for example, it is collected and inputted as a digital grayscale image having 512 pixels in the horizontal direction and 512 pixels in the vertical direction.

顔領域検出部302は、画像入力部301により入力された画像から顔パターン(顔領域)を切り出す。これは、たとえば、文献(福井和広、山口修:「形状抽出とパターン照合の組合せによる顔特徴点抽出」、電子情報通信学会論文誌(D)、vol.J80−D−H,No.8、pp2170−2177(1997))に記載されている方法を用いることで、精度の高い顔領域の検出が実現可能である。
この場合、あらかじめ用意されたテンプレートを画像中移動させながら相関値を求めることにより、最も高い相関値を持った場所を顔領域とする。その他に、固有空間法や部分空間法を利用した顔抽出法などでもよい。
The face area detection unit 302 cuts out a face pattern (face area) from the image input by the image input unit 301. This is described in, for example, literature (Kazuhiro Fukui, Osamu Yamaguchi: “Face Feature Point Extraction by Combination of Shape Extraction and Pattern Matching”, IEICE Transactions (D), vol. J80-DH, No. 8, By using the method described in pp2170-2177 (1997), it is possible to detect a face area with high accuracy.
In this case, by obtaining a correlation value while moving a template prepared in advance in the image, a place having the highest correlation value is set as a face region. In addition, a face extraction method using an eigenspace method or a subspace method may be used.

差分対象判別部303は、顔領域検出部302により検出された顔領域から差分対象領域を判別し、差分値算出処理部304に出力する。具体的には、たとえば、図8に示すフローチャートのように、顔領域検出部302により検出された顔領域の画像入力部301により入力された画像全体に占める割合を求め(ステップS11)、求めた割合があらかじめ定められた閾値以上の場合は差分対象領域を顔領域とし、顔領域の位置合わせ処理を行ない(ステップS12)、閾値未満の場合は差分対象領域を背景領域とし、特に処理は行なわない。
なお、顔領域の位置合わせとしては、たとえば、顔領域検出部302により取得した顔領域の重心を用いて位置合わせを行なうことで実現が可能である。
The difference target determination unit 303 determines a difference target region from the face region detected by the face region detection unit 302 and outputs the difference target region to the difference value calculation processing unit 304. Specifically, for example, as in the flowchart shown in FIG. 8, the ratio of the face area detected by the face area detection unit 302 to the entire image input by the image input unit 301 is obtained (step S11), and obtained. If the ratio is equal to or greater than a predetermined threshold, the difference target area is set as a face area, and the face area is aligned (step S12). .
Note that the alignment of the face area can be realized, for example, by performing the alignment using the center of gravity of the face area acquired by the face area detection unit 302.

差分値算出処理部304は、差分対象判別部303により判別され処理された画像に対し、下記数3で示すように連続するフレーム間で対応する画素の差分値を算出し、符号化部305に出力する。
[数3]
(x,y)=f(x,y)−ft+1(x,y)
すなわち、図9に示すように、入力画像の特徴に応じて差分対象領域を顔領域と背景領域とに切換えることで、データに依存せず効率よく差分値算出処理が行なえる。なお、図9(a)は差分対象領域が背景領域の場合で、背景画像(斜線部分)の差分をとる。図9(b)は差分対象領域が顔領域の場合で、顔画像(斜線部分)の差分をとる。
The difference value calculation processing unit 304 calculates the difference value of the corresponding pixels between consecutive frames as shown in the following equation 3 for the image determined and processed by the difference target determination unit 303, and sends it to the encoding unit 305. Output.
[Equation 3]
f t (x, y) = ft (x, y) −f t + 1 (x, y)
That is, as shown in FIG. 9, the difference value calculation process can be efficiently performed without depending on the data by switching the difference target area between the face area and the background area according to the characteristics of the input image. FIG. 9A shows a case where the difference target area is the background area, and the difference between the background images (shaded portions) is taken. FIG. 9B shows a case where the difference target area is a face area, and the difference between face images (shaded portions) is taken.

以上説明したように、第3の実施形態によれば、顔画像の特徴を用いて適切な差分値算出処理を行なうことで冗長性を持たせ、符号化処理での圧縮効率を高めることができる。   As described above, according to the third embodiment, it is possible to provide redundancy by performing appropriate difference value calculation processing using the features of the face image, and to increase the compression efficiency in the encoding processing. .

次に、第4の実施形態について説明する。
図10は、第4の実施形態に係る画像圧縮装置の構成を概略的に示すものである。第4の実施形態に係る画像圧縮装置は、前述した第1の実施形態の変形例であり、画像入力手段としての画像入力部401、平滑化手段および差分値算出手段としての平滑化差分処理部402、符号化手段としての符号化部403、および、データ出力部404から構成されている。
Next, a fourth embodiment will be described.
FIG. 10 schematically shows a configuration of an image compression apparatus according to the fourth embodiment. An image compression apparatus according to the fourth embodiment is a modification of the above-described first embodiment, and includes an image input unit 401 as an image input unit, a smoothing unit, and a smoothed difference processing unit as a difference value calculation unit. 402, an encoding unit 403 as an encoding unit, and a data output unit 404.

なお、画像入力部401、符号化部403およびデータ出力部404は、前述した第1の実施形態における画像入力部101、符号化部103およびデータ出力部104と同じであるのでその説明は省略する。   Note that the image input unit 401, the encoding unit 403, and the data output unit 404 are the same as the image input unit 101, the encoding unit 103, and the data output unit 104 in the above-described first embodiment, and thus description thereof is omitted. .

平滑化差分処理部402は、入力された画像データに対し、まず平滑化処理を行ない、続いて隣接するピクセル間の差分値算出処理を行ない、その処理結果を符号化部403に出力する。   The smoothing difference processing unit 402 performs smoothing processing on the input image data first, then performs difference value calculation processing between adjacent pixels, and outputs the processing result to the encoding unit 403.

以下、平滑化差分処理部402の処理について図11に示すフローチャートを参照して説明する。まず、図2に示すような3x3のメディアンフィルタにより、フィルタ内(3x3)の中間値を取得する(ステップS21)。次に、取得した中間値と現在の注目画素値とを比較し(ステップS22)、両者の差があらかじめ定められた閾値以上である場合は注目画素に対し何も処理を行なわず、閾値未満の場合は現在の注目画素値をステップS21で取得した中間値で置き換える(ステップS23)。   Hereinafter, the processing of the smoothing difference processing unit 402 will be described with reference to the flowchart shown in FIG. First, an intermediate value in the filter (3 × 3) is acquired by a 3 × 3 median filter as shown in FIG. 2 (step S21). Next, the acquired intermediate value is compared with the current pixel value of interest (step S22). In this case, the current pixel value of interest is replaced with the intermediate value acquired in step S21 (step S23).

次に、隣接するピクセル間の差分値算出処理を行なう(ステップS24)。次に、全画素の探索が終了したか否かをチェックし(ステップS25)、全画素の探索が終了していない場合は注目画素の更新を行ない(ステップS26)、その後、ステップS21に戻り、上記同様な処理を繰り返す。そして、全画素の探索が終了した時点で処理を終了する。   Next, a difference value calculation process between adjacent pixels is performed (step S24). Next, it is checked whether or not the search for all pixels has been completed (step S25). If the search for all pixels has not been completed, the target pixel is updated (step S26), and then the process returns to step S21. The same processing as above is repeated. Then, the process ends when the search for all the pixels is completed.

具体的には、平滑化処理は、第1の実施形態における平滑化処理部102と同様の方法で実現可能である。また、隣接するピクセル間の差分値算出処理は、下記数4を用いて算出できる。
[数4]
f(x,y)=f(x,y)−f(x−1,y)
以上説明したように、第4の実施形態によれば、重要な画像情報(たとえば、急激な輝度勾配)を保持しつつ平滑化を行ない、さらに差分値算出処理で圧縮に適した冗長性を持たせることで、符号化処理での圧縮効率を高めることができる。
Specifically, the smoothing process can be realized by a method similar to that of the smoothing processing unit 102 in the first embodiment. Also, the difference value calculation process between adjacent pixels can be calculated using the following equation (4).
[Equation 4]
f (x, y) = f (x, y) −f (x−1, y)
As described above, according to the fourth embodiment, smoothing is performed while retaining important image information (for example, a steep luminance gradient), and redundancy suitable for compression is provided in the difference value calculation process. By doing so, the compression efficiency in the encoding process can be increased.

次に、第5の実施形態について説明する。
図12は、第5の実施形態に係る画像圧縮装置の構成を概略的に示すものである。第5の実施形態に係る画像圧縮装置は、前述した第2の実施形態の変形例であり、画像入力手段としての画像入力部501、顔領域検出手段としての顔領域検出部502、外れ値算出手段としての外れ値確認部503、階調変換手段としての階調変換処理部504、符号化手段としての符号化部505、および、データ出力部506から構成されている。
Next, a fifth embodiment will be described.
FIG. 12 schematically shows a configuration of an image compression apparatus according to the fifth embodiment. An image compression apparatus according to the fifth embodiment is a modification of the above-described second embodiment, and includes an image input unit 501 as an image input unit, a face area detection unit 502 as a face area detection unit, and an outlier calculation. An outlier confirmation unit 503 as a means, a gradation conversion processing unit 504 as a gradation conversion unit, an encoding unit 505 as an encoding unit, and a data output unit 506 are configured.

なお、画像入力部501、階調変換処理部504、符号化部505およびデータ出力部506は、前述した第2の実施形態における画像入力部201、階調変換処理部203、符号化部204よびデータ出力部205同じであり、顔領域検出部502は、前述した第3の実施形態における顔領域検出部302と同じであるのでその説明は省略する。   Note that the image input unit 501, the gradation conversion processing unit 504, the encoding unit 505, and the data output unit 506 are the image input unit 201, gradation conversion processing unit 203, encoding unit 204, and encoding unit 204 in the second embodiment described above. The data output unit 205 is the same, and the face area detection unit 502 is the same as the face area detection unit 302 in the third embodiment described above, and thus the description thereof is omitted.

外れ値確認部503は、顔領域検出部502により検出された顔領域の輝度特徴と入力画像の輝度特徴とから外れ値を求め、階調変換処理部504に出力する。たとえば、図13に示すように、顔領域のヒストグラムを求め、この求めた顔領域ヒストグラムから最大値(Max)および最小値(Min)を求める。求めた最大、最小値(Max、Min)から一定値離れた値を閾値(Th1、Th2)とする。   The outlier confirmation unit 503 obtains an outlier from the luminance feature of the face area detected by the face region detection unit 502 and the luminance feature of the input image, and outputs the outlier to the gradation conversion processing unit 504. For example, as shown in FIG. 13, a face area histogram is obtained, and a maximum value (Max) and a minimum value (Min) are obtained from the obtained face area histogram. Values that are apart from the determined maximum and minimum values (Max, Min) by a certain value are set as threshold values (Th1, Th2).

以上説明したように、第5の実施形態によれば、複雑な輝度特徴を保持する顔画像についても、認識に影響を与えない階調変換を行なうことで冗長性を持たせ、符号化処理での圧縮効率を高めることができる。   As described above, according to the fifth embodiment, even for a face image having a complicated luminance feature, redundancy is provided by performing gradation conversion that does not affect recognition. The compression efficiency can be increased.

以上説明したように上記実施形態によれば、重要な画像情報(たとえば、急激な輝度勾配)を保持しつつ、圧縮に適した平滑化処理を行なうことで冗長性を持たせ、符号化処理での圧縮効率を高めることができる。
また、認識に影響を与えない階調変換を行なうことで冗長性を持たせ、符号化処理での圧縮効率を高めることができる。
As described above, according to the above-described embodiment, redundancy is provided by performing smoothing processing suitable for compression while retaining important image information (for example, a steep luminance gradient). The compression efficiency can be increased.
Further, by performing gradation conversion that does not affect recognition, redundancy can be provided, and compression efficiency in the encoding process can be increased.

さらに、顔画像の特徴を用いて適切な差分値算出処理を行なうことで冗長性を持たせ、符号化処理での圧縮効率を高めることができる。   Furthermore, redundancy can be provided by performing an appropriate difference value calculation process using the features of the face image, and the compression efficiency in the encoding process can be increased.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行なうことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.

101,201,301,401,501…画像入力部(画像入力手段)、102…平滑化処理部(平滑化手段)、103,204,305,403,505…符号化部(符号化手段)、104,205,306,404,506…データ出力部、202…特徴抽出部(特徴抽出手段)、203,504…階調変換処理部(階調変換手段)、302,502…顔領域検出部(顔領域検出手段)、303…差分対象判別部(差分対象判別手段)、304…差分値算出処理部(差分値算出手段)、402…平滑化差分処理部(平滑化手段、差分値算出手段)、503…外れ値確認部(外れ値算出手段)。   101, 201, 301, 401, 501 ... image input unit (image input unit), 102 ... smoothing processing unit (smoothing unit), 103, 204, 305, 403, 505 ... encoding unit (encoding unit), 104, 205, 306, 404, 506 ... data output unit, 202 ... feature extraction unit (feature extraction means), 203, 504 ... gradation conversion processing unit (gradation conversion means), 302, 502 ... face area detection unit ( Facial area detection means), 303 ... Difference object determination section (difference object determination means), 304 ... Difference value calculation processing section (difference value calculation means), 402 ... Smoothing difference processing section (smoothing means, difference value calculation means) 503: Outlier confirmation unit (outlier calculator).

Claims (2)

認識対象を含む画像に対し圧縮処理を行なう画像圧縮方法において、
前記認識対象を含む画像を入力する画像入力ステップと、
この画像入力ステップにより入力された画像に対し平滑化処理を行なうもので、前記画像入力ステップにより入力された画像に対し所定のフィルタ処理を行なうことでフィルタ内の中間値を取得し、この取得した中間値と現在の注目画素値とを比較し、両者の差があらかじめ定められた閾値以上である場合は注目画素に対し何も処理を行なわず、閾値未満の場合は現在の注目画素値を前記取得した中間値で置き換える処理を注目画素が全画素を対象にするまで繰り返し実施する平滑化ステップと、
この平滑化ステップにより平滑化された画像に対し隣接する画素間の差分値を算出する差分値算出ステップと、
この差分値算出ステップにより算出された差分値に対しその出現頻度に応じて可変長符号化を行なう符号化ステップと、
を具備したことを特徴とする画像圧縮方法。
In an image compression method for performing compression processing on an image including a recognition target,
An image input step of inputting an image including the recognition target;
A smoothing process is performed on the image input in the image input step, and an intermediate value in the filter is acquired by performing a predetermined filter process on the image input in the image input step. The intermediate value is compared with the current target pixel value, and if the difference between the two is equal to or greater than a predetermined threshold value, no processing is performed on the target pixel. A smoothing step of repeatedly performing the process of replacing with the acquired intermediate value until the target pixel covers all the pixels;
A difference value calculating step for calculating a difference value between adjacent pixels with respect to the image smoothed by the smoothing step;
An encoding step for performing variable length encoding on the difference value calculated by the difference value calculating step according to its appearance frequency;
An image compression method comprising:
認識対象を含む画像に対し圧縮処理を行なう画像圧縮装置において、
前記認識対象を含む画像を入力する画像入力手段と、
この画像入力手段により入力された画像に対し平滑化処理を行なうもので、前記画像入力手段により入力された画像に対し所定のフィルタ処理を行なうことでフィルタ内の中間値を取得し、この取得した中間値と現在の注目画素値とを比較し、両者の差があらかじめ定められた閾値以上である場合は注目画素に対し何も処理を行なわず、閾値未満の場合は現在の注目画素値を前記取得した中間値で置き換える処理を注目画素が全画素を対象にするまで繰り返し実施する平滑化手段と、
この平滑化手段により平滑化された画像に対し隣接する画素間の差分値を算出する差分値算出手段と、
この差分値算出手段により算出された差分値に対しその出現頻度に応じて可変長符号化を行なう符号化手段と、
を具備したことを特徴とする画像圧縮装置。
In an image compression apparatus that performs compression processing on an image including a recognition target,
Image input means for inputting an image including the recognition target;
A smoothing process is performed on the image input by the image input means, and an intermediate value in the filter is acquired by performing a predetermined filter process on the image input by the image input means. The intermediate value is compared with the current target pixel value, and if the difference between the two is equal to or greater than a predetermined threshold value, no processing is performed on the target pixel. Smoothing means for repeatedly performing the process of replacing with the acquired intermediate value until the target pixel covers all pixels;
A difference value calculating means for calculating a difference value between adjacent pixels with respect to the image smoothed by the smoothing means;
Encoding means for performing variable length encoding on the difference value calculated by the difference value calculating means according to its appearance frequency;
An image compression apparatus comprising:
JP2011028605A 2011-02-14 2011-02-14 Image compressing method and image compressing apparatus Pending JP2011103696A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011028605A JP2011103696A (en) 2011-02-14 2011-02-14 Image compressing method and image compressing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011028605A JP2011103696A (en) 2011-02-14 2011-02-14 Image compressing method and image compressing apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2005015629A Division JP2006202209A (en) 2005-01-24 2005-01-24 Image compression method and image compression apparatus

Publications (1)

Publication Number Publication Date
JP2011103696A true JP2011103696A (en) 2011-05-26

Family

ID=44193791

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011028605A Pending JP2011103696A (en) 2011-02-14 2011-02-14 Image compressing method and image compressing apparatus

Country Status (1)

Country Link
JP (1) JP2011103696A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2025018583A1 (en) * 2023-07-19 2025-01-23 에스케이플래닛 주식회사 Method for providing cloud streaming service and apparatus therefor

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10108202A (en) * 1996-09-30 1998-04-24 Kiyoaki Kobayashi Method for compressing image data and print data or the like
JP2003099763A (en) * 2001-05-25 2003-04-04 Toshiba Corp Face image recording device, information management system, face image recording method, and information management method
JP2003259126A (en) * 2002-03-01 2003-09-12 Sony Corp Device and method for image processing, recording medium, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10108202A (en) * 1996-09-30 1998-04-24 Kiyoaki Kobayashi Method for compressing image data and print data or the like
JP2003099763A (en) * 2001-05-25 2003-04-04 Toshiba Corp Face image recording device, information management system, face image recording method, and information management method
JP2003259126A (en) * 2002-03-01 2003-09-12 Sony Corp Device and method for image processing, recording medium, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2025018583A1 (en) * 2023-07-19 2025-01-23 에스케이플래닛 주식회사 Method for providing cloud streaming service and apparatus therefor

Similar Documents

Publication Publication Date Title
CN111868751B (en) Using non-linear functions applied to quantization parameters in machine learning models for video coding
CN113767400B (en) Using rate-distortion cost as a loss function for deep learning
US8165344B2 (en) Image processing apparatus, moving image encoding apparatus, information processing method and information processing program
TWI426774B (en) A method for classifying an uncompressed image respective to jpeg compression history, an apparatus for classifying an image respective to whether the image has undergone jpeg compression and an image classification method
CN108012157A (en) Construction method for the convolutional neural networks of Video coding fractional pixel interpolation
CN111355956B (en) Deep learning-based rate distortion optimization rapid decision system and method in HEVC intra-frame coding
US11928843B2 (en) Signal processing apparatus and signal processing method
KR101704775B1 (en) Apparatus and method for multi-resolution image processing
CN111837140B (en) Video coding receptive field consistent convolution model
CN110675403B (en) A Multi-Instance Image Segmentation Method Based on Coding Auxiliary Information
JPWO2010084739A1 (en) Video identifier extraction device
CN111626178B (en) Compressed domain video motion recognition method and system based on new spatio-temporal feature stream
JP2023092185A (en) Image processing apparatus, learning method, and program
JP2011053951A (en) Image processing apparatus
CN104581158B (en) Quantization table, image compression processing method, device, terminal and image search system
US10728470B2 (en) Image processing device, image processing method, and non-transitory computer readable medium storing image processing program
WO2025124198A1 (en) Grayscale image compression method in weak network environment
JP2006202209A (en) Image compression method and image compression apparatus
He et al. End-to-end facial image compression with integrated semantic distortion metric
US10630991B2 (en) Image difference detection device, method for detecting image difference, and computer program
JP2011103696A (en) Image compressing method and image compressing apparatus
JP6289055B2 (en) Video encoding apparatus and video decoding apparatus
WO2020066307A1 (en) Image decoding device, image encoding device, image processing system, and program
Farah et al. Full-reference and reduced-reference quality metrics based on SIFT
CN103824308A (en) Image processing method in wireless multimedia sensor network

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110510

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20111101