JP2006293632A - Semiconductor integrated circuit device, image processing system, and image processing method - Google Patents

Semiconductor integrated circuit device, image processing system, and image processing method Download PDF

Info

Publication number
JP2006293632A
JP2006293632A JP2005112507A JP2005112507A JP2006293632A JP 2006293632 A JP2006293632 A JP 2006293632A JP 2005112507 A JP2005112507 A JP 2005112507A JP 2005112507 A JP2005112507 A JP 2005112507A JP 2006293632 A JP2006293632 A JP 2006293632A
Authority
JP
Japan
Prior art keywords
processing
image data
image
feature amount
semiconductor integrated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005112507A
Other languages
Japanese (ja)
Inventor
Jiro Amamiya
治郎 雨宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2005112507A priority Critical patent/JP2006293632A/en
Priority to PCT/JP2005/022134 priority patent/WO2006112079A2/en
Publication of JP2006293632A publication Critical patent/JP2006293632A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/223Analysis of motion using block-matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/28Indexing scheme for image data processing or generation, in general involving image processing hardware

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a semiconductor integrated circuit device, an image processing system and an image processing method, capable of easily packaging an effective algorithm for image processing. <P>SOLUTION: A semiconductor integrated circuit 20 is provided with feature quantity extracting device 32 which performs statistical processing for digital image data and extracts the feature quantity, and a plurality of processing units 41. Each processing unit 41 comprises a high parallel processor 40 which performs processing regarding the image data using the feature quantity. Each processing unit 41 is equipped with a holding circuit 42 which holds the feature quantity extracted by the feature quantity extracting device 32 and performs processing using the feature quantity held in the holding circuit 42. The feature quantity extracting device 32 performs operations independently of the parallel processor 40. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

この発明は、半導体集積回路装置、画像処理システム、及び画像処理方法に関するもので、例えばカメラで撮影した画像データを、高並列のプロセシングユニットで処理する際のアルゴリズムに関する。   The present invention relates to a semiconductor integrated circuit device, an image processing system, and an image processing method. For example, the present invention relates to an algorithm for processing image data captured by a camera using a highly parallel processing unit.

近年、CPU(Central Processing Unit)の動作の高速化に伴って、画像処理装置の性能向上には著しいものがある。   In recent years, as the operation of a CPU (Central Processing Unit) increases, there is a remarkable improvement in the performance of an image processing apparatus.

従来の画像処理において、画像データから特徴量を抽出し、抽出した特徴量に基づいてどの画像処理を行うかを選択する方法が提案されている(例えば特許文献1参照)。本方法によれば、入力画像は複数の領域に分割され、それぞれの領域においてテクスチャ特徴量が抽出される。そして、抽出された特徴量に応じて、当該領域を処理する画像処理手段が選択される。   In conventional image processing, a method has been proposed in which feature amounts are extracted from image data, and which image processing is to be performed based on the extracted feature amounts (see, for example, Patent Document 1). According to this method, the input image is divided into a plurality of regions, and texture feature amounts are extracted in the respective regions. Then, image processing means for processing the area is selected according to the extracted feature amount.

しかしながら、上記手法であると画像処理手段は特徴量の値自体を用いた画像処理アルゴリズムを実装することが難しいという問題があった。
特許第3047952号公報
However, the above-described method has a problem that it is difficult for the image processing means to implement an image processing algorithm using the feature value itself.
Japanese Patent No. 3047952

この発明は、上記事情に鑑みてなされたもので、その目的は、画像処理のための効率的アルゴリズムの実装を容易に出来る半導体集積回路装置、画像処理システム、及び画像処理方法を提供することにある。   The present invention has been made in view of the above circumstances, and an object thereof is to provide a semiconductor integrated circuit device, an image processing system, and an image processing method capable of easily implementing an efficient algorithm for image processing. is there.

上記目的を達成するために、この発明の一態様に係る半導体集積回路装置は、デジタルの画像データについて統計処理を行って特徴量を抽出する特徴量抽出装置と、複数の処理ユニットを備え、各々の処理ユニットがそれぞれ前記特徴量を用いて前記画像データに関する処理を行う並列処理装置とを具備し、前記処理ユニットの各々は、前記特徴量抽出装置で抽出された前記特徴量を保持する保持回路を備え、該保持回路に保持する前記特徴量を用いて処理を行い、前記特徴量抽出装置は、前記並列処理装置から独立して演算を行う。   In order to achieve the above object, a semiconductor integrated circuit device according to an aspect of the present invention includes a feature quantity extraction device that performs statistical processing on digital image data and extracts a feature quantity, and a plurality of processing units. Each of the processing units includes a parallel processing device that performs processing related to the image data using the feature amount, and each of the processing units holds the feature amount extracted by the feature amount extraction device. And the processing is performed using the feature amount held in the holding circuit, and the feature amount extraction device performs an operation independently of the parallel processing device.

またこの発明の一態様に係る画像処理システムは、上記半導体集積回路装置と、画像を撮影してデジタルの前記画像データを取得する撮像装置とを具備し、前記半導体集積回路は前記撮像装置から前記画像データが転送され、該画像データを一時的に保持するバッファ回路と、前記並列処理装置で処理された前記画像データを記憶する記憶装置とを更に備え、前記特徴量抽出装置は前記バッファ回路に転送された前記画像データについて前記特徴量を抽出する。   An image processing system according to an aspect of the present invention includes the semiconductor integrated circuit device and an imaging device that captures an image to acquire the digital image data. The semiconductor integrated circuit is connected to the imaging device from the imaging device. The image processing apparatus further includes a buffer circuit that transfers image data and temporarily stores the image data, and a storage device that stores the image data processed by the parallel processing device. The feature amount is extracted for the transferred image data.

更にこの発明の一態様に係る画像処理方法は、複数の処理ユニットを備えた並列処理装置を用いて画像データを処理する画像処理方法であって、前記画像データを受信するステップと、受信した前記画像データについて特徴量抽出装置が特徴量を計算するステップと、前記特徴量を前記処理ユニットの各々に転送するステップとを、転送された前記特徴量を用いて、前記処理ユニットの各々が前記画像データに関する処理を行うステップとを具備する。   Furthermore, an image processing method according to an aspect of the present invention is an image processing method for processing image data using a parallel processing device including a plurality of processing units, and the step of receiving the image data; A step of calculating a feature amount for image data by a feature amount extraction device and a step of transferring the feature amount to each of the processing units, using each of the transferred feature amounts, And a process for processing data.

この発明によれば、画像処理のための効率的アルゴリズムの実装を容易に出来る半導体集積回路装置、画像処理システム、及び画像処理方法を提供できる。   According to the present invention, it is possible to provide a semiconductor integrated circuit device, an image processing system, and an image processing method capable of easily mounting an efficient algorithm for image processing.

以下、この発明の実施形態を図面を参照して説明する。この説明に際し、全図にわたり、共通する部分には共通する参照符号を付す。   Embodiments of the present invention will be described below with reference to the drawings. In the description, common parts are denoted by common reference symbols throughout the drawings.

この発明の第1の実施形態に係る半導体集積回路装置、画像処理システム、及び画像処理方法について、図1を用いて説明する。図1は、本実施形態に係る画像処理システムのブロック図である。   A semiconductor integrated circuit device, an image processing system, and an image processing method according to a first embodiment of the present invention will be described with reference to FIG. FIG. 1 is a block diagram of an image processing system according to the present embodiment.

図示するように本実施形態に係る画像処理システム1は、デジタルビデオカメラ10及び画像処理LSI20を備えている。デジタルビデオカメラ10によって撮影された画像は、画像処理LSI20によって処理される。   As shown in the figure, the image processing system 1 according to the present embodiment includes a digital video camera 10 and an image processing LSI 20. An image photographed by the digital video camera 10 is processed by the image processing LSI 20.

画像処理LSI20は、データ入力装置30、高並列処理装置40、記憶装置50、DMA(Direct Memory Access)コントローラ60、及びデータバス70を備えている。データ入力装置30は、入力バッファ31及び特徴量抽出装置32を有している。入力バッファ31には、デジタルビデオカメラ10から画像データが入力される。特徴量抽出装置32は、入力バッファ31上で統計処理を行う統計処理専用のブロックであり、当該画像データについての特徴量を抽出する。特徴量抽出装置32は、高並列処理装置40と分離されており、高並列処理装置40から独立して処理を実行出来る。   The image processing LSI 20 includes a data input device 30, a highly parallel processing device 40, a storage device 50, a DMA (Direct Memory Access) controller 60, and a data bus 70. The data input device 30 includes an input buffer 31 and a feature amount extraction device 32. Image data is input from the digital video camera 10 to the input buffer 31. The feature amount extraction device 32 is a block dedicated to statistical processing that performs statistical processing on the input buffer 31, and extracts a feature amount of the image data. The feature quantity extraction device 32 is separated from the highly parallel processing device 40 and can execute processing independently of the highly parallel processing device 40.

高並列処理装置40は、複数(例えば128個)の処理ユニット(CPU)41を有している。処理ユニット41の各々は、入力バッファ31に保持される画像データを読み出し、画像データにつき互いに並列的に処理を実行する。処理ユニット41は全てが同一の処理を行っても良いし、それぞれ異なる処理を行っても良い。各処理ユニット41はメモリ(レジスタ)42を備えている。処理ユニット41は、特徴量を特徴量抽出装置32からメモリ42に読み出す。そして、メモリ42に読み出した特徴量を用いて、自らが担当する画像データに関する処理を行う。   The highly parallel processing device 40 includes a plurality of (for example, 128) processing units (CPUs) 41. Each of the processing units 41 reads out the image data held in the input buffer 31 and executes processing on the image data in parallel with each other. All the processing units 41 may perform the same process, or may perform different processes. Each processing unit 41 includes a memory (register) 42. The processing unit 41 reads the feature amount from the feature amount extraction device 32 to the memory 42. Then, using the feature amount read out to the memory 42, processing relating to the image data for which it is responsible is performed.

記憶装置50は、入力バッファ31に入力された画像データ、また高並列処理装置40で処理された画像データなどを保持する例えばeDRAM(embedded DRAM)である。   The storage device 50 is, for example, an eDRAM (embedded DRAM) that holds image data input to the input buffer 31 and image data processed by the highly parallel processing device 40.

DMAコントローラ60は、入力バッファ31と処理ユニット41との間、記憶装置50と処理ユニット41との間、また入力バッファ41と記憶装置50との間におけるデータのDMA転送を制御する。これらのデータはデータバス70を介して転送される。   The DMA controller 60 controls DMA transfer of data between the input buffer 31 and the processing unit 41, between the storage device 50 and the processing unit 41, and between the input buffer 41 and the storage device 50. These data are transferred via the data bus 70.

次に上記画像処理システム1による画像処理方法について、図2のフローチャートを用いて説明する。まず、デジタルビデオカメラ10が撮像対象を撮影し、画像データを取得する(ステップS10)。カメラ10はA/Dコンバータを備えており、カメラ10によってデジタル化された画像データがLSI20へ入力される。勿論、LSI20がA/D変換を行っても良い。   Next, an image processing method by the image processing system 1 will be described with reference to the flowchart of FIG. First, the digital video camera 10 captures an imaging target and acquires image data (step S10). The camera 10 includes an A / D converter, and image data digitized by the camera 10 is input to the LSI 20. Of course, the LSI 20 may perform A / D conversion.

カメラ10で取得された画像データは入力バッファ31へ入力される(ステップS11)。入力バッファ31には、例えばダブルバッファを用いることが出来る。そして表バッファがフル(full)になったら裏バッファに切り替える。勿論、バッファの形態は様々であり、この方法に限定されるものではない。   The image data acquired by the camera 10 is input to the input buffer 31 (step S11). As the input buffer 31, for example, a double buffer can be used. When the front buffer becomes full, switch to the back buffer. Of course, the form of the buffer is various, and is not limited to this method.

次に特徴量抽出装置32は、入力バッファ31上において、画像データに関する統計処理を行って、特徴量を抽出する。また画像データを記憶装置50へ転送する(ステップS12)。特徴量の抽出は、当該画像データに関する高並列処理装置40の処理が開始される前に行われる。   Next, the feature quantity extraction device 32 performs statistical processing on the image data on the input buffer 31 to extract the feature quantity. The image data is transferred to the storage device 50 (step S12). The feature amount is extracted before the processing of the highly parallel processing device 40 regarding the image data is started.

特徴量の抽出が完了すると、特徴量抽出装置32は抽出した特徴量を処理ユニット41に転送する(ステップS13)。この際、特徴量は処理ユニット41の各々で使用するためアクセスが集中しやすいので、特徴量のコピーを作成し、各処理ユニット41がそれぞれ特徴量を独自に有していることが望ましい。   When the feature amount extraction is completed, the feature amount extraction device 32 transfers the extracted feature amount to the processing unit 41 (step S13). At this time, since the feature amount is used in each of the processing units 41, access is likely to be concentrated. Therefore, it is desirable that a copy of the feature amount is created and each processing unit 41 has its own feature amount.

次に、高並列処理装置40における処理ユニット41の各々が、記憶装置50内の画像データを読み出す。そして、メモリ42内の特徴量を用いて該画像データに関する処理を行う(ステップS14)。   Next, each of the processing units 41 in the highly parallel processing device 40 reads the image data in the storage device 50. And the process regarding this image data is performed using the feature-value in the memory 42 (step S14).

その後、処理された画像データは記憶装置50に格納される。
上記のように、この発明の第1の実施形態に係るLSI、画像処理システム、及び画像処理方法であると、下記(1)、(2)の効果が得られる。
Thereafter, the processed image data is stored in the storage device 50.
As described above, the following effects (1) and (2) can be obtained with the LSI, the image processing system, and the image processing method according to the first embodiment of the present invention.

(1)画像処理のための効率的アルゴリズムを高並列処理装置に対して実装を容易に出来る。
本実施形態に係る構成であると、統計処理を行う特徴量抽出装置32が高並列処理装置40から分離・独立している。そのため、高並列処理装置における処理プログラムには、統計処理を考慮する必要がない。また、各処理ユニット41はメモリ42に特徴量を保持する。そして、自由に特徴量を参照しつつ処理を行うことが出来る。以上の結果、高並列処理装置における処理プログラムを簡略化出来、すなわち、特徴量を用いた効率的アルゴリズムの高並列処理装置に対する実装が容易となる。特に、特徴量として例にあげた統計量計算では実装すべきハードウェアコストは低い。例えば、平均値計算ならデータ取得のためのアドレス生成部とカウンタと加算器、及び除算器を実装すれば良い。除算器は、平均値のための除数が2のべき乗であればシフタを用いれば良い。もちろん除算器を実装してもよい。分散計算も、上記に加え乗算器と逆数根計算器を加えるだけでよい。ヒストグラム生成にはヒストグラムとしての値を保持する記憶部とカウンタがあればよい。ヒストグラムの作成にあたって、記憶部に画素値Pが取り得る値の数のエントリを確保する。例えば画素値Pが8ビットの場合その値は0〜255まで取り得るから、256個のエントリを確保する。そしてそれぞれのエントリに画素値Pを割り当て、各画素値Pを取るピクセルの数を、対応するエントリに格納していく。図3の例は、P=0のピクセル数は1個、P=1のピクセル数は2個、P=2のピクセル数は2個、…P=255のピクセル数は0個であることを示している。このようなエントリを、例えば記憶装置50に保持すればよい。さらに中央値の計算や順序統計量もヒストグラムと加算器で実装可能である。これ以上の詳細は省くが、統計量計算に必要なハードウェアのコストは低い。
(1) An efficient algorithm for image processing can be easily implemented in a highly parallel processing device.
With the configuration according to the present embodiment, the feature quantity extraction device 32 that performs statistical processing is separated and independent from the highly parallel processing device 40. Therefore, it is not necessary to consider statistical processing in the processing program in the highly parallel processing device. Each processing unit 41 holds a feature amount in the memory 42. Then, processing can be performed with reference to the feature quantity freely. As a result, the processing program in the highly parallel processing device can be simplified, that is, the efficient algorithm using the feature amount can be easily mounted on the highly parallel processing device. In particular, the hardware cost to be implemented is low in the statistic calculation exemplified as the feature quantity. For example, for the average value calculation, an address generation unit for data acquisition, a counter, an adder, and a divider may be mounted. For the divider, a shifter may be used if the divisor for the average value is a power of 2. Of course, a divider may be implemented. In addition to the above, the variance calculation needs only to add a multiplier and an inverse root calculator. In order to generate a histogram, a storage unit and a counter for holding a value as a histogram may be used. In creating the histogram, entries of the number of values that the pixel value P can take are secured in the storage unit. For example, when the pixel value P is 8 bits, the value can be 0 to 255, and 256 entries are secured. Then, a pixel value P is assigned to each entry, and the number of pixels taking each pixel value P is stored in the corresponding entry. The example of FIG. 3 shows that the number of pixels at P = 0 is 1, the number of pixels at P = 1 is 2, the number of pixels at P = 2 is 2, and the number of pixels at P = 255 is 0. Show. Such an entry may be held in the storage device 50, for example. Furthermore, median calculations and order statistics can also be implemented with histograms and adders. More details are omitted, but the cost of hardware required to calculate statistics is low.

この統計量計算を高並列処理装置で行った場合、その計算のためのコストが高くなる。平均値の計算はピラミッドアルゴリズムが用いる場合が多い。ピラミッドアルゴリズムは以下のようにして行われる。例えば、(512×512)のサイズの輝度データがあったとすると、まず原画像D0において隣接する4つのピクセルの平均値を計算して、縦横がそれぞれ1/2(ピクセル数は1/4)の画像D1を作成する。次に、画像D1において隣接する4つのピクセルの平均値を計算して、縦横がさらに1/2となる画像D2を作成する。これを繰り返してゆくと、ピクセルの数は最終的に1個になり、そのピクセルの値が平均値になる。次第に画像が小さくなってゆくことから、ピラミッドアルゴリズムと名づけられている。分散計算のための二乗平均も同様にしてピラミッドアルゴリズムで計算ができる。ピラミッドアルゴリズムは画像が大きい場合は並列度が活かせるので効率がよいが、処理が進んで画像が小さくなると並列処理装置のうち動かない処理ユニットが発生する。特に並列度が高い場合は無駄な(要はデータが無くて動作していない)ユニットが多くなるといった問題がある。ほかの方法として、高並列処理装置のうち1ユニットだけを使って通常の方法で計算する方法もあるが、その間ほかのユニットが遊んでしまう可能性があるため、同様に無駄が生じる。   When this statistic calculation is performed by a highly parallel processing device, the cost for the calculation becomes high. The calculation of the average value is often used by the pyramid algorithm. The pyramid algorithm is performed as follows. For example, if there is luminance data having a size of (512 × 512), first, an average value of four adjacent pixels in the original image D0 is calculated, and the vertical and horizontal directions are each ½ (number of pixels is ¼). An image D1 is created. Next, an average value of four adjacent pixels in the image D1 is calculated, and an image D2 in which the vertical and horizontal directions are further halved is created. If this is repeated, the number of pixels finally becomes one, and the value of that pixel becomes an average value. Since the image gradually gets smaller, it is named the pyramid algorithm. Similarly, the mean square for variance calculation can be calculated by the pyramid algorithm. The pyramid algorithm is efficient because the degree of parallelism can be utilized when the image is large, but when the processing proceeds and the image becomes small, a processing unit that does not move is generated in the parallel processing device. In particular, when the degree of parallelism is high, there is a problem that the number of useless units (in short, there is no data and not operating) increases. As another method, there is a method of calculating by a normal method using only one unit of the highly parallel processing device, but other units may be idle during that time, and similarly wasteful.

同様に、ヒストグラム処理も高並列処理装置では効率的に実行することができない。平均値や分散の場合と同じく、高並列処理装置の各ユニットでの処理結果をマージする必要があり、そのマージ処理に関しては高並列処理装置で原理的に無駄なく処理することは難しい。   Similarly, histogram processing cannot be executed efficiently in a highly parallel processing device. As in the case of the average value and the variance, it is necessary to merge the processing results in each unit of the highly parallel processing device, and it is difficult in principle to process the merge processing without waste in the highly parallel processing device.

(2)画像処理効率を向上出来る。
本実施形態に係る構成であると、高並列処理装置40から分離された特徴量抽出装置32によって特徴量を抽出している。このように、並列化処理になじまない統計処理を専用のデバイスによって行い、高並列化処理装置40では一切行わないことで、特徴量の抽出効率が向上出来ると共に高並列処理装置40における処理効率を向上出来る。
(2) Image processing efficiency can be improved.
With the configuration according to the present embodiment, feature amounts are extracted by the feature amount extraction device 32 separated from the highly parallel processing device 40. In this way, statistical processing that is not compatible with parallel processing is performed by a dedicated device, and is not performed at all by the highly parallel processing device 40, so that the extraction efficiency of feature quantities can be improved and the processing efficiency in the high parallel processing device 40 can be improved. Can improve.

また、特徴量の抽出を高並列処理装置40から切り離すことで、特徴量抽出処理と、高並列処理装置40における処理とをパイプライン方式で処理出来る。この点について図4を用いて説明する。図4は画像処理時の各処理のタイミングチャートである。   Further, by separating the feature amount extraction from the highly parallel processing device 40, the feature amount extraction processing and the processing in the highly parallel processing device 40 can be processed in a pipeline manner. This point will be described with reference to FIG. FIG. 4 is a timing chart of each process during image processing.

図示するように、カメラ10からデータA〜Dが順次LSI20へ入力されたとする(ステップS11)。そして、時刻t1〜t4において、特徴量抽出装置32がデータA〜Dの特徴量をそれぞれ抽出する(ステップS12)。データAに着目すると、時刻t3で特徴量の転送が完了すると(ステップS13)、高並列処理装置40は特徴量抽出装置32の状況に関わらず処理を開始出来る(ステップS14)。特徴量抽出装置32も高並列処理装置40からは独立して動作しているので、高並列処理装置40がデータAに関する処理を行っている期間t3〜t4において、データCに関する特徴量抽出処理を実行出来る。このように、ステップS12乃至S14の処理は互いにオーバーラップさせることが出来る。従って、LSI20の処理効率を向上出来る。なお図4においては、簡単化のためにステップS11〜S14の処理にかかる時間が全て同一である場合について示している。しかし前述の通り、高並列処理装置40における処理が特徴量抽出後に開始されるタイミングであれば、処理に必要な時間は特に限定されない。   As shown in the figure, it is assumed that data A to D are sequentially input from the camera 10 to the LSI 20 (step S11). Then, at times t1 to t4, the feature quantity extraction device 32 extracts the feature quantities of the data A to D, respectively (step S12). Focusing on data A, when the transfer of the feature value is completed at time t3 (step S13), the highly parallel processing device 40 can start the processing regardless of the situation of the feature value extraction device 32 (step S14). Since the feature amount extraction device 32 also operates independently of the highly parallel processing device 40, the feature amount extraction processing for the data C is performed during the period t3 to t4 when the highly parallel processing device 40 performs the processing for the data A. Can be executed. As described above, the processes in steps S12 to S14 can be overlapped with each other. Therefore, the processing efficiency of the LSI 20 can be improved. Note that FIG. 4 shows a case where the time required for the processing of steps S11 to S14 is the same for simplification. However, as described above, the time required for the processing is not particularly limited as long as the processing in the highly parallel processing device 40 is started after the feature amount extraction.

次に、この発明の第2の実施形態に係る半導体集積回路装置、画像処理システム、及び画像処理方法について説明する。本実施形態は上記第1の実施形態の具体例に相当し、高並列処理装置40においてテンプレートマッチング(template matching)を行う際のものである。まずテンプレートマッチングについて図5を用いて説明する。図5はテンプレートマッチングの概念を示す図である。   Next, a semiconductor integrated circuit device, an image processing system, and an image processing method according to a second embodiment of the invention will be described. This embodiment corresponds to a specific example of the first embodiment described above, and is used when template matching is performed in the highly parallel processing device 40. First, template matching will be described with reference to FIG. FIG. 5 is a diagram showing the concept of template matching.

テンプレートマッチングは、ある特定の画像T(template)と同じ画像を、他の画像In+1の中から探すことを言う。例えば(64×64)個のピクセル(pixel)を含む画像Tを、(1024×1024)個のピクセルを含む画像In+1内を走査して、画像Tと一致する領域が画像In+1内にあるか否かを検出する。この画像Tは通常は画像In+1と同じサイズの画像Inの一部であり、すなわち画像Inのある部分が画像In+1でどの位置に移動しているかを検出するような場合にこのテンプレートマッチングが使うことを考える。   Template matching refers to searching for the same image as a specific image T (template) from other images In + 1. For example, an image T including (64 × 64) pixels is scanned in an image In + 1 including (1024 × 1024) pixels, and a region matching the image T is included in the image In + 1. It is detected whether it exists in. This image T is usually a part of the image In having the same size as the image In + 1. In other words, this template is used when detecting a position where a certain part of the image In has moved in the image In + 1. Think about what matching uses.

このようなテンプレートマッチングを高並列処理装置40が行う場合の画像処理方法について、図2における特にステップ12、S13の処理に着目して説明する。まずカメラ10からLSI20にデジタル画像データIn、In+1が入力される。デジタル画像データは、ピクセルの集合で表され、各ピクセルは明るさのレベル(濃淡)を示す階調を持つ。この階調のことを以下「画素値P」と呼ぶことにする。デジタル画像には、画素値が2つのレベルしかない2値画像と、画素値が多数のレベルに分かれる多値画像とがある。例えば画素値が8ビットで表される場合には、画素値は256個の階調を有する。   An image processing method in the case where the highly parallel processing device 40 performs such template matching will be described with particular attention to the processing in steps 12 and S13 in FIG. First, digital image data In and In + 1 are input from the camera 10 to the LSI 20. The digital image data is represented by a set of pixels, and each pixel has a gradation indicating a brightness level (shading). This gradation is hereinafter referred to as “pixel value P”. Digital images include a binary image having only two levels of pixel values and a multi-value image having pixel values divided into a number of levels. For example, when the pixel value is represented by 8 bits, the pixel value has 256 gradations.

まずステップS12において、特徴量抽出装置32は画像データInの画素値Pの平均値P〜と、画像データIn+1の画素値P’の平均値P’〜とを、特徴量として算出する。図6及び図7はそれぞれ、画像データIn及びIn+1の概念図である。図示するように、画像データInに含まれる(1024×1024)個のピクセルはそれぞれ画素値Pij(i=0〜1023、j=0〜1023)を有する。また画像データIn+1に含まれる(1024×1024)個のピクセルはそれぞれ画素値P’kl(k=0〜1023、l=0〜1023)を有している。ピクセルの数をNとすると、平均値P’〜は下記の式で求められる。
P’〜=ΣP’kl/N
P〜=ΣPij/N
すなわち画像In+1の画素値の平均値P’〜は、画像Iに含まれる全てのピクセルの画素値を加算し、それを全ピクセル数Nで割ることで得られる。P〜も同様の計算で得られる。以上のようにして求められた平均値P〜、P’〜は処理ユニット41へ転送される(ステップS13)。
First, in step S12, the feature quantity extraction device 32 calculates the average value P˜ of the pixel values P of the image data In and the average value P ′ of the pixel values P ′ of the image data In + 1 as feature quantities. 6 and 7 are conceptual diagrams of the image data In and In + 1, respectively. As shown in the figure, (1024 × 1024) pixels included in the image data In each have a pixel value Pij (i = 0 to 1023, j = 0 to 1023). The (1024 × 1024) pixels included in the image data In + 1 have pixel values P′kl (k = 0 to 1023, l = 0 to 1023), respectively. When the number of pixels is N, the average value P′˜ is obtained by the following equation.
P '~ = ΣP'kl / N
P ~ = ΣPij / N
That is, the average value P′˜ of the pixel values of the image In + 1 is obtained by adding the pixel values of all the pixels included in the image I and dividing the result by the total number N of pixels. P˜ is also obtained by the same calculation. The average values P˜ and P′˜ obtained as described above are transferred to the processing unit 41 (step S13).

次に、高並列処理装置40がテンプレートマッチングを行う(ステップS14)。すなわち、図5に示す画像Tが画像Iに含まれるか否かを検出するために、互いのピクセルの画素値PijとP’klとの差分Aを計算する。そして差分Aがある閾値Athよりも小さい場合、その領域に画像Tが含まれるものと判定する。例えば、画像T、Iについての画素値Pij、P’klがそれぞれ図8、図9のようであったと仮定する。図7は縦軸に画素値Pを取り、横軸に(64×64)個のピクセルを並べたグラフである。図8は縦軸に画素値P’を取り、横軸に(1024×1024)個のピクセルを並べたグラフである。   Next, the highly parallel processing device 40 performs template matching (step S14). That is, in order to detect whether the image T shown in FIG. 5 is included in the image I, the difference A between the pixel values Pij and P′kl of the pixels is calculated. If the difference A is smaller than a certain threshold Ath, it is determined that the image T is included in the area. For example, assume that the pixel values Pij and P′kl for the images T and I are as shown in FIGS. FIG. 7 is a graph in which the vertical axis represents the pixel value P and the horizontal axis represents (64 × 64) pixels. FIG. 8 is a graph in which the vertical axis represents the pixel value P ′ and the horizontal axis represents (1024 × 1024) pixels.

高並列処理装置40は、画像Iにおける(64×64)個のピクセルを含む各領域について下記の計算を行い、画像T、Iの差分Aを取得する。
A=Σ|(Pij−P〜)−(P’kl−P’〜)|
すなわち、画像Tに含まれる全てのピクセルの画素値Pijから平均値P〜を減算する。また画像In+1において画像Tとの比較対象となる領域に含まれる全ての画素値P’klから平均値P’〜を減算する。そして両者の差分を差分値Aとする。この処理がテンプレートマッチングである。このテンプレートマッチングを、画像In+1の全ての領域について繰り返し行う。テンプレートマッチングの処理はそれぞれ独立して実行可能であるので、画像I内の各領域における画像Tの探索は、処理ユニット41のそれぞれにおいて並列的に行われる。すると図8に示すように、画像In+1における領域AREA1において差分値Aが閾値Athを下回るので、この領域AREA1に画像Tが存在することが分かる。以上のようにしてテンプレートマッチングが完了する。
The highly parallel processing device 40 performs the following calculation for each region including (64 × 64) pixels in the image I, and obtains the difference A between the images T and I.
A = Σ | (Pij−P˜) − (P′kl−P′˜) |
That is, the average value P˜ is subtracted from the pixel values Pij of all the pixels included in the image T. Further, the average value P′˜ is subtracted from all the pixel values P′kl included in the region to be compared with the image T in the image In + 1. The difference between the two is defined as a difference value A. This process is template matching. This template matching is repeated for all regions of the image In + 1. Since the template matching process can be performed independently, the search for the image T in each region in the image I is performed in parallel in each of the processing units 41. Then, as shown in FIG. 8, since the difference value A is lower than the threshold value Ath in the area AREA1 in the image In + 1, it can be seen that the image T exists in the area AREA1. Template matching is completed as described above.

なお、上記第1および第2の実施形態では、画素値Pij、Pklから平均値を減算したもの同士の差分を計算する場合について説明した。しかし、更に画像の分散σ、σ’を計算し、画素値から平均値を減算した結果を分散で除算しても良い。すなわち、差分Aを下記の式により算出する方法もある(第2の実施形態)。
A=Σ|(Pij−P〜)/σ−(P’kl−P’〜)/σ’|
このように分散を用いることで、差分Aは周囲環境の影響に対して更にロバスト(robust)となる。分散σ、σ’の算出は、ステップS14において高並列処理装置40が行っても良いし、または分散を特徴量として扱い、ステップS12において特徴量抽出装置32が行っても良い。
In the first and second embodiments, the case where the difference between the pixel values Pij and Pkl obtained by subtracting the average value is calculated has been described. However, image variances σ and σ ′ may be calculated, and the result of subtracting the average value from the pixel value may be divided by the variance. That is, there is also a method for calculating the difference A by the following equation (second embodiment).
A = Σ | (Pij−P˜) / σ− (P′kl−P′˜) / σ ′ |
By using dispersion in this way, the difference A becomes more robust against the influence of the surrounding environment. The calculation of the variances σ and σ ′ may be performed by the highly parallel processing device 40 in step S14, or may be performed by the feature amount extraction device 32 in step S12, treating the variance as a feature amount.

本実施形態に係る構成及び方法であると、上記第1の実施形態で説明した効果(1)、(2)に加えて下記(3)の効果を得ることが出来る。
(3)テンプレートマッチングの精度を向上出来る。
本実施形態に係る方法であると、各画像データにおいて、画素値の平均値を特徴量として算出している。そして、この平均値を実際の画素値から減算した上で、差分値Aを計算している。従って、余計なバックグラウンドの影響を除去し、テンプレートマッチングの精度を向上出来る。
With the configuration and method according to the present embodiment, the following effect (3) can be obtained in addition to the effects (1) and (2) described in the first embodiment.
(3) The accuracy of template matching can be improved.
In the method according to the present embodiment, an average value of pixel values is calculated as a feature amount in each image data. The difference value A is calculated after subtracting the average value from the actual pixel value. Therefore, it is possible to remove the influence of extra background and improve the accuracy of template matching.

具体的には、例えば環境光の影響を低減できる。例えばカメラ10が画像T、画像Iを撮影する際、周囲の明るさに違いがあったとする。図8、図9に示す場合であると、画像Tの撮影時よりも画像Iの撮影時の方が明るく、P’〜がP〜よりも非常に大きい場合には、画像Iにおける全ての領域で差分値Aが閾値Athを上回ったり、または領域AREA1以外の領域で差分値Aが閾値Athを下回ったりする現象が起こりうる。この場合、画像I内における画像Tは正しく認識されない。   Specifically, for example, the influence of ambient light can be reduced. For example, when the camera 10 captures images T and I, it is assumed that there is a difference in ambient brightness. In the case shown in FIGS. 8 and 9, when the image I is captured more brightly than when the image T is captured, and P′˜ is much larger than P˜, all the regions in the image I are captured. Thus, a phenomenon may occur in which the difference value A exceeds the threshold value Ath or the difference value A falls below the threshold value Ath in an area other than the area AREA1. In this case, the image T in the image I is not correctly recognized.

しかし本実施形態であると、画像T、画像Iの画素値Pij、Pklから予め平均値P〜、P’〜を減算している。すなわち、それぞれの画像の背景にある成分を除去している。従って、平均値を減算することで画像T、画像Iにおける正味の画像データが得られる。従って、撮影時に周囲の明るさの違いがあったとしても、この周囲の明るさ成分を画像T、画像Iから除去出来るので、正確なテンプレートマッチングが可能となる。   However, in this embodiment, the average values P˜ and P′˜ are subtracted from the pixel values Pij and Pkl of the images T and I in advance. That is, the component in the background of each image is removed. Therefore, the net image data in the images T and I can be obtained by subtracting the average value. Therefore, even if there is a difference in ambient brightness at the time of shooting, the ambient brightness component can be removed from the images T and I, so that accurate template matching is possible.

また上記(1)、(2)の効果については、本実施形態であると、高並列処理装置40は画素値の平均値を算出するアルゴリズムを必要としないので、プログラムを簡略化出来る。また、一般的に平均値を求める処理は並列化に向いておらず、この処理を特徴量抽出装置32に行わせることで、高並列処理装置40はテンプレートマッチングの処理のみを行えば良く、探索効率を向上出来る。   As for the effects (1) and (2), in the present embodiment, the highly parallel processing device 40 does not require an algorithm for calculating the average value of the pixel values, so that the program can be simplified. In general, the process of obtaining an average value is not suitable for parallelization. By causing the feature amount extraction apparatus 32 to perform this process, the highly parallel processing apparatus 40 only needs to perform the template matching process. Efficiency can be improved.

次に、この発明の第3の実施形態に係る半導体集積回路装置、画像処理システム、及び画像処理方法について説明する。本実施形態は上記第1の実施形態の具体例に相当し、高並列処理装置40において画像符号化処理の一部を行う際のものである。   Next explained is a semiconductor integrated circuit device, an image processing system and an image processing method according to the third embodiment of the invention. This embodiment corresponds to a specific example of the first embodiment described above, and is used when a part of the image encoding process is performed in the highly parallel processing device 40.

図10は本実施形態に係るLSI20のブロック図である。図示するように本実施形態に係るLSI20は、上記第1の実施形態で説明した構成において、更にMPEG(Moving Picture coding Experts Group)デコーダ80を備えている。MPEGデコーダ80の構成について図11を用いて説明する。図11はMPEGデコーダ80のブロック図である。   FIG. 10 is a block diagram of the LSI 20 according to the present embodiment. As shown in the figure, the LSI 20 according to the present embodiment further includes an MPEG (Moving Picture coding Experts Group) decoder 80 in the configuration described in the first embodiment. The configuration of the MPEG decoder 80 will be described with reference to FIG. FIG. 11 is a block diagram of the MPEG decoder 80.

MPEGデコーダ80は入力バッファ31に入力された動画像をMPEGの規格にエンコードする。図示するようにMPEGデコーダ80は、加減算器81、82、DCT(Discrete Cosine Transform)部83、量子化部84、可変長符号化部85、バッファ86、87、レート制御部88、逆量子化部89、逆DCT部90、及び動き補償予測部91を備えている。
DCT部83は、入力された画像データを周波数領域に直交変換する。量子化部84は、DCT部83で得られた標本値を一定のステップ幅で区分する。すなわち、標本値をステップ幅でわり算し、その値を丸めることでデータレートを削減する。このステップ幅はレート制御部88によって決定される。可変長符号化部85は、量子化部でデータを削減された画像データを、例えばハフマン符号化する。これによりMPEGデータが得られ、バッファ86に格納される。逆量子化部89及び逆DCT部90は、DCT部83及び量子化部84で符号化された画像データをデコードする。デコードされた画像データはバッファ87に格納され、更に動き補償予測部91で動き予測(ME:Motion estimation)のために用いられる。本実施形態では、高並列処理装置40における各処理ユニット41が動き補償予測部91として機能する。
The MPEG decoder 80 encodes the moving image input to the input buffer 31 to the MPEG standard. As shown in the figure, an MPEG decoder 80 includes adders / subtracters 81 and 82, a DCT (Discrete Cosine Transform) unit 83, a quantization unit 84, a variable length coding unit 85, buffers 86 and 87, a rate control unit 88, and an inverse quantization unit. 89, an inverse DCT unit 90, and a motion compensation prediction unit 91.
The DCT unit 83 orthogonally transforms the input image data into the frequency domain. The quantization unit 84 divides the sample value obtained by the DCT unit 83 with a constant step width. In other words, the data rate is reduced by dividing the sample value by the step width and rounding the value. This step width is determined by the rate control unit 88. The variable length coding unit 85 performs, for example, Huffman coding on the image data whose data has been reduced by the quantization unit. Thereby, MPEG data is obtained and stored in the buffer 86. The inverse quantization unit 89 and the inverse DCT unit 90 decode the image data encoded by the DCT unit 83 and the quantization unit 84. The decoded image data is stored in the buffer 87 and further used by the motion compensation prediction unit 91 for motion estimation (ME). In the present embodiment, each processing unit 41 in the highly parallel processing device 40 functions as the motion compensation prediction unit 91.

動画を構成する、個々の時間における1枚の画像はフレーム(frame)と呼ばれている。DCTと量子化が1つのフレームを空間として圧縮するのに対して、動き予測は連続する2つのフレームにまたがるデータ圧縮を行う。動き予測は、2つの連続するフレームをデルタ解析してフレーム間で各エリアが変化したか、どのように移動したかを判断する。ある画像エリアが1つの前のフレームと同一であれば、そのフレームと同じように表示すれば良い。また、画像エリアがいずれかの方向へ移動した場合には、表示すべき画像は1つの前のフレームと同一であり、それを特定の方向へある量だけ動かせば良い。これは実際には動き補償予測部91において動きベクトル(MV:Motion Vector)を生成することによって行われる。このように、動きベクトルを求めることにより、冗長なデータを大幅に削減出来る。   One image at an individual time constituting a moving image is called a frame. While DCT and quantization compress one frame as space, motion prediction performs data compression across two consecutive frames. In motion prediction, two consecutive frames are delta-analyzed to determine whether or not each area has changed between frames. If a certain image area is the same as the previous frame, it may be displayed in the same manner as that frame. When the image area moves in any direction, the image to be displayed is the same as the previous frame, and it is only necessary to move it by a certain amount in a specific direction. This is actually performed by generating a motion vector (MV) in the motion compensation prediction unit 91. In this manner, redundant data can be greatly reduced by obtaining a motion vector.

動き予測を行うために動き補償予測部91は、1つ前のフレームの全領域と現在のフレームの全領域との間で、第2の実施形態で説明したテンプレートマッチングを実行する。これによって、1つ前のフレームにおける所定の領域が、次のフレーム内においてどの方向へどれだけ移動したかが分かる。図12は、2つのフレーム間で物体(object)が移動する様子を示している。例えば時刻t1(フレーム1)において表示されていた物体が、時刻t2(フレーム2)において図示するような動きベクトルMVにより示されるように移動したとする。すると、特徴量抽出装置32はフレーム1、フレーム2の画素値P、P’の平均値P〜、P’〜を算出し(ステップS12)、求めた平均値P〜、P’〜を特徴量記憶装置42へ転送する(ステップS13)。また、入力バッファ31から処理ユニット42の各々へフレーム2の各領域が転送され、逆量子化部89及び逆DCT部90で再生されたフレーム1の各領域が、バッファ87から処理ユニット42の各々へ転送される(ステップS12)。そして、処理ユニット42の各々がフレーム1とフレーム2とのテンプレートマッチングを行う(ステップS14)。テンプレートマッチングの様子を図13に示す。   In order to perform motion prediction, the motion compensation prediction unit 91 performs the template matching described in the second embodiment between the entire region of the previous frame and the entire region of the current frame. As a result, it can be determined how much and in which direction the predetermined area in the previous frame has moved in the next frame. FIG. 12 shows how an object moves between two frames. For example, it is assumed that the object displayed at time t1 (frame 1) moves as indicated by a motion vector MV as illustrated at time t2 (frame 2). Then, the feature quantity extraction device 32 calculates the average values P˜ and P′˜ of the pixel values P and P ′ of the frames 1 and 2 (step S12), and uses the obtained average values P˜ and P′˜ as the feature quantities. The data is transferred to the storage device 42 (step S13). Each region of frame 2 is transferred from the input buffer 31 to each of the processing units 42, and each region of frame 1 reproduced by the inverse quantization unit 89 and the inverse DCT unit 90 is transferred from the buffer 87 to each of the processing units 42. (Step S12). Then, each of the processing units 42 performs template matching between the frame 1 and the frame 2 (step S14). A state of template matching is shown in FIG.

ステップS14では第2の実施形態と同様に、フレーム1の画素値Pからその平均値P〜が減算され、フレーム2の画素値P’からその平均値P’〜が減算される。その上で、両画素値の差分値Aを算出する。そして、差分値Aが閾値Ath以下になる領域を探索することで、物体の動きベクトルMVが計算出来る。   In step S14, as in the second embodiment, the average value P˜ is subtracted from the pixel value P of frame 1, and the average value P′˜ is subtracted from the pixel value P ′ of frame 2. Then, a difference value A between the two pixel values is calculated. The object motion vector MV can be calculated by searching for a region where the difference value A is equal to or less than the threshold value Ath.

本実施形態に係る構成及び方法であると、上記第1、第2の実施形態で説明した効果(1)乃至(3)が得られる。また(3)の効果によって、MPEG符号化精度が向上出来る。   With the configuration and method according to the present embodiment, the effects (1) to (3) described in the first and second embodiments can be obtained. Also, the effect of (3) can improve the MPEG encoding accuracy.

次に、この発明の第4の実施形態に係る半導体集積回路装置、画像処理システム、及び画像処理方法について説明する。本実施形態は上記第1の実施形態の具体例に相当し、高並列処理装置40において二値化処理を行う際のものである。従って、画像処理システムの構成は上記第1の実施形態と同様であるので説明は省略する。   Next explained is a semiconductor integrated circuit device, an image processing system and an image processing method according to the fourth embodiment of the invention. This embodiment corresponds to a specific example of the first embodiment, and is for performing binarization processing in the highly parallel processing device 40. Therefore, the configuration of the image processing system is the same as that in the first embodiment, and a description thereof will be omitted.

二値化処理とは、画像の画素値を“0”か“1”かのいずれかにする処理であり、画素値がある閾値を超えたか否かによって“0”にするか“1”にするかが決定される。通常の本実施形態では、高並列処理装置40が二値化処理を行い、閾値を決定するためにヒストグラム(histgram)を統計処理ハードウェアが作成する。ヒストグラムとは、第1の実施形態で説明したとおり、1枚の画像の全域(または一部分)について、各画素値の出現頻度(ピクセル数)をカウントしたものである。閾値を決定する方法について図14、図15を用いて説明する。図14、図15は、縦軸にピクセル数をプロットし、横軸に画素値Pをプロットしたグラフである。例えば図14に示すように、画素値の最も大きい部分から、全ピクセル数に対してx%までの画素値を閾値Pthとすることが出来る。また図15に示すように、2個のピークとその間の谷が明らかな場合には、その谷の位置を閾値Pthとすることも出来る。二値化処理は通常画像認識のための前処理として用いられる。   The binarization process is a process for changing the pixel value of an image to “0” or “1”, and is set to “0” or “1” depending on whether the pixel value exceeds a certain threshold value. It is decided whether to do. In the normal embodiment, the highly parallel processing device 40 performs binarization processing, and statistical processing hardware creates a histogram (histgram) in order to determine a threshold value. As described in the first embodiment, the histogram is obtained by counting the appearance frequency (number of pixels) of each pixel value for the entire area (or a part) of one image. A method for determining the threshold will be described with reference to FIGS. 14 and 15 are graphs in which the number of pixels is plotted on the vertical axis and the pixel value P is plotted on the horizontal axis. For example, as shown in FIG. 14, a pixel value from the largest pixel value to x% of the total number of pixels can be set as the threshold value Pth. Further, as shown in FIG. 15, when two peaks and a valley between them are clear, the position of the valley can be set as the threshold value Pth. Binarization processing is usually used as preprocessing for image recognition.

次に、本実施形態に係る二値化処理方法について図16のフローチャートを用いて説明する。以下では特にステップS14の処理に着目して説明する。ステップS11の後、特徴量抽出装置32が画像データの画素値Pijのヒストグラムを作成し、特徴量記憶装置42へ転送される(ステップS12、S13)。ヒストグラムの作成方法は第1の実施形態で説明したとおりである。また画像データが高並列処理装置40の各処理ユニット41へ転送される(ステップS12)。   Next, the binarization processing method according to the present embodiment will be described with reference to the flowchart of FIG. In the following, description will be given with particular attention to the processing in step S14. After step S11, the feature quantity extraction device 32 creates a histogram of the pixel values Pij of the image data and transfers it to the feature quantity storage device 42 (steps S12 and S13). The method for creating the histogram is as described in the first embodiment. Further, the image data is transferred to each processing unit 41 of the highly parallel processing device 40 (step S12).

次に、高並列処理装置40が二値化処理を開始する(ステップS14−1)。まず各処理ユニット41が、ヒストグラムから閾値Pthを計算する(ステップS14−2)。例えば図14または図15で説明した方法を用いて閾値Pthを決定する。あるいは、閾値Pthまでの算出を徴量抽出装置32で行うという手法も考えられる。高並列処理装置におけるプログラミングを容易にするという観点からはこちらが望ましい。   Next, the highly parallel processing device 40 starts binarization processing (step S14-1). First, each processing unit 41 calculates a threshold value Pth from the histogram (step S14-2). For example, the threshold value Pth is determined using the method described with reference to FIG. Alternatively, a method of performing calculation up to the threshold value Pth by the collection amount extraction device 32 is also conceivable. This is desirable from the viewpoint of facilitating programming in a highly parallel processing device.

次に、各処理ユニット41が各ピクセルの画素値(Pij−P〜)と閾値Pthとを比較する(ステップS14−3)。ここで用いられる画素値Pijは、勿論、平均値P〜を減算した後の値である。Pij≧Pthの場合にはPij=“1”とし(ステップ(S14−4)、Pij<Pthの場合にはPij=“0”とする(ステップS14−5)。この処理を全てのピクセルについて行い、二値化処理が終了する。   Next, each processing unit 41 compares the pixel value (Pij−P˜) of each pixel with the threshold value Pth (step S14-3). The pixel value Pij used here is, of course, a value after subtracting the average value P˜. When Pij ≧ Pth, Pij = “1” (step (S14-4), and when Pij <Pth, Pij = “0”) (step S14-5) This process is performed for all pixels. The binarization process ends.

本実施形態に係る構成及び方法であると、更にヒストグラムを特徴量として用いている。そして、このヒストグラムを用いることにより二値化処理を行っている。従って、上記第1の実施形態で説明した効果(1)、(2)の効果が得られる。
上記のように、この発明の第1乃至第4の実施形態に係るLSI、画像処理システム、及び画像処理方法であると、統計処理を行う特徴量抽出装置32が高並列処理装置40から分離・独立している。そして各処理ユニット41はメモリ42から特徴量を自由に読み出すことが出来る。従って、高並列処理装置40における処理プログラムには、統計処理を考慮する必要がなく、また必要に応じて特徴量をメモリ42から読み出して処理を行うことができる。従って、高並列処理装置40における処理プログラムを簡略化出来、プログラマの負担を大幅に軽減できる。また、高並列処理装置40が統計処理を行う必要がないので、特徴量の抽出効率が向上出来ると共に高並列処理装置40における処理効率を向上出来る。更に上記構成はテンプレートマッチングやMPEGデコードに適用することで、これらの処理精度を向上出来る。
In the configuration and method according to the present embodiment, a histogram is further used as a feature amount. Then, binarization processing is performed by using this histogram. Therefore, the effects (1) and (2) described in the first embodiment can be obtained.
As described above, in the LSI, the image processing system, and the image processing method according to the first to fourth embodiments of the present invention, the feature quantity extraction device 32 that performs statistical processing is separated from the highly parallel processing device 40. being independent. Each processing unit 41 can freely read the feature value from the memory 42. Therefore, it is not necessary to consider statistical processing in the processing program in the highly parallel processing device 40, and the feature amount can be read from the memory 42 and processed as necessary. Therefore, the processing program in the highly parallel processing device 40 can be simplified, and the burden on the programmer can be greatly reduced. In addition, since it is not necessary for the highly parallel processing device 40 to perform statistical processing, the feature extraction efficiency can be improved and the processing efficiency in the highly parallel processing device 40 can be improved. Furthermore, the processing accuracy can be improved by applying the above configuration to template matching and MPEG decoding.

また、上記実施形態では高並列処理装置40内の全ての処理ユニット41が同一の1種類の処理を行う場合について説明した。しかし図17に示すように、処理ユニット41のそれぞれは記憶装置50からプログラム51−1、51−2、…のいずれかをメインメモリ100に読み出し、適宜そのプログラムに従って処理を行えば良い。この際、いずれのプログラムを実行するかは、例えばプログラムカウンタ110等によって指定することも可能である。よって、処理ユニット41の各々が、それぞれ異なるプログラムに基づいて異なる処理を実行することも可能である。   In the above-described embodiment, a case has been described in which all the processing units 41 in the highly parallel processing device 40 perform the same type of processing. However, as shown in FIG. 17, each of the processing units 41 may read one of the programs 51-1, 51-2,... From the storage device 50 to the main memory 100 and perform processing according to the program as appropriate. At this time, which program is to be executed can be designated by the program counter 110 or the like, for example. Therefore, it is also possible for each of the processing units 41 to execute different processes based on different programs.

また上記第3の実施形態では、DCTや量子化の処理を専用のハードウェア80を用いて行っているが、これらの処理を高並列処理装置40でソフトウェアを用いて行っても良い。更に第4の実施形態において、閾値Pthを特徴量として扱い、ヒストグラムの作成及び閾値決定をステップS12において特徴量抽出装置32が行っても良い。   In the third embodiment, the DCT and quantization processes are performed using the dedicated hardware 80. However, these processes may be performed by the highly parallel processing device 40 using software. Furthermore, in the fourth embodiment, the threshold value Pth may be treated as a feature value, and the feature value extraction device 32 may perform histogram creation and threshold value determination in step S12.

なお、特徴量抽出装置32は高並列処理装置40から独立して動作可能で、且つ特徴量を処理ユニットが自由に読み出せるものであれば、その構成は特に限定されるものではない。そして特徴量の計算はハードウェアで処理しても良いし、またはソフトウェアで処理しても良い。必要で有ればスカラープロセッサを用いてファームウェアで統計処理しても良い。   The configuration of the feature quantity extraction device 32 is not particularly limited as long as the feature quantity extraction device 32 can operate independently from the highly parallel processing device 40 and the processing unit can freely read the feature quantity. The feature amount calculation may be processed by hardware or may be processed by software. If necessary, statistical processing may be performed by firmware using a scalar processor.

すなわち、この発明の実施形態に係る半導体集積回路装置は、
1.デジタルの画像データについて統計処理を行って特徴量を抽出する特徴量抽出装置と、
複数の処理ユニットを備え、各々の処理ユニットがそれぞれ前記特徴量を用いて前記画像データに関する処理を行う並列処理装置とを具備し、前記処理ユニットの各々は、前記特徴量抽出装置で抽出された前記特徴量を保持する保持回路を備え、該保持回路に保持する前記特徴量を用いて処理を行い、前記特徴量抽出装置は、前記並列処理装置から独立して演算を行う。
2.上記1において、前記特徴量は、前記画像データにおいて、複数のピクセルを含む領域の画素値の平均値である。
3.上記1または2において、前記処理ユニットを動作させるための複数のプログラムを保持する記憶装置と、
前記プログラムが読み出されるメインメモリとを更に備え、前記処理ユニットは前記メインメモリに読み出されたいずれかの前記プログラムに基づいて処理を実行する。
That is, the semiconductor integrated circuit device according to the embodiment of the present invention is
1. A feature extraction device that performs statistical processing on digital image data and extracts features;
A plurality of processing units, and each processing unit includes a parallel processing device that performs processing on the image data using the feature amount, and each of the processing units is extracted by the feature amount extraction device. A holding circuit for holding the feature quantity is provided, and processing is performed using the feature quantity held in the holding circuit, and the feature quantity extraction device performs an operation independently of the parallel processing device.
2. In the above item 1, the feature amount is an average value of pixel values of a region including a plurality of pixels in the image data.
3. In the above 1 or 2, a storage device that holds a plurality of programs for operating the processing unit;
A main memory from which the program is read, and the processing unit executes a process based on any of the programs read to the main memory.

また上記実施形態に係る画像処理システムは、
4.上記1乃至3いずれか1項記載の半導体集積回路装置と、
画像を撮影してデジタルの前記画像データを取得する撮像装置とを具備し、前記半導体集積回路は前記撮像装置から前記画像データが転送され、該画像データを一時的に保持するバッファ回路と、
前記並列処理装置で処理された前記画像データを記憶する記憶装置とを更に備え、前記特徴量抽出装置は前記バッファ回路に転送された前記画像データについて前記特徴量を抽出する。
The image processing system according to the above embodiment is
4). 4. The semiconductor integrated circuit device according to any one of 1 to 3 above;
An image pickup device for taking an image and acquiring the digital image data, and the semiconductor integrated circuit receives the image data from the image pickup device, and temporarily holds the image data;
And a storage device for storing the image data processed by the parallel processing device, wherein the feature amount extraction device extracts the feature amount of the image data transferred to the buffer circuit.

更に上記実施形態に係る画像処理方法は、
5.複数の処理ユニットを備えた並列処理装置を用いて画像データを処理する画像処理方法であって、前記画像データを受信するステップと、
受信した前記画像データについて特徴量抽出装置が特徴量を計算するステップと、
前記特徴量を前記処理ユニットの各々に転送するステップと、
転送された前記特徴量を用いて、前記処理ユニットの各々が前記画像データに関する処理を行うステップとを具備する
更に半導体集積回路装置は、
6.上記2において前記並列処理装置は、2つの前記画像データに含まれる前記ピクセルの前記画素値から前記特徴量を減算し、前記2つの画像データ間における前記減算結果の差分を計算する。
7.上記6において前記並列処理装置は、前記減算結果を前記画像データの前記画素値の分散で除算し、前記2つの画像データ間における前記除算結果の差分を計算する。
8.上記2において前記並列処理装置は、前記画像データに含まれる前記ピクセルの前記画素値から前記特徴量に基づいて前記画像データを二値化し、前記特徴量がヒストグラムである。
Furthermore, the image processing method according to the above embodiment is as follows.
5. An image processing method for processing image data using a parallel processing device having a plurality of processing units, the step of receiving the image data;
A feature amount extraction device calculating a feature amount for the received image data;
Transferring the feature quantity to each of the processing units;
Each of the processing units performs processing related to the image data using the transferred feature quantity. Further, the semiconductor integrated circuit device comprises:
6). In 2 above, the parallel processing device subtracts the feature amount from the pixel values of the pixels included in the two image data, and calculates a difference between the subtraction results between the two image data.
7). In the above item 6, the parallel processing device divides the subtraction result by the variance of the pixel values of the image data, and calculates a difference between the division results between the two image data.
8). In the above item 2, the parallel processing device binarizes the image data based on the feature amount from the pixel value of the pixel included in the image data, and the feature amount is a histogram.

更に画像処理方法は、
9.上記5において前記特徴量は、前記画像データにおいて、複数のピクセルを含む領域の画素値の平均値である。
10.上記9において、前記画像データに関する処理を行うステップは、2つの前記画像データに含まれる前記ピクセルの前記画素値から前記特徴量を減算するステップと、
前記減算するステップで得られた減算結果の、前記2つの画像データ間における差分を計算するステップとを備える。
11.上記9において、前記画像データに関する処理を行うステップは、2つの前記画像データに含まれる前記ピクセルの前記画素値から前記特徴量を減算するステップと、
前記減算するステップで得られた減算結果を、それぞれの画像データにおける前記画素値の分散で除算するステップと、
前記除算するステップで得られた除算結果を、前記2つの画像データ間における差分を計算するステップとを備える。
12.上記9において、前記画像データに関する処理を行うステップは、ヒストグラムを作成するステップと、
前記ヒストグラムを基にして前記画像データを二値化するステップとを備える。
Furthermore, the image processing method
9. In the above item 5, the feature amount is an average value of pixel values of a region including a plurality of pixels in the image data.
10. In step 9, the step of performing the process relating to the image data includes subtracting the feature amount from the pixel values of the pixels included in the two image data;
Calculating a difference between the two image data of the subtraction result obtained in the subtracting step.
11. In step 9, the step of performing the process relating to the image data includes subtracting the feature amount from the pixel values of the pixels included in the two image data;
Dividing the subtraction result obtained in the subtracting step by the variance of the pixel values in the respective image data;
A step of calculating a difference between the two image data based on the division result obtained in the dividing step.
12 9. In the above 9, the processing relating to the image data includes the step of creating a histogram,
And binarizing the image data based on the histogram.

更に画像処理システムは、
13.上記4において前記並列処理装置は、2つの前記画像データに含まれる前記ピクセルの前記画素値から前記特徴量を減算し、前記2つの画像データ間における前記減算結果の差分を計算する。
14.上記13において前記並列処理装置は、前記減算結果を前記画像データの前記画素値の分散で除算し、前記2つの画像データ間における前記除算結果の差分を計算する。
15.上記4において前記並列処理装置は、前記画像データに含まれる前記ピクセルの前記画素値から前記特徴量に基づいて前記画像データを二値化する。
Furthermore, the image processing system
13. In 4 above, the parallel processing device subtracts the feature amount from the pixel values of the pixels included in the two image data, and calculates a difference between the subtraction results between the two image data.
14 In the above 13, the parallel processing device divides the subtraction result by the variance of the pixel values of the image data, and calculates a difference of the division result between the two image data.
15. In the above item 4, the parallel processing device binarizes the image data based on the feature amount from the pixel value of the pixel included in the image data.

なお、本願発明は上記実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。更に、上記実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組み合わせにより種々の発明が抽出されうる。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除された構成が発明として抽出されうる。   Note that the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the scope of the invention in the implementation stage. Furthermore, the above embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some constituent requirements are deleted from all the constituent requirements shown in the embodiment, the problem described in the column of the problem to be solved by the invention can be solved, and the effect described in the column of the effect of the invention Can be extracted as an invention from which this configuration requirement is deleted.

この発明の第1の実施形態に係る画像処理システムのブロック図。1 is a block diagram of an image processing system according to a first embodiment of the present invention. この発明の第1の実施形態に係る画像処理方法のフローチャート。1 is a flowchart of an image processing method according to the first embodiment of the present invention. この発明の第1の実施形態に係る画像処理装置の備える記憶装置内のメモリ空間の概念図。1 is a conceptual diagram of a memory space in a storage device included in an image processing apparatus according to a first embodiment of the present invention. この発明の第1の実施形態に係る画像処理方法における各ステップのタイミングチャート。4 is a timing chart of each step in the image processing method according to the first embodiment of the present invention. この発明の第2の実施形態に係る画像処理方法におけるテンプレートマッチングの概念図。The conceptual diagram of the template matching in the image processing method which concerns on 2nd Embodiment of this invention. この発明の第2の実施形態に係る画像処理方法における特徴量の算出方法を説明するためのもので、N個のピクセルを含む画像Iの模式図。The schematic diagram of the image I which is for demonstrating the calculation method of the feature-value in the image processing method which concerns on 2nd Embodiment of this invention, and contains N pixels. この発明の第2の実施形態に係る画像処理方法における特徴量の算出方法を説明するためのもので、N個のピクセルを含む画像In+1の模式図。The schematic diagram of the image In + 1 containing N pixels for demonstrating the calculation method of the feature-value in the image processing method which concerns on 2nd Embodiment of this invention. この発明の第2の実施形態に係る画像処理方法におけるテンプレートマッチングを説明するためのもので、位置と画素値との関係を示すグラフ。The graph for demonstrating the template matching in the image processing method which concerns on 2nd Embodiment of this invention, and shows the relationship between a position and a pixel value. この発明の第2の実施形態に係る画像処理方法におけるテンプレートマッチングを説明するためのもので、位置と画素値との関係を示すグラフ。The graph for demonstrating the template matching in the image processing method which concerns on 2nd Embodiment of this invention, and shows the relationship between a position and a pixel value. この発明の第3の実施形態に係る画像処理装置のブロック図。The block diagram of the image processing apparatus which concerns on 3rd Embodiment of this invention. この発明の第3の実施形態に係る画像処理装置の備えるMPEGデコーダのブロック図。The block diagram of the MPEG decoder with which the image processing apparatus which concerns on 3rd Embodiment of this invention is provided. この発明の第3の実施形態に係る画像処理方法における動き補償予測の概念図。The conceptual diagram of the motion compensation prediction in the image processing method which concerns on 3rd Embodiment of this invention. この発明の第3の実施形態に係る画像処理方法における動き補償予測を説明するためのもので、位置と画素値との関係を示すグラフ。The graph for demonstrating the motion compensation prediction in the image processing method which concerns on the 3rd Embodiment of this invention, and shows the relationship between a position and a pixel value. この発明の第4の実施形態に係る画像処理方法における二値化処理を説明するためのもので、画素値とピクセル数との関係を示すグラフ。The graph which is for demonstrating the binarization process in the image processing method which concerns on 4th Embodiment of this invention, and shows the relationship between a pixel value and the number of pixels. この発明の第4の実施形態に係る画像処理方法における二値化処理を説明するためのもので、画素値とピクセル数との関係を示すグラフ。The graph which is for demonstrating the binarization process in the image processing method which concerns on 4th Embodiment of this invention, and shows the relationship between a pixel value and the number of pixels. この発明の第4の実施形態に係る画像処理方法のフローチャート。The flowchart of the image processing method which concerns on 4th Embodiment of this invention. この発明の第1乃至第4の実施形態の変形例に係る画像処理装置のブロック図。The block diagram of the image processing apparatus which concerns on the modification of the 1st thru | or 4th embodiment of this invention.

符号の説明Explanation of symbols

1…画像処理システム、2、20…LSI、3…ホストプロセッサ、4…I/Oプロセッサ、5…メインメモリ、6…グラフィックプロセッサ、30…データ入力装置、31…入力バッファ、32…特徴量抽出装置、40…高並列処理装置、41…処理ユニット、42…特徴量記憶装置、50…記憶装置、51−1、51−2…プログラム、60…DMAコントローラ、70…データバス、80…MPEGデコーダ、81…減算器、82…加算器、83…DCT部、84…量子化部、85…可変長符号化部、86、87…バッファ、88…レート制御部、89…逆量子化部、90…逆DCT部、91…動き補償予測部、100…メインメモリ、110…プログラムカウンタ   DESCRIPTION OF SYMBOLS 1 ... Image processing system 2, 20 ... LSI, 3 ... Host processor, 4 ... I / O processor, 5 ... Main memory, 6 ... Graphic processor, 30 ... Data input device, 31 ... Input buffer, 32 ... Feature amount extraction 40: highly parallel processing device, 41: processing unit, 42: feature quantity storage device, 50 ... storage device, 51-1, 51-2 ... program, 60 ... DMA controller, 70 ... data bus, 80 ... MPEG decoder , 81 ... subtractor, 82 ... adder, 83 ... DCT section, 84 ... quantization section, 85 ... variable length coding section, 86, 87 ... buffer, 88 ... rate control section, 89 ... inverse quantization section, 90 ... Inverse DCT unit, 91 ... Motion compensation prediction unit, 100 ... Main memory, 110 ... Program counter

Claims (5)

デジタルの画像データについて統計処理を行って特徴量を抽出する特徴量抽出装置と、
複数の処理ユニットを備え、各々の処理ユニットがそれぞれ前記特徴量を用いて前記画像データに関する処理を行う並列処理装置と
を具備し、前記処理ユニットの各々は、前記特徴量抽出装置で抽出された前記特徴量を保持する保持回路を備え、該保持回路に保持する前記特徴量を用いて処理を行い、
前記特徴量抽出装置は、前記並列処理装置から独立して演算を行う
ことを特徴とする半導体集積回路装置。
A feature extraction device that performs statistical processing on digital image data and extracts features;
A plurality of processing units, and each processing unit includes a parallel processing device that performs processing on the image data using the feature amount, and each of the processing units is extracted by the feature amount extraction device. A holding circuit for holding the feature amount, and performing processing using the feature amount held in the holding circuit;
The feature quantity extraction device performs an operation independently of the parallel processing device. A semiconductor integrated circuit device, wherein:
前記特徴量は、前記画像データにおいて、複数のピクセルを含む領域の画素値の平均値である
ことを特徴とする請求項1記載の半導体集積回路装置。
The semiconductor integrated circuit device according to claim 1, wherein the feature amount is an average value of pixel values of a region including a plurality of pixels in the image data.
前記処理ユニットを動作させるための複数のプログラムを保持する記憶装置と、
前記プログラムが読み出されるメインメモリと
を更に備え、前記処理ユニットは前記メインメモリに読み出されたいずれかの前記プログラムに基づいて処理を実行する
ことを特徴とする請求項1または2記載の半導体集積回路装置。
A storage device that holds a plurality of programs for operating the processing unit;
The semiconductor integrated circuit according to claim 1, further comprising: a main memory from which the program is read, wherein the processing unit executes a process based on any one of the programs read into the main memory. Circuit device.
請求項1乃至3いずれか1項記載の半導体集積回路装置と、
画像を撮影してデジタルの前記画像データを取得する撮像装置と
を具備し、前記半導体集積回路は前記撮像装置から前記画像データが転送され、該画像データを一時的に保持するバッファ回路と、
前記並列処理装置で処理された前記画像データを記憶する記憶装置と
を更に備え、前記特徴量抽出装置は前記バッファ回路に転送された前記画像データについて前記特徴量を抽出する
ことを特徴とする画像処理システム。
A semiconductor integrated circuit device according to any one of claims 1 to 3,
An image pickup device for taking an image and obtaining the digital image data, and the semiconductor integrated circuit receives the image data from the image pickup device and temporarily holds the image data;
A storage device that stores the image data processed by the parallel processing device, and the feature amount extraction device extracts the feature amount of the image data transferred to the buffer circuit. Processing system.
複数の処理ユニットを備えた並列処理装置を用いて画像データを処理する画像処理方法であって、
前記画像データを受信するステップと、
受信した前記画像データについて特徴量抽出装置が特徴量を計算するステップと、
前記特徴量を前記処理ユニットの各々に転送するステップと、
転送された前記特徴量を用いて、前記処理ユニットの各々が前記画像データに関する処理を行うステップと
を具備することを特徴とする画像処理方法。
An image processing method for processing image data using a parallel processing device including a plurality of processing units,
Receiving the image data;
A feature amount extraction device calculating a feature amount for the received image data;
Transferring the feature quantity to each of the processing units;
Each of the processing units performs processing related to the image data using the transferred feature quantity. An image processing method comprising:
JP2005112507A 2005-04-08 2005-04-08 Semiconductor integrated circuit device, image processing system, and image processing method Pending JP2006293632A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005112507A JP2006293632A (en) 2005-04-08 2005-04-08 Semiconductor integrated circuit device, image processing system, and image processing method
PCT/JP2005/022134 WO2006112079A2 (en) 2005-04-08 2005-11-25 Semiconductor integrated circuit device which processes image data using highly parallel processing units, image processing system and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005112507A JP2006293632A (en) 2005-04-08 2005-04-08 Semiconductor integrated circuit device, image processing system, and image processing method

Publications (1)

Publication Number Publication Date
JP2006293632A true JP2006293632A (en) 2006-10-26

Family

ID=36950485

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005112507A Pending JP2006293632A (en) 2005-04-08 2005-04-08 Semiconductor integrated circuit device, image processing system, and image processing method

Country Status (2)

Country Link
JP (1) JP2006293632A (en)
WO (1) WO2006112079A2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014081826A (en) * 2012-10-17 2014-05-08 Denso Corp Object identification apparatus

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0540740A (en) * 1991-07-01 1993-02-19 Nec Corp Pattern matching processor and parallel pattern matching processor
JPH0581433A (en) * 1991-09-20 1993-04-02 Yamaha Motor Co Ltd Method and device for pattern matching
JPH09245168A (en) * 1996-03-13 1997-09-19 Tech Res & Dev Inst Of Japan Def Agency Picture recognizing device
JP2001357399A (en) * 2000-06-06 2001-12-26 Matsushita Electric Works Ltd Device and method for processing picture
JP2002183732A (en) * 2000-12-13 2002-06-28 Toshiba Corp Pattern recognition method and computer-readable storage medium stored with program executing pattern recognition
JP2004173224A (en) * 2002-11-20 2004-06-17 National Chiao Tung Univ Method and apparatus for motion estimation by full binary expression

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0540740A (en) * 1991-07-01 1993-02-19 Nec Corp Pattern matching processor and parallel pattern matching processor
JPH0581433A (en) * 1991-09-20 1993-04-02 Yamaha Motor Co Ltd Method and device for pattern matching
JPH09245168A (en) * 1996-03-13 1997-09-19 Tech Res & Dev Inst Of Japan Def Agency Picture recognizing device
JP2001357399A (en) * 2000-06-06 2001-12-26 Matsushita Electric Works Ltd Device and method for processing picture
JP2002183732A (en) * 2000-12-13 2002-06-28 Toshiba Corp Pattern recognition method and computer-readable storage medium stored with program executing pattern recognition
JP2004173224A (en) * 2002-11-20 2004-06-17 National Chiao Tung Univ Method and apparatus for motion estimation by full binary expression

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014081826A (en) * 2012-10-17 2014-05-08 Denso Corp Object identification apparatus

Also Published As

Publication number Publication date
WO2006112079A2 (en) 2006-10-26
WO2006112079A3 (en) 2007-05-03

Similar Documents

Publication Publication Date Title
RU2512130C2 (en) Device and method for high-resolution imaging at built-in device
JP5962937B2 (en) Image processing method
JP2009147807A (en) Image processing apparatus
CN109493297B (en) Low-quality face image enhancement method, system, equipment and storage medium
TW200803521A (en) Randomly sub-sampled partition voting (RSPV) algorithm for scene change detection
CN111107370B (en) Video watermark embedding processing method and device, electronic equipment and storage medium
CN112866799A (en) Video frame extraction processing method, device, equipment and medium
KR20150031241A (en) A device and a method for color harmonization of an image
JPWO2009142003A1 (en) Image coding apparatus and image coding method
CN112419132B (en) Video watermark detection method, device, electronic equipment and storage medium
US20120144304A1 (en) System and method for reducing artifacts in images
US20140092116A1 (en) Wide dynamic range display
CN114943649A (en) Image deblurring method, device and computer readable storage medium
US6665340B1 (en) Moving picture encoding/decoding system, moving picture encoding/decoding apparatus, moving picture encoding/decoding method, and recording medium
CN113810654A (en) Image video uploading method and device, storage medium and electronic equipment
JP2006293632A (en) Semiconductor integrated circuit device, image processing system, and image processing method
JP5153660B2 (en) Image processing apparatus, image processing method, and program
KR101853211B1 (en) Complexity Reduction of SIFT for Video based on Frame Difference in the Mobile GPU environment
CN114007073A (en) Large scene based picture storage system and use method thereof
TWI468015B (en) Apparatus and method for parallely processing video decoding
JP6242055B2 (en) Image encoding device
JP4435838B2 (en) Method and apparatus for enhancing digital image
CN114092924A (en) Clothes stain recognition method, device, equipment and storage medium
JP2009267726A (en) Moving image encoding apparatus, recorder, moving image encoding method, moving image encoding program
Poola et al. Design of Matlab/Simulink-based Edge Detection operators and hardware implementation on ZYNQ FPGA

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100810

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101130

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110426