JP2006293632A - Semiconductor integrated circuit device, image processing system, and image processing method - Google Patents
Semiconductor integrated circuit device, image processing system, and image processing method Download PDFInfo
- Publication number
- JP2006293632A JP2006293632A JP2005112507A JP2005112507A JP2006293632A JP 2006293632 A JP2006293632 A JP 2006293632A JP 2005112507 A JP2005112507 A JP 2005112507A JP 2005112507 A JP2005112507 A JP 2005112507A JP 2006293632 A JP2006293632 A JP 2006293632A
- Authority
- JP
- Japan
- Prior art keywords
- processing
- image data
- image
- feature amount
- semiconductor integrated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/42—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
- H04N19/436—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/223—Analysis of motion using block-matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/28—Indexing scheme for image data processing or generation, in general involving image processing hardware
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Signal Processing (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
この発明は、半導体集積回路装置、画像処理システム、及び画像処理方法に関するもので、例えばカメラで撮影した画像データを、高並列のプロセシングユニットで処理する際のアルゴリズムに関する。 The present invention relates to a semiconductor integrated circuit device, an image processing system, and an image processing method. For example, the present invention relates to an algorithm for processing image data captured by a camera using a highly parallel processing unit.
近年、CPU(Central Processing Unit)の動作の高速化に伴って、画像処理装置の性能向上には著しいものがある。 In recent years, as the operation of a CPU (Central Processing Unit) increases, there is a remarkable improvement in the performance of an image processing apparatus.
従来の画像処理において、画像データから特徴量を抽出し、抽出した特徴量に基づいてどの画像処理を行うかを選択する方法が提案されている(例えば特許文献1参照)。本方法によれば、入力画像は複数の領域に分割され、それぞれの領域においてテクスチャ特徴量が抽出される。そして、抽出された特徴量に応じて、当該領域を処理する画像処理手段が選択される。 In conventional image processing, a method has been proposed in which feature amounts are extracted from image data, and which image processing is to be performed based on the extracted feature amounts (see, for example, Patent Document 1). According to this method, the input image is divided into a plurality of regions, and texture feature amounts are extracted in the respective regions. Then, image processing means for processing the area is selected according to the extracted feature amount.
しかしながら、上記手法であると画像処理手段は特徴量の値自体を用いた画像処理アルゴリズムを実装することが難しいという問題があった。
この発明は、上記事情に鑑みてなされたもので、その目的は、画像処理のための効率的アルゴリズムの実装を容易に出来る半導体集積回路装置、画像処理システム、及び画像処理方法を提供することにある。 The present invention has been made in view of the above circumstances, and an object thereof is to provide a semiconductor integrated circuit device, an image processing system, and an image processing method capable of easily implementing an efficient algorithm for image processing. is there.
上記目的を達成するために、この発明の一態様に係る半導体集積回路装置は、デジタルの画像データについて統計処理を行って特徴量を抽出する特徴量抽出装置と、複数の処理ユニットを備え、各々の処理ユニットがそれぞれ前記特徴量を用いて前記画像データに関する処理を行う並列処理装置とを具備し、前記処理ユニットの各々は、前記特徴量抽出装置で抽出された前記特徴量を保持する保持回路を備え、該保持回路に保持する前記特徴量を用いて処理を行い、前記特徴量抽出装置は、前記並列処理装置から独立して演算を行う。 In order to achieve the above object, a semiconductor integrated circuit device according to an aspect of the present invention includes a feature quantity extraction device that performs statistical processing on digital image data and extracts a feature quantity, and a plurality of processing units. Each of the processing units includes a parallel processing device that performs processing related to the image data using the feature amount, and each of the processing units holds the feature amount extracted by the feature amount extraction device. And the processing is performed using the feature amount held in the holding circuit, and the feature amount extraction device performs an operation independently of the parallel processing device.
またこの発明の一態様に係る画像処理システムは、上記半導体集積回路装置と、画像を撮影してデジタルの前記画像データを取得する撮像装置とを具備し、前記半導体集積回路は前記撮像装置から前記画像データが転送され、該画像データを一時的に保持するバッファ回路と、前記並列処理装置で処理された前記画像データを記憶する記憶装置とを更に備え、前記特徴量抽出装置は前記バッファ回路に転送された前記画像データについて前記特徴量を抽出する。 An image processing system according to an aspect of the present invention includes the semiconductor integrated circuit device and an imaging device that captures an image to acquire the digital image data. The semiconductor integrated circuit is connected to the imaging device from the imaging device. The image processing apparatus further includes a buffer circuit that transfers image data and temporarily stores the image data, and a storage device that stores the image data processed by the parallel processing device. The feature amount is extracted for the transferred image data.
更にこの発明の一態様に係る画像処理方法は、複数の処理ユニットを備えた並列処理装置を用いて画像データを処理する画像処理方法であって、前記画像データを受信するステップと、受信した前記画像データについて特徴量抽出装置が特徴量を計算するステップと、前記特徴量を前記処理ユニットの各々に転送するステップとを、転送された前記特徴量を用いて、前記処理ユニットの各々が前記画像データに関する処理を行うステップとを具備する。 Furthermore, an image processing method according to an aspect of the present invention is an image processing method for processing image data using a parallel processing device including a plurality of processing units, and the step of receiving the image data; A step of calculating a feature amount for image data by a feature amount extraction device and a step of transferring the feature amount to each of the processing units, using each of the transferred feature amounts, And a process for processing data.
この発明によれば、画像処理のための効率的アルゴリズムの実装を容易に出来る半導体集積回路装置、画像処理システム、及び画像処理方法を提供できる。 According to the present invention, it is possible to provide a semiconductor integrated circuit device, an image processing system, and an image processing method capable of easily mounting an efficient algorithm for image processing.
以下、この発明の実施形態を図面を参照して説明する。この説明に際し、全図にわたり、共通する部分には共通する参照符号を付す。 Embodiments of the present invention will be described below with reference to the drawings. In the description, common parts are denoted by common reference symbols throughout the drawings.
この発明の第1の実施形態に係る半導体集積回路装置、画像処理システム、及び画像処理方法について、図1を用いて説明する。図1は、本実施形態に係る画像処理システムのブロック図である。 A semiconductor integrated circuit device, an image processing system, and an image processing method according to a first embodiment of the present invention will be described with reference to FIG. FIG. 1 is a block diagram of an image processing system according to the present embodiment.
図示するように本実施形態に係る画像処理システム1は、デジタルビデオカメラ10及び画像処理LSI20を備えている。デジタルビデオカメラ10によって撮影された画像は、画像処理LSI20によって処理される。
As shown in the figure, the
画像処理LSI20は、データ入力装置30、高並列処理装置40、記憶装置50、DMA(Direct Memory Access)コントローラ60、及びデータバス70を備えている。データ入力装置30は、入力バッファ31及び特徴量抽出装置32を有している。入力バッファ31には、デジタルビデオカメラ10から画像データが入力される。特徴量抽出装置32は、入力バッファ31上で統計処理を行う統計処理専用のブロックであり、当該画像データについての特徴量を抽出する。特徴量抽出装置32は、高並列処理装置40と分離されており、高並列処理装置40から独立して処理を実行出来る。
The
高並列処理装置40は、複数(例えば128個)の処理ユニット(CPU)41を有している。処理ユニット41の各々は、入力バッファ31に保持される画像データを読み出し、画像データにつき互いに並列的に処理を実行する。処理ユニット41は全てが同一の処理を行っても良いし、それぞれ異なる処理を行っても良い。各処理ユニット41はメモリ(レジスタ)42を備えている。処理ユニット41は、特徴量を特徴量抽出装置32からメモリ42に読み出す。そして、メモリ42に読み出した特徴量を用いて、自らが担当する画像データに関する処理を行う。
The highly
記憶装置50は、入力バッファ31に入力された画像データ、また高並列処理装置40で処理された画像データなどを保持する例えばeDRAM(embedded DRAM)である。
The
DMAコントローラ60は、入力バッファ31と処理ユニット41との間、記憶装置50と処理ユニット41との間、また入力バッファ41と記憶装置50との間におけるデータのDMA転送を制御する。これらのデータはデータバス70を介して転送される。
The
次に上記画像処理システム1による画像処理方法について、図2のフローチャートを用いて説明する。まず、デジタルビデオカメラ10が撮像対象を撮影し、画像データを取得する(ステップS10)。カメラ10はA/Dコンバータを備えており、カメラ10によってデジタル化された画像データがLSI20へ入力される。勿論、LSI20がA/D変換を行っても良い。
Next, an image processing method by the
カメラ10で取得された画像データは入力バッファ31へ入力される(ステップS11)。入力バッファ31には、例えばダブルバッファを用いることが出来る。そして表バッファがフル(full)になったら裏バッファに切り替える。勿論、バッファの形態は様々であり、この方法に限定されるものではない。
The image data acquired by the
次に特徴量抽出装置32は、入力バッファ31上において、画像データに関する統計処理を行って、特徴量を抽出する。また画像データを記憶装置50へ転送する(ステップS12)。特徴量の抽出は、当該画像データに関する高並列処理装置40の処理が開始される前に行われる。
Next, the feature
特徴量の抽出が完了すると、特徴量抽出装置32は抽出した特徴量を処理ユニット41に転送する(ステップS13)。この際、特徴量は処理ユニット41の各々で使用するためアクセスが集中しやすいので、特徴量のコピーを作成し、各処理ユニット41がそれぞれ特徴量を独自に有していることが望ましい。
When the feature amount extraction is completed, the feature
次に、高並列処理装置40における処理ユニット41の各々が、記憶装置50内の画像データを読み出す。そして、メモリ42内の特徴量を用いて該画像データに関する処理を行う(ステップS14)。
Next, each of the
その後、処理された画像データは記憶装置50に格納される。
上記のように、この発明の第1の実施形態に係るLSI、画像処理システム、及び画像処理方法であると、下記(1)、(2)の効果が得られる。
Thereafter, the processed image data is stored in the
As described above, the following effects (1) and (2) can be obtained with the LSI, the image processing system, and the image processing method according to the first embodiment of the present invention.
(1)画像処理のための効率的アルゴリズムを高並列処理装置に対して実装を容易に出来る。
本実施形態に係る構成であると、統計処理を行う特徴量抽出装置32が高並列処理装置40から分離・独立している。そのため、高並列処理装置における処理プログラムには、統計処理を考慮する必要がない。また、各処理ユニット41はメモリ42に特徴量を保持する。そして、自由に特徴量を参照しつつ処理を行うことが出来る。以上の結果、高並列処理装置における処理プログラムを簡略化出来、すなわち、特徴量を用いた効率的アルゴリズムの高並列処理装置に対する実装が容易となる。特に、特徴量として例にあげた統計量計算では実装すべきハードウェアコストは低い。例えば、平均値計算ならデータ取得のためのアドレス生成部とカウンタと加算器、及び除算器を実装すれば良い。除算器は、平均値のための除数が2のべき乗であればシフタを用いれば良い。もちろん除算器を実装してもよい。分散計算も、上記に加え乗算器と逆数根計算器を加えるだけでよい。ヒストグラム生成にはヒストグラムとしての値を保持する記憶部とカウンタがあればよい。ヒストグラムの作成にあたって、記憶部に画素値Pが取り得る値の数のエントリを確保する。例えば画素値Pが8ビットの場合その値は0〜255まで取り得るから、256個のエントリを確保する。そしてそれぞれのエントリに画素値Pを割り当て、各画素値Pを取るピクセルの数を、対応するエントリに格納していく。図3の例は、P=0のピクセル数は1個、P=1のピクセル数は2個、P=2のピクセル数は2個、…P=255のピクセル数は0個であることを示している。このようなエントリを、例えば記憶装置50に保持すればよい。さらに中央値の計算や順序統計量もヒストグラムと加算器で実装可能である。これ以上の詳細は省くが、統計量計算に必要なハードウェアのコストは低い。
(1) An efficient algorithm for image processing can be easily implemented in a highly parallel processing device.
With the configuration according to the present embodiment, the feature
この統計量計算を高並列処理装置で行った場合、その計算のためのコストが高くなる。平均値の計算はピラミッドアルゴリズムが用いる場合が多い。ピラミッドアルゴリズムは以下のようにして行われる。例えば、(512×512)のサイズの輝度データがあったとすると、まず原画像D0において隣接する4つのピクセルの平均値を計算して、縦横がそれぞれ1/2(ピクセル数は1/4)の画像D1を作成する。次に、画像D1において隣接する4つのピクセルの平均値を計算して、縦横がさらに1/2となる画像D2を作成する。これを繰り返してゆくと、ピクセルの数は最終的に1個になり、そのピクセルの値が平均値になる。次第に画像が小さくなってゆくことから、ピラミッドアルゴリズムと名づけられている。分散計算のための二乗平均も同様にしてピラミッドアルゴリズムで計算ができる。ピラミッドアルゴリズムは画像が大きい場合は並列度が活かせるので効率がよいが、処理が進んで画像が小さくなると並列処理装置のうち動かない処理ユニットが発生する。特に並列度が高い場合は無駄な(要はデータが無くて動作していない)ユニットが多くなるといった問題がある。ほかの方法として、高並列処理装置のうち1ユニットだけを使って通常の方法で計算する方法もあるが、その間ほかのユニットが遊んでしまう可能性があるため、同様に無駄が生じる。 When this statistic calculation is performed by a highly parallel processing device, the cost for the calculation becomes high. The calculation of the average value is often used by the pyramid algorithm. The pyramid algorithm is performed as follows. For example, if there is luminance data having a size of (512 × 512), first, an average value of four adjacent pixels in the original image D0 is calculated, and the vertical and horizontal directions are each ½ (number of pixels is ¼). An image D1 is created. Next, an average value of four adjacent pixels in the image D1 is calculated, and an image D2 in which the vertical and horizontal directions are further halved is created. If this is repeated, the number of pixels finally becomes one, and the value of that pixel becomes an average value. Since the image gradually gets smaller, it is named the pyramid algorithm. Similarly, the mean square for variance calculation can be calculated by the pyramid algorithm. The pyramid algorithm is efficient because the degree of parallelism can be utilized when the image is large, but when the processing proceeds and the image becomes small, a processing unit that does not move is generated in the parallel processing device. In particular, when the degree of parallelism is high, there is a problem that the number of useless units (in short, there is no data and not operating) increases. As another method, there is a method of calculating by a normal method using only one unit of the highly parallel processing device, but other units may be idle during that time, and similarly wasteful.
同様に、ヒストグラム処理も高並列処理装置では効率的に実行することができない。平均値や分散の場合と同じく、高並列処理装置の各ユニットでの処理結果をマージする必要があり、そのマージ処理に関しては高並列処理装置で原理的に無駄なく処理することは難しい。 Similarly, histogram processing cannot be executed efficiently in a highly parallel processing device. As in the case of the average value and the variance, it is necessary to merge the processing results in each unit of the highly parallel processing device, and it is difficult in principle to process the merge processing without waste in the highly parallel processing device.
(2)画像処理効率を向上出来る。
本実施形態に係る構成であると、高並列処理装置40から分離された特徴量抽出装置32によって特徴量を抽出している。このように、並列化処理になじまない統計処理を専用のデバイスによって行い、高並列化処理装置40では一切行わないことで、特徴量の抽出効率が向上出来ると共に高並列処理装置40における処理効率を向上出来る。
(2) Image processing efficiency can be improved.
With the configuration according to the present embodiment, feature amounts are extracted by the feature
また、特徴量の抽出を高並列処理装置40から切り離すことで、特徴量抽出処理と、高並列処理装置40における処理とをパイプライン方式で処理出来る。この点について図4を用いて説明する。図4は画像処理時の各処理のタイミングチャートである。
Further, by separating the feature amount extraction from the highly
図示するように、カメラ10からデータA〜Dが順次LSI20へ入力されたとする(ステップS11)。そして、時刻t1〜t4において、特徴量抽出装置32がデータA〜Dの特徴量をそれぞれ抽出する(ステップS12)。データAに着目すると、時刻t3で特徴量の転送が完了すると(ステップS13)、高並列処理装置40は特徴量抽出装置32の状況に関わらず処理を開始出来る(ステップS14)。特徴量抽出装置32も高並列処理装置40からは独立して動作しているので、高並列処理装置40がデータAに関する処理を行っている期間t3〜t4において、データCに関する特徴量抽出処理を実行出来る。このように、ステップS12乃至S14の処理は互いにオーバーラップさせることが出来る。従って、LSI20の処理効率を向上出来る。なお図4においては、簡単化のためにステップS11〜S14の処理にかかる時間が全て同一である場合について示している。しかし前述の通り、高並列処理装置40における処理が特徴量抽出後に開始されるタイミングであれば、処理に必要な時間は特に限定されない。
As shown in the figure, it is assumed that data A to D are sequentially input from the
次に、この発明の第2の実施形態に係る半導体集積回路装置、画像処理システム、及び画像処理方法について説明する。本実施形態は上記第1の実施形態の具体例に相当し、高並列処理装置40においてテンプレートマッチング(template matching)を行う際のものである。まずテンプレートマッチングについて図5を用いて説明する。図5はテンプレートマッチングの概念を示す図である。
Next, a semiconductor integrated circuit device, an image processing system, and an image processing method according to a second embodiment of the invention will be described. This embodiment corresponds to a specific example of the first embodiment described above, and is used when template matching is performed in the highly
テンプレートマッチングは、ある特定の画像T(template)と同じ画像を、他の画像In+1の中から探すことを言う。例えば(64×64)個のピクセル(pixel)を含む画像Tを、(1024×1024)個のピクセルを含む画像In+1内を走査して、画像Tと一致する領域が画像In+1内にあるか否かを検出する。この画像Tは通常は画像In+1と同じサイズの画像Inの一部であり、すなわち画像Inのある部分が画像In+1でどの位置に移動しているかを検出するような場合にこのテンプレートマッチングが使うことを考える。 Template matching refers to searching for the same image as a specific image T (template) from other images In + 1. For example, an image T including (64 × 64) pixels is scanned in an image In + 1 including (1024 × 1024) pixels, and a region matching the image T is included in the image In + 1. It is detected whether it exists in. This image T is usually a part of the image In having the same size as the image In + 1. In other words, this template is used when detecting a position where a certain part of the image In has moved in the image In + 1. Think about what matching uses.
このようなテンプレートマッチングを高並列処理装置40が行う場合の画像処理方法について、図2における特にステップ12、S13の処理に着目して説明する。まずカメラ10からLSI20にデジタル画像データIn、In+1が入力される。デジタル画像データは、ピクセルの集合で表され、各ピクセルは明るさのレベル(濃淡)を示す階調を持つ。この階調のことを以下「画素値P」と呼ぶことにする。デジタル画像には、画素値が2つのレベルしかない2値画像と、画素値が多数のレベルに分かれる多値画像とがある。例えば画素値が8ビットで表される場合には、画素値は256個の階調を有する。
An image processing method in the case where the highly
まずステップS12において、特徴量抽出装置32は画像データInの画素値Pの平均値P〜と、画像データIn+1の画素値P’の平均値P’〜とを、特徴量として算出する。図6及び図7はそれぞれ、画像データIn及びIn+1の概念図である。図示するように、画像データInに含まれる(1024×1024)個のピクセルはそれぞれ画素値Pij(i=0〜1023、j=0〜1023)を有する。また画像データIn+1に含まれる(1024×1024)個のピクセルはそれぞれ画素値P’kl(k=0〜1023、l=0〜1023)を有している。ピクセルの数をNとすると、平均値P’〜は下記の式で求められる。
P’〜=ΣP’kl/N
P〜=ΣPij/N
すなわち画像In+1の画素値の平均値P’〜は、画像Iに含まれる全てのピクセルの画素値を加算し、それを全ピクセル数Nで割ることで得られる。P〜も同様の計算で得られる。以上のようにして求められた平均値P〜、P’〜は処理ユニット41へ転送される(ステップS13)。
First, in step S12, the feature
P '~ = ΣP'kl / N
P ~ = ΣPij / N
That is, the average value P′˜ of the pixel values of the image In + 1 is obtained by adding the pixel values of all the pixels included in the image I and dividing the result by the total number N of pixels. P˜ is also obtained by the same calculation. The average values P˜ and P′˜ obtained as described above are transferred to the processing unit 41 (step S13).
次に、高並列処理装置40がテンプレートマッチングを行う(ステップS14)。すなわち、図5に示す画像Tが画像Iに含まれるか否かを検出するために、互いのピクセルの画素値PijとP’klとの差分Aを計算する。そして差分Aがある閾値Athよりも小さい場合、その領域に画像Tが含まれるものと判定する。例えば、画像T、Iについての画素値Pij、P’klがそれぞれ図8、図9のようであったと仮定する。図7は縦軸に画素値Pを取り、横軸に(64×64)個のピクセルを並べたグラフである。図8は縦軸に画素値P’を取り、横軸に(1024×1024)個のピクセルを並べたグラフである。
Next, the highly
高並列処理装置40は、画像Iにおける(64×64)個のピクセルを含む各領域について下記の計算を行い、画像T、Iの差分Aを取得する。
A=Σ|(Pij−P〜)−(P’kl−P’〜)|
すなわち、画像Tに含まれる全てのピクセルの画素値Pijから平均値P〜を減算する。また画像In+1において画像Tとの比較対象となる領域に含まれる全ての画素値P’klから平均値P’〜を減算する。そして両者の差分を差分値Aとする。この処理がテンプレートマッチングである。このテンプレートマッチングを、画像In+1の全ての領域について繰り返し行う。テンプレートマッチングの処理はそれぞれ独立して実行可能であるので、画像I内の各領域における画像Tの探索は、処理ユニット41のそれぞれにおいて並列的に行われる。すると図8に示すように、画像In+1における領域AREA1において差分値Aが閾値Athを下回るので、この領域AREA1に画像Tが存在することが分かる。以上のようにしてテンプレートマッチングが完了する。
The highly
A = Σ | (Pij−P˜) − (P′kl−P′˜) |
That is, the average value P˜ is subtracted from the pixel values Pij of all the pixels included in the image T. Further, the average value P′˜ is subtracted from all the pixel values P′kl included in the region to be compared with the image T in the image In + 1. The difference between the two is defined as a difference value A. This process is template matching. This template matching is repeated for all regions of the image In + 1. Since the template matching process can be performed independently, the search for the image T in each region in the image I is performed in parallel in each of the
なお、上記第1および第2の実施形態では、画素値Pij、Pklから平均値を減算したもの同士の差分を計算する場合について説明した。しかし、更に画像の分散σ、σ’を計算し、画素値から平均値を減算した結果を分散で除算しても良い。すなわち、差分Aを下記の式により算出する方法もある(第2の実施形態)。
A=Σ|(Pij−P〜)/σ−(P’kl−P’〜)/σ’|
このように分散を用いることで、差分Aは周囲環境の影響に対して更にロバスト(robust)となる。分散σ、σ’の算出は、ステップS14において高並列処理装置40が行っても良いし、または分散を特徴量として扱い、ステップS12において特徴量抽出装置32が行っても良い。
In the first and second embodiments, the case where the difference between the pixel values Pij and Pkl obtained by subtracting the average value is calculated has been described. However, image variances σ and σ ′ may be calculated, and the result of subtracting the average value from the pixel value may be divided by the variance. That is, there is also a method for calculating the difference A by the following equation (second embodiment).
A = Σ | (Pij−P˜) / σ− (P′kl−P′˜) / σ ′ |
By using dispersion in this way, the difference A becomes more robust against the influence of the surrounding environment. The calculation of the variances σ and σ ′ may be performed by the highly
本実施形態に係る構成及び方法であると、上記第1の実施形態で説明した効果(1)、(2)に加えて下記(3)の効果を得ることが出来る。
(3)テンプレートマッチングの精度を向上出来る。
本実施形態に係る方法であると、各画像データにおいて、画素値の平均値を特徴量として算出している。そして、この平均値を実際の画素値から減算した上で、差分値Aを計算している。従って、余計なバックグラウンドの影響を除去し、テンプレートマッチングの精度を向上出来る。
With the configuration and method according to the present embodiment, the following effect (3) can be obtained in addition to the effects (1) and (2) described in the first embodiment.
(3) The accuracy of template matching can be improved.
In the method according to the present embodiment, an average value of pixel values is calculated as a feature amount in each image data. The difference value A is calculated after subtracting the average value from the actual pixel value. Therefore, it is possible to remove the influence of extra background and improve the accuracy of template matching.
具体的には、例えば環境光の影響を低減できる。例えばカメラ10が画像T、画像Iを撮影する際、周囲の明るさに違いがあったとする。図8、図9に示す場合であると、画像Tの撮影時よりも画像Iの撮影時の方が明るく、P’〜がP〜よりも非常に大きい場合には、画像Iにおける全ての領域で差分値Aが閾値Athを上回ったり、または領域AREA1以外の領域で差分値Aが閾値Athを下回ったりする現象が起こりうる。この場合、画像I内における画像Tは正しく認識されない。
Specifically, for example, the influence of ambient light can be reduced. For example, when the
しかし本実施形態であると、画像T、画像Iの画素値Pij、Pklから予め平均値P〜、P’〜を減算している。すなわち、それぞれの画像の背景にある成分を除去している。従って、平均値を減算することで画像T、画像Iにおける正味の画像データが得られる。従って、撮影時に周囲の明るさの違いがあったとしても、この周囲の明るさ成分を画像T、画像Iから除去出来るので、正確なテンプレートマッチングが可能となる。 However, in this embodiment, the average values P˜ and P′˜ are subtracted from the pixel values Pij and Pkl of the images T and I in advance. That is, the component in the background of each image is removed. Therefore, the net image data in the images T and I can be obtained by subtracting the average value. Therefore, even if there is a difference in ambient brightness at the time of shooting, the ambient brightness component can be removed from the images T and I, so that accurate template matching is possible.
また上記(1)、(2)の効果については、本実施形態であると、高並列処理装置40は画素値の平均値を算出するアルゴリズムを必要としないので、プログラムを簡略化出来る。また、一般的に平均値を求める処理は並列化に向いておらず、この処理を特徴量抽出装置32に行わせることで、高並列処理装置40はテンプレートマッチングの処理のみを行えば良く、探索効率を向上出来る。
As for the effects (1) and (2), in the present embodiment, the highly
次に、この発明の第3の実施形態に係る半導体集積回路装置、画像処理システム、及び画像処理方法について説明する。本実施形態は上記第1の実施形態の具体例に相当し、高並列処理装置40において画像符号化処理の一部を行う際のものである。
Next explained is a semiconductor integrated circuit device, an image processing system and an image processing method according to the third embodiment of the invention. This embodiment corresponds to a specific example of the first embodiment described above, and is used when a part of the image encoding process is performed in the highly
図10は本実施形態に係るLSI20のブロック図である。図示するように本実施形態に係るLSI20は、上記第1の実施形態で説明した構成において、更にMPEG(Moving Picture coding Experts Group)デコーダ80を備えている。MPEGデコーダ80の構成について図11を用いて説明する。図11はMPEGデコーダ80のブロック図である。
FIG. 10 is a block diagram of the
MPEGデコーダ80は入力バッファ31に入力された動画像をMPEGの規格にエンコードする。図示するようにMPEGデコーダ80は、加減算器81、82、DCT(Discrete Cosine Transform)部83、量子化部84、可変長符号化部85、バッファ86、87、レート制御部88、逆量子化部89、逆DCT部90、及び動き補償予測部91を備えている。
DCT部83は、入力された画像データを周波数領域に直交変換する。量子化部84は、DCT部83で得られた標本値を一定のステップ幅で区分する。すなわち、標本値をステップ幅でわり算し、その値を丸めることでデータレートを削減する。このステップ幅はレート制御部88によって決定される。可変長符号化部85は、量子化部でデータを削減された画像データを、例えばハフマン符号化する。これによりMPEGデータが得られ、バッファ86に格納される。逆量子化部89及び逆DCT部90は、DCT部83及び量子化部84で符号化された画像データをデコードする。デコードされた画像データはバッファ87に格納され、更に動き補償予測部91で動き予測(ME:Motion estimation)のために用いられる。本実施形態では、高並列処理装置40における各処理ユニット41が動き補償予測部91として機能する。
The
The
動画を構成する、個々の時間における1枚の画像はフレーム(frame)と呼ばれている。DCTと量子化が1つのフレームを空間として圧縮するのに対して、動き予測は連続する2つのフレームにまたがるデータ圧縮を行う。動き予測は、2つの連続するフレームをデルタ解析してフレーム間で各エリアが変化したか、どのように移動したかを判断する。ある画像エリアが1つの前のフレームと同一であれば、そのフレームと同じように表示すれば良い。また、画像エリアがいずれかの方向へ移動した場合には、表示すべき画像は1つの前のフレームと同一であり、それを特定の方向へある量だけ動かせば良い。これは実際には動き補償予測部91において動きベクトル(MV:Motion Vector)を生成することによって行われる。このように、動きベクトルを求めることにより、冗長なデータを大幅に削減出来る。
One image at an individual time constituting a moving image is called a frame. While DCT and quantization compress one frame as space, motion prediction performs data compression across two consecutive frames. In motion prediction, two consecutive frames are delta-analyzed to determine whether or not each area has changed between frames. If a certain image area is the same as the previous frame, it may be displayed in the same manner as that frame. When the image area moves in any direction, the image to be displayed is the same as the previous frame, and it is only necessary to move it by a certain amount in a specific direction. This is actually performed by generating a motion vector (MV) in the motion
動き予測を行うために動き補償予測部91は、1つ前のフレームの全領域と現在のフレームの全領域との間で、第2の実施形態で説明したテンプレートマッチングを実行する。これによって、1つ前のフレームにおける所定の領域が、次のフレーム内においてどの方向へどれだけ移動したかが分かる。図12は、2つのフレーム間で物体(object)が移動する様子を示している。例えば時刻t1(フレーム1)において表示されていた物体が、時刻t2(フレーム2)において図示するような動きベクトルMVにより示されるように移動したとする。すると、特徴量抽出装置32はフレーム1、フレーム2の画素値P、P’の平均値P〜、P’〜を算出し(ステップS12)、求めた平均値P〜、P’〜を特徴量記憶装置42へ転送する(ステップS13)。また、入力バッファ31から処理ユニット42の各々へフレーム2の各領域が転送され、逆量子化部89及び逆DCT部90で再生されたフレーム1の各領域が、バッファ87から処理ユニット42の各々へ転送される(ステップS12)。そして、処理ユニット42の各々がフレーム1とフレーム2とのテンプレートマッチングを行う(ステップS14)。テンプレートマッチングの様子を図13に示す。
In order to perform motion prediction, the motion
ステップS14では第2の実施形態と同様に、フレーム1の画素値Pからその平均値P〜が減算され、フレーム2の画素値P’からその平均値P’〜が減算される。その上で、両画素値の差分値Aを算出する。そして、差分値Aが閾値Ath以下になる領域を探索することで、物体の動きベクトルMVが計算出来る。
In step S14, as in the second embodiment, the average value P˜ is subtracted from the pixel value P of
本実施形態に係る構成及び方法であると、上記第1、第2の実施形態で説明した効果(1)乃至(3)が得られる。また(3)の効果によって、MPEG符号化精度が向上出来る。 With the configuration and method according to the present embodiment, the effects (1) to (3) described in the first and second embodiments can be obtained. Also, the effect of (3) can improve the MPEG encoding accuracy.
次に、この発明の第4の実施形態に係る半導体集積回路装置、画像処理システム、及び画像処理方法について説明する。本実施形態は上記第1の実施形態の具体例に相当し、高並列処理装置40において二値化処理を行う際のものである。従って、画像処理システムの構成は上記第1の実施形態と同様であるので説明は省略する。
Next explained is a semiconductor integrated circuit device, an image processing system and an image processing method according to the fourth embodiment of the invention. This embodiment corresponds to a specific example of the first embodiment, and is for performing binarization processing in the highly
二値化処理とは、画像の画素値を“0”か“1”かのいずれかにする処理であり、画素値がある閾値を超えたか否かによって“0”にするか“1”にするかが決定される。通常の本実施形態では、高並列処理装置40が二値化処理を行い、閾値を決定するためにヒストグラム(histgram)を統計処理ハードウェアが作成する。ヒストグラムとは、第1の実施形態で説明したとおり、1枚の画像の全域(または一部分)について、各画素値の出現頻度(ピクセル数)をカウントしたものである。閾値を決定する方法について図14、図15を用いて説明する。図14、図15は、縦軸にピクセル数をプロットし、横軸に画素値Pをプロットしたグラフである。例えば図14に示すように、画素値の最も大きい部分から、全ピクセル数に対してx%までの画素値を閾値Pthとすることが出来る。また図15に示すように、2個のピークとその間の谷が明らかな場合には、その谷の位置を閾値Pthとすることも出来る。二値化処理は通常画像認識のための前処理として用いられる。
The binarization process is a process for changing the pixel value of an image to “0” or “1”, and is set to “0” or “1” depending on whether the pixel value exceeds a certain threshold value. It is decided whether to do. In the normal embodiment, the highly
次に、本実施形態に係る二値化処理方法について図16のフローチャートを用いて説明する。以下では特にステップS14の処理に着目して説明する。ステップS11の後、特徴量抽出装置32が画像データの画素値Pijのヒストグラムを作成し、特徴量記憶装置42へ転送される(ステップS12、S13)。ヒストグラムの作成方法は第1の実施形態で説明したとおりである。また画像データが高並列処理装置40の各処理ユニット41へ転送される(ステップS12)。
Next, the binarization processing method according to the present embodiment will be described with reference to the flowchart of FIG. In the following, description will be given with particular attention to the processing in step S14. After step S11, the feature
次に、高並列処理装置40が二値化処理を開始する(ステップS14−1)。まず各処理ユニット41が、ヒストグラムから閾値Pthを計算する(ステップS14−2)。例えば図14または図15で説明した方法を用いて閾値Pthを決定する。あるいは、閾値Pthまでの算出を徴量抽出装置32で行うという手法も考えられる。高並列処理装置におけるプログラミングを容易にするという観点からはこちらが望ましい。
Next, the highly
次に、各処理ユニット41が各ピクセルの画素値(Pij−P〜)と閾値Pthとを比較する(ステップS14−3)。ここで用いられる画素値Pijは、勿論、平均値P〜を減算した後の値である。Pij≧Pthの場合にはPij=“1”とし(ステップ(S14−4)、Pij<Pthの場合にはPij=“0”とする(ステップS14−5)。この処理を全てのピクセルについて行い、二値化処理が終了する。
Next, each processing
本実施形態に係る構成及び方法であると、更にヒストグラムを特徴量として用いている。そして、このヒストグラムを用いることにより二値化処理を行っている。従って、上記第1の実施形態で説明した効果(1)、(2)の効果が得られる。
上記のように、この発明の第1乃至第4の実施形態に係るLSI、画像処理システム、及び画像処理方法であると、統計処理を行う特徴量抽出装置32が高並列処理装置40から分離・独立している。そして各処理ユニット41はメモリ42から特徴量を自由に読み出すことが出来る。従って、高並列処理装置40における処理プログラムには、統計処理を考慮する必要がなく、また必要に応じて特徴量をメモリ42から読み出して処理を行うことができる。従って、高並列処理装置40における処理プログラムを簡略化出来、プログラマの負担を大幅に軽減できる。また、高並列処理装置40が統計処理を行う必要がないので、特徴量の抽出効率が向上出来ると共に高並列処理装置40における処理効率を向上出来る。更に上記構成はテンプレートマッチングやMPEGデコードに適用することで、これらの処理精度を向上出来る。
In the configuration and method according to the present embodiment, a histogram is further used as a feature amount. Then, binarization processing is performed by using this histogram. Therefore, the effects (1) and (2) described in the first embodiment can be obtained.
As described above, in the LSI, the image processing system, and the image processing method according to the first to fourth embodiments of the present invention, the feature
また、上記実施形態では高並列処理装置40内の全ての処理ユニット41が同一の1種類の処理を行う場合について説明した。しかし図17に示すように、処理ユニット41のそれぞれは記憶装置50からプログラム51−1、51−2、…のいずれかをメインメモリ100に読み出し、適宜そのプログラムに従って処理を行えば良い。この際、いずれのプログラムを実行するかは、例えばプログラムカウンタ110等によって指定することも可能である。よって、処理ユニット41の各々が、それぞれ異なるプログラムに基づいて異なる処理を実行することも可能である。
In the above-described embodiment, a case has been described in which all the
また上記第3の実施形態では、DCTや量子化の処理を専用のハードウェア80を用いて行っているが、これらの処理を高並列処理装置40でソフトウェアを用いて行っても良い。更に第4の実施形態において、閾値Pthを特徴量として扱い、ヒストグラムの作成及び閾値決定をステップS12において特徴量抽出装置32が行っても良い。
In the third embodiment, the DCT and quantization processes are performed using the
なお、特徴量抽出装置32は高並列処理装置40から独立して動作可能で、且つ特徴量を処理ユニットが自由に読み出せるものであれば、その構成は特に限定されるものではない。そして特徴量の計算はハードウェアで処理しても良いし、またはソフトウェアで処理しても良い。必要で有ればスカラープロセッサを用いてファームウェアで統計処理しても良い。
The configuration of the feature
すなわち、この発明の実施形態に係る半導体集積回路装置は、
1.デジタルの画像データについて統計処理を行って特徴量を抽出する特徴量抽出装置と、
複数の処理ユニットを備え、各々の処理ユニットがそれぞれ前記特徴量を用いて前記画像データに関する処理を行う並列処理装置とを具備し、前記処理ユニットの各々は、前記特徴量抽出装置で抽出された前記特徴量を保持する保持回路を備え、該保持回路に保持する前記特徴量を用いて処理を行い、前記特徴量抽出装置は、前記並列処理装置から独立して演算を行う。
2.上記1において、前記特徴量は、前記画像データにおいて、複数のピクセルを含む領域の画素値の平均値である。
3.上記1または2において、前記処理ユニットを動作させるための複数のプログラムを保持する記憶装置と、
前記プログラムが読み出されるメインメモリとを更に備え、前記処理ユニットは前記メインメモリに読み出されたいずれかの前記プログラムに基づいて処理を実行する。
That is, the semiconductor integrated circuit device according to the embodiment of the present invention is
1. A feature extraction device that performs statistical processing on digital image data and extracts features;
A plurality of processing units, and each processing unit includes a parallel processing device that performs processing on the image data using the feature amount, and each of the processing units is extracted by the feature amount extraction device. A holding circuit for holding the feature quantity is provided, and processing is performed using the feature quantity held in the holding circuit, and the feature quantity extraction device performs an operation independently of the parallel processing device.
2. In the
3. In the above 1 or 2, a storage device that holds a plurality of programs for operating the processing unit;
A main memory from which the program is read, and the processing unit executes a process based on any of the programs read to the main memory.
また上記実施形態に係る画像処理システムは、
4.上記1乃至3いずれか1項記載の半導体集積回路装置と、
画像を撮影してデジタルの前記画像データを取得する撮像装置とを具備し、前記半導体集積回路は前記撮像装置から前記画像データが転送され、該画像データを一時的に保持するバッファ回路と、
前記並列処理装置で処理された前記画像データを記憶する記憶装置とを更に備え、前記特徴量抽出装置は前記バッファ回路に転送された前記画像データについて前記特徴量を抽出する。
The image processing system according to the above embodiment is
4). 4. The semiconductor integrated circuit device according to any one of 1 to 3 above;
An image pickup device for taking an image and acquiring the digital image data, and the semiconductor integrated circuit receives the image data from the image pickup device, and temporarily holds the image data;
And a storage device for storing the image data processed by the parallel processing device, wherein the feature amount extraction device extracts the feature amount of the image data transferred to the buffer circuit.
更に上記実施形態に係る画像処理方法は、
5.複数の処理ユニットを備えた並列処理装置を用いて画像データを処理する画像処理方法であって、前記画像データを受信するステップと、
受信した前記画像データについて特徴量抽出装置が特徴量を計算するステップと、
前記特徴量を前記処理ユニットの各々に転送するステップと、
転送された前記特徴量を用いて、前記処理ユニットの各々が前記画像データに関する処理を行うステップとを具備する
更に半導体集積回路装置は、
6.上記2において前記並列処理装置は、2つの前記画像データに含まれる前記ピクセルの前記画素値から前記特徴量を減算し、前記2つの画像データ間における前記減算結果の差分を計算する。
7.上記6において前記並列処理装置は、前記減算結果を前記画像データの前記画素値の分散で除算し、前記2つの画像データ間における前記除算結果の差分を計算する。
8.上記2において前記並列処理装置は、前記画像データに含まれる前記ピクセルの前記画素値から前記特徴量に基づいて前記画像データを二値化し、前記特徴量がヒストグラムである。
Furthermore, the image processing method according to the above embodiment is as follows.
5. An image processing method for processing image data using a parallel processing device having a plurality of processing units, the step of receiving the image data;
A feature amount extraction device calculating a feature amount for the received image data;
Transferring the feature quantity to each of the processing units;
Each of the processing units performs processing related to the image data using the transferred feature quantity. Further, the semiconductor integrated circuit device comprises:
6). In 2 above, the parallel processing device subtracts the feature amount from the pixel values of the pixels included in the two image data, and calculates a difference between the subtraction results between the two image data.
7). In the above item 6, the parallel processing device divides the subtraction result by the variance of the pixel values of the image data, and calculates a difference between the division results between the two image data.
8). In the
更に画像処理方法は、
9.上記5において前記特徴量は、前記画像データにおいて、複数のピクセルを含む領域の画素値の平均値である。
10.上記9において、前記画像データに関する処理を行うステップは、2つの前記画像データに含まれる前記ピクセルの前記画素値から前記特徴量を減算するステップと、
前記減算するステップで得られた減算結果の、前記2つの画像データ間における差分を計算するステップとを備える。
11.上記9において、前記画像データに関する処理を行うステップは、2つの前記画像データに含まれる前記ピクセルの前記画素値から前記特徴量を減算するステップと、
前記減算するステップで得られた減算結果を、それぞれの画像データにおける前記画素値の分散で除算するステップと、
前記除算するステップで得られた除算結果を、前記2つの画像データ間における差分を計算するステップとを備える。
12.上記9において、前記画像データに関する処理を行うステップは、ヒストグラムを作成するステップと、
前記ヒストグラムを基にして前記画像データを二値化するステップとを備える。
Furthermore, the image processing method
9. In the
10. In
Calculating a difference between the two image data of the subtraction result obtained in the subtracting step.
11. In
Dividing the subtraction result obtained in the subtracting step by the variance of the pixel values in the respective image data;
A step of calculating a difference between the two image data based on the division result obtained in the dividing step.
12 9. In the above 9, the processing relating to the image data includes the step of creating a histogram,
And binarizing the image data based on the histogram.
更に画像処理システムは、
13.上記4において前記並列処理装置は、2つの前記画像データに含まれる前記ピクセルの前記画素値から前記特徴量を減算し、前記2つの画像データ間における前記減算結果の差分を計算する。
14.上記13において前記並列処理装置は、前記減算結果を前記画像データの前記画素値の分散で除算し、前記2つの画像データ間における前記除算結果の差分を計算する。
15.上記4において前記並列処理装置は、前記画像データに含まれる前記ピクセルの前記画素値から前記特徴量に基づいて前記画像データを二値化する。
Furthermore, the image processing system
13. In 4 above, the parallel processing device subtracts the feature amount from the pixel values of the pixels included in the two image data, and calculates a difference between the subtraction results between the two image data.
14 In the above 13, the parallel processing device divides the subtraction result by the variance of the pixel values of the image data, and calculates a difference of the division result between the two image data.
15. In the
なお、本願発明は上記実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。更に、上記実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組み合わせにより種々の発明が抽出されうる。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除された構成が発明として抽出されうる。 Note that the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the scope of the invention in the implementation stage. Furthermore, the above embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some constituent requirements are deleted from all the constituent requirements shown in the embodiment, the problem described in the column of the problem to be solved by the invention can be solved, and the effect described in the column of the effect of the invention Can be extracted as an invention from which this configuration requirement is deleted.
1…画像処理システム、2、20…LSI、3…ホストプロセッサ、4…I/Oプロセッサ、5…メインメモリ、6…グラフィックプロセッサ、30…データ入力装置、31…入力バッファ、32…特徴量抽出装置、40…高並列処理装置、41…処理ユニット、42…特徴量記憶装置、50…記憶装置、51−1、51−2…プログラム、60…DMAコントローラ、70…データバス、80…MPEGデコーダ、81…減算器、82…加算器、83…DCT部、84…量子化部、85…可変長符号化部、86、87…バッファ、88…レート制御部、89…逆量子化部、90…逆DCT部、91…動き補償予測部、100…メインメモリ、110…プログラムカウンタ
DESCRIPTION OF
Claims (5)
複数の処理ユニットを備え、各々の処理ユニットがそれぞれ前記特徴量を用いて前記画像データに関する処理を行う並列処理装置と
を具備し、前記処理ユニットの各々は、前記特徴量抽出装置で抽出された前記特徴量を保持する保持回路を備え、該保持回路に保持する前記特徴量を用いて処理を行い、
前記特徴量抽出装置は、前記並列処理装置から独立して演算を行う
ことを特徴とする半導体集積回路装置。 A feature extraction device that performs statistical processing on digital image data and extracts features;
A plurality of processing units, and each processing unit includes a parallel processing device that performs processing on the image data using the feature amount, and each of the processing units is extracted by the feature amount extraction device. A holding circuit for holding the feature amount, and performing processing using the feature amount held in the holding circuit;
The feature quantity extraction device performs an operation independently of the parallel processing device. A semiconductor integrated circuit device, wherein:
ことを特徴とする請求項1記載の半導体集積回路装置。 The semiconductor integrated circuit device according to claim 1, wherein the feature amount is an average value of pixel values of a region including a plurality of pixels in the image data.
前記プログラムが読み出されるメインメモリと
を更に備え、前記処理ユニットは前記メインメモリに読み出されたいずれかの前記プログラムに基づいて処理を実行する
ことを特徴とする請求項1または2記載の半導体集積回路装置。 A storage device that holds a plurality of programs for operating the processing unit;
The semiconductor integrated circuit according to claim 1, further comprising: a main memory from which the program is read, wherein the processing unit executes a process based on any one of the programs read into the main memory. Circuit device.
画像を撮影してデジタルの前記画像データを取得する撮像装置と
を具備し、前記半導体集積回路は前記撮像装置から前記画像データが転送され、該画像データを一時的に保持するバッファ回路と、
前記並列処理装置で処理された前記画像データを記憶する記憶装置と
を更に備え、前記特徴量抽出装置は前記バッファ回路に転送された前記画像データについて前記特徴量を抽出する
ことを特徴とする画像処理システム。 A semiconductor integrated circuit device according to any one of claims 1 to 3,
An image pickup device for taking an image and obtaining the digital image data, and the semiconductor integrated circuit receives the image data from the image pickup device and temporarily holds the image data;
A storage device that stores the image data processed by the parallel processing device, and the feature amount extraction device extracts the feature amount of the image data transferred to the buffer circuit. Processing system.
前記画像データを受信するステップと、
受信した前記画像データについて特徴量抽出装置が特徴量を計算するステップと、
前記特徴量を前記処理ユニットの各々に転送するステップと、
転送された前記特徴量を用いて、前記処理ユニットの各々が前記画像データに関する処理を行うステップと
を具備することを特徴とする画像処理方法。 An image processing method for processing image data using a parallel processing device including a plurality of processing units,
Receiving the image data;
A feature amount extraction device calculating a feature amount for the received image data;
Transferring the feature quantity to each of the processing units;
Each of the processing units performs processing related to the image data using the transferred feature quantity. An image processing method comprising:
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005112507A JP2006293632A (en) | 2005-04-08 | 2005-04-08 | Semiconductor integrated circuit device, image processing system, and image processing method |
PCT/JP2005/022134 WO2006112079A2 (en) | 2005-04-08 | 2005-11-25 | Semiconductor integrated circuit device which processes image data using highly parallel processing units, image processing system and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005112507A JP2006293632A (en) | 2005-04-08 | 2005-04-08 | Semiconductor integrated circuit device, image processing system, and image processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006293632A true JP2006293632A (en) | 2006-10-26 |
Family
ID=36950485
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005112507A Pending JP2006293632A (en) | 2005-04-08 | 2005-04-08 | Semiconductor integrated circuit device, image processing system, and image processing method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2006293632A (en) |
WO (1) | WO2006112079A2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014081826A (en) * | 2012-10-17 | 2014-05-08 | Denso Corp | Object identification apparatus |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0540740A (en) * | 1991-07-01 | 1993-02-19 | Nec Corp | Pattern matching processor and parallel pattern matching processor |
JPH0581433A (en) * | 1991-09-20 | 1993-04-02 | Yamaha Motor Co Ltd | Method and device for pattern matching |
JPH09245168A (en) * | 1996-03-13 | 1997-09-19 | Tech Res & Dev Inst Of Japan Def Agency | Picture recognizing device |
JP2001357399A (en) * | 2000-06-06 | 2001-12-26 | Matsushita Electric Works Ltd | Device and method for processing picture |
JP2002183732A (en) * | 2000-12-13 | 2002-06-28 | Toshiba Corp | Pattern recognition method and computer-readable storage medium stored with program executing pattern recognition |
JP2004173224A (en) * | 2002-11-20 | 2004-06-17 | National Chiao Tung Univ | Method and apparatus for motion estimation by full binary expression |
-
2005
- 2005-04-08 JP JP2005112507A patent/JP2006293632A/en active Pending
- 2005-11-25 WO PCT/JP2005/022134 patent/WO2006112079A2/en not_active Application Discontinuation
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0540740A (en) * | 1991-07-01 | 1993-02-19 | Nec Corp | Pattern matching processor and parallel pattern matching processor |
JPH0581433A (en) * | 1991-09-20 | 1993-04-02 | Yamaha Motor Co Ltd | Method and device for pattern matching |
JPH09245168A (en) * | 1996-03-13 | 1997-09-19 | Tech Res & Dev Inst Of Japan Def Agency | Picture recognizing device |
JP2001357399A (en) * | 2000-06-06 | 2001-12-26 | Matsushita Electric Works Ltd | Device and method for processing picture |
JP2002183732A (en) * | 2000-12-13 | 2002-06-28 | Toshiba Corp | Pattern recognition method and computer-readable storage medium stored with program executing pattern recognition |
JP2004173224A (en) * | 2002-11-20 | 2004-06-17 | National Chiao Tung Univ | Method and apparatus for motion estimation by full binary expression |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014081826A (en) * | 2012-10-17 | 2014-05-08 | Denso Corp | Object identification apparatus |
Also Published As
Publication number | Publication date |
---|---|
WO2006112079A2 (en) | 2006-10-26 |
WO2006112079A3 (en) | 2007-05-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2512130C2 (en) | Device and method for high-resolution imaging at built-in device | |
JP5962937B2 (en) | Image processing method | |
JP2009147807A (en) | Image processing apparatus | |
CN109493297B (en) | Low-quality face image enhancement method, system, equipment and storage medium | |
TW200803521A (en) | Randomly sub-sampled partition voting (RSPV) algorithm for scene change detection | |
CN111107370B (en) | Video watermark embedding processing method and device, electronic equipment and storage medium | |
CN112866799A (en) | Video frame extraction processing method, device, equipment and medium | |
KR20150031241A (en) | A device and a method for color harmonization of an image | |
JPWO2009142003A1 (en) | Image coding apparatus and image coding method | |
CN112419132B (en) | Video watermark detection method, device, electronic equipment and storage medium | |
US20120144304A1 (en) | System and method for reducing artifacts in images | |
US20140092116A1 (en) | Wide dynamic range display | |
CN114943649A (en) | Image deblurring method, device and computer readable storage medium | |
US6665340B1 (en) | Moving picture encoding/decoding system, moving picture encoding/decoding apparatus, moving picture encoding/decoding method, and recording medium | |
CN113810654A (en) | Image video uploading method and device, storage medium and electronic equipment | |
JP2006293632A (en) | Semiconductor integrated circuit device, image processing system, and image processing method | |
JP5153660B2 (en) | Image processing apparatus, image processing method, and program | |
KR101853211B1 (en) | Complexity Reduction of SIFT for Video based on Frame Difference in the Mobile GPU environment | |
CN114007073A (en) | Large scene based picture storage system and use method thereof | |
TWI468015B (en) | Apparatus and method for parallely processing video decoding | |
JP6242055B2 (en) | Image encoding device | |
JP4435838B2 (en) | Method and apparatus for enhancing digital image | |
CN114092924A (en) | Clothes stain recognition method, device, equipment and storage medium | |
JP2009267726A (en) | Moving image encoding apparatus, recorder, moving image encoding method, moving image encoding program | |
Poola et al. | Design of Matlab/Simulink-based Edge Detection operators and hardware implementation on ZYNQ FPGA |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100810 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101012 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101130 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110426 |