JP2976302B2 - Image processing device - Google Patents

Image processing device

Info

Publication number
JP2976302B2
JP2976302B2 JP1188199A JP18819989A JP2976302B2 JP 2976302 B2 JP2976302 B2 JP 2976302B2 JP 1188199 A JP1188199 A JP 1188199A JP 18819989 A JP18819989 A JP 18819989A JP 2976302 B2 JP2976302 B2 JP 2976302B2
Authority
JP
Japan
Prior art keywords
image
image frame
learning
arbitrary
sample transfer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP1188199A
Other languages
Japanese (ja)
Other versions
JPH0352084A (en
Inventor
達基 犬塚
則文 箭内
恵子 金田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP1188199A priority Critical patent/JP2976302B2/en
Publication of JPH0352084A publication Critical patent/JPH0352084A/en
Application granted granted Critical
Publication of JP2976302B2 publication Critical patent/JP2976302B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、画像情報を、予め作成した学習規則に基づ
き演算処理するニューラルネット構造の計算機を用いた
画像処理装置に関する。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus using a computer having a neural network structure that performs arithmetic processing on image information based on a learning rule created in advance.

〔従来の技術〕[Conventional technology]

ニューラルネット構造の計算機では、内部での演算量
が非常に多いので、入力層に一度に入力する画像データ
を大きくすることができない。このために、従来のニュ
ーラルネット構造の画像処理装置は、1つの画像フレー
ムに対して、全体の画像データではなく一部分の画像デ
ータ、すなわち8×8画素の画像ブロックを単位として
信号を入力し、この信号を基にして演算処理を実行する
ようにしている。このことは、例えば、電子情報通信学
会、画像工学研究会予稿IE88−62(1988年)、第57項か
ら第64項における「ニューラルネットによる画像データ
圧力(Neuro−CODEC)の検討」において論じられてい
る。
In a computer having a neural network structure, the amount of internal calculation is very large, and thus image data input to the input layer at one time cannot be increased. For this purpose, a conventional image processing apparatus having a neural network structure inputs a signal to one image frame in units of a part of image data, that is, an image block of 8 × 8 pixels, instead of entire image data, Arithmetic processing is executed based on this signal. This is discussed, for example, in the IEICE, IEICE Preprints IE88-62 (1988), “Study of Image Data Pressure (Neuro-CODEC) Using Neural Networks” in Paragraphs 57 to 64. ing.

〔発明が解決しようとする課題〕[Problems to be solved by the invention]

しかしながら、上記従来の技術では、画像フレームを
構成する画素数が多い場合には、局所的な画像しか演算
対象とすることができず、画像全体で表現されている内
容についての演算ができないという問題がある。
However, in the above-described conventional technique, when the number of pixels constituting an image frame is large, only a local image can be set as a calculation target, and a calculation cannot be performed on contents expressed in the entire image. There is.

また、画像フレーム内の対象物体の位置、大きさが異
なれば、予め作成した学習規則の有効な利用は困難とな
り、演算結果の精度が低下してしまうという問題もあ
る。
Further, if the position and size of the target object in the image frame are different, it is difficult to effectively use the learning rule created in advance, and there is a problem that the accuracy of the calculation result is reduced.

本発明の目的は、画像フレーム内の画像信号の全体を
演算対象とするとともに、対象物体の位置と大きさを正
規化することにより、演算結果の精度を向上させること
ができる画像処理装置を提供することである。
An object of the present invention is to provide an image processing apparatus capable of improving the accuracy of a calculation result by normalizing a position and a size of a target object while making the entire image signal in an image frame a calculation target. It is to be.

〔課題を解決するための手段〕[Means for solving the problem]

上記目的を達成するために、本発明の画像処理装置
は、少なくとも1つの画像フレームを蓄積する画像フレ
ーム蓄積手段と、該画像フレーム蓄積手段内の任意の画
像フレームに対して、任意の位置から任意の大きさの画
像データをサンプリングして転送するサンプル転送手段
と、対象画像の位置と大きさを正規化するための複数種
類の学習規則を蓄積する学習規則蓄積手段と、入力層、
中間層および出力層からなるニューラルネット構造をな
し、前記学習規則に基づいて前記サンプル転送手段から
の画像データを段階的に演算処理する演算手段と、該演
算手段が段階的に演算処理をする度に、その演算結果を
取り込んで、前記サンプル転送手段のサンプリング条件
を設定する一方、前記学習規則蓄積手段から学習規則を
順次選択する選択手段と、を具備するものである。
In order to achieve the above object, an image processing apparatus according to the present invention comprises: an image frame accumulating unit that accumulates at least one image frame; Sample transfer means for sampling and transferring image data having a size of, learning rule storage means for storing a plurality of types of learning rules for normalizing the position and size of the target image, an input layer,
An arithmetic means for forming a neural network structure comprising an intermediate layer and an output layer, for performing an arithmetic operation on the image data from the sample transfer means in a stepwise manner based on the learning rule; And selecting means for setting sampling conditions of the sample transfer means while taking in the calculation result and sequentially selecting learning rules from the learning rule storage means.

また、本発明の画像処理装置は、少なくとも1つの画
像フレームを蓄積する画像フレーム蓄積手段と、該画像
フレーム蓄積手段内の任意の画像フレームに対して、任
意の位置から任意の大きさの画像データをサンプリング
して転送するサンプル転送手段と、入力層、中間層およ
び出力層からなるニューラルネット構造をなし、対象画
像の位置と大きさを正規化するための複数種類の学習規
則を他の計算機から取り込み、その取り込んだ学習規則
に基づいて前記サンプル転送手段からの画像データを段
階的に演算処理する演算手段と、該演算手段が段階的に
演算処理する度に、その演算結果を取り込んで、前記サ
ンプル転送手段のサンプリング条件を設定する一方、前
記他の計算機から学習規則を順次選択する選択手段と、
を具備するものである。
Further, the image processing apparatus according to the present invention comprises: an image frame accumulating means for accumulating at least one image frame; and image data of an arbitrary size from an arbitrary position with respect to an arbitrary image frame in the image frame accumulating means. A sample transfer means for sampling and transferring, and a neural network structure consisting of an input layer, an intermediate layer and an output layer, and a plurality of learning rules for normalizing the position and size of the target image from other computers. An arithmetic means for performing stepwise arithmetic processing of the image data from the sample transfer means based on the captured learning rule; and each time the arithmetic means performs an arithmetic processing step by step, the arithmetic result is captured. Selecting means for sequentially selecting learning rules from the other computer while setting sampling conditions of the sample transfer means;
It is provided with.

また、本発明は、上記した画像処理装置をテレビカメ
ラ制御装置または高能率符号化装置に適用したものであ
る。
Further, the present invention applies the above-described image processing device to a television camera control device or a high efficiency coding device.

〔作用〕[Action]

上記構成によれば、サンプル転送手段が、画像フレー
ム蓄積手段内の任意の画像フレームに対して、任意の位
置から任意の大きさの画像データをサンプリングし、そ
のサンプリングした画像データをニューラルネット構造
の演算手段へ転送する。演算手段では、転送されてきた
画像データを、学習規則蓄積手段内の或学習規則に基づ
いて第1段階の演算処理を行う。このとき、演算処理を
行う度に、その演算結果が選択手段に送られる。選択手
段では、送られてきた演算結果を基にして、サンプル転
送手段にサンプリング条件設定の信号を出力する一方、
学習規則蓄積手段に次にどの学習規則を使うのかの選択
の信号を出力する。そして、演算手段では、次に転送さ
れてきた画像データを、次の或学習規則に基づいて第2
段階の演算処理を行う。このように段階的に順次演算処
理を行うことによって、画像データ全体が得られる。
According to the above configuration, the sample transfer unit samples image data of an arbitrary size from an arbitrary position with respect to an arbitrary image frame in the image frame storage unit, and converts the sampled image data into a neural network structure. Transfer to arithmetic means. The calculating means performs a first-stage calculating process on the transferred image data based on a certain learning rule in the learning rule storing means. At this time, every time the calculation processing is performed, the calculation result is sent to the selection means. The selection means outputs a signal of the sampling condition setting to the sample transfer means based on the received operation result,
A signal for selecting which learning rule to use next is output to the learning rule storage means. Then, the calculating means converts the next transferred image data into the second data based on the next certain learning rule.
Performs stepwise computation. As described above, by sequentially performing the arithmetic processing, the entire image data is obtained.

また、学習規則蓄積手段を他の計算機(例えば大型の
計算機)の内部に設置すれば、演算手段は、他の計算機
から学習規則を取り込むことになる。この場合、選択手
段は他の計算機に対して学習規則選択の信号を出力す
る。
If the learning rule accumulation means is installed inside another computer (for example, a large computer), the arithmetic means fetches the learning rule from the other computer. In this case, the selection means outputs a learning rule selection signal to another computer.

さらに、本発明の画像処理装置をカメラ制御装置に適
用すれば、対象画像が画面の中央になるように、対象物
をカメラで自動追従することができる。
Further, if the image processing device of the present invention is applied to a camera control device, the object can be automatically followed by the camera so that the target image is at the center of the screen.

また、本発明の画像処理装置を高能率符号化装置に適
用すれば、フレーム画像間の差を求めることで対象画像
の特定領域が抽出できる。
Further, when the image processing device of the present invention is applied to a high-efficiency coding device, a specific region of a target image can be extracted by calculating a difference between frame images.

〔実施例〕〔Example〕

以下に本発明の一実施例を図面に従って説明する。 An embodiment of the present invention will be described below with reference to the drawings.

第1図は本発明に係る画像処理装置の基本構成図であ
る。図において、画像フレームメモリ110は複数の画像
を蓄積できるようになっており、例えば時間的に変化す
る動画像情報が入力されることにより、対象画像の静止
状態のみならず、動き成分を用いた演算処理ができるよ
うになっている。サンプル転送部120は、画像フレーム
メモリ110内の任意の画像フレームに対して、任意の位
置から任意の大きさで画像信号をサンプリングする機能
を持っている。画像フレームメモリ110を半導体メモリ
で構成する場合には、サンプル転送部120は、フレーム
メモリをアクセスするアドレス発生回路で構成する。
FIG. 1 is a basic configuration diagram of an image processing apparatus according to the present invention. In the figure, the image frame memory 110 is capable of storing a plurality of images. For example, when moving image information that changes over time is input, not only the stationary state of the target image but also a motion component is used. Arithmetic processing can be performed. The sample transfer unit 120 has a function of sampling an image signal of an arbitrary size from an arbitrary position with respect to an arbitrary image frame in the image frame memory 110. When the image frame memory 110 is configured by a semiconductor memory, the sample transfer unit 120 is configured by an address generation circuit that accesses the frame memory.

計算機130はニューラルネット構造をしており、入力
層、複数の中間層、出力層で構成されている。そして、
入力層と中間層との層間、および中間層と出力層との層
間は重み係数を持ったネットワークで接続されている。
計算機130に採用したニューラルネット構造は、第2図
に示すような基本回路の組合せからなっている。ここ
で、上記の各層間を接続するネットワークの重み係数W
ijは、例えばバックプロパゲーション法として知られる
学習手順によって予め作成しておくことができる。本発
明は、この学習法に依存するものではなく、任意の学習
法を選択することができる。
The computer 130 has a neural network structure and includes an input layer, a plurality of intermediate layers, and an output layer. And
The layers between the input layer and the intermediate layer and the layers between the intermediate layer and the output layer are connected by a network having a weight coefficient.
The neural network structure employed in the computer 130 is composed of a combination of basic circuits as shown in FIG. Here, the weight coefficient W of the network connecting the above layers
The ij can be created in advance by a learning procedure known as a back propagation method, for example. The present invention does not depend on this learning method, and can select an arbitrary learning method.

この学習結果は学習規則蓄積部140に蓄積されるが、
学習規則蓄積部140は、演算の目的に応じた複数種類の
学習規則がまとめられており、任意に選択できるように
なっている。そして、スケジューラ150は、サンプル転
送部120のサンプリング条件の設定、および学習規則蓄
積部140は学習規則の選択を順次行い、複数の演算処理
を実行する。
This learning result is stored in the learning rule storage unit 140,
The learning rule storage unit 140 stores a plurality of types of learning rules according to the purpose of the operation, and can arbitrarily select the learning rules. Then, the scheduler 150 sets the sampling conditions of the sample transfer unit 120, and the learning rule accumulation unit 140 sequentially selects the learning rule, and executes a plurality of arithmetic processes.

また、演算結果を用いた条件判定等を行う論理演算機
能をスケジューラ150に設けることで、複数の演算処理
を条件分岐を伴いながら順次実行することができる。こ
れにより、例えばフローチャートで記述した順次な演算
フローを容易に実現することができる。
Further, by providing the scheduler 150 with a logical operation function for performing a condition determination or the like using an operation result, a plurality of operation processes can be sequentially executed with conditional branching. Thereby, for example, the sequential operation flow described in the flowchart can be easily realized.

第3図は画像フレームメモリ110とサンプル転送部120
を詳細に示したものである。サンプル転送部120は、ア
ドレス発生部120Aと転送部120Bとから構成されている。
アドレス発生部120Aにおいて、サンプリング始点(sx,s
y)およびサンプリング間隔(dx,dy)が指定され、これ
らの情報は信号x,yとして画像フレームメモリ110に送信
される。画像フレームメモリ110においては、送信され
てきた信号x,yに基づいてサンプリング画素領域が設定
される。そして、そのサンプリング画素領域の画像デー
タは、転送部120Bを介して計算機130へ出力される。
FIG. 3 shows an image frame memory 110 and a sample transfer unit 120.
Is shown in detail. The sample transfer section 120 includes an address generation section 120A and a transfer section 120B.
In the address generator 120A, the sampling start point (sx, s
y) and a sampling interval (dx, dy) are designated, and these information are transmitted to the image frame memory 110 as signals x, y. In the image frame memory 110, a sampling pixel area is set based on the transmitted signals x and y. Then, the image data of the sampling pixel area is output to the computer 130 via the transfer unit 120B.

なお、本実施例では、画像フレームメモリ110、サン
プル転送部120、計算機130、学習規則蓄積部140、スケ
ジューラ150は、それぞれ画像フレーム蓄積手段、サン
プル転送手段、演算手段、学習規則蓄積手段、選択手段
に相当する。
In the present embodiment, the image frame memory 110, the sample transfer unit 120, the computer 130, the learning rule storage unit 140, and the scheduler 150 are respectively an image frame storage unit, a sample transfer unit, a calculation unit, a learning rule storage unit, and a selection unit. Is equivalent to

次に人物顔画像を対象とした信号処理手順の一例を第
4図を参照して説明する。ここでは、複数の学習規則を
用いたニューラルネット構造の計算機処理と、計算機の
演算結果を用いた論理的な条件判定処理と、予め設定し
た常識に基づく知識データベースによる推測処理とを組
み合わせて、人物顔画像の特定部位を演算結果として出
力する手順を示している。以下、その処理内容を図に示
したステップ番号(1)〜(6)に従って説明する。
Next, an example of a signal processing procedure for a human face image will be described with reference to FIG. Here, a combination of computer processing of a neural network structure using a plurality of learning rules, logical condition determination processing using the calculation results of the computer, and inference processing based on a knowledge database based on preset common sense is used. 4 shows a procedure for outputting a specific part of a face image as a calculation result. Hereinafter, the processing content will be described according to the step numbers (1) to (6) shown in the figure.

まず、ステップ(1)とステップ(2)では、対象と
する人物顔画像の位置と大きさを正規化するために、学
習規則1を用いた演算を行う。第5図に示すように、撮
像条件によって、対象画像の位置と大きさは一定でな
い。このため、サンプル転送部120は、画面全体から画
像情報を入力できるように、縮小して、言い換えれば粗
くサンプリングして入力層に転送する。
First, in steps (1) and (2), an operation using learning rule 1 is performed in order to normalize the position and size of the target person face image. As shown in FIG. 5, the position and size of the target image are not constant depending on the imaging conditions. For this reason, the sample transfer unit 120 reduces the size, in other words, roughly samples and transfers it to the input layer so that image information can be input from the entire screen.

演算結果として、人力画像中の対象物体の位置と大き
さの補正信号を出力する。この結果を用いて、スケジュ
ーラ150はサンプル転送部120にサンプリング条件を再設
定し、再び同じ学習規則を用いて演算する。そして、演
算結果として出力する補正信号が一定値以下であれば、
位置と大きさの正規化処理が終了したと判定し、次のス
テップへ進む。
As a calculation result, a correction signal for the position and size of the target object in the human-powered image is output. Using this result, the scheduler 150 resets the sampling conditions in the sample transfer unit 120 and performs the operation again using the same learning rule. If the correction signal output as the calculation result is equal to or less than a certain value,
It is determined that the position and size normalization processing has been completed, and the process proceeds to the next step.

このように、収束条件を用いて繰り返し実行するの
は、学習規則に基づく演算結果には多少の誤差が含まれ
る可能性があり、それによる誤った判断を避けるためで
ある。
The reason why the repetitive execution is performed using the convergence condition is that the calculation result based on the learning rule may include some errors, thereby avoiding erroneous determination due to the error.

ここで利用する学習規則は、上記収束条件を満たすこ
とを目標値とした、学習手順によって作成した結果であ
り、そのアルゴリズムはバックプロパゲーション等の任
意の方法で良い。
The learning rule used here is a result created by a learning procedure with a target value satisfying the convergence condition, and the algorithm thereof may be any method such as back propagation.

次にステップ(3)において、人物顔画像の位置と大
きさが正規化できれば、顔の特定部位(例えば唇の位
置)は、予め作成しておいた知識データベースに基づき
推測が可能である。この推測は、第6図に示すように、
前段のステップ(1),(2)で得られた位置と大きさ
の信号に、上記データベースに基づく唇の位置と大きさ
の信号を組み合わせるという論理的な演算処理で実行す
る。
Next, in step (3), if the position and size of the human face image can be normalized, the specific part of the face (for example, the position of the lips) can be estimated based on a knowledge database created in advance. This guess is, as shown in FIG.
The position and size signals obtained in the previous steps (1) and (2) are combined with the lip position and size signals based on the database to execute the logical operation.

ただし、人物顔画像のように、個性によってばらつき
のある対象画像では、一意に唇の位置を決定することは
誤りが生じやすい。そこで、本ステップによる結果を、
サンプル転送部120の設定条件として、次のステップに
より、その精度を高める演算を行う。
However, in a target image such as a human face image that varies depending on personality, it is easy to make an error to uniquely determine the position of the lips. Therefore, the result of this step is
As a setting condition of the sample transfer unit 120, an operation for improving the accuracy is performed in the following steps.

さらに、ステップ(4)とステップ(5)では、第7
図に示すようにステップ(1),(2)と同様にニュー
ラルネット構造の計算機処理を行う。ただし、ここでの
計算機処理には学習規則2が用いられる。そして、ステ
ップ(3)で残された唇の位置と大きさの誤差成分を、
一定値以下に収束させるまで繰り返し演算を実行する。
Further, in step (4) and step (5), the seventh
As shown in the figure, computer processing of a neural network structure is performed in the same manner as in steps (1) and (2). However, the learning rule 2 is used for the computer processing here. Then, the error component of the position and size of the lips left in step (3) is
The calculation is repeatedly performed until the value converges to a certain value or less.

そして、ステップ(6)では、前段のステップまでに
得られた結果を用いて唇の位置と大きさを一定条件のも
とで入力し、本ステップでは、唇の形状を学習規則3を
用いて状態に分類する。すなわち、第8図に示すように
予め学習規則としてまとめた唇の形状の中から、最も誤
差が小さく一致する形状を、ニューラルネット構造の計
算機を用いて演算し、状態値として出力する。
Then, in step (6), the position and size of the lips are input under certain conditions using the results obtained up to the previous step. In this step, the shape of the lips is determined using learning rule 3. Classify into states. That is, as shown in FIG. 8, a shape having the smallest error is calculated from the shapes of the lips which have been compiled as learning rules in advance using a computer having a neural network structure, and output as a state value.

上記例で示す学習規則は、例えば第9図に示すよう
に、複数種類をまとめておき、目的に応じて選択できる
ようにすることができる。
As shown in FIG. 9, for example, the learning rules shown in the above example can be grouped into a plurality of types and can be selected according to the purpose.

このようにして得られた顔画像の形状を、状態値とし
て表すことで、極めて少ない情報量で顔画像を実現する
ことができる。
By expressing the shape of the thus obtained face image as a state value, the face image can be realized with an extremely small amount of information.

また、唇等の特定部位の位置の算出後、該位置を中心
とした部分に対して、それ以外の部分に比べ劣化の少な
い符号化処理を実行することで、人間の視覚特性上、注
目を集める部分を誤差少なく圧縮することができる。例
えば直交変換を用いた符号化処理では、高周波成分の選
択手段を設けることで、画像とビットレートの組み合わ
せを比較的容易に設定できることが知られている。した
がって、上記のように、目、唇等の位置を算出し、それ
らの部位を中心とした領域の画質を、他部分に比べて高
めることで、見かけ上の画質を高めることができる。
Also, after calculating the position of a specific part such as a lip, by performing an encoding process with less deterioration compared to other parts on a portion centered on the position, attention is paid to human visual characteristics. The part to be collected can be compressed with less error. For example, in an encoding process using orthogonal transform, it is known that a combination of an image and a bit rate can be set relatively easily by providing a high frequency component selection unit. Therefore, as described above, the apparent image quality can be improved by calculating the positions of the eyes, lips, and the like, and increasing the image quality of the region centered on those portions as compared with other portions.

また、動画像情報を蓄積した画像フレームメモリ110
から、顔画像の位置と大きさを算出し、常に顔画像が画
面の中央に位置するように、サンプル転送部120、もし
くは撮像装置(例えばTVカメラ)の条件設定を行う。こ
うして、TV電話、TV会議等において人物顔画像を画面の
中央になるように自動追従しながら、画像符号化伝送を
行うことができる。
An image frame memory 110 storing moving image information is also provided.
Then, the position and size of the face image are calculated, and the conditions of the sample transfer unit 120 or the imaging device (for example, a TV camera) are set so that the face image is always located at the center of the screen. In this way, image encoding transmission can be performed while automatically following a person's face image in the center of the screen in a videophone, a video conference, or the like.

上記実行例では唇の形状を状態値として出力する手順
を示したが、同様にして、目の形状、顔の表情等を状態
値として出力することもできる。また本実施例の装置
は、物の形状を識別する装置(例えばFA(Factoy Autom
ation)装置等)に応用することも可能である。
In the above-described execution example, the procedure of outputting the shape of the lips as the state value is shown. However, similarly, the shape of the eyes, the facial expression, and the like can be output as the state value. The apparatus according to the present embodiment is an apparatus for identifying the shape of an object (for example, FA (Factoy Automated
ation) device, etc.).

また、第10図に示すように動画像情報を画像フレーム
110に蓄積することにより、フレーム間の動き成分を検
出することが可能である。例えば、唇の動き成分を検出
し、発音の内容を判断することができる。
In addition, as shown in FIG.
By storing in the 110, it is possible to detect a motion component between frames. For example, a lip movement component can be detected, and the content of pronunciation can be determined.

さらに、第11図に示すように、対象物体の背景画像を
予め背景フレームメモリ510に蓄積し、対象物体を含ん
だ入力画像を入力フレームメモリ520に蓄積して、両者
の差分を比較装置530を用いて演算し、差のある成分を
対象物体の画像情報として、入力フレームメモリ520か
ら出力装置540を通して出力することで、対象物体のみ
を切り出した画像を出力する装置を構成することができ
る。この出力結果を従来の画像符号装置等を用いて、符
号化伝送することで高い圧縮率を達成できる。
Further, as shown in FIG. 11, the background image of the target object is stored in the background frame memory 510 in advance, the input image including the target object is stored in the input frame memory 520, and the difference between the two is compared with the comparison device 530. By calculating and using the output, and outputting the difference component as image information of the target object from the input frame memory 520 through the output device 540, it is possible to configure a device that outputs an image obtained by cutting out only the target object. A high compression rate can be achieved by encoding and transmitting the output result using a conventional image encoding device or the like.

カラー画像で入力した画像情報を対象とする場合に
は、画像の色相関性を利用した演算処理を行うことがで
きる。例えば人物顔画像では、顔の全体において肌色で
あり、目、唇等は、形状と共に特有の色分布を持ってお
り、これらの色相関性を学習規則として蓄積しておくこ
とで、演算処理を実行できる。
In a case where image information input as a color image is targeted, arithmetic processing using the color correlation of the image can be performed. For example, in a human face image, the entire face has a flesh color, and eyes, lips, and the like have a specific color distribution along with the shape. By accumulating these color correlations as learning rules, the arithmetic processing can be performed. I can do it.

第12図は、本発明の一応用例であり、TVカメラ等の画
像入力装置200で入力した人物の顔画像を、伝送路210を
介して送信側から受信側へ伝送する装置、あるいは、光
ファイル、データベース等に蓄積する装置の構成を示
す。
FIG. 12 shows an application example of the present invention, and a device for transmitting a face image of a person input by an image input device 200 such as a TV camera from a transmission side to a reception side via a transmission path 210, or an optical file. 1 shows a configuration of an apparatus for storing data in a database or the like.

送信側、受信側の双方で、顔画像に関する情報、例え
ば、標準的な目の形状、顔の輪郭、口の形状、等を顔画
像データベースとして共通に持つ。そして、画像分析装
置220においては、この顔画像データベース230の内容を
用いて、入力顔画像の目の位置、大きさ、形状の相異点
等を、特徴量として出力する。一方、画像合成装置240
において、入力した特徴量と顔画像データベース250の
内容を用いて、コンピュータ・グラフィックス250等の
手段で画像を合成し、表示装置260に出力する。この結
果、入力画像に比べて、極めて少ない情報量を伝送、あ
るいは蓄積することにより、再生画像を得ることができ
る。
Both the transmitting side and the receiving side commonly have information on face images, such as standard eye shapes, face outlines, mouth shapes, etc., as a face image database. Then, the image analysis device 220 uses the contents of the face image database 230 to output the eye position, size, shape difference, and the like of the input face image as a feature amount. On the other hand, the image synthesizing device 240
In step (1), the image is synthesized by means of the computer graphics 250 or the like using the input feature amount and the contents of the face image database 250 and output to the display device 260. As a result, a reproduced image can be obtained by transmitting or storing an extremely small amount of information as compared with the input image.

このような画像の分析・合成による画像情報を圧縮す
る装置において、顔画像データベースの内容との比較を
正確に行うことが重要であり、このためには、入力画像
の正規化が必須である。
In such a device for compressing image information by analyzing and synthesizing an image, it is important to accurately compare the image information with the contents of the face image database, and for this purpose, normalization of the input image is essential.

上記応用例において、本発明は、入力画像の位置と大
きさの正規化を精度よく実行するために、大きな効果が
ある。
In the above-mentioned application example, the present invention has a great effect in that the position and size of the input image are normalized with high accuracy.

なお、ニューラルネット構造の計算機の実現方法は、
ソフトウェア、ハードウェアおよび両者の組み合わせで
様々な手法があるが、本発明はその構成に依存するもの
ではない。
The method of realizing a computer with a neural network structure is as follows.
Although there are various methods using software, hardware, and a combination of both, the present invention does not depend on the configuration.

〔発明の効果〕〔The invention's effect〕

以上説明したように、本発明によれば、ニューラルネ
ット構造の計算機を用いて、画像の全体から局所的な部
分へと順次に演算処理を実行することにより、学習規則
に基づく精度の高い演算結果を得ることができる。
As described above, according to the present invention, a computer having a neural network structure is used to sequentially execute an arithmetic process from the entire image to a local portion, thereby achieving a highly accurate arithmetic result based on a learning rule. Can be obtained.

また、複数の学習規則、演算結果の論理的判定手段、
知識データベース等を組み合わせた演算処理を順序良く
実行することができ、例えば、画像情報の圧縮を効率良
く行うことができる等の効果がある。
In addition, a plurality of learning rules, a logical determination means of the operation result,
Arithmetic processing combining knowledge databases and the like can be executed in order, and for example, there is an effect that image information can be efficiently compressed.

さらに、画像フレームを複数用意することで、動画像
情報の動き成分検出等を精度良く実行できるという効果
もある。
Further, by preparing a plurality of image frames, there is also an effect that the detection of the motion component of the moving image information can be executed with high accuracy.

【図面の簡単な説明】[Brief description of the drawings]

第1図は本発明の画像処理装置の全体構成を示すブロッ
ク図、第2図はニューラルネット構造の見本回路図、第
3図は画像フレームメモリとサンプル転送部の詳細図、
第4図は本発明を用いた計算手順の一例を示すフローチ
ャート、第5図は学習規則に基づく演算例を示す図、第
6図は知識データベースに基づく演算例を示す図、第7
図および第8図は他の学習規則に基づく演算例を示す
図、第9図は学習規則の蓄積方法を示す図、第10図は動
画像の処理方法を示す図、第11図は対象物体の切り出し
方法を示すブロック図、第12図は本発明の応用例を示す
ブロック図である。 110……画像フレームメモリ、 120……サンプル転送部、 130……ニューロネット構造の計算機、 140……学習規則蓄積部、 150……スケジューラ。
FIG. 1 is a block diagram showing the overall configuration of the image processing apparatus of the present invention, FIG. 2 is a circuit diagram of a sample of a neural network structure, FIG. 3 is a detailed diagram of an image frame memory and a sample transfer section,
FIG. 4 is a flowchart showing an example of a calculation procedure using the present invention, FIG. 5 is a diagram showing an example of an operation based on a learning rule, FIG. 6 is a diagram showing an example of an operation based on a knowledge database, FIG.
FIGS. 8 and 9 show examples of operations based on other learning rules, FIG. 9 shows a method of storing learning rules, FIG. 10 shows a method of processing a moving image, and FIG. 11 shows a target object. FIG. 12 is a block diagram showing an application example of the present invention. 110: image frame memory, 120: sample transfer unit, 130: computer with neuronet structure, 140: learning rule storage unit, 150: scheduler.

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 昭60−238984(JP,A) 特開 昭60−159972(JP,A) 特開 昭61−143889(JP,A) 特開 平1−116898(JP,A) (58)調査した分野(Int.Cl.6,DB名) G06T 7/00 G06F 15/18 JICST──────────────────────────────────────────────────続 き Continuation of the front page (56) References JP-A-60-238984 (JP, A) JP-A-60-159972 (JP, A) JP-A-61-143889 (JP, A) JP-A-1- 116898 (JP, A) (58) Fields investigated (Int. Cl. 6 , DB name) G06T 7/00 G06F 15/18 JICST

Claims (5)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】少なくとも1つの画像フレームを蓄積する
画像フレーム蓄積手段と; 該画像フレーム蓄積手段内の任意の画像フレームに対し
て、任意の位置から任意の大きさの画像データをサンプ
リングして転送するサンプル転送手段と; 対象画像の位置と大きさを正規化するための複数種類の
学習規則を蓄積する学習規則蓄積手段と; 入力層、中間層および出力層からなるニューラルネット
構造をなし、前記学習規則に基づいて前記サンプル転送
手段からの画像データを段階的に演算処理する演算手段
と; 該演算手段が段階的に演算処理をする度に、その演算結
果を取り込んで、前記サンプル転送手段のサンプリング
条件を設定する一方、前記学習規則蓄積手段から学習規
則を順次選択する選択手段と; を具備する画像処理装置。
1. An image frame storage means for storing at least one image frame; image data of an arbitrary size is sampled and transferred from an arbitrary position to an arbitrary image frame in the image frame storage means. Learning rule storing means for storing a plurality of types of learning rules for normalizing the position and size of a target image; and a neural network structure comprising an input layer, an intermediate layer, and an output layer; Calculating means for performing stepwise calculation processing on the image data from the sample transfer means based on a learning rule; each time the calculation means performs stepwise calculation processing, the calculation result is taken in; Selecting means for setting sampling conditions and sequentially selecting learning rules from the learning rule accumulating means.
【請求項2】少なくとも1つの画像フレームを蓄積する
画像フレーム蓄積手段と; 該画像フレーム蓄積手段内の任意の画像フレームに対し
て、任意の位置から任意の大きさの画像データをサンプ
リングして転送するサンプル転送手段と; 入力層、中間層および出力層からなるニューラルネット
構造をなし、対象画像の位置と大きさを正規化するため
の複数種類の学習規則を他の計算機から取り込み、その
取り込んだ学習規則に基づいて前記サンプル転送手段か
らの画像データを段階的に演算処理する演算手段と; 該演算手段が段階的に演算処理する度に、その演算結果
を取り込んで、前記サンプル転送手段のサンプリング条
件を設定する一方、前記他の計算機から学習規則を順次
選択する選択手段と; を具備する画像処理装置。
2. An image frame accumulating means for accumulating at least one image frame; and sampling and transmitting image data of an arbitrary size from an arbitrary position to an arbitrary image frame in the image frame accumulating means. A sample transfer means for performing; a neural network structure consisting of an input layer, an intermediate layer, and an output layer; a plurality of learning rules for normalizing the position and size of the target image are taken in from another computer; Calculating means for performing stepwise calculation processing on the image data from the sample transfer means based on a learning rule; each time the calculation means performs stepwise calculation processing, the calculation result is taken in and sampled by the sample transfer means. Selecting means for setting conditions and sequentially selecting learning rules from the other computer.
【請求項3】請求項1又は2記載の画像処理装置におい
て、 前記サンプル転送手段は、前記画像フレーム蓄積手段内
の任意の画像フレームに対して、サンプリング開始の始
点並びにサンプリング間隔を指定するアドレス発生部
と、その指定されたサンプリング画素領域の画像データ
を前記演算手段に転送する転送部と、を有することを特
徴とする画像処理装置。
3. An image processing apparatus according to claim 1, wherein said sample transfer means generates an address for designating a starting point of a sampling start and a sampling interval for an arbitrary image frame in said image frame storage means. An image processing apparatus comprising: a transfer unit configured to transfer image data of the designated sampling pixel area to the arithmetic unit.
【請求項4】請求項1,2又は3記載の画像処理装置を用
いて、対象画像が画面の中央になるようテレビカメラの
向きを制御するテレビカメラ制御装置。
4. A television camera control device for controlling the orientation of a television camera using the image processing device according to claim 1, 2 or 3 so that the target image is located at the center of the screen.
【請求項5】請求項1,2又は3記載の画像処理装置を用
いて、対象画像の特定領域の抽出を行う高能率符号化装
置。
5. A high-efficiency coding apparatus for extracting a specific area of a target image using the image processing apparatus according to claim 1, 2 or 3.
JP1188199A 1989-07-20 1989-07-20 Image processing device Expired - Lifetime JP2976302B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1188199A JP2976302B2 (en) 1989-07-20 1989-07-20 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1188199A JP2976302B2 (en) 1989-07-20 1989-07-20 Image processing device

Publications (2)

Publication Number Publication Date
JPH0352084A JPH0352084A (en) 1991-03-06
JP2976302B2 true JP2976302B2 (en) 1999-11-10

Family

ID=16219508

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1188199A Expired - Lifetime JP2976302B2 (en) 1989-07-20 1989-07-20 Image processing device

Country Status (1)

Country Link
JP (1) JP2976302B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4241074B2 (en) * 2003-02-12 2009-03-18 富士ゼロックス株式会社 Image search device

Also Published As

Publication number Publication date
JPH0352084A (en) 1991-03-06

Similar Documents

Publication Publication Date Title
US11551333B2 (en) Image reconstruction method and device
US7542600B2 (en) Video image quality
CN111193923B (en) Video quality evaluation method and device, electronic equipment and computer storage medium
US8842154B2 (en) Systems and methods for providing personal video services
CN110751649B (en) Video quality evaluation method and device, electronic equipment and storage medium
WO2022073282A1 (en) Motion recognition method based on feature interactive learning, and terminal device
CN110991287A (en) Real-time video stream face detection tracking method and detection tracking system
CN111723707A (en) Method and device for estimating fixation point based on visual saliency
CN113128368B (en) Method, device and system for detecting character interaction relationship
CN112883940A (en) Silent in-vivo detection method, silent in-vivo detection device, computer equipment and storage medium
CN112084954A (en) Video target detection method and device, electronic equipment and storage medium
JP2976302B2 (en) Image processing device
CN115861891B (en) Video target detection method, device, equipment and medium
CN116630852A (en) Scene detection method, electronic device and storage medium
CN112700396A (en) Illumination evaluation method and device for face picture, computing equipment and storage medium
US20220207261A1 (en) Method and apparatus for detecting associated objects
JP7239002B2 (en) OBJECT NUMBER ESTIMATING DEVICE, CONTROL METHOD, AND PROGRAM
CN113887319A (en) Three-dimensional attitude determination method and device, electronic equipment and storage medium
CN114120423A (en) Face image detection method and device, electronic equipment and computer readable medium
CN113450249B (en) Video redirection method with aesthetic characteristics for different liquid crystal screen sizes
CN113837968B (en) Training of human face optical flow estimation network and human face optical flow estimation method and device
WO2023197390A1 (en) Posture tracking method and apparatus, electronic device, and computer readable medium
US20230267671A1 (en) Apparatus and method for synchronization with virtual avatar, and system for synchronization with virtual avatar
CN113888502A (en) No-reference video quality evaluation method, device, equipment and storage medium
CN116527968A (en) Real-time audio and video processing method and device

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees