JPH1040363A - Image processor - Google Patents

Image processor

Info

Publication number
JPH1040363A
JPH1040363A JP8212131A JP21213196A JPH1040363A JP H1040363 A JPH1040363 A JP H1040363A JP 8212131 A JP8212131 A JP 8212131A JP 21213196 A JP21213196 A JP 21213196A JP H1040363 A JPH1040363 A JP H1040363A
Authority
JP
Japan
Prior art keywords
image
input
pixel
image processing
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8212131A
Other languages
Japanese (ja)
Inventor
Isao Horiba
勇夫 堀場
Naoko Hara
直子 原
Kenji Suzuki
賢治 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Healthcare Manufacturing Ltd
Original Assignee
Hitachi Medical Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Medical Corp filed Critical Hitachi Medical Corp
Priority to JP8212131A priority Critical patent/JPH1040363A/en
Publication of JPH1040363A publication Critical patent/JPH1040363A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processor having an input image element selecting part in which a rational input structure and input/output relation can be constructed at the time of using an interlace image as an object in an image processor constituted of neural networks. SOLUTION: An input image element selecting part 12 which inputs image data from an original image supplying part 11, and selects an input image element to an image conversion processing part 13 prepares a field image obtained by separating pixel information in a different time from a frame image, selects an input kernel constituted of only pixels in the same time including at least an object pixel for a spatial direction, and selects the input pixel so that the input kernel can be made smaller with the objective pixel as a center according as it goes back to the past from the objective pixel for a time direction. Thus, the input to a neural network as the image conversion processing part 13 can be rationally selected.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、超音波又は光或い
はX線などを含めた電磁波などの情報キャリアを物体に
照射或いは透入し、この情報キャリアの変化を計測して
画像情報を得る各種医用画像診断装置又は放送用画像処
理装置または産業用画像処理装置又は民生用画像撮影表
示装置などの画像処理装置に関し、特に上記画像情報が
飛び越し走査による画像、いわゆるインタレース画像で
ある場合の入力情報を合理的に選択することができる画
像処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for irradiating or penetrating an object with an information carrier such as an ultrasonic wave or light or an electromagnetic wave including X-rays and measuring a change in the information carrier to obtain image information. Image processing apparatus such as a medical image diagnostic apparatus, a broadcast image processing apparatus, an industrial image processing apparatus, or a consumer image capturing and displaying apparatus, and in particular, input information when the image information is an image obtained by interlaced scanning, that is, a so-called interlaced image And an image processing apparatus that can rationally select the image processing device.

【0002】[0002]

【従来の技術】従来、画像処理装置における画像処理
は、図2に示すように対称画像の中の注目画素1を含む
所定領域の時系列データ2を選択して、注目画素の画像
処理を行っていた。
2. Description of the Related Art Conventionally, in image processing in an image processing apparatus, as shown in FIG. 2, time-series data 2 of a predetermined area including a target pixel 1 in a symmetric image is selected and image processing of the target pixel is performed. I was

【発明が解決しようとしている課題】上記の入力画素の
選択方法はノンインタレース画像においては有効である
が、動画像の一つである超音波断層像などに代表される
インタレース画像に上記入力選択方法を用いた場合には
ラスタースキャン毎、すなわちライン毎に時刻の前後す
る情報が混在するため、処理ラインにより処理画素の時
刻の過去、未来が入れ替わるという矛盾が生じたり、入
力同士の関係が複雑となり、学習動作において所望の入
出力関係を合理的に構築することが困難となる。
The above-described method of selecting input pixels is effective for non-interlaced images. However, the above-described method for selecting input pixels can be applied to an interlaced image represented by an ultrasonic tomographic image which is one of moving images. When the selection method is used, since information before and after the time is mixed for each raster scan, that is, for each line, there is a contradiction that the past and the future of the time of the processing pixel are switched by the processing line, or the relationship between the inputs is changed. It becomes complicated, and it becomes difficult to rationally construct a desired input / output relationship in the learning operation.

【0003】そこで本発明は、ニューラルネットワーク
で構成される画像処理装置においてインタレース画像を
対象とする場合に合理的な入力構造および入出力関係を
構築することができる入力画素選択部を有する画像処理
装置を提供することを目的とする。
[0003] Accordingly, the present invention provides an image processing apparatus having an input pixel selection unit capable of constructing a reasonable input structure and input / output relation when an interlaced image is to be processed in an image processing apparatus constituted by a neural network. It is intended to provide a device.

【0004】[0004]

【課題を解決するための手段】上記目的を達成するため
に本発明は、注目画素を含む処理対象の画像データを出
力する原画像供給部と、この画像データから注目画素及
び注目画素近傍の所定領域を持った入力画素群を画像処
理用画像データとして選択して画像処理情報を出力する
画素選択部と、この画像処理情報を基に注目画素を画像
変換する画像変換処理部と、この画像変換された注目画
素の画像情報を表示する表示部とを有する画像処理装置
において、上記画素選択部は上記原画像供給部からの画
像データを同じ時刻情報毎のフィールド画像群に分割
し、この分割されたフィールド画像群から前記入力画素
群を、あるいは注目画素と同時刻あるいは過去の入力画
素で構成される入力画素群を画像処理用画像データとし
て選択して画像処理情報を出力するものである。
In order to achieve the above object, the present invention provides an original image supply section for outputting image data to be processed including a pixel of interest, and a predetermined pixel in the vicinity of the pixel of interest from the image data. A pixel selection unit that selects an input pixel group having an area as image processing image data and outputs image processing information; an image conversion processing unit that performs image conversion of a pixel of interest based on the image processing information; And a display unit for displaying the image information of the selected target pixel, wherein the pixel selection unit divides the image data from the original image supply unit into a field image group for the same time information, and Image processing by selecting the input pixel group from the set of field images or an input pixel group formed of input pixels at the same time or in the past as the pixel of interest as image processing image data. And outputs the broadcast.

【0005】また、入力画素群は注目画素を中心に対称
な領域を有する入力画素あるいは注目画素から時間的に
離れるほど領域が小さくなる入力画素で構成してもよ
い。さらに、画像処理用画像データは注目画素及び注目
画素より過去であり注目画素を中心に対称な領域であり
かつ注目画素から時間的に離れるほど領域が小さくなる
入力画素群で構成してもよい。
[0005] The input pixel group may be composed of input pixels having a region symmetrical with respect to the pixel of interest or input pixels whose area becomes smaller as the distance from the pixel of interest increases. Further, the image data for image processing may be constituted by a target pixel and an input pixel group that is a region that is past the target pixel and is symmetrical with respect to the target pixel, and that becomes smaller as the distance from the target pixel in time becomes smaller.

【0006】[0006]

【発明の実施の形態】以下、本発明の一実施形態を添付
図面に基づいて詳細に説明する。図1は、本発明による
画像処理装置の実施形態を示すブロック図である。この
画像処理装置は、図1に示すように、原画像供給部1
1、入力画素選択部12、画像変換処理部13、表示部
14により構成される。
An embodiment of the present invention will be described below in detail with reference to the accompanying drawings. FIG. 1 is a block diagram showing an embodiment of the image processing apparatus according to the present invention. As shown in FIG. 1, the image processing apparatus includes an original image supply unit 1.
1, an input pixel selection unit 12, an image conversion processing unit 13, and a display unit 14.

【0007】上記原画像供給部11は、処理対象の画像
データを出力するもので、例えば超音波断層装置又はX
線撮影装置又はX線CT装置又は核医学イメージング装
置或いは磁気共鳴イメージング装置などの医用画像診断
装置、放送用画像処理装置、産業用画像処理装置、民生
用画像撮影表示装置等において物体を計測又は撮影する
計測部、或いは物体について計測した画像データを記憶
しておき必要に応じて読み出す記憶部である。
The original image supply section 11 outputs image data to be processed.
Measurement or imaging of objects in medical image diagnostic devices such as radiographic devices, X-ray CT devices, nuclear medicine imaging devices or magnetic resonance imaging devices, broadcast image processing devices, industrial image processing devices, consumer image capturing and displaying devices, etc. This is a measurement unit that performs measurement, or a storage unit that stores image data measured for an object and reads it out as necessary.

【0008】入力画素選択部12は、上記原画像供給部
11から出力された画像データから、画像変換処理部1
3への入力が合理的な構造となるように入力画素を選択
するものである。画像変換処理部13は入力画素選択部
12において選択された画像データを入力して所要の画
像変換を行うもので、例えばフィルタ手段からなる。
[0008] The input pixel selection unit 12 converts the image data output from the original image supply unit 11 into an image conversion processing unit 1.
The input pixels are selected so that the input to 3 has a reasonable structure. The image conversion processing unit 13 performs a required image conversion by inputting the image data selected by the input pixel selection unit 12, and includes, for example, a filter unit.

【0009】さらに、表示部14は、上記画像処理部1
3において画像変換処理され出力された画像情報を入力
して表示するもので、例えば、テレビモニタからなる。
Further, the display unit 14 is provided with the image processing unit 1.
3, for inputting and displaying the image information that has been subjected to the image conversion processing and output, and comprises, for example, a television monitor.

【0010】ここで、本発明においてこのように構成さ
れた上記入力画素選択部12の動作を説明する。まず、
対象としているインタレース画像における画素と時刻の
関係を図3を用いて説明する。図3の符号21はインタ
レース画像内の画素を表している。フレーム画像22で
はevenフィールド23とoddフィールド24がy
軸方向に交互に並んで存在する。インタレース画像にお
いて、oddフィールド24はevenフィールド23
より例えば1/60秒遅れて撮影されたデータであるた
め、y軸方向に隣り合った画素同士は時刻の異なるデー
タとなる。
Here, the operation of the input pixel selecting section 12 thus configured in the present invention will be described. First,
The relationship between the pixel and the time in the target interlaced image will be described with reference to FIG. Reference numeral 21 in FIG. 3 represents a pixel in the interlaced image. In the frame image 22, the even field 23 and the odd field 24 are y
It exists alternately in the axial direction. In the interlaced image, the odd field 24 is the even field 23
For example, since the data is captured with a delay of 1/60 second, the pixels adjacent in the y-axis direction have different times.

【0011】次に、入力画素選択部12がどのように入
力画素を選択するかについて説明する。一般的にニュー
ラルネットワークで構成される画像処理装置がある時刻
(フレーム)のある対象画素に対して処理を行って出力
を得るために必要な入力画素は少なくとも対象画素自身
と同時刻の近傍画素および過去フレームの近傍画素であ
る。しかし図3に示すようなインタレース画像を処理対
象とした場合、上記の一般的手法により選択された入力
画素を用いると、処理ラインにより処理画素の時刻の過
去、未来が入れ替わるという矛盾が生じたり、入力画素
同士の関係が複雑となり、画像変換処理部13の学習動
作において合理的な入出力関係を構築することが困難と
なるなどの問題が生じる。
Next, how the input pixel selection section 12 selects an input pixel will be described. In general, an input pixel required to obtain an output by performing processing on a certain target pixel at a certain time (frame) by an image processing device formed of a neural network includes at least neighboring pixels at the same time as the target pixel itself and It is a neighboring pixel of the past frame. However, when an interlaced image as shown in FIG. 3 is to be processed, using an input pixel selected by the above general method may cause a contradiction that the past and future times of the processed pixels are switched by the processing line. However, the relationship between the input pixels becomes complicated, and it becomes difficult to construct a reasonable input / output relationship in the learning operation of the image conversion processing unit 13.

【0012】この矛盾について図4を用いて説明する。
一般的な手法では、フレーム画像は時刻の異なるフィー
ルド画像を交互に合わせ持つ画像として処理されるた
め、図4のように選択される。図4において、時刻tの
画素32を処理対象画素として処理する場合と、時刻t
−1の画素35を処理対象画素として処理する場合を比
較すると、例えば両方の処理対象画素32、35の隣の
画素36、37は、時刻の異なる画素となっている。つ
まり、同じフレーム画像の中でも未来と過去が入れ替わ
った情報を扱っているという矛盾が生じている。
This contradiction will be described with reference to FIG.
In a general method, a frame image is processed as an image having field images having different times alternately, and is selected as shown in FIG. In FIG. 4, the case where the pixel 32 at the time t is processed as the processing target pixel,
Comparing the case where the pixel 35 of −1 is processed as the processing target pixel, for example, the pixels 36 and 37 adjacent to both the processing target pixels 32 and 35 are pixels at different times. In other words, there is a contradiction that information in which the future and the past are exchanged is handled in the same frame image.

【0013】本発明における入力画素選択部がどのよう
に入力画素を選択するかを具体例を挙げて説明する。図
3においてy軸方向の入力画素は次のようにフィールド
のevenとoddを分けて選択される。時刻tの対象
画素つまり時刻Tのevenフィールド対象画素25の
処理を行う場合、空間方向は対象画素自身とそれと同時
刻tの近傍画素、及び時間方向には過去へ遡るほどカー
ネルが小さくなり対象画素に対して対象性を維持するよ
うな入力画素を選択する。つまり、この場合はeven
入力画素27、すなわち対象フィールドがevenの入
力画素部27を選択する。
A description will be given of a specific example of how the input pixel selection unit in the present invention selects an input pixel. In FIG. 3, the input pixel in the y-axis direction is selected by dividing even and odd in the field as follows. When processing the target pixel at time t, that is, the even field target pixel 25 at time T, the target pixel itself and its neighboring pixels at the same time t in the spatial direction, and the kernel becomes smaller in the time direction as it goes back in the past, the target pixel becomes smaller. Input pixels that maintain symmetry with respect to are selected. In other words, in this case even
The input pixel 27, that is, the input pixel unit 27 whose target field is even is selected.

【0014】また、時刻t−1つまり時刻Tのoddフ
ィールド対象画素26を処理する場合には、空間方向に
は対象画素自身とそれと同時刻t−1の近傍画素、及び
時間方向には過去へ遡るほどカーネルが小さくなり対象
画素に対して対象性を維持するような入力画素を選択す
る。つまり、この場合、フレーム画像Tにおいては入力
画素を1ラスタースキャン置きに選択し、odd入力画
素28を選択する。
Further, when processing the target pixel 26 at the time t-1, ie, the odd field at the time T, the target pixel itself and its neighboring pixels at the same time t-1 in the spatial direction and the past in the time direction. The input pixel is selected such that the kernel becomes smaller as it goes back and the symmetry with the target pixel is maintained. That is, in this case, in the frame image T, input pixels are selected every other raster scan, and odd input pixels 28 are selected.

【0015】このようにy軸方向についてはフレーム画
像において1画素置きに入力画素が選択される。x軸方
向に関しては隣接する画素同士は同時刻のものであるた
め、隣接画素を選択する。対象性を維持して選択する方
法は、例えば時刻tの入力画素数Ntと時刻t−1の入
力画素数Nt−1の関係を、Nt=Nt−1+nとす
る。ただし、nは正負をとる奇数である。図3において
は、nは−1としている。
As described above, in the y-axis direction, input pixels are selected every other pixel in the frame image. In the x-axis direction, since adjacent pixels are at the same time, adjacent pixels are selected. As a method of selecting while maintaining symmetry, for example, the relationship between the number of input pixels Nt at time t and the number of input pixels Nt-1 at time t−1 is Nt = Nt−1 + n. Here, n is an odd number that is positive or negative. In FIG. 3, n is -1.

【0016】つまり、本発明ではインタレース画像にお
いて1フレーム内に前後する二つの時刻の情報がラスタ
ースキャンごとに交互に並んでいる場合、同時刻の近傍
画素として1ラスタースキャン置きに入力画素を選択
し、さらに時間方向の入力構造が合理的になるように処
理対象画素に対して、対象性を維持するように入力画素
を選択し、また処理対象画素の存在する時刻から離れる
ほど、つまり過去へ遡るに従って空間方向の入力カーネ
ルが小さくなるように、つまり入力構造が錘形になるよ
うに入力画素を選択している。
In other words, according to the present invention, when information at two preceding and succeeding times in one frame of an interlaced image is alternately arranged for each raster scan, an input pixel is selected every other raster scan as neighboring pixels at the same time. In addition, the input pixel is selected so as to maintain the symmetry with respect to the processing target pixel so that the input structure in the time direction becomes rational, and further away from the time at which the processing target pixel exists, that is, in the past, The input pixels are selected such that the input kernel in the spatial direction becomes smaller as going back, that is, the input structure becomes a cone.

【0017】ここで、過去に遡るほど入力カーネルが小
さくなるように入力画素を選択する理由及び対象性を維
持するように選択する理由は、対象画素との関連性が時
刻が離れるほど薄れしかも対象画素を中心に対象性を持
って薄れるためである。例えば図4に示すように、対象
画素32を処理するためにフレーム毎に同じカーネルサ
イズの入力画素31を選択した場合、時刻t−1と時刻
t−2における部分的入力画素33に注目すれば、対象
画素32より過去に遡るほどカーネルサイズが大きくな
っている。これは、対象画素との関連性が薄い画素をよ
り多く選択していることになるため、非合理的な入力構
造である。以上の理由より対象画素から過去へ遡るほど
カーネルサイズを小さくする入力画素選択方法をとる。
Here, the reason why the input pixel is selected so that the input kernel becomes smaller as it goes back in the past and the reason why the input pixel is selected so as to maintain the symmetry are as follows. This is for fading with symmetry around the pixel. For example, as shown in FIG. 4, when the input pixel 31 having the same kernel size is selected for each frame in order to process the target pixel 32, if the partial input pixel 33 at the time t-1 and the time t-2 is noted, , The kernel size increases as it goes back to the past from the target pixel 32. This is an irrational input structure because a pixel having a low relation with the target pixel is selected more. For the above reasons, an input pixel selection method is adopted in which the kernel size is reduced as the pixel goes backward from the target pixel.

【0018】上記入力画素選択方法をインタレース画像
である超音波断層像に適用した場合の実施例を図5に示
す。図5の時系列の超音波断層像において異なる時刻の
情報が混在する3枚の時系列フレーム画像41を同時刻
の情報のみからなる時系列フィールド画像42に分離す
る。even対象画素43を処理する場合には、フィー
ルドt、t−1、t−2、t−3、t−4から過去に遡
るほど入力カーネルが小さくなるように、それぞれ対象
画素を含む9×5=45画素、7×4=28画素、5×
3=15画素、3×2=6画素、1画素の合計95の入力
画素45を選択する。odd対象画素44を処理する場
合には、フィールドt−1、t−2、t−3、t−4、
t−5からevenの場合と同様にして入力画素46を
選択する。ただし、図5は一例であり、空間方向に入力
画素数が変化したり、時間方向にフレーム数が変化して
も良い。
FIG. 5 shows an embodiment in which the above input pixel selection method is applied to an ultrasonic tomographic image which is an interlaced image. In the time-series ultrasonic tomographic image of FIG. 5, three time-series frame images 41 in which information at different times are mixed are separated into a time-series field image 42 including only information at the same time. In the case of processing the even target pixel 43, the 9 × 5 pixels each including the target pixel are set so that the input kernel becomes smaller from the fields t, t-1, t-2, t-3, and t-4 in the past. = 45 pixels, 7 × 4 = 28 pixels, 5 ×
A total of 95 input pixels 45, 3 = 15 pixels, 3 × 2 = 6 pixels, and one pixel, are selected. When processing the odd target pixel 44, the fields t-1, t-2, t-3, t-4,
The input pixel 46 is selected in the same manner as in the case of even from t-5. However, FIG. 5 is an example, and the number of input pixels may change in the spatial direction or the number of frames may change in the time direction.

【0019】次に、上記入力画素選択部12において選
択された入力を基に画像変換を行う画像変換処理部の動
作を説明する。上記画像変換処理部13は図6に示すよ
うなニューラルネットワーク51で構成されている。こ
のニューラルネットワーク51は、上記入力画素選択部
12において選択されたデータを入力して画像変換処理
を行うと共に対象画素に対応するデータを出力するもの
で、人工的神経素子52を入力層及び中間層ならびに出
力層の層構造をなすように結合してネットワークを構成
すると共に、最終段の出力層の入出力関数としてリニア
関数を用いて構成されている。図7は上記ニューラルネ
ットワーク51を構成する人工的神経素子52を示す説
明図である。図7に示すように、人工的神経素子(以下
「ニューロンモデル」という)52は生物の神経素子
(ニューロン)の働きを模した多入力一出力の素子で、
入力Ii(I1〜In)と結合係数Wji(Wj1〜W
jn)の積和により出力0jが決定される。すなわち、
入出力関数f(x)を用いて数1のように決定される。
Next, the operation of the image conversion processing unit for performing image conversion based on the input selected by the input pixel selection unit 12 will be described. The image conversion processing unit 13 is configured by a neural network 51 as shown in FIG. The neural network 51 inputs the data selected by the input pixel selection unit 12 and performs an image conversion process, and outputs data corresponding to a target pixel. The artificial neural element 52 includes an input layer and an intermediate layer. In addition, a network is formed by combining the output layers so as to form a layer structure, and a linear function is used as an input / output function of the final output layer. FIG. 7 is an explanatory diagram showing an artificial neural element 52 constituting the neural network 51. As shown in FIG. 7, an artificial neural element (hereinafter referred to as a “neuron model”) 52 is a multi-input one-output element that simulates the function of a biological neural element (neuron).
The input Ii (I1-In) and the coupling coefficient Wji (Wj1-W
jn) determines the output 0j. That is,
It is determined as in Equation 1 using the input / output function f (x).

【数1】 ただし、θjはしきい値に相当する入出力関数のオフセ
ットであり、nは入力数である。
(Equation 1) Here, θj is an offset of the input / output function corresponding to the threshold, and n is the number of inputs.

【0020】前述の図6は層構造をなすように結合して
ネットワークに構成されたニューラルネットワーク51
の説明図である。このニューラルネットワーク51は図
のように、上記ニューロンモデル52を多数用い、入力
層および中間層並びに出力層の層構造をなすように結合
してネットワークを構成することにより、信号処理及び
情報処理の能力を実現するように構成されている。な
お、図6において、符号53は入力層と中間層とを結ぶ
枝を示し、入力層の各ニューロンモデル52は中間層の
全てのニューロンモデル52とそれぞれ結合されてい
る。そして、このニューラルネットワーク52は、入力
層に供給される入力情報55を変換して出力層から出力
情報56として出力するようになっている。
FIG. 6 described above shows a neural network 51 connected to form a layered structure and formed into a network.
FIG. As shown in the figure, the neural network 51 uses a large number of the neuron models 52 and connects the input layer, the intermediate layer, and the output layer so as to form a layered structure. It is configured to realize. In FIG. 6, reference numeral 53 denotes a branch connecting the input layer and the intermediate layer, and each neuron model 52 in the input layer is connected to all the neuron models 52 in the intermediate layer. The neural network 52 converts input information 55 supplied to the input layer and outputs the converted information as output information 56 from the output layer.

【0021】このように構成することにより、上記ニュ
ーラルネットワーク52は、学習機能や自己組織機能を
有する情報処理機構となっている。そして、このニュー
ラルネットワーク51は、教師信号57を与えて学習す
ることにより、入力層に供給される入力情報55に対し
て所望の出力情報56を出力層から出力するように自己
組織化していく。ここで、上記入力層においては、入出
力関数として数2に示すような恒等関数が用いられてい
る。
With this configuration, the neural network 52 is an information processing mechanism having a learning function and a self-organizing function. Then, the neural network 51 self-organizes by inputting a teacher signal 57 and learning so as to output desired output information 56 from the output layer with respect to the input information 55 supplied to the input layer. Here, in the input layer, an identity function as shown in Expression 2 is used as an input / output function.

【数2】 これにより、入力がそのまま出力される。なお、この恒
等関数の代わりに他の関数を用いて変調をかけてもよ
い。
(Equation 2) Thus, the input is output as it is. The modulation may be performed using another function instead of the identity function.

【0022】また、図8は上記ニューラルネットワーク
51の中間層の入出力関数として用いられるシグモイド
関数を示すグラフである。上記中間層においては、入出
力関数として図に示すように出力fsが“0”から
“1”の範囲内で単調増加のシグモイド関数が用いられ
ている。
FIG. 8 is a graph showing a sigmoid function used as an input / output function of the intermediate layer of the neural network 51. In the above-mentioned intermediate layer, a sigmoid function that monotonically increases when the output fs is in the range of “0” to “1” is used as an input / output function as shown in FIG.

【0023】このシグモイド関数は数3のように表現さ
れる。
This sigmoid function is expressed as in Equation 3.

【数3】 ただし、U0は傾きを制御するパラメータである。そし
て、これを微分すると数4で表され、もとのシグモイド
関数で表現できるという特徴を持っている。
(Equation 3) Here, U0 is a parameter for controlling the inclination. Then, when this is differentiated, it is expressed by Equation 4 and has a feature that it can be expressed by the original sigmoid function.

【数4】 このように、中間層にシグモイド関数などの非線形関数
を用いることにより、上記ニューラルネットワーク51
は、複雑な非線形変換処理をも扱うことができる。
(Equation 4) As described above, by using a non-linear function such as a sigmoid function for the intermediate layer, the neural network 51 can be used.
Can handle complicated nonlinear conversion processing.

【0024】さらに、図9は上記ニューラルネットワー
ク51の出力層の入出力関数として用いられるリニア関
数を示すグラフである。上記出力層においては、入出力
関数として上述のシグモイド関数の代わりに、図に示す
ように出力が入力に対して直線的に増減するリニア関数
が用いられている。いま、直線の傾きをaとすると、例
えば数5のように表され、これを微分すると数6のよう
に表される。
FIG. 9 is a graph showing a linear function used as an input / output function of the output layer of the neural network 51. In the output layer, a linear function whose output increases and decreases linearly with respect to the input as shown in the figure is used as the input / output function instead of the sigmoid function. Now, assuming that the slope of the straight line is a, it is expressed as in Equation 5, for example, and differentiating it, it is expressed as in Equation 6.

【数5】 (Equation 5)

【数6】 これにより、出力層からの出力はアナログ的値となり、
画像情報などのようなアナログ的な値を扱うことができ
るようになる。
(Equation 6) As a result, the output from the output layer becomes an analog value,
It becomes possible to handle analog values such as image information.

【0025】上記ニューラルネットワーク51では、入
力情報55に対して所望の出力情報57が得られるよう
に学習が行われる。すなわち、教師となる教師信号57
と出力情報56の誤差が小さくなるように入力層と中間
層を結合している枝53及び中間層と出力層を結合して
いる枝54の結合係数を変化させてゆき、学習後所望の
出力が得られるように自己組織化していく。アナログ出
力用のニューラルネットワーク51の学習アルゴリズム
を図10に示す。図10の記号の意味は次のとおりであ
る。 I ;入力情報 0k ;第k層のニューロンモデルの出力 Wk ;第k層と第(k+1)層間の結合係数 θk;第k層のニューロンモデルのオフセット T ;教師信号 ηw;Wに対する学習係数 ηθ;θに対する学習係数 δk;第(k−1)層を修正するための誤差量 fi ;恒等関数 fl ;リニア関数
In the neural network 51, learning is performed so that desired output information 57 is obtained for the input information 55. That is, the teacher signal 57 serving as a teacher
The coupling coefficient between the branch 53 connecting the input layer and the intermediate layer and the branch 54 connecting the intermediate layer and the output layer is changed so that the error between the output information 56 and the output layer 56 is reduced. Self-organization to obtain FIG. 10 shows a learning algorithm of the neural network 51 for analog output. The meanings of the symbols in FIG. 10 are as follows. I; input information 0k; output of the k-th layer neuron model Wk; coupling coefficient θk between the k-th layer and the (k + 1) -th layer; offset T of the k-th layer neuron model; teacher signal ηw; learning coefficient ηθ for W; learning coefficient for θ δk; error amount fi for correcting the (k-1) th layer fi; identity function fl; linear function

【0026】なお、入力情報I、第k層のニューロンモ
デルの出力0k、第k層のニューロンモデルのオフセッ
トθk、教師信号T、第(k−1)層を修正するための
誤差量δkは1次元ベクトルで表されており、第k層と
第(k+1)層間の結合係数Wkは2次元ベクトルで表
されている。また、例に示したニューラルネットワーク
は3層のものであるため第1層目が入力層であり、第2
層目が中間層であり、第3層目が出力層である。
The input information I, the output 0k of the k-th layer neuron model, the offset θk of the k-th layer neuron model, the teacher signal T, and the error amount δk for correcting the (k-1) -th layer are 1 The coupling coefficient Wk between the k-th layer and the (k + 1) -th layer is represented by a two-dimensional vector. Also, since the neural network shown in the example has three layers, the first layer is the input layer, and the second layer is the second layer.
The third layer is an intermediate layer, and the third layer is an output layer.

【0027】この学習アルゴリズムについて以下説明す
る。教師信号Tと出力層の出力03との平均二乗誤差E
は数7で表される。
The learning algorithm will be described below. Mean square error E between teacher signal T and output 03 of output layer
Is represented by Equation 7.

【数7】 これが減少するように第k層と第(k+1)層間の結合
係数Wkを数8に示す修正量ΔWkによって修正する。
(Equation 7) To reduce this, the coupling coefficient Wk between the k-th layer and the (k + 1) -th layer is corrected by the correction amount ΔWk shown in Expression 8.

【数8】 (Equation 8)

【0028】ここで、数9のように仮定すると、中間層
と出力層との間の修正量を決めるδ3は数10により表
される。
Here, assuming Equation 9, δ3 that determines the amount of correction between the intermediate layer and the output layer is expressed by Equation 10.

【数9】 (Equation 9)

【数10】 よって、修正量ΔW2は数11のように表される。(Equation 10) Therefore, the correction amount ΔW2 is expressed as in Expression 11.

【数11】 これにより、前述のように出力層からの出力は、アナロ
グ値となる。また、入力層と中間層間の修正量を決める
δ2は数12で表され、修正量はΔW1は数13で表さ
れる。
[Equation 11] Accordingly, the output from the output layer becomes an analog value as described above. Further, δ2 which determines the correction amount between the input layer and the intermediate layer is expressed by Expression 12, and the correction amount ΔW1 is expressed by Expression 13.

【数12】 (Equation 12)

【数13】 オフセットについても同様に求めることにより、図10
に示すアルゴリズムとなる。
(Equation 13) By similarly obtaining the offset, FIG.
The algorithm is shown below.

【0029】そして、操作者が与える教師信号57に基
づき、このようなアルゴリズムで上記のニューラルネッ
トワーク51の学習が行われる。なお、ここでは、3層
のニューラルネットワーク51について例を示したが、
中間層の数を増やすことによって3層以上のニューラル
ネットワーク51が構成可能であり、その場合の学習ア
ルゴリズムは誤差δを逆伝搬させ、漸近的に修正量を求
めればよく、より複雑な変換を含む画像情報への対応が
可能となる、そして、上記ニューラルネットワーク51
で変換された画像データは、図示省略したが適当な濃度
スケールに変換され、図1に示す表示部14に入力され
る。
Then, based on the teacher signal 57 given by the operator, learning of the neural network 51 is performed by such an algorithm. Here, although an example is shown for the three-layer neural network 51,
By increasing the number of hidden layers, a neural network 51 of three or more layers can be configured. In this case, the learning algorithm only has to propagate the error δ back and asymptotically obtain the correction amount, and includes a more complicated transformation. It is possible to deal with image information, and the neural network 51
The image data converted in step (1) is converted into an appropriate density scale (not shown) and input to the display unit 14 shown in FIG.

【0030】図11は本発明の第二の実施例を説明する
ための図であり、シグモイド関数の準線形領域60を示
している。この実施例は、図6でニューラルネットワー
ク51が、層構造をなすように結合されたネットワーク
の最終段の出力層の入出力関数としてリニア関数以外の
関数、例えば図11に示すシグモイド関数を用いると共
に、その準線形領域60を出力画像情報の範囲として限
定し用いるようにしたものである。この場合も、前述と
同様に画像情報をアナログ値で出力することができる。
FIG. 11 is a diagram for explaining the second embodiment of the present invention, and shows a quasi-linear region 60 of a sigmoid function. This embodiment uses a function other than the linear function, for example, a sigmoid function shown in FIG. 11 as an input / output function of the output layer at the final stage of the network in which the neural network 51 is connected in a layered structure in FIG. , The quasi-linear region 60 is limited and used as the range of the output image information. Also in this case, the image information can be output as an analog value in the same manner as described above.

【0031】図12は本発明の第三の実施例を示すブロ
ック図である。この実施例は、図1に示す画像変換部1
3としてのニューラルネットワーク51に対し、該ニュ
ーラルネットワーク51に学習動作をさせるための教師
信号57(図6参照)を入力する教師画像供給部15を
接続したものである。図1に示す実施例では、工場出荷
時或いは使用施設等への設置時に、平均的又は標準的も
しくは特定の教師信号57を与えて予め所要の学習を行
わせるものとしているが、それでは実際の使用現場にお
ける個々のユーザー等の使用状況等に合致しないことも
あるので、これを改善しようとするものである。すなわ
ち、図12において、教師画像供給部15は、物体の計
測又は撮影する計測装置或いは物体についての計測した
画像データを記憶しておき必要に応じて読み出す記憶装
置であり、この教師画像供給部15をニューラルネット
ワーク51の出力層(図6参照)から出力情報56が出
力される出力端に接続し、この教師画像供給部15を用
いて個々のユーザー等が、入力画素選択部12において
選択された画像データに対して理想とされる教師画像を
教師信号57として随時供給し、上記ニューラルネット
ワーク51に学習を行わせる。
FIG. 12 is a block diagram showing a third embodiment of the present invention. In this embodiment, the image conversion unit 1 shown in FIG.
3 is connected to the neural network 51 as the teacher image supply unit 15 for inputting a teacher signal 57 (see FIG. 6) for causing the neural network 51 to perform a learning operation. In the embodiment shown in FIG. 1, an average, a standard, or a specific teacher signal 57 is given at the time of shipment from a factory or at a use facility to perform necessary learning in advance. In some cases, the situation does not match the usage situation of individual users at the site, and therefore, it is intended to improve the situation. That is, in FIG. 12, the teacher image supply unit 15 is a measuring device for measuring or photographing an object or a storage device for storing measured image data of an object and reading it out as necessary. Is connected to the output end of the neural network 51 from which the output information 56 is output from the output layer (see FIG. 6), and each user or the like is selected in the input pixel selection unit 12 using the teacher image supply unit 15. An ideal teacher image for the image data is supplied as needed as a teacher signal 57, and the neural network 51 performs learning.

【0032】次に入力画素選択部12において選択され
た入力画素を上記画像変換処理部13に入力し、対象画
像の処理を行う過程を、一例として図13を用いて超音
波断層像の画質改善を処理目的とした場合について説明
する。入力画素選択部12においてインタレース画像で
ある超音波断層像より選択された入力画素61の濃度値
を入力濃度値規格化部63において−1〜1の値にそれ
ぞれ規格化する。この規格化された値を画像変換処理部
13としてのニューラルネットワーク64の入力層ユニ
ットの入力として与え、その情報が順次中間層から出力
層へと伝搬し、出力ユニットの出力65を得る。その出
力65を出力画素濃度値規格化部66において入力画素
濃度値規格化部において行った規格化と逆の方法で濃度
値に逆規格化を行い出力画素濃度値67を得る。この出
力画素濃度値67が対象画素の画像変換処理結果とな
る。上記の処理を対象画像全体に施すことによって、出
力画像68を得る。
Next, the process of inputting the input pixels selected by the input pixel selection unit 12 to the image conversion processing unit 13 and processing the target image will be described with reference to FIG. Will be described. The input pixel selection unit 12 normalizes the density values of the input pixels 61 selected from the ultrasonic tomographic images, which are interlaced images, to values of −1 to 1 in the input density value normalization unit 63. The standardized value is given as an input to the input layer unit of the neural network 64 as the image conversion processing unit 13, and the information is sequentially propagated from the intermediate layer to the output layer, and the output 65 of the output unit is obtained. The output 65 is denormalized to a density value in an output pixel density value normalization unit 66 in a method reverse to the normalization performed in the input pixel density value normalization unit, and an output pixel density value 67 is obtained. This output pixel density value 67 is the image conversion processing result of the target pixel. The output image 68 is obtained by performing the above processing on the entire target image.

【0033】次に、ニューラルネットワーク64が処理
対象画素に対して所望の出力を得られるようにするため
の学習動作について説明する。まず教師画像69を作成
する。超音波断層の画質改善を目的とす場合には、教師
画像として高画質の超音波断層像を用いる。高画質の超
音波断層像は時系列の超音波断層像原画像から複数枚画
像を選択し、それの加算平均を行うことにより作成す
る。また、動く部分が存在する超音波断層像の場合に
は、動いている部分に加算によるボケが生じることを防
ぐために、動きに対して同期の取れた画像を時系列画像
より選択し、加算平均画像を作成する。上記の高画質画
像を得る方法は一例であり、他のフィルタ処理などを用
いたり、操作者の好みの画像になるように画像内の領域
毎に異なる複数のフィルタ処理、例えば高域強調フィル
タなどを施して作成しても良い。
Next, a learning operation for enabling the neural network 64 to obtain a desired output for the pixel to be processed will be described. First, a teacher image 69 is created. When the purpose is to improve the image quality of an ultrasonic tomographic image, a high-quality ultrasonic tomographic image is used as a teacher image. A high-quality ultrasonic tomographic image is created by selecting a plurality of images from a time-series ultrasonic tomographic image original image and averaging them. In addition, in the case of an ultrasonic tomographic image having a moving part, an image synchronized with the movement is selected from the time-series image in order to prevent the moving part from being blurred by addition, and the averaging is performed. Create an image. The above-described method of obtaining a high-quality image is an example, and other filter processing or the like is used, or a plurality of filter processes that are different for each region in the image so as to be an image desired by the operator, for example, a high-frequency emphasis filter or the like. May be created.

【0034】学習動作は次のように行われる。作成した
教師画像69内における対象画素70を出力画素規格化
部において−1〜1規格化した値71と、ニューラルネ
ットワークからの出力値65の誤差を算出し、その誤差
が小さくなるようにニューラルネットワークの結合係数
を変化させる。この動作を注目領域72において繰り返
し、その繰り返しが指定回数に達するか、その誤差が許
容誤差以下になるまで学習を行う。この学習によって、
原画像を入力すると操作者が望む処理画像が出力される
よう、自動的にニューラルネットワークが構築され、所
望の画像フィルタ入出力特性をニューラルネットワーク
64が獲得する。
The learning operation is performed as follows. An error is calculated between the value 71 obtained by normalizing the target pixel 70 in the created teacher image 69 by the output pixel normalizing unit and the output value 65 from the neural network, and the neural network is designed to reduce the error. Is changed. This operation is repeated in the attention area 72, and learning is performed until the number of repetitions reaches the specified number of times or the error becomes equal to or less than an allowable error. By this learning,
When an original image is input, a neural network is automatically constructed so that a processed image desired by the operator is output, and the neural network 64 acquires desired image filter input / output characteristics.

【0035】[0035]

【発明の効果】本発明は、ニューラルネットワークで構
成される画像処理装置においてインタレース画像を処理
対象とした場合に、インタレース画像1フレーム内に含
まれる異なる時刻の情報を分離し、空間方向の入力情報
を同時刻の画像情報のみから選択することにより、未来
の情報から過去の情報を予測するなどの矛盾のない入力
選択が可能となる。また、対象画素から過去に遡るほど
対象画素を中心に入力カーネルを小さくすることによ
り、対象画素との関連性がより薄いフレームほど入力カ
ーネルが小さくなるという無駄が無く合理的な入力構造
を構築することができると同時に、ニューラルネットワ
ークで構成される画像処理装置の学習動作において合理
的に入出力関係を構築することができる。
According to the present invention, when an interlaced image is to be processed in an image processing apparatus constituted by a neural network, information at different times contained in one frame of the interlaced image is separated, and the information in the spatial direction is separated. By selecting the input information only from the image information at the same time, it is possible to perform consistent input selection such as predicting past information from future information. In addition, by reducing the input kernel centering on the target pixel as it goes back from the target pixel in the past, a lean and rational input structure is constructed in which the input kernel becomes smaller as the frame is less relevant to the target pixel. At the same time, the input-output relationship can be rationally constructed in the learning operation of the image processing apparatus formed by the neural network.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第一の実施形態を示すブロック図。FIG. 1 is a block diagram showing a first embodiment of the present invention.

【図2】従来の入力画素選択方法の説明。FIG. 2 illustrates a conventional input pixel selection method.

【図3】インタレース画像における画素と時刻の関係及
び入力画素選択方法を示す図。
FIG. 3 is a diagram showing a relationship between pixels and time in an interlaced image and an input pixel selection method.

【図4】同じ大きさの入力カーネルを選択した場合の説
明図。
FIG. 4 is an explanatory diagram when input kernels of the same size are selected.

【図5】超音波断層像における入力画素選択方法を示す
図。
FIG. 5 is a diagram showing an input pixel selection method in an ultrasonic tomographic image.

【図6】ニューラルネットワークの階層構造を示す説明
図。
FIG. 6 is an explanatory diagram showing a hierarchical structure of a neural network.

【図7】ニューラルネットワークを構成する人工神経素
子を示す説明図。
FIG. 7 is an explanatory view showing an artificial neural element forming the neural network.

【図8】ニューラルネットワークの中間層の入出力関数
のシグモイド関数を示す図。
FIG. 8 is a diagram showing a sigmoid function of an input / output function of an intermediate layer of the neural network.

【図9】ニューラルネットワークの出力層の入出力関数
のリニア関数を示す図。
FIG. 9 is a diagram showing a linear function of an input / output function of an output layer of the neural network.

【図10】アナログ値出力用のニューラルネットワーク
の学習アルゴリズムを示す説明図。
FIG. 10 is an explanatory diagram showing a learning algorithm of a neural network for outputting an analog value.

【図11】本発明の第二の実施形態におけるシグモイド
関数の準線形領域を示す図。
FIG. 11 is a diagram illustrating a quasi-linear region of a sigmoid function according to the second embodiment of the present invention.

【図12】本発明の第三の実施形態を示すブロック図。FIG. 12 is a block diagram showing a third embodiment of the present invention.

【図13】ニューラルネットワークでの処理結果を得る
過程及び学習方法を示す説明図。
FIG. 13 is an explanatory diagram showing a process of obtaining a processing result in the neural network and a learning method.

【符号の説明】[Explanation of symbols]

11 原画像供給部 12 入力画素選択部 13 画像変換処理部 14 表示部 15 教師画像供給部 21 インタレース画像内の画素 22 フレーム画像 23 evenフィールド 24 oddフィールド 25 evenフィールド内の対象画素 26 oddフィールド内の対象画素 27 evenフィールド内の対象画素に対して選択さ
れるy軸方向の入力画素 28 oddフィールド内の対象画素に対して選択され
るy軸方向の入力画素 41 時系列フレーム画像 42 時系列フィールド画像 43 evenフィールド内の対象画素 44 oddフィールド内の対象画素 45 evenフィールド内の対象画素に対して選択さ
れた入力画素 46 oddフィールド内の対象画素に対して選択され
た入力画素 51 ニューラルネットワーク 52 人工的神経素子 53 入力層と中間層間の結合係数 54 中間層と出力層間の結合係数 55 入力情報 56 出力情報 57 教師信号 60 シグモイド関数の準線形領域 61 入力画素 62 対象画素 63 入力画素濃度値規格化部 64 ニューラルネットワーク 65 ニューラルネットワークの出力 66 出力画素濃度値規格化部 67 出力濃度値 68 出力画像 69 教師画像 70 教師画像内の対象画素濃度値 71 規格化された教師信号 72 注目領域
Reference Signs List 11 original image supply unit 12 input pixel selection unit 13 image conversion processing unit 14 display unit 15 teacher image supply unit 21 pixels in interlaced image 22 frame image 23 even field 24 odd field 25 target pixel in even field 26 inside odd field 27 The input pixel in the y-axis direction selected for the target pixel in the even field 28 The input pixel in the y-axis direction selected for the target pixel in the odd field 41 Time-series frame image 42 Time-series field Image 43 Target pixel in the even field 44 Target pixel in the odd field 45 Input pixel selected for the target pixel in the even field 46 Input pixel selected for the target pixel in the odd field 51 Neural network 52 Artificial God Element 53 Coupling coefficient between input layer and intermediate layer 54 Coupling coefficient between intermediate layer and output layer 55 Input information 56 Output information 57 Teacher signal 60 Quasi-linear region of sigmoid function 61 Input pixel 62 Target pixel 63 Input pixel density value normalization unit 64 Neural Network 65 Output of Neural Network 66 Output Pixel Density Value Normalization Unit 67 Output Density Value 68 Output Image 69 Teacher Image 70 Target Pixel Density Value in Teacher Image 71 Standardized Teacher Signal 72 Region of Interest

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 注目画素を含む処理対象の画像データを
出力する原画像供給部と、この画像データから注目画素
及び注目画素近傍の所定領域を持った入力画素群を画像
処理用画像データとして選択して画像処理情報を出力す
る画素選択部と、この画像処理情報を基に注目画素を画
像変換する画像変換処理部と、この画像変換された注目
画素の画像情報を表示する表示部とを有する画像処理装
置において、上記画素選択部は上記原画像供給部からの
画像データを同じ時刻情報毎のフィールド画像群に分割
し、この分割されたフィールド画像群から前記入力画素
群を画像処理用画像データとして選択して画像処理情報
を出力することを特徴とする画像処理装置。
An original image supply unit for outputting image data to be processed including a target pixel, and an input pixel group having a target pixel and a predetermined area near the target pixel is selected as image processing image data from the image data. A pixel selection unit that outputs image processing information, an image conversion processing unit that performs image conversion of the pixel of interest based on the image processing information, and a display unit that displays the image information of the pixel of interest that has undergone the image conversion. In the image processing apparatus, the pixel selection unit divides the image data from the original image supply unit into field image groups for the same time information, and converts the input pixel group from the divided field image groups into image processing image data. And outputting image processing information.
【請求項2】 注目画素を含む処理対象の画像データを
出力する原画像供給部と、この画像データから注目画素
及び注目画素近傍の所定領域を持った入力画素群を画像
処理用画像データとして選択して画像処理情報を出力す
る画素選択部と、この画像処理情報を基に注目画素を画
像変換する画像変換処理部と、この画像変換された注目
画素の画像情報を表示する表示部とを有する画像処理装
置において、上記画素選択部は上記原画像供給部からの
画像データを同じ時刻情報毎のフィールド画像群に分割
し、この分割されたフィールド画像群から注目画素と同
時刻あるいは過去の入力画素で構成される入力画素群を
画像処理用画像データとして選択して画像処理情報を出
力することを特徴とする画像処理装置。
2. An original image supply unit for outputting image data to be processed including a target pixel, and an input pixel group having a target pixel and a predetermined area near the target pixel is selected from the image data as image processing image data. A pixel selection unit that outputs image processing information, an image conversion processing unit that performs image conversion of the pixel of interest based on the image processing information, and a display unit that displays the image information of the pixel of interest that has undergone the image conversion. In the image processing device, the pixel selection unit divides the image data from the original image supply unit into field image groups for the same time information, and outputs the input pixels at the same time or in the past as the target pixel from the divided field image groups. An image processing apparatus for selecting an input pixel group composed of the following as image data for image processing and outputting image processing information.
【請求項3】 上記入力画素群は、注目画素を中心に対
称な領域を有する入力画素で構成される請求項1又は2
記載の画像処理装置。
3. The input pixel group according to claim 1, wherein the input pixel group includes input pixels having a region symmetrical with respect to a target pixel.
The image processing apparatus according to any one of the preceding claims.
【請求項4】 上記入力画素群は、注目画素から時間的
に離れるほど領域が小さくなる入力画素で構成される請
求項1又は2記載の画像処理装置。
4. The image processing apparatus according to claim 1, wherein the input pixel group includes input pixels whose area becomes smaller as the distance from the target pixel increases.
【請求項5】 上記画像処理用画像データは、注目画素
及び注目画素より過去であり注目画素を中心に対称な領
域でありかつ注目画素から時間的に離れるほど領域が小
さくなる入力画素群で構成される請求項1又は2記載の
画像処理装置。
5. The image processing image data comprises a pixel of interest and an input pixel group that is a region that is past the pixel of interest, is symmetric about the pixel of interest, and has a smaller area as the distance from the pixel of interest increases. 3. The image processing apparatus according to claim 1, wherein
【請求項6】 上記画像変換処理部は、人工的神経回路
素子を入力層及び中間層並びに出力層の層構造をなすよ
うに結合してネットワークを構成し、上記入力画素選択
部からの画像データを入力して画像変換を行うと共に上
記注目画素に対応するデータを出力するニューラルネッ
トワークで構成した請求項1又は2記載の画像処理装
置。
6. The image conversion processing unit forms a network by connecting artificial neural network elements so as to form a layer structure of an input layer, an intermediate layer, and an output layer, and forms image data from the input pixel selection unit. 3. The image processing apparatus according to claim 1, wherein the image processing apparatus comprises a neural network configured to perform image conversion by inputting the image data and output data corresponding to the pixel of interest.
【請求項7】 上記ニューラルネットワークは、最終段
の出力層の入出力関数としてリニア関数を用い、画像情
報をアナログ値で出力する請求項6記載の画像処理装
置。
7. The image processing apparatus according to claim 6, wherein the neural network uses a linear function as an input / output function of an output layer of a final stage, and outputs image information as an analog value.
【請求項8】 上記ニューラルネットワークは、最終段
の出力層の入出力関数として0を中心に軸対称であり0
付近は直線的で、0から遠ざかると飽和特性を示すとい
う特徴を有する連続的な関数を用いるとともに、その準
線形領域を出力画像情報の範囲と限定し、画像情報をア
ナログ値で出力する請求項6記載の画像処理装置。
8. The neural network according to claim 1, wherein the input / output function of the final output layer is axisymmetric about 0 and 0
The vicinity is linear, and a continuous function having a characteristic of exhibiting a saturation characteristic when moving away from 0 is used, the quasi-linear region is limited to a range of output image information, and the image information is output as an analog value. 7. The image processing device according to 6.
【請求項9】 上記ニューラルネットワークは、該ニュ
ーラルネットワークに学習動作をさせるための教師信号
を入力する教師画像供給部を接続したことを特徴とする
請求項6乃至8記載の画像処理装置。
9. The image processing apparatus according to claim 6, wherein said neural network is connected to a teacher image supply unit for inputting a teacher signal for causing said neural network to perform a learning operation.
JP8212131A 1996-07-24 1996-07-24 Image processor Pending JPH1040363A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8212131A JPH1040363A (en) 1996-07-24 1996-07-24 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8212131A JPH1040363A (en) 1996-07-24 1996-07-24 Image processor

Publications (1)

Publication Number Publication Date
JPH1040363A true JPH1040363A (en) 1998-02-13

Family

ID=16617417

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8212131A Pending JPH1040363A (en) 1996-07-24 1996-07-24 Image processor

Country Status (1)

Country Link
JP (1) JPH1040363A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11195059B2 (en) 2018-09-06 2021-12-07 Canon Medical Systems Corporation Signal data processing apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11195059B2 (en) 2018-09-06 2021-12-07 Canon Medical Systems Corporation Signal data processing apparatus

Similar Documents

Publication Publication Date Title
JP3642591B2 (en) Image processing device
JP3328934B2 (en) Method and apparatus for fusing images
US5956435A (en) Automatic analysis of two different images of the same object
US8213715B1 (en) System and method for digital image intensity correction
CN101930595A (en) Image processing method and image processing equipment
CN103918004B (en) The self adaptation application of metal artifacts reduction algorithm
JP2007202218A (en) Method and apparatus for enhancing source digital image
CN112804943A (en) Method for creating learning completion model, luminance adjustment method, and image processing apparatus
JPH09510068A (en) Compositing images from sub-images
Venu et al. Comparison of Traditional Method with watershed threshold segmentation Technique
JPH1131214A (en) Picture processor
CN101916434B (en) Method and apparatus for segmentation-based image operations
CN107220934A (en) Image rebuilding method and device
JPH1040363A (en) Image processor
JP3953569B2 (en) Image processing device
JPH09179977A (en) Automatic processor for intensity level of medical image
JP3965302B2 (en) Spatial filtering method
EP1411472A2 (en) Gradation conversion of an image
JPH10150569A (en) Image-processing unit
JPH10164281A (en) Picture evaluating method and device
JPH0464180A (en) Digital image display device
CN115564775B (en) Defect detection method and device based on lightweight attention mechanism and storage medium
CN107977936A (en) The off-line correction method, apparatus and equipment of sequence image
WO2022091875A1 (en) Medical image processing device, medical image processing method, and program
CN103164841B (en) Gray level image is carried out method and the device of Pseudo Col ored Image