JPH1131214A - Picture processor - Google Patents
Picture processorInfo
- Publication number
- JPH1131214A JPH1131214A JP9185060A JP18506097A JPH1131214A JP H1131214 A JPH1131214 A JP H1131214A JP 9185060 A JP9185060 A JP 9185060A JP 18506097 A JP18506097 A JP 18506097A JP H1131214 A JPH1131214 A JP H1131214A
- Authority
- JP
- Japan
- Prior art keywords
- image
- time
- conversion processing
- unit
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Investigating Or Analyzing Materials By The Use Of Ultrasonic Waves (AREA)
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、光或いはX線など
を含めた電磁波又は超音波などの情報キャリアを物体に
照射或いは透入し、この情報キャリアの変化を計測して
画像情報を得る各種の医用画像診断装置又は放送用映像
処理装置又は産業用画像処理装置又は民生用画像撮影表
示装置などの画像処理装置に関し、特に、動画像を対象
とする場合に処理結果に動きによるボケや残像が生じる
ことを防止し、雑音を低減することができる画像処理装
置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for irradiating or penetrating an object with an information carrier such as an electromagnetic wave or an ultrasonic wave including light or X-rays, and measuring a change in the information carrier to obtain image information. For image processing devices such as medical image diagnostic devices or broadcast video processing devices or industrial image processing devices or consumer image capturing and displaying devices, blurs and residual images due to motion are particularly likely to occur when processing moving images. The present invention relates to an image processing device capable of preventing occurrence of noise and reducing noise.
【0002】[0002]
【従来の技術】従来のこの種の画像処理装置は、図11
に示すように、処理対象の画像データを出力する原画像
供給部1と、人工的神経素子を入力層及び中間層並びに
出力層の層構造をなすように結合してネットワークを構
成し上記原画像供給部1から少なくとも注目画素を含む
所定領域の時系列データを入力して画像変換処理を行う
と共に上記注目画素に対応するデータを出力するニュー
ラルネットワークで構成された画像変換処理部2と、こ
の画像変換処理部2で画像変換処理され出力された画像
情報を入力して表示する表示部3とを有して成ってい
た。そして、上記原画像供給部1から例えばX線像の時
系列データを出力し、画像変換処理部2により上記原画
像供給部1から出力されたX線像の時系列データを入力
してそのX線像のボケを回復する画像変換処理を行い、
表示部3により上記画像変換処理部2から出力されたX
線像を入力してボケ回復のなされたX線像を表示するよ
うになっていた。2. Description of the Related Art A conventional image processing apparatus of this type is shown in FIG.
As shown in FIG. 1, an original image supply unit 1 for outputting image data to be processed and an artificial neural element are connected to form an input layer, an intermediate layer, and an output layer so as to form a layered structure, thereby forming a network. An image conversion processing unit 2 composed of a neural network for inputting time-series data of a predetermined area including at least the pixel of interest from the supply unit 1 and performing image conversion processing and outputting data corresponding to the pixel of interest; And a display unit 3 for inputting and displaying the image information output after the image conversion processing by the conversion processing unit 2. Then, for example, time-series data of an X-ray image is output from the original image supply unit 1, and time-series data of the X-ray image output from the original image supply unit 1 is input by the image conversion processing unit 2, and the X-ray image is input. Perform image conversion processing to recover blur of line image,
X output from the image conversion processing unit 2 by the display unit 3
An X-ray image whose blur has been restored is displayed by inputting a line image.
【0003】ここで、図11に示す画像変換処理部2に
おける入力画像データは、例えば図12に示すように、
少なくとも処理対象画素4を含む所定領域の対象画像5
が複数枚時系列(T−4,T−3,T−2,T−1,
T)に並んだ時系列データ6によって構成されていた。
そして、上記時系列データ6の各対象画像5が時の経過
に従って順次画像変換処理部2に入力されていた。Here, the input image data in the image conversion processing unit 2 shown in FIG. 11 is, for example, as shown in FIG.
A target image 5 of a predetermined area including at least the pixel 4 to be processed
Is a plurality of time series (T-4, T-3, T-2, T-1,
T) consisted of the time-series data 6 arranged in line.
Then, each target image 5 of the time-series data 6 was sequentially input to the image conversion processing unit 2 as time passed.
【0004】[0004]
【発明が解決しようとする課題】しかし、このような従
来の画像処理装置においては、画像変換処理部2におけ
る入力画像データは上記時系列データ6の各対象画像5
が時の経過に従って順次入力されるだけであったので、
超音波断層像などに代表される動画像を処理対象とした
場合は、上記入力される時系列データ6からは提供され
る対象部位の動きに関する情報が少なく、ニューラルネ
ットワークで構成された画像変換処理部2の学習動作に
おいて対象部位の動きを十分に学習することができなか
った。したがって、上記画像変換処理部2における処理
結果に動きボケを生じたり、残像が生じたりすることが
あった。このことから、雑音を十分に低減することがで
きず、得られる画像の画質が劣化することがあった。However, in such a conventional image processing apparatus, the input image data in the image conversion processing unit 2 is the target image 5 of the time-series data 6.
Were only entered sequentially over time,
When a moving image typified by an ultrasonic tomographic image or the like is to be processed, there is little information on the movement of the target portion provided from the input time-series data 6, and the image conversion processing configured by the neural network is performed. In the learning operation of the part 2, the movement of the target part could not be sufficiently learned. Therefore, the processing result in the image conversion processing unit 2 may cause a motion blur or an afterimage. For this reason, noise cannot be reduced sufficiently, and the image quality of the obtained image may deteriorate.
【0005】そこで、本発明は、このような問題点に対
処し、動画像を対象とする場合に処理結果に動きによる
ボケや残像が生じることを防止し、雑音を低減すること
ができる画像処理装置を提供することを目的とする。Accordingly, the present invention has been made to address the above-described problems, and has been disclosed in an image processing apparatus capable of preventing a blur or an afterimage due to motion from occurring in a processing result when a moving image is to be processed, and reducing noise. It is intended to provide a device.
【0006】[0006]
【課題を解決するための手段】上記目的を達成するため
に、本発明による画像処理装置は、処理対象の画像デー
タを出力する原画像供給部と、この原画像供給部からの
画像データを入力してその画像データの時間変化成分を
算出する時間変化成分算出部と、上記原画像供給部から
の画像データ及び時間変化成分算出部で算出された時間
変化成分を入力して画像変換処理を行う画像変換処理部
と、この画像変換処理部で画像変換処理され出力された
画像情報を入力して表示する表示部とを有して成るもの
である。In order to achieve the above object, an image processing apparatus according to the present invention comprises an original image supply unit for outputting image data to be processed, and an image data input from the original image supply unit. Then, a time-varying component calculating unit that calculates a time-varying component of the image data, and the image data from the original image supply unit and the time-varying component calculated by the time-varying component calculating unit are input to perform image conversion processing. It has an image conversion processing section and a display section for inputting and displaying the image information output by the image conversion processing by the image conversion processing section.
【0007】また、上記時間変化成分算出部は、原画像
供給部から入力した少なくとも注目画素を含む所定領域
の時系列データからその画像データの時間変化成分を算
出し、その算出結果を上記原画像供給部からの注目画素
を含む所定領域の時系列データと共に画像変換処理部へ
出力するものである。The time-varying component calculating unit calculates a time-varying component of the image data from the time-series data of a predetermined area including at least the pixel of interest input from the original image supplying unit, and compares the calculation result with the original image. This is output to the image conversion processing unit together with the time-series data of the predetermined area including the target pixel from the supply unit.
【0008】さらに、上記画像変換処理部は、人工的神
経素子を入力層及び中間層並びに出力層の層構造をなす
ように結合してネットワークを構成し、上記原画像供給
部から少なくとも注目画素を含む所定領域の時系列デー
タを入力すると共に時間変化成分算出部からの算出結果
を入力して画像変換処理を行い、上記注目画素に対応す
るデータを出力するニューラルネットワークで構成した
ものである。Further, the image conversion processing unit forms a network by connecting artificial neural elements so as to form a layer structure of an input layer, an intermediate layer, and an output layer, and at least focuses a pixel of interest from the original image supply unit. The neural network is configured to input time series data of a predetermined area including the input data, input a calculation result from the time change component calculation unit, perform image conversion processing, and output data corresponding to the pixel of interest.
【0009】さらにまた、上記ニューラルネットワーク
から成る画像変換処理部には、該ニューラルネットワー
クに学習動作をさせるための教師信号を入力する教師画
像供給部を接続してもよい。Furthermore, a teacher image supply unit for inputting a teacher signal for causing the neural network to perform a learning operation may be connected to the image conversion processing unit comprising the neural network.
【0010】[0010]
【発明の実施の形態】以下、本発明の実施の形態を添付
図面に基づいて詳細に説明する。図1は本発明による画
像処理装置の実施の形態を示すブロック図である。この
画像処理装置は、光或いはX線などを含めた電磁波又は
超音波などの情報キャリアを物体に照射或いは透入し、
この情報キャリアの変化を計測して画像情報を得るもの
で、例えば各種の医用画像診断装置又は放送用映像処理
装置又は産業用画像処理装置又は民生用画像撮影表示装
置などであり、図1に示すように、原画像供給部1と、
時間変化成分算出部7と、画像変換処理部2と、表示部
3とを有して成る。Embodiments of the present invention will be described below in detail with reference to the accompanying drawings. FIG. 1 is a block diagram showing an embodiment of an image processing apparatus according to the present invention. This image processing apparatus irradiates or penetrates an object with an information carrier such as electromagnetic waves or ultrasonic waves including light or X-rays,
This is a device for obtaining image information by measuring the change of the information carrier, such as various medical image diagnostic devices, broadcast video processing devices, industrial image processing devices, or consumer image capturing and displaying devices, as shown in FIG. Thus, the original image supply unit 1
It comprises a time-varying component calculation unit 7, an image conversion processing unit 2, and a display unit 3.
【0011】上記原画像供給部1は、処理対象の画像デ
ータを出力するもので、例えばX線撮影装置又は超音波
断層装置又はX線CT装置又は核医学イメージング装置
或いは磁気共鳴イメージング装置などの医用画像診断装
置、放送用映像処理装置、産業用画像処理装置、民生用
画像撮影表示装置等において物体を計測又は撮影する計
測部、或いは物体について計測した画像データを記憶し
ておき必要に応じて読み出す記憶部などである。時間変
化成分算出部7は、本発明で付加されたもので、上記原
画像供給部1からの画像データを入力してその画像デー
タの時間変化成分を算出するものである。また、画像変
換処理部2は、上記原画像供給部1からの画像データ及
び時間変化成分算出部7で算出された時間変化成分を入
力して画像変換処理を行うもので、例えばフィルタ手段
から成る。さらに、表示部3は、上記画像変換処理部2
で画像変換処理され出力された画像情報を入力して表示
するもので、例えばテレビモニタから成る。The original image supply unit 1 outputs image data to be processed. For example, the original image supply unit 1 outputs medical data such as an X-ray photographing apparatus, an ultrasonic tomography apparatus, an X-ray CT apparatus, a nuclear medicine imaging apparatus, or a magnetic resonance imaging apparatus. A measuring unit that measures or captures an object in an image diagnostic device, a broadcast video processing device, an industrial image processing device, a consumer image capturing and displaying device, or the like, or stores image data measured for the object and reads out the data as necessary. It is a storage unit or the like. The time-varying component calculation unit 7 is added in the present invention, and inputs the image data from the original image supply unit 1 and calculates a time-varying component of the image data. The image conversion processing unit 2 performs image conversion processing by inputting the image data from the original image supply unit 1 and the time change component calculated by the time change component calculation unit 7, and includes, for example, a filter unit. . Further, the display unit 3 is provided with the image conversion processing unit 2.
And displays the image information that has been subjected to the image conversion processing and is, for example, a television monitor.
【0012】ここで、本発明においては、上記時間変化
成分算出部7は、原画像供給部1から入力した少なくと
も注目画素を含む所定領域の時系列データからその画像
データの時間変化成分を算出し、その算出結果を上記原
画像供給部1からの注目画素を含む所定領域の時系列デ
ータと共に画像変換処理部2へ出力するものとされてい
る。この時間変化成分算出部7では、図2に示すよう
に、前述の図12に示すと同様に処理対象画素4を含む
所定領域の対象画像5が複数枚時系列(T−4,T−
3,T−2,T−1,T)に並んだ時系列データ6によ
って構成された画像データを入力し、その画像データの
時間変化成分を算出する。すなわち、図2において時刻
Tにおける対象画像5内に存在する処理対象画素4と、
それより過去(T−1,T−2,T−3,T−4)のフ
レームの画像にて上記処理対象画素4と同一位置に存在
する画素4a,4b,4c,4dとの間で、それぞれ濃
度値の差分を算出することにより時系列データ6の時間
変化成分8a,8b,8c,8dを得るように動作す
る。Here, in the present invention, the time change component calculation section 7 calculates a time change component of the image data from the time series data of a predetermined area including at least the target pixel input from the original image supply section 1. The calculation result is output to the image conversion processing unit 2 together with the time-series data of the predetermined area including the target pixel from the original image supply unit 1. As shown in FIG. 2, the time-varying component calculation unit 7 generates a plurality of target images 5 in a predetermined area including the processing target pixels 4 in a time series (T-4, T-
3, (T-2, T-1, T), the image data composed of the time-series data 6 is input, and a time-varying component of the image data is calculated. That is, the processing target pixel 4 existing in the target image 5 at the time T in FIG.
In the past (T-1, T-2, T-3, T-4) frame images, the pixels 4a, 4b, 4c, and 4d existing at the same position as the pixel 4 to be processed are: The operation is performed so as to obtain the time-varying components 8a, 8b, 8c, 8d of the time-series data 6 by calculating the differences between the density values.
【0013】また、本発明では、画像変換処理部2は、
人工的神経素子を入力層及び中間層並びに出力層の層構
造をなすように結合してネットワークを構成し、上記原
画像供給部1から少なくとも注目画素を含む所定領域の
時系列データを入力すると共に時間変化成分算出部7か
らの算出結果を入力して画像変換処理を行い、上記注目
画素に対応するデータを出力するニューラルネットワー
クで構成されている。In the present invention, the image conversion processing unit 2
A network is formed by connecting artificial neural elements so as to form a layer structure of an input layer, an intermediate layer, and an output layer, and time-series data of a predetermined area including at least a pixel of interest is input from the original image supply unit 1 and It is configured by a neural network that inputs a calculation result from the time change component calculation unit 7, performs image conversion processing, and outputs data corresponding to the pixel of interest.
【0014】すなわち、上記画像変換処理部2は、図3
に示すようなニューラルネットワーク9で構成されてい
る。このニューラルネットワーク9は、上記原画像供給
部1から少なくとも注目画素を含む所定領域の時系列デ
ータを入力すると共に時間変化成分算出部7からの算出
結果を入力して画像変換処理を行い、上記注目画素に対
応するデータを出力するもので、人工的神経素子10を
入力層及び中間層ならびに出力層の層構造をなすように
結合してネットワークを構成すると共に、最終段の出力
層の入出力関数としてリニア関数を用いて構成されてい
る。That is, the image conversion processing unit 2
The neural network 9 shown in FIG. The neural network 9 inputs the time-series data of a predetermined area including at least the pixel of interest from the original image supply unit 1 and the calculation result from the time change component calculation unit 7 to perform image conversion processing. It outputs data corresponding to pixels. The artificial neural element 10 is connected to form a layer structure of an input layer, an intermediate layer, and an output layer to form a network. Is configured using a linear function.
【0015】図4は上記ニューラルネットワーク9を構
成する人工的神経素子10を示す説明図である。図に示
すように、人工的神経素子(以下「ニューロンモデル」
という)10は生物の神経素子(ニューロン)の働きを
模した多入力一出力の素子で、入力Ii(I1〜In)と
結合係数Wji(Wj1〜Wjn)の積和により出力Ojが決
定される。すなわち、入出力関数f(x)を用いて次式
のように決定される。 ただし、θjはしきい値に相当する入出力関数のオフセ
ットであり、nは入力の数である。FIG. 4 is an explanatory diagram showing an artificial neural element 10 constituting the neural network 9. As shown in the figure, an artificial neural element (hereinafter referred to as a “neuron model”)
) 10 that is an element of the multi-input first output that simulates the function of biological neural elements (neurons), the output Oj is determined by the product sum of the input Ii (I 1 -In) and the coupling coefficient Wji (Wj 1 ~Wjn) Is done. That is, it is determined as follows using the input / output function f (x). Here, θj is the offset of the input / output function corresponding to the threshold, and n is the number of inputs.
【0016】前述の図3は層構造をなすように結合して
ネットワークに構成されたニューラルネットワーク9の
階層構造を示す説明図である。このニューラルネットワ
ーク9は図のように、上記ニューロンモデル10を多数
用い、入力層および中間層ならびに出力層の層構造をな
すように結合してネットワークを構成することにより、
信号処理及び情報処理の機能を実現するように構成され
ている。なお、図3において、符号11は入力層と中間
層とを結ぶ枝を示し、入力層の各ニューロンモデル10
は中間層の全てのニューロンモデル10とそれぞれ結合
されている。また、符号12は中間層と出力層とを結ぶ
枝を示し、中間層の各ニューロンモデル10は出力層の
全てのニューロンモデル10とそれぞれ結合されてい
る。そして、このニューラルネットワーク9は、入力層
に供給される入力情報13を変換して出力層から出力情
報14として出力するようになっている。FIG. 3 is an explanatory diagram showing a hierarchical structure of the neural network 9 which is connected to form a layer structure and is formed into a network. As shown in the figure, the neural network 9 uses a large number of the neuron models 10 and forms a network by connecting the input layer, the intermediate layer, and the output layer so as to form a layer structure.
It is configured to realize the functions of signal processing and information processing. In FIG. 3, reference numeral 11 denotes a branch connecting the input layer and the intermediate layer.
Are respectively connected to all the neuron models 10 in the hidden layer. Reference numeral 12 denotes a branch connecting the intermediate layer and the output layer, and each neuron model 10 in the intermediate layer is connected to every neuron model 10 in the output layer. The neural network 9 converts the input information 13 supplied to the input layer and outputs the converted information as output information 14 from the output layer.
【0017】このように構成することにより、上記ニュ
ーラルネットワーク9は、学習機能や自己組織機能を有
する情報処理機構となっている。そして、このニューラ
ルネットワーク9は、教師信号15を与えて学習を行う
ことにより、入力層に供給される入力情報13に対して
所望の出力情報14を出力層から出力するように自己組
織化して行く。ここで、上記入力層においては、入出力
関数として次式に示すような恒等関数が用いられてい
る。 fi(x)=x これにより、入力がそのまま出力される。なお、この恒
等関数の代わりに他の関数を用いて入力情報13に変調
をかけてもよい。With this configuration, the neural network 9 is an information processing mechanism having a learning function and a self-organizing function. Then, the neural network 9 performs self-organization by giving a teacher signal 15 and performing learning so that desired output information 14 is output from the output layer with respect to the input information 13 supplied to the input layer. . Here, in the input layer, an identity function as shown in the following equation is used as an input / output function. fi (x) = x As a result, the input is output as it is. The input information 13 may be modulated using another function instead of the identity function.
【0018】また、図5は上記ニューラルネットワーク
9の中間層の入出力関数として用いられるシグモイド関
数を示すグラフである。上記中間層においては、入出力
関数として図に示すように出力fsが“0”から“1”
の範囲内で単調増加のシグモイド関数が用いられてい
る。このシグモイド関数は次式のように表現される。 ただし、U0は傾きを制御するパラメータである。そし
て、これを微分すると、 となり、もとのシグモイド関数で表現できるという特徴
を持っている。このように、中間層にシグモイド関数な
どの非線形関数を用いることにより、上記ニューラルネ
ットワーク9は、複雑な非線形変換処理をも扱うことが
できる。FIG. 5 is a graph showing a sigmoid function used as an input / output function of the intermediate layer of the neural network 9. In the intermediate layer, the output fs is changed from “0” to “1” as an input / output function as shown in the figure.
, A monotonically increasing sigmoid function is used. This sigmoid function is expressed by the following equation. Here, U 0 is a parameter for controlling the inclination. And differentiating this gives: It has the characteristic that it can be expressed by the original sigmoid function. As described above, by using a nonlinear function such as a sigmoid function for the intermediate layer, the neural network 9 can handle a complicated nonlinear conversion process.
【0019】さらに、図6は上記ニューラルネットワー
ク9の出力層の入出力関数として用いられるリニア関数
を示すグラフである。上記出力層においては、入出力関
数として上述のシグモイド関数の代わりに、図に示すよ
うに出力が入力に対して直線的に増減するリニア関数が
用いられている。いま、直線の傾きをaとすると、例え
ば次式のように表される。 これを微分すると、 となる。これにより、出力層からの出力はアナログ的な
値となり、画像情報などのアナログ的な値を扱うことが
できるようになる。FIG. 6 is a graph showing a linear function used as an input / output function of the output layer of the neural network 9. In the output layer, a linear function whose output increases and decreases linearly with respect to the input as shown in the figure is used as the input / output function instead of the sigmoid function. Now, assuming that the inclination of the straight line is a, for example, it is represented by the following equation. Differentiating this gives: Becomes As a result, the output from the output layer becomes an analog value, and an analog value such as image information can be handled.
【0020】上記ニューラルネットワーク9では入力情
報13に対して所望の出力情報14が得られるように学
習が行われる。すなわち、教師となる教師信号15と出
力情報14の誤差が小さくなるように入力層と中間層を
結合している枝11及び中間層と出力層を結合している
枝12の結合係数を変化させてゆき、学習後所望の出力
が得られるように自己組織化していく。アナログ出力用
のニューラルネットワーク9の学習アルゴリズムを図7
に示す。図7の記号の意味は次のとおりである。 I ;入力情報 Ok ;第k層のニューロンモデルの出力 Wk ;第k層と第(k+1)層間の結合係数 θk ;第k層のニューロンモデルのオフセット T ;教師信号 ηw ;Wに対する学習定数 ηθ;θに対する学習定数 δk ;第(k−1)層を修正するための誤差量 fi ;恒等関数 fs ;シグモイド関数 fl ;リニア関数 なお、入力情報I、第k層のニューロンモデルの出力O
k、第k層のニューロンモデルのオフセットθk、教師信
号T、第(k−1)層を修正するための誤差量δkは1次
元ベクトルで表されており、第k層と第(k+1)層間の
結合係数Wkは2次元ベクトルで表されている。また、
例に示したニューラルネットワークは3層のものである
ため第1層目が入力層であり、第2層目が中間層であ
り、第3層目が出力層である。In the neural network 9, learning is performed on the input information 13 so that desired output information 14 is obtained. That is, the coupling coefficient of the branch 11 connecting the input layer and the intermediate layer and the coupling coefficient of the branch 12 connecting the intermediate layer and the output layer are changed so that the error between the teacher signal 15 serving as a teacher and the output information 14 is reduced. After learning, self-organization is performed so that a desired output is obtained. FIG. 7 shows a learning algorithm of the neural network 9 for analog output.
Shown in The meanings of the symbols in FIG. 7 are as follows. I: input information Ok; output Wk of the k-th layer neuron model Wk; coupling coefficient θk between the k-th layer and the (k + 1) th layer; offset T of the k-th layer neuron model T; teacher signal ηw; learning constant for W ηθ; learning constant for .theta.k; error amount fi for correcting the (k-1) th layer fi; identity function fs; sigmoid function fl; linear function Note that input information I and output O of the neuron model on the kth layer
k, the offset θk of the neuron model of the k-th layer, the teacher signal T, and the error amount δk for correcting the (k−1) -th layer are represented by a one-dimensional vector, and the k-th layer and the (k + 1) -th layer Is represented by a two-dimensional vector. Also,
Since the neural network shown in the example has three layers, the first layer is an input layer, the second layer is an intermediate layer, and the third layer is an output layer.
【0021】この学習アルゴリズムについて以下説明す
る。教師信号Tと出力層の出力O3との平均二乗誤差E
は、 である。これが減少するように第k層と第(k+1)層間
の結合係数Wkを次の修正量 によって修正する。The learning algorithm will be described below. Mean square error E between the teacher signal T and the output O 3 of the output layer
Is It is. In order to reduce this, the coupling coefficient Wk between the k-th layer and the (k + 1) -th layer is changed by the following correction amount. Modify by
【0022】ここで、 とおくと、中間層と出力層との間の修正量を決めるδ3
は、 である。よって、修正量は、 となる。Here, In other words, δ 3 that determines the amount of correction between the hidden layer and the output layer
Is It is. Therefore, the amount of correction is Becomes
【0023】これにより、前述のように出力層からの出
力は、アナログ的な値となる。また、入力層と出力層間
の修正量を決めるδ2は、 となり、修正量は、 となる。オフセットについても同様に求めることによ
り、図7に示すアルゴリズムとなる。Thus, as described above, the output from the output layer has an analog value. Δ 2 that determines the amount of correction between the input layer and the output layer is And the correction amount is Becomes The algorithm shown in FIG. 7 is obtained by similarly calculating the offset.
【0024】そして、操作者が与える教師信号15に基
づき、このようなアルゴリズムで上記ニューラルネット
ワーク9の学習が行われる。なお、ここでは、3層のニ
ューラルネットワーク9について例を示したが、中間層
の数を増やすことによって3層以上のニューラルネット
ワーク9が構成可能であり、その場合の学習アルゴリズ
ムは誤差量δを逆伝播させ、漸近的に修正量を求めれば
よく、より複雑な変換を含む画像情報への対応が可能と
なる。そして、上記ニューラルネットワーク9で変換さ
れた画像データは、図示省略したが適当な濃度スケール
に変換され、図1に示す表示部3に入力され表示され
る。The learning of the neural network 9 is performed by such an algorithm based on the teacher signal 15 given by the operator. Here, an example of the three-layer neural network 9 has been described. However, a neural network 9 having three or more layers can be configured by increasing the number of intermediate layers. In this case, the learning algorithm reverses the error amount δ. Propagation and the amount of correction may be asymptotically determined, and it is possible to deal with image information including more complicated conversion. The image data converted by the neural network 9 is converted to an appropriate density scale (not shown), and is input to the display unit 3 shown in FIG. 1 and displayed.
【0025】図8はシグモイド関数の準線形領域16を
示している。これは、図3に示すニューラルネットワー
ク9が、層構造をなすように結合されたネットワークの
最終段の出力層の入出力関数としてリニア関数以外の関
数、例えば図8に示すシグモイド関数を用いると共に、
その準線形領域16を出力画像情報の範囲と限定して用
いる場合を示している。この場合も、前述と同様に画像
情報をアナログ値で出力可能とすることができる。FIG. 8 shows the quasi-linear region 16 of the sigmoid function. This is because the neural network 9 shown in FIG. 3 uses a function other than the linear function, for example, a sigmoid function shown in FIG. 8 as an input / output function of an output layer at the last stage of the network connected in a layered structure.
The case where the quasi-linear region 16 is used limited to the range of the output image information is shown. Also in this case, the image information can be output as an analog value as described above.
【0026】図9は本発明の他の実施形態を示すブロッ
ク図である。この実施形態は、図1に示す画像変換処理
部2としてのニューラルネットワーク9に対し、該ニュ
ーラルネットワーク9に学習動作をさせるための教師信
号15(図3参照)を入力する教師画像供給部17を接
続したものである。図1に示す実施例では、工場出荷時
或いは使用施設等への設置時に、平均的又は標準的もし
くは特定の教師信号15を与えて予め所要の学習を行わ
せるものとしているが、それでは実際の使用現場におけ
る個々のユーザー等の使用状況に合致しないこともある
ので、これを改善しようとするものである。すなわち、
図9において、教師画像供給部17は、物体を計測又は
撮影する計測装置或いは物体について計測した画像デー
タを記憶しておき必要に応じて読み出す記憶装置であ
り、この教師画像供給部17をニューラルネットワーク
9の出力層(図3参照)から出力情報14が出力される
出力端に接続し、この教師画像供給部17を用いて個々
のユーザー等が、原画像供給部1から出力される画像デ
ータに対して理想とされる教師画像を教師信号15とし
て随時に供給し、上記ニューラルネットワーク9に学習
を行わせる。FIG. 9 is a block diagram showing another embodiment of the present invention. In this embodiment, a teacher image supply unit 17 for inputting a teacher signal 15 (see FIG. 3) for causing the neural network 9 to perform a learning operation with respect to the neural network 9 as the image conversion processing unit 2 shown in FIG. Connected. In the embodiment shown in FIG. 1, an average, a standard, or a specific teacher signal 15 is given at the time of factory shipment or installation at a use facility to perform necessary learning in advance. In some cases, the situation does not match the usage situation of each user at the site, and therefore, an attempt is made to improve the situation. That is,
9, a teacher image supply unit 17 is a measuring device for measuring or photographing an object or a storage device for storing image data measured for an object and reading out the image data as necessary. 9 is connected to an output terminal from which output information 14 is output from an output layer 9 (see FIG. 3), and individual users and the like are connected to image data output from the original image supply unit 1 by using the teacher image supply unit 17. On the other hand, an ideal teacher image is supplied as a teacher signal 15 as needed, and the neural network 9 learns.
【0027】次に、上記教師信号15として教師画像供
給部17から教師画像を供給してニューラルネットワー
ク9が学習する動作について説明する。本発明により、
装置システムの持つ固有の雑音やくせを除去する場合に
は、原画像供給部1から対象の装置システムにより得ら
れた雑音やくせを含む画像データが画像変換処理部2と
してのニューラルネットワーク9に供給されると共に、
教師画像供給部17から理想的な装置システムにより得
られた雑音やくせを含まない画像データが上記ニューラ
ルネットワーク9へ供給され、前述の図7に示すアルゴ
リズムで学習が行われる。この学習後のニューラルネッ
トワーク9には、雑音やくせを含む対象の装置システム
から雑音やくせを含まない理想的な装置システムへの変
換モデルが自動的に構築されており、入力した原画像に
ついて雑音やくせを除去することができる。Next, an operation in which a teacher image is supplied from the teacher image supply unit 17 as the teacher signal 15 and the neural network 9 learns will be described. According to the present invention,
When removing the inherent noise and habit of the device system, the original image supply unit 1 supplies the image data including the noise and habit obtained by the target device system to the neural network 9 as the image conversion processing unit 2. As well as
Image data free from noise and habits obtained by the ideal apparatus system from the teacher image supply unit 17 is supplied to the neural network 9, and learning is performed by the algorithm shown in FIG. In the neural network 9 after the learning, a conversion model from a target device system including noise and habit to an ideal device system including no noise and habit is automatically constructed. The habit can be removed.
【0028】一例として、超音波診断装置を対象のシス
テムとした場合において、原画像供給部1からの画像デ
ータと時間変化成分算出部7で算出された時間変化成分
とを画像変換処理部2に入力し、超音波断層像の画質改
善を処理目的として対象画像の処理を行う過程について
図10を参照して説明する。まず、図9に示す時間変化
成分算出部7により、原画像供給部1から供給された超
音波断層像の時系列データ6の時刻Tにおける処理対象
画素4の濃度値と、1フレーム過去の時刻T−1におい
て同一位置にある画素4aの濃度値との差分をとり、時
間変化成分8aを算出する。このとき、順次過去の時刻
T−2,T−3,T−4において同一位置にある画素を
それぞれ4b,4c,4dとする。As an example, when an ultrasonic diagnostic apparatus is used as a target system, the image data from the original image supply unit 1 and the time change component calculated by the time change component calculation unit 7 are sent to the image conversion processing unit 2. The process of inputting and processing the target image for the purpose of improving the image quality of the ultrasonic tomographic image will be described with reference to FIG. First, the density value of the processing target pixel 4 at the time T of the time-series data 6 of the ultrasonic tomographic image supplied from the original image supply unit 1 and the time one frame past by the time change component calculation unit 7 shown in FIG. The difference with the density value of the pixel 4a located at the same position at T-1 is calculated, and the time change component 8a is calculated. At this time, the pixels at the same position at the past times T-2, T-3, and T-4 are referred to as 4b, 4c, and 4d, respectively.
【0029】そして、図10において、時刻Tから時刻
T−4までのどのフレームにおいても各対象画素4,4
a,4b,4c,4dに対してカーネル(局所領域)1
8が空間的対称性を保つようにされると共に、過去のフ
レームに遡るほど上記カーネル18が小さくなるように
され、これらにより入力画素19が決定される。図10
の例では、時刻Tにおいて処理対象画素4が存在するフ
レームから順次過去のフレームに向かって、それぞれ9
×5=45画素、7×3=21画素、5×1=5画素、
3×1=3画素、1×1=1画素の合計75画素の入力
画素19が選択されている。これら入力画素19と上記
時間変化成分算出部7で算出された時間変化成分8aと
の合計76画素の濃度値を入力画素濃度値規格化部20
において、例えば−1〜1の値にそれぞれ規格化する。In FIG. 10, in each frame from time T to time T-4, each target pixel 4, 4
Kernel (local area) 1 for a, 4b, 4c, 4d
8 is kept spatially symmetric, and the kernel 18 is made smaller as going back to the past frame, and the input pixel 19 is determined by these. FIG.
In the example of (9), at the time T, 9 frames are sequentially arranged from the frame where the pixel 4 to be processed exists to the past frame.
× 5 = 45 pixels, 7 × 3 = 21 pixels, 5 × 1 = 5 pixels,
A total of 75 input pixels 19 of 3 × 1 = 3 pixels and 1 × 1 = 1 pixel are selected. The input pixel 19 and the time-varying component 8a calculated by the time-varying component calculating unit 7 calculate the density value of a total of 76 pixels as the input pixel density value normalizing unit 20.
In, for example, the values are normalized to values of −1 to 1, respectively.
【0030】その後、上記入力画素濃度値規格化部20
で規格化された値を画像変換処理部2としてのニューラ
ルネットワーク9(図3参照)の入力層の入力情報13
として与え、その情報が順次中間層から出力層へと伝播
し、出力層の出力情報14を得る。この出力情報14を
出力画素濃度値規格化部21において上記入力画素濃度
値規格化部20で行った規格化と逆の方法で画素の濃度
値に逆規格化を行い、出力画素濃度値22を得る。この
出力画素濃度値22が上記処理対象画素4の画像変換処
理結果となる。そして、上記の処理を対象画像5の全体
に施すことによって出力画像23を得る。Thereafter, the input pixel density value normalizing section 20
The input information 13 of the input layer of the neural network 9 (see FIG. 3) as the image conversion processing unit 2
The information is sequentially propagated from the intermediate layer to the output layer, and the output information 14 of the output layer is obtained. The output information 14 is inversely normalized to the pixel density value in the output pixel density value normalizing section 21 in the reverse manner to the normalization performed by the input pixel density value normalizing section 20, and the output pixel density value 22 is obtained. obtain. This output pixel density value 22 is the image conversion processing result of the processing target pixel 4. Then, the output image 23 is obtained by performing the above processing on the entire target image 5.
【0031】次に、上記ニューラルネットワーク9が処
理対象画素4に対して所望の出力情報14を得られるよ
うにするための学習動作について説明する。まず、図1
0において、教師画像24を作成する。このとき、超音
波断層像の画質改善を目的とする場合には、教師画像2
4として高画質の超音波断層像を用いる。高画質の超音
波断層像は、時系列の超音波断層像原画像から複数枚の
画像を選択し、それらの加算平均を行うことにより作成
する。また、動く部分が存在する超音波断層像の場合に
は、動いている部分に加算によるボケが生ずることを防
ぐために、動きに対して同期のとれた画像を時系列画像
より選択し、加算平均画像を作成する。これらの高画質
画像を得る方法は一例であり、他のフィルタ処理などを
用いたり、操作者の好みの画像になるように画像内の領
域毎に異なる複数のフィルタ処理、例えば高域強調フィ
ルタなどを施して作成してもよい。Next, a learning operation for enabling the neural network 9 to obtain desired output information 14 for the pixel 4 to be processed will be described. First, FIG.
At 0, a teacher image 24 is created. At this time, if the purpose is to improve the image quality of the ultrasonic tomographic image, the teacher image 2
4 is a high-quality ultrasonic tomographic image. A high-quality ultrasonic tomographic image is created by selecting a plurality of images from a time-series original ultrasonic tomographic image and averaging them. In addition, in the case of an ultrasonic tomographic image having a moving part, an image synchronized with the movement is selected from the time-series image in order to prevent the moving part from being blurred by the addition, and the averaging is performed. Create an image. The method of obtaining these high-quality images is an example, and other filter processing or the like is used, or a plurality of filter processings different for each region in the image so as to be an image desired by the operator, for example, a high-frequency emphasis filter, etc. May be created.
【0032】上記のような教師画像24を用いて行う学
習動作は次のように実行される。まず、作成した教師画
像24の注目領域25内における対象画素26を上記出
力画素濃度値規格化部21において−1〜1に規格化し
た値27と、上記ニューラルネットワーク9からの出力
情報14との誤差を算出し、その誤差が小さくなるよう
に該ニューラルネットワーク9の結合係数を変化させ
る。この動作を上記注目領域25内において繰り返し、
その繰り返しが指定回数に達するか、或いはその誤差が
許容誤差以下になるまで学習を行う。この学習によっ
て、原画像を入力すると操作者が望む処理画像が出力さ
れるよう自動的にニューラルネットワーク9が構築さ
れ、所望の画像フィルタ入出力特性を該ニューラルネッ
トワーク9が獲得することとなる。The learning operation performed using the teacher image 24 as described above is executed as follows. First, a value 27 obtained by normalizing the target pixel 26 in the attention area 25 of the created teacher image 24 to −1 to 1 by the output pixel density value normalizing unit 21 and the output information 14 from the neural network 9 are described. An error is calculated, and the coupling coefficient of the neural network 9 is changed so that the error is reduced. This operation is repeated in the attention area 25,
Learning is performed until the repetition reaches a specified number of times or the error becomes equal to or less than an allowable error. By this learning, when the original image is input, the neural network 9 is automatically constructed so that the processed image desired by the operator is output, and the neural network 9 acquires a desired image filter input / output characteristic.
【0033】[0033]
【発明の効果】本発明は以上のように構成されたので、
超音波断層像などに代表される動画像を処理対象とした
場合に、時間変化成分算出部により原画像供給部から入
力した少なくとも注目画素を含む所定領域の時系列デー
タからその画像データの時間変化成分を算出し、その算
出結果を上記原画像供給部からの注目画素を含む所定領
域の時系列データと共に画像変換処理部へ出力し、ニュ
ーラルネットワークで構成された画像変換処理部の学習
動作において対象部位の動きを学習することがでる。し
たがって、上記画像変換処理部における処理結果に動き
によるボケを生じたり、残像が生じたりすることを防止
することができる。このことから、動画像を対象とする
場合に処理結果に動きによるボケや残像が生ずることを
防止し、雑音を低減することができ、得られる画像の画
質を向上することができる。The present invention has been configured as described above.
When a moving image typified by an ultrasonic tomographic image or the like is to be processed, a time change component of the image data is obtained from the time series data of a predetermined area including at least the pixel of interest input from the original image supply unit by the time change component calculation unit. The component is calculated, and the calculation result is output to the image conversion processing unit together with the time-series data of the predetermined area including the pixel of interest from the original image supply unit, and is used as a target in the learning operation of the image conversion processing unit configured by the neural network. You can learn the movement of the part. Therefore, it is possible to prevent the processing result in the image conversion processing unit from being blurred due to motion or from having an afterimage. Thus, when a moving image is targeted, it is possible to prevent the processing result from being blurred or an afterimage due to motion, to reduce noise, and to improve the image quality of the obtained image.
【図1】本発明による画像処理装置の実施の形態を示す
ブロック図である。FIG. 1 is a block diagram showing an embodiment of an image processing apparatus according to the present invention.
【図2】本発明に係る時間変化成分算出部による画像デ
ータの時間変化成分の算出状態を示す説明図である。FIG. 2 is an explanatory diagram illustrating a calculation state of a time-varying component of image data by a time-varying component calculating unit according to the present invention.
【図3】層構造をなすように結合してネットワークに構
成されたニューラルネットワークの階層構造を示す説明
図である。FIG. 3 is an explanatory diagram showing a hierarchical structure of a neural network which is connected to form a layer structure and is formed into a network.
【図4】ニューラルネットワークを構成する人工的神経
素子を示す説明図である。FIG. 4 is an explanatory diagram showing an artificial neural element constituting a neural network.
【図5】上記ニューラルネットワークの中間層の入出力
関数として用いられるシグモイド関数を示すグラフであ
る。FIG. 5 is a graph showing a sigmoid function used as an input / output function of an intermediate layer of the neural network.
【図6】上記ニューラルネットワークの出力層の入出力
関数として用いられるリニア関数を示すグラフである。FIG. 6 is a graph showing a linear function used as an input / output function of an output layer of the neural network.
【図7】アナログ出力用のニューラルネットワークの学
習アルゴリズムを示す説明図である。FIG. 7 is an explanatory diagram showing a learning algorithm of a neural network for analog output.
【図8】シグモイド関数の準線形領域を示すグラフであ
る。FIG. 8 is a graph showing a quasi-linear region of a sigmoid function.
【図9】本発明の他の実施形態を示すブロック図であ
る。FIG. 9 is a block diagram showing another embodiment of the present invention.
【図10】原画像供給部からの画像データと時間変化成
分算出部で算出された時間変化成分とを画像変換処理部
に入力し、例えば超音波断層像の画質改善を処理目的と
して対象画像の処理を行う過程について示す説明図であ
る。FIG. 10 shows an example in which image data from an original image supply unit and a time-varying component calculated by a time-varying component calculating unit are input to an image conversion processing unit. It is explanatory drawing shown about the process which performs a process.
【図11】従来のこの種の画像処理装置を示すブロック
図である。FIG. 11 is a block diagram showing a conventional image processing apparatus of this type.
【図12】上記従来の画像処理装置における入力情報を
示す説明図である。FIG. 12 is an explanatory diagram showing input information in the conventional image processing apparatus.
1…原画像供給部 2…画像変換処理部 3…表示部 4…処理対象画素 5…対象画像 6…時系列データ 7…時間変化成分算出部 8a〜8d…時間変化成分 9…ニューラルネットワーク 10…人工的神経素子 11,12…枝 13…入力情報 14…出力情報 15…教師信号 16…シグモイド関数の準線形領域 17…教師画像供給部 DESCRIPTION OF SYMBOLS 1 ... Original image supply part 2 ... Image conversion processing part 3 ... Display part 4 ... Processing target pixel 5 ... Target image 6 ... Time series data 7 ... Time change component calculation part 8a-8d ... Time change component 9 ... Neural network 10 ... Artificial neural elements 11, 12 Branch 13 Input information 14 Output information 15 Teacher signal 16 Semi-linear region of sigmoid function 17 Teacher image supply unit
フロントページの続き (51)Int.Cl.6 識別記号 FI // A61B 5/055 A61B 5/05 380 Continued on the front page (51) Int.Cl. 6 Identification code FI // A61B 5/055 A61B 5/05 380
Claims (4)
供給部と、この原画像供給部からの画像データを入力し
てその画像データの時間変化成分を算出する時間変化成
分算出部と、上記原画像供給部からの画像データ及び時
間変化成分算出部で算出された時間変化成分を入力して
画像変換処理を行う画像変換処理部と、この画像変換処
理部で画像変換処理され出力された画像情報を入力して
表示する表示部とを有して成ることを特徴とする画像処
理装置。An original image supply unit for outputting image data to be processed; a time change component calculation unit for inputting image data from the original image supply unit and calculating a time change component of the image data; An image conversion processing unit that inputs image data from the original image supply unit and the time change component calculated by the time change component calculation unit to perform an image conversion process, and an image that is subjected to image conversion processing and output by the image conversion processing unit A display unit for inputting and displaying information.
部から入力した少なくとも注目画素を含む所定領域の時
系列データからその画像データの時間変化成分を算出
し、その算出結果を上記原画像供給部からの注目画素を
含む所定領域の時系列データと共に画像変換処理部へ出
力するものであることを特徴とする請求項1記載の画像
処理装置。2. The time-varying component calculating unit calculates a time-varying component of the image data from time-series data of a predetermined area including at least a pixel of interest input from the original image supplying unit, and calculates a result of the calculation based on the original image. 2. The image processing apparatus according to claim 1, wherein the image processing apparatus outputs the image data to the image conversion processing unit together with the time-series data of the predetermined area including the target pixel from the supply unit.
を入力層及び中間層並びに出力層の層構造をなすように
結合してネットワークを構成し、上記原画像供給部から
少なくとも注目画素を含む所定領域の時系列データを入
力すると共に時間変化成分算出部からの算出結果を入力
して画像変換処理を行い、上記注目画素に対応するデー
タを出力するニューラルネットワークで構成したことを
特徴とする請求項1又は2記載の画像処理装置。3. The image conversion processing unit configures a network by connecting artificial neural elements to form a layer structure of an input layer, an intermediate layer, and an output layer, and forms at least a target pixel from the original image supply unit. The neural network is configured to input time-series data of a predetermined area including the input data, input a calculation result from a time-varying component calculation unit, perform image conversion processing, and output data corresponding to the pixel of interest. The image processing device according to claim 1.
像変換処理部には、該ニューラルネットワークに学習動
作をさせるための教師信号を入力する教師画像供給部を
接続したことを特徴とする請求項1〜3のいずれか1項
に記載の画像処理装置。4. The image conversion processing section comprising the neural network is connected to a teacher image supply section for inputting a teacher signal for causing the neural network to perform a learning operation. The image processing device according to claim 1.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP9185060A JPH1131214A (en) | 1997-07-10 | 1997-07-10 | Picture processor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP9185060A JPH1131214A (en) | 1997-07-10 | 1997-07-10 | Picture processor |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH1131214A true JPH1131214A (en) | 1999-02-02 |
Family
ID=16164114
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP9185060A Pending JPH1131214A (en) | 1997-07-10 | 1997-07-10 | Picture processor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH1131214A (en) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007293732A (en) * | 2006-04-27 | 2007-11-08 | Hitachi High-Technologies Corp | Inspecting device |
WO2018037521A1 (en) * | 2016-08-25 | 2018-03-01 | キヤノン株式会社 | Image processing method, image processing apparatus, image capture apparatus, image processing program, and storage medium |
JP2018516703A (en) * | 2015-06-12 | 2018-06-28 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | System and method for identifying cancer tissue |
JP2018534710A (en) * | 2015-11-05 | 2018-11-22 | フェイスブック,インク. | System and method for processing content using convolutional neural networks |
WO2019102846A1 (en) * | 2017-11-24 | 2019-05-31 | キヤノンメディカルシステムズ株式会社 | Medical data processing device, magnetic resonance imaging device, and learned model generation method |
WO2020003524A1 (en) * | 2018-06-29 | 2020-01-02 | 株式会社ニデック | Ophthalmic image processing device, oct device, ophthalmic image processing program, and method of building mathematical model |
JP2020127767A (en) * | 2020-05-01 | 2020-08-27 | 株式会社ニデック | Ophthalmologic image processing device and oct device |
JP2020177333A (en) * | 2019-04-16 | 2020-10-29 | キヤノンメディカルシステムズ株式会社 | Medical information processing system and medical information processing apparatus |
JP2020195782A (en) * | 2020-08-05 | 2020-12-10 | 株式会社ニデック | Ophthalmologic image processing program and oct device |
US11195059B2 (en) | 2018-09-06 | 2021-12-07 | Canon Medical Systems Corporation | Signal data processing apparatus |
US20210398259A1 (en) | 2019-03-11 | 2021-12-23 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and storage medium |
JP2022145732A (en) * | 2018-06-15 | 2022-10-04 | キヤノン株式会社 | Medical image processing apparatus, medical image processing method, and program |
US11922601B2 (en) | 2018-10-10 | 2024-03-05 | Canon Kabushiki Kaisha | Medical image processing apparatus, medical image processing method and computer-readable medium |
US12039704B2 (en) | 2018-09-06 | 2024-07-16 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method and computer-readable medium |
US12040079B2 (en) | 2018-06-15 | 2024-07-16 | Canon Kabushiki Kaisha | Medical image processing apparatus, medical image processing method and computer-readable medium |
-
1997
- 1997-07-10 JP JP9185060A patent/JPH1131214A/en active Pending
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007293732A (en) * | 2006-04-27 | 2007-11-08 | Hitachi High-Technologies Corp | Inspecting device |
JP2018516703A (en) * | 2015-06-12 | 2018-06-28 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | System and method for identifying cancer tissue |
JP2018534710A (en) * | 2015-11-05 | 2018-11-22 | フェイスブック,インク. | System and method for processing content using convolutional neural networks |
US10354369B2 (en) | 2016-08-25 | 2019-07-16 | Canon Kabushiki Kaisha | Image processing method, image processing apparatus, image pickup apparatus, and storage medium |
WO2018037521A1 (en) * | 2016-08-25 | 2018-03-01 | キヤノン株式会社 | Image processing method, image processing apparatus, image capture apparatus, image processing program, and storage medium |
JPWO2018037521A1 (en) * | 2016-08-25 | 2019-06-20 | キヤノン株式会社 | Image processing method, image processing apparatus, imaging apparatus, image processing program, storage medium |
JP2019093126A (en) * | 2017-11-24 | 2019-06-20 | キヤノンメディカルシステムズ株式会社 | Medical data processor, magnetic resonance imaging device and learned model creation method |
JP2021090825A (en) * | 2017-11-24 | 2021-06-17 | キヤノンメディカルシステムズ株式会社 | Medical data processing apparatus, x-ray computer tomographic apparatus, and learned model generation method |
JP2019181226A (en) * | 2017-11-24 | 2019-10-24 | キヤノンメディカルシステムズ株式会社 | Medical data processing device, magnetic resonance imaging apparatus, and learned model generation method |
US12059241B2 (en) | 2017-11-24 | 2024-08-13 | Canon Medical Systems Corporation | Medical data processing apparatus, magnetic resonance imaging apparatus, and learned model generating method |
JP2022169790A (en) * | 2017-11-24 | 2022-11-09 | キヤノンメディカルシステムズ株式会社 | Medical data processing device, ultrasound diagnostic device, and learned model generating method |
WO2019102846A1 (en) * | 2017-11-24 | 2019-05-31 | キヤノンメディカルシステムズ株式会社 | Medical data processing device, magnetic resonance imaging device, and learned model generation method |
US11278213B2 (en) | 2017-11-24 | 2022-03-22 | Canon Medical Systems Corporation | Medical data processing apparatus, magnetic resonance imaging apparatus, and learned model generating method |
JP2022145732A (en) * | 2018-06-15 | 2022-10-04 | キヤノン株式会社 | Medical image processing apparatus, medical image processing method, and program |
US12040079B2 (en) | 2018-06-15 | 2024-07-16 | Canon Kabushiki Kaisha | Medical image processing apparatus, medical image processing method and computer-readable medium |
JP6703319B1 (en) * | 2018-06-29 | 2020-06-03 | 株式会社ニデック | Ophthalmic image processing device and OCT device |
WO2020003524A1 (en) * | 2018-06-29 | 2020-01-02 | 株式会社ニデック | Ophthalmic image processing device, oct device, ophthalmic image processing program, and method of building mathematical model |
US11195059B2 (en) | 2018-09-06 | 2021-12-07 | Canon Medical Systems Corporation | Signal data processing apparatus |
US12039704B2 (en) | 2018-09-06 | 2024-07-16 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method and computer-readable medium |
US11922601B2 (en) | 2018-10-10 | 2024-03-05 | Canon Kabushiki Kaisha | Medical image processing apparatus, medical image processing method and computer-readable medium |
US20210398259A1 (en) | 2019-03-11 | 2021-12-23 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and storage medium |
US11887288B2 (en) | 2019-03-11 | 2024-01-30 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and storage medium |
JP2020177333A (en) * | 2019-04-16 | 2020-10-29 | キヤノンメディカルシステムズ株式会社 | Medical information processing system and medical information processing apparatus |
JP2020127767A (en) * | 2020-05-01 | 2020-08-27 | 株式会社ニデック | Ophthalmologic image processing device and oct device |
JP2020195782A (en) * | 2020-08-05 | 2020-12-10 | 株式会社ニデック | Ophthalmologic image processing program and oct device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3642591B2 (en) | Image processing device | |
Zhang et al. | MetaInv-Net: Meta inversion network for sparse view CT image reconstruction | |
JPH1131214A (en) | Picture processor | |
Ibrahim et al. | A medical image enhancement based on generalized class of fractional partial differential equations | |
CN101930595A (en) | Image processing method and image processing equipment | |
JP7115114B2 (en) | X-ray image object recognition system | |
JP2004041694A (en) | Image generation device and program, image selecting device, image outputting device and image providing service system | |
Li et al. | Fusion of medical sensors using adaptive cloud model in local Laplacian pyramid domain | |
US20230206404A1 (en) | Image processing apparatus, image processing method, and computer-readable medium | |
Liu et al. | Learning noise-decoupled affine models for extreme low-light image enhancement | |
WO2022091869A1 (en) | Medical image processing device, medical image processing method, and program | |
JP2022161857A (en) | System and method for utilizing deep learning network to correct bad pixel in computed tomography detector | |
Yin et al. | Automatic intermediate generation with deep reinforcement learning for robust two-exposure image fusion | |
JP2005020338A (en) | Method, apparatus and program for detecting abnormal shadow | |
Mangalagiri et al. | Toward generating synthetic CT volumes using a 3D-conditional generative adversarial network | |
JP3953569B2 (en) | Image processing device | |
US9224229B2 (en) | Process and apparatus for data registration | |
JPH09179977A (en) | Automatic processor for intensity level of medical image | |
CN112420214A (en) | Ultrasonic consultation remote sharing method, platform and system | |
WO2022091875A1 (en) | Medical image processing device, medical image processing method, and program | |
JP4571378B2 (en) | Image processing method, apparatus, and program | |
EP4009268A1 (en) | Performing denoising on an image | |
Hariharan et al. | An analytical approach for the simulation of realistic low-dose fluoroscopic images | |
US10937156B2 (en) | Saliency mapping of imagery during artificially intelligent image classification | |
Chang et al. | RGNET: a two-stage low-light image enhancement network without paired supervision |