DE69031523T2 - Digital image display device - Google Patents
Digital image display deviceInfo
- Publication number
- DE69031523T2 DE69031523T2 DE69031523T DE69031523T DE69031523T2 DE 69031523 T2 DE69031523 T2 DE 69031523T2 DE 69031523 T DE69031523 T DE 69031523T DE 69031523 T DE69031523 T DE 69031523T DE 69031523 T2 DE69031523 T2 DE 69031523T2
- Authority
- DE
- Germany
- Prior art keywords
- image
- brightness
- data
- window
- image quality
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000013528 artificial neural network Methods 0.000 claims description 85
- 238000012545 processing Methods 0.000 claims description 26
- 238000006243 chemical reaction Methods 0.000 claims description 17
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000012886 linear function Methods 0.000 claims 1
- 238000011156 evaluation Methods 0.000 description 36
- 230000006870 function Effects 0.000 description 35
- 238000000034 method Methods 0.000 description 34
- 230000008859 change Effects 0.000 description 23
- 238000002595 magnetic resonance imaging Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 10
- 230000003247 decreasing effect Effects 0.000 description 9
- 239000003795 chemical substances by application Substances 0.000 description 8
- 230000009194 climbing Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 238000005070 sampling Methods 0.000 description 6
- 238000010606 normalization Methods 0.000 description 5
- 230000008447 perception Effects 0.000 description 4
- 206010028980 Neoplasm Diseases 0.000 description 3
- 238000002591 computed tomography Methods 0.000 description 3
- 101100183125 Arabidopsis thaliana MBD12 gene Proteins 0.000 description 2
- 101000868440 Homo sapiens Sorting nexin-8 Proteins 0.000 description 2
- 208000012513 MVP1 Diseases 0.000 description 2
- 102100032848 Sorting nexin-8 Human genes 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 241001270131 Agaricus moelleri Species 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000009206 nuclear medicine Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/92—Dynamic range modification of images or parts thereof based on global image properties
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/60—Image enhancement or restoration using machine learning, e.g. neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Image Processing (AREA)
Description
Die vorliegende Erfindung bezieht sich auf ein digitales Bildarzeigegerät zum Anzeigen eines Bilds unter Umwandlung eines Bildelementwerts von digitalen Bilddaten in eine Helligkeit mit Hilfe eines Anzeigefensters, bei dem ein Fensterpegel und eine Fensterbreite in geeigneter Weise als Parameter, die die Umwandlung des Bildelementwerts in die Helligkeit betreffen, das heißt das Anzeigefenster betreffen, in Abhängigkeit von charakteristischen Merkmalen der digitalen Buddaten eingestellt werden können.The present invention relates to a digital image display device for displaying an image by converting a pixel value of digital image data into a brightness by means of a display window, in which a window level and a window width can be suitably set as parameters relating to the conversion of the pixel value into the brightness, that is, relating to the display window, depending on characteristics of the digital image data.
Ein Beispiel für ein Bildanzeigegerät einer solchen Ausfüiirungsform ist ein Gerät, das zum Anzeigen eines medizinischen Bilds wie etwa eines Computertomogramms oder eines Magnetresonanz-Bilds (MR-Bild) dient. Wenn die medizinischen Bilddaten derart anzuzeigen sind, daß sie betrachtet oder auf einem Film als ein Bild aufgenommen werden können, muß jeder Bildelementwert der Bilddaten mit einer vorbestimmten nicht linearen Umwandlungsfunktion in eine Helligkeit umgewandelt werden. Die Umwandlungsfunktion ist nicht linear, da der dynamische Bereich des medizinischen Bilds breiter ist als derjenige eines Anzeigebildschirms. Falls alle Bildelementwerte, die in dem Bildelementbereich der digitalen Bilddaten enthalten sind, in eine Helligkeit unter Einsatz einer linearen Umwandlungsfunktion umgewandelt werden, kann kein klares Bild angezeigt werden. Diese Umwandlungsfunktion wird als das Anzeigefenster bezeichnet, das den Fensterpegel und die Fensterbreite als Parameter aufweist.An example of an image display device of such an embodiment is a device for displaying a medical image such as a CT scan or a magnetic resonance image (MR image). When the medical image data is to be displayed so that it can be viewed or recorded on a film as an image, each pixel value of the image data must be converted into a brightness using a predetermined non-linear conversion function. The conversion function is non-linear because the dynamic range of the medical image is wider than that of a display screen. If all the pixel values included in the pixel range of the digital image data are converted into a brightness using a linear conversion function, a clear image cannot be displayed. This conversion function is called the display window, which has the window level and the window width as parameters.
In einem herkömmlichen System stellt ein Benutzer den Fensterpegel und die Fensterbreite manuell ein, während er das auf dem Bildschirm angezeigte Bild betrachtet, und stellt dasjenige Anzeigefenster (Umwandlungsfunktion) ein, das die Anzeige eines notwendigen Abschnitts in dem Bild mit einem optimalen Kontrast und optimaler Helligkeit ermöglicht. Dieser Vorgang wird zu einer Belastung für den Benutzer, wenn der Benutzer den Fensterpegel und die Breite jeweils für eine Anzahl von Bildern einstellt.In a conventional system, a user manually adjusts the window level and width while viewing the image displayed on the screen, and sets the display window (conversion function) that enables display of a necessary portion in the image with optimum contrast and brightness. This operation becomes a burden for the user if the user adjusts the window level and width for a number of images at a time.
In einem mit Magnetresonanz arbeitenden Gerät oder einem computertomographischen Gerät wird daher versucht, Standardwerte für den Fensterpegel und für die Fensterbreite für jede Abtastbedingung vorab festzulegen und die entsprechenden, vorab eingestellten Standardwerte in Abhängigkeit von dem Abtastzustand bei jeder Abtastung auszulesen, um hierdurch den Fensterpegel und die Fensterbreite automatisch einzustellen.In a magnetic resonance imaging device or a computed tomography device, an attempt is therefore made to predetermine standard values for the window level and the window width for each scanning condition and to read out the corresponding preset standard values depending on the scanning condition at each scan in order to automatically adjust the window level and the window width.
Es ist weiterhin vorgeschlagen worden, das Anzeigefenster in Abhängigkeit von den charakteristischen Merkmalen der Bilddaten einzustellen. Ein Beispiel für ein solches Gerät ist das Bildanzeigegerät, das in der japanischen Patentoffenbarung Nr.63-84526 offenbart ist. Dieses Gerät bildet ein Histogramm, wie dies in Fig. 1A gezeigt ist, bezüglich eines Bildelementwerts anhand der Bilddaten und berechnet einen Schwellenwert Th anhand der maximalen Frequenz Hmax zum Beispiel 0,05 x Hmax, wodurch ein Bereich (Wl bis Wh) festgelegt wird, der eine Frequenz mit dem Pegel Th oder mehr aufweist. Das Gerät legt die Fensterbreite WW (Wl bis Wh) und den Fensterpegel WL (= (Wh + Wl)/2) für die Anzeige des Bilds aufgrund der unteren Bildelementwertgrenze we und der oberen Bildelementwertgrenze Wh fest, wie es in Fig. 1B gezeigt ist, wodurch die Umwandlungsfunktion oder das Anzeigefenster für die Umwandlung der Bildelementwerte in die Helligkeit erzeugt wird.It has also been proposed to set the display window depending on the characteristics of the image data. An example of such an apparatus is the image display apparatus disclosed in Japanese Patent Disclosure No. 63-84526. This apparatus forms a histogram as shown in Fig. 1A with respect to a pixel value from the image data and calculates a threshold value Th based on the maximum frequency Hmax, for example, 0.05 x Hmax, thereby setting a range (Wl to Wh) having a frequency of level Th or more. The apparatus sets the window width WW (Wl to Wh) and the window level WL (= (Wh + Wl)/2) for displaying the image based on the lower pixel value limit we and the upper pixel value limit Wh as shown in Fig. 1B, thereby generating the conversion function or display window for converting the pixel values into the brightness.
Bei dieser herkömmlichen Ausgestaltung tritt jedoch das nachstehend angegebene Problem auf. Da nämlich das Anzeigefenster auf der Grundlage lediglich des Schwellwerts eingestellt wird, der anhand der maximalen Frequenz bzw. Häufigkeit in dem Histogramm erhalten wird, fällt es oftmals nicht mit einem Anzeigefenster zusammen, das durch einen Benutzer eingestellt wird. Falls das automatisch eingestellte Fenster für die Beobachtung nicht geeignet ist, muß der Benutzer das automatisch eingestellte Fenster justieren, was zu einem mühseligen Vorgang flihrt.However, this conventional arrangement has the following problem. That is, since the display window is set based on only the threshold value obtained from the maximum frequency in the histogram, it often does not coincide with a display window set by a user. If the automatically set window is not suitable for observation, the user must adjust the automatically set window, resulting in a troublesome operation.
In der EP-0 312 596 A ist ein digitales Bildanzeigegerät offenbart, bei dem auf der Grundlage von Histogrammdaten lediglich eine Bildqualität berechnet wird. Im einzelnen wird der Fensterpegel eines Anzeigefensters auf der Grundlage des ungefähren Mittelwerts der Bildelementdaten gebildet. Auf der Grundlage des erhaltenen Fensterpegels wird die Fensterbreite berechnet.EP-0 312 596 A discloses a digital image display apparatus in which only an image quality is calculated based on histogram data. In particular, the window level of a display window is calculated based on the approximate average of the pixel data. The window width is calculated based on the obtained window level.
Es ist eine Aufgabe der vorliegenden Erfindung, ein digitales Bildanzeigegerät zu schaffen, das einen Bildelementwert von digitalen Buddaten in eine Helligkeit unter Verwendung einer geeigneten Umwandlungsfunktion umwandeln kann, um hierdurch ein klares Bild anzuzeigen.It is an object of the present invention to provide a digital image display apparatus which can convert a pixel value of digital image data into a brightness using an appropriate conversion function to thereby display a clear image.
Ein in Übereinstimmung mit der vorliegenden Erfindung stehendes digitales Bildanzeigegerat weist die im Patentanspruch 1 oder 11 definierten Merkmale auf. Weitere Merkmale sind in den Unteransprüchen definiert.A digital image display device in accordance with the present invention has the features defined in claim 1 or 11. Further features are defined in the subclaims.
In Übereinstimmung mit der vorliegenden Erfindung wird die Bildqualität, die die Klarheit des Anzeigebilds indexförmig angibt, definiert, und es wird das Anzeigefenster unter Heranziehung dieser Bildqualität festgelegt. Daher kann ein Anzeigefenster, das zu einem klaren Bild führt, in einfacher Weise eingestellt werden.According to the present invention, the image quality which indexes the clearness of the display image is defined, and the display window is set using this image quality. Therefore, a display window which results in a clear image can be easily set.
Zusätzliche Aufgaben und Vorteile der Erfindung ergeben sich aus der nachfolgenden Beschreibung und sind auch teilweise aus der Beschreibung ersichtlich, oder lassen sich durch praktische Anwendung der Erfindung in Erfahrung bringen. Die Aufgaben und Vorteile der Erfmdung können mit Hilfe der Merkmale und Kombinationen, die insbesondere in den beigefügten Ansprüchen dargelegt sind, realisiert und erhalten werden.Additional objects and advantages of the invention will be set forth in the description which follows, and in part will be obvious from the description, or may be learned by practice of the invention. The objects and advantages of the invention may be realized and obtained by means of the features and combinations particularly pointed out in the appended claims.
Diese Erfindung läßt sich anhand der nachfolgenden detaillierten Beschreibung in Verbindung mit den beigefügten Zeichnungen noch besser verstehen:This invention can be better understood from the following detailed description in conjunction with the accompanying drawings:
Fig. 1A und iB zeigen graphische Darstellungen, in denen ein Prinzip der herkömmlichen, automatischen Einstellung eines Fensters veranschaulicht ist,Fig. 1A and iB show graphical representations illustrating a principle of conventional, automatic adjustment of a window,
Fig. 2 zeigt ein Blockschaltbild, in dem ein erstes Ausführungsbeispiel eines digitalen, in Übereinstimmung mit der vorliegenden Erfindung stehenden Bildanzeigegeräts dargestellt ist,Fig. 2 is a block diagram showing a first embodiment of a digital image display device according to the present invention,
Fig. 3 zeigt ein Ablaufdiagramm, in dem eine schematische Arbeitsweise des ersten Ausführungsbeispiels veranschaulicht ist,Fig. 3 shows a flow chart in which a schematic operation of the first embodiment is illustrated,
Fig 4. zeigt ein Histogramm aus Bildelementwerten, das bei dem ersten Ausführungsbeispiel erzeugt wird,Fig. 4 shows a histogram of pixel values generated in the first embodiment,
Fig. 5 zeigt eine Beziehung zwischen dem Bildelementwert und der Helligkeit des Bilds, das durch ein gegebenes Anzeigefenster dargestellt wird,Fig. 5 shows a relationship between the pixel value and the brightness of the image displayed by a given display window,
Fig. 6 zeigt eine Bewertungsfunktion, die einen Helligkeitswert MVPG betrifft, der dem Bildelementwert MVP als ein erster Schätzwert entspricht, der zur Berechnung einer Bildqualität bei dem ersten Ausführungsbeispiel heranzuziehen ist,Fig. 6 shows an evaluation function relating to a brightness value MVPG which corresponds to the picture element value MVP as a first estimated value to be used for calculating an image quality in the first embodiment,
Fig. 7 zeigt ein Ablaufdiagramm, in dem die Verarbeitung zur Berechnung eines optimalen Anzeigebilds anhand der Bildqualität bei dem ersten Ausführungsbeispiel veranschaulicht ist, wobei hierbei eine Hügelanstiegsmethode eingesetzt wird,Fig. 7 is a flowchart showing processing for calculating an optimal display image based on image quality in the first embodiment using a hill climbing method,
Fig. 8 zeigt eine Darstellung, in der eine Anderung des Anzeigefensters dargestellt ist, die dazu dient, die Änderung der Bildqualität in Abhängigkeit von der Änderung des Anzeigefensters anhand des in Fig. 7 dargestellten Ablaufdiagramms zu erfassen,Fig. 8 is a diagram showing a change in the display window which is used to detect the change in the image quality depending on the change in the display window using the flow chart shown in Fig. 7,
Fig. 9 zeigt eine graphische Darstellung, in der das Prinzip der Hügelanstiegsmethode veranschaulicht ist,Fig. 9 shows a graphical representation illustrating the principle of the hill climbing method,
Fig. 10 zeigt ein Blockschaltblld, in dem ein zweites Ausführungsbeispiel eines digitalen Bildanzeigegeräts gemäß der vorliegenden Erfindung dargestellt ist,Fig. 10 is a block diagram showing a second embodiment of a digital image display device according to the present invention,
Fig. 11 zeigt ein Ablaufdiagramm, in dem ein schematischer Betrieb des zweiten Ausführungsbeispiels veranschaulicht ist,Fig. 11 is a flow chart illustrating a schematic operation of the second embodiment,
Fig. 12 zeigt ein Ablaufdiagramm, das die Verarbeitung zur Berechnung eines optimalen Anzeigefensters bei dem Ablaufdiagramm, das in Fig. 11 dargestellt ist, in Einzelheiten veranschaulicht,Fig. 12 is a flowchart showing in detail the processing for calculating an optimal display window in the flowchart shown in Fig. 11,
Fig. 13 zeigt ein Blockschaltbild, in dem eine Ausgestaltung eines neuronalen (neuralen) Netzwerks bei dem zweiten Ausführungsbeispiel dargestellt ist,Fig. 13 is a block diagram showing a configuration of a neural network in the second embodiment,
Fig. 14 zeigt ein Ablaufdiagramm, in dem die Verarbeitung zur Berechnung der Bildqualität bei dem Ablaufdiagramm, der in Fig. 12 dargestellt ist, in Einzelheiten gezeigt ist,Fig. 14 is a flowchart showing in detail the processing for calculating the image quality in the flowchart shown in Fig. 12,
Fig. 15 zeigt eine Ansicht, die das Lernen von Daten bei dem neuronalen Netzwerk gemäß dem zweiten Ausführungsbeispiel veranschaulicht,Fig. 15 is a view illustrating the learning of data in the neural network according to the second embodiment,
Fig. 16 zeigt ein Blockschaltblld, in dem ein drittes Ausführungsbeispiel eines in Übereinstimmung mit der vorliegenden Erfmdung stehenden, digitalen Bildanzeigegeräts dargestellt ist,Fig. 16 is a block diagram showing a third embodiment of a digital image display device in accordance with the present invention,
Fig. 17 zeigt ein Ablaufdiagramm, in dem ein schematischer Betrieb des dritten Ausführungsbeispiels veranschaulicht ist,Fig. 17 is a flowchart showing a schematic operation of the third embodiment,
Fig. 18 zeigt ein Histogramm aus Bildelementwerten, das bei dem dritten Ausführungsbeispiel erzeugt wird,Fig. 18 shows a histogram of pixel values generated in the third embodiment,
Fig. 19 zeigt eine Prinzip einer Spitzenwerterfassung,Fig. 19 shows a principle of peak value detection,
Fig. 20 zeigt die Wichtigkeit des Spitzenwerts,Fig. 20 shows the importance of the peak value,
Fig. 21 zeigt ein Ablaufdiagramm, in dem die Verarbeitung zur Ermittlung eines Anzeigefensters bei dem dritten Ausführungsbeispiel dargestellt ist, Fig. 22 zeigt ein Ablaufdiagramm, in dem die Anzeige von Buddaten bei dem dritten Ausführungsbeispiel dargestellt ist,Fig. 21 is a flowchart showing the processing for determining a display window in the third embodiment. Fig. 22 is a flowchart showing the display of image data in the third embodiment.
Fig. 23 zeigt ein Ablaufdiagramm, in dem ein Prinzip eines vierten Ausführungsbeispiels des in Übereinstimmung mit der vorliegenden Erfmdung stehenden, digitalen Bildanzeigegeräts dargestellt ist,Fig. 23 is a flow chart showing a principle of a fourth embodiment of the digital image display apparatus according to the present invention,
Fig. 24 zeigt eine Kontrastskala,Fig. 24 shows a contrast scale,
Fig. 25 zeigt einen Ablauf, in dem eine schematische Betriebsweise des vierten Ausführungsbeispiels dargestellt ist,Fig. 25 shows a flow chart showing a schematic operation of the fourth embodiment,
Fig. 26 zeigt ein neuronales (neurales) Netzwerk, das in einem digitalen Bildanzeigegerät gemäß einem fünften Ausführungsbeispiel gemäß der vorliegenden Erfindung enthalten ist,Fig. 26 shows a neural network included in a digital image display device according to a fifth embodiment of the present invention,
Fig. 27 zeigt ein Ablaufdiagramm, in dem eine schematische Betriebsweise des fünften Ausführungsbeispiels dargestellt ist,Fig. 27 is a flow chart showing a schematic operation of the fifth embodiment,
Fig. 28 zeigt eine Tabelle des Endzustands bzw. der Endbedingung γ T,Fig. 28 shows a table of the final state or the final condition γ T,
Fig. 29 zeigt ein Ablaufdiagramm, in dem eine Verarbeitung zur Berechnung der Bildqualität bei dem fünften Ausführungsbeispiel dargestellt ist,Fig. 29 is a flowchart showing processing for calculating the image quality in the fifth embodiment,
Fig. 30 zeigt das Lernen von Daten bei einem neuronalen Netzwerk einer zweiten Stufe bzw. eines zweistufigen neuronalen Netzwerks bei dem fünften Ausführungsbeispiel,Fig. 30 shows the learning of data in a second-stage neural network or a two-stage neural network in the fifth embodiment,
Fig. 31 zeigt eine Beziehung zwischen einem Bewertungswert und einem Bewertungsergebnis seitens des Benutzers, die zur Bewertung des gemäß der vorliegenden Erfindung eingestellten Anzeigefensters dient, undFig. 31 shows a relationship between an evaluation value and an evaluation result by the user, which is used to evaluate the display window set according to the present invention, and
Fig. 32 zeigt eine Beziehung zwischen einem Bewertungswert und der BildqualitätFig. 32 shows a relationship between an evaluation value and image quality
Ausführungsbeispiele eines digitalen Bildgabegeräts gemäß der vorliegenden Erfindung werden unter Bezugnahme auf die beigefügten Zeichnungen beschrieben. Fig. 2 zeigt ein Blockschaltbiid, in dem eine Ausgestaltung eines ersten Ausführungsbeispiels der vorliegenden Erfindung dargestellt ist. Unter Bezugnahme auf Fig. 2 werden digitalen Bilddaten, die beispielsweise einem Magnetresonanzbild oder einem computertomographischen Bild entsprechen, in einem Bildspeicher 1 gespeichert. Das in dem Speicher 1 gespeicherte Bild wird auf einer Anzeige 4 angezeigt. Die Anzeige ist mit einem Fensterschalter 3 zur manuellen Einstellung des Fensterpegels und der Fensterbreite sowie mit einer Fenstersteuereinrichtung 2 verbunden, die zum Empfangen der Bilddaten von dem Speichern 1 zur automatischen Einstellung des Fensterpegeis dient, und es wird das Anzeigefenster sowohi durch den Fensterschalter 3 manuell eingestellt als auch automatisch durch die Fenstersteuereinrichtung 2 in Abhängigkeit von den Eigenschaften der jeweils anzuzeigenden Bilddaten eingestellt.Embodiments of a digital imaging device according to the present invention will be described with reference to the accompanying drawings. Fig. 2 is a block diagram showing a configuration of a first embodiment of the present invention. Referring to Fig. 2, digital image data corresponding to, for example, a magnetic resonance image or a computed tomography image is stored in an image memory 1. The image stored in the memory 1 is displayed on a display 4. The display is connected to a window switch 3 for manually adjusting the window level and the window width and to a window controller 2 which serves to receive the image data from the memory 1 for automatically adjusting the window level, and the display window is both manually adjusted by the window switch 3 and automatically adjusted by the window controller 2 depending on the properties of the image data to be displayed.
Eine Arbeitsweise des ersten Ausführungsbeispiels wird nachfolgend beschrieben. Fig. 3 zeigt ein Ablaufdiagramm, in dem eine schematische Betriebsweise der Fenstersteuereinrichtung 2 dargestellt ist. Bei einem Schritt #110 wird ein Rahmen der Bilddaten bzw. ein Einzelbild aus dem Bildspeicher 1 ausgelesen. Diese Bilddaten werden einer Anzeige 4 zugeführt. Die digitalen Bilddaten enthalten eine Vielzahl von Bildelementen (Pixeln), die jeweils einen Bildelementwert aufweisen, der durch die digitalen Daten repräsentiert ist. Die Bildelementwerte der Buddaten werden in eine Helligkeit umgewandelt und es wird das Bild auf der Anzeige 4 in Abhängigkeit von der Helligkeit angezeigt. Eine Funktion, die zur Umwandlung des Bildelementwerts in die Helligkeit eingesetzt wird, wird als das Anzeigefenster bezeichnet, das die Anzeigebreite und den Anzeigepegel als Parameter enthält. Daher werden dieselben Bilddaten mit einer unterschiedlichen Helligkeit und einem unterschiedlichen Kontrast dargestellt, wenn sich das Anzeigefenster ändert. Bei einem Schritt #120 wird ein Histogramm aus den Bilddaten erzeugt, wobei das Histogramm die Frequenz bzw. Häufigkeit von Bildelementwerten angibt, die in den ausgelesenen Bilddaten enthalten sind. Bei einem Schritt #130 werden Kandidatenwerte für den Fensterpegel und die Fensterbreite festgelegt. Bei einem Schritt #140 wird eine Bildqualität berechnet, die einen Index für die Klarheit des auf der Anzeige 4 dargestellten Bilds repräsentiert, berechnet, und die vorzugsweise die Klarheit eines spezifischen, zu betrachtenden Abschnitts des Bilds angibt, wenn die Bilddaten mit einem gegebenen Fensterpegel und einer gegebenen Fensterbreite dargestellt werden.An operation of the first embodiment will be described below. Fig. 3 is a flow chart showing a schematic operation of the window control device 2. In a step #110, a frame of the image data or a single image is read out from the image memory 1. This image data is supplied to a display 4. The digital image data contains a plurality of picture elements (pixels), each of which has a picture element value represented by the digital data. The pixel values of the image data are converted into brightness, and the image is displayed on the display 4 depending on the brightness. A function used to convert the pixel value into brightness is called the display window, which includes the display width and the display level as parameters. Therefore, the same image data is displayed with different brightness and contrast when the display window changes. At a step #120, a histogram is generated from the image data, the histogram indicating the frequency of pixel values included in the read-out image data. At a step #130, candidate values for the window level and the window width are set. At a step #140, an image quality is calculated which represents an index of the clarity of the image displayed on the display 4 and which preferably indicates the clarity of a specific portion of the image to be viewed when the image data is displayed with a given window level and a given window width.
Bei einem Schritt #150 werden entweder der Fensterpegel WL oder die Fensterbreite WW, oder diese beiden Größen um ± Δ WW geändert. Die Größe der Anderung ist nicht auf diesen Wert beschränkt. Bei einem Schritt #160 wird die Bildqualität berechnet, die erzielt wird, wenn die Bilddaten auf der Grundlage des geänderten Fensterpegels und der geänderten Breite angezeigt werden. Bei einem Schritt #170 wird die Bildqualität, die durch den bei dein Schritt #140 berechneten Kandidaten für das Anzeigefenster erhalten wird, mit derjenigen Bildqualität verglichen, die auf der Grundlage des Anzeigefensters, das gegenüber dem Kandidaten um ± Δ WW verschoben ist, erhalten wird und in dem Schritt #160 berechnet worden ist. Die Kandidatenwerte für den Fensterpegel und die Breite werden um 1 Δ WW geändert, oder es wird die Größe der Änderung verringert, und zwar in Abhängigkeit von einer Differenz zwischen diesen beiden Bildqualitäten. Diese Verarbeitung wird wiederholt durchgeführt, während Δ WW verringert wird, und zwar solange, bis die Bildqualität, die auf der Grundlage des Kandidaten für das Anzeigefenster erzielt wird, maximal wird. Der Kandidat für das Anzeigefenster, der der maximalen Bildqualität entspricht, stellt ein optimales Anzeigefenster dar. Dies bedeutet, daß das optimale Anzeigefenster anhand der Hügelanstiegsmethode bzw. der Approximationsmethode ermittelt wird. Auf diese Weise kann das optimale Anzeigefenster automatisch in Abhängigkeit von dem Gesamtmerkmal des Histogramms jedes Bilds berechnet werden. Falls das Bild, das durch das seitens der Fenstersteuereinrichtung 2 berechneten Anzeigefensters angezeigt wird, nicht klar ist, kann ein Benutzer den Fensterpegel und die Fensterbreite unter Verwendung des Fensterschalters 3 fein einjustieren.At a step #150, either the window level WL or the window width WW, or both of these, are changed by ± ΔWW. The amount of change is not limited to this value. At a step #160, the image quality obtained when the image data is displayed based on the changed window level and width is calculated. At a step #170, the image quality obtained by the candidate display window calculated at the step #140 is compared with the image quality obtained based on the display window shifted from the candidate by ± ΔWW and calculated at the step #160. The candidate values for the window level and width are changed by 1 ΔWW, or the amount of change is decreased, depending on a difference between these two image qualities. This processing is repeatedly performed while ΔWW is changed. WW is reduced until the image quality obtained based on the candidate display window becomes maximum. The candidate display window that corresponds to the maximum image quality represents an optimal display window. This means that the optimal display window is determined by the hill-climbing method or the approximation method. In this way, the optimal display window can be automatically calculated depending on the overall characteristic of the histogram of each image. If the image displayed by the display window calculated by the window controller 2 is not clear, a user can finely adjust the window level and the window width using the window switch 3.
Jeder der in Fig 3 gezeigten Schritte wird nachstehend in Einzelheiten erläutert. Fig. 4 zeigt ein Beispiel für das Histogramm, das bei dem Schritt #120 erzeugt wird, wobei angenommen ist, daß das digitale Bild durch ein Magnetresonanzbild (Kernspinresonanzbild) gebildet ist. Hierbei ist der Teilungsabstand des Histogramms auf einen Bildelementwert (Wert des Magnetresonanz-Bilds) eingestellt. Jedoch kann der Teilungsabstand bzw. die Schrittweite auch frei eingestellt werden, zum Beispiel auf vier Magnetresonanzbild- Werte. Da das in Fig. 4 dargestellte Histogramm direkt aus den Bilddaten erhalten wird und einen Hintergrundabschnitt einschließt, wird dieser Hintergrundabschnitt vorzugsweise aus dem Histogramm entfernt. Im allgemeinen weist bei einem Magnetresonanzbild eines menschlichen Körpers ein Teil des Bilds, der einem Abschnitt außerhalb des Körpers entspricht, einen kleinen und im wesentlichen konstanten Magnetresonanzbildwert auf und muß nicht betrachtet werden. Daher wird zunächst ein Magnetresonanzbildwert "A" berechnet, der an einer Grenze zwischen dem Hintergrundabschnitt H und einem Abschnitt in dem menschlichen Körper in dem Histogramm entspricht. Zu diesem Zweck wird eine Spitzenfrequenz bzw. Spitzenwerthäufigkeit Hmax des Histogranuns innerhalb eines vorbestimmten Bereichs ausgehend von einem minimalen Magnetresonanzbildwert berechnet. Wenn angenommen wird, daß der Magnetresonanzbildwert bei der Spitze Hmax = h ist, ist der Spitzenpunkt durch (h, Hmax) repräsentiert. Es werden mehrere Punkte, zum Beispiel fünf Punkte (h + pH, H1), (h + 2 x pH, H2), (h + 3 x pH, H3), (h + 4 x pH, H4), und (h + 5 x pH, H5), ermittelt. Hierbei bezeichnet pH einen Teilungsabstand bzw. eine Schrittweite des Histogramms. Eine Linie ln, die diese Punkte verbindet, wird nach dem Verfahren der kleinsten Quadrate berechnet. Ein Magnetresonanzbildwert an einer Schnitt stelle zwischen der Linie Ln und einer Achse des Histogramms, die die Frequenz von Null angibt, wird berechnet und als der Wert "A" defihiert, und es wird ein Abschnitt, der kleinere Magnetresonanzbildwerte als der Magnetresonanzbildwert "A" enthält, als der Hintergrund H festgelegt. Diese Verarbeitungsvorgänge werden bei dem Schritt #120 ausgeführt.Each of the steps shown in Fig. 3 will be explained in detail below. Fig. 4 shows an example of the histogram generated in step #120, assuming that the digital image is constituted by a magnetic resonance image (MRI image). Here, the pitch of the histogram is set to one pixel value (MRI image value). However, the pitch may be freely set, for example, to four MRI image values. Since the histogram shown in Fig. 4 is obtained directly from the image data and includes a background portion, this background portion is preferably removed from the histogram. In general, in a MRI image of a human body, a part of the image corresponding to a portion outside the body has a small and substantially constant MRI image value and need not be considered. Therefore, first, an MRI value "A" corresponding to a boundary between the background portion H and a portion in the human body in the histogram is calculated. For this purpose, a peak frequency Hmax of the histogram within a predetermined range is calculated from a minimum MRI value. If the MRI value at the peak is assumed to be Hmax = h, the peak point is represented by (h, Hmax). A plurality of points, for example, five points (h + pH, H1), (h + 2 x pH, H2), (h + 3 x pH, H3), (h + 4 x pH, H4), and (h + 5 x pH, H5) are determined. Here, pH denotes a pitch of the histogram. A line ln connecting these points is calculated by the least squares method. A magnetic resonance image value at an intersection between the line Ln and an axis of the histogram that represents the frequency of zero is calculated and defined as the value "A", and a portion containing smaller magnetic resonance image values than the magnetic resonance image value "A" is set as the background H. These processings are executed at step #120.
Die Bildqualität, die bei dem Schritt #140 berechnet wird, wird nun beschrieben. In diesem Fall wird die in folgender Weise definierte Bildqualität Q berechnet: The image quality calculated at step #140 will now be described. In this case, the image quality Q defined as follows is calculated:
Hierbei bezeichnet Vn einen Schätzwert eines Merkmals bzw. eines Laufwerts n (n = 1 bis k), und Wn den Gewichtskoeffizienten des Schätzmerkmals n. Der Gewichtskoeffizient Wn repräsentiert ein empirisch ermitteltes Korrelationsverhältnis des Schätzmerkmals n mit Bezug zu der Bildqualität Q, wie etwa W1 = 5, W2 = 4, W3 = 3, W4 = 2 und W5 = 2. Der Schätzwert Vn wird mit Hilfe einer Schätz- bzw. Bewertungsfunktion Fn erhalten, die für jedes Bewertungsmerkmal bzw. Schätzmerkmal definiert ist. Es ist in manchen Fällen schwierig, die optimalen Werte Wn und Fn anfänglich festzulegen. In diesem Fall kann ein Benutzer diese Werte unter Beobachtung des Anzeigebilds mit Hilfe des Anzeigefensters so einstellen, daß sie optimal sind.Here, Vn denotes an estimated value of a feature n (n = 1 to k), and Wn denotes the weight coefficient of the estimated feature n. The weight coefficient Wn represents an empirically determined correlation ratio of the estimated feature n with respect to the image quality Q, such as W1 = 5, W2 = 4, W3 = 3, W4 = 2, and W5 = 2. The estimated value Vn is obtained using an estimation function Fn defined for each estimated feature. It is difficult in some cases to initially set the optimal values Wn and Fn. In this case, a user can set these values to be optimal by observing the display image using the display window.
Auch wenn das Schätzmerkmal einen Helligkeitswert, einen Kontrast, eine Helligkeitsbalance und dergleichen enthält, wird eine Bewertungsfunktion bzw. Schätzungsfunktion fl nachstehend beschrieben, die einen Helligkeitswert betrifft, der einem Bildelementwert MVP entspricht. In diesem Fall ist V1 = F1 (MVP).Even when the estimation feature includes a brightness value, a contrast, a brightness balance, and the like, an estimation function fl is described below, which concerns a brightness value corresponding to a pixel value MVP. In this case, V1 = F1 (MVP).
Wie in Fig. 5 gezeigt ist, wird jeder Magnetresonanzbildwert der Bilddaten in eine Helligkeit umgewandelt, die sich innerhalb der Fensterbreite WW kontinuierlich ändert. Es ist anzumerken, daß alle Magnetresonanzbildwerte unterhalb von WL - (WW/2) am dunkelsten dargestellt werden, und alle Magnetresonanzbildwerte oberhalb von WL + (WW/2) am hellsten angezeigt werden. Unter Bezugnahme auf Fig. 5 wird die Helligkeit (256 Gradationsstufen) als ein Wert ausgedrückt, der sich kontinuierlich und linear zwischen den Graustufenwerten 0,5 bis 16,5 ändert, die auf der Ordinate aus Zweckmäßigkeitsgründen dargestellt sind. Wenn angenommen wird, daß der Magnetresonanzbildwert gleich X ist und daß der Graustufenwert gleich Y ist, sind X und Y für einen geraden Abschnitt innerhalb der Fensterbreite WW in folgender Weise gegeben:As shown in Fig. 5, each magnetic resonance image value of the image data is converted into a brightness that changes continuously within the window width WW. Note that all magnetic resonance image values below WL - (WW/2) are displayed as the darkest, and all magnetic resonance image values above WL + (WW/2) are displayed as the brightest. Referring to Fig. 5, the brightness (256 gradation levels) is expressed as a value that varies continuously and linearly between the gray level values 0.5 to 16.5, which are shown on the ordinate for convenience. Assuming that the magnetic resonance image value is X and that the gray level value is Y, X and Y for a straight section within the window width WW are given as follows:
Y =8,5 + 16 x (X - WL)/WW ...(2)Y = 8.5 + 16 x (X - WL)/WW ...(2)
X = WL + WW x (Y - 8,5)/16 ... (3)X = WL + WW x (Y - 8.5)/16 ... (3)
Der Bildelementwert MVP wird als der Magnetresonanzbildwert des am meisten gewünschten Abschnitts innerhalb eines Einzelbilds des Bilds definiert. Der Wert MVP ist nämlich der Magnetresonanzbildwert bei einem Spitzenwert P in einem Abschnitt des Histogranmis, das die Magnetresonanzbildwert größer als "A" enthält (Fig. 4). Dies liegt daran, daß angenommen wird, daß das gesamte Bild klar gesehen werden kann, wenn das Bild so angezeigt wird, daß der Magnetresonanzbildwert, der die höchste Frequenz bzw. höchste Häufigkeit aufweist, klar ersichtlich ist. In diesem Fall wird die Helligkeit für ein klares Bild empirisch als geringfügig höher als die mittlere Helligkeit eingestuft. Daher wird die Bewertungsfünktion F1 in einer solchen Weise eingestellt, daß der Schätzwert V1 maximiert ist, wenn der Helligkeitspegel (Grauskala), der dem Wert MVP entspricht, gleich 10 ist, und wird verringert, wenn die Helligkeit, die dem Wert MVP entspricht, eine größere Differenz gegenüber bzw. als 10 aufweist. Die Bewertungsfunktion ist nicht linear defmiert, sondern nichtlinear festgelegt, da die menschlichen Sinne ähnlich wie eine Mitgliedsfuriktion eingestuft werden, die bei der Fuzzy-Theorie eingesetzt wird. Fig. 6 zeigt ein Beispiel für die Bewertungsfunktion F1. In Fig. 6 zeigt die Ordinate einen Funktionswert F1 an, und es gibt die Abszisse den Helligkeitswert MVPG an, der dem Wert MVP entspricht.The pixel value MVP is defined as the magnetic resonance image value of the most desired portion within a frame of the image. Namely, the MVP is the magnetic resonance image value at a peak value P in a portion of the histogram containing the magnetic resonance image values greater than "A" (Fig. 4). This is because it is assumed that the entire image can be clearly seen if the image is displayed so that the magnetic resonance image value having the highest frequency is clearly visible. In this case, the brightness for a clear image is empirically judged to be slightly higher than the average brightness. Therefore, the evaluation function F1 is set in such a way that the estimated value V1 is maximized when the brightness level (gray scale) corresponding to the value MVP is equal to 10, and is decreased when the brightness corresponding to the value MVP has a larger difference from or than 10. The evaluation function is not defined linearly but is fixed nonlinearly because the human senses are ranked similarly to a membership function used in fuzzy theory. Fig. 6 shows an example of the evaluation function F1. In Fig. 6, the ordinate indicates a function value F1, and the abscissa indicates the brightness value MVPG corresponding to the value MVP.
Andere Bewertungsfunktionen sind in gleichartiger Weise eingestellt. Bei diesem Ausführungsbeispiel ist die Gesamtheit von fünf Bewertungsmerkmalen eingestellt. Das zweite Merkmal ist der Helligkeitswert, der dem Wert MRI "A" entspricht. Da die Magnetresonanzwerte, die kleiner sind als der Wert "A", dem Hintergrund H entsprechen, sind sie vorzugsweise dunkel. Daher wird eine Bewertungsfunktion F2 derart defmiert, daß ein Funktionswert V2 maximiert ist, wenn der Helligkeitswert, der dem Magnetresonanzbildwert "A" entspricht, gleich 0,5 ist, und wird verringert, wenn der Helligkeitswert, der dem Magnetresonanzbildwert "A" entspricht, vergrößert ist.Other evaluation functions are set in a similar manner. In this embodiment, the total of five evaluation features is set. The second feature is the brightness value, which corresponds to the value MRI "A". Since the magnetic resonance values, which are smaller than the value "A" corresponding to the background H, they are preferably dark. Therefore, an evaluation function F2 is defined such that a function value V2 is maximized when the brightness value corresponding to the magnetic resonance image value "A" is equal to 0.5, and is decreased when the brightness value corresponding to the magnetic resonance image value "A" is increased.
Das dritte Merkmal ist eine Fläche eines Abschnitts des Bilds, der einen Helligkeitswert von 12 aufweist. Der Abschnitt des Helligkeitswerts 12 wird als ein Abschnitt angenommen, der Helligkeitswerte von 11,5 bis 12,5 gemäß Fig. 5 aufweist. Wenn in die Glei chung (3) Y = 11,5 bis 12,5 eingesetzt wird, läßt sich daher ein Bereich für den Magnetresonanzbildwert X&sub1;&sub2;, der dem Helligkeitswert 12 in dem Histogramm entspricht, in folgender Weise darstellen:The third feature is an area of a portion of the image having a brightness value of 12. The portion of the brightness value 12 is assumed to be a portion having brightness values of 11.5 to 12.5 as shown in Fig. 5. Therefore, when Y = 11.5 to 12.5 is substituted into the equation (3), a range for the magnetic resonance image value X₁₂ corresponding to the brightness value 12 in the histogram can be represented as follows:
X&sub1;&sub2; = (3 x WW/16) + WL bis (WW/4) + WL ... (4)X₁₂₂ = (3 x WW/16) + WL to (WW/4) + WL ... (4)
Die Fläche, die dem Helligkeitswert 12 entspricht, ist daher die Fläche des Histogramms, das die Bildelementwerte enthält, die in den Bereich der Gleichung (4) fallen.The area corresponding to the brightness value 12 is therefore the area of the histogram containing the pixel values that fall within the range of equation (4).
Das vierte Merkmal ist eine Fläche eines Abschnitts, der den höchsten Helligkeitspegel in einem Bild aufweist. In Fig. 5 ist der höchste Helligkeitspegel gleich 16,5. Wenn daher Y = 16,5 in die Gleichung (3) eingesetzt wird, ist ein Magnetresonanzbildwert X16,5, der dem Helligkeitswert 16,5 in dem Histogramm entspricht, in folgender Weise repräsentiert:The fourth feature is an area of a portion having the highest brightness level in an image. In Fig. 5, the highest brightness level is 16.5. Therefore, if Y = 16.5 is substituted into the equation (3), a magnetic resonance image value X16.5 corresponding to the brightness value 16.5 in the histogram is represented as follows:
X16,5 = (WW/2) + WL ... (5)X16.5 = (WW/2) + WL ... (5)
Die Fläche, die dem Helligkeitspegel 16,5 entspricht, ist daher die Fläche des Histogramms, die Bildelementwerte enthält, die größer sind als der Wert der Gleichung (5).The area corresponding to the brightness level 16.5 is therefore the area of the histogram that contains pixel values that are larger than the value of equation (5).
Das fünfte Merkmal ist eine Helligkeitsbalance, die in folgender Weise defmiert ist:The fifth feature is a brightness balance, which is defined as follows:
Helligkeitsbalance = (Fläche, die die Helligkeitswerte von 4 bis 8 enthält)/(Fläche, die die Helligkeitswerte von 9 bis 13 enthält) ... (6)Brightness balance = (area containing brightness values from 4 to 8)/(area containing brightness values from 9 to 13) ... (6)
Jede Fläche des Zählers und des Nenners der Gleichung (6) kann in gleichartiger Weise wie das dritte und das vierte Merkmal erhalten werden.Each area of the numerator and denominator of equation (6) can be obtained in a similar way as the third and fourth features.
Nachfolgend wird die Verarbeitung bei dem Schritt #170 beschrieben, der zur Festlegung des optimalen Anzeigefensters dient. Fig. 7 zeigt ein Ablaufdiagramm, in dem dieser Vorgang in Einzelheiten dargestellt ist. Bei einem Schritt #210 werden anfängliche Werte WLo und WWo des Fensterpegels und der Fensterbreite berechnet. Diese anfänglichen Werte sind die ersten Kandidaten für den Fensterpegel und die Fensterbreite. Diese anfänglichen Werte werden so eingestellt, daß WLo = MPV erfüllt ist, so daß der Wert MVP in der Mitte der Fensterbreite angeordnet ist, wie es in Fig. 4 gezeigt ist, und daß WWo = 2 x (MPV - A) erfüllt ist, so daß der Wert "A" mit der unteren Grenze der Fensterbreite zusammenfällt, so daß das gesamte Bild mit Ausnahme des Hintergrunds H klar gesehen werden kann. Bei einem Schritt #220 werden die vorstehend angegebenen anfänglichen Werte als die Kandidatenwerte WLc und WWc für den Fensterpegel und die Fensterbreite eingestellt (WLc = WLo, und WWc = WWo). Bei einem Schritt #230 wird WWo/2 als ein anfänglicher Wert für eine Änderungsbreite Δ WW für das Anzeigefenster für eine Hügelanstiegsmethode eingestellt, die im weiteren Text beschrieben wird.Next, the processing at step #170 for determining the optimum display window will be described. Fig. 7 is a flow chart showing this process in detail. At step #210, initial values WLo and WWo of the window level and the window width are calculated. These initial values are the first candidates for the window level and the window width. These initial values are set so that WLo = MPV is satisfied so that the value MVP is located at the center of the window width as shown in Fig. 4, and WWo = 2 x (MPV - A) is satisfied so that the value "A" coincides with the lower limit of the window width so that the entire image except the background H can be clearly seen. At step #220, the above-mentioned initial values are set as the candidate values WLc and WWc for the window level and the window width (WLc = WLo, and WWc = WWo). At a step #230, WWo/2 is set as an initial value for a change width ΔWW for the display window for a hill climbing method described later.
Bei einem Schritt #240 werden eine Bildqualität Qc eines Bilds, das angezeigt wird, wenn der Fensterpegel und die Fensterbreite so eingestellt sind, daß sie gleich groß WLc und WWC sind, und die Bildqualitäten Qd1 und Qd8 von Bildern, die angezeigt werden, wenn der Fensterpegel oder die Fensterbreite oder diese beiden Größen um Δ WW geändert werden, wie es in Fig. 8 gezeigt ist, in Übereinstimmung mit der Gleichung (1) berechnet. In diesem Fall wird die Bildqualität Qd1 bei einem Fensterpegel WLc + Δ WW und einer Fensterbreite WWc erzielt, die Bildqualität Qd2 bei einem Fensterpegel WLc + Δ WW und einer Fensterbreite WWc + Δ WW erhalten, die Bildqualität Qd3 durch den Fen sterpegel WLc und die Fensterbreite WWC + Δ WW erzielt, die Bildqualität Qd4 bei einem Fensterpegel WLc - Δ WW und einer Fensterbreite WWc + Δ WW erhalten, die Bildqualität Qd5 bei einem Fensterpegel WLc - Δ WW und einer Fensterbreite WWc erhalten, die Bildqualität Qd6 bei dem Fensterpegel WLc - Δ WW und einer Fensterbreite WWc - Δ WW erzielt, die Bildqualität Qd7 bei einem Fensterpegel WLc und einer Fensterbreite WWc - Δ WW erhalten und Bildqualität Qd8 bei dem Fensterpegel WLc + Δ WW und einer Fensterbreite WWC - Δ WW erhalten. Es ist nicht notwendig, die Größe der Anderung des Fensterpegeis gleich groß auszulegen wie diejenige der Fensterbreite. Als Beispiel ist es möglich, Qd1 bis Qd8 jeweils bei folgenden Werten zu ermitteln (WLc + Δ WW, WWc), (WLc + Δ WW/2, WWc + Δ WW), (WLc, WWc + 2 x Δ WW), (WLc - Δ WW/2, WWc + Δ WW), (WLc - Δ WW, WWc), (WLc - Δ WW/2, WWc - Δ WW), (WLc, WWc -2 x Δ WW), (WLc + Δ WW/2, WWc - Δ WW).At a step #240, an image quality Qc of an image displayed when the window level and the window width are set to be equal to WLc and WWC, and the image qualities Qd1 and Qd8 of images displayed when the window level or the window width or these two sizes are changed by ΔWW as shown in Fig. 8 are calculated in accordance with the equation (1). In this case, the image quality Qd1 is obtained at a window level WLc + ΔWW and a window width WWc, the image quality Qd2 is obtained at a window level WLc + ΔWW and a window width WWc + ΔWW, the image quality Qd3 is obtained by the window level WLc and the window width WWC + ΔWW, the image quality Qd4 is obtained at a window level WLc - ΔWW and a window width WWc + ΔWW, the image quality Qd5 is obtained with a window level WLc - ΔWW and a window width WWc, the image quality Qd6 is obtained with the window level WLc - ΔWW and a window width WWc - ΔWW, the image quality Qd7 is obtained with a window level WLc and a window width WWc - ΔWW and the image quality Qd8 is obtained with the window level WLc + ΔWW and a window width WWC - ΔWW. It is not necessary to make the amount of change in the window level the same as that of the window width. As an example, it is possible to determine Qd1 to Qd8 at the following values respectively (WLc + Δ WW, WWc), (WLc + Δ WW/2, WWc + Δ WW), (WLc, WWc + 2 x Δ WW), (WLc - Δ WW/2, WWc + Δ WW), (WLc - Δ WW, WWc), (WLc - Δ WW/2, WWc - Δ WW), (WLc, WWc -2 x Δ WW), (WLc + Δ WW/2, WWc - Δ WW).
Bei einem Schritt #250 wird die maximale Bildqualität Qd aus den Bildqualitäten Qd1 bis Qd8 erfaßt, und es werden der Fensterpegel WL und die Fensterbreite WW, die der erfaßten Bildqualität Qd entsprechen, jeweils als WLd bzw. WWd erfaßt. Bei einem Schritt #260 wird die Bildqualität Qc der Kandidatenwerte des Anzeigefensters mit der Bildqualität Qd desjenigen Anzeigefensters verglichen, das gegenüber den Kandidatenwerten geringfügig verschoben ist, um zu überprüfen, ob Qc kleiner ist als Qd. Falls sich bei dem Schritt #260 das Ergebnis ja gibt, sind die Werte des Anzeigefensters, das der Bildqualität Qd entspricht, geeigneter als die Kandidatenwerte für das Anzeigefenster. Daher werden bei einem Schritt #270 WLc = WLd, WWc = WWd und Qc = Qd festgelegt. Dies entspricht im wesentlichen einer Vorgehensweise, bei der die Kandidatenwerte für den Fensterpegel und die Fensterbreite auf diejenigen Werte geändert werden, die der Bildqualität Qd entsprechen, wie es in Fig. 9 gezeigt ist. Die Größe der Änderung Δ WW wird bei einem Schritt #280 mit β multipliziert, und es kehrt der Ablauf zu dem Schritt #240 zurück. In diesem Fall ist β eine Konstante, die die Bedingung 1 < β erfüllt, so daß die Größe der Änderung erhöht wird.At step #250, the maximum image quality Qd is detected from the image qualities Qd1 to Qd8, and the window level WL and the window width WW corresponding to the detected image quality Qd are detected as WLd and WWd, respectively. At step #260, the image quality Qc of the candidate values of the display window is compared with the image quality Qd of the display window slightly shifted from the candidate values to check whether Qc is smaller than Qd. If the result at step #260 is yes, the values of the display window corresponding to the image quality Qd are more suitable than the candidate values for the display window. Therefore, at step #270, WLc = WLd, WWc = WWd, and Qc = Qd are set. This is essentially equivalent to a procedure in which the candidate values for the window level and the window width are changed to those corresponding to the image quality Qd, as shown in Fig. 9. The amount of change ΔWW is multiplied by β at a step #280, and the flow returns to the step #240. In this case, β is a constant satisfying the condition 1 < β, so that the amount of change is increased.
Falls sich bei dem Schritt #260 das Ergebnis nein ergibt, wird festgelegt, daß die Kandidatenwerte geeignet sind. Um die Größe der Änderung bei der Wiederholung der vorstehend angegebenen Beurteilung zu verringern, wird daher die Größe der Änderung Δ WW bei einem Schritt #220 mit α multipliziert. In diesem Fall ist α eine Konstante, die die Bedingungen 0 < α < 1 und 0 < α x β < 1 erfüllt. Bei einem Schritt #300 wird überprüft, ob Δ WW ≥ γ. In diesem Fall ist γ eine Konstante, die zur Ermittlung des Endes der Verarbeitung dient. Falls sich bei dem Schritt #300 das Ergebnis ja ergibt, kehrt der Ablauf zu dem Schritt #240 zurück, um die Bildqualität auf der Grundlage der Kandidatenwerte sowie die Bildqualitäten auf der Grundlage der acht Fenster um den Kandidaten herum zu berechnen, wie es in Fig. 8 gezeigt ist. Falls sich bei dem Schritt #300 das Ergebnis nein einstellt, werden die aktuellen Kandidatenwerte WLc und WWc als letzt endlich erzielte, geeignete Fensterpegel und -Breite WL und WW festgelegt, und es wird die Verarbeitung beendet.If the result in step #260 is no, it is determined that the candidate values are suitable. In order to determine the size of the change when repeating the above Therefore, in order to reduce the amount of change ΔWW specified in the judgment, the amount of change ΔWW is multiplied by α at a step #220. In this case, α is a constant satisfying the conditions 0 < α < 1 and 0 < α x β < 1. At a step #300, it is checked whether ΔWW ≥ γ. In this case, γ is a constant used to determine the end of the processing. If the result at step #300 is YES, the flow returns to step #240 to calculate the image quality based on the candidate values and the image qualities based on the eight windows around the candidate as shown in Fig. 8. If the result at step #300 is NO, the current candidate values WLc and WWc are set as the finally obtained appropriate window levels and widths WL and WW, and the processing is terminated.
In Übereinstimmung mit dem ersten, vorstehend beschriebenen Ausführungsbeispiel wird ein Index, der die Klarheit des Anzeigefensters, die dem menschlichen Sinn genüge tut, angibt, als die Bildqualität in Abhängigkeit von den verschiedenen Bewertungsmerkmalen definiert, die anhand des Histogramms aus den Bildelementwerten der Bilddaten erhalten worden sind, und es wird die Bildqualität, die auf der Basis des Kandidaten für das Anzeigefenster erzielt worden ist, mit der Bildqualität verglichen, die auf der Basis des Fensterpegels und einer Fensterbreite erhalten werden, die gegenüber den Kandidatenwerten geringfügig verschoben sind. In Abhängigkeit von dem Vergleichsergebnis wird dieser Vergleich durchgeführt, während die Kandidatenwerte verschoben werden, und es wird die Größe der Verschiebung allmählich verringert, wodurch ein optimales Anzeigefenster anhand der sogenannten Hügelanstiegsmethode ("hill climbing method") unter Verwendung der Bildqualität festgelegt wird. Daher kann ein optimales Anzeigefenster leicht für jedes Bild erzielt werden. Als Ergebnis kann eine Belastung für den Benutzer verringert werden.According to the first embodiment described above, an index indicating the clarity of the display window that satisfies the human sense is defined as the image quality depending on the various evaluation items obtained from the histogram of the pixel values of the image data, and the image quality obtained based on the candidate for the display window is compared with the image quality obtained based on the window level and a window width that are slightly shifted from the candidate values. Depending on the comparison result, this comparison is performed while shifting the candidate values and the amount of shift is gradually reduced, thereby setting an optimum display window by the so-called hill climbing method using the image quality. Therefore, an optimum display window can be easily obtained for each image. As a result, a burden on the user can be reduced.
Auch wenn die Bewertungsfünktion und der Gewichtskoeffizient bei dem vorstehend angegebenen Ausführungsbeispiel manuell eingestellt und festgelegt werden, können diese Werte auch automatisch festgelegt werden. Zum Beispiel kann der Gewichtskoeffizient Wn in folgender Weise eingestellt werden. Wenn angenommen wird, daß die Anzahl von Merkmalen gleich 5 ist und daß Wn eine ganze Zahl von 1 bis 5 ist, können in diesem Fall 3125 (5&sup5;) Kombinationen für W1 bis W5 festgelegt werden. Eine Mehrzahl von Standardbildern, zum Beispiel 10 Standardbilder werden angezeigt, und es werden der Fensterpegel und die Fensterbreite, die durch einen erfahrenen Benutzer eingestellt werden (einem Radiologen, wenn das Bild ein Magnetresonanzbild bzw. Kernspinresonsanzbild ist), für jedes Bild gespeichert. Anzeigefenster, die den 3125 Kombinationen aus W1 bis W5 entsprechen, werden mit dem Anzeigefenster verglichen, das durch den erfahrenen Benutzer eingestellt wurde, und es werden diejenigen Werte, die dem nächsten Anzeigefenster entsprechen, als W1 bis W5 festgelegt. In gleichartiger Weise kann ein optimaler Wert für Fn derart festgelegt werden, daß ein Unterschied im Hinblick auf das Anzeigefenster, das durch den erfahrenen Benutzer eingestellt worden ist, auf ein Minimum gebracht wird. Die vorstehend angegebene Verarbeitung kann nicht nur durch einen Computer mit einem normalen, prozedurorientierten Programm realisiert werden, sondern kann auch durch ein Expertensystem unter Verwendung von Regeln ausgeführt werden. Da die Klarheit des Bilds in starkem Maße von den menschlichen Sinnen abhängt, ist ein Expertensystem stärker bevorzugt.Although the evaluation function and the weight coefficient are manually set and determined in the above embodiment, these values can also be determined automatically. For example, the weight coefficient Wn in the following manner. In this case, if it is assumed that the number of features is 5 and that Wn is an integer from 1 to 5, 3125 (5⁵) combinations can be set for W1 to W5. A plurality of standard images, for example, 10 standard images are displayed, and the window level and window width set by an expert user (a radiologist when the image is a magnetic resonance image) are stored for each image. Display windows corresponding to the 3125 combinations of W1 to W5 are compared with the display window set by the expert user, and those values corresponding to the next display window are set as W1 to W5. Similarly, an optimum value for Fn can be set such that a difference with respect to the display window set by the expert user is minimized. The above processing can be realized not only by a computer with a normal procedure-oriented program, but also by an expert system using rules. Since the clarity of the image depends largely on the human senses, an expert system is more preferable.
Nachfolgend wird ein zweites Ausführungsbeispiel der vorliegenden Erfmdung beschrie ben. Fig. 10 zeigt ein Blockschaltbild, in dem das zweite Ausführungsbeispiel dargestellt ist. Das zweite Ausführungsbeispiel ist das gleiche wie das erste, in Fig. 2 gezeigte Ausführungsbeispiel, mit der Ausnahme, daß ein neuronales (neurales) Netzwerk mit einer Fenstersteuereinrichtung 2 verbunden ist. Bei dem ersten Ausführungsbeispiel ist die Bildqualität als eine Funktion definiert und wird durch einen Berechnungsvorgang erhalten.Next, a second embodiment of the present invention will be described. Fig. 10 is a block diagram showing the second embodiment. The second embodiment is the same as the first embodiment shown in Fig. 2 except that a neural network is connected to a window controller 2. In the first embodiment, the image quality is defined as a function and is obtained by a calculation process.
Bei dem zweiten Ausführungsbeispiel wird jedoch die Bildqualität durch das neuronale Netzwerk 5 ermittelt.In the second embodiment, however, the image quality is determined by the neural network 5.
Fig. 11 zeigt eine schematische Arbeitsweise des zweiten Ausführungsbeispiels Bei einem Schritt #320 wird ein Einzelbild der Bilddaten aus dem Bildspeicher 1 ausgelesen. Bei einem Schritt #330 wird aus den Bilddaten ein Histogramm erzeugt, das eine Frequenz bzw. Häufigkeit von Bildelementwerten angibt. Dieses Histogramm ist ähnlich wie das Histogramm bei dem ersten, in Fig. 4 dargestellten Ausführungsbeispiel Bei einem Schritt #340 wird der Wert "A" wie bei dem ersten Ausführungsbeispiel erhalten. Bei einem Schritt #350 wird der Wert MVP wie bei dem ersten Ausführungsbeispiel ermittelt. Bei einem Schritt #360 werden der Fensterpegel und die Fensterbreite festgelegt, die für das Bild geeignet sind (zum Beispiel der Wert "A" und der Wert MVP). Diese Verarbeitung wird im weiteren Text in größeren Einzelheiten beschrieben. Bei einem Schritt #370 werden die Bilddaten durch den festgelegten Fensterpegel und die Fensterbreite angezeigt. Bei einem Schritt #380 betrachtet ein Benutzer das angezeigte Bild und justiert, falls notwendig, den Fensterpegel und die Breite unter Verwendung des Fensterschalters 3 zur Erzielung einer Feineinstellung.Fig. 11 shows a schematic operation of the second embodiment. In a step #320, a single frame of the image data is read out from the image memory 1. In a step #330, a histogram is generated from the image data, which has a frequency or frequency of picture element values. This histogram is similar to the histogram in the first embodiment shown in Fig. 4. At a step #340, the value "A" is obtained as in the first embodiment. At a step #350, the value MVP is obtained as in the first embodiment. At a step #360, the window level and the window width appropriate for the image (for example, the value "A" and the value MVP) are set. This processing will be described in more detail later. At a step #370, the image data is displayed by the set window level and window width. At a step #380, a user observes the displayed image and, if necessary, adjusts the window level and width using the window switch 3 to achieve fine adjustment.
Jeder in Fig. 11 gezeigte Schritt wird nachfolgend in Einzelheiten erläutert. Fig. 12 zeigt die Ermittlung des geeigneten Anzeigefensters bei dem Schritt #360 in größeren Einzelheiten. In ähnlicher Weise wie bei dem ersten Ausführungsbeispiel wird die Hügelanstiegsmethode als die Methode zur Ermittlung des Anzeigefensters eingesetzt. Im Unterschied zu dem ersten Ausführungsbeispiel wird jedoch die Bildqualität im Hinblick auf das Anzeigefenster nicht durch einen Rechenvorgang berechnet, sondern wird durch das neuronale Netzwerk 5 erhalten. Dies bedeutet, daß bei einem Schritt #410 Kandidatenwerten für den Fensterpegel und die Fensterbreite ermittelt werden. Bei einem Schritt #420 wird die Bildqualität der Bilddaten, die anhand des festgelegten Fensterpegels und der festgelegten Fensterbreite angezeigt werden, mit Hilfe des neuronalen Netzwerks 5 ermittelt. Bei einem Schritt #430 werden der Fensterpegel oder die Fensterbreite oder beide Werte um Δ WW geändert. Bei einem Schritt #440 wird die Bildqualität für die Bilddaten ermittelt, die mit dem geänderten Fensterpegel und der geänderten Fensterbreite angezeigt werden. Bei einem Schritt #450 werden die Bildqualitäten, die bei den Schritten #420 und #440 erhalten worden sind, miteinander verglichen, und es werden die Kandidatenwerte für den Fensterpegel und die Fensterbreite in Abhängigkeit von einer Differenz zwischen den beiden Bildqualitäten geändert. Darüber hinaus werden optimale Werte für den Fensterpegel und die Breite ermittelt, während Δ WW allmählich verringert wird, das heißt, wenn gemäß der Hügelanstiegsmethode ermittelt. Die Verarbeitung zur Ermittlung des optimalen Anzeigefensters mit Hilfe der Hügelanstiegsmethode ist die gleiche wie die Verarbeitung bei dem ersten, in Fig. 7 gezeigten AusführungsbeispielEach step shown in Fig. 11 will be explained in detail below. Fig. 12 shows the determination of the appropriate display window at step #360 in more detail. In a similar manner to the first embodiment, the hill climbing method is used as the method for determining the display window. However, different from the first embodiment, the image quality with respect to the display window is not calculated by a calculation process but is obtained by the neural network 5. That is, at step #410, candidate values for the window level and the window width are determined. At step #420, the image quality of the image data displayed with the specified window level and the specified window width is determined by the neural network 5. At step #430, the window level or the window width or both are changed by ΔWW. At step #440, the image quality for the image data displayed with the changed window level and the changed window width is determined. At a step #450, the image qualities obtained at steps #420 and #440 are compared with each other, and candidate values for the window level and the window width are changed depending on a difference between the two image qualities. In addition, optimal values for the window level and the width are determined while gradually decreasing ΔWW, the is when determined according to the hill climbing method. The processing for determining the optimum display window using the hill climbing method is the same as the processing in the first embodiment shown in Fig. 7.
Wie vorstehend beschrieben, wird die Bildqualität bei dem zweiten Ausführungsbeispiel unter Verwendung des neuronalen Netzwerks ermittelt, wohingegen die Bildqualität bei dem ersten Ausführungsbeispiel anhand einer Funktion wie etwa einer Mitgliedsfünktion, die bei einer Fuzzy-Theorie eingesetzt wird, berechnet wird. Daher kann die Bildqualität, die für die Charakteristika der einzelnen Geräte oder Krankenhäuser geeignet ist, leicht erhalten werden. Als Ergebnis kann dasjenige Anzeigefenster, das für das einzelne Gerät optimal ist. dadurch eingestellt werden, daß ein neuronales Netzwerk dazu veranlaßt wird, in Abhängigkeit von dem einzelnen Gerät zu lernen. Gemäß der Fig. 10 überträgt die Fenstersteuereinrichtung 2 Bewertungsmerkmale (ähnlich wie diejenigen bei dem ersten Ausfülrrungsbeispiel) zum Berechnen der Bildqualität zu dem neuronalen Netzwerk 5, um hierdurch die Bildqualität zu erzielen. Das neuronale Netzwerk 5 erzeugt die Bildqualität auf der Grundlage der Bewertungsmerkmale und überträgt die erzeugte Bildqualität zu der Fenstersteuereinrichtung 2. Als Ergebnis ermittelt die Fenstersteuereinrichtung 2 die BildqualitätAs described above, the image quality in the second embodiment is determined using the neural network, whereas the image quality in the first embodiment is calculated using a function such as a membership function used in a fuzzy theory. Therefore, the image quality suitable for the characteristics of each device or hospital can be easily obtained. As a result, the display window optimal for each device can be set by causing a neural network to learn depending on the device. Referring to Fig. 10, the window controller 2 transmits evaluation features (similar to those in the first embodiment) for calculating the image quality to the neural network 5, thereby obtaining the image quality. The neural network 5 generates the image quality based on the evaluation features and transmits the generated image quality to the window controller 2. As a result, the window controller 2 determines the image quality.
Nachfolgend wird das neuronale Netzwerk 5 beschrieben. Fig. 13 zeigt eine Ausgestaltung des neuronalen Netzwerk 5. Das Netzwerk 5 ist durch drei Schichten gebildet, die aus einer Eingangsschicht 7, einer Zwischenschicht 8 und einer Ausgangsschicht 9 bestehen. Die Zwischenschicht 8 kann aus einer Vielzahl von Lagen bestehen. Die Eingangsschicht 7 enthält fünf Einheiten 7a bis 7e. Die fünf Bewertungsmerkmalsdaten, die bei dem ersten Ausführungsbeispiel erläutert worden sind, werden in das neuronale Netzwerk 5 eingespeist. Dies bedeutet, daß der Helligkeitswert MVPG, der Helligskeitswert AG, die Fläche des Helligkeitswerts 12, die Fläche der maximalen Helligkeit und die Helligkeitsbalance jeweils in die Einheiten 7a bis 7e eingespeist werden. Die Anzahl von eingegebenen Merkmalen ist nicht auf fünf beschränkt. Falls die Anzahl von Eingangsmerkmalen vergrößert oder verringert wird, kann die Anzahl von Einheiten in der Eingangsschicht 7 entsprechend vergrößert oder verringert werden. Ein Verfahren zur Ermittlung der Eingangsdaten wird im weiteren Text in größeren Einzelheiten beschrieben. Bei diesem Ausführungsbeispiel besteht die Zwischenschicht 8 aus 50 Einheiten und bildet das Netzwerk zusammen mit den Einheiten 7a bis 7e in der Eingangsschicht 7, und der Ausgangsschicht 9. Die Ausgangsschicht 9 ist durch eine Einheit gebildet und gibt die Bildqualität mit einem Wert von 0 bis 1 ab. Eine Eingangslausgangs-Beziehung der Einheit, die in dem neuronalen Netzwerk 5 enthalten ist, läßt sich durch die folgende Sigmoid-Funktion f(x) repräsentieren:The neural network 5 is described below. Fig. 13 shows a configuration of the neural network 5. The network 5 is formed by three layers consisting of an input layer 7, an intermediate layer 8 and an output layer 9. The intermediate layer 8 may consist of a plurality of layers. The input layer 7 contains five units 7a to 7e. The five evaluation feature data explained in the first embodiment are fed into the neural network 5. This means that the brightness value MVPG, the brightness value AG, the area of the brightness value 12, the area of the maximum brightness and the brightness balance are fed into the units 7a to 7e, respectively. The number of input features is not limited to five. If the number of input features is increased or decreased, the number of units in the input layer 7 can be increased. be increased or decreased accordingly. A method for determining the input data is described in more detail below. In this embodiment, the intermediate layer 8 consists of 50 units and forms the network together with the units 7a to 7e in the input layer 7 and the output layer 9. The output layer 9 is formed by a unit and outputs the image quality with a value from 0 to 1. An input/output relationship of the unit contained in the neural network 5 can be represented by the following sigmoid function f(x):
f(x) = 1/{1 + exp(-x + b)} ... (7)f(x) = 1/{1 + exp(-x + b)} ... (7)
Hierbei bezeichnet b die Vorspannung, die ein Gewicht eines Vorspannungselements (das einen Ausgang von "1" aufweist) ist und die durch das Lernen bestimmt wird. Mit x ist die Eingangsgröße bezeichnet. Das neuronale Netzwerk 5 muß bereits vorab dazu gebracht werden, zu lernen. Dieses Lernen wird im weiteren Text in größeren Einzelheiten beschrieben. In diesem Fall sei angenommen, daß das neuronale Netzwerk 5 sein Lernen beendet hat.Here, b denotes the bias, which is a weight of a bias element (which has an output of "1") and which is determined by learning. x denotes the input variable. The neural network 5 must be made to learn in advance. This learning is described in more detail in the text below. In this case, it is assumed that the neural network 5 has finished learning.
Fig. 14 zeigt ein Ablaufdiagramm, in dem eine Abfolge zur Ermittlung der Bildqualität mit 20 Hilfe des neuronalen Netzwerks 5 gemäß den Schritten #420 und #440 zeigt. Unter Bezugnahme auf Fig. 14 wird der Helligkeitswert MVPG, der dem Wert MVP des Bilds, das mit einem gegebenen Anzeigefenster angezeigt wird, entspricht, bei einem Schritt #510 erhalten. Der Helligkeitswert MVP läßt sich in folgender Weise darstellen, wenn in der Gleichung (3) X durch MVP, und Y durch MVPG, ersetzt werden:Fig. 14 is a flow chart showing a sequence for determining the image quality using the neural network 5 in steps #420 and #440. Referring to Fig. 14, the brightness value MVPG corresponding to the value MVP of the image displayed with a given display window is obtained at step #510. The brightness value MVP can be represented as follows when X is replaced by MVP and Y by MVPG in the equation (3):
MVPG = 8,5 + 16 x (MVP - WL)/WW ...(8)MVPG = 8.5 + 16 x (MVP - WL)/WW ...(8)
Da ein Eingangswert für das neuronale Netzwerk 5 einen Wert von 0 bis 1 aufweisen muß, wird der Helligkeitswert MVPG, der unter Verwendung der Gleichung (8) berechnet worden ist, mit einem normalisierten bzw. normierten Koeffizient von 1/16,5 multipliziert werden, um einen normierten Wert MVPG zu erhalten.Since an input value for the neural network 5 must have a value from 0 to 1, the brightness value MVPG, which is calculated using equation (8), multiplied by a normalized coefficient of 1/16.5 to obtain a normalized value MVPG.
Bei einem Schritt #520 wird der Helligkeitswert AG ermittelt, der dem Magnetresonanzbildwert "A" des Bilds entspricht, das gemäß einem gegebenen Fenster angezeigt wird. Der Helligkeitswert AG wird in Übereinstimmung mit der Gleichung (3) in ähnlicher Weise wie der Helligkeitswert MVPG wie folgt dargestellt:At step #520, the brightness value AG corresponding to the magnetic resonance image value "A" of the image displayed according to a given window is obtained. The brightness value AG is represented in accordance with the equation (3) in a similar manner to the brightness value MVPG as follows:
AG =8,5 + 16 x (A - WL)/WW (9)AG = 8.5 + 16 x (A - WL)/WW (9)
Auch in diesem Fall wird AG unter Verwendung der Gleichung (9) berechnet und mit dem normierten Koeffizienten 1/16,5 multipliziert, um hierdurch einen normalisierten Wert von AG zu erhalten.Also in this case, AG is calculated using equation (9) and multiplied by the normalized coefficient 1/16.5 to obtain a normalized value of AG.
Bei einem Schritt #530 wird die Fläche eines Abschnitts des Bilds berechnet, der einen Helligkeitswert bei der Graustufe 12 aufweist und durch das gegebene Fenster angezeigt wird. Genauer gesagt, wird die Fläche eines Abschnitts des Histogramms bei der Graustufe 12 in Übereinstimmung mit der Gleichung (4) berechnet, und es wird das Ergebnis durch einen normierten Koeffizienten von 1/100 multipliziert. Falls jedoch der normierte Wert 1 überschreitet, wird der Wert als 1 betrachtet.At step #530, the area of a portion of the image having a brightness value at gray level 12 and displayed by the given window is calculated. More specifically, the area of a portion of the histogram at gray level 12 is calculated in accordance with equation (4), and the result is multiplied by a normalized coefficient of 1/100. However, if the normalized value exceeds 1, the value is regarded as 1.
Bei einem Schritt #540 wird die Fläche deines Abschnitts berechnet, der den höchsten Helligkeitswert aufweist, das heißt des Abschnitts bei der Graustufe 16,5 des Bilds, das durch das gegebene Fenster angezeigt wird. Genauer gesagt, wird die Fläche eines Ab schnitts des Histogramms in Übereinstimmung mit der Gleichung (5) berechnet und mit einem normierten Koeffizienten von 1/30 multipliziert. Falls der normierte Wert 1 überschreitet, wird der Wert als 1 betrachtet.At step #540, the area of the section having the highest brightness value, that is, the section at gray level 16.5 of the image displayed through the given window, is calculated. More specifically, the area of a section of the histogram is calculated in accordance with equation (5) and multiplied by a normalized coefficient of 1/30. If the normalized value exceeds 1, the value is considered to be 1.
Bei einem Schritt #550 wird die Helligkeitsbalance, das heißt (Flächen, die Helligkeits werte von 4 bis 8 aufweist)/(Fläche, die Helligkeitswerte von 9 bis 13 aufweist), wie es in der Gleichung (6) definiert ist, für das Bild, das durch das gegebene Fenster angezeigt wird, ermiltelt. Diese Flächen werden in gleichartiger Weise wie bei den Schritten #530 und #540 ermittelt. In diesem Fall ist ein normierter Koeffizient gleich 1/6. Falls der normierte Wert 1 überschreitet, wird der Wert als 1 betrachtet.At step #550, the brightness balance, that is (areas having brightness values from 4 to 8)/(area having brightness values from 9 to 13), is calculated as shown in of equation (6) for the image displayed through the given window. These areas are determined in a similar manner to steps #530 and #540. In this case, a normalized coefficient is equal to 1/6. If the normalized value exceeds 1, the value is considered to be 1.
Bei einem Schritt #560 werden die fünf Werte, die bei den Schritten #5 10 bis #550 erhalten worden sind, zu dem neuronalen Netzwerk 5 übertragen und in die Einheiten 7a bis 7e in der Eingangsschicht 7 eingegeben. Bei einem Schritt #570 wird die Bildqualität von der Ausgangsschicht 9 des neuronalen Netzwerks 5 erhalten.At a step #560, the five values obtained at steps #510 to #550 are transmitted to the neural network 5 and input to the units 7a to 7e in the input layer 7. At a step #570, the image quality is obtained from the output layer 9 of the neural network 5.
Das Lernen des neuronalen Netzwerks 5 wird im folgenden beschrieben. Wie vorstehend angegeben, muß das neuronale Netzwerk 5 bereits vorab lernen, damit es eine Bildqualität ausgeben kann, die für die eingegebenen Bewertungsmerkmalsdaten geeignet ist. Auch wenn eine Lernverfahren nicht auf dasjenige bei diesem Ausführungsbeispiel beschränkt ist, wird bei diesem Ausführungsbeispiel eine Rückwärtsfortpflanzungsmethode eingesetzt. Dies bedeutet, daß eine vorbestimmte Anzahl von Lerndaten wiederholt in das neuronale Netzwerk 5 eingegeben wird, um hierdurch ein Lernen mit Hilfe der Rückwärtsfortpflanzungsmethode auszuführen, und es wird das Lernen solange wiederholt, bis der Fehler unter einem vorbestimmten Wert verringert ist. Bei diesem Ausführungsbeispiel wird das Lernen unter Verwendung der nachfolgend angegebenen Lerndaten ausgeführt. Jedoch ist das Verfahren zur Erzeugung der Lerndaten nicht auf dasjenige bei dem vorliegenden Ausführungsbeispiel beschränkt.The learning of the neural network 5 will be described below. As stated above, the neural network 5 must learn in advance in order to output an image quality suitable for the input evaluation feature data. Although a learning method is not limited to that in this embodiment, a back propagation method is used in this embodiment. That is, a predetermined number of learning data are repeatedly input to the neural network 5 to thereby perform learning by the back propagation method, and the learning is repeated until the error is reduced below a predetermined value. In this embodiment, the learning is carried out using the learning data given below. However, the method for generating the learning data is not limited to that in the present embodiment.
Die Lerndaten werden auf der Grundlage einer Mehrzahl von aktuellen Bilddaten und Fensterpegein sowie Fensterbreiten gebildet, die durch einen erfahrenen Benutzer zum Anzeigen dieser Bilddaten eingestellt werden. Ein Bild wird ausgewählt und es wird ein Fensterpegel WLG und eine Fensterbreite WWG für das Bild durch den erfahrenen Benutzer eingestellt. Eine Gesamtheit von 25 Kombinationen (WLS, WWS) werden als Anzeigefenster für den Lernvorgang unter Verwendung eines Fensterpegels WLS aus WLG - WWG/2, WLG - WWG/4, WLG, WLG + WWG/4, und WLG + WWG/2 und einer Fensterbreite WWS aus WWG - WWG/2, WWG - WWG/4, WWG, WWG + WWG/4, und WWG + WWG/2, abgetastet. Fünf Bewertungsmerkmaldaten für die Helligkeit MVPG, die Helligkeit AG, die Fläche der Helligkeit bei der Graustufe 12, die Fläche der Helligkeit bei der Graustufe 16,5 und die Helligkeitsbalance werden für jede aus den 25 Kombination aus (WLS, WWS) bei den Schritten #510 bis #550 berechnet und werden als Eingangsdaten für das Lernen eingegeben. Lehrerdaten für diese Kombinationen aus (WLS, WWS) werden gemäß der Darstellung in Fig. 15 definiert, um hierdurch 25 Sätze von Lerndaten zu bilden. Nachfolgend werden 25 Sätze von Lerndaten für jedes aus einer beliebigen Anzahl von Bildern gebildet, und es wird das Lernen wiederholt unter Heranziehung aller Lerndaten solange ausgeführt, bis die Werte der Fehler unter einen vorbestimmten Wert verringert sind.The learning data is formed based on a plurality of current image data and window levels and window widths set by an experienced user for displaying this image data. An image is selected and a window level WLG and a window width WWG are set for the image by the experienced user. A total of 25 combinations (WLS, WWS) are used as display windows for learning using a window level WLS of WLG - WWG/2, WLG - WWG/4, WLG, WLG + WWG/4, and WLG + WWG/2 and a window width WWS of WWG - WWG/2, WWG - WWG/4, WWG, WWG + WWG/4, and WWG + WWG/2. Five evaluation feature data for the brightness MVPG, the brightness AG, the area of brightness at gray level 12, the area of brightness at gray level 16.5, and the brightness balance are calculated for each of the 25 combinations of (WLS, WWS) at steps #510 to #550, and are input as input data for learning. Teacher data for these combinations of (WLS, WWS) are defined as shown in Fig. 15 to thereby form 25 sets of learning data. Subsequently, 25 sets of learning data are formed for each of an arbitrary number of images, and learning is repeatedly carried out using all the learning data until the values of the errors are reduced below a predetermined value.
Gemäß dein zweiten, vorstehend beschriebenen Ausführungsbeispiel kann, da das neuronalen Netzwerk 5 einen Lernvorgang durchführen kann, ein Anzeigefenster, das für die Charakteristika eines einzelnen Geräts oder Krankenhauses geeignet ist, automatisch ohne Ausführung von mühsamen Handlungen, nämlich der Festlegung einer Bewertungsfünktion und eines Gewichtskoeffizienten wie bei dem ersten Ausführungsbeispiel, festgelegt werden. Da das Bild durch das geeignete Anzeigefenster angezeigt werden kann, ist weiterhin der Vorgang der Einstellung des Anzeigefensters, der zur Anzeige des Bilds auszuführen ist, vereinfacht, so daß die Belastung des Benutzers verringert ist.According to the second embodiment described above, since the neural network 5 can perform a learning operation, a display window suitable for the characteristics of a single device or hospital can be automatically set without performing cumbersome operations such as setting an evaluation function and a weight coefficient as in the first embodiment. Furthermore, since the image can be displayed through the appropriate display window, the process of setting the display window to be performed for displaying the image is simplified, so that the burden on the user is reduced.
Im folgenden wird ein drittes Ausführungsbeispiel der vorliegenden Effindung beschrieben. Bei dem ersten und dem zweiten Ausführungsbeispiel wird ein optimales Anzeigefenster für jedes Bild ermittelt. Jedoch ändert sich ein optimales Anzeigefenster selbst bei einem Bild in Abhängigkeit von einem zu beobachtenden Objekt (einem Abschnitt oder der Art eines Tumors), einem Zweck oder dergleichen. Bei dem dritten Ausführungsbeispiel wird daher ein geeignetes Anzeigefenster für jedes Beobachtungsobjekt in einem Bild ermittelt, und es wird das Bild mit Hilfe von unterschiedlichen Anzeigefenstern für unterschiedliche Objekte angezeigt. Fig. 16 zeigt ein Blockschaltbild, in dem das dritte Ausführungsbeispiel dargestellt ist. Eine Ausgestaltung des dritten Ausführungsbeispiels ist die gleiche wie diejenige bei dem zweiten Ausführungsbeispiel, mit der Ausnahme, daß ein Wählschalter 10 für die Auswahl des zu beobachtenden Objekts mit einer Fenstersteuereinrichtung 2 verbunden ist.A third embodiment of the present invention will be described below. In the first and second embodiments, an optimum display window is determined for each image. However, an optimum display window varies even in an image depending on an object to be observed (a portion or the type of tumor), a purpose, or the like. In the third embodiment, therefore, an appropriate display window is determined for each object to be observed in an image, and the image is displayed using different display windows for different objects. Fig. 16 is a block diagram showing the third embodiment. A configuration of the third embodiment is the same as that of the first embodiment. that in the second embodiment, except that a selector switch 10 for selecting the object to be observed is connected to a window control device 2.
Fig. 17 zeigt eine schematische Arbeitsweise bei dem dritten Ausführungsbeispiel Bezugnehmend auf Fig. 17 wird bei einem Schritt #5100 ein Bilddatum bzw. ein Bild aus dem Speicher 1 ausgelesen. Bei einem Schritt #5300 wird ein Histogramm, das eine frequenz oder Häufigkeit von Bildelementwerten angibt, auf der Grundlage der Buddaten gebildet. Dieses Histogramm weist eine Mehrzahl von Spitzen P1, P2 und P3 auf, wie es in Fig. 18 gezeigt ist. Bei einem Schritt #5300 wird der Wert "A" wie bei dem ersten Ausführungsbeispiel erhalten. Bei einem Schritt #5400 wird der Wert MVP für jedes Objekt gebildet. Wie vorstehend erläutert, ist der Wert MVP ein Magnetresonanzbildwert eines Abschnitts, von dem angenommen wird, daß der Benutzer ihn am deutlichsten zu beobachten wünscht. Da jedoch die Anzahl von zu beobachtenden Abschnitten nicht auf einen Abschnitt in einem Bild beschränkt ist, wird der Wert MVP für jedes Objekt berechnet. Es sei angenommen, daß MVPn durch Anordnen von MVPn in der Reihenfolge der Wichtigkeit ermittelt werden. MVPn sind die Magnetresonanzbildwerte eines Abschnitts, von dem angenommen wird, daß der Beobachter diesen im Hinblick auf ein n-tes Objekt am meisten zu betrachten wünscht. Das Beobachtungsobjekt unterscheidet sich zwischen einem Fall, bei dem ein gesamtes Bild zu beobachten ist, und einem Fall, bei dem ein spezielles Objekt (zum Beispiel ein Abschnitt oder ein Tumor) zu beobachten ist. Damit das gesamten Bild beobachtet werden kann, wird angenommen, daß das gesamte Bild dann klar gesehen werden kann, wenn das Bild derart angezeigt wird, daß ein Magnetresonanzbildwert, der die höchste Frequenz bzw. Häufigkeit in dem Bild, mit Ausnahme des Hintergrunds, aufweist, klar gesehen werden kann. Damit das spezielle Objekt (zum Beispiel ein Abschnitt oder ein Tumor) beobachtet werden kann, wird davon ausgegangen, daß eine Spitze eines partiellen Histogramms, einem Abschnitt entspricht, von dem eine Betrachtung am intensivsten gewünscht wird. Bei dem in Fig. 18 gezeigten Fall stellen daher MVP1, MVP2 und MVP3 Magnetresonanzbildwerte von Abschnitten dar, von denen angenommen wird, daß sie hinsichtlich der jeweiligen Objekte am intensivsten beobachtet werden sollen. In diesem Fall ist die Anzahl von Beobachtungsobjekten m gleich 3. Genauer gesagt, werden die Magnetresonanzbildwerte MVPn dadurch berechhet, daß die Spitzen des Histogramms gesucht werden, die in dem Bereich oberhalb des Magnetresonanzbildwerts "A" angeordnet sind. Wie in Fig. 19 gezeigt ist, ist die Spitze als ein Punkt definiert, der eine Frequenz bzw. Häufigkeit aufweist, die höher ist als diejenige von mehreren Punkten auf beiden Seiten dieses Punkts. Wie in Fig. 20 dargestellt ist, wird die Wichtigkeit der Spitze unter Berücksichtigung zum Beispiel (1) eines Abstands xi zwischen den Spitzen, (2) der Höhe der Spitze, und (3) der Breite W1, W2 der Spitze bewertet. Bei diesem Ausführungsbeispiel sind die Werte MVP1, MVP2 und MVP3 in der angegebenen Reihenfolge wichtig. Die Beobachtungsobiekte (die Anzahl bzw. Nummer von MVP) werden gleichzeitig gespeichert.Fig. 17 shows a schematic operation in the third embodiment. Referring to Fig. 17, at step #5100, an image data is read out from the memory 1. At step #5300, a histogram indicating a frequency of pixel values is formed on the basis of the image data. This histogram has a plurality of peaks P1, P2 and P3 as shown in Fig. 18. At step #5300, the value "A" is obtained as in the first embodiment. At step #5400, the value MVP is formed for each object. As explained above, the value MVP is an MRI value of a portion which is considered to be most clearly desired by the user. However, since the number of portions to be observed is not limited to one portion in one image, the value MVP is calculated for each object. Suppose that MVPn are obtained by arranging MVPn in order of importance. MVPn are the magnetic resonance image values of a portion which is considered to be most desired by the observer with respect to an nth object. The object of observation differs between a case where an entire image is to be observed and a case where a specific object (for example, a portion or a tumor) is to be observed. In order to observe the entire image, it is assumed that the entire image can be clearly seen when the image is displayed such that a magnetic resonance image value having the highest frequency in the image excluding the background can be clearly seen. In order to observe the specific object (for example, a portion or a tumor), it is assumed that a peak of a partial histogram corresponds to a portion which is most desired to be observed. Therefore, in the case shown in Fig. 18, MVP1, MVP2 and MVP3 represent magnetic resonance image values of sections that are assumed to be most intense with respect to the respective objects. are to be observed. In this case, the number of observation objects m is 3. More specifically, the magnetic resonance image values MVPn are calculated by searching the peaks of the histogram located in the area above the magnetic resonance image value "A". As shown in Fig. 19, the peak is defined as a point having a frequency higher than that of several points on both sides of this point. As shown in Fig. 20, the importance of the peak is evaluated by considering, for example, (1) a distance xi between the peaks, (2) the height of the peak, and (3) the width W1, W2 of the peak. In this embodiment, the values MVP1, MVP2, and MVP3 are important in the order given. The observation objects (the number of MVP) are stored at the same time.
Bei einem Schritt #5500 werden ein geeigneter Fensterpegel und eine geeignete Fensterbreite für jedes Beobachtungsobjekt Oeden Wert MVPn) festgelegt. Dieser Festlegungsvorgang wird nachstehend in größeren Einzelheiten beschrieben. Bei einem Schritt #5600 werden die Bilddaten für jedes Objekt unter Verwendung des Fensterpegels und der Fensterbreite angezeigt, die für jedes Objekt bei dem Schritt #5600 festgelegt worden sind.At step #5500, an appropriate window level and window width are set for each observation object (MVPn). This setting process is described in more detail below. At step #5600, the image data for each object is displayed using the window level and window width set for each object at step #5600.
Bei dem Schritt #5700 beobachtet ein Benutzer das angezeigte Bild und bewirkt eine Feineinstelliing des Fensterpegeis und der Fensterbreite unter Verwendung des Fensterschalters 3, falls notwendig.At step #5700, a user observes the displayed image and makes fine adjustments of the window level and width using the window switch 3 if necessary.
Gemäß dem dritten Ausführungsbeispiel, wie es vorstehend erläutert ist, kann die Arbeitsbelastung des Benutzers verringert werden, da ein Anzeigefenster, das für das Beobachtungsobjekt geeignet ist, leicht eingestellt werden kann, wenn das Bild angezeigt wird.According to the third embodiment, as explained above, the user's workload can be reduced because a display window suitable for the observation object can be easily set when the image is displayed.
Jeder Schritt wird nachfolgend in Einzelheiten beschrieben. Die Abfolge zur Ermittlung des Anzeigefensters, das für jedes Objekt geeignet ist und bei dem Schritt #5500 erfolgt, wird unter Bezugnahme auf Fig. 21 erläutert. Bei einem Schritt #610 wird ein Parameter n zur Bezeichnung des Objekts auf 1 eingestellt. Bei einem Schritt #620 wird das Anzeigefenster ermittelt, das für ein n-tes Objekt geeignet ist. Dieses Anzeigefenster kann anhand des gleichen Verfahrens wie dasjenige bei dem zweiten Ausführungsbeispiel erbalten werden, das in Fig. 14 gezeigt ist. In diesem Fall werden die Bewertungsmerkmale und die Gewichtskoeffizienten für das Netzwerk in Abhängigkeit von dem Objekt (der Art von MVP) ausgewählt. Die Bildqualität muß nicht durch das neuronale Netzwerk erhalten werden, sondern kann wie bei dem ersten Ausführungsbeispiel anhand einer Funktion berechnet werden. In diesem Fall werden die Bewertungsmerkmale, der Gewichtskoeffizient und die Bewertungsfünktion zum Berechnen der Bildqualität in Abhängigkeit von dem Objekt (der Art von MVP) ausgewählt. Als Beispiel werden W1 bis WS auf 5, 4, 3, 2 und 2 im Hinblick auf ein Objekt 1 eingestellt, und werden auf 6, 4, 3, 2, und 1 im Hinblick auf ein Objekt 2 festgelegt. Es ist anzumerken, daß das zweite Bewertungsmerkmal für das Objekt 1 die Helligkeit des Werts "A" ist, jedoch für das Objekt 2 die Helligkeit eines Werts "B" ist, wie es in Fig. 2 dargestellt ist. Der Wert "B" bezeichnet einen Bildeiementwert an einer Schnittstelle zwischen der Achse X und einer Linie, die einen Punkt, der zwischen einer bestimmten Spitze und einer benachbarten Spitze, die links von der bestimmten Spitze liegt, und einen niedrigsten Histogrammwert aufweist, und die bestimmte Spitze verbindet. Auf diese Weise wird die Bewertungsfünktion in Abhängigkeit von dem Objekt ausgewählt. Der erhaltene Fensterpegel und die erhaltene Fensterbreite werden in einem Fensterspeicher gespeichert, der in der Steuereinrichtung 2 enthalten ist. Bei einem Schritt #630 wird der Parameter n hochgestuft. Bei einem Schritt #640 wird der Parameter n mit der Anzahl von Objekten m verglichen. Falls n ( m ist, das heißt, wenn Objekte verbleiben, deren Anzeigefenster noch bestimmt werden muß, werden die Schritte #620 und #630 wiederholt. Falls n ) m ist, das heißt, falls die Anzeigefenster für alle Objekte ermittelt worden sind, wird die Verarbeitung beendet.Each step is described in detail below. The sequence for determining the display window suitable for each object, which is performed at step #5500, is explained with reference to Fig. 21. At step #610, a parameter n for designating the object is set to 1. At step #620, the display window suitable for an n-th object is determined. This display window can be determined from the same method as that in the second embodiment shown in Fig. 14. In this case, the evaluation features and the weight coefficients for the network are selected depending on the object (the type of MVP). The image quality need not be obtained by the neural network but may be calculated from a function as in the first embodiment. In this case, the evaluation features, the weight coefficient and the evaluation function for calculating the image quality are selected depending on the object (the type of MVP). As an example, W1 to WS are set to 5, 4, 3, 2 and 2 with respect to an object 1, and are set to 6, 4, 3, 2 and 1 with respect to an object 2. Note that the second evaluation feature for the object 1 is the brightness of value "A", but for the object 2 is the brightness of value "B", as shown in Fig. 2. The value "B" indicates an image element value at an intersection between the X axis and a line connecting a point located between a certain peak and an adjacent peak located to the left of the certain peak and having a lowest histogram value, and the certain peak. In this way, the evaluation function is selected depending on the object. The obtained window level and the obtained window width are stored in a window memory included in the controller 2. At a step #630, the parameter n is incremented. At a step #640, the parameter n is compared with the number of objects m. If n ( m , that is, if there remain objects whose display windows have yet to be determined, steps #620 and #630 are repeated. If n ) m , that is, if the display windows for all objects have been determined, the processing is terminated.
Fig. 22 zeigt die Abfolge bei der Auswahl eines Anzeigefensters, das für das Objekt geeignet ist und bei der Anzeige des dargestellten Schritts bei dem Schritt #5600. Bei dem Schritt #650 wird der Parameter n auf 1 gesetzt. Bei einem Schritt #660 werden der Fensterpegel und die Fensterbreite, die dem n-ten Objekt entsprechen, aus dem Fensterspeicher in der Steuereinrichtung 9 ausgelesen und zu der Anzeige 4 übertragen. Als Ergebnis wird das Bild so angezeigt, daß das n-te Objekt am klarsten sichtbar ist. Falls der Wählschalter 10 bei einem Schritt #670 gedrückt wird, wird der Parameter n bei einem Schritt #680 hochgestuft. Bei einem Schritt #690 wird der inkrementierte Wert von n mit der bereits vorab gespeicherten Anzahl m von Objekten verglichen, falls n gleich groß wie oder kleiner als m ist, kehrt der Ablauf zu einem Schritt #660 zurück, und es wird das Bild durch das n-te Anzeigefenster angezeigt. Falls n den Wert von m erreicht, kehrt der Ablauf zu dem Schritt #650 zurück, und es wird n auf den Wert 1 zurückgesetzt. Dies bedeutet, daß das Anzeigefenster für das erste Objekt erneut gesetzt wird, wenn der Wählschalter 10 gedrückt wird, nachdem das Anzeigefenster für das m-te Objekt eingestellt worden ist. Die Anzeigefenster für die jeweiligen Objekte werden aufeinanderfolgend jedesmal dann eingestellt, wenn der Schalter 10 während der Anzeige des Bilds gedrückt wird. Daher kann der Benutzer das Bild mit dem für das Objekt geeigneten Anzeigefenster durch eine einfache Betätigung anzeigen.Fig. 22 shows the sequence of selecting a display window suitable for the object and displaying the illustrated step at step #5600. At step #650, the parameter n is set to 1. At step #660, the window level and window width corresponding to the n-th object are read from the window memory in the controller 9 and transferred to the display 4. As a result, the image is displayed so that the n-th object is most clearly visible. If the Selector switch 10 is pressed at step #670, the parameter n is incremented at step #680. At step #690, the incremented value of n is compared with the number m of objects already stored in advance; if n is equal to or smaller than m, the flow returns to step #660, and the image is displayed through the n-th display window. If n reaches the value of m, the flow returns to step #650, and n is reset to the value 1. This means that the display window for the first object is set again when selector switch 10 is pressed after the display window for the m-th object has been set. The display windows for the respective objects are set sequentially each time switch 10 is pressed during display of the image. Therefore, the user can display the image with the display window appropriate for the object by a simple operation.
In Übereinstimmung mit dem dritten Ausführungsbeispiel kann gemäß der vorstehenden Erläuterung das optimale Anzeigefenster leicht für jedes Beobachtungsobjekt in einem Bild eingestellt werden.According to the third embodiment, according to the above explanation, the optimal display window can be easily set for each observation object in an image.
Im folgenden wird ein viertes Ausführungsbeispiel der vorliegenden Erfindung beschrieben. Fig. 23 zeigt eine schematische Ansicht, in der eine Abfolge bei der Bilderzeugung in dem Magnetresonanzabbildungsgerät dargestellt ist. Bei einem Schritt #700 werden rohe Magnetresonanzbilddaten gewonnen. Die gewonnenen Bilddaten werden bei einem Schritt #710 korrigiert, und es werden die korrigierten Bilddaten bei einem Schritt #720 zu einem Bild, zum Beispiel mit Hilfe einer zweidimensionalen Fourier-Transformation, rekonstruiert. Beim einem Schritt #730 wird ein Bildelementwert der rekonstruierten Bilddaten in einem Magnetresonanzbildwert mit Hilfe einer Kontrastskale umgewandelt, das heißt es wird das rekonstruierte Bild in ein Magnetresonanzbild umgewandelt. Das rekonstruierte Bild ein digitales Bild, das durch die Bildelemente gebildet ist, die jeweils den Bildelementwert aufweisen, und das die gleiche Matrixgröße wie diejenige des Magnetresonanzbilds aufweist. Der Bildelementwert des rekonstruierten Bilds verändert sich innerhalb eines großen Bereichs in Abhängigkeit von dem Objekt und der Abtastbedingung. Das Magnetresonanzbild wird auf diese Weise durch die Magnetresonanzbildwerte innerhalb des Bereichs von -1000 bis 2000 (oder 4000) gebildet, die durch Umwandlung der Bildelementwerte des rekonstruierten Bilds mit Hilfe der Kontrastskala erhalten worden sind.A fourth embodiment of the present invention will be described below. Fig. 23 is a schematic view showing a sequence of image formation in the magnetic resonance imaging apparatus. At step #700, raw magnetic resonance image data is obtained. The obtained image data is corrected at step #710, and the corrected image data is reconstructed into an image using, for example, a two-dimensional Fourier transform at step #720. At step #730, a pixel value of the reconstructed image data is converted into a magnetic resonance image value using a contrast scale, that is, the reconstructed image is converted into a magnetic resonance image. The reconstructed image is a digital image formed by the pixels each having the pixel value and having the same matrix size as that of the magnetic resonance image. The pixel value of the reconstructed image changes within a wide range depending on the object and the scanning condition. The Magnetic resonance image is thus formed by the magnetic resonance image values within the range of -1000 to 2000 (or 4000) obtained by converting the pixel values of the reconstructed image using the contrast scale.
Die Konstrastskala wird gemäß der nachstehenden Darstellung generiert:The contrast scale is generated as shown below:
Y = pX + q ... (10)Y = pX + q ... (10)
Hierbei bezeichnet Y den Magnetresonanzbildwert, X den Bildelementwert des rekon struierten Bilds, und p und q jeweils die Konstanten. Bei diesem Ausführungsbeispiel werden die Konstanten p und q der Kontrastskala in Abhängigkeit von dem rekonstruierten Bild so festgelegt, daß der Magnetresonanzbildwert standardisiert ist. Ein Blockschaltbild des vierten Ausführungsbeispiels ist das gleiche wie dasjenige bei dem dritten Ausführungsbeispiel, und ist daher nicht gezeigt.Here, Y denotes the magnetic resonance image value, X the pixel value of the reconstructed image, and p and q are the constants, respectively. In this embodiment, the constants p and q of the contrast scale are set depending on the reconstructed image so that the magnetic resonance image value is standardized. A block diagram of the fourth embodiment is the same as that of the third embodiment, and is therefore not shown.
Ein schematischer Arbeitsablauf bei dem vierten Ausführungsbeispiel wird nachstehend unter Bezugnahme auf Fig. 25 beschrieben. Bei einem Schritt #750 wird ein rekonstruiertes Bilddatum bzw. werden die Daten eines rekonstruierten Bilds aus dem Bildspeicher 1 ausgelesen. Bei einem Schritt #760 wird ein Histogramm, das eine Frequenz oder Häufigkeit der Bildelementwerte angibt, auf der Grundlage der rekonstruierten Bilddaten gebildet. Wie in Fig. 18 gezeigt ist, weist dieses Histogramm eine Vielzahl von Spitzen P1, P2 und P3 auf. Der Wert "A" wird bei dem Schritt #770 gebildet, und es wird der Wert MVP für jedes Objekt bei einem Schritt #780 gebildet. Bei einem Schritt #790 werden ein geeigneter Fensterpegel und eine geeignete Fensterbreite für jedes Objekt (jeden Wert MVPn) ermittelt. Bei einem Schritt #800 werden die rekonstruierten Bilddaten für jedes Objekt anhand des festgelegten Fensterpegels und der festgelegten Fensterbreite, die für das Objekt geeignet sind, angezeigt. Bei einem Schritt #810 beobachtet ein Benutzer das angezeigte Bild und stellt den Fensterpegel und die Breite unter Verwendung des Fensterschalters 3 fein ein, falls dies notwendig ist. Die bislang beschriebene Verarbeitung ist exakt die gleiche wie diejenige ab den Schritten #5100 bis #5700 bei dem dritten, in Fig. 17 gezeigten Ausführungsbeispiel.A schematic operation in the fourth embodiment will be described below with reference to Fig. 25. At step #750, a reconstructed image data is read out from the image memory 1. At step #760, a histogram indicating a frequency of the pixel values is formed based on the reconstructed image data. As shown in Fig. 18, this histogram has a plurality of peaks P1, P2 and P3. The value "A" is formed at step #770, and the value MVP for each object is formed at step #780. At step #790, an appropriate window level and window width are determined for each object (each value MVPn). At step #800, the reconstructed image data for each object is displayed based on the set window level and window width appropriate for the object. At step #810, a user observes the displayed image and finely adjusts the window level and width using the window switch 3 if necessary. The processing described so far is exactly the same as that from steps #5100 to #5700 in the third embodiment shown in Fig. 17.
Bei einem Schritt #820 werden, wie in Fig. 24 gezeigt ist, die Konstanten p und q der Kontrastskala (Umwandlungsfunktion zur Umwandlung von Bildelementwerten in Magnetresonanzbildwerte) auf der Grundlage des Fensterpegels WL und der Fensterbreite WW so festgelegt, daß die obere Grenze WL + (WW/2) der Breite des Anzeigefensters in einen Magnetresonanzbildwert U umgewandelt wird, und die untere Grenze WL - (WW/2) der Fensterbreite in einen Magnetresonanzbildwert L umgewandelt wird. Durch Einsetzen von U WL + (WW/2) und von L = WL - (WW/2) in die Gleichung (10) werden p und q in der folgenden Weise berechnet:At step #820, as shown in Fig. 24, the constants p and q of the contrast scale (conversion function for converting picture element values into MRI values) are set based on the window level WL and the window width WW so that the upper limit WL + (WW/2) of the width of the display window is converted into MRI value U, and the lower limit WL - (WW/2) of the window width is converted into MRI value L. By substituting U WL + (WW/2) and L = WL - (WW/2) into the equation (10), p and q are calculated in the following manner:
p = (U - L)/WW ...(11)p = (U - L)/WW ...(11)
q = {(U + L)/2} - {WL(U - L)/WW} ... (12)q = {(U + L)/2} - {WL(U - L)/WW} ... (12)
In einem Schritt #830 wird der Bildelementwert des rekonstruierten Bilds unter Verwendung der berechneten Konstanten p und q der Kontrastskala (Umwandlungsfunktion) in den Wert MRI anhand der Gleichung (10) umgewandelt, um hierdurch das Magnetresonanzbild zu erzielen. In diesem Fall sind die meisten Magnetresonanzbildwerte eines effektiven Abschnitts (des zu beobachtenden Abschnitts) des Magnetresonanzbilds zwischen der oberen Grenze WL + (WW/2) des Anzeigefensters und der unteren Grenze WL - (WW/2) enthalten. Durch Umwandlung des Bildelementwerts des rekonstruierten Bilds in den Magnetresonanzbildwerten mit Hilfe der Kontrastskala wird daher ein Magnetresonanzbild erlialten, bei dem der dynamische Bereich des Magnetresonanzbildwerts für einen zu beobachtenden Abschnitt zwischen U und L liegt, und es ist der Magnetresonanzbildwert auf den Bereich der zu beobachtenden Werte standardisiert. Da der Magnetresonanzbildwert keine absolute Bedeutung besitzt, kann er in dieser Weise standardisiert werden. Damit der dynamische Bereich des Magnetresonanzbilds nicht eingeschränkt wird, wird der Bereich zwischen U und L vorzugsweise so breit wie möglich eingestellt.In a step #830, the pixel value of the reconstructed image is converted into the MRI value using the calculated constants p and q of the contrast scale (conversion function) to thereby obtain the magnetic resonance image. In this case, most of the magnetic resonance image values of an effective portion (the portion to be observed) of the magnetic resonance image are included between the upper limit WL + (WW/2) of the display window and the lower limit WL - (WW/2). Therefore, by converting the pixel value of the reconstructed image into the magnetic resonance image values using the contrast scale, a magnetic resonance image is obtained in which the dynamic range of the magnetic resonance image value for a portion to be observed is between U and L, and the magnetic resonance image value is standardized to the range of the values to be observed. Since the magnetic resonance image value has no absolute meaning, it can be standardized in this way. In order not to limit the dynamic range of the magnetic resonance image, the range between U and L is preferably set as wide as possible.
Bei einem Schritt #840 wird das Magnetresonanzbild in dem Bildspeicher 1 gespeichert. Damit das gespeicherte Magnetresonanzbild einer Helligkeit angezeigt werden kann, die für die Betrachtung geeignet ist, wird der Fensterpegel WL auf (U + L)/2 eingestellt, und es wird die Fensterbreite WW auf U - L eingestellt. Als Ergebnis kann das gleiche Anzeigefenster für alle Bilder eingestellt werden, und es ist nicht notwendig, die Anzeigebilder für alle jeweiligen Bilder jeweils festzulegen. Dies bedeutet, daß es ausreichend ist, das Anzeigefenster einmal einzustellen, da die Magnetresonanzbildwerte standardisiert werden. Der Vorgang der Einstellung des Fensters, der für die Anzeige des Bilds auszuführen ist, ist vereinfacht, wodurch die Arbeitsbelastung des Benutzers verringert ist.At step #840, the magnetic resonance image is stored in the image memory 1. In order to display the stored magnetic resonance image at a brightness suitable for observation, the window level WL is set to (U + L)/2, and the window width WW is set to U - L. As a result, the same display window can be set for all images, and it is not necessary to set the display images for all respective images respectively. This means that it is sufficient to set the display window once because the magnetic resonance image values are standardized. The window setting process to be performed for displaying the image is simplified, thereby reducing the user's workload.
Weiterhin ist es gemäß dem vorliegenden Ausführungsbeispiel auch einfach, das Anzeigefenster einzustellen, um hierdurch die Konstanten der Kontrastskala festzulegen.Furthermore, according to the present embodiment, it is also easy to adjust the display window to thereby set the constants of the contrast scale.
Auch wenn bei dem vierten Ausführungsbeispiel die Anzeigefenster für die jeweiligen Objekte eingestellt werden, kann ein Anzeigefenster für ein Bild ohne Berücksichtigung der Objekte in dem Bild eingestellt werden, wie es auch bei dem zweiten Ausführungsbeispiel der Fall ist. Weiterhin kann bei dem vierten Ausführungsbeispiel die Bildqualität unter Verwendung der Bewertungsfunktion berechnet werden, wie es auch bei dem ersten Ausführungsbeispiel der Fall ist.Although the display windows are set for the respective objects in the fourth embodiment, a display window for an image can be set without considering the objects in the image, as in the second embodiment. Furthermore, in the fourth embodiment, the image quality can be calculated using the evaluation function, as in the first embodiment.
Ein fünftes Ausführungsbeispiel der vorliegenden Erfindung wird im folgenden erläutert. Dieses Ausführungsbeispiel bezieht sich auf eine Verbesserung hinsichtlich des neuronalen Netzwerks. Bei den vorstehend angegebenen Ausführungsbeispielen wird ein neuronales Netzwerk zur Ermittlung der Bildqualität eingesetzt. Jedoch kann keine ausreichende Präzision erzielt werden, wenn lediglich ein neuronales Netzwerk eingesetzt wird. Bei dem fünften Ausführungsbeispiel wird daher eine Anzahl von neuronalen Netzwerken aufeinanderfolgend zur Erzielung einer ausreichenden Präzision eingesetzt.A fifth embodiment of the present invention will be explained below. This embodiment relates to an improvement in the neural network. In the above embodiments, a neural network is used to determine the image quality. However, sufficient precision cannot be achieved if only one neural network is used. In the fifth embodiment, therefore, a number of neural networks are used sequentially to achieve sufficient precision.
Das Blockschaltbild für das fünfte Ausführungsbeispiel ist das gleiche wie dasjenige bei dem zweiteri Ausführungsbeispiel, das in Fig. 10 gezeigt ist, und ist daher nicht dargestellt. Wie in Fig. 26 gezeigt ist, ist das neuronale Netzwerk 5 durch ein Netzwerk aus zwei Stufen gebildet, das ein erstes neuronales Netzwerk 5a und ein zweites neuronales Netzwerk 5b enthält, wobei alle jeweiligen Bewertungsmerkmaldaten in die Netzwerke 5a und 5b eingegeben werden. Die beiden Netzwerke weisen unterschiedliche Genauigkeitspegel hinsichtlich der berechneten Bildqualität auf.The block diagram for the fifth embodiment is the same as that of the second embodiment shown in Fig. 10 and is therefore not shown. As shown in Fig. 26, the neural network 5 is formed by a network of two stages comprising a first neural network 5a and a second neural network 5b, wherein each respective evaluation feature data is input to the networks 5a and 5b. The two networks have different levels of accuracy with respect to the calculated image quality.
Eine Arbeitsweise des fünften Ausführungsbeispiels wird im folgenden beschrieben. Ein schematischer Ablauf ist der gleiche wie derjenige bei dem zweiten Ausführungsbeispiel, das in Fig. ii gezeigt ist. Fig. 27 zeigt ein Ablaufdiagramm, das die Verarbeitung bei der Ermittlung eines optimalen Anzeigefensters unter Verwendung des neuronalen Netzwerks veranschaulicht. Bei einem Schritt #1010 werden anfängliche Werte WLo und WWo für den Fensterpegel und die Fensterbreite berechnet. In gleicher Weise wie bei den vorstehend erläuterten Ausfiihrungsbeispielen sind die anfänglichen Werte WLo = MVP und WWo = 2x (MVP - A). Bei einem Schritt #1020 werden die anfänglichen Werte als die Kandidaten für das Anzeigefenster gesetzt, so daß gilt: WLc = WLo und WWc = WWo. Bei einem Schritt #1030 wird WWo/2 als ein anfänglicher Wert für die Größe der Änderung Δ WW des Anzeigefensters gesetzt. Bei einem Schritt #1040 wird eine 1 in einem Parameter NN eingestellt, der die Stufe des Netzwerks angibt. Bei einem Schritt #1050 wird ein Endbedingungswert γ T(NN) für eine NN-te Stufe des neuronalen Netzwerks aus einer Tabelle herausgegriffen und so eingestellt, daß er gleich γ ist. Fig. 28 zeigt die Tabelle. Bei diesem Ausführungsbeispiel wird die Suche nach dem optimalen Anzeigefenster dadurch ausgeführt, daß die Größe der Änderung sequentiell verringert wird. Wenn die Größe der Änderung so verringert wird, daß sie einen vorbestimmten Wert oder weniger entspricht, wird die Suche nach dem optimalen Anzeigefenster beendet. Daher ist der Endbedingungswert für die erste Stufe des neuronalen Netzwerks der größte, und es sind die anderen Endbedingungswerte in der absteigenden Reihenfolge geringer.An operation of the fifth embodiment will be described below. A schematic flow is the same as that of the second embodiment shown in Fig. ii. Fig. 27 is a flow chart showing the processing in determining an optimal display window using the neural network. At a step #1010, initial values WLo and WWo are calculated for the window level and the window width. In the same manner as in the above-mentioned embodiments, the initial values WLo = MVP and WWo = 2x (MVP - A). At a step #1020, the initial values are set as the candidates for the display window such that WLc = WLo and WWc = WWo. At a step #1030, WWo/2 is set as an initial value for the amount of change ΔWW of the display window. At step #1040, 1 is set in a parameter NN indicating the stage of the network. At step #1050, an end condition value γ T(NN) for an NN-th stage of the neural network is taken out of a table and set to be equal to γ. Fig. 28 shows the table. In this embodiment, the search for the optimal display window is carried out by sequentially decreasing the amount of change. When the amount of change is decreased to be equal to a predetermined value or less, the search for the optimal display window is terminated. Therefore, the end condition value for the first stage of the neural network is the largest, and the other end condition values are smaller in the descending order.
Bei einem Schritt #1060 wird die Bildqualität unter Verwendung der NN-ten Stufe des neuronalen Netzwerks berechnet, und es werden der optimale Fensterpegel und die optimale Fensterbreite für die Anzeige des Fensters in Abhängigkeit von der Bildqualität berechnet. In diesem Fall werden die anfänglichen Werte für den Kandidaten für das Anzeigefenster, die bei der Verarbeitung eingesetzt werden, die von der ersten Stufe des neuronalen Netzwerks ausgeführt wird, bei einem in Fig. 27 dargestellten Schritt #1020 eingestellt, und es sind die anfänglichen Werte für den Kandidaten für das Anzeigefenster, der bei der Verarbeitung eingesetzt wird, die von der nachfolgenden Stufe des neuronalen Netzwerk ausgeführt wird, das Anzeigefenster, das in der vorhergehenden Stufe des neuronalen Netzwerks ermittelt worden ist. Das Anzeigefenster wird mit einer gröbsten Präzision in der ersten Stufe 5a des neuronalen Netzwerks ermittelt, und es wird in der zweiten, der dritten und der nachfolgenden Stufe der neuronalen Netzwerke mit feinerer Präzision festgelegt. Diese Verarbeitung wird im weiteren Text in größeren Einzelheiten erläutert.At step #1060, the image quality is calculated using the NN-th stage of the neural network, and the optimal window level and window width for displaying the window are calculated depending on the image quality. In this case, the initial values for the candidate for the Display windows used in the processing performed by the first stage of the neural network are set at a step #1020 shown in Fig. 27, and the initial values for the candidate display window used in the processing performed by the subsequent stage of the neural network are the display window determined in the previous stage of the neural network. The display window is determined with a coarsest precision in the first stage 5a of the neural network, and it is set with finer precision in the second, third, and subsequent stages of the neural networks. This processing will be explained in more detail later.
Bei einem Schritt #1070 wird der Parameter NN so inkrementiert, daß er das neuronale Netzwerk der nächsten Stufe (nächste Stufe des neuronalen Netzwerks) bezeichnet. Bei einem Schritt #1080 wird ermittelt, ob die Verarbeitung für alle neuronalen Netzwerke ausgeführt worden ist. Falls die Verarbeitung nicht für alle neuronalen Netzwerke bei dem Schritt #1080 ausgeführt worden ist, kehrt der Ablauf zu dem Schritt #1050 zurück. Falls die Verarbeitung für alle neuronalen Netzwerke bei dem Schritt #1080 ausgeführt worden ist, wird das Anzeigefenster, das zu diesem Zeitpunkt erhalten worden ist, als das optimale Anzeigefenster festgelegt.At step #1070, the parameter NN is incremented to designate the next-stage neural network (next-stage neural network). At step #1080, it is determined whether the processing for all the neural networks has been executed. If the processing for all the neural networks has not been executed at step #1080, the flow returns to step #1050. If the processing for all the neural networks has been executed at step #1080, the display window obtained at that time is set as the optimal display window.
Die Verarbeitung zur Erzielung der Bildqualität unter Verwendung des neuronalen Netzwerks 5 bei dem Schritt #1060 wird nachfolgend in größeren Einzelheiten unter Bezugnahme auf Fig. 29 beschrieben. Bei einem Schritt #1110 wird die Bildqualität Qc des Bilds berechnet, das durch das Anzeigefenster angezeigt wird, das die Kandidatenwerte WLc und WWc enthält. Diese Bildqualität Qc kann in der gleichen Weise wie bei dem zweiten Ausführungsbeispiel, das in Fig. 14 gezeigt ist, erhalten werden. Bei einem Schritt #1120 werden, in ähnlicher Weise wie bei dem zweiten Ausführungsbeispiel, der Fensterpegel oder die Fensterbreite oder diese beiden Größen um ± Δ WW mit Bezug zu den Kandidatenwerten ge;ndert, und es werden die Bildqualitäten Qd1 bis Qd8 der Bilder, die durch die geänderten Anzeigefenster angezeigt werden, berechnet. Die Größe der Änderung ist nicht auf den Wert Δ WW begrenzt. Bei einem Schritt #1130 wird eine maximale Bildqualität Qd aus den Bildqualitäten Qd1 bis Qd8 ermittelt, und es werden der Fensterpegel WL und die Fensterbreite WW, die der Bildqualität Qd entsprechen, jeweils als WLd bzw. als WWd festgelegt. Bei einem Schritt #1140 wird die Bildqualität Qc, die mit den Kandidatenwerten für das Anzeigefenster erhalten worden ist, mit der Bildqualität Qd, die bei Anzeigefensterwerten, die gegenüber den Kandidatenwerten geringfügig verschoben sind, erhalten worden ist, verglichen, um zu überprüfen, ob Qc kleiner ist als Qd. Falls sich bei dem Schritt #1140 das Ergebnis ja einstellt, ist das Anzeigefenster, das der Bildqualität Qd entspricht, geeigneter als der Kandidat für das Anzeigefenster. Daher werden bei einem Schritt #1150 WLc = WLd, WWc = WWd und Qc = Qd gesetzt. Dies bedeutet, daß dies einem Ereignis entspricht, bei dem sich die Kandidatenwerte für den Fensterpegel und die Fensterbreite zu denjenigen Werten bewegen, die der Bildqualität Qd entsprechen, wie es in Fig. 9 gezeigt ist. Bei einem Schritt #1160 wird die Größe der Änderung Δ WW mit β multipliziert, und es kehrt der Ablauf zu dem Schritt #1120 zurück. In diesem Fall ist 1 ≤ β, das heißt es wird die Größe der Änderung erhöht.The processing for obtaining the image quality using the neural network 5 at step #1060 will be described in more detail below with reference to Fig. 29. At step #1110, the image quality Qc of the image displayed through the display window containing the candidate values WLc and WWc is calculated. This image quality Qc can be obtained in the same manner as in the second embodiment shown in Fig. 14. At step #1120, in a similar manner to the second embodiment, the window level or the window width or both of these sizes are changed by ± Δ WW with respect to the candidate values, and the image qualities Qd1 to Qd8 of the images displayed through the changed display windows are calculated. The amount of change is is not limited to the value ΔWW. At a step #1130, a maximum image quality Qd is determined from the image qualities Qd1 to Qd8, and the window level WL and the window width WW corresponding to the image quality Qd are set as WLd and WWd, respectively. At a step #1140, the image quality Qc obtained with the candidate values for the display window is compared with the image quality Qd obtained with display window values slightly shifted from the candidate values to check whether Qc is smaller than Qd. If the result at step #1140 is yes, the display window corresponding to the image quality Qd is more suitable than the candidate for the display window. Therefore, at a step #1150, WLc = WLd, WWc = WWd, and Qc = Qd are set. That is, this corresponds to an event where the candidate values for the window level and the window width move to the values corresponding to the image quality Qd as shown in Fig. 9. At step #1160, the amount of change ΔWW is multiplied by β, and the flow returns to step #1120. In this case, 1 ≤ β, that is, the amount of change is increased.
Falls sich bei dem Schritt #1140 das Ergebnis nein ergibt, werden die Kandidatenwerte als geeignete Werte festgelegt, und es wird bei einem Schritt #1170 überprüft, ob Δ WW größer ist als y. In diesem Fall ist γ eine Konstante, die dazu dient, das Ende zu ermitteln, und die aus der in Fig. 28 gezeigten Tabelle ausgelesen worden ist. Falls sich bei dem Schritt #1170 nein ergibt, wird bestimmt, daß die Kandidatenwerte WLc und WWc der geeignete Fensterpegel WL und die geeignete Fensterbreite WW sind und abschließend festgelegt sind, und es wird die Bearbeitung abgeschlossen. Falls sich bei dem Schritt #1170 das Ergebnis ja ergibt, wird die Größe der Änderung Δ WW in einem Schritt #1180 mit α multipliziert, um hierdurch eine Ermittlung mit einer kleineren Größe der Änderung auszuführen. In diesem Fall ist α eine Konstante, die die Bedingungen erfüllt: 0 < α < 1 und 0 < α x β < 1. Bei einem Schritt #1190 wird überprüft, ob Δ WW kleiner ist als γ oder nicht. Falls sich bei dem Schritt #1190 nein ergibt, kehrt der Ablauf direkt zu dem Schritt #1120 zurück. Falls sich bei dem Schritt #1190 ja ergibt, wird γ als die Größe der Änderung Δ WW bei einem Schritt #1200 gesetzt, und es kehrt der Ablauf zu dem Schritt #1120 zurück. Auf diese Weise kann bei dem fünften Ausführungsbeispiel ein optimales Anzeigefenster anhand der Bildqualität mit Hilfe einer Hügelanstiegsmethode erhalten werden.If NO in step #1140, the candidate values are set as appropriate values, and it is checked at step #1170 whether ΔWW is larger than y. In this case, γ is a constant used to determine the end, which is read from the table shown in Fig. 28. If NO in step #1170, it is determined that the candidate values WLc and WWc are the appropriate window level WL and the appropriate window width WW and are finally set, and the processing is terminated. If YES in step #1170, the amount of change ΔWW is multiplied by α in step #1180 to thereby perform a determination with a smaller amount of change. In this case, α is a constant satisfying the conditions: 0 < α < 1 and 0 < α x β. < 1. At step #1190, it is checked whether Δ WW is smaller than γ or not. If the result is no at step #1190, the flow returns directly to step #1120. If the result is yes at step #1190, γ is set as the amount of change Δ WW at step #1200, and the flow returns to step #1120. In this way, in the fifth embodiment, an optimum display window can be obtained based on the image quality by using a hill climbing method.
Im folgenden wird das Lernen seitens der neuronalen Netzwerke 5a und 5b beschrieben. Das neuronale Netzwerk 5a der ersten Stufe führt einen Lernvorgang durch, wie er bereits bei dem zweiten Ausführungsbeispiel beschrieben worden ist. Bei den neuronalen Netzwerken der zweiten und der nachfolgenden Stufen wird jedoch zur weiteren Verbesserung der Genauigkeit ein Abtastschritt für das Anzeigefenster bei dem Lernen in einem Abschnitt, der eine hohe Bildqualität aufweist, feiner eingestellt, so daß die Netzwerke unterschiedliche Lerndaten lernen. Aus diesem Grund lernt das neuronale Netzwerk der zweiten Stufe mittels eines feinen Teilungsabstands lediglich in einem Abschnitt, der nahe bei WLG und WWG liegt, die durch einen erfahrenen Benutzer eingestellt worden sind. Es ist anzumerken, daß dann, wenn ein einzelnes Netzwerk dazu veranlaßt würde, mit Hilfe eines feinen Teilungsabstands zu lernen, nicht nur die Lerneffizienz verringert würde, sondern auch Fehler bei dem Lernen nicht verringert werden könnten, da ein dynamischer Bereich des Bilds in einem Abschnitt, der nahe bei den eingestellten Werten WLG und WWG liegt, eingeschränkt ist. Daher ist dieses Lernverfahren nicht praxisgerecht. Die Lernmethode bei den Netzwerken der zweiten und der nachfolgenden Stufe ist das gleiche wie dasjenige bei dem Netzwerk der ersten Stufe, wobei jedoch Lerndaten gebildet werden, die im weiteren Text erläutert werden. Das Verfahren zur Erzeugung der Lerndaten ist jedoch nicht auf dasjenige bei dem vorliegenden Ausführungsbeispiel beschränkt.The learning by the neural networks 5a and 5b will be described below. The neural network 5a of the first stage performs a learning operation as already described in the second embodiment. However, in the neural networks of the second and subsequent stages, in order to further improve the accuracy, a sampling pitch for the display window in the learning is set more finely in a section having high image quality so that the networks learn different learning data. For this reason, the neural network of the second stage learns by a fine pitch only in a section close to WLG and WWG set by an experienced user. It is to be noted that if a single network were made to learn using a fine pitch, not only would the learning efficiency be reduced, but also errors in learning could not be reduced because a dynamic range of the image is limited in a portion close to the set values WLG and WWG. Therefore, this learning method is not practical. The learning method in the second and subsequent stage networks is the same as that in the first stage network, but training data is formed, which will be explained later. However, the method for generating the training data is not limited to that in the present embodiment.
Ein Bild, das durch das Netzwerk der ersten Stufe gelernt wird, wird ausgewählt, und es wird eine Gesamtheit von 25 Punkten (WLS, WWS) als die Anzeigefenster für das ausgewählte Bild unter Verwendung von WLG -WWG/4, WLG - WWG/B, WLG, WLG + WWG/3 und WLG + WWG/4 als dem Fensterpegel WLS, und von WWG - WWG/4, WWG - WWG/8, WWG, WWG + WWGIB und WWG + WWG/4 als die Fensterbreite WWS abgelastet. In gleichartiger Weise wie bei dem zweiten Ausführungsbeispiel werden fiinf Bewertungsmerkmaldaten, das heißt der Helligkeitswert MVPG, der Helligkeitswert AG, die Fläche, die den Helligkeitswert 12 aufweist, die Fläche, die den Helligkeitswert 16,5 aufweist, und die Helligkeitsbalance für jedes der 25 Fenster (WLS, WWS) bei den in Fig. 14 gezeigten Schritten #510 bis #550 berechnet und als die Eingangsdaten für das Lernen benutzt. Lehrerdaten im Hinblick auf diese Fenster (WLS, WWS) werden gemäß der Darstellung in Fig. 30 so definiert, daß 25 Sätze von Lerndaten gebildet sind. Nachfolgend werden die 25 Sätze von Lerndaten für eine beliebige Anzahl von Bildern gebildet. Alle die gebildeten Lerndaten werden wiederholt solange gelernt, bis der Wert der Fehler unter einen vorbestimmten Wert verringert ist.An image learned by the first-stage network is selected, and a total of 25 points (WLS, WWS) are sampled as the display windows for the selected image using WLG -WWG/4, WLG - WWG/B, WLG, WLG + WWG/3, and WLG + WWG/4 as the window level WLS, and WWG - WWG/4, WWG - WWG/8, WWG, WWG + WWGIB, and WWG + WWG/4 as the window width WWS. In a similar manner to the second embodiment, five evaluation feature data, that is, the brightness value MVPG, the brightness value AG, the area having the brightness value 12, the area having the brightness value 16.5, and the brightness balance for each of the 25 windows (WLS, WWS) is calculated at steps #510 to #550 shown in Fig. 14 and used as the input data for learning. Teacher data with respect to these windows (WLS, WWS) are defined as shown in Fig. 30 so that 25 sets of learning data are formed. Subsequently, the 25 sets of learning data are formed for an arbitrary number of images. All the formed learning data are repeatedly learned until the value of the errors is reduced below a predetermined value.
Wenn eine Mehrzahl von neuronalen Netzwerken eingesetzt wird, sind die Bildqualitäten, die von den jeweiligen Netzwerken erzeugt werden, im allgemeinen auch bei dem gleichen Anzeigefenster unterschiedlich, so daß sich ein Problem hinsichtlich einer sogenannten Fehlanpassung stellt. Bei diesem Ausführungsbeispiel tritt jedoch kein solches Problem auf, da die neuronalen Netzwerke der Mehrzahl von Stufen aufeinanderfolgend für die Erzeugung der Bildqualität eingesetzt werden und die Suche nach dem optimalen Anzeigefenster unabhängig durchgeführt wird, indem ein unmittelbar vorhergehendes Suchergebnis als ein anfänglicher Wert für die nächste Suche benutzt wird. Auch wenn die Anzahl von Stufen der Netzwerke bei dem dargestellten Ausführungsbeispiel gleich 2 ist, kann auch ein System mit drei oder mehr Netzwerken in gleichartiger Weise in der Praxis benutzt werden, indem ein feinerer Abtastabstand eingestellt wird.When a plurality of neural networks are used, the image qualities produced by the respective networks are generally different even for the same display window, so that a problem of so-called mismatch arises. However, in this embodiment, no such problem occurs because the neural networks of the plurality of stages are sequentially used for the image quality production and the search for the optimum display window is independently performed by using an immediately preceding search result as an initial value for the next search. Although the number of stages of the networks is 2 in the illustrated embodiment, a system having three or more networks can also be used in practice in a similar manner by setting a finer sampling pitch.
Gemäß dem fünften Ausführungsbeispiel lernt, wie vorstehend beschrieben, eine Mehrzahl von neuronalen Netzwerken Daten mit einer groben Präzision und Daten mit einer feiner Präzision, und es werden die Netzwerke stufenweise benutzt, um hierbei ein optimales Anzeigefenster zu erhalten. Daher kann das Anzeigefenster für ein klareres Bild eingestellt werden. Bei dem fünften Ausführungsbeispiel wird eine Mehrzahl vön Netzwerken, die die Ausgestaltung gemäß dem zweiten Ausführungsbeispiel aufweisen, eingesetzt. Jedoch kann auch eine Vielzahl von Netzwerken, die die Ausgestaltung gemäß dem dritten oder dem vierten Ausführungsbeispiel besitzen, verwendet werden.According to the fifth embodiment, as described above, a plurality of neural networks learn data with a coarse precision and data with a fine precision, and the networks are used step by step to thereby obtain an optimal display window. Therefore, the display window can be adjusted for a clearer image. In the fifth embodiment, a plurality of networks having the configuration according to the second embodiment are used. However, a plurality of networks having the configuration according to the third or fourth embodiment may also be used.
Im folgenden werden Lehrerdaten ftir den Einsatz bei dem in der Fig. 15 oder Fig. 30 gezeigten neuronalen Netzwerk beschrieben. Die Lehrerdaten stellen einen Index dar, der die Klarheit des Bilds bezeichnet, das mittels eines gegebenen Fensters angezeigt wird. Es ist notwendig, die Lehrerdaten so zu definieren, daß sie die Klarheit bezeichnen. Daher wird der Unterschied zwischen der Helligkeit eines Bilds, das durch ein Referenz-Anzeigefenster angezeigt wird, bei dem der Benutzer das Getuhl hat, daß das Bild am klarsten angezeigt wird, und einer Helligkeit eines Bilds, das durch das gegebene Anzeigefenster angezeigt wird, bewertet und es werden die Lehrerdaten auf der Grundlage der Bewertung gebildet. Die Bildqualität Qe des Bilds, das durch das gegebene Fenster gezeigt wird, ist daher in folgender Weise definiert:In the following, teacher data for use in the neural network shown in Fig. 15 or Fig. 30 will be described. The teacher data represents an index indicating the clarity of the image displayed by means of a given window. It is necessary to define the teacher data to indicate the clarity. Therefore, the difference between the brightness of an image displayed by a reference display window, where the user feels that the image is displayed most clearly, and a brightness of an image displayed by the given display window is evaluated, and the teacher data is formed based on the evaluation. The image quality Qe of the image displayed by the given window is therefore defined as follows:
Qe = - (K1 x EW) + K2 ... (13)Qe = - (K1 x EW) + K2 ... (13)
Hierbei bezeichnen K1 und K2 jeweils den normalisierten Koeffizienten bzw. den Normie rungskoeffizienten, und EW bezeichnet den Bewertungswert für die Bewertung einer Differenz zwischen dem Bild, das durch das Referenz-Anzeigefenster angezeigt wird, und demjenigen, das durch das gegebene Anzeigefenster angezeigt wird,.Here, K1 and K2 denote the normalized coefficient and the normalization coefficient, respectively, and EW denotes the evaluation value for evaluating a difference between the image displayed by the reference display window and that displayed by the given display window.
EW ist gemäß der nachstehend angegebenen Gleichung definiert. Diese Gleichung repräsentiert einen gewichteten Mittelwert je Bildelement einer quadratischen Summe aus der Differenz zwischen der Helligkeit (Grauskala) des Bilds, das durch das Referenz-Anzeigefenster angezeigt wird, und der Helligkeit (Grauskala bzw. Graustufe) des Bilds, das durch das gegebene Anzeigefenster angezeigt wird. Wenn angenommen wird, daß in der nachstehenden Gleichung W(GSr) = 1 ist, repräsentiert der Zähler der Gleichung eine Quadratsumme einer Differenz zwischen den Grauskalen bzw. Grauwerten der Bildelementwerte. Da der Zähler die Anzahl von Bildelementen repräsentiert, gibt die Größe (Zähler) 1 (Nenner) den Mittelwert je Bildelement an. Jedoch ist die mittlere Helligkeit in einem Bild wichtig, und es übt eine Verschiebung bei den maximalen und minimalen Helligkeitswerten einen beträchtlichen Einfluß aus. Die Gewichtung wird daher im Hinblick auf die Referenzhelligkeit ausgeführt:EW is defined according to the equation given below. This equation represents a weighted average per pixel of a square sum of the difference between the brightness (gray scale) of the image displayed by the reference display window and the brightness (gray scale) of the image displayed by the given display window. Assuming that W(GSr) = 1 in the equation below, the numerator of the equation represents a square sum of a difference between the gray scales of the pixel values. Since the numerator represents the number of pixels, the size (numerator) 1 (denominator) indicates the average per pixel. However, the average brightness in an image is important, and a shift in the maximum and minimum brightness values exerts a considerable influence. The weighting is therefore carried out with respect to the reference brightness:
(EW)² = {Σ W(GSr(x, y)) x (GSs(x, y) - GSr(x, y))²} alle Bildelemente(EW)² = {Σ W(GSr(x, y)) x (GSs(x, y) - GSr(x, y))²} all image elements
/ Σ W (GSr(x, y)) alle Bildelemente ...(14)/ Σ W (GSr(x, y)) all image elements ...(14)
Hierbei bezeichnet GSR(x, y) den Grauskalenwert eines Bildelements (x, y) im Hinblick auf das Referenzfenster, während GSs(x, y) den Grauskalenwert des Bildelements (x, y) mit Bezug zu dem gegebenen Fenster bezeichnet und W(GSr(x, y)) den Gewichtungskoeffizienten in der Grauskala bzw. dem Grauskalenwert GSr bezeichnet.Here, GSR(x, y) denotes the grayscale value of a pixel (x, y) with respect to the reference window, while GSs(x, y) denotes the grayscale value of the pixel (x, y) with respect to the given window and W(GSr(x, y)) denotes the weighting coefficient in the grayscale or the grayscale value GSr.
Wenn die Grauskala durch Werte von 0,5 bis 16,5 repräsentiert ist, ist eine Grauskala GS, die erhalten wird, wenn ein Bildelementwert PV(x, y) durch ein Fenster (WL, WW) angezeigt wird, in folgender Weise gegeben:When the gray scale is represented by values from 0.5 to 16.5, a gray scale GS obtained when a picture element value PV(x, y) is displayed through a window (WL, WW) is given as follows:
GS = 0,5 (wenn PV ≤ WL - (WW/2))GS = 0.5 (if PV ≤ WL - (WW/2))
GS = 16 x (PV - WL)/WW + 8,5 (wenn WL - (WW/2) < PV < WL + (WW/2))GS = 16 x (PV - WL)/WW + 8.5 (if WL - (WW/2) < PV < WL + (WW/2))
GS = 16,5 (wenn WL + (WW/2) ≤ PV) ... (15)GS = 16.5 (if WL + (WW/2) ≤ PV) ... (15)
W(GSr) ist in folgender Weise definiert:W(GSr) is defined as follows:
W(GSR) = 0,1 (wenn GSr ≤ 0,5)W(GSR) = 0.1 (if GSr ≤ 0.5)
W(GSR) = (GSr - 0,5) x 0,9/6,5 + 1 (wenn 0,5 < GSR ≤ 7,0)W(GSR) = (GSr - 0.5) x 0.9/6.5 + 1 (if 0.5 < GSR ≤ 7.0)
W(GSR) = 1,0 (wenn 7,0 < GSr ≤ 10,0)W(GSR) = 1.0 (if 7.0 < GSr ≤ 10.0)
W(GSR) = 0,1 - (GSr - 16,5) x 0,9/6,5 (wenn 10,0 < GSr ≤ 16,5)W(GSR) = 0.1 - (GSr - 16.5) x 0.9/6.5 (if 10.0 < GSr ≤ 16.5)
W(GSR) = 0,1 (wenn 16,5 < GSr) ... (16)W(GSR) = 0.1 (if 16.5 < GSr) ... (16)
Gleichung (14) läßt sich in folgender Weise umschreiben, wenn das Histogramm aus Bildelementwerten benutzt wird:Equation (14) can be rewritten as follows if the histogram of pixel values is used:
(EW)² = {Σ W(GSr(PV)) x (GSs(PV) - GSr(PV))² x H(PV)} alle PVs(EW)² = {Σ W(GSr(PV)) x (GSs(PV) - GSr(PV))² x H(PV)} all PVs
/ Σ {W(GSr(PV) x H(PV)} alle PVs/ Σ {W(GSr(PV) x H(PV)} all PVs
Hierbei bezeichnet PV den Bildelementwert und H(PV) die Frequenz bzw. Häufigkeit des Bildelementwerts PV.Here, PV denotes the pixel value and H(PV) denotes the frequency of the pixel value PV.
Die Bildqualität Qe ist in der vorstehend beschriebenen Weise defmiert. Es ist notwendig, zu zeigen, daß die Bildqualität Qe mit der menschlichen Empfindung übereinstimmt. Da Qe ein Wert ist, der durch EW normiert ist, wird EW mit der menschlichen Empfindung verglichen. Diese Vergleichsmethode findet in folgender Weise statt:The image quality Qe is defined in the manner described above. It is necessary to show that the image quality Qe corresponds to the human perception. Since Qe is a value normalized by EW, EW is compared with the human perception. This comparison method takes place in the following way:
(1) 12 Magnetresonanzbilder von drei Patienten wurden vorbereitet.(1) 12 magnetic resonance images of three patients were prepared.
(2) Ein Radiologe stellt ein optimales Anzeigefenster ein, und es wird das Referenzfenster für jedes Bild bestimmt.(2) A radiologist sets an optimal viewing window and the reference window is determined for each image.
(3) Sechs bis sieben Anzeigefenster werden für jedes Bild eingestellt. Diese Anzeigefenster werden so festgelegt, daß EW so breit wie möglich variiert wird.(3) Six to seven display windows are set for each image. These display windows are set so that EW is varied as widely as possible.
(4) EW wird in jedem eingestellten Fenster berechnet.(4) EW is calculated in each set window.
(5) Ein Bild wird in jedem eingestellten Fenster angezeigt und durch den Radiologen bewertet. Die Bewertungsergebnisse sind in Fig. 31 dargestellt. Unter Bezugnahme auf Fig. 31 ist die Bewertung wie folgt repräsentiert:(5) An image is displayed in each set window and evaluated by the radiologist. The evaluation results are shown in Fig. 31. Referring to Fig. 31, the evaluation is represented as follows:
(1) Ein Anzeigefenster ist geeignet, und das Bild ist klar: ... (1) A display window is suitable and the picture is clear: ...
(2) Ein Anzeigefenster ist tolerierbar, es ist jedoch eine Feineinstellung erforderlich: ...Δ(2) A display window is tolerable, but fine-tuning is required: ...Δ
(3) Ein zu scannendes Objekt kann erkannt werden, ist jedoch unklar: ...X.(3) An object to be scanned can be recognized, but is unclear: ...X.
Wie aus Fig. 31 ersichtlich ist, stimmt EW mit der menschlichen Empfindung überein.As can be seen from Fig. 31, EW is consistent with human perception.
Falls lediglich WL des eingestellten Fensters gegenüber dem Referenzfenster um eine Grauskala verschoben wird, wird EW = 1 erhalten, da alle Werte von GSs(x, y) - GSr(x, y) zu 1 werden. Es wird behauptet, daß ein Mensch imstande ist, einen Unterschied von einer Graustufe (Grauskala bzw. Grauskalenwert) zu erkennen. Anders ausgedi;ickt, wird ein Mensch durch einen Unterschied innerhalb einer Graustufe nicht sehr beeinflußt. Dies erläutert ebenfalls die experimentellen Befunde.If only WL of the adjusted window is shifted by one grayscale compared to the reference window, EW = 1 is obtained, since all values of GSs(x, y) - GSr(x, y) become 1. It is claimed that a person is able to recognize a difference of one gray level (grayscale or grayscale value). In other words, a person is not greatly affected by a difference within one gray level. This also explains the experimental findings.
Falls das neuronale Netzwerk die Bildqualität Qe, die in der Gleichung (13) definiert ist, als die Lehrerdaten lernt, ist es daher möglich, die Beziehung zwischen der Eingabe für das neuronale Netzwerk und der Klarheit des Bilds zu lernen.Therefore, if the neural network learns the image quality Qe defined in equation (13) as the teacher data, it is possible to learn the relationship between the input to the neural network and the clarity of the image.
In diesem Fall sind die Normalisierungskoeffizienten bzw. Standardisierungskoeffizienten K1und K2 in der folgenden Weise festgelegt. Da die Lehrerdaten gleich 0 bis 1 sind, wird nämlich K2 auf 1 festgelegt. Da das System die Bildqualitäten zur Auffindung der höchsten Bildqualität vergleicht, kann die Bildqualität einen relativen Wert haben. Da der Bereich von EW breit ist, wenn der Bereich für das Lernfenster breit ist (das heißt wenn die Abtastung grob ist), wird K1 für das neuronale Netzwerk der ersten Stufe so eingestellt, daß es ungefahr bei 1/10 liegt. Wenn der Bereich für das lernende Fenster klein ist, wird K1 auf ungefähr 1/3 für das Netzwerk der zweiten Stufe gestellt, um hierdurch den dynamischen Bereich zu verbreitern. In jedem Fall wird Qe auf 0 eingestellt, wenn bei der Gleichung (13) ein negativer Wert erhalten wird.In this case, the normalization coefficients K1 and K2 are set in the following manner. Namely, since the teacher data is 0 to 1, K2 is set to 1. Since the system compares the image qualities to find the highest image quality, the image quality may have a relative value. Since the range of EW is wide when the range for the learning window is wide (that is, when the sampling is coarse), K1 is set to be approximately 1/10 for the first-stage neural network. When the range for the learning window is small, K1 is set to be approximately 1/3 for the second-stage network to thereby broaden the dynamic range. In any case, Qe is set to 0 when a negative value is obtained in equation (13).
Die Beziehung zwischen der Bildqualität Qe gemäß der Gleichung (13) und derjenigen gemäß der Gleichung (1) wird nun beschrieben. Die Bildqualität Qe definiert die Klarheit des Bilds auf der Grundlage der Helligkeit des Bilds. Wie vorstehend beschrieben, läßt sich zeigen, daß die Bildqualität Qe mit der menschlichen Empfindung übereinstimmt. Es ist daher angenommen worden, daß Qe korrekt ist. Die Gleichung (1) ermittelt die Klarheit des Bilds auf der Grundlage des Histogramms der Bildelementwerte. Falls die Korrelation zwischen Q und Qe groß ist, ist es möglich, das optimale Anzeigefenster bei dem ersten Ausführungsbeispiel auf der Grundlage der Bildqualität Q zu erhalten. Anders ausgedrückt, ist es notwendig, das System so abzustimmen, daß die Korrelation zwischen Q und Qe verstärkt ist. Da die Bildqualität einen relativen Wert aufweist, muß der normalisierte bzw. standardisierte Koeffizient oder Standardisierungskoeffizient der Gleichung (13) nicht ermittelt werden, wobei aber die Korrelation zwischen Qe und Q benötigt wird. Zu diesem Zweck muß eine Minuskorrelation bzw. negative Korrelation lediglich zwischen Q und EW vorhanden sein. Anders ausgedrückt, muß Q so eingestellt werden oder es muß die Abstimmung so ausgeführt werden, daß die Korrelation zwischen Q und EW verbessert ist.The relationship between the image quality Qe according to equation (13) and that according to equation (1) will now be described. The image quality Qe defines the clarity of the image based on the brightness of the image. As described above, it can be shown that the image quality Qe conforms to human perception. It has therefore been assumed that Qe is correct. The equation (1) determines the clarity of the image based on the histogram of the pixel values. If the correlation between Q and Qe is large, it is possible to obtain the optimum display window in the first embodiment based on the image quality Q. In other words, it is necessary to tune the system so that the correlation between Q and Qe is enhanced. Since the image quality has a relative value, the normalized coefficient or standardization coefficient of equation (13) does not need to be determined, but the correlation between Qe and Q is required. For this purpose, a minus correlation or negative correlation must exist only between Q and EW. In other words, Q must be adjusted or the tuning must be carried out in such a way that the correlation between Q and EW is improved.
Q wurde auf der Grundlage der gegenwärtig eingestellten Werte Fn und Wn berechnet und mit EW verglichen. Fig. 32 zeigt die Vergleichsergebnisse für ein Bild. Wie aus Fig. 32 ersichtlich ist, ist dieser Korrelationskoeffizient gleich -0,89, das heißt es wird eine negative hohe Korrelation erzielt.Q was calculated based on the currently set values Fn and Wn and compared with EW. Fig. 32 shows the comparison results for one image. As can be seen from Fig. 32, this correlation coefficient is equal to -0.89, that is, a negative high correlation is obtained.
Auch wenn die Aufgabe der vorliegenden Erfindung darin besteht, das Fenster nahe bei dem Referenzfenster einzustellen, kann EW benutzt werden, um das Anzeigefenster zu bewerten, das durch das vorhandene System eingestellt worden ist. In diesem Fall wird EW im Hinblick auf das Anzeigefenster, das durch das System eingestellt worden ist, berechnet. Falls das berechnete EW klein ist, kann hieraus geschlossen werden, daß ein Anzeigefenster eingestellt ist, das nahe bei dem Referenzfenster liegt. Falls das berechnete EW größer ist, kann hieraus geschlossen werden, daß ein Anzeigefenster eingestellt ist, das entfernt von dem Anzeigefenster liegt. In diesem Fall kann der Wert von EW in der folgenden Weise betrachtet werden, wie es vorstehend im Hinblick auf die experlmentellen Ergebnisse erläutert worden ist.Although the object of the present invention is to set the window close to the reference window, EW can be used to evaluate the display window set by the existing system. In this case, EW is calculated with respect to the display window set by the system. If the calculated EW is small, it can be concluded that a display window is set that is close to the reference window. If the calculated EW is larger, it can be concluded that a display window is set that is far from the display window. In this case, the value of EW in the be considered in the following manner, as explained above with regard to the experimental results.
Falls EW ≤ 1 ist, ist das Anzeigefenster geeignet und es kann das Bild klar gesehen werden.If EW ≤ 1, the display window is suitable and the image can be seen clearly.
Falls 1 < EW ≤ 2,5 ist, ist das Anzeigefenster tolerierbar, es ist jedoch eine Feineinstellung erforderlich.If 1 < EW ≤ 2.5, the display window is tolerable, but fine-tuning is required.
Falls 2,5 < EW ist, kann das Objekt zwar erkannt, jedoch nur unklar betrachtet werden.If 2.5 < EW, the object can be recognized but can only be viewed unclearly.
Die vorliegende Erfindung ist nicht auf die vorstehend angegebenen Ausführungsbeispiele beschränkt, sondern kann in unterschiedlicher Weise abgeändert werden. Auch wenn das bei den vorstehend erläuterten Ausführungsbeispielen beschriebene Bild ein Magnetresonanzbild ist, muß das Bild lediglich ein digitales Bild sein, ist aber nicht auf ein medizinisches Bild beschränkt. Selbst wenn ein medizinisches Bild als das Bild benutzt wird, kann das Bild auch ein computertomographisches Bild sein und kann durch Analog/Digital- Umwandlung eines analogen Bilds wie etwa eines kernmedizinischen Bilds oder eines fluoroskopischen Röntgenstrahlbilds erhalten werden.The present invention is not limited to the above embodiments, but may be modified in various ways. Although the image described in the above embodiments is a magnetic resonance image, the image may be a digital image only, but is not limited to a medical image. Even if a medical image is used as the image, the image may be a CT image and may be obtained by analog-to-digital conversion of an analog image such as a nuclear medicine image or a fluoroscopic X-ray image.
Abänderungen der vorliegenden Erfindung werden nachstehend beschrieben.Modifications of the present invention are described below.
Bei den vorstehend angegebenen Ausführungsbeispielen werden sowohl der Anzeigefensterpegel als auch die Breite geändert, um eine Anderung in der Bildqualität zu erfassen. Jedoch kann einer der Anzeigefensterpegel und Breiten als der Kandidatenwert festgelegt sein, während der andere geändert wird.In the above embodiments, both the display window level and width are changed to detect a change in image quality. However, one of the display window levels and widths may be set as the candidate value while the other is changed.
Bei den vorstehend angegebenen Ausführungsbeispielen wird das Histogramm für jedes Bild gebildet, und es werden optimale Werte für das Anzeigefenster für jedes Bild festge legt. Jedoch können alle Bilder, die zu der gleichen Gruppe gehören, mit Hilfe des gleichen Anzeigefensters betrachtet werden. Als Beispiel wird das Histogramm anhand einer Mehrzahl von Scheibenbildern bzw. Schnittbildern gebildet, die während eines Volumenabtastvorgangs erhalten worden sind, und es wird das Anzeigefenster auf der Grundlage des Histogramms festgelegt, wodurch eine Mehrzahl von Bildern mit Hilfe des gleichen Anzeigefensters betrachtet werden. In diesem Fall werden die Bilder der gleichen Gruppe mit Hilfe des gleichen Anzeigefensters betrachtet. Darüber hinaus kann das Histogramm aus einer Vielzahl von Bildern dazu benutzt werden, die Lehrerdaten für das neuronale Netzwerk zu bilden. Bilder, die kontinuierlich unter den gleichen Abtastbedingungen erhalten worden sind, werden vorzugsweise mit Hilfe des gleichen Anzeigefensters betrachtet. Daher werden ein Anzeigefenster, das durch einen Benutzer für ein erstes Bild ausgewähll ist (falls eine Feineinstellung ausgeführt worden ist, das Anzeigebild, das nach der Feineinstellung erhalten worden ist) und die entsprechende Bildqualität gespeichert. Falls eine Anzeige eines zweiten Bilds bezeichnet wird, wird die Bildqualität des zweiten Bilds im Hinblick auf das Anzeigefenster für das erste Bild berechnet und mit der Bildqualität des ersten, bereits vorab gespeicherten Bilds verglichen. Falls ein Unterschied zwischen den beiden Bildqualitäten einem vorbestimmten Wert entspricht oder kleiner ist, wird das Anzeigefenster nicht geändert, so daß das zweite Bild mit dem Anzeigefenster für das erste Bild angezeigt wird. Falls die Differenz größer ist als der vorbestimmte Wert, wird das Anzeigefenster für das zweite Bild in Übereinstimmung mit der vorliegenden Erfindung ermittelt, und es wird das Bild mit dem ermittelten Anzeigefenster angezeigt. Damit Bilder, die kontinuierlich bei den gleichen Abtastbedingungen erhalten worden sind, mit dem gleichen Anzeigefenster betrachtet werden können, kann das Anzeigefenster im Hinblick auf das typische Bild (zum Beispiel ein Bild an einer zentralen Position) der gleichen Gmppe ermittelt werden, so daß alle Bilder der gleichen Gruppe mit dem gleichen Anzeigefenster angezeigt werden.In the above embodiments, the histogram is formed for each image and optimum values for the display window are set for each image. However, all images belonging to the same group can be displayed using the the same display window. For example, the histogram is formed from a plurality of slice images obtained during a volume scanning operation, and the display window is set based on the histogram, thereby viewing a plurality of images using the same display window. In this case, the images of the same group are viewed using the same display window. In addition, the histogram from a plurality of images can be used to form the teacher data for the neural network. Images obtained continuously under the same scanning conditions are preferably viewed using the same display window. Therefore, a display window selected by a user for a first image (if fine adjustment has been performed, the display image obtained after the fine adjustment) and the corresponding image quality are stored. If display of a second image is designated, the image quality of the second image is calculated with respect to the display window for the first image and compared with the image quality of the first image already stored in advance. If a difference between the two image qualities is equal to or smaller than a predetermined value, the display window is not changed so that the second image is displayed with the display window for the first image. If the difference is larger than the predetermined value, the display window for the second image is determined in accordance with the present invention and the image is displayed with the determined display window. In order to view images obtained continuously under the same sampling conditions with the same display window, the display window may be determined with respect to the typical image (for example, an image at a central position) of the same group so that all images of the same group are displayed with the same display window.
Auch wenn das Anzeigefenster bei den vorstehend erläuterten Ausführungsbeispielen innerhalb der Breite des Anzeigefensters linear ist, kann es auch nicht linear sein.Although the display window in the embodiments explained above is linear within the width of the display window, it may also be non-linear.
Bei dem dritten Ausführungsbeispiel wird der Magnetresonanzbildwert, von dem angenommen wird, daß er ein Beobachtungsobjekt ist, gesucht, und es wird das Anzeigefenster, das die höchste Bildqualität im Hinblick auf den Magnetresonanzbildwert besitzt, ermittelt. Damit die Berechnungen vereinfacht werden können, können die Bildqualitäten aber auch auf der Grundlage der nachfolgenden Anzeigefenster berechnet werden. Die Anzeigefenster sind ausgehend von demjenigen, das der höchsten Bildqualität entspricht, angeordnet, und es wird das Bild durch das Anzeigefenster von demjenigen, das der höchsten Bildqualität entspricht, und demjenigen, das der Bildqualität in der abnehmenden Reihenfolge entspricht, jedesmal dann angezeigt, wenn der Wählschalter 10 gedrückt wird. Falls ein Benutzer ein vergleichsweise geeignetes Anzeigefenster Fmdet, muß er oder sie in diesem Fall den Fensterschalter 3 betätigen, um das Anzeigefenster in manueller Weise fein einzustellen. Die Anzeigefenster sind in folgender Weise ausgewählt:In the third embodiment, the magnetic resonance image value that is assumed to be an object of observation is searched, and the display window that has the highest image quality in terms of the magnetic resonance image value is determined. However, in order to simplify the calculations, the image qualities may be calculated based on the subsequent display windows. The display windows are arranged from the one corresponding to the highest image quality, and the image is displayed through the display window from the one corresponding to the highest image quality and the one corresponding to the image quality in the decreasing order each time the selector switch 10 is pressed. In this case, if a user finds a comparatively suitable display window, he or she must operate the window switch 3 to finely adjust the display window manually. The display windows are selected in the following manner:
WL = LL - DD/4, LL - DD/8, LL, LL + DD/8, LL + DD/4 WW = 3DD/4, 7DD/8, DD, 9DD/8, 5DD/4WL = LL - DD/4, LL - DD/8, LL, LL + DD/8, LL + DD/4 WW = 3DD/4, 7DD/8, DD, 9DD/8, 5DD/4
Hierbei sind LL und DD jeweils konstant.Here, LL and DD are constant.
Bei dem dritten Ausführungsbeispiel wird ein Beobachtungsobjekt auf der Grundlage des Spitzenwerts des Histogramms geschätzt. Jedoch kann der Bildelementwert des zu beobachtenden Abschnitts unter Verwendung der nachfolgenden Information oder Methode geschätzt werden.In the third embodiment, an observation object is estimated based on the peak value of the histogram. However, the pixel value of the portion to be observed may be estimated using the following information or method.
(1) Eine Methode zur Ausführung einer einfachen Bilderkennung, um hierdurch einen Abschnitt zu finden, bei dem Bildelementwerte verhältnismäßig nahe beeinander liegen.(1) A method for performing simple image recognition to find a portion where pixel values are relatively close to each other.
(2) Abtastbedingungen.(2) Sampling conditions.
(3) Scheiben bzw. Schnitte (ein axialer Schnitt, ein koronaler Schnitt, und ein sagittaler Schnitt).(3) Slices or sections (an axial section, a coronal section, and a sagittal section).
(4) Abtastobjekt, das durch ein Krankenhaus-Ordnungssystem erhalten werden kann.(4) Scanning object that can be obtained through a hospital filing system.
Merkmale zur Berechnung der Bildqualität, der Bewertungsfünktion, des Gewichts der Bewertungsfünktion, des Gewichts jeder Einheit des neuronalen Netzwerks können in Abhängigkeit von der vorstehend angegebenen Information und den vorstehend angegebenen Merkmalen (zum Beispiel einer gesamten Fläche, einer Spitzenposition, einer Form und einer Höhe) des Histogramms ausgewählt werden.Features for calculating the image quality, the evaluation function, the weight of the evaluation function, the weight of each unit of the neural network can be selected depending on the above-specified information and the above-specified features (for example, a total area, a peak position, a shape and a height) of the histogram.
Mit dem dritten Ausführungsbeispiel werden die Anzeigefenster für alle Objekte bereits vorab berechnet, und es wird das Bild mit dem berechneten Fenster, das für das Objekt geeignet ist, angezeigt, wenn der Wählschalter 10 gedrückt wird. Jedoch kann das Anzeigefenster, das für das Objekt geeignet ist, jedesmal dann berechnet werden, wenn der Wählschalter gedrückt wirdWith the third embodiment, the display windows for all objects are already calculated in advance, and the image with the calculated window suitable for the object is displayed when the selector switch 10 is pressed. However, the display window suitable for the object may be calculated each time the selector switch is pressed.
Modifikationen zur Ermittlung der Bildqualität mit Hilfe des neuronalen Netzwerks werden im folgenden Text beschrieben. Auch wenn die gleichen Gewichtskoeffizienten für alle Bilder bei den vorstehend beschriebenen Ausführungsbeispielen eingesetzt werden, kann der Gewichtskoeffizient in Abhängigkeit von dem Typ des Bilds ausgewählt werden. In diesem Fall wird der Gewichtskoeffizient von der Fenstersteuereinrichtung zu dem neuro nalen Netzwerk 5 in Übereinstimmung mit dem Typ des Bilds übertragen. Darüber hinaus wird ein Lernen ausgeführt, indem die Lerndaten in Übereinstimmung mit der Art der Bilddaten ausgewählt werden. Der Typ des Bilds kann gemäß der nachfolgenden Information oder Methode ermittelt werden.Modifications for determining the image quality using the neural network are described below. Although the same weight coefficients are used for all images in the above-described embodiments, the weight coefficient may be selected depending on the type of the image. In this case, the weight coefficient is transmitted from the window controller to the neural network 5 in accordance with the type of the image. Moreover, learning is carried out by selecting the learning data in accordance with the type of the image data. The type of the image can be determined according to the following information or method.
(1) Eine Methode zur Ausführung einer einfachen Bilderkennung, um hierdurch einen Abschnitt zu finden, bei dem Bildelementwerte relativ nahe beeinander liegen.(1) A method for performing simple image recognition to find a section where pixel values are relatively close to each other.
(2) Abtastbedingungen.(2) Sampling conditions.
(3) Scheiben bzw. Schnitte (ein axialer Schnitt, ein koronarer Schnitt, und ein sagittaler Schnitt).(3) Slices or sections (an axial section, a coronal section, and a sagittal section).
(4) Abtastobjekt, das durch ein Krankenhaus-Ordnungssystem erhalten werden kann.(4) Scanning object that can be obtained through a hospital filing system.
(5) Merkmale (zum Beispiel die gesamte Fläche, die Spitzenposition, die Form und die Höhe) des Histogramms.(5) Features (e.g., total area, peak position, shape, and height) of the histogram.
Auch wenn eine Auswahl des Bilds für das Lernen bei den vorstehend angegebenen Ausführungsbeispielen nicht beschrieben worden ist, sind zum Beispiel zehn Bilder (für jeden Bildtyp) als die Lembilder für jedes Gerat gespeichert, und es wird das neuronale Netzwerk dazu veranlaßt, auf der Basis dieser Bilder zu lernen. In dieser Weise wird das neuronale Netzwerk (Gewichtskoeffizient), das für das Gerät geeignet ist, gebildet. Wenn die gesamten Lernbilder, die durch Hinzufügen von neuen Lernbildern oder durch Aktuah sieren von alten Bildern zu neuen Bildern erhalten werden, erneut zur Ausführung des Lernvorgarigs benutzt werden, kann das System auch eine Änderung des Geräts verkraften. Alternativ kann anstelle der Einstellung des Gewichtskoeffizienten für jedes Gerät und für jeden Bildüyp der Gewichtskoeffizient auch in Abhängigkeit von dem Gerät, einem Benutzer (Arzt) und der Art des Bild festgelegt werden.Although selection of the image for learning has not been described in the above-mentioned embodiments, for example, ten images (for each image type) are stored as the learning images for each device, and the neural network is caused to learn based on these images. In this way, the neural network (weight coefficient) suitable for the device is formed. If the entire learning images obtained by adding new learning images or updating old images to new images are used again to carry out the learning process, the system can also cope with a change in the device. Alternatively, instead of setting the weight coefficient for each device and for each image type, the weight coefficient may also be set depending on the device, a user (doctor), and the type of image.
Bei den vorstehend beschriebenen Ausführungsbeispielen sind die Bewertungsmerkmaldaten, die in das neuronale Netzwerk einzugeben sind, linear normierte Werte. Jedoch kann eine Normalisierung auch unter Verwendung einer Sinusfünktion oder einer logarithmischen Transformation ausgeführt werden.In the embodiments described above, the evaluation feature data to be input to the neural network are linearly normalized values. However, normalization may also be carried out using a sine function or a logarithmic transformation.
Auch wenn die Anzahl von Bewertungsmerkmalen mit der Anzahl von Einheiten in der Eingangsschicht des neuronalen Netzwerks bei den vorstehend angegebenen Ausführungsbeispielen zusammenfällt, kann eine Mehrzahl von Einheiten einem Bewertungsmerkmal zugeordnet werden, und es können jeweils ein Wert, der durch lineare Normierung des Bewertungsinerkmals erhalten wird, und ein Wert, der durch Normierung unter Verwendung einer Sinusfunktion oder einer logarithmische Transformation erhalten worden ist, als jeweilige Eingangswerte eingegeben werden.Even if the number of evaluation features coincides with the number of units in the input layer of the neural network in the above-mentioned embodiments, a plurality of units may be assigned to one evaluation feature, and a value obtained by linear normalization of the evaluation feature and a value obtained by normalization using a sine function or a logarithmic transformation are entered as respective input values.
Bei den vorstehend erläuterten Ausführungsbeispielen beträgt die Anzahl von Ausgangsein heiten eins, und es repräsentiert diese Ausgangseinheit die Bildqualität, die sowohl die Helligkeit als auch den Kontrast einschließt. Jedoch können auch zwei Ausgangseinheiten in Übereinstimmung mit der Helligkeit und dem Kontrast derart benutzt werden, daß die Helligkeit als "zu hell - geeignet - zu dunkel" (0 bis 1) repräsentiert wird. In diesem Fall wird die Bildqualität als eine Gewichtssumme aus den beiden Faktoren von den beiden Ausgangseinheiten berechnet. Lehrerdaten für die Helligkeit werden in Fig. 15 als WWS = WWG eingestellt, und Lehrerdaten für den Kontrast werden dort als WLS = WLG eingestellt.In the above embodiments, the number of output units is one, and this output unit represents the image quality including both the brightness and the contrast. However, two output units may be used in accordance with the brightness and the contrast such that the brightness is represented as "too bright - appropriate - too dark" (0 to 1). In this case, the image quality is calculated as a weight sum of the two factors from the two output units. Teacher data for brightness is set as WWS = WWG in Fig. 15, and teacher data for contrast is set as WLS = WLG therein.
Bei den vorstehend angegebenen Ausführungsbeispielen werden weiterhin das Lernen und die Ausführung durch das gleiche neuronale Netzwerk ausgeführt. Jedoch kann das Lernen auch durch ein anderes neuronales Netzwerk, das zum Beispiel in einer Arbeitsstation enthalten sein kann, ausgeführt werden, während die Abarbeitung mit Hilfe eines anderen, einfachen neuronalen Netzwerk ausgeführt wird. Darüber hinaus werden von den Gewichtskoeffizienten des neuronalen Netzwerks, das seinen Lernvorgang beendet hat, lediglich die Gewichte, die große Werte aufweisen, herausgegriffen und lediglich durch die Software eines Computers ohne Verwendung des neuronalen Netzwerks errechnet.Furthermore, in the above embodiments, learning and execution are carried out by the same neural network. However, learning may be carried out by another neural network, which may be included in a work station, for example, while execution is carried out by another simple neural network. In addition, from the weight coefficients of the neural network that has completed its learning, only the weights having large values are extracted and calculated only by the software of a computer without using the neural network.
Claims (17)
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1186819A JPH0833722B2 (en) | 1989-07-19 | 1989-07-19 | Image display method |
JP2066697A JPH03266190A (en) | 1990-03-16 | 1990-03-16 | Image display method and image conversion method |
JP2066695A JP2937389B2 (en) | 1990-03-16 | 1990-03-16 | Image display method |
JP2066696A JP2937390B2 (en) | 1990-03-16 | 1990-03-16 | Image conversion method |
Publications (2)
Publication Number | Publication Date |
---|---|
DE69031523D1 DE69031523D1 (en) | 1997-11-06 |
DE69031523T2 true DE69031523T2 (en) | 1998-05-14 |
Family
ID=27464753
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE69031523T Expired - Lifetime DE69031523T2 (en) | 1989-07-19 | 1990-07-18 | Digital image display device |
Country Status (3)
Country | Link |
---|---|
US (1) | US5305204A (en) |
EP (1) | EP0409206B1 (en) |
DE (1) | DE69031523T2 (en) |
Families Citing this family (52)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5828775A (en) * | 1990-04-18 | 1998-10-27 | Fuji Photo Film Co., Ltd. | Method and apparatus for adjusting read-out conditions and/or image processing conditions for radiation images , radiation image read-out apparatus, and radiation image analyzing method and apparatus |
EP0726542B1 (en) * | 1990-04-18 | 1999-09-15 | Fuji Photo Film Co., Ltd. | Method and apparatus for adjusting read-out conditions and/or image processing conditions for radiation images, radiation image read-out apparatus, and radiation image analyzing method and apparatus |
DE69131630T2 (en) * | 1990-04-18 | 1999-12-30 | Fuji Photo Film Co., Ltd. | Method and device for regulating reading conditions and / or image processing conditions for radiation images, radiation image reading device and method and device for radiation image analysis |
EP0529635B1 (en) * | 1991-08-30 | 1998-11-04 | Matsushita Electric Industrial Co., Ltd. | An image processing apparatus |
CA2093448C (en) * | 1992-07-17 | 1999-03-09 | Albert D. Edgar | Expert system for image enhancement |
US5542003A (en) * | 1993-09-13 | 1996-07-30 | Eastman Kodak | Method for maximizing fidelity and dynamic range for a region of interest within digitized medical image display |
JP2949186B2 (en) * | 1994-03-18 | 1999-09-13 | 富士通株式会社 | Image processing method and image processing apparatus |
US5986662A (en) * | 1996-10-16 | 1999-11-16 | Vital Images, Inc. | Advanced diagnostic viewer employing automated protocol selection for volume-rendered imaging |
US5900732A (en) * | 1996-11-04 | 1999-05-04 | Mayo Foundation For Medical Education And Research | Automatic windowing method for MR images |
US6127669A (en) * | 1997-01-29 | 2000-10-03 | University Of Maryland | Computer-aided determination of window and level settings for filmless radiology |
US5995644A (en) * | 1997-06-30 | 1999-11-30 | Siemens Corporate Research, Inc. | Robust and automatic adjustment of display window width and center for MR images |
IL122361A0 (en) * | 1997-11-29 | 1998-04-05 | Algotec Systems Ltd | Image compression method |
US6175643B1 (en) * | 1997-12-18 | 2001-01-16 | Siemens Corporate Research, Inc. | Neural network based auto-windowing system for MR images |
US6018600A (en) * | 1998-04-15 | 2000-01-25 | Arch Development Corp. | Sampling and reconstruction of signals and images including MR images of multiple regions |
US6714674B1 (en) * | 1998-04-30 | 2004-03-30 | General Electric Company | Method for converting digital image pixel values |
US6731798B1 (en) | 1998-04-30 | 2004-05-04 | General Electric Company | Method for converting digital image pixel values including remote services provided over a network |
JP3715143B2 (en) * | 1999-08-19 | 2005-11-09 | 富士写真フイルム株式会社 | Image display method and image display apparatus |
US6998841B1 (en) * | 2000-03-31 | 2006-02-14 | Virtualscopics, Llc | Method and system which forms an isotropic, high-resolution, three-dimensional diagnostic image of a subject from two-dimensional image data scans |
US6711306B1 (en) * | 2000-06-02 | 2004-03-23 | Eastman Kodak Company | Automatic bright window detection |
US6801646B1 (en) * | 2001-07-19 | 2004-10-05 | Virtualscopics, Llc | System and method for reducing or eliminating streak artifacts and illumination inhomogeneity in CT imaging |
DE10213284B4 (en) * | 2002-03-25 | 2007-11-08 | Siemens Ag | Method for imaging in medical imaging |
EP1488376A1 (en) * | 2002-03-28 | 2004-12-22 | Nokia Corporation | Method and device for displaying images |
JP4073269B2 (en) * | 2002-07-26 | 2008-04-09 | 株式会社東芝 | MRI apparatus and image WW / WL setting method |
JP4243081B2 (en) * | 2002-09-05 | 2009-03-25 | 三洋電機株式会社 | Image data processing apparatus and image data processing method |
US7218763B2 (en) * | 2003-02-27 | 2007-05-15 | Eastman Kodak Company | Method for automated window-level settings for magnetic resonance images |
US20060098887A1 (en) * | 2004-05-19 | 2006-05-11 | Hazem El-Bakry | Mehthod for image conversion |
US20070100223A1 (en) * | 2005-10-14 | 2007-05-03 | Rui Liao | Method and system for cardiac imaging and catheter guidance for radio frequency (RF) ablation |
KR100724134B1 (en) * | 2006-01-09 | 2007-06-04 | 삼성전자주식회사 | Method and apparatus for providing panoramic view with high speed image matching and mild mixed color blending |
EP2050071B1 (en) * | 2006-07-31 | 2018-09-12 | Koninklijke Philips N.V. | A method, apparatus and computer-readable medium for creating a preset map for the visualization of an image dataset |
US20080107313A1 (en) * | 2006-11-07 | 2008-05-08 | O'dea Paul Joseph | Methods and Apparatus to Facilitate Picture Archiving |
RU2431196C1 (en) | 2010-03-31 | 2011-10-10 | Закрытое Акционерное Общество "Импульс" | Method of determining brightness level in area of interest on digital medical x-ray picture |
DE102011003138B4 (en) | 2011-01-25 | 2018-05-03 | Siemens Healthcare Gmbh | Imaging method with optimized gray value window determination |
DE102011003857B4 (en) * | 2011-02-09 | 2016-12-15 | Siemens Healthcare Gmbh | Method for adapting a gray value window, arithmetic unit, X-ray device and data carrier |
US10152951B2 (en) * | 2011-02-28 | 2018-12-11 | Varian Medical Systems International Ag | Method and system for interactive control of window/level parameters of multi-image displays |
US9349199B2 (en) | 2012-06-26 | 2016-05-24 | General Electric Company | System and method for generating image window view settings |
WO2014199266A1 (en) * | 2013-06-12 | 2014-12-18 | Koninklijke Philips N.V. | Displaying mri images with clinical context-based automatic window width and level setting |
JP6483677B2 (en) | 2013-08-01 | 2019-03-13 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 3D image data analysis and navigation |
JP6550723B2 (en) * | 2014-10-31 | 2019-07-31 | オムロン株式会社 | Image processing apparatus, character recognition apparatus, image processing method, and program |
CN105023273A (en) * | 2015-07-01 | 2015-11-04 | 张逸凡 | ROI (Region of Interest) window width and position adjusting method of medical image |
CN107847209A (en) | 2015-07-23 | 2018-03-27 | 皇家飞利浦有限公司 | computer tomography visualization adjustment |
CN105678691B (en) * | 2016-01-07 | 2019-07-12 | 上海箩箕技术有限公司 | A kind of method and device of image conversion |
CN107688783B (en) * | 2017-08-23 | 2020-07-07 | 京东方科技集团股份有限公司 | 3D image detection method and device, electronic equipment and computer readable medium |
US11517197B2 (en) | 2017-10-06 | 2022-12-06 | Canon Medical Systems Corporation | Apparatus and method for medical image reconstruction using deep learning for computed tomography (CT) image noise and artifacts reduction |
US10803984B2 (en) | 2017-10-06 | 2020-10-13 | Canon Medical Systems Corporation | Medical image processing apparatus and medical image processing system |
CN107833231B (en) * | 2017-11-22 | 2020-12-04 | 上海联影医疗科技股份有限公司 | Medical image display method, apparatus and computer storage medium |
CN108537794B (en) * | 2018-04-19 | 2021-09-21 | 上海联影医疗科技股份有限公司 | Medical image data processing method, apparatus and computer readable storage medium |
CN110928469B (en) * | 2018-09-19 | 2023-08-22 | 上海西门子医疗器械有限公司 | Method for setting optimal display window width and window level |
US10818386B2 (en) * | 2018-11-21 | 2020-10-27 | Enlitic, Inc. | Multi-label heat map generating system |
WO2020110224A1 (en) | 2018-11-28 | 2020-06-04 | Eizo株式会社 | Information processing method and computer program |
CN109754447B (en) | 2018-12-28 | 2021-06-22 | 上海联影智能医疗科技有限公司 | Image generation method, device, equipment and storage medium |
CN112560778B (en) * | 2020-12-25 | 2022-05-27 | 万里云医疗信息科技(北京)有限公司 | DR image body part identification method, device, equipment and readable storage medium |
CN115909013B (en) * | 2023-01-10 | 2023-07-25 | 深圳精智达技术股份有限公司 | Image convolution method and device, electronic equipment and storage medium |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6075033A (en) * | 1983-09-30 | 1985-04-27 | 株式会社東芝 | X-ray diagnostic apparatus |
JPH0638150B2 (en) * | 1984-03-05 | 1994-05-18 | 富士写真フイルム株式会社 | Radiation image information reading condition determination method |
IL71878A (en) * | 1984-05-21 | 1987-11-30 | Elscint Ltd | Intensity level windowing system for image displays |
US4731863A (en) * | 1986-04-07 | 1988-03-15 | Eastman Kodak Company | Digital image processing method employing histogram peak detection |
JPS6311146A (en) * | 1986-07-02 | 1988-01-18 | ジーイー横河メディカルシステム株式会社 | Image diagnostic apparatus |
JPS6384526A (en) * | 1986-09-30 | 1988-04-15 | 株式会社 日立メデイコ | Image display apparatus |
FI880818A (en) * | 1987-03-18 | 1988-09-19 | Gen Electric | BILDSKAERM MED AUTOMATISK BILDJUSTERING. |
US5042077A (en) * | 1987-10-02 | 1991-08-20 | General Electric Company | Method of highlighting subtle contrast in graphical images |
US5157733A (en) * | 1990-06-08 | 1992-10-20 | Fuji Photo Film Co., Ltd. | Radiation image processing apparatus, determination apparatus, and radiation image read-out apparatus |
-
1990
- 1990-07-16 US US07/552,520 patent/US5305204A/en not_active Expired - Lifetime
- 1990-07-18 EP EP90113780A patent/EP0409206B1/en not_active Expired - Lifetime
- 1990-07-18 DE DE69031523T patent/DE69031523T2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
DE69031523D1 (en) | 1997-11-06 |
EP0409206A2 (en) | 1991-01-23 |
EP0409206B1 (en) | 1997-10-01 |
EP0409206A3 (en) | 1992-11-19 |
US5305204A (en) | 1994-04-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69031523T2 (en) | Digital image display device | |
DE68928154T2 (en) | Fingerprint processing system, suitable for determining the core of a fingerprint image by means of curvature parameters | |
DE68914206T2 (en) | Method and system for improving a digitized image. | |
DE69429854T2 (en) | Image processing method and device | |
DE2952422C3 (en) | Method and device for processing an X-ray image in an X-ray image copying system | |
DE69229214T2 (en) | Method and device for automatic gray scale generation for numerical radiation images | |
DE19916612B4 (en) | Method and system for improving discrete pixel images | |
DE3546136C2 (en) | ||
DE69832357T2 (en) | NOISE REDUCTION IN ONE IMAGE | |
DE69521184T2 (en) | Device for image processing according to a locally determined image region type | |
DE19849090A1 (en) | Process for processing an input image | |
DE2637180C2 (en) | Method for categorizing film negatives according to a plus, minus or zero correction for exposure control in the production of photographic prints | |
DE69431791T2 (en) | DEVICE AND METHOD FOR AUTOMATIC EQUALIZATION | |
EP0801361A2 (en) | Automatic image evaluation process | |
DE3840257A1 (en) | Method and device for automatic assessment of differences between normal and abnormal lungs | |
DE102005043048A1 (en) | Method for correcting an image data set and method for creating an image | |
DE69328595T2 (en) | Image enhancement | |
DE69229085T2 (en) | Image processing system | |
EP0938063A2 (en) | Method of two-dimensional imaging of structures for medical diagnosis | |
DE68927545T2 (en) | Method and device for correcting positions of images | |
DE69128733T2 (en) | Image processing device | |
DE3586203T2 (en) | IMAGE PROCESSING DEVICE FOR X-RAY GENTOMOGRAPHY. | |
DE2652287A1 (en) | METHOD FOR DETERMINING THE SHARPNESS OF AN IMAGE AND MEANING FOR PERFORMING THE METHOD | |
EP0464896B1 (en) | Method of image enhancement and arrangement to implement the method | |
EP1156681A2 (en) | Method and apparatus for measuring a picture noise content |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition | ||
8328 | Change in the person/name/address of the agent |
Representative=s name: KRAMER - BARSKE - SCHMIDTCHEN, 81245 MUENCHEN |
|
8320 | Willingness to grant licences declared (paragraph 23) |