DE10254192A1 - Verfahren und Vorrichtung zur Übertragung und Anzeige eines komprimierten digitalisierten Bildes - Google Patents

Verfahren und Vorrichtung zur Übertragung und Anzeige eines komprimierten digitalisierten Bildes

Info

Publication number
DE10254192A1
DE10254192A1 DE10254192A DE10254192A DE10254192A1 DE 10254192 A1 DE10254192 A1 DE 10254192A1 DE 10254192 A DE10254192 A DE 10254192A DE 10254192 A DE10254192 A DE 10254192A DE 10254192 A1 DE10254192 A1 DE 10254192A1
Authority
DE
Germany
Prior art keywords
resolution
image
data
level
viewport
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE10254192A
Other languages
English (en)
Inventor
Saad A Sirohey
Robert D Barnes
Joseph M Carroll
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GE Medical Systems Information Technologies Inc
Original Assignee
GE Medical Systems Information Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GE Medical Systems Information Technologies Inc filed Critical GE Medical Systems Information Technologies Inc
Publication of DE10254192A1 publication Critical patent/DE10254192A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4092Image resolution transcoding, e.g. client/server architecture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4053Super resolution, i.e. output image resolution higher than sensor resolution
    • G06T3/4076Super resolution, i.e. output image resolution higher than sensor resolution by iteratively correcting the provisional high resolution image using the original low-resolution image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4084Transform-based scaling, e.g. FFT domain scaling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/41Bandwidth or redundancy reduction
    • H04N1/411Bandwidth or redundancy reduction for the transmission or storage or reproduction of two-tone pictures, e.g. black and white pictures
    • H04N1/413Systems or arrangements allowing the picture to be reproduced without loss or modification of picture-information
    • H04N1/415Systems or arrangements allowing the picture to be reproduced without loss or modification of picture-information in which the picture-elements are subdivided or grouped into fixed one-dimensional or two-dimensional blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/127Prioritisation of hardware or computational resources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/156Availability of hardware or computational resources, e.g. encoding based on power-saving criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/162User input
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/33Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the spatial domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/36Scalability techniques involving formatting the layers as a function of picture distortion after decoding, e.g. signal-to-noise [SNR] scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234327Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into layers, e.g. base layer and one or more enhancement layers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25808Management of client data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2662Controlling the complexity of the video stream, e.g. by scaling the resolution or bitrate of the video stream based on the client capabilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440263Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the spatial resolution, e.g. for displaying on a connected PDA
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4516Management of client data or end-user data involving client characteristics, e.g. Set-Top-Box type, software version or amount of memory available
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/454Content or additional data filtering, e.g. blocking advertisements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4621Controlling the complexity of the content stream or additional data, e.g. lowering the resolution or bit-rate of the video stream for a mobile client with a small screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/637Control signals issued by the client directed to the server or network components
    • H04N21/6373Control signals issued by the client directed to the server or network components for rate control, e.g. request to the server to modify its transmission rate
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • H03M7/3068Precoding preceding compression, e.g. Burrows-Wheeler transformation

Abstract

Erfindungsgemäß werden Bilddaten selektiv verarbeitet, die in eine Vielzahl von Auflösungsstufen zerlegt sind. Die Bilddaten können in der Reihenfolge progressiv höherer Auflösungsstufen zur Anzeige in einem Darstellungsfeld abgerufen werden, das eine Darstellungsfeldauflösung aufweisen kann, die höher oder niedriger als eine gewünschte der Auflösungsstufen ist. Zu Beginn können die Bilddaten im Darstellungsfeld auf einer entsprechend niedrigeren Stufe der Vielzahl der Auflösungsstufen angezeigt werden. Wünscht ein Benutzer höhere Auflösungsanzeigen des gesamten oder eines Teils des Bildes, können eine oder mehrere der progressiv höheren Auflösungsstufen abgerufen und zum Passen in das Darstellungsfeld skaliert werden. Demnach verarbeitet die Erfindung die Daten effektiver durch das Zugreifen auf die Bilddaten in Blöcken entsprechend der Vielzahl der Auflösungsstufen anstelle eines Zugriffs auf die gesamten Bilddaten. Es kann auch ein Skalierungsschwellenwert zum Signalisieren des Erfordernisses einer nächst höheren Stufe der Vielzahl der Auflösungsstufen verwendet werden.

Description

    Querverweis auf verwandte Anmeldungen
  • Die vorliegende Anmeldung ist eine Continuation-In-Part einer Patentanmeldung mit der Nummer 09/716, 603, eingereicht am 20. November 2000, die eine Continuation-In-Part-Anmeldung der Patentanmeldung mit der Nummer 09/448, 950, eingereicht am 24. November 1999 ist.
  • Gebiet der Erfindung
  • Die vorliegende Erfindung bezieht sich allgemein auf das Gebiet der Bilddatenkompression. Insbesondere bezieht sich die Erfindung auf ein Verfahren zur Verarbeitung von Bilddaten für eine schnelle Übertragung und Anpassung an ein gewünschtes Darstellungsfeld.
  • Hintergrund der Erfindung
  • Für die Bilddatenkompression gibt es einen breiten Anwendungsbereich. Digitalisierte Bilder können auf vielerlei Arten erzeugt werden, wie über eine relativ einfache Digitalisierungseinrichtung und Digitalkamera, sowie durch komplexe Abbildungssysteme, wie sie beispielsweise bei medizinischen Diagnoseanwendungen verwendet werden. Ungeachtet der Umgebung, in der die Bilddaten entstehen, werden die die Bilder beschreibenden digitalen Daten für eine spätere Rekonstruktion und Anzeige gespeichert und können zu verschiedenen Orten durch Netze, wie das Internet, übertragen werden. Mit der digitalen Bildmanipulation verbundene Ziele beinhalten die effektive Verwendung von für die Speicherung der Bilddaten zugewiesenen Speichern, sowie die effektive und schnelle Übertragung der Bilddaten für die Rekonstruktion. Das zweit genannte Ziel ist insbesondere dort wichtig, wo große oder komplexe Bilder über Netze mit vergleichsweise eingeschränkter Bandbreite zu verarbeiten sind. Beispielsweise auf dem Gebiet der medizinischen Diagnoseabbildung können sehr große Bilddatensätze zur Übertragung und Betrachtung durch eine Reihe von Benutzern verfügbar sein, die jene beinhalten, die einen begrenzten Zugang zu sehr hohen Bandbreiten haben, die für eine schnelle Übertragung vollständiger Detailbilder erforderlich sind.
  • Bildarchivierungs- und Kommunikationssysteme, beziehungsweise PACS, sind zu einer äußerst wichtigen Komponente bei der Manipulation digitalisierter Bilddaten insbesondere auf dem Gebiet der medizinischen Abbildung geworden. Derartige Systeme funktionieren oft als zentrale Aufbewahrungsorte von Bilddaten, die die Daten von verschiedenen Quellen, wie von medizinischen Abbildungssystemen empfangen. Die Bilddaten werden gespeichert und für Radiologen, diagnostizierende und darauf Bezug nehmende Ärzte und andere Spezialisten über Netzverbindungen verfügbar gemacht. PACS-Verbesserungen haben zu dramatischen Fortschritten hinsichtlich der verfügbaren Menge an Bilddaten geführt, und haben das Laden und Übertragen voluminöser Datendateien sowohl innerhalb Einrichtungen als auch zwischen dem zentralen Speicherort oder Orten und entfernten Klienten erleichtert.
  • Ein Hauptherausforderung für weitere Verbesserungen in allen Bildverarbeitungssystemen von einfachen Internet-Browsern bis zu PACS in medizinischen Diagnoseanwendungen besteht in der Handhabung der Bilder definierenden großen Datendateien. Auf dem medizinischen Diagnosegebiet können digitalisierte Daten in Abhängigkeit von der Abbildungsmodalität für eine erhebliche Anzahl an Bildern in einer einzelnen Untersuchung erfasst und verarbeitet werden, wobei jedes Bild einen großen Datensatz darstellt, der diskrete Bildelemente beziehungsweise Pixels eines rekonstruierten Bildes definiert. Computertomografie-(CT-)Abbildungssysteme beispielsweise können eine Vielzahl separater Bilder in Verbindung mit einer interessierenden Anatomie in einem sehr kurzen Untersuchungszeitrahmen erzeugen. Idealerweise werden all diese Bilder zentral auf dem PACS gespeichert, und für den Radiologen zur Nachprüfung und Diagnose verfügbar gemacht.
  • Verschiedene Verfahren zur Analysierung und Komprimierung großer Datendateien, wie medizinischer Bilddatendateien wurden vorgeschlagen und werden gegenwärtig verwendet. Bilddatendateien enthalten typischerweise Ströme von Daten, die Bildcharakteristiken beschreiben, typischerweise Intensitäten oder andere Charakteristiken individueller Bildelemente im rekonstruierten Bild. Auf dem Gebiet der medizinischen Diagnose werden diese Bilddateien typischerweise während einer Bilderfassung oder Kodiersequenz erzeugt, wie bei einem Röntgensystem, einem Magnetresonanzabbildungssystem, einem Computertomografieabbildungssystem, und so weiter. Die Bilddaten werden dann zur Anpassung dynamischer Bereiche oder zur Verstärkung bestimmter im Bild gezeigter Merkmal für die Speicherung, Übertragung und Anzeige verarbeitet.
  • Obwohl Bilddateien in rohem und verarbeitetem Format gespeichert werden können, sind viele Bilddateien sehr groß und belegen einen erheblichen Platten- oder Speicherplatz. Die wachsende Komplexität von Abbildungssystemen hat auch zur Erzeugung sehr großer Bilddateien geführt, die typischerweise mehr Daten als Ergebnis des nützlichen dynamischen Bereichs des Abbildungssystems, der Größe der Matrix der Bildelemente und der Anzahl an pro Untersuchung erfassten Bildern enthalten.
  • Zusätzlich zur Belegung großer Segmente des verfügbaren Speichers können große Bilddateien schwierig oder zeitraubend von einem Ort zum andern zu übertragen sein. In einer typischen medizinischen Abbildungsanwendung beispielsweise erzeugt eine Abtasteinrichtung oder eine andere Abbildungseinrichtung typischerweise rohe Daten, die zumindest teilweise an der Abtasteinrichtung verarbeitet werden können. Die Daten werden dann zu einer anderen Bildverarbeitungsschaltung übertragen, die typischerweise einen programmierten Computer enthält, wo die Daten weiter verarbeitet und verbessert werden. Schließlich werden die Bilddaten entweder lokal im System oder in PACS zum späteren Abrufen und Analysieren gespeichert. In all diesen Datenübertragungsschritten muß auf die große Bilddatendatei zugegriffen werden und sie muß von einer Einrichtung zur anderen übertragen werden.
  • Gegenwärtige Bildverarbeitungsverfahren beinhalten die Kompression von Bilddaten in der PACS-Umgebung zur Verringerung der Speicheranforderungen und Übertragungszeiten. Derartige Kompressionsverfahren können allerdings gesamte Dateien komprimieren, einschließlich beschreibender Header- Informationen, die für den Zugriff oder die Korrelation von Bildern für die Nachprüfung nützlich sein könnten. Des weiteren bieten gegenwärtige Verfahren keine ausreichend schnelle Kompression und Dekompression von Bilddateien, um die wachsenden Anforderungen an Systemdurchsatzraten und Zugriffszeiten zu erfüllen. Schließlich bieten alternative Kompressions- und Dekompressionsverfahren nicht die gewünschten Kompressionsverhältnisse in Kombination mit einer schnellen Kompression und Dekompression in einer Client- Server-Umgebung.
  • Ein weiterer Nachteil vorhandener Kompressionsverfahren ist die Speicherung, der Zugriff und die Übertragung großer Datendateien, selbst wenn der Benutzer das rekonstruierte Bild nicht in allen verfügbaren Einzelheiten betrachten kann oder möchte. Beispielsweise können bei der medizinischen Abbildung äußerst detaillierte Bilder erfasst und gespeichert werden, obwohl ein Radiologe oder Arzt, der die Bilder betrachten möchte, eventuell keinen Betrachtungsanschluss hat, der das Bild in der Auflösung anzeigen kann, mit der es gespeichert ist. Somit liefert die Übertragung der vollständigen Bilder zu einer entfernten Betrachtungsstation in relativ zeitraubenden Vorgängen eventuell keinen echten Vorteil und kann das Lesen oder eine andere Verwendung der Bilder verlangsamen.
  • Es besteht daher das Erfordernis eines verbesserten Bilddatenverarbeitungsverfahrens, das eine schnelle Übertragung von Bilddateien und eine selektive Verarbeitung beruhend auf Auflösungseigenschaften eines gewünschten Darstellungsfeldes bereitstellt.
  • Kurzzusammenfassung der Erfindung
  • Erfindungsgemäß werden Bilddaten selektiv verarbeitet, die in eine Vielzahl von Auflösungsstufen zergliedert sind. Die Bilddaten können in der Reihenfolge progressiv höherer Auflösungsstufen zur Anzeige in einem Darstellungsfeld abgerufen werden, das eine Darstellungsfeldauflösung haben kann, die höher oder niedriger als eine Stufe der Auflösungsstufen ist. Zu Beginn können die Bilddaten in dem Darstellungsfeld bei einer relativ niedrigeren der Vielzahl der Auflösungsstufen angezeigt werden. Wünscht ein Benutzer die Anzeige des gesamten oder eines Teils des Bildes mit höherer Auflösung, kann eine oder können mehrere der progressiv höheren Auflösungsstufen abgerufen und zur Anpassung an das Darstellungsfeld skaliert werden. Dementsprechend verarbeitet die Erfindung die Daten effizienter durch Zugreifen auf die Bilddaten in Blöcken entsprechend der Vielzahl der Auflösungsstufen anstelle des Zugreifens auf die gesamten Bilddaten. Ein Skalierungsschwellenwert kann auch zur Signalisierung des Erfordernisses einer nächst höheren Stufe der Vielzahl der Auflösungsstufen verwendet werden.
  • Kurzbeschreibung der Zeichnung
  • Die vorstehenden und weitere Vorteile und Merkmale der Erfindung werden anhand der folgenden ausführlichen Beschreibung unter Bezugnahme auf die Zeichnung ersichtlich. Es zeigen:
  • Fig. 1 eine schematische Darstellung eines Beispielbildmanipulationsystems, im veranschaulichten Beispiel ein Bildarchivierungs- und Kommunikationssystem oder PACS zum Empfangen und Speichern von Bilddaten gemäß gewisser Ausgestaltung der Erfindung,
  • Fig. 2 eine schematische Darstellung von Inhalten einer Datenbank zur Bezugnahme auf gespeicherte Bilddaten in Dateien mit einer Vielzahl von Bilddatensätzen, komprimierte Daten und deskriptive Informationen,
  • Fig. 3 eine Darstellung eines typischen Bildes vom empfangenen, komprimierten und im System aus Fig. 1 gespeicherten Typ,
  • Fig. 4 eine grafische Darstellung von Intensitäten pixelierter Daten über ein Bild, das in Unterbereiche für eine optimale Kompression der Unterbereiche beruhend auf Charakteristiken der Unterbereiche unterteilt ist,
  • Fig. 5 eine schematische Darstellung einer Bildelementnachbarschaft, die bei der Analyse der Bilddaten für Kompressionszwecke verwendet wird,
  • Fig. 6 ein Flussdiagramm zur Veranschaulichung einer Beispielsteuerlogik zur Kompression und Dekompression von Bilddaten gemäß Ausgestaltungen der Erfindung,
  • Fig. 7, 8, 9, 10, 11 und 12 Beispielnachschlagetabellen in der Form von Kompressionscodetabellen, die zur optimalen Kompression von Unterbereichen der Bilddaten gemäß der Erfindung während des in Fig. 6 gezeigten Prozesses verwendet werden,
  • Fig. 13 eine schematische Darstellung eines Beispielbilddatensatzes mit einem deskriptiven Header, einem Kompressionsheader und Blöcken komprimierter Daten pro Unterbereich,
  • Fig. 14 eine Prozessabbildung zur Veranschaulichung einer progressiven Wavelet-Zerlegung von Bilddaten gemäß einer weiteren Ausgestaltung der Erfindung, die die Erzeugung eines komprimierten Mehrfachauflösungs-Bilddatensatzes erlaubt,
  • Fig. 15 eine Prozessabbildung zur Veranschaulichung der progressiven Wavelet-Zerlegung aus Fig. 14 in Verbindung mit der Kompression der resultierenden Daten zur Kompression der Erzeugung des komprimierten Mehrfachauflösungs- Bilddatensatzes,
  • Fig. 16 ein Flussdiagramm zur Veranschaulichung einer Beispiellogik bei der Durchführung einer Vorwärts- Wavelettransformation gemäß einem Ausführungsbeispiel,
  • Fig. 17 ein Flussdiagramm zur Veranschaulichung einer Beispiellogik bei der Durchführung einer Vorwärts- Waveletzerlegung für eine Mehrfachauflösungs- Bilddatenkompression,
  • Fig. 18 eine schematische Darstellung eines Beispielbilddatensatzes mit einem Header und Blöcken komprimierter Daten bei einer Mehrfachauflösungskompression,
  • Fig. 19 eine Prozessabbildung zur Veranschaulichung einer Bilddatendekompression und inversen Wavelettransformation zum Erhalten von Bildern einer gewünschten Auflösung,
  • Fig. 20 eine Tabelle, die Beispielkompressionsgrade angibt, die über die Erfindung erhalten werden,
  • Fig. 21 eine Darstellung eines Beispiel- Bildübertragungssystems zwischen einem Server und einem Client, das ein Darstellungsfeld zur Anzeige von Bilddaten aufweist,
  • Fig. 22 eine Darstellung eines Beispiel- Aufwärtsskalierungsschemas zur Anpassung einer Bildauflösung an das Darstellungsfeld,
  • Fig. 23 eine Darstellung eines Beispiel- Abwärtsskalierungsschemas zur Anpassung der Bildauflösung an das Darstellungsfeld,
  • Fig. 24 ein Ablaufdiagramm eines Anfangsbildabruf- und Anzeigeprozesses für das in Fig. 21 dargestellte Bildübertragungssystem,
  • Fig. 25 ein Ablaufdiagramm eines Beispielauswahlprozesses zur Auswahl einer geeigneten Bildauflösungsstufe zur Anzeige in dem Darstellungsfeld,
  • Fig. 26 ein Ablaufdiagramm eines Beispiel- Skalierungsprozesses zur Anpassung der Bildauflösung an das Darstellungsfeld, wie es in den Fig. 22 und 23 gezeigt ist, und
  • Fig. 27 ein Ablaufdiagramm eines beispielhaften kontinuierlichen Datenabruf- und Anzeigeprozesses für das in Fig. 21 gezeigte Bildübertragungssystem.
  • Ausführliche Beschreibung bestimmter Ausführungsbeispiele
  • Fig. 1 zeigt ein Beispielbildmanipulationsystem in der Form eines Bildarchiv- und Kommunikationssystems beziehungsweise PACS 10 zum Empfangen, Komprimieren und Dekomprimieren von Bilddaten. Gemäß dem veranschaulichten Ausführungsbeispiel empfängt das PACS 10 Bilddaten von mehreren separaten Abbildungssystemen, die mit dem Bezugszeichen 12, 14 und 16 bezeichnet sind. Der Fachmann erkennt, dass die Abbildungssysteme verschiedene Typen und Modalitäten umfassen, wie Magnetresonanzabbildungs-(MRI)Systeme, Computertomografie- (CT)Systeme, Positronemissionstomografie-(PET)Systeme, Radiofluoroskopie(RF), Computerradiografie-(CR), Ultraschallsysteme, und so weiter umfassen. Des weiteren können die Systeme Verarbeitungsstationen oder Digitalisierungsstationen enthalten, wie eine zur Bereitstellung digitalisierter Bilddaten beruhend auf vorhandenen Film- oder Hartkopiebildern entwickelte Einrichtung. Es ist auch anzumerken, dass die die Bilddaten zum PACS führenden Systeme hinsichtlich des PACS lokal, wie in der gleichen Einrichtung oder dem gleichen Gebäude, oder vollständig entfernt vom PACS angeordnet sein können, wie in einer außerhalb liegenden Klinik oder einer angeschlossenen Einrichtung. Im zweiten Fall können die Bilddaten über eine geeignete Netzverbindung übertragen werden, die offene Netz, eigene Netze, virtuelle private Netze, und so weiter beinhaltet.
  • Das PACS 10 beinhaltet einen oder mehrere Dateiserver 18, die zum Empfangen und Verarbeiten von Bilddaten und dazu entwickelt sind, die Daten für die Dekompression und Nachprüfung verfügbar zu machen. Der Server 18 empfängt die Bilddaten über eine Eingangs/Ausgangsschnittstelle 19. Bilddaten können in Routinen komprimiert werden, auf die über eine Kompressions/Dekompressionsschnittstelle 20 zugegriffen wird. Wie es nachstehend näher beschrieben ist, dient die Schnittstelle 20 zur schnellen und optimalen Kompression der ankommenden Bilddaten, während deskriptive Bilddaten für eine Bezugnahme durch den Server 18 und andere Komponenten des PACS verfügbar gehalten werden. Bei Bedarf kann die Schnittstelle 20 auch zur Dekompression von Bilddaten dienen, auf die über den Server zugegriffen wird. Der Server ist auch mit internen Clients verbunden, wie es durch das Bezugszeichen 22 angezeigt ist, wobei jeder Client typischerweise eine Workstation enthält, an der ein Radiologe, Arzt oder Kliniker auf die Bilddaten vom Server aus zugreifen kann, die Bilddaten komprimieren und betrachten oder nach Wunsch ausgeben kann. Die Clients 22 können auch Informationen eingeben, wie das Diktat eines Radiologen, das einer Nachprüfung von Untersuchungssequenzen folgt. Gleichermaßen kann der Server 18 mit einer oder mehreren Schnittstellen verbunden sein, wie einer Druckerschnittstelle 24, die zum Zugreifen auf und zum Dekomprimieren von Bilddaten und zur Ausgabe von Ausdrucken über einen Drucker 26 oder eine andere Peripherieeinrichtung entwickelt ist.
  • Der Server 28 kann Bilddaten und andere Arbeitsflussinformationen im PACS durch Bezugnahme auf einen oder mehrere Dateiserver 18 assoziieren. Bei dem gerade betrachteten Ausführungsbeispiel kann der Datenbankserver 28 Querverweisungsinformationen hinsichtlich spezifischer Bildsequenzen, Bezug nehmender oder diagnostizierender Arztinformationen, Patienteninformationen, Hintergrundinformationen, Arbeitslistenquerverweise, und so weiter enthalten. Die Informationen im Datenbankserver 28 dienen der Erleichterung der Speicherung und Verknüpfung der Bilddatendateien miteinander und dazu, anfragenden Clients einen schnellen und genauen Zugriff auf im System gespeicherte Bilddatendateien zu ermöglichen. Gleichermaßen ist der Server 18 mit einem oder mehreren Archiven 30 verbunden, wie einem optischen Speichersystem, die als Aufbewahrungsorte großer Bilddatenmengen für Sicherungs- und Archivierungszwecke dienen. Verfahren zur Übertragung von Bilddaten zwischen dem Server 18 und einem beliebigen mit dem Server 18 verknüpften Speicher, der ein Kurzzeitspeichersystem bildet, und dem Archiv 30 können einem beliebigen geeigneten Datenmanipulationsschema folgen, wie der Archivierung von Bilddaten als Folge einer Durchsicht und eines Diktats eines Radiologen oder nach dem Ablauf ausreichender Zeit seit dem Empfang oder der Durchsicht der Bilddateien.
  • In dem veranschaulichten Ausführungsbeispiel können andere Komponenten des PACS-Systems oder der Einrichtung mit den vorstehenden Komponenten zur weiteren Steigerung der Systemfunktionalität integriert sein. Wie es in Fig. 1 gezeigt ist, ist beispielsweise eine Kompressions/Dekompressionsbibliothek 32 mit der Schnittstelle 20 verbunden und dient der Speicherung von Kompressionroutinen, Algorithmen, Nachschlagetabellen, und so weiter, für den Zugriff durch die Schnittstelle 20 (oder andere Systemkomponenten) bei der Ausführung von Kompressions- und Dekompressionsroutinen (das heißt, zur Speicherung verschiedener Routinen, Softwareversionen, Codetabellen, und so weiter). In der Praxis kann die Schnittstelle 20 ein Teil der Bibliothek 32 sein. Die Bibliothek 32 kann auch mit anderen Komponenten des Systems verbunden sein, wie mit den Clientstationen 22 oder der Druckerschnittstelle 24, die auch als Bibliothek oder Speicher für die Kompressions- und Dekompressionsroutinen und Algorithmen dienen. Obwohl sie in Fig. 1 als separate Komponente dargestellt ist, sollte verstanden werden, dass die Bibliothek 32 in einem geeigneten Server oder einer geeigneten Speichereinrichtung enthalten sein kann, was das Innere des Servers 18 einschließt. Des weiteren kann die nachstehend beschriebenen Kompressions- und Dekompressionsprozesse definierender Code direkt in die Schnittstelle 20 und/oder Bibliothek 32 geladen werden, oder kann über Netzverbindungen geladen oder aktualisiert werden, die landesweite Netze, offene Netze, und so weiter beinhalten.
  • Zusätzliche Systeme können mit dem PACS verbunden sein, wie direkt mit dem Server 28 oder über Schnittstellen, wie der Schnittstelle 19. Bei dem in Fig. 1 gezeigten Ausführungsbeispiel ist ein Radiologieabteilungs- Informationssystem oder RIS 34 mit dem Server 18 zur Erleichterung des Datenaustauschs, typischerweise von Querverweisungsdaten im Datenbankserver 28 und einem zentralen oder Abteilungsinformationssystem oder einer Datenbank verbunden. Gleichermaßen kann ein Krankenhausinformationssystem oder HIS 36 mit dem Server 28 auch zum Austauschen von Datenbankinformationen, Arbeitsablaufinformationen, und so weiter verbunden sein. Nach Wunsch können diese Systeme über eine Datenaustauschsoftware verbunden werden oder können teilweise oder vollständig mit dem PACS-System zur Bereitstellung eines Zugriffs auf Daten zwischen der PACS-Datenbank und Röntgenabteilungs- oder Krankenhausdatenbanken oder zur Bereitstellung einer einzelnen Querverweisdatenbank integriert sein. Gleichermaßen kann eine Schnittstelle zwischen externen Clients, die durch das Bezugszeichen 38 bezeichnet sind, und dem PACS gebildet werden, um die Betrachtung von Bildern an entfernten Orten zu ermöglichen. Derartige externe Clients können die Kompressionssoftware anwenden, oder können bereits dekomprimierten Bilddateien durch die Schnittstelle 20 empfangen. Wiederum können Verbindungen mit solchen externen Clients über eine geeignete Verbindung bewirkt werden, wie landesweite Netze, virtuelle private Netze, und so weiter.
  • Fig. 2 zeigt den für die Clients 20, 22, 24 und 30 durch den Datenbankserver 28 verfügbar gemachten Querverweisdatentyp genauer. Die allgemein mit dem Bezugszeichen 40 in Fig. 2 bezeichneten Datenbankeinträge enthalten Querverweisinformationen, die Patientendaten 42, Verweise auf spezielle Studien oder Untersuchungen 43, Verweise auf spezifische durchgeführte Prozeduren 44, Verweise auf abgebildete Anatomie 45 und weitere Verweise auf spezielle Bildfolgen 46 in der Studie oder Untersuchung enthalten. Der Fachmann erkennt, dass derartige Querverweisinformationen ferner Informationen hinsichtlich der Zeit und des Datums der Untersuchung und Reihen, den Namen des Diagnostizierenden, Bezug nehmenden oder anderen Arztes, das Krankenhaus oder die Abteilung, wo die Bilder erzeugt werden, und so weiter enthalten können. Die Datenbank enthält auch Adressinformationen, die spezifische Bilder, Dateinamen und Orte der Bilder identifizieren, wie es durch das Bezugszeichen 48 angegeben ist. Enthält das PACS verschiedene assoziierte Speichereinrichtungen oder Kurzzeitspeichersysteme, kann auf diese Orte in der Datenbank querverwiesen werden, und im Wesentlichen vor dem Endbenutzer versteckt werden, wobei auf die Bilddateien einfach durch das System zur Betrachtung von dem spezifischen Speicherort aus beruhend auf Querverweisinformationen in der Datenbank zugegriffen wird.
  • Wie es nachstehend näher beschrieben ist, werden gemäß gewissen Ausgestaltungen der Erfindung deskriptive Informationen zum Identifizieren bevorzugter oder optimaler Kompressionsroutinen verwendet, die zum Komprimieren von Bilddaten verwendet werden. Diese deskriptiven Informationen sind typischerweise aus Header-Abschnitten einer Bilddatenfolge verfügbar, was nachstehend näher beschrieben ist. Allerdings können vom Datenbankserver 28 verfügbare Informationen auch als Grundlage zum Vergewissern der Auswahlen der beim Kompressionsverfahren verwendeten Algorithmen dienen. Insbesondere kann man sich auf Datenbankverweise zum Identifizieren dieser deskriptiven Informationen als in einer Abbildungssequenz durchgeführte Prozeduren, spezifische Anatomie oder andere in rekonstruierten Bildern beruhend auf den Daten betrachtbare Merkmale, und so weiter stützen. Derartige Informationen können auch vom RIS 34 und vom HIS 36 verfügbar sein.
  • Fig. 2 zeigt auch eine Beispielbilddatei, auf die durch die Datenbankeinträge verwiesen wird. Wie es in Fig. 2 gezeigt ist, enthält die Bilddatei 50 eine Vielzahl von Bilddatensätzen 52, 54 und 56. In einer typischen Bilddatei kann eine große Anzahl dieser Bildsätze durch einen kontinuierlichen Datenstrom definiert sein. Jeder Datensatz kann entsprechend spezifischer Kompressionsalgorithmen komprimiert sein, wobei die nachstehend beschriebenen Kompressionsalgorithmen enthalten sind.
  • In jedem Bilddatensatz ist ein deskriptiver Header 58 zusammen mit einem Kompressionsheader 60 vorgesehen. Den Headern 58 und 60 folgen komprimierte Bilddaten 62. Der deskriptive Header 58 jedes Datensatzes enthält vorzugsweise Industriestandard- oder erkennbare deskriptive Informationen, wie deskriptive Daten, die dem DICOM-Standart genügen. Der Fachmann erkennt, dass diese deskriptiven Informationen typischerweise eine Identifizierung des Patienten, des Bildes, des Datums der Studie oder Reihe, der Modalität des die Bilddaten erzeugenden Systems, sowie zusätzliche Informationen hinsichtlich spezieller Anatomie oder in den rekonstruierten Bildern sichtbarer Merkmale enthalten. Wie es nachstehend näher beschrieben ist, werden diese deskriptiven Headerdaten vorzugsweise in der Erfindung zum Identifizieren optimaler Kompressionsalgorithmen oder Routinen verwendet, die zur Kompression der Daten im komprimierten Bilddatenabschnitt 62 verwendet werden. Daten, die auf den zur Kompression der Bilddaten verwendeten spezifischen Algorithmus oder die Routine Bezug nehmen, werden dann im Kompressionsheader 60 für eine spätere Bezugnahme bei der Dekompression der Bilddaten gespeichert. Wie es nachstehend beschrieben ist, werden zusätzliche Daten in den komprimierten Bilddaten gespeichert, die auf die im Kompressionsheader 60 identifizierten Algorithmen zur Verwendung bei der Dekompression der Bilddaten verweisen. Insbesondere enthält der Kompressionsheader 60 gemäß einem gegenwärtig bevorzugten Ausführungsbeispiel eine Identifizierung der Länge von Unterbereichen der komprimierten Bilddaten, sowie Verweise auf spezifische optimale Algorithmen in der Form von Kompressionscodetabellen, die zur optimalen Kompression der Unterbereiche verwendet werden.
  • Fig. 3 zeigt ein typisches Bild, das durch Pakete digitalisierter, in einem kontinuierlichen Datenstrom zusammengefügter Daten codiert ist, die bei der Erfindung komprimiert und dekomprimiert werden können. Das allgemein durch das Bezugszeichen 100 bezeichnete Bild enthält typischerweise interessierende Merkmale 102, wie spezifische anatomische Merkmale. Bei medizinischen Diagnoseanwendungen können diese Merkmale spezifische Anatomie und Bereiche eines Patienten beinhalten, die mittels der Physik der Bilderfassungsmodalität sichtbar gemacht werden, wie weiches Gewebe in MRI-System-Bildern, Knochen in Röntgenbildern, und so weiter. Jedes Bild umfasst eine Matrix mit einer Breite 104 und einer Höhe 106, die durch die Anzahl und Verteilung individueller Bildelemente 108 definiert sind. Die Bildelemente der Bildmatrix sind in Reihen 110 und Spalten 112 angeordnet, und habe sich verändernde Eigenschaften, die bei der Betrachtung im rekonstruierten Bild die interessierenden Merkmale definieren. In einer typischen medizinischen Diagnoseanwendung enthalten diese Eigenschaften beziehungsweise Charakteristiken eine Graustufenintensität oder Farbe. Im digitalisierten Datenstrom wird jedes Bildelement durch einen Binärcode dargestellt, wobei der Binärcode an den deskriptiven Header angefügt ist, um bei der Identifizierung des Bildes und bei seiner Verknüpfung mit anderen Bildern einer Studie zu helfen. Wie es vorstehend angeführt ist, können diese deskriptiven Informationen Industriestandardinformationen enthalten, wie Daten gemäß DICOM.
  • Fig. 4 ist eine grafische Darstellung von Intensitäten von ein Bild definierenden Bildelementdaten über ein Reihenpaar der Bildmatrix. Jede Reihe der Bildmatrix enthält eine Folge von Bildelementen, die jeweils durch Binärdaten codiert sind, die die Bildelementcharakteristiken beschreiben, typischerweise die Intensität. Somit entsprechen hellere Bereiche des rekonstruierten Bildes Bildelementen mit einem höheren Intensitätspegel, wobei dunklere Bereiche einen niedrigeren Intensitätspegel haben. In der grafischen Darstellung können die Intensitätspegel der Bildelemente über das Bild einer Kontur oder Kurve wie in Fig. 4 gezeigt bilden. Fig. 4 zeigt insbesondere eine erste Reihe 114 neben einer zweiten Reihe 116, wobei jede Reihe eine Folge von Bildelementen mit verschiedenen Intensitäten enthält, wie es jeweils durch die Kurven 118 und 120 gezeigt ist. Der Fachmann erkennt, dass der Graph der Bildelementintensitäten in der Praxis eine Treppenfunktion entlang der Positionsachse 122 mit Amplituden bilden würde, die sich entlang der Intensitätsachse 124 verändern.
  • Aus Fig. 4 ist ersichtlich, dass sich Intensitätsschwankungen in einem tatsächlichen Bild entlang von Reihen und entlang von Spalten, wie durch entsprechend plazierte Intensitäten bei der Bewegung nach oben oder unten durch angrenzende Reihen dargestellt, entsprechend den im rekonstruierten Bild dargestellten Merkmalen verändern. Wie es in Fig. 4 gezeigt ist, enthält die Reihe 114 Bereiche steigender und fallender Intensitäten, wobei Bereiche sowohl kleinster Intensitäten als auch hoher Intensität enthalten sind. Die Reihe 116 beinhaltet Bereiche ähnlicher Intensität, die sich allerdings mittels der im Bild dargestellten Merkmale verändert. Erfindungsgemäß ist der Bilddatenstrom auf Unterbereiche reduziert, wie es allgemein durch das Bezugszeichen 126 in Fig. 4 dargestellt ist. Obwohl die Unterbereiche verschiedene Längen haben können (das heißt verschiedene Anzahlen von Bildelementen), enthält jeder Unterbereich im gegenwärtig bevorzugten Ausführungsbeispiel Daten, die die gleiche Anzahl an Bildelementen codieren. Der Fachmann erkennt allerdings, dass sich nach der Kompression die tatsächliche Länge der Codes für den Unterbereich in Abhängigkeit von der Intensität der Bildelemente im Unterbereich und dem dynamischen Bereich der die Bildelementeintensitäten codierenden digitalen Daten verändert. Es ist anzumerken, dass dann, wenn die Reihenlänge der Bildmatrix ein ganzzahliges Vielfaches der Unterbereichsbreite ist, individuelle Unterbereiche bei einer Abwärtsbewegung in der Bildmatrix wie in Fig. 4 gezeigt zueinander ausgerichtet sind. Im Allgemeinen ist die Erfindung aber nicht auf dieses ganzzahlige Reihenbreitenvielfache beschränkt.
  • Jeder Unterbereich des Bilddatenstroms kann zum Identifizieren von Entropiegraden der Bilddaten für Kompressionszwecke analysiert werden. Im Allgemeinen bezieht sich die Entropie der Bilddaten auf die relative Schwankung in den Bildelementintensitäten in jedem Unterbereich. Obwohl ein bestimmter Unterbereich Bildelemente einer hohen Intensität oder einer geringen Intensität enthalten kann, wobei der Intensitätspegel im Unterbereich relativ stabil oder konstant ist, ist die Entropie somit gering. Derartige Bereiche sind beispielsweise in Fig. 4 gezeigt, in Abschnitten der Kurven 114 und 116, die jeweils durch Bezugszeichen 128 und 132 bezeichnet sind. Sind dagegen wesentliche Schwankungen in der Bildelementintensität durch die Unterbereichdaten codiert, ist der Entropiegrad hoch. Derartige Bereich sind in Fig. 4 an den Bezugszeichen 130 und 134 gezeigt. Es wurde herausgefunden, dass durch die Unterteilung des Bilddatenstroms in Unterbereiche, die in Abhängigkeit von den Bildcharakteristiken verschiedene Längen haben können, und durch Analysieren des relativen Entropiegrads des Unterbereichs die Unterbereiche optimal entsprechend einem mehrerer Kandidatenkompressionsalgorithmen komprimiert werden können. Insbesondere verwendet die Erfindung eine Reihe vordefinierter Kompressionscodetabellen, die zum Übersetzen von Bildelementprädiktionsfehlern in komprimierte Codes für jeden Unterbereich dienen. Die für jeden Unterbereich ausgewählte spezifische Kompressionstabelle ist eine Funktion der für den Unterbereich in der Kompressionsroutine identifizierten Entropie.
  • Wie es nachstehend näher beschrieben ist, verwendet die Erfindung vorzugsweise Bildelementwertprädiktoren und identifiziert Unterschiede zwischen vorhergesagten Werten individueller Bildelemente (das heißt, dem Binärcode für die Bildelementintensitäten oder eine andere Charakteristik) und dem tatsächlichen Wert für die jeweiligen Bildelemente. Tatsächlich können mehrere Prädiktoralgorithmen angewendet werden, wobei der spezifische Prädiktor beruhend auf Bildcharakteristiken identifiziert wird, wie beruhend auf in einem deskriptiven Header für den Bilddatenstrom codierten Charakteristiken. Die Prädiktoren beruhen auf Vergleichen von Zielbildelementen oder interessierenden Bildelementen mit benachbarten Bildelementen. Fig. 5 stellt eine Bildelementnachbarschaft dar, die als Basis für in den Prädiktoralgorithmen durchgeführten Bezugnahmen dient. Die durch das Bezugszeichen 138 in Fig. 5 bezeichnete Bildelementnachbarschaft beinhaltet das mit p(i, j) bezeichnete interessierende Bildelement 136. Benachbarte Bildelemente beinhalten ein "nordwestliches" Bildelement 140, das mit p(i - 1, j - 1) bezeichnet ist, ein "nördliches" Bildelement 142, das mit p(i, j - 1) bezeichnet ist, ein "nordöstliches" Bildelement 144, das mit p(i + 1, j - 1) bezeichnet ist, und ein "westliches" Bildelement 146, das mit p(i - 1, j) bezeichnet ist. Einige oder alle dieser Bildelemente können im Prädiktoralgorithmus verwendet werden, oder weitere zusätzliche Bildelemente können in einer größeren Nachbarschaft vorgesehen werden.
  • Das bevorzugte Verfahren der Kompression des Bilddatenstroms im vorstehend beschriebenen System zur Erzeugung hybrider komprimierter Bilddatendateien ist in Fig. 6 zusammengefasst. Die Steuerlogik kann in eine Reihe von logischen Blöcken oder Segmenten unterteilt werden, die ein Konfigurationssegment 250 enthalten, in dem optimale Kompressionsalgorithmen, Tabellen, Prädiktorpräferenzen, Block- oder Unterbereichslängenpräferenzen, und so weiter errichtet sind. In einem Datenzugriffs- und Abrufsegment 252 werden die zu komprimierenden Bilddaten wie die deskriptiven Informationen vom Datenbankserver 28, falls verwendet, empfangen. In einem Bewertungssegment 254 werden die Bilder beruhend auf den im Konfigurationssegment 250 eingerichteten Algorithmen und Präferenzen bewertet. In einem Kompressionssegment 256 werden bestimmte Werte berechnet und für die Kompressionsroutine ausgewählt, und die Bilddaten werden zur Erzeugung der resultierenden komprimierten Datei komprimiert. Zu den komprimierten Daten wird im Abschlusssegment 258 ein Datencode hinzugefügt. Die Datei ist dann in Schritt 260 vollständig und wird in Schritt 262 gespeichert. Die Kompressions- und Dekompressionslogik wird dann durch einen eventuellen Zugriff auf die komprimierte Bilddatei in Schritt 264, den Abruf eines Dekompressionsalgorithmus oder von Dekompressionsalgorithmen in Schritt 266 und eine Dekompression in Schritt 268 zur Betrachtung und Ausgabe beendet. Die vorstehenden logischen Segmente und Prozesse werden nachstehend näher beschrieben.
  • Das Konfigurationssegment 250 der Steuerlogik enthält die Schritte der Konfiguration der spezifischen Kompressions-, Prädiktor- und Block- oder Unterbereichsalgorithmen, die in der Routine verwendet werden. Somit wird in Schritt 270 eine Reihe von Kompressionscodetabellen für die optimale Kompression von Unterbereichen der Bilddaten beruhend auf relativen Entropiegraden erzeugt, wie sie durch Prädiktionsfehler angegeben werden. Der Fachmann erkennt, dass derartige Kompressionscodetabellen zum Herstellen eines Querverweises für ursprüngliche Werte mit komprimierten Werten im Allgemeinen entsprechend vorweggenommener Verteilungen oder Auftrittshäufigkeiten der ursprünglichen Werte dienen. Bei dem gegenwärtig bevorzugten Ausführungsbeispiel wird eine Reihe von Kompressionscodetabellen beruhend auf der Analyse typischer durch die Routine zu komprimierender Bilder errichtet. Obwohl sich die in den Kompressionscodetabellen implementierte Codierung und die Bereiche ändern, und in spezifischen Anwendungen im Allgemeinen empirisch bestimmt werden, sind Beispiele mehrerer solcher Kompressionscodetabellen in den Fig. 7-12 dargestellt.
  • Gemäß den Fig. 7-12 umfasst jede Kompressionscodetabelle, wie die Tabelle 170 in Fig. 7, eine Folge komprimierter Datenwerte 172, die auf ursprüngliche Bildparameter 174 bezogen sind. In dem in den Figuren gezeigten Beispiel kann eine Analyse eine Angabe der resultierenden Codeverbindungen in Bits, was durch das Bezugszeichen 176 angegeben ist, und eine durch jeden Tabelleneintrag übersetzte Codespanne enthalten, was durch das Bezugszeichen 178 angegeben ist. Im veranschaulichten Ausführungsbeispiel übersetzt der komprimierte Datencode der Spalte 172 Differenzwerte der Spalte 174, wie sie durch die Anwendung von Prädiktoren in der Kompressionsroutine identifiziert werden, gefolgt von der Bestimmung der Differenzen zwischen den vorhergesagten und tatsächlichen Werten. Wird beispielsweise ein Differenzwert von 1 beruhend auf einem Prädiktoralgorithmus wie nachstehend beschrieben identifiziert, stellt die Tabelle 170 einen komprimierten Datencode von 100 bereit. Es ist wiederum anzumerken, dass der Differenzwert nicht immer den Wert des codierten Bildelements selbst darstellt, sondern eine Differenz zwischen einem prädizierten Wert und einem tatsächlichen Wert. Somit erhält das interessierende Bildelement, das sich vom prädizierten Wert um 1 unterscheidet, eine Codelänge von 3 Bits, die in Spalte 176 in der Tabelle 170 zusammengefasst ist, einen komprimierten Datenwert von 100, obwohl der Bildelementwert selbst erheblich länger sein kann. Wie es auch aus Fig. 7 ersichtlich ist, können die in der Spalte 172 vorgesehenen komprimierten Datencodes zusammengefasst werden, dass sie einen ersten Abschnitt 180 zur Bestimmung der Stufe in der Tabelle gefolgt von einem zweiten Abschnitt 182 enthalten, der die Position innerhalb der Stufe oder des Bereichs angibt. Beispielsweise würde im Fall der Tabelle aus Fig. 7 ein Differenzbereich von -2 bis -3 als 1101 gefolgt von einem zusätzlichen Bit codiert, das auf einen Wert von 0 oder 1 in Abhängigkeit davon gesetzt wird, ob die Differenz -2 oder -3 ist. An einem oberen Grenzbereich wird der komprimierte Datencode als der tatsächliche Wert der individuellen Bildelemente genommen, was nachstehend unter Bezugnahme auf Fig. 13 beschrieben ist.
  • Wie es aus den Figuren ersichtlich ist, werden die Komprimierungscodetabellen zum Übersetzen von Prädiktionsfehlern oder Differenzen im komprimierten Code zur Bereitstellung eines Codierbereichs eingerichtet, der für die Grade oder Variationen in den Differenzwerten für jeden Unterbereich des Datenstroms geeignet ist. Insbesondere ist die Tabelle 170 in Fig. 7 an einen niedrigsten Entropiegrad angepasst, wie es durch die geringe Differenzschwankung (null), die durch den kürzesten Code in der Tabelle angepasst ist, und durch die relativ feinen Schritte zwischen den Differenzgraden gezeigt ist. Fig. 8 stellt eine zweite Kompressionscodetabelle 184 für eine relativ höhere Entropie dar, wie es durch die relativ breiteren maximalen durch die Tabelle angepassten Stufen und die relativ höheren Differenzbereiche verglichen mit Tabelle 170 in Fig. 7 angegeben ist. Die Fig. 9, 10, 11 und 12 liefern zusätzliche Beispiele von Kompressionscodetabellen 186, 188, 190 und 192 jeweils zur Codierung sukzessiv höherer Entropiegrade, wie sie durch die Prädiktionsfehler oder Differenzen in den verschiedenen Unterbereichen angezeigt sind. Im veranschaulichten vorliegenden Ausführungsbeispiel sind die Codetabellen unter Verwendung eines Huffmann-Codebasierten Präfix und einer Mehrfachbiterweiterung aufgebaut.
  • Es ist anzumerken, dass das durch jede Kompressionscodetabelle in der Familie der Tabellen bereitgestellte Kompressionsverhältnis sich in Abhängigkeit vom relativen Entropiegrad verändert, für den eine Anpassung erfolgen soll. Somit liefert die Tabelle 170 in Fig. 7 ein relativ hohes maximales Kompressionsverhältnis von 16 : 1, während die Tabelle 192 in Fig. 12 ein geringeres maximales Kompressionsverhältnis 2,29 : 1 liefert. Es wurde allerdings herausgefunden, dass die Verwendung einer Vielzahl verschiedener Kompressionscodetabellen zur Anpassung der verschiedenen Entropien der Datenstromunterbereiche in einer exzellenten Kompression aufgrund der Verwendung von komprimierten Datencodelängen resultiert, die optimal zur Anpassung der Schwankungen in Prädiktionsdifferenzen für die Unterbereiche ausgewählt werden.
  • Es wurde herausgefunden, dass für spezifische Bildtypen oder für Bilder mit speziellen typischen Charakteristiken verschiedene Entropiegrade erwartet werden können. Beispielsweise können bei der medizinischen Diagnoseabbildung relativ hohe Entropiegrade für spezielle Modalitäten erwartet werden, wie CT- und MRI-Daten. Andere Abbildungsmodalitäten können Bilder mit relativ geringeren Schwankungen in den Bildintensitätspegeln liefern, die durch niedriger Entropiegrade und dementsprechend geringere Prädiktionsdifferenzen wiedergegeben werden. Des weiteren wurde herausgefunden, dass spezielle Bildtypen höhere oder niedrigere Charakteristikentropiewerte liefern. Auf dem Gebiet der medizinischen Diagnostik können derartige Bildtypen eine spezielle Anatomie, wie Brust, Kopf, Extremitäten, und so weitere, beinhalten, die mehr oder weniger Schwankungen oder stärkere oder schwächere Kantenlinien und Kontrast liefern. Die spezifische Familie der Kompressionscodetabellen wird dann vorzugsweise beruhend auf den durch das System zu komprimierenden typischen Bildern errichtet.
  • Gemäß Fig. 6 setzt das Konfigurationssegment 250 mit der im Schritt 270 erzeugten und gespeicherten Familie der Kompressionscodetabellen die Erzeugung von Prädiktorpräferenzen fort, was in Schritt 272 angezeigt ist. Wie es vorstehend beschrieben ist, können anstelle der Verwendung tatsächlicher Bildelementintensitätswerte zur Codierung gemäß dem vorliegenden Kompressionsverfahren verschiedene Werte beruhend auf den Prädiktoralgorithmen verwendet werden. Die Prädiktoralgorithmen erzeugen im Allgemeinen relativ niedrige Werte in niedrigen Entropiebereichen des Bildes und relativ höhere Werte in höheren Entropiebereichen. Allerdings resultiert die Verwendung von Prädiktionsfehlern für die Datenkompression allgemein in der Kompression von Werten, die niedriger (das heißt, kürzer in der Länge) als die ursprünglichen Datenstromcodewerte aufgrund der relativ graduellen Progression von Intensitätsschwankungen über das Bild sind.
  • Bei dem gegenwärtig bevorzugten Ausführungsbeispiel können ein oder mehrere mehrerer Prädiktoralgorithmen verwendet werden. Gemäß Fig. 5 wird in einem einfachen und geradlinigen Algorithmus der Wert jedes Bildelements p(i, j) als Wert des unmittelbar vorhergehenden Bildelements P(i - 1, j) vorhergesagt. Dieser Prädiktoralgorithmus liefert ein bezüglich der Berechnung äußerst effizientes Werkzeug zur Prädiktion des Bildelementwerts, wobei das erste Bildelement im Bild mit einem Wert von null geschätzt wird. Der Differenzwert wird dann durch das Auffinden des Absolutwertes der Differenz zwischen dem vorhergesagten Wert und dem tatsächlichen Wert für das interessierende Bildelement erzeugt. Die resultierenden Differenzwerte bilden eine Matrix gleicher Größe hinsichtlich der ursprünglichen Bildmatrix.
  • Gegenwärtig werden mehrere alternative Prädiktoralgorithmen in Betracht gezogen, und andere können genauso gut angewendet werden. Bei dem gegenwärtig bevorzugten Ausführungsbeispiel können die Prädiktoralgorithmen wie folgt zusammengefasst werden:

    Ip(i, j) = Ip(i - 1, j) (P1);

    Ip(i, j) = Ip(i - 1, j) + Ip(i, j - 1) - Ip(i - 1, j - 1) (P2);

    Ip(i, j) = ((3.(Ip(i - 1, j) + Ip(i - 1, j - 1) + Ip(i, j - 1) + Ip(i + 1, j - 1))/6 (P3);

    Ip(i, j) = ((-2.I(i -1, j - 1)) + (3.Ip(i, j - 1)) + (3.Ip(i - 1, j)))/4 (P4);


    Ip(i, j) = Ip(i, j - 1) + Ip(i - 1, j))/2 (P6);

    wobei die Notation "I" die Bildelementintensität darstellt, und die individuellen Bildelementbezeichnungen entsprechend Fig. 5 abgebildet sind.
  • Wiederum wurde herausgefunden, dass verschiedene Prädiktoren insbesondere für verschiedene Bildtypen, für Bilder, die sich aus verschiedenen Modalitäten ergeben, und für verschiedene Merkmale oder Anatomien geeignet sind, die im rekonstruierten Bild sichtbar sind. Beispielsweise liefert der Prädiktoralgorithmus P1 eine äußerst einfache und schnelle "letzte Wert"-Schätzung jedes aktuellen Bildelementwerts. Der Prädiktor P2 liefert einen gewissen Grad einer Kantenerfassungsfähigkeit, kann aber den Einfluss von Rauschen im Bild hervorheben. Der dritte Prädiktorwert P3 ist ein linearer Prädiktor, der sich bei bestimmten Bildtypen als nützlich erweist, und Werte für mehr umgebende Bildelemente anwendet, wobei der letze Wert stärker gewichtet wird. In der Praxis werden die in Schritt 272 in Fig. 6 erzeugten Prädiktorpräferenzen empirischen Ergebnissen für verschiedene Bildtypen und Modalitäten folgen.
  • Der letzte im Segment 250 der Steuerlogik aus Fig. 6 dargestellte Schritt ist die Erzeugung von Unterbereichspräferenzen für die Unterteilung des Bilddatenstrom in Unterbereiche. Obwohl die Längen der Unterbereiche des Bilddatenstroms unterschiedlich sein können, oder von Faktoren, wie dem Entropiegrad abhängen können, werden bei dem gegenwärtig bevorzugten Aufbau wie vorstehend angeführt die Unterbereichslängen zueinander gleich eingestellt, können sich aber in Abhängigkeit von Faktoren verändern, wie der die Bilddaten liefernden Modalität, dem Bildtyp, der im rekonstruierten Bild gezeigten Anatomie, und so weiter. Beispielsweise werden Unterbereichslängen von 32 Bildelementen gegenwärtig als Vorgabewert eingestellt, aber alternative Unterbereichslängen von 8, 16, 24 oder mehr als 32 Bildelementen werden in Betracht gezogen. Im Allgemeinen hängen die in Schritt 274 dieses Ausführungsbeispiels eingestellten Präferenzen von der Anzahl an Spalten in der Bildmatrix ab, wobei Unterbereichslängen von 8 für Matrizen mit 64 Spalten oder weniger verwendet werden, Unterbereichslängen von 16 für Matrizen mit 128 Spalten oder weniger verwendet werden, und so weiter. Zur Verringerung der Berechnungskomplexität und zur Steigerung der Geschwindigkeit werden bei dem gegenwärtig bevorzugten Ausführungsbeispiel die Unterbereiche entlang der Hauptrichtung oder Achsen (das heißt, Reihen oder Spalten) der Bildmatrix genommen, was von der Richtung abhängt, mit der die Daten gespeichert werden. Ferner sind die Unterbereiche vorzugsweise nur eindimensional.
  • Mit der Einstellung der Kompressionsalgorithmen, Tabellen, Prädiktorpräferenzen und Unterbereichsgrößenpräferenzen geht die in Fig. 6 gezeigte Steuerlogik zum Segment 252 über. In diesem Segment der Logik werden die Bilddaten empfangen, wie es in Schritt 276 gezeigt ist. Wie es vorstehend angeführt ist, können die Bilddaten direkt von einer externen Quelle empfangen werden, oder können aus einem Speicher im PACS selbst abgerufen werden. In Schritt 278 werden deskriptive Informationen, die zur Auswahl von Algorithmen oder Parametern der Kompressionsroutine verwendet werden, vom Datenbankserver abgerufen. Wie es vorstehend angeführt ist, können derartige deskriptive Informationen in Datenbanken gespeichert sein, und können die im deskriptiven Header des Bilddatenstroms enthaltenen Informationen ergänzen.
  • Nach dem Segment 252 geht die Steuerung zum Bewertungssegment 254 über. In diesem Segment werden die Bilddaten auf deskriptive Informationen untersucht, was in Schritt 280 angegeben ist. Sind deskriptive Informationen verfügbar, wie Daten gemäß DICOM in einem deskriptiven Headerabschnitt des Bilddatenstroms oder deskriptive Daten von der Datenbank, wie es vorstehend beschrieben ist, werden einige oder alle diese Daten in Schritt 280 durchgesehen. Beruhend auf den im Konfigurationssegment 272 gesetzten Präferenzen werden in Schritt 282 Prädiktoren in Abhängigkeit von den in Schritt 280 identifizierten Bildcharakteristiken ausgewählt. Diese können wiederum die Modalität des ursprünglichen Abbildungssystems, den Studientyp oder die im Bild dargestellte Anatomie, die Anzahl der Spalten im Bild, die Anzahl der Reihen, und so weiter, beinhalten. Des weiteren können weitere Faktoren bei der Auswahl der Prädiktoren in Schritt 282 berücksichtigt werden, wie die gewünschte Berechnungseffizienz, die Verarbeitungsleistung des Systems, und so weiter, wobei berechnungseffiziente Prädiktoren ausgewählt werden, wenn die Prozessorfähigkeiten begrenzt sind, oder wo eine zusätzliche Geschwindigkeit gewünscht wird. In Schritt 284 wird die Unterbereichsgröße zur Einteilung des Bilddatenstroms in Unterbereiche entsprechend den in Schritt 274 eingerichteten Präferenzen ausgewählt. Wiederum kann Schritt 284 aus einer Vorgabeauswahl bestehen, die in Abhängigkeit von einigen oder allen Charakteristiken oder Faktoren geändert werden kann, die für die Auswahl der Prädiktoren berücksichtigt werden.
  • Das Bewertungssegment 254 fährt mit der Auswahl einer Untergruppe von Kompressionstabellen fort, wo dies geeignet ist, was in Schritt 286 angegeben ist. Insbesondere kann es beruhend auf gewissen Bildcharakteristiken sinnvoll sein, bestimmte Kompressionstabellen als Vorgaben zuvor auszuwählen. Beispielsweise können sich aus speziellen Modalitäten, wie CT- oder MR-Bildern ergebende spezifische Bildtypen mit speziellen Kandidatentabellen am besten komprimiert werden, die in Schritt 286 ausgewählt werden können. In Schritt 288 wird ein Kompressionsheader an die Bilddaten angefügt. Wie es nachstehend beschrieben ist, enthält dieser Kompressionsheader einen die Version der Kompressionsroutine, die in Schritt 282 ausgewählten Prädiktoren, die in Schritt 284 ausgewählten Unterbereichsgrößen, und so weiter identifizierenden Code.
  • Im Kompressionssegment 256 der Steuerlogik wird in Schritt 290 ein Satz von Prädiktionsfehlern oder Differenzwerten berechnet. Wie es vorstehend angeführt ist, beruhen diese Werte auf der Anwendung eines oder mehrerer in Schritt 282 ausgewählter Prädiktoralgorithmen und auf dem nachfolgenden Vergleich der vorhergesagten Werte mit den tatsächlichen Werten für jedes Bildelement zur Bestimmung des Prädiktionsfehlers oder der Differenz. Die resultierenden Prädiktionsfehler bilden dann einen Datenstrom, wobei dem ersten Bildelement sein tatsächlicher Wert zugewiesen ist, gefolgt von den Differenzwerten für jedes Bildelement des Unterbereichs.
  • Dieses Verfahren liefert eine optimale Kompression jedes Unterbereichs beruhend auf der geeigneten Auswahl aus Tabellen aus der Familie der Kompressionscodetabellen, die in Schritt 270 errichtet wird. Zur Bestimmung, welche Tabelle die beste Kompression liefert, werden in Schritt 290 der Steuerlogik aus Fig. 6 Kandidatenlängen komprimierter Daten durch die Anwendung jeder Kandidatenkompressionstabelle bei dem sich aus der Anwendung der Prädiktoralgorithmen ergebenden Daten berechnet. Die Gesamtdatenstromlänge für jeden Unterbereich wird für jeden Fall summiert (das heißt, für jede Anwendung jeder Kompressionscodetabelle). Ist dies für jeden Unterbereich abgeschlossen, werden die resultierenden Summen zum Identifizieren verglichen, welche Kompressionscodetabelle im kürzesten Datenstrom für den Unterbereich resultiert. Die entsprechende Kompressionscodetabelle wird dann ausgewählt, was in Schritt 292 gezeigt ist. In Schritt 294 wird dann die ausgewählte Tabelle für jeden Unterbereich identifizierender Code in die komprimierten Daten und ihren Header eingefügt, was nachstehend näher beschrieben ist.
  • Wie es vorstehend angeführt ist, kann das Bewertungssegment 254 oder das Kompressionssegment 256 Vorgaben und Einschränkungen bei der Auswahl der optimalen Codetabellen beinhalten. Beispielsweise in Abhängigkeit von Faktoren, wie der Bittiefe der zu codierenden Bilddaten können bestimmte Vorgabeauswahlen unter den Kompressionscodetabellen gemacht werden, wie die Auswahl der ersten vier Tabellen für Bittiefen von 8 oder weniger. Außerdem können bestimmte Präferenzen für bestimmte Kompressionscodetabellen bei diesem Auswahlvorgang in Abhängigkeit von Faktoren getroffen werden, wie der Modalität, die die Bilddaten liefert. Beispielsweise können CT- und MRI-Daten zum Codieren höherer Übergänge von Bildelementeintensitäten tendieren, die höheren Entropiebereichen entsprechen. Dementsprechend können Präferenzen in die Auswahl der Kompressionscodetabellen in Abhängigkeit von den in Schritt 280 durchgesehenen deskriptiven Daten aufgenommen werden, sodass eine oder mehrere höhere Entropietabellen für Bilder bevorzugt werden, die sich bei derartigen Modalitäten ergeben. Schließlich wird bei dem gegenwärtig bevorzugten Ausführungsbeispiel Code direkt in den komprimierten Datenstrom zum Liefern einer Angabe eingefügt, welche der ausgewählten Tabellen für die Kompression der individuellen Unterbereiche verwendet wird. Zum Optimieren der Kompression kann es erwünscht sein, die Anzahl der Tabellen, die im Vorverarbeitungssegment der Steuerlogik ausgewählt werden können, auf eine Anzahl zu begrenzen, die in einer begrenzten Anzahl von Bits passend codiert werden kann, wie 2 Bits von Daten. Wo Tabellenidentifikationscodes in 2 Bits vorzusehen sind, kann demnach im Vorverarbeitungssegment eine Einschränkung derart auferlegt werden, dass lediglich 4 der Kandidatentabellen für die Kompression ausgewählt werden können. Ist ein zusätzliches Bit für die Identifizierung der Tabellen verfügbar, können 8 Kandidatentabellen ausgewählt und codiert werden.
  • In Schritt 294 wird ein Schlüsselcode für die Unterbereichskompression in den komprimierten Datenstrom eingefügt, der den komprimierten Unterbereichsdaten unmittelbar vorhergeht. Wie es vorstehende angeführt ist, kann bei der Verwendung von 4 Kandidatentabellen für die Kompression der in Schritt 194 eingefügte Code ein Paar bestimmter Bits enthalten. Der in Schritt 288 erzeugte Kompressionsheader stellt einen Querverweis zwischen diesem Schlüsselcode und den ausgewählten Kompressionstabellen her. In Schritt 296 werden die Bilddaten für den Unterbereich durch die Anwendung der ausgewählten Kompressionscodetabelle komprimiert. Die Folge der Schritte des Segments 256 wird für jeden Unterbereich des Bildes wiederholt, bis das gesamte Bild komprimiert ist.
  • Im letzten Segment 258 sind die komprimierten Daten für jedes Bild vollständig. Insbesondere wird in Schritt 298 ein Kompressionsendeblock zu den komprimierten Daten hinzugefügt. In Schritt 300 werden Füllbits eingefügt, die dem Kompressionsendeblock folgen. Schließlich wird in Schritt 302 ein über den Kompressionsprozess berechneter Prüfsummenwert zu den komprimierten Daten zur Bereitstellung eines Mittels zum Verifizieren einer richtigen Dekompression hinzugefügt. Die Position und der Typ des zu den komprimierten Daten während des Segments 258 hinzugefügten Codes wird nachstehend näher unter Bezugnahme auf Fig. 13 beschrieben.
  • Ist ein deskriptiver Header für die ursprünglichen Bilddaten vorgesehen, wird der deskriptive Header vorzugsweise wieder angrenzend an den Kompressionsheader zur Vervollständigung der Bilddatei gesetzt, was in Schritt 260 gezeigt ist. Man erkennt, dass die resultierende Datendatei eine hybride komprimierte Datendatei ist, in der die deskriptiven Headerdaten für die Bildmanipulation, den Zugriff, die Übertragung und ähnliche Zwecke lesbar ist, während die Masse der Bilddaten wie vorstehend beschrieben optimal komprimiert ist. In Schritt 262 wird die resultierende Datei gesichert, typischerweise in einem Kurzzeitspeichersystem, oder in einem Archiv. In Schritt 264 wird auf das Bild für eine Überprüfung, Analyse, Ausdruckerzeugung, und so weiter zugegriffen. Beim Zugriff auf das Bild werden die in der hybriden komprimierten Datendatei identifizierten Dekompressionsalgorithmen für die Dekompression abgerufen, und die komprimierten Bilddaten werden dekomprimiert, wie es in Schritt 262 gezeigt ist. Diese Dekompression folgt den Dekompressionheaderinformationen, wobei die gleichen Kompressionscodetabellen zur Dekompression der Daten angewendet werden, wie sie zur Kompression dieser für jeden Unterbereich angewendet werden. Diese Anwendung der Kompressionscodetabellen resultiert in der Identifizierung der Prädiktionsfehler oder Differenzen, auf der die Kompression beruhte, und der spezifische Prädiktoralgorithmus beziehungsweise die zur Erzeugung der Differenzen verwendeten Algorithmen werden dann zur Neuerzeugung der ursprünglichen Bilddaten auf verlustlose Weise verwendet.
  • Fig. 13 zeigt einen Bilddatensatz, der gemäß dem vorstehend beschriebenen Verfahren komprimiert ist. Der Bilddatensatz, der allgemein durch das Bezugszeichen 194 bezeichnet ist, enthält den in Schritt 160 angefügten deskriptiven Header 196 zusammen mit dem in Schritt 192 angefügten Kompressionsheader 198. Dem Kompressionsheader 198 folgen die komprimierten Bilddaten 200, die komprimierte Bildunterbereiche 202, 204, und so weiter enthalten. Jeder komprimierte Datenunterbereich enthält wiederum eine Identifizierung des Algorithmus beziehungsweise der Algorithmen (beispielsweise Kompressionscodetabellen), die zur Codierung des Unterbereichs verwendet werden, gefolgt von den tatsächlichen komprimierten Daten.
  • Fig. 13 zeigt auch ein gegenwärtig erwogenes Format für einen Kompressionsheader 198. Wie es in Fig. 13 gezeigt ist, enthält der Kompressionsheader eine Identifikation der Kompressionsroutinenversion 206 gefolgt von einer Identifizierung der im Kompressionsprozess 107 verwendeten Prädiktoren und einer Identifizierung der Unterbereichslänge am Bezugszeichen 208. Ein Kompressionsalgorithmusidentifizierungssegment 210 ist dann im Kompressionsheader zum Identifizieren eingefügt, welcher Kompressionsalgorithmus (beispielsweise welche Kompressionscodetabelle) für die Kompression ausgewählt wurde, und die Art und Weise, wie jede Tabelle im Datenstrom für jeden Unterbereich codiert ist. Im Beispiel in Fig. 3 wurden beispielsweise Tabellen 0, 3, 4 und 5 ausgewählt, was durch das Bezugszeichen 212 angegebene ist, wobei jede Tabelle durch einen binären 2-Bit-Code identifiziert wird, der in den ersten 2 Bits der komprimierten Daten für jeden Unterbereich gefunden wird.
  • Fig. 13 zeigt auch das Format für den komprimierten Datencode für jeden Bildunterbereich 202, 204, und so weiter gemäß dem gegenwärtig bevorzugten Ausführungsbeispiel. Im veranschaulichten Ausführungsbeispiel enthält ein erster Abschnitt jedes Unterbereichs eine Identifikation der zur Kompression der Unterbereichsdaten verwendeten Kompressionstabelle, wie es durch das Bezugszeichen 214 für den Unterbereich 202 und das Bezugszeichen 218 für den Unterbereich 204 angegeben ist. Diesem Schlüsselcode folgen die Kompressionscodes, was jeweils durch die Bezugszeichen 216 und 220 angegeben ist. Schließlich veranschaulicht Fig. 13 den am Ende jeder komprimierten Datendatei oder Abschnitt einer Datei eingefügten Code. Insbesondere ist dem letzten Unterbereich BN des Bildes folgend das Ende des Blockcodeabschnitts 222 angefügt. Wie es vorstehend angeführt ist, signalisiert dieses Blockcodeende das Ende eines Bildes, oder kann zum Signalisieren des Endes eines Abschnitts eines Bildes verwendet werden, wenn die Datenkompressionsroutine in einem einzelnen Bild verändert wird, wie beispielsweise aufgrund starker Schwankungen in der Bilddatenentropie. Der Füllcode ist eingefügt, wie es durch das Bezugszeichen 224 angegeben ist. Dieser Code kann eine variable Größe haben, wie sie zum Vervollständigen der komprimierten Datendatei auf eine Gesamtwortlänge erforderlich ist. Schließlich ist ein 32-Bit- Prüfsummenabschnitt 226 zur Vervollständigung der komprimierten Daten angefügt.
  • Die vorstehenden Ausgestaltungen der vorliegenden Erfindung können auf verschiedene Weise in Abhängigkeit vom zu komprimierenden Bildtyp angepasst werden. Beispielsweise kann das Verfahren sowohl bei Bildern aus variierenden Graustufen als auch bei Farbbildern angewendet werden. Der Fachmann erkennt, dass Farbbilder typischerweise aus verschiedenen Farbkomponenten bestehen, die die Erscheinung von Farbveränderungen aufgrund ihrer jeweiligen Intensitäten erzeugen. Das vorstehende Verfahren kann entweder mit oder ohne Trennung der Farbkomponenten voneinander angewendet werden, wird aber vorzugsweise durch das Trennen der Farbkomponenten und Verarbeitung (das heißt, Komprimieren) der Komponenten in Gruppen angewendet. Gleichermaßen können Multirahmenbilder im vorliegenden Verfahren in Betracht gezogen werden. Der Fachmann erkennt, dass diese Bilder typischerweise eine Vielzahl separater Bilder umfassen, die in Reihen und Spalten codiert sind, ohne dass separate deskriptive Header (beispielsweise DICOM-entsprechende Header) zwischen den separaten Bildern positioniert sind. In diesen Fällen werden vorzugsweise Codeidentifizierungsverschiebungen in den komprimierten Daten, die Orten verschiedener Bildrahmen entsprechen, in den deskriptiven Header der hybriden komprimierten Datendatei eingefügt.
  • Es wurde herausgefunden, dass das vorstehende Bilddatenkompressions- und Dekompressionsverfahren weiter für eine Mehrfachauflösungs-(oder Mehrfachgrößen-) Bilddatenkompression zur weiteren Verbesserung von Datentransferraten und der Dekompression verfeinert werden kann. Möchte ein Benutzer nicht ein vollständiges Bild mit maximaler Auflösung betrachten, oder ist der Betrachtungsanschluss des Benutzers eingeschränkt, erleichtert eine derartige Mehrfachauflösungsbildkompression den Transfer eines Bildes mit verringerter Größe zum Benutzer zur Betrachtung mit exzellenter Bildqualität. Wie es nachstehen beschrieben ist, ermöglicht die Mehrfachauflösungsbildkompression gemäß einer Ausgestaltung der Erfindung ferner einem Benutzer die relativ schnelle Betrachtung eines Bildes verringerter Größe oder verringerter Auflösung und ein folgendes "Zoomen" hinsichtlich des Bildes durch die Übertragung lediglich eines Abschnitts der komprimierten Daten, der Komponenten des größeren Bildes entspricht, die nicht bereits übertragen wurden. Die zusätzlichen Daten werden dann verarbeitet und mit den Daten des in der Größe reduzierten Bildes zum Erhalten des Bildes größerer Größe kombiniert.
  • Die vorliegende Mehrfachauflösungsimplementierung beruht auf einer verlustlosen ganzzahligen Wavelet-Zerlegung in Kombination mit einer optimierten Huffman-Codekompression wie vorstehend beschrieben und einer Modifikation der Huffman- Codekompression beruhend auf einer Erkennung der Natur von Hochfrequenzdatensätzen aus der Wavelet-Zerlegung. Der Fachmann erkennt, dass insbesondere die Wavelet-Zerlegung einen dyadischen Filterungs- und Unterabtastprozess beinhaltet. Dies erzeugt einen hierarchischen Satz von Subbändern, wie es in Fig. 4 gezeigt ist. Gemäß Fig. 4 enthält ein Bilddatensatz 300 Niederfrequenzkomponenten 302 zusammen mit Hochfrequenzkomponenten 304, die als Rauschen oder Abweichungen von den Niederfrequenzkomponenten betrachtet werden können. Eine Wavelet-Zerlegung mit einem einzelnen Grad resultiert in einem zerlegten Datensatz 306, der ein Niederfrequenzsubband LL enthält, das durch das Bezugszeichen 308 in Fig. 14 bezeichnet ist, zusammen mit 3 Hochfrequenzsubbändern LH, HL, und HH, die durch die Bezugszeichen 310, 312 und 314 bezeichnet sind. Die nachfolgende Zerlegung kann als Erzeugung eines weiteren Datensatzes 316 angesehen werden, bei dem das Niederfrequenzsubband weiter in einen Satz 318 aus Subbändern mit einem Niederfrequenzband 320 zusammen mit drei zusätzlichen Hochfrequenzsubbändern 322, 324 und 326 zerlegt wird.
  • Typischerweise sind Wavelettransformationen reale (Gleitpunkt-) Filter, wobei das Ergebnis auch reale Werte sind. Bis vor kurzem lieferte lediglich die S-Transformation (ein modifiziertes Haar-Wavelet) eine auf ganzen Zahlen beruhende Transformation und Rekonstruktion. Wie es aus der Natur der Transformation ersichtlich ist, ist es sehr schwierig, mit Gleitpunktoperationen die Genauigkeit zu bewahren. Allerdings kann mit einem als "Lifting" bezeichneten Verfahren eine beliebige Wavelettransformation als auf ganzen Zahlen beruhende Transformation mit vollständiger Umkehrbarkeit implementiert werden.
  • Unter Verwendung dieses "Lifting"-Verfahrens wurden verschiedene Wavelet-Transformationen bzw. -Transformierte analysiert und verglichen einschließlich der S-Transformation (Haar-Wavelet mit Lifting), einer (2 + 2,2)-Transformation und einer (4,2)-Transformation. Des weiteren wurde eine Analyse beruhend auf den informationstheoretischen Entropiewerten der resultierenden Subbänder durchgeführt. Entropiewerte auf der Basis 2 liefern die unteren Grenzen bei der durchschnittlichen Länge des variablen Längencodes (VLC) über die Kraft- Ungleichheit. Zusätzlich zu den Entropiewerten wurden die Operationen bestimmt, die zur Darstellung der Werte eines einzelnen Eintrags in jedem der vier Subbänder erforderlich sind. Das Ergebnis der Analyse legte nahe, dass das optimale Wavelet, das für die Transformation zu Verwenden ist, die S- Transformierte ist. Obwohl andere Transformationen angewendet werden können, wird bei diesem Ausführungsbeispiel die S- Transformierte bevorzugt; dabei wird mehr Wert auf die Geschwindigkeit und die Komplexität der Transformation als auf die sich ergebenden Kompressionsverhältnisse gelegt.
  • Zur Zerlegung des Bilddatensatzes beruht eine Ein-Schritt- Vorwärts-Transformierte in einer Dimension auf den folgenden Gleichungen:


    und

    H(n) = C(2n) - C(2n + 1);

    wobei C(i) für i ∈ [0, N - 1] die Eingangsdaten darstellt, L und H die zerlegten Nieder- und Hochfrequenzkomponenten sind, und C die Eingangsdaten darstellt. Die durch die Symbole "[]" bezeichnete Operation erzeugt die größte ganze Zahl geringer als die Operanden, wobei "N" die Größe der Eingangsdaten ist.
  • Das Gegenteil dieser Transformation, die inverse Ein-Schritt- Wavelet-Transformierte, ist durch die folgenden Gleichungen beschrieben:


    und

    C(2n + 1) = C(2n) - H(n).
  • Eine implizite Annahme in den vorhergehenden Gleichungen ist die Tatsache, dass die Datengröße "N" geradzahlig ist. Obwohl sie für die theoretische Analyse und Beschreibung gültig ist, kann diese Annahme bei gewissen bei diesen Verfahren zu komprimierenden Datensätzen ungültig sein. Das Verfahren wurde allerdings zur Anpassung ungerader und gerader Größen der Eingangsdaten und zur Erweiterung der eindimensionalen Transformierten auf eine Zweidimensionale angepasst, wie es nachstehend zusammengefasst ist.
  • Die Gleichungen für die Vorwärts- und inversen Wavelet- Transformierten wie vorstehend beschrieben liefern eine eindimensionale Einzel-Schritt-Transformation. Rekursive Einzel-Schritt-Wavelet-Zerlegungen in zwei Dimensionen liefern die Tessellierung des Bildes, wie es in Fig. 14 gezeigt ist. Erfindungsgemäß wird eine Rekursion einer Einzel-Schritt- Wavelet-Transformierten bei der Niederfrequenz - beziehungsweise "LL"-Komponente auf jeder Stufe durchgeführt. Die Anzahl der Stufen für die Transformation wird durch das Festlegen der Reihen- und/oder Spaltengröße der niedrigsten Auflösung bestimmt. Dieser Stufenwert wird durch die Schritte bestimmt, die zur Zerlegung der maximalen Reihen- und/oder Spaltengröße des ursprünglichen Bildes auf die gewünschte kleinste Auflösungsgröße erforderlich sind. Ist "n" diese Stufenvariable, wird die folgende Gleichung verwendet:

    n = log2(max(Reihen, Spalten) - log2(dGröße)

    wobei n die Anzahl der Zerlegungsstufen ist, "Reihen" und "Spalten" die ursprünglichen Bilddimensionen sind, log2 der Logarithmus auf der Basis 2 und dGröße die konfigurierbare Größe des Bildes kleinster Auflösung ist.
  • Eine spezielle Verarbeitung der ungeraden Reihe oder Spalte wird auf jeder Stufe durchgeführt. In einer vorliegenden Implementierung wird die ungerade Reihe oder die ungerade Spalte mit dem Ziel repliziert, sie geradzahlig zu machen, sodass der Algorithmus für die Wavelettransformation eine nahtlose Einheit ist. Obwohl diese Addition etwas zum Speicherplatz hinzufügt, der für die Bildspeicherung erforderlich ist, sind die Zusätze vernachlässigbar, wenn eine Kompression durchgeführt wird, da die Hochfrequenzsubbänder in diesen Reihen oder Spalten nur Null-Einträge haben werden.
  • Gemäß der vorstehend angewendeten Nomenklatur wird die zweidimensionale Ein-Schritt-Vorwärts-Transformation zum Zerlegen eines Quadrupel von Eingangsbilddaten (a, b, c, d) in ll, hl, lh, hh durch die folgenden Gleichungen gesteuert:


  • Zusätzlich zur Verarbeitung der ungeraden Reihen- und ungeraden Spaltenanzahlen auf jeder Stufe der Transformation wurde das vorliegende Verfahren für die Möglichkeit eines Überlaufs bei der Verwendung von 16-Bit-Arrays mit oder ohne Vorzeichen angepasst. Obwohl alle Werte als 32-Bit-Werte behandelt werden könnten, könnte ein Geschwindigkeitsverlust bei der Durchführung der gewünschten Transformationen resultieren, sowie eine erhebliche Erhöhung der Speicheranforderung zur Verarbeitung des Bildes. Da in einer vorliegenden Implementierung, die für PACS entwickelt ist, eine erhebliche Mehrheit der Datenwerte innerhalb 14 Bits für Daten ohne oder mit Vorzeichen liegen, werden zur Bewahrung der Geschwindigkeit des Algorithmus und zur Erzeugung der minimalen möglichen Speicherabbildung 16-Bitroutinen mit und ohne Vorzeichen als Vorgabe angewendet, während Überlaufzustände überprüft werden, wie es nachstehend beschrieben wird. Wird ein Überlaufzustand erfasst, geht die 16-Bit-basierte Transformationsroutine auf die geeignete Überlaufroutine über.
  • Fig. 15 zeigt schematisch die progressive Verarbeitung von Bilddaten durch eine Wavelet-Zerlegung und Huffmancodekompression zur Erzeugung eines Datenstroms für die Speicherung, den Zugriff und die Übertragung. Der allgemeine Verarbeitungsablauf, der allgemein mit dem Bezugszeichen 328 in Fig. 15 bezeichnet ist, beginnt mit dem Bilddatensatz 330, der auf eine beliebige geeignete Art und Weise erfasst werden kann und der vorverarbeitet werden kann, wie für eine dynamische Bereichsanpassung, Bildverstärkung, und so weiter. Dieses Bild, das bei dem Beispiel als Stufe null bezeichnet wird, wird dann durch eine Vorwärts-Wavelettransformation wie vorstehend beschrieben zerlegt, um einen Datensatz 332 zu erhalten, der selbst LL, LH, HL und HH-Datensätze umfasst. Der Niederfrequenzdatensatz kann dann weiter durch eine ähnliche Vorwärtswavelettransformation zur Erzeugung eines Datensatzes 334 der nächsten Stufe weiter zerlegt werden. Eine weitere Wavelettransformation bei dem Niederfrequenzdatensatz an jeder nachfolgenden Stufe liefert einen ähnlichen Datensatz, bis ein endgültiger Datensatz 336 erreicht ist, der als der Datensatz mit der kleinsten oder niedrigsten gewünschten Auflösung betrachtete wird, die bei diesem Beispiel mit "n" bezeichnet ist.
  • Die durch die sukzessive Wavelet-Zerlegung erhaltenen Datensätze werden dann wie folgt komprimiert. Auf jeder Stufe werden die Hochfrequenzdatensätze gemäß einer modifizierten Kompressionsroutine komprimiert, wie es durch das Bezugszeichen 338 bezeichnet ist. in dieser modifizierten Routine ist die ganze Verarbeitung der vorstehend beschriebenen im wesentlichen gleich mit der Ausnahme, dass die tatsächlichen Werte der Datensätze anstelle der prädizierten Fehlerwerte verwendet werden. Das heißt, die in Fig. 6 gezeigten Schritte 280-290 werden nicht durchgeführt, während andere Schritte, wie die Unterbereichsanalyse, die optimale Codetabellenauswahl, und so weiter, auf im Wesentlichen die gleiche Weise durchgeführt werden. Die bei den hochfrequenten Wavelet-transformierten Datensätzen durchgeführte modifizierte Kompressionsroutine beruht auf der Erkenntnis, dass die Wavelet-transformierten Daten bereits in einer Weise dekorreliert sind, die dem vorliegenden Kompressionsverfahren erlaubt, dass es direkt und ohne das Erfordernis einer Prädiktion oder einer Berechnung von Fehlerwerten angewendet werden kann.
  • Da die Niederfrequenzdatensätze für jede höhere Stufe weiter zerlegt werden, werden diese Datensätze beschreibende Informationen in den unteren Stufen aufbewahrt mit der Ausnahme des niedrigsten Niederfrequenzdatensatzes (das heißt, des Niederfrequenzdatensatzes auf der n-ten Stufe). Bei der vorliegenden Implementierung wird dieser Datensatz gemäß dem vorstehend beschrieben prädiktiven Fehlerkompressionsverfahren komprimiert, wie es durch das Bezugszeichen 340 in Fig. 15 angegeben ist.
  • Hinsichtlich der in Fig. 15 zusammengefassten Zerlegung und Kompression sind mehrere Punkte zu beachten. Zum einen erkennt der Fachmann, dass in Abhängigkeit von der Größe und dem Typ der analysierten Daten die Werte in den vorstehend beschriebenen Huffmancodetabellen, die Unterbereichslänge und andere spezifische Parameter angepasst werden können, um die gewünschten Kompressionsverhältnisse und die Kompressionsgeschwindigkeit zu erhalten. Da ferner die aufeinanderfolgende Zerlegung der Niederfrequenzdatensätze in progressiv kleineren Datensätzen resultiert (halbiert in beiden Dimensionen), bieten diese Datensätze die Möglichkeit des Zugriffs, der Übertragung und Rekonstruktion auf jeder verfügbaren Stufe für den Mehrfachauflösungskompression- Dekompressionsaspekt des vorliegenden Verfahrens.
  • Nach der in Fig. 15 zusammengefassten Kompression der Hoch- und Niederfrequenzdatensätze werden die resultierenden Daten in einen Datenstrom oder eine Datei kompiliert, wie es durch das Bezugszeichen 342 angegeben ist. In einem vorliegenden Ausführungsbeispiel enthält der Datenstrom einen deskriptiven Header 344 gefolgt von einer Reihe von Datensätzen, mit einem ersten Satz 346 für die Daten mit der niedrigsten Auflösung (die die komprimierten Nieder- und Hochfrequenzdaten enthalten) und folgenden Datensätzen 348, die jeweils komprimierte Hochfrequenzdaten für die jeweilige Stufe enthalten. Gemäß einer vorliegenden Implementierung enthält der Datenstrom oder die Datei einen Header, der die Version des Mehrfachauflösungsschemas, den Typ der Vorwärtstransformierten (mit Vorzeichen/ohne Vorzeichen, mit/ohne Überlauf, siehe die nachstehende Beschreibung), die Anzahl der Stufen der Wavelet-Zerlegung, die Reihen- und Spaltenwerte jeder Subbandstufe (Auflösung) und die komprimierten Größen aller Subbänder vom kleinsten bis zum größten beschreibt. Wiederum ist der Niederfrequenzdatensatz auf der untersten Stufe unter Verwendung einer prädiktiven Kompression wie vorstehend beschrieben komprimiert, während die Hochfrequenzdatensätze für jede Stufe unter Verwendung des geeigneten nicht prädiktiven oder modifizierten Kompressionsschemas komprimiert sind. Zusätzlich zur Speicherung des Datenspeicherheaders am Anfang des komprimierten Stroms können in einem medizinischen diagnostischen Zusammenhang andere Elemente in einem DICOM- Header gespeichert werden. Bei einer vorliegenden Implementierung beinhalten diese die Anzahl der Stufen "n", Reihen-(rr-)Werte(rr(n), rr(n - 1), . ., rr(0)), Spalten-(cc-) Werte (cc(n), cc(n - 1), . ., cc(0)) und eine komprimierte Datengröße (cxebyte) für jede Stufe (cxebyte(n), cxebyte(n - 1), . ., cxebyte(0)).
  • Wie vorstehend beschrieben stellt das vorliegenden Ausführungsbeispiel zur Bereitstellung einer effektiven Implementierung vom Verarbeitungs- und Speicherstandpunkt aus eine 16-Bit-Verarbeitung mit einer 32-Bit-Verarbeitung nur dann bereit, wenn die Eingangsdaten dies erfordern. Gemäß Fig. 16 ist eine Logik für die Wavelettransformation entsprechend diesem Ansatz zusammengefasst, wie es durch das Bezugszeichen 350 angegeben ist. In dieser Implementierung wurden vier Vorwärtstransformationsroutinen codiert, jeweils eine für 16- Bit-Daten mit und ohne Vorzeichen und jeweils eine zur Verarbeitung der Überlaufbedingungen mit und ohne Vorzeichen (die Überlaufroutinen waren 32-Bit-Versionen ihrer 16-Bit- Gegenstücke). Somit wird in Schritt 352 eine Vorwärtstransformation bei den Daten mit und ohne Vorzeichen durchgeführt. In Schritt 354 werden Daten zur Bestimmung analysiert, ob eine Überlaufverarbeitung erforderlich ist. Wenn nicht, werden die Transformationskoeffizienten wie in Schritt 356 angegeben zurückgegeben, und die Verarbeitung wird wie vorstehend beschrieben fortgesetzt. Ist aber eine 32-Bit- Verarbeitung erforderlich, geht die Logik zu Schritt 358 über, wo die Transformation mit einem Überlauf neu gestartet wird, und die Transformationskoeffizienten auf diese Verarbeitung dann zurückgegeben werden, wie es in Schritt 360 angegeben ist. Gleiche Verfahren können für die Verarbeitung von 8-Bit- und Farbdatentypen angewendet werden.
  • Bei einer Kombination mit der auf der untersten oder n-ten Stufe der Wavelet-zerlegten Datensätze angewendeten Kompression kann das vorstehende Schema wie in Fig. 17 gezeigt zusammengefasst werden. Die allgemein durch das Bezugszeichen 362 bezeichnete Logik beginnt in Schritt 364, wo die Bilddaten für eine Vorwärtstransformation eingegeben werden. Vier Routinen wurden in einer vorliegenden Implementierung codiert, die den vier Vorwärtsroutinen entsprechen. In der nachstehend beschriebenen Rekonstruktionsphase signalisiert das codierte Typ-Flag die zu verwendende geeignete inverse Transformationsroutine. Dies vereinfacht die Rekonstruktionsphase. Der in Fig. 17 zusammengefasste Prozessablauf spiegelt die Implementierung wieder, in der die Verarbeitung zusammen mit dem nicht prädiktiven oder modifizierten Kompressionsschema zur Verarbeitung der 23-Bit- Daten mit und ohne Vorzeichen angepasst wurde, die durch die jeweiligen Überlaufvorwärtstransformationsroutinen erzeugt wurden. Somit wird in Schritt 366 bestimmt, ob ein Überlauf aufgetreten ist, der eine 32-Bit-Verarbeitung erfordert. Wenn nicht, werden die Subbänder oder Datensätze für die folgenden Stufen in Schritt 368 erzeugt, und das modifizierte Kompressionsverfahren wird für alle Hochfrequenzdatensätze der Subbänder ausgeführt, wie es in Schritt 370 angegeben ist. Wie vorstehend angeführt wird der niedrigste oder der Niederfrequenzdatensatz auf der n-ten Stufe entsprechend den prädiktiven Kompressionsverfahren komprimiert. Wird in Schritt 366 bestimmt, dass eine Überlaufverarbeitung erforderlich ist, werden die Subbänder oder Datensätze in Schritt 374 erzeugt und die Hochfrequenzdatensätze werden über eine 32-Bit- Verarbeitung komprimiert, wie es in Schritt 376 angeführt ist.
  • Der Niederfrequenzdatensatz für die n-te Stufe wird wiederum in Schritt 372 entsprechend dem prädiktiven Kompressionsszenario komprimiert. Wie vorstehend angeführt können die für die Kompression verwendeten Kompressionshuffmancodetabellen entsprechend der Dringlichkeit der Daten angepasst werden, wie zur Handhabung der resultierenden 18-Bitdaten mit und ohne Vorzeichen. In einer vorliegenden Implementierung werden zusätzliche Codetabellen zur Codierung und Decodierung angewendet, wenn die Eingabe eine 16-Bitspeicherung überschreitet. Die Überlaufbedingung hat eine maximale Bittiefe von 18 Bits mit Vorzeichen.
  • Eine vorliegende Implementierung des vorstehenden Verfahrens liefert Funktionsaufrufe zum Zugreifen auf alle Werte, die vorstehend aufgeführt sind. Diese Elemente sind für die Dekompressions- und inversen Transformationsroutinen nicht erforderlich, da sie im Header des komprimierten Stroms vorhanden sind. Allerdings sind sie dort erwünscht, wo der Benutzer Bilder in verschiedenen Auflösungsstufen anzeigen möchte. Die Dekompressions- und Rekonstruktionsroutinen können derart zusammengesetzt werden, dass für keinen Benutzer Schnittstellenänderungen erforderlich sind, abgesehen von der Pufferung der rekonstruierten Daten. Für Benutzer mit bestimmten Anforderungen der Anzeige mit verschiedenen Auflösungsstufen können benutzerspezifische Routinen entwickelt werden.
  • Ein durch das vorstehende Verfahren erzeugter Datenstrom oder Dateiabbildung ist näher in Fig. 18 dargestellt. Wie es vorstehend beschrieben ist, enthält der Datenstrom und die Datei 342 einen Header 344 gefolgt von Codewerten für die komprimierten Subbänder oder Datensätze beginnend mit dem n- ten Datensatz. In diesen Datensegmenten codieren Sektionen 378 die Nieder- und Hochfrequenzsubbänder oder Datensätze. In den folgenden Datensegmenten 348 codieren Sektionen 380Hochfrequenzsubbänder oder Datensätze für die höheren Stufen. Es ist anzumerken, dass wie vorstehend angeführt zusätzliche Codewerte im Datenstrom für die vorstehend beschrieben Informationen hinsichtlich der für die Kompression verwendeten Huffmancodetabellen, Unterbereichslängen, und so weiter enthalten sind.
  • Fig. 19 fasst schematisch den Prozess zur Dekompression und Rekonstruktion von Bildern aus der komprimierten Datendatei zusammen. Der allgemein mit dem Bezugszeichen 382 bezeichnete Prozess enthält den Zugriff auf die Daten für die Datensätze auf der untersten stufe und für alle weiteren Datensätze über die Größe oder Auflösung, die für den Benutzer bereitzustellen ist. Dann werden wie in Fig. 19 zusammengefasst die Daten aus der Datei entsprechend den im Header gespeicherten Informationen abgerufen und dekomprimiert, wobei der Niederfrequenzdatensatz für die niedrigste Stufe wie durch das Bezugszeichen 384 angegeben entsprechend dem vorstehend beschriebenen prädiktiven Fehlerverfahren dekomprimiert wird. Die Hochfrequenzsubbänder oder Datensätze werden wie durch das Bezugszeichen 386 gezeigt entsprechend dem modifizierten Kompressionsverfahren komprimiert. Das heißt, anstelle der Verarbeitung der dekomprimierten Daten als prädizierte Fehler werden die resultierenden Daten direkt als Wavelettransformationskoeffizienten behandelt.
  • Der Dekompression der Daten bis zur gewünschten Stufe folgt die Durchführung einer inversen Wavelettransformation bei den dekomprimierten Daten, wobei die Bilddatensätze der unteren Stufen als Niederfrequenzsubband für die nächst höhere Bildstufe dienen. Somit arbeitet die inverse Transformationsroutine durch die Verarbeitung des Bandes mit der kleinsten Auflösung "LL" und Kombination dieses mit seinen verbundenen "HL"-, "LH"- und "HH"-Bändern zur Erzeugung des nächsten Bandes höherer Auflösung "LL". Dieser Prozess wird so lange wiederholt, bis entweder die volle Auflösung des Bildes erreicht ist, oder eine bestimmte Auflösungsstufe erhalten wird. Die inverse Ein-Schritt-Transformation nimmt die ll-, hl-, lh- und hh-Werte, das heißt, die Werte für die niedrigste Stufe und erzeugt die Quadrupelbildelemente für das ll-Band der nächsten Stufe (bei der letzten inversen Transformation werden die Bildelementdaten der vollständigen Auflösung für das Bild erzeugt).
  • Hinsichtlich der vorstehend verwendeten Nomenklatur ist die zweidimensionale inverse Ein-Schritt-Transformation wiederum durch den folgenden Satz an Gleichungen bestimmt:


  • Gemäß einer vorliegenden Implementierung wurde der Entwurf für die inverse Transformation hinsichtlich einer möglichen Einzelstufenrekonstruktion modular gestaltet. Dies ermöglicht Benutzern die Bestimmung einer gewünschten Stufe von der kleinsten Auflösung bis zur vollen Auflösung für die Rekonstruktion. Des weiteren ermöglicht die Codierung vom Vorwärtstransformationstyp im komprimierten Datenstrom die Rekonstruktion unter Verwendung der korrekten inversen Transformationsroutine.
  • Es wird angemerkt, dass das vorstehende Verfahren einen Zugriff, eine Übertragung und Rekonstruktion von Bildern bei jeder der gespeicherten Größen und Auflösungen erlaubt. Wird ein Zoomen oder eine gesteigerte Auflösung eines Bildes gewünscht, auf das der Benutzer bereits zugreift, muß lediglich auf die zusätzlichen Hochfrequenzbänder für die höhere Auflösungsstufe zugegriffen und diese müssen für eine Kombination mit den Daten verarbeitet werden, die bereits für die Rekonstruktion des neuen Bildes bereitstehen.
  • Der Mehrfachauflösungsaspekt des Verfahrens liefert somit eine gezielte Dekompression und Rekonstruktion für ein Bild einer bestimmten Stufen zwischen 0 und "n". Der Benutzer stellt die geeignete Untergruppe des komprimierten Stroms anhand im Header vorhandener Informationen bereit, wie eines DICOM- Header bei einer medizinischen diagnostischen Anwendung, mit einer Angabe der gewünschten Stufe der Rekonstruktion für eine Stufenauswahlroutine. Ein Bildelementpuffer erlaubt dann dem Benutzer die Speicherung des expandierten und rekonstruierten Bildes.
  • Die vorstehende neuartige Funktionalität ermöglicht dem Benutzer die effektive Verwendung einer verfügbaren Übertragungsbandbreite. Beispielkompressionsergebnisse sind in Tabelle 388 in Fig. 20 für ein Bild zusammengefasst, das in einem medizinischen Diagnosekontext erzeugt wurde. In diesem Beispiel wird eine typische Brust-CR mit einer Bildreihengröße von 2084 und einer Spaltengröße von 2500 in fünf Stufen transformiert. Die relevanten Informationen der Reihen- und Spaltengrößen pro Stufen und die assoziierten komprimierten Daten sind gezeigt. Das 10-Megabyte-Bild wird auf eine Größe von 3,909,848 Bytes mehrfachauflösungs-komprimiert (die Summe der für jede Bildstufe in der Tabelle aufgelisteten Byteanzahl). Somit wird die Rekonstruktion des 2048 × 2500- Bildes voller Auflösung die Übertragung von ungefähr 3,9 Megabyte Daten erfordern.
  • Der Benutzer kann aber auf viel kleinere Datenmengen wie folgt zugreifen. Beispielsweise wird angenommen, dass bei einer typischen Web-Client-Anwendung die Auflösungsgröße eines Benutzermonitors ungefähr 1k × 1k ist. Bei einer Betrachtung der in der Tabelle 388 aufgeführten Daten würde diese Größeneinschränkung ungefähr eine Rekonstruktion auf Stufe 1 erlauben. Somit sind die für die Übertragung vom Server erforderlichen Daten gleich 979,988 Bytes (die Summe der Bytes mit den Bildern bis Stufe 1). Allerdings wird in vielen Fällen eine Untergruppe der vollen Monitorauflösung für die Bildanzeigekomponente zugewiesen. Dem zufolge kann bei dem Beispiel ein erstes Bild auf der Stufe 2 in einem sehr schnellen Prozess insbesondere verglichen mit der Übertragung und Rekonstruktion des Bildes höchster Auflösung rekonstruiert werden, wobei lediglich 255,428 Bytes zu übertragen sind. Da das Mehrfachauflösungsschema einen nachfolgenden Zoom-Vorgang auf eine höhere Stufe ermöglicht, sind dann die verbleibenden 724,560 Bytes zur Rekonstruktion der Stufe 1 aus dem Stufe-2- Bild und danach die verbleibenden 2,929,860 Bytes zur Rekonstruktion des Bildes vollständiger Auflösung von einem auf der Stufe 1 rekonstruierten Bild erforderlich.
  • Die vorstehenden Verfahren können auch zur effektiveren Übertragung von Bilddaten durch eine wahlweise Übertragung lediglich solcher Stufen der Vielzahl an Zerlegungsstufen verwendet werden, die für die gewünschte Anzeigeauflösung am Client erforderlich sind. Zu Beginn ruft der Client eine oder mehrere der niedrigeren Auflösungsstufen, wie die unterste Zerlegungsstufe N zur Anzeige des Bildes am Client ab. Die verbleibenden höheren Auflösungsstufen, wie jene zwischen den Zerlegungsstufen N - 1 und 1, bleiben am Server für einen Folgeabruf, wenn er durch den Client erforderlich ist. Wünscht demnach ein Benutzer eine Anzeige mit höherer Auflösung des Bildes am Client, ruft der Client eine oder mehrere Auflösungsstufen vom Server zur Unterstützung dieser höheren Auflösung ab. Die verbleibenden Auflösungsstufen bleiben allein am Server, bis der Benutzer eine lokale Auflösungsanzeige befiehlt, die jene verbleibenden Stufen erfordert.
  • Fig. 21 zeigt ein Beispiel-Bildübertragungssystem 400, das einen Server 402 und einen Client 404 entfernt vom Server 402 umfasst. Eine Vielzahl von Bilddaten 405 sind am Server 402 angeordnet, auf den der Client 404 zum Abrufen gewünschter Bildauflösungsstufen zugreifen kann, wie sie zur Anzeige des Bildes mit einer gewünschten Auflösung auf einem Darstellungsfeld 406 des Client 404 erforderlich sind. Die Bilddaten 405 können einen Header 408 und eine Vielzahl von Bilddatenblöcken umfassen, wie Bildauflösungsstufen entsprechenden Datenblöcken, die durch eine Wavelet-Zerlegung erzeugt und durch ein beliebiges der vorhergehenden Kompressionsverfahren komprimiert wurden. Beispielsweise können die Bilddaten 405 Bilddatenblöcke umfassen, wie Bildauflösungsstufen 410, 412, 414 und 416, die progressiv höheren Auflösungsstufen von der Stufe N bis zur Stufe 1 (siehe beispielsweise die Fig. 15 und 18) entsprechen. Eine oder mehrere dieser Bildauflösungsstufen 410, 412, 414 und 416 kann wie durch den Pfeil 418 gezeigt beruhend auf der vom Client 404 angeforderten bestimmten Bildauflösung zur Anzeige auf dem Darstellungsfeld 406 übertragen werden. Beispielsweise kann der Client 404 eine Anzeige einer relativ niedrigen Bildauflösung wünschen, die Bildstufen 410 und 412 erfordert. Sind diese Bildstufen 410 und 412 nicht lokal am Client 404 verfügbar, kann der Client 404 zur Anforderung der erforderlichen Bildstufen 410 und 412 vom Server 402 durch eine automatische oder manuelle Anforderungsprozedur übergehen, wie es nachstehend näher beschrieben ist. Wenn der Client 404 Bilddaten vom Server 402 abruft, können die Bilddaten (das heißt, Bilddaten für Bildstufen 410 und 412) vom Client 404 im Speicher 420 gespeichert/gepuffert werden. Wünscht der Client 404 danach eine relativ höhere Bildauflösung (das heißt, höher als die Bildstufen 410 und 412), kann der Client 404 die erforderlichen Bildstufen vom Server 402 anfordern und diese Bildstufen im Speicher 420speichern. Wie es nachstehend näher beschrieben ist, bestimmt das Bildübertragungssystem 400 die erforderliche Anzahl von Bildauflösungsstufen für die gewünschte Auflösung im Darstellungsfeld 406 durch Vergleichen von Bildauflösungen der Bildstufen 410 bis 416 mit der gewünschten Auflösung des Darstellungsfeldes 406. Das System 400 kann die Auflösungseigenschaften der Bildstufen 410 bis 416 durch Lesen des Headers 408 während eines anfänglichen oder folgenden Abrufs von Bilddaten vom Server 402 erhalten.
  • Wie es in den Fig. 22 und 23 gezeigt ist, haben die am Server 402 vorhandenen Bildstufen 410 bis 416 eventuell keine übereinstimmenden Auflösungen mit dem Darstellungsfeld 406. Das Darstellungsfeld 406 kann beispielsweise eine Darstellungsfeldauflösung 422 haben, die Dimensionen 424 und 426 hat (beispielsweise 256 × 256 Bildelemente). Wie es vorstehend näher beschrieben wurde, werden die Bildstufen 410 bis 416 erfindungsgemäß progressiv neu kombiniert, um aufeinanderfolgend höhere Auflösungsanzeigen eines Bildes 428 bereitzustellen. An einem Punkt in diesem Rekonstruktionsprozess werden eine oder mehrere der Bildstufen 410 bis 416 zur Ausbildung einer Bildauflösung 430 kombiniert, die Dimensionen 432 und 434 hat. Wie es nachstehend näher beschrieben ist, hängen die erforderlichen Bildstufen für die gewünschte Anzeigeauflösung im Darstellungsfeld 406 weitgehend von dem Ausmaß der Auflösungsskalierung ab, die zur Anpassung des Bildes 428 an das Client-Darstellungsfeld 406 erforderlich ist. Beispielsweise können die Bildstufen 410 und 412 jeweils die Bildauflösungen von 140 × 140 Bildelementen und 280 × 280 Bildelementen liefern.
  • Das System 400 identifiziert die erforderlichen Bildstufen durch Vergleichen der Auflösungen des Bildes 428 mit dem Darstellungsfeld 406, Bestimmen der erforderlichen Skalierung zur Anpassung des Bildes 428 an das Darstellungsfeld 406 und Vergleichen der erforderlichen Skalierung mit einem Skalierungsschwellenwertfaktor (ST). Es kann ein beliebiger geeigneter Skalierungsschwellenwertfaktor (ST) für diesen Vergleich verwendet werden, und noch dazu kann der ST-Faktor vorteilhaft zum Bewahren einer annehmbaren Bildqualität für die gewünschte Anwendung verwendet werden. Demnach kann ein empirischer Skalierungsschwellenwertfaktor (ST) von ungefähr 50% bis 70% (beispielsweise 1,6 oder 60%-Skalierung) zum Bewahren der Bildqualität besonders gut geeignet sein. Im Betrieb kann das System 400 den Faktor ST zur Bestimmung verwenden, dass die relativ niedrigere Bildauflösung (das heißt, die Bildstufe 410) zur Anzeige im Darstellungsfeld 406 geeignet ist. Demnach geht der Client 404 zur Erfassung der Bildstufe 410 vom Server 402 über. Der Client 404 rekonstruiert dann das Bild 428 und führt eine Aufwärtsskalierung des rekonstruierten Bildes 428 zur Anpassung an das Darstellungsfeld 406 durch. Verwendet das System 400 den Faktor ST zur Bestimmung, dass die relativ höhere Bildauflösung (das heißt, die Bildstufe 412) für eine annehmbare Anzeige im Darstellungsfeld 406 erforderlich ist, geht der Client 404 zur Erfassung der Bildstufe 412 über. Der Client 404 rekonstruiert dann das Bild 428 unter Verwendung der abgerufenen Bildstufe 412 und der Bildstufe 410, die zuvor gespeichert und am Client 404 angezeigt wurde. Das rekonstruierte Bild 428 wird dann einer Abwärtsskalierung zur Anpassung an das Darstellungsfeld 406 unterzogen. Der vorhergehende Skalierungsschwellenwertfaktor (ST) wird nachstehend näher unter Bezugnahme auf die Fig. 24, 25 und 27 beschrieben.
  • Wie es in Fig. 22 gezeigt ist, wird das Bild 428 an das Darstellungsfeld 406 durch eine Aufwärtsskalierung der Bildauflösung 430 hinsichtlich der Darstellungsfeldauflösung 422 um einen Faktor geringer als der Skalierungsschwellenwertfaktor (ST) angepasst, der die Klarheit des Bildes 428 bewahrt. Demnach weist das Bildübertragungssystem 400 den Client 404 zur Erfassung lediglich der Bildstufen an, die Auflösungen relativ niedriger als die Darstellungsfeldauflösung 422 haben. Entspricht die Bildauflösung 430 beispielsweise der Bildstufe 412, erfasst der Client 404 lediglich die Bildstufen bis einschließlich der Bildstufe 412.
  • Dagegen wird gemäß Fig. 23 das Bild 428 an das Darstellungsfeld 406 durch eine Abwärtsskalierung der Bildauflösung 430 auf die Darstellungsfeldauflösung 422 durch einen Bruchteil des Skalierungsfaktors angepasst. In diesem Szenario hat das System 400 eine relativ höhere Stufe aus den Bildstufen 410 bis 416 ausgewählt, da eine relativ geringere eine exzessive Skalierung beruhend auf den Skalierungsschwellenwertfaktor (ST) erfordert hätte. Beispielsweise kann die Bildstufe 410 einen Skalierungsfaktor von 1,7 zur Anpassung des Bildes 428 an das Darstellungsfeld 406 erfordern, während die Bildstufe 412 einen Skalierungsfaktor von 0,9 zur Anpassung des Bildes 428 an das Darstellungsfeld 406 erfordern kann. Ist der Skalierungsschwellenwertfaktor (ST) empirisch auf 1,6 festgelegt, würde das System 400 die Bildstufe 412 als annehmbare Bildauflösungsstufe zur Rekonstruktion des Bildes 428 im Darstellungsfeld 406 mit der Darstellungsfeldauflösung 422 identifizieren. Demnach erfasst das Bildübertragungssystem 400 die relativ höhere Bildauflösungsstufe zur Sicherstellung einer akzeptablen Bildklarheit im Darstellungsfeld 406.
  • Fig. 24 zeigt ein Ablaufdiagramm eines Anfangsbildabruf- und Anzeigeprozesses 438 für das Bildübertragungssystem 400. Wie es dargestellt ist, fährt der Prozess 438 mit der Anforderung eines Bildes vom Server fort (Block 440), der dann einen Bilddatenstrom vom Server zu Client sendet (Block 442). Der zum Client gesendete Bilddatenstrom ist am Besten in den Fig. 18 und 21 gezeigt. Der Client 404 liest dann den Header 408 des Bilddatenstroms (Block 444) und extrahiert Bildeigenschaften, wie Bildauflösungseigenschaften der Bildstufen aus dem Header 408 (Block 446).
  • Wie es zuvor angeführt und nachstehend näher beschrieben ist, geht der Prozess 438 dann zur Auswahl einer Bildauflösungsstufe (IRL) zur Anzeige im Client- Darstellungsfeld 406 über (Block 448). Der Prozess 438 kann dann die Bildauflösungsstufe IRL gleichzeitig oder unterwegs auswählen, wenn der Client 404 den Bilddatenstrom 407 vom Server 408 abruft. Demnach fordert der Client 404 zu Beginn den gesamten Satz an Bilddaten 405 an, die in der Reihenfolge sich erhöhender höherer Bildauflösungsstufen zur Rekonstruktion des Bildes abgerufen werden. Der Client 404 fährt mit dem Abrufen des Bilddatenstroms 407 bis zur ausgewählten Bildauflösungsstufe IRL fort, die zur Betrachtung des Bildes im Client-Darstellungsfeld 406 geeignet ist (Block 450). Stellt der Prozess 438 fest, dass ein ausreichender Abschnitt der Bilddaten 405 für die ausgewählte Auflösungsstufe IRL abgerufen wurde (Block 452), stoppt der Prozess 438 das Abrufen des Bilddatenstroms 407 (Block 454). Wurde aber ein unzureichender Abschnitt der Bilddaten 405 für die ausgewählte Auflösungsstufe IRL abgerufen (Block 452), setzt der Prozess 438 das Abrufen des Bilddatenstroms 407 fort, bis ausreichende Bildauflösungsstufen zur Anzeige der ausgewählten Auflösungsstufe IRL erfasst wurden (Block 456).
  • Der abgerufene Bilddatenstrom wird dann im Speicher 420 am Client 404 für eine lokale Anzeige des Bildes 428 gespeichert/gepuffert (Block 458). Das Bild 428 wird zur Anzeige im Darstellungsfeld 406 durch Dekomprimieren von Bilddaten aus dem Bilddatenstrom 407 vorbereitet (Block 460), indem das Bild 428 anhand der Bildstufen hoch bis zur abgerufenen Auflösungsstufe IRL rekonstruiert wird, und indem das Bild 428 zum Passen in das Client-Darstellungsfeld 406 skaliert wird (Block 462). Fig. 19 zeigt ein Beispiel- Bilddekompressionsverfahren, während die Fig. 22, 23 und 26 Beispiel-Bildskalierungsverfahren darstellen. Das Bild 428 wird dann im Client-Darstellungsfeld 406 mit der ausgewählten Auflösungsstufe IRL angezeigt (Block 464). Wie es vorstehend beschrieben ist, ist die für die Anfangsanzeige ausgewählte Bildauflösungsstufe (IRL) die niedrigste Auflösungsstufe, bei der die Bilddaten nicht über den Skalierungsschwellenwertfaktor (ST) hinaus zur Anzeige im Darstellungsfeld 406 skaliert werden müssen.
  • Wie es vorstehend beschrieben ist, verbessert die Erfindung die Datenübertragungseffektivität durch Übertragen ausgewählter Abschnitte der Bilddaten, nur wie sie für die Anzeige des Bildes 428 im Client-Darstellungsfeld 406 gebraucht werden. Demnach wird der vom Server 402 zum Client 404 übertragene Bilddatenstrom 407 abgebrochen, wenn ausreichend Bilddaten zur Anzeige mit der gewünschten Darstellungsfeldauflösung 422 im Client-Darstellungsfeld 406 abgerufen wurden. Fig. 24 zeigt ein Ablaufdiagramm eines Beispielsauswahlprozesses 466 für die Bildauflösungsstufe (IRL). Wie es gezeigt ist, fährt der Prozeß 466 mit der Bestimmung der Bildauflösung (IR) an jeder auf dem Server 402 gespeicherten verfügbaren Auflösungsstufe (Block 468) und Bestimmung der Darstellungsfeldauflösung 422 des Client- Darstellungsfeldes 406 (Block 470) fort. Wie es vorstehend beschrieben ist, kann der Prozess 466 die Bildauflösungen aus dem Header 408 des Bilddatenstroms 407 extrahieren. Der Prozess 466 geht dann zur Auswahl einer Auflösungsstufe durch Vergleichen der Darstellungsfeldauflösung 422 mit progressiv höheren Bildauflösungen über (Block 472).
  • Dieser Auflösungsauswahlblock 472 kann mit der Verwendung eines Vorgabeskalierungsschwellenwertfaktors (Block 474) oder durch Einstellen eines gewünschten Skalierungsschwellenwertfaktors (Block 476) fortfahren. Wie es vorstehend beschrieben ist, kann ein beliebiger geeigneter Skalierungsschwellenwertfaktor (ST) vom Prozess 466 zum Bewahren einer annehmbaren Bildklarheit und anderer Bildcharakteristiken verwendet werden. Unter Verwendung des Skalierungsschwellenwertfaktors (ST) geht der Auflösungsauswahlblock 472 zur Bewertung der Bildauflösung (IR) hinsichtlich der Darstellungsfeldauflösung (VR) über. Der Prozess 466 analysiert jede auf dem Server 402 gespeicherte Bildauflösungsstufe (IRL), bis eine annehmbare Auflösungsstufe identifiziert ist (Block 478).
  • Demnach beginnt die Auflösungsauswertung mit der Analyse der niedrigsten Bildauflösung (IRL auf Stufe N) in Schritt I = 0 (Block 480). Die Bildauflösung wird durch die Bestimmung analysiert, ob die Darstellungsfeldauflösung (VR) größer als die Bildauflösung (das heißt, IR auf der Stufe N) ist, die durch den Skalierungsschwellenwert (ST) auf einen Wert von IR(N - i) × ST skaliert ist (Block 482). Ist die Darstellungsfeldauflösung (VR) nicht größer als die skalierte Bildauflösung IR(N - i) × ST, ist die Bildauflösungsstufe N zur Anzeige im Darstellungsfeld 406 geeignet. Demnach geht der Auflösungsauswahlblock 472 zur Auswahl der Bildauflösungsstufe IRL über, die einer Bildauflösung von IR(N - i) entspricht (Block 484). Überschreitet aber die Darstellungsfeldauflösung (VR) die skalierte Bildauflösung IR(N - i) × ST, geht der Auflösungsauswahlblock 472 zur Bestimmung über, ob noch zusätzliche höhere Bildauflösungsstufen auf dem Server 402 verfügbar sind (Block 486). Sind keine höheren Bildauflösungsstufen verfügbar (Block 486), wird die aktuelle Auflösungsstufe zur Anzeige im Darstellungsfeld 406 ausgewählt (Block 484). Sind höhere Bildauflösungsstufen verfügbar (Block 486), geht der Auflösungsauswahlblock 472 zur Auswertung der nächst niedrigsten Auflösungsstufe (das heißt, Stufe N - 1), die der zuvor ausgewerteten Auflösungsstufe (das heißt, Stufe N) folgt, in Schritt I = I + 1 über (Block 488).
  • Der Auflösungsauswahlbock 472 setzt seinen Schleifendurchlauf durch die Blöcke 480, 482, 486 und 488 fort, bis der Prozess 466 eine Bildauflösungsstufe (IRL) identifiziert, die entweder hoch genug zur Erfüllung des Skalierungsschwellenwertfaktors (ST) ist, oder die maximale Bildauflösung (IR) der Stufe 1 darstellt. Hat der Prozess eine geeignet hohe Bildauflösungsstufe (IRL) identifiziert und ausgewählt, kann der Prozess 466 zur Verwendung der ausgewählten Auflösungsstufe (IRL) für einen wahlweisen Abruf von Bildstufen hoch bis einschließlich der ausgewählten Auflösungsstufe (IRL) vom Server 402 übergehen. Bei diesem Ausführungsbeispiel verwendet das Bildübertragungssystem 400 die ausgewählte Auflösungsstufe sowohl für ein anfängliches als auch folgendes Abrufen und Anzeigen eines gewünschten Bildes im Darstellungsfeld 406.
  • Wie es vorstehend unter Bezugnahme auf Fig. 24 beschrieben ist, ruft der Prozess 466 Bilddaten 405 im Bilddatenstrom 407 bis zur ausgewählten Auflösungsstufe (IRL) ab, speichert sie und dekomprimiert sie. Für eine optimale Anzeige des Bildes 428 im Darstellungsfeld 406 wird das Bild 428 durch einen geeigneten Faktor zum Expandieren oder Kontrahieren des Bildes 428 auf das Darstellungsfeld 406 skaliert.
  • Fig. 26 zeigt ein Ablaufdiagramm eines Beispielskalierungsprozesses 490, der die Bildauflösung (das heißt, die ausgewählte Bildauflösungsstufe) mit der Darstellungsfeldauflösung (VR) zur Bestimmung des geeigneten Aufwärts- oder Abwärtsskalierungsfaktors vergleicht (Block 492). Ist die Bildauflösung größer als die Darstellungsfeldauflösung (Block 494), geht der Skalierungsprozess 490 zur Skalierung der Bildauflösung 430 nach unten zur Anpassung an die Darstellungsfeldauflösung über (Block 496). Beispielsweise kann der Skalierungsprozess 490 die Bildauflösung 430 mit einem Faktor von 0,80 oder 0,90 zum Passen des Bildes 428 in das Darstellungsfeld 406 skalieren. Ist die Bildauflösung geringer als die Darstellungsfeldauflösung (Block 494), geht der Skalierungsprozess 490 zur Skalierung der Bildauflösung 430 nach oben zur Anpassung an die Darstellungsfeldauflösung über (Block 498). Beispielsweise kann der Skalierungsprozess 490 die Bildauflösung 430 mit einem Faktor zwischen 1,0 und 1,6 skalieren. Wie es vorstehend beschrieben ist, bildet der Skalierungsschwellenwertfaktor (ST) die obere Grenze für die Skalierung. Allerdings kann in einigen Fällen, in denen das Bild 428 relativ klein oder das Darstellungsfeld 406 relativ groß ist, der vollständige Bilddatensatz 405 für eine annehmbar Rekonstruktion der Bilddaten 405 im Darstellungsfeld 406 erforderlich sein. In diesem Szenario ist die Skalierung nicht auf den Skalierungschwellenwert (ST) beschränkt. Der vorhergehende Skalierungsprozess 490 kann beliebige geeignete Skalierungsverfahren anwenden, wie eine bikubische Interpolation oder biliniare Interpolation.
  • Wie es vorstehend beschrieben ist, kann das Bildübertragungssystem 400 für einen kontinuierlichen und automatischen Abruf von Bilddaten nach Bedarf für die Anzeige des Bildes 428 am Client 404 verwendet werden. Fig. 27 zeigt ein Ablaufdiagramm eines kontinuierlichen Beispieldatenabruf- und Anzeigeprozesses 500, den der Client 404 entsprechend verschiedenen Anzeigefunktionen und Befehlen auslösen kann. Beispielsweise kann der Prozess 500 zusätzliche Bilddaten automatisch oder interaktiv im Ansprechen auf einen Zoombefehl abrufen, der Bilddaten mit höherer Auflösung erfordert, als sie im Speicher 420 des Client 404 lokal gespeichert sind. Bei diesem Ausführungsbeispiel ruft der Prozess 500 zusätzliche Bilddaten automatisch ab, wie sie für die Anzeige im Darstellungsfeld 406 erforderlich sind.
  • Beispielsweise kann der Prozess 500 zusätzliche Bilddaten erfassen, nachdem der Benutzer in das Bild 428 oder aus dem Bild unter Verwendung der Mouse zoomt (beispielsweise durch gedrückt Halten der linken Mousetaste und Expandieren oder Kontrahieren des Darstellungsfeldes 406). Nach dem Loslassen der Mousetaste kann der Prozess 500 eine Bestimmung ausführen, ob zusätzliche Bilddaten zur Anzeige bei der neuen Darstellungsfeldauflösung erforderlich sind. Der Benutzer kann auch einen automatischen Abruf der zusätzlichen Bilddaten derart verhindern (das heißt, progressiv höhere Bildauflösungsstufen), dass er beispielsweise die Steuertaste gedrückt hält (das heißt, die "CTRL-Taste"), während das Bild 428 interaktiv gezoomt wird. Diese Steuertastenfunktion bietet dem Benutzer die Auswahl entweder zum Abrufen zusätzlicher Bilddaten zum Beibehalten der Bildqualität oder zum einfachen Fortschreiten mit den lokal gespeicherten Bilddaten. Während des vorstehenden interaktiven Zoom-Vorgangs kann der Prozess 500 das Bild 428 auf das Darstellungsfeld 406 durch ein relativ einfaches Interpolationsverfahren, wie das biliniare Interpolationsverfahren, zur Verbesserung der Darstellung des interaktiven Zoom-Vorgangs skalieren. Allerdings kann der Prozess 500 ein komplexeres oder genaueres Interpolationsverfahren, wie eine bikubische Interpolation, zur Skalierung des Bildes 428 nach dem Abschließen des interaktiven Zoom-Vorgangs verwenden (das heißt, nachdem der Benutzer die Mousetaste losläßt).
  • Es liegen auch verschiedene andere Benutzerbefehle im Schutzbereich der Erfindung. Beispielsweise kann der Prozess 500 durch einen Einmal-, Zweimal-, Dreimal-, . . Zehnmal- oder höheren Auflösungszoombefehl, einen volle Auflösungs- und Anzeigebefehl, einen Anpassung-an-Darstellung-Befehl, einen Mouse-Doppelklick zum hinein oder heraus Zoomen, eine Mouseauswahl eines interessierenden Bereichs (AUI), einen Befehl für eine höhere oder niedrigere Bildauflösungsstufe (beispielsweise eine beliebige der 1 bis N Bildstufen), eine manuelle Filmoperation (beispielsweise ein Durchstreifen durch einen Stapel von Bildern, wie die 1 bis N Bildstufen), oder durch einen anderen Zoom-Befehl ausgelöst werden. Bei einem manuellen Filmvorgang kann die Erfindung ein entsprechend einfaches Interpolationsverfahren anwenden und das Bild 428 bei einer entsprechend geringeren Bildauflösungsstufe während des Betriebs zur Bereitstellung einer besseren Darstellung anzeigen, während der Benutzer interaktiv durchblättert (beispielsweise durch gedrückt Halten der Mousetaste). Nach der Auswahl des gewünschten Bildes im Stapel (beispielsweise durch Loslassen der Mousetaste), kann die vorstehende Filmfunktion allerdings zu dem entsprechend komplexeren oder genaueren Interpolationsprozess zurückkehren und zusätzliche Bilddaten abrufen, die für die Anzeige des ausgewählten Bildes erforderlich sind.
  • Wie es in Fig. 27 gezeigt ist, löst der Client 404 den kontinuierlichen Abruf- und Anzeigeprozess 500 durch Initiieren eines Zoom-Vorgangs auf eine gewünschte Darstellungsfeldauflösung aus (Block 502). Initiiert der Benutzer einen "Herauszoom-Vorgang" (Block 504), verwendet der Prozess 500 die höchste gespeicherte Auflösungsstufe (HSRL) im Clientspeicher/-Puffer (Block 506). Die höchste gespeicherte Auflösungsstufe (HSRL) kann für eine optimale Bildanzeige verwendet werden, da keine zusätzlichen Bildauflösungsstufen erforderlich sind und die höchste gespeicherte Auflösungsstufe die optimale Bildauflösung für die lokale Anzeige in dem Darstellungsfeld 406 liefert. Allerdings kann der Prozess 500 eine geringere Auflösungsstufe zur Verbesserung der Leistung verwenden. Der Prozess 500 geht dann zur Skalierung der höchsten gespeicherten Auflösungsstufe (HSRL) auf die gewünschte Darstellungsfeldauflösung (Block 508) über. In diesem Ausführungsbeispiel fährt der Prozess 500 mit der Verwendung der höchsten abgerufenen und gespeicherten Bildauflösungsstufe (HSRL) als Vorgabe ungeachtet einer Aufwärts- oder Abwärtsskalierung des Bildes 428 fort. Klickt der Benutzer beispielsweise doppelt auf das Bild 428 zum Erhalten einer vollen Auflösungsanzeige des Bildes 428, werden die zusätzlichen Bilddaten, die für die volle Auflösungsanzeige erforderlich sind, immer noch verwendet, nachdem der Benutzer auf das Bild 428 zurück auf seine vorhergehende Größe doppelt geklickt hat.
  • Initiiert der Benutzer einen "Hineinzoom-Vorgang" (Block 504), geht der kontinuierliche Abruf- und Anzeigeprozess 500 zur Bestimmung der Bildauflösung (IR) der höchsten gespeicherten Auflösungsstufe (HSRL) im Clientspeicher/-Puffer über (Block 510). Wie es vorstehend beschrieben ist, kann der Benutzer die Option (Block 512) zum Weitermachen mit einem Vorgabeskalierungsschwellenwert (ST) oder zum Einstellen eines gewünschten Skalierungsschwellenwerts (Block 514) haben. In jedem Fall verwendet der Prozess 500 den Skalierungsschwellenwert und -Faktor (ST) zum Bewahren einer annehmbaren Klarheit und Charakteristik des Bildes 428. Unter Verwendung des ausgewählten Skalierungsschwellenwerts (ST) geht der Prozess 500 zur Auswahl einer geeigneten Bildauflösung (IR) für die Darstellungsfeldauflösung (VR) über. Demnach bewertet der Prozess 500 die höchste gespeicherte Auflösungsstufe (HSRL) am Client 404 und jede progressiv höhere Bildauflösungsstufe (IRL) am Server für 402, bis der Skalierungsschwellenwertfaktor (ST) erfüllt ist (Block 516).
  • In einem Schritt I = 0, geht der Prozess 500 zur Bewertung der höchsten gespeicherten Auflösungsstufe (HSRL) im Block 518 über. Die Bildauflösung wird durch die Bestimmung analysiert, ob die Darstellungsfeldauflösung (VR) größer als die Bildauflösung ist (das heißt, IR auf der Stufe HSRL), die durch den Skalierungsfaktor (ST) auf einen Wert von IR(HSRL) × ST skaliert ist (Block 520). Ist die Darstellungsfeldauflösung (VR) nicht größer als die skalierte Bildauflösung IR(HSRL) × ST, ist die Bildauflösungsstufe HSRL zur Anzeige im Darstellungsfeld 408 geeignet. Demnach fährt der Prozess 500 mit der Auswahl der Bildauflösungsstufe (IRL) fort, die einer Bildauflösung von IR(HSRL) entspricht (Block 522). Überschreitet allerdings die Darstellungsfeldauflösung (VR) die skalierte Bildauflösung IR(HSRL) × ST, fährt der Prozess 500 mit der Bestimmung fort, ob zusätzliche höhere Bildauflösungsstufen noch am Server 402 verfügbar sind (Block 524). Sind keine höheren Bildauflösungsstufen verfügbar (Block 524), wird die aktuelle Auflösungsstufe (das heißt, HSRL) zur Anzeige im Darstellungsfeld 406 ausgewählt (Block 522). Sind höhere Bildauflösungsstufen verfügbar (Block 524), fährt der Prozess 500 mit dem Abrufen der nächst höheren Bildauflösungsstufe (das heißt, IRL = HSRL - 1) vom Server 402 fort (Block 526). Die abgerufene höhere Bildauflösungsstufe (IRL) wird dann am Client 404 gespeichert/gepuffert (Block 528), wo die abgerufene IRL in die vorhandenen am Client 404 gespeicherten/gepufferten Bilddaten integriert wird (Block 530). Beispielsweise werden beliebige höhere Bildauflösungsstufen (IRLS), die vom Server 402 abgerufen wurden, zu dem komprimierten Bilddatenstrom 407 hinzugefügt, wie es in Fig. 18 gezeigt ist.
  • Der Prozess 500 fährt dann mit der Bewertung der nächst höheren Bildauflösungsstufe fort (Block 532), die als IRL = HSRL - 1 für diese zweite Bewertungsschleife I = I + 1 definiert ist. Wie es vorstehend beschrieben ist, vergleicht der Prozess 500 die Darstellungsfeldauflösung (VR) mit der Bildauflösung (IR), die nun auf der Bildstufe HSRL - 1 eine Auflösungsstufe höher ist (Block 520). Überschreitet die skalierte Bildauflösung IR(HSRL - 1) × ST die Darstellungsfeldauflösung (VR), wählt der Prozess 500 die Bildauflösungsstufe HSRL - 1 zur Anzeige im Darstellungsfeld 406 aus (Block 522). Überschreitet die Darstellungsfeldauflösung (VR) die skalierte Bildauflösung IR(HSRL - 1) × ST, fährt der Prozess 500 mit der Bestimmung fort, ob zusätzliche höhere Bildauflösungsstufen noch am Server 402 verfügbar sind (Block 524). Sind keine höheren Bildauflösungsstufen verfügbar (Block 524), wählt der Prozess 500 die aktuelle Auflösungsstufe (das heißt, die höchste gespeicherte Auflösungsstufe) für die Anzeige im Darstellungsfeld 406 aus (Block 522). Ansonsten fährt der Prozess 500 mit dem Abrufen der nächst höheren Bildauflösungsstufe (das heißt, IRL = HSRL - 2) vom Server 402 fort (Block 526). Der Prozess 500 speichert/puffert dann die abgerufene IRL im Speicher 404 (Block 528) und integriert die empfangene/gespeicherte IRL in vorhandene, am Client 404 gespeicherte/gepufferte Bilddaten (Block 530).
  • Der Prozess 500 fährt mit dem Durchlaufen der Blöcke 518, 520, 524, 526, 528, 530 und 532 fort, bis der Prozess 500 eine Bildauflösungsstufe (IRL) identifiziert, die entweder zur Erfüllung des Skalierungsschwellenwerts ST hoch genug ist oder die maximale Bildauflösungsstufe darstellt (IRL = 0). Hat der Prozess 500 eine geeignet hohe Bildauflösungsstufe identifiziert und ausgewählt (Block 522), kann die ausgewählte Auflösungsstufe (IRL) dekomprimiert (Block 534), zum Passen in das Clientdarstellungsfeld 404 skaliert (Block 536) und im Clientdarstellungsfeld 406 auf der ausgewählten und skalierten Auflösungsstufe angezeigt werden (Block 538).
  • Das vorliegende Verfahren kann auch eine Vielzahl von Bildauflösungs- und Dekompressionsstufencharakteristiken des Bildes 428 anzeigen. Beispielsweise kann das System einen Textblock bereitstellen, der die aktuelle Bildauflösung oder Auflösungsstufe gegenüber der maximalen Bildauflösung oder den Gesamtauflösungsstufen angibt. Beispielsweise kann der Textblock als IR/N formatiert sein, wobei IR die aktuelle Auflösungsstufe und N die Gesamtauflösungsstufen für das Bild 428 darstellen. Zeigt das System die maximale Auflösung des Bildes 428 im Darstellungsfeld 406 an, kann im Textblock "vollständig" oder "vollständige Auflösung" zur Angabe stehen, dass alle verfügbaren Bilddaten erfasst wurden und für das im Darstellungsfeld 406 angezeigte Bild 428 verwendet werden. Die "vollständig"-Auflösungsangabe kann zur Angabe einer vollständigen Auflösung des Bildes 428 verwendet werden, wenn die Bilddaten dem vorstehenden Bildzerlegungs- und Verarbeitungsverfahren unterzogen wurden. Dagegen kann die "vollständige Auflösung"-Auflösungsangabe zur Angabe einer vollständige Auflösung des Bildes 428 verwendet werden, wenn die Bilddaten keinem der vorstehenden Zerlegungs- und Dekompressionsverfahren unterzogen wurden.
  • Außerdem kann der Textblock Skalierungs-/Zoomeigenschaften des Bildes 428 angeben. Beispielsweise kann der Textblock die Skalierungs-/Zoomeigenschaften im Format "ZF:x.x" angeben, wobei x.x ein Zoomfaktor für das gegenwärtig angezeigte Bild 428 ist. Der Zoomfaktor informiert den Benutzer über den aktuellen Skalierungsstatus des Bildes 428, das eventuell in verschiedenen Graden zum Passen in das Darstellungsfeld 406aufwärts oder abwärts skaliert wurde. Demnach kann der Benutzer die relative Genauigkeit des angezeigten Bildes in Abhängigkeit davon einschätzen, in wie weit das Bild über seine tatsächliche Auflösung expandiert wurde. Der Textblock kann auch den Interpolationstyp anzeigen, wie eine biliniare oder bikubische Interpolation, die zur Skalierung des Bildes 428 verwendet wird.
  • Es kann auch ein Bildinformationsfenster zur Anzeige von Informationen aus dem Header 408 vorgesehen sein. Die Headerinformationen können die Gesamtanzahl an Auflösungsstufen (das heißt, 1 bis N), die Reihen und Spalten für jede Auflösungsstufe und die Speichergröße (beispielsweise Bytes) jeder komprimierten Auflösungsstufe enthalten. Die Headerinformationen können auch verschiedene Patienteninformationen, medizinische Abbildungssystemdaten oder beliebige andere gewünschte Informationen aus einem oder mehreren Headern 408 im Bilddatenstrom 407 umfassen.
  • Die Erfindung kann auch ein abgekürztes Verfahren zur Erfassung des gesamten Bilddatensatzes vom Server 402 und Anzeige des erfassten Bildes 428 im Darstellungsfeld 406 mit voller Auflösung (das heißt, 1x-Zoom) liefern. Dies garantiert, dass der Benutzer den vollständigen Datensatz in einer eins-zu-eins-Beziehung zwischen den Bild-Bildelementen und den Darstellungsfeld-Bildelementen hat. Wie es vorstehend beschrieben ist, können verschiedene andere abgekürzte Verfahren zum Zoomen/Skalieren zum Beschleunigen des Bildabrufs, der Bildskalierung und -anzeige im Darstellungsfeld 406 vorgesehen sein.
  • Obwohl die Erfindung für verschiedene Modifikationen und alternative Formen empfänglich sein kann, wurden bestimmte Ausführungsbeispiele in den Zeichnungen gezeigt und ausführlich beschrieben. Es sollte aber verstanden werden, dass die Erfindung nicht auf die bestimmten offenbarten Formen beschränkt werden soll. Vielmehr soll die Erfindung alle Modifikationen, Äquivalente und Alternativen abdecken, die in den Schutzbereich der Erfindung fallen, wie er durch die beiliegenden Patentansprüche definiert ist.
  • Erfindungsgemäß werden Bilddaten selektiv verarbeitet, die in eine Vielzahl von Auflösungsstufen zerlegt sind. Die Bilddaten können in der Reihenfolge progressiv höhere Auflösungsstufen zur Anzeige in einem Darstellungsfeld abgerufen werden, das eine Darstellungsfeldauflösung aufweisen kann, die höher oder niedriger als eine gewünschte der Auflösungsstufen ist. Zu Beginn können die Bilddaten im Darstellungsfeld auf einer entsprechend niedrigeren Stufe der Vielzahl der Auflösungsstufen angezeigt werden. Wünscht ein Benutzer höhere Auflösungsanzeigen des gesamten oder eines Teils des Bildes, können eine oder mehrere der progressiv höheren Auflösungsstufen abgerufen und zum Passen in das Darstellungsfeld skaliert werden. Demnach verarbeitet die Erfindung die Daten effektiver durch das Zugreifen auf die Bilddaten in Blöcken entsprechend der Vielzahl der Auflösungsstufen anstelle eines Zugriffs auf die gesamten Bilddaten. Es kann auch ein Skalierungsschwellenwert zum Signalisieren des Erfordernisses einer nächst höheren Stufe der Vielzahl der Auflösungsstufen verwendet werden.

Claims (86)

1. Verfahren zur selektiven Übertragung von Bilddaten, mit den Schritten:
Wählen einer zur Anzeige in einem gewünschten Darstellungsfeld geeigneten Bildauflösung, wobei die Bildauflösung einem Satz einer Vielzahl von Datensätzen entspricht, die aus einem Bild durch eine verlustlose Wavelet- Zerlegung zerlegt sind, und
wahlweises Abrufen eines Abschnitts der Vielzahl von Datensätzen zur Neuzusammensetzung des Bildes bei der Bildauflösung.
2. Verfahren nach Anspruch 1, wobei die verlustlose Wavelet- Zerlegung eine verlustlose ganzzahlig Wavelet-Zerlegung umfasst.
3. Verfahren nach Anspruch 1, wobei jede der Vielzahl der Datensätze durch eine verlustlose Kompression komprimiert wird.
4. Verfahren nach Anspruch 1, wobei die Vorgänge der Auswahl der Bildauflösung und des selektiven Abrufens des Abschnitts automatisch ausgeführt werden.
5. Verfahren nach Anspruch 1, wobei jeder Datensatz einen hierarchischen Satz von Sub-Bändern umfasst, wobei ein Satz eine Niederfrequenzkomponente auf einer niedrigsten Auflösungsstufe und jeder verbleibende Satz Hochfrequenzkomponenten an aufeinanderfolgend höheren Auflösungsstufen umfasst.
6. Verfahren nach Anspruch 5, wobei jede Hochfrequenzkomponente verlustlos unter Verwendung tatsächlicher Werte komprimiert wird, und wobei die Niederfrequenzkomponente auf der niedrigsten Auflösungsstufe verlustlos unter Verwendung von Prädiktionsfehlern komprimiert wird.
7. Verfahren nach Anspruch 1, wobei die Auswahl der Bildauflösung eine Auswahl der Bildauflösung aus einer Vielzahl progressiv höherer Auflösungsstufen umfasst, die jeweils einem der Vielzahl der Datensätze entsprechen.
8. Verfahren nach Anspruch 7, wobei die Auswahl der Bildauflösung eine Identifizierung einer niedrigsten geeigneten Stufe der Vielzahl der progressiv höheren Auflösungsstufen umfasst, die keine Aufwärts-Skalierung über einen gewünschten Skalierungsfaktor zur Anzeige im gewünschten Darstellungsfeld erfordert.
9. Verfahren nach Anspruch 8, wobei die Identifizierung der niedrigsten geeigneten Stufe eine Bewertung einer höchsten lokalen Auflösungsstufe der Vielzahl progressiv höherer Auflösungsstufen umfasst.
10. Verfahren nach Anspruch 9, wobei der wahlweise Abruf des Abschnitts ein Abrufen der höchsten lokalen Auflösungsstufe umfasst, die die niedrigste geeignete ist.
11. Verfahren nach Anspruch 9, wobei der wahlweise Abruf des Abschnitts einen entfernten Abruf der niedrigsten geeigneten Stufe und von beliebigen Auflösungsstufen zwischen der höchsten lokalen Auflösungsstufe und der niedrigsten geeigneten Stufe von einem entfernten Speicher umfasst.
12. Verfahren nach Anspruch 1, wobei die Auswahl der Bildauflösung einen Zoom-Vorgang bei dem gewünschten Darstellungsfeld auf eine gewünschte Darstellungsfeldauflösung umfasst.
13. Verfahren nach Anspruch 12, wobei der Zoom-Vorgang bei dem gewünschten Darstellungsfeld einen Zoom-Vorgang bei dem gewünschten Darstellungsfeld in einen örtlichen interessierenden Bereich umfasst.
14. Verfahren nach Anspruch 13, wobei der wahlweise Abruf des Abschnitts die Schritte umfasst:
Identifizieren einer höchsten lokalen Auflösungsstufe, die einem höchsten lokal gespeicherten Satz der Vielzahl der Datensätze entspricht, und
Lokalisieren der ausgewählten Bildauflösung.
15. Verfahren nach Anspruch 14, wobei die Lokalisierung die Schritte umfasst:
Identifizieren eines entfernten Speicherorts, wenn die Bildauflösung die höchste lokale Auflösungsstufe übersteigt, und
Abrufen einer Gruppe der Vielzahl von Datensätzen vom entfernten Speicherort, die den einen Satz und beliebige Sätze der Vielzahl der Datensätze umfasst, die Auflösungsstufen zwischen der höchsten lokalen Auflösungsstufe und der ausgewählten Bildauflösung entsprechen.
16. Verfahren nach Anspruch 14, wobei die Lokalisierung die Schritte umfasst:
Identifizieren eines lokalen Speicherorts, wenn die höchste lokale Auflösungsstufe die ausgewählte Bildauflösung überschreitet, und
Abrufen des Abschnitts vom lokalen Speicherort.
17. Verfahren nach Anspruch 12, wobei der Zoom-Vorgang bei dem gewünschten Darstellungsfeld einen nach außen gerichteten Zoom-Vorgang bei dem gewünschten Darstellungsfeld zur Betrachtung eines relativ breiteren interessierenden Bereichs.
18. Verfahren nach Anspruch 17, wobei der wahlweise Abruf des Abschnitts die Verwendung einer höchsten lokalen Auflösungsstufe umfasst, die einer lokal gespeicherten Gruppe der Vielzahl der Datensätze entspricht, um bei dem gewünschten Darstellungsfeld einen nach außen gerichteten Zoom-Vorgang auszuführen.
19. Verfahren nach Anspruch 1, ferner mit der Skalierung der Bildauflösung zum Anpassen an das gewünschte Darstellungsfeld.
20. Verfahren nach Anspruch 1, wobei der wahlweise Abruf des Abschnitts die Anforderung eines Datenstroms mit dem Abschnitt der Vielzahl der sequenziell in einer gewünschten Reihenfolge beruhend auf der verlustlosen Wavelet-Zerlegung angeordneten Datensätze umfasst.
21. Verfahren nach Anspruch 20, wobei die gewünschte Reihenfolge eine Reihenfolge aufsteigender Auflösung umfasst.
22. Verfahren nach Anspruch 20, wobei die Anforderung des Datenstroms das Erhalten von Bildeigenschaften umfasst, die in einem Header des Datenstroms angeordnet sind.
23. Verfahren nach Anspruch 22, wobei die Bildeigenschaften eine Quantität der Vielzahl der Datensätze, eine Auflösung jedes Datensatzes und eine komprimierte Größe jedes Datensatzes umfassen.
24. Verfahren nach Anspruch 22, mit dem Lesen der im Header angeordneten Bildeigenschaften während des Abrufs des Datenstroms zum wahlweisen Abrufen des Abschnitts.
25. Verfahren nach Anspruch 24, mit der Unterbrechung der Übertragung des Datenstroms bei einem vollständigen Abruf des Abschnitts.
26. Verfahren nach Anspruch 1, mit der Speicherung des Abschnitts auf einem lokalen Speicher.
27. Verfahren nach Anspruch 1, mit einer Neuzusammensetzung des Bildes bei der Bildauflösung durch Kombinieren des vom entfernten Speicher abgerufenen Abschnitts mit einem lokalen Abschnitt der Vielzahl der im lokalen Speicher gespeicherten Datensätze.
28. Verfahren nach Anspruch 27, wobei die Neuzusammensetzung des Bildes bei der Bildauflösung die Ausführung einer umgekehrten Wavelet-Zerlegung bei einer Gruppe der Datensätze umfasst, die von einer niedrigsten Auflösungsstufe zur Bildauflösung reichen, wobei die Gruppe den Abschnitt und den lokalen Abschnitt umfasst.
29. Verfahren zur wahlweisen Übertragung von Bilddaten, mit den Schritten:
Bestimmen einer Darstellungsfeldauflösung eines Clientdarstellungsfeldes,
Identifizieren einer höchsten lokalen Auflösungsstufe, die einem lokalen Satz einer Vielzahl zerlegter Bildsätze entspricht, die aus einem Bild durch eine verlustlose Wavelet- Zerlegung erzeugt werden,
Auswählen einer akzeptablen Bildauflösung zur Anzeige in dem Clientdarstellungsfeld durch Vergleichen der Darstellungsfeldauflösung mit progressiv höheren Auflösungsstufen, die der Vielzahl zerlegter Bildsätze entsprechen, und
entferntes Abrufen gewünschter Sätze der Vielzahl zerlegter Bildsätze für eine Neuzusammensetzung des Bildes bei der akzeptablen Bildauflösung.
30. Verfahren nach Anspruch 29, wobei die verlustlose Wavelet- Zerlegung eine verlustlose ganzzahlige Wavelet-Zerlegung umfasst.
31. Verfahren nach Anspruch 29, wobei jeder zerlegte Bildsatz einen hierarchischen Satz aus Sub-Bändern umfasst, wobei ein Satz eine Niederfrequenzkomponente auf einer niedrigsten Auflösungsstufe und jeder verbleibende Satz Hochfrequenzkomponenten an aufeinanderfolgend höheren Auflösungsstufen umfasst.
32. Verfahren nach Anspruch 29, wobei die Auswahl der akzeptablen Bildauflösung die Identifizierung einer niedrigsten geeigneten Stufe der progressiv höheren Auflösungsstufen umfasst, die keine Aufwärtsskalierung über einen gewünschten Skalierungsschwellenwert für die Anzeige im gewünschten Darstellungsfeld erfordert.
33. Verfahren nach Anspruch 32, wobei der entfernte Abruf gewünschter Sätze einen lokalen Zugriff auf die höchste lokale Auflösungsstufe umfasst, wenn die niedrigste geeignete Stufe kleiner oder gleich der höchsten lokalen Auflösungsstufe ist.
34. Verfahren nach Anspruch 32, wobei das entfernte Abrufen gewünschter Sätze ein entferntes Abrufen der niedrigsten geeigneten Stufe und beliebiger Zwischen-Sätze mit Auflösungsstufen zwischen der höchsten lokalen Auflösungsstufe und der niedrigsten geeigneten Stufe umfasst.
35. Verfahren nach Anspruch 29, wobei das entfernte Abrufen gewünschter Sätze die Anforderung der gewünschten Sätze von einem entfernten Server über ein Netz umfasst.
36. Verfahren nach Anspruch 29, wobei die Auswahl der akzeptablen Bildauflösung einen Zoom-Vorgang bei dem Clientdarstellungsfeld auf die Darstellungsfeldauflösung umfasst.
37. Verfahren nach Anspruch 36, wobei der Zoom-Vorgang bei dem Clientdarstellungsfeld einen Zoom-Vorgang bei dem Clientdarstellungsfeld auf einen örtlichen interessierenden Bereich umfasst.
38. Verfahren nach Anspruch 36, wobei der Zoom-Vorgang bei dem Clientdarstellungsfeld einen Zoom-Vorgang bei dem Clientdarstellungsfeld nach außen zum Betrachten eines entsprechenden breiteren interessierenden Bereichs umfasst.
39. Verfahren nach Anspruch 38, wobei der Zoom-Vorgang bei dem Clientdarstellungsfeld nach außen das Vermeiden des Vorgangs eines entfernten Abrufens gewünschter Sätze und die Verwendung der höchsten lokalen Auflösungsstufe zur Anzeige im Clientdarstellungsfeld umfasst.
40. Verfahren nach Anspruch 29, wobei die Auswahl der akzeptablen Bildauflösung die Auswahl der höchsten lokalen Auflösungsstufe als akzeptable Bildauflösung umfasst, wenn die höchste lokale Auflösungsstufe keine inakzeptable Skalierung zum Gleichen der Darstellungsfeldauflösung erfordert.
41. Verfahren nach Anspruch 40, wobei das entfernte Abrufen gewünschter Sätze nicht durchgeführt wird, wenn die höchste lokale Auflösungsstufe als akzeptable Bildauflösung ausgewählt wird.
42. Verfahren nach Anspruch 29, ferner mit der Skalierung der akzeptablen Bildauflösung zur Anpassung an das Clientdarstellungsfeld.
43. Verfahren nach Anspruch 29, wobei das entfernte Abrufen der gewünschten Sätze eine Anforderung eines Datenstroms mit den gewünschten Sätzen der Vielzahl zerlegter Bildsätze umfasst, die sequentiell in der Reihenfolge steigender Auflösung angeordnet sind.
44. Verfahren nach Anspruch 43, wobei die Vorgänge der Bestimmung der Darstellungsfeldauflösung, der Identifizierung der höchsten lokalen Auflösungsstufe, der Auswahl der akzeptablen Bildauflösung und des entfernten Abrufens gewünschter Sätze automatisch ausgeführt werden, wenn ein Benutzer mit dem Clientdarstellungsfeld interagiert.
45. Verfahren nach Anspruch 43, wobei die Anforderung des Datenstroms das Erhalten von Bildcharakteristiken umfasst, die in einem Header des Datenstroms enthalten sind.
46. Verfahren nach Anspruch 45, mit dem Lesen der im Header enthaltenen Bildcharakteristiken während des Abrufs des Datenstroms zum wahlweisen Abrufen der gewünschten Sätze.
47. Verfahren nach Anspruch 46, mit der Unterbrechung der Übertragung des Datenstroms beim Abschließen des Abrufs der gewünschten Sätze.
48. Verfahren nach Anspruch 29, mit einer Neuzusammensetzung des Bildes bei der akzeptablen Bildauflösung durch Kombinieren der gewünschten vom entfernten Speicher abgerufenen Sätze mit lokalen Sätzen der Vielzahl im lokalen Speicher gespeicherten zerlegten Bildsätze.
49. Verfahren nach Anspruch 48, wobei die Neuzusammensetzung des Bildes bei der akzeptablen Bildauflösung die Ausführung einer umgekehrten Wavelet-Zerlegung bei einer Gruppe der zerlegten Bildsätze umfasst, die von einer niedrigsten Auflösungsstufe bis zur akzeptablen Bildauflösung reichen, wobei die Gruppe die gewünschten Sätze und die lokalen Sätze umfasst.
50. System mit:
einem Darstellungsfeldanalysemodul zur Bestimmung einer Darstellungsfeldauflösung eines Clientdarstellungsfeldes,
einem Datenauswahlmodul mit
einem lokalen Datenidentifizierer zum Identifizieren einer höchsten lokalen Auflösungsstufe, die einem lokalen Satz einer Vielzahl zerlegter Bildsätze entspricht, die aus einem Bild durch eine verlustlose Wavelet-Zerlegung erzeugt werden, und
einem gewünschten Datenidentifizierer zum Identifizieren einer akzeptablen Bildauflösung zur Anzeige im Clientdarstellungsfeld und
einem Datenabrufmodul zum entfernten Abrufen gewünschter Sätze der Vielzahl zerlegter Bildsätze zur Neuzusammensetzung des Bildes bei der akzeptablen Bildauflösung.
51. System nach Anspruch 50, wobei das Darstellungsfeldanalysemodul, das Datenauswahlmodul und das Datenabrufmodul an einer Clientworkstation vorhanden sind.
52. System nach Anspruch 50, mit einem Automationsmodul zum automatischen Ausführen des Darstellungsfeldanalysemoduls, des Datenauswahlmoduls und des Datenabrufmoduls.
53. System nach Anspruch 50, wobei die verlustlose Wavelet- Zerlegung eine verlustlose ganzzahlige Wavelet-Zerlegung umfasst.
54. System nach Anspruch 50, wobei jeder zerlegte Bildsatz einen hierarchischen Satz von Sub-Bändern umfasst, wobei ein Satz eine Niederfrequenzkomponente auf einer niedrigsten Auflösungsstufe und jeder verbleibende Satz Hochfrequenzkomponenten an aufeinanderfolgend höheren Auflösungsstufen umfasst.
55. System nach Anspruch 50, wobei der gewünschte Datenidentifizierer eine Auflösungsvergleichseinrichtung zum Vergleichen der Darstellungsfeldauflösung mit progressiv höheren Auflösungsstufen umfasst, die der Vielzahl zerlegter Bildsätze entsprechen.
56. System nach Anspruch 55, wobei die Auflösungsvergleichseinrichtung einen minimalen akzeptablen Auflösungsidentifizierer zum Identifizieren einer niedrigsten geeigneten Stufe der progressiv höheren Auflösungsstufen umfasst, die keine Aufwärts-Skalierung über einen gewünschten Skalierungsschwellenwert zur Anzeige im Clientsdarstellungsfeld erfordert.
57. System nach Anspruch 56, wobei das Datenabrufmodul ein Lokaldatenzugriffsmodul zum lokalen Zugreifen auf die höchste lokale Auflösungsstufe umfasst, wenn die niedrigste geeignete Stufe kleiner oder gleich der höchsten lokalen Auflösungsstufe ist.
58. System nach Anspruch 56, wobei der gewünschte Datenidentifizierer zum Identifizieren einer gewünschten Datengruppe mit der niedrigsten geeigneten Stufe und beliebigen Zwischensätzen mit Auflösungsstufen zwischen der höchsten lokalen Auflösungsstufe und der niedrigsten geeigneten Stufe eingerichtet ist.
59. System nach Anspruch 50, wobei das Datenauswahlmodul ein Datenoptimierungsmodul zur Verwendung der höchsten lokalen Auflösungsstufe zur Anzeige im Clientdarstellungsfeld umfasst, bis das Datenabrufmodul zum Abrufen gewünschter Sätze arbeitet.
60. System nach Anspruch 50, mit einem Bildskalierungsmodul zur Skalierung der akzeptablen Bildauflösung zur Anpassung an das Clientdarstellungsfeld.
61. System nach Anspruch 50, wobei das Datenabrufmodul zum entfernten Abrufen der gewünschten Sätze in einem Datenstrom mit den gewünschten Sätzen der Vielzahl zerlegter Bildsätze eingerichtet ist.
62. System nach Anspruch 61, wobei das Datenabrufmodul einen Datenstromanalysierer zum Lesen von Bildcharakteristiken umfasst, die in einem Header des Datenstroms enthalten sind.
63. System nach Anspruch 62, wobei der Datenstromanalysierer einen Datenselektor zur Analyse des Datenstroms während der Übertragung und zum Abbrechen der Übertragung des Datenstroms beim vollständigen Abruf der gewünschten Sätze umfasst.
64. System nach Anspruch 50, wobei das System ein Bildarchivierungs- und Kommunikationssystem umfasst.
65. System nach Anspruch 64, ferner mit einem oder mehreren Abbildungssystemen.
66. System nach Anspruch 65, wobei das eine oder die mehreren Abbildungssysteme ein MRI-System umfassen.
67. System nach Anspruch 65, wobei das eine oder die mehreren Abbildungssysteme ein Computertomographiesystem umfassen.
68. System nach Anspruch 65, wobei das eine oder die mehreren Abbildungssysteme ein Positronenemissionstomographiesystem umfassen.
69. System nach Anspruch 65, wobei das eine oder die mehrerem Abbildungssysteme ein Radiofluoroskopiesystem umfassen.
70. System nach Anspruch 65, wobei das eine oder die mehreren Abbildungssysteme ein Computerradiographiesystem umfassen.
71. System nach Anspruch 65, wobei das eine oder die mehreren Abbildungssysteme ein Utraschallsystem umfassen.
72. System nach Anspruch 65, wobei die verlustlose Wavelet- Zerlegung eine verlustlose ganzzahlige Wavelet-Zerlegung umfasst.
73. Computerprogramm mit:
einem maschinenlesbaren Träger,
einem auf dem maschinenlesbaren Träger gespeicherten Darstellungsfeldanalysemodul zur Bestimmung einer Darstellungsfeldauflösung eines Clientdarstellungsfeldes und
einem auf dem maschinenlesbaren Träger gespeicherten Datenauswahlmodul mit
einem lokalen Datenidentifizierer zur Identifizierung einer höchsten lokalen Auflösungsstufe, die einem lokalen Satz einer Vielzahl zerlegter Bildsätze entspricht, die aus einem Bild durch eine verlustlose Wavelet-Zerlegung erzeugt werden, und
einem gewünschten Datenidentifizierer zum Identifizieren einer akzeptablen Bildauflösung zur Anzeige im Clientdarstellungsfeld.
74. System nach Anspruch 73, wobei das Darstellungsfeldanalysemodul, das Datenauswahlmodul und das Datenabrufmodul an einer Clientworkstation vorhanden sind.
75. System nach Anspruch 73, wobei die verlustlose Wavelet- Zerlegung eine verlustlose ganzzahlige Wavelet-Zerlegung umfasst.
76. System nach Anspruch 73, wobei jeder zerlegte Bildsatz einen hierarchischen Satz von Sub-Bändern umfasst, wobei ein Satz eine Niederfrequenzkomponente auf einer niedrigsten Auflösungsstufe und jeder verbleibende Satz Hochfrequenzkomponenten an aufeinanderfolgend höheren Auflösungsstufen umfasst.
77. System nach Anspruch 73, wobei der gewünschte Datenidentifizierer eine Auflösungsvergleichseinrichtung zum Vergleichen der Darstellungsfeldauflösung mit progressiv höheren Auflösungsstufen umfasst, die der Vielzahl zerlegter Bildsätze entsprechen.
78. System nach Anspruch 77, wobei die Auflösungsvergleichseinrichtung einen minimalen akzeptablen Auflösungsidentifizierer zum Identifizieren einer niedrigsten geeigneten Stufe der progressiv höheren Auflösungsstufen umfasst, die keine Aufwärts-Skalierung über einen gewünschten Skalierungsschwellenwert zur Anzeige im Clientsdarstellungsfeld erfordert.
79. System nach Anspruch 78, wobei das Datenabrufmodul ein Lokaldatenzugriffsmodul zum lokalen Zugreifen auf die höchste lokale Auflösungsstufe umfasst, wenn die niedrigste geeignete Stufe kleiner oder gleich der höchsten lokalen Auflösungsstufe ist.
80. System nach Anspruch 78, wobei der gewünschte Datenidentifizierer zum Identifizieren einer gewünschten Datengruppe mit der niedrigsten geeigneten Stufe und beliebigen Zwischensätzen mit Auflösungsstufen zwischen der höchsten lokalen Auflösungsstufe und der niedrigsten geeigneten Stufe eingerichtet ist.
81. System nach Anspruch 73, wobei das Datenauswahlmodul ein Datenoptimierungsmodul zur Verwendung der höchsten lokalen Auflösungsstufe zur Anzeige im Clientdarstellungsfeld umfasst, bis gewünschte Sätze der Vielzahl zerlegter Bildsätze erhalten und mit der höchsten lokalen Auflösungsstufe neu zusammengesetzt sind.
82. System nach Anspruch 73, mit einem Bildskalierungsmodul zur Skalierung der akzeptablen Bildauflösung zur Anpassung an das Clientdarstellungsfeld.
83. System nach Anspruch 73, mit einem Datenabrufmodul zum entfernten Abrufen gewünschter Sätze der Vielzahl zerlegter Bildsätze zur Neuzusammensetzung des Bildes bei der akzeptablen Bildauflösung.
84. System nach Anspruch 83, wobei das Datenabrufmodul zum entfernten Abrufen der gewünschten Sätze in einem Datenstrom mit den gewünschten Sätzen der Vielzahl zerlegter Bildsätze eingerichtet ist, die sequenziell in der Reihenfolge steigender Auflösung angeordnet sind.
85. System nach Anspruch 84, wobei das Datenabrufmodul einen Datenstromanalysierer zum Analysieren des Datenstroms während der Übertragung und zum Unterbrechen der Übertragung des Datenstroms beim Abschluss des Abrufs der gewünschten Sätze umfasst.
86. System nach Anspruch 73, mit einem auf dem maschinenlesbaren Träger gespeicherten Automationsmodul zum automatischen Ausführen des Darstellungsfeldanalysemoduls und des Datenauswahlmoduls.
DE10254192A 2001-11-21 2002-11-20 Verfahren und Vorrichtung zur Übertragung und Anzeige eines komprimierten digitalisierten Bildes Withdrawn DE10254192A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US09/996,320 US7236637B2 (en) 1999-11-24 2001-11-21 Method and apparatus for transmission and display of a compressed digitized image

Publications (1)

Publication Number Publication Date
DE10254192A1 true DE10254192A1 (de) 2003-09-11

Family

ID=25542768

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10254192A Withdrawn DE10254192A1 (de) 2001-11-21 2002-11-20 Verfahren und Vorrichtung zur Übertragung und Anzeige eines komprimierten digitalisierten Bildes

Country Status (5)

Country Link
US (2) US7236637B2 (de)
JP (1) JP4187514B2 (de)
CN (1) CN1311412C (de)
DE (1) DE10254192A1 (de)
GB (1) GB2383917B (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005116927A1 (en) * 2004-05-31 2005-12-08 Phase One A/S Image compression for rapid high-quality imaging
US7656561B2 (en) 2004-05-31 2010-02-02 Phase One A/S Image compression for rapid high-quality imaging

Families Citing this family (171)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7236637B2 (en) * 1999-11-24 2007-06-26 Ge Medical Systems Information Technologies, Inc. Method and apparatus for transmission and display of a compressed digitized image
US7421136B2 (en) * 1999-11-24 2008-09-02 Ge Medical Systems Information Technologies Inc. Image tessellation for region-specific coefficient access
US20020044696A1 (en) * 1999-11-24 2002-04-18 Sirohey Saad A. Region of interest high resolution reconstruction for display purposes and a novel bookmarking capability
US20010030667A1 (en) * 2000-04-10 2001-10-18 Kelts Brett R. Interactive display interface for information objects
US6563513B1 (en) * 2000-05-11 2003-05-13 Eastman Kodak Company Image processing method and apparatus for generating low resolution, low bit depth images
CA2422780A1 (en) * 2000-08-17 2002-02-21 Innotive Corporation System and method for displaying large images with reduced capacity buffer, file format conversion, user interface with zooming and panning, and broadcast of different images
US8253779B2 (en) * 2000-10-11 2012-08-28 University of Pittsbugh—Of The Commonwealth System of Higher Education System for remote guidance by expert for imaging device
JP4241038B2 (ja) 2000-10-30 2009-03-18 ザ ジェネラル ホスピタル コーポレーション 組織分析のための光学的な方法及びシステム
US20080060020A1 (en) 2000-12-22 2008-03-06 Hillcrest Laboratories, Inc. Methods and systems for semantic zooming
US8924506B2 (en) 2000-12-27 2014-12-30 Bradium Technologies Llc Optimized image delivery over limited bandwidth communication channels
US20030206181A1 (en) * 2001-04-13 2003-11-06 Abb Ab System and method for organizing two and three dimensional image data
DE10297689B4 (de) 2001-05-01 2007-10-18 The General Hospital Corp., Boston Verfahren und Gerät zur Bestimmung von atherosklerotischem Belag durch Messung von optischen Gewebeeigenschaften
US7095907B1 (en) * 2002-01-10 2006-08-22 Ricoh Co., Ltd. Content and display device dependent creation of smaller representation of images
US7355716B2 (en) * 2002-01-24 2008-04-08 The General Hospital Corporation Apparatus and method for ranging and noise reduction of low coherence interferometry LCI and optical coherence tomography OCT signals by parallel detection of spectral bands
JP3704515B2 (ja) * 2002-08-30 2005-10-12 Necアクセステクニカ株式会社 画像伸張装置及びその方法
JP4093405B2 (ja) * 2002-10-25 2008-06-04 株式会社リコー 画像処理装置、プログラム及び記憶媒体
JP2004171301A (ja) * 2002-11-20 2004-06-17 Canon Inc 画像処理方法及び装置
US7580577B2 (en) * 2002-12-09 2009-08-25 Canon Kabushiki Kaisha Methods, apparatus and computer products for generating JPEG2000 encoded data in a client
US7711834B2 (en) * 2002-12-13 2010-05-04 Ricoh Co., Ltd. Network access to partial document images
US20040122918A1 (en) * 2002-12-19 2004-06-24 Eastman Kodak Company System and method of sharing images
US7116833B2 (en) * 2002-12-23 2006-10-03 Eastman Kodak Company Method of transmitting selected regions of interest of digital video data at selected resolutions
US7643153B2 (en) 2003-01-24 2010-01-05 The General Hospital Corporation Apparatus and method for ranging and noise reduction of low coherence interferometry LCI and optical coherence tomography OCT signals by parallel detection of spectral bands
JP4392783B2 (ja) * 2003-02-20 2010-01-06 株式会社リコー 動画再生システム、動画送信装置、動画送信方法、プログラム、及び、記録媒体
JP4144377B2 (ja) * 2003-02-28 2008-09-03 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
EP2436307B1 (de) 2003-03-31 2015-10-21 The General Hospital Corporation Fleckenreduzierung bei der optischen Kohärenztomografie durch pfadlängencodierte Winkelmischung
US8046705B2 (en) * 2003-05-08 2011-10-25 Hillcrest Laboratories, Inc. Systems and methods for resolution consistent semantic zooming
JP2007502092A (ja) * 2003-05-16 2007-02-01 ピカサ インコーポレイテッド ネットワークを通じた画像共有のための方法及びシステム
EP2280260B1 (de) * 2003-06-06 2017-03-08 The General Hospital Corporation Verfahren und Vorrichtung für eine Lichtquelle mit Abstimmung der Wellenlänge
US7355601B2 (en) * 2003-06-30 2008-04-08 International Business Machines Corporation System and method for transfer of data between processors using a locked set, head and tail pointers
US6862027B2 (en) * 2003-06-30 2005-03-01 Microsoft Corp. System and method for parallel execution of data generation tasks
US7412100B2 (en) * 2003-09-04 2008-08-12 Qualcomm Incorporated Apparatus and method for sub-sampling images in a transform domain
JP5567246B2 (ja) 2003-10-27 2014-08-06 ザ ジェネラル ホスピタル コーポレイション 周波数ドメイン干渉測定を利用して光学撮像を実行する方法および装置
US7912291B2 (en) * 2003-11-10 2011-03-22 Ricoh Co., Ltd Features for retrieval and similarity matching of documents from the JPEG 2000-compressed domain
US20050207658A1 (en) * 2004-03-05 2005-09-22 Nortel Networks Limited Method and apparatus for extracting information from a medical image
KR100695142B1 (ko) * 2004-03-08 2007-03-14 삼성전자주식회사 적응적 2의 n 제곱 진트리 생성방법 및 이를 이용한 3차원 체적 데이터 부호화/복호화 방법 및 장치
US20050210054A1 (en) * 2004-03-22 2005-09-22 Michael Harris Information management system
US8018598B2 (en) 2004-05-29 2011-09-13 The General Hospital Corporation Process, system and software arrangement for a chromatic dispersion compensation using reflective layers in optical coherence tomography (OCT) imaging
JP4491777B2 (ja) * 2004-06-04 2010-06-30 富士ゼロックス株式会社 画像表示装置、画像表示方法及びそのプログラム
US7447408B2 (en) 2004-07-02 2008-11-04 The General Hospital Corproation Imaging system and related techniques
JP4655533B2 (ja) * 2004-08-02 2011-03-23 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
EP1782020B1 (de) 2004-08-06 2012-10-03 The General Hospital Corporation Prozess, system und softwareanordnung zur bestimmung mindestens einer position in einer probe unter verwendung von optischer kohärenztomographie
EP1793731B1 (de) 2004-08-24 2013-12-25 The General Hospital Corporation Bildgebungsgerät mit einer Fluidabgabevorrichtung und einer Pull-Back-Vorrichntung
US8965487B2 (en) 2004-08-24 2015-02-24 The General Hospital Corporation Process, system and software arrangement for measuring a mechanical strain and elastic properties of a sample
KR101269455B1 (ko) 2004-09-10 2013-05-30 더 제너럴 하스피탈 코포레이션 광 간섭 영상화를 위한 시스템 및 방법
KR20070083677A (ko) 2004-09-14 2007-08-24 개리 데모스 고품질 광역 다중-레이어 이미지 압축 코딩 시스템
US7734119B2 (en) * 2004-09-21 2010-06-08 General Electric Company Method and system for progressive multi-resolution three-dimensional image reconstruction using region of interest information
KR101257100B1 (ko) 2004-09-29 2013-04-22 더 제너럴 하스피탈 코포레이션 광 간섭 영상화 시스템 및 방법
EP2278265A3 (de) 2004-11-24 2011-06-29 The General Hospital Corporation Interferometer mit gemeinsamem Pfad für endoskopische optische Kohärenztomographie
JP2008521516A (ja) 2004-11-29 2008-06-26 ザ ジェネラル ホスピタル コーポレイション サンプル上の複数の地点を同時に照射し検出することによって光学画像生成を実行する構成、装置、内視鏡、カテーテル、及び方法
GB2420641B (en) * 2004-11-29 2008-06-04 Medicsight Plc Digital medical image analysis
US20060116902A1 (en) * 2004-11-29 2006-06-01 Canon U.S.A., Inc. Method and apparatus for workflow
US7974497B2 (en) * 2005-02-14 2011-07-05 Canon Kabushiki Kaisha Method of modifying the region displayed within a digital image, method of displaying an image at plural resolutions, and associated device
US8351665B2 (en) 2005-04-28 2013-01-08 The General Hospital Corporation Systems, processes and software arrangements for evaluating information associated with an anatomical structure by an optical coherence ranging technique
JP5702049B2 (ja) 2005-06-01 2015-04-15 ザ ジェネラル ホスピタル コーポレイション 位相分解光学周波数領域画像化を行うための装置、方法及びシステム
US7702141B2 (en) * 2005-06-29 2010-04-20 General Electric Company Method for quantifying an object in a larger structure using a reconstructed image
US7489825B2 (en) * 2005-07-13 2009-02-10 Ge Medical Systems Method and apparatus for creating a multi-resolution framework for improving medical imaging workflow
EP2267404B1 (de) 2005-08-09 2016-10-05 The General Hospital Corporation Gerät und Verfahren zur Durchführung von polarisationsbasierter Quadraturdemulation bei optischer Kohärenztomographie
US7391915B1 (en) * 2005-08-12 2008-06-24 Texas Instruments Incorporated Cache friendly method for performing inverse discrete wavelet transform
US7483939B2 (en) * 2005-08-25 2009-01-27 General Electric Company Medical processing system allocating resources for processing 3D to form 2D image data based on report of monitor data
EP1937137B1 (de) 2005-09-29 2022-06-15 General Hospital Corporation Verfahren und gerät zur optischen darstellung via spektrale codierung
JP2007122684A (ja) * 2005-09-30 2007-05-17 Fujifilm Corp レイアウト情報生成装置、レイアウト情報生成方法、レイアウト情報生成プログラム、発注者装置、画像作成システム、画像作成方法、および画像作成プログラム
US8176414B1 (en) * 2005-09-30 2012-05-08 Google Inc. Document division method and system
WO2007047690A1 (en) 2005-10-14 2007-04-26 The General Hospital Corporation Spectral- and frequency- encoded fluorescence imaging
JP2007174523A (ja) * 2005-12-26 2007-07-05 Canon Inc 画像処理装置、画像処理方法、プログラムコード及び記憶媒体
WO2007082228A1 (en) 2006-01-10 2007-07-19 The General Hospital Corporation Systems and methods for generating data based on one or more spectrally-encoded endoscopy techniques
WO2007084995A2 (en) 2006-01-19 2007-07-26 The General Hospital Corporation Methods and systems for optical imaging of epithelial luminal organs by beam scanning thereof
US8145018B2 (en) 2006-01-19 2012-03-27 The General Hospital Corporation Apparatus for obtaining information for a structure using spectrally-encoded endoscopy techniques and methods for producing one or more optical arrangements
JP5524487B2 (ja) 2006-02-01 2014-06-18 ザ ジェネラル ホスピタル コーポレイション コンフォーマルレーザ治療手順を用いてサンプルの少なくとも一部分に電磁放射を放射する方法及びシステム。
WO2007149603A2 (en) 2006-02-01 2007-12-27 The General Hospital Corporation Apparatus for applying a plurality of electro-magnetic radiations to a sample
JP5519152B2 (ja) 2006-02-08 2014-06-11 ザ ジェネラル ホスピタル コーポレイション 光学顕微鏡法を用いて解剖学的サンプルに関わる情報を取得するための装置
EP2306141A1 (de) 2006-02-24 2011-04-06 The General Hospital Corporation Verfahren und Systeme zur Durchführung von winkelaufgelöster optischer Kohärenztomografie im Fourier-Bereich
DE102006018413A1 (de) * 2006-04-20 2007-10-25 Siemens Ag MR-Tomograph mit einem System zur Kontrastoptimierung von MRT-Bildern
WO2007131157A2 (en) * 2006-05-04 2007-11-15 Xoran Technologies, Inc. Medical imaging exchange network
WO2007133961A2 (en) 2006-05-10 2007-11-22 The General Hospital Corporation Processes, arrangements and systems for providing frequency domain imaging of a sample
US7705314B2 (en) * 2006-06-06 2010-04-27 General Electric Company Method and apparatus for PET time of flight generation of compression sinogram and image reconstruction
US8010555B2 (en) 2006-06-30 2011-08-30 Aperio Technologies, Inc. System and method for managing images over a network
US8086077B2 (en) * 2006-06-30 2011-12-27 Aperio Technologies, Inc. Method for storing and retrieving large images via DICOM
DE102006033861B4 (de) * 2006-07-21 2008-11-27 Siemens Ag Verfahren und Datennetzwerk zum Verwalten von medizinischen Bilddaten
US20080022218A1 (en) * 2006-07-24 2008-01-24 Arcsoft, Inc. Method for cache image display
WO2008020839A2 (en) * 2006-08-15 2008-02-21 Texas Instruments Incorporated Cache friendly method for performing inverse discrete wavelet transform
WO2008024948A2 (en) 2006-08-25 2008-02-28 The General Hospital Corporation Apparatus and methods for enhancing optical coherence tomography imaging using volumetric filtering techniques
WO2008049118A2 (en) 2006-10-19 2008-04-24 The General Hospital Corporation Apparatus and method for obtaining and providing imaging information associated with at least one portion of a sample and effecting such portion(s)
WO2008089342A1 (en) 2007-01-19 2008-07-24 The General Hospital Corporation Rotating disk reflection for fast wavelength scanning of dispersed broadband light
US8458457B2 (en) * 2007-02-02 2013-06-04 Red Hat, Inc. Method and system for certificate revocation list pre-compression encoding
JP5612807B2 (ja) * 2007-03-13 2014-10-22 セイコーエプソン株式会社 画像送信方式の決定方法、画像供給システム、画像供給装置、プログラム及びコンピュータに読取り可能な記録媒体
US7970203B2 (en) * 2007-03-19 2011-06-28 General Electric Company Purpose-driven data representation and usage for medical images
US8121417B2 (en) 2007-03-19 2012-02-21 General Electric Company Processing of content-based compressed images
US8345991B2 (en) * 2007-03-19 2013-01-01 General Electric Company Content-based image compression
WO2008118781A2 (en) 2007-03-23 2008-10-02 The General Hospital Corporation Methods, arrangements and apparatus for utilizing a wavelength-swept laser using angular scanning and dispersion procedures
US10534129B2 (en) 2007-03-30 2020-01-14 The General Hospital Corporation System and method providing intracoronary laser speckle imaging for the detection of vulnerable plaque
WO2008131082A1 (en) 2007-04-17 2008-10-30 The General Hospital Corporation Apparatus and methods for measuring vibrations using spectrally-encoded endoscopy techniques
US9375158B2 (en) 2007-07-31 2016-06-28 The General Hospital Corporation Systems and methods for providing beam scan patterns for high speed doppler optical frequency domain imaging
JP5536650B2 (ja) 2007-08-31 2014-07-02 ザ ジェネラル ホスピタル コーポレイション 自己干渉蛍光顕微鏡検査のためのシステムと方法、及び、それに関連するコンピュータがアクセス可能な媒体
US20090131801A1 (en) * 2007-10-12 2009-05-21 The General Hospital Corporation Systems and processes for optical imaging of luminal anatomic structures
US7933021B2 (en) 2007-10-30 2011-04-26 The General Hospital Corporation System and method for cladding mode detection
CN101904171A (zh) * 2007-12-21 2010-12-01 皇家飞利浦电子股份有限公司 用于图像数据的有效分布的方法和装置
US20090204894A1 (en) * 2008-02-11 2009-08-13 Nikhil Bhatt Image Application Performance Optimization
DE102008018725A1 (de) * 2008-04-14 2009-10-22 Siemens Aktiengesellschaft Betriebsverfahren für eine Steuereinrichtung für eine bildgebende medizintechnische Anlage mit automatisierter Zuordnung von Bildern zu Messsequenzen
US7898656B2 (en) * 2008-04-30 2011-03-01 The General Hospital Corporation Apparatus and method for cross axis parallel spectroscopy
JP5607610B2 (ja) 2008-05-07 2014-10-15 ザ ジェネラル ホスピタル コーポレイション 構造の特徴を決定する装置、装置の作動方法およびコンピュータアクセス可能な媒体
JP5795531B2 (ja) 2008-06-20 2015-10-14 ザ ジェネラル ホスピタル コーポレイション フューズドファイバオプティックカプラ構造、及びその使用方法
US9254089B2 (en) 2008-07-14 2016-02-09 The General Hospital Corporation Apparatus and methods for facilitating at least partial overlap of dispersed ration on at least one sample
WO2010068764A2 (en) 2008-12-10 2010-06-17 The General Hospital Corporation Systems, apparatus and methods for extending imaging depth range of optical coherence tomography through optical sub-sampling
EP2389093A4 (de) 2009-01-20 2013-07-31 Gen Hospital Corp Endoskopische biopsievorrichtung sowie entsprechendes system und verfahren
US8097864B2 (en) 2009-01-26 2012-01-17 The General Hospital Corporation System, method and computer-accessible medium for providing wide-field superresolution microscopy
US9351642B2 (en) 2009-03-12 2016-05-31 The General Hospital Corporation Non-contact optical system, computer-accessible medium and method for measurement at least one mechanical property of tissue using coherent speckle technique(s)
US9076239B2 (en) 2009-04-30 2015-07-07 Stmicroelectronics S.R.L. Method and systems for thumbnail generation, and corresponding computer program product
JP5449852B2 (ja) * 2009-05-08 2014-03-19 株式会社東芝 超音波診断装置
EP2453791B1 (de) 2009-07-14 2023-09-06 The General Hospital Corporation Vorrichtung zum messen des flusses und drucks in einem gefäss
US9255914B2 (en) * 2009-08-13 2016-02-09 Kabushiki Kaisha Toshiba Ultrasonic diagnosis apparatus and program
US8463741B2 (en) * 2009-09-04 2013-06-11 Omnyx, LLC Digital pathology system
EP2493382B1 (de) * 2009-10-29 2018-07-18 Analogic Corporation Dreidimensionale scannerdatenkomprimierung
US8463944B2 (en) * 2010-01-05 2013-06-11 International Business Machines Corporation Optimal compression process selection methods
US8893120B2 (en) * 2010-01-29 2014-11-18 Howard Pinsky Controlled use medical applicaton
US8571280B2 (en) * 2010-02-22 2013-10-29 Canon Kabushiki Kaisha Transmission of medical image data
SI2542145T1 (sl) 2010-03-05 2021-01-29 The General Hospital Corporation Sistemi, ki zagotavljajo mikroskopske slike vsaj ene anatomske strukture pri določeni ločljivosti
CN101867765A (zh) * 2010-04-30 2010-10-20 杭州华三通信技术有限公司 一种数据的传输方法和系统
US9069130B2 (en) 2010-05-03 2015-06-30 The General Hospital Corporation Apparatus, method and system for generating optical radiation from biological gain media
WO2011149972A2 (en) 2010-05-25 2011-12-01 The General Hospital Corporation Systems, devices, methods, apparatus and computer-accessible media for providing optical imaging of structures and compositions
EP2575598A2 (de) 2010-05-25 2013-04-10 The General Hospital Corporation Vorrichtungen, systeme, verfahren und computerlesbares medium zur spektralanalyse von bildern aus einer optischen kohärenz-tomographie
WO2011153434A2 (en) 2010-06-03 2011-12-08 The General Hospital Corporation Apparatus and method for devices for imaging structures in or at one or more luminal organs
EP2632324A4 (de) 2010-10-27 2015-04-22 Gen Hospital Corp Vorrichtungen, systeme und verfahren zur blutdruckmessung in mindestens einem gefäss
US9788759B2 (en) 2010-12-27 2017-10-17 Joseph Ralph Ferrantelli Method and system for postural analysis and measuring anatomical dimensions from a digital three-dimensional image on a mobile device
CA2822244C (en) 2010-12-27 2017-02-28 Joseph R. Ferrantelli Mobile postural screening method and system
US9801550B2 (en) 2010-12-27 2017-10-31 Joseph Ralph Ferrantelli Method and system for measuring anatomical dimensions from a digital photograph on a mobile device
JP2012196295A (ja) * 2011-03-22 2012-10-18 Konica Minolta Medical & Graphic Inc 画像表示装置及び画像表示方法
US20120324397A1 (en) * 2011-06-20 2012-12-20 Tabb Alan Patz System and method for wireless interaction with medical image data
WO2013013049A1 (en) 2011-07-19 2013-01-24 The General Hospital Corporation Systems, methods, apparatus and computer-accessible-medium for providing polarization-mode dispersion compensation in optical coherence tomography
EP3835718B1 (de) 2011-08-25 2023-07-26 The General Hospital Corporation Vorrichtung zur bereitstellung mikrooptischer kohärenztomographie in einem atmungssystem
CN103034465B (zh) * 2011-09-29 2016-04-27 腾讯科技(深圳)有限公司 图像浏览方法及浏览系统
US9341783B2 (en) 2011-10-18 2016-05-17 The General Hospital Corporation Apparatus and methods for producing and/or providing recirculating optical delay(s)
CN102572607B (zh) * 2011-12-28 2017-04-19 中国人民解放军第四军医大学唐都医院 一种基于多线程技术的医学影像优化调阅方法
US9629528B2 (en) 2012-03-30 2017-04-25 The General Hospital Corporation Imaging system, method and distal attachment for multidirectional field of view endoscopy
EP2852315A4 (de) 2012-05-21 2016-06-08 Gen Hospital Corp Einrichtung, vorrichtung und verfahren für kapselmikroskopie
US8824812B2 (en) * 2012-10-02 2014-09-02 Mediatek Inc Method and apparatus for data compression using error plane coding
US9413846B2 (en) * 2012-12-14 2016-08-09 Microsoft Technology Licensing, Llc Content-acquisition source selection and management
US10391387B2 (en) 2012-12-14 2019-08-27 Microsoft Technology Licensing, Llc Presenting digital content item with tiered functionality
US9716749B2 (en) 2012-12-14 2017-07-25 Microsoft Technology Licensing, Llc Centralized management of a P2P network
TW201427354A (zh) * 2012-12-19 2014-07-01 Hon Hai Prec Ind Co Ltd 漸進式資料編碼傳輸系統及方法
US9277218B2 (en) * 2013-01-22 2016-03-01 Vixs Systems, Inc. Video processor with lossy and lossless frame buffer compression and methods for use therewith
US9968261B2 (en) 2013-01-28 2018-05-15 The General Hospital Corporation Apparatus and method for providing diffuse spectroscopy co-registered with optical frequency domain imaging
WO2014120791A1 (en) 2013-01-29 2014-08-07 The General Hospital Corporation Apparatus, systems and methods for providing information regarding the aortic valve
WO2014121082A1 (en) 2013-02-01 2014-08-07 The General Hospital Corporation Objective lens arrangement for confocal endomicroscopy
US9235905B2 (en) 2013-03-13 2016-01-12 Ologn Technologies Ag Efficient screen image transfer
EP2967491B1 (de) 2013-03-15 2022-05-11 The General Hospital Corporation Ein transösophageales endoskopisches system zur bestimmung einer gemischten venösen sauerstoffsättigung einer lungenarterie
EP2997354A4 (de) 2013-05-13 2017-01-18 The General Hospital Corporation Erkennung einer selbstinterferierenden fluoreszenzphase und amplitude
WO2015010133A1 (en) 2013-07-19 2015-01-22 The General Hospital Corporation Determining eye motion by imaging retina. with feedback
EP4349242A2 (de) 2013-07-19 2024-04-10 The General Hospital Corporation Bildgebungsvorrichtung und verfahren mit multidirektionaler sichtfeldendoskopie
US9668652B2 (en) 2013-07-26 2017-06-06 The General Hospital Corporation System, apparatus and method for utilizing optical dispersion for fourier-domain optical coherence tomography
JP2015032916A (ja) * 2013-07-31 2015-02-16 ブラザー工業株式会社 通信装置のプログラム、及び通信装置
JP6368484B2 (ja) * 2013-11-27 2018-08-01 三星ディスプレイ株式會社Samsung Display Co.,Ltd. 圧縮装置、および圧縮方法
US9733460B2 (en) 2014-01-08 2017-08-15 The General Hospital Corporation Method and apparatus for microscopic imaging
WO2015116986A2 (en) 2014-01-31 2015-08-06 The General Hospital Corporation System and method for facilitating manual and/or automatic volumetric imaging with real-time tension or force feedback using a tethered imaging device
WO2015153982A1 (en) 2014-04-04 2015-10-08 The General Hospital Corporation Apparatus and method for controlling propagation and/or transmission of electromagnetic radiation in flexible waveguide(s)
WO2016015052A1 (en) 2014-07-25 2016-01-28 The General Hospital Corporation Apparatus, devices and methods for in vivo imaging and diagnosis
AU2015332438A1 (en) 2014-10-15 2017-05-04 Nucleushealth, Llc Remote viewing of large image files
EP3362991A1 (de) * 2015-10-17 2018-08-22 Arivis AG Direkte volumendarstellung in einer virtuellen und/oder erweiterten realität
KR20180064823A (ko) * 2016-12-06 2018-06-15 삼성전자주식회사 영상 처리 방법 및 장치
US10504621B2 (en) * 2016-12-28 2019-12-10 Canon Medical Systems Corporation Medical image processing apparatus, medical imaging apparatus and image archiving apparatus
US10586379B2 (en) 2017-03-08 2020-03-10 Ebay Inc. Integration of 3D models
US11164606B2 (en) 2017-06-30 2021-11-02 Qualcomm Incorporated Audio-driven viewport selection
EP3679581A4 (de) * 2017-08-31 2021-09-01 Zeto, Inc. Verfahren zum hosting eines mobilen zugriffs auf hochauflösende elektroenzephalografiedaten
CN107493405B (zh) * 2017-09-27 2019-02-12 广西师范大学 基于编码压缩的加密图像可逆信息隐藏方法
CN111669984B (zh) 2017-12-01 2023-09-29 泽图有限公司 用于感测生物电势的头戴式组件和电极及其操作方法
US10453237B2 (en) * 2017-12-21 2019-10-22 International Business Machines Corporation Automatic viewport releveling
US11017547B2 (en) 2018-05-09 2021-05-25 Posture Co., Inc. Method and system for postural analysis and measuring anatomical dimensions from a digital image using machine learning
US11297203B2 (en) * 2018-05-09 2022-04-05 Panamorph, Inc. Image processing system and method
US11727656B2 (en) * 2018-06-12 2023-08-15 Ebay Inc. Reconstruction of 3D model with immersive experience
US10529118B1 (en) * 2018-06-29 2020-01-07 Advanced Micro Devices, Inc. Pixelation optimized delta color compression
US10902238B2 (en) * 2018-11-28 2021-01-26 Toyota Research Institute, Inc. Systems and methods for predicting semantics of a particle using semantic segmentation
US11610305B2 (en) 2019-10-17 2023-03-21 Postureco, Inc. Method and system for postural analysis and measuring anatomical dimensions from a radiographic image using machine learning

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6041135A (en) * 1993-06-28 2000-03-21 Buytaert; Tom Guido Fast interactive off-line processing method for radiographic images
US5881176A (en) * 1994-09-21 1999-03-09 Ricoh Corporation Compression and decompression with wavelet style and binary style including quantization by device-dependent parser
US5867602A (en) * 1994-09-21 1999-02-02 Ricoh Corporation Reversible wavelet transform and embedded codestream manipulation
GB9505469D0 (en) 1995-03-17 1995-05-03 Imperial College Progressive transmission of images
US5710835A (en) * 1995-11-14 1998-01-20 The Regents Of The University Of California, Office Of Technology Transfer Storage and retrieval of large digital images
US6545687B2 (en) * 1997-01-09 2003-04-08 Canon Kabushiki Kaisha Thumbnail manipulation using fast and aspect ratio zooming, compressing and scaling
US6157746A (en) * 1997-02-12 2000-12-05 Sarnoff Corporation Apparatus and method for encoding wavelet trees generated by a wavelet-based coding method
US6445823B1 (en) * 1997-03-12 2002-09-03 Texas Instruments Incorporated Image compression
US6091777A (en) * 1997-09-18 2000-07-18 Cubic Video Technologies, Inc. Continuously adaptive digital video compression system and method for a web streamer
JP3004618B2 (ja) * 1998-02-27 2000-01-31 キヤノン株式会社 画像入力装置及び画像入力システム及び画像送受信システム及び画像入力方法及び記憶媒体
US6760489B1 (en) * 1998-04-06 2004-07-06 Seiko Epson Corporation Apparatus and method for image data interpolation and medium on which image data interpolation program is recorded
US6041143A (en) 1998-04-14 2000-03-21 Teralogic Incorporated Multiresolution compressed image management system and method
US6236757B1 (en) * 1998-06-18 2001-05-22 Sharp Laboratories Of America, Inc. Joint coding method for images and videos with multiple arbitrarily shaped segments or objects
US6711297B1 (en) * 1998-07-03 2004-03-23 University Of Pittsburgh - Of The Commonwealth System Of Higher Education Methods and apparatus for dynamic transfer of image data
US6763139B1 (en) * 1998-07-03 2004-07-13 Canon Kabushiki Kaisha Image coding method and apparatus for localized decoding at multiple resolutions
US6574629B1 (en) * 1998-12-23 2003-06-03 Agfa Corporation Picture archiving and communication system
US6314452B1 (en) * 1999-08-31 2001-11-06 Rtimage, Ltd. System and method for transmitting a digital image over a communication network
US6556724B1 (en) * 1999-11-24 2003-04-29 Stentor Inc. Methods and apparatus for resolution independent image collaboration
US20020044696A1 (en) * 1999-11-24 2002-04-18 Sirohey Saad A. Region of interest high resolution reconstruction for display purposes and a novel bookmarking capability
US7421136B2 (en) * 1999-11-24 2008-09-02 Ge Medical Systems Information Technologies Inc. Image tessellation for region-specific coefficient access
US6795583B1 (en) * 1999-11-24 2004-09-21 General Electric Company Image data compression employing embedded compression and decompression codes
US6912317B1 (en) * 1999-11-24 2005-06-28 General Electric Company Medical image data compression employing image descriptive information for optimal compression
US6633674B1 (en) * 1999-11-24 2003-10-14 General Electric Company Picture archiving and communication system employing improved data compression
US7050639B1 (en) * 1999-11-24 2006-05-23 General Electric Company Image data compression employing multiple compression code tables
US6938211B1 (en) * 1999-11-24 2005-08-30 University of Pittsburgh of the Common Wealth System of Higher Education Methods and apparatus for an image transfer object
US6734880B2 (en) * 1999-11-24 2004-05-11 Stentor, Inc. User interface for a medical informatics systems
US7236637B2 (en) * 1999-11-24 2007-06-26 Ge Medical Systems Information Technologies, Inc. Method and apparatus for transmission and display of a compressed digitized image
US6792151B1 (en) * 1999-11-24 2004-09-14 General Electric Company Image data compression employing optimal subregion compression
US6553141B1 (en) * 2000-01-21 2003-04-22 Stentor, Inc. Methods and apparatus for compression of transform data
AU2001253563A1 (en) * 2000-04-18 2001-10-30 Rtimage Inc. System and method for the lossless progressive streaming of images over a communication network
AU2002229090A1 (en) * 2000-12-14 2002-06-24 Rtimage Inc. Three-dimensional image streaming system and method for medical images
US6925208B1 (en) * 2002-05-04 2005-08-02 Stentor, Inc. Methods and apparatus for partitioning transform data

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005116927A1 (en) * 2004-05-31 2005-12-08 Phase One A/S Image compression for rapid high-quality imaging
US7656561B2 (en) 2004-05-31 2010-02-02 Phase One A/S Image compression for rapid high-quality imaging

Also Published As

Publication number Publication date
US7474795B2 (en) 2009-01-06
GB2383917A (en) 2003-07-09
JP2003224725A (ja) 2003-08-08
US7236637B2 (en) 2007-06-26
GB0227227D0 (en) 2002-12-24
JP4187514B2 (ja) 2008-11-26
US20020057850A1 (en) 2002-05-16
CN1311412C (zh) 2007-04-18
CN1420477A (zh) 2003-05-28
GB2383917B (en) 2006-05-03
US20070230829A1 (en) 2007-10-04

Similar Documents

Publication Publication Date Title
DE10254192A1 (de) Verfahren und Vorrichtung zur Übertragung und Anzeige eines komprimierten digitalisierten Bildes
DE102008015057A1 (de) Zweckorientierte Datendarstellung und deren Verwendung für medizinische Bilder
DE102007018324B3 (de) Bilddatenerfassungssystem eines Röntgen-, CT- oder MRT-Geräts mit integriertem Datenkomprimierungsmodul zur Datenreduktion akquirierter Bilddaten
DE69634962T2 (de) Extrapolation von Pixelwerten eines in einem Block enthaltenen Videoobjektes
US8406539B2 (en) Processing of content-based compressed images
US6912319B1 (en) Method and system for lossless wavelet decomposition, compression and decompression of data
DE102006032664A1 (de) Verfahren und Vorrichtung zur Erzeugung eines Mehrfachauflösungsrahmens zur Verbesserung eines medizinischen Bildgebungsablaufs
DE102006043894B3 (de) Detailtiefenstufen-Einstellung mehrdimensionaler Bilddaten mit einem Client/Server-basierten Bildrenderingsystem
DE102004001414A1 (de) Verfahren und Gerät zur Durchführung nichtdyadischer Wavelet-Transformationen
DE69723550T2 (de) Kodierung und dekodierung von grafischen symbolen
DE102005007530A1 (de) Priorisierte Bildvisualisierung aus skalierbaren komprimierten Daten
DE102007040585B4 (de) Bereitstellen repräsentativer Bildinformation
DE10150364B4 (de) Verfahren und System zur Kodierung physiologischer Daten
US20020057844A1 (en) Tessellation of trurez file stream into compressible sub-blocks to enable region-specific coefficient access
US20020044696A1 (en) Region of interest high resolution reconstruction for display purposes and a novel bookmarking capability
DE10237099A1 (de) Kombinierte Kompressions- und Registrierverfahren zum Implementieren einer zeitlichen Substraktion als Anwendungsdienstbereitsteller zur Erfassung von Veränderungen über die Zeit bei einer medizinischen Abbildung
DE19534730A1 (de) Verfahren zum Codieren und Decodieren von Daten
US8345991B2 (en) Content-based image compression
DE102006030743A1 (de) System, Verfahren und Computerbefehle zur Kompression vierdimensionaler Daten
US8605963B2 (en) Atlas-based image compression
US7929793B2 (en) Registration and compression of dynamic images
EP1843296A1 (de) Verfahren zur reproduzierbaren Erzeugung von Ansichten tomographischer Bilddaten
DE102004056538A1 (de) Schrittweise Navigation in einem medizinischen Volumenbild
DE112021004926T5 (de) Bildkodiervorrichtung, bildkodierverfahren, bildkodierprogramm,bilddekodiervorrichtung, bilddekodierverfahren, bilddekodierprogramm,bildverarbeitungsvorrichtung, lernvorrichtung, lernverfahren, lernprogramm, suchvorrichtung für ähnliche bilder, suchverfahren für ähnliche bilder, und suchprogramm für ähnliche bilder
DE10254194A1 (de) Bildtessellierung für einen bereichsspezifischen Koeffizientenzugriff

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: H04N0007260000

Ipc: H04N0019000000

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: H04N0007260000

Ipc: H04N0019000000

Effective date: 20131204

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20140603