-
Die
Erfindung betrifft eine Vorrichtung, ein Verfahren, ein Speichermedium
und eine Datenstruktur zur Kennzeichnung und Speicherung von Bilddaten,
insbesondere von medizinischen Bilddaten, und Metadaten mit einer
elektronischen Datenverarbeitungseinrichtung zur Bearbeitung der
Daten durch einen Anwender und mit einer elektronischen Datenverwaltungseinrichtung
und Speichereinrichtung zur Speicherung der Daten.
-
Bilddaten,
insbesondere medizinische Bilddaten, werden von einer Vielzahl von
Bildaufnahmegeräten erzeugt,
z. B. von Computer-Tomographen, Röntgeneinrichtungen oder Ultraschallgeräten. Sie
können
Verwendung finden in der medizinischen Diagnostik, in Material-Untersuchungen
oder in den Werkstoffwissenschaften. Derartige Bilddaten werden
vermehrt elektronisch verarbeitet und gespeichert. Den zu speichernden Daten
werden außerdem
Metadaten wie Informationen zur Identität einer untersuchten Person
oder eines untersuchten Objekts, diagnostische oder analytische
Befunde zu den Bildern oder weitere kommentierende Informationen
hinzugefügt.
Die Metadaten können
in Form von Text oder Zahlen vorliegen. Sie können entweder automatisch oder
durch einen Anwender hinzugefügt
werden.
-
Einmal
gespeicherte Bilddaten und Metadaten können nach erstmaliger, originaler
Speicherung jederzeit nachbearbeitet und erneut gespeichert werden.
Im Rahmen von Nachbearbeitungen können zum einen Bildbestandteile
verstärkt
oder verdeutlicht werden, zum anderen können Bildbestandteile verändert oder
gelöscht
werden. Grundsätzlich
das Gleiche gilt für
die Metadaten, deren Informations-Gehalt nach der erstmaligen Erzeugung
sowohl ergänzt
als auch überarbeitet
werden kann. Insgesamt kann die Überarbeitung
der gespeicherten Information also entweder verlustfrei oder verlustbehaftet
erfolgen. Die verlustbehaftete Überarbeitung
von Information ist vor allem dann als kritisch anzusehen, wenn
die Wiedergewinnung der ursprünglichen
Information entweder unmöglich
oder nur über
eine neue Untersuchung der Person oder des Objekts mittels einer
möglicherweise
sogar nicht nebenwirkungsfreien oder nicht zerstörungsfreien Untersuchungseinrichtung
möglich
ist. Datenverluste sind jedoch auch im Hinblick auf sonstige Informationen
nicht wünschenswert.
Ein Hauptanliegen bei der Speicherung medizinischer oder analytischer
Bilddaten muss daher darin liegen, dass der verlustfreie Erhalt
einmal gewonnener Daten gewährleistet
ist. Darüber
hinaus kann durch den verlustfreien Erhalt chronologisch nacheinander
aufgezeichneter Information eine Patienten- oder Untersuchungshistorie
gewonnen werden.
-
Herkömmliche
Methoden, um das Löschen
oder Überschreiben
originaler, verlustfreier Daten zu verhindern, beruhen darauf, dass
den Dateien, die diese Daten enthalten, ein sogenanntes Archivbit
hinzugefügt wird.
Mit Archivbit ist eine Kennzeichnung gemeint, die die Daten als
Archiv-Daten kennzeichnet, welche als solche dauerhaft, aber ohne
die Möglichkeit
zu Veränderungen
gespeichert werden sollen. Eine weitere herkömmliche Möglichkeit besteht darin, den
Daten bei deren Benutzung eine Kennzeichnung als „bearbeitet” oder „unbearbeitet” zuzusetzen.
Diese Kennzeichnung gibt aber lediglich darüber Aufschluss, ob an den Daten eine
wie auch immer geartete Veränderung
vorgenommen wurde, ohne jedoch Art und Ausmaß der Veränderung zu berücksichtigen.
Beispielsweise würde
bereits die Änderung
des Kontrasts oder der Helligkeit von Bilddaten, die deren tatsächlichen
Informationsgehalt nicht verändern
würde,
zur Kennzeichnung solcher Daten als verändert führen.
-
Ein
Datenverwaltungssystem, das den verlustfreien Erhalt originaler
Daten gewährleisten
muss, könnte
auf Basis der herkömmlichen
Daten-Kennzeichnungen nur so arbeiten, dass sämtliche Daten, die als Archiv-Daten
oder als „bearbeitet” gekennzeichnet
sind, jeweils eigens abspeichern würde. Dadurch würde zwar der
verlustfreie Erhalt originaler Daten gewährleistet sein, es würde allerdings
auch eine Vielzahl von Daten, die lediglich unerheblichen Änderungen
unterworfen wurde, ebenfalls zusätzlich
gespeichert und erhalten werden.
-
Diese
Vielzahl von mehr oder weniger unnötig gespeicherten Datensätzen würde zum
einen einen unnötig
hohen Speicherplatzbedarf erzeugen, der insbesondere bei umfangreichen
Bilddaten schnell unvertretbar große Ausmaße annehmen würde. Zum
anderen würde
der Anwender, der mit diesen Daten arbeiten soll, mit einer Flut
unwesentlicher Information überfrachtet
werden, was die sinnvolle Nutzung der Datenbestände und die Auswertung der
Datenhistorie erheblich erschweren und für den täglichen Gebrauch nahezu unmöglich machen
würde.
In ähnlicher
Weise wie für
Bilddaten würde
dies auch für
Text-Informationen
in den Metadaten gelten, wobei hier der Speicherplatzbedarf in aller
Regel als unkritisch zu betrachten ist.
-
Ein
Datenverwaltungssystem, das den verlustfreien Erhalt sämtlicher
Information gewährleisten
soll, wäre
gezwungen, jede überarbeitete
Version eines Befund- oder Analyse-Texts eigens abzuspeichern. Damit müssten beispielsweise
auch Text-Versionen
abgespeichert werden, bei denen lediglich Textformat und -schriftart
geändert
wurden, nicht jedoch der Informations-Gehalt. Für den Anwender, der vor allem
den Informations-Gehalt nutzen will, wäre es unnötig aufwändig und verwirrend, unterschiedliche
Versionen des Textes daraufhin überprüfen zu müssen, ob
lediglich gestalterische oder auch inhaltliche Veränderungen
vorgenommen wurden.
-
Selbst
bei der Benutzung verschiedener, inhaltlich veränderter Versionen von Daten,
seien es Bild- oder Text-Daten, kann das Auffinden von Unterschieden
aufwändig
und schwer genug sein. Zwar ist es bekannt, Textänderungen und Kommentare z.
B. durch farbliche Hinterlegung hervorzuheben; bei den Hervorhebungen
wird aber nicht zwischen inhaltlichen und gestalteri schen Änderungen
unterschieden, außerdem
ist die Historie der Text-Information über mehrere Versionen hinweg
nicht anwenderfreundlich darstellbar. Es bliebe in einem solchen
System dem Anwender überlassen,
nur inhaltlich überarbeitete
Neufassungen als neue Datensätze
abzuspeichern, um zu verhindern, dass eine Vielzahl inhaltlich übereinstimmender
und nur redaktionell veränderter
Text-Fassungen angelegt wird. Ebenfalls dem Anwender bliebe es überlassen,
inhaltliche Änderungen
so zu markieren, dass die Historie eines mehrfach überarbeiteten
Textes für
die spätere
Betrachtung leicht verständlich
und nachvollziehbar bleibt.
-
Die
beschriebenen Probleme des verlustfreien Erhalts originaler Bild-
und Metadaten, der Speicherung solcher Daten mit nachvollziehbarer
Bearbeitungshistorie sowie die Beschränkung auf einen vertretbaren Speicherplatzbedarf
treten insbesondere bei medizinisch-diagnostischen Bilddaten auf.
Hier werden durch bildgebende Verfahren Bilddaten gewonnen, die
den Status eines Patienten zu einem bestimmten Zeitpunkt wiedergeben.
Je nach bildgebendem Verfahren sind diese Bilddaten hochauflösend und
sehr umfänglich
und deswegen äußerst speicherplatz-aufwändig. Die
wiederholte Aufnahme solcher Bilddaten ist wegen der laufenden Veränderung
des Patienten-Status in aller Regel nicht zu beliebigen späteren Zeitpunkten
möglich.
-
Die
Bilddaten aus bildgebenden Verfahren werden ergänzt durch Metadaten, die meist
in Form von Text Angaben zum subjektiven Wohlbefinden des Patienten,
medizinische Befunde oder ergänzende
Informationen zur Krankheitsgeschichte enthalten können. Ebenso
wie die Bilddaten sind die medizinisch relevanten Metadaten nicht
ohne weiteres später
rekonstruierbar, da sich sowohl das subjektive Empfinden des Patienten als
auch dessen Krankheitsgeschichte mit der Zeit verändern. Außerdem kann
eine mit der Zeit geänderte
medizinische Sichtweise zu anders lautenden Befundungen führen.
-
Darüber hinaus
ist es gerade bei medizinischen Daten erforderlich, eine Begutachtung
zu späteren Zeitpunkten
oder durch andere medizinische Experten zu ermöglichen, z. B. im Rahmen der
medizinischen Dokumentationspflicht oder bei Verwendung in einem
wissensbasierten System. Dies setzt den Erhalt verlustfreier Originaldaten
bei unterschiedlichen Bearbeitungen ebenso voraus wie einen vertretbar
geringen Speicheraufwand zwecks ausreichend schneller Bearbeitung
sowie eine anwenderfreundlich nachvollziehbare Darstellung der zeitlichen
Entwicklung der Daten.
-
Die
Artikel ”Picture
Publisher 4.0: Automatisierung mit Makros.” und ”Picture Publisher 4.0: Spezialeffekte.” in der
Zeitschrift ”Vollversion”, Ausgabe
Nr. 102, Zweitauslieferung 2/2000 (Seite 56, bzw. Seiten 59–61) offenbaren
ein in der Software ”Picture
Publisher” implementiertes
Verfahren, das es einem Nutzer ermöglicht, Bildbearbeitungs-Schritte
temporär
durchzuführen
und jeweils nach Abschluss eines Bearbeitungsschrittes das erreichte
Ergebnis vorläufig
zu betrachten und zu entscheiden, ob es gespeichert werden soll.”
-
Die
Erfindung hat das Ziel, Bilddaten und zugehörige Metadaten mit originalem,
vollständigem
Informationsgehalt verlustsicher zu speichern, vor Löschen und Überschreiben
zu schützen
und überarbeitete
Versionen der Daten ebenfalls verlustsicher zu speichern und deren
spätere
wiederholte, anwenderfreundliche Bearbeitung unter Berücksichtigung
der zeitlichen Entstehungsgeschichte von Bild- und Metadaten zu
ermöglichen.
Gleichzeitig will die Erfindung den damit verbundenen Speicherplatzbedarf
auf einem geringen Niveau halten und die Menge unwesentlicher, für die spätere Bearbeitung
hinderlicher Information verringern.
-
Die
Erfindung erreicht dieses Ziel mit einer Vorrichtung, einem Verfahren,
einer Datenstruktur und einem Speichermedium mit den jeweiligen
Merkmalen der unabhängigen
Patentansprüche.
-
Ein
Grundgedanke der Erfindung besteht darin, originale Bilddaten, also
Roh-Bilddaten oder auf deren Basis standardisiert rekonstruierte
und in Folge fakultativ prozessierte Bilddaten, sowie originale
Metadaten zu speichern und überarbeitete
Fassungen dieser Daten auf Datenverluste hin zu überprüfen und je nach Ergebnis dieser Überprüfung zu
kennzeichnen und samt Kennzeichnung zu speichern, wobei verlustbehaftet überarbeitete
Daten zusätzlich
zu verlustfrei erhaltenen Daten gespeichert werden. Dabei beziehen
sich die Begriffe ”stan dardisierte” Rekonstruktion
und Prozessierung der Rohdaten auf Empfehlungen und Vorgaben der Fachwelt,
insbesondere der medizinischen Fachwelt (z. B. des American College
of Radiologe) zur Bearbeitung von Daten.
-
Damit
bleiben Roh-Daten in ihrem vollständigen Informations-Gehalt erhalten und
können
allenfalls durch in ihrem Informationsgehalt gleichwertigen Daten überschrieben
werden. Dagegen werden überarbeitete
Daten mit geändertem
Informations-Gehalt
gegebenenfalls zusätzlich
zu den verlustfreien Daten eigens gespeichert. Im folgenden überarbeitete
Fassungen der Daten werden ebenfalls auf Datenverluste hin überprüft, als
verlustfrei oder verlustbehaftet gekennzeichnet und in Abhängigkeit
davon gespeichert oder zusätzlich
gespeichert. Die Erfindung gewährleistet
dadurch nicht nur den verlustfreien Erhalt der Roh-Daten, sondern
auch jeder überarbeiteten
Fassung der Daten. Durch den Erhalt jeder überarbeiteten Fassung der Daten
bleibt gleichzeitig die vollständige
Entstehungsgeschichte erhalten und kann im Nachhinein nachvollzogen
werden. Durch den Verzicht auf die zusätzliche Speicherung von in
ihrem Informations-Gehalt unveränderten
Daten wird außerdem
eine erhebliche Reduzierung des Speicherbedarfs erreicht.
-
Ein
wesentlicher Aspekt der Erfindung liegt in der Ermittlung von Veränderungen
des Informations-Gehalts der Bilddaten und Metadaten. Um eine entsprechende
Kennzeichnung vornehmen zu können,
müssen Veränderungen,
die für
den Informations-Gehalt relevant sind, von irrelevanten Veränderungen
unterschieden werden. Zu diesem Zweck verwendet die Erfindung in
einer besonders vorteilhaften Variante ein wissensbasiertes System,
das dazu geeignet ist, Veränderungen
von Daten daraufhin zu untersuchen, ob sie mit Veränderungen
des Informations-Gehalts
verbunden sind. Aufgrund einer Prüfung der Daten durch das wissensbasierte
System vergibt das System entsprechende Kennzeichnungen für veränderte Daten
und entscheidet, ob diese Daten durch Überschreiben vorhandener Daten
oder als ergänzende
Datensätze
zu speichern sind. Das wissensbasierte System stützt sich bei der Beurteilung
der Veränderung
an Bilddaten und Metadaten auf verschiedene Fakten und Regeln, die
als logisch und physikalisch separierbare Wissensbasen und Inferenz-Maschinen
aufgefasst werden können.
Während
es nämlich
bei Bilddaten um Veränderung
einzelner Bildpunkte geht, wird bei Metadaten, insbesondere bei
Text-Daten, der Informations-Gehalt von Informations-Elementen wie
Buchstaben, ganzen Wörtern
oder Sätzen
untersucht.
-
Eine
vorteilhafte Ausgestaltung der Erfindung besteht darin, dass bei
Veränderung
der Daten nicht nur deren gegebenenfalls geänderte Fassungen gespeichert
werden, sondern auch die Operationen, durch die geänderte Fassungen
erzeugt wurden. Dadurch kann die Entstehung des jeweiligen Datenstandes
im nachhinein nachvollzogen werden, was insbesondere bei Bilddaten
nützlich
sein kann. Außerdem
kann dadurch der Speicherplatzbedarf reduziert werden, indem anstelle
vollständiger, überarbeiteter
Bilder lediglich Operationen zur Veränderung der ursprünglichen
Bilddaten gespeichert werden.
-
Eine
weitere vorteilhafte Ausgestaltung der Erfindung besteht darin,
dass zusammen mit den jeweiligen Daten eine Kennzeichnung zur Aktualität des jeweiligen
Datenstandes gespeichert wird. Indem die Daten z. B. mit dem Bearbeitungs-
oder Entstehungsdatum des jeweiligen Datensatzes gespeichert werden,
bleibt die Entstehungsgeschichte der Daten im nachhinein rekonstruierbar
und nachvollziehbar.
-
Eine
weitere vorteilhafte Variante der Erfindung ergibt sich, indem das
System bei der Speicherung der als speicherungsbedürftig erkannten
relevanter Daten die Speicher-Performance optimiert, indem Speicherformate
mit geringem Speicheraufwand und gleichzeitig geringem Zeitaufwand
bei Zugriff und Wiedergabe der gespeicherten Daten gewählt werden.
Zur Optimierung der Speicher-Performance verfügt das System über ein weiteres
wissensbasiertes System, das dazu geeignet ist, das jeweils günstigste
Speicherformat zu ermitteln. Während
die Minimie rung des Speicherbedarfs bei der Speicherung von Bilddaten
an sich bekannt ist, dient das wissensbasierte System insbesondere
der gleichzeitigen Optimierung der Zugriffs-Geschwindigkeit bzw. Rekonstruktion-Zeit überarbeiteter
Bilddaten.
-
Um
die Speicherung der überarbeiteten
Bilddaten optimieren zu können,
zeichnet das System die bei der Überarbeitung
der Bilddaten vollzogenen Operationen bzw. grafischen Bearbeitungsschritte
auf und untersucht sie in Hinblick darauf, ob die Speicherung der
veränderten
Bilddaten eine bessere Speicher-Performance gewährleisten würde als die Speicherung der
einzelnen grafischen Bearbeitungsschritte. Ob die überarbeiteten
Bilddaten oder die grafischen Operationen, die die Sequenz der Bearbeitungsschritte
darstellen, gespeichert werden, wird aufgrund der Regeln des wissensbasierten
Systems entschieden. Das Wissensbasierte System berücksichtigt
dabei die Wechselwirkung zwischen Speicher-Performance und der Darstellungs-
oder Bearbeitungs-Performance bei der späteren Bearbeitung bzw. Rekonstruktion
der gespeicherten Daten. Es werden also entweder die unbearbeiteten
Daten sowie die zugehörigen
Bearbeitungsschritte gespeichert, oder aber die bearbeiteten Daten,
je nachdem ob der Zeit- und Speicheraufwand für die nachträgliche Rekonstruktion,
also für
Darstellung und Zugriff, in der Gesamtabwägung geringer oder höher ausfällt.
-
Das
wissensbasierte System zur Optimierung der Speicher-Performance optimiert
auch die Speicher-Performance für
Metadaten. Bei der Speicherung von Metadaten wird die inhaltliche
Relevanz einzelner zu speichernder Informations-Elemente geprüft und dieser
werden entweder nicht gespeichert, teilweise gespeichert oder als
vollständige
neue Datensätze
abgelegt.
-
Weitere
vorteilhafte Varianten der Erfindung ergeben sich aus den abhängigen Patentansprüchen.
-
Nachfolgend
werden Ausführungsbeispiele
der Erfindung anhand von Figuren näher erläutert. Es zeigen im einzelnen:
-
1 Arbeitsweise
des erfundenen Datenverwaltungssystems als Flußdiagramm,
-
2 Datenstruktur,
die von dem erfundenen Datenverwaltungssystem erzeugt wird,
-
3 Systemarchitektur
der erfundenen Datenverwaltungseinrichtung.
-
In 1 ist
die Arbeitsweise der erfundenen Datenverwaltungseinrichtung als
Flussdiagramm dargestellt. Das Flussdiagramm beschreibt die Verwendung
der Einrichtung zur Verwaltung medizinisch-diagnostischer Bild-
und Befunddaten.
-
Im
anfänglichen
Schritt 13 erfolgt zunächst
die Aufnahme oder Akquisition der medizinischen Bilddaten mittels
eines bildgebenden Verfahrens, das z. B. in einer Röntgeneinrichtung,
einem Computertomographen oder einer Ultraschalleinrichtung abläuft. Das
bildgebende Verfahren gewinnt dabei Roh-Bilddaten, die anfänglich in
unverändertem
und daher verlustfreien Datenumfang vorliegen.
-
Die
durch das bildgebende Verfahren gewonnenen Roh-Bilddaten werden
unmittelbar nach ihrer Aufnahme in der bildgebenden Einrichtung
in Schritt 14 lokal gespeichert. Die lokale Speicherung
erhöht
die Sicherheit des Verfahrens vor später auftretenden Datenverlusten.
Abgesehen von diesem Fall ist eine spätere Verwendung der lokal gespeicherten
Roh-Bilddaten nicht vorgesehen. Zusammen mit den Roh-Bilddaten kann eine
Angabe zum Entstehungsdatum gespeichert werden.
-
In
Schritt 15 wird ermittelt, ob die durch das bildgebende
Verfahren gewonnenen Roh-Bilddaten eine ausreichende grafische Qualität aufweisen
oder ob die Roh-Bilddaten durch ein standardisiertes Nachbearbeitungs-Verfahren
aufgearbeitet werden sollten. Das standardisierte Nachbearbeitungs-Verfahren stellt
eine verlustfreie Nachbearbeitung dar, bei der also kein Verlust
von Informations-Gehalt eintritt.
-
Je
nach Ergebnis der Prüfung
im Schritt 15 werden die Roh-Bilddaten entweder in Schritt 16 einer standardisierten,
verlustfreien Nachbearbeitung unterzogen oder gelangen direkt zu
Schritt 17 des Verfahrens. In Schritt 17 werden
die Roh-Bilddaten
als ursprüngliche
und verlustfreie Daten gekennzeichnet und Metadaten wie eine Dateikennung,
eine Angabe zum Speicherdatum oder Patienteninformationen hinzugefügt.
-
Die
gekennzeichneten Roh-Bild- und Metadaten werden in Schritt 18 einer
Inferenz-Maschine zugeführt,
in der die Daten hinsichtlich einer Optimierung der Speicher-Performance
untersucht werden. Die Inferenz-Maschine verfügt dazu über einen Teil, der auf eine
Wissensbasis mit Expertenwissen über
die optimale Speicherung von Bilddaten zugreift, und über einen
weiteren Teil, der auf eine Wissensbasis mit Expertenwissen hinsichtlich
der optimalen Speicherung von Metadaten zugreift. Die Inferenz-Maschine
wählt mit
Hilfe der beiden Wissensbasen geeignete Grafik- und Metadaten-Speicherformate
aus. Zudem durchsucht die Inferenz-Maschine die Metadaten nach bestimmten
Informationen, wie Patientennamen, Patientenalter und Fachbegriffen
medizinischer Befundung. Datenbestandteile, die derart kategorisierbar
sind, werden in ein diesbezüglich
optimiertes Speicherschema eingefügt, Datenbestandteile, die
auf diese Weise als irrelevant erkannt werden, werden verworfen,
nicht zuordenbare Datenbestandteile können außerdem als sonstige Informationen
gespeichert werden, gegebenenfalls zusammen mit einer Angabe zum
Speicherdatum.
-
Während die
Optimierung der Bilddaten vor allem der Reduzierung des Speicherbedarfs
dient, verfolgt die Optimierung der Metadaten und deren Anpassung
an vorgegebene Speicherschemata den Zweck, die Prüfung und Änderung
der beschreibenden Daten durch verschiedene Personen und zu verschiedenen
Zeitpunkten systematisch erfassen und ebenso systematisch wiedergeben
zu können.
Die Metadaten enthalten in der Regel keine kompletten Befunde, sondern
Kennzeichnungen derart, dass es sich um ein Bild handelt, in dem ein
bestimmter Befund besonders deutlich erkennbar ist. In den Metadaten
finden sich typischerweise auch Angaben zur untersuchten Körperregion.
Besonders wichtig sind auch Metadaten, die demographische Information
beinhalten, da deren Änderung
(z. B. des Patientennamens) eine Änderung der eindeutigen Kennung des
Patienten (z. B. die Patientenkennung UID im medizinischen Datenformat
DICOM) nach sich zieht und die Zuordnung der Bilddaten zur betreffenden
Person korrigiert werden muss.
-
Die
Informations-Kategorien und die Speicherschemata sind so gewählt, dass
die Zuordnung zu verschiedenen Anwendern und zu verschiedenen chronologischen
Zeitpunkten erhalten bleibt. Beispielsweise kann ein matrixartiges
Speicherschema verwendet werden, dessen verschiedene Zeilen verschiedenen
Zeitpunkten entsprechen und dessen Spalten verschiedene standardmäßige Befund-Informationen
darstellen; gegebenenfalls können
Eingaben verschiedener Anwender in einer dritten Dimension einer
solchen Matrix erfasst werden.
-
Die
in Schritt 18 hinsichtlich der Speicher-Performance optimierten
Bild- und Metadaten werden anschließend gegebenenfalls zusammen
mit Zeitangaben in Schritt 19 in einem Archiv gespeichert.
In Schritt 19 erfolgt die zentrale Speicherung sämtlicher
verfügbarer
Information.
-
Sollen
Daten zur späteren
Bearbeitung oder Befundung dem zentralen Archivspeicher entnommen werden,
so müssen
zunächst
in Schritt 20 die Anwender- und Archivdaten authentifiziert
werden, um einen sicheren Schutz gegen nicht autorisierte Verwendung
der Archiv-Daten und gegen Irrtümer
bei der Entnahme von Archiv-Daten zu gewährleisten. Dazu kann in bekann ter
Weise auf elektronische Signaturen zurückgegriffen werden, die bestimmte
Archiv-Daten zur Bearbeitung oder Betrachtung durch bestimmte Anwender
freigibt. Weiter kann in ebenfalls bekannter Weise auf Daten-Sicherheitssysteme
unter Verwendung von Schlüsseln
zurückgegriffen
werden, die über
persönliche
Kennwörter
oder öffentliche
Schlüsselverwaltungen,
sogenannte Trustcenter, verwaltet werden. Durch Verwendung solcher
Sicherheitssysteme kann die Entnahme von Archiv-Daten im gewünschten
Grad an Sicherheit vor Missbrauch geschützt werden. Dieser Schutz ist
insbesondere bei medizinischen Daten von großer Bedeutung.
-
Die
in Schritt 17 gekennzeichneten Roh-Bilddaten oder die über Schritt 20 dem
Archiv-Speicher entnommenen Bild- und Metadaten werden in Schritt 21 von
einem Anwender daraufhin untersucht, ob eine individuelle Bild-Nachbearbeitung
gewünscht
wird. Ist dies der Fall, erfolgt in Schritt 22 eine individuelle
Bild-Nachbearbeitung, bei der die Bilddaten vom Anwender beliebig
manipuliert werden können.
Der Anwender ist insbesondere nicht daran gebunden, auf eventuellen
Informationsverlust zu achten, sondern kann die Bilddaten beliebigen
Wünschen
entsprechend überarbeiten.
-
In
Schritt 23 werden die vom Anwender vorgenommenen grafischen
Nachbearbeitungs-Operationen und Änderungen der Metadaten als
solche aufgezeichnet, gegebenenfalls mit einer Angabe zum Überarbeitungsdatum.
Damit ist eine Aufzeichnung nicht etwa der veränderten Bild- oder Metadaten
gemeint, sondern eine Aufzeichnung derjenigen Vorgänge, durch
die die veränderten
Bilddaten generiert werden. Je nach Art und Umfang der Nachbearbeitungs-Operationen
kann deren späterer
Speicheraufwand deutlich geringer als der Speicherbedarf bei der
Speicherung kompletter Bilddaten ausfallen.
-
In
Schritt 24 wird die Folge der aufgezeichneten Nachbearbeitungs-Operationen
durch eine Inferenz-Maschine daraufhin untersucht, ob sie zu einer
verlustfreien oder verlustbehafte ten Änderung der Bilddaten bzw.
signifikanten Änderung
der Metadaten führen.
Es wird also festgestellt, ob durch die Nachbearbeitungs-Operationen
Informationsverluste eintreten. Um dies festzustellen greift, die
Inferenz-Maschine auf geeignete Wissensbasen hinsichtlich grafischer
Bildbearbeitung und Änderung
von Metadaten zu, die Regeln und Fakten enthalten, aufgrund derer
eine Abwägung
zwischen Speicherbedarf und Nachbearbeitungs-Zeitbedarf getroffen
werden kann. Damit wird jeweils festgestellt, ob die aktuell überarbeiteten
Daten gegenüber den
ursprünglichen
Daten, also dem Datenstand unmittelbar vor einer Bearbeitung, verlustbehaftet
sind.
-
Nachfolgend
werden Beispiele für
die Funktionsweise des wissensbasierten Systeme in Schritt 18 und in
Schritt 24 gegeben, die auf der Programmiersprache Prolog
basieren. Selbstverständlich
könnte
auch jede andere Programmiersprache wie C bzw. C++ verwendet werden.
-
Die
Methodenaufrufe und Parameter der aufgezeichneten Bearbeitungsschritte
werden dem wissensbasierten System beispielsweise als geschachtelte
Listen übergeben:
-
Nach
der Übergabe
werden die einzelnen Verarbeitungsschritte aus der übergebenen
Liste darauf überprüft, ob mindestens
ein Verarbeitungsschritt in der Sequenz eine bestimmte Eigenschaft
(Prädikat)
besitzt, die im folgenden durch die Variable P bezeichnet werden
soll. Das Prädikat
P kann beispielsweise kennzeichnend für Bildverarbeitungsschritte
sein:
-
Als
zu überprüfende Nachverarbeitungsschritte
kommen beispielsweise lokale grafische Bildverarbeitungsschritte
in Frage. Beispielsweise für
Kantenanhebung und Glättung
würde das
Prädikat
P dann „local_ip_operation” (local
image processing operation) lauten, wobei das erste Argument den
Methodennamen bezeichnet, das zweite den Operator:
-
Anschließend müssen die
Nachverarbeitungsschritte beispielsweise daraufhin überprüft werden,
ob eine verlustbehaftete oder verlustlose Verarbeitung der Rohdaten
oder standardisiert nachbearbeiteten Bilddaten stattgefunden hat.
Eine zugehörige
Regel kann für
die Prüfung
verwandt werden, ob es sich um einen verlustbehafteten Bearbeitungsschritt
(lossy) handelt. Dies ist beispielsweise dann der Fall, wenn die
Kombination aus Methodenname und Operator unter den Fakten der verlustbehafteten
lokalen Bildverarbeitungsschritten zu finden ist und die Datei überschrieben
wird:
-
Über die
Prüfung
einzelner Verarbeitungsschritte hinaus, kann durch den Aufruf des
Ziels
überprüft werden,
ob mindestens einer der Verarbeitungsschritte innerhalb der Sequenz
eine bestimmte Eigenschaft (property existence processing sequence,
im Beispiel „lossy”) besitzt.
Eigenschaft und Prädikat
können
hierbei frei gewählt
werden.
-
In ähnlicher
Weise kann die Sequenz der Verarbeitungsschritte daraufhin überprüft werden,
ob Aufrufe von Kompressionsmethoden darin enthalten sind. Die Fakten
enthalten in diesem Beispiel den Methodennamen als alleiniges Argument:
-
In
Abhängigkeit
der Parameter können
Kompressionsoperationen verlustbehaftet oder verlustlos sein, wie
beispielsweise JPEG LS. Im folgenden sind Beispiele für Regeln
angegeben zur Überprüfung, ob
die JPEG LS Kompression verlustlos (lossless) bzw. verlustbehaftet
(lossy) vonstatten gegangen ist. Die JPEG LS Kompression ist verlustlos,
falls die Differenz jedes Sample-Wertes des rekonstruierten Datenstroms
zum korrespondierenden Wert des Original-Datenstroms gleich 0 ist
(DELTA = 0):
-
Die
JPEG LS Kompression ist verlustbehaftet, falls die Differenz ungleich
0 ist und die Datei überschrieben
wird:
-
In
analoger Weise kann die Sequenz der Verarbeitungsschritte durch
geeignete Aufrufe von Zielen unter Verwendung von property_existence_ps/2
auf weitere verlustbehaftete und andere Operationen mit beliebigen
Eigenschaften überprüft werden.
-
Ein
weiteres Beispiel nutzt die Fakten von compression_method/1 für die Überprüfung von
transkodierten Bilddaten und anderen Datenströmen. Eine Kompression ist für alle in
den Fakten von compression_method/1 aufgeführten Fakten verlustbehaftet,
falls die räumliche
Auflösung
(SPATIALRES) des resultierenden Datenstroms geringer ist (kleiner
100%) als die des originalen Datenstroms und die Datei überschrieben
wird. Daraus ergibt sich folgende Regel:
-
Wird
eine Datei nicht unmittelbar überschrieben,
sondern zeitversetzt durch nachfolgende Operationen (z. B. durch
die Inhalte eines Buffers), so ist auch diese Situation durch die
geeignete Wahl von Regeln beherrschbar, durch die eine Überschreibung
mit verlustbehafteten Daten verhindert werden kann.
-
Nachfolgend
werden weitere Beispiele für
die Bearbeitung von Metadaten angegeben. Metadaten lassen sich beispielsweise
daraufhin überprüfen ob demographische
Daten überschrieben
wurden, so dass eine Zuweisung eines neuen Objekt-Identifikators notwendig
wird. Dazu werden Fakten für
verschiedene Schreiboperationen in die Wissensbasis aufgenommen, beispielsweise,
wobei das Argument dabei den Methodennamen bezeichnet:
-
Weiter
werden Fakten in die Wissensbasis aufgenommen, die entsprechende
DICOM Attribute als Tags zur Identifikation von Patienten oder Personen
identifizieren. Im folgenden Beispiel bezeichnet das Argument den
DICOM Tag:
-
Die
zugehörige
Regel assign_new_uid gibt an, ob ein neuer Objekt-Identifikator
zugewiesen werden muss. Dies ist dann nötig, wenn es sich bei der Methode
um eine Schreiboperation auf ein Attribut handelt, das relevant
für die
Identifikation von Patienten oder Personen ist und der aktuelle
Attributwert verschieden von dem ursprünglichen ist:
-
Die
Sequenz der Verarbeitungsoperationen lässt sich durch folgende Anfrage
darauf überprüfen, ob mindestens
eine Operation enthalten ist, die die Vergabe eines neuen Objekt
Identifikators erfordert:
-
Dieses
Beispiel zeigt, dass property_existence_ps/2 durch die geeignete
Wahl von Prädikaten
für das zweite
Argument für
die Prüfung
nicht nur einer sondern mehrerer verschiedener Eigenschaften verwendet werden
kann.
-
Nachfolgend
werden Beispiels für
Regeln gegeben, die der Optimierung der Speicherung-Performance
dienen. Das wissensbasierte System besitzt dazu eine Wissensbasis
mit Fakten und Regeln zur Unterstützung der Entscheidung, ob überarbeitete
Daten oder nur die Sequenz der aufgezeichneten Bearbeitungsoperationen
aufgezeichnet werden sollen. Dabei wird zwischen Zeitbedarf für die Rekonstruktion
der überarbeiteten
Daten und Speicherbedarf abgewogen. Mit Rekonstruktion ist dabei
die spätere
Zugänglichmachung
und Darstellung auf Datenverarbeitungseinrichtungen oder auch auf
Papier oder in sonstiger Weise gemeint. Es kann sich je nach Art
der Daten und Bearbeitungsschritte erweisen, dass die Rekonstruktion
der überbearbeiteten
aus den ursprünglichen,
unbearbeiteten Daten samt zugehöriger
Bearbeitungsschritte oder aber aus den bearbeiteten Daten selbst
günstiger
ist. Dabei erfordert die Speicherung der bearbeiteten Daten selbst
insbesondere bei Bilddaten einen höheren Speicherbedarf, während die
nachträgliche
Rekonstruktion aus den Bearbeitungsschritten einen höheren Rechenaufwand
verursacht.
-
Das
folgende Beispiel enthält
Fakten und Regeln für
die relativ zeitaufwändigen
Operationen 3D Region Growing und das manuelle Markieren von Regions
of Interest (ROI). Beide Operationen werden wie folgt als Fakten
für Kontur
Operationen kategorisiert:
-
Eine
der Regeln im Zusammenhang mit der Optimierung der Speicher-Performance
besagt, dass die überarbeiteten
Daten (z. B. ein isoliertes segmentiertes Objekt) gespeichert werden
sol len (store object), falls es sich bei der Operation um ein 3D
Region Growing Verfahren handelt. Der Grund hierfür liegt
darin, dass es in der Regel günstiger
ist, das Ergebnis der Segmentation zu speichern, als die Region
Growing Operation nachzuvollziehen:
-
-
Eine
weitere Regel gibt an, dass die Sequenz der Verarbeitungsschritte
gespeichert werden soll (store processing sequence = store_ps),
falls es sich um eine als Kontur-Operation
klassifizierte Operation mit dem Methodennamen 'mark_roi' handelt. 'mark_roi' steht dabei für eine Operation mit der die
Kontur einer Region of Interest (z. B. mittels eines Polygonzuges)
markiert wird. Auch wenn zum Beispiel das manuelle Einzeichnen der
Konturen sehr zeitaufwändig
sein kann, lässt
sich das Ergebnis der manuellen Segmentation in der Verarbeitungssequenz
der Daten speichern, ohne dabei die Originaldaten zu duplizieren.
Gegebenenfalls könnte das
Ergebnis von 'mark_roi' auch als gesondertes
Overlay-Objekt gespeichert werden.
-
-
Schliesslich
kann die Sequenz der Nachverarbeitungs-Operationen darauf geprüft werden,
ob mindestens eine Operation durchgeführt wurde, die das Speichern
zusätzlicher
Objekte notwendig macht:
-
In
Schritt 25 erfolgt in Abhängigkeit von der vorhergehenden
Verlust-Prüfung
durch die Inferenz-Maschine eine Kennzeichnung der Nachbearbeitungs-Operationen
dahingehend, ob diese zu einer verlustfreien oder zu einer verlustbehafteten
Veränderung
der Bilddaten führen.
Diese Kennzeichnung ermöglicht
es also, zum Beispiel festzustellen, ob nach der Nachbearbeitung
von Roh-Bilddaten nur eine rein gestalterisch überarbeitete Fassung dieser
Daten vorliegt, die aber immer noch als Roh-Bilddaten anzusehen
ist, oder ob eine auch im Informations-Gehalt überarbeitete Fassung erzeugt
wurde. Diese Unterscheidung kann der Anwender angesichts der heute
möglichen,
sehr komplexen automatischen Bildbearbeitungsvorgänge häufig gar
nicht selbst treffen. Daher könnte
er weder die Kennzeichnung selbst vornehmen, noch die Daten in daran
angepasster Weise speichern. Abgesehen davon stellt es eine bedeutende
Arbeitserleichterung für
den Anwender dar, wenn er sich mit dieser Unterscheidung gar nicht
erst befassen muss.
-
Im
Schritt 26 werden die nachbearbeiteten oder dem Archiv
entnommenen Daten vom Anwender daraufhin geprüft, ob eine Befundung bzw.
Kommentierung der Daten erfolgen soll, also eine Bearbeitung der
in den Daten enthaltenen Metadaten. Ist dies der Fall, werden in
Schritt 27 vom Anwender hinzugefügte Befunde oder Kommentare
zu den Daten hinzugefügt.
Es werden den Metadaten neben den Eingaben durch den Anwender auch
Informationen hinzugefügt,
die es erlauben, den Anwender, z. B. über seine elektronische Signatur,
zu identifizieren. Die Eingaben des Anwenders können beispielsweise die besondere
Relevanz eines Bildes im Hinblick auf bestimmte medizinische Befunde
oder sonstige mit den Bilddaten zusammenhängende diagnostische Daten
enthalten.
-
Die
nachbearbeiteten Bilddaten und ergänzten Metadaten werden zu Schritt 18 des
Verfahrens zurückgeleitet
und dort erneut der Archiv-Speicherung zugeführt, gegebenenfalls zusammen
mit Angaben zum Überarbeitungs-
oder Speicherdatum. Die Inferenz-Maschine
in Schritt 18 entscheidet wie oben beschrieben über geeignete
grafische Speicherformate sowie eine geeignete systematische Metadaten-Speicherung.
Bei der Entscheidung über
ein geeignetes grafisches Speicherformat wird dabei berück sichtigt,
dass die Bilddaten zum einen als Bildinformation an sich, zum anderen
aber auch als eine Folge von Bild-Nachbearbeitungs-Operationen verfügbar sind.
Es wird also nicht nur über
die Speicherung in reinen Grafik-Datenformaten entschieden, sondern
auch über
ein erweitertes Speicherformat unter Berücksichtigung von Bildbearbeitungs-Operationen.
Weiter werden auch die vom Anwender eingegebenen ergänzenden
Informationen auf ihren Informations-Gehalt untersucht und einem
geeigneten Speicherschema untergeordnet. Dabei kann z. B. berücksichtigt werden,
dass ein zu verschiedenen Zeitpunkten jeweils identischer Kommentar
nicht wiederholt und mehrfach abgespeichert werden muss.
-
In 2 ist
die durch die Erfindung geschaffene Datenstruktur dargestellt. Es
ist ein Informations-Block dargestellt, der in einzelne Informations-Elemente
untergliedert ist. Die Daten-Struktur kann als eine Datei oder als
verteiltes, vernetztes Datei-System gespeichert werden. Die einzelnen
Struktur-Elemente sind datentechnisch durch Marker unterteilt beziehungsweise
voneinander getrennt, weisen jedoch keine fest vorgegebene Größe auf.
Insbesondere ist es möglich,
dass einzelne Struktur-Elemente der Daten-Struktur ohne Information,
d. h. leer, bleiben.
-
Struktur-Element 31 der
Daten-Struktur ist eine Datei-Kennung,
vergleichbar einem Datei-Namen, der der Zuordnung und Auffindbarkeit
der Daten-Struktur in einem Datei-Speichersystem dient. Der Datei-Name kann
in bekannter Weise so vergeben werden, dass er systematisch erzeugt
und mit einem Hinweis z. B. auf den untersuchten Patienten versehen
wird.
-
Struktur-Element 32 enthält einen
Authentifizierungs-Code, der zu Daten-Sicherheitszwecken verwendet
werden kann. Über
den Authentifizierungs-Code kann die Bearbeitung und Verwendung
der Daten-Struktur lediglich für
bestimmte Anwender freigegeben werden. Außerdem kann eine zusätzliche
Sicherheit dafür
geschaffen werden, dass dem Anwender die tatsächlich gewünschte Daten-Struktur zur Verfügung gestellt
wird. Es kann ein Schlüssel
enthalten sein, der die Daten-Struktur nur für Anwender freigibt, die einen
passenden weiteren Schlüssel
besitzen.
-
Struktur-Element 33 enthält eine
Kennzeichnung, die darüber
Aufschluss gibt, ob die Daten in der Daten-Struktur verlustfrei
erhalten oder verlustbehaftet nachbearbeitet sind. Die Kennzeichnung
kann insofern mehrteilig sein, als es möglich ist, dass die Daten-Struktur
sowohl verlustfreie Roh-Daten als auch verlustbehaftet nachbearbeitete
Bild- und Metadaten und grafische Nachbearbeitungs-Operations-Daten
enthält.
In solchen Fällen
besteht die Möglichkeit,
dem Daten-Block entweder die Roh-Daten oder die nachbearbeiteten
Daten zu entnehmen. Eine geeignete Benutzer-Oberfläche kann
die gegebenenfalls vorliegende Mehrzahl an Bearbeitungs-Zuständen der
Bilddaten entweder gleichzeitig darstellen oder in chronologischer
Folge oder übereinandergelegt
präsentieren.
Enthält
die Daten-Struktur nur Daten in einem einzigen Bearbeitungs-Status, so ist auch
die Kennzeichnung in Bestandteil 33 einstufig und gibt
lediglich Aufschluss über
den einzelnen, vorliegenden Daten-Status.
-
Struktur-Element 34 enthält Metadaten
wie Befunddaten oder Kommentare. Die Metadaten liegen in tabellarischer
und in Form von Textinformation vor, die teilweise automatisch durch
das System und teilweise manuell durch den Anwender eingegeben wird.
Die Metadaten enthalten alle im Zusammenhang mit den Bilddaten relevanten
Informationen über
den Patienten, die Umstände
der Bildgewinnung und gegebenenfalls Teilaspekte der medizinischen
Befundung. Die Metadaten können
insofern mehrstufig sein, als sie zu verschiedenen Zeitpunkten und
von verschiedenen Anwendern eingegeben worden sein können.
-
Struktur-Element 35 enthält eine
Folge von Nachbearbeitungs-Operationen,
denen die Bilddaten von einem oder verschiedenen Anwendern unterzogen
wurden. Es handelt sich dabei also nicht um Bilddaten an sich, sondern
um Information darüber,
in welcher Art die Bilddaten jeweils verändert wurden. Ob Nachbearbeitungs-Operationen
gespeichert werden, hängt
im wesentlichen davon ab, ob dadurch das Ergebnis von Bild-Nachbearbeitungen
am effizientesten zu speichern und zu handhaben ist. Die in Strukturelement 35 enthaltene
Folge von Nachverarbeitungs-Operationen kann auch als eigenes Objekt
gespeichert sein, das die Bilddaten referenziert, auf die die Operationen
angewandt wurden. Dies ist vorteilhaft, wenn eine größere Zahl von
Bildern gleichartig nachbearbeitet wurde.
-
Struktur-Element 36 enthält als zentralen
Gegenstand der Daten-Struktur die eigentlichen Bilddaten, die entweder
als Roh-Bilddaten oder in bereits standardisiert oder nicht standardisiert überarbeiteter
Form vorliegen können.
Die Bilddaten können
verlustfrei oder verlustbehaftet sein.
-
Die
in 2 dargestellte Daten-Struktur könnte bei
voller Ausnutzung aller Optionen die Ergebnisse einer bildgebenden
Untersuchung eines Patienten samt kompletter Pathogenese und vollständiger Befundung über einen
längeren
Untersuchungszeitraum und unter Hinzuziehung der Urteile mehrerer
Fachleute enthalten.
-
In 3 ist
die zur Ausführung
der Erfindung erforderliche Systemarchitektur dargestellt. Das dargestellte
Datenverwaltungssystem erhält
von einem Bilddetektor 1 Bilddaten. Die Bilddaten gehen
einem Bild-Prozessor 2 zu, der die Bilddaten in ein Format
bringt, das für
deren Bearbeitung, Speicherung oder grafische Darstellung auf einem
Ausgabegerät
geeignet ist. Je nach Qualität
der Bilddaten kann der Bild-Prozessor 2 außerdem eine
standardisierte Bild-Nachbearbeitung vornehmen, bei der die Bilddaten
verlustfrei zum Zweck einer besseren weiteren Verwendbarkeit nachbearbeitet
werden. Vom Bild-Prozessor 2 gehen
die gegebenenfalls standardisiert nachbearbeiteten Bilddaten einem
lokalen Bildspeicher 3 zu. Der loka le Bildspeicher 3 hat
lediglich eine Sicherheitsfunktion insofern, als er der sofortigen
Sicherung aufgenommener Bilddaten bis zu deren endgültiger,
zentraler Speicherung dient.
-
Die
vom Bild-Prozessor 2 verarbeiteten Bilddaten gehen weiter
einem Bildverwaltungs-Prozessor 4 zu, der die Bilddaten
zentral verwaltet, speichert und archiviert. Die Speicherung der
Daten durch den Bildverwaltungs-Prozessor 4 erfolgt im
zentralen Archiv-Bildspeicher 5.
-
Die
zentral archivierten Bilddaten können
vom Bildverwaltungs-Prozessor 4 durch einen Bildnachbearbeitungs-Prozessor 6 abgerufen
werden. Die Berechtigung zum Abruf der Daten sowie die Sicherstellung von
deren Identität
wird dabei von einem Authentifikations-Server 7 sichergestellt,
auf dem sowohl der Bildnachbearbeitungs-Prozessor 6 als
auch der Bildverwaltungs-Prozessor 4 zugreifen. Der Authentifikations-Server 7 verfügt über die
Kenntnis derjenigen elektrischen Signaturen, mittels derer vom Bildnachbearbeitungs-Prozessor 6 auf
das Bildarchiv zugegriffen werden darf, sowie über Schlüssel, die beim Zugriff abgefragt werden.
Durch den Authentifikations-Server 7 wird
also sichergestellt, dass nur berechtigte Anwender nur auf die für sie freigegebenen
Daten zugreifen können.
-
Der
Bildverwaltungs-Prozessor 4 greift auf eine Inferenz-Maschine 8 zu,
die in der Lage ist, nachbearbeitete Bilddaten daraufhin zu prüfen, ob
die Nachbearbeitung verlustfrei oder verlustbehaftet erfolgt ist.
Zu diesem Zweck hat die Inferenz-Maschine 8 Zugriff auf
eine Wissensbasis 9, die Expertenwissen hinsichtlich der
Untersuchung von Daten auf verlustfreien oder verlustbehafteten
Status enthält.
Der Bildverwaltungs-Prozessor 4 greift außerdem auf
eine Inferenz-Maschine 10 zu,
die in der Lage ist, ein Speicherformat zur Optimierung der Speicher-Performance
zu finden. Zu diesem Zweck greift die Inferenz-Maschine 10 auf
eine Wissensbasis 11 zu, die Expertenwissen zur Frage der
Speicheroptimierung von Bild- und Textdaten enthält. Es ist auch möglich, anstelle
zweier Inferenz-Maschinen 8, 10 nur eine zu verwenden,
die auf die beiden unterschiedlichen Wissensbasen 9, 11 zugreift.
-
Durch
das Hinzuziehen der Prüf-Ergebnisse
der Inferenz-Maschine 8 ist
der Bildverwaltungs-Prozessor 4 in der Lage, die zu speichernden
Daten mit einer Kennzeichnung zu versehen, die Aufschluss darüber gibt,
ob die Daten verlustbehaftet nachbearbeitet oder verlustfrei erhalten
sind. In Verbindung mit der Optimierung der Speicher-Performance
durch die Inferenz-Maschine 10 kann der Datenverwaltungs-Prozessor 4 dadurch
sicherstellen, dass originale Bilddaten verlustfrei erhalten werden
und zusammen mit nachbearbeiteten oder durch Textinformation ergänzten Daten
mit minimalem Speicheraufwand und unter Erhaltung von Information über die
Speicherhistorie zu speichern.