DE112008004057T5 - Erkennen verborgener Bedrohungen - Google Patents

Erkennen verborgener Bedrohungen Download PDF

Info

Publication number
DE112008004057T5
DE112008004057T5 DE112008004057T DE112008004057T DE112008004057T5 DE 112008004057 T5 DE112008004057 T5 DE 112008004057T5 DE 112008004057 T DE112008004057 T DE 112008004057T DE 112008004057 T DE112008004057 T DE 112008004057T DE 112008004057 T5 DE112008004057 T5 DE 112008004057T5
Authority
DE
Germany
Prior art keywords
objects
data
image
class
sub
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE112008004057T
Other languages
English (en)
Inventor
Baoming Hong
Julia Pavlovich
David Schafer
Zhengrong Ying
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Analogic Corp
Original Assignee
Analogic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Analogic Corp filed Critical Analogic Corp
Publication of DE112008004057T5 publication Critical patent/DE112008004057T5/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V5/00Prospecting or detecting by the use of ionising radiation, e.g. of natural or induced radioactivity
    • G01V5/20Detecting prohibited goods, e.g. weapons, explosives, hazardous substances, contraband or smuggled objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/05Recognition of patterns representing particular kinds of hidden objects, e.g. weapons, explosives, drugs

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • High Energy & Nuclear Physics (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Geophysics (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)
  • Burglar Alarm Systems (AREA)
  • Image Analysis (AREA)

Abstract

Potentiell bedrohliche Gegenstände können im Innern von Objekten verborgen sein, wie in tragbaren elektronischen Geräten, die einem bildgebenden Verfahren unterzogen werden, zum Beispiel bei einer Sicherheitskontrolle. Daten von einem abgebildeten Objekt können mit vorgegebenen Objektdaten verglichen werden, um eine Klasse für das abgebildete Objekt zu bestimmen. Ferner kann ein Objekt im Innern eines Behälters erkannt werden (z. B. ein Laptop im Gepäck). Eindimensionale Eigenprojektionen können benutzt werden, um das abgebildete Objekt in Partitionen zu unterteilen, und Merkmalvektoren von den Partitionen und den Objekt-Bilddaten können benutzt werden, Layout-Merkmalvektoren zu erzeugen. Ein oder mehrere Layout-Merkmalvektoren können mit Trainingsdaten für Bedrohungen enthaltenden gegenüber keine Bedrohungen enthaltenden Gegenständen aus der Klasse des abgebildeten Objektes verglichen werden, um festzustellen, ob das abgebildete Objekt einen potentiell bedrohlichen Gegenstand enthält.

Description

  • Hintergrund
  • Sicherheit auf Flughäfen und in anderen in Zusammenhang mit Reisen stehenden Gebieten ist angesichts des heutigen gesellschaftspolitischen Klimas sowie anderer Gesichtspunkte eine wichtige Angelegenheit. Ein zur Verbesserung der Sicherheit auf Reisen benutztes Verfahren ist die Überprüfung des Gepäcks. In manchen Fällen wird das Gepäck visuell überprüft und/oder durch Kontrolleure manuell überprüft. In anderen Fällen werden das Gepäck und andere Gegenstände anfangs einem bildgebenden Verfahren unter Verwendung einer Art von Bildgebungs-Vorrichtung unterzogen und dann mit anderen Mitteln, wie von Hand, weiter überprüft, falls erforderlich. Zum Beispiel kann ein Röntgen-Zeilen-Scanner benutzt werden, um für Kontrolleure ein oder mehrere im Wesentlichen zweidimensionale Ansichten des Inhalts eines Koffers vorzusehen, oder es kann ein Computer-Tomographie-Scanner (CT) benutzt werden, um Ansichten von zwei- oder dreidimensional rekonstruierten Bildern von abgetasteten Koffern vorzusehen.
  • Zurzeit kann eine große Zahl von Daten-Manipulationen an zweidimensionalen und/oder dreidimensionalen Sätzen von Bildern von Objekten durchgeführt werden, wie für Gepäck, das einer Bildgebung durch eine bildgebende Vorrichtung ausgesetzt ist. Typischerweise werden Röntgen-Zeilen-Scanner in vielen Flughafen-Kontrollstellen eingesetzt. Datenmanipulation kann es zulassen, ein bestimmtes Ausmaß an automatisierter (vor der menschlichen) Überprüfung durchzuführen (z. B. um Objekte zu erkennen, die bedrohliche Gegenstände enthalten, wie zum Beispiel Sprengstoff). Die Einschränkungen der aktuellen Technologie können jedoch keine effektive automatisierte Überprüfung einiger Gegenstände im Innern eines Gepäckstücks erlauben. Zum Beispiel können aktuelle Röntgen-Zeilen-Scanner nur eine oder zwei Ansichten eines abgetasteten Objektes vorsehen. Diese begrenzte Bildgebungs-Fähigkeit kann verhindern, dass ein Kontrolleur den Inhalt zum Beispiel eines abgetasteten Koffers deutlich sieht.
  • Folglich muss in manchen Fällen, wie etwa bei Laptop-Computern und Videokameras, damit eine automatische Überprüfung feststellen kann, ob ein bestimmter Gegenstand ein potentiell bedrohliches Objekt enthält, der Gegenstand aus dem Gepäck herausgenommen und einer individuellen Abtastung unterzogen werden. Der Prozess des Herausnehmens eines Gegenstands (z. B. eines Laptop-Computers) aus einem Gepäckstück und somit des Abtastens von zwei getrennten Gegenständen erhöht die zum Passieren einer Sicherheits-Kontrollstelle auf einem Flughafen benötigte Zeit. Dies ist zumindest eine unerwünschte Situation, weil der Wunsch besteht, den Durchsatz auf Flughäfen zu erhöhen.
  • Ferner werden bestimmte Gegenstände, wie etwa elektronische Geräte (z. B. Laptop-Computer) oft im Handgepäck gefunden. Wie oben beschrieben, werden diese Objekte oft aus dem Gepäck herausgenommen und entweder in offene Kästen oder direkt auf Fließbänder platziert, bevor sie durch eine bildgebende Vorrichtung abgetastet werden. Das Erkennen von Bedrohungen, wie etwa Sprengstoff (z. B. plattenförmiger Sprengstoff), der im Innern elektronischer Geräte verborgen ist, kann sehr anspruchsvoll sein. Durch eine Bildgebungs-Vorrichtung (z. B. einen CT-Scanner) erzeugte Bilder können durch Artefakte gestört sein, die gewöhnlich durch Bauelemente mit hoher Dichte im Innern von elektronischen Geräten erzeugt werden (z. B. ein optisches Laufwerk, eine Batterie in einem Laptop oder andere Bauelemente mit hoher Ordnungszahl Z).
  • Zusammenfassung
  • Diese Zusammenfassung wird vorgesehen, um eine Auswahl von Konzepten in vereinfachter Form vorzustellen, die weiter unten in der genauen Beschreibung weiter beschrieben werden. Es ist weder beabsichtigt, dass diese Zusammenfassung entscheidende Faktoren oder wesentliche Merkmale des beanspruchten Gegenstandes der Erfindung aufzeigt, noch ist es beabsichtigt, dass sie dazu benutzt wird, den Umfang des beanspruchten Gegenstandes der Erfindung einzuschränken.
  • Gemäß einem Aspekt wird ein System geschaffen, um aus einer Klasse von Objekten ein möglicherweise eine Bedrohung enthaltendes Objekt zu erkennen, das unter Verwendung einer Bildgebungs-Vorrichtung einer Abbildung unterzogen wurde. In diesem Aspekt kann das System einen Objektklassen-Identifizierer enthalten, der gestaltet ist, Daten von einem segmentierten Objekt in einem Bild mit vorgegebenen Objektklassen-Daten zu vergleichen, um festzustellen, zu welcher Klasse von Objekten das segmentierte Objekt gehören könnte. Ferner kann das System einen Objekt-Partitionierer enthalten, der gestaltet ist, das segmentierte Objekt unter Verwendung von Eigenanalyse auf Grundlage der Objektklasse in Partitionen aufzuteilen. Außerdem kann das System einen Layout-Vektor-Generator enthalten, der gestaltet ist, Layout-Merkmalvektoren für ein erkanntes Objekt zu erzeugen. Das System kann auch einen Bedrohungs-Ermittler enthalten, der gestaltet ist, das Vorhandensein einer Bedrohung in einem erkannten Objekt festzustellen, indem er Layout-Merkmalvektoren vom erkannten Objekt mit einer oder mehreren vorgegebenen Grenzen vergleicht, die der Klasse des segmentierten Objektes entsprechen.
  • Gemäß einem weiteren Aspekt wird ein Verfahren geschaffen, um aus einer Klasse von Objekten ein möglicherweise eine Bedrohung enthaltendes Objekt zu erkennen, das unter Verwendung einer Bildgebungs-Vorrichtung einer Abbildung unterzogen wurde. In diesem Aspekt können entsprechende Objektdaten mit vorgegebenen Objektdaten aus einer oder mehreren entsprechenden Klassen von Objekten verglichen werden, um festzustellen, ob ein segmentiertes Objekt im Bild zu einer Klasse von bekannten Objekten gehört. Ferner können eindimensionale Eigenprojektionen benutzt werden, um das erkannte segmentierte Objekt in Partitionen aufzuteilen. Außerdem können Merkmalvektoren, wie etwa Eigenschaftswerte von einem oder mehreren segmentierten Objekten/Partitionen kombiniert werden, um Layout-Merkmalvektoren zu erzeugen. Auch können Layout-Merkmalvektoren mit einer oder mehreren vorgegebenen Grenzen für erkannte potentielle Bedrohungen verglichen werden, um festzustellen, ob in einem erkannten Objekt eine potentielle Bedrohung vorhanden ist.
  • Gemäß einem weiteren Aspekt wird ein System geschaffen, um aus einer Klasse von Objekten ein möglicherweise eine Bedrohung enthaltendes Objekt in einem Behälter zu erkennen, der unter Verwendung eines Computertomographie-Scanners (CT) einer Abtastung unterzogen wurde. In diesem Aspekt kann das System einen CT-Scanner enthalten, der gestaltet ist, Objekte abzutasten und Bilddaten für die abgetasteten Objekte zu erzeugen, und einen Objekt-Segmentierer, der gestaltet ist, aus einem Bildgebungs-Bild des Behälters im Innern des Behälters ein Objekt zu erkennen, das zu einer bestimmten Klasse von Objekten gehört, der einen Bildelement-Selektor umfasst, der gestaltet ist, ein oder mehrere Bildelemente auszuwählen, einen Generator für dilatierte Elemente, der gestaltet ist, ein oder mehrere dilatierte Elemente zu erzeugen, und einen Splitter für verbundene Objekte, der gestaltet ist festzustellen, ob ein erkanntes Objekt eine Ansammlung von mehr als einem Objekt umfasst, und das verbundene Objekt in zwei oder mehr Objekte aufzuteilen. Weiter in diesem Aspekt kann das System einen Objekt-Regions-Extraktor enthalten, der konfiguriert ist, unter Verwendung von Eigenanalyse das erkannte Objekt in Objekt-Regionen aufzuteilen, einen Sub-Regions-Extraktor, der gestaltet ist, Sub-Regionen in den Regionen des erkannten Objekts zu erkennen, einen Vektor-Layout-Generator, der gestaltet ist, ein oder mehrere Layout-Merkmalvektoren aus dem erkannten Objekt zu erzeugen, einen Unterscheidungsgrenzen-Generator, der gestaltet ist, eine Unterscheidungsgrenze für eine Klasse von Objekten zu erzeugen, zu der ein erkanntes Objekt gehört, und einen Bedrohungs-Ermittler, der gestaltet ist, den einen oder die mehrerer Layout-Merkmalvektoren mit einer oder mehreren vorgegebenen Schwellwerten zu vergleichen, die der Klasse des erkannten Objekts entsprechen, um festzustellen, ob das erkannte Objekt ein eine potentielle Bedrohung enthaltendes Objekt ist.
  • Gemäß einem weiteren Aspekt wird ein Verfahren geschaffen, mit dem Objekte im Innern eines Behälters auf potentielle Bedrohungen abgetastet werden, ohne dass die Objekte aus dem Behälter genommen werden müssen. In diesem Aspekt wird ein Behälter unter Verwendung einer Bildgebungs-Vorrichtung einer Bildgebung unterzogen, es wird ein Objekt im Innern des Behälters erkannt, indem Objektdaten aus dem Bild mit vorgegebenen Objektdaten für Klassen von Objekten verglichen werden, es werden Regionen in einem erkannten Objekt in einem Bild erkannt, indem Regions-Daten des Objekts im Bild mit vorgegebenen Regions-Daten für entsprechende Klassen von Objekten verglichen werden, und entweder ein Objekt oder Regions-Daten oder beide werden mit vorgegebenen Daten potentieller Bedrohungen verglichen, um festzustellen, ob das Objekt eine potentielle Bedrohung ist.
  • Um die oben angegebenen und zugehörigen Ziele zu erreichen, werden in der folgenden Beschreibung und der angefügten Zeichnung bestimmte erläuternde Aspekte und Ausführungen dargelegt. Diese zeigen nur einige der verschiedenen Arten, auf die ein oder mehrere Aspekte angewendet werden können. Weitere Aspekte, Vorteile und neuartige Merkmale der Offenbarung werden aus der folgenden genauen Beschreibung in Verbindung mit der angefügten Zeichnung deutlich.
  • Beschreibung der Zeichnung
  • 1 ist ein schematisches Blockdiagramm, das eine Umgebung zeigt, in der eine Erkennung potentiell bedrohlicher Objekte, wie hier vorgesehen, realisiert werden kann.
  • 2 ist ein Komponenten-Blockdiagramm, das eine oder mehrere Komponenten einer Umgebung zeigt, in der eine Erkennung potentiell bedrohlicher Objekte im Innern eines abgebildeten Behälters, wie hier vorgesehen, realisiert werden kann.
  • 3 ist ein Komponenten-Blockdiagramm, das eine Ausführungsform einer oder mehrerer Komponenten einer Umgebung zeigt, in der eine Erkennung potentiell bedrohlicher Objekte, wie hier vorgesehen, realisiert werden kann.
  • 4 ist ein weiteres Komponenten-Blockdiagramm, das eine Ausführungsform einer oder mehrerer Komponenten einer Umgebung zeigt, in der eine Erkennung potentiell bedrohlicher Objekte, wie hier vorgesehen, realisiert werden kann.
  • 5 ist ein weiteres Komponenten-Blockdiagramm, das eine Ausführungsform einer oder mehrerer Komponenten einer Umgebung zeigt, in der eine Erkennung potentiell bedrohlicher Objekte, wie hier vorgesehen, realisiert werden kann.
  • 6 ist ein Flussdiagramm eines beispielhaften Verfahrens zum Erkennen eines potentiell bedrohlichen Objektes.
  • 7 ist ein Flussdiagramm einer Ausführungsform eines beispielhaften Verfahrens zum Erkennen eines potentiell bedrohlichen Objektes.
  • 8 ist ein Flussdiagramm einer weiteren Ausführungsform eines beispielhaften Verfahrens zum Erkennen eines potentiell bedrohlichen Objektes.
  • 9 ist ein Flussdiagramm einer weiteren Ausführungsform eines beispielhaften Verfahrens zum Erkennen eines potentiell bedrohlichen Objektes.
  • 10 ist ein beispielhafter Graph, der eine Unterscheidungsgrenze von vorgegebenen Objekten zeigt.
  • 11 ist eine Darstellung einer beispielhaften Ausführungsform der Verwendung eines Bildgebungs-Bildes zum Erkennen des Vorhandenseins eines potentiell bedrohlichen Objektes.
  • 12 ist eine Darstellung eines beispielhaften Prozesses zur Erkennung von Bedrohungen, wobei ein oder mehrere der hier beschriebenen Verfahren und/oder Systeme realisiert sein können.
  • 13 ist eine Darstellung eines beispielhaften computerlesbaren Mediums, das von einem Prozessor ausführbare Instruktionen enthält, die gestaltet sind, um ein oder mehrere der hier dargelegten Einrichtungen zu verkörpern.
  • Genaue Beschreibung
  • Der beanspruchte Gegenstand der Erfindung wird nun mit Bezug auf die Zeichnung beschrieben, wobei durchgehend gleiche Referenznummern benutzt werden, um gleiche Elemente zu bezeichnen. In der folgenden Beschreibung werden zum Zweck der Erklärung zahlreiche spezielle Details dargelegt, um ein genaues Verständnis des beanspruchten Gegenstands der Erfindung vorzusehen. Es kann jedoch ersichtlich sein, dass der beanspruchte Gegenstand der Erfindung ohne diese speziellen Details realisiert werden kann. In anderen Fällen werden Anordnungen und Vorrichtungen in Form von Blockdiagrammen dargestellt, um die Beschreibung des beanspruchten Gegenstands der Erfindung zu vereinfachen.
  • Systeme und Verfahren, welche die Identifizierung potentiell bedrohlicher Objekte, die in elektronischen Geräten verborgen sind, durch Verwendung von Bildern erleichtern, die durch eine Bildgebungs-Vorrichtung erzeugt werden (z. B. einen Computertomographie-Scanner (CT)), wobei die elektronischen Geräte in Sicherheitsstationen an Flughäfen platziert sind, werden hier vorgesehen. Das heißt, in einer Ausführungsform werden hier Verfahren und Systeme zur Erkennung potentiell bedrohlicher Objekte vorgesehen, die in elektronischen Geräten verborgen sind, die im Innern von Behältern angeordnet sind, ohne dass die elektronischen Geräte aus dem der Abtastung unterzogenen Behälter genommen werden müssen. In einer anderen Ausführungsform werden ferner auch Verfahren und Systeme zur Erkennung potentiell bedrohlicher Objekte vorgesehen, die in einem verbergenden Objekt verborgen sind (z. B. einem Laptop-Computer oder anderen elektronischen Geräten), ohne ein potentiell bedrohliches Objekt (z. B. Sprengstoff) vom verbergenden Objekt (z. B. einem Laptop-Computer oder anderen elektronischen Geräten) zu segmentieren.
  • 1 ist eine Darstellung einer beispielhaften Umgebung 100 (z. B. einer Sicherheitsstation in einem Flughafen), in der ein System eingesetzt sein kann, um ein eine potentielle Bedrohung enthaltendes Objekt aus einer Klasse von Objekten zu erkennen, die in einem Behälter (z. B. Gepäck oder offenen Kästen) angeordnet sein können, oder die unter Verwendung einer Bildgebungs-Vorrichtung (z. B. einem CT-Scanner) direkt abgebildet werden können. In der beispielhaften Umgebung 100 umfasst die Bildgebungs-Vorrichtung eine Objekt-Abtastungs-Vorrichtung 102, wie etwa eine Sicherheits-Abtastvorrichtung (z. B. zur Überprüfung von Gepäck auf einem Flughafen). Die Abtast-Vorrichtung 102 kann dazu benutzt werden, ein oder mehrere Objekte 110 (z. B. eine Reihe von Koffern auf dem Flughafen) abzutasten. Die Abtast-Vorrichtung enthält typischerweise eine Strahlungsquelle 104 (z. B. eine Röntgenröhre), eine Anordnung von Strahlungsdetektoren 106 (z. B. Röntgendetektoren), eine Dreheinrichtung 112 (z. B. einen Laufschienen-Motor), um die Strahlungsquelle 104 und die Detektoren 106, die beide auf einer sich drehenden Scheibe (nicht gezeigt) montiert sein können, um das (die) abgetastete(n) Objekt(e) 110 zu drehen, und ein Fließband 108, das gestaltet ist, das (die) Objekt(e) 110 von einem vorgelagerten Teil (nicht gezeigt) der Objekt-Abtastungs-Vorrichtung 102 zu einem nachgelagerten Teil (nicht gezeigt) von 102 zu befördern. Es ist einzusehen, dass obwohl die Beispiel-Umgebung eine Röntgen-Abtast-Vorrichtung benutzt, die hier beschriebenen Systeme und Verfahren nicht auf Röntgen-Abtast-Vorrichtungen begrenzt sind. Zum Beispiel kann das System eine Infrarot-Bildgebungs-Vorrichtung benutzen, um Bilder auf Grundlage der Infrarot-Bildgebung eines oder mehrerer Objekte zu erzeugen.
  • Als ein Beispiel kann ein Computertomographie-(CT)-Sicherheits-Scanner 102, der eine Röntgenquelle 104, wie etwa eine Röntgenröhre, enthält, einen fächerförmigen, kegelförmigen keilförmigen oder anders geformten Röntgenstrahl erzeugen, der ein oder mehrere Objekte 110, wie etwa Koffer, in einem Untersuchungsbereich durchläuft. In diesem Beispiel werden die Röntgenstrahlen durch die Quelle 104 emittiert, durchlaufen den Untersuchungsbereich, der das (die) abzutastende(n) Objekt(e) 110 enthält, und werden durch eine Anordnung von Röntgen-Detektoren 106 gegenüber der Röntgenquelle 104 detektiert. Ferner kann eine Dreheinrichtung 112, wie etwa ein am Scanner befestigter Laufschienen-Motorantrieb, zum Beispiel dazu benutzt werden, die Röntgenquelle 104 und den Detektor 106 um das (die) Objekt(e) 110 zu drehen. Auf diese Weise können zum Beispiel Röntgen-Projektionen aus einer Vielzahl von Perspektiven des Koffers gesammelt werden, die einen Satz von Röntgen-Projektionen für das (die) Objekt(e) schaffen. Obwohl das System als ein System der dritten Generation dargestellt ist, kann ein Fachmann verstehen, dass Systeme der fünften Generation und andere Realisierungen auch in Erwägung gezogen werden. Als weiteres Beispiel können die Strahlungsquelle 104 und die Detektor-Anordnung 106 stationär bleiben, während das Objekt gedreht wird.
  • In der Beispiel-Umgebung 100 ist ein Daten-Messungs-System 114 funktionsfähig mit der Abtast-Vorrichtung 102 gekoppelt (z. B. auf einer sich drehenden Scheibe (nicht gezeigt) montiert), und ist typischerweise gestaltet, Informationen und Daten vom Detektor 106 zu sammeln, und kann dazu benutzt werden, die gesammelten Daten in Projektions-Raum-Daten 150 für ein Objekt 110 zusammenzustellen. Als Beispiel können Röntgen-Projektionen in jeder aus einer Vielzahl von Winkelpositionen bezüglich des Objektes 110 erfasst werden. Da das Förderband 108 das (die) Objekt(e) 110 von einem vorgelagerten Teil (nicht gezeigt) der Objekt-Abtast-Vorrichtung 102 zu einem nachgelagerten Teil (nicht gezeigt) befördert, kann ferner die Vielzahl von winkeligen Röntgen-Projektionen an einer Vielzahl von Punkten entlang einer Achse des Förderbandes bezüglich des Objektes (der Objekte) 110 erfasst werden (z. B. einer spiralförmigen Bewegungsbahn bezüglich des abgetasteten Objektes). In einer Ausführungsform kann die Vielzahl von Winkel-Projektionen eine X-Achse und eine Y-Achse umfassen, die in einer Ebene der sich drehenden Scheibe definiert sind, und eine Z-Achse kann auch als die Richtung definiert werden, entlang der sich das Förderband bewegt.
  • In der Beispiel-Umgebung 100 ist ein Bild-Rekonstruierer 116 mit dem Daten-Messungs-System 114 gekoppelt und ist gestaltet, die Daten 150 vom Daten-Messungs-System 114 zu empfangen und Bilddaten 152 zu erzeugen, die bezeichnend für das abgetastete Objekt 110 sind, wobei ein geeignetes analytisches, iteratives und/oder Rekonstruktions-Verfahren verwendet wird (z. B. Rückprojektion vom Projektionsbereich in den Bildbereich).
  • In einer Ausführungsform können zum Beispiel die Bilddaten 152 für einen Koffer schließlich auf einem Monitor 118 (z. B. Desktop- oder Laptop-Computer) zur Beobachtung durch den Menschen angezeigt werden. In dieser Ausführungsform kann ein Bediener das Bild isolieren und manipulieren, zum Beispiel drehen und den Koffer aus einer Vielzahl von Winkeln, Zoom-Ebenen und Positionen betrachten.
  • Es ist einzusehen, dass obwohl die Beispiel-Umgebung 100 den Bild-Rekonstruierer 116 benutzt, um Bilddaten aus den vom Daten-Messungs-System 114 erzeugten Daten 150 zu rekonstruieren, zum Beispiel für einen abgetasteten Koffer, die hier beschriebenen Verfahren und Systeme nicht auf diese Ausführungsform beschränkt sind. In einer anderen Ausführungsform können zum Beispiel Bilddaten durch eine Bildgebungs-Vorrichtung erzeugt werden, die nicht mit dem System zum Erkennen eines eine potentielle Bedrohung enthaltenden Objekts gekoppelt ist. In diesem Beispiel können die Bilddaten auf einer elektronischen Speichervorrichtung (z. B. CD ROM, Festplatte, Flash-Speicher) gespeichert und an das System geliefert werden, um ein eine potentielle Bedrohung enthaltendes Objekt elektronisch zu erkennen.
  • In der Beispiel-Umgebung 100 kann in einer Ausführungsform zum Beispiel ein Objekt-Segmentierer 130 die Bilddaten 164 für das (die) abgetasteten Objekt(e) (z. B. ein Handgepäck-Koffer, der einen Laptop-Computer enthält) empfangen, um die Objekt-Segmentierung im Bild des Objektes (der Objekte) 110 durchzuführen. In diesem Beispiel kann der Objekt-Segmentierer 130 gestaltet sein, Objekte im Innern eines Behälters in einem Bildgebungs-Bild des Behälters zu segmentieren. In einer Ausführungsform kann der Objekt-Segmentierer 130 Bilddaten für ein oder mehrere segmentierte Objekte 152 erzeugen.
  • Als Beispiel kann ein Röntgen-Scanner oder ein CT-Scanner in einem Sicherheits-Kontrollpunkt auf einem Flughafen eingesetzt werden, um das Gepäck der Passagiere zu überprüfen. Das durch den Scanner gehende Gepäck kann tragbare elektronische Geräte enthalten, wie beispielsweise Laptop-Computer, tragbare Videospiele, tragbare DVD-Player, Videokameras, usw. In diesem Beispiel kann der Objekt-Segmentierer 130 das tragbare elektronische Gerät in einem Bild des Gepäcks, das von dem Röntgen-Scanner oder dem CT-Scanner erzeugt wurde, segmentieren (z. B. in dem Bild das Gerät von den anderen Objekten im Gepäck trennen). Als weiteres Beispiel kann ein tragbares elektronisches Gerät aus dem Gepäck des Passagiers herausgenommen und in einem offenen Kasten platziert werden, um es durch einen Röntgen-Scanner oder einen CT-Scanner abzutasten (z. B. fordern die aktuellen FAA-Vorschriften, dass Laptop-Computer vor der Kontrolle aus dem Gepäck eines Passagiers zu entnehmen sind). In diesem Beispiel kann der Objekt-Segmentierer 130 in der Lage sein, das tragbare elektronische Gerät in einem Bild des offenen Kastens, das von dem Röntgen-Scanner oder einem CT-Scanner erzeugt wird, zu segmentieren. Es ist einzusehen, dass in dieser Beispiel-Umgebung ein Objekt auch direkt abgebildet werden kann (z. B. durch einen Röntgen-Scanner oder einen CT-Scanner abgetastet werden kann), und nicht in einem Behälter (z. B. Gepäck oder offener Kasten) angeordnet sein kann.
  • In der Beispiel-Umgebung 100 können Bilddaten für Objekte 152 zu einem Objektklassen-Identifizierer 120 gesendet werden, der gestaltet sein kann, Daten eines segmentierten Objektes 152 mit vorgegebenen Objektklassen-Daten zu vergleichen (z. B. Daten für eine Anzahl von Klassen von tragbaren elektronischen Geräten, wie etwa Laptops, tragbare Videospiele, tragbare DVD-Player, usw.), um festzustellen, ob das segmentierte Objekt zu einer bestimmten Klasse von Objekten gehört. In einer Ausführungsform können die vorgegebenen Objektklassen-Daten für eine Vielfalt tragbarer elektronischer Geräte gesammelt werden, die zu verschiedenen Klassen gehören, zum Beispiel Laptop-Computer, tragbare DVD-Player, Media-Player, tragbare Videospiele und andere. In dieser Ausführungsform können die Daten für zu jeweiligen Klassen gehörende Geräte gesammelt und gespeichert werden, indem die Geräte einer Bildgebung unterzogen werden (z. B. durch einen CT-Scanner abgetastet werden), wobei dieselbe Bildgebungs-Vorrichtung verwendet wird, wie sie in der Beispiel-Umgebung 100 eingesetzt wird. Auf diese Weise können zum Beispiel Daten, die durch den Überprüfungsprozess erzeugt wurden, mit den vorgegebenen Daten verglichen werden, um zu erkennen, zu welcher der Klassen das segmentierte Objekt gehört.
  • In der Beispiel-Umgebung 100 können Objekt-Bilddaten und Klassen-Informationen 154 zu einem Objekt-Partitionierer 122 gesendet werden, der gestaltet sein kann, ein Objekt (z. B. einen Laptop-Computer) unter Verwendung von Eigenanalyse in Objekt-Partitionen (z. B. Schichten des Laptop-Computers) aufzuteilen. Als Beispiel kann ein Laptop-Computer oft in drei Schichten entlang einer Höhenrichtung unterteilt werden. In diesem Beispiel können ein Bildschirm und eine Tastatur zu einer oberen Schicht gehören, eine Festplatte, ein Speicher und ein optisches Laufwerk können sich in einer mittleren Schicht befinden, und eine Batterie und ein Motherboard können sich in einer unteren Schicht befinden. Typischerweise können die jeweiligen Schichten bestimmte Dichteverteilungen aufweisen, und wenn eine Platte oder eine Menge Sprengstoff zum Beispiel in eine Schicht eingebracht wurde, kann sich die Dichteverteilung der Schicht von der erwarteten unterscheiden. Auf diese Weise können zum Beispiel Informationen, die einen potentiell bedrohlichen Gegenstand erkennen, der in einer Bilddarstellung eines segmentierten Objekts verborgen ist, bestimmt werden, indem Objekt-Partitions-Informationen benutzt werden.
  • In der Beispiel-Umgebung 100 können in einer Ausführungsform Objekt-Partitions-Daten 156, die Daten enthalten, welche Partitionen ein einem Objekt aus einem Bildgebungs-Bild erkannt haben, zu einem Sub-Regions-Extraktor 128 gesendet werden. In dieser Ausführungsform kann der Sub-Regions-Extraktor 128 gestaltet sein, Sub-Regionen (160) in den erkannten Objekt-Partitionen (156) zu erkennen. Während ein Objekt zum Beispiel in Schichten aufgeteilt werden kann, können entsprechende Schichten weiter in Sub-Regionen aufgeteilt werden. Als Beispiel kann eine mittlere Schicht eines Laptop-Computers ein optisches Laufwerk, eine Festplatte, einen Speicher und ein Modem oder eine Netzwerk-Einrichtung enthalten. In einer Ausführungsform können Sub-Regionen einer Partition eines Objekts erkannt werden, zum Beispiel um sie mit bekannten Daten zu vergleichen. In dieser Ausführungsform können Sub-Regions-Daten 160 für entsprechende Partitionen des Objekts erzeugt werden.
  • In der Beispiel-Umgebung 100 können Objekt-Partitions-Daten 156 (und/oder in einer Ausführungsform Sub-Regions-Daten 160) zu einem Layout-Merkmalvektor-Generator 124 gesendet werden, der gestaltet sein kann, ein oder mehrere Layout-Merkmalvektoren für das Objekt zu erzeugen. Als Beispiel kann ein Layout-Merkmalvektor Mittelwerte, Standardabweichungen und andere höhere abgeleitete Werte von Dichtewerten in Bereichen der interessierenden Dichte enthalten, um eine Bedrohung in einer bestimmten Schicht oder Partition des Objektes zu erkennen. Zum Beispiel kann ein Bereich der interessierenden Dichte von 0,5 g/cm3 bis 2,5 g/cm3 liegen. Als weiteres Beispiel kann ein Layout-Merkmalvektor auch Massen enthalten, die aus Dichtewerten in Bereichen der interessierenden Dichte berechnet wurden, um eine Bedrohung in bestimmten Schichten oder Partitionen des Objektes zu erkennen. Massen, Mittelwerte, Standardabweichungen und andere angeleitete Werte der Dichtewerte können auch aus unterschiedlichen Bereichen der interessierenden Dichte kombiniert und angesammelt werden, um Bedrohungen zu erkennen und Merkmalwerte des Layout-Merkmalvektors zu werden. Die abgeleiteten Werte der Dichtewerte können zum Beispiel lokale Gradientenverteilungen, mittlere Gradienten, Kurtosis, Schiefe usw. umfassen.
  • In der Beispiel-Umgebung 100 kann ein Bedrohungs-Ermittler 126 ein oder mehrere Layout-Merkmalvektoren 158 für ein Objekt empfangen. Der Bedrohungs-Ermittler 126 kann gestaltet sein, den einen oder die mehreren Layout-Merkmalvektoren mit einer oder mehreren vorgegebenen Grenzen zu vergleichen, die den Klassen des Objekts entsprechen, um festzustellen, ob das Objekt eine potentielle Bedrohung (z. B. Sprengstoff) enthält.
  • In einer Ausführungsform kann eine Grenze aus einem Trainingsprozess erhalten werden. Im Trainingsprozess können Objekte, die bedrohliche Objekte enthalten und Objekte, die keine bedrohlichen Objekte enthalten, mit derselben Bildgebungs-Vorrichtung abgetastet werden, wie sie bei der Überprüfung verwendet wird (wie oben beschrieben). In dieser Ausführungsform werden die Grenzen erhalten, um Objekte, die bedrohliche Objekte enthalten, von Objekten abzugrenzen, die keine bedrohlichen Objekte enthalten. Es ist einzusehen, dass verschiedene Algorithmen, wie etwa Support-Vektor-Maschine, neuronales Netz, Eigen-Hauptkomponentenanalyse, Independent Component Analysis und weitere, dazu benutzt werden können, zwei Klassen von Objekten zu trennen (eine, die keine Bedrohung enthält und die andere, die eine Bedrohung enthält). Ein Fachmann kann alternative Verfahren entwickeln, um zwei Klassen von Objekten zu trennen, und die hier beschriebenen Verfahren und Systeme sind nicht auf ein bestimmtes Verfahren zum Trennen von zwei Klasasen von Objekten beschränkt.
  • Als Beispiel kann vor der Überprüfung von Gepäck an einem Sicherheits-Kontrollpunkt eine Reihe von Laptop-Computern einer CT-Abtastung unterzogen werden, wobei ein CT-Scanner desselben Typs verwendet wird, wie er am Sicherheits-Kontrollpunkt eingesetzt wird. In diesem Beispiel können die Laptops ohne einen potentiell bedrohlichen Gegenstand (z. B. Sprengstoff) und mit dem potentiell bedrohlichen Gegenstand abgetastet werden. Auf diese Weise kann in diesem Beispiel eine Grenze für Layout-Merkmalvektoren bestimmt werden, die diese Gegenstände mit dem bedrohlichen Objekt von Gegenständen ohne Bedrohung trennt. Daher kann zum Beispiel, wenn ein Laptop an der Sicherheitsstation abgetastet wird, ein Layout-Merkmalvektor aus der Abtastung mit der Grenze verglichen werden. Auf diese Weise kann in diesem Beispiel, wenn ein Layout-Merkmalvektor für den überprüften Laptop sich auf einer Seite der Grenze befindet, die eine Bedrohung enthaltenden Gegenständen entspricht, der Laptop als potentiell eine Bedrohung enthaltendes Objekt gekennzeichnet werden.
  • Informationen darüber, ob ein abgetastetes Objekt potentiell eine Bedrohung enthält 162, können zum Beispiel an ein Terminal 118 in der Beispiel-Umgebung 100 gesendet werden, das ein Display enthält, welches von Sicherheitspersonal an einem Gepäck-Kontrollpunkt betrachtet werden kann. Auf diese Weise können in diesem Beispiel Informationen über potentielle Bedrohungen in Echtzeit für Objekte, die einer Abtastung durch einen Sicherheits-Scanner 102 unterzogen werden, abgerufen werden.
  • In einem Aspekt kann ein eine potentielle Bedrohung enthaltendes Objekt sich im Innern eines Behälters (z. B. in einem Gepäckstück oder einem Sicherheitskontrollkasten) befinden. Zum Beispiel werden Passagiere, die in Flughafen-Terminals eintreten, typischerweise aufgefordert, Handgepäck durch eine Abtastvorrichtung zu geben, die das Gepäck abbilden kann (ein Röntgenbild des Gepäcks erzeugen kann), um die Bestimmung seines Inhalts zu vereinfachen (z. B. ob es potentiell bedrohliche Gegenstände enthält, wie etwa Sprengstoff, Pistolen, Messer, usw.). In diesem Beispiel führen Passagiere auf Reisen oft Laptop-Computer mit sich, und ein Laptop-Computer kann dazu benutzt werden, einen bedrohlichen Gegenstand zu verbergen (z. B. plattenförmigen Sprengstoff zwischen Schichten oder Sprengstoff-Stücke in Fächern für Komponenten). Obwohl Passagiere typischerweise aufgefordert werden, Laptops aus dem Gepäck zu nehmen und in offene Kästen zu platzieren, kann es zum Beispiel vorteilhaft (z. B. nützlich) sein, in der Lage zu sein, Laptops (und andere tragbare elektronische Geräte) im Gepäck zu erkennen, und dann weiter festzustellen, ob Laptop-Computer potentiell bedrohliche Gegenstände enthalten.
  • 2 ist ein Komponenten-Blockdiagramm, das eine Ausführungsform eines Objekt-Segmentierers 130 zeigt, der gestaltet sein kann, Objekte im Innern eines Behälters (z. B. Gepäck) zu segmentieren, wobei Bilddaten benutzt werden, die erzeugt werden, indem der Behälter mit einer Bildgebungs-Vorrichtung (z. B. einem Röntgen-Scanner oder einem CT-Scanner) abgebildet wird. Die Bilddaten werden zu einem Bildelement-Selektor 204 gesendet. Der Bildelement-Selektor 204 kann gestaltet sein, Elemente (z. B. Voxel in einem dreidimensionalen Bild oder Pixel in einem zweidimensionalen Bild) im Bild des abgetasteten Behälters 164 auszuwählen, die eine Eigenschaft (z. B. Messwerte der Dichte oder Ordnungszahl (Z), Dichte-Gradienten, Z-Gradienten) aufweisen, die einem ersten vorgegebenen Eigenschaftsbereich entspricht. Auf diese Weise können zum Beispiel Elemente eines Bildes auf der Grundlage einer oder mehrerer vorgegebener Eigenschaften ausgewählt werden. Es ist einzusehen, dass Eigenschaften eines Bildelementes abgeleitete Eigenschaften (z. B. Dichte-Gradienten, Z-Gradienten) und/oder andere Eigenschaften (z. B. Messwerte der Dichte oder Ordnungszahl (Z)) umfassen können, und das hier beschriebene System ist nicht auf bestimmte Eigenschaften beschränkt, lediglich dass ein oder mehrere Element-Eigenschaften benutzt werden können, Elemente in einem Bild auszuwählen.
  • In einer Ausführungsform kann der Bildelement-Selektor 204 so gestaltet sein, dass Voxel (z. B. Volumenelemente in einem dreidimensionalen Bild) in einem dreidimensionalen Bild des Objekts ausgewählt werden, die eine Dichte in einem oder mehreren spezifizierten Bereichen aufweisen (z. B. in einem Bereich, der tragbare elektronische Geräte umfasst), wie etwa Dichte-Gradienten (aus der Dichte abgeleitete Eigenschaft) oder Z-Gradienten (aus dem gemessenen Z abgeleitete Eigenschaft) in einem oder mehreren spezifizierten Bereichen. In einer anderen Ausführungsform kann der Bildelement-Selektor 204 so gestaltet sein, dass Pixel (z. B. Flächenelemente in einem zweidimensionalen Bild) in einem zweidimensionalen Bild des Objekts ausgewählt werden, die eine Bildhelligkeit in einem oder mehreren spezifizierten Bereichen aufweisen (z. B. in einem Bereich, der tragbare elektronische Geräte umfasst).
  • Es ist einzusehen, dass obwohl in Beispiel-Ausführungsformen Voxel und Pixel benutzt werden, die hier beschriebenen Verfahren und Systeme nicht auf diese Ausführungsformen beschränkt sind. Voxel sind lediglich Volumenelemente und Pixel sind lediglich Flächenelemente für Bilder. Fachleute können andere Ausführungsformen entwickeln, die andere Volumen- und Flächenelemente zur Auswahl enthalten, die durch die hier beschriebenen Verfahren und Systeme vorausgesehen werden.
  • In 2 umfasst die Beispiel-Ausführungsform des Objekt-Segmentierers 130 ferner einen Kombinations-Generator für dilatierte Elemente 208. In dieser Ausführungsform empfängt ein im Kombinations-Generator für dilatierte Elemente 208 angeordneter Bildelement-Dilatator 210 Bilddaten der ausgewählten Bildelemente und kann gestaltet sein, den jeweiligen ausgewählten Bildelementen benachbarte Bildelemente im Bild zu erkennen, die eine Eigenschaft aufweisen (z. B. ein oder mehrere Eigenschaften oder zugehörige abgeleitete Werte der Eigenschaften), die einem zweiten vorgegebenen Eigenschaftsbereich entspricht (z. B. der einen oder mehreren Eigenschaften oder zugehörigen abgeleiteten Werte der Eigenschaften). Als Beispiel kann der Bildelement-Dilatator 210 Elemente (z. B. Voxel oder Pixel) bewerten, die den ausgewählten Bildelementen benachbart sind (z. B. räumlich mit ihnen verbunden sind), und feststellen, ob eine Eigenschaft (z. B. eine oder mehrere Eigenschaften, wie etwa Dichte und Z) der Nachbarn innerhalb eines anderen vorgegebenen Bereichs liegt.
  • In einer Ausführungsform kann der Bildelement-Dilatator 210 Voxel bewerten, die entsprechenden ausgewählten, vom Bildelement-Selektor 204 erzeugten Voxeln benachbart sind (z. B. räumlich mit ihnen verbunden sind). In dieser Ausführungsform können benachbarte Voxel mit einer Dichte, die zum Beispiel in einen vorgegebenen Bereich für ein tragbares elektronisches Gerät liegt, durch den Bildelement-Dilatator 210 erkannt werden. In einer anderen Ausführungsform kann der Bildelement-Dilatator 210 dazu verwendet werden, benachbarte Pixel in einem zweidimensionalen Bild zu erkennen, die eine Bildhelligkeit aufweisen, die zum Beispiel in einem vorgegebenen Bereich für ein tragbares elektronisches Gerät liegt. Es ist einzusehen, dass ”benachbart” bei dreidimensionalen Bildern eine räumliche Verbindung, bei zweidimensionalen Bildern eine Verbindung umfassen kann, aber auch Kombinationen umfassen kann, bei denen die benachbarten Elemente nicht verbunden sind, wie es ein Fachmann ersinnen kann.
  • In der Beispiel-Umgebung des Objekt-Segmentierers 130 umfasst der Kombinations-Generator für dilatierte Elemente 208 ferner einen Kombinierer für dilatierte Bildelemente 212, der gestaltet sein kann, die von 204 erzeugten ausgewählten Bildelemente und die von 210 erzeugten erkannten benachbarten Bildelemente zu kombinieren, um ein oder mehrere segmentierte Objekte 154 zu erzeugen. Als Beispiel kann der Kombinierer für dilatierte Bildelemente 212 die ausgewählten Bildelemente mit entsprechenden benachbarten, vom Element-Dilatator 210 erkannten Elementen kombinieren, um Bilddaten der segmentierten Objekte 154 für den Behälter 110, der durch eine Bildgebungs-Vorrichtung 102 abgebildet wird, zu erzeugen.
  • In einem weiteren Beispiel kann der Kombinierer für dilatierte Bildelemente 212 einen Connected Component Labeling (CCL) genannten Algorithmus auf ausgewählte Bildelemente und erkannte benachbarte Bildelemente anwenden, um segmentierte Objekte zu erzeugen. In diesem Bespiel können die segmentierten Objekte erzeugt werden, indem die Bildelemente, die physikalisch eng aneinander liegen und Eigenschaften (z. B. einschließlich abgeleiteter Eigenschaften) innerhalb eines vorgegebenen Bereichs der Eigenschaften (z. B. und entsprechende abgeleitete Eigenschaften) aufweisen, gruppiert werden.
  • In einer Ausführungsform können vom Element-Dilatator 210 erkannte benachbarte Voxel mit den Voxeln kombiniert werden, die vom Bildelement-Selektor 204 erzeugt wurden, um Bilddaten 154 für segmentierte tragbare elektronische Gerate zu erzeugen, die sich in einem Behälter (z. B. einem Gepäckstück) befinden, der zum Beispiel an einem Sicherheits-Kontrollpunkt auf einem Flughafen von einem CT-Scanner abgetastet wird. In einer anderen Ausführungsform können benachbarte Pixel in einem zweidimensionalen Bild mit Pixeln kombiniert werden, die vom Bildelement-Selektor 204 erzeugt wurden.
  • In einer Ausführungsform dieses Aspektes, zum Beispiel wenn mehr als ein Objekt in den Bilddaten kombiniert und aus ihnen erzeugt wurde, kann der Objekt-Segmentierer 130 einen Objekt-Splitter 214 enthalten. In dieser Ausführungsform kann der Objekt-Splitter 214 gestaltet sein festzustellen, ob ein segmentiertes Objekt eine Ansammlung von mehr als einem physikalischen Objekt umfasst und das verbundene Objekt in zwei oder mehr Objekte aufteilen. Wenn zum Beispiel zwei Objekte mit ähnlicher Dichte in einem Gepäckstück angeordnet sind, so dass sie sich berühren, kann der Kombinations-Generator für dilatierte Elemente 208 die beiden Gegenstände als einen zusammenfassen. In diesem Beispiel kann der Objekt-Splitter 214 erkennen, dass zwei Objekte verbunden sind, und sie in den Bilddaten in zwei getrennte Objekte aufteilen. In diesem Beispiel können ferner Algorithmen, wie Mean Shift Segmentation und auf Dichte- und Raum-Histogramm basierende Analyse verwendet werden, um eine solche Ansammlung aufzuteilen.
  • In einer weiteren Ausführungsform dieses Aspektes, zum Beispiel wenn ein tragbares elektronisches Gerät, wie etwa ein Laptop-Computer, in einen offenen Kasten platziert wird, um durch eine Röntgen-Abtast-Vorrichtung angetastet zu werden, kann ein Objekt-Segmentierer in der Lage sein, das Gerät in einem resultierenden Bild schnell zu segmentieren, ohne den Bildelement-Selektor 204 oder den Kombinations-Generator für dilatierte Bildelemente 208 zu benutzen. 3 ist ein Komponenten-Blockdiagramm, das eine Ausführungsform 300 eines Objekt-Segmentierers zeigt (z. B. wie in 1, 130), der gestaltet ist, Objekte in einem Behälter, wie etwa einem offenen Kasten, zu segmentieren.
  • In dieser Ausführungsform 300 kann ein Prozessor für eindimensionale Bilddaten 302 gestaltet sein, eindimensionale Repräsentationen einer oder mehrerer Achsen eines Bildgebungs-Bildes 350 (z. B. umfassend einen Behälter, der ein oder mehrere Objekte enthält) zu erzeugen. In einer Ausführungsform können Achsen eines Bildes eine X-Achse umfassen, die einer horizontalen Achse in dem Bild entspricht (z. B. entlang einer Breite des Bildes über ein Förderband, das einen abgetasteten Kasten transportiert), eine Y-Achse, die einer vertikalen Achse im Bild entspricht (z. B. entlang einer Höhe des Bildes vom Förderband aufwärts), und eine Z-Achse, die einer Bandrichtung entspricht (z. B. einer Richtung, in der sich das Förderband beim Abtasten von Gegenständen bewegt). In dieser Ausführungsform können eindimensionale Projektionen (z. B. in einem Grafen gezeichnete Linien) für entsprechende Achsen erzeugt werden, wobei zum Beispiel aktuelle rekonstruierte Bilddaten benutzt werden, indem Bildelemente in einer durch die restlichen Achsen definierten Ebene aufsummiert werden. Als Beispiel können X-Achsen-Projektionsdaten erzeugt werden, indem entsprechende Bildelemente auf entsprechenden Y-Z-Ebenen bezüglich einer entsprechenden x-Koordinate auf der X-Achse aufsummiert werden.
  • In der Ausführungsform 300 von 3 kann ein Achsdaten-Prozessor 304 gestaltet sein, Datenpunkte in einer eindimensionalen Repräsentation einer Achse mit einem vorgegebenen Schwellwert zu vergleichen. In einer Ausführungsform können Datenpunkte entlang einer eindimensionalen Repräsentation der Achse eines Bildes zum Beispiel Schnitten des Bildes entlang dieser Achse aus rekonstruierten Bilddaten entsprechen. Der Achsdaten-Prozessor 304 kann entsprechende Datenpunkte mit einem vorgegebenen Schwellwert vergleichen (der z. B. durch Abtasten tragbarer elektronischer Geräte unter Verwendung desselben Typs von Scanner, wie er zum Abtasten des offenen Kastens mit den fraglichen Objekten verwendet wird, festgelegt wird), und feststellen, welche Datenpunkte über dem vorgegebenen Schwellwert liegen.
  • In der Ausführungsform 300 von 3 kann ein Fortsetzungs-Bewertungszahl-Generator 306 gestaltet sein, eine Bewertungszahl zu erzeugen, die einer gewünschten Anzahl aufeinander folgender Datenpunkte entspricht, die größer sind als der Schwellwert für die entsprechenden Achsen. In einer Ausführungsform kann eine Fortsetzungs-Bewertungszahl eine Anzahl von Datenpunkten umfassen, die sowohl aufeinander folgen als auch über dem vorgegebenen Schwellwert liegen. In dieser Ausführungsform kann der Fortsetzungs-Bewertungszahl-Generator 306 ein oder mehrere Segmente der eindimensionalen Repräsentation einer Bildachse erkennen, die sowohl aufeinander folgen als auch über dem vorgegebenen Schwellwert liegen. Wenn lediglich ein Segment erkannt wird, kann der Fortsetzungs-Bewertungszahl-Generator 306 die Bewertungszahl dieses Segments benutzen, wenn jedoch mehr als ein Segment erkannt wird, die sowohl aufeinander folgen als auch über dem vorgegebenen Schwellwert liegen, kann der Fortsetzungs-Bewertungszahl-Generator 306 die Bewertungszahl des Segments benutzen, das die größte Bewertungszahl aufweist. Es ist einzusehen, dass Fachleute Verfahren und Systeme entwickeln können, bei denen eine andere gewünschte Bewertungszahl verwendet wird, wie etwa Verwendung des zweiten Maximums und des Medians.
  • In der Ausführungsform 300 kann eine Fortsetzungs-Bewertungszahl-Vergleichskomponente 308 gestaltet sein, um Fortsetzungs-Bewertungszahlen mit vorgegebenen Bewertungszahlen für eine oder mehrere Klassen zu vergleichen, um festzustellen, ob ein Objekt einer Klasse von Objekten entspricht. In einer Ausführungsform kann man vorgegebene Fortsetzungs-Bewertungszahlen erzeugen, indem man eine Vielzahl von tragbaren elektronischen Geräten, die zu jeweiligen Klassen gehören (z. B. Laptop-Computer, tragbare DVD-Player, tragbare Videospiele, Media-Player, usw.), einer Bildgebung unterzieht, wobei eine Bildgebungs-Vorrichtung desselben Typs verwendet wird, wie sie für ein fragliches Bild benutzt wird. In dieser Ausführungsform können vorgegebene Fortsetzungs-Bewertungszahlen für jeweilige Klassen erzeugt werden, und die Fortsetzungs-Bewertungszahl-Vergleichskomponente 308 kann eine durch den Fortsetzungs-Bewertungszahl-Generator 306 erzeugte Fortsetzungs-Bewertungszahl mit vorgegebenen Fortsetzungs-Bewertungszahlen für jeweilige Klassen von Objekten vergleichen, um festzustellen, ob zum Beispiel das Objekt in dem offenen Kasten zu einer der Klassen von Objekten gehört.
  • In einer anderen Ausführungsform kann der Objekt-Segmentierer (z. B. wie in 1, 130) einen Bild-Objektdaten-Generator enthalten, der gestaltet sein kann, eine Bounding-Box für ein gewünschtes Objekt in dem offenen Kasten zu erzeugen, wozu entsprechende Achsen-Projektions-Daten benutzt werden, zum Beispiel wie vom Achsdaten-Prozessor 304 erzeugt. In diesem Beispiel kann die Bounding-Box eine untere Grenzkoordinate und eine obere Grenzkoordinate für entsprechende Achsen umfassen. Die untere Grenzkoordinate für eine entsprechende Achse kann erkannt werden, indem entsprechende Achsen-Projektions-Daten als Koordinate eines ersten Datenpunktes benutzt werden, der größer ist als ein erster vorgegebener Schwellwert. Die obere Grenzkoordinate für eine entsprechende Achse kann erkannt werden, indem entsprechende Achsen-Projektions-Daten als eine Koordinate eines letzten Datenpunktes benutzt werden, der größer ist als ein zweiter vorgegebener Schwellwert. In dieser Ausführungsform kann das segmentierte Objekt zum Beispiel Bildelemente umfassen, die innerhalb von Bereichen vorgegebener Eigenschaften und abgeleiteter Eigenschaften von Bildelementen innerhalb der Bounding-Box liegen.
  • In einem weiteren Aspekt können bestimmte Objekte, wie etwa tragbare elektronische Geräte (z. B. Laptop-Computer) oft aus Komponenten bestehen, die sich für eine Vielzahl von Geräten derselben Klasse an einer ähnlichen Stelle befinden und ähnlich zusammengesetzt sind. Zum Beispiel bestehen Laptop-Computer typischerweise aus einem LCD-Bildschirm, einer Tastatur, einer Vielzahl interner Bauelemente, wie einem optischen Laufwerk, einer Festplatte und einer Modem/Netzwerk-Vorrichtung, einem Motherboard und einer Batterie. Ferner sind in diesem Beispiel die Komponenten für Laptops typischerweise auf ähnliche Weise angeordnet, wie etwa LCD-Bildschirme in einer obersten Schicht, Tastaturen unter dem LCD-Bildschirm, Laufwerke, Speicher und Modems in einer mittleren Schicht und das Motherboard und die Batterie in einer untersten Schicht.
  • Wegen der oben beschriebenen Anordnung kann man in einer Ausführungsform eine Vielzahl von Geräten aus jeweiligen Klassen von Geräten einer Bildgebung (z. B. einer CT-Abtastung) unterziehen, um einen Bereich an Merkmalvektoren für entsprechende Klassen zu bestimmen. Auf diese Weise kann zum Beispiel ein Objekt, das in einer Sicherheitsstation kontrolliert wird, partitioniert werden (z. B. Aufteilen der Bilddaten des Objekts in Schichten), und entsprechende Partitionen können mit vorgegebenen Daten für die dem Objekt entsprechende Klasse verglichen werden, um festzustellen, ob ein potentiell bedrohlicher Gegenstand im Innern des Objekts verborgen ist.
  • 4 ist ein Komponenten-Blockdiagramm einer Beispiel-Ausführungsform 400 eines Objekt-Partitionierers (z. B. wie in 1, 122), der gestaltet sein kann, ein segmentiertes Objekt auf der Grundlage der Klasse des Objektes unter Verwendung von Eigenanalyse in Objekt-Partitionen aufzuteilen. Die Beispiel-Ausführungsform umfasst einen Eigenvektor-Ermittler 402, der gestaltet sein kann, Eigenwerte und entsprechende Eigenvektoren des segmentierten Objekts 450 zu bestimmen. In einer Ausführungsform kann ein gewünschter Eigenwert durch eine Klasse von Objekten bestimmt werden, zu der das fragliche Objekt gehört. In dieser Ausführungsform kann zum Beispiel das Partitionieren des Objekts in Schichten von einer bestimmten Achse abhängen, in der das segmentierte Objekt orientiert ist.
  • Zum Beispiel kann wie oben beschrieben ein Laptop-Computer aus mehreren Schichten bestehen (z. B. drei Schichten: Bildschirm und Tastatur; Komponenten; Motherboard und Batterie), von oben nach unten gesehen, entlang einer dünnsten Abmessung des Laptops (z. B. wenn er flach auf einem Förderband liegt, einer Y-Achse, vertikal). Daher kann in diesem Beispiel ein gewünschter Eigenwert ein Minimalwert sein, da dieser Wert mit dem Eigenvektor verbunden sein kann, der sich auf der dünnsten Abmessung des Laptops befindet. Es ist einzusehen, dass obwohl einer Kontrolle unterzogene Objekte oft flach auf einem Förderband angeordnet werden, es sein kann, dass einige Objekte nicht auf eine solche Weise orientiert sind, und die Eigenvektoren der X-, Y- und Z-Achsen (wie oben beschrieben) dazu benutzt werden können, diese Einschränkung zu überwinden.
  • In der Beispiel-Ausführungsform 400 kann ein eindimensionaler Eigenprojektions-Generator 404 gestaltet sein, eine eindimensionale Projektion des segmentierten Objekts 454 entlang eines Eigenvektors zu erzeugen, der mit einem gewünschten Eigenwert verbunden ist (z. B. Minimum, Mitte oder Maximum). Als Beispiel kann, wenn ein gewünschter Eigenwert ein minimaler Eigenwert ist, wie etwa wenn ein Laptop-Computer partitioniert wird, der eindimensionale Eigenprojektions-Generator 404 eine Eigenprojektion auf eine Achse durchführen, die dem Eigenvektor entspricht, der mit dem minimalen Eigenwert verbunden ist, um eindimensionale Projektionsdaten des segmentierten Objekts im Bild zu erzeugen.
  • Eine Ausführungsform, die eine eindimensionale Eigenprojektion auf eine Achse durchführt, die einem Eigenvektor entspricht, kann es umfassen, eine Eigenprojektion auf eine Ebene mit einer Normalen eines Eigenvektors des segmentierten Objekts im Bild durchzuführen, was im US-Patent Nr. 6,345,113 , Crawford et al. mit dem Titel Apparatus and Method for Processing Object Data in Computed Tomography Data Using Objekt Projektions (Vorrichtung und Verfahren zur Verarbeitung von Objektdaten in Computertomographie-Daten unter Verwendung von Objekt-Projektionen) offenbart wird. Zum Beispiel können in dieser Ausführungsform Eigenwerte und Eigenvektoren einer Kovarianzmatrix aus Koordinaten von Bildelementen des segmentierten Objekts im Bild bestimmt werden, und Eigenwerte können entsprechend ihrer Größe klassifiziert werden, und es kann ein Eigenvektor bestimmt werden, der einem kleinsten Eigenwert entspricht. Als Nächstes können die dem segmentierten Objekt entsprechenden Bildelemente auf die Ebene sekrecht zu einem Eigenvektor projiziert werden (d. h. Eigenvektor, der dem minimalen Eigenwert entspricht), wobei die Projektion als Ebenen-Eigenprojektion bezeichnet wird. In einer Ausführungsform steht die Projektion in Beziehung zu einem Zählwert einer Anzahl von Objekt-Voxeln über oder unter einem Projektions-Pixel in einer Richtung eines ausgewählten Eigenvektors. In dieser Ausführungsform sind die Pixel-Werte in der Eigenprojektion proportional zu einer Objekt-Dicke entlang Strahlen senkrecht zur Projektionsebene. Ferner können in dieser Ausführungsform die Projektionen die Form des Objektes repräsentieren, aber nicht die Dichte. In einer alternativen Ausführungsform werden die Projektions-Pixel unter Verwendung von Objekt-Voxel-Eigenschaften (d. h. Dichten) berechnet. In dieser alternativen Ausführungsform kann für entsprechende Projektions-Pixel ein Zählwert berechnet werden, wobei Objekt-Voxel benutzt werden, die entsprechend ihrer Eigenschaften gewichtet sind. In einer anderen Ausführungsform kann eine eindimensionale Eigenprojektion, die einem Eigenvektor entspricht, der mit einem gewünschten Eigenwert verbunden ist, direkt berechnet werden, indem die Bildelemente auf einer Ebene aufsummiert werden, die senkrecht zu einem Eigenvektor an entsprechenden Koordinaten-Stufen ist, ohne Ebenen-Eigenprojektionen zu berechnen.
  • In der Ausführungsform 400 werden eindimensionale Projektionen für entsprechende Eigenvektoren zu einem eindimensionalen Projektions-Filter 406 gesendet, das gestaltet sein kann, in der eindimensionalen Projektion des Objekts 454 kleine Schwankungen zu glätten und Spitzen hervorzuheben. In einer Ausführungsform kann eine eindimensionale Projektion des Objekts 454 zum Beispiel Rauschen enthalten, das viele kleine Schwankungen in der Reihe erzeugen kann. In dieser Ausführungsform kann, um einige der kleinen Schwankungen zu entfernen, die keinen Einfluss auf das Partitionieren haben, und um Spitzen in den Projektionsdaten hervorzuheben, ein Projektions-Filter angewendet werden. Es ist einzusehen, dass es viele verschiedene Filter gibt, die eingesetzt werden können, um Signalrauschen zu verringern und Spitzen hervorzuheben. Die hier beschriebenen Verfahren und Systeme sind nicht auf ein bestimmtes Filter beschränkt, und Fachleute können Filter entwickeln, die in einer eindimensionalen Projektion von Achsen des Objekts 454 Rauschen verringern und Spitzen hervorheben können.
  • In der Ausführungsform 400 werden gefilterte eindimensionale Projektionen für entsprechende Eigenvektoren 456 zu einem Partitions-Identifizierer 408 gesendet, der gestaltet sein kann, Objekt-Partitionen 458 in einem Objekt zu erkennen, die Spitzen-Modi in einer eindimensionalen Projektion 456 des segmentierten Objekts entsprechen. In einer Ausführungsform können Spitzen-Modi in den eindimensionalen Projektionen 456 Partitionen in einem Objekt repräsentieren, zum Beispiel Schichten in einer Klasse von Objekten (z. B. Laptops). In dieser Ausführungsform kann der Partitions-Identifizierer 408 die Spitzen-Modi nutzen, um das Objekt in Objekt-Partitionen 458 aufzuteilen, zum Beispiel durch Trennen eines Spitzen-Modus von benachbarten Spitzen-Modi. In diesem Beispiel kann das Trennen benachbarter Spitzen-Modi durchgeführt werden, indem ein Talpunkt zwischen zwei Spitzen erkannt wird, oder indem der Mittelpunkt zwischen zwei Spitzenpunkten genommen wird.
  • In einem anderen Aspekt können entsprechende Partitionen eines segmentierten Objekts zum Beispiel Komponenten enthalten, wie etwa Displays, Laufwerke, Speicher in tragbaren elektronischen Geräten. Wie oben beschrieben, kann eine Vielzahl von Geräten in Klassen vorklassifiziert werden, und Merkmalvektor-Daten können für entsprechende Klassen bestimmt werden. Ferner können in einer Ausführungsform Merkmalvektor-Daten für eine Vielzahl an Sub-Regionen (die z. B. Geräte-Komponenten enthalten) für entsprechende Klassen von Geräten bestimmt werden. 5 ist ein Komponenten-Blockdiagramm einer Beispiel-Ausführungsform 500 eines Sub-Regions-Extraktors (z. B. wie in 1, 128), der gestaltet sein kann, Sub-Regionen 160 in den erkannten Objekt-Partitionen 156 zu erkennen.
  • In dieser Beispiel-Ausführungsform 500 kann ein Sub-Regions-Identifizierer 502 gestaltet sein, eine oder mehrere potentielle Sub-Regionen 160 aus einer oder mehreren Klassen von Sub-Regionen in einer erkannten Partition 156 zu erkennen. In einer Ausführungsform können zum Beispiel (z. B. wie in 2, 200 beschrieben) Regionen (z. B. Voxel oder Pixel) in Bilddaten einer Objekt-Partition auf der Grundlage eines vorgegebenen Bereichs von Eigenschaften (z. B. Dichte und Ordnungszahl Z) ausgewählt und kombiniert werden, um eine oder mehrere potentielle Sub-Regionen (z. B. Komponenten in der Partition des Objekts in dem Bild, das verbundene Voxel enthält) auszubilden. Ferner kann in diesem Beispiel ein CCL-Algorithmus dazu benutzt werden, solche Sub-Regionen mit verschiedenen Sätzen von Parametern für verschiedene Klassen von gewünschten Komponenten zur Erkennung zu extrahieren.
  • Die Beispiel-Ausführungsform 500 umfasst ferner eine Sub-Regions-Vergleichs-Komponente 504, die gestaltet sein kann, die potentiellen Sub-Regions-Daten mit vorgegebenen Sub-Regions-Daten zu vergleichen, um festzustellen, ob die potentielle Sub-Region zu einer Klasse bekannter Sub-Regionen gehört. Zum Beispiel können Eigenschaften (z. B. Dichte, Masse, Abmessungen, usw.) für eine potentielle Sub-Region bestimmt werden, und die Sub-Regions-Vergleichs-Komponente 504 kann diese Eigenschaften mit vorgegebenen Eigenschaften bekannter Sub-Regionen (z. B. einer Batterie in einem Laptop) für eine bestimmte Klasse, zu der das Objekt gehört (z. B. Laptops) vergleichen. Auf diese Weise kann in diesem Beispiel bestimmt werden, ob eine potentielle Sub-Region eine bekannte Sub-Region für diese Partition in einer Klasse für das segmentierte Objekt ist.
  • Es kann ein Verfahren entwickelt werden, um ein oder mehrere potentiell eine Bedrohung enthaltende Objekte aus einer Klasse von Objekten zu erkennen, die unter Verwendung einer Bildgebungs-Vorrichtung einer Bildgebung unterzogen wurden. In einer Ausführungsform kann das Verfahren in einer zum Abtasten von Gepäck der Passagiere benutzten Sicherheitsstation auf einem Flughafen benutzt werden oder zum Abtasten von Geräten, die entweder in offene Sicherheitskontroll-Kästen oder direkt auf ein Förderband platziert wurden. In dieser Ausführungsform kann zum Beispiel Gepäck von Passagieren durch einen CT-Scanner geschickt werden, der einen Strom von Echtzeit-Bildern des abgetasteten Gepäcks erzeugen kann oder Echtzeit-Bilddaten an ein System zur automatischen Erkennung von Bedrohungen senden kann. In diesem Beispiel können sich beim Abtasten elektronische Geräte im Gepäck befinden, oder sie können zum Abtasten aus dem Gepäck genommen werden. Daher kann in diesem Beispiel das Verfahren zur Erkennung von Bedrohungen dazu benutzt werden, potentielle Bedrohungen im Innern von Objekten zu erkennen, die sich in Gepäck von Passagieren befinden, und/oder zum Erkennen potentieller Bedrohungen im Innern von Objekten, die in offenen Kästen oder direkt auf dem Förderband abgetastet werden.
  • 6 ist ein Flussdiagramm eines beispielhaften Verfahrens 600, um ein oder mehrere potentiell eine Bedrohung enthaltende Objekte, die einer Bildgebung unter Verwendung einer Bildgebungs-Vorrichtung unterzogen wurden, beim Abtasten in offenen Kästen oder direkt aus einer Klasse von Objekten zu erkennen. Das beispielhafte Verfahren 600 beginnt bei 602 und umfasst in 604 das Vergleichen der Objektdaten des Bildgebungs-Bildes mit vorgegebenen Objektklassen-Daten, um zu erkennen, ob das Objekt aus dem Bildgebungs-Bild zu einer Klasse bekannter Objekte gehört. Eine Vielfalt an Objekten kann in einer Sicherheitsstation durch eine Abtast-Operation gesendet werden. In einer Ausführungsform kann man Daten (z. B. Merkmale, wie etwa die Dichte, Dichteverteilung, Masse, Abmessungen, usw.) aus dem Bild für das Objekt mit vorgegebenen Daten vergleichen, um zu erkennen, zu welcher Klasse von Objekten das fragliche Objekt gehören könnte, wenn überhaupt.
  • Zum Beispiel kann ein tragbares elektronisches Gerät einem Abtasten an einer Sicherheitsstation eines Flughafens unterzogen werden, was zu Bilddaten für das abgetastete Gerät führt. In diesem Beispiel kann man die Dichte, Masse und Abmessungen des Objekts von den Bilddaten mit vorgegebenen Daten (z. B. vom Vor-Abtasten einer Vielzahl von Geräten und Erstellen von abgeleiteten Daten für entsprechende Klassen von Objekten) vergleichen, um festzustellen, dass das Gerät ein tragbares Videospiel ist.
  • 11 ist der Graph 1100, der eine eindimensionale Darstellung eines Bildes auf einer Achse zeigt. In einer anderen Ausführungsform kann das Vergleichen von Objektdaten von einem Bildgebungs-Bild mit vorgegebenen Objektklassen-Daten 604 es umfassen, eindimensionale Darstellungen 1108 des Bildgebungs-Bildes auf ein oder mehreren Achsen zu erzeugen und Datenpunkte in einer eindimensionalen Darstellung 1108 mit einem vorgegebenen Schwellwert 1106 zu vergleichen. In dieser Ausführungsform kann das Vergleichen von Objektdaten von einem Bildgebungs-Bild mit vorgegebenen Objektklassen-Daten 604 es ferner umfassen, eine Fortsetzungs-Bewertungszahl zu erzeugen, die einer Anzahl aufeinander folgender Datenpunkte 1110 entspricht, die größer sind als der Schwellwert 1106 für eine gewünschte Achse, und Fortsetzungs-Bewertungszahlen mit einer oder mehreren vorgegebenen Bewertungszahlen für entsprechende Klassen zu vergleichen, um festzustellen, ob ein Objekt einer Klasse von Objekten entspricht. In einer anderen Ausführungsform können ferner Objekt-Abmessungen entlang gewünschter Achsen erhalten werden, indem die Bounding-Box berechnet wird, wie oben beschrieben. In dieser Ausführungsform kann man Objektdaten mit ein oder mehreren vorgegebenen Abmessungen für entsprechende Klassen vergleichen, um festzustellen, ob ein Objekt einer Klasse von Objekten entspricht.
  • Zum Beispiel kann, wenn Bilddaten für ein erkanntes Objekt in der Achse X, Y und Z (z. B. umfassend eine horizontale, vertikale, bzw. Förderband-Richtung) gegeben sind, eine entsprechende Achse als eindimensionale Linie 1108 in einem Graphen dargestellt werden. In diesem Beispiel kann die horizontale Achse des Graphen 1104 einen Punkt auf der Achse (z. B. X, Y oder Z) darstellen, während die vertikale Achse des Graphen 1102 einen Eigenschafts-Wert (z. B. Dichte-Integral über einer Ebene senkrecht zu einer entsprechenden Achse) des fraglichen Objekts repräsentieren kann. Da sich der Eigenschaftswert für das Objekt entlang der Achse ändert, kann sich zum Beispiel die eindimensionale Darstellung 1108 des Objekts entlang der Achse ändern. Aufeinander folgende Datenpunkte 1110 über dem vorgegebenen Schwellwert 1106 für eine Klasse von Objekten können bestimmt werden, und in einer Ausführungsform kann die größte Zahl aufeinander folgender Datenpunkte mit Informationen für die Klasse verglichen werden, um festzustellen, ob das fragliche Objekt zu dieser speziellen Klasse von Objekten gehört (z. B. zusammen mit der Verwendung anderer Informationen bezüglich des Objektes, wie etwa Dichte, Masse und Abmessungen).
  • In 606 des beispielhaften Verfahrens 600 kann ein segmentiertes Objekt unter Verwendung von eindimensionalen Eigenprojektionen bezüglich einer Achse, die zum Beispiel der dünnsten Abmessung des segmentierten Objekts entspricht, in Objekt-Partitionen aufgeteilt werden. In einer Ausführungsform kann die Klasse, zu der das fragliche Objekt gehört, dazu benutzt werden festzustellen, wie das segmentierte Objekt aufzuteilen ist. Zum Beispiel kann ein Laptop-Computer in Schichten entlang seiner dünnsten Abmessung (z. B. seiner Höhe) partitioniert werden. In einem Beispiel können Merkmalvektoren aus Objekt-Partitionen dazu benutzt werden, einen Vergleich mit vorgegebenen Schwellwerten durchzuführen, um festzustellen, ob ein Objekt potentiell einen bedrohlichen Gegenstand verbirgt.
  • 8 ist ein Flussdiagramm einer beispielhaften Ausführungsform 800 der Partitionierung eines segmentierten Objekts in Objekt-Partitionen (wie in 6, in 606). In dieser Ausführungsform 800 kann man in 808 die Eigenanalyse benutzen, um die Koordinaten eines Objekts zu bestimmen, wie etwa bezüglich der dreidimensionalen Achsen eines segmentierten Objekts. In dieser Ausführungsform kann die Eigenanalyse benutzt werden, in 810 Eigenwerte und zugehörige Eigenvektoren (z. B. X'-, Y'- und Z'-Achsen des Objekts) zu bestimmen. Auf diese Weise kann in einer Ausführungsform ein gewünschter Eigenvektor ausgewählt werden, der einer gewünschten Partitionierung der Klasse von Objekten entspricht, zu der das erkannte Objekt gehört. Zum Beispiel kann es sein, dass man wünscht, einen Laptop in Schichten entlang seiner Höhe zu partitionieren, daher kann ein zu einem minimalen Eigenwert gehörender Vektor ausgewählt werden, der einer kleinsten Abmessung des Laptop entspricht.
  • In 812 wird ein gewünschter (z. B. minimaler), einem zugehörigen Vektor entsprechender Eigenwert für entsprechende Achsen des segmentierten Objekts ausgewählt. In dieser Ausführungsform kann zum Beispiel ein Eigenvektor, der einem mittleren Eigenwert entspricht, als eine X'-Achse für das segmentierte Objekt festgesetzt werden, ein Eigenvektor, der einem minimalen Eigenwert entspricht, kann als eine Y'-Achse festgesetzt werden, und ein Eigenvektor, der einem maximalen Eigenwert entspricht, kann als eine Z'-Achse festgesetzt werden. In einem anderen Beispiel können eine Breite, Höhe und Länge des segmentierten Objekts entlang entsprechender Achsen X', Y' und Z' des Objekts bestimmt werden.
  • In 814 wird eine Eigenprojektion auf eine Ebene ausgeführt, die eine dem Vektor des gewünschten Eigenwertes entsprechende Achse aufweist, um eine eindimensionale Projektion einer gewünschten Achse für das segmentierte Objekt zu erzeugen. Zum Beispiel kann, wenn eine gewünschte Objekt-Achse die Y'-Achse ist, die der dünnsten Abmessung des segmentierten Objekts entspricht (z. B. einer Höhe eines Laptop-Computers), eine eindimensionale Projektion des Y'-Achse des Objekts erzeugt werden, indem Eigenschafts-Werte von Bildelementen in der X'-Z'-Ebene für Schritte entlang der Y'-Achse interpoliert und aufsummiert werden. In einer Ausführungsform, wie oben in 4, 400 beschrieben, kann eine Eigenprojektion durchgeführt werden, wie im Patent Nr. US 6,345,113 , Crawford et al. mit dem Titel Apparatus and Method for Processing Object Data in Computed Tomography Data Using Object Projections (Vorrichtung und Verfahren zur Verarbeitung von Objektdaten in Computertomographie-Daten unter Verwendung von Objekt-Projektionen) offenbart wird.
  • In 816 im beispielhaften Verfahren 800 wird eine eindimensionale Projektion einer Objekt-Achse des segmentierten Objekts gefiltert, um Schwankungen zu glätten und Spitzen hervorzuheben. In einer Ausführungsform kann ein Projektions-Filter angewendet werden, um Schwankungen durch Rauschen in der Projektion zu entfernen und Spitzen hervorzuheben. Zum Beispiel kann ein Signal-Rauschverhältnis-Tiefpassfilter benutzt werden, in einem Signal, wie etwa in einer eindimensionalen Projektion einer Objekt-Achse, Rauschen zu verringern und Spitzen hervorzuheben.
  • In 818 kann das Partitionieren eines segmentierten Objekts es umfassen, Spitzen-Modi in der eindimensionalen Projektion der jeweiligen Objekt-Achsen des segmentierten Objekts zu erkennen, wobei ein Spitzen-Modus einer Objekt-Partition entlang der jeweiligen Objekt-Achsen entspricht. In einer Ausführungsform können die Spitzen-Modi dazu benutzt werden, das segmentierte Objekt in Objekt-Partitionen aufzuteilen, zum Beispiel indem ein Spitzen-Modus von benachbarten Spitzen-Modi getrennt wird. In diesem Beispiel kann das Trennen benachbarter Spitzen-Modi durchgeführt werden, indem ein Talpunkt zwischen zwei Spitzen erkannt wird, oder indem ein Mittelpunkt zwischen zwei Spitzenpunkten genommen wird.
  • Zurück zu 6 werden in 608 in dem beispielhaften Verfahren 600 ein oder mehrere Layout-Merkmalvektoren erzeugt, was das Kombinieren von Merkmalwerten aus mindestens einem aus einem segmentierten Objekt und seinen Partitionen umfassen kann. In einer Ausführungsform können Merkmalwerte des segmentierten Objekts kombiniert werden, um einen Layout-Merkmalvektor für das segmentierte Objekt zu erzeugen. In einer anderen Ausführungsform können Merkmalwerte der Partitionen des segmentierten Objekts kombiniert werden, um einen Layout-Merkmalvektor für das segmentierte Objekt zu erzeugen. In einer anderen Ausführungsform können Merkmalwerte des segmentierten Objekts und Merkmalwerte der Partitionen des segmentierten Objekts kombiniert werden, um einen Layout-Merkmalvektor für das segmentierte Objekt zu erzeugen.
  • In einer Ausführungsform kann ein Layout-Merkmalvektor eines Objekts Eigenschaften eines segmentierten Objekts, Vorhandensein und/oder Fehlen entsprechender Objekt-Partitionen, Vorhandensein oder Fehlen von Sub-Regionen und Eigenschaften von dargestellten Objekt-Partitionen und Sub-Regionen umfassen. In einer anderen Ausführungsform können Eigenschaften eines segmentierten Objekts oder einer Objekt-Partition Mittelwert, Standardabweichung, Schiefe, Kurtosis von Dichte, Masse Mittelwert, Standardabweichung, Schiefe, Kurtosis der Ordnungszahl und Abmessungen umfassen. In dieser Ausführungsform können die Eigenschaften ferner sowohl Messungen vor der Dilatation als auch nach der Dilatation eines segmentierten Objekts oder einer Objekt-Partition umfassen. In dieser Ausführungsform können die Eigenschaften außerdem Eigenschaften von Teilen eines segmentierten Objekts oder einer Objekt-Partition, wie dilatierte Bildelemente, umfassen.
  • In einer anderen Ausführungsform kann ein Layout-Merkmalvektor eines segmentierten Objekts Eigenschaften von Spitzen-Modi von eindimensionalen Projektionen des segmentierten Objekts umfassen, wie etwa Spitzen-Höhe, Spitzen-Breite und Fläche unter dem Spitzen-Modus für jeden Spitzen-Modus (z. B. umfassend eine Anzahl von Voxeln oder Pixeln in einem Bereich von Dichten oder Helligkeiten).
  • In 610 kann festgestellt werden, ob das segmentierte Objekt ein potentiell eine Bedrohung enthaltendes Objekt ist, was das Vergleichen des einen oder der mehreren Layout-Merkmalvektoren mit einer oder mehreren vorgegebenen Grenzen für erkannte potentielle Bedrohungen, die einer Klasse des gewünschten Objekts entsprechen, umfassen kann. 10 ist ein Graph 1000, der ein Beispiel für die vorherige Bestimmung einer Grenze zeigt. In einer Ausführungsform kann das Feststellen des Vorhandenseins einer potentielle Bedrohung in einem segmentierten Objekt 610 es umfassen, eine Unterscheidungsgrenze 1006 für eine Klasse von Objekten, zu der ein segmentiertes Objekt gehört, zu erzeugen.
  • In dieser Ausführungsform kann das Erzeugen einer Unterscheidungsgrenze es umfassen, Layout-Merkmalvektoren von Objekten, die potentiell bedrohliche Gegenstände 1002 enthalten und Layout-Merkmalvektoren von Objekten, die keine potentiell bedrohliche Gegenstände 1004 enthalten, zu analysieren. In dieser Ausführungsform kann zum Beispiel eine Unterscheidungsgrenze erhalten werden, indem verschiedene Klassifizierungs-Trainingsverfahren benutzt werden, wie etwa das Verfahren der linearen Diskriminanzanalyse, Hauptkomponentenanalyse, Support-Vektor-Maschine, das Trainingsverfahren Boost-Ada und manuelle Partition des hyperdimensionalen Layout-Merkmalvektorraums.
  • Auf diese Weise kann man in dieser Ausführungsform ein oder mehrere Layout-Merkmalvektoren für das segmentierte Objekt mit der vorgegebenen Unterscheidungsgrenze 1006 vergleichen, um festzustellen, ob das segmentierte Objekt ein eine potentielle Bedrohung enthaltendes Objekt ist. Wenn zum Beispiel ein Layout-Merkmalvektor auf eine Seite der Unterscheidungsgrenze 1006 fällt, die potentiell eine Bedrohung enthaltenden Gegenständen entspricht, kann festgestellt werden, dass das Objekt ein eine potentielle Bedrohung enthaltendes Objekt ist, und es kann erforderlich sein, dass ein Bediener mit anderen Mitteln weiter ermittelt, wie etwa mit einem Spurendetektor oder durch Suche von Hand, ob ein solches Objekt eine potentielle Bedrohung enthält oder nicht.
  • In einem anderen Aspekt müssen Objekte vor der Überprüfung nicht immer aus einem Behälter genommen werden (z. B. ein tragbares elektronisches Gerät im Gepäck eines Passagiers). In diesem Aspekt kann man zum Beispiel wünschen, das Objekt in dem Behälter zu erkennen, bevor man feststellt, ob das Objekt ein eine potentielle Bedrohung enthaltendes Objekt ist. Zum Beispiel wird Gepäck oft an Sicherheits-Kontrollpunkten auf Flughäfen überprüft. In diesem Beispiel werden bestimmte tragbare elektronische Geräte oft im Gepäck gefunden, wie Laptop-Computer im Handgepäck, oder diese Geräte können aus dem Gepäck entnommen und in offene Sicherheitskontrollkästen platziert werden.
  • 7 ist ein Flussdiagramm 700, das eine Beispiel-Ausführungsform zum Erkennen eines Objektes im Innern eines Behälters 702 zeigt. In 706 kann man Bildelemente im Bild des Objektes auswählen, wobei ein oder mehrere Eigenschaftswerte einem ersten vorgegebenen Bereich entsprechen. Zum Beispiel können Voxel ausgewählt werden, die eine Dichte in einem Bereich der Dichten für tragbare elektronische Geräte aufweisen.
  • In 710 können Bildelemente erkannt werden, die benachbart zu den jeweiligen ausgewählten Bildelementen im Bild sind, die einen oder mehrere Eigenschaftswerte aufweisen, die einem zweiten vorgegebenen Bereich entsprechen. Zum Beispiel können die ausgewählten Voxel dilatiert werden, indem Voxel ausgewählt werden, die den jeweiligen ausgewählten Voxeln benachbart sind, die in einen zweiten Dichtebereich von tragbaren elektronischen Geräten fallen. In 712 können die erkannten benachbarten Bildelemente mit dem einen oder den mehreren jeweiligen ausgewählten Bildelementen kombiniert werden, um eine oder mehrere dilatierte Regions-Kombinationen zu erzeugen. Zum Beispiel können die dilatierten Voxel mit den zuvor ausgewählten Voxeln kombiniert werden, um eine Gruppe von Voxel-Kandidaten für die Segmentierung eines oder mehrerer Objekte im Bild auszubilden. Zum Beispiel kann ein CCL-Algorithmus benutzt werden, um Objekte aus der Kombination der ausgewählten Voxel und der dilatierten Voxel zu segmentieren.
  • In 714 können in dieser Ausführungsform unter Verwendung der Eigenanalyse eines segmentierten Objektes die Lage, Orientierung und Abmessungen eines Objektes bestimmt werden. Ferner kann in 716 festgestellt werden, ob das segmentierte Objekt eine Ansammlung von zwei oder mehr Objekten umfasst, und in 718 können diejenigen Objekte, die als Ansammlung erkannt wurden, in zwei oder mehr Objekte aufgeteilt werden.
  • In einem anderen Aspekt können Objekt-Partitionen (wie in 8, 800 beschrieben) in Sub-Regionen unterteilt werden. Zum Beispiel kann ein tragbares elektronisches Gerät mehrere Komponenten enthalten (z. B. kann ein Laptop eine Batterie, einen LCD-Bildschirm, eine Festplatte, usw. aufweisen), die man dazu verwenden kann, Merkmale für das segmentierte Objekt zu entwickeln. 9 ist ein Flussdiagramm 900, das ein Beispiel für das Extrahieren von Sub-Regionen aus Objekt-Partitionen 902 zeigt. In 904 werden Bildelemente in einer Objekt-Partition ausgewählt, die Eigenschaftswerte aufweisen, die einem dritten vorgegebenen Bereich entsprechen. So wie oben beschrieben (in 7, 700) können zum Beispiel Voxel (für ein dreidimensionales Bild) oder Pixel (für ein zweidimensionales Bild) auf der Grundlage eines Bildelementes ausgewählt werden, das in einen vorgegebenen Bereich fällt. In 908 können den ausgewählten Bildelementen benachbarte Bildelemente erkannt werden, die einen vorgegebenen Bereich einhalten; und in 910 können diese benachbarten Bildelemente mit den ausgewählten Bildelementen kombiniert werden, um segmentiert und in Sub-Regionen gruppiert zu werden.
  • In 912 können unter Verwendung der Eigenanalyse die Orientierung und die Abmessungen einer Sub-Region bestimmt werden; und in 914 können die Sub-Regions-Daten mit vorgegebenen Sub-Regions-Klassen-Daten verglichen werden, um zu erkennen, ob die Sub-Region zu einer Klasse bekannter Sub-Regionen gehört. In einer Ausführungsform können ferner zum Beispiel Merkmalvektoren für erkannte Sub-Regionen bestimmt und dazu benutzt werden, einen Layout-Merkmalvektor für das segmentierte Objekt zu erzeugen.
  • 12 ist eine Darstellung eines Beispiel-Prozesses 1200 zum Bestimmen, ob ein Objekt ein eine potentielle Bedrohung enthaltendes Objekt ist, wobei die hier beschriebenen Verfahren benutzt werden. Ein Koffer 1202 enthält zum Beispiel unbekannte Objekte und wird an einer Sicherheitsstation eines Flughafens mit einem CT-Scanner untersucht. Eines der Objekte 1204 wird segmentiert, ein Kandidat für einen Laptop-Computer zu sein (z. B. wie in 7, 702) und wird in drei Schichten 1206, 1208 und 1210 partitioniert (z. B. wie in 8, 606). Die Partitionen werden in Sub-Regionen unterteilt (z. B. wie in 9, 902 gezeigt), wobei Region eins 1206 einen LCD-Bildschirm, Region zwei 1208 eine Reihe von Komponenten und Region drei 1210 eine Batterie und ein Motherboard umfassen kann. In 1212 werden zum Beispiel ein Layout-Merkmalvektor aus dem segmentierten Objekt, Partitionen und Sub-Regionen mit einer Unterscheidungsgrenze verglichen, die durch Trainingsdaten erzeugt wurde (z. B. indem eine Vielfalt von Laptops unter Verwendung eines CT-Scanners desselben Typs abgetastet wurde). Der Vergleich der Layout-Merkmalvektoren für die Unterscheidungsgrenze kann die Bestimmung erleichtern, ob das segmentierte Objekt zum Beispiel ein Laptop-Computer ist, der eine potentielle Bedrohung 1214 enthält, wenn der Layout-Merkmalvektor für das segmentierte Objekt sich auf einer Seite der Unterscheidungsgrenze befindet, die Trainingsdaten von Bedrohungen enthaltenden Laptops entspricht. Andernfalls kann festgestellt werden, dass der Laptop keine Bedrohung 1216 ist.
  • Noch eine weitere Ausführungsform umfasst ein computerlesbares Medium, das von einem Prozessor ausführbare Anweisungen enthält, die gestaltet sind, ein oder mehrere der hier vorgestellten Verfahren zu realisieren. Ein beispielhaftes computerlesbares Medium, das auf diese Weise entwickelt werden könnte, ist in 13 gezeigt, wobei die Realisierung 1300 ein computerlesbares Medium 1302 (z. B. eine CD-R, DVD-R oder eine Platte eines Festplattenlaufwerks) enthält, auf dem computerlesbare Daten 1304 codiert sind. Diese computerlesbaren Daten 1304 umfassen wiederum einen Satz von Computer-Anweisungen 1306, die gestaltet sind, entsprechend einem oder mehreren der hier dargelegten Prinzipien zu arbeiten. In einer solchen Ausführungsform 1300 können die computerlesbaren Anweisungen 1306 gestaltet sein, ein Verfahren auszuführen, wie etwa zum Beispiel das beispielhafte Verfahren 600 aus 6. Viele solche computerlesbaren Medien, die gestaltet sind, gemäß einer oder mehrerer der hier vorgestellten Verfahren zu arbeiten, können von Fachleuten erdacht werden.
  • Außerdem werden die Worte ”Beispiel” und/oder ”beispielhaft” hier so verwendet, dass als Beispiel, Fall oder Veranschaulichung dienend gemeint ist. Jeder Aspekt, jede Ausführung, usw., die hier als ”Beispiel” und/oder ”beispielhaft” beschrieben wird, darf nicht notwendigerweise als vorteilhaft gegenüber anderen Aspekten, Ausführungen, usw. interpretiert werden. Die Verwendung dieser Begriffe erfolgt vielmehr mit der Absicht, Konzepte auf eine konkrete Weise zu präsentieren. Wie in dieser Patentanmeldung benutzt, ist der Begriff ”oder” beabsichtigt, um ein einschließendes ”oder” statt eines ausschließenden ”oder” zu bedeuten. Das heißt, wenn nicht anders angegeben oder aus dem Zusammenhang deutlich, ist mit dem Ausdruck ”X verwendet A oder B” beabsichtigt, alle der natürlichen einschließenden Permutationen zu bedeuten. Das heißt, wenn X A verwendet, X B verwendet oder X sowohl A als auch B verwendet, dann ist unter allen der vorherigen Fälle ”X verwendet A oder B” erfüllt. Außerdem kann die Verwendung des Artikels ”ein” in dieser Patentanmeldung und den beigefügten Ansprüchen generell so interpretiert werden, dass wenn nicht anders angegeben oder aus dem Zusammenhang deutlich ”ein oder mehrere” gemeint ist, was in einer Singular-Form ausgedrückt wurde.
  • Obwohl die Offenlegung mit Bezug auf eine oder mehrere Realisierungen gezeigt und beschrieben wurde, werden einem Fachmann auch äquivalente Änderungen und Abwandlungen deutlich, die auf dem Lesen und Verstehen dieser Beschreibung und der beigefügten Zeichnung beruhen. Die Offenlegung schließt alle diese Änderungen und Abwandlungen ein und ist nur durch den Umfang der folgenden Ansprüche beschränkt. Insbesondere im Hinblick auf die verschiedenen Funktionen, die von den oben beschriebenen Komponenten (z. B. Elemente, Ressourcen, usw.) ausgeführt werden, haben die zur Beschreibung solcher Komponenten benutzten Begriffe die Absicht, wenn nicht anders angegeben, jeder Komponente zu entsprechen, welche die spezifizierte Funktion der beschriebenen Komponente ausführt (z. B. die funktionell äquivalent ist), auch wenn nicht vom Aufbau äquivalent zur offenbarten Struktur, welche die Funktion in der hier beschriebenen beispielhaften Realisierung der Offenbarung ausführt. Außerdem kann, obwohl ein spezielles Merkmal der Offenbarung vielleicht nur mit Bezug auf nur eine von mehreren Realisierungen offengelegt wurde, ein solches Merkmal mit einem oder mehreren weiteren Merkmalen der anderen Realisierungen kombiniert werden, wie es gewünscht und vorteilhaft für jede gegebene oder spezielle Anwendung sein kann. Soweit ferner die Begriffe ”enthält”, ”aufweisend”, ”weist auf”, ”mit” oder Varianten davon entweder in der detaillierten Beschreibung oder den Ansprüchen benutzt werden, haben solche Begriffe die Absicht auf eine Weise einschließend zu sein, wie der Begriff ”umfassend”.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 6345113 [0063, 0077]

Claims (39)

  1. System zum Erkennen aus einer Klasse von Objekten eines möglicherweise eine Bedrohung enthaltenden Objekts, das unter Verwendung einer Bildgebungs-Vorrichtung einer Abbildung unterzogen wurde, umfassend: einen Objektklassen-Identifizierer (120), der gestaltet ist, Daten aus einem segmentierten Objekt aus dem Bildgebungs-Bild (152) mit vorgegebenen Objektklassen-Daten zu vergleichen, um zu erkennen, ob das Objekt aus dem Bildgebungs-Bild (152) zu einer Klasse von Objekten gehört; einen Objekt-Partitionierer (122), der gestaltet ist, unter Verwendung von Eigenanalyse auf der Grundlage der erkannten Klasse des Objekts die Bild-Darstellungen des segmentierten Objekts in Objekt-Partitionen aufzuteilen; einen Layout-Vektor-Generator (124), der gestaltet ist, einen oder mehrere Layout-Merkmalvektoren für das segmentierte Objekt zu erzeugen; und einen Bedrohungs-Ermittler (126), der gestaltet ist, den einen oder die mehreren Layout-Merkmalvektoren mit einer oder mehreren vorgegebenen Grenzen zu vergleichen, die den Klassen des segmentierten Objekts entsprechen, um festzustellen, ob das segmentierte Objekt ein eine potentielle Bedrohung enthaltendes Objekt ist.
  2. System nach Anspruch 1, umfassend einen Objekt-Segmentierer (130), der gestaltet ist, ein Objekt im Innern eines Behälters in einem Bildgebungs-Bild des Behälters zu segmentieren, umfassend: einen Bildelement-Selektor (204), der gestaltet ist, Elemente im Bild des abgetasteten Behälters (164) auszuwählen, die eine Eigenschaft aufweisen, die einem ersten vorgegebenen Eigenschaftsbereich entspricht; und einen Kombinations-Generator für dilatierte Elemente (208), umfassend: einen Bildelement-Dilatator (210), der gestaltet ist, Bildelemente zu erkennen, die den jeweiligen ausgewählten Bildelementen im Bild benachbart sind und eine Eigenschaft aufweisen, die einem zweiten vorgegebenen Eigenschaftsbereich entspricht; und einen Kombinierer für dilatierte Bildelemente (212), der gestaltet ist, die erkannten benachbarten Bildelemente mit dem einen oder den mehreren ausgewählten Bildelementen zu kombinieren, um Bilddaten für das segmentierte Objekt (152) zu erzeugen.
  3. System nach Anspruch 2, umfassend einen Splitter für verbundene Objekte (214), der gestaltet ist zum: Feststellen, ob ein segmentiertes Objekt eine Ansammlung von mehr als einem Objekt umfasst; und Aufteilen des verbundenen Objekts in zwei oder mehr Objekte.
  4. System nach Anspruch 2, wobei die Bildelemente eines der folgenden Dinge umfassen: Voxel in Bilddaten für ein dreidimensionales Bild; und Pixel in Bilddaten für ein zweidimensionales Bild.
  5. System nach Anspruch 2, wobei der Objekt-Segmentierer (130) umfasst: einen Prozessor für eindimensionale Bilddaten (302), der gestaltet ist, eindimensionale Repräsentationen einer oder mehrerer Achsen eine Bildgebungs-Bildes (350) zu erzeugen; einen Achsdaten-Prozessor (304), der gestaltet ist, Datenpunkte in einer eindimensionalen Repräsentation einer Achse mit einem vorgegebenen Schwellwert zu vergleichen; einen Fortsetzungs-Bewertungszahl-Generator (306), der gestaltet ist, eine Bewertungszahl zu erzeugen, die einer gewünschten Anzahl von aufeinander folgenden Datenpunkten entspricht, die größer als der Schwellwert für jeweilige Achsen ist; und eine Fortsetzungs-Bewertungszahl-Vergleichskomponente (308), die gestaltet ist, Fortsetzungs-Bewertungszahlen mit vorgegebenen Bewertungszahlen für eine oder mehrere Klassen zu vergleichen, um festzustellen, ob ein Objekt einer Klasse von Objekten entspricht.
  6. System nach Anspruch 5, umfassend einen Objekt-Segmentierer, der gestaltet ist, unter Verwendung von eindimensionalen Projektions-Daten entsprechender Achsen eine Bounding-Box für ein gewünschtes Objekt zu erzeugen.
  7. System nach Anspruch 1, wobei der Objekt-Partitionierer (122) einen Ermittler für einen gewünschten Eigenvektor (402) umfasst, der gestaltet ist, einen gewünschten Eigenvektor (452) für Achsen des segmentierten Objekts (450) zu bestimmen, wozu ein dem gewünschten Eigenvektor (452) entsprechender gewünschter Eigenwert benutzt wird.
  8. System nach Anspruch 7, wobei der Objekt-Partitionierer (122) einen eindimensionalen Eigenprojektions-Generator (404) enthält, der gestaltet ist, eine eindimensionale Projektion von Achsen des Objekts (454) entlang einem zu einem gewünschten Eigenwert gehörenden Eigenvektor (452) zu erzeugen.
  9. System nach Anspruch 8, umfassend ein eindimensionales Projektions-Filter (406), das gestaltet ist, in einer eindimensionalen Projektion von Achsen des Objekts (454) Schwankungen zu glätten und Spitzen hervorzuheben.
  10. System nach Anspruch 8, umfassend einen Objekt-Partitions-Identifizierer (408), der gestaltet ist, Objekt-Partitionen (458) in einem Objekt zu erkennen, die Spitzen-Modi in einer eindimensionalen Projektion (456) des segmentierten Objekts entsprechen.
  11. System nach Anspruch 1, umfassend einen Sub-Regions-Extraktor (128), der gestaltet ist, Sub-Regionen (160) in den erkannten Objekt-Partitionen (156) zu erkennen, umfassend: einen -Identifizierer (502), der gestaltet ist, eine oder mehrere potentielle Sub-Regionen in einer erkannten Partition aus einer oder mehreren Klassen von Sub-Regionen zu erkennen; und eine Sub-Regions-Vergleichs-Komponente (504), die gestaltet ist, die potentiellen Sub-Regions-Daten mit vorgegebenen Sub-Regions-Daten zu vergleichen, um festzustellen, ob die potentielle Sub-Region zu einer Klasse bekannter Sub-Regionen gehört.
  12. System nach Anspruch 1, wobei der Bedrohungs-Ermittler (126) gestaltet ist, einen oder mehrere Layout-Merkmalvektoren für das segmentierte Objekt mit einer Unterscheidungsgrenze zu vergleichen, die einer Klasse von Objekten entspricht, zu der das segmentierte Objekt gehört.
  13. Verfahren (600) zum Erkennen eines oder mehrerer potentiell eine Bedrohung enthaltender Objekte aus einer Klasse von Objekten, die unter Verwendung einer Bildgebungs-Vorrichtung einer Bildgebung unterzogen wurde, umfassend: Vergleichen der Objektdaten aus dem Bildgebungs-Bild mit vorgegebenen Objektklassen-Daten, um zu erkennen, ob das Objekt aus dem Bildgebungs-Bild zu einer Klasse von bekannten Objekten gehört (604); Aufteilen eines erkannten Objekts in Objekt-Partitionen unter Verwendung eindimensionaler Eigenprojektionen (606); Erzeugen eines oder mehrerer Layout-Merkmalvektoren, was es umfasst, Eigenschaftswerte aus mindestens einem aus dem segmentierten Objekt und den Partitionen des Objekts zu kombinieren (608); und Feststellen, ob das erkannte Objekt ein potentiell eine Bedrohung enthaltendes Objekt ist, was das Vergleichen des einen oder der mehreren Layout-Merkmalvektoren mit einer oder mehreren vorgegebenen Grenzen für potentielle Bedrohungen, die der Klasse des erkannten Objekts entsprechen, umfasst (610).
  14. Verfahren nach Anspruch 13, umfassend das Erkennen eines Objekts im Innern eines Behälters in einem Bildgebungs-Bild des Behälters (702).
  15. Verfahren nach Anspruch 14, wobei das Erkennen eines Objekts (702) es umfasst, Elemente in dem Bild des Objekts auszuwählen, die eine Eigenschaft aufweisen, die einem ersten vorgegebenen Bereich entsprechen (706).
  16. Verfahren nach Anspruch 15, umfassend das Erkennen von Elementen, die den jeweiligen ausgewählten Elementen im Bild benachbart sind, die eine Eigenschaft aufweisen, die einem zweiten vorgegebenen Bereich entspricht (710).
  17. Verfahren nach Anspruch 16, umfassend das Kombinieren der erkannten benachbarten Elemente mit dem einen oder den mehreren jeweiligen ausgewählten Elementen, um ein oder mehrere dilatierte Elemente zu erzeugen (712).
  18. Verfahren nach Anspruch 15, wobei die Bildelemente eines der folgenden Dinge umfassen: Voxel in Bilddaten für ein dreidimensionales Bild; und Pixel in Bilddaten für ein zweidimensionales Bild.
  19. Verfahren nach Anspruch 14, wobei das Erkennen eines Objekts (702) umfasst: Bestimmen der Lage und Orientierung eines Objekts in einem Bildgebungs-Bild unter Verwendung von Eigenanalyse des Objekts (714); und Bestimmen der Abmessungen eines Objekts unter Verwendung von Eigenanalyse des Objekts (714).
  20. Verfahren nach Anspruch 14, wobei das Erkennen eines Objekts (702) umfasst: Ermitteln, ob ein erkanntes Objekt eine Ansammlung von mehr als einem Objekt umfasst (716); und wenn das erkannte Objekt eine Ansammlung von mehr als einem Objekt umfasst, Aufteilen des verbundenen Objekts in zwei oder mehr Objekte (718).
  21. Verfahren nach Anspruch 13, wobei das Vergleichen von Objektdaten aus einem Bildgebungs-Bild mit vorgegebenen Objektklassen-Daten (604) umfasst: Erzeugen eindimensionaler Repräsentationen (1108) einer oder mehrerer Achsen des Bildgebungs-Bildes; Vergleichen von Datenpunkten in einer eindimensionalen Repräsentation (1108) einer Achse mit einem vorgegebenen Schwellwert (1106).
  22. Verfahren nach Anspruch 21, wobei das Vergleichen von Objektdaten aus einem Bildgebungs-Bild mit vorgegebenen Objektklassen-Daten (604) umfasst: Erzeugen einer Fortsetzungs-Bewertungszahl, die einer gewünschten Anzahl von aufeinander folgenden Datenpunkten entspricht, die größer ist (1110) als der Schwellwert (1106) für eine Achse; und Vergleichen von Fortsetzungs-Bewertungszahlen mit einer oder mehreren vorgegebenen Bewertungszahlen für jeweilige Klassen, um festzustellen, ob ein Objekt einer Klasse von Objekten entspricht.
  23. Verfahren nach Anspruch 22, wobei die eine oder mehreren vorgegebenen Bewertungszahlen eine Bewertungszahl umfassen, die erzeugt wird, indem Objekte aus jeweiligen Klassen einer Bildgebung unterzogen werden, wobei eine gleiche Bildgebungs-Vorrichtung benutzt wird wie sie zur Erkennung eines unbekannten Objekts benutzt wird.
  24. Verfahren nach Anspruch 13, wobei das Aufteilen eines erkannten Objekts in Objekt-Partitionen (606) umfasst: Verwenden von Eigenanalyse zum Bestimmen der Koordinaten eines erkannten Objekts für dreidimensionale Achsen in einem Bildgebungs-Bild (808); und Durchführen der Eigenanalyse an dem Objekt zum Bestimmen von Eigenwerten und entsprechenden Eigenvektoren für das Objekt in einem Bildgebungs-Bild (810).
  25. Verfahren nach Anspruch 24, umfassend das Auswählen eines gewünschten Eigenwertes, der einem zugehörigen Vektor für die jeweiligen Achsen des Objekts entspricht (812).
  26. Verfahren nach Anspruch 24, umfassend das Ausführen einer Eigenprojektion auf eine Ebene, die eine dem Vektor des gewünschten Eigenwertes entsprechende Achse aufweist, um eine eindimensionale Projektion einer gewünschten Achse für das Objekt zu erzeugen (814).
  27. Verfahren nach Anspruch 26, umfassend das Filtern einer eindimensionalen Projektion einer Achse eines erkannten Objekts, um Schwankungen zu glätten und Spitzen hervorzuheben (816).
  28. Verfahren nach Anspruch 26, umfassend das Erkennen von Spitzen-Modi in der eindimensionalen Projektion jeweiliger Objekt-Achsen des erkannten Objekts, wobei die Spitzen-Modi einer Objekt-Partition entlang der jeweiligen Objekt-Achse entsprechen (818).
  29. Verfahren nach Anspruch 13, umfassend das Erkennen von Sub-Regionen in einer Objekt-Partition (902), umfassend das Vergleichen von Sub-Regions-Daten mit vorgegebenen Sub-Regions-Daten aus einer oder mehreren jeweiligen Klassen bekannter Sub-Regionen;
  30. Verfahren nach Anspruch 29, umfassend: Auswählen von Bildelementen in einer Objekt-Partition des segmentierten Objekts mit einer Eigenschaft, die einem dritten vorgegebenen Bereich entspricht (904). Bestimmen der Lage und Orientierung einer potentiellen Sub-Region in einer Objekt-Partition unter Verwendung von Eigenanalyse der Sub-Region (912); Bestimmen der Abmessungen einer Sub-Region unter Verwendung von Eigenanalyse der Sub-Region (912); Vergleichen der Sub-Regions-Daten mit vorgegebenen Sub-Regions-Klassen-Daten, um festzustellen, ob die Sub-Region zu einer Klasse bekannter Sub-Regionen gehört (914).
  31. Verfahren nach Anspruch 30, umfassend: Erkennen von Bildelementen in der Objekt-Partition, die dem einen oder den mehreren ausgewählten Bildelementen benachbart sind, die eine Eigenschaft aufweisen, welche einem vierten vorgegebenen Bereich entspricht (908); und Kombinieren der erkannten benachbarten Bildelemente in der Objekt-Partition mit dem einen oder den mehreren ausgewählten Bildelementen, um eine oder mehrere dilatierte Sub-Regionen zu erzeugen (910).
  32. Verfahren nach Anspruch 29, umfassend das Vergleichen der Sub-Regions-Daten aus einer Objekt-Partition mit vorgegebenen Sub-Regions-Daten, um festzustellen, ob die Sub-Region zu einer Klasse bekannter Sub-Regionen gehört.
  33. Verfahren nach Anspruch 13, wobei die Layout-Merkmalvektoren aus mindestens einem aus einem erkannten Objekt und einer partitionierten Region ein oder mehrere der folgenden Punkte umfassen: einen Vektor, der ein Vorhandensein einer oder mehrerer Partitionen eines Objekts umfasst; einen oder mehrere Vektoren für eine erkannte Partition in einem erkannten Objekt, wobei der eine oder die mehreren Vektoren mindestens eines aus folgendem umfasst: Objekt-Partitions-Dichte; Mittelwert der Objekt-Partitions-Dichte; Standardabweichung der Dichte der Objekt-Partition; Schiefe der Dichte der Objekt-Partition; Kurtosis der Dichte der Objekt-Partition; Ordnungszahl der Objekt-Partition; Mittelwert der Ordnungszahl der Objekt-Partition; Standardabweichung der Ordnungszahl der Objekt-Partition; Schiefe der Ordnungszahl der Objekt-Partition; und Kurtosis der Ordnungszahl der Objekt-Partition; einen oder mehrere Vektoren für ein erkanntes Objekt in einem Bildgebungs-Bild, wobei der eine oder die mehreren Vektoren mindestens eines aus folgendem umfasst: Objekt-Dichte; Mittelwert der Objekt-Dichte; Standardabweichung der Dichte des Objekts; Schiefe der Dichte des Objekts; Kurtosis der Dichte des Objekts; Objekt-Masse; Objekt-Abmessungen; Ordnungszahl des Objekts; Mittelwert der Ordnungszahl des Objekts; Standardabweichung der Ordnungszahl des Objekts; Schiefe der Ordnungszahl des Objekts; und Kurtosis der Ordnungszahl des Objekts; und einen oder mehrere Vektoren von Spitzen-Modi von eindimensionalen Projektionen von Objekt-Regionen, wobei der eine oder die mehreren Vektoren mindestens eines aus folgendem umfasst: Höhe der Spitze; Breite der Spitze; und eine Anzahl von Voxeln oder Pixeln in einem Dichtebereich.
  34. Verfahren nach Anspruch 33, wobei die Merkmalvektoren Merkmalvektoren aus erkannten Sub-Regions-Daten umfassen.
  35. Verfahren nach Anspruch 13, wobei das Feststellen eines Vorhandenseins einer potentiellen Bedrohung in einem erkannten Objekt (610) umfasst: Erzeugen einer Unterscheidungsgrenze (1006) für eine Klasse von Objekten, zu der ein erkanntes Objekt gehört, wobei die Unterscheidungsgrenze umfasst: Merkmalvektoren von Objekten, die potentiell bedrohliche Gegenstände enthalten (1002); und Merkmalvektoren von Objekten, die keine potentiell bedrohlichen Gegenstände enthalten (1004); und Vergleichen eines oder mehrerer Layout-Merkmalvektoren mit der Unterscheidungsgrenze (1006).
  36. Verfahren nach Anspruch 35, wobei die Unterscheidungsgrenze erzeugt wird, indem Objekte benutzt werden, die mit einer ähnlichen Bildgebungs-Vorrichtung abgebildet werden, wie sie zur Abbildung des potentiell eine Bedrohung enthaltenden Objekts verwendet wird.
  37. System, um aus einer Klasse von Objekten ein möglicherweise eine Bedrohung enthaltendes Objekt in einem Behälter zu erkennen, der unter Verwendung eines Computertomographie-Scanners (CT) einer Abtastung unterzogen wurde, umfassend: einen CT-Scanner, der gestaltet ist, Objekte abzutasten und Bilddaten für die abgetasteten Objekte zu erzeugen; einen Objekt-Segmentierer (130), der gestaltet ist, in einem Bildgebungs-Bild des Behälters aus einer oder mehreren Klassen von Objekten ein Objekt im Innern eines Behälters zu erkennen, umfassend: einen Bildelement-Selektor, der gestaltet ist, ein oder mehrere ausgewählte Bildelemente auszuwählen; einen Generator zur Kombination dilatierter Regionen, der gestaltet ist, ein oder mehrere dilatierte Elemente (154) zu erzeugen; und einen Splitter für verbundene Objekte (312), der gestaltet ist zum: Feststellen, ob ein erkanntes Objekt eine Ansammlung von mehr als einem Objekt umfasst; und Aufteilen des verbundenen Objekts in zwei oder mehr Objekte; einen Objekt-Regions-Extraktor (122), der gestaltet ist, unter Verwendung von Eigenanalyse das erkannte Objekt in Objekt-Regionen zu partitionieren; einen Sub-Regions-Extraktor (128), der gestaltet ist, Sub-Regionen (160) in den erkannten Objekt-Regionen (156) zu erkennen; einen Layout-Vektor-Generator (124), der gestaltet ist, einen oder mehrere Layout-Merkmalvektoren aus dem erkannten Objekt zu erzeugen; einen Unterscheidungsgrenzen-Generator, der gestaltet ist eine Unterscheidungsgrenze für eine Klasse von Objekten zu erzeugen, zu der ein erkanntes Objekt gehört; und einen Bedrohungs-Ermittler (126), der gestaltet ist, den einen oder die mehreren Layout-Merkmalvektoren mit einer oder mehreren vorgegebenen Unterscheidungsgrenzen zu vergleichen, die der Klasse des erkannten Objekts entsprechen, um festzustellen, ob das erkannte Objekt ein eine potentielle Bedrohung enthaltendes Objekt ist.
  38. Von einem Computer benutzbares Medium, umfassend eine computerlesbare Programmierung, die gestaltet ist, ein oder mehrere potentiell eine Bedrohung enthaltende Objekte aus einer Klasse von Objekten in einem Behälter zu erkennen, der unter Verwendung einer Bildgebungs-Vorrichtung einer Bildgebung unterzogen wurde, und die wenn sie auf einer Computer-Vorrichtung ausgeführt wird, bewirkt, dass die Computer-Vorrichtung: die Objektdaten aus dem Bildgebungs-Bild mit vorgegebenen Objektklassen-Daten vergleicht, um zu erkennen, ob das Objekt aus dem Bildgebungs-Bild zu einer Klasse von bekannten Objekten gehört (604); ein erkanntes Objekt in Objekt-Partitionen unter Verwendung eindimensionaler Eigenprojektionen aufteilt (606); einen oder mehrere Layout-Merkmalvektoren erzeugt, was es umfasst, Eigenschaftswerte aus mindestens einem aus dem erkannten segmentierten Objekt und den Partitionen des Objekts zu kombinieren (608); und feststellt, ob das erkannte Objekt ein potentiell eine Bedrohung enthaltendes Objekt ist, was das Vergleichen des einen oder der mehreren Layout-Merkmalvektoren mit einer oder mehreren vorgegebenen Unterscheidungsgrenzen für erkannte potentielle Bedrohungen, die der Klasse des erkannten Objekts entsprechen, umfasst (610).
  39. Verfahren zum Abtasten von Objekten im Innern eines Behälters auf potentielle Bedrohungen, ohne dass die Objekte aus dem Behälter genommen werden müssen, umfassend: Unterziehen des Behälters (1202) einer Bildgebung unter Verwendung einer Bildgebungs-Vorrichtung; Erkennen eines Objekts (1204) im Innern des Behälters, was es umfasst, Objektdaten aus dem Bild mit vorgegebenen Objektdaten für Klassen von Objekten zu vergleichen; Erkennen von Regionen (1206, 1208, 1210) innerhalb eines erkannten Objekts in einem Bild, was es umfasst, Regions-Daten aus dem Objekt im Bild mit vorgegebenen Regions-Daten für jeweilige Klassen von Objekten zu vergleichen; und Vergleichen mindestens eines aus Objekt- und Regions-Daten mit vorgegebenen Daten potentieller Bedrohungen, um festzustellen, ob das Objekt eine potentielle Bedrohung enthält (1212).
DE112008004057T 2008-10-30 2008-10-30 Erkennen verborgener Bedrohungen Withdrawn DE112008004057T5 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2008/081768 WO2010050952A1 (en) 2008-10-30 2008-10-30 Detecting concealed threats

Publications (1)

Publication Number Publication Date
DE112008004057T5 true DE112008004057T5 (de) 2012-05-03

Family

ID=40674154

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112008004057T Withdrawn DE112008004057T5 (de) 2008-10-30 2008-10-30 Erkennen verborgener Bedrohungen

Country Status (5)

Country Link
US (1) US8885938B2 (de)
CN (1) CN102203801B (de)
DE (1) DE112008004057T5 (de)
GB (1) GB2477680B (de)
WO (1) WO2010050952A1 (de)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EA022136B1 (ru) * 2009-05-16 2015-11-30 Рапискан Системз, Инк. Системы и способы для автоматизированного быстрого обнаружения веществ с большим атомным номером
US20140010437A1 (en) * 2011-03-22 2014-01-09 Ram C. Naidu Compound object separation
DE102011112652A1 (de) * 2011-05-16 2012-11-22 Eads Deutschland Gmbh Bildanalyse für Kampfmittelbeseitigung und Sicherheitskontrollen
WO2013080056A2 (en) * 2011-11-22 2013-06-06 Smiths Heimann Gmbh Laptop detection
US9589188B2 (en) * 2012-11-14 2017-03-07 Varian Medical Systems, Inc. Method and apparatus pertaining to identifying objects of interest in a high-energy image
CN103901489B (zh) * 2012-12-27 2017-07-21 清华大学 检查物体的方法、显示方法和设备
CN105785462B (zh) 2014-06-25 2019-02-22 同方威视技术股份有限公司 一种定位三维ct图像中的目标的方法和安检ct系统
WO2016095776A1 (zh) * 2014-12-18 2016-06-23 同方威视技术股份有限公司 一种定位三维ct图像中的目标的方法和安检ct系统
EP2996066A1 (de) * 2014-09-10 2016-03-16 Siemens Aktiengesellschaft Verfahren und System zur automatischen optischen Identifikation eines Containers auf Basis seiner Containernummer
EP3213504B1 (de) * 2014-10-28 2022-04-13 Hewlett-Packard Development Company, L.P. Bilddatensegmentierung
IL239191A0 (en) * 2015-06-03 2015-11-30 Amir B Geva Image sorting system
US9652846B1 (en) * 2015-10-22 2017-05-16 International Business Machines Corporation Viewpoint recognition in computer tomography images
GB201602652D0 (en) * 2016-02-15 2016-03-30 Metrasens Ltd Improvements to magnetic detectors
GB2595986A (en) 2016-02-22 2021-12-15 Rapiscan Systems Inc Systems and methods for detecting threats and contraband in cargo
US10331979B2 (en) * 2016-03-24 2019-06-25 Telesecurity Sciences, Inc. Extraction and classification of 3-D objects
CN106443815B (zh) * 2016-09-05 2019-01-25 华讯方舟科技有限公司 一种太赫兹安检方法及系统
CN109863499A (zh) * 2016-10-19 2019-06-07 模拟技术公司 使用局部计算机断层摄影值分布分析的物品归类
US10832391B2 (en) 2017-05-22 2020-11-10 L-3 Security & Detection Systems, Inc. Systems and methods for image processing
US10572963B1 (en) 2017-07-14 2020-02-25 Synapse Technology Corporation Detection of items
US10210631B1 (en) 2017-08-18 2019-02-19 Synapse Technology Corporation Generating synthetic image data
CN109522913B (zh) * 2017-09-18 2022-07-19 同方威视技术股份有限公司 检查方法和检查设备以及计算机可读介质
DE102018108683A1 (de) * 2018-04-12 2019-10-17 Smiths Heimann Gmbh Automatische Erkennung manipulierter metallischer Gegenstände in Röntgenbildern
US10366293B1 (en) * 2018-04-24 2019-07-30 Synapse Technology Corporation Computer system and method for improving security screening
US10452959B1 (en) 2018-07-20 2019-10-22 Synapse Tehnology Corporation Multi-perspective detection of objects
JP7476194B2 (ja) 2018-08-10 2024-04-30 レイドス・セキュリティ・ディテクション・アンド・オートメーション・インコーポレイテッド 画像処理のためのシステムおよび方法
US20210350045A1 (en) * 2018-10-16 2021-11-11 Arizona Board Of Regents On Behalf Of The University Of Arizona Stochastic bag generator
US11010605B2 (en) 2019-07-30 2021-05-18 Rapiscan Laboratories, Inc. Multi-model detection of objects
US11430109B2 (en) * 2020-07-02 2022-08-30 Battelle Memorial Institute Tray inserts and image quality, systems, methods and algorithm for quantifying tray's impact using the same
US11538319B2 (en) 2020-09-22 2022-12-27 Kyndryl, Inc. Identifying a distributed threat in a security zone
US20220245384A1 (en) * 2021-02-01 2022-08-04 The Government of the United States of America, as represented by the Secretary of Homeland Security Scanners to characterize and distinguish anomalies based on multiple mode scans
CN113837208B (zh) * 2021-10-18 2024-01-23 北京远鉴信息技术有限公司 一种异常图像的确定方法、装置、电子设备及存储介质
EP4430583A1 (de) * 2021-11-12 2024-09-18 Microsoft Technology Licensing, LLC Adaptive künstliche intelligenz zur dreidimensionalen objekterkennung unter verwendung synthetischer trainingsdaten
US12095738B2 (en) 2022-11-15 2024-09-17 The Government of the United States of America, as represented by the Secretary of Homeland Security Time-based server management system for networked endpoints

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6345113B1 (en) 1999-01-12 2002-02-05 Analogic Corporation Apparatus and method for processing object data in computed tomography data using object projections

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6026143A (en) * 1998-02-11 2000-02-15 Analogic Corporation Apparatus and method for detecting sheet objects in computed tomography data
US6108396A (en) * 1998-02-11 2000-08-22 Analogic Corporation Apparatus and method for correcting object density in computed tomography data
US6195444B1 (en) * 1999-01-12 2001-02-27 Analogic Corporation Apparatus and method for detecting concealed objects in computed tomography data
WO2005010561A2 (en) * 2003-07-22 2005-02-03 L-3 Communications Security and Detection Systems Corporation Methods and apparatus for detecting objects in baggage using x-rays
US7302083B2 (en) * 2004-07-01 2007-11-27 Analogic Corporation Method of and system for sharp object detection using computed tomography images
JP2008520391A (ja) * 2004-11-23 2008-06-19 ケアストリーム ヘルス インク 解剖的情報を用いて自動化された放射線写真の分類

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6345113B1 (en) 1999-01-12 2002-02-05 Analogic Corporation Apparatus and method for processing object data in computed tomography data using object projections

Also Published As

Publication number Publication date
GB2477680A (en) 2011-08-10
WO2010050952A1 (en) 2010-05-06
GB2477680B (en) 2015-05-20
US20110206240A1 (en) 2011-08-25
CN102203801B (zh) 2014-03-26
US8885938B2 (en) 2014-11-11
CN102203801A (zh) 2011-09-28
GB201108708D0 (en) 2011-07-06

Similar Documents

Publication Publication Date Title
DE112008004057T5 (de) Erkennen verborgener Bedrohungen
DE60038158T2 (de) Zielerfassungsvorrichtung und verfahren zur schätzung des azimuts von radarzielen mittels radon transformation
EP3123208B1 (de) Detektion von gegenständen in einem objekt
DE60114469T2 (de) Methode und Gerät zur Bestimmung von interessanten Bildern und zur Bildübermittlung
DE112009005018B4 (de) Trennung zusammengesetzter Objekte
DE102006010607A1 (de) Wahrscheinlichkeitstheoretischer Verstärkungsbaum-Rahmen zum Lernen von Unterscheidungsmodellen
EP1797533B1 (de) Verfahren und vorrichtung zur segmentierung einer digitalen abbildung von zellen
DE102007025320B4 (de) Verfahren und Vorrichtung zur Analyse von Gegenständen
DE69322095T2 (de) Verfahren und gerät zur identifizierung eines objekts mittels eine geordneten folge von grenz-pixel-parametern
DE102011054658A1 (de) Verfahren zur Unterscheidung zwischen einem realen Gesicht und einer zweidimensionalen Abbildung des Gesichts in einem biometrischen Erfassungsprozess
RU2683125C1 (ru) Способ и система обнаружения контрабанды наркотиков в пищеварительном тракте человека
DE102007032061A1 (de) System und Verfahren zur automatischen 3D-Scandaten-Ausrichtung
DE102004063769A1 (de) Verfahren und Einrichtung zur automatischen und quantitativen Erfassung des Anteils von Saatgütern oder Körnerfrüchten bestimmter Qualität
DE60303138T2 (de) Vergleichen von mustern
EP1522878B1 (de) Verfahren zur Bestimmung der Lageänderung eines Gepäckstücks zur Untersuchung einer verdächtigen Region in diesem Gepäckstück
DE112019005143T5 (de) System zur co-registrierung medizinischer bilder unter verwendung eines klassifikators
DE112004002416T5 (de) Toboggan-basierte Formcharakterisierung
DE112009005102B4 (de) Aufspaltung mehrteiliger Objekte
DE102004059577A1 (de) Verfahren zur radiologischen Bildverarbeitung
DE102005049017B4 (de) Verfahren zur Segmentierung in einem n-dimensionalen Merkmalsraum und Verfahren zur Klassifikation auf Grundlage von geometrischen Eigenschaften segmentierter Objekte in einem n-dimensionalen Datenraum
DE102004049227B4 (de) Verfahren zur Bestimmung der Lageänderung eines Objekts in einem Gepäckstück
DE102010028382A1 (de) Verfahren und Computersystem zur Bearbeitung tomographischer Bilddaten aus einer Röntgen-CT-Untersuchung eines Untersuchungsobjektes
KR101894537B1 (ko) 컴퓨터 비전에 기반한 불법 객체 분류 방법 및 시스템
DE102018122842A1 (de) Computerimplementiertes Verfahren zur Komprimierung von Messdaten aus einer Messung eines Messvolumens
DE69328078T2 (de) Zeichensegmentierungsgerät und Zeichenerkennungsgerät, das dieses verwendet

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee