DE102007025320B4 - Verfahren und Vorrichtung zur Analyse von Gegenständen - Google Patents

Verfahren und Vorrichtung zur Analyse von Gegenständen Download PDF

Info

Publication number
DE102007025320B4
DE102007025320B4 DE102007025320.8A DE102007025320A DE102007025320B4 DE 102007025320 B4 DE102007025320 B4 DE 102007025320B4 DE 102007025320 A DE102007025320 A DE 102007025320A DE 102007025320 B4 DE102007025320 B4 DE 102007025320B4
Authority
DE
Germany
Prior art keywords
objects
image
images
sample
image capturing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102007025320.8A
Other languages
English (en)
Other versions
DE102007025320A1 (de
Inventor
Frode Reinholt
Terje Jorgensen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microtrac Retsch GmbH
Original Assignee
Microtrac Retsch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microtrac Retsch GmbH filed Critical Microtrac Retsch GmbH
Publication of DE102007025320A1 publication Critical patent/DE102007025320A1/de
Application granted granted Critical
Publication of DE102007025320B4 publication Critical patent/DE102007025320B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
    • G01N15/02Investigating particle size or size distribution
    • G01N15/0205Investigating particle size or size distribution by optical means
    • G01N15/0227Investigating particle size or size distribution by optical means using imaging; using holography
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
    • G01N15/10Investigating individual particles
    • G01N15/14Optical investigation techniques, e.g. flow cytometry
    • G01N15/1456Optical investigation techniques, e.g. flow cytometry without spatial resolution of the texture or inner structure of the particle, e.g. processing of pulse signals
    • G01N15/1459Optical investigation techniques, e.g. flow cytometry without spatial resolution of the texture or inner structure of the particle, e.g. processing of pulse signals the analysis being performed on a sample stream
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
    • G01N15/10Investigating individual particles
    • G01N15/14Optical investigation techniques, e.g. flow cytometry
    • G01N15/1429Signal processing
    • G01N15/1433Signal processing using image recognition
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
    • G01N2015/0019Means for transferring or separating particles prior to analysis, e.g. hoppers or particle conveyors

Landscapes

  • Chemical & Material Sciences (AREA)
  • Dispersion Chemistry (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Microscoopes, Condenser (AREA)
  • Investigating Or Analysing Biological Materials (AREA)
  • Image Processing (AREA)

Abstract

Verfahren zur Analyse von Gegenständen, die in einer Fluss- oder Produktprobe enthalten sind, wobei Daten, nämlich die individuelle Gegenstandsgröße und Form sowie die Größenverteilung der Gegenstände berechnet und aufgezeigt werden, mit einer Einrichtung zum Erfassen von Bildern der Gegenstände und weiter mit einer Einrichtung zur Erzeugung einer Relativbewegung zwischen der Bilderfassungseinrichtung und den Gegenständen, dadurch gekennzeichnet, dass die relative Bewegung eine Drehbewegung zwischen dem wenigstens einen Gegenstand und der Bilderfassungseinrichtung mit sich bringt, und so zwei oder mehr Bilder der Gegenstände, die unter unterschiedlichen Winkelpositionen aufgenommen wurden, für die weitere Verarbeitung und Analyse der Gegenstände in einer computerbasierten Bildanalyseeinrichtung erstellt werden, wobei die Gegenstände der Probe in einem Messvolumen fallen, sich drehen und die Bilderfassungseinrichtung mehrfache Bilder der Gegenstände der Probe erfasst und jeder einzelne Gegenstand mehrmals erfasst wird.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zur Analye von Gegenständen gemäß dem Oberbegriff von Patentanspruch 1. Darüber hinaus betrifft die vorliegende Erfindung auch eine Vorrichtung zur Analyse von Gegenständen gemäß dem Oberbegriff von Patentanspruch 6.
  • Eine Ausführungsform der Anordnung des Flusses von Gegenständen, die Gegenstände in einem Strom sein könnten, ist es, eine im wesentlichen Einzelschicht oder einen Schleier zu bilden, wo die Gegenstände von einer Bildverarbeitungseinheit erfasst werden.
  • Aus EP 0 348 469 B1 ist ein Verfahren zur automatischen Teilchenanalyse und eine Vorrichtung zur Durchführung desselben bekannt, wo die Größenverteilung der Gegenstände und eine Abweichung dieser Teilchen von einer erwünschten Form und einer erwünschten Farbe bestimmt werden kann. Proben dieser Teilchen strömen aus einem Silo aus und nach unten auf eine vibrierende Platte, und erzeugen so einen strömenden Monoschicht-Gegenstandsschleier. Den Teilchen wird erlaubt, über eine Kante der Platte zu fallen. Der Schleier ist beleuchtet und wenigstens an einer Stelle werden Bilder davon aufgenommen. Die Bilder werden dann analysiert, insbesondere bezüglich der Teilchengrößenverteilung in dem Fluss und der Abweichung von der erwünschten Form.
  • Ein mit diesem Typ der Analysetechnik verbundener Nachteil ist es, dass die Bildgebungsausrüstung die Form und Ausmaße eines Teilchens in lediglich zwei Dimensionen (2-D) aufnimmt, und sie ist daher am besten für homogene Gegenstände oder Sphären geeignet. Wenn jedoch inhomogene Gegenstände zu analysieren sind, wird die dritte Dimension des Teilchens (die Dimension orthogonal zur Bildgebungsebene) in gewisser Weise unbekannt bleiben, wenn diese Art von Ausrüstung bekannter Technik verwendet wird.
  • Aus der WO 2004/051565 A2 ist ein optisches Tomographie-System mit Parallelstrahl zur Bildgebung eines zu analysierenden Objekts bekannt, welches eine Strahlungsquelle mit parallelen Strahlgängen, die das zu analysierende Objekt mit einer Mehrzahl paralleler Strahlengänge erleuchtet, umfasst.
  • Aus der US 2007/0076977 A1 geht ein Verfahren zum Kalibrieren von Kameraparametern hervor, wobei das Verfahren auf Grundlage eines beweglichen Kalibrierungsobjektes unter dem Einfluss der Schwerkraft erfolgt.
  • Aufgabe der vorliegenden Erfindung ist es, ein Verfahren und eine Vorrichtung zur Analyse von Gegenständen zur Verfügung zu stellen, welche eine genaue dreidimensionale Formanalyse der Gegenstände ermöglichen.
  • Die obige Aufgabe ist durch ein Verfahren mit den Merkmalen von Anspruch 1 sowie durch eine Vorrichtung mit den Merkmalen von Anspruch 6 gelöst. Vorteilhafte Ausgestaltungen sind Gegenstand der entsprechenden Unteransprüche.
  • Mit der vorliegenden Erfindung ist es nun möglich, Gegenstände mittels einer Bildaufnahmeeinheit in im wesentlichen drei Dimensionen (3-D) abzubilden und zu verarbeiten. Dies wird mittels einer gesteuerten Propagation und Rotation der Gegenstände zusammen mit einem Algorithmus erreicht, der die Bilder sammelt und berechnet, die von der Bildaufnahmeeinheit von den einzelnen Gegenständen aufgenommen werden, während sie durch das Messvolumen gelangt.
  • Dies und weitere Vorteile können von der Erfindung erreicht werden, wie sie in den beiliegenden Ansprüchen definiert ist.
  • Im Folgenden soll die vorliegende Erfindung weiter mittels Beispielen und Figuren beschrieben, wo:
    • 1 eine Prinzipzeichnung der 3-D Bildgebungsvorrichtung gemäß der vorliegenden Erfindung darstellt, und
    • 2 reale Bilder fallender Gegenstände darstellt, die von der in 1 dargestellten Vorrichtung aufgenommen wurden.
  • Die 3D Bildgebung kann durch einen Aufbau wie in 1 durchgeführt werden.
  • Hier wird die Probe in einen Trichter 1 gegossen. Die Probe wird dann von der Schwingungsplatte 2 zugeführt und fällt von der Kante 3 dieser Platte. Die Rotation ist durch die Wirkung der Schwerkraft und die Teilabstützung auf der Zuführplatte bestimmt und ebenfalls aufgrund der Bewegung des Schwingungszuführers. Die Drehung beginnt, wenn der Gegenstand von der Zuführplatte gleitet.
  • Die Gegenstände der Probe fallen und drehen sich in dem Messvolumen, wo das Bildgebungssystem 4 mehrfache Bilder der Gegenstände der Probe erfaßt. Typischerweise wird jeder einzelne Gegenstand mehrmals erfaßt, wie durch die Anzahlen auf der linken Seite gezeigt ist, die die aufgenommenen Momente eines der fallenden Objekte identifiziert.
  • Es kann eine Vielfalt von Gegenständen von unterschiedlicher Form und Größe in jedem Bild geben.
  • Der Gegenstand/die Gegenstände werden mittels eines Hochgeschwindigkeitsbildgebungssystem mit einer Bildfrequenz erfaßt, die hoch genug ist, um mehrfache Bilder (2 oder mehrere Bilder) des Gegenstands/der Gegenstände aufzunehmen, wenn diese durch das Meßvolumen (oder einen von der Kamera abgedeckten Bereich) gelangen.
  • Die Drehung der Gegenstände kann dann durch die Art und Weise erzeugt werden, in der sie in das Meßvolumen eingespeist werden.
  • Ein Verfahren zur Einführung der Gegenstände in das Meßvolumen arbeitet mittels eines Schwingungseinspeisers, und wenn die Gegenstände an dem Ende des Einspeisers herabfallen, erschafft die Schwerkraft eine Drehung, da ein Teil des Gegenstands von dem Einspeiser getragen ist und der andere Teil des Gegenstands unter Einfluß des Gravitationsfeldes steht. Dies wird eine Drehung bewirken.
  • Andere Verfahren zur Sicherstellung, daß eine Drehung erhalten wird, können darin bestehen, eine Art von mechanischer Anregungsvorrichtung zu verwenden, die auf die Gegenstände einwirkt, wenn diese den Einspeiser verlassen. Dies könnte eine schwingende „Schnur“ sein, die an dem Ausgang des Einspeisers angeordnet ist.
  • Weitere Verfahren zum Einspeisen der Gegenstände und zur Erzeugung der Drehung könnten darin bestehen, ein Zuführband, einen pneumatischen Rüssel, ein Gleitsystem, Einspeisen durch eine Trommel etc. zu verwenden.
  • Der mit 1, 2, 3, 4 durchnummerierte Gegenstand ist der gleiche Gegenstand in aufeinanderfolgenden Bildern, siehe 1. Dies ergibt verschiedene Projektionsflächen, wie in der Figur angezeigt ist, und zwar aufgrund der Drehung des Gegenstands. Siehe ebenfalls 2, in der real aufgenommene Bilder gezeigt werden, und die gleichen Gegenstände in aufeinanderfolgenden Bildern erkannt und identifiziert werden.
  • Jeder einzelne Gegenstand wird in aufeinanderfolgenden Bildern erkannt, indem die Gesetze der Physik ausgenutzt werden. Dies kann erreicht werden, indem die Eigenschaften des Kraftfelds verwendet werden, die die Bewegung des Gegenstands/der Gegenstände bestimmt, um die nächste Position einzuschätzen und den gleichen Gegenstand/die gleichen Gegenstände mehrere Male in aufeinanderfolgenden Bildern zu erkennen.
  • Die Gegenstände können auch erkannt werden, wenn sie eine bekannte Geschwindigkeit haben, z. B. auf einem Zuführband oder in einer Flüssigkeitszelle oder ähnlichem.
  • Weitere Arten, das Erkennen durchzuführen, bestehen darin, das Bildgebungssystem den Gegenständen entweder in linearer Bewegung oder Drehbewegung folgen zu lassen.
  • Um die nächste Position und die Bewegung innerhalb des Bildbereichs einzuschätzen, wenn die Gegenstände in einem Gravitationsfeld fallen, kann die Strecke, die der Gegenstand vom Einspeiser zurückgelegt hat, wenn es in dem Messvolumen beobachtet wird, verwendet werden, um die Zeit einzuschätzen, die der Gegenstand gefallen ist. Um dies durchzuführen, wird die Strecke von dem Einspeiser zu der Bildoberseite, die Bildhöhe und die Zeit zwischen den Bildern verwendet. Unter Ausnutzung all dieser Informationen wird es möglich, die Position einzuschätzen, die ein Gegenstand in dem nächsten Bild haben wird, indem die Position des Gegenstands in dem gegenwärtigen Bild verwendet wird. Dieses Verfahren wird für jedes neue Bild und für alle in jedem einzelnen Bild beobachteten Gegenstände verwendet, um jeden einzelnen Gegenstand mehrere Male zu erkennen, wenn sich diese durch das Messvolumen bewegen.
  • Berechnen der nächsten Position:
  • Die Strecke, die ein Gegenstand innerhalb einer Zeit t fällt, ist gegeben durch: Y = ½ gt2.
  • Der Abstand von dem Schwingungseinspeiser zu der Oberseite des Bildes (ht) ist bekannt, ebenfalls die Bildhöhe (hi) und die Anzahl der Pixel in dem Bild (pm). (Für Gegenstände mit geringerer Dichte und kleinem Durchmesser sollte ebenfalls eine Formel verwendet werden, die den Luftwiderstandsbeiwert des Gegenstands mit berücksichtigt, verwendet werden, um die Strecke/Zeit zu korrigieren, um eine bessere Schätzung zu geben.)
  • Wenn ein Gegenstand an einer bestimmten Pixelposition (px1) beobachtet wird, dann kann die Strecke (p1), die der Gegenstand gefallen ist, berechnet werden: P 1 ( p x1 ) = h t + h i p x1 / ( p m 1 )
    Figure DE102007025320B4_0001
  • Die Zeit, die dieser Gegenstand gefallen ist: t 1 = [ 2 ( h t + h i p x1 / p m 1 ) ) /g ] 1 2
    Figure DE102007025320B4_0002
  • Worum es geht ist, die Position dieses Gegenstands einzuschätzen, die wahrscheinlich in dem nächsten Bild auftritt, das von der Kamera zu der Zeit t 2 = t 1 + Δ τ
    Figure DE102007025320B4_0003
    aufgenommen wird. Hier ist ΔT die Zeit zwischen den zwei Bildern und gleich 1/FPS, wobei FPS die Anzahl der pro Sekunde genommenen Bilder ist.
  • Die wahrscheinlichste Position (p2) für den Gegenstand in dem nächsten Bild als eine Funktion der Pixelposition (p1) in dem gegenwärtigen Bild (zu der Zeit t2) kann ausgedrückt werden durch: p 2 ( p x1 ) = 1 2 g ( 1 fps + 2 h t + h i p x1 p m 1 g ) 2
    Figure DE102007025320B4_0004
    und die wahrscheinlichste Pixelposition (px2) kann auf der Basis von P2 berechnet werden: p x2 = p 2 h t /h i × ( p m 1 )
    Figure DE102007025320B4_0005
  • Daraus ergibt sich die Funktion, die die nächste Position (px2) als eine Funktion der zuvorigen Position (px1) bestimmt: p x2 ( p x1 ) = ( p m 1 ) ( 1 2 g ( 1 fps + 2 h t h i p x1 p m 1 g ) 2 h t ) h i
    Figure DE102007025320B4_0006
  • Beispiel: h t = 0.04
    Figure DE102007025320B4_0007
    h i = 0.35
    Figure DE102007025320B4_0008
    g = 9.81
    Figure DE102007025320B4_0009
    p m = 1024
    Figure DE102007025320B4_0010
    fps = 50
    Figure DE102007025320B4_0011
  • Erste Beobachtung des Gegenstands, px1 = 39.
  • Durch Anwenden der Funktion für px2' (39) ist die nächste Einschätzung 105, dann durch Verwenden von 105 als px1, ergibt px2 (105) als die nächste Einschätzung 182 etc.
    1 39
    2 105
    3 182
    4 271
    5 371
    6 482
    7 606
    8 741
    9 987
    10 1044
  • Die obige Tabelle zeigt, dass wir in der Lage sind, die Teilchen innerhalb dieses Aufbaus (Bildhöhe, F;PS. Usw.) des Teilchen neunmal zu beobachten, da es bei der zehnten Einschätzung aus dem Bildbereich fällt (1044 > 1024).
  • Algorithmus zur Analyse von Gegenständen in 3D
  • Eine Kamera/Framegrabber erfasst 2 dimensionale Bilder der fließenden/fallenden Einzelschleiers von Gegenständen. Für jedes erfasste Bild werden alle Gegenstände in dem Bild identifiziert und gemessen. Dies wird durch Scannen des Bildes bis zum Finden eines Gegenstands durchgeführt. Dann wird der Umfang des Gegenstands überspannt und die Messungen für diesen einzelnen Gegenstand durchgeführt. Dann wird die Suche fortgeführt, bis alle Gegenstände in dem Bild identifiziert und gemessen sind. Dies ergibt eine Liste, die eine Eintragung für jeden Gegenstand im entsprechenden Bild enthält, welche die einzelnen Gegenstände im Detail beschreibt. P b ,n = { A D A  L , X f-max }
    Figure DE102007025320B4_0012
  • Wobei der Index b eine Bildnummer und der Index n die Gegenstandsnummer darstellt. A, DA, L... bedeutet Fläche, auf der Fläche basierter Durchmesser, maximale Länge usw.
  • Definitionen:
  • Δτ
    Zeit zwischen Bildern, d. h. t1 und t2
    A
    gemessene Gegenstandsfläche
    DA
    auf der Fläche basierter Durchmesser
    Xf-max
    Ferretdurchmesser
    (b2)
    Bildnummer b2
    (b1)
    Bildnummer b1, zuvoriges Bild
    X/t1)
    Mittelpunkt, Position an dem der Gegenstand z. Zt. t1 im Bild b1 beobachtet wurde
    X(t2)
    Mittelpunkt, Position eines Gegenstands, das für t2 = Δ + t1 bewegt worden ist und in Bild b2 beobachtet wurde
    L
    maximale Länge des Gegenstands
  • Der nächste Schritt ist es, Gegenstände im Bild (b2) zu identifizieren, wo der gleiche Gegenstand in dem zuvorigen Bild (b1) beobachtet wurde, und den zwei Beispielen des gleichen Gegenstands die gleiche Gegenstandsnummer zu geben.
  • Dies wird durchgeführt, indem die Gesetze der Physik, welche Bewegung eines Gegenstands in einem konservativen Kraftfeld, wie etwa das Gravitationsfeld bestimmen, angewendet werden. Dadurch wird die Position bestimmt, die ein Gegenstand aus dem zuvorigen Bild (b1) im Bild (b2) haben würde, nachdem es für eine Zeit Δτ, die Zeit zwischen zwei aufeinanderfolgenden Bildern, in dem Kraftfeld eine Bewegung durchgeführt hat.
    Figure DE102007025320B4_0013
  • Die Positionsbestimmung für jeden Gegenstand in (b1), für Δτ Sekundengefallen, wird dann mit der aktuellen Lage des Gegenstands in (b2) verglichen. Wenn der Mittelpunkt dieser Einschätzung innerhalb eines gewissen Unbestimmtheitsradius in der Bildebene ist, wird für die aktuelle Position in (b2) Übereinstimmung gefunden.
    Figure DE102007025320B4_0014
  • Wenn eine Übereinstimmung für den Gegenstand in (b2) gefunden wurde, dann wird der Gegenstand als eine weitere Darstellung des Gegenstands (b1) akzeptiert, wenn die Fläche des Gegenstands innerhalb einer gewissen Größentoleranz liegt. Dann wird dem Gegenstand in (b2) die gleiche Nummer wie dem Gegenstand in (b1) zuteil.
  • Wenn es mehr als einen passenden Gegenstand (mehr als einen Gegenstand mit dem Mittelpunkt innerhalb des Unbestimmtheitsradius) gibt, wird dasjenige, dessen Größe am nächsten der des Gegenstands in (b1) ist, ausgewählt und mit der Nummer des entsprechenden Gegenstands in (b1) versehen.
  • Wenn kein Gegenstand gefunden wird, der innerhalb der (Unbestimmtheit) Toleranz ist, wird ihm die nächste verfügbare Ordnungsgegenstandszahl in der Folge zugeordnet, sofern die Position des Gegenstand in (B2) nicht größer ist als px2 (0) + DA/2, dann wird der Gegenstand nicht in Betracht gezogen.
  • Dies wird für alle Gegenstände in dem Bild (b2) wiederholt, bis allen eine Anzahl zugeteilt worden ist oder sie außer Betracht gelassen wurden.
  • Das gleiche Verfahren wird in rekursiver Weise für die nächsten Bilder wiederholt (zu versuchen, die gleichen Gegenstände in dem zuvorigen Bild zu finden), bis alle Proben durch den Analyser eingespeist worden sind. 10000 Bilder werden für eine typische Probe genommen.
  • Und es kann typischerweise 1000 bis 1000000 in der Probe und 10 bis 1000 Gegenstände in jedem Bild geben.
  • Nachdem die gesamte/ein Teil der Probe analysiert wurde, ist eine Liste von Gegenstandsinformationen für das weitere Vorgehen verfügbar. Ein Beispiel der erzeugten Ergebnisse ist in Tabelle 1 gezeigt: Tabelle 1, Darstellung der Eigenschaften der Gegenstände
    BildNo TeilNo A Da Xf- Xf-
    Min max
    1 1 1 1.13 0.49 1.43
    2 1 1.1 1.18 0.32 1.31
    3 1 1.2 1.24 0.28 1.85
    4 1 0.9 1.07 0.28 1.61
    1 2 2 1.60 0.42 3.15
    2 2 2.1 1.64 0.44 2.80
    3 2 3 1 .95 1 .78 2 .33
    4 2 1.8 1.51 0.58 2.27
    2 3 5 2.52 0.63 2.95
    3 3 4 2.26 0.64 2 .93
    4 3 3.3 2.05 1.10 4.05
    2 4 8 3.19 0.69 5.92
    3 4 6 2.76 0.57 4.26
    4 4 5 2.52 1.89 3.97
    5 4 5.5 2.65 1.09 4.97
  • Durch Verarbeitung der Informationen aus Tabelle 1 kann für jeden Gegenstand im Vergleich mit einer 2-D Bildgebung eine bessere Einschätzung und Analyse erhalten werden, da mehr Messungen für jeden Gegenstand verfügbar sind.
  • Beispiel: Für den Gegenstand Nr. 1 kann Xf-max bestimmt werden zu 1,85, Xf-min auf 0,28, die Fläche könnte bestimmt werden, indem ein Durchschnitt von allen gemessenen Flächen genommen wird, usw.
  • Die Fläche  könnte ebenfalls bestimmt werden, indem eine verfügbare Information über den Gegenstand verwendet wird:  = f (A, DA,Xf-min,Xf-max;...) wobei die Funktion f erhalten werden kann, indem unterschiedliche Optimierungstechniken verwendet werden, um bessere Schätzungen zu ergeben. ( bedeutet geschätzte Fläche).
  • Auch zusammengesetzte Maße wie das L/T-Verhältnis (Länge/Dicke) können erhalten werden, in unserem Beispiel wird L/T=1,85/0,28=6,66 betragen.
  • Hier haben wir die vier einzelnen Messungen des Gegensands benutzt, um zu erhalten; die maximale Länge und die minimale Breite von Gegenstand Nr. 1. Unter Verwendung dieser Zahlen erhalten wir eine bessere Schätzung des L/T-Verhältnisses als bei Verwendung herkömmlicher Verfahren, wo nur eine einzelne Messung des Gegenstands verwendet wird.
  • Dagegen würde ein Verfahren bekannter Technik eines der Ergebnisse in dem Satz [2,92; 4,12; 6.54 5,77;...] ergeben, abhängig davon, welche der vier Messungen des Gegenstands verwendet wurde. Tabelle 2, L/T Verhältnisse basiert auf klassischen Verfahren
    BildNo TeilNo A Da Xf-min Xf-max L/T
    1 1 1 1.13 0.49 1.43 2.92
    2 1 1.1 1.18 0.32 1.31 4.09
    3 1 1.2 1.24 0.28 1.85 6.61
    4 1 0.9 1.07 ß.28 1.61 5.75
    Mittelwert 4.84
    Staiindartabweichung 1.65
  • Durch Verarbeitung von allen Instanzen aller Gegenstände in einer derartigen Weise kann eine einzelne Darstellung für jeden Gegenstand mit einem höheren Maß an Genauigkeit erreicht werden als bei der herkömmlichen Technik.
  • Die einzelne Gegenstandsdarstellung kann etwa aussehen (Tabelle 3): Tabelle 3 verarbeitete Gegenstandsinformation
    Teil A Da Xf- Xf- L/T ...
    No Durchschnitt min max
    1 1.05 1.16 0.28 1.85 6.61
    2 2.23 1.68 0.42 3.15 7.50
    3 4.10 2.28 0.63 4.05 6.43
    4 6.13 2.79 0.57 5.92 10.39
  • Die Darstellung der Gegenstände (Tabelle 3) kann als eine Eingabe in üblicher Weise verfügbare Systeme zur Darstellung und Analyse der Gegenstandsgrößenverteilung und der Formeigenschaften von ihnen verwendet werden.
  • Das neue Verfahren kann verwendet werden, um eine bessere Einschätzung von Eigenschaften des Gegenstands als bei der herkömmlichen Technik zu ergeben, wo nur ein Bild von jedem Gegenstand verwendet wurde (oder mehrere Bilder des gleichen Gegenstands, die nicht als der gleiche Gegenstand identifiziert wurden). Die Mehrfachbilder von jedem Gegenstand können dann verwendet werden, um unterschiedliche Größen und Formeigenschaften für jeden einzelnen Gegenstand zu bestimmen. Wie etwa maximale Länge, minimale Breite, Durchschnittsvolumen und komplexere Größen- und Formeigenschaften.
  • Diese neue Erfindung wird einen großen Nutzen in der dynamischen Gegenstandsbildgebungstechnologie haben.
  • Ein Beispiel einer besseren Bestimmung ist die Messung der Maximallänge. Wenn jemand die Maximallänge von jeder Distanz eines einzelnen Gegenstands misst, dann ergibt der Maximalwert dieser Längen einen besseren Schätzwert verglichen mit der realen maximalen Gegenstandslänge als die maximale Länge einer zufälligen Instanz eines bestimmten Gegenstands.
  • Komplexere Eigenschaften können das Längen- Dickenverhältnis sein, wobei die Länge durch die Maximallänge eines einzelnen Gegenstands charakterisiert ist und die Dicke durch die minimale Breite des gleichen Gegenstands, aber nicht notwendigerweise für die gleiche Instanz dieses Gegenstands.
  • Basierend auf der verbesserten Bestimmung für einzelnen Gegenstand kann ein genaueres Ergebnis für die Gesamtprobe geschaffen werden.
  • Es ist zu verstehen, dass anstelle der Erzeugung einer Drehung der Gegenstände die Bildgebungseinrichtung angeordnet werden kann, eine Drehung um die Gegenstände durchzuführen. Die Gegenstände können raumfest sein und auf einer transparenten Schicht oder ähnlichem ruhen, oder sie können sich in dem Gravitationsfeld oder auf einem Zuführer oder ähnlichem bewegen, während die Bildgebungseinrichtung eine Kreisbewegung oder Schraubenbewegung relativ zu den Gegenständen durchführt.
  • Die Beispiel wie oben beschrieben beziehen sich auf Teilchen, aber es ist zu verstehen, dass die Prinzipien der vorliegenden Erfindung für jeglichen Typ von Gegenständen verwendet werden kann. Zum Beispiel wenn Lebensmittelprodukte wie Kartoffeln oder ähnliches, oder selbst Fisch klassifiziert werden.

Claims (8)

  1. Verfahren zur Analyse von Gegenständen, die in einer Fluss- oder Produktprobe enthalten sind, wobei Daten, nämlich die individuelle Gegenstandsgröße und Form sowie die Größenverteilung der Gegenstände berechnet und aufgezeigt werden, mit einer Einrichtung zum Erfassen von Bildern der Gegenstände und weiter mit einer Einrichtung zur Erzeugung einer Relativbewegung zwischen der Bilderfassungseinrichtung und den Gegenständen, dadurch gekennzeichnet, dass die relative Bewegung eine Drehbewegung zwischen dem wenigstens einen Gegenstand und der Bilderfassungseinrichtung mit sich bringt, und so zwei oder mehr Bilder der Gegenstände, die unter unterschiedlichen Winkelpositionen aufgenommen wurden, für die weitere Verarbeitung und Analyse der Gegenstände in einer computerbasierten Bildanalyseeinrichtung erstellt werden, wobei die Gegenstände der Probe in einem Messvolumen fallen, sich drehen und die Bilderfassungseinrichtung mehrfache Bilder der Gegenstände der Probe erfasst und jeder einzelne Gegenstand mehrmals erfasst wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass es den Gegenständen erlaubt ist, sich in einer Ebene im wesentlichen senkrecht zu der Blickachse der Bilderfassungseinrichtung zu bewegen, wobei das erste Bild (b1) des Gegenstands zu einer Zeit t1 erfasst wird, und das nächste Bild (b2) zu einer Zeit t2= t1+ ΔT erfasst wird.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass der Mittelpunkt des Gegenstands X (t1) auf Grundlage des ersten Bildes b1 definiert wird und dann eine Schätzung für die Position des Mittelpunkts des Gegenstands X (t2) in Bild b2 berechnet wird, und weiter ein Toleranzbereich mit seiner Mitte in X (t2) berechnet wird, und dann eine Übereinstimmung gefunden wird, wenn ein Gegenstand in b2 seine Mitte innerhalb des Toleranzbereichs hat.
  4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass der Gegenstand als eine weitere Darstellung des entsprechenden Gegenstands in dem ersten Bild (b1) akzeptiert wird, wenn seine Fläche innerhalb einer bestimmten Größentoleranz liegt.
  5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass wenn keine Gegenstände gefunden werden, die innerhalb einer Toleranz liegen, ihm die nächste verfügbare Ordnungsgegenstandsnummer in der Folge zugeteilt wird, solange die Position des Gegenstands (b2) nicht größer als px2 (0) + DA/2 ist, wonach der Gegenstand nicht in Betracht gezogen wird.
  6. Vorrichtung zur Analyse von Gegenständen, die in einer Fluss- oder Produktprobe enthalten sind, wobei die individuelle Gegenstandsgröße und Form sowie die Größenverteilung der Gegenstände berechnet und aufgezeigt werden, umfassend wenigstens eine Einrichtung zur Erfassung von Bildern der Gegenstände, die so ein Meßvolumen darstellt, und eine Einrichtung zur Erzeugung einer Relativbewegung zwischen der wenigstens einen Bilderfassungseinrichtung und den Gegenständen, und weiter aufweisend eine Einrichtung zur Verarbeitung und Analyse von Bildern, die in dem durch die Bilderfassungseinrichtung dargestellten Meßvolumen aufgenommen wurden, dadurch gekennzeichnet, dass die Relativbewegung eine Drehbewegung zwischen dem wenigstens einen Gegenstand und der Bilderfassungseinrichtung involviert, und so zwei oder mehr Bilder der Gegenstände unter verschiedenen Winkelstellungen relativ zu der Bilderfassungseinrichtung zur weiteren Verarbeitung und Analyse in einer computerbasierten Bildanalyseeinrichtung erstellt werden, wobei die Gegenstände im Messvolumen fallen und sich drehen und die Bilderfassungseinrichtung dazu ausgebildet ist, mehrfache Bilder der Gegenstände der Probe und jeden einzelnen Gegenstand mehrmals zu erfassen.
  7. Vorrichtung nach Anspruch 6, dadurch gekennzeichnet, dass die Bilderfassungseinrichtung eine Megapixelkamera ist.
  8. Vorrichtung nach Anspruch 6 oder 7, wobei den Gegenständen erlaubt ist, im Schwerkraftsfeld zu fallen, dadurch gekennzeichnet, dass die zu analysierenden Gegenstände durch eine mechanische Einrichtung in Drehung versetzt werden.
DE102007025320.8A 2006-06-01 2007-05-31 Verfahren und Vorrichtung zur Analyse von Gegenständen Active DE102007025320B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
NO20062520A NO327576B1 (no) 2006-06-01 2006-06-01 Framgangsmate og apparat for analyse av objekter
NO20062520 2006-06-01

Publications (2)

Publication Number Publication Date
DE102007025320A1 DE102007025320A1 (de) 2007-12-13
DE102007025320B4 true DE102007025320B4 (de) 2021-09-30

Family

ID=38289644

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102007025320.8A Active DE102007025320B4 (de) 2006-06-01 2007-05-31 Verfahren und Vorrichtung zur Analyse von Gegenständen

Country Status (6)

Country Link
US (1) US8270668B2 (de)
JP (2) JP5641671B2 (de)
CN (1) CN101126698B (de)
DE (1) DE102007025320B4 (de)
GB (1) GB2442290B (de)
NO (1) NO327576B1 (de)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2937736B1 (fr) * 2008-10-27 2011-01-07 Snecma Comptage d'inclusions sur alliages par analyse d'images
CN102003947B (zh) * 2010-09-14 2012-10-17 金堆城钼业股份有限公司 一种钼粉形貌定量化表征的方法
TWI708052B (zh) 2011-08-29 2020-10-21 美商安美基公司 用於非破壞性檢測-流體中未溶解粒子之方法及裝置
CN103632167B (zh) * 2013-11-29 2016-10-12 金陵科技学院 类地重力场环境下单目视觉空间识别方法
DE202014100974U1 (de) 2014-03-04 2015-06-08 Retsch Technology Gmbh Vorrichtung zur Bestimmung der Partikelgröße und/oder der Partikelform eines Partikelgemisches
WO2017109543A1 (en) 2015-12-22 2017-06-29 Arcelormittal Method and system for determining the mass of feedstock on a conveyor
US10088660B2 (en) 2017-02-10 2018-10-02 Amgen Inc. Imaging system for counting and sizing particles in fluid-filled vessels
FR3105531B1 (fr) * 2019-12-19 2021-12-31 Neovia Systeme de mesure des dimensions de particules alimentaires et procede associe
JP6978131B1 (ja) * 2021-06-11 2021-12-08 東京技研工業株式会社 外観検査方法及び外観検査装置
DE102022206812A1 (de) * 2022-07-04 2024-01-04 Continental Reifen Deutschland Gmbh Verfahren zur visuellen Inspektion der Oberfläche eines Objekts

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0348469B1 (de) 1987-12-18 1992-03-18 Norsk Hydro A/S Verfahren zur selbsttätigen teilchenanalyse und mittel dafür
WO2004051565A2 (en) 2002-12-03 2004-06-17 Visiongate, Inc. Optical tomography of small objects using parallel ray illumination and post-specimen optical magnification
US20070076977A1 (en) 2005-10-05 2007-04-05 Kuan-Wen Chen Method for calibrating camera parameters

Family Cites Families (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0617876B2 (ja) * 1985-05-10 1994-03-09 肇産業株式会社 物体検査装置
JPH0799326B2 (ja) * 1986-08-30 1995-10-25 株式会社マキ製作所 球塊状物品の外観検査方法と装置
JPS6458387A (en) * 1987-08-28 1989-03-06 Hitachi Plant Eng & Constr Co Classifier for citrus fruits
JPH01105142A (ja) * 1987-10-19 1989-04-21 Hitachi Plant Eng & Constr Co Ltd 柑橘類の検査装置
US5111410A (en) * 1989-06-23 1992-05-05 Kabushiki Kaisha Oh-Yoh Keisoku Kenkyusho Motion analyzing/advising system
JPH03252781A (ja) * 1990-03-02 1991-11-12 Fujitsu Ltd フレーム間領域対応方法
FI94678C (fi) * 1990-10-02 1995-10-10 Fabretti Holdings Ltd Kuvausmenetelmä kappaleiden rakenteen määrittämiseksi
JPH0552535A (ja) * 1991-08-23 1993-03-02 Sony Corp 画像処理装置
JP3093409B2 (ja) * 1992-01-10 2000-10-03 富士通株式会社 3次元計測装置
CA2102442A1 (en) * 1992-11-20 1994-05-21 William Gobush Method and apparatus to determine object striking instrument movement conditions
GB9308952D0 (en) * 1993-04-30 1993-06-16 Philips Electronics Uk Ltd Tracking objects in video sequences
JP2869612B2 (ja) * 1993-11-17 1999-03-10 日東精工株式会社 周面に条体を施したピンの検査装置
JP3610087B2 (ja) * 1994-03-25 2005-01-12 オリンパス株式会社 移動物体追跡装置
AU4253996A (en) * 1994-12-13 1996-07-03 Kjaergaard Industri-Automatic A/S A method and an apparatus for identifying foreign bodies in packaged beverages, as well as use of the apparatus
JPH08188231A (ja) * 1994-12-28 1996-07-23 Churyo Eng Kk 物品の搬送装置
US5732147A (en) * 1995-06-07 1998-03-24 Agri-Tech, Inc. Defective object inspection and separation system using image analysis and curvature transformation
JPH09107540A (ja) * 1995-10-09 1997-04-22 Sharp Corp 監視カメラ装置
JPH09145325A (ja) * 1995-11-29 1997-06-06 Oki Electric Ind Co Ltd 距離推定方法および物体の凹凸形状測定方法
JP2824046B2 (ja) * 1996-06-10 1998-11-11 石井工業株式会社 果菜物の選別搬送装置
JPH1035862A (ja) * 1996-07-24 1998-02-10 Shionogi & Co Ltd 搬送装置及び外観検査装置
JPH11101618A (ja) * 1997-09-25 1999-04-13 Sofuto Waaku Su Kk 果菜類の検査装置
JP3400359B2 (ja) * 1998-09-08 2003-04-28 株式会社クボタ 農産物の検査装置
US6393141B1 (en) * 1998-09-10 2002-05-21 Warner-Lambert Company Apparatus for surface image sensing and surface inspection of three-dimensional structures
US6570608B1 (en) * 1998-09-30 2003-05-27 Texas Instruments Incorporated System and method for detecting interactions of people and vehicles
JP3976916B2 (ja) * 1998-11-27 2007-09-19 ライオンエンジニアリング株式会社 粒状体検査処理装置
JP4039505B2 (ja) * 1999-03-16 2008-01-30 オカノ電機株式会社 外観検査装置
WO2000073996A1 (en) * 1999-05-28 2000-12-07 Glebe Systems Pty Ltd Method and apparatus for tracking a moving object
JP3603737B2 (ja) * 2000-03-30 2004-12-22 日本電気株式会社 移動体追尾方法及びその装置
JP2001311691A (ja) * 2000-04-28 2001-11-09 Shimadzu Corp 外観検査装置
WO2002011065A2 (en) * 2000-08-01 2002-02-07 Toms Jerry L Device and system for use in imaging particulate matter
EP1273901A1 (de) * 2001-07-02 2003-01-08 Université de Liège Verfahren und Vorrichtung zur automatischen Messung der Grösse und Form von Teilchen
US6960756B1 (en) * 2001-11-15 2005-11-01 Visionworks Llc Particle size and shape distribution analyzer
US6805245B2 (en) * 2002-01-08 2004-10-19 Dunkley International, Inc. Object sorting system
US6909790B2 (en) * 2002-02-15 2005-06-21 Inventec Corporation System and method of monitoring moving objects
US7197355B2 (en) * 2002-04-19 2007-03-27 Visiongate, Inc. Variable-motion optical tomography of small objects
JP4101555B2 (ja) * 2002-05-13 2008-06-18 株式会社スキャンテクノロジー 異物検査装置
JP4121319B2 (ja) * 2002-06-27 2008-07-23 リンテック株式会社 多面体検査用フィーダー
GB0227649D0 (en) * 2002-11-27 2003-01-08 Medical Res Council Uses of optical projection tomography methods and apparatus
US6999600B2 (en) * 2003-01-30 2006-02-14 Objectvideo, Inc. Video scene background maintenance using change detection and classification
US7009703B2 (en) * 2003-03-27 2006-03-07 J.M.Canty Inc. Granular product inspection device
US7177487B2 (en) * 2003-04-21 2007-02-13 Baxter International Inc. Determination of particle size by image analysis
JP4090418B2 (ja) * 2003-10-01 2008-05-28 川崎重工業株式会社 発熱監視方法および装置
US7310143B2 (en) * 2003-11-09 2007-12-18 Gerald Walter Budd NIST traceable automated visual inspection system for an inspection of particles in solution
JP2005172608A (ja) * 2003-12-11 2005-06-30 Nichizou Imc:Kk 外観検査装置
US7557966B2 (en) * 2004-08-11 2009-07-07 Acushnet Company Apparatus and method for scanning an object
JP2008536093A (ja) * 2005-01-31 2008-09-04 ザ ボード オブ トラスティーズ オブ ザ ユニヴァーシティー オブ イリノイ 透明媒質及び懸濁媒質内の粒子を特性評価する方法及びデバイス

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0348469B1 (de) 1987-12-18 1992-03-18 Norsk Hydro A/S Verfahren zur selbsttätigen teilchenanalyse und mittel dafür
WO2004051565A2 (en) 2002-12-03 2004-06-17 Visiongate, Inc. Optical tomography of small objects using parallel ray illumination and post-specimen optical magnification
US20070076977A1 (en) 2005-10-05 2007-04-05 Kuan-Wen Chen Method for calibrating camera parameters

Also Published As

Publication number Publication date
GB0710435D0 (en) 2007-07-11
NO327576B1 (no) 2009-08-17
CN101126698A (zh) 2008-02-20
US8270668B2 (en) 2012-09-18
JP5641671B2 (ja) 2014-12-17
JP2013217936A (ja) 2013-10-24
DE102007025320A1 (de) 2007-12-13
US20080031489A1 (en) 2008-02-07
CN101126698B (zh) 2013-05-22
GB2442290B (en) 2011-02-16
NO20062520L (no) 2007-12-03
GB2442290A (en) 2008-04-02
JP2008026309A (ja) 2008-02-07

Similar Documents

Publication Publication Date Title
DE102007025320B4 (de) Verfahren und Vorrichtung zur Analyse von Gegenständen
EP0518188B1 (de) Verfahren zur Bestimmung der Partikelgrössenverteilung von Partikelgemischen
DE60215932T2 (de) Röntgenuntersuchungssystem
DE102010030908B4 (de) Verfahren zur Klassifizierung in Saatgutpartien enthaltener Objekte, Sortierverfahren und zugehörige Vorrichtungen
DE19802141C1 (de) Vorrichtung zur Bestimmung der Partikelgrößenverteilung eines Partikelgemisches
DE112016002090T5 (de) Verfahren und system zur defektklassifizierung
DE3505331C2 (de) Verfahren und Gerät zur Vermessung des bei der Eindringhärteprüfung in einer Probe hinterlassenen Eindrucks
DE112008004057T5 (de) Erkennen verborgener Bedrohungen
DD244415A5 (de) Verfahren zur mikrophotometrischen Untersuchung mikroskopischer Probekörper und Vorrichtung zur Durchführung des Verfahrens
DE102006014812A1 (de) Sichtprüfeinrichtung und Sichtprüfverfahren
DE19633693C1 (de) Verfahren und Vorrichtung zur Erfassung von Targetmustern in einer Textur
CH686207A5 (de) Verfahren und Einrichtung zum Erzeugen eines Bilds hoher Auflosung.
DE3921257A1 (de) Verfahren und vorrichtung zur digitalen analyse von auf stratigraphische daten bezogenen abbildungen
DE10102324A1 (de) Röntgeneinrichtung für die Tomosynthese
DE19951146A1 (de) Verfahren zum Reduzieren des Rauschens in einem durch Abbildung erhaltenen Signal
DE1924253A1 (de) System zum automatischen elektrischen Erkennen von optisch erfassbaren Bildmerkmalen
WO2012146392A1 (de) Verfahren und vorrichtung zur charakterisierung von physikalischen eigenschaften granularer materialien
DE3215067A1 (de) Automatische pruefvorrichtung zum nachweis von fremdkoerpern
EP2795288B1 (de) Verfahren zum ermitteln einer partikeleigenschaft und zum klassifizieren einer partikelcharge sowie vorrichtung zum durchführen der verfahren
WO2005003758A1 (de) Verfahren und vorrichtung zum messen eines schaums
DE19733297C2 (de) Berührungslose optische Dickenmessung
DE102011100146B4 (de) Dreidimensionale Messung von bewegten Objekten
DE1598841A1 (de) Einrichtung zum Analysieren und/oder Trennen von Gemischen
DE4001298A1 (de) Verfahren zur dreidimensionalen lichtoptischen vermessung von objekten und vorrichtung zur durchfuehrung des verfahrens
DE10239767B4 (de) Vorrichtung und Verfahren zum Bestimmen des aerodynamischen Verhaltens von Partikeln in Aerosolen

Legal Events

Date Code Title Description
R012 Request for examination validly filed

Effective date: 20121022

R016 Response to examination communication
R081 Change of applicant/patentee

Owner name: MICROTRAC RETSCH GMBH, DE

Free format text: FORMER OWNER: ANA TEC AS, PORGSGRUNN, NO

R082 Change of representative

Representative=s name: VON ROHR PATENTANWAELTE PARTNERSCHAFT MBB, DE

R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final