DE69230202T2 - Verfahren und Gerät zum sehr schnellen Extrahieren aus einem dynamischen Bereich - Google Patents
Verfahren und Gerät zum sehr schnellen Extrahieren aus einem dynamischen BereichInfo
- Publication number
- DE69230202T2 DE69230202T2 DE69230202T DE69230202T DE69230202T2 DE 69230202 T2 DE69230202 T2 DE 69230202T2 DE 69230202 T DE69230202 T DE 69230202T DE 69230202 T DE69230202 T DE 69230202T DE 69230202 T2 DE69230202 T2 DE 69230202T2
- Authority
- DE
- Germany
- Prior art keywords
- area
- image
- boundary
- significant
- subsequent
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000605 extraction Methods 0.000 title claims description 36
- 238000000034 method Methods 0.000 title claims description 25
- 230000003068 static effect Effects 0.000 claims description 14
- 230000009467 reduction Effects 0.000 claims description 13
- 238000012937 correction Methods 0.000 claims description 12
- 230000008719 thickening Effects 0.000 claims description 12
- 230000008859 change Effects 0.000 claims description 4
- 238000006073 displacement reaction Methods 0.000 claims description 4
- 238000010422 painting Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 239000002131 composite material Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Studio Circuits (AREA)
- Editing Of Facsimile Originals (AREA)
Description
- Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung zum Extrahieren eines dynamischen Bildbereichs, welches in der Lage ist, ein Bild eines signifikanten sich bewegenden Objekts in einem dynamischen Bild zu extrahieren.
- Allgemein sind auf dem Gebiet der Bildkomposition folgende Verfahren zum Extrahieren eines dynamischen Bildbereichs bekannt, welcher zum Erzeugen eines zusammengesetzten Bildes verwendet wird, wobei die Bilder von spezifischen signifikanten sich bewegenden Objekten wie etwa Personen oder Blumen aus einem gewöhnlichen Bild ausgeschnitten und an entsprechenden Positionen angeordnet werden.
- Eines der herkömmlich bekannten Verfahren ist ein Verfahren zum Extrahieren eines Bereichs unter Verwendung eines Chroma-Keys, wobei ein spezielles Hintergrundbild wie etwa ein blauer Hintergrund als Originalbild für das Extrahieren verwendet wird.
- Dieses Verfahren zum Extrahieren eines Bereichs unter Verwendung eines Chroma-Keys ist jedoch insofern problematisch, daß es erforderlich ist, den speziellen Hintergrund während der Aufnahme des Bildes vorzubereiten, so daß es nicht auf Bilder angewendet werden kann, welche mit Hilfe von gewöhnlichen Bildaufnahmeprozeduren erhalten wurden.
- Ein weiteres herkömmlich bekanntes Verfahren ist ein Verfahren zum Extrahieren eines Bereichs, welches einen Video-Kasch verwendet, wobei die Grenze des zu extrahierenden Bereichs manuell in Einheiten von Bildelementen auf dem Originalbild eingegeben wird. Mit diesem Verfahren kann der signifikante Bereich prinzipiell korrekt extrahiert werden.
- Das einen Video-Kasch verwendende Verfahren zum Extrahieren weist jedoch das Problem auf, daß es auf der manuellen Tätigkeit eines Bedieners beruht und deshalb beträchtliche Arbeit, Zeit und Fähigkeiten erfordert, damit der Bediener eine korrekte Eingabe der Grenze jeweils Bildelement für Bildelement vornehmen kann.
- Weiterhin wurde eine Vorrichtung zum Extrahieren eines Bereichs in einem statischen Bild wie die in der japanischen Patentanmeldung 1-314384 vorgeschlagen, deren Konfiguration schematisch in Fig. 1 dargestellt ist.
- Bei der Extraktionsvorrichtung von Fig. 1 wird die Grenze eines signifikanten Bereichs dadurch bestimmt, daß ein Originalbild manuell in der Form einer Umrißfigur an einer Umrißfigur-Eingabeeinheit 1 eingegeben wird, wobei dann an einer auf Kanteninformation basierenden Verdünnungseinheit 2 eine Verdünnung auf ein durch die Umrißfigur-Eingabeeinheit 1 ausgegebenes Grobe-Grenze-Bildsignal 1a angewendet wird. Bei der Verdünnung der Umrißfigur wird von der auf Kanteninformation basierenden Verdünnungseinheit 2 ein von einer Kantenextraktionseinheit mit einer Maskierung 3 erhaltenes Kantenbildsignal 3a verwendet, so daß die Verdünnung auf die Teile angewendet wird, welche kleine Kanteninformationswerte (Kantenkomponenten) mit größerer Priorität aufweisen. Dann wird ein ausgedünntes Bildsignal 2a, das durch die auf Kanteninformation basierende Verdünnungseinheit 2 ausgegeben wird, durch eine Ausmaleinheit 4 ausgemalt, um ein Bereichsbildsignal 4a zu erhalten, das dann mit dem Eingabebildsignal 5a multipliziert wird, um das Ausgabebildsignal 6a zu erhalten, das nur das Bild des signifikanten Bereichs enthält.
- Die Vorrichtung zum Extrahieren eines Bereichs von Fig. 1 weist den Vorteil auf, daß der signifikante Bereich einfach extrahiert werden kann, indem einfach eine Umrißfigur eingegeben wird, wobei sie jedoch nur auf ein statisches Bild angewendet werden kann. Die Entwicklung einer Extraktionseinrichtung dieses Typs, welche auf ein dynamisches Bild angewendet werden kann, ist ein wünschenswertes Ziel.
- Eine Vorrichtung mit den Merkmalen des Oberbegriffs von Anspruch 1 und ein Verfahren in Übereinstimmung mit den Merkmalen des Oberbegriffs von Anspruch 6 sind aus US-A- 4847688 bekannt.
- Es ist deshalb eine Aufgabe der vorliegenden Erfindung, ein Verfahren und eine Vorrichtung zum Extrahieren eines Bildbereichs anzugeben, welche ein Bild eines signifikanten sich bewegenden Objektes in einem dynamischen Bild korrekt und einfach mit hoher Geschwindigkeit extrahieren können.
- Diese Aufgabe wird durch eine Vorrichtung mit den Merkmalen von Anspruch 1 und ein Verfahren mit den Merkmalen von Anspruch 6 erfüllt.
- Andere Merkmale und Vorteile der vorliegenden Erfindung werden durch die folgende Beschreibung verdeutlicht, welche auf die beigefügten Zeichnungen Bezug nimmt.
- Fig. 1 ist ein schematisches Blockdiagramm einer herkömmlichen Vorrichtung zum Extrahieren eines Bereichs, welche nur auf ein statisches Bild angewendet werden kann.
- Fig. 2 ist ein schematisches Blockdiagramm einer Ausführungsform einer Vorrichtung zum Extrahieren eines Bereichs in Übereinstimmung mit der vorliegenden Erfindung.
- Fig. 3 ist eine schematische Darstellung eines Bilddatensignals, das in der Vorrichtung zum Extrahieren eines Bereichs von Fig. 2 verwendet wird.
- Fig. 4 bis 6 sind erläuternde Flußdiagramme, welche den Betrieb zum Extrahieren eines dynamischen Bildbereichs der Vorrichtung zum Extrahieren eines Bereichs von Fig. 2 darstellen.
- Fig. 7A bis 7C sind Darstellungen eines Prozesses zum Feststellen einer Verschiebung, welcher in der Vorrichtung zum Extrahieren eines Bereichs von Fig. 2 verwendet wird.
- Fig. 8A bis 8C sind Darstellungen eines Prozesses zum Feststellen einer Vergrößerungs- oder Verkleinerungsrate, welcher in der Vorrichtung zum Extrahieren eines Bereichs von Fig. 2 verwendet wird.
- Fig. 9A und 9B sind Darstellungen eines Prozesses zum Verdicken von Grenzen, welcher in der Vorrichtung zum Extrahieren eines Bereichs von Fig. 2 verwendet wird.
- Mit Bezug auf Fig. 2 wird im folgenden eine Ausführungsform einer Vorrichtung zum Extrahieren eines dynamischen Bildbereichs in Übereinstimmung mit der vorliegenden Erfindung ausführlich beschrieben.
- Die Vorrichtung zum Extrahieren eines dynamischen Bildbereichs von Fig. 2 umfaßt: eine Umrißfigur-Eingabeeinheit 11, mit welcher Umrißfiguren von signifikanten Bereichen im ersten und zweiten Teilbild manuell eingegeben werden, welche auf der Basis eines durch ein Eingabebildsignal 21 wiedergegebenen Originalbildes bestimmt werden, eine automatische Statischer-Bildbereich-Extraktionseinheit 13 zum automatischen Verdünnen eines Grobgrenzen-Bildsignals 12, das durch die Umrißfigur-Eingabeeinheit 11 ausgegeben wird, um eine dünne Grenzlinie zu erhalten und das Innere der dünnen Liniengrenze auszumalen, um ein Bereichsbildsignal 14 auf der Basis des Eingabebildsignals 21 zu erhalten, und einen Multiplizierer 23 zum Multiplizieren des Eingabebildsignals 21 mit dem Bereichsbildsignal 14, um ein Ausgabebildsignal 22 zu erhalten.
- Weiterhin umfaßt die Vorrichtung von Fig. 2: eine Bereichsvergleichseinheit 15, welche für ein aktuelles n-tes Teilbild das Bereichsbildsignal 14 für das unmittelbar vorausgehende (n-1)-te Teilbild und das Bereichsbildsignal 14 für das zweite vorausgehende (n-2)-te Teilbild vergleicht, um Vergleichsdaten 16 zu erhalten, welche eine Verschiebung des signifikanten Bereichs sowie eine Vergrößerung oder eine Verkleinerungsrate des signifikanten Bereichs angeben, eine Grenzkorrektureinheit 17 zum Anpassen der dünnen Grenzlinie des unmittelbar vorausgehenden (n-1)-ten Teilbildes an das aktuelle n-te Teilbild, indem eine Korrektur in Übereinstimmung mit den Vergleichsdaten 16 auf der dünnen Grenzlinie des unmittelbar vorausgehenden (n-1)-ten Teilbildes vorgenommen wird, um ein abgeschätztes Grenzbildsignal 18 zu erhalten, und eine Grenzverdickungseinheit 19 zum Verdicken des hypothetischen Bildsignals 18 für die angepaßte dünne Grenzlinie des (n-1)-ten Teilbildes, das an die automatische Statischer-Bildbereich-Extraktionseinheit 13 als ein Grobe-Grenze- Bildsignal 20 ausgegeben wird.
- Dementsprechend wendet die Statischer-Bildbereich-Extraktionseinheit 13 für das dritte und folgende Teilbild automatisch die Verdünnung auf das von der Grenzverdickungseinheit 19 ausgegebene Grobe-Grenze-Bildsignal 20 an und malt das Innere der dünnen Grenzlinie aus, um ein Bereichsbildsignal 14 auf der Basis eines Eingabebildsignals 21 zu erhalten, und der Multiplizierer 23 multipliziert das Eingabebildsignal 21 mit dem Bereichsbildsignal 14 für das aktuelle n-te Teilbild, um das Ausgabebildsignal 14 für das aktuelle n-te Teilbild zu erhalten. Dabei wird das Eingabebildsignal 21 derart verwendet, daß die Verdünnung der dicklinigen Umrißfigur zu den Teilen mit größeren Kantenkomponenten im Originalbild hin vorgenommen wird.
- Wie in Fig. 3 gezeigt, gibt in dieser Ausführungsform jedes Bilddatensignal Bilddaten an, welche mehrere Datenrahmen für Bildelemente 24 enthalten, welche in einer Matrix auf einer zweidimensionalen Bildebene enthalten sind.
- Die Vorrichtung zum Extrahieren eines dynamischen Bildbereichs von Fig. 2 führt das Extrahieren eines signifikanten Bereichs in einem dynamischen Bild in Übereinstimmung mit der durch die Flußdiagramme in Fig. 4 bis 6 gezeigten Prozedur wie folgt durch.
- Zuerst wird in Schritt S1 das Eingabebildsignal 21 eingegeben, welches wie in Kasten S1 von Fig. 4 gezeigt ein Originalbild des ersten Bildes wiedergibt.
- Dann wird in Schritt S2 eine Umrißfigur für einen signifikanten Bereich im ersten Teilbild, welche auf der Basis des durch das Eingabebildsignal 21 wiedergegebenen Originalbildes bestimmt wird, manuell mit Hilfe der Umrißfigur-Eingabeeinheit 11 eingegeben, so daß eine wie in Kasten S2 von Fig. 4 gezeigte dicklinige Umrißfigur von der Umrißfigur-Eingabeeinheit 11 zu der automatischen Statischer-Bildbereich-Extraktionseinheit 13 in der Form eines Grobe-Grenze-Bildsignals 12 ausgegeben wird.
- Als nächstes wendet in Schritt S3 die automatische Statischer-Bildbereich-Extraktionseinheit 13 eine Verdünnung auf die dicklinige Umrißfigur für den signifikanten Bereich im ersten Bild an, welche durch das Grobe-Grenze-Bildsignal 12 wiedergegeben wird, um eine wie in Kasten S3 von Fig. 4 gezeigte dünne Grenzlinie für den signifikanten Bereich im ersten Bild auf der Basis des Eingabebildsignals 21 für das erste Teilbild zu erhalten, wobei der Bereich innerhalb der erhaltenen dünnen Grenzlinie ausgemalt wird und in der Form des Bereichsbildsignals 14 ausgegeben wird. Dabei wird wie bereits oben erwähnt das Eingabebildsignal 21 derart genutzt, daß das Verdünnen der dicklinigen Umrißfigur zu den Teilen mit größeren Kantenkomponenten im Originalbild hin vorgenommen wird.
- Dann werden in Schritt S4 das Eingabebildsignal 21 für das erste Teilbild und das Bereichsbildsignal 14 für den signifikanten Bereich im ersten Teilbild durch den Multiplizierer 23 multipliziert, um ein im Kasten S4 von Fig. 4 gezeigtes extrahiertes Bild des signifikanten Bereichs im ersten Teilbild zu erhalten, wobei dieses extrahierte Bild des signifikanten Bereichs im ersten Teilbild in der Form des Ausgabebildsignals 22 ausgegeben wird.
- Als nächstes kehrt die Prozedur in Schritt S5 zu dem oben beschriebenen Schritt S1 zurück, so daß die oben beschriebenen Schritte S1 bis S4 entsprechend für das zweite Teilbild wiederholt werden.
- Dabei wird das in Schritt S3 erhaltene Bereichsbildsignal 14 für den signifikanten Bereich im ersten und zweiten Teilbild auch von der automatischen Statischer-Bildbereich-Extraktionseinheit 13 an die Bereichsvergleichseinheit 15 sowie an die Grenzkorrektureinheit 17 für die Operation für das dritte und die folgenden Teilbilder ausgegeben.
- Nachdem die Schritte S1 bis S4 für das erste und das zweite Teilbild abgeschlossen sind, werden die folgenden in Fig. 5 und 6 gezeigten Schritte für das dritte und die folgenden Teilbilder durchgeführt.
- Zuerst wird in dem in Fig. 6 gezeigten Schritt S6 das Eingabebildsignal 21 eingegeben, welches ein Originalbild des n-ten Teilbildes (n > 2) wiedergibt.
- In Übereinstimmung mit dem zuvor für den signifikanten Bereich in dem unmittelbar vorausgehenden (n-1)-ten Teilbild und den vorausgehenden zweiten (n-2)-ten Teilbild erhaltenen Bereichsbildsignal 14 werden die folgenden in Fig. 5 gezeigten Schritte S7 bis S12 für das aktuelle n-te Teilbild durchgeführt.
- Das Bereichsbildsignal 14 für den in Kasten S8 von Fig. 5 gezeigten signifikanten Bereich im unmittelbar vorausgehenden (n-1)-ten Teilbild und das Bereichsbildsignal 14 für den in Kasten S7 von Fig. 2 gezeigten signifikanten Bereich in dem vorausgehenden zweiten (n-2)- ten Teilbild werden in der Bereichsvergleichseinheit 15 miteinander verglichen, um in Schritt S9 die Vergleichsdaten 16 zu erhalten, welche eine Verschiebung sowie eine Vergößerungs- oder Verkleinerungsrate des signifikanten Bereichs im (n-1)-ten Teilbild gegenüber dem signifikanten Bereich im (n-2)-ten Teilbild angeben.
- Dann wird in Schritt S11 in der Grenzkorrektureinheit 17 eine Korrektur der dünnen Grenzlinie für den signifikanten Bereich im (n-1)-ten Teilbild durchgeführt, welche in Kasten S10 von Fig. 5 gezeigt ist und durch das zuvor durch die automatische Statischer-Bildbereich- Extraktionseinheit 13 erhaltene Bereichsbildsignal 14 wiedergegeben wird, so daß die dünne Grenzlinie für den signifikanten Bereich im unmittelbar vorausgehenden (n-1)-ten Teilbild an das aktuelle nie Teilbild in Übereinstimmung mit einer abgeschätzten Änderung zwischen dem aktuellen n-ten Teilbild und dem unmittelbar vorausgehenden (n-1)-ten Teilbild auf der Basis der Vergleichsdaten 16 angepaßt wird, welche durch die Bereichsvergleichseinheit 15 in Schritt S9 erhalten wurden und eine Verschiebung sowie eine Vergrößerungs- oder Verkleinerungsrate des signifikanten Bereichs im (n-1)-ten Teilbild gegenüber dem signifikanten Bereich im (n-2)-ten Teilbild angeben. Als Ergebnis wird die in Kasten S12 von Fig. 5 gezeigte abgeschätzte dünne Grenzlinie für den signifikanten Bereich im aktuellen n-ten Teilbild in der Form eines Abgeschätzte-Grenze-Bildsignal 18 erhalten und an die Grenzverdickungseinheit 19 ausgegeben.
- Als nächstes wendet in dem in Fig. 6 gezeigten Schritt S13 die Grenzverdickungseinheit 19 eine gleichmäßige Verdickung auf das Abgeschätzte-Grenze-Bildsignal 18 an, welches in Schritt S12 erhalten wurde und die abgeschätzte dünne Liniengrenze für den signifikanten Bereich im aktuellen n-ten Teilbild wiedergibt, um die in Kasten S13 von Fig. 6 gezeigte dicklinige Umrißfigur für den signifikanten Bereich im aktuellen n-ten Teilbild in der Form des Grobe-Grenze-Bildsignals 20 zu erhalten, welches an die automatische Statischer-Bildbereich-Extraktionseinheit 13 ausgegeben wird.
- Dann wendet in Schritt S14 die automatische Statischer-Bildbereich-Extraktionseinheit 13 die Verdünnung der dicklinigen Umrißfigur für den signifikanten Bereich im aktuellen n-ten Teilbild an, welche durch das Grobe-Grenze-Bildsignal 20 wiedergegeben wird, um eine in Kasten S14 von Fig. 6 gezeigte dünne Grenzlinie für den signifikanten Bereich im aktuellen n-ten Teilbild auf der Basis des Eingabebildsignals 21 für das aktuelle n-te Teilbild zu erhalten, und der Bereich innerhalb der erhaltenen dünnen Grenzlinie wird ausgemalt und in der Form des Bereichsbildsignals 14 ausgegeben. Dabei wird wie zuvor das Eingabebildsignal 21 derart verwendet, daß die Verdünnung der dicklinigen Umrißfigur zu den Teilen mit größeren Kantenkomponenten im Originalbild hin durchgeführt wird.
- Dann werden in Schritt S15 das Bildeingabesignal 21 für das aktuelle n-te Teilbild und das Bereichsbildsignal 14 für den signifikanten Bereich im aktuellen n-ten Teilbild durch den Multiplizierer 23 multipliziert, um ein in Kasten S15 von Fig. 6 gezeigtes extrahiertes Bild des signifikanten Bereichs im aktuellen n-ten Teilbild zu erhalten, wobei dieses extrahierte Bild des signifikanten Bereichs im aktuellen n-ten Teilbild in der Form eines Ausgabebildsignals 22 ausgegeben wird.
- Als nächstes kehrt die Prozedur in Schritt S16 zu den oben beschriebenen Schritten S6 und S7 bis S12 zurück, wobei die oben beschriebenen Schritte S6 bis S15 entsprechend für jedes folgende Teilbild bis zum letzten Teilbild wiederholt werden.
- In der oben beschriebenen Prozedur werden die Vergleichsdaten 16, welche eine Verschiebung sowie eine Vergrößerungs- oder Verkleinerungsrate des signifikanten Bereichs im (n-1)-ten Teilbild gegenüber dem (n-2)-ten Teilbild angeben, durch die Bereichsvergleichseinheit 15 in Schritt S9 wie folgt erhalten.
- Eine Verschiebung wird wie in Fig. 7C gezeigt als eine Änderung der Koordinaten (dx, dy) zwischen dem Zentrum G1 des in Fig. 7A gezeigten Zielobjekts im (n-2)-ten Teilbild und dem Zentrum G2 des in Fig. 7B gezeigten Zielobjekts im (n-1)-ten Teilbild bestimmt. Die Grenzkorrektureinheit 17 nimmt dieselbe Verschiebung (dx, dy) für das aktuelle n-te Teilbild gegenüber dem unmittelbar vorausgehenden (n-1)-ten Teilbild an, wenn sie in Schritt S11 die in Fig. 7C angegebene Korrektur vornimmt.
- Eine Vergrößerungs- oder Verkleinerungsrate wird wie in Fig. 8C gezeigt als ein Verhältnis S2/S1 eines durch das in Fig. 8B gezeigte Zielobjekt im (n-1)-ten Teilbild eingenommenen Bereichs S2 gegenüber einem durch das in Fig. 8A gezeigte Zielobjekt im (n-2)-ten Teilbild eingenommenen Bereich S1 bestimmt. Die Grenzkorrektureinheit 17 nimmt dieselbe Vergrößerungs- oder Verkleinerungsrate S2/S1 für das aktuelle Teilbild gegenüber dem unmittelbar vorausgehenden (n-1)-ten Teilbild an, wenn es in Schritt S11 die in Fig. 8C gezeigte Korrektur vornimmt.
- Bei der oben beschriebenen Prozedur wird die Verdickung der geschätzten dünnen Grenzlinie für den signifikanten Bereich im aktuellen n-ten Teilbild, welche durch das Abgeschätzte-Grenze-Bildsignal 18 wiedergegeben wird, durch die Grenzverdickungseinheit 19 wie in Fig. 9A und 9B gezeigt durchgeführt.
- Die in Fig. 9A gezeigte abgeschätzte dünne Grenzlinie L mit der Dicke von einem Bildelement wird um vier Bildelemente auf beiden Seiten der abgeschätzten dünnen Grenzlinie L verdickt, um zum Beispiel die dicklinige Umrißfigur mit einer konstanten Dicke T von neun Bildelementen um die abgeschätzte dünne Grenzlinie L herum zu erhalten.
- Es ist also in Übereinstimmung mit dieser Ausführungsform möglich, ein Bild eines signifikanten sich bewegenden Objekts in einem dynamischen Bild korrekt und einfach mit hoher Geschwindigkeit zu extrahieren, weil es nur erforderlich ist, daß der Bediener nur für die ersten zwei Teilbilder manuell Umrißfiguren eingibt, weil das folgende Extrahieren für jedes folgende Teilbild automatisch in Übereinstimmung mit der geschätzten Umrißfigur durchgeführt werden kann, welche auf der Basis der Grenzen für die zwei unmittelbar dem Teilild vorausgehenden Teilbilder erhalten wird. Insbesondere ist kein spezieller Hintergrund wie bei dem herkömmlichen Verfahren zum Extrahieren eines Bereichs erforderlich, bei welchem ein Chroma-Key verwendet wird. Außerdem ist im Vergleich zu dem herkömmlichen Verfahren zum Extrahieren eines Bereichs unter Verwendung eines Video-Kaschs beträchtlich wenig manuelle Arbeit durch den Bediener erforderlich.
- Dabei ist zu beachten, daß die vorliegende Erfindung mit Bezug auf ein einfarbiges Bild beschrieben wurde, wobei die vorliegende Erfindung jedoch ebensogut auf ein Farbbild angewendet werden kann.
- Es ist weiterhin zu beachten, daß Modifikationen und Variationen der oben beschriebenen Ausführungsformen vorgenommen werden können, ohne daß dadurch von den neuartigen und vorteilhaften Merkmalen der vorliegenden Erfindung abgewichen wird.
Claims (10)
1. Vorrichtung zum Extrahieren eines dynamischen Bildbereichs mit:
einer Umrißfigur-Eingabeeinrichtung zum Eingeben einer groben Grenze für einen
signifikanten Bereich in einem ersten und einem zweiten Teilbild des dynamischen
Bereiches,
einer Grenzhypotheseeinrichtung zum Abschätzen einer groben Grenze für den
signifikanten Bereich des dritten und der folgenden Teilbilder im dynamischen Bild in
Übereinstimmung mit zwei Teilbildern, welche dem dritten und den folgenden Teilbildern
unmittelbar vorausgehen,
einer Statischer-Bildbereich-Extraktionseinrichtung (13) zum Erhalten eines
Extraktionsbereichs für den signifikanten Bereich aus der durch die Umrißfigur-Eingabebeinheit
(11) für das erste und das zweite Teilbild eingegebenen groben Grenze und aus der durch
die Grenzhypotheseeinrichtung für das dritte und die folgenden Bilder abgeschätzten groben
Grenze auf der Basis eines Originalbildes eines entsprechenden Teilbilds des dynamischen
Bildes, und
einer Multiplizierereinrichtung (23) zum Multiplizieren des Originalbildes jedes
Teilbildes des dynamischen Bildes und des Extraktionsbereichs für den signifikanten Bereich in
jedem Teilbild, um ein extrahiertes Bild des signifikanten Bereichs in jedem Teilbild zu
erhalten,
dadurch gekennzeichnet, daß
die Grenzhypotheseeinrichtung umfaßt:
eine Bereichsvergleichseinrichtung (15) zum Vergleichen der Extraktionsbereiche für
die zwei unmittelbar dem dritten und den folgenden Teilbildern vorausgehenden Teilbilder,
um eine Verschiebung und eine Vergrößerungs-Verkleinerungsrate für den signifikanten
Bereich zwischen den zwei Teilbildern zu erhalten,
eine Grenzkorrektureinrichtung (17) zum Korrigieren des Extraktionsbereichs für ein
unmittelbar dem dritten und den folgenden Teilbildern vorausgehendes Teilbild in
Übereinstimmung mit der Verschiebung und der Vergößerungs/Verkleinerungsrate des signifikanten
Bereichs zwischen den zwei Teilbildern, welche durch die Bereichsvergleichseinrichtung (15)
erhalten werden, und
eine Grenzumwandlungseinrichtung (19) zum Umwandeln des durch die
Grenzkorrektureinrichtung (17) korrigierten Extraktionsbereichs für das vorausgehende Teilbild in die
grobe Grenze für den signifikanten Bereich in dem dritten und den folgenden Teilbildern.
2. Vorrichtung nach Anspruch 1, wobei die Statischer-Bildbereich-Extraktionseinrichtung
den Extraktionsbereich aus der groben Grenze durch das Verdünnen der groben Grenze auf
der Basis eines Originalbildes eines entsprechenden Teilbildes des dynamischen Bildes
erhält, um eine dünne Grenzlinie zu erhalten, und Ausmalen des Inneren der dünnen
Grenzlinie, wobei die Grenzumwandlungseinrichtung den durch die
Grenzkorrektureinrichtung korrigierten Extraktionsbereich für das vorausgehende Teilbild in die grobe Grenze
für den signifikanten Bereich in dem dritten und den folgenden Teilbildern umwandelt, indem
sie das dritte und die folgenden Teilbilder durch das Verdicken der dünnen Grenzlinie des
Extraktionsbereichs verdickt.
3. Vorrichtung nach Anspruch 1, wobei die Bereichsvergleichseinrichtung die
Verschiebung des signifikanten Bereichs zwischen den zwei Teilbildern in der Form einer
Koordinatenänderung des Zentrums des signifikanten Bereichs in den zwei Teilbildern erhält.
4. Vorrichtung nach Anspruch 1, wobei die Bereichsvergleichseinrichtung die
Vergrößerungs-Verkleinerungsrate des signifikanten Bereichs zwischen den zwei Teilbildern in der
Form eines Flächenverhältnisses der signifikanten Bereiche in den zwei Teilbildern erhält.
5. Vorrichtung nach Anspruch 1, wobei die Grenzkorrektureinrichtung den
Extraktionsbereich für das unmittelbar dem dritten und den folgenden Teilbildern vorausgehende Teilbild
korrigiert, indem eine Verschiebung und eine Vergrößerungs-Verkleinerungsrate des
signifikanten Bereichs zwischen dem vorausgehenden Teilbild und dem dritten und den folgenden
Teilbildern vorgesehen werden, welche mit der durch die Bereichsvergleichseinrichtung
erhaltenen Verschiebung und Vergrößerungs-Verkleinerungsrate des signifikanten Bereichs
zwischen den zwei Teilbildern identisch sind.
6. Verfahren zum Extrahieren eines dynamischen Bildbereichs, welches folgende
Schritte umfaßt:
Eingeben einer groben Grenze für einen signifikanten Bereich in ersten und zweiten
Teilbildern des dynamischen Bildes,
Abschätzen einer groben Grenze für den signifikanten Bereich in dem dritten und den
folgenden Teilbildern in dem dynamischen Bild in Übereinstimmung mit zwei unmittelbar dem
dritten und den folgenden Teilbildern vorausgehenden Teilbildern,
Erhalten eines Extraktionsbereichs für den signifikanten Bereich aus der
eingegebenen groben Grenze für das erste und zweite Teilbild und aus der abgeschätzten groben
Grenze für das dritte und die folgenden Teilbilder auf der Basis eines Originalbildes eines
entsprechenden Teilbilds des dynamischen Bildes, und
Multiplizieren des Originalbildes jedes Teilbildes des dynamischen Bildes mit dem
Extraktionsbereich für den signifikanten Bereich in jedem Teilbild, um ein extrahiertes Bild
des signifikanten Bereichs in jedem Teilbild zu erhalten
dadurch gekennzeichnet, daß
der Schritt zum Abschätzen folgende Schritte umfaßt:
Vergleichen der Extraktionsbereiche für zwei unmittelbar dem dritten und den
folgenden Teilbildern vorausgehende Teilbilder, um eine Verschiebung und eine Vergrößerungs-
/Verkleinerungsrate des signifikanten Bereichs zwischen den zwei Teilbildern zu erhalten,
Korrigieren des Extraktionsbereichs für ein dem dritten und den folgenden Teilbildern
unmittelbar vorausgehendes Teilbild in Übereinstimmung mit der im Vergleichsschritt
erhaltenen Verschiebung und Vergrößerungs-/Verkleinerungsrate des signifikanten Bereichs
zwischen den zwei Teilbildern, und
Umwandeln des Extraktionsbereichs für das im Korrekturschritt korrigierte
vorausgehende Teilbild in die grobe Grenze für den signifikanten Bereich in dem dritten und den
folgenden Teilbildern.
7. Verfahren nach Anspruch 6, wobei der Extraktionsbereich für den signifikanten
Bereich in dem Schritt zum Erhalten aus der groben Grenze durch das Verdünnen der groben
Grenze auf der Basis eines Originalbildes eines entsprechenden Teilbildes des dynamischen
Bildes erhalten wird, um eine dünne Grenzlinie zu erhalten, und Ausmalen des Inneren der
dünnen Grenzlinie, wobei das im Korrekturschritt korrigierte vorausgehende Teilbild in dem
Schritt zum Extrahieren in die grobe Grenze für den signifikanten Bereich in dem dritten und
den folgenden Teilbildern umgewandelt wird, indem die dünne Liniengrenze des
Extraktionsbereichs verdickt wird.
8. Verfahren nach Anspruch 6, wobei in dem Schritt zum Vergleichen die Verschiebung
und die Vergrößerungs-Verkleinerungsrate des signifikanten Bereichs zwischen den zwei
Teilbildern in der Form einer Koordinatenänderung der Zentren der signifikanten Bereiche in
den zwei Teilbildern erhalten wird.
9. Verfahren nach Anspruch 6, wobei in dem Schritt zum Vergleichen die
Vergrößerungs-/Verkleinerungsrate des signifikanten Bereichs zwischen den zwei Teilbildern in der
Form eines Flächenverhältnisses der signifikanten Bereiche in den zwei Teilbildern erhalten
wird.
10. Verfahren nach Anspruch 6, wobei in dem Schritt zum Korrigieren der
Extraktionsbereich für das unmittelbar dem dritten und den folgenden Teilbildern vorausgehende Teilbild
korrigiert wird, indem eine Verschiebung und eine Vergrößerungs-/Verkleinerungsrate des
signifikanten Bereichs zwischen dem vorausgehenden Teilbild und dem dritten und den
folgenden Teilbildern vorgesehen werden, welche mit der im Vergleichsschritt erhaltenen
Verschiebung und Vergrößerungs-/Verkleinerungsrate des signifikanten Bereichs zwischen
den zwei Teilbildern identisch sind.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3159037A JP3038051B2 (ja) | 1991-06-28 | 1991-06-28 | 動画像領域抽出装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE69230202D1 DE69230202D1 (de) | 1999-12-02 |
DE69230202T2 true DE69230202T2 (de) | 2000-03-23 |
Family
ID=15684867
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE69230202T Expired - Fee Related DE69230202T2 (de) | 1991-06-28 | 1992-05-07 | Verfahren und Gerät zum sehr schnellen Extrahieren aus einem dynamischen Bereich |
Country Status (4)
Country | Link |
---|---|
US (1) | US5333213A (de) |
EP (1) | EP0525310B1 (de) |
JP (1) | JP3038051B2 (de) |
DE (1) | DE69230202T2 (de) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1993016442A1 (en) * | 1992-02-18 | 1993-08-19 | Neopath, Inc. | Method for identifying objects using data processing techniques |
JP3230535B2 (ja) * | 1992-04-30 | 2001-11-19 | キヤノン株式会社 | 画像処理装置 |
GB2270436A (en) * | 1992-09-05 | 1994-03-09 | Ibm | Target tracking system |
KR100209798B1 (ko) * | 1995-04-08 | 1999-07-15 | 전주범 | 확장-내삽을 이용한 윤곽선 물체의 부호화 장치 |
IL114839A0 (en) * | 1995-08-04 | 1997-02-18 | Spiegel Ehud | Apparatus and method for object tracking |
US5774579A (en) * | 1995-08-11 | 1998-06-30 | Canon Kabushiki Kaisha | Block selection system in which overlapping blocks are decomposed |
DE19648963C1 (de) | 1996-11-26 | 1998-04-30 | Siemens Ag | Verfahren zur Bildcodierung eines digitalisierten Bildes, Verfahren zur Bilddecodierung eines digitalisierten Bildes und Anordnung zur Durchführung der Verfahren |
JP2984652B2 (ja) | 1997-08-22 | 1999-11-29 | 富士通株式会社 | 領域抽出装置及び領域抽出方法並びにコンピュータで実現可能なプログラムが記憶された記録媒体 |
CN1292383C (zh) * | 1998-09-10 | 2006-12-27 | 伊强德斯股份有限公司 | 视觉装置 |
US7003061B2 (en) | 2000-12-21 | 2006-02-21 | Adobe Systems Incorporated | Image extraction from complex scenes in digital video |
JP3925112B2 (ja) * | 2001-06-20 | 2007-06-06 | 富士ゼロックス株式会社 | 画像処理装置 |
US6925210B2 (en) * | 2001-07-09 | 2005-08-02 | Michael Herf | Method for blurring images in real-time |
JP3809411B2 (ja) * | 2002-09-27 | 2006-08-16 | キヤノン株式会社 | 画像処理方法及び装置並びに印刷装置 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5994045A (ja) * | 1982-11-22 | 1984-05-30 | Toshiba Corp | 画像入力装置 |
US4847688A (en) * | 1987-04-17 | 1989-07-11 | Matsushita Electric Industrial Co., Ltd. | Moving body recognition circuit using luminance signal and moving body tracking apparatus using the moving body recognition circuit |
US5136659A (en) * | 1987-06-30 | 1992-08-04 | Kokusai Denshin Denwa Kabushiki Kaisha | Intelligent coding system for picture signal |
GB8822062D0 (en) * | 1988-09-20 | 1988-10-19 | Quantel Ltd | Video processing |
US5012522A (en) * | 1988-12-08 | 1991-04-30 | The United States Of America As Represented By The Secretary Of The Air Force | Autonomous face recognition machine |
IT1232109B (it) * | 1989-06-21 | 1992-01-23 | Cselt Centro Studi Lab Telecom | Procedimento e dispositivo di riconoscimento del contorno di immagini in movimento |
FR2652972B1 (fr) * | 1989-10-06 | 1996-11-29 | Thomson Video Equip | Procede et dispositif d'incrustation d'images video couleur auto-adaptatif. |
DE3935447A1 (de) * | 1989-10-25 | 1991-05-02 | Broadcast Television Syst | Verfahren und schaltung zur lageveraenderung einer digital erzeugten trickfigur |
JPH03176780A (ja) * | 1989-12-05 | 1991-07-31 | Nippon Hoso Kyokai <Nhk> | 領域抽出装置 |
-
1991
- 1991-06-28 JP JP3159037A patent/JP3038051B2/ja not_active Expired - Fee Related
-
1992
- 1992-04-30 US US07/876,484 patent/US5333213A/en not_active Expired - Lifetime
- 1992-05-07 EP EP92107720A patent/EP0525310B1/de not_active Expired - Lifetime
- 1992-05-07 DE DE69230202T patent/DE69230202T2/de not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US5333213A (en) | 1994-07-26 |
DE69230202D1 (de) | 1999-12-02 |
JP3038051B2 (ja) | 2000-05-08 |
JPH0514807A (ja) | 1993-01-22 |
EP0525310B1 (de) | 1999-10-27 |
EP0525310A3 (en) | 1994-08-17 |
EP0525310A2 (de) | 1993-02-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69412035T2 (de) | Kaskadenartige Bildverarbeitung mit Histogrammvorhersage | |
DE3446898C2 (de) | ||
DE3441063C2 (de) | Verfahren und Vorrichtung für die Glättung gezackter Grenzlinien zwischen Bildbestandteilen eines Reproduktionsbildes | |
DE69027479T2 (de) | Bewegungsabhängige Videosignalverarbeitung | |
DE19504304C2 (de) | Farbtaster-Vorrichtung mit Korrektureinrichtung für Defekte im Hintergrund | |
DE69230202T2 (de) | Verfahren und Gerät zum sehr schnellen Extrahieren aus einem dynamischen Bereich | |
DE3789159T2 (de) | Vorrichtung zur Simulation der Einstellung eines Abtasters. | |
DE69518862T2 (de) | Verfahren und Vorrichtung zur Verarbeitung von Videodaten | |
DE69115117T2 (de) | Gerät zur Verbesserung der Schärfe bei einem Farbbild. | |
DE69027704T2 (de) | Bewegungsabhängige Videosignalverarbeitung | |
DE68928877T2 (de) | Verfahren und Vorrichtung zur Erzeugung von Ausschneide-Maskendaten | |
WO1999049666A1 (de) | Verfahren zur bildanalyse und korrektur von videosignalwerten | |
DE69015153T2 (de) | Segmentierungseinrichtung zur erzeugung farbinterpolationswerte für ein getastetes farbbildsignal. | |
DE69331542T2 (de) | Ein maschinelles verfahren zur kompensation von nichtlinearen bildwandlungen, z.b. zoom und pan, in einem videobildbewegungskompensierten system | |
EP0163898A2 (de) | Verfahren zur Codierung von Faksimiles | |
DE3905234C2 (de) | ||
EP1323294B1 (de) | Verfahren und vorrichtung zum proofen von gerasterten druckdaten unter beibehaltung der rasterinformation | |
DE69023017T2 (de) | Farbbildverarbeitungssystem. | |
DE102004007177A1 (de) | Gerät, Verfahren und Programmprodukt zur Bildverarbeitung | |
DE60320076T2 (de) | Verfahren zur elektronischen farbentfernung unter nutzung räumlicher beziehungen zur verbesserung der genauigkeit | |
DE4124698C2 (de) | ||
DE2018149B2 (de) | Verfahren zur Erhöhung der Schärfe von Farbfernsehbildern und Schaltungsanordnung zur Durchführung des Verfahrens | |
EP0897247A2 (de) | Verfahren zur Berechnung von Bewegungsvektoren | |
DE68915957T2 (de) | Datenkompression. | |
DE69019696T2 (de) | Verfahren und Apparat zur Verminderung von Rauschimpulsen in digitalen Fernsehempfängern. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |