DE69230202T2 - Verfahren und Gerät zum sehr schnellen Extrahieren aus einem dynamischen Bereich - Google Patents

Verfahren und Gerät zum sehr schnellen Extrahieren aus einem dynamischen Bereich

Info

Publication number
DE69230202T2
DE69230202T2 DE69230202T DE69230202T DE69230202T2 DE 69230202 T2 DE69230202 T2 DE 69230202T2 DE 69230202 T DE69230202 T DE 69230202T DE 69230202 T DE69230202 T DE 69230202T DE 69230202 T2 DE69230202 T2 DE 69230202T2
Authority
DE
Germany
Prior art keywords
area
image
boundary
significant
subsequent
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69230202T
Other languages
English (en)
Other versions
DE69230202D1 (de
Inventor
Seiki Inoue
Hiroki Koyama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Publication of DE69230202D1 publication Critical patent/DE69230202D1/de
Application granted granted Critical
Publication of DE69230202T2 publication Critical patent/DE69230202T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Studio Circuits (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

  • Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung zum Extrahieren eines dynamischen Bildbereichs, welches in der Lage ist, ein Bild eines signifikanten sich bewegenden Objekts in einem dynamischen Bild zu extrahieren.
  • Allgemein sind auf dem Gebiet der Bildkomposition folgende Verfahren zum Extrahieren eines dynamischen Bildbereichs bekannt, welcher zum Erzeugen eines zusammengesetzten Bildes verwendet wird, wobei die Bilder von spezifischen signifikanten sich bewegenden Objekten wie etwa Personen oder Blumen aus einem gewöhnlichen Bild ausgeschnitten und an entsprechenden Positionen angeordnet werden.
  • Eines der herkömmlich bekannten Verfahren ist ein Verfahren zum Extrahieren eines Bereichs unter Verwendung eines Chroma-Keys, wobei ein spezielles Hintergrundbild wie etwa ein blauer Hintergrund als Originalbild für das Extrahieren verwendet wird.
  • Dieses Verfahren zum Extrahieren eines Bereichs unter Verwendung eines Chroma-Keys ist jedoch insofern problematisch, daß es erforderlich ist, den speziellen Hintergrund während der Aufnahme des Bildes vorzubereiten, so daß es nicht auf Bilder angewendet werden kann, welche mit Hilfe von gewöhnlichen Bildaufnahmeprozeduren erhalten wurden.
  • Ein weiteres herkömmlich bekanntes Verfahren ist ein Verfahren zum Extrahieren eines Bereichs, welches einen Video-Kasch verwendet, wobei die Grenze des zu extrahierenden Bereichs manuell in Einheiten von Bildelementen auf dem Originalbild eingegeben wird. Mit diesem Verfahren kann der signifikante Bereich prinzipiell korrekt extrahiert werden.
  • Das einen Video-Kasch verwendende Verfahren zum Extrahieren weist jedoch das Problem auf, daß es auf der manuellen Tätigkeit eines Bedieners beruht und deshalb beträchtliche Arbeit, Zeit und Fähigkeiten erfordert, damit der Bediener eine korrekte Eingabe der Grenze jeweils Bildelement für Bildelement vornehmen kann.
  • Weiterhin wurde eine Vorrichtung zum Extrahieren eines Bereichs in einem statischen Bild wie die in der japanischen Patentanmeldung 1-314384 vorgeschlagen, deren Konfiguration schematisch in Fig. 1 dargestellt ist.
  • Bei der Extraktionsvorrichtung von Fig. 1 wird die Grenze eines signifikanten Bereichs dadurch bestimmt, daß ein Originalbild manuell in der Form einer Umrißfigur an einer Umrißfigur-Eingabeeinheit 1 eingegeben wird, wobei dann an einer auf Kanteninformation basierenden Verdünnungseinheit 2 eine Verdünnung auf ein durch die Umrißfigur-Eingabeeinheit 1 ausgegebenes Grobe-Grenze-Bildsignal 1a angewendet wird. Bei der Verdünnung der Umrißfigur wird von der auf Kanteninformation basierenden Verdünnungseinheit 2 ein von einer Kantenextraktionseinheit mit einer Maskierung 3 erhaltenes Kantenbildsignal 3a verwendet, so daß die Verdünnung auf die Teile angewendet wird, welche kleine Kanteninformationswerte (Kantenkomponenten) mit größerer Priorität aufweisen. Dann wird ein ausgedünntes Bildsignal 2a, das durch die auf Kanteninformation basierende Verdünnungseinheit 2 ausgegeben wird, durch eine Ausmaleinheit 4 ausgemalt, um ein Bereichsbildsignal 4a zu erhalten, das dann mit dem Eingabebildsignal 5a multipliziert wird, um das Ausgabebildsignal 6a zu erhalten, das nur das Bild des signifikanten Bereichs enthält.
  • Die Vorrichtung zum Extrahieren eines Bereichs von Fig. 1 weist den Vorteil auf, daß der signifikante Bereich einfach extrahiert werden kann, indem einfach eine Umrißfigur eingegeben wird, wobei sie jedoch nur auf ein statisches Bild angewendet werden kann. Die Entwicklung einer Extraktionseinrichtung dieses Typs, welche auf ein dynamisches Bild angewendet werden kann, ist ein wünschenswertes Ziel.
  • Eine Vorrichtung mit den Merkmalen des Oberbegriffs von Anspruch 1 und ein Verfahren in Übereinstimmung mit den Merkmalen des Oberbegriffs von Anspruch 6 sind aus US-A- 4847688 bekannt.
  • Es ist deshalb eine Aufgabe der vorliegenden Erfindung, ein Verfahren und eine Vorrichtung zum Extrahieren eines Bildbereichs anzugeben, welche ein Bild eines signifikanten sich bewegenden Objektes in einem dynamischen Bild korrekt und einfach mit hoher Geschwindigkeit extrahieren können.
  • Diese Aufgabe wird durch eine Vorrichtung mit den Merkmalen von Anspruch 1 und ein Verfahren mit den Merkmalen von Anspruch 6 erfüllt.
  • Andere Merkmale und Vorteile der vorliegenden Erfindung werden durch die folgende Beschreibung verdeutlicht, welche auf die beigefügten Zeichnungen Bezug nimmt.
  • Fig. 1 ist ein schematisches Blockdiagramm einer herkömmlichen Vorrichtung zum Extrahieren eines Bereichs, welche nur auf ein statisches Bild angewendet werden kann.
  • Fig. 2 ist ein schematisches Blockdiagramm einer Ausführungsform einer Vorrichtung zum Extrahieren eines Bereichs in Übereinstimmung mit der vorliegenden Erfindung.
  • Fig. 3 ist eine schematische Darstellung eines Bilddatensignals, das in der Vorrichtung zum Extrahieren eines Bereichs von Fig. 2 verwendet wird.
  • Fig. 4 bis 6 sind erläuternde Flußdiagramme, welche den Betrieb zum Extrahieren eines dynamischen Bildbereichs der Vorrichtung zum Extrahieren eines Bereichs von Fig. 2 darstellen.
  • Fig. 7A bis 7C sind Darstellungen eines Prozesses zum Feststellen einer Verschiebung, welcher in der Vorrichtung zum Extrahieren eines Bereichs von Fig. 2 verwendet wird.
  • Fig. 8A bis 8C sind Darstellungen eines Prozesses zum Feststellen einer Vergrößerungs- oder Verkleinerungsrate, welcher in der Vorrichtung zum Extrahieren eines Bereichs von Fig. 2 verwendet wird.
  • Fig. 9A und 9B sind Darstellungen eines Prozesses zum Verdicken von Grenzen, welcher in der Vorrichtung zum Extrahieren eines Bereichs von Fig. 2 verwendet wird.
  • Mit Bezug auf Fig. 2 wird im folgenden eine Ausführungsform einer Vorrichtung zum Extrahieren eines dynamischen Bildbereichs in Übereinstimmung mit der vorliegenden Erfindung ausführlich beschrieben.
  • Die Vorrichtung zum Extrahieren eines dynamischen Bildbereichs von Fig. 2 umfaßt: eine Umrißfigur-Eingabeeinheit 11, mit welcher Umrißfiguren von signifikanten Bereichen im ersten und zweiten Teilbild manuell eingegeben werden, welche auf der Basis eines durch ein Eingabebildsignal 21 wiedergegebenen Originalbildes bestimmt werden, eine automatische Statischer-Bildbereich-Extraktionseinheit 13 zum automatischen Verdünnen eines Grobgrenzen-Bildsignals 12, das durch die Umrißfigur-Eingabeeinheit 11 ausgegeben wird, um eine dünne Grenzlinie zu erhalten und das Innere der dünnen Liniengrenze auszumalen, um ein Bereichsbildsignal 14 auf der Basis des Eingabebildsignals 21 zu erhalten, und einen Multiplizierer 23 zum Multiplizieren des Eingabebildsignals 21 mit dem Bereichsbildsignal 14, um ein Ausgabebildsignal 22 zu erhalten.
  • Weiterhin umfaßt die Vorrichtung von Fig. 2: eine Bereichsvergleichseinheit 15, welche für ein aktuelles n-tes Teilbild das Bereichsbildsignal 14 für das unmittelbar vorausgehende (n-1)-te Teilbild und das Bereichsbildsignal 14 für das zweite vorausgehende (n-2)-te Teilbild vergleicht, um Vergleichsdaten 16 zu erhalten, welche eine Verschiebung des signifikanten Bereichs sowie eine Vergrößerung oder eine Verkleinerungsrate des signifikanten Bereichs angeben, eine Grenzkorrektureinheit 17 zum Anpassen der dünnen Grenzlinie des unmittelbar vorausgehenden (n-1)-ten Teilbildes an das aktuelle n-te Teilbild, indem eine Korrektur in Übereinstimmung mit den Vergleichsdaten 16 auf der dünnen Grenzlinie des unmittelbar vorausgehenden (n-1)-ten Teilbildes vorgenommen wird, um ein abgeschätztes Grenzbildsignal 18 zu erhalten, und eine Grenzverdickungseinheit 19 zum Verdicken des hypothetischen Bildsignals 18 für die angepaßte dünne Grenzlinie des (n-1)-ten Teilbildes, das an die automatische Statischer-Bildbereich-Extraktionseinheit 13 als ein Grobe-Grenze- Bildsignal 20 ausgegeben wird.
  • Dementsprechend wendet die Statischer-Bildbereich-Extraktionseinheit 13 für das dritte und folgende Teilbild automatisch die Verdünnung auf das von der Grenzverdickungseinheit 19 ausgegebene Grobe-Grenze-Bildsignal 20 an und malt das Innere der dünnen Grenzlinie aus, um ein Bereichsbildsignal 14 auf der Basis eines Eingabebildsignals 21 zu erhalten, und der Multiplizierer 23 multipliziert das Eingabebildsignal 21 mit dem Bereichsbildsignal 14 für das aktuelle n-te Teilbild, um das Ausgabebildsignal 14 für das aktuelle n-te Teilbild zu erhalten. Dabei wird das Eingabebildsignal 21 derart verwendet, daß die Verdünnung der dicklinigen Umrißfigur zu den Teilen mit größeren Kantenkomponenten im Originalbild hin vorgenommen wird.
  • Wie in Fig. 3 gezeigt, gibt in dieser Ausführungsform jedes Bilddatensignal Bilddaten an, welche mehrere Datenrahmen für Bildelemente 24 enthalten, welche in einer Matrix auf einer zweidimensionalen Bildebene enthalten sind.
  • Die Vorrichtung zum Extrahieren eines dynamischen Bildbereichs von Fig. 2 führt das Extrahieren eines signifikanten Bereichs in einem dynamischen Bild in Übereinstimmung mit der durch die Flußdiagramme in Fig. 4 bis 6 gezeigten Prozedur wie folgt durch.
  • Zuerst wird in Schritt S1 das Eingabebildsignal 21 eingegeben, welches wie in Kasten S1 von Fig. 4 gezeigt ein Originalbild des ersten Bildes wiedergibt.
  • Dann wird in Schritt S2 eine Umrißfigur für einen signifikanten Bereich im ersten Teilbild, welche auf der Basis des durch das Eingabebildsignal 21 wiedergegebenen Originalbildes bestimmt wird, manuell mit Hilfe der Umrißfigur-Eingabeeinheit 11 eingegeben, so daß eine wie in Kasten S2 von Fig. 4 gezeigte dicklinige Umrißfigur von der Umrißfigur-Eingabeeinheit 11 zu der automatischen Statischer-Bildbereich-Extraktionseinheit 13 in der Form eines Grobe-Grenze-Bildsignals 12 ausgegeben wird.
  • Als nächstes wendet in Schritt S3 die automatische Statischer-Bildbereich-Extraktionseinheit 13 eine Verdünnung auf die dicklinige Umrißfigur für den signifikanten Bereich im ersten Bild an, welche durch das Grobe-Grenze-Bildsignal 12 wiedergegeben wird, um eine wie in Kasten S3 von Fig. 4 gezeigte dünne Grenzlinie für den signifikanten Bereich im ersten Bild auf der Basis des Eingabebildsignals 21 für das erste Teilbild zu erhalten, wobei der Bereich innerhalb der erhaltenen dünnen Grenzlinie ausgemalt wird und in der Form des Bereichsbildsignals 14 ausgegeben wird. Dabei wird wie bereits oben erwähnt das Eingabebildsignal 21 derart genutzt, daß das Verdünnen der dicklinigen Umrißfigur zu den Teilen mit größeren Kantenkomponenten im Originalbild hin vorgenommen wird.
  • Dann werden in Schritt S4 das Eingabebildsignal 21 für das erste Teilbild und das Bereichsbildsignal 14 für den signifikanten Bereich im ersten Teilbild durch den Multiplizierer 23 multipliziert, um ein im Kasten S4 von Fig. 4 gezeigtes extrahiertes Bild des signifikanten Bereichs im ersten Teilbild zu erhalten, wobei dieses extrahierte Bild des signifikanten Bereichs im ersten Teilbild in der Form des Ausgabebildsignals 22 ausgegeben wird.
  • Als nächstes kehrt die Prozedur in Schritt S5 zu dem oben beschriebenen Schritt S1 zurück, so daß die oben beschriebenen Schritte S1 bis S4 entsprechend für das zweite Teilbild wiederholt werden.
  • Dabei wird das in Schritt S3 erhaltene Bereichsbildsignal 14 für den signifikanten Bereich im ersten und zweiten Teilbild auch von der automatischen Statischer-Bildbereich-Extraktionseinheit 13 an die Bereichsvergleichseinheit 15 sowie an die Grenzkorrektureinheit 17 für die Operation für das dritte und die folgenden Teilbilder ausgegeben.
  • Nachdem die Schritte S1 bis S4 für das erste und das zweite Teilbild abgeschlossen sind, werden die folgenden in Fig. 5 und 6 gezeigten Schritte für das dritte und die folgenden Teilbilder durchgeführt.
  • Zuerst wird in dem in Fig. 6 gezeigten Schritt S6 das Eingabebildsignal 21 eingegeben, welches ein Originalbild des n-ten Teilbildes (n > 2) wiedergibt.
  • In Übereinstimmung mit dem zuvor für den signifikanten Bereich in dem unmittelbar vorausgehenden (n-1)-ten Teilbild und den vorausgehenden zweiten (n-2)-ten Teilbild erhaltenen Bereichsbildsignal 14 werden die folgenden in Fig. 5 gezeigten Schritte S7 bis S12 für das aktuelle n-te Teilbild durchgeführt.
  • Das Bereichsbildsignal 14 für den in Kasten S8 von Fig. 5 gezeigten signifikanten Bereich im unmittelbar vorausgehenden (n-1)-ten Teilbild und das Bereichsbildsignal 14 für den in Kasten S7 von Fig. 2 gezeigten signifikanten Bereich in dem vorausgehenden zweiten (n-2)- ten Teilbild werden in der Bereichsvergleichseinheit 15 miteinander verglichen, um in Schritt S9 die Vergleichsdaten 16 zu erhalten, welche eine Verschiebung sowie eine Vergößerungs- oder Verkleinerungsrate des signifikanten Bereichs im (n-1)-ten Teilbild gegenüber dem signifikanten Bereich im (n-2)-ten Teilbild angeben.
  • Dann wird in Schritt S11 in der Grenzkorrektureinheit 17 eine Korrektur der dünnen Grenzlinie für den signifikanten Bereich im (n-1)-ten Teilbild durchgeführt, welche in Kasten S10 von Fig. 5 gezeigt ist und durch das zuvor durch die automatische Statischer-Bildbereich- Extraktionseinheit 13 erhaltene Bereichsbildsignal 14 wiedergegeben wird, so daß die dünne Grenzlinie für den signifikanten Bereich im unmittelbar vorausgehenden (n-1)-ten Teilbild an das aktuelle nie Teilbild in Übereinstimmung mit einer abgeschätzten Änderung zwischen dem aktuellen n-ten Teilbild und dem unmittelbar vorausgehenden (n-1)-ten Teilbild auf der Basis der Vergleichsdaten 16 angepaßt wird, welche durch die Bereichsvergleichseinheit 15 in Schritt S9 erhalten wurden und eine Verschiebung sowie eine Vergrößerungs- oder Verkleinerungsrate des signifikanten Bereichs im (n-1)-ten Teilbild gegenüber dem signifikanten Bereich im (n-2)-ten Teilbild angeben. Als Ergebnis wird die in Kasten S12 von Fig. 5 gezeigte abgeschätzte dünne Grenzlinie für den signifikanten Bereich im aktuellen n-ten Teilbild in der Form eines Abgeschätzte-Grenze-Bildsignal 18 erhalten und an die Grenzverdickungseinheit 19 ausgegeben.
  • Als nächstes wendet in dem in Fig. 6 gezeigten Schritt S13 die Grenzverdickungseinheit 19 eine gleichmäßige Verdickung auf das Abgeschätzte-Grenze-Bildsignal 18 an, welches in Schritt S12 erhalten wurde und die abgeschätzte dünne Liniengrenze für den signifikanten Bereich im aktuellen n-ten Teilbild wiedergibt, um die in Kasten S13 von Fig. 6 gezeigte dicklinige Umrißfigur für den signifikanten Bereich im aktuellen n-ten Teilbild in der Form des Grobe-Grenze-Bildsignals 20 zu erhalten, welches an die automatische Statischer-Bildbereich-Extraktionseinheit 13 ausgegeben wird.
  • Dann wendet in Schritt S14 die automatische Statischer-Bildbereich-Extraktionseinheit 13 die Verdünnung der dicklinigen Umrißfigur für den signifikanten Bereich im aktuellen n-ten Teilbild an, welche durch das Grobe-Grenze-Bildsignal 20 wiedergegeben wird, um eine in Kasten S14 von Fig. 6 gezeigte dünne Grenzlinie für den signifikanten Bereich im aktuellen n-ten Teilbild auf der Basis des Eingabebildsignals 21 für das aktuelle n-te Teilbild zu erhalten, und der Bereich innerhalb der erhaltenen dünnen Grenzlinie wird ausgemalt und in der Form des Bereichsbildsignals 14 ausgegeben. Dabei wird wie zuvor das Eingabebildsignal 21 derart verwendet, daß die Verdünnung der dicklinigen Umrißfigur zu den Teilen mit größeren Kantenkomponenten im Originalbild hin durchgeführt wird.
  • Dann werden in Schritt S15 das Bildeingabesignal 21 für das aktuelle n-te Teilbild und das Bereichsbildsignal 14 für den signifikanten Bereich im aktuellen n-ten Teilbild durch den Multiplizierer 23 multipliziert, um ein in Kasten S15 von Fig. 6 gezeigtes extrahiertes Bild des signifikanten Bereichs im aktuellen n-ten Teilbild zu erhalten, wobei dieses extrahierte Bild des signifikanten Bereichs im aktuellen n-ten Teilbild in der Form eines Ausgabebildsignals 22 ausgegeben wird.
  • Als nächstes kehrt die Prozedur in Schritt S16 zu den oben beschriebenen Schritten S6 und S7 bis S12 zurück, wobei die oben beschriebenen Schritte S6 bis S15 entsprechend für jedes folgende Teilbild bis zum letzten Teilbild wiederholt werden.
  • In der oben beschriebenen Prozedur werden die Vergleichsdaten 16, welche eine Verschiebung sowie eine Vergrößerungs- oder Verkleinerungsrate des signifikanten Bereichs im (n-1)-ten Teilbild gegenüber dem (n-2)-ten Teilbild angeben, durch die Bereichsvergleichseinheit 15 in Schritt S9 wie folgt erhalten.
  • Eine Verschiebung wird wie in Fig. 7C gezeigt als eine Änderung der Koordinaten (dx, dy) zwischen dem Zentrum G1 des in Fig. 7A gezeigten Zielobjekts im (n-2)-ten Teilbild und dem Zentrum G2 des in Fig. 7B gezeigten Zielobjekts im (n-1)-ten Teilbild bestimmt. Die Grenzkorrektureinheit 17 nimmt dieselbe Verschiebung (dx, dy) für das aktuelle n-te Teilbild gegenüber dem unmittelbar vorausgehenden (n-1)-ten Teilbild an, wenn sie in Schritt S11 die in Fig. 7C angegebene Korrektur vornimmt.
  • Eine Vergrößerungs- oder Verkleinerungsrate wird wie in Fig. 8C gezeigt als ein Verhältnis S2/S1 eines durch das in Fig. 8B gezeigte Zielobjekt im (n-1)-ten Teilbild eingenommenen Bereichs S2 gegenüber einem durch das in Fig. 8A gezeigte Zielobjekt im (n-2)-ten Teilbild eingenommenen Bereich S1 bestimmt. Die Grenzkorrektureinheit 17 nimmt dieselbe Vergrößerungs- oder Verkleinerungsrate S2/S1 für das aktuelle Teilbild gegenüber dem unmittelbar vorausgehenden (n-1)-ten Teilbild an, wenn es in Schritt S11 die in Fig. 8C gezeigte Korrektur vornimmt.
  • Bei der oben beschriebenen Prozedur wird die Verdickung der geschätzten dünnen Grenzlinie für den signifikanten Bereich im aktuellen n-ten Teilbild, welche durch das Abgeschätzte-Grenze-Bildsignal 18 wiedergegeben wird, durch die Grenzverdickungseinheit 19 wie in Fig. 9A und 9B gezeigt durchgeführt.
  • Die in Fig. 9A gezeigte abgeschätzte dünne Grenzlinie L mit der Dicke von einem Bildelement wird um vier Bildelemente auf beiden Seiten der abgeschätzten dünnen Grenzlinie L verdickt, um zum Beispiel die dicklinige Umrißfigur mit einer konstanten Dicke T von neun Bildelementen um die abgeschätzte dünne Grenzlinie L herum zu erhalten.
  • Es ist also in Übereinstimmung mit dieser Ausführungsform möglich, ein Bild eines signifikanten sich bewegenden Objekts in einem dynamischen Bild korrekt und einfach mit hoher Geschwindigkeit zu extrahieren, weil es nur erforderlich ist, daß der Bediener nur für die ersten zwei Teilbilder manuell Umrißfiguren eingibt, weil das folgende Extrahieren für jedes folgende Teilbild automatisch in Übereinstimmung mit der geschätzten Umrißfigur durchgeführt werden kann, welche auf der Basis der Grenzen für die zwei unmittelbar dem Teilild vorausgehenden Teilbilder erhalten wird. Insbesondere ist kein spezieller Hintergrund wie bei dem herkömmlichen Verfahren zum Extrahieren eines Bereichs erforderlich, bei welchem ein Chroma-Key verwendet wird. Außerdem ist im Vergleich zu dem herkömmlichen Verfahren zum Extrahieren eines Bereichs unter Verwendung eines Video-Kaschs beträchtlich wenig manuelle Arbeit durch den Bediener erforderlich.
  • Dabei ist zu beachten, daß die vorliegende Erfindung mit Bezug auf ein einfarbiges Bild beschrieben wurde, wobei die vorliegende Erfindung jedoch ebensogut auf ein Farbbild angewendet werden kann.
  • Es ist weiterhin zu beachten, daß Modifikationen und Variationen der oben beschriebenen Ausführungsformen vorgenommen werden können, ohne daß dadurch von den neuartigen und vorteilhaften Merkmalen der vorliegenden Erfindung abgewichen wird.

Claims (10)

1. Vorrichtung zum Extrahieren eines dynamischen Bildbereichs mit:
einer Umrißfigur-Eingabeeinrichtung zum Eingeben einer groben Grenze für einen signifikanten Bereich in einem ersten und einem zweiten Teilbild des dynamischen Bereiches,
einer Grenzhypotheseeinrichtung zum Abschätzen einer groben Grenze für den signifikanten Bereich des dritten und der folgenden Teilbilder im dynamischen Bild in Übereinstimmung mit zwei Teilbildern, welche dem dritten und den folgenden Teilbildern unmittelbar vorausgehen,
einer Statischer-Bildbereich-Extraktionseinrichtung (13) zum Erhalten eines Extraktionsbereichs für den signifikanten Bereich aus der durch die Umrißfigur-Eingabebeinheit (11) für das erste und das zweite Teilbild eingegebenen groben Grenze und aus der durch die Grenzhypotheseeinrichtung für das dritte und die folgenden Bilder abgeschätzten groben Grenze auf der Basis eines Originalbildes eines entsprechenden Teilbilds des dynamischen Bildes, und
einer Multiplizierereinrichtung (23) zum Multiplizieren des Originalbildes jedes Teilbildes des dynamischen Bildes und des Extraktionsbereichs für den signifikanten Bereich in jedem Teilbild, um ein extrahiertes Bild des signifikanten Bereichs in jedem Teilbild zu erhalten,
dadurch gekennzeichnet, daß
die Grenzhypotheseeinrichtung umfaßt:
eine Bereichsvergleichseinrichtung (15) zum Vergleichen der Extraktionsbereiche für die zwei unmittelbar dem dritten und den folgenden Teilbildern vorausgehenden Teilbilder, um eine Verschiebung und eine Vergrößerungs-Verkleinerungsrate für den signifikanten Bereich zwischen den zwei Teilbildern zu erhalten,
eine Grenzkorrektureinrichtung (17) zum Korrigieren des Extraktionsbereichs für ein unmittelbar dem dritten und den folgenden Teilbildern vorausgehendes Teilbild in Übereinstimmung mit der Verschiebung und der Vergößerungs/Verkleinerungsrate des signifikanten Bereichs zwischen den zwei Teilbildern, welche durch die Bereichsvergleichseinrichtung (15) erhalten werden, und
eine Grenzumwandlungseinrichtung (19) zum Umwandeln des durch die Grenzkorrektureinrichtung (17) korrigierten Extraktionsbereichs für das vorausgehende Teilbild in die grobe Grenze für den signifikanten Bereich in dem dritten und den folgenden Teilbildern.
2. Vorrichtung nach Anspruch 1, wobei die Statischer-Bildbereich-Extraktionseinrichtung den Extraktionsbereich aus der groben Grenze durch das Verdünnen der groben Grenze auf der Basis eines Originalbildes eines entsprechenden Teilbildes des dynamischen Bildes erhält, um eine dünne Grenzlinie zu erhalten, und Ausmalen des Inneren der dünnen Grenzlinie, wobei die Grenzumwandlungseinrichtung den durch die Grenzkorrektureinrichtung korrigierten Extraktionsbereich für das vorausgehende Teilbild in die grobe Grenze für den signifikanten Bereich in dem dritten und den folgenden Teilbildern umwandelt, indem sie das dritte und die folgenden Teilbilder durch das Verdicken der dünnen Grenzlinie des Extraktionsbereichs verdickt.
3. Vorrichtung nach Anspruch 1, wobei die Bereichsvergleichseinrichtung die Verschiebung des signifikanten Bereichs zwischen den zwei Teilbildern in der Form einer Koordinatenänderung des Zentrums des signifikanten Bereichs in den zwei Teilbildern erhält.
4. Vorrichtung nach Anspruch 1, wobei die Bereichsvergleichseinrichtung die Vergrößerungs-Verkleinerungsrate des signifikanten Bereichs zwischen den zwei Teilbildern in der Form eines Flächenverhältnisses der signifikanten Bereiche in den zwei Teilbildern erhält.
5. Vorrichtung nach Anspruch 1, wobei die Grenzkorrektureinrichtung den Extraktionsbereich für das unmittelbar dem dritten und den folgenden Teilbildern vorausgehende Teilbild korrigiert, indem eine Verschiebung und eine Vergrößerungs-Verkleinerungsrate des signifikanten Bereichs zwischen dem vorausgehenden Teilbild und dem dritten und den folgenden Teilbildern vorgesehen werden, welche mit der durch die Bereichsvergleichseinrichtung erhaltenen Verschiebung und Vergrößerungs-Verkleinerungsrate des signifikanten Bereichs zwischen den zwei Teilbildern identisch sind.
6. Verfahren zum Extrahieren eines dynamischen Bildbereichs, welches folgende Schritte umfaßt:
Eingeben einer groben Grenze für einen signifikanten Bereich in ersten und zweiten Teilbildern des dynamischen Bildes,
Abschätzen einer groben Grenze für den signifikanten Bereich in dem dritten und den folgenden Teilbildern in dem dynamischen Bild in Übereinstimmung mit zwei unmittelbar dem dritten und den folgenden Teilbildern vorausgehenden Teilbildern,
Erhalten eines Extraktionsbereichs für den signifikanten Bereich aus der eingegebenen groben Grenze für das erste und zweite Teilbild und aus der abgeschätzten groben Grenze für das dritte und die folgenden Teilbilder auf der Basis eines Originalbildes eines entsprechenden Teilbilds des dynamischen Bildes, und
Multiplizieren des Originalbildes jedes Teilbildes des dynamischen Bildes mit dem Extraktionsbereich für den signifikanten Bereich in jedem Teilbild, um ein extrahiertes Bild des signifikanten Bereichs in jedem Teilbild zu erhalten
dadurch gekennzeichnet, daß
der Schritt zum Abschätzen folgende Schritte umfaßt:
Vergleichen der Extraktionsbereiche für zwei unmittelbar dem dritten und den folgenden Teilbildern vorausgehende Teilbilder, um eine Verschiebung und eine Vergrößerungs- /Verkleinerungsrate des signifikanten Bereichs zwischen den zwei Teilbildern zu erhalten,
Korrigieren des Extraktionsbereichs für ein dem dritten und den folgenden Teilbildern unmittelbar vorausgehendes Teilbild in Übereinstimmung mit der im Vergleichsschritt erhaltenen Verschiebung und Vergrößerungs-/Verkleinerungsrate des signifikanten Bereichs zwischen den zwei Teilbildern, und
Umwandeln des Extraktionsbereichs für das im Korrekturschritt korrigierte vorausgehende Teilbild in die grobe Grenze für den signifikanten Bereich in dem dritten und den folgenden Teilbildern.
7. Verfahren nach Anspruch 6, wobei der Extraktionsbereich für den signifikanten Bereich in dem Schritt zum Erhalten aus der groben Grenze durch das Verdünnen der groben Grenze auf der Basis eines Originalbildes eines entsprechenden Teilbildes des dynamischen Bildes erhalten wird, um eine dünne Grenzlinie zu erhalten, und Ausmalen des Inneren der dünnen Grenzlinie, wobei das im Korrekturschritt korrigierte vorausgehende Teilbild in dem Schritt zum Extrahieren in die grobe Grenze für den signifikanten Bereich in dem dritten und den folgenden Teilbildern umgewandelt wird, indem die dünne Liniengrenze des Extraktionsbereichs verdickt wird.
8. Verfahren nach Anspruch 6, wobei in dem Schritt zum Vergleichen die Verschiebung und die Vergrößerungs-Verkleinerungsrate des signifikanten Bereichs zwischen den zwei Teilbildern in der Form einer Koordinatenänderung der Zentren der signifikanten Bereiche in den zwei Teilbildern erhalten wird.
9. Verfahren nach Anspruch 6, wobei in dem Schritt zum Vergleichen die Vergrößerungs-/Verkleinerungsrate des signifikanten Bereichs zwischen den zwei Teilbildern in der Form eines Flächenverhältnisses der signifikanten Bereiche in den zwei Teilbildern erhalten wird.
10. Verfahren nach Anspruch 6, wobei in dem Schritt zum Korrigieren der Extraktionsbereich für das unmittelbar dem dritten und den folgenden Teilbildern vorausgehende Teilbild korrigiert wird, indem eine Verschiebung und eine Vergrößerungs-/Verkleinerungsrate des signifikanten Bereichs zwischen dem vorausgehenden Teilbild und dem dritten und den folgenden Teilbildern vorgesehen werden, welche mit der im Vergleichsschritt erhaltenen Verschiebung und Vergrößerungs-/Verkleinerungsrate des signifikanten Bereichs zwischen den zwei Teilbildern identisch sind.
DE69230202T 1991-06-28 1992-05-07 Verfahren und Gerät zum sehr schnellen Extrahieren aus einem dynamischen Bereich Expired - Fee Related DE69230202T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3159037A JP3038051B2 (ja) 1991-06-28 1991-06-28 動画像領域抽出装置

Publications (2)

Publication Number Publication Date
DE69230202D1 DE69230202D1 (de) 1999-12-02
DE69230202T2 true DE69230202T2 (de) 2000-03-23

Family

ID=15684867

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69230202T Expired - Fee Related DE69230202T2 (de) 1991-06-28 1992-05-07 Verfahren und Gerät zum sehr schnellen Extrahieren aus einem dynamischen Bereich

Country Status (4)

Country Link
US (1) US5333213A (de)
EP (1) EP0525310B1 (de)
JP (1) JP3038051B2 (de)
DE (1) DE69230202T2 (de)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1993016442A1 (en) * 1992-02-18 1993-08-19 Neopath, Inc. Method for identifying objects using data processing techniques
JP3230535B2 (ja) * 1992-04-30 2001-11-19 キヤノン株式会社 画像処理装置
GB2270436A (en) * 1992-09-05 1994-03-09 Ibm Target tracking system
KR100209798B1 (ko) * 1995-04-08 1999-07-15 전주범 확장-내삽을 이용한 윤곽선 물체의 부호화 장치
IL114839A0 (en) * 1995-08-04 1997-02-18 Spiegel Ehud Apparatus and method for object tracking
US5774579A (en) * 1995-08-11 1998-06-30 Canon Kabushiki Kaisha Block selection system in which overlapping blocks are decomposed
DE19648963C1 (de) 1996-11-26 1998-04-30 Siemens Ag Verfahren zur Bildcodierung eines digitalisierten Bildes, Verfahren zur Bilddecodierung eines digitalisierten Bildes und Anordnung zur Durchführung der Verfahren
JP2984652B2 (ja) 1997-08-22 1999-11-29 富士通株式会社 領域抽出装置及び領域抽出方法並びにコンピュータで実現可能なプログラムが記憶された記録媒体
CN1292383C (zh) * 1998-09-10 2006-12-27 伊强德斯股份有限公司 视觉装置
US7003061B2 (en) 2000-12-21 2006-02-21 Adobe Systems Incorporated Image extraction from complex scenes in digital video
JP3925112B2 (ja) * 2001-06-20 2007-06-06 富士ゼロックス株式会社 画像処理装置
US6925210B2 (en) * 2001-07-09 2005-08-02 Michael Herf Method for blurring images in real-time
JP3809411B2 (ja) * 2002-09-27 2006-08-16 キヤノン株式会社 画像処理方法及び装置並びに印刷装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5994045A (ja) * 1982-11-22 1984-05-30 Toshiba Corp 画像入力装置
US4847688A (en) * 1987-04-17 1989-07-11 Matsushita Electric Industrial Co., Ltd. Moving body recognition circuit using luminance signal and moving body tracking apparatus using the moving body recognition circuit
US5136659A (en) * 1987-06-30 1992-08-04 Kokusai Denshin Denwa Kabushiki Kaisha Intelligent coding system for picture signal
GB8822062D0 (en) * 1988-09-20 1988-10-19 Quantel Ltd Video processing
US5012522A (en) * 1988-12-08 1991-04-30 The United States Of America As Represented By The Secretary Of The Air Force Autonomous face recognition machine
IT1232109B (it) * 1989-06-21 1992-01-23 Cselt Centro Studi Lab Telecom Procedimento e dispositivo di riconoscimento del contorno di immagini in movimento
FR2652972B1 (fr) * 1989-10-06 1996-11-29 Thomson Video Equip Procede et dispositif d'incrustation d'images video couleur auto-adaptatif.
DE3935447A1 (de) * 1989-10-25 1991-05-02 Broadcast Television Syst Verfahren und schaltung zur lageveraenderung einer digital erzeugten trickfigur
JPH03176780A (ja) * 1989-12-05 1991-07-31 Nippon Hoso Kyokai <Nhk> 領域抽出装置

Also Published As

Publication number Publication date
US5333213A (en) 1994-07-26
DE69230202D1 (de) 1999-12-02
JP3038051B2 (ja) 2000-05-08
JPH0514807A (ja) 1993-01-22
EP0525310B1 (de) 1999-10-27
EP0525310A3 (en) 1994-08-17
EP0525310A2 (de) 1993-02-03

Similar Documents

Publication Publication Date Title
DE69412035T2 (de) Kaskadenartige Bildverarbeitung mit Histogrammvorhersage
DE3446898C2 (de)
DE3441063C2 (de) Verfahren und Vorrichtung für die Glättung gezackter Grenzlinien zwischen Bildbestandteilen eines Reproduktionsbildes
DE69027479T2 (de) Bewegungsabhängige Videosignalverarbeitung
DE19504304C2 (de) Farbtaster-Vorrichtung mit Korrektureinrichtung für Defekte im Hintergrund
DE69230202T2 (de) Verfahren und Gerät zum sehr schnellen Extrahieren aus einem dynamischen Bereich
DE3789159T2 (de) Vorrichtung zur Simulation der Einstellung eines Abtasters.
DE69518862T2 (de) Verfahren und Vorrichtung zur Verarbeitung von Videodaten
DE69115117T2 (de) Gerät zur Verbesserung der Schärfe bei einem Farbbild.
DE69027704T2 (de) Bewegungsabhängige Videosignalverarbeitung
DE68928877T2 (de) Verfahren und Vorrichtung zur Erzeugung von Ausschneide-Maskendaten
WO1999049666A1 (de) Verfahren zur bildanalyse und korrektur von videosignalwerten
DE69015153T2 (de) Segmentierungseinrichtung zur erzeugung farbinterpolationswerte für ein getastetes farbbildsignal.
DE69331542T2 (de) Ein maschinelles verfahren zur kompensation von nichtlinearen bildwandlungen, z.b. zoom und pan, in einem videobildbewegungskompensierten system
EP0163898A2 (de) Verfahren zur Codierung von Faksimiles
DE3905234C2 (de)
EP1323294B1 (de) Verfahren und vorrichtung zum proofen von gerasterten druckdaten unter beibehaltung der rasterinformation
DE69023017T2 (de) Farbbildverarbeitungssystem.
DE102004007177A1 (de) Gerät, Verfahren und Programmprodukt zur Bildverarbeitung
DE60320076T2 (de) Verfahren zur elektronischen farbentfernung unter nutzung räumlicher beziehungen zur verbesserung der genauigkeit
DE4124698C2 (de)
DE2018149B2 (de) Verfahren zur Erhöhung der Schärfe von Farbfernsehbildern und Schaltungsanordnung zur Durchführung des Verfahrens
EP0897247A2 (de) Verfahren zur Berechnung von Bewegungsvektoren
DE68915957T2 (de) Datenkompression.
DE69019696T2 (de) Verfahren und Apparat zur Verminderung von Rauschimpulsen in digitalen Fernsehempfängern.

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee