DE102005034597A1 - Verfahren und Anordnung zur Erzeugung einer Tiefenkarte - Google Patents
Verfahren und Anordnung zur Erzeugung einer Tiefenkarte Download PDFInfo
- Publication number
- DE102005034597A1 DE102005034597A1 DE102005034597A DE102005034597A DE102005034597A1 DE 102005034597 A1 DE102005034597 A1 DE 102005034597A1 DE 102005034597 A DE102005034597 A DE 102005034597A DE 102005034597 A DE102005034597 A DE 102005034597A DE 102005034597 A1 DE102005034597 A1 DE 102005034597A1
- Authority
- DE
- Germany
- Prior art keywords
- depth map
- depth
- image components
- scene
- components
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 19
- 238000012935 Averaging Methods 0.000 claims description 4
- 239000000470 constituent Substances 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 3
- 230000001419 dependent effect Effects 0.000 claims description 3
- 238000001454 recorded image Methods 0.000 abstract description 2
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 241001233988 Erysimum cheiri Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000011511 automated evaluation Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000004886 process control Methods 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/571—Depth or shape recovery from multiple images from focus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/58—Means for changing the camera field of view without moving the camera body, e.g. nutating or panning of optics or image sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2625—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of images from a temporal image sequence, e.g. for a stroboscopic effect
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Processing (AREA)
Abstract
Bei
einem Verfahren und einer Anordnung zur Erzeugung einer Tiefenkarte
einer mit einer Videokamera aufzunehmenden Szene ist vorgesehen, dass
die Szene in mehreren voneinander abweichenden Fokus-Einstellungen
aufgenommen wird, wobei die Fokus-Einstellung schrittweise den Tiefenbereich
der Szene durchläuft,
dass den jeweils bei einer Fokus-Einstellung fokussiert aufgenommenen
Bildbestandteilen die Tiefe, welche der jeweiligen Fokus-Einstellung
entspricht, zugeordnet wird, so dass eine erste Tiefenkarte entsteht,
dass die Szene mehrmals mit jeweils einer verschiedenen Zoom-Einstellung
aufgenommen wird und aus den geometrischen Veränderungen von Bildbestandteilen
die Tiefe des jeweiligen Bildbestandteils berechnet wird, so dass eine
zweite Tiefenkarte entsteht, und dass aus den beiden Tiefenkarten
eine kombinierte Tiefenkarte gebildet wird.
Description
- Die Erfindung betrifft ein Verfahren und eine Anordnung zur Erzeugung einer Tiefenkarte einer mit einer Videokamera aufzunehmenden Szene.
- In Video-Überwachungssystemen mit fest installierten Kameras werden Bildverarbeutungs-Algorithmen zur automatisierten Auswertung von Videosequenzen eingesetzt. Dabei werden bewegte Objekte vom nicht bewegten Szenen-Hintergrund getrennt und über die Zeit verfolgt. Bei relevanten Bewegungen werden Alarme ausgelöst. Die verwendeten Verfahren werten meist hierfür die Bildunterschiede zwischen dem aktuellen Kamerabild und einem sogenannten Szenen-Referenzbild aus. Die Erzeugung eines Szenen-Referenzbildes ist beispielsweise beschrieben in K. Toyama, J. Krumm, B. Brumitt, B. Meyers. Wallflower: Principles and Practice of Background Maintainance. ICCV 1999, Korfu, Griechenland.
- Eine Überwachung von bewegten Objekten ist solange relativ einfach, wie sich das bewegte Objekt immer zwischen Kamera und Szenen-Hintergrund bewegt. Besteht jedoch die Szene nicht nur aus einem Hintergrund, sondern auch aus näher an der Kamera befindlichen Objekten, können diese die zu überwachenden bewegten Objekte verdecken. Zur Überwindung dieser Schwierigkeiten ist es bekannt, den Szenen-Hintergrund als Tiefenkarte bzw. dreidimensionales Modell abzuspeichern.
- Ein Verfahren zur Erzeugung einer Tiefenkarte ist durch
US 6,128,071 bekannt geworden. Dabei wird die Szene in mehreren voneinander abweichenden Fokus-Einstellungen aufgenommen. Die jeweils fokussiert auf der Bildebene abgebildeten Bildbestandteile werden dann einer Tiefe zugeordnet, welche durch die Fokus-Einstellung gegeben ist. Durch eine nicht endliche Schärfentiefe sowie Fehler bei der Auswertung der Bildbestandteile ist die Zuordnung der Tiefe zu den Bildbestandteilen jedoch problematisch. - Ein weiteres Verfahren, das beispielsweise aus J. Ma and S. Olsen, "Depth from zooming", J. Opt. Soc. Am. A, Vol. 7, No. 10, pp. 1883–1890, 1990 bekannt ist, beruht auf einem Durchfahren des Brennweitenbereichs eines Zoom-Objektivs und der Auswertung der sich dadurch ergebenden Bewegungen von Bildbestandteilen innerhalb des Bildes. Auch bei diesem Verfahren bestehen Fehlermöglichkeiten, beispielsweise durch Fehler bei der Verfolgung der sich durch die Änderung der Brennweite bewegenden Bildbestandteile.
- Vorteile der Erfindung
- Aufgabe der vorliegenden Erfindung ist es, eine möglichst exakte Tiefenkarte zu erzeugen. Diese Aufgabe wird erfindungsgemäß dadurch gelöst, dass die Szene in mehreren voneinander abweichenden Fokus-Einstellungen aufgenommen wird, wobei die Fokus-Einstellung schrittweise den Tiefenbereich der Szene durchläuft, und dass den jeweils bei einer Fokus-Einstellung fokussiert aufgenommenen Bildbestandteilen die Tiefe, welche der jeweiligen Fokus-Einstellung entspricht, zugeordnet wird, so dass eine erste Tiefenkarte entsteht, dass die Szene mehrmals mit jeweils einer verschiedenen Zoom-Einstellung aufgenommen wird und aus den geometrischen Veränderungen von Bildbestandteilen die Tiefe des jeweiligen Bildbestandteils berechnet wird, so dass eine zweite Tiefenkarte entsteht, und dass aus den beiden Tiefenkarten eine kombinierte Tiefenkarte gebildet wird.
- Außer zur Erzeugung eines Szenen-Hintergrundes für Überwachungsaufgaben kann das erfindungsgemäße Verfahren auch für andere Zwecke verwendet werden, insbesondere für solche, bei denen eine statische Hintergrundkarte bzw. ein 3D-Modell erzeugt wird. Da keine bewegte Szene aufgenommen wird, steht für die Durchführung des erfindungsgemäßen Verfahrens genügend Zeit zur Verfügung. Um bei der Ableitung der ersten Tiefenkarte durch die Veränderung der Fokus-Einstellung möglichst eindeutige Ergebnisse zu erhalten, ist die Blende im Sinne einer möglichst geringen Schärfentiefe entsprechend groß zu wählen. Beim Durchfahren des Zoom-Bereichs ist jedoch, beispielsweise durch eine kleine Blendeneinstellung, eine ausreichende Schärfentiefe sicherzustellen.
- Eine Verbesserung der kombinierten Tiefenkarte ist gemäß einer Weiterbildung der Erfindung dadurch möglich, dass örtlich korrespondierende Bildbestandteile der ersten und zweiten Tiefenkarte mit ähnlichen Tiefen mit einer hohen Konfidenz belegt werden, während örtlich korrespondierende Bildbestandteile mit größeren Abweichungen zwischen der ersten und der zweiten Tiefenkarte mit einer niedrigen Konfidenz belegt werden, dass Bildbestandteile mit hoher Konfidenz unmittelbar in die kombinierte Tiefenkarte aufgenommen werden und Bildbestandteile mit niedriger Konfidenz unter Berücksichtigung der Tiefe von benachbarten Bildbestandteilen mit hoher Konfidenz in die kombinierte Tiefenkarte aufgenommen werden.
- Eine weitere Verbesserung des Ergebnisses kann dadurch erzielt werden, dass die Aufnahmen, die Berechnung der ersten und der zweiten Tiefenkarte sowie die Kombination zu einer kombinierten Tiefenkarte wiederholt vorgenommen werden und die Bildbestandteile der dabei entstehenden kombinierten Tiefenkarten gemittelt werden. Dabei ist vorzugsweise vorgesehen, dass die Mittelung mit einem IIR-Filter erfolgt.
- Die Belegung der Bildbestandteile mit verschiedenen Konfidenzen kann bei einer Weiterbildung in vorteilhafter Weise dadurch berücksichtigt werden, dass ein Koeffizient des IIR-Filters von der Übereinstimmung der Bildbestandteile der ersten mit der zweiten Tiefenkarte derart abhängig ist, dass Bildbestandteile der jeweils neu kombinierten Tiefenkarte gegenüber den vorangegangenen gemittelten Bildbestandteilen bei hoher Übereinstimmung stärker bewertet werden als bei niedriger Übereinstimmung.
- Die erfindungsgemäße Anordnung ist gekennzeichnet durch
Mittel zur Aufnahme der Szene in mehreren voneinander abweichenden Fokus-Einstellungen, wobei die Fokus-Einstellung schrittweise den Tiefenbereich der Szene durchläuft,
Mittel, welche den jeweils bei einer Fokus-Einstellung fokussiert aufgenommenen Bildbestandteilen die Tiefe, welche der jeweiligen Fokus-Einstellung entspricht, zuordnen, so dass eine erste Tiefenkarte entsteht,
Mittel zur mehrmaligen Aufnahme der Szene mit jeweils einer verschiedenen Zoom-Einstellung,
Mittel zur Berechnung der Tiefe des jeweiligen Bildbestandteils aus den geometrischen Veränderungen von Bildbestandteilen, so dass eine zweite Tiefenkarte entsteht, und Mittel zur Bildung einer kombinierten Tiefenkarte aus den beiden Tiefenkarten. - Vorteilhafte Weiterbildungen und Verbesserungen der erfindungsgemäßen Anordnung sind in weiteren Unteransprüchen aufgeführt.
- Zeichnung
- Ausführungsbeispiele der Erfindung sind in der Zeichnung anhand mehrerer Figuren dargestellt und in der nachfolgenden Beschreibung näher erläutert. Es zeigt:
-
1 ein Blockschaltbild einer erfindungsgemäßen Anordnung und -
2 ein Flussdiagramm zur Erläuterung eines Ausführungsbeispiels des erfindungsgemäßen Verfahrens. - Beschreibung der Ausführungsbeispiele
- Die Anordnung nach
1 besteht aus einer an sich bekannten Videokamera1 mit einem Zoom-Objektiv2 , das auf eine Szene3 gerichtet ist, die aus einer Hintergrundebene4 und sich daraus erhebenden Objekten5 ,6 ,7 ,8 besteht. Zur Signalverarbeitung und zur gesamten Ablaufsteuerung ist ein Computer9 vorgesehen, der im Einzelnen nicht dargestellte Stellglieder des Zoom-Objektivs2 , nämlich die Fokus-Einstellung F, die Zoom-Einstellung Z und die Blende A steuert. An den Computer9 ist ein Speicher10 zum Speichern der fertigen Tiefenkarte angeschlossen. Weitere Komponenten, die noch gegebenenfalls zur Anwendung der Tiefenkarte, insbesondere zur Raumüberwachung, dienen, wie beispielsweise Monitore und Alarmgeräte, sind der Übersichtlichkeit halber nicht dargestellt. - Bei dem in
2 dargestellten Verfahren wird bei11 zunächst die Fokus-Einstellung F zwischen zwei Grenzwerten F1 und Fm variiert, wobei jeweils für eine Fokus-Einstellung das aufgenommene Bild derart analysiert wird, dass die jeweils bei einer Fokusstellung fokussiert bzw. scharf abgebildeten Bildbestandteile als zu der jeweiligen Schärfenebene (im folgenden auch Tiefe genannt) gehörend im Speicher abgelegt werden. Als Bildbestandteile eignen sich beispielsweise Gruppen von Pixeln, die zum Erkennen der Scharfeinstellung geeignet sind, beispielsweise Gruppen von Pixeln, in denen bei einer scharfen Abbildung einer Kante ein genügend hoher Gradient zu erkennen ist. Bei12 wird dann die Tiefenkarte bzw. das ModellF abgelegt. - Im Schritt
13 folgen Bildaufnahmen für Zoom-Einstellungen Z=Z1–Zn. In der Analyse der Bewegungen der Bildbestandteile während des Veränderns zwischen den verschiedenen Zoom-Einstellungen wird die jeweilige Tiefe von Bildbestandteilen berechnet, wobei die Kanten derart gewählt sind, dass ein Bildverarbeitungssystem sie nach einer Bewegung wiedererkennt. Die dadurch entstehenden Tiefenkarten werden als ModelleZ bei14 abgelegt. - Im Verfahrensschritt
15 werden die örtlich korrespondierenden Bildbestandteile der beiden Modelle verglichen. Bildbestandteile mit ähnlichen Tiefenangaben erhalten eine hohe Konfidenz, solche, bei denen die Tiefenangaben stark voneinander abweichen, eine niedrige Konfidenz. Sind für jeden Bildbestandteil Konfidenzen p1 bis pq berechnet, werden diese bei16 mit einem Schwellwert conf.l verglichen, so dass nach dem Verfahrensschritt16 die Tiefen für Bildbestandteile pc1 bis pcr mit hoher Konfidenz festliegen. - In einem Filter
17 ; mit dem im Wesentlichen Nachbarschaftsanalysen zu Bildbestandteilen mit hoher Konfidenz durchgeführt werden, werden Tiefenwerte für Bildbestandteile pn1 bis pns berechnet, worauf bei18 die Bildbestandteile pc1 bis pcr und pn1 bis pns als Modell(F,Z) abgelegt werden. Zur weiteren Verfeinerung werden die Verfahrensschritte11 bis18 mehrmals durchlaufen und die dabei entstehenden Tiefenkarten einem IIR-Filter19 zugeführt, das die jeweiligen gemittelten Tiefenwerte der Bildbestandteile wie folgt bearbeitet:
Tm = α·Tneu + (1 – α)·Talt. Der Faktor à wird dabei jeweils nach der bei15 zugeordneten Konfidenz gewählt. Bei20 wird das durch das IIR-Filter19 ermittelte Modell(F,Z)m abgelegt.
Claims (10)
- Verfahren zur Erzeugung einer Tiefenkarte einer mit einer Videokamera aufzunehmenden Szene, dadurch gekennzeichnet, dass die Szene in mehreren voneinander abweichenden Fokus-Einstellungen aufgenommen wird, wobei die Fokus-Einstellung schrittweise den Tiefenbereich der Szene durchläuft, und dass den jeweils bei einer Fokus-Einstellung fokussiert aufgenommenen Bildbestandteilen die Tiefe, welche der jeweiligen Fokus-Einstellung entspricht, zugeordnet wird, so dass eine erste Tiefenkarte entsteht, dass die Szene mehrmals mit jeweils einer verschiedenen Zoom-Einstellung aufgenommen wird und aus den geometrischen Veränderungen von Bildbestandteilen die Tiefe des jeweiligen Bildbestandteils berechnet wird, so dass eine zweite Tiefenkarte entsteht, und dass aus den beiden Tiefenkarten eine kombinierte Tiefenkarte gebildet wird.
- Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass örtlich korrespondierende Bildbestandteile der ersten und zweiten Tiefenkarte mit ähnlichen Tiefen mit einer hohen Konfidenz belegt werden, während örtlich korrespondierende Bildbestandteile mit größeren Abweichungen zwischen der ersten und der zweiten Tiefenkarte mit einer niedrigen Konfidenz belegt werden, dass Bildbestandteile mit hoher Konfidenz unmittelbar in die kombinierte Tiefenkarte aufgenommen werden und Bildbestandteile mit niedriger Konfidenz unter Berücksichtigung der Tiefe von benachbarten Bildbestandteilen mit hoher Konfidenz in die kombinierte Tiefenkarte aufgenommen werden.
- Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Aufnahmen, die Berechnung der ersten und der zweiten Tiefenkarte sowie die Kombination zu einer kombinierten Tiefenkarte wiederholt vorgenommen werden und die Bildbestandteile der dabei entstehenden kombinierten Tiefenkarten gemittelt werden.
- Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass die Mittelung mit einem IIR-Filter erfolgt.
- Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass ein Koeffizient des IIR-Filters von der Übereinstimmung der Bildbestandteile der ersten mit der zweiten Tiefenkarte derart abhängig ist, dass Bildbestandteile der jeweils neu kombinierten Tiefenkarte gegenüber den vorangegangenen gemittelten Bildbestandteilen bei hoher Übereinstimmung stärker bewertet werden als bei niedriger Übereinstimmung.
- Anordnung zur Erzeugung einer Tiefenkarte einer mit einer Videokamera (
1 ) aufzunehmenden Szene (3 ), gekennzeichnet durch Mittel (1 ,2 ,9 ) zur Aufnahme der Szene (3 ) in mehreren voneinander abweichenden Fokus-Einstellungen, wobei die Fokus-Einstellung schrittweise den Tiefenbereich der Szene durchläuft, Mittel (9 ,11 ), welche den jeweils bei einer Fokus-Einstellung fokussiert aufgenommenen Bildbestandteilen die Tiefe, welche der jeweiligen Fokus-Einstellung entspricht, zuordnen, so dass eine erste Tiefenkarte (12 ) entsteht, Mittel (1 ,2 ,9 ) zur mehrmaligen Aufnahme der Szene mit jeweils einer verschiedenen Zoom-Einstellung, Mittel (9 ,13 ) zur Berechnung der Tiefe des jeweiligen Bildbestandteils aus den geometrischen Veränderungen von Bildbestandteilen, so dass eine zweite Tiefenkarte (14 ) entsteht, und Mittel (9 ,15 ,16 ,17 ) zur Bildung einer kombinierten Tiefenkarte (18 ) aus den beiden Tiefenkarten (12 ,14 ). - Anordnung nach Anspruch 6, gekennzeichnet durch Mittel (
9 ,15 ,16 ,17 ) zur Belegung von örtlich korrespondierenden Bildbestandteilen der ersten und zweiten Tiefenkarte (12 ,14 ) mit ähnlichen Tiefen mit einer hohen Konfidenz und von örtlich korrespondierenden Bildbestandteilen mit größeren Abweichungen zwischen der ersten und der zweiten Tiefenkarte (12 ,14 ) mit einer niedrigen Konfidenz, wobei Bildbestandteile mit hoher Konfidenz unmittelbar in die kombinierte Tiefenkarte (18 ) aufgenommen werden und Bildbestandteile mit niedriger Konfidenz unter Berücksichtigung der Tiefe von benachbarten Bildbestandteilen mit hoher Konfidenz in die kombinierte Tiefenkarte (18 ) aufgenommen werden. - Anordnung nach einem der Ansprüche 6 oder 7, gekennzeichnet durch Mittel (
9 ,11 bis20 ) zur wiederholten Vornahme der Aufnahmen, der Berechnung der ersten und der zweiten Tiefenkarte (12 ,14 ) sowie der Kombination zu einer kombinierten Tiefenkarte (18 ) und zur Mittelung (19 ) der Bildbestandteile der dabei entstehenden kombinierten Tiefenkarten (18 ). - Anordnung nach Anspruch 8, dadurch gekennzeichnet, dass zur Mittelung ein IIR-Filter (
19 ) vorgesehen ist. - Anordnung nach Anspruch 9, dadurch gekennzeichnet, dass ein Koeffizient des IIR-Filters (
19 ) von der Übereinstimmung der Bildbestandteile der ersten mit der zweiten Tiefenkarte (12 ,14 ) derart abhängig ist, dass Bildbestandteile der jeweils neu kombinierten Tiefenkarte (18 ) gegenüber den vorangegangenen gemittelten Bildbestandteilen bei hoher Übereinstimmung stärker bewertet werden als bei niedriger Übereinstimmung.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102005034597A DE102005034597A1 (de) | 2005-07-25 | 2005-07-25 | Verfahren und Anordnung zur Erzeugung einer Tiefenkarte |
US11/451,021 US20070018977A1 (en) | 2005-07-25 | 2006-06-12 | Method and apparatus for generating a depth map |
GB0613381A GB2428930B (en) | 2005-07-25 | 2006-07-04 | Method and arrangement for generating a depth map |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102005034597A DE102005034597A1 (de) | 2005-07-25 | 2005-07-25 | Verfahren und Anordnung zur Erzeugung einer Tiefenkarte |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102005034597A1 true DE102005034597A1 (de) | 2007-02-08 |
Family
ID=36926522
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102005034597A Withdrawn DE102005034597A1 (de) | 2005-07-25 | 2005-07-25 | Verfahren und Anordnung zur Erzeugung einer Tiefenkarte |
Country Status (3)
Country | Link |
---|---|
US (1) | US20070018977A1 (de) |
DE (1) | DE102005034597A1 (de) |
GB (1) | GB2428930B (de) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8233077B2 (en) * | 2007-12-27 | 2012-07-31 | Qualcomm Incorporated | Method and apparatus with depth map generation |
US9225965B2 (en) * | 2008-11-07 | 2015-12-29 | Telecom Italia S.P.A. | Method and system for producing multi-view 3D visual contents |
US8885890B2 (en) | 2010-05-07 | 2014-11-11 | Microsoft Corporation | Depth map confidence filtering |
JP5197683B2 (ja) * | 2010-06-30 | 2013-05-15 | 株式会社東芝 | 奥行き信号生成装置及び方法 |
US8428342B2 (en) | 2010-08-12 | 2013-04-23 | At&T Intellectual Property I, L.P. | Apparatus and method for providing three dimensional media content |
CN103069819A (zh) * | 2010-08-24 | 2013-04-24 | 富士胶片株式会社 | 摄像装置及其动作控制方法 |
KR20120023431A (ko) * | 2010-09-03 | 2012-03-13 | 삼성전자주식회사 | 깊이 조정이 가능한 2차원/3차원 영상 변환 방법 및 그 장치 |
WO2012034174A1 (en) * | 2010-09-14 | 2012-03-22 | Dynamic Digital Depth Research Pty Ltd | A method for enhancing depth maps |
US8548270B2 (en) * | 2010-10-04 | 2013-10-01 | Microsoft Corporation | Time-of-flight depth imaging |
CN102713512B (zh) * | 2010-11-17 | 2015-06-03 | 松下电器产业株式会社 | 摄像装置以及距离测量方法 |
JP5242667B2 (ja) * | 2010-12-22 | 2013-07-24 | 株式会社東芝 | マップ変換方法、マップ変換装置及びマップ変換プログラム |
US20120274626A1 (en) * | 2011-04-29 | 2012-11-01 | Himax Media Solutions, Inc. | Stereoscopic Image Generating Apparatus and Method |
US8817073B2 (en) * | 2011-08-12 | 2014-08-26 | Himax Technologies Limited | System and method of processing 3D stereoscopic image |
US9501834B2 (en) * | 2011-08-18 | 2016-11-22 | Qualcomm Technologies, Inc. | Image capture for later refocusing or focus-manipulation |
US9329035B2 (en) * | 2011-12-12 | 2016-05-03 | Heptagon Micro Optics Pte. Ltd. | Method to compensate for errors in time-of-flight range cameras caused by multiple reflections |
US8988520B2 (en) | 2012-07-19 | 2015-03-24 | Sony Corporation | Method and apparatus for improving depth of field (DOF) in microscopy |
TWI503618B (zh) | 2012-12-27 | 2015-10-11 | Ind Tech Res Inst | 深度影像擷取裝置、其校正方法與量測方法 |
US10237528B2 (en) | 2013-03-14 | 2019-03-19 | Qualcomm Incorporated | System and method for real time 2D to 3D conversion of a video in a digital camera |
DE102016200660A1 (de) * | 2015-12-23 | 2017-06-29 | Robert Bosch Gmbh | Verfahren zur Erstellung einer Tiefenkarte mittels einer Kamera |
US10271033B2 (en) * | 2016-10-31 | 2019-04-23 | Verizon Patent And Licensing Inc. | Methods and systems for generating depth data by converging independently-captured depth maps |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5793900A (en) * | 1995-12-29 | 1998-08-11 | Stanford University | Generating categorical depth maps using passive defocus sensing |
US5793090A (en) * | 1997-01-10 | 1998-08-11 | Advanced Micro Devices, Inc. | Integrated circuit having multiple LDD and/or source/drain implant steps to enhance circuit performance |
US6128071A (en) * | 1998-06-04 | 2000-10-03 | Canon Kabushiki Kaisha | Range data recordation |
US6201899B1 (en) * | 1998-10-09 | 2001-03-13 | Sarnoff Corporation | Method and apparatus for extended depth of field imaging |
US7085409B2 (en) * | 2000-10-18 | 2006-08-01 | Sarnoff Corporation | Method and apparatus for synthesizing new video and/or still imagery from a collection of real video and/or still imagery |
US7053953B2 (en) * | 2001-12-21 | 2006-05-30 | Eastman Kodak Company | Method and camera system for blurring portions of a verification image to show out of focus areas in a captured archival image |
US7711179B2 (en) * | 2004-04-21 | 2010-05-04 | Nextengine, Inc. | Hand held portable three dimensional scanner |
-
2005
- 2005-07-25 DE DE102005034597A patent/DE102005034597A1/de not_active Withdrawn
-
2006
- 2006-06-12 US US11/451,021 patent/US20070018977A1/en not_active Abandoned
- 2006-07-04 GB GB0613381A patent/GB2428930B/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
GB2428930B (en) | 2007-12-27 |
GB0613381D0 (en) | 2006-08-16 |
US20070018977A1 (en) | 2007-01-25 |
GB2428930A (en) | 2007-02-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102005034597A1 (de) | Verfahren und Anordnung zur Erzeugung einer Tiefenkarte | |
EP2034461B1 (de) | Verfahren zur Detektion und/oder Verfolgung von bewegten Objekten in einer Überwachungsszene mit Störern, Vorrichtung sowie Computerprogramm | |
DE102012223481B4 (de) | Vorrichtung und Verfahren zum Verfolgen der Position eines peripheren Fahrzeugs | |
EP3136711A1 (de) | Verfahren zur erzeugung und auswertung eines bilds | |
WO2005048195A2 (de) | Verfahren zur korrespondenzanalyse in bilddatensätzen | |
DE102009055127A1 (de) | Vorrichtung und Verfahren zum Überwachen von Videoobjekten | |
DE102018100909A1 (de) | Verfahren zum Rekonstruieren von Bildern einer Szene, die durch ein multifokales Kamerasystem aufgenommen werden | |
DE102018213268A1 (de) | Verfahren zur anwendung in einem fahrzeug | |
EP1836681B1 (de) | Verfahren zur bestimmung der eigenbewegung eines fahrzeugs | |
DE102012023060A1 (de) | Verfahren zum Detektieren eines beweglichen Objekts mithilfe eines Histogramms anhand von Bildern einer Kamera und Kamerasystem für ein Kraftfahrzeug | |
DE102018123402A1 (de) | Bildunschärfekorrekturvorrichtung und steuerverfahren | |
DE102006027113B4 (de) | Verfahren und Einrichtung zur Erfassung von Objekten | |
DE102009007412B4 (de) | Verfahren zur Verfolgung wenigstens eines Objekts | |
DE102019131678A1 (de) | Mikroskop und Verfahren zum Verarbeiten von Mikroskopbildern | |
DE102012211961A1 (de) | Verfahren und Vorrichtung zum Berechnen einer Veränderung eines Abbildungsmaßstabs eines Objekts | |
DE102009028742A1 (de) | Verfahren und Steuergerät zur Bestimmung einer Bewegungsinformation eines Objekts | |
DE10049366A1 (de) | Verfahren zum Überwachen eines Sicherheitsbereichs und entsprechendes System | |
DE102012020778B4 (de) | Verfahren zum Labeln einer Sequenz von in zeitlicher Abfolge aufgenommenen Bildern mit integrierter Qualitätsprüfung | |
DE10210926A1 (de) | Vorrichtung zur Verfolgung wenigstens eines Objekts in einer Szene | |
DE102010021221A1 (de) | Verfahren zur Bestimmung einer Ausrichtung einer an einem Fahrzeug angeordneten Kamera | |
EP4075396A1 (de) | Verfahren und anordnung zur optischen erfassung eines kopfes einer person | |
DE102016124123A1 (de) | Verfahren zum Erzeugen eines Clusters von Bildbereichen zum Erfassen eines Zielobjekts in einem Bild, Computerprogrammprodukt, Kamerasystem und Kraftfahrzeug | |
DE102021002011A1 (de) | Verfahren zur Annotation von Daten einer Umgebungserfassung | |
DE102021202454A1 (de) | Umgebungsmodellierung basierend auf Kameradaten | |
DE102020113972A1 (de) | Videoanalyse- und -managementtechniquen für medienerfassung und -aufbewahrung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8139 | Disposal/non-payment of the annual fee | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |
Effective date: 20110201 |