DE102005034597A1 - Verfahren und Anordnung zur Erzeugung einer Tiefenkarte - Google Patents

Verfahren und Anordnung zur Erzeugung einer Tiefenkarte Download PDF

Info

Publication number
DE102005034597A1
DE102005034597A1 DE102005034597A DE102005034597A DE102005034597A1 DE 102005034597 A1 DE102005034597 A1 DE 102005034597A1 DE 102005034597 A DE102005034597 A DE 102005034597A DE 102005034597 A DE102005034597 A DE 102005034597A DE 102005034597 A1 DE102005034597 A1 DE 102005034597A1
Authority
DE
Germany
Prior art keywords
depth map
depth
image components
scene
components
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102005034597A
Other languages
English (en)
Inventor
Wolfgang Niem
Stefan Müller-Schneiders
Hartmut Loos
Thomas JÄGER
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102005034597A priority Critical patent/DE102005034597A1/de
Priority to US11/451,021 priority patent/US20070018977A1/en
Priority to GB0613381A priority patent/GB2428930B/en
Publication of DE102005034597A1 publication Critical patent/DE102005034597A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/58Means for changing the camera field of view without moving the camera body, e.g. nutating or panning of optics or image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2625Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of images from a temporal image sequence, e.g. for a stroboscopic effect

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)

Abstract

Bei einem Verfahren und einer Anordnung zur Erzeugung einer Tiefenkarte einer mit einer Videokamera aufzunehmenden Szene ist vorgesehen, dass die Szene in mehreren voneinander abweichenden Fokus-Einstellungen aufgenommen wird, wobei die Fokus-Einstellung schrittweise den Tiefenbereich der Szene durchläuft, dass den jeweils bei einer Fokus-Einstellung fokussiert aufgenommenen Bildbestandteilen die Tiefe, welche der jeweiligen Fokus-Einstellung entspricht, zugeordnet wird, so dass eine erste Tiefenkarte entsteht, dass die Szene mehrmals mit jeweils einer verschiedenen Zoom-Einstellung aufgenommen wird und aus den geometrischen Veränderungen von Bildbestandteilen die Tiefe des jeweiligen Bildbestandteils berechnet wird, so dass eine zweite Tiefenkarte entsteht, und dass aus den beiden Tiefenkarten eine kombinierte Tiefenkarte gebildet wird.

Description

  • Die Erfindung betrifft ein Verfahren und eine Anordnung zur Erzeugung einer Tiefenkarte einer mit einer Videokamera aufzunehmenden Szene.
  • In Video-Überwachungssystemen mit fest installierten Kameras werden Bildverarbeutungs-Algorithmen zur automatisierten Auswertung von Videosequenzen eingesetzt. Dabei werden bewegte Objekte vom nicht bewegten Szenen-Hintergrund getrennt und über die Zeit verfolgt. Bei relevanten Bewegungen werden Alarme ausgelöst. Die verwendeten Verfahren werten meist hierfür die Bildunterschiede zwischen dem aktuellen Kamerabild und einem sogenannten Szenen-Referenzbild aus. Die Erzeugung eines Szenen-Referenzbildes ist beispielsweise beschrieben in K. Toyama, J. Krumm, B. Brumitt, B. Meyers. Wallflower: Principles and Practice of Background Maintainance. ICCV 1999, Korfu, Griechenland.
  • Eine Überwachung von bewegten Objekten ist solange relativ einfach, wie sich das bewegte Objekt immer zwischen Kamera und Szenen-Hintergrund bewegt. Besteht jedoch die Szene nicht nur aus einem Hintergrund, sondern auch aus näher an der Kamera befindlichen Objekten, können diese die zu überwachenden bewegten Objekte verdecken. Zur Überwindung dieser Schwierigkeiten ist es bekannt, den Szenen-Hintergrund als Tiefenkarte bzw. dreidimensionales Modell abzuspeichern.
  • Ein Verfahren zur Erzeugung einer Tiefenkarte ist durch US 6,128,071 bekannt geworden. Dabei wird die Szene in mehreren voneinander abweichenden Fokus-Einstellungen aufgenommen. Die jeweils fokussiert auf der Bildebene abgebildeten Bildbestandteile werden dann einer Tiefe zugeordnet, welche durch die Fokus-Einstellung gegeben ist. Durch eine nicht endliche Schärfentiefe sowie Fehler bei der Auswertung der Bildbestandteile ist die Zuordnung der Tiefe zu den Bildbestandteilen jedoch problematisch.
  • Ein weiteres Verfahren, das beispielsweise aus J. Ma and S. Olsen, "Depth from zooming", J. Opt. Soc. Am. A, Vol. 7, No. 10, pp. 1883–1890, 1990 bekannt ist, beruht auf einem Durchfahren des Brennweitenbereichs eines Zoom-Objektivs und der Auswertung der sich dadurch ergebenden Bewegungen von Bildbestandteilen innerhalb des Bildes. Auch bei diesem Verfahren bestehen Fehlermöglichkeiten, beispielsweise durch Fehler bei der Verfolgung der sich durch die Änderung der Brennweite bewegenden Bildbestandteile.
  • Vorteile der Erfindung
  • Aufgabe der vorliegenden Erfindung ist es, eine möglichst exakte Tiefenkarte zu erzeugen. Diese Aufgabe wird erfindungsgemäß dadurch gelöst, dass die Szene in mehreren voneinander abweichenden Fokus-Einstellungen aufgenommen wird, wobei die Fokus-Einstellung schrittweise den Tiefenbereich der Szene durchläuft, und dass den jeweils bei einer Fokus-Einstellung fokussiert aufgenommenen Bildbestandteilen die Tiefe, welche der jeweiligen Fokus-Einstellung entspricht, zugeordnet wird, so dass eine erste Tiefenkarte entsteht, dass die Szene mehrmals mit jeweils einer verschiedenen Zoom-Einstellung aufgenommen wird und aus den geometrischen Veränderungen von Bildbestandteilen die Tiefe des jeweiligen Bildbestandteils berechnet wird, so dass eine zweite Tiefenkarte entsteht, und dass aus den beiden Tiefenkarten eine kombinierte Tiefenkarte gebildet wird.
  • Außer zur Erzeugung eines Szenen-Hintergrundes für Überwachungsaufgaben kann das erfindungsgemäße Verfahren auch für andere Zwecke verwendet werden, insbesondere für solche, bei denen eine statische Hintergrundkarte bzw. ein 3D-Modell erzeugt wird. Da keine bewegte Szene aufgenommen wird, steht für die Durchführung des erfindungsgemäßen Verfahrens genügend Zeit zur Verfügung. Um bei der Ableitung der ersten Tiefenkarte durch die Veränderung der Fokus-Einstellung möglichst eindeutige Ergebnisse zu erhalten, ist die Blende im Sinne einer möglichst geringen Schärfentiefe entsprechend groß zu wählen. Beim Durchfahren des Zoom-Bereichs ist jedoch, beispielsweise durch eine kleine Blendeneinstellung, eine ausreichende Schärfentiefe sicherzustellen.
  • Eine Verbesserung der kombinierten Tiefenkarte ist gemäß einer Weiterbildung der Erfindung dadurch möglich, dass örtlich korrespondierende Bildbestandteile der ersten und zweiten Tiefenkarte mit ähnlichen Tiefen mit einer hohen Konfidenz belegt werden, während örtlich korrespondierende Bildbestandteile mit größeren Abweichungen zwischen der ersten und der zweiten Tiefenkarte mit einer niedrigen Konfidenz belegt werden, dass Bildbestandteile mit hoher Konfidenz unmittelbar in die kombinierte Tiefenkarte aufgenommen werden und Bildbestandteile mit niedriger Konfidenz unter Berücksichtigung der Tiefe von benachbarten Bildbestandteilen mit hoher Konfidenz in die kombinierte Tiefenkarte aufgenommen werden.
  • Eine weitere Verbesserung des Ergebnisses kann dadurch erzielt werden, dass die Aufnahmen, die Berechnung der ersten und der zweiten Tiefenkarte sowie die Kombination zu einer kombinierten Tiefenkarte wiederholt vorgenommen werden und die Bildbestandteile der dabei entstehenden kombinierten Tiefenkarten gemittelt werden. Dabei ist vorzugsweise vorgesehen, dass die Mittelung mit einem IIR-Filter erfolgt.
  • Die Belegung der Bildbestandteile mit verschiedenen Konfidenzen kann bei einer Weiterbildung in vorteilhafter Weise dadurch berücksichtigt werden, dass ein Koeffizient des IIR-Filters von der Übereinstimmung der Bildbestandteile der ersten mit der zweiten Tiefenkarte derart abhängig ist, dass Bildbestandteile der jeweils neu kombinierten Tiefenkarte gegenüber den vorangegangenen gemittelten Bildbestandteilen bei hoher Übereinstimmung stärker bewertet werden als bei niedriger Übereinstimmung.
  • Die erfindungsgemäße Anordnung ist gekennzeichnet durch
    Mittel zur Aufnahme der Szene in mehreren voneinander abweichenden Fokus-Einstellungen, wobei die Fokus-Einstellung schrittweise den Tiefenbereich der Szene durchläuft,
    Mittel, welche den jeweils bei einer Fokus-Einstellung fokussiert aufgenommenen Bildbestandteilen die Tiefe, welche der jeweiligen Fokus-Einstellung entspricht, zuordnen, so dass eine erste Tiefenkarte entsteht,
    Mittel zur mehrmaligen Aufnahme der Szene mit jeweils einer verschiedenen Zoom-Einstellung,
    Mittel zur Berechnung der Tiefe des jeweiligen Bildbestandteils aus den geometrischen Veränderungen von Bildbestandteilen, so dass eine zweite Tiefenkarte entsteht, und Mittel zur Bildung einer kombinierten Tiefenkarte aus den beiden Tiefenkarten.
  • Vorteilhafte Weiterbildungen und Verbesserungen der erfindungsgemäßen Anordnung sind in weiteren Unteransprüchen aufgeführt.
  • Zeichnung
  • Ausführungsbeispiele der Erfindung sind in der Zeichnung anhand mehrerer Figuren dargestellt und in der nachfolgenden Beschreibung näher erläutert. Es zeigt:
  • 1 ein Blockschaltbild einer erfindungsgemäßen Anordnung und
  • 2 ein Flussdiagramm zur Erläuterung eines Ausführungsbeispiels des erfindungsgemäßen Verfahrens.
  • Beschreibung der Ausführungsbeispiele
  • Die Anordnung nach 1 besteht aus einer an sich bekannten Videokamera 1 mit einem Zoom-Objektiv 2, das auf eine Szene 3 gerichtet ist, die aus einer Hintergrundebene 4 und sich daraus erhebenden Objekten 5, 6, 7, 8 besteht. Zur Signalverarbeitung und zur gesamten Ablaufsteuerung ist ein Computer 9 vorgesehen, der im Einzelnen nicht dargestellte Stellglieder des Zoom-Objektivs 2, nämlich die Fokus-Einstellung F, die Zoom-Einstellung Z und die Blende A steuert. An den Computer 9 ist ein Speicher 10 zum Speichern der fertigen Tiefenkarte angeschlossen. Weitere Komponenten, die noch gegebenenfalls zur Anwendung der Tiefenkarte, insbesondere zur Raumüberwachung, dienen, wie beispielsweise Monitore und Alarmgeräte, sind der Übersichtlichkeit halber nicht dargestellt.
  • Bei dem in 2 dargestellten Verfahren wird bei 11 zunächst die Fokus-Einstellung F zwischen zwei Grenzwerten F1 und Fm variiert, wobei jeweils für eine Fokus-Einstellung das aufgenommene Bild derart analysiert wird, dass die jeweils bei einer Fokusstellung fokussiert bzw. scharf abgebildeten Bildbestandteile als zu der jeweiligen Schärfenebene (im folgenden auch Tiefe genannt) gehörend im Speicher abgelegt werden. Als Bildbestandteile eignen sich beispielsweise Gruppen von Pixeln, die zum Erkennen der Scharfeinstellung geeignet sind, beispielsweise Gruppen von Pixeln, in denen bei einer scharfen Abbildung einer Kante ein genügend hoher Gradient zu erkennen ist. Bei 12 wird dann die Tiefenkarte bzw. das ModellF abgelegt.
  • Im Schritt 13 folgen Bildaufnahmen für Zoom-Einstellungen Z=Z1–Zn. In der Analyse der Bewegungen der Bildbestandteile während des Veränderns zwischen den verschiedenen Zoom-Einstellungen wird die jeweilige Tiefe von Bildbestandteilen berechnet, wobei die Kanten derart gewählt sind, dass ein Bildverarbeitungssystem sie nach einer Bewegung wiedererkennt. Die dadurch entstehenden Tiefenkarten werden als ModelleZ bei 14 abgelegt.
  • Im Verfahrensschritt 15 werden die örtlich korrespondierenden Bildbestandteile der beiden Modelle verglichen. Bildbestandteile mit ähnlichen Tiefenangaben erhalten eine hohe Konfidenz, solche, bei denen die Tiefenangaben stark voneinander abweichen, eine niedrige Konfidenz. Sind für jeden Bildbestandteil Konfidenzen p1 bis pq berechnet, werden diese bei 16 mit einem Schwellwert conf.l verglichen, so dass nach dem Verfahrensschritt 16 die Tiefen für Bildbestandteile pc1 bis pcr mit hoher Konfidenz festliegen.
  • In einem Filter 17; mit dem im Wesentlichen Nachbarschaftsanalysen zu Bildbestandteilen mit hoher Konfidenz durchgeführt werden, werden Tiefenwerte für Bildbestandteile pn1 bis pns berechnet, worauf bei 18 die Bildbestandteile pc1 bis pcr und pn1 bis pns als Modell(F,Z) abgelegt werden. Zur weiteren Verfeinerung werden die Verfahrensschritte 11 bis 18 mehrmals durchlaufen und die dabei entstehenden Tiefenkarten einem IIR-Filter 19 zugeführt, das die jeweiligen gemittelten Tiefenwerte der Bildbestandteile wie folgt bearbeitet:
    Tm = α·Tneu + (1 – α)·Talt. Der Faktor à wird dabei jeweils nach der bei 15 zugeordneten Konfidenz gewählt. Bei 20 wird das durch das IIR-Filter 19 ermittelte Modell(F,Z)m abgelegt.

Claims (10)

  1. Verfahren zur Erzeugung einer Tiefenkarte einer mit einer Videokamera aufzunehmenden Szene, dadurch gekennzeichnet, dass die Szene in mehreren voneinander abweichenden Fokus-Einstellungen aufgenommen wird, wobei die Fokus-Einstellung schrittweise den Tiefenbereich der Szene durchläuft, und dass den jeweils bei einer Fokus-Einstellung fokussiert aufgenommenen Bildbestandteilen die Tiefe, welche der jeweiligen Fokus-Einstellung entspricht, zugeordnet wird, so dass eine erste Tiefenkarte entsteht, dass die Szene mehrmals mit jeweils einer verschiedenen Zoom-Einstellung aufgenommen wird und aus den geometrischen Veränderungen von Bildbestandteilen die Tiefe des jeweiligen Bildbestandteils berechnet wird, so dass eine zweite Tiefenkarte entsteht, und dass aus den beiden Tiefenkarten eine kombinierte Tiefenkarte gebildet wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass örtlich korrespondierende Bildbestandteile der ersten und zweiten Tiefenkarte mit ähnlichen Tiefen mit einer hohen Konfidenz belegt werden, während örtlich korrespondierende Bildbestandteile mit größeren Abweichungen zwischen der ersten und der zweiten Tiefenkarte mit einer niedrigen Konfidenz belegt werden, dass Bildbestandteile mit hoher Konfidenz unmittelbar in die kombinierte Tiefenkarte aufgenommen werden und Bildbestandteile mit niedriger Konfidenz unter Berücksichtigung der Tiefe von benachbarten Bildbestandteilen mit hoher Konfidenz in die kombinierte Tiefenkarte aufgenommen werden.
  3. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Aufnahmen, die Berechnung der ersten und der zweiten Tiefenkarte sowie die Kombination zu einer kombinierten Tiefenkarte wiederholt vorgenommen werden und die Bildbestandteile der dabei entstehenden kombinierten Tiefenkarten gemittelt werden.
  4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass die Mittelung mit einem IIR-Filter erfolgt.
  5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass ein Koeffizient des IIR-Filters von der Übereinstimmung der Bildbestandteile der ersten mit der zweiten Tiefenkarte derart abhängig ist, dass Bildbestandteile der jeweils neu kombinierten Tiefenkarte gegenüber den vorangegangenen gemittelten Bildbestandteilen bei hoher Übereinstimmung stärker bewertet werden als bei niedriger Übereinstimmung.
  6. Anordnung zur Erzeugung einer Tiefenkarte einer mit einer Videokamera (1) aufzunehmenden Szene (3), gekennzeichnet durch Mittel (1, 2, 9) zur Aufnahme der Szene (3) in mehreren voneinander abweichenden Fokus-Einstellungen, wobei die Fokus-Einstellung schrittweise den Tiefenbereich der Szene durchläuft, Mittel (9, 11), welche den jeweils bei einer Fokus-Einstellung fokussiert aufgenommenen Bildbestandteilen die Tiefe, welche der jeweiligen Fokus-Einstellung entspricht, zuordnen, so dass eine erste Tiefenkarte (12) entsteht, Mittel (1, 2, 9) zur mehrmaligen Aufnahme der Szene mit jeweils einer verschiedenen Zoom-Einstellung, Mittel (9, 13) zur Berechnung der Tiefe des jeweiligen Bildbestandteils aus den geometrischen Veränderungen von Bildbestandteilen, so dass eine zweite Tiefenkarte (14) entsteht, und Mittel (9, 15, 16, 17) zur Bildung einer kombinierten Tiefenkarte (18) aus den beiden Tiefenkarten (12, 14).
  7. Anordnung nach Anspruch 6, gekennzeichnet durch Mittel (9, 15, 16, 17) zur Belegung von örtlich korrespondierenden Bildbestandteilen der ersten und zweiten Tiefenkarte (12, 14) mit ähnlichen Tiefen mit einer hohen Konfidenz und von örtlich korrespondierenden Bildbestandteilen mit größeren Abweichungen zwischen der ersten und der zweiten Tiefenkarte (12, 14) mit einer niedrigen Konfidenz, wobei Bildbestandteile mit hoher Konfidenz unmittelbar in die kombinierte Tiefenkarte (18) aufgenommen werden und Bildbestandteile mit niedriger Konfidenz unter Berücksichtigung der Tiefe von benachbarten Bildbestandteilen mit hoher Konfidenz in die kombinierte Tiefenkarte (18) aufgenommen werden.
  8. Anordnung nach einem der Ansprüche 6 oder 7, gekennzeichnet durch Mittel (9, 11 bis 20) zur wiederholten Vornahme der Aufnahmen, der Berechnung der ersten und der zweiten Tiefenkarte (12, 14) sowie der Kombination zu einer kombinierten Tiefenkarte (18) und zur Mittelung (19) der Bildbestandteile der dabei entstehenden kombinierten Tiefenkarten (18).
  9. Anordnung nach Anspruch 8, dadurch gekennzeichnet, dass zur Mittelung ein IIR-Filter (19) vorgesehen ist.
  10. Anordnung nach Anspruch 9, dadurch gekennzeichnet, dass ein Koeffizient des IIR-Filters (19) von der Übereinstimmung der Bildbestandteile der ersten mit der zweiten Tiefenkarte (12, 14) derart abhängig ist, dass Bildbestandteile der jeweils neu kombinierten Tiefenkarte (18) gegenüber den vorangegangenen gemittelten Bildbestandteilen bei hoher Übereinstimmung stärker bewertet werden als bei niedriger Übereinstimmung.
DE102005034597A 2005-07-25 2005-07-25 Verfahren und Anordnung zur Erzeugung einer Tiefenkarte Withdrawn DE102005034597A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102005034597A DE102005034597A1 (de) 2005-07-25 2005-07-25 Verfahren und Anordnung zur Erzeugung einer Tiefenkarte
US11/451,021 US20070018977A1 (en) 2005-07-25 2006-06-12 Method and apparatus for generating a depth map
GB0613381A GB2428930B (en) 2005-07-25 2006-07-04 Method and arrangement for generating a depth map

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102005034597A DE102005034597A1 (de) 2005-07-25 2005-07-25 Verfahren und Anordnung zur Erzeugung einer Tiefenkarte

Publications (1)

Publication Number Publication Date
DE102005034597A1 true DE102005034597A1 (de) 2007-02-08

Family

ID=36926522

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102005034597A Withdrawn DE102005034597A1 (de) 2005-07-25 2005-07-25 Verfahren und Anordnung zur Erzeugung einer Tiefenkarte

Country Status (3)

Country Link
US (1) US20070018977A1 (de)
DE (1) DE102005034597A1 (de)
GB (1) GB2428930B (de)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8233077B2 (en) * 2007-12-27 2012-07-31 Qualcomm Incorporated Method and apparatus with depth map generation
US9225965B2 (en) * 2008-11-07 2015-12-29 Telecom Italia S.P.A. Method and system for producing multi-view 3D visual contents
US8885890B2 (en) 2010-05-07 2014-11-11 Microsoft Corporation Depth map confidence filtering
JP5197683B2 (ja) * 2010-06-30 2013-05-15 株式会社東芝 奥行き信号生成装置及び方法
US8428342B2 (en) 2010-08-12 2013-04-23 At&T Intellectual Property I, L.P. Apparatus and method for providing three dimensional media content
CN103069819A (zh) * 2010-08-24 2013-04-24 富士胶片株式会社 摄像装置及其动作控制方法
KR20120023431A (ko) * 2010-09-03 2012-03-13 삼성전자주식회사 깊이 조정이 가능한 2차원/3차원 영상 변환 방법 및 그 장치
WO2012034174A1 (en) * 2010-09-14 2012-03-22 Dynamic Digital Depth Research Pty Ltd A method for enhancing depth maps
US8548270B2 (en) * 2010-10-04 2013-10-01 Microsoft Corporation Time-of-flight depth imaging
CN102713512B (zh) * 2010-11-17 2015-06-03 松下电器产业株式会社 摄像装置以及距离测量方法
JP5242667B2 (ja) * 2010-12-22 2013-07-24 株式会社東芝 マップ変換方法、マップ変換装置及びマップ変換プログラム
US20120274626A1 (en) * 2011-04-29 2012-11-01 Himax Media Solutions, Inc. Stereoscopic Image Generating Apparatus and Method
US8817073B2 (en) * 2011-08-12 2014-08-26 Himax Technologies Limited System and method of processing 3D stereoscopic image
US9501834B2 (en) * 2011-08-18 2016-11-22 Qualcomm Technologies, Inc. Image capture for later refocusing or focus-manipulation
US9329035B2 (en) * 2011-12-12 2016-05-03 Heptagon Micro Optics Pte. Ltd. Method to compensate for errors in time-of-flight range cameras caused by multiple reflections
US8988520B2 (en) 2012-07-19 2015-03-24 Sony Corporation Method and apparatus for improving depth of field (DOF) in microscopy
TWI503618B (zh) 2012-12-27 2015-10-11 Ind Tech Res Inst 深度影像擷取裝置、其校正方法與量測方法
US10237528B2 (en) 2013-03-14 2019-03-19 Qualcomm Incorporated System and method for real time 2D to 3D conversion of a video in a digital camera
DE102016200660A1 (de) * 2015-12-23 2017-06-29 Robert Bosch Gmbh Verfahren zur Erstellung einer Tiefenkarte mittels einer Kamera
US10271033B2 (en) * 2016-10-31 2019-04-23 Verizon Patent And Licensing Inc. Methods and systems for generating depth data by converging independently-captured depth maps

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5793900A (en) * 1995-12-29 1998-08-11 Stanford University Generating categorical depth maps using passive defocus sensing
US5793090A (en) * 1997-01-10 1998-08-11 Advanced Micro Devices, Inc. Integrated circuit having multiple LDD and/or source/drain implant steps to enhance circuit performance
US6128071A (en) * 1998-06-04 2000-10-03 Canon Kabushiki Kaisha Range data recordation
US6201899B1 (en) * 1998-10-09 2001-03-13 Sarnoff Corporation Method and apparatus for extended depth of field imaging
US7085409B2 (en) * 2000-10-18 2006-08-01 Sarnoff Corporation Method and apparatus for synthesizing new video and/or still imagery from a collection of real video and/or still imagery
US7053953B2 (en) * 2001-12-21 2006-05-30 Eastman Kodak Company Method and camera system for blurring portions of a verification image to show out of focus areas in a captured archival image
US7711179B2 (en) * 2004-04-21 2010-05-04 Nextengine, Inc. Hand held portable three dimensional scanner

Also Published As

Publication number Publication date
GB2428930B (en) 2007-12-27
GB0613381D0 (en) 2006-08-16
US20070018977A1 (en) 2007-01-25
GB2428930A (en) 2007-02-07

Similar Documents

Publication Publication Date Title
DE102005034597A1 (de) Verfahren und Anordnung zur Erzeugung einer Tiefenkarte
EP2034461B1 (de) Verfahren zur Detektion und/oder Verfolgung von bewegten Objekten in einer Überwachungsszene mit Störern, Vorrichtung sowie Computerprogramm
DE102012223481B4 (de) Vorrichtung und Verfahren zum Verfolgen der Position eines peripheren Fahrzeugs
EP3136711A1 (de) Verfahren zur erzeugung und auswertung eines bilds
WO2005048195A2 (de) Verfahren zur korrespondenzanalyse in bilddatensätzen
DE102009055127A1 (de) Vorrichtung und Verfahren zum Überwachen von Videoobjekten
DE102018100909A1 (de) Verfahren zum Rekonstruieren von Bildern einer Szene, die durch ein multifokales Kamerasystem aufgenommen werden
DE102018213268A1 (de) Verfahren zur anwendung in einem fahrzeug
EP1836681B1 (de) Verfahren zur bestimmung der eigenbewegung eines fahrzeugs
DE102012023060A1 (de) Verfahren zum Detektieren eines beweglichen Objekts mithilfe eines Histogramms anhand von Bildern einer Kamera und Kamerasystem für ein Kraftfahrzeug
DE102018123402A1 (de) Bildunschärfekorrekturvorrichtung und steuerverfahren
DE102006027113B4 (de) Verfahren und Einrichtung zur Erfassung von Objekten
DE102009007412B4 (de) Verfahren zur Verfolgung wenigstens eines Objekts
DE102019131678A1 (de) Mikroskop und Verfahren zum Verarbeiten von Mikroskopbildern
DE102012211961A1 (de) Verfahren und Vorrichtung zum Berechnen einer Veränderung eines Abbildungsmaßstabs eines Objekts
DE102009028742A1 (de) Verfahren und Steuergerät zur Bestimmung einer Bewegungsinformation eines Objekts
DE10049366A1 (de) Verfahren zum Überwachen eines Sicherheitsbereichs und entsprechendes System
DE102012020778B4 (de) Verfahren zum Labeln einer Sequenz von in zeitlicher Abfolge aufgenommenen Bildern mit integrierter Qualitätsprüfung
DE10210926A1 (de) Vorrichtung zur Verfolgung wenigstens eines Objekts in einer Szene
DE102010021221A1 (de) Verfahren zur Bestimmung einer Ausrichtung einer an einem Fahrzeug angeordneten Kamera
EP4075396A1 (de) Verfahren und anordnung zur optischen erfassung eines kopfes einer person
DE102016124123A1 (de) Verfahren zum Erzeugen eines Clusters von Bildbereichen zum Erfassen eines Zielobjekts in einem Bild, Computerprogrammprodukt, Kamerasystem und Kraftfahrzeug
DE102021002011A1 (de) Verfahren zur Annotation von Daten einer Umgebungserfassung
DE102021202454A1 (de) Umgebungsmodellierung basierend auf Kameradaten
DE102020113972A1 (de) Videoanalyse- und -managementtechniquen für medienerfassung und -aufbewahrung

Legal Events

Date Code Title Description
8139 Disposal/non-payment of the annual fee
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20110201