DE102008060076B4 - Digitale Präsentationseinrichtung - Google Patents

Digitale Präsentationseinrichtung Download PDF

Info

Publication number
DE102008060076B4
DE102008060076B4 DE102008060076.8A DE102008060076A DE102008060076B4 DE 102008060076 B4 DE102008060076 B4 DE 102008060076B4 DE 102008060076 A DE102008060076 A DE 102008060076A DE 102008060076 B4 DE102008060076 B4 DE 102008060076B4
Authority
DE
Germany
Prior art keywords
pixels
images
focus
image
output image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE102008060076.8A
Other languages
English (en)
Other versions
DE102008060076A1 (de
Inventor
Il Dong Yun
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Empire Technology Development LLC
Original Assignee
Empire Technology Development LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Empire Technology Development LLC filed Critical Empire Technology Development LLC
Publication of DE102008060076A1 publication Critical patent/DE102008060076A1/de
Application granted granted Critical
Publication of DE102008060076B4 publication Critical patent/DE102008060076B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/024Details of scanning heads ; Means for illuminating the original
    • H04N1/02409Focusing, i.e. adjusting the focus of the scanning head
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/19Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays
    • H04N1/195Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays the array comprising a two-dimensional array or a combination of two-dimensional arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/19Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays
    • H04N1/195Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays the array comprising a two-dimensional array or a combination of two-dimensional arrays
    • H04N1/19594Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays the array comprising a two-dimensional array or a combination of two-dimensional arrays using a television camera or a still video camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/04Scanning arrangements
    • H04N2201/0402Arrangements not specific to a particular one of the scanning methods covered by groups H04N1/04 - H04N1/207
    • H04N2201/0436Scanning a picture-bearing surface lying face up on a support

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)

Abstract

Vorrichtung zum Anzeigen eines Bildes, die aufweist: eine Basis, die in der Lage ist, ein Objekt zu tragen, wobei die Basis einen Basisarm aufweist; ein Kamerasystem, das mit dem Basisarm gekoppelt ist, wobei das Kamerasystem ausgelegt ist, durch individuelles Versorgen und nicht Versorgen von Beleuchtern eines Beleuchtungssystems, die ausgelegt sind, das Objekt zu beleuchten, mit Energie mehrere Bilder des Objektes aufzunehmen; ein Beleuchtersteuerungssystem, das ausgelegt ist, die Beleuchter zu steuern; und ein Fokussteuerungssystem, das ausgelegt ist, einen Fokus des Kamerasystems einzustellen; wobei das Beleuchtersteuerungssystem den Helligkeitswert jeweiliger K-ter Pixel der Bilder für sämtliche M Pixel der Bilder miteinander vergleicht, wobei K eine Folgennummer für ein K-tes Pixel eines Bildes repräsentiert, und wobei M eine maximale Anzahl von Pixeln der Bilder repräsentiert; wenn der Helligkeitswert sämtlicher K-ter Pixel einen oberen Schwellenwert (TH) überschreitet, den niedrigsten Helligkeitswert für das K-te Pixel eines Ausgangsbildes auswählt, wenn der Helligkeitswert sämtlicher K-ter Pixel niedriger als ein unter Schwellenwert (TL) ist, den höchsten Helligkeitswert für das K-te Pixel des Ausgangsbildes auswählt, ansonsten einen mittleren Helligkeitswert für das K-te Pixel des Ausgangsbildes berechnet, das Ausgangsbild aus den Pixeln, die den ausgewählten Helligkeitswerten entsprechen, ausbildet; und die Vorrichtung zum Anzeigen des Ausgangsbildes ansteuert.

Description

  • Die vorliegende Erfindung betrifft im Allgemeinen digitale Präsentationseinrichtungen.
  • Eine digitale Präsentationseinrichtung kann verwendet werden, um eine Vielzahl von Medien von bedruckten Materialien (beispielsweise transparente Materialien, Dokumente, Bücher, etc.) bis hin zu anderen Medien, wie zum Beispiel Folien, Fotografien oder Filmen ebenso wie dreidimensionale physikalische Objekte anzuzeigen.
  • Im Gegensatz zu analogen Overhead-Projektoren kann eine digitale Präsentationseinrichtung eine Digitalkamera (Stehbild bzw. Einzelbild oder Video) verwendet werden, um Bilder von zwei- oder dreidimensionalen Objekten aufzunehmen, die dann an andere Ausgabevorrichtungen (beispielsweise Fernsehbildschirme oder Computermonitore) weitergegeben oder mittels eines LCD-Projektors, etc. angezeigt werden.
  • Eine digitale Präsentationseinrichtung enthält im Allgemeinen eine Lichtquelle (oder mehrere Lichtquellen), die in der Lage ist, eine ausreichende Beleuchtung bereitzustellen, um Bilder der Medien oder des anzuzeigenden Objektes zu erfassen und aufzunehmen. Im Hinblick dessen kann, da die digitale Präsentationseinrichtung eine Lichtquelle (Lichtquellen) zur Beleuchtung benötigt, wenn ein Bild von der Kamera aufgenommen wird, eine Spiegelreflexion (Glanzlicht oder Blendlicht) von der Oberfläche des anzuzeigenden Objektes die Qualität des aufgenommenen Bildes nachteilig beeinflussen.
  • Außerdem können, wenn die Oberflächen der Materialien, deren Bilder aufgenommen werden, nicht ausreichend flach sind, die aufgenommenen Bilder verschwommen oder unscharf sein. Die Abschnitte von Seiten in der Nähe des Rückens (oder der Bindung) von gebundenen Dokumenten (wie beispielsweise Büchern oder Zeitschriften) können beispielsweise gekrümmt sein, und demzufolge können derartige Abschnitte keine einheitliche oder ausreichende Beleuchtung aufnehmen, wodurch die Bilder, die von diesen Abschnitten aufgenommen werden, wahrscheinlich verschwommen oder unscharf werden.
  • Herkömmliche digitale Präsentationseinrichtungen können mehrere Lichtquellen und/oder Kameras verwenden, und es kann eine strategische Positionierung der Kameras und/oder Lichtquellen für eine geeignete Funktionsausübung notwendig sein – aber derartige Systeme sind aufwendig zu betreiben und teuer.
  • Die Druckschrift EP 1 653 408 A1 beschreibt beispielsweise ein Präzisionsmaschinensichtuntersuchungssystem, das eine bewegliche Werkstückstufe als eine Basis enthält, die in der Lage ist, ein Objekt zu tragen, wobei der Träger der Basis einen Arm aufweist. Ein Kamerasystem ist mit dem Arm gekoppelt und dazu ausgelegt, mehrere Bilder des Objekts (des Werkstücks) selektiv mit einer von mehren Lichtquellen zu beleuchten. Weiterhin kann der Fokus des Bildes des Werkstücks, das von dem Kamerasystem aufgenommen wird, geändert werden. Ein mittlerer Helligkeitswert des Bildes und ein Wert, der den Fokuszustand des Bildes angibt, werden jeweils aus den aufgenommenen Bildern berechnet. Wenn die mittlere Helligkeit des Bildes als zu niedrig bestimmt wird, werden Parameter, die den mittleren Helligkeitswert beeinflussen, entsprechend angepasst.
  • Aus der Druckschrift DE 1984 1555 A1 ist ein Verfahren zur Aufnahme und zur Abspeicherung optisch erfassbarer Daten eines Objekts auf einem Speichermedium bekannt, bei dem mit einer Kamera eine Sequenz von mehreren Einzelaufnahmen des Objekts unter verschiedenen räumlichen Einstellungen bezüglich der relativen Position zwischen Objekt und Kamera gemacht werden. Die scharf abgebildeten Bereiche der Einzelaufnahmen werden ermittelt und zu einem oder mehreren Resultatbildern zusammengesetzt.
  • Ein ähnliches Verfahren ist auch aus der Druckschrift JP H11-261797 A , bekannt, bei dem mehrere Einzelbilder mit unterschiedlichen Fokuseinstellungen zu einem Ausgabebild kombiniert werden, in dem sowohl naheliegende Objekte als auch weiter entfernt liegende Objekte scharf dargestellt sind.
  • Aufgabe der vorliegenden Erfindung ist es daher, verbesserte Vorrichtungen und Verfahren zum Anzeigen eines Bildes anzugeben, die kostengünstig und einfach zu betreiben sind.
  • Dies wird mit den Merkmalen der unabhängigen Ansprüche erreicht. Bevorzugte Ausführungsformen sind Gegenstand der abhängigen Ansprüche.
  • Die obige Zusammenfassung gibt nur eine beispielhafte Auswahl der Konzepte in vereinfachter Form wieder, die im Folgenden in der genaueren Beschreibung weiter beschrieben werden. Der Bereich der Erfindung wird nur durch die zugehörigen Ansprüche beschränkt.
  • 1 zeigt ein schematisches Diagramm einer beispielhaften Ausführungsform einer digitalen Präsentationseinrichtung;
  • 2 zeigt ein Flussdiagramm, das einen Prozess zum Anzeigen eines Bildes eines Objektes gemäß einer beispielhaften Ausführungsform darstellt;
  • 3 zeigt ein Flussdiagramm, das einen Prozess zum Verarbeiten von Pixeln von Bildern, die durch Einstellen von Beleuchtern erhalten werden, gemäß einer beispielhaften Ausführungsform darstellt; und
  • 4 zeigt ein Flussdiagramm, das einen Prozess zum Verarbeiten von Pixeln von Bildern, die durch Einstellen des Kamerafokus aufgenommen werden, gemäß einer beispielhaften Ausführungsform darstellt.
  • Die folgende Beschreibung erfolgt mit Bezug auf die zugehörigen Zeichnungen. In den Zeichnungen bezeichnen in typischer Weise gleiche Bezugszeichen gleiche Komponenten, wenn der Kontext nichts anderes sagt. Die beispielhaften Ausführungsformen, die in der folgenden Beschreibung beschrieben werden, die Zeichnungen und Ansprüche sind nur im Rahmen des Bereichs der Ansprüche als einschränkend zu sehen. Es sind weitere Ausführungsformen und weitere Änderungen denkbar, ohne von dem Bereich des Gegenstands der Ansprüche abzuweichen. Die Komponenten der vorliegenden Beschreibung, die hier allgemein beschrieben werden und in den Figuren dargestellt sind, können in einer Vielzahl von unterschiedlichen Konfigurationen angeordnet, ersetzt, kombiniert und ausgelegt sein, soweit sie unter den Bereich der Ansprüche fallen.
  • 1 zeigt eine beispielhafte Ausführungsform einer digitalen Präsentationseinrichtung 100. Die digitale Präsentationseinrichtung 100 enthält eine Basis 110, ein Kamerasystem 120, das an der Basis 110 mittels eines Basisarms 130 befestigt ist, ein Beleuchtungssystem 140, in dem mehrere Beleuchter 150 untergebracht sind, ein Beleuchtersteuerungssystem 160 und ein Fokussteuerungssystem 170. Gemäß einer anderen Ausführungsform, die in 1 nicht dargestellt ist, können Beleuchter 150 getrennt von dem Kamerasystem 120 vorgesehen sein, und zwar in einem Gehäuse, das an der Basis 110 mittels eines anderen Basisarms (nichtgezeigt) befestigt ist. Das Kamerasystem 120 kann eine Digitalkamera (Einzel- bzw. Stehbild oder Video) sein, die in der Lage ist, Bilder in einem elektronischen Format aufzunehmen und diese in digitale Bitfolgen umzuwandeln. Das Kamerasystem 120 kann optische Komponenten, die in 1 nicht gezeigt sind (beispielsweise Linsen, Gitter, Filter, Spiegel, etc.) zum richtigen Richten, Verstärken und Sammeln des Lichtes, das von einem Objekt reflektiert wird, dessen Bilder aufzunehmen sind, enthalten. Gemäß einer anderen Ausführungsform kann die digitale Präsentationseinrichtung 100 ebenfalls eine Flüssigkristallanzeige (LCD) oder eine andere Anzeigevorrichtung (beispielsweise eine flache Kathodenstrahlröhre, eine Plasmaanzeige, etc.) enthalten, um es einem Nutzer der Präsentationseinrichtung 100 zu ermöglichen, die Qualität von Bildern, die von dem Kamerasystem 120 aufgenommen werden, zu überprüfen und zu steuern. Ein Objekt 180, wie zum Beispiel ein Buch, ein transparentes Material (beispielsweise Dia) oder ein dreidimensionales Modell kann auf der Basis 110 platziert werden. Gemäß einer Ausführungsform kann das Kamerasystem 120 in Richtung der Basis 110 mittels einer linearen Gleitanordnung, einer Pneumatikzylinderanordnung oder einer anderen herkömmlichen Höheneinstelleinrichtung (in 1 nicht gezeigt) oder von dieser weg bewegbar sein. Die Höheneinstelleinrichtung kann mit einer Motoreinheit (nicht gezeigt) verbunden sein, so dass die Höhe des Kamerasystems 120 automatisch eingestellt werden kann. In Implementationen, in denen die Beleuchter 150 getrennt von dem Kamerasystem angeordnet sind, kann die Höhe der Beleuchter (beispielsweise der Abstand von der Basis 110) ebenfalls mittels einer linearen Gleitanordnung, einer Pneumatikzylinderanordnung oder einer anderen Höheneinstelleinrichtung eingestellt werden.
  • Die Beleuchter 150 können das Objekt 180 beleuchten, um Beleuchtungs- und/oder visuelle Effekte zu schaffen, so dass das Kamerasystem 120 Bilder des Objektes, das anzuzeigen ist, erfassen und aufnehmen kann.
  • Es können verschiedene Lichtquellen, wie zum Beispiel Licht emittierende Dioden (LEDs), Halogenleuchten, Kaltkathodenstrahlröhren, Glühlampen, etc. als Beleuchter 150 verwendet werden. Gemäß einer Ausführungsform können beispielsweise LED-Beleuchter verwendet werden, wobei die Beleuchter 150 um das Kamerasystem 120 angeordnet sein können, um das Objekt 180, das anzuzeigen ist, von oben zu beleuchten. Gemäß einer anderen Ausführungsform können die Beleuchter 150 in der Basis 110 integriert sein, so dass eine Beleuchtung von der Basis aus bereitgestellt wird, d. h. unterhalb des anzuzeigenden Objektes 180.
  • Gemäß einer beispielhaften Ausführungsform kann das Beleuchtersteuerungssystem 160 individuell die Beleuchter 150 mit Energie versorgen oder die Energieversorgung unterbrechen, und kann das Kamerasystem 120 derart steuern, dass es Bilder des Objektes 180 aufnimmt, während die Beleuchter individuell aktiviert oder mit Energie versorgt bzw. die Energieversorgung unterbrochen wird. Wenn jeder der Beleuchter 150 individuell mit Energie versorgt wird bzw. dessen Energieversorgung unterbrochen wird, kann das Kamerasystem 120 beispielsweise ein Bild des Objektes 180 aufnehmen, während dem entsprechenden Beleuchter Energie zugeführt wird. Das Kamerasystem 120 kann mit dem Beleuchtersteuerungssystem 160 synchronisiert werden, so dass das Kamerasystem 120 mehrere Bilder, die jeweils einem jeweiligen aktivierten Beleuchter 150 entsprechen, aufnimmt. Somit kann beispielsweise für jeden Beleuchter 150 ein Bild aufgenommen werden, wenn dem Beleuchter 150 Energie zugeführt wird, während die Energieversorgung der anderen Beleuchter 150 unterbrochen ist. Außerdem kann das Kamerasystem 120 eine Speichereinrichtung, die in 1 nicht gezeigt ist (beispielsweise einen Speicher mit wahlfreiem Zugriff (RAM), einen Flash-Speicher, Bänder, Scheibenlaufwerke, etc.) zum Speichern der aufgenommenen Bilder enthalten.
  • In einigen beispielhaften Ausführungsformen kann das Fokussteuerungssystem 170 durch Einstellen des Fokus einer Kameralinse in einem Kamerasystem 120 und/oder durch Erhöhen, Erniedrigen oder anderweitiges Manipulieren des Kamerasystems 120 in Bezug auf die Basis 110 tätig sein, um das Kamerasystem 120 zu fokussieren. Die Feldtiefe (DOF) kann als ein Bereich von Abständen zwischen dem Kamerasystem 120 und einem Objekt 180 beschrieben werden, innerhalb dessen ein Bild eines Objektes 180 als angemessen scharf betrachtet werden kann. Die DOF kann sich in Abhängigkeit von einem Kameratyp, einer Apertur und einem Fokussierabstand ändern. Dem Fachmann wird es im Lichte der hier beschriebenen Erfindung ersichtlich sein, dass, wenn ein Bild in einen Fokus gebracht wird, dieses ebenfalls bedeuten kann, dass ein Bildpunkt innerhalb der DOF liegt.
  • In einigen beispielhaften Ausführungsformen kann das Fokussteuerungssystem 170 bewirken, dass das Kamerasystem 120 Bilder des Objektes 180 in mehreren Fokussierabständen aufnimmt. Außerdem kann das Kamerasystem 120 mit den Fokussteuerungssystem 170 synchronisiert sein, um den Kamerafokus steuerbar einzustellen und Bilder des Objektes 180 aufzunehmen, wobei jedes Bild, das aufgenommen wird, einem jeweiligen Fokussierabstand entsprechen kann. Außerdem kann das Kamerasystem 120 mehrere Rahmenspeicher zum Speichern der aufgenommenen Bilder enthalten.
  • 2 zeigt ein Flussdiagramm einer beispielhaften Ausführungsform eines Prozesses 200 zum Anzeigen eines Bildes eines Objektes. Während die folgende Beschreibung des Prozesses 200 aus Darstellungsgründen Bezug auf Elemente der Ausführungsform der 1 nimmt, ist der beanspruchte Gegenstand nicht darauf beschränkt, und somit sollte der Prozess 200 nicht als auf einen Prozess zum Aufnehmen von Bildern unter Verwendung einer Präsentationseinrichtung 100 verstanden werden. Im Block 210 können mehrere Bilder eines Objektes 180 beispielsweise durch das Kamerasystem 120 aufgenommen werden. Gemäß einer Ausführungsform können die jeweiligen Bilder aufgenommen werden, wenn ein jeweils unterschiedlicher Beleuchter mit Energie versorgt wird, während die anderen Beleuchter nicht mit Energie versorgt werden. Somit kann, während ein jeweiliger Beleuchter mit Energie versorgt wird, das Kamerasystem 120 ein Bild des Objektes 180 aufnehmen und das Bild in einem Speicher (beispielsweise RAM, Flash-Speicher, etc.) speichern. Jedes Bild kann beispielsweise in einem entsprechenden Rahmenspeicher des Kamerasystems 120 gespeichert werden. Der Block 210 kann wiederholt werden, bis sämtliche Beleuchter individuell mit Energie versorgt und entsprechende Bilder erhalten wurden. Wenn beispielsweise M Beleuchter verwendet werden, können M Bilder des Objektes 180 erhalten werden. Gemäß einer beispielhaften Ausführungsform kann M gleich 2 oder größer sein. Gemäß einer anderen beispielhaften Ausführungsform kann M in einem Bereich von 6 bis 8 liegen. Gemäß anderen beispielhaften Ausführungsformen kann ein Teilsatz der Beleuchter wahlweise mit Energie versorgt und ein entsprechender Satz von Bildern aufgenommen werden.
  • Gemäß einer anderen beispielhaften Ausführungsform können im Block 210 mehrere Bilder in mehreren Fokussierabständen der Kamera aufgenommen werden. Wenn beispielsweise der Fokus des Kamerasystems 120 geändert wird, können mehrere Bilder des Objektes 180 aufgenommen werden, wobei jedes Bild einem anderen Fokussierabstand der Kamera entspricht. Dieser Bilderlangungsprozess kann wiederholt werden, und es kann jedes Bild in einem Speicher des Kamerasystems 120 gespeichert werden. Wie es oben erläutert wurde, können anstelle des direkten Änderns des Fokus des Kamerasystems 120 ähnliche Fokusänderungswirkungen durch Bewegen der Basis 110 in Bezug auf das Kamerasystem 120 erzielt werden.
  • Im Block 220 können jeweilige Pixel der Bilder miteinander verglichen werden, und im Block 230 kann ein Pixel aus den jeweiligen Pixeln der Bilder auf den Vergleich der jeweiligen Pixel hin ausgewählt werden. Im Block 240 können die ausgewählten Pixel kombiniert werden, um ein endgültiges Bild, das im Block 250 auszugeben ist, auszubilden.
  • 3 zeigt ein Flussdiagramm einer beispielhaften Ausführungsform eines Prozesses 300 zum Verarbeiten von Pixeln der Bilder, wenn die Bilder durch Einstellen der Beleuchter erhalten werden.
  • In 3 stellt K eine Folgennummer für ein K-tes Pixel eines Bildes dar, und M stellt eine maximale Anzahl von Pixeln des Bildes dar. Gemäß einer Ausführungsform, die nur beispielhaft ist, ist, wenn das Kamerasystem 120 ein Bild des Objektes 180 aufnimmt und dieses in ein 8×8-Pixelbild umwandelt, M gleich 64, und K variiert zwischen 1 und 64. Li stellt das i-te Bild aus den Bildern, die erhalten werden, dar. Gemäß anderen Ausführungsformen ist, wenn das Kamerasystem 120 ein Bild des Objektes 180 aufnimmt und dieses in ein 16×16-Pixelbild umwandelt, M gleich 256, und K variiert zwischen 1 und 256. Wenn beispielsweise 6 Bilder erhalten wurden, variiert i zwischen 1 und 6. Auf ähnliche Weise variiert, wenn 8 Bilder erhalten wurden, i zwischen 1 und 8. Li[K] stellt das K-te Pixel von Li dar. Zur Vereinfachung stellt Li[K] ebenfalls den Helligkeitswert des K-ten Pixels dar.
  • Im Block 310 des Prozesses 300 kann K zu 0 initialisiert und im Block 320 um eins inkrementiert werden. In Block 330 können, wenn K größer als M (maximale Anzahl der Pixel) ist, sämtliche Pixel als verarbeitet betrachtet werden, und der Prozess 300 kann beendet werden. Ansonsten erfolgt im Block 340 eine Bestimmung dahingehend, ob sämtliche K-ten Pixel der Bilder einen Helligkeitswert aufweisen, der größer als ein oberer Schwellenhelligkeitswert (TH) ist. Die Helligkeit, die ebenfalls als Luminanz bezeichnet wird, kann als die Menge an Licht betrachtet werden, die einen bestimmten Bereich durchdringt oder von diesem emittiert wird, und die Standardeinheit für die Luminanz ist Candela je Quadratmeter (cd/m2). In einigen Ausführungsformen kann der obere Schwellenhelligkeitswert in einem Bereich von etwa 5 cd/m2 bis etwa 20 cd/m2, von etwa 10 cd/m2 bis etwa 20 cd/m2, von etwa 15 cd/m2 bis etwa 20 cd/m2, von etwa 5 cd/m2 bis etwa 10 cd/m2, von etwa 5 cd/m2 bis etwa 15 cd/m2 oder von etwa 10 cd/m2 bis etwa 15 cd/m2 reichen. In anderen Ausführungsformen kann der obere Schwellenhelligkeitswert etwa 5 cd/m2, etwa 10 cd/m2, etwa 15 cd/m2 oder etwa 20 cd/m2 betragen.
  • Wenn sämtliche Pixel einen Helligkeitswert aufweisen, der größer als der obere Schwellenhelligkeitswert ist, kann die Oberfläche des Objektes 180 als „hell” an dem Bildpunkt, der den K-ten Pixeln entspricht, bestimmt werden. Somit kann im Block 350 der minimale Helligkeitswert der K-ten Pixel als ein Helligkeitswert des K-ten Pixels ausgegeben werden. Wenn mindestens eines der Pixel eine Helligkeit aufweist, die niedriger als der obere Schwellenwert ist, kann der Prozess 300 zum Block 360 fortschreiten.
  • Im Block 360 kann bestimmt werden, ob sämtliche K-ten Pixel der Bilder einen Helligkeitswert aufweisen, der kleiner als ein unterer Schwellenhelligkeitswert (TL) ist. In einigen Ausführungsformen kann der untere Schwellenhelligkeitswert in einem Bereich von 0,1 cd/m2 bis etwa 5 cd/m2, von etwa 0,5 cd/m2 bis etwa 5 cd/m2, von etwa 1 cd/m2 bis etwa 5 cd/m2, von etwa 2,5 cd/m2 bis etwa 5 cd/m2, von etwa 0,1 cd/m2 bis etwa 0,5 cd/m2 von etwa 0,1 cd/m2 bis 1 cd/m2, von etwa 0,1 cd/m2 bis etwa 2,5 cd/m2, von etwa 0,5 cd/m2 bis etwa 1 cd/m2 oder von etwa 1 cd/m2 bis etwa 2,5 cd/m2 reichen. In anderen Ausführungsformen kann der untere Schwellenhelligkeitswert etwa 0,1 cd/m2, etwa 0,5 cd/m2, etwa 1 cd/m2, etwa 2,5 cd/m2 oder etwa 5 cd/m2 betragen.
  • Wenn sämtliche Pixel einen Helligkeitswert aufweisen, der kleiner als der Schwellenwert ist, kann die Oberfläche des Objektes 180 als „dunkel” an dem Bildpunkt, der den K-ten Pixeln entspricht, bestimmt werden. Somit kann im Block 370 ein maximaler Helligkeitswert der Pixel als ein Helligkeitswert des K-ten Pixels ausgegeben werden. Wenn mindestens eines der Pixel eine Helligkeit aufweist, die größer als der untere Schwellenwert ist, kann der Prozess 300 zum Block 380 fortschreiten.
  • Im Block 380 kann eine mittlere Helligkeit der Pixel als der Helligkeitswert des K-ten Pixels ausgegeben werden. Beim Berechnen des mittleren Helligkeitswertes kann Verschiedenes Berücksichtigung finden. Wenn beispielsweise die Anzahl der Pixel, die für einen speziellen Bereich eines Bildes abgetastet werden, relativ niedrig ist (beispielsweise 5 oder weniger Bilder wurden erhalten), können sämtliche Pixel für die Berechnung der mittleren Helligkeit verwendet werden. Wenn jedoch die Anzahl der Pixel, die abgetastet werden, relativ groß ist (beispielsweise 10 oder mehr Bilder wurden erhalten), können einige Pixel, die höhere oder niedrigere Helligkeitswerte aufweisen, von der Berechnung der mittleren Helligkeit ausgeschlossen werden.
  • Wenn sämtliche Pixel im Prozess 300 verarbeitet wurden, kann ein Bild, das dem Objekt 180 entspricht, aus den resultierenden (d. h. zusammengesetzten) Helligkeitswerten ausgebildet werden (Block 240). Somit können die Pixel des somit ausgebildeten Bildes von verschiedenen Bildern aus den Bildern, die für die jeweiligen Beleuchter 150 erhalten werden, abgeleitet werden. Danach kann ein Bild, das dem physikalischen Objekt 180 entspricht, im Block 250 durch externe Anzeigevorrichtungen ausgegeben werden.
  • Gemäß einer anderen Ausführungsform können mit Bezug auf 2 im Block 210 mehrere Bilder durch Ändern des Fokus des Kamerasystems 120 aufgenommen werden. 4 zeigt ein Flussdiagramm einer beispielhaften Ausführungsform eines Prozesses 400 zum Verarbeiten von Pixeln der Bilder, wenn die Bilder aufgenommen werden, wobei die jeweiligen Bilder unterschiedlichen Fokussierabständen des Kamerasystems 120 entsprechen.
  • In 4 stellt K eine Folgennummer für das K-te Pixel eines Bildes dar, und M stellt die maximale Anzahl von Pixeln des Bildes dar. Wenn beispielsweise das Kamerasystem 120 ein Bild des Objektes 180 aufnimmt und dieses in ein 8×8-Pixelbild umwandelt, ist M gleich 64, und K variiert zwischen 1 und 64. Fi stellt das i-te Bild aus den erhaltenen Bildern dar. Wenn beispielsweise sechs Bilder erhalten wurden, variiert i zwischen 1 und 6. Fi[K] stellt das K-te Pixel von Fi dar.
  • Gemäß 4 kann im Block 410 K zu 0 initialisiert und im Block 420 um eins inkrementiert werden. Im Block 430 kann, wenn K als größer als M (maximale Anzahl der Pixel) bestimmt wird, angenommen werden, dass sämtliche Pixel verarbeitet wurden, und der Prozess 400 kann beendet werden. Ansonsten kann im Block 440 ein Fokusmaß für jedes Fi[K] berechnet werden, und es kann ein maximales Fokusmaß aus den Fokusmaßen an demselben Bildpunkt des Objektes 180 ausgegeben werden.
  • Gemäß einer beispielhaften Ausführungsform kann ein automatisches Auswahlverfahren verwendet werden, um den Fokus der Kamera einzustellen und ein geeignetes Pixel aus den Pixeln der Bilder an demselben Bildpunkt zu bestimmen. Das automatische Auswahlverfahren kann ein Merkmal optischer Systeme sein, die in der Lage sind, einen richtigen Fokus eines Subjektes zu erhalten. In einer beispielhaften Ausführungsform kann das automatische Auswahlverfahren ein Shape-From-Focus-Verfahren (SFF) (Gestalt-aus-Fokus-Verfahren) sein. In einem Bild können Objekte in unterschiedlichen Abständen von einer Linse in unterschiedlichen Abständen in den Fokus gebracht werden. Ein SFF-Verfahren kann Kameraparameter, wie zum Beispiel eine Linsenposition und/oder eine Brennweite verwenden, um die Fokussierung eines Kamerasystems einzustellen. Gemäß dem SFF-Verfahren kann die Tiefe der Szene durch Ändern der Optiken der Kamera, bis ein interessierender Punkt in den Fokus gebracht ist, rekonstruiert werden. Die Änderung in den Optiken kann durch Ändern der Linsenposition und/oder der Objektposition in Bezug auf die Kamera erhalten werden.
  • Eine Tiefe eines Punktes eines Objektes im Fokus kann unter Verwendung der folgenden Gaußschen Linsenformel erhalten werden: 1/f = 1/u + 1/v, wobei f die Brennweite ist, u der Abstand des Objektes von der Linsenebene ist und v der Abstand des fokussierten Bildes von der Linsenebene ist. Ein deutliches oder fokussiertes Bild kann durch einen Bilddetektor erhalten werden, wenn der Bilddetektor mit der Bildebene zusammenfällt, d. h. wenn s = v gilt. Wenn der Bilddetektor in einem Abstand v (s = v) platziert ist, kann ein scharfes Bild erhalten werden. Wenn jedoch der Bilddetektor in einem Abstand s (s ≠ v) platziert ist, kann ein verschwommenes Bild der Punktquelle erhalten werden. Der Grad des Verschwimmens kann somit von der Brennweite f der Linse und den Abständen u und s abhängen. Wenn f und v bekannt sind, kann der Abstand u des Objektes unter Verwendung der oben angegebenen Gaußschen Linsenformel bestimmt werden.
  • Wenn I(x, y) die Bildintensität an einem Punkt (x, y) ist, ist der entsprechende Laplace-Operator:
    Figure DE102008060076B4_0002
    Der Laplace-Operator kann für jedes Pixel eines gegebenen Bildfensters bestimmt werden, und eine Kriteriumsfunktion kann wie folgt lauten:
    Figure DE102008060076B4_0003
    wobei T ein Schwellenwert ist. In dem Fall des Laplace-Operators können jedoch die zweiten Ableitungen in den x- und y-Richtungen unterschiedliche, d. h. entgegen gesetzte Vorzeichen aufweisen und sich gegenseitig auslöschen. D. h., die partiellen Ableitungen können hinsichtlich der Größe etwa gleich sein, aber ein entgegen gesetztes Vorzeichen aufweisen. Somit kann der folgende modifizierte Laplace-Operator verwendet werden:
    Figure DE102008060076B4_0004
  • Der modifizierte Laplace-Operator kann hinsichtlich des Betrags größer oder gleich dem Laplace-Operator sein. Eine diskrete Annäherung an den Laplace-Operator kann eine 3×3-Matrix oder ein 3×3-Operator sein. Um unterschiedliche Variationen der Größe von Texturelementen zu berücksichtigen, können partielle Ableitungen unter Verwendung eines variablen Zwischenraums bzw. Abstands (step) zwischen den Pixeln bestimmt werden, der verwendet wird, um die Ableitungen zu berechnen. Dementsprechend kann die diskrete Annäherung an den modifizierten Laplace-Operator aus Folgendem bestimmt werden: V 2 / MLI(x, y) = |2I(x, y) – I(x – step, y) – I(x + step, y)| + |2I(x, y) – I(x, y – step) – I(x, y + step)|.
  • Schließlich kann eine Fokusmessung an einem Punkt (i, j) als eine Summe aus den modifizierten Laplace-Operatoren in einem kleinen Fenster um (i, j) berechnet werden, die größer als ein Schwellenwert sind:
    Figure DE102008060076B4_0005
    wobei der Parameter N die Fenstergröße bestimmt, die verwendet wird, um das Fokusmaß zu berechnen. Dieses Fokusmaß kann als Summen-Modifikations-Laplace-Operator (SML) bezeichnet werden.
  • Im SFF kann eine Folge von Bildern durch kontinuierliches Ändern des Abstandes zwischen den Linsen und dem Bilddetektor erhalten werden. Bei jedem Pixel kann der Bildrahmen, der das maximale Schärfemaß ergibt, bestimmt werden. Die gesamte Bildfolge kann als Bildvolumen Vi, x, y betrachtet werden, wobei x, y, und i die Anzahl jeweils der Spalten, Zeilen und Bildrahmen bezeichnen. Für jedes Bild in der Folge kann das Fokusmaß ∇ 2 / MLI(x, y) an jedem Pixel berechnet werden, und es wird ein Fokusmessvolumen SMLi, x, y erhalten. Ein Summen-Modifikations-Laplace-Operator-Volumen (SML-Volumen) SMLi, x, y, das F(x, y) verwendet, kann berechnet werden, wobei das SML-Volumen eine kleine (etwa 15×15) 2D-Bildnachbarschaft um das Pixel darstellt.
  • Aus einem SML-Volumen kann der Bildrahmen aus der Bildfolge, der ein maximales Schärfemaß ergibt, bestimmt werden. Dieser Bildrahmen kann eine endgültige Tiefenkarte repräsentieren. Der somit bestimmte Graupegel bzw. die Graustufe (proportional zur Bildstrahlungsintensität) des Pixels in dem Bildrahmen kann dem Graustufenwert des fokussierten Bildes für das Pixel entsprechen. Die Kameraparameterwerte für diesen Bildrahmen können verwendet werden, um den Abstand des Objektpunktes, der diesem Pixel entspricht, zu berechnen.
  • Wenn sämtliche Pixel gemäß 4 verarbeitet wurden, kann gemäß Block 240 der 2 ein Bild, das dem Objekt 180 entspricht, aus den ausgewählten Pixeln ausgebildet werden. Somit können Pixel dieses Bildes aus verschiedenen Bildern unter den Bildern, die durch das SFF-Verfahren erhalten wurden, erhalten werden. Danach kann im Block 250 der 2 das Bild, das dem physikalischen Objekt 180 entspricht, durch externe Anzeigevorrichtungen ausgegeben werden.
  • Gemäß einer anderen Ausführungsform kann ein Voreinstellungsverfahren anstelle des automatischen Auswahlverfahrens verwendet werden, um den Kamerafokus einzustellen und ein geeignetes Pixel aus den Pixeln der Bilder an demselben Punkt zu bestimmen. Das Voreinstellungsverfahren kann das Ändern des Fokus der Linse von einem niedrigeren Punkt zu einem höheren Punkt zu vorbestimmten Zeitpunkten beinhalten. In einigen beispielhaften Ausführungsformen kann die Zahl der vorbestimmten Zeitpunkte von 2 bis 10, von 5 bis 10, von 7 bis 10, von 2 bis 5, von 2 bis 7 oder von 5 bis 7 reichen. In anderen beispielhaften Ausführungsformen kann die Zahl der vorbestimmten Zeitpunkte gleich 2, 5, 7 oder 10 sein. Um Pixel zu bestimmen, kann das Voreinstellungsverfahren ebenfalls das Fokusmaß, das für das SFF-Verfahren verwendet wird, verwenden. In einigen Ausführungsformen kann, wenn sämtliche Pixel gemäß 4 verarbeitet wurden, ein Bild, das dem physikalischen Objekt 180 entspricht, aus den bestimmten Pixeln ausgebildet (Block 240) und durch externe Anzeigevorrichtungen ausgegeben werden (Block 250). In anderen Ausführungsformen kann ein Bild, das dem physikalischen Objekt 180 entspricht, ausgebildet werden, nachdem zumindest einige der Pixel verarbeitet wurden.
  • In weiteren Ausführungsformen können andere Fokusmessungen verwendet werden. Es kann beispielsweise eine Fokusmessung auf der Grundlage einer Hochfrequenzenergie in einem Leistungsspektrum unter Verwendung einer Fast-Fourier-Transformation (FFT) (Schnelle Fouriertransformation), der Varianz von Bildgraustufen, der L1-Norm eines Bildgradienten, der L2-Norm des Bildgradienten, der L1-Norm von zweiten Ableitungen des Bildes, der Energie des Laplace-Operators, des modifizierten Laplace-Operators, der Histogrammentropie des Bildes, des Histogramms der lokalen Varianz und der Summen-Modulus-Differenz, um nur einige zu nennen, durchgeführt werden, und dementsprechend ist der beanspruchte Gegenstand in dieser Hinsicht nicht durch die oben genannten Beispiele beschränkt.
  • Im Lichte der obigen Beschreibung ist es dem Fachmann ersichtlich, dass die Vorrichtung und die hierin beschriebenen Verfahren mittels Hardware, Software, Firmware, Middleware, oder Kombinationen aus diesen implementiert und in Systemen, Untersystemen, Komponenten oder Unterkomponenten von diesen verwendet werden können. Ein Verfahren, das mittels Software implementiert wird, kann beispielsweise einen Computercode enthalten, um die Operationen des Verfahrens durchzuführen. Dieser Computercode kann auf einem maschinenlesbaren Medium wie zum Beispiel einem prozessorlesbaren Medium oder einem Computerprogrammprodukt gespeichert sein oder als ein Computerdatensignal, das in einer Trägerwelle verkörpert ist, oder ein Signal, das durch einen Träger moduliert ist, über ein Übertragungsmedium oder eine Kommunikationsverbindung übertragen werden. Das maschinenlesbare Medium oder prozessorlesbare Medium kann ein beliebiges Medium beinhalten, das in der Lage ist, Informationen in einer Form zu speichern oder zu übertragen, die von einer Maschine (beispielsweise einem Prozessor, einem Computer, etc.) lesbar und ausführbar ist.
  • Für den Fachmann ist ersichtlich, dass die Funktionen, die in den Verfahren durchgeführt werden, in unterschiedlicher Reihenfolge implementiert sein können, und dass die umrissenen Schritte nur beispielhaft sind und dass einige Schritte optional sein können, in weniger Schritte kombiniert oder derart erweitert werden können, dass sie zusätzliche Schritte enthalten, ohne von dem Wesentlichen der vorliegenden Erfindung abzuweichen.
  • Die hier beschriebenen Ausführungsformen sind nur beispielhaft, und es sind verschiedene Modifikationen innerhalb des Bereichs der vorliegenden Erfindung, der durch die zugehörigen Ansprüche angegeben ist, abzuweichen.

Claims (10)

  1. Vorrichtung zum Anzeigen eines Bildes, die aufweist: eine Basis, die in der Lage ist, ein Objekt zu tragen, wobei die Basis einen Basisarm aufweist; ein Kamerasystem, das mit dem Basisarm gekoppelt ist, wobei das Kamerasystem ausgelegt ist, durch individuelles Versorgen und nicht Versorgen von Beleuchtern eines Beleuchtungssystems, die ausgelegt sind, das Objekt zu beleuchten, mit Energie mehrere Bilder des Objektes aufzunehmen; ein Beleuchtersteuerungssystem, das ausgelegt ist, die Beleuchter zu steuern; und ein Fokussteuerungssystem, das ausgelegt ist, einen Fokus des Kamerasystems einzustellen; wobei das Beleuchtersteuerungssystem den Helligkeitswert jeweiliger K-ter Pixel der Bilder für sämtliche M Pixel der Bilder miteinander vergleicht, wobei K eine Folgennummer für ein K-tes Pixel eines Bildes repräsentiert, und wobei M eine maximale Anzahl von Pixeln der Bilder repräsentiert; wenn der Helligkeitswert sämtlicher K-ter Pixel einen oberen Schwellenwert (TH) überschreitet, den niedrigsten Helligkeitswert für das K-te Pixel eines Ausgangsbildes auswählt, wenn der Helligkeitswert sämtlicher K-ter Pixel niedriger als ein unter Schwellenwert (TL) ist, den höchsten Helligkeitswert für das K-te Pixel des Ausgangsbildes auswählt, ansonsten einen mittleren Helligkeitswert für das K-te Pixel des Ausgangsbildes berechnet, das Ausgangsbild aus den Pixeln, die den ausgewählten Helligkeitswerten entsprechen, ausbildet; und die Vorrichtung zum Anzeigen des Ausgangsbildes ansteuert.
  2. Vorrichtung zum Anzeigen eines Bildes, die aufweist: eine Basis, die in der Lage ist, ein Objekt zu tragen, wobei die Basis einen Basisarm aufweist; ein Kamerasystem, das mit dem Basisarm gekoppelt ist, wobei das Kamerasystem ausgelegt ist, mehrere Bilder des Objektes durch Ändern seines Fokus aufzunehmen; ein Beleuchtungssystem, das mehrere Beleuchter aufweist, die ausgelegt sind, das Objekt zu beleuchten; ein Beleuchtersteuerungssystem, das ausgelegt ist, die Beleuchter zu steuern; und ein Fokussteuerungssystem, das ausgelegt ist, den Fokus des Kamerasystems einzustellen; wobei das Fokussteuerungssystem ein Fokusmaß jeweiliger K-ter Pixel der Bilder für sämtliche M Pixel der Bilder berechnet, wobei K eine Folgennummer für ein K-tes Pixel eines Bildes repräsentiert, und wobei M eine maximale Anzahl von Pixeln der Bilder repräsentiert; das maximale Fokusmaß der K-ten Pixel für ein K-tes Pixel eines Ausgangsbildes auswählt; das Ausgangsbild aus den Pixeln, die den ausgewählten Fokusmaßen entsprechen, ausbildet; und die Vorrichtung zum Anzeigen des Ausgangsbildes ansteuert.
  3. Vorrichtung nach Anspruch 2, wobei das Fokussteuerungssystem außerdem in der Lage ist, zu bewirken, dass das Kamerasystem die Bilder des Objektes mit mehreren Fokussierabständen aufnimmt, wobei ein jeweiliges Bild einem jeweiligen Fokussierabstand entspricht.
  4. Vorrichtung nach Anspruch 3, wobei die Basis bewegt werden kann, um den Fokus des Kamerasystems einzustellen.
  5. Vorrichtung nach Anspruch 2, wobei das Fokussteuerungssystem außerdem ausgelegt ist, das Fokusmaß zumindest durch Berechnen eines Summen-Modifikations-Laplace-Operators (SML) zu berechnen.
  6. Verfahren zum Anzeigen eines Bildes, das aufweist: Aufnehmen mehrerer Bilder eines Objektes durch individuelles Versorgen und nicht Versorgen mehrerer Beleuchter mit Energie; Vergleichen der Helligkeitswerte jeweiliger K-ter Pixel der Bilder für sämtliche M Pixel der Bilder miteinander, wobei K eine Folgennummer für ein K-tes Pixel eines Bildes repräsentiert, und wobei M eine maximale Anzahl von Pixeln der Bilder repräsentiert; wenn der Helligkeitswert sämtlicher K-ter Pixel einen oberen Schwellenwert (TH) überschreitet, Auswählen des niedrigsten Helligkeitswerts für das K-te Pixel eines Ausgangsbildes, wenn der Helligkeitswert sämtlicher K-ter Pixel niedriger als ein unter Schwellenwert (TL) ist, Auswählen des höchsten Helligkeitswerts für das K-te Pixel des Ausgangsbildes, ansonsten Berechnen eines mittleren Helligkeitswerts für das K-te Pixel des Ausgangsbildes, Ausbilden des Ausgangsbilds aus den Pixeln, die den ausgewählten Helligkeitswerten entsprechen; und Ausgeben des Ausgangsbildes.
  7. Verfahren zum Anzeigen eines Bildes, das aufweist: Ansteuern eines Beleuchtungssystems, das mehrere Beleuchter aufweist, um ein Objekt zu beleuchten; Aufnehmen mehrerer Bilder des Objektes durch Ändern des Fokus eines Kamerasystems; Berechnen eines Fokusmaßes jeweiliger K-ter Pixel der Bilder für sämtliche M Pixel der Bilder, wobei K eine Folgennummer für ein K-tes Pixel eines Bildes repräsentiert, und wobei M eine maximale Anzahl von Pixeln der Bilder repräsentiert Auswählen des maximalen Fokusmaßes der K-ten Pixel für ein K-tes Pixel eines Ausgangsbildes; Ausbilden des Ausgangsbildes aus den Pixeln, die den ausgewählten Fokusmaßen entsprechen; und Ausgeben des Ausgangsbildes.
  8. Verfahren nach Anspruch 7, wobei bei dem Berechnen des Fokusmaßes ein Summen-Modifikations-Laplace-Operator (SML) verwendet wird.
  9. Vorrichtung nach Anspruch 7, wobei bei dem Berechnen des Fokusmaßes ein Summen-Modifikations-Laplace-Operator (SML) verwendet wird.
  10. Prozessorlesbares Speichermedium, das Anweisungen speichert, die, wenn sie von einem Prozessor ausgeführt werden, bewirken, dass der Prozessor eine Vorrichtung steuert, um ein Verfahren nach einem der Ansprüche 6 bis 9 durchzuführen.
DE102008060076.8A 2008-08-26 2008-12-02 Digitale Präsentationseinrichtung Expired - Fee Related DE102008060076B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/198,825 2008-08-26
US12/198,825 US8736751B2 (en) 2008-08-26 2008-08-26 Digital presenter for displaying image captured by camera with illumination system

Publications (2)

Publication Number Publication Date
DE102008060076A1 DE102008060076A1 (de) 2010-03-04
DE102008060076B4 true DE102008060076B4 (de) 2014-03-27

Family

ID=41606247

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102008060076.8A Expired - Fee Related DE102008060076B4 (de) 2008-08-26 2008-12-02 Digitale Präsentationseinrichtung

Country Status (4)

Country Link
US (1) US8736751B2 (de)
JP (1) JP4888978B2 (de)
CN (1) CN101661154B (de)
DE (1) DE102008060076B4 (de)

Families Citing this family (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10298834B2 (en) 2006-12-01 2019-05-21 Google Llc Video refocusing
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US10123050B2 (en) * 2008-07-11 2018-11-06 Qualcomm Incorporated Filtering video data using a plurality of filters
US9143803B2 (en) * 2009-01-15 2015-09-22 Qualcomm Incorporated Filter prediction based on activity metrics in video coding
WO2011063347A2 (en) 2009-11-20 2011-05-26 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US8400564B2 (en) * 2010-05-03 2013-03-19 Microsoft Corporation Image capture
US9819966B2 (en) 2010-09-01 2017-11-14 Qualcomm Incorporated Filter description signaling for multi-filter adaptive filtering
US9247265B2 (en) * 2010-09-01 2016-01-26 Qualcomm Incorporated Multi-input adaptive filter based on combination of sum-modified Laplacian filter indexing and quadtree partitioning
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
US8964853B2 (en) 2011-02-23 2015-02-24 Qualcomm Incorporated Multi-metric filtering
KR101074678B1 (ko) * 2011-03-03 2011-10-18 배상모 휴대단말기에 구비된 카메라를 이용한 물체의 실제 크기 측정 방법
KR102002165B1 (ko) 2011-09-28 2019-07-25 포토내이션 리미티드 라이트 필드 이미지 파일의 인코딩 및 디코딩을 위한 시스템 및 방법
JP5990004B2 (ja) 2012-02-08 2016-09-07 キヤノン株式会社 撮像装置
JP5966535B2 (ja) * 2012-04-05 2016-08-10 ソニー株式会社 情報処理装置、プログラム及び情報処理方法
US10740608B2 (en) 2012-06-13 2020-08-11 San Diego State University Research Foundation Wide area intermittent video using non-orthorectified feature matching in long period aerial image capture with pixel-based georeferencing
US9858649B2 (en) 2015-09-30 2018-01-02 Lytro, Inc. Depth-based image blurring
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
CN104662589B (zh) 2012-08-21 2017-08-04 派力肯影像公司 用于使用阵列照相机捕捉的图像中的视差检测和校正的系统和方法
US9001226B1 (en) * 2012-12-04 2015-04-07 Lytro, Inc. Capturing and relighting images using multiple devices
US9491366B2 (en) * 2013-02-01 2016-11-08 Htc Corporation Electronic device and image composition method thereof
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
US9633442B2 (en) 2013-03-15 2017-04-25 Fotonation Cayman Limited Array cameras including an array camera module augmented with a separate camera
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
EP2973476A4 (de) 2013-03-15 2017-01-18 Pelican Imaging Corporation Systeme und verfahren zur stereobildgebung mit kameraarrays
US10334151B2 (en) 2013-04-22 2019-06-25 Google Llc Phase detection autofocus using subaperture images
CN104463154B (zh) * 2013-09-16 2017-12-29 联想(北京)有限公司 一种信息处理方法及电子设备
WO2015081279A1 (en) 2013-11-26 2015-06-04 Pelican Imaging Corporation Array camera configurations incorporating multiple constituent array cameras
WO2015183824A1 (en) * 2014-05-26 2015-12-03 Pelican Imaging Corporation Autofocus system for a conventional camera that uses depth information from an array camera
JP6345001B2 (ja) * 2014-07-01 2018-06-20 株式会社Screenホールディングス 画像処理方法および画像処理装置
TWI569085B (zh) * 2014-09-10 2017-02-01 Ophaya Electronics Corp A projection system with optical image recognition function, a projection device and a projector to be projected
EP3201877B1 (de) 2014-09-29 2018-12-19 Fotonation Cayman Limited Systeme und verfahren zur dynamischen kalibrierung von array-kameras
US10546424B2 (en) 2015-04-15 2020-01-28 Google Llc Layered content delivery for virtual and augmented reality experiences
US10565734B2 (en) 2015-04-15 2020-02-18 Google Llc Video capture, processing, calibration, computational fiber artifact removal, and light-field pipeline
US10567464B2 (en) 2015-04-15 2020-02-18 Google Llc Video compression with adaptive view-dependent lighting removal
US11328446B2 (en) 2015-04-15 2022-05-10 Google Llc Combining light-field data with active depth data for depth map generation
US10419737B2 (en) 2015-04-15 2019-09-17 Google Llc Data structures and delivery methods for expediting virtual reality playback
US10275898B1 (en) 2015-04-15 2019-04-30 Google Llc Wedge-based light-field video capture
US10440407B2 (en) 2017-05-09 2019-10-08 Google Llc Adaptive control for immersive experience delivery
US10540818B2 (en) 2015-04-15 2020-01-21 Google Llc Stereo image generation and interactive playback
US10469873B2 (en) 2015-04-15 2019-11-05 Google Llc Encoding and decoding virtual reality video
US10412373B2 (en) 2015-04-15 2019-09-10 Google Llc Image capture for virtual reality displays
US10444931B2 (en) 2017-05-09 2019-10-15 Google Llc Vantage generation and interactive playback
US10341632B2 (en) 2015-04-15 2019-07-02 Google Llc. Spatial random access enabled video system with a three-dimensional viewing volume
US9979909B2 (en) 2015-07-24 2018-05-22 Lytro, Inc. Automatic lens flare detection and correction for light-field images
US10275892B2 (en) 2016-06-09 2019-04-30 Google Llc Multi-view scene segmentation and propagation
US10679361B2 (en) 2016-12-05 2020-06-09 Google Llc Multi-view rotoscope contour propagation
US10594945B2 (en) 2017-04-03 2020-03-17 Google Llc Generating dolly zoom effect using light field image data
CN108810324B (zh) * 2017-04-26 2020-12-18 宁波舜宇光电信息有限公司 测试数据处理装置、测试数据处理方法和测试设备
US10474227B2 (en) 2017-05-09 2019-11-12 Google Llc Generation of virtual reality with 6 degrees of freedom from limited viewer data
US10354399B2 (en) 2017-05-25 2019-07-16 Google Llc Multi-view back-projection to a light-field
US10545215B2 (en) 2017-09-13 2020-01-28 Google Llc 4D camera tracking and optical stabilization
US10965862B2 (en) 2018-01-18 2021-03-30 Google Llc Multi-camera navigation interface
US10748304B2 (en) * 2018-03-08 2020-08-18 Datacolor Inc. Color search using a smartphone and a reference color chart
WO2020215050A1 (en) * 2019-04-19 2020-10-22 Arizona Board Of Regents On Behalf Of The University Of Arizona All-in-focus imager and associated method
US11921285B2 (en) 2019-04-19 2024-03-05 Arizona Board Of Regents On Behalf Of The University Of Arizona On-chip signal processing method and pixel-array signal
WO2021055585A1 (en) 2019-09-17 2021-03-25 Boston Polarimetrics, Inc. Systems and methods for surface modeling using polarization cues
MX2022004163A (es) 2019-10-07 2022-07-19 Boston Polarimetrics Inc Sistemas y metodos para la deteccion de estandares de superficie con polarizacion.
MX2022005289A (es) 2019-11-30 2022-08-08 Boston Polarimetrics Inc Sistemas y metodos para segmentacion de objetos transparentes usando se?ales de polarizacion.
CN113028983B (zh) * 2019-12-24 2023-05-16 深圳市富泰通国际物流有限公司 测量装置、测量系统、测量方法及计算机
WO2021154386A1 (en) 2020-01-29 2021-08-05 Boston Polarimetrics, Inc. Systems and methods for characterizing object pose detection and measurement systems
US11797863B2 (en) 2020-01-30 2023-10-24 Intrinsic Innovation Llc Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images
WO2021243088A1 (en) 2020-05-27 2021-12-02 Boston Polarimetrics, Inc. Multi-aperture polarization optical systems using beam splitters
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19841555A1 (de) * 1997-09-11 1999-06-17 Markus R Mueller Verfahren zur Aufnahme und zur Abspeicherung optisch erfaßbarer Daten
JPH11261797A (ja) * 1998-03-12 1999-09-24 Fuji Photo Film Co Ltd 画像処理方法
EP1653408A1 (de) * 2004-10-29 2006-05-03 Mitutoyo Corporation Verfahren zur automatischen Wiederbereitstellung von Bildverarbeitungsbausteinen
US20080075335A1 (en) * 2006-09-21 2008-03-27 Stmicroelectronics S.A. Method and device for selecting images in a sequence of iris images received in a stream

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5515181A (en) * 1992-03-06 1996-05-07 Fuji Xerox Co., Ltd. Image reading apparatus providing high quality images through synthesis of segmented image data
US6088612A (en) * 1997-04-04 2000-07-11 Medtech Research Corporation Method and apparatus for reflective glare removal in digital photography useful in cervical cancer detection
GB2356996A (en) * 1999-12-03 2001-06-06 Hewlett Packard Co Improvements to digital cameras
US7065242B2 (en) * 2000-03-28 2006-06-20 Viewpoint Corporation System and method of three-dimensional image capture and modeling
US6965460B1 (en) * 2000-08-08 2005-11-15 Hewlett-Packard Development Company, L.P. Method and system for scanning an image using a look-down linear array scanner
GB2372391A (en) * 2001-02-16 2002-08-21 Hewlett Packard Co Removal of specular reflection
JP3510868B2 (ja) * 2001-06-19 2004-03-29 三洋電機株式会社 画像合成装置
KR100479983B1 (ko) 2001-09-14 2005-03-30 이상욱 혼성 반사 모델에서의 포토 메트릭 스테레오 방법
US7050106B2 (en) * 2001-11-21 2006-05-23 Canon Kabushiki Kaisha Image input device with rotatable image pickup unit
US8123350B2 (en) * 2003-06-03 2012-02-28 Hexagon Metrology Ab Computerized apparatus and method for applying graphics to surfaces
WO2005041578A2 (en) * 2003-10-24 2005-05-06 Reactrix Systems, Inc. Method and system for managing an interactive video display system
JP2005175716A (ja) 2003-12-09 2005-06-30 Fujinon Corp 資料提示装置
JP2005176093A (ja) 2003-12-12 2005-06-30 Fujinon Corp 資料提示装置
JP4241460B2 (ja) 2004-03-25 2009-03-18 キヤノン株式会社 電子撮像装置
US7593595B2 (en) * 2004-08-26 2009-09-22 Compulink Management Center, Inc. Photographic document imaging system
US7580576B2 (en) * 2005-06-02 2009-08-25 Microsoft Corporation Stroke localization and binding to electronic document
JP4529840B2 (ja) * 2005-08-15 2010-08-25 カシオ計算機株式会社 撮像装置、画像処理方法及びプログラム
US7911444B2 (en) * 2005-08-31 2011-03-22 Microsoft Corporation Input method for surface of interactive display
JP2007089086A (ja) 2005-09-26 2007-04-05 Sony Ericsson Mobilecommunications Japan Inc 携帯情報端末及び画像管理プログラム
ES2431632T3 (es) * 2005-12-23 2013-11-27 Gcoder Systems Ab Patrón de posicionamiento
US7630002B2 (en) * 2007-01-05 2009-12-08 Microsoft Corporation Specular reflection reduction using multiple cameras
WO2007123744A2 (en) * 2006-03-31 2007-11-01 Solexa, Inc. Systems and devices for sequence by synthesis analysis
JP4147255B2 (ja) * 2006-06-23 2008-09-10 キヤノン株式会社 画像処理装置及び画像処理の制御方法及びプログラム及び記憶媒体
JP4834531B2 (ja) * 2006-12-05 2011-12-14 キヤノン株式会社 画像処理装置及び画像処理装置の制御方法及びプログラム
US8212857B2 (en) * 2007-01-26 2012-07-03 Microsoft Corporation Alternating light sources to reduce specular reflection
JP2008234518A (ja) * 2007-03-23 2008-10-02 Oki Electric Ind Co Ltd 画像合成装置および画像合成プログラム
US20090046146A1 (en) * 2007-08-13 2009-02-19 Jonathan Hoyt Surgical communication and control system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19841555A1 (de) * 1997-09-11 1999-06-17 Markus R Mueller Verfahren zur Aufnahme und zur Abspeicherung optisch erfaßbarer Daten
JPH11261797A (ja) * 1998-03-12 1999-09-24 Fuji Photo Film Co Ltd 画像処理方法
EP1653408A1 (de) * 2004-10-29 2006-05-03 Mitutoyo Corporation Verfahren zur automatischen Wiederbereitstellung von Bildverarbeitungsbausteinen
US20080075335A1 (en) * 2006-09-21 2008-03-27 Stmicroelectronics S.A. Method and device for selecting images in a sequence of iris images received in a stream

Also Published As

Publication number Publication date
JP2010057156A (ja) 2010-03-11
CN101661154B (zh) 2013-04-10
US8736751B2 (en) 2014-05-27
US20100053415A1 (en) 2010-03-04
DE102008060076A1 (de) 2010-03-04
CN101661154A (zh) 2010-03-03
JP4888978B2 (ja) 2012-02-29

Similar Documents

Publication Publication Date Title
DE102008060076B4 (de) Digitale Präsentationseinrichtung
EP2188661B1 (de) Verfahren und beleuchtungsvorrichtung zur optischen kontrastverstärkung
EP1784978B1 (de) Verfahren und vorrichtung zur darstellung eines digitalen bildes auf einer geometrisch und photometrisch nicht-trivialen oberfläche
DE60117302T2 (de) Verfahren und Vorrichtung zur Indikation des Blickfeldes einer Dokument-Kamera
EP3467432B1 (de) Verfahren zum betreiben einer vorrichtung zum erfassen der dreidimensionalen geometrie von objekten
DE60208572T2 (de) Verfahren und vorrichtung zum anzeigen von informationen mit einem head-up-display mit tag-/ nacht-modus
DE602004008681T2 (de) Mikroskop-System und Verfahren
DE112010003402T5 (de) Ophthalmologisches Aufnahmegerät und Kamera zur Verwendung bei ophthalmologischer Aufnahme
DE10204430A1 (de) Stereo-Mikroskopieverfahren und Stereo-Mikroskopiesystem
DE102008026188A1 (de) Vergrößerungsbeobachtungsapparat und Methode zum Fotografieren eines vergrößerten Bildes
WO2009043494A1 (de) Anordnung und verfahren zur erzeugung von bildern mit erweiterter dynamik
DE102014221542A1 (de) Bildgebende Mikroskopieeinrichtung, bildgebendes Mikroskopieverfahren und bildgebendes Mikroskopieprogramm
DE102016104383A1 (de) Verfahren und optoelektronische Leuchtvorrichtung zum Beleuchten eines Gesichts einer Person sowie Kamera und mobiles Endgerät
EP1929353B1 (de) Verfahren zur erzeugung von darstellungsbildern aus erfassten aufnahmebildern und mittel zur durchführung des verfahrens
DE10064909A1 (de) Einrichtung zur Helligkeitssteuerung von überlagerten Zusatzinformationen in einer optischen Betrachtungseinrichtung
DE3623394A1 (de) Operationsmikroskop mit im abbildungsstrahlengang vorgesehenen strahlenteiler
DE102011053250A1 (de) Verfahren zum Aufnehmen von Bildern eines Beobachtungsobjektes mit einem elektronischen Bildsensor und optisches Beobachtungsgerät
EP3172612B1 (de) Verfahren zur korrektur von auflichtreflexen in einem modularen digitalmikroskop, digitalmikroskop und datenverarbeitungsprogramm
DE602004000471T2 (de) Ophthalmologische Bildverarbeitungsvorrichtung
DE102018123781B4 (de) Verfahren zum Durchführen einer Shading-Korrektur und optisches Beobachtungsgerätesystem
DE19713648A1 (de) Verfahren zur elektronischen Reduktion des Hell/Dunkelkontrastes von Videobildern bereits bei der Aufnahme
DE112020007618T5 (de) Blendungsreduzierung in bildern
DE102006006028A1 (de) Belichtungsoptimierung für Bildschirmlesegeräte
DE19835284A1 (de) Vorrichtung und Verfahren zur automatischen Fokussierung und Belichtung von Bildaufnahmesystemen
DE102004022656A1 (de) Photographiesystem, das die Position einer Fernsteuerung erfaßt und Photographien entsprechend rahmt

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R081 Change of applicant/patentee

Owner name: EMPIRE TECHNOLOGY DEVELOPMENT LLC, WILMINGTON, US

Free format text: FORMER OWNER: HANKUK UNIVERSITY OF FOREIGN STUDIES RESEARCH AND INDUSTRY-UNIVERSITY COOPERATION FOUNDATION, YONGIN, KYONGGI, KR

Effective date: 20120621

Owner name: EMPIRE TECHNOLOGY DEVELOPMENT LLC, US

Free format text: FORMER OWNER: HANKUK UNIVERSITY OF FOREIGN STUDIES RESEARCH AND INDUSTRY-UNIVERSITY COOPERATION FOUNDATION, YONGIN, KR

Effective date: 20120621

R082 Change of representative

Representative=s name: GRUENECKER PATENT- UND RECHTSANWAELTE PARTG MB, DE

Effective date: 20120621

Representative=s name: GRUENECKER, KINKELDEY, STOCKMAIR & SCHWANHAEUS, DE

Effective date: 20120621

R082 Change of representative

Representative=s name: GRUENECKER PATENT- UND RECHTSANWAELTE PARTG MB, DE

Representative=s name: GRUENECKER, KINKELDEY, STOCKMAIR & SCHWANHAEUS, DE

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R020 Patent grant now final

Effective date: 20141230

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee