DE102015223121A1 - Hochauflösungsbilderzeugungsgeräte mit niedrigauflösungssensoren und compressive sensing unter ausnutzung von joint sparsity - Google Patents
Hochauflösungsbilderzeugungsgeräte mit niedrigauflösungssensoren und compressive sensing unter ausnutzung von joint sparsity Download PDFInfo
- Publication number
- DE102015223121A1 DE102015223121A1 DE102015223121.6A DE102015223121A DE102015223121A1 DE 102015223121 A1 DE102015223121 A1 DE 102015223121A1 DE 102015223121 A DE102015223121 A DE 102015223121A DE 102015223121 A1 DE102015223121 A1 DE 102015223121A1
- Authority
- DE
- Germany
- Prior art keywords
- photodetectors
- image
- scene
- photodetector
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
- H04N23/951—Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/58—Means for changing the camera field of view without moving the camera body, e.g. nutating or panning of optics or image sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Theoretical Computer Science (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
Abstract
Description
- Die Interaktion von Bildverarbeitungs- und Computer-Vision-Technologien mit Abbildungungstechnologien hat zu Fortschritten in Bereichen wie Transportüberwachung, Überwachung sowie Bilderzeugung in der Medizin und anderen geführt. Bei einigen Anwendungen werden Bilder mit sehr hoher Auflösung benötigt, um Algorithmen für räumliche Merkmalsextraktion, Verfolgungsanwendungen, bei denen Objektwege mit einer bestimmten Genauigkeit bekannt sein müssen, usw. zu unterstützen.
- Zum Beispiel, in Anwendungen wie dem Erkennen der Kontur eines Krebstumors in einem menschlichen Körper wird Wärmebilderzeugung mit hoher Auflösung benötigt. Siliciumgestützte Imaging-Sensoren auf der Basis von sichtbaren und NIR-(Naheinfrarot)Sensoren wie ladungsgekoppelte Geräte (CCD) und komplementäre Metalloxidhalbleiter (CMOS) können mit üblichen und kostenarmen Siliciumverarbeitungstechniken hergestellt werden. Da Silicium im sichtbaren elektromagnetischen (EM) Bereich fotoempfindlich ist, ist es dann möglich, Rot-Grün-Blau-(RGV) und NIR-Sensoren mit Auflösungen von bis zu 10.000 (H) × 7096 (V) Pixeln auf einem 35 mm (diagonale Länge) Chip zu relativ niedrigen Kosten herzustellen. Für die Thermografie (und andere Anwendungen) ist die benötigte Pixelgröße jedoch von Natur aus hoch und fotoempfindliches Material mit Empfindlichkeit in diesen EM-Bändern sind mit Siliciumherstellungstechnologien nicht kompatibel. Somit lassen sich im thermischen Band empfindliche Imaging-Sensor-Chips mit hoher Auflösung nur schwer und teuer herstellen.
- Es besteht daher Bedarf an Verfahren, Systemen und Vorrichtungen, die Bilderzeugung mit hoher Definition jenseits des sichtbaren EM-Bereichs mittels Niedrigauflösungssensorchips und Compressive-Sensing-Konzepten unter Ausnutzung von Joint-Sparsity-Annahmen ermöglichen.
- Die folgende Zusammenfassung soll ein Verständnis von einigen der innovativen Merkmale erleichtern, die für die offenbarten Ausgestaltungen spezifisch sind und keine vollständige Beschreibung darstellen sollen. Ein vollständiges Bild der verschiedenen Aspekte der Ausgestaltungen kann anhand der gesamten Spezifikation, der Ansprüche, der Zeichnungen und der Zusammenfassung insgesamt gewonnen werden.
- Es ist daher ein Aspekt der offenbarten Ausgestaltung, ein Verfahren und ein System zur Bilderzeugung bereitzustellen.
- Es ist ein anderer Aspekt der offenbarten Ausgestaltungen, ein Verfahren und ein System zur Hochauflösungsbilderzeugung unter Verwendung von Niedrigauflösungssensoren bereitzustellen.
- Es ist noch ein anderer Aspekt der offenbarten Ausgestaltungen, ein verbessertes Verfahren und System zur Hochauflösungsbilderzeugung unter Verwendung von Niedrigauflösungssensoren mit Compressive-Sensing-Techniken und unter Ausnutzung von Joint Sparsity bereitzustellen.
- Die oben erwähnten Aspekte sowie andere Aufgaben und Vorteile können nun wie hierin beschrieben erzielt werden. Ein Verfahren und ein System zum Rekonstruieren eines Bildes einer Szene beinhaltet das Konfigurieren eines digitalen Lichtmodulators gemäß einem räumlich variierenden Muster, das Sammeln und optische Fokussieren von mit der Szene assozierter Lichtenergie, die auf das räumlich variierende Muster auf jedem von wenigstens zwei Fotodetektoren einfällt; das Sammeln von Daten, die die Intensität der fokussierten Lichtenergie von jedem der wenigstens zwei Fotodetektoren anzeigen; und das Kombinieren der Daten von den wenigstens zwei Fotodetektoren, um ein Bild der Szene zu rekonstruieren.
- Die Begleitzeichnungen, in denen sich gleiche Bezugsziffern auf identische oder funktionell ähnliche Elemente in allen separaten Ansichten beziehen und die in die Spezifikation integriert sind oder Bestandteil davon bilden, illustrieren die Ausgestaltungen weiter und dienen, zusammen mit der ausführlichen Beschreibung, zum Erläutern der hierin offenbarten Ausgestaltungen.
-
1A zeigt ein Blockdiagramm eines Computersystems, das gemäß den offenbarten Ausgestaltungen implementiert ist; -
1B zeigt ein Blockdiagramm einer Bildaufnahmevorrichtung mit einem assoziierten Computersystem, die gemäß den offenbarten Ausgestaltungen implementiert ist; -
2 zeigt eine grafische Darstellung eines Netzwerks von Datenverarbeitungsgeräten, in denen Aspekte der vorliegenden Erfindung implementiert werden können; -
3 illustriert ein Computersoftwaresystem zum Leiten des Betriebs des in1 dargestellten Datenverarbeitungssystems gemäß einer beispielhaften Ausgestaltung; -
4A zeigt ein System zur Hochauflösungsbilderzeugung unter Verwendung von Niedrigauflösungssensoren gemäß den offenbarten Ausgestaltungen; -
4B zeigt eine alternative Ausgestaltung eines Systems zur Hochauflösungsbilderzeugung unter Verwendung von Niedrigauflösungssensoren gemäß den offenbarten Ausgestaltungen; -
5A zeigt ein Mapping zwischen einem Bildsensor und einem digitalen Lichtmodulator, assoziiert mit einem System und einem Verfahren zur Hochauflösungsbilderzeugung unter Verwendung von Niedrigauflösungssensoren gemäß den offenbarten Ausgestaltungen; -
5B zeigt einen Bildsensor, assoziiert mit einem System und einem Verfahren zur Hochauflösungsbilderzeugung unter Verwendung von Niedrigauflösungssensoren gemäß den offenbarten Ausgestaltungen; -
6 zeigt ein Fließschema von Logikoperationsschritten, assoziiert mit einem Verfahren zur Hochauflösungsbilderzeugung unter Verwendung von Niedrigauflösungssensoren gemäß den offenbarten Ausgestaltungen; -
7 zeigt ein Fließschema von Logikoperationsschritten, assoziiert mit einem alternativen Verfahren zur Hochauflösungsbilderzeugung unter Verwendung von Niedrigauflösungssensoren gemäß den offenbarten Ausgestaltungen; -
8 zeigt ein Fließschema von Logikoperationsschritten, assoziiert mit einem anderen alternativen Verfahren zur Hochauflösungsbilderzeugung unter Verwendung von Niedrigauflösungssensoren gemäß den offenbarten Ausgestaltungen; -
9A zeigt ein Blockdiagramm von Modulen, assoziiert mit einem System und einer Vorrichtung zum Implementieren eines Verfahrens zur Hochauflösungsbilderzeugung unter Verwendung von Niedrigauflösungssensoren gemäß den offenbarten Ausgestaltungen; und -
9B zeigt ein Blockdiagramm von Modulen, assoziiert mit einer alternativen Ausgestaltung eines Systems und einer Vorrichtung zum Implementieren eines Verfahrens zur Hochauflösungsbilderzeugung unter Verwendung von Niedrigauflösungssensoren gemäß den offenbarten Ausgestaltungen. - Die in diesen nicht begrenzenden Beispielen erörterten besonderen Werte und Konfigurationen können variiert werden und sollen lediglich wenigstens eine Ausgestaltung illustrieren und deren Umfang nicht begrenzen.
- Die
1 –3 werden als beispielhafte Diagramme von Datenverarbeitungsumgebungen gegeben, in denen Ausgestaltungen der vorliegenden Erfindung implementiert werden können. Es ist zu verstehen, dass die1 –3 lediglich beispielhaft sind und dass sie keine Begrenzung mit Bezug auf die Umgebungen auferlegen oder implizieren sollen, in denen Aspekte oder Ausgestaltungen der offenbarten Ausgestaltungen implementiert werden können. Es können zahlreiche Modifikationen an den veranschaulichten Umgebungen vorgenommen werden, ohne von Wesen und Umfang der offenbarten Ausgestaltungen abzuweichen. -
1 zeigt ein Blockdiagramm eines Computersystems100 , das Programmierung zum Implementieren von Teilen der hierin offenbarten Verfahren und Systeme ausführt. Ein Computergerät in Form eines Computers110 , konfiguriert für eine Verbindung mit Sensoren und anderen hierin offenbarten Elementen, kann eine Verarbeitungseinheit102 , Memory104 , entfernbaren Speicher112 und nicht entfernbaren Speicher114 umfassen. Memory104 kann flüchtigen Memory106 und nichtflüchtigen Memory108 beinhalten. Der Computer110 kann eine Rechenumgebung beinhalten oder Zugang zu einer solchen haben, die eine Reihe verschiedener transistorischer und nicht transitorischer computerlesbarer Medien wie flüchtigen Memory106 und nichtflüchtigen Memory108 , entfernbaren Speicher112 und nicht entfernbaren Speicher114 beinhaltet. Computerspeicher beinhaltet beispielsweise Arbeitsspeicher (RAM), Festwertspeicher (ROM), löschbaren programmierbaren Festwertspeicher (EPROM) und elektrisch löschbaren, programmierbaren Festwertspeicher (EEPROM), Flash-Memory oder andere Memory-Technologien, Compact-Disc-Festwertspeicher (CD ROM), Digital Versatile Disks (DVD) oder andere optische Plattenspeicher, Magnetkassetten, Magnetband, Magnetplattenspeicher oder andere Magnetspeichergeräte oder jedes andere Medium, das computerlesbare Befehle sowie Daten einschließlich Bilddaten speichern kann. - Der Computer
110 kann eine Rechenumgebung beinhalten oder Zugang zu einer solchen haben, die den Eingang116 , den Ausgang118 und eine Kommunikationsverbindung120 beinhaltet. Der Computer kann in einer vernetzten Umgebung mit einer Kommunikationsverbindung an ein oder mehrere Ferncomputer oder -geräte arbeiten. Der Ferncomputer kann einen PC (Personal Computer), Server, Router, Netzwerk-PC, ein Peer-Gerät oder einen anderen gemeinsamen Netzwerkknoten oder dergleichen beinhalten. Das Ferngerät kann eine Kamera, eine Videokamera, ein Ortungsgerät, ein Bildsensor oder dergleichen sein. Die Kommunikationsverbindung kann ein lokales Datennetz (LAN), ein Weitverkehrsnetz (WAN) oder ein anderes Netzwerk sein. Diese Funktionalität wird ausführlicher in Verbindung mit2 unten beschrieben. - Der Ausgang
118 wird üblicherweise als Computermonitor bereitgestellt, kann aber auch jedes andere Computerausgabegerät beinhalten. Der Ausgang118 kann auch eine mit dem Computersystem110 assoziierte Datensammelvorrichtung beinhalten. Zusätzlich erlaubt es der Eingang116 , der gewöhnlich eine Computertastatur und/oder ein Zeigegerät wie eine Computermaus, ein Computer-Trackpad oder dergleichen beinhaltet, einem Benutzer, das Computersystem100 auszuwählen und zu bedienen. Es kann eine Benutzerschnittstelle über den Ausgang118 und den Eingang116 bereitgestellt werden. Der Ausgang118 kann als Display zum Anzeigen von Daten und Informationen für einen Benutzer und zum interaktiven Anzeigen einer grafischen Benutzeroberfläche (GUI)130 fungieren. - Man beachte, dass sich der Begriff „GUI” allgemein auf einen Umgebungstyp bezieht, der Programme, Dateien, Optionen und so weiter mittels grafisch angezeigter Icons, Menüs und Dialogboxen auf einem Computer-Monitorbildschirm darstellt. Ein Benutzer kann mit der GUI interagieren und solche Optionen durch direktes Berühren des Bildschirms und/oder durch Zeigen und Anklicken mit einem Benutzereingabegerät
116 wie zum Beispiel einem Zeigegerät wie einer Maus und/oder mit einer Tastatur auswählen und aktivieren. Ein bestimmter Gegenstand kann auf dieselbe Weise in allen Anwendungen für den Benutzer funktionieren, weil die GUI standardmäßige Softwareroutinen bereitstellt (z. B. Modul125 ), um diese Elemente zu handhaben und die Aktionen des Benutzers zu melden. Die GUI kann ferner zum Anzeigen der elektronischen Service-Image-Frames wie nachfolgend erörtert benutzt werden. - Computerlesbare Befehle, zum Beispiel das Programmmodul
125 , das für andere hierin beschriebene Module repräsentativ sein kann, werden auf einem computerlesbaren Medium gespeichert und können von der Verarbeitungseinheit102 des Computers110 ausgeführt werden. Das Programmmodul125 kann eine Computer-Anwendung beinhalten. Eine Festplatte, CD-ROM, RAM, Flash-Memory und ein USB-Drive sind nur einige Beispiele für Artikel, die ein computerlesbares Medium beinhalten. -
1B illustriert eine alternative Ausgestaltung, in der das Computersystem110 in ein Bildaufnahmegerät204 integriert ist. In dieser Ausgestaltung ist das Bildaufnahmegerät204 mit einem Prozessor102 , einem flüchtigen Memory106 und einem nichtflüchtigen Memory108 , einem entfernbaren Speicher112 , einem nicht entfernbaren Speicher114 und einer Kommunikationsverbindung120 ausgestattet. Das Bildaufnahmegerät204 kann auch einen assoziierten Eingang116 und Ausgang118 haben. - In der in
1B illustrierten Ausgestaltung kann ein Programm125 mit der mit dem Bordcomputersystem110 assoziierten internen Hardware implementiert werden. Dies lässt es zu, dass die nachfolgend beschriebene Verarbeitung ohne externes Computersystem oder in Assoziation mit einem externen Computersystem implementiert wird. In alternativen Ausgestaltungen kann die mit dem Bordcomputersystem assoziierte Hardware physisch von dem Bildaufnahmegerät getrennt sein und beide Geräte können über ein Kommunikationsnetz verknüpft sein. -
2 zeigt eine grafische Darstellung eines Netzwerks von Datenverarbeitungssystemen200 , in denen Aspekte der vorliegenden Erfindung implementiert sein können. Das Netzdatenverarbeitungssystem200 ist ein Netzwerk von Computern, in dem Ausgestaltungen der vorliegenden Erfindung implementiert sein können. Man beachte, dass das System200 im Zusammenhang mit einem Software-Modul wie dem Programmmodul125 implementiert sein kann. Das System200 beinhaltet ein Netzwerk202 in Kommunikation mit einem oder mehreren Clients210 ,212 und214 . Das Netzwerk202 ist ein Medium, das zum Bereitstellen von Kommunikationsverbindungen zwischen verschiedenen Geräten und Computern benutzt werden kann, die innerhalb eines verletzten Datenverarbeitungssystems wie dem Computersystem100 miteinander verbunden sind. Das Netzwerk202 kann Verbindungen wie verdrahtete Kommunikationsverbindungen, drahtlose Kommunikationsverbindungen oder Lichtwellenleiter beinhalten. Das Netzwerk202 kann ferner mit einem oder mehreren Servern206 , einem oder mehreren externen Geräten wie dem Sensor204 und einer Memory-Speichereinheit wie beispielsweise dem/der Memory oder Datenbank208 kommunizieren. - In dem beschriebenen Beispiel sind der Sensor
204 und der Server206 mit dem Netzwerk202 zusammen mit der Speichereinheit208 verbunden. Zusätzlich sind die Clients210 ,212 und214 mit dem Netzwerk202 verbunden. Diese Clients210 ,212 und214 können beispielsweise PCs oder Netzwerkcomputer sein. Das in1 gezeigte Computersystem100 kann beispielsweise ein Client wie der Client210 ,212 und/oder214 sein. Alternativ können Clients210 ,212 und214 auch beispielsweise eine fotografische Kamera, eine Videokamera, ein Ortungsgerät, ein medizinisches Bilderzeugungsgerät usw. sein. - Das Computersystem
100 kann auch als Server wie der Server206 implementiert werden, je nach Designüberlegungen. In dem dargestellten Beispiel stellt der Server206 Daten wie Boot-Dateien, Betriebssystembilder, Anwendungen und Anwendungs-Updates für Clients210 ,212 und214 und/oder für die Videokamera204 bereit. Die Clients210 ,212 und214 sowie der Sensor204 sind in diesem Beispiel Clients gegenüber dem Server206 . Das Netzdatenverarbeitungssystem200 kann zusätzliche Server, Clients und andere Geräte (nicht gezeigt) beinhalten. Speziell, Clients können mit jedem beliebigen Mitglied eines Netzwerks von Servern verbunden werden, die äquivalenten Inhalt bereitstellen. - In dem gezeigten Beispiel ist das Netzdatenverarbeitungssystem
200 das Internet, wobei das Netzwerk202 eine weltweite Sammlung von Netzwerken und Gateways repräsentiert, die die TCP/IP-(Transmission Control Protocol/Internet Protocol)-Protokoll-Suite benutzen, um miteinander zu kommunizieren. Kernstück des Internets ist ein Gerüst von Hochgeschwindigkeits-Datenkommunikationsleitungen zwischen Hauptknoten oder Host-Computern bestehend aus Tausenden von Gewerbe-, Regierungs-, Ausbildungs- und anderen Computersystemen, die Daten und Nachrichten leiten. Das Netzdatenverarbeitungssystem200 kann natürlich auch als eine Reihe verschiedener Netzwerktypen implementiert werden, wie zum Beispiel ein Intranet, ein lokales Datennetz (LAN) oder ein Weitverkehrsnetz (WAN). Die1 und2 sind als Beispiele und nicht als architektonische Begrenzungen für verschiedene Ausgestaltungen der vorliegenden Erfindung gedacht. -
3 illustriert ein Computer-Softwaresystem300 , das zum Anweisen des Betriebs der Datenverarbeitungssysteme wie das in1 gezeigte Computersystem100 eingesetzt werden können. Eine Software-Anwendung305 kann in Memory104 , auf einem entfernbaren Speicher112 oder auf einem nicht entfernbaren Speicher114 wie in1 gezeigt gespeichert werden und beinhaltet im Allgemeinen ein und/oder ist assoziiert mit einem Kernel oder Betriebssystem310 und einer Shell oder Interface315 . Ein oder mehrere Anwendungsprogramme, wie zum Beispiel Modul(e)125 , kann/können zur Ausführung durch das Datenverarbeitungssystem100 „geladen” (d. h. vom entfernbaren Speicher114 in das Memory104 übertragen) werden. Das Datenverarbeitungssystem100 kann Benutzerbefehle und Daten durch die Benutzeroberfläche315 empfangen, die einen für einen Benutzer320 zugängigen Eingang116 und Ausgang118 haben kann. Auf diese Eingänge kann dann das Computersystem100 gemäß Befehlen vom Betriebssystem310 und/oder der Software-Anwendung305 oder (einem) beliebigen Software-Modul(en)125 davon einwirken. - Im Allgemeinen können Programmmodule (z. B. das Modul
125 ), jedoch ohne darauf begrenzt zu sein, Routinen, Subroutinen, Software-Anwendungen, Programme, Objekte, Komponenten, Datenstrukturen usw. beinhalten, die bestimmte Aufgaben erfüllen oder bestimmte abstrakte Datentypen und Befehle implementieren. Ferner wird die Fachperson erkennen, dass das offenbarte Verfahren und System mit anderen Computer-Systemkonfigurationen wie Handgeräten, Multi-Prozessorsystemen, Datennetzen, Mikroprozessor-basierter oder programmierbarer Verbraucherelektronik, vernetzten PCs, Minicomputern, Mainframe-Computern, Servern und dergleichen umgesetzt werden können. - Man beachte, dass sich der hierin verwendete Begriff Modul auf eine Sammlung von Routinen und Datenstrukturen beziehen kann, die eine bestimmte Aufgabe erfüllen oder einen bestimmten abstrakten Datentyp implementieren. Module können sich aus zwei Teilen zusammensetzen: einer Schnittstelle, die die Konstanten, Datentypen, Variablen und Routinen aufführt, auf die von anderen Modulen oder Routinen zugegriffen werden kann; und einer Implementation, die typischerweise privat (das heißt nur für dieses Modul zugängig) ist und die Source-Code beinhaltet, der tatsächlich die Routinen in dem Modul implementiert. Der Begriff Modul kann sich auch einfach auf eine Anwendung wie zum Beispiel ein Computer-Programm beziehen, das zum Assistieren beim Durchführen einer bestimmten Aufgabe wie zum Beispiel Textverarbeitung, Rechnungswesen, Inventarmanagement usw. ausgelegt ist.
- Die Schnittstelle
315 (z. B. eine grafische Benutzeroberfläche130 ) kann zum Anzeigen von Ergebnissen dienen, so dass ein Benutzer320 zusätzliche Eingaben machen oder eine bestimmte Sitzung beenden kann. In einigen Ausgestaltungen kann das Betriebssystem310 und die GUI130 in Zusammenhang mit einem „Windows”-System implementiert werden. Man wird jedoch erkennen, dass auch andere Systemtypen möglich sind. Zum Beispiel, anstatt eines traditionellen „Windows”-Systems können auch andere Betriebssysteme wie beispielsweise ein Echtzeitbetriebssystem (RTOS), das eher in drahtlosen Systemen eingesetzt wird, ebenfalls mit Bezug auf das Betriebssystem310 und die Schnittstelle315 zum Einsatz kommen. Die Software-Anwendung305 kann beispielsweise (ein) Modul(e)125 beinhalten, das/die Befehle zum Ausführen von Schritten oder Logikoperationen wie den hierin gezeigten und beschriebenen beinhalten. - Die folgende Beschreibung wird mit Bezug auf Ausgestaltungen der vorliegenden Erfindung präsentiert, die im Zusammenhang mit einem solchen Computersystem
100 , in Verbindung mit dem Programmmodul125 , dem Datenverarbeitungssystem200 und dem Netzwerk202 wie in den1 –3 veranschaulicht ausgestaltet sein kann oder den Einsatz eines solchen Systems erfordern. Die vorliegende Erfindung ist jedoch nicht auf irgendeine besondere Anwendung oder irgendeine besondere Umgebung begrenzt. Stattdessen wird die Fachperson finden, dass das System und Verfahren der vorliegenden Erfindung vorteilhafterweise auf eine Reihe verschiedener System- und Anwendungssoftware einschließlich Datenbankmanagementsysteme, Textverarbeiter und dergleichen angewandt werden kann. Darüber hinaus kann die vorliegende Erfindung auf einer Reihe verschiedener Plattformen wie Windows, Macintosh, UNIX, LINUX, Android und dergleichen ausgestaltet werden. Daher sind die nachfolgenden Beschreibungen der beispielhaften Ausgestaltungen lediglich für illustrative Zwecke und sind nicht als Begrenzung anzusehen. - Die hierin offenbarten Ausgestaltungen nutzen Compressive-Sensing-Technologien zum Rekonstruieren von Bildern mit einem Imaging-Sensor oder einem Fotodetektor-Array, gekoppelt mit einem räumlichen oder mehrdimensionalen digitalen Lichtmodulator (DLM). Der Imaging-Sensor kann eine Reihe von fotosensitiven Pixeln umfassen.
- In einer Ausgestaltung der Erfindung wird Licht von einem/r Objekt/Szene zunächst über eine Linse oder ein anderes optisches System auf die Oberfläche eines DLM fokussiert. Der DLM ist gemäß einer Serie von Abtastmustern (gewöhnlich zufällig oder pseudozufällig), ein Muster pro Aufnahmezyklus, konfiguriert. In einer Ausgestaltung, wenn ein reflektiver DLM wie zum Beispiel ein Mikrospiegelaktor (DMD) oder ein reflektives LCOS-(Flüssigkristall auf Silicium)-Gerät benutzt wird, kann man sich den DLM als aus einem Array von Teilsektionen bestehend aus einem Satz von Mikrospiegeln zusammengesetzt vorstellen. In anderen Ausgestaltungen können transmissive DLMs wie zum Beispiel solche auf der Basis von transmissivem Flüssigkristall (LC) benutzt werden; in diesem Fall kann man sich den DLM als aus einem Array von Teilsektionen bestehend aus einem Satz von transmissiven Lichtmodulatoren zusammengesetzt vorstellen. Jede der Teilsektionen kann auf ein Element in einem assoziierten Fotodetektor gemappt werden.
- In einem einzigen Aufnahmezyklus wird auf den DLM einfallendes Licht nach dem räumlichen Muster moduliert, gemäß dem der DLM konfiguriert ist (oder spezieller, nach jeder der Teilsektionen des DLM), und das modulierte Licht wird von einem Fotodetektor gesammelt, der mit einem stromabwärts im Lichtweg befindlichen Imaging-Sensor assoziiert ist. Jede Teilsektion des DLM hat ein assoziiertes optisches Element wie zum Beispiel eine Linse, die Licht auf ein individuelles Pixel in dem Fotodetektor oder dem Imaging-Sensor fokussiert. Jeder/s Fotodetektor oder Pixel gibt einen gemessenen Lichtintensitätswert aus, der der Intensität des Lichts entspricht, das gemäß dem in der entsprechenden Teilsektion des DLM erzeugten Zufallsmuster moduliert wird.
- Der DLM kann gemäß einem anderen räumlichen Muster umgeordnet werden, dann kann der Aufnahmezyklus wiederholt werden. Für jeden Aufnahmezyklus werden eine Vielzahl von gemessenen Werten zusammen mit den entsprechenden räumlichen Mustern und optional Joint-Sparsity-Annahmen zusammen mit gemessenen Werten und entsprechenden Mustern über benachbarte Fotodetektoren oder Pixel zum Rekonstruieren der Bilder im Sichtfeld jedes Pixels in dem Imaging-Sensor anhand von Compressive-Sensing-Theorie benutzt. Die Bilder von individuellen Pixeln werden dann zusammengestitcht oder mosaikförmig zusammengefügt, um ein Bild des/der ursprünglichen Objekts/Szene zu bilden.
-
4A illustriert ein Blockdiagramm400 , das mit Systemen und Verfahren zum Rendern von Hochauflösungsbildern mittels Niedrigauflösungssensoren und Compressive-Sensing-Technologie unter Ausnutzung von Joint-Sparsity-Annahmen assoziiert ist. - In
4A hat ein Imaging-System425 einen Lichtweg mit einer ersten Linse405 , gefolgt von einem DLM410 . Der DLM410 kann beispielsweise ein Array von reflektierenden oder transmittierenden Elementen sein, wie zum Beispiel Mikrospiegel im reflektiven Fall, oder alternativ Pixel in einem Flüssigkristall-(LC)-Gerätearray im transmissiven Fall. Der DLM410 kann gemäß einem Array von Teilsektionen der Größe |×k (wie in5A gezeigt) segmentiert werden. Der Linsensatz415 fokussiert Licht von jeder Teilsektion des DLM410 auf einen relativ niedrig auflösenden Imaging-Sensor (oder Fotodetektor-Array)420 , der Pixel (zum Beispiel ein Array von Pixeln der Größe m×n wie in5B gezeigt) beinhaltet. In einer Ausgestaltung ist m ≤ 640 und n ≤ 480, aber es können alternativ auch andere Pixel-Array-Größen benutzt werden. Es ist zu verstehen, dass die vorliegende Erfindung DLMs und Imaging-Sensoren mit Pixel-Arrays verschiedener Größen je nach Designüberlegungen beinhalten kann. - Der DLM
410 moduliert eingehendes Licht402 gemäß der räumlichen Musterkonfiguration und projiziert (z. B. reflektiert oder transmittiert) das modulierte Licht auf den Bildsensor420 über das Linsenarray415 . In einer bevorzugten Ausgestaltung werden eine Reihe von Aufnahmen gemacht. Die Charakteristiken des räumlichen Musters, gemäß dem DLM410 konfiguriert ist, werden für jede Aufnahme variiert. Dies kann durch Modifizieren der Konfiguration der Teilsektionen610 des DLM410 nach jeder Aufnahme erfolgen. Es ist zu verstehen, dass die neue DLM410 Konfiguration sehr schnell erzielt werden kann und dass jede Aufnahme dann in einer Zeitskala von Mikro- bis Millisekunden gemacht werden kann. Das von jeder der Teilsektionen610 des DLM410 modulierte Licht wird auf diskrete Pixel im Bildsensor420 projiziert. Dies wird durch das geeignete Design des optischen Projektionssystems erzielt. Dies kann eine einzelne Linse, ein Array von Linsen415 oder ein Subsystem von optischen Komponenten (nicht gezeigt) sein. - In einer bevorzugten Ausgestaltung werden mehrere Aufnahmen (d. h. Aufnahmen entsprechend unterschiedlichen Konfigurationen, zum Beispiel
510A ,510B ,510H [wobei510A ,510B , ...,510H eine ganze Zahl von Konfigurationen gewöhnlich kleiner |·k bedeuten] der |×k-Element Teilsektionen von DLM410 ) gemacht. Für jede der Aufnahmen entsprechend Konfigurationen510A ,510B , ...,510H werden die Daten von jedem Pixel im Bildsensor420 gespeichert. - Die Vergrößerung dieses optischen Projektionssystems wird durch die aktive Dimension des Bildsensors
420 dividiert durch die aktive Dimension des DLM410 definiert, wobei sich die aktive Dimension auf die Dimension des Bildes auf dem jeweiligen Gerät bezieht. Die von jedem Pixel des Bildsensors420 gesammelten Daten werden dann zum Computer100 zur Verarbeitung gemäß den hierin offenbarten Verfahren übertragen. Es ist zu verstehen, dass eine solche Verarbeitung mit einem externen Computersystem erfolgen kann, oder das Imaging-System425 kann in ein Bildaufnahmegerät wie das Gerät204 mit einem zur Bildverarbeitung benutzten Bordcomputergerät integriert werden. - Die Auflösung des Imaging-Systems
425 kann anhand der Auflösung des DLM410 und der Auflösung des Imaging-Sensors420 je nach Systemkonfiguration ermittelt werden. Demgemäß kann ein DLM410 in Verbindung mit einem relativ niedrig auflösenden Bildsensor420 benutzt werden, um Bilder mit einer hohen Auflösung relativ zur Auflösung des Sensors zu erzeugen. In einer Ausgestaltung werden Teilsektionen610 des DLM410 in Verbindung mit individuellen Pixeln oder Fotodetektoren des Imaging-Sensors420 definiert oder vom Computersystem100 abgeleitet. In dieser Ausgestaltung wird die Auflösung des Imaging-Systems425 durch die Anzahl von Pixeln in jeder DLM-Teilsektion610 und die Anzahl von Pixeln im Bildsensor420 diktiert. Zum Beispiel, wenn jede DLM-Teilsektion610 aus 32×32 Pixeln besteht und alle Teilsektionen einem Pixel im Imaging-Sensor ohne Überlappung zugeordnet werden, dann ist die Pixelzahl im fertigen rekonstruierten Bild gleich der Pixelzahl des Imaging-Sensors multipliziert mit einem Faktor von 32×32 (oder 1024). Wenn nicht alle Teilsektionen einem Pixel im Imaging-Sensor zugeordnet werden, aber es immer noch keine Überlappung zwischen den Teilsektionen gibt, dann ist die Pixelzahl im fertigen rekonstruierten Bild gleich der Zahl von Pixeln im Imaging-Sensor, denen eine DLM-Teilsektion zugeordnet ist, multipliziert mit der Größe der entsprechenden Teilsektion. Wenn Überlappung zwischen den einem Pixel im Imaging-Sensor zugeordneten DLM-Teilsektionen besteht, dann ist die Pixelzahl im fertigen rekonstruierten Bild gleich der Anzahl von Pixeln mit zugeordneter DLM-Teilsektion im Imaging-Sensor, multipliziert mit der Größe der entsprechenden Teilsektion; in diesem Fall kann die endgültige Pixelzahl größer sein als die Elementezahl im DLM. In einigen Ausgestaltungen sind die Größen der unterschiedlichen, den Pixeln im Imaging-Sensor zugeordneten DLM-Teilsektionen evtl. nicht gleich. Zum Beispiel, in einer Ausgestaltung können größere Teilsektionen Pixeln in der Mitte des Imaging-Sensors zugeordnet werden und die Größe der Teilsektionen kann mit zunehmendem Abstand von der Mitte des Imaging-Sensors abnehmen. -
4B illustriert ferner den Bildmessvorgang mit dem Imaging-System425 gemäß Ausgestaltungen der vorliegenden Erfindung. Von einem Objekt505 reflektiertes Licht402 fällt zunächst auf die Linse405 . Die Linse405 sammelt und fokussiert dieses Licht auf den DLM410 . Ein Mapping von DLM410 auf den Bildsensor420 wird in5A gezeigt. Der Einfachheit halber überlappen die DLM-Teilsektionen im illustrierten Mapping nicht, obwohl die Teilsektionen je nach Ausgestaltung überlappen können. Jede der |×k-Element-DLM-Teilsektionen610 ist gemäß einem Abtastmuster konfiguriert. Zum Beispiel, in einer ersten Teilsektion des DLM610 (d. h. in Teilsektion (1, 1) hat der DLM410 Abtastmuster510A ). Das Bild von Objekt505 entsprechend dem auf die |×k Pixel-Teilsektion610 einfallenden Licht wird somit um das Abtastmuster510A moduliert. Dieses modulierte Licht wird dann von einer aus dem Array von Linsen415 auf ein(en) spezifisches/n Pixel oder Fotodetektor (wie zum Beispiel Pixel (1, 1)) in Verbindung mit dem Bildsensor420 projiziert.5B zeigt eine auseinander gezogene Ansicht des Bildsensors420 . Die Lichtintensität V1403 entspricht der Lichtintensität am Imaging-Pixel (1, 1), die vom Modulieren von in die Teilsektion (1, 1) eingehendem Licht um das Abtastmuster510A resultiert. Diese Intensität wird vom Computersystem100 aufgezeichnet, bei dem es sich um ein unabhängiges Computersystem eines in eine Kamera integrierten Verarbeitungssystems handeln kann. Derselbe Vorgang wird gleichzeitig für jede Teilsektion610 des DLM410 durchgeführt, so dass jedes Pixel im Bildsensor420 einen Intensitätswert aufzeichnet. - Am Abtastzeitpunkt 2, das heißt für den zweiten Aufnahmezyklus, wird der DLM
410 gemäß einem zweiten Abtastmuster umgeordnet. Zum Beispiel, in der Teilsektion610 des DLM410 wird ein zweites Abtastmuster510B während des zweiten Aufnahmezyklus benutzt. Das Bild von Objekt505 entsprechend dem auf die Teilsektion610 einfallenden Licht, moduliert um das Abtastmuster510B , wird auf ein(en) Pixel oder Fotodetektor des Bildsensors420 von einer der Linsen im Linsenarray415 projiziert. Die Lichtintensität V2 (nicht gezeigt) an dem mit dem zweiten Aufnahmezyklus assoziierten Pixel (1, 1) wird vom Bildsensor420 gemessen und vom Computersystem100 aufgezeichnet. Gleichzeitig wird Licht von jeder der Teilsektionen des DLM410 moduliert und diskret auf jedes Element im Bildsensor420 für den zweiten Aufnahmezyklus projiziert. - Dieser Vorgang kann so oft wie gewünscht (zum Beispiel „M” mal) wiederholt werden. Nach M Messungen, jeweils eine entsprechend jedem Aufnahmezyklus, wurden M Zufallsmustern (
510A ,510B , ...,510H ) benutzt und M Lichtintensitäten wurden beispielsweise an dem mit der DLM-Teilsektion610 assoziierten Pixel (1, 1) aufgezeichnet. Dieser Vorgang wird wiederholt, so dass M Lichtintensitäten für jedes Fotodetektorelement oder Pixel im Bildsensor420 gemessen werden, wobei 1 ≤ i ≤ m, 1 ≤ j ≤ n ist. - Wenn alle Messungen vom Bildsensor
420 durchgeführt wurden, dann kann ein Bildrekonstruktionsvorgang eingeleitet werden. Im Allgemeinen wird der Bildrekonstruktionsvorgang von einem Computer wie einem Computersystem100 vollendet. - Die Bildrekonstruktion kann auf eine Reihe von Weisen erfolgen. In einer Ausgestaltung würde der Objektteilbildbereich, der jeder |×k Pixelgruppe im DLM
410 entspricht (in5A gezeigt), unabhängig mit traditionellen Compressive-Sensing-Algorithmen rekonstruiert. Bei Compressive Sensing wird die Kenntnis der M Abtastmuster und der entsprechenden aufgezeichneten M Lichtintensitäten zusammen mit Annahmen über die Sparsity (Komprimierbarkeit) des Bildes der Szene in einer Domäne (z. B. räumlicher Domäne, diskreter Kosinus-Transformation-Domäne, Wavelet-Transformation-Domäne usw.) zum Rekonstruieren des genannten Bildes benutzt. In einer alternativen Ausgestaltung kann die Nutzung der Korrelation, die unter benachbarten Pixeln in natürlichen Bildern auftritt, zu einem effizienteren Rekonstruktionsvorgang führen. - In der ersten Ausgestaltung kann ein Compressive-Sensing-Rahmen eingesetzt werden, um das Bild oder die Szene zu rekonstruieren. Compressive Sensing beruht auf der Benutzung eines Satzes von M Abtastfunktionen, die M räumlichen Mustern entsprechen, gemäß denen der Lichtmodulator über M aufeinander folgende Aufnahmezyklen konfiguriert ist.
φ = {φ1, ..., φM} (1) - Jede Abtastfunktion hat eine Dimensionalität äquivalent zur Pixelzahl des DLM
410 . Zum Beispiel, wenn der DLM410 eine Größe von L×K Pixeln hat, dann hat jede Funktion φi L×K Elemente und kann demgemäß in r |×k-Element Teilsektionen partitioniert werden, nämlich φi1, φi2, ..., φir, wobei r eine positive ganze Zahl ist, die die Anzahl von Teilsektionen im DLM bezeichnet. Man beachte, dass, wenn jeder Fotodetektor im m×n Sensorarray einer DLM-Teilsektion zugeordnet ist, dann ist r = m·n. - Eingehendes Licht
402 wird vom DLM410 gemäß den mehreren räumlichen Mustern entsprechend den Abtastfunktionen moduliert. Das von der Teilsektion s des DLM410 reflektierte/transmittierte Licht wird dann auf sein entsprechendes Pixel s (wobei 1 ≤ s ≤ r) von einer der mehreren Linsen415 des Bildsensors420 fokussiert. Pixel s im Bildsensor420 tastet sequentielle Messungen des von ihm aufgenommenen Lichts ab und misst effektiv die Größe des inneren Produkts:yis = <Xs, φis>, (2) - Dann kann ein Bild der von dem Pixel aufgenommenen Szene rekonstruiert werden, vorzugsweise nach M Messungen, wobei M << L×K ist. Dies ergibt das hier beschriebene Compressive Sensing.
- Anhand der Matrixnotation können die Messwerte zu einem einzelnen Ausdruck gestapelt werden:
Ys = φsvec(Xs) (3) X ^S = argmin{∥Xs∥1} (4) X ^s - In dieser Ausgestaltung könnte, wenn keine Überlappung zwischen Teilsektionen des DLM vorliegt, die oben beschriebene Compressive-Sensing-Manipulation vom Computersystem
100 unabhängig für jedes DLM-Gruppe/Sensorpixel-Paar angewandt werden, um unabhängig m×n Teilbilder zu rekonstruieren, jedes mit einer Auflösung von |×k Pixeln. Die m×n Teilbilder werden dann zusammengestitcht oder mosaikartig zusammengefügt, um ein Hochauflösungsbild der Szene zu erhalten, wobei die relative Platzierung der Teilbilder in dem Stitchvorgang anhand der relativen Platzierung der entsprechenden Imaging-Pixel bestimmt wird. - In einer anderen Ausgestaltung kann, anstatt jedes DLM-Gruppe/Sensorpixel-Paar unabhängig bei der Rekonstruktion zu behandeln, die Korrelation, die an proximalen Stellen von natürlichen Bildern existiert, über einen Compressive-Sensing-Rahmen genutzt werden, der Joint Sparsity nutzt. Joint Sparsity bezieht sich auf die Tatsache, dass zwei Signale, wenn sie stark korreliert sind, wahrscheinlich beide in einer gemeinsamen Domäne wie Φ sparse sein werden. Zwei Signale sind korreliert, wenn sie nicht unabhängig sind. Der Korrelationsgrad zwischen zwei Signalen oder Sätzen von Datenpunkten kann mit einem Korrelationskoeffizienten gemessen werden. Man lasse X1 und X2 die vektorisierte Version der zwei N-Pixel-Bilder bedeuten, das heißt Xi = {Xi1, Xi2, ..., XiN} für i = 1, 2. Der Korrelationskoeffizienz zwischen X1 und X2 kann wie folgt geschrieben werden:
- In einer Ausgestaltung werden zwei Signale dann als hoch korreliert angesehen, wenn ihr Korrelationskoeffizient eine vorbestimmte Schwelle T übersteigt. In einer Ausgestaltung ist dies T = 0,6. Wenn zwei Signale hoch korreliert sind, dann können für die Rekonstruktion von einem Signal benutzte Messwerte Informationen über ein anderes Signal führen, das mit dem ersten „jointly sparse” (gemeinsam komprimierbar) ist. Jointly-Sparse-Modelle beinhalten das Sparse-Common-Component-Modell, das jedes Signal als die Kombination eines gemeinsamen Mittels und einer individuellen Variation darstellt; und das Common-Supports-Modell, in dem alle Signale vom selben sparsen Satz von Basisvektoren rekonstruiert werden, aber mit unterschiedlichen Koeffizienten. Es ist zu verstehen, dass auch andere Joint-Sparsity-Modelle in anderen Ausgestaltungen der Erfindung zum Einsatz kommen können. Wenn die Joint-Sparsity-Annahme gilt, dann ist eine effizientere Rekonstruktion des Bildes möglich.
- In einer Ausgestaltung nutzen, wenn das Common-Component-Modell angenommen wird, räumlich benachbarte |×k Pixel-Teilbilder Xs eine Common-Sparse-Komponente für unterschiedliche Werte von s gemeinsam, wobei jedes individuelle Teilbild eine Sparse-Innovation-Komponente enthält. Mit anderen Worten, Xs = Z + Zs. Diese Beziehung kann als über lokal benachbarte Teilbilder oder für alle Teilbilder Xs als gegeben angenommen werden, wobei 1 ≤ s ≤ r ist. In diesem Fall ist Z, die gemeinsame Komponente über Teilbilder, in einer Domäne Φ sparse. Die Rückgewinnung von zwei Teilbildern Xs und Xt kann gemeinsam durch Lösen des Optimierungsproblems erfolgen:
X ^u = argmin{∥Xu∥1} - In einer anderen Ausgestaltung sind, wenn das Common-Sparse-Supports-Modell angenommen wird, räumlich benachbarte |×k Pixel-Teilbilder Xs in einer gemeinsamen Domäne Φ sparse. Das heißt, wenn Xs = Φxs und Xt = Φxt für zwei benachbarte Teilbilder mit räumlichen Indexen s und t sind, dann haben beide Koeffizienten, die zum Repräsentieren von Xs und Xt in der Domäne Φ benötigt werden, nämlich xs und xt, höchstens k Einträge von ungleich null. Unter diesen Annahmen können Teilbilder durch Lösen des Optimierungsproblems zurückgewonnen werden:
X ^s = argmin{∥Xs∥2,0} - In einer Ausgestaltung kann ein Joint-Sparsity-Rahmen bei der Rekonstruktion von Bildern benutzt werden, die mit benachbarten oder nahegelegenen DLM-Gruppe/Sensor-Pixel-Paaren assoziiert sind. Erstens, es können nicht überlappende Supergruppen von p×q DLM-Gruppen gebildet werden. Die Rekonstruktion der p×q Teilbilder erfolgt gemeinsam. In dieser Ausgestaltung würden die Sätze von p×q Teilbildern mosaikartig zusammengesetzt oder gestitcht, um eine hochauflösendes Bild der Szene zu erhalten.
- In einer anderen Ausgestaltung können die Supergruppen überlappen. Wenn eine gegebene Pixelgruppe zu P überlappenden Supergruppen gehört, dann können die endgültigen Bildpixelwerte durch Aggregieren (durch Mitteln oder mit einem anderen analytischen Kombinationsverfahren) über Pixelschätzungen erhalten werden, die von den P jointly sparsen Rekonstruktionen erhalten werden. Ein solcher Ansatz nutzt Korrelation in lokalen Nachbarschaften und ergibt somit eine größere Kompression auf Kosten von zusätzlichem Rechenaufwand.
-
6 illustriert Logikoperationsschritte in Verbindung mit einem ersten Ansatz zum Aufnehmen eines Bildes700 gemäß den hierin offenbarten Ausgestaltungen. Das Verfahren beginnt mit Schritt705 . - In Schritt
710 kann eine Mehrzahl von räumlich variierenden Mustern erzeugt werden, die mit einem digitalen Lichtmodulator assoziiert sind. Als Nächstes kann in Schritt715 von einem Objekt reflektiertes Licht durch eine Linse (oder ein System von Linsen) passieren, um Licht auf den DLM optisch zu fokussieren. Das Licht von jeder diskreten DLM-Elementegruppe wandert dann zu einer diskreten Linse (oder einem anderen optischen System), die das Licht auf ein getrenntes Fotodetektorelement fokussiert, das mit einem Fotodetektor-Array assoziiert ist, das wenigstens eine, und möglicherweise viele, Pixel wie in Schritt720 gezeigt beinhaltet. Jedes diskrete Fotodetektorelement misst die Lichtintensität des einfallenden Lichts. Dieser Vorgang wird für „M” Aufnahmezyklen wie durch den Pfeil722 gezeigt wiederholt. Es ist zu verstehen, dass jeder der „M” Aufnahmezyklen in rascher Folge wiederholt werden kann und die Vollendung aller Aufnahmezyklen weitaus weniger als eine Sekunde erfordern kann. Compressive-Sensing-Algorithmen, wie oben beschrieben, können in Schritt725 auf die gesammelten Daten von jedem der Aufnahmezyklen angewandt werden. Dies ergibt ein Bild, das mit jedem Pixel assoziiert ist, das für ein kleines Stück des/der Objekts oder Szene von Interesse repräsentativ ist. Die Bilder von jedem der individuellen Pixel können dann wie in Schritt730 gezeigt zusammengestitcht werden, um ein Bild der/des ursprünglichen Objekts oder Szene zu bilden. Das Verfahren endet mit Schritt735 . - Ebenso illustriert
7 Logikoperationsschritte, die mit einem anderen Ansatz zum Aufnehmen eines Bildes800 gemäß einer hierin offenbarten alternativen Ausgestaltung assoziiert sind. Das Verfahren beginnt mit Schritt805 . Die Schritte710 ,715 ,720 und722 sind mit denen des Verfahrens700 äquivalent und auch so beschriftet. - In Schritt
825 können Pixel im Fotodetektor gemäß ihrem relativen Ort im Fotodetektor miteinander gruppiert werden. Diese Zuordnung kann gemäß dem Design des optischen Systems erfolgen. Nach dem Definieren der Gruppen von Pixeln können Compressive-Sensing-Verfahren auf die gesammelten Daten für jede Gruppe von Pixeln wie in Schritt830 gezeigt angewandt werden. Dieser Schritt führt zu einem mit jeder Pixelgruppe assoziierten Bild. Benachbarte Bilder von den Pixelgruppen können dann mosaikartig zusammengefügt werden, um ein Bild des/der ursprünglichen Objekts oder Szene wie in Schritt835 gezeigt zu bilden. Das Verfahren endet mit Schritt840 . -
8 schließlich illustriert noch einen anderen Satz von Logikoperationssschritten, die mit einem anderen Ansatz zum Aufnehmen eines Bildes900 gemäß einer hierin offenbarten alternativen Ausgestaltung assoziiert sind. Das Verfahren beginnt mit Schritt705 . Die Schritte710 ,715 ,720 und722 sind äquivalent mit denen von Verfahren700 und sind auch so beschriftet. In Schritt925 können Pixel im Fotodetektor Gruppen zugeordnet werden, wobei die Gruppen einander überlappen. Dies kann gemäß dem Design des optischen Systems erfolgen. In Schritt930 können die von jeder Gruppe gesammelten Daten aggregiert werden und dann kann anhand von Compressive Sensing ein mit jeder überlappenden Pixelgruppe wie in Schritt935 gezeigt assoziiertes Bild gewonnen werden. Wiederum kann in Schritt940 das Bild von jeder jeweiligen Pixelgruppe dann zusammengestitcht oder mosaikartig zusammengefügt werden, um ein Bild des/der ursprünglichen Objekts oder Szene zu bilden, und das Verfahren endet dann mit Schritt945 . -
9A illustriert ein Blockdiagramm1000 von Modulen, die zum Implementieren von Verfahrensschritten wie in den6 –8 beschrieben benutzt werden können. Wenn einfallendes Licht402 dem Lichtweg durch das Imaging-System425 folgt, dann können die resultierenden, an den Fotodetektoren aufgezeichneten Intensitäten einem Computersystem110 bereitgestellt werden. Das Computersystem110 kann ein Pixelgruppierungsmodul1005 beinhalten, das benutzt wird, um zu definieren, welche Pixel gemäß einem Satz von Joint-Sparsity-Anforderungen gruppiert werden. Das Compressive-Sensing-Modul1010 kann zum Anwenden von Compressive-Sensing-Algorithmen auf die vom Imaging-System425 gesammelten Daten benutzt werden. Der Ausgang vom Compressive-Sensing-Modul1010 beinhaltet Bilder, die mit jedem Fotodetektor oder mit jeder vom Pixelgruppierungsmodul1005 definierten Gruppe von Fotodetektoren assoziiert sind. Dieser Ausgang kann dem elektronischen Stitching-Modul1015 bereitgestellt werden, das alle Bilder von jedem der Fotodetektoren nimmt und sie zusammenstitcht, um ein fertiges Bild des Objekts oder der Szene von Interesse zu erzeugen. -
9B illustriert ein Blockdiagramm1100 einer alternativen Ausgestaltung von Modulen, die zum Implementieren der in6 –8 beschriebenen Verfahrensschritte benutzt werden können. In dieser Ausgestaltung sind das Pixelgruppierungsmodul1005 , das Compressive-Sensing-Modul1010 und das elektronische Stitching-Modul1015 alle in einem Computermodul enthalten (z. B. dem Computersystem110 ), das in das Bildaufnahmegerät204 integriert ist. Zusätzlich kann das Imaging-System425 im Bildaufnahmegerät204 integriert sein. In dieser Ausgestaltung umfasst das Bildaufnahmegerät204 eine alleinstehende Einheit, die für eine Hochauflösungsbilderzeugung mit Niedrigauflösungssensoren und Compressive-Sensing-Technologie durch Nutzen von Joint-Sparsity konfiguriert ist. - Auf der Basis des oben Gesagten wird man verstehen, dass eine Reihe von Ausgestaltungen, bevorzugt und alternativ, hierin offenbart ist. Zum Beispiel, in einer Ausgestaltung beinhaltet ein Verfahren zum Rekonstruieren eines Bildes einer Szene das Konfigurieren eines digitalen Lichtmodulators gemäß einem räumlich variierenden Muster, das Sammeln und optische Fokussieren von mit der Szene assoziierter Lichtenergie, die auf das räumlich variierende Muster auf jedem von wenigstens zwei Fotodetektoren fällt; das Sammeln von Daten, die die Intensität der fokussierten Lichtenergie von jedem der wenigstens zwei Fotodetektoren anzeigen; und das Kombinieren der Daten von den wenigstens zwei Fotodetektoren, um ein Bild der Szene zu rekonstruieren.
- In einer Ausgestaltung beinhaltet das Kombinieren der Daten von den wenigstens zwei Fotodetektoren zum Rekonstruieren eines Bildes der Szene ferner das Anwenden eines Compressive-Sensing-Rekonstruktionsalgorithmus auf die Daten von jedem der wenigstens zwei Fotodetektoren unabhängig, um ein mit jedem der Fotodetektoren assoziiertes Bild zu erzeugen, und das Anordnen der mit jedem der wenigstens zwei Fotodetektoren assoziierten Bilder gemäß dem relativen Ort der Fotodetektoren.
- In einer anderen Ausgestaltung beinhaltet das Kombinieren der Daten von den wenigstens zwei Fotodetektoren zum Rekonstruieren eines Bildes der Szene ferner das Bilden von mehreren Fotodetektorgruppen durch Assoziieren der wenigstens zwei Fotodetektoren mit wenigstens zwei Gruppen von Elementen in dem digitalen Lichtmodulator, wobei das mit jedem Fotodetektor assoziierte Bild der Szene eine Sparsity-Anforderung erfüllt. Die Ausgestaltung beinhaltet ferner das Anwenden eines Compressive-Sensing-Algorithmus auf die gesammelten Daten von jeder der Fotodetektorgruppen, um ein mit jeder der Fotodetektorgruppen assoziiertes Bild zu erzeugen, und das Anordnen der mit jeder der Fotodetektorgruppen assoziierten Bilder gemäß dem relativen Ort der Fotodetektorgruppen.
- Die Sparsity-Anforderung kann eine Joint-Sparsity-Anforderung sein und kann ein Sparse-Common-Component-Modell oder ein Common-Supports-Modell sein. Die wenigstens zwei Fotodetektoren umfassen wenigstens zwei mit einem Sensor assoziierte Pixel.
- In einer anderen Ausgestaltung beinhaltet das Kombinieren der Daten von den wenigstens zwei Fotordetektoren zum Rekonstruieren eines Bildes der Szene ferner das Bilden einer Mehrzahl von Fotodetektorgruppen durch Assoziieren von wenigstens zwei Fotodetektoren mit wenigstens zwei überlappenden Gruppen von Elementen in dem digitalen Lichtmodulator, wobei das mit jedem Fotodetektor assoziierte Bild der Szene eine Sparsity-Anforderung erfüllt. Die Ausgestaltung beinhaltet das Aggregieren der mit jeder der Fotodetektorgruppen assoziierten Daten und das Anwenden eines Compressive-Sensing-Algorithmus auf die aggregierten Daten von jeder der Fotodetektorgruppen, um ein mit jeder der Fotodetektorgruppen assoziiertes Bild zu erzeugen. Schließlich werden die mit jeder der Fotodetektorgruppen nebeneinander assoziierten Bilder zu einem Bild angeordnet. Die Sparsity-Anforderung ist eine Joint-Sparsity-Anforderung, die ein Sparse-Common-Component-Modell oder ein Common-Supports-Modell beinhaltet.
- In einer anderen Ausgestaltung umfasst der digitale Lichtmodulator wenigstens eines aus einem Array von wenigstens einem Pixel; einem Array von wenigstens einem transmissiven Lichtmodulator; einem Array von wenigstens einem reflektiven Lichtmodulator und einem Array von Mikrospiegeln.
- In noch einer anderen Ausgestaltung beinhaltet ein Verfahren zum Rekonstruieren eines Bildes einer Szene das Konfigurieren eines digitalen Lichtmodulators gemäß einem räumlich variierenden Muster; das Sammeln und optische Fokussieren von mit der Szene assoziierter Lichtenergie, die auf das räumlich variierende Abtastmuster auf jedem von wenigstens zwei Fotodetektoren einfällt, die mit einem Sensor assoziierte Pixel umfassen; das Sammeln von Daten, die die Intensität der fokussierten Lichtenergie von jedem der wenigstens zwei Pixel anzeigen; das Bilden von mehreren Fotodetektorgruppen durch Assoziieren von wenigstens zwei Fotodetektoren mit wenigstens zwei überlappenden Gruppen von Elementen in dem digitalen Lichtmodulator, wobei das mit jedem Fotodetektor assoziierte Bild der Szene eine Sparsity-Anforderung erfüllt; das Aggregieren der mit jeder der Fotodetektorgruppen assoziierten Daten; das Anwenden eines Compressive-Sensing-Algorithmus auf die aggregierten Daten von jeder der Fotodetektorgruppen, um ein mit jeder der Fotodetektorgruppen assoziiertes Bild zu erzeugen; und das Anordnen der mit jeder der Fotodetektorgruppen assoziierten Bilder nebeneinander.
- Das Sammeln und optische Fokussieren von mit einer Szene assoziierter Lichtenergie, die auf das räumlich variierende Muster auf jedem von wenigstens zwei Fotodetektoren einfällt, die mit einem Sensor assoziierte Pixel umfassen, beinhaltet ferner das Leiten der durch wenigstens eine diskrete Teilsektion des räumlich variierenden Musters passierenden Lichtenergie auf einen diskreten einen der wenigstens zwei Fotodetektoren. Die Sparsity-Anforderung kann eine Joint-Sparsity-Anforderung sein, die ein Sparse-Common-Component-Modell oder ein Common-Support-Modell umfasst.
- Zusätzlich umfasst der digitale Lichtmodulator wenigstens eines aus einem Array von wenigstens einem Pixel; einem Array von wenigstens einem transmissivem Lichtmodulator; einem Array von wenigstens einem reflektiven Lichtmodulator; und einem Array von Mikrospiegeln.
- In noch einer anderen Ausgestaltung umfasst ein System zum Rekonstruieren eines Bildes einer Szene Folgendes: einen digitalen Lichtmodulator, konfiguriert gemäß einem räumlich variierenden Muster; ein Linsensystem, konfiguriert zum optischen Fokussieren von mit der Szene assoziierter Lichtenergie, das auf das räumlich variierende Muster auf jedem von wenigstens zwei Fotodetektoren einfällt, wobei die wenigstens zwei Fotodetektoren Daten sammeln, die die Intensität der fokussierten Lichtenergie anzeigen; und Verarbeitungsmodul, konfiguriert zum Kombinieren der Daten von wenigstens zwei Fotodetektoren, um ein Bild der Szene zu rekonstruieren.
- In einer Ausgestaltung umfasst das zum Kombinieren der Daten von den wenigstens zwei Fotodetektoren zum Rekonstruieren eines Bildes der Szene konfigurierte Verarbeitungsmodul ein Compressive-Sensing-Modul, konfiguriert zum Anwenden eines Compressive-Sensing-Rekonstruktionsalgorithmus auf die Daten von jedem der wenigstens zwei Fotodetektoren unabhängig, um ein mit jedem der Fotodetektoren assoziiertes Bild zu erzeugen; und ein elektronisches Stitching-Modul, konfiguriert zum Anordnen der mit jedem der wenigstens zwei Fotodetektoren assoziierten Bilder gemäß dem relativen Ort der Fotodetektoren.
- In einer anderen Ausgestaltung umfasst das Verarbeitungsmodul, das zum Kombinieren der Daten von den wenigstens zwei Fotodetektoren zum Rekonstruieren eines Bildes der Szene konfiguriert ist, ferner ein Pixelgruppierungsmodul, konfiguriert zum Bilden von mehreren Fotodetektorgruppen durch Assoziieren der wenigstens zwei Fotodetektoren mit wenigstens zwei Gruppen von Elementen in dem digitalen Lichtmodulator, wobei das mit jedem Fotodetektor assoziierte Bild der Szene eine Sparsity-Anforderung erfüllt; ein Compressiv-Sensing-Modul, konfiguriert zum Anwenden eines Compressive-Sensing-Algorithmus auf die gesammelten Daten von jeder der Fotodetektorgruppen, um ein mit jeder der Fotodetektorgruppen assoziiertes Bild zu erzeugen; oder ein elektronisches Stitching-Modul, konfiguriert zum Anordnen der mit jeder der Fotodetektorgruppen assoziierten Bilder gemäß dem relativen Ort der Fotodetektorgruppen.
- Die Sparsity-Anforderung kann eine Joint-Sparsity-Anforderung sein, die ein Sparse-Common-Component-Modell oder ein Common-Supports-Modell umfasst. Die wenigstens zwei Fotodetektoren umfassen wenigstens zwei mit einem Sensor assoziierte Pixel.
- In einer anderen Ausgestaltung sind der digitale Lichtmodulator, das Linsensystem, die wenigstens zwei Pixel und das Verarbeitungsmodul in einem Bildaufnahmegerät integriert.
Claims (10)
- Verfahren zum Rekonstruieren eines Bildes einer Szene, das Folgendes beinhaltet: Konfigurieren eines digitalen Lichtmodulators gemäß einem räumlich variierenden Muster; Sammeln und optisches Fokussieren von mit der genannten Szene assoziierter Lichtenergie, die auf das genannte räumlich variierende Muster auf jedem von wenigstens zwei Fotodetektoren fällt; Sammeln von Daten, die die Intensität der fokussierten Lichtenergie von jedem der genannten wenigstens zwei Fotodetektoren anzeigen; und Kombinieren der genannten Daten von den genannten wenigstens zwei Fotodetektoren zum Rekonstruieren eines Bildes der genannten Szene.
- Verfahren nach Anspruch 1, wobei das Kombinieren der genannten Daten von den genannten wenigstens zwei Fotodetektoren zum Rekonstruieren eines Bildes der genannten Szene ferner Folgendes beinhaltet: Anwenden eines Compressive-Sensing-Rekonstruktionsalgorithmus auf die genannten Daten von jedem der genannten wenigstens zwei Fotodetektoren unabhängig, um ein mit jedem der genannten Fotodetektoren assoziiertes Bild zu erzeugen; und Anordnen der genannten mit jedem der genannten wenigstens zwei Fotodetektoren assoziierten Bilder gemäß dem relativen Ort der Fotodetektoren.
- Verfahren nach Anspruch 1, wobei das Kombinieren der genannten Daten von den genannten wenigstens zwei Fotodetektoren zum Rekonstruieren eines Bildes der genannten Szene ferner Folgendes beinhaltet: Bilden von mehreren Fotodetektorgruppen durch Assoziieren der genannten wenigstens zwei Fotodetektoren mit wenigstens zwei Gruppen von Elementen in dem genannten digitalen Lichtmodulator, wobei das genannte, mit jedem Fotodetektor assoziierte Bild der genannten Szene eine Sparsity-Anforderung erfüllt; Anwenden eines Compressive-Sensing-Algorithmus auf die genannten gesammelten Daten von jeder der genannten Fotodetektorgruppen zum Erzeugen eines mit jeder der genannten Fotodetektorgruppen assoziierten Bildes; und Anordnen der genannten, mit jeder der genannten Fotodetektorgruppen assoziierten Bilder gemäß dem relativen Ort der Fotodetektorgruppen.
- Verfahren nach Anspruch 3, wobei die genannte Sparsity-Anforderung eine Joint-Sparsity-Anforderung ist.
- Verfahren zum Rekonstruieren eines Bildes einer Szene, das Folgendes beinhaltet: Konfigurieren eines digitalen Lichtmodulators gemäß einem räumlich variierenden Muster; Sammeln und optisches Fokussieren von mit der genannten Szene assoziierter Lichtenergie, die auf das genannte räumlich variierende Abtastmuster auf jedem von wenigstens zwei Fotodetektoren einfällt, die mit einem Sensor assoziierte Pixel umfassen; Sammeln von Daten, die die Intensität der fokussierten Lichtenergie von jedem der genannten wenigstens zwei Pixel anzeigen; Bilden einer Mehrzahl von Fotodetektorgruppen durch Assoziieren von wenigstens zwei Fotodetektoren mit wenigstens zwei überlappenden Gruppen von Elementen in dem genannten digitalen Lichtmodulator, wobei das genannte, mit jedem Fotodetektor assoziierte Bild der genannten Szene eine Sparsity-Anforderung erfüllt; Aggregieren der genannten Daten, die mit jeder der genannten Fotodetektorgruppen assoziiert sind; Anwenden eines Compressive-Sensing-Algorithmus auf die genannten aggregierten Daten von jeder der genannten Fotodetektorgruppen zum Erzeugen eines mit jeder der genannten Fotodetektorgruppen assoziierten Bildes; und Anordnen der genannten, mit jeder der genannten Fotodetektorgruppen assoziierten Bilder nebeneinander, um das genannte Bild der genannten Szene zu rekonstruieren.
- Verfahren nach Anspruch 5, wobei das Sammeln und optische Fokussieren von mit einer Szene assoziierter Lichtenergie, die auf das genannte räumlich variierende Muster auf jedem der genannten wenigstens zwei Fotodetektoren fällt, die mit einem Sensor assoziierte Pixel umfassen, ferner Folgendes beinhaltet: Leiten der genannten durch wenigstens eine diskrete Teilsektion des genannten räumlich variierenden Musters passierenden Lichtenergie auf einen diskreten einen der genannten wenigstens zwei Fotodetektoren.
- Verfahren nach Anspruch 6, wobei die genannte Sparsity-Anforderung eine Joint-Sparsity-Anforderung ist.
- System zum Rekonstruieren eines Bildes einer Szene, das Folgendes umfasst: einen digitalen Lichtmodulator, konfiguriert gemäß einem räumlich variierenden Muster; ein Linsensystem, konfiguriert zum optischen Fokussieren von mit der genannten Szene assoziierter Lichtenergie, die auf das genannte räumlich variierende Muster auf jedem von wenigstens zwei Fotodetektoren einfällt, wobei die genannten wenigstens zwei Fotodetektoren Daten sammeln, die die Intensität der fokussierten Lichtenergie anzeigen; und ein Verarbeitungsmodul, konfiguriert zum Kombinieren der genannten Daten von den genannten wenigstens zwei Fotodetektoren zum Rekonstruieren eines Bildes der genannten Szene.
- System nach Anspruch 8, wobei das genannte Verarbeitungsmodul, das zum Kombinieren der genannten Daten von den genannten wenigstens zwei Fotodetektoren konfiguriert ist, um ein Bild der genannten Szene zu rekonstruieren, ferner Folgendes umfasst: ein Compressive-Sensing-Modul, konfiguriert zum Anwenden eines Compressive-Sensing-Rekonstruktionsalgorithmus auf die genannten Daten von jedem der genannten wenigstens zwei Fotodetektoren unabhängig, um ein mit jedem der genannten Fotodetektoren assoziiertes Bild zu erzeugen; und ein elektronisches Stitching-Modul, konfiguriert zum Anordnen der genannten, mit jedem der genannten wenigstens zwei Fotodetektoren assoziierten Bilder gemäß dem relativen Ort der Fotodetektoren.
- System nach Anspruch 8, wobei das genannte Verarbeitungsmodul, das zum Kombinieren der genannten Daten von den genannten wenigstens zwei Fotodetektoren konfiguriert ist, um ein Bild der genannten Szene zu rekonstruieren, ferner Folgendes umfasst: ein Pixelgruppierungsmodul, konfiguriert zum Bilden mehrerer Fotodetektorgruppen durch Assoziieren der genannten wenigstens zwei Fotodetektoren mit wenigstens zwei Gruppen von Elementen in dem genannten digitalen Lichtmodulator, wobei das genannte, mit jedem Fotodetektor assoziierte Bild der genannten Szene eine Sparsity-Anforderung erfüllt; ein Compressive-Sensing-Modul, konfiguriert zum Anwenden eines Compressive-Sensing-Algorithmus auf die genannten gesammelten Daten von jeder der genannten Fotordetektorgruppen zum Erzeugen eines mit jeder der genannten Fotodetektorgruppen assoziierten Bildes; und ein elektronisches Stitching-Modul, konfiguriert zum Anordnen der genannten, mit jeder der genannten Fotodetektorgruppen assoziierten Bilder gemäß dem relativen Ort der Fotodetektorgruppen.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/566,835 US9615022B2 (en) | 2014-12-11 | 2014-12-11 | High-resolution imaging devices using low-resolution sensors and compressive sensing exploiting joint sparsity |
US14/566,835 | 2014-12-11 |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102015223121A1 true DE102015223121A1 (de) | 2016-06-16 |
Family
ID=56082581
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102015223121.6A Pending DE102015223121A1 (de) | 2014-12-11 | 2015-11-23 | Hochauflösungsbilderzeugungsgeräte mit niedrigauflösungssensoren und compressive sensing unter ausnutzung von joint sparsity |
Country Status (3)
Country | Link |
---|---|
US (1) | US9615022B2 (de) |
KR (1) | KR102434554B1 (de) |
DE (1) | DE102015223121A1 (de) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109102551B (zh) * | 2018-07-11 | 2023-04-07 | 中国人民解放军战略支援部队航天工程大学 | 一种基于光线追迹的时间压缩感知重构方法 |
CN109255822B (zh) * | 2018-07-13 | 2023-02-24 | 中国人民解放军战略支援部队航天工程大学 | 一种多尺度编码和多重约束的超时间分辨率压缩感知重建方法 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10146902A1 (de) | 2000-09-25 | 2002-09-19 | Sensovation Ag | Bildsensor, Vorrichtung und Verfahren für optische Messungen |
WO2006116134A2 (en) | 2005-04-21 | 2006-11-02 | William Marsh Rice University | Method and apparatus for compressive imaging device |
US7602183B2 (en) | 2007-02-13 | 2009-10-13 | The Board Of Trustees Of The Leland Stanford Junior University | K-T sparse: high frame-rate dynamic magnetic resonance imaging exploiting spatio-temporal sparsity |
US8125549B2 (en) | 2008-09-02 | 2012-02-28 | General Electric Company | Methods and apparatus to capture compressed images |
US7834795B1 (en) | 2009-05-28 | 2010-11-16 | Bae Systems Information And Electronic Systems Integration Inc. | Compressive sensor array system and method |
CN102812709B (zh) * | 2009-11-20 | 2015-11-25 | M·辛格 | 压缩彩色图像采样和重建的方法和系统 |
GB2491756A (en) | 2010-02-22 | 2012-12-12 | Univ Rice William M | Improved number of pixels in detector arrays using compressive sensing |
US8760542B2 (en) | 2010-08-11 | 2014-06-24 | Inview Technology Corporation | Compensation of compressive imaging measurements based on measurements from power meter |
US8570405B2 (en) | 2010-08-11 | 2013-10-29 | Inview Technology Corporation | Determining light level variation in compressive imaging by injecting calibration patterns into pattern sequence |
US8704912B2 (en) | 2011-01-20 | 2014-04-22 | Canon Kabushiki Kaisha | Apparatus and method for compressive sampling |
KR101262586B1 (ko) * | 2011-07-13 | 2013-05-08 | 한국과학기술원 | 공동 희소성을 이용한 비 반복적이고 정확한 복원이 가능한 압축 산란광 단층촬영 방법 및 장치 |
US20140063314A1 (en) | 2012-02-28 | 2014-03-06 | Aswin C Sankaranarayanan | System And Method Of Video Compressive Sensing For Spatial-Multiplexing Cameras |
US8970740B2 (en) * | 2012-12-14 | 2015-03-03 | In View Technology Corporation | Overlap patterns and image stitching for multiple-detector compressive-sensing camera |
US9239388B2 (en) * | 2012-12-20 | 2016-01-19 | Mitsubishi Electric Research Laboratories, Inc. | Pairwise grouping of joint sparsity models for sensing array processing |
JP6112872B2 (ja) * | 2013-01-18 | 2017-04-12 | キヤノン株式会社 | 撮像システム、画像処理方法、および撮像装置 |
US9188785B2 (en) | 2013-03-15 | 2015-11-17 | Xerox Corporation | Single-pixel camera architecture with simultaneous multi-band acquisition |
US20150042764A1 (en) * | 2013-08-06 | 2015-02-12 | Board Of Trustees Of Michigan State University | Three-dimensional hyperspectral imaging system |
-
2014
- 2014-12-11 US US14/566,835 patent/US9615022B2/en active Active
-
2015
- 2015-11-23 DE DE102015223121.6A patent/DE102015223121A1/de active Pending
- 2015-11-26 KR KR1020150166060A patent/KR102434554B1/ko active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
KR102434554B1 (ko) | 2022-08-23 |
KR20160071318A (ko) | 2016-06-21 |
US20160173771A1 (en) | 2016-06-16 |
US9615022B2 (en) | 2017-04-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10274420B2 (en) | Compact multifunctional system for imaging spectroscopy | |
Cao et al. | A prism-mask system for multispectral video acquisition | |
Dijkstra et al. | Hyperspectral demosaicking and crosstalk correction using deep learning | |
Ma et al. | Acquisition of high spatial and spectral resolution video with a hybrid camera system | |
JP6290416B2 (ja) | 物体のインラインレンズフリーデジタルホログラフィを実施するための装置および方法 | |
US20140168482A1 (en) | Overlap patterns and image stitching for multiple-detector compressive-sensing camera | |
Aymaz et al. | Multi-focus image fusion using stationary wavelet transform (SWT) with principal component analysis (PCA) | |
US10126709B2 (en) | Apparatus and method for performing in-line lens-free digital holography of an object | |
KR20190036442A (ko) | 인공 지능을 이용한 초분광 영상 재구성 방법 및 장치 | |
Diaz et al. | Adaptive grayscale compressive spectral imaging using optimal blue noise coding patterns | |
KR20190036459A (ko) | 인공 지능을 이용한 초분광 영상 재구성 방법 및 장치 | |
Guo et al. | Dense light field reconstruction from sparse sampling using residual network | |
Che Aminudin et al. | Video surveillance image enhancement via a convolutional neural network and stacked denoising autoencoder | |
DE102015223121A1 (de) | Hochauflösungsbilderzeugungsgeräte mit niedrigauflösungssensoren und compressive sensing unter ausnutzung von joint sparsity | |
Huang et al. | Spectral clustering super-resolution imaging based on multispectral camera array | |
DE102015105161A1 (de) | Eine Vorrichtung und ein Verfahren zum Detektieren einer Bewegung eines Objekts in einem Zielraum | |
DE102011002824A1 (de) | Bildsensor, Bildaufnahmesystem und Verfahren zum Aufnehmen eines Bildes | |
Wisotzky et al. | Hyperspectral demosaicing of snapshot camera images using deep learning | |
Shinoda et al. | Multispectral filter array design without training images | |
Singh et al. | A New Multi-Focus Image Fusion Techniquefor an Efficient Surveillance | |
Huang et al. | High-fidelity hyperspectral snapshot of physical world: System architecture, dataset and model | |
Rousset et al. | Adaptive acquisitions in biomedical optical imaging based on single pixel camera: Comparison with compressive sensing | |
Addesso et al. | Hyperspectral pansharpening using convex optimization and collaborative total variation regularization | |
DE102011121334B4 (de) | Messanordnung und korrespondierendes Bildaufbereitungsverfahren | |
CN113281282B (zh) | 一种图像采集与重构方法、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R082 | Change of representative |
Representative=s name: GRUENECKER PATENT- UND RECHTSANWAELTE PARTG MB, DE |
|
R081 | Change of applicant/patentee |
Owner name: CONDUENT BUSINESS SERVICES, LLC, FLORHAM PARK, US Free format text: FORMER OWNER: XEROX CORPORATION, NORWALK, CONN., US Owner name: CONDUENT BUSINESS SERVICES, LLC (N.D.GES.D. ST, US Free format text: FORMER OWNER: XEROX CORPORATION, NORWALK, CONN., US |
|
R082 | Change of representative |
Representative=s name: GRUENECKER PATENT- UND RECHTSANWAELTE PARTG MB, DE |
|
R012 | Request for examination validly filed | ||
R081 | Change of applicant/patentee |
Owner name: CONDUENT BUSINESS SERVICES, LLC, FLORHAM PARK, US Free format text: FORMER OWNER: CONDUENT BUSINESS SERVICES, LLC (N.D.GES.D. STAATES DELAWARE), DALLAS, TEX., US |
|
R082 | Change of representative |
Representative=s name: GRUENECKER PATENT- UND RECHTSANWAELTE PARTG MB, DE |