DE112021003347T5 - Bildverarbeitungsvorrichtung, bildanzeigesystem, -verfahren und -programm - Google Patents

Bildverarbeitungsvorrichtung, bildanzeigesystem, -verfahren und -programm Download PDF

Info

Publication number
DE112021003347T5
DE112021003347T5 DE112021003347.6T DE112021003347T DE112021003347T5 DE 112021003347 T5 DE112021003347 T5 DE 112021003347T5 DE 112021003347 T DE112021003347 T DE 112021003347T DE 112021003347 T5 DE112021003347 T5 DE 112021003347T5
Authority
DE
Germany
Prior art keywords
image
resolution
processing device
exposure time
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112021003347.6T
Other languages
English (en)
Inventor
Daita Kobayashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Publication of DE112021003347T5 publication Critical patent/DE112021003347T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Optics & Photonics (AREA)
  • Image Processing (AREA)

Abstract

Eine Bildverarbeitungsvorrichtung einer Ausführungsform enthält eine Steuereinheit, die ein Kompositbild erzeugt und das Kompositbild an eine Anzeigevorrichtung ausgibt, wobei das Kompositbild durch Kombination eines ersten Bildes, das in einer ersten Belichtungszeit erfasst wird und eine erste Auflösung hat, und eines zweiten Bildes, das ein Bild ist, das einem Teil eines Bereichs des ersten Bildes entspricht und das in einer zweiten Belichtungszeit erfasst wird, die kürzer als die erste Belichtungszeit ist, und eine zweite Auflösung hat, die höher als die erste Auflösung ist, erfasst wird, wobei das erste Bild und das zweite Bild von einem Bildsensor eingegeben werden.

Description

  • Gebiet
  • Die vorliegende Offenbarung bezieht sich auf eine Bildverarbeitungsvorrichtung, ein Bildanzeigesystem, ein Verfahren und ein Programm.
  • Hintergrund
  • Unter der Annahme, dass sie hauptsächlich in einem Video-Durchsichtsystem (VST) verwendet wird, wurde eine Technologie vorgeschlagen, die in der Lage ist, die Verarbeitungslast bei der Bildverarbeitung zu reduzieren, indem ein Interessenbereich aus einer von einem Eye-Tracking-System geschätzten Augenposition berechnet wird und eine Verarbeitung zum Ausdünnen eines Bildes nur in einem Nicht-Interessenbereich (Auflösungsumwandlungsverarbeitung) nach dem Fotografieren durchgeführt wird (siehe z. B. Patentdokument 1).
  • Anführungsliste
  • Patentdokumente
    • Patentdokument 1: Japanische Patentanmeldungs-Offenlegungsnummer 2019-029952
    • Patentdokument 2: Japanische Patentanmeldungs-Offenlegungsnummer 2018-186577
    • Patentdokument 3: Japanisches Patent Nr. 4334950
    • Patentdokument 4: Japanische Patentanmeldungs-Offenlegungsnummer 200-032318
    • Patentdokument 5: Japanisches Patent Nr. 5511205
  • Kurzdarstellung
  • Technisches Problem
  • Bei der oben beschriebenen konventionellen Technologie wird die Auflösungsumwandlungsverarbeitung nur an einem anderen Teil als dem von einem Eye-Tracking-System erfassten Interessenbereich durchgeführt und dessen Auflösung reduziert, wodurch verhindert wird, dass die Last der Bildverarbeitung in einem Bildsignalprozessor (ISP) mehr als nötig erhöht wird.
  • Daher besteht bei dem oben beschriebenen konventionellen Verfahren das Problem, dass kein Unschärfereduzierungseffekt und kein HDR-Effekt (High Dynamic Range) erzielt werden kann, da die Belichtungsbedingungen für einen Interessenbereich und einen Nicht-Interessenbereich ständig gleich sind.
  • Die vorliegende Technologie wurde im Hinblick auf eine solche Situation entwickelt und soll eine Bildverarbeitungsvorrichtung, ein Bildanzeigesystem, ein Verfahren und ein Programm bereitstellen, die in der Lage sind, einen Unschärfereduzierungseffekt und einen HDR-Effekt zu erzielen und gleichzeitig die Verarbeitungslast bei der Bildverarbeitung zu verringern.
  • Lösung des Problems
  • Eine Bildverarbeitungsvorrichtung einer Ausführungsform weist Folgendes auf: eine Steuereinheit, die ein Kompositbild erzeugt und das Kompositbild an eine Anzeigevorrichtung ausgibt, wobei das Kompositbild durch Kombination eines ersten Bildes, das in einer ersten Belichtungszeit erfasst wird und eine erste Auflösung hat, und eines zweiten Bildes, das ein Bild ist, das einem Teil eines Bereichs des ersten Bildes entspricht und das in einer zweiten Belichtungszeit erfasst wird, die kürzer als die erste Belichtungszeit ist, und eine zweite Auflösung hat, die höher als die erste Auflösung ist, erfasst wird, wobei das erste Bild und das zweite Bild von einem Bildsensor eingegeben werden.
  • Figurenliste
    • 1 ist ein schematisches Konfigurationsblockdiagramm eines Head-Mounted Display-Systems einer Ausführungsform.
    • 2 ist eine Ansicht zur Beschreibung eines VR-Head-Mounted Display-Systems und veranschaulicht einen Anordnungszustand von Kameras.
    • 3 ist eine Ansicht zur Beschreibung eines Beispiels für einen Bildanzeigevorgang der Ausführungsform.
    • 4 ist eine Ansicht zur Beschreibung des variablen Foveated Rendering.
    • 5 ist eine Ansicht zur Beschreibung des fixierten Foveated Rendering.
    • 6 ist eine Ansicht zur Beschreibung der Bewegungskompensation unter Verwendung eines optischen Flusses.
    • 7 ist eine Ansicht zur Beschreibung der Bewegungskompensation unter Verwendung einer Selbstposition.
    • 8 ist eine Ansicht zur Beschreibung der Bildkomposition.
    • 9 ist eine Ansicht zur Beschreibung der Reihenfolge des Fotografierens eines Niedrigauflösungsbildes und von Hochauflösungsbildern in der obigen Ausführungsform.
    • 10 ist eine Ansicht zur Beschreibung einer anderen Aufnahmereihenfolge eines Niedrigauflösungsbildes und von Hochauflösungsbildern.
    • 11 ist eine Ansicht zur Beschreibung einer anderen Aufnahmereihenfolge eines Niedrigauflösungsbildes und von Hochauflösungsbildern.
  • Beschreibung der Ausführungsformen
  • Als Nächstes wird eine Ausführungsform unter Bezugnahme auf die Zeichnungen im Detail beschrieben.
  • 1 ist ein schematisches Konfigurationsblockdiagramm eines VR-Head-Mounted Display-Systems der Ausführungsform.
  • Ein an einen Personal Computer angeschlossenes VR-Head-Mounted Display-System ist in 1 beispielhaft dargestellt.
  • Das VR-Head-Mounted Display-System 10 weist grob gesagt ein Head-Mounted Display (im Folgenden als HMD-Einheit bezeichnet) 11 und eine Informationsverarbeitungsvorrichtung (im Folgenden als PC-Einheit bezeichnet) 12 auf. Hier fungiert die PC-Einheit 12 als Steuereinheit, die die HMD-Einheit 11 steuert.
  • Die HMD-Einheit 11 weist eine Trägheitsmesseinheit (IMU) 21, eine Kamera für Simultane Positionsbestimmung und Kartenerstellung (SLAM) 22, eine VST-Kamera (Video See-Through) 23, eine Eye-Tracking-Kamera 24 und ein Display 25 auf.
  • Die IMU 21 ist ein so genannter Bewegungssensor, der einen Zustand oder dergleichen eines Benutzers erfasst und ein Erfassungsergebnis an die PC-Einheit 12 ausgibt.
  • Die IMU 21 weist beispielsweise einen Drei-Achsen-Gyroskop-Sensor und einen Drei-Achsen-Beschleunigungssensor auf und gibt Bewegungsinformationen eines Benutzers (Sensorinformationen) entsprechend der erfassten dreidimensionalen Winkelgeschwindigkeit, Beschleunigung und dergleichen an die PC-Einheit 12 aus.
  • 2 ist eine Ansicht zur Beschreibung des VR-Head-Mounted Display-Systems und illustriert einen Anordnungszustand der Kameras.
  • Die Kamera für SLAM 22 ist eine Kamera, die gleichzeitig eine Selbstlokalisierung und eine Umgebungskartierung, SLAM genannt, durchführt und ein Bild aufnimmt, das in einer Technologie zur Erfassung einer Selbstposition aus einem Zustand heraus verwendet werden kann, in dem keine vorherigen Informationen, wie etwa Karteninformationen, vorliegen. Die Kamera für SLAM ist zum Beispiel an einem zentralen Teil der Vorderseite der HMD-Einheit 11 angeordnet und sammelt Informationen, um gleichzeitig eine Selbstlokalisierung und Umgebungskartierung auf der Grundlage einer Änderung eines Bildes vor der HMD-Einheit 11 durchzuführen. Das SLAM wird später im Detail beschrieben.
  • Die VST-Kamera 23 nimmt ein VST-Bild auf, das ein externes Bild ist, und gibt es an die PC-Einheit 12 aus.
  • Die VST-Kamera 23 weist ein Objektiv auf, das für VST außerhalb der HMD-Einheit 11 installiert ist, und einen Bildsensor 23A (siehe 3). Wie in 2 dargestellt, ist ein Paar der VST-Kameras 23 so angeordnet, dass sie den Positionen beider Augen des Benutzers entsprechen.
  • In diesem Fall werden die Bildgebungsbedingungen (wie Auflösung, Abbildungsbereich und Abbildungszeitpunkt) der VST-Kameras 23 und damit der Bildsensoren von der PC-Einheit 12 gesteuert.
  • Jeder der Bildsensoren 23A (siehe 3), die in den VST-Kameras 23 der vorliegenden Ausführungsform enthalten sind, hat als Betriebsmodi einen Vollauflösungsmodus, der eine hohe Auflösung, aber eine hohe Verarbeitungslast aufweist, und einen Pixeladditionsmodus, der eine niedrige Auflösung, aber eine geringe Verarbeitungslast aufweist.
  • Dann kann der Bildsensor 23A unter der Steuerung der PC-Einheit 12 zwischen dem Vollauflösungsmodus und dem Pixeladditionsmodus in Einheiten von Frames umschalten.
  • In diesem Fall ist der Pixeladditionsmodus einer der Ansteuerungsmodi der Bildsensoren 23A, die Belichtungszeit ist länger, und ein Bild mit weniger Rauschen kann im Vergleich zum Vollauflösungsmodus aufgenommen werden.
  • Konkret werden in einem 2 × 2-Additionsmodus als Beispiel für den Pixeladditionsmodus 2 × 2 Pixel in vertikaler und horizontaler Richtung (insgesamt vier Pixel) gemittelt und als ein Pixel ausgegeben, wodurch ein Bild mit einer Auflösung von 1/4 und einem Rauschbetrag von etwa 1/2 ausgegeben wird. In ähnlicher Weise wird in einem 4 × 4-Additionsmodus, da 4 × 4 Pixel in vertikaler und horizontaler Richtung (insgesamt 16 Pixel) gemittelt und als ein Pixel ausgegeben werden, ein Bild mit einer Auflösung von 1/16 und einem Rauschbetrag von etwa 1/4 ausgegeben.
  • Die Eye-Tracking-Kamera 24 ist eine Kamera zur Verfolgung des Blicks des Benutzers, das so genannte Eye-Tracking. Die Eye-Tracking-Kamera 24 ist als externe Kamera mit sichtbarem Licht oder dergleichen ausgebildet.
  • Die Eye-Tracking-Kamera 24 wird verwendet, um einen Interessenbereich des Benutzers zu erkennen, indem ein Verfahren wie das variable Foveated Rendering angewendet wird. Mit der neuen Eye-Tracking-Kamera 24 kann die Blickrichtung mit einer Genauigkeit von etwa ±0,5° erfasst werden.
  • Das Display 25 ist eine Anzeigevorrichtung, die ein von der PC-Einheit 12 verarbeitetes Bild anzeigt.
  • Die PC-Einheit 12 weist eine Selbstlokalisierungseinheit 31, eine Interessenbereich-Bestimmungseinheit 32, einen Bildsignalprozessor (ISP) 33, eine Bewegungskompensationseinheit 34, einen Bildspeicher 35 und eine Bildkompositionseinheit 36 auf.
  • Die Selbstlokalisierungseinheit 31 schätzt eine Selbstposition einschließlich einer Körperhaltung und dergleichen des Benutzers auf der Grundlage der von der IMU 21 ausgegebenen Sensorinformationen und eines Bildes für SLAM, das von der Kamera für SLAM 22 erfasst wird.
  • In der vorliegenden Ausführungsform wird als Verfahren zur Selbstlokalisierung durch die Selbstlokalisierungseinheit 31 ein Verfahren zur Schätzung einer dreidimensionalen Position der HMD-Einheit 11 unter Verwendung sowohl der von der IMU 21 ausgegebenen Sensorinformationen als auch des Bildes für SLAM, das von der Kamera für SLAM 22 erfasst wird, verwendet. Es gibt jedoch auch Verfahren wie die visuelle Odometrie (VO), bei der nur ein Kamerabild verwendet wird, und die visuelle Inertial-Odometrie (VIO), bei der sowohl ein Kamerabild als auch eine Ausgabe der IMU 21 verwendet wird.
  • Die Interessenbereich-Bestimmungseinheit 32 bestimmt den Interessenbereich des Benutzers auf der Grundlage der Eye-Tracking-Ergebnisbilder beider Augen, die von der Eye-Tracking-Kamera 24 ausgegeben werden, und gibt den Interessenbereich an den ISP 33 aus.
  • Der ISP 33 bestimmt einen Interessenbereich in einem Abbildungsbereich jeder der VST-Kameras 23 auf der Grundlage des Interessenbereichs des Benutzers, der von der Interessenbereichs-Bestimmungseinheit 32 ermittelt wird.
  • Darüber hinaus verarbeitet der ISP 33 ein von jeder der VST-Kameras 23 ausgegebenes Bildsignal und gibt es als verarbeitetes Bildsignal aus. Bei der Verarbeitung des Bildsignals werden insbesondere „Rauschunterdrückung“, „Demosaik“, „Weißabgleich“, „Belichtungsanpassung“, „Kontrastverstärkung“, „Gammakorrektur“ oder dergleichen durchgeführt. Da die Verarbeitungslast groß ist, wird in vielen Mobilgeräten grundsätzlich eine spezielle Hardware vorbereitet.
  • Die Bewegungskompensationseinheit 34 führt eine Bewegungskompensation an dem verarbeiteten Bildsignal auf der Grundlage der Position der HMD-Einheit 11 durch, die von der Selbstlokalisierungseinheit 31 geschätzt wird, und gibt das verarbeitete Bildsignal aus.
    Der Bildspeicher 35 speichert das verarbeitete Bildsignal nach der Bewegungskompensation in Einheiten von Frames.
  • 3 ist eine Ansicht zur Beschreibung eines Beispiels für einen Bildanzeigevorgang der Ausführungsform.
    Vor dem vorbestimmten Startzeitpunkt der Bildgebung bestimmt die Interessenbereich-Bestimmungseinheit 32 den Interessenbereich des Benutzers auf der Grundlage von mindestens der Blickrichtung des Benutzers unter der Blickrichtung des Benutzers, die auf den Eye-Tracking-Ergebnisbildern der beiden Augen, die von der Eye-Tracking-Kamera 24 ausgegeben werden, und den Eigenschaften des Displays 25 basiert, und gibt den Interessenbereich an die VST-Kameras aus (Schritt S11).
  • Genauer gesagt, schätzt die Interessenbereich-Bestimmungseinheit 32 den Interessenbereich, indem sie die Eye-Tracking-Ergebnisbilder beider Augen verwendet, die von der Eye-Tracking-Kamera 24 aufgenommen wurden.
  • 4 ist eine Ansicht zur Beschreibung des variablen Foveated Rendering.
    Wie in 4 dargestellt, schließen die von den VST-Kameras 23 aufgenommenen Bilder ein Bild für das rechte Auge RDA und ein Bild für das linke Auge LDA ein.
  • Dann wird auf der Grundlage der Blickrichtung des Benutzers, die auf dem Eye-Tracking-Erkennungsergebnis der Eye-Tracking-Kamera 24 basiert, eine Unterteilung in drei Bereiche vorgenommen, nämlich einen zentralen Gesichtsfeldbereich CAR, der auf die Blickrichtung des Benutzers zentriert ist, einen effektiven Gesichtsfeldbereich SAR, der an den zentralen Gesichtsfeldbereich CAR angrenzt, und einen peripheren Gesichtsfeldbereich PAR, der ein Bereich abseits der Blickrichtung des Benutzers ist. Da die effektiv erforderliche Auflösung in der Reihenfolge zentraler Gesichtsfeldbereich CAR → effektiver Gesichtsfeldbereich SAR → peripherer Gesichtsfeldbereich PAR vom Zentrum aus in Blickrichtung abnimmt, wird zumindest der gesamte zentrale Gesichtsfeldbereich CAR als der Interessenbereich behandelt, in dem die Auflösung am höchsten ist. Außerdem wird das Zeichnen mit einer geringeren Auflösung zum Rand des Gesichtsfeldes hin durchgeführt.
  • 5 ist eine Ansicht zur Beschreibung des fixierten Foveated Rendering. In einem Fall, in dem ein Eye-Tracking-System wie die Eye-Tracking-Kamera 24 nicht verwendet werden kann, wird der Interessenbereich anhand der Anzeigeeigenschaften bestimmt.
  • Da das Objektiv im Allgemeinen so konstruiert ist, dass die Auflösung in der Mitte des Bildschirms am höchsten ist und zum Rand hin abnimmt, wird die Mitte des Bildschirms als der Interessenbereich festgelegt. Dann wird, wie in 5 dargestellt, ein zentraler Bereich als Höchstauflösungsbereich ARF mit voller Auflösung festgelegt.
  • Darüber hinaus ist die Auflösung in horizontaler Richtung grundsätzlich höher als die in vertikaler Richtung und die Auflösung in Abwärtsrichtung höher als die in Aufwärtsrichtung, je nach der allgemeinen Tendenz der Blickrichtung des Benutzers.
  • Das heißt, wie in 5 dargestellt, wird durch Anordnung eines Bereichs AR/2 mit der Hälfte der Auflösung des Höchstauflösungsbereichs ARF, eines Bereichs AR/4 mit 1/4 der Auflösung des Höchstauflösungsbereichs ARF, eines Bereichs AR/8 mit 1/8 der Auflösung des Höchstauflösungsbereichs ARF und eines Bereichs AR/16 mit 1/16 der Auflösung des Höchstauflösungsbereichs ARF eine Anzeige entsprechend den allgemeinen Eigenschaften eines Gesichtsfelds einer Person, die der Benutzer ist, durchgeführt.
  • Wie oben beschrieben, ist bei jedem Verfahren das hochauflösende Zeichnen (Rendering) auf einen notwendigen und ausreichenden Bereich beschränkt. Da dadurch die Zeichenlast in der PC-Einheit 12 deutlich reduziert werden kann, ist zu erwarten, dass die Hürde der für die PC-Einheit 12 erforderlichen Spezifikationen gesenkt und die Leistung verbessert wird.
  • Anschließend beginnt jede der VST-Kameras 23 der HMD-Einheit 11 mit der Bildaufnahme durch den Bildsensor 23A und gibt ein aufgenommenes Bild an den ISP 33 aus (Schritt S12).
    Konkret stellt jede der VST-Kameras 23 einen Abbildungsmodus im Bildsensor 23A auf den Pixeladditionsmodus ein, nimmt ein Stück (entsprechend einem Frame) eines Bildes auf, das mit dem gesamten Blickwinkel fotografiert wurde und eine geringe Auflösung und geringes Rauschen aufweist (im Folgenden als Niedrigauflösungsbild LR bezeichnet), und gibt das Bild an den ISP 33 aus.
  • Anschließend stellt jede der VST-Kameras 23 den Abbildungsmodus auf den Vollauflösungsmodus ein, nimmt mehrere hochauflösende Bilder auf, bei denen nur ein Bereich eines Blickwinkels fotografiert wird, der dem ermittelten Interessenbereich entspricht (im Beispiel von 3 drei Hochauflösungsbilder HR1 bis HR3), und gibt die Bilder nacheinander an den ISP 33 aus.
  • In diesem Fall wird z. B. in einem Fall, in dem die Verarbeitungszeit eines Frames 1/60 s (= 60 Hz) beträgt, ein Fall mit einer Verarbeitungsgeschwindigkeit von 1/240 s (= 240 Hz) als Beispiel genommen.
  • In diesem Fall wird eine Zeit von 1/240 s für die Aufnahme eines Niedrigauflösungsbildes LR angesetzt, wobei der Abbildungsmodus auf den Pixeladditionsmodus eingestellt ist, eine Zeit von 3/240 s für die Aufnahme von drei Hochauflösungsbildern HR1 bis HR3, wobei der Abbildungsmodus auf den Vollauflösungsmodus eingestellt ist, und eine Verarbeitungszeit von insgesamt 1/60 s (= 4/240), d. h. eine Verarbeitungszeit von einem Frame.
  • Anschließend führt der ISP 33 an den von den VST-Kameras 23 ausgegebenen Bildsignalen eine „Rauschunterdrückung“, ein „Demosaik“, einen „Weißabgleich“, eine „Belichtungsanpassung“, eine „Kontrastverstärkung“, eine „Gammakorrektur“ oder dergleichen durch und gibt diese an die Bewegungskompensationseinheit 34 aus (Schritt S13).
  • Die Bewegungskompensationseinheit 34 führt eine Kompensation der Positionsabweichung eines Motivs aufgrund der unterschiedlichen Aufnahmezeitpunkte mehrerer (im obigen Beispiel vier) Bilder durch (Bewegungskompensation) (Schritt S14).
  • In diesem Fall ist als Grund für die Erzeugung der Positionsabweichung zwar sowohl eine Bewegung des Kopfes des Benutzers, der die HMD-Einheit 11 trägt, als auch eine Bewegung des Motivs denkbar, doch wird hier angenommen, dass die Bewegung des Kopfes des Benutzers dominiert (einen größeren Einfluss hat).
  • So sind zum Beispiel zwei Bewegungskompensationsverfahren denkbar.
    Das erste Verfahren ist ein Verfahren, das einen optischen Fluss verwendet, und das zweite Verfahren ist ein Verfahren, das eine Selbstpositionierung verwendet.
    Die einzelnen Verfahren werden im Folgenden beschrieben.
  • 6 ist eine Ansicht zur Beschreibung der Bewegungskompensation unter Verwendung des optischen Flusses.
    Der optische Fluss ist ein Vektor (in der vorliegenden Ausführungsform der Pfeil in 6), der die Bewegung eines Objekts (Motiv einschließlich einer Person) in einem Bewegtbild ausdrückt. Hier wird ein Block-Matching-Verfahren, ein Gradientenverfahren oder dergleichen zur Extraktion des Vektors verwendet.
  • Bei der Bewegungskompensation mit Hilfe des optischen Flusses, wie in 6 dargestellt, wird der optische Fluss aus den aufgenommenen Bildern der VST-Kameras 23, die externe Kameras sind, gewonnen. Dann wird die Bewegungskompensation durch Verformung der Bilder so durchgeführt, dass sich das gleiche Motiv überschneidet.
  • Als die hier beschriebene Verformung werden einfache Translation, Homographie-Transformation, ein Verfahren zur Erfassung eines optischen Flusses eines gesamten Bildschirms in Pixeleinheiten unter Verwendung eines lokalen optischen Flusses und dergleichen betrachtet.
  • 7 ist eine Ansicht zur Beschreibung der Bewegungskompensation unter Verwendung der Selbstposition.
    In einem Fall, in dem die Bewegungskompensation durch Verwendung der Selbstposition durchgeführt wird, wird ein Bewegungsbetrag der HMD-Einheit 11 zu einem Zeitpunkt, zu dem eine Vielzahl von Bildern aufgenommen wird, durch Verwendung der aufgenommenen Bilder der VST-Kameras 23, die Kamerabilder sind, oder der IMU 21 berechnet.
  • Dann wird die Homographie-Transformation entsprechend dem erfassten Bewegungsbetrag der HMD-Einheit 11 durchgeführt. Hier bedeutet die Homographie-Transformation, dass eine Ebene durch Projektionstransformation auf eine andere Ebene projiziert wird.
  • Da die Bewegungsparallaxe in Abhängigkeit von der Entfernung zwischen einem Objekt und einer Kamera variiert, wird in einem Fall, in dem die Homographie-Transformation eines zweidimensionalen Bildes durchgeführt wird, eine Tiefe des Zielobjekts als repräsentativer Abstand festgelegt. Hier wird die Tiefe durch Eye-Tracking oder Bildschirm-Mittelung erfasst. In diesem Fall wird eine Fläche, die dem Abstand entspricht, als Stabilisierungsebene bezeichnet.
  • Dann wird die Bewegungskompensation durch eine Homographie-Transformation so durchgeführt, dass die Bewegungsparallaxe entsprechend dem repräsentativen Abstand gegeben ist.
  • Anschließend kombiniert die Bildkompositionseinheit 36 das eine Niedrigauflösungsbild, das mit dem gesamten Blickwinkel im Pixeladditionsmodus aufgenommen wurde, und die mehreren Hochauflösungsbilder, die nur im Interessenbereich mit voller Auflösung aufgenommen wurden (Schritt S15).
    Bei dieser Bildkomposition, die weiter unten ausführlich beschrieben wird, werden die Umwandlung in ein HDR (Schritt S15A) und die Auflösungsverbesserungsverarbeitung (Schritt S15B) durchgeführt.
  • 8 ist eine Ansicht zur Beschreibung der Bildkomposition.
    Wenn die Bildkomposition durchgeführt wird, wird die Vergrößerungsverarbeitung des Niedrigauflösungsbildes so durchgeführt, dass die Auflösung übereinstimmt (Schritt S21).
  • Konkret wird das Niedrigauflösungsbild LR vergrößert und ein vergrößertes Niedrigauflösungsbild ELR erzeugt.
  • Andererseits werden die Hochauflösungsbilder HR1 bis HR3 ausgerichtet, und dann wird ein Hochauflösungsbild HRA durch Mittelung der mehreren Bilder HR1 bis HR3 erstellt (Schritt S22).
  • Bei der Bildkomposition sind hauptsächlich zwei Elemente zu berücksichtigen. Das erste ist die Verarbeitung der Umwandlung in ein HDR, und das zweite ist die Auflösungsverbesserungsverarbeitung.
  • Als die Verarbeitung der Umwandlung in ein HDR wird die Verarbeitung der Umwandlung in ein HDR, die Belichtungsbilder mit unterschiedlicher Belichtungszeit verwendet, hier kurz beschrieben, da sie die allgemeine Verarbeitung in den letzten Jahren ist.
  • Bei der Umwandlung in ein HDR werden die Bilder so kombiniert, dass das Überblendungsverhältnis eines Bildes mit langer Belichtungszeit (Niedrigauflösungsbild LR in der vorliegenden Ausführungsform) in einem Bereich mit niedriger Leuchtdichte auf dem Bildschirm hoch ist, und die Bilder werden so kombiniert, dass das Überblendungsverhältnis eines Kurzbelichtungsbildes (Hochauflösungsbild HRA in der vorliegenden Ausführungsform) in einem Bereich mit hoher Leuchtdichte hoch ist.
    Dadurch ist es möglich, ein Bild zu erzeugen, das aussieht, als wäre es mit einer Kamera mit großem Dynamikbereich aufgenommen worden, und ein Element zu kontrollieren, das den Eindruck des Eintauchens in das Bild behindert, wie z. B. aufgeblähte Glanzlichter und erdrückte Schatten.
  • Im Folgenden wird der Prozess der Umwandlung in ein HDR S15A näher beschrieben.
    Zunächst werden Bereichsanpassung und Bitexpansion an dem vergrößerten Niedrigauflösungsbild ELR und dem Hochauflösungsbild HRA durchgeführt (Schritt S23 und S24). Dadurch wird erreicht, dass die Leuchtdichtebereiche miteinander übereinstimmen und ein Band mit einer Erweiterung des Dynamikbereichs gesichert wird.
  • Anschließend wird für das vergrößerte Niedrigauflösungsbild ELR und das Hochauflösungsbild HRA jeweils eine Karte α erstellt, die eine Leuchtdichteverteilung in Pixeleinheiten angibt (Schritt S25).
    Dann wird auf der Grundlage der Leuchtdichteverteilung, die der erzeugten α Karte entspricht, α die Kombination des vergrößerten Niedrigauflösungsbildes ELR und des Hochauflösungsbildes HRA durchgeführt (Schritt S26).
  • Genauer gesagt, werden die Bilder im Bereich niedriger Leuchtdichte auf der Grundlage der erstellten α Karte in Pixeleinheiten so kombiniert, dass das Überblendungsverhältnis des vergrößerten Niedrigauflösungsbildes ELR, das das Langbelichtungsbild ist, höher ist als das Überblendungsverhältnis des Hochauflösungsbildes HRA, das das Kurzbelichtungsbild ist.
  • In ähnlicher Weise werden die Bilder im Bereich mit hoher Leuchtdichte auf der Grundlage der erstellten α Karte in Pixeleinheiten so kombiniert, dass das Überblendungsverhältnis des Hochauflösungsbildes HRA, das das Kurzbelichtungsbild ist, höher ist als das Überblendungsverhältnis des vergrößerten Niedrigauflösungsbildes ELR, das das Langbelichtungsbild ist.
  • Da es in dem kombinierten Bild einen Bereich gibt, in dem die Gradationsänderung scharf ist, wird die Gradationskorrektur so durchgeführt, dass die Gradationsänderung natürlich wird, d. h. die Gradationsänderung wird sanft (Schritt S27).
    In der obigen Beschreibung wird die Umwandlung in ein HDR-Bild sowohl für das Niedrigauflösungsbild LR, das das erste Bild ist, als auch für die Hochauflösungsbilder HR1 bis HR3, die die zweiten Bilder sind, durchgeführt. Bei der Erzeugung eines Kompositbildes kann die Umwandlung in ein HDR-Bild jedoch an mindestens einem der Niedrigauflösungsbilder LR, dem ersten Bild, oder den Hochauflösungsbildern HR1 bis HR3, den zweiten Bildern, durchgeführt werden.
  • Andererseits wird in der vorliegenden Ausführungsform ein Verarbeitungsschritt S 15B zur Auflösungsverbesserung durchgeführt, indem entsprechend einem Frequenzbereich des Motivs gute Punkte des Niedrigauflösungsbildes, bei dem die Belichtungszeit auf lang eingestellt ist, und der Hochauflösungsbilder, bei denen die Belichtungszeit auf kurz eingestellt ist, kombiniert werden.
  • Genauer gesagt wird das vergrößerte Niedrigauflösungsbild ELR oft in einem Niederfrequenzbereich verwendet, da es lange belichtet wird und ein hohes SN-Verhältnis hat, und das Hochauflösungsbild HRA wird oft in einem Hochfrequenzbereich verwendet, da darin eine hochauflösende Textur verbleibt. So wird eine Frequenztrennung in Bezug auf das Hochauflösungsbild HRA durch einen Hochpassfilter durchgeführt (Schritt S28), und eine Hochfrequenzkomponente des Hochauflösungsbildes HRA, von der die Hochfrequenzkomponente getrennt wird, wird nach der α-Überlagerung zu einem Bild hinzugefügt (Schritt S29), wodurch die Auflösungsverbesserungsverarbeitung durchgeführt wird. Dann wird die Auflösungsumwandlungsverarbeitung weiter durchgeführt und ein Anzeigebild DG erzeugt (Schritt S 16), und das Anzeigebild DG wird in Echtzeit an das Display 25 ausgegeben (Schritt S17).
    In diesem Fall bedeutet Ausgabe in Echtzeit, dass die Ausgabe so erfolgt, dass sie den Bewegungen des Benutzers folgt, so dass eine Anzeige erfolgt, ohne dass der Benutzer ein Gefühl der Fremdheit verspürt.
  • Wie oben beschrieben, ist es gemäß der vorliegenden Ausführungsform möglich, die Bewegungsunschärfe aufgrund der Bewegung des Benutzers und die Informationen einer Übertragungsbilddatenrate aufgrund der Auflösungserhöhung zu kontrollieren und einen effektiven Dynamikbereich der externen Kameras (VST-Kamera 23 in der vorliegenden Ausführungsform) mit einem Dynamikbereich in einem tatsächlichen Gesichtsfeld vergleichbar zu machen.
  • Hier werden die Reihenfolge der Aufnahme des Niedrigauflösungsbildes und der Hochauflösungsbilder sowie ein erzielter Effekt beschrieben.
    9 ist eine Ansicht zur Beschreibung der Aufnahmereihenfolge des Niedrigauflösungsbildes und der Hochauflösungsbilder in der obigen Ausführungsform.
    In der obigen Ausführungsform wird zunächst das Niedrigauflösungsbild LR und dann die drei Hochauflösungsbilder HR1 bis HR3 aufgenommen.
  • So werden die Hochauflösungsbilder HR1 bis HR3, die kombiniert werden sollen, nach dem Niedrigauflösungsbild LR aufgenommen, das schematische Inhalte eines Aufnahmeziels enthält und das eine Grundlage für das Aufnahme-Timing zum Zeitpunkt der Bildkomposition wie der Bewegungskompensation ist.
    Infolgedessen können die Belichtungsbedingungen der Hochauflösungsbilder HR1 bis HR3 leicht an die Belichtungsbedingungen des Niedrigauflösungsbildes LR angepasst werden, und nach der Komposition kann ein Kompositbild mit weniger Unschärfe aufgenommen werden.
  • 10 ist eine Ansicht zur Beschreibung einer anderen Aufnahmereihenfolge eines Niedrigauflösungsbildes und von Hochauflösungsbildern.
    Obwohl die Hochauflösungsbilder HR1 bis HR3 alle fotografiert werden, nachdem das Niedrigauflösungsbild LR in der obigen Ausführungsform fotografiert wurde, wird ein Niedrigauflösungsbild LR fotografiert, nachdem ein Hochauflösungsbild HR1 fotografiert wurde, und dann werden ein Hochauflösungsbild HR2 und ein Hochauflösungsbild HR3 in dem Beispiel von 10 fotografiert.
  • Infolgedessen wird eine Zeitdifferenz zwischen dem Aufnahmezeitpunkt der Hochauflösungsbilder HR1 bis HR3 und dem Aufnahmezeitpunkt des Niedrigauflösungsbildes LR, das die Grundlage für die Bildkomposition bildet, verringert, und der zeitliche Abstand (und der Bewegungsabstand des Motivs), in dem die Bewegungskompensation durchgeführt wird, wird verkürzt, wodurch es möglich wird, ein Kompositbild mit verbesserter Genauigkeit der Bewegungskompensation zu erfassen.
  • Außerdem kann ein ähnlicher Effekt erzielt werden, wenn ein Niedrigauflösungsbild LR aufgenommen wird, nachdem ein Hochauflösungsbild HR1 und ein Hochauflösungsbild HR2 aufgenommen wurden, und dann ein Hochauflösungsbild HR3 anstelle der oben genannten Aufnahmereihenfolge aufgenommen wird.
  • Das heißt, selbst wenn der Bildsensor so gesteuert wird, dass die Bilder HR1 bis HR3, die die zweiten Bilder darstellen, vor und nach der Aufnahme des Niedrigauflösungsbildes LR, das das erste Bild darstellt, aufgenommen werden, kann ein ähnlicher Effekt erzielt werden.
  • Insbesondere in einem Fall, in dem eine Vielzahl von Hochauflösungsbildern aufgenommen wird, kann ein ähnlicher Effekt erzielt werden, wenn die Differenz zwischen der Anzahl der Hochauflösungsbilder, die vor dem Aufnahmezeitpunkt des Niedrigauflösungsbildes LR aufgenommen wurden, und der Anzahl der Hochauflösungsbilder, die nach dem Aufnahmezeitpunkt des Niedrigauflösungsbildes LR aufgenommen wurden, kleiner gemacht wird (vorzugsweise die gleiche Anzahl).
  • 11 ist eine Ansicht zur Beschreibung einer anderen Aufnahmereihenfolge eines Niedrigauflösungsbildes und von Hochauflösungsbildern.
  • In der obigen Ausführungsform werden die Hochauflösungsbilder HR1 bis HR3 alle nach der Aufnahme des Niedrigauflösungsbildes LR fotografiert. Im Beispiel von 11 wird jedoch ein Niedrigauflösungsbild LR aufgenommen, nachdem die Hochauflösungsbilder HR1 bis HR3 aufgenommen wurden, und umgekehrt.
  • Infolgedessen ist es möglich, die Latenz (Verzögerungszeit) in Bezug auf eine Bewegung eines tatsächlichen Motivs des Niedrigauflösungsbildes LR, das die Grundlage der Bildkomposition ist, zu minimieren, und die Art, in der eine Abweichung zwischen einem Anzeigebild durch das Kompositbild und einer Bewegung des tatsächlichen Motivs am kleinsten ist, kann das Bild anzeigen.
  • [6] Modifikationsbeispiel der Ausführungsform
  • Es ist zu beachten, dass eine Ausführungsform der vorliegenden Technologie nicht auf die oben beschriebene Ausführungsform beschränkt ist, und dass verschiedene Änderungen im Rahmen des Geistes und des Anwendungsbereichs der vorliegenden Offenbarung vorgenommen werden können.
  • In der obigen Beschreibung wurde eine Konfiguration gewählt, bei der die drei Hochauflösungsbilder HR1 bis HR3 aufgenommen und mit dem einen Niedrigauflösungsbild LR kombiniert werden. Ein ähnlicher Effekt kann jedoch auch erzielt werden, wenn ein oder vier oder mehr Niedrigauflösungsbilder aufgenommen und mit einem Niedrigauflösungsbild LR kombiniert werden.
  • Außerdem kann die vorliegende Technologie die folgenden Konfigurationen aufweisen.
    • (1) Bildverarbeitungsvorrichtung, die Folgendes aufweist:
      • eine Steuereinheit, die ein Kompositbild erzeugt und das Kompositbild an eine Anzeigevorrichtung ausgibt, wobei das Kompositbild durch Kombination eines ersten Bildes, das in einer ersten Belichtungszeit erfasst wird und eine erste Auflösung hat, und eines zweiten Bildes, das ein Bild ist, das einem Teil eines Bereichs des ersten Bildes entspricht und das in einer zweiten Belichtungszeit erfasst wird, die kürzer als die erste Belichtungszeit ist, und eine zweite Auflösung hat, die höher als die erste Auflösung ist, erfasst wird, wobei das erste Bild und das zweite Bild von einem Bildsensor eingegeben werden.
    • (2) Bildverarbeitungsvorrichtung gemäß (1), wobei die Steuereinheit bei der Erzeugung des Kompositbildes die Verarbeitung der Umwandlung in ein HDR an mindestens einem von dem ersten Bild oder dem zweiten Bild durchführt.
    • (3) Bildverarbeitungsvorrichtung gemäß (1) oder (2), wobei die Steuereinheit an dem zweiten Bild eine Bewegungskompensation auf der Grundlage des Abbildungszeitpunkts des ersten Bildes durchführt.
    • (4) Bildverarbeitungsvorrichtung gemäß einem der Punkte (1) bis (3), wobei die Steuereinheit die Eingabe einer Vielzahl der zweiten Bilder, die dem einen ersten Bild entsprechen, empfängt und ein Kompositbild erzeugt, in dem das erste Bild und die Vielzahl der zweiten Bilder kombiniert werden.
    • (5) Bildverarbeitungsvorrichtung gemäß einem der Punkte (1) bis (4), wobei die Steuereinheit den Bildsensor in einer Weise steuert, dass die Abbildung des ersten Bildes vor der Abbildung des zweiten Bildes durchgeführt wird.
    • (6) Bildverarbeitungsvorrichtung gemäß einem der Punkte (1) bis (4), wobei die Steuereinheit den Bildsensor in einer Weise steuert, dass die Abbildung des zweiten Bildes vor der Abbildung des ersten Bildes erfolgt.
    • (7) Bildverarbeitungsvorrichtung gemäß (4), wobei die Steuereinheit den Bildsensor in einer Weise steuert, dass die Abbildung des zweiten Bildes sowohl vor als auch nach der Abbildung des ersten Bildes durchgeführt wird.
    • (8) Bildverarbeitungsvorrichtung gemäß (2), wobei die Steuereinheit eine Vergrößerungsverarbeitung in einer Weise durchführt, dass die Auflösung des ersten Bildes die zweite Auflösung wird, und das Kompositbild nach der Mittelung einer Vielzahl der zweiten Bilder erzeugt.
    • (9) Bildverarbeitungsvorrichtung gemäß einem der Punkte (1) bis (8), wobei der Bereich ein vorbestimmter Interessenbereich oder ein Interessenbereich ist, der auf der Blickrichtung eines Benutzers basiert.
    • (10) Bildverarbeitungsvorrichtung gemäß einem der Punkte (1) bis (9), wobei die Steuereinheit die Erzeugung des Kompositbildes und dessen Ausgabe an die Anzeigevorrichtung in Echtzeit durchführt.
    • (11) Bildanzeigesystem, das Folgendes aufweist:
      • eine Bildgebungsvorrichtung, die einen Bildsensor enthält und die ein erstes Bild, das in einer ersten Belichtungszeit aufgenommen wurde und eine erste Auflösung hat, und ein zweites Bild ausgibt, das ein Bild ist, das einem Teil eines Bereichs des ersten Bildes entspricht und das in einer zweiten Belichtungszeit aufgenommen wurde, die kürzer als die erste Belichtungszeit ist, und eine zweite Auflösung hat, die höher als die erste Auflösung ist;
      • eine Bildverarbeitungsvorrichtung mit einer Steuereinheit, die ein Kompositbild erzeugt und ausgibt, in dem das erste Bild und das zweite Bild kombiniert sind; und
      • eine Anzeigevorrichtung, die das eingegebene Kompositbild anzeigt.
    • (12) Bildanzeigesystem gemäß (11), wobei die Bildgebungsvorrichtung an einem Benutzer angebracht ist, das Bildanzeigesystem eine Blickrichtungs-Erfassungsvorrichtung enthält, die eine Blickrichtung des Benutzers erfasst, und der Bereich auf einer Grundlage der Blickrichtung festgelegt wird.
    • (13) Verfahren, das von einer Bildverarbeitungsvorrichtung ausgeführt wird, die einen Bildsensor steuert, wobei das Verfahren die folgenden Schritte beinhaltet:
      • Eingeben, von dem Bildsensor, eines ersten Bildes, das in einer ersten Belichtungszeit aufgenommen wurde und eine erste Auflösung hat, und eines zweiten Bildes, das ein Bild ist, das einem Teil eines Bereichs des ersten Bildes entspricht und das in einer zweiten Belichtungszeit aufgenommen wurde, die kürzer ist als die erste Belichtungszeit, und eine zweite Auflösung hat, die höher ist als die erste Auflösung, wobei das erste Bild und das zweite Bild von dem Bildsensor eingegeben werden; und
      • Erzeugen eines Kompositbildes, in dem das erste Bild und das zweite Bild kombiniert sind.
    • (14) Programm, das einen Computer veranlasst, eine Bildverarbeitungsvorrichtung zu steuern, die eine Steuerung eines Bildsensors durchführt, wobei das Programm den Computer veranlasst, als eine Einheit zu funktionieren, in die ein erstes Bild, das in einer ersten Belichtungszeit aufgenommen wurde und eine erste Auflösung hat, und ein zweites Bild, das ein Bild ist, das einem Teil eines Bereichs des ersten Bildes entspricht und das in einer zweiten Belichtungszeit aufgenommen wurde, die kürzer als die erste Belichtungszeit ist, und eine zweite Auflösung hat, die höher als die erste Auflösung ist, vom Bildsensor eingegeben werden, und eine Einheit, die ein Kompositbild erzeugt, in dem das erste Bild und das zweite Bild kombiniert sind.
  • Bezugszeichenliste
  • 10
    VR-HEAD-MOUNTED-DISPLAY-SYSTEM (BILDANZEIGESYSTEM)
    11
    HEAD-MOUNTED DISPLAY (HMD-EINHEIT)
    12
    INFORMATIONSVERARBEITUNGSVORRICHTUNG (PC-EINHEIT)
    21
    IMU
    22
    KAMERA FÜR SLAM
    23
    VST-KAMERA
    23A
    BILDSENSOR
    24
    EYE-TRACKING-KAMERA
    25
    DISPLAY
    31
    SELBSTLOKALISIERUNGSEINHEIT
    32
    INTERESSENBEREICH-BESTIMMUNGSEINHEIT
    33
    ISP
    34
    KOMPENSATIONSEINHEIT
    35
    BILDSPEICHER
    36
    BILDKOMPOSITIONSEINHEIT
    AR
    BEREICH
    ARF
    BEREICH MIT HÖCHSTER AUFLÖSUNG
    CAR
    ZENTRALER GESICHTSFELDBEREICH
    DG
    ANZEIGEBILD
    ELR
    VERGRÖSSERTES NIEDRIGAUFLÖSUNGSBILD
    HR1
    bis HR3, und HRA HOCHAUFLÖSUNGSBILD
    LDA
    BILD DES LINKEN AUGES
    LR
    NIEDRIGAUFLÖSUNGSBILD
    PAR
    PERIPHERE-GESICHTSFELDBEREICH
    RDA
    BILD DES RECHTEN AUGES
    SAR
    EFFEKTIVER GESICHTSFELDBEREICH
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 4334950 [0002]
    • JP 5511205 [0002]

Claims (14)

  1. Bildverarbeitungsvorrichtung, die Folgendes aufweist: eine Steuereinheit, die ein Kompositbild erzeugt und das Kompositbild an eine Anzeigevorrichtung ausgibt, wobei das Kompositbild durch Kombination eines ersten Bildes, das in einer ersten Belichtungszeit erfasst wird und eine erste Auflösung hat, und eines zweiten Bildes, das ein Bild ist, das einem Teil eines Bereichs des ersten Bildes entspricht und das in einer zweiten Belichtungszeit erfasst wird, die kürzer als die erste Belichtungszeit ist, und eine zweite Auflösung hat, die höher als die erste Auflösung ist, erfasst wird, wobei das erste Bild und das zweite Bild von einem Bildsensor eingegeben werden.
  2. Bildverarbeitungsvorrichtung gemäß Anspruch 1, wobei die Steuereinheit bei der Erzeugung des Kompositbildes die Verarbeitung der Umwandlung in ein HDR an mindestens einem von dem ersten Bild oder dem zweiten Bild durchführt.
  3. Bildverarbeitungsvorrichtung gemäß Anspruch 1, wobei die Steuereinheit an dem zweiten Bild eine Bewegungskompensation auf der Grundlage des Abbildungszeitpunkts des ersten Bildes durchführt.
  4. Bildverarbeitungsvorrichtung gemäß Anspruch 1, wobei die Steuereinheit die Eingabe einer Vielzahl der zweiten Bilder, die dem einen ersten Bild entsprechen, empfängt und ein Kompositbild erzeugt, in dem das erste Bild und die Vielzahl der zweiten Bilder kombiniert werden.
  5. Bildverarbeitungsvorrichtung gemäß Anspruch 1, wobei die Steuereinheit den Bildsensor in einer Weise steuert, dass die Abbildung des ersten Bildes vor der Abbildung des zweiten Bildes durchgeführt wird.
  6. Bildverarbeitungsvorrichtung gemäß Anspruch 1, wobei die Steuereinheit den Bildsensor in einer Weise steuert, dass die Abbildung des zweiten Bildes vor der Abbildung des ersten Bildes erfolgt.
  7. Bildverarbeitungsvorrichtung gemäß Anspruch 4, wobei die Steuereinheit den Bildsensor in einer Weise steuert, dass die Abbildung des zweiten Bildes sowohl vor als auch nach der Abbildung des ersten Bildes durchgeführt wird.
  8. Bildverarbeitungsvorrichtung gemäß Anspruch 2, wobei die Steuereinheit eine Vergrößerungsverarbeitung in einer Weise durchführt, dass die Auflösung des ersten Bildes die zweite Auflösung wird, und das Kompositbild nach der Mittelung einer Vielzahl der zweiten Bilder erzeugt.
  9. Bildverarbeitungsvorrichtung gemäß Anspruch 1, wobei der Bereich ein vorbestimmter Interessenbereich oder ein Interessenbereich ist, der auf der Blickrichtung eines Benutzers basiert.
  10. Bildverarbeitungsvorrichtung gemäß Anspruch 1, wobei die Steuereinheit die Erzeugung des Kompositbildes und dessen Ausgabe an die Anzeigevorrichtung in Echtzeit durchführt.
  11. Bildanzeigesystem, das Folgendes aufweist: eine Bildgebungsvorrichtung, die einen Bildsensor enthält und die ein erstes Bild, das in einer ersten Belichtungszeit aufgenommen wurde und eine erste Auflösung hat, und ein zweites Bild ausgibt, das ein Bild ist, das einem Teil eines Bereichs des ersten Bildes entspricht und das in einer zweiten Belichtungszeit aufgenommen wurde, die kürzer als die erste Belichtungszeit ist, und eine zweite Auflösung hat, die höher als die erste Auflösung ist; eine Bildverarbeitungsvorrichtung mit einer Steuereinheit, die ein Kompositbild erzeugt und ausgibt, in dem das erste Bild und das zweite Bild kombiniert sind; und eine Anzeigevorrichtung, die das eingegebene Kompositbild anzeigt.
  12. Bildanzeigesystem gemäß Anspruch 11, wobei die Bildgebungsvorrichtung an einem Benutzer angebracht ist, das Bildanzeigesystem eine Blickrichtungs-Erfassungsvorrichtung enthält, die eine Blickrichtung des Benutzers erfasst, und der Bereich auf einer Grundlage der Blickrichtung festgelegt wird.
  13. Verfahren, das von einer Bildverarbeitungsvorrichtung ausgeführt wird, die einen Bildsensor steuert, wobei das Verfahren die folgenden Schritte beinhaltet: Eingeben, von dem Bildsensor, eines ersten Bildes, das in einer ersten Belichtungszeit aufgenommen wurde und eine erste Auflösung hat, und eines zweiten Bildes, das ein Bild ist, das einem Teil eines Bereichs des ersten Bildes entspricht und das in einer zweiten Belichtungszeit aufgenommen wurde, die kürzer ist als die erste Belichtungszeit, und eine zweite Auflösung hat, die höher ist als die erste Auflösung, wobei das erste Bild und das zweite Bild von dem Bildsensor eingegeben werden; und Erzeugen eines Kompositbildes, in dem das erste Bild und das zweite Bild kombiniert sind.
  14. Programm, das einen Computer veranlasst, eine Bildverarbeitungsvorrichtung zu steuern, die eine Steuerung eines Bildsensors durchführt, wobei das Programm den Computer veranlasst, als eine Einheit zu funktionieren, in die ein erstes Bild, das in einer ersten Belichtungszeit aufgenommen wurde und eine erste Auflösung hat, und ein zweites Bild, das ein Bild ist, das einem Teil eines Bereichs des ersten Bildes entspricht und das in einer zweiten Belichtungszeit aufgenommen wurde, die kürzer als die erste Belichtungszeit ist, und eine zweite Auflösung hat, die höher als die erste Auflösung ist, vom Bildsensor eingegeben werden, und eine Einheit, die ein Kompositbild erzeugt, in dem das erste Bild und das zweite Bild kombiniert sind.
DE112021003347.6T 2020-06-23 2021-06-09 Bildverarbeitungsvorrichtung, bildanzeigesystem, -verfahren und -programm Pending DE112021003347T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020-107901 2020-06-23
JP2020107901 2020-06-23
PCT/JP2021/021875 WO2021261248A1 (ja) 2020-06-23 2021-06-09 画像処理装置、画像表示システム、方法及びプログラム

Publications (1)

Publication Number Publication Date
DE112021003347T5 true DE112021003347T5 (de) 2023-04-20

Family

ID=79282572

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112021003347.6T Pending DE112021003347T5 (de) 2020-06-23 2021-06-09 Bildverarbeitungsvorrichtung, bildanzeigesystem, -verfahren und -programm

Country Status (4)

Country Link
US (1) US20230232103A1 (de)
JP (1) JPWO2021261248A1 (de)
DE (1) DE112021003347T5 (de)
WO (1) WO2021261248A1 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220383512A1 (en) * 2021-05-27 2022-12-01 Varjo Technologies Oy Tracking method for image generation, a computer program product and a computer system
WO2024043438A1 (ko) * 2022-08-24 2024-02-29 삼성전자주식회사 카메라 모듈을 제어하는 웨어러블 전자 장치 및 그 동작 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5511205B2 (de) 1973-03-01 1980-03-24
JP4334950B2 (ja) 2003-09-04 2009-09-30 オリンパス株式会社 固体撮像装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008277896A (ja) * 2007-04-25 2008-11-13 Kyocera Corp 撮像装置および撮像方法
KR101643319B1 (ko) * 2010-01-11 2016-07-27 삼성전자주식회사 하이 다이나믹 레인지 영상을 획득하는 장치 및 그 방법
JP2011254125A (ja) * 2010-05-31 2011-12-15 Sony Corp 画像処理装置、カメラシステム、画像処理方法、およびプログラム
US8665342B2 (en) * 2011-03-03 2014-03-04 King Abddulaziz City For Science And Technology Model-independent generation of an enhanced resolution image from a number of low resolution images
JP5906023B2 (ja) * 2011-04-28 2016-04-20 キヤノン株式会社 撮像装置及びその制御方法
JP6071749B2 (ja) * 2013-05-23 2017-02-01 オリンパス株式会社 撮像装置、顕微鏡システム及び撮像方法
CN105308947B (zh) * 2013-06-13 2018-10-02 核心光电有限公司 双孔径变焦数字摄影机
JP6391383B2 (ja) * 2014-02-10 2018-09-19 キヤノン株式会社 画像処理装置、その制御方法、プログラム及び記憶媒体
JP6453694B2 (ja) * 2015-03-31 2019-01-16 株式会社モルフォ 画像合成装置、画像合成方法、画像合成プログラム及び記録媒体
JP2017069927A (ja) * 2015-10-02 2017-04-06 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
WO2018211673A1 (ja) * 2017-05-18 2018-11-22 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置、画像表示システム、および画像生成方法
KR102318013B1 (ko) * 2017-10-13 2021-10-27 삼성전자 주식회사 복수의 이미지들을 합성하는 전자장치 및 방법
JP2021039444A (ja) * 2019-08-30 2021-03-11 キヤノン株式会社 画像処理装置及びその制御方法及びプログラム
US11792531B2 (en) * 2019-09-27 2023-10-17 Apple Inc. Gaze-based exposure

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5511205B2 (de) 1973-03-01 1980-03-24
JP4334950B2 (ja) 2003-09-04 2009-09-30 オリンパス株式会社 固体撮像装置

Also Published As

Publication number Publication date
US20230232103A1 (en) 2023-07-20
WO2021261248A1 (ja) 2021-12-30
JPWO2021261248A1 (de) 2021-12-30

Similar Documents

Publication Publication Date Title
DE69433556T2 (de) Bildanzeigevorrichtung
DE202018100907U1 (de) Augennahe Anzeige mit erweiterter effektiver Eyebox durch Augenverfolgung
DE69417824T4 (de) Stereoskopischer Abtastapparat
DE69631496T2 (de) Stereoskopisches Fernsehgerät
DE112016002043T5 (de) Durchlaufanzeige von erfassten bildern
DE69221346T2 (de) Vorrichtung und Verfahren zur Erstellung stereoskopischer Bilder
DE60225933T2 (de) Tragbare virtuelle realität
DE112016005343T5 (de) Elektronische Anzeigestabilisierung unter Verwendung von Pixelgeschwindigkeiten
DE102014210059B4 (de) Optische Einrichtung, Steuerungsverfahren für diese und Speichermedium, das ein Steuerungsprogramm für diese speichert
DE112016001524T5 (de) Informationsverarbeitungseinrichtung, Informationsverarbeitungsverfahren und Programm
DE69730565T2 (de) Gerät zur Erzeugung eines stereoskopischen bewegenden Bildes mittels Computergraphik
DE102008034979B4 (de) Verfahren und Einrichtung zur Erzeugung von fehlerreduzierten hochauflösenden und kontrastverbesserten Bildern
EP3103059A1 (de) 3d-bildanalysator zur blickrichtungsbestimmung
DE102019106736A1 (de) Bildanzeigesystem, Bildanzeigeverfahren, Computerprogramm und bewegliches Objekt, das das Bildanzeigesystem beinhaltet
DE112014004212T5 (de) Vorrichtung und Verfahren, Programm und Speichermedium zur Gestenbedienung
DE112021003347T5 (de) Bildverarbeitungsvorrichtung, bildanzeigesystem, -verfahren und -programm
EP1583022A2 (de) Verfahren und Anordnung zur Aufnahme interessierender Bereiche von beweglichen Objekten
DE102011006272A1 (de) Bildverarbeitungsvorrichtung und Verfahren des Steuerns von dieser
DE112012004352B4 (de) Stereobildgebungsvorrichtung
DE112010005737B4 (de) Bildsynthesevorrichtung
DE102014117120A1 (de) Bildverarbeitungsvorrichtung
DE112019001444T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
DE102015110026B4 (de) Bildverarbeitungsvorrichtung, zugehöriges steuerverfahren und speichermedium
DE102018123402A1 (de) Bildunschärfekorrekturvorrichtung und steuerverfahren
DE112020002727T5 (de) Videoverteilsystem, videoverteilverfahren und display-terminal