DE102018115437A1 - Abbildungssteuerungsvorrichtung und Steuerungsverfahren für diese - Google Patents

Abbildungssteuerungsvorrichtung und Steuerungsverfahren für diese Download PDF

Info

Publication number
DE102018115437A1
DE102018115437A1 DE102018115437.2A DE102018115437A DE102018115437A1 DE 102018115437 A1 DE102018115437 A1 DE 102018115437A1 DE 102018115437 A DE102018115437 A DE 102018115437A DE 102018115437 A1 DE102018115437 A1 DE 102018115437A1
Authority
DE
Germany
Prior art keywords
image
unit
control
user operation
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018115437.2A
Other languages
English (en)
Inventor
Shingo Isobe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of DE102018115437A1 publication Critical patent/DE102018115437A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/72Combination of two or more compensation controls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Studio Devices (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Cameras In General (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

Eine Abbildungssteuerungsvorrichtung umfasst: eine Steuerungseinheit, die dazu konfiguriert ist, eine erste Benutzeroperation zu empfangen, und dazu konfiguriert ist: wenn die erste Benutzeroperation nicht empfangen wird, eine Steuerung auszuführen, um ein Bildsignal auszugeben, das auf einer Anzeigeeinheit anzuzeigen ist, wobei das Bildsignal eines ist von: einem ersten Bild entsprechend einem ersten Bereich eines Live-VR-Bildes; und einem zweiten Bild entsprechend einem zweiten Bereich des Live-VR-Bildes, und wenn die erste Benutzeroperation empfangen wird: eine Steuerung auszuführen, um ein Bildsignal auszugeben, das dazu dient, das Bild, das auf der Anzeigeeinheit angezeigt wird, von einem des ersten Bildes und des zweiten Bildes zu dem anderen des ersten Bildes und des zweiten Bildes oder zu sowohl dem ersten Bild als auch dem zweiten Bild zu ändern; und eine Vorbereitungsanweisung zum Ausführen einer Abbildungsvorbereitungsverarbeitung auszugeben.

Description

  • HINTERGRUND DER ERFINDUNG
  • Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft eine Abbildungssteuerungsvorrichtung, ein Steuerungsverfahren für eine elektronische Einrichtung, ein Programm und ein Speichermedium und insbesondere ein Steuerungsverfahren zum Anzeigen eines Bildes mit einem breiten Videobereich.
  • Beschreibung des Standes der Technik
  • In den letzten Jahren wurden Kameras mit einem vorderen und hinteren Paar von integrierten Weitwinkellinsen wie etwa Fischaugenlinsen, um dazu in der Lage zu sein, ein omnidirektionales Abbilden durchzuführen, sowie Inhalte einer virtuellen Realität (VR), die basierend auf Bildern erzeugt werden, die durch diese Kameras aufgenommen werden, weit verbreitet. Kameramodule, die Weitwinkellinsen aufweisen und mit einem Erweiterungsanschluss eines Smartphones verbunden werden können, sind ebenso verfügbar, und durch Verwenden des Kameramoduls in Kombination mit einer Anwendung, die auf dem Smartphone betrieben wird, können omnidirektionale Bilder aufgenommen werden.
  • Um ein Bild während oder nach einem Abbilden durch die Abbildungsvorrichtungen, wie vorstehend beschrieben, zu überprüfen, wird üblicherweise eine zweidimensionale Anzeige, die an der Kamera oder dem Smartphone bereitgestellt ist, verwendet. Bezüglich eines Formats, in dem das Bild auf der Anzeige anzuzeigen ist, können ein omnidirektionales Bildformat, in dem das gesamte omnidirektionale Bild auf der Anzeige angezeigt wird, oder ein Format, bei dem ein Teilbereich von dem omnidirektionalen Bild extrahiert wird und auf der Anzeige angezeigt wird, verwendet werden.
  • Bezüglich des omnidirektionalen Bildformats können ein Kuppel-Master-Format, bei dem ein 360-Grad-Bild auf einen sphärischen Bereich abgebildet wird, ein omnidirektionales Bildformat unter Verwendung einer equirektangularen Projektion, ein sogenanntes Panoramaformat, usw. verwendet werden. Ein Format (nachstehend als Fischaugenformat bezeichnet), bei dem zwei Fischaugenbilder, die entsprechend durch ein vorderes und hinteres Paar von optischen Systemen aufgenommen werden, die in einer Kamera bereitgestellt sind, die dazu in der Lage ist, ein omnidirektionales Abbilden durchzuführen, wie vorstehend beschrieben, angezeigt werden, wie sie sind, kann ebenso verwendet werden.
  • In dem Format, in dem ein Teilbereich von dem omnidirektionalen Bild extrahiert wird und auf der Anzeige angezeigt wird, wird unterdessen üblicherweise ein Teilbereich, der basierend auf einer Richtung extrahiert wird, in der die Anzeige gehalten wird, angezeigt.
  • Die japanische Patentanmeldungsoffenlegungsschrift Nr. 2014-222825 offenbart eine Technik zum Aufnehmen eines Weitwinkelvideos, vorzugsweise zum Extrahieren eines Bereichs, in dem ein beweglicher Körper vorhanden ist, von dem aufgenommenen Video, und Umwandeln eines Seitenverhältnisses eines bevorzugten Bildes in ein Anzeigeseitenverhältnis. Mit der japanischen Patentanmeldungsoffenlegungsschrift Nr. 2014-222825 kann, wenn ein Objekt, das als ein Überwachungsziel dient, ein beweglicher Körper ist, das Überwachungsziel automatisch ausgewählt und fotografiert werden.
  • KURZFASSUNG DER ERFINDUNG
  • Jedoch ist es mit dem Format, in dem ein Teilbereich, der von einem omnidirektionalen Bild extrahiert ist, angezeigt wird, schwierig, das Gesamtbild und einen Teil des Bildes in die Richtung eines toten Winkels des Fotografen zu überprüfen. Um das Gesamtbild und den Teil des Bildes in die Richtung eines toten Winkels des Fotografen zu prüfen, muss der Fotograf einen Anzeigebereich durch Ausrichten der Kamera in jede von mehreren Richtungen oder durch Betätigen eines berührungsempfindlichen Feldes modifizieren, was den Überprüfungsprozess aufwendig macht. Mit dem Format, in dem das gesamte omnidirektionale Bild angezeigt wird, ist es andererseits schwierig, das Bild im Detail zu prüfen, und als ein Ergebnis könnte eine Fotogelegenheit verpasst werden. Außerdem beschreibt die japanische Patentanmeldungsoffenlegungsschrift Nr. 2014-222825 keine Bereichsextrahierung in einem Fall, in dem das Objekt stationär ist, und dennoch befindet sich das Objekt nicht notwendigerweise konstant in Bewegung.
  • Folglich stellt die vorliegende Erfindung eine Technik bereit, die einem Fotografen ermöglicht, ein Bild vorteilhafter zu überprüfen, sodass der Fotograf eine Abbildung bzw. Bildaufnahme zu einem geeigneten Zeitpunkt ausführen kann, ohne eine Gelegenheit für ein Foto zu verpassen.
  • Eine Abbildungssteuerungsvorrichtung gemäß der vorliegenden Erfindung umfasst: eine Steuerungseinheit, die dazu konfiguriert ist, eine erste Benutzeroperation zu empfangen, und dazu konfiguriert ist: in einem Fall, in dem die erste Benutzeroperation nicht empfangen wird, eine Steuerung zum Ausgeben eines Bildsignals, das auf einer Anzeigeeinheit anzuzeigen ist, auszuführen, wobei das Bildsignal eines ist von: einem ersten Bild entsprechend einem ersten Bereich eines Livebildes einer virtuellen Realität (VR), das ein Liveansichtsbild ist, das von einer Abbildungseinheit bzw. Bildgebungseinheit empfangen wird; und einem zweiten Bild entsprechend einem zweiten Bereich des Live-VR-Bildes, das relativ zu dem Live-VR-Bild vergrößert ist, wobei der zweite Bereich ein kleinerer Bereich als der erste Bereich ist, und in einem Fall, in dem die erste Benutzeroperation empfangen wird: eine Steuerung zum Ausgeben eines Bildsignal, das das Bild, das auf der Anzeigeeinheit angezeigt wird, von einem des ersten Bildes und des zweiten Bildes zu dem anderen des ersten Bildes und des zweiten Bildes oder zu sowohl dem ersten Bild als auch dem zweiten Bild ändert, auszuführen; und eine Vorbereitungsanweisung zum Ausführen einer Abbildungsvorbereitungsverarbeitung auszugeben.
  • Gemäß der vorliegenden Erfindung kann ein Fotograf ein Bild vorteilhafter überprüfen und als ein Ergebnis kann der Fotograf ein Abbilden zu einem geeigneten Zeitpunkt ausführen, ohne eine Gelegenheit für ein Foto zu verpassen.
  • Weitere Merkmale der vorliegenden Erfindung werden aus der folgenden Beschreibung von beispielhaften Ausführungsbeispielen mit Bezug auf die anhängigen Zeichnungen ersichtlich.
  • Figurenliste
    • 1A bis 1D sind Ansichten, die die äußere Erscheinung einer Kamera 100 zeigen.
    • 2 ist eine Ansicht, die eine interne Konfiguration der Kamera 100 zeigt.
    • 3 ist ein Ablaufdiagramm, das durch eine Kamerasteuerungseinheit 120 ausgeführt wird.
    • 4 ist ein Ablaufdiagramm einer Anzeige-/Aufzeichnungsverarbeitung, die durch die Kamerasteuerungseinheit 120 ausgeführt wird.
    • 5A bis 5D zeigen Beispiele von Anzeigen auf einer Anzeigeeinheit 141.
    • 6A bis 6C zeigen andere Beispiele von Anzeigen auf der Anzeigeeinheit 141.
    • 7 zeigt ein weiteres Beispiel einer Anzeige auf der Anzeigeeinheit 141.
  • BESCHREIBUNG DER AUSFÜHRUNGSBEISPIELE
  • 1A bis 1D zeigen die äußere Erscheinung einer Kamera 100, die ein Beispiel einer Abbildungssteuerungsvorrichtung ist, auf die die vorliegende Erfindung angewendet werden kann. Die Kamera 100 ist eine digitale Kamera mit einer integrierten Linse. Es sei angemerkt, dass die Kamera 100 eine Spiegelreflexkamera, eine spiegellose SLR-Kamera oder Ähnliches sein kann. Die vorliegende Erfindung ist auf verschiedene Arten von Abbildungsvorrichtungen bzw. Bildgebungsvorrichtungen anwendbar, an die Weitwinkellinsen angebracht werden.
  • 1A zeigt die äußere Erscheinung einer Frontfläche der Kamera 100. Eine Anzeigeeinheit 141 zeigt aufgenommene Bilder und verschiedene Arten von Informationen an. Das Bild, das auf der Anzeigeeinheit 141 angezeigt wird, wird als Reaktion auf eine Abbildungsvorbereitungsanweisung umgeschaltet. Ein berührungsempfindliches Feld 13, das auf einer Anzeigeoberfläche der Anzeigeeinheit 141 bereitgestellt ist, empfängt Berührungsoperationen, die durch einen Fotografen ausgeführt werden. Eine Freigabetaste 11 ist ein Schalter, der halb gedrückt und vollständig gedrückt werden kann. Durch halbes Drücken der Freigabetaste 11 wird eine Abbildungsvorbereitungsanweisung an die Kamera 100 ausgegeben und durch vollständiges Drücken der Freigabetaste 11 wird eine Abbildungsanweisung an die Kamera 100 ausgegeben. Eine Linse 111 ist eine Weitwinkellinse und ein optischer Fluss, der in die Linse 111 eindringt, wird durch eine Abbildungseinrichtung bzw. Bildgebungseinrichtung 112 (in 1A nicht gezeigt) in ein Bild geformt.
  • 1B zeigt die äußere Erscheinung einer Rückseite der Kamera 100. Durch Drücken einer Taste 12 wird eine Abbildungsvorbereitungsanweisung an die Kamera 100 ausgegeben und durch Durchführen einer Operation zum Entfernen eines Fingers oder Ähnlichem, der die Taste 12 drückt, von der Taste 12, wird eine Abbildungsanweisung an die Kamera 100 ausgegeben. Eine Linse 101 ist eine ähnliche Weitwinkellinse wie die Linse 111 und ein optischer Fluss, der in die Linse 101 eindringt, wird durch eine Abbildungseinrichtung bzw. Bildgebungseinrichtung 102 (die in 1B nicht gezeigt) in ein Bild geformt.
  • Ein VR-Bild wird durch die Abbildungseinrichtungen 102, 112 gebildet. Ein VR-Bild ist ein Bild, das bei einer VR-Anzeige verwendet werden kann. VR-Bilder umfassen omnidirektionale Bilder, die durch eine omnidirektionale Kamera aufgenommen werden, Panoramabilder mit einem breiteren Videobereich (effektiver Videobereich) als ein Anzeigebereich, der gleichzeitig durch die Anzeigeeinheit angezeigt werden kann, usw. VR-Bilder umfassen nicht nur statische Bilder, sondern ebenso Bewegtbilder und Liveansichtsbilder (Bilder, die von einer Kamera im Wesentlichen in Echtzeit erhalten werden). Ein VR-Bild besitzt einen maximalen Videobereich (effektiven Videobereich) entsprechend einem Sichtfeld von 360 Grad in einer Oben-Unten-Richtung (ein vertikaler Winkel, ein Winkel von dem Zenit, ein Steigungswinkel, ein Neigungswinkel, eine Höhe) und 360 Grad in einer Links-Rechts-Richtung (ein horizontaler Winkel, ein Azimutwinkel). Weiterhin umfassen VR-Bilder Bilder, die, obwohl sie kleiner als 360 Grad in der Oben-Unten-Richtung oder kleiner als 360 Grad in der Links-Rechts-Richtung sind, einen breiteren Betrachtungswinkel (Sichtfeldbereich) aufweisen als ein Betrachtungswinkel, der durch eine normale Kamera aufgenommen werden kann, oder einen breiteren Videobereich (effektiver Videobereich) als ein Anzeigebereich, der gleichzeitig auf der Anzeigeeinheit angezeigt werden kann. Zum Beispiel ist ein Bild, das durch eine omnidirektionale Kamera aufgenommen wird, die dazu in der Lage ist, ein Objekt in einem Sichtfeldbereich (einem Sichtwinkelbereich) von 360 Grad in der Links-Rechts-Richtung (dem horizontalen Winkel, dem Azimutwinkel) und 210 Grad hinsichtlich eines vertikalen Winkels um den Zenit als Mitte herum zu fotografieren, eine Art eines VR-Bildes. Weiterhin ist zum Beispiel ein Bild, das durch eine Kamera aufgenommen wird, die dazu in der Lage ist, ein Objekt in einem Sichtfeldbereich (einem Sichtwinkelbereich) von 180 Grad in der Links-Rechts-Richtung (dem horizontalen Winkel, dem Azimutwinkel) und 180 Grad hinsichtlich eines vertikalen Winkels um den Zenit als Mitte herum zu fotografieren, eine Art eines VR-Bildes. Mit anderen Worten sind Bilder mit einem Videobereich entsprechend einem Sichtfeld von zumindest 160 Grad (± 80 Grad) in sowohl der Oben-Unten-Richtung als auch der Links-Rechts-Richtung und einem breiteren Videobereich als ein Bereich, der durch einen Menschen gleichzeitig gesehen werden kann, Arten von VR-Bildern. Wenn ein VR-Bild in der VR-Anzeige verwendet wird, kann ein nahtloses omnidirektionales Video in der Links-Rechts-Richtung (einer horizontalen Rotationsrichtung) durch Veränderung der Haltung der Anzeigeeinheit in einer Links-Rechts-Rotationsrichtung betrachtet werden. In der Oben-Unten-Richtung (einer vertikalen Rotationsrichtung) kann ein nahtloses omnidirektionales Video innerhalb eines Bereichs von ± 105 Grad, wenn direkt von oben (dem Zenit) aus gesehen, betrachtet werden, aber ein Bereich, der 105 Grad von direkt oben überschreitet, ist ein leerer Bereich, in dem kein Video existiert. Ein VR-Bild kann ebenso als ein „Bild mit einem Videobereich, der zumindest einen Teil eines virtuellen Raums (VR-Raums) bildet“, bezeichnet werden.
  • Eine VR-Anzeige ist ein Anzeigeverfahren, mit dem ein Anzeigebereich eines VR-Bildes modifiziert werden kann, sodass ein Video mit einem Sichtfeldbereich entsprechend der Haltung der Anzeigeeinheit angezeigt wird. In einem Fall, in dem ein Benutzer ein Video betrachtet, während er eine am Kopf angebrachte Anzeige (HMD, „Head-Mounted Display“), die die Anzeigeeinheit ist, trägt, wird ein Video mit einem Sichtfeldbereich entsprechend der Ausrichtung des Gesichts des Benutzers angezeigt. An einem bestimmten Punkt zum Beispiel wird ein Video eines Teils des VR-Bildes mit einem Sichtfeldwinkel (Sichtwinkel) um 0 Grad herum in der Links-Rechts-Richtung (eine spezifische Haltung bzw. Peilung, zum Beispiel nordwärts) und 90 Grad in der Oben-Unten-Richtung (90° von dem Zenit, das heißt horizontal) angezeigt. Wenn die Haltung der Anzeigeeinheit von diesem Zustand invertiert wird (zum Beispiel, wenn die Anzeigeoberfläche von einer südlichen Ausrichtung zu einer nördlichen Ausrichtung modifiziert wird), wird der Anzeigebereich auf ein Video eines Teils des gleichen VR-Bildes mit einem Sichtwinkel um 180 Grad herum in der Links-Rechts-Richtung (eine entgegengesetzte Peilung, zum Beispiel südwärts) und 90 Grad in der Oben-Unten-Richtung (horizontal) modifiziert. Folglich, wenn der Benutzer ihr/sein Gesicht von einer nördlichen Ausrichtung zu einer südlichen Ausrichtung (mit anderen Worten, wenn sie/er zurückschaut) bewegt, während des Betrachtens der HMD, ändert sich das Video, das auf der HMD angezeigt wird, ähnlich von einem Video des Nordens zu einem Video des Südens. Mit einer VR-Anzeige kann dem Benutzer ein virtuelles Gefühl bereitgestellt werden, als ob er sich an dem Ort des VR-Bildes (dem VR-Raum) befinden würde. Ein Smartphone, das auf einer VR-Brille (einem an dem Kopf anbringbaren Adapter) angebracht ist, kann als eine Art eines HMD betrachtet wird. Der Anzeigebereich kann nicht nur durch eine Haltungsvariation bewegt (gescrollt) werden, sondern ebenso als Reaktion auf eine Benutzeroperation, die auf einem berührungsempfindlichen Feld, einer Richtungstaste oder Ähnlichem durchgeführt wird.
  • 1C zeigt die äußere Erscheinung einer Seitenfläche der Kamera 100. Die Linse 101 und die Linse 111 sind paarweise auf der vorderen und hinteren Seite der Kamera 100 angebracht und die entsprechenden Sichtwinkel der Linse 101 und der Linse 111 sind 180 Grad. Mit anderen Worten wird ein 360-Grad-Sichtwinkel durch die Linse 101 und die Linse 111 erfüllt. Dementsprechend werden Bilder entsprechend 180-Grad-Sichtwinkeln entsprechend durch die Abbildungseinrichtung 102 und die Abbildungseinrichtung 112 aufgenommen. Ein VR-Bild entsprechend einem Sichtwinkel von 360 Grad wird durch die zwei Bilder, die durch die zwei Abbildungseinrichtungen 102, 112 aufgenommen werden, gebildet.
  • 1D zeigt ein Beispiel eines Bildschirms, der auf der Anzeigeeinheit 141 angezeigt wird. Hier wird ein Fischaugenbild, das durch die Abbildungseinrichtung 102 oder die Abbildungseinrichtung 112 aufgenommen wird, angezeigt. Eine Taste des berührungsempfindlichen Feldes bzw. Berührungsfeldtaste 14 wird ebenso angezeigt. Die Taste des berührungsempfindlichen Feldes 14 ist ein Element, das verwendet wird, um eine Abbildungsvorbereitungsanweisung und eine Abbildungsanweisung auszugeben. Genauer ist die Taste eines berührungsempfindlichen Feldes 14 konfiguriert, sodass eine Abbildungsvorbereitungsanweisung an die Kamera 100 ausgegeben wird, durch Durchführen einer Berührungsoperation, um eine Position auf dem berührungsempfindlichen Feld 13 entsprechend der Taste des berührungsempfindlichen Feldes 14 zu berühren. Eine Abbildungsanweisung wird dann an die Kamera 100 durch Durchführen einer Operation zum Freigeben eines Fingers oder eines Stiftes, der die Taste des berührungsempfindlichen Feldes 14 berührt, von der Taste des berührungsempfindlichen Feldes 14 (des berührungsempfindlichen Feldes 13) ausgegeben. Weiterhin, durch Durchführen einer Berührungsoperation zum Berühren einer Position innerhalb des angezeigten Fischaugenbildes oder, genauer, einer Position auf dem berührungsempfindlichen Feld entsprechend dieser Position, wird eine Anzeigebereichsauswahlanweisung während eines Ausgebens einer Abbildungsvorbereitungsanweisung ausgegeben.
  • Es sei angemerkt, dass die Anzeigeeinheit 141 eine von der Kamera 100 getrennte Vorrichtung sein kann. Zum Beispiel kann die Anzeigeeinheit 141 an einem Smartphone oder Ähnlichem, das separat zu der Kamera 100 bereitgestellt ist, bereitgestellt sein. Weiterhin können Benutzeroperationen zum Ausgeben einer Abbildungsvorbereitungsanweisung und einer Abbildungsanweisung auf einer zu der Kamera 100 separaten Vorrichtung durchgeführt werden. Zum Beispiel können die Benutzeroperationen auf einem Smartphone, das separat zu der Kamera 100 bereitgestellt ist, durchgeführt werden und das Smartphone könnte die Anweisungen entsprechend den Benutzeroperationen an die Kamera 100 ausgeben.
  • 2 zeigt eine interne Konfiguration der Kamera 100. Es sei angemerkt, dass obwohl 2 entsprechende Funktionen als separate Bestandteile zeigt, die entsprechenden Funktionen durch eines oder eine Vielzahl von Elementen von Hardware wie etwa einer ASIC oder einem programmierbaren Logikfeld (PLA, „programmable logic array“) realisiert werden können. Die entsprechenden Funktionen können ebenso durch einen programmierbaren Prozessor, wie etwa eine CPU oder eine MPU, die Software ausführen, realisiert werden.
  • Die Linse 101 ist eine einzelne Fokuslinse mit einem Blendenmechanismus und ein Tiefenfokus wird als eine Fokuslage der Linse 101 verwendet.
  • Die Abbildungseinrichtung 102 wird durch ein zweidimensionales Feld einer Vielzahl von Pixeln inklusive fotoelektrischen Umwandlungselementen gebildet. Die Abbildungseinrichtung 102 erzeugt ein analoges Signal dadurch, dass ein Objektbild (ein optisches Bild), das durch ein optisches Abbildungssystem inklusive der Linse 101 gebildet wird, einer fotoelektrischen Umwandlung unterzogen wird, oder mit anderen Worten wandelt ein Abbilden in jedem Pixel das analoge Signal unter Verwendung einer A/D-Umwandlungsschaltung in ein digitales Signal um und gibt RAW-Bilddaten in einer Pixeleinheit aus.
  • Eine Speicherschnittstelleneinheit 106 schreibt die RAW-Bilddaten für alle der Pixel, die von der Abbildungseinrichtung 102 ausgegeben werden, in einen Speicher 107. Weiterhin liest die Speicherschnittstelleneinheit 106 die RAW-Bilddaten, die in dem Speicher 107 gehalten werden, und gibt die gelesenen Daten an eine Bildverarbeitungseinheit 108 aus. Der Speicher 107 ist ein flüchtiges Speichermedium zum Speichern von RAW-Bilddaten für alle Pixel entsprechend mehreren Rahmen.
  • Die Bildverarbeitungseinheit 108 implementiert eine Verarbeitung wie etwa eine Gammakorrektur, Farbtrennung und Farbdifferenzmatrizierung bezüglich der RAW-Bilddaten von allen Pixeln von der Speicherschnittstelleneinheit 106, addiert ein Synchronisationssignal dazu und gibt Videodaten zum Aufzeichnen oder zur Anzeige aus. Weiterhin erhält die Bildverarbeitungseinheit 108 einen Fotometriewert von einem Luminanzwert von jedem Pixel in den RAW-Bilddaten, die in die Bildverarbeitungseinheit 108 eingegeben werden, und stellt die Fotometriewerte einer Kamerasteuerungseinheit 120 über einen Bus 121 bereit.
  • Die Linse 111, die Abbildungseinrichtung 112, eine Speicherschnittstelleneinheit 116, ein Speicher 117 und eine Bildverarbeitungseinheit 118 weisen ähnliche Funktionen wie die Linse 101, die Abbildungseinrichtung 102, die Speicherschnittstelleneinheit 106, der Speicher 107 und die Bildverarbeitungseinheit 108 auf. Die Linse 111, die Abbildungseinrichtung 112, die Speicherschnittstelleneinheit 116, der Speicher 117 und die Bildverarbeitungseinheit 118 führen entsprechend eine ähnliche Verarbeitung wie die Linse 101, die Abbildungseinrichtung 102, die Speicherschnittstelleneinheit 106, der Speicher 107 und die Bildverarbeitungseinheit 108 aus.
  • Die Kamerasteuerungseinheit 120 wird durch eine CPU usw. gebildet und steuert eine Gesamtoperation der Kamera 100. Ein RAM 160 wird als ein Arbeitsbereich (ein Arbeitsspeicher) der Kamerasteuerungseinheit 120 verwendet. Konstanten und Variablen, die zum Betreiben der Kamerasteuerungseinheit 120 verwendet werden, werden in dem RAM 160 aufgezeichnet, und Programme usw. werden auf diesem expandiert. Ein ROM 180 speichert ein Computerprogramm usw. zum Betreiben der Kamerasteuerungseinheit 120. Zum Beispiel steuert die Kamerasteuerungseinheit 120 die Gesamtoperation der Kamera 100 durch Expandieren und Ausführen des Computerprogrammes, das in dem ROM 180 gespeichert ist, auf dem RAM 160.
  • Eine Verstärkungssteuerungseinheit 103, eine Verschlusssteuerungseinheit 104 und eine Blendensteuerungseinheit 105 werden in einer Belichtungssteuerung verwendet. Die Kamerasteuerungseinheit 120 steuert diese Steuerungseinheiten 103 bis 105 basierend auf den Fotometriewerten, die durch die Bildverarbeitungseinheit 108 und die Bildverarbeitungseinheit 118 bereitgestellt werden, oder Betriebsparametern, die manuell durch den Benutzer eingestellt werden. Die Verstärkungssteuerungseinheit 103 steuert entsprechende Verstärkungen der Abbildungseinrichtung 102 und der Abbildungseinrichtung 112. Die Verschlusssteuerungseinheit 104 steuert entsprechende Verschlusszeiten der Abbildungseinrichtung 102 und der Abbildungseinrichtung 112. Die Blendensteuerungseinheit 105 steuert den Blendenmechanismus der Linse 102 und den Blendenmechanismus der Linse 111.
  • Eine Speichermediumschnittstelleneinheit 130 ist eine Schnittstelle zum Verbinden eines Speichermediums 131 mit der Kamera 100. Die Speichermediumschnittstelleneinheit 130 zeichnet Videodaten, die in diese von der Bildverarbeitungseinheit 108, der Bildverarbeitungseinheit 118 und einer GPU 142 eingegeben werden, in dem Speichermedium 131 auf und liest die aufgezeichneten Videodaten von dem Speichermedium 131 aus. Das Speichermedium 131 wird durch einen Halbleiterspeicher oder Ähnliches gebildet.
  • Eine Anzeigenschnittstelleneinheit 140 gibt die Videodaten von der Bildverarbeitungseinheit 108 und der Bildverarbeitungseinheit 118 und Bilddaten, die in einem Video-RAM (VRAM) 143 durch die GPU 142 gerendert werden, an eine Anzeigeeinheit 141 aus. Bilder, die auf der Anzeigeeinheit 141 angezeigt werden, werden hauptsächlich verwendet, um Bilder, die durch einen Fotografen aufgenommen werden, zu überprüfen.
  • Die GPU 142 ist eine Renderingmaschine zum Ausführen einer Bildumwandlungsverarbeitung, einer Bildextrahierungsverarbeitung, einer Vergrößerungsverarbeitung, einer Verzerrungskorrektur und Ähnlichem bezüglich der Videodaten, die von der Bildverarbeitungseinheit 108 und der Bildverarbeitungseinheit 118 ausgegeben werden, basierend auf einer Anweisung von der Kamerasteuerungseinheit 120, um die Videodaten in dem VRAM 143 zu rendern. Die GPU 142 führt ebenso eine Verarbeitung zum Rendern, auf eine übergelagerte Weise, von verschiedenen Arten von angezeigten Informationen bezüglich der Kamera 100 und eines Menübildschirms in dem VRAM 143 aus. Die vorstehend beschriebene Berührungsfeldtaste 14 wird durch die GPU 142 als eine grafische Benutzerschnittstelle (GUI) gerendert und auf der Anzeigeeinheit 141 über die Anzeigeschnittstelleneinheit 140 angezeigt.
  • Eine Kommunikationsschnittstelleneinheit 150 verbindet sich mit einem Smartphone, einem PC oder Ähnlichem, die in der Figur nicht gezeigt sind, auf der Außenseite der Kamera 100 über eine Kommunikationseinheit 151, um die Bilddaten, die auf der Anzeigeeinheit 141 angezeigt werden, an diese zu übertragen. Weiterhin empfängt die Kommunikationsschnittstelleneinheit 150 Steuerungsanweisungen und Ähnliches, die bezüglich der Kamera 100 durch das Smartphone, den PC oder Ähnliches ausgegeben werden, und informiert die Kammersteuerungseinheit 120 über diese. Die Kommunikationseinheit 151 ist eine drahtlose LAN-Schnittstelle, die eine drahtlose Kommunikation durchführt, und führt eine Hardwareverarbeitung bezüglich der Kommunikation, die durch die Kommunikationsschnittstelleneinheit 150 durchgeführt wird, aus.
  • Die Freigabetaste 11, die Taste 12 und das berührungsempfindliche Feld 13 weisen die vorstehend beschriebenen Funktionen auf und geben Operationsinformationen (eine Abbildungsvorbereitungsanweisung, eine Abbildungsanweisung, eine Anzeigebereichsauswahlanweisung, usw.) entsprechend einer Operation an eine Eingabe-/Ausgabe-Steuerung 170 aus. Die Eingabe-/Ausgabe-Steuerung 170 gibt die Operationsinformationen von den entsprechenden Operationseinheiten an die Kamerasteuerungseinheit 120 aus und die Kamerasteuerungseinheit 120 führt eine Verarbeitung entsprechend den Operationsinformationen von der Eingabe-/Ausgabe-Steuerung 170 aus. Zum Beispiel ist das berührungsempfindliche Feld 13 auf die Anzeigeeinheit 141 laminiert, um Operationsinformationen inklusive Koordinateninformationen, die eine Position oder einen Bereich einer Berührungsoperation usw. angeben, auszugeben.
  • 3 ist ein Ablaufdiagramm, das eine Gesamtverarbeitung zeigt, die durch die Kamera 100 ausgeführt wird. Die Verarbeitung auf dem Ablaufdiagramm wird durch die Kamerasteuerungseinheit 120 durch Expandieren und Ausführen des Programms, das in dem ROM 180 aufgezeichnet ist, auf dem RAM 170 realisiert. Das in 3 gezeigte Ablaufdiagramm wird gestartet, wenn zum Beispiel eine Leistungszufuhr in die Kamera 100 eingeführt wird, und eine Verarbeitung von S320 bis S370 wird bei einer vorbestimmten Rahmenrate (in vorbestimmten Perioden) wiederholt ausgeführt.
  • In S301 führt die Kamerasteuerungseinheit 120 eine Koordinatenkalibrierung auf der Anzeigeeinheit 141 und dem berührungsempfindlichen Feld 13 aus (Berührungsfeldinitialisierung). Auf diese Weise werden Koordinaten auf dem berührungsempfindlichen Feld 13 und Koordinaten auf einem Bild, das auf der Anzeigeeinheit 141 angezeigt wird, aneinander angepasst, und als ein Ergebnis können Berührungsoperationen, die auf der Berührungsfeldtaste 14 durchgeführt werden, Berührungsoperationen, die auf einem aufgenommenen Bild durchgeführt werden, usw. erfasst werden.
  • In S302 stellt die Kamerasteuerungseinheit 120 einen Blendenwert in der Blendensteuerungseinheit 105 ein (Blendeneinstellung). In einer ersten Blendeneinstellungsoperation stellt die Kamerasteuerungseinheit 120 einen offenen Blendenwert in der Blendensteuerungseinheit 105 als einen Anfangswert des Blendenwerts ein. Von einer zweiten Blendeneinstellungsoperation fortschreitend stellt die Kamerasteuerungseinheit 120 einen Blendenwert ein, der während einer Belichtungseinstellungsverarbeitung von S306 in der Blendensteuerungseinheit 105 bestimmt wird.
  • In S303 stellt die Kamerasteuerungseinheit 120 eine Verstärkung in der Verstärkungssteuerungseinheit 103 ein (Verstärkungseinstellung). In einer ersten Verstärkungseinstellungsoperation stellt die Kamerasteuerungseinheit 120 0 dB in der Verstärkungssteuerungseinheit 103 als einen Anfangswert der Verstärkung ein. Von einer zweiten Verstärkungseinstellungsoperation fortschreitend stellt die Kamerasteuerungseinheit 120 eine Verstärkung, die während der Belichtungseinstellungsverarbeitung von S306 bestimmt wird, in der Verstärkungssteuerungseinheit 103 ein.
  • In S304 stellt die Kamerasteuerungseinheit 120 eine Verschlusszeit in der Verschlusssteuerungseinheit 104 ein (Verschlusseinstellung). In einer ersten Verschlusseinstellungsoperation stellt die Kamerasteuerungseinheit 120 1/60 Sekunden in der Verschlusssteuerungseinheit 104 als einen Anfangswert der Verschlusszeit ein. Von einer zweiten Verschlusseinstellungsoperation fortschreitend stellt die Kamerasteuerungseinheit 120 eine Verschlusszeit, die während der Belichtungseinstellungsoperation von S306 bestimmt wird, in der Verschlusssteuerungseinheit 104 ein.
  • In S305 führt die Kamerasteuerungseinheit 120 eine Abbildungs-/ Leseverarbeitung zum Zwecke einer Liveansichtabbildung aus. Genauer führt die Blendensteuerungseinheit 105 eine Verarbeitung zum Steuern der entsprechenden Blendenmechanismen der Linsen 101, 111 basierend auf dem Blendenwert, der in S302 eingestellt wird, als Reaktion auf eine Anweisung von der Kamerasteuerungseinheit 120 aus. Die Verstärkungssteuerungseinheit 103 führt eine Verarbeitung zum Steuern der entsprechenden Verstärkungen der Abbildungseinrichtungen 102, 112 basierend auf der Verstärkung, die in S303 eingestellt wird, als Reaktion auf eine Anweisung von der Kamerasteuerungseinheit 120 aus. Die Verschlusssteuerungseinheit 104 führt eine Verarbeitung zum Steuern der entsprechenden Verschlusszeiten der Abbildungseinrichtungen 102, 112 basierend auf der Verschlusszeit, die in S304 eingestellt wird, als Reaktion auf eine Anweisung von der Kamerasteuerungseinheit 120 aus. Die Abbildungseinrichtungen 102, 112 führen dann ein Abbilden basierend auf den Werten, die in S302 bis S304 eingestellt sind, als Reaktion auf eine Anweisung von der Kamerasteuerungseinheit 120 aus. Als Nächstes führt die Speicherschnittstelleneinheit 106 eine Verarbeitung zum Aufzeichnen eines Bildes (eines RAW-Bildes), das durch die Abbildungseinrichtung 102 aufgenommen wird, in dem Speicher 107 und zum Ausgeben des Bildes an die Bildverarbeitungseinheit 108 als Reaktion auf eine Anweisung von der Kamerasteuerungseinheit 120 aus. Ähnlich führt die Speicherschnittstelleneinheit 116 eine Verarbeitung zum Aufzeichnen eines Bildes (eines RAW-Bildes), das durch die Abbildungseinrichtung 112 aufgenommen wird, in dem Speicher 117 und Ausgeben des Bildes an die Bildverarbeitungseinheit 118 als Reaktion auf eine Anweisung von der Kamerasteuerungseinheit 120 aus.
  • In S306 bestimmt die Kamerasteuerungseinheit 120, ob die Belichtung der Bilder, die in S305 aufgenommen werden, angemessen ist oder nicht, und bestimmt Belichtungswerte (den Blendenwert, die Verstärkung und die Verschlusszeit) für die nächste Abbildungsoperation (Belichtungseinstellungsverarbeitung). Genauer erhält die Kamerasteuerungseinheit 120 Fotometriewerte, die basierend auf den Bildern, die in S305 aufgenommen werden, von den Bildverarbeitungseinheiten 108, 118 beschafft werden, und berechnet einen Belichtungsevaluierungswert basierend auf den erhaltenen Fotometriewerten. Die Kamerasteuerungseinheit 120 vergleicht dann den berechneten Belichtungsevaluierungswert mit einem Belichtungssollwert, der im Voraus bestimmt ist, und bestimmt, ob die Belichtung der aufgenommenen Bilder angemessen ist oder nicht. Wenn die Belichtung nicht angemessen ist, bestimmt die Kamerasteuerungseinheit 120 die Belichtungswerte der nächsten Abbildungsoperation, sodass Bilder näher an einer optimalen Belichtung aufgenommen werden.
  • In S307 führt die Kamerasteuerungseinheit 120 eine Anzeige-/ Aufzeichnungsverarbeitung durch. 4 ist ein Ablaufdiagramm, das die Anzeige-/ Aufzeichnungsverarbeitung zeigt.
  • In S401 erhält die Kamerasteuerungseinheit 120 einen Operationszustand der Freigabetaste 11 und zeichnet den erhaltenen Operationszustand in dem RAM 160 auf. Der RAM 160 speichert Operationszustände der Freigabetaste 11 entsprechend zumindest zwei Perioden in der Form von Felddaten. Auf diese Weise kann eine Variation in dem Operationszustand der Freigabetaste 11 erfasst werden. Der Operationszustand der Freigabetaste 11 umfasst drei Zustände, und zwar einen nicht gedrückten Zustand, in dem die Freigabetaste 11 nicht gedrückt ist, einen halb gedrückten Zustand, in dem die Freigabetaste 11 halb gedrückt ist, und einen vollständig gedrückten Zustand, in dem die Freigabetaste 11 vollständig gedrückt ist. Die Kamerasteuerungseinheit 120 aktualisiert die Felddaten bezüglich der Freigabetaste 11 jedes Mal, wenn S401 ausgeführt wird.
  • In S402 erhält die Kamerasteuerungseinheit 120 einen Operationszustand der Berührungsfeldtaste 14 und zeichnet den erhaltenen Operationszustand in dem RAM 160 auf. Der RAM 160 speichert Operationszustände der Berührungsfeldtaste 14 entsprechend zumindest zwei Perioden in der Form von Felddaten. Auf diese Weise kann eine Variation in dem Operationszustand der Berührungsfeldtaste 14 erfasst werden. Der Operationszustand der Berührungsfeldtaste 14 umfasst zwei Zustände, und zwar einen berührten Zustand, in dem die Berührungsfeldtaste 14 berührt wird, und einen nicht berührten Zustand, in dem die Berührungsfeldtaste 14 nicht berührt wird. Die Kamerasteuerungseinheit 120 aktualisiert die Felddaten bezüglich der Berührungsfeldtaste 14 jedes Mal, wenn S402 ausgeführt wird.
  • In S403 erhält die Kamerasteuerungseinheit 120 einen Operationszustand der Taste 12 und zeichnet den erhaltenen Operationszustand in dem RAM 160 auf. Der RAM 160 speichert Operationszustände der Taste 12 entsprechend zumindest zwei Perioden in der Form von Felddaten. Auf diese Weise kann eine Variation in dem Operationszustand der Taste 12 erfasst werden. Der Operationszustand der Taste 12 umfasst zwei Zustände, und zwar einen gedrückten Zustand, in dem die Taste 12 gedrückt ist, und einen nicht gedrückten Zustand, in dem die Taste 12 nicht gedrückt ist. Die Kamerasteuerungseinheit 120 aktualisiert die Felddaten bezüglich der Taste 12 jedes Mal, wenn S403 ausgeführt wird.
  • In S404 bestimmt die Kamerasteuerungseinheit 120, ob eine Abbildungsvorbereitungsanweisung ausgegeben wurde oder nicht, basierend auf den Operationszuständen, die in S401 bis S403 erhalten werden. Genauer, wenn der Operationszustand der Freigabetaste 11 der halbgedrückte Zustand ist, bestimmt die Kamerasteuerungseinheit 120, dass eine Abbildungsvorbereitungsanweisung ausgegeben wurde, und setzt die Verarbeitung bei S406 fort. Ähnlich, wenn der Operationszustand der Berührungsfeldtaste 14 der berührte Zustand ist oder der Operationszustand der Taste 12 der gedrückte Zustand ist, bestimmt die Kamerasteuerungseinheit 120, dass eine Bildvorbereitungsanweisung ausgegeben wurde, und setzt die Verarbeitung bei S406 fort. Das vorstehend beschriebene Verfahren für die Abbildungsvorbereitungsanweisung ist nur ein Beispiel und die Abbildungsvorbereitungsanweisung kann unter Verwendung von nur einem Operationselement ausgegeben werden, oder die Abbildungsvorbereitungsanweisung kann unter Verwendung eines anderen Operationselements ausgegeben werden.
  • In allen anderen Fällen bestimmt die Kamerasteuerungseinheit 120, dass eine Abbildungsvorbereitungsanweisung nicht ausgegeben wurde, und setzt die Verarbeitung bei S405 fort.
  • In S405 bestimmt die Kamerasteuerungseinheit 120, ob eine Abbildungsanweisung ausgegeben wurde oder nicht, basierend auf den Operationszuständen, die in S401 bis S403 erhalten wurden. Genauer, wenn der Operationszustand der Freigabetaste 11 sich von dem halb gedrückten Zustand zu dem gedrückten Zustand versetzt hat, bestimmt die Kamerasteuerungseinheit 120, dass eine Abbildungsanweisung ausgegeben wurde, und setzt die Verarbeitung bei S407 fort. Ähnlich, wenn der Operationszustand der Berührungsfeldtaste 14 von dem berührten Zustand in den nicht berührten Zustand versetzt wurde oder der Operationszustand der Taste 12 von dem gedrückten Zustand zu dem nicht gedrückten Zustand versetzt wurde, bestimmt die Kamerasteuerungseinheit 120, dass eine Abbildungsanweisung ausgegeben wurde, und setzt die Verarbeitung bei S407 fort. Das vorstehend beschriebene Verfahren für die Abbildungsanweisung ist nur ein Beispiel und die Abbildungsanweisung kann unter Verwendung von nur einem Operationselement ausgegeben werden oder die Abbildungsanweisung kann unter Verwendung von einem anderen Operationselement ausgegeben werden. In allen anderen Fällen bestimmt die Kamerasteuerungseinheit 120, dass weder eine Abbildungsanweisung noch eine Abbildungsvorbereitungsanweisung ausgegeben wurde, und setzt die Verarbeitung bei S408 fort.
  • In S406 führt die Kamerasteuerungseinheit 120 eine Zoomansichtverarbeitung aus und gibt eine Abbildungsvorbereitungsanweisung aus (eine Anweisung zum Ausführen einer Abbildungsvorbereitungsverarbeitung). Als Reaktion auf die Abbildungsvorbereitungsanweisung wird zumindest einer der folgenden Prozesse ausgeführt: eine Autofokusverarbeitung (AF-Verarbeitung); eine Blendenanpassung durch die Blendensteuerungseinheit 105, die der Belichtungseinstellung (automatische Belichtungseinstellung) entspricht; eine Belichtungszeiteinstellung (Verschlusszeiteinstellung) durch die Verschlusssteuerungseinheit, die während der Abbildung in S407 ausgeführt wird; ein Weißabgleich; und eine Verstärkungsanpassung durch die Verstärkungssteuerungseinheit 103. Mit anderen Worten ist die Abbildungsvorbereitungsanweisung eine Anweisung zum Ausführen von zumindest einem der vorstehenden Prozesse. Die Kamerasteuerungseinheit 120 beendet dann die Anzeige-/Aufzeichnungsverarbeitung. Während der Zoomansichtverarbeitung steuert die Kamerasteuerungseinheit 120 die Verarbeitung der GPU 142 usw., sodass ein Zoomansichtbild, das durch Transformieren eines Teils des Bereiches des VR-Bildes erhalten wird, das durch die Abbildungseinrichtungen 102, 112 aufgenommen wird, sodass der entsprechende Teil vergrößert wird, in dem VRAM 143 gerendert und auf der Anzeigeeinheit 141 angezeigt wird. Ein Zoomansichtbild ist eine Art eines Liveansichtbildes, das sequentiell aktualisiert wird. Ein Beispiel eines Zoomansichtbildes wird nachstehend unter Verwendung von 5D beschrieben.
  • In S407 führt die Kamerasteuerungseinheit 120 eine Aufzeichnungsverarbeitung aus. Die Kamerasteuerungseinheit 120 beendet dann die in 4 gezeigte Verarbeitung. In der Aufzeichnungsverarbeitung führt die Kamerasteuerungseinheit 120 eine Steuerung zum Aufzeichnen des aufgenommenen VR-Bildes in dem Speichermedium 131 aus. Die Aufzeichnungsverarbeitung kann ebenso als ein Abbilden bezeichnet werden. Wenn eine Bewegtbildaufzeichnungsbetriebsart eingestellt ist, führt die Kamerasteuerungseinheit 120 eine Aufzeichnungsverarbeitung zum Starten eines Aufzeichnens des Bewegtbildes (eines VR-Bewegtbildes oder Ähnlichem) aus. Wenn ein Liveansichtbild aufgenommen wird, ist die Zeit, die für eine einzelne Abbildungsoperation aufgewendet werden kann, begrenzt, und deshalb könnte der Belichtungswert kleiner sein als der Belichtungswert, der während der Belichtungseinstellungsverarbeitung eingestellt ist. Weiterhin könnte ein Aufnehmen bei einer vergleichsweise niedrigen Auflösung (Pixelzahl) durchgeführt werden, wenn ein Liveansichtbild aufgenommen wird. Während der Aufzeichnungsverarbeitung wird ein Aufnehmen bei dem Belichtungswert, der während der Belichtungseinstellungsverarbeitung eingestellt wird, und einer höheren Auflösung als der Auflösung, die zum Aufnehmen eines Liveansichtbildes verwendet wird, durchgeführt. Genauer, nachdem das Zoomansichtbild, das in S406 angezeigt wird, überprüft wurde, wird eine Abbildungsanweisung ausgegeben, woraufhin die Aufzeichnungsverarbeitung von S407 ausgeführt wird.
  • In S408 führt die Kamerasteuerungseinheit 120 eine Weitwinkelansichtverarbeitung aus. Während der Weitwinkelansichtverarbeitung steuert die Kamerasteuerungseinheit 120 die Verarbeitung der GPU 142 usw., sodass ein Weitwinkelansichtbild, das durch zumindest einen Teil des Bereichs des aufgenommenen VR-Bildes gebildet ist, in dem VRAM 143 gerendert und auf der Anzeigeeinheit 141 angezeigt wird. Ein Weitwinkelansichtbild ist eine Art eines Liveansichtbildes. Ein Beispiel einer Weitwinkelansichtanzeige wird nachstehend unter Verwendung von 5A und 5B beschrieben. Der Bereich eines Zoomansichtbildes ist enger oder kleiner als der Bereich eines Weitwinkelansichtbildes. Mit anderen Worten zeigt ein Zoomansichtbild einen Abschnitt des Weitwinkelansichtbildes an, der vergrößert wurde und einer Verzerrungskorrektur oder Transformation (Deformation) unterzogen wurde. In S409 stellt die Kamerasteuerungseinheit 120 den Bereich des Zoomansichtbildes als Reaktion auf die Anzeigebereichauswahlanweisung, die durch das berührungsempfindliche Feld 13 angewiesen werden kann, ein. Die Kamerasteuerungseinheit 120 beendet dann die Anzeige-/ Aufzeichnungsverarbeitung.
  • 5A bis 5D zeigen Beispiele von Anzeigen entsprechend diesem Ausführungsbeispiel. Wenn eine Benutzeroperation zum Ausgeben einer Abbildungsvorbereitungsanweisung oder einer Abbildungsanweisung nicht durchgeführt wurde, wird vorzugsweise ein Weitwinkelbild angezeigt, sodass der Fotograf einen breiten Bereich auf der Peripherie von diesen überprüfen kann. Gemäß diesem Ausführungsbeispiel wird in diesem Fall ein Fischaugenbild 501, das in 5A gezeigt ist, das durch die Abbildungseinrichtung 102 aufgenommen wird, oder ein Fischaugenbild 503, das in 5B gezeigt ist, das durch die Abbildungseinrichtung 112 aufgenommen wird, als ein Weitwinkelansichtbild als Reaktion auf die Weitwinkelansichtverarbeitung von S408 angezeigt.
  • Ein Objekt 502 ist in dem Fischaugenbild 501 von 5A aufgenommen. Wenn der Fotograf die Umgebung des Objekts 502 berührt, gibt das berührungsempfindliche Feld 13 Koordinateninformationen entsprechend der berührten Position an die Kamerasteuerungseinheit 120 aus. Basierend auf den Koordinateninformationen von dem berührungsempfindlichen Feld 13 erkennt die Kamerasteuerungseinheit 120 einen Bereich 504 (5C), der die berührte Position enthält, als einen Bereich eines Zoomansichtbildes. Wie in 5C gezeigt ist, ist der Bereich 504 ein Bereich, der sich radial von einer Position innerhalb eines VR-Bildes entsprechend einer optischen Achse der Linse 101, oder, mit anderen Worten, einer zentralen Position des Fischaugenbildes 501 erstreckt.
  • Wenn eine Benutzeroperation zum Ausgeben einer Abbildungsvorbereitungsanweisung von dem in 5C gezeigten Zustand durch die Zoomverarbeitung von S406 durchgeführt wird, wird die Anzeige auf der Anzeigeeinheit 141 von der Anzeige des Fischaugenbildes 501 zu der Anzeige eines Zoomansichtbildes 505, das durch Transformieren (Deformieren) und Vergrößern des Bereichs 504 erhalten wird, umgeschaltet. Genauer erzeugt die GPU 142 das Zoomansichtbild 505 als Reaktion auf eine Anweisung von der Kamerasteuerungseinheit 120 durch Extrahieren des Bereichs 504 von dem Fischaugenbild 501 und Implementieren einer Vergrößerungsverarbeitung und einer Verzerrungskorrektur bezüglich des Bildes des Bereichs 504 und rendert das erzeugte Zoomansichtbild 505 in dem VRAM 143. Als ein Ergebnis wird das Bild, das in dem VRAM 143 gerendert ist, von dem Fischaugenbild 501 auf das Zoomansichtbild 505 aktualisiert und die Anzeige auf der Anzeigeeinheit 141 wird von der Anzeige des Fischaugenbildes 501 zu der Anzeige des Zoomansichtbildes 505 umgeschaltet.
  • Die Kamerasteuerungseinheit 120 bestimmt die Intensität der Vergrößerungsverarbeitung und der Verzerrungskorrektur, die zum Erhalten des Zoomansichtbildes 505 verwendet werden, basierend auf einer Entfernung zwischen der zentralen Position des Fischaugenbildes 501 und der Position des Bereichs 504. Die GPU 142 führt dann eine Vergrößerungsverarbeitung und eine Verzerrungskorrektur bei der durch die Kamerasteuerungseinheit 120 bestimmten Intensität durch. Zum Beispiel bestimmt die Kamerasteuerungseinheit 120, dass die Intensität der Verzerrungskorrektur niedriger ist, wenn sich der Abstand verringert, oder höher ist, wenn sich der Abstand erhöht. In einem Fall, in dem der Abstand einen Schwellenwert nicht überschreitet, führt die Kamerasteuerungseinheit 120 eine Steuerung aus, sodass die Verzerrungskorrektur entweder weggelassen wird oder bei einer Intensität implementiert wird, die sicherstellt, dass sich die Verzerrung des VR-Bildes nicht ändert. Wenn die Verzerrungskorrektur bei einer Intensität implementiert wird, bei der die Verzerrung des VR-Bildes variiert, wird das Zoomansichtbild 505 in einem zentralen Abschnitt von diesem im Wesentlichen ohne Verzerrung erhalten. Hier bezieht sich eine Verzerrung auf eine Verzerrung mit Bezug auf ein reales Bild des Objekts.
  • Das Zoomansichtbild 505 wird kontinuierlich angezeigt während die Benutzeroperation zum Ausgeben einer Abbildungsvorbereitungsanweisung durchgeführt wurde. Wenn die Benutzeroperation zum Ausgeben einer Abbildungsvorbereitungsanweisung beendet wird, führt die Kamerasteuerungseinheit 120 eine Steuerung zum Zurückführen der Anzeige auf der Anzeigeeinheit 141 von der Anzeige des Zoomansichtbildes 505 zu der Anzeige des Fischaugenbildes 501 oder des Fischaugenbildes 503 zurück.
  • Gemäß diesem Ausführungsbeispiel, wie vorstehend beschrieben, kann durch Anzeigen eines Weitwinkelbildes, wie etwa eines Fischaugenbildes, bevor die Benutzeroperation zum Ausgeben einer Abbildungsvorbereitungsanweisung durchgeführt wird, ein breiter Bereich auf der Peripherie der Kamera 100 überprüft werden. Dann kann durch Umschalten zu einer Zoomansichtanzeige als Reaktion auf die Benutzeroperation zum Ausgeben einer Abbildungsvorbereitungsanweisung ein Teil des Fischaugenbildes im Detail überprüft werden. Genauer, während das Weitwinkelbild angezeigt wird, kann der Fotograf ein Zielobjekt durch Durchführen einer Berührungsoperation spezifizieren, und als Reaktion auf die Benutzeroperation zum Ausgeben einer Abbildungsvorbereitungsanweisung wird die Anzeige zu einer Zoomansichtanzeige des Zielobjekts umgeschaltet. Als ein Ergebnis kann das Zielobjekt im Detail überprüft werden. Folglich können zum Beispiel Zustände auf der Peripherie der Kamera 100 von der Weitwinkelansichtanzeige vor einem Ausgeben der Abbildungsvorbereitungsanweisung grob überprüft werden, und durch Ausgeben der Abbildungsvorbereitungsanweisung kann der Gesichtsausdruck auf dem vergrößerten Zielobjekt von der Zoomansichtanzeige überprüft werden. Dann kann in dem Moment, wenn das Zielobjekt lächelt, ein Bild des Zielobjekts aufgenommen werden. Gemäß diesem Ausführungsbeispiel kann deshalb der Fotograf das Bild vorteilhafter überprüfen und als ein Ergebnis kann der Fotograf eine Abbildung zu einem geeigneten Zeitpunkt ausführen, ohne eine Gelegenheit für ein Foto zu verpassen.
  • Es sei angemerkt, dass, obwohl ein bevorzugtes Ausführungsbeispiel der vorliegenden Erfindung vorstehend beschrieben wurde, die vorliegende Erfindung natürlich nicht auf dieses Ausführungsbeispiel beschränkt ist, und verschiedene Modifikationen und Änderungen innerhalb des Umfangs des Geistes von dieser unterzogen werden können. Verschiedene modifizierte Beispiele, die nachstehend beschrieben werden, können mit dem vorstehenden Ausführungsbeispiel, soweit anwendbar, kombiniert werden.
  • Zum Beispiel ist in dem vorstehend beschriebenen Beispiel die Kamera 100 konfiguriert, um zwei Abbildungssysteme zu umfassen, aber die vorliegende Erfindung kann ebenso auf eine Kamera angewendet werden, die ein Abbildungssystem oder drei oder mehr Abbildungssysteme umfasst.
  • Weiterhin wird in dem vorstehend beschriebenen Beispiel ein Teil des VR-Bildes (das heißt eines der Fischaugenbilder) während der Weitwinkelansichtanzeige angezeigt, ohne modifiziert zu werden, aber die vorliegende Erfindung ist nicht darauf beschränkt, und stattdessen kann gemäß der Steuerung der Kamerasteuerungseinheit 120 ein transformiertes Bild oder der gesamte Bereich des VR-Bildes als die Weitwinkelansichtanzeige angezeigt werden. Wie in 6A gezeigt ist, können zum Beispiel zwei Fischaugenbilder 601, 602, die entsprechend durch die zwei Abbildungseinrichtungen 102, 112 aufgenommen wurden, beide als die Weitwinkelansichtanzeige angezeigt werden. Wie in 6B gezeigt ist, kann ebenso ein Panoramabild 603 entsprechend dem gesamten Bereich des VR-Bildes als die Weitwinkelansichtanzeige angezeigt werden. Wie in 6C gezeigt ist, kann ebenso ein Kuppel-Master-Bild 604 entsprechend dem gesamten Bereich des VR-Bildes als die Weitwinkelansichtanzeige angezeigt werden. Bilder in anderen Formaten können ebenso als die Weitwinkelansichtanzeige angezeigt werden.
  • Das Panoramabild 603 wird durch geometrisches Transformieren von jedem Teil der Fischaugenbilder 601, 602 in periphere Teile und mittlere Teile erhalten, um die Fischaugenbilder 601, 602 zu expandieren und zu kombinieren. Wie von 6B offensichtlich ist, ist das Panoramabild 603 ein rechteckiges Bild, das durch geometrisches Transformieren und dadurch Kombinieren der Fischaugenbilder 601, 602 erhalten wird. Das Kuppel-Master-Bild 604 wird auf ähnliche Weise durch geometrisches Transformieren und dadurch Kombinieren der Fischaugenbilder 601, 602 erhalten. Das Kuppel-Master-Bild 604 zeigt das Objekt, als wenn es von dem Himmel über dem Objekt aus betrachtet würde. Eine obere Hälfte des Kuppel-Master-Bildes 604 entspricht dem Fischaugenbild 601 und eine untere Hälfte des Kuppel-Master-Bildes 604 entspricht dem Fischaugenbild 602. Diese geometrischen Transformationen können unter Verwendung von vorbestimmten Informationen (eine Tabelle oder eine Funktion), die eine Entsprechungsbeziehung zwischen Bildkoordinaten vor der Transformierung und Bildkoordinaten nach der Transformierung darstellen, realisiert werden.
  • Des Weiteren kann das VR-Bild, das durch die Aufzeichnungsverarbeitung (Abbildung) aufgezeichnet wird, ein Fischaugenbild, ein Panoramabild, ein Kuppel-Master-Bild, oder ein Bild in einem anderen Format sein.
  • Außerdem wird in dem vorstehend beschriebenen Beispiel der Bereich des Zoomansichtbildes gemäß einer Berührungsoperation bestimmt, aber der Bereich des Zoomansichtbildes kann durch ein anderes Verfahren bestimmt werden. Zum Beispiel kann die Kamerasteuerungseinheit 120 ein vorbestimmtes Objekt (eine Person, ein Gesicht, ein Fahrzeug, ein Gebäude, eine Fabrik, oder Ähnliches) von dem VR-Bild (einem omnidirektionalen Bild) automatisch erfassen und automatisch einen Teil, in dem das vorbestimmte Objekt vorhanden ist, als den Bereich des Zoomansichtbildes einstellen. Das vorbestimmte Objekt kann unter Verwendung einer bekannten Bilderkennungsfunktion erfasst werden. Weiterhin, wenn eine Vielzahl von Objekten erfasst wird, kann ein Objekt, das als ein Hauptobjekt dienen soll, automatisch ausgewählt werden, und kann der Bereich des Zoomansichtbildes bestimmt werden, um das ausgewählte Hauptobjekt zu umfassen. Das Hauptobjekt kann durch ein Verfahren des Anwendens von zum Beispiel Gewichtungen bestimmt werden, sodass ein Teil mit einem hohen Kontrast, ein Gesicht, ein Teil des aufgenommenen Bildes mit einer großen Größe, ein Teil nahe der Kamera 100, das Gesicht einer Person, das in der Kamera 100 registriert ist (ein Gesicht, das durch eine persönliche Authentifikation erfasst wird), oder Ähnliches priorisiert wird. Auf einem VR-Bild (einem Panoramabild oder einem Kuppel-Master-Bild), das durch Kombinieren einer Vielzahl von Bildern erhalten wird, existieren Grenzen zwischen der Vielzahl von Bildern. Die Punkte der Linie 605 in 6C geben Grenzen zwischen dem Fischaugenbild 601 und dem Fischaugenbild 602 an. Die Kamerasteuerungseinheit 120 kann die Grenzen von dem VR-Bild automatisch erfassen und einen Teil (einen Bereich 606 in 6C zum Beispiel), der zumindest einen Teil der Grenzen umfasst, als den Bereich des Zoomansichtbildes automatisch bestimmen. Die Kamera 100 kann mit einer Vielzahl von Betriebsarten mit unterschiedlichen Verfahren des Bestimmens des Bereichs des Zoomansichtbildes bereitgestellt sein (Verfahren zum Erhalten des Zoomansichtbildes).
  • Hier kann eine Vielzahl von vorbestimmten Objekten auf dem VR-Bild existieren. In einer Konfiguration, bei der Teile, in denen das vorbestimmte Objekt existiert, einer Zoomansichtanzeige unterzogen werden, kann die Kamerasteuerungseinheit 120 eine Steuerung ausführen, um ein einzelnes Zoomansichtbild entsprechend einem der Vielzahl von vorbestimmten Objekten als das Zoomansichtbild anzuzeigen, aber muss diese Steuerung nicht ausführen. Die Kamerasteuerungseinheit 120 kann eine Steuerung zum Anzeigen einer Vielzahl von Zoomansichtbildern entsprechend der Vielzahl von vorbestimmten Objekten nacheinander auf der Anzeigeeinheit 141 als eine Zoomansichtanzeigesteuerung durchführen. Während dieser Steuerung kann die Kamerasteuerungseinheit 120 das angezeigte Zoomansichtbild zwischen der Vielzahl von Zoomansichtbildern entweder automatisch oder als Reaktion auf eine Benutzeroperation umschalten.
  • Des Weiteren wird in dem vorstehend beschriebenen Beispiel eine Weitwinkelansichtanzeige zu einer Zoomansichtanzeige als Reaktion auf die Benutzeroperation zum Ausgeben einer Abbildungsvorbereitungsanweisung umgeschaltet, aber die vorliegende Erfindung ist nicht darauf beschränkt. Stattdessen kann gemäß der Steuerung der Kamerasteuerungseinheit 120 eine Zoomansichtanzeige implementiert werden, bis die Benutzeroperation zum Ausgeben einer Abbildungsvorbereitungsanweisung durchgeführt wird, und als Reaktion auf die Benutzeroperation zum Ausgeben einer Abbildungsvorbereitungsanweisung kann die Zoomansichtanzeige zu der Weitwinkelansichtanzeige umgeschaltet werden. Zum Beispiel kann folglich ein Video, das in einer spezifischen Richtung von der Kamera 100 aus gesehen wird, das dadurch vergrößert wurde, dass es der Zoomansichtanzeige unterzogen wurde, aber nicht verzerrt ist und nicht unnatürlich erscheint, überprüft werden, bevor die Abbildungsvorbereitungsanweisung ausgegeben wird. Dann, wenn die Abbildungsvorbereitungsanweisung ausgegeben wird, wird die Anzeige zu der Weitwinkelansichtanzeige umgeschaltet und als ein Ergebnis kann eine Abbildungsoperation in dem Moment, in dem ein Ereignis, das bezüglich der Fotografie geeignet ist, auf der Peripherie der Kamera 100 auftritt, durchgeführt werden (zum Beispiel der Moment, in dem eine große Anzahl von Feuerwerk explodiert).
  • Außerdem müssen die Zoomansichtanzeige und die Weitwinkelansichtanzeige nicht umgeschaltet werden. Wie in 7 gezeigt ist, wird, bevor die Abbildungsvorbereitungsanweisung ausgegeben wird (in einem Abbildungsbereitschaftszustand), eines des Zoomansichtbildes und eines Weitwinkelansichtbildes angezeigt. Dann wird als Reaktion auf die Benutzeroperation zum Ausgeben einer Abbildungsvorbereitungsanweisung eine Anzeige von einem des Zoomansichtbildes und des Weitwinkelansichtbildes zu einer Anzeige von beiden Bildern gemäß der Steuerung der Kamerasteuerungseinheit 120 umgeschaltet. Wenn das Zoomansichtbild und das Weitwinkelansichtbild beide angezeigt werden, kann der Fotograf durch Betrachten des Weitwinkelansichtbildes ein Abbilden ohne ein Verpassen eines Moments, in dem ein Ereignis, das für die Fotografie geeignet ist, auf der Peripherie der Kamera 100 auftritt, zu verpassen. Weiterhin, durch Betrachten des Zoomansichtbildes, kann der Fotograf ein Abbilden durchführen, ohne eine Gelegenheit für ein Foto, die innerhalb eines engen Bereichs auftritt, zu verpassen, wie etwa eine Änderung eines Gesichtsausdrucks. Es sei angemerkt, dass in dem Abbildungsbereitschaftszustand (während die Abbildungsvorbereitungsanweisung ausgegeben wird) eines des Zoomansichtbildes und des Weitwinkelansichtbildes angezeigt wird, und nicht beide. Der Grund dafür ist, dass, wenn beide Bilder in dem Abbildungsbereitschaftszustand angezeigt werden, eine Bildverarbeitungslast erhöht wird, was zu einer Erhöhung eines Leistungsverbrauchs führt (mit anderen Worten, um Energie zu sparen).
  • Des Weiteren kann in dem Abbildungsbereitschaftszustand und während der Periode, in der die Abbildungsvorbereitungsanweisung ausgegeben wird, eine Anzeige des Zoomansichtbildes und des Weitwinkelansichtbildes automatisch gemäß einer Operationsbetriebsart umgeschaltet werden. Wenn zum Beispiel eine Personenabbildungsbetriebsart (erste Betriebsart), die eine einer Vielzahl von Abbildungsbetriebsarten ist, eingestellt ist, wird ein Weitwinkelansichtbild in dem Abbildungsbereitschaftszustand angezeigt, und die Anzeige wird entweder zu dem Zoomansichtbild oder beiden Bildern als Reaktion auf die Abbildungsvorbereitungsanweisung umgeschaltet. Dadurch, wie vorstehend beschrieben, kann der Fotograf ein Abbilden ausführen, ohne eine kleine Gelegenheit für ein Foto zu verpassen, die innerhalb eines engen Bereichs auftritt, wie etwa eine Änderung eines Gesichtsausdrucks. Unterdessen, in einer Feuerwerkabbildungsbetriebsart, einer Sportabbildungsbetriebsart, oder einer Landschaftsabbildungsbetriebsart (eine zweite Betriebsart), die eine der Vielzahl von Abbildungsbetriebsarten ist, wird das Zoomansichtbild in dem Abbildungsbereitschaftszustand angezeigt und die Anzeige wird zu entweder dem Weitwinkelansichtbild oder beiden Bildern als Reaktion auf die Abbildungsvorbereitungsanweisung umgeschaltet. Dadurch, wie vorstehend beschrieben, kann der Fotograf ein Abbilden ausführen, ohne ein Ereignis, das in einem breiten Bereich auf der Peripherie der Kamera auftritt, oder ein Ereignis, das an einer nicht vorhersagbaren Position auftritt, zu verpassen.
  • Weiterhin können die verschiedenen Arten einer Steuerung, die vorstehend als durch die Kamerasteuerungseinheit 120 ausgeführt beschrieben sind, unter Verwendung eines einzelnen Elements von Hardware implementiert werden, oder kann die Gesamtsteuerung der Vorrichtung durch Aufteilen der Verarbeitung auf eine Vielzahl von Elementen von Hardware realisiert werden.
  • Des Weiteren wurde in dem vorstehenden Ausführungsbeispiel ein Fall, in dem die vorliegende Erfindung auf die Kamera 100 angewendet wird, als ein Beispiel beschrieben, aber die vorliegende Erfindung ist nicht auf dieses Beispiel beschränkt und kann auf irgendeine elektronische Einrichtung angewendet werden, die dazu in der Lage ist, eine Steuerung zum Anzeigen von zumindest einem Teil eines VR-Bildes auszuführen. Genauer kann die vorliegende Erfindung auf einen Personal Computer, einen PDA, ein Mobiltelefonendgerät, ein portables Bildbetrachtungsgerät, eine Druckereinrichtung mit einer Anzeige, einen digitalen Fotorahmen usw. angewendet werden. Die vorliegende Erfindung kann ebenso auf einen Musikspieler, eine Spieleeinrichtung, ein elektronisches Buchlesegerät, ein Tablet-Endgerät, ein Smartphone, eine Projektionseinrichtung, ein Haushaltsgerät oder eine fahrzeugseitige Einrichtung mit einer Anzeige usw. angewendet werden.
  • Des Weiteren ist die vorliegende Erfindung nicht auf einen Hauptkörper bzw. ein Hauptgerät einer Abbildungsvorrichtung beschränkt, sondern kann ebenso auf eine Steuerungsvorrichtung angewendet werden, die eine Abbildungsvorrichtung (inklusive einer Netzwerkkamera) fernsteuert, durch Kommunikation mit der Abbildungsvorrichtung durch eine drahtgebundene oder drahtlose Kommunikation. Beispiele von Einrichtungen zum Fernsteuern einer Abbildungsvorrichtung umfassen ein Smartphone, einen Tablet-PC, einen Desktop-PC usw. Die Abbildungsvorrichtung kann durch Übertragen von Anweisungen, zum Implementieren von verschiedenen Operationen und Einstellungen, von der Seite der Steuerungsvorrichtung zu der Abbildungsvorrichtung ferngesteuert werden, basierend auf Operationen, die auf der Seite der Steuerungsvorrichtung durchgeführt werden, und einer Verarbeitung, die auf der Seite der Steuerungsvorrichtung ausgeführt wird. Außerdem kann ein Liveansichtbild, das durch die Abbildungsvorrichtung aufgenommen wird, durch eine drahtlose oder drahtgebundene Kommunikation empfangen und auf der Seite der Steuerungsvorrichtung angezeigt werden.
  • <Andere Ausführungsbeispiele>
  • Ein Ausführungsbeispiel bzw. Ausführungsbeispiele der vorliegenden Erfindung kann bzw. können ebenso durch einen Computer eines Systems oder einer Vorrichtung, der computerausführbare Anweisungen (zum Beispiel eines oder mehrere Programme), die auf einem Speichermedium (welches vollständiger als ein „nichtflüchtiges computerlesbares Speichermedium“ bezeichnet wird) aufgezeichnet ist, ausliest und ausführt, um die Funktionen von einem oder mehreren der vorstehend beschriebenen Ausführungsbeispiele durchzuführen, und/oder der eine oder mehrere Schaltungen (zum Beispiel anwendungsspezifische integrierte Schaltung (ASIC)) zum Durchführen der Funktionen von einem oder mehreren der vorstehend beschriebenen Ausführungsbeispiele umfasst, und durch ein Verfahren, das durch den Computer des Systems oder der Vorrichtung durch zum Beispiel Auslesen und Ausführen der computerausführbaren Anweisungen von dem Speichermedium, um die Funktionen von einem oder mehreren der vorstehenden beschriebenen Ausführungsbeispiele durchzuführen, und/oder Steuern der einen oder mehreren Schaltungen zum Durchführen der Funktionen von einem oder mehreren der vorstehend beschriebenen Ausführungsbeispiele durchgeführt wird, realisiert werden. Der Computer kann einen oder mehrere Prozessoren (zum Beispiel zentrale Verarbeitungseinheit (CPU), Mikroverarbeitungseinheit (MPU)) aufweisen und kann ein Netzwerk von separaten Computern oder separaten Prozessoren umfassen, um die computerausführbaren Anweisungen auszulesen und auszuführen. Die computerausführbaren Anweisungen können dem Computer zum Beispiel von einem Netzwerk oder dem Speichermedium bereitgestellt werden. Das Speichermedium kann zum Beispiel eines oder mehrere einer Festplatte, eines Direktzugriffspeichers (RAM), eines Festwertspeichers (ROM), eines Speichers von verteilten Rechnersystemen, einer optischen Platte (wie etwa eine Compact-Disk (CD), eine „Digital Versatile Disc“ (DVD), oder Bluray Disc (BD)™, einer Flashspeichereinrichtung, einer Speicherkarte und Ähnliches umfassen.
  • Während die vorliegende Erfindung mit Bezug auf beispielhafte Ausführungsbeispiele beschrieben wurde, ist zu verstehen, dass die Erfindung nicht auf die offenbarten beispielhaften Ausführungsbeispiele beschränkt ist. Dem Umfang der folgenden Ansprüche ist die breiteste Interpretation zuzugestehen, sodass alle solchen Modifikationen und äquivalenten Strukturen und Funktionen mit umfasst sind.
  • Eine Abbildungssteuerungsvorrichtung umfasst: eine Steuerungseinheit, die dazu konfiguriert ist, eine erste Benutzeroperation zu empfangen, und dazu konfiguriert ist: wenn die erste Benutzeroperation nicht empfangen wird, eine Steuerung auszuführen, um ein Bildsignal auszugeben, das auf einer Anzeigeeinheit anzuzeigen ist, wobei das Bildsignal eines ist von: einem ersten Bild entsprechend einem ersten Bereich eines Live-VR-Bildes; und einem zweiten Bild entsprechend einem zweiten Bereich des Live-VR-Bildes, und wenn die erste Benutzeroperation empfangen wird: eine Steuerung auszuführen, um ein Bildsignal auszugeben, das dazu dient, das Bild, das auf der Anzeigeeinheit angezeigt wird, von einem des ersten Bildes und des zweiten Bildes zu dem anderen des ersten Bildes und des zweiten Bildes oder zu sowohl dem ersten Bild als auch dem zweiten Bild zu ändern; und eine Vorbereitungsanweisung zum Ausführen einer Abbildungsvorbereitungsverarbeitung auszugeben.

Claims (26)

  1. Abbildungssteuerungsvorrichtung, mit: einer Steuerungseinheit, die dazu konfiguriert ist, eine erste Benutzeroperation zu empfangen, und dazu konfiguriert ist: in einem Fall, in dem die erste Benutzeroperation nicht empfangen wird, eine Steuerung auszuführen, um ein Bildsignal auszugeben, das auf einer Anzeigeeinheit anzuzeigen ist, wobei das Bildsignal eines ist von: einem ersten Bild entsprechend einem ersten Bereich eines Livebildes einer virtuellen Realität (VR), das ein Liveansichtbild ist, das von einer Abbildungseinheit empfangen wird; und einem zweiten Bild entsprechend einem zweiten Bereich des Live-VR-Bildes, das relativ zu dem Live-VR-Bild vergrößert ist, wobei der zweite Bereich ein kleinerer Bereich als der erste Bereich ist, und in einem Fall, in dem die erste Benutzeroperation empfangen wird: eine Steuerung auszuführen, um ein Bildsignal auszugeben, das dazu dient, das Bild, das auf der Anzeigeeinheit angezeigt wird, von einem des ersten Bildes und des zweiten Bildes zu dem anderen des ersten Bildes und des zweiten Bildes oder zu sowohl dem ersten Bild als auch dem zweiten Bild zu ändern; und eine Vorbereitungsanweisung auszugeben, um eine Abbildungsvorbereitungsverarbeitung auszuführen.
  2. Abbildungssteuerungsvorrichtung gemäß Anspruch 1, wobei die Steuerungseinheit weiterhin dazu konfiguriert ist, eine Steuerung auszuführen, um das Bildsignal als das erste Bild, das auf der Anzeigeeinheit anzuzeigen ist, auszugeben, in einem Fall, in dem die erste Benutzeroperation nicht empfangen wird.
  3. Abbildungssteuerungsvorrichtung gemäß Anspruch 1, wobei die Steuerungseinheit weiterhin dazu konfiguriert ist, eine Steuerung auszuführen, um das Bildsignal als das zweite Bild, das auf der Anzeigeeinheit anzuzeigen ist, auszugeben, in einem Fall, in den die erste Benutzeroperation nicht empfangen wird.
  4. Abbildungssteuerungsvorrichtung gemäß Anspruch 1, wobei die Steuerungseinheit weiterhin dazu konfiguriert ist: eine Steuerung auszuführen, um das Bildsignal als das erste Bild, das auf der Anzeigeeinheit anzuzeigen ist, auszugeben, in einem Fall, in dem eine erste Betriebsart eingestellt ist und die erste Benutzeroperation nicht empfangen wird, und eine Steuerung auszuführen, um das Bildsignal als das zweite Bild, das auf der Anzeigeeinheit anzuzeigen ist, auszugeben, in einen Fall, in dem eine zweite Betriebsart eingestellt ist und die erste Benutzeroperation nicht empfangen wird.
  5. Abbildungssteuerungsvorrichtung gemäß einem der Ansprüche 1 bis 4, wobei die Steuerungseinheit weiterhin dazu konfiguriert ist, eine Steuerung auszuführen, um das Bildsignal, das zur Anzeige auf der Anzeigeeinheit auszugeben ist, zu dem anderen des ersten Bildes und des zweiten Bildes zu ändern, als Reaktion auf Empfang der ersten Benutzeroperation.
  6. Abbildungssteuerungsvorrichtung gemäß einem der Ansprüche 1 bis 4, wobei die Steuerungseinheit weiterhin dazu konfiguriert ist, eine Steuerung auszuführen, um das Bildsignal, das zur Anzeige auf der Anzeigeeinheit auszugeben ist, zu sowohl dem ersten Bild als auch dem zweiten Bild zu ändern, als Reaktion auf Empfang der ersten Benutzeroperation.
  7. Abbildungssteuerungsvorrichtung gemäß einem der Ansprüche 1 bis 6, wobei die Steuerungseinheit weiterhin dazu konfiguriert ist, eine Steuerung auszuführen, um das Bildsignal, das zur Anzeige auf der Anzeigeeinheit auszugeben ist, zu einem des ersten Bildes und des zweiten Bildes zurück zu führen, als Reaktion auf eine Beendigung des Empfangs der ersten Benutzeroperation.
  8. Abbildungssteuerungsvorrichtung gemäß einem der Ansprüche 1 bis 7, wobei der erste Bereich ein Gesamtbereich des Live-VR-Bildes ist.
  9. Abbildungssteuerungsvorrichtung gemäß einem der Ansprüche 1 bis 8, wobei die erste Benutzeroperation von einer Operationseinheit empfangen wird, in dem Fall, in dem ein Benutzer eine erste Operation auf der Operationseinheit durchgeführt hat, und die Steuerungseinheit weiterhin dazu konfiguriert ist, eine Anweisung auszugeben, die dazu dient, die Abbildungseinheit anzuweisen, ein VR-Bild aufzunehmen, als Reaktion auf Empfang einer zweiten Benutzeroperation, die auf der Operationseinheit durch einen Benutzer durchgeführt wird.
  10. Abbildungssteuerungsvorrichtung gemäß Anspruch 9, wobei die erste Benutzeroperation eine Operation des halben Drückens einer Verschlusstaste ist, und die zweite Benutzeroperation eine Operation des vollständigen Drückens der Verschlusstaste ist.
  11. Abbildungssteuerungsvorrichtung gemäß Anspruch 9, weiterhin mit einem berührungsempfindlichen Feld als die Operationseinheit und einer Berührungserfassungseinheit, die dazu konfiguriert ist, dazu in der Lage zu sein, eine Berührungsoperation, die auf dem berührungsempfindlichen Feld durchgeführt wird, zu erfassen, wobei die erste Benutzeroperation eine erste Berührungsoperation ist, die auf einem bestimmten Anzeigeelement durchgeführt wird, das auf der Anzeigeoberfläche angezeigt wird, und die zweite Benutzeroperation eine zweite Berührungsoperation ist, die auf dem bestimmten Anzeigeelement durchgeführt wird.
  12. Abbildungssteuerungsvorrichtung gemäß Anspruch 11, wobei die erste Berührungsoperation eine Operation zum Starten eines Kontakts auf dem berührungsempfindlichen Feld ist, und die zweite Berührungsoperation eine Operation zum Freigeben eines Kontakts von dem berührungsempfindlichen Feld in Anschluss an die erste Berührungsoperation ist.
  13. Abbildungssteuerungsvorrichtung gemäß einem der Ansprüche 1 bis 12, wobei das Live-VR-Bild eine Verzerrung mit Bezug auf ein reales Bild eines Objekts umfasst, und die Transformation einen Korrekturprozess zum Korrigieren der Verzerrung umfasst.
  14. Abbildungssteuerungsvorrichtung gemäß Anspruch 13, weiterhin mit einer Bildverarbeitungseinheit, die dazu konfiguriert ist, die Korrekturverarbeitung auszuführen.
  15. Abbildungssteuerungsvorrichtung gemäß Anspruch 14, wobei die Bildverarbeitungseinheit dazu konfiguriert ist, die Korrekturverarbeitung bei einer Intensität basierend auf einem Abstand zwischen einer Position auf dem Live-VR-Bild entsprechend einer optischen Achse einer Linse, die während des Abbildens verwendet wird, und einer Position auf dem Live-VR-Bild entsprechend dem zweiten Bild auszuführen.
  16. Abbildungssteuerungsvorrichtung gemäß Anspruch 15, wobei, in einem Fall, in dem der Abstand einen Schwellenwert nicht überschreitet, die Bildverarbeitungseinheit entweder die Korrekturverarbeitung weglässt oder die Korrekturverarbeitung bei einer Intensität ausführt, die sicherstellt, dass die Verzerrung des Live-VR-Bildes nicht verändert wird.
  17. Abbildungssteuerungsvorrichtung gemäß einem der Ansprüche 1 bis 16, weiterhin mit einer Abbildungseinheit, die eine Vielzahl von Abbildungseinrichtungen umfasst, zum entsprechenden Aufnehmen einer Vielzahl von Bildern, die das Live-VR-Bild bilden.
  18. Abbildungssteuerungsvorrichtung gemäß Anspruch 17, wobei das Live-VR-Bild ein einzelnes Bild ist, das durch Kombinieren der Vielzahl von Bildern erhalten wird, und in einem Fall, in dem die erste Benutzeroperation durchgeführt wurde, die Steuerungseinheit eine Steuerung ausführt, um ein Bildsignal auszugeben, das auf der Anzeigeeinheit anzuzeigen ist, wobei das zweite Bild eine Grenze zwischen der Vielzahl von Bildern umfasst.
  19. Abbildungssteuerungsvorrichtung gemäß einem der Ansprüche 1 bis 11, weiterhin mit einem berührungsempfindlichen Feld und einer Berührungserfassungseinheit, die dazu konfiguriert ist, in der Lage zu sein, eine Berührungsoperation, die auf dem berührungsempfindlichen Feld durchgeführt wird, zu erfassen, wobei, in einem Fall, in dem eine Berührung auf dem ersten Bild, das auf der Anzeigeeinheit angezeigt wird, durchgeführt wird und dann die erste Benutzeroperation durchgeführt wird, die Steuerungseinheit dazu konfiguriert ist, eine Steuerung auszuführen, um ein Bildsignal auszugeben, das auf der Anzeigeeinheit anzuzeigen ist, wobei das zweite Bild der berührten Position auf dem ersten Bild entspricht
  20. Abbildungssteuerungsvorrichtung gemäß einem der Ansprüche 1 bis 19, wobei, in einem Fall, in dem die erste Benutzeroperation durchgeführt wurde, die Steuerungseinheit dazu konfiguriert ist, eine Steuerung auszuführen, um ein Bildsignal auszugeben, das auf der Anzeigeeinheit anzuzeigen ist, wobei das zweite Bild einem Teil des ersten Bildes entspricht, in dem ein vorbestimmtes Objekt existiert.
  21. Abbildungssteuerungsvorrichtung gemäß Anspruch 20, wobei, in einem Fall, in dem eine Vielzahl von vorbestimmten Objekten auf dem Live-VR-Bild existiert und die erste Benutzeroperation durchgeführt wurde, die Steuerungseinheit dazu konfiguriert ist, eine Steuerung auszuführen, um ein Bildsignal auszugeben, sodass eine Vielzahl von zweiten Bildern, die der Vielzahl von vorbestimmten Objekten entsprechen, in einer Reihenfolge auf der Anzeigeeinheit anzuzeigen ist.
  22. Abbildungssteuerungsvorrichtung gemäß Anspruch 21, wobei, während der Steuerung zum Anzeigen der Vielzahl von zweiten Bildern in Reihenfolge auf der Anzeigeeinheit, die Steuerungseinheit als Reaktion auf eine zweite Benutzeroperation das Bildsignal, das ausgegeben wird, ändert, sodass sich das zweite Bild, das auf der Anzeigeeinheit anzuzeigen ist, zwischen der Vielzahl der zweiten Bilder ändert.
  23. Abbildungssteuerungsvorrichtung gemäß einem der Ansprüche 1 bis 22, wobei die Vorbereitungsanweisung eine Anweisung zum Ausführen von zumindest einem eines Autofokus, einer Belichtungseinstellung, einer Blendenanpassung, einer Verschlusszeiteinstellung, eines Weißabgleichs und einer Verstärkungsanpassung als eine Abbildungsvorbereitungsverarbeitung ist, als Reaktion auf Empfang der ersten Benutzeroperation.
  24. Steuerungsverfahren für eine Abbildungssteuerungsvorrichtung, mit: Empfangen einer ersten Benutzeroperation; in einem Fall, in dem die erste Benutzeroperation nicht durchgeführt wurde, Ausführen einer Steuerung, um ein Bildsignal auszugeben, das auf einer Anzeigeeinheit anzuzeigen ist, wobei das Bildsignal eines ist von: einem ersten Bild entsprechend einem ersten Bereich eines Livebildes einer virtuellen Realität (VR), das ein Liveansichtbild ist, das durch die Abbildungseinheit aufgenommen wird; und einem zweiten Bild entsprechend einem zweiten Bereich des Live-VR-Bildes, das relativ zu dem Live-VR-Bild vergrößert ist, wobei der zweite Bereich ein kleinerer Bereich als der erste Bereich ist, und in einem Fall, in dem die erste Benutzeroperation empfangen wird: Ausführen einer Steuerung zum Ausgeben eines Bildsignals, das dazu dient, das Bild, das auf der Anzeigeeinheit angezeigt wird, von einem des ersten Bildes und des zweiten Bildes zu dem anderen des ersten Bildes und des zweiten Bildes oder zu sowohl dem ersten Bild als auch dem zweiten Bild zu ändern; und Ausgeben einer Vorbereitungsanweisung zum Ausführen einer Abbildungsvorbereitungsverarbeitung.
  25. Programm, das einen Computer veranlasst, als jede Einheit der Abbildungssteuerungsvorrichtung gemäß einem der Ansprüche 1 bis 23 zu arbeiten.
  26. Computerlesbares Medium, das ein Programm speichert, wobei das Programm einen Computer veranlasst, als jede Einheit der Abbildungssteuerungsvorrichtung gemäß einem der Ansprüche 1 bis 23 zu arbeiten.
DE102018115437.2A 2017-06-29 2018-06-27 Abbildungssteuerungsvorrichtung und Steuerungsverfahren für diese Pending DE102018115437A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017127166A JP7000050B2 (ja) 2017-06-29 2017-06-29 撮像制御装置及びその制御方法
JP2017-127166 2017-06-29

Publications (1)

Publication Number Publication Date
DE102018115437A1 true DE102018115437A1 (de) 2019-01-03

Family

ID=63042829

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018115437.2A Pending DE102018115437A1 (de) 2017-06-29 2018-06-27 Abbildungssteuerungsvorrichtung und Steuerungsverfahren für diese

Country Status (6)

Country Link
US (1) US10645278B2 (de)
JP (1) JP7000050B2 (de)
KR (1) KR102235231B1 (de)
CN (1) CN109218606B (de)
DE (1) DE102018115437A1 (de)
GB (1) GB2565634B (de)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10593014B2 (en) * 2018-03-26 2020-03-17 Ricoh Company, Ltd. Image processing apparatus, image processing system, image capturing system, image processing method
US11128764B2 (en) * 2018-05-17 2021-09-21 Canon Kabushiki Kaisha Imaging apparatus, control method, and non-transitory computer readable medium
JP7267764B2 (ja) * 2019-02-08 2023-05-02 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体
JP7204511B2 (ja) 2019-02-12 2023-01-16 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム
JP7350511B2 (ja) 2019-05-14 2023-09-26 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体
CN110602401A (zh) * 2019-09-17 2019-12-20 维沃移动通信有限公司 一种拍照方法及终端
CN113038117B (zh) * 2021-03-08 2022-09-09 烽火通信科技股份有限公司 一种基于多视角的全景播放方法与装置
JP2022183843A (ja) 2021-05-31 2022-12-13 キヤノン株式会社 電子機器及びその制御方法及びプログラム及び記録媒体

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6084598A (en) * 1998-04-23 2000-07-04 Chekerylla; James Apparatus for modifying graphic images
US7353086B2 (en) * 2002-11-19 2008-04-01 Timothy James Ennis Methods and systems for providing a rearward field of view for use with motorcycles
US7229226B2 (en) * 2003-03-20 2007-06-12 Silverbrook Research Pty Ltd Display device having pagewidth printhead adjacent lower edge of housing
US7599255B2 (en) * 2003-09-05 2009-10-06 Kent Dennis C Device for displaying time in selectable display patterns and method of using the same
US7774712B2 (en) * 2004-12-31 2010-08-10 A Far Site Better, Llc Methods and systems for displaying an enlarged image
US7230523B2 (en) * 2005-01-07 2007-06-12 Delphi Technologies, Inc. Vehicular rear view mirror/video display
JP2007116610A (ja) 2005-10-24 2007-05-10 Olympus Imaging Corp 撮影装置及び撮影方法
JP5126668B2 (ja) * 2008-01-22 2013-01-23 株式会社ニコン 撮影レンズ、これを搭載する光学装置および像ブレ補正方法
US8237807B2 (en) * 2008-07-24 2012-08-07 Apple Inc. Image capturing device with touch screen for adjusting camera settings
KR101266734B1 (ko) * 2008-12-18 2013-05-28 아이신세이끼가부시끼가이샤 표시장치
JP5306266B2 (ja) 2010-03-15 2013-10-02 キヤノン株式会社 撮像装置及びその制御方法
JP5683025B2 (ja) * 2010-04-19 2015-03-11 パナソニックIpマネジメント株式会社 立体画像撮影装置および立体画像撮影方法
WO2012071466A2 (en) * 2010-11-24 2012-05-31 Aria Glassworks, Inc. System and method for acquiring virtual and augmented reality scenes by a user
JP5742210B2 (ja) 2010-12-22 2015-07-01 ソニー株式会社 撮像装置、画像処理装置、画像処理方法およびプログラム
JP5625887B2 (ja) 2010-12-22 2014-11-19 ソニー株式会社 撮像装置、その制御方法およびプログラム
US20180032997A1 (en) * 2012-10-09 2018-02-01 George A. Gordon System, method, and computer program product for determining whether to prompt an action by a platform in connection with a mobile device
GB201208088D0 (en) * 2012-05-09 2012-06-20 Ncam Sollutions Ltd Ncam
JP6039328B2 (ja) 2012-09-14 2016-12-07 キヤノン株式会社 撮影制御装置および撮像装置の制御方法
JP2014222825A (ja) 2013-05-13 2014-11-27 キヤノン株式会社 映像処理装置および映像処理方法
JP6291748B2 (ja) 2013-08-29 2018-03-14 株式会社リコー 撮像装置、撮像方法、及びプログラム
IL235073A (en) * 2014-10-07 2016-02-29 Elbit Systems Ltd Head-mounted view of enlarged images that are locked on an object of interest
CN104331860A (zh) * 2014-11-24 2015-02-04 小米科技有限责任公司 图片查看方法和装置
FR3028767B1 (fr) * 2014-11-26 2017-02-10 Parrot Systeme video pour le pilotage d'un drone en mode immersif
JP2016115965A (ja) * 2014-12-11 2016-06-23 ソニー株式会社 医療用眼鏡型表示装、情報処理装置及び情報処理方法
CN104537616A (zh) * 2014-12-20 2015-04-22 中国科学院西安光学精密机械研究所 鱼眼图像畸变的校正方法
CN105872349A (zh) * 2015-01-23 2016-08-17 中兴通讯股份有限公司 拍摄方法、拍摄装置及移动终端
JP6476041B2 (ja) * 2015-03-31 2019-02-27 株式会社Aze 医用画像診断装置、その制御方法、及びプログラム
US10300362B2 (en) * 2015-04-23 2019-05-28 Win Reality, Llc Virtual reality sports training systems and methods
US10222619B2 (en) * 2015-07-12 2019-03-05 Steven Sounyoung Yu Head-worn image display apparatus for stereoscopic microsurgery
JP6627352B2 (ja) * 2015-09-15 2020-01-08 カシオ計算機株式会社 画像表示装置、画像表示方法及びプログラム
JP2017085466A (ja) 2015-10-30 2017-05-18 キヤノン株式会社 撮像装置、及びその制御方法
CN105455285B (zh) * 2015-12-31 2019-02-12 北京小鸟看看科技有限公司 一种虚拟现实头盔适配方法
US10176726B2 (en) * 2016-02-25 2019-01-08 Freedom Scientific, Inc. Handheld, portable vision aid device and vision aid system
CN106101687B (zh) * 2016-07-25 2018-05-15 深圳市同盛绿色科技有限公司 Vr图像拍摄装置及其基于移动终端的vr图像拍摄系统
JP6278575B1 (ja) * 2016-11-21 2018-02-14 株式会社コナミデジタルエンタテインメント ゲーム制御装置、ゲームシステム、及びプログラム
US11612307B2 (en) * 2016-11-24 2023-03-28 University Of Washington Light field capture and rendering for head-mounted displays
CN106791377B (zh) * 2016-11-29 2019-09-27 Oppo广东移动通信有限公司 控制方法、控制装置及电子装置
KR20180073327A (ko) * 2016-12-22 2018-07-02 삼성전자주식회사 영상 표시 방법, 저장 매체 및 전자 장치
KR102623391B1 (ko) * 2017-01-10 2024-01-11 삼성전자주식회사 영상 출력 방법 및 이를 지원하는 전자 장치

Also Published As

Publication number Publication date
KR102235231B1 (ko) 2021-04-02
JP2019012881A (ja) 2019-01-24
GB201810400D0 (en) 2018-08-08
GB2565634A (en) 2019-02-20
CN109218606A (zh) 2019-01-15
KR20190002346A (ko) 2019-01-08
US10645278B2 (en) 2020-05-05
US20190007609A1 (en) 2019-01-03
JP7000050B2 (ja) 2022-01-19
CN109218606B (zh) 2021-11-19
GB2565634B (en) 2020-12-02

Similar Documents

Publication Publication Date Title
DE102018115437A1 (de) Abbildungssteuerungsvorrichtung und Steuerungsverfahren für diese
DE112014006009B4 (de) Bildaufnahmegerät und Zeitraffer-Bildaufnahmeverfahren
DE112013002286B4 (de) Bildaufnahmevorrichtung und Verfahren zur Fokussierungssteuerung
DE102018101904B4 (de) Bildaufnahmevorrichtung und Steuerverfahren für diese
CN106973228B (zh) 一种拍摄方法及电子设备
DE102012109616A1 (de) Verfahren zum Verhindern einer Verschlussverzögerung, Kameramodul und mobile Vorrichtung mit denselben
CN105554372B (zh) 一种拍摄方法以及装置
JP2017505004A (ja) 画像生成方法及びデュアルレンズ装置
DE102014106579A1 (de) Besondere Gesten für Kamerasteuerungs- und Bildverarbeitungsverfahren
DE102018133609A1 (de) Elektronische Vorrichtung und Verfahren zur Steuerung derselben
CN112565589A (zh) 一种拍照预览方法、装置、存储介质和电子设备
CN105635568B (zh) 一种移动终端中的图像处理方法和移动终端
DE102017113116A1 (de) Kamerabetriebsmodus-Steuerung
CN108932701B (zh) 信息处理装置、信息处理方法和非暂时性存储介质
JP2022500792A (ja) 画像処理方法及び装置、電子機器並びに記憶媒体
DE102022118817A1 (de) Bildaufnahmevorrichtung, die als Action-Kamera verwendet wird, Steuerverfahren für diese und Speichermedium, das ein Steuerprogramm für diese speichert
DE102015110026B4 (de) Bildverarbeitungsvorrichtung, zugehöriges steuerverfahren und speichermedium
CN109089045A (zh) 一种基于多个摄像装置的摄像方法及设备及其终端
DE102016006242A1 (de) Informationsverarbeitungsvorrichtung, steuerverfahren für informationsverarbeitungsvorrichtung, bildverarbeitungssystem und speichermedium
DE102020132113A1 (de) Elektronische Vorrichtung, Verfahren zur Steuerung einer elektronischen Vorrichtung, Programm und Speichermedium
JP2023526806A (ja) 手振れ防止方法、手振れ防止装置及び電子機器
DE102011086597B4 (de) Bildaufnahmevorrichtung, die zum löschen eines auf einem bewegtbild überlagerten videoeffekts in der lage ist, verfahren zum steuern der vorrichtung, und bewegtbild-aufzeichungsvorrichtung, sowie ein speichermedium
DE102019133659A1 (de) Elektronische Vorrichtung, Steuerverfahren, Programm und computerlesbares Medium
CN103369226A (zh) 摄像装置及其影像合成方法
CN213461928U (zh) 全景相机和电子设备

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: H04N0005232000

Ipc: H04N0023600000