DE102020103245A1 - Elektronische Vorrichtung zur Steuerung von Bildanzeige, Steuerverfahren von elektronischer Vorrichtung und Programm - Google Patents

Elektronische Vorrichtung zur Steuerung von Bildanzeige, Steuerverfahren von elektronischer Vorrichtung und Programm Download PDF

Info

Publication number
DE102020103245A1
DE102020103245A1 DE102020103245.5A DE102020103245A DE102020103245A1 DE 102020103245 A1 DE102020103245 A1 DE 102020103245A1 DE 102020103245 A DE102020103245 A DE 102020103245A DE 102020103245 A1 DE102020103245 A1 DE 102020103245A1
Authority
DE
Germany
Prior art keywords
image
display
reference point
electronic device
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020103245.5A
Other languages
English (en)
Inventor
Yasuhiro Kuwabara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of DE102020103245A1 publication Critical patent/DE102020103245A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/676Bracketing for image capture at varying focusing conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Remote Sensing (AREA)
  • Computing Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)

Abstract

Eine elektronische Vorrichtung mit: einem Speicher und zumindest einem Prozessor und/oder zumindest einer Schaltung zum Durchführen der Betriebsvorgänge der folgenden Einheiten: einer Steuereinheit, die konfiguriert ist zum 1) Anzeigen von zumindest einem einen Bezugspunkt umfassenden Teil aus einem VR-Bild, das durch ein Projektionsformat unter Verwendung eines vorbestimmten Punkts als den Bezugspunkt dargestellt wird, in einem Anzeigebereich, und 2) Ändern des Bezugspunkts, wenn eine Anweisung von einem Benutzer empfangen wird; und einer Bestimmungseinheit, die konfiguriert ist zum Bestimmen des Bezugspunkts als einen Zenit oder einen Nadir des VR-Bilds.

Description

  • Hintergrund der Erfindung
  • Gebiet der Erfindung
  • Die vorliegende Erfindung bezieht sich auf eine elektronische Vorrichtung zur Steuerung einer Anzeige von Bildern, ein Steuerverfahren der elektronischen Vorrichtung und ein Programm.
  • Beschreibung der verwandten Technik
  • In den letzten Jahren sind Bildgebungsvorrichtungen gängig geworden, die Bilder in einem Bereich bzw. Umfang aufnehmen, der weiter ist als der menschliche Blick- bzw. Sichtwinkel, wie etwa omnidirektionale Bilder oder sphärische Bilder (VR-Bilder). Ein Verfahren zum Anzeigen eines Teils eines Bilds mit einem weiten Bereich bzw. Umfang auf einem Bildschirm einer Anzeigevorrichtung und Ändern des Bereichs bzw. Umfangs des Bilds, der auf dem Bildschirm angezeigt wird (Anzeigebereich), so dass er der Änderung der Lage/Haltung/Stellung der Anzeigevorrichtung folgt, um eine Anzeige mit einem hohen Eintauchgefühl und einer realistischen Wahrnehmung (VR-Ansicht) zu implementieren, ist auch bekannt.
  • In einem VR-Bild kann zum Beispiel, wenn der Zenit und der Nadir bestimmt werden, eine horizontale Ebene des VR-Bilds basierend auf der diese beiden Punkte verbindenden Achse bestimmt werden. Wenn die Mitte des VR-Bilds vorbestimmt ist, kann die horizontale Ebene basierend auf entweder dem Zenit oder dem Nadir bestimmt werden. Wenn die horizontale Ebene angemessen bestimmt wird, kann die in einem Bild aufgenommene horizontale Linie linear angepasst werden, und kann das Bild korrigiert werden, so dass es parallel zu der horizontalen Richtung auf dem Bildschirm angezeigt wird, womit das aufgenommene Objekt auf der Anzeige angemessen reproduziert bzw. wiedergegeben werden kann. Mit anderen Worten kann die Sichtbarkeit des Bilds verbessert werden, wenn der Benutzer das Bild reproduziert bzw. wiedergibt.
  • Ferner wurde eine Horizontalkorrektur durchgeführt, die die horizontale Ebene (Informationen über die horizontale Ebene) gemäß der Bildaufnahmelage/ -haltung/-stellung, einer Neigung der Bilderfassungsvorrichtung und dergleichen korrigiert. Japanische Patentanmeldungsoffenlegungsschrift Nr. 2018-129720 offenbart eine Technik zum Durchführen der Horizontalkorrektur durch genaues Durchführen der projektiven Transformation auf einem VR-Bild, das aufgenommen wird, während die Bilderfassungsvorrichtung Orte wechselt oder sich bewegt.
  • Jedoch wird im Fall von japanischer Patentanmeldungsoffenlegungsschrift Nr. 2018-129720 die Horizontalkorrektur basierend auf der Beschleunigung und der Winkelgeschwindigkeit der Bilderfassungsvorrichtung während der Bildaufnahme durchgeführt, womit die Horizontalkorrektur nicht durchgeführt werden kann, wenn diese Informationen während der Bildaufnahme nicht erfasst werden. In einem solchen Fall wird selbst dann, wenn der Benutzer versucht, den Zenit und den Nadir zur Horizontalkorrektur zu spezifizieren, diese Spezifizierung schwierig, da die horizontale Linie, die als der Bezug zu dienen hat, erheblich gekrümmt bzw. gebogen ist, wenn das VR-Bild auf einer Ebene teilweise angezeigt oder entwickelt wird. Mit anderen Worten kann im Stand der Technik der Zenit und der Nadir in dem VR-Bild durch die Benutzerbedienung nicht leicht bestimmt werden.
  • Kurzfassung der Erfindung
  • Die vorliegende Erfindung ermöglicht ein leichtes Bestimmen des Zenits und des Nadirs des VR-Bilds durch die Benutzerbedienung.
  • Ein erster Aspekt der Erfindung der vorliegenden Offenbarung ist:
    • eine elektronische Vorrichtung mit:
      • einer Steuereinheit, die konfiguriert ist zum:
        1. 1) Anzeigen von zumindest einem einen Bezugspunkt umfassenden Teil aus einem VR-Bild, das durch ein Projektionsformat unter Verwendung eines vorbestimmten Punkts als den Bezugspunkt dargestellt bzw. ausgedrückt wird, in einem Anzeigebereich, und
        2. 2) Ändern des Bezugspunkts, wenn eine Anweisung von einem Benutzer empfangen wird; und
      • einer Bestimmungseinheit, die konfiguriert ist zum Bestimmen des Bezugspunkts als einen Zenit oder einen Nadir des VR-Bilds.
  • Ein zweiter Aspekt der Erfindung der vorliegenden Offenbarung ist:
    • ein Steuerverfahren einer elektronischen Vorrichtung mit:
      • einem Steuerschritt des 1) Anzeigens von zumindest einem einen Bezugspunkt umfassenden Teil aus einem VR-Bild, das durch ein Projektionsformat unter Verwendung eines vorbestimmten Punkts als den Bezugspunkt dargestellt bzw. ausgedrückt wird, in einem Anzeigebereich, und 2) Änderns des Bezugspunkts, wenn eine Anweisung von einem Benutzer empfangen wird; und
      • einem Bestimmungsschritt des Bestimmens des Bezugspunkts als einen Zenit oder einen Nadir des VR-Bilds.
  • Weitere Merkmale der vorliegenden Erfindung werden aus der folgenden Beschreibung von beispielhaften Ausführungsbespielen unter Bezugnahme auf die beigefügten Zeichnungen deutlich.
  • Figurenliste
    • 1A und 1B sind Außenansichten einer Digitalkamera gemäß einem Ausfü h ru ngsbeispiels;
    • 2 ist ein Blockschaltbild der Digitalkamera gemäß dem Ausführungsbeispiel;
    • 3A bis 3C sind Darstellungen zur Erläuterung einer Anzeigesteuervorrichtung gemäß dem Ausführungsbeispiel;
    • 4 ist ein Ablaufdiagramm, das eine Bildwiedergabeverarbeitung gemäß dem Ausführungsbeispiel darstellt;
    • 5A bis 5C sind Ablaufdiagramme, die Einzelheiten der Bildwiedergabeverarbeitung gemäß dem Ausführungsbeispiel darstellen;
    • 6 ist ein Ablaufdiagramm, das eine Einstellverarbeitung gemäß dem Ausführungsbeispiel darstellt;
    • 7A und 7B sind Darstellungen, die eine Anzeige auf dem Anzeigebildschirm gemäß dem Ausführungsbeispiel darstellen; und
    • 8A und 8B sind Darstellungen, die eine Anzeige auf dem Anzeigebildschirm gemäß dem Ausführungsbeispiel darstellen.
  • Ausführliche Beschreibung der Ausführungsbeispiele
  • Ein Ausführungsbeispiel der vorliegenden Erfindung wird unter Bezugnahme auf die Zeichnungen beschrieben.
  • Ausführungsbeispiel
  • Bei diesem Ausführungsbeispiel zeigt eine elektronische Vorrichtung, aus einem VR-Bild, das durch ein Projektionsformat unter Verwendung eines vorbestimmten Punkts als einen Bezugspunkt dargestellt bzw. ausgedrückt wird, zumindest einen Teil, der den Bezugspunkt umfasst, auf einem vorbestimmten Anzeigebereich an. Wenn eine Anweisung durch den Benutzer empfangen wird, ändert die elektronische Vorrichtung die Position des VR-Bilds, die durch den Bezugspunkt bezeichnet wird, durch Änderung der Position des Bezugspunkts des VR-Bilds. Dadurch ändert sich das in dem vorbestimmten Anzeigebereich angezeigte Bild. Wenn der in dem vorbestimmten Anzeigebereich angezeigte Bezugspunkt den Zenit oder den Nadir des VR-Bilds bezeichnet, wird das VR-Bild in dem vorbestimmten Anzeigebereich derart angezeigt, dass die tatsächliche bzw. effektive horizontale Linie (der Horizont) des VR-Bilds kreisförmig sich erstreckt bzw. verläuft, mit dem Bezugspunkt als die Mitte. Die elektronische Vorrichtung bestimmt zum Beispiel, ob der Bezugspunkt des VR-Bilds den Zenit oder den Nadir bezeichnet, durch die Benutzerbedienung. Daher kann der Zenit oder der Nadir des VR-Bilds durch die Benutzerbedienung leicht bestimmt werden.
  • Außenansicht von Digitalkamera
  • Zunächst wird eine Digitalkamera 100 beschrieben, die eine Vorrichtung zum Aufnehmen eines VR-Bilds ist. 1A ist eine vordere perspektivische Ansicht (Außenansicht) der Digitalkamera 100 (Bildgebungsvorrichtung), die die elektronische Vorrichtung darstellt. 1B ist eine hintere perspektivische Ansicht (Außenansicht) der Digitalkamera 100. Die Digitalkamera 100 ist eine Omnidirektional-/Rundumkamera (sphärische Kamera).
  • Bei diesem Ausführungsbeispiel wird angenommen, dass die Digitalkamera 100 aus einer Kameraeinheit a und einer Kameraeinheit b aufgebaut ist, deren Bildaufnahmebereiche bzw. -umfänge verschieden voneinander sind. Hier ist die Kameraeinheit a eine Weitwinkelkamera, deren Bildaufnahmebereich bzw. -umfang zumindest 180° horizontal und vertikal auf der Vorderseite der Digitalkamera 100 ist. Die Kameraeinheit b ist eine Weitwinkelkamera, deren Bildaufnahmebereich bzw. -umfang zumindest 180° horizontal und vertikal auf der Rückseite der Digitalkamera 100 ist.
  • Eine Abdeckung 102a ist ein Schutzfenster einer Bildaufnahmelinse 103a für die Kameraeinheit a, deren Bildaufnahmebereich bzw. -umfang ein vorderer Bereich der Digitalkamera 100 ist. Die Abdeckung 102a kann eine äußere Oberfläche der Bildaufnahmelinse 103a sein. Eine Abdeckung 102b ist ein Schutzfenster einer Bildaufnahmelinse 103b für die Kameraeinheit b, deren Bildaufnahmebereich bzw. -umfang ein hinterer Bereich der Digitalkamera 100 ist. Die Abdeckung 102b kann eine äußere Oberfläche der Bildaufnahmelinse 103b sein.
  • Eine Anzeigeeinheit 28 ist eine Anzeigeeinheit zum Anzeigen verschiedener Informationen. Ein Auslöser bzw. Auslöseknopf 61 ist eine Bedieneinheit zum Anweisen einer Bildaufnahme. Ein Modusauswahlschalter 60 ist eine Bedieneinheit zum Umschalten verschiedener Modi bzw. Betriebsarten. Eine Verbindungsschnittstelle(-I/F) 25 ist ein Verbinder zum Verbinden eines Verbindungskabels mit der Digitalkamera 100, wodurch die Digitalkamera 100 mit einer externen Vorrichtung (z.B. Smartphone, Personalcomputer, TV) verbunden wird. Eine Bedieneinheit 70 ist eine Bedieneinheit, die aus Bedienelementen (z.B. verschiedenen Schaltern, Tasten, Wähleinrichtungen, Berührungssensoren) aufgebaut ist, um verschiedene Bedienungen von dem Benutzer zu empfangen. Ein Leistungsschalter 72 ist ein Druckknopf zum Ein-/ Ausschalten der Leistungsversorgung.
  • Eine Lichtemissionseinheit 21 ist ein lichtemittierendes Element (z.B. eine Leuchtiode (LED)), die den Benutzer über verschiedene Zustände der Digitalkamera 100 unter Verwendung von Lichtemissionsmustern und Lichtemissionsfarben benachrichtigt. Eine Befestigungseinheit 40 ist zum Beispiel ein Schraubenloch für ein Stativ und wird zum Installieren und Befestigen der Digitalkamera 100 an einer Befestigungs- bzw. Halteeinrichtung (z.B. einem Stativ) verwendet.
  • Konfiguration von Digitalkamera
  • 2 ist ein Blockschaltbild, das ein Konfigurationsbeispiel der Digitalkamera 100 darstellt.
  • Die Abdeckung 102a deckt ein Bildgebungssystem der Kameraeinheit a, umfassend die Bildaufnahmelinse 103a, der Digitalkamera 100 ab, um Verschmutzung und Beschädigung des Bildgebungssystems, einschließlich der Bildaufnahmelinse 103a, eines Verschlusses 101a und einer Bildgebungseinheit 22a, zu verhindern.
  • Die Bildaufnahmelinse 103a ist eine Linsengruppe mit einer Zoomlinse und einer Fokuslinse, und ist ein/eine Weitwinkelobjektiv/-linse. Der Verschluss 101a ist ein Verschluss, der eine Blendenfunktion zum Anpassen der einfallenden Menge des Objektlichts auf die Bildgebungseinheit 22a aufweist. Die Bildgebungseinheit 22a ist ein Bildaufnahmeelement, das aus einem CCD, einem CMOS-Element oder dergleichen besteht, um ein optisches Bild in ein elektrisches Signal umzuwandeln. Ein A/D-Wandler 23a wandelt ein von der Bildgebungseinheit 22a ausgegebenes analoges Signal in ein digitales Signal um.
  • Die Abdeckung 102b deckt ein Bildgebungssystem der Kameraeinheit b, umfassend die Bildaufnahmelinse 103b, der Digitalkamera 100 ab, um Verschmutzung und Beschädigung des Bildgebungssystems, einschließlich der Bildaufnahmelinse 103b, eines Verschlusses 101b und einer Bildgebungseinheit 22b, zu verhindern.
  • Die Bildaufnahmelinse 103b ist eine Linsengruppe mit einer Zoomlinse und einer Fokuslinse, und ist ein/eine Weitwinkelobjektiv/-linse. Der Verschluss 101b ist ein Verschluss, der eine Blendenfunktion zum Anpassen der einfallenden Menge des Objektlichts auf die Bildgebungseinheit 22b aufweist. Die Bildgebungseinheit 22b ist ein Bildaufnahmeelement, das aus einem CCD, einem CMOS-Element oder dergleichen aufgebaut ist, um ein optisches Bild in ein elektrisches Signal umzuwandeln. Ein A/D-Wandler 23b wandelt ein von der Bildgebungseinheit 22b ausgegebenes analoges Signal in ein digitales Signal um.
  • Ein VR-Bild wird durch die Bildgebungseinheit 22a und die Bildgebungseinheit 22b aufgenommen. Das VR-Bild ist ein Bild, das VR-angezeigt werden kann. Das VR-Bild umfasst ein omnidirektionales Bild (sphärisches Bild), das durch eine Omnidirektional-/Rundumkamera (sphärische Kamera) aufgenommen wird, und ein Panoramabild mit einem Bildbereich bzw. -umfang (einem effektiven Bildbereich bzw. -umfang), der weiter ist als der mögliche Anzeigebereich der Anzeigeeinheit. Das VR-Bild umfasst nicht nur ein Stehbild, sondern auch ein Bewegtbild und ein Liveansichtsbild (ein Bild, das von der Kamera nahezu in Echtzeit erfasst wird). Das VR-Bild hat einen Bildbereich bzw. -umfang (effektiven Bildbereich bzw. -umfang) äquivalent zu einem Gesichts- bzw. Sehfeld, das höchstens 360° in der vertikalen Richtung (Vertikalwinkel, Winkel von dem Zenit, Elevations-/Erhebungswinkel, Depressions-/Neigungswinkel, Höhenwinkel) und 360° in der horizontalen Richtung (Horizontalwinkel, Azimutwinkel) ist. Das VR-Bild umfasst ein Bild, das einen Blick- bzw. Sichtwinkel (einen Gesichts- bzw. Sehfeldbereich bzw. -umfang) aufweist, der weiter ist als der Blick- bzw. Sichtwinkel, den eine Standardkamera aufnehmen kann, selbst wenn der Winkel kleiner ist als 360° vertikal und 360° horizontal, oder ein Bild, das einen Bildbereich bzw. -umfang (effektiven Bildbereich bzw. -umfang) aufweist, der weiter ist als ein möglicher Anzeigebereich der Anzeigeeinheit.
  • Zum Beispiel ist ein Bild, das durch eine Omnidirektionalkamera aufgenommen wird, die ein Bild eines Objekts in einem Gesichts- bzw. Sehfeld (Blick- bzw. Sichtwinkel) aufnehmen kann, das 360° horizontal (Horizontalwinkel, Azimutwinkel) und 210° vertikal mit dem Zenit in der Mitte ist, eine Art von VR-Bild. Ferner ist ein Bild, das durch eine Kamera aufgenommen wird, die ein Bild eines Objekts in einem Gesichts- bzw. Sehfeld (Blick- bzw. Sichtwinkel) aufnehmen kann, das 180° horizontal (Horizontalwinkel, Azimutwinkel) und 180° vertikal mit der Horizontalrichtung in der Mitte ist, eine Art von VR-Bild. Mit anderen Worten ist ein Bild, das einen Bildbereich bzw. -umfang eines Gesichts- bzw. Sehfelds aufweist, das zumindest 160° (±80°) in der Vertikalrichtung und der Horizontalrichtung ist, und das einen Bildbereich bzw. -umfang aufweist, der weiter ist als ein Bereich bzw. Umfang, den ein Mensch visuell auf einmal erkennen kann, eine Art von VR-Bild. Wenn dieses VR-Bild VR-angezeigt (im Anzeigemodus „VR-Ansicht“ angezeigt) wird, kann ein naht- bzw. übergangsloses omnidirektionales Bild in der Horizontalrichtung (horizontalen Drehrichtung) durch Änderung der Lage/Haltung/Stellung der Anzeigevorrichtung in der horizontalen Drehrichtung betrachtet werden. Im Hinblick auf die Vertikalrichtung (vertikale Drehrichtung) kann ein naht- bzw. übergangsloses Omnidirektionalbild in dem Bereich ±105° von oben (Zenit) betrachtet werden, aber wird der Bereich, der 105° von dem Zenit überschreitet, zu einem leeren Bereich, wo kein Bild existiert. Das VR-Bild kann definiert werden als „ein Bild, dessen Bildbereich bzw. -umfang zumindest ein Teil eines virtuellen Raums (VR-Raums) ist“.
  • Die VR-Anzeige (VR-Ansicht) ist ein Anzeigeverfahren (Anzeigemodus), das den Anzeigebereich, um ein Bild in dem Bereich eines Gesichts- bzw. Sehfelds gemäß der Lage/Haltung/Stellung der Anzeigevorrichtung anzuzeigen, aus dem VR-Bild ändern kann. Um ein Bild zu betrachten, während eine am Kopf getragene/befestigte Anzeige (HMD: „Head Mount Display“) getragen wird, die eine Anzeigevorrichtung ist, wird ein Bild in dem Gesichts- bzw. Sehfeld gemäß der Orientierung des Gesichts des Benutzers angezeigt. Zum Beispiel wird angenommen, dass ein Bild in dem Gesichts- bzw. Sehwinkel (Blick- bzw. Sichtwinkel), der bei 0° in der Horizontalrichtung (spezifischer Azimut, wie etwa Norden) und 90° in der Vertikalrichtung (90° von dem Zenit, der die Horizontalrichtung ist) zentriert ist, aus dem VR-Bild, zu einer bestimmten Zeit angezeigt wird. Wenn die Lage/Haltung/Stellung der Anzeigevorrichtung in Bezug auf vorne/hinten umgekehrt wird (z.B. eine Anzeigefläche von nach Süden gerichtet auf nach Norden gerichtet geändert wird), wird der Anzeigebereich auf ein Bild in dem Gesichts- bzw. Sehwinkel geändert, der bei 180° in der Horizontalrichtung (gegenüberliegender Azimut, wie etwa Süden) und 90° in der Vertikalrichtung (Horizontalrichtung) zentriert ist, aus dem gleichen VR-Bild geändert. In dem Fall, dass der Benutzer das Bild betrachtet, während er eine HMD trägt, ändert sich das auf der HMD angezeigt Bild von einem Bild nach Norden auf ein Bild nach Süden, wenn der Benutzer sein Gesicht von Norden nach Süden dreht (mit anderen Worten, wenn der Benutzer sich umdreht). Durch diese VR-Anzeige kann der Benutzer visuell die Wahrnehmung erfahren, als ob er tatsächlich an dem Punkt des VR-Bilds (VR-Raums) wäre. Ein an der VR-Brille (Kopftrageadapter) installiertes Smartphone kann als eine Art von HMD betrachtet werden. Das Verfahren zum Anzeigen des VR-Bilds ist nicht auf die vorstehende Beschreibung beschränkt, und der Anzeigebereich bzw. -umfang kann gemäß der Benutzerbedienung auf einem Berührfeld, einer Richtungstaste oder dergleichen, anstelle durch Änderung der Lage/Haltung/Stellung, bewegt (gescrollt) werden. Wenn das VR-Bild in dem VR-Anzeigemodus (VR-Ansichtsmodus) angezeigt wird, kann der Anzeigebereich nicht nur durch Ändern der Lage/Haltung/Stellung geändert werden, sondern auch durch eine Touch-Move-Bedienung auf dem Berührfeld oder eine Drag-Bedienung unter Verwendung eines Bedienelements (z.B. Maus).
  • Eine Bildverarbeitungseinheit 24 führt eine vorbestimmte Verarbeitung, wie etwa Pixelinterpolation, Größenänderung (z.B. Herauszoomen) und Farbumwandlung, auf den Daten von dem A/D-Wandler 23a und dem A/D-Wandler 23b oder den Daten von der Speichersteuereinheit 15 durch. Die Bildverarbeitungseinheit 24 führt auch eine vorbestimmte arithmetische Verarbeitung unter Verwendung aufgenommener Bilddaten durch. Eine Systemsteuereinheit 50 führt eine Belichtungssteuerung und eine Entfernungsmesssteuerung basierend auf dem durch die Bildverarbeitungseinheit 24 erfassten arithmetischen Ergebnis durch. Dadurch werden die Autofokus-(AF-)Verarbeitung, Autobelichtung-(AE-) Verarbeitung und Vorabblitzemission-(EF-)Verarbeitung des TTL-Typs (TTL: „Through-The-Lens“) durchgeführt. Die Bildverarbeitungseinheit 24 führt auch eine vorbestimmte arithmetische Verarbeitung unter Verwendung der aufgenommenen Bilddaten durch, und sie führt eine Autoweißabgleich-(AWB-) Verarbeitung des TTL-Typs basierend auf dem erfassen arithmetischen Ergebnis durch.
  • Ferner führt die Bildverarbeitungseinheit 24 eine grundlegende Bildverarbeitung auf den zwei Bildern (Fischaugenbildern) durch, die von dem A/D-Wandler 23a und dem A/D-Wandler 23b erfasst werden, und verbindet sie die Bilder (Bildverbindungsverarbeitung), um ein einzelnes VR-Bild zu erzeugen. In der Bildverbindungsverarbeitung zum Verbinden der zwei Bilder berechnet die Bildverarbeitungseinheit 24 für jedes der zwei Bilder den Abweichungsbetrag zwischen dem Bezugsbild und dem Vergleichsbild für jeden Bereich durch Mustervergleichsverarbeitung, und detektiert sie eine Verbindungsposition. Dann korrigiert die Bildverarbeitungseinheit 24 unter Berücksichtigung der detektierten Verbindungsposition und der Linsencharakteristik von jedem optischen System die Verzerrung von jedem der zwei Bilder durch die geometrische Umwandlung, um jedes Bild in ein Bild in einem Omnidirektionalbildformat umzuwandeln. Durch Verschmelzen bzw. Überblenden dieser zwei Bilder in dem Omnidirektionalbildformat erzeugt die Bildverarbeitungseinheit 24 ein Omnidirektionalbild (VR-Bild). Das erzeugte Omnidirektionalbild (VR-Bild) ist ein Bild basierend auf der äquirektangulären Projektion, und die Position von jedem Pixel kann zu den Koordinaten auf der Oberfläche einer Sphäre bzw. Kugel in Entsprechung gebracht werden. Wenn das VR-Bild in Liveansicht angezeigt oder wiedergegeben bzw. reproduziert wird, führt die Bildverarbeitungseinheit 24 eine Bildextraktionsverarbeitung, eine Zoomverarbeitung, eine Verzerrungskorrektur und dergleichen durch, um das VR-Bild VR-anzuzeigen, und führt sie auch ein Rendering durch, um das VR-Bild in den VRAM des Speichers 32 zu ziehen.
  • Die Ausgangsdaten von den A/D-Wandlern 23 werden über die Bildverarbeitungseinheit 24 und die Speichersteuereinheit 15 oder über die Speichersteuereinheit 15 alleine in den Speicher 32 geschrieben. Der Speicher 32 speichert Bilddaten, die durch die Bildgebungseinheiten 22 erfasst und durch die A/D-Wandler 23 in digitale Daten umgewandelt werden, und Bilddaten, die über die Verbindung-I/F 25 an eine externe Anzeige ausgegeben werden. Der Speicher 32 hat eine Speicherkapazität, die ausreichend ist zum Speichern einer vorbestimmten Anzahl von Stehbildern oder einer vorbestimmten Zeit von Bewegtbildern und Tondaten.
  • Der Speicher 32 fungiert auch als ein Speicher zur Bildanzeige (Videospeicher). Die Daten zur Bildanzeige, die in dem Speicher 32 gespeichert werden, können über die Verbindung-I/F 25 an eine externe Anzeige ausgegeben werden. Wenn die VR-Bilder, die durch die Bildgebungseinheiten 22a und 22b aufgenommen, durch die Bildverarbeitungseinheit 24 erzeugt und in dem Speicher 32 angesammelt wurden, sequentiell an eine externe Anzeige übermittelt und auf dieser angezeigt werden, kann die Digitalkamera 100 als ein elektronischer Sucher fungieren und eine Liveansichtsanzeige (LV-Anzeige) durchführen. Hierin nachstehend wird das Bild, das durch die Liveansichtsanzeige angezeigt wird, als das „LV-Bild“ bezeichnet. Ferner können, um die Liveansichtsanzeige (Fern-LV-Anzeige) durchzuführen, die in dem Speicher 32 angesammelten Bilder an eine drahtlos verbundene externe Vorrichtung (z.B. Smartphone) über die Kommunikationseinheit 54 übermittelt und auf der Seite der externen Vorrichtung angezeigt werden.
  • Ein nichtflüchtiger Speicher 56 ist ein Speicher, der als ein elektrisch löschbares und beschreibbares Aufzeichnungsmedium fungiert, wie etwa ein EEPROM. In dem nichtflüchtigen Speicher 56 werden Konstanten, Programme und dergleichen zum Betrieb einer Systemsteuereinheit 50 gespeichert.
  • Die Systemsteuereinheit 50 ist eine Steuereinheit, die zumindest einen Prozessor oder eine Schaltung umfasst und die Digitalkamera 100 allgemein steuert. Die Systemsteuereinheit 50 implementiert jede nachstehend genannte Verarbeitung dieses Ausführungsbeispiels durch Ausführung eines Programms, das in dem vorgenannten nichtflüchtigen Speicher 56 aufgezeichnet ist. Der Systemspeicher 52 ist zum Beispiel ein RAM. In dem Systemspeicher 52 werden Konstanten und Variable für den Betrieb der Systemsteuereinheit 50 und aus dem nichtflüchtigen Speicher 56 gelesene Programme entwickelt. Die Systemsteuereinheit 50 steuert auch eine Anzeige durch Steuerung des Speichers 32, der Bildverarbeitungseinheit 24 und der Speichersteuereinheit 15.
  • Ein Systemzeitgeber 53 ist ein Zeitgeber, der die für verschiedene Steuerungen verwendete Zeit und die Zeit von internen Takten misst.
  • Der Modusauswahlschalter 60, der Auslöser 61 und die Bedieneinheit 70 sind Bedienelemente zum Eingeben verschiedener Bedienungsanweisungen an die Systemsteuereinheit 50. Der Modusauswahlschalter 60 schaltet den Betriebsmodus der Systemsteuereinheit 50 auf einen von einem Stehbildaufzeichnungsmodus, einem Bewegtbildaufnahmemodus, einem Wiedergabemodus, einem Kommunikationsverbindungsmodus und dergleichen um. Der Stehbildaufzeichnungsmodus umfasst einen Autobildaufnahmemodus, einen Autoszenenbestimmungsmodus, einen Manuellmodus, einen Blendenprioritätsmodus (Av-Modus), Verschlusszeitprioritätsmodus (Tv-Modus) und einen Programm-AE-Modus. Verschiedene Szenenmodi, um Bildaufnahmeeinstellungen für jede Bildaufnahmeszene vorzunehmen, und ein benutzerspezifischer Modus sind auch umfasst. Der Benutzer kann einen dieser Modi unter Verwendung des Modusauswahlschalters 60 direkt auswählen. Der Benutzer kann zunächst einen Bildaufnahmemoduslistenbildschirm unter Verwendung des Modusauswahlschalters 60 auswählen, und kann dann einen der Vielzahl von Modi, die auf der Anzeigeeinheit 28 angezeigt werden, unter Verwendung eines anderen Bedienelements auswählen. Der Bewegtbildaufnahmemodus kann in der gleichen Art und Weise eine Vielzahl von Modi umfassen.
  • Ein erster Auslöseschalter 62 wird inmitten der Bedienung, nämlich in dem halbgedrückten Zustand (Bildaufnahmevorbereitungsanweisung) des in der Digitalkamera 100 eingerichteten Auslösers 61 eingeschaltet und erzeugt ein erstes Auslöseschaltsignal SW1. Mit dem ersten Auslöseschaltsignal SW1 startet der Bildaufnahmevorbereitungsbetrieb, wie etwa die Autofokus-(AF-) Verarbeitung, die Autobelichtung-(AE-)Verarbeitung, die Autoweißabgleich-(AWB-)Verarbeitung und die Vorabblitzemission-(EF-)Verarbeitung.
  • Ein zweiter Auslöseschalter 64 wird eingeschaltet, wenn die Bedienung des Auslösers 61 abgeschlossen wird, nämlich in dem vollgedrückten Zustand (Bildaufnahmeanweisung), und erzeugt ein zweites Auslöseschaltsignal SW2. Durch das zweite Auslöseschaltsignal SW2 startet sie Systemsteuereinheit 50 eine Aufeinanderfolge von Betriebsvorgängen der Bildaufnahmeverarbeitung von einem Lesen der Signale von den Bildgebungseinheiten 22 bis zu einem Schreiben der Bilddaten auf ein Speichermedium 300.
  • Der Auslöser 61 ist nicht auf ein Bedienelement beschränkt, das die Bedienung in zwei Schritten (Halbdrücken und Volldrücken) durchführen kann, sondern kann ein Bedienelement sein, das nur eine Bedienung in einem Schritt durchführen kann. In diesem Fall werden der Bildaufnahmevorbereitungsbetrieb und die Bildaufnahmeverarbeitung durch ein einstufiges Drücken kontinuierlich durchgeführt. Dies ist gleich dem Fall eines vollen Drückens des Auslösers, der sowohl ein halbes Drücken als auch ein volles Drücken durchführen kann (einem Fall, in dem Signale SW1 und SW2 nahezu gleichzeitig erzeugt werden).
  • Jedes Bedienelement der Bedieneinheit 70 fungiert als diverse Funktionstasten, die die für jede Szene zugeordneten Funktionen durchführen, indem verschiedene Funktionssymbole und Optionen, die auf der Anzeigeeinheit 28 angezeigt werden, ausgewählt werden. Die Funktionstasten umfassen: eine Endetaste, eine Zurücktaste, eine Bildvorwärtstaste, eine Sprungtaste, eine Vorschautaste und eine Attributänderungstaste. Zum Beispiel, wenn die Menütaste gedrückt wird, wird ein Menübildschirm, der verschiedene Einstellungen ermöglicht, auf der Anzeigeeinheit 28 angezeigt. Der Benutzer betätigt die Bedieneinheit 70, während er den auf der Anzeigeeinheit 28 angezeigten Menübildschirm betrachtet, wodurch verschiedene Einstellungen intuitiv vorgenommen werden können.
  • Eine Leistungsversorgungssteuereinheit 80 umfasst eine Batteriedetektionsschaltung, einen Gleichspannungswandler und eine Schaltschaltung zum Auswählen eines mit Energie zu versorgenden Blocks, um zu detektieren, ob die Batterie installiert ist, einen Batterietyp zu detektieren und eine Restmenge von Batterieleistung bzw. -energie zu detektieren. Die Leistungsversorgungssteuereinheit 80 steuert auch den Gleichspannungswandler basierend auf dem Detektionsergebnis und den Anweisungen der Systemsteuereinheit 50 und liefert die erforderliche Spannung an jede Komponente, einschließlich des Speichermediums 300, für eine erforderliche Zeitdauer. Eine Leistungsversorgungseinheit 30 umfasst: eine Primärbatterie (z.B. Alkalibatterie, Lithiumbatterie), eine Sekundärbatterie (z.B. NiCd-Batterie, NiMH-Batterie, Li-Batterie) und einem AC-Adapter.
  • Eine Aufzeichnungsmedium-I/F 18 ist eine Schnittstelle zu einem Speichermedium 300 (z.B. Speicherkarte, Festplatte). Das Speichermedium 300 ist ein Aufzeichnungsmedium (Speichermedium), wie etwa eine Speicherkarte, zum Aufzeichnen von aufgenommenen Bildern, und ist aus einem Halbleiterspeicher, einer optischen Platte, einer magnetischen Platte und dergleichen aufgebaut. Das Speichermedium 300 kann ein wechselbares Aufzeichnungsmedium sein, das von der Digitalkamera 100 lösbar ist, oder kann ein Aufzeichnungsmedium (Speichermedium) sein, das in der Digitalkamera 100 eingebaut ist.
  • Eine Kommunikationseinheit 54 ist drahtlos oder über ein Kabel verbunden und überträgt/empfängt Bildsignale und Tonsignale. Die Kommunikationseinheit 54 kann auch mit einem drahtlosen lokalen Netzwerk (LAN) oder dem Internet verbunden werden. Die Kommunikationseinheit 54 kann durch die Bildgebungseinheiten 22a und 22b aufgenommene Bilder (einschließlich LV-Bildern) oder in dem Speichermedium 300 aufgezeichnete Bilder übertragen, sowie Bilder und verschiedene andere Informationen von einer externen Vorrichtung empfangen.
  • Eine Lagedetektionseinheit 55 detektiert eine Lage/Haltung/Stellung der Digitalkamera 100 mit Bezug auf die Gravitationsrichtung. Basierend auf der durch die Lagedetektionseinheit 55 detektierten Lage/Haltung/Stellung kann bestimmt werden, ob die durch die Bildgebungseinheiten 22 aufgenommenen Bilder Bilder sind, die aufgenommen sind, als die Digitalkamera 100 in der horizontalen Position gehalten ist, oder Bilder sind, die aufgenommen sind, als die Digitalkamera 100 in der vertikalen Position gehalten ist. Es kann auch bestimmt werden, zu/in welchem Grad die Digitalkamera 100 in den drei Achsrichtungen (Gier-, Nick- und Rollrichtung) geneigt war, als die Bilder aufgenommen wurden. Die Systemsteuereinheit 50 kann die Orientierungsinformationen gemäß der durch die Lagedetektionseinheit 55 detektierten Lage/Haltung/Stellung zu der Bilddatei des durch die Bildgebungseinheiten 22a und 22b aufgenommenen VR-Bilds hinzufügen oder das Bild drehen (die Orientierung der Bilder anpassen, um die Neigung zu korrigieren) und das gedrehte Bild aufzeichnen. Für die Lagedetektionseinheit 55 kann zumindest einer von dem Beschleunigungssensor, dem Gyrosensor, dem geomagnetischen Sensor, dem Azimutsensor, dem Höhensensor und dergleichen verwendet werden. Unter Verwendung des Beschleunigungssensors, des Gyrossensors und des Azimutsensors kann die Lagedetektionseinheit 55 auch die Bewegung der Digitalkamera 100 (z.B. Schwenken, Kippen, Erheben, Stillstehen) detektieren.
  • Ein Mikrofon 20 ist ein Mikrofon, das Ton rund um die Digitalkamera 100 einfängt, der als Ton des Bewegtbilds des VR-Bilds aufgezeichnet wird. Eine Verbindung-I/F 25 ist ein Verbindungsstecker, mit dem ein HDMI®-Kabel, ein USB-Kabel oder dergleichen verbunden wird, um Bilder zu/von einer externen Vorrichtung zu übertragen oder zu empfangen.
  • Außenansicht von Anzeigesteuervorrichtung
  • Als Nächstes wird eine Anzeigesteuervorrichtung 200, die eine Vorrichtung zum Wiedergeben bzw. Reproduzieren eines VR-Bilds ist, beschrieben. 3A ist eine Außenansicht eines Beispiels der Anzeigesteuervorrichtung 200, die eine Art von elektronische Vorrichtung darstellt. Eine Anzeige 205 ist eine Anzeigeeinheit, die Bilder und verschiedene Informationen anzeigt. Die Anzeige 205 ist mit einem Berührfeld 206a integriert, so dass die Berührungsbedienung auf der Anzeigeoberfläche der Anzeige 205 detektiert werden kann. Die Anzeigesteuervorrichtung 200 kann ein VR-Bild (VR-Inhalt) auf der Anzeige 205 VR-anzeigen. Eine Bedieneinheit 206 umfasst ein Berührfeld 206a und Bedieneinheiten 206b, 206c, 206d und 206e, wie es in 3A veranschaulicht ist.
  • Die Bedieneinheit 206b ist eine Leistungstaste, die eine Bedienung zum Ein-/ Ausschalten der Leistungsversorgung der Anzeigesteuervorrichtung 200 empfängt. Die Bedieneinheit 206c und die Bedieneinheit 206d sind Lautstärketasten zum Erhöhen/Verringern der Lautstärke des Tons, der von einer Tonausgabeeinheit 212 ausgegeben wird. Die Bedieneinheit 206e ist eine Home- bzw. Heimattaste zum Anzeigen eines Home-/Heimatbildschirms auf der Anzeige 205. Der Tonausgabeanschluss 212a ist eine Kopfhörerbuchse, die ein Anschluss zum Ausgeben von Tonsignalen an einen Kopfhörer, einen externen Lautsprecher oder dergleichen ist. Der Lautsprecher 212b ist ein eingebauter Lautsprecher zum Ausgeben von Ton.
  • Konfiguration von Anzeigesteuervorrichtung
  • 3B ist ein Blockschaltbild, das ein Beispiel einer Konfiguration der Anzeigesteuervorrichtung 200 veranschaulicht. Die Anzeigesteuervorrichtung 200 kann unter Verwendung einer solchen Anzeigevorrichtung wie etwa eines Smartphones konfiguriert sein. Eine CPU 201, ein Speicher 202, ein nichtflüchtiger Speicher 203, eine Bildverarbeitungseinheit 204, eine Anzeige 205, eine Bedieneinheit 206, eine Speichermedium-I/F 207, eine Extern-I/F 209 und eine Kommunikation-I/F 210 sind mit einem internen Bus 250 verbunden. Eine Tonausgabeeinheit 212 und eine Lagedetektionseinheit 213 sind auch mit dem internen Bus 250 verbunden. Jede Einheit, die mit dem internen Bus 250 verbunden ist, ist so konfiguriert, dass Daten mit anderen Einheiten über den internen Bus 250 ausgetauscht werden können.
  • Die CPU 201 ist eine Steuereinheit, die die Anzeigesteuereinheit 200 allgemein steuert und zumindest einen Prozessor oder eine Schaltung umfasst. Der Speicher 202 ist ein RAM (z.B. ein flüchtiger Speicher unter Verwendung eines Halbleiterelements). Die CPU 201 steuert jede Einheit der Anzeigesteuereinheit 200 unter Verwendung des Speichers 202 als Arbeitsspeicher zum Beispiel gemäß dem in dem nichtflüchtigen Speicher 203 gespeicherten Programm. Der nichtflüchtige Speicher 203 speichert solche Daten wie Bilddaten und Tondaten, sowie verschiedene Programme für den Betrieb der CPU 201. Der nichtflüchtige Speicher 203 ist zum Beispiel ein Flashspeicher oder ein ROM.
  • Die Bildverarbeitungseinheit 204 führt verschiedene Bildverarbeitungen auf den Bildern, die in dem nichtflüchtigen Speicher 203 und dem Speichermedium 208 gespeichert sind, den Bildsignalen, die über die Extern-I/F 209 erfasst werden, den Bildern, die über die Kommunikation-I/F 210 erfasst werden, und dergleichen basierend auf der Steuerung der CPU 201 durch. Die durch die Bildverarbeitungseinheit 204 durchgeführte Bildverarbeitung umfasst: eine A/D-Wandlungsverarbeitung, eine D/A-Wandlungsverarbeitung, eine Codierverarbeitung von Bilddaten, eine Kompressionsverarbeitung, eine Decodierverarbeitung, eine Zoomverarbeitung (Größenänderung), eine Rauschreduktionsverarbeitung und eine Farbumwandlungsverarbeitung. Die Bildverarbeitungseinheit 204 führt auch verschiedene Bildverarbeitungen (z.B. Panoramaentwicklung, Abbildungsverarbeitung, Umwandlung) auf einem VR-Bild durch, das ein Omnidirektionalbild oder ein Weitwinkelbild ist, das kein Omnidirektionalbild, sondern ein Bild mit Daten in einem weiten Bereich bzw. Umfang ist. Die Bildverarbeitung 204 kann durch dedizierte Schaltungsblöcke zum Durchführen einer speziellen Bildverarbeitung konfiguriert sein. Abhängig von der Art von Bildverarbeitung kann die CPU 201 die Bildverarbeitung gemäß einem Programm ohne Verwendung der Bildverarbeitungseinheit 204 durchführen.
  • Die Anzeige 205 zeigt Bilder und einen Bildschirm einer grafischen Benutzerschnittstelle (GUI) basierend auf der Steuerung der CPU 201 an. Die CPU 201 erzeugt Anzeigesteuersignale gemäß dem Programm und steuert jede Einheit der Anzeigesteuervorrichtung 200, um Bildsignale zum Anzeigen der Bilder auf der Anzeige 205 zu erzeugen und die Bildsignale an die Anzeige 205 auszugeben. Basierend auf den ausgegebenen Bildsignalen zeigt die Anzeige 205 das Bild an. Die Anzeigesteuervorrichtung 200 kann nur die Konfiguration bis zu der Schnittstelle zum Ausgeben der Bildsignale für die Anzeige 205 zum Anzeigen der Bilder umfassen, und die Anzeige 205 kann ein externer Monitor (z.B. TV) sein.
  • Die Bedieneinheit 206 ist eine Eingabeeinrichtung zum Empfangen einer Benutzerbedienung, die eine Textinformationseingabeeinrichtung (z.B. Tastatur), eine Zeigeeinrichtung (z.B. Maus, Berührfeld), Tasten bzw. Schaltflächen, Wähleinrichtungen, einen Joystick, einen Berührungssensor und ein Touchpad umfasst. Das Berührfeld ist eine Eingabeeinrichtung, die als eine Ebene bzw. Fläche konfiguriert ist, die auf der Anzeige 205 überlagert ist, so dass die der kontaktierten Position entsprechenden Koordinateninformationen ausgegeben werden.
  • Ein Speichermedium 208 (z.B. Speicherkarte, CD, DVD) kann an der Speichermedium-I/F 207 angeschlossen werden, und basierend auf der Steuerung der CPU 201 liest die Speichermedium-I/F 207 Daten von dem angeschlossenen Speichermedium 208 aus oder schreibt sie Daten auf das Speichermedium 208. Die Extern-I/F 209 ist eine Schnittstelle, die drahtlos oder über ein Kabel mit einer externen Vorrichtung verbunden wird, und gibt Bildsignale und Tonsignale ein/aus. Die Kommunikation-I/F 210 ist eine Schnittstelle zum Übertragen/Empfangen von verschiedenen Daten einschließlich Dateien und Befehlen durch Kommunikation mit einer externen Vorrichtung über das Internet 211 oder dergleichen.
  • Die Tonausgabeeinheit 212 gibt den Ton eines Bewegtbilds oder Musikdaten, Bedienungstöne, Klingeltöne, verschiedene Benachrichtigungstöne und dergleichen aus. Die Tonausgabeeinheit 212 umfasst den Tonausgabeanschluss 212a zum Verbinden eines Kopfhörers und dergleichen und den Lautsprecher 212b, aber der Ton kann über eine drahtlose Kommunikation oder dergleichen ausgegeben werden.
  • Die Lagedetektionseinheit 213 detektiert die Lage/Haltung/Stellung der Anzeigesteuervorrichtung 200 mit Bezug auf die Gravitationsrichtung und die Neigung der Lage/Haltung/Stellung der Anzeigesteuervorrichtung 200 mit Bezug auf jede Achse der Gier-, Roll- und Nickrichtung. Basierend auf der durch die Lagedetektionseinheit 213 detektierten Lage/Haltung/Stellung kann bestimmt werden, ob die Anzeigesteuervorrichtung 200 horizontal oder vertikal gehalten wird, und ob die Anzeigesteuervorrichtung 200 nach oben oder unten dreht oder sich in einer diagonalen Lage/Haltung/Stellung befindet. Für die Lagedetektionseinheit 213 kann zumindest einer von dem Beschleunigungssensor, dem Gyrossensor, dem geomagnetischen Sensor, dem Azimutsensor, dem Höhensensor und dergleichen verwendet werden, oder kann eine Kombination von einer Vielzahl von diesen Sensoren verwendet werden.
  • Wie es vorstehend erwähnt ist, umfasst die Bedieneinheit 206 ein Berührfeld 206a. Die CPU 201 kann die folgenden Bedienungen, die auf dem Berührfeld 206a durchgeführt werden, oder die Zustände von diesen detektieren.
    • - Ein Finger oder Stift, der das Berührfeld 206a gerade nicht berührt, berührt das Berührfeld 206a, das heißt, dass eine Berührung gestartet wird (hierin nachstehend Touch-Down).
    • - Ein Finger oder Stift berührt gerade das Berührfeld 206a (hierin nachstehen Tuch-On).
    • - Ein Finger oder Stift bewegt sich, während er das Berührfeld 206a berührt (hierin nachstehend Touch-Move).
    • - Ein Finger oder Stift, der das Berührfeld 206a gerade berührt, wird von dem Berührfeld 206a gelöst, das heißt, dass eine Berührung beendet wird (hierin nachstehend Touch-Up).
    • - Nichts berührt das Berührfeld 206a (hierin nachstehend Touch-Off).
  • Wenn Touch-Down detektiert wird, wird zu der gleichen Zeit auch Touch-On detektiert. Sofern nicht Touch-Up nach Touch-Down detektiert wird, wird normalerweise fortlaufend Touch-On detektiert. Auch wenn Touch-Move detektiert wird, wird zu der gleichen Zeit Touch-On detektiert. Selbst wenn Touch-On detektiert wird, wird Touch-Move nicht detektiert, sofern sich die Berührungsposition nicht bewegt. Touch-Off wird detektiert, wenn Touch-Up von allen Fingern oder dem Stift detektiert wird.
  • Diese Bedienungen, Zustände und Koordinaten der Positionen des Fingers bzw. der Finger oder des Stifts, die/der das Berührfeld 206a berühren/berührt, werden über den internen Bus an die CPU 201 gemeldet, und basierend auf den gemeldeten Informationen bestimmt die CPU 201 die Art von Bedienung (Berührungsbedienung), die auf dem Berührfeld 206a durchgeführt wurde. Für Touch-Move kann die CPU 201 auch die Bewegungsrichtung des Fingers oder Stifts auf dem Berührfeld 206a basierend auf der Änderung der Positionskoordinaten für die vertikalen Komponenten und die horizontalen Komponenten auf dem Berührfeld 206a bestimmen. Wenn Touch-Move für zumindest eine vorbestimmte Strecke detektiert wird, bestimmt die CPU 201, dass die Slide-Bedienung durchgeführt wurde. Eine Bedienung des schnellen Bewegens eines Fingers auf dem Berührfeld 206a für eine bestimmte Strecke in dem Berührungszustand und des Lösens des Fingers wird „Flick“ genannt. Mit anderen Worten ist Flick eine Bedienung des schnellen Berührens und Bewegens des Fingers auf dem Berührfeld 206a. Wenn Touch-Move für zumindest eine vorbestimmte Strecke mit zumindest einer vorbestimmten Geschwindigkeit detektiert wird und danach Touch-Up detektiert wird, bestimmt die CPU 201 dann, dass Flick durchgeführt wurde (bestimmt sie, dass Flick nach der Slide-Bedienung durchgeführt wurde). Ferner wird eine Berührungsbedienung des gleichzeitigen Berührens einer Vielzahl von Punkten (z.B. zwei Punkten) und des Bewegens dieser Berührungspositionen näher zueinander „Pinch-In“ genannt, und wird eine Berührungsbedienung des Bewegens dieser Berührungspositionen weiter auseinander „Pinch-Out“ genannt. Pinch-In und Pinch-Out werden kollektiv als Pinch-Bedienung (oder einfach als „Pinch“) bezeichnet.
  • Für das Berührfeld 206a können verschiedene Typen von Berührfeldern verwendet werden, wie etwa ein Widerstandsfilmtyp, ein Kapazitätstyp, ein Oberflächenakustikwellentyp, ein Infrarottyp, ein Elektromagnetische-Induktion-Typ, ein Bilderkennungstyp und ein Optiksensortyp. Es gibt einen Typ des Detektierens einer Berührung, wenn das Berührfeld tatsächlich kontaktiert wird, und einen Typ des Detektierens einer Berührung, wenn sich ein Finger oder Stift dem Berührfeld nähert, aber jeder Typ kann verwendet werden.
  • VR-Brille
  • 3C ist eine Außenansicht einer VR-Brille (Kopftrageadapter) 230, in/an der die Anzeigesteuervorrichtung 200 angebracht werden kann. Die Anzeigesteuervorrichtung 200 kann als eine am Kopf getragene/befestigte Anzeige verwendet werden, indem sie in/an der VR-Brille 230 angebracht wird.
  • Ein Einfügungs-/Einbringungsschlitz 231 ist ein Schlitz bzw. eine Öffnung zum Einfügen/Einbringen der Anzeigesteuervorrichtung 200. Die gesamte Anzeigesteuervorrichtung 200 kann in die VR-Brille 230 eingefügt/eingebracht werden, so dass die Anzeigefläche der Anzeige 205 einem Kopf- bzw. Stirnband 232 zugewandt ist, das die VR-Brille 230 an dem Kopf des Benutzers sichert bzw. befestigt (nämlich der Benutzerseite zugewandt ist). Durch Tragen der VR-Brille 230, in/an der die Anzeigesteuervorrichtung 200 angebracht ist, kann der Benutzer die Anzeige 205 in dem Zustand des Tragens der VR-Brille 230 an seinem Kopf betrachten, ohne die Anzeigesteuervorrichtung 200 mit der Hand zu halten.
  • In diesem Fall ändert sich die Lage/Haltung/Stellung der Anzeigesteuervorrichtung 200, wenn der Benutzer seinen Kopf oder seinen gesamten Körper bewegt. Die Lagedetektionseinheit 213 detektiert die Änderung der Lage/Haltung/Stellung der Anzeigesteuervorrichtung 200, und die CPU 201 führt die VR-Anzeigeverarbeitung basierend auf dieser Lage-/Haltungs-/ Stellungsänderung durch. In diesem Fall ist, dass die Lagedetektionseinheit 213 die Lage/Haltung/Stellung der Anzeigesteuervorrichtung 200 detektiert, äquivalent zu einem Detektieren der Lage/Haltung/Stellung des Kopfs des Benutzers (einer Richtung, in der die Blickrichtung des Benutzers gerichtet ist).
  • Bildwiedergabeverarbeitung
  • Als Nächstes wird unter Bezugnahme auf das Ablaufdiagramm in 4 die Bildwiedergabeverarbeitung beschrieben, die durch die Anzeigesteuervorrichtung 200 gemäß diesem Ausführungsbeispiel durchgeführt wird. Wenn die Leistungstaste 206b betätigt wird und die Leistungsversorgung eingeschaltet wird, werden die Flags, Steuervariablen und dergleichen durch die CPU 201 initialisiert, und startet dann die Verarbeitung dieses Ablaufdiagramms.
  • In S301 erfasst die CPU 201 die Bilddaten des in dem Speichermedium 208 gespeicherten VR-Bilds, und zeigt sie das VR-Bild auf der Anzeige 205 an, wie es in 7A veranschaulicht ist.
  • 7A zeigt ein Beispiel der Bilddaten und Bedientasten bzw.
    • -schaltflächen auf der Anzeige 205. Hier wird ein Teil des VR-Bilds gemäß Lage/Haltung/Stellung der Anzeigesteuervorrichtung 200 zweidimensional entwickelt und in dem ausgewählten Anzeigebereich 401 angezeigt. Konkret wird, in dem ausgewählten Anzeigebereich 401, ein Teil des VR-Bilds angezeigt, dessen Verzerrung gemäß den Informationen über die horizontale Ebene, die eingestellt ist, korrigiert wurde. Ferner werden auch eine Endetaste bzw.
    • -schaltfläche 402 zum Beenden der Bildwiedergabeverarbeitung, eine Horizontalkorrekturtaste bzw. -schaltfläche 403 zum Ausführen der Horizontalkorrekturverarbeitung und einer Einstelltaste bzw. -schaltfläche 404 zum Einstellen (Auswählen) des Zenits oder des Nadirs angezeigt. Der Zustand, in dem der ausgewählte Anzeigebereich 401, die Endetaste bzw. -schaltfläche 402, die Horizontalkorrekturtaste bzw. -schaltfläche 403 und die Einstelltaste bzw. -schaltfläche 404 angezeigt werden, wird hierin als der „Normalanzeigezustand“ bezeichnet.
  • In S302 bestimmt die CPU 201, ob die Berührungsbedienung an der Horizontalkorrekturtaste bzw. -schaltfläche 403 auf dem Berührfeld 206a durchgeführt wurde. Die Verarbeitung schreitet zu S303 voran, wenn diese Bedienung durchgeführt wurde, oder zu S316, wenn nicht.
  • In S303 ändert die CPU 201 den Anzeigezustand der Anzeige 205 von dem „Normalanzeigezustand“ in den „Horizontalkorrekturanzeigezustand“. In dem „Horizontalkorrekturanzeigezustand“ bei diesem Ausführungsbeispiel wird eine Anzeige (Spiegelkugelanzeige; Kleinplanetanzeige; Kreisanzeige) durch das Projektionsformat durchgeführt, so dass zumindest ein Teil (z.B. ein hemisphärischer bzw. halbkugelförmiger Abschnitt) des VR-Bilds in den kreisförmigen Anzeigebereich kommt.
  • 7B zeigt ein Beispiel der Anzeige in dem „Horizontalkorrekturanzeigezustand“. Wie es in 7B veranschaulicht ist, wird in einem Spiegelkugelanzeigebereich 451 zumindest ein Teil des VR-Bilds als Spiegelkugel in einer kreisförmigen Form angezeigt. Konkret wird zumindest ein Teil einschließlich eines Bezugspunkts P aus dem VR-Bild, das durch das Projektionsformat unter Verwendung eines vorbestimmten Punkts als den Bezugspunkt P dargestellt bzw. ausgedrückt wird, in dem Spiegelkugelanzeigebereich 451 angezeigt. Bei diesem Ausführungsbeispiel ist der Bezugspunkt P, der in dem Spiegelkugelanzeigebereich 451 angezeigt wir, die Mittelposition der Anzeige in dem Spiegelkugelanzeigebereich 451. Das Projektionsformat umfasst eine orthographische Projektion, eine äquirektanguläre Projektion, eine zylindrische Projektion und eine Würfelabbildungsprojektion und ist ein Projektionsformat zum korrekten Zeigen/Bezeichnen des Azimuts ausgehend/gegenüber von einem Bezugspunkt durch Zeichnen des kürzesten Wegs von dem Bezugspunkt zu einem beliebigen Punkt als die direkte Strecke zwischen diesen beiden Punkten.
  • In einem Vorschaubereich 454 wird ein zweidimensional entwickeltes Bild nach Korrektur der Verzehrung des VR-Bilds in dem Bereich der Spiegelanzeige, so dass die horizontale Linie (der Horizont) zu einer geraden Linie wird, angezeigt. Diese horizontale Linie ist nicht eine tatsächliche bzw. effektive horizontale Linie in dem VR-Bild, sondern eine Linie, die die CPU 201 als die horizontale Linie in dem VR-Bild erkennt bzw. auffasst. Mit anderen Worten führt die CPU 201, wenn die Informationen über die horizontale Ebene in S313, der nachstehend beschrieben wird, korrigiert sind, die Verzerrungskorrektur unter Verwendung dieser Informationen über die horizontale Ebene durch, und wird, wenn nicht, die Verzerrungskorrektur basierend auf den Informationen über die horizontale Ebene durchgeführt, die ursprünglich eingestellt ist.
  • In dem Vorschaubereich 454 können ein Mittelpunkt 452 und eine Kreisanleitung bzw. -führung/-orientierung 453 überlagert und angezeigt werden. Der Mittelpunkt 452 ist ein Punkt, der eine Position des Bezugspunkts P des VR-Bilds bezeichnet, das in dem Spiegelkugelanzeigebereich 451 angezeigt wird, und bezeichnet bei diesem Ausführungsbeispiel eine Mittelposition des Spiegelkugelanzeigebereichs 451. Die Kreisanleitung 453 bezeichnet eine kreisförmige Linie (unterbrochene Linie), die eine Vielzahl von Positionen verbindet, die von dem Mittelpunkt 452 (einer Position des Bezugspunkts P) um eine vorbestimmte Entfernung entfernt sind. Daher ist die Kreisanleitung 453 eine kreisförmige Linie mit einem Radius einer vorbestimmten Länge (einer vorbestimmten Entfernung), die an der Position des Bezugspunkts zentriert ist. Der Mittelpunkt 452 ist nicht auf einen Punkt beschränkt, sondern kann jegliche Markierung bzw. Kennzeichnung sein, die eine Position (Mittelposition) des Bezugspunkts P bezeichnet, wie etwa eine Pfeilmarkierung bzw. -kennzeichnung. Die Kreisanleitung 453 ist nicht auf eine unterbrochene Linie beschränkt, sondern kann jegliche Linie sein, wie etwa eine fette Linie, eine gepunktete Linie und eine gestrichelte Linie.
  • In dem „Horizontalkorrekturanzeigezustand“ werden auf der Anzeige 205 eine Abbruchtaste bzw. -schaltfläche 455 zum Wechseln in den „Normalanzeigezustand“ und eine Anleitungsumschalttaste bzw. -schaltfläche 456 zum Umschalten von Anzeige/Nicht-Anzeige der Kreisanleitung bzw. -führung/-orientierung 453 angezeigt. Ferner werden eine Mittelpunktumschalttaste bzw. -schaltfläche 457 zum Umschalten von Anzeige/Nicht-Anzeige des Mittelpunkts 452 und eine Bestimmungstaste bzw. -schaltfläche 458 zum Bestimmen der Ausführung der Horizontalkorrekturverarbeitung angezeigt.
  • In S304 bestimmt die CPU 201, ob die Berührungsbedienung an der Mittelpunktumschalttaste bzw. -schaltfläche 457 auf dem Berührfeld 206a durchgeführt wurde. Die Verarbeitung schreitet zu S305 voran, wenn diese Bedienung durchgeführt wurde, oder zu S306, wenn nicht.
  • In S305 führt die CPU 201 die Mittelpunktumschaltverarbeitung durch, die eine Verarbeitung zum Umschalten von Anzeige/Nicht-Anzeige des Mittelpunkts 452 ist. Die Verarbeitung in S305 wird nachstehend ausführlich beschrieben.
  • In S306 bestimmt die CPU 201, ob die Berührungsbedienung an der Anleitungsumschalttaste bzw. -schaltfläche 456 auf dem Berührfeld 206a durchgeführt wurde. Die Verarbeitung schreitet zu S307 voran, wenn diese Bedienung durchgeführt wurde, oder zu S308, wenn nicht.
  • In S307 führt die CPU 201 die Anleitungsumschaltverarbeitung durch, die eine Verarbeitung zum Umschalten von Anzeige/Nicht-Anzeige der Kreisanleitung 453 ist. Die Verarbeitung in S307 wird nachstehend ausführlich beschrieben.
  • In S308 bestimmt die CPU 201, ob die Touch-Move-Bedienung an der Kreisanleitung 453 auf dem Berührfeld 206a durchgeführt wurde. Die Verarbeitung schreitet zu S309 voran, wenn diese Bedienung durchgeführt wurde, oder zu S310, wenn nicht.
  • In S309 ändert die CPU 201 die Entfernung (Durchmesser; vorbestimmten Abstand; vorbestimmte Länge) zwischen der Kreisanleitung 453 und dem Mittelpunkt 452 (Bezugspunkt P), der auf der Anzeige 205 angezeigt wird, gemäß der Benutzerbedienung auf dem Berührfeld 206a. Dadurch kann der Benutzer die Kreisanleitung 453 gemäß der Position des Objekts anzeigen, das der horizontalen Ebene des Bilds entspricht, und verwendet er diese als Anleitung bzw. Führung bzw. Orientierung einer Bedienung zum Korrigieren der horizontalen Ebene.
  • In S310 bestimmt die CPU 201, ob die Touch-Move-Bedienung an dem Spiegelkugelanzeigebereich 451 auf dem Berührfeld 206a durchgeführt wurde. Die Verarbeitung schreitet zu S311 voran, wenn diese Bedienung durchgeführt wurde, oder zu S312, wenn nicht.
  • In S311 ändert die CPU 201 die Anzeige des VR-Bilds in dem Spiegelkugelanzeigebereich 451 gemäß der Touch-Move-Bedienung an dem Spiegelkugelanzeigebereich 451. Konkret ändert die CPU 201 den Anzeigebereich des VR-Bilds und die Anzeigeposition (Anordnung) von jedem Bereich des VR-Bilds in dem Spiegelkugelanzeigebereich 451 durch Ändern des in dem Projektionsformat angezeigten Referenzpunkts P. Wenn der Referenzpunkt P (Mittelpunkt) den Zenit oder den Nadir bezeichnet, wie es vorstehend erwähnt ist, erstreckt sich bzw. verläuft die tatsächliche bzw. effektive horizontale Linie (der Horizont) in diesem Anzeigebereich kreisförmig. Daher ändert (bestimmt) der Benutzer die Anzeige in dem Spiegelkugelanzeigebereich 451, so dass die horizontale Linie sich kreisförmig erstreckt bzw. verläuft, wodurch die Position des Zenits oder des Nadirs leicht bestimmt werden kann.
  • Bei diesem Ausführungsbeispiel ist der Spiegelkugelanzeigebereich 451 selbst kreisförmig, weshalb der Benutzer leicht bestimmen kann, ob sich der Horizont kreisförmig erstreckt bzw. verläuft oder nicht. Ferner kann, für den Benutzer zur Bestimmung, ob sich die horizontale Linie kreisförmig erstreckt bzw. verläuft, wenn der vorgenannte Mittelpunkt 452 oder die Kreisanleitung 453 angezeigt wird, der Benutzer die Position des Zenits oder des Nadirs noch leichter bestimmen, da der Benutzer diese Bestimmung basierend auf dieser Anzeige vornehmen kann.
  • In dem Fall, dass der gesamte Bereich (alles) des VR-Bilds in dem Spiegelkugelanzeigebereich 451 angezeigt wird, wird der Anzeigebereich des VR-Bilds nicht gemäß der Touch-Move-Bedienung geändert, aber wird die Anordnung (Anzeigeposition) von jedem Bereich des VR-Bilds in dem Spiegelkugelanzeigebereich 451 geändert. In S311 kann die Anzeige des VR-Bilds in dem Spiegelkugelanzeigebereich 451 durch eine beliebige Anweisung von dem Benutzer unter Verwendung der Bedieneinheit 206 (z.B. Tastatur, Maus), anstelle der Touch-Move-Bedienung, geändert werden.
  • In S312 bestimmt die CPU 201, ob die Berührungsbedienung an der Bestimmungstaste bzw. -schaltfläche 458 auf dem Berührfeld 206a durchgeführt wurde. Die Verarbeitung schreitet zu S313 voran, wenn diese Bedienung durchgeführt wurde, oder zu S314 wenn nicht. Die Verarbeitung kann zu S313 wechseln, wenn zum Beispiel die Benutzerbedienung für eine vorbestimmte Zeit nicht durchgeführt wird, anstatt durch die Berührungsbedienung durch den Benutzer zu S313 gewechselt zu werden.
  • In S313 führ die CPU 201 die Horizontalkorrekturverarbeitung durch, die eine Verarbeitung zum Korrigieren der Informationen über die horizontale Ebene des VR-Bilds ist. Die Verarbeitung in S313 wird nachstehend ausführlich beschrieben.
  • In S314 bestimmt die CPU 201, ob die Berührungsbedienung an der Abbruchtaste bzw. -schaltfläche 455 (Zurücktaste bzw. -schaltfläche) auf dem Berührfeld 206a durchgeführt wurde. Die Verarbeitung schreitet zu S315 voran, wenn diese Bedienung durchgeführt wurde, oder zu S304, wenn nicht.
  • In S315 ändert die CPU 201 den Zustand der Anzeige 205 in den „Normalanzeigezustand“ .
  • In S316 bestimmt die CPU 201, ob die Berührungsverarbeitung an der Einstelltaste bzw. -schaltfläche 404 auf dem Berührfeld 206a durchgeführt wurde. Die Verarbeitung schreitet zu S317 voran, wenn diese Bedienung durchgeführt wurde, oder zu S318, wenn nicht.
  • In S317 führt die CPU 201 die Einstellbedienung zum Einstellen, ob der Zenit/Nadir durch die Benutzerbedienung bestimmt wird, durch. Die Verarbeitung in S317 wird nachstehend ausführlich beschrieben.
  • In S318 bestimmt die CPU 201, ob die Berührungsbedienung an der Endetaste bzw. -schaltfläche 402 auf dem Berührfeld 206a durchgeführt wurde. Die Bildwiedergabeverarbeitung endet, wenn diese Bedienung durchgeführt wurde, oder die Verarbeitung kehrt zu S302 zurück, wenn nicht. Die CPU 201 kann die Wiedergabeverarbeitung beenden, wenn eine vorbestimmte Wiedergabezeit des VR-Bilds endet, anstatt basierend auf der Berührungsbedienung an der Endetaste bzw. -schaltfläche 402.
  • Verarbeitung in S305
  • Unter Bezugnahme auf das Ablaufdiagramm in 5A wird die Mittelpunktumschaltverarbeitung in S305 beschrieben, die eine Verarbeitung zum Umschalten von Anzeige/Nicht-Anzeige des Mittelpunkts 452 ist. In S351 bestimmt die CPU 201 ob der Mittelpunkt 452 gerade angezeigt wird. Die Verarbeitung schreitet zu S353 voran, wenn der Mittelpunkt 452 gerade angezeigt wird, oder zu S352, wenn nicht. In S352 zeigt die CPU 201 den Mittelpunkt 452 auf der Anzeige 205 an. In S353 zeigt die CPU 201 den Mittelpunkt 452 auf der Anzeige 205 nicht an.
  • Verarbeitung in S307
  • Unter Bezugnahme auf das Ablaufdiagramm in 5B wird die Anleitungsumschaltverarbeitung in S307 beschrieben, die eine Verarbeitung zum Umschalten von Anzeige/Nicht-Anzeige der Kreisanleitung 453 ist. In S361 bestimmt die CPU 201, ob die Kreisanleitung 453 gerade angezeigt wird. Die Verarbeitung schreitet zu S363 voran, wenn die Kreisanleitung 453 gerade angezeigt wird, oder zu S362, wenn nicht. In S362 zeigt die CPU 201 die Kreisanleitung 453 auf der Anzeige 205 an. In S363 zeigt die CPU 201 die Kreisanleitung 453 auf der Anzeige 205 nicht an.
  • Verarbeitung in S313
  • Unter Bezugnahme auf das Ablaufdiagramm in 5C wird die Horizontalkorrekturverarbeitung in S313 beschrieben, die eine Verarbeitung zum Korrigieren der Informationen über die horizontale Ebene des VR-Bilds ist.
  • In S371 bestimmt die CPU 201, ob die nachstehend genannte „Automatikausführungseinstellung“ der Zenit/Nadir-Auswahl EIN oder AUS ist. Die Verarbeitung schreitet zu S373 voran, wenn die „Automatikausführungseinstellung“ AUS ist, oder zu S372, wenn sie EIN ist.
  • In S372 bestimmt die CPU 201, welcher von dem Zenit und dem Nadir durch den Bezugspunkt P (Mittelposition) des VR-Bilds (Anzeigebereich) bezeichnet wird. Hier bestimmt die CPU 201, welcher von dem Zenit und dem Nadir durch den Bezugspunkt P bezeichnet wird, basierend auf dem VR-Bild und der Position des Bezugspunkts P. Zum Beispiel, wenn sich die Sonne, der Mond, die Sterne und dergleichen nahe des Bezugspunkts P in einem VR-Bild befindet/befinden, bestimmt die CPU 201, dass der Bezugspunkt P den Zenit bezeichnet. Wenn sich der Boden oder die See-/Meeresoberfläche weithin rund um dem Bezugspunkt P eines VR-Bilds befindet, bestimmt die CPU 201, dass der Bezugspunkt P den Nadir bezeichnet. Wenn ein Bild eines Menschen in einem VR-Bild umfasst ist und die Kopfposition des Menschen, mit Bezug auf die Fußposition des Menschen, auf der Seite des Bezugspunkts P ist, bestimmt die CPU 201 dann, dass der Bezugspunkt P den Zenit bezeichnet.
  • In S373 zeigt die CPU 201 auf der Anzeige 205 einen Auswahlbereich 481, wie etwa den in 8A gezeigten, für den Benutzer zum Auswählen an, welcher von dem Zenit und dem Nadir als der Bezugspunkt P des VR-Bilds bezeichnet wird. Der Auswahlbereich 481 umfasst eine Zenit-Auswahltaste bzw. -schaltfläche 482 zum Auswählen, dass der Bezugspunkt P des VR-Bilds den Zenit bezeichnet, und eine Nadir-Auswahltaste bzw. -schaltfläche 483 zum Auswählen, dass der Bezugspunkt P des VR-Bilds den Nadir bezeichnet.
  • In S374 bestimmt die CPU 201, an welcher der Zenit-Auswahltaste bzw. -schaltfläche 482 und der Nadir-Auswahltaste bzw. -schaltfläche 483 die Berührungsbedienung auf dem Berührfeld 206a durchgeführt wurde. Die Verarbeitung schreitet zu S376 voran, wenn die Berührungsbedienung an der Zenit-Auswahltaste bzw. -schaltfläche 482 durchgeführt wurde, oder zu S375, wenn die Berührungsbedienung an der Nadir-Auswahltaste bzw. -schaltfläche 483 durchgeführt wurde. Wenn der Benutzer die Berührungsbedienung an weder der Zenit-Auswahltaste bzw. -schaltfläche 482 noch der Nadir-Auswahltaste bzw. -schaltfläche 483 in S374 durchgeführt hat, verbleibt die Verarbeitung in S374, ohne zu einem anderen Schritt zu wechseln.
  • In S375 bestimmt die CPU 201, dass der Bezugspunkt P des VR-Bilds den Zenit bezeichnet. In S376 bestimmt die CPU 201, dass der Bezugspunkt P des VR-Bilds den Nadir bezeichnet.
  • Wie es vorstehend beschrieben ist, bestimmt die CPU 201 in S372 bis S376, welcher von dem Zenit und dem Nadir durch den Bezugspunkt P des VR-Bilds bezeichnet wird. Daher kann bei diesem Ausführungsbeispiel die CPU 201 als eine Steuereinheit betrachtet werden, die eine Anzeige der Anzeige 205 und dergleichen steuert, und auch als eine Bestimmungseinheit betrachtet werden, die bestimmt, welcher von dem Zenit und dem Nadir durch den Bezugspunkt P des VR-Bilds bezeichnet wird.
  • In S377 steuert die CPU 201 die Bildverarbeitungseinheit 204 gemäß Informationen über den bestimmten Zenit oder Nadir, und führt sie die Korrektur der Informationen über die horizontale Ebene (Horizontalkorrektur) auf dem VR-Bild (Bilddaten bezüglich des Omnidirektionalbilds) aus, das in dem Speichermedium 208 gespeichert ist. Mit anderen Worten speichert die CPU 201 in S377 die in S375 bestimmte Position des Bezugspunkts in Zusammenhang mit dem VR-Bild als den Zenit nach der Korrektur. Oder die CPU 201 speichert die in S376 bestimmte Position des Bezugspunkts in Zusammenhang mit dem VR-Bild als den Nadir nach der Korrektur. Daher kann bei diesem Ausführungsbeispiel die Bildverarbeitungseinheit 204 als eine Korrektureinheit betrachtet werden, die Informationen über die horizontale Ebene korrigiert.
  • Verarbeitung in S317
  • Unter Bezugnahme auf das Ablaufdiagramm in 6 wird die Bestimmungsverarbeitung in S317 beschrieben, um einzustellen, ob der Zenit/Nadir durch die Benutzerbedienung bestimmt wird.
  • In S381 ändert die CPU 201 die Anzeige auf der Anzeige 205 von dem „Normalanzeigezustand“ in den „Einstellanzeigezustand“, wie er in 8B gezeigt ist. In dem „Einstellanzeigezustand“ werden in dem Einstellanzeigebereich 491 ein Kontrollkästchen bzw. Ankreuzfeld 452 für den Benutzer zum Einstellen, ob die Auswahl von Zenit/Nadir durch die Benutzerbedienung durchgeführt wird, und eine OK-Taste bzw. -Schaltfläche 493 zum Widerspiegeln der Einstellung in dem Kontrollkästchen bzw. Ankreuzfeld 392 angezeigt.
  • In S382 bestimmt die CPU 201, ob die Berührungsbedienung an dem Kontrollkästchen bzw. Ankreuzfeld 492 auf dem Berührfeld 206a durchgeführt wurde. Die Verarbeitung schreitet zu S383 an, wenn diese Bedienung durchgeführt wurde, oder zu S386, wenn nicht.
  • In S383 bestimmt die CPU 201, ob das Kontrollkästchen bzw. Ankreuzfeld 492 angehakt bzw. angekreuzt ist. Die Verarbeitung schreitet zu S385 voran, wenn es angehakt bzw. angekreuzt ist, oder zu S384, wenn nicht.
  • In S384 zeigt die CPU 201 den Haken bzw. das Kreuzchen in dem Kontrollkästchen bzw. Ankreuzfeld 492 an. In S385 löscht die CPU 201 den Haken bzw. das Kreuzchen in dem Kontrollkästchen bzw. Ankreuzfeld 492.
  • In S386 bestimmt die CPU 201, ob die Berührungsbedienung an der OK-Taste bzw. -Schaltfläche 493 auf dem Berührfeld 206a durchgeführt wurde. Die Verarbeitung schreitet zu S387 voran, wenn diese Bedienung durchgeführt wurde, oder zu S382, wenn nicht.
  • In S387 bestimmt die CPU 201, ob das Kontrollkästchen bzw. Ankreuzfeld 492 angehakt bzw. angekreuzt ist. Die Verarbeitung schreitet zu S388 voran, wenn es angehakt bzw. angekreuzt ist, oder zu S389 wenn nicht.
  • In S388 führt die CPU 201 eine Verarbeitung zum Einstellen von der „Automatikausführungseinstellung“ auf AUS durch. Wenn die „Automatikausführungseinstellung“ AUS ist, bestimmt die CPU 201 durch die Benutzerbedienung, ob der Bezugspunkt P des VR-Bilds, der an der Mittelposition des Spiegelkugelanzeigebereichs 451 angezeigt wird, den Zenit oder den Nadir bezeichnet, in vorgenannten S373 bis S376.
  • In S389 führt die CPU 201 eine Verarbeitung zum Einstellen von der „Automatikausführungseinstellung“ auf EIN durch. Wenn die „Automatikausführungseinstellung“ EIN ist, bestimmt die CPU 201, ohne Abhängigkeit von der Benutzerbedienung, ob der Bezugspunkt P des VR-Bilds, der an der Mittelposition in dem Spiegelkugelanzeigebereich 451 angezeigt wird, den Zenit oder den Nadir bezeichnet, wie in vorgenanntem S377.
  • In S390 ändert die CPU 201 die Anzeige auf der Anzeige 205 in den „Normalanzeigezustand“ .
  • Bei diesem Ausführungsbeispiel wird angenommen, dass der Bezugspunkt P an der Mittelposition in dem Spiegelkugelanzeigebereich 451 angezeigt wird, aber die vorliegende Erfindung ist nicht darauf beschränkt. Mit anderen Worten kann der Bezugspunkt P an einer beliebigen Position in dem Spiegelkugelanzeigebereich 451 angezeigt werden. In diesem Fall kann der Spiegelkugelanzeigebereich 451 eine beliebige Form aufweisen, und ist er nicht auf eine kreisförmige Form beschränkt. Auch in diesem Fall kann der Benutzer leicht bestimmen, dass der Bezugspunkt P den Zenit oder den Nadir bezeichnet, wenn die tatsächliche bzw. effektive horizontale Linie (der Horizont) sich in dem Spiegelkugelanzeigebereich 451 kreisförmig erstreckt bzw. verläuft. Hier muss, dass sich „die horizontale Linie kreisförmig erstreckt bzw. verläuft“ kein Zustand sein, in dem die horizontale Linie in dem Spiegelkugelanzeigebereich 451 überall bzw. durchwegs/-gängig angezeigt wird, sondern kann es ein Zustand sein, in dem nur ein Teil des Kreises (z.B. ein Halbkreis) in dem Spiegelkugelanzeigebereich 451 angezeigt wird.
  • Wirkung
  • Gemäß diesem Ausführungsbeispiel kann der Zenit oder der Nadir des VR-Bilds durch die Benutzerbedienung leicht bestimmt werden. Ferner können die Informationen über die horizontale Ebene des VR-Bilds durch die Informationen über den Zenit oder den Nadir korrigiert (bestimmt) werden. Daher kann, wenn das VR-Bild angezeigt wird, eine Verzerrungskorrektur, wie etwa eine Korrektur der horizontalen Linie in/auf eine gerade Linie, durch die Benutzerbedienung leicht implementiert werden.
  • Gemäß der vorliegenden Erfindung kann der Zenit oder der Nadir des VR-Bilds durch die Benutzerbedienung leicht bestimmt werden.
  • Weitere Ausführungsbeispiele
  • Ein oder mehrere Ausführungsbeispiele der vorliegenden Erfindung können auch verwirklicht werden durch einen Computer eines Systems oder einer Vorrichtung, der computerausführbare Anweisungen (z.B. ein oder mehr Programme), die auf einem Speichermedium (das vollständiger auch als ein „nicht-vorübergehendes computerlesbares Speichermedium“ bezeichnet werden kann) aufgezeichnet sind, ausliest und ausführt, um die Funktionen von ein oder mehr der vorstehend beschriebenen Ausführungsbeispiele durchzuführen, und/oder ein oder mehr Schaltungen (z.B. eine anwendungsspezifische integrierte Schaltung (ASIC)) zur Durchführung der Funktionen von ein oder mehr der vorstehend beschriebenen Ausführungsbeispiele umfasst, sowie durch ein Verfahren, das durch den Computer des Systems oder der Vorrichtung durchgeführt wird, indem dieser zum Beispiel die computerausführbaren Anweisungen von dem Speichermedium ausliest und ausführt, um die Funktionen von ein oder mehr der vorstehend beschriebenen Ausführungsbeispiele durchzuführen, und/oder die ein oder mehr Schaltungen steuert, um die Funktionen von ein oder mehr der vorstehend beschriebenen Ausführungsbeispiele durchzuführen. Der Computer kann ein oder mehr Prozessoren (z.B. Zentralverarbeitungseinheit (CPU), Mikroverarbeitungseinheit (MPU)) aufweisen und kann ein Netzwerk separater Computer oder separater Prozessoren umfassen, um die computerausführbaren Anweisungen auszulesen und auszuführen. Die computerausführbaren Anweisungen können an den Computer zum Beispiel von einem Netzwerk oder dem Speichermedium bereitgestellt werden. Das Speichermedium kann zum Beispiel ein oder mehr von einer Festplatte, einem Direktzugriffsspeicher (RAM), einem Festwertspeicher (ROM), einem Speicher verteilter Rechensysteme, einer optischen Platte (wie etwa einer Compact Disc (CD), einer Digital Versatile Disc (DVD) oder einer Blu-ray Disc (BD)™), einer Flashspeichervorrichtung, einer Speicherkarte und dergleichen umfassen.
  • Während die vorliegende Erfindung unter Bezugnahme auf beispielhafte Ausführungsbeispiele beschrieben wurde, ist es selbstverständlich, dass die Erfindung nicht auf die offenbarten Ausführungsbeispiele beschränkt ist. Dem Umfang der folgenden Patentansprüche ist die breiteste Auslegung zuzugestehen, um alle derartigen Modifikationen und äquivalente Strukturen und Funktionen zu umfassen.
  • Eine elektronische Vorrichtung mit: einem Speicher und zumindest einem Prozessor und/oder zumindest einer Schaltung zum Durchführen der Betriebsvorgänge der folgenden Einheiten: einer Steuereinheit, die konfiguriert ist zum 1) Anzeigen von zumindest einem einen Bezugspunkt umfassenden Teil aus einem VR-Bild, das durch ein Projektionsformat unter Verwendung eines vorbestimmten Punkts als den Bezugspunkt dargestellt wird, in einem Anzeigebereich, und 2) Ändern des Bezugspunkts, wenn eine Anweisung von einem Benutzer empfangen wird; und einer Bestimmungseinheit, die konfiguriert ist zum Bestimmen des Bezugspunkts als einen Zenit oder einen Nadir des VR-Bilds.

Claims (10)

  1. Elektronische Vorrichtung mit: einer Steuereinheit, die konfiguriert ist zum: 1) Anzeigen von zumindest einem einen Bezugspunkt umfassenden Teil aus einem VR-Bild, das durch ein Projektionsformat unter Verwendung eines vorbestimmten Punkts als den Bezugspunkt dargestellt wird, in einem Anzeigebereich, und 2) Ändern des Bezugspunkts, wenn eine Anweisung von einem Benutzer empfangen wird; und einer Bestimmungseinheit, die konfiguriert ist zum Bestimmen des Bezugspunkts als einen Zenit oder einen Nadir des VR-Bilds.
  2. Elektronische Vorrichtung gemäß Anspruch 1, wobei der Anzeigebereich kreisförmig ist.
  3. Elektronische Vorrichtung gemäß Anspruch 1 oder 2, zusätzlich mit: einer Korrektureinheit, die konfiguriert ist zum Durchführen einer Horizontalkorrektur zum Korrigieren der Informationen über eine horizontale Ebene des VR-Bilds durch Verwendung des Zenits oder des Nadirs, der durch die Bestimmungseinheit bestimmt wird.
  4. Elektronische Vorrichtung gemäß einem der Ansprüche 1 bis 3, wobei die Steuereinheit ferner konfiguriert ist zum Überlagern und Anzeigen eines Bilds, das die Position des Bezugspunkts in dem Anzeigebereich bezeichnet, in dem Anzeigebereich.
  5. Elektronische Vorrichtung gemäß einem der Ansprüche 1 bis 4, wobei die Steuereinheit ferner konfiguriert ist zum Überlagern und Anzeigen einer kreisförmigen Linie mit einem Radius einer vorbestimmten Länge, die an der Position des Bezugspunkts in dem Anzeigebereich zentriert ist, in dem Anzeigebereich.
  6. Elektronische Vorrichtung gemäß Anspruch 5, wobei die Steuereinheit ferner konfiguriert ist zum Ändern der vorbestimmten Länge gemäß einer Benutzerbedienung.
  7. Elektronische Vorrichtung gemäß einem der Ansprüche 1 bis 6, wobei die Steuereinheit ferner konfiguriert ist zum gleichzeitigen Anzeigen 1) eines Bilds, das durch zweidimensionale Entwicklung des VR-Bilds in dem in dem Anzeigebereich anzuzeigendem Umfang basierend auf den Informationen über eine horizontale Ebene des VR-Bilds erzeugt wird, und 2) des Anzeigebereichs.
  8. Elektronische Vorrichtung gemäß einem der Ansprüche 1 bis 7, wobei die Bestimmungseinheit ferner konfiguriert ist zum Bestimmen, ob der Bezugspunkt der Zenit oder der Nadir des VR-Bilds ist, basierend auf der Position des Bezugspunkts und dem VR-Bild.
  9. Steuerverfahren einer elektronischen Vorrichtung mit: einem Steuerschritt des 1) Anzeigens von zumindest einem einen Bezugspunkt umfassenden Teil aus einem VR-Bild, das durch ein Projektionsformat unter Verwendung eines vorbestimmten Punkts als den Bezugspunkt dargestellt wird, in einem Anzeigebereich, und 2) Änderns des Bezugspunkts, wenn eine Anweisung von einem Benutzer empfangen wird; und einem Bestimmungsschritt des Bestimmens des Bezugspunkts als einen Zenit oder einen Nadir des VR-Bilds.
  10. Programm, das einen Computer veranlasst zum Funktionieren als eine Einheit der elektronischen Vorrichtung gemäß einem der Ansprüche 1 bis 8.
DE102020103245.5A 2019-02-12 2020-02-10 Elektronische Vorrichtung zur Steuerung von Bildanzeige, Steuerverfahren von elektronischer Vorrichtung und Programm Pending DE102020103245A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-022623 2019-02-12
JP2019022623A JP7204511B2 (ja) 2019-02-12 2019-02-12 電子機器、電子機器の制御方法、プログラム

Publications (1)

Publication Number Publication Date
DE102020103245A1 true DE102020103245A1 (de) 2020-08-13

Family

ID=69897009

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020103245.5A Pending DE102020103245A1 (de) 2019-02-12 2020-02-10 Elektronische Vorrichtung zur Steuerung von Bildanzeige, Steuerverfahren von elektronischer Vorrichtung und Programm

Country Status (5)

Country Link
US (1) US11195256B2 (de)
JP (1) JP7204511B2 (de)
CN (1) CN111556243B (de)
DE (1) DE102020103245A1 (de)
GB (1) GB2583813B (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3523777A4 (de) * 2016-12-06 2019-11-13 SZ DJI Technology Co., Ltd. System und verfahren zur begradigung eines weitwinkelbildes

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4119529B2 (ja) * 1998-06-17 2008-07-16 オリンパス株式会社 仮想環境生成方法および装置、並びに仮想環境生成プログラムを記録した記録媒体
KR100882011B1 (ko) 2007-07-29 2009-02-04 주식회사 나노포토닉스 회전 대칭형의 광각 렌즈를 이용하여 전방위 영상을 얻는 방법 및 장치
JP5985336B2 (ja) 2012-09-27 2016-09-06 株式会社熊平製作所 パノラマ画像作成装置、及び、プログラム
EP3189400A4 (de) * 2014-09-05 2018-07-04 Ballcraft, LLC Bewegungserkennung für tragbare vorrichtungen
JP6436461B2 (ja) 2015-06-30 2018-12-12 日本電信電話株式会社 鉛直軸校正装置、方法及びプログラム
US20170200316A1 (en) * 2015-09-10 2017-07-13 Sphere Optics Company, Llc Advertising system for virtual reality environments
EP3447735B1 (de) 2016-04-18 2020-04-29 Sony Corporation Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
JP6682984B2 (ja) * 2016-04-21 2020-04-15 大日本印刷株式会社 自由視点映像表示装置
US9978173B2 (en) * 2016-07-27 2018-05-22 Adobe Systems Incorporated Generating views of three-dimensional models illustrating defects
US10127637B2 (en) 2016-08-30 2018-11-13 Adobe Systems Incorporated Automatic orientation adjustment of spherical panorama digital images
US10845942B2 (en) 2016-08-31 2020-11-24 Sony Corporation Information processing device and information processing method
KR20180060236A (ko) 2016-11-28 2018-06-07 엘지전자 주식회사 이동 단말기 및 그의 동작 방법
EP3563337A1 (de) * 2016-12-28 2019-11-06 Ricoh Company, Ltd. Bildverarbeitungsvorrichtung, bildverarbeitungssystem, bilderfassungssystem, bilderfassungsverfahren und aufzeichnungsmedium
JP6834556B2 (ja) * 2017-02-09 2021-02-24 株式会社リコー 撮影装置、撮影方法およびプログラム
JP6819368B2 (ja) * 2017-03-07 2021-01-27 株式会社リコー 装置、システム、方法およびプログラム
JP6873830B2 (ja) * 2017-06-05 2021-05-19 キヤノン株式会社 表示制御装置、その制御方法及びプログラム
JP7000050B2 (ja) 2017-06-29 2022-01-19 キヤノン株式会社 撮像制御装置及びその制御方法
CN108427595B (zh) * 2018-03-13 2021-07-27 网易(杭州)网络有限公司 虚拟现实中用户界面控件显示位置的确定方法及装置

Also Published As

Publication number Publication date
JP7204511B2 (ja) 2023-01-16
GB2583813B (en) 2023-06-14
US20200258198A1 (en) 2020-08-13
CN111556243B (zh) 2022-08-09
JP2020129340A (ja) 2020-08-27
GB2583813A (en) 2020-11-11
GB202001597D0 (en) 2020-03-25
CN111556243A (zh) 2020-08-18
US11195256B2 (en) 2021-12-07

Similar Documents

Publication Publication Date Title
US10893216B2 (en) Electronic apparatus and method for controlling same
US10893217B2 (en) Electronic apparatus and method for clipping a range out of a wide field view image
CN111385669B (zh) 电子装置、控制方法和计算机可读介质
US11277567B2 (en) Electronic apparatus, control method of electronic apparatus and non-transitory computer readable medium
JP2020010130A (ja) 電子機器
KR102477993B1 (ko) 표시 제어장치, 촬상 장치, 제어 방법 및 컴퓨터 판독 가능한 매체
US11079898B2 (en) Electronic device for controlling display of VR image, control method of electronic device, and non-transitory computer readable medium
US11048400B2 (en) Electronic apparatus, control method of electronic apparatus, and non-transitory computer readable medium
DE102020103245A1 (de) Elektronische Vorrichtung zur Steuerung von Bildanzeige, Steuerverfahren von elektronischer Vorrichtung und Programm
DE102019133659A1 (de) Elektronische Vorrichtung, Steuerverfahren, Programm und computerlesbares Medium
US10937217B2 (en) Electronic device and control method thereof for generating edited VR content
US11558599B2 (en) Electronic apparatus, control method for electronic apparatus, and non-transitory computer-readable storage medium
US11750916B2 (en) Image processing apparatus, image processing method, and non-transitory computer readable medium
DE102023103963A1 (de) Elektronische Einrichtung, Verfahren zum Steuern der elektronischen Einrichtung und Programm
US11049220B2 (en) Display control apparatus, display control method, and non-transitory computer readable medium
US20200260004A1 (en) Electronic device and method for controlling the same

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: H04N0005232000

Ipc: H04N0023600000