DE102022118931A1 - Als Actionkamera verwendete Bildaufnahmevorrichtung - Google Patents

Als Actionkamera verwendete Bildaufnahmevorrichtung Download PDF

Info

Publication number
DE102022118931A1
DE102022118931A1 DE102022118931.7A DE102022118931A DE102022118931A1 DE 102022118931 A1 DE102022118931 A1 DE 102022118931A1 DE 102022118931 A DE102022118931 A DE 102022118931A DE 102022118931 A1 DE102022118931 A1 DE 102022118931A1
Authority
DE
Germany
Prior art keywords
image
user
image pickup
recording
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022118931.7A
Other languages
English (en)
Inventor
Takuya Imaizumi
Yosuke Fukai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2022038689A external-priority patent/JP2022140418A/ja
Application filed by Canon Inc filed Critical Canon Inc
Publication of DE102022118931A1 publication Critical patent/DE102022118931A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/58Means for changing the camera field of view without moving the camera body, e.g. nutating or panning of optics or image sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6812Motion detection based on additional sensors, e.g. acceleration sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/56Accessories
    • G03B17/561Support related camera accessories

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

Es wird eine Bildaufnahmevorrichtung bereitgestellt, die im Stande ist, eine manuelle Änderung einer Bildaufnahmerichtung zu eliminieren und bei/während Konzentration der Aufmerksamkeit auf eine Erfahrung auf einfache Weise ein Bild zu erhalten. Eine Detektionseinheit wird an einem anderen Körperteil als einem Kopf eines Benutzers getragen und detektiert eine Blickrichtung des Benutzers. Eine Bildaufnahmeeinheit wird an dem Körperteil getragen und nimmt ein Bild auf. Eine Bestimmungseinheit bestimmt eine Aufzeichnungsrichtung gemäß der Blickrichtung. Eine Bildaufzeichnungseinheit zeichnet ein Bild entsprechend der Aufzeichnungsrichtung aus einem aufgenommenen Bild auf. Die Detektionseinheit und die Bildaufnahmeeinheit befinden sich in einem getragenen Zustand, in dem der Benutzer die Bildaufnahmevorrichtung trägt, auf einer Medianebene des Benutzers und unter einem Kiefer des Benutzers. Die Detektionseinheit befindet sich in dem getragenen Zustand an einer näheren Position zu dem Kiefer als die Bildaufnahmeeinheit.

Description

  • Hintergrund der Erfindung
  • Gebiet der Erfindung
  • Die vorliegende Erfindung bezieht sich auf eine Bildaufnahmevorrichtung und bezieht sich insbesondere auf eine als Actionkamera verwendete Bildaufnahmevorrichtung.
  • Beschreibung der verwandten Technik
  • Wenn ein Benutzer ein Bild eines Objekts mit einer Kamera aufnimmt, muss der Benutzer die Kamera laufend auf das Objekt richten. Dementsprechend kann der Benutzer es schwierig finden, andere Aktionen bzw. Handlungen abgesehen von einer Bildaufnahmeaktion bzw. -handlung zu bewerkstelligen, da der Benutzer in einem Bildaufnahmevorgang beschäftigt ist. Weiterhin kann es der Benutzer schwierig finden, seine Aufmerksamkeit auf seine unmittelbare Umgebung zu konzentrieren, da der Benutzer seine Aufmerksamkeit auf den Bildaufnahmevorgang konzentrieren muss.
  • Zum Beispiel, wenn der Benutzer ein Elternteil ist, da der Benutzer nicht mit einem Kind spielen kann, während er einen Bildaufnahmevorgang mit dem Kind als das Objekt durchführt, wird der Bildaufnahmevorgang während eines Spielens mit dem Kind unmöglich.
  • Als weiteres Beispiel, wenn der Benutzer einen Bildaufnahmevorgang durchführt, während er ein Sportspiel anschaut, kann der Benutzer seine Aufmerksamkeit nicht auf das Spiel konzentrieren (z.B. Jubeln oder einen Spielinhalt erinnern), und wird der Bildaufnahmevorgang während einer Konzentration der Aufmerksamkeit auf ein Anschauen des Sportspiels unmöglich. Gleichermaßen, wenn ein Benutzer einen Bildaufnahmevorgang während einer Gruppenreise durchführt, kann der Benutzer seine Aufmerksamkeit nicht in gleichem Maße wie andere Gruppenmitglieder auf die Reiseerfahrung konzentrieren, und, wenn der Benutzer seiner Reiseerfahrung Vorrang einräumt, leidet als Folge hiervon der Bildaufnahmevorgang.
  • Als Verfahren zur Lösung dieser Sachverhalte wurden Verfahren in Erwägung gezogen, bei denen eine Kamera an dem Kopf eines Benutzers unter Verwendung eines Kopfbefestigungszubehörs befestigt ist, um ein Bild in einer Blick- bzw. Beobachtungsrichtung aufzunehmen. Dies ermöglicht es dem Benutzer, einen Bildaufnahmevorgang durchzuführen, ohne mit dem Bildaufnahmevorgang beschäftigt zu sein. Weiterhin ist auch ein Verfahren in Erwägung gezogen worden, das ein Bild in einem weiten Bereich mit einer Volle-Himmelskugel-Kamera während einer Erfahrung aufnimmt. Dies ermöglicht es einem Benutzer, die Aufmerksamkeit während eines Bildaufnahmevorgangs auf seine Erfahrung zu konzentrieren. Nach der Erfahrung kann der Benutzer einen gewünschten Bildteil aus dem aufgenommenen Volle-Himmelskugel-Bild extrahieren und diesen bearbeiten, um ein Bild der Erfahrung zu erhalten.
  • Diese Verfahren erfordern jedoch eine mühsame Aktion bzw. Handlung, mit der der Kopf mit dem Kopfbefestigungszubehör 902 versehen bzw. ausgestattet wird, an dem ein Hauptkörper einer Actionkamera 901 befestigt ist, wie es in 34A gezeigt ist. Außerdem, wie es in 34B gezeigt ist, ist ein Aussehen schlecht und auch eine Frisur des Benutzers unordentlich, wenn der Benutzer den Kopf mit dem Kopfbefestigungszubehör 902 mit der Actionkamera 901 versieht bzw. ausstattet. Außerdem kann sich der Benutzer hinsichtlich des Vorhandenseins des Kopfbefestigungszubehörs 902 und der Actionkamera 903 aufgrund deren Gewichten unbehaglich fühlen und sich um ein schlechtes Aussehen gegenüber Dritten Sorgen machen. Dementsprechend kann es der Benutzer schwierig finden, einen Bildaufnahmevorgang durchzuführen, da der Benutzer in dem in 34B gezeigten Zustand die Aufmerksamkeit nicht auf seine Erfahrung konzentrieren kann, oder da der Benutzer Widerstand gegenüber dem in 34B gezeigten Stil empfindet.
  • Indessen erfordert das letztgenannte Verfahren eine Aufeinanderfolge von Betriebsvorgängen, wie etwa eine Bildumwandlung und eine Extraktionspositionsbezeichnung. Zum Beispiel ist eine Volle-Himmelskugel-Kamera 903 bekannt, die mit einer/einem Linse/Objektiv 904 und einer Bildaufnahmetaste 905 versehen bzw. ausgestattet ist, wie es in 35 gezeigt ist. Die/das Linse/Objektiv 904 ist eine/eines von einem Paar von Fischaugenlinsen/-objektiven zum Aufnehmen von Halbe-Himmelskugel-Bildern, die auf beiden Seiten eines Gehäuses der Volle-Himmelskugel-Kamera 903 bereitgestellt sind. Die Volle-Himmelskugel-Kamera 903 nimmt ein Volle-Himmelskugel-Bild unter Verwendung dieser Fischaugenlinsen/-objektive auf. Dann wird das Volle-Himmelskugel-Bild durch Kombinieren von Projektionsbildern des Paars von Fischaugenlinsen/-objektiven erhalten.
  • 36A, 36B und 36C sind Darstellungen, die Beispiele von Umwandlungsprozessen des durch die Volle-Himmelskugel-Kamera 903 aufgenommenen Bilds zeigen.
  • 36A zeigt ein Beispiel des durch die Volle-Himmelskugel-Kamera 903 erhaltenen Volle-Himmelskugel-Bilds, und ein Benutzer 906, ein Kind 907 und ein Baum 908 sind als Objekte umfasst. Da dieses Bild ein Volle-Himmelskugel-Bild ist, das durch Kombination von Projektionsbildern des Paars von Fischaugenlinsen/-objektiven erhalten wird, ist der Benutzer 906 stark verzerrt. Da sich ein Körperteil des Kinds 907, das das Objekt ist, das der Benutzer 906 aufnehmen möchte, in einem peripheren Teil eines Aufnahmebereichs der/des Linse/Objektivs 904 befindet, ist außerdem der Körperteil in der Rechts-Links-Richtung stark verzerrt und gestreckt. Da der Baum 908 das Objekt ist, das sich vor der/dem Linse/Objektiv 904 befindet, wird der Baum 908 indessen ohne große Verzerrung aufgenommen.
  • Um ein Bild eines Sehfelds, auf das Menschen üblicherweise schauen, aus dem in 36A gezeigten Bild zu erzeugen, ist es notwendig, einen Teil des Bilds zu extrahieren, eine Ebenenumwandlung durchzuführen, und das umgewandelte Bild anzuzeigen.
  • 36B ist ein sich vor der Linse 904 befindliches Bild, das aus dem in 36A gezeigten Bild extrahiert ist. In dem Bild in 36B ist der Baum 908 in der Mitte des Sehfelds gezeigt, auf das Menschen üblicherweise schauen. Da das Bild in 36B jedoch das Kind 907 nicht umfasst, das der Benutzer 906 aufnehmen möchte, hat der Benutzer eine Extraktionsposition zu ändern. Im Speziellen ist es in diesem Fall notwendig, die Extraktionsposition ausgehend von dem Baum 908 in 36A um 30° nach links und nach unten zu bewegen. 36C zeigt ein angezeigtes Bild, das durch Extrahieren der bewegten Position und durch Durchführen der Ebenenumwandlung erhalten wird. In dieser Weise muss der Benutzer, um das Bild in 36C, das der Benutzer aufnehmen möchte, aus dem Bild in 36A zu erhalten, einen notwendigen Bereich extrahieren und die Ebenenumwandlung durchführen. Dementsprechend besteht, obgleich der Benutzer während der Erfahrung (während einer Bildaufnahme) die Aufnahmeeinheit auf die Erfahrung konzentrieren kann, eine große nachfolgende Arbeitslast für den Benutzer.
  • Japanische Patentanmeldungsoffenlegungsschrift (Kokai) Nr. 2007-74033 ( JP 2007-74033 A ) offenbart eine Technik, die eine zweite Kamera, die einen Benutzer aufnimmt, zusätzlich zu einer ersten Kamera verwendet, die ein Objekt aufnimmt. Diese Technik berechnet eine Bewegungsrichtung und eine Sehlinienrichtung eines Benutzers aus einem durch die zweite Kamera aufgenommenen Bild, bestimmt eine Bildaufnahmerichtung der ersten Kamera und nimmt ein Bild eines Objekts auf, das auf Grundlage von Blick- bzw. Gesichtspunkt und Zustand des Benutzers geschätzt wird.
  • Japanische Patentanmeldungsoffenlegungsschrift (Kokai) Nr. 2017-60078 ( JP 2017-60078 A ) (Pendant zu US-Patentanmeldung Nr. 20170085841) offenbart ein Bildaufzeichnungssystem mit einer Sensorvorrichtung, die an einem Kopf eines Benutzers angebracht ist, und einer Bildaufnahmevorrichtung, die separat an einem Körper eines Benutzers oder einer Tasche angebracht ist. Die Sensorvorrichtung besteht aus einem Gyrosensor oder einem Beschleunigungssensor und detektiert eine Blick- bzw. Beobachtungsrichtung des Benutzers. Die Bildaufnahmevorrichtung nimmt ein Bild in der durch die Sensorvorrichtung detektierten Blick- bzw. Beobachtungsrichtung auf.
  • Da die zweite Kamera von JP 2007-74033 A ein Bild des Benutzers von einer Position aufnimmt, die von dem Benutzer entfernt ist, benötigt die zweite Kamera jedoch eine hohe optische Leistung bzw. Leistungsfähigkeit, um die Bewegungsrichtung und die Sehlinienrichtung des Benutzers aus dem durch die zweite Kamera aufgenommenen Bild zu berechnen. Da zur Verarbeitung des durch die zweite Kamera aufgenommenen Bilds eine hohe arithmetische Verarbeitungsfähigkeit erforderlich ist, wird eine Größenordnung einer Vorrichtung groß. Selbst wenn die hohe optische Leistung bzw. Leistungsfähigkeit und die hohe arithmetische Verarbeitungsfähigkeit erfüllt sind, kann außerdem die Blick- bzw. Beobachtungsrichtung des Benutzers nicht präzise berechnet werden. Da ein Objekt, das der Benutzer aufnehmen möchte, auf Grundlage des Blick- bzw. Gesichtspunkts und des Zustands des Benutzers nicht mit ausreichender Genauigkeit geschätzt werden kann, kann dementsprechend ein Bild aufgenommen werden, das anders als dasjenige ist, was der Benutzer aufnehmen möchte.
  • Da die Sensorvorrichtung von JP 2017-60078 A eine Blick- bzw. Beobachtungsrichtung eines Benutzers direkt detektiert, muss der Benutzer außerdem den Kopf mit der Sensorvorrichtung versehen bzw. ausstatten, was eine Beschwerlichkeit beim Anbringen jedweder Vorrichtung an dem Kopf, wie vorstehend dargelegt, nicht lösen kann. Wenn die Sensorvorrichtung aus einem Gyrosensor oder einem Beschleunigungssensor besteht, kann außerdem eine gewisse Genauigkeit bei Detektion einer relativen Blick- bzw. Beobachtungsrichtung erhalten werden. Da eine Genauigkeit einer Detektion einer absoluten Blick- bzw. Beobachtungsrichtung, insbesondere in der horizontalen Drehrichtung, nicht erhalten werden kann, besteht jedoch ein Problem bei einer praktischen Anwendung.
  • Kurzfassung der Erfindung
  • Die vorliegende Erfindung stellt eine Bildaufnahmevorrichtung bereit, die im Stande ist, eine manuelle Änderung einer Bildaufnahmerichtung während eines Bildaufnahmevorgangs zu eliminieren, und in der Lage ist, ein Bild, das eine Erfahrung aufzeichnet, bei/während Konzentration der Aufmerksamkeit auf die Erfahrung auf einfache Weise zu erhalten.
  • Dementsprechend stellt ein Aspekt der vorliegenden Erfindung eine Bildaufnahmevorrichtung bereit, mit: einer Blickrichtungsdetektionseinheit, die angepasst ist, an einem anderen Körperteil als einem Kopf eines Benutzers getragen zu werden, und konfiguriert ist zum Detektieren einer Blickrichtung des Benutzers, zumindest einer Bildaufnahmeeinheit, die angepasst ist, an dem Körperteil des Benutzers getragen zu werden, und konfiguriert ist zum Aufnehmen eines Bilds, einer Aufzeichnungsrichtungsbestimmungseinheit, die konfiguriert ist zum Bestimmen einer Aufzeichnungsrichtung gemäß der detektierten Blickrichtung, und einer Bildaufzeichnungseinheit, die konfiguriert ist zum Aufzeichnen eines Bilds entsprechend der bestimmten Aufzeichnungsrichtung aus einem durch die zumindest eine Bildaufnahmeeinheit aufgenommenen Bild. Die Blickrichtungsdetektionseinheit und die zumindest eine Bildaufnahmeeinheit befinden sich in einem getragenen Zustand, in dem der Benutzer die Bildaufnahmevorrichtung trägt, auf einer Medianebene des Benutzers und unter einem Kiefer des Benutzers, und die Blickrichtungsdetektionseinheit befindet sich in dem getragenen Zustand an einer näheren Position zu dem Kiefer als die zumindest eine Bildaufnahmeeinheit.
  • Gemäß der vorliegenden Erfindung wird eine manuelle Änderung einer Bildaufnahmerichtung während eines Bildaufnahmevorgangs unnötig, und kann ein Bild, das eine Erfahrung aufzeichnet, bei/während Konzentration der Aufmerksamkeit auf die Erfahrung auf einfache Weise erhalten werden.
  • Weitere Merkmale der vorliegenden Erfindung werden aus der folgenden Beschreibung von beispielhaften Ausführungsbeispielen unter Bezugnahme auf die beigefügten Zeichnungen deutlich.
  • Figurenliste
    • 1A ist eine Außenansicht, die einen Kamerakörper mit einer Bildaufnahme-/ Detektionseinheit als eine Bildaufnahmevorrichtung gemäß einem ersten Ausführungsbeispiel zeigt.
    • 1B ist eine Ansicht, die einen Zustand zeigt, in dem ein Benutzer den Kamerakörper trägt.
    • 1C ist eine Ansicht, die eine Batterieeinheit in dem Kamerakörper aus Sicht einer Rückseite in 1A zeigt.
    • 1D ist eine Außenansicht, die eine Anzeigevorrichtung als eine tragbare Vorrichtung gemäß dem ersten Ausführungsbeispiel zeigt, die von dem Kamerakörper separat ist.
    • 2A ist eine Vorderansicht, die die Bildaufnahme-/Detektionseinheit in dem Kamerakörper zeigt.
    • 2B ist eine Ansicht, die eine Form eines Bandteils eines Verbindungselements in dem Kamerakörper zeigt.
    • 2C ist eine Rückansicht, die die Bildaufnahme-/Detektionseinheit zeigt.
    • 2D ist eine Draufsicht, die die Bildaufnahme-/Detektionseinheit zeigt.
    • 2E ist eine Ansicht, die eine Konfiguration einer Gesichtsrichtungsdetektionseinheit zeigt, die innerhalb der Bildaufnahme-/ Detektionseinheit und unter einem Gesichtsrichtungsdetektionsfenster in dem Kamerakörper angeordnet ist.
    • 2F ist eine Ansicht, die einen Zustand, in dem ein Benutzer den Kamerakörper trägt, aus Sicht einer linken Seite des Benutzers zeigt.
    • 3A, 3B und 3C sind Ansichten, die Einzelheiten der Batterieeinheit zeigen.
    • 4 ist ein Funktionsblockschaltbild, das den Kamerakörper gemäß dem ersten Ausführungsbeispiel zeigt.
    • 5 ist ein Blockschaltbild, das eine Hardwarekonfiguration des Kamerakörpers gemäß dem ersten Ausführungsbeispiel zeigt.
    • 6 ist ein Blockschaltbild, das eine Hardwarekonfiguration der Anzeigevorrichtung zeigt.
    • 7A ist ein Ablaufdiagramm, das einen Bildaufnahme-/Aufzeichnungsprozess gemäß dem ersten Ausführungsbeispiel schematisch zeigt, der durch den Kamerakörper und die Anzeigevorrichtung ausgeführt wird.
    • 7B ist ein Ablaufdiagramm, das eine Unterroutine eines Vorbereitungsprozesses in einem Schritt S100 in 7A gemäß dem ersten Ausführungsbeispiel zeigt.
    • 7C ist ein Ablaufdiagramm, das eine Unterroutine eines Gesichtsrichtungsdetektionsprozesses in einem Schritt S200 in 7A gemäß dem ersten Ausführungsbeispiel zeigt.
    • 7D ist ein Ablaufdiagramm, das eine Unterroutine eines Aufzeichnungsrichtungs-/-bereichsbestimmungsprozesses in einem Schritt S300 in 7A gemäß dem ersten Ausführungsbeispiel zeigt.
    • 7E ist ein Ablaufdiagramm, das eine Unterroutine eines Aufzeichnungsbereichsentwicklungsprozesses in einem Schritt S500 in 7A gemäß dem ersten Ausführungsbeispiel zeigt.
    • 7F ist eine Darstellung zur Beschreibung eines Prozesses in den Schritten S200 bis S600 in 7A in einem Videobildmodus.
    • 8A ist eine Darstellung, die ein Bild eines Benutzers aus Sicht des Gesichtsrichtungsdetektionsfensters zeigt.
    • 8B ist eine Darstellung, die einen Fall zeigt, in dem Leuchtstofflampen in einem Raum als Hintergrund in dem Bild des Benutzers aus Sicht des Gesichtsrichtungsdetektionsfensters erscheinen.
    • 8C ist eine Darstellung, die ein Bild zeigt, das erhalten wird durch Bildgebung bzw. Abbildung von dem Benutzer und den in 8B als Hintergrund gezeigten Leuchtstofflampen auf einen Sensor der Infrarotdetektionseinrichtung durch das Gesichtsrichtungsdetektionsfenster in einem Zustand, in dem Infrarot-LEDs der Infrarotdetektionseinrichtung nicht be-/erleuchtet sind.
    • 8D ist eine Darstellung, die ein Bild zeigt, das erhalten wird durch Bildgebung bzw. Abbildung von dem Benutzer und den in 8B als Hintergrund gezeigten Leuchtstofflampen auf den Sensor der Infrarotdetektionseinrichtung durch das Gesichtsrichtungsdetektionsfenster in einem Zustand, in dem die Infrarot-LEDs be-/erleuchtet sind.
    • 8E ist eine Darstellung, die ein Differenzbild zeigt, das durch Subtraktion des Bilds in 8C von dem Bild in 8D berechnet wird.
    • 8F ist eine Darstellung, die ein Ergebnis zeigt, das erhalten wird durch Anpassen von Schattierungen des Differenzbilds in 8E, um mit einer Größenordnung von Lichtstärken von reflektierten Komponenten von Infrarotlicht zusammenzupassen, das auf ein Gesicht und einen Hals des Benutzers projiziert wird.
    • 8G ist eine Darstellung, die erhalten wird durch Überlagern von Teilen eines Benutzerkörpers bezeichnenden Bezugszeichen, eines eine Kehlenposition zeigenden Doppelkreises und eines eine Kinnposition zeigenden schwarzen Kreises auf 8F.
    • 8H ist eine Darstellung, die ein Differenzbild, das durch das ähnliche Verfahren wie in 8E berechnet wird, beim Richten des Gesichts des Benutzers nach rechts zeigt.
    • 8I ist eine Darstellung, die ein Ergebnis zeigt, das erhalten wird durch Anpassen von Schattierungen des Differenzbilds in 8H, um mit einer Größenordnung von Lichtstärken von reflektierten Komponenten von Infrarotlicht zusammenzupassen, das auf ein Gesicht und einen Hals des Benutzers projiziert wird, und durch Überlagern des die Kehlenposition zeigenden Doppelkreises und des die Kinnposition zeigenden schwarzen Kreises.
    • 8J ist eine Darstellung, die ein Bild des Benutzers, der das Gesicht um 33° nach oben richtet, aus Sicht des Gesichtsrichtungsdetektionsfensters zeigt.
    • 8K ist eine Darstellung, die ein Ergebnis zeigt, das erhalten wird durch Anpassen von Schattierungen eines Differenzbilds, das durch das ähnliche Verfahren wie in 8E in einem Fall berechnet wird, in dem der Benutzer das Gesicht um 33° nach oben richtet, um mit einer Größenordnung von Lichtstärken von reflektierten Komponenten von Infrarotlicht zusammenzupassen, das auf ein Gesicht und einen Hals des Benutzers projiziert wird, und durch Überlagern des die Kehlenposition zeigenden Doppelkreises und des die Kinnposition zeigenden schwarzen Kreises.
    • 9 ist ein Zeitdiagramm, das eine Be-/Erleuchtungszeit der Infrarot-LEDs und zugehörige Signale zeigt.
    • 10A bis 10D sind Darstellungen, die Bewegungen des Gesichts des Benutzers in einer vertikalen Richtung beschreiben.
    • 11A ist eine Darstellung, die ein Zielsehfeld zeigt, das in einem Superweitwinkelbild, das durch eine Bildaufnahmeeinheit des Kamerakörpers aufgenommen wird, in einem Fall eingestellt wird, in dem der Benutzer nach vorne schaut.
    • 11B ist eine Darstellung, die ein Bild in dem Zielsehfeld zeigt, das aus dem Superweitwinkelbild in 11A extrahiert wird.
    • 11C ist eine Darstellung, die das Zielsehfeld zeigt, das in dem Superweitwinkelbild in einem Fall eingestellt wird, in dem der Benutzer ein A-Objekt beobachtet.
    • 11D ist eine Darstellung, die ein Bild zeigt, das erhalten wird durch Korrigieren einer Verzerrung und einer Unschärfe eines Bilds in dem aus dem Superweitwinkelbild extrahierten Zielsehfeld in 11C.
    • 11E ist eine Darstellung, die ein Zielsehfeld zeigt, das in dem Superweitwinkelbild in einem Fall eingestellt wird, in dem der Benutzer das A-Objekt mit einem Feldwinkel-Einstellwert beobachtet, der kleiner ist als derjenige in 11C.
    • 11F ist eine Darstellung, die ein Bild zeigt, das erhalten wird durch Korrigieren einer Verzerrung und einer Unschärfe eines Bilds in dem aus dem Superweitwinkelbild extrahierten Zielsehfeld in 11E.
    • 12A ist eine Darstellung, die ein Beispiel des in dem Superweitwinkelbild eingestellten Zielsehfelds zeigt.
    • 12B ist eine Darstellung, die ein Beispiel des Zielsehfelds zeigt, das in dem Superweitwinkelbild in einem Fall eingestellt wird, in dem der Feldwinkel-Einstellwert identisch zu demjenigen des Zielsehfelds in 12A ist und sich die Blickrichtung unterscheidet.
    • 12C ist eine Darstellung, die ein weiteres Beispiel des Zielsehfelds zeigt, das in dem Superweitwinkelbild in einem Fall eingestellt wird, in dem der Feldwinkel-Einstellwert identisch zu demjenigen des Zielsehfelds in 12A ist und sich die Blickrichtung unterscheidet.
    • 12D ist eine Darstellung, die ein Beispiel des Zielsehfelds zeigt, das in dem Superweitwinkelbild in einem Fall eingestellt wird, in dem die Blickrichtung identisch zu derjenigen des Zielsehfelds in 12C ist und der Feldwinkel-Einstellwert kleiner ist.
    • 12E ist eine Darstellung, die ein Beispiel zeigt, das einen Bildstabilisierungsrand entsprechend einem vorbestimmten Bildstabilisierungsgrad rund um das in 12A gezeigte Zielsehfeld gibt.
    • 12F ist eine Darstellung, die ein Beispiel zeigt, das einen Bildstabilisierungsrand entsprechend dem gleichen Bildstabilisierungsgrad des Bildstabilisierungsrands in 12E rund um das in 12B gezeigte Zielsehfeld gibt.
    • 12G ist eine Darstellung, die ein Beispiel zeigt, das einen Bildstabilisierungsrand entsprechend dem gleichen Bildstabilisierungsgrad des Bildstabilisierungsrands in 12E rund um das in 12D gezeigte Zielsehfeld gibt.
    • 13 ist eine Darstellung, die einen Menübildschirm zum Einstellen verschiedener Einstellwerte eines Videobildmodus zeigt, der auf einer Anzeigeeinheit der Anzeigevorrichtung vor einem Bildaufnahmevorgang des Kamerakörpers angezeigt wird.
    • 14 ist ein Ablaufdiagramm, das eine Unterroutine eines Primäraufzeichnungsprozesses in einem Schritt S600 in 7A zeigt.
    • 15 ist eine Darstellung, die eine Datenstruktur einer durch den Primäraufzeichnungsprozess erzeugten Bilddatei zeigt.
    • 16 ist ein Ablaufdiagramm, das eine Unterroutine eines Übertragungsprozesses an die Anzeigevorrichtung in einem Schritt S700 in 7A zeigt.
    • 17 ist ein Ablaufdiagramm, das eine Unterroutine eines optischen Korrekturprozesses in einem Schritt S800 in 7A zeigt.
    • 18A bis 18F sind Darstellungen zur Beschreibung eines Prozesses zum Anwenden einer Verzerrungskorrektur in einem Schritt S803 in 17.
    • 19 ist ein Ablaufdiagramm, das eine Unterroutine eines Bildstabilisierungsprozesses in einem Schritt S900 in 7A zeigt.
    • 20 ist eine perspektivische Explosionsdarstellung, die eine Konfiguration einer Bildaufnahme-/Detektionseinheit als eine Bildaufnahmevorrichtung gemäß einem zweiten Ausführungsbeispiel schematisch zeigt.
    • 21 ist eine Darstellung, die einen Zustand zeigt, in dem ein Benutzer einen mit der Bildaufnahme-/Detektionseinheit ausgestatteten Kamerakörper trägt.
    • 22A und 22B sind Darstellungen zur Beschreibung eines Linsen-/ Objektivdeckels des Kamerakörpers.
    • 23A ist eine Darstellung, die eine interne Konfiguration der Bildaufnahme-/ Detektionseinheit in einem Nichtbildaufnahmezustand zeigt.
    • 23B ist eine Darstellung, die die interne Konfiguration der Bildaufnahme-/ Detektionseinheit in einem Bildaufnahmezustand zeigt.
    • 24 ist eine Vorderansicht, die die Bildaufnahme-/Detektionseinheit in einem Zustand zeigt, in dem eine vordere Abdeckung entfernt ist.
    • 25 ist eine Vorderansicht, die eine Konfiguration einer Bildaufnahme-/ Detektionseinheit als eine Bildaufnahmevorrichtung gemäß einem dritten Ausführungsbeispiel schematisch zeigt.
    • 26 ist eine perspektivische Explosionsdarstellung, die eine Konfiguration einer Bildaufnahme-/Detektionseinheit als eine Bildaufnahmevorrichtung gemäß einem vierten Ausführungsbeispiel schematisch zeigt.
    • 27 ist eine Schnittdarstellung entlang einer optischen Achse OA1 und einer optischen Achse OA2, die eine interne Konfiguration der Bildaufnahme-/ Detektionseinheit gemäß dem vierten Ausführungsbeispiel schematisch zeigt.
    • 28 ist eine Vorderansicht, die eine Konfiguration einer Bildaufnahme-/ Detektionseinheit als eine Bildaufnahmevorrichtung gemäß einem fünften Ausführungsbeispiel schematisch zeigt.
    • 29 ist eine perspektivische Explosionsdarstellung, die eine Konfiguration einer Bildaufnahme-/Detektionseinheit als eine Bildaufnahmevorrichtung gemäß einem sechsten Ausführungsbeispiel schematisch zeigt.
    • 30 ist eine Darstellung, die einen Zustand zeigt, in dem ein Benutzer einen Kamerakörper trägt, der mit der Bildaufnahme-/Detektionseinheit als die Bildaufnahmevorrichtung gemäß dem sechsten Ausführungsbeispiel ausgestattet ist, und einen Bildaufnahmestartvorgang durchführt.
    • 31 ist eine Vorderansicht, die die Bildaufnahme-/Detektionseinheit gemäß dem sechsten Ausführungsbeispiel in einem Zustand zeigt, in dem eine vordere Abdeckung entfernt ist.
    • 32A ist eine Darstellung, die Beispiele von Formen einer ersten Taste und einer zweiten Taste einer Bildaufnahme-/Detektionseinheit als eine Bildaufnahmevorrichtung gemäß einem siebten Ausführungsbeispiel zeigt.
    • 32B ist eine Darstellung, die weitere Beispiele von Formen der ersten Taste und der zweiten Taste der Bildaufnahme-/Detektionseinheit als die Bildaufnahmevorrichtung gemäß dem siebten Ausführungsbeispiel zeigt.
    • 32C ist eine Darstellung, die noch weitere Beispiele von Formen der ersten Taste und der zweiten Taste der Bildaufnahme-/Detektionseinheit als die Bildaufnahmevorrichtung gemäß dem siebten Ausführungsbeispiel zeigt.
    • 33 ist eine Darstellung, die einen Zustand zeigt, in dem ein Benutzer einen Kamerakörper trägt, der mit einer Bildaufnahme-/Detektionseinheit als eine Bildaufnahmevorrichtung gemäß einem achten Ausführungsbeispiel ausgestattet ist, und einen Bildaufnahmestartvorgang durchführt.
    • 34A und 34B sind Darstellungen, die ein Konfigurationsbeispiel einer Kamera zeigen, die unter Verwendung eines herkömmlichen Kopfbefestigungszubehörs an einem Kopf befestigt ist.
    • 35 ist eine Darstellung, die ein Konfigurationsbeispiel einer herkömmlichen Volle-Himmelskugel-Kamera zeigt.
    • 36A, 36B und 36C sind Darstellungen, die Beispiele von Umwandlungsprozessen des durch die Volle-Himmelskugel-Kamera in 35 aufgenommenen Bilds zeigen.
  • Beschreibung der Ausführungsbeispiele
  • Nachstehend werden hierin Ausführungsbeispiele gemäß der vorliegenden Erfindung durch Bezugnahme auf die Zeichnungen ausführlich beschrieben.
  • 1A bis 1D sind Ansichten zur Beschreibung eines Kamerasystems, das aus einem Kamerakörper 1 und einer Anzeigevorrichtung 800 besteht, die von dem Kamerakörper 1 separat bzw. getrennt ist. Der Kamerakörper 1 umfasst eine Bildaufnahme-/Detektionseinheit 10 als eine tragbare Bildaufnahmevorrichtung gemäß einem ersten Ausführungsbeispiel. Obgleich der Kamerakörper 1 und die Anzeigevorrichtung 800 bei diesem Ausführungsbeispiel separate bzw. getrennte Vorrichtungen sind, können sie integriert sein.
  • 1A ist eine Außenansicht, die den Kamerakörper 1 zeigt. Der Kamerakörper 1 ist mit der Bildaufnahme/-Detektionseinheit 10, einer Batterieeinheit 90, einem rechten Verbindungselement 80R und einem linken Verbindungselement 80L versehen bzw. ausgestattet, wie es in 1A gezeigt ist. Das rechte Verbindungselement 80R verbindet die Bildaufnahme-/Detektionseinheit 10 und die Batterieeinheit 90 auf der rechten Seite eines Benutzerkörpers (linke Seite in 1A). Das linke Verbindungselement 80L verbindet die Bildaufnahme-/ Detektionseinheit 10 und die Batterieeinheit 90 auf der linken Seite des Benutzerkörpers (rechte Seite in 1A).
  • Die Bildaufnahme-/Detektionseinheit 10 ist mit einem Gesichtsrichtungsdetektionsfenster 13, einem Startschalter 14, einem Stoppschalter 15, einer/einem Bildaufnahmelinse/-objektiv 16, einer LED 17 und Mikrophonen 19L und 19R versehen bzw. ausgestattet.
  • Das Gesichtsrichtungsdetektionsfenster 13 erlaubt ein Übertragen bzw. Durchlassen von Infrarotlicht, das von in der Bildaufnahme-/Detektionseinheit 10 eingebauten Infrarot-LEDs 22 (5) projiziert wird, um Positionen von Gesichtsteilen des Benutzers zu detektieren. Das Gesichtsrichtungsdetektionsfenster 13 erlaubt auch ein Übertragen bzw. Durchlassen von reflektiertem Infrarotlicht von dem Gesicht.
  • Der Startschalter 14 wird verwendet, um einen Bildaufnahmevorgang zu starten. Der Stoppschalter 15 wird verwendet, um den Bildaufnahmevorgang zu stoppen. Die/das Bildaufnahmelinse/-objektiv 16 führt aufzunehmendes Licht an einen Festkörperbildsensor 42 (5) innerhalb der Bildaufnahme-/Detektionseinheit 10. Die LED 17 bezeichnet einen Zustand, dass der Bildaufnahmevorgang läuft. Zusätzlich oder alternativ kann die LED 17 als Warnlicht fungieren.
  • Die Mikrophone 19R und 19L nehmen Umgebungsschall auf. Das Mikrophon 19L nimmt Schall der linken Seite einer Benutzerumgebung (rechte Seite in 1A) auf. Das Mikrophon 19R nimmt Schall der rechten Seite der Benutzerumgebung (linke Seite in 1A) auf.
  • 1B ist eine Ansicht, die einen Zustand zeigt, in dem der Benutzer den Kamerakörper 1 trägt.
  • Wenn der Benutzer den Kamerakörper 1 trägt, so dass sich die Batterieeinheit 90 nahe bzw. an einer Rückseite des Benutzers befindet und sich die Bildaufnahme-/ Detektionseinheit 10 nahe bzw. an der Vorderseite des Benutzerkörpers befindet, ist die Bildaufnahme-/Detektionseinheit 10, während sie mit Energie versorgt wird, durch das linke und das rechte Verbindungselement 80L und 80R, die mit dem linken und dem rechten Ende der Bildaufnahme-/Detektionseinheit 10 verbunden sind, gegen eine Brust bzw. einen Brustkorb gelagert bzw. gestützt. Dadurch ist die Bildaufnahme-/Detektionseinheit 10 vor Schlüsselbeinen des Benutzers positioniert. Dabei befindet sich das Gesichtsrichtungsdetektionsfenster 13 unter einem Kiefer des Benutzers. Eine in 2E gezeigte Infrarotkondensorlinse 26, die nachstehend dargelegt wird, ist innerhalb des Gesichtsrichtungsdetektionsfensters 13 angeordnet. Eine optische Achse (optische Detektionsachse) der Infrarotkondensorlinse 26 ist auf das Gesicht des Benutzers gerichtet und ist in eine andere Richtung als eine optische Achse (optische Bildaufnahmeachse) der/des Bildaufnahmelinse/-objektivs 16 gerichtet. Eine Gesichtsrichtungsdetektionseinheit 20 (siehe 5), die die Infrarotkondensorlinse 26 umfasst, detektiert eine Blick- bzw. Beobachtungsrichtung des Benutzers auf Grundlage der Positionen von Gesichtsteilen. Dies ermöglicht es einer Bildaufnahmeeinheit 40, die nachstehend dargelegt wird, ein Bild eines Objekts in der Blick- bzw. Beobachtungsrichtung aufzunehmen. Eine Anpassung der Einstellungsposition aufgrund eines individuellen Unterschieds einer Körperform und eines Unterschieds in Bekleidung wird nachstehend dargelegt.
  • Da auf diese Art und Weise die Bildaufnahme-/Detektionseinheit 10 auf der Vorderseite des Körpers angeordnet ist und die Batterieeinheit 90 auf der Rückseite angeordnet ist, wird außerdem ein Gewicht des Kamerakörpers 1 verteilt, was eine Ermüdung des Benutzers verringert und eine Verlagerung des Kamerakörpers 1 aufgrund von durch eine Bewegung des Benutzers verursachten Kräften auf den Kamerakörper 1 verringert.
  • Obgleich bei diesem Ausführungsbeispiel das Beispiel beschrieben wird, in dem der Benutzer den Kamerakörper 1 so trägt, dass sich die Bildaufnahme-/ Detektionseinheit 10 vor den Schlüsselbeinen des Benutzers befinden wird, ist dieses Beispiel nicht zwingend. Das heißt, dass der Benutzer den Kamerakörper 1 an einer beliebigen Position des Benutzerkörpers abgesehen von dem Kopf tragen kann, solange der Kamerakörper 1 die Blick- bzw. Beobachtungsrichtung des Benutzers detektieren kann und die Bildaufnahmeeinheit 40 ein Bild eines Objekts in der Blick- bzw. Beobachtungsrichtung aufnehmen kann.
  • 1C ist eine Ansicht, die die Batterieeinheit 90 aus Sicht einer Rückseite in 1A zeigt. Die Batterieeinheit 90 ist mit einem Ladekabeleinführschlitz 91, Anpassungstasten 92L und 92R und einem Wirbelsäulenschonausschnitt 93 versehen bzw. ausgestattet, wie es in 1C gezeigt ist.
  • Ein (nicht gezeigtes) Ladekabel kann mit dem Ladekabeleinführschlitz 91 verbunden werden. Eine externe Leistungsquelle lädt interne Batterien 94L und 94R (siehe 3A) auf und führt elektrische Leistung über das Ladekabel an die Bildaufnahme-/Detektionseinheit 10 zu.
  • Anpassungstasten 92L und 92R werden verwendet, um die jeweiligen Längen der Bandteile 82L und 82R des linken und des rechten Verbindungselements 80L und 80R anzupassen. Die Anpassungstaste 92L wird verwendet, um den linken Bandteil 82L anzupassen, und die Anpassungstaste 92R wird verwendet, um den rechten Bandteil 82R anzupassen. Obgleich bei dem Ausführungsbeispiel die Längen der Bandteile 82L und 82R mit den Anpassungstasten 92L und 92R unabhängig angepasst werden, können die Längen der Bandteile 82L und 82R mit einer Taste gleichzeitig angepasst werden.
  • Der Wirbelsäulenschonausschnitt 93 ist ausgebildet, indem die Batterieeinheit 90 so geformt ist, dass die Batterieeinheit 90 die Wirbelsäule nicht berühren wird. Da der Wirbelsäulenschonausschnitt 93 einen konvexen bzw. gewölbten Teil der Wirbelsäule des Körpers meidet, wird ein Unbehagen des Tragens verringert und wird eine seitliche Verlagerung der Batterieeinheit 90 verhindert.
  • 1D ist eine Außenansicht, die die Anzeigevorrichtung 800 als eine tragbare Vorrichtung gemäß dem ersten Ausführungsbeispiel zeigt, die von dem Kamerakörper 1 separat bzw. getrennt ist. Wie es in 1D gezeigt ist, ist die Anzeigevorrichtung 800 mit einer A-Taste 802, einer Anzeigeeinheit 803, einer B-Taste 804, einer Innen- bzw. Einbaukamera 805, einem Gesichtssensor 806, einem Winkelgeschwindigkeitssensor 807 und einem Beschleunigungssensor 808 versehen bzw. ausgestattet. Außerdem ist die Anzeigevorrichtung 800 mit einer (in 1D nicht gezeigten) Drahtlos-LAN-Einheit versehen bzw. ausgestattet, die eine Hochgeschwindigkeitsverbindung mit dem Kamerakörper 1 ermöglicht.
  • Die A-Taste 802 hat eine Funktion einer Leistungstaste der Anzeigevorrichtung 800. Die Anzeigevorrichtung 800 empfängt eine EIN/AUS-Bedienung durch ein langes Drücken der A-Taste 802 und empfängt eine Bezeichnung einer Zeit- bzw. Zeitvorgabe eines anderen Prozessors durch ein kurzes Drücken der A-Taste 802.
  • Die Anzeigeeinheit 803 wird verwendet, um ein durch den Kamerakörper 1 aufgenommenes Bild zu überprüfen, und kann einen zur Einstellung erforderlichen Menübildschirm anzeigen. Bei diesem Ausführungsbeispiel empfängt ein transparenter Berührungssensor, der auf der Oberfläche der Anzeigeeinheit 803 bereitgestellt ist, eine Berührungsbedienung auf einen Bildschirm (zum Beispiel einen Menübildschirm), der gerade angezeigt wird.
  • Die B-Taste 804 fungiert als eine Kalibrierungstaste 854, die für einen nachstehend dargelegten Kalibrierungsprozess verwendet wird. Die Innen- bzw. Einbaukamera 805 nimmt ein Bild einer Person auf, die die Anzeigevorrichtung 800 betrachtet.
  • Der Gesichtssensor 806 detektiert eine Gesichtsform und eine Blick- bzw. Beobachtungsrichtung der Person, die die Anzeigevorrichtung 800 betrachtet. Eine konkrete Konfiguration des Gesichtssensors 806 ist nicht eingeschränkt.
  • Zum Beispiel können ein struktureller optischer Sensor, ein ToF-Sensor (ToF: „Time of Flight“) und ein Millimeterwellenradar eingesetzt werden.
  • Da der Winkelgeschwindigkeitssensor 807 in der Anzeigevorrichtung 800 eingebaut ist, ist er durch eine gepunktete Linie im Sinne einer perspektivischen Ansicht gezeigt. Da die Anzeigevorrichtung 800 dieses Ausführungsbeispiels auch mit einer Funktion des nachstehend dargelegten Kalibrierers versehen bzw. ausgestattet ist, ist ein dreiachsiger Gyrosensor installiert, der eine Detektion in X-, Y- und Z-Richtungen ermöglicht. Der Beschleunigungssensor 808 detektiert eine Lage, Stellung bzw. Haltung der Anzeigevorrichtung 800.
  • Es sollte beachtet werden, dass ein gewöhnliches Smartphone als die Anzeigevorrichtung 800 gemäß diesem Ausführungsbeispiel eingesetzt wird. Das Kamerasystem des Ausführungsbeispiels wird erreicht bzw. verwirklicht, indem Firmware in dem Smartphone mit Firmware des Kamerakörpers 1 abgeglichen bzw. abgestimmt wird. Indessen kann das Kamerasystem des Ausführungsbeispiels erreicht bzw. verwirklicht werden, indem die Firmware des Kamerakörpers 1 mit einer Anwendung und einem Betriebssystem (OS) des Smartphones als die Anzeigevorrichtung 800 abgestimmt bzw. angeglichen wird.
  • 2A bis 2F sind Ansichten, die die Bildaufnahme-/Detektionseinheit 10 im Detail beschreiben. In Ansichten ausgehend von 2A ist eine Komponente, die die gleiche Funktion eines Teils aufweist, das bereits beschrieben wurde, durch das gleiche Bezugszeichen bezeichnet, und deren Beschreibung in dieser Schrift wird ausgelassen.
  • 2A ist eine Vorderansicht, die die Bildaufnahme-/Detektionseinheit 10 zeigt.
  • Das rechte Verbindungselement 80R weist den Bandteil 82R und ein Winkelhalteelement 81R aus hartem Material auf, das einen Winkel mit Bezug auf die Bildaufnahme-/Detektionseinheit 10 hält. Das linke Verbindungselement 80L weist gleichermaßen den Bandteil 82L und ein Winkelhalteelement 81L auf.
  • 2B ist eine Ansicht, die die Formen der Bandteile 82L und 82R des linken und des rechten Verbindungselements 80L und 80R zeigt. In 2B sind die Winkelhalteelemente 81L und 81R als transparente Elemente gezeigt, um die Formen der Bandteile 82L und 82R zu zeigen.
  • Der Bandteil 82L ist mit einer linken Verbindungsfläche 83L und einem elektrischen Kabel 84 versehen bzw. ausgestattet, die auf der linken Seite des Benutzerkörpers (rechte Seite in 2B) angeordnet sind, wenn der Benutzer den Kamerakörper 1 trägt. Der Bandteil 82R ist mit einer rechten Verbindungsfläche 83R versehen bzw. ausgestattet, die auf der rechten Seite des Benutzerkörpers (linke Seite in 2B) angeordnet ist, wenn der Benutzer den Kamerakörper 1 trägt.
  • Die linke Verbindungsfläche 83L ist mit dem Winkelhalteelement 81L verbunden, und ihre Querschnittsform ist eine Ellipse, aber kein perfekter Kreis. Die rechte Verbindungsfläche 83R weist ebenfalls eine ähnliche elliptische Form auf. Die rechte Verbindungsfläche 83R und die linke Verbindungsfläche 83L sind in einer umgedrehten V-Form bisymmetrisch angeordnet. Das heißt, dass die Entfernung zwischen der rechten Verbindungsfläche 83R und der linken Verbindungsfläche 83L in 2B von der unteren Seite hin zu der oberen Seite kürzer wird. Da die Längsachsrichtungen der linken und der rechten Verbindungsfläche 83L und 83R mit dem Benutzerkörper übereinstimmen bzw. zusammenpassen, wenn der Benutzer den Kamerakörper 1 umhängt, berühren dadurch die Bandteile 82L und 82R den Benutzerkörper komfortabel und kann eine Bewegung der Bildaufnahme-/Detektionseinheit 10 in der Links-Rechts-Richtung und der Vorne-Hinten-Richtung verhindert werden.
  • Das elektrische Kabel 84 ist innerhalb des Bandteils 82L verdrahtet und verbindet die Batterieeinheit 90 und die Bildaufnahme-/Detektionseinheit 10 elektrisch. Das elektrische Kabel 84 verbindet die Leistungsquelle der Batterieeinheit 90 mit der Bildaufnahme-/Detektionseinheit 10 oder überträgt ein elektrisches Signal bezüglich einer externen Vorrichtung.
  • 2C ist eine Rückansicht, die die Bildaufnahme-/Detektionseinheit 10 zeigt. 2C zeigt die Seite, die mit dem Benutzerkörper in Kontakt kommt. Das heißt, dass 2C eine Ansicht aus Sicht der gegenüberliegenden Seite von 2A ist. Dementsprechend ist die Positionsbeziehung zwischen dem rechten Verbindungselement 80R und dem linken Verbindungselement 80L umgekehrt zu 2A.
  • Die Bildaufnahme-/Detektionseinheit 10 ist mit einem Leistungsschalter 11, einem Bildaufnahmemodusschalter 12 und Brustkontaktpads 18a und 18b auf der Rückseite versehen bzw. ausgestattet. Der Leistungsschalter 11 wird verwendet, um EIN/AUS der Leistung bzw. Leistungsversorgung des Kamerakörpers 1 umzuschalten. Obgleich der Leistungsschalter 11 dieses Ausführungsbeispiels eine Schiebehebelbauform aufweist, ist er nicht darauf beschränkt. Zum Beispiel kann der Leistungsschalter 11 ein Schalter einer Druckbauform sein oder ein Schalter sein, der integral mit einer (nicht gezeigten) Schiebeabdeckung der/des Bildaufnahmelinse/-objektivs 16 gebildet ist.
  • Der Bildaufnahmemodusschalter 12 wird verwendet, um einen Bildaufnahmemodus zu ändern, und kann einen Modus bzw. eine Betriebsart bezüglich eines Bildaufnahmevorgangs ändern. Bei diesem Ausführungsbeispiel kann der Bildaufnahmemodusschalter 12 den Bildaufnahmemodus aus einem Stehbildmodus, einem Videobildmodus und einem nachstehend dargelegten voreingestellten Modus auswählen, der unter Verwendung der Anzeigevorrichtung 800 eingestellt wird/ist. Bei diesem Ausführungsbeispiel ist der Bildaufnahmemodusschalter 12 ein Schiebehebelschalter, der eines von „Photo“, „Normal“ und „Pre“, wie in 2C gezeigt, auswählen kann. Der Bildaufnahmemodus wechselt durch Schieben auf „Photo“ in den Stehbildmodus, wechselt durch Schieben auf „Normal“ in den Videobildmodus und wechselt durch Schieben auf „Pre“ in den voreingestellten Modus. Es sollte beachtet werden, dass die Konfiguration des Bildaufnahmemodusschalters 12 nicht auf das Ausführungsbeispiel beschränkt ist, solange der Schalter den Bildaufnahmemodus ändern kann. Zum Beispiel kann der Bildaufnahmemodusschalter 12 aus drei Tasten „Photo“, „Normal“ und „Pre“ bestehen.
  • Die Brustkontaktpads 18a und 18b berühren den Benutzerkörper, wenn die Bildaufnahme-/Detektionseinheit 10 mit Energie versorgt wird. Wie es in 2A gezeigt ist, ist die Bildaufnahme-/Detektionseinheit 10 so ausgebildet, dass beim Tragen des Kamerakörpers 1 eine seitliche (Links-Rechts-) Gesamtlänge länger sein wird als eine vertikale (Oben-Unten-) Gesamtlänge. Die Brustkontaktpads 18a und 18b sind in der Nähe des rechten und des linken Endes der Bildaufnahme-/Detektionseinheit 10 angeordnet. Diese Anordnung verringert eine Dreh- bzw. Rotationsunschärfe in der Links-Rechts-Richtung während des Bildaufnahmevorgangs des Kamerakörpers 1. Außerdem verhindern die Brustkontaktpads 18a und 18b, dass der Leistungsschalter 11 und der Bildaufnahmemodusschalter 12 den Benutzerkörper berühren. Weiterhin verhindern die Brustkontaktpads 18a und 18b eine Wärmeübertragung auf den Benutzerkörper selbst dann, wenn sich die Bildaufnahme-/Detektionseinheit 10 aufgrund eines langen Bildaufnahmevorgangs aufwärmt, und werden sie zur Anpassung des Winkels der Bildaufnahme-/Detektionseinheit 10 verwendet.
  • 2D ist eine Draufsicht, die die Bildaufnahme-/Detektionseinheit 10 zeigt. Wie es in 2D gezeigt ist, ist das Gesichtsrichtungsdetektionsfenster 13 in dem mittleren Teil der oberen Fläche der Bildaufnahme-/Detektionseinheit 10 bereitgestellt, und ragen die Brustkontaktpads 18a und 18b von der Bildaufnahme-/Detektionseinheit 10 heraus.
  • 2E ist eine Ansicht, die eine Konfiguration der Gesichtsrichtungsdetektionseinheit 20 zeigt, die innerhalb der Bildaufnahme-/ Detektionseinheit 10 und unter dem Gesichtsrichtungsdetektionsfenster 13 angeordnet ist. Die Gesichtsrichtungsdetektionseinheit 20 ist mit den Infrarot-LEDs 22 und der Infrarotkondensorlinse 26 versehen bzw. ausgestattet. Die Gesichtsrichtungsdetektionseinheit 20 ist auch mit einer Infrarot-LED-Beleuchtungsschaltung 21 und einer Infrarotdetektionseinrichtung 27 versehen bzw. ausgestattet, die in nachstehend dargelegten 5 gezeigt sind.
  • Die Infrarot-LEDs 22 projizieren Infrarotlicht 23 (5) in Richtung des Benutzers. Die Infrarotkondensorlinse 26 nimmt eine Bildgebung bzw. Abbildung von reflektiertem Licht 25 (5) von dem Benutzer bei Projektion des Infrarotlichts 23 von den Infrarot-LEDs 22 auf einen (nicht gezeigten) Sensor der Infrarotdetektionseinrichtung 27 vor.
  • 2F ist eine Ansicht, die einen Zustand, in dem ein Benutzer den Kamerakörper 1 trägt, aus Sicht der linken Seite des Benutzers zeigt.
  • Eine Winkelanpassungstaste 85L ist in dem Winkelhalteelement 81L bereitgestellt und wird zum Anpassen des Winkels der Bildaufnahme-/Detektionseinheit 10 verwendet. Eine (in 2F nicht gezeigte) Winkelanpassungstaste ist in dem gegenüberliegenden Winkelhalteelement 81R an der symmetrischen Position der Winkelanpassungstaste 85L bereitgestellt. Obgleich die Winkelanpassungstasten in 2A, 2C und 2D eigentlich sichtbar sind, sind sie zur Vereinfachung der Beschreibung weggelassen.
  • Wenn das Winkelhalteelement 81L in 2F nach oben oder nach unten bewegt wird, während die Winkelanpassungstaste 85L gedrückt wird, kann der Benutzer den Winkel zwischen der Bildaufnahme-/Detektionseinheit 10 und dem Winkelhalteelement 81L ändern. Die rechte Seite ist gleich der linken Seite. Außerdem können Vorsprungwinkel der Brustkontaktpads 18a und 18b geändert werden. Die Funktionen dieser zwei Arten von Winkeländerungselementen (der Winkelanpassungstasten und der Brustkontaktpads) können die Bildaufnahme-/ Detektionseinheit 10 so anpassen, dass die optische Achse der/des Bildaufnahmelinse/-objektivs 16 ungeachtet individueller Unterschiede einer Brustpositionsform horizontal gehalten wird.
  • 3A, 3B und 3C sind Ansichten, die Einzelheiten der Batterieeinheit 90 zeigen. 3A ist eine teilweise transparente Rückansicht, die die Batterieeinheit 90 zeigt.
  • Wie es in 3A gezeigt ist, sind die linke Batterie 94L und die rechte Batterie 94R innerhalb der Batterieeinheit 90 symmetrisch eingerichtet, um eine Gewichtsbalance zu halten. Auf diese Art und Weise wird, da die linke und die rechte Batterie 94L und 94R symmetrisch zu dem mittleren Teil der Batterieeinheit 90 angeordnet sind, die Gewichtsbalance in der Links-Rechts-Richtung erreicht und die Positionsverlagerung des Kamerakörpers 1 verhindert. Es sollte beachtet werden, dass die Batterieeinheit 90 eine einzelne Batterie aufnehmen kann.
  • 3B ist eine Draufsicht, die die Batterieeinheit 90 zeigt. Die Batterien 94L und 94R sind auch in 3B als die transparenten Elemente gezeigt. Wie es in 3B gezeigt ist, kann der Benutzer die Batterieeinheit 90, die relativ schwer ist, ohne Belastung tragen, da die Batterien 94L und 94R auf beiden Seiten des Wirbelsäulenschonausschnitts 93 symmetrisch angeordnet sind.
  • 3C ist eine Rückansicht, die die Batterieeinheit 90 zeigt. 3C ist die Ansicht aus Sicht der mit dem Benutzerkörper in Berührung kommenden Seite, d.h. die Ansicht aus Sicht der gegenüberliegenden Seite von 3A. Wie es in 3C gezeigt ist, ist der Wirbelsäulenschonausschnitt 93 in der Mitte entlang der Wirbelsäule des Benutzers bereitgestellt.
  • 4 ist ein Funktionsblockschaltbild, das den Kamerakörper 1 zeigt. Nachstehend wird hierin der durch den Kamerakörper 1 ausgeführte Prozess unter Verwendung von 4 grob beschrieben. Einzelheiten werden nachstehend dargelegt.
  • Wie es in 4 gezeigt ist, ist der Kamerakörper 1 mit der Gesichtsrichtungsdetektionseinheit 20, einer Aufzeichnungsrichtungs-/ Feldwinkelbestimmungseinheit 30, der Bildaufnahmeeinheit 40, einer Bildextraktions-/Entwicklungseinheit 50, einer Primäraufzeichnungseinheit 60, einer Übertragungseinheit 70 und einer zweiten Steuereinheit 111 versehen bzw. ausgestattet. Diese Funktionsblöcke werden durch eine Steuerung einer Gesamtsteuerung-CPU 101 (5), die den gesamten Kamerakörper 1 steuert, erreicht bzw. verwirklicht.
  • Die Gesichtsrichtungsdetektionseinheit 20 (eine Blickrichtungsdetektionseinheit) ist ein Funktionsblock, der durch die vorstehend dargelegten Infrarot-LEDs 22, die Infrarotdetektionseinrichtung 27, usw. ausgeführt bzw. realisiert wird. Die Gesichtsrichtungsdetektionseinheit 20 schätzt eine Blick- bzw. Beobachtungsrichtung durch Detektieren der Gesichtsrichtung und übergibt die Blick- bzw. Beobachtungsrichtung an die Aufzeichnungsrichtungs-/ Feldwinkelbestimmungseinheit 30.
  • Die Aufzeichnungsrichtungs-/Feldwinkelbestimmungseinheit 30 (eine Aufzeichnungsrichtungsbestimmungseinheit) bestimmt Informationen über eine Position und einen Bereich, der aus einem durch die Bildaufnahmeeinheit 40 aufgenommenen Bild extrahiert wird, durch Durchführen von verschiedenen Berechnungen auf Grundlage der durch die Gesichtsrichtungsdetektionseinheit 20 geschätzten Blick- bzw. Beobachtungsrichtung. Und dann werden die Informationen an die Bildextraktions-/Entwicklungseinheit 50 übergeben. Die Bildaufnahmeeinheit 40 wandelt Licht von einem Objekt in ein Weitwinkelbild um und übergibt das Bild an die Bildextraktions-/Entwicklungseinheit 50.
  • Die Bildextraktions-/Entwicklungseinheit 50 extrahiert ein Bild, auf das der Benutzer schaut, aus dem von der Bildaufnahmeeinheit 40 übergebenen Bild durch Verwendung der von der Aufzeichnungsrichtungs-/ Feldwinkelbestimmungseinheit 30 übergebenen Informationen. Dann entwickelt die Bildextraktions-/Entwicklungseinheit 50 das extrahierte Bild und übergibt das entwickelte Bild an die Primäraufzeichnungseinheit 60.
  • Die Primäraufzeichnungseinheit 60 ist ein Funktionsblock, der durch einen Primär- bzw. Hauptspeicher 103 (5), usw. gebildet ist, zeichnet Bildinformationen auf und übergibt die Bildinformationen zu einer erforderlichen Zeit an die Übertragungseinheit 70.
  • Die Übertragungseinheit 70 ist drahtlos mit vorbestimmten Kommunikationsparteien verbunden, wie etwa der Anzeigevorrichtung 800 (1D), einem Kalibrierer 850 und einer vereinfachten Anzeigevorrichtung 900, und kommuniziert mit diesen Parteien.
  • Die Anzeigevorrichtung 800 ist mit der Übertragungseinheit 70 über ein Hochgeschwindigkeit-Drahtlos-LAN (das hierin nachstehend als „Hochgeschwindigkeit-Drahtlosnetzwerk“ bezeichnet wird) verbindbar. Bei diesem Ausführungsbeispiel nutzt das Hochgeschwindigkeit-Drahtlos-Netzwerk eine Drahtloskommunikation entsprechend dem IEEE802.11ax- (WiFi 6-) Standard. Indessen kann eine Drahtloskommunikation entsprechend anderen Standards, wie etwa dem WiFi 4-Standard und dem WiFi 5-Standard, genutzt werden. Außerdem kann die Anzeigevorrichtung 800 eine dedizierte bzw. zweckbestimmte Vorrichtung sein, die für den Kamerakörper 1 entwickelt ist, oder kann sie ein gewöhnliches bzw. allgemeines Smartphone, Tabletendgerät usw. sein.
  • Außerdem kann die Anzeigevorrichtung 800 mit der Übertragungseinheit 70 durch ein Niedrigleistung-Drahtlosnetzwerk verbunden werden, durch sowohl das Hochgeschwindigkeit-Drahtlos-Netzwerk als auch das Niedrigleistung-Drahtlosnetzwerk verbunden werden, oder während/unter Umschaltung der Netzwerke verbunden werden. Bei diesem Ausführungsbeispiel werden Daten einer großen Menge wie etwa eine Bilddatei eines Videobilds, die nachstehend dargelegt wird, über das Hochgeschwindigkeit-Drahtlos-Netzwerk übertragen, und werden Daten einer kleinen Menge und Daten, die keine schnelle Übertragung erfordern, über das Niedrigleistung-Drahtlosnetzwerk übertragen. Obgleich bei diesem Ausführungsbeispiel Bluetooth für das Niedrigleistung-Drahtlosnetzwerk verwendet wird, können andere Kurzstreckendrahtloskommunikationen, wie etwa NFC („Near Field Communication“), genutzt werden.
  • Der Kalibrierer 850 führt eine anfängliche Einstellung und eine individuelle Einstellung des Kamerakörpers 1 durch und ist mit der Übertragungseinheit 70 über das Hochgeschwindigkeit-Drahtlos-Netzwerk in der gleichen Art und Weise wie die Anzeigevorrichtung 800 verbindbar. Einzelheiten des Kalibrierers 850 sind nachstehend dargelegt. Außerdem kann die Anzeigevorrichtung 800 die Funktion des Kalibrierers 850 aufweisen.
  • Die vereinfachte Anzeigevorrichtung 900 ist mit der Übertragungseinheit 70 zum Beispiel nur über das Niedrigleistung-Drahtlosnetzwerk verbindbar. Obgleich die vereinfachte Anzeigevorrichtung 900 aufgrund einer Zeitbeschränkung eine Kommunikation eines Videobilds mit der Übertragungseinheit 70 nicht durchführen kann, kann sie eine Bildaufnahmestart-/-stoppzeit übertragen und für eine Bildüberprüfung auf Kompositions- bzw. Zusammensetzungsüberprüfungsebene verwendet werden. Außerdem kann die vereinfachte Anzeigevorrichtung 900 eine dedizierte bzw. zweckbestimmte Vorrichtung sein, die für den Kamerakörper 1 entwickelt ist, ebenso wie die Anzeigevorrichtung 800, oder kann sie eine Smartwatch, usw. sein.
  • 5 ist ein Blockschaltbild, das eine Hardwarekonfiguration des Kamerakörpers 1 zeigt. Außerdem sind die unter Verwendung von 1A bis 1C beschriebenen Konfigurationen und Funktionen durch die gleichen Bezugszeichen bezeichnet, und ihre ausführlichen Beschreibungen werden ausgelassen.
  • Wie es in 5 gezeigt ist, ist der Kamerakörper 1 mit der Gesamtsteuerung-CPU 101, dem Leistungsschalter 11, dem Bildaufnahmemodusschalter 12, dem Gesichtsrichtungsdetektionsfenster 13, dem Startschalter 14, dem Stoppschalter 15, der/dem Bildaufnahmelinse/-objektiv 16 und der LED 17 versehen bzw. ausgestattet.
  • Der Kamerakörper 1 ist ferner mit der Infrarot-LED-Beleuchtungsschaltung 21, den Infrarot-LEDs 22, der Infrarotkondensorlinse 26 und der Infrarotdetektionseinrichtung 27 versehen bzw. ausgestattet, die die Gesichtsrichtungsdetektionseinheit 20 (4) bilden.
  • Außerdem ist der Kamerakörper 1 mit der Bildaufnahmeeinheit 40 (4), die aus einem Bildaufnahmetreiber 41, einem Festkörperbildsensor 42 und einer Bildsignalverarbeitungsschaltung 43 besteht, und der Übertragungseinheit 70 (4), die aus einer Niedrigleistung-Drahtloskommunikationseinheit 71 und einer Hochgeschwindigkeit-Drahtloskommunikationseinheit 72 besteht, versehen bzw. ausgestattet.
  • Obgleich der Kamerakörper 1 bei diesem Ausführungsbeispiel die einzelne Bildaufnahmeeinheit 40 aufweist, kann er zwei oder mehr Bildaufnahmeeinheiten aufweisen, um ein 3D-Bild aufzunehmen, ein Bild aufzunehmen, dessen Feldwinkel bzw. Bildfeldwinkel weiter als bei einem Bild ist, das durch eine einzelne Bildaufnahmeeinheit erhalten wird, oder Bilder in unterschiedlichen Richtungen aufzunehmen.
  • Der Kamerakörper 1 ist mit verschiedenen Speichern versehen bzw. ausgestattet, wie etwa einem nichtflüchtigen Hochkapazitätsspeicher 51, einem internen nichtflüchtigen Speicher 102, dem Primärspeicher 103, usw.
  • Außerdem ist der Kamerakörper 1 mit einem Audioprozessor 104, einem Lautsprecher 105, einem Vibrator 106, einem Winkelgeschwindigkeitssensor 107, einem Beschleunigungssensor 108 und verschiedenen Schaltern 110 versehen bzw. ausgestattet.
  • Die Schalter wie der Leistungsschalter 11, die vorstehend unter Verwendung von 2C beschrieben sind, sind mit der Gesamtsteuerung-CPU 101 verbunden. Die Gesamtsteuerung-CPU 101 steuert den gesamten Kamerakörper 1. Die Aufzeichnungsrichtungs-/Feldwinkelbestimmungseinheit 30, die Bildextraktions-/ Entwicklungseinheit 50 und die zweite Steuereinheit 111 in 4 werden durch die Gesamtsteuerung-CPU 101 erreicht bzw. verwirklicht.
  • Die Infrarot-LED-Beleuchtungsschaltung 21 steuert ein Be-/Erleuchten der Infrarot-LEDs 22 (2E), um eine Projektion des auf den Benutzer gerichteten Infrarotlichts 23 von den Infrarot-LEDs 22 zu steuern.
  • Das Gesichtsrichtungsdetektionsfenster 13 ist durch ein Sichtbares-Licht-Sperrfilter gebildet, das eine Übertragung von sichtbarem Licht kaum erlaubt und eine Übertragung des Infrarotlichts 23 und dessen reflektierten Lichts 25, die zu einem Infrarotbereich gehören, hinreichend erlaubt. Die Infrarotkondensorlinse 26 kondensiert das reflektierte Licht 25.
  • Die Infrarotdetektionseinrichtung 27 weist einen Sensor auf, der das durch die Infrarotkondensorlinse 26 kondensierte reflektierte Licht 25 detektiert. Der Sensor wandelt ein durch das kondensierte reflektierte Licht 25 ausgebildetes Bild in Sensordaten um und übergibt die Sensordaten an die Gesamtsteuerung-CPU 101.
  • Wie es in 1B gezeigt ist, befindet sich das Gesichtsrichtungsdetektionsfenster 13 unter einem Kiefer des Benutzers, wenn der Benutzer den Kamerakörper 1 trägt. Dementsprechend, wie es in 5 gezeigt ist, durchdringt das von den Infrarot-LEDs 22 projizierte Infrarotlicht 23 das Gesichtsrichtungsdetektionsfenster 13, und bestrahlt es eine Infrarotbestrahlungsfläche 24 nahe des Kiefers des Benutzers. Außerdem durchdringt das reflektierte Licht 25, das von der Infrarotbestrahlungsfläche 24 reflektiert wird, das Gesichtsrichtungsdetektionsfenster 13, und wird es durch die Infrarotkondensorlinse 26 auf den Sensor in der Infrarotdetektionseinrichtung 27 kondensiert.
  • Die verschiedenen Schalter 110 sind in 1A bis 1C nicht gezeigt. Die verschiedenen Schalter 110 werden verwendet, um Funktionen auszuführen, die mit diesem Ausführungsbeispiel nicht in Zusammenhang stehen.
  • Der Bildaufnahmetreiber 41 umfasst einen Zeitgenerator, usw., erzeugt verschiedene Zeitsignale, gibt die Zeitsignale an mit dem Bildaufnahmevorgang in Zusammenhang stehende Abschnitte aus und treibt bzw. steuert den Festkörperbildsensor 24 an.
  • Der Festkörperbildsensor 24 gibt das Signal, das durch photoelektrische Umwandlung des Objektbilds erhalten wird, das durch die/das unter Verwendung von 1A beschriebene Bildaufnahmelinse/-objektiv 16 ausgebildet wird, an die Bildsignalverarbeitungsschaltung 43 aus.
  • Die Bildsignalverarbeitungsschaltung 43 gibt aufgenommene Bilddaten, die durch Anwendung eines Klemm- bzw. Halteprozesses und eines A/D-Wandlungsprozesses, usw. auf das Signal von dem Festkörperbildsensor 42 erzeugt werden, an die Gesamtsteuerung-CPU 101 aus.
  • Der interne nichtflüchtige Speicher 102 ist durch einen Flashspeicher, usw. gebildet und speichert ein Bootprogramm der Gesamtsteuerung-CPU 101 und Einstellwerte von verschiedenen Programmmodi. Bei diesem Ausführungsbeispiel sind ein Einstellwert eines Blick- bzw. Beobachtungssehfelds (Feldwinkels) und ein Einstellwert eines Wirkungsgrads bzw. -niveaus eines Bildstabilisierungsprozesses aufgezeichnet.
  • Der Primärspeicher 103 ist durch einen RAM, usw. gebildet und speichert vorübergehend Verarbeitungsbilddaten und ein Rechenergebnis der Gesamtsteuerung-CPU 101.
  • Der nichtflüchtige Hochkapazitätsspeicher 51 speichert Bilddaten. Bei diesem Ausführungsbeispiel ist der nichtflüchtige Hochkapazitätsspeicher 51 ein Halbleiterspeicher, der nicht lös- bzw. entfernbar ist. Der nichtflüchtige Hochkapazitätsspeicher 51 kann durch ein lös- bzw. entfernbares Speichermedium wie etwa eine SD-Karte gebildet sein und kann zusammen mit dem internen nichtflüchtigen Speicher 102 verwendet werden.
  • Die Niedrigleistung-Drahtloskommunikationseinheit 71 tauscht Daten mit der Anzeigevorrichtung 800, dem Kalibrierer 850 und der vereinfachten Anzeigevorrichtung 900 über das Niedrigleistung-Drahtlosnetzwerk aus. Die Hochgeschwindigkeit-Drahtloskommunikationseinheit 72 tauscht Daten mit der Anzeigevorrichtung 800 und dem Kalibrierer 850 über das Hochgeschwindigkeit-Drahtlosnetzwerk aus.
  • Der Audioprozessor 104 verarbeitet durch die Mikrophone 19L und 19R aufgefangenen Außenschall (analoge Signale) und erzeugt ein Audiosignal.
  • Um den Benutzer über einen Zustand des Kamerakörpers 1 zu benachrichtigen und den Benutzer zu warnen, strahlt die LED 17 Licht aus, gibt der Lautsprecher 105 Schall aus, und vibriert der Vibrator 106.
  • Der Winkelgeschwindigkeitssensor 107 verwendet einen Kreisel, usw. und detektiert eine Bewegung des Kamerakörpers 1 selbst als Gyrodaten. Der Beschleunigungssensor 108 detektiert die Lage, Stellung bzw. Haltung der Bildaufnahme-/Detektionseinheit 10.
  • 6 ist ein Blockschaltbild, das eine Hardwarekonfiguration der Anzeigevorrichtung 800 zeigt. Die Komponenten, die unter Verwendung von 1D beschrieben wurden, sind durch die gleichen Bezugszeichen bezeichnet, und deren Beschreibungen werden zur Vereinfachung der Beschreibung ausgelassen.
  • Wie es in 6 gezeigt ist, ist die Anzeigevorrichtung 800 mit einer Anzeigevorrichtung-Steuereinheit 801, der A-Taste 902, der Anzeigeeinheit 803, der B-Taste 804, dem Gesichtssensor 806, dem Winkelgeschwindigkeitssensor 807, dem Beschleunigungssensor 808, einer Bildsignalverarbeitungsschaltung 809 und verschiedenen Schaltern 811 versehen bzw. ausgestattet.
  • Außerdem ist die Anzeigevorrichtung 800 mit einem internen nichtflüchtigen Speicher 812, einem Primär- bzw. Hauptspeicher 813, einem nichtflüchtigen Hochkapazitätsspeicher 814, einem Lautsprecher 815, einem Vibrator 816, einer LED 817, einem Audioprozessor 820, einer Niedrigleistung-Drahtloskommunikationseinheit 871 und einer Hochgeschwindigkeit-Drahtloskommunikationseinheit 872 versehen bzw. ausgestattet. Die vorstehend dargelegten Komponenten sind mit der Anzeigevorrichtung-Steuereinheit 801 verbunden. Die Anzeigevorrichtung-Steuereinheit 801 ist durch eine CPU gebildet und steuert die Anzeigevorrichtung 800.
  • Die Bildsignalverarbeitungsschaltung 809 übt äquivalente Funktionen zu dem Bildaufnahmetreiber 41, dem Festkörperbildsensor 42 und der Bildsignalverarbeitungsschaltung 43 in dem Kamerakörper 1 aus. Die Bildsignalverarbeitungsschaltung 809 bildet die Innen- bzw. Einbaukamera 805 in 1D zusammen mit einer/einem Innen-/Einbaukamera-Linse/Objektiv 805a. Die Anzeigevorrichtung-Steuereinheit 801 verarbeitet die von der Bildsignalverarbeitungsschaltung 809 ausgegebenen Daten. Der Inhalt der Verarbeitung der Daten wird nachstehend dargelegt.
  • Die verschiedenen Schalter 811 werden verwendet, um Funktionen auszuführen, die mit diesem Ausführungsbeispiel nicht in Zusammenhang stehen. Der Winkelgeschwindigkeitssensor 807 verwendet einen Kreisel, usw. und detektiert eine Bewegung der Anzeigevorrichtung 800.
  • Der Beschleunigungssensor 800 detektiert eine Lage, Stellung bzw. Haltung der Anzeigevorrichtung 800 selbst. Der Winkelgeschwindigkeitssensor 807 und der Beschleunigungssensor 808 sind in der Anzeigevorrichtung 800 eingebaut und weisen jeweils die Funktionen auf, die zu denjenigen des vorstehend dargelegten Winkelgeschwindigkeitssensors 107 und Beschleunigungssensors 108 des Kamerakörpers 1 äquivalent sind.
  • Der nichtflüchtige interne Speicher 812 ist durch einen Flashspeicher, usw. gebildet und speichert ein Bootprogramm der Anzeigevorrichtung-Steuereinheit 801 und Einstellwerte von verschiedenen Programmmodi.
  • Der Primärspeicher 813 ist durch einen RAM, usw. gebildet, und speichert vorübergehend Verarbeitungsbilddaten und ein Rechenergebnis der Bildsignalverarbeitungsschaltung 809. Bei diesem Ausführungsbeispiel werden, wenn ein Videosignal aufgezeichnet wird, Gyrodaten, die mit dem Winkelgeschwindigkeitssensor 107 zu einer Aufnahmezeit von jedem Rahmen detektiert werden, in dem Primärspeicher 813 in Zusammenhang mit dem Rahmen gespeichert.
  • Der nichtflüchtige Hochkapazitätsspeicher 814 speichert Bilddaten der Anzeigevorrichtung 800. Bei diesem Ausführungsbeispiel ist der nichtflüchtige Hochkapazitätsspeicher 814 durch einen lös- bzw. entfernbaren Speicher wie etwa eine SD-Karte gebildet. Es sollte beachtet werden, dass der nichtflüchtige Hochkapazitätsspeicher 814 durch einen festen Speicher, wie bei dem nichtflüchtigen Hochkapazitätsspeicher 51 in dem Kamerakörper 1, gebildet sein kann.
  • Um den Benutzer über einen Zustand der Anzeigevorrichtung 800 zu benachrichtigen und den Benutzer zu warnen, gibt der Lautsprecher 815 Schall aus, vibriert der Vibrator 816, und strahlt die LED 817 Licht aus.
  • Der Audioprozessor 820 verarbeitet durch das linke Mikrophon 819L und das rechte Mikrophon 819R eingefangenen Außenschall (analoge Signale) und erzeugt ein Audiosignal.
  • Die Niedrigleistung-Drahtloskommunikationseinheit 871 tauscht Daten mit dem Kamerakörper 1 über das Niedrigleistung-Drahtlosnetzwerk aus. Die Hochgeschwindigkeit-Drahtloskommunikationseinheit 872 tauscht Daten mit dem Kamerakörper 1 über das Hochgeschwindigkeit-Drahtlosnetzwerk aus.
  • Der Gesichtssensor 806 ist mit einer Infrarot-LED-Beleuchtungsschaltung 821 und Infrarot-LEDs 822, einer Infrarotkondensorlinse 826 und einer Infrarotdetektionseinrichtung 827 versehen bzw. ausgestattet.
  • Die Infrarot-LED-Beleuchtungsschaltung 821 weist die Funktion auf, die zu derjenigen der Infrarot-LED-Beleuchtungsschaltung 21 in 5 äquivalent ist, und steuert ein Be-/Erleuchten der Infrarot-LEDs 822, um eine Projektion des auf den Benutzer gerichteten Infrarotlichts 823 von den Infrarot-LEDs 822 zu steuern. Die Infrarotkondensorlinse 826 kondensiert das reflektierte Licht 825 des Infrarotlichts 823.
  • Die Infrarotdetektionseinrichtung 827 weist einen Sensor auf, der das durch die Infrarotkondensorlinse 826 kondensierte reflektierte Licht 825 detektiert. Der Sensor wandelt das kondensierte reflektierte Licht 125 in Sensordaten um und übergibt die Sensordaten an die Anzeigevorrichtung-Steuereinheit 801.
  • Wenn der in 1D gezeigte Gesichtssensor 806 auf den Benutzer gerichtet ist, wird eine Infrarotbestrahlungsfläche 824, die das gesamte Gesicht des Benutzers ist, mit von den Infrarot-LEDs 822 projiziertem Infrarotlicht 823 bestrahlt, wie es in 6 gezeigt ist. Außerdem wird das reflektierte Licht 825, das von der Infrarotbestrahlungsfläche 824 reflektiert wird, durch die Infrarotkondensorlinse 826 auf den Sensor in der Infrarotdetektionseinrichtung 827 kondensiert.
  • Weitere Funktionen 830 sind Funktionen eines Smartphones, wie etwa eine Telefonfunktion, die mit dem Ausführungsbeispiel nicht in Zusammenhang stehen.
  • Nachstehend wird hierin beschrieben, wie der Kamerakörper 1 und die Anzeigevorrichtung 800 zu verwenden sind. 7A ist ein Ablaufdiagramm, das einen Bildaufnahme-/Aufzeichnungsprozess gemäß dem ersten Ausführungsbeispiel, der durch den Kamerakörper 1 und die Anzeigevorrichtung 800 ausgeführt wird, schematisch zeigt.
  • Um die Beschreibung zu unterstützen, ist ein Bezugszeichen, das in 4 und 5 von einer Einheit gezeigt ist, die einen Prozess in jedem Schritt ausführt, auf einer rechten Seite von jedem Schritt in 7A gezeigt. Das heißt, dass Schritte S100 bis S700 in 7A durch den Kamerakörper 1 ausgeführt werden, und Schritte S800 bis S1000 in 7A durch die Anzeigevorrichtung 800 ausgeführt werden.
  • Wenn der Leistungsschalter 11 auf EIN gesetzt wird und eine Leistung bzw. Leistungsversorgung des Kamerakörpers 1 auf EIN schaltet, wird die Gesamtsteuerung-CPU 101 aktiviert, und liest sie das Bootprogramm aus dem internen nichtflüchtigen Speicher 102. Danach führt die Gesamtsteuerung-CPU 101 in dem Schritt S100 einen Vorbereitungsprozess aus, der eine Einstellung des Kamerakörpers 1 vor einem Bildaufnahmevorgang durchführt. Einzelheiten des Vorbereitungsprozesses werden nachstehend unter Verwendung von 7B dargelegt.
  • In einem Schritt S200 wird der Gesichtsrichtungsdetektionsprozess ausgeführt, der eine Blick- bzw. Beobachtungsrichtung basierend auf einer durch die Gesichtsrichtungsdetektionseinheit 20 detektierten Gesichtsrichtung schätzt. Einzelheiten des Gesichtsrichtungsdetektionsprozesses werden nachstehend unter Verwendung von 7C dargelegt. Dieser Prozess wird mit einer vorbestimmten Rahmenrate bzw. Bildrate/-frequenz ausgeführt. In einem Schritt S300 führt die Aufzeichnungsrichtungs-/Feldwinkelbestimmungseinheit 30 einen Aufzeichnungsrichtungs-/-bereichsbestimmungsprozess durch. Einzelheiten des Aufzeichnungsrichtungs-/-bereichsbestimmungsprozesses werden nachstehend unter Verwendung von 7D dargelegt.
  • In einem Schritt S400 nimmt die Bildaufnahmeeinheit 40 ein Bild auf, und erzeugt sie Aufnahmebilddaten. In einem Schritt S500 extrahiert die Bildextraktions-/Entwicklungseinheit 50 ein Bild aus den in dem Schritt S400 erzeugten Aufnahmebilddaten gemäß in dem Schritt S300 bestimmten Aufzeichnungsrichtungs-/Feldwinkelinformationen, und führt sie einen Aufzeichnungsbereichsentwicklungsprozess durch, der den extrahierten Bereich entwickelt. Einzelheiten des Aufzeichnungsbereichsentwicklungsprozesses werden nachstehend unter Verwendung von 7E dargelegt.
  • In einem Schritt S600 führt die Primäraufzeichnungseinheit (eine Bildaufzeichnungseinheit) 60 einen Primäraufzeichnungsprozess aus, der das in dem Schritt S500 entwickelte Bild als Bilddaten in den Primärspeicher 103 speichert. Einzelheiten des Primäraufzeichnungsprozesses werden nachstehend unter Verwendung von 14 dargelegt.
  • In dem Schritt S700 führt die Übertragungseinheit 70 einen Übertragungsprozess an die Anzeigevorrichtung 800 aus, der das in dem Schritt S600 primär gespeicherte Bild zu einer designierten Zeit drahtlos an die Anzeigevorrichtung 800 überträgt. Einzelheiten des Übertragungsprozesses an die Anzeigevorrichtung 800 werden nachstehend unter Verwendung von 16 dargelegt.
  • Die Schritte ausgehend von dem Schritt S800 werden durch die Anzeigevorrichtung 800 ausgeführt. In dem Schritt S800 führt die Anzeigevorrichtung-Steuereinheit 801 einen optischen Korrekturprozess aus, der eine optische Aberration des in dem Schritt S700 von dem Kamerakörper 1 übertragenen Bilds korrigiert. Einzelheiten des optischen Korrekturprozesses werden nachstehend unter Verwendung von 17 dargelegt.
  • In einem Schritt S900 wendet die Anzeigevorrichtung-Steuereinheit 801 den Bildstabilisierungsprozess auf das Bild an, dessen optische Aberration in dem Schritt S800 korrigiert wurde. Einzelheiten des Bildstabilisierungsprozesses werden nachstehend unter Verwendung von 19 dargelegt. Es sollte beachtet werden, dass die Reihenfolge des Schritts S800 und des Schritts S900 umgedreht sein kann. Das heißt, dass der Bildstabilisierungsprozess vorab ausgeführt werden kann und der optische Korrekturprozess danach ausgeführt werden kann.
  • Die Anzeigevorrichtung-Steuereinheit 801 führt in dem Schritt S1000 einen Sekundäraufzeichnungsprozess aus, der das Bild, auf das der optische Korrekturprozess in dem Schritt S800 und der Bildstabilisierungsprozess in dem Schritt S900 angewandt wurde, in dem nichtflüchtigen Hochkapazitätsspeicher 814 aufzeichnet, und beendet dann diesen Prozess.
  • Als Nächstes werden die Unterroutinen in den jeweiligen Schritten in 7A unter Verwendung von 7B bis 7F und anderen Zeichnungen in der Reihenfolge der Prozesse ausführlich beschrieben. 7B ist ein Ablaufdiagramm, das die Unterroutine des Vorbereitungsprozesses in dem Schritt S100 in 7A zeigt. Nachstehend wird hierin dieser Prozess unter Verwendung der Komponenten beschrieben, die in 2A bis 2F und 5 gezeigt sind.
  • In einem Schritt S101 wird bestimmt, ob der Leistungsschalter 11 EIN ist. Der Prozess wartet, wenn die Leistung bzw. Leistungsversorgung AUS ist. Wenn die Leistung bzw. Leistungsversorgung EIN wird, schreitet der Prozess zu einem Schritt S102 voran.
  • In dem Schritt S102 wird der durch den Bildaufnahmemodusschalter 12 ausgewählte Modus bestimmt. Wenn als Ergebnis der Bestimmung der durch den Bildaufnahmemodusschalter 12 ausgewählte Modus der Videobildmodus ist, schreitet der Prozess zu einem Schritt S103 voran.
  • In dem Schritt S103 werden verschiedene Einstellwerte des Videobildmodus aus dem internen nichtflüchtigen Speicher 102 gelesen und in den Primärspeicher 103 gespeichert. Dann schreitet der Prozess zu einem Schritt S104 voran. Die verschiedenen Einstellwerte des Videobildmodus umfassen einen Feldwinkel-Einstellwert Vang und einen Bildstabilisierungsgrad. Der Feldwinkel-Einstellwert Vang ist bei diesem Ausführungsbeispiel auf 90° voreingestellt. Der Bildstabilisierungsgrad wird unter „Stark“, „Mittel“ und „AUS“ ausgewählt. In dem Schritt S104 wird ein Betrieb des Bildaufnahmetreibers 41 für den Videobildmodus gestartet. Und dann verlässt der Prozess diese Unterroutine.
  • Wenn als Ergebnis der Bestimmung in dem Schritt S102 der durch den Bildaufnahmemodusschalter 12 ausgewählte Modus der Stehbildmodus ist, schreitet der Prozess zu einem Schritt S106 voran. In dem Schritt S106 werden verschiedene Einstellwerte des Stehbildmodus aus dem nichtflüchtigen internen Speicher 102 gelesen und in den Primärspeicher 103 gespeichert. Dann schreitet der Prozess zu einem Schritt S107 voran. Die verschiedenen Einstellwerte des Stehbildmodus umfassen den Feldwinkel-Einstellwert Vang und den Bildstabilisierungsgrad. Der Feldwinkel-Einstellwert Vang ist bei diesem Ausführungsbeispiel auf 45° voreingestellt. Der Bildstabilisierungsgrad wird unter „Stark“, „Mittel“ und „AUS“ ausgewählt. In dem Schritt S107 wird ein Betrieb des Bildaufnahmetreibers 41 für den Stehbildmodus gestartet. Und dann verlässt der Prozess diese Unterroutine.
  • Wenn als Ergebnis der Bestimmung in Schritt S102 der durch den Bildaufnahmemodusschalter 12 ausgewählte Modus der voreingestellte Modus ist, schreitet der Prozess zu einem Schritt S108 voran. Der voreingestellte Modus ist einer von den drei Bildaufnahmemodi, die durch den Bildaufnahmemodusschalter 12 geändert werden können. In dem voreingestellten Modus kann der Bildaufnahmemodus des Kamerakörpers 1 durch eine externe Vorrichtung wie die Anzeigevorrichtung 800 geändert werden. Das heißt, dass der voreingestellte Modus ein Modus für einen benutzerdefinierten bzw. spezifischen Bildaufnahmevorgang ist. Da der Kamerakörper 1 eine kompakte tragbare Vorrichtung ist, sind Bedienschalter, ein Einstellbildschirm, usw. zum Ändern von erweiterten bzw. fortgeschrittenen Einstellwerten an dem Kamerakörper 1 nicht installiert. Die erweiterten bzw. fortgeschrittenen Einstellwerte werden durch eine externe Vorrichtung wie die Anzeigevorrichtung 800 geändert.
  • Zum Beispiel wird ein Fall betrachtet, in dem der Benutzer ein Videobild mit dem Feldwinkel 90° und dem Feldwinkel 110° durchgehend aufnehmen möchte. In einem solchen Fall sind die folgenden Bedienvorgänge erforderlich. Da der Feldwinkel in einem regulären Videobildmodus auf 90° eingestellt ist, führt der Benutzer zunächst den Videobildaufnahmevorgang in dem regulären Videobildmodus durch, beendet er den Videobildaufnahmevorgang einmal, zeigt er den Einstellbildschirm auf der Anzeigevorrichtung 800 an, und ändert er auf dem Einstellbildschirm den Feldwinkel auf 110°. Die Bedienvorgänge an der Anzeigevorrichtung 800 während eines bestimmten Ereignisses sind jedoch mühsam.
  • Indessen kann, wenn der voreingestellte Modus auf einen Videobildaufnahmevorgang mit dem Feldwinkel 110° voreingestellt ist, der Benutzer den Feldwinkel in dem Videobildaufnahmevorgang unmittelbar auf 110° ändern, indem er nur den Bildaufnahmemodusschalter 12 auf „Pre“ schiebt, nachdem der Videobildaufnahmevorgang mit dem Feldwinkel 90° beendet ist. Das heißt, dass es für den Benutzer nicht erforderlich ist, den aktuellen Betrieb auszusetzen und die vorgenannten mühsamen Bedienungen vorzunehmen.
  • Es sollte beachtet werden, dass Inhalte des voreingestellten Modus den Bildstabilisierungsgrad, der unter „Stark“, „Mittel“ und „AUS“ ausgewählt wird, und einen Einstellwert einer Spracherkennung, die bei diesem Ausführungsbeispiel nicht beschrieben ist, zusätzlich zu dem Feldwinkel umfassen können.
  • In dem Schritt S108 werden verschiedene Einstellwerte des voreingestellten Modus aus dem internen nichtflüchtigen Speicher 102 gelesen und in den Primärspeicher 103 gespeichert. Dann schreitet der Prozess zu einem Schritt S109 voran. Die verschiedenen Einstellwerte des voreingestellten Modus umfassen den Feldwinkel-Einstellwert Vang und den Bildstabilisierungsgrad, der unter „Stark“, „Mittel“ und „AUS“ ausgewählt wird.
  • In dem Schritt S109 wird ein Betrieb des Bildaufnahmetreibers 41 für den voreingestellten Modus gestartet. Und dann verlässt der Prozess diese Unterroutine.
  • Nachstehend werden hierin die verschiedenen Einstellwerte des Videobildmodus, die in dem Schritt S103 gelesen werden, unter Verwendung von 13 beschrieben. 13 ist eine Ansicht, die einen Menübildschirm zum Einstellen der verschiedenen Einstellwerte des Videobildmodus zeigt, der auf der Anzeigeeinheit 803 der Anzeigevorrichtung 800 vor einem Bildaufnahmevorgang des Kamerakörpers 1 angezeigt wird. Die Komponenten, die unter Verwendung von 1D beschrieben wurden, sind durch die gleichen Bezugszeichen bezeichnet, und deren Beschreibungen werden ausgelassen. Die Anzeigeeinheit 803 weist eine Berührfeldfunktion auf und wird unter der Annahme beschrieben, dass sie durch Berührungsbedienungen wie etwa eine Wischbedienung funktioniert.
  • Wie es in 13 gezeigt ist, umfasst der Menübildschirm einen Vorschaubildschirm 831, einen Zoomschieber 832, eine Aufzeichnungsstart-/ -stopptaste 833, einen Schalter 834, einen Batteriestandsindikator 835, eine Taste 836, einen Schieber 837 und einen Symbolanzeigebereich 838. Der Benutzer kann das durch den Kamerakörper 1 aufgenommene Bild, einen Zoombetrag und einen Feldwinkel auf dem Vorschaubildschirm 831 überprüfen.
  • Der Benutzer kann eine Zoomeinstellung (einen Feldwinkel) durch Verschieben des Zoomschiebers 832 nach rechts oder links ändern. Dieses Ausführungsbeispiel beschreibt einen Fall, in dem der Feldwinkel-Einstellwert Vang unter 45°, 90°, 110° und 130° ausgewählt werden kann. Indessen kann der Feldwinkel-Einstellwert Vang durch Bedienung des Zoomschiebers 832 auf einen anderen Wert als die vier Werte eingestellt werden.
  • Die Aufzeichnungsstart-/-stopptaste 833 ist ein Um- bzw. Wechselschalter, der beide Funktionen des Startschalters 14 und des Stoppschalters 15 aufweist. Der Schalter 834 wird verwendet, um „AUS“ und „EIN“ des Bildstabilisierungsprozesses umzuschalten. Der Batteriestandsindikator 835 zeigt einen Batteriestand bzw. -pegel des Kamerakörpers 1 an. Die Taste 836 wird verwendet, um einen Modus zu ändern.
  • Der Schieber 837 wird verwendet, um den Bildstabilisierungsgrad einzustellen. Obgleich der Bildstabilisierungsgrad bei diesem Ausführungsbeispiel auf „Stark“ oder „Mittel“ eingestellt werden kann, kann ein anderer Bildstabilisierungsgrad, zum Beispiel „Schwach“, eingestellt werden. Außerdem kann der Bildstabilisierungsgrad stufenlos eingestellt werden. In dem Symbolanzeigebereich 838 werden eine Vielzahl von Miniaturbildsymbolen zur Vorschau angezeigt.
  • 7C ist ein Ablaufdiagramm, das eine Unterroutine des Gesichtsrichtungsdetektionsprozesses in dem Schritt S200 in 7A zeigt. Bevor die Einzelheiten dieses Prozesses beschrieben werden, wird ein Gesichtsrichtungsdetektionsverfahren unter Verwendung von Infrarotlicht unter Verwendung von 8A bis 8K beschrieben.
  • 8A ist eine Darstellung, die ein Sichtbares-Licht-Bild eines Gesichts eines Benutzers zeigt, das von der Position des Gesichtsrichtungsdetektionsfensters 13 aus betrachtet wird. Das Bild in 8A ist identisch zu einem Bild, das durch einen Sichtbares-Licht-Bildsensor aufgenommen wird, unter der Annahme, dass das Gesichtsrichtungsdetektionsfenster 13 ein Übertragen bzw. Durchlassen von sichtbarem Licht erlaubt und der Sichtbares-Licht-Bildsensor als ein Sensor der Infrarotdetektionseinrichtung 27 installiert ist.
  • Das Bild in 8A umfasst einen Halsvorderteil 203 über Schlüsselbeinen des Benutzers, einen Ursprung bzw. Grund 202 eines Kiefers, ein Kinn 203 und ein Gesicht 204 mit einer Nase. 8B ist eine Darstellung, die einen Fall zeigt, in dem Leuchtstofflampen 205 in einem Raum in dem Sichtbares-Licht-Bild des Benutzers, das in 8A gezeigt ist, als Hintergrund erscheinen.
  • Die Leuchtstofflampen 205 rund um den Benutzer erscheinen in dem Sichtbares-Licht-Bild in 8B. Da verschiedene Hintergründe in einem Benutzerbild gemäß einer Anwendungsbedingung erscheinen, wird es in dieser Weise schwierig, dass die Gesichtsrichtungsdetektionseinheit 20 oder die Gesamtsteuerung-CPU 101 ein Gesichtsbild aus einem Sichtbares-Licht-Bild ausschneidet. Indessen ist, obwohl es eine Technik gibt, die ein solches Bild durch Verwendung einer KI, usw. ausschneidet, die Technik für den Kamerakörper 1 als eine tragbare Vorrichtung nicht geeignet, da es erforderlich wäre, dass die Gesamtsteuerung-CPU 101 eine hohe Leistungsfähigkeit aufweist.
  • Dementsprechend detektiert der Kamerakörper 1 des ersten Ausführungsbeispiels ein Benutzergesicht unter Verwendung eines Infrarotbilds. Da das Gesichtsrichtungsdetektionsfenster 13 durch ein Sichtbares-Licht-Sperrfilter gebildet ist, wird sichtbares Licht größtenteils nicht übertragen bzw. durchgelassen. Dementsprechend ist ein Bild, das durch die Infrarotdetektionseinrichtung 27 erhalten wird, verschieden von den Bildern in 8A und 8B.
  • 8C ist eine Darstellung, die ein Infrarotbild zeigt, das erhalten wird durch Bildgebung bzw. Abbildung von dem Benutzer und den Leuchtstofflampen als der in 8B gezeigte Hintergrund auf den Sensor der Infrarotdetektionseinrichtung 27 durch das Gesichtsrichtungsdetektionsfenster 13 in einem Zustand, in dem die Infrarot-LEDs 22 nicht be-/erleuchtet sind.
  • In dem Infrarotbild in 8C sind der Hals und der Kiefer des Benutzers dunkel. Indessen sind, da die Leuchtstofflampen 205 zusätzlich zu dem sichtbaren Licht eine Infrarotkomponente ausstrahlen, diese leicht hell.
  • 8D ist eine Darstellung, die ein Bild zeigt, das erhalten wird durch Bildgebung bzw. Abbildung von dem Benutzer und den Leuchtstofflampen als der in 8D gezeigte Hintergrund auf den Sensor der Infrarotdetektionseinrichtung 27 durch das Gesichtsrichtungsdetektionsfenster 13 in einem Zustand, in dem die Infrarot-LEDs be-/erleuchtet sind.
  • In dem Bild in 8D sind der Hals und der Kiefer des Benutzers hell. Indessen hat sich, anders als in 8C, die Helligkeit rund um die Leuchtstofflampe 205 nicht geändert.
  • 8E ist eine Darstellung, die ein Differenzbild zeigt, das durch Subtraktion des Bilds in 8C von dem Bild in 8D berechnet wird. Das Gesicht des Benutzers kommt zum Vorschein.
  • Auf diese Art und Weise erhält die Gesamtsteuerung-CPU 101 das Differenzbild (das hierin nachstehend auch als Gesichtsbild bezeichnet wird) durch Berechnung der Differenz zwischen dem Bild, das auf dem Sensor der Infrarotdetektionseinrichtung 27 in dem Zustand ausgebildet wird, in dem die Infrarot-LEDs 22 erleuchtet sind, und dem Bild, das auf dem Sensor in dem Zustand ausgebildet wird, in dem die Infrarot-LEDs 22 nicht erleuchtet sind.
  • Die Gesichtsrichtungsdetektionseinheit 20 dieses Ausführungsbeispiels setzt ein Verfahren ein, das ein Gesichtsbild durch Extraktion einer Infrarotreflexionsstärke als ein zweidimensionales Bild durch die Infrarotdetektionseinrichtung 27 erhält. Der Sensor der Infrarotdetektionseinrichtung 27 nutzt eine Konfiguration ähnlich einem gewöhnlichen Bildsensor und erhält ein Gesichtsbild rahmenweise. Ein (hierin nachstehend als V-Signal bezeichnetes) vertikales Synchronisationssignal, das eine Rahmensynchronisation erhält, wird durch die Infrarotdetektionseinrichtung 27 erzeugt und an die Gesamtsteuerung-CPU 101 ausgegeben.
  • 9 ist ein Zeitdiagramm, das Zeiten von einem Erleuchten und Erlöschen der Infrarot-LEDs 22 und zugehörigen Signale zeigt.
  • Ein von der Infrarotdetektionseinrichtung 27 ausgegebenes V-Signal, eine H-Position des von dem Sensor der Infrarotdetektionseinrichtung 27 ausgegebenen Bildsignals, ein von der Gesamtsteuerung-CPU 101 an die Infrarot-LED-Beleuchtungsschaltung 21 ausgegebenes IR-EIN-Signal und von dem Sensor der Infrarotdetektionseinrichtung 27 an die Gesamtsteuerung-CPU 101 ausgegebene Aufnahmebilddaten sind ausgehend von oben in dieser Reihenfolge in 9 gezeigt. Die horizontalen Zeitachsen dieser vier Signale sind identisch. Wenn das V-Signal Hoch wird, werden Zeiten der Rahmensynchronisation und Zeiten eines Erleuchtens und Erlöschens der Infrarot-LEDs 22 erhalten.
  • 9 zeigt eine erste Gesichtsbilderhaltungsperiode t1 und eine zweite Gesichtsbilderhaltungsperiode t2.
  • Die Infrarotdetektionseinrichtung 27 steuert den Betrieb des Sensors, so dass die H-Position des Bildsignals mit dem V-Signal synchron sein wird, wie es in 9 gezeigt ist. Da der Sensor der Infrarotdetektionseinrichtung 27 die Konfiguration ähnlich einem gewöhnlichen Bildsensor nutzt, wie es vorstehend dargelegt ist, und dessen Betrieb wohl bekannt ist, wird eine ausführliche Beschreibung des Steuerverfahrens ausgelassen.
  • Die Gesamtsteuerung-CPU 101 steuert ein Umschalten des IR-EIN-Signals zwischen Hoch und Niedrig in Synchronisation mit dem V-Signal. Im Speziellen gibt die Gesamtsteuerung-CPU 101 das IR-EIN-Signal auf Niedrig an die Infrarot-LED-Beleuchtungsschaltung 21 während der ersten Periode t1 aus, und gibt sie das IR-EIN-Signal auf Hoch an die Infrarot-LED-Beleuchtungsschaltung 21 während der zweiten Periode t2 aus.
  • Die Infrarot-LED-Beleuchtungsschaltung 21 er-/beleuchtet die Infrarot-LEDs 22, um das Infrarotlicht 23 auf den Benutzer zu projizieren, während der Hoch-Periode des IR-EIN-Signals. Indessen löscht die Infrarot-LED-Beleuchtungsschaltung 21 die Infrarot-LEDs 22 während der Niedrig-Periode des IR-EIN-Signals.
  • Eine vertikale Achse der Aufnahmebilddaten bezeichnet eine Signalstärke, die eine Lichtempfangsmenge des reflektierten Lichts 25 ist. Da die Infrarot-LEDs 22 während der ersten Periode t1 erlöscht sind, kommt kein reflektiertes Licht von dem Gesicht des Benutzers, und werden Aufnahmebilddaten erhalten, wie sie in 8C gezeigt sind. Indessen kommt, da die Infrarot-LEDs 22 in der zweiten Periode t2 er-/beleuchtet sind, das reflektierte Licht 25 von dem Gesicht des Benutzers, und werden Aufnahmebilddaten erhalten, wie sie in 8D gezeigt sind. Dementsprechend nimmt die Signalstärke in der Periode t2 ausgehend von der Signalstärke in der Periode t1 durch/um das reflektierte Licht 25 von dem Gesicht des Benutzers zu.
  • Ein in 9 unten angegebenes Gesichtsbild wird erhalten, indem die Aufnahmebilddaten während der ersten Periode t1 von den Aufnahmebilddaten während der zweiten Periode t2 subtrahiert werden. Als Folge der Subtraktion werden Gesichtsbilddaten erhalten, in denen nur die Komponente des reflektierten Lichts 25 von dem Gesicht des Benutzers extrahiert ist.
  • 7C zeigt den Gesichtsrichtungsdetektionsprozess in dem Schritt S200, der die unter Verwendung von 8C bis 8E und 9 beschriebenen Betriebsvorgänge umfasst.
  • In einem Schritt S201 wird eine Zeit V1 erhalten, zu der die erste Periode t1 startet, wenn das von der Infrarotdetektionseinrichtung 27 ausgegebene V-Signal Hoch wird. Wenn die Zeit V1 erhalten wird/ist, schreitet der Prozess zu einem Schritt S202 voran.
  • In einem Schritt S202 wird das IR-EIN-Signal auf Niedrig gesetzt und an die Infrarot-LED-Beleuchtungsschaltung 21 ausgegeben. Dadurch werden die Infrarot-LEDs 22 erlöscht.
  • In einem Schritt S203 wird ein Rahmen von Aufnahmebilddaten gelesen, die von der Infrarotdetektionseinrichtung 27 während der ersten Periode t1 ausgegeben werden. Die Bilddaten werden vorübergehend in den Primärspeicher 103 als Rahmen1 gespeichert.
  • In einem Schritt S204 wird eine Zeit V2 erhalten, zu der die zweite Periode t2 startet, wenn das von der Infrarotdetektionseinrichtung 27 ausgegebene V-Signal Hoch wird. Wenn die Zeit V2 erhalten wird/ist, schreitet der Prozess zu einem Schritt S205 voran.
  • In dem Schritt S205 wird das IR-EIN-Signal auf Hoch gesetzt und an die Infrarot-LED-Beleuchtungsschaltung 21 ausgegeben. Dadurch werden die Infrarot-LEDs 22 er-/beleuchtet.
  • In einem Schritt S206 wird ein Rahmen von Aufnahmebilddaten gelesen, die von der Infrarotdetektionseinrichtung 27 während der zweiten Periode t2 ausgegeben werden. Die Bilddaten werden in den vorübergehend Primärspeicher 103 als Rahmen2 gespeichert.
  • In einem Schritt S207 wird das IR-EIN-Signal auf Niedrig gesetzt und an die Infrarot-LED-Beleuchtungsschaltung 21 ausgegeben. Dadurch werden die Infrarot-LEDs 22 erlöscht.
  • In einem Schritt S208 werden Rahmen1 und Rahmen2 aus dem Primärspeicher 103 gelesen, und wird eine Lichtstärke Fn des reflektierten Lichts 25 von dem Benutzer entsprechend dem in 9 gezeigten Gesichtsbild berechnet, indem Rahmen1 von Rahmen2 subtrahiert wird. Dieser Prozess wird generell Schwarzsubtraktion genannt.
  • In einem Schritt S209 wird eine Kehlenposition (ein Halsdrehzentrum) aus der Lichtstärke Fn extrahiert. Zunächst unterteilt die Gesamtsteuerung-CPU 101 das Gesichtsbild auf Grundlage der Lichtstärke Fn in eine Vielzahl von Entfernungsbereichen, die unter Verwendung von 8F beschrieben werden.
  • 8F ist eine Darstellung, die ein Ergebnis zeigt, das erhalten wird durch Anpassen von Schattierungen des in 8E gezeigten Differenzbilds, um mit einer Größenordnung einer Lichtstärke des reflektierten Lichts 25 des Infrarotlichts 23 zusammenzupassen, das auf das Gesicht und den Hals des Benutzers projiziert wird. 8F zeigt eine Lichtstärkenverteilung bezüglich Abschnitten des Gesichts und des Halses des Benutzers.
  • Das Gesichtsbild auf der linken Seite in 8F zeigt die Lichtstärkeverteilung des reflektierten Lichts 25 in dem in 8E gezeigten Gesichtsbild durch auf die jeweiligen unterteilten Bereiche angewandte Graustufen. Eine Xf-Achse ist in einer Richtung von dem mittleren Teil des Halses des Benutzers in Richtung des Kinns ausgerichtet.
  • In einem Graph auf der rechten Seite in 8F zeigt eine horizontale Achse die Lichtstärke auf der Xf-Achse des Gesichtsbilds, und zeigt eine vertikale Achse die Xf-Achse. Die durch die horizontale Achse gezeigte Lichtstärke nimmt nach rechts hin zu.
  • Das Gesichtsbild in 8F ist in sechs Bereiche (Entfernungsbereiche) 211 bis 216 gemäß der Lichtstärke unterteilt. Der Bereich 211 ist ein Bereich, wo die Lichtstärke am stärksten ist, und ist unter den Graustufen durch Weiß gezeigt. Der Bereich 212 ist ein Bereich, wo die Lichtstärke gegenüber dem Bereich 211 leicht abnimmt, und ist unter den Graustufen durch ganz helles Grau gezeigt. Der Bereich 213 ist ein Bereich, wo die Lichtstärke noch mehr als in dem Bereich 212 abnimmt, und ist unter den Graustufen durch helles Grau gezeigt. Der Bereich 214 ist ein Bereich, wo die Lichtstärke noch mehr als in dem Bereich 213 abnimmt, und ist unter den Graustufen durch mittleres Grau gezeigt. Der Bereich 215 ist ein Bereich, wo die Lichtstärke noch mehr als in dem Bereich 214 abnimmt, und ist unter den Graustufen durch leicht dunkles Grau gezeigt. Der Bereich 216 ist ein Bereich, wo die Lichtstärke am schwächsten ist, und ist unter den Graustufen durch das dunkelste Grau gezeigt. Der Bereich über dem Bereich 216 ist durch Schwarz gezeigt, was keine Lichtstärke darstellt.
  • Die Lichtstärke wird unter Verwendung von 10A bis 10D ausführlich beschrieben. 10A bis 10D sind Darstellungen, die eine Bewegung des Benutzergesichts in der vertikalen Richtung beschreiben, und zeigen Zustände, die von der linken Seite des Benutzers betrachtet werden.
  • 10A ist eine Darstellung, die einen Zustand zeigt, in dem der Benutzer nach vorne schaut. Die Bildaufnahme-/Detektionseinheit 10 befindet sich vor den Schlüsselbeinen des Benutzers. Außerdem bestrahlt das Infrarotlicht 23 der Infrarot-LEDs 22 den unteren Teil des Kopfes des Benutzers aus dem in dem oberen Teil der Bildaufnahme-/Detektionseinheit 10 eingerichteten Gesichtsrichtungsdetektionsfenster 13. Eine Entfernung Dn von dem Gesichtsrichtungsdetektionsfenster 13 zu der Kehle 200 über den Schlüsselbeinen des Benutzers, eine Entfernung Db von dem Gesichtsrichtungsdetektionsfenster 13 zu dem Ursprung 202 des Kiefers und eine Entfernung Dc von dem Gesichtsrichtungsdetektionsfenster 13 zu dem Kinn 203 erfüllen eine Beziehung Dn < Db < Dc. Da eine Lichtstärke in umgekehrter Proportionalität zu dem Quadrat der Entfernung steht, wird die Lichtstärke in dem Bild, das durch das reflektierte Licht 25 von der Infrarotbestrahlungsfläche 24 auf den Sensor ausgebildet wird, in der Reihenfolge der Kehle 200, des Ursprungs 202 des Kiefers und des Kinns sukzessive schwächer. Da die Entfernung von dem Gesichtsrichtungsdetektionsfenster 13 zu dem Gesicht 204 mit der Nase noch länger ist als die Entfernung Dc, wird außerdem die Lichtstärke in dem Bild entsprechend dem Gesicht 204 noch schwächer. Das heißt, dass in dem Fall, wie er in 10A gezeigt ist, das Bild mit der in 8F gezeigten Lichtstärkeverteilung erhalten wird.
  • Es sollte beachtet werden, dass die Konfiguration der Gesichtsrichtungsdetektionseinheit 20 nicht auf die bei diesem Ausführungsbeispiel gezeigte Konfiguration beschränkt ist, solange die Gesichtsrichtung des Benutzers detektiert werden kann. Zum Beispiel kann ein Infrarotmuster von den Infrarot-LEDs 22 projiziert werden, und kann der Sensor der Infrarotdetektionseinrichtung 27 das von einem Bestrahlungsziel reflektierte Infrarotmuster detektieren. In diesem Fall ist es bevorzugt, dass der Sensor der Infrarotdetektionseinrichtung 27 durch einen strukturellen optischen Sensor gebildet ist. Außerdem kann der Sensor der Infrarotdetektionseinrichtung 27 ein Sensor sein, der die Phase des Infrarotlichts 23 und die Phase des reflektierten Lichts 25 vergleicht. Zum Beispiel kann ein ToF-Sensor (ToF: „Time of Flight“) eingesetzt werden.
  • Als Nächstes wird die Extraktion der Kehlenposition in dem Schritt S209 in 7C unter Verwendung von 8G beschrieben. Ein linkes Bild in 8G wird erhalten durch Überlagern der Bezugszeichen, die die in 10A gezeigten Teile des Benutzerkörpers bezeichnen, eines die Kehlenposition zeigenden Doppelkreises und eines die Kinnposition zeigenden schwarzen Kreises auf 8F.
  • Der weiße Bereich 211 entspricht der Kehle 200 (10A), der ganz hellgraue Bereich 212 entspricht dem Halsvorderteil 201 (10A), und der hellgraue Bereich 213 entspricht dem Ursprung 202 des Kiefers (10A). Außerdem entspricht der mittelgraue Bereich 214 dem Kinn 203 (10A), und entspricht der leicht dunkelgraue Bereich 215 einer sich in dem unteren Teil des Gesichts 204 befindlichen Lippe (10A) und einem unteren Teil des Gesichts rund um die Lippe. Außerdem entspricht der dunkelgrauste Bereich 216 der sich in der Mitte des Gesichts 204 befindlichen Nase (10A) und einem oberen Teil des Gesichts rund um die Nase.
  • Da die Differenz zwischen den Entfernungen Db und Dc im Vergleich zu der Differenz zwischen den anderen Entfernungen von dem Gesichtsrichtungsdetektionsfenster 13 zu anderen Teilen des Benutzers relativ klein ist, wie es in 10A gezeigt ist, ist auch die Differenz zwischen den reflektierten Lichtstärken in dem hellgrauen Bereich 213 und dem mittelgrauen Bereich 214 klein.
  • Indessen wird die Reflexionslichtstärke in dem weißen Bereich 211 entsprechend der Kehle 200 am stärksten, da die Entfernung Dn die kürzeste Entfernung unter den Entfernungen von dem Gesichtsrichtungsdetektionsfenster 13 zu den Teilen des Benutzers ist, wie es in 10A gezeigt ist.
  • Dementsprechend bestimmt die Gesamtsteuerung-CPU 101, dass der Bereich 211 der Kehle 211 und ihrem Umfeld entspricht. Und dann stellt die Gesamtsteuerung-CPU 101 eine durch den Doppelkreis in 8G bezeichnete Kehlenposition 206, die sich in der Mitte der Querrichtung in dem Bereich 211 befindet und am nächsten zu der Bildaufnahme-/Detektionseinheit 10 liegt, als die Position des Halsdrehzentrums ein. Die Prozesse bis zu diesem Moment sind die Inhalte, die in dem Schritt S209 in 7C durchgeführt werden.
  • Als Nächstes wird die Extraktion der Kinnposition in dem Schritt S210 in 7C unter Verwendung von 8G beschrieben. In dem Bild in 8G umfasst der mittelgraue Bereich 214, der heller ist als der Bereich 215, der dem unteren Teil des Gesichts mit der Lippe des Gesichts 204 entspricht, das Kinn. Ein Graph auf der rechten Seite in 8G zeigt, dass die Lichtstärke in dem Bereich 215 benachbart zu dem Bereich 214 stark abnimmt, da die Änderungsrate der Entfernung von dem Gesichtsrichtungsdetektionsfenster 13 groß wird.
  • Die Gesamtsteuerung-CPU 101 bestimmt, dass der hellere Bereich 214 benachbart zu dem Bereich 215, in dem die Lichtstärke stark abnimmt, ein Kinnbereich ist. Außerdem berechnet (extrahiert) die Gesamtsteuerung-CPU 101 die (durch den in 8G gezeigten schwarzen Kreis bezeichnete) Position, die sich in der Mitte in der Querrichtung in dem Bereich 214 befindet und am weitesten von der Kehlenposition 206 entfernt ist, als eine Kinnposition 207.
  • Zum Beispiel zeigen 8H und 8I Änderungen beim Richten des Gesichts nach rechts. 8H ist eine Darstellung, die ein Differenzbild, das durch das ähnliche Verfahren wie in 8E berechnet wird, beim Richten des Gesichts des Benutzers nach rechts zeigt. 8I ist eine Darstellung, die ein Ergebnis zeigt, das erhalten wird durch Anpassen von Schattierungen des Differenzbilds in 8H, um mit einer Größenordnung von Lichtstärken von reflektierten Komponenten des Infrarotlichts zusammenzupassen, das auf das Gesicht und den Hals des Benutzers projiziert wird, und durch Überlagern des Doppelkreises, der die Kehlenposition 206 als die Position des Halsdrehzentrums zeigt, und des schwarzen Kreises, der eine Kinnposition 207r zeigt.
  • Da das Gesicht des Benutzers nach rechts gerichtet ist, bewegt sich der Bereich 214 in einen in 8I gezeigten Bereich 214r, der sich auf der linken Seite befindet, wenn er von der Bildaufnahme-/Detektionseinheit 10 aus betrachtet wird. Der Bereich 215, der dem unteren Teil des Gesichts mit der Lippe in dem Gesicht 204 entspricht, bewegt sich auch in einem Bereich 215r, der sich auf der linken Seite befindet, wenn er von der Bildaufnahme-/Detektionseinheit 10 aus betrachtet wird.
  • Dementsprechend bestimmt die Gesamtsteuerung-CPU 101, dass der hellere Bereich 214r benachbart zu dem Bereich 215r, in dem die Lichtstärke stark abnimmt, der Kinnbereich ist. Außerdem berechnet (extrahiert) die Gesamtsteuerung-CPU 101 die (durch den in 8I gezeigten schwarzen Kreis bezeichnete) Position, die sich in der Mitte in der Querrichtung in dem Bereich 214r befindet und am weitesten von der Kehlenposition 206 entfernt liegt, als die Kinnposition 207r.
  • Danach findet bzw. feststellt die Gesamtsteuerung-CPU 101 einen Bewegungswinkel θr, der die Drehbewegung nach rechts von der Kinnposition 207 in dem Bild in 8G zu der Kinnposition 207r in dem Bild in 8I um die Kehlenposition 206 zeigt. Wie es in 8I gezeigt ist, ist der Bewegungswinkel θr ein Winkel einer Bewegung des Gesichts des Benutzers in der Querrichtung.
  • Gemäß dem vorstehend dargelegten Verfahren wird der Winkel eines Gesichts des Benutzers (der hierin nachstehend als Gesichtswinkel bezeichnet wird) in der Querrichtung in dem Schritt S210 aus der Kinnposition berechnet, die durch die Infrarotdetektionseinrichtung 27 der Gesichtsrichtungsdetektionseinheit (einem dreidimensionalen Detektionssensor) 20 detektiert wird.
  • Als Nächstes wird eine Detektion des nach oben gerichteten Gesichts beschrieben. 10B ist eine Darstellung, die einen Zustand zeigt, in dem der Benutzer das Gesicht horizontal richtet. 10C ist eine Darstellung, die einen Zustand zeigt, in dem der Benutzer das Gesicht ausgehend von der horizontalen Richtung um 33° nach oben richtet.
  • Die Entfernung von dem Gesichtsrichtungsdetektionsfenster 13 zu dem Kinn 203 ist in 10B Ffh, und die Entfernung von dem Gesichtsrichtungsdetektionsfenster 13 zu einem Kinn 203u in 10C ist Ffu. Da sich das Kinn 203u zusammen mit dem Gesicht nach oben bewegt, wird die Entfernung Ffu größer als die Entfernung Ffh, wie es in 10C gezeigt ist.
  • 8J ist eine Darstellung, die ein Bild des Benutzers, der das Gesicht ausgehend von der horizontalen Richtung um 33° nach oben richtet, aus Sicht des Gesichtsrichtungsdetektionsfensters 13 zeigt. Da der Benutzer das Gesicht nach oben richtet, wie es 10C gezeigt ist, kann das Gesicht 204 mit der Lippe und der Nase von dem sich unter dem Kiefer des Benutzers befindlichen Gesichtsrichtungsdetektionsfenster 13 aus nicht gesehen werden. Das Kinn 203 und dessen Halsseite werden gesehen. 8K zeigt eine Verteilung der Lichtstärke des reflektierten Lichts 25 beim Bestrahlen des Benutzers in dem in 10C gezeigten Zustand mit dem Infrarotlicht 23. Ein Bild auf der linken Seite in 8K ist eine Darstellung, die ein Ergebnis zeigt, das erhalten wird durch Anpassen von Schattierungen des Differenzbilds, das durch das gleiche Verfahren wie in 8I berechnet wird, um mit einer Größenordnung der Lichtstärke von reflektierten Komponenten des Infrarotlichts zusammenzupassen, das auf das Gesicht und den Hals des Benutzers projiziert wird, und durch Überlagern des die Kehlenposition 206 zeigenden Doppelkreises und des eine Kinnposition 207u zeigenden schwarzen Kreises. Zwei Graphen in 8K zeigen Dichteänderungen des linken Bilds. Der linke Graph ist äquivalent zu dem Graph in 8F, und der rechte Graph ist äquivalent zu dem Graph in 8G.
  • Sechs Bereiche 211u, 212u, 213u, 214u, 215u und 216u, die den Lichtstärken in 8K entsprechen, sind bezeichnet durch Hinzufügen von „u“ zu den Bezugszeichen der gleichen Lichtstärkebereiche, die in 8F gezeigt sind. Obgleich die Lichtstärke des Benutzerkinns 203 in 8F in dem mittelgrauen Bereich 214 umfasst ist, verschiebt sie sich auf die schwarze Seite, und ist sie in 8K in dem leicht dunkelgrauen Bereich 215u umfasst. In dieser Weise kann, da die Entfernung Ffu länger ist als die Entfernung Ffh, wie es in 10C gezeigt ist, die Infrarotdetektionseinrichtung 27 detektieren, dass die Lichtstärke des reflektierten Lichts 25 von dem Kinn 203 in umgekehrter Proportionalität zu dem Quadrat der Entfernung ab-/geschwächt wird.
  • Als Nächstes wird eine Detektion des nach unten gerichteten Gesichts beschrieben. 10D ist eine Darstellung, die einen Zustand zeigt, in dem der Benutzer das Gesicht ausgehend von der horizontalen Richtung um 22° nach unten richtet. In 10D ist eine Entfernung von dem Gesichtsrichtungsdetektionsfenster 13 zu einem Kinn 23d Ffd.
  • Da sich das Kinn 203d zusammen mit dem Gesicht nach unten bewegt, wird die Entfernung Ffd kürzer als die Entfernung Ffh, wie es in 10D gezeigt ist, und wird die Lichtstärke des reflektierten Lichts 25 von dem Kinn 203 stärker.
  • Zurückkehrend zu 7C berechnet die Gesamtsteuerung-CPU 101 in einem Schritt S211 die Entfernung von der Kinnposition zu dem Gesichtsrichtungsdetektionsfenster 13 auf Grundlage der Lichtstärke der Kinnposition, die durch die Infrarotdetektionseinrichtung 27 der Gesichtsrichtungsdetektionseinheit (dem dreidimensionalen Detektionssensor) 20 detektiert wird. Es wird auch ein Gesichtswinkel in der vertikalen Richtung auf Grundlage dessen berechnet.
  • In einem Schritt S212 speichert die Gesamtsteuerung-CPU 101 den Gesichtswinkel in der Querrichtung, der in dem Schritt S210 erhalten wird, und den Gesichtswinkel in der vertikalen Richtung, der in dem Schritt S211 erhalten wird, als dreidimensionale Blick- bzw. Beobachtungsrichtung vi („i“ ist ein beliebiges Bezugszeichen) des Benutzers in den Primärspeicher 103. Zum Beispiel, wenn der Benutzer nach vorne in die Mitte blickt, ist der Gesichtswinkel θh in der Querrichtung 0° und ist der Gesichtswinkel θv in der vertikalen Richtung 0°. Dementsprechend wird eine Blick- bzw. Beobachtungsrichtung vo in diesem Fall durch Vektorinformationen [0°, 0°] dargestellt. Wenn der Benutzer in eine Richtung 45° nach rechts blickt, wird eine Blick- bzw. Beobachtungsrichtung vr durch Vektorinformationen [45°, 0°] dargestellt.
  • Obgleich der Gesichtswinkel in der vertikalen Richtung durch Detektieren der Entfernung von dem Gesichtsrichtungsdetektionsfenster 13 in dem Schritt S211 berechnet wird, kann der Gesichtswinkel durch ein anderes Verfahren berechnet werden. Zum Beispiel kann eine Änderung des Gesichtswinkels berechnet werden, indem Änderungspegel der Lichtstärke des Kinns 203 verglichen werden. Das heißt, dass die Änderung des Gesichtswinkels berechnet werden kann, indem ein Gradient CDh der reflektierten Lichtstärke von dem Ursprung 202 des Kiefers zu dem Kinn 203 in dem Graph in 8G mit einem Gradienten CDu der reflektierten Lichtstärke von dem Ursprung 202 des Kiefers zu dem Kinn 203 in dem Graph in 8K verglichen wird.
  • 7D ist ein Ablaufdiagramm, das eine Unterroutine des Aufzeichnungsrichtungs-/-bereichsbestimmungsprozesses in dem Schritt S300 in 7A zeigt. Bevor Einzelheiten dieses Prozesses beschrieben werden, wird zunächst unter Verwendung von 11A ein Superweitwinkelbild beschrieben, das einer Bestimmung einer Aufzeichnungsrichtung und eines Aufzeichnungsbereichs bei diesem Ausführungsbeispiel unterzogen wird.
  • Bei dem Kamerakörper 1 dieses Ausführungsbeispiels nimmt die Bildaufnahmeeinheit 40 ein Superweitwinkelbild der Umgebung der Bildaufnahme-/Detektionseinheit 10 unter Verwendung der/des Superweitwinkel-Bildaufnahmelinse/-objektivs 16 auf. Ein Bild einer Blick- bzw. Beobachtungsrichtung kann durch Extraktion eines Teils des Superweitwinkelbilds erhalten werden.
  • 11A ist eine Darstellung, die ein Zielsehfeld 125 zeigt, das in einem durch die Bildaufnahmeeinheit 40 aufgenommenen Superweitwinkelbild in einem Fall eingestellt ist, in dem der Benutzer nach vorne schaut.
  • Wie es in 11A gezeigt ist, ist ein Pixelbereich 121, der durch den Festkörperbildsensor 42 aufgenommen werden kann, ein rechteckiger Bereich. Außerdem ist ein effektiver Projektionsbereich (ein vorbestimmter Bereich) 122 ein Bereich eines kreisförmigen Halbe-Himmelskugel-Bilds, das ein Fischaugenbild ist, das durch die/das Bildaufnahmelinse/-objektiv 16 auf den Festkörperbildsensor 42 projiziert wird. Die/das Bildaufnahmelinse/-objektiv 16 wird/ist so angepasst, dass die Mitte des Pixelbereichs 121 mit der Mitte des effektiven Projektionsbereichs 122 übereinstimmt bzw. zusammenfällt.
  • Der äußerste Umfang des kreisförmigen effektiven Projektionsbereichs 122 zeigt eine Position, wo ein FOV-Winkel (FOV: „Field of View“ bzw. Sicht-/Gesichtsfeld) 180° ist. Wenn der Benutzer sowohl in der vertikalen als auch in der horizontalen Richtung in die Mitte schaut, wird ein Winkelbereich des Zielsehfelds 125, das aufgenommen und aufgezeichnet wird, 90° (eine Hälfte des FOV-Winkels), zentriert an der Mitte des effektiven Projektionsbereichs 122. Es sollte beachtet werden, dass die/das Bildaufnahmelinse/-objektiv 16 dieses Ausführungsbeispiels auch Licht außerhalb des effektiven Projektionsbereichs 122 aufnehmen kann und Licht innerhalb des maximalen FOV-Winkels von 192° auf den Festkörperbildsensor 42 als Fischaugenbild projizieren kann. Die optische Leistung nimmt jedoch in dem Bereich außerhalb des effektiven Projektionsbereichs 122 stark ab. Zum Beispiel nimmt eine Auflösung extrem ab, nimmt eine Lichtmenge ab, und nimmt eine Verzerrung zu. Dementsprechend wird bei diesem Ausführungsbeispiel ein Bild einer Blick- bzw. Beobachtungsrichtung als ein Aufzeichnungsbereich nur aus dem Inneren des (hierin nachstehend einfach als Superweitwinkelbild bezeichneten) Bilds extrahiert, das in dem Pixelbereich 121 innerhalb des auf dem effektiven Projektionsbereich 122 angezeigten Halbe-Himmelskugel-Bilds projiziert wird.
  • Da die Größe des effektiven Projektionsbereichs 122 in der vertikalen Richtung größer ist als die Größe der kurzen Seite des Pixelbereichs 121, liegen das obere und das untere Ende des Bilds in dem effektiven Projektionsbereich 122 bei diesem Ausführungsbeispiel außerhalb des Pixelbereichs 121. Die Beziehung zwischen den Bereichen ist jedoch nicht darauf beschränkt. Zum Beispiel kann das optische System so ausgelegt sein, dass der gesamte effektive Projektionsbereich 122 in dem Pixelbereich 121 umfasst ist, indem die Konfiguration der/des Bildaufnahmelinse/-objektivs 16 geändert wird. Ungültige Pixelbereiche 123 sind Teile des Pixelbereichs 121, die nicht in dem effektiven Projektionsbereich 122 umfasst sind.
  • Das Zielsehfeld 125 zeigt einen Bereich eines Bilds einer Blick- bzw. Beobachtungsrichtung des Benutzers, der aus dem Superweitwinkelbild extrahiert wird. Das Zielsehfeld 125 ist durch linke, rechte, obere und untere Feldwinkel (in diesem Fall 45°, wobei der FOV-Winkel 90° ist), zentriert an der Blick- bzw. Beobachtungsrichtung, festgelegt. In dem Beispiel von 11A wird die Mitte des Zielsehfelds 125 zu der Blick- bzw. Beobachtungsrichtung vo, die mit der Mitte des effektiven Projektionsbereichs 122 übereinstimmt bzw. zusammenfällt, da der Benutzer nach vorne schaut.
  • Das in 11A gezeigte Superweitwinkelbild umfasst ein A-Objekt 131, das ein Kind ist, ein B-Objekt 132, das Stufen zeigt, welche das Kind, das das A-Objekt ist, zu ersteigen versucht, und ein C-Objekt 133, das ein lokomotivenartiges Spielplatzgerät ist.
  • Als Nächstes ist der Aufzeichnungsrichtungs-/-bereichsbestimmungsprozess in dem Schritt S300 in 7A, der zum Erhalten eines Bilds einer Blick- bzw. Beobachtungsrichtung aus dem unter Verwendung von 11A beschriebenen Superweitwinkelbild ausgeführt wird, in 7D gezeigt. Hierin nachstehend wird dieser Prozess unter Verwendung von 12A bis 12G beschrieben, die konkrete Beispiele des Zielsehfelds 125 zeigen.
  • In Schritt S301 wird ein Feldwinkel-Einstellwert Vang, der im Voraus eingestellt ist, durch Lesen aus dem Primärspeicher 103 erhalten.
  • Bei diesem Ausführungsbeispiel speichert der interne nichtflüchtige Speicher 102 alle verfügbaren Feldwinkel (45°, 90°, 110° und 130°) als Feldwinkel-Einstellwerte Vang. Die Bildextraktions-/Entwicklungseinheit 50 extrahiert ein Bild einer Blick- bzw. Beobachtungsrichtung in einem durch den Feldwinkel-Einstellwert Vang definierten Bereich aus dem Superweitwinkelbild. Außerdem wird/ist der Feldwinkel-Einstellwert Vang, der in den verschiedenen Einstellwerten umfasst ist, die in einem der Schritte S103, S106 und S108 in 7B aus dem internen nichtflüchtigen Speicher 102 gelesen werden, eingerichtet und in dem Primärspeicher 103 gespeichert.
  • Außerdem wird in dem Schritt S301 die in dem Schritt S212 bestimmte Blick- bzw. Beobachtungsrichtung vi als die Aufzeichnungsrichtung bestimmt, wird ein Bild in dem Zielsehfeld 125, dessen Mitte durch die Blick- bzw. Beobachtungsrichtung vi bezeichnet wird und dessen Fläche durch den erhaltenen Feldwinkel-Einstellwert Vang definiert wird, aus dem Superweitwinkelbild extrahiert, und wird das extrahierte Bild in den Primärspeicher 103 gespeichert.
  • Zum Beispiel, wenn der Feldwinkel-Einstellwert Vang 90° ist und die Blick- bzw. Beobachtungsrichtung vo (Vektorinformationen [0°, 0°]) durch den Gesichtsrichtungsdetektionsprozess (7C) detektiert wird, wird das Zielsehfeld 125, dessen Winkelweiten nach links und rechts 45° sind und nach oben und unten 45° sind (11A), zentriert an der Mitte O des effektiven Projektionsbereichs 122 eingerichtet. 11B ist eine Darstellung, die das Bild in dem Zielsehfeld 125 zeigt, das aus dem Superweitwinkelbild in 11A extrahiert wird. Das heißt, dass die Gesamtsteuerung-CPU 101 den Winkel der durch die Gesichtsrichtungsdetektionseinheit 20 detektierten Gesichtsrichtung auf die Blick- bzw. Beobachtungsrichtung vi einstellt, die die Vektorinformationen darstellt, die die relative Position des Zielsehfelds 125 mit Bezug auf das Superweitwinkelbild zeigen.
  • In dem Fall der Blick- bzw. Beobachtungsrichtung vo ist, da der Einfluss der durch die/das Bildaufnahmelinse/-objektiv 16 verursachten optischen Verzerrung größtenteils vernachlässigt werden kann, die Form des eingerichteten Zielsehfelds 125 nahezu identisch zu der Form eines Zielsehfelds 125o ( 12A) nach Umwandlung der Verzerrung in einem nachstehend dargelegten Schritt S303. Hierin nachstehend wird ein Zielsehfeld nach Umwandlung der Verzerrung in dem Fall der Blick- bzw. Beobachtungsrichtung vi als Zielsehfeld 125i bezeichnet.
  • Als Nächstes wird ein Bildstabilisierungsgrad, der im Voraus eingestellt ist, in einem Schritt S302 durch Lesen aus dem Primärspeicher 103 erhalten.
  • Bei diesem Ausführungsbeispiel, wie es vorstehend dargelegt ist, wird/ist der Bildstabilisierungsgrad, der in den verschiedenen Einstellwerten umfasst ist, die in einem der Schritte S103, S106 und S108 aus dem internen nichtflüchtigen Speicher 102 gelesen werden, eingerichtet und in dem Primärspeicher 103 gespeichert.
  • Außerdem wird in dem Schritt S302 eine Bildstabilisierungsrand-Pixelanzahl Pis auf Grundlage des erhaltenen Bildstabilisierungsgrads eingestellt.
  • In dem Bildstabilisierungsprozess wird ein Bild, das in einer zu einer Unschärferichtung entgegengesetzten Richtung folgt, gemäß einem Unschärfebetrag der Bildaufnahme-/Detektionseinheit 10 erhalten. Dementsprechend wird bei diesem Ausführungsbeispiel ein für die Bildstabilisierung erforderlicher Bildstabilisierungsrand rund um das Zielsehfeld 125i eingerichtet.
  • Außerdem ist bei diesem Ausführungsbeispiel eine Tabelle, die Werte der Bildstabilisierungsrand-Pixelanzahl Pis in Zusammenhang mit jeweiligen Bildstabilisierungsgraden hält, in dem internen nichtflüchtigen Speicher 102 gespeichert. Zum Beispiel, wenn der Bildstabilisierungsgrad „Mittel“ ist, wird ein Bildstabilisierungsrand, dessen Breite „100 Pixel“ ist, was die aus der vorgenannten Tabelle gelesene Bildstabilisierungsrand-Pixelanzahl Pis ist, rund um das Zielsehfeld eingerichtet.
  • 12E ist eine Darstellung, die ein Beispiel zeigt, das einen Bildstabilisierungsrand entsprechend einem vorbestimmten Bildstabilisierungsgrad rund um das in 12A gezeigte Zielsehfeld 125o gibt. Hierin wird ein Fall beschrieben, in dem der Bildstabilisierungsgrad „Mittel“ ist, d.h. de Bildstabilisierungsrand-Pixelanzahl Pis gleich „100 Pixel“ ist.
  • Wie es in 12E durch eine gestrichelte Linie gezeigt ist, wird ein Bildstabilisierungsrand 126o, dessen Breite „100 Pixel“ ist, was die Bildstabilisierungsrand-Pixelanzahl Pis ist, auf der linken, der rechten, der oberen und der unteren Seite des Zielsehfelds 125o eingerichtet.
  • 12A und 12E zeigen zur Vereinfachung der Beschreibung den Fall, in dem die Blick- bzw. Beobachtungsrichtung vi mit der Mitte O (der Mitte der optischen Achse der/des Bildaufnahmelinse/-objektivs 16) des effektiven Projektionsbereichs 122 übereinstimmt. Indessen ist, wenn die Blick- bzw. Beobachtungsrichtung vi auf einen Umkreis bzw. ein Umfeld des effektiven Projektionsbereichs 122 gerichtet ist, eine Umwandlung erforderlich, um den Einfluss einer optischen Verzerrung zu verringern.
  • In dem Schritt S303 wird die Form des in dem Schritt S301 eingerichteten Zielsehfelds 125 unter Berücksichtigung der Blick- bzw. Beobachtungsrichtung vi und der optischen Eigenschaft der/des Bildaufnahmelinse/-objektivs 16 korrigiert (eine Verzerrung umgewandelt), um das Zielsehfeld 125i zu erzeugen.
  • Gleichermaßen wird auch die in dem Schritt S302 eingestellte Bildstabilisierungsrand-Pixelanzahl Pis unter Berücksichtigung der Blick- bzw. Beobachtungsrichtung vi und der optischen Eigenschaft der/des Bildaufnahmelinse/-objektivs 16 korrigiert.
  • Zum Beispiel soll der Feldwinkel-Einstellwert Vang 90° sein und soll der Benutzer in eine Richtung 45° rechts von der Mitte o blicken. In diesem Fall wird die Blick- bzw. Beobachtungsrichtung vr (Vektorinformationen [45°, 0°]) in dem Schritt S212 bestimmt, und wird der Bereich von 45° nach links und nach rechts und 45° nach oben und nach unten, zentriert an der Blick- bzw. Beobachtungsrichtung vr, zu dem Zielsehfeld 125. Außerdem wird das Zielsehfeld 125 unter Berücksichtigung der optischen Eigenschaft der/des Bildaufnahmelinse/-objektivs 16 in das in 12B gezeigte Zielsehfeld 125r korrigiert.
  • Wie es in 12B gezeigt ist, wird das Zielsehfeld 125r in Richtung des Umkreises des effektiven Projektionsbereichs 122 weiter. Und die Position der Blick- bzw. Beobachtungsrichtung vr nähert sich innerhalb ausgehend von der Mitte des Zielsehfelds 125r ein wenig. Dies ist deshalb so, da das optische Design der/des Bildaufnahmelinse/-objekts 16 bei diesem Ausführungsbeispiel nahe demjenigen einer/eines Fischaugenlinse/-objektivs für stereographische Projektion ist. Es sollte beachtet werden, dass die Inhalte der Korrektur von dem optischen Design des/der Bildaufnahmelinse/-objektivs 16 abhängen. Wenn die/das Bildaufnahmelinse/-objektiv 16 als Fischaugenlinse/-objektiv für äquidistante Projektion, Fischaugenlinse/-objektiv für Projektion mit gleichem Raumwinkel oder Fischaugenlinse/-objektiv für orthogonale Projektion ausgelegt ist, wird das Zielsehfeld 125 gemäß dieser optischen Eigenschaft korrigiert.
  • 12F ist eine Darstellung, die ein Beispiel zeigt, das einen Bildstabilisierungsrand 126r entsprechend dem gleichen Bildstabilisierungsgrad „Mittel“ des Bildstabilisierungsrands in 12E rund um das in 12B gezeigte Zielsehfeld 125r gibt.
  • Der Bildstabilisierungsrand 126o (12E) wird auf der linken, der rechten, der oberen und der unteren Seite des Zielsehfelds 125o mit der Breite von „100 Pixeln“ eingerichtet, was die Bildstabilisierungsrand-Pixelanzahl Pis ist. Im Vergleich dazu wird die Bildstabilisierungsrand-Pixelanzahl Pis des Bildstabilisierungsrands 126r (12F) korrigiert, so dass sie in Richtung des Umkreises des effektiven Projektionsbereichs 122 zunimmt.
  • In dieser Weise wird auch die Form des rund um das Zielsehfeld 125r eingerichteten Bildstabilisierungsrands wie die Form des Zielsehfelds 125r korrigiert, so dass der Korrekturbetrag in Richtung des Umkreises des effektiven Projektionsbereichs 122 zunimmt, wie es durch den Bildstabilisierungsrand 126r in 12F gezeigt ist. Dies ist auch deshalb so, da das optische Design der/des Bildaufnahmelinse/-objektivs 16 bei diesem Ausführungsbeispiel nahe demjenigen einer/eines Fischaugenlinse/-objektivs für stereographische Projektion ist. Es sollte beachtet werden, dass Inhalte der Korrektur von dem optischen Design der/des Bildaufnahmelinse/-objektivs 16 abhängen. Wenn die/das Bildaufnahmelinse/-objektiv 16 als Fischaugenlinse/-objektiv für äquidistante Projektion, Fischaugenlinse/-objektiv für Projektion mit gleichem Raumwinkel oder Fischaugenlinse/-objektiv für orthogonale Projektion ausgelegt ist, wird der Bildstabilisierungsrand 126r gemäß dieser optischen Eigenschaft korrigiert.
  • Der in dem Schritt S303 ausgeführte Prozess, der die Formen des Zielsehfelds 125 und dessen Bildstabilisierungsrand unter Berücksichtigung der optischen Eigenschaft der/des Bildaufnahmelinse/-objektivs 16 sukzessive wechselt, ist ein komplizierter Prozess. Dementsprechend wird bei diesem Ausführungsbeispiel der Prozess in dem Schritt S303 unter Verwendung einer Tabelle ausgeführt, die Formen des Zielsehfelds 125i und dessen Bildstabilisierungsrand für jede in dem internen nichtflüchtigen Speicher 102 gespeicherte Blick- bzw. Beobachtungsrichtung vi hält. Es sollte beachtet werden, dass die Gesamtsteuerung-CPU 101 eine Rechengleichung aufweisen kann, die dem optischen Design der/des Bildaufnahmelinse/-objektivs 16 entspricht. In einem solchen Fall kann die Gesamtsteuerung-CPU 101 einen optischen Verzerrungswert bzw. einen Wert einer optischen Verzerrung unter Verwendung der Rechengleichung berechnen.
  • In einem Schritt S304 werden eine Position und eine Größe eines Bildaufzeichnungsrahmens berechnet. Wie es vorstehend dargelegt ist, wird der Bildstabilisierungsrand 126i rund um das Zielsehfeld 125i eingerichtet. Wenn jedoch die Position der Blick- bzw. Beobachtungsrichtung vi nahe dem Umkreis des effektiven Projektionsbereichs 122 ist, wird die Form des Bildstabilisierungsrands ziemlich speziell, wie es zum Beispiel durch den Bildstabilisierungsrand 126r gezeigt ist.
  • Die Gesamtsteuerung-CPU 101 kann ein Bild nur in einem solchen speziell geformten Bereich extrahieren und den Entwicklungsprozess auf das extrahierte Bild anwenden. Es ist jedoch nicht gewöhnlich, ein Bild, das nicht rechteckförmig ist, beim Aufzeichnen als Bilddaten in dem Schritt S600 oder beim Übertragen von Bilddaten an die Anzeigevorrichtung 800 in dem Schritt S700 zu verwenden. Dementsprechend werden in dem Schritt S304 die Position und die Größe des Bildaufzeichnungsrahmens 127i einer rechteckigen Form berechnet, der den gesamten Bildstabilisierungsrand 126i umfasst.
  • 12F zeigt den Bildaufzeichnungsrahmen 127r, der in dem Schritt S304 für den Bildstabilisierungsrand 126r berechnet wird, durch eine Strichpunktlinie.
  • In einem Schritt S305 werden die Position und die Größe des Bildaufzeichnungsrahmens 127i, der in dem Schritt S304 berechnet wird, in den Primärspeicher 103 aufgezeichnet.
  • Bei diesem Ausführungsbeispiel wird eine obere linke Koordinate (Xi, Yi) des Bildaufzeichnungsrahmens 127i in dem Superweitwinkelbild als die Position des Bildaufzeichnungsrahmens 127i aufgezeichnet, und werden eine seitliche Breite WXi und eine vertikale Breite WYi, die von der Koordinate (Xi, Yi) starten, als die Größe des Bildaufzeichnungsrahmens 127i aufgezeichnet. Zum Beispiel werden in dem Schritt S305 eine Koordinate (Xr, Yr), eine seitliche Breite WXr und eine vertikale Breite WYr des Bildaufzeichnungsrahmens 127r aufgezeichnet, der in 12F gezeigt ist. Es sollte beachtet werden, dass die Koordinate (Xi, Yi) eine XY-Koordinate ist, deren Ursprung ein vorbestimmter Referenzpunkt ist, im Speziellen die optische Mitte der/des Bildaufnahmelinse/-objektivs 16.
  • Wenn der Bildstabilisierungsrand 126i und der Bildaufzeichnungsrahmen 127i in dieser Weise bestimmt wurden, verlässt der Prozess diese in 7D gezeigte Unterroutine.
  • In der bisherigen Beschreibung wurden zur Vereinfachung der Beschreibung der komplizierten optischen Verzerrungsumwandlung die Blick- bzw. Beobachtungsrichtungen beschrieben, deren horizontaler Winkel 0° ist, wie etwa die Blick- bzw. Beobachtungsrichtung vo (die Vektorinformationen [0°, 0°]) und die Blick- bzw. Beobachtungsrichtung vr (die Vektorinformationen [45°, 0°]). Indessen ist eine tatsächliche Blick- bzw. Beobachtungsrichtung vi des Benutzers beliebig. Dementsprechend wird hierin nachstehend der Aufzeichnungsbereichsentwicklungsprozess beschrieben, der in einem Fall ausgeführt wird, in dem der horizontale Winkel nicht 0° ist. Zum Beispiel, wenn der Feldwinkel-Einstellwert Vang 90° ist und die Blick- bzw. Beobachtungsrichtung vm [-42°, -40°] ist, erscheint das Zielsehfeld 125m, wie es in 12C gezeigt ist.
  • Selbst wenn die Blick- bzw. Beobachtungsrichtung vm (die Vektorinformationen [-42°, -40°]) gleich dem Zielsehfeld 125m ist, wenn der Feldwinkel-Einstellwert Vang 45° ist, erscheint außerdem ein Zielsehfeld 128m, das geringfügig kleiner ist als das Zielsehfeld 125m, wie es in 12D gezeigt ist. Außerdem werden ein Bildstabilisierungsrand 129m und ein Bildaufzeichnungsrahmen 130m rund um das Zielsehfeld 128m eingerichtet, wie es in 12G gezeigt ist.
  • Da der Prozess in dem Schritt S400 ein grundlegender Bildaufnahmevorgang ist und ein gewöhnlicher Ablauf der Bildaufnahmeeinheit 40 einsetzt, wird eine ausführliche Beschreibung ausgelassen. Es sollte beachtet werden, dass die Bildsignalverarbeitungsschaltung 43 in der Bildaufnahmeeinheit 40 bei diesem Ausführungsbeispiel auch einen Prozess durchführt, der Signale eines inhärenten Ausgabeformats (Standardbeispiele: MIPI, SLVS), die von dem Festkörperbildsensor 42 ausgegeben werden, in Aufnahmebilddaten eines allgemeinen bzw. gewöhnlichen Sensorlesesystems umwandelt.
  • Wenn der Videobildmodus durch den Bildaufnahmemodusschalter 12 ausgewählt wird/ist, startet die Bildaufnahmeeinheit 40 ein Aufzeichnen in Erwiderung auf ein Drücken des Startschalters 14. Danach wird das Aufzeichnen beendet, wenn der Stoppschalter 15 gedrückt wird. Indessen nimmt die Bildaufnahmeeinheit 40, wenn der Stehbildmodus durch den Bildaufnahmemodusschalter 12 ausgewählt wird/ist, zu jeder Zeit, zu der der Startschalter 14 gedrückt wird, ein Stehbild auf.
  • 7E ist ein Ablaufdiagramm, das eine Unterroutine des Aufzeichnungsbereichsentwicklungsprozesses in dem Schritt S500 in 7A zeigt.
  • In einem Schritt S501 werden Rohdaten des gesamten Bereichs der Aufnahmebilddaten (Superweitwinkelbild), die durch die Bildaufnahmeeinheit 40 in dem Schritt S400 erzeugt werden, erhalten und an eine (nicht gezeigte) Kopf- bzw. Haupteinheit genannte Bildaufnahmeeinheit der Gesamtsteuerung-CPU 101 eingegeben.
  • Als Nächstes wird in einem Schritt S502 das Bild innerhalb des Bildaufzeichnungsrahmens 127i aus dem in dem Schritt S501 erhaltenen Superweitwinkelbild auf Grundlage der Koordinate (Xi, Yi), der seitlichen Breite WXi und der vertikalen Breite WYi extrahiert, die in dem Schritt S305 in den Primärspeicher 103 aufgezeichnet werden/sind. Nach der Extraktion werden die nachstehend dargelegten Prozesse in Schritten S503 bis S508 nur auf den Pixeln innerhalb des Bildstabilisierungsrahmens 126i ausgeführt. Auf diese Art und Weise beginnt ein Schneid- bzw. Zuschnittentwicklungsprozess (7F), der aus den Schritten S502 bis S508 besteht. Dieser kann eine Rechenmenge im Vergleich zu einem Fall erheblich verringern, in dem der Entwicklungsprozess auf den gesamten Bereich des in dem Schritt S501 gelesenen Superweitwinkelbilds ausgeführt wird. Dementsprechend können Rechenzeit und elektrischer Energieverbrauch bzw. elektrische Leistungsaufnahme verringert werden.
  • Wie es in 7F gezeigt ist, werden, wenn der Videobildmodus durch den Bildaufnahmemodusschalter 12 ausgewählt wird/ist, die Prozesse der Schritte S200 und S300 und der Prozess des Schritts S400 mit der gleichen Rahmenrate oder unterschiedlichen Rahmenraten parallel ausgeführt. Wann immer die Rohdaten des gesamten Bereichs von einem durch die Bildaufnahmeeinheit 40 erzeugten Rahmen erhalten werden/sind, wird der Schneid- bzw. Zuschnittentwicklungsprozess auf Grundlage der Koordinate (Xi, Yi), der seitlichen Breite WXi und der vertikalen Breite WYi ausgeführt, die zu diesem Zeitpunkt in dem Primärspeicher 103 aufgezeichnet sind.
  • Wenn der Schneid- bzw. Zuschnittentwicklungsprozess auf den Pixeln innerhalb des Bildstabilisierungsrahmens 126i gestartet wird/ist, und wenn der Teil innerhalb des Bildaufzeichnungsrahmens 127i in dem Schritt S502 extrahiert wird/ist, wird in dem Schritt S503 eine Farbinterpolation ausgeführt, die Daten von in der Bayer-Anordnung angeordneten Farbpixeln interpoliert. Danach wird in einem Schritt S504 ein Weißabgleich angepasst, und dann wird in einem Schritt S505 eine Farbumwandlung ausgeführt. In einem Schritt S506 wird eine Gammakorrektur ausgeführt, die eine Gradation bzw. Abstufung gemäß einem vorher eingestellten Gammakorrekturwert korrigiert. In einem Schritt S507 wird eine Randverstärkung bzw. Randschärfenverbesserung gemäß einer Bildgröße durchgeführt.
  • In dem Schritt S508 werden die Bilddaten in ein Datenformat umgewandelt, das primär gespeichert werden kann, indem Prozesse wie Komprimierung angewandt werden. Die umgewandelten Bilddaten werden in den Primärspeicher 103 gespeichert. Danach verlässt der Prozess die Unterroutine. Einzelheiten des Datenformats, das primär gespeichert werden kann, werden nachstehend dargelegt.
  • Die Reihenfolge und das Vorhandensein der Prozesse in dem in den Schritten S503 bis S508 ausgeführten Schneid- bzw. Zuschnittentwicklungsprozess können gemäß der Eigenschaft des Kamerasystems eingestellt werden, und sie schränken die vorliegende Erfindung nicht ein. Außerdem werden, wenn der Videobildmodus ausgewählt ist, die Prozesse der Schritte S200 bis S500 wiederholt ausgeführt, bis die Aufzeichnung beendet wird/ist.
  • Gemäß diesem Prozess wird die Rechenmenge im Vergleich zu einem Fall erheblich verringert, in dem der Entwicklungsprozess auf den gesamten Bereich, der in dem Schritt S501 gelesen wird, ausgeführt wird. Dementsprechend kann ein preiswerter Mikrocomputer mit geringem Energieverbrauch bzw. geringer Leistungsaufnahme als die Gesamtsteuerung-CPU 101 eingesetzt werden. Außerdem wird eine Wärmeerzeugung in der Gesamtsteuerung-CPU 101 verringert, und wird die Lebensdauer der Batterie 94 länger.
  • Außerdem werden, um eine Steuerlast auf der Gesamtsteuerung-CPU 101 zu verringern, der optische Korrekturprozess (der Schritt S800 in 7A) und der Bildstabilisierungsprozess (der Schritt S900 in 7A) auf dem Bild bei diesem Ausführungsbeispiel durch den Kamerakörper 1 nicht ausgeführt. Diese Prozesse werden durch die Anzeigevorrichtung-Steuereinheit 801 nach Übertragung des Bilds an die Anzeigevorrichtung 800 ausgeführt. Dementsprechend kann, wenn nur Daten eines aus einem projizierten Superweitwinkelbild extrahierten Teilbilds an die Anzeigevorrichtung 800 übertragen werden, weder der optische Korrekturprozess noch der Bildstabilisierungsprozess ausgeführt werden. Das heißt, dass die Anzeigevorrichtung 800 diese Prozesse nicht korrekt ausführen kann, da die Daten des extrahierten Bilds keine Positionsinformationen umfassen, die durch eine Formel des optischen Korrekturprozesses ersetzt werden und zur Bezugnahme auf die Korrekturtabelle des Bildstabilisierungsprozesses verwendet werden. Dementsprechend überträgt bei diesem Ausführungsbeispiel der Kamerakörper 1 Korrekturdaten, die Informationen über eine Extraktionsposition eines Bilds aus einem Superweitwinkelbild umfassen, zusammen mit Daten des extrahierten Bilds an die Anzeigevorrichtung 800.
  • Wenn das extrahierte Bild ein Stehbild ist, kann die Anzeigevorrichtung 800 den optischen Korrekturprozess und den Bildstabilisierungsprozess korrekt ausführen, da die Stehbilddaten den Korrekturdaten eins-zu-eins entsprechen, selbst wenn diese Daten separat bzw. getrennt an die Anzeigevorrichtung 800 übertragen werden. Indessen wird es schwierig, eine Entsprechung zwischen jedem Rahmen der Videobilddaten und den Korrekturdaten zu bestimmen, wenn das extrahierte Bild ein Videobild ist, wenn die Videobilddaten und die Korrekturdaten separat bzw. getrennt an die Anzeigevorrichtung 800 übertragen werden. Insbesondere wird, wenn sich eine Taktrate bzw. -frequenz der Gesamtsteuerung-CPU 101 in dem Kamerakörper 1 geringfügig von einer Taktrate bzw. -frequenz der Anzeigevorrichtung-Steuereinheit 801 in der Anzeigevorrichtung 800 unterscheidet, die Synchronisation zwischen der Gesamtsteuerung-CPU 101 und der Anzeigevorrichtung-Steuereinheit 801 während des Videobildaufnahmevorgangs für mehrere Minuten verloren gehen. Dies kann einen Fehler bzw. eine Störung dahingehend verursachen, dass die Anzeigevorrichtung-Steuereinheit 801 einen Rahmen mit Korrekturdaten korrigiert, die von den entsprechenden Korrekturdaten verschieden sind.
  • Dementsprechend gibt bei diesem Ausführungsbeispiel beim Übertragen von Daten eines extrahierten Videobilds an die Anzeigevorrichtung 800 der Kamerakörper 1 seine Korrekturdaten auf geeignete Weise an die Daten des Videobilds. Nachstehend wird das Verfahren beschrieben.
  • 14 ist ein Ablaufdiagramm, das die Unterroutine des Primäraufzeichnungsprozesses in dem Schritt S600 in 7A zeigt. Nachstehend wird dieser Prozess auch unter Bezugnahme auf 15 beschrieben. 14 zeigt den Prozess eines Falls, in dem der Videobildmodus durch den Bildaufnahmemodusschalter 12 ausgewählt ist. Wenn der Stehbildmodus ausgewählt ist, startet dieser Prozess von einem Schritt S601, und wird er nach einem Prozess eines Schritts S606 beendet.
  • In einem Schritt S601A liest die Gesamtsteuerung-CPU 101 ein Bild eines Rahmens, auf den die Prozesse in Schritten S601 bis S606 nicht angewandt wurden, aus dem in dem Aufzeichnungsbereichsentwicklungsprozess (7E) entwickelten Videobild. Außerdem erzeugt die Gesamtsteuerung-CPU 101 Korrekturdaten, die Metadaten des gelesenen Rahmens sind.
  • In dem Schritt S601 bringt/fügt die Gesamtsteuerung-CPU 101 die Informationen über die Extraktionsposition des Bilds des in dem Schritt S601a gelesenen Rahmens an die Korrekturdaten an. Die in diesem Schritt angebrachten/gefügten Informationen sind die Koordinate (Xi, Yi) des in dem Schritt S305 erhaltenen Bildaufzeichnungsrahmens 127i. Es sollte beachtet werden, dass die in diesem Schritt angebrachten/-gefügten Informationen die Vektorinformationen sein können, die die Blick- bzw. Beobachtungsrichtung vi zeigen.
  • In einem Schritt S602 erhält die Gesamtsteuerung-CPU 101 einen optischen Korrekturwert. Der optische Korrekturwert ist der in dem Schritt S303 eingestellte optische Verzerrungswert. Alternativ kann der optische Korrekturwert ein Korrekturwert sein, der der optischen Eigenschaft der Linse bzw. des Objektivs entspricht, wie etwa ein Randlichtmengenkorrekturwert oder ein Beugungskorrekturwert.
  • In einem Schritt S603 bringt/fügt die Gesamtsteuerung-CPU 101 den für die Verzerrungsumwandlung in dem Schritt S602 verwendeten optischen Korrekturwert an den Korrekturdaten an.
  • In einem Schritt S604 bestimmt die Gesamtsteuerung-CPU 101, ob der Bildstabilisierungsmodus wirksam ist. Im Speziellen wird bestimmt, dass der Bildstabilisierungsmodus wirksam ist, und schreitet der Prozess zu einem Schritt S605 voran, wenn der vorab eingestellte Bildstabilisierungsmodus „Mittel“ oder „Stark“ ist. Indessen wird bestimmt, dass der Bildstabilisierungsmodus nicht wirksam ist, und schreitet der Prozess zu dem Schritt S606 voran, wenn der vorab eingestellte Bildstabilisierungsmodus „AUS“ ist. Der Grund dafür, warum der Schritt S605 übersprungen wird, wenn der Bildstabilisierungsmodus „AUS“ ist, liegt darin, dass die Rechendatenmenge der Gesamtsteuerung-CPU 101 und die Datenmenge der Drahtloskommunikation verringert werden und der Energieverbrauch bzw. die Leistungsaufnahme und die Wärmeerzeugung des Kamerakörpers 1 verringert werden können, indem der Schritt S605 übersprungen wird. Obgleich die Verringerung der für den Bildstabilisierungsprozess verwendeten Daten beschrieben ist, können die Daten über den Randlichtmengenkorrekturwert oder die Daten über den Beugungskorrekturwert, die als der optische Korrekturwert in dem Schritt S602 erhalten werden, verringert werden.
  • Obwohl der Bildstabilisierungsmodus bei diesem Ausführungsbeispiel durch die Benutzerbedienung an der Anzeigevorrichtung 800 vorab eingestellt wird, kann er als eine Standard- bzw. Grundeinstellung des Kamerakörpers 1 eingestellt sein. Außerdem kann, wenn das Kamerasystem konfiguriert ist zum Umschalten der Wirksamkeit des Bildstabilisierungsprozesses nach Übertragung von Bilddaten an die Anzeigevorrichtung 800, der Prozess direkt von dem Schritt S603 zu dem Schritt S605 voranschreiten, indem der Schritt S604 ausgelassen wird.
  • In dem Schritt S605 bringt/fügt die Gesamtsteuerung-CPU 101 den Bildstabilisierungsmodus, der in dem Schritt S302 erhalten wird, und die Gyrodaten, die während des Bildaufnahmevorgangs des Videobilds in Zusammenhang mit dem Rahmen erhalten werden, der in dem Schritt S601a aus dem Primärspeicher 813 gelesen wird, an den Korrekturdaten an.
  • In dem Schritt S606 aktualisiert die Gesamtsteuerung-CPU 101 eine Videodatei 1000 (15) durch/mit Daten, die erhalten werden durch Codieren der Bilddaten des in dem Schritt S601a gelesenen Rahmens und der Korrekturdaten, an denen die verschiedenen Daten in den Schritten S601 bis S605 angebracht/gefügt sind. Es sollte beachtet werden, dass die Videodatei 1000 in dem Schritt S606 erzeugt wird, wenn ein erster Rahmen des Videobilds in dem Schritt S601a gelesen wird.
  • In einem Schritt S607 bestimmt die Gesamtsteuerung-CPU 101, ob alle Rahmen des durch den Aufzeichnungsbereichsentwicklungsprozess (7E) entwickelten Videobilds gelesen wurden. Wenn nicht alle Rahmen gelesen wurden, kehrt der Prozess zu dem Schritt S601a zurück. Indessen verlässt der Prozess diese Unterroutine, wenn alle Rahmen gelesen wurden. Die erzeugte Videodatei 1000 wird in dem internen nichtflüchtigen Speicher 102 gespeichert. Die Videodatei kann zusätzlich zu dem Primärspeicher 813 und dem internen nichtflüchtigen Speicher 102 auch in dem nichtflüchtigen Hochkapazitätsspeicher 51 gespeichert werden. Außerdem wird der Übertragungsprozess (der Schritt S700 in 7A) ausgeführt, der die erzeugte Bilddatei 1000 unmittelbar an die Anzeigevorrichtung 800 überträgt. Die Bilddatei 1000 kann nach deren Übertragung an die Anzeigevorrichtung 800 in den Primärspeicher 813 gespeichert werden.
  • Bei diesem Ausführungsbeispiel meint/bedeutet das Codieren, dass die Bilddaten und die Korrekturdaten in eine Datei kombiniert werden. Dabei können die Bilddaten komprimiert werden, oder kann die Datendatei komprimiert werden, die durch die Bilddaten und die Korrekturdaten kombiniert wird.
  • 15 ist eine Darstellung, die eine Datenstruktur der Videodatei 1000 zeigt. Die Videodatei 1000 besteht aus einem Header- bzw. Kopfteil 1001 und einem Rahmenteil 1002. Der Rahmenteil 1002 besteht aus Rahmendatensätzen, die jeweils aus einem Bild jedes Rahmens und entsprechenden Rahmenmetadaten bestehen. Das heißt, dass der Rahmenteil 1002 Rahmendatensätze der Anzahl der gesamten Rahmen des Videobilds umfasst.
  • Bei diesem Ausführungsbeispiel sind die Rahmenmetadaten Informationen, die erhalten werden durch Codieren von Korrekturdaten, an denen gegebenenfalls eine Extraktionsposition (bildinterne Positionsinformationen), ein optischer Korrekturwert und Gyrodaten angebracht/-gefügt sind. Die Rahmenmetadaten sind jedoch nicht darauf beschränkt. Eine Informationsmenge der Rahmenmetadaten kann geändert werden. Zum Beispiel können weitere bzw. andere Informationen gemäß dem durch den Bildaufnahmemodusschalter 12 ausgewählten Bildaufnahmemodus zu den Rahmenmetadaten hinzugefügt werden. Alternativ kann ein Teil der Informationen in den Rahmenmetadaten gelöscht werden.
  • In dem Header- bzw. Kopfteil 1001 ist ein Offset- bzw. Versatzwert zu den Rahmendatensätzen von jedem Rahmen oder einer Kopf- bzw. Anfangsadresse von jedem Rahmen aufgezeichnet. Alternativ können Metadaten wie die Zeit und die Größe, die der Videodatei 1000 entsprechen, in dem Header- bzw. Kopfteil 1001 gespeichert sein.
  • In dem Primäraufzeichnungsprozess (14) wird die Videodatei 1000 auf diese Weise an die Anzeigevorrichtung 800 übertragen. Die Videodatei 1000 umfasst Datensätze, von denen jeder aus einem Rahmen des durch den Aufzeichnungsbereichsentwicklungsprozess (7E) entwickelten Videobilds und dessen Metadaten besteht. Dementsprechend wendet die Anzeigevorrichtung-Steuereinheit 801 den Korrekturprozess auf das in dem Kamerakörper 1 entwickelte Videobild ordnungsgemäß an, selbst wenn sich die Taktrate bzw. -frequenz der Gesamtsteuerung-CPU 101 in dem Kamerakörper 1 geringfügig von der Taktrate bzw. -frequenz der Anzeigevorrichtung-Steuereinheit 801 in der Anzeigevorrichtung 800 unterscheidet.
  • Obgleich der optische Korrekturwert bei diesem Ausführungsbeispiel in den Rahmenmetadaten umfasst ist, kann der optische Korrekturwert dem gesamten Videobild gegeben bzw. zugeordnet werden/sein.
  • 16 ist ein Ablaufdiagramm, das die Unterroutine des Übertragungsprozesses an die Anzeigevorrichtung 800 in dem Schritt S700 in 7A zeigt. 16 zeigt den Prozess eines Falls, in dem der Videobildmodus durch den Bildaufnahmemodusschalter 12 eingestellt ist. Es sollte beachtet werden, dass dieser Prozess von einem Prozess in einem Schritt S702 startet, wenn der Stehbildmodus ausgewählt ist.
  • In einem Schritt S701 wird bestimmt, ob der Bildaufnahmeprozess (der Schritt S400) des Videobilds durch die Bildaufnahmeeinheit 40 beendet ist oder sich in/unter Aufzeichnung befindet. Wenn das Videobild gerade aufgezeichnet wird (während des Videobildaufnahmevorgangs), werden der Aufzeichnungsbereichsentwicklungsprozess (der Schritt S500) für jeden Rahmen und die Aktualisierung der Bilddatei 1000 (der Schritt S606) in dem Primäraufzeichnungsprozess (dem Schritt S600) sequentiell ausgeführt. Da eine Leistungslast bzw. -belastung einer Drahtlosübertragung groß ist, muss die Batterie 94, wenn die Drahtlosübertragung während des Videobildaufnahmevorgangs parallel durchgeführt wird, eine große Batteriekapazität aufweisen, oder ist eine neue Maßnahme gegen Wärmeerzeugung erforderlich. Außerdem wird, aus Sicht einer arithmetischen Kapazität bzw. Rechenkapazität, wenn die Drahtlosübertragung während des Videobildaufnahmevorgangs parallel durchgeführt wird, eine arithmetische Last bzw. Rechenlast groß, was erfordert, eine CPU mit hoher Spezifikation bzw. Anforderung als die Gesamtsteuerung-CPU 101 bereitzustellen, was die Kosten erhöht.
  • In Anbetracht dieser Punkte schreitet bei diesem Ausführungsbeispiel die Gesamtsteuerung-CPU 101 mit dem Prozess zu einem Schritt S702 voran, nachdem der Videoaufnahmevorgang beendet ist (JA in dem Schritt S701), und richtet sie die Drahtlosverbindung mit der Anzeigevorrichtung 800 ein. Indessen kann, wenn das Kamerasystem des Ausführungsbeispiels eine Toleranz bzw. Spielraum in der von der Batterie 94 zugeführten elektrischen Leistung aufweist und eine neue Maßnahme gegen Wärmeerzeugung nicht erforderlich ist, die Gesamtsteuerung-CPU 101 die Drahtlosverbindung mit der Anzeigevorrichtung 800 vorher herstellen, wenn der Kamerakörper 1 gestartet wird, oder vor einem Starten der Aufzeichnung.
  • In dem Schritt S702 stellt die Gesamtsteuerung-CPU 101 die Verbindung mit der Anzeigevorrichtung 800 über die Hochgeschwindigkeit-Drahtloskommunikationseinheit 72 her, um die Videodatei 1000 mit großem Datenvolumen an die Anzeigevorrichtung 800 zu übertragen. Es sollte beachtet werden, dass die Niedrigleistung-Drahtloskommunikationseinheit 71 zur Übertragung eines Bilds mit niedriger Auflösung zum Überprüfen eines Feldwinkels an die Anzeigevorrichtung 800 verwendet wird und zum Austausch von verschiedenen Einstellwerten mit der Anzeigevorrichtung 800 verwendet wird. Indessen wird die Niedrigleistung-Drahtloskommunikationseinheit 71 nicht zur Übertragung der Videodatei 1000 verwendet, da eine Übertragungsperiode bzw. -zeit lang wird.
  • In einem Schritt S703 überträgt die Gesamtsteuerung-CPU 101 die Videodatei 1000 über die Hochgeschwindigkeit-Drahtloskommunikationseinheit 72 an die Anzeigevorrichtung 800. Wenn die Übertragung beendet ist, schreitet die Gesamtsteuerung-CPU 101 mit dem Prozess zu einem Schritt S704 voran. In dem Schritt S704 schließt bzw. trennt die Gesamtsteuerung-CPU 101 die Verbindung mit der Anzeigevorrichtung 800, und verlässt sie diese Unterroutine.
  • Bisher wurde der Fall beschrieben, in dem eine Bilddatei die Bilder von allen Rahmen eines Videobilds umfasst. Indessen kann, wenn die Aufzeichnungsperiode bzw. -zeit des Videobilds länger als mehrere Minuten ist, das Videobild durch/mit einer Einheitszeit bzw. Zeiteinheit in eine Vielzahl von Bilddateien unterteilt werden. Wenn die Videodatei die in 15 gezeigten Datenstruktur aufweist, kann die Anzeigevorrichtung 800 selbst dann, wenn ein Videobild an die Anzeigevorrichtung 800 als eine Vielzahl von Bilddateien übertragen wird, das Videobild ohne die Zeitlücke mit den Korrekturdaten korrigieren.
  • 17 ist ein Ablaufdiagramm, das eine Unterroutine des optischen Korrekturprozesses in dem Schritt S800 in 7A zeigt. Nachstehend wird hierin dieser Prozess auch durch Bezugnahme auf 18A bis 18E beschrieben. Wie es vorstehend dargelegt ist, wird dieser Prozess durch die Anzeigevorrichtung-Steuereinheit 801 der Anzeigevorrichtung 800 ausgeführt.
  • In einem Schritt S801 empfängt die Anzeigevorrichtung-Steuereinheit 801 zunächst die Videodatei 1000, die in dem Übertragungsprozess (dem Schritt S700) an die Anzeigevorrichtung 800 übertragen wird, von dem Kamerakörper 1. Danach erhält die Anzeigevorrichtung-Steuereinheit 801 den aus der empfangenen Videodatei 1000 extrahierten optischen Korrekturwert.
  • Als Nächstes erhält die Anzeigevorrichtung-Steuereinheit 801 in einem Schritt S802 ein Bild (ein Bild eines durch den Videobildaufnahmevorgang erhaltenen Rahmens) aus der Videodatei 1000.
  • In einem Schritt S803 korrigiert die Anzeigevorrichtung-Steuereinheit 801 eine optische Aberration des in dem Schritt S802 erhaltenen Bilds mit dem in dem Schritt S801 erhaltenen optischen Korrekturwert, und speichert sie das korrigierte Bild in den Primärspeicher 813. Wenn die Extraktion aus dem in dem Schritt S802 erhaltenen Bild bei der optischen Korrektur durchgeführt wird, wird ein Bildbereich (Extraktionsentwicklungsbereich), der schmäler als der Entwicklungsbereich (Zielsehfeld 125i) ist, der in dem Schritt S303 bestimmt wird, extrahiert und dem Prozess unterzogen.
  • 18A bis 18F sind Darstellungen zur Beschreibung eines Prozesses zur Anwendung einer Verzerrungskorrektur in dem Schritt S803 in 17.
  • 18A ist eine Darstellung, die eine Position eines Objekts 1401 zeigt, auf das der Benutzer mit bloßem Auge beim Aufnehmen eines Bilds schaut. 18B ist eine Darstellung, die ein Bild des Objekts 1401 zeigt, das auf dem Festkörperbildsensor 42 ausgebildet wird.
  • 18C ist eine Darstellung, die einen Entwicklungsbereich 1402 in dem Bild in 18B zeigt. Der Entwicklungsbereich 1402 ist der genannte Extraktionsentwicklungsbereich.
  • 18D ist eine Darstellung, die ein Extraktionsentwicklungsbild zeigt, das durch Extrahieren des Bilds des Entwicklungsbereichs 1402 erhalten wird. 18E ist eine Darstellung, die ein Bild zeigt, das durch Korrigieren einer Verzerrung in dem in 18D gezeigten Extraktionsentwicklungsbild erhalten wird. Da ein Extraktionsprozess beim Korrigieren einer Verzerrung des Extraktionsentwicklungsbilds durchgeführt wird, wird ein Feldwinkel des in 18E gezeigten Bilds noch kleiner als derjenige des in 18D gezeigten Extraktionsentwickl u ngsbi lds.
  • 19 ist ein Ablaufdiagramm, das eine Unterroutine des Bildstabilisierungsprozesses in dem Schritt S900 in 7A zeigt. Nachstehend wird dieser Prozess hierin auch durch Bezugnahme auf 18F beschrieben. Wie es vorstehend dargelegt ist, wird dieser Prozess durch die Anzeigevorrichtung-Steuereinheit 801 der Anzeigevorrichtung 800 ausgeführt.
  • In einem Schritt S901 erhält die Anzeigevorrichtung-Steuereinheit 801 Gyrodaten eines aktuellen Rahmens, Gyrodaten eines vorherigen Rahmens und einen Unschärfebetrag Vn-1 Det, der in einem nachstehend dargelegten Schritt S902 für den vorherigen Rahmen berechnet wird/ist, aus den Rahmenmetadaten der Videodatei 1000. Danach wird aus diesen Informationselementen ein grober Unschärfebetrag Vn Pre berechnet. Es sollte beachtet werden, dass ein aktueller Rahmen bei diesem Ausführungsbeispiel ein Rahmen unter Verarbeitung ist, und dass ein vorheriger Rahmen ein unmittelbar vorangehender Rahmen ist.
  • In einem Schritt S902 berechnet die Anzeigevorrichtung-Steuereinheit 801 einen feinen Unschärfebetrag Vn Det aus der Videodatei. Ein Unschärfebetrag wird durch Berechnen eines Bewegungsbetrags eines Merkmalspunkts in dem Bild von einem vorherigen Rahmen zu einem aktuellen Rahmen detektiert.
  • Ein Merkmalspunkt kann durch ein bekanntes Verfahren extrahiert werden. Zum Beispiel kann ein Verfahren unter Verwendung eines Luminanzinformationsbilds eingesetzt werden, das erzeugt wird, indem nur Luminanzinformationen eines Bilds eines Rahmens extrahiert werden. Dieses Verfahren subtrahiert ein Bild, das das ursprüngliche Luminanzinformationsbild um ein oder mehr Pixel verschiebt, von dem ursprünglichen Luminanzinformationsbild. Ein Pixel, dessen Differenzabsolutwert einen Schwellenwert überschreitet, wird als Merkmalspunkt extrahiert. Außerdem kann als Merkmalspunkt eine Kante extrahiert werden, die durch Subtrahieren eines Bilds, das durch Anwenden eines Hochpassfilters auf das vorgenannte Luminanzinformationsbild erzeugt wird, von dem ursprünglichen Luminanzinformationsbild extrahiert wird.
  • Differenzen werden mehrere Male berechnet, während die Luminanzinformationsbilder des aktuellen Rahmens und des vorherigen Rahmens um ein oder mehr Pixel verschoben werden. Der Bewegungsbetrag wird erhalten durch Berechnen einer Position, an der die Differenz an dem Pixel des Merkmalspunkts abnimmt.
  • Da eine Vielzahl von Merkmalspunkten notwendig sind, wie es nachstehend dargelegt ist, ist es bevorzugt, jedes der Bilder des aktuellen Rahmens und des vorherigen Rahmens in eine Vielzahl von Blöcken zu unterteilen und einen Merkmalspunkt für jeden Block zu extrahieren. Eine Blockunterteilung hängt von der Anzahl von Pixeln und einem Seitenverhältnis des Bilds ab. Im Allgemeinen sind 12 Blöcke aus 4*3 oder 54 Blöcke aus 9*6 bevorzugt. Wenn die Anzahl von Blöcken zu gering ist, können eine Trapezverzerrung aufgrund einer Neigung bzw. Schieflage der Bildaufnahmeeinheit 40 des Kamerakörpers 1 und eine Dreh- bzw. Rotationsunschärfe rund um die optische Achse, usw. nicht korrekt korrigiert werden. Indessen wird, wenn die Anzahl von Blöcken zu groß ist, eine Größe eines Blocks klein, was eine Entfernung zwischen benachbarten Merkmalspunkten verkürzt, wodurch ein Fehler verursacht wird. Auf diese Weise wird die optimale Anzahl von Blöcken abhängig von der Pixelanzahl, einer Leichtigkeit bzw. Einfachheit einer Detektion von Merkmalspunkten, einem Feldwinkel eines Objekts, usw. ausgewählt.
  • Da die Berechnung des Bewegungsbetrags eine Vielzahl von Differenzberechnungen erfordert, während die Luminanzinformationsbilder des aktuellen Rahmens und des vorherigen Rahmens um ein oder mehr Pixel verschoben werden, nimmt der Rechenbetrag bzw. -umfang zu. Da der Bewegungsbetrag tatsächlich auf Grundlage des groben Unschärfebetrags Vn Pre und einer Abweichung (der Anzahl von Pixeln) von diesem berechnet wird, werden die Differenzberechnungen nur nahe des groben Unschärfebetrags durchgeführt, was den Rechenbetrag bzw. -umfang erheblich verringern kann.
  • Als Nächstes führt die Anzeigevorrichtung-Steuereinheit 801 in einem Schritt S903 den Bildstabilisierungsprozess unter Verwendung des feinen Unschärfebetrags Vn Det durch, der in dem Schritt S902 erhalten wird. Und dann verlässt der Prozess diese Unterroutine.
  • Es sollte beachtet werden, dass eine euklidsche Transformation und eine affine Transformation, die eine Drehung und eine Parallelverschiebung ermöglichen, und eine Projektionstransformation, die eine Keystone- bzw. Trapezkorrektur ermöglicht, als das Verfahren des Bildstabilisierungsprozesses bekannt sind.
  • Obwohl die euklidsche Transformation eine Bewegung in einer X-Achse-Richtung und einer Y-Achse-Richtung sowie eine Drehung korrigieren kann, kann sie eine Unschärfe nicht korrigieren, die verursacht wird durch eine Kameraerschütterung bzw. -bewegung der Bildaufnahmeeinheit 40 des Kamerakörpers 1 in einer Vorne-Hinten-Richtung oder Schwenk- und Kipprichtungen. Dementsprechend wird bei diesem Ausführungsbeispiel der Bildstabilisierungsprozess unter Verwendung der affinen Transformation ausgeführt, die eine Schieflage- bzw. Schrägstellungskorrektur ermöglicht. Die affine Transformation von einer Koordinate (x, y) des Merkmalspunkts, der als Kriterium verwendet wird, auf eine Koordinate (x', y') wird durch die folgende Formel 100 ausgedrückt. ( x ' y ' 1 ) = ( a b c d e ƒ 0 0 1 ) ( x y 1 )
    Figure DE102022118931A1_0001
  • Affine Koeffizienten einer 3*3-Matrix der Formel 100 sind berechenbar, wenn Abweichungen von zumindest drei Merkmalspunkten detektiert werden. Wenn die detektierten Merkmalspunkte nahe beieinander liegen oder auf einer Geraden ausgerichtet sind, wird jedoch der Bildstabilisierungsprozess in Bereichen ungenau, die von den Merkmalspunkten oder von der Geraden entfernt liegen. Dementsprechend ist es bevorzugt, die zu detektierenden Merkmalspunkte auszuwählen, die entfernt voneinander liegen und nicht auf einer Geraden liegen. Dementsprechend werden, wenn eine Vielzahl von Merkmalspunkten detektiert werden, gegenseitig nahe Merkmalspunkte ausgeschlossen und verbleibende Merkmalspunkte durch ein Kleinste-Quadrate-Verfahren normiert.
  • 18F ist eine Darstellung, die ein Bild zeigt, das erhalten wird durch Anwenden des Bildstabilisierungsprozesses in dem Schritt S903 auf das in 18E gezeigte verzerrungskorrigierte Bild. Da der Extraktionsprozess beim Ausführen des Bildstabilisierungsprozesses durchgeführt wird, wird ein Feldwinkel des in 18F gezeigten Bilds kleiner als derjenige des in 18E gezeigten Bilds.
  • Es ist machbar, ein hochqualitatives Bild, dessen Unschärfe korrigiert ist, durch Durchführen eines solchen Bildstabilisierungsprozesses zu erhalten.
  • Vorstehend wurde die Aufeinanderfolge von Betriebsvorgängen beschrieben, die durch den Kamerakörper 1 und die Anzeigevorrichtung 800 ausgeführt werden, die in dem Kamerasystem dieses Ausführungsbeispiels umfasst sind.
  • Wenn der Benutzer den Videobildmodus durch den Bildaufnahmemodusschalter 12 nach Schalten des Leistungsschalters 11 auf EIN auswählt und nach vorne schaut, ohne das Gesicht in der vertikalen und der horizontalen Richtung zu drehen, detektiert die Gesichtsrichtungsdetektionseinheit 20 die Blick- bzw. Beobachtungsrichtung vo (Vektorinformationen [0°, 0°]), wie es in 12A gezeigt ist. Danach extrahiert die Aufzeichnungsrichtungs-/ Feldwinkelbestimmungseinheit 30 das Bild (11B) in dem in 12A gezeigten Zielsehfeld 125o aus dem auf den Festkörperbildsensor 42 projizierten Superweitwinkelbild.
  • Danach, wenn der Benutzer zum Beispiel das Kind (A-Objekt 131) in 11A zu betrachten bzw. zu beobachten beginnt, ohne den Kamerakörper 1 zu bedienen bzw. zu betätigen, detektiert die Gesichtsrichtungsdetektionseinheit 20 die Blick- bzw. Beobachtungsrichtung vm (Vektorinformationen [-42°, -40°]), wie es in 11C gezeigt ist. Danach extrahiert die Aufzeichnungsrichtungs-/ Feldwinkelbestimmungseinheit 30 das Bild (11C) in dem Zielsehfeld 125m aus dem durch die Bildaufnahmeeinheit 40 aufgenommenen Superweitwinkelbild.
  • Auf diese Weise wendet die Anzeigevorrichtung 80 den optischen Korrekturprozess und den Bildstabilisierungsprozess auf das extrahierte Bild der von der Blick- bzw. Beobachtungsrichtung abhängigen Form in den Schritten S800 und S900 an. Selbst wenn die Spezifikation bzw. Anforderung der Gesamtsteuerung-CPU 101 des Kamerakörpers 1 gering ist, wird dadurch das erheblich verzerrte Bild in dem Zielsehfeld 125m (11C) in das Bild rund um das Kind (A-Objekt) 131 umgewandelt, dessen Unschärfe und Verzerrung korrigiert sind, wie es in 11D gezeigt ist. Das heißt, dass der Benutzer in der Lage ist, ein in der eigenen Blick- bzw. Beobachtungsrichtung aufgenommenes Bild zu erhalten, selbst wenn der Benutzer den Kamerakörper 1 nicht berührt, mit Ausnahme des Schaltens des Leistungsschalters 11 auf EIN und des Auswählens des Modus bzw. der Betriebsart mit dem Bildaufnahmemodusschalter 12.
  • Hierin nachstehend wird der voreingestellte Modus beschrieben. Da der Kamerakörper 1 eine kompakte tragbare Vorrichtung ist, wie es vorstehend dargelegt ist, sind Bedienschalter, ein Einstellbildschirm, usw. zum Ändern von erweiterten bzw. fortgeschrittenen Einstellwerten an dem Kamerakörper 1 nicht installiert. Dementsprechend werden bei diesem Ausführungsbeispiel die erweiterten bzw. fortgeschrittenen Einstellwerte des Kamerakörpers 1 unter Verwendung des Einstellbildschirms (13) der Anzeigevorrichtung 800 als externe Vorrichtung geändert.
  • Zum Beispiel wird ein Fall betrachtet, in dem der Benutzer während eines durchgehenden Aufnehmens eines Videobilds den Feldwinkel von 90° auf 45° ändern möchte. In einem solchen Fall sind die folgenden Bedienvorgänge erforderlich. Da der Feldwinkel in einem regulären Videobildmodus auf 90° eingestellt ist, führt der Benutzer den Videobildaufnahmevorgang in dem regulären Videobildmodus durch, beendet er den Videobildaufnahmevorgang einmal, zeigt er den Einstellbildschirm des Kamerakörpers 1 auf der Anzeigevorrichtung 800 an, und ändert er auf dem Einstellbildschirm den Feldwinkel auf 45°. Diese Bedienung an der Anzeigevorrichtung 800 während des fortlaufenden Bildaufnahmevorgangs ist jedoch mühsam, und es kann ein Bild, das der Benutzer aufnehmen möchte, verpasst werden.
  • Indessen kann der Benutzer, wenn der voreingestellte Modus auf einen Videobildaufnahmevorgang mit dem Feldwinkel 45° voreingestellt ist, auf einen heraufgezoomten Videobildaufnahmevorgang mit dem Feldwinkel 45° unmittelbar ändern, indem er nur den Bildaufnahmemodusschalter 12 auf „Pre“ schiebt, nachdem der Videobildaufnahmevorgang mit dem Feldwinkel 90° beendet ist. Das heißt, dass es für den Benutzer nicht erforderlich ist, den aktuellen Bildaufnahmevorgang auszusetzen und die vorgenannten mühsamen Bedienvorgänge durchzuführen.
  • Die Inhalte des voreingestellten Modus können den Bildstabilisierungsgrad („Stark“, „Mittel“ oder „AUS“) und einen Einstellwert einer Spracherkennung, die bei diesem Ausführungsbeispiel nicht beschrieben ist, zusätzlich zu dem Feldwinkel umfassen.
  • Zum Beispiel, wenn der Benutzer den Bildaufnahmemodusschalter 12 von dem Videobildmodus auf den voreingestellten Modus umschaltet, während er das Kind (A-Objekt) 131 in der vorhergehenden Bildaufnahmesituation durchgehend beobachtet, wird der Feldwinkel-Einstellwert Vang von 90° auf 45° geändert. In diesem Fall extrahiert die Aufzeichnungsrichtungs-/ Feldwinkelbestimmungseinheit 30 das Bild in dem Zielsehfeld 128m, das in 11E durch einen Rahmen mit gestrichelter Linie gezeigt ist, aus dem durch die Bildaufnahmeeinheit 40 aufgenommenen Superweitwinkelbild.
  • Auch in dem voreingestellten Modus werden der optische Korrekturprozess und der Bildstabilisierungsprozess an der Anzeigevorrichtung 800 in den Schritten S800 und S900 durchgeführt. Selbst wenn die Spezifikation bzw. Anforderung der Gesamtsteuerung-CPU 101 des Kamerakörpers 1 gering ist, wird dadurch das heraufgezoomte Bild rund um das Kind (A-Objekt) 131 erhalten, dessen Unschärfe und Verzerrung korrigiert sind, wie es in 11F gezeigt ist. Obgleich der Fall beschrieben wurde, in dem der Feldwinkel-Einstellwert Vang in dem Videobildmodus von 90° auf 45° geändert wird, ist der Prozess in dem Stehbildmodus ähnlich. Außerdem ist auch ein Fall ähnlich, in dem der Feldwinkel-Einstellwert Vang eines Videobilds 90° ist und der Feldwinkel-Einstellwert Vang eines Stehbilds 45° ist.
  • In dieser Weise ist der Benutzer in der Lage, das heraufgezoomte Bild zu erhalten, das die eigene Blick- bzw. Beobachtungsrichtung aufnimmt, indem lediglich der Modus mit dem Bildaufnahmemodusschalter 12 des Kamerakörpers 1 umgeschaltet wird.
  • Obgleich bei diesem Ausführungsbeispiel der Fall beschrieben ist, in dem die Gesichtsrichtungsdetektionseinheit 20 und die Bildaufnahmeeinheit 40 in dem Kamerakörper 1 integral ausgebildet sind, ist die Konfiguration nicht darauf beschränkt, solange die Gesichtsrichtungsdetektionseinheit 20 an dem Körper des Benutzers abgesehen von dem Kopf getragen wird und die Bildaufnahmeeinheit 40 an dem Körper des Benutzers getragen wird. Zum Beispiel kann die Bildaufnahme/-Detektionseinheit 10 dieses Ausführungsbeispiels an einer Schulter oder einem Bauch getragen werden. Wenn die Bildaufnahmeeinheit 40 an einer rechten Schulter getragen wird, wird jedoch ein Objekt der linken Seite durch den Kopf versperrt. In einem solchen Fall ist es bevorzugt, dass eine Vielzahl von Bildaufnahmeeinheiten an Stellen getragen werden, die eine rechte Schulter umfassen. Wenn die Bildaufnahmeeinheit 40 an einem Bauch getragen wird, tritt außerdem eine räumliche Parallaxe zwischen der Bildaufnahmeeinheit 40 und dem Kopf auf. In einem solchen Fall ist es bevorzugt, eine Korrekturberechnung der Blick- bzw. Beobachtungsrichtung durchzuführen, die eine solche Parallaxe kompensiert, wie es bei einem dritten Ausführungsbeispiel beschrieben ist.
  • Nachstehend wird hierin ein zweites Ausführungsbeispiel beschrieben. Das zweite Ausführungsbeispiel ist in der Konfiguration grundsätzlich identisch mit dem ersten Ausführungsbeispiel, aber eine Bildaufnahme-/Detektionseinheit 1100 ist in dem Kamerakörper 1 anstelle der Bildaufnahme-/Detektionseinheit 10 bereitgestellt. Hierin nachstehend ist eine Komponente, die die gleiche Funktion und Konfiguration wie die Komponente aufweist, die bei dem ersten Ausführungsbeispiel bereits beschrieben ist, durch das gleiche Bezugszeichen bezeichnet, wird deren Beschreibung in der Schrift ausgelassen, und wird nur eine für das zweite Ausführungsbeispiel besondere bzw. eigentümliche Konfiguration beschrieben.
  • 20 ist eine perspektivische Explosionsdarstellung, die die Konfiguration der Bildaufnahme-/Detektionseinheit 1100 gemäß dem zweiten Ausführungsbeispiel schematisch veranschaulicht. Wie es in 20 gezeigt ist, weist die Bildaufnahme-/Detektionseinheit 1100 eine Bildaufnahmeeinheit zum Aufnehmen eines Objekts und eine Blickrichtungsdetektionseinheit zum Detektieren einer Blick- bzw. Beobachtungsrichtung eines Benutzers auf. Die Bildaufnahmeeinheit ist mit einer/einem Bildaufnahmelinse/-objektiv 1101 und einem Bildsensor 1103a versehen bzw. ausgestattet. Die Blickrichtungsdetektionseinheit ist mit einer/einem Gesichtsrichtungsdetektionslinse/-objektiv 1102 und einem (nicht gezeigtem) Bildsensor versehen bzw. ausgestattet. Die/das Bildaufnahmelinse/ -objektiv 1101 und der Bildsensor 1103a sind durch ein Substrat 1103 getragen. Außerdem sind die/das Gesichtsrichtungsdetektionslinse/-objektiv 1102 und der (nicht gezeigte) Bildsensor durch ein flexibles Substrat 1110 getragen. Außerdem weist die Bildaufnahme-/Detektionseinheit 1100 eine vordere Abdeckung 1104, eine hintere Abdeckung 1105, eine obere Abdeckung 1109 und einen Linsen-/ Objektivdeckel (ein Schutzelement) 1111 auf, das die/das Bildaufnahmelinse/- objektiv 1101 schützt.
  • Infrarot-LEDs (Lichtemissionselemente) 1110a und 1110b, die jeden Teil eines Gesichts eines Benutzers mit Infrarotlicht bestrahlen, und eine Schaltung zum Be-/Erleuchten von diesen sind an dem flexiblen Substrat 1110 installiert. Es sollte beachtet werden, dass die Anzahl der Infrarot-LEDs nicht auf zwei beschränkt ist. Die obere Abdeckung 1109 ist ein transparentes Plattenelement und über der/dem Gesichtsrichtungsdetektionslinse/-objektiv 1102 und den Infrarot-LEDs 1110a und 1110b angeordnet. In der vorderen Abdeckung 1104 ist eine Öffnung 1104a an einer Stelle ausgebildet, die der/dem Bildaufnahmelinse/- objektiv 1101 gegenüberliegt bzw. entspricht. Bei dem zweiten Ausführungsbeispiel ist die/das Bildaufnahmelinse/-objektiv 1101 eine/ein Fischaugenlinse/-objektiv, und ein Teil von dieser/diesem rangt durch die Öffnung 1104a von der vorderen Abdeckung 1104 nach außen hervor.
  • 21 ist eine Darstellung, die einen Zustand zeigt, in dem ein Benutzer 1112 den mit der Bildaufnahme-/Detektionseinheit 1100 ausgestatteten Kamerakörper 1 trägt. In 21 sind die Komponenten, wie etwa die Verbindungselemente 80L und 80R und die Batterieeinheit 90s, des Kamerakörpers 1 abgesehen von der Bildaufnahme-/Detektionseinheit 1100 nicht gezeigt.
  • Wie es in 21 gezeigt ist, trägt der Benutzer 1112 den Kamerakörper 1, so dass sich die Bildaufnahme-/Detektionseinheit 1100 auf einer Medianebene (die in der Zeichnung durch eine Strichpunktlinie gezeigt ist) des Benutzers 1112 und unter einem Kiefer befindet. Wenn der Kamerakörper 1 von der Vorderseite des Benutzers 1112 aus gesehen wird, stimmt eine optische Achse OA2 der/des Gesichtsrichtungsdetektionslinse/-objektivs 1102 in der Bildaufnahme-/ Detektionseinheit 1100 ungefähr mit der Medianebene des Benutzers 1112 überein, und zeigt die/das Gesichtsrichtungsdetektionslinse/-objektiv 1102 auf den Kiefer des Benutzers 1112. Außerdem stimmt auch eine optische Achse OA1 der/des Bildaufnahmelinse/-objektivs 1101 ungefähr mit der Medianebene des Benutzers 1112 überein. Es sollte beachtet werden, dass sich die/das Bildaufnahmelinse/-objektiv 1101 unter der/dem Gesichtsrichtungsdetektionslinse/-objektiv 1102 befindet, wenn der Benutzer 1112 mit dem Kamerakörper 1 ausgestattet ist.
  • 22A und 22B sind Darstellungen zur Beschreibung eines Betriebs bzw. einer Funktion des Linsen-/Objektivdeckels 1111. 22A zeigt einen Nichtbildaufnahmezustand, und 22B zeigt einen Bildaufnahmezustand. Beide zeigen einen Fall, in dem die Bildaufnahme-/Detektionseinheit 1100 von der Vorderseite aus gesehen wird. Außerdem ist 23A eine Schnittdarstellung entlang der optischen Achse OA1 und der optischen Achse OA2, die eine interne Konfiguration der Bildaufnahme-/Detektionseinheit 1100 in dem Nichtbildaufnahmezustand zeigt. 23B ist eine Schnittdarstellung entlang der optischen Achse OA1 und der optischen Achse OA2, die die interne Konfiguration der Bildaufnahme-/Detektionseinheit 1100 in dem Bildaufnahmezustand zeigt. 24 ist eine Vorderansicht, die die Bildaufnahme-/Detektionseinheit 1100 zeigt, wenn die vordere Abdeckung 1104 entfernt ist.
  • Der Linsen-/Objektivdeckel 1111 ist an der vorderen Abdeckung 1104 so angebracht, dass er in der vertikalen Richtung (einer Y-Richtung in der Zeichnung) ge-/verschoben werden kann, wenn der Benutzer 1112 mit dem Kamerakörper 1 ausgestattet ist. In dem Nichtbildaufnahmezustand (einem ersten Zustand) bewegt sich der Linsen-/Objektivdeckel 1111 nach unten, und deckt er die/das Bildaufnahmelinse/-objektiv 1101 ab, dessen Teil aus der Öffnung 1104a herausragt (22A, 23A). Außerdem bewegt sich der Linsen-/Objektivdeckel 1111 in dem Bildaufnahmezustand (einem zweiten Zustand) nach oben, um die/das Bildaufnahmelinse/-objektiv 1101 nach außen freizulegen, und ragt ein Teil des Linsen-/Objektivdeckels 1111 von dem oberen Ende der vorderen Abdeckung 1104 hervor (22B, 23B). Das heißt, dass der Linsen-/Objektivdeckel 1111 zwischen dem Nichtbildaufnahmezustand und dem Bildaufnahmezustand durch Verschiebung in der vertikalen Richtung variiert.
  • Wie es in 23A und 23B gezeigt ist, sind die/das Gesichtsrichtungsdetektionslinse/-objektiv 1102, das flexible Substrat 1110 und das Substrat 1103 zwischen der vorderen Abdeckung 1104 und der hinteren Abdeckung 1105 eingefügt und aufgenommen bzw. gelagert. Außerdem deckt die obere Abdeckung 1109 die/das Gesichtsrichtungsdetektionslinse/-objektiv 1102 ab. Die optische Achse OA1 der/des Bildaufnahmelinse/-objektivs 1101 stimmt ungefähr mit einem Bildaufnahmezentrum des an dem Substrat 1103 installierten Bildsensors 1103a überein. Außerdem ist die/das Gesichtsrichtungsdetektionslinse/-objektiv 1102 an einer Position (oberen Position) angeordnet, die mit Bezug auf die/das Bildaufnahmelinse/-objektiv 1101 in der Y-Richtung versetzt ist. Wie es vorstehend dargelegt ist, stimmt auch die optische Achse OA2 (die in der Zeichnung durch eine gestrichelte Linie gezeigt ist) ungefähr mit der Medianebene des Benutzers 1112 überein, und stimmt auch die optische Achse OA2 (die in der Zeichnung durch eine gestrichelte Linie gezeigt ist) ungefähr mit der Medianebene des Benutzers 1112 überein. Dementsprechend schneiden sich die optische Achse OA1 und die optische Achse OA2 auf der Medianebene.
  • Die/das Gesichtsrichtungsdetektionslinse/-objektiv 1102 ist durch das flexible Substrat 1110 getragen, das die Infrarot-LEDs 1110a und 1110b durch den (nicht gezeigten) Bildsensor implementiert, und ist das flexible Substrat 1110 mit einem Verbinder bzw. Anschlusselement des Substrats 1103 verbunden. Außerdem ist das Speichermedium 1103c an dem Substrat 1103 installiert.
  • Wie bei dem ersten Ausführungsbeispiel befindet sich auch bei dem zweiten Ausführungsbeispiel die/das Gesichtsrichtungsdetektionslinse/-objektiv 1102 genau unter dem Kiefer des Benutzers 1112, und zeigt es auf den Kiefer des Benutzers 1112, wenn der Benutzer 1112 den Kamerakörper 1 trägt.
  • Außerdem befindet sich bei der Bildaufnahme-/Detektionseinheit 1100 die optische Achse OA1 der/des Bildaufnahmelinse/-objektivs 1101 auf der optischen Achse OA2 der/des Gesichtsrichtungsdetektionslinse/-objektivs 1102. Ferner sind die zwei Infrarot-LEDs 1110a und 1110b an dem flexiblen Substrat in Linien- bzw. Achsensymmetrie bezüglich der optischen Achse OA2 der/des Gesichtsrichtungsdetektionslinse/-objektivs 1102 installiert. Dadurch ist die Gewichtsbalance der Bildaufnahme-/Detektionseinheit 1100 stabilisiert, was verhindern kann, dass sich die/das Bildaufnahmelinse/-objektiv 1101 und die/das Gesichtsrichtungsdetektionslinse/-objektiv 1102 mit Bezug auf die Medianebene neigen. Als Folge hiervon kann der Benutzer 1112, wenn er den Kamerakörper 1 des zweiten Ausführungsbeispiels trägt, ein Bild mit dem betreffenden Kamerakörper 1 stabil aufnehmen.
  • Da die optische Achse OA2 der/des Gesichtsrichtungsdetektionslinse/-objektivs 1102 und die optische Achse OA1 der/des Bildaufnahmelinse/-objektivs 1101 auf der Medianebene schneiden, sind außerdem die Positionen der optischen Achsen der/des Gesichtsrichtungsdetektionslinse/-objektivs 1102 und der/des Bildaufnahmelinse/-objektivs 1101 in der Querrichtung (X-Richtung in der Zeichnung) abgestimmt bzw. zusammenfallend. Wenn der Bereich des Bildaufzeichnungsrahmens, der aus dem bei dem ersten Ausführungsbeispiel beschriebenen Superweitwinkelbild extrahiert wird, bestimmt wird, wird es dadurch unnötig, die Abweichung zwischen der optischen Achsen der/des Gesichtsrichtungsdetektionslinse/-objektivs 1102 und der/des Bildaufnahmelinse/-objektivs 1101 in der Querrichtung zu berücksichtigen. Als Folge hiervon kann die Last des Rechenprozesses zum Bestimmen des Extraktionsbereichs verringert werden.
  • Als Nächstes werden Einzelheiten des Schiebebetriebs bzw. -vorgangs des Linsen-/Objektivdeckels 1111 bei dem zweiten Ausführungsbeispiel beschrieben. Die/das Bildaufnahmelinse/-objektiv 1101 bei dem zweiten Ausführungsbeispiel ist die/das Fischaugenlinse/-objektiv, wie es vorstehend dargelegt ist, und Teil von dieser/diesem ragt von der Öffnung 1104a der vorderen Abdeckung 1104 nach vorne (Z-Richtung in der Zeichnung) hervor. Dementsprechend kann, wenn sich der Linsen-/Objektivdeckel 1111 in der vertikalen Richtung (Y-Richtung in der Zeichnung) ohne Bewegung in der Vorne-Hinten-Richtung bewegen soll, der Linsen-/Objektivdeckel 1111 mit dem hervorragenden Teil der/des Bildaufnahmelinse/-objektivs 1101 interferieren bzw. sich störend beeinträchtigen.
  • Um die Interferenz bzw. störende Beeinträchtigung zu vermeiden, wird der Linsen-/Objektivdeckel 1111, wenn er sich in der vertikalen Richtung bewegt, bei dem zweiten Ausführungsbeispiel auch in der Vorne-Hinten-Richtung bewegt. Im Speziellen bewegt sich der Linsen-/Objektivdeckel 1111 nach vorne (23A), wenn sich der Linsen-/Objektivdeckel 1111 nach unten bewegt, um die/das Bildaufnahmelinse/-objektiv 1101 abzudecken. Außerdem bewegt sich der Linsen-/Objektivdeckel 1111 zurück (23B), wenn sich der Linsen-/ Objektivdeckel 1111 entlang der Oberfläche der vorderen Abdeckung 1104 nach oben bewegt. Dabei zieht sich der Linsen-/Objektivdeckel 1111 von der optischen Achse OA1 der/des Bildaufnahmelinse/-objektivs 1101 zurück. Eine Verflechtung bzw. ein Ineinandergreifen zwischen der Bewegung in der vertikalen Richtung und der Bewegung in der Vorne-Hinten-Richtung des Linsen-/Objektivdeckels 1111 wird durch einen (nicht gezeigten) Nocken- bzw. Mitnehmerverbindungsmechanismus erreicht, der zwischen dem Linsen-/ Objektivdeckel 1111 und der vorderen Abdeckung 1104 eingerichtet ist. Eine in diesem Nocken- bzw. Mitnehmerverbindungsmechanismus ausgebildete Nocken- bzw. Mitnehmerortskurve hat eine Form, die einer gekrümmten Oberfläche der/des Bildaufnahmelinse/-objektivs 1101 folgt. Dadurch interferiert der Linsen/-Objektivdeckel 1111 nicht mit der Oberfläche der/des Bildaufnahmelinse/-objektivs 1101, und bewegt er sich so, dass er der betreffenden Oberfläche folgt bzw. nachgeht. Es sollte beachtet werden, dass der Linsen-/Objektivdeckel 1111 durch den Benutzer 1112 in der vertikalen Richtung manuell bewegt wird. Außerdem kann ein Motor bereitgestellt sein, der den Nocken- bzw. Mitnehmerverbindungsmechanismus antreibt, und kann der Linsen-/Objektivdeckel 1111 durch einen Motorantrieb, der durch eine Bedienung bzw. Betätigung einer Taste, usw. durch den Benutzer 1112 ausgelöst wird, in der vertikalen Richtung bewegt werden.
  • Wie es vorstehend dargelegt ist, ragt außerdem, wenn der Linsen-/ Objektivdeckel 1111 nach oben bewegt ist und die/das Bildaufnahmelinse/ -objektiv 1101 nach außen freigelegt ist, ein Teil des Linsen-/Objektivdeckels 1111 von dem oberen Ende der vorderen Abdeckung 1104 hervor (22B, 23B). Der hervorragende Teil des Linsen-/Objektivdeckels 1111 wirkt als eine Abschirmungswand, die einen Einfall von externem Licht wie etwa Sonnenlicht, das von der Vorderseite des Benutzers 1112 einfällt, in die/das Gesichtsrichtungsdetektionslinse/-objektiv 1102 über die obere Abdeckung 1109 verringert. Dies verhindert eine Verringerung der Genauigkeit einer Detektion der Blick- bzw. Beobachtungsrichtung des Benutzers 1112 durch die Blickrichtungsdetektionseinheit. Das heißt, dass der Linsen-/Objektivdeckel 1111 zwei Funktionen des Abdeckens und Schützens der/des Bildaufnahmelinse/ -objektivs 1101 in dem Nichtbildaufnahmezustand und des Verringerns des Einfalls des externen Lichts in die/das Gesichtsrichtungsdetektionslinse/-objektiv 1102 in dem Bildaufnahmezustand verwirklicht, was zu der Miniaturisierung des Kamerakörpers 1 und der Vereinfachung der Konfiguration beiträgt.
  • Als Nächstes wird ein drittes Ausführungsbeispiel beschrieben. Das dritte Ausführungsbeispiel ist in der Konfiguration grundsätzlich identisch mit dem zweiten Ausführungsbeispiel, aber die Kontur bzw. der Umriss der Bildaufnahme-/Detektionseinheit 1100 unterscheidet sich. Hierin nachstehend ist eine Komponente, die die gleiche Funktion und Konfiguration wie die Komponente aufweist, die bei dem zweiten Ausführungsbeispiel bereits beschrieben ist, durch das gleiche Bezugszeichen bezeichnet, wird deren Beschreibung in der Schrift ausgelassen, und wird nur eine Konfiguration beschrieben, die für das dritte Ausführungsbeispiel besonders bzw. eigentümlich ist.
  • 25 ist eine Vorderansicht, die die Konfiguration der Bildaufnahme-/ Detektionseinheit 1100 gemäß dem dritten Ausführungsbeispiel schematisch zeigt. Es sollte beachtet werden, dass die vordere Abdeckung 1104, die hintere Abdeckung 1105, die obere Abdeckung 1109 und der Linsen-/Objektivdeckel 1111 in 25 weggelassen sind. Bei dem zweiten Ausführungsbeispiel ist das Substrat 1103 so konfiguriert, dass es sich in der vertikalen Richtung (Y-Richtung in der Zeichnung) erstreckt, wenn der Benutzer 1112 mit dem Kamerakörper 1 ausgestattet ist. Als Folge hiervon erstreckt sich, von der Vorderseite des Benutzers 1112 aus gesehen, auch die Bildaufnahme-/Detektionseinheit 1100 in der vertikalen Richtung, und zeigt sich eine Kontur, deren Gesamtlänge in der vertikalen Richtung länger wird als die Gesamtlänge in der Querrichtung.
  • Indessen ist das Substrat 1103 bei dem dritten Ausführungsbeispiel so konfiguriert, dass es sich in der Querrichtung (X-Richtung in der Zeichnung) erstreckt, wenn der Benutzer 1112 mit dem Kamerakörper 1 ausgestattet ist. Dadurch erstreckt sich, von der Vorderseite des Benutzers 1112 aus gesehen, auch die Bildaufnahme-/Detektionseinheit 1100 in der Querrichtung, und zeigt sich eine Kontur, deren Gesamtlänge in der Querrichtung länger wird als die Gesamtlänge in der vertikalen Richtung. Als Folge hiervon wird eine Gewichtsbalance in der Querrichtung der Bildaufnahme-/Detektionseinheit 1100 leicht beibehalten und wird die Bildaufnahme-/Detektionseinheit 1100 stabilisiert. Das heißt, dass sich die optische Achse OA2 der/des Gesichtsrichtungsdetektionslinse/-objektivs 110s nicht stark von dem Kiefer des Benutzers 1112 entfernt und die Blick- bzw. Beobachtungsrichtung des Benutzers 1112 leicht detektiert werden kann.
  • Als Nächstes wird ein viertes Ausführungsbeispiel beschrieben. Das vierte Ausführungsbeispiel ist in der Konfiguration grundsätzlich identisch mit dem zweiten Ausführungsbeispiel, aber unterscheidet sich von dem zweiten Ausführungsbeispiel darin, dass die Blickrichtungsdetektionseinheit, die die/das Blickrichtungsdetektionslinse/-objektiv 1102 umfasst, so ausgebildet ist, dass sie mit Bezug auf die Bildaufnahmeeinheit, die die/das Bildaufnahmelinse/-objektiv 1101 umfasst, drehbar ist. Nachstehend ist hierin eine Komponente, die die gleiche Funktion und Konfiguration wie die Komponente aufweist, die bei dem zweiten Ausführungsbeispiel bereits beschrieben ist, durch das gleiche Bezugszeichen bezeichnet, wird deren Beschreibung in der Schrift ausgelassen, und wird nur eine Konfiguration beschrieben, die für das vierte Ausführungsbeispiel besonders bzw. eigentümlich ist.
  • 26 ist eine perspektivische Explosionsdarstellung, die eine Konfiguration der Bildaufnahme-/Detektionseinheit 1100 gemäß dem vierten Ausführungsbeispiel schematisch zeigt. 27 ist ein Querschnitt entlang der optischen Achse OA1 und der optischen Achse OA2, der eine hintere Konfiguration der Bildaufnahme-/ Detektionseinheit 1100 gemäß dem vierten Ausführungsbeispiel schematisch zeigt.
  • Wie es in 26 und 27 gezeigt ist, weist die Bildaufnahme-/ Detektionseinheit 1100 gemäß dem vierten Ausführungsbeispiel eine vordere Abdeckung 1114 und eine hintere Abdeckung 1115, die andere Formen als die vordere Abdeckung 1104 und die hintere Abdeckung 1105 aufweisen, anstelle von diesen auf. Außerdem weist die Bildaufnahme-/Detektionseinheit 1100 einen Gesichtsdetektionslinse-Halterahmen (Drehelement) 1106 auf, der die Blickrichtungsdetektionseinheit dreht. Der Gesichtsdetektionslinse-Halterahmen 1106 ist ein Gehäuse und beherbergt die/das Gesichtsrichtungsdetektionslinse/- objektiv 1102, die Infrarot-LEDs 1110a, 1110b und das flexible Substrat 1110 im Inneren. Außerdem öffnet sich die obere Seite des Gesichtsdetektionslinse-Halterahmens 1106, und ist die obere Abdeckung 1109 an der Öffnung angebracht.
  • Seitenwände der vorderen Abdeckung 1114 in der Querrichtung (X-Richtung in der Zeichnung) ragen nach oben (Y-Richtung in der Zeichnung) vervor, so dass sie Träger- bzw. Lagerteile 1114c und 1114d bilden. Es sollte beachtet werden, dass die hintere Abdeckung 1115 auch ähnliche Träger- bzw. Lagerteile aufweist. Der Gesichtsdetektionslinse-Halterahmen 1106 ist zwischen den Träger- bzw. Lagerteilen 1114c und 1114d angeordnet.
  • Löcher 1114a und 1114b sind in den Träger- bzw. Lagerteilen 1114c und 1114d bereitgestellt, und Schraubenlöcher 1106a und 1106b sind in dem Gesichtsdetektionslinse-Halterahmen 1106 so bereitgestellt, dass sie den Löchern 1114a und 1114b entsprechen. Stufenschrauben 1107a und 1107b sind in die Schraubenlöcher 1106a und 1106b über die Löcher 1114a und 1114b der Träger- bzw. Lagerteile 1114c und 1114d eingeschraubt. Dabei ist im Ergebnis, da Schäfte der Stufenschrauben 1107a und 1107b locker in die Löcher 1114a und 1114b eingepasst sind, der Gesichtsdetektionslinse-Halterahmen 1106 durch die Stufenschrauben 1107a und 1107b mit Bezug auf die Träger- bzw. Lagerteile 1114c und 1114d der vorderen Abdeckung 1114 axial gelagert. Dadurch wird der Gesichtsrichtungslinse-Halterahmen 1106 mit Bezug auf die vordere Abdeckung 1104 um die Schäfte der Stufenschrauben 1107a und 1107b drehbar. Da ein Drehzentrum RC des Gesichtsdetektionslinse-Halterahmens 1106, das ein Achszentrum der Stufenschrauben 1106a und 1106b ist, sich senkrecht mit der optischen Achse OA1 der/des Bildaufnahmelinse/-objektivs 1101 schneidet, dreht sich der Gesichtsdetektionslinse-Halterahmen 1106 in einer Kipprichtung gegenüber der/dem Bildaufnahmelinse/-objektiv 1101.
  • Außerdem sind Beilag- bzw. Unterlegscheiben 1108a und 1108b zum Anpassen eines Drehmoments zwischen den Stufenschrauben 1107a und 1107b und den Löchern 1114a und 1114b angeordnet, und wird der Gesichtsrichtungslinse-Halterahmen 1106 mit einem geeigneten Drehmoment gedreht.
  • Im Übrigen stimmt, wenn der Benutzer 1112 den Kamerakörper 1 korrekt trägt, die optische Achse OA1 der/des Bildaufnahmelinse/-objektivs 1101 mit der horizontalen Achse (Z-Richtung in 26 und 27) überein. Wenn der Benutzer 1112 den Kamerakörper 1 nicht korrekt trägt und sich der Kamerakörper 1 gegenüber dem Benutzer 1112 neigt, stimmt jedoch die optische Achse OA1 nicht mit der horizontalen Richtung überein und kann sie sich neigen, so dass sie gegenüber der horizontalen Richtung kippt (27). In einem solchen Fall ist, wenn sich die optische Achse OA2 der/des Gesichtsrichtungsdetektionslinse/-objektivs 1102 stets senkrecht mit der optischen Achse OA1 schneidet, wie es bei dem zweiten Ausführungsbeispiel oder dem dritten Ausführungsbeispiel der Fall ist, die optische Achse OA2 nicht direkt auf den Kiefer des Benutzers 1112 gerichtet, und zeigt die/das Gesichtsrichtungsdetektionslinse/-objektiv 1102 nicht auf den Kiefer.
  • In Erwiderung darauf ist bei dem vierten Ausführungsbeispiel der Gesichtsrichtungslinse-Halterahmen 1106 so ausgebildet, dass er in der Kipprichtung gegenüber der vorderen Abdeckung 1114 und der hinteren Abdeckung 1115 drehbar ist, wie es vorstehend dargelegt ist. Dadurch kann der Benutzer 1112 bewirken, dass die/das Gesichtsrichtungsdetektionslinse/-objektiv 1102 ungeachtet der Richtung der optischen Achse OA1 auf den Kiefer zeigt, indem er den Gesichtsdetektionslinse-Halterahmen 1106 in der Kipprichtung mit Bezug auf die vordere Abdeckung 1114 manuell dreht.
  • Außerdem ist bei dem vierten Ausführungsbeispiel ein Bildsensor 1102a der Blickrichtungsdetektionseinheit so angeordnet, dass er sich auf der gleichen Höhe wie das Drehzentrum RC des Gesichtsdetektionslinse-Halterahmens 1106 befindet. Selbst wenn sich die/das Gesichtsrichtungsdetektionslinse/-objektiv 1102 mit Bezug auf die/das Bildaufnahmelinse 1101 dreht, variiert dadurch das Bildaufnahmefeld der/des Gesichtsrichtungsdetektionslinse/-objektivs 1102 nicht.
  • Gemäß der vorgenannten Konfiguration ist, selbst wenn der Benutzer 1112 inkorrekt mit dem Kamerakörper 1 ausgestattet ist, die Blick- bzw. Beobachtungsrichtung des Benutzers 1112 bei dem vierten Ausführungsbeispiel sicher detektierbar.
  • Es sollte beachtet werden, dass der Benutzer 1112 bei dem vierten Ausführungsbeispiel den Drehwinkel durch manuelles Drehen des Gesichtsdetektionslinse-Halterahmens 1106 anpasst. Die Bildaufnahme-/ Detektionseinheit 1100 kann jedoch mit einer Antriebsquelle, zum Beispiel einem Motor, versehen bzw. ausgestattet sein, die den Gesichtsdetektionslinse-Halterahmen 1106 antreibt, um den Drehwinkel des Gesichtsdetektionslinse-Halterahmens 1106 unter Verwendung des Motors automatisch anzupassen.
  • Außerdem wird der Gesichtsdetektionslinse-Halterahmen 1106 bei dem vierten Ausführungsbeispiel in der Kipprichtung mit Bezug auf die/das Bildaufnahmelinse/-objektiv 1101 gedreht. Der Gesichtsdetektionslinse-Halterahmen 1106 kann jedoch in einer Rollrichtung mit Bezug auf die/das Bildaufnahmelinse/-objektiv 1101 gedreht werden, indem das Drehzentrum RC des Gesichtsdetektionslinse-Halterahmens 1106 auf der Medianebene positioniert wird. Außerdem kann der Gesichtsdetektionslinse-Halterahmen als Doppelstruktur ausgebildet sein, so dass die/das Gesichtsrichtungsdetektionslinse/-objektiv 1102 sowohl in der Kipprichtung als auch der Rollrichtung mit Bezug auf die/das Bildaufnahmelinse/-objektiv 1101 gedreht werden kann.
  • Als Nächstes wird ein fünftes Ausführungsbeispiel beschrieben. Das fünfte Ausführungsbeispiel ist in der Konfiguration grundsätzlich identisch mit dem dritten Ausführungsbeispiel, aber unterscheidet sich von dem dritten Ausführungsbeispiel darin, dass zwei Bildaufnahmelinsen/-objektive bereitgestellt sind. Nachstehend ist hierin eine Komponente, die die gleiche Funktion und Konfiguration wie die Komponente aufweist, die bei dem dritten Ausführungsbeispiel bereits beschrieben ist, durch das gleiche Bezugszeichen bezeichnet, wird deren Beschreibung in der Schrift ausgelassen, und wird nur eine Konfiguration beschrieben, die für das fünfte Ausführungsbeispiel besonders bzw. eigentümlich ist.
  • 28 ist eine Vorderansicht, die die Konfiguration der Bildaufnahme-/ Detektionseinheit 1100 gemäß dem fünften Ausführungsbeispiel schematisch zeigt. Es sollte beachtet werden, dass die vordere Abdeckung 1104, die hintere Abdeckung 1105, die obere Abdeckung 1109 und der Linsen-/Objektivdeckel 1111 in 28 wie in 25 weggelassen sind. Bei dem fünften Ausführungsbeispiel ist das Substrat 1103 so konfiguriert, dass es sich in der Querrichtung (X-Richtung in der Zeichnung) erstreckt, wie es bei dem dritten Ausführungsbeispiel der Fall ist.
  • Wie es in 28 gezeigt ist, weist die Bildaufnahme-/Detektionseinheit 1100 eine/ein rechte/rechtes Bildaufnahmelinse/-objektiv 1101a und eine/ein linke/linkes Bildaufnahmelinse/-objektiv 1101b auf. Bei der Bildaufnahme-/ Detektionseinheit 1100 des fünften Ausführungsbeispiels befinden sich, wenn der Kamerakörper 1 von der Vorderseite aus gesehen wird, eine optische Achse OA3 der/des rechten Bildaufnahmelinse/-objektivs 1101a und eine optische Achse OA4 der/des linken Bildaufnahmelinse/-objektivs 1101b jeweils nicht auf der Medianebene, entlang derer die optische Achse OA2 der/des Gesichtsrichtungsdetektionslinse/-objektivs 1102 verläuft. Dann befindet sich ein Schwerpunkt CG der/des rechten Bildaufnahmelinse/-objektivs 1101a und der/des linken Bildaufnahmelinse/-objektivs 1101b auf der Medianebene.
  • Dadurch wird eine Gewichtsbalance der Bildaufnahme/-Detektionseinheit 1100 in der Querrichtung leicht beibehalten, was eine Neigung der Bildaufnahme-/ Detektionseinheit 1100 mit Bezug auf den Benutzer 1112 verringern kann, wenn der Benutzer 1112 den Kamerakörper 1 trägt. Als Folge hiervon kann dieser stabilisiert werden, und kann bewirkt werden, dass es möglich ist, dass die/das Gesichtsrichtungsdetektionslinse/-objektiv 1102 auf einen Kiefer des Benutzers 1112 zeigt, und kann verhindert werden, dass die Detektionsgenauigkeit einer Blick- bzw. Beobachtungsrichtung des Benutzers 1112 schlechter wird.
  • Obgleich die Bildaufnahme/-Detektionseinheit 1100 des fünften Ausführungsbeispiels die zwei Bildaufnahmelinsen/-objektive 1101a und 1101b aufweist, kann die Bildaufnahme-/Detektionseinheit 1100 drei oder mehr Bildaufnahmelinsen/-objektive aufweisen. In jedem Fall muss sich jedoch der Schwerpunkt von einer Vielzahl von Bildaufnahmelinsen/-objektiven auf der Medianebene befinden, entlang derer die optische Achse OA2 der/des Gesichtsrichtungsdetektionslinse/-objekts 1102 verläuft.
  • Als Nächstes wird ein sechstes Ausführungsbeispiel beschrieben. Das sechste Ausführungsbeispiel ist in der Konfiguration grundsätzlich identisch mit dem zweiten Ausführungsbeispiel, und eine Bildaufnahme-/Detektionseinheit 2100 ist anstelle der Bildaufnahme-/Detektionseinheit 1100 in dem Kamerakörper 1 bereitgestellt. Hierin nachstehend ist eine Komponente, die die gleiche Funktion und Konfiguration wie die Komponente aufweist, die bei dem ersten Ausführungsbeispiel und dem zweiten Ausführungsbeispiel bereits beschrieben ist, durch den gleichen Namen und das gleiche Bezugszeichen bezeichnet, wird deren Beschreibung in der Schrift ausgelassen, und wird nur eine Konfiguration beschrieben, die für das sechste Ausführungsbeispiel besonders bzw. eigentümlich ist.
  • 29 ist eine perspektivische Explosionsdarstellung, die die Konfiguration der Bildaufnahme-/Detektionseinheit 2100 gemäß dem sechsten Ausführungsbeispiel schematisch zeigt. Wie es in 29 gezeigt ist, weist die Bildaufnahme-/ Detektionseinheit 2100 eine Bildaufnahmeeinheit zum Aufnehmen eines Objekts und eine Blickrichtungsdetektionseinheit zum Detektieren einer Blick- bzw. Beobachtungsrichtung eines Benutzers auf. Die Bildaufnahmeeinheit ist mit einer/einem Bildaufnahmelinse/-objektiv 2101 und einem Bildsensor 2103a versehen bzw. ausgestattet. Die Blickrichtungsdetektionseinheit ist mit einer/einem Gesichtsrichtungsdetektionslinse/-objektiv 2102 und einem (nicht gezeigten) Bildsensor versehen bzw. ausgestattet. Die/das Bildaufnahmelinse/ -objektiv 2101 ist eine optische Bildaufnahmekomponente, die eine optische Bildaufnahmeachse OA5 aufweist. Die/das Gesichtsrichtungsdetektionslinse/ -objektiv 2102 ist eine optische Blickrichtungsdetektionskomponente, die eine optische Detektionsachse OA6 aufweist. Die/das Bildaufnahmelinse/-objektiv 2101 und der Bildsensor 2103a sind durch ein Substrat 2103 getragen. Außerdem sind die/das Gesichtsrichtungsdetektionslinse/-objektiv 2102 und der (nicht gezeigte) Bildsensor durch ein flexibles Blickrichtungsdetektionssubstrat 2110 getragen. Außerdem weist die Bildaufnahme-/Detektionseinheit 2100 eine vordere Abdeckung 2104, eine hintere Abdeckung 2105 und ein Blickrichtungsdetektionsfenster 2109 auf.
  • Das flexible Blickrichtungsdetektionssubstrat 2110 ist mit dem Substrat 2103 verbunden. Außerdem sind Infrarot-LEDs 2110a und 2110b, die jeden Teil eines Gesichts eines Benutzers mit Infrarotlicht bestrahlen, und eine Schaltung zum Be-/Erleuchten von diesen auf dem flexiblen Blickrichtungsdetektionssubstrat 2110 installiert. Obgleich die Anordnungszahl der Infrarot-LEDs bei diesem Ausführungsbeispiel zwei ist, ist sie nicht darauf beschränkt.
  • Die vordere Abdeckung 2104 ist ein kastenförmiges Element, und eine Öffnung 2104c ist in der vorderen Abdeckung 2104 an einer Stelle ausgebildet, die der/dem Bildaufnahmelinse/-objektiv 2101 gegenüberliegt bzw. entspricht. Bei diesem Ausführungsbeispiel ist die/das Bildaufnahmelinse/-objektiv 2101 eine/ein Fischaugenlinse/-objektiv, und ragt ein Teil von dieser/diesem von der vorderen Abdeckung 2104 durch die Öffnung 2104c nach außen hervor. Ein Blickrichtungsdetektionsfenster 2109 ist in einer oberen Platte der vorderen Abdeckung 2104 eingepasst. Das Blickrichtungsdetektionsfenster 2109 ist ein transparentes Plattenelement und über der/dem Gesichtsrichtungsdetektionslinse/-objektiv 2102 und den Infrarot-LEDs 2110a und 2110b angeordnet. Außerdem überlappt/-schneidet sich das Blickrichtungsdetektionsfenster 2109 mit der/dem Gesichtsrichtungsdetektionslinse/-objektiv 2102 und den Infrarot-LEDs 2110a und 2110b, wenn das Blickrichtungsdetektionsfenster 2109 von der Oberseite aus gesehen wird. Die hintere Abdeckung 2105 ist ein kastenförmiges Element, das die vordere Abdeckung 2104 von der Rückseite aus abdeckt. Dann sind die/das Bildaufnahmelinse/-objektiv 2101, die/das Gesichtsrichtungsdetektionslinse/-objektiv 2102, das Substrat 2103, das flexible Blickrichtungsdetektionssubstrat 2110, usw. in einem Raum untergebracht und angeordnet, der durch die vordere Abdeckung 2104, die hintere Abdeckung 2105 und das Blickrichtungsdetektionsfenster 2109 umgeben ist. Bei diesem Ausführungsbeispiel bilden der Raum, der durch die vordere Abdeckung 2104, die hintere Abdeckung 2105 und das Blickrichtungsdetektionsfenster 2109 umgeben ist, und die Einheiten, die in dem durch diese umgebenen Raum angeordnet sind, einen Hauptkörper 2140 der Bildaufnahme-/Detektionseinheit 2100.
  • Wie es in 29 gezeigt ist, weist die Bildaufnahme-/Detektionseinheit 2100 eine erste Taste 2121 (ein erstes Aufzeichnungsstartelement), eine zweite Taste 2122 (ein zweites Aufzeichnungsstartelement) und ein flexibles Bedieneinheitssubstrat 2120 auf. Obgleich die erste Taste 2121 und die zweite Taste 2122 an voneinander unterschiedlichen Positionen angeordnet sind, fungieren beide Tasten als Aufzeichnungsstartelement, die der Benutzer bezeichnet, um eine Aufzeichnung eines Bilds zu starten. Außerdem werden beide der ersten Taste 2121 und der zweiten Taste 2122 durch eine Drückbedienung bedient bzw. betätigt. Das flexible Bedieneinheitssubstrat 2120 ist mit dem ersten Substrat 2103 verbunden und weist einen ersten Schalter 2120a, der eine Drückbedienung auf der ersten Taste 2121 detektiert, und einen zweiten Schalter 2120b, der eine Drückbedienung auf der zweiten Taste 2122 detektiert, auf.
  • 30 ist eine Darstellung, die einen Zustand zeigt, in dem ein Benutzer 2112 den mit der Bildaufnahme-/Detektionseinheit 2100 ausgestatteten Kamerakörper 1 trägt und einen Bildaufnahmevorgang durchführt. In 30 sind die Komponenten, wie etwa die Verbindungselemente 80 und die Batterieeinheit 90s, des Kamerakörpers 1 abgesehen von der Bildaufnahme-/Detektionseinheit 2100 nicht gezeigt. 31 ist eine Vorderansicht, die die Bildaufnahme-/ Detektionseinheit 2100 zeigt, wenn die vordere Abdeckung 2104 entfernt ist.
  • Wie es in 30 gezeigt ist, trägt der Benutzer 2112 den Kameraköper 1, so dass sich die Bildaufnahme-/Detektionseinheit 2100 auf der Medianebene des Benutzers 2112 und unter einem Kiefer befinden wird. Wenn der Kamerakörper 1 von der Vorderseite des Benutzers 2112 aus gesehen wird, befindet sich die/das Gesichtsrichtungsdetektionslinse-/-objektiv 2102 in der Bildaufnahme-/ Detektionseinheit 2100 auf der Medianebene des Benutzers und unter dem Kinn des Benutzers. Außerdem stimmt eine optische Detektionsachse OA6 der/des Gesichtsrichtungsdetektionslinse/-objektivs 2102 ungefähr mit der Medianebene (die in der Zeichnung durch eine Strichpunktlinie gezeigt ist) des Benutzers 2112 überein. Da der Benutzer 2112 und die/das Gesichtsrichtungsdetektionslinse/ -objektiv 2102 eine derartige Positionsbeziehung erfüllen, zeigt die/das Gesichtsrichtungsdetektionslinse/-objektiv 2102 auf den Kiefer des Benutzers 2112. Dadurch kann die Gesichtsrichtungsdetektion einfach durchgeführt werden und kann die Genauigkeit der Gesichtsrichtungsdetektion gesteigert werden.
  • Eine optische Bildaufnahmeachse OA5 der/des Bildaufnahmelinse/-objektivs 2101 stimmt nicht mit der Medianebene des Benutzers 2102 überein, d.h. befindet sich nicht auf der Medianebene. Die optische Bildaufnahmeachse OA5 und die optische Detektionsachse OA6 befinden sich in einer verdrehten Positionsbeziehung, in der sie sich nicht gegenseitig schneiden. Da die optische Bildaufnahmeachse OA5 gegenüber der Medianebene des Benutzers 2112 verschoben ist, tritt eine Parallaxe in der Querrichtung auf. Da die/das Bildaufnahmelinse/-objektiv 2101 die/das Fischaugenlinse/-objektiv ist, wie es vorstehend dargelegt ist, ist jedoch ein Einfluss der Parallaxe beim Aufnehmen eines Bilds gering.
  • Da sich die optische Bildaufnahmeachse OA5 und die optische Detektionsachse OA6 in der verdrehten Positionsbeziehung befinden, sind außerdem die/das Bildaufnahmelinse/-objektiv 2101 und die/das Gesichtsrichtungsdetektionslinse/ -objektiv 2102 in einer Höhenrichtung der Bildaufnahme-/Detektionseinheit 2100 nicht übereinander gestapelt, d.h. ist eine überlappende Anordnung vermeidbar. Dies kann die Größe der Bildaufnahme-/Detektionseinheit 2100 in der Höhenrichtung verringern und kann die Bildaufnahme-/Detektionseinheit 2100 miniaturisieren. Außerdem kann die/das Bildaufnahmelinse/-objektiv 2101 so stark wie möglich an eine Höhe einer Augenlinie des Benutzers 2112 angenähert werden. Dadurch kann das durch den Kameraköper 1 aufgezeichnete Bild an das Bild angenähert werden, das der Benutzer 2112 betrachtet.
  • Wie es in 31 gezeigt ist, ist die erste Taste 2121 in einem unteren Teil einer rechten Seitenfläche (Seitenwand) 2104a der vorderen Abdeckung 2104 des Hauptkörpers 2140a, aus Sicht der Vorderseite des Benutzers 2112, der den Kamerakörper 1 trägt, vorstehend angeordnet. Die zweite Taste 2122 ist an der der ersten Taste 2121 gegenüberliegenden Seitenfläche angeordnet. Das heißt, dass die zweite Taste 2122 in einem unteren Teil der linken Seitenfläche (Seitenwand) 2104b der vorderen Abdeckung 2104 vorstehend angeordnet ist.
  • Bei diesem Ausführungsbeispiel werden, wenn sowohl die erste Taste 2112 als auch die zweite Taste 2122 gleichzeitig mit einem Drücken bedient bzw. betätigt werden, die gleichzeitigen Bedienungen bzw. Betätigungen durch den ersten Schalter 2120a und den zweiten Schalter 2120b detektiert. Dann startet die Gesamtsteuerung-CPU 101 eine Aufzeichnung eines Bilds, wenn die gleichzeitigen Bedienungen bzw. Betätigungen durch den ersten Schalter 2120a und den zweiten Schalter 2120b detektiert werden. Eine solche Konfiguration verhindert einen unbeabsichtigten Start der Bildaufzeichnung, selbst wenn zum Beispiel eine der ersten Taste 2121 und der zweiten 2122 fälschlich durch ein Drücken bedient bzw. betätig wird.
  • Außerdem sind die erste Taste 2121 und die zweite Taste 2122 auf gegenseitig gegenüberliegenden Seiten, d.h. der rechten und der linken Seite, des Hauptkörpers 2140 angeordnet, wie es in 30 gezeigt ist. Dadurch werden die Bedienungen bzw. Betätigungen der ersten Taste 2121 und der zweiten Taste 2122 durch den Benutzer 2112 machbar, während die Bildaufnahme-/Detektionseinheit 2100 zwischen einem Daumen 2130 und einem Zeigefinger 2131 von unten zusammengedrückt bzw. eingeklemmt wird (was hierin nachstehend als „Zusammendrücken von unten“ bezeichnet wird). Solche Bedienungen bzw. Betätigungen sind für die gleichzeitigen Bedienungen bzw. Betätigungen der Tasten bevorzugt.
  • Außerdem führt der Benutzer 2112, der die Bildaufnahmevorrichtung (den Kamerakörper 1) trägt, häufig eine Aufzeichnungsstartbedienung plötzlich durch, wenn sich aus Sicht des Benutzers 2112 eine Bildaufnahmegelegenheit ergibt. Dementsprechend ist es erforderlich, dass die erste Taste 2112 und die zweite Taste 2122 durch eine der rechten und der linken Hand einfach zu bedienen bzw. zu betätigen sind. Außerdem kann der Benutzer 2112 die Tasten durch eine der rechten und der linken Hand durch das Zusammendrücken von unten, wie es vorstehend dargelegt ist, durch ein ähnliches Bediengefühl bedienen bzw. betätigen. Und ein Wiederspiegeln einer Hand oder eines Fingers auf einem aufgenommenen Bild zu einer Aufzeichnungsstartzeit wird reduziert. Selbst in einem Fall, in dem sich die Bildaufnahme-/Detektionseinheit 2100 gegenüber dem Benutzer 2112 neigt oder dreht, kann der Benutzer 2112 außerdem die Bildaufnahme-/Detektionseinheit 2100 durch das Zusammendrücken von unten natürlich in eine korrekte Position zurückbringen.
  • Eine Bedienkraft (Druckkraft) F2121 beim Drückbedienen der ersten Taste 2121 hängt hauptsächlich von einem Dreh-/Moment ab, das zum Betätigen des ersten Schalters 2120a erforderlich ist (siehe 31). Eine Bedienkraft (Druckkraft) F2122 beim Drückbedienen der zweiten Taste 2122 hängt hauptsächlich von einem Dreh-/Moment ab, das zum Betätigen des zweiten Schalters 2120b erforderlich ist (siehe 31).
  • Bei der Bildaufnahme-/Detektionseinheit 2100 sind die Dreh-/Momente der ersten und der zweiten Taste 2120a und 2120b so eingerichtet, dass die Bedienkraft F2121 größer wird als die Bedienkraft F2122. Wenn die Tasten gleichzeitig bedient bzw. betätigt werden, gibt eine solche Größenbeziehung der Kräfte eine Rolle einer Stützseite an die zweite Taste 2122, deren Bedienkraft F2122 klein ist, und eine Rolle einer Drückseite an die erste Taste 2121, deren Bedienkraft F2121 groß ist. Als Folge hiervon kann eine Bewegung des Daumens 2130, der auf die zweite Taste 2122 gelegt ist, so stark wie möglich reduziert werden, und werden dementsprechend die gleichzeitigen Bedienungen bzw. Betätigungen einfach. Um solche gleichzeitigen Bedienungen bzw. Betätigungen zu ermöglichen, ist es bevorzugt, dass zum Beispiel die Bedienkraft F2122 doppelt so groß oder größer wie die Bedienkraft F2121 wird. Die Beziehung ist jedoch nicht darauf beschränkt.
  • Obgleich in dem vorstehend dargelegten Beispiel die Größenbeziehung zwischen der Bedienkraft F2121 und der Bedienkraft F2122 durch die Balance der Drehmomente, die zum Bedienen bzw. zum Betätigen der Schalter erforderlich sind, festgelegt ist, ist die Einstellung nicht darauf beschränkt. Zum Beispiel kann die Größenbeziehung zwischen den Bedienkräften durch elastische Elemente wie etwa Federn festgelegt werden.
  • Es ist bevorzugt, dass eine Entfernung L (siehe 31) zwischen der ersten Taste 2121 und der zweiten Taste 2122 in einem Zustand, in dem die erste Taste 2121 und die zweite Taste 2122 maximal herausragen (d.h. einem Zustand vor Bedienungen bzw. Betätigungen), in einen Bereich fällt, der zum Beispiel 50 mm oder größer und 200 mm oder kleiner ist. Wenn die Entfernung L kleiner als 50 mm ist, können einige Benutzer 2112 Schwierigkeiten haben, das Zusammendrücken von unten durchzuführen, wie es vorstehend dargelegt ist. Wenn die Entfernung L größer als 200 mm oder mehr ist, kann außerdem ein Benutzer, dessen Hand klein ist, Schwierigkeiten haben, das Zusammendrücken von unten, wie es vorstehend dargelegt ist, durch eine einzelne Hand durchzuführen.
  • Wenn die Bildaufnahme-/Detektionseinheit 2100 miniaturisiert ist, während die Entfernung L 50 mm oder größer ist, ist es außerdem bevorzugt, dass die Bildaufnahme-/Detektionseinheit 2100 eine seitlich bzw. quer breitere Form aufweist. Dementsprechend trägt das Niederhalten der Größe der Bildaufnahme-/ Detektionseinheit 2100 in der Höhenrichtung durch Anordnung der/des Bildaufnahmelinse/-objektivs 2101 und der/des Gesichtsrichtungsdetektionslinse/-objektivs 2102, so dass sie in der Querrichtung voneinander abweichen bzw. versetzt sind, zu einer Miniaturisierung der Bildaufnahme-/Detektionseinheit 2100 bei.
  • Als Nächstes wird ein siebtes Ausführungsbeispiel unter Verwendung von 32A bis 32C beschrieben. Das siebte Ausführungsbeispiel ist in der Konfiguration grundsätzlich identisch mit dem sechsten Ausführungsbeispiel. Hierin nachstehend ist eine Komponente, die die gleiche Funktion und Konfiguration wie die Komponente aufweist, die bei dem sechsten Ausführungsbeispiel bereits beschrieben ist, durch das gleiche Bezugszeichen bezeichnet, wird deren Beschreibung in der Schrift ausgelassen, und wird nur eine Konfiguration beschrieben, die für das siebte Ausführungsbeispiel besonders bzw. eigentümlich ist.
  • 32A bis 32C sind Darstellungen, die Variationen von Formen einer ersten Taste 2221 und einer zweiten Taste 2222 gemäß dem siebten Ausführungsbeispiel zeigen.
  • Bei diesem Ausführungsbeispiel weist eine Bildaufnahme-/Detektionseinheit 2200 die erste Taste 2221 und die zweite Taste 2222 auf, die in einer Form (einschließlich einer Größe) voneinander unterschiedlich sind. In der in 32A gezeigten Konfiguration sind die erste Taste 2221 und die zweite Taste 2222 in einer Größe voneinander unterschiedlich. Ein Durchmesser <Dd2221 der ersten Taste 2221 ist kleiner als ein Durchmesser Φd2222 der zweiten Taste 2222. In einer in 32B gezeigten Konfiguration sind die erste Taste 2221 und die zweite Taste 2222 in einem Vorsprungsbetrag voneinander unterschiedlich. Ein Vorsprungsbetrag Q2221 der ersten Taste 2221 ist kleiner als ein Vorsprungsbetrag Q2222 der zweiten Taste 2222. In einer in 32C gezeigten Konfiguration sind die erste Taste 2221 und die zweite Taste 2222 in einem Zustand einer Deckfläche voneinander unterschiedlich. Auf einer Deckfläche 2221a der ersten Taste 2221 sind eine Vielzahl von Vertiefungen und Vorsprüngen ausgebildet, und eine Deckfläche 2222a der zweiten Taste 2222 ist glatter als die Deckfläche 2221a.
  • Wenn die Formen der ersten Taste 2221 und der zweiten Taste 2222 in der Form voneinander unterschiedlich sind, sind Berührungsgefühle der Tasten unterschiedlich. Wenn der Benutzer 2112 durch eine der rechten und der linken Hand die Tasten plötzlich zu bedienen bzw. zu betätigen versucht, kann der Benutzer 2112 dadurch die Taste mit hoher Bedienkraft und die Taste mit niedriger Bedienkraft prompt unterscheiden, was eine Reduzierung einer Bedienerschütterung bzw. -bewegung ermöglicht.
  • Obgleich die erste Taste 2221 und die zweite Taste 2222 bei diesem Ausführungsbeispiel so ausgebildet sind, dass sich die Formen voneinander unterscheiden, können sie zum Beispiel so ausgebildet sein, dass Starrheiten bzw. Festigkeiten oder Flexibilitäten bzw. Beweglichkeiten voneinander unterschiedlich sind. In einem solchen Fall unterscheiden sich die Berührungsgefühle der Tasten.
  • Als Nächstes wird ein achtes Ausführungsbeispiel unter Verwendung von 33 beschrieben. Das achte Ausführungsbeispiel ist in der Konfiguration grundsätzlich identisch mit dem sechsten Ausführungsbeispiel. Hierin nachstehend ist eine Komponente, die die gleiche Funktion und Konfiguration wie die Komponente aufweist, die bei dem sechsten Ausführungsbeispiel bereits beschrieben ist, durch das gleiche Bezugszeichen bezeichnet, wird deren Beschreibung in der Schrift ausgelassen, und wird nur eine Konfiguration beschrieben, die für das achte Ausführungsbeispiel besonders bzw. eigentümlich ist.
  • 33 ist eine Darstellung, die einen Zustand zeigt, in dem der Benutzer 2112 den mit der Bildaufnahme-/Detektionseinheit 2300 ausgestattete Kamerakörper 1 trägt und einen Bildaufnahmestartvorgang durchführt.
  • Die Bildaufnahme-/Detektionseinheit 2300 dieses Ausführungsbeispiels lässt im Vergleich zu der Bildaufnahme-/Detektionseinheit 2100 des sechsten Ausführungsbeispiels die zweite Taste 2122 und den zweiten Schalter 2120b weg. Außerdem weist die Bildaufnahme-/Detektionseinheit 2300 ein Fingerplatzierelement 2340 (ein Träger- bzw. Lagerelement) anstelle der zweiten Taste 2122 auf. Das Fingerplatzierelement 2340 ist, wie die zweite Taste 2122, an der Seitenfläche angeordnet, die der ersten Taste 2121 gegenüberliegt. Das heißt, dass das Fingerplatzierelement 2340 in dem unteren Teil der linken Seitenfläche 2104 angeordnet ist.
  • Beim Durchführen der Aufzeichnungsstartbedienung platziert (bringt/legt) der Benutzer 2112 den Daumen 2130 auf das Fingerplatzierelement 2340, um den Hauptkörper 2140 zu halten. Dies stabilisiert die Drückbedienung der ersten Taste 2121. Obgleich das in 33 gezeigte Fingerplatzierelement 2340 eine flache Form aufweist und von der linken Seitenfläche 2104b hervorragt, kann es in der gleichen Fläche wie die linke Seitenfläche 2104 ausgebildet sein. Obgleich bei diesem Ausführungsbeispiel das Beispiel gezeigt ist, in dem der Benutzer 2112 den Finger auf das Fingerplatzierelement 2340 platziert, um den Hauptkörper 2340 beim Drücken der ersten Taste 2121 zu halten, ist der Haltemechanismus nicht darauf beschränkt. Zum Beispiel kann der Benutzer 2112 mit einem an dem Körper des Benutzers Halteelement ausgestattet sein, das eine Bewegung des Fingerplatzierelements 2340 beim Drücken der ersten Taste 2112 verhindert. In einem solchen Fall kann der Hauptkörper 2140 gehalten werden, indem das Fingerplatzierelement 2340 an dem Halteelement angestoßen oder an-/eingepasst wird.
  • Weitere Ausführungsbeispiele
  • Während die vorliegende Erfindung unter Bezugnahme auf beispielhafte Ausführungsbeispiele beschrieben wurde, ist es selbstverständlich, dass die vorliegende Erfindung nicht auf die offenbarten beispielhaften Ausführungsbeispiele beschränkt ist. Dem Umfang der folgenden Patentansprüche ist die breiteste Auslegung zuzugestehen, so dass alle derartigen Modifikationen und äquivalente Strukturen und Funktionen umfasst sind.
  • Diese Anmeldung beansprucht den Prioritätsvorteil der am 30. Juli 2021 eingereichten japanischen Patentanmeldung Nr. 2021-126103 und der am 11. März 2022 eingereichten japanischen Patentanmeldung Nr. 2022-038689 , die hiermit durch Bezugnahme in ihrer Gänze hierin eingebunden werden.
  • Es wird eine Bildaufnahmevorrichtung bereitgestellt, die im Stande ist, eine manuelle Änderung einer Bildaufnahmerichtung zu eliminieren und bei/während Konzentration der Aufmerksamkeit auf eine Erfahrung auf einfache Weise ein Bild zu erhalten. Eine Detektionseinheit wird an einem anderen Körperteil als einem Kopf eines Benutzers getragen und detektiert eine Blickrichtung des Benutzers. Eine Bildaufnahmeeinheit wird an dem Körperteil getragen und nimmt ein Bild auf. Eine Bestimmungseinheit bestimmt eine Aufzeichnungsrichtung gemäß der Blickrichtung. Eine Bildaufzeichnungseinheit zeichnet ein Bild entsprechend der Aufzeichnungsrichtung aus einem aufgenommenen Bild auf. Die Detektionseinheit und die Bildaufnahmeeinheit befinden sich in einem getragenen Zustand, in dem der Benutzer die Bildaufnahmevorrichtung trägt, auf einer Medianebene des Benutzers und unter einem Kiefer des Benutzers. Die Detektionseinheit befindet sich in dem getragenen Zustand an einer näheren Position zu dem Kiefer als die Bildaufnahmeeinheit.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 200774033 A [0012, 0014]
    • JP 201760078 [0013]
    • JP 201760078 A [0013, 0015]
    • JP 2021126103 [0368]
    • JP 2022038689 [0368]

Claims (18)

  1. Bildaufnahmevorrichtung mit: einer Blickrichtungsdetektionseinheit, die angepasst ist, an einem anderen Körperteil als einem Kopf eines Benutzers getragen zu werden, und konfiguriert ist zum Detektieren einer Blickrichtung des Benutzers; zumindest einer Bildaufnahmeeinheit, die angepasst ist, an dem Körperteil des Benutzers getragen zu werden, und konfiguriert ist zum Aufnehmen eines Bilds; einer Aufzeichnungsrichtungsbestimmungseinheit, die konfiguriert ist zum Bestimmen einer Aufzeichnungsrichtung gemäß der detektierten Blickrichtung; und einer Bildaufzeichnungseinheit, die konfiguriert ist zum Aufzeichnen eines Bilds entsprechend der bestimmten Aufzeichnungsrichtung aus einem durch die zumindest eine Bildaufnahmeeinheit aufgenommenen Bild, wobei sich die Blickrichtungsdetektionseinheit und die zumindest eine Bildaufnahmeeinheit in einem getragenen Zustand, in dem der Benutzer die Bildaufnahmevorrichtung trägt, auf einer Medianebene des Benutzers und unter einem Kiefer des Benutzers befinden, und wobei sich die Blickrichtungsdetektionseinheit in dem getragenen Zustand an einer näheren Position zu dem Kiefer als die zumindest eine Bildaufnahmeeinheit befindet.
  2. Bildaufnahmevorrichtung gemäß Anspruch 1, wobei die zumindest eine Bildaufnahmeeinheit eine Vielzahl von Bildaufnahmeeinheiten aufweist, wobei sich ein Schwerpunkt der Vielzahl von Bildaufnahmeeinheiten auf der Medianebene befindet.
  3. Bildaufnahmevorrichtung gemäß Anspruch 1 oder 2, zusätzlich mit einem Drehelement, das die Blickrichtungsdetektionseinheit mit Bezug auf die zumindest eine Bildaufnahmeeinheit dreht.
  4. Bildaufnahmevorrichtung gemäß Anspruch 3, wobei das Drehelement die Blickrichtungsdetektionseinheit in zumindest einer von einer Rollrichtung und einer Kipprichtung mit Bezug auf die zumindest eine Bildaufnahmeeinheit dreht.
  5. Bildaufnahmevorrichtung gemäß einem der Ansprüche 1 bis 4, zusätzlich mit einem Schutzelement, das die zumindest eine Bildaufnahmeeinheit schützt, wobei sich das Schutzelement in einer Richtung bewegt, die sich mit einer optischen Achse der zumindest einen Bildaufnahmeeinheit senkrecht schneidet, um zwischen einem ersten Zustand, in dem es sich auf der optischen Achse befindet, und einem zweiten Zustand, in dem es von der optischen Achse zurückgezogen ist, zu variieren.
  6. Bildaufnahmevorrichtung gemäß Anspruch 5, wobei sich das Schutzelement in einer Richtung zu der Blickrichtungsdetektionseinheit hin bewegt, wenn es sich von dem ersten Zustand in den zweiten Zustand bewegt.
  7. Bildaufnahmevorrichtung gemäß Anspruch 6, wobei ein Teil des Schutzelements in dem zweiten Zustand zum dem Kiefers hin herausragt.
  8. Bildaufnahmevorrichtung gemäß einem der Ansprüche 1 bis 7, zusätzlich mit zumindest zwei Lichtemissionselementen, wobei die zumindest zwei Lichtemissionselemente in Achsensymmetrie bezüglich einer optischen Achse der Blickrichtungsdetektionseinheit angeordnet sind.
  9. Bildaufnahmevorrichtung gemäß einem der Ansprüche 1 bis 8, wobei in dem getragenen Zustand, aus Sicht von einer Vorderseite des Benutzers, eine Kontur gezeigt wird, von der eine Gesamtlänge in der Querrichtung länger wird als eine Gesamtlänge in einer Vertikalrichtung.
  10. Bildaufnahmevorrichtung mit: einer Blickrichtungsdetektionseinheit, die angepasst ist, an einem anderen Körperteil als einem Kopf eines Benutzers getragen zu werden, und konfiguriert ist zum Detektieren einer Blickrichtung des Benutzers; und einer Bildaufnahmeeinheit, die konfiguriert ist zum Aufnehmen eines Bilds, wobei die Blickrichtungsdetektionseinheit eine optische Blickrichtungsdetektionskomponente umfasst, die eine optische Detektionsachse aufweist, wobei die Bildaufnahmeeinheit eine optische Bildaufnahmekomponente umfasst, die eine optische Bildaufnahmeachse aufweist, und wobei die optische Detektionsachse und die optische Bildaufnahmeachse in einer verdrehten Positionsbeziehung sind, in der sie sich nicht gegenseitig schneiden.
  11. Bildaufnahmevorrichtung gemäß Anspruch 10, wobei sich die Blickrichtungsdetektionseinheit in einem getragenen Zustand, in dem der Benutzer die Bildaufnahmevorrichtung trägt, auf einer Medianebene des Benutzers und unter einem Kiefer des Benutzers befindet, und wobei sich die Bildaufnahmeeinheit in dem getragenen Zustand nicht auf der Medianebene befindet.
  12. Bildaufnahmevorrichtung mit: einem Hauptkörper, der eine Blickrichtungsdetektionseinheit, die angepasst ist, an einem anderen Körperteil als einem Kopf eines Benutzers getragen zu werden, und konfiguriert ist zum Detektieren einer Blickrichtung des Benutzers, und eine Bildaufnahmeeinheit, die konfiguriert ist zum Aufnehmen eines Bilds, umfasst; einem ersten Aufzeichnungsstartelement, das an einer Seitenfläche des Hauptkörpers bereitgestellt ist und durch den Benutzer beim Bezeichnen verwendet wird, ein Aufzeichnen eines Bilds zu starten; und einem zweiten Aufzeichnungsstartelement, das an einer Seitenfläche des Hauptkörpers auf einer gegenüberliegenden Seite des ersten Aufzeichnungsstartelements bereitgestellt ist und durch den Benutzer beim Bezeichnen verwendet wird, ein Aufzeichnen eines Bilds zu starten, wobei die Bildaufnahmeeinheit ein Aufzeichnen des Bilds in einem Fall startet, in dem sowohl das erste Aufzeichnungsstartelement als auch das zweite Aufzeichnungsstartelement gleichzeitig betätigt werden.
  13. Bildaufnahmevorrichtung gemäß Anspruch 12, wobei eine zum Betätigen des ersten Aufzeichnungsstartelements erforderliche Bedienkraft größer ist als eine zum Betätigen des zweiten Aufzeichnungsstartelements erforderliche Bedienkraft.
  14. Bildaufnahmevorrichtung gemäß Anspruch 12 oder 13, wobei sich eine Form des ersten Aufzeichnungsstartelements von einer Form des zweiten Aufzeichnungsstartelements unterscheidet.
  15. Bildaufnahmevorrichtung gemäß einem der Ansprüche 12 bis 14, wobei eine Entfernung zwischen dem ersten Aufzeichnungsstartelement und dem zweiten Aufzeichnungsstartelement 50 mm oder mehr ist.
  16. Bildaufnahmevorrichtung gemäß einem der Ansprüche 12 bis 15, wobei eine Entfernung zwischen dem ersten Aufzeichnungsstartelement und dem zweiten Aufzeichnungsstartelement 200 mm oder weniger ist.
  17. Bildaufnahmevorrichtung gemäß einem der Ansprüche 12 bis 16, wobei eine Entfernung zwischen dem ersten Aufzeichnungsstartelement und dem zweiten Aufzeichnungsstartelement in einen Bereich fällt, der 50 mm oder mehr und 200 mm oder weniger ist.
  18. Bildaufnahmevorrichtung mit: einem Hauptkörper, der eine Blickrichtungsdetektionseinheit, die angepasst ist, an einem anderen Körperteil als einem Kopf eines Benutzers getragen zu werden, und konfiguriert ist zum Detektieren einer Blickrichtung des Benutzers, und eine Bildaufnahmeeinheit, die konfiguriert ist zum Aufnehmen eines Bilds, umfasst; einem Aufzeichnungsstartelement, das durch den Benutzer beim Bezeichnen verwendet wird, ein Aufzeichnen eines Bilds zu starten; und einem Trageelement, das den Hauptkörper beim Betätigen des Aufzeichnungsstartelements hält, wobei das Aufzeichnungsstartelement an einer Seitenfläche des Hauptkörpers bereitgestellt ist, und wobei das Trageelement an einer Seitenfläche des Hauptkörpers auf einer gegenüberliegenden Seite des Aufzeichnungsstartelements angeordnet ist.
DE102022118931.7A 2021-07-30 2022-07-28 Als Actionkamera verwendete Bildaufnahmevorrichtung Pending DE102022118931A1 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2021126103 2021-07-30
JP2021-126103 2021-07-30
JP2022038689A JP2022140418A (ja) 2021-03-12 2022-03-11 撮像装置
JP2022-038689 2022-03-11

Publications (1)

Publication Number Publication Date
DE102022118931A1 true DE102022118931A1 (de) 2023-02-02

Family

ID=84540083

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022118931.7A Pending DE102022118931A1 (de) 2021-07-30 2022-07-28 Als Actionkamera verwendete Bildaufnahmevorrichtung

Country Status (5)

Country Link
US (1) US11849205B2 (de)
KR (1) KR20230019016A (de)
CN (1) CN115695959A (de)
DE (1) DE102022118931A1 (de)
GB (1) GB2611397A (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2611157A (en) * 2021-07-30 2023-03-29 Canon Kk Image pickup apparatus used as action camera, calibration system, control method for image pickup apparatus, and storage medium storing control program for...

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007074033A (ja) 2005-09-02 2007-03-22 Canon Inc 撮像装置及びその制御方法及びプログラム及び記憶媒体
JP2017060078A (ja) 2015-09-18 2017-03-23 カシオ計算機株式会社 画像録画システム、ユーザ装着装置、撮像装置、画像処理装置、画像録画方法、及びプログラム
JP2021126103A (ja) 2020-02-13 2021-09-02 仙之助 中村 パイプ付栽培ボックス
JP2022038689A (ja) 2020-08-27 2022-03-10 株式会社神戸製鋼所 ゴムシート成形装置用制御装置および該方法ならびにゴムシート成形装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4547547B2 (ja) 2004-05-10 2010-09-22 株式会社国際電気通信基礎技術研究所 頭部姿勢推定装置、頭部姿勢推定方法及び頭部姿勢推定処理プログラム
KR101531910B1 (ko) 2007-07-02 2015-06-29 엘지전자 주식회사 방송 수신기 및 방송신호 처리방법
JP2012039359A (ja) 2010-08-06 2012-02-23 Funai Electric Co Ltd 撮像装置
CN103493128B (zh) 2012-02-14 2015-05-27 华为技术有限公司 用于执行多信道音频信号的适应性下混和上混的方法及设备
US9042596B2 (en) * 2012-06-14 2015-05-26 Medibotics Llc Willpower watch (TM)—a wearable food consumption monitor
US10248856B2 (en) * 2014-01-14 2019-04-02 Toyota Motor Engineering & Manufacturing North America, Inc. Smart necklace with stereo vision and onboard processing
US10024679B2 (en) * 2014-01-14 2018-07-17 Toyota Motor Engineering & Manufacturing North America, Inc. Smart necklace with stereo vision and onboard processing
US9672416B2 (en) * 2014-04-29 2017-06-06 Microsoft Technology Licensing, Llc Facial expression tracking
US9727135B2 (en) 2014-04-30 2017-08-08 Microsoft Technology Licensing, Llc Gaze calibration
EP3163422B1 (de) * 2014-06-30 2020-02-12 Sony Corporation Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren, computerprogramm und bildverarbeitungssystem
US20170199579A1 (en) 2016-01-11 2017-07-13 Guo Chen Gesture Control Module
KR102565977B1 (ko) 2018-02-08 2023-08-11 삼성전자주식회사 시선에 기반한 관심 영역 검출 방법 및 이를 위한 전자 장치
JP2019186630A (ja) 2018-04-03 2019-10-24 キヤノン株式会社 撮像装置及びその制御方法及びプログラム
GB2607151B (en) * 2021-03-12 2024-06-05 Canon Kk Wearable image pickup apparatus, portable device and calibrator that communicate with image pickup apparatus, control methods therefor, and storage media
GB2611154A (en) 2021-07-29 2023-03-29 Canon Kk Image pickup apparatus used as action camera, control method therefor, and storage medium storing control program therefor
GB2611157A (en) * 2021-07-30 2023-03-29 Canon Kk Image pickup apparatus used as action camera, calibration system, control method for image pickup apparatus, and storage medium storing control program for...

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007074033A (ja) 2005-09-02 2007-03-22 Canon Inc 撮像装置及びその制御方法及びプログラム及び記憶媒体
JP2017060078A (ja) 2015-09-18 2017-03-23 カシオ計算機株式会社 画像録画システム、ユーザ装着装置、撮像装置、画像処理装置、画像録画方法、及びプログラム
JP2021126103A (ja) 2020-02-13 2021-09-02 仙之助 中村 パイプ付栽培ボックス
JP2022038689A (ja) 2020-08-27 2022-03-10 株式会社神戸製鋼所 ゴムシート成形装置用制御装置および該方法ならびにゴムシート成形装置

Also Published As

Publication number Publication date
CN115695959A (zh) 2023-02-03
US11849205B2 (en) 2023-12-19
GB2611397A (en) 2023-04-05
GB202210460D0 (en) 2022-08-31
US20230035277A1 (en) 2023-02-02
KR20230019016A (ko) 2023-02-07

Similar Documents

Publication Publication Date Title
DE112015006383B4 (de) Abstandsbild-Erfassungsvorrichtung und Abstandsbild-Erfassungsverfahren
DE102014216491B4 (de) Bildaufnahmevorrichtung und steuerungsverfahren für diese
CN103997599B (zh) 图像处理设备、图像拾取设备以及图像处理方法
DE202019006001U1 (de) Elektronische Vorrichtung zur Gewinnung von Tiefeninformation
JP4671133B2 (ja) 画像処理装置
US8159559B2 (en) Image pick-up apparatus with synchronization, image pick-up method and recording medium
DE102022118817A1 (de) Bildaufnahmevorrichtung, die als Action-Kamera verwendet wird, Steuerverfahren für diese und Speichermedium, das ein Steuerprogramm für diese speichert
US9426372B2 (en) Imaging device and imaging method
CN109155815A (zh) 摄像装置及其设定画面
DE102022105788A1 (de) Tragbare Bildaufnahmevorrichtung, tragbare Einrichtung und Kalibriereinrichtung, die mit der Bildaufnahmevorrichtung kommunizieren, Steuerverfahren für diese und Speichermedien, die Steuerprogramme für diese speichern
DE102018101904B4 (de) Bildaufnahmevorrichtung und Steuerverfahren für diese
DE102018133322A1 (de) Elektronische Vorrichtung, Verfahren zur Steuerung dieser und Programm
CN109218606B (zh) 摄像控制设备、其控制方法及计算机可读介质
DE102016015839B3 (de) Bildaufnahmevorrichtung, Steuerverfahren für diese, Programm und computerlesbares Aufzeichnungsmedium
US20060197851A1 (en) Positioning a subject with respect to a background scene in a digital camera
DE102022118923A1 (de) Bildaufnahmevorrichtung, die als eine Aktionskamera verwendet wird, Kalibrierungssystem, Steuerungsverfahren für eine Bildaufnahmevorrichtung und Speichermedium, das ein Steuerungsprogramm für eine Bildaufnahmevorrichtung speichert
DE202020005552U1 (de) Kameraerweiterungsrahmen und -module
CN113329172B (zh) 拍摄方法、装置及电子设备
DE102022118931A1 (de) Als Actionkamera verwendete Bildaufnahmevorrichtung
WO2013146041A1 (ja) 画像処理装置及び方法並びに撮像装置
JP2008228053A (ja) カメラ
JP2020014051A (ja) 情報処理方法、及び情報処理装置
DE102009027692B4 (de) Bildverarbeitungsverfahren und Bildverarbeitungsvorrichtung sowie Digitalfotografiervorrichtung, die Letztere verwendet
JP7128347B2 (ja) 画像処理装置、画像処理方法及びプログラム、撮影装置
JP6885133B2 (ja) 画像処理装置、撮像システム、画像処理方法及びプログラム

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: H04N0005247000

Ipc: H04N0023900000