DE112018005062T5 - INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS, PROGRAM AND LIGHTING SYSTEM - Google Patents

INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS, PROGRAM AND LIGHTING SYSTEM Download PDF

Info

Publication number
DE112018005062T5
DE112018005062T5 DE112018005062.9T DE112018005062T DE112018005062T5 DE 112018005062 T5 DE112018005062 T5 DE 112018005062T5 DE 112018005062 T DE112018005062 T DE 112018005062T DE 112018005062 T5 DE112018005062 T5 DE 112018005062T5
Authority
DE
Germany
Prior art keywords
light emission
light
unit
image
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE112018005062.9T
Other languages
German (de)
Inventor
Tadashi Yamaguchi
Seijiro Inaba
Daisuke Nakao
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of DE112018005062T5 publication Critical patent/DE112018005062T5/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/02Illuminating scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • G03B7/16Control of exposure by setting shutters, diaphragms or filters, separately or conjointly in accordance with both the intensity of the flash source and the distance of the flash source from the object, e.g. in accordance with the "guide number" of the flash bulb and the focusing of the camera
    • G03B7/17Selection of modes in flash units by exposure control arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Abstract

Die vorliegende Erfindung steuert automatisch die Einstellungen von Lichtquellen, um die Entwurfsdaten beizubehalten, indem die Lichtemissionsstärke jeder Lichtquelle geändert wird, falls die Bewegung eines sich bewegenden Motivs, das sich im Verhältnis zu einem abzubildenden Objekt befindet, eine Differenz zwischen einem Bild, das erhalten werden kann, und den Entwurfsdaten verursacht. Dieses Beleuchtungssystem weist eine Informationsverarbeitungsvorrichtung und eine Lichtemissionseinheit auf. Die Informationsverarbeitungsvorrichtung weist Folgendes auf: eine Steuereinheit, die die Einstellungen für die Lichtemissionseinheit gemäß den Entwurfsdaten, die die Charakteristiken eines gewünschten Bildes angeben, und den Lichtemissionseffekten der Lichtemissionseinheit bestimmt, und die die Einstellungen steuert, die derart eingestellt werden, dass die Entwurfsdaten beibehalten werden, falls es eine Änderung beim Motiv gibt; und eine Ausgabeeinheit, die die Einstellungen zu der Lichtemissionseinheit ausgibt. Die Lichtemissionseinheit weist eine Lichtemissionssteuereinheit auf, die die Lichtemission auf Basis der von der Informationsverarbeitungsvorrichtung ausgegebenen Einstellungen steuert.The present invention automatically controls the settings of light sources to maintain the design data by changing the light emissivity of each light source if the movement of a moving subject relative to an object to be imaged is a difference between an image that is obtained can, and caused the design data. This lighting system has an information processing device and a light emission unit. The information processing apparatus includes: a control unit that determines the settings for the light emitting unit in accordance with the design data indicating the characteristics of a desired image and the light emitting effects of the light emitting unit and controls the settings that are set so that the design data are retained if there is a change in the motif; and an output unit that outputs the settings to the light emission unit. The light emission unit has a light emission control unit that controls the light emission based on the settings output from the information processing device.

Description

TECHNISCHES GEBIETTECHNICAL AREA

Die vorliegende Offenbarung betrifft eine Informationsverarbeitungseinrichtung, ein Informationsverarbeitungsverfahren, ein Programm und ein Beleuchtungssystem.The present disclosure relates to an information processing device, an information processing method, a program and a lighting system.

STAND DER TECHNIKSTATE OF THE ART

Eine Erfassungstechnik zum Erfassen eines Bildes in einem Zustand des Bestrahlens (Belichtens) eines Objekts mit Licht von mehreren Lichtquellen ist bekannt. In Produktionsstätten für Fotos und Videos (z. B. Filme) wird häufig Beleuchtung als eine Technik verwendet, um ein Objekt eindrucksvoll wiederzugeben, wie etwa, um dem Objekt einen stereoskopischen Effekt zu verleihen. Um einen gewünschten Beleuchtungseffekt zu erzielen, sind jedoch eine wiederholende Anpassung für die mehreren Lichtquellen und eine Testerfassung nach der Anpassung erforderlich, und allgemeine Beleuchtungssysteme besitzen das Problem, viel Personal und Zeit zu erfordern. Angesichts einer solchen Situation wurde eine Erfassungssimulationsvorrichtung vorgeschlagen, die Beleuchtungsbedingungen auf einem Computer einstellen und ein Bild überprüfen kann, das unter den eingestellten Beleuchtungsbedingungen auf dem Computer erhalten wurde (siehe beispielsweise Patentdokument 1 unten).A capturing technique for capturing an image in a state of irradiating (exposing) an object with light from multiple light sources is known. In photo and video (e.g., film) factories, lighting is often used as a technique to render an object impressively, such as to give the object a stereoscopic effect. However, to achieve a desired lighting effect, repeated adjustment for the multiple light sources and test detection after adjustment are required, and general lighting systems have a problem of requiring a lot of personnel and time. In view of such a situation, there has been proposed a detection simulation device that can set lighting conditions on a computer and can check an image obtained under the set lighting conditions on the computer (see, for example, Patent Document 1 below).

REFERENZLISTEREFERENCE LIST

PATENTDOKUMENTPATENT DOCUMENT

Patentdokument 1: Japanische Patentanmeldung, Offenlegungs-Nr. 2005-301785.Patent Document 1: Japanese Patent Application, Laid-Open No. 2005-301785.

KURZDARSTELLUNG DER ERFINDUNGSUMMARY OF THE INVENTION

DURCH DIE ERFINDUNG ZU LÖSENDE PROBLEMEPROBLEMS TO BE SOLVED BY THE INVENTION

Selbst wenn das Beleuchtungsergebnis auf dem Computer wie in der in Patentdokument 1 beschriebenen Technologie simuliert werden kann, besteht jedoch das Problem, dass die Beleuchtungsbedingungen durch Versuch und Irrtum eingestellt werden müssen, um einen gewünschten Beleuchtungseffekt zu erhalten.However, even if the lighting result can be simulated on the computer as in the technology described in Patent Document 1, there is a problem that the lighting conditions have to be trial and error set in order to obtain a desired lighting effect.

Eine Aufgabe der vorliegenden Offenbarung besteht darin, eine Informationsverarbeitungseinrichtung, ein Informationsverarbeitungsverfahren, ein Programm und ein Beleuchtungssystem bereitzustellen, die in der Lage sind, Einstellungen einer Lichtemissionseinheit (Lichtquelle) zum Erhalten eines gewünschten Beleuchtungseffekts leicht durchzuführen.An object of the present disclosure is to provide an information processing device, an information processing method, a program, and a lighting system capable of easily making settings of a light emitting unit (light source) to obtain a desired lighting effect.

LÖSUNGEN DER PROBLEMEPROBLEM SOLUTIONS

Die vorliegende Offenbarung ist zum Beispiel
eine Informationsverarbeitungseinrichtung, die Folgendes aufweist:

  • eine Steuereinheit, die dazu ausgelegt ist, eine Einstellung einer Lichtemissionseinheit gemäß Konzeptdaten, die eine Charakteristik eines gewünschten Bildes und ein Lichtemissionsergebnis der Lichtemissionseinheit angeben, zu bestimmen, wobei
  • die Steuereinheit die bestimmte Einstellung steuert, um die Konzeptdaten in einem Fall beizubehalten, in dem eine Änderung in einem Objekt aufgetreten ist.
For example, the present disclosure is
an information processing device comprising:
  • a control unit configured to determine a setting of a light emission unit according to concept data indicating a characteristic of a desired image and a light emission result of the light emission unit, wherein
  • the control unit controls the particular setting to maintain the concept data in a case where a change has occurred in an object.

Die vorliegende Offenbarung ist zum Beispiel
ein Informationsverarbeitungsverfahren, das Folgendes aufweist:

  • Bestimmen einer Einstellung einer Lichtemissionseinheit gemäß Konzeptdaten, die eine Charakteristik eines gewünschten Bildes und ein Lichtemissionsergebnis der Lichtemissionseinheit angeben; und
  • Steuern der bestimmten Einstellung, um die Konzeptdaten in einem Fall beizubehalten, in dem eine Änderung in einem Objekt aufgetreten ist.
For example, the present disclosure is
an information processing method comprising:
  • Determining a setting of a light emission unit according to concept data indicating a characteristic of a desired image and a light emission result of the light emission unit; and
  • Control the particular setting to keep the concept data in a case where a change has occurred in an object.

Die vorliegende Offenbarung ist zum Beispiel
ein Programm, das einen Computer veranlasst, die folgende Verarbeitung auszuführen:

  • Bestimmen einer Einstellung einer Lichtemissionseinheit gemäß Konzeptdaten, die eine Charakteristik eines gewünschten Bildes und ein Lichtemissionsergebnis der Lichtemissionseinheit angeben; und
  • Steuern der bestimmten Einstellung, um die Konzeptdaten in einem Fall beizubehalten, in dem eine Änderung in einem Objekt aufgetreten ist.
For example, the present disclosure is
a program that causes a computer to perform the following processing:
  • Determining a setting of a light emission unit according to concept data indicating a characteristic of a desired image and a light emission result of the light emission unit; and
  • Control the particular setting to the concept data in one case maintain where a change occurred in an object.

Die vorliegende Offenbarung ist zum Beispiel
ein Beleuchtungssystem, das Folgendes aufweist:

  • eine Informationsverarbeitungseinrichtung; und
  • eine Lichtemissionseinheit,
  • wobei die Informationsverarbeitungseinrichtung Folgendes aufweist:
    • eine Steuereinheit, die dazu ausgelegt ist, eine Einstellung einer Lichtemissionseinheit gemäß Konzeptdaten, die eine Charakteristik eines gewünschten Bildes und ein Lichtemissionsergebnis der Lichtemissionseinheit angeben, zu bestimmen, und die bestimmte Einstellung zu steuern, um die Konzeptdaten in einem Fall beizubehalten, in dem eine Änderung in einem Objekt aufgetreten ist, und
    • eine Ausgabeeinheit, die dazu ausgelegt ist, die Einstellung zu der Lichtemissionseinheit auszugeben,
  • wobei die Lichtemissionseinheit Folgendes aufweist:
    • eine Lichtemissionssteuereinheit, die dazu ausgelegt ist, die Lichtemission basierend auf der von der Informationsverarbeitungseinrichtung ausgegebenen Einstellung zu steuern.
For example, the present disclosure is
a lighting system comprising:
  • an information processing device; and
  • a light emission unit,
  • the information processing device comprising:
    • a control unit configured to determine a setting of a light emission unit according to concept data indicating a characteristic of a desired image and a light emission result of the light emission unit, and to control the determined setting to keep the concept data in a case where a change occurred in an object, and
    • an output unit that is designed to output the setting for the light emission unit,
  • wherein the light emission unit comprises:
    • a light emission control unit configured to control the light emission based on the setting output from the information processing device.

EFFEKTE DER ERFINDUNGEFFECTS OF THE INVENTION

Gemäß zumindest Ausführungsformen der vorliegenden Offenbarung kann eine Lichtemissionseinheit zum Erhalten eines gewünschten Beleuchtungseffekts leicht eingestellt werden. Es ist zu beachten, dass hierin beschriebene Effekte nicht notwendigerweise beschränkt sind und dass beliebige in der vorliegenden Offenbarung beschriebene Effekte auftreten können. Darüber hinaus wird der Inhalt der vorliegenden Offenbarung durch die beispielhaften Effekte nicht in beschränkter Weise ausgelegt.According to at least embodiments of the present disclosure, a light emission unit can be easily adjusted to obtain a desired lighting effect. Note that effects described herein are not necessarily limited and that any effects described in the present disclosure may occur. Furthermore, the content of the present disclosure is not interpreted in a limited manner by the exemplary effects.

FigurenlisteFigure list

  • 1 ist ein Diagramm, das ein Konfigurationsbeispiel eines Beleuchtungssystems gemäß einer ersten Ausführungsform veranschaulicht. 1 12 is a diagram illustrating a configuration example of a lighting system according to a first embodiment.
  • 2 ist ein Blockdiagramm, das ein Konfigurationsbeispiel einer Bildgebungsvorrichtung gemäß der ersten Ausführungsform veranschaulicht. 2nd FIG. 12 is a block diagram illustrating a configuration example of an imaging device according to the first embodiment.
  • 3 ist ein Blockdiagramm, das ein Konfigurationsbeispiel eines Tablet-Computers gemäß der ersten Ausführungsform veranschaulicht. 3rd FIG. 12 is a block diagram illustrating a configuration example of a tablet computer according to the first embodiment.
  • 4A bis 4C sind Blockdiagramme, die Konfigurationsbeispiele von Lichtquellen gemäß der ersten Ausführungsform veranschaulichen. 4A to 4C FIG. 10 are block diagrams illustrating configuration examples of light sources according to the first embodiment.
  • 5 ist ein Diagramm zum Beschreiben einer Kalibrationsverarbeitung gemäß der ersten Ausführungsform. 5 11 is a diagram for describing calibration processing according to the first embodiment.
  • 6 ist ein Diagramm zum Beschreiben eines Beispiels für eine Dimmungstabelle gemäß der ersten Ausführungsform. 6 FIG. 12 is a diagram for describing an example of a dimming table according to the first embodiment.
  • 7 ist ein Flussdiagramm, das ein Beispiel für einen Verarbeitungsfluss der Kalibrationsverarbeitung gemäß der ersten Ausführungsform veranschaulicht. 7 12 is a flowchart illustrating an example of a processing flow of calibration processing according to the first embodiment.
  • 8 ist ein Diagramm zum Beschreiben eines Beispiels für ein Referenzbild und dergleichen gemäß der ersten Ausführungsform. 8th 11 is a diagram for describing an example of a reference image and the like according to the first embodiment.
  • 9 ist ein Flussdiagramm, das ein Beispiel für einen Verarbeitungsfluss der Konzeptdatenerzeugungsverarbeitung gemäß der ersten Ausführungsform veranschaulicht. 9 11 is a flowchart illustrating an example of a processing flow of the concept data generation processing according to the first embodiment.
  • 10 ist ein Flussdiagramm, das ein Beispiel für einen Verarbeitungsfluss der Beleuchtungseinstellung-und-Erfassung-Verarbeitung gemäß der ersten Ausführungsform veranschaulicht. 10th FIG. 14 is a flowchart illustrating an example of a processing flow of lighting setting and detection processing according to the first embodiment.
  • 11 ist ein Diagramm, das ein Konfigurationsbeispiel eines Beleuchtungssystems gemäß einer zweiten Ausführungsform veranschaulicht. 11 FIG. 12 is a diagram illustrating a configuration example of a lighting system according to a second embodiment.
  • 12A bis 12C sind Blockdiagramme, die ein Konfigurationsbeispiel einer Lichtquelle gemäß der zweiten Ausführungsform veranschaulichen. 12A to 12C 14 are block diagrams illustrating a configuration example of a light source according to the second embodiment.
  • 13 ist ein Flussdiagramm, das ein Beispiel für einen Verarbeitungsfluss der Kalibrationsverarbeitung gemäß der zweiten Ausführungsform veranschaulicht. 13 FIG. 12 is a flowchart illustrating an example of a processing flow of calibration processing according to the second embodiment.
  • 14 ist ein Diagramm zum Beschreiben eines Beispiels für eine Dimmungstabelle gemäß der zweiten Ausführungsform. 14 FIG. 12 is a diagram for describing an example of a dimming table according to the second embodiment.
  • 15 ist ein Diagramm zum Beschreiben eines Beispiels für ein Referenzbild und dergleichen gemäß der zweiten Ausführungsform. 15 FIG. 12 is a diagram for describing an example of a reference image and the like according to the second embodiment.
  • 16 ist ein Flussdiagramm, das ein Beispiel für einen Verarbeitungsfluss der Beleuchtungseinstellung-und-Erfassung-Verarbeitung gemäß der zweiten Ausführungsform veranschaulicht. 16 FIG. 12 is a flowchart illustrating an example of a processing flow of lighting setting and detection processing according to the second embodiment.
  • 17 ist ein Diagramm zum Beschreiben von Modifikationen. 17th Fig. 12 is a diagram for describing modifications.

AUSFÜHRUNGSWEISE DER ERFINDUNGMODE FOR CARRYING OUT THE INVENTION

Nachfolgend werden Ausführungsformen und dergleichen der vorliegenden Offenbarung unter Bezugnahme auf die Zeichnungen beschrieben. Es ist zu beachten, dass die Beschreibung in der folgenden Reihenfolge gegeben wird.

  • <1. Erste Ausführungsform>
  • <2. Zweite Ausführungsform>
  • <3. Modifikation>
Hereinafter, embodiments and the like of the present disclosure will be described with reference to the drawings. Note that the description is given in the following order.
  • <1. First embodiment>
  • <2. Second embodiment>
  • <3. Modification>

Ausführungsformen und dergleichen, die unten beschrieben werden sollen, sind vorteilhafte spezifische Beispiele der vorliegenden Offenbarung, und der Inhalt der vorliegenden Offenbarung ist nicht auf diese Ausführungsformen und dergleichen beschränkt.Embodiments and the like to be described below are advantageous specific examples of the present disclosure, and the content of the present disclosure is not limited to these embodiments and the like.

<Erste Ausführungsform><First embodiment>

Zunächst wird eine erste Ausführungsform gemäß der vorliegenden Offenbarung beschrieben. Die erste Ausführungsform ist eine Ausführungsform zum automatischen Durchführen einer Beleuchtungseinstellung zum Erhalten eines von einem Benutzer gewünschten Beleuchtungseffekts, wenn der Benutzer ein Standbild erfasst. Die Beleuchtungseinstellung bedeutet eine Einstellung für eine Lichtquelle (Leuchte), und bei der Ausführungsform wird eine Einstellung bezüglich der Lichtemissionsintensität der Lichtquelle als ein Beispiel beschrieben. Es ist zu beachten, dass die Einstellung für die Lichtquelle nicht auf die Lichtemissionsintensität der Lichtquelle beschränkt ist. Beispielsweise kann sich die Einstellung auf die oben beschriebene Lichtemissionsintensität und/oder eine Farbtemperatur des von der Lichtquelle emittierten Lichts und/oder eine Weichheit/Härte des Lichts und/oder einen Bestrahlungsbereich des Lichts und/oder eine Bestrahlungsrichtung des Lichts beziehen. Die Einstellung kann ein spezifischer Wert (in dem Fall der Farbtemperatur beispielsweise ein spezifischer Wert in Einheiten von Kelvin (K)) sein oder kann ein Wert (Flag) entsprechend einem Pegel der Lichtemissionsintensität (beispielsweise starke, mittelstarke oder schwache Lichtemissionsintensität) oder der Bestrahlungsrichtung des Lichts (beispielsweise etwas nach rechts, nach links oder dergleichen in Bezug auf eine Referenzrichtung) sein.First, a first embodiment according to the present disclosure will be described. The first embodiment is an embodiment for automatically performing a lighting setting to obtain one of them User desired lighting effect when the user captures a still image. The lighting setting means a setting for a light source (luminaire), and in the embodiment, a setting regarding the light emission intensity of the light source is described as an example. Note that the setting for the light source is not limited to the light emission intensity of the light source. For example, the setting can relate to the light emission intensity described above and / or a color temperature of the light emitted by the light source and / or a softness / hardness of the light and / or an irradiation area of the light and / or an irradiation direction of the light. The setting can be a specific value (in the case of the color temperature, for example, a specific value in units of Kelvin (K)) or can be a value (flag) corresponding to a level of light emission intensity (for example strong, moderate or weak light emission intensity) or the direction of irradiation of the Light (for example slightly to the right, to the left or the like with respect to a reference direction).

[Konfigurationsbeispiel des Beleuchtungssystems][Configuration example of the lighting system]

1 veranschaulicht ein Konfigurationsbeispiel eines Beleuchtungssystems (Beleuchtungssystems 10) gemäß der ersten Ausführungsform der vorliegenden Offenbarung. Das Beleuchtungssystem 10 weist eine Bildgebungsvorrichtung 1, einen Tablet-Computer (im Folgenden als ein Tablet-Computer 2 bezeichnet), der ein Beispiel für eine Informationsverarbeitungseinrichtung ist, und mehrere Lichtquellen (Lichtemissionseinheiten) auf. Das Beleuchtungssystem 10 gemäß der gegenwärtigen Ausführungsform weist drei Lichtquellen (Lichtquellen 3A, 3B und 3C) auf, die einer Beleuchtungstechnik entsprechen, die als Drei-Lampen-Beleuchtung bezeichnet wird. Beispielsweise wird die Lichtquelle 3A Fülllicht genannt, die Lichtquelle 3B wird Führungslicht genannt und die Lichtquelle 3C wird Hintergrundlicht genannt. Ein Objekt 4 wird unter Verwendung der Bildgebungsvorrichtung 1 in einem Zustand erfasst, in dem die Lichtquellen 3A bis 3C Licht emittieren. Bei der gegenwärtigen Ausführungsform emittieren die Lichtquelle 3A und die Lichtquelle 3B unmittelbar Licht (Blitzlichtemission) synchron mit der Erfassung. Darüber hinaus emittiert die Lichtquelle 3C nicht unmittelbar Licht synchron mit der Erfassung, obwohl sie zu der Zeit der Erfassung Licht emittiert, und ist Dauerlicht, das konstant Licht emittiert. Das Objekt 4 ist in 1 schematisch als eine Person veranschaulicht. Das Objekt 4 ist jedoch nicht auf eine Person beschränkt und kann mehrere Personen, andere Lebewesen wie etwa Haustiere, Kunstwerke oder dergleichen sein. 1 illustrates a configuration example of a lighting system (lighting system 10th ) according to the first embodiment of the present disclosure. The lighting system 10th has an imaging device 1 , a tablet computer (hereinafter referred to as a tablet computer 2nd designated), which is an example of an information processing device, and a plurality of light sources (light emission units). The lighting system 10th according to the current embodiment has three light sources (light sources 3A , 3B and 3C) that correspond to a lighting technique called three-lamp lighting. For example, the light source 3A Fill light called the light source 3B is called the guide light and the light source 3C is called background light. An object 4th using the imaging device 1 captured in a state where the light sources 3A to 3C Emit light. In the current embodiment, the light source emit 3A and the light source 3B immediate light (flash light emission) synchronized with the detection. In addition, the light source emits 3C light is not immediately in sync with the detection even though it emits light at the time of detection, and is steady light that constantly emits light. The object 4th is in 1 schematically illustrated as one person. The object 4th however, is not limited to one person and may be multiple people, other living things such as pets, works of art or the like.

Eine Kommunikation kann zwischen der Bildgebungsvorrichtung 1 und dem Tablet-Computer 2 und zwischen dem Tablet-Computer 2 und den Lichtquellen 3A bis 3C durchgeführt werden. Beispielsweise wird eine drahtlose Kommunikation basierend auf WiFi (eingetragenes Warenzeichen) zwischen den Vorrichtungen durchgeführt. Eine drahtlose Kommunikation basierend auf einem Kommunikationsstandard außer WiFi (eingetragenes Warenzeichen) kann durchgeführt werden, eine Kommunikation unter Verwendung von Infrarotstrahlen kann durchgeführt werden oder eine verdrahtete Kommunikation kann durchgeführt werden. Zum Beispiel kommunizieren die Vorrichtungen miteinander, nachdem eine bekannte Kopplungsverarbeitung durchgeführt wird, um diesen Vorrichtungen zu ermöglichen, sich gegenseitig zu erkennen, und in der Lage zu sein, miteinander zu kommunizieren.Communication can occur between the imaging device 1 and the tablet computer 2nd and between the tablet computer 2nd and the light sources 3A to 3C be performed. For example, wireless communication based on WiFi (registered trademark) is performed between the devices. Wireless communication based on a communication standard other than WiFi (registered trademark) can be performed, communication using infrared rays can be performed, or wired communication can be performed. For example, the devices communicate with each other after known coupling processing is performed to enable these devices to recognize each other and to be able to communicate with each other.

[Bildgebungsvorrichtung][Imaging device]

(Konfigurationsbeispiel der Bildgebungsvorrichtung)(Configuration example of the imaging device)

Als Nächstes werden Konfigurationsbeispiele der Vorrichtungen beschrieben, die das Beleuchtungssystem 10 bilden. Zunächst wird ein Konfigurationsbeispiel der Bildgebungsvorrichtung 1 beschrieben. 2 veranschaulicht ein Konfigurationsbeispiel der Bildgebungsvorrichtung 1. Die Bildgebungsvorrichtung 1 weist beispielsweise ein optisches Abbildungssystem 101, einen dedizierten Phasendifferenz-Autofokus(AF)-Sensor 102, ein Abbildungselement 103, eine Vorverarbeitungsschaltung 104, eine Kameraverarbeitungsschaltung 105, einen Bildspeicher 106 und eine Kamerasteuereinheit 107, eine Grafikschnittstelle (Grafik-I/F) 108, eine Anzeige 109, eine Eingabeeinheit 110, ein Lese-/Schreibgerät (R/W) 111, eine Speicherungseinheit 112 und eine Kamerakommunikationseinheit 113 auf.Next, configuration examples of the devices constituting the lighting system will be described 10th form. First, a configuration example of the imaging device 1 described. 2nd illustrates a configuration example of the imaging device 1 . The imaging device 1 has, for example, an optical imaging system 101 , a dedicated phase difference auto focus (AF) sensor 102, an imaging element 103 , a preprocessing circuit 104 , a camera processing circuit 105 , an image memory 106 and a camera control unit 107 , a graphics interface (Graphics I / F) 108, a display 109 , an input unit 110 , a reader / writer (R / W) 111, a storage unit 112 and a camera communication unit 113 on.

Das optische Abbildungssystem 101 weist eine Erfassungslinse 101A (einschließlich einer Fokussierlinse, einer Zoomlinse und dergleichen) zum Bündeln von Licht von einem Objekt auf das Abbildungselement 103, einen Linsenantriebsmechanismus 101B, der eine Fokussieranpassung durch Bewegen der Fokussierlinse durchführt, und einen Verschlussmechanismus, einen Irismechanismus und dergleichen auf. Diese Linse und diese Mechanismen werden auf Basis eines Steuersignals von der Kamerasteuereinheit 107 angesteuert. Der Linsenantriebsmechanismus 101B setzt eine AF-Operation durch Bewegen der Erfassungslinse 101A entlang einer Richtung der optischen Achse gemäß dem Steuersignal um, das von der Kamerasteuereinheit 107 geliefert wird. Ein optisches Bild des Objekts, das durch das optische Abbildungssystem 101 erhalten wird, wird auf dem Abbildungselement 103 als eine Abbildungsvorrichtung gebildet.The optical imaging system 101 has a detection lens 101A (including a focusing lens, a zoom lens and the like) for focusing light from an object onto the imaging element 103 , a lens drive mechanism 101B that performs focusing adjustment by moving the focusing lens, and a shutter mechanism, an iris mechanism, and the like. This lens and these mechanisms are based on a control signal from the camera control unit 107 controlled. The lens drive mechanism 101B sets an AF operation by moving the detection lens 101A along a direction of the optical axis according to the control signal from the camera control unit 107 is delivered. An optical image of the object through the optical imaging system 101 is obtained is on the imaging element 103 formed as an imaging device.

Der dedizierte Phasendifferenz-AF-Sensor 102 ist beispielsweise ein dedizierter Autofokus-Sensor vom Phasendifferenz-Detektionstyp. Durch die Erfassungslinse 101A gebündeltes Objektlicht wird durch einen halbdurchlässigen Spiegel oder dergleichen reflektiert, um in den dedizierten Phasendifferenz-AF-Sensor 102 einzutreten. Ein durch den dedizierten Phasendifferenz-AF-Sensor 102 detektiertes Fokusdetektionssignal wird der Kamerasteuereinheit 107 zugeführt.The dedicated phase difference AF sensor 102 is a dedicated auto focus Phase difference detection type sensor. Through the detection lens 101A Concentrated object light is reflected by a semitransparent mirror or the like to be in the dedicated phase difference AF sensor 102 to enter. One by the dedicated phase difference AF sensor 102 Detected focus detection signal is the camera control unit 107 fed.

Das Abbildungselement 103 ist eine CCD (Charge Coupled Device), ein komplementärer Metalloxidhalbleiter (CMOS) oder dergleichen. Das Abbildungselement 103 wandelt das über die Erfassungslinse 101A einfallende Objektlicht photoelektrisch in eine Ladungsmenge um und erzeugt ein Bild. Das Abbildungselement 103 weist ein normales Abbildungspixel und ein Phasendifferenz-Detektionspixel auf. Ein Bildebenen-Phasendifferenz-AF-Sensor 103A ist ein Autofokus-Sensor, der mehrere Phasendifferenz-Detektionspixel aufweist. Das durch den Bildebenen-Phasendifferenz-AF-Sensor 103A detektierte Fokusdetektionssignal wird der Kamerasteuereinheit 107 zugeführt.The illustration element 103 is a CCD (Charge Coupled Device), a complementary metal oxide semiconductor (CMOS) or the like. The illustration element 103 converts that through the detection lens 101A incident light photoelectrically into an amount of charge and forms an image. The illustration element 103 has a normal imaging pixel and a phase difference detection pixel. An image plane phase difference AF sensor 103A is an auto focus sensor that has multiple phase difference detection pixels. That through the image plane phase difference AF sensor 103A detected focus detection signal is the camera control unit 107 fed.

Die Vorverarbeitungsschaltung 104 führt ein Abtasten-Halten (Sample Hold) für ein vom Abbildungselement 103 ausgegebenes Abbildungssignal durch, um ein günstiges Signal/Rausch(S/N)-Verhältnis durch eine korrelierte Doppelabtastungsverarbeitung (CDS-Verarbeitung) beizubehalten. Darüber hinaus steuert die Vorverarbeitungsschaltung 104 eine Verstärkung durch automatische Verstärkungsregelungsverarbeitung (AGC-Verarbeitung) und führt eine Analog/Digital(A/D)-Wandlung durch und gibt ein digitales Bildsignal aus.The preprocessing circuit 104 performs a sample hold for one of the imaging element 103 output image signal to maintain a favorable signal-to-noise (S / N) ratio through correlated double-scan processing (CDS processing). It also controls the preprocessing circuit 104 amplification by automatic gain control processing (AGC processing) and performs analog / digital (A / D) conversion and outputs a digital image signal.

Die Kameraverarbeitungsschaltung 105 wendet eine Signalverarbeitung auf das Bildsignal von der Vorverarbeitungsschaltung 104 an, wie etwa eine Weißabgleichanpassungsverarbeitung, eine Farbkorrekturverarbeitung, eine Gammakorrekturverarbeitung, eine Y/C-Umwandlungsverarbeitung und eine automatische Belichtungsverarbeitung (AE-Verarbeitung).The camera processing circuit 105 applies signal processing to the image signal from the preprocessing circuit 104 such as white balance adjustment processing, color correction processing, gamma correction processing, Y / C conversion processing, and automatic exposure processing (AE processing).

Der Bildspeicher 106 ist ein flüchtiger Speicher, beispielsweise ein Pufferspeicher, der durch einen dynamischen Direktzugriffsspeicher (DRAM) konfiguriert wird, und vorübergehend Bilddaten speichert, auf die die vorbestimmte Verarbeitung durch die Vorverarbeitungsschaltung 104 und die Kameraverarbeitungsschaltung 105 angewendet wurde.The image storage 106 is a volatile memory such as a buffer memory configured by a dynamic random access memory (DRAM) and temporarily stores image data on which the predetermined processing by the preprocessing circuit 104 and the camera processing circuit 105 was applied.

Die Kamerasteuereinheit 107 wird beispielsweise durch eine Zentralverarbeitungseinheit (CPU) konfiguriert und weist einen Nurlesespeicher (ROM) 107A und einen Direktzugriffsspeicher (RAM) 107B auf. Der ROM 107A speichert ein Programm, das durch die CPU und dergleichen gelesen und ausgeführt wird. Der RAM 107B wird als ein Arbeitsspeicher für die CPU verwendet. Die CPU steuert die gesamte Bildgebungsvorrichtung 1, indem sie verschiedene Arten von Verarbeitung gemäß dem im ROM 107A gespeicherten Programm ausführt und Befehle erstellt. Beispielsweise führt die CPU eine Steuerung bezüglich des oben beschriebenen AF durch. Obwohl nachstehend Einzelheiten beschrieben werden, steuert die Kamerasteuereinheit 107 jede Einheit der Bildgebungsvorrichtung 1 so, dass die Erfassung in einem Zustand durchgeführt wird, in dem jede der mehreren Lichtquellen 3A bis 3C Licht auf Basis der entsprechenden Einstellung emittiert.The camera control unit 107 is configured, for example, by a central processing unit (CPU) and has a read-only memory (ROM) 107A and a random access memory (RAM) 107B on. The ROM 107A stores a program that is read and executed by the CPU and the like. The RAM 107B is used as a working memory for the CPU. The CPU controls the entire imaging device 1 by performing different types of processing according to the ROM 107A executes the stored program and creates commands. For example, the CPU controls the AF described above. Although details will be described below, the camera control unit controls 107 each unit of the imaging device 1 so that the detection is performed in a state in which each of the multiple light sources 3A to 3C Light emitted based on the appropriate setting.

Die Grafik-I/F 108 erzeugt aus dem von der Kamerasteuereinheit 107 gelieferten Bildsignal ein auf der Anzeige 109 anzuzeigendes Bildsignal und liefert das Bildsignal an die Anzeige 109, um ein Bild anzuzeigen. Die Anzeige 109 zeigt ein erfasstes Durchgangsbild, ein in der Speicherungseinheit 112 aufgezeichnetes Bild oder dergleichen an.The graphics I / F 108 generated from that of the camera control unit 107 supplied image signal on the display 109 image signal to be displayed and supplies the image signal to the display 109 to display an image. The ad 109 shows a captured passage image, one in the storage unit 112 recorded image or the like.

Die Anzeige 109 wird durch eine Flüssigkristallanzeige (LCD), eine organische Elektrolumineszenz(EL)-Anzeige oder dergleichen konfiguriert.The ad 109 is configured by a liquid crystal display (LCD), an organic electroluminescence (EL) display or the like.

Die Eingabeeinheit 110 weist zum Beispiel einen Einschaltknopf zum Ein-/Ausschalten der Stromversorgung, einen Auslöseknopf zum Ausgeben einer Anweisung für den Beginn der Aufzeichnung eines erfassten Bildes, ein Bedienelement zur Zoomanpassung, einen Touchscreen, der integral mit der Anzeige 109 ausgebildet ist, und dergleichen auf. Wenn eine Eingabe in die Eingabeeinheit 110 vorgenommen wird, wird ein Steuersignal entsprechend der Eingabe erzeugt und zu der Kamerasteuereinheit 107 ausgegeben. Dann führt die Kamerasteuereinheit 107 eine arithmetische Verarbeitung und Steuerung entsprechend dem Steuersignal durch.The input unit 110 has, for example, a power button for switching the power supply on / off, a trigger button for issuing an instruction to start recording a captured image, a control element for zoom adjustment, a touchscreen that is integral with the display 109 is formed, and the like. If an entry in the input unit 110 is made, a control signal corresponding to the input is generated and sent to the camera control unit 107 spent. Then the camera control unit guides 107 perform arithmetic processing and control according to the control signal.

Das R/W 111 ist eine Schnittstelle, mit der die Speicherungseinheit 112 verbunden ist, die durch Bildgebung erzeugte Bilddaten aufzeichnet. Das R/W 111 schreibt von der Kamerasteuereinheit 107 zugeführte Daten in die Speicherungseinheit 112 und gibt die von der Speicherungseinheit 112 gelesenen Daten zu der Kamerasteuereinheit 107 aus. Die Speicherungseinheit 112 ist beispielsweise eine Festplatte, ein Memory Stick (eingetragene Marke der Sony Corporation), eine SD-Speicherkarte, ein USB-Speicher (Universal Serial Bus) oder dergleichen. Ein Bild wird in einem komprimierten Zustand auf Basis eines JPEG-Standards (Joint Photographic Experts Group) oder dergleichen gespeichert. Darüber hinaus werden Daten im EXIF-Format (Exchangeable Image File Format), einschließlich Informationen bezüglich des gespeicherten Bildes und zusätzlicher Informationen wie etwa Erfassungsdatum und -zeit, ebenfalls in Assoziation mit dem Bild gespeichert. Die Speicherungseinheit 112 kann in die Bildgebungsvorrichtung 1 eingebaut sein, kann an der Bildgebungsvorrichtung 1 anbringbar/von dieser abnehmbar sein oder kann beides sein.The R / W 111 is an interface with which the storage unit 112 is connected, which records image data generated by imaging. The R / W 111 writes from the camera control unit 107 fed data into the storage unit 112 and returns that from the storage unit 112 read data to the camera control unit 107 out. The storage unit 112 is, for example, a hard disk, a memory stick (registered trademark of Sony Corporation), an SD memory card, a USB memory (Universal Serial Bus) or the like. An image is stored in a compressed state based on a JPEG standard (Joint Photographic Experts Group) or the like. In addition, data in EXIF (Exchangeable Image File Format), including information regarding the stored image and additional information such as date and time of acquisition, is also stored in association with the image. The storage unit 112 can in the imaging device 1 can be installed on the Imaging device 1 attachable / removable, or both.

Die Kamerakommunikationseinheit 113 ist eine Konfiguration für die Bildgebungsvorrichtung 1 zur Kommunikation mit anderen Vorrichtungen (zum Beispiel dem Tablet-Computer 2) und weist Funktionen auf, die zur Kommunikation notwendig sind, wie etwa eine Antenne und eine Modulations-/Demodulationsfunktion. Beispielsweise werden die Bilddaten des durch die Bildgebungsvorrichtung 1 erfassten Bildes von der Bildgebungsvorrichtung 1 durch die Kamerakommunikationseinheit 113 zum Tablet-Computer 2 übertragen.The camera communication unit 113 is a configuration for the imaging device 1 for communication with other devices (for example the tablet computer 2nd ) and has functions necessary for communication, such as an antenna and a modulation / demodulation function. For example, the image data is generated by the imaging device 1 captured image from the imaging device 1 through the camera communication unit 113 to the tablet computer 2nd transfer.

(Grundlegendes Betriebsbeispiel für die Bildgebungsvorrichtung)(Basic operating example for the imaging device)

Hier wird ein grundlegender Betrieb in der oben beschriebenen Bildgebungsvorrichtung 1 beschrieben. Vor der Erfassung eines Bildes werden durch das Abbildungselement 103 empfangene und photoelektrisch umgewandelte Signale sequenziell der Vorverarbeitungsschaltung 104 zugeführt. Die Vorverarbeitungsschaltung 104 wendet eine CDS-Verarbeitung, eine AGC-Verarbeitung und dergleichen auf das Eingangssignal an und wandelt das Eingangssignal ferner in ein Bildsignal um.Here is a basic operation in the imaging device described above 1 described. Before capturing an image, the imaging element 103 received and photoelectrically converted signals sequentially to the preprocessing circuit 104 fed. The preprocessing circuit 104 applies CDS processing, AGC processing and the like to the input signal and further converts the input signal into an image signal.

Die Kameraverarbeitungsschaltung 105 führt eine Bildqualitätskorrekturverarbeitung für das von der Vorverarbeitungsschaltung 104 gelieferte Bildsignal durch und liefert das Bildsignal über die Kamerasteuereinheit 107 als Durchgangsbildsignal an die Grafik-I/F 108. Dadurch wird das Durchgangsbild auf der Anzeige 109 angezeigt. Der Benutzer sieht das auf der Anzeige 109 angezeigte Durchgangsbild und kann einen Blickwinkel anpassen.The camera processing circuit 105 performs image quality correction processing for that from the preprocessing circuit 104 delivered image signal and delivers the image signal via the camera control unit 107 to the graphic I / F 108 as a continuous image signal 109 displayed. The user sees that on the display 109 displayed passage picture and can adjust a viewing angle.

In diesem Zustand gibt die Kamerasteuereinheit 107, wenn der Auslöseknopf der Eingabeeinheit 110 gedrückt wird, das Steuersignal zu dem optischen Abbildungssystem 101 aus, um Verschlüsse zu betätigen, die das optische Abbildungssystem 101 bilden. Dadurch gibt das Abbildungselement 103 ein Bildsignal für ein Einzelbild aus.In this state the camera control unit gives 107 when the input unit release button 110 is pressed, the control signal to the imaging optical system 101 to operate shutters that the imaging optical system 101 form. This gives the imaging element 103 an image signal for one frame.

Die Kameraverarbeitungsschaltung 105 wendet eine Bildqualitätskorrekturverarbeitung auf das Bildsignal für ein Einzelbild an, das von dem Abbildungselement 103 über die Vorverarbeitungsschaltung 104 geliefert wird, und liefert das verarbeitete Bildsignal an die Kamerasteuereinheit 107. Die Kamerasteuereinheit 107 komprimiert und codiert das Eingangsbildsignal und liefert die erzeugten codierten Daten an das R/W 111. Dadurch wird eine Datendatei eines erfassten Standbildes in der Speicherungseinheit 112 über das R/W 111 gespeichert. Es ist zu beachten, dass beim Erfassen eines Bewegtbildes die oben beschriebene Verarbeitung in Echtzeit als Reaktion auf eine Bewegtbilderfassungsanweisung durchgeführt wird. Ein Standbild kann zu der Zeit der Erfassung eines Bewegtbildes durch Drücken des Auslöseknopfs zu der Zeit der Erfassung des Bewegtbildes erfasst werden.The camera processing circuit 105 applies image quality correction processing to the image signal for a single image generated by the imaging element 103 via the preprocessing circuit 104 is supplied and supplies the processed image signal to the camera control unit 107 . The camera control unit 107 compresses and encodes the input image signal and delivers the generated encoded data to the R / W 111 . As a result, a data file of a captured still image is stored in the storage unit 112 about the R / W 111 saved. Note that when capturing a moving image, the processing described above is performed in real time in response to a moving image capturing instruction. A still image can be captured at the time of capturing a moving image by pressing the release button at the time of capturing the moving image.

Währenddessen liest in einem Fall der Wiedergabe einer in der Speicherungseinheit 112 gespeicherten Bilddatei die Kamerasteuereinheit 107 eine ausgewählte Standbilddatei aus der Speicherungseinheit 112 über das R/W 111 als Reaktion auf eine von der Eingabeeinheit 110 eingegebene Operation. Eine Dekomprimierungs-Decodierungsverarbeitung wird auf die gelesene Bilddatei angewendet. Dann wird das decodierte Bildsignal über die Kamerasteuereinheit 107 an die Grafik-I/F 108 geliefert. Dadurch wird ein in der Speicherungseinheit 112 gespeichertes Standbild oder Bewegtbild auf der Anzeige 109 angezeigt.Meanwhile, in a case of playback, one reads in the storage unit 112 saved image file the camera control unit 107 a selected still image file from the storage unit 112 about the R / W 111 in response to one from the input unit 110 entered operation. Decompression-decoding processing is applied to the read image file. Then the decoded image signal is sent through the camera control unit 107 to the graphic I / F 108 delivered. This creates a in the storage unit 112 saved still image or moving image on the display 109 displayed.

[Konfigurationsbeispiel des Tablet-Computers][Configuration example of the tablet computer]

3 veranschaulicht ein Konfigurationsbeispiel eines Tablet-Computers 2. Der Tablet-Computer 2 besitzt eine tragbare Größe und weist beispielsweise eine Steuereinheit 201, eine Kommunikationseinheit (im Folgenden als eine Tablet-Kommunikationseinheit bezeichnet) 202, die in dem Tablet-Computer enthalten ist, eine Anzeigeeinheit 203, eine Eingabeeinheit 204, ein R/W 205 und eine Speicherungseinheit 206 auf. 3rd illustrates a configuration example of a tablet computer 2nd . The tablet computer 2nd has a portable size and has, for example, a control unit 201 , a communication unit (hereinafter referred to as a tablet communication unit) 202 included in the tablet computer, a display unit 203 , an input unit 204 , an R / W 205 and a storage unit 206 on.

Die Steuereinheit 201 weist eine CPU und dergleichen auf und enthält einen ROM und einen RAM (nicht veranschaulicht). Der ROM speichert ein Programm, das durch die CPU und dergleichen gelesen und ausgeführt wird. Der RAM wird als ein Arbeitsspeicher für die CPU verwendet. Weiterhin weist die Steuereinheit 201 eine Dimmungstabellen-Erzeugungseinheit 201A und eine Dimmungsinformationen-Erzeugungseinheit 201B als Funktionen auf. Die Steuereinheit 201 bestimmt die Einstellungen der Lichtquellen 3A bis 3C gemäß Konzeptdaten, die eine vom Benutzer gewünschte Bildcharakteristik und Lichtemissionsergebnisse der Lichtquellen 3A bis 3C angeben.The control unit 201 has a CPU and the like and includes ROM and RAM (not illustrated). The ROM stores a program that is read and executed by the CPU and the like. The RAM is used as a working memory for the CPU. Furthermore, the control unit 201 a dimming table generation unit 201A and a dimming information generation unit 201B as functions. The control unit 201 determines the settings of the light sources 3A to 3C according to concept data, the image characteristic desired by the user and light emission results of the light sources 3A to 3C specify.

Die Tablet-Kommunikationseinheit 202 als ein Beispiel einer Ausgabeeinheit ist eine Konfiguration für den Tablet-Computer 2 zum Kommunizieren mit anderen Vorrichtungen (zum Beispiel der Bildgebungsvorrichtung 1 und den Lichtquellen 3A bis 3C) und weist Funktionen auf, die für die Kommunikation notwendig sind, wie etwa eine Antenne und eine Modulations-/Demodulationsfunktion. Beispielsweise werden die Bilddaten des von der Bildgebungsvorrichtung 1 übertragenen Bildes durch die Tablet-Kommunikationseinheit 202 empfangen und die empfangenen Bilddaten werden der Steuereinheit 201 zugeführt. Weiterhin wird die Einstellung für jede der Lichtquellen 3A bis 3C von der Tablet-Kommunikationseinheit 202 zu der entsprechenden Lichtquelle übertragen. Es ist zu beachten, dass die Tablet-Kommunikationseinheit 202 gemäß der gegenwärtigen Ausführungsform auch eine Funktion aufweist, um mit einem Netzwerk wie etwa dem Internet verbunden zu werden.The tablet communication unit 202 as an example of an output unit is a configuration for the tablet computer 2nd to communicate with other devices (e.g. the imaging device 1 and the light sources 3A to 3C ) and has functions necessary for communication, such as an antenna and a modulation / demodulation function. For example, the image data from the imaging device 1 transmitted image through the tablet communication unit 202 received and the received image data are the control unit 201 fed. Furthermore, the setting for each of the light sources 3A to 3C from the tablet communication unit 202 transmitted to the corresponding light source. It should be noted that the tablet communication unit 202 according to the current embodiment also has a function to be connected to a network such as the Internet.

Die Anzeigeeinheit 203 wird durch eine Flüssigkristallanzeige, eine organische EL-Anzeige oder dergleichen konfiguriert. Die Anzeigeeinheit 203 zeigt Bilder und Videos an, die über das Internet, Fernsehsendungen, Spielbildschirme, Menübildschirme und dergleichen gewonnen wurden. Weiterhin zeigt die Anzeigeeinheit 203 ein Referenzbild an, auf das Bezug genommen wird, wenn der Benutzer eine Eingabe zum Erzeugen von Konzeptdaten annimmt, die nachstehend beschrieben werden. Es ist zu beachten, dass die Anzeigeeinheit 203 gemäß der gegenwärtigen Ausführungsform als ein Touchscreen konfiguriert ist und zum Annehmen verschiedener Eingaben konfiguriert ist. Das heißt, die Anzeigeeinheit 203 fungiert auch als die Eingabeeinheit 204.The display unit 203 is configured by a liquid crystal display, an organic EL display, or the like. The display unit 203 displays images and videos obtained over the Internet, television programs, game screens, menu screens, and the like. The display unit also shows 203 a reference image referred to when the user accepts an input to generate concept data, which will be described below. It should be noted that the display unit 203 in accordance with the current embodiment is configured as a touchscreen and is configured to accept various inputs. That is, the display unit 203 also acts as the input unit 204 .

Die Eingabeeinheit 204 ist zum Beispiel eine physische Taste, wie etwa eine drückbare Taste oder eine Schiebetaste, ein Touchscreen oder dergleichen, und ist ein Sammelbegriff für Konfigurationen, die Benutzereingaben annehmen. Wenn eine Eingabe in die Eingabeeinheit 204 vorgenommen wird, wird ein Steuersignal entsprechend der Eingabe erzeugt und zu der Steuereinheit 201 ausgegeben. Dann führt die Steuereinheit 201 eine arithmetische Verarbeitung und Steuerung entsprechend dem Steuersignal durch. Die Eingabeeinheit 204 wird auch zum Annehmen einer Eingabe zum Erzeugen der nachfolgend zu beschreibenden Konzeptdaten verwendet.The input unit 204 For example, is a physical button, such as a push button or a slide button, a touch screen, or the like, and is a collective term for configurations that accept user input. If an entry in the input unit 204 is made, a control signal corresponding to the input is generated and sent to the control unit 201 spent. Then the control unit leads 201 perform arithmetic processing and control according to the control signal. The input unit 204 is also used to accept an input to generate the concept data to be described below.

Das R/W 205 schreibt Daten in die Speicherungseinheit 206 und liest Daten aus der Speicherungseinheit 206. Die Speicherungseinheit 206 ist beispielsweise eine Festplatte, ein Memory Stick (eingetragene Marke der Sony Corporation), eine SD-Speicherkarte, ein USB-Speicher oder dergleichen. Die Speicherungseinheit 206 kann in den Tablet-Computer 2 eingebaut sein, kann an den Tablet-Computer 2 anbringbar/von diesem abnehmbar sein oder kann beides sein.The R / W 205 writes data to the storage unit 206 and reads data from the storage unit 206 . The storage unit 206 is, for example, a hard disk, a memory stick (registered trademark of Sony Corporation), an SD memory card, a USB memory or the like. The storage unit 206 can in the tablet computer 2nd can be installed on the tablet computer 2nd attachable / detachable from this or can be both.

Es ist zu beachten, dass der Tablet-Computer 2 eine andere Konfiguration als die oben beschriebene Konfiguration aufweisen kann. Beispielsweise kann der Tablet-Computer 2 eine Lautsprechervorrichtung oder dergleichen aufweisen. Ein Betriebsbeispiel des Tablet-Computers 2 wird nachstehend beschrieben.It should be noted that the tablet computer 2nd may have a different configuration than the configuration described above. For example, the tablet computer 2nd have a speaker device or the like. An operating example of the tablet computer 2nd will be described below.

[Konfigurationsbeispiel der Lichtquelle][Configuration example of the light source]

4 veranschaulicht Konfigurationsbeispiele der Lichtquellen, und 4A veranschaulicht ein Konfigurationsbeispiel der Lichtquelle 3A, 4B veranschaulicht ein Konfigurationsbeispiel der Lichtquelle 3B und 4C veranschaulicht ein Konfigurationsbeispiel der Lichtquelle 3C. 4th illustrates configuration examples of light sources, and 4A illustrates a configuration example of the light source 3A , 4B illustrates a configuration example of the light source 3B and 4C illustrates a configuration example of the light source 3C .

Wie in 4A veranschaulicht, weist die Lichtquelle 3A beispielsweise eine Lichtemissionseinheit (einen Lichtemissionskörper) 301A, eine Dimmungssteuereinheit 302A und eine Lichtquellenkommunikationseinheit 303A auf. Die Lichtemissionseinheit 301A ist zum Beispiel eine Blitzlichtquelle, wie etwa ein Stroboskop, und emittiert Licht synchron mit der Erfassung durch die Bildgebungsvorrichtung 1. Die Dimmungssteuereinheit 302A steuert die Lichtemissionsintensität, das Lichtemissionstiming und dergleichen der Lichtemissionseinheit 301A auf Basis von Dimmungsinformationen, die durch die Lichtquellenkommunikationseinheit 303A empfangen werden. Die Lichtquellenkommunikationseinheit 303A wird für die Lichtquelle 3A verwendet, um mit anderen Vorrichtungen (zum Beispiel der Bildgebungsvorrichtung 1 und dem Tablet-Computer 2) zu kommunizieren.As in 4A illustrates, the light source 3A for example, a light emission unit (a light emission body) 301A, a dimming control unit 302A and a light source communication unit 303A on. The light emission unit 301A For example, is a flash source, such as a strobe, and emits light in synchronism with the detection by the imaging device 1 . The dimming control unit 302A controls the light emission intensity, light emission timing, and the like of the light emission unit 301A based on dimming information generated by the light source communication unit 303A be received. The light source communication unit 303A will be for the light source 3A used to work with other devices (for example the imaging device 1 and the tablet computer 2nd ) to communicate.

Wie in 4B veranschaulicht, weist die Lichtquelle 3B beispielsweise eine Lichtemissionseinheit (einen Lichtemissionskörper) 301B, eine Dimmungssteuereinheit 302B und eine Lichtquellenkommunikationseinheit 303B auf. Die Lichtemissionseinheit 301B ist zum Beispiel eine Blitzlichtquelle, wie etwa ein Stroboskop, und emittiert Licht synchron mit der Erfassung durch die Bildgebungsvorrichtung 1. Die Dimmungssteuereinheit 302B steuert die Lichtemissionsintensität, das Lichtemissionstiming und dergleichen der Lichtemissionseinheit 301B auf Basis von Dimmungsinformationen, die durch die Lichtquellenkommunikationseinheit 303B empfangen werden. Die Lichtquellenkommunikationseinheit 303B wird für die Lichtquelle 3B verwendet, um mit anderen Vorrichtungen (zum Beispiel der Bildgebungsvorrichtung 1 und dem Tablet-Computer 2) zu kommunizieren.As in 4B illustrates, the light source 3B for example, a light emission unit (a light emission body) 301B, a dimming control unit 302B and a light source communication unit 303B on. The light emission unit 301B For example, is a flash source, such as a strobe, and emits light in synchronism with the detection by the imaging device 1 . The dimming control unit 302B controls the light emission intensity, light emission timing, and the like of the light emission unit 301B based on dimming information generated by the light source communication unit 303B be received. The light source communication unit 303B will be for the light source 3B used to work with other devices (for example the imaging device 1 and the tablet computer 2nd ) to communicate.

Wie in 4C veranschaulicht, weist die Lichtquelle 3C beispielsweise eine Lichtemissionseinheit (einen Lichtemissionskörper) 301C, eine Dimmungssteuereinheit 302C und eine Lichtquellenkommunikationseinheit 303C auf. Die Lichtemissionseinheit 301C ist beispielsweise eine Leuchtstofflampe oder eine Leuchtdiode (LED). Die Dimmungssteuereinheit 302C steuert die Lichtemissionsintensität der Lichtemissionseinheit 301C auf Basis von Dimmungsinformationen, die durch die Lichtquellenkommunikationseinheit 303C empfangen werden. Die Lichtquellenkommunikationseinheit 303C wird für die Lichtquelle 3C verwendet, um mit anderen Vorrichtungen (zum Beispiel der Bildgebungsvorrichtung 1 und dem Tablet-Computer 2) zu kommunizieren. Es ist zu beachten, dass die Konfigurationen der Lichtquellen 3A bis 3C natürlich unterschiedlich sein können.As in 4C illustrates, the light source 3C for example, a light emission unit (a light emission body) 301C, a dimming control unit 302C and a light source communication unit 303C on. The light emission unit 301C is for example a fluorescent lamp or a light emitting diode (LED). The dimming control unit 302C controls the light emission intensity of the light emission unit 301C based on dimming information generated by the light source communication unit 303C be received. The light source communication unit 303C will be for the light source 3C used to work with other devices (for example the imaging device 1 and the tablet computer 2nd ) to communicate. It it should be noted that the configurations of the light sources 3A to 3C can of course be different.

Als ein Beispiel ist jede der Lichtquellen 3A bis 3C dazu ausgelegt, Licht mit drei Lichtemissionsintensitätspegeln (schwach, mittelstark und stark) zu emittieren. Natürlich können die Lichtquellen 3A bis 3C Licht mit zwei Lichtemissionsintensitätspegeln oder mit mehreren Pegeln wie etwa vier oder mehr Lichtemissionsintensitätspegeln emittieren. Darüber hinaus können beispielsweise die Lichtemissionsintensität „schwach“ der Lichtquelle 3A und die Lichtemissionsintensität „schwach“ der Lichtquelle 3B die gleiche Lichtemissionsintensität oder unterschiedliche Lichtemissionsintensitätspegel sein.As an example, each of the light sources 3A to 3C designed to emit light with three light emission intensity levels (weak, medium and strong). Of course, the light sources can 3A to 3C Emit light at two light emission intensity levels or at multiple levels, such as four or more light emission intensity levels. In addition, for example, the light emission intensity "weak" of the light source 3A and the light emission intensity "weak" of the light source 3B be the same light emission intensity or different light emission intensity levels.

[Bei der ersten Ausführungsform durchgeführte Verarbeitung][Processing performed in the first embodiment]

Als Nächstes wird die bei der ersten Ausführungsform durchgeführte Verarbeitung beschrieben, einschließlich eines Betriebs jeder Vorrichtung. Bei der gegenwärtigen Ausführungsform ist zur Vereinfachung der Beschreibung die bei der ersten Ausführungsform durchgeführte Verarbeitung in drei Arten von Verarbeitung unterteilt: „Kalibrationsverarbeitung“, „Konzeptdatenerzeugungsverarbeitung“ und „Beleuchtungseinstellung-und-Erfassung-Verarbeitung“ und jede Art der Verarbeitung wird der Reihe nach beschrieben. Es ist zu beachten, dass die drei Arten von Verarbeitung nicht in der nachstehend beschriebenen Reihenfolge durchgeführt werden müssen und die Reihenfolge der Verarbeitung innerhalb eines Umfangs geändert werden kann, in dem kein technischer Widerspruch auftritt, die Verarbeitung kann parallel durchgeführt werden oder jede Art der Verarbeitung kann kontinuierlich durchgeführt werden. Beispielsweise kann die Kalibrationsverarbeitung nach der Konzeptdatenerzeugungsverarbeitung durchgeführt werden, oder die Kalibrationsverarbeitung und die Konzeptdatenerzeugungsverarbeitung können parallel durchgeführt werden.Next, the processing performed in the first embodiment, including operation of each device, will be described. In the present embodiment, in order to simplify the description, the processing performed in the first embodiment is divided into three types of processing: “calibration processing”, “concept data generation processing” and “lighting setting and detection processing”, and each type of processing is described in order . It should be noted that the three types of processing do not need to be performed in the order described below and the order of processing can be changed within a scope where there is no technical contradiction, the processing can be performed in parallel or any type of processing can be done continuously. For example, the calibration processing can be performed after the concept data generation processing, or the calibration processing and the concept data generation processing can be performed in parallel.

(Kalibrationsverarbeitung)(Calibration processing)

Die Kalibrationsverarbeitung ist eine Verarbeitung zum vorausgehenden Messen eines Einflusses von Licht durch Lichtemission auf das Bild des Objekts in einem Fall des Lichtemissionsergebnisses jeder Lichtquelle, insbesondere emittiert jede Lichtquelle Licht in einem anderen Muster, auf einer Eins-zu-Eins-Basis, und Erhalten einer Tabelle, die ein Messergebnis ist (im Folgenden wird die Tabelle zweckmäßig als Dimmungstabelle bezeichnet).The calibration processing is processing for previously measuring an influence of light by light emission on the image of the object in a case of the light emission result of each light source, particularly, each light source emits light in a different pattern, on a one-to-one basis, and obtain one Table that is a measurement result (in the following, the table is appropriately referred to as a dimming table).

Die Kalibrationsverarbeitung wird schematisch unter Bezugnahme auf 5 beschrieben. Zunächst emittiert die Lichtquelle 3A Licht in verschiedenen Lichtemissionsmustern. In dem gegenwärtigen Beispiel emittiert die Lichtquelle 3A Licht mit unterschiedlichen Lichtemissionsintensitätspegeln. Die unterschiedlichen Lichtemissionsmuster können jedoch unterschiedliche Farbtemperaturen oder dergleichen sein. Dies gilt in ähnlicher Weise auch für die anderen Lichtquellen. Es ist zu beachten, dass die Lichtquellen 3B und 3C ausgeschaltet bleiben, ohne Licht zu emittieren.The calibration processing is schematic with reference to FIG 5 described. First the light source emits 3A Light in different light emission patterns. In the current example, the light source emits 3A Light with different light emission intensity levels. However, the different light emission patterns can be different color temperatures or the like. This applies in a similar way to the other light sources. It should be noted that the light sources 3B and 3C stay off without emitting light.

Die Lichtquelle 3A emittiert Licht mit der Lichtemissionsintensität „schwach“ synchron mit der Erfassung, und eine Erfassung wird durchgeführt. Als Nächstes emittiert die Lichtquelle 3A Licht mit der Lichtemissionsintensität „mittelstark“ synchron mit der Erfassung, und eine Erfassung wird durchgeführt. Als Nächstes emittiert die Lichtquelle 3A Licht mit der Lichtemissionsintensität „stark“ synchron mit der Erfassung, und eine Erfassung wird durchgeführt. Durch die Erfassungen erhaltene Bilder werden vorübergehend beispielsweise in dem Bildspeicher 106 der Bildgebungsvorrichtung 1 gespeichert.The light source 3A emits light with the light emission intensity "weak" in synchronization with the detection, and detection is performed. Next, the light source emits 3A Light with the light emission intensity "medium strong" synchronized with the detection, and a detection is carried out. Next, the light source emits 3A Light with the light emission intensity "strong" in synchronism with the detection, and detection is performed. Images obtained through the acquisitions are temporarily stored in the image memory, for example 106 the imaging device 1 saved.

Als Nächstes emittiert die Lichtquelle 3B Licht mit verschiedenen Lichtemissionsintensitätspegeln. Es ist zu beachten, dass die Lichtquellen 3A und 3C ausgeschaltet bleiben, ohne Licht zu emittieren. Die Lichtquelle 3B emittiert Licht mit der Lichtemissionsintensität „schwach“ synchron mit der Erfassung, und eine Erfassung wird durchgeführt. Als Nächstes emittiert die Lichtquelle 3B Licht mit der Lichtemissionsintensität „mittelstark“ synchron mit der Erfassung, und eine Erfassung wird durchgeführt. Als Nächstes emittiert die Lichtquelle 3B Licht mit der Lichtemissionsintensität „stark“ synchron mit der Erfassung, und eine Erfassung wird durchgeführt. Durch die Erfassungen erhaltene Bilder werden vorübergehend beispielsweise in dem Bildspeicher 106 der Bildgebungsvorrichtung 1 gespeichert.Next, the light source emits 3B Light with different light emission intensity levels. It should be noted that the light sources 3A and 3C stay off without emitting light. The light source 3B emits light with the light emission intensity "weak" in synchronization with the detection, and detection is performed. Next, the light source emits 3B Light with the light emission intensity "medium strong" synchronized with the detection, and a detection is carried out. Next, the light source emits 3B Light with the light emission intensity "strong" in synchronism with the detection, and detection is performed. Images obtained through the acquisitions are temporarily stored in the image memory, for example 106 the imaging device 1 saved.

Als Nächstes emittiert die Lichtquelle 3C Licht mit verschiedenen Lichtemissionsintensitätspegeln. Es ist zu beachten, dass die Lichtquellen 3A und 3B ausgeschaltet bleiben, ohne Licht zu emittieren. Die Erfassung wird in einem Zustand durchgeführt, in dem die Lichtquelle 3C Licht mit der Lichtemissionsintensität „schwach“ emittiert. Als Nächstes wird die Erfassung in einem Zustand durchgeführt, in dem die Lichtquelle 3C Licht mit der Lichtemissionsintensität „mittelstark“ emittiert. Die Erfassung wird in einem Zustand durchgeführt, in dem die Lichtquelle 3C Licht mit der Lichtemissionsintensität „stark“ emittiert. Durch die Erfassungen erhaltene Bilder werden vorübergehend beispielsweise in dem Bildspeicher 106 der Bildgebungsvorrichtung 1 gespeichert.Next, the light source emits 3C Light with different light emission intensity levels. It should be noted that the light sources 3A and 3B stay off without emitting light. The detection is carried out in a state in which the light source 3C Light with the light emission intensity "weak" emitted. Next, the detection is performed in a state in which the light source 3C Light emitted with the light emission intensity "medium". The detection is carried out in a state in which the light source 3C Light with the light emission intensity "strongly" emitted. Images obtained through the acquisitions are temporarily stored in the image memory, for example 106 the imaging device 1 saved.

Bilddaten von neun Bildern, die durch die Erfassungen erhalten werden, werden von der Bildgebungsvorrichtung 1 zu dem Tablet-Computer 2 übertragen. Das heißt, die Bilddaten werden von der Kamerakommunikationseinheit 113 übertragen und die Bilddaten werden durch die Tablet-Kommunikationseinheit 202 empfangen. Die empfangenen Bilddaten werden von der Tablet-Kommunikationseinheit 202 an die Steuereinheit 201 geliefert. Die Dimmungstabellen-Erzeugungseinheit 201A der Steuereinheit 201 analysiert und gewinnt Bildinformationen für jedes der neun Bilder.Image data of nine images obtained by the acquisitions are obtained from the imaging device 1 to the tablet computer 2nd transfer. That is, the image data is sent from the camera communication unit 113 transferred and the Image data is through the tablet communication unit 202 receive. The received image data are from the tablet communication unit 202 to the control unit 201 delivered. The dimming table generation unit 201A the control unit 201 analyzes and extracts image information for each of the nine images.

Die Bildinformationen sind räumliche Sensorinformationen, die dem Lichtemissionsmuster jeder Lichtquelle entsprechen. Bei der gegenwärtigen Ausführungsform wird ein Luminanzpegel für jedes das Bild bildende Pixel verwendet. Es ist zu beachten, dass zum Reduzieren der Informationsmenge ein Luminanzpegel in einer Einheit eines Blocks mit einer beliebigen Größe anstelle für jedes Pixel oder durch ein anderes geeignetes Verfahren komprimierte Daten als Bildinformationen verwendet werden können. Darüber hinaus kann die Verarbeitung zum Analysieren und Gewinnen der Bildinformationen durch die Bildgebungsvorrichtung 1 durchgeführt werden, und nur die Bildinformationen können von der Bildgebungsvorrichtung 1 zum Tablet-Computer 2 übertragen werden.The image information is spatial sensor information that corresponds to the light emission pattern of each light source. In the current embodiment, a luminance level is used for each pixel making up the image. Note that to reduce the amount of information, a level of luminance in a unit of block of any size instead of data compressed for each pixel or other suitable method can be used as image information. In addition, the processing for analyzing and obtaining the image information by the imaging device 1 can be performed, and only the image information can be obtained from the imaging device 1 to the tablet computer 2nd be transmitted.

Die Dimmungstabellen-Erzeugungseinheit 201A, die die Bildinformationen gewonnen hat, erzeugt eine Dimmungstabelle entsprechend dem Lichtemissionsergebnis jeder Lichtquelle. 6 veranschaulicht ein Beispiel einer Dimmungstabelle (Dimmungstabelle TA1) gemäß der ersten Ausführungsform. Die Dimmungstabelle TA1 enthält zum Beispiel den Typ der Lichtquelle (Informationen wie etwa eine Kennung, die die Lichtquelle identifizieren kann), die Lichtemissionsintensität und die Bildinformationen (bei der gegenwärtigen Ausführungsform den Luminanzpegel jedes Pixels des mit der Lichtemissionsintensität erfassten Bildes), die miteinander assoziiert sind.The dimming table generation unit 201A that has obtained the image information generates a dimming table according to the light emission result of each light source. 6 illustrates an example of a dimming table (dimming table TA1 ) according to the first embodiment. The dimming table TA1 For example, includes the type of light source (information such as an identifier that can identify the light source), light emission intensity, and image information (in the present embodiment, the luminance level of each pixel of the image captured with the light emission intensity) that are associated with each other.

Es ist zu beachten, dass die durch die Dimmungstabellen-Erzeugungseinheit 201A erzeugte Dimmungstabelle TA1 über das R/W 205 in die Speicherungseinheit 206 geschrieben und dort gespeichert werden kann. Wenn zum Beispiel dasselbe oder ein ähnliches Objekt in demselben Studio erfasst wird, kann dadurch die Kalibrationsverarbeitung unter Verwendung der in der Speicherungseinheit 206 gespeicherten Dimmungstabelle TA1 weggelassen werden. Die Dimmungstabelle TA1 kann in einem Speicher (zum Beispiel einem Speicher in der Cloud) gespeichert sein, der nicht die Speicherungseinheit 206 ist, oder kann durch Kommunikation zu anderen Vorrichtungen übertragen und verteilt werden.Note that the dimming table generation unit 201A generated dimming table TA1 about the R / W 205 into the storage unit 206 can be written and saved there. For example, if the same or a similar object is detected in the same studio, this can perform calibration processing using that in the storage unit 206 stored dimming table TA1 be omitted. The dimming table TA1 may be stored in storage (for example, storage in the cloud) that is not the storage unit 206 or can be transmitted and distributed through communication to other devices.

Ferner können zum Beispiel in einem Fall, in dem eine Änderung der Bildinformationen in Bezug auf eine Änderung der Lichtemissionsintensität bekannt ist, Bildinformationen, die einer Lichtemissionsintensität entsprechen, die sich von einer vorbestimmten Lichtemissionsintensität unterscheidet, unter Verwendung von Bildinformationen erzeugt werden, die der vorbestimmten Lichtemissionsintensität entsprechen, um die Kalibrationsverarbeitung zu vereinfachen. Beispielsweise kann in Bezug auf die Lichtquelle 3A die Dimmungstabellen-Erzeugungseinheit 201A die Bildinformationen, die der Lichtemissionsintensität „mittelstark“ und der Lichtemissionsintensität „stark“ entsprechen, auf Basis der Bildinformationen im Fall des Emittierens von Licht mit der Lichtemissionsintensität „schwach“ vorhersagen und erzeugen. Dadurch kann die Anzahl der Erfassungen reduziert und die Kalibrationsverarbeitung vereinfacht werden.Further, for example, in a case where a change in image information with respect to a change in light emission intensity is known, image information corresponding to a light emission intensity different from a predetermined light emission intensity can be generated using image information corresponding to the predetermined light emission intensity to simplify calibration processing. For example, in relation to the light source 3A the dimming table generation unit 201A predict and generate the image information corresponding to the light emission intensity "moderate" and the light emission intensity "strong" based on the image information in the case of emitting light with the light emission intensity "weak". This can reduce the number of acquisitions and simplify calibration processing.

Es ist zu beachten, dass das Objekt (das aufzunehmende Objekt) bei der Kalibrationsverarbeitung vorteilhafterweise dasselbe ist, sich jedoch von dem Objekt in der „Beleuchtungseinstellung-und-Erfassung-Verarbeitung“ unterscheiden kann. Beispielsweise kann das Objekt in der Kalibrationsverarbeitung ein Objekt sein, das dem Objekt in der „Beleuchtungseinstellung-und-Erfassung-Verarbeitung“ ähnlich ist (eine Person mit einer ähnlichen Gesichtsgröße oder einer ähnlichen Hautfarbe in einem Fall, in dem das Objekt eine Person ist) .It should be noted that the object (the object to be captured) is advantageously the same in the calibration processing, but may differ from the object in the “lighting setting and detection processing”. For example, the object in calibration processing may be an object that is similar to the object in “lighting adjustment and detection processing” (a person with a similar face size or skin color in a case where the object is a person) .

7 ist ein Flussdiagramm, das ein Beispiel für einen Verarbeitungsfluss der Kalibrationsverarbeitung veranschaulicht. In Schritt ST11 wird eine Anweisung zum Emittieren von Licht mit der Lichtemissionsintensität „schwach“ an eine vorbestimmte Lichtquelle (zum Beispiel die Lichtquelle 3A) ausgegeben. Diese Anweisung erfolgt beispielsweise über die Eingabeeinheit 204 des Tablet-Computers 2. Es ist zu beachten, dass, da die Lichtquelle 3A synchron mit der Erfassung Licht emittiert, Synchronisationsinformationen, wie etwa das Timing zum Synchronisieren der Lichtemission und der Erfassung, vom Tablet-Computer 2 zur Lichtquelle 3A und zur Bildgebungsvorrichtung 1 übertragen werden. Dann fährt die Verarbeitung mit den Schritten ST12 und ST13 fort. 7 FIG. 14 is a flowchart illustrating an example of a processing flow of calibration processing. In step ST11 becomes an instruction to emit light with the light emission intensity "weak" to a predetermined light source (for example, the light source 3A ) issued. This instruction takes place, for example, via the input unit 204 of the tablet computer 2nd . It should be noted that since the light source 3A Light emitted in synchronization with the acquisition, synchronization information, such as the timing for synchronizing the light emission and acquisition, from the tablet computer 2nd to the light source 3A and to the imaging device 1 be transmitted. Then processing continues with the steps ST12 and ST13 away.

In den Schritten ST12 und ST13 wird die Erfassung zu dem durch die Synchronisationsinformationen angegebenen Timing durchgeführt, und die Lichtquelle 3A emittiert Licht mit der Lichtemissionsintensität „schwach“ synchron mit der Erfassung. Insbesondere steuert die Kamerasteuereinheit 107 der Bildgebungsvorrichtung 1 jede Einheit der Bildgebungsvorrichtung 1 so, dass die Erfassung zu dem durch die Synchronisationsinformationen angegebenen Timing durchgeführt wird. Ferner veranlasst die Dimmungssteuereinheit 302A der Lichtquelle 3A die Lichtemissionseinheit 301A, Licht mit der Lichtemissionsintensität „schwach“ zu dem durch die Synchronisationsinformationen angegebenen Timing zu emittieren. Dann geht die Verarbeitung zu Schritt ST14 über.In the steps ST12 and ST13 the detection is performed at the timing indicated by the synchronization information, and the light source 3A emits light with the light emission intensity "weak" in synchronization with the detection. In particular, the camera control unit controls 107 the imaging device 1 each unit of the imaging device 1 such that the acquisition is carried out at the timing indicated by the synchronization information. Furthermore causes the dimming control unit 302A the light source 3A the light emission unit 301A To emit light with the light emission intensity "weak" at the timing indicated by the synchronization information. Then the processing goes to step ST14 over.

In Schritt ST14 wird ein durch die Erfassung in Schritt ST13 erhaltenes Bild von der Bildgebungsvorrichtung 1 zu dem Tablet-Computer 2 übertragen. Dann erzeugt die Dimmungstabellen-Erzeugungseinheit 201A des Tablet-Computers 2 ein Element der Dimmungstabelle TA1 durch Analysieren der Bildinformationen des Bildes in dem Fall, in dem die Lichtquelle 3A Licht mit der Lichtemissionsintensität „schwach“ emittiert. Dann geht die Verarbeitung zu Schritt ST15 über. In step ST14 becomes one by capturing in step ST13 image obtained from the imaging device 1 to the tablet computer 2nd transfer. Then the dimming table generating unit generates 201A of the tablet computer 2nd an element of the dimming table TA1 by analyzing the image information of the image in the case where the light source 3A Light with the light emission intensity "weak" emitted. Then the processing goes to step ST15 over.

In Schritt ST15 wird eine Anweisung zum Emittieren von Licht mit der Lichtemissionsintensität „mittelstark“ an die Lichtquelle 3A gegeben. Diese Anweisung wird auch beispielsweise unter Verwendung der Eingabeeinheit 204 des Tablet-Computers 2 ausgegeben. Es ist zu beachten, dass, wie oben beschrieben, da die Lichtquelle 3A synchron mit der Erfassung Licht emittiert, die Synchronisationsinformationen, wie etwa das Timing zum Synchronisieren der Lichtemission und der Erfassung, vom Tablet-Computer 2 zur Lichtquelle 3A und zur Bildgebungsvorrichtung 1 übertragen werden. Dann fährt die Verarbeitung mit den Schritten ST16 und ST17 fort.In step ST15 becomes an instruction to emit light with the light emission intensity "medium strength" to the light source 3A given. This instruction is also used, for example, using the input unit 204 of the tablet computer 2nd spent. It should be noted that, as described above, since the light source 3A Light emitted in synchronization with the acquisition, the synchronization information, such as the timing for synchronizing the light emission and acquisition, from the tablet computer 2nd to the light source 3A and to the imaging device 1 be transmitted. Then processing continues with the steps ST16 and ST17 away.

In den Schritten ST16 und ST17 wird die Erfassung zu dem durch die Synchronisationsinformationen angegebenen Timing durchgeführt, und die Lichtquelle 3A emittiert Licht mit der Lichtemissionsintensität „mittelstark“ synchron mit der Erfassung. Insbesondere steuert die Kamerasteuereinheit 107 der Bildgebungsvorrichtung 1 jede Einheit der Bildgebungsvorrichtung 1 so, dass die Erfassung zu dem durch die Synchronisationsinformationen angegebenen Timing durchgeführt wird. Ferner veranlasst die Dimmungssteuereinheit 302A der Lichtquelle 3A die Lichtemissionseinheit 301A, Licht mit der Lichtemissionsintensität „mittelstark“ zu dem durch die Synchronisationsinformationen angegebenen Timing zu emittieren. Dann geht die Verarbeitung zu Schritt ST18 über.In the steps ST16 and ST17 the detection is performed at the timing indicated by the synchronization information, and the light source 3A emits light with the light emission intensity "medium" synchronously with the detection. In particular, the camera control unit controls 107 the imaging device 1 each unit of the imaging device 1 such that the acquisition is carried out at the timing indicated by the synchronization information. Furthermore causes the dimming control unit 302A the light source 3A the light emission unit 301A To emit light with the light emission intensity “medium strength” at the timing indicated by the synchronization information. Then the processing goes to step ST18 over.

In Schritt ST18 wird ein durch die Erfassung in Schritt ST16 erhaltenes Bild von der Bildgebungsvorrichtung 1 zu dem Tablet-Computer 2 übertragen. Dann erzeugt die Dimmungstabellen-Erzeugungseinheit 201A des Tablet-Computers 2 ein Element der Dimmungstabelle TA1 durch Analysieren der Bildinformationen des Bildes in dem Fall, in dem die Lichtquelle 3A Licht mit der Lichtemissionsintensität „mittelstark“ emittiert. Dann geht die Verarbeitung zu Schritt ST19 über.In step ST18 becomes one by capturing in step ST16 image obtained from the imaging device 1 to the tablet computer 2nd transfer. Then the dimming table generating unit generates 201A of the tablet computer 2nd an element of the dimming table TA1 by analyzing the image information of the image in the case where the light source 3A Light emitted with the light emission intensity "medium". Then the processing goes to step ST19 over.

In Schritt ST19 wird eine Anweisung zum Emittieren von Licht mit der Lichtemissionsintensität „stark“ an die Lichtquelle 3A ausgegeben. Diese Anweisung wird auch beispielsweise unter Verwendung der Eingabeeinheit 204 des Tablet-Computers 2 ausgegeben. Es ist zu beachten, dass, wie oben beschrieben, da die Lichtquelle 3A synchron mit der Erfassung Licht emittiert, die Synchronisationsinformationen, wie etwa das Timing zum Synchronisieren der Lichtemission und der Erfassung, vom Tablet-Computer 2 zur Lichtquelle 3A und zur Bildgebungsvorrichtung 1 übertragen werden. Dann fährt die Verarbeitung mit den Schritten ST20 und ST21 fort.In step ST19 becomes an instruction to emit light with the light emission intensity "strong" to the light source 3A spent. This instruction is also used, for example, using the input unit 204 of the tablet computer 2nd spent. It should be noted that, as described above, since the light source 3A Light emitted in synchronization with the acquisition, the synchronization information, such as the timing for synchronizing the light emission and acquisition, from the tablet computer 2nd to the light source 3A and to the imaging device 1 be transmitted. Then processing continues with the steps ST20 and ST21 away.

In den Schritten ST20 und ST21 wird die Erfassung zu dem durch die Synchronisationsinformationen angegebenen Timing durchgeführt, und die Lichtquelle 3A emittiert Licht mit der Lichtemissionsintensität „stark“ synchron mit der Erfassung. Insbesondere steuert die Kamerasteuereinheit 107 der Bildgebungsvorrichtung 1 jede Einheit der Bildgebungsvorrichtung 1 so, dass die Erfassung zu dem durch die Synchronisationsinformationen angegebenen Timing durchgeführt wird. Ferner veranlasst die Dimmungssteuereinheit 302A der Lichtquelle 3A die Lichtemissionseinheit 301A, Licht mit der Lichtemissionsintensität „stark“ zu dem durch die Synchronisationsinformationen angegebenen Timing zu emittieren. Dann geht die Verarbeitung zu Schritt ST22 über.In the steps ST20 and ST21 the detection is performed at the timing indicated by the synchronization information, and the light source 3A emits light with the light emission intensity "strong" in synchronization with the detection. In particular, the camera control unit controls 107 the imaging device 1 each unit of the imaging device 1 such that the acquisition is carried out at the timing indicated by the synchronization information. Furthermore causes the dimming control unit 302A the light source 3A the light emission unit 301A To emit light with the light emission intensity "strong" at the timing indicated by the synchronization information. Then the processing goes to step ST22 over.

In Schritt ST22 wird ein durch die Erfassung in Schritt ST21 erhaltenes Bild von der Bildgebungsvorrichtung 1 zu dem Tablet-Computer 2 übertragen. Dann erzeugt die Dimmungstabellen-Erzeugungseinheit 201A des Tablet-Computers 2 ein Element der Dimmungstabelle TA1 durch Analysieren der Bildinformationen des Bildes in dem Fall, in dem die Lichtquelle 3A Licht mit der Lichtemissionsintensität „stark“ emittiert. Dann geht die Verarbeitung zu Schritt ST23 über.In step ST22 becomes one by capturing in step ST21 image obtained from the imaging device 1 to the tablet computer 2nd transfer. Then the dimming table generating unit generates 201A of the tablet computer 2nd an element of the dimming table TA1 by analyzing the image information of the image in the case where the light source 3A Light with the light emission intensity "strongly" emitted. Then the processing goes to step ST23 over.

In Schritt ST23 wird bestimmt, ob alle Teile der Verarbeitung unter Verwendung der Lichtquellen abgeschlossen wurden oder nicht. In dem gegenwärtigen Beispiel ist die Verarbeitung unter Verwendung der Lichtquelle 3B und der Lichtquelle 3C nicht abgeschlossen worden, und die Verarbeitung kehrt zu Schritt ST11 zurück. Dann wird, ähnlich wie bei der oben beschriebenen Verarbeitung, die Lichtquelle 3B veranlasst, Licht mit unterschiedlichen Lichtemissionsintensitätspegeln zu emittieren, und ein Element der Dimmungstabelle TA1 wird auf Basis der Bildinformationen des zu dieser Zeit erhaltenen Bildes erzeugt. Eine ähnliche Verarbeitung wird für die Lichtquelle 3C durchgeführt. Es ist zu beachten, dass, da die Lichtquelle 3C keine Blitzlichtemission ist, die Erfassung durchgeführt werden kann, indem die Eingabeeinheit 110 der Bildgebungsvorrichtung 1 in einem Zustand betrieben wird, in dem die Lichtquelle 3C veranlasst wird, Licht mit einer vorbestimmten Lichtemissionsintensität zu emittieren. Das heißt, die Synchronisationsinformationen müssen nicht zu der Bildgebungsvorrichtung 1 und der Lichtquelle 3C übertragen werden.In step ST23 it is determined whether or not all parts of the processing using the light sources have been completed. In the current example, processing is using the light source 3B and the light source 3C has not been completed and processing returns to step ST11 back. Then, similarly to the processing described above, the light source 3B causes light to emit at different light emission intensity levels, and an element of the dimming table TA1 is generated based on the image information of the image obtained at that time. Similar processing is used for the light source 3C carried out. It should be noted that since the light source 3C is no flash emission, the detection can be done by the input unit 110 the imaging device 1 is operated in a state in which the light source 3C is caused to emit light with a predetermined light emission intensity. That is, the synchronization information does not have to go to the imaging device 1 and the light source 3C be transmitted.

In Schritt ST23 wird in einem Fall, in dem alle Teile der Verarbeitung unter Verwendung der Lichtquellen abgeschlossen wurden, die in 6 veranschaulichte Dimmungstabelle TA1 auf Basis der Elemente der Dimmungstabelle erhalten, die in den jeweiligen Teilen der Verarbeitung in den Schritten ST14, ST18 und ST22 erhalten wurden. Dann endet die Verarbeitung.In step ST23 is used in a case where all parts of the processing are processed using the Light sources that have been completed in 6 illustrated dimming table TA1 based on the elements of the dimming table obtained in the respective parts of the processing in the steps ST14 , ST18 and ST22 were obtained. Then the processing ends.

(Konzeptdatenerzeugungsverarbeitung)(Concept data generation processing)

Als Nächstes wird die Konzeptdatenerzeugungsverarbeitung beschrieben. Die Konzeptdaten sind Daten, die eine (durch den Benutzer) gewünschte Bildcharakteristik angeben, und insbesondere Daten, die die Helligkeit für jeden Bereich des Objekts angeben.Next, the concept data generation processing will be described. The concept data is data indicating a desired image characteristic (by the user), and in particular data indicating the brightness for each area of the object.

Die Konzeptdaten werden beispielsweise unter Verwendung der Eingabeeinheit 204 des Tablet-Computers 2 spezifiziert. Die Anzeigeeinheit 203 zeigt das Referenzbild an, auf das Bezug genommen wird, wenn eine Eingabe in die Eingabeeinheit 204 angenommen wird. Beispielsweise wird, wie in 8 veranschaulicht, ein Referenzbild IM1 auf der Anzeigeeinheit 203 angezeigt. Der Benutzer führt eine auf seinem Konzept basierende Operation für die Eingabeeinheit 204 unter Bezugnahme auf das Referenzbild IM1 durch.The concept data is, for example, using the input unit 204 of the tablet computer 2nd specified. The display unit 203 displays the reference image referred to when input to the input unit 204 Is accepted. For example, as in 8th illustrates a reference image IM1 on the display unit 203 displayed. The user performs an operation based on his concept for the input unit 204 with reference to the reference image IM1 by.

Als das Referenzbild IM1 kann zum Beispiel eines der neun Bilder verwendet werden, die durch die oben beschriebene Kalibrationsverarbeitung erhalten wurden. Dadurch entfällt die Notwendigkeit, das Referenzbild IM1 selbst aufzunehmen. Weiterhin kann das Referenzbild IM1 ein Bild sein, das durch Erfassen des durch die „Beleuchtungseinstellung-und-Erfassung-Verarbeitung“ erfassten Objekts erhalten wird. Die Erfassung zu dieser Zeit kann in einem Zustand durchgeführt werden, in dem nur Umgebungslicht (Innenraumlicht, das nicht mit der Erfassung zusammenhängt) in einem Zustand emittiert wird, in dem die Lichtquellen 3A bis 3C kein Licht emittieren. Darüber hinaus kann das Referenzbild IM1 ein Vorlagenbild sein, das gemäß einem vorbestimmten Ergebnis der Erkennung bekannter Personen oder der Gesichtserkennung in Bezug auf das in der „Beleuchtungseinstellung-und-Erfassung-Verarbeitung“ erfasste Objekt ausgewählt wird. In diesem Fall wird die vorbestimmte Verarbeitung zum Beispiel durch die Steuereinheit 201 durchgeführt. Darüber hinaus kann das Vorlagenbild ein Bild sein, das durch Lesen des in der Speicherungseinheit 206 gespeicherten Bildes durch das R/W 205 erhalten wird, oder es kann ein aus dem Internet oder dergleichen gewonnenes Bild sein.As the reference picture IM1 For example, one of the nine images obtained by the calibration processing described above can be used. This eliminates the need for the reference image IM1 record yourself. Furthermore, the reference picture IM1 be an image obtained by capturing the object captured by the "lighting setting and capturing processing". The detection at this time can be performed in a state in which only ambient light (indoor light that is not related to the detection) is emitted in a state in which the light sources 3A to 3C do not emit light. In addition, the reference image IM1 be a template image that is selected according to a predetermined result of recognizing known people or face recognition with respect to the object detected in the “lighting setting and detection processing”. In this case, the predetermined processing is carried out, for example, by the control unit 201 carried out. In addition, the original image may be an image obtained by reading the data stored in the storage unit 206 stored image by the R / W 205 is obtained, or it may be an image obtained from the Internet or the like.

9 ist ein Flussdiagramm, das ein Beispiel für einen Verarbeitungsfluss der Konzeptdatenerzeugungsverarbeitung veranschaulicht. Ein spezifisches Beispiel der Konzeptdatenerzeugungsverarbeitung wird unter Bezugnahme auf die 8 und 9 beschrieben. Die Konzeptdatenerzeugungsverarbeitung wird gestartet, wenn zum Beispiel eine vorbestimmte Taste der Eingabeeinheit 204 gedrückt oder berührt wird. In Schritt ST31 wird das Referenzbild IM1 auf der Anzeigeeinheit 203 angezeigt. Dann geht die Verarbeitung zu Schritt ST32 über. 9 FIG. 14 is a flowchart illustrating an example of a processing flow of the concept data generation processing. A specific example of the concept data generation processing will be described with reference to FIG 8th and 9 described. The concept data generation processing is started when, for example, a predetermined key of the input unit 204 is pressed or touched. In step ST31 becomes the reference image IM1 on the display unit 203 displayed. Then the processing goes to step ST32 over.

In Schritt ST32 führt der Benutzer eine Eingabe basierend auf dem Konzept unter Bezugnahme auf das Referenzbild IM1 durch. Beispielsweise werden, wie in 8 veranschaulicht, zwei Bereiche AR1 und AR2 für das Objekt festgelegt. Zum Beispiel wird die Helligkeit so spezifiziert, dass die Helligkeit des Bereichs AR1 zu einer geeigneten Belichtung wird und die Helligkeit des Bereichs AR2 zu 2/3 (etwa 66%) der geeigneten Belichtung wird. Die Einstellung der Bereiche und die Spezifikation der Helligkeit werden unter Verwendung der Eingabeeinheit 204 durchgeführt. Bei der gegenwärtigen Ausführungsform wird die Konfiguration (zum Beispiel die Helligkeit), die der Eingabe entspricht, in dem Referenzbild IM1 jedes Mal widergespiegelt, wenn eine Eingabe durch die Eingabeeinheit 204 durchgeführt wird. Beispielsweise wird, wie in 8 veranschaulicht, die Helligkeit des Bereichs AR2 leicht dunkel. Es ist zu beachten, dass Einstellungen der Helligkeit eines Hintergrunds und dergleichen durchgeführt werden können, obwohl dies nicht veranschaulicht ist. Wenn der Benutzer die Spezifikation der Helligkeit oder dergleichen beendet, drückt oder berührt der Benutzer eine Beendigungstaste oder dergleichen, um die Eingabe basierend auf dem Konzept zu beenden. Dann geht die Verarbeitung zu Schritt ST33 über.In step ST32 the user performs an input based on the concept with reference to the reference image IM1 by. For example, as in 8th illustrates two areas AR1 and AR2 set for the object. For example, the brightness is specified so that the brightness of the area AR1 becomes a suitable exposure and the brightness of the area AR2 becomes 2/3 (about 66%) of the appropriate exposure. The setting of the areas and the specification of the brightness are made using the input unit 204 carried out. In the current embodiment, the configuration (e.g., brightness) corresponding to the input becomes in the reference image IM1 reflected every time an input by the input unit 204 is carried out. For example, as in 8th illustrates the brightness of the area AR2 slightly dark. Note that adjustments to the brightness of a background and the like can be made, although this is not illustrated. When the user finishes specifying the brightness or the like, the user presses or touches an end key or the like to finish the input based on the concept. Then the processing goes to step ST33 over.

In Schritt ST33 werden Konzeptdaten auf Basis der in Schritt ST32 vorgenommenen Eingabe erzeugt. Die Konzeptdaten werden beispielsweise durch die Steuereinheit 201 erzeugt. Wie oben beschrieben, sind die Konzeptdaten Daten, die angeben, dass beispielsweise eine rechte Gesichtshälfte richtig belichtet ist und eine linke Gesichtshälfte um 2/3 der geeigneten Belichtung belichtet ist. Dann endet die Verarbeitung.In step ST33 concept data based on the in step ST32 made entry. The concept data is, for example, by the control unit 201 generated. As described above, the concept data is data indicating that, for example, a right half of the face is correctly exposed and a left half of the face is exposed by 2/3 of the appropriate exposure. Then the processing ends.

Es ist zu beachten, dass die Konzeptdaten in der Speicherungseinheit 206 gespeichert werden können. Wenn dann ein Objekt mit einer ähnlichen Gesichtsgröße, Hautfarbe oder dergleichen erfasst wird, können die vorherigen Konzeptdaten aus der Speicherungseinheit 206 gelesen und verwendet werden. Weiterhin können die Konzeptdaten durch Kommunikation oder dergleichen über die Tablet-Kommunikationseinheit 202 verteilt werden. Zum Beispiel haben die Konzeptdaten eines bekannten Fotografen an sich einen eigenen Wert. Durch die Gebührenberechnung für die Verteilung der Konzeptdaten kann daher ein neues Geschäftsmodell bereitgestellt werden, das die Konzeptdaten als ein Hauptelement verwendet.It should be noted that the concept data in the storage unit 206 can be saved. If an object with a similar face size, skin color or the like is then detected, the previous concept data can be obtained from the storage unit 206 read and used. Furthermore, the concept data can be communicated or the like via the tablet communication unit 202 be distributed. For example, the concept data of a well-known photographer has its own value. The fee calculation for the distribution of the concept data can therefore provide a new business model that uses the concept data as a main element.

(Beleuchtungseinstellung-und-Erfassung-Verarbeitung) (Lighting setting-and-detection processing)

Als Nächstes wird die Beleuchtungseinstellung-und-Erfassung-Verarbeitung beschrieben. 10 ist ein Flussdiagramm, das ein Beispiel für einen Verarbeitungsfluss der Beleuchtungseinstellung-und-Erfassung-Verarbeitung veranschaulicht. Nachdem der Prozess gestartet wurde, berechnet und bestimmt die Dimmungsinformationen-Erzeugungseinheit 201B in Schritt ST41 die Lichtemissionsintensität jeder Lichtquelle gemäß den Konzeptdaten und der Dimmungstabelle TA1. Der Einfluss von Licht auf das Bild des Objekts in einem Fall, in dem jede Lichtquelle Licht mit einer gewissen Lichtemissionsintensität emittiert, ist gemäß der Dimmungstabelle TA1 bereits bekannt. Darüber hinaus wird zum Beispiel in einem Fall, in dem Licht von der Lichtquelle 3A und Licht von der Lichtquelle 3B an einem vorbestimmten Ort emittiert werden, die Helligkeit des Ortes eine Summe der Helligkeit. Aus diesem Grund kann die Dimmungsinformationen-Erzeugungseinheit 201B bestimmen, wie viel Lichtemissionsintensität für jede Lichtquelle erforderlich ist, um Licht zu emittieren, um die Helligkeit für jeden in den Konzeptdaten spezifizierten Bereich unter Bezugnahme auf die Dimmungstabelle TA1 umzusetzen.Next, the lighting setting and detection processing will be described. 10th FIG. 12 is a flowchart illustrating an example of a processing flow of the lighting setting and detection processing. After the process is started, the dimming information generation unit calculates and determines 201B in step ST41 the light emission intensity of each light source according to the concept data and the dimming table TA1 . The influence of light on the image of the object in a case where each light source emits light with a certain light emission intensity is according to the dimming table TA1 already known. In addition, for example, in a case where light from the light source 3A and light from the light source 3B be emitted at a predetermined location, the brightness of the location is a sum of the brightness. For this reason, the dimming information generation unit 201B determine how much light emission intensity is required for each light source to emit light, the brightness for each area specified in the concept data with reference to the dimming table TA1 to implement.

Im Fall der in 8 veranschaulichten Konzeptdaten werden beispielsweise die Dimmungsinformationen der Lichtquelle 3A derart erzeugt, dass die Lichtemissionsintensität der Lichtquelle 3A „schwach“ wird, die Dimmungsinformationen der Lichtquelle 3B werden derart erzeugt, dass die Lichtemissionsintensität der Lichtquelle 3B „stark“ wird, und die Dimmungsinformationen der Lichtquelle 3C werden derart erzeugt, dass die Lichtemissionsintensität der Lichtquelle 3C „mittelstark“ wird. Es ist zu beachten, dass in einem Fall, in dem eine Zusammensetzung, die vollständig mit der Zusammensetzung basierend auf den Konzeptdaten übereinstimmt, nicht umgesetzt werden kann, die Dimmungsinformationen erzeugt werden, um eine Zusammensetzung umzusetzen, die der Zusammensetzung basierend auf den Konzeptdaten so nahe wie möglich kommt. Als ein Optimierungsverfahren zum Erhalten einer optimalen Beleuchtungseinstellung (Dimmungsinformationen) für die Konzeptdaten können ein Quasi-Newton-Verfahren, ein Downhill-Simplex-Verfahren, ein Dual-Simplex-Verfahren, eine sequentielle lineare quadratische Programmierung oder dergleichen angewendet werden. Dann geht die Verarbeitung zu Schritt ST42 über.In the case of the 8th Illustrated concept data are, for example, the dimming information of the light source 3A generated such that the light emission intensity of the light source 3A “Dim”, the dimming information of the light source 3B are generated such that the light emission intensity of the light source 3B "Strong" and the dimming information of the light source 3C are generated such that the light emission intensity of the light source 3C Becomes "medium strong". Note that in a case where a composition that completely matches the composition based on the concept data cannot be implemented, the dimming information is generated to implement a composition that is so close to the composition based on the concept data as possible. As an optimization method for obtaining an optimal lighting setting (dimming information) for the concept data, a quasi-Newton method, a downhill simplex method, a dual simplex method, a sequential linear quadratic programming or the like can be used. Then the processing goes to step ST42 over.

In Schritt ST42 gibt der Tablet-Computer 2 die Dimmungsinformationen, die die Lichtemissionsintensität jeder Lichtquelle angeben, zu der entsprechenden Lichtquelle aus. Beispielsweise überträgt der Tablet-Computer 2 die Dimmungsinformationen unter Verwendung der Tablet-Kommunikationseinheit 202 zu der entsprechenden Lichtquelle. Dann geht die Verarbeitung zu Schritt ST43 über.In step ST42 gives the tablet computer 2nd the dimming information indicating the light emission intensity of each light source to the corresponding light source. For example, the tablet computer transmits 2nd the dimming information using the tablet communication unit 202 to the corresponding light source. Then the processing goes to step ST43 over.

In Schritt ST43 wird das Objekt 4 in einem Zustand erfasst, in dem jede Lichtquelle Licht auf Basis der Dimmungsinformationen emittiert. Beispielsweise werden die der Lichtquelle 3A entsprechenden Dimmungsinformationen durch die Lichtquellenkommunikationseinheit 303A empfangen. Die Dimmungssteuereinheit 302A veranlasst die Lichtemissionseinheit 301A, Licht mit der Lichtemissionsintensität „schwach“ auf Basis der empfangenen Dimmungsinformationen zu emittieren. Ferner werden die der Lichtquelle 3B entsprechenden Dimmungsinformationen durch die Lichtquellenkommunikationseinheit 303B empfangen. Die Dimmungssteuereinheit 302B veranlasst die Lichtemissionseinheit 301B, Licht mit der Lichtemissionsintensität „stark“ auf Basis der empfangenen Dimmungsinformationen zu emittieren. Ferner werden die der Lichtquelle 3C entsprechenden Dimmungsinformationen durch die Lichtquellenkommunikationseinheit 303C empfangen. Die Dimmungssteuereinheit 302C veranlasst die Lichtemissionseinheit 301C, Licht mit der Lichtemissionsintensität „mittelstark“ auf Basis der empfangenen Dimmungsinformationen zu emittieren. Dann wird die Erfassung durch die Bildgebungsvorrichtung 1 in dem Zustand durchgeführt, in dem jede Lichtquelle Licht emittiert. Ein durch die Erfassung erhaltenes Bild wird auf der Anzeige 109 der Bildgebungsvorrichtung 1 angezeigt. Das durch die Erfassung erhaltene Bild kann von der Bildgebungsvorrichtung 1 zum Tablet-Computer 2 übertragen und auf der Anzeigeeinheit 203 angezeigt werden. Dann geht die Verarbeitung zu Schritt ST44 über.In step ST43 becomes the object 4th detected in a state in which each light source emits light based on the dimming information. For example, those of the light source 3A corresponding dimming information by the light source communication unit 303A receive. The dimming control unit 302A causes the light emission unit 301A To emit light with the light emission intensity "weak" based on the received dimming information. Furthermore, those of the light source 3B corresponding dimming information by the light source communication unit 303B receive. The dimming control unit 302B causes the light emission unit 301B To emit light with the light emission intensity “strong” based on the received dimming information. Furthermore, those of the light source 3C corresponding dimming information by the light source communication unit 303C receive. The dimming control unit 302C causes the light emission unit 301C To emit light with the light emission intensity "medium-strong" on the basis of the received dimming information. Then the acquisition by the imaging device 1 performed in the state in which each light source emits light. An image obtained by the capture appears on the display 109 the imaging device 1 displayed. The image obtained by the acquisition can be obtained from the imaging device 1 to the tablet computer 2nd transferred and on the display unit 203 are displayed. Then the processing goes to step ST44 over.

In Schritt ST44 wird die Anpassung (Feinanpassung) durch den Benutzer nach Bedarf durchgeführt. Als die Anpassung kann der Benutzer selbst die Lichtemissionsintensität einiger oder aller Lichtquellen direkt anpassen. Darüber hinaus können die Konzeptdaten selbst fein angepasst werden. Dann können die Dimmungsinformationen auf Basis der Konzeptdaten nach der Feinanpassung erneut erzeugt werden, und die Erfassung kann erneut in dem Zustand durchgeführt werden, in dem jede Lichtquelle Licht mit der Lichtemissionsintensität emittiert, die den Dimmungsinformationen entspricht. Darüber hinaus kann die Erfassung mit geänderter Lichtemissionsintensität jeder Lichtquelle mehrere Male durchgeführt werden.In step ST44 the adjustment (fine adjustment) is carried out by the user as required. As the adjustment, the user can directly adjust the light emission intensity of some or all of the light sources. In addition, the concept data itself can be fine-tuned. Then, the dimming information can be generated again based on the concept data after the fine adjustment, and the detection can be performed again in the state where each light source emits light with the light emission intensity that corresponds to the dimming information. In addition, the detection can be carried out several times with changed light emission intensity of each light source.

Es ist zu beachten, dass bei der oben beschriebenen Verarbeitung die Erfassung und die Lichtemission synchronisiert werden müssen, da die Lichtquelle 3A und die Lichtquelle 3B eine Blitzlichtemission sind. Die Synchronisationsinformationen zur Synchronisation können in den Dimmungsinformationen enthalten sein, oder es kann eine Lichtemissionsanweisung an die Lichtquelle 3A und die Lichtquelle 3B ausgegeben werden, wenn der Auslöseknopf der Bildgebungsvorrichtung 1 in einem Zustand gedrückt wird, in dem die Lichtquelle 3C weiterhin Licht emittiert. Ferner wurden in der oben beschriebenen Verarbeitung die Dimmungsinformationen für jede Lichtquelle erzeugt. Die Dimmungsinformationen können jedoch Informationen sein, in denen die Lichtemissionsintensität aller Lichtquellen geschrieben sind, und jede Lichtquelle kann ihre eigene Lichtemissionsintensität aus den Dimmungsinformationen auswählen.It should be noted that in the processing described above, the detection and light emission must be synchronized because the light source 3A and the light source 3B are a flash emission. The synchronization information for synchronization may be included in the dimming information, or it may be a light emission instruction to the light source 3A and the light source 3B are issued when the trigger button of the imaging device 1 is pressed in a state in which the light source 3C continues to emit light. Furthermore, in the processing described above, the dimming information was generated for each light source. However, the dimming information can be information in which the light emission intensity of all light sources is written, and each light source can select its own light emission intensity from the dimming information.

[Beispiel des Effekts, der bei der ersten Ausführungsform erhalten wird]Example of the Effect Obtained in the First Embodiment

Gemäß der oben beschriebenen ersten Ausführungsform können die Einstellungen der Lichtquellen zum Erhalten eines vom Benutzer gewünschten Beleuchtungseffekts automatisch durchgeführt werden. Da eine Person, die die Lichtquelle anpasst, nicht erforderlich ist, ist die Erfassung durch eine kleine Anzahl von Menschen (mindestens eine Person) auch dann möglich, wenn das Beleuchtungssystem groß wird.According to the first embodiment described above, the settings of the light sources for obtaining a lighting effect desired by the user can be carried out automatically. Since a person who adjusts the light source is not required, detection by a small number of people (at least one person) is possible even if the lighting system becomes large.

Unabhängig davon, ob die Einstellung manuell oder durch eine Simulation unter Verwendung eines Computers durchgeführt wird, erfordert die Einstellung der Lichtquelle zum Erhalten eines gewünschten Beleuchtungseffekts Zeit und Aufwand. Da ein allgemeines Beleuchtungssystem mehrere Lichtquellen verwendet, sind die Einstellungen zeit- und arbeitsaufwendiger. Gemäß der gegenwärtigen Ausführungsform kann der Benutzer jedoch die für die Anpassung der Lichtquellen erforderliche Zeit und den Aufwand reduzieren und eine effiziente Erfassung durchführen, da die Einstellungen der Lichtquellen durch einfaches Einstellen der Konzeptdaten entsprechend dem Ergebnis der Beleuchtungserfassung, mit anderen Worten einer gewünschten Bildkonfiguration (zum Beispiel der Helligkeit für jeden Bereich des Objekts), durchgeführt werden können. Da ferner die Anzahl der Versuche zum Anpassen der Lichtquellen und zum Veranlassen der Lichtquellen, Licht zu emittieren, reduziert werden kann, kann die Belastung der Lichtquellen verringert und die Haltbarkeit der Lichtquellen verbessert werden.Regardless of whether the adjustment is done manually or by simulation using a computer, adjusting the light source to obtain a desired lighting effect requires time and effort. Because a general lighting system uses multiple light sources, the settings are more time consuming and labor intensive. However, according to the present embodiment, the user can reduce the time and effort required to adjust the light sources and perform efficient detection because the settings of the light sources are made by simply setting the concept data according to the result of the lighting detection, in other words, a desired image configuration (for Example of the brightness for each area of the object). Further, since the number of attempts to adjust the light sources and cause the light sources to emit light can be reduced, the load on the light sources can be reduced and the durability of the light sources can be improved.

Da die Erfassung tatsächlich unter für das Konzept optimierter Beleuchtung durchgeführt wird, kann darüber hinaus ein Bild hoher Qualität (Standbild bei der gegenwärtigen Ausführungsform) erhalten werden, das nicht durch eine Bildbearbeitungssoftware umgesetzt werden kann.In addition, since the detection is actually carried out under lighting optimized for the concept, a high quality image (still image in the present embodiment) can be obtained which cannot be implemented by an image processing software.

<Zweite Ausführungsform><Second embodiment>

Als Nächstes wird eine zweite Ausführungsform gemäß der vorliegenden Offenbarung beschrieben. Es ist zu beachten, dass die bei der ersten Ausführungsform beschriebenen Aspekte auf die zweite Ausführungsform angewendet werden können, sofern nichts anderes angegeben ist, und in ähnlicher Weise werden Konfigurationen derselben Art mit denselben Bezugszeichen versehen, und eine redundante Beschreibung wird in geeigneter Weise weggelassen.Next, a second embodiment according to the present disclosure will be described. Note that the aspects described in the first embodiment can be applied to the second embodiment unless otherwise specified, and similarly, configurations of the same kind are given the same reference numerals and redundant description is appropriately omitted.

[Zu berücksichtigende Probleme beim Erfassen von Bewegtbildern unter Beleuchtung][Problems to be considered when capturing moving images under lighting]

Die zweite Ausführungsform ist eine Ausführungsform zum automatischen Durchführen einer Beleuchtungseinstellung zum Erhalten eines von einem Benutzer gewünschten Beleuchtungseffekts, wenn der Benutzer ein Bewegtbild erfasst. Die grundlegende Verarbeitung ähnelt der Verarbeitung bei der ersten Ausführungsform, und die Einstellung für jede Lichtquelle wird automatisch auf Basis von durch den Benutzer eingestellten Konzeptdaten durchgeführt.The second embodiment is an embodiment for automatically performing a lighting setting to obtain a lighting effect desired by a user when the user captures a moving image. The basic processing is similar to the processing in the first embodiment, and the setting for each light source is automatically performed based on concept data set by the user.

Übrigens muss beim Erfassen eines Bewegtbildes unter Beleuchtung ein für das Bewegtbild spezifischer Standpunkt berücksichtigt werden. 11 veranschaulicht ein Beleuchtungssystem (Beleuchtungssystem 10A) gemäß der zweiten Ausführungsform, bei dem ein Bewegtbild unter Beleuchtung erfasst wird. Das Beleuchtungssystem 10A weist eine Bildgebungsvorrichtung 1 und einen Tablet-Computer 2 auf, die bei der ersten Ausführungsform beschrieben sind. Darüber hinaus weist das Beleuchtungssystem 10A beispielsweise eine Lichtquelle 5A (Fülllicht), eine Lichtquelle 5B (Führungslicht) und eine Lichtquelle 5C (Hintergrundlicht) als Lichtquellen auf. Es ist zu beachten, dass die Lichtquellen 5A bis 5C, da bei der gegenwärtigen Ausführungsform ein Bewegtbild erfasst wird, eher ein konstantes Licht als eine Blitzlichtemission (Momentanlicht) emittieren.Incidentally, when capturing a moving image under lighting, a standpoint specific to the moving image must be taken into account. 11 illustrates a lighting system (lighting system 10A ) according to the second embodiment, in which a moving image is captured under illumination. The lighting system 10A has an imaging device 1 and a tablet computer 2nd described in the first embodiment. In addition, the lighting system points 10A for example a light source 5A (Fill light), a light source 5B (Guide light) and a light source 5C (Background light) as light sources. It should be noted that the light sources 5A to 5C , since a moving image is acquired in the present embodiment, emit a constant light rather than a flash emission (instant light).

Bei der Erfassung eines Bewegtbildes gibt es im Allgemeinen ein Objekt, das sich bewegt (sich bewegendes Objekt), wie etwa eine Person, und ein Objekt, das sich nicht bewegt, wie etwa ein Hintergrund. In dem in 11 veranschaulichten Beleuchtungssystem 10A ist eine Person 6 als ein Beispiel des sich bewegenden Objekts veranschaulicht und eine Wand 7 ist als der Hintergrund veranschaulicht. Die Person 6 wird hauptsächlich mit Licht von der Lichtquelle 5A und der Lichtquelle 5B bestrahlt, und die Wand 7 wird hauptsächlich mit Licht von der Lichtquelle 5C bestrahlt.When capturing a moving image, there is generally an object that moves (moving object), such as a person, and an object that does not move, such as a background. In the in 11 illustrated lighting system 10A is a person 6 illustrated as an example of the moving object and a wall 7 is illustrated as the background. The person 6 is mainly with light from the light source 5A and the light source 5B irradiated, and the wall 7 is mainly with light from the light source 5C irradiated.

Die gegenwärtige Ausführungsform nimmt einen Fall des Erfassens eines Zustands an, in dem sich die Person 6 in einer Tiefenrichtung, genauer gesagt, von hinten (Tiefenseite) nach vorne (Vorderseite) in Bezug auf die Bildgebungsvorrichtung 1 bewegt. Es wird angenommen, dass der Benutzer eine Zusammensetzung wünscht, bei der sich die Helligkeit der Person 6 (Helligkeit des reflektierten Lichts) nicht mit der Bewegung der Person 6 ändert. In einem derartigen Fall wird im Allgemeinen ein als Wiping-Verfahren bezeichnetes Verfahren verwendet, bei dem eine Lichtmenge so angepasst wird, dass sie konstant ist, während die Lichtquelle mit einem Diffusor abgedeckt wird. Das Wiping-Verfahren erfordert jedoch eine hochqualifizierte Technik. Daher muss im Falle der Anordnung von Personal, das in der Lage ist, das Wiping-Verfahren in jeder Lichtquelle durchzuführen, Personal, das in der Lage ist, das Wiping-Verfahren durchzuführen, als eine Voraussetzung gewährleistet werden. Darüber hinaus steigen die Kosten für die Erfassung des Bewegtbildes aufgrund von Belohnungen und dergleichen für das Personal. Wie oben beschrieben, wird im Fall der Erfassung eines Bewegtbildes unter Beleuchtung das Problem der Zunahme des Personals und der mit der Zunahme des Personals verbundenen Zunahme der Kosten ausgeprägter als im Fall der Erfassung eines Standbildes unter Beleuchtung. Einzelheiten der zweiten Ausführungsform werden auf Basis eines derartigen Standpunkts beschrieben.The present embodiment assumes a case of detecting a state in which the person is 6 in a depth direction, more specifically, from the back (depth side) to the front (front side) with respect to the imaging device 1 emotional. It is believed that the user desires a composition that matches the brightness of the person 6 (Brightness of the reflected light) not with the movement of the person 6 changes. In In such a case, a method called a wiping method is generally used, in which an amount of light is adjusted so that it is constant while the light source is covered with a diffuser. However, the wiping process requires a highly qualified technique. Therefore, in the case of arranging personnel capable of wiping in any light source, personnel capable of wiping must be ensured as a requirement. In addition, the cost of capturing the moving image increases due to rewards and the like for the personnel. As described above, in the case of capturing a moving image under lighting, the problem of increasing the personnel and increasing the cost associated with the increase in personnel becomes more pronounced than when capturing a still image under lighting. Details of the second embodiment will be described based on such a viewpoint.

[Konfigurationen von Vorrichtungen][Device Configurations]

Da Konfigurationen der Bildgebungsvorrichtung 1 und des Tablet-Computers 2 jeweils unter Bezugnahme auf die 2 und 3 beschrieben wurden, wird eine redundante Beschreibung weggelassen. Es ist zu beachten, dass, obwohl Einzelheiten unten beschrieben werden, eine Steuereinheit 201 bestimmte Einstellungen in Bezug auf die Lichtquellen 5A bis 5C steuert, um Strukturdaten in einem Fall beizubehalten, in dem sich ein Objekt ändert, wenn ein Bewegtbild erfasst wird.Because of configurations of the imaging device 1 and the tablet computer 2nd each with reference to the 2nd and 3rd a redundant description is omitted. Note that although details are described below, a control unit 201 certain settings related to the light sources 5A to 5C controls to maintain structural data in a case where an object changes when a moving image is captured.

Die 12A bis 12C veranschaulichen Konfigurationsbeispiele der Lichtquellen 5A bis 5C. Die Lichtquelle 5A weist eine Lichtemissionseinheit 501A, eine Dimmungssteuereinheit 502A und eine Lichtquellenkommunikationseinheit 503A ähnlich der Lichtquelle 3A auf. Die Lichtquelle 5B weist eine Lichtemissionseinheit 501B, eine Dimmungssteuereinheit 502B und eine Lichtquellenkommunikationseinheit 503B ähnlich der Lichtquelle 3B auf. Die Lichtquelle 5C weist eine Lichtemissionseinheit 501C, eine Dimmungssteuereinheit 502C und eine Lichtquellenkommunikationseinheit 503C ähnlich der Lichtquelle 3C auf. Es ist zu beachten, dass auf eine redundante Beschreibung verzichtet wird, da die Funktion jeder Einheit die gleiche ist wie die Funktion jeder Einheit in der Lichtquelle 3A. Die Lichtquellen 5A bis 5C sind dazu ausgelegt, Licht mit drei Lichtemissionsintensitätspegeln zu emittieren, zum Beispiel „schwach“, „mittelstark“ und „stark“.The 12A to 12C illustrate configuration examples of light sources 5A to 5C . The light source 5A has a light emission unit 501A , a dimming control unit 502A and a light source communication unit 503A similar to the light source 3A on. The light source 5B has a light emission unit 501B , a dimming control unit 502B and a light source communication unit 503B similar to the light source 3B on. The light source 5C has a light emission unit 501C , a dimming control unit 502C and a light source communication unit 503C similar to the light source 3C on. Note that redundant description is omitted because the function of each unit is the same as the function of each unit in the light source 3A . The light sources 5A to 5C are designed to emit light at three light emission intensity levels, for example "weak", "medium" and "strong".

[Bei der zweiten Ausführungsform durchgeführte Verarbeitung][Processing performed in the second embodiment]

Als Nächstes wird die bei der zweiten Ausführungsform durchgeführte Verarbeitung beschrieben, einschließlich eines Betriebs jeder Vorrichtung. Bei der zweiten Ausführungsform ist zur Vereinfachung der Beschreibung die Verarbeitung in drei Arten von Verarbeitung unterteilt: „Kalibrationsverarbeitung“, „Konzeptdatenerzeugungsverarbeitung“ und „Beleuchtungseinstellung-und-Erfassung-Verarbeitung“ und jede Art der Verarbeitung wird dann der Reihe nach beschrieben. Die drei Arten von Verarbeitung müssen nicht in der nachstehend beschriebenen Reihenfolge durchgeführt werden und die Reihenfolge der Verarbeitung innerhalb eines Umfangs kann geändert werden, in dem kein technischer Widerspruch auftritt, die Verarbeitung kann parallel durchgeführt werden oder jede Art der Verarbeitung kann kontinuierlich durchgeführt werden.Next, the processing performed in the second embodiment, including an operation of each device, will be described. In the second embodiment, to simplify the description, the processing is divided into three types of processing: “calibration processing”, “concept data generation processing” and “lighting setting and detection processing”, and each type of processing is then described in order. The three types of processing do not need to be performed in the order described below, and the order of processing can be changed within a scope where there is no technical contradiction, the processing can be performed in parallel, or any type of processing can be performed continuously.

(Kalibrationsverarbeitung)(Calibration processing)

Zunächst wird die Kalibrationsverarbeitung gemäß der zweiten Ausführungsform beschrieben. 13 ist ein Flussdiagramm, das ein Beispiel für einen Verarbeitungsfluss der Kalibrationsverarbeitung gemäß der zweiten Ausführungsform veranschaulicht. Es ist zu beachten, dass eine Verarbeitung, die der in dem Flussdiagramm in 7 beschriebenen Verarbeitung ähnlich ist, mit denselben Bezugszeichen bezeichnet ist und eine redundante Beschreibung gegebenenfalls weggelassen wird.First, the calibration processing according to the second embodiment will be described. 13 FIG. 12 is a flowchart illustrating an example of a processing flow of calibration processing according to the second embodiment. It should be noted that processing that corresponds to that in the flowchart in 7 described processing is similar, is denoted by the same reference numerals and a redundant description may be omitted.

Nachdem die Verarbeitung gestartet wurde, bewegt sich in Schritt ST51 die Person 6 als das sich bewegende Objekt zu einem Ort AA. Der Ort AA ist beispielsweise eine Position, an der sich die Person 6 zu bewegen beginnt. Dann emittiert die Lichtquelle 5A in den Schritten ST11 bis ST22 beispielsweise sequenziell Licht mit der Lichtemissionsintensität „niedrig“, „mittelstark“ und „stark“, und es wird eine Erfassung in jedem Lichtemissionszustand durchgeführt. Diese Erfassung kann ein Standbild oder ein Bewegtbild sein. Bei jeder Erfassung werden jeder Lichtemissionsintensität entsprechende Bildinformationen analysiert, und ein Element einer Dimmungstabelle wird durch eine Dimmungstabellen-Erzeugungseinheit 201A erzeugt. Wenn die Erfassung abgeschlossen ist, fährt die Verarbeitung mit Schritt ST23 fort.After processing is started, moves to step ST51 the person 6 than the moving object to a place AA . The place AA is for example a position where the person is 6 begins to move. Then the light source emits 5A in steps ST11 to ST22 for example, sequentially light with the Light emission intensity "low", "medium" and "strong", and a detection is carried out in every light emission state. This detection can be a still picture or a moving picture. With each detection, image information corresponding to each light emission intensity is analyzed, and an element of a dimming table is generated by a dimming table generation unit 201A generated. When the acquisition is complete, processing goes to step ST23 away.

In Schritt ST23 wird bestimmt, ob die gesamte Verarbeitung (Erfassung) unter Verwendung jeder Lichtquelle an einem vorbestimmten Ort (Ort AA in dem gegenwärtigen Beispiel) abgeschlossen wurde oder nicht. In dem gegenwärtigen Beispiel ist die Verarbeitung unter Verwendung der Lichtquellen 5B und 5C nicht abgeschlossen worden, und die Verarbeitung kehrt zu Schritt ST11 zurück. Dann emittiert die Lichtquelle 5B in den Schritten ST11 bis ST22 beispielsweise sequenziell Licht mit der Lichtemissionsintensität „niedrig“, „mittelstark“ und „stark“, und es wird eine Erfassung in jedem Lichtemissionszustand durchgeführt. Ferner emittiert die Lichtquelle 5C beispielsweise sequenziell Licht mit der Lichtemissionsintensität „niedrig“, „mittelstark“ und „stark“, und es wird eine Erfassung in jedem Lichtemissionszustand durchgeführt. Bei jeder Erfassung werden jeder Lichtemissionsintensität entsprechende Bildinformationen analysiert, und ein Element einer Dimmungstabelle wird durch eine Dimmungstabellen-Erzeugungseinheit 201A erzeugt. Wenn die Erfassung abgeschlossen ist, fährt die Verarbeitung mit Schritt ST23 fort.In step ST23 it is determined whether all of the processing (detection) using each light source at a predetermined location (location AA in the current example) or not. In the current example, processing is using the light sources 5B and 5C has not been completed and processing returns to step ST11 back. Then the light source emits 5B in steps ST11 to ST22 for example, sequentially light with the light emission intensity "low", "medium" and "strong", and a detection is carried out in each light emission state. The light source also emits 5C for example, sequentially light with the light emission intensity "low", "medium" and "strong", and a detection is carried out in each light emission state. With each detection, image information corresponding to each light emission intensity is analyzed, and an element of a dimming table is generated by a dimming table generation unit 201A generated. When the acquisition is complete, processing goes to step ST23 away.

Da die Erfassung unter Verwendung der Lichtquellen 5A, 5B und 5C in dem Zustand, in dem sich die Person 6 an dem Ort AA befindet, abgeschlossen ist, ist die Bestimmung in der Verarbeitung in Schritt ST23 affirmativ, und der Prozess fährt mit Schritt ST52 fort. In Schritt ST52 wird bestimmt, ob die Erfassung an allen Orten abgeschlossen wurde oder nicht. In dem gegenwärtigen Beispiel ist die Bestimmung in der Verarbeitung in Schritt ST52 negativ und die Verarbeitung fährt mit Schritt ST53 fort.Because the detection using the light sources 5A , 5B and 5C in the state in which the person is 6 at the place AA is completed, the determination is in the processing in step ST23 affirmative, and the process moves on ST52 away. In step ST52 it is determined whether the acquisition has been completed in all locations or not. In the current example, the determination is in step processing ST52 negative and the processing moves to step ST53 away.

In Schritt ST53 bewegt sich die Person 6 als das sich bewegende Objekt zu einem Ort BB. Der Ort BB ist beispielsweise eine Position, an der die Person 6 ihre Bewegung beendet hat, das heißt eine finale Stoppposition. Dann kehrt die Verarbeitung zu Schritt ST11 zurück. Dann emittiert die Lichtquelle 5A in den Schritten ST11 bis ST22 beispielsweise sequenziell Licht mit der Lichtemissionsintensität „niedrig“, „mittelstark“ und „stark“, und es wird eine Erfassung in jedem Lichtemissionszustand durchgeführt. Bei jeder Erfassung werden jeder Lichtemissionsintensität entsprechende Bildinformationen analysiert, und ein Element einer Dimmungstabelle wird durch eine Dimmungstabellen-Erzeugungseinheit 201A erzeugt. Eine ähnliche Verarbeitung wird für die anderen Lichtquellen 5B und 5C durchgeführt. Dann geht die Verarbeitung zu Schritt ST23 über.In step ST53 the person moves 6 than the moving object to a place BB . The place BB For example, is a position where the person 6 has stopped moving, that is, a final stop position. Then processing returns to step ST11 back. Then the light source emits 5A in steps ST11 to ST22 for example, sequentially light with the light emission intensity "low", "medium" and "strong", and a detection is carried out in each light emission state. With each detection, image information corresponding to each light emission intensity is analyzed, and an element of a dimming table is generated by a dimming table generation unit 201A generated. Similar processing is done for the other light sources 5B and 5C carried out. Then the processing goes to step ST23 over.

In Schritt ST23 wird bestimmt, ob die gesamte Verarbeitung (Erfassung) unter Verwendung jeder Lichtquelle an einem vorbestimmten Ort (Ort BB in dem gegenwärtigen Beispiel) abgeschlossen wurde oder nicht. In einem Fall, in dem die Erfassung unter Verwendung der Lichtquellen 5A, 5B und 5C abgeschlossen ist, fährt die Verarbeitung mit Schritt ST52 fort. Wie oben beschrieben, wird in Schritt ST52 bestimmt, ob die Erfassung an allen Orten abgeschlossen ist oder nicht. In dem gegenwärtigen Beispiel sind Erfassungsorte die zwei Orte des Ortes AA, der eine Bewegungsstartposition der Person 6 ist, und des Ortes BB, der eine Bewegungsstoppposition ist. Daher ist die Bestimmung in Schritt ST52 affirmativ und der Prozess endet.In step ST23 it is determined whether all of the processing (detection) using each light source at a predetermined location (location BB in the current example) or not. In a case where the detection using the light sources 5A , 5B and 5C is completed, processing continues with step ST52 away. As described above, step ST52 determines whether the capture is complete at all locations or not. In the current example, capture locations are the two locations of the location AA which is a movement start position of the person 6 is, and the place BB which is a movement stop position. Hence the determination in step ST52 affirmative and the process ends.

14 veranschaulicht ein Beispiel einer Dimmungstabelle (Dimmungstabelle TA2), die durch die Kalibrationsverarbeitung gemäß der zweiten Ausführungsform erhalten wird. Die Dimmungstabelle TA2 ist eine Tabelle, in der der Typ von Lichtquelle, die Lichtemissionsintensität, die Positionsinformationen der Person 6 und ein Luminanzpegel jedes Pixels eines zu dieser Zeit erfassten Bildes miteinander assoziiert sind. Es ist zu beachten, dass die Positionsinformationen der Person 6 durch verschiedene Arten von Informationen ausgedrückt werden können. Beispielsweise wird eine bekannte Personenextraktionsverarbeitung auf Basis eines Bildes bei der Erfassung durchgeführt, wobei ein Bereich erhalten wird, der von der Person 6 (Bereich, in dem sich die Person 6 befindet) an dem Ort AA eingenommen wird, und der Bereich kann als die Positionsinformationen verwendet werden. Ferner können Abstandsinformationen der Person 6 an jedem Ort als die Positionsinformationen auf Basis einer Tiefenkarte verwendet werden, die durch einen abstandsmessenden Sensor oder durch Bildverarbeitung erhalten wird. Ferner bewegt sich die Person 6, während sie einen Beacon hält, und Informationen, die vom Beacon an jedem Ort übertragen werden, können als die Positionsinformationen verwendet werden. Weiterhin können kombinierte Informationen der obigen Informationselemente als Positionsinformationen verwendet werden. 14 illustrates an example of a dimming table (dimming table TA2 ) obtained by the calibration processing according to the second embodiment. The dimming table TA2 is a table in which the type of light source, the light emission intensity, the position information of the person 6 and a luminance level of each pixel of an image captured at that time is associated with each other. It should be noted that the position information of the person 6 can be expressed by different types of information. For example, known person extraction processing is performed on the basis of an image in the detection, whereby an area obtained by the person is obtained 6 (Area in which the person 6 located) at the place AA is occupied, and the area can be used as the position information. Furthermore, distance information of the person 6 can be used at any location as the position information based on a depth map obtained by a distance measuring sensor or by image processing. The person also moves 6 while holding a beacon and information transmitted from the beacon to any location can be used as the position information. Combined information of the above information elements can also be used as position information.

Es ist zu beachten, dass die Dimmungstabelle TA2 eine größere Informationsmenge aufweist als die bei der ersten Ausführungsform beschriebene Dimmungstabelle TA1. Einfach ausgedrückt werden die Informationen um die Anzahl der Erfassungsorte erhöht, und in dem oben beschriebenen Beispiel wird die Erfassung an dem Ort AA und dem Ort BB durchgeführt, sodass die Informationsmenge in der Dimmungstabelle TA2 etwa doppelt so groß ist wie die Informationsmenge in der Dimmungstabelle TA1. Daher kann beispielsweise der Luminanzpegel jedes Pixels der Dimmungstabelle TA2 unter Verwendung einer bekannten Komprimierungstechnologie komprimiert werden. Ferner können in der Dimmungstabelle TA2 nur die Luminanzpegel der Pixel beschrieben werden, die in einem Bereich vorhanden sind, der durch nachfolgend zu beschreibende Konzeptdaten festgelegt ist.It should be noted that the dimming table TA2 has a larger amount of information than the dimming table described in the first embodiment TA1 . Simply put, the information is increased by the number of capture locations, and in the example described above, the capture is at that location AA and the place BB carried out so that the amount of information in the dimming table TA2 is about twice the amount of information in the dimming table TA1 . Therefore, for example, the luminance level of each pixel in the dimming table TA2 be compressed using a known compression technology. Furthermore, in the dimming table TA2 only the luminance levels of the pixels existing in an area specified by concept data to be described below are described.

(Konzeptdatenerzeugungsverarbeitung)(Concept data generation processing)

Als Nächstes wird die Konzeptdatenerzeugungsverarbeitung gemäß der zweiten Ausführungsform beschrieben. Der Verarbeitungsablauf der Konzeptdatenerzeugungsverarbeitung gemäß der zweiten Ausführungsform ist grundsätzlich der gleiche wie der der Konzeptdatenerzeugungsverarbeitung gemäß der ersten Ausführungsform. Das heißt, eine Einstellung der Konzeptdaten unter Verwendung einer Eingabeeinheit 204 wird durch den Benutzer in einem Zustand durchgeführt, in dem ein Referenzbild auf einer Anzeigeeinheit 203 eines Tablet-Computers 2 angezeigt wird.Next, the concept data generation processing according to the second embodiment will be described. The processing flow of the concept data generation processing according to the second embodiment is basically the same as that of the concept data generation processing according to the first embodiment. That is, setting the concept data using an input unit 204 is performed by the user in a state in which a reference image is on a display unit 203 a tablet computer 2nd is shown.

15 ist ein Diagramm zum Beschreiben eines Beispiels der Konzeptdaten gemäß der zweiten Ausführungsform. Ein Referenzbild IM2 wird auf der Anzeigeeinheit 203 angezeigt. Das Referenzbild IM2 ist beispielsweise ein Bild (Standbild), wenn sich der Benutzer am Ort AA befindet. Dieses Bild kann ein Bild sein, das durch die Kalibrationsverarbeitung erhalten wird, oder es kann ein separat erfasstes Bild sein. 15 11 is a diagram for describing an example of the concept data according to the second embodiment. A reference picture IM2 is on the display unit 203 displayed. The reference picture IM2 is, for example, a picture (still picture) when the user is in place AA located. This image can be an image obtained by calibration processing, or it can be a separately captured image.

Der Benutzer gibt die Konzeptdaten unter Verwendung der Eingabeeinheit 204 ein. Beispielsweise werden ein Bereich AR3 einschließlich der Person 6 und ein Hintergrundbereich AR4 spezifiziert. Dann werden beispielsweise die Konzeptdaten zum Beibehalten der Helligkeit der Person 6 und des Hintergrunds (der Intensität des von den Objekten reflektierten Lichts) durch den Benutzer eingestellt. Hierbei werden auch die Helligkeit der Person 6 und des Hintergrunds an der Erfassungsstartposition (der Zustand, in dem sich das sich bewegende Objekt an dem Ort AA befindet, der in der folgenden Beschreibung zweckmäßig als ein Anfangszustand bezeichnet wird) als die Konzeptdaten festgelegt.The user enters the concept data using the input unit 204 a. For example, an area AR3 including the person 6 and a background area AR4 specified. Then, for example, the concept data for maintaining the brightness of the person 6 and the background (the intensity of the light reflected from the objects) by the user. This also includes the brightness of the person 6 and the background at the detection start position (the state in which the moving object at the location AA which is conveniently referred to as an initial state in the following description) is set as the concept data.

Es ist zu beachten, dass die Einstellung der Konzeptdaten ein Beispiel ist und nicht auf dieses Beispiel beschränkt ist. Zum Beispiel wurde in dem oben beschriebenen Beispiel ein rechteckiger Bereich veranschaulicht. Es kann jedoch eine Person extrahiert und eine Einstellung für die Person selbst vorgenommen werden (zum Beispiel, um die Helligkeit der Person beizubehalten). Ferner können, wie in dem oben beschriebenen Beispiel, in dem Fall des Beibehaltens der Helligkeit des sich bewegenden Objekts und des Hintergrunds die Konzeptdaten des „Beibehaltens der Helligkeit aller Objekte (einschließlich des Hintergrunds)“ einfach eingestellt werden, ohne Bereiche festzulegen. Das in den Konzeptdaten einzustellende Objekt wird nicht nur durch den Benutzer eingestellt, sondern kann auch automatisch durch Personenextraktion oder Gesichtserkennung erkannt werden.It should be noted that the setting of the concept data is an example and is not limited to this example. For example, a rectangular area was illustrated in the example described above. However, a person can be extracted and a setting made for the person himself (for example, to maintain the brightness of the person). Furthermore, as in the example described above, in the case of maintaining the brightness of the moving object and the background, the concept data of “maintaining the brightness of all objects (including the background)” can be easily set without specifying areas. The object to be set in the concept data is not only set by the user, but can also be recognized automatically by person extraction or face recognition.

(Beleuchtungseinstellung-und-Erfassung-Verarbeitung)(Lighting setting-and-detection processing)

Als Nächstes wird die Beleuchtungseinstellung-und-Erfassung-Verarbeitung gemäß der zweiten Ausführungsform beschrieben. 16 ist ein Flussdiagramm, das ein Beispiel für einen Verarbeitungsfluss der Beleuchtungseinstellung-und-Erfassung-Verarbeitung veranschaulicht. Nachdem die Verarbeitung gestartet wurde, erzeugt in Schritt ST61 eine Dimmungsinformationen-Erzeugungseinheit 201B Dimmungsinformationen, die die Lichtemissionsintensität jeder Lichtquelle angeben, auf Basis der Konzeptdaten und der Dimmungstabelle TA2. Das heißt, die Dimmungsinformationen-Erzeugungseinheit 201B erzeugt die Dimmungsinformationen für jede Lichtquelle unter Bezugnahme auf die Dimmungstabelle TA2, sodass die Helligkeit der Person 6 und des Hintergrunds mit der Helligkeit in dem durch die Konzeptdaten angegebenen Anfangszustand übereinstimmt oder sich diesem nähert. Wie bei der ersten Ausführungsform beschrieben, können als ein Optimierungsverfahren zum Erhalten einer optimalen Beleuchtungseinstellung (Dimmungsinformationen) für die Konzeptdaten ein Quasi-Newton-Verfahren, ein Downhill-Simplex-Verfahren, ein Dual-Simplex-Verfahren, eine sequentielle lineare quadratische Programmierung oder dergleichen angewendet werden. Dann geht die Verarbeitung zu Schritt ST62 über.Next, the lighting setting and detection processing according to the second embodiment will be described. 16 FIG. 12 is a flowchart illustrating an example of a processing flow of the lighting setting and detection processing. After processing is started, generated in step ST61 a dimming information generation unit 201B Dimming information that indicates the light emission intensity of each light source based on the concept data and the dimming table TA2 . That is, the dimming information generation unit 201B generates the dimming information for each light source with reference to the dimming table TA2 so the brightness of the person 6 and the background matches or approaches the brightness in the initial state indicated by the concept data. As described in the first embodiment, as an optimization method for obtaining an optimal lighting setting (dimming information) for the concept data, a quasi-Newton method, a downhill simplex method, a dual simplex method, a sequential linear quadratic programming or the like be applied. Then the processing goes to step ST62 over.

In Schritt ST62 gibt der Tablet-Computer 2 die Dimmungsinformationen, die die Lichtemissionsintensität jeder Lichtquelle angeben, zu der entsprechenden Lichtquelle aus. Beispielsweise überträgt der Tablet-Computer 2 die Dimmungsinformationen unter Verwendung der Tablet-Kommunikationseinheit 202 zu der entsprechenden Lichtquelle. Die der Lichtquelle 5A entsprechenden Dimmungsinformationen werden durch die Lichtquellenkommunikationseinheit 503A empfangen. Die Dimmungssteuereinheit 502A steuert die Lichtemissionsintensität der Lichtemissionseinheit 501A auf Basis der empfangenen Dimmungsinformationen. Die der Lichtquelle 5B entsprechenden Dimmungsinformationen werden durch die Lichtquellenkommunikationseinheit 503B empfangen. Die Dimmungssteuereinheit 502B steuert die Lichtemissionsintensität der Lichtemissionseinheit 501B auf Basis der empfangenen Dimmungsinformationen. Die der Lichtquelle 5C entsprechenden Dimmungsinformationen werden durch die Lichtquellenkommunikationseinheit 503C empfangen. Die Dimmungssteuereinheit 502C steuert die Lichtemissionsintensität der Lichtemissionseinheit 501C auf Basis der empfangenen Dimmungsinformationen. Dann geht die Verarbeitung zu Schritt ST63 über.In step ST62 gives the tablet computer 2nd the dimming information indicating the light emission intensity of each light source to the corresponding light source. For example, the tablet computer transmits 2nd the dimming information using the tablet communication unit 202 to the corresponding light source. That of the light source 5A corresponding dimming information is provided by the light source communication unit 503A receive. The dimming control unit 502A controls the light emission intensity of the light emission unit 501A based on the received dimming information. That of the light source 5B corresponding dimming information is provided by the light source communication unit 503B receive. The dimming control unit 502B controls the light emission intensity of the light emission unit 501B based on the received dimming information. That of the light source 5C corresponding dimming information is provided by the light source communication unit 503C receive. The dimming control unit 502C controls the light emission intensity of the light emission unit 501C based on the received dimming information. Then the processing goes to step ST63 over.

In Schritt ST63 wird die Erfassung eines Bewegtbildes durch die Bildgebungsvorrichtung 1 in dem Zustand gestartet, in dem jede Lichtquelle Licht auf Basis der Dimmungsinformationen emittiert, und als Ergebnis der Erfassung wird ein Bild für ein Einzelbild erhalten. Das erhaltene Bild wird von der Bildgebungsvorrichtung 1 zum Tablet-Computer 2 übertragen. Nachdem das übertragene Bild durch die Tablet-Kommunikationseinheit 202 empfangen wird, wird das Bild der Steuereinheit 201 zugeführt. Dann geht die Verarbeitung zu Schritt ST64 über.In step ST63 becomes the acquisition of a moving image by the imaging device 1 started in the state where each light source emits light based on the dimming information, and an image for one frame is obtained as a result of the detection. The image obtained is from the imaging device 1 to the tablet computer 2nd transfer. After the transferred image through the tablet communication unit 202 is received, the image of the control unit 201 fed. Then the processing goes to step ST64 over.

In Schritt ST64 berechnet die Steuereinheit 201 eine Differenz zwischen dem in Schritt ST64 erhaltenen Bild eines Einzelbildes und den Konzeptdaten. Ein Beispiel des Differenzberechnungsverfahrens wird beschrieben. Die Steuereinheit 201 extrahiert einen Teil, der dem Bereich AR3 entspricht, der die Person 6 enthält, aus dem Bild eines Einzelbildes. Dann vergleicht die Steuereinheit 201 einen Durchschnittswert der Helligkeit (Luminanz) jedes Pixels in dem Bereich AR3 mit einem Durchschnittswert der Helligkeit jedes Pixels in dem Bereich AR3 in dem Anfangszustand und berechnet die Differenz. Eine ähnliche Berechnung wird für den Bereich AR4 durchgeführt. Dann geht die Verarbeitung zu Schritt ST65 über.In step ST64 the control unit calculates 201 a difference between that in step ST64 obtained image of a single image and the concept data. An example of the difference calculation method is described. The control unit 201 extracts a portion that corresponds to the area AR3 equals to the person 6 contains, from the image of a single image. Then the control unit compares 201 an average value of the brightness (luminance) of each pixel in the area AR3 with an average value of the brightness of each pixel in the area AR3 in the initial state and calculates the difference. A similar calculation is made for the area AR4 carried out. Then the processing goes to step ST65 over.

In Schritt ST65 wird bestimmt, ob die in Schritt ST64 berechnete Differenz in Bezug auf mindestens einen der Bereiche AR3 oder AR4 gleich oder größer als ein vorbestimmter Schwellenwert ist oder nicht. Beispielsweise wird der vorbestimmte Schwellenwert zweckmäßig auf einen Wert eingestellt, der es ermöglicht, eine Helligkeitsänderung visuell zu erkennen. In einem Fall, in dem die Differenz nicht gleich oder größer als der vorbestimmte Schwellenwert ist, fährt die Verarbeitung mit Schritt ST66 fort.In step ST65 it is determined whether the in step ST64 calculated difference with respect to at least one of the areas AR3 or AR4 is equal to or greater than a predetermined threshold or not. For example, the predetermined threshold value is expediently set to a value that makes it possible to visually recognize a change in brightness. In a case where the difference is not equal to or larger than the predetermined threshold, the processing goes to step ST66 away.

In Schritt ST66 wird bestimmt, ob die Erfassung des Bewegtbildes abgeschlossen wurde oder nicht. Wenn die Erfassung des Bewegtbildes abgeschlossen wurde, fährt die Verarbeitung mit Schritt ST67 fort, und die Anpassung (Feinanpassung) für das erfasste Bewegtbild wird nach Bedarf durchgeführt. In dem gegenwärtigen Beispiel ist die Bestimmung in Schritt ST66 negativ, da die Erfassung nur eines Einzelbildes abgeschlossen wurde, und die Verarbeitung kehrt zu Schritt ST63 zurück. Dann wird die Verarbeitung der Schritte ST63 und ST64 für ein als Nächstes aufzunehmendes Einzelbild durchgeführt.In step ST66 it is determined whether the capturing of the moving image has been completed or not. When the detection of the moving picture has been completed, the processing proceeds to step ST67, and the adjustment (fine adjustment) for the detected moving picture is performed as necessary. In the current example, the determination is in step ST66 negative because the acquisition of only one frame has been completed and processing returns to step ST63 back. Then the processing of the steps ST63 and ST64 for a frame to be captured next.

Die gegenwärtige Ausführungsform nimmt den Fall an, in dem sich die Person 6 von der Tiefe zu der Vorderseite bewegt, wie oben beschrieben. Während sich die Person 6 der Vorderseite nähert, nimmt der Abstand zwischen der Lichtquelle 5A und der Lichtquelle 5B und der Person 6 ab, mit anderen Worten, die Person 6 wird heller. Daher wird die Verarbeitung in Schritt ST65 zu einem gewissen Timing affirmativ. In diesem Fall kehrt die Verarbeitung zum Schritt ST61 zurück.The current embodiment assumes the case where the person is 6 moved from the depth to the front as described above. While the person 6 approaches the front, the distance between the light source increases 5A and the light source 5B and the person 6 off, in other words, the person 6 is getting lighter. Therefore, the processing in step ST65 affirmative at a certain timing. In this case, processing returns to step ST61 back.

In Schritt ST61 berechnet die Dimmungsinformationen-Erzeugungseinheit 201B die Dimmungsinformationen neu. Das heißt, die Dimmungsinformationen-Erzeugungseinheit 201B berechnet die Dimmungsinformationen unter Bezugnahme auf die Dimmungstabelle TA2 neu, sodass die Helligkeit der Person 6 und des Hintergrunds mit der Helligkeit übereinstimmen, die durch die Konzeptdaten an der aktuellen Position der Person 6 angegeben wird. Konzeptionell wird die Lichtemissionsintensität der Lichtquelle 5A und der Lichtquelle 5B verringert. Die Helligkeit des Hintergrunds nimmt jedoch ab und die Konzeptdaten können nicht umgesetzt werden. Dementsprechend wird die Lichtemissionsintensität der Lichtquelle 5C erhöht. Dadurch kann in einem Fall, in dem eine Änderung aufgrund der Bewegung der Person 6 auftritt, die Einstellung bezüglich jeder Lichtquelle gesteuert werden, um die Konzeptdaten beizubehalten. Insbesondere können die Helligkeit der Person 6 und des Hintergrunds gemäß den Konzeptdaten beibehalten werden. Dann fährt die Verarbeitung mit Schritt ST62 fort und die Dimmungsinformationen, die die Lichtemissionsintensität jeder Lichtquelle anzeigen, werden von dem Tablet-Computer 2 zu jeder entsprechenden Lichtquelle ausgegeben (übertragen). Dann wird die Erfassung eines Bewegtbildes in einem Zustand durchgeführt, in dem jede Lichtquelle Licht auf Basis der neu berechneten Dimmungsinformation emittiert. Die oben beschriebene Verarbeitung wird während der Erfassung des Bewegtbildes wiederholt.In step ST61 calculates the dimming information generation unit 201B the dimming information new. That is, the dimming information generation unit 201B calculates the dimming information with reference to the dimming table TA2 new so the brightness of the person 6 and the background coincide with the brightness by the concept data at the current position of the person 6 is specified. Conceptually, the light emission intensity of the light source 5A and the light source 5B decreased. However, the brightness of the background decreases and the concept data cannot be implemented. Accordingly, the light emission intensity of the light source 5C elevated. This can result in a case where there is a change due to the movement of the person 6 occurs, the setting regarding each light source can be controlled to maintain the concept data. In particular, the brightness of the person 6 and the background according to the concept data. Then the processing goes to step ST62 and the dimming information indicating the light emission intensity of each light source is from the tablet computer 2nd output (transmitted) to each corresponding light source. Then, the detection of a moving image is carried out in a state in which each light source emits light based on the newly calculated dimming information. The processing described above is repeated during the acquisition of the moving image.

Es ist zu beachten, dass in der in 14 veranschaulichten Dimmungstabelle TA2 nur Bildinformationen darüber beschrieben sind, wann die Person 6 an den beiden Orten AA und BB anwesend ist. Daher kann ein Einfluss der Lichtemission mit der Lichtemissionsintensität durch eine gewisse Lichtquelle auf das Objekt an einem Ort zwischen dem Ort AA und dem Ort BB (im Folgenden wird der Ort gegebenenfalls als Ort CC bezeichnet; es ist zu beachten, dass der Ort CC eine beliebige Position sein kann) unter Verwendung der Informationen des Orts AA und des Orts BB interpoliert werden kann. Beispielsweise kann in einem Fall, in dem die Lichtquelle 5A Licht mit der Lichtemissionsintensität „schwach“ emittiert, der Luminanzpegel eines Pixels in einem Bereich, der von der Person 6 am Ort CC eingenommen wird, unter Verwendung des Luminanzpegels eines Pixels in einem Fall, in dem die Lichtquelle 5A Licht mit der Lichtemissionsintensität „schwach“ in einem Zustand emittiert, in dem sich die Person 6 an dem Ort AA befindet, und des Luminanzpegels eines Pixels in einem Fall, in dem die Lichtquelle 5A Licht mit der Lichtemissionsintensität „schwach“ in einem Zustand emittiert, in dem sich die Person 6 am Ort BB befindet, vorhergesagt werden. Ferner kann der Luminanzpegel eines Pixels in einem Fall, in dem eine gewisse Lichtquelle Licht mit einer gewissen Lichtemissionsintensität emittiert, in einem Zustand, in dem sich die Person 6 an dem Ort CC befindet, unter Verwendung einer Änderung der räumlichen Position der Person 6 (Tiefeninformationsänderung) vorhergesagt werden.It should be noted that in the 14 illustrated dimming table TA2 only image information is described about when the person 6 in the two places AA and BB is present. Therefore, an influence of the light emission with the light emission intensity by a certain light source on the object at a location between the location AA and the place BB (In the following, the location is referred to as location CC where appropriate; it should be noted that location CC can be any position) using the location information AA and the place BB can be interpolated. For example, in a case where the light source 5A Light with the light emission intensity "weakly" emitted, the luminance level of a pixel in an area by the person 6 is taken in place CC using the luminance level of a pixel in a case where the light source 5A Light with the light emission intensity "weak" emits in a state in which the person is 6 at the place AA and the luminance level of a pixel in a case where the light source 5A Light with the light emission intensity "weak" emits in a state in which the person is 6 locally BB be predicted. Furthermore, in a case where a certain light source emits light with a certain light emission intensity, the luminance level of a pixel can be in a state in which the person is 6 located at the location CC using a change in the spatial position of the person 6 (Change in depth information) can be predicted.

Es ist zu beachten, dass eine Mehrzahl der Orte CC festgelegt ist und der Luminanzpegel jedes Pixels in einem Fall, in dem eine gewisse Lichtquelle Licht mit einer gewissen Lichtemissionsintensität emittiert, im Voraus durch die oben beschriebene Kalibrationsverarbeitung am Ort CC gewonnen werden kann. Dadurch kann die Verarbeitungslast zur Neuberechnung der Dimmungsinformation reduziert werden. Die Einstellung der Mehrzahl von Orten CC zwischen dem Ort AA und dem Ort BB kann durch den Benutzer eingestellt werden oder kann automatisch nach Bedarf eingestellt werden. Beispielsweise können in einem Fall, in dem eine Änderung gleich oder größer als ein Schwellenwert in der Helligkeit der Person 6 detektiert wird, in einem Fall, in dem die Lichtquelle 3A Licht mit der Lichtemissionsintensität „schwach“ emittiert, Positionsinformationen der Position, die Lichtquelle, die Lichtemissionsintensität der Lichtquelle und der Luminanzpegel jedes Pixels in der Dimmungstabelle TA2 in Assoziation miteinander beschrieben werden.Note that a plurality of the locations CC are set, and the luminance level of each pixel in a case where a certain light source emits light with a certain light emission intensity can be obtained in advance by the above-described calibration processing at the location CC. As a result, the processing load for recalculating the dimming information can be reduced. The setting of the plurality of locations CC between the location AA and the place BB can by the User can be set or can be set automatically as needed. For example, in a case where a change is equal to or greater than a threshold in the brightness of the person 6 is detected in a case where the light source 3A Light emitted with the light emission intensity "weak", position information of the position, the light source, the light emission intensity of the light source and the luminance level of each pixel in the dimming table TA2 described in association with each other.

Es ist zu beachten, dass der mit der Bewegung zwischen Bildern assoziierte Grad der Helligkeitsänderung gering ist. Daher kann die Verarbeitung in den Schritten ST63 bis ST65 in beliebigen Einheiten (zum Beispiel in Einheiten von 10 Einzelbildern) anstatt in Einheiten von einem Einzelbild durchgeführt werden.Note that the degree of change in brightness associated with movement between images is small. Therefore, the processing in the steps ST63 to ST65 in arbitrary units (e.g. in units of 10 frames) instead of in units of a frame.

[Beispiel des Effekts, der bei der zweiten Ausführungsform erhalten wird]Example of the Effect Obtained in the Second Embodiment

Durch das Ausführen der oben beschriebenen Verarbeitung werden die Einstellungen der Lichtquellen automatisch durchgeführt, um die Konzeptdaten auch in einem Fall beizubehalten, in dem ein sich bewegendes Objekt in einem Objekt vorhanden ist und ein Unterschied zwischen einem Bild, das gemäß der Bewegung des sich bewegenden Objekts erhalten wird, und den Konzeptdaten auftritt. Daher können gemäß der zweiten Ausführungsform die Einstellungen der Lichtquellen zum Erhalten eines vom Benutzer gewünschten Beleuchtungseffekts automatisch durchgeführt werden, selbst wenn ein Bewegtbild erfasst wird. Weiterhin kann ein Bewegtbild erhalten werden, das mit den Konzeptdaten übereinstimmt, unabhängig von der Geschwindigkeit, mit der sich die Person 6 bewegt. Darüber hinaus können ähnliche Effekte wie bei der oben beschriebenen ersten Ausführungsform erhalten werden.By executing the processing described above, the settings of the light sources are automatically performed to maintain the concept data even in a case where a moving object is present in an object and a difference between an image made according to the movement of the moving object is obtained, and the concept data occurs. Therefore, according to the second embodiment, the settings of the light sources to obtain a lighting effect desired by the user can be performed automatically even when a moving image is captured. Furthermore, a moving image can be obtained that matches the concept data, regardless of the speed at which the person moves 6 emotional. In addition, effects similar to those in the first embodiment described above can be obtained.

<Modifikation><modification>

Die mehreren Ausführungsformen der vorliegenden Offenbarung wurden spezifisch beschrieben. Der Inhalt der vorliegenden Offenbarung ist jedoch nicht auf die oben beschriebenen Ausführungsformen beschränkt, und es können verschiedene Modifikationen vorgenommen werden, die auf dem technischen Gedanken der vorliegenden Offenbarung beruhen. Nachfolgend werden Modifikationen beschrieben. Es ist zu beachten, dass die nachstehend zu beschreibenden Modifikationen auf die erste und die zweite Ausführungsform, sofern nichts anderes angegeben ist, oder in einem Bereich angewendet werden können, in dem kein technischer Widerspruch auftritt.The multiple embodiments of the present disclosure have been specifically described. However, the content of the present disclosure is not limited to the above-described embodiments, and various modifications can be made based on the technical idea of the present disclosure. Modifications are described below. Note that the modifications to be described below can be applied to the first and second embodiments unless otherwise specified or in a range where there is no technical contradiction.

In den oben beschriebenen Ausführungsformen kann eine Mehrzahl von Konzeptdaten eingestellt werden, und eine Mehrzahl von Dimmungsinformationen, die den jeweiligen Konzeptdaten entsprechen, können erzeugt werden. Dann kann die Erfassung mehrere Male in einem Zustand durchgeführt werden, in dem die Lichtquellen Licht auf Basis der jeweiligen Mehrzahl von Dimmungsinformationen emittieren.In the above-described embodiments, a plurality of concept data can be set, and a plurality of dimming information corresponding to the respective concept data can be generated. The detection can then be carried out several times in a state in which the light sources emit light based on the respective plurality of dimming information.

Ein auf den Konzeptdaten basierendes Bild und ein durch eine tatsächliche Erfassung erhaltenes Bild können sich aufgrund einer Leistungsfähigkeitsgrenze einer Lichtquelle oder dergleichen um einen vorbestimmten Betrag oder mehr unterscheiden. In einem derartigen Fall kann eine Warnung oder ein Fehler bei der Benachrichtigung ausgegeben werden. Als ein Beispiel werden Pixelwerte von Pixeln, die das Bild bilden, das auf den Konzeptdaten basiert, und Pixelwerte von Pixeln, die das Bild bilden, das durch eine tatsächliche Erfassung erhalten wird, verglichen, und in einem Fall, in dem es eine gewisse Anzahl von Pixeln mit einer Differenz gibt, die gleich oder größer ist als ein Schwellenwert, werden die Bilder so bestimmt, dass sie sich um einen vorbestimmten Betrag oder mehr unterscheiden. Die Benachrichtigung über eine Warnung oder einen Fehler erfolgt durch Ton, Anzeige, Vibration oder dergleichen.An image based on the concept data and an image obtained by actual detection may differ by a predetermined amount or more due to a performance limit of a light source or the like. In such a case, a warning or an error in the notification can be issued. As an example, pixel values of pixels forming the image based on the concept data and pixel values of pixels forming the image obtained by actual detection are compared, and in a case where there is a certain number of pixels having a difference equal to or larger than a threshold, the images are determined to differ by a predetermined amount or more. The notification of a warning or an error is made by sound, display, vibration or the like.

In den oben beschriebenen Ausführungsformen können Einstellungen wie etwa Verschlusszeit, Empfindlichkeit und eine Apertur der Bildgebungsvorrichtung 1 geändert werden. Derartige Einstellungen für die Bildgebungsvorrichtung 1 können gemäß Benutzerpräferenzen durchgeführt werden, wie etwa das Erweitern der Apertur, um den Hintergrund zu verwischen, oder können durchgeführt werden, um die Leistungsfähigkeitsgrenze einer Lichtquelle zu kompensieren.In the above-described embodiments, settings such as shutter speed, sensitivity and an aperture of the imaging device can be used 1 be changed. Such settings for the imaging device 1 can be done according to user preferences, such as widening the aperture to blur the background, or can be done to compensate for the performance limit of a light source.

In den oben beschriebenen Ausführungsformen können die Lichtquellen in die Bildgebungsvorrichtung 1 eingebaut sein oder an die Bildgebungsvorrichtung 1 anbringbar/von dieser abnehmbar sein oder können Leuchten sein, die klein genug sind, um vom Benutzer in der Hand gehalten zu werden. Darüber hinaus kann die Erfassung in Innenräumen oder im Freien durchgeführt werden, und ein Teil der Lichtquellen kann Umgebungslicht (natürliches Licht) wie etwa Sonnenlicht sein. Weiterhin sind die Formen, Größen und Anordnungspositionen der Lichtquellen lediglich schematisch veranschaulicht und nicht auf die in den oben beschriebenen Ausführungsformen veranschaulichten Beispiele beschränkt. Darüber hinaus ist die Anzahl der Lichtquellen nicht auf drei beschränkt. Obwohl mehrere dutzende Lichtquellen in einer großen Produktionsstätte verwendet werden können, kann die vorliegende Technologie auf ein solches großes Beleuchtungssystem angewendet werden. Weiterhin kann ein Teil der Lichtquellen Umgebungslicht sein und eine andere oder mehrere der Lichtquellen können Leuchten sein.In the above-described embodiments, the light sources can be in the imaging device 1 be installed or to the imaging device 1 attachable / detachable from this or can be lights small enough to be held in the hand of the user. In addition, the detection can be done indoors or outdoors, and some of the light sources can be ambient light (natural light) such as sunlight. Furthermore, the shapes, sizes and arrangement positions of the light sources are only schematically illustrated and are not limited to the examples illustrated in the above-described embodiments. In addition, the number of light sources is not limited to three. Although several dozen light sources can be used in a large production facility, the present technology can be applied to such a large lighting system. Furthermore, a part the light sources are ambient light and another or more of the light sources can be lights.

In den oben beschriebenen Ausführungsformen kann die Verarbeitung zum Erhalten der Dimmungsinformationen durch eine andere Vorrichtung (beispielsweise einen Cloud-Computer) anstelle des Tablet-Computers 2 durchgeführt werden. Weiterhin kann die Verarbeitung zum Erhalten der Dimmungsinformationen durch die Bildgebungsvorrichtung 1 durchgeführt werden. Darüber hinaus kann die Bildgebungsvorrichtung 1 oder eine andere Vorrichtung einen Teil oder alle Funktionen des Tablet-Computers 2 aufweisen. In einem Fall, in dem der Tablet-Computer 2 eine Bildgebungsfunktion aufweist, kann der Tablet-Computer 2 anstelle der Bildgebungsvorrichtung 1 Bilder erfassen. In diesem Fall kann die Steuereinheit 201 des Tablet-Computers 2 die Funktion der Kamerasteuereinheit 107 der Bildgebungsvorrichtung 1 aufweisen. Wie oben beschrieben, kann die Vorrichtung, deren Konfiguration die Funktionen in den oben beschriebenen Ausführungsformen umsetzt, nach Bedarf geändert werden.In the above-described embodiments, the processing for obtaining the dimming information may be performed by another device (e.g., a cloud computer) instead of the tablet computer 2nd be performed. Furthermore, the processing for obtaining the dimming information by the imaging device 1 be performed. In addition, the imaging device 1 or some other device, some or all of the functions of the tablet computer 2nd exhibit. In a case where the tablet computer 2nd the tablet computer can have an imaging function 2nd instead of the imaging device 1 Capture images. In this case, the control unit 201 of the tablet computer 2nd the function of the camera control unit 107 the imaging device 1 exhibit. As described above, the device whose configuration implements the functions in the above-described embodiments can be changed as needed.

Die Konfiguration zum Durchführen von Kommunikation (zum Beispiel die Tablet-Kommunikationseinheit 202) kann ein Kommunikationsadapter oder dergleichen sein, der an den Tablet-Computer 2 anbringbar/von diesem abnehmbar ist.The configuration for performing communication (for example, the tablet communication unit 202 ) can be a communication adapter or the like connected to the tablet computer 2nd attachable / detachable from this.

Der Ort, an dem die Eingabe unter Verwendung des Tablet-Computers 2 durchgeführt wird, und der Ort, an dem die Erfassung durchgeführt wird, befinden sich möglicherweise nicht an derselben Stelle, sondern können sich an verschiedenen Orten befinden. Beispielsweise gibt eine Person, die für die Bestimmung des Konzepts verantwortlich ist, die Konzeptdaten unter Verwendung des Tablet-Computers 2 zu Hause oder dergleichen ein und überträgt die Konzeptdaten zu einem Studio, in dem die Erfassung durchgeführt wird. Eine im Studio installierte Vorrichtung kann eine Erfassung durchführen, nachdem die Dimmungsinformationen für jede Lichtquelle auf Basis der Dimmungstabelle und der Konzeptdaten erzeugt wurden, und die Lichtemissionsintensität der Lichtquelle und dergleichen steuern. Dadurch muss die für die Bestimmung des Konzepts verantwortliche Person nicht mehr zu dem Ort gehen, an dem die Erfassung durchgeführt wird.The place where the input using the tablet computer 2nd and the location where the acquisition is performed may not be in the same location, but may be in different locations. For example, a person responsible for determining the concept gives the concept data using the tablet computer 2nd at home or the like and transmits the concept data to a studio in which the acquisition is carried out. A device installed in the studio can perform detection after the dimming information for each light source is generated based on the dimming table and the concept data, and can control the light emission intensity of the light source and the like. This means that the person responsible for determining the concept no longer has to go to the location where the recording is carried out.

In der oben beschriebenen zweiten Ausführungsform wurde ein Beispiel zum Beibehalten der Helligkeit der Person und des Hintergrunds als ein Beispiel der Konzeptdaten beschrieben. Die Konzeptdaten sind jedoch nicht auf das Beispiel beschränkt. Beispielsweise können die Konzeptdaten Konzeptdaten sein, in denen eine Helligkeitsänderung spezifiziert ist. Insbesondere können Konzeptdaten, in denen spezifiziert wird, dass eine Person mit einer Bewegung der Person heller oder dunkler wird, die Konzeptdaten sein. Dann wird, wie in der oben beschriebenen zweiten Ausführungsform beschrieben, die Einstellung jeder Lichtquelle in geeigneter Weise geändert, um eine Differenz von den durch die Bewegung der Person verursachten Konzeptdaten aufzuheben, und die Konzeptdaten werden umgesetzt. Darüber hinaus können die Konzeptdaten zum Beispiel Zeitinformationen enthalten, wie etwa, wie viel eine Person nach einer vorbestimmten Zeit hell wird.In the second embodiment described above, an example of maintaining the brightness of the person and the background has been described as an example of the concept data. However, the conceptual data are not limited to the example. For example, the concept data can be concept data in which a change in brightness is specified. In particular, concept data in which it is specified that a person becomes lighter or darker with a movement of the person can be the concept data. Then, as described in the second embodiment described above, the setting of each light source is appropriately changed to cancel a difference from the concept data caused by the movement of the person, and the concept data is implemented. In addition, the concept data may include, for example, time information, such as how much a person becomes bright after a predetermined time.

Bei der zweiten Ausführungsform können in einem Fall, in dem eine Aufzeichnungsrate der Bildgebungsvorrichtung 1 60 Einzelbilder pro Sekunde (fps) beträgt und eine Bilderzeugungsrate eine hohe Geschwindigkeit wie etwa 120 fps oder 240 fps beträgt, die Kalibrationsverarbeitung und die Verarbeitung zum Neuberechnen der Dimmeungsinformationen unter Verwendung eines Bildes durchgeführt werden, das nicht für die Aufzeichnung verwendet wird.In the second embodiment, in a case where a recording rate of the imaging device 1 Is 60 frames per second (fps) and an image generation rate is a high speed such as 120 fps or 240 fps, the calibration processing and the processing for recalculating the dimming information are performed using an image that is not used for recording.

Bei der oben beschriebenen zweiten Ausführungsform wurde die Bewegung der Person 6 unter Verwendung der Hinten-Vorne-Richtung als ein Beispiel beschrieben. Es kann jedoch eine Links-Rechts-Richtung, eine Diagonalrichtung, eine kombinierte Richtung der vorgenannten Richtungen oder dergleichen verwendet werden.In the second embodiment described above, the movement of the person 6 using the rear-front direction as an example. However, a left-right direction, a diagonal direction, a combined direction of the aforementioned directions, or the like can be used.

Die vorliegende Offenbarung kann auch durch eine Vorrichtung, ein Verfahren, ein Programm, ein System und dergleichen umgesetzt werden. Zum Beispiel wird ein Programm zum Durchführen der in den Ausführungsformen beschriebenen Funktionen herunterladbar gemacht, und eine Vorrichtung, die die in den Ausführungsformen beschriebene Steuerfunktion nicht aufweist, lädt und installiert das Programm und kann dadurch die in den Ausführungsformen beschriebene Steuerung durchführen. Die vorliegende Offenbarung kann auch durch einen Server realisiert werden, der ein solches Programm verteilt.The present disclosure can also be implemented by an apparatus, method, program, system, and the like. For example, a program for performing the functions described in the embodiments is made downloadable, and a device that does not have the control function described in the embodiments loads and installs the program, and thereby can perform the control described in the embodiments. The present disclosure can also be implemented by a server that distributes such a program.

Bei den oben beschriebenen Ausführungsformen wird die Anzahl von Lichtemissionsmustern jeder Lichtquelle in der Kalibrationsverarbeitung auf einen Typ eingestellt, und die Lichtemissionsintensität, die durch eine automatische Through-the-Lens(TTL)-Dimmungsfunktion der Bildgebungsvorrichtung erhalten wird, kann als die Lichtemissionsintensität des Lichtemissionsmusters jeder Lichtquelle verwendet werden. Zu dieser Zeit ist es vorteilhaft, die Erfassung nur unter Umgebungslicht durchzuführen, das nicht durch alle Lichtquellen emittiert wird.In the above-described embodiments, the number of light emission patterns of each light source in the calibration processing is set to one type, and the light emission intensity obtained by an automatic through-the-lens (TTL) dimming function of the imaging device can be considered as the light emission intensity of the light emission pattern each Light source can be used. At this time, it is advantageous to carry out the detection only under ambient light that is not emitted by all light sources.

Bei den oben beschriebenen Ausführungsformen kann der Benutzer in einem Fall benachrichtigt werden, in dem ein Bild, das durch eine Erfassung in der Kalibrationsverarbeitung erhalten wird, einen Bereich enthält, der überbelichtet oder unterbelichtet ist und eine Obergrenze oder eine Untergrenze des Luminanzwerts über- bzw. unterschreitet. Das durch die Erfassung erhaltene Bild kann zu der Zeit der Benachrichtigung angezeigt werden und der Bereich, der überbelichtet oder unterbelichtet ist, kann in hervorgehobener Weise angezeigt werden.In the above-described embodiments, the user can be notified in a case where an image obtained by a detection in the calibration processing includes an area that is overexposed or underexposed and exceeds or falls below an upper or lower limit of the luminance value. The image obtained by the detection can be displayed at the time of the notification, and the area that is overexposed or underexposed can be highlighted.

Bei den oben beschriebenen Ausführungsformen kann in einem Fall, in dem die Farbtemperatur jeder Lichtquelle in der Kalibrationsverarbeitung unterschiedlich ist, die Farbtemperatur jedes Lichts mit einem Koeffizienten multipliziert werden, um einen Einfluss durch eine Differenz der Farbtemperatur zu unterdrücken, und verwendet werden. Ferner kann in einem Fall, in dem die Farbtemperatur abhängig von der Lichtemissionsmenge selbst bei derselben Lichtquelle unterschiedlich ist, die Farbtemperatur mit einem Koeffizienten gemäß der Lichtemissionsmenge multipliziert und verwendet werden.In the above-described embodiments, in a case where the color temperature of each light source is different in the calibration processing, the color temperature of each light can be multiplied by a coefficient to suppress an influence by a difference in color temperature and used. Further, in a case where the color temperature is different depending on the light emission amount even with the same light source, the color temperature can be multiplied and used by a coefficient according to the light emission amount.

Bei den oben beschriebenen Ausführungsformen wurde ein Beispiel zum Erstellen der Dimmungstabelle aus dem Bild beschrieben, das durch eine Erfassung in der Kalibrationsverarbeitung erhalten wurde. Die Ausführungsformen sind jedoch nicht auf das Beispiel beschränkt. Beispielsweise können die durch die Erfassung erhaltenen Bildinformationen so verwendet werden, wie sie sind, ohne in die Dimmungstabelle umgewandelt zu werden. Die zu dieser Zeit verwendeten Bildinformationen sind vorteilhafterweise ein Rohbild zum Gewährleisten der Anzahl von Farben, die durch eine Bittiefe eines Simulationsbildes und eine Abstufung repräsentiert werden, um einen Einfluss von Gamma zu vermeiden.In the above-described embodiments, an example of creating the dimming table from the image obtained by detection in the calibration processing has been described. However, the embodiments are not limited to the example. For example, the image information obtained by the acquisition can be used as it is without being converted into the dimming table. The image information used at this time is advantageously a raw image to ensure the number of colors represented by a bit depth of a simulation image and a gradation in order to avoid an influence of gamma.

Bei den oben beschriebenen Ausführungsformen wurde ein Beispiel für die Verwendung des oben beschriebenen Optimierungsverfahrens zum Erhalten von optimalen Dimmungsinformationen in der Beleuchtungseinstellung-und-Erfassung-Verarbeitung beschrieben. In einem Fall des Anwendens der durch die Erfassung erhaltenen Bildinformationen, wie sie sind, auf die Beleuchtungseinstellung-und-Erfassung-Verarbeitung kann die Beleuchtungseinstellung-und-Erfassung-Verarbeitung durch ein anderes Verfahren durchgeführt werden. Insbesondere wird ein Simulationsbild der Ergebnisse der Beleuchtungserfassung durch eine Vergleichshelligkeitskombination von Bildern erzeugt, die durch die Erfassung erhalten werden, und der Benutzer bestätigt das erzeugte Bild. Infolge der Bestätigung werden in einem Fall, in dem das erzeugte Bild ein gewünschtes Simulationsbild ist, die Dimmungsinformationen zum Erhalten eines Erfassungsergebnisses ähnlich dem erzeugten Simulationsbild als Reaktion auf eine Benutzerbedienung zu jeder Lichtquelle übertragen. Andererseits wird in einem Fall, in dem das erzeugte Bild infolge der Bestätigung nicht das gewünschte Simulationsbild ist, eine Anpassung durchgeführt, um ein vom Benutzer gewünschtes Simulationsbild zu erhalten, indem ein Koeffizient für den Luminanzwert jedes Bildes, das für eine Vergleichshelligkeitskombination zu verwenden ist, als Reaktion auf die Benutzerbedienung geändert wird. Die Dimmungsinformationen zum Erhalten eines Erfassungsergebnisses ähnlich dem Simulationsbild nach der Benutzeranpassung werden zu jeder Lichtquelle als Reaktion auf die Benutzerbedienung nach Beendigung der Benutzeranpassung übertragen.In the above-described embodiments, an example of using the above-described optimization method to obtain optimal dimming information in the lighting setting and detection processing has been described. In a case of applying the image information obtained by the detection as it is to the lighting setting and detection processing, the lighting setting and detection processing can be performed by another method. In particular, a simulation image of the results of the illumination detection is generated by a comparison brightness combination of images obtained by the detection, and the user confirms the generated image. As a result of the confirmation, in a case where the generated image is a desired simulation image, the dimming information for obtaining a detection result similar to the generated simulation image is transmitted to each light source in response to user operation. On the other hand, in a case where the generated image is not the desired simulation image due to the confirmation, an adjustment is made to obtain a simulation image desired by the user by using a coefficient for the luminance value of each image to be used for a comparison brightness combination. is changed in response to user operation. The dimming information for obtaining a detection result similar to the simulation image after the user adjustment is transmitted to each light source in response to the user operation after the user adjustment is finished.

Unter Verwendung der oben beschriebenen Vergleichshelligkeitskombination können eine Umgebungslichtkomponente und eine Lichtemissionskomponente von jeder Lichtquelle separat berechnet werden. Entsprechende Pixelwerte werden zwischen einem erfassten Bild nur unter Umgebungslicht und einem von Licht emittierten Bild verglichen, wobei die Lichtemissionskomponente durch Gewinnen eines größeren Pixelwerts erhalten werden kann. Da die Beziehung zwischen der Lichtemissionsintensität einer Lichtquelle und dem erhaltenen reflektierten Licht durch eine lineare Funktion mit einer Steigung von 1 in einem Log-Log-Graphen repräsentiert wird, kann die Lichtemissionskomponente berechnet werden. Dies reduziert den Rechenaufwand in der Simulation erheblich. Weiterhin kann als das Verfahren der Vergleichshelligkeitskombination eine Farbvergleichshelligkeitskombination verwendet werden, die einen Vergleich mit einem Gesamtwert von RGB durchführt.Using the comparison brightness combination described above, an ambient light component and a light emission component can be calculated separately from each light source. Corresponding pixel values are compared between a captured image only under ambient light and an image emitted by light, and the light emission component can be obtained by obtaining a larger pixel value. Since the relationship between the light emission intensity of a light source and the reflected light obtained by a linear function with a slope of 1 is represented in a log-log graph, the light emission component can be calculated. This considerably reduces the computing effort in the simulation. Furthermore, as the method of comparison brightness combination, a color comparison brightness combination can be used, which carries out a comparison with a total value of RGB.

Weiterhin kann das Simulationsbild auf der Anzeigeeinheit 203 für den Benutzer angezeigt werden, um das Simulationsbild durch die oben beschriebene Vergleichshelligkeitskombination zu bestätigen, wie dies beispielsweise in 17 veranschaulicht ist. Zu dieser Zeit kann das Bild, das nur unter Umgebungslicht erfasst wird, als das Referenzbild IM3 in dem Anfangszustand angezeigt werden, oder ein Simulationsbild durch voreingestellte vorbestimmte Vergleichshelligkeitskombination kann angezeigt werden. Zu dieser Zeit können eine Vergleichshelligkeitskombination-Bildauswahleinheit 601 zum Auswählen von Bildinformationen, die für die Vergleichshelligkeitskombination verwendet werden sollen, und eine Koeffizienteneinstelleinheit 602 zum Einstellen eines Koeffizienten für den Luminanzwert jedes Bildinformationselements gleichzeitig mit der IM3 angezeigt werden. Dadurch kann der Benutzer die Vergleichshelligkeitskombination-Bildauswahleinheit 601 und die Koeffizienteneinstelleinheit 602 bedienen, während auf das Referenzbild IM3 Bezug genommen wird, wodurch ein gewünschtes Simulationsbild basierend auf dem eigenen Konzept des Benutzers angepasst wird. Weiterhin kann die Anzeigeeinheit 203 eine Lichtquelleninformationen-Anzeigeeinheit 603 zum Anzeigen von Informationen jeder angeschlossenen Lichtquelle, eine Neukalibrationsanweisungseinheit 604 zum Ausgeben einer Anweisung zur Neukalibration, eine Haupterfassunganweisungseinheit 605 zum Übertragen der Dimmumgsinformationen zu jeder Lichtquelle und Fortfahren mit der Haupterfassung und eine Simulationsbild-Ausgabeeinheit 606 zum Ausgeben eines Simulationsbildes, das als ein vervollständigtes Bild angezeigt wird, anzeigen.Furthermore, the simulation image on the display unit 203 be displayed for the user to confirm the simulation image by the comparison brightness combination described above, as for example in 17th is illustrated. At this time, the image that is only acquired under ambient light can be displayed as the reference image IM3 in the initial state, or a simulation image by preset predetermined comparison brightness combination can be displayed. At this time, a comparison brightness combination image selection unit can be used 601 for selecting image information to be used for the comparison brightness combination and a coefficient setting unit 602 for setting a coefficient for the luminance value of each image information item are displayed simultaneously with the IM3. This allows the user to use the comparison brightness combination image selection unit 601 and the coefficient setting unit 602 operate while referencing the reference image IM3, whereby a desired simulation image is adjusted based on the user's own concept. Furthermore, the display unit 203 a light source information display unit 603 to display information of each connected light source, a recalibration instruction unit 604 to issue a recalibration instruction, a Main registration instruction unit 605 for transferring the dimming information to each light source and continuing with the main acquisition and a simulation image output unit 606 to output a simulation image that is displayed as a completed image.

Hier kann die Vergleichshelligkeitskombination zwischen den Bildinformationen, die nur unter Umgebungslicht erfasst werden, und den Lichtemissionsmusterbildinformationen jeder Lichtquelle durchgeführt werden oder kann zwischen den Bildinformationen, die nur unter Umgebungslicht erfasst werden, und den Bildinformationen einer Luminanzwertdifferenz zwischen den LichtemissionsmusterBildinformationen jeder Lichtquelle und den Bildinformationen, die nur unter Umgebungslicht erfasst werden, durchgeführt werden. Dadurch kann ein Einfluss einer Differenz des Umgebungslichts in Abhängigkeit von der Zeit der Erfassung der Bildinformationen, die für die Vergleichshelligkeitskombination verwendet werden sollen, reduziert werden.Here, the comparison brightness combination can be performed between the image information acquired only under ambient light and the light emission pattern image information of each light source, or between the image information acquired only under ambient light and the image information of a luminance value difference between the light emission pattern image information of each light source and the image information only be recorded under ambient light. As a result, an influence of a difference in the ambient light as a function of the time of acquisition of the image information that is to be used for the comparison brightness combination can be reduced.

Wenn bei den oben beschriebenen Ausführungsformen eine Änderung eines Lichtbelichtungszustands eines Objekts durch jede Lichtquelle, die Bildgebungsvorrichtung oder die Informationsverarbeitungsvorrichtung detektiert wird, kann ein Teil oder die gesamte Kalibrationsverarbeitung, Konzeptdatenerzeugungsverarbeitung und Beleuchtungseinstellung-und-Erfassung-Verarbeitung erneut durchgeführt werden. Alternativ dazu können ein Teil oder alle Prozesse der Kalibrationsverarbeitung, der Konzeptdatenerzeugungsverarbeitung und der Beleuchtungseinstellung-und-Erfassung-Verarbeitung erneut durch eine Benutzerbedienung durchgeführt werden. Hierbei kann davon ausgegangen werden, dass sich der Belichtungszustand eines Objekts durch Änderung der Zunahme/Abnahme der Anzahl von Lichtquellen, Bewegung der Position des Objekts oder der Lichtquelle, Änderung des Reflexionsvermögens des Objekts selbst, Änderung eines Einstellungswerts der Bildgebungsvorrichtung oder der Lichtquelle, Anbringen/Abnehmen eines Zubehörs wie etwa eines Diffusors oder Änderung des Wetters oder des Umgebungslichts ändert. Jede Lichtquelle, die Bildgebungsvorrichtung oder die Informationsverarbeitungsvorrichtung detektiert die Änderung des Belichtungszustands des Objekts durch eine Detektion einer Benutzerbedienung, verschiedener Sensoren, Änderung eines erfassten Bildes oder dergleichen. Im Fall des Detektierens der Änderung des Belichtungszustands des Objekts durch die Detektion einer Benutzerbedienung, verschiedener Sensoren, Änderung in einem erfassten Bild oder dergleichen, können ein Teil oder alle verschiedenen Arten der Verarbeitung automatisch erneut durchgeführt werden, oder die Änderung des Belichtungszustands des Objekts kann dem Benutzer mitgeteilt werden.In the above-described embodiments, when a change in a light exposure state of an object is detected by each light source, the imaging device, or the information processing device, some or all of the calibration processing, concept data generation processing, and lighting setting and detection processing can be performed again. Alternatively, part or all of the processes of calibration processing, concept data generation processing, and lighting setting and detection processing can be performed again by a user operation. It can be assumed that the exposure state of an object changes by increasing / decreasing the number of light sources, moving the position of the object or the light source, changing the reflectivity of the object itself, changing a setting value of the imaging device or the light source, attaching / Removing an accessory such as a diffuser or changing the weather or ambient light changes. Each light source, the imaging device or the information processing device detects the change in the exposure state of the object by detecting a user operation, various sensors, changing a captured image, or the like. In the case of detecting the change in the exposure state of the object by the detection of a user operation, various sensors, change in a captured image, or the like, some or all of the various types of processing may be automatically performed again, or the change in the exposure state of the object may be so Users will be notified.

Die vorliegende Offenbarung kann auch die folgenden Konfigurationen einsetzen.

  • (1) Eine Informationsverarbeitungsvorrichtung, die Folgendes aufweist:
    • eine Steuereinheit, die dazu ausgelegt ist, eine Einstellung einer Lichtemissionseinheit gemäß Konzeptdaten, die eine Charakteristik eines gewünschten Bildes und ein Lichtemissionsergebnis der Lichtemissionseinheit angeben, zu bestimmen, wobei
    • die Steuereinheit die bestimmte Einstellung steuert, um die Konzeptdaten in einem Fall beizubehalten, in dem eine Änderung in einem Objekt aufgetreten ist.
  • (2) Die Informationsverarbeitungseinrichtung nach (1), wobei die Konzeptdaten Daten sind, die die für jeden Bereich des Objekts spezifizierte Helligkeit angeben.
  • (3) Die Informationsverarbeitungseinrichtung nach (1) oder (2), wobei die Steuereinheit eine Dimmungstabelle, die dem Lichtemissionsergebnis der Lichtemissionseinheit entspricht, auf Basis der Bildinformationen eines Bildes, das in einem Fall erhalten wurde, in dem die Lichtemissionseinheit Licht in einem vorbestimmten Lichtemissionsmuster emittiert hat, erzeugt.
  • (4) Die Informationsverarbeitungseinrichtung nach (3), wobei das Lichtemissionsmuster die Lichtemissionsintensität der Lichtemissionseinheit ist.
  • (5) Die Informationsverarbeitungseinrichtung nach (3) oder (4), wobei die Steuereinheit die dem Lichtemissionsergebnis der Lichtemissionseinheit entsprechende Dimmungstabelle auf Basis von Positionsinformationen eines sich bewegenden Objekts, das in dem Objekt enthalten ist, erzeugt.
  • (6) Die Informationsverarbeitungseinrichtung nach (5), wobei die Steuereinheit Bildinformationen, die einer vorbestimmten Lichtemissionsintensität entsprechen, und vorbestimmte Positionsinformationen verwendet, um Bildinformationen zu erzeugen, die Positionsinformationen entsprechen, die sich von den vorbestimmten Positionsinformationen unterscheiden.
  • (7) Die Informationsverarbeitungseinrichtung nach (3), wobei das Lichtemissionsmuster eine Farbtemperatur der Lichtemissionseinheit ist.
  • (8) Die Informationsverarbeitungseinrichtung nach einem von (3) bis (7), wobei die Bildinformationen räumliche Sensorinformationen sind, die dem Lichtemissionsmuster der Lichtemissionseinheit entsprechen.
  • (9) Die Informationsverarbeitungseinrichtung nach (8), wobei die Bildinformationen ein Luminanzpegel in einer Pixeleinheit oder einer Einheit eines Blocks mit einer beliebigen Größe sind.
  • (10) Die Informationsverarbeitungseinrichtung gemäß einem von (1) bis (9), die ferner Folgendes beinhaltet:
    • eine Eingabeeinheit, die dazu ausgelegt ist, eine Eingabe zum Erzeugen der Konzeptdaten anzunehmen.
  • (11) Die Informationsverarbeitungseinrichtung nach (10), die ferner Folgendes aufweist:
    • eine Anzeigeeinheit, die dazu ausgelegt ist, ein Referenzbild anzuzeigen, auf das Bezug genommen werden soll, wenn die Eingabe angenommen wird.
  • (12) Die Informationsverarbeitungseinrichtung nach einem von (1) bis (11), wobei die Einstellung der Lichtemissionseinheit eine Einstellung in Bezug auf die Lichtemissionsintensität der Lichtemissionseinheit und/oder eine Farbtemperatur des von der Lichtemissionseinheit emittierten Lichts und/oder die Weichheit/Härte des Lichts und/oder den Bestrahlungsbereich des Lichts und/oder eine Bestrahlungsrichtung des Lichts ist.
  • (13) Die Informationsverarbeitungseinrichtung gemäß einem von (1) bis (12), die ferner Folgendes aufweist:
    • eine Ausgabeeinheit, die dazu ausgelegt ist, die Einstellung der Lichtemissionseinheit auszugeben.
  • (14) Die Informationsverarbeitungseinrichtung nach einem von (1) bis (13), wobei das Objekt ein durch einen Benutzer spezifiziertes Objekt und/oder ein automatisch erkanntes Objekt ist.
  • (15) Ein Informationsverarbeitungsverfahren, das Folgendes aufweist:
    • Bestimmen einer Einstellung einer Lichtemissionseinheit gemäß Konzeptdaten, die eine Charakteristik eines gewünschten Bildes und ein Lichtemissionsergebnis der Lichtemissionseinheit angeben; und
    • Steuern der bestimmten Einstellung, um die Konzeptdaten in einem Fall beizubehalten, in dem eine Änderung in einem Objekt aufgetreten ist.
  • (16) Ein Programm, das einen Computer veranlasst, die folgende Verarbeitung auszuführen:
    • Bestimmen einer Einstellung einer Lichtemissionseinheit gemäß Konzeptdaten, die eine Charakteristik eines gewünschten Bildes und ein Lichtemissionsergebnis der Lichtemissionseinheit angeben; und
    • Steuern der bestimmten Einstellung, um die Konzeptdaten in einem Fall beizubehalten, in dem eine Änderung in einem Objekt aufgetreten ist.
  • (17) Ein Beleuchtungssystem, das Folgendes aufweist:
    • eine Informationsverarbeitungseinrichtung; und
    • eine Lichtemissionseinheit,
    • wobei die Informationsverarbeitungseinrichtung Folgendes aufweist:
      • eine Steuereinheit, die dazu ausgelegt ist, eine Einstellung einer Lichtemissionseinheit gemäß Konzeptdaten, die eine Charakteristik eines gewünschten Bildes und ein Lichtemissionsergebnis der Lichtemissionseinheit angeben, zu bestimmen, und die bestimmte Einstellung zu steuern, um die Konzeptdaten in einem Fall beizubehalten, in dem eine Änderung in einem Objekt aufgetreten ist, und
      • eine Ausgabeeinheit, die dazu ausgelegt ist, die Einstellung zu der Lichtemissionseinheit auszugeben,
    • wobei die Lichtemissionseinheit Folgendes aufweist:
      • eine Lichtemissionssteuereinheit, die dazu ausgelegt ist, die Lichtemission basierend auf der von der Informationsverarbeitungseinrichtung ausgegebenen Einstellung zu steuern.
  • (18) Das Beleuchtungssystem nach (17), wobei die Informationsverarbeitungseinrichtung das Lichtemissionsergebnis der Lichtemissionseinheit unter Verwendung eines Bildes berechnet, das nicht aufgezeichnet werden soll.
The present disclosure can also employ the following configurations.
  • (1) An information processing device comprising:
    • a control unit configured to determine a setting of a light emission unit according to concept data indicating a characteristic of a desired image and a light emission result of the light emission unit, wherein
    • the control unit controls the particular setting to maintain the concept data in a case where a change has occurred in an object.
  • ( 2nd ) The information processing facility according to ( 1 ), where the concept data is data indicating the brightness specified for each area of the object.
  • (3) The information processing facility according to ( 1 ) or ( 2nd ), wherein the control unit generates a dimming table corresponding to the light emission result of the light emission unit based on the image information of an image obtained in a case where the light emission unit has emitted light in a predetermined light emission pattern.
  • (4) The information processing facility according to ( 3rd ), wherein the light emission pattern is the light emission intensity of the light emission unit.
  • (5) The information processing facility according to ( 3rd ) or ( 4th ), wherein the control unit generates the dimming table corresponding to the light emission result of the light emission unit on the basis of position information of a moving object contained in the object.
  • (6) The information processing facility according to ( 5 ), wherein the control unit uses image information corresponding to a predetermined light emission intensity and predetermined position information to generate image information corresponding to position information different from the predetermined position information.
  • (7) The information processing facility according to ( 3rd ), wherein the light emission pattern is a color temperature of the light emission unit.
  • (8) The information processing device according to one of ( 3rd ) to ( 7 ), in which the image information is spatial sensor information corresponding to the light emission pattern of the light emission unit.
  • (9) The information processing facility according to ( 8th ), the image information being a luminance level in a pixel unit or a unit of a block of any size.
  • (10) The information processing device according to one of ( 1 ) to ( 9 ), which also includes:
    • an input unit that is designed to accept an input for generating the concept data.
  • (11) The information processing device according to (10), which further comprises:
    • a display unit configured to display a reference image to be referenced when the input is accepted.
  • (12) The information processing device according to one of ( 1 ) to ( 11 ), wherein the setting of the light emission unit is a setting with respect to the light emission intensity of the light emission unit and / or a color temperature of the light emitted by the light emission unit and / or the softness / hardness of the light and / or the irradiation range of the light and / or an irradiation direction of the light is.
  • (13) The information processing device according to one of ( 1 ) to ( 12 ), which also includes:
    • an output unit that is configured to output the setting of the light emission unit.
  • (14) The information processing device according to one of ( 1 ) to ( 13 ), the object being an object specified by a user and / or an automatically recognized object.
  • (15) An information processing method comprising:
    • Determining a setting of a light emission unit according to concept data indicating a characteristic of a desired image and a light emission result of the light emission unit; and
    • Control the particular setting to keep the concept data in a case where a change has occurred in an object.
  • (16) A program that causes a computer to perform the following processing:
    • Determining a setting of a light emission unit according to concept data indicating a characteristic of a desired image and a light emission result of the light emission unit; and
    • Control the particular setting to keep the concept data in a case where a change has occurred in an object.
  • (17) A lighting system comprising:
    • an information processing device; and
    • a light emission unit,
    • the information processing device comprising:
      • a control unit configured to determine a setting of a light emission unit according to concept data indicating a characteristic of a desired image and a light emission result of the light emission unit, and to control the determined setting to keep the concept data in a case where a change occurred in an object, and
      • an output unit that is designed to output the setting for the light emission unit,
    • wherein the light emission unit comprises:
      • a light emission control unit configured to control the light emission based on the setting output from the information processing device.
  • (18) The lighting system according to ( 17th ), wherein the information processing device calculates the light emission result of the light emission unit using an image that is not to be recorded.

BezugszeichenlisteReference symbol list

11
BildgebungsvorrichtungImaging device
22nd
Tablet-ComputerTablet computer
3A bis 3C, 5A bis 5C3A to 3C, 5A to 5C
LichtquelleLight source
1010th
BeleuchtungssystemLighting system
107107
KamerasteuereinheitCamera control unit
201201
SteuereinheitControl unit
201A201A
Dimmungstabellen-ErzeugungseinheitDimming table generation unit
201B201B
Dimmungsinformationen-ErzeugungseinheitDimming information generation unit
202202
Tablet-KommunikationseinheitTablet communication unit
203203
AnzeigeeinheitDisplay unit
204204
EingabeeinheitInput unit
303A bis 303C, 503 bis 503C303A to 303C, 503 to 503C
LichtquellenkommunikationseinheitLight source communication unit

Claims (18)

Informationsverarbeitungsvorrichtung, die Folgendes aufweist: eine Steuereinheit, die dazu ausgelegt ist, eine Einstellung einer Lichtemissionseinheit gemäß Konzeptdaten, die eine Charakteristik eines gewünschten Bildes und ein Lichtemissionsergebnis der Lichtemissionseinheit angeben, zu bestimmen, wobei die Steuereinheit die bestimmte Einstellung steuert, um die Konzeptdaten in einem Fall beizubehalten, in dem eine Änderung in einem Objekt aufgetreten ist.Information processing device comprising: a control unit configured to determine a setting of a light emission unit according to concept data indicating a characteristic of a desired image and a light emission result of the light emission unit, wherein the control unit controls the particular setting to maintain the concept data in a case where a change has occurred in an object. Informationsverarbeitungseinrichtung nach Anspruch 1, wobei die Konzeptdaten Daten sind, die die für jeden Bereich des Objekts spezifizierte Helligkeit angeben.Information processing device after Claim 1 , the concept data being data indicating the brightness specified for each area of the object. Informationsverarbeitungseinrichtung nach Anspruch 1, wobei die Steuereinheit eine Dimmungstabelle, die dem Lichtemissionsergebnis der Lichtemissionseinheit entspricht, auf Basis der Bildinformationen eines Bildes, das in einem Fall erhalten wurde, in dem die Lichtemissionseinheit Licht in einem vorbestimmten Lichtemissionsmuster emittiert hat, erzeugt.Information processing device after Claim 1 wherein the control unit generates a dimming table corresponding to the light emission result of the light emission unit based on the image information of an image obtained in a case where the light emission unit has emitted light in a predetermined light emission pattern. Informationsverarbeitungseinrichtung nach Anspruch 3, wobei das Lichtemissionsmuster die Lichtemissionsintensität der Lichtemissionseinheit ist.Information processing device after Claim 3 , wherein the light emission pattern is the light emission intensity of the light emission unit. Informationsverarbeitungseinrichtung nach Anspruch 4, wobei die Steuereinheit die dem Lichtemissionsergebnis der Lichtemissionseinheit entsprechende Dimmungstabelle auf Basis von Positionsinformationen eines sich bewegenden Objekts, das in dem Objekt enthalten ist, erzeugt.Information processing device after Claim 4 , wherein the control unit generates the dimming table corresponding to the light emission result of the light emission unit based on position information of a moving object contained in the object. Informationsverarbeitungseinrichtung nach Anspruch 5, wobei die Steuereinheit Bildinformationen, die einer vorbestimmten Lichtemissionsintensität entsprechen, und vorbestimmte Positionsinformationen verwendet, um Bildinformationen zu erzeugen, die Positionsinformationen entsprechen, die sich von den vorbestimmten Positionsinformationen unterscheiden.Information processing device after Claim 5 wherein the control unit uses image information corresponding to a predetermined light emission intensity and predetermined position information to generate image information corresponding to position information different from the predetermined position information. Informationsverarbeitungseinrichtung nach Anspruch 3, wobei das Lichtemissionsmuster eine Farbtemperatur der Lichtemissionseinheit ist.Information processing device after Claim 3 , wherein the light emission pattern is a color temperature of the light emission unit. Informationsverarbeitungseinrichtung nach Anspruch 3, wobei die Bildinformationen räumliche Sensorinformationen sind, die dem Lichtemissionsmuster der Lichtemissionseinheit entsprechen.Information processing device after Claim 3 , wherein the image information is spatial sensor information corresponding to the light emission pattern of the light emission unit. Informationsverarbeitungseinrichtung nach Anspruch 8, wobei die Bildinformationen ein Luminanzpegel in einer Pixeleinheit oder einer Einheit eines Blocks mit einer beliebigen Größe sind.Information processing device after Claim 8 , wherein the image information is a luminance level in a unit pixel or unit block of any size. Informationsverarbeitungseinrichtung nach Anspruch 1, die ferner Folgendes aufweist: eine Eingabeeinheit, die dazu ausgelegt ist, eine Eingabe zum Erzeugen der Konzeptdaten anzunehmen.Information processing device after Claim 1 that further comprises: an input unit that is configured to accept an input for generating the concept data. Informationsverarbeitungseinrichtung nach Anspruch 10, die ferner Folgendes aufweist: eine Anzeigeeinheit, die dazu ausgelegt ist, ein Referenzbild anzuzeigen, auf das Bezug genommen werden soll, wenn die Eingabe angenommen wird.Information processing device after Claim 10 further comprising: a display unit configured to display a reference image to be referenced when the input is accepted. Informationsverarbeitungseinrichtung nach Anspruch 1, wobei die Einstellung der Lichtemissionseinheit eine Einstellung in Bezug auf die Lichtemissionsintensität der Lichtemissionseinheit und/oder eine Farbtemperatur des von der Lichtemissionseinheit emittierten Lichts und/oder die Weichheit/Härte des Lichts und/oder den Bestrahlungsbereich des Lichts und/oder eine Bestrahlungsrichtung des Lichts ist.Information processing device after Claim 1 , wherein the setting of the light emission unit is a setting with respect to the light emission intensity of the light emission unit and / or a color temperature of the light emitted by the light emission unit and / or the softness / hardness of the light and / or the irradiation range of the light and / or an irradiation direction of the light . Informationsverarbeitungseinrichtung nach Anspruch 1, die ferner Folgendes aufweist: eine Ausgabeeinheit, die dazu ausgelegt ist, die Einstellung der Lichtemissionseinheit auszugeben.Information processing device after Claim 1 further comprising: an output unit configured to output the setting of the light emission unit. Informationsverarbeitungseinrichtung nach Anspruch 1, wobei das Objekt ein durch einen Benutzer spezifiziertes Objekt und/oder ein automatisch erkanntes Objekt ist.Information processing device after Claim 1 , wherein the object is an object specified by a user and / or an automatically recognized object. Informationsverarbeitungsverfahren, das Folgendes aufweist: Bestimmen einer Einstellung einer Lichtemissionseinheit gemäß Konzeptdaten, die eine Charakteristik eines gewünschten Bildes und ein Lichtemissionsergebnis der Lichtemissionseinheit angeben; und Steuern der bestimmten Einstellung, um die Konzeptdaten in einem Fall beizubehalten, in dem eine Änderung in einem Objekt aufgetreten ist.Information processing method comprising: Determining a setting of a light emission unit according to concept data indicating a characteristic of a desired image and a light emission result of the light emission unit; and Control the particular setting to keep the concept data in a case where a change has occurred in an object. Programm, das einen Computer veranlasst, die folgende Verarbeitung auszuführen: Bestimmen einer Einstellung einer Lichtemissionseinheit gemäß Konzeptdaten, die eine Charakteristik eines gewünschten Bildes und ein Lichtemissionsergebnis der Lichtemissionseinheit angeben; und Steuern der bestimmten Einstellung, um die Konzeptdaten in einem Fall beizubehalten, in dem eine Änderung in einem Objekt aufgetreten ist. A program that causes a computer to perform the following processing: determining a setting of a light emission unit according to concept data indicating a characteristic of a desired image and a light emission result of the light emission unit; and controlling the determined setting to maintain the concept data in a case where a change has occurred in an object. Beleuchtungssystem, das Folgendes aufweist: eine Informationsverarbeitungseinrichtung; und eine Lichtemissionseinheit, wobei die Informationsverarbeitungseinrichtung Folgendes aufweist: eine Steuereinheit, die dazu ausgelegt ist, eine Einstellung einer Lichtemissionseinheit gemäß Konzeptdaten, die eine Charakteristik eines gewünschten Bildes und ein Lichtemissionsergebnis der Lichtemissionseinheit angeben, zu bestimmen, und die bestimmte Einstellung zu steuern, um die Konzeptdaten in einem Fall beizubehalten, in dem eine Änderung in einem Objekt aufgetreten ist, und eine Ausgabeeinheit, die dazu ausgelegt ist, die Einstellung zu der Lichtemissionseinheit auszugeben, wobei die Lichtemissionseinheit Folgendes aufweist: eine Lichtemissionssteuereinheit, die dazu ausgelegt ist, die Lichtemission basierend auf der von der Informationsverarbeitungseinrichtung ausgegebenen Einstellung zu steuern.Lighting system comprising: an information processing device; and a light emission unit, the information processing device comprising: a control unit configured to determine a setting of a light emission unit according to concept data indicating a characteristic of a desired image and a light emission result of the light emission unit, and to control the determined setting to keep the concept data in a case where a change occurred in an object, and an output unit which is designed to output the setting for the light emission unit, wherein the light emission unit comprises: a light emission control unit configured to control the light emission based on the setting output from the information processing device. Beleuchtungssystem nach Anspruch 17, wobei die Informationsverarbeitungseinrichtung das Lichtemissionsergebnis der Lichtemissionseinheit unter Verwendung eines Bildes berechnet, das nicht aufgezeichnet werden soll.Lighting system according to Claim 17 wherein the information processing device calculates the light emission result of the light emission unit using an image that is not to be recorded.
DE112018005062.9T 2017-09-12 2018-09-12 INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS, PROGRAM AND LIGHTING SYSTEM Withdrawn DE112018005062T5 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017-174518 2017-09-12
JP2017174518 2017-09-12
PCT/JP2018/033840 WO2019054416A1 (en) 2017-09-12 2018-09-12 Information processing device, information processing method, program and lighting system

Publications (1)

Publication Number Publication Date
DE112018005062T5 true DE112018005062T5 (en) 2020-06-18

Family

ID=65723805

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112018005062.9T Withdrawn DE112018005062T5 (en) 2017-09-12 2018-09-12 INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS, PROGRAM AND LIGHTING SYSTEM

Country Status (5)

Country Link
US (1) US11165968B2 (en)
JP (1) JP7272266B2 (en)
CN (1) CN111095096B (en)
DE (1) DE112018005062T5 (en)
WO (1) WO2019054416A1 (en)

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4356204B2 (en) 2000-07-12 2009-11-04 株式会社ニコン Electronic camera system and recording medium recording illumination simulation program
JP2003207827A (en) 2002-01-16 2003-07-25 Tocad Energy Co Ltd Stroboscope
US7206023B2 (en) 2002-12-13 2007-04-17 Belliveau Richard S Image projection lighting devices with projection field light intensity uniformity adjustment
JP2004274637A (en) 2003-03-12 2004-09-30 Nec Corp Portable terminal, light luminance changing method using the same, and its program
JP4396372B2 (en) 2004-04-14 2010-01-13 株式会社ニコン Photography simulation service providing method, imaging simulation program, imaging simulation apparatus, and server apparatus
US7929854B2 (en) * 2005-02-16 2011-04-19 Nikon Corporation Illumination device for photography, and camera
JP2008046410A (en) * 2006-08-17 2008-02-28 Nakano Studio Kk Photographic illuminator
JP2008298941A (en) 2007-05-30 2008-12-11 Konica Minolta Opto Inc Imaging apparatus
KR20100066855A (en) 2008-12-10 2010-06-18 삼성전자주식회사 Imaging apparatus and imaging method
JP5740822B2 (en) 2010-03-04 2015-07-01 ソニー株式会社 Information processing apparatus, information processing method, and program
TWI389560B (en) * 2010-05-14 2013-03-11 Ability Entpr Co Ltd Flashing control method for a digital camera
SE535271C2 (en) 2010-07-20 2012-06-12 Profoto Ab A flash device and a method for controlling the color temperature of the light in a flash
JP2012037803A (en) 2010-08-10 2012-02-23 Ricoh Co Ltd Strobe light emission device and camera
JP5652705B2 (en) 2010-09-24 2015-01-14 パナソニックIpマネジメント株式会社 Dimming control device, dimming control method, and dimming control program
WO2012093519A1 (en) * 2011-01-06 2012-07-12 富士フイルム株式会社 Imaging device and light emission amount control method
JP5853594B2 (en) 2011-10-31 2016-02-09 ソニー株式会社 Information processing apparatus, information processing method, and program
JP2013106284A (en) 2011-11-16 2013-05-30 Sony Corp Light source estimation device, light source estimation method, light source estimation program, and imaging apparatus
CN102769757A (en) * 2012-05-25 2012-11-07 南京大学 Active light source-based image acquisition method and system
WO2014006435A1 (en) 2012-07-03 2014-01-09 Sony Mobile Communications Ab Controlling direction of light associated with a flash device
JP2016050972A (en) 2014-08-29 2016-04-11 ソニー株式会社 Control device, control method, and program
JP2017125875A (en) * 2016-01-12 2017-07-20 キヤノン株式会社 Image display device and control method thereof
CN108604046B (en) * 2016-02-04 2020-10-30 富士胶片株式会社 Photography supporting device and method of operating the same
CN205920310U (en) 2016-06-23 2017-02-01 上海与德通讯技术有限公司 Flash light and contain its grow light system

Also Published As

Publication number Publication date
WO2019054416A1 (en) 2019-03-21
US20200288054A1 (en) 2020-09-10
CN111095096B (en) 2022-04-15
US11165968B2 (en) 2021-11-02
JPWO2019054416A1 (en) 2020-08-27
CN111095096A (en) 2020-05-01
JP7272266B2 (en) 2023-05-12

Similar Documents

Publication Publication Date Title
DE102004001890B4 (en) Digital automatic white balance
CN101257580B (en) Image pickup apparatus, and device and method for control of image pickup
DE60209454T2 (en) Image processing apparatus and method
CN101253764B (en) Imaging camera processing unit and method
CN102984448B (en) Utilize color digital picture to revise the method for controlling to action as acutance
DE69333118T2 (en) Method and device for setting the correlated color temperature
DE112010004551B4 (en) User-adaptive display device and display method
DE60306737T2 (en) METHOD AND SYSTEM FOR DETERMINING A AREA OF IMPORTANCE IN AN IMAGE TO BE ARCHIVED
DE602005003917T2 (en) Method and apparatus for generating high dynamic range images from multiple exposures
DE102013224224B4 (en) Photographic exposure by means of real-time transmission of illumination parameters
DE102019114533A1 (en) DETECTION OF VISIBLE LIGHT COMMUNICATION SOURCES OVER A HIGH DYNAMIC RANGE
DE19619734A1 (en) Electronic endoscope system
DE102012216021A1 (en) MAKING MULTIPLE PICTURES WITH A LARGE DYNAMIC RANGE FROM A SINGLE SENSOR FIELD
CN108432236A (en) Image capturing apparatus, image capturing method and program
CN102572286A (en) Imaging apparatus, imaging method and computer program
DE2612042A1 (en) SLIDING VIDEO MAT DISC SYSTEM
DE602005005532T2 (en) Projector, distance measuring method and recording medium on which the method is stored
CN106162024A (en) Photo processing method and device
DE112018005061T5 (en) INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS, PROGRAM AND LIGHTING SYSTEM
DE102018103233A1 (en) ADJUSTMENT ASSISTANCE APPARATUS, IMAGE PROCESSING SYSTEM, AND ADJUSTMENT ASSISTANCE PROGRAM
CN100381933C (en) Flash lamp strength regulation system and method
DE60300231T2 (en) Image pickup device, white balance adjustment method and program
DE112018005062T5 (en) INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS, PROGRAM AND LIGHTING SYSTEM
CN115297257A (en) Method, device and equipment for acquiring multiple paths of video streams
Gouiffès et al. HTRI: High time range imaging

Legal Events

Date Code Title Description
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee