JP2023136026A - Information processing device and virtual illumination system - Google Patents

Information processing device and virtual illumination system Download PDF

Info

Publication number
JP2023136026A
JP2023136026A JP2022041423A JP2022041423A JP2023136026A JP 2023136026 A JP2023136026 A JP 2023136026A JP 2022041423 A JP2022041423 A JP 2022041423A JP 2022041423 A JP2022041423 A JP 2022041423A JP 2023136026 A JP2023136026 A JP 2023136026A
Authority
JP
Japan
Prior art keywords
image
subject
illumination
control unit
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022041423A
Other languages
Japanese (ja)
Inventor
宏樹 春日井
Hiroki Kasugai
崇史 鈴木
Takashi Suzuki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2022041423A priority Critical patent/JP2023136026A/en
Priority to US17/876,836 priority patent/US20230031464A1/en
Publication of JP2023136026A publication Critical patent/JP2023136026A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Generation (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

To provide an information processing device and a virtual illumination system which can facilitate attainment of a natural illumination effect in an image of a subject.SOLUTION: An information processing device (300) comprises: a first acquisition unit which acquires image data indicating images of subjects (1, 2); a second acquisition unit which acquires illuminance distribution information showing distribution due to illuminating light illuminating the subjects from a plurality of light source positions; and a control unit which generates model information including the images of the subjects, and a characteristic in which the subjects reflect light for each position in the images, on the basis of the acquired image data and the acquired illuminance distribution information.SELECTED DRAWING: Figure 1

Description

本開示は、撮影される画像の照明効果についての情報処理を行う情報処理装置、及び仮想照明システムに関する。 The present disclosure relates to an information processing device and a virtual lighting system that perform information processing regarding lighting effects of captured images.

特許文献1は、画像の高輝度領域を補正した上で、立体感のある自然な画像を生成することを目的とした画像処理装置を開示する。この画像処理装置は、距離画像データに基づいて、補正の対象とする画像に対応する法線情報を取得しており、画像に含まれる被写体の高輝度領域に基づいて、実照明パラメータを推定している。さらに、この画像処理装置は、推定した実照明パラメータに基づいて、仮想照明の向きと実照明の向きとの成す角度が所定の角度以上、大きくならないように、仮想照明パラメータを設定する。こうした法線情報と仮想照明パラメータに基づいて、画像に対してライティング処理が実行されている。 Patent Document 1 discloses an image processing device that aims to generate a natural image with a three-dimensional effect after correcting a high brightness region of the image. This image processing device acquires normal information corresponding to the image to be corrected based on distance image data, and estimates actual illumination parameters based on the high-brightness area of the subject included in the image. ing. Furthermore, this image processing device sets the virtual illumination parameters based on the estimated actual illumination parameters so that the angle formed by the direction of the virtual illumination and the direction of the actual illumination does not become larger than a predetermined angle. Lighting processing is performed on the image based on such normal information and virtual lighting parameters.

特開2018-163648号公報JP2018-163648A

本開示は、被写体の画像において自然な照明効果を実現し易くすることができる情報処理装置及び仮想照明システムを提供する。 The present disclosure provides an information processing device and a virtual lighting system that can easily achieve natural lighting effects in an image of a subject.

本開示の一態様における情報処理装置は、被写体の画像を示す画像データを取得する第1取得部と、複数の光源位置から被写体に照射した照明光による分布を示す照度分布情報を取得する第2取得部と、取得された画像データ及び照度分布情報に基づいて、被写体の画像と、当該画像における位置毎に被写体が光を反射する特性とを含むモデル情報を生成する制御部とを備える。 An information processing device according to an aspect of the present disclosure includes a first acquisition unit that acquires image data representing an image of a subject, and a second acquisition unit that acquires illuminance distribution information that represents the distribution of illumination light irradiated onto the subject from a plurality of light source positions. The apparatus includes an acquisition unit and a control unit that generates model information including an image of a subject and characteristics of light reflection of the subject for each position in the image, based on the acquired image data and illuminance distribution information.

本開示の別の一態様における情報処理装置は、被写体の画像を含むモデル情報を格納する記憶部と、被写体に対する仮想的な照明に関するユーザ操作を受け付ける操作部と、ユーザ操作に応じて、設定される仮想的な照明に応じたモデル情報に対する照明効果を演算するシミュレーション処理を制御する制御部と、シミュレーション処理によって照明効果が付与された画像を表示する表示部とを備える。モデル情報は、複数の光源位置から被写体に照射した照明光による分布に基づいて、被写体の画像における位置毎に被写体が光を反射する特性を示す。制御部は、モデル情報が示す被写体の特性に基づいて、照明効果を被写体の画像に付与するようにシミュレーション処理を行う。 An information processing device according to another aspect of the present disclosure includes a storage unit that stores model information including an image of a subject, an operation unit that receives a user operation regarding virtual illumination for the subject, and an information processing device configured according to the user operation. The present invention includes a control unit that controls a simulation process that calculates a lighting effect for model information according to virtual illumination, and a display unit that displays an image to which the lighting effect has been applied by the simulation process. The model information indicates the characteristic of light reflection by the subject for each position in the image of the subject, based on the distribution of illumination light irradiated onto the subject from a plurality of light source positions. The control unit performs simulation processing to apply a lighting effect to the image of the subject based on the characteristics of the subject indicated by the model information.

本開示の更に別の一態様における情報処理装置は、撮像装置により被写体が撮像された画像を示す画像データ、及び/又は、照明装置から被写体に照射した照明光による分布を示す照度分布情報を取得する取得部と、撮像装置および照明装置を制御する制御部とを備える。撮像装置は、所定周期において被写体を順次、撮像して、画像データを生成する。制御部は、所定周期において、撮像装置が被写体を撮像していないときに、照明装置から照明光を被写体に照射させ、照明装置が照明光を被写体に照射していないときに、撮像装置に被写体を撮像させる。 An information processing device according to still another aspect of the present disclosure acquires image data indicating an image of a subject captured by an imaging device and/or illuminance distribution information indicating a distribution of illumination light irradiated onto a subject from a lighting device. and a control unit that controls the imaging device and the lighting device. The imaging device sequentially images a subject at a predetermined period to generate image data. The control unit causes the illumination device to irradiate the subject with illumination light when the imaging device is not imaging the subject in a predetermined period, and causes the imaging device to irradiate the subject with illumination light when the illumination device is not irradiating the subject with illumination light. to be imaged.

本開示における仮想照明システムは、被写体を撮像して画像データを生成する撮像装置と、被写体に照明光を照射して照明光による分布を示す情報を取得する照明装置と、上記いずれかの情報処理装置とを備える。 A virtual illumination system in the present disclosure includes an imaging device that images a subject and generates image data, an illumination device that irradiates the subject with illumination light and obtains information indicating distribution due to the illumination light, and any of the above information processing. and a device.

本開示における情報処理装置及び仮想照明システムによると、被写体の画像において自然な照明効果を実現し易くすることができる。 According to the information processing device and virtual lighting system according to the present disclosure, it is possible to easily realize a natural lighting effect in an image of a subject.

本開示の実施形態1に係る仮想照明システムを説明するための図Diagram for explaining a virtual lighting system according to Embodiment 1 of the present disclosure 仮想照明システムにおけるデジタルカメラの構成を示す図Diagram showing the configuration of a digital camera in a virtual lighting system 仮想照明システムにおける照明装置の構成を例示する図A diagram illustrating the configuration of a lighting device in a virtual lighting system. 照明装置の構造を例示する前面図Front view illustrating the structure of the lighting device 仮想照明システムにおける情報端末の構成を例示する図A diagram illustrating the configuration of an information terminal in a virtual lighting system 仮想照明システムにおける物品撮影動作を例示するフローチャートFlowchart illustrating the object photographing operation in the virtual lighting system 仮想照明システムにおける物品撮影動作の環境を例示する図A diagram illustrating an environment for object photographing operation in a virtual lighting system 仮想照明システムにおけるモデル情報のデータ構造を例示する図Diagram illustrating the data structure of model information in a virtual lighting system 仮想照明システムにおける反射特性の推定処理を説明するためのフローチャートFlowchart for explaining reflection characteristic estimation processing in a virtual lighting system 仮想照明システムの照明装置による照度分布データを例示する図Diagram illustrating illuminance distribution data by a lighting device of a virtual lighting system 仮想照明システムの照明装置の動作を説明するための図Diagram to explain the operation of the lighting device of the virtual lighting system 仮想照明の画像処理における反射率マップを例示する図Diagram illustrating a reflectance map in virtual illumination image processing 仮想照明の画像処理における座標変換を説明するための図Diagram for explaining coordinate transformation in virtual lighting image processing 仮想照明システムにおける背景撮影動作を例示するフローチャートFlowchart illustrating background photography operations in a virtual lighting system 仮想照明システムにおける背景撮影動作の環境を例示する図A diagram illustrating the environment of background shooting operation in the virtual lighting system 仮想照明システムにおける配置シミュレーション処理を例示するフローチャートFlowchart illustrating placement simulation processing in a virtual lighting system 仮想照明システムにおける配置シミュレーション処理の表示例を示す図Diagram showing a display example of placement simulation processing in a virtual lighting system 仮想照明の画像処理における照明効果の演算を説明するための図Diagram for explaining the calculation of lighting effects in virtual lighting image processing 実施形態2に係る仮想照明システムにおける動画の撮影動作を例示するフローチャートFlowchart illustrating a video shooting operation in the virtual lighting system according to Embodiment 2 仮想照明システムにおける排他制御の動作例を説明するためのタイミングチャートTiming chart for explaining an example of exclusive control operation in a virtual lighting system 仮想照明システムにおける物品撮影動作の変形例1を例示する図A diagram illustrating modification example 1 of the article photographing operation in the virtual illumination system. 仮想照明システムにおける物品撮影動作の変形例2を例示する図A diagram illustrating a second modification of the article photographing operation in the virtual illumination system.

以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。なお、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。 Hereinafter, embodiments will be described in detail with reference to the drawings as appropriate. However, detailed explanations of well-known matters and redundant explanations of substantially the same configurations may be omitted. The accompanying drawings and the following description are provided to enable those skilled in the art to fully understand the present disclosure, and are not intended to limit the claimed subject matter.

(実施形態1)
1.構成
本開示の実施形態1に係る仮想照明システムについて、図1を用いて説明する。
(Embodiment 1)
1. Configuration A virtual lighting system according to Embodiment 1 of the present disclosure will be described using FIG. 1.

本実施形態に係る仮想照明システム10は、例えば図1に示すように、デジタルカメラ100と、照明装置200と、情報端末300とを備える。本システム10は、例えば、インテリアショップ或いは不動産会社等において、顧客が所望する家具等の物品1を、別途所望の部屋等の背景2に仮想的に配置した様子を可視化する画像合成シミュレーション、即ち配置シミュレーションに適用可能である。物品1と背景2とは、例えば別々の撮影現場15においてそれぞれ撮影される被写体の一例である。 The virtual lighting system 10 according to this embodiment includes, for example, as shown in FIG. 1, a digital camera 100, a lighting device 200, and an information terminal 300. This system 10 is an image synthesis simulation that visualizes the virtual placement of an item 1 such as furniture desired by a customer in a background 2 of a separately desired room, etc., in an interior shop or a real estate company, for example. Applicable to simulation. The article 1 and the background 2 are examples of subjects that are each photographed, for example, at separate photographing sites 15.

こうした配置シミュレーションにおいては、物品1の撮像画像と、背景2の撮像画像とを合成しても、両者で異なる撮影現場15の照度等の不整合により合成画像が不自然になる問題が考えられる。そこで、本システム10では、デジタルカメラ100による物品1等の撮影時に、照明効果の画像処理を事後的に行うための照明装置200を併用しておき、配置シミュレーション時に、合成画像において上記不整合を解消するような自然な照明効果を実現する。 In such a placement simulation, even if the captured image of the article 1 and the captured image of the background 2 are combined, there may be a problem that the combined image becomes unnatural due to inconsistencies in illuminance or the like of the photographing site 15, which is different between the two. Therefore, in this system 10, when photographing the article 1 etc. with the digital camera 100, the illumination device 200 is used to perform image processing of the illumination effect after the fact, and the above-mentioned mismatch is corrected in the composite image during the placement simulation. Achieve a natural lighting effect that eliminates the problem.

以下、本システム10における各装置100,200,300の構成について説明する。 The configuration of each device 100, 200, 300 in this system 10 will be described below.

1-1.デジタルカメラの構成
本実施形態におけるデジタルカメラ100の構成について、図2を用いて説明する。
1-1. Configuration of Digital Camera The configuration of the digital camera 100 in this embodiment will be described using FIG. 2.

図2は、本システム10におけるデジタルカメラ100の構成を例示する図である。デジタルカメラ100は、本実施形態における撮像装置の一例である。本実施形態のデジタルカメラ100は、イメージセンサ115と、画像処理エンジン120と、表示モニタ130と、制御部135とを備える。さらに、デジタルカメラ100は、バッファメモリ125と、カードスロット140と、フラッシュメモリ145と、操作部150と、通信モジュール155とを備える。また、デジタルカメラ100は、例えば光学系110及びレンズ駆動部112を備える。 FIG. 2 is a diagram illustrating the configuration of the digital camera 100 in the present system 10. The digital camera 100 is an example of an imaging device in this embodiment. The digital camera 100 of this embodiment includes an image sensor 115, an image processing engine 120, a display monitor 130, and a control section 135. Further, the digital camera 100 includes a buffer memory 125, a card slot 140, a flash memory 145, an operation section 150, and a communication module 155. Further, the digital camera 100 includes, for example, an optical system 110 and a lens driving section 112.

光学系110は、フォーカスレンズ、ズームレンズ、光学式手ぶれ補正レンズ(OIS)、絞り、シャッタ等を含む。フォーカスレンズは、イメージセンサ115上に形成される被写体像のフォーカス状態を変化させるためのレンズである。ズームレンズは、光学系で形成される被写体像の倍率を変化させるためのレンズである。フォーカスレンズ等は、それぞれ1枚又は複数枚のレンズで構成される。 The optical system 110 includes a focus lens, a zoom lens, an optical image stabilization lens (OIS), an aperture, a shutter, and the like. The focus lens is a lens for changing the focus state of the subject image formed on the image sensor 115. A zoom lens is a lens for changing the magnification of a subject image formed by an optical system. Each of the focus lenses and the like is composed of one or more lenses.

レンズ駆動部112は、光学系110におけるフォーカスレンズ等を駆動する。レンズ駆動部112はモータを含み、制御部135の制御に基づいてフォーカスレンズを光学系110の光軸に沿って移動させる。レンズ駆動部112においてフォーカスレンズを駆動する構成は、DCモータ、ステッピングモータ、サーボモータ、または超音波モータなどで実現できる。 The lens driving section 112 drives the focus lens and the like in the optical system 110. The lens driving section 112 includes a motor, and moves the focus lens along the optical axis of the optical system 110 based on the control of the control section 135. The configuration for driving the focus lens in the lens drive unit 112 can be realized using a DC motor, a stepping motor, a servo motor, an ultrasonic motor, or the like.

イメージセンサ115は、光学系110を介して形成された被写体像を撮像して、撮像データを生成する。撮像データは、イメージセンサ115による撮像画像を示す画像データを構成する。イメージセンサ115は、所定のフレームレート(例えば、30フレーム/秒)で新しいフレームの画像データを生成する。イメージセンサ115における、撮像データの生成タイミングおよび電子シャッタ動作は、制御部135によって制御される。イメージセンサ115は、CMOSイメージセンサ、CCDイメージセンサ、またはNMOSイメージセンサなど、種々のイメージセンサを用いることができる。 The image sensor 115 captures a subject image formed through the optical system 110 and generates image data. The image data constitutes image data representing an image captured by the image sensor 115. Image sensor 115 generates a new frame of image data at a predetermined frame rate (eg, 30 frames/second). The generation timing of image data and the electronic shutter operation in the image sensor 115 are controlled by the control unit 135. As the image sensor 115, various image sensors such as a CMOS image sensor, a CCD image sensor, or an NMOS image sensor can be used.

イメージセンサ115は、静止画像の撮像動作、スルー画像の撮像動作等を実行する。スルー画像は主に動画像であり、ユーザが静止画像の撮像のための構図を決めるために表示モニタ130に表示される。スルー画像及び静止画像は、それぞれ本実施形態における撮像画像の一例である。イメージセンサ115は、本実施形態における撮像部の一例である。 The image sensor 115 performs a still image imaging operation, a through image imaging operation, and the like. The through image is mainly a moving image, and is displayed on the display monitor 130 for the user to decide on a composition for capturing a still image. A through image and a still image are each an example of a captured image in this embodiment. The image sensor 115 is an example of an imaging unit in this embodiment.

画像処理エンジン120は、イメージセンサ115から出力された撮像データに対して各種の処理を施して画像データを生成したり、画像データに各種の処理を施して、表示モニタ130に表示するための画像を生成したりする。各種処理としては、ホワイトバランス補正、ガンマ補正、YC変換処理、電子ズーム処理、圧縮処理、伸張処理等が挙げられるが、これらに限定されない。画像処理エンジン120は、ハードワイヤードな電子回路で構成してもよいし、プログラムを用いたマイクロコンピュータ、プロセッサなどで構成してもよい。 The image processing engine 120 performs various processes on the imaged data output from the image sensor 115 to generate image data, performs various processes on the image data, and generates an image to be displayed on the display monitor 130. or generate. Various types of processing include, but are not limited to, white balance correction, gamma correction, YC conversion processing, electronic zoom processing, compression processing, and expansion processing. The image processing engine 120 may be configured with a hard-wired electronic circuit, or may be configured with a microcomputer, processor, etc. using a program.

表示モニタ130は、種々の情報を表示する表示部の一例である。例えば、表示モニタ130は、イメージセンサ115で撮像され、画像処理エンジン120で画像処理された画像データが示す画像(スルー画像)を表示する。また、表示モニタ130は、ユーザがデジタルカメラ100に対して種々の設定を行うためのメニュー画面等を表示する。表示モニタ130は、例えば、液晶ディスプレイデバイスまたは有機ELデバイスで構成できる。 The display monitor 130 is an example of a display unit that displays various information. For example, the display monitor 130 displays an image (through image) represented by image data captured by the image sensor 115 and subjected to image processing by the image processing engine 120. The display monitor 130 also displays a menu screen and the like for the user to make various settings for the digital camera 100. Display monitor 130 can be configured with, for example, a liquid crystal display device or an organic EL device.

操作部150は、デジタルカメラ100の外装に設けられた操作ボタンや操作レバー等のハードキーの総称であり、使用者による操作を受け付ける。操作部150は、例えば、レリーズボタン、モードダイヤル、タッチパネルを含む。操作部150はユーザによる操作を受け付けると、ユーザ操作に対応した操作信号を制御部135に送信する。 The operation unit 150 is a general term for hard keys such as operation buttons and operation levers provided on the exterior of the digital camera 100, and accepts operations by the user. The operation unit 150 includes, for example, a release button, a mode dial, and a touch panel. When the operation unit 150 receives an operation by the user, it transmits an operation signal corresponding to the user operation to the control unit 135.

制御部135は、デジタルカメラ100全体の動作を統括制御する。制御部135はCPU等を含み、CPUがプログラム(ソフトウェア)を実行することで所定の機能を実現する。制御部135は、CPUに代えて、所定の機能を実現するように設計された専用の電子回路で構成されるプロセッサを含んでもよい。すなわち、制御部135は、CPU、MPU、GPU、DSP、FPGA、ASIC等の種々のプロセッサで実現できる。制御部135は1つまたは複数のプロセッサで構成してもよい。また、制御部135は、画像処理エンジン120などと共に1つの半導体チップで構成してもよい。 The control unit 135 centrally controls the operation of the digital camera 100 as a whole. The control unit 135 includes a CPU and the like, and the CPU executes a program (software) to realize a predetermined function. The control unit 135 may include a processor configured with a dedicated electronic circuit designed to implement a predetermined function, instead of the CPU. That is, the control unit 135 can be realized by various processors such as a CPU, MPU, GPU, DSP, FPGA, and ASIC. The control unit 135 may be composed of one or more processors. Further, the control unit 135 may be configured with one semiconductor chip together with the image processing engine 120 and the like.

バッファメモリ125は、画像処理エンジン120や制御部135のワークメモリとして機能する記録媒体である。バッファメモリ125は、DRAM(Dynamic Random Access Memory)などにより実現される。フラッシュメモリ145は不揮発性の記録媒体である。また、図示していないが、制御部135は各種の内部メモリを有してもよく、例えばROMを内蔵してもよい。ROMには、制御部135が実行する様々なプログラムが記憶されている。また、制御部135は、CPUの作業領域として機能するRAMを内蔵してもよい。 The buffer memory 125 is a recording medium that functions as a work memory for the image processing engine 120 and the control unit 135. The buffer memory 125 is realized by DRAM (Dynamic Random Access Memory) or the like. Flash memory 145 is a nonvolatile recording medium. Further, although not shown, the control unit 135 may have various types of internal memories, such as a built-in ROM. Various programs executed by the control unit 135 are stored in the ROM. Further, the control unit 135 may include a built-in RAM that functions as a work area for the CPU.

カードスロット140は、着脱可能なメモリカード142が挿入される手段である。カードスロット140は、メモリカード142を電気的及び機械的に接続可能である。メモリカード142は、内部にフラッシュメモリ等の記録素子を備えた外部メモリである。メモリカード142は、画像処理エンジン120で生成される画像データなどのデータを格納できる。 The card slot 140 is a means into which a removable memory card 142 is inserted. A memory card 142 can be electrically and mechanically connected to the card slot 140. The memory card 142 is an external memory that includes a recording element such as a flash memory inside. Memory card 142 can store data such as image data generated by image processing engine 120.

通信モジュール155は、有線又は無線通信における所定の通信規格に従って外部機器に接続するモジュール(回路)である。所定の通信規格は、例えばUSB、HDMI(登録商標)、IEEE802.11、Wi-Fi、Bluetooth等を含む。デジタルカメラ100は、通信モジュール155を介して、他の機器と通信することができる。 The communication module 155 is a module (circuit) that connects to external equipment according to a predetermined communication standard for wired or wireless communication. The predetermined communication standards include, for example, USB, HDMI (registered trademark), IEEE802.11, Wi-Fi, Bluetooth, and the like. Digital camera 100 can communicate with other devices via communication module 155.

1-2.照明装置の構成
本実施形態における照明装置200の構成について、図3~4を用いて説明する。
1-2. Configuration of Lighting Device The configuration of the lighting device 200 in this embodiment will be explained using FIGS. 3 and 4.

図3は、本システム10における照明装置200の構成を例示する図である。照明装置200は、例えば図3に示すように、発光部210と、受光部220と、制御部230と、記憶部240と、通信部250とを備える。照明装置200の構造を図4に例示する。 FIG. 3 is a diagram illustrating the configuration of the lighting device 200 in the present system 10. The lighting device 200 includes, for example, as shown in FIG. 3, a light emitting section 210, a light receiving section 220, a control section 230, a storage section 240, and a communication section 250. The structure of the lighting device 200 is illustrated in FIG.

図4は、照明装置200を、照明光が出射する方向から見た前面図を例示する。本システム10の照明装置200は、例えば天井設置型あるいはスタンド型などの各種型式で構成される。照明装置200は、デジタルカメラ100に装着されるクリップオン型であってもよいし、被写体を収容する撮影ボックスと一体的に構成されてもよい。 FIG. 4 illustrates a front view of the illumination device 200 viewed from the direction in which illumination light is emitted. The lighting device 200 of the present system 10 is configured in various types, such as a ceiling-mounted type or a stand type. The lighting device 200 may be a clip-on type that is attached to the digital camera 100, or may be configured integrally with a photographing box that accommodates a subject.

照明装置200において、発光部210は、例えば可視領域の各種波長を有する照明光を発光するように、各種光源装置で構成される。発光部210は、例えば図4に示すように、複数の照明光源211~213を含む。図4では、発光部210が3個の照明光源211~213で構成される例を示す。照明装置200の発光部210はこれに限らず、例えば4個以上の照明光源211~213を含んでもよい。以下、照明光源211~213の総称を照明光源21という。 In the lighting device 200, the light emitting unit 210 is configured with various light source devices so as to emit illumination light having various wavelengths in the visible region, for example. The light emitting unit 210 includes a plurality of illumination light sources 211 to 213, as shown in FIG. 4, for example. FIG. 4 shows an example in which the light emitting section 210 is composed of three illumination light sources 211 to 213. The light emitting unit 210 of the lighting device 200 is not limited to this, and may include, for example, four or more illumination light sources 211 to 213. Hereinafter, the illumination light sources 211 to 213 will be collectively referred to as the illumination light source 21.

照明光源21は、例えば波長可変式のLEDであり、所定の配光角においてRGB等の複数色の照明光を発光する。照明光源21は、それぞれ複数色の単色LED等を含んでもよい。照明光源21の配光角は、例えば物品1や背景2などの被写体11を撮影するための撮影現場15において、被写体11を含む空間範囲に照明光が照射されるように設定される。互いに同じ波長を有する照明光を発光可能に構成される。発光部210は、照明光源21から照明光として白色光を発光してもよい。 The illumination light source 21 is, for example, a variable wavelength LED, and emits illumination light of multiple colors such as RGB at a predetermined light distribution angle. The illumination light sources 21 may each include a plurality of monochrome LEDs or the like. The light distribution angle of the illumination light source 21 is set such that illumination light is irradiated onto a spatial range including the subject 11 at a photographing site 15 for photographing the subject 11 such as the article 1 or the background 2, for example. They are configured to be able to emit illumination light having the same wavelength. The light emitting unit 210 may emit white light from the illumination light source 21 as illumination light.

例えば発光部210における第1~第3の照明光源211~213は、照明装置200において受光部220の周囲を囲むように配置される。こうした配置により、発光部210は、第1~第3の照明光源211~213において互いに異なる光源位置を有する。第1~第3の照明光源211~213は、それぞれ共通の空間範囲に照明光を照射する向きに配置される。 For example, the first to third illumination light sources 211 to 213 in the light emitting section 210 are arranged so as to surround the light receiving section 220 in the lighting device 200. Due to this arrangement, the light emitting unit 210 has different light source positions in the first to third illumination light sources 211 to 213. The first to third illumination light sources 211 to 213 are arranged in a direction to irradiate illumination light onto a common spatial range, respectively.

受光部220は、発光部210の照明光に対応する可視領域の光を受光可能に構成された受光面を有する。受光部220は、例えばCCDイメージセンサ、CMOSイメージセンサ又はNMOSイメージセンサ等の各種の撮像素子で構成される。受光部220は、例えばモノクロ画像を撮像して、受光結果として照度の空間分布を示すデータを生成する。受光部220はモノクロに限らず、RGB等のカラーフィルタを含んでもよい。受光部220は、各色の画像を、各色光における受光結果としてデータ出力してもよい。 The light receiving section 220 has a light receiving surface configured to be able to receive light in a visible region corresponding to the illumination light from the light emitting section 210. The light receiving unit 220 is composed of various image sensors such as a CCD image sensor, a CMOS image sensor, or an NMOS image sensor. The light receiving unit 220 captures a monochrome image, for example, and generates data indicating a spatial distribution of illuminance as a result of light reception. The light receiving unit 220 is not limited to monochrome, and may include color filters such as RGB. The light receiving unit 220 may output data of images of each color as light reception results for each color light.

制御部230は、例えば照明装置200の全体動作を制御する。制御部230は、例えばソフトウェアと協働して所定の機能を実現するCPU又はMPUを含む。制御部230、所定の機能を実現するように設計された専用の電子回路又は再構成可能な電子回路などのハードウェア回路であってもよい。制御部230は、CPU、MPU、マイコン、DSP、FPGA及びASIC等の種々の半導体集積回路で構成されてもよい。 The control unit 230 controls the overall operation of the lighting device 200, for example. Control unit 230 includes, for example, a CPU or MPU that cooperates with software to implement predetermined functions. The control unit 230 may be a hardware circuit such as a dedicated electronic circuit or a reconfigurable electronic circuit designed to implement a predetermined function. The control unit 230 may be configured with various semiconductor integrated circuits such as a CPU, MPU, microcomputer, DSP, FPGA, and ASIC.

記憶部240は、照明装置200の機能を実現するために必要なプログラム及びデータを記憶するROMやRAMを含む。記憶部240は、例えば各照明光源211~213と、受光部220との位置関係を示す情報を格納する。 The storage unit 240 includes a ROM and a RAM that store programs and data necessary to realize the functions of the lighting device 200. The storage unit 240 stores, for example, information indicating the positional relationship between each of the illumination light sources 211 to 213 and the light receiving unit 220.

通信部250は、有線又は無線通信における所定の通信規格に従って外部機器に接続するモジュール(回路)である。所定の通信規格は、例えばUSB、HDMI、IEEE802.11、Wi-Fi、Bluetooth等を含む。 The communication unit 250 is a module (circuit) that connects to external equipment according to a predetermined communication standard for wired or wireless communication. The predetermined communication standards include, for example, USB, HDMI, IEEE802.11, Wi-Fi, Bluetooth, and the like.

1-3.情報端末の構成
本実施形態における情報端末300の構成について、図5を用いて説明する。
1-3. Configuration of Information Terminal The configuration of the information terminal 300 in this embodiment will be described using FIG. 5.

図5は、情報端末300の構成を例示する図である。情報端末300は、例えばパーソナルコンピュータ、スマートフォン又はタブレット端末などで構成される情報処理装置の一例である。図5に例示する情報端末300は、制御部310と、記憶部320と、操作部330と、表示部340と、通信部350とを備える。 FIG. 5 is a diagram illustrating the configuration of the information terminal 300. The information terminal 300 is an example of an information processing device configured with, for example, a personal computer, a smartphone, or a tablet terminal. The information terminal 300 illustrated in FIG. 5 includes a control section 310, a storage section 320, an operation section 330, a display section 340, and a communication section 350.

制御部310は、例えばソフトウェアと協働して所定の機能を実現するCPU又はMPUを含む。制御部310は、例えば情報端末300の全体動作を制御する。制御部310は、記憶部320に格納されたデータ及びプログラムを読み出して種々の演算処理を行い、各種の機能を実現する。 Control unit 310 includes, for example, a CPU or MPU that implements predetermined functions in cooperation with software. The control unit 310 controls the overall operation of the information terminal 300, for example. The control unit 310 reads data and programs stored in the storage unit 320 and performs various arithmetic operations to realize various functions.

制御部310は、例えば上記各機能を実現するための命令群を含んだプログラムを実行する。上記のプログラムは、インターネット等の通信ネットワークから提供されてもよいし、可搬性を有する記録媒体に格納されていてもよい。また、制御部310は、上記各機能を実現するように設計された専用の電子回路又は再構成可能な電子回路などのハードウェア回路であってもよい。制御部310は、CPU、MPU、GPU、GPGPU、TPU、マイコン、DSP、FPGA及びASIC等の種々の半導体集積回路で構成されてもよい。 The control unit 310 executes, for example, a program including a group of instructions for realizing each of the above functions. The above program may be provided from a communication network such as the Internet, or may be stored in a portable recording medium. Furthermore, the control unit 310 may be a hardware circuit such as a dedicated electronic circuit or a reconfigurable electronic circuit designed to implement each of the above functions. The control unit 310 may be configured with various semiconductor integrated circuits such as a CPU, MPU, GPU, GPGPU, TPU, microcomputer, DSP, FPGA, and ASIC.

記憶部320は、情報端末300の機能を実現するために必要なプログラム及びデータを記憶する記憶媒体である。記憶部320は、図5に示すように、格納部321及び一時記憶部322を含む。 The storage unit 320 is a storage medium that stores programs and data necessary to implement the functions of the information terminal 300. The storage unit 320 includes a storage unit 321 and a temporary storage unit 322, as shown in FIG.

格納部321は、所定の機能を実現するためのパラメータ、データ及び制御プログラム等を格納する。格納部321は、例えばHDD又はSSDで構成される。例えば、格納部321は、上記のプログラム、及び各種の画像データなどを格納する。 The storage unit 321 stores parameters, data, control programs, etc. for realizing predetermined functions. The storage unit 321 is composed of, for example, an HDD or an SSD. For example, the storage unit 321 stores the above programs, various image data, and the like.

一時記憶部322は、例えばDRAM又はSRAM等のRAMで構成され、データを一時的に記憶(即ち保持)する。例えば、一時記憶部322は、編集途中の画像データなどを保持する。また、一時記憶部322は、制御部310の作業エリアとして機能してもよく、制御部310の内部メモリにおける記憶領域で構成されてもよい。 The temporary storage unit 322 is configured with a RAM such as DRAM or SRAM, and temporarily stores (that is, holds) data. For example, the temporary storage unit 322 holds image data that is being edited. Further, the temporary storage section 322 may function as a work area of the control section 310, or may be configured as a storage area in the internal memory of the control section 310.

操作部330は、ユーザが操作を行う操作部材の総称である。操作部330は、例えば、キーボード、マウス、タッチパッド、タッチパネル、ボタン及びスイッチ等であってもよい。操作部330は、表示部340上に表示される仮想的なボタンやアイコン、カーソル、オブジェクトといった各種のGUIも含む。 The operation unit 330 is a general term for operation members operated by the user. The operation unit 330 may be, for example, a keyboard, a mouse, a touch pad, a touch panel, a button, a switch, or the like. The operation unit 330 also includes various GUIs such as virtual buttons, icons, cursors, and objects displayed on the display unit 340.

表示部340は、例えば、液晶ディスプレイ又は有機ELディスプレイで構成される出力部の一例である。表示部340は、操作部330を操作するための各種GUI及び操作部330から入力された情報など、各種の情報を表示してもよい。 The display unit 340 is an example of an output unit configured with, for example, a liquid crystal display or an organic EL display. The display unit 340 may display various types of information such as various GUIs for operating the operation unit 330 and information input from the operation unit 330.

通信部350は、有線又は無線通信における所定の通信規格に従って外部機器に接続するモジュール(回路)である。所定の通信規格は、例えばUSB、HDMI、IEEE802.11、Wi-Fi、Bluetooth等を含む。通信部350は、インターネット等の通信ネットワークに情報端末300を接続してもよい。通信部350は、外部機器または通信ネットワークから諸情報を受信する取得部の一例である。 The communication unit 350 is a module (circuit) that connects to external equipment according to a predetermined communication standard for wired or wireless communication. The predetermined communication standards include, for example, USB, HDMI, IEEE802.11, Wi-Fi, Bluetooth, and the like. The communication unit 350 may connect the information terminal 300 to a communication network such as the Internet. The communication unit 350 is an example of an acquisition unit that receives various information from an external device or a communication network.

以上のような情報端末300の構成は一例であり、情報端末300の構成はこれに限らない。例えば、情報端末300における取得部は、制御部310等における各種ソフトウェアとの協働によって実現されてもよい。情報端末300における入力部は、各種記憶媒体(例えば格納部321)に格納された諸情報を制御部310の作業エリア(例えば一時記憶部322)に読み出すことによって、諸情報の取得を行うものであってもよい。 The configuration of the information terminal 300 as described above is an example, and the configuration of the information terminal 300 is not limited to this. For example, the acquisition unit in the information terminal 300 may be realized by cooperation with various software in the control unit 310 and the like. The input unit in the information terminal 300 acquires various information by reading out various information stored in various storage media (for example, the storage unit 321) into the work area (for example, the temporary storage unit 322) of the control unit 310. There may be.

また、情報端末300の表示部340には、プロジェクタおよびヘッドマウントディスプレイなど各種の表示デバイスが用いられてもよい。また、例えば外付けの表示デバイスを用いる場合、情報端末300の表示部340は、例えばHDMI規格などに準拠した映像信号等の出力インタフェース回路であってもよい。 Moreover, various display devices such as a projector and a head-mounted display may be used for the display unit 340 of the information terminal 300. Further, for example, when an external display device is used, the display section 340 of the information terminal 300 may be an output interface circuit for outputting video signals or the like based on, for example, the HDMI standard.

2.動作
以上のように構成される仮想照明システム10の動作について、以下説明する。
2. Operation The operation of the virtual lighting system 10 configured as described above will be described below.

本システム10において、デジタルカメラ100は、例えば配置シミュレーションの対象となる物品1を事前に撮影する。こうした物品撮影動作において、本システム10は、照明装置200を用いた情報取得を行う。又、本実施形態では、配置シミュレーションの背景2についても、デジタルカメラ100及び照明装置200を用いた撮影動作を行う。本システム10は、以上のような撮影結果に基づき、配置シミュレーションにおいて、ユーザの操作に応じて物品1を背景2上に配置した状態を再現して仮想照明の照明効果を与える。 In this system 10, the digital camera 100 photographs the article 1 to be subjected to placement simulation in advance, for example. In such an article photographing operation, the present system 10 acquires information using the illumination device 200. Furthermore, in this embodiment, a photographing operation using the digital camera 100 and the illumination device 200 is also performed for the background 2 of the placement simulation. Based on the above photographic results, the present system 10 reproduces the state in which the article 1 is placed on the background 2 according to the user's operation in a placement simulation, and provides a lighting effect of virtual illumination.

以下、こうした本システム10の動作の詳細を説明する。以下では、本システム10の動作の一例として情報端末300を用いた動作例を説明するが、各種撮影動作および配置シミュレーション処理は特に同一端末を用いずに行われてよい。 The details of the operation of this system 10 will be described below. Although an example of the operation of the system 10 using the information terminal 300 will be described below as an example of the operation of the present system 10, various photographing operations and placement simulation processing may be performed without using the same terminal.

2-1.物品撮影動作
本システム10における物品撮影動作の一例を、図6~8を用いて説明する。本動作例では、被写体の一例の物品1の全周にわたって、デジタルカメラ100で動画等を撮影すると共に、照明装置200による情報取得を行う。これにより、その後の配置シミュレーションにおいて、物品1の向きを、その全周にわたり変更可能とすることができる。
2-1. Article Photographing Operation An example of article photographing operation in the present system 10 will be explained using FIGS. 6 to 8. In this operation example, the digital camera 100 photographs a moving image or the like over the entire circumference of the article 1, which is an example of a subject, and the illumination device 200 acquires information. Thereby, in the subsequent placement simulation, the orientation of the article 1 can be changed over its entire circumference.

図6は、本システム10における物品撮影動作を例示するフローチャートである。図7は、図6の物品撮影動作の環境を例示する。図6に例示するフローチャートの各処理は、例えば情報端末300の制御部310によって実行される。 FIG. 6 is a flowchart illustrating the article photographing operation in the present system 10. FIG. 7 illustrates an environment for the article photographing operation of FIG. 6. Each process in the flowchart illustrated in FIG. 6 is executed by, for example, the control unit 310 of the information terminal 300.

本動作例では、例えば図7に示すように、撮影対象の物品1を回転させる回転台400が用いられる。回転台400は、例えば物品1を載置するステージ及びモータ等を備え、物品1の全周に対応する0度から360度までの1周における種々の角度位置に回転駆動するように構成される。又、本動作例では、情報端末300が各装置100,200,400にデータ通信可能に接続され、各装置100,200,400の動作を制御する。又、図7では、スタンド型の照明装置200を例示するが、特にこれに限定されない。 In this operation example, as shown in FIG. 7, for example, a rotating table 400 is used that rotates the object 1 to be photographed. The rotary table 400 includes, for example, a stage on which the article 1 is placed, a motor, etc., and is configured to rotate to various angular positions in one rotation from 0 degrees to 360 degrees corresponding to the entire circumference of the article 1. . Further, in this operation example, the information terminal 300 is connected to each device 100, 200, 400 for data communication, and controls the operation of each device 100, 200, 400. Further, although FIG. 7 illustrates a stand-type lighting device 200, the present invention is not particularly limited thereto.

例えば図6に示すように、情報端末300の制御部310は、照明装置200に、照明光の発光及び受光の動作を実行させるように制御信号を送信する(S1)。制御部310は、例えば通信部350を介して、照明装置200から物品1に照射した照明光についての照度分布データ(図10参照)を取得する。 For example, as shown in FIG. 6, the control unit 310 of the information terminal 300 transmits a control signal to the lighting device 200 to cause the lighting device 200 to perform operations of emitting and receiving illumination light (S1). The control unit 310 acquires, for example, via the communication unit 350, illuminance distribution data (see FIG. 10) regarding the illumination light irradiated onto the article 1 from the lighting device 200.

例えば、照明装置200において制御部230は、情報端末300からの制御信号に応じて、発光部210において第1~第3の照明光源211~213を順番に発光させ、受光部220において時分割で各照明光源211~213の反射光を受光する。照明装置200の制御部230は、こうした照明光源21毎の受光結果を示す照度分布データを生成して、通信部250を介して照度分布データを情報端末300に送信する。照度分布データの生成は、例えばRGB等の色別に行われる。例えば、照明装置200は、各照明光源21における色別の照明光のうちの1種類の照明光を、ステップS1毎に順次、発光する。 For example, in the lighting device 200, the control unit 230 sequentially causes the first to third illumination light sources 211 to 213 to emit light in the light emitting unit 210 in response to a control signal from the information terminal 300, and in the light receiving unit 220 in a time-sharing manner. The reflected light from each of the illumination light sources 211 to 213 is received. The control unit 230 of the lighting device 200 generates illuminance distribution data indicating the light reception result for each illumination light source 21, and transmits the illuminance distribution data to the information terminal 300 via the communication unit 250. The generation of illuminance distribution data is performed for each color, such as RGB. For example, the lighting device 200 sequentially emits one type of illumination light among the colored illumination lights from each illumination light source 21 in each step S1.

又、制御部310は、デジタルカメラ100に制御信号を送信して、例えば動画のフレーム毎の撮影動作を実行させる(S2)。情報端末300は、例えば通信部350を介して、デジタルカメラ100から出力された動画データを取得する。本実施形態において、デジタルカメラ100の撮影動作は、照明装置200の発光中に行われてもよいし、発光停止中に行われてもよい。物品1が各種の照明光により照明されている状態の撮像画像を用いて、物品1のモデル情報が生成されてもよい。 Further, the control unit 310 transmits a control signal to the digital camera 100 to cause the digital camera 100 to perform a shooting operation for each frame of a moving image, for example (S2). The information terminal 300 acquires video data output from the digital camera 100, for example, via the communication unit 350. In this embodiment, the photographing operation of the digital camera 100 may be performed while the illumination device 200 is emitting light, or may be performed while the light emission is stopped. Model information of the article 1 may be generated using captured images of the article 1 illuminated with various types of illumination light.

例えばデジタルカメラ100において制御部135は、情報端末300からの制御信号に応じて、イメージセンサ115の露光タイミングを制御して、ステップS2毎にフレーム画像を順次撮像させる。例えば、1回のステップS2で撮像されるフレーム画像は、回転台400の角度位置に応じた向きにおいてデジタルカメラ100から見た物品1の外観を示す。例えばデジタルカメラ100は、こうした撮像結果の画像データの一例として動画データを通信モジュール155から出力する。なお、デジタルカメラ100は、動画撮影の代わりに静止画の連写撮影を行ってもよいし、単写撮影を繰り返してもよい。 For example, in the digital camera 100, the control unit 135 controls the exposure timing of the image sensor 115 according to a control signal from the information terminal 300, and sequentially captures frame images at each step S2. For example, a frame image captured in one step S2 shows the appearance of the article 1 as seen from the digital camera 100 in an orientation corresponding to the angular position of the rotary table 400. For example, the digital camera 100 outputs moving image data from the communication module 155 as an example of image data as a result of such imaging. Note that the digital camera 100 may perform continuous still image shooting instead of moving image shooting, or may repeatedly take single shots.

制御部310は、例えば回転台400が特定の角度位置にある状態で、照明装置200が全種類の照明光についての発受光動作を行ったか否かを判断する(S3)。全種類の照明光は、第1~第3の照明光源211~213の各々における各色の照明光を含む。制御部310は、照明装置200が全種類の発受光動作を行っていないとき(S3でNO)、照明光の種類を変更してステップS1~S3の処理を繰り返す。 For example, the control unit 310 determines whether the illumination device 200 has emitted and received light for all types of illumination light while the rotating table 400 is at a specific angular position (S3). All types of illumination light include illumination light of each color from each of the first to third illumination light sources 211 to 213. When the illumination device 200 is not performing all types of light emission/reception operations (NO in S3), the control unit 310 changes the type of illumination light and repeats the processing of steps S1 to S3.

照明装置200が全種類の発受光動作を行ったとき(S3でYES)、例えば、制御部310は、照明装置200から取得した照度分布データに基づいて、物品1が種々の照明光を反射する特性を推定する演算処理を行う(S4)。反射特性の推定処理(S4)では、例えば、物品1の表面上の各種位置の法線方向および各色光の反射率といった反射特性の推定結果を示す推定情報が、物品1を撮像した種々の角度位置毎に生成される。ステップS4の処理の詳細については後述する。 When the lighting device 200 performs all types of light emitting and receiving operations (YES in S3), for example, the control unit 310 causes the article 1 to reflect various types of illumination light based on the illuminance distribution data acquired from the lighting device 200. Arithmetic processing for estimating characteristics is performed (S4). In the reflection characteristic estimation process (S4), for example, estimation information indicating the estimation results of the reflection characteristics, such as the normal direction of various positions on the surface of the article 1 and the reflectance of each color light, is obtained from various angles at which the article 1 is imaged. Generated for each location. Details of the process in step S4 will be described later.

また、制御部310は、例えば所定の回転角度だけ角度位置を変更するように回転台400を制御する(S5)。ステップS5の回転角度は、回転台400上の物品1の周囲から見える外観においてデジタルカメラ100に撮像される部分をフレーム毎に更新する観点から適宜、設定される(例えば15度)。回転台400の回転は、例えばステップS3毎に断続的に行われる。 Further, the control unit 310 controls the rotary table 400 to change the angular position by a predetermined rotation angle, for example (S5). The rotation angle in step S5 is appropriately set (for example, 15 degrees) from the viewpoint of updating the portion imaged by the digital camera 100 of the external appearance of the article 1 on the rotating table 400 for each frame. Rotation of the turntable 400 is performed intermittently, for example, every step S3.

例えば制御部310は、変更した角度位置に基づいて、回転台400による物品1全周分の周回(例えば360度回転)が完了したか否かを判断する(S6)。回転台400による周回が完了していない場合(S6でNO)、制御部310は、新たな角度位置についてステップS2以降の処理を再び行う。ステップS1~S6の繰り返しにより、物品1の全周にわたる撮影結果の動画データおよび照度分布データが取得される。 For example, the control unit 310 determines whether or not the rotation table 400 has completed the entire circumference of the article 1 (eg, 360 degree rotation) based on the changed angular position (S6). If the rotation by the rotary table 400 is not completed (NO in S6), the control unit 310 performs the processing from step S2 onwards again for the new angular position. By repeating steps S1 to S6, video data and illuminance distribution data of the photographed results over the entire circumference of the article 1 are acquired.

例えば、制御部310は、回転台400による周回が完了した場合(S6でYES)、制御部310は、デジタルカメラ100から取得された動画データと、ステップS4毎に生成した反射特性の推定情報とに基づいて、物品1のモデル情報を作成する(S7)。物品1のモデル情報は、例えば3次元形状において配置シミュレーションに用いられる物品1(物体)のモデルを示す第1のモデル情報の一例である。こうした本システム10におけるモデル情報のデータ構造を図8に例示する。 For example, when the rotation by the turntable 400 is completed (YES in S6), the control unit 310 uses the video data acquired from the digital camera 100 and the estimated information on the reflection characteristics generated at each step S4. Model information of article 1 is created based on (S7). The model information of the article 1 is an example of first model information indicating a model of the article 1 (object) used in the placement simulation, for example, in a three-dimensional shape. The data structure of model information in this system 10 is illustrated in FIG.

例えば図8に示すように、本例における物品1のモデル情報は、物品1の全周にわたり物品1の外観を映した撮像画像と、撮像画像上の物品1における反射特性とを含む。当該反射特性は、撮像画像上の異なる位置毎に光が反射される特性を含んでいる。例えば、制御部310は、動画データにおいて別々の角度位置に対応した各フレーム画像において各種位置にて推定された法線方向及び反射率を対応付ける。制御部310は、各フレーム画像から物品1が映る領域を切り出して処理してもよい。こうしたモデル情報は、種々のデータ構造で管理されてもよく、例えば、動画データとそのフレーム毎等のメタ情報として管理されてもよい。又、複数の撮像画像を合成した3次元画像、及び物品1の3次元形状における位置毎に反射特性が対応付けされた反射率モデルが管理されてもよい。 For example, as shown in FIG. 8, the model information of the article 1 in this example includes a captured image showing the appearance of the article 1 over the entire circumference of the article 1, and the reflection characteristics of the article 1 on the captured image. The reflection characteristics include characteristics in which light is reflected at different positions on the captured image. For example, the control unit 310 associates normal directions and reflectances estimated at various positions in each frame image corresponding to different angular positions in the video data. The control unit 310 may cut out and process a region in which the article 1 is shown from each frame image. Such model information may be managed in various data structures, for example, as video data and meta information for each frame thereof. Furthermore, a three-dimensional image obtained by combining a plurality of captured images and a reflectance model in which reflection characteristics are associated with each position in the three-dimensional shape of the article 1 may be managed.

制御部310は、例えば生成した物品1のモデル情報(S7)を記憶部320に格納して、本フローの処理を終了する。 The control unit 310 stores, for example, the generated model information (S7) of the article 1 in the storage unit 320, and ends the processing of this flow.

以上の物品撮影動作によると、デジタルカメラ100で物品1を全周にわたり撮影するのと同時進行で照明装置200により照度分布データを取得して(S1~S6)、物品1全周についての仮想照明を実現するためのモデル情報を得られる(S7)。 According to the above article photographing operation, the digital camera 100 photographs the entire circumference of the article 1, and at the same time, illuminance distribution data is acquired by the illumination device 200 (S1 to S6), and virtual illumination around the entire circumference of the article 1 is obtained. Model information for realizing this can be obtained (S7).

上記のステップS1,S2においては、情報端末300により動画撮影等の動作タイミングが制御される例を説明したが、特に情報端末300により制御されなくてもよい。例えば、デジタルカメラ100及び照明装置200のうちの一方が他方の動作タイミングを制御してもよく、各装置100,200が互いに通信接続されて制御信号の送受信が行われてもよい。 In steps S1 and S2 above, an example has been described in which the timing of operations such as video shooting is controlled by the information terminal 300, but the timing does not need to be particularly controlled by the information terminal 300. For example, one of the digital camera 100 and the lighting device 200 may control the operation timing of the other, and the devices 100 and 200 may be communicatively connected to each other to transmit and receive control signals.

また、上記のステップS5において、情報端末300が回転台400の回転を制御する例を説明したが、情報端末300は回転制御を行わなくてもよい。例えば、回転台400は、デジタルカメラ100又は照明装置200からの指示、或いはユーザ操作等により回転を実行してもよい。あるいは、ユーザの手動で回転されるような回転台400が用いられてもよい。情報端末300は、回転台400から角度位置を示す情報を取得してもよいし、デジタルカメラ100の撮像画像から角度位置を推定してもよい。回転台400の回転は、断続的に限らず、連続的であってもよい。 Further, in step S5 above, an example has been described in which the information terminal 300 controls the rotation of the turntable 400, but the information terminal 300 does not need to control the rotation. For example, the rotating table 400 may rotate in response to an instruction from the digital camera 100 or the lighting device 200, a user operation, or the like. Alternatively, a rotating table 400 that is manually rotated by a user may be used. The information terminal 300 may acquire information indicating the angular position from the rotary table 400 or may estimate the angular position from an image captured by the digital camera 100. The rotation of the turntable 400 is not limited to intermittent rotation, but may be continuous.

ステップS1~S3の繰り返し中に撮像された複数のフレーム画像は、デジタルカメラ100の撮影結果としての合成画像の生成に用いられてよい。例えば、デジタルカメラ100は、こうした特定の角度位置からの複数のフレーム画像に基づいて、深度合成、HDR(ハイダイナミックレンジ)合成、または超解像合成などの各種画像合成を行って、合成画像を生成してもよい。こうした合成画像がステップS7のモデル情報に用いられてもよい。 A plurality of frame images captured while repeating steps S1 to S3 may be used to generate a composite image as a result of photography by the digital camera 100. For example, the digital camera 100 performs various types of image synthesis such as depth synthesis, HDR (high dynamic range) synthesis, or super-resolution synthesis based on a plurality of frame images from such specific angular positions to create a composite image. May be generated. Such a composite image may be used as the model information in step S7.

又、以上の説明では、物品撮影動作(図6)においてデジタルカメラ100と照明装置200とを同時進行で動作させる例を説明したが、物品撮影動作は、特に同時進行で行われなくてもよい。例えば、デジタルカメラ100により物品1全周の撮影を行い、別途、照明装置200による発受光動作を物品1全周分行ってもよい。情報端末300は、こうして各装置100,200により取得された情報を適宜入力して、図6のステップS4以降の処理を行える。 Further, in the above explanation, an example was explained in which the digital camera 100 and the lighting device 200 are operated simultaneously in the article photographing operation (FIG. 6), but the article photographing operation does not have to be performed simultaneously. . For example, the entire circumference of the article 1 may be photographed using the digital camera 100, and the light emitting/receiving operation may be separately performed by the illumination device 200 for the entire circumference of the article 1. The information terminal 300 can appropriately input the information acquired by each device 100, 200 in this way and perform the processing from step S4 onward in FIG.

2-1-1.反射特性の推定処理
図6のステップS4における反射特性の推定処理について、図9~13を用いて説明する。図9は、本システム10における反射特性の推定処理(S4)を説明するためのフローチャートである。
2-1-1. Reflection Characteristic Estimation Process The reflection characteristic estimation process in step S4 of FIG. 6 will be explained using FIGS. 9 to 13. FIG. 9 is a flowchart for explaining the reflection characteristic estimation process (S4) in the present system 10.

まず、本システム10の制御部310は、例えば図6のステップS1~S3において繰り返したステップS1に取得された照度分布データを参照する(S11)。こうした照度分布データは、例えば物品1等の被写体の位置が同じ状態で第1~第3の照明光源211~213の各々における各色の照明光の発光に応じた、各々の受光結果の照度分布データを含む。 First, the control unit 310 of the present system 10 refers to the illuminance distribution data acquired in step S1, which is repeated in steps S1 to S3 in FIG. 6, for example (S11). Such illuminance distribution data is, for example, illuminance distribution data of each light reception result corresponding to the emission of illumination light of each color from each of the first to third illumination light sources 211 to 213 when the position of the object such as the article 1 is the same. including.

図10は、本システム10の照明装置200による1色分の照度分布データD1~D3を例示する。図11は、図10の照度分布データD1を生成する際の照明装置200の動作を説明するための図である。 FIG. 10 illustrates illuminance distribution data D1 to D3 for one color by the illumination device 200 of the present system 10. FIG. 11 is a diagram for explaining the operation of the lighting device 200 when generating the illuminance distribution data D1 of FIG. 10.

図11では、撮影現場15において照明装置200が発光する照明光の光路の一例を示している。図11の例では、発光部210における第1の照明光源211から発光強度L1で発光された照明光が、光線方向Sに出射して、被写体11の表面位置Paにおいて反射されている。こうした照明光の反射光は、被写体11の表面位置Paの法線方向N及び反射係数ρに依存した照度Iにおいて、受光部220における受光位置paにて観測される。 FIG. 11 shows an example of the optical path of illumination light emitted by the illumination device 200 at the shooting site 15. In the example of FIG. 11, the illumination light emitted from the first illumination light source 211 in the light emitting unit 210 at the emission intensity L1 is emitted in the light direction S1 , and is reflected at the surface position Pa of the subject 11. The reflected light of such illumination light is observed at a light receiving position pa in the light receiving unit 220 at an illuminance I that depends on the normal direction N to the surface position Pa of the subject 11 and the reflection coefficient ρ.

光線方向S及び法線方向Nは、それぞれ3次元空間における単位ベクトルで表され、図中ではベクトルを意味する矢印を付している。光線方向Sは、例えば照明光源21毎に予め設定され、既知の設定値とする。被写体11の表面位置Pa毎の法線方向N及び反射係数ρは、未知の推定対象である。本実施形態の照明装置200は、例えば第1の照明光源211からの照明光の反射光の照度I1を受光位置pa毎に取得して、受光部220の受光面全体における照度I1の分布を示す照度分布データD1を生成する。 The light ray direction S1 and the normal direction N are each represented by a unit vector in a three-dimensional space, and arrows indicating vectors are attached in the figure. The light beam direction S1 is set in advance for each illumination light source 21, for example, and is a known setting value. The normal direction N and the reflection coefficient ρ for each surface position Pa of the subject 11 are unknown targets for estimation. The illumination device 200 of this embodiment obtains the illuminance I1 of the reflected light of the illumination light from the first illumination light source 211 for each light receiving position pa, and shows the distribution of the illuminance I1 over the entire light receiving surface of the light receiving unit 220. Illuminance distribution data D1 is generated.

図10(A)は、第1の照明光源211の発光に応じた受光結果の照度分布データD1を例示する。図10(B)は第2の照明光源212の発光に応じた照度分布データD2を例示し、図10(C)は第3の照明光源213の発光に応じた照度分布データD3を例示する。図10(A)~(C)では、照度が大きいほど灰色を淡くするように、濃淡によって照度の大きさを示している。 FIG. 10A illustrates illuminance distribution data D1 as a result of light reception according to light emission from the first illumination light source 211. FIG. 10(B) illustrates illuminance distribution data D2 according to light emission from the second illumination light source 212, and FIG. 10(C) illustrates illuminance distribution data D3 according to light emission from the third illumination light source 213. In FIGS. 10(A) to 10(C), the magnitude of the illuminance is shown by shading so that the gray becomes lighter as the illuminance increases.

図10(A)に例示する照度分布データD1は、撮影現場15の環境下で受光部220が観測可能な空間範囲にわたり、第1の照明光源211からの照明光が被写体11における各種の表面位置Paで反射された反射光の照度分布を示す。こうした照度分布においては、被写体11の各表面位置Paの照度が、照明装置200の受光部220における受光面上の座標系すなわち受光座標(x,y)において、対応する受光位置paに分布する。 The illuminance distribution data D1 illustrated in FIG. The illuminance distribution of reflected light reflected by Pa is shown. In such an illuminance distribution, the illuminance at each surface position Pa of the subject 11 is distributed to the corresponding light receiving position pa in the coordinate system on the light receiving surface of the light receiving unit 220 of the lighting device 200, that is, the light receiving coordinate (x, y).

図10(B)の照度分布データD2では、図10(A)と同じ環境の空間範囲に対して、第1の照明光源211の代わりに第2の照明光源212から照射した照明光に基づき、図10(A)とは異なる照度分布が得られている。図10(C)の照度分布データD3も同様に、第3の照明光源213からの照明光に基づき、図10(A),(B)とは異なる照度分布が得られている。例えば、図10(A)~(C)の間で同じ受光位置paにおいて観測される照度は、対応する被写体11の表面位置Paの法線方向N及び反射係数ρに応じて、互いに異なっている。 In the illuminance distribution data D2 of FIG. 10(B), based on the illumination light irradiated from the second illumination light source 212 instead of the first illumination light source 211 to the spatial range of the same environment as FIG. 10(A), An illuminance distribution different from that in FIG. 10(A) is obtained. Similarly, the illuminance distribution data D3 in FIG. 10(C) has an illuminance distribution different from that in FIGS. 10(A) and (B) based on the illumination light from the third illumination light source 213. For example, the illuminance observed at the same light receiving position pa between FIGS. 10(A) to 10(C) differs depending on the normal direction N of the surface position Pa of the corresponding object 11 and the reflection coefficient ρ. .

本システム10は、例えば照度差ステレオ法により、こうした複数の照明光源211~213による照度分布データD1~D3の間の差異を解析することで、撮影現場15における被写体11の各表面位置Paの法線方向N及び反射係数ρを推定する。なお、法線方向Nは、3次元のベクトル成分に対して単位ベクトルの正規化条件より、推定対象として2変数の自由度を有する。 The present system 10 analyzes the differences between the illuminance distribution data D1 to D3 caused by the plurality of illumination light sources 211 to 213 using, for example, the photometric stereo method, and thereby calculates the method for each surface position Pa of the subject 11 at the shooting site 15. Estimate the line direction N and reflection coefficient ρ. Note that the normal direction N has two variables of freedom as an estimation target due to the unit vector normalization condition for three-dimensional vector components.

例えば、本システム10における制御部310は、各照明光源211~213の照度分布データD1~D3を参照して(S11)、法線方向Nの2変数p,qを用いた反射率マップを作成する(S12)。各照明光源211~213に応じた反射率マップM1~M3を図12に例示する。 For example, the control unit 310 in the present system 10 refers to the illuminance distribution data D1 to D3 of each illumination light source 211 to 213 (S11) and creates a reflectance map using two variables p and q in the normal direction N. (S12). FIG. 12 illustrates reflectance maps M1 to M3 corresponding to each of the illumination light sources 211 to 213.

図12(A)は、図10(A)の照度分布データD1に対応する反射率マップM1を例示する。図12(B)は図10(B)に対応する反射率マップM2を例示し、図12(C)は図10(C)に対応する反射率マップM3を例示する。反射率マップM1~M3は、例えばpq平面において、特定の光源位置からの照明光の反射光が受光される割合の分布を示し、反射光の明るさについての等高線を含む。pq平面は、例えばガウス写像により種々の法線方向Nに対応する2変数p,qの座標系で規定される。 FIG. 12(A) illustrates a reflectance map M1 corresponding to the illuminance distribution data D1 of FIG. 10(A). FIG. 12(B) illustrates a reflectance map M2 corresponding to FIG. 10(B), and FIG. 12(C) illustrates a reflectance map M3 corresponding to FIG. 10(C). The reflectance maps M1 to M3 indicate the distribution of the proportion of reflected light of illumination light from a specific light source position being received, for example in the pq plane, and include contour lines regarding the brightness of the reflected light. The pq plane is defined by a coordinate system of two variables p and q corresponding to various normal directions N, for example, by Gaussian mapping.

制御部310は、こうした複数の照明光源211~213による照度分布データD1~D3と対応する反射率マップM1~M3から、例えば照度差ステレオ法により被写体11の表面位置Paの法線方向N(即ち表面の傾き)と反射係数ρとを推定する演算処理を行う(S13)。制御部310は、例えばランバート面を仮定した次式(1)~(3)を演算する。

Figure 2023136026000002
The control unit 310 determines the normal direction N (i.e., Arithmetic processing is performed to estimate the surface inclination) and the reflection coefficient ρ (S13). The control unit 310 calculates, for example, the following equations (1) to (3) assuming a Lambertian surface.
Figure 2023136026000002

上式(1)~(3)において、Lnは、第nの照明光源211~213による照明光の発光強度を示す(n=1,2,3)。Snは、第nの照明光源211~213からの光線方向を単位ベクトルとして示す。Inは、第nの照明光源211~213による照度分布データD1~D3として受光された照度を示す。又、上式(1)~(3)中の「×」は乗算を示し、「・」はベクトル間の内積を示す。上式(1),(2),(3)は、それぞれ図10(A)~(C)の反射率マップM1,M2,M3に対応する。 In the above equations (1) to (3), Ln represents the emission intensity of the illumination light from the n-th illumination light sources 211 to 213 (n=1, 2, 3). Sn indicates the direction of the light beam from the n-th illumination light sources 211 to 213 as a unit vector. In indicates the illuminance received as the illuminance distribution data D1 to D3 by the n-th illumination light sources 211 to 213. Further, in the above equations (1) to (3), "x" indicates multiplication, and "." indicates an inner product between vectors. The above equations (1), (2), and (3) correspond to reflectance maps M1, M2, and M3 in FIGS. 10(A) to (C), respectively.

上式(1)~(3)においては、例えば法線方向Nの2変数p,qと反射係数ρとの3変数が、推定対象となることから、第1~第3の照明光源211~213による受光結果の情報に基づき、各変数の推定値が求められる。例えば、制御部310は、受光座標(x,y)における受光位置pa毎に、上式(1)~(3)の演算を実行する(S13)。 In the above equations (1) to (3), for example, the three variables p and q in the normal direction N and the reflection coefficient ρ are to be estimated, so the first to third illumination light sources 211 to Based on the information on the light reception result obtained by 213, estimated values of each variable are determined. For example, the control unit 310 executes the calculations of equations (1) to (3) above for each light receiving position pa at the light receiving coordinates (x, y) (S13).

次に、制御部310は、以上のような被写体11の法線方向N及び反射係数ρの推定結果を示す推定情報を、受光座標(x,y)から撮像座標(X,Y)へ変換して、反射特性の推定情報を生成する(S14)。撮像座標(X,Y)は、補正対象の画像データが示す撮像画像上の位置を示す座標系であり、デジタルカメラ100のイメージセンサ115における撮像面上の位置を示す。図13(A),(B)に、それぞれステップS14における変換前後の受光座標(x,y)と撮像座標(X,Y)とを示す。 Next, the control unit 310 converts the estimation information indicating the estimation results of the normal direction N of the subject 11 and the reflection coefficient ρ from the light receiving coordinates (x, y) to the imaging coordinates (X, Y). Then, estimated information on reflection characteristics is generated (S14). The imaging coordinates (X, Y) are a coordinate system indicating the position on the captured image indicated by the image data to be corrected, and indicate the position on the imaging surface of the image sensor 115 of the digital camera 100. 13A and 13B show the light receiving coordinates (x, y) and the imaging coordinates (X, Y) before and after the conversion in step S14, respectively.

ステップS14の座標変換は、例えば、本システム10において撮影現場15におけるデジタルカメラ100と照明装置200との位置関係に応じた三角測量により演算される。この際、被写体距離として、デジタルカメラ100の撮像または照明装置200の受光における焦点距離が用いられてもよい。例えば制御部310は、こうした本システム10における座標変換のための各種情報を、図6のステップS1,S2等で予め取得して、ステップS14の処理を実行する。 The coordinate transformation in step S14 is calculated by, for example, triangulation according to the positional relationship between the digital camera 100 and the lighting device 200 at the shooting site 15 in the present system 10. At this time, the focal length of the image taken by the digital camera 100 or the focal length of the light received by the illumination device 200 may be used as the subject distance. For example, the control unit 310 acquires various types of information for coordinate transformation in this system 10 in advance in steps S1, S2, etc. in FIG. 6, and executes the process in step S14.

制御部310は、例えば動画データにおいて対応するフレーム画像について反射特性の推定情報を生成する(S14)と、反射特性の推定処理(図6のS4)を終了し、ステップS7に進む。 For example, when the control unit 310 generates reflection characteristic estimation information for the corresponding frame image in the video data (S14), it ends the reflection characteristic estimation process (S4 in FIG. 6) and proceeds to step S7.

以上の反射特性の推定処理(S4)によると、物品1などの被写体の撮影環境にて照明装置200における複数の照明光源211~213を用いて得られた照度分布データD1~D3により、被写体11の法線方向N及び反射係数ρが推定できる(S13)。 According to the above reflection characteristic estimation process (S4), the illuminance distribution data D1 to D3 obtained using the plurality of illumination light sources 211 to 213 in the illumination device 200 in the photographing environment of the object such as the article 1, The normal direction N and reflection coefficient ρ can be estimated (S13).

例えば、図6のステップS1~S6で繰り返すステップS4により、制御部310は、対応する角度位置についての反射特性の推定情報をそれぞれ生成する。例えば、制御部310は、角度位置毎の全種類の照度分布データに基づいて、ステップS11~S14と同様の処理を行うことにより、当該角度位置の照度分布データを生成する。あるいは、制御部310は、初期に生成した反射特性の推定情報と、初期よりも後の各回のステップS1の照度分布データを用いて、初期の反射特性の推定情報を補正することにより、対応するフレーム画像についての推定情報を順次、生成してもよい。 For example, in step S4, which is repeated in steps S1 to S6 in FIG. 6, the control unit 310 generates estimated information on the reflection characteristics for the corresponding angular positions. For example, the control unit 310 generates the illuminance distribution data for the angular position by performing the same processing as steps S11 to S14 based on all types of illuminance distribution data for each angular position. Alternatively, the control unit 310 uses the initially generated reflection characteristic estimation information and the illuminance distribution data of each step S1 after the initial stage to correct the initial reflection characteristic estimation information. Estimated information regarding frame images may be generated sequentially.

上記のステップS13では、照度差ステレオ法の推定の演算式(1)~(3)を例示した。本システム10において、ステップS13における推定演算は、特に上式(1)~(3)に限らず、種々の変更が可能である。例えば、照明光源21の個数を4個以上に増やすと共に、連立する演算式を増やしてもよい。 In step S13 above, calculation equations (1) to (3) for estimating the photometric stereo method are illustrated. In this system 10, the estimation calculation in step S13 is not limited to the above equations (1) to (3), and various changes are possible. For example, the number of illumination light sources 21 may be increased to four or more, and the number of simultaneous arithmetic expressions may be increased.

又、上式(1)~(3)ではランバート面の仮定を用いたが、特にこの仮定に限らない種々の演算式が適用されてもよいし、機械学習モデルなどのAI技術が適用されてもよい。制御部310は、ステップS13の推定演算と同様の演算を適用して、各種の推定手法に応じた仮想照明の照明効果を算出できる。 In addition, although the above equations (1) to (3) use the assumption of a Lambertian surface, various calculation formulas may be applied that are not limited to this assumption, and AI techniques such as machine learning models may be applied. Good too. The control unit 310 can apply a calculation similar to the estimation calculation in step S13 to calculate the lighting effect of the virtual illumination according to various estimation methods.

上記のステップS14では照明装置200の受光座標(x,y)とデジタルカメラ100の撮像座標(X,Y)の座標変換に、三角測量を用いる一例を説明した。ステップS14の処理は特に上記に限らず、例えばデジタルカメラ100においてDFD(Depth From Defocus)等により測距が行われてもよい。又、TOF(Time Of Flight)センサ等の測距センサが本システム10において用いられてもよい。また、例えば照明装置200の照度分布データD1~D3に対応する画像とデジタルカメラ100の撮像画像とから、互いの位置関係を推定する各種の画像認識手法が用いられてもよい。こうした画像認識の機械学習モデルなどの各種AI技術を用いてステップS14が実現されてもよい。 In step S14 above, an example in which triangulation is used for coordinate conversion between the light reception coordinates (x, y) of the illumination device 200 and the imaging coordinates (X, Y) of the digital camera 100 has been described. The processing in step S14 is not particularly limited to the above, and distance measurement may be performed in the digital camera 100 using a DFD (Depth From Defocus) or the like, for example. Additionally, a distance measuring sensor such as a TOF (Time Of Flight) sensor may be used in the present system 10. Further, various image recognition techniques may be used to estimate the mutual positional relationship from, for example, images corresponding to the illuminance distribution data D1 to D3 of the lighting device 200 and images captured by the digital camera 100. Step S14 may be realized using various AI techniques such as such a machine learning model for image recognition.

また、以上の説明では、反射特性の推定処理(図6のS4)が、ステップS1~S6の繰り返し中に情報端末300により行われる例を説明した。ステップS4の処理は特にこれに限らず、例えばステップS1~S6の繰り返し後に行われてもよい。 Furthermore, in the above description, an example has been described in which the reflection characteristic estimation process (S4 in FIG. 6) is performed by the information terminal 300 while repeating steps S1 to S6. The process of step S4 is not particularly limited to this, and may be performed, for example, after repeating steps S1 to S6.

又、反射特性の推定処理(S4)は、照明装置200において行われてもよい。照明装置200は、照度分布データの代わりに反射特性の推定情報を、照度分布情報の一例として情報端末300に送信してもよい。 Further, the reflection characteristic estimation process (S4) may be performed in the lighting device 200. The lighting device 200 may transmit reflection characteristic estimation information to the information terminal 300 as an example of the illuminance distribution information instead of the illuminance distribution data.

2-2.背景撮影動作
本システム10において、背景2について照明装置200による情報取得およびデジタルカメラ100による画像撮影を行う動作の一例を、図14~15を用いて説明する。以下では、静止画撮影による本システム10の動作例を説明する。
2-2. Background Photographing Operation An example of the operation of acquiring information about the background 2 by the illumination device 200 and photographing an image by the digital camera 100 in the present system 10 will be described with reference to FIGS. 14 and 15. An example of the operation of the system 10 using still image shooting will be described below.

図14は、本システム10における背景撮影動作を例示するフローチャートである。図15は、図14の背景撮影動作の環境を例示する。図14に例示するフローチャートの各処理は、例えば情報端末300の制御部310によって実行される。 FIG. 14 is a flowchart illustrating a background photographing operation in the present system 10. FIG. 15 illustrates an environment for the background photographing operation of FIG. 14. Each process in the flowchart illustrated in FIG. 14 is executed by, for example, the control unit 310 of the information terminal 300.

本動作例では、例えば図15に示すように、デジタルカメラ100が三脚等により固定配置される。また、照明装置200は、一例として天井設置型を例示している。各装置100,200は、特に物品撮影動作(図7)に用いられたものと同一装置でなくてよい。本動作例においても、情報端末300が各装置100,200にデータ通信可能に接続されることとする。 In this operation example, as shown in FIG. 15, for example, the digital camera 100 is fixedly placed on a tripod or the like. Furthermore, the lighting device 200 is of a ceiling-mounted type as an example. Each device 100, 200 does not have to be the same device used specifically for the article photographing operation (FIG. 7). In this operation example as well, it is assumed that the information terminal 300 is connected to each device 100, 200 so as to be capable of data communication.

例えば、情報端末300の制御部310は、図6のステップS1と同様に、照明装置200に発受光動作を実行させる(S21)。ステップS21において、制御部310は、例えば照明装置200から、第1~第3の照明光源211~213における各色の照明光について全種類の照度分布データを取得する。 For example, the control unit 310 of the information terminal 300 causes the lighting device 200 to perform a light emitting and receiving operation (S21), similar to step S1 in FIG. In step S21, the control unit 310 acquires all types of illuminance distribution data for each color of illumination light from the first to third illumination light sources 211 to 213, for example, from the illumination device 200.

又、例えば制御部310は、デジタルカメラ100に静止画の撮影動作を実行させる(S22)。制御部310は、デジタルカメラ100から撮影結果の画像データを取得する。ステップS21,S22の処理順は、特に限定されない。又、ステップS21,S22において、制御部310は、特に各装置100,200の動作タイミングを制御しなくてもよく、各装置100,200の動作結果の各データを適宜取得してもよい。 Further, for example, the control unit 310 causes the digital camera 100 to perform a still image shooting operation (S22). The control unit 310 acquires image data of a photographed result from the digital camera 100. The processing order of steps S21 and S22 is not particularly limited. Further, in steps S21 and S22, the control unit 310 does not need to particularly control the operation timing of each device 100, 200, and may acquire each data of the operation result of each device 100, 200 as appropriate.

更に、例えば制御部310は、照明装置200による照度分布データに基づいて、背景2についての反射特性の推定処理を行う(S23)。ステップS23において、制御部310は、例えば図9のステップS11~S14と同様の処理を行って、背景2についての反射特性の推定情報を生成する。 Further, for example, the control unit 310 performs a process of estimating the reflection characteristics of the background 2 based on the illuminance distribution data from the illumination device 200 (S23). In step S23, the control unit 310 performs processing similar to steps S11 to S14 in FIG. 9, for example, to generate estimated information on the reflection characteristics for the background 2.

次に、制御部310は、例えば図6のステップS7と同様に、デジタルカメラ100による画像データと、背景2についての反射特性の推定情報とに基づいて、背景2のモデル情報を作成する(S24)。背景2のモデル情報は、物品1のモデル情報と同様に配置シミュレーションにおける背景2のモデルを示す第2のモデル情報の一例である。背景2のモデル情報は、例えばデジタルカメラ100の撮像座標による2次元において、背景2の撮像画像における位置毎に推定された法線方向及び反射率を対応付けて示す。例えば、背景2のモデル情報は、静止画データとそのメタ情報として管理されてもよい。 Next, the control unit 310 creates model information for the background 2 based on the image data obtained by the digital camera 100 and the estimated information on the reflection characteristics for the background 2, for example, similar to step S7 in FIG. 6 (S24). ). The model information for the background 2 is an example of second model information indicating the model for the background 2 in the placement simulation, similar to the model information for the article 1. The model information of the background 2 indicates, for example, the normal direction and reflectance estimated for each position in the captured image of the background 2 in association with each other in two dimensions based on the imaging coordinates of the digital camera 100. For example, model information for background 2 may be managed as still image data and its meta information.

制御部310は、例えば生成した背景2のモデル情報(S24)を記憶部320に格納して、本フローの処理を終了する。 The control unit 310 stores, for example, the generated model information of the background 2 (S24) in the storage unit 320, and ends the processing of this flow.

以上の背景撮影動作によると、配置シミュレーションの背景2に用いる部屋等についても、デジタルカメラ100と照明装置200とを用いて、撮像画像と反射特性の推定情報とを対応付けたモデル情報を得ることができる(S21~S24)。 According to the above-described background photographing operation, it is possible to obtain model information that associates a captured image with estimated information on reflection characteristics using the digital camera 100 and the lighting device 200 for the room, etc. used as the background 2 of the placement simulation. (S21 to S24).

以上の説明では、背景撮影動作において1回の静止画撮影(S22)が行われる動作例を説明したが、複数回の静止画撮影が行われてもよいし、動画撮影が行われてもよい。例えば、図15の例において、デジタルカメラ100を固定した位置において軸回転させながら、異なる向きに応じた複数の撮像画像を取得してもよい。この場合、背景2のモデル情報についても、3次元形状において複数の撮像画像と各々の反射特性が管理されてもよい。 In the above description, an example of the operation in which still image shooting (S22) is performed once in the background shooting operation has been described, but still image shooting may be performed multiple times, or video shooting may be performed. . For example, in the example of FIG. 15, a plurality of captured images may be acquired according to different orientations while rotating the digital camera 100 at a fixed position. In this case, regarding the model information of the background 2 as well, a plurality of captured images and their respective reflection characteristics may be managed in a three-dimensional shape.

また、以上の説明では、照明装置200を用いる背景撮影動作を説明した。本システム10では、背景2について、特に照明装置200を用いなくてもよく、デジタルカメラ100による画像撮影のみ行われてもよい。例えば、制御部310は、背景2の撮像画像に基づいて、画像推定法により背景2の環境光に関する反射特性を推定してもよい。 Furthermore, in the above description, the background photographing operation using the illumination device 200 has been described. In this system 10, the lighting device 200 may not be particularly used for the background 2, and only the digital camera 100 may take an image. For example, the control unit 310 may estimate the reflection characteristics of the background 2 regarding the ambient light based on the captured image of the background 2 using an image estimation method.

また、以上の説明では、背景2のモデル情報に、デジタルカメラ100による撮影結果を用いる例を説明したが、特にこれに限定されない。例えば、背景2のモデル情報は、CG(コンピュータグラフィクス)などで生成された2次元ないし3次元の画像および反射特性の情報で構成されてもよい。こうした背景2のモデル情報を用いても、以下の配置シミュレーション処理を行うことができる。又、物品1のモデル情報についても、物品1の撮影結果の代わりにCGの画像が用いられてもよい。一方、物品1又は背景2の撮影結果を用いることで、シミュレーションされる画像において各被写体の質感などのリアリティを向上できる。 Further, in the above description, an example has been described in which the photographing result by the digital camera 100 is used as the model information of the background 2, but the present invention is not particularly limited to this. For example, the model information of the background 2 may include a two-dimensional or three-dimensional image generated by CG (computer graphics) or the like and information on reflection characteristics. The following placement simulation process can also be performed using the background 2 model information. Also, regarding the model information of the article 1, a CG image may be used instead of the photographed result of the article 1. On the other hand, by using the photographed results of the article 1 or the background 2, it is possible to improve the reality of the texture of each subject in the simulated image.

2-3.配置シミュレーション処理
本実施形態の仮想照明システム10において、以上のように得られる物品1及び背景2の各モデル情報を用いて配置シミュレーションを行う動作について、図16~18を用いて説明する。
2-3. Placement Simulation Process The operation of performing a placement simulation in the virtual lighting system 10 of this embodiment using the model information of the article 1 and the background 2 obtained as described above will be described with reference to FIGS. 16 to 18.

図16は、本システム10における配置シミュレーション処理を例示するフローチャートである。図17は、図16の配置シミュレーション処理の表示例を示す。 FIG. 16 is a flowchart illustrating the placement simulation process in the present system 10. FIG. 17 shows a display example of the placement simulation process of FIG. 16.

図16のフローチャートに示す各処理は、例えば情報端末300の記憶部320に各種モデル情報が格納された状態で開始され、制御部310によって実行される。 Each process shown in the flowchart of FIG. 16 is started, for example, with various model information stored in the storage unit 320 of the information terminal 300, and is executed by the control unit 310.

まず、制御部310は、予め選択された物品1についての配置シミュレーションを行うための画面を表示部340に表示させる(S31)。ステップS31の表示例を図17に示す。 First, the control unit 310 causes the display unit 340 to display a screen for performing a placement simulation for the article 1 selected in advance (S31). A display example in step S31 is shown in FIG.

図17は、本システム10におけるシミュレーション画面の表示例を示す。例えば、情報端末300の表示部340に表示されるシミュレーション画面は、シミュレーション画像欄41と、背景選択欄42と、照明設定欄43とを含む。シミュレーション画像欄41は、物品1の配置シミュレーションを可視化するための欄であり、例えば、物品1のモデル情報によって生成された物品画像G1と、背景2のモデル情報によって生成された背景画像G2とを含んだ各種画像を表示する。 FIG. 17 shows a display example of a simulation screen in the present system 10. For example, the simulation screen displayed on the display unit 340 of the information terminal 300 includes a simulation image field 41, a background selection field 42, and a lighting setting field 43. The simulation image column 41 is a column for visualizing the placement simulation of the article 1. For example, the article image G1 generated by the model information of the article 1 and the background image G2 generated by the model information of the background 2 are displayed. Display various images included.

制御部310は、例えば図17に例示するようなシミュレーション画面を表示部340に表示させた状態で、操作部330を介して各種のユーザ操作を受け付ける(S32~S34)。ステップS31の時点では、シミュレーション画像欄41は、特に背景画像G2を表示せずに物品画像G1を表示してもよい。 The control unit 310 receives various user operations via the operation unit 330 while displaying a simulation screen as illustrated in FIG. 17 on the display unit 340, for example (S32 to S34). At the time of step S31, the simulation image column 41 may display the article image G1 without particularly displaying the background image G2.

制御部310は、例えば背景選択欄42におけるユーザ操作に応じて、配置シミュレーションにおける背景を設定する(S32)。背景選択欄42は、例えば予め設定された複数の背景候補の中から所望の背景を選択するユーザ操作を受け付けるためのサムネイル画像を含む。例えば、制御部310は、ユーザ操作によって選択された背景2のモデル情報を記憶部320から読み出して、シミュレーション画像欄41における背景画像G2として、読み出した背景2のモデル情報における撮像画像を、物品画像G1に重畳して表示させる。 The control unit 310 sets the background in the layout simulation, for example, in response to a user operation in the background selection field 42 (S32). The background selection field 42 includes, for example, a thumbnail image for accepting a user's operation to select a desired background from among a plurality of preset background candidates. For example, the control unit 310 reads out the model information of the background 2 selected by the user's operation from the storage unit 320, and uses the captured image in the read model information of the background 2 as the background image G2 in the simulation image field 41 as the article image. Display it superimposed on G1.

また、制御部310は、例えばシミュレーション画像欄41におけるユーザ操作に応じて、物品1の配置を設定する(S33)。ステップS33では、例えばシミュレーション画像欄41の背景画像G2に対して物品画像G1の位置をシフトしたり、物品画像G1の向きを回転させたりするユーザ操作が入力できる。例えば、制御部310は、回転のユーザ操作に応じて、物品1のモデル情報における全周分のフレーム画像から、ユーザ所望の向きに対応するフレーム画像を抽出し、物品画像G1としてシミュレーション画像欄41に表示させる。 Further, the control unit 310 sets the arrangement of the article 1, for example, according to the user's operation in the simulation image column 41 (S33). In step S33, a user operation can be input to, for example, shift the position of the article image G1 with respect to the background image G2 in the simulation image column 41 or rotate the orientation of the article image G1. For example, in response to the user's rotation operation, the control unit 310 extracts a frame image corresponding to the user's desired orientation from the frame images for the entire circumference in the model information of the article 1, and selects the frame image in the simulation image column 41 as the article image G1. to be displayed.

更に、制御部310は、例えば照明設定欄43におけるユーザ操作に応じて、配置シミュレーションにおける環境光を示す仮想的な照明を設定する(S34)。例えば、照明設定欄43は、仮想的な環境光の強度、色温度、および配光角などの照明パラメータを設定するユーザ操作を受け付ける。制御部310は、例えば背景2のモデル情報に基づき、背景画像G2の撮像時の環境光についての照明パラメータ及び光源位置の推定値を算出する。照明パラメータの推定値は、例えば照明設定欄43における初期値として用いられる。 Further, the control unit 310 sets virtual illumination indicating the environmental light in the layout simulation, for example, in response to a user operation in the illumination setting field 43 (S34). For example, the lighting setting field 43 accepts user operations for setting lighting parameters such as the intensity of virtual environmental light, color temperature, and light distribution angle. The control unit 310 calculates, for example, based on the model information of the background 2, lighting parameters and estimated values of the light source position regarding the environmental light when the background image G2 is captured. The estimated value of the lighting parameter is used as an initial value in the lighting setting field 43, for example.

次に、制御部310は、以上のような背景2、物品1の配置及び仮想照明の設定(S32~S34)に基づいて、シミュレーション画像欄41において、背景2上に配置された物品1として自然な照明効果を付与するように仮想照明の画像処理を行う(S35)。ステップS35の処理について、図18を用いて説明する。 Next, based on the background 2, the arrangement of the article 1, and the virtual illumination settings (S32 to S34) as described above, the control unit 310 displays the natural image of the article 1 placed on the background 2 in the simulation image field 41. Image processing of the virtual illumination is performed to provide a lighting effect (S35). The process of step S35 will be explained using FIG. 18.

図18では、例えば各モデル情報における各撮像画像の撮像座標(X,Y)に対応する3次元の座標系(X,Y,Z)において、環境光を示す仮想照明Eaを例示している。制御部310は、例えば図16のステップS32,S33の設定により背景2から仮想照明Eaの光源位置を推定し、ユーザ操作等から設定された照明パラメータから仮想照明Eaの発光強度La及び光線方向Saを特定する。 In FIG. 18, for example, virtual illumination Ea indicating environmental light is illustrated in a three-dimensional coordinate system (X, Y, Z) corresponding to the imaging coordinates (X, Y) of each captured image in each model information. The control unit 310 estimates the light source position of the virtual illumination Ea from the background 2 according to the settings in steps S32 and S33 in FIG. Identify.

制御部310は、こうした仮想照明Eaの各種パラメータLa,Sa及び被写体11の推定結果の法線方向N及び反射係数ρに基づき、例えば次式(10)のように、仮想照明の照明効果を演算する(S35)。

Figure 2023136026000003
The control unit 310 calculates the illumination effect of the virtual illumination, for example, as in the following equation (10), based on the various parameters La, Sa of the virtual illumination Ea, the normal direction N of the estimation result of the subject 11, and the reflection coefficient ρ. (S35).
Figure 2023136026000003

上式(10)において、Ioは、ステップS35による補正前の元画像の明るさを示し、Ieは補正画像の明るさを示し、例えばそれぞれ(単色の)画素値である。制御部310は、例えば撮像座標(X,Y)における画素位置毎に、上式(10)の演算を行う。こうして、制御部310は、元画像に仮想照明の照明効果を付加する補正結果を示す補正画像が生成される(S35)。 In the above equation (10), Io indicates the brightness of the original image before correction in step S35, and Ie indicates the brightness of the corrected image, and each is a (monochromatic) pixel value, for example. The control unit 310 performs the calculation of the above equation (10) for each pixel position in the imaging coordinates (X, Y), for example. In this way, the control unit 310 generates a corrected image indicating the correction result of adding the lighting effect of the virtual illumination to the original image (S35).

例えばステップS35において、制御部310は、例えば物品1のモデル情報におけるユーザ操作の回転済みのフレームの物品画像G1を元画像として、上式(10)による照明効果を付与する。又、例えば仮想照明Eaの照明パラメータが、ユーザ操作により背景2のモデル情報における環境光の推定値(初期値)から変更された場合、制御部310は、ユーザ操作による変更分について、背景画像G2に対しても上記と同様に照明効果を付与する。制御部310は、設定された物品1の配置にしたがって、照明効果を付与した物品画像G1と背景画像G2とを重畳する画像合成により補正画像を生成して、シミュレーション画像欄41に表示させる。 For example, in step S35, the control unit 310 uses the article image G1 of the rotated frame of the user operation in the model information of the article 1 as the original image, and applies the lighting effect according to the above equation (10). Further, for example, when the lighting parameters of the virtual lighting Ea are changed from the estimated value (initial value) of the environment light in the model information of the background 2 by a user operation, the control unit 310 changes the lighting parameters of the background image G2 based on the changes caused by the user operation. A lighting effect is also applied to the area in the same way as above. The control unit 310 generates a corrected image by superimposing the article image G1 with the lighting effect and the background image G2 in accordance with the set arrangement of the article 1, and causes the corrected image to be displayed in the simulation image field 41.

図16に戻り、制御部310は、例えば、シミュレーション画面において仮想照明の画像処理(S35)の結果の補正画像を表示させた状態で各種のユーザ操作を受け付けて、例えば配置シミュレーションの終了操作が入力されたか否かを判断する(S36)。
例えば、ユーザがシミュレーション画面の各欄41~43において各種設定を変更する操作を行うと、制御部310は、ステップS36でNOに進み、変更された設定を反映するようにステップS32以降の処理を再び行う。これにより、ユーザが設定変更する毎に、制御部310は、変更された設定において自然な照明効果を演算して、例えばシミュレーション画像欄41における補正画像としてユーザに可視化する(S35)。
Returning to FIG. 16, the control unit 310 receives various user operations while displaying a corrected image as a result of virtual illumination image processing (S35) on the simulation screen, and inputs, for example, an operation to end the placement simulation. It is determined whether or not it has been done (S36).
For example, when the user performs an operation to change various settings in each column 41 to 43 of the simulation screen, the control unit 310 proceeds to NO in step S36, and executes the processing from step S32 onwards to reflect the changed settings. Do it again. Thereby, each time the user changes the settings, the control unit 310 calculates a natural lighting effect under the changed settings and visualizes it to the user as a corrected image in the simulation image field 41, for example (S35).

配置シミュレーションの終了操作が入力されると(S36でYES)、制御部310は、例えば最終的に仮想照明の画像処理(S35)で得られた補正画像を示す画像データを、シミュレーション結果として記憶部320に格納する(S37)。 When an operation to end the placement simulation is input (YES in S36), the control unit 310 stores, for example, image data representing a corrected image finally obtained in virtual illumination image processing (S35) in the storage unit as a simulation result. 320 (S37).

制御部310は、例えばシミュレーション結果の画像データの記録(S37)により、図16の配置シミュレーション処理を終了する。 The control unit 310 ends the placement simulation process of FIG. 16, for example, by recording the image data of the simulation result (S37).

以上の配置シミュレーション処理によると、本システム10において物品1及び背景2の撮影時の撮影時に照明装置200を用いて得られる情報に基づいて、ユーザ所望の物品画像G1と背景画像G2との配置において自然な照明効果を実現できる(S35)。 According to the above arrangement simulation processing, the arrangement of the article image G1 and the background image G2 desired by the user is determined based on information obtained using the illumination device 200 when photographing the article 1 and the background 2 in the present system 10. A natural lighting effect can be achieved (S35).

上記のステップS32では、配置シミュレーション処理において物品1が予め設定された状態で背景2をユーザに選択させる例を説明した。本実施形態の配置シミュレーション処理は特にこれに限らず、例えば情報端末300は、背景2が予め設定された状態で、背景2に配置したい物品1を選択するユーザ操作を受け付けてもよい。また、背景2に配置される物品1が複数個、選択可能であってもよい。例えば、情報端末300は、各物品1のモデル情報を予め記憶部320に格納しておくことで、こうした配置シミュレーション処理を上記と同様に行える。 In step S32 above, an example has been described in which the user is asked to select the background 2 with the article 1 set in advance in the placement simulation process. The placement simulation process of this embodiment is not particularly limited to this, and for example, the information terminal 300 may accept a user operation to select the article 1 to be placed on the background 2 with the background 2 set in advance. Further, a plurality of articles 1 placed on the background 2 may be selectable. For example, the information terminal 300 can perform such a placement simulation process in the same manner as described above by storing the model information of each article 1 in the storage unit 320 in advance.

上記のステップS34では、照明設定欄43において環境光の照明パラメータを調整するユーザ操作を受け付ける例を説明した。本システム10の情報端末300は、さらに、環境光の光源位置を調整するユーザ操作を受け付けてもよい。例えば、ユーザは、背景2の部屋に配置したい照明器具、或いは部屋の窓から太陽光が所望の時間帯に応じて入る位置及び向き等を入力してもよい。情報端末300は、こうしたユーザ入力に応じて仮想照明を設定して(S34)、ユーザ所望の仮想照明について自然な照明効果を算出できる(S35)。 In step S<b>34 above, an example has been described in which a user operation for adjusting the illumination parameters of the ambient light is accepted in the illumination setting field 43 . The information terminal 300 of the present system 10 may further receive a user operation to adjust the light source position of the ambient light. For example, the user may input the lighting equipment to be placed in the background 2 room, or the position and direction of sunlight entering from the window of the room, depending on the desired time period. The information terminal 300 can set virtual lighting according to such user input (S34) and calculate a natural lighting effect for the virtual lighting desired by the user (S35).

また、以上のような配置シミュレーション処理は、VR(仮想現実)又はAR(拡張現実)技術により行われてもよい。例えば、図17に代えて、又はこれに加えて、物品1や背景2が、3次元的に表示されてもよい。この場合であっても、予めデジタルカメラ100の撮影時に照明装置200を用いて得られた情報による3次元的なモデル情報を用いて環境光等の照明効果を演算することにより(S35)、3次元の合成画像に自然な照明効果を与えることができる。又、例えばAR技術を適用する場合、背景2として現実の背景が用いられてもよい。 Further, the above arrangement simulation process may be performed using VR (virtual reality) or AR (augmented reality) technology. For example, instead of or in addition to FIG. 17, the article 1 and the background 2 may be displayed three-dimensionally. Even in this case, lighting effects such as ambient light are calculated in advance using three-dimensional model information based on information obtained using the illumination device 200 when photographing with the digital camera 100 (S35). Natural lighting effects can be given to dimensional composite images. Further, for example, when applying AR technology, a real background may be used as the background 2.

又、以上のような配置シミュレーション処理においては、物品1のモデル情報と背景2のモデル情報との双方に照明装置200を用いなくてもよく、一方のモデル情報のみに照明装置200を用いてもよい。この場合であっても、照明装置200を用いたモデル情報について、被写体の反射特性を精度良く再現でき、自然な照明効果を得やすくすることができる。 Furthermore, in the above arrangement simulation process, the lighting device 200 does not have to be used for both the model information of the article 1 and the model information of the background 2, and the lighting device 200 can be used only for one of the model information. good. Even in this case, the reflection characteristics of the subject can be reproduced with high precision with respect to model information using the illumination device 200, making it easier to obtain natural lighting effects.

3.まとめ
以上のように、本実施形態において、情報処理装置の一例である情報端末300は、第1及び第2取得部の一例の通信部350と、制御部310とを備える。第1取得部は、撮像装置の一例のデジタルカメラ100により物品1等の被写体が撮像された画像といった被写体の画像を示す画像データを取得する(S1)。第2取得部は、照明装置200の複数の光源位置から被写体に照射した照明光による分布を示す照度分布情報の一例の照度分布データを取得する(S2)。制御部310は、取得された画像データ及び照度分布情報に基づいて、被写体の撮像画像と、撮像画像における位置毎に被写体が可視光等の光を反射する特性とを含むモデル情報を生成する(S7)。
3. Summary As described above, in this embodiment, the information terminal 300, which is an example of an information processing device, includes the communication unit 350, which is an example of first and second acquisition units, and the control unit 310. The first acquisition unit acquires image data representing an image of a subject, such as an image of the subject such as article 1, captured by the digital camera 100, which is an example of an imaging device (S1). The second acquisition unit acquires illuminance distribution data as an example of illuminance distribution information indicating the distribution of illumination light irradiated onto the subject from a plurality of light source positions of the illumination device 200 (S2). Based on the acquired image data and illuminance distribution information, the control unit 310 generates model information including a captured image of the subject and a characteristic of the subject reflecting light such as visible light for each position in the captured image ( S7).

以上の情報端末300によると、デジタルカメラ100による被写体の画像データと照明装置200による被写体の照度分布情報に基づき生成されるモデル情報により、仮想照明システム10において被写体の画像における自然な照明効果を実現し易くすることができる。被写体の画像は、デジタルカメラ100の撮像画像に限らず、撮像画像に基づいて生成される画像であってもよいし、CG画像であってもよい。 According to the information terminal 300 described above, the virtual lighting system 10 realizes a natural lighting effect in the image of the object using the model information generated based on the image data of the object obtained by the digital camera 100 and the illuminance distribution information of the object obtained by the illumination device 200. It can be made easier. The image of the subject is not limited to the image captured by the digital camera 100, but may be an image generated based on the captured image, or may be a CG image.

本実施形態の情報端末300において、第1取得部は、被写体が互いに異なる向きから撮像された複数の撮像画像、又は一枚の撮像画像を示す画像データを取得する(S2、S22)。モデル情報は、こうした撮像画像に基づき被写体の画像を示す。すなわち、モデル情報における被写体の画像は、上記の撮像画像で構成される。例えば、被写体の画像は、撮像画像自体または撮像画像に各種画像処理を施した画像であってもよいし、複数の撮像画像による合成画像であってもよい。こうした実際の撮像画像を用いることにより、画像合成シミュレーションにおいて被写体のリアリティを向上できる。被写体の画像は、必ずしも撮像画像に基づかなくてもよく、CG画像であってもよい。 In the information terminal 300 of this embodiment, the first acquisition unit acquires image data indicating a plurality of captured images in which the subject is captured from different directions, or one captured image (S2, S22). The model information indicates an image of the subject based on such a captured image. That is, the image of the subject in the model information is composed of the above-mentioned captured image. For example, the image of the subject may be the captured image itself, an image obtained by performing various image processing on the captured image, or a composite image of multiple captured images. By using such actual captured images, the reality of the subject can be improved in the image synthesis simulation. The image of the subject does not necessarily have to be based on a captured image, and may be a CG image.

本実施形態において、モデル情報は、複数の撮像画像と、各撮像画像における位置毎に被写体の特性とを含む(S7、図7参照)。これにより、複数の向きにおける被写体の画像に自然な照明効果を与えられ、仮想照明システム10における配置シミュレーション等を行い易くできる。 In this embodiment, the model information includes a plurality of captured images and the characteristics of the subject for each position in each captured image (S7, see FIG. 7). As a result, natural lighting effects can be applied to images of objects in a plurality of orientations, making it easier to perform placement simulations and the like in the virtual lighting system 10.

本実施形態の情報端末300において、モデル情報は、被写体の全周の少なくとも一部にわたり被写体の画像を含む(S6,S7、図7参照)。すなわち、モデル情報における被写体の画像は、被写体の全周の少なくとも一部にわたる画像である。これにより、仮想照明システム10の配置シミュレーションにおいて被写体の全周又はその一部にわたり自然な照明効果を得られる。 In the information terminal 300 of this embodiment, the model information includes an image of the subject over at least a portion of the entire circumference of the subject (S6, S7, see FIG. 7). That is, the image of the subject in the model information is an image covering at least part of the entire circumference of the subject. Thereby, in the placement simulation of the virtual lighting system 10, a natural lighting effect can be obtained over the entire circumference of the subject or a portion thereof.

本実施形態の情報端末300において、モデル情報において被写体が光を反射する特性は、撮像画像における位置毎の被写体の法線方向Nと反射率ρとのうちの少なくとも一方を含む(S4、図11参照)。こうした被写体の反射特性を反映して照明効果が演算でき、被写体の画像において自然な照明効果を実現し易くできる。 In the information terminal 300 of the present embodiment, the characteristic that the object reflects light in the model information includes at least one of the normal direction N and the reflectance ρ of the object for each position in the captured image (S4, FIG. reference). The lighting effect can be calculated by reflecting the reflection characteristics of the object, making it easier to realize natural lighting effects in the image of the object.

本実施形態において、第2取得部は、例えば第1~第3の照明光源211~213により互いに異なる複数の光源位置から照明光を個別に発光する照明装置200によって得られる照度分布情報を取得する。照度分布情報は、複数の光源位置からの各照明光の反射光がそれぞれ受光された複数の照度分布を含む(図10参照)。こうした照明装置200を用いて、被写体の画像において自然な照明効果を実現し易くできる。 In the present embodiment, the second acquisition unit acquires illuminance distribution information obtained by the illumination device 200 that individually emits illumination light from a plurality of mutually different light source positions, for example, by the first to third illumination light sources 211 to 213. . The illuminance distribution information includes a plurality of illuminance distributions in which reflected light of each illumination light from a plurality of light source positions is received, respectively (see FIG. 10). Using such a lighting device 200, it is possible to easily achieve a natural lighting effect in an image of a subject.

本実施形態における情報端末300は、記憶部320と、操作部330と、制御部310と、表示部340とを備える。記憶部320は、被写体の画像を含むモデル情報を格納する。操作部330は、被写体に対する仮想的な照明に関するユーザ操作を受け付ける(S32~S34)。制御部310は、ユーザ操作に応じて、設定される仮想的な照明に応じたモデル情報に対する照明効果を演算するシミュレーション処理の一例として配置シミュレーション処理を制御する(S31~S37)。表示部340は、例えばシミュレーション画像欄41(図17)に、制御部310のシミュレーション処理によって照明効果が付与された画像を表示する。例えば物品1のモデル情報は、照明装置200から照明光を物品1に照射した際の照度分布データに基づいて、物品1の画像における位置毎にその反射特性を示す。制御部310は、モデル情報が示す被写体の反射特性に基づいて、照明効果を被写体の画像に付与するようにシミュレーション処理を行う(S35)。この情報端末300によると、モデル情報を用いて、本システム10の配置シミュレーション等において、被写体の画像において自然な照明効果を実現し易くすることができる。 The information terminal 300 in this embodiment includes a storage section 320, an operation section 330, a control section 310, and a display section 340. The storage unit 320 stores model information including an image of a subject. The operation unit 330 receives user operations regarding virtual illumination of the subject (S32 to S34). The control unit 310 controls a placement simulation process as an example of a simulation process that calculates a lighting effect for model information according to virtual lighting that is set in accordance with a user operation (S31 to S37). The display unit 340 displays, for example, in a simulation image column 41 (FIG. 17), an image to which a lighting effect has been added by the simulation process of the control unit 310. For example, the model information of the article 1 indicates the reflection characteristics for each position in the image of the article 1 based on illuminance distribution data when the illumination light is irradiated onto the article 1 from the illumination device 200. The control unit 310 performs simulation processing to apply a lighting effect to the image of the subject based on the reflection characteristics of the subject indicated by the model information (S35). According to this information terminal 300, using the model information, it is possible to easily realize a natural lighting effect in an image of a subject in a layout simulation of the present system 10, etc.

本実施形態の情報端末300において、記憶部320に格納されるモデル情報は、物品1のモデル情報(第1のモデル情報)と背景2のモデル情報(第2のモデル情報)とを含む。第1及び第2のモデル情報のうちの少なくとも一方は、照明装置200からの照明光による分布に基づいて、物品1(物体)と背景2とのうちの対応する被写体の反射特性を示す。操作部330は、背景2における物品1の配置を指定するユーザ操作(S33)を受け付ける。制御部310は、背景2における環境光を示すように仮想的な照明を設定して、配置シミュレーションの画像処理を行う(S35)。これにより、背景2の環境光として自然な照明効果を物品画像G1に与えることができる。 In the information terminal 300 of this embodiment, the model information stored in the storage unit 320 includes model information of the article 1 (first model information) and model information of the background 2 (second model information). At least one of the first and second model information indicates the reflection characteristics of the corresponding subject of the article 1 (object) and the background 2 based on the distribution of illumination light from the illumination device 200. The operation unit 330 receives a user operation (S33) that specifies the arrangement of the article 1 in the background 2. The control unit 310 sets virtual illumination to indicate the environmental light in the background 2, and performs image processing for the placement simulation (S35). Thereby, a natural lighting effect can be given to the article image G1 as the background 2 environmental light.

本実施形態の情報端末300において、操作部330は、仮想的な照明に関するパラメータの一例の照明パラメータを調整するユーザ操作を受け付ける(S34)。制御部310は、調整された照明パラメータに応じた照明効果を被写体の画像に付与するように画像処理を行う(S35)。これにより、ユーザ所望の仮想照明について、被写体の画像において自然な照明効果を実現し易くできる。 In the information terminal 300 of this embodiment, the operation unit 330 accepts a user operation to adjust a lighting parameter, which is an example of a parameter related to virtual lighting (S34). The control unit 310 performs image processing so as to apply a lighting effect to the image of the subject according to the adjusted lighting parameters (S35). Thereby, it is possible to easily realize a natural lighting effect in the image of the subject regarding the virtual lighting desired by the user.

本実施形態の情報端末300において、例えば図6の物品撮影動作で生成された物品1のモデル情報は、物品1が互いに異なる向きから撮像された複数の撮像画像に基づき、物品1の全周の少なくとも一部にわたり物品1の画像を示す。制御部310は、操作部330において被写体の向きを変更するユーザ操作(S33)に応じて、変更された向きにおける物品1の画像に照明効果を付与して表示部340に表示させる(S35)。このように、モデル情報を用いて、複数の向きにおける被写体の画像に自然な照明効果を実現できる。 In the information terminal 300 of the present embodiment, the model information of the article 1 generated by the article photographing operation shown in FIG. 1 shows an image of article 1 over at least a portion thereof; In response to a user operation to change the orientation of the subject on the operation unit 330 (S33), the control unit 310 applies a lighting effect to the image of the article 1 in the changed orientation and displays it on the display unit 340 (S35). In this way, the model information can be used to achieve natural lighting effects for images of objects in multiple orientations.

本実施形態の情報端末300において、モデル情報は、例えば反射特性の推定処理(S4)により、撮像画像の撮影環境において照明装置200から被写体に照射した照明光による分布に基づき、撮像画像における位置毎に被写体が光を反射する特性を示す。こうしたモデル情報により、被写体の画像において自然な照明効果を実現し易くできる。 In the information terminal 300 of this embodiment, the model information is generated for each position in the captured image based on the distribution of illumination light irradiated from the illumination device 200 to the subject in the shooting environment of the captured image, for example, through reflection characteristic estimation processing (S4). shows the characteristic of the subject reflecting light. Such model information makes it easier to achieve natural lighting effects in the image of the subject.

本実施形態において、仮想照明システム10は、被写体を撮像して画像データを生成するデジタルカメラ100と、被写体に照明光を照射して照明光による分布を示す情報を取得する照明装置200と、情報端末300とを備える。本システム10によると、デジタルカメラ100及び照明装置200により取得された情報を情報端末300で用いて、被写体の画像において自然な照明効果を実現し易くすることができる。 In this embodiment, the virtual illumination system 10 includes a digital camera 100 that captures an image of a subject and generates image data, a lighting device 200 that irradiates the subject with illumination light and obtains information indicating the distribution of the illumination light, and information and a terminal 300. According to the present system 10, the information acquired by the digital camera 100 and the lighting device 200 can be used in the information terminal 300 to facilitate the realization of natural lighting effects in the image of the subject.

(実施形態2)
以下、図19~20を参照して、本開示の実施形態2を説明する。実施形態1では、仮想照明システム10を配置シミュレーションに適用する例を説明した。実施形態2では、仮想照明システム10を映像制作の用途に適用する例について説明する。
(Embodiment 2)
Embodiment 2 of the present disclosure will be described below with reference to FIGS. 19 and 20. In the first embodiment, an example in which the virtual lighting system 10 is applied to a placement simulation has been described. In the second embodiment, an example in which the virtual lighting system 10 is applied to video production will be described.

以下、実施形態1に係る仮想照明システム10と同様の構成、動作の説明は適宜、省略して、本実施形態に係る仮想照明システム10を説明する。 Hereinafter, the virtual illumination system 10 according to the present embodiment will be described, omitting the description of the same configuration and operation as the virtual illumination system 10 according to the first embodiment as appropriate.

図19は、実施形態2に係る仮想照明システム10の動作を例示するフローチャートである。図19のフローチャートに示す処理は、例えばユーザ操作により動画の撮影開始が指示されたときに開始する。 FIG. 19 is a flowchart illustrating the operation of the virtual lighting system 10 according to the second embodiment. The process shown in the flowchart of FIG. 19 starts, for example, when a user operation instructs to start shooting a moving image.

本実施形態において、仮想照明システム10は、例えば撮影者などのユーザが所望の演出において動画等の映像作品を制作する用途に適用される。本システム10は、デジタルカメラ100による動画撮影時に照明装置200を用いることで、事後的に情報端末300等で照明効果を付与することを可能にする。本システム10によると、特に高難度な照明機材の準備を行う必要なく、後処理で所望の照明効果を編集できるといった自由度の高い映像制作を実現可能にすることができる。 In this embodiment, the virtual lighting system 10 is applied to a use in which a user such as a photographer produces a video work such as a moving image in a desired direction. This system 10 uses the lighting device 200 when shooting a video with the digital camera 100, thereby making it possible to add lighting effects after the fact using the information terminal 300 or the like. According to the present system 10, it is possible to realize video production with a high degree of freedom in which desired lighting effects can be edited in post-processing without the need to prepare particularly difficult lighting equipment.

本システム10における動画の撮影動作(図19)において、例えば制御部310は、照明装置200に、照明光の種類毎の発受光動作を実行させるように制御信号を送信する(S1A)。又、例えば制御部310は、デジタルカメラ100に、動画のフレーム毎の撮影動作を実行させるように制御信号を送信する(S2A)。 In the video shooting operation of the present system 10 (FIG. 19), for example, the control unit 310 transmits a control signal to cause the illumination device 200 to perform a light emission/reception operation for each type of illumination light (S1A). Further, for example, the control unit 310 transmits a control signal to the digital camera 100 to cause the digital camera 100 to perform a shooting operation for each frame of the moving image (S2A).

本実施形態のステップS1A,S2Aにおいて、例えば制御部310は、実施形態1(図6)のステップS1,S2と同様の処理において、照明装置200とデジタルカメラ100とを排他的に動作させるように各々の制御信号を生成する。こうした排他制御については後述する(図20参照)。 In steps S1A and S2A of this embodiment, for example, the control unit 310 causes the lighting device 200 and the digital camera 100 to operate exclusively in the same process as steps S1 and S2 of the first embodiment (FIG. 6). Generate each control signal. Such exclusive control will be described later (see FIG. 20).

又、例えば制御部310は、デジタルカメラ100により撮影されるフレーム毎に、反射特性の推定処理を行う(S4A)。ステップS4Aの処理は、現在以前の所定数のフレームにおいて照明装置200により取得された照度分布データに基づいて、実施形態1の反射特性の推定処理(図6のS4)と同様に行われる。 Further, for example, the control unit 310 performs reflection characteristic estimation processing for each frame photographed by the digital camera 100 (S4A). The process in step S4A is performed in the same way as the reflection characteristic estimation process in the first embodiment (S4 in FIG. 6) based on the illuminance distribution data acquired by the illumination device 200 in a predetermined number of frames before the current one.

制御部310は、例えば動画の撮影終了が指示されていないとき(S10でNO)、ステップS1A以降の処理を繰り返す。例えばユーザ操作による動画の撮影終了の指示が入力されると(S10でYES)、制御部310は、撮影された動画データとフレーム毎の反射率の推定情報とを適宜、関連付けて記憶部240等に格納して、図19のフローに示す処理を終了する。 For example, when the end of video shooting is not instructed (NO in S10), the control unit 310 repeats the processing from step S1A onward. For example, when an instruction to end video shooting is input by a user operation (YES in S10), the control unit 310 appropriately associates the captured video data with the estimated information of the reflectance for each frame and stores it in the storage unit 240, etc. The process shown in the flowchart of FIG. 19 ends.

以上の処理によると、デジタルカメラ100による動画撮影と同時進行で照明装置200を動作させることで、撮影される動画におけるカメラワーク或いは被写体の動き等に応じて刻々と変化する照度分布データを取得することができる。この際、照度分布データを取得するための発光が動画データに映ってしまい不自然な照明効果等の影響を及ぼす課題が考えられる。本システム10において、こうした新たな課題を解決するための排他制御について、図20を用いて説明する。 According to the above process, by operating the illumination device 200 simultaneously with video shooting by the digital camera 100, illuminance distribution data that changes moment by moment according to the camera work or movement of the subject in the video being shot can be obtained. be able to. At this time, there may be a problem that the light emission for obtaining the illuminance distribution data is reflected in the video data, resulting in unnatural lighting effects and the like. Exclusive control for solving these new problems in the present system 10 will be explained using FIG. 20.

図20は、本システム10における排他制御の動作例を説明するためのタイミングチャートである。図20(A)は、照明装置200の発光タイミングを例示する。図20(B)は、デジタルカメラ100の露光タイミングを例示する。 FIG. 20 is a timing chart for explaining an example of exclusive control operation in this system 10. FIG. 20(A) illustrates the light emission timing of the lighting device 200. FIG. 20(B) illustrates the exposure timing of the digital camera 100.

図20の例では、動画のフレーム期間T1中に、露光マスク期間T11と、露光期間T12とが設けられている。例えば、露光マスク期間T11はステップS1に対応し、露光期間T12はステップS2に対応する。例えば、1/60秒のフレーム期間T1に対して、露光マスク期間T11を3ミリ秒に設定すると、露光期間T12を14ミリ秒程度までに確保できる。なお、各期間T1,T11,T12は上記に限らず、適宜設定可能である。 In the example of FIG. 20, an exposure mask period T11 and an exposure period T12 are provided in the frame period T1 of the moving image. For example, the exposure mask period T11 corresponds to step S1, and the exposure period T12 corresponds to step S2. For example, if the exposure mask period T11 is set to 3 milliseconds for a frame period T1 of 1/60 seconds, the exposure period T12 can be secured to about 14 milliseconds. Note that the periods T1, T11, and T12 are not limited to those described above, and can be set as appropriate.

本動作例において、照明装置200は、例えば図20(A)に示すように、フレーム期間T1において露光マスク期間T11中に、照明光を発光して受光する動作を行う(S1A)。その後の露光期間T12中に、照明装置200は、照明光の発光を停止し、露光マスク期間T11中の受光結果に基づいて照度分布データを生成する。 In this operation example, the illumination device 200 performs an operation of emitting and receiving illumination light during an exposure mask period T11 in a frame period T1 (S1A), as shown in FIG. 20A, for example. During the subsequent exposure period T12, the illumination device 200 stops emitting illumination light, and generates illuminance distribution data based on the light reception result during the exposure mask period T11.

例えば、照明装置200は、露光マスク期間T11(S1A)の1回あたりに、第1~第3の照明光源211~213における各色の発光のうちの1種類の発光を行う。照明装置200は、露光マスク期間T11中に、複数種類の発受光を行ってもよい。例えば、上記の動作例において、照明装置200は、動画撮影の初期段階に、全種類の発受光を行ってもよい。 For example, the illumination device 200 emits one type of light of each color in the first to third illumination light sources 211 to 213 during each exposure mask period T11 (S1A). The illumination device 200 may emit and receive multiple types of light during the exposure mask period T11. For example, in the above operation example, the illumination device 200 may emit and receive all types of light in the initial stage of video shooting.

一方、デジタルカメラ100は、例えば図20(B)に示すように、フレーム期間T1において照明光が発光される露光マスク期間T11中にはイメージセンサ115を露光させず、照明光の発光が停止される露光期間T12中にイメージセンサ115を露光させる(S2A)。 On the other hand, as shown in FIG. 20B, for example, the digital camera 100 does not expose the image sensor 115 during the exposure mask period T11 in which the illumination light is emitted in the frame period T1, and the emission of the illumination light is stopped. The image sensor 115 is exposed during the exposure period T12 (S2A).

本システム10では、以上のようにデジタルカメラ100の動画撮影における露光と照明装置200の発光とを排他制御することで、動画撮影中の照度分布データが取得できると共に、照度分布データを得るための発光が動画に影響を及ぼすような事態を回避できる。よって、動画中で動く被写体等の撮像画像に対して、自然な照明効果を実現し易くすることができる。 In this system 10, as described above, by exclusively controlling the exposure during video shooting of the digital camera 100 and the light emission of the illumination device 200, it is possible to obtain illuminance distribution data during video shooting, and also to obtain the illuminance distribution data. It is possible to avoid a situation where the light emission affects the video. Therefore, it is possible to easily realize a natural lighting effect for a captured image of a moving subject or the like in a moving image.

以上のように、本実施形態における情報処理装置の一例の情報端末300は、デジタルカメラ100により被写体が撮像された画像を示す画像データ、及び、照明装置200から被写体に照射した照明光による分布を示す照度分布情報を取得する取得部の一例の通信部350と、デジタルカメラ100および照明装置200を制御する制御部310とを備える。デジタルカメラ100は、所定周期において被写体を順次、撮像して、画像データを生成する。制御部310は、所定周期において、デジタルカメラ100が被写体を撮像していないときに、照明装置200から照明光を被写体に照射させ、照明装置200が照明光を被写体に照射していないときに、デジタルカメラ100に被写体を撮像させる(S1A,S2A、図20参照)。 As described above, the information terminal 300, which is an example of the information processing device in this embodiment, uses image data indicating an image of a subject captured by the digital camera 100 and the distribution of illumination light irradiated onto the subject from the lighting device 200. The communication unit 350 is an example of an acquisition unit that acquires the illuminance distribution information shown in FIG. The digital camera 100 generates image data by sequentially capturing images of a subject at a predetermined period. The control unit 310 causes the illumination device 200 to irradiate the subject with illumination light when the digital camera 100 is not capturing an image of the subject in a predetermined period, and when the illumination device 200 is not irradiating the subject with illumination light, The digital camera 100 is caused to image the subject (S1A, S2A, see FIG. 20).

こうした情報処理装置によっても、仮想照明システム10にて、被写体の画像において自然な照明効果を実現し易くすることができる。又、こうした情報処理装置は、画像データ又は照度分布情報の何れかを取得するものであってもよい。例えば、デジタルカメラ100又は照明装置200が情報処理装置の一例であってもよい。 Even with such an information processing device, it is possible to easily realize a natural lighting effect in the image of the subject using the virtual lighting system 10. Further, such an information processing device may acquire either image data or illuminance distribution information. For example, the digital camera 100 or the lighting device 200 may be an example of the information processing device.

(他の実施形態)
以上のように、本出願において開示する技術の例示として、実施形態1~2を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施の形態にも適用可能である。また、上記各実施形態で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。
(Other embodiments)
As described above, Embodiments 1 and 2 have been described as examples of the technology disclosed in this application. However, the technology in the present disclosure is not limited to this, and can also be applied to embodiments in which changes, replacements, additions, omissions, etc. are made as appropriate. Furthermore, it is also possible to create a new embodiment by combining the components described in each of the above embodiments.

上記の実施形態1では、回転台400を用いた物品撮影動作について説明したが、物品撮影動作は、特に回転台400を用いずに行われてもよい。こうした変形例について、図21を用いて説明する。 In the first embodiment described above, the article photographing operation using the rotary table 400 has been described, but the article photographing operation may also be performed without using the rotary table 400. Such a modification will be explained using FIG. 21.

図21は、物品撮影動作の変形例1の環境を例示する。本変形例では、回転台400の代わりに、水平面などの同一平面上で物品1の周囲を囲むレール450が配置されている。レール450は、デジタルカメラ100の支持部をスライド移動可能に構成される。本変形例では、図6と同様の動作において、回転台400により物品1を回転させる代わりに、レール450に沿ってデジタルカメラ100を物品1の全周囲にわたり回転させながら、動画等を撮影する。これによっても、物品1の全周にわたる撮像画像を取得して、上記の例と同様に物品1のモデル情報を作成できる。 FIG. 21 illustrates the environment of Modified Example 1 of the article photographing operation. In this modification, instead of the turntable 400, a rail 450 that surrounds the article 1 on the same plane, such as a horizontal plane, is arranged. The rail 450 is configured to be slidable on the support portion of the digital camera 100. In this modification, in the same operation as in FIG. 6, instead of rotating the article 1 using the rotary table 400, the digital camera 100 is rotated around the entire circumference of the article 1 along the rail 450 to take a video or the like. With this also, it is possible to obtain captured images of the entire circumference of the article 1 and create model information of the article 1 in the same way as in the above example.

又、上記のような物品撮影動作は、レール450を用いる代わりに、デジタルカメラ100を用いる撮影者が物品1の周囲を移動しながら撮影することによって行われてもよい。また、物品撮影動作においては、複数の照明装置200が用いられてもよい。例えば、物品1の周囲に複数の照明装置200が配置されてもよい。 Furthermore, instead of using the rail 450, the object photographing operation as described above may be performed by a photographer using the digital camera 100 moving around the object 1 while taking the photograph. Further, in the article photographing operation, a plurality of illumination devices 200 may be used. For example, a plurality of lighting devices 200 may be arranged around the article 1.

また、上記の各実施形態では、物品1の全周にわたる物品撮影動作について説明したが、特に物品1の全周でなくてもよい。例えば、デジタルカメラ100は、物品1の全周のうちの一部についての動画を撮影してもよいし、物品1に対して互いに異なる向きから複数回の静止画等の撮影を行ってもよい。これによっても、物品1が互いに異なる向きから撮像された複数の撮像画像についてモデル情報を得られ、配置シミュレーションに利用できる。 Further, in each of the embodiments described above, the article photographing operation is described over the entire circumference of the article 1, but the photographing operation does not necessarily have to be performed over the entire circumference of the article 1. For example, the digital camera 100 may take a video of a portion of the entire circumference of the article 1, or may take still images, etc. of the article 1 multiple times from different directions. . This also allows model information to be obtained for a plurality of images of the article 1 taken from different directions, which can be used for placement simulation.

又、上述した物品撮影動作における物品1の全周又はその一部は、特に同一平面上に限らず、立体的であってもよい。こうした変形例について、図22を用いて説明する。 Further, the entire circumference of the article 1 or a portion thereof in the above-described article photographing operation is not limited to being on the same plane, but may be three-dimensional. Such a modification will be explained using FIG. 22.

図22は、物品撮影動作の変形例2を説明するための図である。本変形例では、上記の変形例のレール450の代わりに、デジタルカメラ100が物品1の周囲を立体的にスライド可能なスライダ455が用いられる。スライダ455は、例えばレール450と同様の構成に加えて、デジタルカメラ100がスライド移動する範囲を、水平面等から外す立体的な回転が可能な回転軸を有する。本実施形態において、デジタルカメラ100の物品撮影動作(図6)は、例えばこうしたスライダ455により、全球面または半球面における物品1の全周において所望の範囲を撮影してもよい。これにより、物品1のモデル情報(図6のS7)における3次元的なモデリングを高精度にしたり、配置シミュレーション等においてユーザが物品1を閲覧する際に物品1の向きを変更可能な方向(図17参照)の自由度を向上したりすることができる。 FIG. 22 is a diagram for explaining a second modification of the article photographing operation. In this modification, a slider 455 that allows the digital camera 100 to slide three-dimensionally around the article 1 is used instead of the rail 450 of the above modification. The slider 455 has the same configuration as the rail 450, for example, and also has a rotation axis capable of three-dimensional rotation to remove the slide movement range of the digital camera 100 from a horizontal plane or the like. In the present embodiment, in the article photographing operation (FIG. 6) of the digital camera 100, for example, the slider 455 may be used to photograph a desired range around the entire circumference of the article 1 on the entire spherical surface or hemispherical surface. As a result, the three-dimensional modeling in the model information of the article 1 (S7 in FIG. 6) can be made highly accurate, and the direction in which the orientation of the article 1 can be changed when the user views the article 1 in a placement simulation etc. ( 17)).

また、上記の各実施形態では、物品1等のモデル情報の一例を説明したが、モデル情報はこれに限定されない。本実施形態の仮想照明システム10において、モデル情報は、デジタルカメラ100により被写体を撮像した画像データと、照明装置200による被写体の照度分布データとを互いに関連付けた情報であってもよい。例えば図6のフローと同様の処理において、情報端末300の制御部310は、ステップS4の処理を特に行わず、ステップS7に代えて上記関連付けによるモデル情報を生成してもよい。こうしたモデル情報に基づいて、例えば配置シミュレーション処理(図16)の実行時に、ステップS4と同様の処理が行われてもよい。 Further, in each of the embodiments described above, an example of model information of the article 1 and the like has been described, but the model information is not limited to this. In the virtual lighting system 10 of the present embodiment, the model information may be information in which image data obtained by capturing an image of a subject using the digital camera 100 and illuminance distribution data of the subject obtained by the illumination device 200 are associated with each other. For example, in a process similar to the flow of FIG. 6, the control unit 310 of the information terminal 300 may generate model information based on the above association instead of step S7, without particularly performing the process of step S4. Based on such model information, a process similar to step S4 may be performed, for example, when executing the placement simulation process (FIG. 16).

また、上記の各実施形態では、仮想照明システム10の各種情報処理が情報端末300により行われる例を説明した。本システム10は、特にこれに限定されず、例えば情報端末300とデータ通信するサーバ装置をさらに用いてもよい。例えば、配置シミュレーション処理(図16)における仮想照明の演算処理(S35)がサーバ装置で行われてもよい。情報端末300はこうしたサーバ装置にステップS32~S34で得られた情報を送信し、ステップS35の処理結果をサーバ装置から受信してもよい。又、各種撮影動作においても、反射特性の推定処理(S4,S23)と各種モデル情報の生成(S7,S24)の一部又は全てがサーバ装置で行われてもよい。 Further, in each of the above embodiments, an example has been described in which various information processing of the virtual lighting system 10 is performed by the information terminal 300. The present system 10 is not particularly limited to this, and may further include, for example, a server device that communicates data with the information terminal 300. For example, the virtual lighting calculation process (S35) in the placement simulation process (FIG. 16) may be performed by the server device. The information terminal 300 may transmit the information obtained in steps S32 to S34 to such a server device, and may receive the processing result in step S35 from the server device. Also, in various photographing operations, part or all of the reflection characteristic estimation process (S4, S23) and the generation of various model information (S7, S24) may be performed by the server device.

また、上記の各実施形態では、背景2上で物品1の配置シミュレーション処理を行う仮想照明システム10を説明した。本実施形態において、仮想照明システム10は、特に配置シミュレーションに限らない仮想照明についての演算処理を行ってもよい。例えば、本実施形態の仮想照明システム10は、ユーザが物品1の外観を確認するための仮想照明のシミュレーション処理を行ってもよい。こうした場合においても、シミュレーション時に実際の物品1の色味又は質感といった外観が再現し難い場合が考えられる。 Furthermore, in each of the above embodiments, the virtual illumination system 10 that performs placement simulation processing of the article 1 on the background 2 has been described. In this embodiment, the virtual illumination system 10 may perform arithmetic processing regarding virtual illumination, which is not limited to placement simulation. For example, the virtual lighting system 10 of this embodiment may perform virtual lighting simulation processing for the user to check the appearance of the article 1. Even in such a case, it may be difficult to reproduce the appearance such as the color or texture of the actual article 1 during simulation.

これに対して、本実施形態の仮想照明システム10によると、物品1の撮影時に照明装置200を用いて得られる情報を上記実施形態と同様に利用することにより、自然な照明効果を実現して、物品1の外観の再現性を高めることができる。例えば、本実施形態の仮想照明システム10において、制御部310は、図16と同様の処理において背景画像G2等の表示を省略して、本実施形態のシミュレーション処理を行うことができる。 On the other hand, according to the virtual lighting system 10 of this embodiment, natural lighting effects can be realized by using information obtained using the lighting device 200 when photographing the article 1 in the same manner as in the above embodiment. , the reproducibility of the appearance of the article 1 can be improved. For example, in the virtual illumination system 10 of this embodiment, the control unit 310 can omit display of the background image G2 and the like in the same process as in FIG. 16, and perform the simulation process of this embodiment.

また、本実施形態の仮想照明システム10は、物品1のみのシミュレーション処理に限らず、背景2のみのシミュレーション処理に用いられてもよい。例えば、不動産物件を背景2として照明装置200を用いて撮影しておき、本システム10が、こうして得られるモデル情報を用いて仮想的な内見のシミュレーション処理を行ってもよい。 Further, the virtual illumination system 10 of this embodiment is not limited to the simulation process for only the article 1, but may be used for the simulation process for only the background 2. For example, the real estate property may be photographed using the lighting device 200 as the background 2, and the system 10 may perform a virtual preview simulation process using the model information obtained in this manner.

また、上記の各実施形態では、デジタルカメラ100と照明装置200と情報端末300とを備える仮想照明システム10を説明したが、本実施形態の仮想照明システム10はこれに限定されない。例えば、本実施形態の仮想照明システム10において、デジタルカメラ100は省略されてもよい。例えば、照明装置200の受光部220としてのイメージセンサ等を用いて、被写体の画像が撮像あるいは取得されてもよい。又、本システム10において、照明装置200と撮像装置とが一体的に構成されてもよい。さらに被写体の画像は本システム10の外部から取得されてもよい。 Further, in each of the above embodiments, the virtual lighting system 10 including the digital camera 100, the lighting device 200, and the information terminal 300 has been described, but the virtual lighting system 10 of the present embodiment is not limited to this. For example, in the virtual lighting system 10 of this embodiment, the digital camera 100 may be omitted. For example, an image of the subject may be captured or acquired using an image sensor or the like as the light receiving section 220 of the illumination device 200. Further, in the present system 10, the illumination device 200 and the imaging device may be configured integrally. Furthermore, the image of the subject may be acquired from outside the system 10.

また、上記の各実施形態では、情報処理装置の一例として情報端末300を例示した。本実施形態において、情報処理装置は、特に情報端末300に限らず、例えばサーバ装置であってもよい。また、デジタルカメラ100が、制御部135等により情報処理装置の機能を有してもよい。この場合、デジタルカメラ100のイメージセンサ115が撮像装置の一例として機能してもよい。 Furthermore, in each of the above embodiments, the information terminal 300 is illustrated as an example of an information processing apparatus. In this embodiment, the information processing device is not particularly limited to the information terminal 300, and may be, for example, a server device. Further, the digital camera 100 may have the function of an information processing device using the control unit 135 or the like. In this case, the image sensor 115 of the digital camera 100 may function as an example of an imaging device.

また、上記の各実施形態では、光学系110及びレンズ駆動部112を備えるデジタルカメラ100を例示した。本実施形態の撮像装置は、光学系110及びレンズ駆動部112を備えなくてもよく、例えば交換レンズ式のカメラであってもよい。 Furthermore, in each of the above embodiments, the digital camera 100 includes the optical system 110 and the lens driving section 112. The imaging device of this embodiment does not need to include the optical system 110 and the lens drive unit 112, and may be, for example, an interchangeable lens type camera.

また、上記の各実施形態では、撮像装置の例としてデジタルカメラを説明したが、これに限定されない。本開示の撮像装置は、画像撮影機能を有する電子機器(例えば、ビデオカメラ、スマートフォン、タブレット端末等)であればよい。 Further, in each of the above embodiments, a digital camera has been described as an example of an imaging device, but the invention is not limited to this. The imaging device of the present disclosure may be any electronic device (for example, a video camera, a smartphone, a tablet terminal, etc.) that has an image capturing function.

以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。 As described above, the embodiments have been described as examples of the technology in the present disclosure. To that end, the accompanying drawings and detailed description have been provided. Therefore, among the components described in the attached drawings and detailed description, there are not only components that are essential for solving the problem, but also components that are not essential for solving the problem, in order to exemplify the above technology. may also be included.

本開示は、種々の被写体が撮影された画像に事後的に照明効果を付与する用途に適用可能である。 The present disclosure is applicable to applications in which lighting effects are subsequently added to images of various subjects.

10 仮想照明システム
100 デジタルカメラ
200 照明装置
210 発光部
220 受光部
300 情報端末
310 制御部
320 記憶部
330 操作部
340 表示部
350 通信部
10 virtual lighting system 100 digital camera 200 lighting device 210 light emitting unit 220 light receiving unit 300 information terminal 310 control unit 320 storage unit 330 operation unit 340 display unit 350 communication unit

Claims (10)

被写体の画像を示す画像データを取得する第1取得部と、
複数の光源位置から前記被写体に照射した照明光による分布を示す照度分布情報を取得する第2取得部と、
取得された画像データ及び照度分布情報に基づいて、前記被写体の画像と、前記画像における位置毎に前記被写体が光を反射する特性とを含むモデル情報を生成する制御部とを備える
情報処理装置。
a first acquisition unit that acquires image data representing an image of the subject;
a second acquisition unit that acquires illuminance distribution information indicating a distribution of illumination light irradiated onto the subject from a plurality of light source positions;
An information processing apparatus comprising: a control unit that generates model information including an image of the subject and characteristics of light reflection of the subject for each position in the image, based on acquired image data and illuminance distribution information.
前記第1取得部は、前記被写体が撮像された一又は複数の撮像画像を示す画像データを取得し、
前記モデル情報における前記被写体の画像は、前記撮像画像で構成される、
請求項1に記載の情報処理装置。
The first acquisition unit acquires image data indicating one or more captured images of the subject,
The image of the subject in the model information is composed of the captured image,
The information processing device according to claim 1.
前記被写体の画像は、前記被写体の全周の少なくとも一部にわたる画像である
請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the image of the subject is an image covering at least part of the entire circumference of the subject.
前記被写体が光を反射する特性は、前記画像における位置毎の前記被写体の法線方向と反射率とのうちの少なくとも一方を含む
請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the characteristic that the subject reflects light includes at least one of a normal direction and reflectance of the subject for each position in the image.
前記第2取得部は、互いに異なる複数の光源位置から前記照明光を個別に発光する照明装置によって得られる前記照度分布情報を取得し、
前記照度分布情報は、前記複数の光源位置からの各照明光の反射光がそれぞれ受光された複数の照度分布を含む
請求項1に記載の情報処理装置。
The second acquisition unit acquires the illuminance distribution information obtained by a lighting device that individually emits the illumination light from a plurality of mutually different light source positions,
The information processing apparatus according to claim 1, wherein the illuminance distribution information includes a plurality of illuminance distributions in which reflected light of each illumination light from the plurality of light source positions is received.
被写体の画像を含むモデル情報を格納する記憶部と、
前記被写体に対する仮想的な照明に関するユーザ操作を受け付ける操作部と、
前記ユーザ操作に応じて、設定される仮想的な照明に応じた前記モデル情報に対する照明効果を演算するシミュレーション処理を制御する制御部と、
前記シミュレーション処理によって前記照明効果が付与された画像を表示する表示部と
を備え、
前記モデル情報は、複数の光源位置から前記被写体に照射した照明光による分布に基づいて、前記被写体の画像における位置毎に前記被写体が光を反射する特性を示し、
前記制御部は、前記モデル情報が示す前記被写体の特性に基づいて、前記照明効果を前記被写体の画像に付与するように前記シミュレーション処理を行う
情報処理装置。
a storage unit that stores model information including an image of the subject;
an operation unit that accepts a user operation regarding virtual illumination for the subject;
a control unit that controls a simulation process that calculates a lighting effect for the model information according to virtual lighting that is set according to the user operation;
a display unit that displays an image to which the lighting effect is applied by the simulation process;
The model information indicates a characteristic of the subject reflecting light for each position in the image of the subject based on the distribution of illumination light irradiated to the subject from a plurality of light source positions,
The control unit is an information processing device that performs the simulation process to apply the lighting effect to the image of the subject based on the characteristics of the subject indicated by the model information.
前記モデル情報は、前記被写体として物体を示す第1のモデル情報と背景を示す第2のモデル情報とを含み、
前記第1及び第2のモデル情報のうちの少なくとも一方は、前記照明光による分布に基づいて、前記物体と前記背景とのうちの対応する被写体の特性を示し、
前記操作部は、前記背景における前記物体の配置を指定するユーザ操作を受け付け、
前記制御部は、前記背景における環境光を示すように前記仮想的な照明を設定して、前記シミュレーション処理を行う
請求項6に記載の情報処理装置。
The model information includes first model information indicating an object as the subject and second model information indicating a background,
At least one of the first and second model information indicates characteristics of a corresponding subject among the object and the background based on the distribution by the illumination light,
The operation unit accepts a user operation specifying a placement of the object in the background,
The information processing apparatus according to claim 6, wherein the control unit performs the simulation process by setting the virtual illumination to indicate environmental light in the background.
前記モデル情報は、前記被写体の全周の少なくとも一部にわたり前記被写体の画像を示し、
前記制御部は、前記操作部において前記被写体の向きを変更するユーザ操作に応じて、変更された向きにおける前記被写体の画像に前記照明効果を付与して前記表示部に表示させる
請求項6に記載の情報処理装置。
The model information indicates an image of the subject over at least a portion of the entire circumference of the subject;
7. The control unit is configured to apply the lighting effect to an image of the subject in the changed orientation and display the image on the display unit in response to a user operation to change the orientation of the subject on the operation unit. information processing equipment.
撮像装置により被写体が撮像された画像を示す画像データ、及び/又は、照明装置から前記被写体に照射した照明光による分布を示す照度分布情報を取得する取得部と、
前記撮像装置および前記照明装置を制御する制御部とを備え、
前記撮像装置は、所定周期において前記被写体を順次、撮像して、前記画像データを生成し、
前記制御部は、前記所定周期において、
前記撮像装置が前記被写体を撮像していないときに、前記照明装置から前記照明光を前記被写体に照射させ、
前記照明装置が前記照明光を前記被写体に照射していないときに、前記撮像装置に前記被写体を撮像させる
情報処理装置。
an acquisition unit that acquires image data indicating an image of a subject captured by an imaging device and/or illuminance distribution information indicating a distribution of illumination light irradiated onto the subject from a lighting device;
comprising a control unit that controls the imaging device and the lighting device,
The imaging device sequentially images the subject at a predetermined period to generate the image data,
In the predetermined period, the control unit:
When the imaging device is not imaging the subject, irradiating the subject with the illumination light from the illumination device,
An information processing device that causes the imaging device to image the subject when the illumination device does not irradiate the subject with the illumination light.
被写体に照明光を照射して前記照明光による分布を示す情報を取得する照明装置と、
請求項1~9のいずれか1項に記載の情報処理装置と
を備える仮想照明システム。
an illumination device that irradiates a subject with illumination light and obtains information indicating a distribution due to the illumination light;
A virtual lighting system comprising the information processing device according to any one of claims 1 to 9.
JP2022041423A 2021-08-02 2022-03-16 Information processing device and virtual illumination system Pending JP2023136026A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022041423A JP2023136026A (en) 2022-03-16 2022-03-16 Information processing device and virtual illumination system
US17/876,836 US20230031464A1 (en) 2021-08-02 2022-07-29 Image processing apparatus and virtual illumination system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022041423A JP2023136026A (en) 2022-03-16 2022-03-16 Information processing device and virtual illumination system

Publications (1)

Publication Number Publication Date
JP2023136026A true JP2023136026A (en) 2023-09-29

Family

ID=88145491

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022041423A Pending JP2023136026A (en) 2021-08-02 2022-03-16 Information processing device and virtual illumination system

Country Status (1)

Country Link
JP (1) JP2023136026A (en)

Similar Documents

Publication Publication Date Title
US10417829B2 (en) Method and apparatus for providing realistic 2D/3D AR experience service based on video image
JP3962588B2 (en) 3D image processing method, 3D image processing apparatus, 3D image processing system, and 3D image processing program
US10587864B2 (en) Image processing device and method
US6930685B1 (en) Image processing method and apparatus
EP1393124B1 (en) Realistic scene illumination reproduction
US6628298B1 (en) Apparatus and method for rendering synthetic objects into real scenes using measurements of scene illumination
US10275898B1 (en) Wedge-based light-field video capture
WO2015166684A1 (en) Image processing apparatus and image processing method
JP4115117B2 (en) Information processing apparatus and method
US20030202120A1 (en) Virtual lighting system
US10249076B2 (en) Image processing apparatus, image capturing apparatus, image processing method and storage medium storing image processing program
JP7170224B2 (en) Three-dimensional generation method and three-dimensional generation device
JP2003202216A (en) Method, device, system and program for three-dimensional image processing
JP6541920B1 (en) INFORMATION PROCESSING APPARATUS, PROGRAM, AND INFORMATION PROCESSING METHOD
JP2004318612A (en) Method, device and program for synthesizing image, and method, device, and program for rendering three-dimensional model
WO2019088273A1 (en) Image processing device, image processing method and image processing program
AU2019309552B2 (en) Method and data-processing system for synthesizing images
CN109427089B (en) Mixed reality object presentation based on ambient lighting conditions
JP2023136026A (en) Information processing device and virtual illumination system
JP2015099545A (en) Image generation system and image generation program
US20230031464A1 (en) Image processing apparatus and virtual illumination system
JP2009047642A (en) Three-dimensional image data generation system and method
WO2024042893A1 (en) Information processing device, information processing method, and program
CN117459663B (en) Projection light self-correction fitting and multicolor repositioning method and device
WO2023090038A1 (en) Information processing apparatus, image processing method, and program