JP2017215851A - Image processing device, image processing method, and molding system - Google Patents

Image processing device, image processing method, and molding system Download PDF

Info

Publication number
JP2017215851A
JP2017215851A JP2016110211A JP2016110211A JP2017215851A JP 2017215851 A JP2017215851 A JP 2017215851A JP 2016110211 A JP2016110211 A JP 2016110211A JP 2016110211 A JP2016110211 A JP 2016110211A JP 2017215851 A JP2017215851 A JP 2017215851A
Authority
JP
Japan
Prior art keywords
image processing
color
light source
images
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016110211A
Other languages
Japanese (ja)
Inventor
木村 正史
Masashi Kimura
正史 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016110211A priority Critical patent/JP2017215851A/en
Publication of JP2017215851A publication Critical patent/JP2017215851A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing device capable of precisely estimating light source color with a simple configuration, and an image processing method.SOLUTION: An image processing device acquires a plurality of images that photograph an object from different viewpoints. Corresponding points 72 to 74 to the plurality of images are detected. Color represented by specific coordinates on a line 75 obtained from color chromaticity coordinates of a pixel value of the corresponding points is estimated as light source color at the time of photographing the plurality of images. The above estimation means may estimate color that a cross point 77 of a blackbody locus 76 with the above line represents as the light source color. Alternatively, the above estimation means may estimate color that coordinates of the cross point 77 of a plurality of lines 75, 85, and 89 obtained from pixel values of the plurality of corresponding points 72 to 74, 82 to 84, and 86 to 88 represent, as the light source color.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理装置および画像処理方法に関し、特には画像から光源色を推定する技術に関する。本発明はまた造形システムに関する。   The present invention relates to an image processing apparatus and an image processing method, and more particularly to a technique for estimating a light source color from an image. The invention also relates to a modeling system.

3次元(3D)物体の撮影画像に基づいて物体の3D形状のデータを生成する装置(3Dスキャナ)が知られている。例えば、ある3次元物体のミニチュアを3Dプリンタ(3D造形装置)で作る場合、物体の3D形状だけでなく色についても情報が取得できれば、再現性のよい造形物が得られる。   An apparatus (3D scanner) that generates 3D shape data of an object based on a captured image of a three-dimensional (3D) object is known. For example, when making a miniature of a certain three-dimensional object with a 3D printer (3D modeling apparatus), if information about not only the 3D shape of the object but also the color can be acquired, a model with good reproducibility can be obtained.

しかしながら、撮影画像における物体の色は、環境光の色に影響を受けている。そのため、撮影画像における環境光の色の影響を排除することが望まれる。撮影画像から環境光の色(光源色)を推定する技術として、特許文献1には、明るさの異なる近接画素間の差分を算出することで、被写体を照射する光源色を特定する方法が開示されている。また、特許文献2には、入力画像の中から鏡面反射の生じている領域を推定し、その領域において画素値の差分を算出することにより、光源色を推定する方法が開示されている。   However, the color of the object in the captured image is affected by the color of the ambient light. For this reason, it is desired to eliminate the influence of the color of the ambient light on the captured image. As a technique for estimating the color of ambient light (light source color) from a captured image, Patent Document 1 discloses a method for specifying a light source color that irradiates a subject by calculating a difference between adjacent pixels having different brightnesses. Has been. Patent Document 2 discloses a method for estimating a light source color by estimating a region where specular reflection occurs from an input image and calculating a difference between pixel values in the region.

特開2007−13415号公報JP 2007-13415 A 特開2014−7611号公報JP 2014-7611 A

しかしながら、特許文献1、2に開示された方法は、差分を取得する画素の位置に対応する物体の色が同一であることを仮定して光源色を推定している。そのため、例えば物体色が連続的に変化している場合など、差分を取得する画素の位置に対応する物体の色が異なっている場合には推定精度が低下するという課題があった。   However, the methods disclosed in Patent Documents 1 and 2 estimate the light source color on the assumption that the color of the object corresponding to the position of the pixel from which the difference is obtained is the same. Therefore, for example, when the object color is continuously changing, there is a problem that the estimation accuracy is lowered when the color of the object corresponding to the position of the pixel from which the difference is acquired is different.

本発明の目的は、簡易な構成で精度良く光源色を推定可能な画像処理装置および画像処理方法を提供することである。   An object of the present invention is to provide an image processing apparatus and an image processing method capable of accurately estimating a light source color with a simple configuration.

上述の目的は、物体を異なる視点から撮影した複数の画像を取得する取得手段と、複数の画像の対応点を検出する検出手段と、対応点の画素値の色度座標から求まる直線上の特定の座標が表す色を、複数の画像の撮影時の光源色として推定する推定手段と、を有することを特徴とする画像処理装置によって達成される。   The purpose described above is to acquire a plurality of images obtained by photographing an object from different viewpoints, to detect a corresponding point of a plurality of images, and to specify a straight line obtained from chromaticity coordinates of pixel values of the corresponding points. And an estimation unit that estimates a color represented by the coordinates as a light source color at the time of photographing a plurality of images.

本発明によれば、簡易な構成で光源色を推定可能な画像処理装置および画像処理方法を提供することが出来る。   According to the present invention, it is possible to provide an image processing apparatus and an image processing method capable of estimating a light source color with a simple configuration.

実施形態に係る光源色の推定方法を説明するための図The figure for demonstrating the estimation method of the light source color which concerns on embodiment 実施形態に係るカメラシステムの構成例を示す図The figure which shows the structural example of the camera system which concerns on embodiment. 実施形態に係るカメラシステムが有する撮像素子に関する図The figure regarding the image pick-up element which the camera system which concerns on embodiment has 実施形態における物体上での光の反射と輝度に関する図The figure about the reflection of the light on the object and brightness in an embodiment 実施形態に係るカメラシステムの動作に関するフローチャートFlowchart relating to operation of camera system according to embodiment 実施形態におけるブロックマッチングに関する図The figure about block matching in an embodiment 実施形態に係る3D造形システムの構成例を示す図The figure which shows the structural example of the 3D modeling system which concerns on embodiment

以下、添付図面を参照して、本発明の例示的な実施形態について説明する。なお、以下では、本発明の実施形態に係る画像処理装置の一例としての、もしくは本発明の実施形態に係る画像処理方法を実施可能な装置の一例としてのカメラシステム(一眼レフデジタルカメラ)について説明する。しかしながら、本発明は画像処理が可能な電子機器において実施可能であり、撮影機能は必須では無い。本発明を実施可能な電子機器の例には、撮像装置や撮影機能を有する電子機器、各種のコンピュータ機器(パーソナルコンピュータ、タブレットコンピュータ、ウェアラブルコンピュータなど)、スマートフォン、ゲーム機、メディアプレーヤなどが含まれる。   Hereinafter, exemplary embodiments of the present invention will be described with reference to the accompanying drawings. In the following, a camera system (single-lens reflex digital camera) as an example of an image processing apparatus according to an embodiment of the present invention or as an example of an apparatus capable of performing an image processing method according to an embodiment of the present invention will be described. To do. However, the present invention can be implemented in an electronic device capable of image processing, and a photographing function is not essential. Examples of electronic devices that can implement the present invention include an imaging device, an electronic device having a photographing function, various computer devices (such as a personal computer, a tablet computer, and a wearable computer), a smartphone, a game machine, and a media player. .

図2は実施形態に係るカメラシステムの構成例を示す図であり、図2(a)は撮影光学系の光軸を通る鉛直断面の図、図2(b)は電気的な構成例を示すブロック図である。なお、本実施形態のカメラシステムは、被写体の3次元形状の情報を取得することが可能であるため、3Dスキャナとしても機能する。また、環境光の色を推定し、被写体の物体色の情報を取得することが可能であるため、光源色または物体色の推定装置としても機能する。   2A and 2B are diagrams illustrating a configuration example of the camera system according to the embodiment. FIG. 2A is a vertical cross-sectional view passing through the optical axis of the photographing optical system, and FIG. 2B is an electrical configuration example. It is a block diagram. Note that the camera system of the present embodiment can also acquire information on the three-dimensional shape of the subject, and thus functions as a 3D scanner. In addition, since it is possible to estimate the color of the ambient light and acquire information on the object color of the subject, it also functions as a light source color or object color estimation device.

カメラシステム100は、カメラ本体1と、カメラ本体1に着脱自在に装着されるレンズユニット2を備えて構成される。カメラ本体1は、カメラ制御部5、撮像素子6、画像処理部7、メモリ部8、表示部9、操作検出部10、電器接点11、クイックリターンミラー14を備えている。また、レンズユニット2は、光軸4を共通とする複数のレンズからなる撮影光学系3と、レンズ駆動部13と、レンズ制御部12とを有している。撮影光学系3は、絞り、フォーカスレンズ、変倍レンズ、補正レンズなどの可動部材を有する。レンズ駆動部13は、レンズ制御部12の制御に従ってアクチュエータやモータを駆動することにより、可動部材の位置を変更する。   The camera system 100 includes a camera body 1 and a lens unit 2 that is detachably attached to the camera body 1. The camera body 1 includes a camera control unit 5, an image sensor 6, an image processing unit 7, a memory unit 8, a display unit 9, an operation detection unit 10, an electrical contact 11, and a quick return mirror 14. The lens unit 2 includes a photographing optical system 3 including a plurality of lenses having a common optical axis 4, a lens driving unit 13, and a lens control unit 12. The photographing optical system 3 includes movable members such as a diaphragm, a focus lens, a variable power lens, and a correction lens. The lens driving unit 13 changes the position of the movable member by driving an actuator or a motor according to the control of the lens control unit 12.

カメラシステム100において、撮影光学系3および撮像素子6は被写体像を電気信号に変換する撮像部の少なくとも一部を構成する。また、メモリ部8および表示部9は画像データを記録したり出力したりする記録再生部の少なくとも一部を構成する。カメラ制御部5は1つ以上のプロセッサとメモリとを有する。   In the camera system 100, the photographing optical system 3 and the image sensor 6 constitute at least a part of an imaging unit that converts a subject image into an electrical signal. The memory unit 8 and the display unit 9 constitute at least a part of a recording / reproducing unit that records or outputs image data. The camera control unit 5 includes one or more processors and a memory.

カメラ制御部5は、メモリの不揮発性部分に記憶されたプログラムをメモリの揮発性部分にロードして実行することにより、カメラ本体1およびレンズユニット2の動作を制御し、カメラシステム100全体の動作を実現する。カメラ制御部5はレンズ制御部12と電器接点11を通じて通信し、レンズ制御部12を通じてレンズユニット2の動作を制御する。   The camera control unit 5 controls the operations of the camera body 1 and the lens unit 2 by loading the program stored in the non-volatile portion of the memory into the volatile portion of the memory and executing the program, and the operation of the entire camera system 100 Is realized. The camera control unit 5 communicates with the lens control unit 12 through the electrical contact 11 and controls the operation of the lens unit 2 through the lens control unit 12.

レンズ制御部12は1つ以上のプロセッサとメモリとを有する。レンズ制御部12は、メモリの不揮発性部分に記憶されたプログラムをメモリの揮発性部分にロードして実行することにより、カメラ制御部5との通信を確立したり、カメラ制御部5の制御に基づく動作を実行したりする。さらにレンズ制御部12は例えばレンズユニット2に設けられた加速度センサのような振れ検出センサの信号に基づいて補正レンズの駆動方向および駆動量を算出し、レンズ駆動部13を介して補正レンズを駆動して手振れ補正を実行する。なお、手振れ補正の実行有無はカメラ制御部5から制御される。   The lens control unit 12 includes one or more processors and a memory. The lens control unit 12 loads the program stored in the non-volatile part of the memory into the volatile part of the memory and executes it, thereby establishing communication with the camera control unit 5 and controlling the camera control unit 5. Or perform actions based on it. Further, the lens control unit 12 calculates the driving direction and driving amount of the correction lens based on a signal from a shake detection sensor such as an acceleration sensor provided in the lens unit 2 and drives the correction lens via the lens driving unit 13. Then, shake correction is executed. Note that whether or not camera shake correction is performed is controlled by the camera control unit 5.

撮影光学系3は、被写体の光学像を撮像素子6の撮像面に形成する。後述するように、撮像素子6の結像面には複数のマイクロレンズが格子状に配列されたマイクロレンズアレイ(以下、MLA)が配置される。また、撮像素子6は、1つのマイクロレンズを共有する複数の光電変換部を有し、焦点検出用の信号を生成可能である。画像処理部7は、撮像素子6から得られる信号に基づいて所定の評価値を生成する。カメラ制御部5は評価値に基づいて自動焦点検出(AF)および自動露出制御(AE)処理を実行することができる。   The imaging optical system 3 forms an optical image of the subject on the imaging surface of the imaging element 6. As will be described later, a microlens array (hereinafter referred to as MLA) in which a plurality of microlenses are arranged in a lattice shape is disposed on the imaging surface of the image sensor 6. The image sensor 6 has a plurality of photoelectric conversion units that share one microlens, and can generate a focus detection signal. The image processing unit 7 generates a predetermined evaluation value based on a signal obtained from the image sensor 6. The camera control unit 5 can execute automatic focus detection (AF) and automatic exposure control (AE) processing based on the evaluation value.

画像処理部7は、撮像素子6からの信号読み出しおよび、読み出した信号に対する各種処理を実行する。画像処理部7が実行する処理には例えば以下の様なものがある。A/D変換、D/A変換、ノイズ低減、信号形式の変換、ホワイトバランス調整、ガンマ補正、デモザイキング、スケーリング、フィルタリング、符号化および復号、評価値の生成、画像特徴量の生成、相関演算、画像認識、GUI画像生成、暗号化および解除など。なお、これらは単なる例示であり、他の処理を実行したり、一部を実行しないこともあり得る。   The image processing unit 7 executes signal reading from the image sensor 6 and various processes for the read signal. Examples of processing executed by the image processing unit 7 include the following. A / D conversion, D / A conversion, noise reduction, signal format conversion, white balance adjustment, gamma correction, demosaicing, scaling, filtering, encoding and decoding, evaluation value generation, image feature amount generation, correlation operation , Image recognition, GUI image generation, encryption and decryption. Note that these are merely examples, and other processes may be executed or some of them may not be executed.

また、画像処理部7は、1回の撮影で撮像素子6から得られる信号に基づいて、撮影視点の異なる複数の画像(多視点画像)を生成すること、多視点画像の各画素における被写体距離を算出することができる。また、画像処理部7は多視点画像に基づいて、多視点画像の撮影時の光源(環境光)の色を推定する処理も実行する。   In addition, the image processing unit 7 generates a plurality of images (multi-view images) having different shooting viewpoints based on a signal obtained from the imaging element 6 in one shooting, and the subject distance in each pixel of the multi-view images. Can be calculated. The image processing unit 7 also executes processing for estimating the color of the light source (environment light) at the time of shooting the multi-viewpoint image based on the multi-viewpoint image.

画像処理部7はこれらの処理の少なくとも一部を専用のハードウェア回路で実行することができる。また、画像処理部7はこれらの処理の少なくとも一部を、プロセッサでプログラムを実行することによって実現することができる。したがって、カメラ制御部5が画像処理部7の少なくとも一部を兼ねてもよい。また、撮像素子6がA/D変換機能を有していてもよい。   The image processing unit 7 can execute at least a part of these processes with a dedicated hardware circuit. Further, the image processing unit 7 can realize at least a part of these processes by executing a program with a processor. Therefore, the camera control unit 5 may also serve as at least a part of the image processing unit 7. Further, the image sensor 6 may have an A / D conversion function.

メモリ部8は記憶装置を含み、各種データの記録先として用いられるほか、表示部9のビデオメモリや、カメラ制御部5や画像処理部7のワークメモリとしても用いられる。メモリ部8が着脱可能な記憶媒体(例えばメモリカード)を含む場合、メモリ部8は記録媒体の読み書きに必要なハードウェアも合わせて有する。また、メモリ部8は、黒体放射に関する情報、例えばxy色度空間における黒体放射を示す曲線を表す情報を記憶している。   The memory unit 8 includes a storage device and is used as a recording destination for various data, and is also used as a video memory for the display unit 9 and a work memory for the camera control unit 5 and the image processing unit 7. When the memory unit 8 includes a removable storage medium (for example, a memory card), the memory unit 8 also includes hardware necessary for reading and writing the recording medium. Further, the memory unit 8 stores information relating to black body radiation, for example, information representing a curve indicating black body radiation in the xy chromaticity space.

操作検出部10は、カメラシステムに対するユーザ指示を検出する。操作検出部10はユーザが操作可能なボタン、スイッチ、タッチパネルなどを含むことができる。なお、ユーザ指示は視線入力や音声入力などで行われてもよく、操作検出部10は受け付け可能な入力の種類に応じた構成を有する。操作検出部10で検出した入力はカメラ制御部5に通知される。カメラ制御部5は、通知された入力に応じた処理を実行する。   The operation detection unit 10 detects a user instruction to the camera system. The operation detection unit 10 may include buttons, switches, touch panels and the like that can be operated by the user. Note that the user instruction may be performed by line-of-sight input or voice input, and the operation detection unit 10 has a configuration according to the type of input that can be accepted. The input detected by the operation detection unit 10 is notified to the camera control unit 5. The camera control unit 5 executes processing corresponding to the notified input.

例えば、レリーズボタンの押下を操作検出部10が検出すると、カメラ制御部5は静止画の撮影・記録動作を実行する。具体的には、カメラ制御部5は、クイックリターンミラー14をアップし、AE動作で決定された露出条件に従って撮影光学系3に含まれる絞りと撮像素子6の電荷蓄積時間を制御する。また、カメラ制御部5は撮像素子6から画像信号を読み出して画像処理部7に供給し、表示用の画像データと、記録用の画像データファイルを生成させる。さらに、カメラ制御部5は、表示用の画像データをメモリ部8のビデオメモリに書き込んで表示部9に表示させ、記録用の画像データファイルはメモリ部8の記憶装置に書き込む。   For example, when the operation detection unit 10 detects that the release button is pressed, the camera control unit 5 performs a still image shooting / recording operation. Specifically, the camera control unit 5 raises the quick return mirror 14 and controls the charge accumulation time of the diaphragm and the image sensor 6 included in the photographing optical system 3 according to the exposure condition determined by the AE operation. In addition, the camera control unit 5 reads out an image signal from the image sensor 6 and supplies it to the image processing unit 7 to generate display image data and a recording image data file. Further, the camera control unit 5 writes the display image data in the video memory of the memory unit 8 and displays it on the display unit 9, and the recording image data file is written in the storage device of the memory unit 8.

例えば、画像処理部7におけるホワイトバランス調整処理の一部として、後述する光源色の推定処理を実行し、推定した光源色に応じた白検出範囲を用いたオートホワイトバランス調整を実行することができる。   For example, as part of the white balance adjustment process in the image processing unit 7, a light source color estimation process described later can be executed, and an automatic white balance adjustment using a white detection range corresponding to the estimated light source color can be executed. .

図3は撮像素子6の構成例を示す図である。本実施形態において撮像素子6は瞳分割機能を有し、1度の露光で視点の異なる複数の画像を生成することができる。図3(a)は撮像素子6の模式的な上面図および側面図である。撮像素子6上にはMLA20が設けられており、MLA20の前側主点は撮影光学系3の結像面近傍になるように配置されている。なお、図3(a)ではMLA20を構成する各マイクロレンズの形状が把握しやすいようにデフォルメしてある。   FIG. 3 is a diagram illustrating a configuration example of the image sensor 6. In the present embodiment, the image sensor 6 has a pupil division function and can generate a plurality of images with different viewpoints by one exposure. FIG. 3A is a schematic top view and side view of the image sensor 6. An MLA 20 is provided on the image sensor 6, and the front principal point of the MLA 20 is disposed in the vicinity of the imaging plane of the photographing optical system 3. In FIG. 3A, the shape of each microlens constituting the MLA 20 is deformed so that it can be easily grasped.

図3において、z軸は撮影光学系3の光軸に並行で、カメラ本体1内の原点からレンズユニット方向に延びる軸である。また、カメラ本体1の底面(図2(a)のB)を水平にし、光軸上の点からカメラ本体1を見た際に、原点から鉛直上方に延びる軸をy軸、原点から水平左方向に延びる軸がx軸である。   In FIG. 3, the z axis is an axis extending in the direction of the lens unit from the origin in the camera body 1 in parallel with the optical axis of the photographing optical system 3. Further, when the bottom surface of the camera body 1 (B in FIG. 2A) is leveled and the camera body 1 is viewed from a point on the optical axis, the axis extending vertically upward from the origin is the y axis, and the left side is horizontally from the origin. The axis extending in the direction is the x-axis.

図3(b)は水平2つおよび垂直2つのマイクロレンズと、撮像素子6の光電変換領域との対応関係を模式的に示した図である。ここでは、1つのマイクロレンズ21に対して、5行×5列=25個の光電変換領域が対応付けられている(25個の光電変換領域が1つのマイクロレンズを共有している)。ここで、光電変換領域とは、撮像素子6において独立して信号を読み出しできる最小単位とし、複数の光電変換領域の信号を合成(加算)して読み出すことも可能である。   FIG. 3B is a diagram schematically illustrating a correspondence relationship between two horizontal and vertical microlenses and the photoelectric conversion region of the image sensor 6. Here, 5 rows × 5 columns = 25 photoelectric conversion regions are associated with one microlens 21 (25 photoelectric conversion regions share one microlens). Here, the photoelectric conversion region is a minimum unit that allows the image pickup device 6 to read signals independently, and signals from a plurality of photoelectric conversion regions can be combined (added) and read.

図3(c)は、図3(b)の光電変換領域20−a〜20−eと、撮影光学系3の射出瞳31との対応関係を模式的に示した図である。図3(c)の下の図は、撮像素子6の、図3(b)の左上のマイクロレンズ21に対応する部分のa−a断面を示している。また、図3(c)の上の図は、撮影光学系3の射出瞳面を示している。ここでは説明を分かりやすくするため、射出瞳面を90度回転させ、紙面に平行な面として図示している(軸の方向を参照されたい)。   FIG. 3C is a diagram schematically illustrating a correspondence relationship between the photoelectric conversion regions 20-a to 20-e in FIG. 3B and the exit pupil 31 of the photographing optical system 3. The lower part of FIG. 3C shows an aa cross section of the part corresponding to the upper left microlens 21 of FIG. The upper diagram in FIG. 3C shows the exit pupil plane of the photographic optical system 3. Here, for easy understanding, the exit pupil plane is rotated by 90 degrees and illustrated as a plane parallel to the paper (see the direction of the axis).

図3(c)に示すように、マイクロレンズ21は、マイクロレンズ21に対応付けられた25個の光電変換領域のそれぞれが、撮影光学系3の射出瞳31内の互いに異なる特定の領域と共役関係を有するように設計されている。すなわち、図3(c)の例では光電変換領域20−a〜20−eが、射出瞳31内の領域30−a〜30−eとそれぞれ1対1で対応している。このような共役関係により、個々の光電変換領域には、射出瞳31内の特定の領域を出射した光束のみが入射する。また、個々の光電変換領域で得られる信号は、マイクロレンズ21に特定の方向から入射した光束の強度を表す。例えば、光電変換領域20−bには、射出瞳31内の領域30−bを出射した、特定の方向からの光束のみが入射する。図3(c)では理解を容易にするため、25個の光電変換領域のうち、水平方向の5つについてのみ説明したが、他の光電変換領域についても同様である。   As shown in FIG. 3C, in the microlens 21, each of the 25 photoelectric conversion regions associated with the microlens 21 is conjugated with different specific regions in the exit pupil 31 of the photographing optical system 3. Designed to have a relationship. That is, in the example of FIG. 3C, the photoelectric conversion regions 20-a to 20-e correspond to the regions 30-a to 30-e in the exit pupil 31 on a one-to-one basis. Due to such a conjugate relationship, only the light beam emitted from a specific area in the exit pupil 31 enters each photoelectric conversion area. The signal obtained in each photoelectric conversion region represents the intensity of the light beam incident on the microlens 21 from a specific direction. For example, only the light beam emitted from the region 30-b in the exit pupil 31 from a specific direction enters the photoelectric conversion region 20-b. In FIG. 3C, for ease of understanding, only five of the 25 photoelectric conversion regions in the horizontal direction have been described, but the same applies to the other photoelectric conversion regions.

個々のマイクロレンズに対応付けられた複数の光電変換領域のうち、射出瞳内の同じ領域(例えば領域30−b)に対応する光電変換領域(この例では20−b)から得られる信号群から画像を形成することができる。従って、図3の構成を有する撮像素子6を用いた場合、1回の露光で25種類の画像を形成することができる。この、25種類の画像は、射出瞳31内の異なる領域から被写体を見た画像であるため、同一被写体を異なる視点位置から撮影した多視点画像(視差画像)である。   From a signal group obtained from a photoelectric conversion region (in this example, 20-b) corresponding to the same region (for example, region 30-b) in the exit pupil among a plurality of photoelectric conversion regions associated with each microlens. An image can be formed. Therefore, when the image sensor 6 having the configuration of FIG. 3 is used, 25 types of images can be formed by one exposure. These 25 types of images are images of the subject viewed from different areas in the exit pupil 31, and are therefore multi-viewpoint images (parallax images) obtained by photographing the same subject from different viewpoint positions.

なお、本実施形態では1つのマイクロレンズに複数の光電変換領域を対応付けた構成を有する撮像素子を用いて多視点画像を得る構成について説明した。しかし、多眼カメラを用いるなど、他の構成によって多視点画像を得ることもできる。   In the present embodiment, the configuration in which a multi-viewpoint image is obtained using an imaging device having a configuration in which a plurality of photoelectric conversion regions are associated with one microlens has been described. However, a multi-viewpoint image can be obtained by other configurations such as using a multi-view camera.

次に、本実施形態における光源色の推定処理について説明する。本実施形態では、物体からの反射光が、光源と同じ分光分布を有する鏡面反射成分と、物体の材質によって一部の波長が吸収された拡散反射成分との和として観察される2色性反射モデルに基づいて光源色を推定する。   Next, light source color estimation processing in the present embodiment will be described. In the present embodiment, dichroic reflection in which reflected light from an object is observed as the sum of a specular reflection component having the same spectral distribution as the light source and a diffuse reflection component in which a part of the wavelength is absorbed by the material of the object. Estimate the light source color based on the model.

図4(a)は、物体50の表面が完全拡散反射面(ランバート面)の場合における、光線51の反射光(拡散反射光)52を模式的に示す図である。図4(a)では、反射光52を強度の包絡線で表している。ランバート面での拡散反射光は各方向への反射が均一で、反射光の輝度(強度)は観察方向に依存しない。拡散反射光の輝度Ld(λ)は、以下の式で表すことができる。
Ld(λ)=Ie(λ)Kd(λ)cosθ …(1)
ただし、Ie(λ)は光源の輝度、Kd(λ)は拡散反射特性、θは入射角、λは波長である。
FIG. 4A is a diagram schematically showing the reflected light (diffuse reflected light) 52 of the light beam 51 when the surface of the object 50 is a completely diffuse reflecting surface (Lambertian surface). In FIG. 4A, the reflected light 52 is represented by an intensity envelope. Diffuse reflected light on the Lambertian surface is uniformly reflected in each direction, and the brightness (intensity) of the reflected light does not depend on the observation direction. The luminance Ld (λ) of the diffuse reflected light can be expressed by the following equation.
Ld (λ) = Ie (λ) Kd (λ) cos θ (1)
Where Ie (λ) is the luminance of the light source, Kd (λ) is the diffuse reflection characteristic, θ is the incident angle, and λ is the wavelength.

図4(b)は物体50の表面が鏡面の場合における、光線51の反射光(鏡面反射光)53を模式的に示す図である。61は光線51の正反射方向を示している。また、図4(a)と同様に、反射光53を強度の包絡線で表している。ここでは鏡面反射光のモデルとしてフォンモデルを用いるが、他のモデルを用いても良い。鏡面反射光53の強度は、光線51の正反射方向61に強いピークを持ち、観察方向が正反射方向から離れると大きく減衰する。鏡面反射光の輝度Ls(λ)は、以下の式で表すことができる。
Ls(λ)=Ie(λ)(cosφ) …(2)
ただし、φは正反射方向と観察方向のなす角、nは物体の特性によって決まる定数である。
FIG. 4B is a diagram schematically showing the reflected light (specular reflected light) 53 of the light beam 51 when the surface of the object 50 is a mirror surface. Reference numeral 61 denotes the regular reflection direction of the light beam 51. Similarly to FIG. 4A, the reflected light 53 is represented by an intensity envelope. Here, the phone model is used as the model of the specular reflection light, but other models may be used. The intensity of the specular reflected light 53 has a strong peak in the regular reflection direction 61 of the light beam 51 and is greatly attenuated when the observation direction is away from the regular reflection direction. The brightness Ls (λ) of the specular reflection light can be expressed by the following formula.
Ls (λ) = Ie (λ) (cosφ) n (2)
However, φ is an angle formed by the specular reflection direction and the observation direction, and n is a constant determined by the characteristics of the object.

2色性反射モデルによれば、物体の反射光は、鏡面反射光と拡散反射光との合成であるため、任意の視点pで観察される反射光の輝度L(λ)は次の式で表すことができる。
L(λ)=Ld(λ)+Ls(λ)
=Ie(λ)Kd(λ)cosθ+Ie(λ)(cosφ …(3)
ただし、φは正反射方向と視点pとのなす角である。
According to the dichroic reflection model, the reflected light of the object is a combination of the specular reflection light and the diffuse reflection light. Therefore, the luminance L (λ) of the reflected light observed at an arbitrary viewpoint p is given by Can be represented.
L (λ) = Ld (λ) + Ls (λ)
= Ie (λ) Kd (λ) cos θ + Ie (λ) (cos φ p ) n (3)
However, phi p is the angle between the specular direction and the viewpoint p.

図4(c)は、式(3)で表される、物体50の反射光54をカメラシステム100で撮影したいる状態を模式的に示す図である。ここでは、光軸4が光線51の反射点を通り、光軸4と正反射方向61とが少しずれた位置関係にあるものとする。また、撮影光学系3は反射点50aに合焦している。反射光54は、包絡線で示すように、拡散反射光52と鏡面反射光53とを合成した強度分布を有している。また、φaおよびφeは、撮影光学系3の瞳領域30−aおよび30−eに入射する反射光と正反射方向61がなす角をそれぞれ示している。 FIG. 4C is a diagram schematically illustrating a state in which the reflected light 54 of the object 50 is captured by the camera system 100, which is represented by Expression (3). Here, it is assumed that the optical axis 4 passes through the reflection point of the light beam 51 and the optical axis 4 and the regular reflection direction 61 are in a slightly shifted positional relationship. The photographing optical system 3 is focused on the reflection point 50a. The reflected light 54 has an intensity distribution obtained by combining the diffuse reflected light 52 and the specular reflected light 53 as indicated by the envelope. Φ a and φ e indicate angles formed between the reflected light incident on the pupil regions 30-a and 30-e of the photographing optical system 3 and the regular reflection direction 61, respectively.

この例では、φa>φeであるため、瞳領域30−aに入射する光束に含まれる鏡面反射光の強度は、瞳領域30−eに入射する光束に含まれる鏡面反射光の強度より低くなる。一方、拡散反射光の強度は観察方向に依存しないため、瞳領域30−aと30−eに入射する光束に含まれる拡散反射光の強度は等しい。 In this example, since φ a > φ e , the intensity of the specular reflected light included in the light beam incident on the pupil region 30-a is greater than the intensity of the specular reflected light included in the light beam incident on the pupil region 30-e. Lower. On the other hand, since the intensity of the diffuse reflected light does not depend on the observation direction, the intensity of the diffuse reflected light included in the light flux incident on the pupil regions 30-a and 30-e is equal.

図4(d)は、図4(c)を複数の平行光に拡張した状態を示している。光線51a〜51dは物体50に入射し、入射点(反射点)50a〜50dで反射する。61a〜61dは光線51a〜51dの正反射方向である。ここでは、撮影光学系3の光軸4の方向が光線51bの正反射方向61bと合致し、かつ反射点50a〜50dに合焦している。そのため、ある反射点からの反射光は、射出瞳内のどこを通っても結像面上の同じ位置に入射する。従って、光線51a〜51dの反射光は、撮像素子6の結像面上の点6a〜6dに結像される。   FIG. 4D shows a state in which FIG. 4C is expanded to a plurality of parallel lights. The light rays 51a to 51d enter the object 50 and are reflected at the incident points (reflection points) 50a to 50d. 61a to 61d are regular reflection directions of the light beams 51a to 51d. Here, the direction of the optical axis 4 of the photographing optical system 3 coincides with the regular reflection direction 61b of the light beam 51b and is focused on the reflection points 50a to 50d. Therefore, the reflected light from a certain reflection point is incident on the same position on the imaging plane regardless of where in the exit pupil. Therefore, the reflected lights of the light beams 51 a to 51 d are imaged at points 6 a to 6 d on the imaging surface of the image sensor 6.

図4(d)の下部に、撮像素子6で観察される、瞳領域30−aからの入射光の強度分布52−aと瞳領域30−eからの入射光の強度分布52−eを示している。ここでは、強度分布を輝度の大きさによって示している。また、53は、結像面上の位置6cで観測される瞳領域30−aからの入射光の輝度、54は、結像面上の位置6cで観測される瞳領域30−eからの入射光の輝度54を、55は拡散反射光の輝度を、それぞれ示す。拡散反射光の強度55は式(1)、式(3)のLd(λ)に相当する。   The lower part of FIG. 4D shows the intensity distribution 52-a of incident light from the pupil region 30-a and the intensity distribution 52-e of incident light from the pupil region 30-e, which are observed by the imaging device 6. ing. Here, the intensity distribution is indicated by the magnitude of the luminance. Reference numeral 53 denotes the intensity of incident light from the pupil region 30-a observed at the position 6c on the imaging plane, and reference numeral 54 denotes the incidence from the pupil region 30-e observed at the position 6c on the imaging plane. Luminance 54 of the light and 55 represent the luminance of the diffusely reflected light. The intensity 55 of the diffuse reflected light corresponds to Ld (λ) in the equations (1) and (3).

このように、物体表面の同一点を異なる視点から観察した場合、観察される反射光に含まれる鏡面反射光の強度に差が生じる。そのため、この強度差を用いて鏡面反射光の色を推定する。鏡面反射光は環境光源と同じ分光分布を有するため、鏡面反射光の色の推定は環境光の色の推定に等しい。   Thus, when the same point on the object surface is observed from different viewpoints, a difference occurs in the intensity of the specular reflection light included in the reflected light to be observed. Therefore, the color of specular reflection light is estimated using this intensity difference. Since the specular reflected light has the same spectral distribution as that of the environmental light source, the estimation of the color of the specular reflected light is equal to the estimation of the color of the environmental light.

以下、具体的な光源色推定動作について説明する。
図5(a)はカメラシステム100における撮影動作のフローチャートである。ここでは、撮影動作の過程で光源色推定を実施するものとする。しかしながら、本実施形態の光源色推定動作は例えばメモリ部8の記憶装置などに記録済みの画像データに対して実行することも可能である。すなわち、同一物体を異なる視点から観察した画像のデータが得られれば、データの取得方法は問わない。また、ここでは例えば3Dプリンタへの利用を想定して被写体の3次元形状の情報の取得や物体色の推定も実行するものとするが、これらの処理は必須ではない。
Hereinafter, a specific light source color estimation operation will be described.
FIG. 5A is a flowchart of the shooting operation in the camera system 100. Here, it is assumed that the light source color estimation is performed in the course of the photographing operation. However, the light source color estimation operation of the present embodiment can be performed on image data already recorded in the storage device of the memory unit 8, for example. That is, as long as image data obtained by observing the same object from different viewpoints can be obtained, the data acquisition method is not limited. In addition, here, for example, it is assumed that information on a three-dimensional shape of a subject and estimation of an object color are executed assuming use in a 3D printer, but these processes are not essential.

図5(a)に示す処理は、例えばカメラシステム100が撮影スタンバイ状態の際に実行される。カメラシステム100は、撮影スタンバイ状態において継続的に動画撮影を実行し、撮影した動画を表示部9に表示する、所謂ライブビュー表示動作を実行するものとする。   The process illustrated in FIG. 5A is executed, for example, when the camera system 100 is in a shooting standby state. It is assumed that the camera system 100 performs a so-called live view display operation in which moving image shooting is continuously performed in a shooting standby state and the shot moving image is displayed on the display unit 9.

S110でカメラ制御部5は、撮像素子6から1フレーム分の画像を取得し、画像処理部7に供給する。画像処理部7は、ライブビュー表示用の画像データを生成し、メモリ部8のビデオメモリ部分に書き込む。なお、ライブビュー表示においては多視点画像を生成する必要がない。そのため、カメラ制御部5は、1つのマイクロレンズを共有する複数の光電変換部のそれぞれで得られる信号を加算した信号を画像処理部7に供給する。なお、信号の読み出しは光電変換部ごとに行い、マイクロレンズあたり1つの信号が得られるように画像処理部7で加算してもよい。   In S <b> 110, the camera control unit 5 acquires an image for one frame from the image sensor 6 and supplies the image to the image processing unit 7. The image processing unit 7 generates image data for live view display and writes it in the video memory portion of the memory unit 8. In live view display, it is not necessary to generate a multi-viewpoint image. Therefore, the camera control unit 5 supplies the image processing unit 7 with a signal obtained by adding signals obtained by each of the plurality of photoelectric conversion units sharing one microlens. The signal reading may be performed for each photoelectric conversion unit, and may be added by the image processing unit 7 so as to obtain one signal per microlens.

S120でカメラ制御部5はメモリ部8から画像データを読み出し、表示部9に表示させ、処理をS130に進める。   In S120, the camera control unit 5 reads the image data from the memory unit 8, displays the image data on the display unit 9, and advances the processing to S130.

S130でカメラ制御部5は、操作検出部10で撮影開始指示が検出されたか否かを調べる。撮影開始指示は、例えば操作検出部10に含まれるレリーズボタンの全押し操作であってよい。カメラ制御部5は、撮影開始指示が検出されていれば処理をS140に進め、検出されていなければ処理をS110に戻して次のフレームの取得および表示動作を実行する。なお、図5(a)には記載していないが、操作検出部10を通じて撮影準備動作の開始指示が検出された場合、カメラ制御部5はS110およびS120の動作と並行して、AF処理やAE処理などの撮影準備動作を実行する。   In S <b> 130, the camera control unit 5 checks whether or not a shooting start instruction is detected by the operation detection unit 10. The shooting start instruction may be, for example, a full pressing operation of a release button included in the operation detection unit 10. If the shooting start instruction is detected, the camera control unit 5 advances the process to S140. If not detected, the camera control unit 5 returns the process to S110 to execute the acquisition and display operation of the next frame. Although not shown in FIG. 5A, when an instruction to start a shooting preparation operation is detected through the operation detection unit 10, the camera control unit 5 performs AF processing or the like in parallel with the operations of S110 and S120. An imaging preparation operation such as an AE process is executed.

S140でカメラ制御部5はAE処理で決定した露出条件に従って静止画撮影を行い、画像処理部7に供給する。ここでは、カメラ制御部5は、光電変換部ごとの信号を画像処理部7に供給する。画像処理部7は、共役関係を有する瞳領域が同じ光電変換部から得られた信号群ごとに1フレームの画像を生成し、メモリ部8に一時的に記憶する。撮像素子6が図3に示した構成を有する場合、1回の露光で25フレームの多視点画像が生成可能である。なお、多視点画像は最低2フレーム生成すればよく、必ずしも25フレーム全てを生成しなくてもよい。   In S <b> 140, the camera control unit 5 performs still image shooting according to the exposure condition determined in the AE process, and supplies the still image to the image processing unit 7. Here, the camera control unit 5 supplies a signal for each photoelectric conversion unit to the image processing unit 7. The image processing unit 7 generates an image of one frame for each signal group obtained from the photoelectric conversion unit having the same pupil region having a conjugate relationship, and temporarily stores the image in the memory unit 8. When the image sensor 6 has the configuration shown in FIG. 3, a multi-viewpoint image of 25 frames can be generated by one exposure. Note that at least two frames need only be generated for the multi-viewpoint image, and not all 25 frames need to be generated.

S150で画像処理部7は、多視点画像間で対応点を推定する。詳細については後述する。
S160でカメラ制御部5は、S150で推定された対応点の情報を用い、光源色を推定する。詳細については後述する。
In S150, the image processing unit 7 estimates corresponding points between the multi-viewpoint images. Details will be described later.
In S160, the camera control unit 5 estimates the light source color using the information on the corresponding points estimated in S150. Details will be described later.

S170でカメラ制御部5は、推定された光源色に基づいて、物体色を推定する。S160での光源色の推定により、式(1)〜式(3)における光源輝度Ie(λ)が求まる。撮影で得られた画像は、式(3)で表される反射光によるものであるから、鏡面反射光Ls(λ)の成分を除去すれば、拡散反射光Ld(λ)を得ることができる。鏡面反射光成分は光源輝度Ie(λ)が小さいほど小さくなる。従って、多視点画像において同一物体に対応する画素のうち、輝度が最も低い画素の信号を、その物体の色成分(拡散反射光)を最も高い割合で含んでいる信号として選択することができる。あるいは、適当な反射モデル(例えばフォンモデル)の下で、拡散反射光の強度を表す関数を回帰分析などにより求め(フィッティングし)、式(3)における拡散反射光の成分Ld(λ)を推定してもよい。拡散反射光の成分を抽出することは、図4(c)の反射光54から拡散反射光52の成分を抽出することに相当する。   In S170, the camera control unit 5 estimates the object color based on the estimated light source color. By estimating the light source color in S160, the light source luminance Ie (λ) in the equations (1) to (3) is obtained. Since the image obtained by photographing is based on the reflected light represented by the expression (3), the diffuse reflected light Ld (λ) can be obtained by removing the component of the specular reflected light Ls (λ). . The specular reflection light component decreases as the light source luminance Ie (λ) decreases. Therefore, the signal of the pixel with the lowest luminance among the pixels corresponding to the same object in the multi-viewpoint image can be selected as the signal containing the color component (diffuse reflected light) of the object in the highest ratio. Alternatively, a function representing the intensity of diffuse reflected light is obtained (fitted) by regression analysis or the like under an appropriate reflection model (for example, the Phong model), and the diffuse reflected light component Ld (λ) in Equation (3) is estimated. May be. Extracting the diffuse reflected light component corresponds to extracting the diffuse reflected light 52 component from the reflected light 54 in FIG.

このようにして抽出された拡散反射光の成分が表す色は、光源色の影響を受けている。そのため、S160で推定した光源色に基づくホワイトバランスゲインを適用することにより、観察された色から光源色の影響を低減し、物体色を推定することができる。例えば、撮像素子6が原色ベイヤ配列のカラーフィルタを用いている場合、緑フィルタの透過光に対応する信号値を基準(ゲイン1.0)として、赤および青フィルタの透過光に対応する信号値のゲインを調整する。   The color represented by the diffuse reflection light component thus extracted is affected by the light source color. Therefore, by applying the white balance gain based on the light source color estimated in S160, the influence of the light source color can be reduced from the observed color, and the object color can be estimated. For example, when the image sensor 6 uses a color filter of the primary color Bayer arrangement, the signal value corresponding to the transmitted light of the red and blue filters is set with the signal value corresponding to the transmitted light of the green filter as a reference (gain 1.0). Adjust the gain.

S180でカメラ制御部5は、撮影で得られた画像の出力(表示および記録の少なくとも一方)を行う。記録する画像は多視点画像の全てであってもよいが、多視点画像の一部、あるいは多視点画像を合成した画像であってよい。表示については多視点画像の1つ、あるいは多視点画像を合成した画像を用いることができる。なお、本実施形態では、推定した光源色に基づくホワイトバランス調整を行った画像を記録するものとする。これにより、記録画像は環境光の色に依存しない物体の色を示す。なお、記録する画像データの形式や画像データを格納するファイルの形式に制限はない。もちろん、推定した光源色のデータとともに、ホワイトバランス調整を行っていない画像(例えばRAW形式の画像)を記録してもよい。また、撮影の目的が被写体の3次元情報の取得である場合は、合成画像、距離画像、および推定した光源色を記録してもよい。   In S180, the camera control unit 5 outputs (at least one of display and recording) an image obtained by photographing. The images to be recorded may be all of the multi-view images, but may be a part of the multi-view images or an image obtained by synthesizing the multi-view images. For display, one of the multi-viewpoint images or an image obtained by synthesizing the multi-viewpoint images can be used. In the present embodiment, it is assumed that an image subjected to white balance adjustment based on the estimated light source color is recorded. Thereby, the recorded image shows the color of the object independent of the color of the ambient light. There is no limitation on the format of image data to be recorded and the format of a file storing image data. Of course, together with the estimated light source color data, an image that has not been subjected to white balance adjustment (for example, an image in RAW format) may be recorded. In addition, when the purpose of photographing is acquisition of three-dimensional information of a subject, a composite image, a distance image, and an estimated light source color may be recorded.

S190でカメラ制御部5は撮影および記録動作を終了するかどうか判定し、予め定められた終了指示が検出された場合には処理を終了し、検出されていなければ処理をS110に戻す。終了指示の検出は、例えば再生モードへの切り替え指示が検出された場合や、電源OFFの指示が検出された場合であってよいが、これらに限定されない。   In step S190, the camera control unit 5 determines whether to end the shooting and recording operation. If a predetermined end instruction is detected, the process ends. If not, the process returns to step S110. The detection of the end instruction may be, for example, when a switching instruction to the reproduction mode is detected or when a power-off instruction is detected, but is not limited thereto.

次に、S150で行う対応点の推定処理の詳細について、図5(b)に示すフローチャートを用いて説明する。対応点の推定は、S140で生成した多視点画像のうち、任意の2画像を対象として相対的な位置関係を探索する処理である。一方の画像の一部を矩形(ブロック)状に切り出し、テンプレートとする。そして、他方の画像に探索領域を設定し、探索領域内でテンプレートを移動させながら、個々の位置で類似度(相関)を算出し、最も類似度が高い位置を探索する。例えば、多視点画像の1つを基準画像として他のそれぞれと対応点を推定することにより、基準画像の各画素について、他の画像のそれぞれにおける対応点を検出することができる。   Next, details of the corresponding point estimation process performed in S150 will be described with reference to the flowchart shown in FIG. Corresponding point estimation is a process of searching for a relative positional relationship for any two images among the multi-viewpoint images generated in S140. A part of one image is cut out in a rectangular (block) shape and used as a template. Then, a search area is set in the other image, the similarity (correlation) is calculated at each position while moving the template within the search area, and a position with the highest similarity is searched. For example, by estimating one corresponding point with each other using one of the multi-viewpoint images as a reference image, the corresponding point in each of the other images can be detected for each pixel of the reference image.

S310で画像処理部7は、一方の画像に対してテンプレートを設定する。テンプレートは例えば8×8画素の矩形ブロックであってよい。テンプレートの設定位置は特に制限されないが、コントラストの高いパターンや特徴的なパターンを含むように設定することで、対応点の検出精度を高めることができる。また、画像の各画素について対応点を探索する場合には、探索の対象画素を画像の左から右へ、また上から下へ順次移動させながら、対象画素を中心としたテンプレートを設定することができる。   In S310, the image processing unit 7 sets a template for one image. For example, the template may be a rectangular block of 8 × 8 pixels. The setting position of the template is not particularly limited, but the detection accuracy of the corresponding points can be increased by setting the template so as to include a high-contrast pattern or a characteristic pattern. Further, when searching for corresponding points for each pixel of the image, it is possible to set a template centering on the target pixel while sequentially moving the search target pixel from the left to the right and from the top to the bottom of the image. it can.

S320で画像処理部7はブロックマッチングを行う。例えば、図6(a)および(b)に示す画像91、94を対象とし、S310で画像91にテンプレート93を設定したとする。この場合、画像処理部7は、画像94内で対応点を探索する。   In S320, the image processing unit 7 performs block matching. For example, assume that the images 91 and 94 shown in FIGS. 6A and 6B are targeted, and the template 93 is set to the image 91 in S310. In this case, the image processing unit 7 searches for corresponding points in the image 94.

具体的には、画像処理部7は、画像94において、テンプレート93と最も類似度が高い領域を探索する。例えば画像処理部7は、画像94内の領域のうち、テンプレート93と画素値の差分絶対値和(SAD)が最も小さくなる領域を、テンプレート93と最も類似度が高い領域として探索する。図6の例では、画像処理部7は、画像91のテンプレート93の切り出し位置に対応する、画像94内の領域95について、テンプレート93との類似度をまず算出する。その後、画像処理部7は、矢印96で示されるように、画像94内で類似度を算出する領域の位置を水平および垂直方向に順次移動させながら、各位置で類似度を算出する。ただし、画像91と画像94にはエピポーラ拘束が当てはまるため、探索は画像91と94のエピポーラ線上の位置に限定することができる。   Specifically, the image processing unit 7 searches for an area having the highest similarity with the template 93 in the image 94. For example, the image processing unit 7 searches a region having the smallest difference absolute value sum (SAD) between the template 93 and the pixel value as a region having the highest similarity with the template 93 among the regions in the image 94. In the example of FIG. 6, the image processing unit 7 first calculates the similarity with the template 93 for the region 95 in the image 94 corresponding to the cutout position of the template 93 of the image 91. Thereafter, as indicated by an arrow 96, the image processing unit 7 calculates the similarity at each position while sequentially moving the position of the region for calculating the similarity in the image 94 in the horizontal and vertical directions. However, since the epipolar constraint is applied to the images 91 and 94, the search can be limited to the positions of the images 91 and 94 on the epipolar line.

ここでは、領域97が類似度の最も高い領域として検出されたものとする。図6(c)は画像91および94、テンプレート93および領域97を重ね合わせて模式的に示した図である。テンプレート93の移動方向および移動量を動きベクトル99として示している。   Here, it is assumed that the region 97 is detected as the region having the highest similarity. FIG. 6C is a diagram schematically showing the images 91 and 94, the template 93, and the region 97 superimposed. The movement direction and movement amount of the template 93 are shown as a motion vector 99.

S330で画像処理部7は、対応点情報を保存する。対応点情報は例えば、テンプレート93から、S320で検出された、テンプレート93に最も類似度の高い領域への移動ベクトルであってよい。あるいは、テンプレート93内の対象画素の対応点として検出された画像94の画素の座標を保存してもよい。   In S330, the image processing unit 7 stores the corresponding point information. The corresponding point information may be, for example, a movement vector from the template 93 to the region having the highest similarity to the template 93 detected in S320. Or you may preserve | save the coordinate of the pixel of the image 94 detected as a corresponding point of the object pixel in the template 93. FIG.

S340で画像処理部7は、画像91についてのマッチング処理が完了したか(予め定められた全ての領域をテンプレートとしてマッチング処理を行ったか)否かを判定する。画像処理部7は、マッチング処理が完了したと判定されれば対応点推定処理を終了し、完了したと判定されなければ処理をS310にもどして、別の領域をテンプレートとしたマッチング処理を実行する。   In S340, the image processing unit 7 determines whether the matching process for the image 91 has been completed (matching process has been performed using all predetermined regions as templates). If it is determined that the matching process has been completed, the image processing unit 7 ends the corresponding point estimation process. If not, the image processing unit 7 returns the process to S310 and executes the matching process using another region as a template. .

対応点推定処理により、視点の異なる2画像、すなわちステレオ画像における対応点が特定される。そのため、画素ピッチなど既知のパラメータを用い、三角測量の原理に基づいて各画素位置についての被写体距離を推定することができる。これにより、被写体の形状に関する情報を得ることができる。例えば3次元物体を異なる角度から複数回撮影し、各撮影で得られる形状情報を合成することで、3次元物体全体の形状情報を得ることができる。   By corresponding point estimation processing, corresponding points in two images with different viewpoints, that is, stereo images, are specified. Therefore, using a known parameter such as a pixel pitch, the subject distance for each pixel position can be estimated based on the principle of triangulation. Thereby, information regarding the shape of the subject can be obtained. For example, the shape information of the entire three-dimensional object can be obtained by photographing the three-dimensional object a plurality of times from different angles and combining the shape information obtained by each photographing.

次に、S160で行う光源色の推定処理の詳細について、図5(c)に示すフローチャートを用いて説明する。
S410でカメラ制御部5は、対応点推定処理により得られた対応点の情報と、画素値とに基づいて、同一物体の同一位置(すなわち、対応点)に対応する複数の画素の値(色)を色度図にマッピングする。マッピングの詳細に関しては図1を用いて後述する。マッピングは、光源色推定に用いる領域に含まれる少なくとも1つ以上の対応点について行う。
Next, the details of the light source color estimation processing performed in S160 will be described with reference to the flowchart shown in FIG.
In S410, the camera control unit 5 determines the values (colors) of a plurality of pixels corresponding to the same position (that is, the corresponding point) of the same object based on the corresponding point information obtained by the corresponding point estimation process and the pixel value. ) To the chromaticity diagram. Details of the mapping will be described later with reference to FIG. Mapping is performed for at least one corresponding point included in the region used for light source color estimation.

S420でカメラ制御部5は、光源色推定に用いるすべての領域について、S410のマッピング処理を行ったか判断している。なお、光源色推定に用いる領域が1つの場合、S420は省略できる。しかし、例えば互いに異なる色を有する複数の領域を光源色推定に用いる領域に設定し、各領域で推定した光源色に基づいて最終的な光源色を推定することで、推定精度を向上させることができる。   In S420, the camera control unit 5 determines whether or not the mapping process of S410 has been performed for all regions used for light source color estimation. Note that if there is one region used for light source color estimation, S420 can be omitted. However, for example, it is possible to improve estimation accuracy by setting a plurality of regions having different colors as regions used for light source color estimation and estimating the final light source color based on the light source color estimated in each region. it can.

一般的には主被写体の色を正しく認識することが最も重要と考えられる。そのため、合焦領域や焦点検出領域の情報を用いたり、例えば顔検出や人物認識などの被写体検出の結果を用いたりして画像中の主被写体領域を特定し、光源色推定に用いる領域として設定することができる。例えば、合焦領域を主被写体領域とみなして光源色推定に用いる領域として設定したり、合焦領域内で彩度が大きく異なる複数の領域を光源色推定に用いる領域として設定したりすることができる。   In general, it is considered most important to correctly recognize the color of the main subject. For this reason, the main subject region in the image is identified and set as the region used for light source color estimation using information on the focus region and focus detection region, or using subject detection results such as face detection and person recognition. can do. For example, the focused area may be regarded as a main subject area and set as an area used for light source color estimation, or a plurality of areas having greatly different saturations may be set as an area used for light source color estimation in the focused area. it can.

S430でカメラ制御部5は最尤推定などに基づいて光源の推定色を決定する。図1(b)を用いて後述する例のように、複数の対応点についてマッピングを行った場合、個々に推定される光源色が合致しないことがある。このような場合、カメラ制御部5は、最小2乗法などの最尤推定に基づいて光源色を決定する。   In S430, the camera control unit 5 determines the estimated color of the light source based on maximum likelihood estimation or the like. As in the example described later with reference to FIG. 1B, when mapping is performed for a plurality of corresponding points, individually estimated light source colors may not match. In such a case, the camera control unit 5 determines the light source color based on maximum likelihood estimation such as a least square method.

図1を用いて色度図への画素値のマッピングと、光源色の推定原理について説明する。ここでは色度図として、CIE標準表色系として規定されているxy色度図を用いている。しかし、同一物体色についての反射光(拡散反射光と鏡面反射光が合成された反射光)の色度が、色度図上において物体色と光源色とを結ぶ直線上に位置するという条件を満たす任意の表色系を用いることができる。   The pixel value mapping to the chromaticity diagram and the light source color estimation principle will be described with reference to FIG. Here, the xy chromaticity diagram defined as the CIE standard color system is used as the chromaticity diagram. However, there is a condition that the chromaticity of reflected light (reflected light obtained by combining diffuse reflected light and specular reflected light) for the same object color is located on a straight line connecting the object color and the light source color on the chromaticity diagram. Any color system that satisfies can be used.

図1(a)は、光源が黒体放射で近似できると仮定した場合の光源色推定方法を説明する図である。
71は単波長光の色(もっとも彩度の高い色)がxy色度図上で描く線を、72〜74は物体上の同一点を異なる視点から見たときに観察された色の座標(色度座標)を、75は座標72〜74から算出した直線を示す。また、76は黒体軌跡、77は推定された光源色の色度座標をそれぞれ示す。
FIG. 1A is a diagram illustrating a light source color estimation method when it is assumed that the light source can be approximated by black body radiation.
71 is a line drawn on the xy chromaticity diagram by the color of the single wavelength light (the color with the highest saturation), and 72 to 74 are coordinates of the color observed when the same point on the object is viewed from different viewpoints ( 75 indicates a straight line calculated from coordinates 72-74. Reference numeral 76 denotes a black body locus, and 77 denotes chromaticity coordinates of the estimated light source color.

黒体とは、外部から入射する電磁波のエネルギーを波長によらず完全に吸収し、かつ放射する理想的な物体であり、黒体の絶対温度[K]が定まれば、放射される電磁波の分光分布(すなわち、色)が一義的に定まる物体である。低い色温度(1000K程度)では赤みを帯びた色を、中間くらいの色温度(6000K程度)では白い色を、高い色温度(10000K程度)では青みを帯びた色を有する。このような、色温度に応じた黒体放射の色変化をxy色度図に示したのが黒体軌跡76である。太陽光は黒体放射で非常によく近似できることが知られており、屋外の光源(人工光源を除く)は黒体放射で近似できる。色度図上の黒体軌跡を表す情報は、例えばメモリ部8に記憶されている。   A black body is an ideal object that completely absorbs and radiates the energy of electromagnetic waves incident from the outside regardless of the wavelength. If the absolute temperature [K] of the black body is determined, An object whose spectral distribution (that is, color) is uniquely determined. A low color temperature (about 1000K) has a reddish color, an intermediate color temperature (about 6000K) has a white color, and a high color temperature (about 10,000K) has a bluish color. The black body locus 76 shows the color change of the black body radiation according to the color temperature in the xy chromaticity diagram. Sunlight is known to be very well approximated by blackbody radiation, and outdoor light sources (excluding artificial light sources) can be approximated by blackbody radiation. Information representing the black body locus on the chromaticity diagram is stored in, for example, the memory unit 8.

座標72〜74は、光源色推定処理のS410でマッピングされた、物体上の同一点を異なる視点から見たときに観察された色の例である。   Coordinates 72 to 74 are examples of colors observed when the same point on the object mapped from S410 in the light source color estimation process is viewed from different viewpoints.

図4および式(3)で示したように、物体上の一点からの反射光に含まれる鏡面反射成分の大きさは、視点によって変化する。そのため、物体上の同じ位置を異なる視点から観察すると、異なった色に見える。上述の通り、拡散反射成分の大きさは観察位置に依存しないため、視点位置による色の違いは鏡面反射成分の大きさの違いによるものである。拡散反射成分が同一で、鏡面反射成分の大きさの違いによって違う色に観察された色を色度図にマッピング(プロット)すると、それらの座標(この例では座標72〜74)によって直線(直線75)を規定することができる。直線75は、ある特定の物体色について観察される、鏡面反射成分の大きさに応じた見かけの色の軌跡を示す。したがって、物体色と光源色はいずれも直線75上に存在する。従って、光源が黒体放射で近似できる場合には、直線75と黒体軌跡76との交点77が光源色に該当する。   As shown in FIG. 4 and Formula (3), the magnitude of the specular reflection component included in the reflected light from one point on the object varies depending on the viewpoint. Therefore, when the same position on the object is observed from different viewpoints, it looks different. As described above, since the size of the diffuse reflection component does not depend on the observation position, the color difference depending on the viewpoint position is due to the difference in the specular reflection component size. When colors that have the same diffuse reflection component and are observed in different colors depending on the size of the specular reflection component are mapped (plotted) to the chromaticity diagram, a straight line (straight line) is defined by their coordinates (in this example, coordinates 72 to 74). 75) can be specified. A straight line 75 indicates an apparent color locus according to the magnitude of the specular reflection component observed for a specific object color. Therefore, both the object color and the light source color exist on the straight line 75. Therefore, when the light source can be approximated by black body radiation, the intersection 77 of the straight line 75 and the black body locus 76 corresponds to the light source color.

なお、3点以上マッピングした場合など、全ての座標を通る直線が得られない場合、カメラ制御部5は最小2乗法などの方法で直線75を定めることができる。そして、カメラ制御部5は、黒体軌跡76と直線75の交点77を光源の推定色として求める。   When a straight line that passes through all coordinates cannot be obtained, such as when three or more points are mapped, the camera control unit 5 can determine the straight line 75 by a method such as a least square method. And the camera control part 5 calculates | requires the intersection 77 of the black body locus | trajectory 76 and the straight line 75 as an estimated color of a light source.

光源が黒体放射で良く近似できる場合には、黒体軌跡を用いて光源色を推定する方が容易であるが、黒体放射では近似精度が低い光源については推定精度が低下する。図1(b)は光源が黒体放射で近似できると仮定せず、画像から得られる情報のみに基づいて光源色を推定する方法を説明する図である。   When the light source can be well approximated by black body radiation, it is easier to estimate the light source color using the black body locus, but with black body radiation, the estimation accuracy decreases for a light source with low approximation accuracy. FIG. 1B is a diagram illustrating a method for estimating a light source color based only on information obtained from an image without assuming that the light source can be approximated by black body radiation.

図1(b)において、図1(a)と共通する構成には同じ参照番号を付した。座標82〜84は座標72〜74とは異なる色を有する物体上の点を異なる視点から見たときに観察された色を、85は座標82〜84から求めた直線を示す。また、座標86〜88は座標72〜74および座標82〜84とは異なる色を有する物体上の点を異なる視点から見たときに観察された色を、89は座標86〜88から求めた直線を示す。   In FIG. 1 (b), the same reference numerals are assigned to components common to FIG. 1 (a). Coordinates 82 to 84 indicate colors observed when a point on an object having a color different from the coordinates 72 to 74 is viewed from different viewpoints, and 85 indicates a straight line obtained from the coordinates 82 to 84. The coordinates 86 to 88 are colors observed when a point on the object having a color different from the coordinates 72 to 74 and the coordinates 82 to 84 is viewed from different viewpoints, and 89 is a straight line obtained from the coordinates 86 to 88. Indicates.

図1(b)の例においても、鏡面反射成分の大きさによって見かけ上の色が異なる複数の座標から求めた直線上の座標として光源色を特定する点は図1(a)の例と同様である。図1(b)の例では、黒体軌跡の代わりに、異なる物体色に係る直線を複数求め、それら複数の直線の交点の座標を光源色として特定する。具体的には、複数の物体色についてそれぞれ直線75,85,89を求め、直線の交点を光源の推定色とする。直線が1点で交わらない場合には、交点に最も近い座標として、3つの直線からの距離の和が最も小さくなる座標77を求め、光源の推定色とする。なお、ここでは直線を3本求めたが、2本以上の任意数の直線に基づいて光源色を推定することができる。   In the example of FIG. 1B as well, the light source color is specified as coordinates on a straight line obtained from a plurality of coordinates having different apparent colors depending on the magnitude of the specular reflection component, as in the example of FIG. It is. In the example of FIG. 1B, a plurality of straight lines relating to different object colors are obtained instead of the black body locus, and the coordinates of the intersection of the plurality of straight lines are specified as the light source color. Specifically, straight lines 75, 85, and 89 are obtained for a plurality of object colors, and the intersection of the straight lines is set as the estimated light source color. If the straight lines do not intersect at one point, the coordinate 77 having the smallest sum of the distances from the three straight lines is obtained as the closest coordinate to the intersection, and is used as the estimated color of the light source. Although three straight lines are obtained here, the light source color can be estimated based on an arbitrary number of two or more straight lines.

図1(b)の例ではマッピングした画素値から求めた複数の直線の交点を求める。従って、色が異なる複数の領域を、光源色の推定に用いる領域としてマッピングを行う。   In the example of FIG. 1B, intersections of a plurality of straight lines obtained from the mapped pixel values are obtained. Therefore, a plurality of regions having different colors are mapped as regions used for light source color estimation.

また、本実施形態では、光源が黒体放射で近似できると仮定するか(推定に黒体軌跡を用いるか)否かにかかわらず、マッピングした画素値の座標から求めた直線を用いて光源色を推定する。そのため、直線を規定する座標は色度図上である程度離れていた方が正しい直線が得られやすく、推定精度が向上する。例えば、複数の視差画像のうち、視点が最も離れた画像対など、鏡面反射成分の大きさが有意に変化しやすい画像対をマッピングに用いることができる。また、対応点推定処理において、探索範囲で局所的に類似度が低かった領域の画素をマッピングに用いてもよい。   Further, in this embodiment, regardless of whether the light source can be approximated by black body radiation (whether the black body locus is used for estimation) or not, the light source color is obtained using a straight line obtained from the coordinates of the mapped pixel values. Is estimated. Therefore, it is easier to obtain a correct straight line if the coordinates defining the straight line are somewhat apart on the chromaticity diagram, and the estimation accuracy is improved. For example, among a plurality of parallax images, an image pair in which the magnitude of the specular reflection component is likely to change significantly, such as an image pair with the most distant viewpoint, can be used for mapping. In the corresponding point estimation process, pixels in a region where the similarity is locally low in the search range may be used for mapping.

以上説明したように、本実施形態では異なる視点から物体上の点を観察した複数の画像(多視点画像)を用いることで、例えば色が連続的に変化する物体の反射光から光源色を精度よく推定することができる。なお、多視点画像は多眼カメラを用いたり、1つのカメラの撮影位置を移動させたりすることで取得されてもよい。また、撮影時の視点位置や画素ピッチ、被写体距離などの情報が記録されていれば、記録済みの多視点画像を用いることも可能である。一方、本実施形態で用いるような撮像素子を用いることで、1台のカメラによる1度の撮影で多視点画像を取得可能であるという利点がある。   As described above, in this embodiment, by using a plurality of images (multi-viewpoint images) obtained by observing points on the object from different viewpoints, for example, the light source color is accurately obtained from the reflected light of the object whose color continuously changes. Can be estimated well. Note that the multi-viewpoint image may be acquired by using a multi-view camera or moving the shooting position of one camera. In addition, a recorded multi-viewpoint image can be used if information such as a viewpoint position at the time of shooting, a pixel pitch, and a subject distance is recorded. On the other hand, by using an image sensor as used in the present embodiment, there is an advantage that a multi-viewpoint image can be acquired by one shooting with one camera.

(その他の実施形態)
図7は、上述の実施形態で説明したカメラシステムを3Dスキャナとして用いた造形システムの構成例を模式的に示している。造形システムは、3Dスキャナとしてのカメラシステム100と、画像処理装置の一例であるパーソナルコンピュータ(PC)200と、3Dプリンタのような3次元造形装置300とを有する。カメラシステム100とPC200とはケーブル150で、PC200と3次元造形装置300とはケーブル250でそれぞれ接続されている。なお、ケーブルのかわりに無線通信を用いて機器間が接続されてもよい。
(Other embodiments)
FIG. 7 schematically illustrates a configuration example of a modeling system using the camera system described in the above-described embodiment as a 3D scanner. The modeling system includes a camera system 100 as a 3D scanner, a personal computer (PC) 200 that is an example of an image processing apparatus, and a three-dimensional modeling apparatus 300 such as a 3D printer. The camera system 100 and the PC 200 are connected by a cable 150, and the PC 200 and the three-dimensional modeling apparatus 300 are connected by a cable 250, respectively. Note that devices may be connected using wireless communication instead of cables.

例えばカメラ制御部5は、図5のS180で記録した情報をPC200に送信する。PC200は例えば多視点画像から距離画像を生成したり、環境光源の色を推定したり、推定した光源色に基づくホワイトバランス調整を行ったりして、3次元造形装置300が用いるための造形データを生成する。なお、距離画像、光源色、物体色の1つ以上はカメラシステム100から取得してもよい。なお、ユーザは、必要に応じて被写体の全周の画像をカメラシステム100を用いて取得し、PC200に送信するようにしてもよい。3次元造形装置300は、PC200が生成した造形データに基づいて3次元物体を生成する。このような造形システムでは、簡易な構成で光源色を推定し、色を忠実に再現した造形物を提供することができる。   For example, the camera control unit 5 transmits the information recorded in S180 of FIG. For example, the PC 200 generates a distance image from a multi-viewpoint image, estimates the color of an environmental light source, or performs white balance adjustment based on the estimated light source color, and generates modeling data to be used by the three-dimensional modeling apparatus 300. Generate. One or more of the distance image, the light source color, and the object color may be acquired from the camera system 100. Note that the user may acquire an image of the entire circumference of the subject using the camera system 100 and transmit it to the PC 200 as necessary. The three-dimensional modeling apparatus 300 generates a three-dimensional object based on the modeling data generated by the PC 200. In such a modeling system, it is possible to estimate a light source color with a simple configuration and provide a modeled object that faithfully reproduces the color.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

2…レンズユニット、3…撮影光学系、5…カメラ制御部、7…画像処理部、8…メモリ部、9…表示部、10…操作検出部、12…レンズ制御部、100…カメラシステム DESCRIPTION OF SYMBOLS 2 ... Lens unit, 3 ... Imaging optical system, 5 ... Camera control part, 7 ... Image processing part, 8 ... Memory part, 9 ... Display part, 10 ... Operation detection part, 12 ... Lens control part, 100 ... Camera system

Claims (13)

物体を異なる視点から撮影した複数の画像を取得する取得手段と、
前記複数の画像の対応点を検出する検出手段と、
前記対応点の画素値の色度座標から求まる直線上の特定の座標が表す色を、前記複数の画像の撮影時の光源色として推定する推定手段と、
を有することを特徴とする画像処理装置。
Obtaining means for obtaining a plurality of images obtained by photographing an object from different viewpoints;
Detecting means for detecting corresponding points of the plurality of images;
Estimating means for estimating a color represented by a specific coordinate on a straight line obtained from chromaticity coordinates of a pixel value of the corresponding point as a light source color at the time of photographing the plurality of images;
An image processing apparatus comprising:
前記推定手段は、黒体軌跡と前記直線との交点の座標が表す色を、前記光源色として推定することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the estimation unit estimates a color represented by a coordinate of an intersection between a black body locus and the straight line as the light source color. 前記推定手段は、複数の前記対応点の画素値から求まる複数の直線の交点の座標が表す色を、前記光源色として推定することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the estimation unit estimates a color represented by coordinates of intersections of a plurality of straight lines obtained from pixel values of the plurality of corresponding points as the light source color. 前記推定手段は、前記複数の直線が1点で交わらない場合、前記複数の直線からの距離が最小となる座標が表す色を、前記光源色として推定することを特徴とする請求項3に記載の画像処理装置。   The said estimation means estimates the color which the coordinate from which the distance from the said some straight line becomes the minimum represents the said light source color, when the said some straight line does not cross | intersect at one point. Image processing apparatus. 前記推定手段は、前記複数の画像の合焦領域に含まれる対応点の画素値を用いて前記直線を求めることを特徴とする請求項1から請求項4のいずれか1項に記載の画像処理装置。   5. The image processing according to claim 1, wherein the estimation unit obtains the straight line using pixel values of corresponding points included in a focus area of the plurality of images. 6. apparatus. 前記推定手段は、前記複数の画像の主被写体領域に含まれる対応点の画素値を用いて前記直線を求めることを特徴とする請求項1から請求項4のいずれか1項に記載の画像処理装置。   5. The image processing according to claim 1, wherein the estimation unit obtains the straight line by using pixel values of corresponding points included in a main subject region of the plurality of images. 6. apparatus. 前記取得手段が、マイクロレンズを共有する複数の光電変換領域を備える撮像素子を用いて前記複数の画像を取得することを特徴とする請求項1から請求項6のいずれか1項に記載の画像処理装置。   The image according to any one of claims 1 to 6, wherein the acquisition unit acquires the plurality of images using an imaging device including a plurality of photoelectric conversion regions sharing a microlens. Processing equipment. 前記推定手段はさらに、前記推定された光源色に基づいて、前記対応点における物体色を推定することを特徴とする請求項1から請求項7のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the estimation unit further estimates an object color at the corresponding point based on the estimated light source color. 前記検出手段はさらに、前記複数の画像から、前記物体の形状情報を生成することを特徴とする請求項1から請求項8のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the detection unit further generates shape information of the object from the plurality of images. 前記形状情報が距離画像であることを特徴とする請求項9に記載の画像処理装置。   The image processing apparatus according to claim 9, wherein the shape information is a distance image. 請求項1から請求項10のいずれか1項に記載の画像処理装置と、
前記画像処理装置が生成する情報から、3次元造形装置が用いるための造形データを生成する生成手段と、
前記造形データを用いる前記3次元造形装置と、
を有することを特徴とする造形システム。
The image processing apparatus according to any one of claims 1 to 10,
Generating means for generating modeling data for use by the three-dimensional modeling apparatus from the information generated by the image processing apparatus;
The three-dimensional modeling apparatus using the modeling data;
A modeling system characterized by comprising:
画像処理装置が実行する画像処理方法であって、
物体を異なる視点から撮影した複数の画像を取得し、
前記複数の画像の対応点を検出し、
前記対応点の画素値の色度座標から求まる直線上の特定の座標が表す色を、前記複数の画像の撮影時の光源色として推定する、
ことを特徴とする画像処理方法。
An image processing method executed by an image processing apparatus,
Acquire multiple images of objects taken from different viewpoints,
Detecting corresponding points of the plurality of images;
Estimating a color represented by specific coordinates on a straight line obtained from chromaticity coordinates of the pixel value of the corresponding point as a light source color at the time of photographing the plurality of images;
An image processing method.
コンピュータを、請求項1から請求項10のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the image processing apparatus of any one of Claims 1-10.
JP2016110211A 2016-06-01 2016-06-01 Image processing device, image processing method, and molding system Pending JP2017215851A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016110211A JP2017215851A (en) 2016-06-01 2016-06-01 Image processing device, image processing method, and molding system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016110211A JP2017215851A (en) 2016-06-01 2016-06-01 Image processing device, image processing method, and molding system

Publications (1)

Publication Number Publication Date
JP2017215851A true JP2017215851A (en) 2017-12-07

Family

ID=60577115

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016110211A Pending JP2017215851A (en) 2016-06-01 2016-06-01 Image processing device, image processing method, and molding system

Country Status (1)

Country Link
JP (1) JP2017215851A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022163423A1 (en) * 2021-01-29 2022-08-04 ソニーセミコンダクタソリューションズ株式会社 Image processing device, image processing method, and image processing program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02212829A (en) * 1989-02-14 1990-08-24 Nec Corp Method and device for measuring chromaticity of light source color of color image
JPH07128147A (en) * 1993-11-04 1995-05-19 Nippon Telegr & Teleph Corp <Ntt> Estimation apparatus of light-source color using specular reflection component
JP2008123296A (en) * 2006-11-13 2008-05-29 Pioneer Electronic Corp Light source color estimation method, estimated light source color setting method, and light source color control method
JP2013258675A (en) * 2012-05-16 2013-12-26 Canon Inc Image processing apparatus, image processing method and program, and image pick-up device
JP2015122669A (en) * 2013-12-24 2015-07-02 キヤノン株式会社 Image processing system, control method of the same, and program
JP2016097657A (en) * 2014-11-26 2016-05-30 キヤノン株式会社 Image information processing apparatus, image information processing method and program, and imaging device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02212829A (en) * 1989-02-14 1990-08-24 Nec Corp Method and device for measuring chromaticity of light source color of color image
JPH07128147A (en) * 1993-11-04 1995-05-19 Nippon Telegr & Teleph Corp <Ntt> Estimation apparatus of light-source color using specular reflection component
JP2008123296A (en) * 2006-11-13 2008-05-29 Pioneer Electronic Corp Light source color estimation method, estimated light source color setting method, and light source color control method
JP2013258675A (en) * 2012-05-16 2013-12-26 Canon Inc Image processing apparatus, image processing method and program, and image pick-up device
JP2015122669A (en) * 2013-12-24 2015-07-02 キヤノン株式会社 Image processing system, control method of the same, and program
JP2016097657A (en) * 2014-11-26 2016-05-30 キヤノン株式会社 Image information processing apparatus, image information processing method and program, and imaging device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022163423A1 (en) * 2021-01-29 2022-08-04 ソニーセミコンダクタソリューションズ株式会社 Image processing device, image processing method, and image processing program

Similar Documents

Publication Publication Date Title
JP6946188B2 (en) Methods and equipment for multi-technology depth map acquisition and fusion
KR101192893B1 (en) Image capture apparatus, computer readable recording medium, and control method
US8786679B2 (en) Imaging device, 3D modeling data creation method, and computer-readable recording medium storing programs
CN104243800B (en) Control device and storage medium
CN105814875A (en) Selecting camera pairs for stereoscopic imaging
CN104221370B (en) Image processing apparatus, camera head and image processing method
JP5406151B2 (en) 3D imaging device
JP5425305B2 (en) Stereoscopic image control apparatus, operation control method thereof, and operation control program thereof
JP5849522B2 (en) Image processing apparatus, projector, projector system, image processing method, program thereof, and recording medium recording the program
CN111108742A (en) Information processing device, information processing method, program, and interchangeable lens
JP6095266B2 (en) Image processing apparatus and control method thereof
TWI543582B (en) Image editing method and a related blur parameter establishing method
JP2016001853A (en) Image processing system, imaging device, control method, and program
JP2019179463A (en) Image processing device, control method thereof, program, and recording medium
JP2018182700A (en) Image processing apparatus, control method of the same, program, and storage medium
JP2017138927A (en) Image processing device, imaging apparatus, control method and program thereof
JP2017215851A (en) Image processing device, image processing method, and molding system
JP6257260B2 (en) Imaging apparatus and control method thereof
JP2013118472A (en) Image processing apparatus, imaging apparatus and image processing program
JP2017184007A (en) Image processing apparatus, imaging apparatus, control method, and program
JP2009293970A (en) Distance measuring device and method, and program
JP2016099322A (en) Imaging device, control method of imaging device, and program
JP6723127B2 (en) Image processing apparatus, image processing method, 3D printing system, program, storage medium
JP6585890B2 (en) Image processing apparatus, image processing method and program, and imaging apparatus
JP2014011639A (en) Imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190517

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200710

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200908

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201214

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113