JP2017215851A - Image processing device, image processing method, and molding system - Google Patents
Image processing device, image processing method, and molding system Download PDFInfo
- Publication number
- JP2017215851A JP2017215851A JP2016110211A JP2016110211A JP2017215851A JP 2017215851 A JP2017215851 A JP 2017215851A JP 2016110211 A JP2016110211 A JP 2016110211A JP 2016110211 A JP2016110211 A JP 2016110211A JP 2017215851 A JP2017215851 A JP 2017215851A
- Authority
- JP
- Japan
- Prior art keywords
- image processing
- color
- light source
- images
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
- Color Television Image Signal Generators (AREA)
Abstract
Description
本発明は、画像処理装置および画像処理方法に関し、特には画像から光源色を推定する技術に関する。本発明はまた造形システムに関する。 The present invention relates to an image processing apparatus and an image processing method, and more particularly to a technique for estimating a light source color from an image. The invention also relates to a modeling system.
3次元(3D)物体の撮影画像に基づいて物体の3D形状のデータを生成する装置(3Dスキャナ)が知られている。例えば、ある3次元物体のミニチュアを3Dプリンタ(3D造形装置)で作る場合、物体の3D形状だけでなく色についても情報が取得できれば、再現性のよい造形物が得られる。 An apparatus (3D scanner) that generates 3D shape data of an object based on a captured image of a three-dimensional (3D) object is known. For example, when making a miniature of a certain three-dimensional object with a 3D printer (3D modeling apparatus), if information about not only the 3D shape of the object but also the color can be acquired, a model with good reproducibility can be obtained.
しかしながら、撮影画像における物体の色は、環境光の色に影響を受けている。そのため、撮影画像における環境光の色の影響を排除することが望まれる。撮影画像から環境光の色(光源色)を推定する技術として、特許文献1には、明るさの異なる近接画素間の差分を算出することで、被写体を照射する光源色を特定する方法が開示されている。また、特許文献2には、入力画像の中から鏡面反射の生じている領域を推定し、その領域において画素値の差分を算出することにより、光源色を推定する方法が開示されている。 However, the color of the object in the captured image is affected by the color of the ambient light. For this reason, it is desired to eliminate the influence of the color of the ambient light on the captured image. As a technique for estimating the color of ambient light (light source color) from a captured image, Patent Document 1 discloses a method for specifying a light source color that irradiates a subject by calculating a difference between adjacent pixels having different brightnesses. Has been. Patent Document 2 discloses a method for estimating a light source color by estimating a region where specular reflection occurs from an input image and calculating a difference between pixel values in the region.
しかしながら、特許文献1、2に開示された方法は、差分を取得する画素の位置に対応する物体の色が同一であることを仮定して光源色を推定している。そのため、例えば物体色が連続的に変化している場合など、差分を取得する画素の位置に対応する物体の色が異なっている場合には推定精度が低下するという課題があった。 However, the methods disclosed in Patent Documents 1 and 2 estimate the light source color on the assumption that the color of the object corresponding to the position of the pixel from which the difference is obtained is the same. Therefore, for example, when the object color is continuously changing, there is a problem that the estimation accuracy is lowered when the color of the object corresponding to the position of the pixel from which the difference is acquired is different.
本発明の目的は、簡易な構成で精度良く光源色を推定可能な画像処理装置および画像処理方法を提供することである。 An object of the present invention is to provide an image processing apparatus and an image processing method capable of accurately estimating a light source color with a simple configuration.
上述の目的は、物体を異なる視点から撮影した複数の画像を取得する取得手段と、複数の画像の対応点を検出する検出手段と、対応点の画素値の色度座標から求まる直線上の特定の座標が表す色を、複数の画像の撮影時の光源色として推定する推定手段と、を有することを特徴とする画像処理装置によって達成される。 The purpose described above is to acquire a plurality of images obtained by photographing an object from different viewpoints, to detect a corresponding point of a plurality of images, and to specify a straight line obtained from chromaticity coordinates of pixel values of the corresponding points. And an estimation unit that estimates a color represented by the coordinates as a light source color at the time of photographing a plurality of images.
本発明によれば、簡易な構成で光源色を推定可能な画像処理装置および画像処理方法を提供することが出来る。 According to the present invention, it is possible to provide an image processing apparatus and an image processing method capable of estimating a light source color with a simple configuration.
以下、添付図面を参照して、本発明の例示的な実施形態について説明する。なお、以下では、本発明の実施形態に係る画像処理装置の一例としての、もしくは本発明の実施形態に係る画像処理方法を実施可能な装置の一例としてのカメラシステム(一眼レフデジタルカメラ)について説明する。しかしながら、本発明は画像処理が可能な電子機器において実施可能であり、撮影機能は必須では無い。本発明を実施可能な電子機器の例には、撮像装置や撮影機能を有する電子機器、各種のコンピュータ機器(パーソナルコンピュータ、タブレットコンピュータ、ウェアラブルコンピュータなど)、スマートフォン、ゲーム機、メディアプレーヤなどが含まれる。 Hereinafter, exemplary embodiments of the present invention will be described with reference to the accompanying drawings. In the following, a camera system (single-lens reflex digital camera) as an example of an image processing apparatus according to an embodiment of the present invention or as an example of an apparatus capable of performing an image processing method according to an embodiment of the present invention will be described. To do. However, the present invention can be implemented in an electronic device capable of image processing, and a photographing function is not essential. Examples of electronic devices that can implement the present invention include an imaging device, an electronic device having a photographing function, various computer devices (such as a personal computer, a tablet computer, and a wearable computer), a smartphone, a game machine, and a media player. .
図2は実施形態に係るカメラシステムの構成例を示す図であり、図2(a)は撮影光学系の光軸を通る鉛直断面の図、図2(b)は電気的な構成例を示すブロック図である。なお、本実施形態のカメラシステムは、被写体の3次元形状の情報を取得することが可能であるため、3Dスキャナとしても機能する。また、環境光の色を推定し、被写体の物体色の情報を取得することが可能であるため、光源色または物体色の推定装置としても機能する。 2A and 2B are diagrams illustrating a configuration example of the camera system according to the embodiment. FIG. 2A is a vertical cross-sectional view passing through the optical axis of the photographing optical system, and FIG. 2B is an electrical configuration example. It is a block diagram. Note that the camera system of the present embodiment can also acquire information on the three-dimensional shape of the subject, and thus functions as a 3D scanner. In addition, since it is possible to estimate the color of the ambient light and acquire information on the object color of the subject, it also functions as a light source color or object color estimation device.
カメラシステム100は、カメラ本体1と、カメラ本体1に着脱自在に装着されるレンズユニット2を備えて構成される。カメラ本体1は、カメラ制御部5、撮像素子6、画像処理部7、メモリ部8、表示部9、操作検出部10、電器接点11、クイックリターンミラー14を備えている。また、レンズユニット2は、光軸4を共通とする複数のレンズからなる撮影光学系3と、レンズ駆動部13と、レンズ制御部12とを有している。撮影光学系3は、絞り、フォーカスレンズ、変倍レンズ、補正レンズなどの可動部材を有する。レンズ駆動部13は、レンズ制御部12の制御に従ってアクチュエータやモータを駆動することにより、可動部材の位置を変更する。
The
カメラシステム100において、撮影光学系3および撮像素子6は被写体像を電気信号に変換する撮像部の少なくとも一部を構成する。また、メモリ部8および表示部9は画像データを記録したり出力したりする記録再生部の少なくとも一部を構成する。カメラ制御部5は1つ以上のプロセッサとメモリとを有する。
In the
カメラ制御部5は、メモリの不揮発性部分に記憶されたプログラムをメモリの揮発性部分にロードして実行することにより、カメラ本体1およびレンズユニット2の動作を制御し、カメラシステム100全体の動作を実現する。カメラ制御部5はレンズ制御部12と電器接点11を通じて通信し、レンズ制御部12を通じてレンズユニット2の動作を制御する。
The camera control unit 5 controls the operations of the camera body 1 and the lens unit 2 by loading the program stored in the non-volatile portion of the memory into the volatile portion of the memory and executing the program, and the operation of the
レンズ制御部12は1つ以上のプロセッサとメモリとを有する。レンズ制御部12は、メモリの不揮発性部分に記憶されたプログラムをメモリの揮発性部分にロードして実行することにより、カメラ制御部5との通信を確立したり、カメラ制御部5の制御に基づく動作を実行したりする。さらにレンズ制御部12は例えばレンズユニット2に設けられた加速度センサのような振れ検出センサの信号に基づいて補正レンズの駆動方向および駆動量を算出し、レンズ駆動部13を介して補正レンズを駆動して手振れ補正を実行する。なお、手振れ補正の実行有無はカメラ制御部5から制御される。
The
撮影光学系3は、被写体の光学像を撮像素子6の撮像面に形成する。後述するように、撮像素子6の結像面には複数のマイクロレンズが格子状に配列されたマイクロレンズアレイ(以下、MLA)が配置される。また、撮像素子6は、1つのマイクロレンズを共有する複数の光電変換部を有し、焦点検出用の信号を生成可能である。画像処理部7は、撮像素子6から得られる信号に基づいて所定の評価値を生成する。カメラ制御部5は評価値に基づいて自動焦点検出(AF)および自動露出制御(AE)処理を実行することができる。
The imaging
画像処理部7は、撮像素子6からの信号読み出しおよび、読み出した信号に対する各種処理を実行する。画像処理部7が実行する処理には例えば以下の様なものがある。A/D変換、D/A変換、ノイズ低減、信号形式の変換、ホワイトバランス調整、ガンマ補正、デモザイキング、スケーリング、フィルタリング、符号化および復号、評価値の生成、画像特徴量の生成、相関演算、画像認識、GUI画像生成、暗号化および解除など。なお、これらは単なる例示であり、他の処理を実行したり、一部を実行しないこともあり得る。
The
また、画像処理部7は、1回の撮影で撮像素子6から得られる信号に基づいて、撮影視点の異なる複数の画像(多視点画像)を生成すること、多視点画像の各画素における被写体距離を算出することができる。また、画像処理部7は多視点画像に基づいて、多視点画像の撮影時の光源(環境光)の色を推定する処理も実行する。
In addition, the
画像処理部7はこれらの処理の少なくとも一部を専用のハードウェア回路で実行することができる。また、画像処理部7はこれらの処理の少なくとも一部を、プロセッサでプログラムを実行することによって実現することができる。したがって、カメラ制御部5が画像処理部7の少なくとも一部を兼ねてもよい。また、撮像素子6がA/D変換機能を有していてもよい。
The
メモリ部8は記憶装置を含み、各種データの記録先として用いられるほか、表示部9のビデオメモリや、カメラ制御部5や画像処理部7のワークメモリとしても用いられる。メモリ部8が着脱可能な記憶媒体(例えばメモリカード)を含む場合、メモリ部8は記録媒体の読み書きに必要なハードウェアも合わせて有する。また、メモリ部8は、黒体放射に関する情報、例えばxy色度空間における黒体放射を示す曲線を表す情報を記憶している。
The
操作検出部10は、カメラシステムに対するユーザ指示を検出する。操作検出部10はユーザが操作可能なボタン、スイッチ、タッチパネルなどを含むことができる。なお、ユーザ指示は視線入力や音声入力などで行われてもよく、操作検出部10は受け付け可能な入力の種類に応じた構成を有する。操作検出部10で検出した入力はカメラ制御部5に通知される。カメラ制御部5は、通知された入力に応じた処理を実行する。
The
例えば、レリーズボタンの押下を操作検出部10が検出すると、カメラ制御部5は静止画の撮影・記録動作を実行する。具体的には、カメラ制御部5は、クイックリターンミラー14をアップし、AE動作で決定された露出条件に従って撮影光学系3に含まれる絞りと撮像素子6の電荷蓄積時間を制御する。また、カメラ制御部5は撮像素子6から画像信号を読み出して画像処理部7に供給し、表示用の画像データと、記録用の画像データファイルを生成させる。さらに、カメラ制御部5は、表示用の画像データをメモリ部8のビデオメモリに書き込んで表示部9に表示させ、記録用の画像データファイルはメモリ部8の記憶装置に書き込む。
For example, when the
例えば、画像処理部7におけるホワイトバランス調整処理の一部として、後述する光源色の推定処理を実行し、推定した光源色に応じた白検出範囲を用いたオートホワイトバランス調整を実行することができる。
For example, as part of the white balance adjustment process in the
図3は撮像素子6の構成例を示す図である。本実施形態において撮像素子6は瞳分割機能を有し、1度の露光で視点の異なる複数の画像を生成することができる。図3(a)は撮像素子6の模式的な上面図および側面図である。撮像素子6上にはMLA20が設けられており、MLA20の前側主点は撮影光学系3の結像面近傍になるように配置されている。なお、図3(a)ではMLA20を構成する各マイクロレンズの形状が把握しやすいようにデフォルメしてある。
FIG. 3 is a diagram illustrating a configuration example of the
図3において、z軸は撮影光学系3の光軸に並行で、カメラ本体1内の原点からレンズユニット方向に延びる軸である。また、カメラ本体1の底面(図2(a)のB)を水平にし、光軸上の点からカメラ本体1を見た際に、原点から鉛直上方に延びる軸をy軸、原点から水平左方向に延びる軸がx軸である。
In FIG. 3, the z axis is an axis extending in the direction of the lens unit from the origin in the camera body 1 in parallel with the optical axis of the photographing
図3(b)は水平2つおよび垂直2つのマイクロレンズと、撮像素子6の光電変換領域との対応関係を模式的に示した図である。ここでは、1つのマイクロレンズ21に対して、5行×5列=25個の光電変換領域が対応付けられている(25個の光電変換領域が1つのマイクロレンズを共有している)。ここで、光電変換領域とは、撮像素子6において独立して信号を読み出しできる最小単位とし、複数の光電変換領域の信号を合成(加算)して読み出すことも可能である。
FIG. 3B is a diagram schematically illustrating a correspondence relationship between two horizontal and vertical microlenses and the photoelectric conversion region of the
図3(c)は、図3(b)の光電変換領域20−a〜20−eと、撮影光学系3の射出瞳31との対応関係を模式的に示した図である。図3(c)の下の図は、撮像素子6の、図3(b)の左上のマイクロレンズ21に対応する部分のa−a断面を示している。また、図3(c)の上の図は、撮影光学系3の射出瞳面を示している。ここでは説明を分かりやすくするため、射出瞳面を90度回転させ、紙面に平行な面として図示している(軸の方向を参照されたい)。
FIG. 3C is a diagram schematically illustrating a correspondence relationship between the photoelectric conversion regions 20-a to 20-e in FIG. 3B and the
図3(c)に示すように、マイクロレンズ21は、マイクロレンズ21に対応付けられた25個の光電変換領域のそれぞれが、撮影光学系3の射出瞳31内の互いに異なる特定の領域と共役関係を有するように設計されている。すなわち、図3(c)の例では光電変換領域20−a〜20−eが、射出瞳31内の領域30−a〜30−eとそれぞれ1対1で対応している。このような共役関係により、個々の光電変換領域には、射出瞳31内の特定の領域を出射した光束のみが入射する。また、個々の光電変換領域で得られる信号は、マイクロレンズ21に特定の方向から入射した光束の強度を表す。例えば、光電変換領域20−bには、射出瞳31内の領域30−bを出射した、特定の方向からの光束のみが入射する。図3(c)では理解を容易にするため、25個の光電変換領域のうち、水平方向の5つについてのみ説明したが、他の光電変換領域についても同様である。
As shown in FIG. 3C, in the
個々のマイクロレンズに対応付けられた複数の光電変換領域のうち、射出瞳内の同じ領域(例えば領域30−b)に対応する光電変換領域(この例では20−b)から得られる信号群から画像を形成することができる。従って、図3の構成を有する撮像素子6を用いた場合、1回の露光で25種類の画像を形成することができる。この、25種類の画像は、射出瞳31内の異なる領域から被写体を見た画像であるため、同一被写体を異なる視点位置から撮影した多視点画像(視差画像)である。
From a signal group obtained from a photoelectric conversion region (in this example, 20-b) corresponding to the same region (for example, region 30-b) in the exit pupil among a plurality of photoelectric conversion regions associated with each microlens. An image can be formed. Therefore, when the
なお、本実施形態では1つのマイクロレンズに複数の光電変換領域を対応付けた構成を有する撮像素子を用いて多視点画像を得る構成について説明した。しかし、多眼カメラを用いるなど、他の構成によって多視点画像を得ることもできる。 In the present embodiment, the configuration in which a multi-viewpoint image is obtained using an imaging device having a configuration in which a plurality of photoelectric conversion regions are associated with one microlens has been described. However, a multi-viewpoint image can be obtained by other configurations such as using a multi-view camera.
次に、本実施形態における光源色の推定処理について説明する。本実施形態では、物体からの反射光が、光源と同じ分光分布を有する鏡面反射成分と、物体の材質によって一部の波長が吸収された拡散反射成分との和として観察される2色性反射モデルに基づいて光源色を推定する。 Next, light source color estimation processing in the present embodiment will be described. In the present embodiment, dichroic reflection in which reflected light from an object is observed as the sum of a specular reflection component having the same spectral distribution as the light source and a diffuse reflection component in which a part of the wavelength is absorbed by the material of the object. Estimate the light source color based on the model.
図4(a)は、物体50の表面が完全拡散反射面(ランバート面)の場合における、光線51の反射光(拡散反射光)52を模式的に示す図である。図4(a)では、反射光52を強度の包絡線で表している。ランバート面での拡散反射光は各方向への反射が均一で、反射光の輝度(強度)は観察方向に依存しない。拡散反射光の輝度Ld(λ)は、以下の式で表すことができる。
Ld(λ)=Ie(λ)Kd(λ)cosθ …(1)
ただし、Ie(λ)は光源の輝度、Kd(λ)は拡散反射特性、θは入射角、λは波長である。
FIG. 4A is a diagram schematically showing the reflected light (diffuse reflected light) 52 of the
Ld (λ) = Ie (λ) Kd (λ) cos θ (1)
Where Ie (λ) is the luminance of the light source, Kd (λ) is the diffuse reflection characteristic, θ is the incident angle, and λ is the wavelength.
図4(b)は物体50の表面が鏡面の場合における、光線51の反射光(鏡面反射光)53を模式的に示す図である。61は光線51の正反射方向を示している。また、図4(a)と同様に、反射光53を強度の包絡線で表している。ここでは鏡面反射光のモデルとしてフォンモデルを用いるが、他のモデルを用いても良い。鏡面反射光53の強度は、光線51の正反射方向61に強いピークを持ち、観察方向が正反射方向から離れると大きく減衰する。鏡面反射光の輝度Ls(λ)は、以下の式で表すことができる。
Ls(λ)=Ie(λ)(cosφ)n …(2)
ただし、φは正反射方向と観察方向のなす角、nは物体の特性によって決まる定数である。
FIG. 4B is a diagram schematically showing the reflected light (specular reflected light) 53 of the
Ls (λ) = Ie (λ) (cosφ) n (2)
However, φ is an angle formed by the specular reflection direction and the observation direction, and n is a constant determined by the characteristics of the object.
2色性反射モデルによれば、物体の反射光は、鏡面反射光と拡散反射光との合成であるため、任意の視点pで観察される反射光の輝度L(λ)は次の式で表すことができる。
L(λ)=Ld(λ)+Ls(λ)
=Ie(λ)Kd(λ)cosθ+Ie(λ)(cosφp)n …(3)
ただし、φpは正反射方向と視点pとのなす角である。
According to the dichroic reflection model, the reflected light of the object is a combination of the specular reflection light and the diffuse reflection light. Therefore, the luminance L (λ) of the reflected light observed at an arbitrary viewpoint p is given by Can be represented.
L (λ) = Ld (λ) + Ls (λ)
= Ie (λ) Kd (λ) cos θ + Ie (λ) (cos φ p ) n (3)
However, phi p is the angle between the specular direction and the viewpoint p.
図4(c)は、式(3)で表される、物体50の反射光54をカメラシステム100で撮影したいる状態を模式的に示す図である。ここでは、光軸4が光線51の反射点を通り、光軸4と正反射方向61とが少しずれた位置関係にあるものとする。また、撮影光学系3は反射点50aに合焦している。反射光54は、包絡線で示すように、拡散反射光52と鏡面反射光53とを合成した強度分布を有している。また、φaおよびφeは、撮影光学系3の瞳領域30−aおよび30−eに入射する反射光と正反射方向61がなす角をそれぞれ示している。
FIG. 4C is a diagram schematically illustrating a state in which the reflected
この例では、φa>φeであるため、瞳領域30−aに入射する光束に含まれる鏡面反射光の強度は、瞳領域30−eに入射する光束に含まれる鏡面反射光の強度より低くなる。一方、拡散反射光の強度は観察方向に依存しないため、瞳領域30−aと30−eに入射する光束に含まれる拡散反射光の強度は等しい。 In this example, since φ a > φ e , the intensity of the specular reflected light included in the light beam incident on the pupil region 30-a is greater than the intensity of the specular reflected light included in the light beam incident on the pupil region 30-e. Lower. On the other hand, since the intensity of the diffuse reflected light does not depend on the observation direction, the intensity of the diffuse reflected light included in the light flux incident on the pupil regions 30-a and 30-e is equal.
図4(d)は、図4(c)を複数の平行光に拡張した状態を示している。光線51a〜51dは物体50に入射し、入射点(反射点)50a〜50dで反射する。61a〜61dは光線51a〜51dの正反射方向である。ここでは、撮影光学系3の光軸4の方向が光線51bの正反射方向61bと合致し、かつ反射点50a〜50dに合焦している。そのため、ある反射点からの反射光は、射出瞳内のどこを通っても結像面上の同じ位置に入射する。従って、光線51a〜51dの反射光は、撮像素子6の結像面上の点6a〜6dに結像される。
FIG. 4D shows a state in which FIG. 4C is expanded to a plurality of parallel lights. The light rays 51a to 51d enter the
図4(d)の下部に、撮像素子6で観察される、瞳領域30−aからの入射光の強度分布52−aと瞳領域30−eからの入射光の強度分布52−eを示している。ここでは、強度分布を輝度の大きさによって示している。また、53は、結像面上の位置6cで観測される瞳領域30−aからの入射光の輝度、54は、結像面上の位置6cで観測される瞳領域30−eからの入射光の輝度54を、55は拡散反射光の輝度を、それぞれ示す。拡散反射光の強度55は式(1)、式(3)のLd(λ)に相当する。
The lower part of FIG. 4D shows the intensity distribution 52-a of incident light from the pupil region 30-a and the intensity distribution 52-e of incident light from the pupil region 30-e, which are observed by the
このように、物体表面の同一点を異なる視点から観察した場合、観察される反射光に含まれる鏡面反射光の強度に差が生じる。そのため、この強度差を用いて鏡面反射光の色を推定する。鏡面反射光は環境光源と同じ分光分布を有するため、鏡面反射光の色の推定は環境光の色の推定に等しい。 Thus, when the same point on the object surface is observed from different viewpoints, a difference occurs in the intensity of the specular reflection light included in the reflected light to be observed. Therefore, the color of specular reflection light is estimated using this intensity difference. Since the specular reflected light has the same spectral distribution as that of the environmental light source, the estimation of the color of the specular reflected light is equal to the estimation of the color of the environmental light.
以下、具体的な光源色推定動作について説明する。
図5(a)はカメラシステム100における撮影動作のフローチャートである。ここでは、撮影動作の過程で光源色推定を実施するものとする。しかしながら、本実施形態の光源色推定動作は例えばメモリ部8の記憶装置などに記録済みの画像データに対して実行することも可能である。すなわち、同一物体を異なる視点から観察した画像のデータが得られれば、データの取得方法は問わない。また、ここでは例えば3Dプリンタへの利用を想定して被写体の3次元形状の情報の取得や物体色の推定も実行するものとするが、これらの処理は必須ではない。
Hereinafter, a specific light source color estimation operation will be described.
FIG. 5A is a flowchart of the shooting operation in the
図5(a)に示す処理は、例えばカメラシステム100が撮影スタンバイ状態の際に実行される。カメラシステム100は、撮影スタンバイ状態において継続的に動画撮影を実行し、撮影した動画を表示部9に表示する、所謂ライブビュー表示動作を実行するものとする。
The process illustrated in FIG. 5A is executed, for example, when the
S110でカメラ制御部5は、撮像素子6から1フレーム分の画像を取得し、画像処理部7に供給する。画像処理部7は、ライブビュー表示用の画像データを生成し、メモリ部8のビデオメモリ部分に書き込む。なお、ライブビュー表示においては多視点画像を生成する必要がない。そのため、カメラ制御部5は、1つのマイクロレンズを共有する複数の光電変換部のそれぞれで得られる信号を加算した信号を画像処理部7に供給する。なお、信号の読み出しは光電変換部ごとに行い、マイクロレンズあたり1つの信号が得られるように画像処理部7で加算してもよい。
In S <b> 110, the camera control unit 5 acquires an image for one frame from the
S120でカメラ制御部5はメモリ部8から画像データを読み出し、表示部9に表示させ、処理をS130に進める。
In S120, the camera control unit 5 reads the image data from the
S130でカメラ制御部5は、操作検出部10で撮影開始指示が検出されたか否かを調べる。撮影開始指示は、例えば操作検出部10に含まれるレリーズボタンの全押し操作であってよい。カメラ制御部5は、撮影開始指示が検出されていれば処理をS140に進め、検出されていなければ処理をS110に戻して次のフレームの取得および表示動作を実行する。なお、図5(a)には記載していないが、操作検出部10を通じて撮影準備動作の開始指示が検出された場合、カメラ制御部5はS110およびS120の動作と並行して、AF処理やAE処理などの撮影準備動作を実行する。
In S <b> 130, the camera control unit 5 checks whether or not a shooting start instruction is detected by the
S140でカメラ制御部5はAE処理で決定した露出条件に従って静止画撮影を行い、画像処理部7に供給する。ここでは、カメラ制御部5は、光電変換部ごとの信号を画像処理部7に供給する。画像処理部7は、共役関係を有する瞳領域が同じ光電変換部から得られた信号群ごとに1フレームの画像を生成し、メモリ部8に一時的に記憶する。撮像素子6が図3に示した構成を有する場合、1回の露光で25フレームの多視点画像が生成可能である。なお、多視点画像は最低2フレーム生成すればよく、必ずしも25フレーム全てを生成しなくてもよい。
In S <b> 140, the camera control unit 5 performs still image shooting according to the exposure condition determined in the AE process, and supplies the still image to the
S150で画像処理部7は、多視点画像間で対応点を推定する。詳細については後述する。
S160でカメラ制御部5は、S150で推定された対応点の情報を用い、光源色を推定する。詳細については後述する。
In S150, the
In S160, the camera control unit 5 estimates the light source color using the information on the corresponding points estimated in S150. Details will be described later.
S170でカメラ制御部5は、推定された光源色に基づいて、物体色を推定する。S160での光源色の推定により、式(1)〜式(3)における光源輝度Ie(λ)が求まる。撮影で得られた画像は、式(3)で表される反射光によるものであるから、鏡面反射光Ls(λ)の成分を除去すれば、拡散反射光Ld(λ)を得ることができる。鏡面反射光成分は光源輝度Ie(λ)が小さいほど小さくなる。従って、多視点画像において同一物体に対応する画素のうち、輝度が最も低い画素の信号を、その物体の色成分(拡散反射光)を最も高い割合で含んでいる信号として選択することができる。あるいは、適当な反射モデル(例えばフォンモデル)の下で、拡散反射光の強度を表す関数を回帰分析などにより求め(フィッティングし)、式(3)における拡散反射光の成分Ld(λ)を推定してもよい。拡散反射光の成分を抽出することは、図4(c)の反射光54から拡散反射光52の成分を抽出することに相当する。 In S170, the camera control unit 5 estimates the object color based on the estimated light source color. By estimating the light source color in S160, the light source luminance Ie (λ) in the equations (1) to (3) is obtained. Since the image obtained by photographing is based on the reflected light represented by the expression (3), the diffuse reflected light Ld (λ) can be obtained by removing the component of the specular reflected light Ls (λ). . The specular reflection light component decreases as the light source luminance Ie (λ) decreases. Therefore, the signal of the pixel with the lowest luminance among the pixels corresponding to the same object in the multi-viewpoint image can be selected as the signal containing the color component (diffuse reflected light) of the object in the highest ratio. Alternatively, a function representing the intensity of diffuse reflected light is obtained (fitted) by regression analysis or the like under an appropriate reflection model (for example, the Phong model), and the diffuse reflected light component Ld (λ) in Equation (3) is estimated. May be. Extracting the diffuse reflected light component corresponds to extracting the diffuse reflected light 52 component from the reflected light 54 in FIG.
このようにして抽出された拡散反射光の成分が表す色は、光源色の影響を受けている。そのため、S160で推定した光源色に基づくホワイトバランスゲインを適用することにより、観察された色から光源色の影響を低減し、物体色を推定することができる。例えば、撮像素子6が原色ベイヤ配列のカラーフィルタを用いている場合、緑フィルタの透過光に対応する信号値を基準(ゲイン1.0)として、赤および青フィルタの透過光に対応する信号値のゲインを調整する。
The color represented by the diffuse reflection light component thus extracted is affected by the light source color. Therefore, by applying the white balance gain based on the light source color estimated in S160, the influence of the light source color can be reduced from the observed color, and the object color can be estimated. For example, when the
S180でカメラ制御部5は、撮影で得られた画像の出力(表示および記録の少なくとも一方)を行う。記録する画像は多視点画像の全てであってもよいが、多視点画像の一部、あるいは多視点画像を合成した画像であってよい。表示については多視点画像の1つ、あるいは多視点画像を合成した画像を用いることができる。なお、本実施形態では、推定した光源色に基づくホワイトバランス調整を行った画像を記録するものとする。これにより、記録画像は環境光の色に依存しない物体の色を示す。なお、記録する画像データの形式や画像データを格納するファイルの形式に制限はない。もちろん、推定した光源色のデータとともに、ホワイトバランス調整を行っていない画像(例えばRAW形式の画像)を記録してもよい。また、撮影の目的が被写体の3次元情報の取得である場合は、合成画像、距離画像、および推定した光源色を記録してもよい。 In S180, the camera control unit 5 outputs (at least one of display and recording) an image obtained by photographing. The images to be recorded may be all of the multi-view images, but may be a part of the multi-view images or an image obtained by synthesizing the multi-view images. For display, one of the multi-viewpoint images or an image obtained by synthesizing the multi-viewpoint images can be used. In the present embodiment, it is assumed that an image subjected to white balance adjustment based on the estimated light source color is recorded. Thereby, the recorded image shows the color of the object independent of the color of the ambient light. There is no limitation on the format of image data to be recorded and the format of a file storing image data. Of course, together with the estimated light source color data, an image that has not been subjected to white balance adjustment (for example, an image in RAW format) may be recorded. In addition, when the purpose of photographing is acquisition of three-dimensional information of a subject, a composite image, a distance image, and an estimated light source color may be recorded.
S190でカメラ制御部5は撮影および記録動作を終了するかどうか判定し、予め定められた終了指示が検出された場合には処理を終了し、検出されていなければ処理をS110に戻す。終了指示の検出は、例えば再生モードへの切り替え指示が検出された場合や、電源OFFの指示が検出された場合であってよいが、これらに限定されない。 In step S190, the camera control unit 5 determines whether to end the shooting and recording operation. If a predetermined end instruction is detected, the process ends. If not, the process returns to step S110. The detection of the end instruction may be, for example, when a switching instruction to the reproduction mode is detected or when a power-off instruction is detected, but is not limited thereto.
次に、S150で行う対応点の推定処理の詳細について、図5(b)に示すフローチャートを用いて説明する。対応点の推定は、S140で生成した多視点画像のうち、任意の2画像を対象として相対的な位置関係を探索する処理である。一方の画像の一部を矩形(ブロック)状に切り出し、テンプレートとする。そして、他方の画像に探索領域を設定し、探索領域内でテンプレートを移動させながら、個々の位置で類似度(相関)を算出し、最も類似度が高い位置を探索する。例えば、多視点画像の1つを基準画像として他のそれぞれと対応点を推定することにより、基準画像の各画素について、他の画像のそれぞれにおける対応点を検出することができる。 Next, details of the corresponding point estimation process performed in S150 will be described with reference to the flowchart shown in FIG. Corresponding point estimation is a process of searching for a relative positional relationship for any two images among the multi-viewpoint images generated in S140. A part of one image is cut out in a rectangular (block) shape and used as a template. Then, a search area is set in the other image, the similarity (correlation) is calculated at each position while moving the template within the search area, and a position with the highest similarity is searched. For example, by estimating one corresponding point with each other using one of the multi-viewpoint images as a reference image, the corresponding point in each of the other images can be detected for each pixel of the reference image.
S310で画像処理部7は、一方の画像に対してテンプレートを設定する。テンプレートは例えば8×8画素の矩形ブロックであってよい。テンプレートの設定位置は特に制限されないが、コントラストの高いパターンや特徴的なパターンを含むように設定することで、対応点の検出精度を高めることができる。また、画像の各画素について対応点を探索する場合には、探索の対象画素を画像の左から右へ、また上から下へ順次移動させながら、対象画素を中心としたテンプレートを設定することができる。
In S310, the
S320で画像処理部7はブロックマッチングを行う。例えば、図6(a)および(b)に示す画像91、94を対象とし、S310で画像91にテンプレート93を設定したとする。この場合、画像処理部7は、画像94内で対応点を探索する。
In S320, the
具体的には、画像処理部7は、画像94において、テンプレート93と最も類似度が高い領域を探索する。例えば画像処理部7は、画像94内の領域のうち、テンプレート93と画素値の差分絶対値和(SAD)が最も小さくなる領域を、テンプレート93と最も類似度が高い領域として探索する。図6の例では、画像処理部7は、画像91のテンプレート93の切り出し位置に対応する、画像94内の領域95について、テンプレート93との類似度をまず算出する。その後、画像処理部7は、矢印96で示されるように、画像94内で類似度を算出する領域の位置を水平および垂直方向に順次移動させながら、各位置で類似度を算出する。ただし、画像91と画像94にはエピポーラ拘束が当てはまるため、探索は画像91と94のエピポーラ線上の位置に限定することができる。
Specifically, the
ここでは、領域97が類似度の最も高い領域として検出されたものとする。図6(c)は画像91および94、テンプレート93および領域97を重ね合わせて模式的に示した図である。テンプレート93の移動方向および移動量を動きベクトル99として示している。
Here, it is assumed that the
S330で画像処理部7は、対応点情報を保存する。対応点情報は例えば、テンプレート93から、S320で検出された、テンプレート93に最も類似度の高い領域への移動ベクトルであってよい。あるいは、テンプレート93内の対象画素の対応点として検出された画像94の画素の座標を保存してもよい。
In S330, the
S340で画像処理部7は、画像91についてのマッチング処理が完了したか(予め定められた全ての領域をテンプレートとしてマッチング処理を行ったか)否かを判定する。画像処理部7は、マッチング処理が完了したと判定されれば対応点推定処理を終了し、完了したと判定されなければ処理をS310にもどして、別の領域をテンプレートとしたマッチング処理を実行する。
In S340, the
対応点推定処理により、視点の異なる2画像、すなわちステレオ画像における対応点が特定される。そのため、画素ピッチなど既知のパラメータを用い、三角測量の原理に基づいて各画素位置についての被写体距離を推定することができる。これにより、被写体の形状に関する情報を得ることができる。例えば3次元物体を異なる角度から複数回撮影し、各撮影で得られる形状情報を合成することで、3次元物体全体の形状情報を得ることができる。 By corresponding point estimation processing, corresponding points in two images with different viewpoints, that is, stereo images, are specified. Therefore, using a known parameter such as a pixel pitch, the subject distance for each pixel position can be estimated based on the principle of triangulation. Thereby, information regarding the shape of the subject can be obtained. For example, the shape information of the entire three-dimensional object can be obtained by photographing the three-dimensional object a plurality of times from different angles and combining the shape information obtained by each photographing.
次に、S160で行う光源色の推定処理の詳細について、図5(c)に示すフローチャートを用いて説明する。
S410でカメラ制御部5は、対応点推定処理により得られた対応点の情報と、画素値とに基づいて、同一物体の同一位置(すなわち、対応点)に対応する複数の画素の値(色)を色度図にマッピングする。マッピングの詳細に関しては図1を用いて後述する。マッピングは、光源色推定に用いる領域に含まれる少なくとも1つ以上の対応点について行う。
Next, the details of the light source color estimation processing performed in S160 will be described with reference to the flowchart shown in FIG.
In S410, the camera control unit 5 determines the values (colors) of a plurality of pixels corresponding to the same position (that is, the corresponding point) of the same object based on the corresponding point information obtained by the corresponding point estimation process and the pixel value. ) To the chromaticity diagram. Details of the mapping will be described later with reference to FIG. Mapping is performed for at least one corresponding point included in the region used for light source color estimation.
S420でカメラ制御部5は、光源色推定に用いるすべての領域について、S410のマッピング処理を行ったか判断している。なお、光源色推定に用いる領域が1つの場合、S420は省略できる。しかし、例えば互いに異なる色を有する複数の領域を光源色推定に用いる領域に設定し、各領域で推定した光源色に基づいて最終的な光源色を推定することで、推定精度を向上させることができる。 In S420, the camera control unit 5 determines whether or not the mapping process of S410 has been performed for all regions used for light source color estimation. Note that if there is one region used for light source color estimation, S420 can be omitted. However, for example, it is possible to improve estimation accuracy by setting a plurality of regions having different colors as regions used for light source color estimation and estimating the final light source color based on the light source color estimated in each region. it can.
一般的には主被写体の色を正しく認識することが最も重要と考えられる。そのため、合焦領域や焦点検出領域の情報を用いたり、例えば顔検出や人物認識などの被写体検出の結果を用いたりして画像中の主被写体領域を特定し、光源色推定に用いる領域として設定することができる。例えば、合焦領域を主被写体領域とみなして光源色推定に用いる領域として設定したり、合焦領域内で彩度が大きく異なる複数の領域を光源色推定に用いる領域として設定したりすることができる。 In general, it is considered most important to correctly recognize the color of the main subject. For this reason, the main subject region in the image is identified and set as the region used for light source color estimation using information on the focus region and focus detection region, or using subject detection results such as face detection and person recognition. can do. For example, the focused area may be regarded as a main subject area and set as an area used for light source color estimation, or a plurality of areas having greatly different saturations may be set as an area used for light source color estimation in the focused area. it can.
S430でカメラ制御部5は最尤推定などに基づいて光源の推定色を決定する。図1(b)を用いて後述する例のように、複数の対応点についてマッピングを行った場合、個々に推定される光源色が合致しないことがある。このような場合、カメラ制御部5は、最小2乗法などの最尤推定に基づいて光源色を決定する。 In S430, the camera control unit 5 determines the estimated color of the light source based on maximum likelihood estimation or the like. As in the example described later with reference to FIG. 1B, when mapping is performed for a plurality of corresponding points, individually estimated light source colors may not match. In such a case, the camera control unit 5 determines the light source color based on maximum likelihood estimation such as a least square method.
図1を用いて色度図への画素値のマッピングと、光源色の推定原理について説明する。ここでは色度図として、CIE標準表色系として規定されているxy色度図を用いている。しかし、同一物体色についての反射光(拡散反射光と鏡面反射光が合成された反射光)の色度が、色度図上において物体色と光源色とを結ぶ直線上に位置するという条件を満たす任意の表色系を用いることができる。 The pixel value mapping to the chromaticity diagram and the light source color estimation principle will be described with reference to FIG. Here, the xy chromaticity diagram defined as the CIE standard color system is used as the chromaticity diagram. However, there is a condition that the chromaticity of reflected light (reflected light obtained by combining diffuse reflected light and specular reflected light) for the same object color is located on a straight line connecting the object color and the light source color on the chromaticity diagram. Any color system that satisfies can be used.
図1(a)は、光源が黒体放射で近似できると仮定した場合の光源色推定方法を説明する図である。
71は単波長光の色(もっとも彩度の高い色)がxy色度図上で描く線を、72〜74は物体上の同一点を異なる視点から見たときに観察された色の座標(色度座標)を、75は座標72〜74から算出した直線を示す。また、76は黒体軌跡、77は推定された光源色の色度座標をそれぞれ示す。
FIG. 1A is a diagram illustrating a light source color estimation method when it is assumed that the light source can be approximated by black body radiation.
71 is a line drawn on the xy chromaticity diagram by the color of the single wavelength light (the color with the highest saturation), and 72 to 74 are coordinates of the color observed when the same point on the object is viewed from different viewpoints ( 75 indicates a straight line calculated from coordinates 72-74.
黒体とは、外部から入射する電磁波のエネルギーを波長によらず完全に吸収し、かつ放射する理想的な物体であり、黒体の絶対温度[K]が定まれば、放射される電磁波の分光分布(すなわち、色)が一義的に定まる物体である。低い色温度(1000K程度)では赤みを帯びた色を、中間くらいの色温度(6000K程度)では白い色を、高い色温度(10000K程度)では青みを帯びた色を有する。このような、色温度に応じた黒体放射の色変化をxy色度図に示したのが黒体軌跡76である。太陽光は黒体放射で非常によく近似できることが知られており、屋外の光源(人工光源を除く)は黒体放射で近似できる。色度図上の黒体軌跡を表す情報は、例えばメモリ部8に記憶されている。
A black body is an ideal object that completely absorbs and radiates the energy of electromagnetic waves incident from the outside regardless of the wavelength. If the absolute temperature [K] of the black body is determined, An object whose spectral distribution (that is, color) is uniquely determined. A low color temperature (about 1000K) has a reddish color, an intermediate color temperature (about 6000K) has a white color, and a high color temperature (about 10,000K) has a bluish color. The
座標72〜74は、光源色推定処理のS410でマッピングされた、物体上の同一点を異なる視点から見たときに観察された色の例である。
図4および式(3)で示したように、物体上の一点からの反射光に含まれる鏡面反射成分の大きさは、視点によって変化する。そのため、物体上の同じ位置を異なる視点から観察すると、異なった色に見える。上述の通り、拡散反射成分の大きさは観察位置に依存しないため、視点位置による色の違いは鏡面反射成分の大きさの違いによるものである。拡散反射成分が同一で、鏡面反射成分の大きさの違いによって違う色に観察された色を色度図にマッピング(プロット)すると、それらの座標(この例では座標72〜74)によって直線(直線75)を規定することができる。直線75は、ある特定の物体色について観察される、鏡面反射成分の大きさに応じた見かけの色の軌跡を示す。したがって、物体色と光源色はいずれも直線75上に存在する。従って、光源が黒体放射で近似できる場合には、直線75と黒体軌跡76との交点77が光源色に該当する。
As shown in FIG. 4 and Formula (3), the magnitude of the specular reflection component included in the reflected light from one point on the object varies depending on the viewpoint. Therefore, when the same position on the object is observed from different viewpoints, it looks different. As described above, since the size of the diffuse reflection component does not depend on the observation position, the color difference depending on the viewpoint position is due to the difference in the specular reflection component size. When colors that have the same diffuse reflection component and are observed in different colors depending on the size of the specular reflection component are mapped (plotted) to the chromaticity diagram, a straight line (straight line) is defined by their coordinates (in this example, coordinates 72 to 74). 75) can be specified. A
なお、3点以上マッピングした場合など、全ての座標を通る直線が得られない場合、カメラ制御部5は最小2乗法などの方法で直線75を定めることができる。そして、カメラ制御部5は、黒体軌跡76と直線75の交点77を光源の推定色として求める。
When a straight line that passes through all coordinates cannot be obtained, such as when three or more points are mapped, the camera control unit 5 can determine the
光源が黒体放射で良く近似できる場合には、黒体軌跡を用いて光源色を推定する方が容易であるが、黒体放射では近似精度が低い光源については推定精度が低下する。図1(b)は光源が黒体放射で近似できると仮定せず、画像から得られる情報のみに基づいて光源色を推定する方法を説明する図である。 When the light source can be well approximated by black body radiation, it is easier to estimate the light source color using the black body locus, but with black body radiation, the estimation accuracy decreases for a light source with low approximation accuracy. FIG. 1B is a diagram illustrating a method for estimating a light source color based only on information obtained from an image without assuming that the light source can be approximated by black body radiation.
図1(b)において、図1(a)と共通する構成には同じ参照番号を付した。座標82〜84は座標72〜74とは異なる色を有する物体上の点を異なる視点から見たときに観察された色を、85は座標82〜84から求めた直線を示す。また、座標86〜88は座標72〜74および座標82〜84とは異なる色を有する物体上の点を異なる視点から見たときに観察された色を、89は座標86〜88から求めた直線を示す。
In FIG. 1 (b), the same reference numerals are assigned to components common to FIG. 1 (a).
図1(b)の例においても、鏡面反射成分の大きさによって見かけ上の色が異なる複数の座標から求めた直線上の座標として光源色を特定する点は図1(a)の例と同様である。図1(b)の例では、黒体軌跡の代わりに、異なる物体色に係る直線を複数求め、それら複数の直線の交点の座標を光源色として特定する。具体的には、複数の物体色についてそれぞれ直線75,85,89を求め、直線の交点を光源の推定色とする。直線が1点で交わらない場合には、交点に最も近い座標として、3つの直線からの距離の和が最も小さくなる座標77を求め、光源の推定色とする。なお、ここでは直線を3本求めたが、2本以上の任意数の直線に基づいて光源色を推定することができる。
In the example of FIG. 1B as well, the light source color is specified as coordinates on a straight line obtained from a plurality of coordinates having different apparent colors depending on the magnitude of the specular reflection component, as in the example of FIG. It is. In the example of FIG. 1B, a plurality of straight lines relating to different object colors are obtained instead of the black body locus, and the coordinates of the intersection of the plurality of straight lines are specified as the light source color. Specifically,
図1(b)の例ではマッピングした画素値から求めた複数の直線の交点を求める。従って、色が異なる複数の領域を、光源色の推定に用いる領域としてマッピングを行う。 In the example of FIG. 1B, intersections of a plurality of straight lines obtained from the mapped pixel values are obtained. Therefore, a plurality of regions having different colors are mapped as regions used for light source color estimation.
また、本実施形態では、光源が黒体放射で近似できると仮定するか(推定に黒体軌跡を用いるか)否かにかかわらず、マッピングした画素値の座標から求めた直線を用いて光源色を推定する。そのため、直線を規定する座標は色度図上である程度離れていた方が正しい直線が得られやすく、推定精度が向上する。例えば、複数の視差画像のうち、視点が最も離れた画像対など、鏡面反射成分の大きさが有意に変化しやすい画像対をマッピングに用いることができる。また、対応点推定処理において、探索範囲で局所的に類似度が低かった領域の画素をマッピングに用いてもよい。 Further, in this embodiment, regardless of whether the light source can be approximated by black body radiation (whether the black body locus is used for estimation) or not, the light source color is obtained using a straight line obtained from the coordinates of the mapped pixel values. Is estimated. Therefore, it is easier to obtain a correct straight line if the coordinates defining the straight line are somewhat apart on the chromaticity diagram, and the estimation accuracy is improved. For example, among a plurality of parallax images, an image pair in which the magnitude of the specular reflection component is likely to change significantly, such as an image pair with the most distant viewpoint, can be used for mapping. In the corresponding point estimation process, pixels in a region where the similarity is locally low in the search range may be used for mapping.
以上説明したように、本実施形態では異なる視点から物体上の点を観察した複数の画像(多視点画像)を用いることで、例えば色が連続的に変化する物体の反射光から光源色を精度よく推定することができる。なお、多視点画像は多眼カメラを用いたり、1つのカメラの撮影位置を移動させたりすることで取得されてもよい。また、撮影時の視点位置や画素ピッチ、被写体距離などの情報が記録されていれば、記録済みの多視点画像を用いることも可能である。一方、本実施形態で用いるような撮像素子を用いることで、1台のカメラによる1度の撮影で多視点画像を取得可能であるという利点がある。 As described above, in this embodiment, by using a plurality of images (multi-viewpoint images) obtained by observing points on the object from different viewpoints, for example, the light source color is accurately obtained from the reflected light of the object whose color continuously changes. Can be estimated well. Note that the multi-viewpoint image may be acquired by using a multi-view camera or moving the shooting position of one camera. In addition, a recorded multi-viewpoint image can be used if information such as a viewpoint position at the time of shooting, a pixel pitch, and a subject distance is recorded. On the other hand, by using an image sensor as used in the present embodiment, there is an advantage that a multi-viewpoint image can be acquired by one shooting with one camera.
(その他の実施形態)
図7は、上述の実施形態で説明したカメラシステムを3Dスキャナとして用いた造形システムの構成例を模式的に示している。造形システムは、3Dスキャナとしてのカメラシステム100と、画像処理装置の一例であるパーソナルコンピュータ(PC)200と、3Dプリンタのような3次元造形装置300とを有する。カメラシステム100とPC200とはケーブル150で、PC200と3次元造形装置300とはケーブル250でそれぞれ接続されている。なお、ケーブルのかわりに無線通信を用いて機器間が接続されてもよい。
(Other embodiments)
FIG. 7 schematically illustrates a configuration example of a modeling system using the camera system described in the above-described embodiment as a 3D scanner. The modeling system includes a
例えばカメラ制御部5は、図5のS180で記録した情報をPC200に送信する。PC200は例えば多視点画像から距離画像を生成したり、環境光源の色を推定したり、推定した光源色に基づくホワイトバランス調整を行ったりして、3次元造形装置300が用いるための造形データを生成する。なお、距離画像、光源色、物体色の1つ以上はカメラシステム100から取得してもよい。なお、ユーザは、必要に応じて被写体の全周の画像をカメラシステム100を用いて取得し、PC200に送信するようにしてもよい。3次元造形装置300は、PC200が生成した造形データに基づいて3次元物体を生成する。このような造形システムでは、簡易な構成で光源色を推定し、色を忠実に再現した造形物を提供することができる。
For example, the camera control unit 5 transmits the information recorded in S180 of FIG. For example, the
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
2…レンズユニット、3…撮影光学系、5…カメラ制御部、7…画像処理部、8…メモリ部、9…表示部、10…操作検出部、12…レンズ制御部、100…カメラシステム DESCRIPTION OF SYMBOLS 2 ... Lens unit, 3 ... Imaging optical system, 5 ... Camera control part, 7 ... Image processing part, 8 ... Memory part, 9 ... Display part, 10 ... Operation detection part, 12 ... Lens control part, 100 ... Camera system
Claims (13)
前記複数の画像の対応点を検出する検出手段と、
前記対応点の画素値の色度座標から求まる直線上の特定の座標が表す色を、前記複数の画像の撮影時の光源色として推定する推定手段と、
を有することを特徴とする画像処理装置。 Obtaining means for obtaining a plurality of images obtained by photographing an object from different viewpoints;
Detecting means for detecting corresponding points of the plurality of images;
Estimating means for estimating a color represented by a specific coordinate on a straight line obtained from chromaticity coordinates of a pixel value of the corresponding point as a light source color at the time of photographing the plurality of images;
An image processing apparatus comprising:
前記画像処理装置が生成する情報から、3次元造形装置が用いるための造形データを生成する生成手段と、
前記造形データを用いる前記3次元造形装置と、
を有することを特徴とする造形システム。 The image processing apparatus according to any one of claims 1 to 10,
Generating means for generating modeling data for use by the three-dimensional modeling apparatus from the information generated by the image processing apparatus;
The three-dimensional modeling apparatus using the modeling data;
A modeling system characterized by comprising:
物体を異なる視点から撮影した複数の画像を取得し、
前記複数の画像の対応点を検出し、
前記対応点の画素値の色度座標から求まる直線上の特定の座標が表す色を、前記複数の画像の撮影時の光源色として推定する、
ことを特徴とする画像処理方法。 An image processing method executed by an image processing apparatus,
Acquire multiple images of objects taken from different viewpoints,
Detecting corresponding points of the plurality of images;
Estimating a color represented by specific coordinates on a straight line obtained from chromaticity coordinates of the pixel value of the corresponding point as a light source color at the time of photographing the plurality of images;
An image processing method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016110211A JP2017215851A (en) | 2016-06-01 | 2016-06-01 | Image processing device, image processing method, and molding system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016110211A JP2017215851A (en) | 2016-06-01 | 2016-06-01 | Image processing device, image processing method, and molding system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017215851A true JP2017215851A (en) | 2017-12-07 |
Family
ID=60577115
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016110211A Pending JP2017215851A (en) | 2016-06-01 | 2016-06-01 | Image processing device, image processing method, and molding system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017215851A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022163423A1 (en) * | 2021-01-29 | 2022-08-04 | ソニーセミコンダクタソリューションズ株式会社 | Image processing device, image processing method, and image processing program |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02212829A (en) * | 1989-02-14 | 1990-08-24 | Nec Corp | Method and device for measuring chromaticity of light source color of color image |
JPH07128147A (en) * | 1993-11-04 | 1995-05-19 | Nippon Telegr & Teleph Corp <Ntt> | Estimation apparatus of light-source color using specular reflection component |
JP2008123296A (en) * | 2006-11-13 | 2008-05-29 | Pioneer Electronic Corp | Light source color estimation method, estimated light source color setting method, and light source color control method |
JP2013258675A (en) * | 2012-05-16 | 2013-12-26 | Canon Inc | Image processing apparatus, image processing method and program, and image pick-up device |
JP2015122669A (en) * | 2013-12-24 | 2015-07-02 | キヤノン株式会社 | Image processing system, control method of the same, and program |
JP2016097657A (en) * | 2014-11-26 | 2016-05-30 | キヤノン株式会社 | Image information processing apparatus, image information processing method and program, and imaging device |
-
2016
- 2016-06-01 JP JP2016110211A patent/JP2017215851A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02212829A (en) * | 1989-02-14 | 1990-08-24 | Nec Corp | Method and device for measuring chromaticity of light source color of color image |
JPH07128147A (en) * | 1993-11-04 | 1995-05-19 | Nippon Telegr & Teleph Corp <Ntt> | Estimation apparatus of light-source color using specular reflection component |
JP2008123296A (en) * | 2006-11-13 | 2008-05-29 | Pioneer Electronic Corp | Light source color estimation method, estimated light source color setting method, and light source color control method |
JP2013258675A (en) * | 2012-05-16 | 2013-12-26 | Canon Inc | Image processing apparatus, image processing method and program, and image pick-up device |
JP2015122669A (en) * | 2013-12-24 | 2015-07-02 | キヤノン株式会社 | Image processing system, control method of the same, and program |
JP2016097657A (en) * | 2014-11-26 | 2016-05-30 | キヤノン株式会社 | Image information processing apparatus, image information processing method and program, and imaging device |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022163423A1 (en) * | 2021-01-29 | 2022-08-04 | ソニーセミコンダクタソリューションズ株式会社 | Image processing device, image processing method, and image processing program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6946188B2 (en) | Methods and equipment for multi-technology depth map acquisition and fusion | |
KR101192893B1 (en) | Image capture apparatus, computer readable recording medium, and control method | |
US8786679B2 (en) | Imaging device, 3D modeling data creation method, and computer-readable recording medium storing programs | |
CN104243800B (en) | Control device and storage medium | |
CN105814875A (en) | Selecting camera pairs for stereoscopic imaging | |
CN104221370B (en) | Image processing apparatus, camera head and image processing method | |
JP5406151B2 (en) | 3D imaging device | |
JP5425305B2 (en) | Stereoscopic image control apparatus, operation control method thereof, and operation control program thereof | |
JP5849522B2 (en) | Image processing apparatus, projector, projector system, image processing method, program thereof, and recording medium recording the program | |
CN111108742A (en) | Information processing device, information processing method, program, and interchangeable lens | |
JP6095266B2 (en) | Image processing apparatus and control method thereof | |
TWI543582B (en) | Image editing method and a related blur parameter establishing method | |
JP2016001853A (en) | Image processing system, imaging device, control method, and program | |
JP2019179463A (en) | Image processing device, control method thereof, program, and recording medium | |
JP2018182700A (en) | Image processing apparatus, control method of the same, program, and storage medium | |
JP2017138927A (en) | Image processing device, imaging apparatus, control method and program thereof | |
JP2017215851A (en) | Image processing device, image processing method, and molding system | |
JP6257260B2 (en) | Imaging apparatus and control method thereof | |
JP2013118472A (en) | Image processing apparatus, imaging apparatus and image processing program | |
JP2017184007A (en) | Image processing apparatus, imaging apparatus, control method, and program | |
JP2009293970A (en) | Distance measuring device and method, and program | |
JP2016099322A (en) | Imaging device, control method of imaging device, and program | |
JP6723127B2 (en) | Image processing apparatus, image processing method, 3D printing system, program, storage medium | |
JP6585890B2 (en) | Image processing apparatus, image processing method and program, and imaging apparatus | |
JP2014011639A (en) | Imaging device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190517 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200624 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200710 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200908 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20201214 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |