JP2016011874A - Image processor and method thereof - Google Patents

Image processor and method thereof Download PDF

Info

Publication number
JP2016011874A
JP2016011874A JP2014133247A JP2014133247A JP2016011874A JP 2016011874 A JP2016011874 A JP 2016011874A JP 2014133247 A JP2014133247 A JP 2014133247A JP 2014133247 A JP2014133247 A JP 2014133247A JP 2016011874 A JP2016011874 A JP 2016011874A
Authority
JP
Japan
Prior art keywords
data
reliability
reflection characteristic
image
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014133247A
Other languages
Japanese (ja)
Other versions
JP6478492B2 (en
Inventor
秀康 田代
Hideyasu Tashiro
秀康 田代
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014133247A priority Critical patent/JP6478492B2/en
Publication of JP2016011874A publication Critical patent/JP2016011874A/en
Application granted granted Critical
Publication of JP6478492B2 publication Critical patent/JP6478492B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To estimate a reflection characteristic with high accuracy about a plurality of areas having different reflection characteristics of an object.SOLUTION: An imaging data input part 303 inputs a plurality of pieces of image data obtained by lighting a plurality of light sources arranged around the object by one at a time to image the object. A reflection characteristic acquisition part 304 acquires reflection characteristic data of the object from the plurality of pieces of image data obtained by imaging the object. A reliability calculation part 306 calculates the reliability of each of a plurality of pieces of reference data associated with the reflection characteristic of the object. A reflection characteristic interpolation processing part 307 performs interpolation processing of the reflection characteristic data on the basis of the plurality of pieces of reference data and their reliabilities.

Description

本発明は、物体の反射特性を取得する画像処理に関する   The present invention relates to image processing for obtaining reflection characteristics of an object.

被写体としての物体から取得可能な情報として、色以外に、物体までの距離、物体の形状、物体の反射特性などの多種多様な情報がある。反射特性を取得する場合、物体の表面に凹凸があると、影になる領域が生じ、反射特性の取得に失敗する場合がある。反射特性の取得の失敗を防ぐために、照明の数や配置を調整して物体表面の影をなくすようにするが、物体が複雑な凹凸形状をもつ場合、実用上、調整作業は困難である。   As information that can be acquired from an object as a subject, there are various types of information such as the distance to the object, the shape of the object, and the reflection characteristics of the object in addition to the color. When acquiring the reflection characteristics, if the surface of the object is uneven, a shadow area may be generated, and acquisition of the reflection characteristics may fail. In order to prevent failure in obtaining the reflection characteristics, the number and arrangement of illuminations are adjusted so as to eliminate shadows on the surface of the object. However, when the object has a complicated uneven shape, adjustment work is difficult in practice.

そこで、反射特性の取得に失敗した場合に備えて、取得に失敗した領域の反射特性を補間処理する様々な画像処理技術が提案されている。例えば、特許文献1は、撮像画像から推定した物体形状と既知の照明場から、撮像画像の画素値と整合する反射特性を推定する場合に反射特性を補間処理する手法を提案する。   In view of this, various image processing techniques for interpolating the reflection characteristics of an area where acquisition failed have been proposed in preparation for the case where acquisition of reflection characteristics fails. For example, Patent Document 1 proposes a method of performing interpolation processing on reflection characteristics when estimating reflection characteristics that match pixel values of a captured image from an object shape estimated from the captured image and a known illumination field.

特許文献1の手法は、形状推定値の信頼度に応じて物体形状と照明場から反射特性を推定するか、周囲の形状信頼度が高い領域において推定した反射特性を用いて反射特性を補間処理するかを切り替える。そのため、影領域と同じ形状をもつ周辺領域の形状信頼度を高くすることにより、周辺領域の反射特性の推定値から、影領域の反射特性を精度よく算出することができる。   According to the method of Patent Document 1, the reflection characteristics are estimated from the object shape and the illumination field according to the reliability of the estimated shape value, or the reflection characteristics are interpolated using the reflection characteristics estimated in the surrounding area where the shape reliability is high. Switch what to do. Therefore, by increasing the shape reliability of the peripheral area having the same shape as the shadow area, the reflection characteristic of the shadow area can be accurately calculated from the estimated value of the reflection characteristic of the peripheral area.

しかし、形状の信頼度に応じた特許文献1の推定処理によれば、物体表面の影領域が一様な表面凹凸を有し、かつ、色が異なる複数の塗料が不均一に塗布されている場合、塗料の違いによる反射特性の変化を検出することができない。その結果、影領域内の、塗料の違いにより異なる反射特性をもつ複数の領域について同じ反射特性が算出され、反射特性の推定精度が低下する。   However, according to the estimation process of Patent Document 1 corresponding to the reliability of the shape, the shadow area of the object surface has a uniform surface unevenness, and a plurality of paints having different colors are applied unevenly. In this case, it is not possible to detect a change in reflection characteristics due to a difference in paint. As a result, the same reflection characteristics are calculated for a plurality of areas having different reflection characteristics depending on the paint in the shadow area, and the estimation accuracy of the reflection characteristics decreases.

特開2013-025762号公報JP 2013-025762

G. Petschnigg、M. Agrawala、H. Hoppe、R. Szeliski、M. Cohen、K. Toyama「Digital Photography with Flash and No-Flash Image Pairs」ACM Trans. on Graphics、vol. 23、2004年8月G. Petschnigg, M. Agrawala, H. Hoppe, R. Szeliski, M. Cohen, K. Toyama “Digital Photography with Flash and No-Flash Image Pairs” ACM Trans. On Graphics, vol. 23, August 2004

本発明は、物体の異なる反射特性をもつ複数の領域について反射特性を高精度に推定することを目的とする。   An object of the present invention is to estimate the reflection characteristics of a plurality of regions having different reflection characteristics of an object with high accuracy.

本発明は、前記の目的を達成する一手段として、以下の構成を備える。   The present invention has the following configuration as one means for achieving the above object.

本発明にかかる画像処理は、物体の周囲に配置された複数の光源を一つずつ点灯して前記物体を撮像した複数の画像データを入力し、前記複数の画像データから前記物体の反射特性データを取得し、前記物体の反射特性に関連する複数の参照データそれぞれの信頼度を算出し、前記複数の参照データとそれらの信頼度に基づき、前記反射特性データを補間処理する。   In the image processing according to the present invention, a plurality of light sources arranged around the object are turned on one by one and a plurality of image data obtained by imaging the object are input, and the reflection characteristic data of the object is obtained from the plurality of image data. , The reliability of each of the plurality of reference data related to the reflection characteristic of the object is calculated, and the reflection characteristic data is interpolated based on the plurality of reference data and their reliability.

本発明によれば、物体の異なる反射特性をもつ複数の領域について反射特性を高精度に推定することができる。   According to the present invention, reflection characteristics can be estimated with high accuracy for a plurality of regions having different reflection characteristics of an object.

被写体の反射特性の取得方法を説明する図。The figure explaining the acquisition method of the reflective characteristic of a to-be-photographed object. 撮像装置の構成例を説明するブロック図。FIG. 11 is a block diagram illustrating a configuration example of an imaging device. 被写体の反射特性を取得する際の画像処理部の構成例を示すブロック図。The block diagram which shows the structural example of the image process part at the time of acquiring the reflective characteristic of a to-be-photographed object. 画像処理部による反射特性の取得処理を説明するフローチャート。5 is a flowchart for explaining reflection characteristic acquisition processing by an image processing unit. 参照データを説明する図。The figure explaining reference data. 反射特性の算出処理を説明するフローチャート。The flowchart explaining the calculation process of reflection characteristics. 信頼度の算出処理を説明するフローチャート。The flowchart explaining the calculation process of reliability. 信頼度の算出処理によって得られる信頼度を説明する図。The figure explaining the reliability obtained by the calculation process of reliability. 反射特性データの補間処理を説明するフローチャート。The flowchart explaining the interpolation process of reflection characteristic data. 色データを参照データに用いた反射特性データの補間処理を説明する図。The figure explaining the interpolation process of the reflection characteristic data which used color data for reference data. 実施例2の信頼度の算出処理を説明するフローチャート。9 is a flowchart for explaining reliability calculation processing according to the second embodiment. 実施例2の信頼度の算出処理によって得られる信頼度を説明する図。FIG. 10 is a diagram for explaining reliability obtained by reliability calculation processing according to the second embodiment. 実施例3の信頼度の算出処理を説明するフローチャート。10 is a flowchart for explaining reliability calculation processing according to the third embodiment. 実施例3の信頼度の算出処理によって得られる信頼度を説明する図。FIG. 10 is a diagram for explaining reliability obtained by reliability calculation processing according to the third embodiment.

以下、本発明にかかる実施例の画像処理装置および画像処理方法を図面を参照して詳細に説明する。なお、実施例は特許請求の範囲にかかる本発明を限定するものではなく、また、実施例において説明する構成の組み合わせのすべてが本発明の解決手段に必須とは限らない。   Hereinafter, an image processing apparatus and an image processing method according to embodiments of the present invention will be described in detail with reference to the drawings. In addition, an Example does not limit this invention concerning a claim, and all the combinations of the structure demonstrated in an Example are not necessarily essential for the solution means of this invention.

詳細は後述するが、本発明によれば、被写体としての物体の反射特性を変化させる形状や色などの複数の物理特性データが、物体の反射特性に関連する参照データとして取得される。そして、反射特性を補間処理する影領域内の各位置について各参照データの信頼度が算出され、各位置において補間処理に用いる参照データが信頼度に応じて適応的に切り替えられる。これにより、様々な表面の凹凸や色を有する物体の反射特性の高精度な算出が可能になる。なお、以下では、反射特性を取得する物体を「被写体」と呼ぶ。   As will be described in detail later, according to the present invention, a plurality of physical characteristic data such as a shape and a color that change the reflection characteristic of an object as a subject are acquired as reference data related to the reflection characteristic of the object. Then, the reliability of each reference data is calculated for each position in the shadow area where the reflection characteristics are interpolated, and the reference data used for the interpolation processing is adaptively switched at each position according to the reliability. Thereby, it is possible to calculate the reflection characteristics of an object having various surface irregularities and colors with high accuracy. Hereinafter, an object for which reflection characteristics are acquired is referred to as a “subject”.

[反射特性の取得]
図1により被写体の反射特性の取得方法を説明する。図1(a)に示すように、被写体101からみて天頂方向に撮像装置102を配置する。そして、天頂方向を基準とした30度と60度の極角θ上、かつ、撮像装置102の右方向を基準方位(方位角φ=0度)として30度ずつ分割した方位に対応する位置に合計24個の照明(記号●で示す)を配置する。
[Obtaining reflection characteristics]
A method for obtaining the reflection characteristics of a subject will be described with reference to FIG. As shown in FIG. 1A, the imaging device 102 is arranged in the zenith direction as viewed from the subject 101. And at the polar angle θ of 30 degrees and 60 degrees with respect to the zenith direction, and at the position corresponding to the azimuth divided by 30 degrees with the right direction of the imaging device 102 as the reference azimuth (azimuth angle φ = 0 degree) A total of 24 lights (indicated by the symbol ●) will be placed.

つまり、被写体101の周囲に照明用の複数の光源を配置し、光源を順次点灯して、天頂に配置した撮像装置102によって凹凸がある被写体101を撮影する。図1(b)は、24個の照明の一つのみを点灯した状態で撮影される合計24枚の被写体101の画像を示し、これら24枚の画像を用いて被写体101の反射特性が取得される。   That is, a plurality of light sources for illumination are arranged around the subject 101, the light sources are sequentially turned on, and the subject 101 with unevenness is photographed by the imaging device 102 arranged at the zenith. FIG. 1 (b) shows a total of 24 images of the subject 101 that are shot with only one of the 24 lights on, and the reflection characteristics of the subject 101 are acquired using these 24 images. The

被写体101は、例えば、人物像の油彩画である。油彩画を側面から観察すると、背景から盛り上がって人物の体が描かれ、人物の顔は体よりも盛り上がって描かれていると仮定する。また、被写体101における色や模様の変化は小さいと仮定する。   The subject 101 is, for example, an oil painting of a person image. When observing the oil painting from the side, it is assumed that the body of the person rises from the background and the face of the person is drawn higher than the body. Further, it is assumed that a change in color or pattern in the subject 101 is small.

[撮像装置の構成]
図2のブロック図により撮像装置102の構成例を説明する。CPU201は、RAM202をワークメモリとして、ROM203に格納されたOSや各種プログラムを実行し、システムバス200を介して、後述する各構成を制御する。
[Configuration of imaging device]
A configuration example of the imaging apparatus 102 will be described with reference to the block diagram of FIG. The CPU 201 uses the RAM 202 as a work memory, executes an OS and various programs stored in the ROM 203, and controls each component to be described later via the system bus 200.

撮像部220は、撮像光学系(レンズ、絞り、シャッタ)、光学ローパスフィルタ、カラーフィルタ、および、CMOSやCCDなどの撮像デバイスから構成され、被写体からの光を撮像デバイスによって受光する。そして、撮像デバイスが出力するアナログ信号をアナログ-ディジタル(A/D)変換した撮像データ(以下、RAWデータ)を出力する。RAWデータは、CPU201の制御により、システムバス200を介して、RAM202の所定領域に格納される。   The imaging unit 220 includes an imaging optical system (lens, aperture, shutter), an optical low-pass filter, a color filter, and an imaging device such as a CMOS or CCD, and receives light from a subject by the imaging device. Then, imaging data (hereinafter referred to as RAW data) obtained by analog-digital (A / D) conversion of the analog signal output from the imaging device is output. The RAW data is stored in a predetermined area of the RAM 202 via the system bus 200 under the control of the CPU 201.

光学系制御部221は、CPU201の制御に従い、フォーカスを合わせ、絞りを調節し、シャッタを開閉するなどの撮像光学系の制御を行う。フラッシュ制御部222は、CPU201の制御に従い、図1に示す24個の照明の点灯を制御する。操作部223は、十字キー、ボタン、モードダイヤルなどに相当し、ユーザ指示の入力部である。   The optical system control unit 221 controls the imaging optical system according to the control of the CPU 201, such as focusing, adjusting the aperture, and opening and closing the shutter. The flash control unit 222 controls the lighting of the 24 lights shown in FIG. The operation unit 223 corresponds to a cross key, a button, a mode dial, or the like, and is a user instruction input unit.

CPU201は、コンピュータグラフィックス(CG)生成部204、表示制御部205を制御してモニタ206にユーザインタフェイス(UI)を表示し、操作部223などからユーザ指示を受信する。なお、モニタ206にタッチスクリーンを重畳してもよく、その場合、タッチスクリーンによるユーザ入力を操作部223への入力と同等に扱うことが可能である。   The CPU 201 controls the computer graphics (CG) generation unit 204 and the display control unit 205 to display a user interface (UI) on the monitor 206 and receives a user instruction from the operation unit 223 or the like. Note that a touch screen may be superimposed on the monitor 206, and in this case, user input via the touch screen can be handled in the same way as input to the operation unit 223.

ディジタル信号処理部(DSP)207は、CPU201の制御に従い、RAM202に格納されたRAWデータにデモザイキング処理、現像処理、ホワイトバランス処理、ガンマ処理、ノイズ低減処理などを施して画像データを生成する。画像データは、CPU201の制御により、RAM202の所定領域に格納される。   A digital signal processing unit (DSP) 207 performs image processing by performing demosaicing processing, development processing, white balance processing, gamma processing, noise reduction processing, and the like on the RAW data stored in the RAM 202 under the control of the CPU 201. The image data is stored in a predetermined area of the RAM 202 under the control of the CPU 201.

圧縮伸長部208は、CPU201の制御に従い、RAM202に格納された画像データをJPEGやMPEGなどのフォーマットに変換するエンコード処理を行う。また、必要ならば、RAM202に格納されたRAWデータをロスレス圧縮する処理を行う。   The compression / decompression unit 208 performs an encoding process for converting the image data stored in the RAM 202 into a format such as JPEG or MPEG according to the control of the CPU 201. Further, if necessary, processing for lossless compression of the RAW data stored in the RAM 202 is performed.

インタフェイス209は、例えばメモリカードリーダライタであり、CPU201の制御に従い、圧縮伸長部208が出力する画像データをメディア210に格納したり、メディア210から読み出した画像データなどをRAM202に格納する。   The interface 209 is, for example, a memory card reader / writer, and stores image data output from the compression / decompression unit 208 in the medium 210 or image data read from the medium 210 in the RAM 202 under the control of the CPU 201.

インタフェイス209はUSBのような汎用インタフェイスでもよく、メディア210はハードディスクドライブ(HDD)、ソリッドステートドライブ(SDD)、USBメモリなどの記録媒体でもよい。また、インタフェイス209として無線ネットワークインタフェイスを用いることもでき、データの送受信先として、パーソナルコンピュータ、スマートフォン、タブレットコンピュータ、サーバ装置などのコンピュータ機器が挙げられる。さらに、CPU201は、インタフェイス209を介して、ユーザ指示を受信することができる。   The interface 209 may be a general-purpose interface such as USB, and the medium 210 may be a recording medium such as a hard disk drive (HDD), a solid state drive (SDD), or a USB memory. Further, a wireless network interface can be used as the interface 209, and examples of data transmission / reception destinations include computer devices such as personal computers, smartphones, tablet computers, and server devices. Further, the CPU 201 can receive a user instruction via the interface 209.

画像処理部211は、CPU201の制御に従い、RAM202に格納されたRAWデータまたは画像データを利用して新たな画像データを生成する。生成された画像データは、RAM202やメディア206に格納されたり、表示制御部204を介してモニタ206に表示されたりする。モニタ206に表示される画像は、ライブビュー画像や撮影画像などである。   The image processing unit 211 generates new image data using RAW data or image data stored in the RAM 202 according to the control of the CPU 201. The generated image data is stored in the RAM 202 or the medium 206, or displayed on the monitor 206 via the display control unit 204. The image displayed on the monitor 206 is a live view image or a captured image.

[画像処理部]
図3のブロック図により被写体101の反射特性を取得する際の画像処理部211の構成例を示す。撮像データ入力部303は、撮像部220が撮像したn枚(図1(b)の例では24枚)の画像データを例えばRAM202から入力する。反射特性取得部304は、入力された画像データから被写体101の反射特性データを取得する。
[Image processing unit]
An example of the configuration of the image processing unit 211 when acquiring the reflection characteristics of the subject 101 is shown in the block diagram of FIG. The imaging data input unit 303 inputs n pieces of image data (24 pieces in the example of FIG. 1B) imaged by the imaging unit 220 from the RAM 202, for example. The reflection characteristic acquisition unit 304 acquires reflection characteristic data of the subject 101 from the input image data.

参照データ取得部305は、例えばメディア210から反射特性データを補間する際に用いる参照データを取得する。なお、参照データについては後述する。信頼度算出部306は、取得された参照データの信頼度を算出する。   The reference data acquisition unit 305 acquires reference data used when interpolating reflection characteristic data from the medium 210, for example. Reference data will be described later. The reliability calculation unit 306 calculates the reliability of the acquired reference data.

反射特性補間処理部307は、反射特性取得部304が取得した反射特性データと信頼度算出部306が算出した参照データの信頼度を入力して、参照データの信頼度に基づき反射特性データを補間処理する。補間処理された反射特性データは、例えばRAM202やメディア210に格納される。   The reflection characteristic interpolation processing unit 307 receives the reflection characteristic data acquired by the reflection characteristic acquisition unit 304 and the reliability of the reference data calculated by the reliability calculation unit 306, and interpolates the reflection characteristic data based on the reliability of the reference data. To process. The reflection characteristic data subjected to the interpolation processing is stored in the RAM 202 or the medium 210, for example.

●反射特性の取得処理
図4のフローチャートにより画像処理部211による反射特性の取得処理を説明する。反射特性の取得処理は、ユーザ指示に従い、CPU201が画像処理部211を制御することで実行される。なお、図3に示す画像処理部211の機能を実現するプログラムをコンピュータ機器に供給することで、反射特性の取得処理を実行することも可能である。
Reflection Property Acquisition Processing Reflection property acquisition processing by the image processing unit 211 will be described with reference to the flowchart of FIG. The reflection characteristic acquisition process is executed by the CPU 201 controlling the image processing unit 211 in accordance with a user instruction. Note that it is also possible to execute reflection characteristic acquisition processing by supplying a computer that implements the function of the image processing unit 211 shown in FIG. 3 to a computer device.

撮像データ入力部303は、撮像部220が撮像したn枚(図1(b)の例では24枚)の画像データを入力する(S401)。以下では、簡単のために、入力される画像データが撮像部220が出力したRGB画像データをグレイスケール化した画像データとして説明を行う。続いて、反射特性取得部304は、n枚の画像データから被写体101の反射特性データを取得する(S402)。反射特性データの取得処理の詳細は後述する。   The imaging data input unit 303 inputs n (24 in the example of FIG. 1B) image data captured by the imaging unit 220 (S401). In the following, for the sake of simplicity, the input image data will be described as grayscale image data output from the RGB image data output by the imaging unit 220. Subsequently, the reflection characteristic acquisition unit 304 acquires reflection characteristic data of the subject 101 from the n pieces of image data (S402). Details of the reflection characteristic data acquisition process will be described later.

一方、参照データ取得部305は、ユーザ指示に従い、参照データを取得する(S403)。続いて、信頼度算出部306は、参照データの信頼度を算出する(S404)。参照データの信頼度算出処理の詳細は後述する。図4には、画像データの取得と反射特性データの算出に続いて、参照データの取得と参照データの信頼度の算出が行われるように記載するが、この順番は逆でもよいし、並行に行われてもよい。   On the other hand, the reference data acquisition unit 305 acquires reference data according to the user instruction (S403). Subsequently, the reliability calculation unit 306 calculates the reliability of the reference data (S404). Details of the reference data reliability calculation processing will be described later. FIG. 4 shows that the acquisition of the reference data and the calculation of the reliability of the reference data are performed following the acquisition of the image data and the calculation of the reflection characteristic data, but this order may be reversed or in parallel. It may be done.

次に、反射特性補間処理部307は、参照データの信頼度に基づき、反射特性データを補間処理し(S405)、補間処理した反射特性データを出力する(S406)。反射特性データの補間処理の詳細は後述する。   Next, the reflection characteristic interpolation processing unit 307 interpolates the reflection characteristic data based on the reliability of the reference data (S405), and outputs the reflection characteristic data subjected to the interpolation processing (S406). Details of the reflection characteristic data interpolation processing will be described later.

●参照データ
図5により参照データを説明する。図5(a)は一方の参照データである被写体101の形状データを示し、図5(b)は他方の参照データである被写体101の色データを示す。これら参照データは、例えば、予め測定されてメディア210に格納されている。形状データは、光切断方式の形状測定装置により、被写体101にスリット光を照射して測定される。形状データの画素位置は、撮像部220が撮像する画像データの画素位置と位置合わせが行われ、形状データの各画素は、図1に示す撮像システムにおける床面からの高さを示すグレイスケール値を有する。
Reference data Reference data will be described with reference to FIG. FIG. 5A shows the shape data of the subject 101 as one reference data, and FIG. 5B shows the color data of the subject 101 as the other reference data. These reference data are measured in advance and stored in the medium 210, for example. The shape data is measured by irradiating the subject 101 with slit light by a light cutting type shape measuring device. The pixel position of the shape data is aligned with the pixel position of the image data imaged by the imaging unit 220, and each pixel of the shape data is a gray scale value indicating the height from the floor surface in the imaging system shown in FIG. Have

また、色データは、正反射光を除去するために照明1、照明2、…、照明24のすべてと撮像部220に偏光フィルタを取り付け、全照明を点灯して撮像部220により撮像した画像データである。勿論、参照データとしての色データの画素位置と、反射特性を算出するための画像データの画素位置は位置合わせを行う。なお、簡単のために、反射特性を算出するための画像データと同様に、色データは、撮像部220が出力したRGB画像データをグレイスケール化した画像データとして説明を行う。   Also, the color data is image data captured by the imaging unit 220 with all the illuminations turned on, with all the illuminations 1, illuminations 2,... It is. Of course, the pixel position of the color data as the reference data and the pixel position of the image data for calculating the reflection characteristics are aligned. For the sake of simplicity, the color data is described as image data obtained by converting the RGB image data output from the imaging unit 220 into a gray scale, similarly to the image data for calculating the reflection characteristics.

●反射特性算出部
図6のフローチャートにより反射特性の算出処理(S402)を説明する。反射特性は、n枚の画像を比較して、各画素位置(u, v)で最大の画素値を正反射光強度または正反射方向に近い方向の反射光強度と見做して算出される。また、画像jの画素位置(u, v)における画素値をIj(u, v)と表現し、各画像のサイズをU×V画素とする。
Reflection Characteristic Calculation Unit The reflection characteristic calculation process (S402) will be described with reference to the flowchart of FIG. The reflection characteristic is calculated by comparing n images and considering the maximum pixel value at each pixel position (u, v) as the reflected light intensity or the reflected light intensity in the direction close to the regular reflection direction. . Further, the pixel value at the pixel position (u, v) of the image j is expressed as Ij (u, v), and the size of each image is U × V pixels.

反射特性取得部304は、まず初期設定を行う。つまり、画像1の画素値I1(u, v)を最大画素値を格納するビットマップメモリImaxに格納し(S501)、カウンタjをj=2に設定し(S502)、画素位置(u, v)に初期値(0, 0)を設定する(S503)。   The reflection characteristic acquisition unit 304 first performs initial setting. That is, the pixel value I1 (u, v) of the image 1 is stored in the bitmap memory Imax that stores the maximum pixel value (S501), the counter j is set to j = 2 (S502), and the pixel position (u, v ) Is set to an initial value (0, 0) (S503).

次に、反射特性取得部304は、画像jの画像データから画素値Ij(u, v)を取得する(S504)。そして、画素値Ij(u, v)と、画素位置(u, v)に対応するビットマップメモリの位置に格納された値Imax(u, v)を比較する(S505)。Ij(u, v)>Imax(u, v)の場合、反射特性取得部304は、Ij(u, v)が正反射光強度または正反射方向に近い方向の反射光強度と判定して、Ij(u, v)によってImax(u, v)を更新する(S506)。   Next, the reflection characteristic acquisition unit 304 acquires the pixel value Ij (u, v) from the image data of the image j (S504). Then, the pixel value Ij (u, v) is compared with the value Imax (u, v) stored at the position of the bitmap memory corresponding to the pixel position (u, v) (S505). When Ij (u, v)> Imax (u, v), the reflection characteristic acquisition unit 304 determines that Ij (u, v) is a regular reflection light intensity or a reflection light intensity in a direction close to the regular reflection direction, Imax (u, v) is updated by Ij (u, v) (S506).

次に、反射特性取得部304は、画素位置のuをインクリメントして(S507)、インクリメント後のuと画像サイズのUを比較する(S508)。u≦Uの場合、処理をステップS504に戻して次の画素位置に関する判定を行う。また、u>Uの場合、uをリセット(u=0)し、画素位置のvをインクリメントして(S509)、インクリメント後のvと画像サイズのVを比較する(S510)。v≦Vの場合は処理をステップS504に戻して次の画素位置に関する判定を行う。   Next, the reflection characteristic acquisition unit 304 increments u of the pixel position (S507), and compares u after the increment with U of the image size (S508). If u ≦ U, the process returns to step S504 to make a determination regarding the next pixel position. If u> U, u is reset (u = 0), v at the pixel position is incremented (S509), and v after the increment is compared with V at the image size (S510). If v ≦ V, the process returns to step S504 to make a determination regarding the next pixel position.

v>Vになると、反射特性取得部304は、vをリセット(v=0)し、カウンタjをインクリメントして(S511)、インクリメント後のカウント値jと画像数nを比較する(S512)。反射特性取得部304は、j≦nの場合は処理をステップS504に戻して次の画像jに関する判定を開始し、j>nの場合は反射特性の取得を終了する。   When v> V, the reflection characteristic acquisition unit 304 resets v (v = 0), increments the counter j (S511), and compares the incremented count value j with the number of images n (S512). The reflection characteristic acquisition unit 304 returns the process to step S504 if j ≦ n and starts the determination on the next image j, and ends the acquisition of the reflection characteristic if j> n.

以上の処理により、ビットマップメモリImaxには、n枚の画像から抽出された被写体101の正反射光強度を示す反射特性データが格納される。ただし、被写体101が例えば油彩画のように凹凸を有する場合、反射特性の取得に失敗した領域(例えば図5(c)に示す斜線を施した領域)がある可能性がある。   Through the above processing, reflection characteristic data indicating the intensity of specular reflection light of the subject 101 extracted from n images is stored in the bitmap memory Imax. However, when the subject 101 has irregularities such as an oil painting, for example, there is a possibility that there is a region (for example, a shaded region shown in FIG. 5C) where acquisition of reflection characteristics has failed.

●信頼度算出部
図7のフローチャートにより信頼度の算出処理(S404)を説明する。信頼度算出部306は、画素位置(u, v)に初期値(0, 0)を設定し(S701)、画素位置(u, v)における各参照データの信頼度Wk(u, v)を算出する(S702)。
Reliability calculation unit The reliability calculation processing (S404) will be described with reference to the flowchart of FIG. The reliability calculation unit 306 sets an initial value (0, 0) to the pixel position (u, v) (S701), and calculates the reliability Wk (u, v) of each reference data at the pixel position (u, v). Calculate (S702).

信頼度Wk(u, v)を算出は、下式によって、画素位置(u, v)において、(u, v)を中心とするP×P画素のフィルタ領域内の画素値の標準偏差σref(u, v)を算出することで行われる。なお、例えば画素位置が(0, 0)の場合などフィルタ領域の一部に画素値が存在しない場合は、当該部分を標準偏差σref(u, v)の算出対象から除外する。
I' = Σ(x',y')∈T{I(x',y')/P2};
σref(u,v) = √[Σ(x,y)∈T{I(x,y) - I'}2/P2]; …(1)
ここで、Tはフィルタ領域、
I(x,y)、I(x',y')はフィルタ領域内の画素値。
The reliability Wk (u, v) is calculated by the following formula, at the pixel position (u, v), the standard deviation σref () of the pixel value in the filter region of P × P pixels centered at (u, v) This is done by calculating u, v). In addition, when the pixel value does not exist in a part of the filter area, for example, when the pixel position is (0, 0), the part is excluded from the calculation target of the standard deviation σref (u, v).
I ′ = Σ (x ′, y ′) ∈T {I (x ′, y ′) / P 2 };
σref (u, v) = √ [Σ (x, y) ∈T {I (x, y)-I '} 2 / P 2 ];… (1)
Where T is the filter region,
I (x, y) and I (x ′, y ′) are pixel values in the filter area.

次に、信頼度算出部306は、画素位置(u, v)における各参照データの信頼度Wk(u, v)(=σref(u, v))を下式によって正規化する(S703)。つまり、式(2)により、各参照データの画素位置(u, v)における信頼度Wk(u, v)を二つの参照データの信頼度の和で除算して正規化を行う。
W'k(u,v) = Wk(u,v)/Σk∈DWk(u,v) …(2)
ここで、Dは各参照データ種類を表す添え字を要素にもつ構造体データ、
kは参照データの種類(形状s、色c)。
Next, the reliability calculation unit 306 normalizes the reliability Wk (u, v) (= σref (u, v)) of each reference data at the pixel position (u, v) by the following equation (S703). In other words, the normalization is performed by dividing the reliability Wk (u, v) at the pixel position (u, v) of each reference data by the sum of the reliability of the two reference data according to the equation (2).
W'k (u, v) = Wk (u, v) / Σ k∈D Wk (u, v)… (2)
Here, D is structure data having a subscript representing each reference data type as an element,
k is the type of reference data (shape s, color c).

次に、信頼度算出部306は、画素位置のuをインクリメントして(S704)、インクリメント後のuと画像サイズのUを比較する(S705)。u≦Uの場合は処理をステップS702に戻して次の画素位置の信頼度を算出する。また、u>Uの場合、uをリセット(u=0)し(S706)、画素位置のvをインクリメントして(S707)、インクリメント後のvと画像サイズのVを比較する(S708)。v≦Vの場合は処理をステップS702に戻して次の画素位置の信頼度を算出し、v>Vの場合は信頼度の算出を終了する。   Next, the reliability calculation unit 306 increments u of the pixel position (S704), and compares u after the increment with U of the image size (S705). If u ≦ U, the process returns to step S702 to calculate the reliability of the next pixel position. If u> U, u is reset (u = 0) (S706), v at the pixel position is incremented (S707), and v after the increment is compared with V at the image size (S708). If v ≦ V, the process returns to step S702 to calculate the reliability of the next pixel position. If v> V, the calculation of the reliability is terminated.

図8により信頼度の算出処理によって得られる信頼度を説明する。図8(a)は上記の処理によって得られる、形状の起伏が大きい油彩画における形状データの信頼度を示し、人物の顔領域、体領域、背景領域の順に信頼度が高くなる(図8において暗い領域ほど信頼度が高い)。また、図8(b)は上記の処理によって得られる色データの信頼度を示し、色と模様の変化が大きい背景領域、人物の体領域、顔領域の順に信頼度が大きくなる。形状の起伏による形状データの信頼度Ws(u, v)と、色と模様の変化による色データの信頼度Wc(u, v)の大小関係は図8(c)に示すようになる。   The reliability obtained by the reliability calculation process will be described with reference to FIG. FIG. 8 (a) shows the reliability of the shape data in the oil painting having a large undulation obtained by the above processing, and the reliability increases in the order of the human face region, body region, and background region (in FIG. 8). The darker the area, the higher the reliability.) FIG. 8B shows the reliability of the color data obtained by the above processing. The reliability increases in the order of the background region, the human body region, and the face region where the color and pattern change is large. FIG. 8C shows the magnitude relationship between the reliability Ws (u, v) of the shape data due to the undulation of the shape and the reliability Wc (u, v) of the color data due to the change in color and pattern.

●反射特性補間処理部
図9のフローチャートにより反射特性データの補間処理(S405)を説明する。以下では、ジョイントバイラテラルフィルタ(joint bilateral filter)を用いて補間処理を行う例を説明するが、ジョイントバイラテラルフィルタの詳細は非特許文献1などに記載されている。
Reflection Characteristic Interpolation Processing Unit The reflection characteristic data interpolation process (S405) will be described with reference to the flowchart of FIG. Hereinafter, an example in which interpolation processing is performed using a joint bilateral filter will be described, but details of the joint bilateral filter are described in Non-Patent Document 1, and the like.

反射特性補間処理部307は、画素位置(u, v)に初期値(0, 0)を設定し(S801)、画素位置(u, v)における反射特性データI(u, v)を補間処理した反射特性データIJBF(u, v)を生成する(S802)。下式はジョイントバイラテラルフィルタを示し、各参照データを用いて反射特性データI(u, v)が補間処理される。つまり、参照データとして形状データを用いて補間処理されたIsJBF(u, v)と、参照データとして色データを用いて補間処理されたIcJBF(u, v)が生成される。
IkJBF(u,v) = [Σ(x,y)∈SGσs{||(u,v)-(x,y)||}Gσr{|Ik(u,v)-Ik(x,y)|}I(x,y)]/N(u,v) …(3)
The reflection characteristic interpolation processing unit 307 sets an initial value (0, 0) to the pixel position (u, v) (S801), and interpolates the reflection characteristic data I (u, v) at the pixel position (u, v). The reflected characteristic data I JBF (u, v) is generated (S802). The following equation shows a joint bilateral filter, and reflection characteristic data I (u, v) is interpolated using each reference data. That is, Is JBF (u, v) interpolated using shape data as reference data and Ic JBF (u, v) interpolated using color data as reference data are generated.
Ik JBF (u, v) = [Σ (x, y) ∈S G σs {|| (u, v)-(x, y) ||} G σr {| Ik (u, v) -Ik (x , y) |} I (x, y)] / N (u, v)… (3)

図10により色データを参照データに用いた反射特性データの補間処理(式(3)の処理)を説明する。図10(a)は反射特性データI(x, y)を示す。被写体の正反射光強度が大きい上半分に対応する反射特性データI(x, y)の画素値は例えば255、正反射強度が小さい下半分に対応する反射特性データI(x, y)の画素値は例えば128である。ただし、中央部に斜線で示す領域は被写体の凹凸によって反射特性の取得に失敗した欠落領域であり、欠落領域の画素値は例えば0である。   With reference to FIG. 10, the reflection characteristic data interpolation process (the process of equation (3)) using color data as reference data will be described. FIG. 10 (a) shows the reflection characteristic data I (x, y). The pixel value of the reflection characteristic data I (x, y) corresponding to the upper half where the regular reflection light intensity of the subject is large is, for example, 255, and the pixel of the reflection characteristic data I (x, y) corresponding to the lower half where the regular reflection intensity is small The value is 128, for example. However, the area indicated by hatching in the center is a missing area where reflection characteristics have failed to be acquired due to the unevenness of the subject, and the pixel value of the missing area is 0, for example.

図10(b)は参照データの色データIc(x, y)を示す。被写体の上半分は灰色の塗料が塗布され、下半分には黒色の塗料が塗布されている。色データIc(x, y)は、塗料の分布に従い、上半分に対応する色データIc(x, y)の画素値は例えば128、下半分に対応する色データIc(x, y)の画素値は例えば0である。   FIG. 10B shows the color data Ic (x, y) of the reference data. A gray paint is applied to the upper half of the subject, and a black paint is applied to the lower half. The color data Ic (x, y) follows the paint distribution, the pixel value of the color data Ic (x, y) corresponding to the upper half is, for example, 128, and the pixel of the color data Ic (x, y) corresponding to the lower half The value is 0, for example.

欠落領域の画素位置(u, v)の画素値I(u, v)は、色データIc(x, y)と式(3)に示すフィルタ演算に基づき補間処理される。式(3)において、Sはフィルタの窓領域であり、画素位置(u, v)を中心とするF×F画素の領域である(図10(a)において破線で囲まれた領域)。   The pixel value I (u, v) at the pixel position (u, v) in the missing region is subjected to interpolation processing based on the color data Ic (x, y) and the filter operation shown in Expression (3). In Expression (3), S is a window region of the filter, and is an F × F pixel region centered on the pixel position (u, v) (region surrounded by a broken line in FIG. 10 (a)).

また、Gσsは空間方向の重み付け係数であり、画素位置(u, v)を中心とする最大値1、半値半幅σsのガウシアンで表される(図10(c))。Gσrは輝度方向の重み付け係数であり、色データの画素位置(u, v)における画素値Ic(u, v)を中心とする最大値1、半値半幅σrのガウシアンに従う。 G σs is a weighting coefficient in the spatial direction, and is represented by a Gaussian with a maximum value of 1 and a half-value half-width σs centered on the pixel position (u, v) (FIG. 10 (c)). G σr is a weighting coefficient in the luminance direction, and follows a Gaussian with a maximum value of 1 and a half-value half-width σr centered on the pixel value Ic (u, v) at the pixel position (u, v) of the color data.

従って、色データの上半分の画素値はIc(u, v)と等しく重み付け係数は1になり、色データの下半分の画素値はIc(u, v)と異なり重み付け係数は1より小さくなる(図10(d))。フィルタの窓領域S内の各画素位置について、GσsとGσrを乗算した重み付け係数(図10(e))を用いて、反射特性データを補間処理する。また、N(u, v)はフィルタの窓領域S内の重み付け係数の和を1にする正規化係数である。 Therefore, the pixel value in the upper half of the color data is equal to Ic (u, v) and the weighting coefficient is 1, and the pixel value in the lower half of the color data is different from Ic (u, v) and the weighting coefficient is smaller than 1. (Fig. 10 (d)). For each pixel location in the window region S of the filter, using the weighting coefficients obtained by multiplying the G [sigma] s and G .sigma.r (Fig 10 (e)), an interpolation process reflection characteristic data. N (u, v) is a normalization coefficient that makes the sum of the weighting coefficients in the window region S of the filter 1.

各画素位置(u, v)について式(3)に示すフィルタ演算を行うことで、色データの塗料分布に従い、欠落領域の反射特性データは、上側が画素値255に、下側が画素値128に補間処理される(図10(f))。   By performing the filter operation shown in Equation (3) for each pixel position (u, v), the reflection characteristic data of the missing region is changed to the pixel value 255 on the upper side and the pixel value 128 on the lower side according to the paint distribution of the color data. Interpolation is performed (FIG. 10 (f)).

次に、反射特性補間処理部307は、各参照データの信頼度W'k(u, v)に基づき、補間処理によって生成した反射特性データIsJBF(u, v)とIcJBF(u, v)を合成する(S803)。つまり、信頼度W'k(u, v)を重みとして下式によって反射特性データIkJBF(u, v)を合成し、合成後の反射特性データを画素位置(u, v)の反射特性データI(u, v)として出力する。
I(u,v) = W's(u,v)×IsJBF(u,v) + W'c(u,v)×IcJBF(u,v) …(4)
Next, the reflection characteristic interpolation processing unit 307 performs reflection characteristic data Is JBF (u, v) and Ic JBF (u, v) generated by the interpolation process based on the reliability W′k (u, v) of each reference data. ) Is synthesized (S803). In other words, the reflection characteristic data Ik JBF (u, v) is synthesized by the following formula using the reliability W'k (u, v) as a weight, and the combined reflection characteristic data is reflected at the pixel position (u, v). Output as I (u, v).
I (u, v) = W's (u, v) × Is JBF (u, v) + W'c (u, v) × Ic JBF (u, v)… (4)

次に、反射特性補間処理部307は、画素位置のuをインクリメントして(S804)、インクリメント後のuと画像サイズのUを比較する(S805)。u≦Uの場合は処理をステップS802に戻して次の画素位置の反射特性データを補間処理する。また、u>Uの場合、uをリセット(u=0)し(S806)、画素位置のvをインクリメントして(S807)、インクリメント後のvと画像サイズのVを比較する(S808)。v≦Vの場合は処理をステップS802に戻して次の画素位置の反射特性データを補間処理し、v>Vの場合は補間処理を終了する。   Next, the reflection characteristic interpolation processing unit 307 increments u of the pixel position (S804), and compares u after the increment with U of the image size (S805). If u ≦ U, the process returns to step S802 to interpolate the reflection characteristic data at the next pixel position. If u> U, u is reset (u = 0) (S806), v at the pixel position is incremented (S807), and v after the increment is compared with V of the image size (S808). If v ≦ V, the process returns to step S802 to interpolate the reflection characteristic data at the next pixel position. If v> V, the interpolation process ends.

各参照データの信頼度に基づき反射特性データを補間処理することで、図5(d)に示すように、形状の起伏が大きく色と模様の変化が小さい人物の顔の反射特性データは形状データに基づきが補間処理される。一方、形状の起伏が小さく色と模様の変化が大きい背景の反射特性データは色データに基づき補間処理されて、欠落領域が解消する。   By interpolating the reflection characteristic data based on the reliability of each reference data, as shown in Fig. 5 (d), the reflection characteristic data of a human face with a large shape undulation and a small change in color and pattern is the shape data. Are interpolated. On the other hand, the reflection characteristic data of the background having a small shape undulation and a large change in color and pattern is subjected to interpolation processing based on the color data, and the missing area is eliminated.

このように、形状の起伏が大きく色と模様の変化が小さい人物の顔領域、形状の起伏が小さく色と模様の変化が大きい背景領域、それらの中間の人物の体領域のような、異なる反射特性をもつ複数の領域について反射特性を高精度に推定することができる。   Thus, different reflections such as a human face area with a large shape undulation and a small color and pattern change, a background area with a small shape undulation and a large color and pattern change, and a person body area in between. The reflection characteristics can be estimated with high accuracy for a plurality of regions having characteristics.

[変形例]
上記では、24個の照明の一つのみを点灯して撮像した24枚の画像から反射特性データを取得する例を説明したが、照明方法や照明数、画像数に限定はない。被写体の形状や大きさ、被写体の反射特性に応じて照明数、画像数を増減することができる。
[Modification]
In the above description, the reflection characteristic data is acquired from 24 images captured by lighting only one of the 24 lights. However, the illumination method, the number of lights, and the number of images are not limited. The number of illuminations and the number of images can be increased or decreased according to the shape and size of the subject and the reflection characteristics of the subject.

また、24枚の画像の中で最大の画素値を正反射方向または正反射方向に近い方向からの反射光強度データと判定して、反射特性データを取得する例を説明したが、反射特性の取得方法はこれに限らない。例えば、反射光の反射方向に対する変角特性データを反射特性データとして取得してもよい。   In addition, the example in which the maximum pixel value in the 24 images is determined as the reflected light intensity data from the regular reflection direction or the direction close to the regular reflection direction and the reflection characteristic data is obtained has been described. The acquisition method is not limited to this. For example, the variable angle characteristic data with respect to the reflection direction of the reflected light may be acquired as the reflection characteristic data.

また、簡単のために、グレイスケールの画像データと反射特性データについて説明したが、RGB画像データまたはマルチバンド画像データを用いてもよく、画像データの成分数やバンド数に限定はない。   For simplicity, gray scale image data and reflection characteristic data have been described. However, RGB image data or multiband image data may be used, and the number of components and the number of bands of image data are not limited.

また、RGB画像データをグレイスケール化した画像データを参照データの色データにする例を説明したが、波長選択性を有する光学フィルタを用いて撮像した画像データであればよく、画像データの成分数やバンド数に限定はない。つまり、色データとしてRGB画像データまたはマルチバンド画像データを用いることもできる。   In addition, the example in which the image data obtained by converting the RGB image data to gray scale is used as the color data of the reference data has been described. However, any image data captured using an optical filter having wavelength selectivity may be used. There is no limit to the number of bands. That is, RGB image data or multiband image data can also be used as color data.

また、補間処理にジョイントバイラテラルフィルタを用いる例を説明したが、複数の参照データを用いる補間処理であればよく、補間処理の方法に限定はない。また、形状データとして高さデータを用いる例を説明したが、法線マップを用いてもよく、形状データの形式に限定はない。   Moreover, although the example which uses a joint bilateral filter for the interpolation process was demonstrated, it should just be the interpolation process using several reference data, and there is no limitation in the method of an interpolation process. Moreover, although the example which uses height data as shape data was demonstrated, a normal map may be used and there is no limitation in the format of shape data.

また、光切断方式の形状測定装置によって測定される形状データを用いる例を説明したが、画像データから形状データを算出してもよい。例えば、参照データ取得部305は、反射特性データの取得に用いる画像データから、照度差ステレオ法により被写体の表面の面法線を推定し、面法線を空間方向について積分することで、被写体の形状データを算出することができる。   Moreover, although the example using the shape data measured by the light measuring method shape measuring device has been described, the shape data may be calculated from the image data. For example, the reference data acquisition unit 305 estimates the surface normal of the surface of the subject by illuminance difference stereo method from the image data used to acquire the reflection characteristic data, and integrates the surface normal in the spatial direction, thereby Shape data can be calculated.

また、全照明を点灯し、正反射光を除去するために各照明とカメラに偏光フィルタを取り付けて撮像した画像データを色データに用いる例を説明したが、画像データから色データを算出してもよい。例えば、参照データ取得部305は、反射特性データの取得に用いる画像データを入力して、画像1、画像2、…、画像24の各画像データを比較して、各画素位置(u, v)で最小の画素値を被写体の色データとすることができる。   In addition, although an example has been described in which image data obtained by attaching all the illuminations and attaching a polarization filter to each illumination and camera in order to remove specularly reflected light is used as color data, color data is calculated from the image data. Also good. For example, the reference data acquisition unit 305 inputs image data used for acquisition of reflection characteristic data, compares the image data of image 1, image 2,..., Image 24, and compares each pixel position (u, v). The minimum pixel value can be used as subject color data.

また、標準偏差を算出するP×P画素のフィルタ演算処理により参照データの信頼度を算出する例を説明したが、信頼度を算出する領域を限定するものではない。例えば、各参照データの全画素を用いて参照データ全体の信頼度を算出し、信頼度が大きい参照データのみを用いる切替処理を行ってもよい。また、標準偏差を信頼度とする例を説明したが、参照データの空間周波数やノイズ量から信頼度を算出してもよく、信頼度の算出方法に限定はない。   Moreover, although the example which calculates the reliability of reference data by the filter calculation process of PxP pixel which calculates a standard deviation was demonstrated, the area | region which calculates reliability is not limited. For example, the reliability of the entire reference data may be calculated using all the pixels of each reference data, and the switching process using only the reference data having a high reliability may be performed. Further, although an example in which the standard deviation is used as the reliability has been described, the reliability may be calculated from the spatial frequency or noise amount of the reference data, and the reliability calculation method is not limited.

また、複数の参照データの信頼度に応じて重み付け係数を算出したが、複数の参照データの信頼度がすべて所定の範囲から逸脱した場合、予め設定した参照データを用いて補間処理を行ってもよい。また、複数の参照データの信頼度がすべて所定の範囲から逸脱した場合、参照データを用いずに周囲の反射特性データを用いて補間処理を行ってもよいし、補間処理を行わずスルーしてもよい。   Further, although the weighting coefficient is calculated according to the reliability of the plurality of reference data, if all the reliability of the plurality of reference data deviates from the predetermined range, interpolation processing may be performed using preset reference data. Good. In addition, when the reliability of a plurality of reference data deviates from a predetermined range, interpolation processing may be performed using surrounding reflection characteristic data without using reference data, or through without performing interpolation processing. Also good.

以下、本発明にかかる実施例2の画像処理装置および画像処理方法を説明する。なお、実施例2において、実施例1と略同様の構成については、同一の符号を付して、その詳細な説明を省略する。   Hereinafter, an image processing apparatus and an image processing method according to a second embodiment of the present invention will be described. Note that the same reference numerals in the second embodiment denote the same parts as in the first embodiment, and a detailed description thereof will be omitted.

実施例2では、被写体の形状の起伏が大きくオクルージョン(occlusion)が発生して形状データの測定精度が低下する場合も、反射特性データを高精度に補間処理する方法を説明する。実施例2における、参照データの信頼度の算出処理以外の画像処理は、実施例1の画像処理と同じであり、以下では、実施例2における参照データの信頼度の算出処理のみを説明する。   In the second embodiment, a method for highly accurately interpolating the reflection characteristic data will be described even when the undulation of the shape of the subject is large and occlusion occurs to reduce the measurement accuracy of the shape data. The image processing other than the reference data reliability calculation processing in the second embodiment is the same as the image processing in the first embodiment, and only the reference data reliability calculation processing in the second embodiment will be described below.

図11のフローチャートにより実施例2の信頼度の算出処理(S404)を説明する。なお、図11において、図7と同様の符号を付したステップは図7と同様の処理を行うステップであり、説明を省略する。   The reliability calculation process (S404) of the second embodiment will be described with reference to the flowchart of FIG. In FIG. 11, steps denoted by the same reference numerals as in FIG. 7 are steps for performing the same processing as in FIG.

信頼度算出部306は、画素位置(u, v)における各参照データの信頼度Wk(u, v)の算出(S702)が終了すると、ステップS1301の判定により、形状データの信頼度Ws(u, v)について、次の処理を実行する。まず、信頼度Ws(u, v)の算出対象の形状データを用いてオクルージョンマップO(u, v)を生成し(S1302)、Ws(u, v)とO(u, v)から、オクルージョンに応じた重みにより信頼度Wos(u,v)を補正する(S1303)。信頼度算出部306は、オクルージョンマップの生成にSSAO(screen space ambient occlusion)アルゴリズムを用い、下式により信頼度Wos(u, v)を補正する。
if (O(u,v) < Oth)
Wos(u,v) = Ws(u,v);
else
Wos(u,v) = 0; …(5)
ここで、Othは所定の閾値。
After calculating (S702) the reliability Wk (u, v) of each reference data at the pixel position (u, v), the reliability calculation unit 306 determines the reliability Ws (u of the shape data by the determination in step S1301. , v), the following processing is executed. First, an occlusion map O (u, v) is generated using the shape data for which the reliability Ws (u, v) is calculated (S1302), and the occlusion map is obtained from Ws (u, v) and O (u, v). The reliability Wos (u, v) is corrected with a weight according to (S1303). The reliability calculation unit 306 uses an SSAO (screen space ambient occlusion) algorithm to generate an occlusion map, and corrects the reliability Wos (u, v) using the following equation.
if (O (u, v) <Oth)
Wos (u, v) = Ws (u, v);
else
Wos (u, v) = 0 ;… (5)
Here, Oth is a predetermined threshold value.

次に、信頼度算出部306は、信頼度Ws(u, v)に代わる信頼度Wos(u, v)と信頼度Wc(u, v)を用いて、ステップS703の正規化処理を行う。以降の処理は図7と同様であり、説明を省略する。   Next, the reliability calculation unit 306 performs the normalization process in step S703 using the reliability Wos (u, v) and the reliability Wc (u, v) instead of the reliability Ws (u, v). The subsequent processing is the same as in FIG.

図12により実施例2の信頼度の算出処理によって得られる信頼度を説明する。図12(a)は形状データの信頼度W's(u, v)を示し、被写体においてオクルージョンが大きい領域(例えば人物の目、口、体の輪郭部など)の信頼度が0(最低値、図12に白色で示す)に補正される。   The reliability obtained by the reliability calculation process according to the second embodiment will be described with reference to FIG. FIG. 12 (a) shows the reliability W's (u, v) of the shape data, and the reliability of the area where the occlusion is large in the subject (for example, human eyes, mouth, body contour) is 0 (minimum value, figure (Indicated in white in 12).

一方、式(5)の処理によってWos(u, v)=0になる画素位置が増加する分、式(2)の分母の値は小さくなり、相対的に人物の目、口、体の色データの信頼度W'c(u, v)が高くなる(図12(b))。従って、形状データのオクルージョンに応じて信頼度を補正することにより、被写体の形状の起伏が大きくオクルージョンが発生した場合も、色データにより反射特性データを高精度に補間処理することが可能になる。   On the other hand, as the pixel position where Wos (u, v) = 0 is increased by the processing of Equation (5), the denominator value of Equation (2) becomes smaller, and the colors of the eyes, mouth, and body of the person are relatively The data reliability W′c (u, v) is increased (FIG. 12 (b)). Therefore, by correcting the reliability according to the occlusion of the shape data, even when the undulation of the shape of the subject is large and the occlusion occurs, the reflection characteristic data can be interpolated with high accuracy using the color data.

以下、本発明にかかる実施例3の画像処理装置および画像処理方法を説明する。なお、実施例3において、実施例1、2と略同様の構成については、同一の符号を付して、その詳細な説明を省略する。   Hereinafter, an image processing apparatus and an image processing method of Example 3 according to the present invention will be described. Note that the same reference numerals in the third embodiment denote the same parts as in the first and second embodiments, and a detailed description thereof will be omitted.

本実施3では、被写体の色が照明色に近いため、参照データの色データと反射特性データの分離精度が低下する場合も、反射特性データを高精度に補間処理する方法を説明する。実施例1においては、簡単のために、反射特性データと色データをグレイスケールの画像データとして説明を行った。実施例3においては、反射特性データと色データがRGB画像データI(u, v)、Irc(u, v)(IはR、GまたはB)として説明を行う。また、被写体によっては、被写体表面の反射光の色が照明色と異なる色にみえるブロンズ現象が発生する場合がある。実施例3では、簡単のために、ブロンズ現象は発生せず、反射特性データの色相は撮像時の照明色の色相に一致するものとする。   In the third embodiment, a method for highly accurately interpolating the reflection characteristic data will be described even when the color of the subject is close to the illumination color and the separation accuracy between the color data of the reference data and the reflection characteristic data is reduced. In the first embodiment, for simplicity, the reflection characteristic data and the color data are described as gray scale image data. In the third embodiment, description will be made assuming that reflection characteristic data and color data are RGB image data I (u, v) and Irc (u, v) (I is R, G, or B). Depending on the subject, a bronze phenomenon may occur in which the color of reflected light on the subject surface looks different from the illumination color. In the third embodiment, for simplicity, it is assumed that the bronze phenomenon does not occur and the hue of the reflection characteristic data matches the hue of the illumination color at the time of imaging.

実施例3における、参照データの信頼度の算出処理以外の画像処理は、実施例1の画像処理と同じであり、以下では、実施例3における参照データの信頼度の算出処理のみを説明する。図13のフローチャートにより実施例3の信頼度の算出処理(S404)を説明する。なお、図13において、図7と同様の符号を付したステップは図7と同様の処理を行うステップであり、説明を省略する。   The image processing other than the reference data reliability calculation processing in the third embodiment is the same as the image processing in the first embodiment, and only the reference data reliability calculation processing in the third embodiment will be described below. The reliability calculation process (S404) of the third embodiment will be described with reference to the flowchart of FIG. In FIG. 13, steps denoted by the same reference numerals as in FIG. 7 are steps for performing the same processing as in FIG.

信頼度算出部306は、画素位置(u, v)における各参照データの信頼度Wk(u, v)の算出(S702)が終了すると、ステップS1501の判定により、色データの信頼度Wc(u, v)について、次の処理を実行する。まず、ステップS402で取得した反射特性データI(u, v)と信頼度Wc(u, v)の算出対象の色データIrc(u, v)を用いて色相マップHp(u, v)を算出する(S1502)。
Hp(u,v) = tan-1[√3{Gp(u,v) - Bp(u,v)}/{2Rp(u,v) - Gp(u,v) - Bp(u,v)}] …(6)
ここで、(Rp, Gp, Bp)(u,v)はI(u,v)またはIrc(u,v)を構成する、
pは反射特性データまたは色データを表す添字。
After calculating (S702) the reliability Wk (u, v) of each reference data at the pixel position (u, v), the reliability calculation unit 306 determines the reliability Wc (u of the color data based on the determination in step S1501. , v), the following processing is executed. First, the hue map Hp (u, v) is calculated using the reflection characteristic data I (u, v) acquired in step S402 and the color data Irc (u, v) for which the reliability Wc (u, v) is to be calculated. (S1502).
Hp (u, v) = tan -1 [√3 {Gp (u, v)-Bp (u, v)} / {2Rp (u, v)-Gp (u, v)-Bp (u, v) }]… (6)
Where (Rp, Gp, Bp) (u, v) constitutes I (u, v) or Irc (u, v)
p is a subscript indicating reflection characteristic data or color data.

次に、信頼度算出部306は、色相マップから下式により色相差分マップΔH(u, v)を算出する(S1503)。
ΔH(u,v) = |H(u,v) - Hc(u,v)| …(7)
ここで、H(u,v)は反射特性データI(u,v)から算出される色相マップ、
Hc(u,v)は色データIrc(u,v)から算出される色相マップ。
Next, the reliability calculation unit 306 calculates a hue difference map ΔH (u, v) from the hue map by the following equation (S1503).
ΔH (u, v) = | H (u, v)-Hc (u, v) |… (7)
Here, H (u, v) is a hue map calculated from reflection characteristic data I (u, v),
Hc (u, v) is a hue map calculated from the color data Irc (u, v).

反射特性データI(u, v)から算出される色相マップH(u, v)は、反射特性データの取得に使用された画像データの撮像時に被写体を照明していた照明の色に相当する。次に、信頼度算出部306は、色データの信頼度Wc(u, v)と色相差分マップΔH(u, v)から、被写体色と照明色の色相の差分に応じて色データの信頼度を下式により補正する(S1504)。
if (ΔH(u,v) < Hth)
Whc(u,v) = 0;
else
Whc(u,v) = Wc(u,v); …(8)
ここで、Hthは所定の閾値。
The hue map H (u, v) calculated from the reflection characteristic data I (u, v) corresponds to the illumination color that illuminates the subject when the image data used to acquire the reflection characteristic data is captured. Next, the reliability calculation unit 306 determines the reliability of the color data from the reliability Wc (u, v) of the color data and the hue difference map ΔH (u, v) according to the difference between the hues of the subject color and the illumination color. Is corrected by the following equation (S1504).
if (ΔH (u, v) <Hth)
Whc (u, v) = 0;
else
Whc (u, v) = Wc (u, v);… (8)
Here, Hth is a predetermined threshold value.

次に、信頼度算出部306は、信頼度Wc(u, v)に代わる信頼度Whc(u, v)と信頼度Ws(u, v)を用いて、ステップS703の正規化処理を行う。以降の処理は図7と同様であり、説明を省略する。   Next, the reliability calculation unit 306 performs normalization processing in step S703 using the reliability Whc (u, v) and the reliability Ws (u, v) instead of the reliability Wc (u, v). The subsequent processing is the same as in FIG.

図14により実施例3の信頼度の算出処理によって得られる信頼度を説明する。図14(b)は色データの信頼度W'c(u, v)を示し、色相差分が小さい背景の木葉状の模様以外の背景領域と人物の顔領域の信頼度が0(最低値、図14に白色で示す)に補正される。   The reliability obtained by the reliability calculation process according to the third embodiment will be described with reference to FIG. FIG. 14 (b) shows the reliability W′c (u, v) of the color data, and the reliability of the background area other than the foliate pattern of the background with a small hue difference and the human face area is 0 (minimum value, (Shown in white in FIG. 14).

一方、式(8)の処理によってWhc(u, v)=0になる画素位置が増加する分、式(2)の分母の値は小さくなり、相対的に上記の背景の模様以外の背景領域と人物の顔領域の形状データの信頼度W's(u, v)が高くなる(図14(a))。従って、色データと照明色の間の色相差分に応じて信頼度を補正することにより、被写体の色が照明色に近い場合でも、形状データにより反射特性データを高精度に補間処理することが可能になる。   On the other hand, as the pixel position where Whc (u, v) = 0 is increased by the processing of Equation (8), the value of the denominator of Equation (2) becomes smaller, and the background region other than the background pattern is relatively And the reliability W's (u, v) of the shape data of the human face area is increased (FIG. 14 (a)). Therefore, by correcting the reliability according to the hue difference between the color data and the illumination color, even if the subject color is close to the illumination color, the reflection characteristic data can be interpolated with high accuracy using the shape data. become.

[変形例]
実施例2では、信頼度の補正として、オクルージョンマップが所定の閾値を超える場合、形状データの信頼度を最低値にする例を説明した。また、実施例3では、信頼度の補正として、色相差分が所定の閾値未満の場合、色データの信頼度を最低値にする例を説明した。これに限らず、オクルージョンマップまたは色相差分と重みwの対応関係を示すテーブルまたは計算式を用いて重みw(0≦w≦1)を取得し、重みwと信頼度Wk(u, v)を乗算する補正を行ってもよい。また、実施例2と3の組み合わせが可能であることは言うまでもない。
[Modification]
In the second embodiment, as an example of the reliability correction, when the occlusion map exceeds a predetermined threshold, the reliability of the shape data is set to the lowest value. In the third embodiment, as an example of the reliability correction, when the hue difference is less than a predetermined threshold, the reliability of the color data is set to the lowest value. Not limited to this, the weight w (0 ≦ w ≦ 1) is obtained using an occlusion map or a table or calculation formula showing the correspondence between the hue difference and the weight w, and the weight w and the reliability Wk (u, v) are obtained. Correction for multiplication may be performed. Needless to say, the combinations of Embodiments 2 and 3 are possible.

[その他の実施例]
本発明は、上述の実施形態の一以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける一以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、一以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Examples]
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program It can also be realized by processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

303 … 撮像データ入力部、304 … 反射特性取得部、306 … 信頼度算出部、307 … 反射特性補間処理部   303 ... Imaging data input unit, 304 ... Reflection characteristic acquisition unit, 306 ... Reliability calculation unit, 307 ... Reflection characteristic interpolation processing unit

Claims (13)

物体の周囲に配置された複数の光源を一つずつ点灯して前記物体を撮像した複数の画像データを入力する入力手段と、
前記複数の画像データから前記物体の反射特性データを取得する取得手段と、
前記物体の反射特性に関連する複数の参照データそれぞれの信頼度を算出する算出手段と、
前記複数の参照データとそれらの信頼度に基づき、前記反射特性データを補間処理する補間処理手段とを有する画像処理装置。
An input means for inputting a plurality of image data obtained by imaging the object by turning on a plurality of light sources arranged around the object one by one;
Obtaining means for obtaining reflection characteristic data of the object from the plurality of image data;
Calculating means for calculating the reliability of each of a plurality of reference data related to the reflection characteristics of the object;
An image processing apparatus comprising: interpolation processing means for interpolating the reflection characteristic data based on the plurality of reference data and their reliability.
前記取得手段は、画素位置ごとに、前記複数の画像データから最大画素値を抽出した画像データを前記反射特性データとして生成する請求項1に記載された画像処理装置。   2. The image processing apparatus according to claim 1, wherein the acquisition unit generates, as the reflection characteristic data, image data obtained by extracting a maximum pixel value from the plurality of image data for each pixel position. 前記算出手段は、画素位置ごとに、当該画素位置を中心とする所定領域の画素値の標準偏差を前記信頼度として算出する請求項1または請求項2に記載された画像処理装置。   3. The image processing apparatus according to claim 1, wherein the calculation unit calculates, as the reliability, a standard deviation of a pixel value of a predetermined area centered on the pixel position for each pixel position. 前記補間処理手段は、
前記複数の参照データの一方を用いて前記反射特性データを補間処理した第一の反射特性データと、前記複数の参照データの他方を用いて前記反射特性データを補間処理した第二の反射特性データを生成し、
前記複数の参照データそれぞれの信頼度に基づき、前記第一および第二の反射特性データを合成して、前記補間処理が施された反射特性データを生成する請求項1から請求項3の何れか一項に記載された画像処理装置。
The interpolation processing means includes
First reflection characteristic data obtained by interpolating the reflection characteristic data using one of the plurality of reference data, and second reflection characteristic data obtained by interpolating the reflection characteristic data using the other of the plurality of reference data. Produces
4. The reflection characteristic data subjected to the interpolation process is generated by combining the first and second reflection characteristic data based on the reliability of each of the plurality of reference data. An image processing apparatus according to one item.
前記複数の参照データは、前記物体の形状を示す形状データおよび前記物体の色を表す色データである請求項1から請求項4の何れか一項に記載された画像処理装置。   5. The image processing apparatus according to claim 1, wherein the plurality of reference data are shape data indicating a shape of the object and color data indicating a color of the object. さらに、前記複数の画像データから前記形状データおよび/または前記色データを取得する手段を有する請求項5に記載された画像処理装置。   6. The image processing apparatus according to claim 5, further comprising means for acquiring the shape data and / or the color data from the plurality of image data. 前記算出手段は、前記形状データから生成したオクルージョンマップに基づき、前記形状データの信頼度を補正する請求項5または請求項6に記載された画像処理装置。   7. The image processing apparatus according to claim 5, wherein the calculation unit corrects the reliability of the shape data based on an occlusion map generated from the shape data. 前記算出手段は、前記オクルージョンマップが所定の第一の閾値を超える形状データの信頼度を最低値に補正する請求項7に記載された画像処理装置。   8. The image processing apparatus according to claim 7, wherein the calculation unit corrects the reliability of shape data in which the occlusion map exceeds a predetermined first threshold value to a minimum value. 前記算出手段は、前記複数の画像データの撮像時の前記物体の照明色と前記色データに基づき、前記色データの信頼度を補正する請求項5から請求項8の何れか一項に記載された画像処理装置。   9. The calculation unit according to claim 5, wherein the calculation unit corrects the reliability of the color data based on the illumination color of the object and the color data when the plurality of image data is captured. Image processing device. 前記算出手段は、前記照明色の色相と前記色データの色相の差が所定の第二の閾値未満の色データの信頼度を最低値に補正する請求項9に記載された画像処理装置。   10. The image processing apparatus according to claim 9, wherein the calculation unit corrects the reliability of color data in which a difference between the hue of the illumination color and the hue of the color data is less than a predetermined second threshold value to a minimum value. 物体の周囲に配置された複数の光源を一つずつ点灯して前記物体を撮像した複数の画像データを入力し、
前記複数の画像データから前記物体の反射特性データを取得し、
前記物体の反射特性に関連する複数の参照データそれぞれの信頼度を算出し、
前記複数の参照データとそれらの信頼度に基づき、前記反射特性データを補間処理する画像処理方法。
A plurality of light sources arranged around the object are turned on one by one to input a plurality of image data obtained by imaging the object,
Obtaining reflection characteristic data of the object from the plurality of image data;
Calculating the reliability of each of a plurality of reference data related to the reflection characteristics of the object;
An image processing method for interpolating the reflection characteristic data based on the plurality of reference data and their reliability.
コンピュータを請求項1から請求項10の何れか一項に記載された画像処理装置の各手段として機能させるためのプログラム。   11. A program for causing a computer to function as each unit of the image processing apparatus according to claim 1. 請求項12に記載されたプログラムが記録されたコンピュータが読み取り可能な記録媒体。   A computer-readable recording medium on which the program according to claim 12 is recorded.
JP2014133247A 2014-06-27 2014-06-27 Image processing apparatus and method Active JP6478492B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014133247A JP6478492B2 (en) 2014-06-27 2014-06-27 Image processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014133247A JP6478492B2 (en) 2014-06-27 2014-06-27 Image processing apparatus and method

Publications (2)

Publication Number Publication Date
JP2016011874A true JP2016011874A (en) 2016-01-21
JP6478492B2 JP6478492B2 (en) 2019-03-06

Family

ID=55228684

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014133247A Active JP6478492B2 (en) 2014-06-27 2014-06-27 Image processing apparatus and method

Country Status (1)

Country Link
JP (1) JP6478492B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017213052A1 (en) * 2016-06-08 2017-12-14 パナソニックIpマネジメント株式会社 Ranging system and ranging method
JP7433847B2 (en) 2018-11-09 2024-02-20 株式会社コーエーテクモゲームス Program, information processing method, and information processing device

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0429019B2 (en) * 1981-11-17 1992-05-15 Biiku Hiemii Gmbh
JPH07103826A (en) * 1993-10-04 1995-04-21 Minolta Co Ltd Multiangle reflection photometer
JP2001050817A (en) * 1999-08-10 2001-02-23 Minolta Co Ltd Multiangle colorimeter
JP2001056297A (en) * 1999-08-17 2001-02-27 Electro Techno Kk Surface inspection method and device therefor
JP2001144972A (en) * 1999-11-18 2001-05-25 Fuji Photo Film Co Ltd Multi-spectral image recording.processing unit and image recording/processing method
JP2002214152A (en) * 2001-01-24 2002-07-31 Electro Techno Kk Surface inspecting method and device
JP2003028805A (en) * 2001-07-12 2003-01-29 Kurabo Ind Ltd Apparatus for evaluating surface state
JP2006260527A (en) * 2005-02-16 2006-09-28 Toshiba Corp Image matching method and image interpolation method using same
JP2008164628A (en) * 2004-07-28 2008-07-17 Byk Gardner Gmbh Device for goniometric examination of optical property of surface
JP2012105023A (en) * 2010-11-09 2012-05-31 Canon Inc Image processing apparatus, image pickup device, and image processing method
JP2013025762A (en) * 2011-07-26 2013-02-04 Canon Inc Image processing device, image processing method, and program
WO2013091016A1 (en) * 2011-12-23 2013-06-27 Canon Kabushiki Kaisha Structured light system for robust geometry acquisition
JP2013140090A (en) * 2012-01-05 2013-07-18 Omron Corp Inspection area setting method of image inspection device
JP2013150361A (en) * 2013-05-07 2013-08-01 Canon Inc Resolution converter and control method thereof
JP2013156094A (en) * 2012-01-27 2013-08-15 Omron Corp Image inspection method and image inspection device
JP2013238576A (en) * 2012-04-20 2013-11-28 Office Color Science Co Ltd Gonio-photometric spectral imaging measurement method and apparatus for the same
US20140146045A1 (en) * 2012-11-26 2014-05-29 Nvidia Corporation System, method, and computer program product for sampling a hierarchical depth map

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0429019B2 (en) * 1981-11-17 1992-05-15 Biiku Hiemii Gmbh
JPH07103826A (en) * 1993-10-04 1995-04-21 Minolta Co Ltd Multiangle reflection photometer
JP2001050817A (en) * 1999-08-10 2001-02-23 Minolta Co Ltd Multiangle colorimeter
JP2001056297A (en) * 1999-08-17 2001-02-27 Electro Techno Kk Surface inspection method and device therefor
JP2001144972A (en) * 1999-11-18 2001-05-25 Fuji Photo Film Co Ltd Multi-spectral image recording.processing unit and image recording/processing method
JP2002214152A (en) * 2001-01-24 2002-07-31 Electro Techno Kk Surface inspecting method and device
JP2003028805A (en) * 2001-07-12 2003-01-29 Kurabo Ind Ltd Apparatus for evaluating surface state
JP2008164628A (en) * 2004-07-28 2008-07-17 Byk Gardner Gmbh Device for goniometric examination of optical property of surface
JP2006260527A (en) * 2005-02-16 2006-09-28 Toshiba Corp Image matching method and image interpolation method using same
JP2012105023A (en) * 2010-11-09 2012-05-31 Canon Inc Image processing apparatus, image pickup device, and image processing method
JP2013025762A (en) * 2011-07-26 2013-02-04 Canon Inc Image processing device, image processing method, and program
WO2013091016A1 (en) * 2011-12-23 2013-06-27 Canon Kabushiki Kaisha Structured light system for robust geometry acquisition
JP2013140090A (en) * 2012-01-05 2013-07-18 Omron Corp Inspection area setting method of image inspection device
JP2013156094A (en) * 2012-01-27 2013-08-15 Omron Corp Image inspection method and image inspection device
JP2013238576A (en) * 2012-04-20 2013-11-28 Office Color Science Co Ltd Gonio-photometric spectral imaging measurement method and apparatus for the same
US20140146045A1 (en) * 2012-11-26 2014-05-29 Nvidia Corporation System, method, and computer program product for sampling a hierarchical depth map
JP2013150361A (en) * 2013-05-07 2013-08-01 Canon Inc Resolution converter and control method thereof

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017213052A1 (en) * 2016-06-08 2017-12-14 パナソニックIpマネジメント株式会社 Ranging system and ranging method
JPWO2017213052A1 (en) * 2016-06-08 2019-04-04 パナソニックIpマネジメント株式会社 Ranging system and ranging method
JP7433847B2 (en) 2018-11-09 2024-02-20 株式会社コーエーテクモゲームス Program, information processing method, and information processing device

Also Published As

Publication number Publication date
JP6478492B2 (en) 2019-03-06

Similar Documents

Publication Publication Date Title
Maurer How to pan-sharpen images using the gram-schmidt pan-sharpen method–A recipe
US10475237B2 (en) Image processing apparatus and control method thereof
US10304164B2 (en) Image processing apparatus, image processing method, and storage medium for performing lighting processing for image data
KR101991766B1 (en) Adaptive multi-dimensional data decomposition
US9357144B2 (en) Image processing apparatus, imaging device, image processing method, and computer-readable recording medium
TWI767985B (en) Method and apparatus for processing an image property map
JP6833415B2 (en) Image processing equipment, image processing methods, and programs
TWI554108B (en) Electronic device and image processing method
WO2019102966A1 (en) Pulse wave detection device, pulse wave detection method, and storage medium
WO2016135856A1 (en) Three-dimensional shape measurement system and measurement method for same
JP2015200937A (en) Image processor and system, image processing method, and program
JP7328096B2 (en) Image processing device, image processing method, and program
US10250809B2 (en) Video stabilization system and method
WO2019123554A1 (en) Image processing device, image processing method, and recording medium
JP2018163648A (en) Image processor, method for image processing, and program
JP6478492B2 (en) Image processing apparatus and method
US20210327026A1 (en) Methods and apparatus for blending unknown pixels in overlapping images
JP6624785B2 (en) Image processing method, image processing device, imaging device, program, and storage medium
JP6221333B2 (en) Image processing apparatus, image processing circuit, and image processing method
JP2019168862A (en) Processing equipment, processing system, imaging device, processing method, program, and recording medium
US9270883B2 (en) Image processing apparatus, image pickup apparatus, image pickup system, image processing method, and non-transitory computer-readable storage medium
JP5478533B2 (en) Omnidirectional image generation method, image generation apparatus, and program
JP6740109B2 (en) Image processing apparatus, image processing method, and program
JP2018160024A (en) Image processing device, image processing method and program
WO2017197085A1 (en) System and method for depth estimation using a movable image sensor and illumination source

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170525

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180727

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190205

R151 Written notification of patent or utility model registration

Ref document number: 6478492

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151