JP2008016918A - Image processor, image processing system, and image processing method - Google Patents

Image processor, image processing system, and image processing method Download PDF

Info

Publication number
JP2008016918A
JP2008016918A JP2006183168A JP2006183168A JP2008016918A JP 2008016918 A JP2008016918 A JP 2008016918A JP 2006183168 A JP2006183168 A JP 2006183168A JP 2006183168 A JP2006183168 A JP 2006183168A JP 2008016918 A JP2008016918 A JP 2008016918A
Authority
JP
Japan
Prior art keywords
image
light source
information
unit
resolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006183168A
Other languages
Japanese (ja)
Inventor
Satoshi Sato
智 佐藤
Katsuhiro Kanamori
克洋 金森
Hideto Motomura
秀人 本村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2006183168A priority Critical patent/JP2008016918A/en
Publication of JP2008016918A publication Critical patent/JP2008016918A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technology of realizing an image with high resolution by imaging a light source image resulting from imaging a light source and estimating light source information without the need for mount of an additional imaging apparatus. <P>SOLUTION: A wide angle image imaging section 101 uses an imaging apparatus 1001 capable of imaging a wide angle image and automatically and consecutively images an object. An imaging apparatus information acquisition section 102 acquires imaging apparatus information representing a state of the imaging apparatus 1001 in its imaging state. A light source information estimate section 103 uses an imaged wide angle image and the acquired imaging apparatus information to estimate the light source information including the position, the color and the illuminance of the light source, and an image high resolution section 104 uses the estimated light source information to bring the imaged wide angle image to have a high resolution. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、画像撮像時の光源の位置、方向、輝度、スペクトル、色などの光源情報を推定する技術、および、推定した光源情報を用いて画像の高解像度化を行う技術に関するものである。   The present invention relates to a technique for estimating light source information such as the position, direction, brightness, spectrum, and color of a light source at the time of image capturing, and a technique for increasing the resolution of an image using the estimated light source information.

カメラ付き携帯電話やデジタルカメラの普及に伴い、画像処理の重要度が高まってきている。このような画像処理として、例えばデジタルズームとして知られている画像の高解像度化や、Computer−Graphicsで作成された画像を重畳表示する拡張現実など、さまざまなものがある。   With the spread of camera-equipped mobile phones and digital cameras, the importance of image processing has increased. As such image processing, there are various types such as high resolution of an image known as digital zoom and augmented reality in which an image created by Computer-Graphics is superimposed and displayed.

これらの画像処理は、画像撮像により撮像素子に記録された被写体の「見え」を基に処理が行なわれている。この物体の見えは、光源からの光が被写体表面で反射され、その反射光を撮像素子が受光することで得られる。   These image processes are performed based on the “appearance” of the subject recorded on the image sensor by image capturing. The appearance of the object is obtained when light from the light source is reflected on the surface of the subject and the reflected light is received by the image sensor.

そのため、光源情報は画像処理において非常に重要である。つまり、光源情報を取得して、画像撮像や画像処理に利用することは非常に効果的である。例えば、特許文献1では、仮想物体を実世界に重畳表示させる際、実世界の光源環境を計測することで、仮想物体上に写り込む照射光による反射光や仮想物体により生成される影を付与する。   Therefore, light source information is very important in image processing. That is, it is very effective to acquire light source information and use it for image capturing and image processing. For example, in Patent Document 1, when a virtual object is superimposed and displayed on the real world, a reflected light from irradiation light reflected on the virtual object or a shadow generated by the virtual object is added by measuring a light source environment in the real world. To do.

また、光源情報は、画像処理だけでなく、撮像行為を行う主体者である撮像者が撮像装置で画像を取得する際にも有益である。例えば、特許文献2では、光源位置を検出し、その情報を利用して、順光状態や逆光状態を撮像者に表示することによって、一般の人が特に専門的な知識をもっていない場合でも、光や影を生かした逆光(半逆光)のポートレート写真等を容易に撮像することを可能にしている。
特開平11−175762号公報 特開平8−160507号公報
The light source information is useful not only for image processing, but also when an imager who is a subject performing an imaging action acquires an image with an imaging apparatus. For example, in Patent Document 2, the light source position is detected, and the information is used to display the front light state or the back light state to the photographer. It is possible to easily capture portrait photographs of backlight (half backlight) using shadows and shadows.
JP-A-11-175762 JP-A-8-160507

このような画像処理を実現するために、光源を撮像した画像、すなわち光源画像が必要である。光源画像は、
(1)被写体とは別方向を撮像し、かつ
(2)全天周に近い、広範囲な画像である
ことが望ましい。これは、以下の理由による。
In order to realize such image processing, an image obtained by imaging a light source, that is, a light source image is necessary. The light source image
(1) Capture a different direction from the subject, and
(2) It is desirable to have a wide range of images close to the whole sky. This is due to the following reason.

(1)一般的な被写体、例えば人に対して、照明である街灯や室内照明は上方から照射されることが多い。また、被写体と同じ方向に光源がある場合、逆光状態となり、被写体が暗くなる可能性がある。そのため、撮像者は被写体と光源が同じ画像に入ることを避けたがる。   (1) A general subject, for example, a person, is often illuminated from above by street lamps or indoor lighting. Further, when the light source is in the same direction as the subject, the subject may be backlit and the subject may become dark. Therefore, the photographer wants to avoid that the subject and the light source enter the same image.

(2)光源は、撮像者にとって、どこに何個あるか未知。   (2) How many light sources are unknown to the photographer.

このため、上述の特許文献1および特許文献2では、光源情報を取得するために、天頂方向に光軸を向け、魚眼レンズを搭載した撮像装置を利用している。   For this reason, in the above-mentioned patent document 1 and patent document 2, in order to acquire light source information, the optical axis is turned to the zenith direction, and the imaging device equipped with the fisheye lens is used.

しかし、このように魚眼レンズを被写体とは別方向に向けて撮像するためには、被写体を撮像する撮像装置とは別の、第2の撮像装置が必要になる。これは、コストの面で大きな負担となってしまう。また特に、身に付けるカメラであるウェアラブルカメラやカメラ付き携帯電話では、小型化の要望が大きいため、撮像装置を現在よりも増やすことは、大きさの面でも大きな問題となる。   However, in order to image the fisheye lens in a direction different from the subject as described above, a second imaging device different from the imaging device that images the subject is required. This is a great burden in terms of cost. In particular, wearable cameras and camera-equipped mobile phones that are worn on the body are highly demanded for miniaturization, so increasing the number of imaging devices is a big problem in terms of size.

さらに、被写体を撮像する撮像装置と光源を撮像する撮像装置が異なるため、2つの撮像装置間での位置合わせ(キャリブレーション)が必要になってしまう。これは、光源情報を推定する上で、被写体と光源との位置関係が特に重要であることに起因する。すなわち、被写体と光源を別個の撮像装置で撮像した場合、これらの対応付けが必要になるが、この操作は非常に煩雑である。   Furthermore, since the imaging device that images the subject is different from the imaging device that images the light source, alignment (calibration) between the two imaging devices is required. This is because the positional relationship between the subject and the light source is particularly important in estimating the light source information. That is, when the subject and the light source are imaged by separate imaging devices, it is necessary to associate them with each other, but this operation is very complicated.

前記の問題に鑑み、本発明は、例えばウェアラブルカメラなどの装置において、付加的な撮像装置を搭載することなく、光源が撮像された光源画像を撮像し、光源情報を推定して、画像の高解像度化を実現することを課題とする。   In view of the above problems, the present invention captures a light source image in which a light source is captured without mounting an additional imaging device, for example, in an apparatus such as a wearable camera, estimates light source information, and increases the height of the image. An object is to realize resolution.

本発明は、画像処理装置および方法として、広角画像を撮像可能な撮像装置を用いて、被写体を自動的に連続して撮像し、撮像が行われたときにおける前記撮像装置の状況を表す撮像装置情報を取得し、撮像された広角画像と取得された撮像装置情報とを用いて、光源の位置、色および照度を含む光源情報を推定し、前記広角画像を、推定された光源情報を用いて、高解像度化するものである。   As an image processing apparatus and method, an imaging apparatus that automatically and continuously captures a subject using an imaging apparatus capable of capturing a wide-angle image and represents the state of the imaging apparatus when the imaging is performed Information is obtained, light source information including the position, color and illuminance of the light source is estimated using the captured wide-angle image and the acquired imaging device information, and the wide-angle image is estimated using the estimated light source information. The resolution is increased.

本発明によると、被写体を、広角画像を撮像可能な撮像装置を用いて、自動的に連続して撮像するので、撮像された広角画像には、被写体周囲の光源が映る可能性が高くなる。すなわち、被写体画像と併せて、光源画像を得ることができる。そして、撮像された広角画像と、撮像が行われたときの撮像装置情報とを用いて、光源の位置、色および照度を含む光源情報が推定され、推定された光源情報を用いて、前記広角画像が高解像度化される。すなわち、被写体撮像用以外の付加的な撮像装置を搭載することなく、光源画像を取得し、画像の高解像度化を実現することが可能となる。   According to the present invention, an object is automatically and continuously imaged using an imaging device capable of imaging a wide-angle image, so that the possibility that a light source around the object is reflected in the captured wide-angle image increases. That is, a light source image can be obtained together with the subject image. Then, light source information including the position, color, and illuminance of the light source is estimated using the captured wide-angle image and the imaging device information when the imaging is performed, and the wide-angle is calculated using the estimated light source information. The image is increased in resolution. That is, it is possible to acquire a light source image and realize high resolution of the image without mounting an additional imaging device other than for subject imaging.

本発明によると、本来の目的である被写体撮像用以外の付加的な撮像装置を搭載することなく、被写体周囲の光源画像を撮像することができ、こうして撮像された光源画像から、光源情報を推定することができる。これにより、高倍率のデジタルズーム処理などの多彩な画像処理を実現することができる。   According to the present invention, it is possible to capture a light source image around a subject without mounting an additional imaging device other than the subject imaging that is the original purpose, and estimate light source information from the light source image thus captured. can do. Thereby, various image processing such as high-power digital zoom processing can be realized.

本発明の第1態様では、広角画像を撮像可能な撮像装置を用いて、被写体を自動的に連続して撮像する広角画像撮像部と、前記広角画像撮像部によって撮像が行われたときにおける前記撮像装置の状況を表す撮像装置情報を取得する撮像装置情報取得部と、前記広角画像撮像部によって撮像された広角画像と、前記撮像装置情報取得部によって取得された撮像装置情報とを用いて、光源の位置、色および照度を含む光源情報を推定する光源情報推定部と、前記広角画像を、前記光源情報推定部によって推定された光源情報を用いて高解像度化する画像高解像度化部とを備えた画像処理装置を提供する。   In the first aspect of the present invention, using an imaging device capable of capturing a wide-angle image, the wide-angle image imaging unit that automatically and continuously images the subject, and the imaging when the wide-angle image imaging unit captures the image Using an imaging device information acquisition unit that acquires imaging device information representing the status of the imaging device, a wide-angle image captured by the wide-angle image imaging unit, and imaging device information acquired by the imaging device information acquisition unit, A light source information estimation unit that estimates light source information including a position, color, and illuminance of a light source, and an image resolution enhancement unit that increases the resolution of the wide-angle image using the light source information estimated by the light source information estimation unit. Provided is an image processing apparatus.

本発明の第2態様では、前記撮像装置情報取得部は、前記撮像装置に搭載された角度センサの出力、および、前記広角画像撮像部が撮像した画像のうち、少なくともいずれか一方を用いて、前記撮像装置情報を取得するものである前記第1態様の画像処理装置を提供する。   In the second aspect of the present invention, the imaging device information acquisition unit uses at least one of an output of an angle sensor mounted on the imaging device and an image captured by the wide-angle image imaging unit, The image processing device according to the first aspect is provided for acquiring the imaging device information.

本発明の第3態様では、前記広角画像撮像部は、前記撮像装置の画素の露光時間を領域毎に異なる値に設定する前記第1態様の画像処理装置を提供する。   According to a third aspect of the present invention, there is provided the image processing device according to the first aspect, wherein the wide-angle image capturing unit sets an exposure time of a pixel of the image capturing device to a different value for each region.

本発明の第4態様では、前記広角画像撮像部は、前記撮像装置のレンズの周辺部に対応する領域において、画素の露光時間を、前記レンズの中心部に対応する領域よりも、短く設定する前記第3態様の画像処理装置を提供する。   In the fourth aspect of the present invention, the wide-angle image capturing unit sets a pixel exposure time shorter in a region corresponding to a peripheral portion of the lens of the imaging device than in a region corresponding to the central portion of the lens. An image processing apparatus according to the third aspect is provided.

本発明の第5態様では、前記被写体の、表面の法線情報または3次元位置情報を、形状情報として取得する形状情報取得部を備え、前記画像高解像度化部は、前記形状情報取得部によって取得された形状情報を用いて、前記広角画像の高解像度化を行うものである前記第1態様の画像処理装置を提供する。   According to a fifth aspect of the present invention, the image processing device includes a shape information acquisition unit that acquires surface normal information or three-dimensional position information of the subject as shape information, and the image high-resolution unit includes the shape information acquisition unit. The image processing apparatus according to the first aspect is provided for increasing the resolution of the wide-angle image using the acquired shape information.

本発明の第6態様では、前記画像高解像度化部は、前記広角画像を拡散反射成分と鏡面反射成分とに分離し、分離した拡散反射成分と鏡面反射成分とを個別に高解像化するものである前記第5態様の画像処理装置を提供する。   In the sixth aspect of the present invention, the image resolution increasing unit separates the wide-angle image into a diffuse reflection component and a specular reflection component, and individually increases the resolution of the separated diffuse reflection component and specular reflection component. An image processing apparatus according to the fifth aspect is provided.

本発明の第7態様では、前記画像高解像度化部は、前記広角画像をパラメータに分解し、分解したパラメータを個別に高解像化するものである前記第5態様の画像処理装置を提供する。   According to a seventh aspect of the present invention, there is provided the image processing device according to the fifth aspect, wherein the image resolution increasing unit decomposes the wide-angle image into parameters and individually increases the resolution of the decomposed parameters. .

本発明の第8態様では、前記画像高解像度化部は、高解像度化の拡大倍率を画像の領域毎に異なる値に設定する前記第1態様の画像処理装置を提供する。   According to an eighth aspect of the present invention, there is provided the image processing device according to the first aspect, wherein the image resolution increasing unit sets an enlargement magnification for increasing the resolution to a different value for each region of the image.

本発明の第9態様では、前記画像高解像度化部は、前記撮像装置のレンズの周辺部に対応する領域において、拡大倍率を前記レンズの中心部に対応する領域よりも高く設定する前記第8態様の画像処理装置を提供する。   In the ninth aspect of the present invention, the image resolution increasing unit sets the magnification in the region corresponding to the peripheral portion of the lens of the imaging device higher than the region corresponding to the central portion of the lens. An image processing apparatus according to an aspect is provided.

本発明の第10態様では、前記撮像装置に対する光源環境が変化したか否かを判定する光源環境判定部を備え、前記光源情報推定部は、光源環境が変化したと前記光源環境判定部によって判定されたとき、光源情報の推定を行う前記第1態様の画像処理装置を提供する。   In a tenth aspect of the present invention, the light source environment determination unit that determines whether or not the light source environment for the imaging device has changed is provided, and the light source information estimation unit determines that the light source environment has changed by the light source environment determination unit. When this is done, the image processing apparatus of the first aspect for estimating light source information is provided.

本発明の第11態様では、前記光源環境判定部は、前記撮像装置に搭載された角度センサの出力から、前記撮像装置が移動したか否かを判定し、移動したとき、光源環境が変化したと判定する前記第10態様の画像処理装置を提供する。   In an eleventh aspect of the present invention, the light source environment determining unit determines whether or not the imaging device has moved from the output of an angle sensor mounted on the imaging device, and the light source environment has changed when the imaging device has moved. The image processing apparatus according to the tenth aspect is determined.

本発明の第12態様では、前記撮像環境判定部は、前記広角画像撮像部が撮像した画像を用いて、前記撮像装置が移動したか否かを判定し、移動したとき、光源環境が変化したと判定する前記第10態様の画像処理装置を提供する。   In a twelfth aspect of the present invention, the imaging environment determination unit determines whether or not the imaging device has moved using an image captured by the wide-angle image imaging unit, and the light source environment has changed when the imaging device has moved. The image processing apparatus according to the tenth aspect is determined.

本発明の第13態様では、前記光源情報推定部が光源情報を正確に推定しているか否かを判定する推定光源情報判定部を備え、前記光源情報推定部は、光源情報を正確に推定していないと前記推定光源情報判定部によって判定されたとき、再度、光源情報の推定を行う前記第1態様の画像処理装置を提供する。   In a thirteenth aspect of the present invention, the light source information estimation unit includes an estimated light source information determination unit that determines whether or not the light source information is accurately estimated, and the light source information estimation unit accurately estimates the light source information. If it is determined by the estimated light source information determination unit that it is not, the image processing apparatus according to the first aspect that performs light source information estimation again is provided.

本発明の第14態様では、前記推定光源情報判定部は、GPS(Global Positioning System)センサの出力と時刻情報とを用いて、太陽光の方向または太陽の位置を推定し、推定した方向または位置を、前記光源情報推定部によって推定された光源情報と対比することによって、判定を行う前記第13態様の画像処理装置を提供する。   In a fourteenth aspect of the present invention, the estimated light source information determination unit estimates the direction of sunlight or the position of the sun using the output of a GPS (Global Positioning System) sensor and time information, and the estimated direction or position Is provided with the light source information estimated by the light source information estimation unit, thereby providing the image processing apparatus according to the thirteenth aspect for performing the determination.

本発明の第15態様では、前記推定光源情報判定部は、被写体の形状情報と、前記光源情報推定部が推定した光源情報とを用いて、前記被写体の画像を推定し、推定した画像を、前記広角画像撮像部によって撮像された画像と対比することによって、判定を行う前記第13態様の画像処理装置を提供する。   In the fifteenth aspect of the present invention, the estimated light source information determination unit estimates the image of the subject using the shape information of the subject and the light source information estimated by the light source information estimation unit, The image processing apparatus according to the thirteenth aspect that performs determination by comparing with an image captured by the wide-angle image capturing unit.

本発明の第16態様では、前記推定光源情報判定部は、前記広角画像撮像部によって撮像された画像の色情報を、前記光源情報推定部によって推定された光源の色と対比することによって、判定を行う前記第13態様の画像処理装置を提供する。   In the sixteenth aspect of the present invention, the estimated light source information determining unit determines the color information of the image captured by the wide-angle image capturing unit by comparing the color information of the light source estimated by the light source information estimating unit. An image processing apparatus according to the thirteenth aspect is provided.

本発明の第17態様では、画像を高解像度化する画像処理システムとして、前記第1態様の広角画像撮像部および撮像装置情報取得部を有し、前記広角画像撮像部によって撮像された広角画像、および前記撮像装置情報取得部によって取得された撮像装置情報を送信する通信端末と、前記第1態様の光源情報推定部および画像高解像度化部を有し、前記通信端末から送信された前記広角画像および前記撮像装置情報を受信し、前記広角画像を前記光源情報推定部および画像高解像度化部に与えるとともに、前記撮像装置情報を前記光源情報推定部に与えるサーバとを備え、前記通信端末は、前記サーバに、光源情報の推定および画像の高解像度化の内容を指示するものを提供する。   In a seventeenth aspect of the present invention, as an image processing system for increasing the resolution of an image, the wide-angle image captured by the wide-angle image capturing unit, including the wide-angle image capturing unit and the imaging device information acquiring unit of the first aspect, And the communication terminal that transmits the imaging device information acquired by the imaging device information acquisition unit, the light source information estimation unit and the image resolution enhancement unit of the first aspect, and the wide-angle image transmitted from the communication terminal And the server that receives the imaging device information, provides the wide-angle image to the light source information estimation unit and the image resolution enhancement unit, and provides the imaging device information to the light source information estimation unit, The server is provided for instructing the contents of light source information estimation and image resolution enhancement.

本発明の第18態様では、広角画像を撮像可能な撮像装置を用いて、被写体を、自動的に連続して撮像する第1のステップと、前記第1のステップにおいて撮像が行われたときにおける、前記撮像装置の状況を表す撮像装置情報を、取得する第2のステップと、前記第1のステップにおいて撮像した広角画像と、前記第2のステップにおいて取得した撮像装置情報とを用いて、光源の位置、色および照度を含む光源情報を推定する第3のステップと、前記広角画像を、前記第3のステップにおいて推定した光源情報を用いて、高解像度化する第4のステップとを備えた画像処理方法を提供する。   In the eighteenth aspect of the present invention, a first step of automatically and continuously imaging a subject using an imaging device capable of capturing a wide-angle image, and when the imaging is performed in the first step Using the second step of acquiring imaging device information representing the status of the imaging device, the wide-angle image captured in the first step, and the imaging device information acquired in the second step, a light source A third step of estimating light source information including the position, color, and illuminance, and a fourth step of increasing the resolution of the wide-angle image using the light source information estimated in the third step. An image processing method is provided.

以下、本発明の実施の形態について、図面を参照しながら説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(第1の実施形態)
図1は本発明の第1の実施形態に係る画像処理装置の構成を示すブロック図である。図1において、101は広角画像を撮像可能な撮像装置1001を用いて、被写体を自動的に連続して撮像する広角画像撮像部、102は広角画像撮像部101によって撮像が行われたとき、撮像装置1001の状況を表す撮像装置情報を取得する撮像装置情報取得部、103は広角画像撮像部101によって撮像された広角画像と撮像装置情報取得部102によって取得された撮像装置情報とを用いて、光源の位置、色および照度を含む光源情報を推定する光源情報推定部、104は広角画像撮像部101によって撮像された広角画像を、光源情報推定部103によって推定された光源情報を用いて、高解像度化する画像高解像度化部である。
(First embodiment)
FIG. 1 is a block diagram showing the configuration of the image processing apparatus according to the first embodiment of the present invention. In FIG. 1, reference numeral 101 denotes a wide-angle image capturing unit that automatically and continuously captures an object using an imaging device 1001 that can capture a wide-angle image. An imaging device information acquisition unit 103 that acquires imaging device information representing the status of the device 1001, 103 uses the wide-angle image captured by the wide-angle image imaging unit 101 and the imaging device information acquired by the imaging device information acquisition unit 102. A light source information estimation unit 104 that estimates light source information including the position, color, and illuminance of the light source, and 104 uses a light source information estimated by the light source information estimation unit 103 to generate a high-angle image captured by the wide-angle image imaging unit 101. It is an image high-resolution part for increasing the resolution.

なおここでは、広角画像撮像部101、撮像装置情報取得部102、光源情報推定部103および画像高解像度化部104は、例えば、CPU1021によってプログラムを実行することによって、実現されるものとする。ただし、これらの機能の全部または一部を、ハードウェアによって実現するようにしてもかまわない。また、メモリ1022は、広角画像撮像部101によって撮像された撮像画像と、撮像装置情報取得部102によって取得された撮像装置情報を格納する。   Here, the wide-angle image imaging unit 101, the imaging device information acquisition unit 102, the light source information estimation unit 103, and the image resolution enhancement unit 104 are realized, for example, by executing a program by the CPU 1021. However, all or part of these functions may be realized by hardware. The memory 1022 stores the captured image captured by the wide-angle image capturing unit 101 and the image capturing apparatus information acquired by the image capturing apparatus information acquiring unit 102.

図2は本実施形態に係る画像処理装置が搭載された機器としてのウェアラブルカメラの利用形態を示す模式図である。図2において、撮像行為を行う主体者である撮像者1003は、ウェアラブルカメラ1000を自分の肩に設置している。1017はウェアラブルカメラ1000の撮像装置の光軸方向を示す。図2のように、本実施形態に係る画像処理装置は、ウェアラブルカメラなどに利用されることが有効である。   FIG. 2 is a schematic diagram illustrating a usage form of a wearable camera as a device on which the image processing apparatus according to the present embodiment is mounted. In FIG. 2, a photographer 1003 who is a subject performing an imaging action has a wearable camera 1000 installed on his / her shoulder. Reference numeral 1017 denotes the optical axis direction of the imaging device of the wearable camera 1000. As shown in FIG. 2, it is effective that the image processing apparatus according to the present embodiment is used in a wearable camera or the like.

撮像装置1001はCMOSやCCDセンサ等によって構成されており、広角画像が撮像可能なように、例えば魚眼レンズや全周囲カメラ、あるいは焦点距離の短いレンズが搭載されている。また撮像装置1001には、3軸の角度センサ1020が搭載されている。広角画像撮像部101は撮像装置1000を用いて、被写体を自動的に連続して撮像する。すなわち本実施形態では、撮像者が撮像スイッチを押すなどの積極的な操作をすることなく、撮像が連続して実施される。このとき撮像された広角画像には、光源が含まれる可能性が高い。撮像された広角画像は、メモリ1022に格納される。   The imaging apparatus 1001 is configured by a CMOS, a CCD sensor, or the like, and is mounted with, for example, a fisheye lens, an all-around camera, or a lens with a short focal length so that a wide-angle image can be captured. In addition, a triaxial angle sensor 1020 is mounted on the imaging apparatus 1001. The wide-angle image capturing unit 101 uses the image capturing apparatus 1000 to automatically and continuously capture a subject. That is, in the present embodiment, imaging is continuously performed without an aggressive operation such as a photographer pressing an imaging switch. The wide-angle image captured at this time is highly likely to include a light source. The captured wide-angle image is stored in the memory 1022.

図3は撮像された広角画像を示す模式図である。図3において、撮像装置1001の視野範囲1004には、被写体1018と被写体1018を照射している光源1005とが含まれる。すなわち、撮像装置1001によって撮像された広角画像1006には、光源画素1007および被写体画像1019が映っている。このように、広角に画像を撮像することにより、光源1005と被写体1018を同時に撮像することができる。なお、焦点距離の短いレンズを用いる場合、撮像者が気になっている画像全てを撮像することが望ましい。そのため、はっきりは見えないが物体の存在や動きが気になる視野の領域である誘導視野が撮像できるように、視野角110度以上のレンズを利用することが望ましい。   FIG. 3 is a schematic diagram showing a captured wide-angle image. In FIG. 3, the visual field range 1004 of the imaging apparatus 1001 includes a subject 1018 and a light source 1005 that irradiates the subject 1018. That is, the light source pixel 1007 and the subject image 1019 are reflected in the wide-angle image 1006 captured by the imaging device 1001. In this manner, the light source 1005 and the subject 1018 can be captured simultaneously by capturing an image at a wide angle. In addition, when using a lens with a short focal distance, it is desirable to capture all images that the photographer is interested in. For this reason, it is desirable to use a lens having a viewing angle of 110 degrees or more so that a guided field of view, which is a region of the field of view that is not clearly visible but is worried about the presence or movement of an object, can be captured.

撮像装置情報取得部102は、広角画像撮像部101によって撮像が行われた際の、撮像装置1001の状況を表す撮像装置情報を取得する。具体的には例えば、角度センサ1020の出力と撮像装置1001の焦点距離情報とを、撮像装置情報として取得する。取得された撮像装置情報はメモリ1022に格納される。図4はメモリ1022に保持された情報の一部を示す模式図である。ある撮像画像に対して、角度センサ出力と焦点距離が、撮像装置情報として格納されている。   The imaging device information acquisition unit 102 acquires imaging device information representing the state of the imaging device 1001 when imaging is performed by the wide-angle image imaging unit 101. Specifically, for example, the output of the angle sensor 1020 and the focal length information of the imaging device 1001 are acquired as imaging device information. The acquired imaging device information is stored in the memory 1022. FIG. 4 is a schematic diagram showing a part of information held in the memory 1022. For a certain captured image, the angle sensor output and the focal length are stored as imaging device information.

撮像装置1001の姿勢情報は、角度センサ1020の出力を用いて、以下の3x3行列Rlightで表現される。
The attitude information of the imaging apparatus 1001 is expressed by the following 3 × 3 matrix Rlight using the output of the angle sensor 1020.

撮像装置1001の姿勢情報を表す、この3x3行列Rlightをカメラ姿勢行列と呼ぶ。ここで、(α,β,γ)はカメラに取り付けられたセンサ出力のロール・ピッチ・ヨー角表現での値であり、ある基準点からの動き量で表現される。ロール・ピッチ・ヨー角表現とは、図5に示したように、任意の回転を、z軸周りの回転であるロー、次に、新しいy軸周りの回転であるピッチ、最後に、新しいx軸まわりの回転であるヨーの3段階の回転によって表すものである。   This 3 × 3 matrix Rlight representing the posture information of the imaging apparatus 1001 is referred to as a camera posture matrix. Here, (α, β, γ) is a value in the roll, pitch, and yaw angle representation of the sensor output attached to the camera, and is represented by the amount of movement from a certain reference point. The roll, pitch, and yaw angle representation, as shown in FIG. 5, refers to any rotation by rotating the rotation around the z axis, then the pitch around the new y axis, and finally the new x This is represented by a three-stage rotation of yaw, which is rotation around an axis.

また、Rx(α)、Ry(β)、Rz(γ)はロール・ピッチ・ヨー角からx軸回転、y軸回転、z軸回転へ変換する行列であり、次式で表される。
Rx (α), Ry (β), and Rz (γ) are matrices for converting the roll, pitch, and yaw angles into x-axis rotation, y-axis rotation, and z-axis rotation, and are expressed by the following equations.

このような、カメラに取り付けられた角度センサや角速度センサからカメラの姿勢情報を取得する方法は、既存の手法を利用すればよい(例えば、「岡谷貴之、“メカニカルセンサとイメージセンサの融合による3次元形状復元”、情報処理学会研究報告会、2005−CVIM−147、pp.123−130、2005」)。   Such a method for acquiring camera posture information from an angle sensor or an angular velocity sensor attached to the camera may use an existing method (for example, “Takayuki Okaya,“ 3 by fusion of a mechanical sensor and an image sensor). Dimensional shape restoration ", Information Processing Society of Japan, 2005-CVIM-147, pp. 123-130, 2005").

また、撮像装置1001がズーム可能である場合、そのズーム情報も焦点距離情報として取得される。また、撮像装置1001が固定焦点の場合、その焦点距離情報も取得される。焦点距離情報は、画像処理の分野で広く使われているカメラキャリブレーションを行うことにより、取得できる。   When the imaging apparatus 1001 can zoom, the zoom information is also acquired as focal length information. Further, when the imaging apparatus 1001 has a fixed focus, the focal length information is also acquired. The focal length information can be acquired by performing camera calibration widely used in the field of image processing.

また、撮像装置情報取得部102は、広角画像撮像部101によって撮像された画像を利用して、撮像装置1001の光軸方向や位置情報等を撮像装置情報として求めてもかまわない。例えば、時刻t1とt2で撮像された画像を利用して、時刻t1とt2間の相対的な位置関係P1とカメラ姿勢行列Rlightを、オプティカルフローを用いて求める。   The imaging device information acquisition unit 102 may obtain the optical axis direction, position information, and the like of the imaging device 1001 as imaging device information using an image captured by the wide-angle image imaging unit 101. For example, using the images taken at times t1 and t2, the relative positional relationship P1 and the camera posture matrix Rlight between times t1 and t2 are obtained using an optical flow.

オプティカルフローは、被写体上のある1点に対応する、時間的に連続した2つの画像上の点、すなわち対応点を結ぶベクトルであり、対応点とカメラ動きとの間には幾何学的な拘束式が成り立つ。このため、対応点が一定の条件を満たす場合に、カメラの動きを算出することができる。   An optical flow is a vector connecting two temporally continuous points on a subject corresponding to a certain point on the subject, that is, a vector connecting the corresponding points, and there is a geometric constraint between the corresponding points and the camera movement. The formula holds. For this reason, when the corresponding point satisfies a certain condition, the motion of the camera can be calculated.

異なる時刻における撮像装置の相対的な位置関係をオプティカルフローから求める手法としては、例えば8点法と呼ばれる手法が知られている(H. C. Longuet-Higgins, “A computer algorithm for reconstructing a scene from two projections”, Nature, vol.293, pp.133-135, 1981)。この手法は、2画像間の静止した8点以上の対応点の組からカメラ動きを算出するものである。また、このような2画像間の対応点を求める手法は、一般に広く知られた方法であるので、詳細な説明を省略する(例えば、Carlo Tomasi and Takeo Kanade, “Detection and Tracking of Point Features”, Carnegie Mellon University Technical Report, CMU-CS-91-132, April 1991)。   For example, an 8-point method is known as a method for obtaining the relative positional relationship of imaging devices at different times from an optical flow (HC Longuet-Higgins, “A computer algorithm for reconstructing a scene from two projections”). , Nature, vol.293, pp.133-135, 1981). This method calculates camera motion from a set of eight or more corresponding points that are stationary between two images. In addition, since such a method for obtaining corresponding points between two images is a generally well-known method, detailed description thereof is omitted (for example, Carlo Tomasi and Takeo Kanade, “Detection and Tracking of Point Features”, Carnegie Mellon University Technical Report, CMU-CS-91-132, April 1991).

光源情報推定部103は、メモリ1022に格納された、広角画像撮像部101が撮像した広角画像と撮像装置情報取得部102が取得した撮像装置情報とを用いて、現在の撮像装置1001に対する光源情報を取得する。この処理について説明する。   The light source information estimation unit 103 uses the wide-angle image captured by the wide-angle image imaging unit 101 and the imaging device information acquired by the imaging device information acquisition unit 102 stored in the memory 1022, and the light source information for the current imaging device 1001. To get. This process will be described.

ここでは、光源の方向を推定するものとする。まず、広角画像において、十分に輝度値の高い画素を、光源を撮像している画素すなわち光源画素として抽出する。図3において、撮像された広角画像1006では、光源1005が撮像されている領域1007の輝度値は非常に高くなる。そこで、閾値処理を利用し、所定の閾値よりも輝度値が高い画素を光源画素として抽出する。   Here, it is assumed that the direction of the light source is estimated. First, in a wide-angle image, a pixel having a sufficiently high luminance value is extracted as a pixel capturing a light source, that is, a light source pixel. In FIG. 3, in the captured wide-angle image 1006, the luminance value of the region 1007 where the light source 1005 is captured is very high. Thus, threshold processing is used to extract pixels having a luminance value higher than a predetermined threshold as light source pixels.

こうして求まった光源画素から、光源方向を推定する。この処理には、撮像装置の画素位置(u,v)と画像座標系とよばれる撮像素子上での実寸位置(xf,yf)との関係式が必要である。レンズの歪みなどの影響を考慮すると、画素位置(u,v)と実寸位置(xf,yf)との関係は、次式で求められる。
The light source direction is estimated from the light source pixels thus obtained. This process requires a relational expression between the pixel position (u, v) of the image pickup apparatus and the actual position (xf, yf) on the image pickup element called an image coordinate system. Considering the influence of lens distortion and the like, the relationship between the pixel position (u, v) and the actual position (xf, yf) can be obtained by the following equation.

ただし、(Cx,Cy)は画素中心位置、sはスケールファクタ、(dx,dy)は撮像素子1画素のサイズ[mm]、Ncxはx方向の撮像素子数、Nfxはx方向の有効画素数、κ1、κ2はレンズの歪みを示す歪みパラメータである。   Where (Cx, Cy) is the pixel center position, s is the scale factor, (dx, dy) is the size [mm] of one pixel of the image sensor, Ncx is the number of image sensors in the x direction, and Nfx is the number of effective pixels in the x direction. , Κ1, and κ2 are distortion parameters indicating lens distortion.

また、図6に示した、撮像装置の焦点位置を原点、その光軸方向をZ軸にとったカメラ座標系(x,y,z)と画像座標系(xf,yf)との関係は、次式で求められる。
ここで、fは撮像装置の焦点距離を表している。つまり、カメラパラメータ(Cx,Cy),s,(dx,dy),Ncx,Nfx,f,κ1,κ2が既知であれば、(式1)(式2)により、画素位置(u,v)とカメラ座標系(x,y,z)の変換が可能である。
Further, the relationship between the camera coordinate system (x, y, z) and the image coordinate system (xf, yf) shown in FIG. It is calculated by the following formula.
Here, f represents the focal length of the imaging device. That is, if the camera parameters (Cx, Cy), s, (dx, dy), Ncx, Nfx, f, κ1, and κ2 are known, the pixel position (u, v) is determined by (Expression 1) and (Expression 2). And the camera coordinate system (x, y, z) can be converted.

通常、Ncx,Nfxは撮像素子が特定できれば既知であり、また、(Cx,Cy),s,(dx,dy),κ1、κ2、fはいわゆるカメラキャリブレーションを行うことで既知となる(例えば、Roger Y.Tsai, “An Efficient and Accurate Camera Calibration Technique for 3D Machine Vision”, Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, Miami Beach, FL, 1986, pp. 364-374, 1986)。これらのパラメータは、撮像装置の位置や姿勢が変化しても変化しない。このようなパラメータをカメラ内部パラメータとよぶ。   Normally, Ncx and Nfx are known if an image sensor can be specified, and (Cx, Cy), s, (dx, dy), κ1, κ2, and f are known by performing so-called camera calibration (for example, Roger Y. Tsai, “An Efficient and Accurate Camera Calibration Technique for 3D Machine Vision”, Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, Miami Beach, FL, 1986, pp. 364-374, 1986). These parameters do not change even if the position or orientation of the imaging device changes. Such parameters are called camera internal parameters.

そこで、撮像を行う前にカメラキャリブレーションを行い、カメラ内部パラメータ(Cx,Cy),s,(dx,dy),Ncx,Nfx,f,κ1,κ2を特定する。これらの値は、撮像装置購入時に付属されているものを利用しても構わない。また、カメラが固定焦点ではなく、ズーム可能である場合、各ズーム時の焦点距離fを個別に求めておき、必要なときに選択できるようにしておけばよい。そして、焦点距離fを撮像した画像とともに保持しておけばよい。   Therefore, camera calibration is performed before imaging, and camera internal parameters (Cx, Cy), s, (dx, dy), Ncx, Nfx, f, κ1, and κ2 are specified. As these values, those attached at the time of purchase of the imaging apparatus may be used. In addition, when the camera is not fixed focus but can be zoomed, the focal length f at each zoom may be obtained individually so that it can be selected when necessary. Then, the focal length f may be held together with the captured image.

以上の情報を利用して、光源画素から光源方向を推定する。光源画素の画素位置を(ulight,vlight)とすると、光源方向Llightは以下の式で表現できる。
ただし、
ところで、Llightは光源画素を撮像したときのカメラ座標系で表現されているため、現在のカメラ座標系Lnowで表現しなおす。これは、以下の式で表現できる。
ただし、Rlightは光源画素を撮影したときのカメラ姿勢行列、Rnowは現在のカメラ姿勢行列を示している。
Using the above information, the light source direction is estimated from the light source pixels. When the pixel position of the light source pixel is (ulight, vlight), the light source direction Llight can be expressed by the following equation.
However,
By the way, since Llight is expressed in the camera coordinate system when the light source pixel is imaged, it is expressed again in the current camera coordinate system Lnow. This can be expressed by the following equation.
Here, Rlight represents the camera posture matrix when the light source pixel is photographed, and Rnow represents the current camera posture matrix.

以上の処理を行うことにより、光源方向ベクトルLnowを推定する。このようにして、光源の方向が推定される。   By performing the above processing, the light source direction vector Lnow is estimated. In this way, the direction of the light source is estimated.

さらに、撮像装置1001が移動することを利用して、光源の方向だけでなく、3次元位置まで求めるようにしても構わない。   Further, by using the movement of the imaging apparatus 1001, not only the direction of the light source but also a three-dimensional position may be obtained.

図7はこの処理を説明するための模式図である。図7において、1001A、1002Aは時刻t=t1における撮像装置と推定された光源方向ベクトル、また、1001B、1002Bは時刻t=t2における撮像装置と推定された光源方向ベクトルを示している。ここで、時刻t1とt2の撮像装置の相対的な位置関係と姿勢がわかっていれば、光源ベクトル1002A、1002Bを延長した交点に光源は存在するはずである。つまり、光源の3次元位置は以下のように求まる。   FIG. 7 is a schematic diagram for explaining this process. In FIG. 7, 1001A and 1002A indicate light source direction vectors estimated as the imaging device at time t = t1, and 1001B and 1002B indicate light source direction vectors estimated as the imaging device at time t = t2. Here, if the relative positional relationship and orientation of the imaging device at times t1 and t2 are known, the light source should exist at the intersection where the light source vectors 1002A and 1002B are extended. That is, the three-dimensional position of the light source is obtained as follows.

時刻t1における、撮像装置のカメラ姿勢行列、撮像装置の3次元位置、および推定された光源方向ベクトルをそれぞれ、R1、P1、L1とし、時刻t2における、撮像装置のカメラ姿勢行列と推定された光源方向ベクトルをそれぞれ、R2、L2とする。ただし、時刻t2において、撮像装置の位置は原点O(0,0,0)であるとする。このとき、光源位置Plightは次式を満たす。
ただし、s,mは任意の定数である。もし、すべての推定値が正しく、ノイズが存在していなければ、(式3)と(式4)をsとmに関する連立方程式を解くことによって、光源位置Plightは求まる。しかし、通常はノイズの影響があるため、最小自乗法を利用して、光源位置を求める。
The camera posture matrix of the imaging device, the three-dimensional position of the imaging device, and the estimated light source direction vector at time t1 are R1, P1, and L1, respectively, and the light source estimated as the camera posture matrix of the imaging device at time t2. The direction vectors are R2 and L2, respectively. However, it is assumed that the position of the imaging device is the origin O (0, 0, 0) at time t2. At this time, the light source position Plight satisfies the following equation.
However, s and m are arbitrary constants. If all the estimated values are correct and no noise exists, the light source position Plight can be obtained by solving simultaneous equations for s and m in (Equation 3) and (Equation 4). However, since there is usually an influence of noise, the light source position is obtained using the least square method.

まず、以下の関数f(m,s)を考える。
ここで、m,sは以下の関係式を満たす。
つまり、
よって、(式5)、(式6)をmとsに関する連立方程式として解き、求まったmとsを(式3)または(式4)へ代入することにより、光源位置Plightが求まる。このようにして、光源の位置が推定される。
First, consider the following function f (m, s).
Here, m and s satisfy the following relational expression.
That means
Therefore, the light source position Plight is obtained by solving (Equation 5) and (Equation 6) as simultaneous equations relating to m and s and substituting the obtained m and s into (Equation 3) or (Equation 4). In this way, the position of the light source is estimated.

なお、時刻t1における撮像装置の相対的な3次元位置P1(時刻t1とt2における撮像装置の相対的な位置関係)は、上述したように、広角画像撮像部101によって撮像された画像から、オプティカルフローを用いることによって求められる。   Note that, as described above, the relative three-dimensional position P1 of the imaging device at time t1 (relative positional relationship between the imaging devices at time t1 and t2) is calculated from the image captured by the wide-angle image capturing unit 101, as described above. It is determined by using a flow.

さらに、光源画素の輝度値やRGB値を求めることによって、光源の輝度や色も求めることができる。また、画像をマルチスペクトルカメラで取得することで、光源のスペクトルを検出するようにしても構わない。このように光源のスペクトルを取得することによって,後述する画像の高解像度化や拡張現実において、色再現性の高い画像が合成できることが知られている(例えば、「内山俊郎, 土田 勝, 山口雅浩, 羽石秀昭, 大山永昭, “マルチスペクトル撮影による光源環境計測とスペクトルに基づく画像生成”, 電子情報通信学会技術研究報告PRMU2005-138, pp.7-12, 2006」)。   Further, the luminance and color of the light source can be obtained by obtaining the luminance value and RGB value of the light source pixel. Moreover, you may make it detect the spectrum of a light source by acquiring an image with a multispectral camera. By acquiring the spectrum of the light source in this way, it is known that an image with high color reproducibility can be synthesized in higher resolution and augmented reality described later (for example, “Toshiro Uchiyama, Masaru Tsuchida, Masahiro Yamaguchi , Hideaki Haneishi, Nagaaki Oyama, “Light Source Environment Measurement and Spectrum-Based Image Generation Using Multispectral Imaging”, IEICE Technical Report PRMU2005-138, pp.7-12, 2006 ”).

また、光源情報取得部103は、光源情報として、光源の照度情報を取得するようにしても構わない。これは撮像装置1001と光軸方向の一致した照度計を利用すればよい。照度計としては、光電池にマイクロアンペア計を接続し、入射光によって生じる光電流を読む光電池照度計などを用いればよい。   The light source information acquisition unit 103 may acquire illuminance information of the light source as the light source information. This may be done by using an illuminometer that matches the image pickup apparatus 1001 in the optical axis direction. As the illuminance meter, a photocell illuminance meter or the like that reads a photocurrent generated by incident light by connecting a microampere meter to the photovoltaic cell may be used.

画像高解像度化部104は、広角画像撮像部101が撮像した画像を、光源情報推定部103が推定した光源情報を利用して、高解像度化する。   The image enhancement unit 104 increases the resolution of the image captured by the wide-angle image capturing unit 101 using the light source information estimated by the light source information estimation unit 103.

CCDやCMOSのような素子で広角画像を撮像した場合、狭角レンズで撮像した場合に比べて低解像度の画像となってしまう。そこで、本実施形態に係る画像撮像装置では、光源情報推定部103が推定した光源情報などを利用して、被写体の解像度を改善させる。   When a wide-angle image is captured by an element such as a CCD or CMOS, an image with a lower resolution is obtained than when captured by a narrow-angle lens. Therefore, in the image capturing apparatus according to the present embodiment, the light source information estimated by the light source information estimation unit 103 is used to improve the resolution of the subject.

画像高解像度化部104について詳述する。画像の高解像度化はデジタルズームとして知られており、補間を利用する方法、複数枚の画像を利用してカメラの劣化モデルを推定する方法(例えば、「田中正行,奥富正敏,“再構成型超解像処理の高速化アルゴリズムとその精度評価”、電子情報通信学会論文誌D-II,vol.J88-D-II,No.11,pp.2200-2209,2005」など)、学習を利用する方法などを利用すればよい。ここでは、学習を利用した画像の高解像度化処理について説明する。   The image resolution increasing unit 104 will be described in detail. Higher resolution of images is known as digital zoom. A method that uses interpolation, a method that uses multiple images to estimate a camera degradation model (for example, “Masayuki Tanaka, Masatoshi Okutomi,“ Reconstruction Super "Resolution processing acceleration algorithm and its accuracy evaluation", IEICE Transactions D-II, vol.J88-D-II, No.11, pp.2200-2209, 2005, etc.), using learning A method or the like may be used. Here, the resolution enhancement processing of an image using learning will be described.

まず、学習を利用した画像の高解像度化処理の概念を説明する。画像高解像度化部104は、以下の4つの入力情報を利用する。   First, the concept of image resolution enhancement processing using learning will be described. The image resolution increasing unit 104 uses the following four pieces of input information.

○被写体の拡散反射画像
○被写体の鏡面反射画像
○被写体の3次元形状情報
○光源位置・色・照度
○ Diffuse reflection image of the subject ○ Specular reflection image of the subject ○ Three-dimensional shape information of the subject ○ Light source position / color / illuminance

ここで、拡散反射画像とは、入力画像のうち、マットな反射成分である拡散反射成分のみを画像化したものであり、同様に、鏡面反射画像は、入力画像のうち、てかりである鏡面反射成分のみを画像化したものである。ここで、拡散反射成分とは、光沢の無い物体表面で起こる反射であり、すべての方向に一様に散乱する成分である。一方、鏡面反射成分とは、鏡の面での反射のように、法線に対して入射光の反対方向に強く反射する成分である。2色性反射モデルを仮定すると、物体の輝度は、拡散反射成分と鏡面反射成分との和として表現される。後述するように、鏡面反射画像と拡散反射画像は、例えば偏光フィルタを回転させながら被写体を撮像することで取得することができる。   Here, the diffuse reflection image is an image obtained by imaging only the diffuse reflection component that is a matte reflection component in the input image. Similarly, the specular reflection image is a specular surface that is a metric in the input image. Only the reflection component is imaged. Here, the diffuse reflection component is a reflection that occurs on the surface of a non-glossy object and is a component that is uniformly scattered in all directions. On the other hand, the specular reflection component is a component that strongly reflects in the direction opposite to the incident light with respect to the normal, like reflection on a mirror surface. Assuming a dichroic reflection model, the brightness of an object is expressed as the sum of a diffuse reflection component and a specular reflection component. As will be described later, the specular reflection image and the diffuse reflection image can be acquired by, for example, imaging the subject while rotating the polarization filter.

図8(a)は、光源で照射された被写体(タンブラー)を撮像装置で撮像した画像を示している。図の上部にてかりである鏡面反射が現れているのがわかる。一方、図8(b)(c)は、図8(a)の画像を後述する方法で拡散反射画像と鏡面反射画像とに分離した結果である。拡散反射画像はてかりが取り除かれ、表面のテクスチャ情報が鮮明になっているが、立体感が失われている。一方、鏡面反射画像は細かな形状情報が鮮明に現れているが、逆にテクスチャ情報が失われている。つまり、入力画像はこれら全く異なる情報を含んだ二つの画像が重畳されたものであった。画像を拡散反射画像と鏡面反射画像とに分離し、別々に処理することにより、より精細な高解像度化処理が可能である。   FIG. 8A shows an image obtained by imaging an object (tumbler) irradiated with a light source with an imaging device. It can be seen that a specular reflection appears at the top of the figure. On the other hand, FIGS. 8B and 8C show the result of separating the image of FIG. 8A into a diffuse reflection image and a specular reflection image by a method described later. The diffuse reflection image is removed from the light and the surface texture information is clear, but the stereoscopic effect is lost. On the other hand, in the specular reflection image, fine shape information appears clearly, but on the contrary, texture information is lost. In other words, the input image is a superposition of two images including completely different information. By separating the image into a diffuse reflection image and a specular reflection image and processing them separately, a finer and higher resolution processing can be performed.

高解像度化処理には、学習ベースの手法を用いる。学習ベースとは、事前に低解像度と高解像度の画像組を用意し、その対応を学習するものである。この際、用意された画像以外の画像においても高解像度化処理を働かせるために、画像そのものを学習するのではなく、画像から抽出した特徴量を学習する。   A learning-based method is used for the high resolution processing. The learning base is to prepare low-resolution and high-resolution image sets in advance and learn the correspondence. At this time, in order to make the high resolution processing work even in an image other than the prepared image, the feature amount extracted from the image is learned instead of learning the image itself.

図9は画像高解像度化部104の構成例を示すブロック図である。図9の画像高解像度化部104は、広角画像撮像部101によって撮像されメモリ1022に格納された広角画像を、光源情報推定部103によって推定された光源情報を用いて、高解像度化する。また、形状情報取得部204は、被写体の表面の法線情報または3次元位置情報を形状情報として取得する。形状情報取得部204によって取得された形状情報は、画像高解像度化部104における画像の高解像度化処理に用いられる。   FIG. 9 is a block diagram illustrating a configuration example of the image resolution increasing unit 104. 9 increases the resolution of the wide-angle image captured by the wide-angle image capturing unit 101 and stored in the memory 1022 using the light source information estimated by the light source information estimation unit 103. In addition, the shape information acquisition unit 204 acquires normal information or three-dimensional position information on the surface of the subject as shape information. The shape information acquired by the shape information acquisition unit 204 is used for the image high-resolution processing in the image high-resolution unit 104.

画像高解像度化部104は、与えられた広角画像を拡散反射成分と鏡面反射成分とに分離し、分離した拡散反射成分と鏡面反射成分とを個別に高解像化する。以下、それぞれの処理について説明する。   The image resolution increasing unit 104 separates the given wide-angle image into a diffuse reflection component and a specular reflection component, and individually increases the resolution of the separated diffuse reflection component and specular reflection component. Hereinafter, each processing will be described.

拡散反射・鏡面反射分離部202は、与えられた広角画像を、拡散反射成分と鏡面反射成分とに分離する。   The diffuse reflection / specular reflection separation unit 202 separates the given wide-angle image into a diffuse reflection component and a specular reflection component.

まず、物体の反射特性について説明する。2色性反射モデルを仮定すると、物体の輝度は、拡散反射成分と鏡面反射成分との和として以下の式で表現される。
ここで、Iは撮像装置が撮像した被写体の輝度値、Iaは環境光成分、Idは拡散反射成分、Isは鏡面反射成分である。ここで、環境光成分とは、光源の光が物体などによって散乱された間接光のことである。これは空間の至る所に散乱され、直接光がとどかない影の部分にもわずかに明るさを与える。そのため、通常はノイズとして取り扱われることが多い。
First, the reflection characteristics of an object will be described. Assuming a dichroic reflection model, the brightness of an object is expressed by the following equation as the sum of a diffuse reflection component and a specular reflection component.
Here, I is the luminance value of the subject imaged by the imaging apparatus, Ia is the ambient light component, Id is the diffuse reflection component, and Is is the specular reflection component. Here, the ambient light component is indirect light in which light from a light source is scattered by an object or the like. It is scattered throughout the space and gives a slight brightness to shadows where direct light does not reach. For this reason, it is usually handled as noise.

環境光成分は十分に小さく、ノイズとして無視できると考えると、画像は拡散反射成分と鏡面反射成分とに分離できる。上述のように、拡散反射成分がテクスチャ情報に依存するのに対し、鏡面反射画像は細かな形状情報に依存するといったように、これらの成分は非常に異なった特質を示す。そのため、画像を高解像度化するために、入力画像を拡散反射画像と鏡面反射画像とに分離し、それぞれの画像を別々の方法で高解像度化することによって、非常に高精細な高解像度化画像を取得することができる。このため、まずは拡散反射画像と鏡面反射画像とを分離する必要性がある。   Considering that the ambient light component is sufficiently small and can be ignored as noise, the image can be separated into a diffuse reflection component and a specular reflection component. As described above, the diffuse reflection component depends on the texture information, whereas the specular reflection image depends on fine shape information, and these components exhibit very different characteristics. Therefore, in order to increase the resolution of the image, the input image is separated into a diffuse reflection image and a specular reflection image, and the resolution of each image is increased by different methods, so that a very high resolution high resolution image is obtained. Can be obtained. For this reason, it is necessary to first separate the diffuse reflection image and the specular reflection image.

この分離方法は、従来からさまざまなものが提案されている。例えば、
・鏡面反射と拡散反射の偏光度の違いを利用し、偏光フィルタを用いた方法(例えば、特許第3459981号公報)。
・対象物を回転させ、マルチスペクトルカメラを利用することで鏡面反射領域を分離する方法(例えば、特開2003−85531号公報)。
・様々な方向から光源を当てた対象物の画像を利用し、鏡面反射が生じない理想状態での画像である線形化画像を合成し、その線形化画像を利用して鏡面反射や影領域を分離する方法(例えば、「石井育規,福井孝太郎,向川康博,尺長健,“光学現象の分類に基づく画像の線形化“,情報処理学会論文誌,vol.44,no. SIG5 (CVIM6) ,pp.11-21,2003」)。
などがある。
Various separation methods have been conventionally proposed. For example,
A method using a polarizing filter utilizing the difference in the degree of polarization between specular reflection and diffuse reflection (for example, Japanese Patent No. 3459981).
A method of separating a specular reflection region by rotating an object and using a multispectral camera (for example, Japanese Patent Application Laid-Open No. 2003-85531).
・ Uses images of objects illuminated from various directions, synthesizes a linearized image that is an image in an ideal state where no specular reflection occurs, and uses the linearized image to create specular reflection and shadow areas. Separation methods (for example, "Ishii Ikunori, Fukui Kotaro, Mukakawa Yasuhiro, Takenaga Takeshi," Linearization of images based on optical phenomenon classification ", IPSJ Journal, vol.44, no. SIG5 (CVIM6 ), Pp.11-21, 2003 ").
and so on.

ここでは、偏光フィルタを利用する方法を用いる。図10は本実施形態に係る画像処理装置が搭載されたウェアラブルカメラ1000を示している。図10に示すように、撮像装置1001には回転機構(図示せず)をもった直線偏光フィルタ1009Aが設けられている。また、直線偏光フィルタ1009Bが取り付けられた照明装置1005が設けられている。   Here, a method using a polarizing filter is used. FIG. 10 shows a wearable camera 1000 equipped with the image processing apparatus according to this embodiment. As shown in FIG. 10, the imaging apparatus 1001 is provided with a linear polarization filter 1009A having a rotation mechanism (not shown). In addition, an illumination device 1005 to which the linear polarization filter 1009B is attached is provided.

ここで、直線偏光フィルタ1009Bが取り付けられた照明装置1005に照らされた被写体について、撮像装置1001が、直線偏光フィルタ1009Aを回転機構により回転させながら、複数枚の画像を撮像する。ここで、照明が直線偏光されていることに着目すると、反射光強度は偏光フィルタ1009Aの回転角ψに対して、図11のように変化する。ここで、反射光の拡散反射成分をId、鏡面反射成分をIsとすると、反射光輝度の最大値Imaxと最小値Iminは以下の式で表現される。
つまり、反射光の拡散反射成分Id、鏡面反射成分Isは、以下の式から求まる。
Here, regarding the subject illuminated by the illumination device 1005 to which the linear polarization filter 1009B is attached, the imaging device 1001 captures a plurality of images while rotating the linear polarization filter 1009A by a rotation mechanism. Here, focusing on the fact that the illumination is linearly polarized, the reflected light intensity changes as shown in FIG. 11 with respect to the rotation angle ψ of the polarizing filter 1009A. Here, assuming that the diffuse reflection component of the reflected light is Id and the specular reflection component is Is, the maximum value Imax and the minimum value Imin of the reflected light luminance are expressed by the following equations.
That is, the diffuse reflection component Id and the specular reflection component Is of the reflected light can be obtained from the following equations.

図12はこの処理の流れを示したものである。まず、回転機構により偏光フィルタ1009Aを回転させ(ステップS301)、画像を撮像し、メモリに保持する(ステップS302)。次に、メモリに保持された画像が、所定の枚数撮像されているかを確認する(ステップS303)。このとき、反射光輝度の最小値と最大値を検出するのに十分な枚数がまだ撮像されていない場合(ステップS303でNo)、偏光フィルタを再度回転させ(ステップS301)、撮像を繰り返す。一方、十分な枚数の撮像ができている場合(ステップS303でYes)、撮像された画像データを利用して、反射光輝度の最小値と最大値を検出し(ステップS304)、(式8)と(式9)を利用することにより、拡散反射成分と鏡面反射成分とを分離する(ステップS305)。この処理は、複数枚の画像から各画素ごとに最小値と最大値を求めても構わないが、ここでは、sin関数のフィッテングを利用する。この処理を説明する。   FIG. 12 shows the flow of this processing. First, the polarizing filter 1009A is rotated by the rotation mechanism (step S301), an image is taken and held in the memory (step S302). Next, it is confirmed whether or not a predetermined number of images held in the memory have been captured (step S303). At this time, when a sufficient number of images for detecting the minimum value and the maximum value of the reflected light luminance has not been captured yet (No in step S303), the polarizing filter is rotated again (step S301), and the imaging is repeated. On the other hand, when a sufficient number of images have been captured (Yes in step S303), the minimum and maximum values of reflected light luminance are detected using the captured image data (step S304), (Equation 8) And (Equation 9) are used to separate the diffuse reflection component and the specular reflection component (step S305). In this process, a minimum value and a maximum value may be obtained for each pixel from a plurality of images, but here, fitting of a sin function is used. This process will be described.

図11に示した偏光フィルタ角ψに対する反射光輝度Iは、以下のように、sin関数で近似できる。
ここで、A、B、Cは定数であり、(式8)、(式9)より
つまり、撮像された画像から、(式10)のA,B,Cを求めることにより、拡散反射成分と鏡面反射成分とを分離することができる。
The reflected light luminance I with respect to the polarization filter angle ψ shown in FIG. 11 can be approximated by a sin function as follows.
Here, A, B, and C are constants. From (Expression 8) and (Expression 9)
That is, the diffuse reflection component and the specular reflection component can be separated by obtaining A, B, and C of (Expression 10) from the captured image.

ところで、(式10)は以下のように展開できる。
ただし、
つまり、以下の評価式を最小にするA,B,Cを求めることで、拡散反射成分と鏡面反射成分とを分離することができる。
ただし、Iiは、偏光フィルタ角ψi時の反射光強度を示している。ここで、最小自乗法を用いると、各パラメータは以下のように推定される。
以上より、(式11)〜(式19)を利用することで、拡散反射成分と鏡面反射成分とを分離する。この場合、未知パラメータが3個であるため、偏光フィルタの回転角を変更した画像を最低3枚撮像すればよい。
By the way, (Equation 10) can be developed as follows.
However,
That is, the diffuse reflection component and the specular reflection component can be separated by obtaining A, B, and C that minimize the following evaluation formula.
Here, Ii indicates the reflected light intensity at the polarizing filter angle ψi. Here, when the least square method is used, each parameter is estimated as follows.
As described above, the diffuse reflection component and the specular reflection component are separated by using (Expression 11) to (Expression 19). In this case, since there are three unknown parameters, it is sufficient to capture at least three images in which the rotation angle of the polarization filter is changed.

このため、直線偏光フィルタ1009Aの回転機構を設ける代わりに、画素ごとに偏光方向の異なる撮像装置を利用しても構わない。図13はこのような撮像装置の画素を模式的に示したものである。ここで、1010は各画素を示し、各画素内の直線は偏光方向を示している。すなわち、この撮像装置は0°、45°、90°、135°の4種類の偏光方向を有する画素を持つ。そして、図13の太線1010のように、4種類の画素をベイヤ配列のように1画素として取り扱うことによって、偏光方向が4種類異なった画像を同時に撮像することができる。このような撮像装置は、例えば、フォトニック結晶デバイスなどを利用すればよい。   For this reason, instead of providing the rotation mechanism of the linear polarization filter 1009A, imaging devices having different polarization directions for each pixel may be used. FIG. 13 schematically shows a pixel of such an imaging apparatus. Here, 1010 indicates each pixel, and a straight line in each pixel indicates the polarization direction. That is, this imaging apparatus has pixels having four types of polarization directions of 0 °, 45 °, 90 °, and 135 °. Then, by treating four types of pixels as one pixel like a Bayer array as indicated by a thick line 1010 in FIG. 13, images with four different polarization directions can be simultaneously captured. Such an imaging apparatus may use, for example, a photonic crystal device.

また、照明装置1005として、偏光された照明例えば液晶ディスプレイを利用してもかまわない。例えば、ウェアラブルカメラにインターフェイス用として搭載されている液晶ディスプレイを利用すればよい。   Further, as the illumination device 1005, polarized illumination such as a liquid crystal display may be used. For example, a liquid crystal display mounted on the wearable camera as an interface may be used.

もちろん、撮像装置1001の偏光フィルタ1009Aを回転させる代わりに、照明装置1005の偏光フィルタ1009Bを回転させてもかまわない。また、撮像装置1001と照明装置1005の両方に偏光フィルタを設置する代わりに、撮像装置側など片側のみに設置し、独立成分分析を利用して拡散反射成分と鏡面反射成分とを分離させてもかまわない(例えば、特許3459981号公報参照)。   Of course, instead of rotating the polarizing filter 1009A of the imaging device 1001, the polarizing filter 1009B of the illumination device 1005 may be rotated. Further, instead of installing a polarizing filter on both the imaging device 1001 and the illumination device 1005, it may be installed only on one side such as the imaging device side, and the diffuse reflection component and the specular reflection component may be separated using independent component analysis. It does not matter (see, for example, Japanese Patent No. 3459981).

形状情報取得部204は、被写体の形状情報である表面の法線情報または、被写体の3次元位置情報を取得する。被写体の形状情報を取得する手段としては、例えば、スリット光投影法、パターン光投影法、レーザレーダ法などの既存の手法を用いればよい。   The shape information acquisition unit 204 acquires surface normal information that is shape information of the subject or three-dimensional position information of the subject. As means for acquiring the shape information of the subject, for example, an existing method such as a slit light projection method, a pattern light projection method, or a laser radar method may be used.

もちろん、形状情報の取得はこれらの手法に限られるものでない。例えば、複数のカメラを利用するステレオ視、カメラの動きを利用するモーションステレオ法、光源の位置を変化させながら撮像した画像を利用する照度差ステレオ法、ミリ波や超音波を利用して被写体との距離を測定する方法、さらには反射光の偏光特性を利用した方法(例えば、米国特許第5,028,138号公報や「宮崎大輔,池内克史,"偏光レイトレーシング法による透明物体の表面形状の推定手法", 電子情報通信学会論文誌D-II,vol. J88-D-II,No.8,pp. 1432-1439,2005」)を用いてもかまわない。ここでは、照度差ステレオ法について説明する。   Of course, acquisition of shape information is not limited to these methods. For example, stereo vision using multiple cameras, motion stereo method using camera movement, illuminance difference stereo method using images taken while changing the position of the light source, and using subjects such as millimeter waves and ultrasound A method for measuring the distance of a transparent object, and a method using the polarization characteristics of reflected light (for example, US Pat. No. 5,028,138 and “Daisuke Miyazaki, Katsushi Ikeuchi,” Surface shape of transparent object by polarization ray tracing method) The estimation method of "The Institute of Electronics, Information and Communication Engineers Journal D-II, vol. J88-D-II, No. 8, pp. 1432-1439, 2005") may be used. Here, the illuminance difference stereo method will be described.

照度差ステレオ法は、光源方向が異なる3枚以上の画像を利用して、被写体の法線方向と反射率を推定する手法である。例えば、「H. Hayakawa, ”Photometric Stereo under a light source with arbitrary motion”, Journal of the Optical Society of America A, vol.11, pp.3079-89, 1994」は、画像上で6点以上の反射率が等しい点を既知情報として取得し、拘束条件として利用することによって、光源の位置情報も未知としながらも、以下のパラメータを推定する手法である。
・被写体情報:画像上の各点の法線方向と反射率
・光源情報:被写体の観察点における光源方向と照度
The illuminance difference stereo method is a method for estimating the normal direction and reflectance of a subject using three or more images having different light source directions. For example, “H. Hayakawa,“ Photometric Stereo under a light source with arbitrary motion ”, Journal of the Optical Society of America A, vol.11, pp.3079-89, 1994” reflects more than 6 reflections on the image. By acquiring points with the same rate as known information and using them as constraint conditions, the following parameters are estimated while the position information of the light source is unknown.
-Subject information: Normal direction and reflectance of each point on the image-Light source information: Light source direction and illuminance at the observation point of the subject

ここでは、前述の拡散反射・鏡面反射分離手法によって分離された拡散反射画像のみを利用した照度差ステレオ法を行う。本来、この手法は被写体が完全拡散反射をしていることを仮定しているため、鏡面反射が存在する被写体では大きな誤差が生じてしまう。しかし、分離した拡散反射画像のみを利用することで、鏡面反射の存在による推定誤差を無くすことができる。もちろん、後述するように、影除去部205で影領域を除去した拡散反射画像で処理を行ってもかまわない。   Here, the illuminance difference stereo method using only the diffuse reflection image separated by the diffuse reflection / specular reflection separation method described above is performed. Originally, since this method assumes that the subject is completely diffusely reflected, a large error occurs in a subject where specular reflection exists. However, the estimation error due to the presence of specular reflection can be eliminated by using only the separated diffuse reflection image. Of course, as will be described later, the process may be performed with a diffuse reflection image from which the shadow area has been removed by the shadow removal unit 205.

光源方向が異なる拡散反射画像を以下のように輝度行列Idで表現する。
ただし、idf(p)は光源方向fの拡散反射画像の画素pにおける輝度値を示している。また、画像の画素数はP画素、異なった光源方向で撮像した画像枚数はF枚である。ところで、ランバーシャンモデルより、拡散反射画像の輝度値は以下のように表現できる。
ただし、ρpは画素pの反射率(アルベド)、npは画素pの法線方向ベクトル、tfは光源fの入射照度、Lfは光源fの方向ベクトルを示している。
(式20)、(式21)より以下の式が導かれる。
ただし、
ここで、Rは表面反射行列、Nは表面法線行列、Lは光源方向行列、Tは光源強度行列、Sは表面行列、Mは光源行列と呼ぶ。
Diffuse reflection images with different light source directions are represented by a luminance matrix Id as follows.
Here, iff (p) indicates the luminance value at the pixel p of the diffuse reflection image in the light source direction f. Further, the number of pixels of the image is P pixels, and the number of images taken in different light source directions is F. By the way, from the Lambertian model, the luminance value of the diffuse reflection image can be expressed as follows.
Where ρp is the reflectance (albedo) of the pixel p, np is the normal vector of the pixel p, tf is the incident illuminance of the light source f, and Lf is the direction vector of the light source f.
The following expressions are derived from (Expression 20) and (Expression 21).
However,
Here, R is a surface reflection matrix, N is a surface normal matrix, L is a light source direction matrix, T is a light source intensity matrix, S is a surface matrix, and M is a light source matrix.

ここで、特異値分解を利用すると、(式22)は以下のように展開できる。
ただし、
であり、Eは単位行列を示している。また、U’はP×3行列、U”はP×(F−3)行列、Σ’は3×3行列、Σ”は(F−3)×(F−3)行列、V’は3×F行列、V”は(F−3)×F行列である。ここで、U”、V”は信号成分であるU’、V’の直交基底、すなわち、ノイズ成分であると考えられる。ここで、特異値分解を利用すると、(式24)は以下のように変形できる。
Here, using singular value decomposition, (Equation 22) can be expanded as follows.
However,
And E represents a unit matrix. U ′ is a P × 3 matrix, U ″ is a P × (F-3) matrix, Σ ′ is a 3 × 3 matrix, Σ ″ is an (F-3) × (F-3) matrix, and V ′ is 3. The × F matrix, V ″ is an (F-3) × F matrix. Here, U ″, V ″ are considered to be orthogonal bases of signal components U ′ and V ′, that is, noise components. Here, using singular value decomposition, (Equation 24) can be modified as follows.

すなわち、(式25)を解くことにより、形状情報と光源情報を同時に取得することができるが、以下の3×3行列Aの不定性が残る。
ここで、Aは任意の3×3行列である。形状情報と光源情報を取得するためには、この行列Aを求める必要がある。これは、例えば、画面上の6点以上で反射率が等しいことが既知であればよい。例えば、任意の6点k1〜k6の反射率が等しいとすると、
(式23)、(式26)と(式28)より、
さらに、
とおくと、(式29)は以下のようになる。
ここで、(式30)より行列Bは対称行列であるため、行列Bの未知数は6である。すなわち、画面上の6点以上で反射率が等しいことが既知であれば、(式31)は解くことができる。
That is, by solving (Equation 25), shape information and light source information can be obtained simultaneously, but the following 3 × 3 matrix A indefiniteness remains.
Here, A is an arbitrary 3 × 3 matrix. In order to acquire shape information and light source information, it is necessary to obtain this matrix A. For example, it is sufficient that the reflectance is known to be equal at six or more points on the screen. For example, if the reflectance of any 6 points k1 to k6 is equal,
From (Expression 23), (Expression 26) and (Expression 28),
further,
Then, (Equation 29) is as follows.
Here, since the matrix B is a symmetric matrix according to (Equation 30), the unknown number of the matrix B is 6. That is, if it is known that the reflectance is equal at six or more points on the screen, (Equation 31) can be solved.

また、行列Bが既知となれば、(式30)に特異値分解を利用することにより、行列Aは解くことができる。   If the matrix B is known, the matrix A can be solved by using singular value decomposition in (Equation 30).

さらに、(式26)、(式27)より、形状情報と光源情報を取得する。   Furthermore, shape information and light source information are acquired from (Expression 26) and (Expression 27).

以上のことより、反射率が等しい6点以上の画素が既知な被写体において、光源方向を変更しながら3枚以上の画像を撮像することにより、以下の情報を得ることができる。
・被写体情報:画像上の各点の法線方向ベクトルと反射率
・光源情報:被写体の観察点における光源方向ベクトルと放射輝度
As described above, the following information can be obtained by capturing three or more images while changing the light source direction in a subject in which six or more pixels having the same reflectance are known.
Subject information: Normal direction vector and reflectance of each point on the imageLight source information: Light source direction vector and radiance at the observation point of the subject

ただし、上記の処理で求まる被写体の反射率と光源の放射輝度は相対的なものであり、絶対値を求めるためには、画面上の6点以上で反射率が既知であるなど、上記とは異なる既知情報が必要となる。   However, the reflectance of the subject obtained by the above processing and the radiance of the light source are relative, and in order to obtain the absolute value, the reflectance is known at six or more points on the screen. Different known information is required.

また、光源と撮像装置の位置関係が既知の場合、撮像装置と被写体の距離や3次元位置を求めるようにしてもかまわない。これを図を用いて説明する。   If the positional relationship between the light source and the imaging device is known, the distance between the imaging device and the subject or the three-dimensional position may be obtained. This will be described with reference to the drawings.

図14はこの処理を説明するための模式図である。図14において、1001は撮像装置、1005Aおよび1005Bは光源、1012は被写体の観察点O、1002Aおよび1002Bは被写体の観察点Oにおける各光源の光源方向、1013は被写体の観察点Oにおける撮像措置の視線方向を示している。   FIG. 14 is a schematic diagram for explaining this process. In FIG. 14, 1001 is an imaging device, 1005A and 1005B are light sources, 1012 is a subject observation point O, 1002A and 1002B are light source directions of each light source at the subject observation point O, and 1013 is an imaging measure at the subject observation point O. The line-of-sight direction is shown.

まず、光源と撮像装置との位置関係が既知であるため、撮像装置1001と光源1005A、1005Bの3次元位置関係La、Lbは既知である。また、撮像装置1001はキャリブレーションされているとすると、撮像装置1001の視線方向1013も既知である。このことから、被写体の観察点O1012はこの視線方向1013上に存在する。また、上述の照度差ステレオ法により、被写体の観察点Oにおける各光源の光源方向1002A、1002Bは既知である。撮像装置1001と観察点O1012の距離Lvが正(Lv>0)であるとすると、このような位置関係を満たす観察点Oは、1点しか存在しない。そのため、観察点O1012の位置がわかり、撮像装置1001と観察点O1012との距離Lvが求まる。   First, since the positional relationship between the light source and the imaging device is known, the three-dimensional positional relationships La and Lb between the imaging device 1001 and the light sources 1005A and 1005B are known. If the imaging apparatus 1001 is calibrated, the line-of-sight direction 1013 of the imaging apparatus 1001 is also known. Therefore, the observation point O1012 of the subject exists on the line-of-sight direction 1013. Further, the light source directions 1002A and 1002B of the respective light sources at the observation point O of the subject are known by the above-described illuminance difference stereo method. If the distance Lv between the imaging device 1001 and the observation point O1012 is positive (Lv> 0), there is only one observation point O that satisfies such a positional relationship. Therefore, the position of the observation point O1012 is known, and the distance Lv between the imaging device 1001 and the observation point O1012 is obtained.

また、例えばデジタルカメラのフラッシュのように撮像装置に光源が設置されている場合、光源と撮像装置との位置関係は設計情報から求めることができる。   For example, when a light source is installed in the imaging device like a flash of a digital camera, the positional relationship between the light source and the imaging device can be obtained from design information.

また、形状情報取得部204は反射光の偏光特性を利用して、被写体の表面法線方向を取得してもかまわない。この処理について、図15を用いて説明する。   In addition, the shape information acquisition unit 204 may acquire the surface normal direction of the subject using the polarization characteristics of the reflected light. This process will be described with reference to FIG.

図15において、1001は撮像装置、1005は光源、1012は観察点O、1009は回転機構(図示せず)をもった直線偏光フィルタ、1014は法線方向を示している。光源として自然光が照射されている状態において、回転機構によって偏光フィルタ1009を回転させながら撮像を行った場合、その反射光強度は、図16に示したように、周期πのsin関数となる。   In FIG. 15, reference numeral 1001 denotes an imaging device, 1005 denotes a light source, 1012 denotes an observation point O, 1009 denotes a linear polarization filter having a rotation mechanism (not shown), and 1014 denotes a normal direction. When imaging is performed while rotating the polarizing filter 1009 by a rotating mechanism in a state where natural light is irradiated as a light source, the reflected light intensity is a sin function with a period π as shown in FIG.

ここで、この反射光強度の最大値Imaxと最小値Iminを計測する偏光フィルタの角度ψmax、ψminを考える。撮像装置1001と光源1005、観察点O1012を含む平面を入射面とすると、ψmaxは偏光フィルタ1009の偏光方向が入射面に対して垂直な方向、また、ψminは偏光フィルタ1009の偏光方向が入射面に対して平行な方向になることが知られている。   Here, the angles ψmax and ψmin of the polarizing filter for measuring the maximum value Imax and the minimum value Imin of the reflected light intensity are considered. When a plane including the imaging device 1001, the light source 1005, and the observation point O1012 is an incident surface, ψmax is a direction in which the polarization direction of the polarization filter 1009 is perpendicular to the incidence surface, and ψmin is a direction in which the polarization direction of the polarization filter 1009 is incident. It is known that the direction is parallel to the direction.

また、上述したように、反射光成分において、偏光特性を有するものは観察点Oの表面で反射した鏡面反射成分、非偏光の成分は拡散反射成分である。このことから、反射光強度の最大値Imaxと最小値Iminの強度差が生じる観察点Oは鏡面反射成分が強い観察点、すなわち、光が正反射している(観察点Oの法線方向1014が観察点Oからの光源方向と観察点Oからの撮像装置方向の二等分線方向である)ことがわかる。そのため、法線方向1014も入射面内に存在する。そのため、ψmaxまたはψminを推定することにより、法線方向1014は以下の平面内に存在すると推定することができる。
○撮像装置1001を通り、偏光フィルタ1009の偏光方向ψmin(またはψmaxの垂直方向)を含む平面
As described above, the reflected light component having the polarization characteristic is the specular reflection component reflected from the surface of the observation point O, and the non-polarized component is the diffuse reflection component. From this, the observation point O where the intensity difference between the maximum value Imax and the minimum value Imin of the reflected light intensity occurs is an observation point having a strong specular reflection component, that is, light is specularly reflected (normal direction 1014 of the observation point O). Are the bisector directions of the light source direction from the observation point O and the imaging device direction from the observation point O). Therefore, the normal direction 1014 also exists in the incident surface. Therefore, by estimating ψmax or ψmin, it can be estimated that the normal direction 1014 exists in the following plane.
A plane that passes through the imaging device 1001 and includes the polarization direction ψmin (or the vertical direction of ψmax) of the polarizing filter 1009

ここで、ψmaxまたはψminは、上述のsin関数のフィッテング処理を行うことで推定する。   Here, ψmax or ψmin is estimated by performing the above-described sin function fitting process.

また、撮像装置1001の位置を変更させて、同様な処理を行うことによって、法線方向1014を含む、異なった2つの平面を推定することができる。推定した2つの平面の交線を求めることによって、法線方向1014を推定する。この際、撮像装置1001の移動量を推定する必要があるが、これは、前述の8点法などを利用すればよい。   Further, two different planes including the normal direction 1014 can be estimated by changing the position of the imaging device 1001 and performing similar processing. The normal direction 1014 is estimated by obtaining the intersection line between the two estimated planes. At this time, it is necessary to estimate the movement amount of the imaging apparatus 1001. This may be performed by using the above-described 8-point method or the like.

もちろん、拡散反射・鏡面反射分離部202と同様に、画素ごとに偏光方向の異なる撮像装置を利用しても構わない。   Of course, similarly to the diffuse reflection / specular reflection separation unit 202, an imaging device having a different polarization direction for each pixel may be used.

また、もちろん、撮像装置1001の位置を変更させるのではなく、複数台の撮像装置を設置して法線方向1014を求めるようにしても構わない。   Of course, instead of changing the position of the imaging device 1001, a plurality of imaging devices may be installed to obtain the normal direction 1014.

以上のように、照度差ステレオ法や偏光特性を利用した方法では、表面の法線情報を取得する。一方、スリット光投影法やステレオ視などの手法では、被写体の3次元位置情報を取得する。被写体表面の法線情報とは、被写体の3次元位置情報の微小空間での傾き情報であり、どちらも被写体の形状情報である。   As described above, the normal information of the surface is acquired by the illuminance difference stereo method and the method using the polarization characteristic. On the other hand, in a method such as slit light projection or stereo vision, three-dimensional position information of the subject is acquired. The normal information on the surface of the subject is tilt information in a minute space of the three-dimensional position information of the subject, and both are shape information of the subject.

以上の処理により、形状情報取得部204は被写体の形状情報である表面の法線情報または、被写体の3次元位置情報を取得する。   Through the above processing, the shape information acquisition unit 204 acquires surface normal information or object three-dimensional position information, which is object shape information.

以上の処理により、以下の情報を取得する。
○被写体の拡散反射画像
○被写体の鏡面反射画像
○被写体の3次元形状情報
○光源位置・照度
The following information is acquired by the above processing.
○ Diffuse reflection image of subject ○ Specular reflection image of subject ○ Three-dimensional shape information of subject ○ Light source position / illuminance

影除去部205は、画像中の影領域を推定し、影除去処理を行う。このような、影除去および影領域推定処理はさまざまな方法が提案されているが、例えば、影領域は輝度値が低いことを利用し、輝度値が閾値以下の画素を影領域と推定すればよい。   The shadow removal unit 205 estimates a shadow area in the image and performs a shadow removal process. Various methods have been proposed for such shadow removal and shadow area estimation processing. For example, if a shadow area has a low luminance value, and a pixel whose luminance value is equal to or less than a threshold value is estimated as a shadow area, Good.

また、形状情報取得部204によって3次元形状情報が取得されている場合、Computer−Graphicsの分野で広く利用されているレンダリング手法である、レイトレーシングを利用してもかまわない。レンダリングは物体の座標データや光源や視点の位置などの環境に関するデータを計算して行うが、レイトレーシングは、視点に届く光線を逆にたどることによって描画する。そのため、レイトレーシングを利用してどの場所にどの程度の影が生成されているかを計算することができる。   Further, when the 3D shape information is acquired by the shape information acquisition unit 204, ray tracing, which is a rendering method widely used in the field of Computer-Graphics, may be used. Rendering is performed by calculating environment coordinate data such as object coordinate data, light source, and viewpoint position, while ray tracing is performed by tracing the rays that reach the viewpoint in reverse. Therefore, it is possible to calculate how much shadow is generated at which place by using ray tracing.

次に、拡散反射・鏡面反射分離部202によって分離された拡散反射画像と鏡面反射画像を、それぞれ、別々の方法で高解像度化する。まず、拡散反射画像の処理について説明する。   Next, the diffuse reflection image and the specular reflection image separated by the diffuse reflection / specular reflection separation unit 202 are each increased in resolution by different methods. First, processing of the diffuse reflection image will be described.

アルベド推定部206は、拡散反射・鏡面反射分離部202によって分離された拡散反射画像を利用し、被写体のアルベドを推定する。アルベドは光源情報に影響を受けないため、アルベド画像を利用して処理を行うことによって、光源変動にロバストな処理が実現できる。   The albedo estimation unit 206 estimates the albedo of the subject using the diffuse reflection image separated by the diffuse reflection / specular reflection separation unit 202. Since albedo is not affected by light source information, processing that is robust to light source fluctuations can be realized by performing processing using an albedo image.

この処理を説明する。(式21)より、拡散反射成分では、以下の関係が成り立つ。
ただし、θiは被写体の法線方向ベクトルと光源方向ベクトルのなす角を示す。ここで、光源情報取得部103および形状情報取得部204により、角度θiは既知である。また、後述するように、光源の入射照度tfも推定可能なため、被写体のアルベドrpを(式32)から求める。
This process will be described. From (Equation 21), the following relationship holds for the diffuse reflection component.
Here, θi represents an angle formed by the normal direction vector of the subject and the light source direction vector. Here, the angle θi is known by the light source information acquisition unit 103 and the shape information acquisition unit 204. As will be described later, since the incident illuminance tf of the light source can also be estimated, the albedo rp of the subject is obtained from (Equation 32).

この際、cosθiが0以下の値を持つ場合、すなわち、attached shadowである場合、(式32)はアルベドがマイナスになる、あるいは、0で除算を行うことになり、意味を持たない。しかし、上述の影除去部205によってこのような画素を除去しているため、問題は生じない。   At this time, when cos θi has a value of 0 or less, that is, when it is an attached shadow, (Equation 32) has no meaning because the albedo becomes negative or division by 0. However, since such a pixel is removed by the shadow removal unit 205 described above, no problem occurs.

もちろん、被写体のアルベドを求めるのではなく、次式によりアルベドに光源の放射輝度を乗算した擬似アルベドを求め、これを利用しても構わない。
Of course, instead of obtaining the albedo of the subject, a pseudo albedo obtained by multiplying the albedo by the radiance of the light source may be obtained and used according to the following equation.

次に、こうして求めたアルベド画像の高解像度化について説明する。   Next, a description will be given of increasing the resolution of the albedo image thus obtained.

アルベド高解像度化部207は、アルベド推定部206が推定したアルベド画像を高解像度化する。この処理について詳述する。   The albedo resolution increasing unit 207 increases the resolution of the albedo image estimated by the albedo estimation unit 206. This process will be described in detail.

前述のように、アルベド画像は、光の鏡面反射や陰影など光学現象によらない被写体固有の反射率特性を表現した画像である。本実施形態における高解像度化は、被写体情報が不可欠なため、被写体の事前学習に基づく。ここではテキストン(画像のテクスチャ特徴量)に基づく高解像度化を用いる。   As described above, an albedo image is an image that expresses a reflectance characteristic unique to a subject that does not depend on an optical phenomenon such as specular reflection or shading of light. The high resolution in the present embodiment is based on subject prior learning because subject information is essential. Here, high resolution based on texton (texture feature amount of an image) is used.

図17はテキストンに基づく高解像度化の概念を示す図である。実行時に入力された低解像度画像LR(画素数N×N)は、画素数を目標画素数に合致させるため、M×M倍に補間拡大される。この画素数MN×MN画像をexLR画像と称する。exLR画像では画像の高周波成分が失われて、ぼけた画像になる。このぼけ画像を先鋭化することが高解像度化に他ならない。   FIG. 17 is a diagram showing the concept of high resolution based on textons. The low-resolution image LR (number of pixels N × N) input at the time of execution is interpolated and enlarged to M × M times so that the number of pixels matches the target number of pixels. This pixel number MN × MN image is referred to as an exLR image. In the exLR image, the high frequency component of the image is lost and the image becomes blurred. Sharpening this blurred image is nothing but high resolution.

次に、多重解像度変換WTによって、exLR画像の輝度値を画素ごとに、多重解像度に基づくT次元テキストンに変換する。この変換にはウェーブレット変換やピラミッド構造分解などの処理が用いられる。この結果、exLR画像の各画素ごとに、合計MN×MN本のT次元テキストンベクトルが生成される。次に、汎用性の向上のため、テキストンベクトルにクラスタリングが実施されて、L本の入力代表テキストンベクトルが選択生成される。これらL本のテキストンベクトルに対して、予め学習したデータベースの情報から変換が施されて、T次元の高解像度化テキストンベクトルが生成される。この変換には、テーブル読み出しや、T次元の多次元特徴ベクトル空間内における線形および非線形変換が用いられる。高解像度化テキストンベクトルは、逆ウェーブレット変換やピラミッド構造再構成などの逆変換IWTによって、画像輝度値に戻されて、高解像度画像HRが完成する。   Next, the luminance value of the exLR image is converted for each pixel into a T-dimensional texton based on the multi-resolution by multi-resolution conversion WT. Processing such as wavelet transformation or pyramid structure decomposition is used for this transformation. As a result, a total of MN × MN T-dimensional texton vectors are generated for each pixel of the exLR image. Next, in order to improve versatility, clustering is performed on the texton vectors, and L input representative texton vectors are selected and generated. These L texton vectors are converted from previously learned database information to generate T-dimensional high-resolution texton vectors. For this conversion, table reading and linear and nonlinear conversion in a T-dimensional multidimensional feature vector space are used. The high-resolution texton vector is returned to the image luminance value by inverse transform IWT such as inverse wavelet transform or pyramid structure reconstruction, and the high-resolution image HR is completed.

この処理では、MN×MN本のT次元テキストンベクトルのクラスタリング処理における探索とテーブル読み出しの処理に多大な時間を要し、動画など高速化対応が困難であった。そこで、1)クラスタリング処理をLR画像にて実施する。2)テーブル読み出しを線形マトリクス変換に変更する。という改良を加えた。この処理では、LR画像の1画素はHR画像のM×M画素のセルに対応する事実を使って、T次元からT次元への線形マトリクス変換をセル毎に実施して、セル内部での空間的な連続性を維持することができる。また利用する線形マトリクスはクラスタリングの結果から最適に選択する。セル境界の不連続性が問題になる場合にはマトリクス処理単位のブロックを一部重ねるなどの処理を追加してもよい。   In this process, a great deal of time is required for the search and the table read process in the clustering process of MN × MN T-dimensional texton vectors, and it is difficult to cope with high speed such as moving images. Therefore, 1) clustering processing is performed on the LR image. 2) Change table reading to linear matrix conversion. Added the improvement. In this processing, the fact that one pixel of the LR image corresponds to a cell of M × M pixels of the HR image is used to perform a linear matrix conversion from T dimension to T dimension for each cell, and the space inside the cell Continuity can be maintained. The linear matrix to be used is optimally selected from the result of clustering. When cell boundary discontinuity becomes a problem, processing such as partially overlapping blocks of matrix processing units may be added.

図18は上の改良点を模式的に描いた図である。LR画像をWT変換して、T次元の特徴量空間の中のL(ここではL=3)本の代表特徴ベクトルとしている。そして、各特徴ベクトルに異なる線形マトリクスが付随している。この状態を保存したものが高解像度化データベースに他ならない。   FIG. 18 is a diagram schematically showing the improved points. The LR image is subjected to WT transformation to obtain L (here, L = 3) representative feature vectors in the T-dimensional feature amount space. Each feature vector is accompanied by a different linear matrix. What saved this state is nothing but a high resolution database.

以下、N=32、M=4、すなわち32×32画素の低解像画像に4×4倍の高解像度化を施す例をとって、画像処理手法の詳細を述べる。アルベド画像は(RGB)カラー画像とするが、カラー画像は(RGB)から輝度色差(YCrCB)に変換して独立した色成分画像として取り扱うものとする。通常、2×2倍率程度では、輝度Y成分だけの高解像度でカラー成分は低解像度の色差信号のまま付加しても違和感はないが、4×4以上では、色信号も高解像度化が必須になるので各成分とも同様な取り扱いとする。以下、カラー画像の1つの成分画像のみの処理を説明することとする。   The details of the image processing method will be described below using an example in which N = 32, M = 4, that is, a resolution of 4 × 4 times is applied to a 32 × 32 pixel low resolution image. The albedo image is an (RGB) color image, but the color image is converted from (RGB) to luminance color difference (YCrCB) and handled as an independent color component image. Normally, at about 2x2 magnification, there is no sense of incongruity even if the color component is added as it is with a low-resolution color component with a luminance Y component only, but at 4x4 or higher, it is essential to increase the resolution of the color signal. Therefore, each component is handled in the same manner. Hereinafter, processing of only one component image of a color image will be described.

(学習時)
図19は学習処理の流れを説明するPAD図であり、図20は学習処理において処理される画像の処理対象画素と処理対象セルとの関係を説明する図である。以下、図19および図20を交互に用いて説明を行う。
(During learning)
FIG. 19 is a PAD diagram illustrating the flow of the learning process, and FIG. 20 is a diagram illustrating the relationship between the processing target pixel and the processing target cell of the image processed in the learning process. Hereinafter, description will be made using FIGS. 19 and 20 alternately.

まず、S311〜S313において、低解像度画像LR画像、高解像度画像HR画像、および低解像度画像の拡大画像exLR画像を入力する。これら画像は、HRから全て生成されており、撮像における画素ずれがない状態としておく。また、LR画像からexLR画像の生成にはバイキュービック補間を用いている。図20において、高解像度画像HR(画素数128×128)と、低解像度LR画像(画素数32×32)と、LRを画素数だけHRと合致させたexLR画像(画素数128×128)の3種類の画像を用意する。   First, in S311 to S313, a low resolution image LR image, a high resolution image HR image, and an enlarged image exLR image of a low resolution image are input. These images are all generated from HR, and are set to have no pixel shift in imaging. Bicubic interpolation is used to generate an exLR image from an LR image. In FIG. 20, a high-resolution image HR (number of pixels 128 × 128), a low-resolution LR image (number of pixels 32 × 32), and an exLR image (number of pixels 128 × 128) in which LR is matched with HR by the number of pixels. Three types of images are prepared.

S314において、LR画像をテキストン化する。具体的には、Haar基底を用いた2次元離散定常ウェーブレット変換(Discrete stationary wavelet transform:SWT変換)を行う。SWT変換の階層は2階層(2-step)とすると、6次元のLRW画像(画素数32×32=1024)が生成される。本来、2階層ステップの2次元離散定常ウェーブレット変換では7次元の特徴ベクトルとなるが、最低周波数のLL成分画像は画像の平均輝度情報に近くなり、これを保存するため残りの6成分のみを利用する。   In S314, the LR image is converted into text. Specifically, a two-dimensional discrete stationary wavelet transform (SWT transformation) using a Haar basis is performed. Assuming that the SWT conversion has two layers (2-step), a six-dimensional LRW image (number of pixels 32 × 32 = 1024) is generated. Originally, a two-dimensional stepwise two-dimensional discrete stationary wavelet transform results in a seven-dimensional feature vector, but the LL component image of the lowest frequency is close to the average luminance information of the image, and only the remaining six components are used to store this. To do.

S315において、テキストン化されたLRW画像の合計1024本の6次元ベクトルをCmax個にまでクラスタリングする。ここではK-means法を用いて、例えばCmax=512本にクラスタリングする。この512本の結果のテキストンベクトルの集合をクラスタCと称する。クラスタリングをせず1024本のテキストンを全て利用しても問題ない。   In S315, a total of 1024 6-dimensional vectors of the textonized LRW images are clustered up to Cmax. Here, for example, clustering is performed to Cmax = 512 using the K-means method. A set of 512 resulting texton vectors is referred to as cluster C. There is no problem if all 1024 textons are used without clustering.

S316において、クラスタCの同一クラスタに判別されたLR画素を判定する。具体的には、LR画像の画素値がクラスタCの各テキストン番号に置き換えられる。   In S316, the LR pixel determined as the same cluster of the cluster C is determined. Specifically, the pixel value of the LR image is replaced with each texton number of cluster C.

S317において、クラスタCの全テキストンに対して繰り返し処理をしながら、該当テキストンに対応するexLRの画素セルとHR画像の画素セルを探索して、該当セル番号を格納する。この探索がLR画像の画素数分だけで済むため、高倍率の場合に大きな探索時間の削減となる。   In step S317, while repeating the processing for all the textons in cluster C, the pixel cells of exLR and the pixel cells of the HR image corresponding to the texton are searched, and the corresponding cell numbers are stored. Since this search only needs to be performed for the number of pixels of the LR image, the search time is greatly reduced when the magnification is high.

ここでLR画像の画素とexLR画像、HR画像の画素セルとの対応につき、図20で説明する。図20では、LR画像上で、2001と2002という2画素がCの同一クラスタ(クラスタ番号:Ci=0)に判別されたとする。すると、そのままの位置関係を保って拡大されたexLR画像上では2003,2004、HR画像上では2005、2006という画素セルが対応していると考えられ、これらの2箇所のセル位置の番号が、該当するテキストンを有するものとして格納される。画素セル内に含まれる画素数は拡大率4×4=16に等しい。   Here, correspondence between the pixels of the LR image and the pixel cells of the exLR image and the HR image will be described with reference to FIG. In FIG. 20, it is assumed that two pixels 2001 and 2002 are determined to be the same cluster of C (cluster number: Ci = 0) on the LR image. Then, it is considered that pixel cells such as 2003 and 2004 on the exLR image enlarged while maintaining the positional relationship as it is, and 2005 and 2006 on the HR image correspond to each other. Stored as having the corresponding texton. The number of pixels contained in the pixel cell is equal to the enlargement ratio 4 × 4 = 16.

次にS318において、これらの画素セル群についてexLR画像とHR画像の対でテキストン化を行う。具体的には、2次元離散定常ウェーブレット変換(Discrete stationary wavelet transform)が実施されて、exLRW画像とHRW画像が生成される。   Next, in step S318, the pixel cell group is converted into a texton with a pair of exLR image and HR image. Specifically, a two-dimensional discrete stationary wavelet transform is performed to generate an exLRW image and an HRW image.

S319とS320において、上記HRW画像とexLRW画像から得られたテキストンの対が行列の形として集積される。形式はいずれも、6×Data_numの行列となる。ここでData_numは、(1セルの画素数)×(探索されたセルの数)となり、上のCi=0の例では、2個のセルが探索されたので16×2=32となる。   In S319 and S320, texton pairs obtained from the HRW image and the exLRW image are accumulated in the form of a matrix. Each format is a 6 × Data_num matrix. Here, Data_num is (number of pixels of one cell) × (number of searched cells), and in the above example of Ci = 0, two cells are searched and 16 × 2 = 32.

S321において、集積された両者に所属する合計2×4×4=128個の特徴ベクトルから最小二乗法にて6×6マトリクスMを算出し、それをS322において、クラスタ番号K=0とともにデータベースCMat(K)に格納蓄積する。S322における最小二乗法は、まずS319とS320において集積されたexLRとHRのテキストンの行列を各々LfとHf(サイズ:6×Data_num)とし、求めるマトリクスをM(6×6)とすると以下のように実行できる。
In S321, a 6 × 6 matrix M is calculated by the least square method from a total of 2 × 4 × 4 = 128 feature vectors belonging to both of them, and in S322, it is combined with the cluster number K = 0 and the database CMat. Store and store in (K). In the least square method in S322, first, the exLR and HR texton matrices accumulated in S319 and S320 are respectively Lf and Hf (size: 6 × Data_num), and the matrix to be obtained is M (6 × 6) as follows. Can be executed.

次に、クラスタ番号K=1について同様処理を繰り返して、K=511まで行う。すなわち、CMatはクラスタ番号ごとに規定される6×6変換行列の群である。   Next, the same processing is repeated for the cluster number K = 1 until K = 511. That is, CMat is a group of 6 × 6 transformation matrices defined for each cluster number.

最後に、S323とS324において、使用したクラスタCと学習された変換行列CMatとを出力する。こうして求めたクラスタCと学習された変換行列CMatを、アルベドDB208に蓄積する。   Finally, in S323 and S324, the used cluster C and the learned transformation matrix CMat are output. The cluster C thus obtained and the learned transformation matrix CMat are accumulated in the albedo DB 208.

図21は2次元離散定常ウェーブレット変換(Discrete stationary wavelet transform)の処理を示す図である。通常のウェーブレット変換では、フィルタバンク構成は同一のまま分解の階層が進む毎に画像が縮小していくが、2次元離散定常ウェーブレット変換では、分解の階層が進んでも変換画像サイズは不変であり、スケーリング関数Fとウェーブレット関数Gの2種類のフィルタがアップサンプリング(↑)されて2のべき乗で長くなっていくことにより多重解像度解析を行う。Haar基底では、FとGの具体的な数値とアップサンプリングの様子は表1のようになる。   FIG. 21 is a diagram showing processing of a two-dimensional discrete stationary wavelet transform. In the normal wavelet transform, the image is reduced each time the decomposition hierarchy proceeds with the same filter bank configuration, but in the two-dimensional discrete steady wavelet transform, the transformed image size does not change even if the decomposition hierarchy proceeds. The multi-resolution analysis is performed by upsampling (↑) the two types of filters of the scaling function F and the wavelet function G and increasing them by a power of 2. In the Haar basis, specific numerical values of F and G and the state of upsampling are as shown in Table 1.

LL成分であるcA画像を1階層進めてウェーブレット分解する場合、FとGのフィルタを交互に1次元的にコンボリューションすることにより、図21のように4種類の画像が生成される。1)行方向にF・列方向にF:cA画像(LL成分) 2)行方向にF・列方向にG:cDh画像(LH成分) 3)行方向にG・列方向にF:cDv画像(HL成分) 4)行方向にG・列方向にG:cDd画像(HH成分)。   When the cA image, which is an LL component, is advanced one layer and subjected to wavelet decomposition, four types of images are generated as shown in FIG. 21 by alternately convolving the F and G filters one-dimensionally. 1) F in the row direction and F: cA image in the column direction (LL component) 2) F in the row direction and G: cDh image in the column direction (LH component) 3) F: cDv image in the G direction in the row direction and the column direction (HL component) 4) G: cDd image (HH component) in the G direction in the row direction and in the column direction.

図22は2次元離散定常ウェーブレット変換をテスト画像に実施した場合の画像結果例である。テキストンベクトルとは、これらウェーブレットの1−STEPと2−STEPの変換画像の1画素ごとに対応する値を連ねたもので、
の7次元ベクトルのことである。ただし2−STEPのLL成分であるcA2を除いて、6次元ベクトル部分のみを使って高解像度変換し、cA2成分は保存している。
FIG. 22 is an example of an image result when the two-dimensional discrete stationary wavelet transform is performed on the test image. A texton vector is a series of values corresponding to each pixel of 1-STEP and 2-STEP converted images of these wavelets.
This is a 7-dimensional vector. However, except for cA2, which is a 2-step LL component, high-resolution conversion is performed using only the 6-dimensional vector portion, and the cA2 component is stored.

なお、ウェーブレット変換のステップ数をここではS314とS318のいずれも2−STEPとしている。このステップ数が大きくなるほど、画像の大まかな特徴までテキストンで表現することができる。本発明においてステップ数は可変であるが、LR画像のクラスタリングのためのS314の場合、1−STEPでは周辺の画素状況として十分な情報とならない場合があるため、2−STEPとしている。一方、exLR画像を高解像度化するためのテキストンを生成するS318の場合、たとえば8×8の倍率においては2−STEPよりも3−STEPの方が良好な画像が得られることが、実験的に確認されている。このため、倍率との関係でステップ数を決定することが望ましい。   Here, the number of steps of the wavelet transform is 2-STEP in both S314 and S318. As the number of steps increases, the rough features of the image can be expressed in texton. In the present invention, the number of steps is variable, but in the case of S314 for clustering LR images, 1-STEP may not be sufficient information as the surrounding pixel status, and is therefore 2-STEP. On the other hand, in the case of S318 for generating a texton for increasing the resolution of an exLR image, it is experimentally possible that an image of 3-STEP is better than 2-STEP at a magnification of 8 × 8, for example. Has been confirmed. For this reason, it is desirable to determine the number of steps in relation to the magnification.

(高解像度化処理の実行時)
図23は実行時の処理の流れを示すPAD図であり、図24は実行時の処理の画素セルとの関係を示す図である。
(When executing high-resolution processing)
FIG. 23 is a PAD diagram showing a flow of processing at the time of execution, and FIG. 24 is a diagram showing a relationship with pixel cells of processing at the time of execution.

まず、S331とS332において、LR画像とこれを拡大したexLR画像とを入力する。学習時と同様に、LR画像の画素数=32×32、exLR画像の画素数=128×128とする。ここでexLR画像の生成方法は、図19のS313において学習画像のexLR画像を生成した方法と同様にバイキュービック法による。   First, in S331 and S332, an LR image and an exLR image obtained by enlarging the LR image are input. As in the learning, the number of pixels of the LR image = 32 × 32 and the number of pixels of the exLR image = 128 × 128. Here, the exLR image generation method is based on the bicubic method, similar to the method of generating the exLR image of the learning image in S313 of FIG.

次に、S333とS334において、学習時に得られたクラスタCと変換行列CMatとアルベドDB208から読み出し、入力する。   Next, in S333 and S334, the cluster C obtained at the time of learning, the transformation matrix CMat, and the albedo DB 208 are read and input.

S335において、LR画像をテキストン化する。具体的には図24で示すように、Haar基底を用いた2次元離散定常ウェーブレット変換(Discrete stationary wavelet transform:SWT変換)を行う。SWT変換の階層は2階層(2-step)とすると、6次元のLRW画像(画素数32×32=1024)が生成される。本来は2階層ステップの2次元離散定常ウェーブレット変換では7次元の特徴ベクトルとなるが、最低周波数のLL成分画像は画像の平均輝度情報に近くなり、これを保存するため残りの6成分のみを利用する。   In S335, the LR image is converted into text. Specifically, as shown in FIG. 24, a two-dimensional discrete stationary wavelet transform (SWT transformation) using a Haar basis is performed. Assuming that the SWT conversion has two layers (2-step), a six-dimensional LRW image (number of pixels 32 × 32 = 1024) is generated. Originally, a two-dimensional stepwise two-dimensional discrete stationary wavelet transform results in a seven-dimensional feature vector, but the lowest frequency LL component image is close to the average luminance information of the image, and only the remaining six components are used to store this. To do.

次にS336において、各テキストンにつき、クラスタC(Cmax個のテキストン)内の最短距離のテキストンベクトルを探索してテキストン番号(Ci)を得る。これは図24において、LR画像の1ライン上の各画素2011,2012,…,2013について、各々C0,C1,…,Cnというテキストン番号が付与されることに相当する。   Next, in S336, for each texton, the texton vector of the shortest distance in the cluster C (Cmax textons) is searched to obtain the texton number (Ci). This corresponds to assigning texton numbers C0, C1,..., Cn to the pixels 2011, 2012,..., 2013 on one line of the LR image in FIG.

次にS337に進むが、これ以降はHR画像の各セルを走査線順に処理していく繰り返し処理となる。具体的には、図24において、exLR画像のセル2014,2015,…,2016を処理していくと、対応するHR画像のセル2023,2024,…,2025が順次高解像度化されていく。   Next, the process proceeds to S337, but after this, it becomes a repetitive process of processing each cell of the HR image in the scanning line order. Specifically, in FIG. 24, when the exLR image cells 2014, 2015,..., 2016 are processed, the corresponding HR image cells 2023, 2024,.

S337において、exLR画像の該当セル領域がテキストン化される。具体的には、2次元離散定常ウェーブレット変換(Discrete stationary wavelet transform)が実施されて、exLRW画像が生成される。セル2017,2018,…,2019などが生成される。   In S337, the corresponding cell region of the exLR image is converted into text. Specifically, a two-dimensional discrete stationary wavelet transform is performed to generate an exLRW image. Cells 2017, 2018,..., 2019 are generated.

S338において、テキストン番号から変換行列CMatを引いて該当セルにおける変換行列Mを確定する。この処理は図24のように行われる。LRW画像には、すでに画素2011=C0、画素2012=C1、…、画素2013=Cnとテキストン番号が振られている。これを位置関係を保存したexLRW画像のセル2017、2018、…2019に適用して、各々のセルで、C0,C1,・・Cnをテキストン番号としてMatから別々の6×6変換行列Mを選択することができる。   In S338, the conversion matrix CMat in the corresponding cell is determined by subtracting the conversion matrix CMat from the texton number. This process is performed as shown in FIG. The LRW image has already been assigned texton numbers such as pixel 2011 = C0, pixel 2012 = C1,..., Pixel 2013 = Cn. This is applied to cells 2017, 2018,..., 2019 of the exLRW image in which the positional relationship is stored, and in each cell, a separate 6 × 6 transformation matrix M is obtained from Mat with C0, C1,. You can choose.

S339において、各セルに変換行列Mを作用させる。これはセル内のテキストンLTi(i=1〜16)全部について、
を実施すればよい。これらを繰り返して、exLRW画像のセル2017,2018,…,2019からHRW画像のセル2020,2021,…,2022が、それぞれ生成される。
In S339, the transformation matrix M is applied to each cell. This is for all textons LTi (i = 1-16) in the cell,
Should be implemented. By repeating these steps, cells 2020, 2021,..., 2022 of HRW images are generated from cells 2017, 2018,.

次に、これら高解像度化されたセル内の6次元テキストンに、exLRW画像の2−STEPのLL成分を付加して7次元テキストンを生成する。   Next, the 2-step LL component of the exLRW image is added to the 6-dimensional textons in the high-resolution cells to generate 7-dimensional textons.

S340において、この各セル内7次元のテキストンを逆SWT変換することにより画像に変換する。以上をexLR画像の全セルについて繰り返す。   In S340, the 7-dimensional texton in each cell is converted into an image by inverse SWT conversion. The above is repeated for all cells of the exLR image.

逆SWT(ISWT)変換は、図25で示す信号フローで実現できる。図21とほとんど同じ表現である。通常のウェーブレット逆変換ではフィルタバンクの構成は同一のまま、分解の階層が進む毎に画像が拡大していく。これに対して、本逆変換においては、分解の階層が進んでも変換画像サイズは不変であり、スケーリング関数Fとウェーブレット関数G1の2種類のフィルタがダウンサンプリング(↓)されて2のべき乗で短くなっていくことにより、多重解像度解析を行う。Haar基底では、FとG1の具体的な数値とダウンサンプリングの様子は表2のようになる。   Inverse SWT (ISWT) conversion can be realized by the signal flow shown in FIG. It is almost the same expression as FIG. In normal wavelet inverse transformation, the filter bank configuration remains the same, and the image is enlarged each time the decomposition hierarchy advances. In contrast, in this inverse transform, the size of the transformed image remains unchanged even when the decomposition hierarchy progresses, and the two types of filters, scaling function F and wavelet function G1, are downsampled (↓) and shortened to a power of 2. As a result, multi-resolution analysis is performed. On the Haar basis, specific values of F and G1 and the state of downsampling are as shown in Table 2.

以上のようにしてアルベド画像の1成分が高解像度化される。この処理を、アルベド画像全てに行うことにより、高解像度なアルベド画像を合成する。   As described above, the resolution of one component of the albedo image is increased. By performing this process on all the albedo images, a high-resolution albedo image is synthesized.

このとき、アルベド画像に含まれる被写体の大きさや姿勢、向きなどが変化しても処理が可能なように、画像の正規化を行うようにしてもかまわない。テキストンを利用した高解像度化処理は、学習データに対してアルベド画像の大きさや姿勢が異なっている場合、高解像度化の精度が十分に発揮されないことが考えられる。そこで、アルベド画像を複数組用意し、この問題を解決する。すなわち、アルベド画像を30度ずつ回転させた画像を合成し、そのすべての画像で高解像度化を行い、姿勢や向きの変化に対応させる。この場合、前述の「高解像度化処理の実行時」のPAD図である図23のステップS336において、最短距離のテキストンを探索する際、回転処理を行った各画像から求めた複数のLR画像のテキストン、それぞれにおいて最短距離のテキストンを探索し、最も距離の近いものを探索してテキストン番号(Ci)を得るようにすればよい。   At this time, normalization of the image may be performed so that processing can be performed even if the size, posture, orientation, etc. of the subject included in the albedo image changes. It is conceivable that the resolution enhancement processing using texton does not sufficiently exhibit the accuracy of resolution enhancement when the size and orientation of the albedo image are different from the learning data. Therefore, a plurality of sets of albedo images are prepared to solve this problem. In other words, an image obtained by rotating the albedo image by 30 degrees is synthesized, and the resolution is increased for all the images, so that the posture and orientation are changed. In this case, when searching for the shortest distance texton in step S336 of FIG. 23, which is a PAD diagram of the above-mentioned “when executing high resolution processing”, a plurality of LR images obtained from the rotated images are used. Each texton is searched for the shortest distance texton, and the nearest texton is searched to obtain the texton number (Ci).

また、大きさの変化に対応するために、画像の大きさを変更したアルベド画像を合成するようにしてもかまわない。   Further, in order to cope with the change in size, an albedo image in which the size of the image is changed may be synthesized.

また、実際の大きさを基準に、例えば、5cm×5cmの画像が必ず8x8画素になるように拡大縮小処理を行い、その画像に対してテキストンを作製するようにしてもかまわない。被写体の大きさは、形状情報取得部204により既知であるため、「学習時」および「高解像度化処理の実行時」ともに同じ大きさの画像でテキストンを作製することで、大きさの変動に対応するようにしてもかまわない。   Also, with reference to the actual size, for example, an enlargement / reduction process may be performed so that an image of 5 cm × 5 cm always has 8 × 8 pixels, and a texton may be generated for the image. Since the size of the subject is already known by the shape information acquisition unit 204, the variation in size can be achieved by creating a texton with an image of the same size at both “learning” and “when executing high resolution processing”. It does not matter even if it corresponds to.

また、「高解像度化処理の実行時」のアルベド画像を回転させるのではなく、「学習時」のアルベド画像を回転させ、複数組のテキストンを作製し、クラスタCと学習された変換行列CMatをアルベドDB208に蓄積するようにしてもかまわない。   Also, instead of rotating the albedo image at the time of executing the high resolution processing, the albedo image at the time of learning is rotated to create a plurality of sets of textons, and the cluster C and the learned transformation matrix CMat May be stored in the albedo DB 208.

さらに、入力された被写体が何であるかを推定し、推定された被写体がどのように回転しているかを姿勢推定するようにしてもかまわない。このような処理は、広く使われている画像認識技術を利用すればよい。これは、例えば、被写体にRFIDのようなタグを設置しておき、そのタグ情報を認識することで被写体が何であるかを認識し、さらにタグ情報から被写体の形状情報を推定し、画像や被写体の形状情報から姿勢推定を行うようにすればよい(例えば、特開2005−346348号公報参照)。   Further, it may be possible to estimate what the input subject is and to estimate the orientation of how the estimated subject is rotating. For such processing, a widely used image recognition technique may be used. This is because, for example, a tag such as RFID is set on the subject, the tag information is recognized to recognize what the subject is, and the shape information of the subject is estimated from the tag information, and an image or subject The posture may be estimated from the shape information (see, for example, JP-A-2005-346348).

拡散画像高解像度化部209は、アルベド高解像度化部207が合成した高解像度アルベド画像から高解像度な拡散画像を合成する。この処理を説明する。   The diffusion image high resolution unit 209 synthesizes a high resolution diffusion image from the high resolution albedo image synthesized by the albedo high resolution unit 207. This process will be described.

前述のように、アルベド画像は、拡散成分画像を光源ベクトルと被写体の法線方向ベクトルの内積で除算したものである。そのため、アルベド画像に、光源情報推定部103によって推定された光源方向ベクトルと、後述するパラメータ高解像度化部213によって求めた被写体の高密度法線方向ベクトルとの内積を乗算することによって、高解像度の拡散画像を合成する。光源情報推定部103により、複数の光源が推定された場合、それぞれの光源に対して高解像度な拡散画像をおのおの合成し、その画像を足し合わせることで、一枚の高解像度拡散画像を合成する。   As described above, the albedo image is obtained by dividing the diffusion component image by the inner product of the light source vector and the normal direction vector of the subject. Therefore, by multiplying the albedo image by the inner product of the light source direction vector estimated by the light source information estimation unit 103 and the high-density normal direction vector of the subject obtained by the parameter resolution increasing unit 213 described later, a high resolution Composite diffusion images of When a plurality of light sources are estimated by the light source information estimation unit 103, a high-resolution diffusion image is synthesized for each light source, and the images are added together to synthesize a single high-resolution diffusion image. .

以上の処理により、高解像度化された拡散画像を合成することができる。ここで、高解像度化処理はアルベド画像を利用して行ったが、アルベド画像ではなく、拡散画像を直接、高解像度化するようにしてもかまわない。この場合、学習処理は拡散画像を用いて行えばよい。   Through the above processing, it is possible to synthesize a diffusion image with high resolution. Here, the high resolution processing is performed using the albedo image. However, instead of the albedo image, the diffusion image may be directly increased in resolution. In this case, the learning process may be performed using a diffusion image.

次に、鏡面反射画像の高解像度化処理について説明する。ここでは、画像をパラメータに分解し、パラメータごとに高密度化する。この処理を順に説明する。   Next, the process for increasing the resolution of the specular reflection image will be described. Here, the image is decomposed into parameters, and the density is increased for each parameter. This process will be described in order.

パラメータ推定部210は、形状情報取得部204によって取得された被写体の法線情報、拡散反射・鏡面反射分離部202によって分離された拡散反射画像と鏡面反射画像を利用して、その被写体を表現するパラメータを推定する。ここでは、Computer−Graphicsの分野で広く使われているCook−Torranceモデルを利用する方法を説明する。   The parameter estimation unit 210 represents the subject using the normal information of the subject acquired by the shape information acquisition unit 204, the diffuse reflection image and the specular reflection image separated by the diffuse reflection / specular reflection separation unit 202. Estimate the parameters. Here, a method using a Cook-Torrance model widely used in the field of Computer-Graphics will be described.

Cook−Torranceモデルでは、鏡面反射画像を次式のようにモデル化する。
In the Cook-Torrance model, a specular reflection image is modeled as follows.

ここで、Eiは入射照度、ρs,λは波長λにおける鏡面反射成分の双方向反射率、nは被写体の法線方向ベクトル、Vは視線ベクトル、Lは光源方向ベクトル、Hは視線ベクトルと照明方向ベクトルの中間ベクトル、βは中間ベクトルHと法線方向ベクトルnの角度を表す。また、Fλはフレネル方程式から求められる誘電体表面からの反射光の比であるフレネル係数、Dはマイクロファセット分布関数、Gは物体表面の凸凹による遮光の影響を表す幾何減衰率である。さらに、nλは被写体の屈折率、mは被写体表面の粗さを示す係数、Ijは入射光の放射輝度である。また、ksは鏡面反射成分の係数である。   Here, Ei is the incident illuminance, ρs, λ is the bidirectional reflectance of the specular reflection component at the wavelength λ, n is the normal direction vector of the subject, V is the line-of-sight vector, L is the light source direction vector, H is the line-of-sight vector and illumination. An intermediate vector of direction vectors, β represents an angle between the intermediate vector H and the normal direction vector n. Further, Fλ is a Fresnel coefficient which is a ratio of reflected light from the dielectric surface obtained from the Fresnel equation, D is a microfacet distribution function, and G is a geometric attenuation factor representing the influence of shading due to unevenness of the object surface. Further, nλ is the refractive index of the subject, m is a coefficient indicating the roughness of the subject surface, and Ij is the radiance of the incident light. Ks is a coefficient of the specular reflection component.

さらに、(式21)のランバーシャンモデルを利用すると、(式7)は以下のように展開される。
ただし、
ここで、ρdは拡散反射成分の反射率(アルベド)、dpx、dpyは撮像装置の1画素のx方向、y方向の長さ、rは撮像装置の観察点Oからの距離を示している。また、kdは以下の関係式を満たす係数である。
Srは拡散反射成分と鏡面反射成分の輝度値の違いを表現するための定数であり、拡散反射成分が被写体からすべての方向へエネルギーを反射することを示している。図26はこの定数Srを説明するための模式図である。図26において、観察点Oで反射された拡散反射成分エネルギーは、半球状に広がっていく。ここで、撮像装置1001が観察点Oからrだけ離れているので、撮像装置の1撮像素子に届くエネルギーと、観察点Oで反射した総エネルギーの比Srは、(式44)で表される。
Furthermore, when the Lambertian model of (Expression 21) is used, (Expression 7) is developed as follows.
However,
Here, ρd is the reflectance (albedo) of the diffuse reflection component, dpx and dpy are the lengths of one pixel in the x direction and y direction, and r is the distance from the observation point O of the imaging device. Kd is a coefficient satisfying the following relational expression.
Sr is a constant for expressing the difference in luminance value between the diffuse reflection component and the specular reflection component, and indicates that the diffuse reflection component reflects energy from the subject in all directions. FIG. 26 is a schematic diagram for explaining the constant Sr. In FIG. 26, the diffuse reflection component energy reflected at the observation point O spreads in a hemispherical shape. Here, since the imaging apparatus 1001 is separated from the observation point O by r, the ratio Sr between the energy reaching one imaging element of the imaging apparatus and the total energy reflected at the observation point O is expressed by (Equation 44). .

以上のことから、パラメータ推定部210は、(式33)〜(式44)からパラメータを推定する。   From the above, the parameter estimation unit 210 estimates parameters from (Expression 33) to (Expression 44).

以上の関係式をまとめると、パラメータ推定を行うための既知パラメータと、推定すべきパラメータは以下のようになる。   To summarize the above relational expressions, the known parameters for parameter estimation and the parameters to be estimated are as follows.

(既知パラメータ)
○環境光成分Ia
○拡散反射成分Id
○鏡面反射成分Is
○被写体の法線方向ベクトルn
○光源方向ベクトルL
○視線ベクトルV
○中間ベクトルH
○中間ベクトルHと法線方向ベクトルnの角度β。
○撮像装置の1画素のx方向、y方向の長さdpx,dpy。
○撮像装置と観察点Oとの距離r
(Known parameters)
○ Ambient light component Ia
○ Diffuse reflection component Id
○ Specular reflection component Is
○ Normal direction vector n of the subject
○ Light source direction vector L
○ Gaze vector V
○ Intermediate vector H
The angle β between the intermediate vector H and the normal direction vector n.
○ Lengths dpx and dpy in the x direction and y direction of one pixel of the imaging device.
○ Distance r between imaging device and observation point O

(推定すべきパラメータ)
○入射照度Ei
○鏡面反射成分の係数ks
○被写体表面の粗さm
○被写体の屈折率ηλ
ここで、拡散反射成分の係数kd、および拡散反射成分の反射率(アルベド)ρdも未知パラメータであるが、鏡面反射成分のパラメータのみを推定するため、ここでは推定処理を行わない。
(Parameters to be estimated)
○ Incident illuminance Ei
○ Specular reflection coefficient ks
○ Subject surface roughness m
○ Subject refractive index ηλ
Here, the coefficient kd of the diffuse reflection component and the reflectance (albedo) ρd of the diffuse reflection component are also unknown parameters. However, since only the parameter of the specular reflection component is estimated, no estimation process is performed here.

図27はパラメータ推定部210の処理の流れを示した図である。処理は、以下の2段階からなる。   FIG. 27 is a diagram showing a flow of processing of the parameter estimation unit 210. The process consists of the following two stages.

まず、光源情報を使用して、入射照度Eiを求める(ステップS351)。これは、光源情報推定部103によって取得した光源の位置情報、形状情報取得部204で求めた撮像装置と被写体との距離情報、さらには光源情報推定部103で求めた光源照度を用いる。これは、次式から求まる。
ここで、Iiは撮像装置1001に設置された照度計1015によって測定された光源1005の入射照度、R1は撮像装置1001と光源1005との距離、R2は光源1005と観察点Oとの距離、θ1は観察点Oにおける法線1014と光源方向1002Cとのなす角度、θ2は撮像装置1001における光軸方向1017と光源方向1002Aとのなす角度を示している(図28参照)。ここで、被写体の大きさが、光源1005と観察点Oとの距離R2に比べ十分に大きいと考えられる場合、距離R2は被写体上の全ての観察点Oで等しくなる。そのため、(式46)において(R1/R2)は定数となり、実際に計測する必要はなくなる。
First, the incident illuminance Ei is obtained using the light source information (step S351). This uses the position information of the light source acquired by the light source information estimation unit 103, the distance information between the imaging device and the subject obtained by the shape information acquisition unit 204, and the light source illuminance obtained by the light source information estimation unit 103. This is obtained from the following equation.
Here, Ii is the incident illuminance of the light source 1005 measured by the illuminance meter 1015 installed in the imaging device 1001, R1 is the distance between the imaging device 1001 and the light source 1005, R2 is the distance between the light source 1005 and the observation point O, and θ1. Represents the angle formed between the normal 1014 at the observation point O and the light source direction 1002C, and θ2 represents the angle formed between the optical axis direction 1017 and the light source direction 1002A in the imaging apparatus 1001 (see FIG. 28). Here, when the size of the subject is considered to be sufficiently larger than the distance R2 between the light source 1005 and the observation point O, the distance R2 is equal at all the observation points O on the subject. Therefore, in (Equation 46), (R1 / R2) is a constant and there is no need to actually measure.

次に、シンプレックス法を利用して、未知パラメータm、ηλ、ksを推定する(ステップS352)。シンプレックス法は、シンプレックスと呼ぶ図形の頂点に変数を割り付け、シンプレックスの大きさと形を変えて関数の最適化を行う方法である(大田登,“色再現光学の基礎” ,pp.90-92,コロナ社)。シンプレックスは、n次元空間の(n+1)個の点の集合である。ただし、nは推定する未知数の数であり、ここでは「3」である。そのため、シンプレックスは四面体である。シンプレックスの頂点をベクトルxiで表し、新しいベクトルを次のように定める。
ただし、
はそれぞれ関数f(xi)を最大、最小にするxiを示している。
Next, unknown parameters m, ηλ, and ks are estimated using the simplex method (step S352). The simplex method is a method of optimizing functions by assigning variables to the vertices of figures called simplex and changing the size and shape of the simplex (Noboru Ohta, “Basics of Color Reproduction Optics”, pp.90-92, Corona). A simplex is a set of (n + 1) points in an n-dimensional space. Here, n is the number of unknowns to be estimated, and is “3” here. Therefore, the simplex is a tetrahedron. The vertex of the simplex is represented by a vector xi, and a new vector is defined as follows.
However,
Indicates xi that maximizes and minimizes the function f (xi), respectively.

さらに、この方法で用いる3種類の操作を以下のように定める。
1.鏡像:
Further, the three types of operations used in this method are defined as follows.
1. Mirror image:

2.拡張:
2. Expansion:

3.収縮:
ここで、α(>0)、β(>1)、γ(1>γ>0)は係数である。
3. Shrinkage:
Here, α (> 0), β (> 1), and γ (1>γ> 0) are coefficients.

シンプレックス法は、シンプレックスの頂点の中で関数値の最も大きなものを選ぶことで、その鏡像における関数値は小さくなるという期待に基づいている。この期待が正しければ、同じプロセスの繰り返しで関数の最小値が求められる。つまり、初期値で与えたパラメータを3種類の操作で更新しながら、評価関数が示すターゲットとの誤差が閾値未満になるまでパラメータの更新を繰り返す。ここでは、パラメータとしてm、ηλ、ks、評価関数として(式52)で表される、(式33)から算出される鏡面反射成分画像と拡散反射・鏡面反射分離部202で求められた鏡面反射成分画像との差ΔIsを利用した。
ただし、is(i,j)’,is(i,j)はそれぞれ、計算された鏡面反射画像の推定値Is’と拡散反射・鏡面反射分離部202で求められた鏡面反射成分画像Isの画素(i,j)の輝度値、Ms(i,j)は、画素(i,j)が鏡面反射成分を持つ場合に1、そうでない場合0をとる関数である。
The simplex method is based on the expectation that the function value in the mirror image becomes small by selecting the largest function value among the vertices of the simplex. If this expectation is correct, the minimum value of the function is obtained by repeating the same process. That is, while updating the parameter given as the initial value by three types of operations, the parameter update is repeated until the error from the target indicated by the evaluation function becomes less than the threshold. Here, m, ηλ, ks as parameters, and a specular reflection component image calculated from (Expression 33) represented by (Expression 52) as an evaluation function and the specular reflection obtained by the diffuse reflection / specular reflection separation unit 202. The difference ΔIs from the component image was used.
However, is (i, j) ′ and is (i, j) are the calculated specular image estimated value Is ′ and the specular reflection component image Is obtained by the diffuse reflection / specular reflection separation unit 202, respectively. The luminance value of (i, j), Ms (i, j), is a function that takes 1 when the pixel (i, j) has a specular reflection component and 0 otherwise.

この処理について詳しく説明する。図29はこの処理の流れを説明するためのフローチャートである。   This process will be described in detail. FIG. 29 is a flowchart for explaining the flow of this process.

まず、繰り返し演算の更新回数を記憶するカウンターnとkに0を代入し、初期化する(ステップS361)。ここで、カウンターnは初期値を何回変更したかを記憶するカウンターであり、kはある初期値に対してシンプレックスによる候補パラメータの更新を何回行ったかを記憶するカウンターである。   First, 0 is substituted into counters n and k for storing the number of repetitive calculation updates, and initialization is performed (step S361). Here, the counter n is a counter that stores how many times the initial value is changed, and k is a counter that stores how many times the candidate parameter is updated by the simplex with respect to a certain initial value.

次に、乱数を利用し、推定パラメータの候補パラメータm’、ηλ’、ks’の初期値を決定する(ステップS362)。このとき、各パラメータの物理的な拘束条件から、初期値の発生範囲は以下のように決定した。
Next, random values are used to determine initial values of estimation parameter candidate parameters m ′, ηλ ′, and ks ′ (step S362). At this time, from the physical constraint conditions of each parameter, the generation range of the initial value was determined as follows.

次に、こうして求めた候補パラメータを(式33)へ代入し、鏡面反射画像の推定値Is’を求める(ステップS363)。さらに、計算された鏡面反射画像の推定値Is’と拡散反射・鏡面反射分離部202で求められた鏡面反射成分画像との差ΔIsを(式52)より求め、これをシンプレックス法の評価関数とする(ステップS364)。こうして求めたΔIsが十分小さい場合(ステップS365でYes)、パラメータ推定は成功したとして、推定パラメータm、ηλ、ksとして候補パラメータm’、ηλ’、ks’を選択し、処理を終了する。一方、ΔIsが大きい場合(ステップS365でNo)、シンプレックス法により候補パラメータの更新を行う。   Next, the candidate parameter obtained in this way is substituted into (Expression 33) to obtain an estimated value Is ′ of the specular reflection image (step S363). Further, a difference ΔIs between the calculated estimated value Is ′ of the specular reflection image and the specular reflection component image obtained by the diffuse reflection / specular reflection separation unit 202 is obtained from (Equation 52), and this is calculated as an evaluation function of the simplex method. (Step S364). If ΔIs obtained in this way is sufficiently small (Yes in step S365), the parameter estimation is successful, and candidate parameters m ′, ηλ ′, and ks ′ are selected as the estimation parameters m, ηλ, and ks, and the process ends. On the other hand, if ΔIs is large (No in step S365), the candidate parameters are updated by the simplex method.

候補パラメータの更新を行う前に、更新回数の評価を行う。まず、更新回数を記憶しているカウンターkに1を足し(ステップS366)、カウンターkの大きさを判断する(ステップS367)。カウンターkが十分に大きい場合(ステップS367でNo)、繰り返し演算は十分に行われているが、ローカルミニマムに落ちいっているため、このまま更新を繰り返しても最適値には達しないと判断し、初期値を変更して、ローカルミニマムからの脱却を図る。そのため、カウンターnに1を足し、カウンターkに0を入れる(ステップS371)。ここで、カウンターnの値が閾値より高いかどうかを判定し、処理をこのまま続けるか、処理不能として処理を終了させるかを決定する(ステップS372)。ここで、nが閾値より大きい場合(ステップS372でNo)、この画像は推定不能として処理を終了する。一方、nが閾値より小さい場合(ステップS372でYes)、再度、初期値を(式53)の範囲内で乱数から選択しなおし(ステップS362)、処理を繰り返す。このようなkに対する閾値は、例えば、100などを選択すればよい。   Before updating candidate parameters, evaluate the number of updates. First, 1 is added to the counter k storing the number of updates (step S366), and the size of the counter k is determined (step S367). If the counter k is sufficiently large (No in step S367), the repetitive calculation is sufficiently performed, but since it has fallen to the local minimum, it is determined that the optimum value is not reached even if the update is repeated as it is. Change the value to get out of the local minimum. Therefore, 1 is added to the counter n and 0 is added to the counter k (step S371). Here, it is determined whether or not the value of the counter n is higher than the threshold value, and it is determined whether to continue the processing as it is or to terminate the processing because it cannot be processed (step S372). Here, when n is larger than the threshold value (No in step S372), it is determined that this image cannot be estimated, and the process ends. On the other hand, if n is smaller than the threshold value (Yes in step S372), the initial value is again selected from random numbers within the range of (Equation 53) (step S362), and the process is repeated. For example, 100 may be selected as the threshold for such k.

一方、ステップS367において、カウンターkが閾値以下の場合(ステップS367でYes)、候補パラメータを(式49)〜(式51)を利用して変更する(ステップS368)。この処理については後述する。   On the other hand, when the counter k is equal to or smaller than the threshold value in step S367 (Yes in step S367), the candidate parameter is changed using (Equation 49) to (Equation 51) (step S368). This process will be described later.

次に、こうして変形された候補パラメータが、解として意味のあるものであるかを判定する(ステップS369)。すなわち、シンプレックス法を繰り返すことで、変形されたパラメータが物理的に意味のない値(例えば、粗さパラメータmが負の値など。)におちいる可能性があるため、これを除去する。これは、例えば、以下のような条件を与え、この条件を満たす場合には意味のあるパラメータ、満たさない場合には意味のないパラメータと判定すればよい。
これらの値は、被写体より求めることができる。例えば、屈折率ηλであれば、被写体の材質によって決定される値である。例えば、プラスチックであれば1.5〜1.7、ガラスであれば1.5〜1.9であることが知られているため、これらの値を利用すればよい。つまり、被写体がプラスチックである場合、屈折率ηλは1.5〜1.7とすればよい。
Next, it is determined whether the candidate parameter thus transformed is meaningful as a solution (step S369). That is, by repeating the simplex method, there is a possibility that the deformed parameter has a physically meaningless value (for example, the roughness parameter m is a negative value, etc.), which is removed. For example, the following conditions may be given, and if this condition is satisfied, it may be determined as a meaningful parameter, and if not satisfied, it may be determined as a meaningless parameter.
These values can be obtained from the subject. For example, the refractive index ηλ is a value determined by the material of the subject. For example, it is known that the plastic is 1.5 to 1.7, and the glass is 1.5 to 1.9. Therefore, these values may be used. That is, when the subject is plastic, the refractive index ηλ may be 1.5 to 1.7.

変形したパラメータが(式54)を満たす場合(ステップS369でYes)、その候補パラメータは意味のある値であると考えられるため、新しい候補パラメータとして設定し(ステップS370)、更新処理を繰り返す(ステップS363)。一方、変形したパラメータが(式54)を満たさない場合(ステップS369でNo)、その初期値に対する更新処理を打ち切り、新しい初期値により更新を行う(ステップS371)。   If the deformed parameter satisfies (Equation 54) (Yes in step S369), the candidate parameter is considered to be a meaningful value, so it is set as a new candidate parameter (step S370), and the updating process is repeated (step S370). S363). On the other hand, if the deformed parameter does not satisfy (Equation 54) (No in step S369), the updating process for the initial value is terminated, and the update is performed with the new initial value (step S371).

ここで、ステップS368の変形処理について詳述する。図30はこの処理の流れを示したフローチャートである。ここでは、候補パラメータm’、ηλ’、ks’をベクトル表現し、これをパラメータxとする。すなわち、
Here, the deformation process in step S368 will be described in detail. FIG. 30 is a flowchart showing the flow of this process. Here, the candidate parameters m ′, ηλ ′, and ks ′ are expressed as vectors, which are set as parameters x. That is,

まず、(式47)〜(式49)を利用して、鏡像操作を行ったパラメータxrを計算し、(式52)によってxrでの鏡面反射成分画像との差ΔIs(xr)を計算する(ステップS381)。次に、こうして求められたΔIs(xr)と、2番目に評価関数が悪かったΔIs(xs)を比較する(ステップS382)。ここでΔIs(xr)がΔIs(xs)より小さかった場合(ステップS382でYes)、鏡像操作を行った評価値ΔIs(xr)と現在、最も評価値のよいΔIs(xl)を比較する(ステップS383)。ここで、ΔIs(xr)の方が大きかった場合(ステップS383でNo)、最も評価値の悪かったxhをxrへ変更し(ステップS384)、処理を終了する。   First, using (Equation 47) to (Equation 49), the parameter xr subjected to the mirror image operation is calculated, and the difference ΔIs (xr) from the specular reflection component image at xr is calculated according to (Equation 52) ( Step S381). Next, ΔIs (xr) obtained in this way is compared with ΔIs (xs) having the second worst evaluation function (step S382). If ΔIs (xr) is smaller than ΔIs (xs) (Yes in step S382), the evaluation value ΔIs (xr) subjected to the mirror image operation is compared with ΔIs (xl) having the best evaluation value at present (step). S383). If ΔIs (xr) is larger (No in step S383), xh having the worst evaluation value is changed to xr (step S384), and the process ends.

一方、ΔIs(xr)がΔIs(xl)より小さかった場合(ステップS383でYes)、(式46)を利用して拡張処理を行い、パラメータxeと、xeでの鏡面反射成分画像との差ΔIs(xe)を計算する(ステップS385)。次に、こうして求められたΔIs(xe)と、鏡像操作によるΔIs(xr)を比較する(ステップS386)。ここでΔIs(xe)がΔIs(xr)より小さかった場合(ステップS386でYes)、最も評価値の悪かったxhをxeへ変更し(ステップS387)、処理を終了する。   On the other hand, when ΔIs (xr) is smaller than ΔIs (xl) (Yes in step S383), an expansion process is performed using (Equation 46), and the difference ΔIs between the parameter xe and the specular reflection component image at xe is performed. (xe) is calculated (step S385). Next, ΔIs (xe) thus obtained is compared with ΔIs (xr) obtained by mirror image operation (step S386). If ΔIs (xe) is smaller than ΔIs (xr) (Yes in step S386), xh having the worst evaluation value is changed to xe (step S387), and the process is terminated.

一方、ΔIs(xe)がΔIs(xr)より大きかった場合(ステップS386でNo)、最も評価値の悪かったxhをxrへ変更し(ステップS387)、処理を終了する。   On the other hand, if ΔIs (xe) is larger than ΔIs (xr) (No in step S386), xh having the worst evaluation value is changed to xr (step S387), and the process ends.

また、ステップS382において、ΔIs(xr)がΔIs(xs)より大きかった場合(ステップS382でNo)、鏡像操作を行った評価値ΔIs(xr)と現在、最も評価値の悪いΔIs(xh)を比較する(ステップS388)。ここでΔIs(xr)がΔIs(xh)より小さかった場合(ステップS388でYes)、最も評価値の悪かったxhをxrへ変更し(ステップS389)、(式50)を利用して、収縮操作を行ったパラメータxcと、xcでの鏡面反射成分画像との差ΔIs(xc)を計算する(ステップS390)。一方、ΔIs(xr)がΔIs(xh)より大きかった場合(ステップS388でNo)、xhを変更することなく、収縮操作を行ったパラメータxcと、xcでの鏡面反射成分画像との差ΔIs(xc)を計算する(ステップS390)。   If ΔIs (xr) is larger than ΔIs (xs) in step S382 (No in step S382), the evaluation value ΔIs (xr) subjected to the mirror image operation and ΔIs (xh) having the worst evaluation value are obtained. Compare (step S388). If ΔIs (xr) is smaller than ΔIs (xh) (Yes in step S388), xh having the worst evaluation value is changed to xr (step S389), and the contraction operation is performed using (Equation 50). The difference ΔIs (xc) between the parameter xc subjected to the above and the specular reflection component image at xc is calculated (step S390). On the other hand, if ΔIs (xr) is larger than ΔIs (xh) (No in step S388), the difference ΔIs () between the parameter xc subjected to the contraction operation without changing xh and the specular reflection component image at xc. xc) is calculated (step S390).

次に、こうして求められたΔIs(xc)と、最も評価値の悪いΔIs(xh)を比較する(ステップS391)。ここでΔIs(xc)がΔIs(xh)より小さかった場合(ステップS391でYes)、最も評価値の悪かったxhをxcへ変更し(ステップS392)、処理を終了する。   Next, ΔIs (xc) thus obtained is compared with ΔIs (xh) having the worst evaluation value (step S391). Here, if ΔIs (xc) is smaller than ΔIs (xh) (Yes in step S391), xh having the worst evaluation value is changed to xc (step S392), and the process is terminated.

一方、ΔIs(xc)がΔIs(xh)より大きかった場合(ステップS391でNo)、すべての候補パラメータxi(i=1,2,3,4)を以下の式により変更し、処理を終了する。
On the other hand, if ΔIs (xc) is larger than ΔIs (xh) (No in step S391), all candidate parameters xi (i = 1, 2, 3, 4) are changed according to the following formula, and the process is terminated. .

以上の処理を繰り返すことにより、鏡面反射画像における未知パラメータであるm、ηλ、ksを推定する。   By repeating the above process, the unknown parameters m, ηλ, and ks in the specular reflection image are estimated.

以上の処理により、すべての未知パラメータを推定することができる。   Through the above processing, all unknown parameters can be estimated.

なお、パラメータ推定に用いるモデルは、Cook−Torranceモデルである必要はなく、例えば、Torrance−SparrowモデルやPhongモデル、簡易Torrance-Sparrowモデル(例えば、「K. Ikeuchi and K. Sato, “Determining reflectance properties of an object using range and brightness images”, IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.13, no.11, pp.1139-1153, 1991」)であってもかまわない。   The model used for parameter estimation does not need to be a Cook-Torrance model. For example, a Torrance-Sparrow model, a Phong model, a simple Torrance-Sparrow model (for example, “K. Ikeuchi and K. Sato,“ Determining reflectance properties of an object using range and brightness images ”, IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.13, no.11, pp.1139-1153, 1991”).

また、パラメータ推定方法は、シンプレックス法である必要はなく、例えば、勾配法や最小自乗法などのような一般的なパラメータ推定手法を利用してもかまわない。   Further, the parameter estimation method does not need to be a simplex method, and for example, a general parameter estimation method such as a gradient method or a least square method may be used.

また、以上の処理は、画素毎に行ってもかまわないし、領域分割を行い、各領域ごとに等しいパラメータ組を推定するようにしてもかまわない。画素毎に処理を行う場合、光源や撮像装置、または被写体を動かすことにより、被写体の法線方向ベクトルnや光源方向ベクトルL、または視線ベクトルVといった既知パラメータが変動したサンプルを取得するようにすることが望ましい。また、処理を領域ごとに行う場合、領域ごとに求まったパラメータのばらつきが小さくなるように領域分割を変更することで、最適なパラメータ推定を行うようにすることが望ましい。   Further, the above processing may be performed for each pixel, or region division may be performed and an equal parameter set may be estimated for each region. When processing is performed for each pixel, a sample in which a known parameter such as a normal direction vector n, a light source direction vector L, or a line-of-sight vector V of the subject is changed is acquired by moving the light source, the imaging device, or the subject. It is desirable. Further, when the processing is performed for each region, it is desirable to perform optimal parameter estimation by changing the region division so that the variation in parameters obtained for each region is reduced.

法線情報高密化部211は、形状情報取得部204で取得した表面の法線情報を高密度化する。これは、以下のように実現される。   The normal information densification unit 211 densifies the surface normal information acquired by the shape information acquisition unit 204. This is realized as follows.

まず、形状情報取得部204によって取得した表面の法線情報を、画像撮像部201によって取得された画像へ投影し、画像内の各画素に対応する法線方向を求める。このような処理は、従来のカメラキャリブレーション処理(例えば、「運天 弘樹, 池内 克史, “実物体の仮想化のための3次元幾何モデルのテクスチャリング手法”, CVIM-149-34, pp.301-316, 2005」)を行うことで実現できる。   First, the normal information of the surface acquired by the shape information acquisition unit 204 is projected onto the image acquired by the image capturing unit 201, and the normal direction corresponding to each pixel in the image is obtained. Such processing is based on conventional camera calibration processing (for example, “Hiroki Unten, Katsushi Ikeuchi,“ Texturing method of 3D geometric model for virtualizing real objects ”, CVIM-149-34, pp.301 -316, 2005 ”).

この際、法線ベクトルは極座標で表現し、その値をθi、φiとする(図31参照)。以上の処理により、法線成分であるθ、φの画像を作製する。こうして求めたθ画像とφ画像を、上述のアルベド高解像度化部207と同様の手法によって高解像度化することによって、高密度の法線情報を推定する。この際、高密度度化処理を行う前に学習処理を行い、法線のθ、φ成分に対するクラスタCと学習された変換行列CMatを法線DB212に蓄積する。   At this time, the normal vector is expressed in polar coordinates, and the values are θi and φi (see FIG. 31). Through the above processing, images of θ and φ that are normal components are produced. High-resolution normal information is estimated by increasing the resolution of the θ image and the φ image thus obtained by the same method as the albedo resolution increasing unit 207 described above. At this time, a learning process is performed before the densification process, and the cluster C and the learned transformation matrix CMat for the θ and φ components of the normal are accumulated in the normal DB 212.

また、以上の処理は、影除去部205において、影として除去されなかった領域のみに対して行うことが望ましい。これは、影の存在により、パラメータ推定処理に誤差が生じてしまうことを防止するためである。   Further, it is desirable that the above processing is performed only on the area that is not removed as a shadow by the shadow removal unit 205. This is to prevent an error from occurring in the parameter estimation process due to the presence of a shadow.

また、パラメータ推定部210において、撮像装置近傍に設置された制御可能な光源を利用してもかまわない。この光源は、デジタルカメラのフラッシュであってもよい。この場合、フラッシュを照射して撮像したフラッシュ画像と、フラッシュを照射しないで撮像した非フラッシュ画像を時間的に連続して撮像し、その差分画像を利用してパラメータ推定を行えばよい。撮像装置と光源であるフラッシュとの位置関係は既知であり、また、フラッシュの光源情報である3次元位置や色、強度も事前に測定しておくことが可能である。また、撮像装置とフラッシュは非常に近い場所に設置されているため、影が少ない画像を撮像することができる。そのため、画像内のほとんどの画素において、パラメータを推定することができる。   In the parameter estimation unit 210, a controllable light source installed in the vicinity of the imaging device may be used. The light source may be a digital camera flash. In this case, a flash image captured by irradiating the flash and a non-flash image captured without irradiating the flash may be captured continuously in time, and parameter estimation may be performed using the difference image. The positional relationship between the imaging device and the flash that is the light source is known, and the three-dimensional position, color, and intensity, which are the light source information of the flash, can be measured in advance. Further, since the imaging device and the flash are installed in a very close place, an image with little shadow can be taken. Therefore, the parameter can be estimated for most pixels in the image.

さらに、パラメータ高密度化部213は、パラメータ推定部210によって求めたパラメータを高密度化する。ここでは、単純な線形補間を行い、すべてのパラメータを高密度化する。もちろん、上述のアルベド高解像度化部207のような学習を利用した高密度化手法を利用してもかまわない。   Further, the parameter densification unit 213 densifies the parameter obtained by the parameter estimation unit 210. Here, simple linear interpolation is performed to increase the density of all parameters. Of course, a densification method using learning such as the albedo resolution enhancement unit 207 described above may be used.

また、パラメータごとに高密化方法を切り替えるようにしてもかまわない。例えば、推定パラメータである被写体の屈折率ηλは、高密度化しても値が変化しないと考えられる。そのため、被写体の屈折率ηλは単純補間により高密度化を行い、拡散反射成分の係数kd、鏡面反射成分の係数ks、さらには拡散反射成分の反射率(アルベド)ρdに関しては学習を利用した高密度化処理を行うようにしてもかまわない。   Further, the densification method may be switched for each parameter. For example, it is considered that the refractive index ηλ of the subject, which is an estimation parameter, does not change even when the density is increased. Therefore, the refractive index ηλ of the subject is increased in density by simple interpolation, and the diffuse reflection component coefficient kd, the specular reflection component coefficient ks, and the diffuse reflection component reflectivity (albedo) ρd are high using learning. The densification process may be performed.

鏡面反射画像高解像度化部214は、法線情報高密度化部211によって推定された高密度法線情報と、パラメータ高解像度化部214によって高密度化されたパラメータを利用し、高解像度な鏡面反射画像を合成する。高解像度な鏡面反射画像は、(式33)〜(式41)に高密度化したパラメータを代入することによって、合成する。   The specular reflection image high-resolution unit 214 uses the high-density normal information estimated by the normal-line information densification unit 211 and the parameters densified by the parameter high-resolution unit 214 to obtain a high-resolution specular surface. Composite reflection images. A high-resolution specular reflection image is synthesized by substituting high-density parameters into (Expression 33) to (Expression 41).

ここで、実際の鏡面反射画像よりも輝度値が高くなるように、例えば入射照度Eiのみ推定された値に係数l(例えば、l=2)を乗算するようにしてもかまわない。これは、鏡面反射画像の輝度値を上げることによって、被写体の質感を上げるためである。同じように、被写体表面の粗さmを推定値よりも大きな値として、実際よりもてかりが強い鏡面反射画像を合成してもかまわない。   Here, for example, a value estimated only for the incident illuminance Ei may be multiplied by a coefficient l (for example, l = 2) so that the luminance value becomes higher than the actual specular reflection image. This is to increase the texture of the subject by increasing the luminance value of the specular reflection image. Similarly, a specular reflection image that is more intense than actual may be synthesized by setting the roughness m of the subject surface to a value larger than the estimated value.

影生成部215は、拡散反射画像高解像度化部209と鏡面反射画像高解像度化部214によって生成された高解像度拡散反射画像と高解像度化鏡面反射画像に重畳する、影画像を合成する。これは、前述影除去部205において利用したレイトレーシングを利用すればよい。   The shadow generation unit 215 synthesizes a shadow image to be superimposed on the high-resolution diffuse reflection image and the high-resolution specular reflection image generated by the diffuse reflection image high-resolution unit 209 and the specular reflection image high-resolution unit 214. This may be done by using ray tracing used in the shadow removal unit 205 described above.

ここで、画像高解像度化部104は、撮影対象となっている被写体の3次元形状に関する知識を有するものとする。影生成部215は、被写体の3次元形状データを取得し、撮影画像における被写体の見え(appearance)から、被写体の3次元姿勢及び3次元位置を推定する。被写体が人間の目の角膜である場合の、見えから3次元位置及び3次元姿勢を推定する例が、「K.Nishino and S.K.Nayar, "The World in an Eye", in Proc. of Computer Vision and Pattern Recognition CVPR '04, vol.I, pp444-451, Jul., 2004.」に開示されている。見えから3次元位置及び3次元姿勢を推定できる被写体は限られるが、そのような被写体であれば、上記文献の手法を本発明に適用することが可能である。   Here, it is assumed that the image resolution increasing unit 104 has knowledge about the three-dimensional shape of the subject to be imaged. The shadow generation unit 215 acquires the three-dimensional shape data of the subject, and estimates the three-dimensional posture and the three-dimensional position of the subject from the appearance of the subject in the captured image. An example of estimating the 3D position and 3D posture from the appearance when the subject is the cornea of the human eye is "K.Nishino and SKNayar," The World in an Eye ", in Proc. Of Computer Vision and Pattern Recognition CVPR '04, vol.I, pp444-451, Jul., 2004. " Although there are limited subjects that can estimate the three-dimensional position and the three-dimensional posture from the appearance, the technique of the above document can be applied to the present invention as long as such a subject.

被写体の3次元姿勢及び3次元位置が推定されれば、被写体上の任意の位置において、被写体表面の法線情報が算出できる。以上の処理を、撮影画像において繰り返し、被写体表面の法線情報を算出する。さらに、法線情報高密度化部211で推定された高密度法線情報を利用して被写体の法線情報を高密度化することによって、被写体の3次元形状を高密化することが可能である。こうして求めた高密度3次元形状と、パラメータ高解像度化部213によって高密度化されたパラメータを利用してレイトレーシングを行うことにより、高解像度な影画像の推定を行う。   If the three-dimensional posture and the three-dimensional position of the subject are estimated, normal information of the subject surface can be calculated at an arbitrary position on the subject. The above process is repeated in the captured image to calculate normal information on the subject surface. Furthermore, it is possible to increase the density of the three-dimensional shape of the subject by increasing the density of the normal information of the subject using the high density normal information estimated by the normal information density increasing unit 211. . A high-resolution shadow image is estimated by performing ray tracing using the high-density three-dimensional shape obtained in this way and the parameters densified by the parameter-enhancing unit 213.

レンダリング部216は、拡散反射画像高解像度化部209が合成した高解像度拡散反射画像、鏡面反射画像高解像度化部214が合成した高解像度鏡面反射画像、さらには、影生成部215が合成した影画像を合成し、高解像度の出力画像を合成する。   The rendering unit 216 includes a high-resolution diffuse reflection image combined by the diffuse reflection image high-resolution unit 209, a high-resolution specular reflection image combined by the specular reflection image high-resolution unit 214, and a shadow combined by the shadow generation unit 215. Synthesize images and synthesize high-resolution output images.

以上のように、本実施形態に係る画像処理装置は、画像の高解像度化処理を行うことができる。   As described above, the image processing apparatus according to the present embodiment can perform image resolution enhancement processing.

また、ここでは、鏡面反射画像のみパラメータ推定を利用して高解像度化を行ったが、拡散反射画像においてもパラメータ推定を行い、高解像度化するようにしてもかまわない。   In this example, only the specular reflection image is increased in resolution by using parameter estimation. However, it is also possible to perform parameter estimation in a diffuse reflection image to increase the resolution.

この処理を説明する。拡散反射画像の未知パラメータは、上述のとおり、以下の2つである。
○拡散反射成分の係数kd
○拡散反射成分の反射率(アルベド)ρd
そこで、これらのパラメータを推定する。図32は拡散反射画像のパラメータ推定処理の流れを示した図である。図27で示した鏡面反射画像のパラメータ推定部210の処理後、さらに以下の2段階の処理を行う。
This process will be described. As described above, the unknown parameters of the diffuse reflection image are the following two parameters.
○ Coefficient kd of diffuse reflection component
○ Reflectance of diffuse reflection component (Albedo) ρd
Therefore, these parameters are estimated. FIG. 32 is a diagram showing a flow of parameter estimation processing of the diffuse reflection image. After the process of the specular reflection image parameter estimation unit 210 shown in FIG. 27, the following two steps are further performed.

まず、(式45)と鏡面反射画像のパラメータ推定で求まったksを利用して、次式よりkdを推定する(ステップS353)。
First, kd is estimated from the following equation using (Equation 45) and ks obtained by parameter estimation of the specular reflection image (step S353).

さらに、(式43)を利用して、拡散反射画像の反射率(アルベド)ρdを次式より推定する(ステップS354)。
Further, using (Equation 43), the reflectance (albedo) ρd of the diffuse reflection image is estimated from the following equation (step S354).

以上の処理により、すべての未知パラメータを推定することができる。こうして求まったパラメータをパラメータ高密度化部213と同様の手法により高密化することによって、拡散反射画像を高解像度化すればよい。   Through the above processing, all unknown parameters can be estimated. It is only necessary to increase the resolution of the diffuse reflection image by densifying the parameters obtained in this way by the same method as the parameter densification unit 213.

また、広角画像撮像部101が撮像を行う際には、フラッシュを照射せずに撮像を行うことが望ましい。これは、鏡のような鏡面反射を起こす被写体が撮像装置1001の視野内に存在している場合、フラッシュが反射され、誤って光源画素として推定されてしまうためである。そのため、冷却CCDカメラや多重露光撮像など、広いダイナミックレンジを撮像できる撮像装置を利用することが望ましい。   In addition, when the wide-angle image capturing unit 101 captures an image, it is desirable to capture the image without irradiating a flash. This is because when a subject that causes specular reflection such as a mirror is present in the field of view of the imaging apparatus 1001, the flash is reflected and is erroneously estimated as a light source pixel. For this reason, it is desirable to use an imaging device capable of imaging a wide dynamic range such as a cooled CCD camera or multiple exposure imaging.

また、広角画像撮像部101は、撮像装置1001の画素の露光時間を、領域毎に、異なる値に設定するようにしてもかまわない。異なる露光時間の設定は、例えば撮像装置1001がCCDである場合、その電荷蓄積時間を変えることによって、実現できる。   The wide-angle image capturing unit 101 may set the exposure time of the pixels of the image capturing apparatus 1001 to a different value for each region. Different exposure times can be set by changing the charge accumulation time when the imaging device 1001 is a CCD, for example.

図2において、ウェアラブルカメラ1000の光軸方向1017が撮像者1003の正面方向と同じ方向であるとすると、撮像者が正対している被写体は、レンズ中心部に撮像される可能性が高い。そして、撮像者1003が正対している被写体は、撮像者1003が興味を持っている被写体だと考えられる。このため、被写体が映るレンズ中心部に対応する領域については、画素の露光時間を長くして、高感度に撮像することが効果的である。一方、光源は、屋外では太陽光や街灯、また屋内では天井に敷設された照明などが考えられるため、レンズの周辺部に撮像される可能性が高い。このため、レンズ周辺部に対応する領域では、画素の露光時間をレンズ中心部よりも短くすることによって、輝度値の高い光源画素が飽和する可能性を低くすることが可能である。   In FIG. 2, assuming that the optical axis direction 1017 of the wearable camera 1000 is the same direction as the front direction of the photographer 1003, the subject facing the photographer is likely to be imaged at the center of the lens. The subject facing the photographer 1003 is considered to be the subject that the photographer 1003 is interested in. For this reason, in the area corresponding to the center of the lens in which the subject is shown, it is effective to increase the exposure time of the pixels and take an image with high sensitivity. On the other hand, the light source may be sunlight or street lamps outdoors, or illumination laid on the ceiling indoors. For this reason, in the region corresponding to the lens peripheral portion, it is possible to reduce the possibility that the light source pixel having a high luminance value is saturated by making the exposure time of the pixel shorter than that of the lens central portion.

もちろん、ウェアラブルカメラ1000の光軸方向1017が撮像者1003の正面方向と異なっている場合、撮像者1003の正面方向に対応する画素の露光時間を相対的に長くするようにすればよい。撮像者1003の正面方向を検出するには、例えば、撮像者1003がウェアラブルカメラ1000を装着した際に、撮像者1003が正面方向をウェアラブルカメラ1000に指示するようにすればよい。   Of course, when the optical axis direction 1017 of the wearable camera 1000 is different from the front direction of the photographer 1003, the exposure time of the pixels corresponding to the front direction of the photographer 1003 may be relatively increased. In order to detect the front direction of the imager 1003, for example, when the imager 1003 wears the wearable camera 1000, the imager 1003 may instruct the wearable camera 1000 about the front direction.

また、画像高解像度化部104は、高解像度化の拡大倍率を、画像の領域毎に、異なる値に設定するようにしてもかまわない。   Further, the image resolution increasing unit 104 may set the enlargement magnification for resolution enhancement to a different value for each area of the image.

広角画像を撮像するためには、焦点距離の短い広角レンズや魚眼レンズなどを利用する必要がある。しかし、これらのレンズはレンズ歪みの影響が大きいため、レンズ中心部と周辺部とで分解能が一様ではなくなる。通常、レンズ中心部の分解能が最も高く、周辺部へ行くほど低分解能になる。このため、レンズ周辺部に対応する領域に対する拡大倍率を、レンズ中心部に対応する領域に対して高く設定するようにしてもよい。これにより、分解能が一様な拡大画像を生成することができる。   In order to capture a wide-angle image, it is necessary to use a wide-angle lens or a fish-eye lens with a short focal length. However, since these lenses are greatly affected by lens distortion, the resolution is not uniform between the central portion and the peripheral portion of the lens. Usually, the resolution at the center of the lens is the highest, and the resolution becomes lower toward the periphery. For this reason, you may make it set the magnification with respect to the area | region corresponding to a lens peripheral part high with respect to the area | region corresponding to a lens center part. Thereby, an enlarged image with uniform resolution can be generated.

上述のように、撮像者が正対している被写体はレンズ中心部に撮像される可能性が高い。そして、撮像者に正対している被写体は、撮像者が興味を持っている被写体だと考えられる。一方、光源は、屋外では太陽光や街灯、また屋内では天井に敷設された照明などが考えられるため、レンズの周辺部に撮像される可能性が高い。通常、2x2倍以上の画像の高解像度化処理を行うと、拡大倍率を高くすればするほど、画像がぼやけて画質が劣化してしまうといった問題が生じる。しかし、レンズ中心部の拡大倍率を周辺部に比べて低くすることによって、撮像者が興味を持っている被写体の画質の劣化を抑えながら、広角画像を高解像度化することができる。   As described above, there is a high possibility that the subject facing the photographer is captured at the center of the lens. The subject facing the imager is considered to be the subject that the imager is interested in. On the other hand, the light source may be sunlight or street lamps outdoors, or illumination laid on the ceiling indoors. Usually, when the resolution enhancement processing of an image of 2 × 2 or more is performed, there is a problem that the higher the enlargement magnification is, the more the image becomes blurred and the image quality deteriorates. However, by reducing the magnification at the center of the lens compared to the periphery, it is possible to increase the resolution of a wide-angle image while suppressing deterioration in the image quality of the subject that the photographer is interested in.

また、分解能が低い領域の拡大倍率を、分解能が高い領域に比べて高くすることによって、分解能が一様な拡大画像を生成するようにしてもかまわない。   In addition, an enlarged image with uniform resolution may be generated by increasing the magnification of the region with low resolution compared to the region with high resolution.

また、広角画像を撮影するために、反射ミラーを利用する方法が知られている(例えば、特許第2939087号公報参照)。このような撮像装置を利用する場合も、やはり、分解能は画像内で一様ではなくなる。そこで、撮像画像内の分解能を検出し、その結果に基づいて、分解能が低い領域の拡大倍率を、分解能が高い領域に比べて高く設定することによって、分解能が一様な拡大画像を生成するようにしてもかまわない。   In addition, a method of using a reflection mirror to capture a wide-angle image is known (see, for example, Japanese Patent No. 2939087). Even when such an imaging apparatus is used, the resolution is not uniform in the image. Therefore, the resolution in the captured image is detected, and based on the result, an enlarged image with a uniform resolution is generated by setting the enlargement magnification of the low resolution area higher than that of the high resolution area. It doesn't matter.

撮像画像内の分解能を検出するためには、広く知られているカメラキャリブレーションを行うことによって、カメラの内部パラメータを取得すればよい。これは、内部パラメータである、焦点距離や焦点位置、レンズの歪み、さらには撮像素子のサイズなどの情報を利用することによって、撮像装置の画素毎の撮影範囲を推定することができるためである。   In order to detect the resolution in the captured image, internal parameters of the camera may be acquired by performing widely known camera calibration. This is because an imaging range for each pixel of the imaging apparatus can be estimated by using information such as focal length, focal position, lens distortion, and image sensor size, which are internal parameters. .

以上のように本実施形態によると、被写体を、広角画像を撮像可能な撮像装置を用いて、自動的に連続して撮像するので、被写体画像と併せて光源画像を得ることができる。すなわち、被写体を撮像したその時の光源画像を正確に取得することができる。そして、撮像された広角画像と、撮像が行われたときの撮像装置情報とを用いて、光源の位置、色および照度を含む光源情報を推定し、推定された光源情報を用いて、広角画像を高解像度化することができる。すなわち、被写体撮像用以外の付加的な撮像装置を搭載することなく、光源画像を取得し、画像の高解像度化を実現することが可能となる。さらに、被写体と光源が一枚の画像として取得できるため、光源位置と被写体との位置合わせにわずらわされることもない。   As described above, according to the present embodiment, a subject is automatically and continuously imaged using an imaging device capable of imaging a wide-angle image, so that a light source image can be obtained together with the subject image. That is, it is possible to accurately acquire the light source image at that time when the subject is imaged. Then, light source information including the position, color, and illuminance of the light source is estimated using the captured wide-angle image and the imaging device information when the image is captured, and the wide-angle image is used using the estimated light source information. The resolution can be increased. That is, it is possible to acquire a light source image and realize high resolution of the image without mounting an additional imaging device other than for subject imaging. Furthermore, since the subject and the light source can be acquired as one image, there is no need to bother the alignment of the light source position and the subject.

(第2の実施形態)
図33は本発明の第2の実施形態に係る画像処理装置の構成を示すブロック図である。図33において、図1に示す本発明の第1の実施形態に係る画像処理装置と共通の構成要素には、同一の符号を付しており、ここではその詳細な説明を省略する。
(Second Embodiment)
FIG. 33 is a block diagram showing a configuration of an image processing apparatus according to the second embodiment of the present invention. 33, the same reference numerals are given to the same components as those of the image processing apparatus according to the first embodiment of the present invention shown in FIG. 1, and the detailed description thereof is omitted here.

図33の構成は、図1の構成に加え、光源環境判定部105を有する。光源環境判定部105は、撮像装置1001に対する光源環境が変化したか否かを判定し、光源情報推定部103は、光源環境判定部105によって光源環境が変化したと判定されたとき、光源情報の推定を行う。   The configuration of FIG. 33 includes a light source environment determination unit 105 in addition to the configuration of FIG. The light source environment determination unit 105 determines whether or not the light source environment for the imaging apparatus 1001 has changed. The light source information estimation unit 103 determines that the light source environment has changed when the light source environment determination unit 105 determines that the light source environment has changed. Estimate.

具体的には例えば、光源環境判定部105は、撮像装置1001が移動したか否かを判定し、移動したとき、撮像装置1001に対する光源環境が変化したと判定する。上述のように、光源情報として光源の位置を推定する場合、撮像装置1001の位置や姿勢が変化した2画像が必要である。そこで、撮像装置1001が移動した場合にのみ光源情報推定部103によって光源推定処理を行うことによって、効率的な光源推定処理を行うことが可能となる。   Specifically, for example, the light source environment determination unit 105 determines whether or not the imaging device 1001 has moved, and determines that the light source environment for the imaging device 1001 has changed when the imaging device 1001 has moved. As described above, when the position of the light source is estimated as the light source information, two images in which the position and orientation of the imaging device 1001 are changed are necessary. Therefore, efficient light source estimation processing can be performed by performing light source estimation processing by the light source information estimation unit 103 only when the imaging apparatus 1001 moves.

光源環境判定部105は例えば、撮像装置1001に搭載された角度センサ1020の出力から、撮像装置1001が移動したか否かを判定する。すなわち、角度センサ1020の出力が変化したとき、撮像装置1001が移動したと判定すればよい。また、撮像装置1001に角速度センサや加速度センサが搭載されている場合は、その出力の変化を検出したとき、撮像装置1001が移動したと判定すればよい。   For example, the light source environment determination unit 105 determines whether the imaging device 1001 has moved from the output of the angle sensor 1020 mounted on the imaging device 1001. That is, when the output of the angle sensor 1020 changes, it may be determined that the imaging device 1001 has moved. In the case where an angular velocity sensor or an acceleration sensor is mounted on the imaging apparatus 1001, it may be determined that the imaging apparatus 1001 has moved when a change in the output is detected.

また、角度センサ1020の出力を利用する代わりに、広角画像撮像部101が撮像した画像を用いて、撮像装置1001が移動したか否かを判定してもよい。例えば、時系列に撮像された広角画像の差分を求め、差分画像を合成し、変化量が大きい場合に、撮像装置1001が移動したと判定すればよい。あるいは、広角画像から、上述の8点法などを利用して、撮像装置1001の移動量や姿勢の変化量を求めるようにしてもかまわない。   Further, instead of using the output of the angle sensor 1020, it may be determined whether the imaging apparatus 1001 has moved using an image captured by the wide-angle image capturing unit 101. For example, a difference between wide-angle images captured in time series is obtained, and the difference images are combined. If the amount of change is large, it may be determined that the imaging device 1001 has moved. Alternatively, the movement amount or the posture change amount of the imaging apparatus 1001 may be obtained from the wide-angle image using the above-described 8-point method or the like.

また、光源環境判定部105は、上述した光源画素の情報を利用して、撮像装置1001に対する光源環境が変化したか否かを判定するようにしてもかまわない。すなわち、光源画素の輝度値や位置が変化した場合、光源環境が変化している可能性が高いと判断できる。このため、広角画像から光源画素のみを抽出し、その位置や輝度値に変化があったとき、光源環境が変化したと判定し、光源情報推定処理を行うようにすればよい。   Further, the light source environment determination unit 105 may determine whether or not the light source environment for the imaging device 1001 has changed using the information on the light source pixels described above. That is, when the luminance value or position of the light source pixel changes, it can be determined that the light source environment is likely to be changed. Therefore, only the light source pixel is extracted from the wide-angle image, and when the position or the luminance value is changed, it is determined that the light source environment has changed and the light source information estimation process is performed.

以上のように本実施形態によると、撮像装置に対する光源環境が変化したか否かを判定し、光源環境が変化したと判定されたとき、光源情報の推定を行うので、効率的に、光源情報を推定し、撮像画像を高解像度化することができる。   As described above, according to the present embodiment, it is determined whether or not the light source environment for the imaging apparatus has changed, and when it is determined that the light source environment has changed, the light source information is estimated. And the resolution of the captured image can be increased.

(第3の実施形態)
図34は本発明の第3の実施形態に係る画像処理装置の構成を示すブロック図である。図34において、図1に示す第1の実施形態に係る画像処理装置と共通の構成要素には、同一の符号を付しており、ここではその詳細な説明を省略する。
(Third embodiment)
FIG. 34 is a block diagram showing a configuration of an image processing apparatus according to the third embodiment of the present invention. 34, the same reference numerals are given to the same components as those of the image processing apparatus according to the first embodiment shown in FIG. 1, and detailed description thereof is omitted here.

図34の構成は、図1の構成に加え、推定光源情報判定部106を有する。推定光源情報判定部106は、光源情報推定部103が光源情報を正確に推定しているか否かを判定する。推定光源情報判定部106によって、光源情報が正確に推定されていないと判定されたとき、光源情報推定部103は再度、光源情報の推定処理を行う。   The configuration in FIG. 34 includes an estimated light source information determination unit 106 in addition to the configuration in FIG. The estimated light source information determination unit 106 determines whether the light source information estimation unit 103 accurately estimates the light source information. When the estimated light source information determination unit 106 determines that the light source information is not accurately estimated, the light source information estimation unit 103 performs the light source information estimation process again.

推定光源情報判定部106の処理について説明する。ここでは、GPS(Global Positioning System)センサと時刻情報とを利用する手法を説明する。晴天の昼間に屋外で撮像が行われている場合、光源として、太陽光が存在すると考えられる。そこで、太陽光の方向または太陽の位置を推定し、推定した方向または位置を、光源情報推定部103によって推定された光源情報と対比する。これによって、光源情報が正確に推定されているか否かを判定する。太陽光の推定は、撮像装置1001に設置されたGPSセンサ1024の出力と、例えば、電波時計1025などを利用して取得した時刻情報とから、行えばよい。   The process of the estimated light source information determination unit 106 will be described. Here, a method using a GPS (Global Positioning System) sensor and time information will be described. It is considered that sunlight is present as a light source when imaging is performed outdoors in the daytime on a fine day. Therefore, the direction of sunlight or the position of the sun is estimated, and the estimated direction or position is compared with the light source information estimated by the light source information estimation unit 103. Thereby, it is determined whether or not the light source information is accurately estimated. The estimation of sunlight may be performed from the output of the GPS sensor 1024 installed in the imaging apparatus 1001 and time information acquired using, for example, a radio clock 1025.

また、GPS情報を利用して、撮像者周囲の建物の状況を地図情報から利用するようにしても構わない。建物の状況から、太陽光が遮断されているか否かを判断することができる。   Moreover, you may make it utilize the condition of the building around a photographer from map information using GPS information. It is possible to determine whether or not sunlight is blocked from the state of the building.

また、推定光源情報判定部106は、被写体の形状情報を利用してもかまわない。これは、被写体の形状情報と光源情報推定部103が推定した光源情報とから、被写体の画像を推定し、実際に広角画像撮像部101によって撮像された画像と推定した画像とを比較することによって、光源情報が正確に推定されているか否かを判定するものである。   Further, the estimated light source information determination unit 106 may use the shape information of the subject. This is because the image of the subject is estimated from the shape information of the subject and the light source information estimated by the light source information estimation unit 103, and the image actually captured by the wide-angle image capturing unit 101 is compared with the estimated image. It is determined whether or not the light source information is accurately estimated.

この処理を詳述する。撮像装置1001に前述の形状情報取得部204が搭載されている場合、被写体の形状情報である被写体表面の法線情報、撮像装置1001からの距離情報、被写体の3次元位置情報などが取得できる。そこで、被写体表面の法線情報または被写体の3次元位置情報と、光源情報、さらにはカメラパラメータ情報を用いて、図35に示すように、観察点Oにおける法線方向、視線方向、光源方向を取得する。   This process will be described in detail. When the above-described shape information acquisition unit 204 is installed in the imaging apparatus 1001, normal information on the subject surface, which is the shape information of the subject, distance information from the imaging apparatus 1001, information on the three-dimensional position of the subject, and the like can be acquired. Therefore, using the normal information on the surface of the subject or the three-dimensional position information of the subject, the light source information, and further the camera parameter information, as shown in FIG. get.

図35は観察点Oと撮像装置1001および光源1005との位置関係を示す模式図である。ここで、視線方向Vと法線方向nとのなす角をθV、光源方向Lと法線方向nとのなす角をθLとする。ここで、以下の関係を満たす画素は、光が正反射を起こしている画素となり、その輝度値が非常に高くなることが知られている。
○θL=θV
○光源方向L、法線方向n、視線方向Vが同一平面上に存在
FIG. 35 is a schematic diagram showing the positional relationship between the observation point O, the imaging device 1001 and the light source 1005. Here, an angle formed by the line-of-sight direction V and the normal direction n is θV, and an angle formed by the light source direction L and the normal direction n is θL. Here, it is known that a pixel satisfying the following relationship is a pixel in which light is regularly reflected, and its luminance value is very high.
○ θL = θV
○ Light source direction L, normal direction n, and line-of-sight direction V exist on the same plane

そこで、上記の条件を満たす画素を広角画像撮像部101によって撮像された画像から検出し、その輝度値が、十分に大きい、または近傍画素の輝度値よりも十分に大きい場合、光源情報推定部103は光源情報を正確に推定していると判定する。一方、検出した画素の輝度値が、十分に大きくない、または近傍画素の輝度値よりも小さい場合、光源情報推定部103が推定した光源情報は誤っていると判定する。   Therefore, when a pixel satisfying the above condition is detected from an image captured by the wide-angle image capturing unit 101 and the luminance value thereof is sufficiently large or sufficiently larger than the luminance value of a neighboring pixel, the light source information estimation unit 103 Determines that the light source information is accurately estimated. On the other hand, when the luminance value of the detected pixel is not sufficiently large or smaller than the luminance value of the neighboring pixel, it is determined that the light source information estimated by the light source information estimation unit 103 is incorrect.

また、推定光源情報判定部106は、広角画像撮像部101によって撮像された画像の色情報を、光源情報推定部103によって推定された光源の色と対比することによって、光源情報が正確に推定されているか否かを判定するようにしてもよい。   Further, the estimated light source information determination unit 106 accurately estimates the light source information by comparing the color information of the image captured by the wide-angle image capturing unit 101 with the color of the light source estimated by the light source information estimation unit 103. You may make it determine whether it is.

例えば、推定された光源の色と、鏡面反射成分の色情報とを比較する。まず、被写体は誘電体であるとする。このとき、広角画像撮像部101によって撮像された画像を、拡散反射・鏡面反射分離部202の説明で述べた手法を利用して、鏡面反射成分と拡散反射成分とに分離する。ここで、分離された鏡面反射成分の色情報は、光源の色情報と等しいことが知られている。そこで、分離された鏡面反射成分の色情報と、光源情報推定部103が推定した光源の色とを比較し、十分に近い場合、光源情報推定部103が推定した光源情報が正しいと判断する。一方、色情報が十分に近くない場合、光源情報推定部103が推定した光源情報が誤っていると判断する。あるいは、分離された鏡面反射成分の色情報と、光源画素の色情報とを比較するようにしても構わない。   For example, the estimated color of the light source is compared with the color information of the specular reflection component. First, it is assumed that the subject is a dielectric. At this time, the image captured by the wide-angle image capturing unit 101 is separated into a specular reflection component and a diffuse reflection component using the method described in the explanation of the diffuse reflection / specular reflection separation unit 202. Here, it is known that the color information of the separated specular reflection component is equal to the color information of the light source. Therefore, the color information of the separated specular reflection component is compared with the color of the light source estimated by the light source information estimation unit 103. If the color information is sufficiently close, it is determined that the light source information estimated by the light source information estimation unit 103 is correct. On the other hand, when the color information is not close enough, it is determined that the light source information estimated by the light source information estimation unit 103 is incorrect. Or you may make it compare the color information of the separated specular reflection component, and the color information of a light source pixel.

また、もちろん、光源の色情報と拡散反射成分の色情報とを比較するようにしてもかまわない。拡散反射成分の色情報は、被写体固有の色情報と光源の色情報とにより決定される。そのため、光源の色情報と拡散反射の色情報とが補色の関係になることはありえない。そのため、例えば光源色は青であるが、拡散反射の色は黄であるというように、光源の色情報と拡散反射の色情報とが補色の関係にある場合は、光源情報推定部103が推定した光源情報が誤っていると判断する。この処理はもちろん、光源の色情報と、広角画像撮像部101によって撮像された画像の色情報を利用してもかまわない。   Of course, the color information of the light source may be compared with the color information of the diffuse reflection component. The color information of the diffuse reflection component is determined by the color information specific to the subject and the color information of the light source. Therefore, the color information of the light source and the color information of diffuse reflection cannot have a complementary color relationship. Therefore, for example, when the light source color information is blue but the diffuse reflection color is yellow, the light source information estimation unit 103 estimates the color information of the light source and the diffuse reflection color information in a complementary color relationship. It is determined that the light source information is incorrect. Of course, the color information of the light source and the color information of the image captured by the wide-angle image capturing unit 101 may be used.

また、推定光源情報判定部106によって、推定された光源情報が誤っていると判断された場合、そのときの広角画像にマーキングを行い、以後の処理において、その広角画像を光源推定に用いないようにしてもかまわない。これは、編集処理のように、光源情報推定部103が、広角画像撮像部101が撮像を行ったときでなく、後で推定を行う場合に有効である。   If the estimated light source information determination unit 106 determines that the estimated light source information is incorrect, the wide-angle image at that time is marked, and the wide-angle image is not used for light source estimation in the subsequent processing. It doesn't matter. This is effective when the light source information estimation unit 103 performs estimation later, not when the wide-angle image imaging unit 101 performs imaging, as in the editing process.

以上のように本実施形態によると、光源情報が正確に推定されているか否かを判定し、光源情報が正確に推定されていないと判定されとき、再度、光源情報の推定が行われるので、正確な光源情報が確実に推定されることとなり、撮像画像を精度良く高解像度化することができる。   As described above, according to the present embodiment, it is determined whether or not the light source information is accurately estimated, and when it is determined that the light source information is not accurately estimated, the light source information is estimated again. Accurate light source information is reliably estimated, and the captured image can be increased in resolution with high accuracy.

(第4の実施形態)
図36は本発明の第4の実施形態に係る画像処理システムの構成を示すブロック図である。図36において、図1に示す第1の実施形態に係る画像処理装置と共通の構成要素には、同一の符号を付しており、ここではその詳細な説明を省略する。
(Fourth embodiment)
FIG. 36 is a block diagram showing a configuration of an image processing system according to the fourth embodiment of the present invention. 36, the same reference numerals are given to the same components as those of the image processing apparatus according to the first embodiment shown in FIG. 1, and the detailed description thereof is omitted here.

図36では、通信機能を有した通信端末1100に、広角画像撮像部101と撮像装置情報取得部102が設けられている。そして、光源情報推定部103と画像高解像度化部104は、通信端末1100とネットワークで接続された外部の装置であるサーバ1101に設けられている。すなわち、本実施形態では、通信端末1000側では、全ての処理を行うのではなく、広角画像と撮像装置情報の取得のみを行い、光源情報の推定と画像の高解像度化はサーバ1101側で実行する。   In FIG. 36, a wide-angle image imaging unit 101 and an imaging device information acquisition unit 102 are provided in a communication terminal 1100 having a communication function. The light source information estimation unit 103 and the image resolution enhancement unit 104 are provided in a server 1101 that is an external device connected to the communication terminal 1100 via a network. That is, in this embodiment, the communication terminal 1000 does not perform all processing, but only acquires a wide-angle image and imaging device information, and the light source information estimation and image resolution enhancement are executed on the server 1101 side. To do.

サーバ1101と通信端末1100は互いに離れた位置にあり、サーバ1101はネットワークを介して通信端末1100と通信を行う。通信端末1000は情報送信部107を有し、情報送信部107は、広角画像撮像部101が撮像した広角画像と撮像装置情報取得部102が取得した撮像装置情報とをサーバ1101に送信する。また、通信端末1100はサーバ1101に、光源情報の推定および画像の高解像度化の内容を指示する。   The server 1101 and the communication terminal 1100 are located away from each other, and the server 1101 communicates with the communication terminal 1100 via the network. The communication terminal 1000 includes an information transmission unit 107, and the information transmission unit 107 transmits the wide-angle image captured by the wide-angle image imaging unit 101 and the imaging device information acquired by the imaging device information acquisition unit 102 to the server 1101. Further, the communication terminal 1100 instructs the server 1101 to estimate the light source information and increase the image resolution.

サーバ1101は情報受信部108を有し、情報受信部108は、通信端末1100の情報送信部107が送信した広角画像および撮像装置情報を受信する。光源情報取得部103は、受信された広角画像および撮像装置情報を用いて、光源情報を推定する。さらに、画像高解像度化部104は、受信した広角画像を、光源情報推定部103が推定した光源情報を用いて、高解像度化する。光源情報の推定および画像の高解像度化は、通信端末1100から指示された内容に従って行われる。   The server 1101 has an information receiving unit 108, and the information receiving unit 108 receives a wide-angle image and imaging device information transmitted by the information transmitting unit 107 of the communication terminal 1100. The light source information acquisition unit 103 estimates light source information using the received wide-angle image and imaging device information. Further, the image resolution increasing unit 104 increases the resolution of the received wide-angle image using the light source information estimated by the light source information estimation unit 103. The estimation of the light source information and the resolution enhancement of the image are performed according to the contents instructed from the communication terminal 1100.

このように、光源情報推定部103と画像高解像度化部104をサーバ1101に設けることによって、通信端末1100の計算負荷を軽くすることが可能である。   Thus, by providing the light source information estimation unit 103 and the image resolution enhancement unit 104 in the server 1101, the calculation load on the communication terminal 1100 can be reduced.

本発明の画像処理方法は、画像の高解像度化以外の画像処理に関しても有効である。ここでは、Computer−Graphicsで作成された画像(CG画像)を重畳表示する拡張現実表示について説明する。   The image processing method of the present invention is also effective for image processing other than increasing the resolution of an image. Here, an augmented reality display that superimposes and displays an image (CG image) created by Computer-Graphics will be described.

Computer−Graphicsで作成された画像を重畳表示する場合、CG画像を、違和感のない明るさ、色合い、陰影でもって実画像に重ね込むことが重要である(例えば、特許文献1を参照)。本発明の画像処理方法では、光源の位置や方向、輝度、色、スペクトル情報を正確に取得することができるため、このような処理が可能である。この場合、画像高解像度化部104に代えて、CG画像を実画像に重畳表示する手段を設ければよい。このような重畳表示の方法は、例えば、特許文献1のような公知の方法を利用すればよい。   When superimposing and displaying an image created by Computer-Graphics, it is important to superimpose a CG image on an actual image with brightness, hue, and shadow without a sense of incongruity (see, for example, Patent Document 1). Since the image processing method of the present invention can accurately acquire the position and direction of the light source, luminance, color, and spectrum information, such processing is possible. In this case, means for superimposing and displaying the CG image on the actual image may be provided instead of the image resolution increasing unit 104. As such a superimposed display method, for example, a known method such as Patent Document 1 may be used.

以上のように、本発明の画像処理装置を利用することによって、高解像度なデジタルズーム処理などの画像処理を行うことができる。   As described above, image processing such as high-resolution digital zoom processing can be performed by using the image processing apparatus of the present invention.

本発明によると、付加的な撮像装置を搭載することなく、光源画像を取得し、光源情報を推定することが可能となる。このため、例えば、人や車など移動体に取り付けたデジタルカメラやデジタルビデオカメラにおいて、画像の高解像度化などの画象処理を行うのに有用である。   According to the present invention, it is possible to acquire a light source image and estimate light source information without mounting an additional imaging device. For this reason, for example, in a digital camera or digital video camera attached to a moving body such as a person or a car, it is useful for performing image processing such as high resolution of an image.

本発明の第1の実施形態に係る画像処理装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an image processing apparatus according to a first embodiment of the present invention. 本発明に係る画像処理装置が搭載された機器としてのウェアラブルカメラの利用形態を示す模式図である。It is a schematic diagram which shows the utilization form of the wearable camera as an apparatus by which the image processing apparatus which concerns on this invention is mounted. 撮像された広角画像を示す模式図である。It is a schematic diagram which shows the imaged wide angle image. メモリに保持された情報の一部を示す模式図である。It is a schematic diagram which shows a part of information hold | maintained at memory. ロール・ピッチ・ヨー角表現を説明するための模式図である。It is a schematic diagram for demonstrating roll * pitch * yaw angle expression. カメラ座標系と画像座標系との関係を説明するための模式図である。It is a schematic diagram for demonstrating the relationship between a camera coordinate system and an image coordinate system. 撮像装置が移動することを利用して、光源の3次元位置を推定する処理を説明するための模式図である。It is a schematic diagram for demonstrating the process which estimates the three-dimensional position of a light source using that an imaging device moves. 画像を拡散反射画像と鏡面反射画像とに分離した例を示す図である。It is a figure which shows the example which isolate | separated the image into the diffuse reflection image and the specular reflection image. 画像高解像度化部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the image high resolution part. 本発明の実施形態に係る画像処理装置が搭載されたウェアラブルカメラを示す図である。It is a figure which shows the wearable camera by which the image processing apparatus which concerns on embodiment of this invention is mounted. 直線偏光光を照射した際、偏光フィルタを回転させたときの反射光強度の変化を示すグラフである。It is a graph which shows the change of reflected light intensity when rotating a polarizing filter when irradiated with linearly polarized light. 偏光フィルタを利用した、鏡面反射画像と拡散反射画像との分離処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a separation process of a specular reflection image and a diffuse reflection image using a polarizing filter. 画素ごとに偏光方向が異なる撮像装置を説明するための模式図である。It is a schematic diagram for demonstrating the imaging device from which a polarization direction differs for every pixel. 照度差ステレオ法を利用して、被写体の距離や3次元位置を求める処理を説明するための模式図である。It is a schematic diagram for demonstrating the process which calculates | requires the distance of a to-be-photographed object and a three-dimensional position using an illuminance difference stereo method. 反射光の偏光特性を利用した形状情報の取得処理を説明するための模式図である。It is a schematic diagram for demonstrating the acquisition process of the shape information using the polarization characteristic of reflected light. 自然光を照射した際、偏光フィルタを回転させたときの反射光強度の変化を示すグラフである。It is a graph which shows the change of reflected light intensity when rotating a polarizing filter, when natural light is irradiated. テキストンに基づく高解像度化処理の概念を示す模式図である。It is a schematic diagram which shows the concept of the high resolution processing based on texton. 線形マトリクス変換を利用したテキストンに基づく高解像度化処理を説明するための概念図である。It is a conceptual diagram for demonstrating the high resolution process based on the texton using linear matrix conversion. テキストンに基づく高解像度化処理における学習処理の流れを示すPAD図である。It is a PAD figure which shows the flow of the learning process in the high resolution processing based on texton. テキストンに基づく高解像度化処理における学習処理を説明するための模式図である。It is a schematic diagram for demonstrating the learning process in the high resolution processing based on texton. 2次元離散定常ウェーブレット変換の処理を示す図である。It is a figure which shows the process of a two-dimensional discrete stationary wavelet transform. 2次元離散定常ウェーブレット変換をテスト画像に実施した場合の画像結果例である。It is an example of an image result at the time of implementing a two-dimensional discrete stationary wavelet transform to a test image. テキストンに基づく高解像度化処理における実行時の処理の流れを示すPAD図である。It is a PAD figure which shows the flow of the process at the time of execution in the high resolution processing based on texton. テキストンに基づく高解像度化処理における実行時の処理を説明するための模式図である。It is a schematic diagram for demonstrating the process at the time of the high resolution process based on texton. 2次元離散定常逆ウェーブレット変換の処理を示す図である。It is a figure which shows the process of a two-dimensional discrete stationary inverse wavelet transform. 拡散反射成分と鏡面反射成分の輝度値の違いを表現するための定数Srを説明するための模式図である。It is a schematic diagram for demonstrating the constant Sr for expressing the difference of the luminance value of a diffuse reflection component and a specular reflection component. 画像高解像度化処理における鏡面反射画像のパラメータ推定処理の流れを示す図である。It is a figure which shows the flow of the parameter estimation process of the specular reflection image in an image high resolution process. 入射照度を表す式の各パラメータを説明するための概念図である。It is a conceptual diagram for demonstrating each parameter of the type | formula showing incident illumination intensity. シンプレックス法によるパラメータ推定処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the parameter estimation process by a simplex method. シンプレックス法におけるパラメータ更新処理の流れを示したフローチャートである。It is the flowchart which showed the flow of the parameter update process in a simplex method. 極座標表現を説明するための模式図である。It is a schematic diagram for demonstrating polar coordinate expression. 画像高解像度化処理における拡散反射画像のパラメータ推定処理の流れを示す図である。It is a figure which shows the flow of the parameter estimation process of the diffuse reflection image in an image high resolution process. 本発明の第2の実施形態に係る画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第3の実施形態に係る画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus which concerns on the 3rd Embodiment of this invention. 被写体の観察点と撮像装置および光源との位置関係を示す模式図である。It is a schematic diagram which shows the positional relationship of the observation point of a to-be-photographed object, an imaging device, and a light source. 本発明の第4の実施形態に係る画像処理システムの構成を示すブロック図である。It is a block diagram which shows the structure of the image processing system which concerns on the 4th Embodiment of this invention.

符号の説明Explanation of symbols

101 広角画像撮像部
102 撮像装置情報取得部
103 光源情報推定部
104 画像高解像度化部
105 光源環境判定部
106 推定光源情報判定部
204 形状情報取得部
1001 撮像装置
1020 角度センサ
1024 GPSセンサ
1100 通信端末
1101 サーバ
DESCRIPTION OF SYMBOLS 101 Wide-angle image imaging part 102 Imaging device information acquisition part 103 Light source information estimation part 104 Image high resolution part 105 Light source environment determination part 106 Estimated light source information determination part 204 Shape information acquisition part 1001 Imaging apparatus 1020 Angle sensor 1024 GPS sensor 1100 Communication terminal 1101 server

Claims (18)

広角画像を撮像可能な撮像装置を用いて、被写体を、自動的に連続して撮像する広角画像撮像部と、
前記広角画像撮像部によって撮像が行われたときにおける、前記撮像装置の状況を表す撮像装置情報を、取得する撮像装置情報取得部と、
前記広角画像撮像部によって撮像された広角画像と、前記撮像装置情報取得部によって取得された撮像装置情報とを用いて、光源の位置、色および照度を含む光源情報を推定する光源情報推定部と、
前記広角画像を、前記光源情報推定部によって推定された光源情報を用いて、高解像度化する画像高解像度化部とを備えた
ことを特徴とする画像処理装置。
A wide-angle image capturing unit that automatically and continuously images a subject using an imaging device capable of capturing a wide-angle image;
An imaging device information acquisition unit that acquires imaging device information representing a situation of the imaging device when imaging is performed by the wide-angle image imaging unit;
A light source information estimation unit that estimates light source information including a position, a color, and illuminance of a light source using the wide angle image captured by the wide angle image capturing unit and the imaging device information acquired by the imaging device information acquisition unit; ,
An image processing apparatus comprising: an image high-resolution unit that increases the resolution of the wide-angle image using the light source information estimated by the light source information estimation unit.
請求項1記載の画像処理装置において、
前記撮像装置情報取得部は、
前記撮像装置に搭載された角度センサの出力、および、前記広角画像撮像部が撮像した画像のうち、少なくともいずれか一方を用いて、前記撮像装置情報を取得するものである
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The imaging device information acquisition unit
The image obtained by acquiring the imaging device information using at least one of an output of an angle sensor mounted on the imaging device and an image captured by the wide-angle image capturing unit. Processing equipment.
請求項1記載の画像処理装置において、
前記広角画像撮像部は、前記撮像装置の画素の露光時間を、領域毎に、異なる値に設定する
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The wide-angle image capturing unit sets an exposure time of a pixel of the image capturing device to a different value for each region.
請求項3記載の画像処理装置において、
前記広角画像撮像部は、前記撮像装置のレンズの周辺部に対応する領域において、画素の露光時間を、前記レンズの中心部に対応する領域よりも、短く設定する
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 3.
The wide-angle image capturing unit sets an exposure time of a pixel in a region corresponding to a peripheral portion of a lens of the image capturing device shorter than a region corresponding to a central portion of the lens. .
請求項1記載の画像処理装置において、
前記被写体の、表面の法線情報または3次元位置情報を、形状情報として取得する形状情報取得部を備え、
前記画像高解像度化部は、
前記形状情報取得部によって取得された形状情報を用いて、前記広角画像の高解像度化を行うものである
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
A shape information acquisition unit that acquires surface normal information or three-dimensional position information of the subject as shape information;
The image high-resolution part is
An image processing apparatus, wherein the resolution of the wide-angle image is increased using the shape information acquired by the shape information acquisition unit.
請求項5記載の画像処理装置において、
前記画像高解像度化部は、前記広角画像を拡散反射成分と鏡面反射成分とに分離し、分離した拡散反射成分と鏡面反射成分とを、個別に、高解像化するものである
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 5.
The image high-resolution unit separates the wide-angle image into a diffuse reflection component and a specular reflection component, and individually separates the diffuse reflection component and the specular reflection component into a high resolution. An image processing apparatus.
請求項5記載の画像処理装置において、
前記画像高解像度化部は、前記広角画像をパラメータに分解し、分解したパラメータを、個別に、高解像化するものである
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 5.
The image processing device according to claim 1, wherein the image resolution increasing unit decomposes the wide-angle image into parameters, and individually increases the resolution of the decomposed parameters.
請求項1記載の画像処理装置において、
前記画像高解像度化部は、高解像度化の拡大倍率を、画像の領域毎に、異なる値に設定する
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The image processing device according to claim 1, wherein the image resolution increasing unit sets the enlargement magnification for increasing the resolution to a different value for each area of the image.
請求項8記載の画像処理装置において、
前記画像高解像度化部は、前記撮像装置のレンズの周辺部に対応する領域において、拡大倍率を、前記レンズの中心部に対応する領域よりも、高く設定する
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 8.
The image processing apparatus, wherein the image resolution increasing unit sets an enlargement magnification higher in a region corresponding to a peripheral portion of the lens of the imaging device than in a region corresponding to the central portion of the lens.
請求項1記載の画像処理装置において、
前記撮像装置に対する光源環境が変化したか否かを判定する光源環境判定部を備え、
前記光源情報推定部は、光源環境が変化したと前記光源環境判定部によって判定されたとき、光源情報の推定を行う
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
A light source environment determination unit that determines whether or not the light source environment for the imaging device has changed,
The light source information estimation unit estimates light source information when the light source environment determination unit determines that the light source environment has changed.
請求項10記載の画像処理装置において、
前記光源環境判定部は、
前記撮像装置に搭載された角度センサの出力から、前記撮像装置が移動したか否かを判定し、移動したとき、光源環境が変化したと判定する
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 10.
The light source environment determination unit
An image processing apparatus comprising: determining whether or not the imaging apparatus has moved from an output of an angle sensor mounted on the imaging apparatus; and determining that the light source environment has changed when the imaging apparatus has moved.
請求項10記載の画像処理装置において、
前記撮像環境判定部は、
前記広角画像撮像部が撮像した画像を用いて、前記撮像装置が移動したか否かを判定し、移動したとき、光源環境が変化したと判定する
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 10.
The imaging environment determination unit
An image processing apparatus, wherein an image captured by the wide-angle image capturing unit is used to determine whether or not the image capturing apparatus has moved, and when the image capturing apparatus has moved, it is determined that the light source environment has changed.
請求項1記載の画像処理装置において、
前記光源情報推定部が光源情報を正確に推定しているか否かを判定する推定光源情報判定部を備え、
前記光源情報推定部は、光源情報を正確に推定していないと前記推定光源情報判定部によって判定されたとき、再度、光源情報の推定を行う
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
An estimated light source information determination unit that determines whether the light source information estimation unit accurately estimates light source information;
The light source information estimation unit estimates the light source information again when the estimated light source information determination unit determines that the light source information is not accurately estimated.
請求項13記載の画像処理装置において、
前記推定光源情報判定部は、GPS(Global Positioning System)センサの出力と時刻情報とを用いて、太陽光の方向または太陽の位置を推定し、推定した方向または位置を、前記光源情報推定部によって推定された光源情報と対比することによって、判定を行う
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 13.
The estimated light source information determination unit estimates the direction of sunlight or the position of the sun using the output of a GPS (Global Positioning System) sensor and time information, and the estimated direction or position is determined by the light source information estimation unit. An image processing apparatus that performs determination by comparing with estimated light source information.
請求項13記載の画像処理装置において、
前記推定光源情報判定部は、被写体の形状情報と、前記光源情報推定部が推定した光源情報とを用いて、前記被写体の画像を推定し、推定した画像を、前記広角画像撮像部によって撮像された画像と対比することによって、判定を行う
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 13.
The estimated light source information determination unit estimates an image of the subject using shape information of the subject and light source information estimated by the light source information estimation unit, and the estimated image is captured by the wide-angle image capturing unit. An image processing apparatus that performs a determination by comparing with an image.
請求項13記載の画像処理装置において、
前記推定光源情報判定部は、前記広角画像撮像部によって撮像された画像の色情報を、前記光源情報推定部によって推定された光源の色と対比することによって、判定を行う
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 13.
The estimated light source information determination unit performs determination by comparing color information of an image captured by the wide-angle image capturing unit with a color of a light source estimated by the light source information estimation unit. Processing equipment.
画像を高解像度化する画像処理システムであって、
請求項1記載の広角画像撮像部および撮像装置情報取得部を有し、前記広角画像撮像部によって撮像された広角画像、および前記撮像装置情報取得部によって取得された撮像装置情報を送信する通信端末と、
請求項1記載の光源情報推定部および画像高解像度化部を有し、前記通信端末から送信された前記広角画像および前記撮像装置情報を受信し、前記広角画像を前記光源情報推定部および画像高解像度化部に与えるとともに、前記撮像装置情報を前記光源情報推定部に与えるサーバとを備え、
前記通信端末は、前記サーバに、光源情報の推定および画像の高解像度化の内容を指示する
ことを特徴とする画像処理システム。
An image processing system for increasing the resolution of an image,
A communication terminal having the wide-angle image capturing unit and the imaging device information acquiring unit according to claim 1 and transmitting the wide-angle image captured by the wide-angle image capturing unit and the imaging device information acquired by the imaging device information acquiring unit. When,
A light source information estimation unit and an image resolution enhancement unit according to claim 1, wherein the wide angle image and the imaging device information transmitted from the communication terminal are received, and the wide angle image is converted into the light source information estimation unit and the image height. A server for providing to the resolution unit, and for providing the imaging device information to the light source information estimation unit,
The communication terminal instructs the server to estimate light source information and to increase the resolution of an image.
広角画像を撮像可能な撮像装置を用いて、被写体を、自動的に連続して撮像する第1のステップと、
前記第1のステップにおいて撮像が行われたときにおける、前記撮像装置の状況を表す撮像装置情報を、取得する第2のステップと、
前記第1のステップにおいて撮像した広角画像と、前記第2のステップにおいて取得した撮像装置情報とを用いて、光源の位置、色および照度を含む光源情報を推定する第3のステップと、
前記広角画像を、前記第3のステップにおいて推定した光源情報を用いて、高解像度化する第4のステップとを備えた
ことを特徴とする画像処理方法。
A first step of automatically and continuously imaging a subject using an imaging device capable of imaging a wide-angle image;
A second step of acquiring imaging device information representing a state of the imaging device when imaging is performed in the first step;
A third step of estimating light source information including the position, color, and illuminance of the light source using the wide-angle image captured in the first step and the imaging device information acquired in the second step;
And a fourth step of increasing the resolution of the wide-angle image using the light source information estimated in the third step.
JP2006183168A 2006-07-03 2006-07-03 Image processor, image processing system, and image processing method Pending JP2008016918A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006183168A JP2008016918A (en) 2006-07-03 2006-07-03 Image processor, image processing system, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006183168A JP2008016918A (en) 2006-07-03 2006-07-03 Image processor, image processing system, and image processing method

Publications (1)

Publication Number Publication Date
JP2008016918A true JP2008016918A (en) 2008-01-24

Family

ID=39073565

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006183168A Pending JP2008016918A (en) 2006-07-03 2006-07-03 Image processor, image processing system, and image processing method

Country Status (1)

Country Link
JP (1) JP2008016918A (en)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009110082A1 (en) * 2008-03-06 2009-09-11 富士通株式会社 Image photographic device, image photographic method, and image photographic program
JP2010073035A (en) * 2008-09-19 2010-04-02 Sharp Corp Image generation apparatus, image generation method, image generation program, and computer readable recording medium recording the program
WO2010079557A1 (en) * 2009-01-06 2010-07-15 パナソニック株式会社 Apparatus for detecting direction of image pickup device and moving body comprising same
JP2011064566A (en) * 2009-09-17 2011-03-31 Fujitsu Ltd Distance estimation apparatus
WO2011070708A1 (en) * 2009-12-08 2011-06-16 パナソニック株式会社 Image processing apparatus
JP2012247356A (en) * 2011-05-30 2012-12-13 Canon Inc Imaging module, imaging apparatus, image processing apparatus, and image processing method
JP2013516882A (en) * 2010-01-07 2013-05-13 3ディー スイッチ エス.アール.エル. Apparatus and method for recognizing stereoscopic glasses, and method for controlling display of a stereoscopic video stream
JP2013517579A (en) * 2010-03-25 2013-05-16 ビズモードライン カンパニー リミテッド Augmented reality system
JP2013253946A (en) * 2011-09-22 2013-12-19 Nippon Telegr & Teleph Corp <Ntt> Light source distribution estimation apparatus, light source distribution estimation method and light source distribution estimation program
JP2014502741A (en) * 2010-12-09 2014-02-03 サムスン エレクトロニクス カンパニー リミテッド Image processing apparatus, illumination processing apparatus and method thereof
CN103973944A (en) * 2013-02-06 2014-08-06 深圳市振华微电子有限公司 Hemispherical omnidirectional imaging device and hemispherical omnidirectional imaging method
US20140333717A1 (en) * 2013-05-10 2014-11-13 Hyundai Motor Company Apparatus and method for image processing of vehicle
CN104604214A (en) * 2012-09-25 2015-05-06 三星电子株式会社 Method and apparatus for generating photograph image
JP2015537211A (en) * 2012-11-15 2015-12-24 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン Measurement of fiber orientation of carbon fiber materials and production of objects in carbon fiber composite structures
WO2015198851A1 (en) * 2014-06-23 2015-12-30 コニカミノルタ株式会社 Distance measurement device and distance measurement method
JP2016086249A (en) * 2014-10-23 2016-05-19 カシオ計算機株式会社 Display unit, display control method and display control program
WO2016162983A1 (en) * 2015-04-08 2016-10-13 日立マクセル株式会社 Vehicle-mounted camera
JP2017161370A (en) * 2016-03-09 2017-09-14 株式会社ニコン Detector, detection system, detection method and detection program
JP2019198429A (en) * 2018-05-15 2019-11-21 コニカミノルタ株式会社 Ultrasonic diagnostic apparatus
JP2019534515A (en) * 2016-11-03 2019-11-28 クゥアルコム・インコーポレイテッドQualcomm Incorporated Improved depth map image for mobile devices
WO2019239462A1 (en) * 2018-06-11 2019-12-19 株式会社ソニー・インタラクティブエンタテインメント Learning device, image generation device, learning method, image generation method, and program
US10721395B2 (en) 2017-10-06 2020-07-21 Canon Kabushiki Kaisha Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium
CN112449108A (en) * 2019-08-29 2021-03-05 史克威尔·艾尼克斯有限公司 Non-transitory computer readable medium and image processing system
JP7378997B2 (en) 2019-07-22 2023-11-14 キヤノン株式会社 Information processing device, information processing method and program
JP7419908B2 (en) 2020-03-19 2024-01-23 Toppanホールディングス株式会社 Image processing system, image processing method, and program

Cited By (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8218063B2 (en) 2008-03-06 2012-07-10 Fujitsu Limited Image capturing apparatus, image capturing method, and image capturing program
JP4791595B2 (en) * 2008-03-06 2011-10-12 富士通株式会社 Image photographing apparatus, image photographing method, and image photographing program
WO2009110082A1 (en) * 2008-03-06 2009-09-11 富士通株式会社 Image photographic device, image photographic method, and image photographic program
JP2010073035A (en) * 2008-09-19 2010-04-02 Sharp Corp Image generation apparatus, image generation method, image generation program, and computer readable recording medium recording the program
WO2010079557A1 (en) * 2009-01-06 2010-07-15 パナソニック株式会社 Apparatus for detecting direction of image pickup device and moving body comprising same
JP5357902B2 (en) * 2009-01-06 2013-12-04 パナソニック株式会社 Imaging device orientation detection device and moving body including the device
US8390696B2 (en) 2009-01-06 2013-03-05 Panasonic Corporation Apparatus for detecting direction of image pickup device and moving body comprising same
CN102177719A (en) * 2009-01-06 2011-09-07 松下电器产业株式会社 Apparatus for detecting direction of image pickup device and moving body comprising same
JP2011064566A (en) * 2009-09-17 2011-03-31 Fujitsu Ltd Distance estimation apparatus
CN102356628A (en) * 2009-12-08 2012-02-15 松下电器产业株式会社 Image processing apparatus
US8654246B2 (en) 2009-12-08 2014-02-18 Panasonic Corporation High resolution images using polarized light source and polarization camera
JP4762369B2 (en) * 2009-12-08 2011-08-31 パナソニック株式会社 Image processing device
WO2011070708A1 (en) * 2009-12-08 2011-06-16 パナソニック株式会社 Image processing apparatus
CN102356628B (en) * 2009-12-08 2015-03-11 松下电器产业株式会社 Image processing apparatus and image processing method
JP2013516882A (en) * 2010-01-07 2013-05-13 3ディー スイッチ エス.アール.エル. Apparatus and method for recognizing stereoscopic glasses, and method for controlling display of a stereoscopic video stream
JP2013517579A (en) * 2010-03-25 2013-05-16 ビズモードライン カンパニー リミテッド Augmented reality system
JP2014502741A (en) * 2010-12-09 2014-02-03 サムスン エレクトロニクス カンパニー リミテッド Image processing apparatus, illumination processing apparatus and method thereof
JP2012247356A (en) * 2011-05-30 2012-12-13 Canon Inc Imaging module, imaging apparatus, image processing apparatus, and image processing method
JP2013253946A (en) * 2011-09-22 2013-12-19 Nippon Telegr & Teleph Corp <Ntt> Light source distribution estimation apparatus, light source distribution estimation method and light source distribution estimation program
CN104604214A (en) * 2012-09-25 2015-05-06 三星电子株式会社 Method and apparatus for generating photograph image
JP2015537211A (en) * 2012-11-15 2015-12-24 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン Measurement of fiber orientation of carbon fiber materials and production of objects in carbon fiber composite structures
CN103973944A (en) * 2013-02-06 2014-08-06 深圳市振华微电子有限公司 Hemispherical omnidirectional imaging device and hemispherical omnidirectional imaging method
US20140333717A1 (en) * 2013-05-10 2014-11-13 Hyundai Motor Company Apparatus and method for image processing of vehicle
WO2015198851A1 (en) * 2014-06-23 2015-12-30 コニカミノルタ株式会社 Distance measurement device and distance measurement method
JP2016086249A (en) * 2014-10-23 2016-05-19 カシオ計算機株式会社 Display unit, display control method and display control program
WO2016162983A1 (en) * 2015-04-08 2016-10-13 日立マクセル株式会社 Vehicle-mounted camera
CN107407855A (en) * 2015-04-08 2017-11-28 日立麦克赛尔株式会社 Vehicle-mounted vidicon
JPWO2016162983A1 (en) * 2015-04-08 2017-12-07 マクセルホールディングス株式会社 Vehicle mounted camera
US10725216B2 (en) 2015-04-08 2020-07-28 Maxell, Ltd. Onboard camera
CN107407855B (en) * 2015-04-08 2019-12-13 麦克赛尔株式会社 Vehicle-mounted camera
JP2017161370A (en) * 2016-03-09 2017-09-14 株式会社ニコン Detector, detection system, detection method and detection program
JP2019534515A (en) * 2016-11-03 2019-11-28 クゥアルコム・インコーポレイテッドQualcomm Incorporated Improved depth map image for mobile devices
US10721395B2 (en) 2017-10-06 2020-07-21 Canon Kabushiki Kaisha Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium
JP2019198429A (en) * 2018-05-15 2019-11-21 コニカミノルタ株式会社 Ultrasonic diagnostic apparatus
JP7014044B2 (en) 2018-05-15 2022-02-01 コニカミノルタ株式会社 Ultrasound diagnostic device
WO2019239462A1 (en) * 2018-06-11 2019-12-19 株式会社ソニー・インタラクティブエンタテインメント Learning device, image generation device, learning method, image generation method, and program
JPWO2019239462A1 (en) * 2018-06-11 2021-02-18 株式会社ソニー・インタラクティブエンタテインメント Learning device, image generator, learning method, image generation method and program
US11625816B2 (en) 2018-06-11 2023-04-11 Sony Interactive Entertainment Inc. Learning device, image generation device, learning method, image generation method, and program
JP7378997B2 (en) 2019-07-22 2023-11-14 キヤノン株式会社 Information processing device, information processing method and program
CN112449108A (en) * 2019-08-29 2021-03-05 史克威尔·艾尼克斯有限公司 Non-transitory computer readable medium and image processing system
US11425312B2 (en) 2019-08-29 2022-08-23 Square Enix Co., Ltd. Image processing program, and image processing system causing a server to control synthesis of a real space image and a virtual object image
JP7419908B2 (en) 2020-03-19 2024-01-23 Toppanホールディングス株式会社 Image processing system, image processing method, and program

Similar Documents

Publication Publication Date Title
JP4077869B2 (en) Light source estimation device, light source estimation system, light source estimation method, image resolution increasing device, and image resolution increasing method
JP2008016918A (en) Image processor, image processing system, and image processing method
US7948622B2 (en) System, method and apparatus for image processing and image format
CN110148204B (en) Method and system for representing virtual objects in a view of a real environment
US8432435B2 (en) Ray image modeling for fast catadioptric light field rendering
US7948514B2 (en) Image processing apparatus, method and computer program for generating normal information, and viewpoint-converted image generating apparatus
JP5276059B2 (en) Image processing apparatus and pseudo-stereoscopic image generation apparatus
JP5872818B2 (en) Positioning processing device, positioning processing method, and image processing device
KR100834157B1 (en) Method for Light Environment Reconstruction for Image Synthesis and Storage medium storing program therefor.
WO2015200490A1 (en) Visual cognition system
CN104735351A (en) High resolution light field image recreation method and imaging device
CN113436130B (en) Intelligent sensing system and device for unstructured light field
Balzer et al. Cavlectometry: Towards holistic reconstruction of large mirror objects
WO2020163742A1 (en) Integrated spatial phase imaging
Puerta et al. Photogrammetry as an Engineering Design Tool
CN116245741B (en) Image processing method and related device
Corke Image Formation
CN117876562A (en) Optimization method for texture mapping of non-lambertian surface based on consumer-level RGB-D sensor
Matsuyama et al. Multi-camera systems for 3d video production
Zhou Omnidirectional High Dynamic Range Imaging with a Moving Camera