JP2018032947A - Image processing device and image processing method - Google Patents
Image processing device and image processing method Download PDFInfo
- Publication number
- JP2018032947A JP2018032947A JP2016163035A JP2016163035A JP2018032947A JP 2018032947 A JP2018032947 A JP 2018032947A JP 2016163035 A JP2016163035 A JP 2016163035A JP 2016163035 A JP2016163035 A JP 2016163035A JP 2018032947 A JP2018032947 A JP 2018032947A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- image
- image processing
- unit
- shape
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 51
- 238000003672 processing method Methods 0.000 title claims 2
- 238000012937 correction Methods 0.000 claims abstract description 42
- 238000003384 imaging method Methods 0.000 claims abstract description 13
- 238000005286 illumination Methods 0.000 claims description 17
- 238000000034 method Methods 0.000 description 22
- 230000008569 process Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 10
- 238000005259 measurement Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000010422 painting Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- PCTMTFRHKVHKIS-BMFZQQSSSA-N (1s,3r,4e,6e,8e,10e,12e,14e,16e,18s,19r,20r,21s,25r,27r,30r,31r,33s,35r,37s,38r)-3-[(2r,3s,4s,5s,6r)-4-amino-3,5-dihydroxy-6-methyloxan-2-yl]oxy-19,25,27,30,31,33,35,37-octahydroxy-18,20,21-trimethyl-23-oxo-22,39-dioxabicyclo[33.3.1]nonatriaconta-4,6,8,10 Chemical compound C1C=C2C[C@@H](OS(O)(=O)=O)CC[C@]2(C)[C@@H]2[C@@H]1[C@@H]1CC[C@H]([C@H](C)CCCC(C)C)[C@@]1(C)CC2.O[C@H]1[C@@H](N)[C@H](O)[C@@H](C)O[C@H]1O[C@H]1/C=C/C=C/C=C/C=C/C=C/C=C/C=C/[C@H](C)[C@@H](O)[C@@H](C)[C@H](C)OC(=O)C[C@H](O)C[C@H](O)CC[C@@H](O)[C@H](O)C[C@H](O)C[C@](O)(C[C@H](O)[C@H]2C(O)=O)O[C@H]2C1 PCTMTFRHKVHKIS-BMFZQQSSSA-N 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、複製作成に利用する画像の生成技術に関するものである。 The present invention relates to an image generation technique used for creating a copy.
近年、貴重な文化財を公開する活動と、将来にわたって保護、保存することとを両立するために、文化財の複製を作成することが広まっている。複製作成の一例として、文化財が障壁画や屏風といった日本画であれば、文化財を破損することなく画像を取得するため、デジタルカメラを用いて撮影を行い、撮影した画像を実物大で出力するという手法が一般的である。 In recent years, it has become widespread to create a copy of a cultural property in order to achieve both the activities of disclosing precious cultural properties and protecting and preserving them in the future. As an example of creating a duplicate, if the cultural property is a Japanese painting such as a barrier painting or folding screen, in order to acquire the image without damaging the cultural property, take a picture with a digital camera and output the captured image in full size The technique of doing is common.
特許文献1は、複数角度での撮影画像から被写体が持つ本来の色情報を復元する技術が開示している。また、複数角度での撮影画像中の被写体の前に遮蔽物が映っている場合は、遮蔽物が映っていない撮影角度での画像データの画素値を平均して、色情報を生成することが記載されている。
ところで、被写体によっては撮影角度などの撮影条件に依存して撮影により得られる色情報が異なる場合がある。そのため、例えば経年劣化によってたわみや反りなどの変形が生じた作品を撮影した場合、当該変形に依存して本来の色とは異なる色の撮影画像が得られることになる。しかしながら、上述の特許文献1に記載の技術では、このような問題に対処することが出来ない。
By the way, depending on the subject, color information obtained by photographing may differ depending on photographing conditions such as a photographing angle. For this reason, for example, when a work that has undergone deformation such as deflection or warpage due to deterioration over time, a photographed image having a color different from the original color is obtained depending on the deformation. However, the technique described in
本発明はこのような問題を鑑みてなされたものであり、複製作成に好適な画像を生成可能とする技術を提供することを目的とする。 The present invention has been made in view of such a problem, and an object thereof is to provide a technique capable of generating an image suitable for creating a duplicate.
上述の問題点を解決するため、本発明に係る画像処理装置は以下の構成を備える。すなわち、画像処理装置は、被写体を構成する各領域の法線情報を取得する法線取得手段と、互いに異なる複数の撮影条件で前記被写体を撮影した複数の撮影画像を取得する画像取得手段と、前記複数の撮影画像と前記法線情報とに基づいて、前記被写体を構成する各領域について所定の撮影条件を満たすよう構成された補正画像を生成する生成手段と、を有する。 In order to solve the above-described problems, an image processing apparatus according to the present invention has the following configuration. That is, the image processing apparatus includes a normal acquisition unit that acquires normal information of each region constituting the subject, an image acquisition unit that acquires a plurality of captured images obtained by capturing the subject under a plurality of different shooting conditions, Generating means for generating a corrected image configured to satisfy a predetermined shooting condition for each region constituting the subject based on the plurality of shot images and the normal line information;
本発明によれば、複製作成に好適な画像を生成可能とする技術を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the technique which enables the production | generation of an image suitable for replica production can be provided.
以下に、図面を参照して、この発明の好適な実施の形態を詳しく説明する。なお、以下の実施の形態はあくまで例示であり、本発明の範囲を限定する趣旨のものではない。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. The following embodiments are merely examples, and are not intended to limit the scope of the present invention.
(第1実施形態)
本発明に係る画像処理装置の第1実施形態として、撮影部により得られた撮影画像に基づいて画像を生成する画像処理装置を例に挙げて以下に説明する。
(First embodiment)
As a first embodiment of an image processing apparatus according to the present invention, an image processing apparatus that generates an image based on a photographed image obtained by a photographing unit will be described below as an example.
<システム構成>
図1は、第1実施形態で使用される各種データを説明する図である。第1実施形態に係る画像処理装置101は、被写体1を複数の撮影角度で撮影した複数の撮影画像データ3を撮影部102から取得する。また、画像処理装置101は、被写体1の表面形状を示す法線情報4を計測部103から取得する。そして、画像処理装置101は、複数の撮影画像データ3と法線情報4とに基づいて、復元画像データ6を生成し出力部109に出力する。
<System configuration>
FIG. 1 is a diagram illustrating various data used in the first embodiment. The
ここでは、撮影部102は、図1に示すように、照明部である照明装置2による被写体1への照明方向と撮影部102による被写体1の撮影方向とのなす角が45度となる状態で撮影を行うことを想定する。もちろん、45度に限定されるものではなく他の角度となるように構成してもよい。
Here, as shown in FIG. 1, the photographing
画像処理装置101は、複数の撮影角度(角度A、B)により得られた複数の撮影画像データ3それぞれに対して、法線情報4を用いて画像形状の補正を行う。具体的には、撮影角度による変形を補正する射影変換や、被写体1自身の変形(たわみなど)に依存した画像の形状補正を行う。ここでは、同じ画像サイズの複数の形状補正画像データ5を生成する。そして、画像処理装置101は、法線情報4と複数の形状補正画像データ5を用いて復元画像データ6を生成する。
The
図2は、第1実施形態に係る画像処理システムの構成を示すブロック図である。画像処理システムは、画像処理装置101、撮影部102、計測部103、出力部109を有している。また、画像処理装置101は、画像取得部104、情報取得部105、補正部106、保持部107、生成部108を含んでいる。
FIG. 2 is a block diagram illustrating a configuration of the image processing system according to the first embodiment. The image processing system includes an
上述のように、画像処理装置101は、被写体の撮影画像データと被写体の法線情報を取得し、復元画像データを出力する処理を行う。撮影部102は、例えば、被写体を撮影し撮影画像データを出力するデジタルカメラである。計測部103は、被写体の表面形状情報を取得し、当該被写体の法線情報を出力する3次元形状計測カメラである。
As described above, the
画像取得部104は、撮影部102で撮影した撮影画像データを取得する機能部である。情報取得部105は、計測部103で計測した被写体の法線情報を取得する機能部(法線取得手段)である。補正部106は、様々な角度で撮影された撮影画像データに含まれる被写体画像に対して形状変換を施し形状補正画像データを生成する機能部である。
The
保持部107は、補正部106で補正された形状補正画像データと情報取得部105で取得した法線情報とを記憶する機能部である。生成部108は、法線情報と形状補正画像データから、被写体の本来の色を再現した2次元の復元画像データを生成する機能部である。出力部109は、例えば、復元画像データを紙などの記録媒体に印刷する印刷装置である。
The
なお、画像処理装置101は、例えば、コンピュータ(PC)とソフトウェアプログラムの組みあわせによっても実現可能である。もちろん、各機能部の一部または全部をASIC(特定用途向け集積回路)などのハードウェアにより実現してもよい。
Note that the
<画像処理システムの動作>
図3は、第1実施形態における画像処理装置の動作を示すフローチャートである。
<Operation of image processing system>
FIG. 3 is a flowchart showing the operation of the image processing apparatus in the first embodiment.
ステップS1では、画像取得部104は、撮影部102で撮影した撮影画像データ3を取得する。撮影画像データ3は、例えば、TIFFやJPGなどのビットマップ形式の画像データである。
In step S <b> 1, the
ステップS2では、情報取得部105は、計測部103で計測した被写体1の法線情報4を取得する。法線情報4とは、被写体の表面の立体形状を元に作られた、被写体1の領域毎の法線方向を表すデータである。
In step S <b> 2, the
図4は、法線情報を説明する図である。図4(a)は、計測部103が取得した被写体の表面形状情報に基づく立体形状データ401を例示的に示す図である。立体形状データ401は、法線情報を生成するための立体形状を表すデータであり、例えばワイヤーフレームデータである。ワイヤーフレームデータは、オブジェクトの形状を微小平面の集合体として表現される。すなわち、微小平面のそれぞれから法線方向を計算することにより法線情報を生成することが出来る。
FIG. 4 is a diagram for explaining normal line information. FIG. 4A is a diagram exemplarily showing the three-
図4(b)は、立体形状データ401上のワイヤーフレームで囲まれた1つのメッシュ領域402の拡大図である。メッシュ領域402に対する法線ベクトルNは、メッシュ領域402の4点の座標をABCDとしたとき、以下の数式(1)のように算出できる。
FIG. 4B is an enlarged view of one
この法線ベクトルを各メッシュ領域で算出することで全領域の法線情報を取得することができる。なお、メッシュの数は被写体のたわみや反りなどの形状変化に応じて数を変更することが望ましい。被写体の形状変化が大きい箇所には細かいメッシュが必要であるが、被写体の形状変化がほとんどなく平坦部であれば大まかなメッシュデータで構わない。 By calculating this normal vector in each mesh region, normal information of the entire region can be acquired. Note that the number of meshes is preferably changed in accordance with a shape change such as deflection or warping of the subject. A fine mesh is required at a location where the subject's shape change is large, but rough mesh data may be used as long as there is almost no change in the shape of the subject and it is a flat part.
例えば、紙のカール量を曲率値として算出し、曲率値に応じて法線情報のデータ数を決定することができる。紙のカールの曲率値が1/Rの場合、5度の円弧の長さに相当する4πR×5/360=0.17Rの長さを紙面上での格子点の数とする。この場合、例えば、紙のカールの曲率値が10cmのとき、格子点の間隔は1.7cmである。また、立体形状データの形式は、ワイヤーフレームに限らない。各部の法線方向を読み出すことのできるデータ形式であれば、ポリゴンデータ、サーフェスデータ、など任意のデータ形式で構わない。 For example, the amount of paper curl can be calculated as a curvature value, and the number of normal line information data can be determined according to the curvature value. When the curvature value of the paper curl is 1 / R, the length of 4πR × 5/360 = 0.17R corresponding to the length of the arc of 5 degrees is set as the number of lattice points on the paper surface. In this case, for example, when the curvature value of the paper curl is 10 cm, the interval between the lattice points is 1.7 cm. The format of the solid shape data is not limited to the wire frame. Any data format such as polygon data or surface data may be used as long as the data can read the normal direction of each part.
図4(c)は、法線情報の概念図である。法線情報403は、形状補正が施された2次元の被写体のワイヤーフレームで囲まれたメッシュ領域毎の法線に関連する情報を含んでいる。ここでは、メッシュ領域毎に法線角度として3次元のベクトル情報が記憶されているものとする。また、ここでは、メッシュ形状を正方格子で記述しているが、この形に限定せず三角形など任意のメッシュ形状でもよい。
FIG. 4C is a conceptual diagram of normal information. The
ステップS3では、補正部106は、撮影画像データ3における被写体形状を補正し、保持部107に形状補正画像データ5を格納する。なお、S3の処理の詳細は後述する。
In step S <b> 3, the
ステップS4では、生成部108は、法線情報4及び複数の形状補正画像データ5に基づき、被写体の各領域の法線方向から観察した色になるように2次元の復元画像データ6を生成する。なお、S4の処理の詳細は後述する。その後、ステップS5では、生成部108は、生成した復元画像データ6を出力部109に出力する。
In step S4, the
<補正部106における動作>
図5は、補正部における形状補正処理(S3)の詳細フローチャートである。また、図6は、形状補正画像データを説明する図である。
<Operation in
FIG. 5 is a detailed flowchart of the shape correction process (S3) in the correction unit. FIG. 6 is a diagram for explaining shape-corrected image data.
図6(a)は、撮影角度ごとの撮影画像データと形状補正画像を表している。図示されるように、それぞれ異なる撮影角度で撮影された画像データに対して、撮影角度や被写体の形状変化を補正し、同じ画素数を持つ2次元の形状補正画像データを生成する。すなわち、形状補正画像データは、撮影画像データ内の被写体画像を構成する各領域の法線方向が同一方向となるように変形した画像データである。ここでは、法線形状を算出したメッシュデータを撮影画像データに適用し、図6(b)に示すようにメッシュ領域毎に画像変換を施して補正画像データを生成する。 FIG. 6A shows photographed image data and a shape-corrected image for each photographing angle. As shown in the figure, two-dimensional shape-corrected image data having the same number of pixels is generated by correcting the photographing angle and the shape change of the subject with respect to the image data photographed at different photographing angles. That is, the shape-corrected image data is image data that has been transformed so that the normal direction of each region constituting the subject image in the captured image data is the same direction. Here, the mesh data whose normal line shape has been calculated is applied to the captured image data, and corrected image data is generated by performing image conversion for each mesh region as shown in FIG. 6B.
ステップS501では、補正部106は、撮影画像データIの被写体形状に応じて、法線情報を用いて、法線情報403と同じ領域数を持つメッシュデータを生成する。メッシュデータの生成は、例えば法線情報403から3次元空間のメッシュデータ401に復元し、このメッシュデータを該当する撮影角度での撮影したデータになるように、射影変換すればよい。
In step S <b> 501, the
なお、被写体の形状変化が単純な場合は、法線情報を用いずにメッシュデータを生成してもよい。例えば、撮影画像のエッジを抽出して被写体の輪郭を特定し、被写体のエッジ線分に対して等間隔になるようにメッシュの格子に相当する点群を形成し、格子点から被写体のエッジに対して平行に直線を引くことでメッシュデータを生成することも可能である。 Note that when the shape change of the subject is simple, the mesh data may be generated without using the normal line information. For example, the edges of the captured image are extracted to identify the contour of the subject, a point cloud corresponding to a mesh lattice is formed so as to be equidistant with respect to the edge line segment of the subject, and the grid points are moved to the subject edge. It is also possible to generate mesh data by drawing straight lines in parallel.
ステップS502では、補正部106は、形状補正画像データI’のデータ領域を確保する。例えば、形状補正画像データI’の縦横の画素数がwピクセル、hピクセルである場合、左上の座標を(1,1)、右下の座標を(w、h)とするw×h個の画素値のデータが入るメモリを確保する。
In step S502, the
ステップS503では、補正部106は、形状変換後の画素値を生成する処理を行う座標位置P’の初期値を(1,1)に設定する。
In step S503, the
ステップS504では、補正部106は、処理対象の座標位置P’が属するメッシュの位置を検出し、メッシュを構成する点を選択する。まず、S501で生成した、メッシュの縦横方向の個数をそれぞれNm_w、Nm_hとする。この場合、形状補正画像データI’上の1つのメッシュデータの縦と横のピクセル数Pixw、Pixhは、以下の数式(2)、(3)により算出される。
In step S504, the
次に、形状補正画像データI’上の点P’(xp’、yp’)に該当するメッシュの位置を、左上を基準に横方向Mw番目、縦方向にMh番目として規定し、以下の数式(4)、(5)のように算出する。なお、int()は、整数値を導出する(小数点以下を切り捨てる)関数である。 Next, the position of the mesh corresponding to the point P ′ (xp ′, yp ′) on the shape-corrected image data I ′ is defined as the horizontal direction Mw-th with respect to the upper-left direction and the vertical direction Mh-th. (4) and (5) are calculated. Note that int () is a function for deriving an integer value (truncating after the decimal point).
数式(4)、(5)の結果に基づいて、横方向Mw番、縦方向Mh番のメッシュを構成する点を選択する。 Based on the results of the mathematical formulas (4) and (5), the points constituting the mesh in the horizontal direction Mw and the vertical direction Mh are selected.
図7は、撮影画像と形状補正画像との間の対応座標を説明する図である。図7(a)は、撮影画像データI上の1つのメッシュ領域を表しており、図7(b)は、図7(a)のメッシュ領域に対応した形状補正画像データI’におけるメッシュ領域を表している。処理座標P’を含むメッシュを構成する点として、A’〜D’を検出する。 FIG. 7 is a diagram for explaining the corresponding coordinates between the captured image and the shape-corrected image. 7A shows one mesh area on the captured image data I, and FIG. 7B shows a mesh area in the shape-corrected image data I ′ corresponding to the mesh area in FIG. 7A. Represents. A ′ to D ′ are detected as points constituting the mesh including the processing coordinate P ′.
ステップS505では、補正部106は、処理中の座標位置P’に対応する撮影画像データI上の座標位置Pを算出する。図7(b)において、点P’の再近傍点である点A’を基準としたベクトルA'P’はベクトルA’B’およびベクトルA’D’を用いて次のように算出する。
In step S505, the
点A'、点B’、点D’、点P’の座標をそれぞれ(xA’、yA’)、(xB’、yB’)、(xD’、yD’)、(xP’、yP’)とする。その場合、ベクトルA’B’およびベクトルA’D’にかかる係数i、jは、以下の数式(7)、(8)のように算出される。 The coordinates of the points A ′, B ′, D ′, and P ′ are respectively (x A ′ , y A ′ ), (x B ′ , y B ′ ), (x D ′ , y D ′ ), ( xP ′ , yP ′ ). In that case, the coefficients i and j relating to the vector A′B ′ and the vector A′D ′ are calculated as in the following formulas (7) and (8).
算出されたi、jの値を用いて図7(a)におけるベクトルAPは、以下の数式(9)のように算出される。 Using the calculated values of i and j, the vector AP in FIG. 7A is calculated as in the following formula (9).
数式(9)によるベクトルAPと点Aの座標を用いて点Pの座標(xP、yP)を算出することが出来る。 The coordinates (x P , y P ) of the point P can be calculated using the vector AP and the coordinates of the point A according to the equation (9).
ステップS506では、補正部106は、S505で求めた撮影画像データI上の座標位置Pにおける画素値を、形状補正画像データI’上の座標位置P’における画素値として設定する。
In step S506, the
ステップS507では、補正部106は、全座標について色情報の取得が完了したか否かを判断する。取得が完了していなければ、S508において次の座標を設定しS504〜S506の処理を行う。
In step S507, the
以上の処理を他の撮影角度での撮影画像データに対しても行い、各撮影角度に対応する形状補正画像データI’と撮影角度データを保持部107に格納する。
The above processing is performed also on the captured image data at other imaging angles, and the shape correction image data I ′ and the imaging angle data corresponding to each imaging angle are stored in the holding
<生成部108における動作>
図8は、生成部における生成処理(S4)の詳細フローチャートである。
<Operation in
FIG. 8 is a detailed flowchart of the generation process (S4) in the generation unit.
ステップS801では、生成部108は、復元画像データI”のメモリ領域を確保する。ここでは、復元画像データI”は、形状補正画像データI’に対して色補正を行ったデータであり、形状補正画像データI’と同じ画素数をもつ画像データである。
In step S801, the
ステップS802では、生成部108は、現在注目している座標位置に相当する法線情報を取得する。当該取得は、S504で示した方法と同じ手法が利用できる。すなわち、座標位置に対するメッシュ領域の位置を取得し、メッシュ領域に対する法線情報403から該当するメッシュ領域に対する法線情報を取得する。
In step S <b> 802, the
ステップS803では、生成部108は、保持部107に、法線情報に基づいて、該当する所定の撮影条件(撮影角度および照明角度)での形状補正画像データI’があるかを確認する。ここでは被写体の法線方向と撮影角度の方向が一致しており、照明角度が法線方向に対して45度の方向で照射されている形状補正画像データI’を探索する。形状補正画像データI’が存在する場合はS804に進み、存在しない場合はS805に進む。
In step S <b> 803, the
ステップS804では、生成部108は、該当する法線方向での形状補正画像データI’での座標の画素値(対応領域の色情報)を取得し、復元画像データI”における対応する座標の画素値として格納する。なお、x、yは該当するメッシュ領域の範囲内の座標値である。
In step S804, the
ステップS805では、生成部108は、上述の所定の撮影条件の近傍の2つの形状補正画像データI’を用いて、復元画像データI”の画素値を導出する。ここでは、近傍の2つの角度に該当する形状補正画像データをI’1、I’2とすると、以下の数式(12)のように画素値データを計算する。なお、kは0以上1以下の値である。
In step S805, the
なお、数式(12)に関して、重み値kは任意の方法で決定すればよい。2つの画像データの平均としてk=0.5と設定してもよいし、上述の所定の条件である本来の法線角度Nに対する、上述の近傍の2つの角度N1、N2の角度差の比率からkを決定してもよい。他にも、2つ以上の形状補正画像データI’を用いても構わないし、補間処理を行わず、法線角度が最も近い1つの形状補正画像データをI’のみを使用しても良い。 Note that with respect to Equation (12), the weight value k may be determined by an arbitrary method. The average of the two image data may be set to k = 0.5, and the angle difference between the two adjacent angles N 1 and N 2 with respect to the original normal angle N that is the predetermined condition described above. You may determine k from the ratio of these. In addition, two or more shape correction image data I ′ may be used, or interpolation processing is not performed, and only one shape correction image data having the closest normal angle may be used.
ステップS806では、生成部108は、色補正後の復元画像データI”内の全座標で色情報の取得が完了したかどうかを判定する。まだ未取得の領域がある場合は、S802に戻る。全座標での色情報の取得が完了した場合は処理を終了する。
In step S806, the
なお、復元画像データI”において、撮影装置や照明装置の変動に起因してメッシュ間での微妙な色や輝度の差が発生し格子上のムラが目立つ場合は、S806の後に復元画像データI”に対して更に画像処理を施してもよい。また、予め形状補正画像データI’、撮影画像データIのいずれかに対して画像処理を施すよう構成してもよい。 Note that, in the restored image data I ″, if a subtle color or luminance difference between meshes occurs due to fluctuations in the photographing device or illumination device, and unevenness on the grid is noticeable, the restored image data I after S806. Further image processing may be performed on “. Further, the image processing may be performed on either the shape-corrected image data I ′ or the captured image data I in advance.
以上説明したとおり第1実施形態によれば、被写体の領域ごとの法線情報と当該被写体を撮影した複数の撮影画像データとに基づいて、復元画像データを生成する。具体的には、被写体画像の各領域に関して、所定の撮影条件を満たす撮影画像データを選択する。この構成により復元画像データを生成することで、被写体にたわみや反りがあった状態で撮影を行った場合であっても、たわみのない状態で観察される色情報を有する復元画像データを生成することが可能となる。 As described above, according to the first embodiment, the restored image data is generated based on the normal information for each region of the subject and a plurality of photographed image data obtained by photographing the subject. Specifically, photographic image data that satisfies a predetermined photographic condition is selected for each region of the subject image. By generating restored image data with this configuration, even when shooting is performed in a state where the subject is deflected or warped, the restored image data having color information that is observed without deflection is generated. It becomes possible.
(第2実施形態)
第2実施形態では、被写体の法線情報に基づいて、色情報の取得に適した撮影角度を領域ごとに決定して撮影することで、復元画像データを生成する形態について説明する。
(Second Embodiment)
In the second embodiment, a mode in which restored image data is generated by determining and shooting for each region a shooting angle suitable for obtaining color information based on the normal information of the subject will be described.
<システム構成>
図9は、第2実施形態に係る画像処理システムの構成を示すブロック図である。画像処理システムは、第1実施形態と同様に、画像処理装置101、撮影部102、計測部103、出力部109を有している。また、画像処理装置101は、画像取得部104、情報取得部105、補正部106、保持部107、生成部108を含んでいる。ただし、第2実施形態に係る画像処理システムは、撮像部102における撮影制御を行う、撮影角度制御部901、照明角度制御部902を更に有する。
<System configuration>
FIG. 9 is a block diagram illustrating a configuration of an image processing system according to the second embodiment. As in the first embodiment, the image processing system includes an
撮影角度制御部901は、被写体の法線情報に基づいて、撮影部102の位置姿勢(被写体に対する撮影角度)を制御する機能部である。照明角度制御部902は、被写体の法線情報に基づいて、照明装置の位置姿勢(被写体に対する照明角度)を制御する機能部である。
The shooting
<画像処理システム全体の動作>
図10は、第2実施形態における画像処理装置の動作を示すフローチャートである。
<Operation of the entire image processing system>
FIG. 10 is a flowchart illustrating the operation of the image processing apparatus according to the second embodiment.
ステップS101では、情報取得部105は、被写体の法線情報を取得する。法線情報は、第1実施形態と同様にメッシュ領域毎の法線情報であるとする。
In step S101, the
ステップS102では、情報取得部105は、撮影対象とする被写体の注目領域の法線情報を撮影角度制御部901および照明角度制御部902に出力する。
In step S102, the
ステップS103では、撮影角度制御部901は、被写体に対するカメラの撮影方向が、注目領域の法線角度方向Nと一致するようにカメラの位置姿勢を制御する。さらに照明角度制御部902は、被写体に対する照明角度が、注目領域の法線角度方向Nに対して45度の方向になるよう照明角度を制御する。その後、撮影部102による撮影を実施する。
In step S103, the shooting
ステップS104では、画像取得部104は、撮影部102で撮影された撮影画像データINを取得する。ステップS105では、補正部106は、第1実施形態と同様に、撮影画像データINの形状補正を実施し、形状補正画像データI’Nを生成する。更に、生成部108は、形状補正画像データI’Nにおける注目領域の画素値を、復元画像データの対応するメッシュ領域の画素値として設定し保存する。なお、x、yは該当するメッシュ領域の範囲内の座標値である。
In step S104, the
ステップS106では、生成部108は、復元画像データの全メッシュ領域について色情報の取得が完了したか否かを判断する。取得が完了していなければ、次の注目領域を設定しS102〜S105の処理を行う。取得が完了するとS107に進む。
In step S <b> 106, the
ステップS107では、生成部108は、生成した復元画像データ6を印刷装置などの出力部109に出力する。
In step S107, the
以上説明したとおり第2実施形態によれば、撮影に先行して被写体の領域ごとの法線情報を取得し、当該法線情報に基づいて被写体の各領域に対する位置姿勢を決定する。この構成により、復元画像データの生成に利用する撮影画像データを効率的に取得することが可能となる。すなわち、不必要な撮影あるいは画像処理をする必要がなく、効率的に復元画像データを生成することが可能となる。 As described above, according to the second embodiment, normal information for each area of the subject is acquired prior to shooting, and the position and orientation of each area of the subject is determined based on the normal information. With this configuration, it is possible to efficiently acquire captured image data used for generating restored image data. That is, it is not necessary to perform unnecessary shooting or image processing, and it is possible to efficiently generate restored image data.
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
101 画像処理装置; 102 撮影部; 103 計測部; 104 画像取得部; 105 情報取得部; 106 補正部; 107 保持部; 108 生成部; 109 出力部
DESCRIPTION OF
Claims (10)
互いに異なる複数の撮影条件で前記被写体を撮影した複数の撮影画像を取得する画像取得手段と、
前記複数の撮影画像と前記法線情報とに基づいて、前記被写体を構成する各領域について所定の撮影条件を満たすよう構成された補正画像を生成する生成手段と、
を有することを特徴とする画像処理装置。 Normal acquisition means for acquiring normal information of each region constituting the subject;
Image acquisition means for acquiring a plurality of captured images obtained by capturing the subject under a plurality of different shooting conditions;
Generating means for generating a corrected image configured to satisfy a predetermined shooting condition for each region constituting the subject based on the plurality of shot images and the normal line information;
An image processing apparatus comprising:
ことを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the plurality of shooting conditions include at least a condition regarding an illumination direction with respect to the subject and a shooting direction with respect to the subject.
ことを特徴とする請求項1又は2に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the predetermined imaging condition is a captured image from a direction that forms a predetermined angle with respect to a normal direction of each region.
ことを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。 The generating unit selects a photographed image satisfying the predetermined photographing condition from the plurality of photographed images for each region constituting the subject, determines color information of a corresponding region in the selected photographed image, and performs the correction The image processing apparatus according to claim 1, wherein the image processing apparatus uses color information in the image.
前記生成手段は、前記複数の撮影画像から生成された複数の形状補正画像と前記法線情報とに基づいて前記補正画像を生成する
ことを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。 Based on the normal line information, the image processing apparatus further includes a shape correction unit that generates a shape-corrected image in which the distortion of the image shape based on the shooting direction with respect to the subject and the distortion of the image shape based on the distortion of the shape of the subject are corrected.
5. The generation unit according to claim 1, wherein the generation unit generates the correction image based on a plurality of shape correction images generated from the plurality of photographed images and the normal line information. The image processing apparatus described.
ことを特徴とする請求項5に記載の画像処理装置。 The image according to claim 5, wherein the shape correction unit generates the shape correction image by deforming the image of the subject so that a normal direction in each region of the image is the same direction. Processing equipment.
ことを特徴とする請求項1乃至6の何れか1項に記載の画像処理装置。 A shooting control unit that determines a shooting direction with respect to the subject based on the normal line information, controls a position and orientation of a shooting unit that shoots the subject, and controls the shooting unit to take the plurality of shot images; The image processing apparatus according to claim 1, further comprising: an image processing apparatus according to claim 1;
ことを特徴とする請求項7に記載の画像処理装置。 The image processing according to claim 7, wherein the photographing control unit further determines an illumination direction with respect to the subject based on the normal line information, and controls a position and orientation of an illumination unit that illuminates the subject. apparatus.
互いに異なる複数の撮影条件で前記被写体を撮影した複数の撮影画像を取得する画像取得工程と、
前記複数の撮影画像と前記法線情報とに基づいて、前記被写体を構成する各領域について所定の撮影条件を満たすよう構成された補正画像を生成する生成工程と、
を含むことを特徴とする画像処理方法。 A normal acquisition step of acquiring normal information of each region constituting the subject;
An image acquisition step of acquiring a plurality of captured images obtained by capturing the subject under a plurality of different shooting conditions;
Based on the plurality of captured images and the normal line information, a generation step of generating a correction image configured to satisfy a predetermined capturing condition for each region constituting the subject;
An image processing method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016163035A JP2018032947A (en) | 2016-08-23 | 2016-08-23 | Image processing device and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016163035A JP2018032947A (en) | 2016-08-23 | 2016-08-23 | Image processing device and image processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018032947A true JP2018032947A (en) | 2018-03-01 |
Family
ID=61303858
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016163035A Pending JP2018032947A (en) | 2016-08-23 | 2016-08-23 | Image processing device and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018032947A (en) |
-
2016
- 2016-08-23 JP JP2016163035A patent/JP2018032947A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6330987B2 (en) | Image processing apparatus, image processing method, and storage medium | |
JP5437311B2 (en) | Image correction method, image correction system, angle estimation method, and angle estimation device | |
TWI451750B (en) | Image capture apparatus, computer readable recording medium and control method | |
JP2014131257A (en) | Image correction system, image correction method, and program | |
JP4010754B2 (en) | Image processing apparatus, image processing method, and computer-readable recording medium | |
JP2004040395A (en) | Image distortion correction apparatus, method, and program | |
JP6594170B2 (en) | Image processing apparatus, image processing method, image projection system, and program | |
JP6581359B2 (en) | Information processing apparatus, control method thereof, program, storage medium, and video camera | |
CN110517304A (en) | Generate method, apparatus, electronic equipment and the storage medium of depth map | |
JP2016015037A (en) | Information processing apparatus and control method, and video camera | |
JP2005045723A (en) | Image correcting apparatus | |
JP2005234698A (en) | Distortion parameter generation method, video generation method, distortion parameter generation system and video generation system | |
JP6403401B2 (en) | Image processing apparatus, image processing method, and program | |
JP5181350B2 (en) | Image processing apparatus and image processing program | |
JP2018032947A (en) | Image processing device and image processing method | |
JP6632434B2 (en) | Image processing apparatus, image processing method, and program | |
JP7304641B2 (en) | Chart generation method, resolution measurement method, resolution measurement system, and program | |
JPH05101221A (en) | Image distortion corrector | |
JP4996585B2 (en) | Image calibration evaluation apparatus and image calibration evaluation program | |
JP7206739B2 (en) | Acquisition equipment and program | |
JPH11144050A (en) | Method and device for correcting image distortion | |
JP2020194532A (en) | Method, system, and device for detecting object in distorted image | |
KR101028171B1 (en) | Determination of aspect ratio from perspective projection images | |
JP6972089B2 (en) | Image processing equipment, image processing methods, and programs | |
JP2011054068A (en) | Image processing system, image processor, and program |