JP2018032947A - Image processing device and image processing method - Google Patents

Image processing device and image processing method Download PDF

Info

Publication number
JP2018032947A
JP2018032947A JP2016163035A JP2016163035A JP2018032947A JP 2018032947 A JP2018032947 A JP 2018032947A JP 2016163035 A JP2016163035 A JP 2016163035A JP 2016163035 A JP2016163035 A JP 2016163035A JP 2018032947 A JP2018032947 A JP 2018032947A
Authority
JP
Japan
Prior art keywords
subject
image
image processing
unit
shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016163035A
Other languages
Japanese (ja)
Inventor
善宏 眞部
Yoshihiro Manabe
善宏 眞部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016163035A priority Critical patent/JP2018032947A/en
Publication of JP2018032947A publication Critical patent/JP2018032947A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To generate an image suitable for copy generation.SOLUTION: An image processing device comprises: normal line acquisition means which acquires normal line information in each region constituting a subject; image acquisition means which acquires plural images obtained by imaging the subject under imaging conditions different from each other; and generation means which, on the basis of the images and the normal line information, generates a correction image constituted so as to meet a predetermined imaging conditions with respect to each region constituting the subject.SELECTED DRAWING: Figure 2

Description

本発明は、複製作成に利用する画像の生成技術に関するものである。   The present invention relates to an image generation technique used for creating a copy.

近年、貴重な文化財を公開する活動と、将来にわたって保護、保存することとを両立するために、文化財の複製を作成することが広まっている。複製作成の一例として、文化財が障壁画や屏風といった日本画であれば、文化財を破損することなく画像を取得するため、デジタルカメラを用いて撮影を行い、撮影した画像を実物大で出力するという手法が一般的である。   In recent years, it has become widespread to create a copy of a cultural property in order to achieve both the activities of disclosing precious cultural properties and protecting and preserving them in the future. As an example of creating a duplicate, if the cultural property is a Japanese painting such as a barrier painting or folding screen, in order to acquire the image without damaging the cultural property, take a picture with a digital camera and output the captured image in full size The technique of doing is common.

特許文献1は、複数角度での撮影画像から被写体が持つ本来の色情報を復元する技術が開示している。また、複数角度での撮影画像中の被写体の前に遮蔽物が映っている場合は、遮蔽物が映っていない撮影角度での画像データの画素値を平均して、色情報を生成することが記載されている。   Patent Document 1 discloses a technique for restoring original color information of a subject from captured images at a plurality of angles. In addition, when a shielding object appears in front of a subject in a captured image at a plurality of angles, color information can be generated by averaging pixel values of image data at a photographing angle at which the shielding object is not reflected. Have been described.

特開2015−1792号公報Japanese Patent Laying-Open No. 2015-1792

ところで、被写体によっては撮影角度などの撮影条件に依存して撮影により得られる色情報が異なる場合がある。そのため、例えば経年劣化によってたわみや反りなどの変形が生じた作品を撮影した場合、当該変形に依存して本来の色とは異なる色の撮影画像が得られることになる。しかしながら、上述の特許文献1に記載の技術では、このような問題に対処することが出来ない。   By the way, depending on the subject, color information obtained by photographing may differ depending on photographing conditions such as a photographing angle. For this reason, for example, when a work that has undergone deformation such as deflection or warpage due to deterioration over time, a photographed image having a color different from the original color is obtained depending on the deformation. However, the technique described in Patent Document 1 described above cannot cope with such a problem.

本発明はこのような問題を鑑みてなされたものであり、複製作成に好適な画像を生成可能とする技術を提供することを目的とする。   The present invention has been made in view of such a problem, and an object thereof is to provide a technique capable of generating an image suitable for creating a duplicate.

上述の問題点を解決するため、本発明に係る画像処理装置は以下の構成を備える。すなわち、画像処理装置は、被写体を構成する各領域の法線情報を取得する法線取得手段と、互いに異なる複数の撮影条件で前記被写体を撮影した複数の撮影画像を取得する画像取得手段と、前記複数の撮影画像と前記法線情報とに基づいて、前記被写体を構成する各領域について所定の撮影条件を満たすよう構成された補正画像を生成する生成手段と、を有する。   In order to solve the above-described problems, an image processing apparatus according to the present invention has the following configuration. That is, the image processing apparatus includes a normal acquisition unit that acquires normal information of each region constituting the subject, an image acquisition unit that acquires a plurality of captured images obtained by capturing the subject under a plurality of different shooting conditions, Generating means for generating a corrected image configured to satisfy a predetermined shooting condition for each region constituting the subject based on the plurality of shot images and the normal line information;

本発明によれば、複製作成に好適な画像を生成可能とする技術を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the technique which enables the production | generation of an image suitable for replica production can be provided.

第1実施形態で使用される各種データを説明する図である。It is a figure explaining the various data used by 1st Embodiment. 第1実施形態に係る画像処理システムの構成を示すブロック図である。1 is a block diagram illustrating a configuration of an image processing system according to a first embodiment. 第1実施形態における画像処理装置の動作を示すフローチャートである。3 is a flowchart illustrating an operation of the image processing apparatus according to the first embodiment. 法線情報を説明する図である。It is a figure explaining normal line information. 補正部における形状補正処理(S3)の詳細フローチャートである。It is a detailed flowchart of the shape correction process (S3) in a correction | amendment part. 形状補正画像を説明する図である。It is a figure explaining a shape correction image. 撮影画像と形状補正画像との間の対応座標を説明する図である。It is a figure explaining the corresponding coordinate between a picked-up image and a shape correction image. 生成部における生成処理(S4)の詳細フローチャートである。It is a detailed flowchart of the production | generation process (S4) in a production | generation part. 第2実施形態に係る画像処理システムの構成を示すブロック図である。It is a block diagram which shows the structure of the image processing system which concerns on 2nd Embodiment. 第2実施形態における画像処理装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the image processing apparatus in 2nd Embodiment.

以下に、図面を参照して、この発明の好適な実施の形態を詳しく説明する。なお、以下の実施の形態はあくまで例示であり、本発明の範囲を限定する趣旨のものではない。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. The following embodiments are merely examples, and are not intended to limit the scope of the present invention.

(第1実施形態)
本発明に係る画像処理装置の第1実施形態として、撮影部により得られた撮影画像に基づいて画像を生成する画像処理装置を例に挙げて以下に説明する。
(First embodiment)
As a first embodiment of an image processing apparatus according to the present invention, an image processing apparatus that generates an image based on a photographed image obtained by a photographing unit will be described below as an example.

<システム構成>
図1は、第1実施形態で使用される各種データを説明する図である。第1実施形態に係る画像処理装置101は、被写体1を複数の撮影角度で撮影した複数の撮影画像データ3を撮影部102から取得する。また、画像処理装置101は、被写体1の表面形状を示す法線情報4を計測部103から取得する。そして、画像処理装置101は、複数の撮影画像データ3と法線情報4とに基づいて、復元画像データ6を生成し出力部109に出力する。
<System configuration>
FIG. 1 is a diagram illustrating various data used in the first embodiment. The image processing apparatus 101 according to the first embodiment acquires a plurality of photographed image data 3 obtained by photographing the subject 1 at a plurality of photographing angles from the photographing unit 102. Further, the image processing apparatus 101 acquires normal line information 4 indicating the surface shape of the subject 1 from the measurement unit 103. The image processing apparatus 101 generates the restored image data 6 based on the plurality of captured image data 3 and the normal information 4 and outputs the restored image data 6 to the output unit 109.

ここでは、撮影部102は、図1に示すように、照明部である照明装置2による被写体1への照明方向と撮影部102による被写体1の撮影方向とのなす角が45度となる状態で撮影を行うことを想定する。もちろん、45度に限定されるものではなく他の角度となるように構成してもよい。   Here, as shown in FIG. 1, the photographing unit 102 is in a state where the angle formed by the illumination direction of the subject 1 by the illumination device 2 that is an illumination unit and the photographing direction of the subject 1 by the photographing unit 102 is 45 degrees. Assume that shooting is performed. Of course, the angle is not limited to 45 degrees and may be configured to be another angle.

画像処理装置101は、複数の撮影角度(角度A、B)により得られた複数の撮影画像データ3それぞれに対して、法線情報4を用いて画像形状の補正を行う。具体的には、撮影角度による変形を補正する射影変換や、被写体1自身の変形(たわみなど)に依存した画像の形状補正を行う。ここでは、同じ画像サイズの複数の形状補正画像データ5を生成する。そして、画像処理装置101は、法線情報4と複数の形状補正画像データ5を用いて復元画像データ6を生成する。   The image processing apparatus 101 corrects the image shape using the normal line information 4 for each of the plurality of photographed image data 3 obtained at a plurality of photographing angles (angles A and B). Specifically, projective transformation for correcting the deformation due to the shooting angle and the shape correction of the image depending on the deformation (deflection etc.) of the subject 1 itself are performed. Here, a plurality of shape-corrected image data 5 having the same image size is generated. Then, the image processing apparatus 101 generates restored image data 6 using the normal line information 4 and the plurality of shape correction image data 5.

図2は、第1実施形態に係る画像処理システムの構成を示すブロック図である。画像処理システムは、画像処理装置101、撮影部102、計測部103、出力部109を有している。また、画像処理装置101は、画像取得部104、情報取得部105、補正部106、保持部107、生成部108を含んでいる。   FIG. 2 is a block diagram illustrating a configuration of the image processing system according to the first embodiment. The image processing system includes an image processing apparatus 101, a photographing unit 102, a measurement unit 103, and an output unit 109. The image processing apparatus 101 includes an image acquisition unit 104, an information acquisition unit 105, a correction unit 106, a holding unit 107, and a generation unit 108.

上述のように、画像処理装置101は、被写体の撮影画像データと被写体の法線情報を取得し、復元画像データを出力する処理を行う。撮影部102は、例えば、被写体を撮影し撮影画像データを出力するデジタルカメラである。計測部103は、被写体の表面形状情報を取得し、当該被写体の法線情報を出力する3次元形状計測カメラである。   As described above, the image processing apparatus 101 performs processing for acquiring captured image data of a subject and normal information of the subject and outputting restored image data. The photographing unit 102 is, for example, a digital camera that photographs a subject and outputs photographed image data. The measurement unit 103 is a three-dimensional shape measurement camera that acquires surface shape information of a subject and outputs normal information of the subject.

画像取得部104は、撮影部102で撮影した撮影画像データを取得する機能部である。情報取得部105は、計測部103で計測した被写体の法線情報を取得する機能部(法線取得手段)である。補正部106は、様々な角度で撮影された撮影画像データに含まれる被写体画像に対して形状変換を施し形状補正画像データを生成する機能部である。   The image acquisition unit 104 is a functional unit that acquires captured image data captured by the imaging unit 102. The information acquisition unit 105 is a functional unit (normal line acquisition unit) that acquires the normal information of the subject measured by the measurement unit 103. The correction unit 106 is a functional unit that performs shape conversion on a subject image included in captured image data captured at various angles to generate shape corrected image data.

保持部107は、補正部106で補正された形状補正画像データと情報取得部105で取得した法線情報とを記憶する機能部である。生成部108は、法線情報と形状補正画像データから、被写体の本来の色を再現した2次元の復元画像データを生成する機能部である。出力部109は、例えば、復元画像データを紙などの記録媒体に印刷する印刷装置である。   The holding unit 107 is a functional unit that stores the shape correction image data corrected by the correction unit 106 and the normal information acquired by the information acquisition unit 105. The generation unit 108 is a functional unit that generates two-dimensional restored image data that reproduces the original color of the subject from the normal information and the shape-corrected image data. The output unit 109 is a printing device that prints the restored image data on a recording medium such as paper.

なお、画像処理装置101は、例えば、コンピュータ(PC)とソフトウェアプログラムの組みあわせによっても実現可能である。もちろん、各機能部の一部または全部をASIC(特定用途向け集積回路)などのハードウェアにより実現してもよい。   Note that the image processing apparatus 101 can be realized by a combination of a computer (PC) and a software program, for example. Of course, some or all of the functional units may be realized by hardware such as an ASIC (Application Specific Integrated Circuit).

<画像処理システムの動作>
図3は、第1実施形態における画像処理装置の動作を示すフローチャートである。
<Operation of image processing system>
FIG. 3 is a flowchart showing the operation of the image processing apparatus in the first embodiment.

ステップS1では、画像取得部104は、撮影部102で撮影した撮影画像データ3を取得する。撮影画像データ3は、例えば、TIFFやJPGなどのビットマップ形式の画像データである。   In step S <b> 1, the image acquisition unit 104 acquires the captured image data 3 captured by the capturing unit 102. The captured image data 3 is, for example, image data in a bitmap format such as TIFF or JPG.

ステップS2では、情報取得部105は、計測部103で計測した被写体1の法線情報4を取得する。法線情報4とは、被写体の表面の立体形状を元に作られた、被写体1の領域毎の法線方向を表すデータである。   In step S <b> 2, the information acquisition unit 105 acquires the normal information 4 of the subject 1 measured by the measurement unit 103. The normal line information 4 is data representing the normal direction for each region of the subject 1 created based on the three-dimensional shape of the surface of the subject.

図4は、法線情報を説明する図である。図4(a)は、計測部103が取得した被写体の表面形状情報に基づく立体形状データ401を例示的に示す図である。立体形状データ401は、法線情報を生成するための立体形状を表すデータであり、例えばワイヤーフレームデータである。ワイヤーフレームデータは、オブジェクトの形状を微小平面の集合体として表現される。すなわち、微小平面のそれぞれから法線方向を計算することにより法線情報を生成することが出来る。   FIG. 4 is a diagram for explaining normal line information. FIG. 4A is a diagram exemplarily showing the three-dimensional shape data 401 based on the surface shape information of the subject acquired by the measurement unit 103. The three-dimensional shape data 401 is data representing a three-dimensional shape for generating normal line information, for example, wire frame data. The wire frame data represents the shape of the object as a collection of minute planes. That is, normal information can be generated by calculating the normal direction from each of the minute planes.

図4(b)は、立体形状データ401上のワイヤーフレームで囲まれた1つのメッシュ領域402の拡大図である。メッシュ領域402に対する法線ベクトルNは、メッシュ領域402の4点の座標をABCDとしたとき、以下の数式(1)のように算出できる。   FIG. 4B is an enlarged view of one mesh region 402 surrounded by a wire frame on the three-dimensional shape data 401. The normal vector N with respect to the mesh region 402 can be calculated as the following formula (1), where the coordinates of the four points in the mesh region 402 are ABCD.

Figure 2018032947
Figure 2018032947

この法線ベクトルを各メッシュ領域で算出することで全領域の法線情報を取得することができる。なお、メッシュの数は被写体のたわみや反りなどの形状変化に応じて数を変更することが望ましい。被写体の形状変化が大きい箇所には細かいメッシュが必要であるが、被写体の形状変化がほとんどなく平坦部であれば大まかなメッシュデータで構わない。   By calculating this normal vector in each mesh region, normal information of the entire region can be acquired. Note that the number of meshes is preferably changed in accordance with a shape change such as deflection or warping of the subject. A fine mesh is required at a location where the subject's shape change is large, but rough mesh data may be used as long as there is almost no change in the shape of the subject and it is a flat part.

例えば、紙のカール量を曲率値として算出し、曲率値に応じて法線情報のデータ数を決定することができる。紙のカールの曲率値が1/Rの場合、5度の円弧の長さに相当する4πR×5/360=0.17Rの長さを紙面上での格子点の数とする。この場合、例えば、紙のカールの曲率値が10cmのとき、格子点の間隔は1.7cmである。また、立体形状データの形式は、ワイヤーフレームに限らない。各部の法線方向を読み出すことのできるデータ形式であれば、ポリゴンデータ、サーフェスデータ、など任意のデータ形式で構わない。   For example, the amount of paper curl can be calculated as a curvature value, and the number of normal line information data can be determined according to the curvature value. When the curvature value of the paper curl is 1 / R, the length of 4πR × 5/360 = 0.17R corresponding to the length of the arc of 5 degrees is set as the number of lattice points on the paper surface. In this case, for example, when the curvature value of the paper curl is 10 cm, the interval between the lattice points is 1.7 cm. The format of the solid shape data is not limited to the wire frame. Any data format such as polygon data or surface data may be used as long as the data can read the normal direction of each part.

図4(c)は、法線情報の概念図である。法線情報403は、形状補正が施された2次元の被写体のワイヤーフレームで囲まれたメッシュ領域毎の法線に関連する情報を含んでいる。ここでは、メッシュ領域毎に法線角度として3次元のベクトル情報が記憶されているものとする。また、ここでは、メッシュ形状を正方格子で記述しているが、この形に限定せず三角形など任意のメッシュ形状でもよい。   FIG. 4C is a conceptual diagram of normal information. The normal line information 403 includes information related to the normal line for each mesh region surrounded by the wire frame of the two-dimensional subject subjected to shape correction. Here, it is assumed that three-dimensional vector information is stored as a normal angle for each mesh region. In addition, here, the mesh shape is described by a square lattice, but the present invention is not limited to this shape, and an arbitrary mesh shape such as a triangle may be used.

ステップS3では、補正部106は、撮影画像データ3における被写体形状を補正し、保持部107に形状補正画像データ5を格納する。なお、S3の処理の詳細は後述する。   In step S <b> 3, the correction unit 106 corrects the subject shape in the captured image data 3 and stores the shape corrected image data 5 in the holding unit 107. Details of the process of S3 will be described later.

ステップS4では、生成部108は、法線情報4及び複数の形状補正画像データ5に基づき、被写体の各領域の法線方向から観察した色になるように2次元の復元画像データ6を生成する。なお、S4の処理の詳細は後述する。その後、ステップS5では、生成部108は、生成した復元画像データ6を出力部109に出力する。   In step S4, the generation unit 108 generates two-dimensional restored image data 6 based on the normal line information 4 and the plurality of shape-corrected image data 5 so that the colors are observed from the normal direction of each region of the subject. . Details of the process of S4 will be described later. Thereafter, in step S5, the generation unit 108 outputs the generated restored image data 6 to the output unit 109.

<補正部106における動作>
図5は、補正部における形状補正処理(S3)の詳細フローチャートである。また、図6は、形状補正画像データを説明する図である。
<Operation in Correction Unit 106>
FIG. 5 is a detailed flowchart of the shape correction process (S3) in the correction unit. FIG. 6 is a diagram for explaining shape-corrected image data.

図6(a)は、撮影角度ごとの撮影画像データと形状補正画像を表している。図示されるように、それぞれ異なる撮影角度で撮影された画像データに対して、撮影角度や被写体の形状変化を補正し、同じ画素数を持つ2次元の形状補正画像データを生成する。すなわち、形状補正画像データは、撮影画像データ内の被写体画像を構成する各領域の法線方向が同一方向となるように変形した画像データである。ここでは、法線形状を算出したメッシュデータを撮影画像データに適用し、図6(b)に示すようにメッシュ領域毎に画像変換を施して補正画像データを生成する。   FIG. 6A shows photographed image data and a shape-corrected image for each photographing angle. As shown in the figure, two-dimensional shape-corrected image data having the same number of pixels is generated by correcting the photographing angle and the shape change of the subject with respect to the image data photographed at different photographing angles. That is, the shape-corrected image data is image data that has been transformed so that the normal direction of each region constituting the subject image in the captured image data is the same direction. Here, the mesh data whose normal line shape has been calculated is applied to the captured image data, and corrected image data is generated by performing image conversion for each mesh region as shown in FIG. 6B.

ステップS501では、補正部106は、撮影画像データIの被写体形状に応じて、法線情報を用いて、法線情報403と同じ領域数を持つメッシュデータを生成する。メッシュデータの生成は、例えば法線情報403から3次元空間のメッシュデータ401に復元し、このメッシュデータを該当する撮影角度での撮影したデータになるように、射影変換すればよい。   In step S <b> 501, the correction unit 106 generates mesh data having the same number of regions as the normal information 403 using normal information according to the subject shape of the captured image data I. For example, the mesh data may be generated by restoring from the normal information 403 to the mesh data 401 in the three-dimensional space, and performing projective transformation so that the mesh data is captured at the corresponding imaging angle.

なお、被写体の形状変化が単純な場合は、法線情報を用いずにメッシュデータを生成してもよい。例えば、撮影画像のエッジを抽出して被写体の輪郭を特定し、被写体のエッジ線分に対して等間隔になるようにメッシュの格子に相当する点群を形成し、格子点から被写体のエッジに対して平行に直線を引くことでメッシュデータを生成することも可能である。   Note that when the shape change of the subject is simple, the mesh data may be generated without using the normal line information. For example, the edges of the captured image are extracted to identify the contour of the subject, a point cloud corresponding to a mesh lattice is formed so as to be equidistant with respect to the edge line segment of the subject, and the grid points are moved to the subject edge. It is also possible to generate mesh data by drawing straight lines in parallel.

ステップS502では、補正部106は、形状補正画像データI’のデータ領域を確保する。例えば、形状補正画像データI’の縦横の画素数がwピクセル、hピクセルである場合、左上の座標を(1,1)、右下の座標を(w、h)とするw×h個の画素値のデータが入るメモリを確保する。   In step S502, the correction unit 106 secures a data area of the shape correction image data I ′. For example, when the number of vertical and horizontal pixels of the shape-corrected image data I ′ is w pixels and h pixels, w × h pixels where the upper left coordinates are (1, 1) and the lower right coordinates are (w, h). A memory for storing pixel value data is secured.

ステップS503では、補正部106は、形状変換後の画素値を生成する処理を行う座標位置P’の初期値を(1,1)に設定する。   In step S503, the correction unit 106 sets the initial value of the coordinate position P ′ for performing the process of generating the pixel value after shape conversion to (1, 1).

ステップS504では、補正部106は、処理対象の座標位置P’が属するメッシュの位置を検出し、メッシュを構成する点を選択する。まず、S501で生成した、メッシュの縦横方向の個数をそれぞれNm_w、Nm_hとする。この場合、形状補正画像データI’上の1つのメッシュデータの縦と横のピクセル数Pix、Pixは、以下の数式(2)、(3)により算出される。 In step S504, the correction unit 106 detects the position of the mesh to which the coordinate position P ′ to be processed belongs, and selects points that constitute the mesh. First, the number of meshes generated in S501 in the vertical and horizontal directions is set to Nm_w and Nm_h, respectively. In this case, the vertical and horizontal pixel numbers Pix w and Pix h of one mesh data on the shape-corrected image data I ′ are calculated by the following formulas (2) and (3).

Figure 2018032947
Figure 2018032947

Figure 2018032947
Figure 2018032947

次に、形状補正画像データI’上の点P’(xp’、yp’)に該当するメッシュの位置を、左上を基準に横方向Mw番目、縦方向にMh番目として規定し、以下の数式(4)、(5)のように算出する。なお、int()は、整数値を導出する(小数点以下を切り捨てる)関数である。   Next, the position of the mesh corresponding to the point P ′ (xp ′, yp ′) on the shape-corrected image data I ′ is defined as the horizontal direction Mw-th with respect to the upper-left direction and the vertical direction Mh-th. (4) and (5) are calculated. Note that int () is a function for deriving an integer value (truncating after the decimal point).

Figure 2018032947
Figure 2018032947

Figure 2018032947
Figure 2018032947

数式(4)、(5)の結果に基づいて、横方向Mw番、縦方向Mh番のメッシュを構成する点を選択する。   Based on the results of the mathematical formulas (4) and (5), the points constituting the mesh in the horizontal direction Mw and the vertical direction Mh are selected.

図7は、撮影画像と形状補正画像との間の対応座標を説明する図である。図7(a)は、撮影画像データI上の1つのメッシュ領域を表しており、図7(b)は、図7(a)のメッシュ領域に対応した形状補正画像データI’におけるメッシュ領域を表している。処理座標P’を含むメッシュを構成する点として、A’〜D’を検出する。   FIG. 7 is a diagram for explaining the corresponding coordinates between the captured image and the shape-corrected image. 7A shows one mesh area on the captured image data I, and FIG. 7B shows a mesh area in the shape-corrected image data I ′ corresponding to the mesh area in FIG. 7A. Represents. A ′ to D ′ are detected as points constituting the mesh including the processing coordinate P ′.

ステップS505では、補正部106は、処理中の座標位置P’に対応する撮影画像データI上の座標位置Pを算出する。図7(b)において、点P’の再近傍点である点A’を基準としたベクトルA'P’はベクトルA’B’およびベクトルA’D’を用いて次のように算出する。   In step S505, the correction unit 106 calculates a coordinate position P on the captured image data I corresponding to the coordinate position P ′ being processed. In FIG. 7B, a vector A′P ′ based on the point A ′, which is a re-neighbor point of the point P ′, is calculated as follows using the vector A′B ′ and the vector A′D ′.

Figure 2018032947
Figure 2018032947

点A'、点B’、点D’、点P’の座標をそれぞれ(xA’、yA’)、(xB’、yB’)、(xD’、yD’)、(xP’、yP’)とする。その場合、ベクトルA’B’およびベクトルA’D’にかかる係数i、jは、以下の数式(7)、(8)のように算出される。 The coordinates of the points A ′, B ′, D ′, and P ′ are respectively (x A ′ , y A ′ ), (x B ′ , y B ′ ), (x D ′ , y D ′ ), ( xP , yP ). In that case, the coefficients i and j relating to the vector A′B ′ and the vector A′D ′ are calculated as in the following formulas (7) and (8).

Figure 2018032947
Figure 2018032947

Figure 2018032947
Figure 2018032947

算出されたi、jの値を用いて図7(a)におけるベクトルAPは、以下の数式(9)のように算出される。   Using the calculated values of i and j, the vector AP in FIG. 7A is calculated as in the following formula (9).

Figure 2018032947
Figure 2018032947

数式(9)によるベクトルAPと点Aの座標を用いて点Pの座標(x、y)を算出することが出来る。 The coordinates (x P , y P ) of the point P can be calculated using the vector AP and the coordinates of the point A according to the equation (9).

ステップS506では、補正部106は、S505で求めた撮影画像データI上の座標位置Pにおける画素値を、形状補正画像データI’上の座標位置P’における画素値として設定する。   In step S506, the correction unit 106 sets the pixel value at the coordinate position P on the photographed image data I obtained at S505 as the pixel value at the coordinate position P 'on the shape correction image data I'.

Figure 2018032947
Figure 2018032947

ステップS507では、補正部106は、全座標について色情報の取得が完了したか否かを判断する。取得が完了していなければ、S508において次の座標を設定しS504〜S506の処理を行う。   In step S507, the correction unit 106 determines whether the acquisition of color information for all coordinates has been completed. If the acquisition has not been completed, the next coordinates are set in S508, and the processes in S504 to S506 are performed.

以上の処理を他の撮影角度での撮影画像データに対しても行い、各撮影角度に対応する形状補正画像データI’と撮影角度データを保持部107に格納する。   The above processing is performed also on the captured image data at other imaging angles, and the shape correction image data I ′ and the imaging angle data corresponding to each imaging angle are stored in the holding unit 107.

<生成部108における動作>
図8は、生成部における生成処理(S4)の詳細フローチャートである。
<Operation in Generation Unit 108>
FIG. 8 is a detailed flowchart of the generation process (S4) in the generation unit.

ステップS801では、生成部108は、復元画像データI”のメモリ領域を確保する。ここでは、復元画像データI”は、形状補正画像データI’に対して色補正を行ったデータであり、形状補正画像データI’と同じ画素数をもつ画像データである。   In step S801, the generation unit 108 secures a memory area for the restored image data I ″. Here, the restored image data I ″ is data obtained by performing color correction on the shape-corrected image data I ′, and has a shape. This is image data having the same number of pixels as the corrected image data I ′.

ステップS802では、生成部108は、現在注目している座標位置に相当する法線情報を取得する。当該取得は、S504で示した方法と同じ手法が利用できる。すなわち、座標位置に対するメッシュ領域の位置を取得し、メッシュ領域に対する法線情報403から該当するメッシュ領域に対する法線情報を取得する。   In step S <b> 802, the generation unit 108 acquires normal line information corresponding to the coordinate position that is currently focused on. For the acquisition, the same method as that shown in S504 can be used. That is, the position of the mesh area with respect to the coordinate position is acquired, and the normal information for the corresponding mesh area is acquired from the normal information 403 for the mesh area.

ステップS803では、生成部108は、保持部107に、法線情報に基づいて、該当する所定の撮影条件(撮影角度および照明角度)での形状補正画像データI’があるかを確認する。ここでは被写体の法線方向と撮影角度の方向が一致しており、照明角度が法線方向に対して45度の方向で照射されている形状補正画像データI’を探索する。形状補正画像データI’が存在する場合はS804に進み、存在しない場合はS805に進む。   In step S <b> 803, the generation unit 108 confirms whether the holding unit 107 has the shape-corrected image data I ′ under the corresponding predetermined shooting conditions (shooting angle and illumination angle) based on the normal line information. Here, the shape-corrected image data I ′ in which the normal direction of the subject coincides with the direction of the photographing angle and the illumination angle is irradiated in a direction of 45 degrees with respect to the normal direction is searched. If the shape-corrected image data I 'exists, the process proceeds to S804, and if it does not exist, the process proceeds to S805.

ステップS804では、生成部108は、該当する法線方向での形状補正画像データI’での座標の画素値(対応領域の色情報)を取得し、復元画像データI”における対応する座標の画素値として格納する。なお、x、yは該当するメッシュ領域の範囲内の座標値である。   In step S804, the generation unit 108 acquires the pixel value of the coordinate (color information of the corresponding region) in the shape-corrected image data I ′ in the corresponding normal direction, and the pixel of the corresponding coordinate in the restored image data I ″. Note that x and y are coordinate values within the range of the corresponding mesh region.

Figure 2018032947
Figure 2018032947

ステップS805では、生成部108は、上述の所定の撮影条件の近傍の2つの形状補正画像データI’を用いて、復元画像データI”の画素値を導出する。ここでは、近傍の2つの角度に該当する形状補正画像データをI’、I’とすると、以下の数式(12)のように画素値データを計算する。なお、kは0以上1以下の値である。 In step S805, the generation unit 108 derives the pixel value of the restored image data I ″ by using the two shape-corrected image data I ′ in the vicinity of the predetermined photographing condition. Here, the two angles in the vicinity are used. Assuming that the shape-corrected image data corresponding to is I ′ 1 and I ′ 2 , pixel value data is calculated as in the following formula (12), where k is a value between 0 and 1.

Figure 2018032947
Figure 2018032947

なお、数式(12)に関して、重み値kは任意の方法で決定すればよい。2つの画像データの平均としてk=0.5と設定してもよいし、上述の所定の条件である本来の法線角度Nに対する、上述の近傍の2つの角度N、Nの角度差の比率からkを決定してもよい。他にも、2つ以上の形状補正画像データI’を用いても構わないし、補間処理を行わず、法線角度が最も近い1つの形状補正画像データをI’のみを使用しても良い。 Note that with respect to Equation (12), the weight value k may be determined by an arbitrary method. The average of the two image data may be set to k = 0.5, and the angle difference between the two adjacent angles N 1 and N 2 with respect to the original normal angle N that is the predetermined condition described above. You may determine k from the ratio of these. In addition, two or more shape correction image data I ′ may be used, or interpolation processing is not performed, and only one shape correction image data having the closest normal angle may be used.

ステップS806では、生成部108は、色補正後の復元画像データI”内の全座標で色情報の取得が完了したかどうかを判定する。まだ未取得の領域がある場合は、S802に戻る。全座標での色情報の取得が完了した場合は処理を終了する。   In step S806, the generation unit 108 determines whether the acquisition of color information has been completed for all coordinates in the restored image data I ″ after color correction. If there is an unacquired area, the process returns to S802. If the acquisition of color information at all coordinates is completed, the process ends.

なお、復元画像データI”において、撮影装置や照明装置の変動に起因してメッシュ間での微妙な色や輝度の差が発生し格子上のムラが目立つ場合は、S806の後に復元画像データI”に対して更に画像処理を施してもよい。また、予め形状補正画像データI’、撮影画像データIのいずれかに対して画像処理を施すよう構成してもよい。   Note that, in the restored image data I ″, if a subtle color or luminance difference between meshes occurs due to fluctuations in the photographing device or illumination device, and unevenness on the grid is noticeable, the restored image data I after S806. Further image processing may be performed on “. Further, the image processing may be performed on either the shape-corrected image data I ′ or the captured image data I in advance.

以上説明したとおり第1実施形態によれば、被写体の領域ごとの法線情報と当該被写体を撮影した複数の撮影画像データとに基づいて、復元画像データを生成する。具体的には、被写体画像の各領域に関して、所定の撮影条件を満たす撮影画像データを選択する。この構成により復元画像データを生成することで、被写体にたわみや反りがあった状態で撮影を行った場合であっても、たわみのない状態で観察される色情報を有する復元画像データを生成することが可能となる。   As described above, according to the first embodiment, the restored image data is generated based on the normal information for each region of the subject and a plurality of photographed image data obtained by photographing the subject. Specifically, photographic image data that satisfies a predetermined photographic condition is selected for each region of the subject image. By generating restored image data with this configuration, even when shooting is performed in a state where the subject is deflected or warped, the restored image data having color information that is observed without deflection is generated. It becomes possible.

(第2実施形態)
第2実施形態では、被写体の法線情報に基づいて、色情報の取得に適した撮影角度を領域ごとに決定して撮影することで、復元画像データを生成する形態について説明する。
(Second Embodiment)
In the second embodiment, a mode in which restored image data is generated by determining and shooting for each region a shooting angle suitable for obtaining color information based on the normal information of the subject will be described.

<システム構成>
図9は、第2実施形態に係る画像処理システムの構成を示すブロック図である。画像処理システムは、第1実施形態と同様に、画像処理装置101、撮影部102、計測部103、出力部109を有している。また、画像処理装置101は、画像取得部104、情報取得部105、補正部106、保持部107、生成部108を含んでいる。ただし、第2実施形態に係る画像処理システムは、撮像部102における撮影制御を行う、撮影角度制御部901、照明角度制御部902を更に有する。
<System configuration>
FIG. 9 is a block diagram illustrating a configuration of an image processing system according to the second embodiment. As in the first embodiment, the image processing system includes an image processing apparatus 101, a photographing unit 102, a measuring unit 103, and an output unit 109. The image processing apparatus 101 includes an image acquisition unit 104, an information acquisition unit 105, a correction unit 106, a holding unit 107, and a generation unit 108. However, the image processing system according to the second embodiment further includes an imaging angle control unit 901 and an illumination angle control unit 902 that perform imaging control in the imaging unit 102.

撮影角度制御部901は、被写体の法線情報に基づいて、撮影部102の位置姿勢(被写体に対する撮影角度)を制御する機能部である。照明角度制御部902は、被写体の法線情報に基づいて、照明装置の位置姿勢(被写体に対する照明角度)を制御する機能部である。   The shooting angle control unit 901 is a functional unit that controls the position and orientation of the shooting unit 102 (shooting angle with respect to the subject) based on the normal information of the subject. The illumination angle control unit 902 is a functional unit that controls the position and orientation of the illumination device (the illumination angle with respect to the subject) based on the normal information of the subject.

<画像処理システム全体の動作>
図10は、第2実施形態における画像処理装置の動作を示すフローチャートである。
<Operation of the entire image processing system>
FIG. 10 is a flowchart illustrating the operation of the image processing apparatus according to the second embodiment.

ステップS101では、情報取得部105は、被写体の法線情報を取得する。法線情報は、第1実施形態と同様にメッシュ領域毎の法線情報であるとする。   In step S101, the information acquisition unit 105 acquires normal line information of the subject. The normal information is assumed to be normal information for each mesh region as in the first embodiment.

ステップS102では、情報取得部105は、撮影対象とする被写体の注目領域の法線情報を撮影角度制御部901および照明角度制御部902に出力する。   In step S102, the information acquisition unit 105 outputs the normal information of the attention area of the subject to be imaged to the imaging angle control unit 901 and the illumination angle control unit 902.

ステップS103では、撮影角度制御部901は、被写体に対するカメラの撮影方向が、注目領域の法線角度方向Nと一致するようにカメラの位置姿勢を制御する。さらに照明角度制御部902は、被写体に対する照明角度が、注目領域の法線角度方向Nに対して45度の方向になるよう照明角度を制御する。その後、撮影部102による撮影を実施する。   In step S103, the shooting angle control unit 901 controls the position and orientation of the camera so that the shooting direction of the camera with respect to the subject matches the normal angle direction N of the region of interest. Further, the illumination angle control unit 902 controls the illumination angle so that the illumination angle with respect to the subject is 45 degrees with respect to the normal angle direction N of the region of interest. Thereafter, photographing by the photographing unit 102 is performed.

ステップS104では、画像取得部104は、撮影部102で撮影された撮影画像データIを取得する。ステップS105では、補正部106は、第1実施形態と同様に、撮影画像データIの形状補正を実施し、形状補正画像データI’を生成する。更に、生成部108は、形状補正画像データI’における注目領域の画素値を、復元画像データの対応するメッシュ領域の画素値として設定し保存する。なお、x、yは該当するメッシュ領域の範囲内の座標値である。 In step S104, the image acquisition unit 104 acquires the captured by the photographing unit 102 the captured image data I N. In step S105, the correction unit 106, similarly to the first embodiment, carried out shape correction of the captured image data I N, and generates a shape correction image data I 'N. Further, the generation unit 108 sets and stores the pixel value of the attention area in the shape-corrected image data I ′ N as the pixel value of the corresponding mesh area of the restored image data. Note that x and y are coordinate values within the range of the corresponding mesh region.

Figure 2018032947
Figure 2018032947

ステップS106では、生成部108は、復元画像データの全メッシュ領域について色情報の取得が完了したか否かを判断する。取得が完了していなければ、次の注目領域を設定しS102〜S105の処理を行う。取得が完了するとS107に進む。   In step S <b> 106, the generation unit 108 determines whether the acquisition of color information has been completed for all mesh regions of the restored image data. If the acquisition has not been completed, the next region of interest is set and the processing of S102 to S105 is performed. When the acquisition is completed, the process proceeds to S107.

ステップS107では、生成部108は、生成した復元画像データ6を印刷装置などの出力部109に出力する。   In step S107, the generation unit 108 outputs the generated restored image data 6 to the output unit 109 such as a printing apparatus.

以上説明したとおり第2実施形態によれば、撮影に先行して被写体の領域ごとの法線情報を取得し、当該法線情報に基づいて被写体の各領域に対する位置姿勢を決定する。この構成により、復元画像データの生成に利用する撮影画像データを効率的に取得することが可能となる。すなわち、不必要な撮影あるいは画像処理をする必要がなく、効率的に復元画像データを生成することが可能となる。   As described above, according to the second embodiment, normal information for each area of the subject is acquired prior to shooting, and the position and orientation of each area of the subject is determined based on the normal information. With this configuration, it is possible to efficiently acquire captured image data used for generating restored image data. That is, it is not necessary to perform unnecessary shooting or image processing, and it is possible to efficiently generate restored image data.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

101 画像処理装置; 102 撮影部; 103 計測部; 104 画像取得部; 105 情報取得部; 106 補正部; 107 保持部; 108 生成部; 109 出力部   DESCRIPTION OF SYMBOLS 101 Image processing apparatus; 102 Image | photographing part; 103 Measuring part; 104 Image acquisition part; 105 Information acquisition part; 106 Correction part; 107 Holding part; 108 Generation part;

Claims (10)

被写体を構成する各領域の法線情報を取得する法線取得手段と、
互いに異なる複数の撮影条件で前記被写体を撮影した複数の撮影画像を取得する画像取得手段と、
前記複数の撮影画像と前記法線情報とに基づいて、前記被写体を構成する各領域について所定の撮影条件を満たすよう構成された補正画像を生成する生成手段と、
を有することを特徴とする画像処理装置。
Normal acquisition means for acquiring normal information of each region constituting the subject;
Image acquisition means for acquiring a plurality of captured images obtained by capturing the subject under a plurality of different shooting conditions;
Generating means for generating a corrected image configured to satisfy a predetermined shooting condition for each region constituting the subject based on the plurality of shot images and the normal line information;
An image processing apparatus comprising:
前記複数の撮影条件は、少なくとも前記被写体に対する照明方向と前記被写体に対する撮影方向とに関する条件を含む
ことを特徴とする請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the plurality of shooting conditions include at least a condition regarding an illumination direction with respect to the subject and a shooting direction with respect to the subject.
前記所定の撮影条件は、各領域の法線方向に対して所定の角度をなす方向からの撮影画像である
ことを特徴とする請求項1又は2に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the predetermined imaging condition is a captured image from a direction that forms a predetermined angle with respect to a normal direction of each region.
前記生成手段は、前記被写体を構成する各領域について、前記所定の撮影条件を満たす撮影画像を前記複数の撮影画像から選択し、該選択した撮影画像における対応領域の色情報を決定し、前記補正画像における色情報とする
ことを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。
The generating unit selects a photographed image satisfying the predetermined photographing condition from the plurality of photographed images for each region constituting the subject, determines color information of a corresponding region in the selected photographed image, and performs the correction The image processing apparatus according to claim 1, wherein the image processing apparatus uses color information in the image.
前記法線情報に基づいて、前記被写体に対する撮影方向に基づく画像形状の歪みと前記被写体の形状の歪みに基づく画像形状の歪みとを補正した形状補正画像を生成する形状補正手段を更に有し、
前記生成手段は、前記複数の撮影画像から生成された複数の形状補正画像と前記法線情報とに基づいて前記補正画像を生成する
ことを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。
Based on the normal line information, the image processing apparatus further includes a shape correction unit that generates a shape-corrected image in which the distortion of the image shape based on the shooting direction with respect to the subject and the distortion of the image shape based on the distortion of the shape of the subject are corrected.
5. The generation unit according to claim 1, wherein the generation unit generates the correction image based on a plurality of shape correction images generated from the plurality of photographed images and the normal line information. The image processing apparatus described.
前記形状補正手段は、前記被写体の画像を該画像の各領域における法線方向が同一方向となるように変形することにより前記形状補正画像を生成する
ことを特徴とする請求項5に記載の画像処理装置。
The image according to claim 5, wherein the shape correction unit generates the shape correction image by deforming the image of the subject so that a normal direction in each region of the image is the same direction. Processing equipment.
前記法線情報に基づいて前記被写体に対する撮影方向を決定し、前記被写体を撮影する撮影部の位置姿勢を制御し、前記複数の撮影画像を撮影するよう前記撮影部を制御する撮影制御手段を更に有する
ことを特徴とする請求項1乃至6の何れか1項に記載の画像処理装置。
A shooting control unit that determines a shooting direction with respect to the subject based on the normal line information, controls a position and orientation of a shooting unit that shoots the subject, and controls the shooting unit to take the plurality of shot images; The image processing apparatus according to claim 1, further comprising: an image processing apparatus according to claim 1;
前記撮影制御手段は、更に、前記法線情報に基づいて前記被写体に対する照明方向を決定し、前記被写体を照明する照明部の位置姿勢を制御する
ことを特徴とする請求項7に記載の画像処理装置。
The image processing according to claim 7, wherein the photographing control unit further determines an illumination direction with respect to the subject based on the normal line information, and controls a position and orientation of an illumination unit that illuminates the subject. apparatus.
被写体を構成する各領域の法線情報を取得する法線取得工程と、
互いに異なる複数の撮影条件で前記被写体を撮影した複数の撮影画像を取得する画像取得工程と、
前記複数の撮影画像と前記法線情報とに基づいて、前記被写体を構成する各領域について所定の撮影条件を満たすよう構成された補正画像を生成する生成工程と、
を含むことを特徴とする画像処理方法。
A normal acquisition step of acquiring normal information of each region constituting the subject;
An image acquisition step of acquiring a plurality of captured images obtained by capturing the subject under a plurality of different shooting conditions;
Based on the plurality of captured images and the normal line information, a generation step of generating a correction image configured to satisfy a predetermined capturing condition for each region constituting the subject;
An image processing method comprising:
コンピュータを、請求項1乃至8の何れか1項に記載の画像処理装置の各手段として機能させるためのプログラム。   A program for causing a computer to function as each unit of the image processing apparatus according to any one of claims 1 to 8.
JP2016163035A 2016-08-23 2016-08-23 Image processing device and image processing method Pending JP2018032947A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016163035A JP2018032947A (en) 2016-08-23 2016-08-23 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016163035A JP2018032947A (en) 2016-08-23 2016-08-23 Image processing device and image processing method

Publications (1)

Publication Number Publication Date
JP2018032947A true JP2018032947A (en) 2018-03-01

Family

ID=61303858

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016163035A Pending JP2018032947A (en) 2016-08-23 2016-08-23 Image processing device and image processing method

Country Status (1)

Country Link
JP (1) JP2018032947A (en)

Similar Documents

Publication Publication Date Title
JP6330987B2 (en) Image processing apparatus, image processing method, and storage medium
JP5437311B2 (en) Image correction method, image correction system, angle estimation method, and angle estimation device
TWI451750B (en) Image capture apparatus, computer readable recording medium and control method
JP2014131257A (en) Image correction system, image correction method, and program
JP4010754B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium
JP2004040395A (en) Image distortion correction apparatus, method, and program
JP6594170B2 (en) Image processing apparatus, image processing method, image projection system, and program
JP6581359B2 (en) Information processing apparatus, control method thereof, program, storage medium, and video camera
CN110517304A (en) Generate method, apparatus, electronic equipment and the storage medium of depth map
JP2016015037A (en) Information processing apparatus and control method, and video camera
JP2005045723A (en) Image correcting apparatus
JP2005234698A (en) Distortion parameter generation method, video generation method, distortion parameter generation system and video generation system
JP6403401B2 (en) Image processing apparatus, image processing method, and program
JP5181350B2 (en) Image processing apparatus and image processing program
JP2018032947A (en) Image processing device and image processing method
JP6632434B2 (en) Image processing apparatus, image processing method, and program
JP7304641B2 (en) Chart generation method, resolution measurement method, resolution measurement system, and program
JPH05101221A (en) Image distortion corrector
JP4996585B2 (en) Image calibration evaluation apparatus and image calibration evaluation program
JP7206739B2 (en) Acquisition equipment and program
JPH11144050A (en) Method and device for correcting image distortion
JP2020194532A (en) Method, system, and device for detecting object in distorted image
KR101028171B1 (en) Determination of aspect ratio from perspective projection images
JP6972089B2 (en) Image processing equipment, image processing methods, and programs
JP2011054068A (en) Image processing system, image processor, and program