JP2020102230A - Calibration method - Google Patents

Calibration method Download PDF

Info

Publication number
JP2020102230A
JP2020102230A JP2020018970A JP2020018970A JP2020102230A JP 2020102230 A JP2020102230 A JP 2020102230A JP 2020018970 A JP2020018970 A JP 2020018970A JP 2020018970 A JP2020018970 A JP 2020018970A JP 2020102230 A JP2020102230 A JP 2020102230A
Authority
JP
Japan
Prior art keywords
image
size
distance
unit
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020018970A
Other languages
Japanese (ja)
Other versions
JP6969619B2 (en
Inventor
菊池 直樹
Naoki Kikuchi
直樹 菊池
樹一郎 齊藤
Kiichiro Saito
樹一郎 齊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Publication of JP2020102230A publication Critical patent/JP2020102230A/en
Application granted granted Critical
Publication of JP6969619B2 publication Critical patent/JP6969619B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To provide an image processing apparatus, a system, an image processing method, a calibration method, and a program with which even when an imaging distance to a pattern is changed, feature points can be stably extracted.SOLUTION: An image processing apparatus to which the present invention is applied comprises an acquisition unit and a creation unit. The acquisition unit creates a plurality of first images corresponding one-to-one to a plurality of spatial frequencies. The creation unit creates a second image by compositing the plurality of first images created by the acquisition unit.SELECTED DRAWING: Figure 4

Description

本発明は、画像処理装置、画像処理方法およびプログラムに関する。 The present invention relates to an image processing device, an image processing method and a program.

三次元計測技術の一つであるステレオ法では、一方のカメラで撮像した画像中の画素ブロックと相関を有する画素ブロックを、他方のカメラで撮像した画像において特定し(対応点を抽出し)、両画像における相対的なずれ量である視差から三角測量の原理を用いて距離データを算出する。距離データの算出精度を高めることを目的として、対応点抽出の密度を高くするために、多くの特徴点を有するパターン(例えば不規則なパターンを有するランダムパターン)を使用する技術が知られている。 In the stereo method, which is one of the three-dimensional measurement techniques, a pixel block having a correlation with a pixel block in the image captured by one camera is specified in the image captured by the other camera (extracting corresponding points), Distance data is calculated from the parallax, which is the relative amount of displacement in both images, using the principle of triangulation. There is known a technique of using a pattern having many feature points (for example, a random pattern having an irregular pattern) in order to increase the density of corresponding point extraction for the purpose of increasing the calculation accuracy of distance data. ..

例えば特許文献1には、均一性と分散性とを向上させることを目的として、ランダムパターンに含まれる低周波数成分をカット(除去)する技術が開示されている。 For example, Patent Document 1 discloses a technique of cutting (removing) low frequency components included in a random pattern for the purpose of improving uniformity and dispersibility.

しかしながら、従来技術では、撮像距離(撮像時におけるカメラとランダムパターンとの間の距離)を考慮せずにランダムパターンを生成しているので、安定して特徴点を抽出することができないという問題がある。 However, in the conventional technique, since the random pattern is generated without considering the imaging distance (the distance between the camera and the random pattern at the time of imaging), there is a problem that the feature points cannot be extracted stably. is there.

上述した課題を解決し、目的を達成するために、本発明は、複数の空間周波数と1対1に対応する複数の第1の画像を取得する取得部と、前記取得部により取得された前記複数の第1の画像を合成して第2の画像を生成する生成部と、を備え、前記取得部は、第1の画像のサイズとは異なるサイズの画像領域に含まれる複数の画素の各々の画素値をランダムに決定することで原画像を生成し、該原画像のサイズを第1の画像と同じサイズに変更することで、前記複数の空間周波数のうちの一の空間周波数に対応する第1の画像を生成する、画像処理装置である。 In order to solve the above-mentioned problems and achieve the object, the present invention provides an acquisition unit that acquires a plurality of first images corresponding to a plurality of spatial frequencies and one-to-one, and the acquisition unit that acquires the first images. A generation unit configured to combine a plurality of first images to generate a second image, wherein the acquisition unit includes each of a plurality of pixels included in an image region having a size different from the size of the first image. An original image is generated by randomly determining the pixel value of, and the size of the original image is changed to the same size as the first image, so as to correspond to one spatial frequency of the plurality of spatial frequencies. An image processing device that generates a first image.

本発明によれば、パターンの撮像距離が変化しても、安定して特徴点を抽出できる。 According to the present invention, feature points can be stably extracted even if the imaging distance of the pattern changes.

図1は、実施形態のシステムの構成の一例を示す図である。FIG. 1 is a diagram showing an example of the configuration of the system of the embodiment. 図2は、撮像画像に含まれる所定のパターン画像の見え方と撮像距離との関係の一例を示す模式図である。FIG. 2 is a schematic diagram showing an example of the relationship between the appearance of a predetermined pattern image included in a captured image and the captured distance. 図3は、パターン投影装置のハードウェア構成の一例を示す図である。FIG. 3 is a diagram illustrating an example of the hardware configuration of the pattern projection apparatus. 図4は、パターン投影装置が有する機能の一例を示す図である。FIG. 4 is a diagram showing an example of functions of the pattern projection device. 図5は、第1の画像の生成方法の一例を説明するための図である。FIG. 5 is a diagram for explaining an example of the method of generating the first image. 図6は、取得部による処理の一例を示すフローチャートである。FIG. 6 is a flowchart showing an example of processing by the acquisition unit. 図7は、第2の画像の生成方法の一例を説明するための図である。FIG. 7 is a diagram for explaining an example of the method of generating the second image. 図8は、パターン投影装置の動作例を示すフローチャートである。FIG. 8 is a flowchart showing an operation example of the pattern projection device. 図9は、変形例のシステムの構成の一例を示す図である。FIG. 9 is a diagram showing an example of the configuration of a system of a modified example. 図10は、変形例の被撮像用具を撮像する様子を示す模式図である。FIG. 10: is a schematic diagram which shows a mode that a to-be-photographed tool of a modification is imaged. 図11は、変形例の被撮像用具を撮像する様子を示す模式図である。FIG. 11: is a schematic diagram which shows a mode that the to-be-photographed tool of a modification is imaged. 図12は、変形例の算出部が有する機能の一例を示す図である。FIG. 12 is a diagram illustrating an example of functions of the calculation unit according to the modification. 図13は、変形例の算出部の動作例を示すフローチャートである。FIG. 13 is a flowchart showing an operation example of the calculation unit of the modified example.

以下、添付図面を参照しながら、本発明に係る画像処理装置、画像処理方法およびプログラムの実施形態を詳細に説明する。以下では、本発明が適用される画像処理装置の一例として、画像投影装置の一態様であるパターン投影装置を例に挙げて説明するが、これに限られるものではない。 Hereinafter, embodiments of an image processing apparatus, an image processing method, and a program according to the present invention will be described in detail with reference to the accompanying drawings. Hereinafter, as an example of the image processing apparatus to which the present invention is applied, a pattern projection apparatus which is one aspect of the image projection apparatus will be described as an example, but the invention is not limited thereto.

図1は、本実施形態のシステム1の構成の一例を示す図である。図1に示すように、本実施形態のシステム1は、パターン投影装置10と、三次元測定装置20とを備える。 FIG. 1 is a diagram showing an example of the configuration of a system 1 of this embodiment. As shown in FIG. 1, the system 1 of the present embodiment includes a pattern projection device 10 and a three-dimensional measurement device 20.

パターン投影装置10は、後述の撮像画像の座標値を補正するための補正パラメータの決定に用いられる被撮像用具30(対象物の一例)の表面に対して、多数の特徴点を含む第2の画像(後述)に基づく光を投影する。これにより、被撮像用具30の表面(投影面)には、後述の第2の画像を表す投影像が形成される。見方を変えれば、パターン投影装置10によって、被撮像用具(対象物)30には後述の第2の画像が表示されると考えることもできる。パターン投影装置10の詳細な構成については後述する。 The pattern projection apparatus 10 includes a second surface including a large number of characteristic points on the surface of the imaging target tool 30 (an example of an object) used for determining a correction parameter for correcting the coordinate value of the captured image described later. Project light based on an image (described later). As a result, a projected image representing a second image, which will be described later, is formed on the surface (projection surface) of the device 30 to be imaged. From a different point of view, it can be considered that the pattern projection device 10 displays a second image, which will be described later, on the imaged tool (target object) 30. The detailed configuration of the pattern projection device 10 will be described later.

三次元測定装置20は、一対のカメラで構成されるステレオカメラを用いて、一方のカメラによる撮像で得られた画像(以下の説明では「撮像画像」と称する場合がある)中の画素ブロックと相関を有する画素ブロックを、他方のカメラによる撮像で得られた撮像画像において特定し、両撮像画像における相対的なずれ量である視差から三角測量の原理を用いて距離データを算出する。なお、本明細書において、「撮像」とは、レンズなどの光学系により結像された被写体(撮像対象)の像を、電気信号に変換することを指す。 The three-dimensional measuring apparatus 20 uses a stereo camera composed of a pair of cameras and a pixel block in an image (may be referred to as “captured image” in the following description) obtained by capturing with one camera. A pixel block having a correlation is specified in a captured image obtained by capturing with the other camera, and distance data is calculated from the parallax which is the relative displacement amount between the two captured images using the principle of triangulation. In the specification, “imaging” means converting an image of a subject (imaging target) formed by an optical system such as a lens into an electric signal.

本実施形態では、三次元測定装置20は、撮像部21と算出部22と測定部23とを有する。撮像部21は、後述の第2の画像が表示された被撮像用具30を撮像する。この例では、撮像部21はステレオカメラで構成される。 In the present embodiment, the three-dimensional measuring device 20 has an imaging unit 21, a calculation unit 22, and a measurement unit 23. The image capturing section 21 captures an image of the to-be-imaged tool 30 on which a second image described later is displayed. In this example, the imaging unit 21 is composed of a stereo camera.

算出部22は、被撮像用具30が映り込んだ撮像画像と、撮像部21と被撮像用具30との間の距離(既知の距離)と、に基づいて、撮像部21による撮像で得られた撮像画像を補正するための補正パラメータを算出する。この補正パラメータを算出する方法としては、公知の様々な技術を利用することができる。例えば、特許第4109077号公報や特許第4501239号公報に開示された方法などを利用できる。本実施形態では、算出部22は、ステレオカメラを構成する一方のカメラ(第1のカメラ)による撮像で得られた撮像画像を補正するための補正パラメータ(第1の補正パラメータ)、および、他方のカメラ(第2のカメラ)による撮像で得られた撮像画像を補正するための補正パラメータ(第2の補正パラメータ)をそれぞれ算出する。 The calculation unit 22 is obtained by image capturing by the image capturing unit 21 based on the captured image in which the image capturing target 30 is reflected and the distance (known distance) between the image capturing unit 21 and the image capturing target 30. A correction parameter for correcting the captured image is calculated. Various known techniques can be used as a method for calculating the correction parameter. For example, the method disclosed in Japanese Patent No. 4109077 or Japanese Patent No. 4501239 can be used. In the present embodiment, the calculation unit 22 includes a correction parameter (first correction parameter) for correcting a captured image obtained by capturing with one camera (first camera) that configures the stereo camera, and the other. A correction parameter (second correction parameter) for correcting the captured image obtained by the image capturing by the camera (second camera) is calculated.

測定部23は、撮像部21による撮像で得られた撮像画像を、算出部22により算出された補正パラメータを用いて補正することで得られた補正画像に基づいて距離データを測定する。この距離データの算出方法としては、公知の様々な技術を利用することができる。例えば、SAD(Sum of Absolute Difference)やNCC(Normalized Cross Correlation)等によるマッチング処理が行われて視差値が計算され、必要に応じて視差値が距離変換される。本実施形態では、測定部23は、第1のカメラによる撮像で得られた撮像画像を第1の補正パラメータを用いて補正することで得られた第1補正画像と、第2のカメラによる撮像で得られた撮像画像を第2の補正パラメータを用いて補正することで得られた第2補正画像とから視差を計算し、第1の補正画像および第2の補正画像のうち基準となる方の画像の各画素値の奥行き値(デプス)を示す視差画像(デプスマップ)を生成して出力することができる。 The measuring unit 23 measures the distance data based on the corrected image obtained by correcting the captured image obtained by the image capturing by the image capturing unit 21 using the correction parameter calculated by the calculating unit 22. Various known techniques can be used as a method for calculating the distance data. For example, matching processing such as SAD (Sum of Absolute Difference) or NCC (Normalized Cross Correlation) is performed to calculate the parallax value, and the parallax value is subjected to distance conversion as necessary. In the present embodiment, the measurement unit 23 uses the first correction image obtained by correcting the imaged image obtained by the image pickup by the first camera using the first correction parameter, and the image pickup by the second camera. The parallax is calculated from the second corrected image obtained by correcting the captured image obtained in step 1 using the second correction parameter, and the one of the first corrected image and the second corrected image that serves as the reference is calculated. It is possible to generate and output a parallax image (depth map) indicating a depth value (depth) of each pixel value of the image.

次に、パターン投影装置10の構成について説明する。具体的な内容の説明に先立ち、本実施形態のパターン投影装置10の特徴の概要を説明する。図2は、上述の三次元測定装置20の撮像部21が、パターン投影装置10によって任意のパターン画像(多数の特徴点を含むパターン画像、説明の便宜上「所定のパターン画像」と称する)が表示された被撮像用具30を撮像することで得られた撮像画像に含まれる所定のパターン画像の見え方と、撮像距離(撮像時における撮像部21と被撮像用具30との距離)との関係の一例を示す模式図である。図2の例では、被撮像用具30に表示された所定のパターン画像は、撮像距離が中距離の場合に当該所定のパターン画像を正確に認識できるものとする。つまり、ここでの所定のパターン画像に対応する空間周波数は、撮像距離が中距離の場合に所定のパターン画像を正確に認識できるような値を示すものとする。 Next, the configuration of the pattern projection device 10 will be described. Prior to the description of the specific contents, an outline of the features of the pattern projection apparatus 10 of the present embodiment will be described. In FIG. 2, the image capturing unit 21 of the above-described three-dimensional measuring apparatus 20 displays an arbitrary pattern image (a pattern image including a large number of characteristic points, referred to as a “predetermined pattern image” for convenience of description) by the pattern projection apparatus 10. Of the relationship between the appearance of the predetermined pattern image included in the captured image obtained by capturing the captured imaged device 30 and the image capturing distance (the distance between the image capturing unit 21 and the imaged device 30 during image capturing). It is a schematic diagram which shows an example. In the example of FIG. 2, it is assumed that the predetermined pattern image displayed on the device 30 to be imaged can be accurately recognized when the imaging distance is a medium distance. That is, the spatial frequency corresponding to the predetermined pattern image here has a value such that the predetermined pattern image can be accurately recognized when the imaging distance is a medium distance.

撮像距離がx倍になると、撮像画像に映り込んだ物体の大きさは1/x倍に見える、つまり、空間周波数としては元の空間周波数のx倍相当になるので、所定のパターン画像に含まれるパターン(模様)は、より細かなパターンとして見えるようになる。したがって、図2の例では、撮像距離が中距離よりも大きくなると(遠距離になると)、所定のパターン画像に含まれるパターンがより細かなパターンとして見えることになり、ひとつひとつのパターンが認識できないくらいにつぶれてしまい、コントラストも低下する。反対に、撮像距離が中距離よりも小さくなると(近距離になると)、所定のパターン画像の一部しか見えなくなってしまい、ひとつのパターン(例えば黒色の四角形)が数十ピクセル(1ピクセルは1画素分のサイズを表す)を覆うようになると、当該パターンの中心部では特徴(典型的には濃淡の変化)がなくなり、特徴点を抽出することができなくなる。したがって、所定のパターン画像が表示された被撮像用具30と撮像部21との距離(撮像距離)が、中距離よりも大きい場合(遠距離の場合)や中距離よりも小さい場合(近距離の場合)においては、安定して特徴点を抽出することができず、撮像画像の校正(補正)や距離データの算出を高精度に行うことができないという問題が起こる。すなわち、算出部22によるパラメータ算出および測定部23による距離測定が正確にできなくなるという問題が起こる。 When the imaging distance is x times, the size of the object reflected in the captured image appears to be 1/x times, that is, the spatial frequency is x times the original spatial frequency, and therefore the object is included in the predetermined pattern image. The pattern that is displayed becomes visible as a finer pattern. Therefore, in the example of FIG. 2, when the imaging distance becomes larger than the middle distance (at a long distance), the pattern included in the predetermined pattern image appears as a finer pattern, and each pattern cannot be recognized. It will be crushed by and the contrast will decrease. On the other hand, when the imaging distance becomes smaller than the middle distance (at a short distance), only a part of the predetermined pattern image can be seen, and one pattern (for example, a black square) is tens of pixels (1 pixel is 1 pixel). When it covers the size of pixels), there is no feature (typically change in shading) at the center of the pattern, and it becomes impossible to extract feature points. Therefore, when the distance (imaging distance) between the imaging target tool 30 on which the predetermined pattern image is displayed and the imaging unit 21 is larger than the middle distance (long distance) or smaller than the middle distance (short distance). In the case), the feature points cannot be stably extracted, and there is a problem that the calibration (correction) of the captured image and the calculation of the distance data cannot be performed with high accuracy. That is, there arises a problem that the parameter calculation by the calculation unit 22 and the distance measurement by the measurement unit 23 cannot be performed accurately.

そこで、本実施形態では、パターン投影装置10は、1つのパターン画像の中に、各距離に適した空間周波数の成分(パターン)を含める。すなわち、撮像距離が中距離よりも小さいことを想定する場合は、パターン画像の中に中距離のものより小さい空間周波数成分(中距離よりも小さい距離に適した空間周波数成分)を含めるようにする。逆に、撮像距離が中距離よりも大きいことを想定する場合は、パターン画像の中に中距離のものより大きい空間周波数成分(中距離よりも大きい距離に適した空間周波数成分)を含めるようにする。これにより、撮像距離が変化しても、変化後の距離に適した空間周波数のパターンが特徴として現れるので、安定して特徴点を抽出することができる。なお、その距離に適した空間周波数は、レンズ画角や特徴点抽出における抽出範囲等にも依存するため、三次元測定装置20において各距離で特徴点の抽出に有利なものが、適宜に選択される。以下、本実施形態のパターン投影装置10の具体的な構成を説明する。 Therefore, in the present embodiment, the pattern projection device 10 includes a spatial frequency component (pattern) suitable for each distance in one pattern image. That is, when it is assumed that the imaging distance is smaller than the medium distance, the pattern image includes a spatial frequency component smaller than that of the medium distance (a spatial frequency component suitable for a distance smaller than the medium distance). .. On the contrary, when it is assumed that the imaging distance is larger than the middle distance, the pattern image should include a spatial frequency component larger than that of the middle distance (a spatial frequency component suitable for a distance larger than the middle distance). To do. As a result, even if the imaging distance changes, a spatial frequency pattern suitable for the changed distance appears as a feature, so that the feature points can be stably extracted. Since the spatial frequency suitable for the distance depends on the lens angle of view, the extraction range in the feature point extraction, and the like, the one that is advantageous for extracting the feature points at each distance in the three-dimensional measuring apparatus 20 is appropriately selected. To be done. Hereinafter, a specific configuration of the pattern projection device 10 according to this embodiment will be described.

図3は、パターン投影装置10のハードウェア構成の一例を示す図である。図3に示すように、パターン投影装置10は、CPU101と、ROM102と、RAM103と、投影部104と、I/F部105とを備える。 FIG. 3 is a diagram illustrating an example of a hardware configuration of the pattern projection device 10. As shown in FIG. 3, the pattern projection device 10 includes a CPU 101, a ROM 102, a RAM 103, a projection unit 104, and an I/F unit 105.

CPU101は、パターン投影装置10の動作を統括的に制御する。 The CPU 101 centrally controls the operation of the pattern projection device 10.

ROM102は、プログラム等の各種のデータを記憶する不揮発性のメモリである。 The ROM 102 is a non-volatile memory that stores various data such as programs.

RAM103は、CPU101が実行する各種の演算の処理の作業領域(ワークエリア)として機能する揮発性のメモリである。 The RAM 103 is a volatile memory that functions as a work area (work area) for processing various calculations executed by the CPU 101.

投影部104は、CPU101の制御の下、投影用画像(この例では後述の第2の画像)に基づく光を投影対象物に投影する。図3の例では、投影部104は、光源106と、画像形成部107と、レンズ部108とを含む。画像形成部107には、光源106から射出された光が供給される。画像形成部107は、光源106から供給された光を、投影用画像(後述の第2の画像)に基づく光に変換して、レンズ部108へ出力する機能を有する。例えば画像形成部107は、透過型液晶素子であってもよいし、反射型液晶素子やDMD(Digital Micro mirror Device)等であってもよい。レンズ部108は、画像形成部107から出力された光を投影対象物に向けて投影する。レンズ部108は、例えば複数のレンズ、プリズム、ミラー等の光学素子によって構成される。 Under the control of the CPU 101, the projection unit 104 projects light based on a projection image (a second image described later in this example) onto a projection target. In the example of FIG. 3, the projection unit 104 includes a light source 106, an image forming unit 107, and a lens unit 108. The light emitted from the light source 106 is supplied to the image forming unit 107. The image forming unit 107 has a function of converting light supplied from the light source 106 into light based on a projection image (a second image described below) and outputting the light to the lens unit 108. For example, the image forming unit 107 may be a transmissive liquid crystal element, a reflective liquid crystal element, a DMD (Digital Micromirror Device), or the like. The lens unit 108 projects the light output from the image forming unit 107 toward the projection target. The lens unit 108 is composed of, for example, optical elements such as a plurality of lenses, prisms, and mirrors.

I/F部105は、外部装置と接続するためのインタフェースである。 The I/F unit 105 is an interface for connecting to an external device.

図4は、本実施形態のパターン投影装置10が有する機能の一例を示す図である。図4に示すように、パターン投影装置10は、取得部110と、生成部120と、出力制御部130とを有する。説明の便宜上、図4では、本発明に係る機能を主に例示しているが、パターン投影装置10が有する機能はこれらに限られるものではない。 FIG. 4 is a diagram showing an example of functions of the pattern projection apparatus 10 of this embodiment. As shown in FIG. 4, the pattern projection device 10 includes an acquisition unit 110, a generation unit 120, and an output control unit 130. For convenience of description, FIG. 4 mainly illustrates the functions according to the present invention, but the functions of the pattern projection apparatus 10 are not limited to these.

また、本実施形態では、パターン投影装置10が有する機能(取得部110、生成部120、出力制御部130)は、CPU101がROM102等に格納されたプログラムを実行することにより実現されるが、これに限られるものではない。例えば、パターン投影装置10が有する機能のうちの少なくとも一部が専用のハードウェア回路(半導体集積回路等)によって実現される形態であってもよい。 Further, in the present embodiment, the functions (acquisition unit 110, generation unit 120, output control unit 130) of the pattern projection device 10 are realized by the CPU 101 executing a program stored in the ROM 102 or the like. It is not limited to. For example, at least a part of the functions of the pattern projection apparatus 10 may be realized by a dedicated hardware circuit (semiconductor integrated circuit or the like).

取得部110は、複数の空間周波数と1対1に対応する複数の第1の画像を取得する。より具体的には、複数の第1の画像の各々は、対応する空間周波数の成分(パターン)を少なくとも含む。本実施形態では、取得部110は、第1の画像のサイズとは異なるサイズの画像領域に含まれる複数の画素の各々の画素値をランダムに決定することで原画像を生成し、該原画像のサイズを第1の画像と同じサイズに変更することで、複数の空間周波数のうちの一の空間周波数に対応する第1の画像を生成する。この例では、画像領域のサイズは第1の画像のサイズよりも小さく、取得部110は、生成した原画像のサイズを第1の画像と同じサイズに拡大することで、複数の空間周波数のうちの一の空間周波数に対応する第1の画像を生成することができる。 The acquisition unit 110 acquires a plurality of first images that correspond one-to-one with a plurality of spatial frequencies. More specifically, each of the plurality of first images includes at least a corresponding spatial frequency component (pattern). In the present embodiment, the acquisition unit 110 generates an original image by randomly determining the pixel value of each of a plurality of pixels included in an image area having a size different from the size of the first image, and the original image is generated. By changing the size of the first image to the same size as the first image, the first image corresponding to one spatial frequency of the plurality of spatial frequencies is generated. In this example, the size of the image region is smaller than the size of the first image, and the acquisition unit 110 expands the size of the generated original image to the same size as the first image, thereby obtaining a plurality of spatial frequencies. A first image corresponding to one spatial frequency can be generated.

一例として、ある空間周波数に対応する第1の画像を生成する場合を例に挙げて説明する。この例では、第1の画像のサイズは横方向(左右方向)に6ピクセル、縦方向(上下方向)に4ピクセルであることを想定して説明するが、第1の画像のサイズはこれに限られるものではない。図5に示すように、取得部110は、所望の第1の画像のサイズの1/2のサイズ(図5の例では、横方向に3ピクセル、縦方向に2ピクセルのサイズ)の画像領域を確保する。そして、当該画像領域内に含まれる複数の画素(3×2=6画素)の各々の画素値を、乱数等によって決めることにより原画像を生成する。図5の例では、グレースケール256階調の画像と仮定し、各画素の画素値を、0(最小の階調値)または255(最大の階調値)の何れかに設定している。なお、画素値については、最小の階調を示す「0」または最大の階調を示す「255」の2値に限らず、256段階の中から任意の値を選択する形態であってもよい。また、画素が複数の色を有するカラー画像であっても、白または黒を示すモノクロ画像であっても、同様の処理を行うことができる。 As an example, a case where a first image corresponding to a certain spatial frequency is generated will be described as an example. In this example, it is assumed that the size of the first image is 6 pixels in the horizontal direction (horizontal direction) and 4 pixels in the vertical direction (vertical direction), but the size of the first image is It is not limited. As illustrated in FIG. 5, the acquisition unit 110 causes the image area having a size of 1/2 the size of the desired first image (in the example of FIG. 5, a size of 3 pixels in the horizontal direction and 2 pixels in the vertical direction). Secure. Then, the original image is generated by determining the pixel value of each of the plurality of pixels (3×2=6 pixels) included in the image area by using a random number or the like. In the example of FIG. 5, it is assumed that the image has a gray scale of 256 gradations, and the pixel value of each pixel is set to either 0 (minimum gradation value) or 255 (maximum gradation value). Note that the pixel value is not limited to the binary value of “0” indicating the minimum gradation or “255” indicating the maximum gradation, and an arbitrary value may be selected from 256 levels. .. The same process can be performed on a color image in which pixels have a plurality of colors or a monochrome image showing white or black.

そして、取得部110は、原画像のサイズを、所望の第1の画像のサイズにするため、横方向および縦方向の各々のサイズを2倍に拡大する。これにより、原画像の1/2の空間周波数(ある空間周波数に相当)を示すパターン画像を第1の画像として生成することができる。この例では、最近傍法(ニアレストネイバー法)による補間を行っているが、これに限らず、線形拡大法(バイリニア法)や三次補間法(バイキュービック法)などの補間処理を行う形態であってもよい。図5の例では、横方向および縦方向の各々のサイズを2倍にしているため、拡大後の画像は、原画像の1/2の空間周波数を示すパターン画像(第1の画像)として扱える。 Then, the acquisition unit 110 doubles each size in the horizontal direction and the vertical direction in order to make the size of the original image the size of the desired first image. This makes it possible to generate, as the first image, a pattern image showing a spatial frequency ½ of the original image (corresponding to a certain spatial frequency). In this example, the nearest neighbor method (nearest neighbor method) is used for interpolation, but the present invention is not limited to this, and it is also possible to perform interpolation processing such as linear expansion method (bilinear method) or cubic interpolation method (bicubic method). It may be. In the example of FIG. 5, since the size in each of the horizontal direction and the vertical direction is doubled, the enlarged image can be treated as a pattern image (first image) showing a spatial frequency of 1/2 of the original image. ..

図6は、取得部110による処理の一例を示すフローチャートである。図6に示すように、まず取得部110は、第1の画像のサイズ(所望のサイズ)よりも小さい画像領域を確保する(ステップS1)。次に、取得部110は、画像領域に含まれる複数の画素の各々の画素値を、乱数等によりランダムに決定することで(ステップS2)、原画像を生成する。次に、取得部110は、生成した原画像のサイズを第1の画像と同じサイズに拡大する(ステップS3)。これにより、複数の空間周波数のうちの一の空間周波数(原画像の1/2の空間周波数)を示すパターン画像を、第1の画像として生成することができる。 FIG. 6 is a flowchart showing an example of processing by the acquisition unit 110. As shown in FIG. 6, the acquisition unit 110 first secures an image area smaller than the size (desired size) of the first image (step S1). Next, the acquisition unit 110 generates an original image by randomly determining the pixel value of each of the plurality of pixels included in the image area by using a random number or the like (step S2). Next, the acquisition unit 110 enlarges the size of the generated original image to the same size as the first image (step S3). As a result, a pattern image showing one spatial frequency of the plurality of spatial frequencies (spatial frequency of 1/2 of the original image) can be generated as the first image.

なお、この例では、第1の画像が表すパターン(模様)は、不規則なパターンであるが、これに限らず、第1の画像が表すパターンは規則的なパターンであってもよい。例えば取得部110は、第1の画像のサイズとは異なるサイズの画像領域に含まれる複数の画素の各々の画素値を所定の規則に従って決定することで原画像を生成し、該原画像のサイズを第1の画像と同じサイズに変更することで、第1の画像を生成することもできる。所定の規則は任意に設定可能であり、例えば最大の階調値を示す画素の集合で構成される列と、最小の階調値を示す画素の集合で構成される列とが交互に配置されるように画像領域の各画素の画素値を決定する形態であってもよいし、例えば最大の階調値を示す画素と、最小の階調値を示す画素とが、行方向および列方向の各々において交互に配置されるように画像領域の各画素の画素値を決定する形態であってもよい。 In this example, the pattern (pattern) represented by the first image is an irregular pattern, but the pattern is not limited to this, and the pattern represented by the first image may be a regular pattern. For example, the acquisition unit 110 generates the original image by determining the pixel value of each of the plurality of pixels included in the image area having a size different from the size of the first image according to a predetermined rule, and then determines the size of the original image. It is also possible to generate the first image by changing the to the same size as the first image. The predetermined rule can be set arbitrarily, and for example, a column formed of a set of pixels showing the maximum gradation value and a column formed of a set of pixels showing the minimum gradation value are arranged alternately. The pixel value of each pixel in the image area may be determined as described above. For example, the pixel showing the maximum gradation value and the pixel showing the minimum gradation value are arranged in the row direction and the column direction. Alternatively, the pixel value of each pixel in the image area may be determined so as to be alternately arranged.

また、本実施形態では、取得部110は、複数の空間周波数と1対1に対応する複数の第1の画像を生成しているが、これに限らず、取得部110は、外部のサーバ装置(あるいは外部の記憶装置)やパターン投影装置10の内部のメモリ等から、予め生成された複数の第1の画像を取得する形態であってもよい。なお、複数の空間周波数と1対1に対応する複数の第1の画像の生成方法は任意であり、例えば複数の空間周波数は、所望する複数の距離と1対1に対応する形態であってもよい。つまり、撮像距離が一の距離の場合に、当該一の距離に対応する空間周波数の成分が特徴として現れる(観察者が正確に認識できる)よう、各距離に対応する空間周波数が設定(例えば実験等により予め設定)される形態であってもよい。なお、被撮像用具(対象物)30に表示された画像の見え方は、撮像距離だけでなく、カメラの焦点距離やぼけ具合などに応じても変わるので、それらも考慮して、空間周波数を選定することが望ましい。 In addition, in the present embodiment, the acquisition unit 110 generates a plurality of first images corresponding to a plurality of spatial frequencies and one-to-one, but the present invention is not limited to this, and the acquisition unit 110 is an external server device. Alternatively, a plurality of pre-generated first images may be acquired from (or an external storage device), a memory inside the pattern projection device 10, or the like. The method of generating the plurality of first images corresponding to the plurality of spatial frequencies in a one-to-one correspondence is arbitrary. For example, the plurality of spatial frequencies correspond to a plurality of desired distances in a one-to-one correspondence. Good. That is, when the imaging distance is one distance, the spatial frequency corresponding to each distance is set so that the component of the spatial frequency corresponding to the one distance appears as a feature (which can be accurately recognized by the observer) (for example, an experiment). It may be a form that is set in advance). It should be noted that the appearance of the image displayed on the device to be imaged (object) 30 changes depending on not only the imaging distance but also the focal length of the camera, the degree of blurring, and the like. It is desirable to select it.

図4に戻って説明を続ける。生成部120は、取得部110により取得された複数の第1の画像を合成して第2の画像を生成する。本実施形態では、生成部120は、複数の第1の画像の各々に含まれる複数の画素ごとに、複数の第1の画像の各々における当該画素の輝度値の平均を求めて設定することで、第2の画像を生成する。例えば図7に示すように、取得部110によって、空間周波数f=1/64を示す第1の画像、空間周波数f=1/16を示す第1の画像、および、空間周波数f=1/4を示す第1の画像の各々が生成された場合を想定する。この例では、取得部110により生成される複数の第1の画像の各々のサイズは同一であるので、3つの第1の画像の各々に含まれる複数の画素ごとに、3つの第1の画像の各々における当該画素の輝度値の平均を求める。そして、第1の画像と同じサイズの画像領域内の各画素の画素値を、3つの第1の画像の各々における当該画素の輝度値の平均値に設定することで、第2の画像(合成画像)を生成することができる。 Returning to FIG. 4, the description will be continued. The generation unit 120 combines the plurality of first images acquired by the acquisition unit 110 to generate a second image. In the present embodiment, the generation unit 120 obtains and sets the average of the luminance values of the pixels in each of the plurality of first images for each of the plurality of pixels included in each of the plurality of first images. , Generate a second image. For example, as illustrated in FIG. 7, the acquisition unit 110 causes the first image showing the spatial frequency f=1/64, the first image showing the spatial frequency f=1/16, and the spatial frequency f=1/4. Suppose that each of the first images showing is generated. In this example, since the sizes of the plurality of first images generated by the acquisition unit 110 are the same, the three first images are included in each of the plurality of pixels included in each of the three first images. The average of the luminance value of the pixel in each of the above is calculated. Then, by setting the pixel value of each pixel in the image area having the same size as the first image to the average value of the luminance values of the pixels in each of the three first images, the second image (synthesis Image) can be generated.

図8は、第2の画像を生成する場合のパターン投影装置10の動作例を示すフローチャートである。図8に示すように、まず取得部110は、複数の空間周波数と1対1に対応する複数の第1の画像を生成する(ステップS11)。具体的な内容は上述したとおりである。次に、生成部120は、ステップS11で生成された複数の第1の画像を合成して第2の画像を生成する(ステップS12)。具体的な内容は上述したとおりである。 FIG. 8 is a flowchart showing an operation example of the pattern projection device 10 when generating the second image. As shown in FIG. 8, first, the acquisition unit 110 generates a plurality of first images corresponding to a plurality of spatial frequencies and one-to-one (step S11). The specific content is as described above. Next, the production|generation part 120 synthesize|combines several 1st image produced|generated by step S11, and produces|generates a 2nd image (step S12). The specific content is as described above.

図4に戻って説明を続ける。出力制御部130は、生成部120により生成された第2の画像に基づく出力を制御する。本実施形態では、出力制御部130は、生成部120により生成された第2の画像に基づく光を被撮像用具30に投影するよう、投影部104を制御する。 Returning to FIG. 4, the description will be continued. The output control unit 130 controls output based on the second image generated by the generation unit 120. In the present embodiment, the output control unit 130 controls the projection unit 104 so as to project the light based on the second image generated by the generation unit 120 onto the imaged tool 30.

なお、本実施形態では、本発明が適用される画像処理装置として、パターン投影装置を例に挙げて説明したが、本発明が適用される画像処理装置の種類は任意に変更可能である。要するに、本発明が適用される画像処理装置は、上述の取得部110に対応する機能と、上述の生成部120に対応する機能とを少なくとも備える形態であればよい。 In addition, in the present embodiment, the pattern projection device has been described as an example of the image processing device to which the present invention is applied, but the type of the image processing device to which the present invention is applied can be arbitrarily changed. In short, the image processing apparatus to which the present invention is applied may be in a form having at least the function corresponding to the acquisition unit 110 described above and the function corresponding to the generation unit 120 described above.

また、生成部120により生成された第2の画像に基づく出力の形態は、本発明が適用される画像処理装置の種類に応じた形態となる。例えば本発明が適用される画像処理装置が、画像形成装置の一態様である印刷装置である場合、出力制御部130は、生成部120により生成された第2の画像を、記録媒体(紙や金属板等)上に形成するよう、印刷エンジン部を制御する形態であってもよい。例えば記録媒体がアルミ板で構成される場合は、第2の画像が印刷された当該アルミ板を、被撮像用具30として利用してもよい。また、例えば記録媒体が用紙などで構成される場合は、第2の画像が印刷された当該用紙を板状の部材の表面に貼付することで、被撮像用具30を作成する形態であってもよい。 The output form based on the second image generated by the generation unit 120 is a form according to the type of the image processing apparatus to which the present invention is applied. For example, when the image processing apparatus to which the present invention is applied is a printing apparatus which is one aspect of the image forming apparatus, the output control unit 130 outputs the second image generated by the generation unit 120 to a recording medium (paper or paper). The print engine unit may be controlled to be formed on a metal plate or the like. For example, when the recording medium is composed of an aluminum plate, the aluminum plate on which the second image is printed may be used as the imaging target tool 30. Further, for example, when the recording medium is formed of paper or the like, the imaging target device 30 may be created by pasting the paper on which the second image is printed on the surface of the plate-shaped member. Good.

また、例えば本発明が適用される画像処理装置は、自身が生成した第2の画像に基づいて、板状の型(例えば遮光性の型)を作成する装置であってもよい。この場合、当該装置を挟んで対象物(例えば被撮像用具30)とは反対側に光源が配置され、当該光源から型および対象物に向けて射出される光によって、型に応じた投影像が対象物の表面に形成される形態とすることもできる。また、自ら発光する板であってもよい。いわゆる電子ペーパのようなものでもよい。 Further, for example, the image processing apparatus to which the present invention is applied may be an apparatus that creates a plate-shaped mold (for example, a light-shielding mold) based on the second image generated by itself. In this case, a light source is arranged on the side opposite to the target object (for example, the imaging target tool 30) with the device in between, and a projection image corresponding to the mold is generated by the light emitted from the light source toward the mold and the target object. It may be a form formed on the surface of the object. Alternatively, it may be a plate that emits light by itself. It may be a so-called electronic paper.

以上に説明したように、本実施形態では、被撮像用具30に表示するパターン画像として、複数の空間周波数と1対1に対応する複数の第1の画像を合成した第2の画像を生成する。これにより、パターン画像の撮像距離が変化しても、変化後の距離に適した空間周波数のパターンが特徴として現れるので、安定して特徴点を抽出することができるという有利な効果を達成できる。 As described above, in the present embodiment, as the pattern image to be displayed on the to-be-imaged tool 30, the second image in which the plurality of first images corresponding to the plurality of spatial frequencies and one-to-one are combined is generated. .. With this, even if the imaging distance of the pattern image changes, the pattern of the spatial frequency suitable for the changed distance appears as a feature, and the advantageous effect that the feature points can be stably extracted can be achieved.

以上、本発明に係る実施形態について説明したが、本発明は、上述の実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上述の実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。 Although the embodiment of the present invention has been described above, the present invention is not limited to the above-described embodiment as it is, and constituent elements can be modified and embodied without departing from the scope of the invention in an implementation stage. Further, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above-described embodiments. For example, some components may be deleted from all the components shown in the embodiment.

例えば特願2014−208897号明細書に記載された構成のように、三次元測定装置20と、上述の第2画像が表示された被撮像用具30との間の距離(撮像距離)を変えながら撮像を行い、複数の距離ごとに、その距離での撮像により得られた撮像画像(第2の画像が表示された被撮像用具30が映り込んだ撮像画像)と、その距離(既知の値)とに基づいて、補正パラメータを算出することもできる。要するに、算出部22は、対象物が映り込んだ撮像画像と、撮像部21と対象物との間の距離(既知の距離)と、に基づいて、撮像部21による撮像で得られた撮像画像を補正するための補正パラメータを算出する形態であればよい。例えば図9に示すように、撮像部21は、水平方向に所定の距離(基線長)Bを設けて配置された一対の第1カメラ24aおよび第2カメラ24bを有するものとする。第1カメラ24aおよび第2カメラ24bの各々は、撮像レンズ25と撮像素子(例えばCCDイメージセンサ)26とを有し、撮像レンズ25により結像された被写体の像が撮像素子26の撮像面に撮像される。 For example, as in the configuration described in Japanese Patent Application No. 2014-208897, while changing the distance (imaging distance) between the three-dimensional measuring device 20 and the imaged tool 30 on which the second image is displayed. Image pickup is performed, and for each of a plurality of distances, a picked-up image obtained by picking up at that distance (a picked-up image of the to-be-photographed tool 30 on which the second image is displayed) and the distance (known value) It is also possible to calculate the correction parameter based on In short, the calculation unit 22 obtains the captured image obtained by the image capturing unit 21 based on the captured image in which the target object is reflected and the distance (known distance) between the image capturing unit 21 and the target object. Any form may be used as long as the correction parameter for correcting is corrected. For example, as shown in FIG. 9, the imaging unit 21 is assumed to have a pair of a first camera 24a and a second camera 24b arranged with a predetermined distance (base line length) B in the horizontal direction. Each of the first camera 24a and the second camera 24b has an image pickup lens 25 and an image pickup element (for example, a CCD image sensor) 26, and an image of a subject formed by the image pickup lens 25 is on an image pickup surface of the image pickup element 26. The image is taken.

まず、図10に示すように、第2の画像が表示された被撮像用具30と撮像部21との間を距離X1(例えば5m)に設定した状態で、第1カメラ24aおよび第2カメラ24bによる撮像を行い、次に、図11に示すように、第2の画像が表示された被撮像用具30と撮像部21との間を距離X2(例えば1m)に設定した状態で、第1カメラ24aおよび第2カメラ24bによる撮像を行い、それぞれの距離で得られた撮像画像を元に、補正パラメータを算出することができる。 First, as shown in FIG. 10, the first camera 24a and the second camera 24b are set in a state where the distance X1 (for example, 5 m) is set between the imaging target tool 30 on which the second image is displayed and the imaging unit 21. Then, as shown in FIG. 11, the first camera is set in a state where the distance X2 (for example, 1 m) is set between the imaging target tool 30 on which the second image is displayed and the imaging unit 21. It is possible to perform the image capturing by the 24a and the second camera 24b and calculate the correction parameter based on the captured images obtained at the respective distances.

図12は、本変形例の算出部22が有する機能の一例を示す図である。図12に示すように、算出部22は、第1取得部31と、第1算出部32と、第2取得部33と、第2算出部34と、第3算出部35とを備える。 FIG. 12 is a diagram illustrating an example of functions of the calculation unit 22 of this modification. As illustrated in FIG. 12, the calculation unit 22 includes a first acquisition unit 31, a first calculation unit 32, a second acquisition unit 33, a second calculation unit 34, and a third calculation unit 35.

第1取得部31は、撮像部21から第1距離X1(この例では5m)だけ離れた被撮像用具30(第2の画像が表示された被撮像用具30)を第1カメラ24aで撮像することで得られた撮像画像(以下の説明では、「第1撮像画像」と称する場合がある)と、該被撮像用具30を第2カメラ24bで撮像することで得られた撮像画像(以下の説明では、「第2撮像画像」と称する)とを取得する。 The 1st acquisition part 31 picturizes with the 1st camera 24a the to-be-photographed tool 30 (the to-be-photographed tool 30 in which the 2nd image was displayed) distanced from the imaging part 21 by the 1st distance X1 (5 m in this example). The captured image obtained in this way (may be referred to as “first captured image” in the following description) and the captured image obtained by capturing the imaged tool 30 with the second camera 24b (see below). In the description, “referred to as “second captured image”) is acquired.

第1算出部32は、第1距離X1(この例では5m)、第1撮像画像、第2撮像画像に基づき、第1撮像画像および第2撮像画像のうちの少なくとも一方について、第2の画像が表示された被撮像用具30が映り込んだ画像領域(本変形例においては撮像画像の中央領域)を示す第1画像領域内の複数の特徴点と1対1に対応する複数の座標値ごとに、理想の視差を得るための目標座標値を対応付けた第1対応データを算出する。なお、被撮像用具30を、第1カメラ24aおよび第2カメラ24bの各々で撮像した場合、第1カメラ24aの位置と第2カメラ24bの位置とは異なるので、第1撮像画像に映り込んだ被撮像用具30と、第2撮像画像に映り込んだ被撮像用具30とでは見え方に差がある(視差がある)。すなわち、被撮像用具30に表示された第2の画像内の同一の特徴点に対応する第1撮像画像の位置および第2撮像画像の位置は視差分だけ離れる(ずれる)ことになる。 Based on the first distance X1 (5 m in this example), the first captured image, and the second captured image, the first calculator 32 determines at least one of the first captured image and the second captured image as the second image. For each of a plurality of coordinate values corresponding one-to-one with a plurality of feature points in the first image region showing the image region (the central region of the captured image in this modification) in which the to-be-imaged tool 30 in which is displayed is reflected First, the first correspondence data in which the target coordinate values for obtaining the ideal parallax are associated is calculated. In addition, when the to-be-imaged tool 30 is imaged by each of the 1st camera 24a and the 2nd camera 24b, since the position of the 1st camera 24a and the position of the 2nd camera 24b differ, it is reflected in the 1st imaged image. There is a difference in visibility (parallax) between the imaged tool 30 and the imaged tool 30 reflected in the second captured image. That is, the position of the first captured image and the position of the second captured image corresponding to the same feature point in the second image displayed on the device to be imaged 30 are separated (shifted) by the parallax.

第1算出部32は、第1撮像画像のうち上述の第1画像領域に含まれる(映り込んだ)複数の特徴点ごとに、当該特徴点に対応する第1撮像画像の座標値および第2撮像画像の座標値を特定するとともに理想ずれ量を求める。なお、同一の特徴点に対応する第1撮像画像の座標値および第2撮像画像の座標値の各々を特定する手法(対応点探索方法)としては、公知の様々な技術(例えばSAD(Sum Of Absolute Difference)やPOC(位相限定相関など)を利用可能である。その後、第1算出部32は、第1画像領域に含まれる複数の特徴点ごとに、理想的な座標値(理想の視差を得るための位置、以下、「目標座標値」と称する場合がある)を求める。 For each of a plurality of (reflective) feature points included in the above-described first image region of the first captured image, the first calculator 32 calculates the coordinate value of the first captured image corresponding to the feature point and the second value. The coordinate value of the captured image is specified and the ideal deviation amount is obtained. As a method (corresponding point search method) for identifying each of the coordinate value of the first captured image and the coordinate value of the second captured image corresponding to the same feature point, various known techniques (for example, SAD (Sum Of Sum Of Absolute Difference) or POC (Phase Only Correlation, etc.) can be used after that, the first calculation unit 32, for each of a plurality of feature points included in the first image region, an ideal coordinate value (ideal parallax The position for obtaining, hereinafter sometimes referred to as "target coordinate value") is obtained.

以上のようにして、第1算出部32は、第1距離X1、第1撮像画像、第2撮像画像に基づき、第1撮像画像および第2撮像画像の各々について、上述の第1画像領域に含まれる複数の特徴点と1対1に対応する複数の座標値(補正前の撮像画像の座標値)ごとに、理想の視差を得るための目標座標値を対応付けた第1対応データを算出する。なお、この例では、第1算出部32は、第1撮像画像に対応する第1対応データと、第2撮像画像に対応する第1対応データとをそれぞれ算出しているが、これに限らず、例えば第1算出部32は、第1撮像画像および第2撮像画像のうちの一方に対応する第1対応データのみを算出する形態であってもよい。 As described above, the first calculating unit 32 sets each of the first captured image and the second captured image in the above-mentioned first image region based on the first distance X1, the first captured image, and the second captured image. First correspondence data in which a target coordinate value for obtaining an ideal parallax is associated with each of a plurality of included feature points and a plurality of coordinate values corresponding to one-to-one correspondence (coordinate values of a captured image before correction) To do. In addition, in this example, the first calculating unit 32 calculates the first corresponding data corresponding to the first captured image and the first corresponding data corresponding to the second captured image, but the present invention is not limited to this. For example, the first calculation unit 32 may be in a form of calculating only the first correspondence data corresponding to one of the first captured image and the second captured image.

要するに、第1算出部32は、第1距離X1、第1撮像画像、第2撮像画像に基づき、第1撮像画像および第2撮像画像のうちの少なくとも一方について、第2の画像が表示された対象物(この例では第2の画像が表示された被撮像用具30)が映り込んだ第1画像領域内の複数の特徴点と1対1に対応する複数の座標値ごとに、理想の視差を得るための目標座標値を対応付けた第1対応データを算出する形態であればよい。 In short, the first calculation unit 32 displays the second image for at least one of the first captured image and the second captured image based on the first distance X1, the first captured image, and the second captured image. An ideal parallax is obtained for each of a plurality of coordinate values corresponding one-to-one with a plurality of feature points in the first image area in which the target object (in this example, the imaged tool 30 on which the second image is displayed) is reflected. It suffices that the first correspondence data in which the target coordinate values for obtaining is obtained is calculated.

図12の説明を続ける。第2取得部33は、撮像部21から第2距離X2(この例では1m)だけ離れた被撮像用具30(第2の画像が表示された被撮像用具30)を第1カメラ24aで撮像することにより得られた第3撮像画像と、該被撮像用具30を第2カメラ24bで撮像することで得られた第4撮像画像とを取得する。なお、本変形例では、上述の第1取得部31および第2取得部33を別体として記載するが、これに限らず、例えば第1取得部31および第2取得部33は同一の構成要素であってもよい。つまり、第1取得部31および第2取得部33のうちの一方が他方の機能も兼ねる形態であってもよい。 The description of FIG. 12 will be continued. The 2nd acquisition part 33 picturizes with the 1st camera 24a the to-be-photographed tool 30 (the to-be-photographed tool 30 in which the 2nd image was displayed) distant from the imaging part 21 by the 2nd distance X2 (1 m in this example). The third picked-up image obtained by doing so and the fourth picked-up image obtained by picking up the imaged tool 30 with the second camera 24b are acquired. In addition, in this modification, the above-described first acquisition unit 31 and second acquisition unit 33 are described as separate bodies, but the present invention is not limited to this, and for example, the first acquisition unit 31 and the second acquisition unit 33 are the same constituent elements. May be That is, one of the first acquisition unit 31 and the second acquisition unit 33 may have a function that also functions as the other.

第2算出部34は、第2距離X2(この例では1m)、第3撮像画像、第4撮像画像に基づき、第3撮像画像および第4撮像画像のうちの少なくとも一方について、第2の画像が表示された被撮像用具30が映り込んだ画像領域のうち、上述の第1画像領域に相当する部分以外の画像領域を示す第2画像領域(本変形例においては撮像画像の中央領域以外の画像領域)に含まれる複数の特徴点と1対1に対応する複数の座標値ごとに、理想の視差を得るための目標座標値を対応付けた第2対応データを算出する。 The second calculation unit 34, based on the second distance X2 (1 m in this example), the third captured image, and the fourth captured image, at least one of the third captured image and the fourth captured image is the second image. The second image area showing the image area other than the portion corresponding to the above-mentioned first image area in the image area in which the to-be-imaged tool 30 is displayed (in this modification, other than the central area of the captured image, The second correspondence data in which the target coordinate values for obtaining the ideal parallax are associated with each other for each of the plurality of feature points included in the image area) and the plurality of coordinate values that correspond one-to-one with each other are calculated.

第2対応データの算出方法は、基本的には上述の第1対応データの算出方法と同様である。本変形例の第2算出部34は、第2距離X2、第3撮像画像、第4撮像画像に基づき、第3撮像画像および第4撮像画像の各々について、上述の第2画像領域に含まれる複数の特徴点と1対1に対応する複数の座標値(補正前の撮像画像の座標値)ごとに、理想の視差を得るための目標座標値を対応付けた第2対応データを生成する。 The method of calculating the second corresponding data is basically the same as the method of calculating the first corresponding data described above. The second calculator 34 of the present modification is included in the above-mentioned second image area for each of the third captured image and the fourth captured image based on the second distance X2, the third captured image, and the fourth captured image. Second correspondence data in which target coordinate values for obtaining an ideal parallax are associated with each other for each of a plurality of coordinate values corresponding to a plurality of feature points and one-to-one (coordinate values of a captured image before correction) is generated.

この例では、第2算出部34は、第3撮像画像に対応する第2対応データと、第4撮像画像に対応する第2対応データとをそれぞれ生成しているが、これに限らず、例えば第2算出部34は、第3撮像画像および第4撮像画像のうちの一方に対応する第2対応データのみを生成する形態であってもよい。要するに、第2算出部34は、第2距離X2、第3撮像画像、第4撮像画像に基づき、第3撮像画像および第4撮像画像のうちの少なくとも一方について、第2の画像が表示された対象物(この例では第2の画像が表示された被撮像用具30)が映り込んだ画像領域のうち、第1画像領域に相当する部分以外の画像領域を示す第2画像領域内の複数の特徴点と1対1に対応する複数の座標値ごとに、理想の視差を得るための目標座標値を対応付けた第2対応データを算出する形態であればよい。 In this example, the second calculator 34 generates the second correspondence data corresponding to the third captured image and the second correspondence data corresponding to the fourth captured image, respectively, but the present invention is not limited to this, and for example, The second calculator 34 may be configured to generate only the second correspondence data corresponding to one of the third captured image and the fourth captured image. In short, the second calculator 34 displays the second image for at least one of the third captured image and the fourth captured image based on the second distance X2, the third captured image, and the fourth captured image. A plurality of image areas in the second image area showing the image area other than the portion corresponding to the first image area in the image area in which the target object (in this example, the imaged tool 30 on which the second image is displayed) is reflected. It suffices that the second correspondence data in which the target coordinate values for obtaining the ideal parallax are associated with each other for each of the plurality of coordinate values that correspond one-to-one with the feature points.

図12の説明を続ける。第3算出部35は、上述の第1対応データと上述の第2対応データとに基づいて、第1カメラ24aまたは第2カメラ24bによる撮像で得られる撮像画像を補正するための補正パラメータを算出する。より具体的には、第3算出部35は、上述の第1対応データおよび上述の第2対応データの各々に含まれる座標値と目標座標値とがそれぞれ対応付けられた複数の組から、最小二乗法により、第1カメラ24aまたは第2カメラ24bによる撮像で得られる撮像画像の座標値と目標座標値との関係を表す補正式の係数を、補正パラメータとして算出する。補正式は、例えば以下の式1で表すことができる。式1において、xは、補正前の撮像画像の左右方向の座標値を示し、yは、補正前の撮像画像の上下方向の座標値を示す。また、x’は、撮像画像の左右方向の目標座標値を示し、y’は、撮像画像の上下方向の目標座標値を示す。なお、補正式は、以下の式1のようなアフィン変換式に限定されるものではなく、他の形でも構わない。
The description of FIG. 12 will be continued. The third calculator 35 calculates a correction parameter for correcting a captured image obtained by capturing with the first camera 24a or the second camera 24b, based on the first correspondence data and the second correspondence data described above. To do. More specifically, the third calculating unit 35 selects the minimum value from a plurality of sets in which the coordinate values and the target coordinate values included in each of the first corresponding data and the second corresponding data described above are associated with each other. By the square method, the coefficient of the correction formula representing the relationship between the coordinate value of the captured image obtained by the image capturing by the first camera 24a or the second camera 24b and the target coordinate value is calculated as the correction parameter. The correction formula can be expressed, for example, by the following formula 1. In Formula 1, x represents the horizontal coordinate value of the uncorrected captured image, and y represents the vertical coordinate value of the uncorrected captured image. Further, x′ indicates the target coordinate value in the horizontal direction of the captured image, and y′ indicates the target coordinate value in the vertical direction of the captured image. The correction formula is not limited to the affine transformation formula such as the following formula 1 and may be in other forms.

本変形例では、第3算出部35は、上述の第1撮像画像に対応する第1対応データに含まれる複数のデータセット(補正前の座標値と目標座標値との組)と、上述の第3撮像画像に対応する第2対応データに含まれる複数のデータセットとから、最小二乗法により、第1カメラ24aによる撮像で得られる撮像画像の座標値と、目標座標値との関係を表す補正式(以下の説明では、「第1補正式」と称する場合がある)の係数a〜f(第1の補正パラメータであると考えることができる)を算出する。また、第3算出部35は、上述の第2撮像画像に対応する第1対応データに含まれる複数のデータセットと、上述の第4撮像画像に対応する第2対応データに含まれる複数のデータセットとから、最小二乗法により、第2カメラ24bによる撮像で得られる撮像画像の座標値と、目標座標値との関係を表す補正式(以下の説明では、「第2補正式」と称する場合がある)の係数a〜f(第2の補正パラメータであると考えることができる)を算出する。 In the present modification, the third calculator 35 includes a plurality of data sets (a set of coordinate values before correction and target coordinate values) included in the first corresponding data corresponding to the above-described first captured image, and The relationship between the target coordinate value and the coordinate value of the captured image obtained by the first camera 24a from the plurality of data sets included in the second corresponding data corresponding to the third captured image by the least square method. The coefficients a to f (which can be considered to be the first correction parameter) of the correction formula (which may be referred to as “first correction formula” in the following description) are calculated. In addition, the third calculation unit 35 includes a plurality of data sets included in the first corresponding data corresponding to the above-described second captured image and a plurality of data included in the second corresponding data corresponding to the above-described fourth captured image. A correction formula representing the relationship between the coordinate value of the captured image obtained by the second camera 24b and the target coordinate value from the set by the least-squares method (in the following description, a case where it is referred to as a "second correction formula"). A) (which can be considered to be the second correction parameter).

以上のようにして、第3算出部35は、第1カメラ24aによる撮像で得られた撮像画像の座標値と目標座標値との関係を表す第1補正式と、第2カメラ24bによる撮像で得られた撮像画像の座標値と目標値との関係を表す第2補正式とをそれぞれ求める。そして、測定部23は、第1補正式を用いて、第1カメラ24aによる撮像で得られた撮像画像の座標値を補正することで、第1補正画像を得る。また、測定部23は、第2補正式を用いて、第2カメラ24bによる撮像で得られた撮像画像の座標値を補正することで、第2補正画像を得る。そして、第1補正画像と第2補正画像とから視差を計算し、第1補正画像および第2補正画像のうち基準となる方の画像の各画素の奥行き値(デプス)を示す視差画像(デプスマップ)を生成して出力することができる。 As described above, the third calculating unit 35 uses the first correction formula representing the relationship between the coordinate value of the captured image obtained by the image capturing by the first camera 24a and the target coordinate value and the image capturing by the second camera 24b. A second correction equation representing the relationship between the coordinate value of the obtained captured image and the target value is obtained. Then, the measurement unit 23 obtains the first corrected image by correcting the coordinate value of the captured image obtained by the image capturing by the first camera 24a using the first correction formula. The measurement unit 23 also obtains a second corrected image by correcting the coordinate value of the captured image obtained by the second camera 24b by using the second correction formula. Then, the parallax is calculated from the first corrected image and the second corrected image, and the parallax image (depth) indicating the depth value (depth) of each pixel of the reference image of the first corrected image and the second corrected image is displayed. Map) can be generated and output.

本変形例においても、距離X1に対応する空間周波数の成分と、距離X2に対応する空間周波数の成分とを含むように第2の画像を生成することで、何れの距離(X1、X2)で撮像を行う場合であっても、安定して特徴点を抽出することができる。また、本変形例においては、キャリブレーションに用いられる被撮像用具30の数は1つで済むので、構成を簡素化できるという利点もある。 Also in this modification, by generating the second image so as to include the spatial frequency component corresponding to the distance X1 and the spatial frequency component corresponding to the distance X2, at any distance (X1, X2) Even when the image is taken, the feature points can be stably extracted. Further, in the present modification, since the number of the imaging target tools 30 used for calibration is only one, there is also an advantage that the configuration can be simplified.

図13は、変形例の算出部22の動作例を示すフローチャートである。 FIG. 13 is a flowchart showing an operation example of the calculation unit 22 of the modified example.

まず、第1取得部31は、撮像部21から第1距離X1(この例では5m)だけ離れた被撮像用具30(第2の画像が表示された被撮像用具30)を第1カメラ24aで撮像することで得られた第1撮像画像と、該被撮像用具30を第2カメラ24bで撮像することで得られた第2撮像画像とを取得する(ステップS21)。次に、第1算出部32は、ステップS21で取得された第1撮像画像および第2撮像画像と、既知の第1距離X1(この例では5m)とに基づいて、上述の第1対応データを算出する(ステップS22)。この第1対応データの算出方法は、上述したとおりである。 First, the first acquisition unit 31 uses the first camera 24a to move the imaged tool 30 (the imaged tool 30 on which the second image is displayed) that is separated from the imaging unit 21 by the first distance X1 (5 m in this example). The first captured image obtained by capturing the image and the second captured image obtained by capturing the imaged tool 30 with the second camera 24b are acquired (step S21). Next, the first calculating unit 32, based on the first captured image and the second captured image acquired in step S21, and the known first distance X1 (5 m in this example), the above-described first correspondence data. Is calculated (step S22). The method of calculating the first correspondence data is as described above.

次に、第2取得部33は、撮像部21から第2距離X2(この例では1m)だけ離れた被撮像用具30(第2の画像が表示された被撮像用具30)を第1カメラ24aで撮像することにより得られた第3撮像画像と、該被撮像用具30を第2カメラ24bで撮像することで得られた第4撮像画像とを取得する(ステップS23)。次に、第2算出部34は、ステップS23で取得された第3撮像画像および第4撮像画像と、既知の第2距離X2(この例では1m)とに基づいて、上述の第2対応データを算出する(ステップS24)。この第2対応データの算出方法は、上述したとおりである。 Next, the second acquisition unit 33 sets the imaged tool 30 (the imaged tool 30 on which the second image is displayed) separated by the second distance X2 (1 m in this example) from the image capturing section 21 to the first camera 24a. The third captured image obtained by capturing the image in (3) and the fourth captured image obtained by capturing the imaged tool 30 with the second camera 24b are acquired (step S23). Next, the second calculator 34, based on the third captured image and the fourth captured image acquired in step S23, and the known second distance X2 (1 m in this example), the above-described second correspondence data. Is calculated (step S24). The method of calculating the second correspondence data is as described above.

次に、第3算出部35は、ステップS22で算出された第1対応データと、ステップS4で算出された第2対応データとに基づいて補正パラメータを算出する(ステップS25)。上述したように、第3算出部35は、第1撮像画像に対応する第1対応データと、第3撮像画像に対応する第2対応データとに基づいて、第1カメラ11aによる撮像で得られる撮像画像の座標値と、目標座標値との関係を表す第1補正式の係数を、補正パラメータとして算出する。また、第3算出部35は、第2撮像画像に対応する第1対応データと、第4撮像画像に対応する第2対応データとに基づいて、第2カメラ11bによる撮像で得られる撮像画像の座標値と、目標座標値との関係を表す第2補正式の係数を、補正パラメータとして算出する。 Next, the third calculator 35 calculates the correction parameter based on the first corresponding data calculated in step S22 and the second corresponding data calculated in step S4 (step S25). As described above, the third calculating unit 35 is obtained by the image pickup by the first camera 11a based on the first corresponding data corresponding to the first captured image and the second corresponding data corresponding to the third captured image. The coefficient of the first correction equation representing the relationship between the coordinate value of the captured image and the target coordinate value is calculated as the correction parameter. Further, the third calculating unit 35, based on the first correspondence data corresponding to the second pickup image and the second correspondence data corresponding to the fourth pickup image, of the pickup image obtained by the second camera 11b. The coefficient of the second correction equation representing the relationship between the coordinate value and the target coordinate value is calculated as a correction parameter.

そして、測定部23は、ステップS25で算出した補正パラメータを用いて、撮像画像の補正(校正)を行う(ステップS26)。上述したように、測定部23は、第1補正式を用いて、第1カメラ24aによる撮像で得られた撮像画像の座標値を補正することで、第1補正画像を得る。また、測定部23は、第2補正式を用いて、第2カメラ24bによる撮像で得られた撮像画像の座標値を補正することで、第2補正画像を得る。 Then, the measurement unit 23 corrects (calibrates) the captured image using the correction parameter calculated in step S25 (step S26). As described above, the measurement unit 23 obtains the first corrected image by correcting the coordinate value of the captured image obtained by the first camera 24a by using the first correction formula. The measurement unit 23 also obtains a second corrected image by correcting the coordinate value of the captured image obtained by the second camera 24b by using the second correction formula.

以上のような校正方法(撮像画像の座標値を補正する方法)は、校正パターン(チャート等も含む)を用いてステレオカメラを校正する校正方法であって、校正パターンとして複数の空間周波数と1対1に対応する複数の第1の画像を合成して生成された第2の画像に基づく校正パターンを用い、第1の撮像ステップと第2の撮像ステップと校正ステップとを含むと考えることができる。第1の撮像ステップは、第1の距離での撮像によって、校正パターンを含む画像(以上の例では第1撮像画像、第2撮像画像に対応)を得るステップである。第2の撮像ステップは、第1の距離とは異なる第2の距離での撮像によって、校正パターンを含む画像(以上の例では第3撮像画像、第4撮像画像に対応)を得るステップである。校正ステップは、第1の距離で得られた画像および第2の距離で得られた画像に基づいて、ステレオカメラの校正を行うステップである。 The above-described calibration method (method of correcting the coordinate value of a captured image) is a calibration method of calibrating a stereo camera using a calibration pattern (including a chart, etc.). It may be considered that a calibration pattern based on a second image generated by combining a plurality of first images corresponding to pair 1 is used, and that the first imaging step, the second imaging step, and the calibration step are included. it can. The first imaging step is a step of obtaining an image including the calibration pattern (corresponding to the first captured image and the second captured image in the above example) by capturing at the first distance. The second imaging step is a step of obtaining an image including the calibration pattern (corresponding to the third captured image and the fourth captured image in the above example) by capturing at a second distance different from the first distance. .. The calibration step is a step of calibrating the stereo camera based on the image obtained at the first distance and the image obtained at the second distance.

また、上記実施形態および変形例におけるパターン投影装置10は、ステレオカメラの校正(キャリブレーション)のみに用いられるわけではなく、ステレオカメラ動作時の視差の計算にも利用できる。例えば、特開2007−101276号公報等のようなパターン照射を利用するステレオカメラを備えたシステムにも用いられ得る。すなわち、照射したパターンに基づいて視差の計算を行うシステムであって、パターンとして、複数の空間周波数と1対1に対応する複数の第1の画像を合成して生成された第2の画像に基づくパターンを用い、そのパターンに基づいて、視差の計算を行うシステムであってもよい。 Further, the pattern projection apparatus 10 in the above-described embodiment and modification is not only used for calibration of the stereo camera, but can also be used for calculation of parallax during operation of the stereo camera. For example, it can also be used in a system including a stereo camera that uses pattern irradiation, such as Japanese Patent Laid-Open No. 2007-101276. That is, it is a system that calculates a parallax based on an illuminated pattern, and a pattern is generated by combining a plurality of first images corresponding to a plurality of spatial frequencies with a second image generated by combining the plurality of first images. It may be a system that uses a pattern based on the pattern and calculates the parallax based on the pattern.

(プログラム)
上述した実施形態のパターン投影装置10で実行されるプログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)、USB(Universal Serial Bus)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよいし、インターネット等のネットワーク経由で提供または配布するように構成してもよい。また、各種プログラムを、ROM等に予め組み込んで提供するように構成してもよい。
(program)
The program executed by the pattern projection apparatus 10 according to the above-described embodiment is a file in an installable format or an executable format, which is a CD-ROM, a flexible disk (FD), a CD-R, a DVD (Digital Versatile Disk), or a USB. (Universal Serial Bus) or the like may be recorded on a computer-readable recording medium and provided, or may be provided or distributed via a network such as the Internet. Further, various programs may be configured to be provided by being pre-installed in a ROM or the like.

1 システム
10 パターン投影装置
20 三次元測定装置
21 撮像部
22 算出部
23 測定部
30 被撮像用具
101 CPU
102 ROM
103 RAM
104 投影部
105 I/F部
106 光源
107 画像形成部
108 レンズ部
110 取得部
120 生成部
130 出力制御部
1 system 10 pattern projection device 20 three-dimensional measuring device 21 imaging unit 22 calculation unit 23 measuring unit 30 imaged tool 101 CPU
102 ROM
103 RAM
104 Projection Unit 105 I/F Unit 106 Light Source 107 Image Forming Unit 108 Lens Unit 110 Acquisition Unit 120 Generation Unit 130 Output Control Unit

特開2011−118328号公報JP, 2011-118328, A

本発明は、校正方法に関する。 The present invention relates to a calibration method .

上述した課題を解決し、目的を達成するために、本発明は、それぞれ異なる空間周波数を含む複数の第1の画像を合成して生成された第2の画像、を含むパターンを印刷するステップと、印刷された前記パターンをステレオカメラで撮像するステップと、前記パターンを撮像した撮像画像に基づいて、前記ステレオカメラの校正を行うステップと、を含むことを特徴とするIn order to solve the above-mentioned problems and to achieve the object, the present invention includes a step of printing a pattern including a second image generated by combining a plurality of first images each including a different spatial frequency. A step of capturing an image of the printed pattern with a stereo camera, and a step of calibrating the stereo camera based on a captured image obtained by capturing the pattern .

以下、添付図面を参照しながら、本発明に係る校正方法の実施形態を詳細に説明する。以下では、本発明が適用される画像処理装置の一例として、画像投影装置の一態様であるパターン投影装置を例に挙げて説明するが、これに限られるものではない。 Hereinafter, embodiments of a calibration method according to the present invention will be described in detail with reference to the accompanying drawings. Hereinafter, as an example of the image processing apparatus to which the present invention is applied, a pattern projection apparatus which is one aspect of the image projection apparatus will be described as an example, but the invention is not limited thereto.

図8は、第2の画像を生成する場合のパターン投影装置10の動作例を示すフローチャートである。図8に示すように、まず取得部110は、複数の空間周波数と1対1に対応する複数の第1の画像を生成する(ステップS10)。具体的な内容は上述したとおりである。次に、生成部120は、ステップS10で生成された複数の第1の画像を合成して第2の画像を生成する(ステップS11)。具体的な内容は上述したとおりである。 FIG. 8 is a flowchart showing an operation example of the pattern projection device 10 when generating the second image. As shown in FIG. 8, first acquisition unit 110 generates a plurality of first images corresponding to a plurality of spatial frequencies in one-to-one (step S 10). The specific content is as described above. Then, generation unit 120, a plurality of first image generated in step S 10 generates a second image by synthesizing (step S 11). The specific content is as described above.

Claims (7)

複数の空間周波数と1対1に対応する複数の第1の画像を取得する取得部と、
前記取得部により取得された前記複数の第1の画像を合成して第2の画像を生成する生成部と、を備え、
前記取得部は、第1の画像のサイズとは異なるサイズの画像領域に含まれる複数の画素の各々の画素値をランダムに決定することで原画像を生成し、該原画像のサイズを第1の画像と同じサイズに変更することで、前記複数の空間周波数のうちの一の空間周波数に対応する第1の画像を生成する、
画像処理装置。
An acquisition unit that acquires a plurality of first images corresponding to a plurality of spatial frequencies and one-to-one;
A generating unit configured to combine the plurality of first images acquired by the acquiring unit to generate a second image,
The acquisition unit generates an original image by randomly determining a pixel value of each of a plurality of pixels included in an image area having a size different from the size of the first image, and determines the size of the original image as the first image. To generate a first image corresponding to one spatial frequency of the plurality of spatial frequencies by changing the size to the same size as the image of
Image processing device.
前記複数の第1の画像の各々は、対応する空間周波数の成分を少なくとも含む、
請求項1に記載の画像処理装置。
Each of the plurality of first images includes at least a corresponding spatial frequency component,
The image processing apparatus according to claim 1.
前記画像領域のサイズは第1の画像のサイズよりも小さく、
前記取得部は、生成した原画像のサイズを第1の画像と同じサイズに拡大することで、前記複数の空間周波数のうちの一の空間周波数に対応する第1の画像を生成する、
請求項1に記載の画像処理装置。
The size of the image area is smaller than the size of the first image,
The acquisition unit generates a first image corresponding to one spatial frequency of the plurality of spatial frequencies by enlarging the size of the generated original image to the same size as the first image,
The image processing apparatus according to claim 1.
前記生成部は、前記複数の第1の画像の各々に含まれる複数の画素ごとに、前記複数の第1の画像の各々における当該画素の輝度値の平均を求めて設定することで、前記第2の画像を生成する、
請求項1乃至3のうちの何れか1項に記載の画像処理装置。
The generation unit calculates, for each of a plurality of pixels included in each of the plurality of first images, an average of brightness values of the pixels in each of the plurality of first images, thereby setting the first brightness value. Generate two images,
The image processing apparatus according to any one of claims 1 to 3.
前記第2の画像に基づく出力を制御する出力制御部をさらに備える、
請求項1乃至4のうちの何れか1項に記載の画像処理装置。
Further comprising an output control unit that controls output based on the second image,
The image processing apparatus according to any one of claims 1 to 4.
複数の空間周波数と1対1に対応する複数の第1の画像を取得する取得ステップと、
前記取得ステップにより取得された前記複数の第1の画像を合成して第2の画像を生成する生成ステップと、を含み、
前記取得ステップは、第1の画像のサイズとは異なるサイズの画像領域に含まれる複数の画素の各々の画素値をランダムに決定することで原画像を生成し、該原画像のサイズを第1の画像と同じサイズに変更することで、前記複数の空間周波数のうちの一の空間周波数に対応する第1の画像を生成する、
画像処理方法。
An acquisition step of acquiring a plurality of first images corresponding to a plurality of spatial frequencies and one-to-one;
A generating step of generating a second image by combining the plurality of first images acquired by the acquiring step,
In the acquisition step, an original image is generated by randomly determining pixel values of a plurality of pixels included in an image region having a size different from the size of the first image, and the size of the original image is set to the first value. To generate a first image corresponding to one spatial frequency of the plurality of spatial frequencies by changing the size to the same size as the image of
Image processing method.
コンピュータに、
複数の空間周波数と1対1に対応する複数の第1の画像を取得する取得ステップと、
前記取得ステップにより取得された前記複数の第1の画像を合成して第2の画像を生成する生成ステップと、を実行させ、
前記取得ステップは、第1の画像のサイズとは異なるサイズの画像領域に含まれる複数の画素の各々の画素値をランダムに決定することで原画像を生成し、該原画像のサイズを第1の画像と同じサイズに変更することで、前記複数の空間周波数のうちの一の空間周波数に対応する第1の画像を生成する、
ためのプログラム。
On the computer,
An acquisition step of acquiring a plurality of first images corresponding to a plurality of spatial frequencies and one-to-one;
A generation step of combining the plurality of first images acquired by the acquisition step to generate a second image,
In the acquisition step, an original image is generated by randomly determining a pixel value of each of a plurality of pixels included in an image area having a size different from the size of the first image, and the size of the original image is set to the first value. To generate a first image corresponding to one spatial frequency of the plurality of spatial frequencies by changing the size to the same size as the image of
Program for.
JP2020018970A 2015-01-20 2020-02-06 Calibration method Active JP6969619B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015008876 2015-01-20
JP2015008876 2015-01-20
JP2015237429A JP6657880B2 (en) 2015-01-20 2015-12-04 Image processing apparatus, image processing method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015237429A Division JP6657880B2 (en) 2015-01-20 2015-12-04 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2020102230A true JP2020102230A (en) 2020-07-02
JP6969619B2 JP6969619B2 (en) 2021-11-24

Family

ID=56512154

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2015237429A Active JP6657880B2 (en) 2015-01-20 2015-12-04 Image processing apparatus, image processing method, and program
JP2020018970A Active JP6969619B2 (en) 2015-01-20 2020-02-06 Calibration method

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2015237429A Active JP6657880B2 (en) 2015-01-20 2015-12-04 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (2) JP6657880B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6680119B2 (en) 2016-07-11 2020-04-15 株式会社デンソー Vehicle air conditioner

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0921620A (en) * 1995-07-05 1997-01-21 Fuji Facom Corp Method for measuring three-dimensional shape of object
JP2003207324A (en) * 2002-01-16 2003-07-25 Olympus Optical Co Ltd Method and device for acquiring three-dimensional information
JP2004078314A (en) * 2002-08-09 2004-03-11 Ricoh Co Ltd Control method for image input device, encapsulated document and storage medium
US20080279446A1 (en) * 2002-05-21 2008-11-13 University Of Kentucky Research Foundation System and technique for retrieving depth information about a surface by projecting a composite image of modulated light patterns
JP2010177921A (en) * 2009-01-28 2010-08-12 Fujifilm Corp Stereoscopic imaging apparatus and stereoscopic imaging method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0921620A (en) * 1995-07-05 1997-01-21 Fuji Facom Corp Method for measuring three-dimensional shape of object
JP2003207324A (en) * 2002-01-16 2003-07-25 Olympus Optical Co Ltd Method and device for acquiring three-dimensional information
US20080279446A1 (en) * 2002-05-21 2008-11-13 University Of Kentucky Research Foundation System and technique for retrieving depth information about a surface by projecting a composite image of modulated light patterns
JP2004078314A (en) * 2002-08-09 2004-03-11 Ricoh Co Ltd Control method for image input device, encapsulated document and storage medium
JP2010177921A (en) * 2009-01-28 2010-08-12 Fujifilm Corp Stereoscopic imaging apparatus and stereoscopic imaging method

Also Published As

Publication number Publication date
JP6657880B2 (en) 2020-03-04
JP6969619B2 (en) 2021-11-24
JP2016136720A (en) 2016-07-28

Similar Documents

Publication Publication Date Title
US8922626B2 (en) Stereo camera apparatus and method of obtaining image
JP5035372B2 (en) 3D modeling apparatus, 3D modeling method, and program
WO2017002293A1 (en) Real-time-measurement projection device and three-dimensional-projection measurement device
US10939081B2 (en) Image processing apparatus, image processing method, and storage medium
JP7387434B2 (en) Image generation method and image generation device
US10621694B2 (en) Image processing apparatus, system, image processing method, calibration method, and computer-readable recording medium
JP2019144606A (en) Output device, control method, and program
WO2012029658A1 (en) Imaging device, image-processing device, image-processing method, and image-processing program
JP2010152521A (en) Apparatus and method for performing stereographic processing to image
JP2008216127A (en) Distance image generation device, distance image generation method, and program
JP6604908B2 (en) Image processing apparatus, control method thereof, and control program
JP2008216126A (en) Distance image generating device, distance image generation method, and program
JP6969619B2 (en) Calibration method
US9762790B2 (en) Image pickup apparatus using edge detection and distance for focus assist
JP2017011652A (en) Image processing device, imaging apparatus, image processing method and program
JP6532328B2 (en) Image processing apparatus, control method therefor, and control program
JP2010124061A (en) System, method and program for specifying pixel position correspondence relation
JP2017143504A5 (en)
JP2008021210A (en) Method, device and program for generating free-viewpoint image using multi-viewpoint image
JP6732440B2 (en) Image processing apparatus, image processing method, and program thereof
JP6604783B2 (en) Image processing apparatus, imaging apparatus, and image processing program
WO2016194576A1 (en) Information processing device and method
JP2012150614A (en) Free viewpoint image generation device
JP6585890B2 (en) Image processing apparatus, image processing method and program, and imaging apparatus
JP2014049895A (en) Image processing method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200309

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210928

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211011

R151 Written notification of patent or utility model registration

Ref document number: 6969619

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151