JP4743773B2 - Edge detection method, apparatus, and program - Google Patents

Edge detection method, apparatus, and program Download PDF

Info

Publication number
JP4743773B2
JP4743773B2 JP2006153174A JP2006153174A JP4743773B2 JP 4743773 B2 JP4743773 B2 JP 4743773B2 JP 2006153174 A JP2006153174 A JP 2006153174A JP 2006153174 A JP2006153174 A JP 2006153174A JP 4743773 B2 JP4743773 B2 JP 4743773B2
Authority
JP
Japan
Prior art keywords
edge
function
information
lens
edge detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006153174A
Other languages
Japanese (ja)
Other versions
JP2007322259A (en
Inventor
明 久保
芳久 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Opto Inc
Original Assignee
Konica Minolta Opto Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Opto Inc filed Critical Konica Minolta Opto Inc
Priority to JP2006153174A priority Critical patent/JP4743773B2/en
Publication of JP2007322259A publication Critical patent/JP2007322259A/en
Application granted granted Critical
Publication of JP4743773B2 publication Critical patent/JP4743773B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、対象物について取得された二次元画像データから、前記対象物に対応するエッジを検出するエッジ検出方法、装置、及びプログラムに関するものである。   The present invention relates to an edge detection method, apparatus, and program for detecting an edge corresponding to an object from two-dimensional image data acquired for the object.

例えば面計測型の三次元デジタイザ等のような三次元計測装置では、対象物について二次元画像データを取得し、かかる二次元画像データに基づいて対象物の三次元データが算出されている。ある用途では、前記二次元画像データを画像処理し、その二次元画像に含まれる対象物の形状等に対応するエッジが検出される場合がある。ここで、前記対象物が立体物である場合、合焦位置からずれる部分がどうしても生じることから、当該二次元画像にはボケが含まれる。従って、高精度にエッジを検出できない場合がある。   For example, in a three-dimensional measurement device such as a surface measurement type three-dimensional digitizer, two-dimensional image data is acquired for an object, and the three-dimensional data of the object is calculated based on the two-dimensional image data. In some applications, the two-dimensional image data is subjected to image processing, and an edge corresponding to the shape of an object included in the two-dimensional image may be detected. Here, when the object is a three-dimensional object, a portion deviating from the in-focus position is inevitably generated, and thus the two-dimensional image includes blur. Therefore, the edge may not be detected with high accuracy.

従来、このような場合には、予め定められた1つの解析関数をエッジ検出箇所に適用してフィッティングし、そのフィッティング関数のピーク位置を求めることでエッジを検出する方法が取られている。また、特許文献1には、二次元画像データを微分して微分画像を生成し、その微分曲線が急峻な箇所については該微分曲線の近似曲線のピーク位置をエッジとして検出し、微分曲線が緩やかな箇所については該微分曲線の重心をエッジとして検出する手法が開示されている。
特開平9−2574226号公報
Conventionally, in such a case, a method has been adopted in which one predetermined analytical function is applied to an edge detection location for fitting, and the edge position is detected by obtaining the peak position of the fitting function. Further, in Patent Document 1, a differential image is generated by differentiating two-dimensional image data, and the peak position of the approximate curve of the differential curve is detected as an edge for a portion where the differential curve is steep, and the differential curve is moderated. A technique for detecting the center of gravity of the differential curve as an edge is disclosed for such a point.
JP-A-9-2574226

画像のボケ具合は、合焦位置からの距離により変化する。すなわち、対象物の立体形状によっては、エッジ部分における画像のボケ具合がまちまちとなる。しかしながら従来法では、画像のボケ具合に拘わらず、一定の解析関数を適用してフィッティングが行われる。従って、フィッティング精度が悪くなり、結果としてエッジ検出精度が低くなるという問題があった。この問題は、近似曲線と重心とを使い分ける特許文献2の手法によっても十分に解決することはできない。すなわち、結局特許文献2の手法は画像ボケが生じているときには重心計算に依存するものであり、かかる重心計算では精度良くエッジを検出することができない。   The degree of image blur varies depending on the distance from the in-focus position. That is, depending on the three-dimensional shape of the object, the degree of blurring of the image at the edge portion varies. However, in the conventional method, fitting is performed by applying a certain analysis function regardless of the degree of image blur. Accordingly, there is a problem that the fitting accuracy is deteriorated, and as a result, the edge detection accuracy is lowered. This problem cannot be sufficiently solved even by the technique of Patent Document 2 that uses the approximate curve and the center of gravity separately. That is, after all, the method of Patent Document 2 depends on the centroid calculation when image blurring occurs, and the edge cannot be detected with high accuracy by such centroid calculation.

本発明は、上記のような問題点に鑑みてなされたもので、エッジ検出箇所に画像ボケが生じている場合でも精度良くエッジを検出することができるエッジ検出方法、装置、及びプログラムを提供することを目的とする。   The present invention has been made in view of the above problems, and provides an edge detection method, apparatus, and program capable of accurately detecting an edge even when an image blur occurs at an edge detection location. For the purpose.

本発明の請求項1に係るエッジ検出方法は、所定の光学系を用いて対象物を撮影することで前記対象物についての二次元画像データを取得するステップと、前記撮影の位置から前記対象物までの距離情報を、前記二次元画像データに基づく画像内の各所において取得するステップと、前記距離情報に応じて、前記画像内に存在するエッジを検出するエッジ検出箇所の各々に適用する解析関数を決定するステップと、前記エッジ検出箇所の各々に、決定された前記解析関数をそれぞれ適用してエッジを検出するステップと、を含み、前記エッジを検出するステップが、前記二次元画像データを微分処理することで微分画像を作成するステップと、前記エッジ検出箇所の各々に適用する解析関数を前記微分画像にフィッティング処理するステップと、フィッティングされた解析関数の頂点をエッジとして検出するステップとを含むことを特徴とする。 According to a first aspect of the present invention, there is provided an edge detection method comprising: obtaining two-dimensional image data about the object by photographing the object using a predetermined optical system; and the object from the photographing position. distance information to, the steps of acquiring have you in various places within the image based on the two-dimensional image data, in accordance with the distance information, it is applied to each of the edge detection portion for detecting edges existing in the image A step of determining an analytic function; and a step of detecting an edge by applying the determined analytic function to each of the edge detection locations, and the step of detecting the edge comprises the two-dimensional image data Differential processing by differential processing, and a step of fitting an analytical function applied to each of the edge detection locations to the differential image , Characterized in that it comprises the steps of detecting the vertex of the fitted analytical function as an edge.

この方法によれば、対象物の二次元画像に基づいて撮影の位置から前記対象物までの距離情報が取得され、この距離情報に応じてエッジ検出箇所の各々に適用される解析関数が決定されるので、それぞれのエッジ検出箇所の立体形状に応じた最適な解析関数が適用される。例えば、各エッジ検出箇所において合焦位置からのズレ度合いが考慮された解析関数でエッジ検出を行うことが可能となる。従って、エッジ検出精度を向上させることができる。 According to this method, distance information from the photographing position to the object is acquired based on a two-dimensional image of the object, and an analysis function to be applied to each of the edge detection locations is determined according to the distance information. Therefore, an optimal analysis function corresponding to the three-dimensional shape of each edge detection location is applied. For example, edge detection can be performed with an analytic function that takes into account the degree of deviation from the in-focus position at each edge detection location. Therefore, the edge detection accuracy can be improved.

また、前記エッジを検出するステップが、前記二次元画像データを微分処理することで微分画像を作成するステップと、前記エッジ検出箇所の各々に適用する解析関数を前記微分画像にフィッティング処理するステップと、フィッティングされた解析関数の頂点をエッジとして検出するステップとを含むので、微分画像の変化量に基づきピーク値(エッジ)を容易に求めることができ、エッジ検出処理を簡素化することができる。In addition, the step of detecting the edge includes a step of creating a differential image by differentiating the two-dimensional image data, and a step of fitting an analysis function applied to each of the edge detection locations to the differential image; And the step of detecting the apex of the fitted analytical function as an edge, so that the peak value (edge) can be easily obtained based on the amount of change in the differential image, and the edge detection process can be simplified.

この場合、前記解析関数を、予め前記光学系の設計値に基づいて導出するステップを含むことが望ましい(請求項2)。対象物までの距離情報に応じた最適な解析関数は、光学系の設計値から導出することが可能である。この方法によれば、距離情報に応じた解析関数を設計値に基づき予め導出しておくステップが実行されるので、各エッジ検出箇所に適用する解析関数の決定を迅速且つ的確に行うことができる。 In this case, the pre-Symbol analysis function, we are desirable to include a step of deriving, based on the pre-designed value of the optical system (claim 2). The optimal analysis function corresponding to the distance information to the object can be derived from the design value of the optical system. According to this method, the step of deriving in advance the analysis function corresponding to the distance information based on the design value is executed, so that the analysis function to be applied to each edge detection location can be determined quickly and accurately. .

また、前記解析関数を、予め前記光学系を用いてサンプル撮影を行った実測結果から導出するステップを含むことが望ましい(請求項3)。この方法によれば、実測結果に基づいた解析関数を距離情報に応じて準備しておくことが可能となるので、各エッジ検出箇所に適用する解析関数の決定を迅速且つ的確に行うことができる。 Also, the pre-Symbol analysis function, we are desirable to include a step of deriving from advance the actual result of the sample taken with the optical system (claim 3). According to this method, an analysis function based on the actual measurement result can be prepared according to the distance information, so that the analysis function to be applied to each edge detection location can be determined quickly and accurately. .

上記いずれかの方法において、前記解析関数を、前記距離情報に応じてテーブル化するステップを含むことが望ましい(請求項4)。また、前記解析関数を、前記距離情報に応じて導出するための導出関数を求めるステップを含むことが望ましい(請求項5)。これらの方法によれば、距離情報に応じた解析関数のテーブルや、解析関数を距離情報に応じて導出する導出関数が準備されるので、エッジ検出箇所に適用する解析関数の決定処理を容易化することができる。   In any one of the above methods, it is preferable that the analysis function includes a step of forming a table according to the distance information. Preferably, the method further includes a step of obtaining a derivation function for deriving the analytic function in accordance with the distance information. According to these methods, a table of analytic functions according to distance information and a derivation function for deriving analytic functions according to distance information are prepared, facilitating determination processing of analytic functions to be applied to edge detection locations. can do.

また、前記解析関数を決定するに際し、前記距離情報に加えて、前記撮影レンズについての所定のレンズ情報が利用されるようにすることができる(請求項6)。この方法によれば、所定のレンズ情報を利用して解析関数が決定される。すなわち、二次元画像データを取得する際に用いられる光学系について、距離情報とレンズ情報とを参照することで、合焦位置からのズレ量と画像のボケ具合との関係を一層正確に把握できるようになる。従って、ボケ具合により二次元画像に表された対象物の形状を推定できようになり、エッジ検出箇所に適用する解析関数を対象物の形状にマッチさせて的確に決定できるようになる。 Further, in determining the pre-Symbol analysis function, in addition to the distance information, predetermined lens information about the photographing lens can be made to be utilized (claim 6). According to this method, the analysis function is determined using predetermined lens information. That is, by referring to the distance information and the lens information for the optical system used when acquiring the two-dimensional image data, the relationship between the amount of deviation from the in-focus position and the degree of image blur can be grasped more accurately. It becomes like this. Therefore, it becomes possible to estimate the shape of the object represented in the two-dimensional image due to the degree of blur, and to accurately determine the analysis function to be applied to the edge detection location by matching the shape of the object.

この場合、前記レンズ情報として、前記撮影レンズの焦点距離情報及び/又はレンズF値情報を用いることができる(請求項7)。この方法によれば、距離情報と焦点距離情報又は距離情報とレンズF値情報の組み合わせ、或いは距離情報、焦点距離情報及びレンズF値情報の3つの情報から合焦位置からのボケ具合に関する情報が把握される。焦点距離情報及びレンズF値情報は、合焦位置からのボケ具合に大きな影響を与えるパラメータであるため、これら情報を用いることでボケ具合を的確に把握できるようになる。   In this case, focal length information and / or lens F value information of the photographing lens can be used as the lens information. According to this method, information on the degree of blur from the in-focus position is obtained from the combination of distance information, focal length information, or a combination of distance information and lens F value information, or from three information of distance information, focal length information, and lens F value information. Be grasped. Since the focal length information and the lens F value information are parameters that greatly affect the degree of blur from the in-focus position, the degree of blur can be accurately grasped by using these information.

上記いずれかの方法において、前記距離情報及びレンズ情報に基づき、合焦位置からのズレに伴う画像のボケ具合に関する情報を、予め前記光学系の設計値に基づいて導出するステップを含むことが望ましい(請求項8)。或いは、合焦位置からのズレに伴う画像のボケ具合に関する情報を、予め前記光学系を用いてサンプル撮影を行った実測結果から、前記距離情報及びレンズ情報に関連付けて導出するステップを含むことが望ましい(請求項9)。これらの方法によれば、光学系の設計値や実測結果に基づき、合焦位置からのズレに伴う画像のボケ具合に関する情報が予め把握されるので、各エッジ検出箇所に適用する解析関数の決定を迅速且つ的確に行うことができる。   In any one of the above methods, it is preferable that the method includes a step of deriving in advance information on a degree of blurring of an image accompanying a shift from a focus position based on the design value of the optical system based on the distance information and the lens information. (Claim 8). Alternatively, the method may include a step of deriving information related to the degree of blurring of the image accompanying the deviation from the in-focus position from an actual measurement result obtained by performing sample photographing using the optical system in advance in association with the distance information and the lens information. Desirable (Claim 9). According to these methods, information on the degree of blurring of the image accompanying the deviation from the in-focus position is grasped in advance based on the design value of the optical system and the actual measurement result, so that the analysis function to be applied to each edge detection point is determined. Can be performed quickly and accurately.

また、上記いずれかの方法において、前記解析関数を、前記距離情報と前記レンズ情報とに対応付けてテーブル化するステップを含むことが望ましい(請求項10)。或いは、
前記解析関数を、前記距離情報及び前記レンズ情報に応じて導出するための導出関数を求めるステップを含むことが望ましい(請求項11)。これらの方法によれば、距離情報と前記レンズ情報とに対応付けられた解析関数のテーブルや、解析関数を距離情報に応じて導出する導出関数が準備されるので、エッジ検出箇所に適用する解析関数の決定処理を容易化することができる。
In any one of the above methods, it is preferable that the analysis function includes a step of creating a table in association with the distance information and the lens information. Or
Preferably, the method further comprises a step of obtaining a derivation function for deriving the analytic function in accordance with the distance information and the lens information. According to these methods, the analysis function table associated with the distance information and the lens information and the derivation function for deriving the analysis function according to the distance information are prepared. Function determination processing can be facilitated.

さらに、上記いずれかの方法において、前記解析関数として、少なくともガウス関数及び/又は二次関数を用いることが望ましい(請求項12)。この方法によれば、例えばエッジ検出箇所のボケ具合が比較的大きい場合にはガウス関数を解析関数に用いてフィッティングを行い、ボケ具合が比較的小さい場合は二次関数を解析関数に用いてフィッティングを行うという使い分けを行うことができる。 Furthermore, in any of the above methods, it is desirable to use at least a Gaussian function and / or a quadratic function as the analytic function ( claim 12 ). According to this method, for example, when the degree of blur at the edge detection portion is relatively large, fitting is performed using a Gaussian function as an analysis function, and when the degree of blur is relatively small, fitting is performed using a quadratic function as an analysis function. Can be used properly.

本発明の請求項13に係るエッジ検出装置は、対象物についての二次元画像データを取得する撮像手段と、前記撮像手段による撮影の位置から前記対象物までの距離情報を、前記二次元画像データに基づく画像内の各所において求める距離算出手段と、前記二次元画像に存在するエッジを定める候補となるエッジ候補を特定するエッジ候補特定手段と、前記エッジ候補の各々に適用する解析関数を、前記距離情報に応じてそれぞれ導出する解析関数導出手段と、前記エッジ候補の各々に、導出された前記解析関数をそれぞれ適用してエッジを検出するエッジ検出手段と、前記二次元画像データを微分処理することで微分画像を作成する微分画像生成手段と、を備え、前記エッジ検出手段は、前記エッジ候補の各々について導出された解析関数を、前記微分画像にフィッティング処理し、そのフィッティングされた解析関数の頂点をエッジとして検出することを特徴とする。 An edge detection apparatus according to a thirteenth aspect of the present invention includes an imaging unit that acquires two-dimensional image data about an object, and distance information from the position of photographing by the imaging unit to the object. to a distance calculation means for calculating the various locations in the image rather based, an edge candidate specifying means for specifying a candidate to become possible edge defining an edge existing in the two-dimensional image, the analysis function applied to each of the edge candidate Analysis function deriving means for deriving each according to the distance information, edge detection means for detecting the edge by applying the derived analysis function to each of the edge candidates, and differentiating the two-dimensional image data Differential image generation means for creating a differential image by processing, wherein the edge detection means is an analytic function derived for each of the edge candidates The fitting processing on the differential image, and detects the apex of the fitting has been analyzed functions as an edge.

この装置によれば、撮像手段により対象物の二次元画像データが取得され、距離算出手段によりその二次元画像データに基づき画像の距離情報が取得される。そして、エッジ候補特定手段により特定されたエッジ候補の各々について、解析関数導出手段により前記距離情報に応じて適用される解析関数が決定される。従って、それぞれのエッジ候補の存在箇所に応じた最適な解析関数を適用することが可能となり、エッジ検出精度を向上させることができる。   According to this apparatus, the two-dimensional image data of the object is acquired by the imaging unit, and the distance information of the image is acquired by the distance calculation unit based on the two-dimensional image data. Then, for each of the edge candidates specified by the edge candidate specifying means, an analysis function to be applied according to the distance information is determined by the analysis function deriving means. Therefore, it is possible to apply an optimal analysis function according to the location where each edge candidate exists, and the edge detection accuracy can be improved.

また、前記二次元画像データを微分処理することで微分画像を作成する微分画像生成手段を備え、前記エッジ検出手段は、前記エッジ候補の各々について導出された解析関数を、前記微分画像にフィッティング処理し、そのフィッティングされた解析関数の頂点をエッジとして検出するので、微分画像の変化量に基づきピーク値(エッジ)を容易に求めることができ、エッジ検出手段における演算処理を簡素化できる。Further, the image processing apparatus includes a differential image generation unit that generates a differential image by performing differential processing on the two-dimensional image data, and the edge detection unit fits an analysis function derived for each of the edge candidates to the differential image. Then, since the vertex of the fitted analytical function is detected as an edge, the peak value (edge) can be easily obtained based on the change amount of the differential image, and the arithmetic processing in the edge detecting means can be simplified.

上記の装置において、前記撮像手段に用いられている撮影レンズについて、少なくともその撮影時における焦点距離情報及び/又はレンズF値情報を取得するレンズ情報取得手段を備え、前記解析関数導出手段は、前記距離情報に加えて、前記撮影レンズの焦点距離情報及び/又はレンズF値情報を参照して解析関数を導出することが望ましい(請求項14)。この構成によれば、距離情報に加えて、焦点距離情報及び/又はレンズF値情報を参照して解析関数が導出される。焦点距離情報及びレンズF値情報は、二次元画像データを撮像する撮像手段において、画像のボケ具合に大きな影響を与えるパラメータであるため、これら情報を用いることで合焦位置からの距離に応じたボケ具合が的確に把握できるようになる。従って、エッジ候補の存在箇所の形状にマッチさせて、一層的確に解析関数か導出できるようになる。 In the above apparatus, the photographing lens used in the imaging means includes lens information obtaining means for obtaining at least focal length information and / or lens F value information at the time of photographing, and the analysis function deriving means includes in addition to the distance information, it is desirable to derive the analysis function by referring to the focal length information and / or the lens F value information of said photographing lens (claim 14). According to this configuration, the analysis function is derived by referring to the focal length information and / or the lens F value information in addition to the distance information. The focal length information and the lens F value information are parameters that have a large influence on the degree of blurring of the image in the imaging unit that captures two-dimensional image data. The degree of blur can be accurately grasped. Therefore, it is possible to derive the analytic function more accurately by matching the shape of the edge candidate location.

上記装置において、前記解析関数を、前記距離情報に応じたテーブル形式で保持する解析関数記憶手段を備え、前記解析関数導出手段は、前記エッジ候補の距離情報と前記解析関数記憶手段のテーブルとを照合することで、前記エッジ候補の各々に適用する解析関数を導出することが望ましい(請求項15)。この構成によれば、解析関数記憶手段に距離情報に応じた解析関数のテーブルが保持されているので、解析関数導出手段は各エッジ候補の距離情報と前記テーブルとを照合させる処理を行うのみで解析関数を導出することができる。従って、エッジ検出箇所に適用する解析関数の決定処理を容易化することができる。 In the above apparatus, the analysis function storage means for holding the analysis function in a table format corresponding to the distance information is provided, and the analysis function derivation means includes the distance information of the edge candidate and the table of the analysis function storage means. It is desirable to derive an analysis function to be applied to each of the edge candidates by performing collation ( claim 15 ). According to this configuration, since the analysis function table corresponding to the distance information is held in the analysis function storage means, the analysis function deriving means only performs a process of collating the distance information of each edge candidate with the table. An analytic function can be derived. Therefore, it is possible to facilitate analysis function determination processing applied to the edge detection location.

また、上記装置において、前記解析関数を前記距離情報に応じて導出するための導出関数を保持する導出関数記憶手段を備え、前記解析関数導出手段は、前記エッジ候補の距離情報を前記導出関数に与えることで、前記エッジ候補の各々に適用する解析関数を導出することが望ましい(請求項16)。この構成によれば、導出関数記憶手段に、解析関数を距離情報に応じて導出する導出関数が保持されているので、解析関数導出手段は各エッジ候補の距離情報を前記導出関数に当てはめるだけで解析関数を導出することができる。従って、エッジ検出箇所に適用する解析関数の決定処理を容易化することができる。 The apparatus further includes a derivation function storage unit that holds a derivation function for deriving the analytic function according to the distance information, and the analytic function derivation unit uses the distance information of the edge candidate as the derivation function. by giving, it is desirable to derive an analysis function applied to each of the edge candidate (claim 16). According to this configuration, since the derivation function storing unit holds the derivation function for deriving the analytic function according to the distance information, the analytic function derivation unit simply applies the distance information of each edge candidate to the derivation function. An analytic function can be derived. Therefore, it is possible to facilitate analysis function determination processing applied to the edge detection location.

さらに、前記解析関数を、前記距離情報と、前記焦点距離情報及び/又はレンズF値情報とに応じたテーブル形式で保持する解析関数記憶手段を備え、前記解析関数導出手段は、前記エッジ候補の距離情報、並びに取得された前記焦点距離情報及び/又はレンズF値情報と、前記解析関数記憶手段のテーブルとを照合することで、前記エッジ候補の各々に適用する解析関数を導出することが望ましい(請求項17)。この構成によれば、解析関数記憶手段に距離情報と、焦点距離情報及び/又はレンズF値情報とに応じたに応じた解析関数のテーブルが保持されているので、解析関数導出手段は各エッジ候補の距離情報と前記テーブルとを照合させる処理を行うのみで、ボケ具合等が考慮された解析関数を導出することができる。従って、エッジ検出箇所に適用する解析関数の決定処理を容易化することができる。 Further, the analysis function storage means for holding the analysis function in a table format according to the distance information and the focal length information and / or lens F value information, the analysis function derivation means includes the edge candidate It is desirable to derive an analysis function to be applied to each of the edge candidates by comparing the distance information and the acquired focal length information and / or lens F value information with a table of the analysis function storage means. ( Claim 17 ). According to this configuration, since the analysis function storage unit stores the analysis function table corresponding to the distance information, the focal length information, and / or the lens F value information, the analysis function deriving unit is provided with each edge. An analysis function that takes into account the degree of blur can be derived only by performing processing for collating candidate distance information with the table. Therefore, it is possible to facilitate analysis function determination processing applied to the edge detection location.

また、前記解析関数を前記距離情報と、前記焦点距離情報及び/又はレンズF値情報とに応じて導出するための導出関数を保持する導出関数記憶手段を備え、前記解析関数導出手段は、前記エッジ候補の距離情報、並びに取得された前記焦点距離情報及び/又はレンズF値情報を前記導出関数に与えることで、前記エッジ候補の各々に適用する解析関数を導出することが望ましい(請求項18)。この構成によれば、導出関数記憶手段に、解析関数を距離情報と、焦点距離情報及び/又はレンズF値情報とに応じて導出する導出関数が保持されているので、解析関数導出手段は各エッジ候補の距離情報を前記導出関数に当てはめるだけで、ボケ具合等が考慮された解析関数を導出することができる。従って、エッジ検出箇所に適用する解析関数の決定処理を容易化することができる。 In addition, a derivation function storage unit that holds a derivation function for deriving the analytic function according to the distance information and the focal length information and / or lens F value information, by giving distance information of the edge candidates and acquired the focal length information and / or the lens F value information on the derivation function, it is desirable to derive an analysis function applied to each of the edge candidate (claim 18 ). According to this configuration, the derivation function storage means holds the derivation function for deriving the analysis function in accordance with the distance information, the focal length information and / or the lens F value information. By simply applying the distance information of the edge candidate to the derivation function, an analysis function in consideration of the degree of blur can be derived. Therefore, it is possible to facilitate analysis function determination processing applied to the edge detection location.

本発明の請求項19に係るエッジ検出プログラムは、二次元画像データについてのデータ処理が可能なコンピュータに、所定の光学系を用いて撮影された対象物についての二次元画像データを読み出すステップと、前記二次元画像データに基づき、前記撮影の位置から前記対象物までの距離情報を、前記二次元画像データに基づく画像内の各所において求めるステップと、前記二次元画像に存在するエッジを定める候補となるエッジ候補を特定するステップと、前記エッジ候補の各々に適用する解析関数を、前記距離情報に応じてそれぞれ導出するステップと、前記エッジ候補の各々に、導出された前記解析関数をそれぞれ適用してエッジを検出するステップと、を含み、前記エッジを検出するステップとして、前記二次元画像データを微分処理することで微分画像を作成するステップと、前記エッジ検出箇所の各々に適用する解析関数を前記微分画像にフィッティング処理するステップと、フィッティングされた解析関数の頂点をエッジとして検出するステップとを実行させることを特徴とする。 An edge detection program according to claim 19 of the present invention reads a two-dimensional image data of an object photographed using a predetermined optical system into a computer capable of data processing of the two-dimensional image data; Based on the two-dimensional image data, obtaining distance information from the shooting position to the object at various points in the image based on the two-dimensional image data; and candidates for determining edges existing in the two-dimensional image; Identifying an edge candidate, a step of deriving an analytic function to be applied to each of the edge candidates according to the distance information, and applying the derived analytic function to each of the edge candidates, respectively. wherein detecting the edge, a Te, as the step of detecting the edge, differentiating the two-dimensional image data Execution and creating a differential image by management, comprising the steps of fitting processing in the differentiated image analysis function applied to each of the edge detection points, and detecting the vertices of the fitted analytical functions as an edge It is characterized by making it.

このプログラムによれば、直接撮像手段から、或いは撮像手段から転送を受ける等して所定の記憶手段に格納されている二次元画像データが読み出されると共に、その二次元画像データから距離情報が取得され、この距離情報に応じてエッジ検出箇所の各々に適用される解析関数を決定させる処理をコンピュータに行わせることができる。その結果、それぞれのエッジ検出箇所の立体形状に応じた最適な解析関数が適用される。例えば、各エッジ検出箇所において合焦位置からのズレ度合いが考慮された解析関数でエッジ検出を行うことが可能となる。従って、エッジ検出精度を向上させることができる。   According to this program, the two-dimensional image data stored in the predetermined storage means is read by receiving a transfer directly from the imaging means or from the imaging means, and distance information is acquired from the two-dimensional image data. Then, it is possible to cause the computer to perform processing for determining the analysis function applied to each of the edge detection locations in accordance with the distance information. As a result, an optimal analysis function corresponding to the three-dimensional shape of each edge detection location is applied. For example, edge detection can be performed with an analytic function that takes into account the degree of deviation from the in-focus position at each edge detection location. Therefore, the edge detection accuracy can be improved.

本発明に係るエッジ検出方法、装置、及びプログラムによれば、エッジ検出箇所に異なるボケ具合の画像ボケが生じている場合でも、各々のエッジ検出箇所に適した解析関数を適用して、精度良くエッジを検出することができる。従って、従来法のように一定の解析関数を適用する場合に比べて対象物のエッジを的確に把握することができ、例えば二次元画像データに基づき各種の計測等を行う場合などにおいて、正確な測定データ、解析データを取得することができる。   According to the edge detection method, apparatus, and program according to the present invention, even when image blur having a different blur condition occurs in an edge detection location, an analysis function suitable for each edge detection location is applied and the accuracy is improved. Edges can be detected. Therefore, it is possible to accurately grasp the edge of the object as compared with the case where a certain analysis function is applied as in the conventional method. For example, when performing various measurements based on two-dimensional image data, it is accurate. Measurement data and analysis data can be acquired.

以下、図面に基づいて本発明の実施形態につき説明する。
図1は、本発明に係るエッジ検出装置Sのハード構成の一実施形態を簡略的に示す構成図、図2は、エッジ検出装置Sの電気的構成を示すブロック図である。このエッジ検出装置Sは、対象物10(ここでは自動車のドア部分を例示している)について取得された二次元画像データから、当該対象物10についての三次元形状を求める非接触型の三次元形状測定装置であると共に、対象物10に対応するエッジを検出することが可能な装置である。エッジ検出装置Sは、対象物10の二次元画像データを取得する撮像装置20(撮像手段)と、前記二次元画像データについて所定の解析演算処理を行うパーソナルコンピュータ30とを含んで構成されている。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram schematically illustrating an embodiment of a hardware configuration of an edge detection apparatus S according to the present invention, and FIG. 2 is a block diagram illustrating an electrical configuration of the edge detection apparatus S. The edge detection device S is a non-contact type three-dimensional that obtains a three-dimensional shape of the target object 10 from two-dimensional image data acquired for the target object 10 (illustrated here is an automobile door portion). In addition to the shape measuring device, the device can detect an edge corresponding to the object 10. The edge detection device S is configured to include an imaging device 20 (imaging means) that acquires two-dimensional image data of the object 10 and a personal computer 30 that performs predetermined analysis calculation processing on the two-dimensional image data. .

撮像装置20は、光切断法と呼ばれる方式を用いて対象物10の二次元画像データを取得する。図2に示すように、この撮像装置20は、投光部21、受光部22、光学系駆動部23、CCD(Charge Coupled Device)エリアセンサ等からなる撮像素子24、タイミングジェネレータ(TG)25、出力処理回路26、レンズ情報出力部27、データメモリ28、測定制御部29及びI/F201を含んで構成されている。また、図1に示すように、撮像装置20は略直方体のハウジング形状を有し、投光部21のための投光窓と、受光部22のための受光窓とが設けられてなる。投光部21は、受光部22の上側の、基線長に応じた所定距離だけ離れた位置に設けられている。   The imaging device 20 acquires two-dimensional image data of the object 10 using a method called a light cutting method. As shown in FIG. 2, the imaging device 20 includes a light projecting unit 21, a light receiving unit 22, an optical system driving unit 23, an image sensor 24 including a CCD (Charge Coupled Device) area sensor, a timing generator (TG) 25, An output processing circuit 26, a lens information output unit 27, a data memory 28, a measurement control unit 29, and an I / F 201 are included. As shown in FIG. 1, the imaging device 20 has a substantially rectangular parallelepiped housing shape, and is provided with a light projecting window for the light projecting unit 21 and a light receiving window for the light receiving unit 22. The light projecting unit 21 is provided at a position above the light receiving unit 22 by a predetermined distance according to the baseline length.

投光部21は、光源となるレーザダイオード、投光光学系、回転ミラー等を含んで構成され、水平方向に拡がるレーザビームであるスリット光を射出する。このスリット光は、水平方向に所定の放射角度で拡がり(扇形)、垂直方向に幅を有する平面状の光である。投光部21は、測定制御部29の制御下において前記スリット光を、対象物10に対して走査照射する。   The light projecting unit 21 includes a laser diode serving as a light source, a light projecting optical system, a rotating mirror, and the like, and emits slit light that is a laser beam spreading in the horizontal direction. The slit light is planar light that spreads in a horizontal direction at a predetermined radiation angle (fan shape) and has a width in the vertical direction. The light projecting unit 21 scans the object 10 with the slit light under the control of the measurement control unit 29.

受光部22は、受光光学系を構成する複数枚の撮影レンズ、絞り、フォーカスシングやズーミングのためのレンズ移動機構等を含んで構成され、前記スリット光が対象物10の表面で反射された反射光の一部が入射される。因みにパーソナルコンピュータ30は、レーザ光の投光角、反射光の受光角、及び投光点と受光点との間の基線長に基づき、三角測量の原理で反射点までの距離を求める。かかる距離情報に基づき、対象物10の三次元データが取得される。   The light receiving unit 22 includes a plurality of photographing lenses constituting a light receiving optical system, a diaphragm, a lens moving mechanism for focusing and zooming, and the like, and the slit light is reflected by the surface of the object 10. Part of the light is incident. Incidentally, the personal computer 30 obtains the distance to the reflection point based on the principle of triangulation based on the projection angle of the laser beam, the reception angle of the reflected light, and the baseline length between the projection point and the reception point. Based on such distance information, three-dimensional data of the object 10 is acquired.

光学系駆動部23は、ステッピングモータ等からなり、測定制御部29の制御下において受光部22の撮影レンズをフォーカスシングやズーミングのために駆動する駆動力を発生する。   The optical system driving unit 23 includes a stepping motor and the like, and generates a driving force for driving the photographing lens of the light receiving unit 22 for focus singing and zooming under the control of the measurement control unit 29.

撮像素子24は、受光部22により結像される対象物10の光像を光電変換することで、対象物10についての二次元画像データを生成する。この撮像素子24としては、例えばフォトダイオード等で構成される複数の光電変換素子がマトリックス状に2次元配列され、各光電変換素子の受光面に、それぞれ分光特性の異なる例えばR(赤),G(緑),B(青)のカラーフィルタが1:2:1の比率で配設されてなるベイヤー配列のCCDカラーエリアセンサを用いることができる。   The imaging device 24 generates two-dimensional image data for the target object 10 by photoelectrically converting the optical image of the target object 10 formed by the light receiving unit 22. As the imaging element 24, a plurality of photoelectric conversion elements composed of, for example, photodiodes are two-dimensionally arranged in a matrix, and the light receiving surfaces of the photoelectric conversion elements have different spectral characteristics, for example, R (red), G A Bayer array CCD color area sensor in which (green) and B (blue) color filters are arranged in a ratio of 1: 2: 1 can be used.

タイミングジェネレータ25は、撮像素子24による撮影動作(露光に基づく電荷蓄積や蓄積電荷の読出し等)を制御するタイミングパルスを発生するものである。例えばタイミングジェネレータ25は、測定制御部29から与えられる撮影制御信号に基づいて垂直転送パルス、水平転送パルス、電荷掃き出しパルス等を生成して撮像素子24に与える。   The timing generator 25 generates timing pulses for controlling photographing operations (charge accumulation based on exposure, reading of accumulated charges, etc.) by the image sensor 24. For example, the timing generator 25 generates a vertical transfer pulse, a horizontal transfer pulse, a charge sweeping pulse, and the like based on the imaging control signal supplied from the measurement control unit 29 and supplies it to the image sensor 24.

出力処理回路26は、撮像素子24から出力される画像信号(CCDエリアセンサの各画素で受光されたアナログ信号群)に所定の信号処理を施した後、デジタル信号に変換して出力する。この出力処理回路26には、アナログ画像信号に含まれるリセット雑音を低減するCDS回路(相関二重サンプリング回路)、アナログ画像信号のレベルを補正するAGC回路、アナログ画像信号を例えば14ビットのデジタル画像信号(画像データ)に変換するA/D変換回路等が備えられている。   The output processing circuit 26 performs predetermined signal processing on the image signal (analog signal group received by each pixel of the CCD area sensor) output from the image sensor 24, and then converts it into a digital signal and outputs it. The output processing circuit 26 includes a CDS circuit (correlated double sampling circuit) for reducing reset noise included in the analog image signal, an AGC circuit for correcting the level of the analog image signal, and the analog image signal as a 14-bit digital image, for example. An A / D conversion circuit that converts the signal (image data) is provided.

レンズ情報出力部27(レンズ情報取得手段)は、受光部22に用いられている撮影レンズについて、少なくともその撮影時における焦点距離情報及びレンズF値情報を取得して出力する。焦点距離情報及びレンズF値情報は、撮像された二次元画像において、合焦位置からのズレに伴う画像のボケ具合に大きな影響を与えるパラメータである。これら情報を用いることで合焦位置からの距離に応じたボケ具合が的確に把握できるようになり、エッジ候補の存在箇所の形状にマッチさせて、一層的確に解析関数が導出できるようになる。   The lens information output unit 27 (lens information acquisition means) acquires and outputs at least focal length information and lens F value information at the time of shooting for the shooting lens used in the light receiving unit 22. The focal length information and the lens F value information are parameters that greatly affect the degree of blurring of the image due to the deviation from the in-focus position in the captured two-dimensional image. By using these pieces of information, the degree of blur according to the distance from the in-focus position can be accurately grasped, and the analysis function can be derived more accurately by matching the shape of the location where the edge candidate exists.

データメモリ28は、RAM(Random Access Memory)等からなり、各種のデータを一時的に格納する。例えばデータメモリ28は、出力処理回路26から出力される対象物10についての二次元画像データ、レンズ情報出力部27から出力される焦点距離情報及びレンズF値情報を一時的に格納する。   The data memory 28 includes a RAM (Random Access Memory) or the like, and temporarily stores various data. For example, the data memory 28 temporarily stores two-dimensional image data about the object 10 output from the output processing circuit 26, focal length information output from the lens information output unit 27, and lens F value information.

測定制御部29は、CPU(Central Processing Unit)等からなり、撮像装置20の各部の動作を制御する。具体的には測定制御部29は、投光部21によるスリット光の走査照射動作、光学系駆動部23による撮影レンズの駆動動作、タイミングジェネレータ25によるタイミングパルスの発生動作、出力処理回路26による信号処理動作、及びデータメモリ28に対するデータ記録動作などを制御する。   The measurement control unit 29 includes a CPU (Central Processing Unit) and the like, and controls the operation of each unit of the imaging device 20. Specifically, the measurement control unit 29 scans the slit light by the light projecting unit 21, drives the photographing lens by the optical system driving unit 23, generates a timing pulse by the timing generator 25, and outputs a signal from the output processing circuit 26. The processing operation and the data recording operation for the data memory 28 are controlled.

I/F201は、パーソナルコンピュータ30とのデータ通信を可能とするためのインターフェイスである。データメモリ28に一時的に格納された対象物10についての二次元画像データ等は、I/F201を介してパーソナルコンピュータ30へ送信される。   The I / F 201 is an interface for enabling data communication with the personal computer 30. Two-dimensional image data and the like of the target object 10 temporarily stored in the data memory 28 is transmitted to the personal computer 30 via the I / F 201.

パーソナルコンピュータ30は、対象物10についての二次元画像データを読み出し、対象物10についての距離情報を求める処理、前記二次元画像に存在するエッジを定める候補となるエッジ候補を特定する処理、前記エッジ候補の各々に適用する解析関数を前記距離情報に応じてそれぞれ導出する処理、及び前記エッジ候補の各々に、導出された前記解析関数をそれぞれ適用してエッジを検出する処理等を行う。図2に示すように、パーソナルコンピュータ30には、撮像装置20とのデータ通信を可能とするインターフェイスであるI/F301、キーボードやマウス等からなる操作部31、液晶ディスプレイ等か
らなる表示部32、種々の制御プログラム等を記憶するROM(Read Only Memory)33、各種データを一時的に格納すると共に予め設定された設定データ等を記憶するRAM34、各種の演算動作を行うCPU35が備えられている。
The personal computer 30 reads the two-dimensional image data about the object 10, obtains distance information about the object 10, the process of specifying edge candidates that are candidates for determining edges existing in the two-dimensional image, the edge A process of deriving an analytic function to be applied to each candidate according to the distance information, a process of detecting an edge by applying the derived analytic function to each of the edge candidates, and the like are performed. As shown in FIG. 2, the personal computer 30 includes an I / F 301 that is an interface that enables data communication with the imaging device 20, an operation unit 31 that includes a keyboard and a mouse, a display unit 32 that includes a liquid crystal display, and the like. A ROM (Read Only Memory) 33 for storing various control programs, a RAM 34 for temporarily storing various data and storing preset setting data, and a CPU 35 for performing various arithmetic operations are provided.

図3は、RAM34及びCPU35の機能構成を示す機能ブロック図である。CPU35は、ROM33に格納された制御プログラムを実行することにより、データバッファ351、三次元データ算出部352(距離算出手段)、フィルタ処理部353、エッジ候補画素検出部354(エッジ候補特定手段)、解析関数導出部355(解析関数導出手段)、微分処理部356(微分画像生成手段)、フィッティング処理部357、エッジ値検出部358(エッジ検出手段)及び処理制御部359を具備するように機能する。また、RAM34には、解析関数記憶部341及び導出関数記憶部342が備えられている。   FIG. 3 is a functional block diagram showing a functional configuration of the RAM 34 and the CPU 35. The CPU 35 executes a control program stored in the ROM 33 to thereby execute a data buffer 351, a three-dimensional data calculation unit 352 (distance calculation unit), a filter processing unit 353, an edge candidate pixel detection unit 354 (edge candidate identification unit), An analysis function deriving unit 355 (analysis function deriving unit), a differential processing unit 356 (differential image generating unit), a fitting processing unit 357, an edge value detection unit 358 (edge detection unit), and a processing control unit 359 function. . The RAM 34 includes an analysis function storage unit 341 and a derivation function storage unit 342.

データバッファ351は、I/F301を介して撮像装置20から読み出された前記二次元画像データやレンズ情報を一時的に格納する。   The data buffer 351 temporarily stores the two-dimensional image data and lens information read from the imaging device 20 via the I / F 301.

三次元データ算出部352は、前記二次元画像データを読み出し、撮像装置20の投光部21から発せられるレーザ光の投光角、受光部22で受光される反射光の受光角、及び投光点と受光点との間の基線長に基づき、三角測量の原理で対象物10上の反射点までの距離を求める。なお、前記投光角は、投光部21の回転ミラーの回転角から求められる。前記受光角は、撮像素子24の受光面で検出される反射光の像位置から算出される。すなわち、三次元データ算出部352は、撮像素子24の画素又は所定の画素群単位(画像内の各所)で、対象物10までの距離情報を取得する。この距離情報が取得されることで、各画素の合焦位置からのズレ量を求めることができる。さらに、かかる距離情報に基づき、対象物10の三次元データ(例えばポリゴンメッシュデータ)を求める。   The three-dimensional data calculation unit 352 reads the two-dimensional image data, and projects the projection angle of the laser light emitted from the projection unit 21 of the imaging device 20, the reception angle of the reflected light received by the light receiving unit 22, and the projection Based on the baseline length between the point and the light receiving point, the distance to the reflection point on the object 10 is obtained by the principle of triangulation. The projection angle is obtained from the rotation angle of the rotating mirror of the projection unit 21. The light receiving angle is calculated from the image position of the reflected light detected on the light receiving surface of the image sensor 24. That is, the three-dimensional data calculation unit 352 acquires distance information to the target object 10 in units of pixels of the image sensor 24 or predetermined pixel group units (locations in the image). By acquiring this distance information, it is possible to determine the amount of deviation from the in-focus position of each pixel. Furthermore, based on the distance information, three-dimensional data (for example, polygon mesh data) of the object 10 is obtained.

フィルタ処理部353は、二次元画像データに諧調変換処理及びノイズ除去処理等の前処理を施した後、当該二次元画像データに対してエッジを抽出するためのフィルタ処理を行う。前記エッジとは、画像の中で急激に明るさが変化している部分であって、対象物10の輪郭や凹凸形状の境界がこれに相当する。なお、対象物10の表面に描かれている平面的な文字、模様等の輪郭もエッジとなるが、このような平面的エッジには解析関数を適用したフィッティングは不要であるため、本実施形態では説明を省く。エッジ抽出のためのフィルタとしては、例えば微分フィルタ、ソーベルフィルタ、勾配フィルタ、ラプシアンフィルタ等を用いることができる。   The filter processing unit 353 performs preprocessing such as gradation conversion processing and noise removal processing on the two-dimensional image data, and then performs filter processing for extracting edges on the two-dimensional image data. The edge is a portion where the brightness is rapidly changed in the image, and corresponds to the contour of the object 10 or the boundary of the uneven shape. Note that the outline of a planar character, pattern, or the like drawn on the surface of the object 10 is also an edge. Since fitting to which an analytical function is applied is not necessary for such a planar edge, this embodiment Then, explanation is omitted. As a filter for edge extraction, for example, a differential filter, a Sobel filter, a gradient filter, a Laptian filter, or the like can be used.

エッジ候補画素検出部354は、フィルタ処理部353により実行されたフィルタ処理のフィルタ値が所定の閾値を超える画素のアドレス情報を検出する。このような画素の存在点は、二次元画像に存在するエッジを定める候補点(エッジ候補)となる。   The edge candidate pixel detection unit 354 detects address information of pixels in which the filter value of the filter processing executed by the filter processing unit 353 exceeds a predetermined threshold value. Such pixel existence points serve as candidate points (edge candidates) that determine edges existing in the two-dimensional image.

解析関数導出部355は、前記エッジ候補の画素の各々に適用する解析関数を、三次元データ算出部352で求められた前記距離情報に応じてそれぞれ導出する。対象物10が立体物である場合、例えばその輪郭において合焦位置からずれる部分が生じることに起因して画像がボケる。画像ボケが生じている部分については、後述のフィッティング処理部357において解析関数を適用してフィッティングを行いエッジが検出される。解析関数導出部355は、画像のボケ具合に応じて、各々のエッジ候補に適用するべき前記解析関数を導出する。   The analysis function deriving unit 355 derives an analysis function to be applied to each of the edge candidate pixels according to the distance information obtained by the three-dimensional data calculation unit 352. When the object 10 is a three-dimensional object, the image is blurred due to, for example, the occurrence of a portion deviating from the in-focus position in the outline. For the portion where the image blur occurs, fitting is performed by applying an analysis function in a fitting processing unit 357 described later, and an edge is detected. The analytic function deriving unit 355 derives the analytic function to be applied to each edge candidate according to the degree of image blur.

画像のボケ具合は、合焦位置からの距離により変化する。従って、エッジ候補として特定された画素について得られている距離情報を用いて合焦位置からどの程度離れているかを求めることで、画像のボケ具合を把握することができる。また、画像ボケの変化度合いは、撮影時における撮影レンズ(受光部22の光学系)の焦点距離、レンズF値により異なる。従って、解析関数導出部355は、エッジ候補画素の距離情報と、撮影レンズの焦点距離情報及び/又はレンズF値情報とを参照して、各々のエッジ候補に適した解析関数を導出する。これにより、エッジ候補の存在箇所の形状にマッチさせて、的確に解析関数か導出できるようになる。この解析関数の導出にあたり、解析関数導出部355は、後述するRAM34の解析関数記憶部341又は導出関数記憶部342を参照する。   The degree of image blur varies depending on the distance from the in-focus position. Therefore, the degree of blur of the image can be grasped by obtaining the distance from the in-focus position using the distance information obtained for the pixel specified as the edge candidate. The degree of change in image blur varies depending on the focal length of the photographing lens (the optical system of the light receiving unit 22) and the lens F value at the time of photographing. Therefore, the analysis function deriving unit 355 derives an analysis function suitable for each edge candidate with reference to the distance information of the edge candidate pixels and the focal length information and / or lens F value information of the photographing lens. This makes it possible to accurately derive the analytical function by matching the shape of the location where the edge candidate exists. In deriving the analytic function, the analytic function deriving unit 355 refers to the analytic function storage unit 341 or the derived function storage unit 342 of the RAM 34 described later.

微分処理部356は、データバッファ351から二次元画像データを読み出し、当該二次元画像データを微分処理して微分画像を作成する。この微分画像は、二次元画像に含まれるエッジに起因する輝度変化のピークを求めるためのものである。   The differential processing unit 356 reads the two-dimensional image data from the data buffer 351 and generates a differential image by differentiating the two-dimensional image data. This differential image is for obtaining a peak of a luminance change caused by an edge included in the two-dimensional image.

フィッティング処理部357は、エッジ候補の各々について、解析関数導出部355で導出された解析関数を前記微分画像にフィッティングする処理を行う。例えば、あるエッジ候補について解析関数導出部355で「二次関数」が導出された場合、そのエッジ候補についての画素出力の微分値に、最小自乗法のような近似手法を用いて前記二次関数をフィッティングし、そのフィッティング関数のパラメータを求める。   The fitting processing unit 357 performs processing for fitting the analytic function derived by the analytic function deriving unit 355 to the differential image for each of the edge candidates. For example, when the “quadratic function” is derived by the analytic function deriving unit 355 for a certain edge candidate, the quadratic function is obtained by using an approximation method such as the least square method for the differential value of the pixel output for the edge candidate. And the parameters of the fitting function are obtained.

エッジ値検出部358は、フィッティング処理部357で求められたフィッティング関数の頂点を求め、これをエッジ値として出力する。すなわち、フィッティング関数の頂点は画素出力の変化ピークであり、このような画素位置を画像上のエッジと扱うことができるからである。   The edge value detection unit 358 obtains the vertex of the fitting function obtained by the fitting processing unit 357, and outputs this as an edge value. That is, the vertex of the fitting function is a change peak of the pixel output, and such a pixel position can be treated as an edge on the image.

処理制御部359は、ユーザから操作部31を介して与えられる操作信号を受けて、上記の動作を行う三次元データ算出部352、フィルタ処理部353、エッジ候補画素検出部354、解析関数導出部355、微分処理部356、フィッティング処理部357及びエッジ値検出部358を適時に動作させる全体制御を行う。   The processing control unit 359 receives the operation signal given from the user via the operation unit 31 and performs the above operation, the three-dimensional data calculation unit 352, the filter processing unit 353, the edge candidate pixel detection unit 354, the analysis function derivation unit. 355, overall control for operating the differential processing unit 356, the fitting processing unit 357, and the edge value detection unit 358 in a timely manner.

RAM34の解析関数記憶部341には、フィッティング処理部357において使用される解析関数が、対象物10に対する距離情報(合焦位置からの距離情報)と、レンズ情報(撮影レンズの焦点距離情報及びレンズF値情報)とに応じてテーブル化されて記憶されている。解析関数導出部355は、三次元データ算出部352の算出データに基づく合焦位置からの距離情報と、レンズ情報出力部27(図2)から出力される撮影レンズの焦点距離情報及びレンズF値情報とを参照情報として前記テーブルと照合し、これら参照情報に合致する解析関数をテーブルから導き出す。なお、前記テーブルは、前記距離情報のみを変数とするテーブル、距離情報と焦点距離情報とを変数とするテーブル、或いは距離情報とレンズF値情報とを変数とするテーブルであっても良い。   In the analysis function storage unit 341 of the RAM 34, the analysis function used in the fitting processing unit 357 includes distance information (distance information from the in-focus position) with respect to the object 10 and lens information (focal length information and lens of the photographing lens). (F value information) and stored as a table. The analysis function deriving unit 355 includes distance information from the in-focus position based on the calculation data of the three-dimensional data calculation unit 352, the focal length information of the photographing lens and the lens F value output from the lens information output unit 27 (FIG. 2). The information is compared with the table as reference information, and an analysis function matching the reference information is derived from the table. The table may be a table using only the distance information as a variable, a table using distance information and focal length information as variables, or a table using distance information and lens F value information as variables.

導出関数記憶部342には、フィッティング処理部357において使用される解析関数を、合焦位置からの距離情報(d)と、レンズ情報(撮影レンズの焦点距離情報(f)及びレンズF値情報(FNo))に応じて導出する導出関数F(d,f,FNo)が記憶されている。解析関数導出部355は、三次元データ算出部352が算出データに基づく距離情報(d)と、レンズ情報出力部27から出力される撮影レンズの焦点距離情報(f)及びレンズF値情報(FNo)とを導出関数F(d,f,FNo)に当てはめることで、解析関数を導出する。なお、導出関数Fは、前記距離情報のみを変数とする導出関数F(d)、距離情報と焦点距離情報とを変数とする導出関数F(d,f)、或いは距離情報とレンズF値情報とを変数とする導出関数F(d,FNo)であっても良い。   In the derivation function storage unit 342, the analysis function used in the fitting processing unit 357 includes distance information (d) from the in-focus position, lens information (focal length information (f) of the photographing lens, and lens F value information ( FNo)) is derived and derived functions F (d, f, FNo) are stored. The analysis function deriving unit 355 includes distance information (d) based on the calculation data by the three-dimensional data calculation unit 352, focal length information (f) of the photographing lens output from the lens information output unit 27, and lens F value information (FNo. ) Is applied to the derived function F (d, f, FNo) to derive the analytic function. The derivation function F is a derivation function F (d) having only the distance information as a variable, a derivation function F (d, f) having distance information and focal length information as variables, or distance information and lens F value information. May be a derivation function F (d, FNo).

解析関数記憶部341及び導出関数記憶部342は、双方備えられていても良いが、いずれか一方のみが備えられている態様でも良い。これら解析関数記憶部341及び/又は導出関数記憶部342を準備しておくことで、解析関数導出部355は距離情報とレンズ情報とに応じて導出関数を容易に導出できるので、エッジ検出箇所に適用する解析関数の決定処理を容易化することができる。   Both the analysis function storage unit 341 and the derivation function storage unit 342 may be provided, but only one of them may be provided. By preparing the analytic function storage unit 341 and / or the derived function storage unit 342, the analytic function deriving unit 355 can easily derive the derived function in accordance with the distance information and the lens information. It is possible to facilitate the determination process of the analytic function to be applied.

続いて、以上の通り構成されたエッジ検出装置Sを用いたエッジ検出方法の具体例について説明する。図4は、エッジ検出工程フローを示す工程フローチャートである。エッジ検出を実際に行うに先立ち、予め受光部22の光学系の特性に応じて解析関数を導出するステップが行われる。ここでは解析関数導出例として、受光部22の光学系の設計値から解析関数を導出する方法(ステップ#1)と、予め前記光学系を用いてサンプル撮影を行った実測結果から導出する方法(ステップ#2)とを例示している。このステップ#1及びステップ#2は、いずれか一方を実施すれば足りる。   Next, a specific example of an edge detection method using the edge detection device S configured as described above will be described. FIG. 4 is a process flowchart showing an edge detection process flow. Prior to actually performing the edge detection, a step of deriving an analytic function in advance according to the characteristics of the optical system of the light receiving unit 22 is performed. Here, as an analysis function derivation example, a method of deriving an analysis function from a design value of the optical system of the light receiving unit 22 (step # 1) and a method of deriving from an actual measurement result obtained by taking a sample using the optical system in advance (step # 1). Step # 2) is illustrated. It suffices to perform either one of Step # 1 and Step # 2.

上記ステップ#1は、例えば光学系の設計値を適宜な光学シミュレータ等にパラメータ入力することで実行することができる。すなわち、合焦位置から距離がずれた場合の二次元画像の形状(ボケ具合)は、撮影レンズのレンズ設計値等から計算で求めることができる。従って、シミュレーション結果に基づいて、距離情報に応じた解析関数を導出できる。これに焦点距離情報及びレンズF値情報を組み合わせれば、各々の条件で適した解析関数を求めることができる。この方法によれば、光学系の設計値に基づき、迅速に解析関数を導出することができる。   The above step # 1 can be executed, for example, by inputting a design value of the optical system as a parameter to an appropriate optical simulator or the like. That is, the shape (blurring degree) of the two-dimensional image when the distance deviates from the in-focus position can be calculated from the lens design value of the photographing lens. Therefore, an analysis function corresponding to the distance information can be derived based on the simulation result. By combining focal length information and lens F value information with this, an analysis function suitable for each condition can be obtained. According to this method, the analysis function can be quickly derived based on the design value of the optical system.

また、上記ステップ#2は、図5に示すような校正用チャートCHを撮像装置20で実際に撮像することで実行することができる。この校正用チャートCHは、円形の銀色マークCH1が、黒色地面CH2に印刷されてなる平面チャートである。このような校正用チャートCHを撮像装置20に正対配置し、両者間の距離を徐々に変更しつつ(合焦位置から徐々にずらしつつ)複数回の撮影を行う。この撮影結果から、各々の距離毎に銀色マークCH1のピーク形状(ボケ具合)を解析し、各々の距離に応じた解析関数を導出する。なお、撮影レンズの焦点距離情報及び/又はレンズF値情報を付加する場合は、かかる操作を、焦点距離及び/又はF値を変えて撮影を行い、同様に銀色マークCH1のピーク形状を解析して各々の条件における解析関数を導出する。この方法によれば、実測結果に基づいて的確な解析関数を導出することができる。   Further, step # 2 can be executed by actually imaging the calibration chart CH as shown in FIG. The calibration chart CH is a flat chart in which a circular silver mark CH1 is printed on the black ground CH2. Such a calibration chart CH is arranged in front of the imaging device 20, and photographing is performed a plurality of times while gradually changing the distance between the two (while gradually shifting from the in-focus position). From this photographing result, the peak shape (blurring condition) of the silver mark CH1 is analyzed for each distance, and an analysis function corresponding to each distance is derived. In addition, when adding the focal length information and / or lens F value information of the photographic lens, this operation is performed by changing the focal length and / or the F value, and the peak shape of the silver mark CH1 is similarly analyzed. The analytical function for each condition is derived. According to this method, an accurate analytical function can be derived based on the actual measurement result.

上記解析関数としては、各種のフィッティング用の関数を用いることができるが、例えば図6(a)に示すような二次関数、図6(b)に示すようなガウス関数を好適に用いることができる。すなわち、比較的鋭いピーク形状に対応する二次関数と、比較的緩やかなピーク形状に対応するガウス関数とを用いることができる。この場合、例えばエッジ検出箇所のボケ具合が比較的大きい場合にはガウス関数を用いてフィッティングを行い、ボケ具合が比較的小さい場合は二次関数を用いてフィッティングを行うという使い分けを行うことができる。   As the analysis function, various fitting functions can be used. For example, a quadratic function as shown in FIG. 6A and a Gaussian function as shown in FIG. 6B are preferably used. it can. That is, a quadratic function corresponding to a relatively sharp peak shape and a Gaussian function corresponding to a relatively gentle peak shape can be used. In this case, for example, fitting can be performed using a Gaussian function when the degree of blur at the edge detection portion is relatively large, and fitting using a quadratic function when the degree of blur is relatively small. .

このようにして解析関数が導出されたならば、これを距離情報(+焦点距離情報及び/又はレンズF値情報)に応じてテーブル化するステップ(ステップ#3)、若しくは、解析関数を距離情報(+焦点距離情報及び/又はレンズF値情報)に応じて導出する導出関数化するステップ(ステップ#4)が実行される。   If the analytic function is derived in this way, a step (step # 3) of making this a table according to the distance information (+ focal length information and / or lens F value information), or the analytic function as the distance information A step (step # 4) of converting to a derivation function derived according to (+ focal length information and / or lens F value information) is executed.

図7〜図9は、ステップ#3において作成されるテーブルの一例を示す表形式の図である。図7は、対象物10に対する距離情報に応じて、解析関数が割り当てられているテーブルの例を示している。なお、合焦位置からの距離は、合焦距離と、三次元データ算出部352により求められる対象物10までの距離情報との差から求められる。図8は、対象物10に対する距離情報と、焦点距離(テレ、ミドル、ワイド)とに応じて、解析関数が各々割り当てられているテーブルの例を示している。さらに、図9は、対象物10に対する距離情報と、焦点距離、F値とに応じて、解析関数が各々割り当てられているテーブルの例を示している。このようなテーブルが、予めRAM34の解析関数記憶部341にメモリされる(ステップ#5)。   7 to 9 are tables in a table format showing an example of the table created in step # 3. FIG. 7 shows an example of a table to which analysis functions are assigned according to distance information with respect to the object 10. Note that the distance from the in-focus position is obtained from the difference between the in-focus distance and the distance information to the object 10 obtained by the three-dimensional data calculation unit 352. FIG. 8 shows an example of a table to which analysis functions are respectively assigned according to distance information on the object 10 and focal lengths (tele, middle, wide). Further, FIG. 9 shows an example of a table to which analysis functions are respectively assigned according to distance information with respect to the object 10, a focal length, and an F value. Such a table is stored in advance in the analysis function storage unit 341 of the RAM 34 (step # 5).

ステップ#4を実行する場合は、導出された解析関数を、合焦位置からの距離情報(d)に応じて導出する導出関数F(d)、距離情報(d)と焦点距離情報(f)とに応じて導出する導出関数F(d,f)、距離情報(d)とレンズF値情報(FNo)とに応じて導出する導出関数F(d,FNo)、或いはこれらの全てに応じて導出する導出関数F(d,f,FNo)が求められる。これらの導出関数は、予めRAM34の導出関数記憶部342にメモリされる(ステップ#5)。以上が、実際のエッジ検出に先立って実行される準備ステップである。   When executing Step # 4, a derived function F (d) for deriving the derived analytic function in accordance with distance information (d) from the in-focus position, distance information (d), and focal length information (f) Derivation function F (d, FNo) derived according to the above, derivation function F (d, FNo) derived according to the distance information (d) and lens F value information (FNo), or all of these A derived function F (d, f, FNo) to be derived is obtained. These derived functions are stored in advance in the derived function storage unit 342 of the RAM 34 (step # 5). The above is the preparation step executed prior to the actual edge detection.

次に、撮像装置20により対象物10の撮影が行われ、対象物10の二次元画像データが取得される(ステップ#6)。ここでの撮影は、上述したように例えばスリット光の投受光を伴う光切断法による撮影であり、取得される二次元画像データは対象物10についての三次元データを算出可能なデータである。続いて、パーソナルコンピュータ30により、三角測量の原理を用いて、撮像素子24の画素(画素群)単位で対象物10までの距離情報が求められる(ステップ#7)。これにより、合焦位置からの距離も画素単位で判明することとなる。しかる後、後記で詳述するエッジ検出処理が実行され(ステップ#8)、エッジデータが取得される。   Next, the object 10 is imaged by the imaging device 20, and two-dimensional image data of the object 10 is acquired (step # 6). The imaging here is, for example, imaging by a light cutting method involving light projection and reception of slit light as described above, and the acquired two-dimensional image data is data that can calculate three-dimensional data about the object 10. Subsequently, the personal computer 30 obtains distance information to the object 10 in units of pixels (pixel groups) of the image sensor 24 using the principle of triangulation (step # 7). As a result, the distance from the in-focus position is also determined in units of pixels. Thereafter, an edge detection process described in detail later is executed (step # 8), and edge data is acquired.

図10は、上記ステップ#6で取得される対象物10の二次元画像データ40の一例を示す平面図である。ここでは、対象物10として自動車のドア部分を例示しており、この場合では略長方形の輪郭形状がエッジとなる。撮像装置20は、このような対象物10を撮像する場合、例えば対象物10の中央部分の位置でAF制御を行い合焦距離を定めて撮像を行う。   FIG. 10 is a plan view showing an example of the two-dimensional image data 40 of the object 10 acquired in step # 6. Here, the door part of a motor vehicle is illustrated as the target object 10, and in this case, a substantially rectangular outline shape is an edge. When imaging the target object 10, the imaging apparatus 20 performs AF control, for example, at the position of the center portion of the target object 10 to determine the focal distance and perform imaging.

このようにして取得された二次元画像データ40において、符号11を付した四角で囲んだ第1エッジ部分11と、符号12を付した四角で囲んだ第2エッジ部分12とに着目する。第1エッジ部分11がAFポイントとして選定されたドア中央部分と略同じ高さ位置にある一方で、第2エッジ部分12が後方に向けて湾曲しているような形状を当該対象物10が備えている場合、第2エッジ部分12は合焦位置からのズレ度合いが大きくなることから、画像のボケ具合が比較的大きくなる。このボケ具合は、合焦位置からの距離に依存することは勿論、受光光学系の焦点距離やレンズF値にも依存性がある。   In the two-dimensional image data 40 acquired in this way, attention is paid to the first edge portion 11 surrounded by a square denoted by reference numeral 11 and the second edge portion 12 surrounded by a square denoted by reference numeral 12. While the first edge portion 11 is substantially at the same height as the door center portion selected as the AF point, the object 10 has a shape such that the second edge portion 12 is curved rearward. In this case, since the degree of deviation from the in-focus position of the second edge portion 12 is large, the degree of blurring of the image is relatively large. This blur condition depends not only on the distance from the in-focus position but also on the focal length of the light receiving optical system and the lens F value.

図11(a)は、第1エッジ部分11周辺の画素出力の微分値を示すグラフであり、図11(b)は、第2エッジ部分12周辺の画素出力の微分値を示すグラフである。第1エッジ部分11は、合焦位置からの距離が短いことから、ピーク曲線P1は鋭利であり、比較的画像のボケが少ないことを示している。一方、第2エッジ部分12は、合焦位置からの距離が長いことから、ピーク曲線P2は緩やかなカーブであり、比較的画像のボケが大きいことを示している。   FIG. 11A is a graph showing the differential value of the pixel output around the first edge portion 11, and FIG. 11B is a graph showing the differential value of the pixel output around the second edge portion 12. Since the first edge portion 11 has a short distance from the in-focus position, the peak curve P1 is sharp, indicating that there is relatively little blurring of the image. On the other hand, since the second edge portion 12 has a long distance from the in-focus position, the peak curve P2 is a gentle curve, indicating that the image is relatively blurred.

このようにボケ具合が異なる第1エッジ部分11及び第2エッジ部分12のピーク曲線P1、P2に、同一の解析関数を適用してピーク値(エッジ値)を求めるようにした場合、フィッティングの精度が悪くなることに起因して、エッジ検出精度が低下する。そこで本実施形態では、エッジを検出する部分における画像のボケ具合に応じてフィッティングに用いる解析関数を変更するようにしている。例えば、図11(a)に示すように比較的鋭利なピーク曲線P1が検出されるようなエッジ検出箇所については図6(a)に示したような二次関数を適用し、図11(b)に示すように比較的緩やかなカーブのピーク曲線P2が検出されるようなエッジ検出箇所については図6(b)に示したようなガウス関数を適用する。これにより、合焦位置からの距離の相違によるエッジ検出精度の低下の問題が解消される。   When the peak value (edge value) is obtained by applying the same analysis function to the peak curves P1 and P2 of the first edge portion 11 and the second edge portion 12 having different degrees of blur as described above, the fitting accuracy is improved. As a result, the edge detection accuracy decreases. Therefore, in this embodiment, the analysis function used for fitting is changed according to the degree of blurring of the image in the portion where the edge is detected. For example, a quadratic function as shown in FIG. 6A is applied to an edge detection location where a relatively sharp peak curve P1 is detected as shown in FIG. As shown in FIG. 6B, a Gaussian function as shown in FIG. 6B is applied to an edge detection location where a peak curve P2 having a relatively gentle curve is detected. This eliminates the problem of reduced edge detection accuracy due to the difference in distance from the in-focus position.

続いて、上記ステップ#8のエッジ検出処理工程で、パーソナルコンピュータ30において実行されるエッジ検出処理について説明する。図12は、パーソナルコンピュータ30におけるエッジ検出処理フローを示すフローチャートである。   Subsequently, the edge detection process executed in the personal computer 30 in the edge detection process step of Step # 8 will be described. FIG. 12 is a flowchart showing an edge detection process flow in the personal computer 30.

処理が開始されると、処理制御部359の制御下でデータバッファ351(図3参照)から二次元画像データが読み出され、フィルタ処理部353及びエッジ候補画素検出部354により、当該二次元画像に存在するエッジを定める候補となるエッジ候補画素を検出する処理が実行される(ステップS11)。処理の詳細は図15に基づき説明するが、要するに画素出力の変化量が大きい部分(画像の中で急激に明るさが変化している部分)に対応する画素をエッジ候補画素として抽出する処理を行う。   When processing is started, two-dimensional image data is read from the data buffer 351 (see FIG. 3) under the control of the processing control unit 359, and the two-dimensional image is detected by the filter processing unit 353 and the edge candidate pixel detection unit 354. A process for detecting an edge candidate pixel that is a candidate for determining an edge existing in is performed (step S11). Details of the processing will be described with reference to FIG. 15. In short, processing for extracting pixels corresponding to a portion where the amount of change in pixel output is large (portion where the brightness is suddenly changed in the image) as edge candidate pixels. Do.

図13は、エッジ候補画素の特定からエッジ検出までの処理を説明するための模式図である。二次元画像データ40は、マトリクス配列された画素41から構成される。図13において、各画素41の濃淡は、画素出力の大小を表している。この場合、例えば左右方向において画素出力が変化している部分が、エッジ候補画素41Eとして抽出される。そして、例えばエッジ候補画素41Eの画素出力の変化度合いを解析関数でフィッティングし、その変化ピーク(頂点)がエッジ値51として検出される。このようなエッジ値51を結ぶ線分がエッジ52となる。ステップS11のエッジ候補画素検出処理は、以上のような一連のエッジ検出処理の端緒となる処理であり、取得された二次元画像の全体に亘ってエッジ候補画素が検出される。   FIG. 13 is a schematic diagram for explaining processing from identification of edge candidate pixels to edge detection. The two-dimensional image data 40 is composed of pixels 41 arranged in a matrix. In FIG. 13, the shading of each pixel 41 represents the magnitude of the pixel output. In this case, for example, a portion where the pixel output changes in the left-right direction is extracted as the edge candidate pixel 41E. Then, for example, the change degree of the pixel output of the edge candidate pixel 41E is fitted with an analysis function, and the change peak (vertex) is detected as the edge value 51. A line segment connecting such edge values 51 is an edge 52. The edge candidate pixel detection process in step S11 is a process that is the beginning of a series of edge detection processes as described above, and edge candidate pixels are detected over the entire acquired two-dimensional image.

次に、解析関数導出部355により、検出されたエッジ候補画素の各々について、どの解析関数を適用してフィッティングを行うかの選択処理がなされる(ステップS12)。詳細な処理内容は図16に基づき説明するが、各々のエッジ候補画素について、その合焦位置からの距離等に応じた解析関数を割り当てる処理が実行される。   Next, the analysis function deriving unit 355 selects which analysis function is to be applied to each detected edge candidate pixel to perform fitting (step S12). The detailed processing contents will be described with reference to FIG. 16, but a process of assigning an analysis function corresponding to the distance from the in-focus position or the like for each edge candidate pixel is executed.

その後、フィッティング処理部357により、各々選択された解析関数を用いて、それぞれのエッジ候補画素について最小自乗法などの近似処理を行う解析関数のフィッティング処理が行われる(ステップS13)。図14は、このようなフィッティング処理の一例を示す説明図である。先ず、図14(a)に示すように、微分処理部356により二次元画像データを微分処理して得られた微分画像に基づき、エッジ候補画素の微分値を求める。そして、選択された解析関数が前記微分値にフィットするよう近似計算を行うことで、フィッティング関数fが求められるものである。   After that, the fitting processing unit 357 performs an analysis function fitting process for performing an approximation process such as a least square method on each edge candidate pixel using each selected analysis function (step S13). FIG. 14 is an explanatory diagram showing an example of such a fitting process. First, as shown in FIG. 14A, the differential value of the edge candidate pixel is obtained based on the differential image obtained by differentiating the two-dimensional image data by the differential processing unit 356. Then, the fitting function f is obtained by performing approximate calculation so that the selected analytical function fits the differential value.

しかる後、エッジ値検出部358により、前記フィッティング関数fの頂点を求める演算が行われる(ステップS14)。この頂点が、1つのエッジ候補画素におけるエッジ値51として扱われる。そして、処理制御部359によりステップS11で検出された全てのエッジ候補画素についてエッジ検出処理が実行されたか否かが確認され(ステップS15)、未完了である場合は(ステップS15でNO)、ステップS13に戻って処理が繰り返される。一方、全てのエッジ候補画素についてのエッジ検出処理が完了したら(ステップS15でYES)、処理制御部359は処理を終了させる。   Thereafter, the edge value detection unit 358 performs an operation for obtaining the vertex of the fitting function f (step S14). This vertex is treated as an edge value 51 in one edge candidate pixel. Then, it is confirmed whether or not the edge detection process has been executed for all the edge candidate pixels detected in step S11 by the process control unit 359 (step S15), and if not completed (NO in step S15), step Returning to S13, the process is repeated. On the other hand, when the edge detection process for all edge candidate pixels is completed (YES in step S15), the process control unit 359 ends the process.

図15は、図12に示したステップS11のエッジ候補画素検出処理の詳細を示すフローチャートである。先ず、フィルタ処理部353によりデータバッファ351から二次元画像データが読み出され、当該二次元画像に含まれるエッジの候補を抽出するためのフィルタ処理が実行される(ステップS21)。   FIG. 15 is a flowchart showing details of the edge candidate pixel detection process in step S11 shown in FIG. First, the two-dimensional image data is read from the data buffer 351 by the filter processing unit 353, and a filter process for extracting edge candidates included in the two-dimensional image is executed (step S21).

次いで、エッジ候補画素検出部354により、フィルタ処理後の画像データに基づきエッジ候補画素が検出される(ステップS22)。具体的には、フィルタ処理後のフィルタ値が所定の閾値を超える画素のアドレス情報がエッジ候補画素として検出される。エッジ候補画素は、図13に示したように、エッジの近辺に存在する画素41の群(エッジ候補画素41E)として検出される。そして、全ての画素についてエッジ候補画素検出処理が行われたか否かが確認され(ステップS23)、未完了である場合は(ステップS23でNO)、ステップS22に戻って処理が繰り返される。一方、全ての画素についての計算が完了したら(ステップS23でYES)、次の解析関数選択処理(ステップS12)へ移行する。このとき、検出された各エッジ候補画素にナンバリング(E1、E2、・・・En)が為される。   Next, the edge candidate pixel detection unit 354 detects edge candidate pixels based on the image data after the filter processing (step S22). Specifically, address information of a pixel whose filter value after the filter processing exceeds a predetermined threshold is detected as an edge candidate pixel. As shown in FIG. 13, the edge candidate pixels are detected as a group of pixels 41 (edge candidate pixels 41E) existing in the vicinity of the edge. Then, it is confirmed whether or not the edge candidate pixel detection processing has been performed for all the pixels (step S23), and if not completed (NO in step S23), the processing returns to step S22 and the processing is repeated. On the other hand, when the calculation for all the pixels is completed (YES in step S23), the process proceeds to the next analysis function selection process (step S12). At this time, numbering (E1, E2,... En) is performed on each detected edge candidate pixel.

図16は、図12に示したステップS12の解析関数選択処理の詳細を示すフローチャートである。このステップでは、先ず解析関数導出部355により、エッジの候補として検出された複数のエッジ候補画素E1〜Enの距離情報が、三次元データ算出部352から取得される(ステップS31)。また、データバッファ351から、受光部22の光学系のレンズ情報(焦点距離情報、レンズF値情報)が取得される(ステップS32)。さらに、微分処理部356において作成された微分画像(画素出力の微分値データ)が取得される(ステップS33)。   FIG. 16 is a flowchart showing details of the analysis function selection processing in step S12 shown in FIG. In this step, first, the analysis function deriving unit 355 acquires distance information of the plurality of edge candidate pixels E1 to En detected as edge candidates from the three-dimensional data calculation unit 352 (step S31). Further, lens information (focal length information, lens F value information) of the optical system of the light receiving unit 22 is acquired from the data buffer 351 (step S32). Further, a differential image (differential value data of pixel output) created in the differential processing unit 356 is acquired (step S33).

続いて、カウンタをエッジ候補E=E1とする処理を行い(ステップS34)、複数個検出されたエッジ候補画素E1〜Enの中の1つ(処理順位が第1番目のエッジ候補画素E1)が処理対象とされる。そして、このエッジ候補Eを構成する画素について、ステップS31で取得された距離情報に基づき、合焦位置からの距離値が求められる(ステップS35)。解析関数導出部355は、この距離値と、焦点距離情報及び/又はレンズF値情報とを参照情報として、RAM34の解析関数記憶部341又は導出関数記憶部342に照合処理を行う(ステップS36)。例えば、図9に示したようなテーブルと照合する処理が行われる。そして、その距離値、焦点距離及びレンズF値に該当する解析関数が選択され、当該エッジ候補画素E1に対して適用する解析関数が決定される(ステップS37)。   Subsequently, the counter is set to the edge candidate E = E1 (step S34), and one of the plurality of detected edge candidate pixels E1 to En (the first edge candidate pixel E1 in the processing order) is detected. It is targeted for processing. Then, a distance value from the in-focus position is obtained for the pixels constituting the edge candidate E based on the distance information acquired in step S31 (step S35). The analysis function deriving unit 355 performs collation processing on the analysis function storage unit 341 or the derived function storage unit 342 of the RAM 34 using the distance value and the focal length information and / or lens F value information as reference information (step S36). . For example, a process of collating with a table as shown in FIG. 9 is performed. Then, an analysis function corresponding to the distance value, focal length, and lens F value is selected, and an analysis function to be applied to the edge candidate pixel E1 is determined (step S37).

その後、解析関数導出部355は、全てのエッジ候補画素について解析関数の選択が完了したか否か、つまりE=En(処理順位が最終であるエッジ候補画素En)であるかを確認する(ステップS38)。未完了である場合は(ステップS38でNO)、カウンタをE=E+1としてインクリメントし(ステップS39)、処理順位が次順位のエッジ候補画素(処理順位が第2番目のエッジ候補画素E2)を処理対象として、ステップS35以下の処理を繰り返す。一方、全てのエッジ候補画素についての処理が完了したら(ステップS38でYES)、次の解析関数のフィッティング処理(ステップS13)へ移行するものである。   Thereafter, the analysis function deriving unit 355 confirms whether or not the selection of the analysis function has been completed for all the edge candidate pixels, that is, whether E = En (the edge candidate pixel En whose processing order is final). S38). If not completed (NO in step S38), the counter is incremented as E = E + 1 (step S39), and the edge candidate pixel with the next processing order (the second edge candidate pixel E2 with the processing order) is processed. As a target, the processing from step S35 onward is repeated. On the other hand, when the processing for all the edge candidate pixels is completed (YES in step S38), the process proceeds to the next analysis function fitting process (step S13).

以上、本発明に係るエッジ検出装置Sの実施形態につき説明したが、本発明はこれに限定されるものではなく、例えば下記[1]〜[4]のような変形実施形態を取ることができる。   The embodiment of the edge detection apparatus S according to the present invention has been described above, but the present invention is not limited to this, and for example, modified embodiments such as the following [1] to [4] can be taken. .

[1]上記実施形態では、撮像装置20がスリット光を走査照射して対象物の二次元画像データ(三次元データ)を取得する例を示した。これに代えて、例えばハロゲンランプ等の光源の前方にスリットマスク等を配置し、対象物に対してパターン光を投影するパターン光投影法を採用しても良い。 [1] In the above-described embodiment, an example in which the imaging device 20 obtains two-dimensional image data (three-dimensional data) of an object by scanning and irradiating slit light. Instead, a pattern light projection method may be employed in which a slit mask or the like is disposed in front of a light source such as a halogen lamp and pattern light is projected onto the object.

[2]上記実施形態では、受光部22の光学系のレンズ情報として、焦点距離及びレンズF値を参照する例を示したが、この他に、例えば射出瞳位置、絞り値、周辺光量状態なども参照するようにしても良い。 [2] In the above embodiment, an example in which the focal length and the lens F value are referred to as the lens information of the optical system of the light receiving unit 22 has been described. However, for example, the exit pupil position, the aperture value, the peripheral light amount state, and the like May also be referred to.

[3]上記実施形態では、各々のエッジ候補に適用する解析関数を二次関数又はガウス関数のいずれかに決定した上で、フィッティング処理を行う例を示した。これに代えて、二次関数及びガウス関数の双方を用いて1つのエッジ候補についてフィッティング処理を行い、双方の近似レベルを評価し、近似レベルが高い方のフィッティング結果を選ぶようにしても良い。 [3] In the above-described embodiment, the example in which the fitting process is performed after the analysis function to be applied to each edge candidate is determined to be either a quadratic function or a Gaussian function is shown. Instead, it is possible to perform fitting processing on one edge candidate using both a quadratic function and a Gaussian function, evaluate both approximation levels, and select a fitting result with a higher approximation level.

[4]上記実施形態では、エッジ検出装置Sを撮像装置20とパーソナルコンピュータ30とで構成する例を示したが、撮像装置20に三次元データ算出機能、エッジ検出機能等を具備させ、撮像装置20単体でエッジ検出装置Sを構成するようにしても良い。さらに、上述のエッジ検出装置Sが行うエッジ検出方法を実行するプログラムとして提供することもできる。このようなプログラムは、コンピュータに付属するフレキシブルディスク、CD−ROM、ROM、RAMおよびメモリカードなどのコンピュータ読取り可能な記録媒体にて記録させて、プログラム製品として提供することもできる。若しくは、コンピュータに内蔵するハードディスクなどの記録媒体にて記録させて、プログラムを提供することもできる。また、ネットワークを介したダウンロードによって、プログラムを提供することもできる。 [4] In the above-described embodiment, the example in which the edge detection device S is configured by the imaging device 20 and the personal computer 30 has been described. However, the imaging device 20 is provided with a three-dimensional data calculation function, an edge detection function, and the like. The edge detection device S may be configured by 20 units. Furthermore, it can also be provided as a program for executing the edge detection method performed by the edge detection device S described above. Such a program can be recorded on a computer-readable recording medium such as a flexible disk, a CD-ROM, a ROM, a RAM, and a memory card attached to the computer and provided as a program product. Alternatively, the program can be provided by being recorded on a recording medium such as a hard disk built in the computer. A program can also be provided by downloading via a network.

本発明に係るエッジ検出装置Sのハード構成の一実施形態を簡略的に示す構成図である。It is a block diagram which shows simply one Embodiment of the hardware constitutions of the edge detection apparatus S which concerns on this invention. エッジ検出装置Sの電気的構成を示すブロック図である。2 is a block diagram showing an electrical configuration of an edge detection device S. FIG. パーソナルコンピュータ30の機能構成を示す機能ブロック図である。2 is a functional block diagram showing a functional configuration of a personal computer 30. FIG. エッジ検出工程フローを示す工程フローチャートである。It is a process flowchart which shows an edge detection process flow. 校正用チャートの一例を示す平面図である。It is a top view which shows an example of the chart for calibration. 解析関数の一例を示す説明図であって、(a)は二次関数を、(b)はガウス関数をそれぞれ示している。It is explanatory drawing which shows an example of an analytic function, Comprising: (a) has shown the quadratic function, (b) has shown the Gaussian function, respectively. 解析関数を導出するテーブルの一例を示す表形式の図である。It is a table format figure which shows an example of the table which derives | leads-out an analysis function. 解析関数を導出するテーブルの一例を示す表形式の図である。It is a table format figure which shows an example of the table which derives | leads-out an analysis function. 解析関数を導出するテーブルの一例を示す表形式の図である。It is a table format figure which shows an example of the table which derives | leads-out an analysis function. 対象物の二次元画像データの一例を示す平面図である。It is a top view which shows an example of the two-dimensional image data of a target object. (a)、(b)は、エッジ周辺の画素出力の微分値を示すグラフである。(A), (b) is a graph which shows the differential value of the pixel output around an edge. パーソナルコンピュータ30におけるエッジ検出処理フローを示すフローチャートである。4 is a flowchart showing an edge detection processing flow in the personal computer 30. エッジ候補画素の特定からエッジ検出までの処理を説明するための模式図である。It is a schematic diagram for demonstrating the process from the identification of an edge candidate pixel to edge detection. (a)、(b)は、フィッティング処理の一例を示す説明図である。(A), (b) is explanatory drawing which shows an example of a fitting process. 図12に示したステップS11のエッジ候補画素検出処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the edge candidate pixel detection process of step S11 shown in FIG. 図12に示したステップS12の解析関数選択処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the analysis function selection process of step S12 shown in FIG.

10 対象物
20 撮像装置(撮像手段)
21 投光部
22 受光部
23 光学系駆動部
24 撮像素子
25 タイミングジェネレータ
26 出力処理回路
27 レンズ情報出力部(レンズ情報取得手段)
28 データメモリ
29 測定制御部
30 パーソナルコンピュータ
34 RAM
341 解析関数記憶部(解析関数記憶手段)
342 導出関数記憶部(導出関数記憶手段)
35 CPU
351 データバッファ
352 三次元データ算出部(距離算出手段)
353 フィルタ処理部
354 エッジ候補画素検出部(エッジ候補特定手段)
355 解析関数導出部(解析関数導出手段)
356 微分処理部(微分画像生成手段)
357 フィッティング処理部
358 エッジ値検出部(エッジ検出手段)
359 処理制御部
S エッジ検出装置
10 object 20 imaging device (imaging means)
DESCRIPTION OF SYMBOLS 21 Light projection part 22 Light reception part 23 Optical system drive part 24 Image pick-up element 25 Timing generator 26 Output processing circuit 27 Lens information output part (lens information acquisition means)
28 Data memory 29 Measurement control unit 30 Personal computer 34 RAM
341 Analysis function storage unit (analysis function storage means)
342 Derived function storage unit (derived function storage means)
35 CPU
351 Data buffer 352 Three-dimensional data calculation unit (distance calculation means)
353 Filter processing unit 354 Edge candidate pixel detection unit (edge candidate specifying means)
355 Analysis function deriving unit (analysis function deriving means)
356 Differential processing unit (differential image generating means)
357 Fitting processing unit 358 Edge value detection unit (edge detection means)
359 Processing control unit S Edge detection device

Claims (19)

所定の光学系を用いて対象物を撮影することで前記対象物についての二次元画像データを取得するステップと、
前記撮影の位置から前記対象物までの距離情報を、前記二次元画像データに基づく画像内の各所において取得するステップと、
前記距離情報に応じて、前記画像内に存在するエッジを検出するエッジ検出箇所の各々に適用する解析関数を決定するステップと、
前記エッジ検出箇所の各々に、決定された前記解析関数をそれぞれ適用してエッジを検出するステップと、を含み、
前記エッジを検出するステップが、
前記二次元画像データを微分処理することで微分画像を作成するステップと、
前記エッジ検出箇所の各々に適用する解析関数を前記微分画像にフィッティング処理するステップと、
フィッティングされた解析関数の頂点をエッジとして検出するステップと
を含むことを特徴とするエッジ検出方法。
Obtaining two-dimensional image data about the object by photographing the object using a predetermined optical system ;
Obtaining distance information from the shooting position to the object at various points in the image based on the two-dimensional image data;
Determining an analytic function to be applied to each of the edge detection locations for detecting edges present in the image according to the distance information;
Applying each of the determined analysis functions to each of the edge detection locations to detect edges , and
Detecting the edge comprises:
Creating a differential image by differentiating the two-dimensional image data;
Fitting an analysis function to be applied to each of the edge detection points to the differential image;
Detecting an apex of the fitted analytic function as an edge, and an edge detection method.
記解析関数を、予め前記光学系の設計値に基づいて導出するステップを含むことを特徴とする請求項1に記載のエッジ検出方法。 Edge detection method according to claim 1, the pre-Symbol analysis function, characterized in that it comprises a step of deriving, based on the pre-designed value of the optical system. 記解析関数を、予め前記光学系を用いてサンプル撮影を行った実測結果から導出するステップを含むことを特徴とする請求項1に記載のエッジ検出方法。 The pre-Symbol analysis function, edge detection method according to claim 1, characterized in that it comprises a step of deriving from advance the actual result of the sample taken with the optical system. 前記解析関数を、前記距離情報に応じてテーブル化するステップを含むことを特徴とする請求項1〜3のいずれかに記載のエッジ検出方法。   The edge detection method according to claim 1, further comprising a step of tabulating the analysis function according to the distance information. 前記解析関数を、前記距離情報に応じて導出するための導出関数を求めるステップを含むことを特徴とする請求項1〜3のいずれかに記載のエッジ検出方法。   The edge detection method according to claim 1, further comprising a step of obtaining a derivation function for deriving the analytic function according to the distance information. 記解析関数を決定するに際し、前記距離情報に加えて、前記撮影レンズについての所定のレンズ情報が利用されることを特徴とする請求項1に記載のエッジ検出方法。 In determining the pre-Symbol analysis function, in addition to the distance information, the edge detecting method according to claim 1, characterized in that predetermined lens information about the photographing lens is utilized. 前記レンズ情報として、前記撮影レンズの焦点距離情報及び/又はレンズF値情報が用いられることを特徴とする請求項6に記載のエッジ検出方法。   The edge detection method according to claim 6, wherein focal length information and / or lens F value information of the photographing lens is used as the lens information. 前記距離情報及びレンズ情報に基づき、合焦位置からのズレに伴う画像のボケ具合に関する情報を、予め前記光学系の設計値に基づいて導出するステップを含むことを特徴とする請求項6又は7に記載のエッジ検出方法。   8. The method according to claim 6, further comprising: deriving information on a degree of blurring of an image accompanying a deviation from a focus position based on the design value of the optical system based on the distance information and the lens information. The edge detection method described in 1. 合焦位置からのズレに伴う画像のボケ具合に関する情報を、予め前記光学系を用いてサンプル撮影を行った実測結果から、前記距離情報及びレンズ情報に関連付けて導出するステップを含むことを特徴とする請求項6又は7に記載のエッジ検出方法。   Including a step of deriving information on the degree of blurring of the image accompanying the deviation from the in-focus position in association with the distance information and the lens information from an actual measurement result obtained by performing sample photographing using the optical system in advance. The edge detection method according to claim 6 or 7. 前記解析関数を、前記距離情報と前記レンズ情報とに対応付けてテーブル化するステップを含むことを特徴とする請求項6〜9のいずれかに記載のエッジ検出方法。   The edge detection method according to claim 6, further comprising a step of making the analysis function into a table in association with the distance information and the lens information. 前記解析関数を、前記距離情報及び前記レンズ情報に応じて導出するための導出関数を求めるステップを含むことを特徴とする請求項6〜9のいずれかに記載のエッジ検出方法。   The edge detection method according to claim 6, further comprising a step of obtaining a derivation function for deriving the analytic function in accordance with the distance information and the lens information. 前記解析関数として、少なくともガウス関数及び/又は二次関数が用いられることを特徴とする請求項1〜11のいずれかに記載のエッジ検出方法。 As the analysis function, the edge detection method according to any one of claims 1 to 11, characterized in that at least the Gaussian function and / or secondary function is used. 対象物についての二次元画像データを取得する撮像手段と、
前記撮像手段による撮影の位置から前記対象物までの距離情報を、前記二次元画像データに基づく画像内の各所において求める距離算出手段と、
前記二次元画像に存在するエッジを定める候補となるエッジ候補を特定するエッジ候補特定手段と、
前記エッジ候補の各々に適用する解析関数を、前記距離情報に応じてそれぞれ導出する解析関数導出手段と、
前記エッジ候補の各々に、導出された前記解析関数をそれぞれ適用してエッジを検出するエッジ検出手段と
前記二次元画像データを微分処理することで微分画像を作成する微分画像生成手段と、を備え、
前記エッジ検出手段は、前記エッジ候補の各々について導出された解析関数を、前記微分画像にフィッティング処理し、そのフィッティングされた解析関数の頂点をエッジとして検出することを特徴とするエッジ検出装置。
Imaging means for acquiring two-dimensional image data about the object;
The distance information from the position of photographing by the image pickup means to said object, a distance calculation means for calculating the various locations within the two-dimensional image data based rather in the image,
Edge candidate specifying means for specifying an edge candidate as a candidate for determining an edge existing in the two-dimensional image;
An analytic function deriving unit for deriving an analytic function to be applied to each of the edge candidates according to the distance information;
Edge detection means for detecting an edge by applying the derived analytic function to each of the edge candidates ;
Differential image generation means for creating a differential image by differential processing the two-dimensional image data,
The edge detection unit is characterized in that an analytic function derived for each of the edge candidates is fitted to the differential image and a vertex of the fitted analytic function is detected as an edge.
前記撮像手段に用いられている撮影レンズについて、少なくともその撮影時における焦点距離情報及び/又はレンズF値情報を取得するレンズ情報取得手段を備え、
前記解析関数導出手段は、前記距離情報に加えて、前記撮影レンズの焦点距離情報及び/又はレンズF値情報を参照して解析関数を導出することを特徴とする請求項13に記載のエッジ検出装置。
About the taking lens used for the image taking means, it is provided with lens information obtaining means for obtaining at least focal length information and / or lens F value information at the time of photographing,
14. The edge detection according to claim 13 , wherein the analytic function deriving unit derives an analytic function by referring to focal length information and / or lens F value information of the photographing lens in addition to the distance information. apparatus.
前記解析関数を、前記距離情報に応じたテーブル形式で保持する解析関数記憶手段を備え、
前記解析関数導出手段は、前記エッジ候補の距離情報と前記解析関数記憶手段のテーブルとを照合することで、前記エッジ候補の各々に適用する解析関数を導出することを特徴とする請求項13に記載のエッジ検出装置。
An analysis function storage means for holding the analysis function in a table format according to the distance information;
The analyzing function deriving means and collates the table of the distance information and the analyzing function storing means of the edge candidates, to claim 13, wherein the deriving an analysis function applied to each of the edge candidate The edge detection apparatus as described.
前記解析関数を前記距離情報に応じて導出するための導出関数を保持する導出関数記憶手段を備え、
前記解析関数導出手段は、前記エッジ候補の距離情報を前記導出関数に与えることで、前記エッジ候補の各々に適用する解析関数を導出することを特徴とする請求項13に記載のエッジ検出装置。
Derivation function storage means for holding a derivation function for deriving the analytic function according to the distance information;
The edge detection apparatus according to claim 13 , wherein the analytic function deriving unit derives an analytic function to be applied to each of the edge candidates by giving distance information of the edge candidate to the derived function.
前記解析関数を、前記距離情報と、前記焦点距離情報及び/又はレンズF値情報とに応じたテーブル形式で保持する解析関数記憶手段を備え、
前記解析関数導出手段は、前記エッジ候補の距離情報、並びに取得された前記焦点距離情報及び/又はレンズF値情報と、前記解析関数記憶手段のテーブルとを照合することで、前記エッジ候補の各々に適用する解析関数を導出することを特徴とする請求項14に記載のエッジ検出装置。
Analysis function storage means for holding the analysis function in a table format according to the distance information and the focal length information and / or lens F value information;
The analysis function deriving unit collates the distance information of the edge candidate, the acquired focal length information and / or lens F value information, and the table of the analysis function storage unit, thereby each of the edge candidates. The edge detection apparatus according to claim 14 , wherein an analytic function to be applied to is derived.
前記解析関数を前記距離情報と、前記焦点距離情報及び/又はレンズF値情報とに応じて導出するための導出関数を保持する導出関数記憶手段を備え、
前記解析関数導出手段は、前記エッジ候補の距離情報、並びに取得された前記焦点距離情報及び/又はレンズF値情報を前記導出関数に与えることで、前記エッジ候補の各々に適用する解析関数を導出することを特徴とする請求項14に記載のエッジ検出装置。
Derivation function storage means for holding a derivation function for deriving the analytic function according to the distance information and the focal length information and / or lens F value information;
The analytic function deriving unit derives an analytic function to be applied to each of the edge candidates by giving the distance information of the edge candidate and the acquired focal length information and / or lens F value information to the derived function. The edge detection apparatus according to claim 14 , wherein:
二次元画像データについてのデータ処理が可能なコンピュータに、
所定の光学系を用いて撮影された対象物についての二次元画像データを読み出すステップと、
前記二次元画像データに基づき、前記撮影の位置から前記対象物までの距離情報を、前記二次元画像データに基づく画像内の各所において求めるステップと、
前記二次元画像に存在するエッジを定める候補となるエッジ候補を特定するステップと、
前記エッジ候補の各々に適用する解析関数を、前記距離情報に応じてそれぞれ導出するステップと、
前記エッジ候補の各々に、導出された前記解析関数をそれぞれ適用してエッジを検出するステップと、を含み、
前記エッジを検出するステップとして、
前記二次元画像データを微分処理することで微分画像を作成するステップと、
前記エッジ検出箇所の各々に適用する解析関数を前記微分画像にフィッティング処理するステップと、
フィッティングされた解析関数の頂点をエッジとして検出するステップと
を実行させることを特徴とするエッジ検出プログラム。
To a computer capable of data processing for 2D image data,
Reading two-dimensional image data about an object photographed using a predetermined optical system ;
Based on the two-dimensional image data, obtaining distance information from the shooting position to the object at various points in the image based on the two-dimensional image data ;
Identifying edge candidates that are candidates for determining edges present in the two-dimensional image;
Deriving an analysis function to be applied to each of the edge candidates according to the distance information;
Applying each of the derived analytic functions to each of the edge candidates to detect edges ; and
As the step of detecting the edge,
Creating a differential image by differentiating the two-dimensional image data;
Fitting an analysis function to be applied to each of the edge detection points to the differential image;
Detecting an apex of the fitted analytical function as an edge; and executing an edge detection program.
JP2006153174A 2006-06-01 2006-06-01 Edge detection method, apparatus, and program Expired - Fee Related JP4743773B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006153174A JP4743773B2 (en) 2006-06-01 2006-06-01 Edge detection method, apparatus, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006153174A JP4743773B2 (en) 2006-06-01 2006-06-01 Edge detection method, apparatus, and program

Publications (2)

Publication Number Publication Date
JP2007322259A JP2007322259A (en) 2007-12-13
JP4743773B2 true JP4743773B2 (en) 2011-08-10

Family

ID=38855214

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006153174A Expired - Fee Related JP4743773B2 (en) 2006-06-01 2006-06-01 Edge detection method, apparatus, and program

Country Status (1)

Country Link
JP (1) JP4743773B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011110885A (en) * 2009-11-30 2011-06-09 Komori Corp Registering device of printer and method for registering printer
US8457431B2 (en) 2009-12-07 2013-06-04 Hiok Nam Tay Auto-focus image system
JP5760324B2 (en) * 2010-03-19 2015-08-05 ソニー株式会社 Image processing apparatus, image processing method, image processing program, and recording medium on which the image processing program is recorded
US8724009B2 (en) 2010-05-05 2014-05-13 Hiok Nam Tay Auto-focus image system
CA2838821A1 (en) * 2011-06-09 2012-12-13 Hiok Nam Tay Auto-focus image system
JP2021022807A (en) 2019-07-26 2021-02-18 セイコーエプソン株式会社 Method for controlling projector, and projector

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002112099A (en) * 2000-09-28 2002-04-12 Nikon Corp Apparatus and method for repairing image
JP2002221405A (en) * 2001-01-26 2002-08-09 Sumitomo Electric Ind Ltd Method and apparatus for measuring three-dimensional position
JP2005129013A (en) * 2003-10-02 2005-05-19 Ricoh Co Ltd Device and method for image processing
JP2006023199A (en) * 2004-07-08 2006-01-26 Yamatake Corp Edge detection method and detector

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3645643B2 (en) * 1996-03-25 2005-05-11 株式会社ミツトヨ Edge detection method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002112099A (en) * 2000-09-28 2002-04-12 Nikon Corp Apparatus and method for repairing image
JP2002221405A (en) * 2001-01-26 2002-08-09 Sumitomo Electric Ind Ltd Method and apparatus for measuring three-dimensional position
JP2005129013A (en) * 2003-10-02 2005-05-19 Ricoh Co Ltd Device and method for image processing
JP2006023199A (en) * 2004-07-08 2006-01-26 Yamatake Corp Edge detection method and detector

Also Published As

Publication number Publication date
JP2007322259A (en) 2007-12-13

Similar Documents

Publication Publication Date Title
US10997696B2 (en) Image processing method, apparatus and device
US8754963B2 (en) Processing images having different focus
US9305375B2 (en) High-quality post-rendering depth blur
US7733412B2 (en) Image pickup apparatus and image pickup method
JP4416795B2 (en) Correction method
US8120642B2 (en) Optical fingerprint acquisition
JP4743773B2 (en) Edge detection method, apparatus, and program
US10430962B2 (en) Three-dimensional shape measuring apparatus, three-dimensional shape measuring method, and storage medium that calculate a three-dimensional shape of an object by capturing images of the object from a plurality of directions
JP2014057303A (en) System and method for utilizing enhanced scene detection in depth estimation procedure
WO2014011182A1 (en) Convergence/divergence based depth determination techniques and uses with defocusing imaging
JP2013258675A (en) Image processing apparatus, image processing method and program, and image pick-up device
JP2014138290A (en) Imaging device and imaging method
CN106225687A (en) The measuring method of dimension of object and device
JP2009164951A (en) Imaging system, image processor, imaging processing method, and program
EP2826243B1 (en) Method and system for identifying depth data associated with an object
CN112770100B (en) Image acquisition method, photographic device and computer readable storage medium
JP5012477B2 (en) Partial image extraction method and partial image extraction apparatus
Verhoeven Focusing on out-of-focus: assessing defocus estimation algorithms for the benefit of automated image masking
JP6542173B2 (en) ANGLE MEASUREMENT DEVICE, OPERATION METHOD THEREOF, AND ANGLE MEASUREMENT PROGRAM
JP7436509B2 (en) Information processing device, imaging device, information processing method, and program
CN110506191A (en) Monitor the scan volume of 3D scanner
JP7373297B2 (en) Image processing device, image processing method and program
JP2010121955A (en) Height information acquisition device, height information acquisition method, and program
JP2009164949A (en) Image processor, image processing method, and program
JP2020153828A (en) Imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080509

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110118

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110426

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110506

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140520

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4743773

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140520

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees