JP2005182833A - Method and instrument for measuring photographic parameter and recording medium - Google Patents

Method and instrument for measuring photographic parameter and recording medium Download PDF

Info

Publication number
JP2005182833A
JP2005182833A JP2004372210A JP2004372210A JP2005182833A JP 2005182833 A JP2005182833 A JP 2005182833A JP 2004372210 A JP2004372210 A JP 2004372210A JP 2004372210 A JP2004372210 A JP 2004372210A JP 2005182833 A JP2005182833 A JP 2005182833A
Authority
JP
Japan
Prior art keywords
image
focal length
edge
coordinates
calculating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004372210A
Other languages
Japanese (ja)
Other versions
JP4128176B2 (en
Inventor
Masanori Watanabe
正規 渡辺
Shuichi Shiitani
秀一 椎谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2004372210A priority Critical patent/JP4128176B2/en
Publication of JP2005182833A publication Critical patent/JP2005182833A/en
Application granted granted Critical
Publication of JP4128176B2 publication Critical patent/JP4128176B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method and an instrument for exactly measuring unknown photographic parameters (distortion coefficient, focal distance) from a picture photographed by a camera whose photographic parameters are unknown. <P>SOLUTION: The measurement method includes a step (S1) where a picture as a measurement object is inputted, a step (S2) where photographic parameters to be measured are designated, a step (S3) where a picture area required for measurement of the photographic parameters in the picture as the measurement object is designated, a step (S4) where information related to the photographic parameters to be measured are extracted from the designated picture area, a step (S5) where the photographic parameters are calculated in accordance with a prescribed arithmetic operation processing based on the quantity and positions of extracted features and a step (S6) where the calculated photographic parameters are outputted. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、あるカメラにて撮影された画像に基づいて、それを撮影した際のカメラの未知の撮影パラメータ、特に、その歪み係数,焦点距離を測定する撮影パラメータ測定方法及び装置に関し、またその方法を実施するためのコンピュータプログラムを記録した記録媒体に関する。   The present invention relates to an imaging parameter measurement method and apparatus for measuring an unknown imaging parameter of a camera at the time of imaging based on an image captured by a certain camera, in particular, its distortion coefficient and focal length, and The present invention relates to a recording medium on which a computer program for carrying out the method is recorded.

従来、歪み係数,焦点距離等のカメラの撮影時のパラメータは、三次元空間中に配置された座標値が既知である点を撮影し、その撮影画像を観察することにより測定されてきた。図7は、このような従来の測定方法を行うための装置構成を示す模式図である。図7において、Vは格子点物体であり、格子点物体Vには二次元座標が既知である複数の格子点が付けられている。また51はカメラであり、その撮影距離を変えて複数回にわたってこの格子点物体Vを撮影し、その画像データを画像表示装置52及び格子点位置抽出部53へ出力する。画像表示装置52は、入力された画像データに応じて格子点物体Vの画像を表示する。   Conventionally, parameters at the time of photographing such as a distortion coefficient and a focal length have been measured by photographing a point where coordinate values arranged in a three-dimensional space are known and observing the photographed image. FIG. 7 is a schematic diagram showing an apparatus configuration for performing such a conventional measurement method. In FIG. 7, V is a lattice point object, and a plurality of lattice points whose two-dimensional coordinates are known are attached to the lattice point object V. Reference numeral 51 denotes a camera, which captures the lattice point object V a plurality of times while changing the photographing distance, and outputs the image data to the image display device 52 and the lattice point position extraction unit 53. The image display device 52 displays an image of the lattice point object V according to the input image data.

格子点位置抽出部53は、ポインティング装置54からのユーザ入力によって指定された格子点について、その画像上の位置を抽出し、指定された格子点の画像座標を求めて撮影パラメータ算出部55へ出力する。撮影パラメータ算出部55は、入力された格子点の画像座標及びカメラ51までの距離と格子点の既知である実際の三次元座標とに基づき、歪みパラメータ及び焦点距離パラメータを含むカメラ51の撮影パラメータを算出して撮影パラメータ出力部56へ出力する。撮影パラメータ出力部56は算出された撮影パラメータを文字データ等に変換して外部へ出力する。
特開平7−15647号公報
The grid point position extraction unit 53 extracts the position on the image of the grid point designated by the user input from the pointing device 54, obtains the image coordinates of the designated grid point, and outputs it to the imaging parameter calculation unit 55 To do. The imaging parameter calculation unit 55 is configured to calculate the imaging parameters of the camera 51 including distortion parameters and focal length parameters based on the input image coordinates of the grid points, the distance to the camera 51, and the actual three-dimensional coordinates of the grid points that are known. Is calculated and output to the imaging parameter output unit 56. The shooting parameter output unit 56 converts the calculated shooting parameter into character data or the like and outputs it to the outside.
Japanese Patent Laid-Open No. 7-15647

ところで、近年、マルチメディアの発展に伴って、カメラにて撮影された画像を扱う処理が増加している。この場合、画像を撮影した際のカメラの撮影パラメータを考慮して、分離,合成,編集等の画像処理を行っている。しかしながら、処理すべき画像の中には、どのような種類のカメラで撮影されたか、また、どのような撮影条件でその画像が得られたかが不明である、即ち、撮影した際のカメラの撮影パラメータが未知である画像が含まれている場合が多い。このような場合には、撮影パラメータが未知であるカメラを用いて再度撮影することはできないため、上述したような従来の方法にてカメラの撮影パラメータを求めることは不可能である。この結果、カメラの撮影パラメータが分からない状態の画像を用いて画像処理を行わなければならず、正確な画像処理を実施できないという問題点がある。   Incidentally, in recent years, with the development of multimedia, processing for handling images taken with a camera has increased. In this case, image processing such as separation, composition, and editing is performed in consideration of the shooting parameters of the camera when the image is shot. However, it is unclear what kind of camera the image to be processed was shot with, and under what shooting conditions the image was obtained, that is, the shooting parameters of the camera at the time of shooting. In many cases, an image with unknown is included. In such a case, it is impossible to re-shoot using a camera whose shooting parameters are unknown. Therefore, it is impossible to obtain the shooting parameters of the camera by the conventional method as described above. As a result, there is a problem that image processing must be performed using an image in a state where the shooting parameters of the camera are not known, and accurate image processing cannot be performed.

本発明は斯かる事情に鑑みてなされたものであり、撮影パラメータが未知であるカメラによって撮影した画像から、その画像を撮影した際のカメラの撮影パラメータ(歪み係数,焦点距離)を正確に測定することができる撮影パラメータ測定方法及び装置を提供することを目的とする。   The present invention has been made in view of such circumstances, and accurately measures the shooting parameters (distortion coefficient, focal length) of the camera when the image is shot from the image shot by the camera whose shooting parameter is unknown. An object of the present invention is to provide an imaging parameter measurement method and apparatus capable of performing the above.

本発明の他の目的は、このような撮影パラメータの測定を実施するためのコンピュータプログラムを記録した記録媒体を提供することにある。   Another object of the present invention is to provide a recording medium on which a computer program for performing measurement of such imaging parameters is recorded.

請求項1に係る撮影パラメータ測定方法は、撮影した画像に基づいて、該画像を撮影した際の焦点距離を測定する方法であって、前記画像から一部の画像領域を選択するステップと、選択した画像領域から測定すべき焦点距離に関連する特徴を求めるステップと、求めた特徴に基づき所定の演算処理に従って焦点距離を算出するステップとを有しており、前記画像領域を選択するステップは、もとは矩形を構成している4本の各直線を含む4つの画像領域を選択するステップを含み、前記特徴を求めるステップは、選択した各画像領域から複数のエッジを抽出するステップと、抽出したエッジの画像上での座標を求めるステップと、求めたエッジの座標値に基づいて各画像領域毎に直線を得るステップと、得た4本の直線を各辺とする矩形の頂点の画像上での座標を求めるステップとを含み、前記焦点距離を算出するステップは、求めた4頂点の座標に基づいて前記焦点距離を算出するステップと、各エッジの鮮明さを表すエッジ強度に応じて、エッジが鮮明である場合には大きな重み付け、鮮明でない場合には小さな重み付けを加えるステップとを含むことを特徴とする。   An imaging parameter measurement method according to claim 1 is a method of measuring a focal length when an image is captured based on a captured image, the step of selecting a part of an image area from the image, and a selection A step of obtaining a feature related to a focal length to be measured from the image region, and a step of calculating a focal length according to a predetermined calculation process based on the obtained feature, and the step of selecting the image region includes: Originally, the method includes a step of selecting four image regions including four straight lines constituting a rectangle, and the step of obtaining the feature includes a step of extracting a plurality of edges from each of the selected image regions, and extraction A step of obtaining coordinates of the edge on the image, a step of obtaining a straight line for each image area based on the obtained coordinate value of the edge, and a rectangular shape having the obtained four straight lines as sides. Calculating the focal distance, calculating the focal distance based on the determined coordinates of the four vertices, and edge strength representing the sharpness of each edge. And a step of applying a large weighting when the edge is clear and a small weighting when the edge is not clear.

請求項2に係る撮影パラメータ測定方法は、請求項1において、求めた画像上での4頂点の座標を(xi ,yi )(i=0,…,3)、任意の値である仮の焦点距離をf′、測定すべき焦点距離をfとした場合に、以下の(1)式により、焦点距離fを算出することを特徴とする。 According to a second aspect of the present invention, there is provided a photographing parameter measurement method according to the first aspect, wherein the coordinates of the four vertices on the obtained image are (x i , y i ) (i = 0,..., 3), The focal length f is calculated by the following equation (1), where f ′ is the focal length of f ′ and f is the focal length to be measured.

Figure 2005182833
Figure 2005182833

但し、(1)式において、m0x,m0y,m0fはm0 のベクトル要素(m0 =(m0x,m0y,m0fT )であり、m1x,m1y,m1fはm1 のベクトル要素(m1 =(m1x,m1y,m1fT )である。
また、m0 ,m1 はそれぞれ以下の(2)式,(3)式にて示される。
However, in (1), m 0x, m 0y, m 0f is a vector element of the m 0 (m 0 = (m 0x, m 0y, m 0f) T), m 1x, m 1y, m 1f is m 1 vector element (m 1 = (m 1x, m 1y, m 1f) T) it is.
Further, m 0 and m 1 are represented by the following equations (2) and (3), respectively.

Figure 2005182833
Figure 2005182833

更に、(2),(3)式において、n0 ,n1 ,n2 ,n3 はそれぞれ以下の(4)〜(7)式にて示される。 Further, in the equations (2) and (3), n 0 , n 1 , n 2 , and n 3 are represented by the following equations (4) to (7), respectively.

Figure 2005182833
Figure 2005182833

請求項3に係る撮影パラメータ測定装置は、撮影した画像に基づいて、該画像を撮影した際の焦点距離を測定する装置であって、前記画像から一部の画像領域を選択する手段と、選択した画像領域から測定すべき焦点距離に関連する特徴を求める手段と、求めた特徴に基づき所定の演算処理に従って焦点距離を算出する手段とを備えており、前記画像領域を選択する手段は、もとは矩形を構成している4本の各直線を含む4つの画像領域を選択する手段を含み、前記特徴を求める手段は、選択した各画像領域から複数のエッジを抽出する手段と、抽出したエッジの画像上での座標を求める手段と、求めたエッジの座標値に基づいて各画像領域毎に直線を得る手段と、得た4本の直線を各辺とする矩形の頂点の画像上での座標を求める手段とを含み、前記焦点距離を算出する手段は、求めた4頂点の座標に基づいて前記焦点距離を算出する手段と、各エッジの鮮明さを表すエッジ強度に応じて、エッジが鮮明である場合には大きな重み付け、鮮明でない場合には小さな重み付けを加える手段とを含むことを特徴とする。   An imaging parameter measurement apparatus according to claim 3 is an apparatus for measuring a focal length when an image is captured based on the captured image, and means for selecting a part of the image area from the image, and a selection Means for obtaining a feature related to the focal length to be measured from the image region, and means for calculating the focal length according to a predetermined calculation process based on the obtained feature, and the means for selecting the image region comprises: Includes means for selecting four image areas each including four straight lines constituting a rectangle, and the means for obtaining the features includes means for extracting a plurality of edges from each selected image area, Means for obtaining the coordinates of the edge on the image, means for obtaining a straight line for each image area based on the obtained coordinate value of the edge, and on the image of the rectangular vertex having the obtained four straight lines as sides. A means for obtaining the coordinates of The means for calculating the focal length includes a means for calculating the focal length based on the obtained coordinates of the four vertices, and an edge strength that is clear according to the edge strength representing the sharpness of each edge. And a means for applying a large weighting, and a small weighting if not clear.

請求項4に係る撮影パラメータ測定装置は、請求項3において、求めた画像上での4頂点の座標を(xi ,yi )(i=0,…,3)、任意の値である仮の焦点距離をf′、測定すべき焦点距離をfとした場合に、以下の(4)式により、焦点距離fを算出することを特徴とする。 According to a fourth aspect of the present invention, there is provided the imaging parameter measuring apparatus according to the third aspect, wherein the coordinates of the four vertices on the obtained image are (x i , y i ) (i = 0,..., 3), and an arbitrary value is assumed. The focal length f is calculated by the following equation (4), where f ′ is the focal length of f ′ and f is the focal length to be measured.

Figure 2005182833
Figure 2005182833

但し、(1)式において、m0x,m0y,m0fはm0 のベクトル要素(m0 =(m0x,m0y,m0fT )であり、m1x,m1y,m1fはm1 のベクトル要素(m1 =(m1x,m1y,m1fT )である。
また、m0 ,m1 はそれぞれ以下の(2)式,(3)式にて示される。
However, in (1), m 0x, m 0y, m 0f is a vector element of the m 0 (m 0 = (m 0x, m 0y, m 0f) T), m 1x, m 1y, m 1f is m 1 vector element (m 1 = (m 1x, m 1y, m 1f) T) it is.
Further, m 0 and m 1 are represented by the following equations (2) and (3), respectively.

Figure 2005182833
Figure 2005182833

更に、(2),(3)式において、n0 ,n1 ,n2 ,n3 はそれぞれ以下の(4)〜(7)式にて示される。 Further, in the equations (2) and (3), n 0 , n 1 , n 2 , and n 3 are represented by the following equations (4) to (7), respectively.

Figure 2005182833
Figure 2005182833

請求項5に係る記録媒体は、コンピュータに取り込まれた撮影画像に基づいて、該撮影画像を撮影した際の焦点距離を測定するためのコンピュータプログラムを記録した記録媒体であって、取り込まれた撮影画像から外部入力に従って一部の画像領域を抽出するステップと、抽出した画像領域から測定すべき焦点距離に関連する特徴を獲得するステップと、獲得された特徴に基づき所定の演算処理に従って焦点距離を算出するステップとを含んでおり、前記画像領域を抽出するステップは、もとは矩形を構成している4本の各直線を含む4つの画像領域を抽出するステップを含み、前記特徴を獲得するステップは、選択した各画像領域から複数のエッジを抽出するステップと、抽出したエッジの画像上での座標を求めるステップと、求めたエッジの座標値に基づいて各画像領域毎に直線を得るステップと、得た4本の直線を各辺とする矩形の頂点の画像上での座標を求めるステップとを含み、前記焦点距離を算出するステップは、求めた4頂点の座標に基づいて前記焦点距離を算出するステップと、各エッジの鮮明さを表すエッジ強度に応じて、エッジが鮮明である場合には大きな重み付け、鮮明でない場合には小さな重み付けを加えるステップとを含むコンピュータプログラムを記録したことを特徴とする。   A recording medium according to claim 5 is a recording medium that records a computer program for measuring a focal length when a captured image is captured based on a captured image captured by a computer. Extracting a part of the image area from the image according to an external input; acquiring a feature related to the focal length to be measured from the extracted image area; and determining a focal distance according to a predetermined calculation process based on the acquired feature. The step of extracting the image region includes the step of extracting four image regions including four straight lines that originally formed a rectangle, and acquiring the feature. The steps include extracting a plurality of edges from each selected image region, obtaining coordinates of the extracted edges on the image, Calculating the focal length, including a step of obtaining a straight line for each image area based on the coordinate value of the image and a step of obtaining coordinates on the image of a rectangular vertex having the obtained four straight lines as sides. The step of calculating the focal length based on the obtained coordinates of the four vertices, and depending on the edge strength representing the sharpness of each edge, if the edge is clear, the weight is large, and if the edge is not clear Recorded a computer program including a step of applying a small weight.

図1は、本発明に係る撮影パラメータ測定装置の構成図である。画像キャリブレーション装置は、撮影パラメータを測定する対象画像を供給する画像供給装置1と、測定すべき撮影パラメータの種類、及び、画像供給装置1から供給される画像の一部の画像領域を、GUI(Graphical User Interface)にて指定するポインティング装置2と、ポインティング装置2にて指定された画像領域から撮影パラメータを測定するための特徴を抽出する特徴抽出部3と、抽出された特徴における特徴量及び特徴位置に基づいて撮影パラメータを算出する撮影パラメータ算出部4とを備える。   FIG. 1 is a configuration diagram of an imaging parameter measuring apparatus according to the present invention. The image calibration device includes a GUI that supplies an image supply device 1 that supplies a target image for measuring shooting parameters, a type of shooting parameters to be measured, and a partial image area of the image supplied from the image supply device 1. A pointing device 2 designated by (Graphical User Interface), a feature extracting unit 3 for extracting a feature for measuring a shooting parameter from an image region designated by the pointing device 2, a feature amount in the extracted feature, and A shooting parameter calculation unit 4 that calculates shooting parameters based on the feature positions;

また、本発明の撮影パラメータ測定装置は、上記の構成に加えて、撮影パラメータ算出部4にて算出された撮影パラメータを出力する撮影パラメータ出力部5と、画像供給装置1から供給される画像、及び、算出された撮影パラメータを表示する画像表示装置6とを備える。撮影パラメータ出力部5は、撮影パラメータ算出部4にて算出された撮影パラメータを、グラフィクデータまたは文字パターンにて画像表示装置6へ出力し、画像表示装置6は、測定対象の画像を表示すると共に、この算出された撮影パラメータをテキストまたはグラフィクスによって表示する。   In addition to the above configuration, the imaging parameter measurement device of the present invention includes an imaging parameter output unit 5 that outputs the imaging parameters calculated by the imaging parameter calculation unit 4, an image supplied from the image supply device 1, And an image display device 6 for displaying the calculated photographing parameters. The imaging parameter output unit 5 outputs the imaging parameters calculated by the imaging parameter calculation unit 4 to the image display device 6 as graphic data or character patterns, and the image display device 6 displays an image to be measured. The calculated shooting parameters are displayed as text or graphics.

なお、文字入力装置7を設け、ポインティング装置2に代わって、測定すべき撮影パラメータの種類を、GUI,文字,数字等によって指定するようにしても良い。   Note that a character input device 7 may be provided, and the type of imaging parameter to be measured may be designated by GUI, characters, numbers, etc., instead of the pointing device 2.

次に、撮影パラメータを測定する動作について説明する。図2は、その動作手順を示すフローチャートである。撮影パラメータを測定する対象画像が画像供給装置1から、特徴抽出部3及び画像表示装置6へ入力される(ステップS1)。画像表示装置6において、その対象画像が表示される。また、ポインティング装置2または文字入力装置7によって、測定すべき撮影パラメータの種類(歪み係数,焦点距離)が特徴抽出部3へ入力される(ステップS2)。次に、ポインティング装置2によって、特徴抽出部3に入力された対象画像の中から撮影パラメータを参照するための一部の画像領域が指定される(ステップS3)。ここでは、撮影パラメータに関連する画像領域が指定される。例えば、焦点距離を測定する際には、撮影空間にて矩形を成しているはずの直線を含む画像領域が指定される。   Next, an operation for measuring imaging parameters will be described. FIG. 2 is a flowchart showing the operation procedure. A target image whose shooting parameters are to be measured is input from the image supply device 1 to the feature extraction unit 3 and the image display device 6 (step S1). In the image display device 6, the target image is displayed. In addition, the type of imaging parameter to be measured (distortion coefficient, focal length) is input to the feature extraction unit 3 by the pointing device 2 or the character input device 7 (step S2). Next, the pointing device 2 designates a part of the image area for referring to the shooting parameter from the target image input to the feature extraction unit 3 (step S3). Here, an image area related to the imaging parameter is designated. For example, when measuring the focal length, an image region including a straight line that should form a rectangle in the imaging space is designated.

次いで、特徴抽出部3にて、指定された画像領域における特徴(例えばエッジ)が抽出され、その特徴量及び特徴位置が撮影パラメータ算出部4へ出力される(ステップS4)。撮影パラメータ算出部4では、入力された特徴量及び特徴位置に基づいて撮影パラメータが算出され、その撮影パラメータが撮影パラメータ出力部5へ出力される(ステップS5)。撮影パラメータ出力部5から画像表示装置6へ、算出された撮影パラメータがグラフィクデータまたは文字パターンとして出力される(ステップS6)。そして、その算出された撮影パラメータが、画像表示装置6にて、テキストまたはグラフィクスによって表示される。   Next, the feature extraction unit 3 extracts features (for example, edges) in the designated image region, and outputs the feature amounts and feature positions to the imaging parameter calculation unit 4 (step S4). The shooting parameter calculation unit 4 calculates shooting parameters based on the input feature amount and feature position, and outputs the shooting parameters to the shooting parameter output unit 5 (step S5). The calculated shooting parameters are output as graphic data or character patterns from the shooting parameter output unit 5 to the image display device 6 (step S6). The calculated shooting parameters are displayed on the image display device 6 as text or graphics.

なお、指定された画像領域から抽出される特徴は、ユーザにより外部から指定されるようにしても良いし、または、指定された画像領域から画像処理によって自動的に指定されるようにしても良い。   The feature extracted from the designated image area may be designated by the user from the outside, or may be automatically designated by image processing from the designated image area. .

撮影パラメータが未知であるカメラによって撮影された画像に基づいて、撮影状況の仮説を立ててその未知の撮影パラメータを測定することができ、撮影パラメータが未知であるカメラにて撮影された画像に対する分離,結合,編集等の処理をより正確に行うことができる。また、撮影パラメータを測定する際に、ユーザが指定した画像領域から画像処理によって撮影パラメータを算出するための特徴が自動的に抽出されるので、その特徴をユーザが指定する必要はなく、また、その特徴の画像座標,大きさ等の数量をユーザが知らなくても良い。   Based on images taken by cameras with unknown shooting parameters, it is possible to make assumptions of shooting conditions and measure the unknown shooting parameters, and separate them from images taken by cameras with unknown shooting parameters , Combining, editing, etc. can be performed more accurately. In addition, when measuring shooting parameters, features for calculating shooting parameters are automatically extracted from the image area specified by the user by image processing, so there is no need for the user to specify the features. The user does not need to know the quantity of the feature such as image coordinates and size.

以下、本発明の実施の形態について具体的に説明する。以下の実施の形態では、撮影パラメータとして歪み係数(第1実施の形態),焦点距離(第2実施の形態)を測定する場合を例にして説明する。   Hereinafter, embodiments of the present invention will be specifically described. In the following embodiment, a case where a distortion coefficient (first embodiment) and a focal length (second embodiment) are measured as imaging parameters will be described as an example.

図3は、本発明の実施の形態としてのシステムの基本構成を示す模式図であり、本システムは、ユーザ端末としてのパーソナルコンピュータ11と、対象画像及び算出撮影パラメータを表示する画像表示装置6してのディスプレイ12と、パーソナルコンピュータ11に接続されたポインティング装置2としてのマウス13及び文字入力装置7としてのキーボード14とを備える。パーソナルコンピュータ11は、指定された画像領域における特徴の抽出,指定された撮影パラメータの算出等の処理を行うためのプログラムを、そのプログラムが記録されている記録媒体としての磁気ディスク15からロードする。なお、図1における特徴抽出部3,撮影パラメータ算出部4及び撮影パラメータ出力部5は、パーソナルコンピュータ11のソフトウェアに組み込まれている。   FIG. 3 is a schematic diagram showing a basic configuration of a system as an embodiment of the present invention. This system includes a personal computer 11 as a user terminal and an image display device 6 that displays target images and calculated shooting parameters. A display 12, a mouse 13 as a pointing device 2 connected to a personal computer 11, and a keyboard 14 as a character input device 7. The personal computer 11 loads a program for performing processing such as extraction of features in a designated image area and calculation of designated shooting parameters from a magnetic disk 15 as a recording medium on which the program is recorded. Note that the feature extraction unit 3, the shooting parameter calculation unit 4, and the shooting parameter output unit 5 in FIG. 1 are incorporated in the software of the personal computer 11.

(第1実施の形態:歪み係数測定)
まず、図4に示すような対象画像G1を、画像供給装置1から特徴抽出部3及びディスプレイ12へ供給する(S1)。供給された画像G1がディスプレイ12に表示される。図4に示す画像G1は、外形が逆円錐台状の上面が開放された容器(紙コップ)Bが机Aの上に置かれている情景を撮影した画像である。測定すべき撮影パラメータとして、ユーザがマウス13またはキーボード14を用いて、「歪み」を選択する(S2)。次いで、ディスプレイ12に表示されている対象画像を見ながら、ユーザはマウス13を用いて、その対象画像から一部の画像領域Sを指定する(S3)。この場合、指定する画像領域Sは、もとは直線であったが歪みによって曲線になった部分(机Aの縁)を含んでいる。なお、画像領域Sに代えて、1つの直線であったはずの曲線に対して複数領域、例えば2つの画像領域S1,S2を指定しても良い。
(First embodiment: measurement of distortion coefficient)
First, a target image G1 as shown in FIG. 4 is supplied from the image supply device 1 to the feature extraction unit 3 and the display 12 (S1). The supplied image G1 is displayed on the display 12. An image G1 shown in FIG. 4 is an image of a scene in which a container (paper cup) B whose outer shape has an inverted truncated cone shape and whose upper surface is opened is placed on the desk A. As an imaging parameter to be measured, the user selects “distortion” using the mouse 13 or the keyboard 14 (S2). Next, while viewing the target image displayed on the display 12, the user uses the mouse 13 to designate a part of the image region S from the target image (S3). In this case, the designated image region S includes a portion (edge of desk A) that was originally a straight line but has become a curved line due to distortion. Instead of the image region S, a plurality of regions, for example, two image regions S1 and S2 may be designated for a curve that should have been a single straight line.

次に、特徴抽出部3にて、指定された画像領域Sから、空間フィルタ処理の一手法であるソーベル(Sobel)オペレータ,Canny オペレータ等のエッジ抽出オペレータによりエッジを抽出する(S4)。該当するその画像領域Sからn個のエッジが抽出された場合、各エッジ位置の画像上のx座標,y座標、エッジ抽出オペレータの出力によるエッジ強度をそれぞれ、xi ′,yi ′、Ei (i=0,…,n-1)とする。得られたこれらのデータは、撮影パラメータ算出部4へ出力され、撮影パラメータ算出部4にて、これらのデータに基づき以下に示すような手法に従って、撮影パラメータである歪み係数を算出する(S5)。 Next, the feature extraction unit 3 extracts edges from the designated image region S by an edge extraction operator such as a Sobel operator or a Canny operator, which is a method of spatial filtering (S4). When n edges are extracted from the corresponding image area S, the x-coordinate, y-coordinate on the image of each edge position, and the edge strength output by the edge extraction operator are respectively represented by x i ′, y i ′, E i (i = 0,..., n−1). These obtained data are output to the shooting parameter calculation unit 4, and the shooting parameter calculation unit 4 calculates a distortion coefficient, which is a shooting parameter, according to the following method based on these data (S5). .

該当画像が歪み係数κによって、放射状の歪みを受けているとする。即ち、当該画像をI′(x′,y′)(x′及びy′は既知)、歪みを修整した場合の画像をI′(x,y)(x及びyは未知)とした場合に、以下の(8),(9)式が成立する。
x′=x{1−κ(x2 +y2 )} …(8)
y′=y{1−κ(x2 +y2 )} …(9)
Assume that the image is subjected to radial distortion due to the distortion coefficient κ. That is, when the image is I ′ (x ′, y ′) (x ′ and y ′ are known), and the image when distortion is corrected is I ′ (x, y) (x and y are unknown). The following expressions (8) and (9) are established.
x ′ = x {1−κ (x 2 + y 2 )} (8)
y ′ = y {1−κ (x 2 + y 2 )} (9)

そして、上述した各エッジの列が形成するはずの直線(机Aの縁)を、ヘッセの標準形と呼称される以下の(10)式とする。
−x sinθ+y cosθ=ρ …(10)
(但し、θ,ρは直線を決定するパラメータであり、
θ:原点から直線に引いた垂線とx軸とのなす角度
ρ:xy座標系の原点から直線までの距離)
The straight line (the edge of the desk A) that should be formed by each row of edges described above is defined as the following expression (10) called the standard form of Hesse.
−x sin θ + y cos θ = ρ (10)
(However, θ and ρ are parameters that determine the straight line.
θ: Angle between the perpendicular line drawn from the origin and the x-axis
ρ: Distance from the origin of the xy coordinate system to the straight line)

上述した各エッジについて、上述した(8)〜(10)の式が得られ、この(8)〜(10)の式から未知であるx,yを消去して3つの未知数κ,θ,ρで表された1本の方程式を得る。少なくとも3個のエッジについて、このような処理を行って、3つの未知数で表された少なくとも3本の方程式を得、この連立方程式を解くことにより、該当画像における歪み係数κを求めることができる。   For each of the edges described above, the above-described equations (8) to (10) are obtained, and the unknown x and y are eliminated from the equations (8) to (10) to obtain three unknowns κ, θ, and ρ. A single equation expressed as follows is obtained. By performing such processing for at least three edges to obtain at least three equations represented by three unknowns, and solving these simultaneous equations, the distortion coefficient κ in the corresponding image can be obtained.

なお、各エッジにおける前述したエッジ強度Ei は、上述の算出処理における重み付けに用いる。即ち、エッジが鮮明であるエッジ点については大きな重みを付与し、エッジがあまり鮮明でないエッジ点については小さな重みを付与する。 The edge strength E i described above at each edge is used for weighting in the calculation process described above. That is, a large weight is assigned to an edge point where the edge is clear, and a small weight is assigned to an edge point where the edge is not very clear.

なお、1箇所の画像領域を指定して1本の直線に対して上述の演算処理を行うことにより歪み係数κの算出は可能であるが、複数箇所の画像領域を指定して複数の直線それぞれに対して上述の演算処理を行うようにすれば、歪み係数κを総合的に判断できてその算出精度の向上を図ることができる。この場合、各直線における上述の演算処理では、パラメータθ,ρはそれぞれの直線において互いに異なっており、パラメータκは全ての直線において同一である。例えば、図4において、領域Sがなすはずの直線と領域S1,S2がなすはずの直線とに対して上述の演算処理を行うことができる。   It is possible to calculate the distortion coefficient κ by designating one image area and performing the above-described arithmetic processing on one straight line. However, by designating a plurality of image areas, However, if the above-described arithmetic processing is performed, the distortion coefficient κ can be comprehensively determined and the calculation accuracy can be improved. In this case, in the above-described calculation processing on each straight line, the parameters θ and ρ are different from each other on each straight line, and the parameter κ is the same on all straight lines. For example, in FIG. 4, the above-described calculation process can be performed on a straight line that should be formed by the region S and a straight line that should be formed by the regions S1 and S2.

以上のようにして算出された歪み係数κは、撮影パラメータ出力部5を介してディスプレイ12へ文字パターンデータの形式で送られる(S6)。そして、算出された歪み係数κの値が、その対象画像と共にディスプレイ12に表示される。   The distortion coefficient κ calculated as described above is sent in the form of character pattern data to the display 12 via the photographing parameter output unit 5 (S6). Then, the calculated value of the distortion coefficient κ is displayed on the display 12 together with the target image.

(第2実施の形態:焦点距離測定)
まず、図5に示すような対象画像G2を、画像供給装置1から特徴抽出部3及びディスプレイ12へ供給する(S1)。供給された画像G2がディスプレイ12に表示される。図5に示す画像G2は、集合住宅Cの情景を撮影した画像である。測定すべき撮影パラメータとして、ユーザがマウス13またはキーボード14を用いて、「焦点距離」を選択する(S2)。次いで、ディスプレイ12に表示されている対象画像を見ながら、ユーザはマウス13を用いて、撮影空間にて矩形を成しているはずの4本の直線を含む4つの画像領域Ri (i=0,…,3)を指定する(S3)。なお、下の直線をなす部分として画像領域R4を加えて指定しても良い。
(Second embodiment: focal length measurement)
First, a target image G2 as shown in FIG. 5 is supplied from the image supply device 1 to the feature extraction unit 3 and the display 12 (S1). The supplied image G2 is displayed on the display 12. An image G2 illustrated in FIG. 5 is an image obtained by photographing a scene of the apartment house C. As an imaging parameter to be measured, the user selects “focal length” using the mouse 13 or the keyboard 14 (S2). Next, while viewing the target image displayed on the display 12, the user uses the mouse 13 to display four image regions R i (i = i = 4) including four straight lines that should form a rectangle in the imaging space. 0,..., 3) are designated (S3). Note that the image region R4 may be added and designated as a portion forming a lower straight line.

次に、指定された4つの各画像領域Ri から、特徴抽出部3にて、ソーベルオペレータ,Canny オペレータ等のエッジ抽出オペレータによりエッジを抽出する(S4)。該当する各画像領域Ri からそれぞれni 個のエッジが抽出された場合、各エッジ位置の画像上のx座標,y座標、エッジ抽出オペレータの出力によるエッジ強度をそれぞれ、Xij,Yij,Eij(i=0,…,3,j=0,…,ni -1)とする。 Then extracted from the specified four respective image areas R i, by the feature extraction section 3, Sobel operator, an edge by the edge extraction operator, such as Canny operator (S4). When n i edges are extracted from each corresponding image region R i , the x-coordinate, y-coordinate on the image at each edge position, and the edge strength output by the edge extraction operator are respectively represented as X ij , Y ij , Let E ij (i = 0,..., 3, j = 0,..., N i −1).

抽出されたエッジに対し、各画像領域Ri 毎に別々に最小二乗法によって直線をあてはめる。その際、エッジ強度は重み付けに用いる。即ち、エッジが鮮明であるエッジ点については大きな重み付けを行い、エッジがあまり鮮明でないエッジ点については小さな重み付けを行う。得られた4本の直線を矩形を成す4つの辺とし、それらの交点を頂点とする矩形を得る。4つの交点の画像上のx座標,y座標はそれぞれxi ,yi (i=0,…,3)とする。 To the extracted edge, fit a straight line by the least squares method separately for each image region R i. At that time, the edge strength is used for weighting. That is, a large weight is applied to an edge point where the edge is clear, and a small weight is applied to an edge point where the edge is not very clear. The obtained four straight lines are set as four sides forming a rectangle, and a rectangle whose vertex is the intersection of the four sides is obtained. The x and y coordinates on the image of the four intersections are assumed to be x i and y i (i = 0,..., 3), respectively.

得られたこれらのデータは、撮影パラメータ算出部4へ出力され、撮影パラメータ算出部4にて、これらのデータに基づき以下に示すような計算処理に従って、撮影パラメータである焦点距離を算出する(S5)。   These obtained data are output to the shooting parameter calculation unit 4, and the shooting parameter calculation unit 4 calculates the focal length, which is the shooting parameter, according to the calculation process shown below based on these data (S5). ).

仮の焦点距離をf′(任意の値)とすると、求める焦点距離fは、以下の(1)式にて求めることができる。   If the temporary focal length is f ′ (arbitrary value), the desired focal length f can be obtained by the following equation (1).

Figure 2005182833
Figure 2005182833

但し、(1)式において、m0x,m0y,m0fはm0 のベクトル要素であり、即ち、m0 =(m0x,m0y,m0fT 、またm1x,m1y,m1fはm1 のベクトル要素であり、即ち、m1 =(m1x,m1y,m1fT である。
また、m0 ,m1 はそれぞれ以下の(2)式,(3)式にて示される。
However, in (1), m 0x, m 0y, m 0f is a vector element of the m 0, i.e., m 0 = (m 0x, m 0y, m 0f) T, also m 1x, m 1y, m 1f is a vector element of m 1, i.e., m 1 = (m 1x, m 1y, m 1f) is T.
Further, m 0 and m 1 are represented by the following equations (2) and (3), respectively.

Figure 2005182833
Figure 2005182833

但し、(2),(3)式において、n0 ,n1 ,n2 ,n3 はそれぞれ以下の(4)〜(7)式にて示される。 However, in the equations (2) and (3), n 0 , n 1 , n 2 , and n 3 are represented by the following equations (4) to (7), respectively.

Figure 2005182833
Figure 2005182833

なお、1つの矩形を想定して上述の演算処理を行うことにより焦点距離fの算出は可能であるが、複数の矩形を想定して各矩形に対して上述の演算処理をそれぞれ行うようにすれば、焦点距離fを総合的に判断することができてその算出精度を向上することができる。具体的には、図5に示すような画像領域R5,R6,R7,R8を更に指定して、R3,R5,R6,R7,R8に対応する4本の直線で構成される矩形についても上述の演算処理を行えば良い。   It is possible to calculate the focal length f by performing the above calculation process assuming one rectangle. However, the above calculation process is performed for each rectangle assuming a plurality of rectangles. For example, the focal length f can be comprehensively determined, and the calculation accuracy can be improved. More specifically, the image regions R5, R6, R7, and R8 as shown in FIG. 5 are further specified, and the above-described rectangle formed by four straight lines corresponding to R3, R5, R6, R7, and R8 is also described above. The arithmetic processing may be performed.

以上のようにして算出された焦点距離fは、撮影パラメータ出力部5を介してディスプレイ12へ文字パターンデータの形式で送られる(S6)。そして、算出された焦点距離fの値が、その対象画像と共にディスプレイ12に表示される。   The focal length f calculated as described above is sent in the form of character pattern data to the display 12 via the photographing parameter output unit 5 (S6). Then, the calculated value of the focal length f is displayed on the display 12 together with the target image.

なお、上述した例では、本発明の処理を行うためのプログラムを磁気ディスク15からロードすることとしたが、これは例示であり、そのプログラムを記録する記録媒体はこれに限らない。図6は、記録媒体の他の例を示す図である。本発明の特許請求の範囲に記された記録媒体としては、上述した磁気ディスク15, CD−ROM16等の可搬型記録媒体、パーソナルコンピュータ11と無線または有線にてプログラム通信が可能である、例えばセンタに備えられた回線先メモリ17、パーソナルコンピュータ11に備えつけられたRAM,ハードディスク等の処理装置側メモリ18の何れであっても良い。   In the above-described example, the program for performing the processing of the present invention is loaded from the magnetic disk 15, but this is an example, and the recording medium for recording the program is not limited to this. FIG. 6 is a diagram illustrating another example of the recording medium. Examples of the recording medium described in the claims of the present invention include portable recording media such as the magnetic disk 15 and CD-ROM 16 described above, and personal computer 11 that can perform program communication wirelessly or by wire. May be any one of the line memory 17 provided in the memory, the RAM 18 provided in the personal computer 11, and the processing device side memory 18 such as a hard disk.

本発明に係る撮影パラメータ測定装置の構成図である。It is a block diagram of the imaging | photography parameter measurement apparatus which concerns on this invention. 本発明に係る撮影パラメータ測定方法の動作手順を示すフローチャートである。5 is a flowchart showing an operation procedure of the imaging parameter measurement method according to the present invention. 本発明の実施の形態のシステム構成を示す模式図である。It is a schematic diagram which shows the system configuration | structure of embodiment of this invention. 第1実施の形態における対象画像及び指定した画像領域を示す図である。It is a figure which shows the target image and designated image area | region in 1st Embodiment. 第2実施の形態における対象画像及び指定した画像領域を示す図である。It is a figure which shows the object image and designated image area | region in 2nd Embodiment. 記録媒体の例を示す図である。It is a figure which shows the example of a recording medium. 従来の撮影パラメータの測定方法を実施する装置構成を示す模式図である。It is a schematic diagram which shows the apparatus structure which implements the measuring method of the conventional imaging | photography parameter.

符号の説明Explanation of symbols

1 画像供給装置
2 ポインティング装置
3 特徴抽出部
4 撮影パラメータ算出部
5 撮影パラメータ出力部
6 画像表示装置
7 文字入力装置
11 パーソナルコンピュータ
12 ディスプレイ
13 マウス
14 キーボード
15 磁気ディスク
16 CD−ROM
17 回線先メモリ
18 処理装置側メモリ
DESCRIPTION OF SYMBOLS 1 Image supply apparatus 2 Pointing apparatus 3 Feature extraction part 4 Shooting parameter calculation part 5 Shooting parameter output part 6 Image display apparatus 7 Character input device
11 Personal computer
12 display
13 mouse
14 Keyboard
15 Magnetic disk
16 CD-ROM
17 Line memory
18 Processor side memory

Claims (5)

撮影した画像に基づいて、該画像を撮影した際の焦点距離を測定する方法であって、前記画像から一部の画像領域を選択するステップと、選択した画像領域から測定すべき焦点距離に関連する特徴を求めるステップと、求めた特徴に基づき所定の演算処理に従って焦点距離を算出するステップとを有しており、
前記画像領域を選択するステップは、もとは矩形を構成している4本の各直線を含む4つの画像領域を選択するステップを含み、前記特徴を求めるステップは、選択した各画像領域から複数のエッジを抽出するステップと、抽出したエッジの画像上での座標を求めるステップと、求めたエッジの座標値に基づいて各画像領域毎に直線を得るステップと、得た4本の直線を各辺とする矩形の頂点の画像上での座標を求めるステップとを含み、前記焦点距離を算出するステップは、求めた4頂点の座標に基づいて前記焦点距離を算出するステップと、各エッジの鮮明さを表すエッジ強度に応じて、エッジが鮮明である場合には大きな重み付け、鮮明でない場合には小さな重み付けを加えるステップとを含むことを特徴とする撮影パラメータ測定方法。
A method for measuring a focal length when an image is captured based on a captured image, the method comprising: selecting a part of the image area from the image, and a focal distance to be measured from the selected image area And calculating a focal length according to a predetermined calculation process based on the calculated characteristics,
The step of selecting the image region includes a step of selecting four image regions including four straight lines that originally formed a rectangle, and the step of obtaining the feature includes a plurality of steps from each of the selected image regions. Extracting the edges of the image, obtaining the coordinates of the extracted edges on the image, obtaining a straight line for each image region based on the obtained coordinate values of the edges, and obtaining the obtained four straight lines Determining the coordinates of the rectangular vertices on the image on the image, and calculating the focal distance includes calculating the focal distance based on the determined coordinates of the four vertices, and sharpening each edge. And a step of applying a large weighting when the edge is clear and a small weighting when the edge is not clear, according to the edge strength representing the brightness. .
求めた画像上での4頂点の座標を(xi ,yi )(i=0,…,3)、任意の値である仮の焦点距離をf′、測定すべき焦点距離をfとした場合に、以下の(1)式により、焦点距離fを算出することを特徴とする請求項1記載の撮影パラメータ測定方法。
Figure 2005182833
但し、(1)式において、m0x,m0y,m0fはm0 のベクトル要素(m0 =(m0x,m0y,m0fT )であり、m1x,m1y,m1fはm1 のベクトル要素(m1 =(m1x,m1y,m1fT )である。
また、m0 ,m1 はそれぞれ以下の(2)式,(3)式にて示される。
Figure 2005182833
更に、(2),(3)式において、n0 ,n1 ,n2 ,n3 はそれぞれ以下の(4)〜(7)式にて示される。
Figure 2005182833
The coordinates of the four vertices on the obtained image are (x i , y i ) (i = 0,..., 3), the temporary focal length which is an arbitrary value is f ′, and the focal length to be measured is f. In this case, the focal length f is calculated by the following equation (1).
Figure 2005182833
However, in (1), m 0x, m 0y, m 0f is a vector element of the m 0 (m 0 = (m 0x, m 0y, m 0f) T), m 1x, m 1y, m 1f is m 1 vector element (m 1 = (m 1x, m 1y, m 1f) T) it is.
Further, m 0 and m 1 are represented by the following equations (2) and (3), respectively.
Figure 2005182833
Further, in the equations (2) and (3), n 0 , n 1 , n 2 , and n 3 are represented by the following equations (4) to (7), respectively.
Figure 2005182833
撮影した画像に基づいて、該画像を撮影した際の焦点距離を測定する装置であって、前記画像から一部の画像領域を選択する手段と、選択した画像領域から測定すべき焦点距離に関連する特徴を求める手段と、求めた特徴に基づき所定の演算処理に従って焦点距離を算出する手段とを備えており、
前記画像領域を選択する手段は、もとは矩形を構成している4本の各直線を含む4つの画像領域を選択する手段を含み、前記特徴を求める手段は、選択した各画像領域から複数のエッジを抽出する手段と、抽出したエッジの画像上での座標を求める手段と、求めたエッジの座標値に基づいて各画像領域毎に直線を得る手段と、得た4本の直線を各辺とする矩形の頂点の画像上での座標を求める手段とを含み、前記焦点距離を算出する手段は、求めた4頂点の座標に基づいて前記焦点距離を算出する手段と、各エッジの鮮明さを表すエッジ強度に応じて、エッジが鮮明である場合には大きな重み付け、鮮明でない場合には小さな重み付けを加える手段とを含むことを特徴とする撮影パラメータ測定装置。
An apparatus for measuring a focal distance when an image is captured based on a captured image, and means for selecting a part of the image area from the image and a focal distance to be measured from the selected image area And a means for calculating the focal length according to a predetermined calculation process based on the calculated characteristics.
The means for selecting the image area includes means for selecting four image areas including four straight lines originally constituting a rectangle, and the means for obtaining the feature includes a plurality of means for selecting each of the selected image areas. Means for extracting the edge of the image, means for obtaining the coordinates of the extracted edge on the image, means for obtaining a straight line for each image area based on the coordinate value of the obtained edge, and each of the obtained four straight lines. Means for calculating the coordinates of the rectangular vertices on the image on the image, and the means for calculating the focal length includes means for calculating the focal length based on the obtained coordinates of the four vertices, and the sharpness of each edge. And a means for applying a large weighting when the edge is clear and a small weighting when the edge is not clear according to the edge strength representing the brightness.
求めた画像上での4頂点の座標を(xi ,yi )(i=0,…,3)、任意の値である仮の焦点距離をf′、測定すべき焦点距離をfとした場合に、以下の(4)式により、焦点距離fを算出することを特徴とする請求項3記載の撮影パラメータ測定装置。
Figure 2005182833
但し、(1)式において、m0x,m0y,m0fはm0 のベクトル要素(m0 =(m0x,m0y,m0fT )であり、m1x,m1y,m1fはm1 のベクトル要素(m1 =(m1x,m1y,m1fT )である。
また、m0 ,m1 はそれぞれ以下の(2)式,(3)式にて示される。
Figure 2005182833
更に、(2),(3)式において、n0 ,n1 ,n2 ,n3 はそれぞれ以下の(4)〜(7)式にて示される。
Figure 2005182833
The coordinates of the four vertices on the obtained image are (x i , y i ) (i = 0,..., 3), the temporary focal length which is an arbitrary value is f ′, and the focal length to be measured is f. In this case, the focal length f is calculated by the following equation (4).
Figure 2005182833
However, in (1), m 0x, m 0y, m 0f is a vector element of the m 0 (m 0 = (m 0x, m 0y, m 0f) T), m 1x, m 1y, m 1f is m 1 vector element (m 1 = (m 1x, m 1y, m 1f) T) it is.
Further, m 0 and m 1 are represented by the following equations (2) and (3), respectively.
Figure 2005182833
Further, in the equations (2) and (3), n 0 , n 1 , n 2 , and n 3 are represented by the following equations (4) to (7), respectively.
Figure 2005182833
コンピュータに取り込まれた撮影画像に基づいて、該撮影画像を撮影した際の焦点距離を測定するためのコンピュータプログラムを記録した記録媒体であって、取り込まれた撮影画像から外部入力に従って一部の画像領域を抽出するステップと、抽出した画像領域から測定すべき焦点距離に関連する特徴を獲得するステップと、獲得された特徴に基づき所定の演算処理に従って焦点距離を算出するステップとを含んでおり、
前記画像領域を抽出するステップは、もとは矩形を構成している4本の各直線を含む4つの画像領域を抽出するステップを含み、前記特徴を獲得するステップは、選択した各画像領域から複数のエッジを抽出するステップと、抽出したエッジの画像上での座標を求めるステップと、求めたエッジの座標値に基づいて各画像領域毎に直線を得るステップと、得た4本の直線を各辺とする矩形の頂点の画像上での座標を求めるステップとを含み、前記焦点距離を算出するステップは、求めた4頂点の座標に基づいて前記焦点距離を算出するステップと、各エッジの鮮明さを表すエッジ強度に応じて、エッジが鮮明である場合には大きな重み付け、鮮明でない場合には小さな重み付けを加えるステップとを含むコンピュータプログラムを記録したことを特徴とするコンピュータ読み取り可能な記録媒体。
A recording medium recording a computer program for measuring a focal length when a captured image is captured based on a captured image captured by a computer, and a part of the image according to an external input from the captured captured image Extracting a region, obtaining a feature related to a focal length to be measured from the extracted image region, and calculating a focal length according to a predetermined calculation process based on the obtained feature,
The step of extracting the image region includes the step of extracting four image regions including four straight lines that originally formed a rectangle, and the step of acquiring the feature comprises: A step of extracting a plurality of edges, a step of obtaining coordinates on the image of the extracted edges, a step of obtaining a straight line for each image region based on the obtained coordinate values of the edges, and the obtained four straight lines Calculating a coordinate on the image of a rectangular vertex as each side, and calculating the focal length includes calculating the focal length based on the calculated coordinates of the four vertices; According to the edge strength representing the sharpness, a computer program is recorded which includes a step of applying a large weighting when the edge is sharp and a small weighting when the edge is not sharp. A computer-readable recording medium characterized.
JP2004372210A 1996-11-27 2004-12-22 Imaging parameter measuring method and apparatus, and recording medium Expired - Fee Related JP4128176B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004372210A JP4128176B2 (en) 1996-11-27 2004-12-22 Imaging parameter measuring method and apparatus, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP31669296 1996-11-27
JP2004372210A JP4128176B2 (en) 1996-11-27 2004-12-22 Imaging parameter measuring method and apparatus, and recording medium

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP19621197A Division JP3661073B2 (en) 1996-11-27 1997-07-22 Imaging parameter measuring method and apparatus, and recording medium

Publications (2)

Publication Number Publication Date
JP2005182833A true JP2005182833A (en) 2005-07-07
JP4128176B2 JP4128176B2 (en) 2008-07-30

Family

ID=34796954

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004372210A Expired - Fee Related JP4128176B2 (en) 1996-11-27 2004-12-22 Imaging parameter measuring method and apparatus, and recording medium

Country Status (1)

Country Link
JP (1) JP4128176B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017059041A (en) * 2015-09-17 2017-03-23 株式会社リコー Image processing device, image processing method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017059041A (en) * 2015-09-17 2017-03-23 株式会社リコー Image processing device, image processing method, and program

Also Published As

Publication number Publication date
JP4128176B2 (en) 2008-07-30

Similar Documents

Publication Publication Date Title
US7529387B2 (en) Placement information estimating method and information processing device
US8823732B2 (en) Systems and methods for processing images with edge detection and snap-to feature
JP4129879B2 (en) Image analysis apparatus, image analysis method, and program
JP6503906B2 (en) Image processing apparatus, image processing method and image processing program
US9182220B2 (en) Image photographing device and method for three-dimensional measurement
JP2008521133A (en) Distribution-based event clustering
KR101992044B1 (en) Information processing apparatus, method, and computer program
CN109171817A (en) Three-dimensional breast ultrasound scan method and ultrasonic scanning system
US20020094134A1 (en) Method and system for placing three-dimensional models
JP2017003525A (en) Three-dimensional measuring device
US20220358573A1 (en) Methods and systems for evaluating a size of a garment
JP4170469B2 (en) Inspection point position acquisition method and apparatus
JP3661073B2 (en) Imaging parameter measuring method and apparatus, and recording medium
JP6823719B2 (en) Image composition method, image composition device, and recording medium
JP2005140547A (en) 3-dimensional measuring method, 3-dimensional measuring device and computer program
US6097850A (en) Measuring method and apparatus of photographic parameter and computer memory product
JP2018185658A (en) Information processing apparatus, information processing method, and program
JP4128176B2 (en) Imaging parameter measuring method and apparatus, and recording medium
KR20210050365A (en) Apparatus and method for registering images
JPH09210649A (en) Three dimensional measurement device
KR100991570B1 (en) A remote sensing method of diverse signboards&#39; Size and Apparatus using thereof
JP2005174151A (en) Three-dimensional image display device and method
JP2006059165A (en) Three-dimensional modeling device, geometric pattern, three-dimensional modeling data generating method, three-dimensional modeling program and recording medium
JP2006300656A (en) Image measuring technique, device, program, and recording medium
JP2020096254A (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080513

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080513

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110523

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120523

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130523

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130523

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees