KR20220109203A - System and method for self-calibration to improve performance of tomographic particle image velocimetry - Google Patents

System and method for self-calibration to improve performance of tomographic particle image velocimetry Download PDF

Info

Publication number
KR20220109203A
KR20220109203A KR1020210012575A KR20210012575A KR20220109203A KR 20220109203 A KR20220109203 A KR 20220109203A KR 1020210012575 A KR1020210012575 A KR 1020210012575A KR 20210012575 A KR20210012575 A KR 20210012575A KR 20220109203 A KR20220109203 A KR 20220109203A
Authority
KR
South Korea
Prior art keywords
cameras
particles
calibration
self
disparity map
Prior art date
Application number
KR1020210012575A
Other languages
Korean (ko)
Other versions
KR102493653B1 (en
Inventor
조경래
도덕희
공대경
Original Assignee
한국해양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국해양대학교 산학협력단 filed Critical 한국해양대학교 산학협력단
Priority to KR1020210012575A priority Critical patent/KR102493653B1/en
Publication of KR20220109203A publication Critical patent/KR20220109203A/en
Application granted granted Critical
Publication of KR102493653B1 publication Critical patent/KR102493653B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)

Abstract

Various embodiments relate to a camera self-calibration method and system to improve the performance of tomographic particle image velocimetry (PIV), which may be configured to perform calibration on cameras for tomographic PIV, create a disparity map for particles using particle images obtained through cameras, and perform self-calibration for the cameras based on an error for each of the particles calculated from the disparity map.

Description

토모그래픽 유동장 계측의 성능 향상을 위한 카메라 자기 교정 방법 및 시스템{SYSTEM AND METHOD FOR SELF-CALIBRATION TO IMPROVE PERFORMANCE OF TOMOGRAPHIC PARTICLE IMAGE VELOCIMETRY}SYSTEM AND METHOD FOR SELF-CALIBRATION TO IMPROVE PERFORMANCE OF TOMOGRAPHIC PARTICLE IMAGE VELOCIMETRY

다양한 실시예들은 토모그래픽 유동장 계측의 성능 향상을 위한 카메라 자기 교정 방법 및 시스템에 관한 것이다. Various embodiments relate to a camera self-calibration method and system for improving the performance of tomographic flow field metrology.

다수의 유체의 속도를 계측하는 방법들 중에서, 입자영상유속계(particle image velocimetry; PIV) 방법은 비접촉식 정량적 측정 방법으로, 유동장 전체의 속도 분포를 정량적으로 분석할 수 있는 장점을 갖고, 이에 따라 많은 산업분야에서 적용되고 있다. 특히, 토모그래픽 PIV(Tomographic PIV) 방법은 대상 유동의 3차원 계측을 정밀하게 할 수 있다는 장점이 있어, 현재 많은 연구가 진행되고 있다. 이러한 토모그래픽 PIV 방법이 산업분야에서 널리 사용되기 위해서는 하드웨어의 발전과 더불어 오차를 최소화할 수 있는 알고리즘 개발이 요구된다.Among the methods for measuring the velocity of a number of fluids, the particle image velocimetry (PIV) method is a non-contact quantitative measurement method, and has the advantage of quantitatively analyzing the velocity distribution of the entire flow field. applied in the field. In particular, the tomographic PIV (Tomographic PIV) method has the advantage of being able to precisely measure the three-dimensional flow of a target, and many studies are currently being conducted. In order for this tomographic PIV method to be widely used in the industrial field, it is required to develop an algorithm capable of minimizing errors along with the development of hardware.

다양한 실시예들은, 토모그래픽 유동장 계측의 성능 향상을 위해 3차원 계측 오차를 최소화하기 위한 카메라 자기 교정 방법 및 시스템을 제공한다. Various embodiments provide a camera self-calibration method and system for minimizing 3D metrology errors to improve performance of tomographic flow field metrology.

다양한 실시예들에 따른 토모그래픽 유동장 계측 시스템의 카메라 자기 교정 방법은, 토모그래픽 유동장 계측을 위한 카메라들에 대해 교정을 수행하는 단계, 상기 카메라들을 통해 획득되는 입자 영상을 이용하여, 입자들에 대한 디스패리티 맵(disparity map)을 제작하는 단계, 및 상기 디스패리티 맵으로부터 계산되는 상기 입자들의 각각에 대한 오차를 기반으로, 상기 카메라들에 대해 자기 교정을 수행하는 단계를 포함할 수 있다. A camera self-calibration method of a tomographic flow field measurement system according to various embodiments includes: performing calibration on cameras for tomographic flow field measurement, using a particle image obtained through the cameras, It may include producing a disparity map (disparity map), and based on the error of each of the particles calculated from the disparity map, performing self-calibration for the cameras.

다양한 실시예들에 따른 카메라 자기 교정을 위한 토모그래픽 유동장 계측 시스템은, 토모그래픽 유동장 계측을 위한 복수의 카메라들, 및 상기 카메라들과 연결되는 적어도 하나의 프로세서를 포함하고, 상기 프로세서는, 상기 카메라들에 대해 교정을 수행하고, 상기 카메라들을 통해 획득되는 입자 영상을 이용하여, 입자들에 대한 디스패리티 맵을 제작하고, 상기 디스패리티 맵으로부터 계산되는 상기 입자들의 각각에 대한 오차를 기반으로, 상기 카메라들에 대해 자기 교정을 수행하도록 구성될 수 있다.A tomographic flow field measurement system for camera self-calibration according to various embodiments includes a plurality of cameras for tomographic flow field measurement, and at least one processor connected to the cameras, wherein the processor includes the camera Calibration is performed on the particles, and a disparity map for the particles is produced using the particle image obtained through the cameras, and based on the error for each of the particles calculated from the disparity map, the The cameras may be configured to perform self-calibration.

다양한 실시예들에 따르면, 토모그래픽 유동장 계측 시스템은 유동장의 3차원 계측에서 계측 성능을 향상시키기 위해, 여러 대의 카메라로부터 얻은 영상좌표를 이용하여 3차원 위치를 계산하고, 계산된 3차원 위치를 다시 영상 좌표로 재변환하여 입자들의 오차를 평가하고, 수정하여 카메라들을 교정함으로서, 3차원 계측에서 교정기에서 발생되는 오차나, 입자의 중심을 찾는 영상처리 과정에서 발생되는 오차 등에 의한 교정 오차를 최소화하여 계측 정도를 향상시킬 수 있다.According to various embodiments, the tomographic flow field measurement system calculates a three-dimensional position using image coordinates obtained from multiple cameras in order to improve measurement performance in three-dimensional measurement of a flow field, and re-calculates the calculated three-dimensional position. By re-converting to image coordinates to evaluate and correct the errors of the particles, and to calibrate the cameras, the calibration error caused by the error occurring in the calibrator in 3D measurement or the error occurring in the image processing process to find the center of the particle is minimized. Measurement accuracy can be improved.

도 1은 다양한 실시예들에 따른 토모그래픽 유동장 계측 시스템을 도시하는 도면이다.
도 2는 다양한 실시예들에 따른 토모그래픽 유동장 계측 시스템의 방법을 도시하는 도면이다.
도 3은 도 2의 카메라 자기 교정 단계의 내부 구성을 도시하는 도면이다.
도 4는 도 2의 카메라 자기 교정 단계를 구체적으로 설명하기 위한 도면이다.
도 5는 디스패리티 맵을 예시적으로 도시하는 도면이다.
1 is a diagram illustrating a tomographic flow field metrology system in accordance with various embodiments.
2 is a diagram illustrating a method of a tomographic flow field metrology system in accordance with various embodiments.
FIG. 3 is a diagram showing the internal configuration of the camera self-calibration step of FIG. 2 .
FIG. 4 is a view for explaining in detail the camera self-calibration step of FIG. 2 .
5 is a diagram exemplarily illustrating a disparity map.

이하, 본 문서의 다양한 실시예들이 첨부된 도면을 참조하여 설명된다. Hereinafter, various embodiments of the present document will be described with reference to the accompanying drawings.

다양한 실시예들은 3차원 유동장 계측(particle image velocimetry; PIV)(이하에서, PIV로도 지칭됨)에서 발생되는 속도측정 오차를 최소화하기 위해 카메라 관측 방정식의 정확도를 향상시키는 방법으로 초기 계산된 3차원 입자들의 위치 정보를 이용하여 카메라의 관측방정식을 수정하는 자기교정방법(self-calibration method)에 대한 기술 개발 내용을 제시한다. Various embodiments provide a 3D particle initially calculated as a method of improving the accuracy of a camera observation equation in order to minimize a velocity measurement error generated in 3D particle image velocimetry (PIV) (hereinafter also referred to as PIV). We present the technology development for the self-calibration method that corrects the observation equation of the camera using the position information of the camera.

PIV(입자영상유속계)에 의한 유동장의 속도분포 측정 방법은 유동장의 비접촉 속도 계측 방법인데, 유동장의 유체와 같이 움직이는 추적 입자(particle)를 주입하고, 입자들을 레이저로 조사(illumination)하여, 그 입자들로부터의 반사되는 반사광을 카메라로 획득한 영상(Image)을 분석하여 속도를 계측하는 속도계(velocimetry)로 3차원 계측을 위해 토모그래픽(tomographic) PIV(이하에서, 토모 PIV로도 지칭됨) 방법이 많이 적용되고 있다. A method of measuring the velocity distribution of a flow field by PIV (Particle Image Velocity Meter) is a non-contact velocity measurement method of a flow field. Tracking particles moving like a fluid in the flow field are injected, the particles are irradiated with a laser, and the particles are The tomographic PIV (hereinafter, also referred to as tomo PIV) method for three-dimensional measurement is a velocimetry that measures the velocity by analyzing the image acquired by the camera with the reflected light reflected from the field. applied a lot.

토모그래픽 PIV는 여러 대의 카메라들을 이용하는 유동장의 3차원 속도분포를 측정하는 방법으로서, 3 대 이상의 카메라로부터 시각차를 이용하여 3차원 입자의 위치를 결정하고, 3차원 가상의 공간상에 입자를 재구성하여 3차원 복셀(voxel) 영상을 제작하고, 이들 시계열 영상으로부터 3차원 속도벡터를 계산하는 방법이다. Tomographic PIV is a method of measuring the three-dimensional velocity distribution of a flow field using multiple cameras. It determines the position of a three-dimensional particle using the time difference from three or more cameras, and reconstructs the particle in a three-dimensional virtual space. This is a method of producing a 3D voxel image and calculating a 3D velocity vector from these time series images.

토모그래픽 PIV에서는, 3차원 계측을 위하여 카메라들에 대해 교정을 수행하고, 이로부터 얻어진 카메라 파라미터(parameter)를 이용하여 고밀도 입자 영상의 입자들을 3차원 가상의 복셀 공간에서 재구성하고, 최종적으로 이들 복셀 영상의 시계열 영상에 대하여 상호 상관 계산을 통한 3차원 속도벡터 분포를 구하게 된다.In tomographic PIV, calibration is performed on cameras for three-dimensional measurement, and particles of a high-density particle image are reconstructed in a three-dimensional virtual voxel space using the camera parameters obtained therefrom, and finally these voxels The three-dimensional velocity vector distribution is obtained through cross-correlation calculation for the time series image of the image.

토모그래픽 PIV의 성능을 향상을 위해서는, 입자의 정확한 위치 결정이 매우 중요하며, 이를 위해서, 카메라에 대한 교정 정도 향상이 필요하다. 이로 인해, 여러가지 자기 교정 방법이 개발되어져 왔다. 다양한 실시예들에서는 카메라의 교정 정도 향상을 위해 입자 영상으로부터 입자의 위치를 계산하고, 그 오차만큼 입자의 위치를 수정하여, 재교정함으로서 카메라의 오차를 최소화시키는, 10개의 파라미터를 이용하는 관측 방정식의 교정 기술의 관한 내용을 제시한다.In order to improve the performance of tomographic PIV, accurate positioning of particles is very important. For this reason, various self-correction methods have been developed. In various embodiments, in order to improve the degree of calibration of the camera, the position of the particle from the particle image is calculated, the position of the particle is corrected by the error, and the camera error is minimized by re-calibrating the observation equation using 10 parameters. The content of the correction technique is presented.

도 1은 다양한 실시예들에 따른 토모그래픽 유동장 계측 시스템(100)을 도시하는 도면이다. 1 is a diagram illustrating a tomographic flow field metrology system 100 in accordance with various embodiments.

도 1을 참조하면, 다양한 실시예들에 따른 토모그래픽 유동장 계측 시스템(100)은 복수의 카메라(110)들과 프로세서(120)를 포함할 수 있다. 프로세서(120)는 카메라(110)들을 이용하여, 토모그래픽 유동장 계측을 수행할 수 있다. 이 때 프로세서(120)는 토모그래픽 유동장 계측의 성능 향상을 위해, 카메라(110)들에 대해 교정 및 자기 교정을 수행할 수 있다. 즉, 프로세서(120)는 3차원 계측오차를 최소화하기 위해, 카메라 관측 방정식을 교정 및 자기 교정할 수 있다. Referring to FIG. 1 , a tomographic flow field measurement system 100 according to various embodiments may include a plurality of cameras 110 and a processor 120 . The processor 120 may perform tomographic flow field measurement using the cameras 110 . In this case, the processor 120 may perform calibration and self-calibration for the cameras 110 in order to improve the performance of tomographic flow field measurement. That is, the processor 120 may correct and self-correct the camera observation equation in order to minimize the 3D measurement error.

구체적으로, 토모그래픽 유동장 계측 시스템(100)은 다수의 카메라(110)들을 이용하여 카메라 교정을 수행하는 첫 번째 단계, 입자 영상을 이용하여 디스패리티 맵(Disparity Map)을 제작하는 두 번째 단계, 및 오차를 계산하고 자기교정을 수행하는 세 번째 단계를 진행할 수 있다. Specifically, the tomographic flow field measurement system 100 includes a first step of performing camera calibration using a plurality of cameras 110, a second step of producing a disparity map using a particle image, and You can proceed to the third step of calculating the error and performing self-correction.

첫 번째 단계에서, 토모그래픽 유동장 계측 시스템(100)은 다수의 카메라(110)들과 교정기(calibrator)를 설치하고, 교정판을 이용하여 일정간격으로 z축 이동을 통하여 다수의 영상을 획득할 수 있다. 그리고, 토모그래픽 유동장 계측 시스템(100)은 획득된 영상에서 교정판위의 점들의 2차원 영상 좌표와 매칭(matching, 대응일치)되는 3차원 교정기 좌표 값을 이용하여 카메라 교정을 수행할 수 있다. In the first step, the tomographic flow field measurement system 100 installs a plurality of cameras 110 and a calibrator, and uses a calibration plate to acquire a plurality of images through z-axis movement at regular intervals. have. In addition, the tomographic flow field measurement system 100 may perform camera calibration using a three-dimensional calibrator coordinate value that matches the two-dimensional image coordinates of points on the calibration plate in the obtained image.

두 번째 단계에서, 토모그래픽 유동장 계측 시스템(100)은 입자 영상을 획득하고, 획득된 영상에서 입자의 중심을 구할 수 있다. 그리고, 토모그래픽 유동장 계측 시스템(100)은 모든 입자에 대한 3차원 위치를 결정하고, 결정된 3차원 입자를 다시 2차원 이미지 영상으로 변환하였을 때 생기는 2차원 오차 값들을 메쉬(mesh, 영상에서 일정 간격으로 형성되어 있는 가상의 계산격자, 도5 참조)를 중심으로 재구성하는 방법으로 디스패리티 맵을 제작할 수 있다. In the second step, the tomographic flow field measurement system 100 may acquire a particle image, and obtain a particle center from the acquired image. And, the tomographic flow field measurement system 100 determines the three-dimensional positions of all particles, and meshes the two-dimensional error values generated when the determined three-dimensional particles are converted back into a two-dimensional image image. A disparity map can be produced by a method of reconstructing a virtual computation lattice formed of .

세 번째 단계에서, 토모그래픽 유동장 계측 시스템(100)은 두 번째 단계에서 얻어진 결과로부터 입자의 각각의 메쉬점에 대한 입자의 중심 이동량을 계산하고, 계산된 오차만큼 교정점의 2차원 이미지 좌표 값을 변환할 수 있다. 변환된 2차원 이미지 좌표와 매칭되는 3차원 메쉬 좌표를 이용하여 최종적으로 3차원 자기교정을 수행할 수 있다. In the third step, the tomographic flow field measurement system 100 calculates the central movement amount of the particle for each mesh point from the result obtained in the second step, and calculates the two-dimensional image coordinate value of the calibration point by the calculated error. can be converted Finally, 3D self-correction may be performed using 3D mesh coordinates matching the transformed 2D image coordinates.

상술된 바와 같이, 토모그래픽 유동장 계측 시스템(100)은 유동장의 3차원 계측에서 계측 성능을 향상시키기 위해, 여러 대의 카메라(110)들로부터 얻은 영상좌표를 이용하여 3차원 위치를 계산하고, 계산된 3차원 위치를 다시 영상 좌표로 재변환하여 입자들의 오차를 평가하고, 수정하여 카메라(110)들을 교정함으로서, 3차원 계측에서 교정기에서 발생되는 오차나, 입자의 중심을 찾는 영상처리 과정에서 발생되는 오차 등에 의한 교정 오차를 최소화하여 계측 정도를 향상시킬 수 있다.As described above, the tomographic flow field measurement system 100 calculates a three-dimensional position using the image coordinates obtained from several cameras 110 in order to improve the measurement performance in the three-dimensional measurement of the flow field, and calculates the calculated By re-converting the three-dimensional position back into image coordinates to evaluate and correct the errors of the particles, and correct the cameras 110, errors occurring in the calibrator in three-dimensional measurement or the image processing process to find the center of the particles Measurement accuracy can be improved by minimizing calibration errors caused by errors.

도 2는 다양한 실시예들에 따른 토모그래픽 유동장 계측 시스템(100)의 방법을 도시하는 도면이다. 2 is a diagram illustrating a method of a tomographic flow field metrology system 100 in accordance with various embodiments.

도 2를 참조하면, 토모그래픽 유동장 계측 시스템(100)의 방법은, 복수의 카메라(110)들을 이용한 비접촉식 정량적 계측 방법으로, 유동장을 계측할 수 있다. 다양한 실시예들에 따르면, 토모그래픽 유동장 계측 시스템(100)은 오차를 최소화하기 위해 교정기를 이용하여, 카메라(110)들에 대해 교정을 수행하고, 고밀도 입자 영상을 획득하기 전에 저밀도 입자 영상을 획득하여, 오차를 보여주는 디스패리티 맵을 제작하고, 영상 좌표 변환을 통하여, 카메라(110)들에 대해 자기 교정을 수행함으로써 3차원 계측 오차를 최소화할 수 있다.Referring to FIG. 2 , the method of the tomographic flow field measurement system 100 is a non-contact quantitative measurement method using a plurality of cameras 110 , and may measure the flow field. According to various embodiments, the tomographic flow field metrology system 100 performs calibration on the cameras 110 using a calibrator to minimize errors, and acquires a low-density particle image before acquiring a high-density particle image. Accordingly, the 3D measurement error can be minimized by producing a disparity map showing the error and performing self-calibration for the cameras 110 through image coordinate transformation.

먼저, 토모그래픽 유동장 계측 시스템(100)은 210 단계에서 카메라(110)들을 통해, 교정기에 대한 영상들을 획득할 수 있다. 교정기는 평판위에 일정한 간격의 그리드 형태로 원형 점을 배치하여 결정된 (x, y) 좌표 값을 결정하고, 일정한 z간격만큼 이동하면서 영상을 획득하는 방법으로 3차원 정보를 제공할 수 있다. 프로세서(120)는 각각의 획득된 영상에 대해 영상처리를 통하여 점들의 중심을 구할 수 있다. 일 실시예에 따르면, 프로세서(120)는 하기 [수학식 1]과 같이 주어지는 가우시안 필터링(Gaussian filtering, 입자의 밝기 분포가 중심을 기점으로 표준분포를 전제로 한 논리적 곱셈을 뜻함) 방법을 이용하여 중심좌표를 구할 수 있다.First, the tomographic flow field measurement system 100 may acquire images of the calibrator through the cameras 110 in step 210 . The calibrator can provide three-dimensional information by arranging circular points in the form of a grid at regular intervals on a flat plate to determine (x, y) coordinate values and acquiring images while moving by a certain z interval. The processor 120 may obtain the center of the points through image processing for each acquired image. According to an embodiment, the processor 120 uses the Gaussian filtering (Gaussian filtering, logical multiplication premised on the standard distribution of the brightness distribution of particles as a starting point) given as shown in Equation 1 below). You can find the center coordinates.

Figure pat00001
Figure pat00001

여기서, FGaussian는 가우시안 필터이고, 입자의 최대 밝기로 영상의 평균값에 2배에 해당할 수 있다. x, y는 입자의 중심으로부터 거리이며

Figure pat00002
는 입자의 크기로 교정기 입자의 크기에 해당할 수 있다. Here, F Gaussian is a Gaussian filter, and the maximum brightness of the particles may correspond to twice the average value of the image. x and y are the distances from the center of the particle
Figure pat00002
is the size of the particle and may correspond to the size of the corrector particle.

토모그래픽 유동장 계측 시스템(100)은 220 단계에서 교정기를 이용하여, 카메라(110)들의 각각에 대해 교정을 수행할 수 있다. 프로세서(120)는 획득된 영상에서의 2차원 교정점 좌표와 매칭되는 3차원 공간 좌표를 이용하여, 최소자승법으로 관측방정식의 변수들의 값을 구하여 교정을 수행할 수 있다. 여러 가지 카메라 관측 방정식이 존재하며, 일 실시예에 따르면, 프로세서(120)는 하기 [수학식 2]과 같은 관측 방정식을 사용할 수 있다. The tomographic flow field measurement system 100 may perform calibration for each of the cameras 110 using a calibrator in step 220 . The processor 120 may perform calibration by obtaining values of variables of an observation equation using a least squares method using three-dimensional space coordinates that match the two-dimensional calibration point coordinates in the obtained image. Various camera observation equations exist, and according to an embodiment, the processor 120 may use an observation equation as shown in Equation 2 below.

Figure pat00003
Figure pat00003

여기서, x, y는 영상 좌표계이고, X, Y, Z는 교정기 좌표계일 수 있다. cx, cy는영상 좌표계와 대상체 좌표계의 비례를 나타내고, d는 카메라 중심과 대상체 좌표계 O점과의 거리이며, mx, my는 중심축의 어긋난 양이며, 첨자 m은 회전을 의미한다. 즉, (xm, ym, zm)은 (X, Y, Z)를 3차원 회전한 값일 수 있다. 는 2차항까지 고려한 영상의 굴절량일 수 있다. Here, x and y may be an image coordinate system, and X, Y, and Z may be a corrector coordinate system. c x , c y represents the proportion of the image coordinate system and the object coordinate system, d is the distance between the camera center and the object coordinate system point O, m x , m y are the offset amounts of the central axis, and the subscript m means rotation. That is, (x m , y m , z m ) may be a value obtained by 3D rotation of (X, Y, Z). may be the amount of refraction of the image considering up to the second term.

토모그래픽 유동장 계측 시스템(100)은 230 단계에서 디스패리티 맵을 기반으로, 카메라(110)들의 각각에 대해 자기 교정을 수행할 수 있다. 이에 대해, 도 3, 도 4 및 도 5를 참조하여, 상세하게 후술될 것이다. The tomographic flow field measurement system 100 may perform self-calibration for each of the cameras 110 based on the disparity map in operation 230 . This will be described in detail later with reference to FIGS. 3, 4 and 5 .

토모그래픽 유동장 계측 시스템(100)은 240 단계에서 카메라(110)들을 통해, 고밀도 추적 입자 영상을 획득할 수 있다. 토모그래픽 유동장 계측 시스템(100)은 유동장에 추적 입자를 투입하고 입자 영상을 획득할 수 있다. 여기서, 투입되는 입자의 양에 따라 저밀도 PIV와 고밀도 PIV로 분류되며, 토모그래픽 유동장 계측은 고밀도의 입자 분포를 이용하여 상호상관 방식에 의해 유동장을 계측하는 방법으로, 많은 입자를 투입하여 입자 영상이 획득될 수 있다.The tomographic flow field measurement system 100 may acquire a high-density tracking particle image through the cameras 110 in step 240 . The tomographic flow field measurement system 100 may inject tracer particles into the flow field and acquire a particle image. Here, it is classified into low-density PIV and high-density PIV according to the amount of injected particles, and tomographic flow field measurement is a method of measuring the flow field by cross-correlation using high-density particle distribution. can be obtained.

토모그래픽 유동장 계측 시스템(100)은 250 단계에서 입자 영상을 재구성할 수 있다. 입자 영상을 재구성하는 다양한 방법들이 존재한다. 일 실시예에 따르면, 프로세서(120)는 3차원 공간상에 복셀(Voxel) 영상(2차원 영상에서 pixel처럼 3차원 공간으로 정의된 영상)을 정의하고, 복셀 영상을 2차원 영상으로 투영하였을 때 최대한 실험영상과 같아지도록 복셀 영역을 재구성하는 MART(Multiple Algebraic Reconstruction Technique) 사용하여 복셀 영상을 재구성할 수 있다.The tomographic flow field measurement system 100 may reconstruct the particle image in step 250 . Various methods exist for reconstructing particle images. According to an embodiment, when the processor 120 defines a voxel image (an image defined in a three-dimensional space like a pixel in a two-dimensional image) in a three-dimensional space and projects the voxel image into a two-dimensional image, The voxel image can be reconstructed using MART (Multiple Algebraic Reconstruction Technique), which reconstructs the voxel region to be as identical to the experimental image as possible.

토모그래픽 유동장 계측 시스템(100)은 260 단계에서 상호상관에 의한 속도 계측을 수행할 수 있다. 프로세서(120)는 3차원 FFT에 의한 상호상관을 사용하여, 하기 [수학식 3]과 같이 벡터장을 계산할 수 있다. The tomographic flow field measurement system 100 may perform velocity measurement by cross-correlation in operation 260 . The processor 120 may calculate the vector field as shown in Equation 3 below by using the cross-correlation by the 3D FFT.

Figure pat00004
Figure pat00004

여기서, X, Y, Z는 3차원 복셀에서의 참조 영역이고,

Figure pat00005
,
Figure pat00006
는 복셀 영상을 의미할 수 있다. where X, Y, and Z are reference regions in a 3D voxel,
Figure pat00005
,
Figure pat00006
may mean a voxel image.

도 3은 도 2의 카메라(110) 자기 교정 단계(230 단계)의 내부 구성을 도시하는 도면이다. FIG. 3 is a diagram showing the internal configuration of the self-calibration step (step 230) of the camera 110 of FIG. 2 .

도 3을 참조하면, 유동장 계측의 성능 향상을 위해, 카메라(110) 자기 교정 단계(2320 단계)가 추가될 수 있다. Referring to FIG. 3 , a self-calibration step (step 2320 ) of the camera 110 may be added to improve the performance of flow field measurement.

먼저, 토모그래픽 유동장 계측 시스템(100)은 310 단계에서 저밀도 추적 입자 영상을 획득할 수 있다. 2차원 영상의 입자들로 3차원 재구성을 하게 될 경우, 실제 입자들과 허위 입자(Ghost Particle)들이 공존할 수 있다. 이러한 허위 입자들은, 입자들이 많으면 많을수록, 기하급수적으로 증가하게 된다. 따라서, 프로세서(120)가 저밀도 추적 입자 영상을 획득하여 3차원 위치를 구하면, 이러한 허위 입자들의 개수를 최소한으로 줄이고 실제 입자들의 비중이 높은 3차원 위치 값들을 구할 수 있다. First, the tomographic flow field measurement system 100 may acquire a low-density tracking particle image in step 310 . When 3D reconstruction is performed with particles of a 2D image, real particles and ghost particles may coexist. These false particles increase exponentially as the number of particles increases. Accordingly, when the processor 120 obtains a low-density tracking particle image to obtain a three-dimensional position, the number of false particles can be minimized and three-dimensional position values with a high proportion of real particles can be obtained.

토모그래픽 유동장 계측 시스템(100)은 320 단계에서 디스패리티 맵을 제작할 수 있다. 프로세서(120)는 실제 입자들의 비중이 높은 3차원 위치 값들로부터 각 위치별 디스패리티 맵을 제작할 수 있다. The tomographic flow field measurement system 100 may produce a disparity map in operation 320 . The processor 120 may produce a disparity map for each location from three-dimensional location values having a high proportion of actual particles.

토모그래픽 유동장 계측 시스템(100)은 330 단계에서 디스패리티 맵을 기반으로, 수정된 좌표를 이용하여, 카메라(110)들의 각각에 대해 자기 교정을 수행할 수 있다. 프로세서(120)는 오차분석을 통하여 좌표를 수정할 수 있다. 그리고, 프로세서(120)는 수정된 좌표를 이용하여 카메라(110)들의 각각에 대해 자기 교정을 수행함으로써, 오차를 최소화할 수 있다. The tomographic flow field measurement system 100 may perform self-calibration for each of the cameras 110 using the corrected coordinates based on the disparity map in operation 330 . The processor 120 may correct the coordinates through error analysis. In addition, the processor 120 may minimize an error by performing self-calibration for each of the cameras 110 using the corrected coordinates.

도 4는 도 2의 카메라(110) 자기 교정 단계(230 단계)를 구체적으로 설명하기 위한 도면이다. FIG. 4 is a diagram for explaining in detail the self-calibration step (step 230) of the camera 110 of FIG. 2 .

도 4를 참조하면, 토모그래픽 유동장 계측 시스템(100)은 디스패리티 맵을 제작하기 위해 모든 영상에 대하여 입자들의 중심을 검색할 수 있다. 여러 가지 방법이 있지만, 프로세서(120)는 일 실시예에 따라 가우시안 필터링 방법을 적용하여 입자의 중심을 결정할 수 있다. 토모그래픽 유동장 계측 시스템(100)은 후술되는 바와 같이 디스패리티 맵을 제작할 수 있다. Referring to FIG. 4 , the tomographic flow field measurement system 100 may search for centroids of particles for all images in order to produce a disparity map. Although there are various methods, the processor 120 may determine the center of a particle by applying a Gaussian filtering method according to an embodiment. The tomographic flow field measurement system 100 may produce a disparity map as described below.

토모그래픽 유동장 계측 시스템(100)은 410 단계에서 입자 영상에 대해, 계산하고자 하는 3차원 영역을 일정한 간격으로 나눌 수 있다. 이 때, 토모그래픽 유동장 계측 시스템(100)은 모든 카메라 영상에서 입자의 위치를 검색할 수 있다. 토모그래픽 유동장 계측 시스템(100)은 420 단계에서 중심 카메라1의 입자들을 통과하는 직선의 방정식(epipolar line)을 구할 수 있다. 토모그래픽 유동장 계측 시스템(100)은 430 단계에서 직선의 방정식을 카메라2에 투영하고, 직선위에 존재하는 입자들을 구할 수 있다. 토모그래픽 유동장 계측 시스템(100)은 440 단계에서 두 카메라, 즉 카메라1, 카메라2의 입자들을 이용하여 3차원 위치를 결정할 수 있다. 토모그래픽 유동장 계측 시스템(100)은 450 단계에서 3차원 입자를 나머지 카메라(예컨대, 카메라3, 카메라4,...)의 영상위로 투영하고, 입자의 존재 유무를 파악할 수 있다. 토모그래픽 유동장 계측 시스템(100)은 460 단계에서 나머지 모든 카메라(예컨대, 카메라3, 카메라4,...)에 입자들이 존재하면 모든 카메라의 점들을 위용하여 새로운 3차원 위치를 결정하고, 470 단계에서 해당 복셀 영역에 입자를 추가하여 리스트를 만들 수 있다. 토모그래픽 유동장 계측 시스템(100)은 480 단계에서 각각의 복셀 영역의 3차원 입자를 각각의 카메라에 투영하였을 때 2차원 위치와 입자 중심과의 오차를 계산하고, 오차만큼 떨어진 영역에 가상 입자를 그림으로서 각 영역과 카메라에 해당하는 디스패리티 맵을 제작할 수 있다. 토모그래픽 유동장 계측 시스템(100)은 490 단계에서 디스패리티 맵의 최대값을 검색하고 오차를 계산하며, 오차만큼 수정된 영상위의 점과 3차원 위치점을 쌍으로 하는 데이터를 이용하여 자기교정을 수행할 수 있다. The tomographic flow field measurement system 100 may divide a 3D region to be calculated with respect to the particle image at regular intervals in step 410 . At this time, the tomographic flow field measurement system 100 may search for the positions of particles in all camera images. The tomographic flow field measurement system 100 may obtain the equation of a straight line passing through the particles of the central camera 1 (epipolar line) in step 420 . The tomographic flow field measurement system 100 may project the equation of the straight line to the camera 2 in step 430 and obtain particles existing on the straight line. The tomographic flow field measurement system 100 may determine a three-dimensional position using particles of two cameras, ie, camera 1 and camera 2, in step 440 . The tomographic flow field measurement system 100 may project the three-dimensional particle onto the image of the remaining cameras (eg, camera 3, camera 4, ...) in step 450 and determine whether or not the particle is present. The tomographic flow field measurement system 100 determines a new three-dimensional position for the points of all cameras if particles are present in all the remaining cameras (eg, camera 3, camera 4, ...) in step 460, and in step 470 You can create a list by adding particles to the corresponding voxel region. The tomographic flow field measurement system 100 calculates the error between the 2D position and the particle center when the 3D particle of each voxel area is projected to each camera in step 480, and draws the virtual particle in the area separated by the error. As a result, a disparity map corresponding to each region and camera can be created. The tomographic flow field measurement system 100 searches for the maximum value of the disparity map in step 490, calculates an error, and performs self-correction using the data pairing the point on the image corrected by the error and the three-dimensional position point. can be done

도 5는 디스패리티 맵을 예시적으로 도시하는 도면이다.5 is a diagram exemplarily illustrating a disparity map.

도 5를 참조하면, 계산된 어떤 카메라(110)의 z= 0에서의 계산된 디스패리티 맵이 도시된다. 수만개의 입자를 계산하면, 도 5에 도시된 바와 한 점에 모인 영상을 얻을 수 있으며, 중심과의 거리가 2차원 영상에서의 오차를 나타낼 수 있다. 이 오차만큼을 수정하여 데이터를 수정할 수 있다.Referring to FIG. 5 , a calculated disparity map at z=0 of a certain camera 110 is shown. If tens of thousands of particles are counted, an image gathered at one point as shown in FIG. 5 may be obtained, and the distance from the center may indicate an error in the two-dimensional image. The data can be corrected by correcting as much as this error.

상술된 바와 같이, 토모그래픽 유동장 계측 시스템(100)은 유동장의 3차원 계측에서 계측 성능을 향상시키기 위해, 여러 대의 카메라(110)들로부터 얻은 영상좌표를 이용하여 3차원 위치를 계산하고, 계산된 3차원 위치를 다시 영상 좌표로 재변환하여 입자들의 오차를 평가하고, 수정하여 카메라(110)들을 교정함으로서, 3차원 계측에서 교정기에서 발생되는 오차나, 입자의 중심을 찾는 영상처리 과정에서 발생되는 오차 등에 의한 교정 오차를 최소화하여 계측 정도를 향상시킬 수 있다.As described above, the tomographic flow field measurement system 100 calculates a three-dimensional position using the image coordinates obtained from several cameras 110 in order to improve the measurement performance in the three-dimensional measurement of the flow field, and calculates the calculated By re-converting the three-dimensional position back into image coordinates to evaluate and correct the errors of the particles, and correct the cameras 110, errors occurring in the calibrator in three-dimensional measurement or the image processing process to find the center of the particles Measurement accuracy can be improved by minimizing calibration errors caused by errors.

다양한 실시예들에 따른 토모그래픽 유동장 계측 시스템(100)의 카메라(110) 자기 교정 방법은, 토모그래픽 유동장 계측을 위한 카메라(110)들에 대해 교정을 수행하는 단계(220 단계), 카메라(110)들을 통해 획득되는 입자 영상을 이용하여, 입자들에 대한 디스패리티 맵을 제작하는 단계(230 단계, 320 단계), 및 디스패리티 맵으로부터 계산되는 입자들의 각각에 대한 오차를 기반으로, 카메라(110)들에 대해 자기 교정을 수행하는 단계(230 단계, 330 단계)를 포함할 수 있다. The camera 110 self-calibration method of the tomographic flow field measurement system 100 according to various embodiments includes performing calibration on the cameras 110 for tomographic flow field measurement (step 220), the camera 110 ) using a particle image obtained through ) may include performing self-calibration for the (steps 230 and 330).

다양한 실시예들에 따르면, 카메라(110)들에 대해 교정을 수행하는 단계(220 단계)는, 교정기를 미리 정해진 간격으로 이동하면서, 카메라(110)들을 통해 복수의 영상들을 획득하는 단계, 및 획득된 영상들의 각각에서 교정기 상의 점들에 대한 2차원 영상 좌표와 매칭되는 3차원 좌표 값을 이용하여, 카메라(110)들의 각각에 대해 교정을 수행하는 단계를 포함할 수 있다. According to various embodiments, performing calibration on the cameras 110 (step 220) includes obtaining a plurality of images through the cameras 110 while moving the calibrator at a predetermined interval, and obtaining The method may include performing calibration on each of the cameras 110 by using a three-dimensional coordinate value that matches two-dimensional image coordinates for points on a corrector in each of the images.

다양한 실시예들에 따르면, 디스패리티 맵을 제작하는 단계(320 단계)는, 카메라(110)들을 통해, 입자 영상을 획득하는 단계(310 단계), 입자 영상에서 입자들의 중심을 구하는 단계, 입자 영상에서 입자들의 각각에 대한 3차원 위치를 결정하는 단계(410 단계 내지 470 단계), 입자들의 각각을 카메라(110)들의 각각에 투영하여, 입자들의 각각에 대한 2차원 위치를 결정하는 단계(480 단계), 및 중심과 2차원 위치 사이의 2차원 오차를 기반으로, 카메라(110)들의 각각에 대한 디스패리티 맵을 제작하는 단계(480 단계)를 포함할 수 있다. According to various embodiments, the step of producing the disparity map (step 320) includes, through the cameras 110, obtaining a particle image (step 310), obtaining the center of the particles from the particle image, and the particle image Determining a three-dimensional position for each of the particles in the step (steps 410 to 470), projecting each of the particles to each of the cameras 110 to determine a two-dimensional position for each of the particles (step 480) ), and based on the two-dimensional error between the center and the two-dimensional position, producing a disparity map for each of the cameras 110 (operation 480).

다양한 실시예들에 따르면, 카메라(110)들의 각각에 대한 디스패리티 맵을 제작하는 단계(320 단계)는, 입자 영상에서 미리 정해진 간격으로 형성되는 메쉬를 이용하여, 입자들의 각각에 대한 2차원 오차를 재구성함으로써, 카메라(110)들의 각각에 대한 디스패리티 맵을 제작할 수 있다. According to various embodiments, the step (step 320) of producing a disparity map for each of the cameras 110 includes a two-dimensional error for each of the particles by using a mesh formed at a predetermined interval in the particle image. By reconstructing , a disparity map for each of the cameras 110 may be produced.

다양한 실시예들에 따르면, 카메라(110)들의 각각에 대한 디스패리티 맵을 제작하는 단계(320 단계)는, 2차원 오차를 기반으로, 입자들의 각각에 대응하는 가상 입자를 그림으로써, 카메라(110)들의 각각에 대한 디스패리티 맵을 제작할 수 있다. According to various embodiments, the step of producing a disparity map for each of the cameras 110 (step 320) includes drawing virtual particles corresponding to each of the particles based on a two-dimensional error, thereby making the camera 110 ) can produce a disparity map for each of them.

다양한 실시예들에 따르면, 카메라(110)들에 대해 자기 교정을 수행하는 단계(330 단계)는, 카메라(110)들의 각각에 대한 디스패리티 맵으로부터 입자 영상에서의 입자들의 각각에 대한 오차를 계산하는 단계, 및 계산된 오차 및 3차원 위치를 이용하여, 카메라(110)들의 각각에 대해 자기 교정을 수행하는 단계를 포함할 수 있다. According to various embodiments, performing self-calibration on the cameras 110 (step 330) may include calculating an error for each of the particles in the particle image from the disparity map for each of the cameras 110 . and performing self-calibration for each of the cameras 110 using the calculated error and the three-dimensional position.

다양한 실시예들에 따른 카메라(110) 자기 교정을 위한 토모그래픽 유동장 계측 시스템(100)은, 토모그래픽 유동장 계측을 위한 복수의 카메라(110)들, 및 카메라(110)들과 연결되는 적어도 하나의 프로세서(120)를 포함할 수 있다. The tomographic flow field measurement system 100 for camera 110 self-calibration according to various embodiments includes a plurality of cameras 110 for tomographic flow field measurement, and at least one connected to the cameras 110 . It may include a processor 120 .

다양한 실시예들에 따르면, 프로세서(120)는, 카메라(110)들에 대해 교정을 수행하고, 카메라(110)들을 통해 획득되는 입자 영상을 이용하여, 입자들에 대한 디스패리티 맵을 제작하고, 디스패리티 맵으로부터 계산되는 입자들의 각각에 대한 오차를 기반으로, 카메라(110)들에 대해 자기 교정을 수행하도록 구성될 수 있다. According to various embodiments, the processor 120 performs calibration on the cameras 110 and produces a disparity map for the particles by using the particle image obtained through the cameras 110 , Based on an error for each of the particles calculated from the disparity map, the camera 110 may be configured to perform self-calibration.

다양한 실시예들에 따르면, 프로세서(120)는, 교정기를 미리 정해진 간격으로 이동하면서, 카메라(110)들을 통해 복수의 영상들을 획득하고, 획득된 영상들의 각각에서 교정기 상의 점들에 대한 2차원 영상 좌표와 매칭되는 3차원 좌표 값을 이용하여, 카메라(110)들의 각각에 대해 교정을 수행하도록 구성될 수 있다. According to various embodiments, the processor 120 acquires a plurality of images through the cameras 110 while moving the corrector at a predetermined interval, and two-dimensional image coordinates for points on the corrector in each of the obtained images. It may be configured to perform calibration for each of the cameras 110 by using a three-dimensional coordinate value matching with .

다양한 실시예들에 따르면, 프로세서(120)는, 카메라(110)들을 통해, 입자 영상을 획득하고, 입자 영상에서 입자들의 중심을 구하고, 입자 영상에서 입자들의 각각에 대한 3차원 위치를 결정하고, 입자들의 각각을 카메라(110)들의 각각에 투영하여, 입자들의 각각에 대한 2차원 위치를 결정하고, 중심과 2차원 위치 사이의 2차원 오차를 기반으로, 카메라(110)들의 각각에 대한 디스패리티 맵을 제작하도록 구성될 수 있다. According to various embodiments, the processor 120, through the cameras 110, obtains a particle image, obtains the center of the particles in the particle image, determines a three-dimensional position for each of the particles in the particle image, Projecting each of the particles to each of the cameras 110 to determine a two-dimensional position for each of the particles, and based on the two-dimensional error between the center and the two-dimensional position, disparity for each of the cameras 110 It may be configured to create a map.

다양한 실시예들에 따르면, 프로세서(120)는, 입자 영상에서 미리 정해진 간격으로 형성되는 메쉬를 이용하여, 입자들의 각각에 대한 2차원 오차를 재구성함으로써, 카메라(110)들의 각각에 대한 디스패리티 맵을 제작하도록 구성될 수 있다. According to various embodiments, the processor 120 reconstructs a two-dimensional error for each of the particles by using a mesh formed at a predetermined interval in the particle image, thereby providing a disparity map for each of the cameras 110 . may be configured to produce

다양한 실시예들에 따르면, 프로세서(120)는, 2차원 오차를 기반으로, 입자들의 각각에 대응하는 가상 입자를 그림으로써, 카메라(110)들의 각각에 대한 디스패리티 맵을 제작하도록 구성될 수 있다. According to various embodiments, the processor 120 may be configured to produce a disparity map for each of the cameras 110 by drawing a virtual particle corresponding to each of the particles based on a two-dimensional error. .

다양한 실시예들에 따르면, 프로세서(120)는, 카메라(110)들의 각각에 대한 디스패리티 맵으로부터 입자 영상에서의 입자들의 각각에 대한 오차를 계산하고, 계산된 오차 및 3차원 위치를 이용하여, 카메라(110)들의 각각에 대해 자기 교정을 수행하도록 구성될 수 있다. According to various embodiments, the processor 120 calculates an error for each of the particles in the particle image from the disparity map for each of the cameras 110, and uses the calculated error and the three-dimensional position, Each of the cameras 110 may be configured to perform self-calibration.

이상에서 설명된 장치는 하드웨어 구성 요소, 소프트웨어 구성 요소, 및/또는 하드웨어 구성 요소 및 소프트웨어 구성 요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성 요소는, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented as a hardware component, a software component, and/or a combination of the hardware component and the software component. For example, the devices and components described in the embodiments may include a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), and a programmable logic unit (PLU). It may be implemented using one or more general purpose or special purpose computers, such as a logic unit, microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that may include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성 요소(component), 물리적 장치, 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be embodied in any type of machine, component, physical device, computer storage medium or device to be interpreted by or provide instructions or data to the processing device. have. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

다양한 실시예들에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터-판독 가능 매체에 기록될 수 있다. 이 때, 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 그리고, 매체는 단일 또는 수 개의 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 어플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.The method according to various embodiments may be implemented in the form of program instructions that may be executed by various computer means and recorded in a computer-readable medium. In this case, the medium may continue to store the program executable by the computer, or may be temporarily stored for execution or download. In addition, the medium may be various recording means or storage means in the form of a single or several hardware combined, it is not limited to a medium directly connected to any computer system, and may exist distributed on a network. Examples of the medium include a hard disk, a magnetic medium such as a floppy disk and a magnetic tape, an optical recording medium such as CD-ROM and DVD, a magneto-optical medium such as a floppy disk, and those configured to store program instructions, including ROM, RAM, flash memory, and the like. In addition, examples of other media may include recording media or storage media managed by an app store that distributes applications, sites that supply or distribute other various software, and servers.

본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성 요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및/또는 B 중 적어도 하나", "A, B 또는 C" 또는 "A, B 및/또는 C 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", "첫째" 또는 "둘째" 등의 표현들은 해당 구성 요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성 요소를 다른 구성 요소와 구분하기 위해 사용될 뿐 해당 구성 요소들을 한정하지 않는다. 어떤(예: 제 1) 구성 요소가 다른(예: 제 2) 구성 요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성 요소가 상기 다른 구성 요소에 직접적으로 연결되거나, 다른 구성 요소(예: 제 3 구성 요소)를 통하여 연결될 수 있다.Various embodiments of this document and terms used therein are not intended to limit the technology described in this document to a specific embodiment, but it should be understood to include various modifications, equivalents, and/or substitutions of the embodiments. In connection with the description of the drawings, like reference numerals may be used for like components. The singular expression may include the plural expression unless the context clearly dictates otherwise. In this document, expressions such as “A or B”, “at least one of A and/or B”, “A, B or C” or “at least one of A, B and/or C” refer to all of the items listed together. Possible combinations may be included. Expressions such as "first", "second", "first" or "second" can modify the corresponding elements regardless of order or importance, and are only used to distinguish one element from another. It does not limit the corresponding components. When an (eg, first) component is referred to as being “(functionally or communicatively) connected” or “connected” to another (eg, second) component, that component is It may be directly connected to the component, or may be connected through another component (eg, a third component).

본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 모듈은 ASIC(application-specific integrated circuit)으로 구성될 수 있다. As used herein, the term “module” includes a unit composed of hardware, software, or firmware, and may be used interchangeably with terms such as, for example, logic, logic block, component, or circuit. A module may be an integrally formed part or a minimum unit or a part of one or more functions. For example, the module may be configured as an application-specific integrated circuit (ASIC).

다양한 실시예들에 따르면, 기술한 구성 요소들의 각각의 구성 요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시예들에 따르면, 전술한 해당 구성 요소들 중 하나 이상의 구성 요소들 또는 단계들이 생략되거나, 또는 하나 이상의 다른 구성 요소들 또는 단계들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성 요소들(예: 모듈 또는 프로그램)은 하나의 구성 요소로 통합될 수 있다. 이런 경우, 통합된 구성 요소는 복수의 구성 요소들 각각의 구성 요소의 하나 이상의 기능들을 통합 이전에 복수의 구성 요소들 중 해당 구성 요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성 요소에 의해 수행되는 단계들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 단계들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 단계들이 추가될 수 있다. According to various embodiments, each component (eg, a module or a program) of the described components may include a singular or a plurality of entities. According to various embodiments, one or more components or steps among the above-described corresponding components may be omitted, or one or more other components or steps may be added. Alternatively or additionally, a plurality of components (eg, a module or a program) may be integrated into one component. In this case, the integrated component may perform one or more functions of each component of the plurality of components identically or similarly to those performed by the corresponding component among the plurality of components prior to integration. According to various embodiments, steps performed by a module, program, or other component are executed sequentially, in parallel, iteratively, or heuristically, or one or more of the steps are executed in a different order, omitted, or , or one or more other steps may be added.

Claims (12)

토모그래픽(tomographic) 유동장 계측(particle image velocimetry; PIV) 시스템의 카메라 자기 교정 방법에 있어서,
토모그래픽 유동장 계측을 위한 카메라들에 대해 교정을 수행하는 단계;
상기 카메라들을 통해 획득되는 입자 영상을 이용하여, 입자들에 대한 디스패리티 맵(disparity map)을 제작하는 단계; 및
상기 디스패리티 맵으로부터 계산되는 상기 입자들의 각각에 대한 오차를 기반으로, 상기 카메라들에 대해 자기 교정을 수행하는 단계
를 포함하는,
카메라 자기 교정 방법.
A method for camera self-calibration of a tomographic particle image velocimetry (PIV) system, the method comprising:
performing calibration on cameras for tomographic flow field metrology;
preparing a disparity map for the particles by using the particle images obtained through the cameras; and
performing self-calibration on the cameras based on the error for each of the particles calculated from the disparity map
containing,
How to self-calibrate the camera.
제 1 항에 있어서,
상기 카메라들에 대해 상기 교정을 수행하는 단계는,
교정기를 미리 정해진 간격으로 이동하면서, 상기 카메라들을 통해 복수의 영상들을 획득하는 단계; 및
상기 획득된 영상들의 각각에서 상기 교정기 상의 점들에 대한 2차원 영상 좌표와 매칭되는 3차원 좌표 값을 이용하여, 상기 카메라들의 각각에 대해 교정을 수행하는 단계
를 포함하는,
카메라 자기 교정 방법.
The method of claim 1,
Performing the calibration on the cameras comprises:
acquiring a plurality of images through the cameras while moving the corrector at predetermined intervals; and
performing calibration for each of the cameras by using a three-dimensional coordinate value that matches two-dimensional image coordinates for points on the calibrator in each of the obtained images
containing,
How to self-calibrate the camera.
제 1 항에 있어서,
상기 디스패리티 맵을 제작하는 단계는,
상기 카메라들을 통해, 상기 입자 영상을 획득하는 단계;
상기 입자 영상에서 상기 입자들의 중심을 구하는 단계;
상기 입자 영상에서 상기 입자들의 각각에 대한 3차원 위치를 결정하는 단계;
상기 입자들의 각각을 상기 카메라들의 각각에 투영하여, 상기 입자들의 각각에 대한 2차원 위치를 결정하는 단계; 및
상기 중심과 상기 2차원 위치 사이의 2차원 오차를 기반으로, 상기 카메라들의 각각에 대한 디스패리티 맵을 제작하는 단계
를 포함하는,
카메라 자기 교정 방법.
The method of claim 1,
The step of producing the disparity map,
acquiring the particle image through the cameras;
obtaining the centers of the particles from the particle image;
determining a three-dimensional position for each of the particles in the particle image;
projecting each of the particles onto each of the cameras to determine a two-dimensional position for each of the particles; and
producing a disparity map for each of the cameras based on a two-dimensional error between the center and the two-dimensional position
containing,
How to self-calibrate the camera.
제 3 항에 있어서,
상기 카메라들의 각각에 대한 디스패리티 맵을 제작하는 단계는,
상기 입자 영상에서 미리 정해진 간격으로 형성되는 메쉬를 이용하여, 상기 입자들의 각각에 대한 상기 2차원 오차를 재구성함으로써, 상기 카메라들의 각각에 대한 디스패리티 맵을 제작하는,
카메라 자기 교정 방법.
4. The method of claim 3,
The step of producing a disparity map for each of the cameras,
By reconstructing the two-dimensional error for each of the particles using a mesh formed at a predetermined interval in the particle image, producing a disparity map for each of the cameras,
How to self-calibrate the camera.
제 4 항에 있어서,
상기 카메라들의 각각에 대한 디스패리티 맵을 제작하는 단계는,
상기 2차원 오차를 기반으로, 상기 입자들의 각각에 대응하는 가상 입자를 그림으로써, 상기 카메라들의 각각에 대한 디스패리티 맵을 제작하는,
카메라 자기 교정 방법.
5. The method of claim 4,
The step of producing a disparity map for each of the cameras,
Based on the two-dimensional error, by drawing a virtual particle corresponding to each of the particles, producing a disparity map for each of the cameras,
How to self-calibrate the camera.
제 3 항에 있어서,
상기 카메라들에 대해 상기 자기 교정을 수행하는 단계는,
상기 카메라들의 각각에 대한 디스패리티 맵으로부터 상기 입자 영상에서의 상기 입자들의 각각에 대한 오차를 계산하는 단계; 및
상기 계산된 오차 및 상기 3차원 위치를 이용하여, 상기 카메라들의 각각에 대해 자기 교정을 수행하는 단계
를 포함하는,
카메라 자기 교정 방법.
4. The method of claim 3,
Performing the self-calibration for the cameras comprises:
calculating an error for each of the particles in the particle image from a disparity map for each of the cameras; and
performing self-calibration for each of the cameras by using the calculated error and the three-dimensional position
containing,
How to self-calibrate the camera.
카메라 자기 교정을 위한 토모그래픽 유동장 계측 시스템에 있어서,
토모그래픽 유동장 계측을 위한 복수의 카메라들; 및
상기 카메라들과 연결되는 적어도 하나의 프로세서
를 포함하고,
상기 프로세서는,
상기 카메라들에 대해 교정을 수행하고,
상기 카메라들을 통해 획득되는 입자 영상을 이용하여, 입자들에 대한 디스패리티 맵을 제작하고,
상기 디스패리티 맵으로부터 계산되는 상기 입자들의 각각에 대한 오차를 기반으로, 상기 카메라들에 대해 자기 교정을 수행하도록 구성되는,
토모그래픽 유동장 계측 시스템.
A tomographic flow field measurement system for camera self-calibration, comprising:
a plurality of cameras for tomographic flow field metrology; and
at least one processor connected to the cameras
including,
The processor is
Calibration is performed on the cameras;
Using the particle image obtained through the cameras to produce a disparity map for the particles,
configured to perform self-calibration on the cameras based on the error for each of the particles calculated from the disparity map,
Tomographic flow field metrology system.
제 7 항에 있어서,
상기 프로세서는,
교정기를 미리 정해진 간격으로 이동하면서, 상기 카메라들을 통해 복수의 영상들을 획득하고,
상기 획득된 영상들의 각각에서 상기 교정기 상의 점들에 대한 2차원 영상 좌표와 매칭되는 3차원 좌표 값을 이용하여, 상기 카메라들의 각각에 대해 교정을 수행하도록 구성되는,
토모그래픽 유동장 계측 시스템.
8. The method of claim 7,
The processor is
While moving the corrector at a predetermined interval, acquiring a plurality of images through the cameras,
configured to perform calibration for each of the cameras using a three-dimensional coordinate value that matches two-dimensional image coordinates for points on the calibrator in each of the obtained images,
Tomographic flow field metrology system.
제 7 항에 있어서,
상기 프로세서는,
상기 카메라들을 통해, 상기 입자 영상을 획득하고,
상기 입자 영상에서 상기 입자들의 중심을 구하고,
상기 입자 영상에서 상기 입자들의 각각에 대한 3차원 위치를 결정하고,
상기 입자들의 각각을 상기 카메라들의 각각에 투영하여, 상기 입자들의 각각에 대한 2차원 위치를 결정하고,
상기 중심과 상기 2차원 위치 사이의 2차원 오차를 기반으로, 상기 카메라들의 각각에 대한 디스패리티 맵을 제작하도록 구성되는,
토모그래픽 유동장 계측 시스템.
8. The method of claim 7,
The processor is
Acquire the particle image through the cameras,
Finding the center of the particles in the particle image,
determining a three-dimensional position for each of the particles in the particle image,
projecting each of the particles onto each of the cameras to determine a two-dimensional position for each of the particles;
configured to produce a disparity map for each of the cameras based on a two-dimensional error between the center and the two-dimensional position.
Tomographic flow field metrology system.
제 9 항에 있어서,
상기 프로세서는,
상기 입자 영상에서 미리 정해진 간격으로 형성되는 메쉬를 이용하여, 상기 입자들의 각각에 대한 상기 2차원 오차를 재구성함으로써, 상기 카메라들의 각각에 대한 디스패리티 맵을 제작하도록 구성되는,
토모그래픽 유동장 계측 시스템.
10. The method of claim 9,
The processor is
configured to produce a disparity map for each of the cameras by reconstructing the two-dimensional error for each of the particles using a mesh formed at a predetermined interval in the particle image,
Tomographic flow field metrology system.
제 10 항에 있어서,
상기 프로세서는,
상기 2차원 오차를 기반으로, 상기 입자들의 각각에 대응하는 가상 입자를 그림으로써, 상기 카메라들의 각각에 대한 디스패리티 맵을 제작하도록 구성되는,
토모그래픽 유동장 계측 시스템.
11. The method of claim 10,
The processor is
configured to produce a disparity map for each of the cameras by drawing a virtual particle corresponding to each of the particles based on the two-dimensional error,
Tomographic flow field metrology system.
제 9 항에 있어서,
상기 프로세서는,
상기 카메라들의 각각에 대한 디스패리티 맵으로부터 상기 입자 영상에서의 상기 입자들의 각각에 대한 오차를 계산하고,
상기 계산된 오차 및 상기 3차원 위치를 이용하여, 상기 카메라들의 각각에 대해 자기 교정을 수행하도록 구성되는,
토모그래픽 유동장 계측 시스템.
10. The method of claim 9,
The processor is
calculating an error for each of the particles in the particle image from the disparity map for each of the cameras,
configured to perform self-calibration for each of the cameras using the calculated error and the three-dimensional position.
Tomographic flow field metrology system.
KR1020210012575A 2021-01-28 2021-01-28 System and method for self-calibration to improve performance of tomographic particle image velocimetry KR102493653B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210012575A KR102493653B1 (en) 2021-01-28 2021-01-28 System and method for self-calibration to improve performance of tomographic particle image velocimetry

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210012575A KR102493653B1 (en) 2021-01-28 2021-01-28 System and method for self-calibration to improve performance of tomographic particle image velocimetry

Publications (2)

Publication Number Publication Date
KR20220109203A true KR20220109203A (en) 2022-08-04
KR102493653B1 KR102493653B1 (en) 2023-01-30

Family

ID=82836853

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210012575A KR102493653B1 (en) 2021-01-28 2021-01-28 System and method for self-calibration to improve performance of tomographic particle image velocimetry

Country Status (1)

Country Link
KR (1) KR102493653B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116707145A (en) * 2023-08-08 2023-09-05 山东尊品佳茗网络科技发展有限公司 Intelligent electric energy monitoring system and method based on Internet of things

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101237128B1 (en) * 2012-10-16 2013-02-25 한국해양대학교 산학협력단 Development of tomographic ptv

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101237128B1 (en) * 2012-10-16 2013-02-25 한국해양대학교 산학협력단 Development of tomographic ptv

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Bernhard Wieneke-"Improvements for volume self-calibration", Measurement Science and Technology, pp1-15,(2018.7.12.)* *
Christoph Brucker1외2-"Volumetric Calibration Refinement using masked back projection and image correlation superposition", 19th International Symposium on the Application of Laser and Imaging Techniqu* *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116707145A (en) * 2023-08-08 2023-09-05 山东尊品佳茗网络科技发展有限公司 Intelligent electric energy monitoring system and method based on Internet of things
CN116707145B (en) * 2023-08-08 2023-10-20 山东尊品佳茗网络科技发展有限公司 Intelligent electric energy monitoring system and method based on Internet of things

Also Published As

Publication number Publication date
KR102493653B1 (en) 2023-01-30

Similar Documents

Publication Publication Date Title
EP3594618B1 (en) Three-dimensional shape measurement device, three-dimensional shape measurement method, and program
EP3201564B1 (en) System and method for measuring an object using x-ray projections. computer program product.
US10255695B2 (en) Calculating a four dimensional DSA dataset with variable spatial resolution
CN109307483A (en) A kind of phase developing method based on structured-light system geometrical constraint
ES2797304T3 (en) Process and system for calculating the cost of usable and consumable materials to paint motor vehicles from the analysis of deformations in motor vehicles
CN109781003B (en) Method for determining next optimal measurement pose of structured light vision system
WO2022222291A1 (en) Optical axis calibration method and apparatus of optical axis detection system, terminal, system, and medium
KR102493653B1 (en) System and method for self-calibration to improve performance of tomographic particle image velocimetry
Müller et al. Comparison of different measures for the single point uncertainty in industrial X-ray computed tomography
CN114241057A (en) External reference calibration method and system for camera and laser radar and readable storage medium
US11470298B2 (en) Method and apparatus with updating of algorithm for generating disparity image
US10134156B2 (en) Method and evaluation device for evaluating projection data of an object being examined
KR20190050819A (en) A method for performing calibration using measured data without an assumed calibration model and a three-dimensional scanner calibration system
Liu et al. Performance analysis of 3-D shape measurement algorithm with a short baseline projector-camera system
Young et al. Sparse point cloud registration and aggregation with mesh‐based generalized iterative closest point
JP2012160063A (en) Sphere detection method
JP2005106491A (en) System for measuring three-dimensional shape of head part
JP6590489B2 (en) Information processing apparatus and method
CN100388905C (en) Three-dimensional feet data measuring method to sparse grid based on curve subdivision
JP2002175521A (en) Device and method for three-dimensional data processing and program providing medium
Soufi et al. Surface-imaging-based patient positioning in radiation therapy
JP2018077168A (en) Simulator, simulation method and simulation program
KR20140024646A (en) Method or apparatus for generating a high-resolution pet(positron emission tomography) image using line gamma-ray source
KR20220109204A (en) System and method for optimizing particle position value using shape and bright features according to depth direction in 3d-ptv image
CN111462199A (en) Rapid speckle image matching method based on GPU

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant