WO2024034738A1 - 캘리브레이션 패턴의 자동 인식을 이용한 카메라 캘리브레이션 장치 및 방법 - Google Patents

캘리브레이션 패턴의 자동 인식을 이용한 카메라 캘리브레이션 장치 및 방법 Download PDF

Info

Publication number
WO2024034738A1
WO2024034738A1 PCT/KR2022/017953 KR2022017953W WO2024034738A1 WO 2024034738 A1 WO2024034738 A1 WO 2024034738A1 KR 2022017953 W KR2022017953 W KR 2022017953W WO 2024034738 A1 WO2024034738 A1 WO 2024034738A1
Authority
WO
WIPO (PCT)
Prior art keywords
calibration
pattern
camera
calibration pattern
photographed
Prior art date
Application number
PCT/KR2022/017953
Other languages
English (en)
French (fr)
Inventor
박우출
장준환
양진욱
최민수
이준석
구본재
Original Assignee
한국전자기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자기술연구원 filed Critical 한국전자기술연구원
Publication of WO2024034738A1 publication Critical patent/WO2024034738A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures

Definitions

  • the present disclosure relates to a camera calibration device and method, and more specifically, to an device and method that can automatically recognize a calibration pattern and perform camera calibration using a calibration algorithm corresponding to the automatically recognized calibration pattern.
  • a camera is a device that is often used to capture images or video. Data captured by cameras is used for a variety of different purposes and contexts.
  • a wearable device may include one or more onboard cameras to provide image data about the surrounding environment around the user of the wearable device.
  • One example is stereoscopic wearable glasses that feature two forward-oriented cameras configured to capture images for augmented reality presentation to a user through stereoscopic displays.
  • Wearable glasses may also include backward-oriented cameras to capture images of the user's eyes.
  • Camera calibration is often performed to ensure the precision and accuracy of the camera as well as the information extracted from the image data captured by the camera.
  • the camera calibration process determines the true parameters of the camera device that produces the image, which allows determining the camera's calibration data, such as intrinsic and extrinsic parameters.
  • Intrinsic parameters include focus, focal length, principal point and distortion coefficients, etc.
  • Extrinsic parameters include positional relationships between multiple cameras and translational and rotational offsets between sensors, etc.
  • This camera calibration is one of the essential processes commonly followed in intelligent video systems and CCTV applications.
  • the technical problem of the present disclosure is to provide a device and method that can automatically recognize a calibration pattern and perform camera calibration using a calibration algorithm corresponding to the automatically recognized calibration pattern.
  • a camera calibration device includes a recognition unit that recognizes a captured calibration pattern; a selection unit that selects a calibration algorithm corresponding to the recognized calibration pattern from among a plurality of preset calibration algorithms; and an executing unit that performs camera calibration using the selected calibration algorithm and the captured calibration pattern.
  • the recognition unit calculates the similarity between a plurality of pre-stored calibration patterns and the photographed calibration pattern, and recognizes the calibration pattern with the highest similarity as the photographed calibration pattern, and the selection unit selects the calibration pattern with the highest similarity. You can select a calibration algorithm corresponding to the calibration pattern.
  • the selection unit determines whether there is a similarity greater than a preset standard similarity among the calculated similarities, and if there is a similarity greater than the standard similarity, the selection unit may recognize the calibration pattern with the highest similarity as the photographed calibration pattern.
  • the recognition unit extracts the feature points of the photographed calibration pattern and compares the extracted feature points with feature points of each of a plurality of pre-stored calibration patterns, thereby selecting the photographed calibration pattern and the most common among the plurality of calibration patterns. Similar calibration patterns can be recognized.
  • the camera calibration device may further include a provision unit that provides a result of performing the camera calibration.
  • a camera calibration device includes: a recognition unit that recognizes the photographed calibration pattern by comparing the photographed calibration pattern with a plurality of pre-stored calibration patterns; If there is no calibration pattern corresponding to the photographed calibration pattern among the plurality of calibration patterns, calculating a calibration result value for each of the calibration algorithms using each of the preset calibration algorithms and the photographed calibration pattern. a calculation unit that does; a selection unit that selects a calibration algorithm corresponding to the best calibration result value among the calculated calibration result values; and an executing unit that performs camera calibration using the selected calibration algorithm and the captured calibration pattern.
  • the selection unit may select a calibration algorithm having the smallest calibration error value among the calibration error values included in the calibration result value.
  • a camera calibration method includes recognizing the photographed calibration pattern by comparing the photographed calibration pattern with a plurality of pre-stored calibration patterns; selecting a calibration algorithm corresponding to the recognized calibration pattern from among a plurality of preset calibration algorithms; and performing camera calibration using the selected calibration algorithm and the captured calibration pattern.
  • the similarity between the plurality of calibration patterns and the photographed calibration pattern may be calculated, and the calibration pattern with the highest similarity may be recognized as the photographed calibration pattern.
  • the step of recognizing the photographed calibration pattern includes extracting feature points of the photographed calibration pattern and comparing the extracted feature points with feature points of each of the plurality of calibration patterns, thereby selecting the feature point of the plurality of calibration patterns.
  • the calibration pattern most similar to the captured calibration pattern can be recognized.
  • the camera calibration method further includes the step of determining whether a calibration pattern corresponding to the photographed calibration pattern exists among the plurality of calibration patterns, and selecting the calibration algorithm. In the step, if a calibration pattern corresponding to the captured calibration pattern exists, a calibration algorithm corresponding to the recognized calibration pattern may be selected.
  • the calibration algorithm is performed using each of the calibration algorithms and the photographed calibration pattern. calculating a calibration result for each of the following; selecting a calibration algorithm corresponding to the best calibration result value among the calculated calibration result values; And it may further include performing camera calibration using a calibration algorithm corresponding to the best calibration result value and the captured calibration pattern.
  • an apparatus and method can be provided that can automatically recognize a calibration pattern and perform camera calibration using a calibration algorithm corresponding to the automatically recognized calibration pattern.
  • Figure 1 shows the configuration of a camera calibration device according to an embodiment of the present disclosure.
  • Figure 2 shows an example of a calibration pattern.
  • Figure 3 shows the configuration of a camera calibration device according to another embodiment of the present disclosure.
  • Figure 4 shows an operation flowchart of a camera calibration method according to another embodiment of the present disclosure.
  • Figure 5 shows an operation flowchart of an embodiment when pattern recognition fails.
  • Figure 6 shows a configuration diagram of a device to which a camera calibration device according to an embodiment of the present disclosure is applied.
  • a camera calibration device includes a recognition unit that recognizes a captured calibration pattern; a selection unit that selects a calibration algorithm corresponding to the recognized calibration pattern from among a plurality of preset calibration algorithms; and an executing unit that performs camera calibration using the selected calibration algorithm and the captured calibration pattern.
  • a component when a component is said to be “connected,” “coupled,” or “connected” to another component, this is not only a direct connection relationship, but also an indirect connection relationship in which another component exists in between. It may also be included.
  • a component when a component is said to "include” or “have” another component, this does not mean excluding the other component, but may further include another component, unless specifically stated to the contrary. .
  • first and second are used only for the purpose of distinguishing one component from other components, and do not limit the order or importance of the components unless specifically mentioned. Therefore, within the scope of the present disclosure, a first component in one embodiment may be referred to as a second component in another embodiment, and similarly, the second component in one embodiment may be referred to as a first component in another embodiment. It may also be called.
  • distinct components are only for clearly explaining each feature, and do not necessarily mean that the components are separated. That is, a plurality of components may be integrated to form one hardware or software unit, or one component may be distributed to form a plurality of hardware or software units. Accordingly, even if not specifically mentioned, such integrated or distributed embodiments are also included in the scope of the present disclosure.
  • components described in various embodiments do not necessarily mean essential components, and some may be optional components. Accordingly, embodiments consisting of a subset of the elements described in one embodiment are also included in the scope of the present disclosure. Additionally, embodiments that include other components in addition to the components described in the various embodiments are also included in the scope of the present disclosure.
  • a or B “at least one of A and B”, “at least one of A or B”, “A, B or C”, “at least one of A, B and C”, and “ Each of phrases such as "at least one of A, B, or C” may include any one of the items listed together in the corresponding phrase, or any possible combination thereof.
  • the gist of embodiments of the present disclosure is to automatically recognize various calibration patterns for performing camera calibration and perform camera calibration using a calibration algorithm corresponding to the recognized calibration pattern.
  • Figure 1 shows the configuration of a camera calibration device according to an embodiment of the present disclosure.
  • the camera calibration device 100 includes a recognition unit 130, a selection unit 140, an execution unit 150, a provision unit 160, and a database (DB). Includes (170).
  • the DB 170 is a means of storing data performed in the camera calibration device according to an embodiment of the present disclosure, and includes a plurality of calibration patterns, feature points for each of the calibration patterns, and a calibration algorithm corresponding to each of the calibration patterns. It also performs camera calibration or stores all types of data related to camera calibration.
  • the recognition unit 130 receives the calibration pattern 110 photographed by the camera 120, compares the photographed calibration pattern with a plurality of calibration patterns pre-stored in the DB, and creates a calibration pattern. Automatically recognized.
  • the calibration pattern captured by the camera 120 may be any one of the calibration patterns stored in the DB 170, but is not limited or limited thereto and may be a different calibration pattern than the calibration patterns stored in the DB 170. .
  • the recognition unit 130 may calculate the similarity between a plurality of calibration patterns stored in the DB 170 and the photographed calibration pattern, and recognize the calibration pattern with the highest similarity as the photographed calibration pattern. .
  • the recognition unit 130 may compare the calculated similarity with a preset standard similarity and recognize the calibration pattern with the highest similarity among the similarities above the standard similarity as the photographed calibration pattern, and if the calculated similarity is less than the standard similarity. If the similarity is , it is determined that the calibration pattern corresponding to the captured calibration pattern is not stored, and a calibration error may be output. Other operations in the device of the present disclosure in the case where it is determined that the calibration pattern corresponding to the captured calibration pattern is not stored will be described in detail in FIG. 3.
  • the recognition unit 130 extracts the feature points of the photographed calibration pattern and compares the extracted feature points with the feature points of each of the plurality of calibration patterns stored in the DB 170, thereby selecting one of the plurality of calibration patterns.
  • the calibration pattern most similar to the captured calibration pattern can be recognized.
  • the selection unit 140 selects a calibration pattern corresponding to the calibration pattern recognized by the recognition unit 130 from among a plurality of preset calibration algorithms.
  • the calibration patterns stored in the DB 170 are Checkerboard (FIG. 2A), ArUco Maker (FIG. 2B), ChArUco Board (FIG. 2C) and Circle Grid (FIG. 2D).
  • the calibration algorithm corresponding to each of the calibration patterns shown in 2 is the Checkerboard calibration algorithm, the ArUco Maker calibration algorithm, the ChArUco Board calibration algorithm, and the Circle Grid calibration algorithm
  • the calibration pattern captured by the recognition unit 130 is shown in FIG. 2A.
  • the selection unit 140 can select a checkerboard calibration algorithm that performs camera calibration using the checkerboard.
  • the selection unit 140 performs the function of selecting a calibration algorithm to perform camera calibration by the execution unit 150, and this function of the selection unit 140 can be included in the execution unit 150 as necessary. It may be possible.
  • the performing unit 150 performs camera calibration using the calibration algorithm selected by the selecting unit 140 and the captured calibration pattern, and outputs a camera calibration result. That is, the execution unit 150 integrates different types of calibration according to each calibration pattern and performs camera calibration using a calibration algorithm corresponding to the recognized calibration pattern among the various integrated types of calibration algorithms, thereby capturing the camera.
  • the camera calibration result using the calibration pattern is output to the providing unit 160.
  • the providing unit 160 receives the camera calibration result value performed by the performing unit 150 and provides the camera calibration result value.
  • the providing unit 160 can organize the camera calibration result values and provide them to the user, and may also provide the calibration result values according to the file format desired by the user, such as a txt file or csv file. .
  • the camera calibration result value may include intrinsic parameters, such as an internal camera matrix, distortion coefficient, rotation vector, movement vector, etc., and may also include a calibration error value.
  • intrinsic parameters such as an internal camera matrix, distortion coefficient, rotation vector, movement vector, etc.
  • calibration error value may be included in the camera calibration result value.
  • the camera calibration result value is not limited to or limited to intrinsic parameters and may include all parameters calibrated by camera calibration.
  • Figure 3 shows the configuration of a camera calibration device according to another embodiment of the present disclosure.
  • the camera calibration device 300 includes a recognition unit 330, a calculation unit 340, a selection unit 350, an execution unit 370, and a provision unit 370. ) and DB (380).
  • the DB 380 is a means for storing data performed in the camera calibration device according to an embodiment of the present disclosure, and includes a plurality of calibration patterns, feature points for each of the calibration patterns, and a calibration algorithm corresponding to each of the calibration patterns. It also performs camera calibration or stores all types of data related to camera calibration.
  • the recognition unit 330 receives the calibration pattern 310 photographed by the camera 320, compares the photographed calibration pattern with a plurality of calibration patterns pre-stored in the DB, and creates a calibration pattern. Automatically recognized.
  • the calibration pattern captured by the camera 320 may be any one of the calibration patterns stored in the DB 380, but is not limited or limited thereto and may be a different calibration pattern than the calibration patterns stored in the DB 380. .
  • the recognition unit 330 extracts the feature points of the photographed calibration pattern and compares the extracted feature points with the feature points of each of the plurality of calibration patterns stored in the DB 380, thereby selecting one of the plurality of calibration patterns.
  • the calibration pattern most similar to the captured calibration pattern can be recognized.
  • the recognition unit 330 may calculate the similarity between a plurality of calibration patterns stored in the DB 380 and the photographed calibration pattern, and recognize the calibration pattern with the highest similarity as the photographed calibration pattern. .
  • the recognition unit 330 may i) compare the calculated similarity with a preset standard similarity and recognize the calibration pattern with the highest similarity among the similarities above the standard similarity as the photographed calibration pattern, and ii) calculate the calculated similarity. If has a similarity that is less than the standard similarity, it may be determined that the calibration pattern corresponding to the photographed calibration pattern is not stored.
  • the recognition unit 330 determines as in ii) above, that is, when there is no calibration pattern corresponding to the photographed calibration pattern among the stored calibration patterns, the calculation unit 340, the selection unit 350, The performing unit 360 and the providing unit 370 may perform operations different from those of FIG. 1 .
  • the calculation unit 340 When it is determined by the recognition unit 330 as in ii) above, that is, when there is no calibration pattern corresponding to the photographed calibration pattern among the stored calibration patterns, the calculation unit 340 performs each of the calibration algorithms and the photographed calibration pattern. The calibration result value for each calibration algorithm is calculated using the calibration pattern.
  • the calibration patterns stored in the DB 380 are Checkerboard (FIG. 2a), ArUco Maker (FIG. 2b), ChArUco Board (FIG. 2c) and Circle Grid (FIG. 2d).
  • the calibration algorithm corresponding to each of the calibration patterns shown in 2 is the Checkerboard calibration algorithm, the ArUco Maker calibration algorithm, the ChArUco Board calibration algorithm, and the Circle Grid calibration algorithm
  • the calculation unit 340 performs the Checkerboard calibration for the photographed calibration pattern.
  • the calibration result values of each algorithm, ArUco Maker calibration algorithm, ChArUco Board calibration algorithm, and Circle Grid calibration algorithm can be calculated.
  • the selection unit 350 selects a calibration algorithm corresponding to the best calibration result value among the calculated calibration result values among a plurality of pre-stored calibration algorithms.
  • the selection unit 350 may select a calibration algorithm that has the smallest calibration error value among the calibration error values included in the calibration result value.
  • the selection unit 350 may select the Checkerboard calibration algorithm from among the calibration algorithms.
  • the execution unit 360 performs camera calibration using the calibration algorithm selected by the selection unit 350 and the captured calibration pattern, and outputs a camera calibration result. That is, the execution unit 360 integrates different types of calibration according to each calibration pattern and performs camera calibration using the calibration algorithm with the smallest calibration error value among the various integrated types of calibration algorithms, thereby performing shooting
  • the camera calibration result using the calibration pattern is output to the providing unit 370.
  • the providing unit 370 receives the camera calibration result value performed by the performing unit 360 and provides the camera calibration result value.
  • the provision unit 370 can organize the camera calibration result values and provide them to the user, and may also provide the calibration result values according to the file format desired by the user, such as a txt file or csv file. .
  • Figure 3 can be applied when calibration is performed using a pattern other than the calibration pattern stored in the camera. For example, if the calibration pattern provided for the camera is lost, the camera can be calibrated using a different calibration pattern. Depending on the situation, the camera calibration can be performed again later using the camera's calibration pattern. there is.
  • the camera calibration device can automatically recognize a captured calibration pattern and perform camera calibration by selecting a calibration algorithm corresponding to the automatically recognized calibration pattern.
  • the camera calibration device can perform camera calibration using a different calibration pattern than the pre-stored calibration pattern, and through this, camera calibration can be performed even if the calibration pattern of the camera is lost. .
  • FIG. 4 shows an operation flowchart of a camera calibration method according to another embodiment of the present disclosure, and shows an operation flowchart in the device of FIG. 1.
  • the camera calibration method of the present disclosure receives a calibration pattern captured by a camera and determines whether the captured calibration pattern is recognized by comparing the captured calibration pattern with a plurality of pre-stored calibration patterns. (S410, S420, S430).
  • step S420 may calculate the similarity between the plurality of calibration patterns and the photographed calibration pattern, and compare the photographed calibration pattern with the plurality of pre-stored calibration patterns using the calculated similarity.
  • the photographed calibration pattern can be compared with the plurality of pre-stored calibration patterns by extracting the feature points of the photographed calibration pattern and comparing the extracted feature points with the feature points of each of the plurality of stored calibration patterns.
  • step S430 the calibration pattern with the highest similarity among the similarities calculated through step S420 can be recognized as the photographed calibration pattern. Specifically, the calculated similarity is compared with a preset standard similarity to determine similarities higher than the standard similarity. The calibration pattern with the highest similarity can be recognized as the captured calibration pattern.
  • step S430 determines whether the photographed calibration pattern is included in a plurality of pre-stored calibration patterns.
  • the stored calibration pattern is photographed, it can be determined that the pattern is recognized, and a different calibration pattern other than the stored calibration pattern is determined. If a pattern is captured, it can be judged as a pattern recognition failure.
  • step S430 if it is recognized as one of the stored calibration patterns, a calibration algorithm corresponding to the recognized or photographed calibration pattern is selected from among preset calibration algorithms, and the selected calibration algorithm and the photographed calibration pattern are selected.
  • the camera calibration results are provided (S440, S450).
  • step S430 if the photographed calibration pattern is different from the stored calibration patterns, that is, in the case of pattern recognition failure, as shown in FIG. 5, calibration algorithms are performed using each of the calibration algorithms and the photographed calibration pattern. Calculate the calibration result value for each, and select the calibration algorithm corresponding to the best calibration result value among the calculated calibration result values (S510, S520).
  • step S520 is. You can select the calibration algorithm with the smallest calibration error value among the calibration error values included in the calibration result value.
  • step S520 camera calibration is performed using the selected calibration algorithm and the captured calibration pattern, thereby providing a camera calibration result (S530).
  • the camera calibration method determines that a calibration pattern matching the stored calibration pattern is captured through step S430 of FIG. 4, but even when a calibration pattern different from the stored calibration pattern is photographed, the similarity Camera calibration can also be performed by selecting a calibration algorithm corresponding to the stored calibration pattern using .
  • the camera calibration method of the present disclosure calculates the similarity between the photographed calibration pattern and each of the plurality of stored calibration patterns, even if a calibration pattern different from the stored calibration pattern is photographed, and selects the photographed calibration pattern with the highest degree of similarity among the calculated similarities. It is recognized as a calibration pattern of similarity, and camera calibration can be performed using the calibration algorithm corresponding to the calibration pattern of highest similarity and the captured calibration pattern. Of course, in this case, some calibration errors may occur because camera calibration is performed using a calibration algorithm with the highest similarity to a different calibration pattern.
  • the method according to an embodiment of the present disclosure may include all contents described in the device of FIGS. 1 to 3, which can be easily understood by those skilled in the art. It is self-evident.
  • Figure 6 shows a configuration diagram of a device to which a camera calibration device according to an embodiment of the present disclosure is applied.
  • the camera calibration device may be the device 1600 shown in FIG. 6 .
  • the device 1600 may include a memory 1602, a processor 1603, a transceiver 1604, and a peripheral device 1601. Additionally, as an example, the device 1600 may further include other components and is not limited to the above-described embodiment.
  • the device 1600 may be, for example, a movable user terminal (e.g., smart phone, laptop, wearable device, etc.) or a fixed management device (e.g., server, PC, etc.).
  • device 1600 of FIG. 6 may be an example hardware/software architecture such as a camera device, intelligent video system, CCTV, etc.
  • the memory 1602 may be a non-removable memory or a removable memory.
  • the peripheral device 1601 may include a display, GPS, or other peripheral devices, and is not limited to the above-described embodiment.
  • the above-described device 1600 may include a communication circuit like the transceiver 1604, and may communicate with an external device based on this.
  • the processor 1603 may include a general-purpose processor, a digital signal processor (DSP), a DSP core, a controller, a microcontroller, Application Specific Integrated Circuits (ASICs), Field Programmable Gate Array (FPGA) circuits, and any other It may be at least one of a tangible integrated circuit (IC) and one or more microprocessors associated with a state machine. In other words, it may be a hardware/software configuration that performs a control role to control the device 1600 described above. Additionally, the processor 1603 can modularize and perform the functions of the recognition unit 130, selection unit 140, and execution unit 150 of FIG. 1 described above.
  • DSP digital signal processor
  • ASICs Application Specific Integrated Circuits
  • FPGA Field Programmable Gate Array
  • the processor 1603 may execute computer-executable instructions stored in the memory 1602 to perform various essential functions of the camera calibration device.
  • the processor 1603 may control at least one of signal coding, data processing, power control, input/output processing, and communication operations.
  • the processor 1603 can control the physical layer, MAC layer, and application layer.
  • the processor 1603 may perform authentication and security procedures at the access layer and/or application layer, and is not limited to the above-described embodiment.
  • the processor 1603 may communicate with other devices through the transceiver 1604.
  • the processor 1603 may control the camera calibration device to communicate with other devices through a network through execution of computer-executable instructions. That is, communication performed in this disclosure can be controlled.
  • the transceiver 1604 may transmit an RF signal through an antenna and may transmit signals based on various communication networks.
  • MIMO technology, beamforming, etc. may be applied as antenna technology, and is not limited to the above-described embodiment.
  • signals transmitted and received through the transmitting and receiving unit 1604 may be modulated and demodulated and controlled by the processor 1603, and are not limited to the above-described embodiment.
  • Exemplary methods of the present disclosure are expressed as a series of operations for clarity of explanation, but this is not intended to limit the order in which the steps are performed, and each step may be performed simultaneously or in a different order, if necessary.
  • other steps may be included in addition to the exemplified steps, some steps may be excluded and the remaining steps may be included, or some steps may be excluded and additional other steps may be included.
  • various embodiments of the present disclosure may be implemented by hardware, firmware, software, or a combination thereof.
  • one or more ASICs Application Specific Integrated Circuits
  • DSPs Digital Signal Processors
  • DSPDs Digital Signal Processing Devices
  • PLDs Programmable Logic Devices
  • FPGAs Field Programmable Gate Arrays
  • general purpose It can be implemented by a processor (general processor), controller, microcontroller, microprocessor, etc.
  • the scope of the present disclosure is software or machine-executable instructions (e.g., operating system, application, firmware, program, etc.) that cause operations according to the methods of various embodiments to be executed on a device or computer, and such software or It includes non-transitory computer-readable medium in which instructions, etc. are stored and can be executed on a device or computer.
  • software or machine-executable instructions e.g., operating system, application, firmware, program, etc.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Studio Devices (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

본 개시의 일 실시 예에 따른 카메라 캘리브레이션 장치는, 촬영된 캘리브레이션 패턴을 인식하는 인식부; 미리 설정된 복수의 캘리브레이션 알고리즘들 중 상기 인식된 캘리브레이션 패턴에 대응하는 캘리브레이션 알고리즘을 선택하는 선택부; 및 상기 선택된 캘리브레이션 알고리즘과 상기 촬영된 캘리브레이션 패턴을 이용하여 카메라 캘리브레이션을 수행하는 수행부를 포함한다.

Description

캘리브레이션 패턴의 자동 인식을 이용한 카메라 캘리브레이션 장치 및 방법
본 개시는 카메라 캘리브레이션 장치 및 방법에 관한 것이며, 보다 구체적으로 캘리브레이션 패턴을 자동으로 인식하여 자동 인식된 캘리브레이션 패턴에 대응하는 캘리브레이션 알고리즘을 이용하여 카메라 캘리브레이션을 수행할 수 있는 장치 및 방법에 대한 것이다.
카메라는, 이미지들 또는 비디오를 캡처하는 데 종종 사용되는 디바이스이다. 카메라에 의해 캡처된 데이터는 다양한 상이한 목적들 및 맥락들에서 사용된다. 예컨대, 웨어러블 디바이스는 웨어러블 디바이스의 사용자 주위의 주변 환경에 대한 이미지 데이터를 제공하기 위해 하나 또는 그 이상의 온보드 카메라들을 포함할 수 있다. 일 예로, 스테레오스코픽 디스플레이(stereoscopic display)들을 통한 사용자에게로의 증강 현실 프리젠테이션을 위한 이미지들을 캡처하도록 구성된 2개의 전방-지향(forward-oriented) 카메라들을 피처링하는 스테레오스코픽 웨어러블 안경이다. 웨어러블 안경은 또한 사용자의 눈들의 이미지들을 캡처하기 위한 후방-지향(backward-oriented) 카메라들을 포함할 수 있다.
카메라 캘리브레이션은 종종, 카메라의 정밀도 및 정확성뿐만 아니라 카메라에 의해 캡처된 이미지 데이터로부터 추출된 정보를 보장하도록 수행된다. 카메라 캘리브레이션 프로세스는 이미지를 생성하는 카메라 디바이스의 진정한 파라미터들을 결정하며, 이는 내재적 파라미터들 및 외재적 파라미터들과 같은 카메라의 캘리브레이션 데이터를 결정할 수 있게 한다. 내재적 파라미터들은 초점, 초점 길이, 주점(principal point) 및 왜곡 계수들 등을 포함한다. 외재적 파라미터들은 다수의 카메라들 간의 포지션 관계들 및 센서들 간의 병진 및 회전 오프셋들 등을 포함한다.
이러한 카메라 캘리브레이션은 지능형 영상시스템, CCTV 응용 등에서 공통적으로 선행되는 필수 과정 중 하나이다.
본 개시의 기술적 과제는, 캘리브레이션 패턴을 자동으로 인식하여 자동 인식된 캘리브레이션 패턴에 대응하는 캘리브레이션 알고리즘을 이용하여 카메라 캘리브레이션을 수행할 수 있는 장치 및 방법을 제공하는데 그 목적이 있다.
본 개시에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 개시의 일 실시 예에 따른 카메라 캘리브레이션 장치는, 촬영된 캘리브레이션 패턴을 인식하는 인식부; 미리 설정된 복수의 캘리브레이션 알고리즘들 중 상기 인식된 캘리브레이션 패턴에 대응하는 캘리브레이션 알고리즘을 선택하는 선택부; 및 상기 선택된 캘리브레이션 알고리즘과 상기 촬영된 캘리브레이션 패턴을 이용하여 카메라 캘리브레이션을 수행하는 수행부를 포함한다.
이때, 상기 인식부는, 미리 저장된 복수의 캘리브레이션 패턴들과 상기 촬영된 캘리브레이션 패턴 간의 유사도를 계산하고, 가장 높은 유사도의 캘리브레이션 패턴을 상기 촬영된 캘리브레이션 패턴으로 인식하며, 상기 선택부는, 상기 가장 높은 유사도의 캘리브레이션 패턴에 대응하는 캘리브레이션 알고리즘을 선택할 수 있다.
이때, 상기 선택부는, 상기 계산된 유사도 중 미리 설정된 기준 유사도 이상의 유사도가 있는지 판단하고, 상기 기준 유사도 이상의 유사도가 있는 경우 상기 가장 높은 유사도의 캘리브레이션 패턴을 상기 촬영된 캘리브레이션 패턴으로 인식할 수 있다.
이때, 상기 인식부는, 상기 촬영된 캘리브레이션 패턴의 특징점을 추출하고, 상기 추출된 특징점과 미리 저장된 복수의 캘리브레이션 패턴들 각각의 특징점을 비교함으로써, 상기 복수의 캘리브레이션 패턴들 중 상기 촬영된 캘리브레이션 패턴과 가장 유사한 캘리브레이션 패턴을 인식할 수 있다.
나아가, 본 개시의 일 실시 예에 따른 카메라 캘리브레이션 장치는, 상기 카메라 캘리브레이션에 대한 수행 결과를 제공하는 제공부를 더 포함할 수 있다.
본 개시의 다른 실시 예에 따른 카메라 캘리브레이션 장치는, 촬영된 캘리브레이션 패턴과 미리 저장된 복수의 캘리브레이션 패턴들을 비교하여 상기 촬영된 캘리브레이션 패턴을 인식하는 인식부; 상기 복수의 캘리브레이션 패턴들 중 상기 촬영된 캘리브레이션 패턴에 대응하는 캘리브레이션 패턴이 존재하지 않는 경우, 미리 설정된 캘리브레이션 알고리즘들 각각과 상기 촬영된 캘리브레이션 패턴을 이용하여 상기 캘리브레이션 알고리즘들 각각에 대한 캘리브레이션 결과 값을 계산하는 계산부; 상기 계산된 캘리브레이션 결과 값 중 가장 좋은 캘리브레이션 결과 값에 해당하는 캘리브레이션 알고리즘을 선택하는 선택부; 및 상기 선택된 캘리브레이션 알고리즘과 상기 촬영된 캘리브레이션 패턴을 이용하여 카메라 캘리브레이션을 수행하는 수행부를 포함한다.
이때, 상기 선택부는, 상기 캘리브레이션 결과 값에 포함되는 캘리브레이션 에러 값 중 가장 작은 캘리브레이션 에러 값을 가지는 캘리브레이션 알고리즘을 선택할 수 있다.
본 개시의 또 다른 실시 예에 따른 카메라 캘리브레이션 방법은, 촬영된 캘리브레이션 패턴과 미리 저장된 복수의 캘리브레이션 패턴들을 비교하여 상기 촬영된 캘리브레이션 패턴을 인식하는 단계; 미리 설정된 복수의 캘리브레이션 알고리즘들 중 상기 인식된 캘리브레이션 패턴에 대응하는 캘리브레이션 알고리즘을 선택하는 단계; 및 상기 선택된 캘리브레이션 알고리즘과 상기 촬영된 캘리브레이션 패턴을 이용하여 카메라 캘리브레이션을 수행하는 단계를 포함한다.
이때, 상기 촬영된 캘리브레이션 패턴을 인식하는 단계는, 상기 복수의 캘리브레이션 패턴들과 상기 촬영된 캘리브레이션 패턴 간의 유사도를 계산하고, 가장 높은 유사도의 캘리브레이션 패턴을 상기 촬영된 캘리브레이션 패턴으로 인식할 수 있다.
이때, 상기 촬영된 캘리브레이션 패턴을 인식하는 단계는, 상기 촬영된 캘리브레이션 패턴의 특징점을 추출하고, 상기 추출된 특징점과 상기 복수의 캘리브레이션 패턴들 각각의 특징점을 비교함으로써, 상기 복수의 캘리브레이션 패턴들 중 상기 촬영된 캘리브레이션 패턴과 가장 유사한 캘리브레이션 패턴을 인식할 수 있다.
나아가, 본 개시의 또 다른 실시 예에 따른 카메라 캘리브레이션 방법은, 상기 복수의 캘리브레이션 패턴들 중 상기 촬영된 캘리브레이션 패턴에 대응하는 캘리브레이션 패턴이 존재하는지 판단하는 단계를 더 포함하고, 상기 캘리브레이션 알고리즘을 선택하는 단계는, 상기 촬영된 캘리브레이션 패턴에 대응하는 캘리브레이션 패턴이 존재하는 경우, 상기 인식된 캘리브레이션 패턴에 대응하는 캘리브레이션 알고리즘을 선택할 수 있다.
더 나아가, 본 개시의 또 다른 실시 예에 따른 카메라 캘리브레이션 방법은, 상기 촬영된 캘리브레이션 패턴에 대응하는 캘리브레이션 패턴이 존재하지 않는 경우, 상기 캘리브레이션 알고리즘들 각각과 상기 촬영된 캘리브레이션 패턴을 이용하여 상기 캘리브레이션 알고리즘들 각각에 대한 캘리브레이션 결과 값을 계산하는 단계; 상기 계산된 캘리브레이션 결과 값 중 가장 좋은 캘리브레이션 결과 값에 해당하는 캘리브레이션 알고리즘을 선택하는 단계; 및 상기 가장 좋은 캘리브레이션 결과 값에 해당하는 캘리브레이션 알고리즘과 상기 촬영된 캘리브레이션 패턴을 이용하여 카메라 캘리브레이션을 수행하는 단계를 더 포함할 수 있다.
본 개시에 대하여 위에서 간략하게 요약된 특징들은 후술하는 본 개시의 상세한 설명의 예시적인 양상일 뿐이며, 본 개시의 범위를 제한하는 것은 아니다.
본 개시에 따르면, 캘리브레이션 패턴을 자동으로 인식하여 자동 인식된 캘리브레이션 패턴에 대응하는 캘리브레이션 알고리즘을 이용하여 카메라 캘리브레이션을 수행할 수 있는 장치 및 방법을 제공할 수 있다.
본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 개시의 일 실시 예에 따른 카메라 캘리브레이션 장치의 구성을 나타낸 것이다.
도 2는 캘리브레이션 패턴에 대한 예시도를 나타낸 것이다.
도 3은 본 개시의 다른 실시 예에 따른 카메라 캘리브레이션 장치의 구성을 나타낸 것이다.
도 4는 본 개시의 또 다른 실시 예에 따른 카메라 캘리브레이션 방법의 동작 흐름도를 나타낸 것이다.
도 5는 패턴 인식이 실패된 경우에 대한 일 실시 예의 동작 흐름도를 나타낸 것이다.
도 6은 본 개시의 일 실시 예에 따른 카메라 캘리브레이션 장치가 적용되는 디바이스의 구성도를 나타낸 것이다.
본 개시의 일 실시 예에 따른 카메라 캘리브레이션 장치는, 촬영된 캘리브레이션 패턴을 인식하는 인식부; 미리 설정된 복수의 캘리브레이션 알고리즘들 중 상기 인식된 캘리브레이션 패턴에 대응하는 캘리브레이션 알고리즘을 선택하는 선택부; 및 상기 선택된 캘리브레이션 알고리즘과 상기 촬영된 캘리브레이션 패턴을 이용하여 카메라 캘리브레이션을 수행하는 수행부를 포함한다.
이하에서는 첨부한 도면을 참고로 하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나, 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.
본 개시의 실시 예를 설명함에 있어서 공지 구성 또는 기능에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그에 대한 상세한 설명은 생략한다. 그리고, 도면에서 본 개시에 대한 설명과 관계없는 부분은 생략하였으며, 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
본 개시에 있어서, 어떤 구성요소가 다른 구성요소와 "연결", "결합" 또는 "접속"되어 있다고 할 때, 이는 직접적인 연결 관계 뿐만 아니라, 그 중간에 또 다른 구성요소가 존재하는 간접적인 연결관계도 포함할 수 있다. 또한 어떤 구성요소가 다른 구성요소를 "포함한다" 또는 "가진다"고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 배제하는 것이 아니라 또 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
본 개시에 있어서, 제1, 제2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되며, 특별히 언급되지 않는 한 구성요소들 간의 순서 또는 중요도 등을 한정하지 않는다. 따라서, 본 개시의 범위 내에서 일 실시 예에서의 제1 구성요소는 다른 실시 예에서 제2 구성요소라고 칭할 수도 있고, 마찬가지로 일 실시 예에서의 제2 구성요소를 다른 실시 예에서 제1 구성요소라고 칭할 수도 있다.
본 개시에 있어서, 서로 구별되는 구성요소들은 각각의 특징을 명확하게 설명하기 위한 것일 뿐, 구성요소들이 반드시 분리되는 것을 의미하지는 않는다. 즉, 복수의 구성요소가 통합되어 하나의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있고, 하나의 구성요소가 분산되어 복수의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있다. 따라서, 별도로 언급하지 않더라도 이와 같이 통합된 또는 분산된 실시 예도 본 개시의 범위에 포함된다.
본 개시에 있어서, 다양한 실시 예에서 설명하는 구성요소들이 반드시 필수적인 구성요소들은 의미하는 것은 아니며, 일부는 선택적인 구성요소일 수 있다. 따라서, 일 실시 예에서 설명하는 구성요소들의 부분집합으로 구성되는 실시 예도 본 개시의 범위에 포함된다. 또한, 다양한 실시 예에서 설명하는 구성요소들에 추가적으로 다른 구성요소를 포함하는 실시 예도 본 개시의 범위에 포함된다.
본 개시에 있어서, 본 명세서에 사용되는 위치 관계의 표현, 예컨대 상부, 하부, 좌측, 우측 등은 설명의 편의를 위해 기재된 것이고, 본 명세서에 도시된 도면을 역으로 보는 경우에는, 명세서에 기재된 위치 관계는 반대로 해석될 수도 있다.
본 개시에 있어서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다.
본 개시의 실시 예들은, 카메라 캘리브레이션을 수행하기 위한 다양한 캘리브레이션 패턴을 자동으로 인식하고, 인식된 캘리브레이션 패턴에 대응하는 캘리브레이션 알고리즘을 이용하여 카메라 캘리브레이션을 수행하는 것을 그 요지로 한다.
도 1은 본 개시의 일 실시 예에 따른 카메라 캘리브레이션 장치의 구성을 나타낸 것이다.
도 1을 참조하면, 본 개시의 일 실시 예에 따른 카메라 캘리브레이션 장치(100)는, 인식부(130), 선택부(140), 수행부(150), 제공부(160)와 데이터베이스(DB)(170)를 포함한다.
DB(170)는 본 개시의 일 실시 예에 따른 카메라 캘리브레이션 장치에서 수행되는 데이터를 저장하는 수단으로, 복수의 캘리브레이션 패턴들, 캘리브레이션 패턴들 각각에 대한 특징점, 캘리브레이션 패턴들 각각에 대응하는 캘리브레이션 알고리즘 뿐만 아니라 카메라 캘리브레이션을 수행하거나 카메라 캘리브레이션과 관련된 모든 종류의 데이터를 저장한다.
인식부(130)는, 카메라 캘리브레이션을 수행하기 위하여, 카메라(120)에 의해 촬영된 캘리브레이션 패턴(110)을 수신하고, 촬영된 캘리브레이션 패턴과 DB에 미리 저장된 복수의 캘리브레이션 패턴들을 비교하여 캘리브레이션 패턴을 자동으로 인식한다.
카메라(120)에 의해 촬영되는 캘리브레이션 패턴은, DB(170)에 저장된 캘리브레이션 패턴들 중 어느 하나일 수도 있지만, 이에 제한되거나 한정되지 않으며 DB(170)에 저장된 캘리브레이션 패턴들이 아닌 상이한 캘리브레이션 패턴일 수도 있다.
실시 예에 따라, 인식부(130)는, DB(170)에 저장된 복수의 캘리브레이션 패턴들과 촬영된 캘리브레이션 패턴 간의 유사도를 계산하고, 가장 높은 유사도의 캘리브레이션 패턴을 촬영된 캘리브레이션 패턴으로 인식할 수 있다.
이때, 인식부(130)는, 계산된 유사도와 미리 설정된 기준 유사도를 비교하여 기준 유사도 이상의 유사도들 중 가장 높은 유사도의 캘리브레이션 패턴을 촬영된 캘리브레이션 패턴으로 인식할 수 있으며, 계산된 유사도가 기준 유사도 미만의 유사도를 갖는 경우에는 촬영된 캘리브레이션 패턴과 대응하는 캘리브레이션 패턴이 저장되어 있지 않은 것으로 판단하며 캘리브레이션 오류를 출력할 수도 있다. 촬영된 캘리브레이션 패턴과 대응하는 캘리브레이션 패턴이 저장되어 있지 않은 것으로 판단되는 경우에 대한 본 개시의 장치에서의 다른 동작에 대해서는 도 3에서 상세히 설명한다.
실시 예에 따라, 인식부(130)는, 촬영된 캘리브레이션 패턴의 특징점을 추출하고, 추출된 특징점과 DB(170)에 저장된 복수의 캘리브레이션 패턴들 각각의 특징점을 비교함으로써, 복수의 캘리브레이션 패턴들 중 촬영된 캘리브레이션 패턴과 가장 유사한 캘리브레이션 패턴을 인식할 수 있다.
선택부(140)는, 미리 설정된 복수의 캘리브레이션 알고리즘들 중 인식부(130)에 의해 인식된 캘리브레이션 패턴에 대응하는 캘리브레이션 패턴을 선택한다.
예를 들어, DB(170)에 저장된 캘리브레이션 패턴들이 도 2에 도시된 바와 같이, Chekerboard(도 2a), ArUco Maker(도 2b), ChArUco Board(도 2c)와 Circle Grid(도 2d)이고, 도 2에 도시된 캘리브레이션 패턴들 각각에 대응하는 캘리브레이션 알고리즘이 Chekerboard 캘리브레이션 알고리즘, ArUco Maker 캘리브레이션 알고리즘, ChArUco Board 캘리브레이션 알고리즘과 Circle Grid 캘리브레이션 알고리즘인 경우, 인식부(130)에 의해 촬영된 캘리브레이션 패턴이 도 2a의 Chekerboard로 인식되면, 선택부(140)는 Chekerboard를 이용하여 카메라 캘리브레이션을 수행하는 Chekerboard 캘리브레이션 알고리즘을 선택할 수 있다.
즉, 선택부(140)는, 수행부(150)에 의해 카메라 캘리브레이션을 수행할 캘리브레이션 알고리즘을 선택하는 기능을 수행하며, 이러한 선택부(140)의 기능은 필요에 따라 수행부(150)에 포함될 수도 있다.
수행부(150)는, 선택부(140)에 의해 선택된 캘리브레이션 알고리즘과 촬영된 캘리브레이션 패턴을 이용하여 카메라 캘리브레이션을 수행하고, 카메라 캘리브레이션의 수행 결과를 출력한다. 즉, 수행부(150)는, 각각의 캘리브레이션 패턴에 따라 상이한 방식의 캘리브레이션을 통합하고, 통합된 다양한 방식의 캘리브레이션 알고리즘 중 인식된 캘리브레이션 패턴에 해당하는 캘리브레이션 알고리즘을 이용하여 카메라 캘리브레이션을 수행함으로써, 촬영된 캘리브레이션 패턴을 이용한 카메라 캘리브레이션 결과 값을 제공부(160)로 출력한다.
제공부(160)는, 수행부(150)에 의해 수행된 카메라 캘리브레이션 결과 값을 수신하고, 카메라 캘리브레이션 결과 값을 제공한다.
여기서, 제공부(160)는, 카메라 캘리브레이션 결과 값을 정리하여 사용자에게 제공할 수 있으며, 사용자가 원하는 파일 포맷 예를 들어, txt 파일 또는 csv 파일 등의 포맷에 맞춰 캘리브레이션 결과 값을 제공할 수도 있다.
카메라 캘리브레이션 결과 값은, 내재적 파라미터들 예를 들어, 내부 카메라 행렬, 왜곡 계수, 회전벡터, 이동벡터 등을 포함할 수 있으며, 캘리브레이션 에러 값을 포함할 수도 있다. 물론, 카메라 캘리브레이션 결과 값이 내재적 파라미터들로 제한되거나 한정되지 않으며, 카메라 캘리브레이션에 의해 캘리브레이션되는 모든 파라미터들을 포함할 수 있다.
도 3은 본 개시의 다른 실시 예에 따른 카메라 캘리브레이션 장치의 구성을 나타낸 것이다.
도 3을 참조하면, 본 개시의 일 실시 예에 따른 카메라 캘리브레이션 장치(300)는, 인식부(330), 계산부(340), 선택부(350), 수행부(370), 제공부(370)와 DB(380)를 포함한다.
DB(380)는 본 개시의 일 실시 예에 따른 카메라 캘리브레이션 장치에서 수행되는 데이터를 저장하는 수단으로, 복수의 캘리브레이션 패턴들, 캘리브레이션 패턴들 각각에 대한 특징점, 캘리브레이션 패턴들 각각에 대응하는 캘리브레이션 알고리즘 뿐만 아니라 카메라 캘리브레이션을 수행하거나 카메라 캘리브레이션과 관련된 모든 종류의 데이터를 저장한다.
인식부(330)는, 카메라 캘리브레이션을 수행하기 위하여, 카메라(320)에 의해 촬영된 캘리브레이션 패턴(310)을 수신하고, 촬영된 캘리브레이션 패턴과 DB에 미리 저장된 복수의 캘리브레이션 패턴들을 비교하여 캘리브레이션 패턴을 자동으로 인식한다.
카메라(320)에 의해 촬영되는 캘리브레이션 패턴은, DB(380)에 저장된 캘리브레이션 패턴들 중 어느 하나일 수도 있지만, 이에 제한되거나 한정되지 않으며 DB(380)에 저장된 캘리브레이션 패턴들이 아닌 상이한 캘리브레이션 패턴일 수도 있다.
실시 예에 따라, 인식부(330)는, 촬영된 캘리브레이션 패턴의 특징점을 추출하고, 추출된 특징점과 DB(380)에 저장된 복수의 캘리브레이션 패턴들 각각의 특징점을 비교함으로써, 복수의 캘리브레이션 패턴들 중 촬영된 캘리브레이션 패턴과 가장 유사한 캘리브레이션 패턴을 인식할 수 있다.
실시 예에 따라, 인식부(330)는, DB(380)에 저장된 복수의 캘리브레이션 패턴들과 촬영된 캘리브레이션 패턴 간의 유사도를 계산하고, 가장 높은 유사도의 캘리브레이션 패턴을 촬영된 캘리브레이션 패턴으로 인식할 수 있다.
이때, 인식부(330)는, i) 계산된 유사도와 미리 설정된 기준 유사도를 비교하여 기준 유사도 이상의 유사도들 중 가장 높은 유사도의 캘리브레이션 패턴을 촬영된 캘리브레이션 패턴으로 인식할 수 있으며, ii) 계산된 유사도가 기준 유사도 미만의 유사도를 갖는 경우에는 촬영된 캘리브레이션 패턴과 대응하는 캘리브레이션 패턴이 저장되어 있지 않은 것으로 판단할 수 있다.
인식부(330)에 의해 i)과 같이 캘리브레이션 패턴이 인식되는 경우에는, 상기 도 1과 같은 동작을 수행할 수 있다. 즉, i)과 같은 경우 선택부(350), 수행부(360)와 제공부(370)는 도 1의 선택부(140), 수행부(150)와 제공부(160)의 기능을 수행할 수 있기에, i)에 대한 경우는 도 3의 설명에서 생략한다.
반면, 인식부(330)에 의해 상기 ii)와 같이 판단되는 경우 즉, 저장된 캘리브레이션 패턴들 중 촬영된 캘리브레이션 패턴에 대응하는 캘리브레이션 패턴이 존재하지 않는 경우 계산부(340), 선택부(350), 수행부(360)와 제공부(370)은 도 1과 상이한 동작을 수행할 수 있다.
이하, ii)의 경우에 대하여 설명한다.
계산부(340)는, 인식부(330)에 의해 상기 ii)와 같이 판단되는 경우 즉, 저장된 캘리브레이션 패턴들 중 촬영된 캘리브레이션 패턴에 대응하는 캘리브레이션 패턴이 존재하지 않는 경우, 캘리브레이션 알고리즘들 각각과 촬영된 캘리브레이션 패턴을 이용하여 캘리브레이션 알고리즘들 각각에 대한 캘리브레이션 결과 값을 계산한다.
예를 들어, DB(380)에 저장된 캘리브레이션 패턴들이 도 2에 도시된 바와 같이, Chekerboard(도 2a), ArUco Maker(도 2b), ChArUco Board(도 2c)와 Circle Grid(도 2d)이고, 도 2에 도시된 캘리브레이션 패턴들 각각에 대응하는 캘리브레이션 알고리즘이 Chekerboard 캘리브레이션 알고리즘, ArUco Maker 캘리브레이션 알고리즘, ChArUco Board 캘리브레이션 알고리즘과 Circle Grid 캘리브레이션 알고리즘인 경우, 계산부(340)는 촬영된 캘리브레이션 패턴에 대하여, Chekerboard 캘리브레이션 알고리즘, ArUco Maker 캘리브레이션 알고리즘, ChArUco Board 캘리브레이션 알고리즘과 Circle Grid 캘리브레이션 알고리즘 각각의 캘리브레이션 결과 값을 계산할 수 있다.
선택부(350)는, 미리 저장된 복수의 캘리브레이션 알고리즘들 중 계산된 캘리브레이션 결과 값 중 가장 좋은 캘리브레이션 결과 값에 해당하는 캘리브레이션 알고리즘을 선택한다.
이때, 선택부(350)는, 캘리브레이션 결과 값에 포함되는 캘리브레이션 에러 값 중 가장 작은 캘리브레이션 에러 값을 가지는 캘리브레이션 알고리즘을 선택할 수 있다.
예를 들어, 계산부(350)에 의해 계산된 Chekerboard 캘리브레이션 알고리즘, ArUco Maker 캘리브레이션 알고리즘, ChArUco Board 캘리브레이션 알고리즘과 Circle Grid 캘리브레이션 알고리즘 각각의 캘리브레이션 결과 값 중 가장 작은 캘리브레이션 에러 값이 Chekerboard 캘리브레이션 알고리즘이라 가정하면, 선택부(350)는 캘리브레이션 알고리즘들 중 Chekerboard 캘리브레이션 알고리즘을 선택할 수 있다.
수행부(360)는, 선택부(350)에 의해 선택된 캘리브레이션 알고리즘과 촬영된 캘리브레이션 패턴을 이용하여 카메라 캘리브레이션을 수행하고, 카메라 캘리브레이션의 수행 결과를 출력한다. 즉, 수행부(360)는, 각각의 캘리브레이션 패턴에 따라 상이한 방식의 캘리브레이션을 통합하고, 통합된 다양한 방식의 캘리브레이션 알고리즘 중 가장 작은 캘리브레이션 에러 값을 가지는 캘리브레이션 알고리즘을 이용하여 카메라 캘리브레이션을 수행함으로써, 촬영된 캘리브레이션 패턴을 이용한 카메라 캘리브레이션 결과 값을 제공부(370)로 출력한다.
제공부(370)는, 수행부(360)에 의해 수행된 카메라 캘리브레이션 결과 값을 수신하고, 카메라 캘리브레이션 결과 값을 제공한다.
여기서, 제공부(370)는, 카메라 캘리브레이션 결과 값을 정리하여 사용자에게 제공할 수 있으며, 사용자가 원하는 파일 포맷 예를 들어, txt 파일 또는 csv 파일 등의 포맷에 맞춰 캘리브레이션 결과 값을 제공할 수도 있다.
도 3은, 해당 카메라 내에 저장된 캘리브레이션 패턴이 아닌 다른 패턴을 이용하여 캘리브레이션을 수행하는 경우에 적용될 수 있다. 예를 들어, 해당 카메라에 대하여 제공된 캘리브레이션 패턴이 분실된 경우, 다른 캘리브레이션 패턴을 이용하여 카메라 캘리브레이션을 수행할 수 있으며, 상황에 따라 추후에 해당 카메라의 캘리브레이션 패턴을 이용하여 카메라 캘리브레이션을 다시 수행할 수도 있다.
이와 같이, 본 개시의 실시 예들에 따른 카메라 캘리브레이션 장치는, 촬영된 캘리브레이션 패턴을 자동으로 인식하고, 자동으로 인식된 캘리브레이션 패턴에 대응하는 캘리브레이션 알고리즘을 선택하여 카메라 캘리브레이션을 수행할 수 있다.
또한, 본 개시의 실시 예들에 따른 카메라 캘리브레이션 장치는, 미리 저장된 캘리브레이션 패턴이 아닌 상이한 캘리브레이션 패턴을 통해서도 카메라 캘리브레이션을 수행할 수 있으며, 이를 통해 해당 카메라의 캘리브레이션 패턴을 분실하더라도 카메라 캘리브레이션을 수행할 수 있다.
도 4는 본 개시의 또 다른 실시 예에 따른 카메라 캘리브레이션 방법의 동작 흐름도를 나타낸 것으로, 도 1의 장치에서의 동작 흐름도를 나타낸 것이다.
도 4를 참조하면, 본 개시의 카메라 캘리브레이션 방법은, 카메라에 의해 촬영된 캘리브레이션 패턴을 수신하고, 촬영된 캘리브레이션 패턴과 미리 저장된 복수의 캘리브레이션 패턴을 비교함으로써, 촬영된 캘리브레이션 패턴의 인식 여부를 판단한다(S410, S420, S430).
이때, 단계 S420은, 복수의 캘리브레이션 패턴들과 촬영된 캘리브레이션 패턴 간의 유사도를 계산하고, 계산된 유사도를 이용하여 촬영된 캘리브레이션 패턴과 미리 저장된 복수의 캘리브레이션 패턴을 비교할 수 있다.
이때, 단계 S420은, 촬영된 캘리브레이션 패턴의 특징점을 추출하고, 추출된 특징점과 저장된 복수의 캘리브레이션 패턴들 각각의 특징점을 비교함으로써, 촬영된 캘리브레이션 패턴과 미리 저장된 복수의 캘리브레이션 패턴을 비교할 수 있다.
이때, 단계 S430은, 단계 S420을 통해 계산된 유사도 중 가장 높은 유사도의 캘리브레이션 패턴을 촬영된 캘리브레이션 패턴으로 인식할 수 있으며, 구체적으로, 계산된 유사도와 미리 설정된 기준 유사도를 비교하여 기준 유사도 이상의 유사도들 중 가장 높은 유사도의 캘리브레이션 패턴을 촬영된 캘리브레이션 패턴으로 인식할 수 있다.
즉, 단계 S430은, 촬영된 캘리브레이션 패턴이 미리 저장된 복수의 캘리브레이션 패턴에 포함되는지 여부를 판단하는 것으로, 저장된 캘리브레이션 패턴이 촬영되는 경우 패턴을 인식하는 것으로 판단할 수 있고, 저장된 캘리브레이션 패턴이 아닌 상이한 캘리브레이션 패턴이 촬영되는 경우 패턴 인식 실패로 판단할 수 있다.
단계 S430의 판단 결과, 저장된 캘리브레이션 패턴들 중 어느 하나의 캘리브레이션 패턴으로 인식되면, 미리 설정된 캘리브레이션 알고리즘들 중 인식 또는 촬영된 캘리브레이션 패턴에 대응하는 캘리브레이션 알고리즘을 선택하고, 선택된 캘리브레이션 알고리즘과 촬영된 캘리브레이션 패턴을 이용하여 카메라 캘리브레이션을 수행함으로써, 카메라 캘리브레이션의 수행 결과를 제공한다(S440, S450).
반면, 단계 S430의 판단 결과, 촬영된 캘리브레이션 패턴이 저장된 캘리브레이션 패턴들과 상이한 경우 즉, 패턴 인식 실패의 경우 도 5에 도시된 바와 같이, 캘리브레이션 알고리즘들 각각과 촬영된 캘리브레이션 패턴을 이용하여 캘리브레이션 알고리즘들 각각에 대한 캘리브레이션 결과 값을 계산하고, 계산된 캘리브레이션 결과 값 중 가장 좋은 캘리브레이션 결과 값에 해당하는 캘리브레이션 알고리즘을 선택한다(S510, S520).
이때, 단계 S520은. 캘리브레이션 결과 값에 포함되는 캘리브레이션 에러 값 중 가장 작은 캘리브레이션 에러 값을 가지는 캘리브레이션 알고리즘을 선택할 수 있다.
단계 S520에 의해 어느 하나의 캘리브레이션 알고리즘이 선택되면, 선택된 캘리브레이션 알고리즘과 촬영된 캘리브레이션 패턴을 이용하여 카메라 캘리브레이션을 수행함으로써, 카메라 캘리브레이션의 수행 결과를 제공한다(S530).
나아가, 본 개시의 실시 예에 따른 카메라 캘리브레이션 방법은, 도 4의 단계 S430을 통해 저장된 캘리브레이션 패턴과 일치하는 캘리브레이션 패턴이 촬영된 경우로 판단하였으나, 저장된 캘리브레이션 패턴과 상이한 캘리브레이션 패턴이 촬영된 경우에도 유사도를 이용하여 저장된 캘리브레이션 패턴에 대응하는 캘리브레이션 알고리즘을 선택함으로써, 카메라 캘리브레이션을 수행할 수도 있다. 예컨대, 본 개시의 카메라 캘리브레이션 방법은, 저장된 캘리브레이션 패턴과 상이한 캘리브레이션 패턴이 촬영되더라도, 촬영된 캘리브레이션 패턴과 저장된 복수의 캘리브레이션 패턴들 각각의 유사도를 계산하고, 촬영된 캘리브레이션 패턴을 계산된 유사도 중 가장 높은 유사도의 캘리브레이션 패턴으로 인식하며, 가장 높은 유사도의 캘리브레이션 패턴에 대응하는 캘리브레이션 알고리즘과 촬영된 캘리브레이션 패턴을 이용하여 카메라 캘리브레이션을 수행할 수도 있다. 물론, 이 경우, 상이한 캘리브레이션 패턴과 유사도가 가장 높은 캘리브레이션 알고리즘을 이용하여 카메라 캘리브레이션을 수행하기 때문에 캘리브레이션 에러가 일부 발생할 수도 있다.
비록, 도 4와 도 5의 방법에서 그 설명이 생략되더라도, 본 개시의 실시 예에 따른 방법은 도 1 내지 도 3의 장치에서 설명한 모든 내용을 포함할 수 있으며, 이는 해당 기술 분야에 종사하는 당업자에게 있어서 자명하다.
도 6은 본 개시의 일 실시 예에 따른 카메라 캘리브레이션 장치가 적용되는 디바이스의 구성도를 나타낸 것이다.
예를 들어, 도 1의 본 개시의 일 실시 예에 따른 카메라 캘리브레이션 장치는 도 6의 디바이스(1600)가 될 수 있다. 도 6을 참조하면, 디바이스(1600)는 메모리(1602), 프로세서(1603), 송수신부(1604) 및 주변 장치(1601)를 포함할 수 있다. 또한, 일 예로, 디바이스(1600)는 다른 구성을 더 포함할 수 있으며, 상술한 실시 예로 한정되지 않는다. 이때, 상기 디바이스(1600)는 예를 들어 이동 가능한 사용자 단말기(예를 들어, 스마트 폰, 노트북, 웨어러블 기기 등) 이거나 고정된 관리 장치(예를 들어, 서버, PC 등) 일 수 있다.
보다 상세하게는, 도 6의 디바이스(1600)는 카메라 장치, 지능형 영상 시스템, CCTV 등과 같은 예시적인 하드웨어/소프트웨어 아키텍처일 수 있다. 이때, 일 예로, 메모리(1602)는 비이동식 메모리 또는 이동식 메모리일 수 있다. 또한, 일 예로, 주변 장치(1601)는 디스플레이, GPS 또는 다른 주변기기들을 포함할 수 있으며, 상술한 실시 예로 한정되지 않는다.
또한, 일 예로, 상술한 디바이스(1600)는 상기 송수신부(1604)와 같이 통신 회로를 포함할 수 있으며, 이에 기초하여 외부 디바이스와 통신을 수행할 수 있다.
또한, 일 예로, 프로세서(1603)는 범용 프로세서, DSP(digital signal processor), DSP 코어, 제어기, 마이크로제어기, ASIC들(Application Specific Integrated Circuits), FPGA(Field Programmable Gate Array) 회로들, 임의의 다른 유형의 IC(integrated circuit) 및 상태 머신과 관련되는 하나 이상의 마이크로프로세서 중 적어도 하나 이상일 수 있다. 즉, 상술한 디바이스(1600)를 제어하기 위한 제어 역할을 수행하는 하드웨어적/소프트웨어적 구성일 수 있다. 또한 상기 프로세서(1603)는 전술한 도 1의 인식부(130), 선택부(140), 수행부(150)의 기능을 모듈화하여 수행할 수 있다.
이때, 프로세서(1603)는 카메라 캘리브레이션 장치의 다양한 필수 기능들을 수행하기 위해 메모리(1602)에 저장된 컴퓨터 실행가능한 명령어들을 실행할 수 있다. 일 예로, 프로세서(1603)는 신호 코딩, 데이터 처리, 전력 제어, 입출력 처리 및 통신 동작 중 적어도 어느 하나를 제어할 수 있다. 또한, 프로세서(1603)는 물리 계층, MAC 계층, 어플리케이션 계층들을 제어할 수 있다. 또한, 일 예로, 프로세서(1603)는 액세스 계층 및/또는 어플리케이션 계층 등에서 인증 및 보안 절차를 수행할 수 있으며, 상술한 실시 예로 한정되지 않는다.
일 예로, 프로세서(1603)는 송수신부(1604)를 통해 다른 장치들과 통신을 수행할 수 있다. 일 예로, 프로세서(1603)는 컴퓨터 실행가능한 명령어들의 실행을 통해 카메라 캘리브레이션 장치가 네트워크를 통해 다른 장치들과 통신을 수행하게 제어할 수 있다. 즉, 본 개시에서 수행되는 통신이 제어될 수 있다. 일 예로, 송수신부(1604)는 안테나를 통해 RF 신호를 전송할 수 있으며, 다양한 통신망에 기초하여 신호를 전송할 수 있다.
또한, 일 예로, 안테나 기술로서 MIMO 기술, 빔포밍 등이 적용될 수 있으며, 상술한 실시 예로 한정되지 않는다. 또한, 송수신부(1604)를 통해 송수신한 신호는 변조 및 복조되어 프로세서(1603)에 의해 제어될 수 있으며, 상술한 실시 예로 한정되지 않는다.
본 개시의 예시적인 방법들은 설명의 명확성을 위해서 동작의 시리즈로 표현되어 있지만, 이는 단계가 수행되는 순서를 제한하기 위한 것은 아니며, 필요한 경우에는 각각의 단계가 동시에 또는 상이한 순서로 수행될 수도 있다. 본 개시에 따른 방법을 구현하기 위해서, 예시하는 단계에 추가적으로 다른 단계를 포함하거나, 일부의 단계를 제외하고 나머지 단계를 포함하거나, 또는 일부의 단계를 제외하고 추가적인 다른 단계를 포함할 수도 있다.
본 개시의 다양한 실시 예는 모든 가능한 조합을 나열한 것이 아니고 본 개시의 대표적인 양상을 설명하기 위한 것이며, 다양한 실시 예에서 설명하는 사항들은 독립적으로 적용되거나 또는 둘 이상의 조합으로 적용될 수도 있다.
또한, 본 개시의 다양한 실시 예는 하드웨어, 펌웨어(firmware), 소프트웨어, 또는 그들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 범용 프로세서(general processor), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.
본 개시의 범위는 다양한 실시 예의 방법에 따른 동작이 장치 또는 컴퓨터 상에서 실행되도록 하는 소프트웨어 또는 머신-실행가능한 명령들(예를 들어, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 또는 명령 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 비-일시적 컴퓨터-판독가능 매체(non-transitory computer-readable medium)를 포함한다.

Claims (12)

  1. 촬영된 캘리브레이션 패턴을 인식하는 인식부;
    미리 설정된 복수의 캘리브레이션 알고리즘들 중 상기 인식된 캘리브레이션 패턴에 대응하는 캘리브레이션 알고리즘을 선택하는 선택부; 및
    상기 선택된 캘리브레이션 알고리즘과 상기 촬영된 캘리브레이션 패턴을 이용하여 카메라 캘리브레이션을 수행하는 수행부
    를 포함하는, 카메라 캘리브레이션 장치.
  2. 제1항에 있어서,
    상기 인식부는,
    미리 저장된 복수의 캘리브레이션 패턴들과 상기 촬영된 캘리브레이션 패턴 간의 유사도를 계산하고, 가장 높은 유사도의 캘리브레이션 패턴을 상기 촬영된 캘리브레이션 패턴으로 인식하며,
    상기 선택부는,
    상기 가장 높은 유사도의 캘리브레이션 패턴에 대응하는 캘리브레이션 알고리즘을 선택하는, 카메라 캘리브레이션 장치.
  3. 제2항에 있어서,
    상기 선택부는,
    상기 계산된 유사도 중 미리 설정된 기준 유사도 이상의 유사도가 있는지 판단하고, 상기 기준 유사도 이상의 유사도가 있는 경우 상기 가장 높은 유사도의 캘리브레이션 패턴을 상기 촬영된 캘리브레이션 패턴으로 인식하는, 카메라 캘리브레이션 장치.
  4. 제1항에 있어서,
    상기 인식부는,
    상기 촬영된 캘리브레이션 패턴의 특징점을 추출하고, 상기 추출된 특징점과 미리 저장된 복수의 캘리브레이션 패턴들 각각의 특징점을 비교함으로써, 상기 복수의 캘리브레이션 패턴들 중 상기 촬영된 캘리브레이션 패턴과 가장 유사한 캘리브레이션 패턴을 인식하는, 카메라 캘리브레이션 장치.
  5. 제1항에 있어서,
    상기 카메라 캘리브레이션에 대한 수행 결과를 제공하는 제공부
    를 더 포함하는, 카메라 캘리브레이션 장치.
  6. 촬영된 캘리브레이션 패턴과 미리 저장된 복수의 캘리브레이션 패턴들을 비교하여 상기 촬영된 캘리브레이션 패턴을 인식하는 인식부;
    상기 복수의 캘리브레이션 패턴들 중 상기 촬영된 캘리브레이션 패턴에 대응하는 캘리브레이션 패턴이 존재하지 않는 경우, 미리 설정된 캘리브레이션 알고리즘들 각각과 상기 촬영된 캘리브레이션 패턴을 이용하여 상기 캘리브레이션 알고리즘들 각각에 대한 캘리브레이션 결과 값을 계산하는 계산부;
    상기 계산된 캘리브레이션 결과 값 중 가장 좋은 캘리브레이션 결과 값에 해당하는 캘리브레이션 알고리즘을 선택하는 선택부; 및
    상기 선택된 캘리브레이션 알고리즘과 상기 촬영된 캘리브레이션 패턴을 이용하여 카메라 캘리브레이션을 수행하는 수행부
    를 포함하는, 카메라 캘리브레이션 장치.
  7. 제6항에 있어서,
    상기 선택부는,
    상기 캘리브레이션 결과 값에 포함되는 캘리브레이션 에러 값 중 가장 작은 캘리브레이션 에러 값을 가지는 캘리브레이션 알고리즘을 선택하는, 카메라 캘리브레이션 장치.
  8. 촬영된 캘리브레이션 패턴과 미리 저장된 복수의 캘리브레이션 패턴들을 비교하여 상기 촬영된 캘리브레이션 패턴을 인식하는 단계;
    미리 설정된 복수의 캘리브레이션 알고리즘들 중 상기 인식된 캘리브레이션 패턴에 대응하는 캘리브레이션 알고리즘을 선택하는 단계; 및
    상기 선택된 캘리브레이션 알고리즘과 상기 촬영된 캘리브레이션 패턴을 이용하여 카메라 캘리브레이션을 수행하는 단계
    를 포함하는, 카메라 캘리브레이션 방법.
  9. 제8항에 있어서,
    상기 촬영된 캘리브레이션 패턴을 인식하는 단계는,
    상기 복수의 캘리브레이션 패턴들과 상기 촬영된 캘리브레이션 패턴 간의 유사도를 계산하고, 가장 높은 유사도의 캘리브레이션 패턴을 상기 촬영된 캘리브레이션 패턴으로 인식하는, 카메라 캘리브레이션 방법.
  10. 제8항에 있어서,
    상기 촬영된 캘리브레이션 패턴을 인식하는 단계는,
    상기 촬영된 캘리브레이션 패턴의 특징점을 추출하고, 상기 추출된 특징점과 상기 복수의 캘리브레이션 패턴들 각각의 특징점을 비교함으로써, 상기 복수의 캘리브레이션 패턴들 중 상기 촬영된 캘리브레이션 패턴과 가장 유사한 캘리브레이션 패턴을 인식하는, 카메라 캘리브레이션 방법.
  11. 제8항에 있어서,
    상기 복수의 캘리브레이션 패턴들 중 상기 촬영된 캘리브레이션 패턴에 대응하는 캘리브레이션 패턴이 존재하는지 판단하는 단계
    를 더 포함하고,
    상기 캘리브레이션 알고리즘을 선택하는 단계는,
    상기 촬영된 캘리브레이션 패턴에 대응하는 캘리브레이션 패턴이 존재하는 경우, 상기 인식된 캘리브레이션 패턴에 대응하는 캘리브레이션 알고리즘을 선택하는, 카메라 캘리브레이션 방법.
  12. 제11항에 있어서,
    상기 촬영된 캘리브레이션 패턴에 대응하는 캘리브레이션 패턴이 존재하지 않는 경우, 상기 캘리브레이션 알고리즘들 각각과 상기 촬영된 캘리브레이션 패턴을 이용하여 상기 캘리브레이션 알고리즘들 각각에 대한 캘리브레이션 결과 값을 계산하는 단계;
    상기 계산된 캘리브레이션 결과 값 중 가장 좋은 캘리브레이션 결과 값에 해당하는 캘리브레이션 알고리즘을 선택하는 단계; 및
    상기 가장 좋은 캘리브레이션 결과 값에 해당하는 캘리브레이션 알고리즘과 상기 촬영된 캘리브레이션 패턴을 이용하여 카메라 캘리브레이션을 수행하는 단계
    를 더 포함하는, 카메라 캘리브레이션 방법.
PCT/KR2022/017953 2022-08-09 2022-11-15 캘리브레이션 패턴의 자동 인식을 이용한 카메라 캘리브레이션 장치 및 방법 WO2024034738A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2022-0099072 2022-08-09
KR1020220099072A KR20240020850A (ko) 2022-08-09 2022-08-09 캘리브레이션 패턴의 자동 인식을 이용한 카메라 캘리브레이션 장치 및 방법

Publications (1)

Publication Number Publication Date
WO2024034738A1 true WO2024034738A1 (ko) 2024-02-15

Family

ID=89851856

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/017953 WO2024034738A1 (ko) 2022-08-09 2022-11-15 캘리브레이션 패턴의 자동 인식을 이용한 카메라 캘리브레이션 장치 및 방법

Country Status (2)

Country Link
KR (1) KR20240020850A (ko)
WO (1) WO2024034738A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06325154A (ja) * 1993-05-14 1994-11-25 Omron Corp 自動キャリブレーション装置
JP2008289880A (ja) * 2007-05-23 2008-12-04 General Electric Co <Ge> X線システムにおけるホットスワップ可搬型検出器のための方法と装置
JP2009036589A (ja) * 2007-07-31 2009-02-19 Omron Corp 校正用ターゲット、校正支援装置、校正支援方法、および校正支援プログラム
KR101691880B1 (ko) * 2015-09-23 2017-01-03 (주) 이즈커뮤니케이션즈 자동 캘리브레이션 기능이 구비된 인터액티브 시스템 및 인터액티브 시스템의 자동 캘리브레이션 방법
CN113034604A (zh) * 2019-12-25 2021-06-25 南京极智嘉机器人有限公司 标定系统、方法及自导引机器人

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06325154A (ja) * 1993-05-14 1994-11-25 Omron Corp 自動キャリブレーション装置
JP2008289880A (ja) * 2007-05-23 2008-12-04 General Electric Co <Ge> X線システムにおけるホットスワップ可搬型検出器のための方法と装置
JP2009036589A (ja) * 2007-07-31 2009-02-19 Omron Corp 校正用ターゲット、校正支援装置、校正支援方法、および校正支援プログラム
KR101691880B1 (ko) * 2015-09-23 2017-01-03 (주) 이즈커뮤니케이션즈 자동 캘리브레이션 기능이 구비된 인터액티브 시스템 및 인터액티브 시스템의 자동 캘리브레이션 방법
CN113034604A (zh) * 2019-12-25 2021-06-25 南京极智嘉机器人有限公司 标定系统、方法及自导引机器人

Also Published As

Publication number Publication date
KR20240020850A (ko) 2024-02-16

Similar Documents

Publication Publication Date Title
WO2019221451A1 (en) Method and an electronic device connecting plurality of electronic devices to server through hub
WO2018084516A1 (ko) 전지 장치, 디스플레이 장치 및 그의 제어 방법
WO2020027607A1 (ko) 객체 탐지 장치 및 제어 방법
WO2014133251A1 (ko) 엘에스에이치 알고리즘의 자료조회결과의 특징점을 이용한 매칭포인트 추출시스템 및 그 방법
WO2015160052A1 (ko) 광각 렌즈 이미지 보정 방법 및 그 장치
WO2020101147A1 (ko) Ieee 802.11 표준에 정의된 tdls 세션을 이용하여 외부 전자 장치와 무선 통신 채널을 통해 연결되는 전자 장치
WO2019088335A1 (ko) 지능형 협업 서버, 시스템 및 이의 협업 기반 분석 방법
WO2020197070A1 (en) Electronic device performing function according to gesture input and operation method thereof
WO2019172518A1 (ko) 안테나 어레이의 빔 인덱스를 결정하기 위한 장치 및 방법
TW202010291A (zh) 交換器、識別電纜匹配狀態的方法以及非暫態性機器可讀媒體
WO2024034738A1 (ko) 캘리브레이션 패턴의 자동 인식을 이용한 카메라 캘리브레이션 장치 및 방법
WO2020256517A2 (ko) 전방위 화상정보 기반의 자동위상 매핑 처리 방법 및 그 시스템
WO2015056893A1 (en) Image processing apparatus and control method thereof
WO2019107975A1 (en) Electronic device shooting image and method for displaying the image
WO2021060943A1 (en) Electronic device for identifying external electronic device and method of operating same
WO2021045511A1 (en) Apparatus and methods for camera selection in a multi-camera
WO2021101014A1 (ko) 패킷 전달을 제어하는 전자 장치 및 그의 동작 방법
WO2014035050A1 (ko) 영상 밝기 조절 방법 및 그 장치와, 스테레오 카메라
WO2018038300A1 (ko) 이미지 제공 장치, 방법 및 컴퓨터 프로그램
WO2022231316A1 (ko) 카메라 각도 변경을 자동 보정하는 무인 주차 관리 시스템 및 그 방법
WO2021071258A1 (ko) 인공지능 기반의 휴대용 보안영상 학습장치 및 방법
WO2022025630A1 (ko) 거리 센서를 포함하는 전자 장치 및 오토 포커스 수행 방법
WO2022045819A1 (en) Electronic device for providing augmented-reality content and operation method thereof
WO2022030943A1 (ko) 딥러닝에 기반한 이미지 분할 장치 및 방법
WO2021235884A1 (ko) Awb를 수행하여 이미지를 생성하는 전자 장치 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22955110

Country of ref document: EP

Kind code of ref document: A1