WO2020036398A1 - 센싱 방법 및 장치 - Google Patents

센싱 방법 및 장치 Download PDF

Info

Publication number
WO2020036398A1
WO2020036398A1 PCT/KR2019/010256 KR2019010256W WO2020036398A1 WO 2020036398 A1 WO2020036398 A1 WO 2020036398A1 KR 2019010256 W KR2019010256 W KR 2019010256W WO 2020036398 A1 WO2020036398 A1 WO 2020036398A1
Authority
WO
WIPO (PCT)
Prior art keywords
distance information
pattern
pattern image
feature point
color gamut
Prior art date
Application number
PCT/KR2019/010256
Other languages
English (en)
French (fr)
Inventor
박정아
마종현
이승원
Original Assignee
엘지이노텍 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지이노텍 주식회사 filed Critical 엘지이노텍 주식회사
Priority to US17/265,271 priority Critical patent/US20210304439A1/en
Priority to CN201980053977.0A priority patent/CN112567261A/zh
Publication of WO2020036398A1 publication Critical patent/WO2020036398A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • G06T2207/30208Marker matrix

Definitions

  • the present disclosure discloses a method and apparatus for sensing in accordance with one or more embodiments.
  • time of flight refers to a principle of measuring a distance by measuring a time difference between a point of time when light is output and a point of time of receiving light reflected from an object and returning, and the TOF technology is simple to implement. Therefore, it is used in various fields such as aviation, shipbuilding, civil engineering, camera and surveying.
  • the present disclosure can provide a method and apparatus for sensing light according to one or more embodiments. Specifically, a method and apparatus for performing calibration or calibration in a sensing device is disclosed. In addition, a pattern for performing calibration or calibration may be disclosed.
  • the sensing device includes a receiver for receiving distance information on a feature point indicated by a repeating shape included in a pattern image; A sensor for acquiring a plurality of pattern images through a plurality of imaging of the pattern image from different angles, determining the feature points from the plurality of pattern images, and sensing distance information on the feature points; And a processor configured to compare the received distance information with the sensed distance information to determine a correction value used when sensing the distance information, wherein the pattern image includes a second color gamut and a first color gamut. And the entire area of the overlapping image in which the plurality of pattern images are overlapped may be determined as at least one first color area.
  • the pattern image may include a pattern in which two sectors of the origin contact each other are repeated.
  • the pattern image may include a pattern in which dots are repeatedly arranged at predetermined intervals.
  • the pattern image may include a first single closed curve including a plurality of angles and a shape of a curve, and a pattern in which a second single closed curve included in the first single closed curve is repeated.
  • the region between the first single closed curve and the second single closed curve may be colored, and the region inside the second single closed curve may be colorless.
  • the sensing device includes a receiver for receiving distance information on a feature point indicated by a repeating shape included in a pattern image; A sensor for acquiring a plurality of pattern images through a plurality of imaging of the pattern image from different angles, determining the feature points from the plurality of pattern images, and sensing distance information on the feature points; And a processor configured to compare the received distance information with the sensed distance information to determine a correction value used when sensing the distance information, wherein the pattern image repeats two fan-shaped shapes whose origins contact each other. It may include a pattern.
  • a sensing device includes: a receiver configured to receive distance information on a feature point indicated by a repeating shape included in a pattern image; A sensor for acquiring a plurality of pattern images through a plurality of imaging of the pattern image from different angles, determining the feature points from the plurality of pattern images, and sensing distance information on the feature points; And a processor configured to compare the received distance information with the sensed distance information and determine a correction value used when sensing the distance information, wherein the pattern image is repeatedly arranged at predetermined intervals. It may include a pattern.
  • the sensing device includes a receiver for receiving distance information on a feature point indicated by a repeating shape included in a pattern image; A sensor for acquiring a plurality of pattern images through a plurality of imaging of the pattern image from different angles, determining the feature points from the plurality of pattern images, and sensing distance information on the feature points; And a processor configured to compare the received distance information with the sensed distance information to determine a correction value used when sensing the distance information, wherein the pattern image comprises a first single closed curve including a plurality of angles. And a shape of a curve and a second single closed curve included in the first single closed curve may be repeated.
  • the region between the first single closed curve and the second single closed curve may be colored, and the region inside the second single closed curve may be colorless.
  • a sensing method includes receiving distance information on a feature point indicated by a repeating shape included in a pattern image; Acquiring a plurality of pattern images through a plurality of imaging of the pattern image at different angles; Determining the feature point from the plurality of pattern images and sensing distance information on the feature point; And comparing the received distance information with the sensed distance information to determine a correction value used when sensing the distance information, wherein the pattern image includes a second color gamut and a first color gamut. And the entire area of the overlapping image in which the plurality of pattern images are overlapped may be determined as at least one first color area.
  • a sixth aspect may provide a computer readable recording medium having recorded thereon a program for executing a method according to the fifth aspect on a computer.
  • the calibration apparatus includes a memory configured to store distance information on a feature point indicated by a repeating shape included in a pattern image;
  • a processor configured to receive sensed distance information on feature points included in a plurality of pattern images obtained by imaging the pattern image at different angles, and to compare the stored distance information with the sensed distance information to determine a correction value;
  • the pattern image includes a first color gamut and a second color gamut, wherein a reflectance of the first color gamut is greater than a reflectance of the second color gamut, and the entirety of the overlapping image in which the plurality of pattern images are superimposed An area may be determined at least once as the first color area.
  • the apparatus may further include a motor for rotating the camera module for capturing the pattern image.
  • the present disclosure can provide a method and apparatus for sensing light according to one or more embodiments.
  • FIG. 1 is a conceptual diagram illustrating an example in which a sensing device senses and operates a pattern image according to an exemplary embodiment.
  • FIG. 2 is a block diagram illustrating an example in which a sensing device senses and operates an inclined pattern image.
  • FIG. 3 is a diagram illustrating an example of a pattern image including a dot shape according to an exemplary embodiment.
  • FIG. 4 is a diagram illustrating an example of a pattern image including a fan shape according to an exemplary embodiment.
  • FIG. 5 is a diagram illustrating an example of a pattern image including a plurality of closed curve shapes, according to an exemplary embodiment.
  • FIG. 6 is a diagram illustrating an example of acquiring a plurality of pattern images through multiple imaging of a pattern image, according to an exemplary embodiment.
  • FIG. 7 is a flowchart illustrating an example in which a sensing device performs calibration.
  • FIG. 8 illustrates an example in which a sensing device extracts a calibration value for measuring and correcting an error generated when assembling a sensor and a lens, according to an exemplary embodiment.
  • FIG 9 illustrates an example in which a sensing device corrects a distance error for each pixel, according to an exemplary embodiment.
  • FIG. 10 illustrates an example of correcting a distance error for each distance by a sensing device according to an exemplary embodiment.
  • FIG. 11 is a block diagram illustrating an example in which a calibration device operates in conjunction with a camera module.
  • FIG. 1 is a conceptual diagram illustrating an example in which the sensing device 100 senses and operates a pattern image 130 according to an embodiment.
  • the sensing device 100 may acquire image information and / or distance information about an object (eg, the pattern image 130).
  • the sensing device 100 may not only acquire image information about the pattern image 130, but also obtain distance information on each point of the pattern image 130.
  • the sensing device 100 may obtain distance information about the pattern image 130 using a time of flight (TOF) method.
  • TOF time of flight
  • the sensing device 100 may determine a feature point included in the pattern image 130 through image information obtained from the pattern image 130, and sense the distance to the feature point in a TOF method.
  • the sensing device 100 may receive information on the pattern image 130 as a separate route. For example, distance information on a feature point of the pattern image 130 may be received through communication.
  • the sensing device 100 may determine whether the distance information acquired by the sensing device 100 is correct by comparing the sensed distance information with the received distance information. Alternatively, the sensing device 100 may compare the sensed distance information with the received distance information and determine a correction value if correction is necessary.
  • FIG. 2 is a block diagram illustrating an example in which the sensing device 100 senses and operates an inclined pattern image 130.
  • the sensing device 100 may include a light source 110, a processor 1000, a sensor 120, and a receiver 210.
  • the light source 110 and the sensor 120 may be components of the camera module 1150.
  • the sensing device 100 may further include a filter (not shown).
  • the sensing device 100 may further include a filter (not shown).
  • the light source 110 may be omitted in the sensing device 100.
  • the pattern image 130 may include a repeating shape.
  • the pattern image 130 may include a pattern in which two sectors of the origin contact each other are repeated.
  • the pattern image 130 may include a pattern in which dots are repeatedly arranged at predetermined intervals.
  • the pattern image 130 may include a pattern in which a first single closed curve including a plurality of angles and a curved shape and a second single closed curve included in the first single closed curve are repeated.
  • the sensor 120 may acquire the plurality of pattern images by capturing the pattern image from a plurality of times at different angles.
  • the sensing device 100 may acquire four different pattern images by capturing the pattern image 130 while rotating clockwise by 90 degrees with respect to the axis of the sensor 120. Since the pattern image 130 is inclined at an angle of ⁇ , the distance sensed at the same pixel in the sensor 120 may be determined differently in four different pattern images.
  • the senor 120 may determine a feature point from a plurality of pattern images and sense distance information about the feature point.
  • the processor 1000 may determine a feature point with a predetermined algorithm according to a pattern image. For example, when the pattern image 130 includes dots repeatedly arranged at predetermined intervals, the processor 1000 may determine the center point of each dot as the feature point. As another example, when the pattern image 130 includes a pattern in which two fan shapes of which the origin touches each other are repeated, the processor 1000 may determine an origin point where the two fan shapes abut as the feature point. As another example, when the pattern image 130 includes a first single closed curve including a plurality of angles and a shape of a curve and a pattern in which the second single closed curve included in the first single closed curve is repeated, the processor 1000 may be configured. The point where the plurality of first single closed curves abuts may be determined as a feature point.
  • the processor 1000 may compare the received distance information with the sensed distance information to determine a correction value used when sensing the distance information.
  • the processor 1000 may receive distance information about one or more feature points.
  • the processor 1000 may sense distance information about one or more feature points.
  • the processor 1000 may determine the correction value by comparing the received distance information with the sensed distance information.
  • the received distance information may be measured distance information from the sensing device 100 to a feature point. Therefore, the processor 1000 may determine a difference between the received distance value and the sensed distance value as an error value.
  • the processor 1000 may determine a correction value for correcting the determined error value based on the error value. For example, the correction value may be determined such that the error value is zero.
  • the correction value means any value used for the correction of the distance determining device according to the TOF method, such as a value for adjusting the lens position and a value for adjusting the sensor position.
  • the receiver 210 may receive information from the external device 220.
  • the receiver 210 may receive various information from the external device 220 through a predetermined communication scheme.
  • the receiver 210 may receive distance information on the feature point indicated by the repetitive shape included in the pattern image from the external device 220.
  • the distance information on the feature point may include measurement information.
  • the received distance information may indicate an ideal distance value from the sensing device 100 to the feature point.
  • the pattern image 130 may include a second color gamut and a first color gamut, and the entire area of the overlapping image in which the plurality of pattern images are overlapped may be determined as at least once as the first color gamut.
  • a plurality of imaging may be performed while the sensing device 100 rotates while the pattern image 130 is fixed.
  • the pattern image 130 is divided into a first area and a second area.
  • the first area is located on the left side in the first pattern image acquired by the first photographing, on the upper side in the second pattern image acquired by the second photographing, and on the right side in the third pattern image acquired by the third photographing.
  • the image may be positioned at the lower side.
  • the second area is located on the right side in the first pattern image acquired by the first photographing, on the lower side in the second pattern image acquired by the second photographing, and on the left side in the third pattern image acquired by the third photographing.
  • the image may be positioned above the image.
  • both the first region in the first pattern image and the second region in the third pattern image are located on the left side, and the first region in the second pattern image and the second region in the fourth pattern image are both on the upper side. Is located at both the first region in the third pattern image and the second region in the first pattern image are all on the right, and both the first region in the fourth pattern image and the second region in the second pattern image are lower It can be located at However, the entire area of the overlapping image in which the first pattern image to the fourth pattern image are all overlapped may be determined as at least once as the first color area. For example, at least one of the left, upper, right, and lower sides of the first to fourth pattern images may be determined as the first color gamut.
  • the reflectance of the first color gamut may be greater than the reflectance of the second color gamut.
  • the first color gamut may be white and the second color gamut may be black.
  • the reflectance of the first color gamut may be greater than or equal to the first value and the reflectance of the second color gamut may be equal to or less than the second value.
  • the pattern image 130 includes a first color gamut and a second color gamut, and the reflectance of the first color gamut is greater than the reflectance of the second gamut, and the entire area of the overlapping image in which the plurality of pattern images are overlapped is at least once It may be determined as the first color gamut.
  • the pattern image 130 may be composed of a plurality of cells, and the ratio of the first color gamut and the second color gamut in each cell may be greater than or equal to a predetermined value.
  • the first color gamut in each cell may be at least twice as large as the second color gamut.
  • a display (not shown) according to an embodiment may display an image acquired through control of the processor 1000, and the display (not shown) according to an embodiment may include a liquid crystal display and a thin film transistor liquid crystal. And a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, a 3D display, an electrophoretic display, and the like.
  • the receiver 210 may communicate with the external device 220 in a predetermined manner, and both wired and wireless methods may be used.
  • the receiver 210 may communicate with the external device 220 using a Wi-Fi chip, a Bluetooth chip, or the like.
  • the Wi-Fi chip and the Bluetooth chip may communicate with each other via Wi-Fi and Bluetooth.
  • various connection information such as SSID and session key may be transmitted and received first, and then various communication information may be transmitted and received by using the same.
  • the wireless communication chip may perform communication according to various communication standards such as IEEE, Zigbee, 3rd Generation (3G), 3rd Generation Partnership Project (3GPP), Long Term Evolution (LTE), and the like.
  • the NFC chip may operate in a near field communication (NFC) method using a 13.56 MHz band among various RF-ID frequency bands such as 135 kHz, 13.56 MHz, 433 MHz, 860 to 960 MHz, and 2.45 GHz.
  • NFC near field communication
  • the sensing device 100 may determine the distance to the feature point for each of the obtained plurality of pattern images through sensing. For example, a case in which the sensing device 100 acquires the first to fourth pattern images by capturing the tilted pattern image 130 at intervals of 90 degrees will be described.
  • the sensing device 100 may determine and determine a correction value by sensing the distances to the feature points included in the first pattern image, by comparing the distances to the determined feature points with an ideal distance received from the external device 220. .
  • the operation may be performed on the second pattern image, the third pattern image, and the fourth pattern image. Since light is almost absorbed in the second area, the more the second area, the less information that the sensing device 100 can obtain. However, when the first pattern image to the fourth pattern image are overlapped, since the entire region is the first region at least once, there may be no region where information acquisition is blocked.
  • FIG. 3 is a diagram illustrating an example of a pattern image 300 including a dot shape according to an exemplary embodiment.
  • the pattern image 300 may include a pattern in which dots are repeatedly arranged at predetermined intervals.
  • the pattern image 300 may include a plurality of dots, and the sensing apparatus 100 may determine a center point of each dot as a feature point.
  • the sensing device 100 may determine the correction value by comparing the distance to the sensed feature point and the distance to the received feature point.
  • the sensing device 100 may determine a feature point. For example, the sensing device 100 may determine the center point of the dot shape sensed in the obtained pattern image 300 as the feature point. Since the second color gamut has a weaker intensity of light reflected than the first color gamut, the sensing device 100 determines the dot shape based on the difference in reflectance between the second color gamut and the first color gamut, The feature point can be determined by determining the center point.
  • FIG. 4 is a diagram illustrating an example of a pattern image 400 including a fan shape according to an exemplary embodiment.
  • the pattern image 400 may include a pattern in which two sectors 410 having origins contacted with each other are repeated.
  • the sensing device 100 may determine the origin 413 where the two fan shapes contact each other as a feature point.
  • the sensing device 100 may determine the correction value by comparing the distance from the sensing device 100 to the feature point 413 sensed from the sensing device 100 and the distance to the feature point 413 received from the sensing device 100.
  • the sensing device 100 may determine a feature point. For example, the sensing device 100 may determine, as a feature point, an origin point 413 where two fan shapes abut on the acquired pattern image 400. Since the second color gamut has a weaker intensity of light reflected than the first color gamut, the sensing device 100 determines a fan shape based on a difference between reflectances of the second color gamut and the first color gamut, and the two sectors. The feature point can be determined by determining the origin point 413 which the shape abuts.
  • the sensing device 100 may determine the feature point 413 by searching for an angled point.
  • the sensing apparatus 100 determines the first line segment 411 formed on the first color gamut and the second line segment 412 formed on the second color gamut, and the first line segment 411 and the second line segment The intersection 413 of 412 may be determined as the feature point 413.
  • the sensing device 100 may use a line segment longer than a preset value as the second line segment 412 formed on the second color gamut.
  • FIG. 5 is a diagram illustrating an example of a pattern image 500 including a plurality of closed curve shapes, according to an exemplary embodiment.
  • the pattern image 500 may include a first single closed curve (eg, a rectangle) including a plurality of angles and a pattern in which the second single closed curve (eg, a circle) included in the first single closed curve is repeated. Can be.
  • a first single closed curve eg, a rectangle
  • a pattern in which the second single closed curve eg, a circle
  • a single closed curve according to an embodiment refers to a closed figure in which a starting point and an ending point are the same when a point is taken on a straight line or a curve such as a polygon, a circle, an ellipse, and the like, but is not necessarily composed of a curve.
  • the pattern image 500 may include a pattern in which a shape represented by the first single closed curve and the second single closed curve included in the first single closed curve is repeated.
  • the region between the first single closed curve and the second single closed curve may be colored, and the region within the second single closed curve may be colorless.
  • the sensing device 100 may determine the points 513 and 523 where the plurality of first single closed curves abut as the feature points 513 and 523.
  • the sensing device 100 compares the distances from the sensing device 100 to the feature points 513 and 523 sensed and the distances to the feature points 513 and 523 received from the sensing device 100. You can decide.
  • the sensing device 100 may determine the feature points 513 and 523 according to a preset algorithm. For example, the sensing device 100 may determine, as the feature points 513 and 523, the points 513 and 523 where the plurality of first single closed curves abut on the acquired pattern image 500. Since the second color gamut has a weaker intensity of light reflected than the first color gamut, the sensing apparatus 100 determines the shape of the first single closed curve based on the difference in reflectance between the second color gamut and the first color gamut. The feature points 513 and 523 can be determined by determining the points 513 and 523 where the two first single closed curves meet.
  • the sensing device 100 may determine the feature points 513 and 523 by searching for an angled point.
  • the sensing apparatus 100 determines the first line segments 512 and 521 formed on the first color gamut and the second line segments 511 and 522 formed on the second color gamut,
  • intersections 513 and 523 of the first line segments 512 and 521 and the second line segments 511 and 522 may be determined as the feature points 513 and 523.
  • the sensing device 100 may use a line segment longer than a predetermined value as the second line segments 511 and 522 formed on the second color gamut.
  • FIG. 6 is a diagram illustrating an example of acquiring a plurality of pattern images through multiple imaging of the pattern image 500, according to an exemplary embodiment.
  • the sensing device 100 acquires four different pattern images 610, 620, 630, and 640 by capturing the pattern image 500 while rotating clockwise by about 90 degrees with respect to the axis of the sensor 120. can do. Because the pattern image 500 is inclined at an angle of ⁇ , the distance sensed at the same pixel in the sensor 120 may be determined differently in four different pattern images 610, 620, 630, 640. .
  • the pattern image 500 includes a second color gamut and a first color gamut, and the entire area of the overlapped image 650 in which the plurality of pattern images 610, 620, 630, and 640 are overlapped is at least once the first color gamut. Area can be determined.
  • the overlapping image 650 may be an image representing a colorless area of the plurality of pattern images 610, 620, 630, and 640 at least once as the first color gamut.
  • FIG. 7 is a flowchart illustrating an example in which the sensing apparatus 100 performs calibration.
  • the sensing device 100 may obtain information from the pattern image.
  • the sensing apparatus 100 may acquire a plurality of different pattern images by photographing a pattern image a plurality of times.
  • the sensing device 100 may perform lens calibration.
  • a calibration value for measuring and correcting an error generated when assembling the sensor and the lens may be extracted.
  • Calibration may be an example of correction.
  • the sensing device 100 may correct the distance error for each pixel.
  • the sensing device 100 may correct the error generated when the pixels included in the sensor sense the distance by comparing the sensed distance information with the received distance information.
  • the sensing device 100 may store a correction value in a memory.
  • FIG. 8 illustrates an example in which the sensing device 100 extracts a calibration value for measuring and correcting an error generated when the sensor and the lens are assembled. Specifically, referring to FIG. 8, an example of correcting a focal point is illustrated.
  • the sensing device 100 may correct the error generated when the pixels included in the sensor sense the distance by comparing the received distance information with the sensed distance information.
  • FIG. 10 illustrates an example in which the sensing device 100 corrects a distance error for each distance.
  • the first graph 1010 represents a value obtained through a plurality of sensing. Specifically, the acquired value according to the sensing is indicated by a + sign.
  • the second graph 1020 may represent a fitted value based on the obtained information.
  • FIG. 11 is a block diagram illustrating an example in which the calibration device 1100 operates in conjunction with the camera module 1150.
  • the calibration device 1100 may include a fixing member 1110, a motor 1120, a processor 1130, and a memory 1140.
  • the calibration device 1100 may further include a pattern image 130.
  • some of the components shown in FIG. 11 may be omitted by those of ordinary skill in the art.
  • the fixing member 1110 may be omitted from the calibration device 1100.
  • the memory 1140 may store distance information on feature points indicated by a repeating shape included in a pattern image.
  • the camera module 1150 may acquire a plurality of pattern images by capturing the pattern image 130 from different angles.
  • the calibration device 1100 may receive sensed distance information about a feature point included in the plurality of pattern images from the camera module 1150.
  • the processor 1130 included in the calibration device 1100 may determine the correction value by comparing the distance information stored in the memory 1140 with the sensed distance information received from the camera module 1150.
  • the processor 1130 may determine a correction value for correcting a difference between the ideal distance value stored in the memory 1140 and the distance value according to the sensed distance information.
  • the motor 1120 may rotate the camera module 1150 under the control of the processor 1130.
  • the motor 1120 rotates the fixed camera module 1150 through the fixing member 1110 at intervals of 90 degrees according to the control of the processor 1130, thereby causing the camera module 1150 to pattern the image 130. May be captured a plurality of times at different angles to obtain a plurality of pattern images.
  • the above-described method can be written in a program that can be executed in a computer, it can be implemented in a general-purpose digital computer to operate the program using a computer-readable recording medium.
  • the structure of the data used in the above-described method can be recorded on the computer-readable recording medium through various means.
  • the computer-readable recording medium may include a storage medium such as a magnetic storage medium (eg, ROM, RAM, USB, floppy disk, hard disk, etc.), an optical reading medium (eg, CD-ROM, DVD, etc.). do.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Optics & Photonics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

일 실시 예에 따라, 패턴 이미지에 대한 촬상을 통해 특징점에 대한 거리 정보를 처리하는 센싱 방법 및 장치가 개시된다. 구체적으로, 패턴 이미지의 반복 형상을 적절히 구현함으로써, 센싱하는 정보의 양 및/또는 정확도를 향상시킬 수 있는 센싱 방법 및 장치가 개시된다.

Description

센싱 방법 및 장치
본 개시에서는 하나 이상의 실시 예에 따라 센싱하는 방법 및 장치가 개시된다.
광을 출력하여 객체에 반사시킴으로서 정보를 획득하는 장치가 여러 분야에서 이용되고 있다. 예를 들면, 3D 카메라에서부터 거리 측정 기법에 이르기 까지, 광을 출력하여 정보를 획득하는 기술은 여러 방식으로 이용되고 있다.
일 예로, TOF(Time of Flight)는 광이 출력된 시점과 객체에서 반사되어 되돌아온 수신광의 수신시점 사이의 시간차를 측정하여 거리를 측정하는 원리를 나타내는 용어로서, TOF 기술은 구현 방법이 간단하기 때문에 항공, 조선, 토목, 카메라, 측량 등 다양 한 분야에서 이용되고 있다.
또한 이와 관련하여 센싱 장치의 제조 과정에서 보정 또는 캘리브레이션(calibration)을 수행하는 구체적인 방법이 요구된다.
본 개시는 하나 이상의 실시 예에 따라 광을 센싱하는 방법 및 장치를 제공할 수 있다. 구체적으로, 센싱 장치에 있어서 보정 또는 캘리브레이션을 수행하는 방법 및 장치가 개시된다. 또한, 보정 또는 캘리브레이션을 수행하기 위한 패턴이 개시될 수 있다.
해결하려는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 통상의 기술자에게 자명한 범위 내에서 다양한 기술적 과제들이 더 포함될 수 있다.
제 1 측면에 따른 센싱 장치는 패턴 이미지에 포함되는 반복 형상이 나타내는 특징점에 대한 거리 정보를 수신하는 리시버; 상기 패턴 이미지를 서로 다른 각도에서 복수회의 촬상을 통해 복수개의 패턴 이미지들을 획득하고, 상기 복수개의 패턴 이미지들에서 상기 특징점을 결정하고, 상기 특징점에 대한 거리 정보를 센싱하는 센서; 및 상기 수신한 거리 정보와 상기 센싱된 거리 정보를 비교하여, 상기 거리 정보를 센싱할 때 이용되는 보정 값을 결정하는 프로세서;를 포함하고, 상기 패턴 이미지는 제 2 색 영역과 제 1 색 영역을 포함하고, 상기 복수개의 패턴 이미지들이 중첩된 중첩 이미지의 전체 영역은 적어도 한번은 제 1 색 영역으로 결정될 수 있다.
또한, 상기 패턴 이미지는 원점이 서로 맞닿은 2개의 부채꼴 형상이 반복되는 패턴을 포함할 수 있다.
또한, 상기 패턴 이미지는 도트가 기설정된 간격으로 반복적으로 배치된 패턴을 포함할 수 있다.
또한, 상기 패턴 이미지는 복수개의 각을 포함하는 제 1 단일 폐곡선과 곡선의 형상이고 상기 제 1 단일 폐곡선 내부에 포함된 제 2 단일 폐곡선이 반복되는 패턴을 포함할 수 있다.
또한, 상기 제 1 단일 폐곡선과 상기 제 2 단일 폐곡선의 사이 영역은 유색이고, 상기 제 2 단일 폐곡선 내부 영역은 무색일 수 있다.
제 2 측면에 따른 센싱 장치는 패턴 이미지에 포함되는 반복 형상이 나타내는 특징점에 대한 거리 정보를 수신하는 리시버; 상기 패턴 이미지를 서로 다른 각도에서 복수회의 촬상을 통해 복수개의 패턴 이미지들을 획득하고, 상기 복수개의 패턴 이미지들에서 상기 특징점을 결정하고, 상기 특징점에 대한 거리 정보를 센싱하는 센서; 및 상기 수신한 거리 정보와 상기 센싱된 거리 정보를 비교하여, 상기 거리 정보를 센싱할 때 이용되는 보정 값을 결정하는 프로세서;를 포함하고, 상기 패턴 이미지는 원점이 서로 맞닿은 2개의 부채꼴 형상이 반복되는 패턴을 포함할 수 있다.
제 3 측면에 따른 센싱 장치는 패턴 이미지에 포함되는 반복 형상이 나타내는 특징점에 대한 거리 정보를 수신하는 리시버; 상기 패턴 이미지를 서로 다른 각도에서 복수회의 촬상을 통해 복수개의 패턴 이미지들을 획득하고, 상기 복수개의 패턴 이미지들에서 상기 특징점을 결정하고, 상기 특징점에 대한 거리 정보를 센싱하는 센서; 및 상기 수신한 거리 정보와 상기 센싱된 거리 정보를 비교하여, 상기 거리 정보를 센싱할 때 이용되는 보정 값을 결정하는 프로세서;를 포함하고, 상기 패턴 이미지는 도트가 기설정된 간격으로 반복적으로 배치된 패턴을 포함할 수 있다.
제 4 측면에 따른 센싱 장치는 패턴 이미지에 포함되는 반복 형상이 나타내는 특징점에 대한 거리 정보를 수신하는 리시버; 상기 패턴 이미지를 서로 다른 각도에서 복수회의 촬상을 통해 복수개의 패턴 이미지들을 획득하고, 상기 복수개의 패턴 이미지들에서 상기 특징점을 결정하고, 상기 특징점에 대한 거리 정보를 센싱하는 센서; 및 상기 수신한 거리 정보와 상기 센싱된 거리 정보를 비교하여, 상기 거리 정보를 센싱할 때 이용되는 보정 값을 결정하는 프로세서;를 포함하고, 상기 패턴 이미지는 복수개의 각을 포함하는 제 1 단일 폐곡선과 곡선의 형상이고 상기 제 1 단일 폐곡선 내부에 포함된 제 2 단일 폐곡선이 반복되는 패턴을 포함할 수 있다.
또한, 상기 제 1 단일 폐곡선과 상기 제 2 단일 폐곡선의 사이 영역은 유색이고, 상기 제 2 단일 폐곡선 내부 영역은 무색일 수 있다.
제 5 측면에 따른 센싱 방법은 패턴 이미지에 포함되는 반복 형상이 나타내는 특징점에 대한 거리 정보를 수신하는 단계; 상기 패턴 이미지를 서로 다른 각도에서 복수회의 촬상을 통해 복수개의 패턴 이미지들을 획득하는 단계; 상기 복수개의 패턴 이미지들에서 상기 특징점을 결정하고, 상기 특징점에 대한 거리 정보를 센싱하는 단계; 및 상기 수신한 거리 정보와 상기 센싱된 거리 정보를 비교하여, 상기 거리 정보를 센싱할 때 이용되는 보정 값을 결정하는 단계;를 포함하고, 상기 패턴 이미지는 제 2 색 영역과 제 1 색 영역을 포함하고, 상기 복수개의 패턴 이미지들이 중첩된 중첩 이미지의 전체 영역은 적어도 한번은 제 1 색 영역으로 결정될 수 있다.
제 6 측면은 제 5 측면에 따른 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공할 수 있다.
제 7 측면에 따른 캘리브레이션 장치는 패턴 이미지에 포함되는 반복 형상이 나타내는 특징점에 대한 거리 정보를 저장하는 메모리; 서로 다른 각도에서 상기 패턴 이미지가 촬상되어 획득된 복수개의 패턴 이미지에 포함된 특징점에 대해 센싱된 거리 정보를 수신하고, 상기 저장된 거리 정보와 상기 센싱된 거리 정보를 비교하여 보정 값을 결정하는 프로세서를 포함하고, 상기 패턴 이미지는 제 1 색 영역과 제 2 색 영역을 포함하고, 상기 제 1 색 영역의 반사율은 상기 제 2 색 영역의 반사율보다 크고, 상기 복수개의 패턴 이미지들이 중첩된 중첩 이미지의 전체 영역은 적어도 한번은 상기 제 1 색 영역으로 결정될 수 있다.
또한, 상기 패턴 이미지를 촬상하는 카메라 모듈을 회전시키는 모터를 더 포함할 수 있다.
본 개시는 하나 이상의 실시 예에 따라 광을 센싱하는 방법 및 장치를 제공할 수 있다.
도 1은 일 실시 예에 따른 센싱 장치가 패턴 이미지를 센싱하여 동작하는 일 예를 나타내는 개념도이다.
도 2는 일 실시 예에 따른 센싱 장치가 기울어져있는 패턴 이미지를 센싱하여 동작하는 일 예를 나타내는 블록도이다.
도 3은 일 실시 예에 따라 도트 형상을 포함하는 패턴 이미지의 일 예를 나타내는 도면이다.
도 4는 일 실시 예에 따라 부채꼴 형상을 포함하는 패턴 이미지의 일 예를 나타내는 도면이다.
도 5는 일 실시 예에 따라 복수개의 폐곡선 형상을 포함하는 패턴 이미지의 일 예를 나타내는 도면이다.
도 6은 일 실시 예에 따라 패턴 이미지에 대한 복수회에 걸친 촬상을 통해 복수개의 패턴 이미지를 회득하는 일 예를 나타내는 도면이다.
도 7은 일 실시 예에 따라 센싱 장치가 캘리브레이션(calibration)을 수행하는 일 예를 나타내는 흐름도이다.
도 8은 일 실시 예에 따른 센싱 장치가 센서와 렌즈의 조립할 때 발생하는 오차를 측정하여 보정하기 위한 캘리브레이션 값을 추출하는 일 예를 도시한다.
도 9는 일 실시 예에 따른 센싱 장치가 픽셀별 거리 오차를 보정하는 일 예를 도시한다.
도 10은 일 실시 예에 따른 센싱 장치가 거리별로 거리 오차를 보정하는 일 예를 도시한다.
도 11은 일 실시 예에 따른 캘리브레이션 장치가 카메라 모듈과 연동하여 동작하는 일 예를 나타내는 블록도이다.
실시 예들에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 “포함”한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 “…부”, “…모듈” 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
아래에서는 첨부한 도면을 참고하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.
이하에서는 도면을 참조하여 본 발명의 실시 예들을 상세히 설명한다.
도 1은 일 실시 예에 따른 센싱 장치(100)가 패턴 이미지(130)를 센싱하여 동작하는 일 예를 나타내는 개념도이다.
일 실시 예에 따른 센싱 장치(100)는 객체(예: 패턴 이미지(130))에 대한 이미지 정보 및/또는 거리 정보를 획득할 수 있다.
일 실시 예에 따른 센싱 장치(100)는 패턴 이미지(130)에 대한 이미지 정보를 획득할 수 있을 뿐 아니라, 패턴 이미지(130)의 각 지점에 대한 거리 정보도 획득할 수 있다. 예를 들면, 센싱 장치(100)는 TOF(time of flight) 방식을 이용해서 패턴 이미지(130)에 대한 거리 정보를 획득할 수 있다.
일 실시 예에 따른 센싱 장치(100)는 패턴 이미지(130)로부터 획득된 이미지 정보를 통해서 패턴 이미지(130)에 포함된 특징점을 결정하고, 특징점까지의 거리를 TOF 방식으로 센싱할 수 있다.
또한, 센싱 장치(100)는 패턴 이미지(130)에 대한 정보를 별도의 루트로 수신할 수 있다. 예를 들면, 패턴 이미지(130)의 특징점에 대한 거리 정보를 통신을 통해 수신할 수 있다.
일 실시 예에 따른 센싱 장치(100)는 센싱된 거리 정보와 수신된 거리 정보를 비교하여, 센싱 장치(100)가 획득한 거리 정보가 정확한지 여부를 결정할 수 있다. 또는 센싱 장치(100)는 센싱된 거리 정보와 수신된 거리 정보를 비교하여, 보정이 필요하다면 보정 값을 결정할 수 있다.
도 2는 일 실시 예에 따른 센싱 장치(100)가 기울어져있는 패턴 이미지(130)를 센싱하여 동작하는 일 예를 나타내는 블록도이다.
도 2에 도시된 바와 같이, 센싱 장치(100)는 광원(110), 프로세서(1000), 센서(120) 및 리시버(210)를 포함할 수 있다. 여기서 광원(110), 센서(120)는 카메라 모듈(1150)의 구성요소일 수 있다.
그러나, 도 2에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 센싱 장치(100)에 더 포함될 수 있음을 관련 기술 분야에서 통상의 지식을 가진 자라면 이해할 수 있다. 예를 들면, 센싱 장치(100)는 필터(미도시)를 더 포함할 수 있다. 또는 다른 실시 예에 따를 경우, 도 2에 도시된 구성요소들 중 일부 구성요소는 생략될 수 있음을 관련 기술 분야에서 통상의 지식을 가진 자라면 이해할 수 있다. 예를 들면, 광원(110)은 센싱 장치(100)에서 생략될 수 있다.
도 2를 참조하면, 패턴 이미지(130)가 θ만큼의 각도로 기울어져 있는 경우에 센싱 장치(100)가 패턴 이미지(130)에 대한 센싱을 통해서 보정 값을 결정하는 일 예가 도시된다.
일 실시 예에 따른 패턴 이미지(130)는 반복 형상을 포함할 수 있다. 예를 들면, 패턴 이미지(130)는 원점이 서로 맞닿은 2개의 부채꼴 형상이 반복되는 패턴을 포함할 수 있다. 다른 예로, 패턴 이미지(130)는 도트가 기설정된 간격으로 반복적으로 배치된 패턴을 포함할 수 있다. 다른 예로, 패턴 이미지(130)는 복수개의 각을 포함하는 제 1 단일 폐곡선과 곡선의 형상이고 제 1 단일 폐곡선 내부에 포함된 제 2 단일 폐곡선이 반복되는 패턴을 포함할 수 있다.
일 실시 예에 따른 센서(120)는 패턴 이미지를 서로 다른 각도에서 복수회의 촬상을 통해 복수개의 패턴 이미지들을 획득할 수 있다. 예를 들면, 센싱 장치(100)는 센서(120)가 지향하는 축을 기준으로 90도씩 시계방향으로 회전하면서 패턴 이미지(130)를 촬상하여 4개의 서로 다른 패턴 이미지들을 획득할 수 있다. 패턴 이미지(130)가 θ만큼의 각도로 기울어져 있기 때문에, 센서(120) 내의 동일한 픽셀에서 센싱되는 거리가 4개의 서로 다른 패턴 이미지들에서 상이하게 결정될 수 있다.
일 실시 예에 따른 센서(120)는 복수개의 패턴 이미지들에서 특징점을 결정하고, 특징점에 대한 거리 정보를 센싱할 수 있다.
일 실시 예에 따른 프로세서(1000)는 패턴 이미지에 따라 기설정된 알고리즘으로 특징점을 결정할 수 있다. 예를 들면, 패턴 이미지(130)가 기설정된 간격으로 반복적으로 배치된 도트를 포함하는 경우, 프로세서(1000)는 각 도트의 중심점을 특징점으로 결정할 수 있다. 다른 예로, 패턴 이미지(130)가 원점이 서로 맞닿은 2개의 부채꼴 형상이 반복되는 패턴을 포함하는 경우, 프로세서(1000)는 2개의 부채꼴 형상이 맞닿은 원점을 특징점으로 결정할 수 있다. 다른 예로, 패턴 이미지(130)가 복수개의 각을 포함하는 제 1 단일 폐곡선과 곡선의 형상이고 제 1 단일 폐곡선 내부에 포함된 제 2 단일 폐곡선이 반복되는 패턴을 포함하는 경우, 프로세서(1000)는 복수개의 제 1 단일 폐곡선이 맞닿은 지점을 특징점으로 결정할 수 있다.
일 실시 예에 따른 프로세서(1000)는 수신한 거리 정보와 센싱된 거리 정보를 비교하여, 거리 정보를 센싱할 때 이용되는 보정 값을 결정할 수 있다.
프로세서(1000)는 하나 이상의 특징점에 대한 거리 정보를 수신할 수 있다. 또한, 프로세서(1000)는 하나 이상의 특징점에 대한 거리 정보를 센싱할 수 있다. 프로세서(1000)는 수신한 거리 정보와 센싱한 거리 정보를 비교하여 보정 값을 결정할 수 있다. 수신한 거리 정보는 센싱 장치(100)에서 특징점까지의 실측 거리정보일 수 있다. 따라서 프로세서(1000)는 수신한 거리 값과 센싱된 거리값의 차이를 오차값으로 결정할 수 있다. 또한, 프로세서(1000)는 결정된 오차값을 보정하기 위한 보정값을 오차값에 기초하여 결정할 수 있다. 예를 들면 오차값이 0이 되도록 보정값을 결정할 수 있다. 보정값은 렌즈 위치의 조정을 위한 값, 센서 위치의 조정을 위한 값 등 통상적으로 TOF방식에 따라 거리 결정 장치의 보정에 이용되는 임의의 값을 의미하며 제한되지 않는다.
일 실시 예에 따른 리시버(210)는 외부 디바이스(220)로부터 정보를 수신할 수 있다. 리시버(210)는 외부 디바이스(220)로부터 기설정된 통신방식을 통해 여러 정보를 수신할 수 있다. 예를 들면, 리시버(210)는 패턴 이미지에 포함되는 반복 형상이 나타내는 특징점에 대한 거리 정보를 외부 디바이스(220)로부터 수신할 수 있다. 특징점에 대한 거리 정보는 실측 정보를 포함할 수 있다. 이 경우, 수신되는 거리 정보는 센싱 장치(100)로부터 특징점까지의 이상적인 거리 값을 나타낼 수 있다.
일 실시 예에 따른 패턴 이미지(130)는 제 2 색 영역과 제 1 색 영역을 포함하고, 복수개의 패턴 이미지들이 중첩된 중첩 이미지의 전체 영역은 적어도 한번은 제 1 색 영역으로 결정될 수 있다.
또한, 패턴 이미지(130)는 고정되어 있는 상황에서 센싱 장치(100)가 회전하면서 복수회의 촬상이 수행될 수 있다.
예를 들면, 패턴 이미지(130)가 제 1 영역 및 제 2 영역으로 구분되는 경우에 대해 설명한다. 제 1 영역은 제 1 촬영에 의해 획득되는 제 1 패턴 이미지에서는 좌측에 위치하고, 제 2 촬영에 의해 획득되는 제 2 패턴 이미지에서는 상측에 위치하고, 제 3 촬영에 의해 획득되는 제 3 패턴 이미지에서는 우측에 위치하고, 제 4 촬영에 의해 획득되는 제 4 패턴 이미지에서는 하측에 위치할 수 있다. 제 2 영역은 제 1 촬영에 의해 획득되는 제 1 패턴 이미지에서는 우측에 위치하고, 제 2 촬영에 의해 획득되는 제 2 패턴 이미지에서는 하측에 위치하고, 제 3 촬영에 의해 획득되는 제 3 패턴 이미지에서는 좌측에 위치하고, 제 4 촬영에 의해 획득되는 제 4 패턴 이미지에서는 상측에 위치할 수 있다. 이 경우, 제 1 패턴 이미지에서의 제 1 영역과 제 3 패턴 이미지에서의 제 2 영역은 모두 좌측에 위치하고, 제 2 패턴 이미지에서의 제 1 영역과 제 4 패턴 이미지에서의 제 2 영역은 모두 상측에 위치하고, 제 3 패턴 이미지에서의 제 1 영역과 제 1 패턴 이미지에서의 제 2 영역은 모두 우측에 위치하고, 제 4 패턴 이미지에서의 제 1 영역과 제 2 패턴 이미지에서의 제 2 영역은 모두 하측에 위치할 수 있다. 그러나 제 1 패턴 이미지 내지 제 4 패턴 이미지가 모두 중첩된 중첩 이미지의 전체 영역은 적어도 한번은 제 1 색 영역으로 결정될 수 있다. 예를 들면, 좌측, 상측, 우측, 하측 모두 제 1 내지 제 4 패턴 이미지에서 적어도 한번은 제 1 색 영역으로 결정될 수 있다. 제 1 색 영역의 반사율은 제 2 색 영역의 반사율보다 클 수 있다. 예를 들면, 제 1 색 영역은 백색이고, 제 2 색 영역은 검은색일 수 있다. 또는 제 1 색 영역의 반사율은 제 1 값 이상이고, 제 2 색 영역의 반사율은 제 2 값 이하일 수 있다.
패턴 이미지(130)는 제 1 색 영역과 제 2 색 영역을 포함하고, 제 1 색 영역의 반사율은 제 2 색 영역의 반사율보다 크고, 복수개의 패턴 이미지들이 중첩된 중첩 이미지의 전체 영역은 적어도 한번은 제 1 색 영역으로 결정될 수 있다.
또한, 패턴 이미지(130)는 복수개의 셀로 구성될 수 있으며, 각 셀 내에서 제 1 색 영역과 제 2 색 영역의 비율은 기설정된 값 이상일 수 있다. 예를 들면, 각 셀 내에서 제 1 색 영역은 제 2 색 영역의 2배 이상일 수 있다.
일 실시 예에 따른 디스플레이(미도시)는 프로세서(1000)의 제어를 통해 획득한 이미지를 디스플레이할 수 있으며, 일 실시 예에 따른 디스플레이(미도시)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 등일 수 있다.
리시버(210)는 외부 디바이스(220)와 기설정된 방식으로 통신할 수 있으며, 유선 및 무선 방식이 모두 이용될 수 있다. 예를 들면, 리시버(210)는 외부 디바이스(220)와 와이파이 칩, 블루투스 칩 등을 이용하여 통신할 수 있다. 와이파이 칩, 블루투스 칩은 각각 Wi-Fi 방식, 블루투스 방식으로 통신을 수행할 수 있다. 와이파이 칩이나 블루투스 칩을 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다. 무선 통신 칩은 IEEE, 지그비, 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution) 등과 같은 다양한 통신 규격에 따라 통신을 수행할 수 있다. NFC 칩은 135kHz, 13.56MHz, 433MHz, 860~960MHz, 2.45GHz 등과 같은 다양한 RF-ID 주파수 대역들 중에서 13.56MHz 대역을 사용하는 NFC(Near Field Communication) 방식으로 동작할 수 있다.
센싱 장치(100)는 획득한 복수개의 패턴 이미지들 각각에 대해서 특징점까지의 거리를 센싱을 통해 결정할 수 있다. 예를 들면, 센싱 장치(100)가 기울어져있는 패턴 이미지(130)를 90도 간격으로 회전하면서 촬상하여 제 1 패턴 이미지 내지 제 4 패턴 이미지를 획득한 경우에 대해 설명한다.
센싱 장치(100)는 제 1 패턴 이미지에 포함된 특징점들까지의 거리를 센싱하여 결정하고, 결정된 특징점들까지의 거리와 외부 디바이스(220)로부터 수신한 이상적인 거리를 비교하여 보정값을 결정할 수 있다. 또한 이와 같은 동작은 제 2 패턴 이미지, 제 3 패턴 이미지, 제 4 패턴 이미지에 대해서 모두 수행할 수 있다. 제 2 영역에서는 빛이 거의 흡수되기 때문에, 제 2 영역이 많을수록 센싱 장치(100)가 획득할 수 있는 정보가 줄어든다. 그러나, 제 1 패턴 이미지 내지 제 4 패턴 이미지를 중첩하면 전체 영역이 적어도 한번은 제 1 영역이기 때문에, 정보 획득이 차단되는 영역이 없을 수 있다.
도 3은 일 실시 예에 따라 도트 형상을 포함하는 패턴 이미지(300)의 일 예를 나타내는 도면이다.
패턴 이미지(300)는 도트가 기설정된 간격으로 반복적으로 배치된 패턴을 포함할 수 있다. 패턴 이미지(300)는 복수개의 도트를 포함하고, 센싱 장치(100)는 각 도트의 중심점을 특징점으로 결정할 수 있다. 또한, 센싱 장치(100)는 센싱된 특징점까지의 거리와, 수신된 특징점까지의 거리를 비교하여 보정값을 결정할 수 있다.
기설정된 알고리즘에 따라 센싱 장치(100)는 특징점을 결정할 수 있다. 예를 들면, 센싱 장치(100)는 획득한 패턴 이미지(300)에서 센싱된 도트 형상의 중심점을 특징점으로 결정할 수 있다. 제 2 색 영역은 제 1 색 영역에 비해 반사되는 광의 세기가 약하기 때문에, 센싱 장치(100)는 제 2 색 영역과 제 1 색 영역의 반사율의 차이에 기초하여 도트 형상을 결정하고, 도트 형상의 중심점을 결정함으로써 특징점을 결정할 수 있다.
도 4는 일 실시 예에 따라 부채꼴 형상을 포함하는 패턴 이미지(400)의 일 예를 나타내는 도면이다.
패턴 이미지(400)는 원점이 서로 맞닿은 2개의 부채꼴 형상(410)이 반복되는 패턴을 포함할 수 있다. 패턴 이미지(400)가 원점이 서로 맞닿은 2개의 부채꼴 형상(410)이 반복되는 패턴을 포함하는 경우, 센싱 장치(100)는 2개의 부채꼴 형상이 맞닿은 원점(413)을 특징점으로 결정할 수 있다.
또한, 센싱 장치(100)는 센싱 장치(100)로부터 센싱된 특징점(413)까지의 거리와, 센싱 장치(100)로부터 수신된 특징점(413)까지의 거리를 비교하여 보정값을 결정할 수 있다.
기설정된 알고리즘에 따라 센싱 장치(100)는 특징점을 결정할 수 있다. 예를 들면, 센싱 장치(100)는 획득한 패턴 이미지(400)에서 2개의 부채꼴 형상이 맞닿은 원점(413)을 특징점으로 결정할 수 있다. 제 2 색 영역은 제 1 색 영역에 비해 반사되는 광의 세기가 약하기 때문에, 센싱 장치(100)는 제 2 색 영역과 제 1 색 영역의 반사율의 차이에 기초하여 부채꼴 형상을 결정하고, 2개의 부채꼴 형상이 맞닿은 원점(413)을 결정함으로써 특징점을 결정할 수 있다.
예를 들면, 센싱 장치(100)는 부채꼴에서는 원점부분만이 각도가 있는 것으로 인식되기 때문에, 센싱 장치(100)는 각도가 있는 점을 찾는 방식으로 특징점(413)을 결정할 수 있다.
다른 예로, 센싱 장치(100)는 제 1 색 영역 상에서 형성되는 제 1 선분(411)과 제 2 색 영역 상에서 형성되는 제 2 선분(412)을 결정하고, 제 1 선분(411)과 제 2 선분(412)의 교차점(413)을 특징점(413)으로 결정할 수 있다. 여기서 센싱 장치(100)는 제 2 색 영역 상에서 형성되는 제 2 선분(412)으로 기설정된 값보다 긴 선분을 이용할 수 있다.
도 5는 일 실시 예에 따라 복수개의 폐곡선 형상을 포함하는 패턴 이미지(500)의 일 예를 나타내는 도면이다.
패턴 이미지(500)는 복수개의 각을 포함하는 제 1 단일 폐곡선(예: 사각형)과 곡선의 형상이고 제 1 단일 폐곡선 내부에 포함된 제 2 단일 폐곡선(예: 원형)이 반복되는 패턴을 포함할 수 있다.
일 실시 예에 따른 단일 폐곡선은 다각형, 원, 타원 등과 같이 직선이나 곡선 위에 한 점을 찍었을 때 시작점과 끝점이 같은 닫힌 도형을 의미하며, 반드시 곡선만으로 구성되는 것은 아니다.
패턴 이미지(500)는 제 1 단일 폐곡선과 제 1 단일 폐곡선 내부에 포함된 제 2 단일 폐곡선이 나타내는 형상이 반복되는 패턴을 포함할 수 있다. 여기서 제 1 단일 폐곡선과 제 2 단일 폐곡선의 사이 영역은 유색이고, 제 2 단일 폐곡선 내부 영역은 무색일 수 있다.
일 실시 예에 따른 센싱 장치(100)는 복수개의 제 1 단일 폐곡선이 맞닿은 지점(513, 523)을 특징점(513, 523)으로 결정할 수 있다.
또한, 센싱 장치(100)는 센싱 장치(100)로부터 센싱된 특징점(513, 523)까지의 거리와, 센싱 장치(100)로부터 수신된 특징점(513, 523)까지의 거리를 비교하여 보정값을 결정할 수 있다.
기설정된 알고리즘에 따라 센싱 장치(100)는 특징점(513, 523)을 결정할 수 있다. 예를 들면, 센싱 장치(100)는 획득한 패턴 이미지(500)에서 복수개의 제 1 단일 폐곡선이 맞닿은 지점(513, 523)을 특징점(513, 523)으로 결정할 수 있다. 제 2 색 영역은 제 1 색 영역에 비해 반사되는 광의 세기가 약하기 때문에, 센싱 장치(100)는 제 2 색 영역과 제 1 색 영역의 반사율의 차이에 기초하여 제 1 단일 폐곡선의 형상을 결정하고, 2개의 제 1 단일 폐곡선이 맞닿은 지점(513, 523)을 결정함으로써 특징점(513, 523)을 결정할 수 있다.
예를 들면, 센싱 장치(100)는 원형에서는 각도가 인식되지 않기 때문에, 센싱 장치(100)는 각도가 있는 점을 찾는 방식으로 특징점(513, 523)을 결정할 수 있다.
다른 예로, 센싱 장치(100)는 제 1 색 영역 상에서 형성되는 제 1 선분(512, 521)과 제 2 색 영역 상에서 형성되는 제 2 선분(511, 522)을 결정하고,
제 1 선분(512, 521)과 제 2 선분(511, 522)의 교차점(513, 523)을 특징점(513, 523)으로 결정할 수 있다. 여기서 센싱 장치(100)는 제 2 색 영역 상에서 형성되는 제 2 선분(511, 522)으로 기설정된 값보다 긴 선분을 이용할 수 있다.
도 6은 일 실시 예에 따라 패턴 이미지(500)에 대한 복수회에 걸친 촬상을 통해 복수개의 패턴 이미지를 회득하는 일 예를 나타내는 도면이다.
센싱 장치(100)는 센서(120)가 지향하는 축을 기준으로 약 90도씩 시계방향으로 회전하면서 패턴 이미지(500)를 촬상하여 4개의 서로 다른 패턴 이미지들(610, 620, 630, 640)을 획득할 수 있다. 패턴 이미지(500)가 θ만큼의 각도로 기울어져 있기 때문에, 센서(120) 내의 동일한 픽셀에서 센싱되는 거리가 4개의 서로 다른 패턴 이미지들(610, 620, 630, 640)에서 상이하게 결정될 수 있다.
패턴 이미지(500)는 제 2 색 영역과 제 1 색 영역을 포함하고, 복수개의 패턴 이미지들(610, 620, 630, 640)이 중첩된 중첩 이미지(650)의 전체 영역은 적어도 한번은 제 1 색 영역으로 결정될 수 있다. 중첩 이미지(650)는 복수개의 패턴 이미지들(610, 620, 630, 640)에서 한번이라도 제 1 색 영역으로 결정된 영역을 무색으로 나타낸 이미지일 수 있다.
도 7은 일 실시 예에 따라 센싱 장치(100)가 캘리브레이션(calibration)을 수행하는 일 예를 나타내는 흐름도이다.
단계 S710에서 일 실시 예에 따른 센싱 장치(100)는 패턴 이미지로부터 정보를 획득할 수 있다. 예를 들면 센싱 장치(100)는 패턴 이미지를 복수회 촬상하여 복수개의 서로 다른 패턴 이미지들을 획득할 수 있다.
단계 S720에서 일 실시 예에 따른 센싱 장치(100)는 렌즈 캘리브레이션을 수행할 수 있다. 센서와 렌즈의 조립할 때 발생하는 오차를 측정하여 보정하기 위한 캘리브레이션 값을 추출할 수 있다. 캘리브레이션은 보정의 일 예일 수 있다.
단계 S730에서 일 실시 예에 따른 센싱 장치(100)는 픽셀별 거리 오차를 보정할 수 있다. 센싱 장치(100)는 센싱한 거리 정보와 수신한 거리 정보를 비교하여, 센서에 포함된 픽셀들이 거리를 센싱할 때 발생하는 오차를 보정할 수 있다.
단계 S740에서 일 실시 예에 따른 센싱 장치(100)는 메모리에 보정값을 저장할 수 있다.
도 8은 일 실시 예에 따른 센싱 장치(100)가 센서와 렌즈의 조립할 때 발생하는 오차를 측정하여 보정하기 위한 캘리브레이션 값을 추출하는 일 예를 도시한다. 구체적으로 도 8을 참조하면 초점(focal point)를 보정하는 일 예가 도시된다.
도 9는 일 실시 예에 따른 센싱 장치(100)가 픽셀별 거리 오차를 보정하는 일 예를 도시한다. 센싱 장치(100)는 수신된 거리 정보와 센싱된 거리 정보를 비교하여 센서에 포함된 픽셀들이 거리를 센싱할 때 발생하는 오차를 보정할 수 있다.
도 10은 일 실시 예에 따른 센싱 장치(100)가 거리별로 거리 오차를 보정하는 일 예를 도시한다.
제 1 그래프(1010)는 복수회의 센싱을 통해 획득된 값을 나타낸다. 구체적으로 센싱에 따른 획득 값을 +기호로 표시하였다. 또한, 제 2 그래프(1020)는 획득된 정보에 기초하여 피팅된 값을 나타낼 수 있다.
도 11은 일 실시 예에 따른 캘리브레이션 장치(1100)가 카메라 모듈(1150)과 연동하여 동작하는 일 예를 나타내는 블록도이다.
도 11에 도시된 바와 같이, 캘리브레이션 장치(1100)는 고정 부재(1110), 모터(1120), 프로세서(1130) 및 메모리(1140)를 포함할 수 있다.
그러나, 도 11에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 캘리브레이션 장치(1100)에 더 포함될 수 있음을 관련 기술 분야에서 통상의 지식을 가진 자라면 이해할 수 있다. 예를 들면, 캘리브레이션 장치(1100)는 패턴 이미지(130)를 더 포함할 수 있다. 또는 다른 실시 예에 따를 경우, 도 11에 도시된 구성요소들 중 일부 구성요소는 생략될 수 있음을 관련 기술 분야에서 통상의 지식을 가진 자라면 이해할 수 있다. 예를 들면, 고정 부재(1110)는 캘리브레이션 장치(1100)에서 생략될 수 있다.
일 실시 예에 따른 메모리(1140)는 패턴 이미지에 포함되는 반복 형상이 나타내는 특징점에 대한 거리 정보를 저장할 수 있다.
일 실시 예에 따른 카메라 모듈(1150)은 서로 다른 각도에서 패턴 이미지(130)를 촬상하여 복수개의 패턴 이미지들을 획득할 수 있다. 캘리브레이션 장치(1100)는 카메라 모듈(1150)로부터 복수개의 패턴 이미지들에 포함된 특징점에 대해 센싱된 거리 정보를 수신할 수 있다. 캘리브레이션 장치(1100)에 포함된 프로세서(1130)는 메모리(1140)에 저장된 거리 정보와 카메라 모듈(1150)로부터 수신한 센싱된 거리 정보를 비교하여 보정 값을 결정할 수 있다. 프로세서(1130)는 메모리(1140)에 저장된 이상적인 거리 값과, 실제로 센싱된 거리 정보에 따른 거리 값의 차이를 보정하기 위한 보정 값을 결정할 수 있다.
일 실시 예에 따른 모터(1120)는 프로세서(1130)의 제어에 따라서 카메라 모듈(1150)을 회전시킬 수 있다. 예를 들면, 모터(1120)는 프로세서(1130)의 제어에 따라서 고정 부재(1110)를 통해 고정된 카메라 모듈(1150)을 90도 간격으로 회전시킴으로써, 카메라 모듈(1150)이 패턴 이미지(130)를 서로 다른 각도에서 복수회 촬상하여 복수개의 패턴 이미지들을 획득하도록 할 수 있다.
한편, 상술한 방법은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 방법에서 사용된 데이터의 구조는 컴퓨터로 읽을 수 있는 기록매체에 여러 수단을 통하여 기록될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 램, USB, 플로피 디스크, 하드 디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)와 같은 저장매체를 포함한다.
본 실시 예와 관련된 기술 분야에서 통상의 지식을 가진 자는 상기된 기재의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 방법들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.

Claims (10)

  1. 패턴 이미지에 포함되는 반복 형상이 나타내는 특징점에 대한 거리 정보를 수신하는 리시버;
    상기 패턴 이미지를 서로 다른 각도에서 복수회의 촬상을 통해 복수개의 패턴 이미지들을 획득하고,
    상기 복수개의 패턴 이미지들에서 상기 특징점을 결정하고, 상기 특징점에 대한 거리 정보를 센싱하는 센서; 및
    상기 수신한 거리 정보와 상기 센싱된 거리 정보를 비교하여, 상기 거리 정보를 센싱할 때 이용되는 보정 값을 결정하는 프로세서;를 포함하고,
    상기 패턴 이미지는 제 2 색 영역과 제 1 색 영역을 포함하고, 상기 제 1 색 영역의 반사율은 상기 제 2 색 영역의 반사율보다 크고, 상기 복수개의 패턴 이미지들이 중첩된 중첩 이미지의 전체 영역은 적어도 한번은 상기 제 1 색 영역으로 결정되는, 센싱 장치.
  2. 제 1 항에 있어서,
    상기 패턴 이미지는 원점이 서로 맞닿은 2개의 부채꼴 형상이 반복되는 패턴을 포함하는, 센싱 장치.
  3. 제 1 항에 있어서,
    상기 패턴 이미지는 도트가 기설정된 간격으로 반복적으로 배치된 패턴을 포함하는, 센싱 장치.
  4. 제 1 항에 있어서,
    상기 패턴 이미지는 복수개의 각을 포함하는 제 1 단일 폐곡선과 곡선의 형상이고 상기 제 1 단일 폐곡선 내부에 포함된 제 2 단일 폐곡선이 반복되는 패턴을 포함하는, 센싱 장치.
  5. 제 4 항에 있어서,
    상기 제 1 단일 폐곡선과 상기 제 2 단일 폐곡선의 사이 영역은 유색이고, 상기 제 2 단일 폐곡선 내부 영역은 무색인, 센싱 장치.
  6. 패턴 이미지에 포함되는 반복 형상이 나타내는 특징점에 대한 거리 정보를 수신하는 리시버;
    상기 패턴 이미지를 서로 다른 각도에서 복수회의 촬상을 통해 복수개의 패턴 이미지들을 획득하고,
    상기 복수개의 패턴 이미지들에서 상기 특징점을 결정하고, 상기 특징점에 대한 거리 정보를 센싱하는 센서; 및
    상기 수신한 거리 정보와 상기 센싱된 거리 정보를 비교하여, 상기 거리 정보를 센싱할 때 이용되는 보정 값을 결정하는 프로세서;를 포함하고,
    상기 패턴 이미지는 원점이 서로 맞닿은 2개의 부채꼴 형상이 반복되는 패턴을 포함하는, 센싱 장치.
  7. 패턴 이미지에 포함되는 반복 형상이 나타내는 특징점에 대한 거리 정보를 수신하는 리시버;
    상기 패턴 이미지를 서로 다른 각도에서 복수회의 촬상을 통해 복수개의 패턴 이미지들을 획득하고,
    상기 복수개의 패턴 이미지들에서 상기 특징점을 결정하고, 상기 특징점에 대한 거리 정보를 센싱하는 센서; 및
    상기 수신한 거리 정보와 상기 센싱된 거리 정보를 비교하여, 상기 거리 정보를 센싱할 때 이용되는 보정 값을 결정하는 프로세서;를 포함하고,
    상기 패턴 이미지는 도트가 기설정된 간격으로 반복적으로 배치된 패턴을 포함하는, 센싱 장치.
  8. 패턴 이미지에 포함되는 반복 형상이 나타내는 특징점에 대한 거리 정보를 수신하는 리시버;
    상기 패턴 이미지를 서로 다른 각도에서 복수회의 촬상을 통해 복수개의 패턴 이미지들을 획득하고,
    상기 복수개의 패턴 이미지들에서 상기 특징점을 결정하고, 상기 특징점에 대한 거리 정보를 센싱하는 센서; 및
    상기 수신한 거리 정보와 상기 센싱된 거리 정보를 비교하여, 상기 거리 정보를 센싱할 때 이용되는 보정 값을 결정하는 프로세서;를 포함하고,
    상기 패턴 이미지는 복수개의 각을 포함하는 제 1 단일 폐곡선과 곡선의 형상이고 상기 제 1 단일 폐곡선 내부에 포함된 제 2 단일 폐곡선이 반복되는 패턴을 포함하는, 센싱 장치.
  9. 패턴 이미지에 포함되는 반복 형상이 나타내는 특징점에 대한 거리 정보를 수신하는 단계;
    상기 패턴 이미지를 서로 다른 각도에서 복수회의 촬상을 통해 복수개의 패턴 이미지들을 획득하는 단계;
    상기 복수개의 패턴 이미지들에서 상기 특징점을 결정하고, 상기 특징점에 대한 거리 정보를 센싱하는 단계; 및
    상기 수신한 거리 정보와 상기 센싱된 거리 정보를 비교하여, 상기 거리 정보를 센싱할 때 이용되는 보정 값을 결정하는 단계;를 포함하고,
    상기 패턴 이미지는 제 2 색 영역과 제 1 색 영역을 포함하고, 상기 제 1 색 영역의 반사율은 상기 제 2 색 영역의 반사율보다 크고, 상기 복수개의 패턴 이미지들이 중첩된 중첩 이미지의 전체 영역은 적어도 한번은 상기 제 1 색 영역으로 결정되는, 센싱 방법.
  10. 패턴 이미지에 포함되는 반복 형상이 나타내는 특징점에 대한 거리 정보를 저장하는 메모리;
    서로 다른 각도에서 상기 패턴 이미지가 촬상되어 획득된 복수개의 패턴 이미지들에 포함된 특징점에 대해 센싱된 거리 정보를 수신하고,
    상기 저장된 거리 정보와 상기 센싱된 거리 정보를 비교하여 보정 값을 결정하는 프로세서를 포함하고,
    상기 패턴 이미지는 제 1 색 영역과 제 2 색 영역을 포함하고, 상기 제 1 색 영역의 반사율은 상기 제 2 색 영역의 반사율보다 크고, 상기 복수개의 패턴 이미지들이 중첩된 중첩 이미지의 전체 영역은 적어도 한번은 상기 제 1 색 영역으로 결정되는, 캘리브레이션 장치.
PCT/KR2019/010256 2018-08-16 2019-08-13 센싱 방법 및 장치 WO2020036398A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/265,271 US20210304439A1 (en) 2018-08-16 2019-08-13 Sensing method and apparatus
CN201980053977.0A CN112567261A (zh) 2018-08-16 2019-08-13 感测方法和装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2018-0095577 2018-08-16
KR1020180095577A KR102570059B1 (ko) 2018-08-16 2018-08-16 센싱 방법 및 장치

Publications (1)

Publication Number Publication Date
WO2020036398A1 true WO2020036398A1 (ko) 2020-02-20

Family

ID=69525671

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/010256 WO2020036398A1 (ko) 2018-08-16 2019-08-13 센싱 방법 및 장치

Country Status (4)

Country Link
US (1) US20210304439A1 (ko)
KR (1) KR102570059B1 (ko)
CN (1) CN112567261A (ko)
WO (1) WO2020036398A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022178349A (ja) * 2021-05-20 2022-12-02 京セラドキュメントソリューションズ株式会社 画像読取装置、画像処理方法及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130037152A (ko) * 2011-10-05 2013-04-15 한국전자통신연구원 패턴 광을 이용한 깊이 정보 획득 장치 및 방법
JP2016035403A (ja) * 2014-08-01 2016-03-17 シャープ株式会社 レーザ測距装置
KR20170041681A (ko) * 2014-06-11 2017-04-17 소프트키네틱 센서스 엔브이 Tof 카메라 시스템 및 그 시스템과의 거리를 측정하는 방법
KR20170127350A (ko) * 2016-05-11 2017-11-21 삼성전자주식회사 거리 센서의 칼리브레이션 방법, 장치 및 시스템
JP2018112527A (ja) * 2017-01-13 2018-07-19 富士通株式会社 距離測定装置、距離測定方法および距離測定プログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7609865B2 (en) * 2004-11-08 2009-10-27 Biomagnetics 3D fingerprint and palm print data model and capture devices using multi structured lights and cameras
JP5567908B2 (ja) * 2009-06-24 2014-08-06 キヤノン株式会社 3次元計測装置、その計測方法及びプログラム
US9142025B2 (en) * 2011-10-05 2015-09-22 Electronics And Telecommunications Research Institute Method and apparatus for obtaining depth information using optical pattern
US8844802B2 (en) * 2011-12-20 2014-09-30 Eastman Kodak Company Encoding information in illumination patterns
US20130229396A1 (en) * 2012-03-05 2013-09-05 Kenneth J. Huebner Surface aware, object aware, and image aware handheld projector
US9210404B2 (en) * 2012-12-14 2015-12-08 Microsoft Technology Licensing, Llc Calibration and registration of camera arrays using a single circular grid optical target
US20140267031A1 (en) * 2013-03-12 2014-09-18 Kenneth J. Huebner Spatially aware pointer for mobile appliances
JP2016076851A (ja) * 2014-10-07 2016-05-12 株式会社リコー 撮像装置、画像処理方法、及びプログラム
EP3358297A4 (en) * 2015-09-29 2019-05-29 Sony Corporation MEASURING DEVICE AND METHOD, AND PROGRAM
JP2018055685A (ja) * 2016-09-21 2018-04-05 キヤノン株式会社 情報処理装置、その制御方法、プログラム、および記憶媒体
JP6452658B2 (ja) * 2016-09-27 2019-01-16 キヤノン株式会社 情報処理装置、およびその制御方法ならびにプログラム
US10679367B2 (en) * 2018-08-13 2020-06-09 Hand Held Products, Inc. Methods, systems, and apparatuses for computing dimensions of an object using angular estimates

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130037152A (ko) * 2011-10-05 2013-04-15 한국전자통신연구원 패턴 광을 이용한 깊이 정보 획득 장치 및 방법
KR20170041681A (ko) * 2014-06-11 2017-04-17 소프트키네틱 센서스 엔브이 Tof 카메라 시스템 및 그 시스템과의 거리를 측정하는 방법
JP2016035403A (ja) * 2014-08-01 2016-03-17 シャープ株式会社 レーザ測距装置
KR20170127350A (ko) * 2016-05-11 2017-11-21 삼성전자주식회사 거리 센서의 칼리브레이션 방법, 장치 및 시스템
JP2018112527A (ja) * 2017-01-13 2018-07-19 富士通株式会社 距離測定装置、距離測定方法および距離測定プログラム

Also Published As

Publication number Publication date
KR20200020184A (ko) 2020-02-26
KR102570059B1 (ko) 2023-08-23
CN112567261A (zh) 2021-03-26
US20210304439A1 (en) 2021-09-30

Similar Documents

Publication Publication Date Title
US11002839B2 (en) Method and apparatus for measuring angular resolution of multi-beam lidar
ES2763812T3 (es) Procedimiento de verificación óptica de huella dactilar y terminal móvil
CN211262493U (zh) 温度测量系统和温度测量主系统
WO2016048020A1 (ko) 3d 파노라마 이미지 생성을 위한 영상 생성 장치 및 방법
WO2015122577A1 (ko) 극소 센싱 영역을 포함하는 전자 장치 및 이의 지문 정보 프로세싱 방법
WO2018236058A1 (en) ELECTRONIC DEVICE FOR PROVIDING PROPERTY INFORMATION OF AN EXTERNAL LIGHT SOURCE FOR AN OBJECT OF INTEREST
EP2233882B1 (en) Measuring device, method, and program
WO2014185710A1 (ko) Tiled display에서 3d 영상을 보정하는 방법 및 장치
JP6123318B2 (ja) 測色方法及び測色装置
WO2013018962A1 (en) Traffic lane recognizing apparatus and method thereof
WO2020159049A1 (en) Electronic device with illuminance sensor mounted at back side of display and method for measuring illuminance using illuminance sensor
WO2017183915A2 (ko) 영상취득 장치 및 그 방법
US20210150232A1 (en) Method and device for detecting a state of signal indicator light, and storage medium
WO2015160052A1 (ko) 광각 렌즈 이미지 보정 방법 및 그 장치
WO2020036398A1 (ko) 센싱 방법 및 장치
CN114739918A (zh) 植物颜色测定方法、装置、系统及存储介质
WO2022025458A1 (ko) 전자 장치 및 그 제어 방법
JP2015227787A (ja) 寸法計測方法、カメラ付き電子機器、カメラ付き電子機器用プログラム、および、寸法計測用のマーカー
WO2013022153A1 (en) Apparatus and method for detecting lane
JP2010217984A (ja) 像検出装置及び像検出方法
US9378429B2 (en) Image processing device and image processing method
JP5979096B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN108391106A (zh) 投影系统、投影仪器及投影显示方法
US20180365840A1 (en) Optical module and a method for objects' tracking under poor light conditions
WO2017065553A1 (ko) 영상 투사 장치, 그의 영상 투사 방법 및 비일시적 컴퓨터 판독가능 기록매체

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19849742

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19849742

Country of ref document: EP

Kind code of ref document: A1