KR102645254B1 - Deblurring network learning method, motion blur reduction method and robot - Google Patents
Deblurring network learning method, motion blur reduction method and robot Download PDFInfo
- Publication number
- KR102645254B1 KR102645254B1 KR1020210174997A KR20210174997A KR102645254B1 KR 102645254 B1 KR102645254 B1 KR 102645254B1 KR 1020210174997 A KR1020210174997 A KR 1020210174997A KR 20210174997 A KR20210174997 A KR 20210174997A KR 102645254 B1 KR102645254 B1 KR 102645254B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- deblurring
- motion blur
- robot
- inertial
- Prior art date
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 79
- 238000000034 method Methods 0.000 title claims description 29
- 230000009467 reduction Effects 0.000 title claims description 13
- 238000005259 measurement Methods 0.000 claims abstract description 53
- 238000000605 extraction Methods 0.000 claims abstract description 21
- 238000012549 training Methods 0.000 claims abstract description 3
- 230000001133 acceleration Effects 0.000 claims description 26
- 238000004364 calculation method Methods 0.000 claims description 10
- 239000000284 extract Substances 0.000 claims description 6
- 238000012886 linear function Methods 0.000 claims description 6
- 238000004458 analytical method Methods 0.000 claims description 3
- 230000004807 localization Effects 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 230000000007 visual effect Effects 0.000 claims description 3
- 238000013506 data mapping Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/682—Vibration or motion blur correction
- H04N23/683—Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/1607—Calculation of inertia, jacobian matrixes and inverses
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1692—Calibration of manipulator
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0014—Image feed-back for automatic industrial control, e.g. robot with camera
-
- G06T5/73—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/57—Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/681—Motion detection
- H04N23/6812—Motion detection based on additional sensors, e.g. acceleration sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Abstract
일 실시예는, 움직이는 상황에서 로봇이 촬영한 모션블러이미지, 상기 모션블러이미지에서 모션블러가 저감된 타겟이미지, 그리고, 상기 모션블러이미지가 촬영된 상황에서의 상기 로봇의 관성센서측정값을 포함하는 학습데이터들이 획득되는 단계; 상기 관성센서측정값을 양자화하는 단계; 양자화된 관성센서측정값을 조건파라미터추출모듈에 입력하여 관성반영파라미터를 추출하는 단계; 상기 관성반영파라미터를 조건파라미터로 사용하고, 상기 모션블러이미지를 입력으로 하며, 상기 모션블러이미지에 대하여 모션블러가 저감된 디블러링이미지를 생성하는 디블러링네트워크를 준비하는 단계; 및 상기 디블러링이미지가 상기 타겟이미지를 추종하도록 상기 학습데이터들을 이용하여 상기 조건파라미터추출모듈 및 상기 디블러링네트워크를 학습시키는 단계를 포함하는 디블러링네트워크 학습방법을 제공한다. One embodiment includes a motion blur image captured by a robot in a moving situation, a target image with reduced motion blur in the motion blur image, and inertial sensor measurement values of the robot in the situation in which the motion blur image was captured. A step in which learning data is acquired; Quantizing the inertial sensor measurement value; Extracting an inertial reflection parameter by inputting the quantized inertial sensor measurement value into a condition parameter extraction module; preparing a deblurring network that uses the inertial reflection parameter as a condition parameter, receives the motion blur image as an input, and generates a deblurring image with reduced motion blur for the motion blur image; and training the condition parameter extraction module and the deblurring network using the learning data so that the deblurring image follows the target image.
Description
본 실시예는 이미지에서 모션블러를 저감시키는 기술에 관한 것이다. This embodiment relates to technology for reducing motion blur in images.
미지의 환경에서 다양한 센서들을 이용하여 위치를 추정하고 3차원 환경 지도를 생성하는 VSLAM(Visual Simultaneous Localization And Mapping) 기술이 각광을 받고 있다. 이러한 VSLAM 기술을 사용하면, 로봇이 카메라를 이용하여 자신의 위치를 추정하고 주변 환경 구조를 파악함으로써 목적지점까지 자율주행할 수 있게 된다.VSLAM (Visual Simultaneous Localization And Mapping) technology, which estimates location using various sensors in an unknown environment and creates a 3D environment map, is receiving attention. Using this VSLAM technology, the robot can autonomously navigate to its destination by estimating its own location using a camera and identifying the structure of the surrounding environment.
VSLAM 분야에서는 카메라를 통해 획득된 이미지를 분석하고 자신의 위치를 추정하며 주변 환경 구조를 파악하여 지도를 생성하는 기술이 주요하게 다루어지고 있다. 그런데, 이러한 기술을 구현하기 위해서는 우선적으로 정확한 외부 이미지가 획득될 수 있다는 것이 가정되어야한다. 카메라로 촬영된 이미지에 노이즈가 많이 포함되어 있는 경우, 이후 단에서 수행되는 프로세싱의 결과물이 정확하지 않을 수 있다.In the VSLAM field, technology that analyzes images acquired through cameras, estimates one's own location, and determines the structure of the surrounding environment to create a map is mainly addressed. However, in order to implement this technology, it must first be assumed that an accurate external image can be obtained. If the image captured by the camera contains a lot of noise, the result of the processing performed at a later stage may not be accurate.
특히, 로봇과 같이 움직이는 상황에서 외부를 촬영하는 경우에는 이미지에 모션블러가 포함되어 있을 가능성이 높고, 이를 적절하게 저감시키지 않는다면 VSLAM의 결과물에 오류가 나타날 가능성이 높다.In particular, when shooting the outside in a moving situation such as a robot, there is a high possibility that the image contains motion blur, and if this is not appropriately reduced, errors are likely to appear in the VSLAM results.
이러한 배경에서, 본 실시예의 목적은, 일 측면에서, 로봇이 촬영한 이미지에서 모션블러를 저감시키는 기술을 제공하는 것이다. 다른 측면에서, 본 실시예의 목적은, 이미지의 노이즈를 제거하여 VSLAM의 정확도를 높이는 기술을 제공하는 것이다.Against this background, the purpose of this embodiment is, in one aspect, to provide a technology for reducing motion blur in images captured by a robot. In another aspect, the purpose of this embodiment is to provide a technology to increase the accuracy of VSLAM by removing noise from the image.
전술한 목적을 달성하기 위하여, 일 실시예는, 움직이는 상황에서 로봇이 촬영한 모션블러이미지, 상기 모션블러이미지에서 모션블러가 저감된 타겟이미지, 그리고, 상기 모션블러이미지가 촬영된 상황에서의 상기 로봇의 관성센서측정값을 포함하는 학습데이터들이 획득되는 단계; 상기 관성센서측정값을 양자화하는 단계; 양자화된 관성센서측정값을 조건파라미터추출모듈에 입력하여 관성반영파라미터를 추출하는 단계; 상기 관성반영파라미터를 조건파라미터로 사용하고, 상기 모션블러이미지를 입력으로 하며, 상기 모션블러이미지에 대하여 모션블러가 저감된 디블러링이미지를 생성하는 디블러링네트워크를 준비하는 단계; 및 상기 디블러링이미지가 상기 타겟이미지를 추종하도록 상기 학습데이터들을 이용하여 상기 조건파라미터추출모듈 및 상기 디블러링네트워크를 학습시키는 단계를 포함하는 디블러링네트워크 학습방법을 제공한다. In order to achieve the above-mentioned purpose, one embodiment includes a motion blur image captured by a robot in a moving situation, a target image in which motion blur is reduced from the motion blur image, and the motion blur image in a situation in which the motion blur image is captured. Obtaining learning data including inertial sensor measurements of the robot; Quantizing the inertial sensor measurement value; Extracting an inertial reflection parameter by inputting the quantized inertial sensor measurement value into a condition parameter extraction module; preparing a deblurring network that uses the inertial reflection parameter as a condition parameter, receives the motion blur image as an input, and generates a deblurring image with reduced motion blur for the motion blur image; and training the condition parameter extraction module and the deblurring network using the learning data so that the deblurring image follows the target image.
상기 디블러링네트워크 학습방법에서 상기 디블러링네트워크는 유넷(U-Net)의 형태로 구현되고, 상기 조건파라미터는 상기 유넷의 FiLM(Feature-wise Linear Modulation)에 적용되는 파라미터일 수 있다.In the deblurring network learning method, the deblurring network is implemented in the form of a U-Net, and the condition parameter may be a parameter applied to Feature-wise Linear Modulation (FiLM) of the U-Net.
상기 디블러링네트워크 학습방법에서 상기 조건파라미터추출모듈은 비선형함수를 포함할 수 있다.In the deblurring network learning method, the condition parameter extraction module may include a non-linear function.
상기 디블러링네트워크 학습방법에서 상기 관성센서측정값은 공간의 각 축별 각가속도값을 포함할 수 있다.In the deblurring network learning method, the inertial sensor measurement value may include angular acceleration values for each axis of space.
상기 디블러링네트워크 학습방법은 상기 디블러링네트워크를 학습시키는 단계에서, 상기 디블러링이미지와 상기 타겟이미지의 차이로 계산되는 로스가 최소화되도록 상기 디블러링네트워크를 학습시킬 수 있다.In the deblurring network learning method, in the step of learning the deblurring network, the deblurring network can be trained so that a loss calculated as a difference between the deblurring image and the target image is minimized.
다른 실시예는, 로봇이 촬영한 오리지널이미지와 상기 오리지널이미지가 촬영된 상황에서의 상기 로봇의 관성센서측정값을 획득하는 단계; 상기 관성센서측정값을 양자화하는 단계; 양자화된 관성센서측정값을 미리 학습된 조건파라미터추출모듈에 입력하여 관성반영파라미터를 추출하는 단계; 상기 관성반영파라미터를 미리 학습된 디블러링네트워크의 조건파라미터로 적용시키는 단계; 상기 디블러링네트워크에 상기 오리지널이미지를 입력한 후 모션블러가 저감된 디블러링이미지를 생성하는 단계를 포함하는 모션블러 저감방법을 제공한다. Another embodiment includes obtaining an original image captured by a robot and an inertial sensor measurement value of the robot in the situation in which the original image was captured; Quantizing the inertial sensor measurement value; Extracting an inertial reflection parameter by inputting the quantized inertial sensor measurement value into a pre-learned condition parameter extraction module; Applying the inertial reflection parameter as a condition parameter of a pre-learned deblurring network; A motion blur reduction method is provided including the step of inputting the original image into the deblurring network and then generating a deblurring image with reduced motion blur.
상기 모션블러 저감방법에서 상기 디블러링네트워크는 유넷(U-Net)의 형태로 구현되고, 상기 조건파라미터는 상기 유넷의 FiLM(Feature-wise Linear Modulation)에 적용되는 파라미터일 수 있다.In the motion blur reduction method, the deblurring network is implemented in the form of a U-Net, and the condition parameter may be a parameter applied to Feature-wise Linear Modulation (FiLM) of the U-Net.
상기 모션블러 저감방법은 상기 로봇의 가속도센서측정값을 이용하여 각 축별 각가속도값을 계산하는 단계를 더 포함하고, 상기 관성센서측정값은 상기 각가속도값을 포함할 수 있다.The motion blur reduction method further includes calculating an angular acceleration value for each axis using the robot's acceleration sensor measurement value, and the inertial sensor measurement value may include the angular acceleration value.
상기 모션블러 저감방법에서 상기 조건파라미터추출모듈은, 양자화된 관성센서측정값을 선형결합과 비선형함수 계산을 통해 상기 관성반영파라미터를 추출할 수 있다.In the motion blur reduction method, the condition parameter extraction module can extract the inertial reflection parameter through linear combination of quantized inertial sensor measurement values and nonlinear function calculation.
상기 모션블러 저감방법에서 상기 디블러링네트워크는 인코더블럭과 디코더블럭을 포함하고, 상기 관성반영파라미터는 상기 인코더블럭의 조건파라미터에 적용될 수 있다.In the motion blur reduction method, the deblurring network includes an encoder block and a decoder block, and the inertial reflection parameter can be applied to the condition parameter of the encoder block.
또 다른 실시예는, 로봇 몸체의 외부를 촬영하는 카메라; 상기 몸체의 관성을 측정하는 관성센서; 및 상기 관성센서의 측정값을 양자화하고, 양자화된 측정값을 미리 학습된 조건파라미터추출모듈에 입력하여 관성반영파라미터를 추출하며, 상기 관성반영파라미터를 미리 학습된 디블러링네트워크의 조건파라미터로 적용시키고, 상기 디블러링네트워크에 상기 카메라가 촬영한 오리지널이미지를 입력한 후 모션블러가 저감된 디블러링이미지를 생성하는 프로세서를 포함하는 로봇을 제공한다.Another embodiment includes a camera that photographs the outside of the robot body; an inertial sensor that measures the inertia of the body; And quantize the measured value of the inertial sensor, input the quantized measured value into a pre-learned condition parameter extraction module to extract an inertial reflection parameter, and apply the inertial reflection parameter as a condition parameter of a pre-learned deblurring network. and inputting the original image captured by the camera to the deblurring network and then generating a deblurring image with reduced motion blur.
상기 로봇은 상기 몸체의 이동을 제어하는 이동장치를 더 포함하고, 상기 이동장치의 제어신호에 따라 상기 디블러링네트워크에 대한 상기 오리지널이미지의 적용여부를 결정할 수 있다.The robot further includes a mobile device that controls movement of the body, and can determine whether to apply the original image to the deblurring network according to a control signal from the mobile device.
상기 프로세서는 상기 디블러링이미지에 대한 분석을 통해 공간 내의 상기 로봇의 위치를 추정할 수 있다.The processor may estimate the position of the robot in space through analysis of the deblurring image.
상기 프로세서는 상기 디블러링이미지를 이용하여 VSLAM(Visual Simultaneous Localization And Mapping)을 구현할 수 있다.The processor may implement Visual Simultaneous Localization And Mapping (VSLAM) using the deblurring image.
상기 관성센서는 가속도센서를 포함하고, 상기 프로세서는 상기 가속도센서의 측정값을 이용하여 각 축별 각가속도값을 계산하고, 상기 각가속도값을 이용하여 상기 관성반영파라미터를 추출할 수 있다.The inertial sensor may include an acceleration sensor, and the processor may calculate an angular acceleration value for each axis using the measured value of the acceleration sensor, and extract the inertial reflection parameter using the angular acceleration value.
이상에서 설명한 바와 같이 본 실시예에 의하면, 로봇이 촬영한 이미지에서 모션블러를 저감시킬 수 있게 되고, 이를 통해 VSLAM의 정확도를 높일 수 있게 된다.As described above, according to this embodiment, motion blur can be reduced in images captured by a robot, and through this, the accuracy of VSLAM can be improved.
도 1은 일 실시예에 따른 로봇의 구성도이다.
도 2는 일 실시예에 따른 로봇에서의 모션블러 저감을 위한 데이터 및 신호의 흐름을 나타내는 도면이다.
도 3은 일 실시예에 따른 프로세서의 구성도이다.
도 4는 일 실시예에 따른 디블러링네트워크의 구성도이다.
도 5는 일 실시예에 따른 인코더블럭의 구성도이다.
도 6은 일 실시예에 따른 디블러링네트워크 학습방법의 흐름도이다.
도 7은 일 실시예에 따른 모션블러 저감방법의 흐름도이다.1 is a configuration diagram of a robot according to one embodiment.
Figure 2 is a diagram showing the flow of data and signals for reducing motion blur in a robot according to an embodiment.
Figure 3 is a configuration diagram of a processor according to one embodiment.
Figure 4 is a configuration diagram of a deblurring network according to an embodiment.
Figure 5 is a configuration diagram of an encoder block according to one embodiment.
Figure 6 is a flowchart of a deblurring network learning method according to an embodiment.
Figure 7 is a flowchart of a motion blur reduction method according to an embodiment.
이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present invention will be described in detail through illustrative drawings. When adding reference numerals to components in each drawing, it should be noted that identical components are given the same reference numerals as much as possible even if they are shown in different drawings. Additionally, in describing the present invention, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present invention, the detailed description will be omitted.
또한, 본 발명의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.Additionally, when describing the components of the present invention, terms such as first, second, A, B, (a), and (b) may be used. These terms are only used to distinguish the component from other components, and the nature, sequence, or order of the component is not limited by the term. When a component is described as being “connected,” “coupled,” or “connected” to another component, that component may be directly connected or connected to that other component, but there is another component between each component. It will be understood that elements may be “connected,” “combined,” or “connected.”
도 1은 일 실시예에 따른 로봇의 구성도이다.1 is a configuration diagram of a robot according to one embodiment.
도 1을 참조하면, 로봇(100)은 몸체(110), 이동장치(120), 관성센서(130), 카메라(140) 및 프로세서(150) 등을 포함할 수 있다.Referring to FIG. 1, the
몸체(110)는 다양한 형태로 구현될 수 있으며, 그 내부에 다양한 기계, 전기적인 구성요소를 내장할 수 있다.The
이동장치(120)는 몸체(110) 전체를 이동시키는 장치를 포함할 수 있다. 예를 들어, 이동장치(120)는 지면과 접촉하는 바퀴를 포함하고 있으면서, 바퀴의 회전을 통해 몸체(110)를 지면 상에서 이동시킬 수 있다.The
이동장치(120)는 몸체(110)의 일부를 이동시키는 장치를 포함할 수 있다. 예를 들어, 이동장치(120)는 몸체(110)를 구성하는 로봇의 팔과 다리를 이동시키는 장치를 포함할 수 있고, 로봇의 머리를 이동시키는 장치를 포함할 수 있다. 이러한 장치의 구동에 의해 몸체(110)는 지면에 나란한 방향의 움직임 뿐만 아니라 지면과 수직된 방향-예를 들어, 중력방향-으로의 움직임도 만들 수 있다.The
관성센서(130)는 몸체(110)의 관성을 측정할 수 있다. 관성은 가속도의 형태로 측정될 수도 있고, 각가속도의 형태로 측정될 수도 있다.The
관성센서(130)는 가속도센서를 포함할 수 있고, 각가속도센서를 포함할 수 있다. 로봇(100)이 각가속도센서를 포함하지 않는 경우, 로봇(100)은 가속도센서의 측정값을 이용하여 각가속도값을 계산할 수 있다.The
관성센서(130)는 몸체(110)에서 움직임이 발생하는 위치에 배치될 수 있는데, 예를 들어, 관성센서(130)는 몸체(110)의 팔과 다리의 관절부분에 배치될 수 있고, 몸체(110)에서 목부분에 배치될 수도 있다.The
카메라(140)는 몸체(110)의 외부(10)를 촬영할 수 있다. 로봇(100)은 외부(10)에 대한 촬영이미지를 분석하여 주변 공간의 지도를 형성하고, 지도 내에서의 몸체(110)의 위치를 추정할 수 있다.The
로봇(100)은 하나의 카메라(140)만 포함할 수도 있고, 복수의 카메라(140)를 포함할 수도 있다.The
프로세서(150)는 관성센서(130)의 측정값을 이용하여 카메라(140)가 촬영한 이미지의 모션블러를 저감시킬 수 있다.The
도 2는 일 실시예에 따른 로봇에서의 모션블러 저감을 위한 데이터 및 신호의 흐름을 나타내는 도면이다.Figure 2 is a diagram showing the flow of data and signals for reducing motion blur in a robot according to an embodiment.
도 2를 참조하면, 프로세서(150)는 카메라(140)로부터 오리지널이미지(oIMG)를 획득하고 오리지널이미지(oIMG)에서 모션블러를 저감시킬 수 있다.Referring to FIG. 2, the
프로세서(150)는 관성센서(130)로부터 획득되는 관성센서측정값(sDT)을 이용하여 오리지널이미지(oIMG)의 모션블러를 저감시킬 수 있다. 프로세서(150)는 신경망의 형태로 구현되는 디블러링네트워크를 포함할 수 있는데, 관성센서측정값(sDT)을 디블러링네트워크에 반영시킴으로서 오리지널이미지(oIMG)의 모션블러를 저감시킬 수 있다.The
프로세서(150)는 이동장치(120)로 제어신호(CTR)를 송신하여 로봇의 움직임을 제어할 수 있는데, 제어신호(CTR)에 따라 디블러링네트워크에 대한 오리지널이미지(oIMG)의 적용여부를 결정할 수 있다. 예를 들어, 제어신호(CTR)가 로봇이 움직이지 않도록 하는 제어신호인 경우, 프로세서(150)는 오리지널이미지(oIMG)를 디블러링네트워크에 적용시키지 않고 그대로 사용할 수 있다. 다른 예로서, 제어신호(CTR)가 로봇이 움직이도록 하는 제어신호인 경우, 프로세서(150)는 오리지널이미지(oIMG)를 디블러링네트워크에 적용시키고 그 결과이미지(디블러링이미지)를 이용하여 VSLAM 등을 구현할 수 있다. 프로세서(150)는 디블러링이미지에 대한 분석을 통해 공간 내의 로봇의 위치를 추정할 수 있고, 디블러링이미지를 이용하여 VSLAM을 구현할 수 있다.The
도 3은 일 실시예에 따른 프로세서의 구성도이다.Figure 3 is a configuration diagram of a processor according to one embodiment.
도 3을 참조하면, 프로세서(150)는 데이터매핑모듈(310), 조건생성모듈(320) 및 디블러링네트워크(330) 등을 포함할 수 있다.Referring to FIG. 3, the
데이터매핑모듈(310)은 관성센서측정값(sDT)을 양자화하여 양자화된 측정값(QDT)을 생성할 수 있다. 관성센서측정값(sDT)은 센서에 따라 다양한 해상도를 가질 수 있다. 해상도가 높을 수록 그 측정값은 다양한 레벨의 값을 가질 수 있게 되는데, 이러한 다양한 레벨의 값은 계산을 복잡하게 할 수 있다.The
데이터매핑모듈(310)은 이후 단계에서의 계산을 간소화시키고, 센서에 따른 편차가 발생하지 않도록 표준화시키기 위해 관성센서측정값(sDT)을 양자화하고, 양자화된 측정값(QDT)을 생성할 수 있다.The
양자화된 측정값(QDT)은 관성센서측정값(sDT)에 비해 동일 범위가 적은 구간들로 구분될 수 있다. 예를 들어, 관성이 0~100(U:기본단위)의 범위로 측정될 수 있다고 할 때, 관성센서측정값(sDT)은 0.001(U)의 구간들로 구분될 수 있는데-분해능이 0.001(U)가 됨-, 양자화된 측정값(QDT)는 10(U)의 구간들로 구분되어서, 0, 10, 20, …, 100의 값을 가질 수 있다.The quantized measurement value (QDT) can be divided into sections with less identical range than the inertial sensor measurement value (sDT). For example, when inertia can be measured in the range of 0 to 100 (U: basic unit), the inertial sensor measurement value (sDT) can be divided into sections of 0.001 (U) - the resolution is 0.001 ( U) -, the quantized measurement value (QDT) is divided into intervals of 10 (U), 0, 10, 20, … , can have a value of 100.
데이터매핑모듈(310)은 일부 측정값을 변환하는 기능을 더 수행할 수 있다. 예를 들어, 데이터매핑모듈(310)은 가속도계의 측정값을 각 축별 각가속도값으로 변환할 수 있다.The
조건생성모듈(320)는 양자화된 측정값(QDT)을 이용하여 관성반영파라미터(PAR)를 생성할 수 있다.The
조건생성모듈(320)은 관성센서측정값을 입력받아 파라미터를 생성하는 모듈로 학습될 수 있다. 조건생성모듈(320)은 입력값들의 선형결합과 비선형함수를 포함하는 계산함수를 포함할 수 있는데, 이러한 계산함수는 관성센서측정값을 입력받아 파라미터를 생성하도록 미리 학습될 수 있다.The
조건생성모듈(320)에서 생성되는 관성반영파라미터(PAR)는 디블러링네트워크(330)의 조건파라미터로 적용될 수 있다.The inertial reflection parameter (PAR) generated in the
디블러링네트워크(330)에는 조건파라미터가 사용되는 블럭이 포함되고, 관성반영파라미터(PAR)는 이러한 조건파라미터에 적용될 수 있다.The
디블러링네트워크(330)는 오리지널이미지(oIMG)를 입력받고 오리지널이미지(oIMG)에서 모션블러를 저감시킨 디블러링이미지(pIMG)를 생성하도록 미리 학습될 수 있다. 이때, 디블러링네트워크(330)는 조건생성모듈(320)과 함께 학습되면서 관성에 의한 모션블러의 영향을 감지하고 이를 오리지널이미지(oIMG)에서 제거할 수 있게 할 수 있다.The
도 4는 일 실시예에 따른 디블러링네트워크의 구성도이다.Figure 4 is a configuration diagram of a deblurring network according to an embodiment.
도 4를 참조하면, 디블러링네트워크(330)는 복수의 인코더블럭(410a, 410b)과 복수의 디코더블럭(420a, 420b)을 포함할 수 있다.Referring to FIG. 4, the
디블러링네트워크(330)로 입력되는 오리지널이미지(oIMG)는 복수의 인코더블럭(410a, 410b)에서 인코딩된 후 다시 복수의 디코더블럭(420a, 420b)에서 디코딩되는 과정을 거치면서 디블러링이미지(pIMG)로 변환될 수 있다.The original image (oIMG) input to the
디블러링네트워크(330)는 유넷(U-Net)의 형태로 구현될 수 있다. 유넷(U-Net)은 이미지프로세싱에서 주로 사용되는 네트워크로서, U자 형태의 네트워크 구조를 가질 수 있다.The
유넷(U-Net)에서 인코더블럭(410a, 410b)은 FiLM(Feature-wise Linear Modulation)을 포함할 수 있는데, 관성반영파라미터(PAR)는 FiLM의 조건파라미터에 적용될 수 있다.In U-Net, the
도 5는 일 실시예에 따른 인코더블럭의 구성도이다.Figure 5 is a configuration diagram of an encoder block according to one embodiment.
도 5를 참조하면, 인코더블럭(410)은 2D컨볼루션블럭(510), 네트워크계산블럭(520), FiLM(530) 및 ReLU(Recified Linear Unit)블럭(540)을 포함할 수 있다.Referring to FIG. 5, the
2D컨볼루션블럭(510)은 2차원 컨볼루션을 수행하는 블럭이고, 네트워크계산블럭(520)은 도 5에 도시된 것과 같은 계산을 수행할 수 있다. ReLU(540)는 입력을 정류하고 정류된 값을 선형적으로 출력하는 정류선형블럭이다.The
그리고, FiLM(530)은 입력값에 대해 아래 [식1]과 같은 선형적인 변형을 만들 수 있는데, 여기서, 조건파라미터인 γ 및 β에 관성반영파라미터가 적용될 수 있다.And,
[식1][Equation 1]
FiLM(x) = γ * x + βFiLM(x) = γ * x + β
x : 입력값x: input value
γ : 1차함수의 계수(조건파라미터)γ: Coefficient of linear function (condition parameter)
β : 1차함수의 상수(조건파라미터)β: Constant of linear function (condition parameter)
디블러링네트워크는 FiLM 부분에 관성을 반영시켜 디블러링의 성능을 개선시킬 수 있다.The deblurring network can improve deblurring performance by reflecting inertia in the FiLM part.
도 6은 일 실시예에 따른 디블러링네트워크 학습방법의 흐름도이다.Figure 6 is a flowchart of a deblurring network learning method according to an embodiment.
도 6을 참조하면, 학습장치 혹은 로봇은 움직이는 상황에서 로봇이 촬영한 모션블러이미지, 모션블러이미지에서 모션블러가 저감된 타겟이미지, 그리고, 모션블러이미지가 촬영된 상황에서의 로봇의 관성센서측정값을 포함하는 학습데이터들을 획득할 수 있다(S600).Referring to FIG. 6, the learning device or robot measures a motion blur image captured by the robot in a moving situation, a target image with reduced motion blur in the motion blur image, and the inertial sensor measurement of the robot in a situation in which the motion blur image was captured. Learning data including values can be obtained (S600).
디블러링네트워크에 대한 학습은 로봇에 내장되는 프로세서에 의해 수행될 수도 있고, 별도의 학습장치에 의해 수행될 수도 있다. 로봇이 자체적으로 충분한 계산성능의 프로세서를 포함하고 있는 경우, 자체적인 프로세서를 이용하여 디블러링네트워크를 학습시킬 수 있다. 혹은 로봇이 자체적으로 충분한 계산성능의 프로세서를 보유하지 않는 경우, 디블러링네트워크에 대한 학습은 별도의 학습장치에 의해 수행될 수 있다.Learning about the deblurring network may be performed by a processor built into the robot, or may be performed by a separate learning device. If the robot itself includes a processor with sufficient computational performance, the deblurring network can be learned using its own processor. Alternatively, if the robot itself does not have a processor with sufficient computational performance, learning about the deblurring network can be performed by a separate learning device.
별도의 학습장치에 의해 디블러링네트워크에 대한 학습이 수행되더라도 학습장치는 로봇과 직간접적으로 연동되어 있으면서 로봇에서 생성되는 모션블러이미지, 관성센서측정값 등을 획득할 수 있다. 이하에서는 설명의 편의를 위해 디블러링네트워크가 별도의 학습장치에 의해 학습되는 것으로 설명한다.Even if learning about the deblurring network is performed by a separate learning device, the learning device is directly or indirectly linked to the robot and can acquire motion blur images and inertial sensor measurements generated by the robot. Below, for convenience of explanation, the deblurring network is explained as being learned by a separate learning device.
모션블러가 저감된 타겟이미지는 별도의 촬영장치에 의해 생성될 수도 있고, 로봇에 의해 촬영될 수도 있다. 여기서, 모션블러이미지와 타겟이미지는 동일한 장면을 촬영한 이미지일 수 있다. 그리고, 모션블러이미지는 해당 장면에 대해 노이즈로서 모션블러가 나타나는 이미지일 수 있고, 타겟이미지는 해당 장면을 정지한 상태에 촬영하여 모션블러가 나타나지 않는 이미지일 수 있다.The target image with reduced motion blur may be created by a separate imaging device or captured by a robot. Here, the motion blur image and the target image may be images taken from the same scene. Additionally, the motion blur image may be an image in which motion blur appears as noise for the scene, and the target image may be an image in which motion blur does not appear because the scene is captured while the scene is still.
학습장치는 학습데이터에서 관성센서측정값을 데이터매핑시킬 수 있다(S602).The learning device can data map the inertial sensor measurements from the learning data (S602).
데이터매핑은 측정값의 양자화를 포함할 수 있다. 학습장치는 관성센서측정값을 양자화할 수 있다. 학습장치는 이후 단계에서의 계산을 간소화시키고, 센서에 따른 편차가 발생하지 않도록 표준화시키기 위해 관성센서측정값을 양자화하고, 양자화된 측정값을 생성할 수 있다.Data mapping may include quantization of measurements. The learning device can quantize inertial sensor measurements. The learning device can quantize inertial sensor measurements and generate quantized measurements to simplify calculations in later stages and standardize them to prevent sensor-dependent deviations.
데이터매핑은 측정값의 변환을 포함할 수 있다. 학습장치는 가속도계의 측정값을 각 축별 각가속도값으로 변환하고, 이후 단계에서 각 축별 각가속도값이 사용되도록 하게 할 수 있다.Data mapping may include transformation of measurements. The learning device can convert the measured values of the accelerometer into angular acceleration values for each axis, and allow the angular acceleration values for each axis to be used in a later step.
학습장치는 양자화된 관성센서측정값을 조건파라미터추출모듈에 입력하여 관성반영파라미터를 추출할 수 있다(S604). 여기서, 조건파라미터추출모듈은 학습이 완료되지 않은 모듈일 수 있고, 이에 따라 관성반영파라미터는 최적화된 파라미터가 아닐 수 있다.The learning device can extract the inertial reflection parameter by inputting the quantized inertial sensor measurement value into the condition parameter extraction module (S604). Here, the condition parameter extraction module may be a module for which learning has not been completed, and accordingly, the inertia reflection parameter may not be an optimized parameter.
학습장치는 관성반영파라미터를 조건파라미터로 사용하고, 모션블러이미지를 입력으로 하며, 모션블러이미지에 대하여 모션블러가 저감된 디블러링이미지를 생성하는 디블러링네트워크를 준비할 수 있다(S606).The learning device uses the inertial reflection parameter as a condition parameter, takes a motion blur image as input, and can prepare a deblurring network that generates a deblurring image with reduced motion blur for the motion blur image (S606). .
그리고, 학습장치는 디블러링이미지가 타겟이미지를 추종하도록 학습데이터들을 이용하여 조건파라미터추출모듈 및 디블러링네트워크를 학습시킬 수 있다(S608).And, the learning device can learn the condition parameter extraction module and deblurring network using the learning data so that the deblurring image follows the target image (S608).
예를 들어, 조건파라미터추출모듈의 학습이 완료되지 않은 상태에서, 조건파라미터추출모듈에서 생성되는 관성반영파라미터는 최적화된 파라미터가 아닐 수 있다. 그리고, 이러한 관성반영파라미터가 적용된 디블러링네트워크의 결과물(디블러링이미지)은 모션블러의 저감도가 높지 않을 수 있다. 이에 따라 디블러링이미지와 타겟이미지에는 차이가 발생할 수 있고, 학습장치는 이러한 차이가 최소화되도록 조건파라미터추출모듈의 내부파라미터 및/혹은 디블러링네트워크의 내부파라미터를 업데이트할 수 있다.For example, when learning of the conditional parameter extraction module has not been completed, the inertia reflection parameter generated from the conditional parameter extraction module may not be an optimized parameter. Additionally, the result (deblurring image) of the deblurring network to which these inertial reflection parameters are applied may not have a high sensitivity to motion blur reduction. Accordingly, differences may occur between the deblurring image and the target image, and the learning device may update the internal parameters of the condition parameter extraction module and/or the internal parameters of the deblurring network to minimize these differences.
학습장치는 디블러링이미지와 타겟이미지의 차이로 계산되는 로스를 정의하고, 이러한 로스가 최소화되도록 디블러링네트워크 및/혹은 조건파라미터모듈을 학습시킬 수 있다.The learning device can define a loss calculated as the difference between the deblurring image and the target image, and learn the deblurring network and/or condition parameter module to minimize this loss.
도 7은 일 실시예에 따른 모션블러 저감방법의 흐름도이다.Figure 7 is a flowchart of a motion blur reduction method according to an embodiment.
도 7을 참조하면, 로봇은 촬영한 오리지널이미지와 오리지널이미지가 촬영된 상황에서의 로봇의 관성센서측정값을 획득할 수 있다(S700).Referring to Figure 7, the robot can acquire the captured original image and the inertial sensor measurement value of the robot in the situation in which the original image was captured (S700).
그리고, 로봇은 관성센서측정값을 데이터매핑처리할 수 있다(S702).And, the robot can process the inertial sensor measurements into data mapping (S702).
데이터매핑처리는 도 6을 참조하여 설명한 학습장치의 데이터매핑처리와 동일할 수 있다. 로봇은 관성센서측정값을 양자화할 수 있고, 필요에 따라 관성센서측정값을 변환할 수 있다.The data mapping process may be the same as the data mapping process of the learning device described with reference to FIG. 6. The robot can quantize the inertial sensor measurements and convert the inertial sensor measurements as needed.
그리고, 로봇은 양자화된 관성센서측정값을 미리 학습된 조건파라미터추출모듈에 입력하여 관성반영파라미터를 추출할 수 있다(S704).Then, the robot can extract the inertial reflection parameter by inputting the quantized inertial sensor measurement value into the pre-learned condition parameter extraction module (S704).
그리고, 로봇은 관성반영파라미터를 미리 학습된 디블러링네트워크의 조건파라미터로 적용시킬 수 있다(S706).And, the robot can apply the inertial reflection parameter as a condition parameter of the deblurring network learned in advance (S706).
여기서, 디블러링네트워크는 유넷(U-Net)의 형태로 구현될 수 있고, 조건파라미터는 유넷(U-Net)의 FiLM(Feature-wise Linear Modulation)에 적용되는 파라미터일 수 있다.Here, the deblurring network may be implemented in the form of U-Net, and the condition parameter may be a parameter applied to Feature-wise Linear Modulation (FiLM) of U-Net.
유넷(U-Net)은 인코더블럭과 디코더블럭을 포함할 수 있는데, 관성반영파라미터는 인코더블럭의 조건파라미터에 적용될 수 있다.U-Net may include an encoder block and a decoder block, and the inertia reflection parameter can be applied to the condition parameter of the encoder block.
그리고, 로봇은 디블러링네트워크에 오리지널이미지를 입력한 후 모션블러가 저감된 디블러링이미지를 생성할 수 있다(S708).Additionally, the robot can generate a deblurring image with reduced motion blur after inputting the original image into the deblurring network (S708).
이상에서 설명한 바와 같이 본 실시예에 의하면, 로봇이 촬영한 이미지에서 모션블러를 저감시킬 수 있게 되고, 이를 통해 VSLAM의 정확도를 높일 수 있게 된다.As described above, according to this embodiment, motion blur can be reduced in images captured by a robot, and through this, the accuracy of VSLAM can be improved.
이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재될 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥 상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Terms such as “include,” “comprise,” or “have,” as used above, mean that the corresponding component may be included, unless specifically stated to the contrary, and do not exclude other components. It should be interpreted that it may further include other components. All terms, including technical or scientific terms, unless otherwise defined, have the same meaning as generally understood by a person of ordinary skill in the technical field to which the present invention pertains. Commonly used terms, such as terms defined in a dictionary, should be interpreted as consistent with the meaning in the context of the related technology, and should not be interpreted in an idealized or overly formal sense unless explicitly defined in the present invention.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely an illustrative explanation of the technical idea of the present invention, and various modifications and variations will be possible to those skilled in the art without departing from the essential characteristics of the present invention. Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but are for illustrative purposes, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be interpreted in accordance with the claims below, and all technical ideas within the equivalent scope should be construed as being included in the scope of rights of the present invention.
Claims (15)
상기 모션블러이미지, 타겟이미지, 그리고, 상기 모션블러이미지가 촬영된 상황에서의 상기 로봇의 관성센서측정값을 포함하는 학습데이터들이 획득되는 단계;
상기 관성센서측정값을 양자화하는 단계;
양자화된 관성센서측정값을 조건파라미터추출모듈에 입력하여 관성반영파라미터를 추출하는 단계;
상기 관성반영파라미터를 조건파라미터로 사용하고, 상기 모션블러이미지를 입력으로 하며, 상기 디블러링이미지를 생성하는 디블러링네트워크를 준비하는 단계; 및
상기 디블러링이미지가 상기 타겟이미지를 추종하도록 상기 학습데이터들을 이용하여 상기 조건파라미터추출모듈 및 상기 디블러링네트워크를 학습시키는 단계;를 포함하고,
상기 타겟이미지는 상기 모션블러이미지에서 모션블러가 저감된 이미지로서,상기 모션블러이미지의 해당 장면을 정지한 상태에서 촬영하여 모션블러가 나타나지 않은 이미지이고,
상기 디블러링네트워크는 유넷(U-Net)의 형태로 구현되고, 상기 조건파라미터는 상기 유넷에 적용되는 파라미터인, 디블러링네트워크 학습방법.In the deblurring network learning method for generating a deblurring image with reduced motion blur for the motion blur image by deblurring a motion blur image taken in a situation where a robot is moving,
Obtaining learning data including the motion blur image, the target image, and an inertial sensor measurement value of the robot in a situation in which the motion blur image was captured;
Quantizing the inertial sensor measurement value;
Extracting an inertial reflection parameter by inputting the quantized inertial sensor measurement value into a condition parameter extraction module;
preparing a deblurring network that uses the inertial reflection parameter as a condition parameter, inputs the motion blur image, and generates the deblurring image; and
Comprising: training the condition parameter extraction module and the deblurring network using the learning data so that the deblurring image follows the target image,
The target image is an image in which motion blur has been reduced in the motion blur image, and is an image in which motion blur is not displayed by shooting the scene of the motion blur image while still,
The deblurring network is implemented in the form of a U-Net, and the condition parameter is a parameter applied to the U-Net. A deblurring network learning method.
상기 조건파라미터는 상기 유넷의 FiLM(Feature-wise Linear Modulation)에 적용되는 파라미터인 디블러링네트워크 학습방법.According to paragraph 1,
The condition parameter is a deblurring network learning method that is a parameter applied to FiLM (Feature-wise Linear Modulation) of the unit.
상기 조건파라미터추출모듈은 비선형함수를 포함하는 디블러링네트워크 학습방법.According to paragraph 1,
The condition parameter extraction module is a deblurring network learning method including a non-linear function.
상기 관성센서측정값은 공간의 각 축별 각가속도값을 포함하는 디블러링네트워크 학습방법.According to paragraph 1,
A deblurring network learning method in which the inertial sensor measurement values include angular acceleration values for each axis of space.
상기 디블러링네트워크를 학습시키는 단계에서,
상기 디블러링이미지와 상기 타겟이미지의 차이로 계산되는 로스가 최소화되도록 상기 디블러링네트워크를 학습시키는 디블러링네트워크 학습방법.According to paragraph 1,
In the step of learning the deblurring network,
A deblurring network learning method for learning the deblurring network so that the loss calculated as the difference between the deblurring image and the target image is minimized.
상기 오리지널이미지, 타겟이미지, 그리고 상기 오리지널이미지가 촬영된 상황에서의 상기 로봇의 관성센서측정값을 획득하는 단계;
상기 관성센서측정값을 양자화하는 단계;
양자화된 관성센서측정값을 미리 학습된 조건파라미터추출모듈에 입력하여 관성반영파라미터를 추출하는 단계;
상기 관성반영파라미터를 미리 학습된 디블러링네트워크의 조건파라미터로 적용시키는 단계;
상기 디블러링네트워크에 상기 오리지널이미지를 입력한 후 모션블러가 저감된 디블러링이미지를 생성하는 단계;를 포함하고,
상기 타겟이미지는 상기 오리지널이미지에서 모션블러가 저감된 이미지로서,상기 오리지널이미지의 해당 장면을 정지한 상태에서 촬영하여 모션블러가 나타나지 않은 이미지이고,
상기 디블러링네트워크는 유넷(U-Net)의 형태로 구현되고, 상기 조건파라미터는 상기 유넷에 적용되는 파라미터인 모션블러 저감방법.In the motion blur reduction method of deblurring an original image taken in a situation where a robot is moving and generating a deblurring image with reduced motion blur for the original image,
Obtaining the original image, the target image, and an inertial sensor measurement value of the robot in a situation in which the original image was captured;
Quantizing the inertial sensor measurement value;
Extracting an inertial reflection parameter by inputting the quantized inertial sensor measurement value into a pre-learned condition parameter extraction module;
Applying the inertial reflection parameter as a condition parameter of a pre-learned deblurring network;
Including the step of inputting the original image into the deblurring network and then generating a deblurring image with reduced motion blur,
The target image is an image in which motion blur has been reduced from the original image, and is an image in which motion blur does not appear because the corresponding scene of the original image is captured while still,
The deblurring network is implemented in the form of a U-Net, and the condition parameter is a parameter applied to the U-Net.
상기 조건파라미터는 상기 유넷의 FiLM(Feature-wise Linear Modulation)에 적용되는 파라미터인 모션블러 저감방법.According to clause 6,
The condition parameter is a motion blur reduction method that is a parameter applied to FiLM (Feature-wise Linear Modulation) of the unit.
상기 로봇의 가속도센서측정값을 이용하여 각 축별 각가속도값을 계산하는 단계를 더 포함하고,
상기 관성센서측정값은 상기 각가속도값을 포함하는 모션블러 저감방법.According to clause 6,
Further comprising calculating the angular acceleration value for each axis using the acceleration sensor measurement value of the robot,
A method of reducing motion blur wherein the inertial sensor measurement value includes the angular acceleration value.
상기 조건파라미터추출모듈은,
양자화된 관성센서측정값을 선형결합과 비선형함수 계산을 통해 상기 관성반영파라미터를 추출하는 모션블러 저감방법.According to clause 6,
The condition parameter extraction module is,
A motion blur reduction method that extracts the inertial reflection parameters through linear combination of quantized inertial sensor measurements and non-linear function calculation.
상기 디블러링네트워크는 인코더블럭과 디코더블럭을 포함하고,
상기 관성반영파라미터는 상기 인코더블럭의 조건파라미터에 적용되는 모션블러 저감방법.According to clause 6,
The deblurring network includes an encoder block and a decoder block,
A motion blur reduction method in which the inertial reflection parameter is applied to the condition parameter of the encoder block.
상기 로봇의 몸체 외부를 촬영하는 카메라;
상기 몸체의 관성을 측정하는 관성센서;
상기 몸체의 이동을 제어하는 이동장치; 및
상기 관성센서의 측정값을 양자화하고, 양자화된 측정값을 미리 학습된 조건파라미터추출모듈에 입력하여 관성반영파라미터를 추출하며, 상기 관성반영파라미터를 미리 학습된 디블러링네트워크의 조건파라미터로 적용시키고, 상기 디블러링네트워크에 상기 카메라가 촬영한 상기 오리지널이미지를 입력한 후 모션블러가 저감된 디블러링이미지를 생성하는 프로세서;를 포함하고,
상기 프로세서는 상기 이동장치로 제어신호를 송신하고, 상기 제어신호가 상기 로봇을 움직이도록 하는 제어신호인 경우, 상기 디블러링네트워크에 상기 카메라가 촬영한 상기 오리지널이미지를 입력한 후 모션블러가 저감된 디블러링이미지를 생성하고,
상기 관성센서는 상기 로봇의 몸체의 팔과 다리의 관절부분 및 목부분을 포함하여 상기 로봇의 몸체에서 움직임이 발생하는 위치에 배치되고,
상기 디블러링네트워크는 유넷(U-Net)의 형태로 구현되고, 상기 조건파라미터는 상기 유넷에 적용되는 파라미터인, 로봇.In a robot that deblurs a motion-blurred original image taken in a moving situation,
A camera that photographs the outside of the robot's body;
an inertial sensor that measures the inertia of the body;
A moving device that controls movement of the body; and
Quantize the measured value of the inertial sensor, input the quantized measured value into a pre-learned condition parameter extraction module to extract an inertial reflection parameter, and apply the inertial reflection parameter as a condition parameter of a pre-learned deblurring network. , a processor that generates a deblurring image with reduced motion blur after inputting the original image captured by the camera to the deblurring network,
The processor transmits a control signal to the mobile device, and when the control signal is a control signal to move the robot, motion blur is reduced after inputting the original image captured by the camera to the deblurring network. Create a deblurred image,
The inertial sensor is disposed at a location where movement occurs in the body of the robot, including the joints and neck of the arms and legs of the robot body,
The deblurring network is implemented in the form of a U-Net, and the condition parameter is a parameter applied to the U-Net.
상기 프로세서는 상기 디블러링이미지에 대한 분석을 통해 공간 내의 상기 로봇의 위치를 추정하는 로봇.According to clause 11,
A robot wherein the processor estimates the position of the robot in space through analysis of the deblurring image.
상기 프로세서는 상기 디블러링이미지를 이용하여 VSLAM(Visual Simultaneous Localization And Mapping)을 구현하는 로봇.According to clause 11,
The processor is a robot that implements VSLAM (Visual Simultaneous Localization And Mapping) using the deblurring image.
상기 관성센서는 가속도센서를 포함하고,
상기 프로세서는 상기 가속도센서의 측정값을 이용하여 각 축별 각가속도값을 계산하고, 상기 각가속도값을 이용하여 상기 관성반영파라미터를 추출하는 로봇.According to clause 11,
The inertial sensor includes an acceleration sensor,
The processor calculates an angular acceleration value for each axis using the measured value of the acceleration sensor, and extracts the inertial reflection parameter using the angular acceleration value.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210174997A KR102645254B1 (en) | 2021-12-08 | 2021-12-08 | Deblurring network learning method, motion blur reduction method and robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210174997A KR102645254B1 (en) | 2021-12-08 | 2021-12-08 | Deblurring network learning method, motion blur reduction method and robot |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20230086865A KR20230086865A (en) | 2023-06-16 |
KR102645254B1 true KR102645254B1 (en) | 2024-03-08 |
Family
ID=86948158
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210174997A KR102645254B1 (en) | 2021-12-08 | 2021-12-08 | Deblurring network learning method, motion blur reduction method and robot |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102645254B1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005106727A (en) * | 2003-10-01 | 2005-04-21 | Honda Motor Co Ltd | Inertial sensor unit |
KR102303002B1 (en) * | 2021-03-31 | 2021-09-16 | 인하대학교 산학협력단 | Method and Apparatus for Deblurring of Human and Scene Motion using Pseudo-blur Synthesizer |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112703509A (en) * | 2018-08-07 | 2021-04-23 | 布赖凯科技股份有限公司 | Artificial intelligence techniques for image enhancement |
-
2021
- 2021-12-08 KR KR1020210174997A patent/KR102645254B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005106727A (en) * | 2003-10-01 | 2005-04-21 | Honda Motor Co Ltd | Inertial sensor unit |
KR102303002B1 (en) * | 2021-03-31 | 2021-09-16 | 인하대학교 산학협력단 | Method and Apparatus for Deblurring of Human and Scene Motion using Pseudo-blur Synthesizer |
Non-Patent Citations (1)
Title |
---|
Shuang Zhang, IS&T International Symposium on Electronic Imaging 2020 Computational Imaging,2020.14.COIMG-379 |
Also Published As
Publication number | Publication date |
---|---|
KR20230086865A (en) | 2023-06-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9183631B2 (en) | Method for registering points and planes of 3D data in multiple coordinate systems | |
KR101791590B1 (en) | Object pose recognition apparatus and method using the same | |
EP2179398B1 (en) | Estimating objects proper motion using optical flow, kinematics and depth information | |
JP5393318B2 (en) | Position and orientation measurement method and apparatus | |
CN111260773B (en) | Three-dimensional reconstruction method, detection method and detection system for small obstacle | |
JP6782903B2 (en) | Self-motion estimation system, control method and program of self-motion estimation system | |
KR101715780B1 (en) | Voxel Map generator And Method Thereof | |
CN111260715B (en) | Depth map processing method, small obstacle detection method and system | |
CN102387374A (en) | Device and method for acquiring high-precision depth map | |
CN111524194B (en) | Positioning method and terminal for mutually fusing laser radar and binocular vision | |
CN112907631B (en) | Multi-RGB camera real-time human body motion capture system introducing feedback mechanism | |
CN111047634B (en) | Scene depth determination method, device, equipment and storage medium | |
KR101737950B1 (en) | Vision-based navigation solution estimation system and method in terrain referenced navigation | |
Westfeld et al. | 3-D least squares matching for volumetric velocimetry data processing | |
CN112053390B (en) | Positioning method based on point cloud transformation matching | |
KR102645254B1 (en) | Deblurring network learning method, motion blur reduction method and robot | |
CN112580683A (en) | Multi-sensor data time alignment system and method based on cross correlation | |
KR101896183B1 (en) | 3-d straight lines detection method for camera motion estimation | |
Nguyen et al. | Real-time obstacle detection for an autonomous wheelchair using stereoscopic cameras | |
JP5230354B2 (en) | POSITIONING DEVICE AND CHANGED BUILDING DETECTION DEVICE | |
CN113744378B (en) | Exhibition article scanning method and device, electronic equipment and storage medium | |
CN114111791A (en) | Indoor autonomous navigation method and system for intelligent robot and storage medium | |
Knoll et al. | Investigation of different plant root exit point vector search algorithms in organic farming | |
CN115077467B (en) | Cleaning robot posture estimation method and device and cleaning robot | |
JP4958992B2 (en) | Exercise calculation apparatus and exercise calculation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AMND | Amendment | ||
E601 | Decision to refuse application | ||
X091 | Application refused [patent] | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |